انفجار هوش مصنوعی (AI) مزایای زیادی برای بشریت به همراه دارد، اما عواقب بیشماری را نیز به دنبال دارد: از تعصب نژادی، کلاهبرداری آنلاین پیشرفته گرفته تا خطر تبدیل شدن کشورهای در حال توسعه به "معادن داده" ارزان.
با توجه به این واقعیت، آیا استفاده مسئولانه از هوش مصنوعی باید داوطلبانه باشد یا اجباری؟ ویتنام هنگام ایجاد یک کریدور قانونی برای این حوزه چه باید بکند؟
در حاشیه رویداد هفته علم و فناوری VinFuture، خبرنگار گفتگویی با پروفسور توبی والش - دانشگاه نیو ساوت ولز (استرالیا)، عضو آکادمیسین انجمن کامپیوتر آمریکا داشت.
این استاد دانشگاه، بینشهایی در مورد نحوه «رفتار» ما با هوش مصنوعی ارائه میدهد، از پاسخگو دانستن «ماشینها» گرفته تا نکاتی برای خانوادهها جهت محافظت از خود در برابر موج کلاهبرداریهای پیشرفته.
چه کسی مسئول هوش مصنوعی است؟
استاد، آیا استفاده مسئولانه از هوش مصنوعی باید داوطلبانه باشد یا اجباری؟ و ما واقعاً چگونه باید در قبال هوش مصنوعی رفتار کنیم؟
- من کاملاً معتقدم که استفاده مسئولانه از هوش مصنوعی باید اجباری باشد . انگیزههای نادرستی در این زمینه وجود دارد ، به طوری که مبالغ هنگفتی از طریق هوش مصنوعی به دست میآید، و تنها راه برای اطمینان از رفتار مناسب، اعمال مقررات سختگیرانه است ، به طوری که منافع عمومی همیشه با منافع تجاری متعادل باشد .
وقتی هوش مصنوعی اشتباه میکند، چه کسی مسئول است؟ به خصوص در مورد عوامل هوش مصنوعی، آیا ما توانایی اصلاح مکانیسمهای عملیاتی آنها را داریم؟
مشکل اصلی اشتباه کردن هوش مصنوعی این است که ما نمیتوانیم آن را مسئول بدانیم. هوش مصنوعی انسان نیست - و این یک نقص در هر سیستم حقوقی در جهان است. فقط انسانها را میتوان در قبال تصمیمات و اعمالشان مسئول دانست.

ناگهان، ما یک «عامل» جدید، یعنی هوش مصنوعی، داریم که میتواند - اگر به آن اجازه دهیم - در دنیای ما تصمیمگیری کند و اقداماتی انجام دهد، که این امر چالشی را ایجاد میکند: چه کسی را پاسخگو خواهیم دانست؟
پاسخ این است: شرکتهایی که سیستمهای هوش مصنوعی را مستقر و اداره میکنند، باید مسئول عواقبی باشند که این «ماشینها» ایجاد میکنند.
بسیاری از شرکتها همچنین در مورد هوش مصنوعی مسئولانه صحبت میکنند. چگونه میتوانیم به آنها اعتماد کنیم؟ چگونه بدانیم که آنها جدی و جامع هستند و فقط از «هوش مصنوعی مسئولانه» به عنوان یک ترفند بازاریابی استفاده نمیکنند؟
- ما باید شفافیت را افزایش دهیم. درک قابلیتها و محدودیتهای سیستمهای هوش مصنوعی مهم است. ما همچنین باید «با عمل کردن رأی دهیم»، یعنی انتخاب کنیم که از خدمات به طور مسئولانه استفاده کنیم.
من واقعاً معتقدم که نحوهی استفادهی مسئولانهی کسبوکارها از هوش مصنوعی، به یک عامل تمایز در بازار تبدیل خواهد شد و به آنها یک مزیت تجاری میدهد.
اگر شرکتی به دادههای مشتری احترام بگذارد، به نفع آن خواهد بود و مشتریان را جذب میکند. کسبوکارها متوجه خواهند شد که انجام کار درست نه تنها اخلاقی است، بلکه به موفقیت بیشتر آنها نیز کمک خواهد کرد. من این را راهی برای تمایز بین کسبوکارها میدانم و کسبوکارهای مسئول، کسبوکارهایی هستند که میتوانیم در تجارت با آنها احساس راحتی کنیم.
ویتنام باید به طور فعال از ارزشهای فرهنگی محافظت کند.
ویتنام یکی از معدود کشورهایی است که در حال بررسی تصویب قانون هوش مصنوعی است. ارزیابی شما از این موضوع چیست؟ به نظر شما، برای کشورهای در حال توسعه مانند ویتنام، چالشهای مربوط به اخلاق و ایمنی در توسعه هوش مصنوعی چیست؟
- من بسیار خوشحالم که ویتنام یکی از کشورهای پیشگام در زمینه داشتن قانون تخصصی هوش مصنوعی است. این مهم است زیرا هر کشوری ارزشها و فرهنگ خاص خود را دارد و به قوانینی برای محافظت از آن ارزشها نیاز دارد.
ارزشها و فرهنگ ویتنامی با استرالیا، چین و ایالات متحده متفاوت است. ما نمیتوانیم انتظار داشته باشیم که شرکتهای فناوری چینی یا آمریکایی به طور خودکار از فرهنگ و زبان ویتنامی محافظت کنند. ویتنام باید ابتکار عمل را برای محافظت از این موارد به دست بگیرد.
من میدانم که در گذشته بسیاری از کشورهای در حال توسعه دورهای از استعمار فیزیکی را پشت سر گذاشتهاند. اگر مراقب نباشیم، ممکن است وارد دورهای از «استعمار دیجیتال» شویم. دادههای شما مورد سوءاستفاده قرار خواهد گرفت و شما به یک منبع ارزان تبدیل خواهید شد.
اگر کشورهای در حال توسعه صنعت هوش مصنوعی را به گونهای توسعه دهند که فقط از دادهها بهرهبرداری کند، بدون اینکه منافع خود را کنترل یا محافظت کند، این امر در معرض خطر است.
پس چگونه میتوان بر این وضعیت غلبه کرد؟
- ساده است: روی افراد سرمایهگذاری کنید. مهارتهای افراد را ارتقا دهید، مطمئن شوید که هوش مصنوعی را درک میکنند. از کارآفرینان، شرکتهای هوش مصنوعی، دانشگاهها حمایت کنید. فعال باشید. به جای اینکه منتظر کشورهای دیگر باشیم تا فناوری را منتقل کنند یا ما را راهنمایی کنند، خودمان باید فعال باشیم و بر فناوری تسلط پیدا کنیم.

پروفسور توبی والش در هفته علم و فناوری VinFuture مطلبی را به اشتراک میگذارد (عکس: کمیته سازماندهی).
دوم، ما باید قویاً از پلتفرمهای رسانههای اجتماعی حمایت کنیم تا محیطی امن برای کاربران در ویتنام ایجاد کنند، در حالی که بر دموکراسی این کشور تأثیر نگذارند.
در واقع، نمونههای بیشماری وجود دارد که نشان میدهد چگونه محتوای رسانههای اجتماعی بر نتایج انتخابات تأثیر گذاشته، کشورها را دچار تفرقه کرده و حتی تروریسم را تحریک کرده است.
من ۴۰ سال است که روی هوش مصنوعی کار میکنم. در ۳۰ سال اول، دغدغهام این بود که چگونه میتوان هوش مصنوعی را قدرتمندتر کرد. در ۱۰ سال گذشته، به طور فزایندهای به توسعه مسئولانه هوش مصنوعی علاقهمند شدهام و در این مورد صحبت میکنم.
با توجه به اینکه ویتنام در حال تدوین قانون هوش مصنوعی است، میتوانید کمی راهنمایی کنید؟
- موارد زیادی وجود دارد که در آنها نیازی به قوانین جدید نیست. ما از قبل قوانین حفظ حریم خصوصی داریم، از قبل قوانین رقابت داریم. این قوانین موجود همانطور که در دنیای فیزیکی اعمال میشوند، در فضای دیجیتال نیز اعمال میشوند.
مهم است که این قوانین را در محیط دیجیتال به همان اندازه که در محیط فیزیکی سختگیرانه اجرا میکنیم، اجرا کنیم.
با این حال، برخی خطرات جدید در حال ظهور هستند و ما کمکم شاهد آنها هستیم. مردم شروع به ایجاد روابط با هوش مصنوعی میکنند، از هوش مصنوعی به عنوان درمانگر استفاده میکنند و گاهی اوقات این امر به کاربران آسیب میرساند، بنابراین باید مراقب باشیم.
ما همیشه تولیدکنندگان را هنگام عرضه محصولات مسئول میدانیم. برای مثال، اگر شرکتهای هوش مصنوعی محصولات هوش مصنوعی را منتشر کنند که به انسانها آسیب برساند، آنها نیز باید مسئول شناخته شوند.
پس چطور میتوانیم از ایجاد اثرات مضر هوش مصنوعی بر کودکان جلوگیری کنیم و هر زمان که هوش مصنوعی ظاهر میشود، محیطی امن برای کودکان ایجاد کنیم؟
- من فکر میکنم ما درسهای زیادی از رسانههای اجتماعی نیاموختهایم. بسیاری از کشورها اکنون در حال درک این موضوع هستند که رسانههای اجتماعی مزایای زیادی دارند، اما معایب زیادی نیز دارند، به خصوص تأثیر آنها بر سلامت روان، سطح اضطراب و تصویر بدنی جوانان، به ویژه دختران.
بسیاری از کشورها در حال حاضر شروع به اجرای اقداماتی برای رسیدگی به این موضوع کردهاند. در استرالیا، محدودیت سنی برای استفاده از رسانههای اجتماعی از 10 دسامبر اعمال خواهد شد. من فکر میکنم ما به اقدامات مشابهی برای هوش مصنوعی نیاز داریم.
ما در حال ساخت ابزارهایی هستیم که میتوانند تأثیرات مثبتی داشته باشند، اما میتوانند مضر هم باشند و باید ذهن و قلب فرزندانمان را از این تأثیرات منفی محافظت کنیم.
علاوه بر این، امیدوارم کشورها مقررات سختگیرانهای را برای مدیریت شبکههای اجتماعی وضع کنند و از این طریق محیطی واقعاً امن برای همه هنگام استفاده از هوش مصنوعی ایجاد کنند.
در واقع، نه تنها کودکان، بلکه بزرگسالان نیز با خطرات ناشی از خود هوش مصنوعی مواجه هستند. بنابراین چگونه مردم میتوانند از هوش مصنوعی برای بهبود زندگی خود استفاده کنند و خطرناک نباشند؟
- هوش مصنوعی در زمینههای زیادی کاربرد دارد و به بهبود کیفیت زندگی ما کمک میکند. در پزشکی، هوش مصنوعی به کشف داروهای جدید کمک میکند. در آموزش نیز مزایای مثبت زیادی به همراه دارد.
با این حال، دسترسی به هوش مصنوعی بدون اقدامات حفاظتی کافی بسیار خطرناک است. ما شاهد پروندههای حقوقی در ایالات متحده بودهایم که در آن والدین از شرکتهای فناوری که فرزندانشان را پس از تعامل با چتباتهای هوش مصنوعی به سمت خودکشی سوق دادهاند، شکایت کردهاند.
اگرچه درصد کاربران ChatGPT که مشکلات سلامت روان را تجربه میکنند تنها چند درصد است، با وجود صدها میلیون کاربر، تعداد واقعی آنها صدها هزار نفر است.
دادهها برای توسعه هوش مصنوعی بسیار مهم هستند، اما از دیدگاه مدیریتی، اگر مدیریت دادهها بیش از حد سختگیرانه باشد، مانع توسعه هوش مصنوعی خواهد شد. به نظر شما، سست کردن مدیریت دادهها چه خطراتی میتواند ایجاد کند؟ چگونه میتوان جمعآوری دادهها و مدیریت ایمن دادهها را با ایجاد توسعه برای هوش مصنوعی متعادل کرد؟
- کاملاً موافقم. دادهها در قلب پیشرفت هوش مصنوعی قرار دارند ، زیرا این دادهها هستند که آن را هدایت میکنند. بدون دادهها، ما هیچ پیشرفتی نخواهیم داشت. دادههای با کیفیت بالا در هسته هر کاری است که انجام میدهیم. در واقع، ارزش تجاری و مزیت رقابتی که شرکتها به دست میآورند از دادهها ناشی میشود. چه دادههای باکیفیت داشته باشیم و چه نداشته باشیم، این مسئله کلیدی است.
دیدن اینکه کتابهای نویسندگان در سراسر جهان - از جمله کتاب من - بدون اجازه و بدون پرداخت غرامت مورد استفاده قرار میگیرد، بسیار آزاردهنده است. این عملی دزدی از ثمره کار دیگران است. اگر این وضعیت ادامه یابد، نویسندگان انگیزه نوشتن کتاب را از دست میدهند و ما ارزشهای فرهنگی را که گرامی میداریم از دست خواهیم داد.
ما باید به دنبال راهحلی منصفانهتر از آنچه اکنون داریم باشیم.
در حال حاضر، «سیلیکون ولی» محتوا و خلاقیت را از نویسندگان میگیرد بدون اینکه هزینهای برای آن بپردازد - این وضعیت ناپایدار است. من وضعیت فعلی را با نپستر و روزهای اولیه موسیقی آنلاین در دهه ۲۰۰۰ مقایسه میکنم. در آن زمان، موسیقی آنلاین کاملاً «دزدیده» میشد، اما این وضعیت نمیتوانست برای همیشه ادامه یابد، زیرا نوازندگان برای ادامه خلق آثارشان به درآمد نیاز داشتند.
در نهایت، ما سیستمهای پخش پولی مانند اسپاتیفای یا اپل موزیک یا موسیقیهای مبتنی بر تبلیغات داریم که بخشی از درآمد آن به هنرمند برمیگردد. ما باید همین کار را با کتابها انجام دهیم تا نویسندگان از دادههای خود ارزش کسب کنند. در غیر این صورت، هیچ کس انگیزهای برای نوشتن کتاب نخواهد داشت و جهان بدون نوشته شدن کتابهای جدید بسیار بدتر خواهد شد.

در چارچوب هفته علم و فناوری VinFuture، نمایشگاه «Toa V - نقطه تماس علم» نیز در مرکز هنرهای معاصر وینکام رویال سیتی برگزار خواهد شد (عکس: کمیته برگزارکننده).
هوش مصنوعی در ویتنام بسیار توسعه یافته است. در سالهای اخیر، ویتنام سیاستهای زیادی برای ترویج هوش مصنوعی داشته است، اما ویتنام نیز با مشکلی روبرو است که همان کلاهبرداری ناشی از هوش مصنوعی است. بنابراین، به گفته پروفسور، ویتنام چگونه باید با این وضعیت برخورد کند؟ توصیه پروفسور برای کسانی که امروزه از هوش مصنوعی برای اطمینان از ایمنی و محافظت از دادههای خود استفاده میکنند چیست؟
- برای هر فرد، فکر میکنم سادهترین راه، تأیید اطلاعات است. به عنوان مثال، هنگام دریافت تماس تلفنی یا ایمیل، مثلاً از یک بانک، باید دوباره بررسی کنیم: میتوانیم با شماره مشترک تماس بگیریم یا مستقیماً با بانک تماس بگیریم تا اطلاعات را تأیید کنیم.
این روزها کلی ایمیل جعلی، شماره تلفن جعلی و حتی تماسهای جعلی زوم وجود دارد. این کلاهبرداریها ساده، ارزان و بدون صرف وقت زیاد هستند.
در خانواده من، ما هم یک اقدام امنیتی مخصوص به خودمان داریم: یک «سوال محرمانه» که فقط اعضای خانواده میدانند، مثلاً اسم خرگوش خانگیمان. این کار تضمین میکند که اطلاعات مهم در خانواده باقی میماند و به بیرون درز نمیکند.
ویتنام نیز آموزش هوش مصنوعی را در آموزش عمومی گنجانده است، بنابراین در این فرآیند چه مواردی باید مورد توجه قرار گیرد؟
- هوش مصنوعی، آنچه آموزش داده میشود و نحوه آموزش آن را تغییر میدهد. این امر بر مهارتهای مهم آینده، مانند تفکر انتقادی، مهارتهای ارتباطی، هوش اجتماعی و هوش هیجانی تأثیر میگذارد. این مهارتها ضروری خواهند شد.
هوش مصنوعی میتواند در آموزش این مهارتها کمک کند، به عنوان مثال به عنوان یک معلم خصوصی، دستیار مطالعه شخصی، و ارائه ابزارهای آموزشی بسیار مؤثر از طریق برنامههای هوش مصنوعی.
استاد، از اینکه برای گفتگوی ما وقت گذاشتید، متشکریم!
منبع: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm






نظر (0)