میزگرد «هوش مصنوعی برای بشریت: اخلاق و ایمنی هوش مصنوعی در عصر جدید» در چارچوب هفته علم و فناوری VinFuture 2025، دانشمندان، سیاستمداران و مخترعان را گرد هم میآورد تا در مورد توسعه مسئولانه هوش مصنوعی، به سمت ارزشهای انسانی، بحث کنند.
در حاشیه این بحث، پروفسور توبی والش - دانشگاه نیو ساوت ولز (استرالیا)، عضو آکادمی انجمن ماشینآلات محاسباتی آمریکا، در مورد استفاده اخلاقی و مسئولانه از هوش مصنوعی مطالبی را به اشتراک گذاشت.
استفاده مسئولانه از هوش مصنوعی باید اجباری شود
- به گفته استاد، استفاده مسئولانه از هوش مصنوعی باید داوطلبانه باشد یا اجباری؟ و ما واقعاً چگونه باید در قبال هوش مصنوعی رفتار کنیم؟
پروفسور توبی والش: من کاملاً معتقدم که استفاده مسئولانه از هوش مصنوعی باید اجباری باشد. در حال حاضر، با توجه به حجم عظیم پولهایی که از طریق هوش مصنوعی به دست میآید، انگیزههای نادرستی وجود دارد و تنها راه برای اطمینان از رفتار خوب، وضع مقررات سختگیرانه است تا منافع عمومی همیشه در برابر منافع تجاری متعادل باشد.
- آیا میتوانید نمونههای مشخصی از کاربردهای مسئولانه و اخلاقی هوش مصنوعی در کشورهای مختلف ارائه دهید؟
پروفسور توبی والش: یک مثال کلاسیک، تصمیمات پرمخاطره، مانند صدور حکم و مجازات در ایالات متحده است که در آن از یک سیستم هوش مصنوعی برای ارائه توصیههایی در مورد مدت زندان یک فرد و احتمال ارتکاب مجدد جرم استفاده میشود.
متأسفانه، این سیستم بر اساس دادههای تاریخی آموزش دیده و ناخواسته منعکسکننده تعصبات نژادی گذشته است که منجر به تبعیض علیه سیاهپوستان میشود. ما نباید اجازه دهیم سیستمهایی مانند این تصمیم بگیرند که چه کسی زندانی شود.
- وقتی هوش مصنوعی اشتباه میکند، چه کسی مسئول است؟ به خصوص در مورد عوامل هوش مصنوعی، آیا ما توانایی اصلاح مکانیسمهای عملیاتی آنها را داریم؟
پروفسور توبی والش: مشکل اصلی وقتی هوش مصنوعی اشتباه میکند این است که ما نمیتوانیم آن را پاسخگو بدانیم. هوش مصنوعی انسان نیست و این یک نقص در هر سیستم حقوقی در جهان است. فقط انسانها مسئول تصمیمات و اعمال خود هستند.
ناگهان، ما یک «عامل» جدید به نام هوش مصنوعی داریم که میتواند - اگر به آن اجازه دهیم - در دنیای ما تصمیمگیری کند و اقداماتی انجام دهد، که این یک چالش را ایجاد میکند: چه کسی را پاسخگو خواهیم دانست؟
پاسخ این است که شرکتهایی که سیستمهای هوش مصنوعی را مستقر و اداره میکنند، در قبال عواقبی که این «ماشینها» ایجاد میکنند، پاسخگو باشند.

پروفسور توبی والش - دانشگاه نیو ساوت ولز، در سمینار «هوش مصنوعی برای بشریت: اخلاق و ایمنی هوش مصنوعی در عصر جدید» در چارچوب هفته علم و فناوری VinFuture 2025 به اشتراک گذاشت. (عکس: مین سون/ویتنام پلاس)
- بسیاری از شرکتها نیز از هوش مصنوعی مسئولانه صحبت میکنند. چگونه میتوانیم به آنها اعتماد کنیم؟ از کجا بدانیم که آنها جدی و جامعنگر هستند و فقط از «هوش مصنوعی مسئولانه» به عنوان یک ترفند بازاریابی استفاده نمیکنند؟
پروفسور توبی والش: ما باید شفافیت را افزایش دهیم. درک قابلیتها و محدودیتهای سیستمهای هوش مصنوعی مهم است. ما همچنین باید «با عمل کردن رأی دهیم» - یعنی انتخاب کنیم که از خدمات به طور مسئولانه استفاده کنیم.
من واقعاً معتقدم که نحوه استفاده مسئولانه از هوش مصنوعی توسط کسبوکارها، به یک عامل تمایز در بازار تبدیل خواهد شد و به آنها مزیت تجاری میدهد. اگر شرکتی به دادههای مشتری احترام بگذارد، از آن سود خواهد برد و مشتریان را جذب خواهد کرد.
کسبوکارها متوجه خواهند شد که انجام کار درست نه تنها اخلاقی است، بلکه باعث موفقیت بیشتر آنها نیز میشود. من این را راهی برای تمایز بین کسبوکارها میدانم و کسبوکارهای مسئول، کسبوکارهایی هستند که میتوانیم در تجارت با آنها احساس راحتی کنیم.
«اگر مراقب نباشیم، ممکن است دورهای از استعمار دیجیتال را تجربه کنیم»
- ویتنام یکی از معدود کشورهایی است که در حال بررسی تصویب قانون هوش مصنوعی است. ارزیابی شما از این موضوع چیست؟ به نظر شما، برای کشورهای در حال توسعه مانند ویتنام، چالشهای مربوط به اخلاق و امنیت در توسعه هوش مصنوعی چیست؟ این استاد چه توصیههایی برای ویتنام برای دستیابی به اهداف خود در استراتژی هوش مصنوعی - یعنی قرار گرفتن در صدر منطقه و جهان در تحقیقات و تسلط بر هوش مصنوعی - دارد؟
پروفسور توبی والش: من خوشحالم که ویتنام یکی از کشورهای پیشگامی است که قانون اختصاصی در مورد هوش مصنوعی خواهد داشت. این مهم است زیرا هر کشوری ارزشها و فرهنگ خاص خود را دارد و برای محافظت از این ارزشها به قوانینی نیاز دارد.
ارزشها و فرهنگ ویتنامی با استرالیا، چین و ایالات متحده متفاوت است. ما نمیتوانیم انتظار داشته باشیم که شرکتهای فناوری چینی یا آمریکایی به طور خودکار از فرهنگ و زبان ویتنامی محافظت کنند. ویتنام باید ابتکار عمل را برای محافظت از این موارد به دست بگیرد.

پروفسور توبی والش هشدار میدهد که اگر مراقب نباشیم، ممکن است دورهای از استعمار دیجیتال را تجربه کنیم. (عکس: مین سون/ویتنام پلاس)
من میدانم که در گذشته، بسیاری از کشورهای در حال توسعه دورهای از استعمار فیزیکی را پشت سر گذاشتند. اگر مراقب نباشیم، ممکن است وارد دورهای از «استعمار دیجیتال» شویم. دادههای شما مورد سوءاستفاده قرار خواهند گرفت و شما به یک منبع ارزان تبدیل خواهید شد.
اگر کشورهای در حال توسعه صنعت هوش مصنوعی را به گونهای توسعه دهند که فقط از دادهها بهرهبرداری کند، بدون اینکه منافع خود را کنترل یا محافظت کند، این امر در معرض خطر است.
- خب، پروفسور، چطور باید بر این وضعیت غلبه کرد؟
پروفسور توبی والش: ساده است، روی افراد سرمایهگذاری کنید. مهارتهای افراد را ارتقا دهید، مطمئن شوید که هوش مصنوعی را درک میکنند. از کارآفرینان هوش مصنوعی، شرکتها و دانشگاهها حمایت کنید. فعال باشید. به جای اینکه منتظر کشورهای دیگر باشیم تا فناوری را منتقل کنند یا ما را راهنمایی کنند، باید فعال باشیم و صاحب فناوری باشیم.
مهمتر از همه، ما باید قویاً از پلتفرمهای رسانههای اجتماعی حمایت کنیم تا محیطی امن برای کاربران در ویتنام ایجاد کنند، در حالی که بر دموکراسی این کشور تأثیر نگذارند.
در واقع، نمونههای بیشماری وجود دارد که نشان میدهد چگونه محتوای رسانههای اجتماعی بر نتایج انتخابات تأثیر گذاشته، کشورها را دچار تفرقه کرده و حتی تروریسم را تحریک کرده است.
- هوش مصنوعی در ویتنام بسیار توسعه یافته است. در سالهای اخیر، ویتنام سیاستهای زیادی برای ترویج هوش مصنوعی داشته است، اما ویتنام با مشکلی نیز روبرو است که همان کلاهبرداری ناشی از هوش مصنوعی است. بنابراین، به گفته استاد، ویتنام چگونه باید با این وضعیت برخورد کند؟
پروفسور توبی والش: برای افراد، فکر میکنم سادهترین راه تأیید اطلاعات است. به عنوان مثال، وقتی یک تماس تلفنی یا ایمیل، مثلاً از یک بانک، دریافت میکنیم، باید دوباره آن را بررسی کنیم: میتوانیم با آن شماره تلفن تماس بگیریم یا مستقیماً با بانک تماس بگیریم تا اطلاعات را تأیید کنیم. امروزه ایمیلها، شماره تلفنهای جعلی زیادی وجود دارد، حتی تماسهای زوم را میتوان جعلی کرد. این کلاهبرداریها بسیار ساده، ارزان هستند و زمان زیادی نمیبرند.
در خانواده من، ما هم یک اقدام امنیتی مخصوص به خودمان داریم: یک «سوال محرمانه» که فقط اعضای خانواده میدانند، مثلاً اسم خرگوش خانگیمان. این کار تضمین میکند که اطلاعات مهم در خانواده باقی میماند و به بیرون درز نمیکند.
- خیلی ممنونم./.
پروفسور توبی والش، محقق افتخاری ARC و استاد علوم در هوش مصنوعی (AI) در دانشگاه نیو ساوت ولز سیدنی (UNSW) است. او از طرفداران سرسخت تعیین محدودیتها برای اطمینان از استفاده از هوش مصنوعی برای بهبود زندگی مردم است.
او همچنین عضو آکادمی علوم استرالیا است و در فهرست بینالمللی «افراد تأثیرگذار در هوش مصنوعی» قرار گرفته است.
(ویتنام+)
منبع: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp






نظر (0)