
میزگرد «هوش مصنوعی برای بشریت: اخلاق و ایمنی هوش مصنوعی در عصر جدید»، در چارچوب هفته علم و فناوری VinFuture 2025، دانشمندان ، سیاستمداران و مخترعان را گرد هم میآورد تا در مورد توسعه مسئولانه هوش مصنوعی، به سمت ارزشهای انسانی، بحث کنند.
فوراً به این فکر کنید که چگونه با هوش مصنوعی - موجودی باهوشتر از خودتان - زندگی کنید
پروفسور توبی والش، دانشگاه نیو ساوت ولز، استرالیا و عضو آکادمی انجمن کامپیوتر آمریکا، در این سمینار تأکید کرد: «من کاملاً معتقدم که استفاده مسئولانه از هوش مصنوعی باید اجباری باشد. امروزه انگیزههای نادرست زیادی وجود دارد و به لطف هوش مصنوعی، پولهای هنگفتی به دست میآید و تنها راه برای اطمینان از رفتار مناسب، اعمال مقررات سختگیرانه است تا منافع عمومی همیشه با منافع تجاری متعادل باشد.»
او به نمونهای معمول از تصمیمات مهم، مانند قضاوت و صدور حکم در ایالات متحده، اشاره کرد که در آن از یک سیستم هوش مصنوعی برای ارائه توصیههایی در مورد مدت زندان یک فرد و احتمال تکرار جرم استفاده شده است. متأسفانه، این سیستم بر اساس دادههای تاریخی آموزش دیده بود و ناخواسته تعصبات نژادی گذشته را منعکس میکرد و منجر به تبعیض علیه سیاهپوستان میشد.

پروفسور توبی والش، دانشگاه نیو ساوت ولز، استرالیا، عضو انجمن کامپیوتر آمریکا.
بنابراین، شرکتهایی که سیستمهای هوش مصنوعی را مستقر و اداره میکنند، باید مسئول عواقبی باشند که این «ماشینها» ایجاد میکنند.
پروفسور جفری هینتون - برنده جایزه اصلی VF 2024، نگران است که هوش مصنوعی به تدریج در طراحی ویروسهای خطرناک، حملات سایبری، ایجاد ویدیوهای جعلی برای ایجاد اختلال در انتخابات بهتر میشود. در 20 سال آینده، هوش مصنوعی از ما باهوشتر خواهد شد و ما نمیدانیم چگونه از به دست گرفتن کنترل از انسان توسط آن جلوگیری کنیم.
بنابراین، این استاد تأکید کرد: «ما باید فوراً در مورد چگونگی زندگی با موجوداتی باهوشتر از خودمان فکر کنیم. این وضعیتی است که بشریت قبلاً هرگز با آن روبرو نشده است، جدید است و ما باید قبل از وقوع آن تلاشهای تحقیقاتی زیادی انجام دهیم.»
نیاز به افزایش همکاریهای بینالمللی برای محدود کردن خطرات هوش مصنوعی
پروفسور یوشوا بنجیو - برنده جایزه اصلی VinFuture 2024 - با ابراز نگرانی در این مورد، گفت که مدلهای هوش مصنوعی، قابلیتها و سطوح خودمختاری آنها هنوز با سرعتی سریع و ثابت در حال توسعه هستند. اگر این روند ادامه یابد، سیستمهای هوش مصنوعی خودمختار میتوانند ظرف تنها ۵ تا ۱۰ سال در اکثر وظایف شناختی از انسانها پیشی بگیرند.
این یک نقطه عطف تاریخی خواهد بود که میتواند کیفیت زندگی ما را به طرز چشمگیری بهبود بخشد. اما اگر با احتیاط رفتار نشود، میتواند خطرات بزرگی را برای دموکراسی، ثبات ژئوپلیتیکی و حتی آینده بشریت ایجاد کند.
او گفت: «ما باید به جای تمرکز صرف بر قویتر کردن هوش مصنوعی پیشرفته، ایمنی آن را افزایش دهیم. ایمنی و اعتماد عوامل ثانویه نیستند، بلکه در فرآیند توسعه به نفع بشریت ضروری هستند. ما باید هم در سطح سیاستگذاری و هم در سطح علمی با هم عمل کنیم.»

پروفسور یوشع بنگیو - برنده جایزه اصلی VinFuture 2024.
این دانشمند توصیه میکند که از نظر سیاستگذاری، جهان به همکاری بینالمللی نیاز دارد. از نظر علمی، لازم است درک بهتری از چگونگی طراحی هوش مصنوعی داشته باشیم که هم از نظر توانایی برتر باشد و هم برای انسان بیضرر باشد، توانایی کنترل هوش مصنوعی را حفظ کنیم تا حتی زمانی که انسانها از آن میخواهند کار اشتباهی انجام دهد، با خیال راحت رفتار کند و موانع فنی و اجتماعی ایجاد کنیم تا اطمینان حاصل شود که هوش مصنوعی با هنجارها، نیات، ارزشها و علایق انسانی سازگار است.
دکتر وینتون گری سرت (معاون رئیس و مدیر تبلیغ اینترنتی در گوگل - برنده جایزه بزرگ VF 2022) موافق است: ما باید هوش مصنوعی را پاسخگو نگه داریم، یک زنجیره حضانت ایجاد کنیم تا بدانیم چه کاری انجام میدهند، چه زمانی، به خصوص وقتی مشکلی پیش میآید. بسیاری از اصولی که در مورد انسانها صدق میکند، در مورد عوامل هوش مصنوعی در محیط آنلاین نیز صدق میکند.
«ما باید همزمان هنجارهای جدیدی را ایجاد کنیم که در آن استفاده از شناسایی قوی، رمزنگاری برای ایمنسازی اطلاعات، اعمال سازوکارهایی برای تضمین پاسخگویی و محافظت از هویتها در برابر ربوده شدن توسط دیگران - به یک عادت عادی تبدیل شود. ما باید از همان ابتدا از فناوری برای محدود کردن خطرات استفاده کنیم و روشن کنیم که هر کسی که برای جامعه مضر تشخیص داده شود، باید با عواقب آن رفتار روبرو شود. این امر مستلزم همکاری بینالمللی است.»
ویتنام باید مسیر خودش را در ساخت دادههای هوش مصنوعی داشته باشد.
دانشیار لو آنه توآن، از دانشگاه فنی نانیانگ (سنگاپور)، دانشگاه وین یونی (ویتنام) گفت که کشورهای دیگر مجموعه دادههایی حدود ۱۰ سال دارند، اما ویتنام از صفر شروع میکند. بنابراین، ما میتوانیم از ابتدا دادههای پایدار بسازیم و از همان ابتدا دادههای تمیز، اخلاقی و متناسب با فرهنگ را ارائه دهیم.
با این حال، بزرگترین چالش برای ویتنام، خاص بودن زبان ویتنامی است. ما یک سیستم گویشی متنوع، فرهنگ منطقهای غنی و اشکال بسیار پیچیدهای از آدرس داریم. مدلهای بزرگی مانند ChatGPT یا Gemini از زبان ویتنامی پشتیبانی میکنند اما کیفیت آنها عمیق نیست زیرا آنها گویش، آداب و رسوم یا تاریخ ویتنامی را درک نمیکنند.
ویتنام باید مدل ویتنامی خود را بسازد. علاوه بر این، ما باید یک مدل متنباز توسعه دهیم تا کسبوکارهای کوچک بتوانند از آن استفاده کرده و در آن مشارکت کنند. او گفت: «اگر فقط به مدلهای خارجی به شکل «جعبههای سیاه» تکیه کنیم، فقط کاربران هوش مصنوعی خواهیم بود و نه توسعهدهندگان آن.»
در حال حاضر، دانشیار لو آنه توآن و همکارانش در حال ساخت دادههای هوش مصنوعی ویتنامی هستند. عواملی مانند گویش، تاریخ و فرهنگ باید به عنوان محور در نظر گرفته شوند.
او همچنین گفت که در کشورهای خارجی، دانشآموزان خیلی زود در مورد هوش مصنوعی آموزش میبینند. ویتنام تازه این کار را شروع کرده است، اما میتوانیم با یادگیری و تطبیق با آن، سرعت آن را افزایش دهیم.
او گفت: «جوانان ویتنامی بسیار پویا هستند؛ آنها فقط باید در مورد مسئولیت دیجیتال کاملاً آموزش ببینند. ما باید یک نهاد واحد برای تأیید و استانداردسازی کیفیت دادهها و استانداردهای اخلاقی داشته باشیم. دانشگاه وین نیز در شورا برای ایجاد یک سیستم استانداردهای اخلاقی شرکت میکند و به مشارکت در این فرآیند ادامه خواهد داد.»

دانشیار لو آنه توآن، دانشگاه فنی نانیانگ (سنگاپور)، دانشگاه وین یونی (ویتنام).
در پاسخ به استراتژی سرمایهگذاری مستقیم خارجی که هدف آن رهبری ویتنام در منطقه در حوزه هوش مصنوعی تا سال ۲۰۳۰ است، دانشیار توآن معتقد است که ویتنام منابع انسانی باکیفیتی دارد - که از طریق دستاوردهای بینالمللی در ریاضیات، فیزیک و شیمی نشان داده شده است. اگر بدانیم چگونه نیروها را جمعآوری کنیم و سیاستهای قوی داشته باشیم، میتوان به طور کامل به هدف ۲۰۳۰ دست یافت.
پروفسور توبی والش توصیه میکند که ویتنام باید روی افراد سرمایهگذاری کند و به طور فعال مهارتهای افراد را بهبود بخشد، اطمینان حاصل کند که آنها هوش مصنوعی را درک میکنند؛ از کارآفرینان، کسبوکارها و دانشگاههای هوش مصنوعی حمایت کند. به جای اینکه منتظر بمانیم کشورهای دیگر فناوری را منتقل کنند یا ما را راهنمایی کنند، باید فعال باشیم و بر فناوری تسلط پیدا کنیم.
علاوه بر این، ویتنام باید پلتفرمهای شبکههای اجتماعی را به شدت بسیج کند تا محیطی امن برای کاربران داخلی ایجاد کند، بدون اینکه بر دموکراسی کشور تأثیر بگذارد.
تائو لو-تین لام






نظر (0)