دوره «اخلاق هوش مصنوعی» که طی دو روز، از ۱۲ تا ۱۳ می برگزار شد، بر اساس همکاری بین موسسه بلاکچین و هوش مصنوعی (ABAII) و سفارت ایالات متحده پس از بیش از ۱ سال آمادهسازی، سازماندهی شد.
به گفته آقای لی لین لونگ، معاون مدیر ABAII، تصمیم شماره 127/QD-TTg نخست وزیر مورخ 26 ژانویه 2021، که استراتژی ملی تحقیق، توسعه و کاربرد هوش مصنوعی تا سال 2030 را ابلاغ میکند، بر لزوم بهبود ظرفیت در اخلاق، مدیریت ریسک و سیاست هوش مصنوعی برای کارشناسان، مدیران و توسعهدهندگان تأکید دارد.
بنابراین، این دوره گامی مهم در فرآیند ساخت یک اکوسیستم هوش مصنوعی مسئولانه است که برای بافت قانونی، فرهنگی و اجتماعی ویتنام مناسب باشد.
خانم النیتا تاپاوان - مدیر مراکز ایالات متحده در ویتنام - سخنرانی افتتاحیه این دوره را ایراد کرد. عکس: کمیته سازماندهی
خانم النیتا تاپاوان - مدیر مراکز ایالات متحده در ویتنام - با ارائه اطلاعات بیشتر در مورد این دوره آموزشی گفت: دانشجویان نه تنها در مورد الگوریتمها، دادهها یاد میگیرند، بلکه توانایی خود را در تصمیمگیریهای شفاف، عادلانه، مسئولانه و انسانمحور تقویت میکنند.
به طور خاص، این دوره نشان دهنده همکاری رو به رشد بین ویتنام و ایالات متحده در زمینه های آموزش ، نوآوری و فناوری پیشرفته، از برنامه های تحقیقاتی مشترک گرفته تا تبادل دانشجو است.
در شرایط فعلی، زمانی که هوش مصنوعی در هر گوشهای از زندگی نفوذ میکند، اخلاق هوش مصنوعی دیگر یک گزینه نیست، بلکه یک الزام فوری است.
بدون اصول اخلاقی روشن در طراحی و بهرهبرداری، با خطر سوگیری الگوریتمی، نقض حریم خصوصی، از دست دادن دادهها و پیامدهای اجتماعی و قانونی غیرقابل پیشبینی مواجه خواهیم شد.
با جلسات پرسش و پاسخ زنده با اساتید داخلی و خارجی در طول دوره، دانشجویان، شامل مهندسان فناوری، توسعهدهندگان هوش مصنوعی، مقامات مدیریت دولتی، محققان و اساتید، عمیقاً در مورد سه موضوع اصلی، از جمله: اصول اخلاقی در توسعه هوش مصنوعی؛ چارچوب مسئولیتپذیر هوش مصنوعی؛ مقررات هوش مصنوعی در ایالات متحده، تحلیل تطبیقی با سیاست هوش مصنوعی اروپا، یاد خواهند گرفت.
هوش مصنوعی ایمن به طور طبیعی به وجود نمیآید
آقای دائو ترونگ تان، معاون رئیس و رئیس شورای اساتید ABAII، همانطور که یکی از مدرسان دوره اشاره کرد، «هوش مصنوعی هیچ وجدان، احساسات یا اخلاقیاتی ندارد. مسائل اخلاقی همگی توسط انسانها به هوش مصنوعی وارد میشوند».
آقای تان از طریق سناریوهای فرضی در زمینههای حمل و نقل، مراقبتهای بهداشتی و استخدام، مسئلهی توسعه و بهکارگیری هوش مصنوعی را روشن میکند: اولویت قانونی یا اولویت اخلاقی.
این متخصص تأکید کرد که سیستمهای هوش مصنوعی ایمن به طور طبیعی به وجود نمیآیند و اساسیترین اصل در هنگام توسعه سیستمهای هوش مصنوعی، آسیب نرساندن است. از اینجا، او 7 اصل اخلاقی هوش مصنوعی را بر اساس منابع کشورها و مناطق پیشنهاد کرد، از جمله: سیستمهای ایمن و مؤثر؛ حریم خصوصی دادهها؛ امنیت، پایداری و قابلیت اطمینان؛ قابلیت توضیح؛ پاسخگویی؛ رشد، توسعه پایدار و افزایش رفاه؛ استقلال انسانی.
آقای دائو ترونگ تان - معاون مدیر و رئیس شورای اساتید ABAII - تأکید کرد که سیستمهای هوش مصنوعی ایمن به طور طبیعی به وجود نمیآیند. عکس: BTC
به گفته آقای Thanh، برای توسعه یک سیستم ایمن و مؤثر، لازم است هوش مصنوعی با مشارکت جامعه و متخصصان، با اولویت دادن به ایمنی عمومی، تنها با استفاده از دادههای مناسب و دقیق، به ویژه در مناطق حساس، توسعه یابد؛ آزمایش و نظارت مداوم تضمین شود، ارزیابیهای مستقل و گزارشدهی شفاف برای حفظ اثربخشی و ایمنی سیستمهای هوش مصنوعی ارائه شود.
خانم نگوین هونگ مین، مدیر توسعه شبکه سازمان آموزشی InterEdu - شریک آموزشی جهانی مایکروسافت در ویتنام، در حاشیه این دوره آموزشی گفت که اخلاق هوش مصنوعی امروزه موضوع بسیار نگرانکنندهای است. در حالی که کاربران هوش مصنوعی در حال افزایش هستند و دورههای هوش مصنوعی مانند قارچ در حال رشد هستند، دورههای اخلاق هوش مصنوعی توجه لازم را دریافت نکردهاند، اگرچه این یک موضوع مهم و اساسی در کار با هوش مصنوعی است.
او این دوره را فرصتی برای یادگیری و کسب دیدگاهی سیستماتیک از اخلاق هوش مصنوعی، به ویژه از ایالات متحده و سازمانهایی که آن را در زندگی واقعی تمرین و اجرا میکنند، میبیند.
او گفت: «همه ما در حال یادگیری هوش مصنوعی هستیم و باید با ذهنیت یادگیری باز به آن نزدیک شویم، با گامهای کوچک، صحیح و مداوم و بدون توقف شروع کنیم.»
منبع: https://vietnamnet.vn/khai-giang-khoa-hoc-dao-duc-ai-dau-tien-tai-viet-nam-2400244.html










نظر (0)