
پروفسور توبی والش در سمینار «علم برای زندگی» با مطبوعات صحبت کرد و اظهار داشت که کلاهبرداری هوش مصنوعی در بسیاری از کشورها، از جمله ویتنام، به یک چالش بزرگ تبدیل شده است.
به گفته پروفسور توبی والش، سادهترین راه برای محافظت از خود، تأیید منبع اطلاعات است. او توصیه میکند هنگام دریافت تماس، ایمیل یا پیامکی که ادعا میشود از یک بانک یا موسسه مالی است، کاربران باید مستقیماً با خط تلفن مربوطه تماس بگیرند و از پاسخ دادن به دستورالعملهای افراد غریبه خودداری کنند.
او گفت که حتی تماسهای ویدیویی ، ایمیلها یا شماره تلفنها را میتوان با ابزارهای هوش مصنوعی که به طور فزایندهای پیچیده میشوند، جعل کرد. او برای خانوادهاش یک «سوال مخفی» که فقط اعضای خانواده میدانند را اعمال میکند تا هویت را تأیید کند و از سوءاستفاده جلوگیری کند. این روشی است که به گفته او، هر خانواده ویتنامی نیز میتواند برای افزایش حفاظت از اطلاعات از آن استفاده کند.

پروفسور توبی والش در بحث گستردهتر در مورد توسعه هوش مصنوعی مسئولانه، تأکید کرد که مقررات باید اجباری باشند. با توجه به سود بسیار زیاد حاصل از هوش مصنوعی، او گفت که «فقط یک چارچوب قانونی سختگیرانه میتواند رفتار مناسب را تضمین کند و منافع عمومی را با منافع تجاری متعادل سازد».
او در پاسخ به سوالی درباره مسئولیتپذیری در صورت اشتباه هوش مصنوعی، تأیید کرد: «هوش مصنوعی انسان نیست، نمیتوان آن را مسئول دانست. این شرکتهایی هستند که سیستمهای هوش مصنوعی را مستقر و اداره میکنند و باید مسئول عواقب آن باشند.» به گفته او، این نکتهای است که قوانین ملی به آن توجه نکردهاند.
همزمان با اینکه ویتنام در حال تدوین قانون هوش مصنوعی است، پروفسور توبی والش، که سالها تجربه تحقیق در زمینه هوش مصنوعی دارد، خاطرنشان کرد که همیشه به قوانین جدید نیاز نیست زیرا بسیاری از مقررات مربوط به حریم خصوصی یا رقابت را میتوان در محیط دیجیتال اعمال کرد. با این حال، برخی خطرات جدید در حال ظهور هستند، مانند اینکه کاربران، هوش مصنوعی را به عنوان "درمانگر" در نظر میگیرند که منجر به آسیب روانی میشود. به گفته وی، شرکتهای هوش مصنوعی نیز باید در صورت آسیب رساندن محصولاتشان مسئول باشند.
پروفسور توبی والش به طور خاص به خطر تأثیر منفی هوش مصنوعی بر کودکان، مشابه رسانههای اجتماعی، اشاره کرد. او به عنوان مثال به محدودیت سنی استرالیا برای استفاده از رسانههای اجتماعی اشاره کرد و پیشنهاد داد که کشورها باید حمایتهای مشابهی برای هوش مصنوعی داشته باشند.
در مورد دادهها، «سوخت» هوش مصنوعی، او هشدار داد که سهلانگاری بیش از حد مضر خواهد بود. استفاده از اثر یک نویسنده برای آموزش هوش مصنوعی بدون اجازه، «دزدی» است و بدون راهکاری مانند مدل پخش موسیقی ، نویسندگان انگیزه خلق کردن را از دست خواهند داد. پروفسور توبی والش خاطرنشان کرد که ویتنام باید اقدامات جدی برای محافظت از فرهنگ، زبان و منافع خود در عصر هوش مصنوعی انجام دهد.
منبع: https://www.sggp.org.vn/vien-si-cua-hiep-hoi-may-tinh-hoa-ky-chia-se-bi-kip-tranh-lua-dao-su-dung-ai-post826821.html






نظر (0)