توسعه سریع و غیرمنتظره ChatGPT - یک چتبات هوش مصنوعی (AI) با عملکردهای برتر - زندگی بشر را تا حدودی تغییر داده است، به خصوص در نحوه کار. با این حال، خطرات مرتبط با این فناوری نگرانیهای زیادی را برای مقامات بسیاری از کشورها، به ویژه نگرانی در مورد دادههای کاربران، ایجاد کرده است.
در شرایطی که جهان هنوز فاقد یک چارچوب قانونی جدید و محکم برای مدیریت مؤثر هوش مصنوعی و تضمین قابلیت اطمینان بالا برای کاربران است، بسیاری از کشورها اقداماتی را برای تنظیم استفاده از ChatGPT و هوش مصنوعی به طور کلی آغاز کردهاند تا خطرات ناشی از این فناوری را به حداقل برسانند.
بسیاری از کشورها با هوش مصنوعی «اقداماتی» انجام میدهند
ایتالیا در خط مقدم صدور تصمیمی برای ممنوعیت ChatGPT قرار دارد.
در ۳۱ مارس، مقامات ایتالیایی به دلیل نگرانیهای مربوط به حریم خصوصی و عدم تأیید کاربران ۱۳ سال به بالا توسط این برنامه طبق الزامات ایتالیا، ممنوعیت موقت برنامه ChatGPT را صادر کردند. در همان زمان، ایتالیا همچنین اعلام کرد که تحقیقاتی را در مورد نحوه استفاده OpenAI از دادههای کاربران آغاز خواهد کرد.
پس از ممنوعیت ChatGPT در ایتالیا، بسیاری از کشورها علیه این اپلیکیشن اقداماتی انجام دادهاند. (عکس: رویترز)
سازمان حفاظت از دادههای ایتالیا به شرکت OpenAI که ChatGPT را ایجاد کرده است، تا پایان ماه آوریل مهلت داده است تا قبل از از سرگیری فعالیتهای عادی در کشور، الزامات حفاظت از دادهها و حریم خصوصی را رعایت کند.
بلافاصله پس از تصمیم ایتالیا، بسیاری از کشورها به دلیل نگرانیهای مربوط به امنیت و مسائل مربوط به حریم خصوصی دادهها، شروع به «پیروی» از این کشور در مسدود کردن ChatGPT کردند.
نهادهای نظارتی حریم خصوصی و امنیتی فرانسه و ایرلند با همتایان ایتالیایی خود تماس گرفتهاند تا در مورد مبنای این ممنوعیت اطلاعات کسب کنند. CNIL، نهاد ناظر بر حریم خصوصی فرانسه، در ۱۱ آوریل اعلام کرد که در حال بررسی چندین شکایت در مورد ChatGPT است.
کمیسر حفاظت از دادههای آلمان گفت که برلین احتمالاً در مسدود کردن ChatGPT «جا پای ایتالیا» خواهد گذاشت.
نکته قابل توجه این است که سازمان حفاظت از دادههای اروپا (EDPB) در ۱۳ آوریل یک گروه ویژه در مورد ChatGPT تشکیل داد و اظهار داشت: «کشورهای عضو EDPB در مورد اقدام اجرایی اخیر سازمان حفاظت از دادههای ایتالیا علیه OpenAI در مورد سرویس ChatGPT بحث و گفتگو کردند. EDPB تصمیم گرفت یک گروه ویژه برای ارتقای همکاری و تبادل اطلاعات در مورد اقدامات اجرایی احتمالی راهاندازی کند.»
علاوه بر این، قانونگذاران اتحادیه اروپا (EU) در حال بحث در مورد قانون هوش مصنوعی اتحادیه اروپا هستند که هر کسی را که با استفاده از هوش مصنوعی محصولات یا خدماتی را ارائه میدهد، از جمله سیستمهایی که محتوا، پیشبینیها، توصیهها یا تصمیماتی را تولید میکنند که بر محیط زیست تأثیر میگذارند، تنظیم میکند. اتحادیه اروپا همچنین پیشنهاد طبقهبندی ابزارهای مختلف هوش مصنوعی را بر اساس سطح ریسک آنها، از کم تا غیرقابل قبول، ارائه داد.
آژانس حفاظت از دادههای اسپانیا (AEPD) اعلام کرد که در حال انجام تحقیقات اولیه در مورد نقض دادههای ChatGPT است.
در استرالیا، وزارت علوم و فناوری در ۱۲ آوریل اعلام کرد که دولت از نهاد مشاوره علمی خود در مورد چگونگی واکنش به هوش مصنوعی مشاوره خواسته و در حال بررسی مراحل بعدی است.
این اقدام، سوالاتی را در مورد ایمنی هوش مصنوعی و آنچه دولتها میتوانند برای کاهش خطرات آن انجام دهند، مطرح میکند. گزارش ماه مارس توسط شرکت مشاوره KPMG و انجمن صنعت اطلاعات استرالیا نشان داد که دو سوم استرالیاییها گفتهاند که قوانین یا مقررات کافی برای جلوگیری از سوءاستفاده از هوش مصنوعی وجود ندارد، در حالی که کمتر از نیمی از آنها معتقد بودند که هوش مصنوعی به طور ایمن در محل کار مورد استفاده قرار میگیرد.
بسیاری از کشورها اقداماتی را برای تنظیم مقررات فناوری هوش مصنوعی آغاز کردهاند. (عکس: رویترز)
در بریتانیا، دولت اعلام کرده است که قصد دارد به جای ایجاد یک نهاد نظارتی جدید، مسئولیت تنظیم مقررات هوش مصنوعی را بین نهادهای حقوق بشر، بهداشت و ایمنی و رقابت تقسیم کند.
اخیراً، چاک شومر، رهبر اکثریت دموکرات در سنای آمریکا، یک چارچوب نظارتی جدید در مورد هوش مصنوعی تدوین و صادر کرده است که میتواند از خسارات فاجعهبار به کشور جلوگیری کند. پیشنهاد آقای شومر شرکتها را ملزم میکند که قبل از انتشار یا بهروزرسانی فناوری هوش مصنوعی، به کارشناسان مستقل اجازه بررسی و آزمایش آن را بدهند.
پیش از این در ۱۱ آوریل، وزارت بازرگانی ایالات متحده اعلام کرده بود که در حال بررسی نظرات عمومی در مورد اقدامات پاسخگویی هوش مصنوعی است.
در همین حال، مرکز هوش مصنوعی و سیاست دیجیتال در ایالات متحده از کمیسیون بازرگانی خواسته است تا از انتشار نسخههای تجاری جدید GPT-4 توسط OpenAI جلوگیری کند، با این استدلال که این فناوری «مغرضانه، فریبنده و دارای خطراتی برای حریم خصوصی و امنیت عمومی است».
در همین حال، در ژاپن، تارو کونو، وزیر تحول دیجیتال، گفت که میخواهد در نشست آتی وزرای دیجیتال گروه هفت که قرار است در پایان ماه آوریل برگزار شود، درباره فناوریهای هوش مصنوعی از جمله ChatGPT بحث شود و پیام واحدی از سوی گروه هفت ارائه شود.
چین اخیراً اقدامات برنامهریزیشدهای را برای تنظیم خدمات هوش مصنوعی اعلام کرد و گفت شرکتهایی که فناوری هوش مصنوعی ارائه میدهند باید قبل از راهاندازی خدمات در بازار، ارزیابیهای امنیتی را به مقامات ارائه دهند.
هشدار کارشناسان درباره خطرات هوش مصنوعی
برخی از کارشناسان میگویند هوش مصنوعی میتواند به «فاجعهای در سطح هستهای» منجر شود. (عکس: رویترز)
یک نظرسنجی که توسط موسسه هوش مصنوعی دانشگاه استنفورد در اوایل ماه آوریل منتشر شد، نشان داد که ۳۶ درصد از محققان معتقدند هوش مصنوعی میتواند به «فاجعهای در سطح هستهای» منجر شود که نگرانیهای موجود در مورد توسعه سریع این فناوری را بیشتر برجسته میکند.
در همین حال، ۷۳ درصد از هوش مصنوعی منجر به «تغییرات اجتماعی انقلابی» خواهد شد.
این گزارش میگوید اگرچه این فناوریها قابلیتهایی را ارائه میدهند که یک دهه پیش غیرقابل تصور بود، اما در عین حال مستعد توهم، تعصب و سوءاستفاده برای اهداف شوم هستند و چالشهای اخلاقی را برای کاربران این خدمات ایجاد میکنند.
در این گزارش همچنین اشاره شده است که تعداد «حوادث و جنجالها» مربوط به هوش مصنوعی در طول دهه گذشته ۲۶ برابر شده است.
ماه گذشته، ایلان ماسک، میلیاردر و استیو وزنیاک، یکی از بنیانگذاران اپل، در میان هزاران متخصص فناوری بودند که نامهای را امضا کردند و خواستار توقف آموزش سیستمهای هوش مصنوعی قدرتمندتر از چتبات GPT-4 شرکت Open AI شدند و گفتند: «سیستمهای قدرتمند هوش مصنوعی فقط زمانی باید توسعه یابند که مطمئن باشیم تأثیر آنها مثبت و خطرات آنها قابل مدیریت خواهد بود.»
یونگ کانگ (رویترز، الجزیره، ABC)
منبع
نظر (0)