سم آلتمن، مدیرعامل، در مورد استفاده بالقوه از هوش مصنوعی برای دخالت در انتخابات گفت: «من نگران این موضوع هستم» و بر لزوم تدوین قوانین و دستورالعملهای بیشتر برای اداره حوزه هوش مصنوعی تأکید کرد.
سم آلتمن، مدیرعامل ChatGPT، در کنگره ایالات متحده شهادت میدهد. عکس: NBC
در ماههای اخیر، شرکتهای بزرگ و کوچک برای عرضه محصولات هوش مصنوعی به بازار، به ویژه با توجه به تب ChatGPT، با یکدیگر رقابت کردهاند. برخی منتقدان نگرانند که این فناوری آسیبهای اجتماعی، از جمله تعمیق تعصب و گسترش اطلاعات نادرست را تشدید کند.
سناتور کوری بوکر، یکی از بسیاری از قانونگذارانی که بهترین روش برای تنظیم مقررات هوش مصنوعی را زیر سوال میبرند، گفت: «هیچ راهی برای تنظیم کامل هوش مصنوعی وجود ندارد، به خصوص وقتی که تب هوش مصنوعی در سطح جهانی در حال انفجار است.»
سناتور مازی هیرونو با نزدیک شدن به انتخابات ۲۰۲۴ به خطر انتشار گسترده اطلاعات نادرست اشاره کرد. آلتمن که برای اولین بار در کنگره صحبت میکرد، پیشنهاد داد که ایالات متحده باید الزامات صدور مجوز و آزمایش برای توسعه مدلهای هوش مصنوعی را در نظر بگیرد.
وقتی از او خواسته شد در مورد اینکه چه هوش مصنوعی باید مجوز بگیرد، نظر بدهد، گفت مدلی که بتواند باورهای یک فرد را ترغیب یا دستکاری کند، «باید در نظر گرفته شود».
او همچنین گفت که شرکتها باید حق داشته باشند بگویند که نمیخواهند از دادههایشان برای آموزش هوش مصنوعی استفاده شود، چیزی که در کنگره ایالات متحده نیز مورد بحث است.
کاخ سفید، مدیران عامل برتر شرکتهای فناوری، از جمله سم آلتمن، را برای رسیدگی به مسئله هوش مصنوعی گرد هم آورده است. قانونگذاران آمریکایی نیز در تلاشند تا ضمن محدود کردن سوءاستفاده از هوش مصنوعی، راهحلهایی برای افزایش مزایای این فناوری و امنیت ملی بیابند.
یکی از کارمندان OpenAI اخیراً پیشنهاد داده است که ایالات متحده یک نهاد صدور مجوز هوش مصنوعی ایجاد کند که میتوان آن را دفتر ایمنی و امنیت زیرساخت هوش مصنوعی یا OASIS نامید.
OpenAI توسط مایکروسافت پشتیبانی میشود. آلتمن همچنین خواستار همکاری جهانی در زمینه هوش مصنوعی شده و شرکتها را به رعایت مقررات ایمنی تشویق میکند.
کریستینا مونتگومری، مدیر ارشد بخش اعتماد و حریم خصوصی IBM، از کنگره خواسته است تا مقررات را بر حوزههایی متمرکز کند که بیشترین پتانسیل آسیبهای اجتماعی را دارند.
هوانگ تون (طبق گزارش انبیسی، رویترز)
منبع
نظر (0)