بر این اساس، شرکتی که مالک ChatGPT و Dall-E است، تعهدات متعددی در مورد سیاستهای هوش مصنوعی داده است. «این شرکت متعهد به همکاری با دولت ایالات متحده و سیاستگذاران در سراسر جهان برای حمایت از توسعه الزامات صدور مجوز برای همه مدلهای هوش مصنوعی با عملکرد بالا در آینده است.»
ایده فرآیند صدور مجوز برای توسعه هوش مصنوعی، که توسط رهبران صنعت مانند OpenAI و دولت به طور مشترک تبلیغ میشود، زمینه را برای درگیری احتمالی بین استارتآپها و توسعهدهندگان متنباز فراهم میکند، که آن را تلاشی برای دشوار کردن ورود به فضای هوش مصنوعی میدانند.
سم آلتمن، مدیرعامل OpenAI، در جلسه استماع کنگره ایالات متحده، زمانی ایده تأسیس سازمانی را مطرح کرد که مسئول صدور مجوز یا لغو مجوز محصولات هوش مصنوعی در صورت نقض قوانین وضعشده توسط آنها باشد.
افشای اطلاعات OpenAI در حالی صورت میگیرد که سایر شرکتهای بزرگ هوش مصنوعی مانند مایکروسافت و گوگل نیز در حال بررسی اقدامات مشابهی هستند.
با این حال، آنا ماکانجو، معاون رئیس امور جهانی این شرکت، گفت که سند سیاست داخلی با سیاستی که انتظار میرود کاخ سفید منتشر کند، متفاوت خواهد بود. OpenAI اعلام کرد که «فشار» نمیآورد، اما معتقد است که صدور مجوز، راهی «عملی» برای دولتها جهت تنظیم سیستمهای نوظهور است.
«برای دولتها مهم است که بدانند آیا این سیستمهای فوقالعاده قدرتمند میتوانند به طور بالقوه آسیبی ایجاد کنند یا خیر» و «راههای بسیار کمی برای مقامات وجود دارد که بدون گزارش شخصی، از این سیستمها مطلع شوند.»
ماکانجو گفت که OpenAI فقط از مدلهای هوش مصنوعی قدرتمندتر از GPT-4 با مجوز پشتیبانی میکند و میخواهد مطمئن شود که استارتاپهای کوچکتر مجبور به تحمل بار نظارتی نباشند.
پاسخگویی و شفافیت
OpenAI همچنین در اسناد داخلی خود اعلام کرده است که مایل است در مورد دادههایی که برای آموزش مولدهای تصویر مانند Dall-E استفاده میکند، شفافتر عمل کند. این شرکت میگوید که به رویکردی شفاف و پاسخگو در مورد دادههای توسعه هوش مصنوعی متعهد است.
تحلیلگران خاطرنشان کردند که تعهدات ذکر شده در یادداشت OpenAI با برخی از پیشنهادهای سیاستی مایکروسافت که در ماه مه ارائه شد، بسیار سازگار است. OpenAI خاطرنشان کرد که با وجود دریافت سرمایهگذاری 10 میلیارد دلاری از مایکروسافت، همچنان یک شرکت مستقل است.
علاوه بر این، شرکتی که مالک ChatGPT است، یک بررسی واترمارک نیز انجام داده تا صحت و کپیرایت تصاویر تولید شده توسط هوش مصنوعی را پیگیری کند.
در این یادداشت، به نظر میرسد که OpenAI خطرات بالقوه سیستمهای هوش مصنوعی برای بازار کار و نابرابری را تصدیق میکند. این شرکت در پیشنویس گفته است که تحقیقاتی انجام خواهد داد و توصیههایی را به سیاستگذاران ارائه خواهد داد تا اقتصاد را از «اختلال» احتمالی محافظت کند.
این شرکت همچنین اعلام کرد که به افراد اجازه میدهد تا به سیستمهای آن دسترسی داشته باشند و آسیبپذیریهای آنها را در طیف وسیعی از زمینهها از جمله محتوای توهینآمیز، خطرات دستکاری، اطلاعات نادرست آزمایش کنند و از ایجاد یک مرکز اشتراکگذاری اطلاعات مشترک در زمینه امنیت سایبری پشتیبانی میکند.
(به نقل از بلومبرگ)
منبع
نظر (0)