این دو شرکت با موسسه ایمنی هوش مصنوعی ایالات متحده، واحدی از موسسه ملی استاندارد و فناوری (NIST)، یک آژانس فدرال ایالات متحده، همکاری خواهند کرد. این اقدام به عنوان گامی مهم در مدیریت و نظارت بر فناوری هوش مصنوعی تلقی میشود، که از زمان راهاندازی ChatGPT شرکت OpenAI نگرانیهای زیادی را به همراه داشته است.
الیزابت کلی، مدیر موسسه ایمنی هوش مصنوعی ایالات متحده، گفت: «این تازه آغاز راه است، اما نقطه عطفی مهم در تلاش برای مدیریت مسئولانه آینده هوش مصنوعی محسوب میشود.»
طبق این توافقنامه، موسسه ایمنی هوش مصنوعی ایالات متحده، قبل و بعد از انتشار عمومی مدلهایشان، بازخوردهایی را در مورد بهبودهای ایمنی بالقوه در اختیار هر دو شرکت قرار خواهد داد. این موسسه همچنین در طول این فرآیند با موسسه ایمنی هوش مصنوعی بریتانیا همکاری نزدیکی خواهد داشت.
جک کلارک، یکی از بنیانگذاران و رئیس سیاستگذاری در آنتروپیک، گفت: «همکاری با موسسه ایمنی هوش مصنوعی آمریکا، از تخصص گسترده آنها برای آزمایش دقیق مدلهای ما قبل از استقرار گسترده استفاده میکند. این امر توانایی ما را در شناسایی و کاهش خطرات افزایش میدهد و توسعه مسئولانه هوش مصنوعی را ارتقا میدهد.»
این اقدام بخشی از تلاش برای اجرای فرمان اجرایی هوش مصنوعی کاخ سفید است که قرار است در سال ۲۰۲۳ منتشر شود و هدف آن ایجاد یک چارچوب قانونی برای استقرار سریع مدلهای هوش مصنوعی در ایالات متحده است.
اما در حالی که دولت فدرال رویکردی داوطلبانه را دنبال میکند، قانونگذاران در کالیفرنیا، قطب فناوری ایالات متحده، در ۲۸ آگوست لایحه ایمنی هوش مصنوعی در سطح ایالت را تصویب کردند. این لایحه، در صورت امضای فرماندار، مقررات سختگیرانهتری را بر صنعت هوش مصنوعی اعمال خواهد کرد.
سم آلتمن، مدیرعامل OpenAI، از تنظیم مقررات هوش مصنوعی در سطح ملی به جای سطح ایالتی حمایت کرده و استدلال کرده است که این امر به جلوگیری از خطر مانع شدن از تحقیق و نوآوری در زمینه هوش مصنوعی کمک میکند.
اقدام برای همکاری بین شرکتهای پیشرو در فناوری و دولت ایالات متحده، روندی را به سمت ایجاد تعادل بین نوآوری و ایمنی در حوزه به سرعت در حال تحول هوش مصنوعی نشان میدهد.
منبع: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html






نظر (0)