به گفته یکی از محققان ارشد OpenAI، جهان برای هوش مصنوعی عمومی (AGI) یا نقطهای که هوش مصنوعی به اندازه مغز انسان هوشمند باشد، آماده نیست.
آیا هوش مصنوعی عمومی یک ریسک است؟
سالهاست که محققان در مورد ظهور هوش مصنوعی عمومی یا AGI گمانهزنی میکنند، جایی که سیستمهای مصنوعی قادر به انجام طیف وسیعی از وظایف و همچنین انسانها خواهند بود. بسیاری ظهور آن را یک خطر وجودی میدانند، زیرا میتواند به رایانهها اجازه دهد به روشهایی عمل کنند که انسانها نمیتوانند تصور کنند.
به گفته آقای مایلز بریندیج، جهان برای زمان هوش عمومی مصنوعی (AGI) آماده نیست.
اکنون، مردی که وظیفه دارد از آمادگی OpenAI، توسعهدهنده ChatGPT، برای AGI اطمینان حاصل کند، اذعان میکند که نه جهان و نه خود شرکت برای گام بعدی «آماده» نیستند. مایلز براندیج به عنوان «مشاور ارشد OpenAI در زمینه آمادگی AGI» خدمت میکرد، اما این هفته با انحلال این گروه توسط شرکت، جدایی خود را اعلام کرد.
براندیج، که شش سال را صرف شکلدهی به ابتکارات ایمنی هوش مصنوعی این شرکت کرده است، گفت: «نه OpenAI و نه هیچ آزمایشگاه پیشگام دیگری (برای AGI) آماده نیستند، و جهان نیز همینطور. برای روشن شدن موضوع، فکر نمیکنم این یک بیانیه بحثبرانگیز در میان رهبری OpenAI باشد، بلکه این سوال مطرح است که آیا این شرکت و جهان در مسیر آماده شدن در زمان مناسب هستند یا خیر.»
جدایی براندیج، جدیدترین مورد از مجموعهای از جداییهای قابل توجه از تیمهای ایمنی OpenAI است. جان لیک، محقق برجسته، پس از آنکه گفت «فرهنگ و فرآیندهای ایمنی به محصولات پر زرق و برق اهمیت کمتری دادهاند»، این شرکت را ترک کرد. ایلیا ساتسکور، یکی از بنیانگذاران، نیز برای راهاندازی استارتاپ هوش مصنوعی خود با تمرکز بر توسعه هوش مصنوعی عمومی ایمن، این شرکت را ترک کرد.
انحلال گروه «آمادگی هوش مصنوعی عمومی» براندیج تنها چند ماه پس از آن صورت میگیرد که این شرکت گروه «همترازی فوقالعاده» خود را که به کاهش خطرات بلندمدت هوش مصنوعی اختصاص داشت، منحل کرد و تنشهایی را بین مأموریت اصلی OpenAI و جاهطلبیهای تجاری آن آشکار ساخت.
فشار سود، OpenAI را از مسیر امن خارج میکند
طبق گزارشها، OpenAI با فشاری برای تبدیل شدن از یک شرکت غیرانتفاعی به یک شرکت انتفاعی در عرض دو سال مواجه است - یا اینکه با خطر از دست دادن بودجه حاصل از دور سرمایهگذاری ۶.۶ میلیارد دلاری اخیر خود مواجه خواهد شد. این تغییر به سمت تجاریسازی مدتهاست که مورد توجه Brundage بوده است، که از سال ۲۰۱۹، زمانی که OpenAI برای اولین بار بخش انتفاعی خود را تأسیس کرد، ابراز نگرانی کرده است.
سم آلتمن، مدیرعامل OpenAI، به دلیل فشاری که شرکت برای سودآوری متحمل میشود، دچار «سردرد» شده است.
براندیج در توضیح جدایی خود، به محدودیتهای فزاینده در آزادیاش برای تحقیق و انتشار در این شرکت برجسته اشاره کرد. او بر لزوم داشتن صدایی مستقل در بحثهای مربوط به سیاستهای هوش مصنوعی، فارغ از تعصبات صنعتی و تضاد منافع، تأکید کرد. او که در زمینه آمادهسازیهای داخلی به رهبری OpenAI مشاوره داده است، معتقد است که اکنون میتواند از خارج از سازمان تأثیر بیشتری بر مدیریت جهانی هوش مصنوعی داشته باشد.
این جداییها همچنین نشاندهندهی شکاف فرهنگی عمیقتری در OpenAI است. بسیاری از محققان برای پیشبرد تحقیقات هوش مصنوعی به این شرکت پیوستند و اکنون خود را در محیطی میبینند که به طور فزایندهای محصولمحور است. تخصیص منابع داخلی به یک نقطهی حساس تبدیل شده است - گزارشها نشان میدهد که تیم لیک قبل از انحلال، از قدرت محاسباتی برای تحقیقات ایمنی محروم شده بود.
OpenAI در ماههای اخیر با سوالاتی در مورد برنامههایش برای توسعه هوش مصنوعی و میزان جدی گرفتن ایمنی مواجه شده است. اگرچه این شرکت به عنوان یک سازمان غیرانتفاعی با هدف تحقیق در مورد چگونگی ساخت هوش مصنوعی ایمن تأسیس شده است، اما موفقیت ChatGPT سرمایهگذاری و فشار قابل توجهی را برای استفاده از این فناوری جدید برای سودآوری به همراه داشته است.
منبع: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm







نظر (0)