به گفته منابع Tech.co ، در حالی که جنجال بر سر اخراج سم آلتمن، مدیرعامل و سپس بازگشت او به OpenAI در جریان بود، یکی از شایعات مربوط به نامهای بود که توسط محققان این شرکت به هیئت مدیره ارسال شده بود و در آن نگرانیهایی در مورد مدل هوش مصنوعی فوق پیشرفتهای که در حال توسعه است و میتواند به طور بالقوه تهدیدی برای بشریت باشد، ابراز شده بود.
(تصویر)
پروژه Q*
گفته میشود این مدل که در داخل شرکت با نام پروژه Q* (با تلفظ Q-star) شناخته میشود، نشاندهنده یک پیشرفت بزرگ در مسیر هوش عمومی مصنوعی (AGI) توسط OpenAI است - شاخهای بسیار خودمختار از هوش مصنوعی که قادر به یادگیری تجمعی و عملکرد بهتر از انسانها در اکثر وظایف است.
به گفته افراد آشنا با این موضوع، Q* میتواند با بهبود اساسی قابلیتهای استدلال هوش مصنوعی و نزدیکتر کردن OpenAI به یک پیشرفت بزرگ در توسعه AGI، جهش بزرگی در هوش مصنوعی ایجاد کند.
برخلاف مدلهای هوش مصنوعی فعلی که بر توانایی تولید پاسخها بر اساس اطلاعات آموختهشده قبلی تمرکز دارند، هوش مصنوعی عمومی (AGI) یک سیستم خودمختار است که میتواند «استدلال» را در تصمیمگیریها اعمال کند و به آن قابلیتهای حل مسئله در سطح انسان میدهد.
در حالی که هوش مصنوعی عمومی (AGI) هنوز به طور کامل محقق نشده است، بسیاری از کارشناسان معتقدند که این فناوری همچنین توانایی یادگیری تجمعی را خواهد داشت، ویژگی دیگری که به انسان توانایی بهبود تواناییهای خود را میدهد.
برخی منابع ادعا میکنند که Q* - پروژه OpenAI توانسته است ویژگیهای فوق را هنگام حل مسائل نشان دهد. نه تنها این، بلکه به لطف قدرت محاسباتی عظیم مدل، Q* توانسته است از دانشآموزان دبستان پیشی بگیرد و مهارتهای استدلال و تواناییهای شناختی را به طور قابل توجهی فراتر از قابلیتهای فناوری هوش مصنوعی فعلی نشان دهد.
مشخص نیست که Q* چه مدت در دست توسعه بوده و چه کاربردهایی میتواند داشته باشد، اما OpenAI قبل از افشای رسوایی پرسنلی، کارمندان و اعضای هیئت مدیره را در مورد این پروژه مطلع کرده بود.
نگرانیهای اخلاقی
در حالی که سم آلتمن، مدیرعامل OpenAI، اطمینان دارد که فناوری AGI نوآوری را به پیش خواهد برد، برخی از محققان به سرعت به خطرات احتمالی این پروژه اشاره کردهاند.
محققان در نامهای به هیئت مدیره، در مورد خطرات احتمالی این الگوریتم قدرتمند برای بشریت هشدار دادند. نگرانیهای اخلاقی خاص در مورد هوش مصنوعی که در این نامه ذکر شده بود، فاش نشد، اما همین هشدارها برای توجیه تصمیم هیئت مدیره برای اخراج آلتمن کافی بود.
در همین حال، دلیل اولیه برای اخراج آلتمن این بود که مدیرعامل «ارتباطات ضعیفی» داشت. او خیلی زود موقعیت جدیدی در مایکروسافت پیدا کرد. این اقدام باعث شد ۷۰۰ نفر از ۷۷۰ کارمند OpenAI تهدید کنند که در صورت عدم بازگشت مدیرعامل، همین کار را خواهند کرد.
با توجه به اینکه شرکت در خطر فروپاشی بود، هیئت مدیره OpenAI مجبور شد آلتمن را به بالاترین سمت بازگرداند - که این امر همچنین منجر به بازنگری اساسی در تیم اجرایی شرکت و برجسته شدن اختلافات عمیق در رهبری آن شد.
حالا که آلتمن دوباره سر کار آمده و احتمال دارد پروژه Q* دوباره چراغ سبز بگیرد، سوالات جدیدی مطرح میشود.
پروژه Q* چقدر واقعبینانه است؟
در حالی که روزهای پرآشوب در OpenAI مفهوم هوش مصنوعی عمومی (AGI) را در کانون توجه قرار داده است، این اولین باری نیست که آلتمن از این فناوری نام میبرد.
این کارآفرین سیلیکون ولی در ماه سپتامبر پس از مقایسه هوش مصنوعی عمومی با «یک انسان معمولی که ممکن است به عنوان همکار استخدام کنید» خود را در شرایط سختی یافت. او در ادامه اظهارات سال گذشته خود در مورد اینکه چگونه هوش مصنوعی میتواند «هر کاری را که میتوانید با یک همکار از راه دور انجام دهید» انجام دهد، از جمله یادگیری نحوه پزشک بودن و برنامهنویس خوب بودن، صحبت کرد.
اگرچه مقایسه هوش مصنوعی عمومی با هوش یک «انسان معمولی» چیز جدیدی نیست، اما هنری شولین، استاد اخلاق هوش مصنوعی و دانشگاه کمبریج، استفاده آلتمن از این عبارت را «نفرتانگیز» خواند، زیرا نگرانیها در مورد تأثیر هوش مصنوعی بر امنیت شغلی رو به افزایش است.
پیشرفتهای بالقوه در هوش مصنوعی عمومی (AGI) همچنین زنگ خطر را برای سایر محققان به صدا درآورده است - اینکه این فناوری سریعتر از آنکه انسانها بتوانند تأثیر آن را به طور کامل درک کنند، در حال توسعه است.
OpenAI معتقد است که پیامدهای مثبت هوش مصنوعی عمومی (AGI) باعث میشود که این «میدان مین» پرخطر ارزش دنبال کردن را داشته باشد. اما همچنان که این شرکت به پیشروی در این مسیر ادامه میدهد، بسیاری نگرانند که آلتمن موفقیت تجاری را بر منافع کاربران و جامعه ترجیح میدهد.
Phuong Anh (منبع: Tech.co، The Guardian)
منبع
نظر (0)