به گفته منابع Tech.co ، در حالی که جنجال پیرامون اخراج سم آلتمن، مدیرعامل و بازگشت بعدی او به OpenAI در حال گسترش بود، یکی از شایعات منتشر شده مربوط به نامهای بود که توسط محققان این شرکت به هیئت مدیره ارسال شده بود و در آن نگرانیهایی در مورد مدل هوش مصنوعی در حال توسعه که به طور بالقوه تهدیدی برای بشریت محسوب میشود، ابراز شده بود.
(تصویر نمایشی)
پروژه Q*
این مدل که در داخل شرکت با نام پروژه Q* (با تلفظ Q-star) شناخته میشود، به عنوان یک پیشرفت بالقوه بزرگ در مسیر هوش مصنوعی عمومی (AGI) توسط OpenAI معرفی شده است - شاخهای بسیار خودمختار از هوش مصنوعی که قادر به یادگیری تجمعی و عملکرد بهتر از انسان در اکثر وظایف است.
به گفته منابع نزدیک به این موضوع، Q* میتواند با بهبود اساسی قابلیتهای استدلال هوش مصنوعی و نزدیکتر کردن OpenAI به یک پیشرفت بزرگ در توسعه AGI، جهش بزرگی در حوزه هوش مصنوعی ایجاد کند.
برخلاف مدلهای هوش مصنوعی فعلی که بر تولید پاسخها بر اساس اطلاعات از پیش آموخته شده تمرکز دارند، هوش مصنوعی عمومی (AGI) یک سیستم خودمختار است که میتواند «استدلال» را در تصمیمگیریها اعمال کند و به آن توانایی حل مشکلات در سطح انسانی را میدهد.
اگرچه هوش مصنوعی عمومی (AGI) هنوز به طور کامل محقق نشده است، بسیاری از کارشناسان معتقدند که این فناوری پتانسیل یادگیری تجمعی را نیز خواهد داشت، ویژگی دیگری که انسانها را قادر میسازد تواناییهای خود را بهبود بخشند.
برخی منابع معتقدند که Q* - یک پروژه OpenAI - توانسته است ویژگیهای ذکر شده را هنگام حل مسائل نشان دهد. علاوه بر این، به لطف قدرت محاسباتی عظیم مدل، Q* توانسته است از دانشآموزان دبستان پیشی بگیرد و مهارتهای استدلال و تواناییهای شناختی بسیار برتر از فناوری هوش مصنوعی فعلی را نشان دهد.
مشخص نیست که Q* چه مدت در دست توسعه بوده و کاربردهای بالقوه آن چه میتواند باشد، اما OpenAI قبل از وقوع جنجالهای پرسنلی، کارمندان و اعضای هیئت مدیره را در مورد این پروژه مطلع کرده بود.
نگرانیهای اخلاقی
در حالی که سم آلتمن، مدیرعامل OpenAI، مطمئن است که فناوری AGI نوآوری را هدایت خواهد کرد، برخی از محققان به سرعت به خطرات احتمالی این پروژه اشاره کردهاند.
محققان در نامهای به هیئت مدیره، نسبت به خطر بالقوهای که این الگوریتم قدرتمند برای بشریت ایجاد میکند، هشدار دادند. نگرانیهای اخلاقی خاص در مورد هوش مصنوعی که در این نامه ذکر شده بود، فاش نشد، اما این هشدارها برای توجیه تصمیم هیئت مدیره برای اخراج آلتمن کافی بود.
در همین حال، دلیل اولیهی اخراج آلتمن «مهارتهای ارتباطی ضعیف» مدیرعامل عنوان شد. اندکی پس از آن، او موقعیت جدیدی در مایکروسافت پیدا کرد. این اقدام باعث شد ۷۰۰ نفر از ۷۷۰ کارمند OpenAI تهدید کنند که در صورت عدم بازگشت مدیرعامل، همین کار را خواهند کرد.
با نزدیک شدن شرکت به فروپاشی، هیئت مدیره OpenAI مجبور شد آلتمن را دوباره به سمت ارشد منصوب کند - که این امر همچنین منجر به بازنگری اساسی در تیم اجرایی شرکت شد و اختلافات عمیقی را در رهبری آن برجسته کرد.
حالا که آلتمن دوباره به این سمت برگشته و احتمالاً دوباره به پروژه Q* چراغ سبز نشان داده میشود، این موضوع سوالات جدیدی را مطرح میکند.
پروژه Q* چقدر واقعبینانه است؟
اگرچه دوران آشفتهی OpenAI مفهوم هوش مصنوعی عمومی (AGI) را در کانون توجه قرار داد، اما این اولین باری نیست که آلتمن از این فناوری نام میبرد.
در ماه سپتامبر، این کارآفرین سیلیکون ولی پس از مقایسه هوش مصنوعی عمومی با «یک انسان معمولی که میتوانید به عنوان همکار استخدام کنید»، خود را در دردسر انداخت. او در ادامه اظهارات سال گذشته خود در مورد اینکه چگونه این هوش مصنوعی میتواند «هر کاری را که میتوانید با یک همکار از راه دور انجام دهید» انجام دهد، از جمله یادگیری پزشکی و برنامهنویس خوب بودن، را تکرار کرد.
اگرچه مقایسه هوش مصنوعی عمومی با هوش یک «انسان معمولی» چیز جدیدی نیست، اما استفاده آلتمن از این عبارت توسط اخلاقگرایان هوش مصنوعی و هنری شولین، استاد دانشگاه کمبریج، «چندشآور» تلقی شد، زیرا نگرانیها پیرامون تأثیر هوش مصنوعی بر امنیت شغلی رو به افزایش است.
پیشرفتهای بالقوه در هوش مصنوعی عمومی (AGI) همچنین زنگ خطر را برای سایر محققان به صدا درآورده است - اینکه این فناوری سریعتر از آنچه مردم بتوانند تأثیر آن را به طور کامل درک کنند، در حال توسعه است.
OpenAI معتقد است که نتایج مثبت هوش مصنوعی عمومی (AGI) باعث میشود این «میدان مین» پرخطر ارزش امتحان کردن را داشته باشد. با این حال، همچنان که این شرکت به پیشروی در این مسیر ادامه میدهد، بسیاری نگرانند که آلتمن موفقیت تجاری را بر منفعت کاربران و جامعه ترجیح میدهد.
Phuong Anh (منبع: Tech.co، The Guardian)
منبع






نظر (0)