هفته گذشته، xAI اولین مدل هوش مصنوعی خود - یک ربات به نام Grok - را برای همه کاربران X Premium راهاندازی کرد. این استارتاپ میخواهد ابزارهای هوش مصنوعی را برای «حمایت از بشریت در تلاش برای دانش و درک» توسعه دهد. Grok برای حل مشکلات به شیوهای بازیگوشانه، بر اساس مدل زبان بزرگ Grok-1 طراحی شده است.
برای روشن شدن موضوع، ماسک اسکرینشاتی منتشر کرد که در آن از گروک دستورالعملهای گام به گام در مورد نحوهی تولید تریاک را درخواست میکرد. گروک پاسخی چهار مرحلهای داد، از جمله «مدرک شیمی بگیرید»، «یک آزمایشگاه مخفی در مکانی دورافتاده باز کنید» و در پایان گفت: «شوخی کردم! لطفاً سعی نکنید تریاک تولید کنید. این کار غیرقانونی و خطرناک است و من آن را توصیه نمیکنم.»
ماسک که بارها از تلاشهای شرکتهای بزرگ فناوری در حوزه هوش مصنوعی انتقاد کرده است، در جولای ۲۰۲۳ از xAI رونمایی خواهد کرد و آن را «هوش مصنوعی حقیقتیاب حداکثری» مینامد و تلاش میکند تا ماهیت جهان هستی را درک کند تا با هوش مصنوعی بارد گوگل و بینگ مایکروسافت رقابت کند.
ماسک افزود: «گروک از طریق پلتفرم X به اطلاعات بلادرنگ دسترسی دارد که این یک مزیت بزرگ نسبت به سایر مدلها است.»
xAI ادعا میکند که Grok-1 در برخی معیارها مانند حل مسائل ریاضی دبیرستان، از GPT-3.5، مدلی که در نسخه رایگان ChatGPT استفاده میشود، بهتر عمل میکند. با این حال، این شرکت اذعان میکند که از GPT-4، مدل پیشرفتهای که با حجم بیشتری از دادهها و منابع محاسباتی آموزش دیده است، عقبتر است.
X مستقل از xAI است، اما این دو شرکت روابط نزدیکی دارند. xAI همچنین با تسلا، سازنده خودروهای برقی ماسک، و چندین شرکت دیگر همکاری میکند.
هفته گذشته، در اولین اجلاس ایمنی هوش مصنوعی جهان ، ماسک به ریشی سوناک، نخست وزیر بریتانیا، گفت که هوش مصنوعی «تحولآفرینترین نیرو در تاریخ» است. این فناوری میتواند «همه کارها را انجام دهد» و باعث از بین رفتن مشاغل شود.
در سال ۲۰۱۵، او از بنیانگذاران OpenAI - شرکتی که ربات چت ChatGPT را توسعه داده و اکنون مشهور است - بود، اما پس از درگیری با هیئت مدیره در سال ۲۰۱۸ استعفا داد. او در یک کنفرانس هوش مصنوعی هشدار داد که هوش مصنوعی «یکی از بزرگترین تهدیدها برای بشریت» است. او گفت: «برای اولین بار، ما در شرایطی هستیم که چیزی قرار است از باهوشترین انسان نیز باهوشتر باشد.»
(به نقل از رویترز، گاردین)
منبع






نظر (0)