این مدل جدید که از طریق نسخه پولی 20 دلاری ChatGPT قابل دسترسی است، چندوجهی است، به این معنی که میتواند ورودی را هم در قالب متن و هم در قالب تصویر (مانند اسکرینشاتهای سوالات آزمون) بپذیرد. سپس میتواند این پرسوجوها را به صورت متنی تجزیه و تحلیل کرده و به آنها پاسخ دهد!

مدل جدید GPT-4 شرکت OpenAI از طریق نسخه پولی 20 دلاری ربات چت ChatGPT قابل دسترسی است. عکس: AFP
OpenAI میگوید نرمافزار جدید خود را در تعدادی از برنامهها، از جمله برنامه یادگیری زبان Duolingo، که از این نرمافزار برای ساخت رباتهای زبان محاورهای استفاده میکند؛ شرکت آموزشی Khan Academy، که در حال طراحی یک معلم خصوصی آنلاین است؛ و Morgan Stanley Wealth Management، که در حال آزمایش یک ربات چت داخلی با استفاده از GPT-4 برای بازیابی و ترکیب اطلاعات برای کارمندان خود است، تعبیه کرده است.
توانایی پذیرش تصاویر و متن به عنوان ورودی به این معنی است که مدل اکنون میتواند توضیحات مفصلی تولید کند و بر اساس محتوای یک عکس به سؤالات پاسخ دهد.
این شرکت اعلام کرد که با استارتاپ دانمارکی «چشمهای من باش» - که افراد کمبینا را با داوطلبان مرتبط میکند - همکاری کرده است تا یک داوطلب مجازی مبتنی بر GPT-4 بسازد که بتواند افراد نابینا یا کمبینا را راهنمایی یا کمک کند.
مدل قبلی GPT-4، یعنی GPT-3.5، اواخر سال گذشته توجه میلیونها نفر را به خود جلب کرد. به گفته OpenAI، GPT-4 «پیشرفتهترین سیستم» آنهاست. آنها ادعا میکنند که این سیستم قابل اعتمادتر است و میتواند پرسوجوهای ظریف را بسیار بهتر از مدل قبلی خود مدیریت کند.
با این حال، این شرکت به برخی از مشکلات اشاره کرد: «در حالی که GPT-4 توانمند است، محدودیتهای مشابهی با مدلهای قبلی GPT دارد: کاملاً قابل اعتماد نیست...». این شرکت افزود: «هنگام استفاده از خروجیهای GPT-4، به ویژه در زمینههایی که قابلیت اطمینان بسیار مهم است، باید احتیاط کرد.»
اوایل امسال، مایکروسافت «سرمایهگذاری میلیارد دلاری» در OpenAI را تأیید کرد و روی آینده هوش مصنوعی عمومی شرطبندی کرد. GPT-4 از چتبات بینگ مایکروسافت که اوایل امسال به صورت بتا منتشر شد، پشتیبانی خواهد کرد. مایکروسافت همچنین انتظار دارد در روزهای آینده ادغام آن را در محصولات مصرفی خود اعلام کند.
در همین حال، گوگل چتبات مکالمهای خود، Bard، را برای گروه محدودی از آزمایشکنندگان باز کرده و اعلام کرده است که برای اولین بار به مشتریان Google Cloud اجازه میدهد تا به مدل زبانی بزرگ آن، PaLM، برای ساخت برنامهها دسترسی داشته باشند.
برای آزمایش اثرات مضر این فناوری، OpenAI GPT-4 را تحت آزمایشهای دقیقی قرار داد و خطرات احتمالی آن را در مورد اطلاعات نادرست، حریم خصوصی و امنیت سایبری بررسی کرد. آنها فاش کردند که GPT-4 میتواند «محتوای بالقوه مضری مانند مشاوره برنامهریزی حمله یا نفرتپراکنی تولید کند. این میتواند نشاندهنده تعصبات و جهانبینیهای متفاوت باشد...».
OpenAI اظهار داشت که آنها همچنین با یک سازمان خارجی همکاری کردهاند تا آزمایش کنند که آیا GPT-4 قادر به انجام اقدامات خودکار بدون دخالت انسان است یا خیر و به این نتیجه رسیدهاند که «احتمالاً» هنوز این قابلیت را ندارد.
مای آن (خبرگزاری فرانسه، فایننشال تایمز، سیانای)
منبع






نظر (0)