A GPT-4 „multimodális”, ami azt jelenti, hogy olyan kérdésekre is képes válaszolni, amelyek képeket és szöveget is tartalmaznak.

Fotó: GI
A GPT-3.5 csak írásos lekérdezésekből származó eredményeket biztosít, míg ennek a nagy nyelvi modellnek a legújabb verziója képeket is képes bemeneti adatként használni a képeken lévő objektumok azonosításához és elemzéséhez.
A GPT-3.5 válaszai körülbelül 3000 szóra korlátozódnak, míg a GPT-4 több mint 25 000 szóból álló válaszokat tesz lehetővé.
A GPT-4 82%-kal jobban reagál a nem megfelelő tartalomra vonatkozó kérésekre, mint elődje, és számos gyakorlati teszten 40%-kal magasabb pontszámot ért el.
Ez lehetővé teszi a fejlesztők számára is, hogy eldöntsék a mesterséges intelligencia hangvételét és részletességi szintjét.
Az OpenAI szerint a ChatGPT felhasználók hamarosan lehetőséget kapnak arra, hogy megváltoztassák a chatbot hangnemét és válaszstílusát.
A legújabb verzió mind az amerikai ügyvédi vizsgán, mind a posztgraduális önéletrajz-vizsgán (GRE) felülmúlta elődjét.
Az OpenAI szerint a GPT-4 hasonló korlátokkal rendelkezik, mint elődei, és „sok valós helyzetben gyengébb az embereknél”.
A pontatlan válaszok, más néven „hallucinációk”, számos mesterséges intelligencia programot, köztük a GPT-4-et is kihívást jelentenek.
A GPT-4 nem rendelkezik információkkal a 2021 szeptembere után történt eseményekről.
A GPT-4-et integrálják a Microsoft Bing AI chatbotjába és a népszerű Duolingo nyelvtanulási platformba.
Mai Anh (a Reuters szerint)
[hirdetés_2]
Forrás






Hozzászólás (0)