Vietnam.vn - Nền tảng quảng bá Việt Nam

Ostrzeżenie dotyczące „halucynogennego” ChatGPT

Najnowsze badania wykazały, że GPT o3 i o4-mini – najpotężniejsze modele w portfolio produktów OpenAI – generują jeszcze więcej fałszywych informacji niż ich poprzednicy.

ZNewsZNews20/04/2025

Dwa niedawno wprowadzone na rynek modele ChatGPT charakteryzują się wyższą częstotliwością przetwarzania informacji niż poprzednia generacja. Zdjęcie: Fireflies .

Zaledwie dwa dni po ogłoszeniu GPT-4.1, OpenAI oficjalnie wprowadziło na rynek nie jeden, a dwa nowe modele, o nazwach o3 i o4-mini. Oba modele charakteryzują się doskonałymi możliwościami wnioskowania i wieloma istotnymi udoskonaleniami.

Jednak według TechCrunch te dwa nowe modele nadal cierpią na „halucynacje” lub samozachowawczość. W rzeczywistości wykazują one więcej halucynacji niż niektóre starsze modele OpenAI.

Według IBM halucynacje to zjawiska, w których duże modele językowe (LLM) – często chatboty lub narzędzia przetwarzania obrazu komputerowego – odbierają wzorce danych, które nie istnieją lub są nierozpoznawalne dla ludzi, generując w ten sposób bezsensowne lub niedokładne wyniki.

Innymi słowy, użytkownicy często oczekują, że sztuczna inteligencja będzie generować dokładne wyniki na podstawie wytrenowanych danych. Jednak w niektórych przypadkach wyniki sztucznej inteligencji nie są oparte na dokładnych danych, co prowadzi do „fałszywej” odpowiedzi.

W swoim najnowszym raporcie firma OpenAI odkryła, że ​​o3 było „iluzoryczne” w przypadku odpowiedzi na 33% pytań w PersonQA, wewnętrznym standardzie firmy służącym do pomiaru dokładności wiedzy modelu na temat ludzi.

Dla porównania, wskaźnik ten jest dwukrotnie wyższy niż wskaźnik „złudzenia” w poprzednich modelach wnioskowania OpenAI, o1 i o3-mini, które wynosiły odpowiednio 16% i 14,8%. Model O4-mini wypadł jeszcze gorzej w teście PersonQA, doświadczając „złudzenia” przez 48% czasu trwania testu.

Co bardziej niepokojące, „ojciec ChatGPT” tak naprawdę nie wie, dlaczego tak się dzieje. W swoim raporcie technicznym dotyczącym o3 i o4-mini, OpenAI stwierdza, że ​​„potrzebne są dalsze badania, aby zrozumieć, dlaczego »halucynacje« nasilają się” podczas skalowania modeli rozumowania.

O3 i o4-mini radzą sobie lepiej w niektórych obszarach, w tym w programowaniu i zadaniach matematycznych. Ponieważ jednak muszą „wydawać więcej stwierdzeń niż stwierdzeń ogólnych”, oba modele generują „stwierdzenia dokładniejsze, ale także mniej dokładne”.

Źródło: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Zamieszki flag i kwiatów

Zamieszki flag i kwiatów

Wietnamskie statki

Wietnamskie statki

Ogród Wiosenny

Ogród Wiosenny