Najnowszy Claude 4 od Anthropic jest mądrzejszy, ale wciąż wywołuje halucynacje. Zdjęcie: Anthropic . |
Podczas pierwszego wydarzenia dla deweloperów Anthropic w San Francisco, prezes Dario Amodei powiedział, że obecne modele sztucznej inteligencji potrafią tworzyć „halucynacje” rzadziej niż ludzie. „Halucynacje” są tu rozumiane jako zjawisko, w którym sztuczna inteligencja tworzy fikcyjne treści, ale przedstawia je jako prawdziwe.
Amodei podkreślił, że fakt, iż sztuczna inteligencja ma halucynacje, nie przeszkadza firmie Anthropic w osiągnięciu celu, jakim jest osiągnięcie AGI (sztucznej inteligencji ogólnej). „To zależy od pomiaru, ale myślę, że częstotliwość halucynacji w modelach sztucznej inteligencji jest prawdopodobnie niższa niż u ludzi, po prostu sposób, w jaki popełniają błędy, jest bardziej zaskakujący” – powiedział.
Amodei jest jednym z najgłośniejszych orędowników sztucznej inteligencji (AGI) w branży. „Ludzie zawsze próbują znaleźć „górną granicę” dla sztucznej inteligencji” – mówi. „W tej chwili nie widzimy takiej górnej granicy”.
![]() |
Prezes Anthropic jest jednym z orędowników „optymizmu w kwestii sztucznej inteligencji”. Zdjęcie: Anthropic. |
Nie wszyscy jednak się z tym zgadzają. Dyrektor generalny Google DeepMind, Demis Hassabis, zauważył w tym tygodniu, że obecne modele sztucznej inteligencji są „pełne luk”, a nawet błędnie odpowiadają na podstawowe pytania.
Istnieją również oznaki, że niektóre nowsze modele częściej napotykają problemy w przypadku złożonych zadań wnioskowania. Wersje OpenAI o3 i o4-mini charakteryzują się zwiększoną częstością występowania halucynacji w porównaniu z poprzednimi modelami wnioskowania. Nawet samo OpenAI nie rozumie dlaczego.
Amodei wspomniał również, że ludzie często popełniają błędy, dlatego stwierdził, że to, że sztuczna inteligencja popełnia błędy, nie oznacza, że jest „niewystarczająco inteligentna”. Lider Anthropic przyznał jednak, że mogą łatwo stwarzać problemy, podając fałszywe informacje o bardzo wysokiej wiarygodności.
Wypowiedzi Amodeia wywołały debatę w środowisku AI na temat rzeczywistych możliwości obecnych modeli. Niektórzy eksperci zgadzają się, że AI czyni znaczne postępy w ograniczaniu iluzji. Inni ostrzegają przed potencjalnym ryzykiem nadmiernego zaufania AI do nieprawdziwych informacji.
Dyskusja odzwierciedla poważne wyzwanie stojące przed branżą sztucznej inteligencji. Firmy dążą do tworzenia systemów, które są jednocześnie inteligentne i godne zaufania, a także potrafią radzić sobie z niepewnością w swoich reakcjach.
Source: https://znews.vn/ai-ao-giac-nhung-con-nguoi-bi-con-nhieu-hon-post1557486.html
Komentarz (0)