Gracz Nakamura powiedział, że Grok 4 wydawał się grać z napiętą mentalnością w meczu finałowym - Zdjęcie: zrzut ekranu
Przed meczem firma OpenAI wywołała poruszenie ogłaszając premierę 11. generacji LLM, GPT-5.
Jednak model o3-ChatGPT użyty w finale nadal wykazał się wysoką zdolnością wnioskowania, ze średnią liczbą poprawnych ruchów na poziomie 90,8%, co całkowicie przewyższyło 80,2% uzyskane przez Grok 4.
We wszystkich czterech partiach ChatGPT nie dał Grokowi 4 żadnych szans, dając mata przeciwnikowi odpowiednio po 35, 30, 28 i 54 ruchach.
Według Hikaru Nakamury, drugiego w rankingu , Grok 4 wydawał się grać z większym napięciem i popełniać więcej błędów niż w poprzednich rundach. W szczególności łatwo tracił elementy – co było rzadkością, gdy przytłaczająco pokonał Gemini 2.5 Flash i Gemini 2.5 Pro od Google.
Z trzema zwycięstwami z rzędu, wynikiem 4-0 i średnią celnością na poziomie 91%, o3 zakończyło turniej perfekcyjnie.
Choć siła o3 nie dorównuje profesjonalnym arcymistrzom szachowym, to jednak jest wystarczająca, by sprawić trudności graczom z ELO poniżej 2000. Zwłaszcza w kategoriach blitz i super blitz.
Turniej zorganizowany przez Google zakończył się absolutną dominacją reprezentantów USA. Podczas gdy dwa chińskie modele, Kimi K4 i DeepSeek, odpadły na wczesnym etapie, w meczu o trzecie miejsce zwyciężył Gemini 2.5 Pro nad o4-mini, potwierdzając tym samym pozycję liderów amerykańskich firm technologicznych.
To wydarzenie nie tylko pokazuje niesamowite możliwości uniwersalnych modeli sztucznej inteligencji w specjalistycznej dziedzinie, ale także otwiera nowe perspektywy na potencjalny rozwój sztucznej inteligencji w przyszłości.
Przypomina nam to jednak, że chociaż programy LLM rozwijają się w szybkim tempie, wciąż nie mogą dorównać poziomowi profesjonalnych programów szachowych, których rankingi ELO znacznie przewyższają rankingi ludzkie.
Źródło: https://tuoitre.vn/chatgpt-dang-quang-giai-co-vua-danh-cho-ai-20250808090405997.htm
Komentarz (0)