Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT'nin 'halüsinojenik' olduğuna dair uyarı

Son araştırmalar, OpenAI'nin ürün portföyündeki en güçlü modeller olan GPT o3 ve o4-mini'nin, önceki modellerine kıyasla daha fazla yanlış bilgi ürettiğini göstermiştir.

ZNewsZNews20/04/2025

Yeni piyasaya sürülen iki ChatGPT modelinde, önceki nesle göre daha yüksek oranda uydurma bilgi bulunuyor. Fotoğraf: Fireflies .

OpenAI, GPT-4.1'i duyurduktan sadece iki gün sonra, o3 ve o4-mini adlarıyla iki yeni modeli resmi olarak piyasaya sürdü. Her iki model de birçok güçlü iyileştirmeyle üstün mantıksal çıkarım yetenekleri sergiliyor.

Ancak TechCrunch'a göre, bu iki yeni model hala "halüsinasyon" veya kendi kendini icat etme sorunundan muzdarip. Hatta OpenAI'nin eski modellerinden bazılarından daha fazla halüsinasyon sergiliyorlar.

IBM'e göre halüsinasyonlar, büyük dil modellerinin (LLM'ler) -çoğunlukla sohbet robotları veya bilgisayar görüş araçları- var olmayan veya insanlar tarafından tanınamayan veri kalıpları alması ve bunun sonucunda anlamsız veya yanlış sonuçlar üretmesi fenomenidir.

Başka bir deyişle, kullanıcılar genellikle yapay zekanın eğitilmiş verilere dayalı olarak doğru sonuçlar üretmesini bekler. Ancak bazı durumlarda, yapay zekanın sonuçları doğru verilere dayanmaz ve "yanlış" bir yanıt oluşturur.

OpenAI son raporunda, şirketin insan hakkındaki bilgi doğruluğunu ölçmek için kullandığı dahili standart olan PersonQA'da o3 modelinin soruların %33'üne "yanıltıcı" yanıtlar verdiğini keşfetti.

Karşılaştırma yapmak gerekirse, bu rakam OpenAI'nin önceki akıl yürütme modelleri olan o1 ve o3-mini'nin sırasıyla %16 ve %14,8 olan "yanılsama" oranının iki katıdır. Bu arada, O4-mini modeli PersonQA'da daha da kötü performans göstererek test süresinin %48'inde "yanılsama" yaşadı.

Daha da endişe verici olanı, "ChatGPT'nin babası" aslında bunun neden olduğunu bilmiyor. Özellikle, OpenAI, o3 ve o4-mini hakkındaki teknik raporunda, akıl yürütme modelleri ölçeklendirildiğinde "halüsinasyonların" neden kötüleştiğini anlamak için "daha fazla araştırmaya ihtiyaç duyulduğunu" belirtiyor.

O3 ve o4-mini, programlama ve matematiksel görevler de dahil olmak üzere bazı alanlarda daha iyi performans gösteriyor. Bununla birlikte, "genel ifadelerden daha fazla ifade oluşturmaları" gerektiğinden, her iki model de "daha doğru ifadeler, ancak aynı zamanda daha yanlış ifadeler" üretiyor.

Kaynak: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Yorum (0)

Duygularınızı paylaşmak için lütfen bir yorum bırakın!

Aynı kategoride

Aynı yazardan

Miras

Figür

İşletmeler

Güncel Olaylar

Siyasi Sistem

Yerel

Ürün

Happy Vietnam
Sadece bir uçuştan daha fazlası

Sadece bir uçuştan daha fazlası

Ha Giang'ın Çocukları

Ha Giang'ın Çocukları

1 Eylül

1 Eylül