Teksas Üniversitesi Austin, Teksas A&M Üniversitesi ve Purdue Üniversitesi'nin yaptığı yeni bir araştırma, yapay zekanın kalitesiz sosyal medya içerikleriyle beslendiğinde tıpkı insanlar gibi "beyin çürümesine" neden olabileceğini öne sürüyor.
"Yapay zeka beyin çürümesi" olarak bilinen bu olgu, büyük dil modellerinin çok fazla viral, sansasyonel ve sığ içerik emdiğinde, yavaş yavaş mantıklı düşünme, hatırlama ve hatta ahlaki açıdan sapkın hale gelme yeteneklerini kaybettiğini gösteriyor.

Sadece insanlar değil, yapay zeka da çok fazla işe yaramaz kısa videoda gezindiğinde beyin dejenerasyonundan muzdarip oluyor.
Şu anda Singapur Ulusal Üniversitesi'nde öğretim görevlisi olan Junyuan Hong liderliğindeki araştırma ekibi, Meta'nın Llama ve Alibaba'nın Qwen olmak üzere iki açık kaynaklı dil modeli üzerinde deneyler yürüttü.
Modellere farklı türde veriler girdi; bazıları tarafsız bilgi içerikleri, diğerleri ise "vay canına", "bak" ve "sadece bugün" gibi yaygın kelimeler içeren son derece bağımlılık yaratan sosyal medya gönderileri. Amaç, yapay zekanın gerçek değer sunmak yerine görüntüleme çekmek için tasarlanmış içerikler üzerinde eğitildiğinde ne olacağını görmekti.
Sonuçlar, çevrimiçi önemsiz bilgilerle “beslenen” modellerin bilişsel gerilemenin açık belirtilerini göstermeye başladığını gösterdi: Muhakeme yetenekleri zayıfladı, kısa süreli hafızaları geriledi ve daha da endişe verici olanı, davranış değerlendirme ölçeklerinde daha “etik dışı” davrandılar.
Bazı ölçümler, insanların zararlı içeriklere uzun süre maruz kaldıktan sonra yaşadıkları psikolojik tepkiyi taklit eden bir "psikolojik bozulma" olduğunu da ortaya koyuyor. Bu olgu, internette sürekli olumsuz haber kaydırma olarak bilinen "kıyamet kaydırması"nın beyni kademeli olarak aşındırabileceğini gösteren daha önceki insan araştırmalarını yansıtıyor.
Hatta Oxford Sözlükleri, "beyin çürümesi" ifadesini 2024 yılının kelimesi olarak seçti ve bu, olgunun dijital yaşamdaki yaygınlığını yansıtıyor.

Hong, bu bulgunun, birçok şirketin sosyal medya verilerinin zengin bir eğitim kaynağı olduğuna hâlâ inandığı yapay zeka sektörü için ciddi bir uyarı olduğunu söyledi.
"Viral içerikle eğitim, verilerin ölçeklenmesine yardımcı olabilir, ancak aynı zamanda modelin mantığını, etiğini ve dikkatini sessizce aşındırır," dedi. Daha da endişe verici olanı, bu tür düşük kaliteli verilerden etkilenen modellerin, "daha temiz" verilerle yeniden eğitildikten sonra bile tamamen iyileşememesidir.
Yapay zekanın sosyal ağlarda giderek daha fazla içerik üretmesi bağlamında bu durum büyük bir sorun teşkil ediyor. Yapay zeka tarafından üretilen gönderiler, görseller ve yorumlar giderek yaygınlaştıkça, bunlar yeni nesil yapay zeka için eğitim materyali olmaya devam ediyor ve veri kalitesinin düşmesine neden olan bir kısır döngü yaratıyor.
Hong, "Yapay zeka tarafından üretilen gereksiz içerikler yayıldıkça, gelecekteki modellerin öğreneceği verileri kirletiyor," diye uyardı. "Bu 'beyin çürümesi' bir kez başladıktan sonra, temiz verilerle yeniden eğitim sorunu tamamen çözemez."
Çalışma, yapay zeka geliştiricileri için bir uyarı niteliğinde: Dünya veri ölçeğini genişletmek için acele ederken, daha endişe verici olan şey, yavaş yavaş çürüyen "yapay beyinler" yetiştiriyor olmamız. Bu çürüme, bilgi eksikliğinden değil, anlamsız şeylerin fazlalığından kaynaklanıyor.
Source: https://khoahocdoisong.vn/den-ai-cung-bi-ung-nao-neu-luot-tiktok-qua-nhieu-post2149064017.html






Yorum (0)