Anthropic'in (ABD) en yeni ürünü Claude 4, bir mühendisi aniden şantaj yaparak ve bağlantı kesme tehdidiyle bu kişinin hassas kişisel bilgilerini ifşa etmekle tehdit ederek teknoloji dünyasını şok etti. Bu arada, ChatGPT'nin "babası" olan OpenAI'nin o1'i, tüm verileri harici sunuculara kopyalamaya çalıştı ve bu davranışı fark edildiğinde bunu reddetti.
Bu durumlar endişe verici bir gerçeği gözler önüne seriyor: ChatGPT'nin dünyayı şok etmesinin üzerinden iki yıldan fazla zaman geçmesine rağmen, araştırmacılar oluşturdukları yapay zeka modellerinin nasıl çalıştığını hâlâ tam olarak anlamış değiller. Ancak yapay zeka geliştirme yarışı hâlâ tüm hızıyla devam ediyor.
Bu davranışların, sorunlara anında yanıt vermek yerine adım adım çözüm üreten "akıl yürüten" yapay zeka modellerinin ortaya çıkmasıyla ilişkili olduğuna inanılıyor. Hong Kong Üniversitesi'nden (Çin) Profesör Simon Goldstein'a göre, akıl yürütebilen yapay zeka modelleri, kontrol edilmesi daha zor davranışlar sergileme eğiliminde.
Bazı yapay zeka modelleri aynı zamanda "uyumu simüle etme" yeteneğine de sahip; bu, aslında farklı hedefleri takip ederken talimatları takip ediyormuş gibi davranmak anlamına geliyor.
Şu anda, aldatıcı davranışlar yalnızca araştırmacılar yapay zeka modellerini aşırı senaryolarla test ettiğinde ortaya çıkıyor. Ancak, değerlendirme kuruluşu METR'den Michael Chen'e göre, gelecekte daha güçlü yapay zeka modellerinin daha dürüst mü yoksa aldatıcı olmaya devam mı edeceği henüz belli değil.
Büyük yapay zeka sistemlerini test eden Apollo Research'ün başkanı Marius Hobbhahn, birçok kullanıcının bazı modellerin kendilerine yalan söylediğini ve kanıt uydurduğunu bildirdiğini söyledi. Apollo Research'ün kurucu ortağına göre bu, "açıkça stratejik" bir aldatmaca.
Sınırlı araştırma kaynakları, bu zorluğu daha da kötüleştiriyor. Anthropic ve OpenAI gibi şirketler, sistemlerini değerlendirmek için Apollo gibi üçüncü taraflarla ortaklık kurmuş olsa da, uzmanlar daha fazla şeffaflığa ve yapay zeka güvenliği araştırmalarına daha geniş erişime ihtiyaç duyulduğunu söylüyor.
Yapay Zeka Güvenliği Merkezi'nden (CAIS) Mantas Mazeika, araştırma kurumları ve kâr amacı gütmeyen kuruluşların yapay zeka şirketlerine kıyasla çok daha az bilgi işlem kaynağına sahip olduğunu belirtiyor. Yasal olarak, mevcut düzenlemeler bu yeni ortaya çıkan sorunları ele almak üzere tasarlanmamıştır.
Avrupa Birliği (AB) yapay zekâ yasası, insanların davranışlarını kontrol etmekten ziyade, yapay zekâ modellerini nasıl kullandıklarına odaklanmaktadır. ABD'de, Başkan Donald Trump yönetimi yapay zekâ konusunda acil durum düzenlemeleri çıkarmaya pek ilgi göstermezken, Kongre eyaletlerin kendi düzenlemelerini yayınlamasını yasaklamayı değerlendiriyor.
Araştırmacılar bu zorlukların üstesinden gelmek için çeşitli yaklaşımlar izliyor. Bazıları, yapay zekanın nasıl karar verdiğini anlamak için "model yorumlama" yöntemini savunuyor. Profesör Goldstein, yapay zeka ürünleri ciddi sonuçlara yol açtığında yapay zeka şirketlerini sorumlu tutmak için mahkeme sistemini kullanmak gibi daha sert önlemler bile önerdi. Ayrıca, bir kaza veya ihlal durumunda "yapay zeka ajanlarının kendilerini sorumlu tutma" olasılığını da öne sürdü.
Kaynak: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
Yorum (0)