![]() |
Yeni yapay zeka modeli Anthropic, her türlü güvenlik açığını bulabiliyor. Fotoğraf: Bloomberg . |
Anthropic kısa süre önce Claude Mythos Preview adlı yeni bir yapay zeka modelini duyurdu, ancak kritik altyapılara saldırmak için kötüye kullanılabileceği endişesiyle modeli geniş çapta yayınlamaktan kaçındı. Bunun yerine şirket, Apple, Amazon, Microsoft ve Google dahil olmak üzere 40'tan fazla büyük teknoloji ortağının yazılım güvenlik açıklarını bulup yamalayabilmeleri için modele erişmesine izin verdi.
Project Glasswing adı verilen bu ittifak, Cisco ve Broadcom gibi donanım üreticilerinin yanı sıra önemli açık kaynak yazılımlarının çoğunu sürdüren Linux Vakfı'nı da içeriyor. Anthropic, bu çabaya Claude tabanlı krediler şeklinde 100 milyon dolara kadar katkıda bulunmayı taahhüt etti.
Yeni Yapay Zeka Süpermodeli
Claude Mythos Preview'ı özellikle endişe verici kılan şey, sıfır gün güvenlik açıklarını (geliştiricilerin bile farkında olmadığı yazılım hataları) otomatik olarak tespit edebilmesidir. Daha önce, bu tür güvenlik açıkları genellikle önde gelen güvenlik uzmanları tarafından aylar süren araştırmalardan sonra bulunuyordu. Ancak Anthropic'in en yeni yapay zeka modeli bunu büyük ölçekte, otomatik olarak ve sürekli olarak yapabiliyor.
![]() |
Claude Mythos siber güvenlik camiasını şok etti. Fotoğraf: Bloomberg . |
Anthropic'e göre, Claude Mythos popüler işletim sistemlerinde ve tarayıcılarda binlerce güvenlik açığı keşfetti. Bunlardan biri, özellikle güvenlik için tasarlanmış ve birçok yönlendiriciye entegre edilmiş açık kaynaklı bir işletim sistemi olan OpenBSD'de 27 yıldır var olan bir güvenlik açığıydı. Bir diğer güvenlik açığı ise, otomatik taramaların 5 milyon kez tespit edemediği popüler bir video yazılımındaydı.
Anthropic'te modelin güvenlik açığı test ekibinin başkanı Logan Graham, "Claude Mythos modeli, güvenlik araştırmacılarının on yıllarca gözden kaçırdığı güvenlik açıklarını ortaya çıkardı" dedi.
CrowdStrike'ın Baş Teknoloji Sorumlusu Elia Zaitsev, bu modelin küresel bir siber güvenlik riski oluşturduğuna inanıyor.
Zaitsev, "Eskiden aylar süren işler artık yapay zeka sayesinde dakikalar içinde tamamlanıyor" dedi. Ayrıca rakiplerin Claude Mythos sayesinde benzer yeteneklerden yararlanmaya çalışacakları konusunda da uyardı.
Potansiyel riskler
Palo Alto Networks CEO'su Nikesh Arora, Claude Mythos'un öngörülemeyen bir tehdit oluşturduğunu belirtti.
Nikesh Arora, "Bunu, teknoloji altyapınızdaki her zayıflığı sürekli ve titizlikle kataloglayan bir ajan sürüsü gibi hayal edin," diye belirtti.
Anthropic'in Baş Bilimsel Sorumlusu Jared Kaplan, Claude Mythos'un güvenlik yeteneklerinin özel bir eğitimin sonucu olmadığını açıklıyor. Bu, modelin mükemmel programlama becerilerinin ve zaman içinde hataları otomatik olarak düzeltme yeteneğinin doğal bir sonucudur. Kaplan, diğer yapay zeka modellerinin de yakında benzer yeteneklere sahip olacağını ve bilgisayar korsanları ile güvenlik ekipleri arasındaki yarışı yeni bir seviyeye taşıyacağını öngörüyor.
![]() |
Claude Mythos'un geniş çapta piyasaya sürülmesi olası değil. Fotoğraf: Bloomberg . |
Güvenlik modelini koruma kararı, 2019'da OpenAI'nin GPT-2'yi dezenformasyon üretimini otomatikleştirmek için kullanılabileceği endişesiyle yayınlamayı reddetmesinden kaynaklanan bir emsal teşkil ediyor. GPT-2 projesini yönetenler daha sonra OpenAI'den ayrılıp Anthropic'i kurdular.
Bu duyuru, Anthropic'in 2026 yılında yıllık gelirlerinin üç kattan fazla artarak 9 milyar dolardan 30 milyar doların üzerine çıkacağını öngördüğünü açıklamasından bir gün sonra geldi. Bu büyümenin büyük bir kısmı, Claude'a programlama aracı olarak duyulan talepten kaynaklanıyor. Bu üstün yetenek, modelin daha önce hiç görülmemiş şekillerde güvenlik açıklarını bulmasını sağlıyor.
Anthropic, mevcut yapay zeka ortamında oldukça çelişkili bir konumda bulunuyor. Şirket, bir yandan gelir elde etmek için güçlü sistemler geliştirmek için yarışırken, diğer yandan da yarattığı teknolojinin riskleri konusunda sürekli uyarıda bulunmak zorunda kalıyor.
Kaynak: https://znews.vn/anthropic-lai-gay-chan-dong-post1641929.html









Yorum (0)