AB üyeleri daha önce, Avrupa Parlamentosu ve Komisyon ile müzakerelerde bulunan ülkeler için "kırmızı çizgi" olan yüz tarama teknolojisinin yalnızca belirli kolluk kuvvetlerinin görev yaptığı kamusal alanlarda kullanılması konusunda anlaşmıştı.
Merkez sağdaki bazı milletvekilleri, kayıp çocukların bulunmasına veya terör saldırılarının önlenmesine yardımcı olmak için biyometrik izleme teknolojisinin kullanılabilmesini öngören istisnalar önerdi ancak bunlar da genel kurul oylamasında kabul edilmedi.
Yasa koyucular, GPT-4 gibi üretken yapay zeka platformlarına ek önlemler getirmeyi kabul etti ve bu önlemler, OpenAI ve Google gibi şirketlerin risk değerlendirmeleri yapmasını ve yapay zeka modellerini eğitmek için hangi telif hakkıyla korunan materyalin kullanıldığını açıklamasını gerektiriyor.
AB'nin düzenleme yaklaşımı bir risk değerlendirmesine dayanmaktadır. Teknolojinin kendisinden ziyade yapay zeka kullanımını düzenlemeye odaklanmakta, sosyal puanlama gibi bazı uygulamaları tamamen yasaklamakta ve "yüksek riskli" durumlarda teknolojinin kullanımına ilişkin standartlar belirlemektedir.
Yapay Zekâ Yasası taslağının tam metni 14 Haziran'da kabul edilerek, AB Parlamentosu, üye ülkeler ve Avrupa Komisyonu arasında "üçlü" bir tartışmanın önü açıldı.
Komisyon, Yapay Zeka Yasası'nın şirketler için 2026 gibi erken bir tarihte yürürlüğe girmesi konusunda bu yıl sonuna kadar anlaşmaya varmayı umuyor. Bu arada bazı yetkililer, Hindistan ve Endonezya'nın yanı sıra G-7 ülkeleri için de geçerli olacak gönüllü bir "davranış kuralları" oluşturulması için çabalıyor.
AB'nin yapay zekaya ilişkin düzenlemeleri sıkılaştırması, önümüzdeki 10 yılda 1,3 trilyon dolardan fazla değere sahip olması tahmin edilen bir sektör üzerinde büyük bir etkiye sahip olabilir. Zira bloğun kurallarının ihlali, yıllık cironun %6'sına kadar para cezasıyla sonuçlanabilir.
(Bloomberg'e göre)
[reklam_2]
Kaynak






Yorum (0)