Yapay zeka tarafından üretilen ürünlerin etiketlenmesi

Günümüz yaşamında yapay zeka için risk kontrol mekanizmasının önemini vurgulayan Milletvekili Nguyen Tam Hung (HCMC), tedarikçilerin yapay zeka içerikleri için makine tarafından okunabilir işaretleme sağlamasını gerektiren yasa tasarısının çok gerekli olduğunu belirtti; ancak, sıradan kullanıcıları, özellikle çocukları ve yaşlıları yanlış bilgi ve sahtecilik riskinden korumak için, içeriğin kafa karışıklığına yol açma riski taşıdığı durumlarda, kimlik bilgilerinin doğrudan etkileşimli arayüzde görüntülenmesi zorunluluğunun eklenmesinin değerlendirilmesini önerdi. Bu düzenleme, teknoloji sağlayıcılarının sosyal sorumluluğunu artırıyor ve insanlar arasında dijital güven oluşturuyor.
Bununla birlikte, Milletvekili Nguyen Tam Hung, yaptığı araştırmalar sonucunda mevcut çok amaçlı yapay zeka modelinin yalnızca metin veya görüntü oluşturmakla kalmayıp aynı zamanda kaynak kodu, saldırı araçları, yürütme talimatları, siber saldırı süreçleri, finansal dolandırıcılık yöntemleri vb. de üretebildiğini tespit ettiğini söyledi. Milletvekili, kaynak kodu üretimine izin verildiğinde modelin "kendi kendini üretme yeteneğini" kontrol etme zorunluluğunun eklenmesini ve ağ güvenliğini, toplumsal düzeni ve emniyeti sağlamak için çıktıyı uyaran, engelleyen ve sınırlayan bir mekanizmaya sahip olunmasını önerdi.

Yapay zekanın yarattığı risklere de değinen Milletvekili Pham Van Hoa ( Dong Thap ), yapay zeka teknolojisinin insanlara destek sağlayan bir araç olmasına rağmen birçok yüksek risk taşıdığını belirterek, taslak komitesinden bu konuda objektif ve doğru bir değerlendirme yapılmasını talep etti.
Milletvekili Pham Van Hoa, "Riskler insan hayatını, mal varlığını, haklarını ve kuruluşların ve bireylerin meşru çıkarlarını etkileyebilir," diyerek, yapay zeka tarafından üretilen ürünler için etiketler olması gerektiğini ekledi. Ona göre, yapay zekayı etiketlemenin amacı, insanlara hangi ürünlerin yapay zeka tarafından üretildiğini ve hangilerinin üretilmediğini bildirmektir.

Bu arada, Milletvekili Trinh Thi Tu Anh ( Lam Dong ), yasa tasarısının 11. maddesinin teknolojik etkilere dayalı risk değerlendirmesi anlayışını tam olarak yansıtmadığını söyledi. Ona göre, mevcut durumda yapay zekâ, daha önce tespit edilmemiş zararlı yöntemler geliştirebilir. Bu nedenle Milletvekili Trinh Thi Tu Anh, şu hükmün eklenmesini önerdi: "Hükümet, risk değerlendirmesi, teknoloji trendleri ve pratik yönetim gerekliliklerine dayanarak kabul edilemez risklere sahip yapay zekâ sistemlerinin listesini ayrıntılı olarak belirleyecek, periyodik olarak güncelleyecek ve tamamlayacaktır. Ona göre, bu mekanizma yasanın güncelliğini yitirmemesini ve yeni risklere hızla yanıt verebilmesini sağlar."
Yapay zekanın kötüye kullanımından kaçınma
Milletvekili Tran Khanh Thu (Hung Yen), yapay zekanın tıbbi muayene ve tedaviyi destekleme konusunu gündeme getirerek, yapay zekanın yalnızca tıp sektöründeki süreçleri optimize etmeye yardımcı olarak doktorların ve sağlık çalışanlarının iş yükünü azaltmakla kalmayıp, aynı zamanda tedaviyi kişiselleştirmede de önemli bir rol oynadığını, böylece sağlık hizmeti sonuçlarını iyileştirdiğini ve kaynak kullanımının verimliliğini artırdığını söyledi. Ancak, yapay zekayı sağlık belirtilerini tespit etmek için kullanmak bazen ters etki yaratabiliyor.

Kadın temsilci, Ho Chi Minh şehrinde hastaneye getirildiğinde halsiz durumda olan 55 yaşındaki bir hastanın gerçek hayattan bir örneğini aktardı. Daha önce, hastanın ailesi teşhis için yapay zekâ kullanmış, ardından hastaya kullanması için ilaç almaya gitmişti. İlacı kullandıktan sonra hastanın durumu kötüleşmiş, ardından hastaneye kaldırıldığında beyin hasarı, felç ve kaçınılmaz sonuçlarla karşılaşmıştı.
"Kesinlikle, insanlar ilaç teşhis etmek veya reçete yazmak için arama sonuçlarını kullanmamalı. Ancak, yapay zeka reçetelerine göre ilaç satan kişiler yasayı ihlal ediyor mu?" diye düşünen Milletvekili Tran Khanh Thu, Yapay Zeka Kanunu taslağında, özellikle ilgili tarafların sorumlulukları konusunda, sağlık sektöründe yapay zeka ürünlerinin yönetimine ilişkin daha spesifik yasal çerçeve hükümlerinin yer almasını umduğunu belirtti.
Yasa tasarısında denetim sonrası aşamadan denetim öncesi aşamaya geçişle ilgili olarak Milletvekili Tran Khanh Thu, modelin algoritmasını değiştirmesi, kullanıcı sayısını artırması veya eğitim verilerinin belirli bir eşiği aşması gibi durumlarda net bir niceliksel eşik olması gerektiğini ileri sürdü.

"Yapay Zekanın kötüye kullanımı" konusuna daha yakından bakan Milletvekili Pham Trong Nghia (Lang Son), hayatımızda yapay zekaya çok fazla bağımlı kalırsak, düşünme yeteneğimizi ve yaratıcılığımızı azaltacağını söyledi. Yapay zekanın kötüye kullanımı, ulusal egemenliği ihlal etmek, kamu yönetiminin etkinliğini azaltmak ve her bireyi ve her aileyi, özellikle de genç nesli olumsuz etkilemek gibi birçok potansiyel istikrarsızlığa yol açabilir.
"Kamu sektörü için yapay zekanın kötüye kullanımı, politikaların ve yasaların uygulanabilirliğini, insaniliğini ve etkinliğini azaltıyor. Yapay zekaya hassas bilgi ve veri sağlamak, sıkı bir şekilde kontrol edilmezse, veri sızıntılarına yol açabilir ve ulusal güvenliğe, toplumsal düzene ve emniyete zarar vererek öngörülemeyen sonuçlara yol açabilir," dedi. Yasa tasarısına, kamu sektöründe yapay zekanın kötüye kullanımını yasaklamak da dahil olmak üzere yasaklı eylemleri öngören bir hüküm eklemeyi öneren Milletvekili Pham Trong Nghia.
Kaynak: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Yorum (0)