Hesap verebilirliğin geliştirilmesi, giderek daha kullanışlı hale gelen yapay zekanın teşvik edilmesinde önemli bir faktördür. İllüstrasyon fotoğrafı: Bloomberg. |
Üretken Yapay Zeka birçok alanı değiştiriyor. Eğitimde yapay zeka öğrenmeyi destekliyor, intihal tespit ediyor ve öğretime yardımcı oluyor. Tıp alanında ise yapay zeka, görüntü tanısını destekliyor, tedavi rejimlerini ve ilaç araştırmalarını kişiselleştiriyor. Bu araç ayrıca otomatik içerik oluşturmayı teşvik ediyor, müşteri hizmetlerini destekliyor ve iş ve pazarlama alanlarında "sanal KOL'lar" oluşturuyor.
Üretken yapay zekanın yaygınlaşması, sağladığı faydaların yanı sıra, önyargıları artırıp yanlış bilgi yayabileceğinden etik endişeleri de beraberinde getiriyor. Yapay zekanın ayrıca gizliliği, veri güvenliğini ve iş gücü istikrarını tehlikeye atma potansiyeli de bulunuyor.
Dünyadaki birçok ülke gibi, Vietnam da üretken yapay zekanın uygulanmasında hızla ilerliyor. Yapay zekanın insanlara zarar vermek yerine faydalı bir araç haline gelmesi için, yapay zekayı sorumlu bir şekilde geliştirmek önemli görevlerden biridir.
Sorumlu Yapay Zeka Trendleri
RMIT Vietnam'da Bilgi Teknolojileri kıdemli öğretim görevlisi Dr. Sam Goundar, üretken yapay zekanın etiğiyle ilgili bazı tartışmaları hatırlıyor. Taylor Swift porno skandalından, eski ABD Başkanı Joe Biden'ın taklit edilmesine ve yapay zeka kullanılarak yapılan akademik sahtekarlığa kadar.
"Daha endişe verici olan ise sohbet robotlarının intiharı teşvik etmesi, çocuk istismarı içerikleri oluşturması, suikastları teşvik etmesi, taraflı işe alım algoritmaları kullanması veya güvenlik açıklarının yapay zeka tarafından istismar edilmesidir.
Dr. Goundar, "Bu sorunlar, yapay zekanın kötüye kullanımını en aza indiren ve bireysel ve toplumsal çıkarları koruyan insan merkezli bir yaklaşıma duyulan ihtiyacı vurguluyor" dedi.
Microsoft Copilot aracı ekranı. Fotoğraf: Bloomberg. |
Dr. Goundar'a göre, 2025 yılında sorumlu ve insan odaklı yapay zekâya doğru bir eğilim görülecek. Önyargı, yanlış bilgi ve etik riskler konusundaki endişelerin artmasıyla birlikte, kullanıcıların yapay zekânın nasıl karar verdiğini anlamalarına yardımcı olan şeffaf yapay zekâ (XAI) teknolojisine öncelik veriliyor.
ABD, Kanada, Avustralya, Çin, Japonya gibi birçok ülke, sektör genelinde etik yapay zeka dağıtımını yönetmek ve sağlamak için yapay zeka düzenlemelerini benimsemeye başladı.
Bir diğer trend ise yapay zeka ile insanı bir araya getiren Hibrit Yapay Zeka modeli; bunun da 2025 yılında gelişmesi bekleniyor.
Sürdürülebilir kalkınmada yapay zekâ, iklim değişikliğiyle mücadeleye ve yeşil teknolojiyi teşvik etmeye yardımcı olabilir. Ayrıca, siber güvenlik alanındaki uygulamalarını genişleterek dijital alandaki riskleri analiz etme ve tehditlere yanıt verme becerisini geliştirmeye yardımcı olacaktır.
Dr. Goundar, "Yapay zeka benimsenmesi hızlandıkça, teknolojinin faydalarını en üst düzeye çıkarmak ve potansiyel riskleri azaltmak için sorumlu yapay zeka yönetiminin sağlanması şarttır" diye vurguladı.
Sorumlu Yapay Zeka Geliştirme Çözümleri
Vietnam, yapay zeka alanında aktif olarak yenilik yapan ülkelerden biridir. Bu nedenle, etik yapay zeka geliştirmenin sağlanması, önyargılı yapay zeka algoritmalarından, gizlilik risklerinden ve kamu güveninin kaybından kaçınılması açısından önemli bir rol oynamaktadır.
Dr. Goundar, yapay zekanın etik ilkelere uygun olarak geliştirilmesi için yapay zeka etiği konusunda araştırmalara yatırım yapılması ve sorumlu yapay zeka dağıtımı için yasal bir çerçeve geliştirmek üzere üniversitelerle iş birliği yapılması gibi bir dizi çözüm önerdi.
Daha sonra, yapay zeka etiğinin üniversite müfredatına entegre edilmesi, iş liderleri, eğitimciler ve politika yapıcılar için yapay zeka eğitim programlarının genişletilmesi düşünülebilir.
Sorumluluk ve etiği teşvik etmek, yapay zekanın insanlar için faydalı bir araç haline gelmesine yardımcı oluyor. Fotoğraf: Bloomberg. |
Kamuoyunun farkındalığını artırmak, bireylerin ve işletmelerin yapay zekânın gizlilik üzerindeki etkisini anlamalarına yardımcı olmak açısından da önemlidir. Ayrıca, yapay zekânın yalnızca kâra odaklanmak yerine sağlık , çevre ve eğitim gibi sosyal amaçlar için kullanılmasını teşvik edebilir.
Sorumlu yapay zeka gelişiminin sürdürülmesinde eğitim ve farkındalık yaratmanın yanı sıra yasal çerçeveler de önemli rol oynuyor.
RMIT Vietnam'dan uzmanlar, yapay zekaya daha sıkı düzenlemeler getirilmesi, uluslararası yapay zeka yönetişim modellerine yaklaşılması, etik yapay zeka sertifikasyonunun başlatılması ve yüksek riskli sistemleri değerlendirmek ve test etmek için bir yapay zeka risk sınıflandırması ve denetim sistemi oluşturulması gibi bir dizi çözüm önerdi.
Dr. Goundar, "Vietnam, 2030 yılına kadar bölgesel bir yapay zeka merkezi olmayı hedeflerken, başarısı yalnızca teknolojik ilerlemeye değil, aynı zamanda güçlü düzenlemelere, etik yapay zeka yatırımına ve potansiyel risklerle mücadele için kamuoyunun farkındalığına da bağlı olacak" diye vurguladı.
Kaynak: https://znews.vn/xu-huong-ai-moi-cua-nam-2025-post1538816.html
Yorum (0)