Vietnam.vn - Nền tảng quảng bá Việt Nam

Yapay zekanın artık büyük miktarda veriye ihtiyacı yok: Enerji tasarruflu yapay zekayı eğitme yarışı

Yapay zeka modellerinin öğrenmesi için artık büyük miktarda veriye veya süper güçlü bilgisayarlara ihtiyaç duyulmuyor. Yapay zekayı daha enerji verimli bir şekilde eğitme yarışı, yeni ve daha kullanıcı dostu bir yaklaşımın kapılarını aralıyor.

Báo Tuổi TrẻBáo Tuổi Trẻ01/11/2025

AI không còn cần dữ liệu khổng lồ: Cuộc đua huấn luyện AI tiết kiệm năng lượng - Ảnh 1.

Teknoloji devleri modern, enerji tasarruflu yapay zeka modellerine yöneliyor

Son yıllarda yapay zeka (YZ) sektörü büyük ölçüde "daha büyük daha iyidir" ilkesini benimsedi: daha fazla veri, daha fazla parametre, daha fazla hesaplama. Ancak Google, MIT ve Stanford'un yeni araştırmaları tamamen farklı bir yön gösteriyor.

Modern modeller, daha az veriyle verimli bir şekilde eğitilebilir, daha az enerji tüketebilir ve yine de yüksek performans elde edebilir. Bu, yalnızca eğitim maliyetlerini ve süresini azaltmakla kalmaz, aynı zamanda daha önce büyük ölçekli teknolojiye erişimde zorluk çeken küçük araştırma ekipleri ve orta ölçekli işletmeler için yapay zeka uygulamalarının kapısını da açar.

Teknolojik gelişmeler yapay zekanın "küçük ama güçlü" olmasına yardımcı oluyor

Tuoi Tre Online'ın araştırmasına göre, reklam işleme testinde Google, eğitim verilerini 100.000 örnekten 500'ün altına düşürdü ancak uzmanlarla uyumluluğu %65 oranında artırdı.

Buna paralel olarak, veri verimliliğine dayalı eğitimin kapsamlı bir araştırması, "veri kalitesinin, akıllı örneklemenin ve 'damıtma' tekniklerinin performansı belirlediğini" ve bunun yalnızca veri sayısını artırmakla sınırlı olmadığını gösteriyor.

Teoride, "ölçekleme yasaları" model parametrelerini, verileri ve hesaplamayı artırmanın yardımcı olacağını öne sürmüştür, ancak Meta'nın Yapay Zeka Direktörü Yann LeCun gibi uzmanlar şunu vurguluyor: "Verileri ve hesaplamayı artırarak Yapay Zeka'yı otomatik olarak daha akıllı hale getiremezsiniz."

Bu, milyonlarca hatta milyarlarca örnek oluşturup etiketlemek yerine, araştırma ekiplerinin verileri yeniden kullanmayı, sentetik veriler oluşturmayı, daha küçük modeller kullanmayı ve enerji ve veri açısından daha verimli algoritmalara odaklanmayı amaçladığı anlamına geliyor.

Örneğin, "bilgi damıtma" tekniği, bilginin bir "öğretmen"den (büyük bir öğretmen modeli) bir "öğrenciye" (kompakt bir öğrenci modeli) aktarılmasını sağlarken, birçok yeteneğin korunmasını sağlar. Stanford HAI'deki araştırmacılar, bu eğilimin hem hesaplama açısından uygun maliyetli hem de çevre dostu olduğunu, aynı zamanda küçük araştırma grupları veya küçük ve orta ölçekli işletmeler için yapay zekâyı etkili bir şekilde uygulama fırsatları yarattığını vurguluyor.

Bu gelişmeler, yapay zeka modellerinin daha az veri kullanmasını, daha hızlı çalışmasını, daha az güç tüketmesini, maliyetleri düşürmesini, sürdürülebilirliği artırmasını ve akıllı optimizasyona doğru ilerlemek, daha hızlı öğrenmek, daha az kaynak tüketmek ve yine de kaliteyi sağlamak için uygulamaları kaynak kısıtlı ortamlara genişletmesini sağlar.

Veri açısından verimli yapay zeka eğitiminin pratik uygulamaları ve zorlukları

Aslında, yapay zekayı daha az veri ve güçle eğitmenin geniş bir etkisi vardır. Gelişmekte olan ülkelerdeki küçük işletmeler veya araştırma ekipleri için "milyonlarca örnek ve devasa sunucular kullanmak" mümkün değildir. Bir model birkaç bin örnek ve sıradan bilgisayarlarla eğitilebildiğinde, yapay zeka uygulamaları son kullanıcılara ve gerçek ortamlara daha yakın olacaktır.

Örneğin, reklam moderasyon diyaloglarında Google, yüz binlerce rastgele örnek seçmektense "değerli" bir veri örneği seçmenin daha iyi olduğunu gösteriyor; böylece sonuçlara ulaşırken ihtiyaç duyulan veri miktarı azalıyor.

Ancak, zorluk devam ediyor: Veri kıt olduğunda, model aşırı uyum, zayıf genelleme ve ortamdaki değişiklikleri yönetmede zorluk yaşamaya eğilimlidir. Görsel aktarım öğrenimi üzerine yapılan araştırmalar, girdi verileri çok sınırlı olduğunda damıtmanın daha etkili olduğunu, ancak veriler yeterince büyük olduğunda geleneksel yöntemin yine de kazandığını göstermektedir.

Güç tüketimi ve maliyet açısından, veriyi azaltmak aynı zamanda hesaplama, sunucu ve elektrik giderlerini de azaltmak anlamına geliyor ki bu, eğitim başına milyonlarca dolara mal olan büyük yapay zeka modelleri (LLM) bağlamında önemlidir.

Stanford HAI'nin raporuna göre, veri ve enerji tasarrufu sağlayan yapay zeka trendi 2025'te "büyük bir dönüşüm" olarak değerlendiriliyor.

Dolayısıyla gazeteciler ve genel okuyucular için şunu belirtmekte fayda var; yapay zeka artık sadece "teknoloji devleri" için değil, daha az veri ve daha düşük maliyetlerle küçük ekipler tarafından da yaratılabilir hale geldiğinde, küçük işletme yönetiminden bölgesel tıbbi uygulamalara, kişiselleştirilmiş öğrenmeye kadar birçok yeni uygulama alanı ortaya çıkacak.

Ancak kullanıcılar, iyi kontrol edilmediği takdirde "veri" modelinin daha az doğru ve önyargıya daha açık olabileceği konusunda da dikkatli olmalıdır.

Konuya geri dön
Tuan Vi

Kaynak: https://tuoitre.vn/ai-khong-con-can-du-lieu-khong-lo-cuoc-dua-huan-luyen-ai-tiet-kiem-nang-luong-20251031115025169.htm


Yorum (0)

No data
No data

Aynı konuda

Aynı kategoride

Phu Sa Phin'i fethetmek için yola çıkarken peri yosunu ormanında kayboldum
Bu sabah, Quy Nhon sahil kasabası sisin içinde 'rüya gibi' görünüyor
'Bulut avı' sezonunda Sa Pa'nın büyüleyici güzelliği
Her nehir - bir yolculuk

Aynı yazardan

Miras

Figür

İşletme

Thu Bon Nehri'ndeki 'büyük sel', 1964'teki tarihi selden 0,14 metre daha büyüktü.

Güncel olaylar

Siyasi Sistem

Yerel

Ürün