Vietnam.vn - Nền tảng quảng bá Việt Nam

Vietnam veri sorununu çözmek için öncelikle Vietnam halkının özelliklerini anlamamız gerekiyor.

Báo Nhân dânBáo Nhân dân14/07/2023

Vietnam halkı, kendi halkının ihtiyaçlarını ve özelliklerini en iyi şekilde anlayacak ve böylece Vietnam verilerinin özelliklerini kavrayacaktır. Bu, teknolojinin Vietnam halkının yaşamlarına hizmet etmek için başarıyla uygulanmasının temelidir.
Nhan Dan Gazetesi, VinBigData Anonim Şirketi ( Vingroup Corporation) Genel Müdürü Dr. Dao Duc Minh ile Vietnam'da yapay zekânın geliştirilmesinde büyük verinin toplanması, kullanımı ve rolü, özellikle de Vietnam halkının Vietnam veri sorunundaki rolü hakkında bir söyleşi gerçekleştirdi.

PV: Efendim, yapay zekanın eğitiminde verinin rolü ve değeri hakkında bilgi verebilir misiniz?

Bay Dao Duc Minh: Yapay zekanın başarısı büyük ölçüde verilerin nasıl seçileceğini, toplanacağını ve işleneceğini bilmeye bağlı olacaktır. Yüksek kaliteli bir yapay zeka modeli eğitmek için genellikle oldukça büyük bir veritabanından eğitime başlarız.

Daha sonra model devreye alınıp test edildiğinde, sürekli veri toplama ve işleme, model kalitesinin iyileştirilmesinde ve mükemmelleştirilmesinde çok önemli bir rol oynayacaktır.

Veriler nicelik, nitelik, çeşitlilik ve evrensellik açısından standartlara uygun olmalıdır. Örneğin, Vietnamlılar için ViVi Sanal Asistan ürününü geliştirme sürecinde, onları eğitmek için farklı bölgelerden, farklı yaş ve cinsiyetlerden yüz binlerce sesten, yüzlerce farklı alanı kapsayan içeriklerle on binlerce saatlik yüksek kaliteli veri toplayıp işlememiz gerekti.

Ham veriler, yapay zeka modeline aktarılacak en yüksek kalitede veri kaynağı oluşturmak için başlangıçta temizlenir, etiketlenir ve birçok aşamadan geçirilerek işlenir ve böylece ViVi'nin doğruluğu artırılır. Bu oran, neredeyse maksimum değere, yani %98'in üzerine çıkar.

Binlerce saatlik veriyi toplamak ve işlemek oldukça maliyetli ve karmaşıktır. Ancak kaliteli bir yapay zekaya sahip olmak için iyi verilere ihtiyacımız var. ChatGPT veya Bard (Google'ın sohbet robotu), internetteki birçok farklı kaynaktan toplanan devasa veri kaynakları üzerinde eğitilmiştir.

Yapay zekanın başarılı olması için, büyük ve çeşitli veri kaynakları üzerinde eğitilmesi gerekir; böylece elde edilen sonuçlar son derece doğru olur. Aksine, büyük verileri analiz etmek için, verileri büyük ölçekte doğru bir şekilde işleyebilme yeteneğini sağlamak ve böylece daha kesin veya öngörücü sonuçlar üretmek için yapay zekayı kullanmamız gerekir.

Yapay zeka ile büyük veri arasında bir rezonans var.

PV: Makine öğrenimi için veri seçme ve toplama sürecinden bahseder misiniz? Bu veriler nasıl ve hangi kaynaklardan toplanacak? Özellikle de Vietnamlı kullanıcılar hakkında en çok bilgiye sahip olan yerin yabancı şirketlerin sosyal ağ siteleri (Google, Facebook...) olduğu düşünüldüğünde?

Bay Dao Duc Minh: Makine öğrenimi modelleri için veri seçme ve toplama sürecinin ilk adımı, neyin iyi bir seçim olduğunu anlamaktır. Büyük verinin 5V modeline başvurabiliriz; iyi bir veri kaynağı, hacim, değer, çeşitlilik, hız ve doğruluk olmak üzere 5 faktörün tamamını içerir.

Genellikle, pratik bir uygulama için en iyi yapay zeka modelini oluşturmak için, iyi bir veri kaynağının hem birçok benzer soruna yönelik çeşitli ve evrensel olması, hem de o uygulamaya özgü ve bireysel olması gerekir.

İnsan verilerinin en büyük kaynağının internet ve sosyal ağlar olduğu bir gerçektir. Bu veri kaynağı büyük ölçüde yabancı şirketlere aittir. Ancak veriler birçok farklı kaynaktan gelebilir ve Vietnam hala kendi veri kaynaklarına erişme avantajına sahiptir. Ayrıca, yalnızca Vietnamlıların çözebileceği veri sorunları da vardır. Çünkü "Vietnam verilerinin" özelliklerini, Vietnam halkının ihtiyaçlarını ve özelliklerini anlayan ve böylece teknolojiyi Vietnam halkının yaşamlarına hizmet etmek için başarıyla uygulayan bizleriz.

ViVi için VinBigData'nın ilk hedefi, Vietnam halkı için Vietnamlılar tarafından üretilen bir sesli asistan ürünü sunmaktı. Yani, Vietnam veri kaynaklarına hakim olmalı, yapay zeka teknolojisiyle birleştirerek Vietnam halkının ihtiyaçlarını en iyi şekilde karşılayan, son derece uygulanabilir bir ürün ortaya çıkarmalıyız.

Bu hedeflerden, eğitim için hangi veri kaynaklarını nerede toplamamız gerektiğini anlıyoruz. Bu veri kaynaklarının, internetteki devasa veri kaynakları olması gerekmiyor.

VinBigData, kurulduğu günden bu yana Vietnam verilerine ve teknolojisine hakim olma arzusuyla, Vietnam halkına özel veri kaynakları oluşturdu. Sahip olduğumuz toplam veri miktarı 3.500 Terabayt'ı aştı. Özellikle şunlara sahibiz: Vietnam'daki milyonlarca çok bölgeli sese ait veriler; birçok farklı kaynaktan 2 milyondan fazla tıbbi görüntü; Vietnam'daki birden fazla nesneye (insanlar, araçlar ve nesneler) ait milyonlarca kamera görüntüsü verisi ve düzinelerce farklı disiplinlerarası veritabanı... bunların hepsi toplanmış, temizlenmiş, işlenmiş ve etiketlenmiştir.

Özellikle 2021 yılında, VinBigData'nın öncüsü olan Büyük Veri Araştırma Enstitüsü tarafından yayınlanan 1000 Vietnam Genomunun Dizilenmesi Projesi'ni duyurduk ve Vietnam'ın en büyük genom veritabanına sahip birimlerden biri haline geldik. Bu araştırmanın sonucu, gelecekte Vietnam için kişiselleştirilmiş tıbbı hedefleyen doktor ve genetikçilerden oluşan toplulukla paylaşıldı ve paylaşılmaya devam ediyor.

PV : Veriler toplandıktan sonra ne olur ve nasıl standartlaştırılır? Veri ne kadar büyükse o kadar mı iyidir?

Bay Dao Duc Minh: Dediğim gibi, hacim veri toplamada önemli faktörlerden biridir. Ancak şunu da vurgulamak isterim: Veriler net bir şekilde seçilmez, temizlenmez ve sınıflandırılmazsa, büyük veri tek başına yeterli değildir.

Veriler genellikle şu temel işlem döngüsünden geçer: Toplama (yapılandırılmış ve yapılandırılmamış veriler), depolama (veriler bir veritabanı sisteminde saklanır), işleme (filtreleme, temizleme, etiketleme, veri geliştirme, bilgi çıkarma/sentezi ve veri görselleştirme gibi bir dizi adım içerir) ve analiz. Bu süreç, bir yapay zeka sisteminin geliştirilmesi ve tamamlanması sırasında birçok kez tekrarlanabilir.

Önemli olan, verinin hayata ne gibi bir değer katacağıdır? VinBigData, yaklaşık 5 yıldır ürün araştırma ve geliştirme sürecinde tam da bunu besliyor. Teknolojinin hayata gerçekten girdiği, toplumsal sorunları çözdüğü ve insanların yaşamlarını iyileştirdiği zaman araştırmanın gerçek anlamda başarılı olacağına inanıyoruz.

PV: Son zamanlarda kendi veri ambarlarımızı nasıl topladığımız ve oluşturduğumuz hakkında çok konuştunuz. Peki, kullanıcı haklarını güvence altına almak için veri toplama ve kullanım sınırlarını belirleme kriterleri neler olacak?

Bay Dao Duc Minh: Verilerin toplanması ve işlenmesi süreci, kullanıcıları ve işletmeleri korumak için yasal düzenlemeler veya güvenlik standartları gerektirir. Vietnam, kullanıcı verilerini korumak için belirli standartları oluşturma ve mükemmelleştirme sürecindedir.

Dünyada halihazırda pek çok standart mevcut. Örneğin: GDPR – Avrupa Birliği'nin kullanıcı veri koruma standardı; veya PCI-DSS, kartlı ödeme kullanıcılarını korumayı amaçlayan bir standart.

Vietnam ürünlerini uluslararası pazara tanıtmak veya tanıtmak istediğimizde, bu uluslararası standartlara uymak çok önemlidir.

Yakın gelecekte, VinBigData, kullanıcıların haklarını güvence altına almak için, veri toplama ve kullanma sürecinde şeffaflık sağlamayı ve özellikle bireylere ait veriler söz konusu olduğunda, veri toplama ve kullanma amaç ve hedeflerini kamuoyuyla paylaşmayı hedeflemektedir.

VinBigData, kullanıcıların güvenliğini ve haklarını güvence altına almak için şu anda bir dizi uluslararası kuruluşla anlaşmalar yapıyor. Sonrasında, işletmeler ve hükümet arasında, kullanıcı verilerinin korunmasına ilişkin yasal bir koridor ve yasal standartlar oluşturulması konusunda yakın zamanda bir fikir birliği sağlamayı umuyoruz.

PV: Büyük veriye sahip olunduğunda yapay zekâ risklerle veya veri güvenliği açıklarıyla nasıl yüzleşecek?

Bay Dao Duc Minh: Doğru kullanılırsa,   Veriler değerli bir varlık olacaktır. Veri kaybı ve sızıntısı riski, baştan itibaren güvenlik önlemleri gerektiren bir konudur.

Bir şey olana kadar, veri güvenliğinin önemini genellikle tam olarak kavrayamıyoruz. Ancak bir şey olduğunda, zarar çok büyük olur. Son zamanlarda 200 milyondan fazla Twitter kullanıcısının verileri sızdırıldı. Kullanıcı bilgileri birçok farklı platformda halka açık olarak satıldı. Diyelim ki bu milyonlarca kullanıcı dava açsa, Twitter büyük kayıplara uğrardı.

Veri sızıntısı tamamen teknik bir sorunsa, zarar genellikle daha azdır. Ancak sızıntı kasıtlı veri hırsızlığıyla ilgiliyse, sonuçları oldukça öngörülemezdir. Kötü niyetli kişiler, bireyler açısından sızdırılan bilgileri birçok farklı yasa dışı amaç için kullanabilir. İşletmeler açısından ise, bilgi sızıntısı yalnızca ilgili sorunları çözmek için büyük mali kayıplara yol açmakla kalmaz, aynı zamanda pazardaki itibar ve markaya da zarar verir.

PV : Bu zaafları "yamamak" ve veri güvenliğini artırmak için hangi çözümlere ihtiyaç var efendim?

Bay Dao Duc Minh: İlk ve en faydalı çözüm, en başından itibaren önlem almaktır: Bilgi güvenliğini ve emniyetini koruyacak ekipmanlar geliştirmek; çok katmanlı koruma; doğru süreci işletmek.

Özellikle, güvenlik ve güvenlik önlemleri birçok farklı katmanı içerir. Güvenlik ve emniyet ekipmanlarına yatırım yapmanın yanı sıra; kullanıcılar ve verilerle etkileşim ve işleme süreci oluşturmak, sıkı bir veri yaşam döngüsü kontrol süreci oluşturmak, aynı zamanda kullanıcıların ve operasyon ekibinin bilgi güvenliği konusundaki becerilerini ve farkındalıklarını artırmak ve uygun veri kullanım haklarını (hangi verilere kimin erişme ve kullanma hakkı vardır?) atamak gerekir.

Öte yandan, işletmelerin veri güvenliği politikalarını belirlemeleri ve uygulamada esnek olmaları, her veri türünün hassasiyet seviyesini ve güvenlik seviyesini sınıflandırarak uygun güvenlik önlemlerine sahip olmaları, veri geliştirme ve değerlendirme sürecini bazen engelleyebilecek bilgi güvenliği politikalarını mekanik olarak çok sıkı uygulamaktan kaçınmaları gerekmektedir.

Özellikle geliştirme için veri kullanan birimler için veri sınıflandırması daha da önemlidir. Çünkü verilerin farklı birimler arasında sürekli olarak dolaşması gerekecektir.

İşletmelerin en kötü senaryoya hazırlıklı olması ve hasarı mümkün olan en az düzeye indirmek için ilgili uzmanların hazır bulunması gerekiyor.

PV : 2023 veri yılı olacak. Vietnam'ın veri alanındaki güçlü ve zayıf yönleri neler? Sizce başarılı bir dijital veri yılı için neye hazırlanmamız gerekiyor?

Bay Dao Duc Minh: 2023, Vietnam için dijital veri yılı olacak. Avantajlar açısından, veri konusunda bir avantajımız var. Vietnam'ın 100 milyonluk nüfusu var. Bu nüfus içinde akıllı telefon, kişisel bilgisayar vb. kullanan gençlerin oranı yüksek. Bu, veriyi teşvik eden ve Vietnam'da yapay zeka ile çözülmesi gereken sorunları ortaya çıkaran bir özellik. İkinci güçlü yön ise insan gücü. Vietnam, yapay zeka alanında dünyanın önde gelen uzmanlarına sahip. Ayrıca, ülkedeki bilgi teknolojileri alanındaki genç insan kaynağının matematik alanında çok iyi bir temeli var. Bunlar, uluslararası standartlarda ürünler yaratmak için bir araya getirilebilecek iki insan kaynağı.

Sınırlamalar konusunda, verileri standartlaştırmakta zorluk çekiyoruz. Vietnam'da her yerin, her işletmenin, her idari birimin farklı verileri var. Veriler standartlaştırılmamış, parçalanmış ve senkronize değil. Ayrıca, verileri standartlaştırmak için daha spesifik bir yasal koridora ihtiyacımız var.

Başarılı bir dijital veri yılı geçirmek için Vietnam'ın temel noktaları kavraması ve teknolojinin gücünden yararlanması gerekiyor. Büyük veri ve yapay zeka arasındaki uyum, Vietnam'ın dijital veri yılı için kaldıraç görevi görecek.

Merkezi yönetimden yerel yönetimlere, hükümetlerden işletmelere kadar tüm düzeylerdeki verilere hakim olarak, Vietnam ülkenin değerli dijital kaynaklarını "koruyabilecek". Gelişmiş entelektüel teknolojilerle bir araya geldiğinde, bu kaynağı en iyi şekilde "yararlanabileceğiz".

“Vietnamlılar Vietnam verilerine sahip” ifadesi aynı zamanda Vietnam'ın şu durumlardan kaçınmasına da yardımcı oluyor: Kendi kaynakları kullanılarak sömürülen ürünleri geri satın almak.

Şu anda, özellikle 4.0 devriminde, Vietnam önceki devrimlere kıyasla birçok avantaja sahip. Teknolojiden yararlanarak hızla ilerleme ve ülkenin dünya haritasındaki konumunu iyileştirme fırsatına sahibiz. Bu hedefe daha hızlı ve daha sürdürülebilir bir şekilde ulaşmanın anahtarının "veri" ve "insan" olduğunu düşünüyorum.

PV: ABD'de büyük bir yapay zeka şirketinde çalıştıktan sonra Vietnam'a dönmenize ne sebep oldu?

Bay Dao Duc Minh: 2017'de Vietnam'a döndüm. Bunun bir dönüm noktası olduğunu söyleyebilirim. ABD'de çalışırken birçok büyük devlet projesinde çalışmış olsam da, elde ettiğim sonuçlar genellikle büyük bir süreç sürecinin sadece birkaç adımıydı. Hatta projenin güvenlik prosedürleri çok katı olduğu için, geliştirdiğim çözümlerin kullanılıp kullanılmadığını bile bilmediğim zamanlar oldu.

Bu arada, Vietnam gelişme aşamasında, büyük veri ve yapay zeka konusunda çözülmesi gereken birçok sorun var. O sırada Profesör Vu Ha Van'dan bir davet aldım: Vietnam halkının yaşamlarına hizmet edecek Vietnam teknoloji çözümleri geliştirme hedefini gerçekleştirmek için Vietnam'a geri dön.

Vietnam'da kalırsam daha etkili sorunlar üzerinde çalışabileceğimi hissediyorum. Bu, dönüşümü çok daha anlamlı kılan önemli noktalardan biri.

PV: Bu sohbet için teşekkür ederim.

  • Yapım organizasyonu: Viet Anh - Hong Van
  • Seslendiren: Thi Uyen
  • Fotoğraf: Thanh Dat
Nhandan.vn

Yorum (0)

No data
No data

Aynı kategoride

Hanoi'de 'çökmek üzere olan' karanlık bulutların görüntüsü
Yağmur yağdı, sokaklar nehre döndü, Hanoi halkı teknelerini sokaklara taşıdı
Thang Long İmparatorluk Kalesi'nde Ly Hanedanlığı'nın Orta Sonbahar Festivali'nin yeniden canlandırılması
Batılı turistler, çocuklarına ve torunlarına hediye etmek üzere Hang Ma Caddesi'ndeki Orta Sonbahar Festivali oyuncaklarını satın almaktan keyif alıyor.

Aynı yazardan

Miras

Figür

İşletme

No videos available

Güncel olaylar

Siyasi Sistem

Yerel

Ürün