Profesor Yoshua Bengio, salah satu ilmuwan yang meletakkan dasar bagi pengembangan kecerdasan buatan (AI), berbagi tentang "Keamanan AI" dalam rangka lokakarya teknologi tingkat tinggi "AI Aman - Membentuk Inovasi yang Bertanggung Jawab" pada sore hari tanggal 5 Desember di Hanoi.
Dalam rangka acara tersebut, Profesor Yoshua Bengio berdialog tentang “AI yang Bertanggung Jawab dan Pentingnya AI dalam Pendidikan ”, menyaksikan upacara peluncuran Komite Etika AI di bawah Asosiasi Layanan Perangkat Lunak dan Teknologi Informasi Vietnam (VINASA).
Profesor Yoshua Bengio percaya bahwa hal terpenting adalah perkembangan teknologi harus berjalan seiring dengan perlindungan hak asasi manusia dan pembangunan masyarakat yang berkelanjutan. AI berkembang pesat, efisiensi penggunaan data meningkat 30%, kinerja algoritma meningkat tiga kali lipat, investasi di bidang ini telah mencapai rata-rata 100 miliar dolar AS/tahun, dan penilaian standar menunjukkan bahwa kapasitas AI telah melampaui kemampuan manusia dalam menguasai bahasa dan memproses data.
Namun, kemajuan pesat ini menimbulkan pertanyaan yang meresahkan tentang kemampuan mengendalikan sistem AI yang lebih cerdas daripada manusia. Dengan latar belakang ini, muncul pertanyaan etika yang penting: Siapa yang berhak menentukan tujuan AI? Urgensi untuk memahami dan bertindak dengan tepat bukan hanya sebuah tanggung jawab, tetapi juga masalah kelangsungan hidup umat manusia di masa depan.
Salah satu prinsip penting yang dikemukakan Profesor Yoshua Bengio adalah bahwa AI perlu dibangun sebagai alat untuk melayani manusia, bukan sebagai "agen" yang mampu menetapkan tujuan mereka sendiri dan bertindak untuk mencapai tujuan tersebut, karena tujuan AI dapat bertentangan dengan atau melampaui niat awal manusia.
Oleh karena itu, menurut Profesor Yoshua Bengio, kita sebaiknya menghindari merancang "naluri bertahan hidup" untuk sistem AI. Artinya, kita tidak boleh merancang sistem AI yang seperti manusia, dengan emosi, penampilan, bahkan kesadaran, penentuan nasib sendiri, dan otonomi.
Laporan tahun 2023 tentang Masa Depan Tenaga Kerja oleh Forum Ekonomi Dunia menyatakan bahwa pada tahun 2025, AI diperkirakan akan menciptakan 12 juta lapangan kerja baru di seluruh dunia. Studi lain oleh McKinsey juga menemukan bahwa AI dapat berkontribusi pada penciptaan 20 juta hingga 50 juta lapangan kerja baru di seluruh dunia pada tahun 2030.
Menurut Ketua FPT Corporation, Truong Gia Binh, AI seharusnya dipandang sebagai "sekutu", bukan ancaman yang merampas lapangan kerja. Mempelajari dan menerapkan AI sangat penting untuk tetap kompetitif di pasar tenaga kerja; termasuk pemahaman dasar tentang AI, pembelajaran mesin, ilmu data, serta keterampilan pemecahan masalah dan analitis agar dapat bekerja secara efektif dengan sistem AI.

Dalam rangka lokakarya tersebut, VINASA juga mengumumkan pembentukan Komite Etik Kecerdasan Buatan. Acara ini disaksikan oleh Profesor Yoshua Bengio (Université de Montréal dan Institut Mila), para pemimpin VINASA, dan pimpinan beberapa perusahaan anggota VINASA.
Pembentukan Komite Etika Kecerdasan Buatan menunjukkan upaya Vietnam dalam membangun ekosistem AI di mana inovasi dikembangkan dalam kerangka etika, memastikan daya saing global dan melindungi nilai-nilai sosial.
Komite ini bertugas memandu peta jalan pengembangan AI di Vietnam, memastikan bahwa AI diterapkan secara etis, inovatif, dan untuk manfaat sosial, serta mempromosikan lingkungan hukum yang mendukung untuk AI.
Profesor Yoshua Bengio adalah salah satu tokoh paling berpengaruh di dunia dalam membangun fondasi bagi AI untuk menjadi teknologi praktis, yang diterapkan secara luas di berbagai bidang seperti pemrosesan bahasa alami (NLP), visi komputer, pembelajaran mesin, dan robotika. Pada tahun 1993, beliau mendirikan Mila AI Research Institute, yang berkontribusi signifikan dalam menjadikan Montreal (Kanada) sebagai pusat global untuk teknologi pembelajaran mendalam. |
Menurut VNA
[iklan_2]
Sumber: https://doanhnghiepvn.vn/cong-nghe/giao-su-khai-sinh-ai-lan-dau-sang-viet-nam-chia-se-ve-dao-duc-ai/20241206103838021
Komentar (0)