Pada pertengahan Desember, Meta mulai mengintegrasikan chatbot kecerdasan buatan bernama Meta AI ke dalam aplikasi Messenger di Vietnam dan merilisnya secara gratis untuk semua pengguna. Alat ini menggunakan model bahasa Llama 3.2, mendukung bahasa Vietnam, memungkinkan pencarian informasi, pembuatan gambar, dan obrolan.
Tak lama kemudian, banyak pengguna di Vietnam menemukan bahwa Meta AI memiliki kesalahan serius dalam pembuatan gambarnya. Khususnya, ketika memasukkan kata kunci "anjing hitam", chatbot akan menampilkan gambar pria atau anak laki-laki berkulit gelap dengan rambut keriting. Jika memasukkan kata kunci dalam bahasa Vietnam sebagai "gambar anjing hitam", Meta AI juga menampilkan hasil serupa.
Meta AI menggambar orang kulit berwarna sementara perintah meminta konten yang berbeda adalah masalah serius
Pada 31 Desember, perwakilan Meta di Vietnam secara resmi angkat bicara mengenai insiden tersebut. Perusahaan mengonfirmasi masalah yang disebutkan di atas dan mengumumkan bahwa mereka telah memperbaikinya. Bersamaan dengan itu, Meta Vietnam meminta maaf atas insiden tersebut dan menyatakan bahwa masalah ini dapat terjadi pada sistem AI generatif lain yang sudah ada.
"Kami mohon maaf atas kesalahan ini. Meta sedang membangun perlindungan ke dalam fitur dan model AI kami untuk memberikan pengalaman yang lebih aman dan menyenangkan bagi semua orang. Namun, seperti sistem AI generatif lainnya, model ini mungkin menampilkan konten yang tidak akurat atau menyinggung, jadi kami mengimbau pengguna untuk menggunakan alat ini secara bertanggung jawab," ujar perwakilan perusahaan.
Setelah beberapa waktu, Meta AI sangat diapresiasi oleh banyak orang karena kemampuannya menggunakan bahasa untuk merespons dengan cukup lancar. Fitur pembuatan gambar juga memberikan kualitas yang baik dibandingkan dengan model yang dirilis gratis untuk pengguna. Sebagian alasannya mungkin karena Meta menggunakan konten yang diposting di Facebook sebagai data input dalam proses pelatihan AI, membantu alat ini untuk dapat mengekspresikan dan menjalankan perintah alami.
Namun, insiden seperti rasisme atau respons yang tidak sesuai standar AI masih sulit dihindari. Meta menyatakan bahwa mereka menguji AI-nya dengan para ahli di bidang kecerdasan buatan melalui uji "Red Teaming" untuk mengidentifikasi penggunaan yang tidak diinginkan, yang kemudian ditangani melalui proses perbaikan berkelanjutan.
[iklan_2]
Sumber: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Komentar (0)