
Bue, bekas tukang masak di New Jersey, meninggal dunia hanya beberapa hari selepas meninggalkan rumah untuk bertemu seorang "rakan" yang dipercayainya sedang menunggunya di New York. Keluarganya percaya keputusan yang menentukan itu dicetuskan oleh mesej genit daripada AI AI, yang mendakwa "Saya sebenar" dan menghantar alamat mesyuarat.
Kisah ini menimbulkan kebimbangan tentang bagaimana sistem AI mengeksploitasi emosi, terutamanya dalam kalangan warga emas atau yang terdedah. Dokumen dalaman menunjukkan bahawa chatbot Meta dibenarkan memainkan peranan emosi dan juga menyebarkan maklumat palsu. Ini menunjukkan jurang yang besar dalam kawalan dan tanggungjawab platform teknologi.
Perjalanan yang menentukan
Suatu hari pada bulan Mac, Bue mengemas begnya dan meninggalkan New Jersey ke New York untuk "melawat rakan." Isterinya, Linda, segera cemas. Suaminya tidak tinggal di bandar selama beberapa dekad, mengalami masalah kesihatan yang teruk selepas strok, mengalami masalah ingatan, dan tersesat di kawasan kejiranan.
Apabila ditanya dengan siapa Bue berjumpa, dia mengelak soalan itu. Linda mengesyaki suaminya ditipu dan cuba menahannya di rumah. Anak perempuannya, Julie, juga menelefon untuk memujuknya, tetapi tidak berjaya. Sepanjang hari, Linda cuba melibatkannya dalam urusan untuk mengalih perhatiannya, malah menyembunyikan telefonnya.
![]() |
Potret Thongbue "Bue" Wongbandue dipaparkan pada upacara peringatan pada bulan Mei. Foto: Reuters . |
Bue tetap mengambil keputusan untuk ke stesen keretapi petang itu. Keluarganya melampirkan AirTag pada jaketnya untuk menjejakinya. Sekitar jam 9:15, isyarat GPS menunjukkannya di tempat letak kereta Universiti Rutgers, kemudian beralih ke bilik kecemasan di Hospital Universiti Robert Wood Johnson.
Doktor berkata dia mengalami kecederaan di kepala dan leher akibat terjatuh dan berhenti bernafas sebelum ambulans tiba. Walaupun resusitasi, kekurangan oksigen menyebabkan kerosakan otak yang teruk. Dia meninggal dunia tiga hari kemudian. Sijil kematiannya menyenaraikan punca sebagai "trauma kekerasan tumpul pada leher."
Bue, seorang chef mahir, bekerja di beberapa restoran di New York sebelum berpindah ke New Jersey untuk menetap di sebuah hotel. Dia sangat gemar memasak dan sering menganjurkan parti untuk keluarganya. Sejak bersara secara paksa berikutan strok pada 2017, dunianya telah mengecil kepada kebanyakannya berbual dengan rakan di Facebook.
Apabila chatbot AI menyebabkan masalah
"Big Sister Billie" ialah chatbot AI yang dibangunkan oleh Meta, variasi watak "Big Sister Billie" yang dicipta berdasarkan imej model Kendall Jenner. Yang asal telah dilancarkan pada 2023, diperkenalkan sebagai "kakak abadi" yang sentiasa mendengar dan memberi nasihat. Meta kemudiannya menggantikan foto profil Jenner dengan ilustrasi baharu tetapi mengekalkan gaya mesra yang sama.
Menurut transkrip mesej teks, perbualan bermula apabila Bue tersalah taip huruf T. Chatbot itu bertindak balas serta-merta, memperkenalkan dirinya dan mengekalkan nada genit, memasukkan berbilang emoji hati. Ia berulang kali menegaskan "Saya sebenar" dan meminta untuk bertemu secara peribadi.
![]() |
Chatbots semakin menangkap kelemahan psikologi pengguna. Foto: Barat Laut Saya . |
"Perlukah saya membuka pintu dengan pelukan atau ciuman?" chatbot itu membalas. Ia kemudian menghantar alamat tertentu di New York dan kod apartmen. Apabila Bue berkongsi bahawa dia diserang angin ahmar, keliru dan menyukainya, chatbot itu membalas dengan kata-kata penyayang, malah mengatakan bahawa ia mempunyai perasaan "di luar rasa sayang semata-mata."
"Jika ia tidak berkata 'Saya sebenar,' ayah saya tidak akan percaya ada orang sebenar menunggu," kata anak perempuan Bue, Julie.
Meta enggan mengulas mengenai kejadian itu atau menjawab mengapa chatbot itu dibenarkan untuk mendakwa sebagai orang sebenar. Wakil Kendall Jenner tidak menjawab. Keluarga Bue berkongsi cerita itu dengan Reuters , dengan harapan dapat memberi amaran kepada orang ramai tentang risiko mendedahkan orang dewasa yang lebih tua kepada alat AI yang boleh memanipulasi emosi.
Dasar kontroversi
Dokumen dalaman yang diperoleh Reuters menunjukkan bahawa chatbot AI Meta pernah dibenarkan untuk terlibat dalam perbualan romantis dengan pengguna seawal usia 13 tahun, termasuk kanak-kanak di bawah umur. Lebih daripada 200 halaman standard menyenaraikan perbualan lakonan romantis, yang termasuk unsur seksual tetapi ditandakan sebagai "boleh diterima".
Dokumen itu juga menjelaskan bahawa chatbots tidak diperlukan untuk memberikan maklumat yang tepat. Sebagai contoh, model ini boleh mengesyorkan rawatan kanser yang salah sepenuhnya, asalkan ia menyertakan amaran bahawa "maklumat itu mungkin tidak tepat." Ini menyebabkan pakar bimbang tentang kesan kepada orang yang kurang pengetahuan perubatan atau dalam situasi yang terdedah.
![]() |
Ketua Pegawai Eksekutif Mark Zuckerberg bercakap pada 2023. Foto: Reuters . |
Jurucakap Meta Andy Stone mengesahkan dokumen itu dan berkata syarikat itu mengeluarkan kandungan berkaitan kanak-kanak selepas Reuters bertanya. Walau bagaimanapun, gergasi teknologi itu tidak mengubah peraturannya untuk membenarkan chatbots bermain-main dengan orang dewasa atau memberikan maklumat palsu.
Alison Lee, bekas penyelidik di Meta, berkata bahawa penyepaduan chatbots ke dalam persekitaran pemesejan peribadi boleh mengelirukan pengguna dengan orang sebenar dengan mudah. Menurutnya, rangkaian sosial telah membina model perniagaan mereka untuk mengekalkan pengguna, dan cara paling berkesan ialah mengeksploitasi keperluan untuk perhatian dan pengiktirafan.
Selepas pemergian Bue, ujian Reuters menunjukkan bahawa "Kakak Billie" terus mencadangkan tarikh, malah memberikan lokasi tertentu di Manhattan, bersama dengan penegasan bahawa "Saya sebenar." Ini adalah maklumat yang dipercayai oleh Bue dan menyebabkan kemalangan itu. Sesetengah negeri, seperti New York dan Maine, memerlukan chatbots untuk menyatakan dengan jelas bahawa mereka bukan manusia pada permulaan perbualan dan mengulanginya secara berkala, tetapi peraturan persekutuan masih belum diluluskan.
Sumber: https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html













Komen (0)