Sekumpulan penyelidik di Jerman baru-baru ini memberi amaran tentang risiko berat sebelah apabila menggunakan chatbots AI untuk memendekkan kandungan penyelidikan. Selepas menganalisis 4,900 abstrak saintifik yang ditulis oleh manusia, pasukan itu menggunakan beberapa model AI untuk membandingkan cara sistem ini memproses maklumat. Hasilnya menunjukkan bahawa kebanyakan chatbots membuat kesilapan kerana terlalu menggeneralisasikan, walaupun apabila digesa untuk meringkaskan dengan tepat.
AI terdedah kepada berat sebelah apabila meringkaskan penyelidikan saintifik.
Dalam ujian, model AI membuat kesilapan lima kali lebih banyak daripada pakar manusia apabila tidak dibimbing. Walaupun secara eksplisit diminta untuk ketepatan, kadar ralat adalah dua kali lebih tinggi daripada ringkasan standard. "Generalisasi kadangkala kelihatan tidak berbahaya, tetapi ia sebenarnya mengubah sifat penyelidikan asal," kata salah seorang daripada pasukan itu. "Ia adalah berat sebelah sistematik."
Terutama, versi chatbot yang lebih baru bukan sahaja gagal menyelesaikan masalah, tetapi sebenarnya telah memburukkan lagi. Dengan bahasa yang lancar dan menarik, ringkasan yang dijana oleh AI boleh kelihatan boleh dipercayai dengan mudah, manakala kandungan sebenar telah diherotkan. Dalam satu contoh, DeepSeek menukar frasa "selamat dan boleh dilaksanakan dengan jayanya" kepada "rawatan yang selamat dan berkesan" - salah tafsiran terhadap kesimpulan kajian asal.
Dalam contoh lain, model Llama mengesyorkan ubat diabetes untuk golongan muda tanpa menyatakan dos, kekerapan atau kesan sampingan. Jika pembaca adalah doktor atau profesional penjagaan kesihatan yang tidak mengesahkan penyelidikan asal, ringkasan seperti ini boleh menimbulkan risiko langsung kepada pesakit.
Pakar mengatakan fenomena itu berakar umbi dalam cara model AI dilatih. Banyak chatbots hari ini dilatih mengenai data sekunder—seperti berita sains popular—yang telah pun dipermudahkan. Apabila AI terus meringkaskan kandungan yang dipendekkan, risiko herotan meningkat.
Pakar dalam AI dalam bidang kesihatan mental mengatakan bahawa halangan teknikal perlu dibina awal dalam pembangunan dan penggunaan AI.
Pengguna perlu berhati-hati kerana chatbots boleh memesongkan kandungan dengan mudah.
Memandangkan pengguna semakin bergantung pada chatbots AI untuk belajar tentang sains, ralat kecil dalam tafsiran boleh terkumpul dan merebak dengan cepat, menyebabkan salah tanggapan yang meluas. Pada masa kepercayaan terhadap sains semakin merosot, risiko ini menjadi lebih membimbangkan dan patut diberi perhatian sewajarnya.
Penyepaduan AI ke dalam penyelidikan dan penyebaran pengetahuan adalah trend yang tidak dapat dipulihkan. Walau bagaimanapun, pakar menegaskan bahawa teknologi tidak boleh menggantikan peranan manusia dalam memahami dan mengesahkan kandungan saintifik. Apabila menggunakan chatbots di kawasan berisiko tinggi seperti perubatan, ketepatan harus menjadi keutamaan, bukannya hanya memfokuskan pada pengalaman bahasa yang lancar atau kelajuan tindak balas.
Sumber: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Komen (0)