Sekelompok peneliti di Jerman baru-baru ini memperingatkan tentang risiko bias ketika menggunakan chatbot AI untuk mempersingkat konten penelitian. Setelah menganalisis 4.900 abstrak ilmiah yang ditulis oleh manusia, tim tersebut menggunakan beberapa model AI untuk membandingkan bagaimana sistem ini memproses informasi. Hasilnya menunjukkan bahwa sebagian besar chatbot melakukan kesalahan dengan menggeneralisasi secara berlebihan, bahkan ketika diminta untuk meringkas secara akurat.
AI rentan terhadap bias saat meringkas penelitian ilmiah.
Dalam pengujian, model AI membuat kesalahan lima kali lebih banyak daripada pakar manusia ketika tidak dipandu. Bahkan ketika akurasinya diminta secara eksplisit, tingkat kesalahannya dua kali lebih tinggi daripada ringkasan standar. "Generalisasi terkadang tampak tidak berbahaya, tetapi sebenarnya mengubah sifat penelitian awal," kata salah satu anggota tim. "Ini bias sistematis."
Patut dicatat, versi chatbot yang lebih baru tidak hanya gagal memperbaiki masalah, tetapi justru memperburuknya. Dengan bahasanya yang halus dan menarik, ringkasan yang dihasilkan AI dapat dengan mudah tampak kredibel, sementara konten sebenarnya telah terdistorsi. Dalam satu kasus, DeepSeek mengubah frasa "aman dan dapat dilakukan dengan sukses" menjadi "pengobatan yang aman dan efektif" – sebuah interpretasi yang salah dari kesimpulan studi aslinya.
Dalam contoh lain, model Llama merekomendasikan pengobatan diabetes untuk remaja tanpa menyebutkan dosis, frekuensi, atau efek sampingnya. Jika pembaca adalah dokter atau tenaga kesehatan profesional yang tidak memverifikasi penelitian asli, ringkasan seperti ini dapat menimbulkan risiko langsung bagi pasien.
Para ahli mengatakan fenomena ini berakar pada cara model AI dilatih. Banyak chatbot saat ini dilatih dengan data sekunder—seperti berita sains populer—yang telah disederhanakan. Seiring AI terus meringkas konten yang dipersingkat, risiko distorsi meningkat.
Para ahli AI di bidang kesehatan mental mengatakan bahwa hambatan teknis perlu dibangun sejak awal pengembangan dan penggunaan AI.
Pengguna perlu waspada karena chatbot dapat dengan mudah mendistorsi konten.
Seiring pengguna semakin mengandalkan chatbot AI untuk mempelajari sains, kesalahan kecil dalam interpretasi dapat dengan cepat terakumulasi dan menyebar, menyebabkan mispersepsi yang meluas. Di saat kepercayaan terhadap sains menurun, risiko ini menjadi semakin mengkhawatirkan dan perlu mendapat perhatian.
Integrasi AI ke dalam penelitian dan penyebaran pengetahuan merupakan tren yang tak terelakkan. Namun, para ahli menegaskan bahwa teknologi tidak dapat menggantikan peran manusia dalam memahami dan memverifikasi konten ilmiah. Saat menggunakan chatbot di bidang berisiko tinggi seperti kedokteran, akurasi harus menjadi prioritas utama, alih-alih hanya berfokus pada kelancaran berbahasa atau kecepatan respons.
Sumber: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Komentar (0)