ผู้สื่อข่าว VNA ในเมืองออตตาวา รายงานผลการศึกษาวิจัยใหม่ว่าปัญญาประดิษฐ์ (AI) สามารถให้คำแนะนำ ทางการแพทย์ ที่น่าเชื่อถือได้ แต่ผู้เชี่ยวชาญทางการแพทย์กังวลว่าการที่ผู้ป่วยไว้วางใจ AI มากเกินไปอาจทำให้พวกเขาพลาดโอกาสสำคัญในการพูดคุยเกี่ยวกับอาการป่วยของตนกับแพทย์ รวมถึงผลที่ตามมาจากการที่ AI อาจทำให้การวินิจฉัยโรคผิดพลาดได้อีกด้วย
งานวิจัยที่ดำเนินการโดย นักวิทยาศาสตร์ จากมหาวิทยาลัยบริติชโคลัมเบีย (UBC) เปิดเผยผลลัพธ์ที่น่าประหลาดใจว่าโมเดลภาษาขนาดใหญ่ (LLM) เช่น ChatGPT ไม่เพียงให้ข้อมูลเท่านั้น แต่ยังสื่อสารได้น่าเชื่อถือและน่าพอใจมากกว่าคนจริงอีกด้วย
ดร. เวเรด ชวาร์ตซ์ รองศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ มหาวิทยาลัยบริติชโคลัมเบีย กล่าวว่า บางครั้งการสนทนากับ AI ให้ความรู้สึกน่าเชื่อถือและเห็นอกเห็นใจมากกว่าการสนทนากับแพทย์จริง ๆ ปัจจุบันแชทบอท AI มีน้ำเสียงเหมือนมนุษย์และนำเสนอตัวเองด้วยความมั่นใจ ทำให้ผู้คนมีแนวโน้มที่จะถูกโน้มน้าวใจมากขึ้น
จากการศึกษาพบว่ามีผู้ป่วยจำนวนมากขึ้นเรื่อยๆ ที่มาคลินิกโดยมีการตัดสินใจล่วงหน้า โดยมักจะอิงตามการวินิจฉัยหรือแผนการรักษาที่แนะนำโดยเครื่องมือ AI
ดร. แคสแซนดรา สติลเลอร์-มอลโดวาน แพทย์ประจำครอบครัวในเมืองโคลวูด รัฐบริติชโคลัมเบีย ประเทศแคนาดา กล่าวว่าบ่อยครั้งที่คำแนะนำจากแชทบอท AI มักจะถูกต้องแต่ไม่ได้สะท้อนถึงปัญหาทั้งหมด ดังนั้นแพทย์จึงต้องใช้เวลานานในการอธิบายและโน้มน้าวใจคนไข้
ปัญหาจะยิ่งเลวร้ายลงไปอีกจากการศึกษาวิจัยอีกครั้งจากมหาวิทยาลัยวอเตอร์ลู (ในแคนาดาเช่นกัน) ที่พบว่าเมื่อทำการวินิจฉัยปัญหาสุขภาพ แชทบอท AI เช่น ChatGPT เวอร์ชัน 4 ให้ข้อมูลเท็จมากกว่าข้อมูลที่ถูกต้อง
โดยเฉพาะอย่างยิ่ง เมื่อนักวิจัยถามคำถามปลายเปิดชุดหนึ่ง มีเพียง 31% ของคำตอบของ ChatGPT เท่านั้นที่ได้รับการตัดสินว่าถูกต้องสมบูรณ์
สมาคมการแพทย์แห่งแคนาดา (CMA) กล่าวว่าการพึ่งพา AI ที่เพิ่มมากขึ้นนั้นเป็นเรื่องที่เข้าใจได้ เนื่องจากชาวแคนาดาจำนวนมากไม่สามารถเข้าถึงแพทย์ประจำครอบครัวได้ และต้องเผชิญกับการรอคอยนัดหมายเป็นเวลานาน
ในขณะที่รอคอยอย่างใจจดใจจ่อ ผู้คนจำนวนมากหันมาใช้เครื่องมือ AI เพื่อค้นหาคำตอบเป็นทางเลือกอื่น
ที่มา: https://www.vietnamplus.vn/chuyen-gia-khuyen-cao-can-trong-voi-loi-khuyen-y-te-cua-ai-post1069996.vnp










การแสดงความคิดเห็น (0)