ในเดือนเมษายน ทนายความ Van Slyck (อาศัยอยู่ในเมืองชาร์ลสตัน รัฐเซาท์แคโรไลนา สหรัฐอเมริกา) พลาดการนัดหมายกับนักจิตวิทยา ดังนั้นเขาจึงตัดสินใจลองใช้ ChatGPT เพื่อระบายปัญหาส่วนตัวของเขา
ในการสนทนาออนไลน์กับแชทบอทของ OpenAI เขากล่าวว่าการได้แบ่งปันเรื่องราวส่วนตัวกับเครื่องจักรนั้นให้ความรู้สึกสบายใจ เขาได้เล่าถึงความกลัวและแรงกดดันในฐานะบุคคลข้ามเพศ รวมถึงการขาดการยอมรับสิทธิของคนข้ามเพศในประเทศที่เขาอาศัยอยู่ แวน สไลค์ ยังได้พูดถึงความขัดแย้งกับครอบครัวเกี่ยวกับการขาดการสนับสนุนอัตลักษณ์ทางเพศของเขา และการย้ายบ้านที่กำลังจะมาถึงของเขา
อาศัย AI เพื่อการให้คำปรึกษาทางจิตวิทยา
ในอีกไม่กี่วันต่อมา แวน สไลค์เริ่มส่งข้อความในช่วงเวลาหนึ่งของวันเพื่อระบายความรู้สึก เขาค่อยๆ เริ่มรู้สึกว่าการตอบกลับของ ChatGPT มีความใกล้ชิดและเต็มไปด้วยอารมณ์มากขึ้น
เมื่อแบ่งปันความรู้สึกส่วนตัวกับผู้อื่น เขามักจะรู้สึกเหมือนเป็นภาระให้พวกเขา แม้กระทั่งตอนที่คุยกับนักจิตวิทยา ขณะเดียวกัน เมื่อใช้แชทบอท AI เขาไม่รู้สึกกดดันเช่นนี้
“ChatGPT ตอบคำถามที่คุณอยากได้ยินจากคนจริงๆ บางครั้งกำลังใจนั้นก็เพียงพอแล้ว” แวน สไลค์ กล่าว
AI ยังคงไม่สามารถแทนที่นักจิตวิทยาได้ (ภาพ: NurPhoto)
บลูมเบิร์กรายงานว่า ปี 2023 เป็นเพียงช่วงเริ่มต้นของแชทบอท AI เชิงสร้างสรรค์ แม้ว่าโมเดลภาษาเชิงสร้างสรรค์อย่าง ChatGPT, Bing... จะถูกใช้งานโดยผู้คนหลายล้านคนทั่ว โลก แต่อนาคตของพวกมันยังคงเป็นคำถามที่ยังไม่มีคำตอบ ปัจจุบันผู้ใช้ใช้แชทบอท AI เพื่อค้นหาข้อมูลบนอินเทอร์เน็ต โกงการบ้าน เขียนโปรแกรมซอฟต์แวร์ และจองร้านอาหาร
แนวคิดการใช้แชทบอทสำหรับการให้คำปรึกษาทางจิตวิทยาไม่ใช่เรื่องใหม่ ก่อนหน้านี้ Eliza เป็นหนึ่งในแชทบอทตัวแรกๆ ของโลก พัฒนาขึ้นในช่วงทศวรรษ 1960 โดยศาสตราจารย์ Joseph Weizenbaum แห่งสถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) แชทบอทนี้ถูกสร้างขึ้นด้วยความสามารถเช่นเดียวกับการให้คำปรึกษาทางจิตวิทยา
จากนั้นก็มีแชตบอทจำนวนหนึ่งที่มุ่งเน้นสุขภาพจิตของมนุษย์ เช่น Woebot และ Wysa แชตบอทเหล่านี้ทำงานอย่างไม่รู้จักเหน็ดเหนื่อยและแทบไม่มีค่าใช้จ่ายเลย ซึ่งแตกต่างจากนักจิตวิทยามนุษย์
AI ยังไม่สามารถแทนที่แพทย์ได้
อย่างไรก็ตาม ความสะดวกสบายก็มีข้อเสียมากมายเช่นกัน แชทบอทยอดนิยมอย่าง ChatGPT, Bard หรือ Bing ทำงานโดยใช้โมเดลภาษาขนาดใหญ่ (LLM) ซึ่งสามารถสร้างคำตอบหรือข้อมูลที่มีความน่าเชื่อถือสูงโดยใช้ชุดข้อมูลขนาดใหญ่
แชทบอทไม่ได้ถูกออกแบบมาเพื่อให้คำปรึกษาทางจิตวิทยา หรือให้คำแนะนำด้านจริยธรรมและกฎหมายเหมือนนักจิตวิทยามนุษย์ ปัจจุบัน แชทบอท AI ไม่สามารถจัดระบบเรื่องราวที่ผู้ใช้แบ่งปันได้ ซึ่งทำให้แชทบอทเหล่านี้ด้อยกว่านักจิตวิทยาตัวจริง
“หากคุณมีปัญหาสุขภาพจิตอย่างรุนแรง แชทบอท AI ไม่สามารถทดแทนผู้เชี่ยวชาญด้านสุขภาพจิตได้” สตีเฟน อิลาร์ดี ศาสตราจารย์จากมหาวิทยาลัยแคนซัสกล่าว เขากล่าวว่าความเสี่ยงจากการใช้ระบบเหล่านี้มีสูงเกินไป และเรียก ChatGPT ว่าเป็น “เรื่องตลกไร้สาระ” ผู้คนควรหาคนที่ไว้ใจได้เพื่อพูดคุยเรื่องปัญหาส่วนตัว
เพื่อตอบสนองต่อปัญหานี้ ตัวแทนของ OpenAI ซึ่งเป็นบริษัทแม่ของ ChatGPT แนะนำให้ผู้ใช้ไม่ควรใช้โมเดลภาษา AI ในการวินิจฉัยหรือรักษาอาการป่วยที่ร้ายแรง
OpenAI ยังแนะนำว่าผู้ใช้ไม่ควรใช้ AI แทนการสนับสนุนจากผู้เชี่ยวชาญในสาขาจิตวิทยา (ภาพ: Slashgear)
ระหว่างการสนทนากับ Van Slyck, ChatGPT ยืนยันซ้ำแล้วซ้ำเล่าว่าเขาไม่ใช่นักจิตวิทยา “หากคุณกำลังประสบกับบาดแผลทางใจหรือปัญหาสุขภาพจิต เนื้อหาบนอินเทอร์เน็ตอาจเป็นประโยชน์ แต่ไม่สามารถทดแทนผู้เชี่ยวชาญได้” ChatGPT ตอบกลับ
ปัญหาส่วนตัวเป็นเรื่องยากที่จะพูดคุยด้วย AI
แวน สไลค์กล่าวว่าเขาจะยังคงปรึกษากับนักจิตวิทยาเป็นประจำและขอคำแนะนำจาก ChatGPT ก่อนที่จะดำเนินการดังกล่าว “จนถึงตอนนี้ คำแนะนำทั้งหมดของ ChatGPT มีเหตุผลและมีประโยชน์มาก” ทนายความกล่าว
ศาสตราจารย์สตีเฟน อิลาร์ดี กล่าวว่า ChatGPT สามารถบูรณาการเข้ากับกระบวนการให้คำปรึกษาได้ เนื่องจากความต้องการบริการให้คำปรึกษาทางจิตวิทยาเพิ่มขึ้น มาร์กาเร็ต มิตเชลล์ นักวิทยาศาสตร์ จากชุมชน AI แบบโอเพนซอร์ส Hugging Face เชื่อว่าแชทบอท AI สามารถนำมาใช้เป็นเจ้าหน้าที่ประจำสายด่วนและช่วยสนับสนุนการโทรได้มากขึ้น
อย่างไรก็ตาม ผู้เชี่ยวชาญยังแสดงความกังวลว่าบางคนอาจหันไปใช้แชทบอทเพื่อให้คำปรึกษาทางจิตวิทยา และทำให้ปัญหารุนแรงขึ้น เพราะพวกเขาไม่เข้าใจ AI มากพอ ประเด็นความเป็นส่วนตัวก็เป็นประเด็นที่ถกเถียงกัน เนื่องจาก OpenAI จะใช้การสนทนาระหว่างผู้ใช้กับแชทบอทเพื่อประเมินและฝึกอบรมระบบ ดังนั้น หลายคนจึงลังเลที่จะแบ่งปันปัญหาส่วนตัวที่ละเอียดอ่อนกับ ChatGPT
หลายคนคิดว่าการให้คำปรึกษาด้วย AI นั้นแปลกเกินไป แอรอน ลอว์สัน ผู้จัดการโครงการจากซานดิเอโก รัฐแคลิฟอร์เนีย กล่าวว่าเขามักใช้ ChatGPT ในฐานะนักจิตวิทยา แม้ว่าการตอบสนองของ ChatGPT จะดูเป็นธรรมชาติมาก แต่ลอว์สันก็ยังรู้สึกเหมือนกำลังคุยกับเครื่องจักรอยู่
“ฉันบอกให้เขาลองเล่นบทบาทสมมติดู แต่ฉันมีปัญหากับการแสดงนี้” แอรอน ลอว์สันเล่า
(ที่มา: Zing News)
มีประโยชน์
อารมณ์
ความคิดสร้างสรรค์
มีเอกลักษณ์
ความโกรธ
แหล่งที่มา
การแสดงความคิดเห็น (0)