하노이 의 한 대학교에 다니는 21세 응우옌 투 흐엉(Nguyen Thu Huong)은 운동, 뷰티 팁, 다이어트 등 모든 것을 온라인에서 검색하는 습관이 있습니다. 최근 흐엉은 상복부에 통증이 자주 느껴지고, 밤에 메스꺼움을 느끼며, 때로는 메스꺼움을 느끼기도 합니다. 병원에 가는 대신, 이 여학생은 ChatGPT 앱을 열어 "AI 의사에게 물어보세요"라고 말합니다.
AI는 증상 설명을 분석하고 "있을 수 있음"을 결론지었습니다. 위염 스트레스로 인한 경미한 증상입니다." 흐엉은 식단을 바꾸고, 일찍 잠자리에 들고, 커피를 자제하고, ChatGPT에서 추천하는 일반 의약품 제산제를 복용하라는 권고를 받았습니다. 그녀는 온라인에서 해당 약을 찾아 2주 동안 정기적으로 복용했습니다.
초기 통증은 가라앉았고, 흐엉은 "AI는 의사 못지않게 훌륭하다"는 자신감을 갖게 되었습니다. 3주차에 그녀는 체액이 섞인 피를 토하기 시작했고, 상복부에 경련이 있었으며, 식은땀이 흘렀습니다. 가족들은 심각한 소화기 출혈 상태로 그녀를 응급실로 데려갔습니다.
위내시경 검사 결과 환자에게 십이지장 궤양 위궤양의 진행, 심한 궤양, 제산제 오용으로 인한 출혈, 그리고 치료되지 않은 주요 원인인 헬리코박터 파일로리 감염 등이 있습니다. 환자가 몇 시간 늦게 병원에 도착하면 출혈성 쇼크에 빠질 수 있습니다.
거의 일주일간의 집중 치료 끝에 흐엉은 마침내 위험에서 벗어났습니다. 병원 침대에 누워 그녀는 이렇게 말했습니다. " AI가 똑똑하고 진짜 의사처럼 설득력 있게 말할 거라고 생각했어요. 그래서 믿었죠. 이제 AI가 실제 진단을 대체할 수 없다는 걸 알게 됐어요."

호찌민시에 사는 27세 프로그래머 레 황 롱은 새벽 2~3시까지 일하는 경우가 많습니다. 몇 달간 불면증에 시달린 그는 스트레스와 피로감을 느꼈고, 심박수도 빨라졌습니다. "병으로 낙인찍힐까 봐" 정신과 의사를 만나고 싶지 않았던 롱은 ChatGPT에 자신의 마음을 털어놓으며 이 문제를 극복할 방법을 제안해 달라고 부탁했습니다.
AI는 그에게 약초차 마시기, 멜라토닌 보충제 복용, 잠자리에 들기 전 명상, 그리고 "필요하다면 중국산 진정제 복용" 등 "자연적인 방법"을 시도해 보라고 조언했습니다. 롱은 이 지시를 따랐고, AI가 원산지를 확인할 수 없는 "수입 약초 수면제" 제품도 주문했습니다.
2주 후, 롱은 잠은 좀 더 잘 잤지만 황달, 식욕 부진, 피로감이 나타나기 시작했습니다. "신체 정화" 때문이라고 생각하며 계속 술을 마셨습니다. 소변 색이 짙어지고 피부가 짙은 누렇게 변한 후에야 병원에 가서 검진을 받았습니다.
검사 결과 간 효소 수치가 정상보다 10배 이상 증가한 것으로 나타났다고 의사는 진단했다. 간염 알려지지 않은 약효 성분의 독성으로 인해 롱은 정맥 수액 투여, 해독제 투여, 그리고 지속적인 간 기능 검사를 위해 입원해야 했습니다.
사건 이후 롱은 다음과 같이 시인했습니다. "AI는 제가 지식을 배우는 데 도움을 주지만, 제가 누구인지, 제 병이 얼마나 심각한지 전혀 모릅니다. 저는 기술에 대한 맹목적인 믿음 때문에 건강을 희생했습니다."
탄년 병원 산부인과 팜 응옥 하(Pham Ngoc Ha) 박사에 따르면, 우려되는 것은 인공지능(AI)이 아니라 사람들이 인공지능을 인식하고 사용하는 방식입니다. AI는 본질적으로 다양한 출처에서 정보를 종합, 정리, 해석하는 데 도움을 주는 강력한 도구일 뿐이며, 이를 통해 문제를 더 빠르고 심도 있게 이해할 수 있도록 도와줍니다.
하지만 AI는 관찰할 눈도 없고, 상처를 만질 손도 없으며, 환자의 시선이나 목소리의 이상을 인식할 임상 경험도 없습니다.
의학에서 진단은 다층적인 과정입니다. 의사는 환자의 증상을 경청하고, 증상을 관찰하고, 보고, 만지고, 두드리고, 듣고, 검사 결과, 영상, 병력을 비교하는 것으로 시작합니다. 모든 치료 결정은 오랜 시간 동안 축적된 과학적 데이터와 경험의 조합입니다. 어떤 알고리즘도 이를 완벽하게 시뮬레이션할 수 없습니다.
간단히 말해서, AI는 날카로운 칼과 같습니다. 요리사의 손에 들어가면 섬세한 요리를 만드는 데 유용한 도구가 되지만, 아이에게 주면 손을 베일 위험이 불가피합니다. 문제는 칼이 아니라 사용자입니다.
따라서 AI 자체가 틀린 것은 아닙니다. 오히려 사람들이 AI의 능력에 너무 많은 것을 기대하는 것이 오류입니다. 인공지능은 의사가 아니며, 인간의 관찰, 진단, 판단을 대체할 수 없습니다. 의학적 관점에서 볼 때, AI는 사용자가 검색하고 참고할 수 있는 거대한 사전 정도로만 여겨져야 하며, 인간의 건강과 생명에 관해서는 절대적인 신뢰를 두어서는 안 됩니다.

1호치민시 어린이병원 감염내과 및 신경과 전임 과장인 쯔엉 후 칸 박사는 의학 분야에서 AI가 임상 및 인간의 역할을 대체할 수 없다고 말했습니다. AI는 다양한 분야를 지원할 수 있지만, 의료 분야에서 의사의 경험, 감성, 그리고 마음은 기계가 모방할 수 없습니다.
각 환자는 온라인에 설명된 몇 가지 증상만으로 진단하는 것이 아니라 직접적이고 종합적인 진찰을 받아야 합니다. 의사는 환자의 병력을 관찰하고, 촉진하고, 두드리고, 듣고, 주의 깊게 질문하고, 전반적인 상태를 평가하여 정확한 결론을 내려야 합니다.
칸 박사는 AI 또는 "인터넷 의사"가 정보의 원천으로 간주되어 사람들이 건강과 질병 예방에 대해 더 잘 이해하도록 도울 수 있다고 생각합니다. 하지만 AI가 실제 의사를 대체할 수는 없습니다.
AI는 일반적인 정보만 제공할 뿐, 개인의 내부 장기 손상, 병력, 약물 반응 등을 평가할 수는 없습니다. "챗봇 추천"에 기반한 자가 진단 및 치료는 특히 만성 질환의 경우 많은 위험을 초래합니다.
ChatGPT는 건강 교육 에 대한 새로운 접근 방식을 제시하지만, 의학에는 여전히 인간의 통찰력과 임상 경험이 필요하기 때문에 의사 결정권자가 아닌 정보 지원자로 간주되어야 합니다.
출처: https://baolangson.vn/tin-chatgpt-chua-benh-nhieu-nguoi-tre-dang-danh-cuoc-suc-khoe-5063604.html






댓글 (0)