아래는 기술 뉴스 사이트 CNET 에서 번역한 Nelson Aguilar 기자의 기사 내용으로 , 사용자가 ChatGPT에 의존해서는 안 되는 주제에 대한 내용입니다.
1. 건강 관련 문제 진단
호기심에 ChatGPT에 증상을 입력하곤 했는데, 가끔 나오는 답변이 악몽 같았습니다. 가능한 진단 목록을 스크롤해 보니 탈수부터 독감, 그리고… 암까지 다양한 결과가 나왔습니다. 예전에 가슴에 혹이 생겨서 ChatGPT에 입력했는데, AI가 제 증상을 암으로 오인했습니다.
하지만 실제로 의사는 제게 지방종이라는 진단을 내렸습니다. 지방종은 양성 종양으로 매우 흔하게 발생합니다(1,000명 중 1명에게 발생).
ChatGPT가 건강 분야에서 유용할 수 있다는 것을 부인하지 않습니다. AI는 다음 진료 예약 시 질문 작성, 어려운 의학 용어 번역, 증상별 타임라인 작성을 도와 더욱 효과적으로 진료를 준비할 수 있도록 도와줍니다. 이를 통해 병원 방문의 스트레스를 줄일 수 있습니다. 하지만 AI는 혈액 검사나 신체 검진을 할 수 없으며, 전문 배상 책임 보험의 적용도 받지 못합니다. AI의 한계를 이해해야 합니다.
2. 정신 건강 관리
ChatGPT는 몇 가지 진정 기법을 제안해 줄 수는 있지만, 실제로 감정적으로 위기에 처했을 때 도움을 줄 수는 없을 것입니다. 저는 ChatGPT를 "대체 요법"으로 사용하는 사람들을 알고 있습니다. CNET 기자 코린 세사릭은 ChatGPT가 슬픔을 다스리는 데 어느 정도 도움이 된다고 밝혔지만, 도구의 한계를 염두에 두어야 합니다.
하지만 현재 치료사와 상담 중인 사람으로서 확실히 말씀드릴 수 있는 것은 ChatGPT는 그저 미약한 모방일 뿐이며, 때로는 정말 위험할 수 있다는 것입니다. ChatGPT는 인생 경험이 없고, 상대방의 바디 랭귀지나 어조를 읽지 못하며, 진정한 공감 능력도 없습니다. ChatGPT는 그저 공감을 흉내 내는 것일 뿐입니다.
전문 치료사는 환자를 보호하기 위해 마련된 법률과 윤리 강령에 따라 운영됩니다. 하지만 ChatGPT는 그렇지 않습니다. ChatGPT의 조언은 편향적일 수 있고, 위험 신호를 놓치거나, 의도치 않게 훈련 데이터의 편향을 강화할 수 있습니다. 심오하고 민감하며 복잡한 문제는 인간에게 맡기세요.
사용자는 건강 문제 및 비상 상황에 대한 ChatGPT의 답변을 전적으로 신뢰해서는 안 됩니다.
3. 비상 상황에서의 결정 내리기
일산화탄소 경보가 울리면 ChatGPT를 열어 위험 여부를 묻지 마세요. 먼저 집을 나서고 나중에 질문하세요. AI 모델은 가스 냄새를 맡거나 연기를 감지할 수 없으며, 소방서에 신고하지도 않습니다.
비상 상황에서는 입력하는 매 순간이 대피하거나 911(미국 국가 비상 전화번호)에 전화하지 않는 순간입니다. ChatGPT는 입력하는 내용을 기반으로만 작동하며, 비상 상황에서는 입력하는 정보가 너무 적거나 너무 늦은 경우가 많습니다. ChatGPT는 "응급 구조대" 서비스가 아닌 사고 후 설명에 사용하세요.
4. 개인 재정 또는 세금 계획
ChatGPT는 ETF가 무엇인지 설명할 수는 있지만, 부채 규모, 세금 등급, 납세자 유형, 은퇴 목표 등은 알 수 없습니다. 또한, 특히 최근 세법 개정이나 금리 조정으로 인해 ChatGPT가 사용하는 데이터가 오래되었을 가능성이 있습니다.
실제 돈, 납세 기한, 그리고 잠재적인 IRS 벌금과 관련된 문제는 AI가 아닌 전문가에게 문의하십시오. 또한, AI에 입력하는 모든 정보는 모델 학습에 저장 및 사용될 수 있습니다.
ChatGPT는 매달 50억 건 이상의 방문을 기록하고 있습니다. (출처: explodingtopics)
5. 기밀 또는 통제 데이터 처리
기술 전문 기자로서 저는 기밀 유지 조항이 포함된 보도자료를 많이 받습니다. 하지만 그 문서들을 ChatGPT에 넣어 요약하거나 해석할 생각은 전혀 하지 못했습니다. 만약 그렇게 했다면, 그 내용은 제가 통제할 수 없게 되어 기밀 유지 계약의 법적 제약을 벗어나 제3자 서버에 저장될 것이기 때문입니다.
고객 계약서, 의료 기록 등에도 동일한 위험이 적용됩니다. 여기에는 세금 보고서, 출생 증명서, 운전면허증, 여권도 포함됩니다. ChatGPT에 민감한 정보를 입력하면 해당 정보가 어디에 저장되고, 누가 볼 수 있으며, 향후 모델 학습에 사용되고 있는지 여부를 확인할 수 없습니다. ChatGPT 또한 해커나 사이버 보안 위협으로부터 자유롭지 않습니다.
6. 불법적인 일을 하다
물론!
7. 학교에서 부정행위
도덕적인 척은 하지 않겠습니다. 고등학교 때 AP 미적분 시험에서 까다로운 수학 공식을 iPod Touch로 몰래 훔쳐 본 적이 있습니다. 하지만 규모 면에서 AI는 부정행위를 완전히 새로운 차원으로 끌어올렸습니다.
Turnitin과 같은 표절 방지 소프트웨어는 AI가 생성한 텍스트를 감지하는 능력이 점점 향상되고 있습니다. 학위 정지, 퇴학, 또는 취소 등의 결과가 초래될 수 있습니다. ChatGPT는 숙제 도우미가 아닌 학습 보조 도구여야 합니다. AI가 모든 작업을 대신하게 한다면 스스로 학습할 기회를 놓치는 것입니다.
8. 최신 뉴스와 정보를 팔로우하세요
OpenAI가 2024년 말에 ChatGPT Search를 출시한 이후(2025년 2월부터 모든 사용자에게 공개), 이 챗봇은 소스 링크가 포함된 새로운 웹사이트, 주가, 환율,스포츠 경기 결과 등을 검색할 수 있게 되었습니다.
하지만 실시간으로 계속 업데이트되지는 않습니다. 새로 고침할 때마다 새로운 명령을 입력해야 합니다. 따라서 즉각적인 정보가 필요할 때는 실시간 뉴스, 공식 뉴스 사이트, 보도자료 또는 앱의 푸시 알림을 우선적으로 확인하세요.
9. 점수 예측
ChatGPT가 정보를 "조작"하고 선수 통계, 부상 보고, 심지어 승패 기록까지 허위로 제공하는 것을 봤습니다. ChatGPT는 내일 경기의 스코어보드를 예측할 수 없습니다.
10. 유언장이나 법적 계약서 초안 작성
ChatGPT는 기본 개념을 설명하는 데는 훌륭합니다. 하지만 법률 문서를 작성하라고 하면 큰 위험을 감수하는 셈입니다. 지역마다 법률이 다르기 때문입니다.
ChatGPT가 변호사에게 질문할 목록을 작성하도록 도와드리고, 실제 변호사가 법적 구속력이 있는 문서를 작성하도록 해드립니다.
11. 예술을 창조하다
이건 순전히 개인적인 의견입니다. 저는 AI가 진짜 예술 작품을 만드는 데 사용되어서는 안 된다고 생각합니다. AI를 반대하는 건 아니고, 여전히 ChatGPT를 사용해서 아이디어를 떠올리거나 제목을 짓습니다. 하지만 ChatGPT는 도움을 주는 도구일 뿐, 대체재가 아닙니다. 원한다면 ChatGPT를 사용하세요. 하지만 AI로 작품을 만들어서 자기 작품이라고 주장하지는 마세요. 그건… 짜증 납니다.
Ngoc Nguyen (출처: CNET)
출처: https://vtcnews.vn/chatgpt-tra-loi-co-cung-nhu-khong-khi-chan-doan-sai-benh-gia-lap-su-dong-cam-ar953726.html
댓글 (0)