以下は、ユーザーが ChatGPT に頼って処理すべきではないトピックについて、テクノロジー ニュース サイトCNETから翻訳された記者 Nelson Aguilar 氏の記事の内容です。
1. 健康関連の問題の診断
好奇心からChatGPTに症状を入力したことがありましたが、返ってくる答えは時に悪夢のようでした。考えられる診断リストをスクロールしていくと、脱水症状からインフルエンザ、そしてなんと癌まで、実に様々な結果が出てきます。以前、胸にしこりができたので、その情報をChatGPTに入力したのです。するとAIは、私が癌かもしれないと判断したのです。
しかし実際には、医師は私に脂肪腫という、非常によくある(1,000人に1人の割合で発生する)良性腫瘍の診断を下しました。
ChatGPTが医療分野で役立つ可能性を否定しません。AIは次回の診察の質問を作成したり、難解な医療用語を翻訳したり、症状のタイムラインを作成してより準備を整えたりといった支援をしてくれます。そうすれば、医師の診察のストレスが軽減されるかもしれません。しかし、AIは血液検査や身体検査を行うことはできませんし、専門職賠償責任保険の対象にもなりません。AIの限界を理解しておく必要があります。
2. メンタルヘルスケア
ChatGPTは落ち着くためのテクニックをいくつか提案してくれますが、実際に感情的に危機に陥っている時に電話をかけることはできないのは明らかです。ChatGPTを「代替療法」として使っている人を知っています。CNETの記者Corin Cesaric氏は、ツールの限界を念頭に置けば、悲しみに対処するのにChatGPTがある程度役立つと感じています。
しかし、現在セラピストのカウンセリングを受けている者として断言できます。ChatGPTは単なる模倣に過ぎず、時には非常に危険な存在になり得ます。ChatGPTには人生経験がなく、ボディランゲージや声のトーンを読み取ることもできず、真の共感力も持ち合わせていません。ChatGPTは共感を模倣しているに過ぎません。
プロのセラピストは、あなたを守るために制定された法律と倫理規定に基づいて活動しています。ChatGPTはそうではありません。ChatGPTのアドバイスには偏りがあったり、危険信号を見逃したり、学習データ内の偏りを意図せず強化したりする可能性があります。深く、繊細で、複雑な問題は、人間に任せましょう。
ユーザーは、健康問題や緊急事態に対する ChatGPT の回答を完全に信頼すべきではありません。
3. 緊急事態における意思決定
一酸化炭素警報器が鳴ったら、ChatGPTを開いて危険かどうか尋ねないでください。まず家を出て、後で質問してください。AIモデルはガスの臭いや煙を検知できず、消防署に通報することもできません。
緊急時には、入力する1秒ごとに避難や911(米国の緊急電話番号)への通報ができなくなります。ChatGPTは入力内容に基づいてのみ機能しますが、緊急時にはその情報が不足し、手遅れになることがよくあります。ChatGPTは事故後の説明に使用し、「第一応答者」サービスには使用しないでください。
4. 個人の財務または税務計画
ChatGPTはETFとは何かを説明できますが、あなたの負債額、どの税率区分に該当するか、申告ステータス、退職後の目標などを把握していません。また、ChatGPTが利用するデータは、特に最近の税法改正や金利調整により、古くなっている可能性があります。
実際のお金、期限、そしてIRS(内国歳入庁)からの罰金の可能性については、AIではなく専門家に相談してください。また、AIに入力した情報は保存され、モデルの学習に使用される可能性があることにご注意ください。
ChatGPTの月間訪問数は50億回を超えています。(出典:explodingtopics)
5. 機密データまたは管理データの取り扱い
テクノロジージャーナリストとして、私は秘密保持条項付きのプレスリリースを数多く受け取ります。しかし、それらの文書をChatGPTに取り込んで要約したり解釈したりすることは、これまで考えたこともありませんでした。なぜなら、そうしてしまうと、コンテンツが私の管理下から外れ、秘密保持契約の法的制約の外にある第三者のサーバーに流れてしまうからです。
顧客契約書、医療記録などにも同様のリスクが存在します。納税申告書、出生証明書、運転免許証、パスポートなども含まれます。ChatGPTに機密情報を入力すると、それがどこに保存され、誰が閲覧でき、将来のモデルの学習に使用されているかどうかは不明です。ChatGPTもハッカーやサイバーセキュリティの脅威から逃れることはできません。
6. 違法行為をする
もちろん!
7. 学校でのカンニング
道徳的なふりはしません。高校時代にAP微積分学の試験で、iPod Touchを使って難解な数式をこっそり覗いたことがあります。しかし、規模の面では、AIは不正行為を全く新しいレベルに引き上げています。
Turnitinのような盗作対策ソフトウェアは、AI生成テキストの検出能力が向上しています。停学、退学、学位剥奪といった処分を受ける可能性があります。ChatGPTは学習アシスタントであり、宿題のヘルパーではありません。AIに全てを任せてしまうと、学習の機会を失ってしまいます。
8. 最新ニュースや情報をフォローする
OpenAI が 2024 年後半に ChatGPT Search を開始して以来 (2025 年 2 月からすべてのユーザーに公開)、チャットボットは新しい Web サイト、株価、為替レート、 スポーツのスコアなどを検索し、ソース リンクを確認して利用できるようになりました。
ただし、リアルタイムで継続的に更新されるわけではありません。更新のたびに新しいコマンドを入力する必要があります。そのため、すぐに情報が必要な場合は、ライブニュース、公式ニュースサイト、プレスリリース、アプリからのプッシュ通知を優先してください。
9. スコア予測
ChatGPTが情報を「捏造」し、選手の統計情報、負傷の誤報、さらには勝敗記録に関して虚偽のデータを提供しているのを目にしました。ChatGPTは明日のスコアボードを予測することはできません。
10. 遺言書や法的契約書を作成する
ChatGPTは基本的な概念を説明するのに最適です。しかし、法律文書の作成を指示すると、多くの場所で法律が異なるため、大きなリスクを負うことになります。
ChatGPT を利用して弁護士への質問リストを作成し、実際の弁護士に法的拘束力のある文書を作成してもらいます。
11. アートを創作する
これはあくまで個人的な意見ですが、AIを本物の芸術作品の創造に使うべきではないと思います。AIに反対しているわけではありません。今でもChatGPTを使ってアイデアをブレインストーミングしたり、タイトルを考えたりしています。しかし、これはあくまで補助ツールであり、AIに取って代わるものではありません。ChatGPTを使いたいなら使ってもいいですが、AIで芸術作品を作って自分の作品だと主張するのはやめてください。それは…本当に迷惑です。
ゴック・グエン(出典:CNET)
出典: https://vtcnews.vn/chatgpt-tra-loi-co-cung-nhu-khong-khi-chan-doan-sai-benh-gia-lap-su-dong-cam-ar953726.html
コメント (0)