VinFuture 2025 科学技術週間の枠組み内で開催されるパネルディスカッション「人類のための AI: 新時代の AI 倫理と安全性」では、科学者、 政治家、発明家が一堂に会し、人道的価値観に向けた責任ある AI 開発について議論します。
ディスカッションの傍らで、アメリカ計算機学会会員でニューサウスウェールズ大学(オーストラリア)のトビー・ウォルシュ教授が、AIの倫理的かつ責任ある使用について語りました。
AIの責任ある使用は義務化されるべき
- 教授によると、AIの責任ある利用は自主的なものでしょうか、それとも義務的なものでしょうか?そして、私たちはAIに対して実際にどのように振る舞うべきでしょうか?
トビー・ウォルシュ教授: AIの責任ある利用は義務化されるべきだと強く信じています。現在、AIで巨額の利益が生み出されているという歪んだインセンティブが存在しており、善良な行動を確保する唯一の方法は、公共の利益と商業的利益のバランスが常に取れるよう、厳格な規制を整備することです。
- 責任ある倫理的な AI アプリケーションのさまざまな国における具体的な例を挙げていただけますか?
トビー・ウォルシュ教授:典型的な例は、米国における量刑や判決などの重大な決定です。これらの決定では、AI システムが、ある人物の刑期や再犯の可能性についての推奨を行うために使用されています。
残念ながら、このシステムは過去のデータに基づいて訓練されており、意図せずして過去の人種的偏見を反映し、黒人差別につながっています。このようなシステムに、誰が投獄されるかを決めさせてはなりません。
AIがミスを犯した場合、誰が責任を負うのでしょうか?特にAIエージェントの場合、その動作メカニズムを修正する能力は私たちにはあるのでしょうか?
トビー・ウォルシュ教授: AIがミスを犯した場合の根本的な問題は、AIに責任を負わせることができないことです。AIは人間ではなく、これは世界中のあらゆる法制度の欠陥です。AIの判断と行動に責任を負うのは人間だけです。
突然、AIと呼ばれる新しい「エージェント」が登場しました。AIは、私たちが許可すれば、私たちの世界で意思決定を行い、行動を起こすことができますが、これは誰に責任を負わせるのかという課題を提起します。
答えは、AI システムを導入および運用する企業に、これらの「マシン」が引き起こす結果に対する責任を負わせることです。

ニューサウスウェールズ大学のトビー・ウォルシュ教授は、VinFuture 2025 科学技術週間の一環として開催されたセミナー「人類のためのAI:新時代のAI倫理と安全性」で講演を行いました。(写真:ミン・ソン/Vietnam+)
- 多くの企業が責任あるAIについて語っています。どうすれば信頼できるのでしょうか?彼らが真剣に、そして包括的に取り組んでいるのか、それとも「責任あるAI」を単なるマーケティングの策略に利用しているだけなのか、どうすればわかるのでしょうか?
トビー・ウォルシュ教授:透明性を高める必要があります。AIシステムの能力と限界を理解することが重要です。また、「行動による投票」、つまり責任あるサービス利用を選択することも重要です。
企業がAIを責任を持って活用するかどうかが、市場における差別化要因となり、商業的優位性を獲得すると信じています。顧客データを尊重すれば、企業は利益を得て、顧客を引きつけることができるでしょう。
企業は、正しいことを行うことが倫理的であるだけでなく、成功にもつながることに気づくでしょう。私はこれを企業間の差別化の手段と考えています。責任ある企業こそが、私たちが安心して取引できる企業なのです。
「注意しなければ、デジタル植民地化の時代を迎えることになるかもしれない」
― ベトナムは、人工知能法の制定を検討している数少ない国の一つです。これについて、どのように評価されますか?ベトナムのような発展途上国にとって、AI開発における倫理とセキュリティに関する課題は何でしょうか?ベトナムがAI戦略の目標を達成し、AI研究と技術習得において地域および世界のトップに立つために、教授はどのような提言をお持ちでしょうか?
トビー・ウォルシュ教授:ベトナムが人工知能に関する法律を制定する先駆的な国の一つとなることを大変嬉しく思います。各国には独自の価値観と文化があり、それらを守るための法律が必要であるため、これは重要なことです。
ベトナムの価値観や文化は、オーストラリア、中国、アメリカとは異なります。中国やアメリカのテクノロジー企業がベトナムの文化や言語を自動的に保護してくれるとは期待できません。ベトナムはこれらの保護に積極的に取り組む必要があります。

トビー・ウォルシュ教授は、注意を怠ればデジタル植民地化の時代を迎えることになるかもしれないと警告している。(写真:ミン・ソン/ベトナム+)
過去、多くの発展途上国が物理的な植民地化の時代を経験したことを私は心に留めています。注意を怠れば、「デジタル植民地化」の時代を迎える可能性があります。あなたのデータは搾取され、あなたは安価な資源と化してしまうでしょう。
発展途上国が自国の利益を管理・保護することなく、データのみを搾取する形で AI 産業を発展させると、これは危険にさらされます。
- それで、教授、この状況をどう克服すればいいのでしょうか?
トビー・ウォルシュ教授:シンプルです。人材に投資することです。人材のスキルアップを図り、AIを理解できるようにしましょう。AI起業家や企業、大学を支援しましょう。そして、積極的に行動しましょう。他国からの技術移転や指導を待つのではなく、自ら積極的に行動し、自ら技術を保有する必要があります。
さらに重要なのは、ベトナムの民主主義に影響を与えずに、ソーシャル メディア プラットフォームがベトナムのユーザーにとって安全な環境を作り出すよう強く主張する必要があることです。
実際、ソーシャル メディアのコンテンツが選挙結果に影響を与えたり、国を分裂させたり、さらにはテロを誘発したりした例は数多くあります。
- ベトナムではAIが非常に発展しています。近年、ベトナムはAI推進のための政策を数多く打ち出していますが、AIによる不正行為という問題にも直面しています。教授は、ベトナムはこの状況にどのように対処すべきだとお考えですか?
トビー・ウォルシュ教授:個人にとって最も簡単な方法は、情報を確認することだと思います。例えば、銀行などから電話やメールを受け取った場合、再度確認する必要があります。その電話番号に折り返し電話をかけたり、銀行に直接連絡して情報を確認したりすることができます。最近では、偽のメールや偽の電話番号、さらにはZoomの通話さえも偽造されることが多くなっています。こうした詐欺は非常に単純で、費用もかからず、時間もかかりません。
私の家族には、独自のセキュリティ対策があります。それは、ペットのウサギの名前など、家族だけが知っている「秘密の質問」です。これにより、重要な情報が家族内でのみ共有され、外部に漏れることがないようにしています。
- どうもありがとうございます。/。
トビー・ウォルシュ教授は、ニューサウスウェールズ大学シドニー校(UNSW)の人工知能(AI)研究科教授であり、ARC名誉研究員です。彼は、AIが人々の生活を向上させるために活用されるよう、制限を設けることを強く主張しています。
彼はオーストラリア科学アカデミーの会員でもあり、「AIにおける影響力のある人々」の国際リストに名を連ねています。
(ベトナム+)
出典: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp










コメント (0)