OpenAIが2022年11月にChatGPTを発表して以来、人工知能(AI)はテクノロジー業界における最大の議論のトピックとなっています。その後すぐに、Google、Meta、Microsoftなどの企業も独自のAIへの取り組みに多額の投資を行いました。
大手テック企業はAIへの野望を公言してきたものの、最近ではAIが自社の事業にもたらすリスクについて静かに言及するようになっている。Googleの親会社であるAlphabetは、2023年度年次報告書の中で、AI製品とサービスは倫理的、技術的、法的、規制的、その他様々な課題を突きつけており、Googleのブランドと需要に悪影響を及ぼす可能性があると述べている。

ブルームバーグによると、Meta、Microsoft、Oracleも米国証券取引委員会(SEC)への提出書類の中で、AIに関する懸念を「リスク要因」のセクションでしばしば言及している。例えばMicrosoftは、生成AI機能は予期せぬセキュリティ脅威にさらされる可能性があると述べている。
Facebookの親会社はMetaの2023年度年次報告書で、「AIの開発と導入には重大なリスクが伴う」こと、そして「AIの活用によってサービス、製品、またはビジネスが向上するという保証はない」ことを強調しました。Metaは、ユーザーに損害を与え、訴訟のリスクを高める可能性のあるAIのシナリオとして、偽情報(選挙など)、有害コンテンツ、知的財産権侵害、データプライバシーなどを列挙しました。
一方、一般の人々からは、AIによって一部の職業が廃止されたり消滅したりすることや、個人データで訓練された大規模言語モデルによって誤った情報が拡散されることへの懸念も表明された。
6月4日、OpenAIの元従業員と現従業員からなるグループが「意向書」を送付し、テクノロジー企業に対し、AIのリスク軽減に向けた取り組みを強化するよう要請しました。彼らは、AIによって不平等、情報操作、誤情報が増大し、制御不能な自動化AIシステムが人類の生存を脅かすことを懸念しています。
ソース
コメント (0)