OpenAIが2022年11月にChatGPTを発表して以来、人工知能(AI)はテクノロジー業界における最大の議論のトピックとなっています。その後すぐに、Google、Meta、Microsoftなどの企業も独自のAIへの取り組みに多額の投資を行いました。
大手テック企業はAIへの野心を隠そうとはしていないが、最近ではAIが自社の事業にもたらすリスクに静かに対処し始めている。Googleの親会社であるAlphabetは、2023年度年次報告書の中で、AI製品とサービスは倫理的、技術的、法的、規制的、その他様々な課題をもたらし、同社のブランドと需要に悪影響を及ぼす可能性があると述べている。

ブルームバーグによると、Meta、Microsoft、Oracleも米国証券取引委員会(SEC)への提出書類において、AIに関する懸念を「リスク要因」のセクションでしばしば言及している。例えばMicrosoftは、生成型AI機能は予期せぬセキュリティ脅威にさらされる可能性があると述べている。
Metaの2023年度年次報告書では、Facebookの親会社は「AIの開発と展開には重大なリスクが伴う」こと、そして「AIの活用によってサービス、製品、または事業運営が改善されるという保証はない」ことを強調した。Metaは、ユーザーに損害を与え、訴訟に巻き込む可能性のあるAIシナリオとして、誤報(選挙など)、有害コンテンツ、知的財産権侵害、データプライバシーなどを挙げた。
一方、一般の人々の間では、AIによって一部の仕事が時代遅れになったり消滅したりすることや、個人データでトレーニングされた大規模な言語モデルが誤った情報を拡散することなどに対する懸念も表明されている。
6月4日、OpenAIの元従業員と現従業員からなるグループが「意向書」を送付し、テクノロジー企業に対し、AIのリスクを最小限に抑えるための更なる取り組みを求める要請を行いました。彼らは、AIが不平等、情報操作、誤情報を増大させ、制御不能な自動化AIシステムが人類の生存を脅かすことを懸念しています。
ソース
コメント (0)