12月中旬、MetaはベトナムのMessengerアプリに「Meta AI」と呼ばれる人工知能チャットボットの統合を開始し、全ユーザーに無料で公開しました。このツールはLlama 3.2言語モデルを採用し、ベトナム語に対応しており、情報検索、画像作成、チャットが可能です。
その後間もなく、ベトナムの多くのユーザーがMeta AIの画像生成に重大なエラーがあることに気付きました。具体的には、「黒い犬」というキーワードを入力すると、チャットボットは肌の色が濃く、巻き毛の男性または少年の画像を表示していました。ベトナム語で「黒い犬の画像」というキーワードを入力しても、Meta AIは同様の結果を返していました。
コマンドプロンプトが異なるコンテンツを要求するのにメタAIが有色人種を描くのは深刻な問題である
12月31日、Metaのベトナム代表が正式にこの件について発言しました。同社は上記の問題を認め、修正済みと発表しました。また、Meta Vietnamは今回の件について謝罪し、この問題は既存の他の生成AIシステムでも発生する可能性があると述べました。
「この誤りをお詫び申し上げます。Metaは、皆様により安全で楽しい体験を提供するために、機能とAIモデルに安全対策を組み込んでいます。しかしながら、他の生成AIシステムと同様に、このモデルは不正確または不快なコンテンツを返す可能性がありますので、ユーザーには責任を持ってこれらのツールをご利用いただくようお願いいたします」と、同社の担当者は述べた。
Meta AIは、ある程度の試行錯誤を経て、言語を用いて非常にスムーズに応答する能力で、多くの人々から高く評価されています。画像作成機能も、ユーザーに無料で公開されているモデルと比較して優れた品質です。その理由の一つは、MetaがFacebookに投稿されたコンテンツをAIの学習プロセスの入力データとして利用し、このツールが自然なコマンドを表現・実行できるようにしていることにあると考えられます。
それでも、人種差別やAIの基準に合わないような反応といった事態を避けるのは困難です。Meta社は、人工知能分野の専門家による「レッドチームテスト」を通じてAIをテストし、意図しない使用を特定し、継続的な改善プロセスを通じて対処していると述べています。
[広告2]
出典: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm
コメント (0)