人工知能(AI)の急速な発展により、その影響が人間に理解されるよりも速いペースで発展しているのではないかという懸念が生じている。
写真: ST
ChatGPTのようなツールの登場以降、汎用AIの利用は大幅に増加しました。これらのツールには多くの利点がある一方で、有害な方法で悪用される可能性もあります。
このリスクを管理するために、米国および他のいくつかの国は、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIを含む7つの企業と、AI技術の開発における安全な慣行にコミットする契約を確保しました。
ホワイトハウスの発表には、「レッドチーム演習」や「ウォーターマーキング」といった、一般の人には馴染みのない専門用語が使われています。ここでは、AI関連で注意すべき7つの用語をご紹介します。
機械学習
このAI分野は、パターンを識別することで機械が特定のタスクを正確に実行できるように訓練することを目的としています。機械は、そのデータに基づいて予測を行うことができます。
ディープラーニング
クリエイティブな AI タスクは、多くの場合、ディープラーニングに依存しています。ディープラーニングとは、人間の脳のニューロンを模倣するように設計された一連のアルゴリズムであるニューラルネットワークを使用してコンピューターをトレーニングし、パターン間の複雑な接続を作成してテキスト、画像、その他のコンテンツを生成する手法です。
ディープラーニング モデルには複数のニューロン層があるため、従来の機械学習よりも複雑なパターンを学習できます。
大規模言語モデル
大規模言語モデル(LLM)は、膨大な量のデータで学習され、言語をモデル化したり、単語列における次の単語を予測したりすることを目的としています。ChatGPTやGoogle Bardなどの大規模言語モデルは、要約、翻訳、会話などのタスクに使用できます。
アルゴリズム
機械が予測を行ったり、問題を解決したり、タスクを完了したりできるようにする一連の指示またはルール。アルゴリズムは、ショッピングの推奨事項を提供したり、不正行為の検出やカスタマーサービスチャット機能を支援したりすることができます。
バイアス
AIは大規模なデータセットで学習するため、ヘイトスピーチなどの有害な情報をデータに取り込む可能性があります。また、AIの学習に使用されるデータセットには人種差別や性差別的な情報も含まれており、誤解を招くコンテンツにつながる可能性があります。
AI企業は、AIシステムにおける有害な偏見や差別を回避する方法をさらに深く検討することに合意した。
レッドチーム
企業がホワイトハウスに対して行った公約の 1 つは、AI モデルとシステムの内外で「レッド チーム演習」を実施することです。
「レッドチーム演習」とは、モデルをテストして潜在的な脆弱性を発見する演習です。この用語は、チームが攻撃者の行動をシミュレートして戦略を練る軍事演習に由来しています。
この方法は、Microsoft や Google などの企業のクラウド コンピューティング プラットフォームなどのシステムのセキュリティ脆弱性をテストするために広く使用されています。
透かし
透かしは、音声や画像がAIによって作成されたかどうかを判断する方法です。検証のためにチェックされる情報には、作成者、作成方法、作成日時などの情報が含まれる場合があります。
例えば、マイクロソフトは自社のAIツールで作成した画像に透かしを入れることを約束しました。また、企業はホワイトハウスに対して、画像がAIによって生成されたものであることを識別するために、画像に「透かし」を入れたり、その出所を記録したりすることを約束しました。
透かしは知的財産権の侵害を追跡するためにもよく使用されます。AI生成画像の透かしは、7ピクセルごとにわずかな変化が生じるなど、目に見えないノイズとして現れることがあります。
ただし、AI 生成テキストに透かしを入れる作業はより複雑になる可能性があり、AI 生成コンテンツとして識別できるように単語テンプレートを微調整する必要がある場合があります。
ホアン・トン(ポインターによる)
[広告2]
ソース
コメント (0)