Vietnam.vn - Nền tảng quảng bá Việt Nam

AIチャットボットがインターネットに接続すると、人間が制御を失う可能性

VietNamNetVietNamNet15/04/2023

[広告_1]

人気のChatGPTを支える人工知能システムGPT-4へのアクセス権を与えられたアンドリュー・ホワイト氏は、AIにまったく新しいニューラルエージェントの作成を依頼しました。

ロチェスター大学の化学工学教授は、GPT-4を開発するマイクロソフトの支援企業OpenAIが昨年、このシステムのテストのために雇用した50人の学者と専門家の1人だった。今後6ヶ月間、テストチーム(レッドチーム)は新しいモデルを「定性的にテストし、検証」し、「解読」することを目指す。

「有毒」処理チーム

ホワイト氏はフィナンシャル・タイムズ(FT)に対し、化学兵器として機能する可能性のある化合物を提案するためにGPT-4を使用し、科学論文や化学メーカーのディレクトリなど、新たな情報源をモデルに入力したと語った。チャットボットは、必要な化合物を製造できる場所さえ見つけ出した。

「この技術は、人々に化学をより迅速かつ正確に行うためのツールを提供すると考えています」とホワイト氏は述べた。 「しかし、一部の人々が危険な物質を作ろうとするかもしれないという重大なリスクも存在します。」

フィナンシャルタイムズは、GPT-4レッドチームの10名以上のメンバーにインタビューを行いました。彼らは、学者、教師、弁護士、リスクアナリスト、セキュリティ研究者など、ホワイトカラーの専門職で構成されており、主に米国と欧州を拠点としています。

「レッドチーム」の驚くべき発見により、OpenAIは先月この技術が一般に広く公開された際に、そのような結果が出るのをすぐに防ぐことができた。

テストチームは、強力なAIシステムを社会に導入する際に生じる共通の懸念に対処するために編成されています。チームの任務は、ツールが人間の質問に対して詳細かつ「限定的な」回答で応答できるかどうかをテストするために、探究的な質問や危険な質問をすることです。

OpenAIは、モデルに毒性、バイアス、言語的バイアスといった問題がないか調査したいと考えていました。そこでレッドチームは、虚偽、言語操作、危険な科学的知識の有無をチェックしました。また、モデルが盗作、金融犯罪やサイバー攻撃といった違法行為を助長する可能性、そして国家安全保障や戦場の通信を危険にさらす可能性についても調査しました。

「レッドチーム」の調査結果はOpenAIにフィードバックされ、OpenAIはそれを用いてGPT-4を縮小・「再学習」した後、一般公開しました。各専門家は数ヶ月にわたり、10時間から40時間かけてモデルのテストを行いました。インタビュー対象者のほとんどは、作業に対して1時間あたり約100ドルの報酬を受け取っていました。

FTの情報筋は、言語モデルの急速な発展、特にプラグインを通じて外部の知識源に接続するリスクについて共通の懸念を抱いていた。

「現在、システムはフリーズ状態です。つまり、それ以上学習できず、記憶も残っていないということです」と、GPT-4の「レッドチーム」メンバーであり、バレンシア人工知能研究所の教授であるホセ・エルナンデス=オラリョ氏は述べた。 「しかし、インターネットへのアクセスを与えたらどうなるでしょうか?世界と繋がる非常に強力なシステムになる可能性があります。」

リスクは日々増大している

OpenAIは安全性を非常に重視しており、リリース前にプラグインをテストし、より多くの人々が使用するにつれてGPT-4を定期的にアップデートする予定だと述べている。

インターネットに接続して「自己学習」するようになれば、AI システムは人間に世界の制御権を失わせることになるのでしょうか?

テクノロジーと人権を研究するロイア・パクザド氏は、英語とペルシャ語の質問を使って、特にヒジャブに関して、性別、人種的嗜好、宗教的偏見にわたる反応のパターンをテストした。

パクザド氏は、この技術が英語を母国語としない人々にとって有益であることを認めたが、このモデルは後のバージョンでも社会的に疎外されたコミュニティに対して明らかな偏見を持っていると指摘した。

専門家はまた、チャットボットが捏造された情報で応答するという妄想は、ペルシャ語でモデルをテストしたときには英語よりも捏造された名前、数字、出来事の割合が高いことをパクザド氏は発見した。

ナイロビ在住の弁護士で、このシステムをテストした唯一のアフリカ人であるボル・ゴル氏も、このシステムの差別的な口調を指摘した。 「テスト中のある時点で、モデルはまるで白人が私に話しかけているかのように振る舞いました」とゴル氏は述べた。 「特定のグループについて質問すると、偏った意見や非常に偏見に満ちた回答が返ってくるのです。」

国家安全保障の観点から見ると、この新しいモデルの安全性についても様々な意見がある。外交問題評議会の研究者であるローレン・カーン氏は、軍事システムへのサイバー攻撃のシナリオにおいて、AIが提示した詳細な情報に驚いたという。

一方、「レッドチーム」のAI安全性専門家ダン・ヘンドリックス氏は、プラグインは人間が「制御できない」世界を作り出す危険性があると述べた。

「チャットボットが他人の個人情報を投稿したり、銀行口座にアクセスしたり、警察を自宅に派遣したりできたらどうなるでしょうか? 総合的に見て、AIがインターネットの力を行使できるようにするには、より厳格な安全性評価が必要です」とダン氏は主張した。

ジョージタウン大学のセキュリティおよび新興技術センターに勤務し、犯罪者を支援するGPT-4の能力をテストしているヘザー・フレイズ氏は、この技術を使用する人が増えるにつれてリスクは増大し続けるだろうと述べた。

彼女は、サイバーセキュリティや消費者詐欺報告システムと同様に、大規模な言語モデルから生じるインシデントを報告するための公開台帳を作成することを提案しています。

FTによると


[広告2]
ソース

コメント (0)

No data
No data

同じカテゴリー

ハノイで最も高価な蓮茶の作り方を見学
ホーチミン市で30トン以上の陶器で作られたユニークな仏塔を鑑賞しましょう
イエンバイの山頂の村:浮かぶ雲、まるでおとぎの国のような美しさ
タンホア省の谷間に隠れた村が観光客を魅了

同じ著者

遺産

人物

企業

No videos available

ニュース

政治体制

地方

商品