Vietnam.vn - Nền tảng quảng bá Việt Nam

「AIはなぜ危険なのか?」

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023

[広告_1]

実際、人工知能が人類にとって危険になる可能性について科学者が警告したのはこれが初めてではない。 2014年、有名なイギリスの理論物理学者スティーブン・ホーキングは「人工知能が完全に開発されれば人類は滅亡する可能性がある」と述べました。また、この危険な技術の研究開発に注意を払わなければ、今後500年以内に人類は完全に人工知能に取って代わられるだろうとも述べた。 8年前の2015年7月、スティーブン・ホーキング、イーロン・マスク、ノーム・チョムスキーなど1,000人を超える人工知能技術研究の専門家が、軍事用AIの分野での軍拡競争の危険性を警告し、自律型兵器の全面禁止を求める嘆願書に署名した。 OpenAIが2022年11月にChat GPTアプリケーションをリリースしたことで、人工知能による実存的リスクに新たな警鐘が鳴らされました。実際、Chat GPT が行っていることは、AI がある程度、人間がかつて考えていたよりもはるかに危険であることを示しています。

人工知能の潜在的なリスクは、その使用方法によって異なります。当初、AIは人間の仕事、特に画像分類や情報レビューなどの退屈で反復的な作業を支援するために開発されました。しかし、近年のAIの急速な発展に伴い、科学者や技術専門家は、人工知能が制御不能に開発されたり、誤った目的でプログラムされたりすると、人間や社会に深刻な結果をもたらす可能性があると懸念しています。

不安のリスク

人工知能は国家安全保障と個人の安全に脅威をもたらす可能性がある。イーロン・マスク氏は、AIが戦争において恐ろしい道具になる可能性があると警告した。ある国が優れた人工知能システムを開発できれば、それを使って他国を攻撃することができます。カリフォルニア大学のコンピュータサイエンス教授であるスチュアート・ラッセル氏は、数十年にわたって人工知能の研究をしてきた。同氏はAIがもたらす安全保障上の脅威について警告し、既存の技術を統合し小型化することで自律型攻撃兵器を製造できるようになったと述べた。

この実験は、スチュアート・ラッセル教授とFuture of Life Institute(FLI)が、カメラ、センサー、画像処理ソフトウェア、顔認識、3グラムの爆薬、高速マイクロプロセッサを備え、人間の脳より100倍速くデータ分析と反応を可能にする極小飛行装置である殺人ロボット(スローターボット)を使用して実施した。プログラミングパラメータに従って、キラーロボットはクラウドデータに継続的にアクセスし、ターゲットに関する情報を検索し、ターゲットに近づく方法を見つけます。発見されると、ターゲットに向かって高速で突進し、3gr の爆薬を起動して頭蓋骨の奥深くまで穴を開け、一瞬のうちに犠牲者を殺害します。

それは、AI の最も単純なレベルでの実験でした。 AI が、より洗練された新しい攻撃方法の開発に利用されれば、攻撃者の攻撃能力も向上し、従来の攻撃よりも深刻な結果をもたらす可能性があります。 AIが周囲の環境の変化に対処したり、別のターゲットを探したり、ターゲットの範囲を拡大したりするために独自の判断を下せるようになると、人間は安全ではなくなる可能性があります。この分野の多くの同僚はスチュアート・ラッセル教授に同意し、そのような暗い未来を防ぐチャンスはまだあるが、実際には私たちに残された時間はあまりないと主張している。

AIが組織化され、自律的になり、システムを制御するリスク

AI は不適切に設計され、機械学習によって不適切に「トレーニング」されると、望ましくない動作を実行し、人や環境に損害を与える可能性があります。具体的な例は次のとおりです。機械学習により、AI はますますインテリジェントになっています。人工知能は、電力、交通、医療、金融などの重要なシステムをサポートするレベルから、これらすべてのシステムを習得して制御し、緊急事態でそれらの決定を下して実行できるレベルに達すると、 AIに「意図的な」目的(誤った設計)が付加されると、信号機システムを無効化したり、都市部の電車運行システムの電源を遮断したりして交通システムを混乱させたり、事故を連続的に発生させたり、広範囲にわたる停電を引き起こしたりするなど、多くの深刻な結果を引き起こす可能性があります。

このシナリオを基にしたハリウッド映画や海外映画は数多く制作されています。しかし、現在の AI テクノロジーでは、これはもはや遠い展望ではなく、完全に現実のものとなり得ます。イーロン・マスク氏は、AIが制御不能な状態で開発され、人間の介入なしに意思決定を自動化できるようになった場合、人類の生存にとって脅威となる可能性があると考えている。そのため、彼と数千人の技術専門家は、AIの開発の停止と透明性のある厳格な管理を要求する書簡に署名した。イーロン・マスク氏によると、人工知能システムは複雑で理解が難しく、制御するのも非常に難しいとのこと。透明性がなければ、人間に危害を及ぼす非倫理的な目的で人工知能が使用されることは避けられません。

失業やプライバシー侵害のリスク

個人情報の収集に使用される場合、人工知能技術はプライバシーの侵害、偽情報活動の実行、社会状況や政治の安定に影響を与える虚偽情報の拡散に利用される可能性があります。米国政府の人事管理局(OPM)のネットワークシステムがハッカーの攻撃を受けた事件は、2,150万人の現職および退職米国政府職員の詳細かつ機密性の高い個人データ、その配偶者に関する情報、政府職に応募した人々の健康状態、居住地、職業、指紋、財務情報などのデータがハッカーの手に渡ったものであり、どの国や組織にとっても注目に値する。しかし、OPM のデータ窃盗犯が人工知能技術を使用してスキャンし、個人情報を偽造し、仮想スパイを作成してデータを盗んでいたことをCIA が発見したとき、さらに恐ろしい現実がありました。盗まれた情報はビッグデータ技術によって分析、分類され、特定の目的のために利用されます。人間は短時間で膨大な量の情報を処理できないため、人工知能技術は情報窃盗犯が情報を悪用するのにかかる時間を短縮するのに役立ちます。

上で述べた既存の危険性に加えて、AI テクノロジーは、AI への過度の依存により、人間が状況を制御できなくなり、意思決定能力が低下するといった他のリスクも生み出します。人工知能は、特に知識内容がほとんどない純粋な肉体労働の仕事において、数百万人、あるいは数億人の人々の職を失う原因にもなるでしょう。その結果、失業、犯罪、貧富の格差など深刻な社会問題がさらに深刻化することになります。さらに、信頼性も考慮すべき問題です。医療、刑事司法などの高度に専門化された分野における決定の信頼性は極めて重要です。 AI が、テクノロジーの信頼性が低い分野、特定の個人またはグループに偏ったデータに基づいて動作する分野、または意図的に歪曲されたデータに基づいて意思決定を行うために使用される場合、その意思決定は深刻な結果をもたらす可能性があります。

どうやって防ぐのか?

上記のリスクこそが、イーロン・マスク氏や技術専門家がAIの無制限な発展を懸念し、国連や国際機関にAI開発の厳格な管理、安全性と倫理の確保を求める書簡を書いた理由です。 AI技術が人々と社会に利益をもたらすように活用されるよう、国際協力を強化します。特定できる具体的な対策としては、次のようなものがあります。

- システムの信頼性の制御: AI は、AI システムが人間の期待どおりに動作し、信頼性の欠如による望ましくない影響を回避するために、厳格で定期的かつ継続的な品質テスト、制御、および監視方法を通じて安全性と信頼性を確保するように設計および開発する必要があります。

- 人工知能技術は、倫理的価値観と社会規範に従って動作するようにプログラムする必要があります。このようなルールや基準は明確に確立される必要があり、人々や組織に悪影響や害を及ぼさないよう監視されなければなりません。 AIシステムの運用を分析、影響評価し、監視するプロセスも、標準的な運用を確保し、社会全体の共通の価値観を侵害したり侵食したりせず、悪影響を及ぼさず、正しい知識と価値観の伝達を確保するために定期的に実行する必要があります。

左 中心 右 デル
ジャーナリズムは人工知能の影響を最も受ける業界の一つです。今後はラジオ番組でMCがOFFを読み上げる必要もなくなり、テレビ番組でもバーチャルMCがONをリードする時代が来るでしょう。

- 人工知能システムが問題全体を再評価できるように、「トレーニング」を少なくとも 6 か月間一時停止します。この停止は公開され、管理され、このトレーニングに関与するすべての主要関係者が関与する必要があります。必要であれば、政府は一時的な禁止措置を講じるべきである。これは、AI 開発を完全に停止することを意味するのではなく、他の開発モデルに移行するための危険な競争を一時停止し、AI システムをより正確で安全、理解しやすく、透明性が高く、関連性が高く、信頼でき、忠実なものにすることを意味します。これはイーロン・マスク氏とその同僚らが公開書簡で訴えた包括的な解決策だが、実現可能性は高くない。すべての独立系研究所が、このような拘束力のない国境を越えた要請に応じることは困難です。

- 将来的にAIが安全に開発・利用されるよう、各国および独立したAI研究機関間の協力と情報共有を強化する。協力と情報共有は、将来発生する可能性のあるリスクを迅速に警告し、防止するための対策でもあります。

一般的に、AI は私たちの周りのあらゆる場所に存在しており、人工知能が詩や音楽、記事を書くといった話は現実のものとなり、もはや SF ではありません。この記事の著者自身も、コンピューターや携帯電話の人工知能技術を活用して、執筆プロセスをより便利かつ迅速にしました。具体的には、この記事の冒頭部分といくつかのアイデアは AI によって提案され、さらに具体的には、この記事で使用されているすべての写真は AI によって生成されました。人工知能技術は仕事や人間の生活の質を向上させるのに非常に役立ちますが、理論物理学者のスティーブン・ホーキング博士が予測したように、制御不能になって将来人間に取って代わる危険性がないよう、厳密に管理する必要があります。

文と写真:HUU DUONG

[広告2]
ソース

コメント (0)

No data
No data

同じカテゴリー

カットバ島の野生動物
グーチソンの燃えるように赤い日の出の風景
1万点のアンティークがあなたを昔のサイゴンに連れ戻す
ホーおじさんが独立宣言を読み上げた場所

同じ著者

遺産

仕事

No videos available

ニュース

政治体制

地元

製品