OpenAIのGPT-o1学習インターフェースが表示されたスマートフォン - 写真:フィナンシャル・タイムズ
9月13日のフィナンシャル・タイムズによると、OpenAI社は、9月12日に発表されたばかりのGPT-o1モデルが、人工知能(AI)が生物兵器の製造に悪用されるリスクを「大幅に」高めることを認めたという。
OpenAIが公開したGPT-o1の仕組みを説明する文書によると、この新しいモデルは化学兵器、生物兵器、放射線兵器、核兵器に関連する問題に関して「中程度のリスクレベル」を持つとされています。これは、OpenAIがこれまでAIモデルに割り当ててきた中で最も高いリスクレベルです。
OpenAIによると、これはGPT-o1が、生物兵器を作るためにそれを悪用したい専門家の能力を「劇的に向上させる」可能性があることを意味している。
OpenAIの最高技術責任者(CTO)ミラ・ムラティ氏は、GPT-o1はまだテスト段階にあるものの、このモデルの高度な機能により、同社は一般公開に向けたロードマップについて依然として非常に「慎重に」ならざるを得ないと述べた。
ムラティ氏はまた、同社が開発したモデルの限界をテストするためにOpenAIが雇った多分野にわたる専門家チームによって、このモデルが徹底的にテストされたことも確認した。
ムラティ氏は、テストプロセスによって、GPT-o1 モデルが従来のモデルよりも一般的な安全基準をはるかによく満たしていることが示されたと語った。
OpenAIの代表者は、それだけに留まらず、GPT-o1の試用版は「導入しても安全」であり、開発された技術よりも複雑なリスクを生み出すことはないと保証した。
上記の保証にもかかわらず、 科学界の大部分と AI に関心のある人々は、この技術の開発の方向性についてまだあまり楽観的ではありません。
AIの発展が速すぎて、AIを規制する規制の策定や承認のペースが追いつかないのではないかという懸念が高まっている。
モントリオール大学でコンピューターサイエンスを専攻し、 世界有数のAI科学者でもあるヨシュア・ベンジオ教授は、もしOpenAIが現在、化学兵器や生物兵器の「中程度のリスク」をもたらしているとすれば、この分野を規制するためにカリフォルニア州で熱く議論されているような法律の「重要性と緊急性をさらに強めるだけだ」と述べた。
この科学者は、AIがますます汎用人工知能(AGI)のレベルに近づき、人間と同等の推論能力を持つようになる中で、上記の制度が特に必要であると強調した。
「先駆的なAIモデルがAGIに近づくほど、適切な予防措置を講じなければリスクは増大する。AIの推論能力の向上と詐欺への利用は極めて危険だ」とベンジオ氏は評価した。
[広告2]
出典: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
コメント (0)