MetaのCEO、マーク・ザッカーバーグ氏は1月18日、同社のAIに関する「将来のロードマップ」には、2024年末までに35万個のNvidia H100チップを搭載した「大規模なコンピューティングインフラ」を構築することが必要であるとInstagramのリールに投稿した。
マーク・ザッカーバーグ氏は、AIが2024年のMetaの最優先投資分野であると述べています。 |
ザッカーバーグ氏はGPUを何個購入したかは明らかにしなかったが、NVIDIA H100は2022年後半に発売予定で、供給量は非常に限られている。レイモンド・ジェームズのアナリストは、NVIDIAがH100を2万5000ドルから3万ドルで販売していると推定している。eBayでは、このチップは4万ドル以上で取引されている。Metaの価格がこれより下がれば、その価格は90億ドル近くになるだろう。
さらにMeta CEOは、他のGPUを含めると、インフラストラクチャの計算能力はH100 60万個に相当すると明らかにしました。2023年12月、Meta、OpenAI、Microsoftは、AMDの新しいInstinct MI300X AIチップを採用すると発表しました。
Metaがこれほど多くの「重い」コンピューターチップを必要とするのは、同社が人工汎用知能(AGI)の実現を目指しているためだ。ザッカーバーグ氏はこれを「長期的なビジョン」と呼んでいる。OpenAIとGoogle傘下のDeepMindも、人間の知能に匹敵すると期待される未来のAI、AGIの開発に取り組んでいる。
Metaのチーフサイエンティスト、ヤン・ルカン氏も先月米国サンフランシスコで開催されたイベントでGPUの重要性を強調しました。彼は、AGI(汎用人工知能)を実現するにはGPUをもっと購入する必要があると述べました。 「AI競争が繰り広げられており、彼(NVIDIA CEOのジェンスン・フアン氏)がその武器を提供しているのです。」
メタは2023年第3四半期の決算報告で、2024年の総支出額は940億ドルから990億ドルの範囲になると述べ、その一部はコンピューティング能力の拡大に充てられるとしています。アナリストとの会合で、同グループの最高経営責任者(CEO)は、「投資の優先順位において、AIは技術面でもコンピューティングリソース面でも、2024年最大の投資分野となる」と明言しました。
マーク・ザッカーバーグ氏は、Metaが開発中の「汎用AI」モデルを「責任を持ってオープンソース化」する計画だと述べた。これは同社が大規模言語製品ライン「Llama」で採用しているアプローチだ。
Meta は現在、Llama 3 をトレーニングするとともに、Fundamental AI Research (FAIR) チームと GenAI 研究チームがより緊密に連携できるようサポートしています。
[広告2]
ソース
コメント (0)