Facebook の親会社は、Llama 4 コレクションの新しいモデル 2 つを発表しました。これは、Web 上の Meta AI アシスタントや WhatsApp、Messenger、Instagram で使用されているモデルと同じであり、ユーザーがよりパーソナライズされたマルチメディア エクスペリエンスを作成できるように支援します。
Meta または Hugging Face からダウンロードできる 2 つの新しいモデルは、Llama 4 Scout と Llama 4 Maverick です。 Metaは、CEOのマーク・ザッカーバーグ氏が「世界最高性能のプラットフォームモデル」と評する巨大モデル、Llama 4 Behemothをまだトレーニング中だと述べている。
Meta によれば、Llama 4 Scout のコンテキスト ウィンドウは最大 1,000 万トークンで、これは現在最もトークン数が多いモデルである Gemini の何倍にもなります。この数値は AI モデルの作業メモリを表します。
Meta は、このモデルが「多くの一般的な公開ベンチマークで」Google の Gemma 3 や Gemini 2.0 Flash-Lite、Mistral 3.1 よりも優れていると説明しているが、それでも「単一の Nvidia H100 GPU で実行できる」とのことだ。
同社はLlama 4 Maverickについても、OpenAIのGPT-4oやGoogleのGemini 2.0 Flashと比較したパフォーマンスについて同様の主張をしている。 Maverick のプログラミングと推論タスクは、半分以下のパラメータを使用しているにもかかわらず、DeepSeek-V3 に匹敵します。
![]() |
Llama 4 コレクションの新しいモデルのフィギュア。写真: Meta. |
一方、Behemoth には合計 2,000 億個のパラメータのうち 2,880 億個のアクティブ パラメータがあります。まだリリースされていないものの、Meta 社によると、Behemoth は「STEM 分野のさまざまな指標で」競合製品 (具体的には GPT-4.5 と Claude Sonnet 3.7) を上回る性能を発揮できるとのことです。
Metaは、DeepSeekの成功の要因となったのと同じ「専門家の混合」(MoE)アーキテクチャに切り替えたと述べている。この方法では、特定のタスクごとに必要なモデルの部分のみをアクティブ化することでリソースを節約します。製品計画の詳細は、4月29日に開催されるLlamaConカンファレンスで発表される予定です。
ライセンス制限に関する批判にもかかわらず、Meta は以前のモデルと同様に Llama 4 を「オープンソース」と呼んでいます。たとえば、Llama 4 ライセンスでは、月間アクティブ ユーザー数が 7 億人を超える商用組織は、モデルを使用する前に Meta から許可を得る必要があります。
2023 年のオープンソース イニシアチブによれば、このような規制は「モデルをもはやオープンソースではなくなる」とのことです。
出典: https://znews.vn/cha-de-facebook-ra-mo-hinh-ai-moi-post1543744.html
コメント (0)