Vietnam.vn - Nền tảng quảng bá Việt Nam

DeepSeekが再び躍進

DeepSeek は、視覚認識を圧縮媒体として使用し、従来の方法よりも 20 倍少ないトークンで大規模なドキュメントを処理する DeepSeek-OCR モデルを発表しました。

ZNewsZNews23/10/2025

DeepSeekは、従来の方法に比べて7~20分の1のトークンで文書を処理できる新しいAIモデルをリリースしました。写真: The Verge

SCMPによると、DeepSeekは、従来のテキスト処理方法に比べて大幅に少ないトークン(7~20倍)で大規模で複雑な文書を処理できる新しいマルチモーダル人工知能(AI)モデルをリリースしたという。

トークンは、AIが処理するテキストの最小単位です。トークンの数を減らすことで、計算コストを削減し、AIモデルの効率性を向上させることができます。

これを実現するために、DeepSeek-OCR(光学文字認識)モデルは、視覚認識を情報圧縮の手段として利用しました。このアプローチにより、大規模な言語モデルでも、計算コストの増加に比例することなく、膨大な量のテキストを処理できるようになります。

「DeepSeek-OCRを通じて、視覚認識を使用して情報を圧縮することで、さまざまな歴史的文脈の段階で7〜20倍の大幅なトークン削減を実現できることを実証し、有望な方向性を示しています」とDeepSeekは述べています。

同社のブログ投稿によると、DeepSeek-OCRはDeepEncoderとデコーダーとして機能するDeepSeek3B-MoE-A570Mという2つの主要コンポーネントで構成されている。

このモデルでは、DeepEncoder がコアツールとして機能し、高解像度の入力で低いアクティベーション レベルを維持しながら、強力な圧縮率を達成してトークンの数を削減するのに役立ちます。

その後、デコーダーは5億7000万のパラメータを持つMixture-of-Experts(MoE)モデルとなり、元のテキストを再構成します。MoEアーキテクチャは、モデルを入力データのサブセットの処理に特化したサブネットワークに分割し、モデル全体をアクティブ化することなくパフォーマンスを最適化します。

ドキュメントの読みやすさのベンチマークである OmniDocBench では、DeepSeek-OCR は、大幅に少ないトークンを使用しながら、GOT-OCR 2.0 や MinerU 2.0 などの主要な OCR モデルよりも優れたパフォーマンスを発揮します。

出典: https://znews.vn/deepseek-lai-co-dot-pha-post1595902.html


コメント (0)

ぜひコメントして、あなたの気持ちをシェアしてください!

同じカテゴリー

ホーチミン市の若者の間で話題を呼んでいる高さ7メートルの松の木があるクリスマスエンターテイメントスポット
クリスマスに騒ぎを巻き起こす100メートルの路地には何があるのか​​?
フーコックで7日間にわたって行われたスーパーウェディングに圧倒されました
古代衣装パレード:百花繚乱

同じ著者

遺産

人物

企業

ドン・デン - タイ・グエンの新しい「スカイバルコニー」が若い雲ハンターを魅了

時事問題

政治体制

地方

商品