戻るAIはオープンソースです
DeepSeek V3.1 オープンソース速報:Hugging Faceが128Kコンテキストで重みを増す

DeepSeek V3.1 オープンソース速報:Hugging Faceが128Kコンテキストで重みを増す

AIはオープンソースです Admin 12 回閲覧

DeepSeekは、V3.1-Baseモデルの重みをHugging Faceに公開しており、直接ダウンロードして使用できます。 多くのメディアはこれを「オープンソース」リリースと呼んでいました。 ただし、現在のモデル カードは利用できず、ライセンスはマークされておらず、厳格な使用境界は依然として公式のフォローアップ指示に従う必要があります。 オンライン サービスは V3.1 にアップグレードされ、コンテキスト長が 128K に拡張され、Web/アプリ/ミニ プログラムは API との互換性を維持していると主張しています。


1. 重要な情報

1. リリース形式: Hugging Face は V3.1-Base 重み (安全テンソル) を提供し、ページには BF16 / F8_E4M3 / F32 をサポートし、さまざまな定量バージョンを提供することが示されています。

2. スケールパラメータ: ページには「モデルサイズ:685B パラメータ」が表示されます。

3. コンテキストの長さ: 複数のレポートと公式発表により、オンライン モデルが 128K コンテキストにアップグレードされ、API 呼び出し方法は変更されていないことが示されています。

4. アーキテクチャの背景: V3 シリーズは、DeepSeek の自社開発 MLA やその他のテクノロジーと組み合わせた MoE (Mixture-of-Experts) ルートです。 V3.1 これに基づいて、エンジニアリングとコンテキストの強化が行われます (公開資料とメディアの概要に従って)。

5. 注: 現在の Hugging Face モデル カードの詳細フィールドと権限フィールドはありません。 ダウンロードして商品化する前に、ライセンスと条件を確認する必要があります。


2. オープンソースアドレス(公式かつ権威ある入り口)

1. ハグフェイス · DeepSeek-V3.1-ベース:

https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base

2、DeepSeek公式サイト(製品およびAPI):

https://www.deepseek.com/

3、DeepSeek-V3 GitHub (アーキテクチャと論文の背景リファレンス):

https://github.com/deepseek-ai/DeepSeek-V3


3. 可用性と展開の提案1

. ダウンロードとフォーマット: SafeTensors が推奨されます。 BF16またはFP8(F8_E4M3)の定量化されたバリアントをハードウェア別に選択します。

2. 推論リソース: 685B (MoE 合計パラメータ) レベルのモデルには、高いビデオ メモリ/分散推論が必要です。 リソースが限られている場合は、最初に量子化またはクラウド推論を選択します。

3. コンテキスト戦略: 128K コンテキストは長いドキュメント/長いコードベースに適しており、無効なコンテキスト インジェクションを減らすために、プロンプト プロジェクトを検索拡張 (RAG) と組み合わせる必要があります。

4. 評価とグレースケール: まず、小さなサンプル ベンチマーク (コード、検索、長い記事の要約) を使用して A/B を行い、速度とコストのしきい値を設定してから、本番環境に拡張します。


4. 典型的なアプリケーションシナリオ1

. 長い文書の理解とコンプライアンスの概要: 契約/年次報告書/技術ホワイトペーパーの 1 回限りのコンテキスト読み込みとセグメント化された推論。

2. コード エージェント: ツール呼び出しやテスト フレームワークと組み合わせて、大規模なコード ベースの読み取り、書き込み、再構築を行います。

3. エンタープライズ検索とナレッジアシスタント: ベクトル検索/RAG と組み合わせることで、より長いコンテキストを使用して、データベース間の要約と証拠チェーンの回答を行います。


5. リスクと境界1

. ライセンスが不明確: 現在、明確なライセンス フィールドはなく、商用利用はデフォルトで固く禁じられています。 公式モデルカードとライセンスの更新を待ちます。

2. コンピューティング能力とコスト: MoE レベルのモデルには、依然として重要なメモリ/帯域幅要件があります。 着陸の規模を決定する前に、TCOとスループットを評価します。

3. データコンプライアンス: 機密データは長いコンテキストで簡単に持ち運べるため、脱感作、グレーディング、アクセス制御、ログと有効期限の消去ポリシーの構成が必要です。


6. よくある質問

1

. V3.1は本当に「オープンソース」なのか?

現在、ウェイトは「オープンウェイト」で公開されている Hugging Face でダウンロードできます。 ただし、モデルカードはまだ入手できず、ライセンスもマークされておらず、厳格なオープンソース/商用境界は公式ライセンスの対象でなければなりません。

2. オンライン版を体験し、APIを呼び出す場所はどこでできますか?

DeepSeek の公式 Web サイトでは Web/アプリ/ミニ プログラムと API が提供されており、公式発表では V3.1 にアップグレードされ、API の互換性は維持されていると記載されています。

3. V3 との主な違いは何ですか?

公開情報は、「より長いコンテキスト (128K まで)」と「エンジニアリングの最適化と速度エクスペリエンスの向上」に焦点を当てています。 基盤となるレイヤーは依然として V3 システムを継続しており、詳細なトレーニングおよび評価データは公式モデル カードによって補完される必要があります。

4. リソースが足りない場合に試すにはどうすればよいですか?

定量的な重みと雲の推論が優先されます。 オフライン展開では、分散推論とハイエンド GPU に投資するかどうかを決定する前に、小さなサンプル評価を行うことができます。

関連記事

アルトマン氏は、OpenAIがGPT-6を加速していることを確認した:長期記憶とパーソナライゼーションを中核的な方向性として

アルトマン氏は、OpenAIがGPT-6を加速していることを確認した:長期記憶とパーソナライゼーションを中核的な方向性として

GPT-6のトレンドを一目で見る:より速いペース、長期記憶、パーソナライゼーションを中核的な方向性としてメディア報道によると、サム・アルトマン氏は記者との公開交流で「GPT-6は進行中だ」と述べ、その...

ナノバナナはグーグルから来る可能性が高い:実測でLMArenaが人気、記者会見ウィンドウがロックされる

ナノバナナはグーグルから来る可能性が高い:実測でLMArenaが人気、記者会見ウィンドウがロックされる

複数の公開の手がかりによると、「ナノバナナ」はLMArenaブラインドテストで頻繁に登場する画像生成/編集モデルであり、非常に安定したパフォーマンスを発揮します。 メディアや実務家はGoogleと結び...

中国のインターネットコーパスリソースプラットフォームオープンソースデータ

中国のインターネットコーパスリソースプラットフォームオープンソースデータ

1. プラットフォームの背景 中国サイバースペース安全協会と国家インターネット緊急対応センターによって立ち上げられ、人工知能モデルのトレーニング、自然言語処理研究、その他のアプリケーションをサポートす...

GLM-4.5オープンソーススライム:効率的なRLトレーニングフレームワークの包括的な分析

GLM-4.5オープンソーススライム:効率的なRLトレーニングフレームワークの包括的な分析

GLM-4.5 が大規模モデル最適化を支援する効率的な RL トレーニング フレームワーク スライムを完全オープンソースで発売清華大学知識工学研究所 (THUDM) は、GLM-4.5 シリーズのモデ...

おすすめツール

もっと見る