返回Ai开源
DeepSeek V3.1 开源速报:Hugging Face 上线权重与 128K 上下文

DeepSeek V3.1 开源速报:Hugging Face 上线权重与 128K 上下文

Ai开源 Admin 3 次浏览

DeepSeek 已将 V3.1-Base 模型权重发布至 Hugging Face,可直接下载使用。多家媒体称此次为“开源”发布;但当前模型卡暂无、许可证未标注,严格的使用边界仍需以官方后续说明为准。线上服务同步升级至 V3.1,宣称上下文长度扩展至 128K,Web / App / 小程序与 API 保持兼容。


一、关键信息

1、发布形态:Hugging Face 提供 V3.1-Base 权重(safetensors),页面显示支持 BF16 / F8_E4M3 / F32,提供多种量化版本。

2、规模参数:页面显示 “Model size:685B params”。

3、上下文长度:多方报道与官方通告显示线上模型升级至 128K 上下文,API 调用方式不变。

4、架构背景:V3 系列为 MoE(Mixture-of-Experts)路线,结合 DeepSeek 自研 MLA 等技术;V3.1 在此基础上做工程与上下文强化(据公开材料与媒体摘要)。

5、注意事项:当前 Hugging Face 模型卡暂无详述与许可字段;下载与商用前需自查许可与条款。


二、开源地址(官方与权威入口)

1、Hugging Face · DeepSeek-V3.1-Base:

https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base

2、DeepSeek 官网(产品与 API):

https://www.deepseek.com/

3、DeepSeek-V3 GitHub(架构与论文背景参考):

https://github.com/deepseek-ai/DeepSeek-V3


三、可用性与部署建议

1、下载与格式:优先选择 safetensors;按硬件挑选 BF16 或 FP8(F8_E4M3)量化变体。

2、推理资源:685B(MoE 总参数)级别模型需高显存/分布式推理;如资源有限,先选量化或云端推理。

3、上下文策略:128K 上下文适合长文档/长代码库,对提示工程要分块与检索增强(RAG)结合,减少无效上下文注入。

4、评估与灰度:先用小样本基准(代码、检索、长文总结)做 A/B,对速度与成本设阈值后再扩展到生产。


四、典型应用场景

1、长文档理解与合规摘要:合同/年报/技术白皮书的一次性上下文加载与分段推理。

2、代码智能体:大型代码库的读写与重构,结合工具调用与测试框架。

3、企业搜索与知识助手:与向量检索/RAG 结合,利用更长上下文做跨库汇总与证据链回答。


五、风险与边界

1、许可不明:当前未见明确 License 字段,严禁默认商用;需等待官方模型卡与许可更新。

2、算力与成本:MoE 级模型仍有显著的显存/带宽需求;评估 TCO 与吞吐后再决定落地规模。

3、数据合规:长上下文易携带敏感数据,需脱敏、分级与访问控制,并配置日志与到期清除策略。


六、常见问题

1、V3.1 是否真正“开源”?

目前可在 Hugging Face 下载权重,属“开放权重”发布;但模型卡暂无、许可未标注,严格的开源/商用边界需以官方许可为准。

2、哪里可以体验在线版与调用 API?

DeepSeek 官网提供 Web / App / 小程序与 API,官方通告称已升级至 V3.1,API 保持兼容。

3、与 V3 的差异主要在哪里?

公开信息集中在“更长上下文(至 128K)”“工程优化与速度体验提升”;底层仍延续 V3 体系,详细训练与评测数据有待官方模型卡补充。

4、资源不够如何试用?

优先选用量化权重与云端推理;离线部署可先做小样本评估,再决定是否投入分布式推理与高端 GPU。

推荐工具

更多