编者按: 所谓语言就是一套用于描述世界的、可发声的文字符号系统,只有文字与事物存在比较直接的相互映射关系,才能更简洁地表达事物的本质,用表音语言表达事物虽然有利于声音识别,但于语义理解明显是绕了一个大弯子。这就是DeepSeek模型表现抢眼的中国文化根源。 今天再看“苍颉作书,天雨粟,鬼夜哭”,深感并非夸张之语。 今天,我们全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。模型按大小分为两个版本: 即日起登录官网 chat.deepseek.com 或官方App,即可与最新的 DeepSeek-V4 对话,探索 1M 超长上下文记忆的全新体验。API 服务已同步更新,通过修改 model_name 为 deepseek-v4-pro 或 deepseek-v4-flash 即可调用。 DeepSeek-V4-Pro:性能比肩顶级闭源模型
DeepSeek-V4-Flash:更快捷高效的经济之选
结构创新和超高上下文效率DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。 DeepSeek-V4 和 DeepSeek-V3.2 的计算量和显存容量随上下文长度的变化 Agent 能力专项优化DeepSeek-V4 针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。下图为 V4-Pro 在某 Agent 框架下生成的 PPT 内页示例:上下滑动或点击放大查看 API 访问目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。 V4-Pro 与 V4-Flash 最大上下文长度为 1M,均同时支持非思考模式与思考模式,其中思考模式支持 reasoning_effort 参数设置思考强度(high/max)。对于复杂的 Agent 场景建议使用思考模式,并设置强度为 max。模型调用与参数调整方法请参考 API 文档: https://api-docs.deepseek.com/zh-cn/guides/thinking_mode 请大家注意:旧有的 API 接口的两个模型名 deepseek-chat 与deepseek-reasoner 将于三个月后(2026-07-24)停止使用。当前阶段内,这两个模型名分别指向deepseek-v4-flash 的非思考模式与思考模式。 开源权重和本地部署
https://huggingface.co/collections/deepseek-ai/deepseek-v4 https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf 写在后面的话「不诱于誉,不恐于诽,率道而行,端然正己。」 感谢每一位用户的信任与支持,大家的肯定、建议和期许,是我们不竭探索、持续进步的动力,也让我们始终坚守初心,专注于不懈的创新。 我们将始终秉持长期主义的原则理念,在尝试与思考中踏实前行,努力向实现 AGI 的目标不断靠近。 |
微信打赏