Title
您当前的位置: 首页 > > 文章详细
DeepSeek悄然发布开源版GPT-5竞品,定价更低
发布时间:2025-08-26

    深度求索(DeepSeek)推出的新人工智能模型针对国产芯片进行了优化,且定价低于OpenAI。图片来源:Photo illustration by Cheng Xin—Getty Images  中国人工智能初创公司深度求索(DeepSeek)在今年1月凭借一款名为R1的人工智能模型震惊世界,该模型可与OpenAI及Anthropic的顶级大语言模型(LLM)相抗衡。其研发成本仅为其他同类模型的一小部分,使用的英伟达(Nvidia)芯片数量远少于竞品,且以免费形式发布。如今,在OpenAI最新模型GPT-5发布仅两周后,深度求索再次推出其旗舰V3模型的更新版本——专家称该版本在部分基准测试中的表现可与GPT-5相媲美,且在定价上颇具策略性,低于GPT-5。  深度求索的新模型V3.1是在微信某用户群及Hugging Face平台上悄然发布的。此次发布同时触及当前人工智能领域的多个核心议题:深度求索是中国在不依赖外国技术的前提下,推进先进人工智能系统研发、部署与管控这一整体战略的关键一环。(事实上,深度求索此次推出的新版V3模型专门针对国产芯片进行了优化,以实现卓越性能。)  尽管美国企业对深度求索的模型仍持观望态度,但这些模型已在中国广泛应用,并在全球其他地区逐渐普及,甚至部分美国企业已基于深度求索的R1推理模型开展应用程序开发工作。  中国在人工智能领域的布局远不止深度求索一家:国内还涌现出阿里巴巴的通义千问(Qwen)、月之暗面(Moonshot AI)的Kimi、百度的文心一言(Ernie)等模型。不过,深度求索选择在OpenAI的GPT-5推出后不久发布新版本——后者的推出未能满足行业观察人士的较高预期——凸显出中国科技界力求跟上甚至超越美国顶级实验室的决心。  OpenAI对中国与深度求索感到担忧  深度求索的举措无疑让美国实验室倍感压力。在近期与记者的晚宴上,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)表示,来自深度求索等中国开源模型的竞争日益激烈,这一现实状况影响了OpenAI两周前发布自有开源权重模型的决策。  “显而易见,倘若我们不采取相应行动,未来全球技术生态或将主要依托中国开源模型构建,”奥尔特曼表示,“这无疑是我们决策时考虑的因素之一,虽非唯一决定要素,但其影响却举足轻重。”  此外,上周美国政府发放许可证,批准英伟达和超微半导体(AMD)向中国出口专用人工智能芯片(包括英伟达的H20芯片),但前提是两家公司同意将相关销售收入的15%上缴美国政府。在美国商务部部长霍华德·卢特尼克(Howard Lutnick)7月15日接受美国消费者新闻与商业频道(CNBC)采访时称“我们不会向中国出售最先进的芯片,也不会出售技术水平次之或处于第三梯队的产品”后,中国政府随即采取反制措施,着手限制英伟达芯片的采购。  通过针对国产芯片进行模型优化,深度求索既展现出应对美国出口管制的韧性,也表明其减少对英伟达依赖的决心。该公司在微信公众号文章中指出,新模型格式已针对“即将发布的下一代国产芯片”进行优化。  在同一场晚宴上,奥尔特曼警告称,美国可能低估了中国在人工智能领域取得的进展,并表示单靠出口管制或许并非可靠的解决方案。  虽未达成质的飞跃,却仍是具有突破性的渐进式进展  从技术层面看,深度求索新模型的亮点在于其构建方式,其中部分技术突破对普通用户而言并不直观。但对开发者而言,这些创新使得V3.1相较于众多封闭且定价高昂的竞品模型更具成本优势与通用性。  例如,V3.1规模庞大,参数数量达6850亿,与众多顶尖“前沿”模型处于同一量级。但其采用的“混合专家”架构意味着,在响应任何查询时,仅需激活模型的一小部分,从而为开发者降低计算成本。此外,与早期深度求索模型——将“可基于预训练数据即时回答的任务”与“需逐步推理的任务”分开处理——不同的是,V3.1在单一系统中同时实现了快速应答功能与推理功能。  GPT-5、Anthropic及谷歌的最新模型也具备类似能力,但目前能做到这一点的开源权重模型仍屈指可数。科技分析师、TechTalks博客创始人本·迪克森(Ben Dickson)向《财富》杂志表示,V3.1的混合架构“是目前为止最大的亮点”。  其他人指出,尽管这款新模型不像今年1月震惊世界的R1模型(由初代V3模型精炼而成的推理模型)那样具有突破性,但全新的V3.1版本仍然令人瞩目。人工智能开发者平台Lightning AI的创始人兼首席执行官威廉·法尔肯(William Falcon)称:“它们能持续实现具有实质意义的改进,这确实令人印象深刻。”不过他也补充道,倘若OpenAI的开源模型“开始出现明显落后”,预计该公司会做出回应,并指出,深度求索的模型对开发者而言在投入生产应用时难度更大,而OpenAI的版本部署起来则相对更为便捷。  尽管技术细节繁杂,但深度求索此次新品发布凸显了一个事实——人工智能正日益被视为中美之间暗流涌动的技术竞赛的一部分。考虑到这一点,倘若中国企业能以其声称的一小部分成本研发出更为卓越的人工智能模型,那么美国竞争对手确实有理由担忧自身能否保持领先地位。(财富中文网)  译者:中慧言-王芳  中国人工智能初创公司深度求索(DeepSeek)在今年1月凭借一款名为R1的人工智能模型震惊世界,该模型可与OpenAI及Anthropic的顶级大语言模型(LLM)相抗衡。其研发成本仅为其他同类模型的一小部分,使用的英伟达(Nvidia)芯片数量远少于竞品,且以免费形式发布。如今,在OpenAI最新模型GPT-5发布仅两周后,深度求索再次推出其旗舰V3模型的更新版本——专家称该版本在部分基准测试中的表现可与GPT-5相媲美,且在定价上颇具策略性,低于GPT-5。  深度求索的新模型V3.1是在微信某用户群及Hugging Face平台上悄然发布的。此次发布同时触及当前人工智能领域的多个核心议题:深度求索是中国在不依赖外国技术的前提下,推进先进人工智能系统研发、部署与管控这一整体战略的关键一环。(事实上,深度求索此次推出的新版V3模型专门针对国产芯片进行了优化,以实现卓越性能。)  尽管美国企业对深度求索的模型仍持观望态度,但这些模型已在中国广泛应用,并在全球其他地区逐渐普及,甚至部分美国企业已基于深度求索的R1推理模型开展应用程序开发工作。  中国在人工智能领域的布局远不止深度求索一家:国内还涌现出阿里巴巴的通义千问(Qwen)、月之暗面(Moonshot AI)的Kimi、百度的文心一言(Ernie)等模型。不过,深度求索选择在OpenAI的GPT-5推出后不久发布新版本——后者的推出未能满足行业观察人士的较高预期——凸显出中国科技界力求跟上甚至超越美国顶级实验室的决心。  OpenAI对中国与深度求索感到担忧  深度求索的举措无疑让美国实验室倍感压力。在近期与记者的晚宴上,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)表示,来自深度求索等中国开源模型的竞争日益激烈,这一现实状况影响了OpenAI两周前发布自有开源权重模型的决策。  “显而易见,倘若我们不采取相应行动,未来全球技术生态或将主要依托中国开源模型构建,”奥尔特曼表示,“这无疑是我们决策时考虑的因素之一,虽非唯一决定要素,但其影响却举足轻重。”  此外,上周美国政府发放许可证,批准英伟达和超微半导体(AMD)向中国出口专用人工智能芯片(包括英伟达的H20芯片),但前提是两家公司同意将相关销售收入的15%上缴美国政府。在美国商务部部长霍华德·卢特尼克(Howard Lutnick)7月15日接受美国消费者新闻与商业频道(CNBC)采访时称“我们不会向中国出售最先进的芯片,也不会出售技术水平次之或处于第三梯队的产品”后,中国政府随即采取反制措施,着手限制英伟达芯片的采购。  通过针对国产芯片进行模型优化,深度求索既展现出应对美国出口管制的韧性,也表明其减少对英伟达依赖的决心。该公司在微信公众号文章中指出,新模型格式已针对“即将发布的下一代国产芯片”进行优化。  在同一场晚宴上,奥尔特曼警告称,美国可能低估了中国在人工智能领域取得的进展,并表示单靠出口管制或许并非可靠的解决方案。  虽未达成质的飞跃,却仍是具有突破性的渐进式进展  从技术层面看,深度求索新模型的亮点在于其构建方式,其中部分技术突破对普通用户而言并不直观。但对开发者而言,这些创新使得V3.1相较于众多封闭且定价高昂的竞品模型更具成本优势与通用性。  例如,V3.1规模庞大,参数数量达6850亿,与众多顶尖“前沿”模型处于同一量级。但其采用的“混合专家”架构意味着,在响应任何查询时,仅需激活模型的一小部分,从而为开发者降低计算成本。此外,与早期深度求索模型——将“可基于预训练数据即时回答的任务”与“需逐步推理的任务”分开处理——不同的是,V3.1在单一系统中同时实现了快速应答功能与推理功能。  GPT-5、Anthropic及谷歌的最新模型也具备类似能力,但目前能做到这一点的开源权重模型仍屈指可数。科技分析师、TechTalks博客创始人本·迪克森(Ben Dickson)向《财富》杂志表示,V3.1的混合架构“是目前为止最大的亮点”。  其他人指出,尽管这款新模型不像今年1月震惊世界的R1模型(由初代V3模型精炼而成的推理模型)那样具有突破性,但全新的V3.1版本仍然令人瞩目。人工智能开发者平台Lightning AI的创始人兼首席执行官威廉·法尔肯(William Falcon)称:“它们能持续实现具有实质意义的改进,这确实令人印象深刻。”不过他也补充道,倘若OpenAI的开源模型“开始出现明显落后”,预计该公司会做出回应,并指出,深度求索的模型对开发者而言在投入生产应用时难度更大,而OpenAI的版本部署起来则相对更为便捷。  尽管技术细节繁杂,但深度求索此次新品发布凸显了一个事实——人工智能正日益被视为中美之间暗流涌动的技术竞赛的一部分。考虑到这一点,倘若中国企业能以其声称的一小部分成本研发出更为卓越的人工智能模型,那么美国竞争对手确实有理由担忧自身能否保持领先地位。(财富中文网)  译者:中慧言-王芳  Chinese AI startup DeepSeek shocked the world in January with an AI model, called R1, that rivaled OpenAI’s and Anthropic’s top LLMs. It was built at a fraction of the cost of those other models, using far fewer Nvidia chips, and was released for free. Now, just two weeks after OpenAI debuted its latest model, GPT-5, DeepSeek is back with an update to its flagship V3 model that experts say matches GPT-5 on some benchmarks—and is strategically priced to undercut it.  DeepSeek’s new V3.1 model was quietly released in a message to one of its groups on WeChat, China’s all-in-one messaging and social app, as well as on the Hugging Face platform. Its debut touches several of today’s biggest AI narratives at once. DeepSeek is a core part of China’s broader push to develop, deploy, and control advanced AI systems without relying on foreign technology.(And in fact, DeepSeek’s new V3 model is specifically tuned to perform well on Chinese-made chips.)  While U.S. companies have been hesitant to embrace DeepSeek’s models, they’ve been widely adopted in China and increasingly in other parts of the world. Even some American firms have built applications on DeepSeek’s R1 reasoning model.  China’s AI push goes beyond DeepSeek: Its industry also includes models including Alibaba’s Qwen, Moonshot AI’s Kimi, and Baidu’s Ernie. DeepSeek’s new release, however, coming just after OpenAI’s GPT-5—a rollout that fell short of industry watchers’ high expectations—underscores Beijing’s determination to keep pace with, or even leapfrog, top U.S. labs.  OpenAI is concerned about China and DeepSeek  DeepSeek’s efforts are certainly keeping U.S. labs on their toes. In a recent dinner with reporters, OpenAI CEO Sam Altman said that rising competition from Chinese open-source models, including DeepSeek, influenced his company’s decision to release its own open-weight models two weeks ago.  “It was clear that if we didn’t do it, the world was gonna be mostly built on Chinese open-source models,” Altman said.“That was a factor in our decision, for sure. Wasn’t the only one, but that loomed large.”  In addition, last week the U.S. granted Nvidia and AMD licenses to export China-specific AI chips—including Nvidia’s H20—but only if they agree to hand over 15% of revenue from those sales to Washington. Beijing quickly pushed back, moving to restrict purchases of Nvidia chips after Commerce Secretary Howard Lutnick told CNBC on July 15:“We don’t sell them our best stuff, not our second-best stuff, not even our third-best.”  By optimizing DeepSeek for Chinese-made chips, the company is signaling resilience against U.S. export controls and a drive to reduce reliance on Nvidia. In DeepSeek’s WeChat post, it noted that the new model format is optimized for “soon-to-be-released next-generation domestic chips.”  Altman, at that same dinner, warned that the U.S. may be underestimating the complexity and seriousness of China’s progress in AI—and said export controls alone likely aren’t a reliable solution.  Less of a leap, but still striking incremental advances  Technically, what makes the new DeepSeek model notable is how it was built, with a few advances that would be invisible to consumers. But for developers, these innovations make V3.1 cheaper to run and more versatile than many closed and more expensive rival models.  For instance, V3.1 is huge—685 billion parameters, which is on the level of many top “frontier” models. But its “mixture-of-experts” design means only a fraction of the model activates when answering any query, keeping computing costs lower for developers. And unlike earlier DeepSeek models that split tasks that could be answered instantly based on the model’s pretraining from those that required step-by-step reasoning, V3.1 combines both fast answers and reasoning in one system.  GPT-5, as well as the most recent models from Anthropic and Google, have a similar ability. But few open-weight models have been able to do this so far. V3.1’s hybrid architecture is “the biggest feature by far,” Ben Dickson, a tech analyst and founder of the TechTalks blog, told Fortune.  Others point out that while this DeepSeek model is less of a leap than the company’s R1 model—which was a reasoning model distilled down from the original V3 that shocked the world in January, the new V3.1 is still striking.“It is pretty impressive that they continue making non-marginal improvements,” said William Falcon, founder and CEO of AI developer platform Lightning AI. But he added that he would expect OpenAI to respond if its own open-source model “starts to meaningfully lag,” and pointed out that the DeepSeek model is harder for developers to get into production, while OpenAI’s version is fairly easy to deploy.  For all the technical details, though, DeepSeek’s latest release highlights the fact that AI is increasingly seen as part of a simmering technological cold war between the U.S. and China. With that in mind, if Chinese companies can build better AI models for what they claim is a fraction of the cost, U.S. competitors have reason to worry about staying ahead.  财富中文网所刊载内容之知识产权为财富媒体知识产权有限公司及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。

上一篇:
贵州金控集团与五矿资本签署战略合作协议
下一篇:
中国城市新“主场外交”引外媒关注!
Title