、DeepEP、DeepGEMM等代码库。2月28日,OpenAI发布其最新一代基础模型GPT-4.5(非推理模型),号称是迄今为止数据规模最大、知识最为丰富的聊天模型。可见,AI正以惊人的速度在发展。DeepSeek的开源策略对行业带来哪些影响?全球AI大模型的进展如何?GPT-4.5模型有何特点?行业投融资情况如何?本文尝试分析和探讨。
DeepSeek,全称为杭州深度求索人工智能基础技术研究有限公司,成立于2023年,是一家由知名私募巨头幻方量化孕育而生的创新型科技公司,专注于开发先进的大语言模型(LLM)及相关技术。自成立以来,DeepSeek已相继发布了多款产品,包括DeepSeek Coder、DeepSeek LLM、DeepSeek V2、DeepSeek V3、DeepSeek R1等。
2024年12月26日,DeepSeek正式上线首个版本并同步开源,性能比肩GPT 4o、Claude-3.5-Sonnet等世界领先闭源模型,但训练成本大幅降低,总训练成本约为557.6万美元(主要是训练环节的成本),远低于GPT 4o的训练成本。2025年1月20日,DeepSeek正式发布DeepSeek R1并同步开源模型权重。DeepSeek R1在性能上达到与OpenAIo1的水平,但训练成本仅为同类模型的1/30。
DeepSeek低成本高性能模型的发布,大幅降低了AI大模型的训练门槛,证明在有限的硬件条件下仍能实现高性能。同时,DeepSeek选择开源,不仅为开发者提供了强大的工具,也促进了全球AI社区的创新与共享,进一步推动了AI技术的普惠化。因此,DeepSeek也吸引了全球市场的众多目光。
2月24日,DeepSeek开始开源周,开源的内容主要包括代码库FlashMLA、DeepEP、DeepGEMM,优化并行策略DualPipe、EPLB,训练和推理框架分析数据,以及Fire-Flyer文件系统(3FS)。这些开源内容有助于降低AI大模型的开发门槛,同时通过优化算力资源,提升算力效率。
例如,FlashMLA是针对英伟达Hopper GPU架构优化的高效MLA(多层注意力机制)解码内核,专为处理可变长度序列而设计。FlashMLA使用后,在H800可达到3000GB/S内存,实现580TFLOPS计算性能,突破H800的计算性能。整体看,DeepSeek通过创新算法、代码优化,将GPU算力利用到极致,使大模型在处理复杂任务时更快、更节省资源,同时降低技术门槛,使中小开发者得以更低的成本构建高性能模型,进一步打破算力垄断、加速AI普惠化。
现阶段,全球AI大模型发展迅猛。国内方面,AI大模型技术端突破显著。DeepSeek R1用远低于同类模型的训练成本,性能达到了领先闭源模型的水平。自DeepSeek R1发布后,DeepSeek在无任何广告投放的情况下在7天内便实现了1亿用户增长,成为全球增速最快的AI应用。
与此同时,DeepSeek的出现也对国内其他AI大模型产品造成了巨大冲击。例如,据QuestMobile显示,Kimi在1月20日至1月26日的周活跃用户规模环比增长不足28%,而同期DeepSeek环比增长超750%,同时Kimi的市场讨论热度也大幅降低。
此外,国家政策对AI技术的支持,也为DeepSeek等AI大模型的发展提供了良好的环境。例如,2025年2月,武汉市人民政府网站发布《武汉市促进人工智能产业发展若干政策措施》,支持关键技术突破,组织实施市级科技重大专项,给予单个项目最高2000万元资金支持。
海外方面,以 OpenAI、Google、xAI 等为代表的科技公司在 AI 大模型领域仍保持较为强劲的实力。其中,xAI在2月18日发布 Grok 3(全球首个在十万卡集群上训练的大模型),引入图像分析和问答等高级功能,计算能力比上一代提高了十倍,大幅提升了生成速度、推理能力和多模态处理能力。同时,Grok 3宣布免费开放,进一步降低技术门槛,加速AI在各行各业的普及。
0 条