我们联系了Greylock投资组合中五家领先的AI基础设施公司的创始人——Devvret Rishi(Predibase)、Tuhin Srivastava(Baseten)、Ankur Goyal(Braintrust)、Jerry Liu(LlamaIndex)和Alex Ratner(Snorkel AI)——以了解他们对DeepSeek的看法,以及这对开源与闭源模型、AI基础设施和生成式AI经济学的未来意味着什么。他们的见解显示出对DeepSeek带来的进步的广泛热情,但在其实际影响上存在一些分歧。
开源与闭源模型:竞争环境已趋于平衡
历史上,像OpenAI这样的专有模型通常领先于开源替代品,领先6到12个月。DeepSeek-R1从根本上缩小了这一差距,尽管其规模较小,但在关键推理基准上表现与OpenAI的最新产品相当。
Rishi表示:“DeepSeek-R1是开源AI的一个分水岭时刻。历史上,开源模型落后于像OpenAI这样的专有模型6到12个月。现在,DeepSeek-R1基本上缩小了这一差距,并在关键推理基准上与OpenAI的最新模型相当,尽管其规模较小。”他认为这是开源开始将模型层商品化的拐点。
Srivastava也表达了类似的观点,他表示:“DeepSeek作为一个时刻改变了一切。一个开源模型达到了与SOTA闭源模型相同的质量水平,这在以前是不存在的。现在,随着这个秘密被揭开,所有的开源模型如Llama、Qwen和Mistral将很快跟进。”
Goyal提供了一个更为平衡的观点:“DeepSeek是O1风格(推理)模型的‘LLaMa时刻’。在最坏的情况下,这意味着秘密配方已经公开,我们将拥有一个充满活力和竞争的LLM市场,就像我们对GPT、Claude和LLaMa风格模型所做的那样。在最好的情况下,工程团队将拥有多样化的实用选择,每个选择都有计算、成本和性能的权衡,使他们能够解决各种各样的问题。在所有情况下,我认为世界都将从这一进步中受益。”
Ratner也赞同上述关于开源和模型多样性的观点,重点关注这代表着企业加速专业化其自身AI的巨大加速:“我们一直认为开源模型紧随其后——算法和模型架构很少能长时间保持隐藏。这只是时间问题。然而:这强调了一个令人兴奋的现实,即企业将拥有大量高性能且
便宜
的LLM选项,以便用他们的数据和专业知识评估和专业化,针对他们独特的用例。我预计DeepSeek将大大加速这一企业AI专业化的趋势。”
AI基础设施和开发者采用:强化学习革命
DeepSeek-R1最引人注目的方面之一是其使用强化学习(RL)来提高推理能力。虽然基于RL的LLM优化已经被探索多年,但DeepSeek是第一个成功在大规模上实施并取得可测量收益的开源模型,使用了一种称为广义强化学习与策略优化(GRPO)的技术。
Rishi认为这是一个游戏规则的改变,他解释说:“DeepSeek最具影响力的贡献是证明了纯粹的强化学习可以引导高级推理能力,如其R1-Zero模型所示。”然而,他也指出了一个主要的差距:“大多数ML团队从未训练过推理模型,而今天的AI工具并未为支持这一新范式而构建。”
Srivastava认为DeepSeek标志着AI基础设施的一个拐点:“有了DeepSeek,‘我们训练了最大和最好的模型,所以我们将其保密’的护城河已经消失。现在,你有一个情况,前沿模型级别的质量在一个你完全控制的模型中可用。”
Ratner补充道:“我们正在看到‘AlphaGo时刻’在受限、可验证的领域(例如数学、基本编码——这些是简单且易于检查正确性的事情)中,展示了LLM+RL的力量,以及算法进步的快速扩散。”然而,他强调,下一步将涉及将这一成功扩展到更复杂和不易验证的领域——这是一段更长且更具挑战性的旅程,涉及更多的人类智慧和投入。
新应用:大规模AI推理
DeepSeek改进的推理能力开启了一波新的应用。Rishi强调了几个新兴的可能性,包括:
-
能够随着时间推移优化决策的自主AI代理。
-
在金融、物流和医疗等行业中高度专业化的规划系统。
-
能够动态适应用户需求的企业AI助手,超越僵化的RAG解决方案。
-
能够根据性能反馈自我调试和优化代码的AI驱动软件工程工具。
Liu通过讨论GPU需求和代理应用的影响来扩展这一点:“DeepSeek并不意味着对GPU计算的需求会减少;相反,我非常兴奋,因为我认为这将显著加速代理应用的需求和采用。构建任何‘真正有效’的代理的核心问题是可靠性、速度和成本——能够端到端自动化知识工作流的稳健代理应用需要反复进行LLM推理调用。代理越通用/能力越强,就需要更多的推理循环。虽然O1/O3系列模型具有令人印象深刻的推理能力,但它们的成本过于高昂,无法用于更通用的代理。更快/更便宜的模型激励了更通用代理的发展,这些代理可以解决更多任务,从而导致更多人和团队的需求和采用。”
Srivastava强调:“DeepSeek及其后续模型对高度监管行业有重大影响。拥有严格数据合规要求的公司将能够更自由地进行实验和创新,因为他们可以完全控制数据的使用方式和发送位置。”
Ratner强调数据仍然是真正的优势:“R1风格的进展依赖于相关领域的强大前/后训练和严格的评估数据,然后RL魔法才会生效。”他进一步解释道:“今天的许多生成式AI实际上归结为非常高质量的、特定领域的标注,包括强化学习。DeepSeek的结果重申了这一点:如果你有一个好的标注方法(即‘奖励函数’),你可以创造奇迹;但在大多数领域,获取数据或标注并不容易。”
生成式AI的经济学:成本方程的变化
DeepSeek加速了向更便宜、更高效的推理和后训练的趋势,显著改变了生成式AI部署的经济学。
Rishi指出Jevon悖论:“随着LLM变得更便宜和更高效,企业不仅会用开源模型替代专有API——他们会更多地使用AI,微调和部署多个特定领域的模型,而不是依赖单一的通用模型。”
Srivastava强调了财务影响,他表示:“像R1这样的推理模型将比使用OpenAI或Anthropic便宜多达7倍。拥有这样经济学的模型解锁了许多以前可能在财务上不可行或不吸引大多数企业的用例,这些企业尚未在生成式AI中有意义地上线。”
Ratner补充道:“随着生成器变得更强大和商品化——一切都与标注有关!无论是RLHF、像DeepSeek-R1的奖励函数这样的启发式方法,还是先进的混合方法,定义接受函数以匹配我们想要的分布是合乎逻辑的下一步。”
DeepSeek无疑是AI行业的一个里程碑,标志着开源模型首次在真正的竞争中与专有替代品达到平价。Rishi和Srivastava将其视为一个根本性的转变,开启了一个新的AI开发时代,公司可以完全控制高性能模型,同时受益于开源的经济优势。然而,Goyal对其在现实世界中的采用仍持怀疑态度,认为其更多是对现有企业的定价杠杆,而不是立即的替代品。
Ratner强调,尽管DeepSeek代表了有意义的进步,但AI的未来很大程度上取决于高质量、特定领域的数据和标注。他总结道:“无论你将其视为范式转变还是AI军备竞赛中的又一步,其对行业的影响都是不可否认的。”