DeepSeek省了训练费,但推理模型应用成"烧钱黑
2月24日消息,尽管投资者曾一度产生疑虑,但来自大型科技企业、各国政府以及风投机构的巨额资金正以前所未有的速度流入人工智能领域。要理解这一现象背后的原因,关键在于洞察人工智能技术本身的演进趋势。当前,人工智能技术正从传统的大语言模型向推理模
网易科技报道,2025-02-24 08:10:45
2月24日消息,尽管投资者曾一度产生疑虑,但来自大型科技企业、各国政府以及风投机构的巨额资金正以前所未有的速度流入人工智能领域。要理解这一现象背后的原因,关键在于洞察人工智能技术本身的演进趋势。
当前,人工智能技术正从传统的大语言模型向推理模型和AI代理转变。传统的大语言模型,即多数免费人工智能聊天机器人所使用的模型,其训练过程需要消耗庞大的电力和计算时间。然而,随着技术的进步,我们正在迅速找到方法,在用户调用这些模型时减少其运行所需的资源。与之不同,基于大型语言模型的推理模型,其实际运行过程消耗的计算和电力资源是传统模型的数倍。
自OpenAI于2024年9月发布其首款推理模型o1以来,人工智能公司纷纷加速推出能与之抗衡的系统。这其中包括DeepSeek R1,它震撼了整个人工智能行业,并让许多科技和能源企业的估值出现波动。上周,埃隆·马斯克(Elon Musk)旗下人工智能初创公司xAI也推出了其推理模型Grok 3。
DeepSeek的推出之所以引发了一定程度的恐慌,是因为它证明了人工智能模型可以以更低的成本进行训练,这可能会削减对数据中心和昂贵先进芯片的需求。然而,DeepSeek实际上推动了人工智能行业更坚定地迈向资源密集型的推理模型,这意味着计算基础设施的需求依然十分强劲。
鉴于推理模型具备更强大的能力,它们可能很快成为人们使用人工智能执行多种任务时的默认方式。OpenAI首席执行官山姆·奥特曼(Sam Altman)曾表示,该公司人工智能模型的下一次重大升级将包含高级推理能力。
那么,为何推理模型及其相关产品(如“深度研究”工具和AI代理)需要如此多的算力资源?答案在于它们的工作原理。
英伟达人工智能产品管理副总裁卡里·布里斯基(Kari Briski)在最近一篇博客中解释称,人工智能推理模型消耗的算力资源,通常是传统大语言模型的100倍以上,这是因为推理模型在“思维链”中需要长时间与自己对话,而这些推理过程用户往往看不见。模型消耗的算力资源与其生成的词汇量成正比,因此,如果推理模型生成的词汇量是常规模型的100倍,那么它也将消耗相应的电力和算力资源。
当推理模型接入互联网时,如谷歌、OpenAI和Perplexity的“深度研究”模型所做的那样,资源消耗会更多。这些模型对算力资源的需求还只是开始。对此,谷歌、微软和Meta计划在2025年总共投入至少2150亿美元用于资本支出,其中大部分将用于建设人工智能数据中心。这标志着他们的资本支出较去年增长了45%。
今年1月,随着中国AI模型DeepSeek R1的发布,每token的算力成本(包括电力与硬件支出)似乎将迎来断崖式下降。DeepSeek通过论文证明,其AI模型的训练与部署效率远超美国AI实验室此前公开的方法。
表面上看,这似乎预示着人工智能未来对算力资源的需求将大幅降低,可能只有当前需求的十分之一,甚至更少。但随着推理模型的问世,当它们回答查询时对算力资源的需求可能会大幅增加。简而言之,若基于DeepSeek技术的新型高效模型将AI算力需求削减至十分之一,而推理模型的普及使其使用需求激增100倍,未来整体算力需求仍将净增10倍。
而这只是起点。随着企业发现新型人工智能模型的能力更强,它们会越来越频繁地调用这些模型,这使得对算力资源的需求从模型训练转向模型使用,即人工智能行业所称的“推理”。
为其他公司提供人工智能算力资源的Baseten公司首席执行官图欣·斯里瓦斯塔瓦(Tuhin Srivastava)表示,这种向推理需求的转变已在进行中。他的客户包括在应用程序和服务中使用人工智能的科技公司,如允许内容创作者通过转录编辑音频和视频的Descript,以及处理医疗记录的初创公司PicnicHealth。
斯里瓦斯塔瓦称,随着客户自身产品需求的快速增长,他们发现需要更多的人工智能处理能力。他补充道:“六个月前,我们帮助一位客户将算力资源需求降低了60%,但仅仅三个月后,他们的算力消耗已反超原水平。”
OpenAI、谷歌和Meta等公司仍在竞相训练能力更强的人工智能模型。无论成本多高,它们的目标都是尽可能抢占尚处萌芽阶段的人工智能市场。Fractional AI首席执行官克里斯·泰勒(Chris Taylor)表示:“我认为,尖端实验室很可能需要持续投入巨额资金以推动前沿技术的发展。”他的公司,如同Baseten及蓬勃发展的人工智能生态系统中的许多其他企业,依赖这些尖端模型为客户提供服务。
风险投资家、Theory Ventures创始人托马斯·通古兹(Tomasz Tunguz)预测,未来几年,新的创新和更多人工智能专用微芯片可能使得人工智能系统比今天更高效,或使终端系统效率提升千倍。投资者和大型科技公司押注的是,在未来十年内,由于推理模型的普及和快速采用,对人工智能模型的需求可能会急剧增长。
通古兹表示:“你每一次键盘敲击,或对着麦克风说的每一个音节,每个操作节点都将由至少一个AI系统实时处理。”如果真是这样,他补充道,人工智能市场的规模可能很快会比现在扩大1000倍。(小小)