当前位置: > 图文评测 >

连NVIDIA都开始抄作业了

发布者:365bet体育投注
来源:未知 日期:2025-12-26 10:24 浏览()
文字|福尔西,作者 |胡芝芝 2025 年 12 月 24 日,平安夜的硅谷没有一丝炎热。正当大多数人还沉浸在节日气氛中时,AI计算圈内却传出足以改写行业格局的消息:英伟达宣布将斥资200亿美元现金与曾高呼“终结GPU霸权”的AI芯片初创公司Groq达成技术授权协议。更耐人寻味的是此次交易的特殊结构:它不是一次正式的收购。 Groq 将继续独立运营,但创始人 Jonathan Ross、总裁 Sunny Madra 和其他关键团队成员均已加入 NVIDIA; NVIDIA正在收购Groq的几乎所有核心??技术资产,不包括GroqCloud云计算业务。 20亿美元的对价是Groq三个月前估值69亿美元的2.9倍。这种“倒估价”的技术授权在历史上极为罕见。e科技产业。 “这不是收购,但比收购更好。”伯恩斯坦分析师史黛西·拉斯贡(Stacy Rasgon)指出。 “本质上,英伟达正在用金钱换取时间,让最危险的颠覆者成为自己的员工,同时避免反垄断审查。”此次交易的背后,是AI行业的历史性转变——从集中式模型训练转向大规模推理实施的新阶段。推理市场正以65%的年复合增长率扩张,预计到2025年将超过400亿美元,到2028年将达到1500亿美元。英伟达的GPU霸权面临着前所未有的挑战性跟踪赛道:谷歌TPU凭借成本优势获得大客户,AMD赢得微软400美元订单,中国赢得微软40倍美元订单。华为Ascend在当地市场份额提升至28%。为什么曾经被认为是“GPU终结者”的Groq最终选择与NVIDIA联手?是否会达成200亿美元的天价交易帮助Nvidia保住算力王座?这次“招兵买马”的背后,折射出AI芯片行业创新者的集体困境:当技术颠覆者冲击巨头生态壁垒时,除了收购还有第二条生存之路吗?颠覆性的GroqGroq的诞生,从一开始就带着“挑战权威”的基因。 2016年,谷歌TPU核心开发人员乔纳森·罗斯带着7名核心团队成员离开,创立了Groq。这位高中辍学的技术天才在谷歌期间深度参与了AlphaGo等重大AI项目,亲眼目睹了传统GPU在AI推理场景中的致命缺点——高延迟、低能效、数据传输瓶颈。 “GPU 架构从根本上来说不适合推理任务。”罗斯在2023年行业峰会上悄悄说道。 “它就像一把万能瑞士军刀,无所不能,但在需要精确和高效的推理场景中有了这样的认识,Ross 团队决定打造一款专门为推理优化的芯片,后来被称为 LPU(语言处理单元)。GroqLPU 本质上是对 AI 芯片架构的重构。与 NVIDIA GPU 的“集线器和放射状”架构不同,LPU 采用了独特的“可编程管道”设计——数据像传送带一样经过各个处理单元,整个过程没有冗余传输,彻底解决了“内存”的问题。该架构带来了三大革命性优势:一是延迟最低,首令牌响应时间仅为0.22秒,在实时对话、自动驾驶等场景下比GPU快5-18倍;二是超高能效比,功耗仅300-500W,是NVIDIA H100(700W)的三分之二,能效比是GPU的10倍以上;第三,确定性计算,每个执行步骤都可以精确到时钟周期,这对于企业级AI应用的稳定性很重要。最重要的是内存设计。 LPU 采用数百 MB 的 SRAM 作为主要权重存储,而不是 GPU 的片外 HBM 内存。内存带宽高达80TB/s,是HBM的10倍。在处理 Llama 2-70B 等大型模型时,LPU 吞吐量可以达到 241 个令牌/秒,是其他云服务提供商的两倍以上。独立测试数据表明,在相同的推理任务下,Groq的解决方案可以将计算成本降低到GPU的三分之一。颠覆性技术让Groq成为资本的宠儿。从2017年首轮1000万美元融资,到2021年C轮融资后估值突破10亿美元成为独角兽,再到2017年12月E轮融资后估值升至69亿美元到2025年,Groq的估值在短短一年内(8月24日-2020年9月)增长了146%,融资超过30亿美元。在市场层面,Groq 也在快速开放。它不仅服务了超过200万开发者,还赢得了众多重磅客户:与Meta合作运行Llama 3.1大语言模型,与沙特阿美公司达成15亿美元协议,建设全球最大的AI推理数据中心,并成为加拿大贝尔主权AI网络的独家推理提供商。在一些细分场景中,Groq已经开始替代GPU——比如在实时客户服务、智能驾驶感知等对时延敏感的领域。许多公司反映“改用Groq后,用户体验和运营成本都得到了显着改善”。但Groq的增加始终面临着一个致命的缺陷:生态障碍。 NVIDIA的霸主从来不是靠硬件算力,而是靠20多年打造的CUDA生态s - 2000万开发者、10万+应用程序、全球几乎所有主流AI框架都与CUDA深度绑定。如果企业想要改用Groq的LPU,需要重新构建70%以上的推理代码,时间和人力成本难以承受。 2024年,Groq试图加深与Meta的合作,但最终因“适配成本太高”而失败——Meta的LLaMA模型高度依赖CUDA,花了6个月的开发时间才迁移到LPU.oras,Meta等不及了。这就是Groq的悖论:它有能力搞垮GPU,却没有能力摧毁CUDA生态系统。这也是所有AI芯片初创公司的共同链条。对英伟达霸权的焦虑 对于英伟达来说,2025年是一个重要的转折点。尽管公司股价全年涨幅超过35%,且到2025年10月其现金和短期投资将达到606亿美元,但背后隐藏的辉煌的数据正在加大竞争压力。尤其是在推理市场,英伟达的GPU霸主地位正在被多方打破。谷歌 TPU 是 Nvidia 最直接的威胁。作为 Groq 创始人罗斯的前雇主,谷歌在 AI 推理领域有着更早、更深入的布局。 2025年推出的TPU v7“Ironwood”性能接近NVIDIA的Blackwell架构。最重要的是,由于自研芯片+云服务的综合优势,谷歌可以提供30%-40%的成本优势。令 Nvidia 紧张的是,Google TPU 正在从自用转向对外销售。 Apple和Anthropic等巨头已经开始使用TPU来训练大型模型,一些云服务提供商也开始购买TPU来替代GPU。 “谷歌的策略非常明确,它利用成本优势占领对价格敏感的逻辑市场,并逐渐蚕食英伟达的客户群。”业内分析人士指出。 AMD的崛起已经撕开了一个缺口中档市场。 2025年,AMD MI300X获得微软Azure 40亿美元订单,市场份额从2024年的10%增长至15%。全年AI芯片收入预计将超过50亿美元,同比增长120%。 AMD的优势在于兼容性——MI300X兼容CUDA生态系统,企业的切换成本很低。同时,价格比同等性能的GPU低20%-30%。除了微软之外,AMD还获得了亚马逊、谷歌等云服务商的多份订单。 “所有客户都在努力‘摆脱对 NVIDIA 的依赖’。即使不完全取代,也会购买AMD芯片作为备用,这本身就偏离了NVIDIA的市场份额。”一位云服务提供商内部人士透露。在中国市场,英伟达的处境更加困难。受出口管制影响,英伟达的高端芯片无法进入中国。华为Ascend抓住机遇崛起,我市场份额从2023年的15%增加到2025年的28%,超越AMD成为中国第二大市场。 Nvidia的份额从70%下降到54%。首先,中国市场形成了“大厂自研+芯云一体”的独特模式。华为、百度、阿里巴巴等巨头都在研发自己的AI芯片,优先解决自己的云业务和AI应用需求。他们几乎不购买国内初创公司的芯片,更不用说英伟达了。这种模式进一步挤压了英伟达的生存空间,让中国成为全球AI芯片竞争的“独立战场”。除了竞争压力之外,Nvidia GPU本身在推理场景上也存在先天的缺陷。随着AI应用从实验室走向工业,低时延、高能效、低成本成为关键需求——自动驾驶需要毫秒级实时感知,智能客服需要即时对话响应和工业质量检查需要低功耗边缘推理。这些情况都不是GPU的强项。 “GPU是为训练而设计的通用计算芯片,推理只是一个‘副业’。”业内专家解释道,“训练力求计算能力最大化,不计成本和延迟;而推理则力求效率,每一次成本、每一毫秒的延迟都影响着商业价值。英伟达要想在推理市场立足,就必须弥补推理效率低下和精力不足的问题。” Groq 的 LPU 确实解决了这些痛点。这也是英伟达准备斥资200亿美元“招揽”Groq的主要原因——与其让Groq成为竞争对手的“武器”,不如将其整合到自己的系统中,以补充推理端的技术短板。 200亿美元的“掩盖”和真实的阴谋。这笔交易被包装为“技术许可协议”,实际上是NVIDIA精心设计的一次“变相收购”。 200亿美元的高价不仅买下了Groq的技术,还买下了关键人才、市场渠道以及避免反垄断审查的“安全通行证”。根据官方公告,这是一份“非独家技术许可协议”,Groq 将继续独立运营。不过,深入分析就会发现,这只是为了逃避反垄断审查而进行的“掩饰”。首先,Groq的核心资产几乎全部被转让——技术专利、研发团队、客户资源都归NVIDIA所有,只保留了Groq云业务。其次,灵魂人物乔纳森·罗斯和核心团队加入了NVIDIA。没有关键人才,Groq的独立运营能力就大打折扣。 “如果这是正式收购,势必会引发严格的反垄断调查。” Bernstein分析师Stacy Rasgon指出,“利用技术许可不仅可以获取关键资产,人才,但也保持着“竞争”的肤浅幻想。这是近年来科技巨头常用的手段。”微软、谷歌等公司都采用类似的模式收购其核心资产初创公司,以规避监管风险。200亿美元的代价是Groq当前价值69亿美元的2.9倍。看似天价,但确实合理。对于英伟达来说,200亿美元买来了三个“确定性”:一是推论结束时完成技术缺陷的确定性。避免自主研发的时间成本和失败风险;第二,消除潜在竞争对手,将Groq“威胁”转化为自身优势的确定性;第三,整合生态壁垒,将LPU技术融入CUDA生态系统,进一步增加客户迁移成本,从财务角度来看,200亿美元对于Nvidia来说并不是很大的压力。2025年,英伟达拥有606亿美元现金和短期投资,其中200亿美元仅占33%。最重要的是,这项投资的潜在收益是巨大的——如果 Groq 技术能够帮助 Nvidia 维持 70% 以上的推理市场份额,按照 2028 年 1500 亿美元的市场规模计算,每年可以带来超过 1000 亿美元的收入,200 亿美元的投资可以在不到两年的时间内收回成本。英伟达真正的计划是通过本次交易实现“人才+技术+渠道”的三位一体整合。人才方面,乔纳森·罗斯作为谷歌TPU的主要开发者,对AI推理芯片的架构设计有着深刻的理解。他的加入可以使 NVIDIA 的推理架构更接近市场需求;技术方面,Groq的LPU架构、确定性编译器和ib等核心技术可以直接弥补GPU的缺点;就而言渠道方面,Groq 的客户资源(如沙特阿美和加拿大贝尔)将帮助 NVIDIA 快速拓展推理市场。 “NVIDIA的战略从来不是简单地卖硬件,而是打造‘硬件+软件+服务’的全栈生态系统。”业内人士分析,“收购Groq后,NVIDIA可以推出‘GPU(训练)+LPU(推理)’异构计算解决方案,覆盖从训练到推理的全流程,进一步强化生态壁垒。” GPU和LPU的“双剑组合”能做到吗?此次交易成败的关键取决于Nvidia能否成功整合Groq技术,实现GPU和LP.U的优势互补。从架构差异来看,两者是天然的互补而非替代。 GPU擅长“并行计算”,可以将复杂的任务分解为数千个可以同时执行的小计算。nelyly,适合大规模模型训练;而接口板擅长“流水线计算”,数据按顺序经过各个处理单元,无冗余传输,适合低时延、高吞吐量的推理任务。 NVIDIA的计划是将LPU集成到自己的“AI Factory”架构中,构建“GPU用于训练、LPU用于推理”的解决方案。例如,在自动驾驶场景中,GPU用于训练感知模型,LPU用于实现实时推理;在智能客服场景中,GPU用于训练d modellogo,LPU用于处理实时用户请求。技术融合的最大挑战在于软件生态系统的兼容性。 Groq有自己的GroqWare套件和GroqFlow工具链,而NVIDIA的核心是CUDA生态系统。如果两者不能无缝对接,企业客户的迁移成本仍然很高h.不过,Groq 的软件设计理念与 NVIDIA 非常契合。 GroqWare 与 PyTorch 和 TensorFlow 等主要框架兼容。 GroqFlow 工具链允许您使用一行代码导入现有模型,为集成到 CUDA 生态系统提供基础。 NVIDIA计划将Groq的编译器和工具链集成到CUDA平台中,让客户可以直接利用CUDA生态系统内LPU的计算能力。g并不是重构代码。 “软件集成的成功将决定这笔交易的价值。”业内专家指出,“如果实现无缝兼容,NVIDIA的生态约束将进一步加强;如果整合失败,可能会浪费200亿美元。”根据基准数据显示,融入 Groq 技术后,NVIDIA 的推理解决方案可以实现双重优化:一是成本降低,推理成本可降低至原来的三分之一。GPU帽子;其次,效率提高,延迟可以降低到200毫秒以内,有些情况下甚至可以达到50毫秒。这种优化可以直接促进人工智能应用的大规模落地。例如,实时对话式AI降低延迟后,将更适用于客户、教育等领域的服务;提高边缘计算的能效后,可以促进人工智能在工业质检、智慧农业等场景的普及。 “降低成本和延迟是将人工智能从‘实验室走向工业’的关键。”云计算开源产业联盟的一份报告指出,推理将在2026年提供70.5%的AI服务器工作负载。AI芯片格局的固化和创新者的命运。 NVIDIA“招揽”Groq不仅将塑造AI芯片的竞争格局,还将极大影响整个人工智能产业的发展。它不仅暴露了行业的创新困境,也揭示了未来的发展趋势。此次交易标志着AI芯片行业进入“整合阶段”。过去五年,类似的故事不断重演:Graphcore融资超过10亿美元却难以规模化,Habana被英特尔收购后逐渐被边缘化,寒武纪在中国勉强得到政府市场的支持。这些“挑战者”要么被巨头吸收,要么在生态屏障面前慢慢消亡。英伟达的交易加剧了这一趋势。当所有潜在的创新者都聚集起来时,AI芯片市场的“整合”是不可避免的。预计2027年,英伟达的市场份额将保持在10-12%,其他厂商的份额将保持在2-3%。 “AI芯片的生存空间将会越来越小。”企业家。 “要么你必须找到那些情况的边缘没有被技术巨头覆盖,或者你正在等待被收购。 “挑战巨头的生态壁垒,几乎不可能成功。”Groq的命运是AI芯片行业创新者的缩影,它拥有推翻GPU的技术,却没有能力摧毁CUDA生态。这背后的主要原因是生态壁垒的“锁定效应”——客户一旦接入CUDA生态,切换成本高达数千万美元,几乎不可能轻松迁移。这种生态国内GPU厂商也面临着同样的问题,虽然在兼容CUDA的软件栈上投入了大量资金,但华为Ascend在国内的崛起主要是通过其“芯云一体”的模式构建了内部闭环“小生态”,而不是打破了Nvidia的“创新者困境”。不是技术不好,而是生态不好。”业内分析人士指出,“未来,AI芯片的竞争将不再是单芯片的竞争,而是‘生态+场景+技术’的综合竞争。谁能发展自己的生态,谁就能真正立足。”尽管格局固化,但本次交易对AI行业的发展并非完全负面影响。最直接的好处是成本的大幅降低,将加速AI技术的普及。云计算开源产业联盟的一份报告显示,通过推理优化技术,长序列生成任务的吞吐量可提高30%-50%,初始代币延迟可降低30%-50%。成本降低40%-60%后,更多中小企业将能够部署人工智能应用,推动人工智能从“巨头专属”走向“千行百业”。“例如,零售行业的实时推荐、医疗行业的辅助分析、工业行业的预测性维护等场景,将因推理成本的降低而更快落地。同时,LPU的低时延、高能效特性将推动AI计算向边缘迁移。智能交通、工业质检、智慧农业等边缘场景的AI应用将迎来爆发性天气。”推进推理技术是AI赋能现实的重要一步。南开大学金融发展研究院院长田立辉指出,推理芯片将形成云、边、端立体共存格局,真正实现“AI赋能千行万业”。从训练到推理的过程。 Nvidia 与 Groq 的合作或许只是算力大战的一个插曲。未来3-5年,AI芯片产业将呈现三大趋势,也将创造新的机遇。未来,“GPU+LPU”的异构计算将成为主流。 GPU负责训练和复杂性计算,LPU等专用芯片负责逻辑和实时处理。两者协同工作,实现整个过程的高效计算。 NVIDIA已经开始推广这种做法,将LPU集成到“AI工厂”架构中,其他厂商也会效仿。 “异构计算是解决训练和推理需求差异的最佳方案。”业内专家预测,“到2028年,超过80%的AI数据中心将采用异构计算架构”。随着数据中心功耗限制越来越严格,能效比将成为AI芯片的主要竞争力。 Google TPU和Groq LPU的增加都得益于非常高的能效比。未来,芯片厂商竞争的焦点将从“算力”转向“每瓦算力”。低功耗、高能效的芯片将更加受到市场欢迎。适应不同情况的需求,“软件定义硬件”将成为新的发展方向。通过软件优化,最大化硬件性能,最小化客户适配成本。 NVIDIA的CUDA生态系统和Groq的编译器都是软件定义硬件的典型案例。未来,软件能力将成为芯片厂商的主要竞争力之一。尽管巨头垄断了核心市场,但边缘局势和垂直行业仍然存在新的机会。例如,工业界的边缘设备l 物联网需要低功耗AI芯片,医疗行业的诊断设备需要专用推理芯片。这些情况的需求是相当合适的,但巨头的范围还不够,初创公司还有生存空间。 “真正的颠覆从来不会从正面发起攻击,而是从巨人的视线中出现。”正如AWS当年并没有挑战IBM的大型机,而是以按需付费的云服务起家,最终颠覆了整个IT行业。下一个“Groq”可能正在悄悄打磨可以打破某些边缘场景中的生态障碍的技术。结论:200亿美元“招揽”Groq,是英伟达在理性时代捍卫算力王座的重要一步。它用金钱换时间,弥补技术缺陷,消除潜在威胁,规避反垄断风险。这堪称教科书级别的战略布局。但这场算力战争还远未结束噢,结束了。谷歌的TPU成本优势、AMD的兼容性攻势以及中国芯片企业的本土替代将继续挑战英伟达的霸主地位。首先,AI产业的发展总是充满不确定性。新的应用场景、新的技术路线可以催生新的颠覆者。对于整个AI行业来说,这笔交易是一把“双刃剑”:可以加剧巨头垄断,阻碍技术创新;但也能加速推理技术的普及,推动AI赋能千行百业。最终的走向取决于英伟达能否平衡商业利益和产业创新,以及行业中能否诞生新的生态颠覆者。站在2025年的时间节点,我们正在见证AI产业的历史性变革。 Nvidia与Groq的合作或许只是这一转型过程的一个注脚。但它清楚地告诉我们:算力战争的本质从来不是单芯片的竞争,而是生态、技术、态势的综合竞争。在这场永无休止的战争中,只有那些能够准确预测趋势、快速从挫折中恢复过来、持续构建生态系统的公司才能坐稳算力王座。 特别声明:以上内容(如有,包括照片或视频)由自媒体平台“网易号”用户上传发布。它给出了这个平台是否有信息存储服务。 注:以上内容(如有,包括照片和视频)由网易号用户上传发布,网易号为社交媒体平台,仅提供信息存储服务。
分享到