上周五,美股又诞生了一家市值万亿美元公司——博通。
截至收盘时,博通股价上涨24.43%,市值达到了1.05万亿美金,成为美股第9家,也是全球第12个破万亿美金市值的公司。
市值破亿,博通全靠画了一张900亿美元的“大饼”。
在财报电话会议上,公司CEO Hock Tan直言,预计到2027年公司的AI收入将达到600-900亿美元。这个口径还只是从现有3大客户拿到的收入规模。
博通CEO的自信,完全来自对ASIC的乐观。随着模型进化趋缓,叠加训练向推理迁徙超预期,让成本可控、供应链可控的ASIC登上了舞台。
在Hock Tan甚至认为,未来50%的AI算力都会是ASIC。
这可不得了!现在,英伟达在AI芯片领域的市占率80%。一旦结论成立,将彻底动摇英伟达在AI算力领域的统治地位。
今天就来聊聊,把博通推上万亿市值的ASIC,为什么突然一下子火了?
/ 01 /
一张900亿美元的“大饼”
其实这并不是Hock Tan第一次看好AISC。
根据自媒体“信息平权”报道,早在7月份的一次JPM的路演中,CEO Hock Tan曾宣称,“博通未来5年的AI收入机会是1500亿美金”。
同样在高盛组织的一次科技会议上,Hock Tan还放出话来,“未来50%的AI算力都会是ASIC,甚至云服务提供商内部自用100%都将是ASIC。”
也就是说,未来所有科技大厂的算力分配都会向谷歌看齐。
现在,谷歌自家业务用的算力全都来自自研芯片TPU,谷歌云服务才用的英伟达的GPU。按博通CEO的预测,未来所有的互联网大厂,自用都是博通的ASIC XPU,外用的则是采购英伟达的GPU。这样一来,ASIC就能与GPU在AI算力上平分天下了。
别看博通CEO说的挺唬人,但他的预测并非空穴来风。
由于英伟达的卡又贵有难拿,即使拿到了各家也拉不开差距,到后面直接被搞成军备竞赛,谁拥有的英伟达算力卡多,谁厉害。
这显然不是巨头们愿意看到的,自研芯片成了所有人的共同选择。
如今,科技巨头如亚马逊、微软、谷歌和Meta都在开发自家的AI芯片,一来降低对英伟达的依赖,二来试图在算力层面构建自己的成本优势。
但是,搞芯片实在太难了,这时候就需要来博通帮忙了。
博通就是帮科技巨头开发AI芯片的。可以说,从谷歌的第一代TPU至今,博通都参与了芯片的共同设计。
双方的合作模式是,谷歌自己来定义芯片,列出需求清单,博通利用自己经验丰富的IC设计团队以及资源庞大的IP来协助开发新款TPU,同时博通还负责流片。
从公司披露的信息来看,目前博通的AI收入中,大部分都来自谷歌的的TPU。根据国外券商的预测,2024年博通AI收入在120亿美元,其中谷歌TPU贡献了80亿美金,占比超过60%。
如果所有科技巨头的算力分配都参考谷歌的话,博通的AI业务想象空间巨大。
就拿Meta的自研芯片MTIA来说,按照之前的预期,Meta会在2025年贡献博通20-30亿美金的收入。考虑到MTIA支持的就是Meta推荐引擎,而这个替换GPU也才刚刚开始,后面三年增长10倍也并非全无可能。
ASIC的机会正在得到越来越多信息的验证。除了博通,Marvell也在干类似的业务。据说,微软已经找到Marvell谈ASIC合作,Marvell高管透露称:
微软给的机会比想象中还要大。
/ 02/
模型商品化与ASIC的崛起
微软等科技巨头加大ASIC上的投入,与其对模型判断的变化有关。
虽然投了OpenAI,但微软和OpenAI对模型价值的看法很不一样。今年以来,微软CEO纳德拉以及微软AI部门老大苏莱曼在不同场景都提到过一个观点:模型商品化。
简单来说,大模型正在变成一种通用商品,逐渐走向标准化和同质化。应用层才是大模型发展的重心,更多资源投入也应该放到推理上。
微软的观点正在得到验证。据Wind转引英伟达FY24Q4业绩会纪要,公司2024财年数据中心已经有40%的收入来自推理业务。推理场景的多样性,给ASIC带来了更多机会。
所谓ASIC,全称专用集成电路,一种更像是为特定任务量身定制的工具。
如果把GPU比作是多才多艺的多面手团队,那么ASIC就好比是给特定任务量身定制的“超级员工”,只专注做一件事,但做得又快又好。
比如你想挖矿,就有专门的挖矿芯片;你想拍照,就有专门的相机芯片。当年,比特币矿机用的就是专用ASIC芯片,成本低,处理速度也比GPU快几个数量级,性价比更高。
根据百度智能云报道,一般情况下,在线服务的GPU使用率不高,在20%左右,最高可提升至35%。由于ASIC专为特定任务设计,其算力利用率可能更高,谷歌TPU算力利用率可超过50%。
虽然ASIC在性能和效率上更胜一筹,但它的研发成本也相对较高。
ASIC芯片的设计和制造不仅需要大量资金、较长的时间周期和工程周期,还对算法稳定性要求极高。如果AI算法发生较大变化,那么根据之前算法设计的ASIC计算效率就会大幅下降。
所以,ASIC并不适合在模型快速迭代期大规模应用。
不过好在随着模型迭代速度越来越慢,AI算法向Transformer收敛,深度学习框架以PyTorch为主,ASIC公司完全可以根据Transformer的特性开发芯片,不用担心投入打了水漂。
总的来说,随着模型进化趋缓,叠加训练向推理迁徙超预期,让成本可控、供应链可控的ASIC登上了舞台。
有趣的是,英伟达也盯上了这块市场。据路透社与彭博2024年2月初报道,英伟达正在建立一个专注于为云计算、AI等领域设计ASIC专用芯片的新业务部门。
英伟达进军ASIC的原因有二:第一,占领新的市场。第二,保护自己免受替代。
不过话说回来,ASIC与GPU平分天下,甚至替代GPU,不仅是博通的美好幻想,也代表着科技巨头们的意志。他们从一开始就寻求英伟达之外的替代供应方案,只要外部环境出现变化,所有人都会去寻找更有效率的解决方案,以摆脱被动的局面。
无论ASIC最终是否成立,这种“意志”都会一直持续存在。比起芯片技术变化,这才是英伟达这座看似坚不可摧芯片帝国的最大裂缝。
文/林白