找回密码
 立即注册
搜索

全球算力需求高增,产业链如何掘金?

[复制链接]
xinwen.mobi 发表于 昨天 03:40 | 显示全部楼层 |阅读模式
全球算力需求正在暴涨,到处都在谈投资机会。不过,在“掘金”之前,咱得先把这事儿琢磨透了。现在建算力中心就跟以前的淘金热似的,但别忘了,卖铲子(即硬件)、铺路(基础设施)和搞管理(软件运维)的,往往比直接去挖金子的人更稳当。

一、搞AI基建,得先看懂这些趋势
现在全球都在抢AI算力,大公司砸钱一个比一个狠。从数据看,这个热潮还远没到头。

巨头猛砸钱,市场还在高速增长:光是美国几家科技巨头,2025年在AI基建上的支出就有约3800亿美元。华尔街预计,这笔钱到了2026年,可能还会再涨50% 左右。另外,市场普遍认为,这一轮AI基础设施的投资浪潮将持续到2030年,总规模可能高达3万亿至4万亿美元。

“国家队”也入场了:现在不只是企业在玩,很多国家都在搞“主权AI”,围绕算力的全球竞争已经是一个国家战略问题。全球主权AI相关投资已超过3000亿美元。

从“暴力计算”到“系统工程”:过去大家总想着把芯片算力拼命往上堆,现在这条路快到头了。现在拼的是整个系统的效率,光芯片快没用,还得看内存、网络、散热、供电这些东西能不能跟上。简单说,就是“算得快”不够了,得“算得省、算得准、算得绿”才行。比如,数据中心引入AI进行管理后,效率更高也更节能。

二、三大确定性强的“卖铲子”环节
顺着上面系统化的思路,在算力产业链里,有几个环节的需求特别明确,感觉就像是给别人送掘金工具一样,确定性更高。

存储芯片:给海量数据“修仓库”
大模型训练和推理会产生海量数据,存储需求急剧增长。AI数据中心相比传统数据中心,需要的硬盘(HDD)或固态硬盘(SSD)规模要大得多。

企业级存储:在超大规模AI数据中心里,需要天量级别的企业级高性能存储,比如企业级SSD、HDD和服务器内存。这让相关公司业绩和股价都出现了飙升。

HBM(高带宽内存):这是最受关注的细分赛道,和顶级AI芯片(GPU)强绑定。AI芯片每一代升级都需要更高性能的HBM来喂数据,导致其需求暴增,成为一个增长迅猛的独立赛道。

光互连与高速网络:让数据“跑高速”
光互连是让算力“高效率”的关键。当数据中心里成千上万的芯片要协同工作时,它们之间的通信速度和稳定性就成了瓶颈。

光模块与光交换设备:它们是数据中心内部和数据中心之间进行高速光通信的核心器件。像谷歌这样的巨头,已经在其TPU AI系统的数据中心网络里大规模使用了光路交换机(OCS)集群。有分析认为,光互连是谷歌与OpenAI这两大AI阵营对抗中的“最强受益主题”之一。

高速网络芯片与交换设备:为了实现芯片间的高速通信,800Gbps端口的交换芯片在2025年已全面量产,以满足大规模AI集群的需求。

先进封装与散热:给算力“保驾护航”
这两个环节是突破物理极限的关键,直接决定了系统能否稳定运行。

先进封装:比如台积电的CoWoS技术,它能把计算核心和HBM内存紧密地封装在一起,实现高性能。这种封装技术现在成了香饽饽,需求增长甚至超过了芯片制造本身。

散热技术:AI芯片功耗越来越高,英伟达的单张GPU功耗已从700瓦跳到1400瓦,未来可能突破2000瓦。传统的风冷跟不上了,液冷技术从“可选”变成了“强制”。液冷不仅能有效降温,还能配合余热回收,大幅降低数据中心的能耗(PUE)。

为了更直观地了解这些核心环节,可以参考下面的表格:








三、一张图看懂全局:除了硬件,还有更大格局
前面讲的是硬件“铲子”,但要看清整个算力产业链的“矿脉”在哪,得有更大的视野。下图揭示了算力从底层设施到顶层应用的全貌,以及其中的关键环节。

从上图可以看出,这个市场里,钱都被谁赚走了,一目了然。

最赚钱的象限(右上角):这是技术壁垒最高、价值最集中的领域,比如AI芯片(GPU/ASIC)的设计、芯片的先进制造。英伟达和台积电就是典型代表。但这里玩家少,门槛极高,普通人很难直接参与。

高成长性环节(右侧区域):这是我们前面重点分析的“铲子”环节,包括先进封装、HBM、光互连、液冷等。它们技术门槛高,是当前系统性能的瓶颈,需求刚性强,是产业链上最具确定性的投资方向。

基础保障层(中下部):包括通用服务器、数据中心(IDC)建设与运维等。这部分市场巨大且必不可少,是算力的“底座”。但在技术门槛和附加值上相对较低,竞争也更激烈,更依赖于规模和管理效率。

四、想赚钱?这些新机会值得琢磨
除了上面那些“铲子”,整个行业还在往更深处演变,催生出一些新机会:

专门搞“推理”的芯片火了:AI分为“训练”和“推理”(部署使用)两个阶段。以前英伟达的芯片在训练上无敌,但现在推理的需求占比越来越高。推理讲求成本低、效率高、功耗低,这催生了对专用推理芯片(ASIC)的需求。谷歌的TPU、亚马逊的Inferentia都是这个思路。这个市场正在快速增长,而且可能不会像训练市场那样被一家公司垄断。

软件和系统协同是潜力股:硬件堆上去后,怎么让它们高效协同工作就成了关键。这包括集群的调度软件、能融合传统科学计算和AI训练的工作流平台等。甚至有观点认为,算力竞争已经从芯片性能的单点突破,转向了“算、存、网、电、冷”等多维度协同的系统工程。谁能提供好的系统级解决方案,谁就能吃到下一波红利。

国内生态的独特机会:在全球供应链存在不确定性的大背景下,推动国产算力发展变得尤为重要。国内正在构建从硬件到软件的自主生态,并首次在千亿级参数的大模型训练中得到了成功验证。这为国产芯片、服务器、软件和服务带来了独特的成长空间和市场机遇。

所以,总的来说,在全球算力需求大爆发的背景下,最稳妥的“掘金”思路,不是自己去挖矿,而是去服务那些挖矿的人。优先关注存储、高速连接、先进封装和散热这些强需求的“卖水人”环节,同时留心推理芯片、系统软件和国产替代这些正在崛起的新方向,或许能看得更清楚,也走得更稳。

回复

使用道具 举报

QQ|周边二手车|手机版|标签|新闻魔笔科技XinWen.MoBi - 海量语音新闻! ( 粤ICP备2024355322号-1|粤公网安备44090202001230号 )

GMT+8, 2025-12-27 04:44 , Processed in 0.057621 second(s), 19 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表