1月19日的美股市场上,英伟达股价大涨4.17%,再创历史新高,股价逼近600美元。消息面上,社交媒体巨头Meta首席执行官扎克伯格宣布,Meta正在计划构建自己的AGI,即能够在绝大多数领域中都达到或超越人类智能水平的AI。为了搭建能够支持AGI愿景的基础设施,Meta计划在今年年底前获得约35万块来自英伟达的H100 GPU。
而最近三个月,通用人工智能的能量开始从软件向PC 等硬件产业下游传导。阿斯麦、英特尔、高通股价涨幅逼近50%, 而AMD 股价涨幅更是高达86%。仅美东时间1 月24 日,阿斯麦股价大涨近9%,AMD涨近6%。近3 个月这5 家芯片公司总市值共增加了8422 亿美元,约合人民币60293 亿元。
|押注AIPC 芯片,巨头市值暴涨6 万亿
AI芯片是AIGC 的算力底座,在AIPC 大规模推向市场之前,头部芯片厂商已经开启了AI 芯片研发的" 军备赛"。
AIPC首先要具备本地化运行大模型的能力,这就意味着电脑的核心芯片要有大算力NPU (嵌入式神经网络处理器)能力。有行业人士预测,整体算力达到45TOPS(处理器每秒钟可进行45 万亿次操作)及以上可以顺利在本地运行生成式AI LLM(大型语言模型)。
为抢占AIPC 的风口,高通先于英特尔在2023 骁龙峰会上推出为AIPC 设计的骁龙X 平台—— "骁龙 X Elite",搭载骁龙 X Elite 的 PC 预计在2024 年中上市。
据公开资料显示,骁龙X Elite 采用全新的设计,集成Oryon CPU、Adreno GPU、Hexagon NPU,不仅性能与能效升级,还具备更强的AI 特性。"Oryon CPU 是高通在兼容 ARM指令集的前提下完全重构,并非ARM 公版Cortex CPU 魔改。"高通公司总裁兼 CEO安蒙表示。
高通在AIPC 芯片领域的布局直接刺激了股价走势。高通总市值从2023 年 10月 25 日的1167 亿美元,迅速攀升至2024 年 1月 24 日的1724 亿美元,涨幅47.71%。
高通推出骁龙X Elite 立马引起了英特尔的警觉,毕竟,从1981 年 IBM公司推出搭载 8086处理器(基于英特尔X86 架构)的个人计算机起,X86架构已经统治 PC行业 40 多年。
2023年 12 月14 日,英特尔推出全新酷睿Ultra 移动处理器和第五代至强(Xeon)可扩展处理器,并展示了英特尔AI 加速器Gaudi3。酷睿处理器"CPU+NPU+GPU" 相互协作的架构或成为未来AI PC 算力基座。
据公开资料显示,头部PC 厂商例如联想小新Pro、戴尔 XPS系列、华硕 ASUS NUC 14 Pro 系列均搭载最新的英特尔酷睿Ultra 处理器。受此影响,英特尔总市值在3 个月里增加了686 亿美元,涨幅49.53%。
|享受到AIPC 产业进化红利的还有AMD
过去很长一段时间内,AMD都生存在英特尔的阴影之下,直至2022 年 2月 15 日AMD 完成对FPGA 龙头赛灵思的收购。受此影响,成立53 年的 AMD首次在市值上超越英特尔。
而在此轮AIPC 产业化进程中,AMD在 3个月里的总市值涨幅最大。从2023 年 10月 25 日的1551 亿美元涨至2024 年 1月 24 日的2880 亿美元,3个月涨幅 86%。
AMD受资本青睐的原因之一是,其在AI 芯片的布局和落地。AMD首次将专用 AI神经处理单元 ( NPU ) 引入台式电脑处理器,为从云到边缘到终端用户设备的生成AI 提供动力支持。AMD推出的 Ryzen8040系列、Ryzen8000G系列和 Radeon RX 7600 XT 处理器新品,能将NPU 能力提升60%。
据公开资料显示,锐龙8040 系列处理器已经开始出货,联想、宏碁、华硕、戴尔、惠普等PC 厂商预计将从2024 年第一季度开始供应Ryzen 8040 系列产品。眼见AIPC 将成为主流PC 产品,稳坐GPU 霸主位置的英伟达肯定不会错过这个风口。
|算力计算的“高地”
上周,Meta首席执行官扎克伯格宣布,到2024年底Meta将拥有35万块H100,拥有近60万个GPU等效算力。
35万块H100,是个什么概念呢?众所周知,训练大模型往往是最花费算力的阶段。OpenAI训练GPT-4,用了大约25000块A100 GPU。作为A100的升级版,据Lambda 测算,H100的训练吞吐量为A100的160%。也就是说,届时Meta拥有的算力是训练GPT-4所用算力的20倍以上。
买这么多算力,扎克伯格自然也花了大价钱。目前,一块英伟达H100售价为2.5万至3万美元,按3万美元计算,意味着小扎的公司仅购买算力就需要支付约105亿美元,更不用说电费了。
而这些算力很大部分将用于训练“Llama 3”大模型。扎克伯格表示,Meta将负责任地、安全地训练未来模型的路线图。在打算力主意的不止是小扎,还有OpenAI的奥特曼。同样是上周爆出的消息,OpenAI CEO奥特曼正在筹集数十亿美元,建立一个全球性的AI芯片工厂网络。
目前,他正在和多家潜在的大型投资者进行谈判,包括总部设在阿布扎比的G42和软银集团。根据彭博社的报道,仅在OpenAI与G42的谈判中,涉及金额就接近80亿到100亿美元。
不过与小扎准备打富裕仗不同,奥特曼亲自下场制造AI芯片,更多是一种无奈。据外媒报道,这一事件背后的原因很可能就是,OpenAI已经无「芯」训练「GPT-5」了。此前,奥特曼表示,OpenAI已经严重受到GPU限制,不得不推迟了众多短期计划(微调、专用容量、32k上下文窗口、多模态),甚至还一度影响到了API的可靠性和速度。
除了自己造芯外,OpenAI也在尝试通过其他方式来获得更低成本的算力。去年,就有媒体爆出,OpenAI从一家名为Rain AI 的初创公司提前订购价值5100 万美元的“神经形态”类脑人工智能芯片,于2024年10月开始供货。当然,有自己下场造芯的可不止OpenAI一家,甚至进度快的微软、谷歌已经将自研芯片用到大模型上了。
竞泰观点|高性能芯片需求将持续旺盛
大模型对算力的需求持续增长目前供给端仍未完全满足需求,2024年算力芯片有望持续迭代,量价齐升,GPU、云厂商自研AI专用芯片都有望获得发展。光模块核心发展趋势包括高速、低成本低功耗(LPOCPO、硅光集成)等。头部光模块厂商有望凭借自身的研发与客户优势充分享受AI驱动下的行业利好。
美媒信息,美国芯片厂商AMD、Nvidia 收到美国总部通知,对中国区客户断供GPU 芯片, 断供的芯片类型主要为 AMD数据中心MI 100 和MI200 以及Nvidia 数据中心GPU A100 和H100,从断供的类型上看,均为高端GPU 芯片,这与美国对GAA 的EDA工具对中国实施断供的思路基本一致,均是对最先进制程和工艺的产品进行限制。
从下游应用来看,上述芯片多用于HPC 高性能计算, 以及在 AI算法上相关的训练场景,例如:自动驾驶和模拟仿真领域。