中国大公司竞逐GPU

2023-07-04 11:57张家豪
财经 2023年13期
关键词:算力字节阿里

张家豪

从CPU到GPU,字节采购量的变化,也反映了如今大型科技公司的计算需求中,智能计算对通用计算的赶超。图/视觉中国

2022年下半年,生成式AI爆火的同时,硅谷著名风险资本a16z走访了数十家AI创业公司和大科技公司。其发现,创业公司转手就把80%-90%的早期融资款送给了云计算平台,以训练自己的模型。其估算,即便这些公司的产品成熟了,每年也得把10%-20%的营收送给云计算公司,相当于一笔“AI税”。

这带来了在云上提供模型能力和训练服务,把算力租给其他客户和创业公司的大市场。仅在国内,现在就至少有数十家创业公司和中小公司在自制复杂大语言模型,它们都得从云计算平台租GPU(Graphics Processing Unit,图形处理器)。据a16z测算,一个公司一年的AI运算开支只有超过5000万美元,才有足够的规模效应支撑自己批量采购GPU。

据了解,今年春节后,拥有云计算业务的中国各互联网大公司都向英伟达下了大单。字节今年向英伟达订购了超过10亿美元的GPU,另一家大公司的订单也至少超过10亿元人民币。

仅字节一家公司今年的订单可能已接近英伟达去年在中国销售的商用GPU总和。去年9月,美国政府发布对A100、H100(英伟达最新两代数据中心商用GPU)的出口限制时,英伟达曾回应称这可能影响去年四季度其在中国市场的4亿美元(约合28亿元人民币)潜在销售。以此推算,2022年全年英伟达数据中心GPU在中国的销售额约为100亿元人民币。

相比海外巨头,中国大科技公司采购GPU更为急迫。过去两年的降本增效中,一些云计算平台减少了GPU采购,储备不足。此外,谁也不敢保证,今天能买的高性能GPU,明天会不会就受到新的限制。

从砍单到加购,同时内部腾挪

今年初之前,中国大型科技公司对GPU的需求还不温不火。

GPU在中国大型互联网科技公司中主要有两个用途:一是对内支持业务和做一些前沿AI研究,二是把GPU放到云计算平台上对外售卖。

一名字节人士告诉《财经》记者,2020年6月OpenAI发布GPT-3后,字节就曾训练了一个数十亿参数的生成式语言大模型,当时主要使用的GPU是A100前代产品V100。由于参数规模有限,这个模型生成能力一般,字节当时看不到它的商业化可能性,“ROI(投资回报率)算不过来”,这次尝试不了了之。

阿里也曾在2018年-2019年积极采购GPU。一位阿里云人士称,当时阿里的采购量至少达到上万块规模,购买的型号主要是V100和英伟达更早前发布的T4。不过这批GPU中只有约十分之一给到了达摩院用作AI技术研发。2021年发布万亿参数大模型M6后,达摩院曾披露训练M6使用了480块V100。

阿里当时购买的GPU,更多给到了阿里云用于对外租赁。但包括阿里云在内,一批中国云计算公司都高估了中国市场的AI需求。一位科技投资人称,大模型热潮之前,国内主要云厂商上的GPU算力不是紧缺,而是愁卖,云厂商甚至得降价卖资源。去年阿里云先后降价六次,GPU租用价下降超两成。

在降本增效,追求“有质量的增长”与利润的背景下,据了解,阿里在2020年之后收缩了GPU采购规模,腾讯也在去年底砍单一批英伟达GPU。

然而没过多久后的2022年初,ChatGPT改变了所有人的看法,共识很快达成:大模型是不容错过的大机会。

各公司创始人亲自关注大模型进展:字节跳动创始人张一鸣开始看人工智能论文;阿里巴巴董事局主席张勇接手阿里云,在阿里云峰会发布阿里大模型进展时称,“所有行业、应用、软件、服务,都值得基于大模型能力重做一遍”。

一名字节人士称,过去在字节内部申请采购GPU时,要说明投入产出比、业务优先级和重要性。而现在大模型业务是公司战略级别新业务,暂时算不清ROI也必须投入。

研发自己的通用大模型只是第一步,各公司的更大目标是推出提供大模型能力的云服务,这是真正可以匹配投入的大市场。

微软的云服务Azure在中国云计算市场本没有太强存在感,入华十年来主要服务跨国公司的中国业务。但现在客户得排队等待,因为它是OpenAI商业化的唯一云代理商。

阿里在4月的云峰会上再次强调MaaS(模型即服务)是未来云计算趋势,在开放自研的通用基础模型“通义千问”测试之外,还发布了一系列帮助客户在云上训练、使用大模型的工具。不久后腾讯和字节火山引擎也先后发布自己的新版训练集群服务。腾讯称用新一代集群训练万亿参数的混元大模型,时间可被压缩到四天;字节称它们的新集群支持万卡级大模型训练,国内数十家做大模型的企业,多数已在使用火山引擎。

所有这些平台使用的要么是英伟达A100、H100GPU,要么是去年禁令后英伟达专门推出的减配版A800、H800,这两款处理器带宽分别是原版的约四分之三和约一半,避开了高性能GPU的限制标准。

围绕H800和A800,中國科技大公司开始了新一轮下单竞争。

一名云厂商人士称,字节、阿里等大公司主要是和英伟达原厂直接谈采购,代理商和二手市场难以满足它们的庞大需求。

英伟达会按目录价,根据采购规模谈一个折扣。据英伟达官网,A100售价为1万美元/块(约7.1万元人民币),H100售价为3.6万美元/块(约25.7万元人民币);据了解,A800和H800售价略低于原版。

中国公司能否抢到卡,更多是看商业关系,比如以往是不是英伟达的大客户。“你是和中国英伟达谈,还是去美国找老黄(黄仁勋,英伟达创始人、CEO)直接谈,都有差别。”一位云厂商人士说。

部分公司也会和英伟达进行“业务合作”,在购买抢手的数据中心GPU时,也购买其他产品,以争取优先供应。这就像爱马仕的配货,如果你想买到热门的包,往往也得搭配几万元的衣服、鞋履。

综合我们获得的行业信息,字节今年的新下单动作相对激进,超过10亿美元级别。

一位接近英伟达的人士称,字节到货和没到货的A100与H800总计有10万块。其中H800今年3月才开始投产,这部分芯片应来自今年的加购。据了解,以现在的排产进度,部分H800要到今年底才能交货。

字节跳动2017年开始建设自己的数据中心。曾经的数据中心更依赖适应所有计算的CPU,直到2020年,字节采购英特尔CPU的金额还高于英伟达GPU。字节采购量的变化,也反映了如今大型科技公司的计算需求中,智能计算对通用计算的赶超。

据了解,某互联网大厂今年至少已给英伟达下了万卡级别订单,按目录价估算价值超10亿元人民币。

腾讯则率先宣布已用上H800,腾讯云在今年3月发布的新版高性能计算服务中已使用了H800,并称这是国内首发。目前这一服务已对企业客户开放测试申请,这快于大部分中国公司的进度。

据了解,阿里云也在今年5月对内提出把“智算战役”作为今年的头号战役,并设立三大目标:机器规模、客户规模和营收规模;其中机器规模的重要指标就是GPU数量。

新的GPU到货前,各公司也在通过内部腾挪,优先支持大模型研发。

能一次释放较多资源的做法是砍掉一些没那么重要,或短期看不到明确前景的方向。“大公司有好多半死不活的业务占着资源。”一位互联网大公司AI从业者说。

今年5月,阿里达摩院裁撤自动驾驶实验室:300多名员工中,约三分之一划归菜鸟技术团队,其余被裁,达摩院不再保留自动驾驶业务。研发自动驾驶也需要用高性能GPU做训练。这一调整可能与大模型无直接关系,但确实让阿里获得了一批“自由GPU”。

字节和美团,则直接从给公司带来广告收入的商业化技术团队那里匀GPU。

据《财经》记者了解,今年春节后不久,字节把一批原计划新增给字节商业化技术团队的A100匀给了TikTok产品技术负责人朱文佳。朱文佳正在领导字节大模型研发。而商业化技术团队是支持抖音广告推荐算法的核心业务部门。

美团在今年一季度左右开始开发大模型。据了解,美团不久前从多个部门调走了一批80G显存顶配版A100,优先供给大模型,让这些部门改用配置更低的GPU。

财力远不如大平台充裕的B站对大模型也有规划。据了解,B站此前已储备了数百块GPU。今年,B站一方面持续加购GPU,一方面也在协调各部门匀卡给大模型。“有的部门给10块,有的部门给20块。”一位接近B站的人士称。

字节、美团、B站等互联网公司,原本支持搜索、推荐的技术部门一般会有一些GPU资源冗余,在不伤害原有业务的前提下,它们现在都在“把算力水分挤出来”。

不过这种拆东补西的做法能获得的GPU数量有限,训练大模型所需的大头GPU还是得靠各公司过去的积累和等待新GPU到货。

全世界都在抢算力

对英伟达数据中心GPU的竞赛也发生在全球范围。不过海外巨头大量购买GPU更早,采购量更大,近年的投资相对连续。

2022年,Meta和甲骨文就已有对A100的大投入。Meta在去年1月与英伟达合作建成RSC超级计算集群,它包含1.6万块A100。同年11月,甲骨文宣布购买数万块A100和H100搭建新计算中心。现在该计算中心已部署了超3.27万块A100,并陆续上线新的H100。

微软自从2019年第一次投资OpenAI以来,已为OpenAI提供数万块GPU。今年3月,微软又宣布已帮助OpenAI建设了一个新计算中心,其中包括数万块A100。Google在今年5月推出了一个拥有2.6万块H100的计算集群Compute EngineA3,服务想自己训练大模型的公司。

中国大公司现在的动作和心态都比海外巨头更急迫。以百度为例,它今年向英伟达新下的GPU订单高达上万块。数量级与Google等公司相当,虽然百度的体量小得多,其去年营收为1236亿元人民币,只有Google的6%。

据了解,字节、腾讯、阿里、百度这四家中国投入AI和云计算最多的科技公司,過去A100的积累都达到上万块。其中字节的A100绝对数最多。不算今年的新增订单,字节A100和前代产品V100总数接近10万块。

成长期公司中,商汤今年也宣称,其“AI大装置”计算集群中已总共部署了2.7万块GPU,其中有1万块A100。连看似和AI不搭边的量化投资公司幻方之前也购买了1万块A100。

仅看总数,这些GPU供各公司训练大模型似乎绰绰有余——据英伟达官网案例,OpenAI训练1750亿参数的GPT-3时用了1万块V100,训练时长未公开;英伟达测算,如果用A100来训练GPT-3,需要1024块A100训练一个月,A100相比V100有4.3倍性能提升。但中国大公司过去采购的大量GPU要支撑现有业务,或放在云计算平台上售卖,并不能自由地用于大模型开发和对外支持客户的大模型需求。

这也解释了中国AI从业者对算力资源估算的巨大差别。清华智能产业研究院院长张亚勤4月底参加清华论坛时说,“如果把中国的算力加1块,相当于50万块A100,训练五个模型没问题。”AI公司旷视科技CEO(首席执行官)印奇接受《财新》采访时则说:中国目前可用作大模型训练的A100总共只有约4万块。

主要反映对芯片、服务器和数据中心等固定资产投资的资本开支,可以直观说明中外大公司计算资源的数量级差距。

最早开始测试类ChatGPT产品的百度,2020年以来的年资本开支在8亿到20亿美元之间,阿里在60亿-80亿美元之间,腾讯在70亿-110亿美元之间。同期,亚马逊、Meta、Google、微软这四家自建数据中心的美国科技公司的年资本开支最少均超过150亿美元。

疫情三年中,海外公司资本开支继续上涨。亚马逊去年的资本开支已来到580亿美元,Meta、Google均为314亿美元,微软接近240亿美元。中国公司的投资在2021年之后则在收缩。腾讯、百度去年的资本开支均同比下滑超25%。

训练大模型的GPU已不算充足,各家中国公司如果真的要长期投入大模型,并赚到给其他模型需求“卖铲子”的钱,未来还需要持续增加GPU资源。

走得更快OpenAI已遇到了这一挑战。5月中旬,OpenAI CEO Sam Altman在与一群开发者的小范围交流中说,由于GPU不够,OpenAI现在的API服务不够稳定,速度也不够快,在有更多GPU前,GPT-4的多模态能力还无法拓展给每个用户,他们近期也不准备发布新的消费级产品。技术咨询机构Trend Force今年6月发布报告称,OpenAI需要约3万块A100来持续优化和商业化Chat GPT。

与OpenAI合作颇深的微软也面临类似情境:今年5月,有用户吐槽New Bing回答速度变慢,微软回应,这是因为GPU补充速度跟不上用户增长速度。嵌入了大模型能力的微软Office 365 Copilot目前也没有大规模开放,最新数字是有600多家企业在试用——Office 365的全球总用户数接近3亿。

中国大公司如果不是仅把训练并发布一个大模型作为目标,而是真想用大模型创造服务更多用户的产品,并进一步支持其他客户在云上训练更多大模型,就需要提前储备更多GPU。

为什么只能是那四款卡?

在AI大模型训练上,现在A100、H100及其特供中国的减配版A800、H800找不到替代品。据量化对冲基金Khaveen Investments测算,英伟达数据中心GPU

2022年市占率达88%,AMD和英特尔瓜分剩下的部分。

2020年GTC大会上,黄仁勋携A100第一次亮相。

英伟达GPU目前的不可替代性,源自大模型的训练机制,其核心步骤是预训练(pre-training)和微调(fine-tuning),前者是打基座,相当于接受通识教育至大学毕业;后者则是针对具体场景和任务做优化,以提升工作表现。

预训练环节尤其消耗算力,它对单个GPU的性能和多卡间的数据传输能力有极高要求。

现在只有A100、H100能提供预训练所需的计算效率,它们看起来昂贵,反倒是最低廉的选择。今天AI还在商用早期,成本直接影响一个服务是否可用。

过去的一些模型,如能识别猫是猫的VGG16,参数量只有1.3亿,当时一些公司会用玩游戏的RTX系列消费级显卡来跑AI模型。而两年多前发布的GPT-3的参数规模已达到1750亿。

大模型的庞大计算需求下,用更多低性能GPU共同组成算力已行不通了。因为使用多个GPU训练时,需要在芯片与芯片间传输数据、同步参数信息,这时部分GPU会闲置,无法一直饱和工作。所以单卡性能越低,使用的卡越多,算力损耗就越大。OpenAI用1万块V100训练GPT-3时的算力利用率不到50%。

A100、H100则既有单卡高算力,又有提升卡间数据传输的高带宽。A100的FP32(指用4字节进行编码存储的计算)算力达到19.5TFLOPS(1TFLOPS即每秒进行一万亿次浮点运算),H100的FP32算力更高达134TFLOPS,是竞品AMD MI250的约4倍。

A100、H100还提供高效数据传输能力,尽可能减少算力闲置。英伟达的独家秘籍是自2014年起陆续推出的NVLink、NVSwitch等通信协议技术。用在H100上的第四代NVLink可将同一服务器内的GPU双向通信带宽提升至900GB/s(每秒传输900GB数据),是最新一代PCle(一种点对点高速串行传输标准)的7倍多。

去年美国商务部对GPU的出口规定也正是卡在算力和带宽这两条线上:算力上线为4800TOPS,带宽上线为600GB/s。

A800和H800算力和原版相当,但带宽打折。A800的带宽从A100的600GB/s

降为400GB/s,H800的具体参数尚未公开,据媒体报道,它的带宽只有H100(900GB/s)的约一半,执行同样的AI任务时,H800会比H100多花10%-30%的时间。一名AI工程师推测,H800的训练效果可能还不如A100,但更贵。

即使如此,A800和H800的性能依然超过其他大公司和创业公司的同类产品。受限于性能和更专用的架构,各公司推出的AI芯片或GPU芯片,现在主要用来做AI推理,难以胜任大模型预训练。简单来说,AI训练是做出模型,AI推理是使用模型,训练对芯片性能要求更高。

性能差距外,英伟达的更深护城河是软件生态。

早在2006年,英伟达就推出计算平台CUDA,它是一个并行计算软件引擎,开发者可使用CUDA更高效地进行AI训练和推理,用好GPU算力。

CUDA今天已成为AI基础设施,主流的AI框架、庫、工具都以CUDA为基础进行开发。

英伟达之外的GPU和AI芯片如要接入CUDA,需要自己提供适配软件,但只有CUDA部分性能,更新迭代也更慢。PyTorch等AI框架正试图打破CUDA的软件生态垄断,提供更多软件能力以支持其他厂商的GPU,但这对开发者吸引力有限。

一位AI从业者称,他所在的公司曾接触一家非英伟达GPU厂商,对方的芯片和服务报价比英伟达更低,也承诺提供更及时的服务,但他们判断,使用其他GPU的整体训练和开发成本会高于英伟达,还得承担结果的不确定性和花更多时间。

“虽然A100价格贵,但其实用起来是最便宜的。”他说。对有意抓住大模型机会的大型科技公司和头部创业公司来说,钱往往不是问题,时间才是更宝贵的资源。

短期内唯一影响英伟达数据中心GPU销量的可能只有台积电的产能。H100/800为4nm制程,A100/800为7nm制程,这四款芯片均由台积电代工生产。据媒体报道,英伟达今年向台积电新增了1万块数据中心GPU订单,并下了超急件,生产时间最多可缩短50%。正常情况下,台积电生产A100需要数月。目前的生产瓶颈主要在先进封装产能不够,缺口达一至两成,需要3个-6个月逐步提升。

自从适用于并行计算的GPU被引入深度学习,十多年来,AI发展的动力就是硬件与软件,GPU算力与模型和算法的交叠向前:模型发展拉动算力需求;算力增长,又使原本难以企及的更大规模训练成为可能。

在上一波以图像识别为代表的深度学习热潮中,中国AI软件能力比肩全球最前沿水平;算力是目前的难点——设计与制造芯片需要更长的积累,涉及漫长供应链和浩繁专利壁垒。

大模型是模型与算法层的又一次大进展,没时间慢慢来了,想做大模型,或提供大模型云计算能力的公司必须尽快获得足够多的先进算力。在这轮热潮使第一批公司振奋或失望前,围绕GPU的抢夺不会停止。

猜你喜欢
算力字节阿里
基于网络5.0的重叠网形态算力网络
卫星通信在算力网络中的应用研究
中国电信董事长柯瑞文:算力成为数字经济的主要生产力
No.8 字节跳动将推出独立出口电商APP
基于SiteAI算力终端的交通态势感知系统
云上阿里
辰辰带你游阿里
No.10 “字节跳动手机”要来了?
简谈MC7字节码
阿里战略