> 自媒体 > (AI)人工智能 > ChatGPT爆火带动云基建,以太网芯片/光模块闷声发大财?
ChatGPT爆火带动云基建,以太网芯片/光模块闷声发大财?
来源:核芯产业观察
2023-04-10 10:36:40
197
管理

电子发烧友网报道(文/吴子鹏)近日,裕太微董秘和投资者在投资者关系平台上的对话引起了关注。其中,有投资者在提出问题:“ChatGPT对算力需求几何式增长,博通预计以太网今年需求有多倍增长,公司如何看待?”对于这个问题,裕太微董秘并没有正面回答,不过以太网芯片在AI新阶段的重要作用还是得到了大家的认可。

博通CEO陈福阳此前表示:“用于人工智能应用的以太网设备销售额可能从去年的2亿美元上升到今年的超过8亿美元,因为大型云计算公司在日益采用ChatGPT等文本生成工具的情况下需要这些设备。”并且,他在该公司业绩说明会上还指出,已经遇到云计算客户急于向该公司购买产品的情况。

在大家都关注算力芯片的情况下,作为AI模型架构中的重要一环,以以太网交换芯片为代表的网络传输芯片在闷声发大财。

AI大模型带来巨大的网络需求

当前,在讨论ChatGPT等大模型时,更多是谈论算力芯片,当然基本就是英伟达的通用算力GPU。不过,大模型真的要落地到应用端,那么就需要把训练完的模型部署到数据中心里面或者算力中心里面,并连接至网络给用户使用。当然,并不是说AI大模型训练不需要网络设施,实际上其也需要网络基座,用以连接各个GPU算力集群。

根据此前的报道,面向AI大模型训练需求,腾讯推出了业界领先的超算网络架构——星脉。这是一种追求极致网络性能的网络架构,构建了1.6T ETH RDMA网络,实现了AI大模型通信性能的10倍提升,GPU利用率40%提升,通信时延降低40%,单集群规模达到2K(最大规模32K),基于全自研网络硬件平台网络建设成本降低30%,模型训练成本节省30%~60%。

中金公司在相关研报中指出,AI大模型训练采用的分布式算力是以“多机多卡”形式部署的,多GPU并行计算使得服务器节点增加,涉及到海量数据在GPU之间、GPU与CPU等单元间的传输,因此带来了巨大的网络通信挑战。

根据SuperPOD的公开信息,一个标准的SuperPOD由140台DGX A100 GPU服务器、HDR InfiniBand 200G网卡和170台NVIDIA Quantum QM8790交换机构建而成,其中交换机速率为200G,每个端口数为40个。

因此,AI大模型无论是训练还是部署也会带来巨大的光模块需求,在SuperPOD中,服务器和光模块的用量比大概会是1:11.4。并且,从SuperPOD的部署也能够看出,后续大算力中心和顶级数据中心的网络规格会是100G以上的端口速率,当前200G是主流方案。从2023年开始预计400G将逐渐成为主流,800G交换机可能会陆续得到商用机会。

在市场规模上,MRFR(Market Research Future)报告指出,到2030年全球以太网交换机市场将达到68亿美元,2022年-2030年期间的年复合增长率为6.30%。从器件角度来看,两种器件的重要性显著提升,一个是更大吞吐量的网络芯片,一个是更高速率的光模块。

首先看以太网交换芯片——指在以太网交换机中用于交换处理大量数据及报文转发的专用芯片,相当于交换机处理网络传输的ASIC。由于AI大模型在训练和部署时对交换机需求提升,因此交换芯片的用量也将增加,这也是博通预计业绩倍增的原因所在。

然后看光模块——被认为是AI算力设施中核心的网络设备。目前,以太网交换机主要采用带光模块的光纤连接网络,其中每根光纤会用到两个光模块,而一台交换机上会有数十个网络接口,因此需求量是非常惊人的。

国产厂商的竞争力

借助ChatGPT带动的AI大模型爆发,博通在以太网交换芯片方面的营收将翻倍,这主要归功于该公司在这一领域持续的投入和技术积累,该公司一直以来都在关注数据中心和算力中心的网络传输。当然,大家肯定也清楚,网络通信芯片是博通的强势项目。

在ChatGPT爆发之前,博通就在meta的数据中心提供了极具竞争力的以太网交换芯片——Tomahawk4,产品阵营包括Tomahawk4-50G、Tomahawk4-100G 和 Tomahawk4-12.8T,能够帮助交换机适配200G、400G和800G光纤。

根据共研产业咨询的研报,在中国商用以太网交换市场,博通的市占比高达61.7%,排名市场首位;美满电子和瑞昱则分别以20%和16.1%排名二三位;其他厂商的合计份额不足3%。因此,在以太网交换芯片方面,目前国产厂商的市占比还较低。

在国产以太网交换芯片方面,华为和中兴等企业走自研的路线。在商用市场,盛科和裕太微电子是为数不多的可选项,其中盛科在国内的市占比大概在1.6%。

盛科于2019年推出以太网交换芯片TsingMa系列,具备440Gbps 交换容量,可支持100G网络端口;2021 年又推出了以太网交换芯片TsingMa.MX 系列,达到2.4Tbps 交换容量,可支持400G网络端口。

裕太微目前产品包括以太网车载芯片、以太网交换芯片、以太网网卡芯片等,不过该公司距离入局核心市场还有一段距离。根据该公司此前在投资者平台透露的信息,目前10G速率尚处于技术预研阶段。

和以太网交换芯片不同,国产厂商在光模块方面具有很强的竞争力。其中,中际旭创是全球光模块的龙头企业,2021年市占比为全球第二,份额为10%,该公司在400G和200G产品份额领先,在800G方面有很强的技术优势。meta、谷歌和亚马逊等公司都是中际旭创的客户。

此外,在光模块方面,国产厂商还有天孚通信、新易盛、源杰科技、华工科技、联特科技、光迅科技、兆龙互连、仕佳光子等公司。目前,国产光模块公司合计市占比接近30%,有很强的竞争力。

后记

对于AI大模型而言,算力的重要性肯定是第一位的。不过,在算力背后并非只是计算芯片在做贡献,网络传输也非常重要。随着超算中心GPU集群规模逐渐扩大,高效传输的重要性也会逐渐提升,在以太网交换芯片和光模块等方面带来巨大的需求。目前,以太网交换芯片还是国产芯片的短板,和博通存在明显的技术代差。不过,从产业应用来看,并不构成卡脖子,但在800G上我们需要尽快突破。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
华为版ChatGPT要来了?余承东“剧透”鸿蒙4.0:或搭载AI大模型..
《科创板日报》8月2日讯(编辑 郑远方)HarmonyOS4(鸿蒙4.0)即将于8月4..
ChatGPT风口下,深圳如何打造人工智能发展高地?
今年以来,ChatGPT的热潮席卷全球,搅动了人工智能领域的一池春水。5月23..
紧随其后!中国版ChatGPT来了,国内第一个对话式型语言模型诞生..
中国版ChatGPT终于来了,而且还不止一个。这段时间,ChatGPT的风头正劲,..
53岁女子出轨27岁男子聊天记录不堪入目,网友辣评:真是丢死人..
在阅读此文之前,麻烦您点击一下“关注”,既方便您进行讨论和分享,还可..
六大学术利器!平替ChatGPT4.0!
以下这些工具可以帮助你克服撰写论文过程中的挑战!无论是撰写内容、纠正..
GPT-4:我写的代码你敢用吗?研究表明其API误用率超过62%..
机器之心报道编辑:Panda W现在,已经有不少软件开发者在开发软件时让大..
比尔·盖茨:GPT-5不会比GPT-4好多少,生成式AI已达到极限..
比尔·盖茨一句爆料,成为机器学习社区热议焦点:“GPT-5不会比GPT-4好..
OpenAI限制香港用户访问
我是卢松松,点点上面的头像,欢迎关注我哦!2月份OpenAI限制了中国用户..
4个月,他用ChatGPT写了16篇论文,已发表5篇
编译 | 卜金婷自ChatGPT上线以来,一些研究人员的论文产出速度变得“突飞..
关于作者
泡沫人生(普通会员)
文章
562
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40369 企业收录2981 印章生成216706 电子证书945 电子名片57 自媒体34015

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索