行业新闻

关注搜芯易,了解最新资讯

报告(二):ChatGPT带动AI芯片市场热潮

本报告分为上下集,上集介绍了人工智能(AI)芯片市场概况, AI芯片的全球市场份额以及国内市场份额;叙述了AI芯片三种应用类型及主要应用领域,其细分市场边缘AI芯片和云端AI芯片的情况;列举了AI芯片主要玩家(OpenAI、Intel、NVIDIA、AMD、华为、微软、百度、谷歌等)近3年来的主要事迹,以及国产GPU厂商前景。 接下来将展开下集内容。

 

图源:创作者Andy ,Getty Images/iStockphoto

 

 

四、边缘AI芯片增长  

 

以ChatGPT为代表的AIGC(AI技术生成内容)应用兴起,算力需求大增,进而需要更多的网络带宽成本。

 

传统的云计算模型将大量的数据传输到数据中心进行处理,然后再将结果返回给用户设备。传统模型存在的问题有延迟高、网络带宽消耗大、隐私和安全性薄弱。

 

相较于云端AI,边缘AI不需要将数据上传云端来计算,具有低延迟、高安全性、高可靠性、保护用户隐私等优势。

 

国盛证券认为,算力爆发激增了对海量数据传输的需求,完全依靠IDC(互联网数据中心)提供中心化算力支撑是效率较低的选择,因此,边缘计算便成为了传统云端算力的很好补充。

 

随着AI技术的发展,越来越多的数据处理需求必须在边缘侧完成,例如工厂智能控制、智能家居、自动驾驶等。这些场景要求相关生产数据不能上传到云端,边缘AI则很好地解决了这个需求,通过在产线等边缘处直接部署智能计算设备,便可以实时地进行数据处理并对产线进行决策和控制。

 

国内边缘AI芯片市场稳步增长  

 

科技巨头已将目光盯上边缘AI芯片,华为、高通均推出边缘AI产品。今年2月在MWC 大会上,高通首次展示了在Android 手机上本地运行,模型参数超过10亿的Stable Diffusion。华为则发布智慧搜图功能,该功能通过对模型进行小型化处理 。

 

ABI Research 预计,边缘AI芯片市场规模将从 2019 年的 26 亿美元增长到 2024 年的 76 亿美元,到2025年边缘AI芯片市场的收入将达到122亿美元,边缘AI芯片市场将超过云AI芯片市场。根据 IDC 的数据,预计2021-2026 年中国边缘计算服务器的整体市场规模年复合增长率达到 23.1%,高于全球的 22.2%。

 

国内边缘端智能芯片厂商崛起  

 

NVIDIA的边缘计算芯片仍处于领先地位,但国内寒武纪、华为海思等厂商的边缘端智能芯片的性能指标与NVIDIA部分产品基本处于同一水平。

 

国内边缘智能芯片厂商主要参与者包括寒武纪、华为 海思、瑞芯微、北京君正、全志科技、紫光展锐、地平线、平头哥、九天睿芯、杭州国芯等。

 

国产替代迎来高速发展期  

 

4月初,天猫精灵接入GPT大模型;4月11日,美国智能眼镜开发商推出可以为智能眼镜用户提供ChatGPT的语音服务。

 

国盛证券表示,大模型将大幅提升智能硬件的使用体验,同时智能硬件本身也将成为愈发重要的AI入口。当前随着物联网模组迈入“智能化”时代,集成了边缘算力的“智能模组”,正在逐渐成为支撑硬件智能化与边缘算力的核心形式。

 

 

五、终端AI芯片发展趋势  

 

大部分终端AI芯片专注基于推断计算的应用场景进行优化,少数的终端AI芯片具备训练能力。根据ABIResearch的数据,预测至2024年,终端AI芯片市场规模将增长至710亿美元,2019年至2024年间的年复合增长率将达31%。根据甲子光年的数据, 2023 年中国终端 AI 芯片市场规模将超过 160 亿元。

 

AIGC 有望加速终端 AI 芯片迎来升级与发展机遇  

 

AIGC应用领域广泛,其插件有望推动AIGC应用爆发。AIGC包括图片、视频等形式的内容,AIGC可以应用在文本、代码、图像、语音、视频、3D模型、游戏、音乐、音频等领域。

 

据3月份的消息,ChatGPT迎来重磅更新,支持第三方插件,能联网获取新知识,可与5000+个应用交互,首批上架11个插件,包括旅行软件、数据提供商、视频创意平台、电商平台、配送服务等公司, 插件有望加速 AIGC的应用爆发。

 

物联网可以提供大规模数据,在一定程度上解决 AIGC模型训练所需的数据来源。物联网技术能够实现对物理世界的状态数据、定位数据、行为数据等采集,在获得这些数据后,AIGC模型能够更深入地学习各行业具体场景知识,输出更精准的信息,为行业经营者提供参考,加速产业数字化升级的步伐,并简化人们与智能家居、智能硬件的交互方式。

 

AIGC有望成为物联网应用的重要助手,推动物联网行业快速发展。据 IDC 的数据,预计到 2026 年中国物联网设备连接数总量 将达到 102.5 亿个,2022至2026年 复合增长率为 18%。

 

AIGC 有望加速智能在终端上的应用,终端 AI 芯片迎来升级与发展机遇。随着 AI 技术在手机、智能音箱、智能摄像头、无人机、自动驾驶汽车等终端上的应用,曾经很多AI的推理工作,诸如模式匹配、建模检测、分类、识别、检测等逐渐从云端转移到了终端侧,赋予终端设备更多“智慧”。

 

智能终端在不同应用场景下对算力、功耗、时延的多元化需求,使得 AI芯片在终端侧可以拥有更多元化的应用场景。AIGC有望进一步加速智能在终端上的应用,终端 AI芯片迎来升级与发展机遇。

 

 

六、AI芯片代工行情  

 

受惠于ChatGPT兴起,AI聊天机器人热潮升温,韩国媒体BusinessKorea近期报道, AI半导体市场需求急剧上升,三星电子晶圆代工业务部门,已经开始量产下一代的AI芯片,并被预计将获得大客户的更多晶圆代工订单。消息人士透露,三星电子该业务部门已经开始采用14nm制程工艺为韩国本土专注于AI的无晶圆厂商FuriosaAI,量产第一代的Warboy芯片。Warboy是一种神经网络处理单元,第二代的Warboy将由三星电子在明年上半年采用5nm制程工艺代工,性能也将明显提升。

 

随着ChatGPT持续走热,业界逐渐将目光从AI芯片转移至晶圆代工厂  

 

目前,三星正通过大幅增加设施投资,以提高AI芯片产能,其P4产线正在韩国平泽园区兴建,目标是2024年初投产,并斥资300兆韩元(约2280亿美元)在京畿道龙仁地区建设全球最大半导体聚落。此外,三星电子在美国德克萨斯州泰勒市,投资170亿美元建造一座新先进制程的晶圆厂,主要为客户代工5nm的芯片,目标在2024年开始营运。

 

另一大晶圆代工龙头台积电也持续受益于AI芯片代工。NVIDIA就是台积电主要客户,台积电7及4nm制程生产NVIDIA A100和H100芯片。NVIDIA的GPU对手AMD,董事长暨CEO苏姿丰亦确认,研发代号为Rapheal的5nm Ryzen 7000处理器,会在Q3上市,此外AMD扩大5nm产品线阵容,独家承接晶圆代工订单将直接受惠,产能利用率维持满载。台积电在美国亚利桑那州厂完工后,将于2024和2026年量产4和3nm,届时NVIDIA等大客户订单有望再增加。

 

相较于台积电有更多国际AI芯片订单,韩国三星以本土AI芯片设计商订单为主。因这些公司规模很小,对三星晶圆代工业务帮助有限,但全球公司争先恐后进军AI芯片,推动代工市场成长,也让三星对分食大订单充满期待。韩国人士指出,NVIDIA可能也会向三星下订单,以稳定芯片供货。

 

另Google 推出的AI应用Bard,百度推出的“文心一言”,微软的新服务整合ChatGPT至搜索引擎Bing,更不用说AWS提供支持的Amazon Alexa 的AI 和基于ML 的智能技术,目前已在1 亿多台设备上提供,都是AI芯片的庞大潜在商机。

 

 

七、AI服务器出货量上升  

 

AI服务器搭载GPU作为加速卡,还可以配置FPGA、ASIC等加速芯片,可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、机器学习等AI应用场景提供强大的算力支撑。

 

AI服务器可以按芯片类型与应用场景分类:

 

按芯片类型:可采用CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡等组合形式。目前产品中最常见的是CPU+多块GPU的方式。

 

按应用场景:可以分为深度学习训练型和智能应用推理型。典型深度学习训练型产品有中科曙光X785-G30和华为昇腾Atlas 800(型号9000、型号9010)。典型智能应用推理型产品有中科曙光X785-G40和华为昇腾Atlas 800(型号3000、型号3010)。

 

AI服务器需求带动HBM需求提升, SK海力士今年市占率将逾五成  

 

AI服务器出货动能强劲带动HBM(High Bandwidth Memory)需求提升,根据TrendForce集邦咨询的数据,2022年三大原厂HBM市占率分别为SK海力士50%、三星约40%、美光约10%。此外,高阶深度学习AI GPU的规格也刺激着HBM产品更迭,2023下半年随着NVIDIA H100与AMD MI300的搭载,三大原厂也已经规划相对应规格HBM3的量产。

 

SK海力士作为目前唯一量产新世代HBM3产品的供应商,在今年更多客户导入HBM3的预期下,其整体HBM市占率可望借此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%、9%。

 

预估2023年AI服务器出货量年增15.4%  

 

目前NVIDIA所定义的DL/ ML型AI服务器平均每台均搭载4张或8张高端显卡,搭配两颗主流型号的x86 服务器CPU,主要拉货力道来自于美系云端业者谷歌、AWS、Meta与微软。

 

根据TrendForce集邦咨询的数据,2022年高端搭载GPGPU的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。

 

展望2023年,微软、Meta、百度与ByteDance相继推出基于生成式AI衍生的产品服务而积极加单,预估今年AI服务器出货量年增率可望达15.4%,2023至2027年AI 服务器出货量年复合增长率约12.2%。

 

 

 2022至2027年全球AI服务器出货量年增长率预估

数据来源:TrendForce(2023年4月)

 

 

AI服务器刺激Server DRAM、SSD与HBM需求同步上升  

 

根据TrendForce集邦咨询调查,AI服务器可望带动存储器需求成长,以现阶段而言, Server DRAM普遍配置约为500~600GB左右,而AI服务器在单条模组上则多采64~128GB,平均容量可达1.2~1.7TB之间。

 

以Enterprise SSD而言,由于AI服务器追求的速度更高,其要求优先满足DRAM或HBM需求,在SSD的容量提升上则呈现非必要扩大容量的态势,但在传输接口上,则会为了高速运算的需求而优先采用PCIe 5.0。而相较于一般服务器而言,AI服务器多增加GPU的使用,因此以NVIDIA A100 80GB配置4或8张计算,HBM用量约为320~640GB。

 

未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动Server DRAM、SSD以及HBM的需求成长。

 

 

一般服务器与AI服务器平均容量差异

数据来源:TrendForce(2023年4月)

 

 

 

信息及配图主要来源:中原证券研究报告,Precedence Research ,TrendForce集邦咨询,全球半导体观察,AI研究院

版权归属:作者/译者/原载

AI芯片市场行情