行业新闻

关注搜芯易,了解最新资讯

AI经济崛起,芯片领域有哪些动态和布局

2023年全球人工智能AI(包括以AI为中心的系统的软件、硬件和服务)支出在2023年将达到1540亿美元,同比增长26.9%。国家数字经济产业利好消息不断。

全球AI支出2023年将达到1540亿美元,同比增长26.9%

 

分析机构IDC在最新的报告中指出,2023年全球人工智能AI(包括以AI为中心的系统的软件、硬件和服务)支出在2023年将达到1540亿美元,同比增长26.9%。报告预测,到2026年AI相关产业规模支出将超过3000亿美元,2022-2026年的复合年增长率 (CAGR) 将达到27%。

 

从地区看,IDC认为在整个预测期间,AI支出的前三个地区分别为美国、西欧和中国,其中美国将占据AI支出的一半以上,西欧占据20%以上。

 

 

国家数字经济产业利好消息不断

 

据36氪平台报道,最近A股在数字经济、科技国产替代以及国家大基金消息面不断传来利好刺激下,半导体、AI产业,6G、云计算等新科技板块频频霸屏A股涨幅榜。同时银河证券指出,云计算、大数据、AIGC等数字中国主题建设相关的板块,技术变革带来商业进程加速,数据要素价值重估,算力需求快速爆发,叠加国家政策扶持,是目前市场最清晰的主线。

 

 

顺应AI浪潮,英伟达卷土重来

 

每日经济新闻报道,当地时间3月21日,英伟达(NVIDIA)在ChatGPT和其他AI产品大热之际,创始人兼首席执行官黄仁勋(Jensen Huang)发布新款芯片、超级计算服务,并官宣了微软、谷歌云等合作对象,旨在展示该公司的技术将为下一波AI突破提供助力的前景。

 

备注:数以百万计的微软企业用户可以通过云访问NVIDIA的工业元宇宙和AI超级计算资源

图源:NVIDIA

 

 

黄仁勋将英伟达的定位表述为“AI产业iPhone时刻”背后的引擎,他表示,现在是计算领域的拐点,在先进的聊天机器人和令人瞠目的图形生成器等消费级和企业级应用蓬勃发展带动下,“生成式AI将重塑几乎所有行业”。

 

每日经济新闻指出,和竞争对手相比,英伟达很早就提出了专注利用GPU+CUDA架构来搭建AI算力帝国的战略,而英特尔和AMD则深陷X86架构,“船大掉头难”。同时,移动端ARM架构又陷于效能堆叠和算力瓶颈,无法满足突破强AI的需求。在大型模型训练和生成式AI显卡、芯片的供给上,英伟达凭借其GPU(图形处理器)技术享有绝对优势。

 

根据黄仁勋在此次发布会上的说法,随着芯片的更新,原本8000片A100芯片训练具有3950亿个参数的多专家模型(MoE)需要7天;使用8000片H100芯片后,可将训练时间缩短到20小时,速度提升9倍。为了加速生成式AI开发及部署,黄仁勋还宣布推出3款全新推理GPU,分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速;以及云服务NVIDIA AI Foundations。此外,其推出的DGX(AI超级计算机)Cloud云服务还可提供带有AI解决方案工作流程的套件,帮助企业优化框架设计和预训练模型,提高工程师的生产效率。通过云服务平台,企业无需购买硬件,就能以每月3.7万美元起的价格获取算力。他表示“未来,人人都能是程序员。“

 

每日经济新闻报道,黄仁勋透露,目前,英伟达已与微软Azure、谷歌云和Oracle OCI合作,向用户提供算力能力。黄仁勋还提出,未来中国也可以采用云服务,“就像我们在西方做的那样。它们将被用于中国的云计算巨头的产品中,如阿里巴巴、腾讯、百度等,都是优秀的合作伙伴。”

 

 

AMD、英特尔、谷歌、 苹果纷纷入局AI芯片领域

 

每日经济新闻报道,数字经济学者刘兴亮表示,英伟达在AI训练领域确实拥有相当的优势,尤其是在大型模型训练和生成式AI显卡和芯片的供给上。“这主要归功于英伟达的GPU技术,它们在处理并行计算任务方面表现出色,非常适合深度学习和神经网络训练。”

 

对于英伟达或将垄断GPU与否,通信业知名观察家项立刚指出,深层训练并不是只能在英伟达的GPU上做,英伟达的“光环”是OpenAI给的,目前也有部分GPU在数据方面表现不错,尚需量产及形成产业链。

 

根据刘兴亮介绍,作为英伟达的主要竞争对手,AMD的GPU(如Radeon Instinct系列)也在高性能计算和AI训练领域得到了应用;英特尔推出了Nervana神经网络处理器(NNP)以及正在开发的Xe GPU,也旨在进入AI芯片市场。

 

另外,谷歌的Tensor Processing Unit(TPU),也是一种专为机器学习任务定制的处理器,可以在谷歌的云计算平台上使用;苹果的M1芯片,为一款基于ARM架构的处理器,具有高性能神经引擎,可用于机器学习任务;创业公司Graphcore这家开发的名为IPU(智能处理器)的新型处理器,也是专为AI训练和推理而设计。

 

其中,英特尔的NNP针对AI训练和推理任务进行了优化。虽然在性能上可能落后于英伟达GPU,但对于某些任务和应用场景可能是一个合适的替代品;谷歌的TPU是专为机器学习任务设计的处理器,其性能和能效在某些方面可能优于英伟达GPU。不过,TPU主要在谷歌云计算平台上使用,这意味着科技公司需要使用谷歌的云服务来访问这些处理器。

 

 

比亚迪入股百度子公司昆仑芯开拓AI芯片在无人驾驶领域的应用

 

OFweek电子工程网报道,比亚迪入股百度子公司昆仑芯(北京)科技有限公司(以下简称“昆仑芯”)布局无人驾驶领域。

 

天眼查资料显示,3月15日,昆仑芯股东结构发生变动。其中,比亚迪成为新的股东,持股比例为0.33%;而百度(中国)有限公司则持有昆仑芯70.87%的股权,仍是昆仑芯第一大股东。分析人士认为,比亚迪入股昆仑芯,是其在无人驾驶领域布局的又一重要举措。

 

资料显示,昆仑芯成立于2011年6月,前身是百度内部的智能芯片及架构部门。截至目前,昆仑芯公司已成功推出1代AI芯片、2代AI芯片,以及多款基于自研芯片的AI加速卡。据称,第三代昆仑芯AI芯片的研发工作已经启动,预计将于2024年量产。

 

百度方面透露,昆仑芯2代量产于2021年8月,基于7nm工艺打造,搭载自研的第二代XPU架构,相比1代芯片的性能提升了2到3倍,已经完成无人驾驶场景端到端的性能适配,在百度RoboTaxi的自动驾驶系统中能够正常运行。

 

与昆仑芯的合作,无疑将强化比亚迪在无人驾驶领域的实力。此前,比亚迪就曾投资地平线,预计搭载地平线征程5系列芯片的车型将于2023年上市。此后,公司又和自动驾驶公司Momenta成立合资公司“迪派智行”,面向高阶自动驾驶布局;同时和英伟达就DRIVE Hyperion 平台达成合作。

 

 

国产AI芯片将肩负重任,昆仑芯2代芯片已开启百度AI版图

 

据IDC预测,中国AI算力规模将保持高速增长,预计到2026年将达1271.4EFLOPS(每秒浮点运算次),年增长率达52.3%。在此背景下,IDC预测异构计算将成为主流趋势,未来18个月全球AI服务器GPU、ASIC和FPGA的搭载率均会上升,2025年AI芯片市场规模将达726亿美元。

 

华尔街见闻报道,国内方面,AI芯片领域的主要玩家有华为海思(昇腾910)、寒武纪(思元590)、百度(昆仑芯2)和阿里(含光800)等。

 

由于英伟达的A100和更新的H100等高端GPU受新的出口管制许可,中国的大模型计算也会可能受到美国限制,百度要想与ChatGPT竞争,需要设法补足算力芯片上的短板。

 

每日经济新闻报道,在刘兴亮看来,未来中国科技公司或将考虑使用替代品进行研究和开发,或直接使用云计算服务,甚至激发其在AI硬件领域的创新及自主研发意愿。

 

OFweek电子工程网报道,3月16日,百度正式推出其生成式AI产品—“文心一言”。而百度相关人士也表示,昆仑芯2代芯片已在百度心大模型的应用中“广泛落地”。东海证券表示,本次发布的文心一言在预训练阶段就已导入多家国产AI芯片,效果不俗。

 

昆仑芯片肩负着百度拓展AI版图的重任。算法、算力、数据,被认为是AI成功的三大要素,在算力方面,ChatGPT采用了大量的英伟达的高端GPU芯片。

 

昆仑芯和其他国产芯片能否担此重任,则有待时间考验了。

 

 

Chiplet是AI芯片大势所趋,中国发布《芯粒互联接口标准》

 

财联社消息称,随着摩尔定律逐渐逼近物理及商业极限,基于Chiplet的芯片设计理念逐渐成为后摩尔时代行业发展趋势。立足于国内供应链成熟程度的现状,近日,中国Chiplet产业联盟联合国内系统、IP、封装厂商一起,共同发布了《芯粒互联接口标准》- ACC1.0,该标准由交叉信息核心技术研究院牵头,中国Chiplet产业联盟共同起草。该标准为高速串口标准,着重基于国内封装及基板供应链进行优化,以成本可控及商业合理性为核心导向。

 

机构分析称,Chiplet技术方案由设计公司引领、先进封装赋能落地,从上游IP、EDA、设计到中游制造,再到下游封测,革新半导体产业链,重塑产业链价值,有望助力国产芯实现换道超车,看好封装公司估值处于历史相对低位,周期底部有望率先复苏,伴随2D封装到3D Chiplet发展,封装环节价值逐步提升。随着科技巨头类ChatGPT项目入局,整体在算力提升、数据存储及数据传输端需求迭起,Chiplet有望成为支持高性能计算存储关键。Chiplet市场空间广阔,根据研究机构Omdia数据显示,到2035年Chiplet芯片市场空间有望达570亿美元。

 

图源:Alamy.com

 

 

中泰证券指出,Chiplet是AI芯片大势所趋。其认为,制程越先进、芯片组面积越大、小芯片(Chips)数量越多,Chiplet封装较SoC单芯片封装,成本上越有优势。

 

表:不同制程/面积下SoC与Chiplet封装之间的成本平衡点

 图源:中泰证券

 

中泰证券指出,鉴于当前AI芯片朝高算力、高集成方向演进,制程越来越先进,Chiplet在更先进制程、更复杂集成中降本优势愈发明显,未来有望成为AI芯片封装的主要形式。

 

表:国产封测厂商在Chiplet方面的布局

图源:中泰证券

 

 

证券商指出,ChatGPT、GPT4.0、Microsoft 365 Copilot、文心一言等相继发布,以ChatGPT 为代表的AI大模型及其初步应用“一石激起千层浪”,其相关技术变革预计将对个体的工作、生活及社会组织方式带来的广泛影响。

 

昆仑芯2代芯片已经推出,国产Chiplet制程也日益精进,相信不久的将来,可以看到更多品类的国产芯片担负起AI经济时代国产自主化的重任。

 

 

信息及配图来源:每日经济新闻 ,华尔街见闻,OFweek电子工程,36氪

版权归属:作者/译者/原载

AI芯片