智通财经APP据悉,1月1日,半导体行业观察发文称,2023年,随着以大语言模型为代表的人工智能市场持续火热,人工智能成为了半导体行业的最大推进力,也见证了Nvidia惊人的销售业绩以及其估值创下新高。随着春节的到来,我们也对2024年人工智能芯片做一个展望。
市场需求:人工智能仍将继续火爆
从市场需求侧来看,我们觉得人工智能在2024年一直将继续火爆,这也将继续推进相关的芯片行业保持良好的态势。但是,与2023年不同的是,我们觉得在2024年,人工智能市场的需求会同时从云端渐渐扩充到终端,这也将驱动相应的芯片市场发展。
首先,从云端需求来看,大语言模型仍旧将是主要的下降点。同时,图象生成类模型也会保持快速下降的势头。具体来说,大语言模型一直是各大科技公司竞相研制的核心技术,包括OpenAI,谷歌,微软,华为,阿里巴巴,百度等中外科技公司都在大力研制下一代的大语言模型,而包括中国联通等传统行业的公司也在入局大语言模型领域,同时还有大量的初创公司在借助风险投资的支持也在大力开发大语言模型。大语言模型的百家争鸣时代才刚才开始而且远远没有落下序幕,在这样的群雄逐鹿的时间节点,预计对于芯片的需求也会快速下降。大语言模型的特征是须要海量的数据和训练芯片资源,并且同时因为格局仍未尘埃落定有大量的公司在研制新的模型,因而总体来说训练芯片的需求会特别大。
而随着云端人工智能交互步入多模态时代,聊天机器人早已不仅仅可以用文字回答,并且还可以完成看图说话以及图象甚至视频生成等任务,因而我们觉得,图象生成类的模型,以及图象和语言结合的多模态模型也将会成为云端人工智能的一个重要下降点。
不仅云端之外,我们觉得终端(包括手机和智能车)也将会成为人工智能的新下降点。手机上的人工智能其实已经不再新鲜,然而随着生成模型的成熟,我们可望见到这类模型落地手机端并赋能新的用户体验。手机端生成类模型又分为两种,一种是图象生成类模型,即以扩散模型(diffusionmodel)为代表的模型,这类模型可以实现高质量超区分以及高质量修图,因而可望给用户的照相和相片编辑带来革命性的变化。另一类应用是语言模型——与运行在云端的大语言模型(LLM)相对地,过去几个月我们看见了小语言模型(SLM)的盛行。小语言模型和大语言模型一样,都是主要用于语言的理解和生成(或则说,与人对话);小语言模型在参数量变少以后,可以更灵活地应用在一些专用的场景中(而不是像大语言模型一样企图覆盖所有场景)而且提供很高的确切性2024智能手机操作系统排名,同时还有可能运行在终端设备中。
从智能车领域,一方面随着端到端多任务大模型带来的革命性性能提高(比如BEVFormer带来的俯视场景辨识性能提高,以及商汤在2023发布的UniAD带来的多任务性能急剧提高)会促使这类模型进一步落地而且推进芯片的需求,另一方面则是来自于语言模型人机交互这类源自于云端的人工智能应用迁移到智能车场景。
为此,我们预测,2024年将会是人工智能持续火爆的一年2024智能手机操作系统排名,与2023年不同的是不仅云端人工智能保持热门之外,我们预计终端应用场景也会成为新的人工智能需求下降点。
云端市场格局剖析
云端人工智能芯片市场,我们预计Nvidia一直将保持领跑地位,并且AMD等竞争者预计也将获得更多市场份额。
首先linux学习,如前所述,云端市场目前主要的需求在于大语言模型和生成式图象的训练和推理。因为这种模型对于估算资源需求十分大,但是训练任务占的比列很大,因而给相应的芯片设了一个很高的门槛。这儿的门槛包括了:
-芯片算力:为了支持巨大的估算量,芯片须要有足够的估算单元,显存容量和带宽
-分布式估算支持:对于大模型来说分布式估算是必须的
-软件兼容性和生态:对于训练来说,对于模型进行反复快速迭代是一个很强的需求,为此必须有足够好的生态来支持不同的模型算符快速迭代
目前而言,Nvidia在这一个领域一直是领先,无论是其芯片和分布式估算性能,还是软件生态兼容性来说,都是首选。这也是为何2023年Nvidia的H100成为了人工智能相关公司最宝贵的资源,在市场上供不应求。在2024H2,Nvidia将会开始出货H200,相对于H100来说,H200拥有40%和显存带宽提高以及80%的显存容量提高,因而可望会被人工智能公司争相选购。
在2024年,我们预计AMD在云端人工智能领域也将愈加站稳膝盖,并由此开始渐渐迈向更大的市场份额。2023下半年,AMD发布了最新的MI300300X用于高性能估算的GPU模组,该芯片包含大芯片粒(12个处理器/IO芯片粒),而且相比于H200来说,拥有更高(1.6倍)的FP8算力,以及更大的显存容量和带宽(1.2倍)。从AMD公布的实测数据来看,MI300300X的推理能力大概比H100强20%-40%,训练性能则和H100持平。我们觉得,软件生态(包括编译器性能)将成为决定AMD在云端人工智能市场能够成功的决定性诱因,而这一点预计在2024年将会有所改善:OpenAI将在最新发布的Triton框架中加入对于AMDMI300300X的支持,而各大初创公司的人工智能加速软件框架也在强化对于AMDGPU的支持。随着芯片性能和软件生态的提高,以及各大科技公司对于NvidiaGPU一家独大地位的担心心态,我们预计2024年对于AMD的GPU在人工智能市场将会是重要的一年,预计将会听到更多顾客的应用。
从供应链角度,因为云端人工智能芯片对于HBM3等高带宽显存有着强力的需求,我们觉得HBM显存以及中级封装(如CoWoS)的产能始终将会火爆,这也将加快相应半导体企业扩大产能,以及积极研制下一代显存和中级封装技术。从这个角度看,人工智能应用一直将会是促使半导体新技术高速发展的核心动力。
终端市场格局剖析
不仅云端市场外,我们预计人工智能对于终端市场也有更强的需求,这也将促进人工智能成为终端估算芯片中越来越重要的差别化元素。
在手机端,人工智能的使用频度将会进一步提高,这也会促使芯片加入更多相应的算力,而且将人工智能支持作为SoC的核心亮点。诸如骁龙发布的Snapdragon8Gen3就以“低于1秒的延后实现图象生成任务”作为一个重要卖点,恐怕这样的人工智能能力将会深度集成到手机厂商的操作系统中。不仅骁龙这样的第三方芯片公司之外,自研手机芯片的系统厂商预计也会继续发力人工智能;苹果似乎在这方面保持高调,并且预计在未来会以各类形式(加大NPU算力,或则是加强软件支持)的方式来开始赋能更多人工智能在iPhone上的新拍摄用户体验。vivo在自研ISP芯片领域早已有了数年积累,而目前生成式人工智能对于拍摄体验的提高刚好和ISP有很强的协同作用,这也是2023年8月vivo发布的v3ISP芯片指出了生成式人工智能作为一个核心亮点。未来,预计会听到越来越多这样的芯片指出人工智能对于用户体验上的赋能作用。
在智能车辆领域,Nvidia其实不如在云端强势linux伊甸园,而且其Orin系列芯片一直是各小车厂考虑的标准芯片模组。我们觉得,随着人工智能大模型对于智能驾驶的赋能作用日渐强化,无论是第三方芯片还是车厂自研的芯片都将会进一步加强对于人工智能算力的投入,同时也促使芯片性能的快速提高——最近,无论是蔚来发布新自研芯片的算力尺寸,还是特斯拉传出将使用TSMC3nm作为下一代芯片的生产工艺,都在提示着我们2024年人工智能将在智能车芯片领域饰演越来越重要的角色。