AI领域的从业者认为,ChatGPT是AIGC(AI Generated Content,利用人工智能技术来生成内容)应用的新起点,随着深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,AIGC有望进入应用爆发期。ChatGPT技术的商用落地,对半导体行业有哪些推动作用?当前,最火的人工智能(AI)应用当属ChatGPT,它是OpenAI发布的聊天机器人程序。ChatGPT与用户对话时可结合上下文做出反应,还支持写代码、写邮件、写脚本、写文案等文字输出型任务。由于ChatGPT在问答环节的优异表现,该程序一经推出就受到了全球市场的关注,上线两个月后注册用户人数就突破一亿。在此背景下,ChatGPT背后蕴含的巨大市场潜力还有待挖掘,该技术可望撬动海量的应用场景。
训练AI模型需海量算力资源
从本质上而言,ChatGPT是一类AI语言模型。官方资料显示,ChatGPT是在GPT 3.5模型基础上微调而成。ChatGPT与InstructGPT是姊妹模型,它们均采用了大型语言模型(Large Language Model,LLM)生成领域的新训练范式——RLHF(Reinforcement Learning from Human Feedback),即以强化学习方式依据人类反馈优化语言模型,两者仅在数据收集设置上有细微区别。根据ChatGPT向用户的透露的信息,RLHF是一种使用了强化学习的方式,可直接优化带有人类反馈的语言模型。实际上,它涉及到多个模型和不同训练阶段,其技术可大致分解为以下三点:第一,预训练一个语言模型(LM) ;第二,聚合问答数据并训练一个奖励模型(Reward Model,RM);第三,用强化学习(RL)方式微调LM。总而言之,RLHF可增强人类对模型输出结果的调节,并且还能对结果进行更具理解性的排序。
关于ChatGPT的介绍 图片来源:OpenAI官网再观察GPT 3.5之前的GPT-3模型,其参数量高达1,750亿个,训练所需数据量达45TB。通过使用RLHF的训练方法,即使InstructGPT只有13亿个参数量,它的输出效果也依旧优于GPT-3。OpenAI公布的资料显示,InstructGPT与ChatGPT是姊妹模型,由此可猜测两者的参数量可能相差不大。也许有读者对于参数量缺乏具体的概念,本文通过列举一个通俗的例子来解释——2020年9月,微软获得了OpenAI GPT-3的独家授权,该公司为训练GPT-3建设了一个超算中心,该中心的超级计算机装载了一万张英伟达GPU。而训练GPT-3消耗了微软355个GPU年的算力(1块GPU运行355年的算力),单次训练费用更是高达460万美元。不过,截至发稿日,笔者未查询到ChatGPT模型训练费用信息。ChatGPT是一个AI模型,它离不开算力的支持——在训练阶段,需要大量的语料数据来训练模型,在应用阶段,需要大算力服务器来支持模型的运行。即使ChatGPT的参数量可减少到数十亿个,训练和运行它也需消耗很大的计算资源。
推动智能计算机进一步发展
OpenAI ChatGPT的现象级走红,推动科技公司加快类ChatGPT产品的部署。近期,谷歌、微软、百度等企业都宣布将提供AI模型服务,其中谷歌将推出由LaMDA模型支持的对话式人工智能服务Bard,微软在搜索引擎Bing中嵌入了OpenAI的GPT-3.5,百度将推大模型新项目“文心一言”,最初版本将嵌入搜索服务中。随着更多科技公司部署类ChatGPT服务,为训练AI模型将需要巨大的算力,这种需求也让一些企业看到了AI算力服务的商机。2023年2月10日,浪潮信息推出AI算力服务产品。该公司表示,将基于中国领先智算中心的算力基础设施,为中国客户提供AI算力资源和配套服务,支撑AI模型构建、训练和推理的业务全流程,赋力生成式AI产业创新。当然,资金雄厚的科技巨头可能会搭建自己的计算中心。例如,前文所述的微软的超级计算机,该中心设备用于在Azure公有云上训练超大规模的AI模型。据了解,该中心装载了超过28.5万个CPU、1万个GPU,其中单个GPU服务器的网络连接能力达400Gb/s,该设备算力峰值达每秒可执行23.5-61.4个万亿浮点运算。购买AI算力服务和搭建计算中心,都需要大规模的计算机设备的支持。
表1:超级计算机和智能计算机的区别在进一步讨论时,首先要厘清一个概念——算力是代表处理数字化信息能力的强弱,不同类型的算力存在着较大的差别。比如,超级计算机的算力单位是FLOPS(每秒浮点运算能力),而智能计算机的算力单位是OPS(每秒操作次数),这是两个不同的概念。另外,衡量算力水平还要考虑算力精度。瞭望智库指出,目前业界用于衡量超级计算的Linpack测试,测试的是超级计算机的“双精度浮点运算能力”,即64位浮点数字的计算(FP64)。此外,在以二进制所表示数字精度中,还有单精度(32位,FP32)、半精度(16位,FP16)以及整数类型(如INT8、INT4)等。数字位数越高,意味着精度越高、可支持的运算复杂程度越高,其能适配应用场景越广。智能计算机是一种专用算力设备,它在推理或训练等智能计算方面表现出色,但大多数智能计算机不具备高精度数值计算能力;超级计算机是一种通用算力设备,其设计目标是提供完备、复杂的计算能力,在高精度计算能力更强,应用范围更广,主要被科研人员用于行星模拟、新材料开发、基因分析等科学计算和大数据处理。AI模型训练只需用到智能计算机,但目前的智能计算机技术还不成熟,仅在模式识别、知识处理及开发智能等方面有应用。尽管当前该类设备还未达到预期目标,但它在文字、语音、图形图像识别与理解,以及机器翻译等领域取得了一些进展,同时相关初级产品也已经问世。
推动更多AI细分市场的发展
如前文所述,AIGC的出现有望撬动AI大规模落地的场景。同时,相关企业在多个AI产业链的布局将更深入。比如,在硬件层包括芯片和传感器,其中AI芯片主要有通用型的GPU、可定制的FPGA、专用的ASIC,以及类脑芯片。英伟达的Orin芯片基于通用GPU,地平线的征程5芯片,既是ASIC芯片,也是DSA(特定领域架构)芯片;类脑芯片有IBM的TrueNorth、英特尔的Loihi、高通的Zeroth、西井科技的DeepSouth、杭州电子科技大学的达尔文、aiCTX的DynapCNN处理器等。整体而言,AI芯片供应商主要有英伟达、AMD、Intel、VelociHOST、景嘉微、地平线、寒武纪、比特大陆、复旦微、赛灵思、Altera(英特尔旗下)、异构智能、谷歌等;传感器部分有舜宇光学、禾赛科技等供应商;算法层有商汤科技、旷视科技、云从科技、依图科技、第四范式等;应用层有海康威视、科大讯飞、锐明技术等。虽然智能计算机并不追求太大的算力频率,但是其对芯片的功耗和散热要求较高,所以,低功耗的FPGA和ASIC芯片在智能计算机上有更大的用武之地。与此同时,AI芯片也将从面向厂商的训练场景为主,转变为面向消费者的推理场景为主。业内AI专家对此评价称,GPU的高并行计算能力和高通用性的协调统一,在消费者时代的统治力或许难以为继,未来ASIC芯片、中国产GPGPU芯片或将能切入MaaS(出行即服务)产业生态。
服务器产业链的发展会受益吗?
或许会有读者联想到,理论上,更大的算力意味着更多的计算机设备,搭建这些设备也需要更多的核心器件。这是否意味着,企业对类ChatGPT技术的追求,对服务器产业链的发展起到积极的促进作用?笔者在表2中列举了一些全球服务器产业链信息,主要涉及到关键器件及整机供应商。
表2:服务器核心器件及整机供应商不完全盘点·服务器主板供应商
服务器主板是专门为满足服务器应用而开发,要求具备高稳定性、高性能、高兼容性的特点。本表列举的服务器主板供应商集中在中国和美国,比如美国的英特尔、超微;中国大陆的联想等,以及中国台湾的华硕、技嘉、微星、泰安(神达旗下)等。
·服务器CPU供应商
图1:x86服务器CPU与非x86服务器CPU的市场占比 制图:国际电子商情 数据来源:综合自各研报截至2023年Q1,全球约有90%的服务器CPU采用x86架构,剩下的10%左右采用非x86架构。目前,英特尔占据了x86服务器CPU 90%以上的市场份额,同为x86架构阵营的AMD虽然近年来在PC CPU领域穷追猛打,但在服务器CPU方面其份额还难以撼动英特尔的地位。IBM的CPU采用Power架构,其全球市场占也比与英特尔低。另外,中国台湾的Cyrix(被威盛电子收购),中国大陆的海思、中科院计算所、天津飞腾、申威科技等也有服务器CPU产品,但这些企业的市占比与英特尔有很大的差距。
·GPU供应商
AI模型需要大量的深度学习和机器训练,比如参数量达1,750亿个的GPT-3,需要用到大量的英伟达V100(32GB)、A100和H100(80G)GPU产品的支持。目前,英伟达A100、H100 GPU产品已经被亚马逊AWS、微软Azure、谷歌云、甲骨文等公司采用。另据IDC统计资料显示,在中国的GPU服务器领域,英伟达的市占率也高达95%,几乎所有的云服务提供商和超算都采用英伟达的芯片来支持AI计算。此外,AMD、Intel、VelociHOST等美资企业也生产GPU产品;中国的GPU供应商则有景嘉微、长沙韶光(航景科技子公司)等。
·存储相关供应商
本表格列举的存储相关供应商的业务涉及到内存、外存(硬盘)和内存接口芯片。目前,内存接口芯片已经升级到DDR5世代,供应商有澜起科技、Rambus、IDT三家。虽然速率为4800MT/s的DDR5在PC笔电的渗透快于服务器,但是只有当传输速率达到6400MT/s时,PC端才需要搭载DDR5内存接口芯片。因此,当前DDR5内存接口芯片在服务器上的应用更多,预计在2022-2024年三年期间,服务器端DDR5的渗透率分别为15%、40%、60%。内存供应商有韩国的SK海力士、三星电子等,美国的美光科技、金士顿等,中国的金泰克、芝奇(台湾)等;外存供应商有美国的西部数据(含旗下闪迪)、希捷等,中国的联想、金泰克等。
·服务器整机供应商
在服务器整机部分,笔者主要列举了中美两国的供应商。美国有戴尔、HPE、IBM、思科等;中国有华为、新华三、浪潮、联想、中科曙光、山东超越等。
根据目前的市场判断,企业对类ChatGPT技术的追求,将主要推动AI芯片产业的发展,作为算力基础设备的服务器及其产业链,或将有更好的发展机会。2023年3月29至30日,AspenCore将在上海举办国际集成电路展览会暨研讨会(IIC Shanghai 2023),届时,AI视觉芯片供应商爱芯元智,存储相关供应商江波龙、东芯半导体、ISSI,国产高性能服务器CPU供应商飞腾等企业均将参与。同期的EDA/IP 与 IC 设计论坛还将邀请国内外知名EDA/IP、IC设计企业参与演讲,欢迎感兴趣的朋友点击这里报名,并到场交流。
对服务器产业的利好短期内并不明显
超级计算机和智能计算机有多台服务器组成。客观上,科技企业对类ChatGPT服务的追捧,有利于全球服务器产业链的发展,但是这种作用恐怕难以在短期内体现。据分析机构的预测,2023年全球服务器整机市场的表现并不太好。2023年1月底,集邦咨询修正了对2023年全球服务器整机市场的预测数据,增速下调至1.87%。该机构表示,受全球经济持续疲软影响,北美四大云端服务供应商下修了2023年服务器采购量,且数字可能将持续下调,下修幅度从大到小依次为me
ta、微软、谷歌、亚马逊云科技。这四家企业的服务器采购量由原先预估的同比增长6.9%,降至4.4%,这将影响2023年全球服务器整机出货年增率下降到1.87%。其实,已确定部署类ChatGPT的企业,主要是一些规模大、实力强的巨头,毕竟部署这类业务需要极大的算力,训练和验证模型的成本也非常昂贵。相信随着更多此类技术进一步产业化,市场上还会出现不同的细分业务模式。责编:Clover.li