- 2023-04-14
- 阅读()
- 来源:互联数据
无论是ChatGPT-4还是文心一言,本质都是算法大模型带起来的AI军备竞赛,而除了这些大公司,大模型的出现还有望带动AI服务器需求爆发。CPU、内部存储和外部存储作为服务器的核心部件,受益于大模型的井喷发展,板块也会得到进一步关注。本文就重点介绍AI大模型服务器。
所谓“大模型”,通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。
ChatGPT-4服务器试用:http://www.hkt4.com/cloud/usa.html
一、大模型的基础:算力场景向AI升级,CPU+GPU是核心
服务器随着场景需求经历通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器采用GPU增强其并行计算能力;
AI大模型服务器按应用场景可分为训练和推理,训练对芯片算力的要求更高,根据IDC,随着大模型的应用,2025年推理算力需求占比有望提升至60.8%;
AI大模型服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);
AI大模型服务器的成本主要来自CPU、GPU等芯片,占比25%-70%不等,对于训练型服务器其80%以上的成本来源于CPU和GPU。
大模型是人工智能发展的必然趋势,大模型是辅助式人工智能向通用性人工智能转变的坚实底座,能够极大提升生产力。通过学习一种特征和规则,搭建出高效率的通用模型,在这个基础上进行微调,就可以应用在不同场景。
在过去,大家都是各自研发自家模型,单一AI应用场景需要多个模型支撑,每个模型都需要算法开发、数据处理、模型训练等过程,耗费了大量资源。在AI时代,这样的低效发展显然不是谷歌、微软、百度等公司希望的。
现在,大模型实现了标准化AI研发范式,能够以一种简单的方式进行规模化生产,既能降低自家的AI开发门槛,做到“低成本”和“高效率”,还能够将这一模型应用在有定制化需求的企业身上。
所以,基于这个基础,大模型的开发成为互联网发展的必然结果。而这个结果的底层技术支撑,就是算力。算力是打造大模型生态的必备基础,其中,服务器作为算力的载体,无疑是大模型发展的重要支撑。而这些都会在文心一言、在ChatGPT中发挥举足轻重的作用,帮助这些大模型实现从输入到输出。
二、ChatGPT等大模型训练和推理需求激增驱动AI服务器市场高速增长
据预测,ChatGPT-4参数量最高达15000亿个,由于参数量与算力需求间存在正比关系,所以可推算GPT-4算力需求最高达到31271PFlop/s-day。随着国内外厂商加速布局千亿级参数量的大模型,训练需求有望进一步增长,叠加大模型落地应用带动推理需求高速增长,共同驱动算力革命并助推AI服务器市场及出货量高速增长。
服务器比普通计算机运行更快、负载更高、价格更贵,但内部结构与普通的计算机相差不大。服务器的架构,当然也会随负载量扩张而不断优化。现在的服务器架构,已经从传统单一模式过渡到集群模式,再发展到有着广阔应用前景的分布式架构。
在分布式架构中,整个系统按照不同功能,拆分为多个单一功能的子模块,每个模块被放到不同服务器中相互协作,共同组成服务器网络,服务器也是区块链应用的底层技术支撑。
伴随应用需求不断扩张,不同架构服务器百花齐放。人工智能应用场景下的加速计算服务器,因为拥有强大的计算能力,因而成为服务器中的核心驱动力。从最近的文心一言到ChatGPT-4,AI场景下的加速计算服务器成为各家拼算力、拼模型的基础,AI服务器的价值正逐渐凸显。
AI服务器不同于通用服务器,作为算力载体,其更专精于海量数据处理和运算方面,可以为人工智能、深度学习、神经网络、大模型等场景提供广阔的动力源泉,并广泛应用于医学、材料、金融、科技等千行百业。在未来,AI服务器必将为数字经济时代提供发展的强大动力。
如果将当前的 ChatGPT 部署到谷歌进行的每次搜索中,需要 512820.51 台 A100 HGX 服务器和总共 4102568 个 A100 GPU,这些服务器和网络的总成本仅资本支出就超过 1000 亿美元。在生成式AI大模型广阔的应用背景下,高算力服务器需求有望在中长线保持旺盛,支撑其底层的交换机、服务器等数据中心算力基础设施亦将迎来新一轮高速增长。