ChatGPT背后芯片之争:中国企业或将决议行业走向
2023-05-05|来源:远大期货
ChatGPT的降生是AI行业生长的一个里程碑,让通用人工智能距离周全商用更进一步。ChatGPT虽然属于天生式人工智能手艺(AIGC)的一种,却可以训练其他AIGC产物,好比充当AI绘图模子Midjourney 的提醒词剖析师。
由于ChatGPT的能力过于突出,其母公司2022年11月宣布ChatGPT3.5版本后,迅速吸引大量用户,同时也招来非议,最引人关注的莫过于全球首富马斯克,团结千人请愿全球住手研发类ChatGPT产物。
之以是说马斯克的呼吁吸引眼球,不是由于他否决研发类ChatGPT产物,也不是由于他全球首富的身份,而是由于他呼吁住手研发类ChatGPT产物之前,刚亮相要自建团队,自备资金研发类ChatGPT产物;其次才是作为天下首富雄厚的财力,稍微脱手,便囤了10000块GPU芯片。
马斯克对ChatGPT的亮相看似矛盾,然则思量到马斯克2015年照样ChatGPT母公司OpenAI的团结首创人,2018年就被现任CEO“奥特曼”挤走,这种类似吃不到葡萄说葡萄酸的心里也就容易明白了。更况且马斯克一直站在新兴手艺风口上,怎么可能容忍当今最新潮的手艺和自己没关系?
只不外不止一次亮相要切入人工智能(AI)赛道的马斯克,为何确立AI部门之前先抢了一万块GPU(图形处置器)芯片?抢购的又是什么型号的芯片?马斯克买了这一万块芯片,会不会影响行业供需关系,海内AI企业会不会受到影响,最主要地的是,海内有没有能做GPU的企业,做到什么境界了?
01.GPU若何搅悦耳工智能行业
马斯克购置一万块GPU芯片,主要是由于GPU的性能决议了行业天花板,相比于通用的CPU(中央处置器),GPU在人工智能行业被细分到“AI芯片”领域,也就是针对AI算法做了特殊加速设计的芯片。
狭义的人工智能芯片,指的就是专门优化过的显卡。在人工智能刚驶入快车道的2012年,前谷歌盘算机科学家Alex Krizhevsky,使用深度学习 GPU的方案在Image Net LSVRC-2010图像识别大赛中,将识别乐成率从74%提升至85%,在行业内引起普遍关注。
GPU行业龙头英伟达(NVIDIA)受此启发,投入大量人力物力又优化自家GPU的CUDA深度学习生态系统,有新闻称短短3年内,公司GPU产物性能提升了65倍,甚至还推出了基于自家GPU,笼罩后端训练至前端应用的全套方案。
众所周知,GPU通常被用于图像处置义务,由于图像是由多个像素组成,GPU想要高效完成图像处置义务,就需要大量可以完成自力运算的单元,厂商也会极尽可能,在芯片内放入更多自力盘算焦点,2018年宣布的英伟达GTX2080TI有4352个CUDA焦点,到2022年宣布的4090显卡CUDA焦点增至16384个。本就具备同时大量自力盘算的能力,以是只需要CPU给出准确的指令,GPU自然可以迅速完成深度学习型AI产物所需要的超规模盘算。
我们今天熟悉的ChatGPT已经迭代至第四代。以*代ChatGPT为例,2018年6月宣布的GPT-1只在8个GPU上训练了一个月,昔时运行TensorFlow单GPU深度学习研究,显示*的GPU是GTX2080TI,参数目约为1.17亿,展望训练数据量仅有5GB;2019年2月宣布的GPT-2预训练数据量增至40GB,参数目到达了15亿,此时需要256个Google Cloud TPU v3上训练一周。
到2020年5月宣布的GPT-3,预训练数据量猛增至45TB,参数目到达1750亿,需要在355个GPU上训练一年,且训练总成本到达1200万美元。GPT-3.5也就是我们现在熟悉的ChatGPT,和最新宣布的ChatGPT4.0尚未宣布相关数据,可以一定的是,这两代ChatGPT均使用GPU训练。据华西证券数据,ChatGPT母公司OpenAI已使用了约2.5万个英伟达的GPU。
虽然微软已经将OpenAI收入麾下,并提供代号为“雅典娜”的人工智能芯片,但由于英伟达芯片在人工智能行业深耕多年,新玩家短期内很难对其形成威胁,未来需求仍将继续上升。
更为人熟知的CPU,与GPU相比具有显著短板。由于CPU需要较高的通用性,较为高端的产物还需要在焦点内构建3级缓存,以是单个焦点会尽可能做的大而全,这就造成CPU可用于单独盘算的焦点显著少于GPU,无法专精处置某一项义务,导致CPU在行盘算、浮点盘算以及矩阵运算方面存在显著的先天不足,这三个能力恰恰是完成ChatGPT这种深度学习型AI产物迫切需要的。
英伟达为了进一步提升旗下产物对AI深度学习的顺应性,特意推出用于超级盘算机的深度学习的Tesla显卡,最新型号为A100,2022年由于不能抗力,已经被阻止向中国出口,转而推出减配版A800。
和消费级显卡相比,Tesla显卡在完成图像处置、语音识别、机械学习、物体检测等义务时更快,凭证相关测试,同样是2020年推向市场的A100和3090,消费级显卡3090 的tensor core只有A100的四分之一。在深度学习领域,无论是常见的CNN照样ChatGPT使用的Transformer,大多数浮点盘算量,都集中于依托tensor core盘算的矩阵乘法上面,以是使用A100可以更快完成深度学习产物的开发。
基于上述剖析,不难发现外洋对中国禁运A100的意图,就是想要极大可能限制中国人工智能行业生长。
02.国产芯片露出微光
短期来看,中国人工智能行业可以选择除A100外的次等GPU,然则耐久来看,必须要突破封锁,实现人工智能芯片国产化。
聚焦人工智能芯片领域,除GPU外,可用于AI算法的芯片还包罗CPU、FPGA、MLU、TPU,以及最新研究偏向类脑芯片,后者由于看法较为先进,预计最快将于2023年成熟,尚不足以撼动AI芯片竞争名目。同时出于现实思量,海内厂商在GPU芯片上和英伟达或AMD、Intel正面硬钢,毫无胜算。
CPU方面虽然有近期龙芯有所突破,然则如前所述,CPU并行算力不足,不适合应用于AI深度学习;FPGA虽然已经用于AI算法训练,然则市场规模较小;最有可能替换GPU的就是MLU、TPU通用AI芯片。
但凭证ChatGPT生长历程,Openai在开发GPT-2时,曾经使用过谷歌TPU芯片,这是一种以ASIC作为底芯片的盘算单元,专注于神经网络所需的矩阵运算的专用芯片,*应用于AlphaGo中。
首富钟睒睒能赚多少钱?
然则鉴于使用ASIC手艺的芯片需要定制化,用户使用成本较GPU更高且更繁琐,OpenAI开发GPT-3时重新选择GPU,同时思量到GPT-3模子参数目陡增,英伟达CUDA架构较其他产物具有显著优势,间接体现了英伟达GPU在人工智能芯片领域*龙头的位置,但这不代表其他产物就没有开发和应用价值。
首先是以谷歌TPU、寒武纪MLU为代表的通用AI芯片,依附针对特定算法深度优化和加速,可以在确定性执行模子的应用需求中施展作用;FPGA芯片依赖天真多变的通用性,再加上可编程性,适用于开发周期较短的AI产物、传感器数据预处置事情以及小型开发试错升级迭代阶段等。
梳理国产芯片企业的名目,除寒武纪外,华为、国芯科技也结构了通用AI芯片(TPUMLU);安路科技、紫光国微、复旦微电等企业结构FPGA芯片,试图在这两个领域突破外洋对我国GPU芯片的封锁。
现在寒武纪虽然尚未实现盈利,芯片市占率也不高,但芯片产物笼罩了云端智能芯片及加速卡、训练整机、边缘智能芯片及加速卡、终端智能处置器IP以及上述产物的配套软件开发平台。
另一个已经被应用于人工智能的算法训练的FPGA芯片领域,中国市场占有率最高的国产厂商是安路科技,现在公司在中低端产物线周全临标外洋龙头企业,思量到确立FPGA芯片软硬件生态系统行业壁垒较高,且用户替换产物验证周期长,安路科技未来有望依托现有市场扩大优势。
现在安路科技的产物普遍应于用网络通讯、消费电子、工业控制和数据中央等领域均能保持稳健的发展,正在拓展无人机、自动驾驶、智慧都会等涉及人工智能的应用领域。
不外现在最值得关注的国产AI芯片企业应该是千芯科技,公司生产的存算一体AI芯片,通过自研存算一体手艺,可提供能效比跨越10-100TOPS/W,在特定领域可以提供更大算力(1000TOPS以上),优于其他类型AI芯片10-40倍的算力支持,应用场景包罗自然语言处置,一旦量产,可用于类ChatGPT产物的研发。其他可以用于深度学习领域的国产芯片还包罗北京君正的AI协处置器T02,燧原科技的邃思AI训练和推理芯片等。
现阶段,寒武纪、安路科技、千芯科技等国产AI芯片企业的产物,虽然尚不具备替换英伟达的能力,然则也给中国人工智能行业带来一丝微光。回首芯片行业的生长,无论是芯片装备照样芯片产物,只要中国企业突破封锁,就能迅速改变行业名目,这其中就包罗一种最常见的AI芯片。
03.AI芯片领域*的突破
这种最常见的AI芯片就是存储芯片,日前国产存储芯片生产商长江存储凭一己之力,让外洋大厂三星等企业的固态存储产物自动降价超50%。长江存储芯片对三星带来的危急感,是典型的弯道超车,也是国产芯片产业链追求的*发力点。
已往很长一段时间,存储芯片占全球芯片市场规模的27%,然则竞争名目较为固化,尤其是中国市场,2018年中国入口的3120亿美元的芯片中,存储芯片入口额高达1150亿美元,占比超36%。
到2020年,中国存储芯片规模增至全球存储芯片的31%,然则自给率不足1%,竞争名目高度固化,韩国三星近乎垄断高端存储市场。
同时思量到中国AI行业生长过于迅猛,有数据显示,预计到2025年,中国人工智能焦点市场规模有望到达4000亿元,鉴于当前海内芯片行业生长现状,CPUGPU等产物研发周期太长,想要短期获得海内市场的话语权难度极高,以是在国家大基金的向导下,长江存储加速3D NAND存储芯片研发进度,2019年推出64层3D NAND后,于2022年顺遂推出192层3D NAND芯片。
反观垄断中国存储市场的三星,自从2013年推出24层3D NAND闪存芯片后,直到2019年才推出96层V-NAND,虽然研发进度慢有替换手艺蹊径的缘故原由,然则同期另一家老牌存储长海力士已经推出128层4D NAND产物,三星此时已经显著落伍于同业企业,但仍*长江存储。
现现在,长江存储不仅从手艺层面实现赶超,还依附中国特有的“量大管饱”生产模式,将产物售价一降再降,迫使三星在中国市场周全接受价钱战,实现全系产物降价。
虽然现在有看法以为,三星存储产物降价,以及一季度泛起3.3万亿韩元的营业亏损,主要是由于已往几年芯片行业产能过剩,不得已降价去库存并首次减产,这种看法不能说错,但确实很片面。
从市场角度出发,现在在某电商平台上,接纳长江存储自研3D NAND闪存芯片的存储产物,2TB规格产物单价*到了479元,600元以下的选择异常多,而三星虽然大幅降价,但客单价依旧比致钛高100元,比售价*的近乎翻倍,若是三星不降价,继续接纳之前2TB规格产物动辄超2000元的单价,即是直接宣告退出中国消费级存储市场的竞争。
中国存储市场这块大蛋糕,三星可不会容易放弃。上文提及,到2025年,中国人工智能焦点市场规模将到达4000亿元,根据存储芯片27%的占比盘算,AI芯片领域存储芯片市场规模或将到达1080亿元。思量到当前存储产物售价大幅降价,守旧估量未来市场规模也有望跨越500亿。
而且在大数据时代,数据的发生和运算速率都在急速上升(参考GPT-3预训练数据量),所有云服务供应商不仅需要更强的算力,还需要容量更大、读取速率更快的存储装备,以是纵然未来存储芯片另有降价的可能,更低的产物价钱反而会催生行业内固态存储对机械存储装备的替换。
这种行业趋势实在从2019年就已经最先显露眉目。据民生证券数据,2019年企业级SSD平均容量到达2.3TB,2020年将增进至2.7TB,装备出货量年均复合增速到达15.8%。三星纵然降产断臂,也会全力平衡存储产物的供应关系,继续抢夺中国市场,只惋惜三星再也没时机躺平挣钱了。
由于长江存储的芯片制程普遍处于22nm,外洋制裁不涉及该部门,且国产装备现在已经逐步笼罩该领域的芯片制造。再想通过制裁简朴粗暴的限制中国芯片行业生长,只停留在理论层面,而一旦中国企业突破外洋封锁,将马上改变行业竞争名目,帮它们真正介入明白,什么才是“市场竞争”。