2023/07/11 17:34 DoNews
近日,联想集团副总裁、ISG中国服务器事业部总经理陈振宽在参加2023世界人工智能大会期间表示,人工智能的竞赛才刚刚开始,目前企业基于搭建大模型的算力基础设施投入已经按照百亿元来计算。对于算力厂商来说,AI服务器的研发投入将是相比通用服务器的5倍。
自去年年底以来,ChatGPT成为全球现象级应用,国内外各大企业纷纷入局大模型,呈现百家争鸣的态势。“百模大战”背后是全球科技巨头对算力的争夺。
发展大模型需要巨大的算力成本投入,以构建GPT-3为例,一次模型训练总算力消耗约3640PF-days(即每秒一千万亿次计算,运行3640天),成本超过1200万美元,而这还不包括模型推理成本和后续升级所需的训练成本。公开资料显示,目前在追赶GPT3.5的中国团队约有10个,能够拥有或持续获取算力将是决定未来竞争格局的关键。
陈振宽表示,人工智能的比赛才刚刚开始。今天很多参赛企业实际上是在早期阶段做一些基础准备,他们在搭建大模型的算力基础设施的投入方面,已经是按照百亿人民币进行计算的水平。同时,要把大模型训练成功,还要持续投入。
不仅参与“百模大战”的企业需要持续投入,对于提供算力基础设施的“卖铲人”厂商来说,行业门槛也骤升。陈振宽表示,以前从零开始研发通用服务器产品大概需要2000万人民币投入,而人工智能服务器的研发投入则是前者的五倍,所以是以亿为单位计算的,研发过程中需要考虑的因素也更加复杂,如散热、更快的连接速度等等。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。