2024/10/21 18:03 爱集微
由于面临美国芯片限制和比西方同行更少的预算,中国人工智能(AI)公司正在降低成本以创建具有竞争力的模型。01.ai(零一万物)和DeepSeek(深度求索)等初创公司通过采取一些策略来降低价格,例如专注于较小的数据集来训练人工智能模型,以及聘请低价但熟练的计算机工程师。
阿里巴巴、百度和字节跳动等大型科技集团也展开了价格战,以降低“推理”成本(即调用大型语言模型生成响应的价格),大模型价格下降90%以上,仅为美国同行的一小部分。
总部位于北京的01.ai由前谷歌中国区总裁李开复领导,该公司表示,通过构建以较少数据量进行训练、需要较少计算能力的模型并优化硬件,该公司已经降低了推理成本。
李开复表示:“中国的优势在于制造出真正价格实惠的推理引擎,然后让其应用广泛传播。”
近日,在加州大学伯克利分校SkyLab和LMSYS的研究人员发布的排名中,01.ai的Yi-Lightning模型与马斯克名下公司x.AI的Grok-2在LLM(大模型)公司中并列第三,但落后于OpenAI和谷歌。
评估基于用户对不同模型对查询答案的评分。字节跳动、阿里巴巴和DeepSeek等其他中国公司也在大模型排名榜上名列前茅。
01.ai的Yi-Lightning的推理成本为每百万token 14美分,而OpenAI的较小模型GPT o1-mini的推理成本为26美分。与此同时,OpenAI规模更大的GPT 4o的推理成本为每百万token 4.40美元。用于生成响应的token数量取决于查询的复杂性。
李开复还表示,Yi-Lightning的“预训练”成本为300万美元,初始模型训练之后可以针对不同用例进行微调或定制。这只是OpenAI等公司对其大型模型所报成本的一小部分。他补充说,其目标不是拥有“最佳模型”,而是一个具有竞争力的模型,开发人员使用它来构建应用程序的成本“要低5到10倍”。
01.ai、DeepSeek、MiniMax、Stepfun等许多中国人工智能团体都采用了所谓的“混合专家模型(MoE)”方法,这一策略首先由美国研究人员推广。
该方法不是在从互联网和其他来源抓取数据的庞大数据库上一次性训练一个“密集模型”,而是结合了许多针对行业特定数据进行训练的神经网络。
研究人员认为,混合专家模型方法是实现与密集模型相同智能水平但计算能力较低的关键方法。但这种方法更容易失败,因为工程师必须协调多个“专家”的训练过程,而不是在一个模型中。
由于难以获得稳定充足的高端人工智能芯片供应,中国人工智能企业在过去一年中一直在竞相开发最高质量的数据集,以训练这些“专家”,从而使自己在竞争中脱颖而出。
李开复说:“中国的优势不在于在预算不受限制的情况下,进行前所未有的突破性研究。中国的优势在于建设得好、快、可靠且便宜。”
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。