2024/04/24 11:14 数智前线
人工智能的算力设计起点已经到了万卡级别,仅靠芯片提升还不够,要从系统创新入手。
文|赵艳秋
编|牛慧
从去年底到今年初,大模型在企业中的落地呈现加速之势。业界主要生态牵头方,都在加快战略布局。这些布局都涉及国内大模型到底应该走上怎样一条发展路径,也影响着每一个生态的参与者,因而引发关注和讨论。
相比国外,中国大模型产业还有一个鲜明特征——百芯百模、算力更多元、模型更多。如何在这样的现实情况下,实现大模型在企业的顺利落地、规模化发展,业界也面临诸多挑战。
4月17日,大模型生态链上重要的牵头方之一浪潮信息,在其第十届生态伙伴大会(IPF2024)上,提出了要“ 以应用为导向,以系统为核心”的战略路径,并支持以“开源开放、多元多模”的方式,激发生态创新,解决产业规模化发展问题。浪潮信息推出了企业大模型开发平台“元脑企智”EPAI,升级元脑生态,构建多对多的平台系统,从而提高人工智能生态效率,以应对正在到来的企业大模型落地潮。
01
人工智能竞争要另辟蹊径?
“人工智能的算力设计起点已经到了万卡级别,仅靠芯片提升还不够,要从系统创新入手。”浪潮信息董事长彭震开门见山说。
最近,关于中国人工智能的发展道路,业界有不少讨论。4月,全国政协经济委员会副主任、工业和信息化部原部长苗圩指出,这几年我国算力与美国相比,逐渐被拉大。在技术相对落后的情况下,我们不应跟美国“打篮球赛”,而是应利用中国“下围棋”的谋略,通过大模型赋能制造业等领域,实现人工智能应用,走一条差异化的发展道路。
彭震赞同这一观点。他解释说,此前中国互联网行业也是因为和产业做了深度融合,造就了手机支付、电商、直播、物流业等的大发展。“人工智能时代也是应用为王,我们要发挥中国在应用上的创新试验场和引领作用,促进千行百业的创新。”
中国工业经济学会会长江小涓看到,2023年中国制造业占全球的比重又增长一个百分点,达到近30%。中国有全球最大、可以承接人工智能落地应用的产业。
根据IDC的预测,到2027年,中国2/3的企业将利用生成式AI和RAG的组合,将决策效率提高55%。为此,到2026年,中国500强企业将把30%以上的核心IT支出用于AI。
实际上,2024年被认为是生成式AI在企业落地的元年。数智前线获悉,从去年底今年初开始,大模型在行业的落地活跃度十分惊人。
一家工业服务商告诉数智前线,今年他们在工厂产线升级、设备能耗改造方面,落地项目预计至少几百个。另一家服务商正在船舶业做试点,这些传统行业老龄化严重,通过大模型降低对工人的技能要求,降本增效特别明显。在交通业,人们已盯上地铁、航空设备运维大市场;在知名药企,从靶点寻找、小分子药物筛选到合同审批,大模型已逐步突破一个个环节.....
在浪潮信息内部,应用场景的挖掘也很活跃。彭震认为,每家企业,要么在内部业务流程,要么在外部产品服务体系上,都有大量应用场景适合大模型创新。
在这样的形势下,“如果在大模型应用方面走在全球前面,我们的人工智能也一定会走在全球前面。”彭震说。
除了以应用为导向,当下大模型的创新要以系统为核心。
大模型的突破是算法、数据、算力等多要素协同发展的结果。即便单看算力,如今也不全取决于芯片,大模型训练算力设计的出发点是万卡集群,甚至更大集群。
“这是一个全新的架构,不是以芯片为核心的单机系统,而是以系统为核心的架构。”彭震说。
“过去两年,全球领先芯片的性能,实现了两倍的跳跃,但赶不上我们对大模型训练算力10倍、甚至百倍的增长需求。”北京智源人工智能研究院副院长兼总工程师林咏华说,哪怕是最先进的芯片,也要通过更多卡的互联,才能达到更大算力。
“所以,我们要通过系统创新,去解决今天芯片算力不足的问题。而且不是中国厂商算力不足,美国厂商算力也同样不足。”彭震说。
而在系统创新中,计算、网络、存储、算法、数据工程等,一个都不能少。彭震举例,浪潮信息曾在一个国产平台上做大模型训练,发现互联带宽非常低。但经过算法层面的优化,整个算力效率提升了33%。
在全球范围,即便是OpenAI和英伟达取得的突破性进展,也都是系统级创新。以OpenAI的Sora为例,资深人工智能专家、云知声董事长梁家恩告诉数智前线,它的惊艳效果,背后是OpenAI对架构设计、新算法组合和数据潜力的深刻洞察,以及精巧的系统构思设计能力,而非简单的“大力出奇迹”。
如何提升系统的效率,发挥系统的价值,将会是大模型领域重要的创新点。
02
从好算法到好应用并非易事
不过,大模型的落地仍面临不小挑战,从一个好算法到好应用之间,还有巨大的鸿沟。
在大模型引发业界的巨大关注后,浪潮信息人士在拜访客户过程中,感受到了一种无力感。很多客户表达了期望用大模型做智能化转型,但如何与大模型结合,技术和应用中间有巨大的鸿沟。
“从某种程度上,我们现在不是缺大模型、缺技术,而是缺场景、缺数据,缺在一个场景下磨练大模型算法的能力。”彭震说。
浪潮信息逐渐意识到,要加速大模型在千行百业的创新,需要创造一个简单易用的大模型开发环境,激发更多合作伙伴,能快速走入行业。
在开展大模型场景应用和落地的拓尔思董事长施水才看来,大模型落地讲求三个“实”。第一个叫实战,AI落地工程化交付非常重要。第二个叫实用,用户的刚性需求是什么?不能与用户的业务需求对不上。第三个叫实效,企业要的是降本增效。生态各方要聚焦解决这三个问题。
在IFP2024期间,浪潮信息发布了企业大模型开发平台EPAI,将落地的难点痛点,结合企业实践、自身的KnowHow和方法论,形成一套工具链。
EPAI平台上有多种基础模型和数据集,并提供了数据准备、知识检索、应用框架等系列工具,是端到端的一体化平台。
EPAI平台降低了大模型落地门槛。在浪潮信息内部,一位售前工程师花了一个月,用对话方式,开发了“投标参数倾向分析”小程序。标书是企业竞争的风向标,只要将投标参数丢进小程序,它就能自动分析出参数倾向于哪家投标企业,为下一步竞争策略提供参考。
值得关注的是,EPAI支持调度多元算力和多模算法。相比国外,中国大模型产业有着鲜明的特征——百芯百模、算力更多元、模型更多。据GitHub的不完全统计,截至2024年1月,国内已有AI大模型243家,其中通用模型39个、金融模型25个、工业模型23个......与此同时,CPU、GPU、TPU、NPU各种芯片都参与了人工智能的创新。
“有些人认为这是重复造车,浪费生产力。”彭震说,但从历史来看,很多技术诞生初期,都是百舸争流、百家争鸣,再通过市场之手选择最后的技术。“我们要鼓励开源开放,激励多元多模。”
浪潮信息认为,在多元多模的支持上,自己有着优势和积累。“因为我们与所有芯片企业都是伙伴,与所有模型算法公司也是伙伴。这些伙伴在这个平台上,可以获得很大的诚意,并且能够共享上万家右手伙伴(应用开发服务商),覆盖中国企业客户,真正将大模型转变为生产力。”浪潮信息高级副总裁刘军告诉数智前线。
实际上,实现多元多模并不容易。经过三年多、多层面深度配合与研发,在开展了大量适配、优化等工作后,浪潮信息逐步支持多元多模。伙伴或客户在应用侧开发应用后,如果更换底层芯片,已不需要重写代码,这解决了烟囱林立型的生态。
EPAI平台也推崇开源开放,来解决多元多模带来的挑战。比如,浪潮信息与百度、中国移动、中国工商银行、国家电网等伙伴,发起成立了OCTC开放计算组织,发布大量标准和团标,如面向AI异构协同计算的四项团标、面向液冷的首批冷板式液冷技术规范等,实现规模化的产业发展。
03
建设共生型生态
在IPF2024大会期间,不少企业表达了需要生态力量,一起从开源开放路径,解决当下大模型训练和落地中诸多挑战的需求。
“多元算力并存肯定是趋势,但从我们的角度,更关注芯片之上的软件生态。”智源林咏华说。业界看到,目前多元AI芯片生态还相对比较割裂。它们的架构不同,从编译器到算子都自成一体。大模型企业要把训练移植到这些芯片上,就不得不面对大量迁移工作。
今年全国很多地方都开始构建智算中心,面对多元算力并存、网络拥塞等核心问题,业界人士认为,只有进行标准化,才能推动下一代智算中心产业化的发展。“我们希望可以通过开源的力量,一起来做这样的事。”林咏华说。
从事行业解决方案开发的中科软董事长左春观察,当下大模型在行业的落地,是几方紧密合作的过程。客户要选择模型,会提出一些落地方向;厂家要提供基座和工具来训练模型;ISV(增值开发商)要为客户进行知识梳理和知识训练。
而在多元算力、多元模型、多元场景状况下,如果让每一家芯片厂商、模型厂商和开发合作伙伴,去对接成千上万的企业客户落地,效率太低。“我们今天要做一个多对多的平台系统。”彭震说,来提高人工智能落地效率。
在EPAI平台上,为左手伙伴和右手伙伴打造了公共的平台和工具箱。从事解决方案开发的荣联科技在2019年加入元脑生态。
荣联科技首席科学家王向东注意到了元脑生态的平台化。“这让模式复制的效率会更高,边际成本会不断降低。”他进一步分析,“实质上,这是以平台带动产品,以生态进行竞争,这个竞争模式在当下是领先的。”
“现在有一个词叫‘FOMO’,意思是怕错过。谈到人工智能的发展,每个人都怕错过,大家都在加速学习、亮相。”中科软左春补充说,“我也看到了浪潮信息除了硬件支持以外,在系统软件平台上的努力。”
“我们很希望拥抱生态,创业企业尤其需要生态的支持。”创业公司衔远科技首席运营官、联合创始人王晓波说。
在会议期间,浪潮信息多次表示,打造共生型生态,支持客户在“多元多模”上的选择,支持开发合作伙伴和更多的模型厂商、芯片厂商发生联系,建立合作关系,共同迎接大模型在企业落地上的大潮。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。