2023/09/07 14:45 新摘商业评论
作者/皮爷
出品/新摘商业评论
670.4%——这是在2023年中期业绩报告中,商汤给出的生成式AI相关业务增长数字。与此同时,今年上半年,商汤整体营收增速转正,实现收入14.3亿元。
商汤,这个AI老兵,再次站到了舞台中央。
过去半年的大模型浪潮里,如果说在一众中国选手里谁的身影更为清晰,商汤绝对是最佳选项之一。关于这家AI原生的企业,市场已经看到了太多的亮眼标签。比如商汤是最早发布大模型系列产品的厂商之一,旗下商量SenseChat是国内最早推出的基于千亿参数大语言模型的聊天机器人产品之一;再比如,商汤联合多家国内顶尖科研机构发布了首个综合性能全面超越GPT-3.5-turbo的基模型InternLM等等。
对于商汤,人们不陌生。但尽管如此,对于如今在大模型潮流里有足够清晰的声音传递出来的商汤而言,其也在AI加速落地的当下不断刷新着人们对它的新定义。
在如今“百模征战”的大模型时代,一个经常被提出,也更是市场关心的问题恰是:谁能成为最终的底层大模型选项?或者说,谁能成为中国产业数字化浪潮的真正赋能者?
在大模型热度逐渐冷静的当下,这个问题的答案已然不仅是关于技术本身,也更是关于产品,关于服务,关于对产业的理解和深耕。
而这里,也已然成为商汤们自证价值的最佳考场。
一、AI潮水里,一张新成绩单
“商汤迎来了极其关键的发展时期。”商汤CEO徐立在财报公布的电话会上这样说道。作为商汤董事会执行主席兼首席执行官,在过去的半年时间里,他和商汤一起站上了AI的舞台。
今年5月份,陆奇在北京举行了一场超千人规模、主题为《新范式新时代新机会》的演讲,全程超三个小时,其中他的核心观点是,大模型将带来范式技术革命,它将改变一切产业世界,未来也将无处不在。
在具体的阐述环节,他也更明确表达,中国大模型企业要奋起直追,在基础模型层面,要建立达到GPT-3.5到GPT-4的模型能力,抢先进入第一梯队。
就在这番话落地的仅1个月后,有一家企业就宣布其基模型性能超过GPT-3.5-turbo,正是商汤联合多家国内顶尖科研机构发布的大语言模型书生·浦语(InternLM),参数规模为1040亿,成为当时国内首个在多个权威评测集上超越ChatGPT水平的基模型。
8月,更新的模型成果被披露,新模型 InternLM-123B 完成训练,参数量提升至1230亿,在全球51个知名评测集共计30万道问题中测试成绩整体排名全球第二,超过GPT-3.5-turbo以及Meta新发布的LLaMA2-70B等模型。
据介绍,InternLM-123B的语言、知识、理解、推理和学科等能力均显著提高,还重点升级了代码解释器及插件调用能力(function calling),可使用python解释器、API调用和搜索三类常用工具来解决复杂任务、灵活搭建AI智能体应用。
徐立在财报电话会上重申了工具调用能力的意义。“只会‘聊天’的模型是很难转化成生产力的,能够准确使用工具的大模型是解放行业生产力的关键。”
商汤的文生图大模型秒画也在飞速迭代,短短几个月内由1.0版本升级至3.0版本,基模型参数量提升至70亿参数,其核心算法在COCObenchmark上超过了谷歌的Imagen与OpenAI的DALL·E2,出图效果跻身全球前列。
这仅仅是商汤交出的成绩单之一。
更亮眼的成绩来自商汤基于基模型的上层表达。 在基模型之上,除了商量和秒画,商汤还推出了如影、琼宇、格物等AI产品,分别对应数字人、3D大场景重建、3D小物体生成这五个主流的生成式AI场景。
这些产品在过去半年时间里不仅被广泛应用到C端,也在一众B端市场落地。
财报数据显示,今年上半年商汤智慧商业板块收入同比增长50.2%,收入占比提升至60%,与十个行业的数百家客户合作定制行业大模型,覆盖能源、金融、地产、人力资源、传媒、工业制造、咨询等一众垂直行业场景,单客户收入提高59.9%。
智慧生活板块的表现同样亮眼。 商汤在财报中透露,智慧生活已通过对手机、移动互联网行业上百个客户提供大模型赋能的新产品及新功能,最终触达数亿终端、中小企业与个人用户。例如“如影”数字人如今已服务于央视、广电、工商银行等头部客户,并落地各类电商和直播类客户;“格物”则已与香港最大的珠宝集团实现商品3D数字化合作等等。
可以说,透过这次财报数据,能清晰看到的是一根向上的企业发展阳线。 在这条势头强劲的曲线里,商汤向外界展示的不仅是自身的产品、技术和产业落地,更是商汤这家企业在AI浪潮下被无限放大的战略活性。
为什么商汤可以?或者说,为什么在如今波折不定的大模型潮水里,商汤走出的是一条足够有确定性的曲线?
二、谁在领跑大模型?
实际上,这并不是一件容易的事。
从企业的层面来看,大模型的落地背后对应的不仅是其在参数、产品层面的不断训练和调整,更是在一个个产业场景中基于行业know-how的沉淀,不断改进和适配,由定制化走向通用场景。
想要实现真正的AGI,大模型仍要不断进化迭代。这背后需要的则是算力、数据、系统等全方位的支撑。
根据相关消息显示,在如今OpenAI基于GPT-4的训练中,其参数量级达1.8万亿巨量参数,训练一次的成本则是高达6300万美元,甚至不止。其中不仅包括单纯的逻辑推理,更包括如数据清洗、高质量数据标注等等环节。
但商汤却有另外一条路。其颇具前瞻性的布局打造了算力基础设施SenseCore AI大装置。2022年全国最大智算中心上海临港AIDC正式运营,推动 商汤的大装置 持续升级。
今年3月底,商汤大装置就已经完成2.7万块GPU的部署并实现了5ExaFLOPS的算力输出能力,可最多支持20个千亿参数量大模型(以千卡并行)同时训练,最高可支持万亿参数超大模型的训练,而根据此次财报数据,如今其上线GPU数量提升到约3万块,算力规模已提升20%至6ExaFLOPS。
基于大装置的底层积累和充沛算力,商汤可以以更低成本和更高效地完成大模型从数据清洗、数据标注到逻辑训练等一系列大模型“进化”所需工作。
优势不仅在成本和速度,更在模型质量和企业落地效果。尽管如今市面上大部分开源模型可以自由调用接口和模型能力,但其背后对应的模型底层能力以及配套工具链相关能力并不完备,具体到产业场景侧则是实际落地效果极差,甚至无法落地。
而商汤的开源模型具备足够扎实的底层模型能力,这离不开其丰富的高质量原始语料数据储备。 据了解,如今商汤可以每月产出超过2万亿token的高质量数据,预计年底高质量数据储备将突破10万亿token。
值得一提的是,商汤一直以来都是开源的积极拥护者。在徐立看来,大模型开源能够使行业和自身从更广泛的合作创新中受益。大语言模型同样通过拥抱开源,从生态中吸取力量。
比如近期商汤开源的InternLM-7B(70亿参数),在多个模型测试榜单高踞榜首,成为性能最好的轻量级基模型。在部分榜单上,InternLM-7B甚至超过了参数量更大的130亿参数的LLaMA2的模型。接下来InternLM-20B模型(200亿参数)也将迎来开源。据悉,InternLM-20B具备优秀的工具调用能力,且运行成本较低,适合构建各类AI应用。
而在开源之外,商汤同样致力于打造具有竞争力且好用的“基座模型”,支持上万个潜在行业大模型的需求。
这恰构成了一个完善的闭环。可以理解为,基于开源、闭源的大模型服务模式,商汤在向外界展示强大底层模型的技术实力的同时,也更建立起新的飞轮,这个飞轮不仅是基于更大量级大模型使用频次带来的模型优化,也更是从开源到闭源的“技术——商业”变现。
而这些,最终构建出的恰是过去半年里商汤在大模型曲线上的不断向上。
三、在新战略里,重新理解商汤
在今年3月商汤科技发布的2022财报中,除了财务数字的披露外,另外一个值得关注的是商汤这家企业的公司愿景和战略目标的进化。
这次改变的具体细节是,从之前“以人工智能实现物理世界和数字世界的连接,促进社会生产力可持续发展,并为人们带来更好的虚实结合生活体验”,转型为“将通用人工智能(AGI)作为核心战略目标,以期在未来几年内实现AGI技术的重大突破”。
在近期的财报电话会上,徐立将这一战略进一步细化。“下半年,我们会借助丰厚的数据和算力资源,来制作更强的基模型。通过开源和商业化的双重推动,2024年,商汤的目标是成为领先的生成式AI应用生态平台。”
徐立表示,希望给行业带来更强的大模型能力,助力用户在生成式AI的时代作出颠覆性的产品,来获得成功。”
一个明显的感知是,商汤对未来的战略路径已然更加清晰。
对于始终深耕AI的企业,有人曾有一个形象的比喻,这波大模型驱动的新AI浪潮的来临,恰像是一场球赛进行到中场,一些站在球门附近的人,“突然”接到了球。
站在球门附近,这是对商汤们的最佳侧写。几个数字是,在今年上半年,商汤基于AI的研发投入超过17.83亿元,而在过去5年里,其累计研发投入更是超过140亿。
这些资金背后对应的是商汤对于AI路径的绝对坚持和持续深耕。而在过去AI不具备强工程落地能力的几年时间里,这种一直站在“门口”的动作往往不被外界理解。
但在如今的大模型时代,这些超过10年的积累和投入最终转化成为商汤在AGI落地的绝对加速度,以及当下愈发明确的前进和自证路径。
这种证明更来自社会层面。
根据弗若斯特沙利文发布的《AI大模型市场研究报告(2023)》显示,商汤在产品技术、战略愿景以及生态开放构建等综合竞争力位列国内第一。此外,就在上周,商汤“商量SenseChat”正式成为首批获批上线向社会开放的大模型产品。
可以说,商汤还是那个商汤,始终坚持在AGI领域持续研发和深耕。但在大模型AI形态的加持下,它更多的产品、更多的技术,正在越来越多地落地到一众产业场景,也更多地被市场和企业看见和接纳。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。