2025/02/18 15:19 光子星球
DeepSeek正在产生连锁反应,开放成为了大势所趋,行业头部都在主动选择开放。
2月6日,OpenAI宣布ChatGPT Search向所有人开放,无需注册,来到OpenAI官网首页就可以直接使用搜索功能。
就在OpenAI公布ChatGPT Search全面开放的前几个小时,谷歌也刚刚宣布向所有人开放最新Gemini 2.0模型,包括Flash、Pro Experimental和Flash-Lite三个版本。
而在国内,属百度反应最为迅速,立即跟上了开源和免费的步伐。
2月13日,文心一言在官网宣布将于4月1日起全面免费,所有PC端和App端用户均可体验文心系列最新模型,以及超长文档处理、专业检索增强、高级AI绘画、多语种对话等功能。
2月14日,百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。
另一方面,主动接入DeepSeek成为了新的“时髦”。国内大小规模企业纷纷宣布部署DeepSeek模型,大厂则以开放的心态,将新的推理功能融入到业务生态中。
2月16日晚,百度搜索和文心智能体平台宣布将全面接入DeepSeek和文心大模型最新的深度搜索功能。搜索用户可免费使用DeepSeek和文心大模型深度搜索功能,文心智能体平台的开发者也将能随时调用DeepSeek模型创建并调优智能体。
DeepSeek-R1在行业中产生了一种正向的反馈,大厂与大厂之间,开源与闭源之间逐渐开始打破壁垒,促进技术的流动和落地。各玩家不在抱有对峙的态度,而是把重点转向了如何利用行业先进模型能力来赋能业务场景,促进应用产品升级,从而让更多用户享受到技术的普惠成果。
打出开放组合拳:从大模型到搜索
作为长期在闭源大模型上深耕,从未放弃过大模型预训练的玩家,百度在开放上反应最为迅速。梳理其近期的动作,从大模型到搜索,百度打出了一套开放“组合拳”。
在开放的大趋势影响下,百度自研大模型加入了开源、免费的行列。百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并6月30起正式开源。
对于DeepSeek,百度也表现出了积极拥抱态度。
先是在春节DeepSeek爆火期间,百度智能云宣布在千帆ModelBuilder平台上架DeepSeek-R1及DeepSeek-V3两款模型,以低于DeepSeek-V3官方刊例价3折和DeepSeek-R1官方刊例价5折的价格,让企业用户优先、实惠地率先体验到了“满血版”的最新模型。
正是因为开放,才带来了正向的拉动效应。数据显示,模型上线首日,已有超1.5万家客户通过千帆平台进行模型调用。
更深度的开放体现在,百度敢于将自身核心业务和重点业务与DeepSeek做探索融合。DeepSeek的推理功能惊艳,但本质上还是底座模型,缺乏使用功能的场景。而百度的搜索和智能体就是最佳的“练兵场”。
有人误以为,有了DeepSeek-R1就能打败所有的大模型。但实际上,DeepSeek-R1也有自身的局限性,快速接入推理功能的意义在于,跳过重复“造轮子”,减少无谓的浪费,优先让模型在场景中跑起来,也让更多用户成为模型测试员。
从目前来看,DeepSeek的诞生,并没有让闭源大模型躺平,反而刺激了行业对自身的反思,从而加速模型升级和新产品推出。
卷模型性能、性价比正在成为行业主要趋势。OpenAI首席执行官Sam Altman发布消息称,GPT-4.5、GPT-5即将陆续发布,免费版ChatGPT将在标准智能设置下无限制使用GPT-5进行对话。
文心大模型自身的深度搜索功能已经上线,在其推理功能基础上,还同时具备更强大的思考规划和工具调用能力,可为用户提供专家级内容回复,并处理多场景任务,实现多模态输入与输出。
全民加速进入AI搜索时代
当DeepSeek爆火后,还是有很多人持观望状态,原因在于不知道推理模型能具体在哪些场景产生明显的提效。目前逐渐清晰的是,“推理大模型+搜索”将带来1+1大于2的效果。
DeepSeek-R1模型以“思维链”功能著称,可清晰展示问题解决的逻辑过程,回答问题深度大大增强。但自从其上线以来,就存在幻觉问题。百度搜索的庞大搜索生态和RAG(检索增强生成)技术,对DeepSeek-R1是一个有效的补充。
RAG的概念其实并不复杂。简单来说,就是让大模型在执行生成之前参考或引用某些数据,而这些数据通常并不在该大模型的训练数据集内,属于专有或私有数据。百度的RAG可通过引用外部知识有效减少生成内容出现事实性错误的问题。再加上百度实时和全面的搜索生态加持,整个推理的过程就做到了,拿着参考案例和解题思路作答的效果。
在原有基础上,此次百度搜索还接入了文心一言的深度搜索新功能,搜索的深度广度和工具调用上了强化“推理”。具体体现在,推理的背后都藏着一个“专家”为用户提供复杂问题和查询的解答。该“专家”起初就会对“搜”这个动作去分类,搜专业问题、热点还是写代码,而后会根据搜索目的确定搜索路径和分析呈现方式。通过真实模拟人的思考步骤和过程,来实现解决问题的目标。
此外,文心一言深度搜索功能还提供了多项工具调用,包含了高级联网、文档问答、图片理解、iRAG等功能,以此弥补了DeepSeek-R1单模态的缺陷。
例如,当用户上传了两张图片,采用“文心大模型4.0工具版”识别图片信息并且比较分析时。它会自动选择调用图片理解、高级联网、代码解释器等工具,模拟人的思考过程,先分析意图,还原分析路径的过程中调取合适的工具,最后以图表的方式直观呈现异同。
如果想根据原有的照片风格生成类似的图片,就可以调用百度独有的iRAG(image based RAG),检索增强的文生图技术。将百度搜索的亿级图片资源跟强大的基础模型能力相结合,就可以生成各种超真实的图片,整体效果远远超过文生图原生系统,去掉了AI味儿,而且创作成本接近于0。
去年,各个玩家都在角逐AI应用第一的宝座,仅凭投流推广,还是无法达到一款超级应用的水平。现在,接入DeepSeek推理模型,全新的模型能力和原有的场景、用户相结合。一夜之间,就冒出了多个超大用户量级别的AI应用产品。
百度App月活7.04亿,推理和搜索能力升级后,让广泛的用户瞬间进入了AI搜索新时代。
此外,百家号有1100万内容创作者,百度文心智能体平台开发者突破80万。
生态的优势将逐渐显。一方面,百度搜索的开放性使其能整合全网信息,结合DeepSeek的推理能力与文心大模型的多模态处理能力,覆盖更广泛的用户需求场景;另一发面,通过智能体平台吸引开发者共创工具,形成“技术+开发者+场景”多轮驱动的良性生态。
百度搜索已经集齐技术、生态、场景的王牌,接下来将引领搜索的新变革。
真开放的底气与勇气
OpenAI的首席执行官Sam Altman认为,正是因为技术曲线发展到了一个新的节点,所以各方竞争之下大模型效率正在加速提升。
百度大模型和搜索能够迅速调转方向,加入到世界的潮流中,正是源于技术与变革的底气。大模型和相关产品的降价只是表现,归根到底源于背后训练成本和推理成本的降低。
近期,百度智能云成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。据悉,百度智能云将进一步点亮三万卡集群。
大规模集群的优势在于,可以通过任务并行调度、弹性算力管理等方式,提高计算资源利用率,避免算力闲置,提高单任务的计算效率,降低整体算力成本。其昆仑芯在性能上表现卓越,能够在更少的计算资源下运行大规模模型(如DeepSeek-V3/R1)。
百舸平台实现大规模集群的高效部署管理。为了解决大模型训练时高通信带宽的需求,百度建设了超大规模HPN高性能网络,通过优化的拥塞控制算法、集合通信算法策略,提升了通信效率,将带宽有效性提升到90%以上。
同时,万卡集群的能耗极高,常规的散热方案能耗可达十兆瓦或更高,这将提升企业进行模型训练的电力成本。为此,百舸采用了创新性散热方案,可以降低能耗,进一步降低模型训练成本。
为了提升GPU的有效利用率,百舸优化并完善模型的分布式训练策略,通过高效并行化任务切分策略,将训练主流开源模型的集群MFU提升至58%。
为了保证大规模集群执行训练任务的稳定性,百度自研的BCCL(百度集合通信库),能够快速定位故障同时提供自动化的容错能力,重新调度任务到健康节点,继续完成训练。目前已经将故障恢复时间从小时级降低到分钟级,保障集群有效训练率达到98%。
除了训练成本,现阶段,训练成本下降才是更主要的因素。有分析人士认为,此次文心一言全面功能开放,背后最大的原因之一就是推理成本不断降低。
根据其分析,百度在模型推理部署方面有比较大的优势,尤其是在飞桨深度学习框架的支持下,其中并行推理、量化推理等都是飞桨在大模型推理上的自研技术。飞桨和文心的联合优化可以实现推理性能提升,推理成本降低。
从技术发展曲线来看,大模型推理和AI成本一直在下降。
以GPT为例,2023年GPT-4的token成本为36美元/百万token,到了2024年中期GPT-4o成本下降为了4美元/百万token,在此期间每个token价格下降了约150倍,摩尔定律以每18个月性能翻倍的速度改变了世界。
“过去,我们谈论摩尔定律时,每18个月,性能水平或价格都会减半。但是今天,当我们谈论大语言模型时,增加的成本基本上降低了,可以在12个月内降低90%以上”,百度CEO李彦宏在阿联酋迪拜出席“世界政府峰会”说道。
开源、普惠、人人都用得上AI,也许已经在路上了。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。