上流社会无删减 1080p的绿色梦想:健康与环保的双重追求服务承诺:按公司专业服务规定,修不好不收维修费(请您对我们的维修师傅进行监督); 实时
上流社会无删减 1080p的绿色梦想:健康与环保的双重追求严格按照公司程序和操作规范确保。\ 证券丨淘宝(温馨提示:即可拨打)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
上流社会无删减 1080p的绿色梦想:健康与环保的双重追求随着我国的生活水平日益,电器已成为人们日常生活中必不可少的家居,随着用户的故障也随之大量,给用户的日常生活带来了很大的不便!
上流社会无删减 1080p的绿色梦想:健康与环保的双重追求具体判断是否是三菱空调的问题,可以测量进出风口的温差,如果温差在10-13°范围内,三菱空调一般是没有问题的。
上流社会无删减 1080p的绿色梦想:健康与环保的双重追求全国服务 专业维修驻事处报修受理服务程序:电话报修——上门检查——据实报价——维修故障——提供保修。 梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
公司有来自众多原专业专业服务技师与工程师的加入、提高了专业服务质量、维修质量和维修效率,只要您一个来电,将用微笑、质量、效率竭诚为您服务! 梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
经我中心 的机器一律实行保修3个月,在保修期内如因或更换配件出现问题,我中心负责返修。 梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
随着用户的增多,采暖炉维修量随之加大;热线容易占线;请您多拨几次;敬请谅解!全天候、全天时为您服务。 梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
梅州市(梅江区、梅县区、兴宁市、平远县、蕉岭县、大埔县、丰顺县、五华县)
百度后手出牌,如何应对被重构的大模型格局
新一**I卡位战中,人们对百度的质疑多集中于百度是不是懈怠跑不动了,从目前的事实进展来看,百度的每一个动作里,仍然藏着野心和激情
文|吴俊宇
编辑|谢丽容
2025年初,DeepSeek-*1搅乱了中国的大模型竞争格局。
过去三年行业里有一个基本共识——*I大模型只是科技大厂的游戏,创业公司很难出头。一位中国科技公司大模型领头人认为,此前的状态是几个大厂不紧不慢地赛跑。“现在赛道上突然横**一匹黑马,格局完全乱了。DeepSeek在倒逼大厂重拾紧迫感。”(文章详见)
DeepSeek不仅打破了大厂垄断大模型的共识,还引发了其他连锁反应:
其一,大模型的竞争焦点从训练走向推理,低*本、高性能的模型变得更重要。
其二,*I应用正在爆发,固化多年的互联网应用格局可能会出现新的生机。
对大厂来说,现在比两年前大模型爆发初期的机会更多了,但竞争难度在变大。前两年,它们只需准备万卡算力、训出千亿参数的模型,然后看别人“卷”应用。现在,它们得买十万卡的算力,训又好又便宜的模型,还要自己下场在T* B(面向企业级)、T* *(面向消费者)两个方向同时探索*I应用。
DeepSeek大火之后,阿里、字节跳动不仅迅速推出了对标DeepSeek的新模型,*I(人工智能)战略也在悄然调整,全面拥抱*I大模型应用落地。
百度2023年初在中国大模型市场一度是领跑者,它在中国率先发布了面向普通消费者的大语言模型。2025年DeepSeek爆发后,百度的应对看起来没有那么快速直接。
但是,市场始终关心这些问题:
百度不仅发布了文心大模型4.5 T**b*和文心大模型X1 T**b*两款新模型,还发布了高说服力数字人(也就是更逼近真人的数字人)、多智能体协作应用“心响”等一系列新款*I应用。截止午间,百度集团(9***.HK)股价涨幅超5%。
(*彦宏发布文心大模型4.5 T**b*和文心大模型X1 T**b*)
百度创始人兼*E*(首席执行官)*彦宏在这次大会的演讲中提到了几个重要判断:
其一,当前开发者做*I应用的一大阻碍,就是大模型*本高、用不起。*本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低*本地部署大模型,最终推动各行各业应用的爆发。
其二,没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。
其三,*I应用井喷的时代就在眼前,它可能是智能体、小程序、*pp(移动应用)等各种*I应用形态。
卷模型,对百度来说,这件事情依旧是确定的。因为基础模型能力的竞争始终没有结束。
虽然“S**ling L*w”(规模定律,模型性能由算力、模型、数据规模决定)近一年在放缓,但没有任何一家大公司因此放弃训练基础模型。因为,模型能力始终是决定客户规模的核心因素。
一位科技公司算*负责人今年1月曾对我们表示,大模型是长跑,模型每3个-6个月就会有一*重大升级。长期迭代并保持性能领先很重要。一旦模型能力落后,就会被竞争对手抢走客户。
2025年,大模型的另一个方向是,降低算力*本。一位中国头部云厂商大模型业务负责人今年3月对我们表示,2025年中国大模型的发展主脉络之一仍然是提升模型精度并降低算力*本。
因此,百度此次发布了文心大模型4.5 T**b*和文心大模型X1 T**b*。这是3月16日发布的文心大模型4.5、文心大模型X1的升级版。它们主打三大特性:
为什么要不断把大模型的*本降下来?*彦宏解释,开发者做*I应用的一个很大阻碍就是*本高,用不起。而创新的本质往往就是*本下降。
ID*数据显示,2024年12月中国大模型日均调用量9522亿次,2024年6月这个数据只有963亿次。也就是说,2024年6月-12月中国大模型日均调用量增长了近10倍。
百度的文心大模型2024年的日均调用量也在快速增长,它的增速跑赢了市场大盘。2024年12月,百度文心大模型日均*PI(应用程序接口)调用次数是16.5亿次,相比2023年12月的0.5亿次增长了33倍。不过,百度没有披露日均T*ken调用量。
一位大模型技术人士分析,日均T*ken调用量这个数据很重要。它可以直接估算模型厂商的收入情况。近一年大模型调用的上下文长度一直在增长。理论上看,百度的日均T*ken调用量会超过33倍。
百度的云业务过去一年受益于大模型的发展,业绩也在快速增长。百度智能云2024年营收21*亿元,同比增长17%。尤其是在2024年四季度,营收71亿元,同比增长26%。这个高增速,目前在国内云厂商之中是少见的。
百度过去选择闭源的逻辑是,开源模型约等于免费,它没有商业模式。但闭源模型商业模式简单清晰,理论上选择闭源才健康可持续。从商业逻辑来看,这个判断是正确的。
现实情况是,2024年中国市场开启了大模型**战,闭源模型短期内很难盈利。免费的开源模型反而容易获取市场声量。
某科技公司的一位战略规划人士透露,2024年中国各个模型厂商的模型调用收入普遍只有千万元、数亿元。这部分收入寥寥无几。但模型调用带来的算力消耗、公共云四大件(计算、存储、网络、数据库)收入增长,反而更可观。因此,阿里云等厂商宁愿用免费开源的方式,刺激市场需求。
尤其是在DeepSeek-V3/*1这两款开源模型走红后更是如此——任何人都能下载、部署、使用,因此几乎所有云厂商都接入了它们,并且在短期内获得了算力消耗和收入增长。DeepSeek-V3/*1这类开源模型借此获得了更大的市场声量。这种情况下,市场对闭源模型的误解容易加深。
今年2月,*彦宏在2024年财报发布后的投资者**会中提到,
一位百度人士对我们表示,
随着推理算力*本不断下降,2025年*I应用爆发的趋势已经非常明显。
钉钉、飞书、WPS、美图秀秀、百度文库、百度网盘这些*应用近半年在加快叠加新的*I能力,M*n*s这类原生*I应用也在迅速爆发。以百度文库为例,*I付费*能用户已超过4000万人,*I月活用户达到9700万。
与此同时,一批月活跃用户过亿、过千万的*I原生应用正在诞生。它们分布在*I聊天、视频生*、写作、搜索等各个领域。
为应对*I原生应用爆发的态势,百度正在三个方向发力。
M*P是一套全***行的智能体开发标准。它最早在2024年11月被亚马逊投资的明星*I创业公司*nth**pi*提出并开源。目的是形*一套开放、标准的规范。它让大模型能接入各种外部数据和工具(如业务软件、数据库、代码库等),大模型能够可以“即插即用”调用这些模块的数据。
简单理解,它就像是**、电脑的*SB-*传输接口。这套标准后来很快被微软、谷歌、*I创业公司*pen*I,以及国内的百度、阿里、**、字节跳动等公司接受了。它逐渐*为事实上的标准。
因此,百度智能云千帆*ppB*ilde*目前兼容了M*P协议,开发者可以快速调用M*P生态中的工具。它不仅可以简化应用开发的流程,还意味着应用还能被其他工具兼容。
一种观点是,现在基于M*P开发应用,就像2010年开发移动*pp。尤其是目前大量企业内部沉淀数据尚未被充分利用。基于M*P开发的应用,可以直接访问和分析这些数据,充分挖掘商业价值。
尤其是多智能体协作,它被认为是下一个高价值的*I应用方向。*彦宏认为,未来的*I应用将从回答问题走向任务交付,而任何一个复杂任务的交付,都需要多智能体的协作来解析需求、分拆任务、调度资源、规划执行,最终交付结果。
事实上,这个判断已经是事实。一位中国互联网创业公司高管今年3月曾对我们表示,在这一*M*n*s出圈之前,硅谷的智能体就已经很热了。一批创业公司正在卷智能体,甚至是把多个智能体结合在一起完*复杂任务。它的好处是,多智能体应用可以自动规划并完*工作。
面对*I应用井喷的状态,百度搜索开放平台发布了“*I开放计划”,通过各类内容和服务分发机制,为智能体、小程序、***pp等*I应用开发者提供流量和收益。
对百度来说,无论是自己下场做*I应用,还是帮助开发者做好*I应用,都是不错的选择。
前者如果跑通,意味着可以跑出一批*I时代工具类产品。甚至是做出*I时代的超级*pp,抢到*I时代的“船票”,但这个概率比较小。后者则意味着,更多的开发者会使用百度的云服务、工具产品,百度智能云会因此做大——它的确定性相对更大。
*I应用爆发,意味着算力消耗将更多、更快——而且是100倍以上的增长。
英伟达创始人黄仁勋3月在GT*(Nvidi* GP*科技大会)2025预测称,随着未来推理算力效率不断提升,10倍增长的T*ken数量和10倍的增长计算速度,将让2025年的算力消耗增加100倍。我们了解到,阿里、字节跳动近1年日均T*ken调用量增长已经超过100倍。
然而,中国始终面临着算力断供的风险。由于出口管制,今年4月之后中国已经无*通过正常渠道获取英伟达的H20等芯片——算力瓶颈始终是中国算力产业的“达摩克利斯之剑”。事实上,DeepSeek给行业带来的重大启发就是,如何在算力受限的情况下,训练出性能不俗的模型,并且降低它的推理*本。
2025年以来,百度智能云连续**点亮自研昆仑芯三代P*00芯片的万卡集群、三万卡集群。目前百度拥有万卡集群**和部署能力,可以进一步降低模型训练、推理*本。理论上,自研芯片采购量足够大,*本足够低时,可以摊薄研发*本,进而得到更有性价比的算力。
模型训练通常由千卡、万卡集群完*。单卡故障会影响集群运作。集群越大、芯片越多,故障率就越高。2024年9月,百度的一位资深**架构师对我们分析
根据百度方面的说*,百度的百舸计算平台等调度工具可以解决这个问题。目前,百度在万卡集群上实现了99.5%以上的有效训练时长,两种芯片*合训练大模型的效率折损控制在5%以内。
百度集团执行副总裁、百度智能云事业群总裁沈抖在百度开发者大会解释,为降低模型推理*本。百舸采用了通过PD分离(模型输入和输出分离)架构、大规模M*E/EP(专家模型和专家并行)架构等方式,进一步提升推理性能、降低推理*本。
我们了解到,PD分离架构的好处是,可以在多*对话中降低重复计算,最终节省算力。M*E/EP架构的好处是,每次调用模型时只激活一小部分专家模型和参数,并且把每个专家模型部署在不同*I芯片上并行计算,进而减少单卡压力,提高资源利用率。
过去,传统的*I服务器通常只会搭载八枚*I芯片。它带来的问题是,服务器间的互联性能损耗很大。但“超节点”的做*是,把数十枚,甚至是数百枚*I芯片集*在一个机柜中。再通过在芯片间构建高带宽、低时延的互连网络,降低多枚芯片并行计算的通信损耗,最终提升整体算力效率。
2025年以来,百度昆仑芯实现了64枚P*00芯片的超节点方案。按照百度方面的说*,64枚P*00芯片的超节点方案,可以把卡间互联带宽提升到原来的*倍,单卡的训练性能提升10倍,推理性能提升13倍。
事实上,“超节点”这种技术方案目前只有少数几家公司在探索。比如,华为系列近期实现了3*4枚昇腾910系列芯片的超节点方案。英伟达去年发布的GB200 NVL72,就是把36 枚G***e *P*和72枚Bl**kwell GP*集*在一起。
这种技术方案并非完美,它有一定的取舍。我们从部分芯片技术人士了解到,新的工程架构会让每个FL*P(每秒所执行的浮点运算次数)的*耗大幅增加。但对中国的电力资源充沛、算力资源受限,因此用电力换算力的做*可以在有限空间内,榨取更多算力。
一位算*工程师的观点是,在芯片采购受限的情况下,中国科技公司打破算力瓶颈的少数**之一,就是靠软硬件工程手段榨*每一枚芯片的性能。
新一**I卡位战中,人们对百度的质疑多集中于百度是不是懈怠跑不动了。从目前的事实进展来看,百度的每一个动作里,仍然藏着野心与激情。
责编 | 要琢