Posted in: 科技

百度智能云,迎接 AI 落地的一年

 

当教育公司好未来想要训练自己的大模型时,它遇到了算力的难题。其算法工程师往往有多个项目、多个训练的模型、以及各种版本的迭代,任务繁多。在这个背景下,它们希望通过一个专业且稳定的算力训练平台,为每一个算法工程师分配合适的算力资源,让整个训练体系高效运转起来、将手上的算力利用到最优。

在大模型落地之路上,很多企业都面临像好未来一样的难题。当它们想要自己去训模型的时候,可能会遇到算力难以利用好的问题;当他们想要调用、调优模型时,可能会面临模型选择不够、工具链不够、数据不够等问题。

这正是国内云厂商想要帮他们解决的问题。在大模型浪潮下,过去以 IaaS(基础设施即服务)和 PaaS(平台即服务)为主的基础云服务,正让位于以 AI 为主的 MaaS(模型即服务)的云服务。云厂商希望能解决企业模型落地的这波需求,不仅仅是为了收模型和工具调度费,底层还是希望拉动云收入。

在大模型时代,围绕企业的不同落地需求,百度智能云推出了全栈的产品服务体系。

第一层是百舸计算平台,它基于百度对文心大模型训练的经验沉淀,主要为那些想自训模型的客户提供算力服务。好未来最终就选择了基于百舸训练自己的大模型。第二层是模型平台千帆,主要面向想直接调用模型、深入部署模型、以及基于模型进行上层应用开发的客户。早在去年 3 月,百度 C 端应用「文心一言」推出当月,百度智能云就及时推出了千帆平台。

这种积极性让百度智能云在 AI 大模型落地的进程中走在前列。据 IDC 发布的《2023 中国大模型平台市场份额》,中国大模型平台及相关应用市场规模达 17.65 亿元,百度智能云处于第一。而据自媒体”智能超参数”介绍,在 2024 年 1-8 月份的大模型中标数量盘点中,百度在中标项目数、行业覆盖数以及央国企中标项目数上,排名第一。

在 9 月 25 日百度智能云举办的云智大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖介绍,目前大模型已经在企业端被真正用起来了。目前在千帆大模型平台上,文心大模型日均调用量超过 7 亿次,用户累计精调了 3 万个大模型,开发出了 70 多万个企业级应用。

在这样的背景下,百度智能云分别针对算力、模型、AI 应用,升级了百舸 AI 异构计算平台 4.0、千帆大模型平台 3.0 两大 AI 基础设施,并升级代码助手、智能客服、数字人三大 AI 原生应用产品。沈抖表示,大模型以及配套的算力管理平台、模型和应用开发平台,正在迅速成为新一基础设施。这是大模型走向千行百业的重要基础。

以下是极客公园与百度智能云、以及百舸和千帆两大产品体系负责人交流后,看到的这两款重要产品的核心变化。从中,可以一窥中国企业落地大模型的核心难点、关键趋势。这对于接下来国内大模型的落地进程或许是至关重要的。

 

百度集团执行副总裁、百度智能云事业群总裁沈抖|图片来源:百度智能云

 

对想训模型的客户:从「多快好省」用上算力,走向万卡集群时代

尽管直接调用模型是主流,但仍然有很多企业有自己训练模型的需求。据极客公园了解,这类企业往往集中在大模型初创企业、传统互联网企业,以及生命科学、智驾等行业。就企业规模来看,以行业头部客户居多。

它们一般具备较强的技术研发和快速迭代能力,有一定数据积累、数据质量良好。当然,它们也需要采购 GPU 算力。

但对于这些企业来说,如何能把算力用好,是一个核心难题。百度杰出系统架构师,百度智能云 AI 计算部负责人王雁鹏对极客公园表示,这些客户在算力上的核心痛点,大概可以总结为「多快稳省」。

1)多:指的是在算力卡脖子的情况下,企业必然要混合多种芯片训练,但芯片混训难度非常大。

2)快:指的是减少集群部署时间,提升模型训练推理效率,实现大模型业务快速落地。

3)稳:指的是技术故障都有可能导致训练任务停摆,进而造成损失,需要保持稳定和有效训练时长。

4)省:指的是算力没有被利用出来,甚至 50% 的算力都被浪费了,因此提升资源利用率对企业节省成本至关重要。

在王雁鹏看来,很多互联网行业客户的技术能力主要强于上层软件,而对于高性能计算、存储、网络、算法框架等底层基础设施能力上存在欠缺。他们想自己用好算力的难度比较大,这正是百舸平台提供的价值。

百舸延承自百度这十余年的基础设施经验,从最开始自己搭建服务器、到深度学习崛起后开始尝试 GPU 加速、到后来跟上云计算的巨大底层变革、再到今天 GPU 云时代超大规模的并行计算和万卡集群的算力利用。百度将过去多年的技术积累、资金与人员的大力投入、以及文心大模型的训练经验,最终沉淀为了百舸计算平台。

百舸 AI 异构计算平台 4.0|来源:百度智能云

 

在上述四大方面,百舸平台取得了领先于行业的产品优势:

1)多:百舸支持在同一智算集群中混合使用不同厂商芯片,兼容昆仑芯、昇腾、海光 DCU、英伟达、英特尔等国内外主流 AI 芯片,多芯混合训练任务的性能损失控制在万卡性能损失 5%,是业界最高水平。

王雁鹏介绍,实现多芯混训的核心,包括要在一套框架下面能把所有的芯片都用起来、因此要在抽象层把各个芯片打平;要建立芯片统一的通信库;要通过异构并行切分策略,解决不同芯片之间的互联带宽差异等。

2)快:一方面,百舸 4.0 能帮客户省去大量复杂和琐碎的配置和调试工作,最快 1 小时便能创建万卡规模集群,这要比行业通常需要的数天甚至数周快得多;另一方面通过大模型训推任务加速套件 AIAK,能针对主流开源大模型在并行策略、显存、算力等层面进行深度优化,为万卡集群下的大模型训推加速。比如单个芯片整体训练效率提升了 30%,长文本推理任务可以做到「极速生成」与「秒回」、效率提升了一倍。

王雁鹏介绍,这背后一方面是单卡训练的提升,基于具体场景做算子的加速库。目前,百舸聚焦在大语言模型和自驾模型两大核心场景,同时在算子层面进行加速。

另一方面是并行训练的提升,包括坚持使用 RDMA 进行大规模集群组网、包括一边计算一边通信、也包括显存的优化等,最终形成了并行训练的提升。

3)稳:大模型训练是一个庞大的单一任务,一个点出错,整个集群就得停下、回滚到上一个记忆点。百舸在万卡任务上可实现有效训练时长占比 99.5%,稳定性极强。

这背后在于降低故障次数和减少恢复时间,百舸在故障检测、故障诊断及定位、Checkpoint(检查点)及时写入、可观测能力、故障诊断、快速恢复等多个环节都进行了优化。

4)省:如果说一般客户自己管理算力只能发挥不到一半的资源利用率,那百舸能将资源利用率提升至 90%。

一方面是训推一体技术。如果说传统的模型训练和推理通常是在不同的集群中进行,导致训练阶段需要大量的计算资源和数据,而推理阶段对算力的要求则显著更低,造成资源浪费。那么训推一体技术是在不同时间使用 GPU 资源,让集群能同时支持在线推理服务部署、以及离线训练任务,从而提升资源利用率。

另一方面是弹性资源池技术。百舸是以弹性队列为核心去设计每一个任务的配额和各种分配策略,根据训练任务设计优先级、抢占策略、分配策略,进一步提升资源利用率。

正是看重百舸在稳定、高效提供算力等方面的优势,经过综合评估之后,好未来最终选择了百舸。好未来看来,百舸平台的自适应分配策略,无论是对并行模型、并行训练任务的处理,还是对单任务之间的快速衔接等,都能做到速度非常快、同时保证任务不掉,使得团队快速地完成了九章大模型的研发上线。

这些都还是在万卡集群的维度进行讨论,不过往未来看,国内大模型行业很快将进入十万卡集群的竞争。

沈抖介绍,大模型领域的 Scaling Law(缩放定律,指模型性能会随着参数、算力、数据集的规模增加而提高)仍在继续,这意味着大模型训练会很快进入十万卡集群的竞争阶段。不久前,马斯克表示刚建设了 10 万卡的集群,未来几个月还会扩张到 20 万卡,这不会是个例,

在他看来十万卡集群训练的挑战很大。一方面是空间,部署 10 万卡的大规模集群,光是在物理层面就要占据大概 10 万平方米的空间,相当于 14 个标准足球场的面积。另一方面是能耗,这些服务器一天就要消耗大约 300 万千瓦时的电力,相当于北京市东城区一天的居民用电量。

而这种对空间和能源的巨大需求,已远远超过了传统机房部署方式所能承载的范畴。因此不得不考虑跨地域的机房部署,但这又带来了网络层面的巨大挑战。另外 10 万卡集群的训练中断比例会大大提升,有效训练时长占比会非常低,这也是很大的挑战。

不过在沈抖看来,百舸 4.0 正是为部署 10 万卡大规模集群而设计的,而今天的百舸 4.0 已经具备了成熟的 10 万卡集群部署和管理能力。「它就是要突破这些新挑战,为整个产业提供持续领先的算力平台,让我们的客户始终走在时代前沿。」他说。

 

复盘大模型落地这一年:从试水、到中间阶段、再到真正的爆发

对于那些想要基于现有大模型做二次开发(包括再训练、微调、评估和部署)的企业来说,百度智能云千帆平台的初衷就是为它们打造。去年 3 月,千帆平台提供了大模型调用接口和微调工具链,帮助企业更好地进行大模型落地尝试。

而在百度副总裁谢广军看来,这一年半来,大模型落地趋势经历了三次变化。而针对这三次变化,千帆平台也相应完成了从 1.0 到 3.0 的三次版本进化。

千帆 1.0 推出时,正值大模型爆火,那是企业进行大模型落地的第一个阶段:接触大模型的人都在找卡、囤积算力、尝试训练模型,大模型带火了芯片和算力。那时大模型的需求相对模糊,千帆 1.0 主要提供给企业大模型调用和微调服务。

从去年下半年开始,大模型落地进入了第二个阶段:很多企业和开发者,都在探索怎么基于基座大模型改造现有业务,在模型调用之上新增了应用开发的需求。在这样的背景下,千帆推出 2.0,为企业提供 AI 原生应用开发工具。不过,这个过程虽然有很多企业在尝试,但真正用到生产中的并不多。

而从今年 5 月开始,受各家模型厂商的价格战影响、模型降价,加速了企业把大模型用起来,并在业务场景里产生价值。

自今年上半年以来,大模型的落地发展明显加快|图片来源:百度智能云

 

据百度智能云观察,自今年上半年以来,大模型的落地发展明显加快。就千帆平台的观察来看,其文心大模型日调用量超 7 亿次,累计精调模型超 3 万个,帮助用户开发 AI 应用应用超过 70 万个。

据谢广军介绍,大模型的应用已经进入爆发期,很多企业不是在等待类似移动时代的爆款应用,而是已经把大模型用到了自己业务的「研产供销服」的各个环节。

在他看来,这也是过去 18 个月整个国内大模型产业发展的一个缩影。「我们可以预判,2024 年将成为国内大模型产业应用爆发的元年。」他说。

 

企业的模型应用趋势:更深的模型工具链、更丰富的模型选择、更专业的应用开发工具

为了接住今天快速增长的 AI 落地需求,千帆大模型平台此次升级了 3.0 版本,在模型开发层、模型调用层、应用开发层三大方面都有了更新。如果拆解每一层,也能看到当下 AI 落地的一些需求和趋势。

 

1.模型开发层:需要大小模型结合、需要更深的工具链、需要补给数据

模型开发层,指的是需要基于现有大模型做二次开发(包括再训练、微调、评估和部署)。

据百度副总裁谢广军介绍,企业在进行模型开发时,一个需求是它们要的不只是大语言模型,也还需要传统的视觉模型、语音模型,甚至是传统意义上的小模型。比如在教育场景里,如果要大模型评判作业,它往往需要一个拍照的过程,通过 OCR 视觉模型解析题目,再通过大语言模型生成答案。

另外,企业进行模型开发的需求也更深度了。比如过去千帆提供的是低门槛一站式部署平台,但现在涌现了很多专业的用户,他们需要更深度的模型开发,比如白盒化训练、作业建模等方式开发等。

而在数据层面,企业也有了更高的要求。比如用户可能存在数据质量不高、数据不够、很难代表行业垂类场景的情况,那么就需要混入一些行业专有数据。另外,很多模型在训练时是针对具体场景做效果增强,但这可能会出现通用能力遗忘的问题,这时也需要混入通用的语料。

针对这些情况,千帆大模型平台 3.0 做了全面的更新。目前,它支持大模型和多种传统模型的协同开发,并提供了行业最全面的模型精调工具链,上线了 DPO、KTO 等模型训练算法和 PTQ 等模型量化算法。它还预置了独家高质量混合语料,支持企业将应用中产生的宝贵数据反馈给模型、形成数据飞轮,放大模型在特定场景下的优势。

 

千帆大模型平台 3.0 模型开发工具链|图片来源:百度智能云

 

一个案例是,高途教育通过千帆大模型平台的开发工具链训练了作业批改大模型。它可以准确识别印刷体的题干和手写体的学生答案,同时利用千帆「数据飞轮」对这些数据进行清洗和精标,进一步提升模型性能。现在,改大模型的数学判卷准确率已经能达到 95%,最终让老师、学生受益,让公司业务增长。

 

2.模型服务层:持续扩充模型类型、降低模型价格

模型服务层,指的是用户直接调用大模型的需求。

千帆平台的升级思路,一是持续扩充模型的类型。比如在主力模型上,推出了新的模型 ERNIE Speed pro、ERNIE Lite pro 等,上下文都是支持 128K。垂类场景模型上,又推出了包括 ERNIE Character、ERNIE Functions、ERNIE Novel,更好满足一些企业在细分场景的需求。

除了文心系列大模型外,千帆还提供了包括近百个国内外大模型等丰富模型选择。除了语言模型,还支持调用语音、视觉等各种传统的模型等等。

文心大模型家族全景图|来源:百度智能云

 

在扩大模型类型的同时,另一重点是降低模型调用成本。过去一年,文心旗舰大模型降价幅度超过 90%、主力模型全面免费。这带来的效果是,文心一言大模型的日均调用量超过 7 亿次。

上海巨闲网络科技旗下的产品「考试宝」,通过千帆的大模型调用和提示词工程,实现了试题解析智能化,可以秒级返回解析结果,用户会员转化意愿翻了一倍,且单条试题解析成本降幅达到 98%。最终实现了降本增收。

又比如是国内领先的招聘企业猎聘,通过调用文心大模型,对岗位需求和简历内容进行语义理解分析,帮助猎头顾问快速、智能地筛选简历,实现了高效的人岗匹配。现在,猎聘的人岗匹配准确率比业界平均水平高出 15 个百分点,提升招聘效率 50% 以上。

 

3.应用开发:企业级 RAG、企业级 Agent、AI 速搭三大方向

大模型真正在企业用起来,最上层的一步是看应用。它是一种最简单实用的方式,帮助企业用大模型来改造自己的业务。

目前,企业的的应用落地主要是在 RAG(检索增强生成)场景。因为 RAG 能让大模型快速「懂业务」,它相当于把海量的企业数据和行业知识做成「外挂知识库」给大模型。目前,千帆 3.0 从检索效果、检索性能、存储扩展、调配灵活性四方面对企业级 RAG(检索增强生成)进行了升级。

比如,通过与百度云资源打通,它可以支持无限容量的知识库存储和检索;速度上,能做到 1.5 秒内返回结果;RAG 全部关键环节,包括解析、切片、向量化、召回、排序等等,都可调、可配;企业可以灵活配置出最适合自己业务的方案;最后,它提供了企业级的安全性和稳定性。

在 2024 云智大会现场,演示了澎湃新闻应用企业级 RAG 的例子。这类权威媒体报道一条新闻时,往往需要引入该新闻的前因后果、背景信息,这是写报道的基础。澎湃新闻通过千帆创建知识库,上传了澎湃新闻成立十年以来所有媒资信息,共计 2700 万篇文档,超过 350 亿文字。接下来,设置成 100% 按知识库内容回答。

这对 RAG 的切片能力和召回的准确度要求非常高。比如让它盘点中国网球奥运发展史、以及 2024 年巴黎奥运女单冠军郑钦文的个人发展故事,大模型很快就定位到了知识库里的相关信息,并用结构化的表达方式生成了新闻事件的脉络、提供了文档索引。这体现了大模型强大的意图理解和内容生成能力。

又比如 RAG 的指令遵循能力。如果删掉知识库中有关郑钦文获得 2024 年奥运网球冠军相关的信息,再去问大模型,2024 年巴黎奥运会女单网球冠军是谁,大模型会拒绝回答这个问题。这是才是正确的做法。过去,由于大模型的「幻觉」问题,企业担心大模型不靠谱,但有了 RAG 和严谨的指令遵循,这个问题可以得到解决。

另外一个常见的大模型落地方式是 Agent(智能体)。Agent 在接到一个任务后,会进行自主思考、任务拆解、方案规划、并调用工具,全程自动地完成任务。千帆 3.0 升级的一个重要内容,就是针对企业级 Agent 的开发,增加了业务自主编排、人工编排、知识注入、记忆能力以及百度搜索等 80 多个官方组件支持。

在大会现场,也展示了在电商领域应用的例子。爱库存作为一家私域电商供货平台,数百万店主在爱库存上找到想卖的商品,通过自己的微信群、朋友圈这些渠道分发出去。爱库存正在千帆大模型平台上开发一个叫「爱库存超级助手」的 Agent。

过去,如果一个店主发现销量变差了,想调整一下销售计划、看看接下来适合卖什么。他首先要到数据看板上分析原因,如果确认是选品的问题,他会到爱库存「热卖榜」里去找更有增长潜力又适合他客群的品类,然后去做同类产品的比价、选品,最后还要到生成对应的文案和海报。这几步走下来,一般得几个小时。

而现在通过搭建 Agent,分钟级就可以完成,效率得到极大提升。目前这个功能正在内测,预计在 Q4 向爱库存的店主正式开放。

此外,本次大会还发布了企业级智能化低代码应用开发平台「AI 速搭」,通过自然语言对话,一句话就可以完成应用创建。

在大会现场,还演示了如何通过对话,在 AI 速搭平台上开发一个资产管理应用。只需一句话描述对目标系统的需求,包含资产信息、资产入库、资产领用、资产维修、资产报废等功能模块,大模型就可以清晰地理解需求并生成应用。过去,这样一个应用即使用低代码方式开发也需要几天的时间,现在只需几分钟就能完成。

大模型浪潮已经到了第二年,中国企业的落地速度、规模比想象中要更快。这离不开模型厂商以及提供全套落地产品体系的云厂商的努力。随着大模型落地真正拉开大幕,依靠响应速度、投入、决心等,百度智能云试图领跑、争夺 GPU 时代云计算巨头的生意规模和市场地位。今天或许只是一个开始。

 

Posted in: 科技

从这场智能客服魔法对抗赛上,我看到了AGI落地的正确姿势

刚刚落幕的云栖大会百炼杯「智能好客服」PK 赛现场,上演了一场智能客服领域的「魔法对抗」。

比赛规则很简单,8 支参赛企业赛前卷算法,现场看效果,主办方阿里云提供模型开发平台百炼,选手用各自的解题思路去构建「智能好客服」而好的标准便是把个色人格的消费者都接待满意。

不过,主办方派出的聊天客户,却并非真人。而是同样通过百炼刻意为了「刁难」参赛队伍打造的不同人设 agent:其中,既有讲话错别字连篇还不会网购的阿姨;也有正在气头上的暴躁都市丽人。

只有魔法,才能打败魔法。参赛企业的应对,也堪称教科书级别。

比如冠军云梦科技,靠着一群技术宅团队做出了能应对暴躁都市丽人的 agent。面对买家沟通时的情绪波动,不仅能连续妥善识别应对,甚至还能分清「黄二白」「混油皮」这样的专业美妆术语,并根据买家对产品的特定需求,迅速推荐适合的产品,最后,还能在眼花缭乱的促销活动中,给出用户精准无误的解释。

获得了此次比赛亚军的合力亿捷,则派出了刚进入公司的职场新人,培训了两天不到,就直接通过阿里云百炼平台,让 Agent 就完成了三版迭代,回答的有效性从 80% 提升至 96%。

更「激进」的,是最佳创意奖得主企业云蝠智能,干脆放弃程序员参与,直接派来了公司的财务迎战「退休老大妈」agent,全程负责这次比赛的应用开发。而在此之前,这位财务,仅仅接受了 20 分钟的大模型与提示词培训。

当然,智能客服只是大模型发挥作用的经典场景之一;以此为切口,大赛主办方阿里云试图传达的更深层次意图在于:

大模型,已经真正进入卷应用的时代。

01 为什么是智能客服

关于这场挑战赛,很多人的都有一个疑问,大模型明明有很多炫酷的应用,比如自动驾驶,比如生物制药,为什么要选择智能客服这么一个看起来一点也不性感的方向?

一个基础的行业共识是,大模型应用爆发时代已经来临,每种生意都值得在大模型时代重做一遍。但每种生意的门槛与成本收益比却不尽相同。

图片来源:阿里云

毫无疑问,智能客服会是大模型落地持久战中,一个成本低、收益高的重要赛道,而它的落地场景,也渗透到了日常生活的方方面面。

一方面,智能客服是大模型长文本、多轮对话能力最直接的应用。

另一方面,智能客服背后潜藏的,是一个商业化潜力巨大蓝海市场。IDC 报告《中国智能客服市场份额,2023 :新旧交替,增长可期》中显示,2023 年中国智能客服市场规模已达到 30.8 亿人民币,较上一年增长近 37%。

更重要的是,智能客服场景往往非常垂直,想要进入这个行业,只需要开源模型微调;但想要做好这个行业,在各行各业累积起的独家数据优势则是必不可少的一环。

也是因此,在现实中,面对智能客服机械式的问答,80% 的用户都会选择转接人工。

就以常见的买衣服来说,客服进行推荐时,往往需要用户的身高体重数据,但大部分用户并不能给出一个精准回答,而且有人习惯用公斤有人习惯用斤,有人统计身高数据用厘米,有人用米,三围数据上,更是有人有厘米,有人用尺……

这就需要模型不仅能精准理解用户需求,对用户给出的数据进行统一的单位转化,也需要能够根据判断出的用户需求,做出精准的款式与尺码推荐。

而一旦涉及到更复杂情况,比如用户讲话方言、用户情绪波动、多轮对话,以及用户随时的打断,那么,如何正确理解用户的讲话内容、保证用户的体验,就成了摆在眼前的拦路虎。这中间不仅比拼模型的技术能力,更考验对场景的理解以及对用户需求的精准洞察。

未来的市场很大,眼前的问题也不小,那如何弥合这种技术到落地之间的鸿沟?

这届百炼杯企业级 AI 应用开发挑战赛,百炼平台与浩鲸科技、亚信科技、合力亿捷、贝斯平、云梦智能、汇智智能、煜象科技、云蝠智能在内的 8 家行业知名独立开发商一同,为智能客服落地打了个样。

02 HR 也能做大模型应用,百炼凭什么?

与移动互联网时代,技术成熟与行业爆发之间需要漫长的等待期不同;大模型产业自 OpenAI 正式推出 ChatGPT 的那一天起,商业化就被按下了加速键。

短短两年时间,AI 绘画,AI 陪伴,AI 文案,就以摧枯拉朽之势将无数行业的格局与工作流颠覆,下游应用的爆发,更远远超出了所有人的预期:

数据显示,2030 年中国 AGI 应用市场规模将达到 4543.6 亿元人民币,更为重要的是,AGI 的应用市场还处在加速增长阶段:截至 2024 年 6 月 15 日,中国大模型市场共计发布中标公告 230 个,远超 2023 年全年的 190 个。

在一片蓬勃爆发的广阔蓝海,谁抓住了最多的开发者,谁就拿到了通往未来的门票。

图片来源:视觉中国

而如何培养更多的开发者,则需要一个门槛足够低,低到公司财务与HR也能动手开发的大模型应用开发平台。

2023 年 10 月,阿里云发布了大模型应用服务平台——百炼。通过集成通义以及上百款三方和垂直领域模型 API,并配套相应的开发工具,百炼可以让即使没有模型自研能力的中小企业开发者,也能以「拖拉拽」式的开发方式,在 5 分钟内创建自己的专属 AI 应用。

其中,底层算力上,百炼依托阿里云,可以支持千亿级模型的万级并发推理需求;让开发者把精力更多放在数据、业务、场景创新上。

而在生态侧,上百款大模型 API 接入之外,百炼同时还提供全链路模型服务和丰富的工具箱,并针对不同客户需求,推出了三种不同的大模型应用方式:

针对定制化需求较低,主打「开箱即用」的企业,百炼可以提供通义、Llama、ChatGLM 等在内上百款大模型 API,同时提供百川等系列三方模型的托管服务。

针对有一定定制化需求的微调型用户,百炼则提供从数据管理、模型调优、评测到部署的全链路模型服务。不仅让用户找到最合适的模型,同时让用户的算力支出,实现弹性调用,整个训练过程可视化。

而针对那些想要打造自身 RAG 应用的企业,百炼则提供 Assistant API,用户可在百炼上轻松创建知识库,并一键开启 RAG 应用,通过 Assistant API 联合输出。

不仅是针对不同开发水平的客户给出不同的开发模式;针对特定场景,百炼也推出了不同的落地扶持思路。

就比如针对此次比赛选定的客服场景,往往单一的大模型并不能很好的解决用户意图识别等问题。百炼平台通过提供完整的全链路模型工具,开源、闭源等多种模型选择,参赛者可以自由的选择不同的模型与工具进行组合搭配,以及大模型与小模型的联动,从而集多模型之所长,来更好的回答用户产生的问题。

再比如,应答客服场景中经常出现的专业知识,仅仅依靠模型以及开源数据,无法对做出精准回答,百炼则提供了集成 prompt 优化工具、流程管理工作流、插件等能力,开发者可以通过借助 RAG 搭建专属领域的知识库,来很好解决大模型的「专业知识短板」。

此外,通过高性能的模型调用服务、完整的应用创建流程、支持使用开放架构创建智能体应用,百炼更是做到了零门槛上手,财务也能开发大模型应用。

门槛降下来了,用户规模自然也就涨上去了。

根据云栖大会的最新消息,当前百炼平台服务客户数已达 30 万,其中,付费客户数较上一个季度增长超过 200%。大批开发者放弃私有化部署,直接在百炼上使用与微调各类 AI 大模型,构建自己的大模型应用。迄今为止,百炼已经成为当前市场排名第一的大模型应用服务平台。

03 技术到落地,仍需千锤百炼

不难看出,相比单纯讲述参数堆砌,打榜卷模型,本次比赛更多聚焦到了那些国内最早真正尝试 AI 应用到各行各业的人,以及为企业提供软件定制开发的 ISV 在各行各业深耕探索的开发者,甚至是对技术一无所知的行业一线员工。解决他们大模型落地过程中的开发上手难,产品用户体验等细节问题。

而这也是阿里云今年对外传达出的重要信号:深入产业,才是现下大模型产业最重要的关键词。

事实上,在大模型落地中,类似智能客服的尺码不统一、用户说方言、产品专业壁垒高深这样的问题并非孤例。

如何从上千页的产品说明中找到工程师需要的那一页,如何让财务轻松处理厚厚的票据,用户到底需要精准的正确还是模糊的可能性组合……都是摆在眼前,一个又一个具体而琐碎的问题。

而阿里云的答案是从技术中来,到落地中去,做大模型、做云服务、投资、做 MaaS、办比赛,做标杆,也做基础设施,把自己卷成国内大模型产业链中最努力也最全能的公司,从传统的云计算厂商一步步升级成为大模型时代的基础设施。

一直坚持下去,不只是因为大模型前路似锦,蓝海广阔;更是因为通往未来的路,就是一步步,一点点从解决怎么搭建客服 RAG 这样的小问题中摸索着走出来的。

真正的落地,从来都是一路咬着牙千锤百炼。

*头图来源:阿里云

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

Posted in: 科技

怎样给 2400 万辆新能源汽车充电?

随着新能源汽车渗透率超过50%,作为和新能源车联系最紧密的行业,充电行业及其上下游产业正在经历重塑。

近日,蔚来汽车创始人李斌前往新疆考察,积极推进2025年6月实现全国所有县城充电与换电全覆盖的计划;与此同时,理想汽车也在加快布局超级充电站。截至9月23日,理想超级充电站的累计上线数量已经超过了800座,目标是在2024年底前扩展到2000座。

从行业数据来看,截至2024年7月底,全国充电基础设施总量已达1060万台,同比增长53%。尽管这些数字看起来令人乐观,但车主的实际体验仍旧不尽如人意。

充电慢、故障频发等问题依然困扰着部分车主,也让潜在消费者心存担忧。

此外,充电行业的竞争愈加激烈。数据显示,目前现存与充电桩相关企业数量近59.4万余家。为了争夺市场份额,运营商们纷纷采取降价策略。在这种竞争环境下,充电桩运营商如何脱颖而出,成为行业关注的焦点

充电行业转型:从野蛮生长到精细化运营

在中国充电行业的发展历程中,经历了两次关键性的讨论。

第一次是围绕「路等车」还是「车等路」展开。

中国第一个新能源汽车充电站,是2006年由比亚迪公司在其深圳总部建设的。在新能源汽车发展初期,由于新能源汽车保有量较少,建设充电桩似乎是一件「费力不讨好」的事。何时开始大规模建设充电桩等基础设施,成为了争论的焦点。一种观点认为,只有新能源汽车数量上升,才值得大规模铺设充电桩;而另一派则坚持,只有超前建设充电网络,才能真正推动电动车市场的发展。

从实践来看,基础设施建设必须适度超前。政府组织国家电网等国有企业加大投资,带动充电桩建设。试点城市不仅积极出台政策予以支持,甚至直接投入资金建设充电基础设施,以及提供对充电桩维护和运营的补贴,推动了行业的快速发展。

第二次的大规模讨论则是在2020年左右,由于新能源汽车飞速增长,配套的充电基础设施迭代速度没有及时跟上,一定程度上成为了推广电动汽车的瓶颈。中国汽车协会的数据显示,2020年底,新能源的渗透率只有5.4%,2021年年底就上升到14.8%,如今更是达到了50%左右,销量也从100万辆跃升至超过1000万辆。

特斯拉超充桩 | 图片来源:视觉中国

这种快速的增长带来了对充电服务的巨大需求,促使众多玩家涌入市场。

目前,充电运营商主要分为三类,各自拥有不同的运营模式:

  • 第一类是第三方充电运营商,如小桔充电、特来电和星星充电等。他们通常不直接投资充电桩建设,而是通过将各大运营商的充电桩接入自己的SaaS平台,利用智能管理创造商业价值。这样的模式打破了充电运营商之间的壁垒,实现互联互通,为用户提供更便捷的一站式充电服务。
  • 第二类是车企自建或合作布局,包括特斯拉、蔚来、吉利、上汽等,目的是为车主提供更优质的售后服务。这种模式主要适用于相对成熟的电动汽车品牌,对资金实力和用户数量有较高的要求。
  • 第三类是能源和地产企业。如国家电网、中石化、协鑫等能源企业,以及金茂、万科、世纪金源等地产公司,依托自身资源优势,积极拓展充电业务。它们通常拥有较强的资本实力,前期会在场地和充电桩等基础设施上进行大量投资。

不容忽视的是,充电行业庞大且复杂,需要广泛的资源整合,单一企业难以独立完成所有必要的协调工作。这意味着,建立一个有效的平台生态是行业发展的关键。在这其中,第三方充电运营商以跨品牌的兼容性、专注于运营、作为平台较为灵活的模式,在行业中占据着独特地位。以小桔充电为例,截至2024年6月底,小桔充电的服务已覆盖全国220多个城市,快充枪数量超过15万,累计充电量超过186亿度,并累计服务5300多家商户。

小桔充电标识牌 | 图片来源:小桔充电

「我们正在与产业链上下游合作伙伴一道,推进高质量充电网络服务体系建设,让更多用户感知快速、智能、安全、可靠的充电体验服务。」小桔能源总经理解晶晶在中国电动汽车百人会论坛(2024)上公开表示。

目前,中国充电桩行业的集中度很高,头部企业占据了大部分市场。根据月充电电量情况看,在公共充电基础设施运营商领域,特来电、小桔充电、星星充电为全国充电运营企业TOP3,显示出行业的高度集中。

然而,随着新玩家的不断涌现,充电桩行业的竞争日益激烈,逐渐接近新能源汽车市场的竞争水平。

过去,充电桩行业的主旋律是野蛮生长和快速扩张,而如今,行业的重心已转向精细化发展,正在迈向高质量发展阶段:

  1. 从「卷价格」到「卷服务」。在充电桩行业的初期,企业通过抢占人流量密集的核心地段建充电站,以价格战的方式跑马圈地。随着土地资源的日益稀缺,私家车主逐渐取代运营车主成为主要用户,充电需求开始从注重成本转向使用体验。
  2. 普及超充化。随着碳化硅、氮化镓等第三代功率半导体和高倍率动力电池的成熟,电动汽车正加速迈向高压超充发展。比亚迪、问界、蔚小理等车企,已纷纷布局支持800V高压快充的车型。充电行业也需要为其进行适配普及,提前布局大功率充电桩,或升级相关技术,助力提升充电效率。
  3. 全面智能化。当前,充电网络的数字化水平较低,存在数字孤岛现象。未来,充电网络、场站、设备和车辆将实现全面智能化,形成「云、站、桩、车」四层协同,提升车桩之间的互动、电网的协调能力以及全数字化运营维护的效率。

随着新变量和趋势的不断涌现,也意味着充电桩行业发展的聚焦点与着力点已悄然转变。

未来比拼用户体验和平台建设

自2015年以来,中国的充电设施经历了显著变化,逐步从零起步,从以慢充为主转向快慢充并重的发展阶段。如今,行业的发展不仅仅关注「能充上电」,更注重「充好电」。

截至2024年6月底,中国的新能源汽车保有量已达到2472万辆,目前的车桩比为2.4:1。尽管这一比例与理想的1:1还有一定差距,但相比几年前的6:1,已有了显著改善,基本上满足了新能源车的充电需求。

然而,行业发展仍存在不足之处。乘联会秘书长崔东树表示,目前充电基础设施面临以下问题:布局不够完善、结构不够合理、老旧充电桩技术落后、服务不够均衡、运营不够规范。尤其是充电难、充电慢和充电过程中无故跳枪等问题,仍然是电车车主普遍面临的痛点。

为应对这些挑战,今年3月,国家市场监督管理总局发展研究中心发布了《电动汽车公共充电站运营管理服务导则》团体标准。这一标准对公共充电站的环境与标识、服务配套、设备能力、结算服务、安全管理以及充电平台信息接入等多个方面提出了明确要求。

充电站内的冲电枪 | 图片来源:视觉中国

事实上,在此之前,不少企业已经开始探索建立自己的充电服务标准。2022年8月,小桔充电便成立了服务标准专项小组,推广了「充电体验服务标准」,并在其充电站内进行应用。凭借在这一领域积累的经验,小桔充电成为了此次团体标准的参编单位之一。

小桔充电是滴滴旗下的数智化充电运营商,自2018年1月正式开放使用,采用开放平台模式,覆盖了B端商户经营和用户体验服务市场。除了上述的体验服务标准,从设备侧的充电桩智能操作系统,到场站侧的智慧经营,再到电网侧虚拟电厂、电力调度等技术,小桔充电在安全、体验、效率等方面进一步助力行业高质量发展。

同时,凭借在体验、效率方面的创新,小桔充电在2023年获得了平均单枪月充电效率和单枪日充电效率的行业第一。2024年,小桔充电推出了「加速充」功能。该功能基于车桩功率的智能匹配,通过平台算法进行实时调度,优化充电桩的功率输出效率。据了解,该功能上线至今已服务近700万用户。此外,还可帮助场站全局高峰时段日均提速约8%。

正在充电中的滴滴网约车 | 图片来源:小桔充电

微网通联是一家智慧车场运营商,其首席运营官张文龙称,在使用小桔充电的解决方案后,许多用户的反馈很积极,觉得体验更加顺畅。「对于场站经营来说,充电效率的提升,意味着帮助场站提高翻台率,减少用户在高峰时期排队的现象,也帮助场站提升口碑。」张文龙表示。

随着新能源汽车的浪潮蔓延全球,充电行业正站在变革的风口浪尖。从早期抢占核心地段以提高单桩利用率,到如今的优化充电速度和体验,行业正经历从量变到质变的演进。未来,行业的成功将取决于如何在有限的资源下实现最大化的效能,同时推动充电基础设施与新能源技术的深度融合。

Back to Top