包莎丽(Sally Powell)是加拿大温哥华“汉语桥”俱乐部的主持人。当她听到“云中锦书:我和中国的故事”全球征集活动时,就决定要分享她的中国故事。
云中锦书丨遍访神州大地 弘扬中泰友谊:泰国诗琳通公主的中国缘
2024年4月,中国人民的老朋友诗琳通公主第51次访问中国,再次谱写“中泰一家亲”特殊情谊的新篇章。从1981年首次访华至今,诗琳通公主遍访中国,长期致力于推动中泰传统友好合作和两国关系发展并作出杰出贡献。她是中泰友好的杰出使者,中国人民心目中可敬可爱的国际友人。
百度智能云,迎接 AI 落地的一年
当教育公司好未来想要训练自己的大模型时,它遇到了算力的难题。其算法工程师往往有多个项目、多个训练的模型、以及各种版本的迭代,任务繁多。在这个背景下,它们希望通过一个专业且稳定的算力训练平台,为每一个算法工程师分配合适的算力资源,让整个训练体系高效运转起来、将手上的算力利用到最优。
在大模型落地之路上,很多企业都面临像好未来一样的难题。当它们想要自己去训模型的时候,可能会遇到算力难以利用好的问题;当他们想要调用、调优模型时,可能会面临模型选择不够、工具链不够、数据不够等问题。
这正是国内云厂商想要帮他们解决的问题。在大模型浪潮下,过去以 IaaS(基础设施即服务)和 PaaS(平台即服务)为主的基础云服务,正让位于以 AI 为主的 MaaS(模型即服务)的云服务。云厂商希望能解决企业模型落地的这波需求,不仅仅是为了收模型和工具调度费,底层还是希望拉动云收入。
在大模型时代,围绕企业的不同落地需求,百度智能云推出了全栈的产品服务体系。
第一层是百舸计算平台,它基于百度对文心大模型训练的经验沉淀,主要为那些想自训模型的客户提供算力服务。好未来最终就选择了基于百舸训练自己的大模型。第二层是模型平台千帆,主要面向想直接调用模型、深入部署模型、以及基于模型进行上层应用开发的客户。早在去年 3 月,百度 C 端应用「文心一言」推出当月,百度智能云就及时推出了千帆平台。
这种积极性让百度智能云在 AI 大模型落地的进程中走在前列。据 IDC 发布的《2023 中国大模型平台市场份额》,中国大模型平台及相关应用市场规模达 17.65 亿元,百度智能云处于第一。而据自媒体”智能超参数”介绍,在 2024 年 1-8 月份的大模型中标数量盘点中,百度在中标项目数、行业覆盖数以及央国企中标项目数上,排名第一。
在 9 月 25 日百度智能云举办的云智大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖介绍,目前大模型已经在企业端被真正用起来了。目前在千帆大模型平台上,文心大模型日均调用量超过 7 亿次,用户累计精调了 3 万个大模型,开发出了 70 多万个企业级应用。
在这样的背景下,百度智能云分别针对算力、模型、AI 应用,升级了百舸 AI 异构计算平台 4.0、千帆大模型平台 3.0 两大 AI 基础设施,并升级代码助手、智能客服、数字人三大 AI 原生应用产品。沈抖表示,大模型以及配套的算力管理平台、模型和应用开发平台,正在迅速成为新一基础设施。这是大模型走向千行百业的重要基础。
以下是极客公园与百度智能云、以及百舸和千帆两大产品体系负责人交流后,看到的这两款重要产品的核心变化。从中,可以一窥中国企业落地大模型的核心难点、关键趋势。这对于接下来国内大模型的落地进程或许是至关重要的。
百度集团执行副总裁、百度智能云事业群总裁沈抖|图片来源:百度智能云
对想训模型的客户:从「多快好省」用上算力,走向万卡集群时代
尽管直接调用模型是主流,但仍然有很多企业有自己训练模型的需求。据极客公园了解,这类企业往往集中在大模型初创企业、传统互联网企业,以及生命科学、智驾等行业。就企业规模来看,以行业头部客户居多。
它们一般具备较强的技术研发和快速迭代能力,有一定数据积累、数据质量良好。当然,它们也需要采购 GPU 算力。
但对于这些企业来说,如何能把算力用好,是一个核心难题。百度杰出系统架构师,百度智能云 AI 计算部负责人王雁鹏对极客公园表示,这些客户在算力上的核心痛点,大概可以总结为「多快稳省」。
1)多:指的是在算力卡脖子的情况下,企业必然要混合多种芯片训练,但芯片混训难度非常大。
2)快:指的是减少集群部署时间,提升模型训练推理效率,实现大模型业务快速落地。
3)稳:指的是技术故障都有可能导致训练任务停摆,进而造成损失,需要保持稳定和有效训练时长。
4)省:指的是算力没有被利用出来,甚至 50% 的算力都被浪费了,因此提升资源利用率对企业节省成本至关重要。
在王雁鹏看来,很多互联网行业客户的技术能力主要强于上层软件,而对于高性能计算、存储、网络、算法框架等底层基础设施能力上存在欠缺。他们想自己用好算力的难度比较大,这正是百舸平台提供的价值。
百舸延承自百度这十余年的基础设施经验,从最开始自己搭建服务器、到深度学习崛起后开始尝试 GPU 加速、到后来跟上云计算的巨大底层变革、再到今天 GPU 云时代超大规模的并行计算和万卡集群的算力利用。百度将过去多年的技术积累、资金与人员的大力投入、以及文心大模型的训练经验,最终沉淀为了百舸计算平台。
百舸 AI 异构计算平台 4.0|来源:百度智能云
在上述四大方面,百舸平台取得了领先于行业的产品优势:
1)多:百舸支持在同一智算集群中混合使用不同厂商芯片,兼容昆仑芯、昇腾、海光 DCU、英伟达、英特尔等国内外主流 AI 芯片,多芯混合训练任务的性能损失控制在万卡性能损失 5%,是业界最高水平。
王雁鹏介绍,实现多芯混训的核心,包括要在一套框架下面能把所有的芯片都用起来、因此要在抽象层把各个芯片打平;要建立芯片统一的通信库;要通过异构并行切分策略,解决不同芯片之间的互联带宽差异等。 |
2)快:一方面,百舸 4.0 能帮客户省去大量复杂和琐碎的配置和调试工作,最快 1 小时便能创建万卡规模集群,这要比行业通常需要的数天甚至数周快得多;另一方面通过大模型训推任务加速套件 AIAK,能针对主流开源大模型在并行策略、显存、算力等层面进行深度优化,为万卡集群下的大模型训推加速。比如单个芯片整体训练效率提升了 30%,长文本推理任务可以做到「极速生成」与「秒回」、效率提升了一倍。
王雁鹏介绍,这背后一方面是单卡训练的提升,基于具体场景做算子的加速库。目前,百舸聚焦在大语言模型和自驾模型两大核心场景,同时在算子层面进行加速。 另一方面是并行训练的提升,包括坚持使用 RDMA 进行大规模集群组网、包括一边计算一边通信、也包括显存的优化等,最终形成了并行训练的提升。 |
3)稳:大模型训练是一个庞大的单一任务,一个点出错,整个集群就得停下、回滚到上一个记忆点。百舸在万卡任务上可实现有效训练时长占比 99.5%,稳定性极强。
这背后在于降低故障次数和减少恢复时间,百舸在故障检测、故障诊断及定位、Checkpoint(检查点)及时写入、可观测能力、故障诊断、快速恢复等多个环节都进行了优化。 |
4)省:如果说一般客户自己管理算力只能发挥不到一半的资源利用率,那百舸能将资源利用率提升至 90%。
一方面是训推一体技术。如果说传统的模型训练和推理通常是在不同的集群中进行,导致训练阶段需要大量的计算资源和数据,而推理阶段对算力的要求则显著更低,造成资源浪费。那么训推一体技术是在不同时间使用 GPU 资源,让集群能同时支持在线推理服务部署、以及离线训练任务,从而提升资源利用率。 另一方面是弹性资源池技术。百舸是以弹性队列为核心去设计每一个任务的配额和各种分配策略,根据训练任务设计优先级、抢占策略、分配策略,进一步提升资源利用率。 |
正是看重百舸在稳定、高效提供算力等方面的优势,经过综合评估之后,好未来最终选择了百舸。好未来看来,百舸平台的自适应分配策略,无论是对并行模型、并行训练任务的处理,还是对单任务之间的快速衔接等,都能做到速度非常快、同时保证任务不掉,使得团队快速地完成了九章大模型的研发上线。
这些都还是在万卡集群的维度进行讨论,不过往未来看,国内大模型行业很快将进入十万卡集群的竞争。
沈抖介绍,大模型领域的 Scaling Law(缩放定律,指模型性能会随着参数、算力、数据集的规模增加而提高)仍在继续,这意味着大模型训练会很快进入十万卡集群的竞争阶段。不久前,马斯克表示刚建设了 10 万卡的集群,未来几个月还会扩张到 20 万卡,这不会是个例,
在他看来十万卡集群训练的挑战很大。一方面是空间,部署 10 万卡的大规模集群,光是在物理层面就要占据大概 10 万平方米的空间,相当于 14 个标准足球场的面积。另一方面是能耗,这些服务器一天就要消耗大约 300 万千瓦时的电力,相当于北京市东城区一天的居民用电量。
而这种对空间和能源的巨大需求,已远远超过了传统机房部署方式所能承载的范畴。因此不得不考虑跨地域的机房部署,但这又带来了网络层面的巨大挑战。另外 10 万卡集群的训练中断比例会大大提升,有效训练时长占比会非常低,这也是很大的挑战。
不过在沈抖看来,百舸 4.0 正是为部署 10 万卡大规模集群而设计的,而今天的百舸 4.0 已经具备了成熟的 10 万卡集群部署和管理能力。「它就是要突破这些新挑战,为整个产业提供持续领先的算力平台,让我们的客户始终走在时代前沿。」他说。
复盘大模型落地这一年:从试水、到中间阶段、再到真正的爆发
对于那些想要基于现有大模型做二次开发(包括再训练、微调、评估和部署)的企业来说,百度智能云千帆平台的初衷就是为它们打造。去年 3 月,千帆平台提供了大模型调用接口和微调工具链,帮助企业更好地进行大模型落地尝试。
而在百度副总裁谢广军看来,这一年半来,大模型落地趋势经历了三次变化。而针对这三次变化,千帆平台也相应完成了从 1.0 到 3.0 的三次版本进化。
千帆 1.0 推出时,正值大模型爆火,那是企业进行大模型落地的第一个阶段:接触大模型的人都在找卡、囤积算力、尝试训练模型,大模型带火了芯片和算力。那时大模型的需求相对模糊,千帆 1.0 主要提供给企业大模型调用和微调服务。
从去年下半年开始,大模型落地进入了第二个阶段:很多企业和开发者,都在探索怎么基于基座大模型改造现有业务,在模型调用之上新增了应用开发的需求。在这样的背景下,千帆推出 2.0,为企业提供 AI 原生应用开发工具。不过,这个过程虽然有很多企业在尝试,但真正用到生产中的并不多。
而从今年 5 月开始,受各家模型厂商的价格战影响、模型降价,加速了企业把大模型用起来,并在业务场景里产生价值。
自今年上半年以来,大模型的落地发展明显加快|图片来源:百度智能云
据百度智能云观察,自今年上半年以来,大模型的落地发展明显加快。就千帆平台的观察来看,其文心大模型日调用量超 7 亿次,累计精调模型超 3 万个,帮助用户开发 AI 应用应用超过 70 万个。
据谢广军介绍,大模型的应用已经进入爆发期,很多企业不是在等待类似移动时代的爆款应用,而是已经把大模型用到了自己业务的「研产供销服」的各个环节。
在他看来,这也是过去 18 个月整个国内大模型产业发展的一个缩影。「我们可以预判,2024 年将成为国内大模型产业应用爆发的元年。」他说。
企业的模型应用趋势:更深的模型工具链、更丰富的模型选择、更专业的应用开发工具
为了接住今天快速增长的 AI 落地需求,千帆大模型平台此次升级了 3.0 版本,在模型开发层、模型调用层、应用开发层三大方面都有了更新。如果拆解每一层,也能看到当下 AI 落地的一些需求和趋势。
1.模型开发层:需要大小模型结合、需要更深的工具链、需要补给数据
模型开发层,指的是需要基于现有大模型做二次开发(包括再训练、微调、评估和部署)。
据百度副总裁谢广军介绍,企业在进行模型开发时,一个需求是它们要的不只是大语言模型,也还需要传统的视觉模型、语音模型,甚至是传统意义上的小模型。比如在教育场景里,如果要大模型评判作业,它往往需要一个拍照的过程,通过 OCR 视觉模型解析题目,再通过大语言模型生成答案。
另外,企业进行模型开发的需求也更深度了。比如过去千帆提供的是低门槛一站式部署平台,但现在涌现了很多专业的用户,他们需要更深度的模型开发,比如白盒化训练、作业建模等方式开发等。
而在数据层面,企业也有了更高的要求。比如用户可能存在数据质量不高、数据不够、很难代表行业垂类场景的情况,那么就需要混入一些行业专有数据。另外,很多模型在训练时是针对具体场景做效果增强,但这可能会出现通用能力遗忘的问题,这时也需要混入通用的语料。
针对这些情况,千帆大模型平台 3.0 做了全面的更新。目前,它支持大模型和多种传统模型的协同开发,并提供了行业最全面的模型精调工具链,上线了 DPO、KTO 等模型训练算法和 PTQ 等模型量化算法。它还预置了独家高质量混合语料,支持企业将应用中产生的宝贵数据反馈给模型、形成数据飞轮,放大模型在特定场景下的优势。
千帆大模型平台 3.0 模型开发工具链|图片来源:百度智能云
一个案例是,高途教育通过千帆大模型平台的开发工具链训练了作业批改大模型。它可以准确识别印刷体的题干和手写体的学生答案,同时利用千帆「数据飞轮」对这些数据进行清洗和精标,进一步提升模型性能。现在,改大模型的数学判卷准确率已经能达到 95%,最终让老师、学生受益,让公司业务增长。
2.模型服务层:持续扩充模型类型、降低模型价格
模型服务层,指的是用户直接调用大模型的需求。
千帆平台的升级思路,一是持续扩充模型的类型。比如在主力模型上,推出了新的模型 ERNIE Speed pro、ERNIE Lite pro 等,上下文都是支持 128K。垂类场景模型上,又推出了包括 ERNIE Character、ERNIE Functions、ERNIE Novel,更好满足一些企业在细分场景的需求。
除了文心系列大模型外,千帆还提供了包括近百个国内外大模型等丰富模型选择。除了语言模型,还支持调用语音、视觉等各种传统的模型等等。
文心大模型家族全景图|来源:百度智能云
在扩大模型类型的同时,另一重点是降低模型调用成本。过去一年,文心旗舰大模型降价幅度超过 90%、主力模型全面免费。这带来的效果是,文心一言大模型的日均调用量超过 7 亿次。
上海巨闲网络科技旗下的产品「考试宝」,通过千帆的大模型调用和提示词工程,实现了试题解析智能化,可以秒级返回解析结果,用户会员转化意愿翻了一倍,且单条试题解析成本降幅达到 98%。最终实现了降本增收。
又比如是国内领先的招聘企业猎聘,通过调用文心大模型,对岗位需求和简历内容进行语义理解分析,帮助猎头顾问快速、智能地筛选简历,实现了高效的人岗匹配。现在,猎聘的人岗匹配准确率比业界平均水平高出 15 个百分点,提升招聘效率 50% 以上。
3.应用开发:企业级 RAG、企业级 Agent、AI 速搭三大方向
大模型真正在企业用起来,最上层的一步是看应用。它是一种最简单实用的方式,帮助企业用大模型来改造自己的业务。
目前,企业的的应用落地主要是在 RAG(检索增强生成)场景。因为 RAG 能让大模型快速「懂业务」,它相当于把海量的企业数据和行业知识做成「外挂知识库」给大模型。目前,千帆 3.0 从检索效果、检索性能、存储扩展、调配灵活性四方面对企业级 RAG(检索增强生成)进行了升级。
比如,通过与百度云资源打通,它可以支持无限容量的知识库存储和检索;速度上,能做到 1.5 秒内返回结果;RAG 全部关键环节,包括解析、切片、向量化、召回、排序等等,都可调、可配;企业可以灵活配置出最适合自己业务的方案;最后,它提供了企业级的安全性和稳定性。
在 2024 云智大会现场,演示了澎湃新闻应用企业级 RAG 的例子。这类权威媒体报道一条新闻时,往往需要引入该新闻的前因后果、背景信息,这是写报道的基础。澎湃新闻通过千帆创建知识库,上传了澎湃新闻成立十年以来所有媒资信息,共计 2700 万篇文档,超过 350 亿文字。接下来,设置成 100% 按知识库内容回答。
这对 RAG 的切片能力和召回的准确度要求非常高。比如让它盘点中国网球奥运发展史、以及 2024 年巴黎奥运女单冠军郑钦文的个人发展故事,大模型很快就定位到了知识库里的相关信息,并用结构化的表达方式生成了新闻事件的脉络、提供了文档索引。这体现了大模型强大的意图理解和内容生成能力。
又比如 RAG 的指令遵循能力。如果删掉知识库中有关郑钦文获得 2024 年奥运网球冠军相关的信息,再去问大模型,2024 年巴黎奥运会女单网球冠军是谁,大模型会拒绝回答这个问题。这是才是正确的做法。过去,由于大模型的「幻觉」问题,企业担心大模型不靠谱,但有了 RAG 和严谨的指令遵循,这个问题可以得到解决。
另外一个常见的大模型落地方式是 Agent(智能体)。Agent 在接到一个任务后,会进行自主思考、任务拆解、方案规划、并调用工具,全程自动地完成任务。千帆 3.0 升级的一个重要内容,就是针对企业级 Agent 的开发,增加了业务自主编排、人工编排、知识注入、记忆能力以及百度搜索等 80 多个官方组件支持。
在大会现场,也展示了在电商领域应用的例子。爱库存作为一家私域电商供货平台,数百万店主在爱库存上找到想卖的商品,通过自己的微信群、朋友圈这些渠道分发出去。爱库存正在千帆大模型平台上开发一个叫「爱库存超级助手」的 Agent。
过去,如果一个店主发现销量变差了,想调整一下销售计划、看看接下来适合卖什么。他首先要到数据看板上分析原因,如果确认是选品的问题,他会到爱库存「热卖榜」里去找更有增长潜力又适合他客群的品类,然后去做同类产品的比价、选品,最后还要到生成对应的文案和海报。这几步走下来,一般得几个小时。
而现在通过搭建 Agent,分钟级就可以完成,效率得到极大提升。目前这个功能正在内测,预计在 Q4 向爱库存的店主正式开放。
此外,本次大会还发布了企业级智能化低代码应用开发平台「AI 速搭」,通过自然语言对话,一句话就可以完成应用创建。
在大会现场,还演示了如何通过对话,在 AI 速搭平台上开发一个资产管理应用。只需一句话描述对目标系统的需求,包含资产信息、资产入库、资产领用、资产维修、资产报废等功能模块,大模型就可以清晰地理解需求并生成应用。过去,这样一个应用即使用低代码方式开发也需要几天的时间,现在只需几分钟就能完成。
大模型浪潮已经到了第二年,中国企业的落地速度、规模比想象中要更快。这离不开模型厂商以及提供全套落地产品体系的云厂商的努力。随着大模型落地真正拉开大幕,依靠响应速度、投入、决心等,百度智能云试图领跑、争夺 GPU 时代云计算巨头的生意规模和市场地位。今天或许只是一个开始。
最强 AR 眼镜 + 最受欢迎开源 AI,Meta 大会小扎赢麻了
头图来源:Meta
「扎克伯格人去哪了?」
这是在预计时间开始后十分钟、Meta Connect 2024 主题演讲仍然迟迟没有开始后,各大直播平台评论里观众提问最多的问题。
原本预定将于太平洋时间早上十点(北京时间 9 月 26 日凌晨一点)开始的主题演讲,实际在计划时间开始 15 分钟后才随着Meta 创始人扎克伯格跑步入场开幕:给人一种小扎也是踩点早高峰上班、不小心迟到的打工人的感觉。
好在本次发布的新品足够重磅,还算弥补了全球网友损失的这十几分钟寿命:除了更便宜的 Quest 3S 系列,还有 Meta AI 与 Llama 3.2,以及让我们得以一窥未来 AR 眼镜形态的 Orion 原型机。
最受欢迎的「AI 眼镜」、最强功能的 AR 眼镜,以及最多人使用的开源 AI,难怪最近扎克伯格的采访总给人一种「我强的可怕」的感觉——苦熬多年的元宇宙最终结出了 Orion 这样的 AR 之花、Llama 3.2 大模型依然在继续开源,他确实有底气说:
Meta,是一家用技术实现愿景的公司。
Quest 3S:下一台销量千万的 Quest
可能是意识到因为自己迟到,让全世界多等十五分钟犯了众怒的原因,扎克伯格上台后甚至没怎么寒暄,迅速单刀直入,在演讲开始的三分钟内就公布了 Meta Quest 3S 的价格,堪称近几年的硬件产品发布会中的一股清流。
图片来源:Meta
作为 Meta 寄予厚望、支撑起 Quest 系列全球出货量超千万台的新品。 Meta Quest 3S 起售价 128GB 版本为 299 美元,256GB 版本售价 399 美元,十月 15 日开售。
相比 Quest 3 系列,定位入门级的 3S 在芯片等主要硬件规格上与 Quest 3 保持一致,但在机身材质与显示画质从 4K 降低至 2K(Quest 3S 单眼分辨率为 1832*1920)两个方面做了取舍,换来更低廉的售价。
Meta Quest 3S 外观 | 图片来源:Meta
当然,作为 Meta 每年发布 Quest 新品吸引用户的惯例,这次也少不了一大批新游戏、新软件的登陆与适配:现在 Quest 3 系列不仅原生支持 Windows 11 设备拓展多显示器功能,此前备受期待的蝙蝠侠 IP MR 游戏《阿卡姆之影》属于附赠内容,从现在开始每一位在 2025 年四月之前购买 Quest 3S/3 的用户都能免费将其收入库中,算是硬件大厂中相当有诚意的软件促销内容了。
在 Quest 3S 发布之后,Quest 3 将仅保留 512GB 版本售卖,售价从原本的 649 美元降至 499 美元。
Meta Rayban:新设计、新功能
在真正的大招放出来之前,扎克伯格还是卖了个关子,带大家回顾了一下 Meta Rayban 过去一年所取得的成绩。
作为很可能是迄今为止是业界唯一一款真正意义上取得现象级成功、出货量超百万的 AR 眼镜产品,Meta Rayban 系列对于 Meta 的重要性不言而喻。
因此本次发布会中,Meta 也给 Rayban 系列带来了一系列新功能:包括一款名为「Be my eyes」的互助类 App,用来让眼镜给低视力患者充当义眼,将眼镜所拍摄到的眼前数据实时上传,并由其他视力正常的志愿者帮助 Meta Rayban 的使用者来感知日常世界。
| 图片来源:Be my eyes
Meta Rayban 眼镜所搭载的 Meta AI 现在也加入了更多多模态功能 —— 比如自动识别车牌号,帮你记录停车位置,以及通过语音指令要求 Meta AI 在航班着陆后三个小时内自动给家人报平安;或者是借助 Meta Rayban 的多模态能力,使用 Meta AI 来感知显示世界中的地标建筑,帮你快速适应一个新街区或城市 —— 比如生成一份旅游计划。
另外 Meta Rayban 现在也能通过 Meta AI,实现实时语言翻译了 —— 这是如今一些 TWS 耳机已经支持的功能,目前 Meta Rayban 的版本支持英语、西班牙语、法语与意大利语,未来还将有更多语言陆续加入。
最后,Meta 还发布了一款限量特别版 Meta Rayban,机身采用透明设计,整体在维持飞行员系列的时尚外观的同时看起来更有科技感。
特别款 Meta Rayban | 图片来源:Meta
能够根据外部光源切换眼镜/墨镜形态、并且具有超高响应速度的 UltraTransitions® GEN S™ 系列镜片现在也加入了针对 Meta Rayban 的定制版,时尚的同时出街搭配更方便了。
UltraTransitions® GEN S™ 系列镜片 Meta Rayban 定制版 | 图片来源:Meta
Orion:「下一代 AR 交互体验」
但我们都知道,Meta Rayban 其实并非典型意义上的「AR 眼镜」:由于 Meta Rayban 完全不具备内容显示能力,因此业内一直有不少人认为 Meta Rayban 所取得的成功,对于推动 AR 技术(尤其是显示技术)继续向前发展并无太大帮助,甚至是在摧毁 AR 初创企业生长的土壤,理由也很简单:
「连行业老大做的智能眼镜都没有显示功能,会让很多人会好奇AR 眼镜真的还有未来吗?」
但今天发布的新品,或许会让持有这种观点的质疑者完全收回这句话,因为 Meta 发布的 Orion AR 眼镜,当之无愧让我们看到了「下一代 AR 交互体验」的雏形。
在硬件上,Orion 采用了 ULED + 微型投影仪方案,不仅支持全彩内容显示,还能通过空间定位,将接近 Vision Pro 或 Quest 那样的窗口空间定位能力,整合在 AR 眼镜这样要轻盈的多的形态中,也可以说是 Meta 在 AR 领域研究的集大成之作。
为了支持接近 VR 头显的空间计算效果,Orion 在眼镜上塞进了七颗摄像头来感知周围环境。
为了搭建起能够处理这些数据的算力环境,Orion 又单独设计了一款体积不小的椭圆形计算单元,采用无线数据传输的方式来完成眼镜计算空间数据所需的算力,但因为是无线传输,所以计算单元与眼镜之间的距离不能超过 12 英尺。
Orion 的计算单元、腕带与眼镜本体 | 图片来源:Meta
除了手势识别,Orion 还支持眼球视线交互,甚至通过搭配腕带,还能在你的手不刻意抬起来,自然低垂在腰间的状态下,识别到诸如「搓大拇指」这样微小的交互手势 —— 这些甚至已经与 Vision Pro 的交互操作能力无异,但这些都被集成在了一台重量仅为 100 克,外观接近 Meta Rayban 的产品形态中。
仅仅以上目前 Orion 所展示出的能力,就已经堪称对 AR 眼镜领域的又一次「降维打击」:现场还播放了一条片,包括黄仁勋老黄在内的各界大拿在体验到 Orion 的实际表现后,众人纷纷露惊呼难以置信以及露出震惊表情的画面。
老黄体验过 Orion 之后的表情 | 图片来源:Meta
相比 Meta Rayban 通过产品的精准定义取得成功,Orion 这次是 Meta 从更高的技术维度上,再一次颠覆行业。
「这就是我们一直以来致力于达成的目标」,对于 Orion 对于 AR 眼镜现有能力带来的颠覆,扎克伯格这样表示了 Meta 的计划。
Orion 是目前唯一一款展示了接近全功能 MR 头显空间交互能力的 AR 眼镜 | 图片来源:Meta
但扎克伯格也承认,现阶段的 Orion 还只是一个原型机,「在(AR 眼镜)正式量产面向用户之前,还有很多问题需要解决」。
比如,此前包括老黄在内的嘉宾,他们体验到的 Orion 的实际分辨率为 13 像素/度(Quest 3 为 25 像素/度),在显示效果上相比目前业内存在的 AR 眼镜,其实并无太大优势,但 Meta 也小小展示了一下藏着的底牌 —— 另一台并未对外界过多展示的 Orion 原型机,已经能在相同体积下,做到 26 像素/度的清晰度。
只是在目前 AR 眼镜的产品形态下,更高的分辨率势必要牺牲更多的电池寿命 —— 这对于强调全天佩戴的 AR 眼镜来讲很大程度上是一个致命的问题。
另外,成本也是一个重要的量产考量因素:Meta 在会后向媒体透露:目前 Orion 这套解决方案的硬件成本超过 1000 美元。这个价格相比 Vision Pro 的定价堪称低廉,但放在 AR 眼镜品类中已经是一个令人惊悚的天文数字。
因此,在价格与功能之间取得平衡也会是一个重要的考量。
无论如何,Orion 已经让我们得以「管中窥豹」地了解到,过去数年 Meta 在 AR 领域的技术积累,或许到明年 Meta Connect 25 上,我们就能看到更接近普通用户的 Meta AR 眼镜产品了。
Meta AI :月活5亿,小扎称「全球最多」
聊完硬件,扎克伯格还有AI。
据扎克伯格透露,整合到Facebook和Instagram里的Meta AI聊天机器人现在月活用户是5亿,他还称,Meta AI有望在年底前成为全球使用最多的AI助手。
紧跟各个行业对手,在 Connect大会上,Meta AI朝着多模态进一步迈进。
就像OpenAI那样,Meta现在也有AI语音对话了。与OpenAI这一功能的入口是ChatGPT,Meta的入口则是 Messenger、Facebook、WhatsApp 和 Instagram D等众多产品,用户可以在这些产品里用语音与MetaAI对话。
扎克伯格说:「我认为,与文本相比,语音将成为与AI交互的更自然方式。」
随着该功能开始推出,据扎克伯格介绍,用户可以选择不同的语音选项,包括一些美国名人的熟悉声音。在舞台上,一个以奥卡菲娜为模型的AI语音回答了扎克伯格的一个问题。
Meta显然吸取了教训,已经与这些名人达成合作,没像OpenAI那样未经同意用了斯嘉丽·约翰逊的声音后惹来控诉。
Meta推出AI语音对话 |图片来源:Meta
除了语音对话,Meta AI还有一些大厂AI机器人必备的「常规操作」,比如图像编辑功能,用户直接用自然语言就能给自己的照片简单P图,包括给人物换衣服,给照片换背景等。
Meta AI的P图功能 |图片来源:Meta
用户可以将AI生成的图像直接分享到Facebook和Instagram上,Meta AI还可以为社交帖子建议标题。
另外,用户还在与Meta AI的聊天中分享照片,就照片进行提问。比如分享在徒步时看到的一朵花的照片,询问这是什么花,或者分享一道新菜的照片,并询问如何制作它等。
MetaAI功能:就图片进行询问 |图片来源:Meta
语音、图片之外,Meta的AI功能还将应用在视频上。Meta正在测试自动视频配音和口型同步功能,它将自动翻译Instagram上的Reels短视频,即使短视频创作者讲不同的语言,也可以让不同的观众听到自己的「母语」。
Meta的这款 AI翻译功能目前还在Instagram和Facebook上小规模测试,翻译一些来自拉丁美洲和美国的创作者的视频,语言为英语和西班牙语,扎克伯格计划未来将其扩展到更多的创作者和语言。
Meta短视频直接转换成观众母语 |图片来源:Meta
在AI与硬件的融合方面,Meta的与Ray-Ban合作的智能眼镜也加入了包括翻译在内的AI功能,扎克伯格将其称为新的「以AI为中心的设备」。
根据介绍,这款眼镜无需每次都说「Hey Meta」就能向Meta AI提出后续问题。
这款眼镜还能够进行实时AI翻译,在现场演示中,扎克伯格讲英语,另一个人讲西班牙语,双方进行了一场对话,智能眼镜充当了翻译。不过,从效果来看,翻译还是像传统的随身翻译那样有一定「时差」。
AI 新模型:Llama 3.2,继续开源
在 Connect大会上,扎克伯格还介绍了Meta最新的Llama 3.2系列模型,其中包括小型和中型视觉 LLM(11B 和 90B),以及适合边缘和移动设备的轻量级纯文本模型(1B 和 3B)。
扎克伯格继续高举「开源」的大旗,不想让OpenAI等一家独大,提供Llama 3.2的开放下载,社区开发者可以在Llama官网和 AI 社区Hugging Face上直接获取这些模型。
Meta Connect舞台上的扎克伯格 |图片来源:Meta
Llama 3.2系列中最大的两个模型,11B和90B,支持图像推理用例,如包括图表和图形在内的文档级理解、图像的字幕生成,以及基于自然语言描述在图像中定向定位对象等视觉定位任务。
例如,一个人可以就上一年他们小型企业在哪个月份销售最好提出问题,Llama 3.2可以基于可用的图表进行推理并快速提供答案。在另一个例子中,该模型可以使用地图进行推理,帮助回答诸如徒步何时变得更陡峭等问题。
11B和90B模型还可以弥合视觉和语言之间的差距,从图像中提取细节,理解场景,然后撰写一两句话,可用作图像字幕来帮助讲述故事。
轻量级的1B和3B模型则有多语言文本生成和工具调用能力,它们使用了两种方法——「剪枝」和「蒸馏」,是首批能够适应设备的小型Llama模型。
据介绍,开发者能够用这些模型使构建设备端的自主应用。例如,此类应用可以帮助总结最近收到的10条消息,提取行动项,并利用工具调用直接发送后续会议的日历邀请。
在数据隐私问题上常年备受各界诟病的Meta,此处的旗号是要「实现数据永不离开设备的强大隐私保护」。
在本地运行这些模型有两个主要优势。首先,由于处理在本地完成,提示和响应会感觉更即时。其次,本地运行模型可保持隐私,不会将诸如消息和日历信息等数据发送到云端,使整体应用更加私密。由于处理在本地完成,应用可以清楚地控制哪些查询保留在设备上,哪些可能需要由云端的更大模型处理。
据Meta声称,Llama 3.2视觉模型在图像识别和一系列视觉理解任务上,可与Claude 3 Haiku和GPT4o-mini竞争。3B模型在诸如遵循指令、摘要、提示重写和工具使用等任务上优于Gemma 2 2.6B和Phi 3.5-mini模型,而1B模型在与Gemma竞争时表现出色。
Meta推出Llama 3.2系列模型 |图片来源:Meta
之所以坚持开源,目前Meta的官方说法是,「确保世界各地的更多人能够获得AI提供的机会,防止权力集中在少数人手中。」
当然,值得指出的是,Meta的模型属于「开放权重」,而非完全「开放源代码」。这一度引起业界对于Meta的模型是否是真正意义开源的争议,但对于全球一些开发者来说,有总归比没有强。
另外一方面,构建LLM总是昂贵的,Meta也有自己的商业利益要考虑,在何种程度上不损害公司利益,扎克伯克有自己的考量。
其中的关键一点,他此前已经在公开信中明确提到:「Meta 与封闭模型提供商之间的一个关键区别是,出售 AI 模型访问权限不是我们的商业模式。这意味着公开发布 Llama 不会像封闭提供商那样削弱我们的收入、可持续性或投资研究的能力。(这是一些封闭模型提供商不断游说政府反对开源的原因之一。」
扎克伯格宣扬开源AI |图片来源:Meta
此次 Meta Connect 大会,在 Orion 上,能看到 AR 眼镜这一形态,未来进一步模糊 AR/VR 边界的潜力,可以说 Meta 凭借 Orion 的发布,一战重新稳固了自己在 AR 眼镜技术领域的龙头地位。
至于AI,从Meta的发布会来看,多模态AI已经成为大厂和巨头的标配。而在AI模型上,关于开放和闭源哪种更好的争论还在继续,扎克伯格的选择,可以视作对OpenAI等闭源模型巨头发起的挑战。
但依然要面对的现实是,无论 AR 还是 AI,在产品形态和技术选型上依然处于无尽的变化之中,而 Meta 显然让全世界知道,自己,才是那个最有资格来定义这些重要技术产品的公司。
8月销量大跌42%后,宝马「老实」了
宝马重返「价格战」。
近日,有消息称,宝马的旗舰纯电车型i7(2023款xDrive60L,原价145.9万元)在国内降价幅度高达51.1万元,使得现售价降至94.8万元。此外,宝马的热销车型3系和5系也进行了不同程度的价格调整。
这一变化似乎意味着宝马在经历了两个月的沉寂后,再次回到了价格竞争的行列。对此,宝马中国表示,2024年中国汽车市场竞争进一步加剧,几乎所有品牌都面临同样挑战。但是,宝马近期没有对建议零售价做任何调整。授权经销商根据市场情况自主决定零售价格,最终成交价受具体交易情况影响。
早在7月12日,宝马曾宣布退出价格战。这一决定引发了广泛关注,随后奔驰、奥迪、大众及理想等品牌也纷纷跟进调整。
那么,是什么原因促使宝马经销商在短短两个月内再次采取降价策略?
8月销量,暴跌42%
在探讨宝马近期的降价策略前,我们有必要回顾其在7月主动退出价格战的原因。当时,宝马中国明确表示,将在下半年更加注重业务的健康发展,并助力经销商实现稳健增长。
然而,业内普遍认为,长达一年多的价格战并未给宝马带来理想的销量,反而对品牌形象和经销商的利润空间造成了较大冲击。因此,宝马决定退出中国市场的价格竞争,转向「降量保价」的运营策略。
2023年,特斯拉率先发起价格战,随后比亚迪等品牌相继跟进,导致市场上掀起了多轮降价潮,BBA(宝马、奔驰、奥迪)等豪华品牌也未能逃脱价格下行的影响。数据显示,2021年是BBA品牌的成交均价峰值,奔驰、宝马和奥迪的平均成交价分别为46.4万元、46.1万元和33.7万元。然而,到2024年4月,这一数字已分别降至43.4万元、35.1万元和30.1万元。
尽管降价战打得火热,但宝马等品牌的销量并未因此大幅提升。
2024年上半年,宝马中国(包括宝马和MINI品牌)累计销量为37.59万辆,同比下降4.2%;奔驰的销量为35.26万辆,同比下降6.5%;奥迪则售出32.04万辆,同比下降1.9%。
相比之下,理想、问界、蔚来等中国本土高端品牌正在快速抢占豪华车市场份额。数据显示,理想汽车2024年上半年共交付18.9万辆,同比增长36%;问界累计销量达18.1万辆,暴增664%;蔚来也交付了8.74万辆,同比增长60%。
在退出价格战后,宝马频繁调整经销策略,以应对中国市场的复杂变化。据了解,宝马于6月份将批发任务下调了15%,并在7月份再次下调15%。同时,宝马还放宽了经销商的返利门槛,取消了金融渗透率和密采考核等要求。这些举措的目的在于为经销商减负,维持稳定运营。
宝马此次降价幅度最大的旗舰纯电车型i7 | 图片来源:视觉中国
尽管采取了这些措施,宝马在中国市场的表现依然不尽如人意。数据显示,2024年8月,宝马在华仅售出3.48万辆,较去年同期大幅下滑42%,成为BBA品牌中降幅最大的。相比之下,奥迪8月销量为4.56万辆,同比下降19.4%;奔驰则售出4.87万辆,同比下降16.5%。
为了实现2024年的销量目标,宝马不得已再次开始降价。
部分销售人员透露,「近期降价是由于月底指标压力大,因此优惠幅度较大。指标尚未完成,价格会有所调整。此外,i3、3系等车型正在清库存,待到10月新款车型上市后,价格可能不会如此低。」
除了价格因素外,宝马等品牌销量波动的另一原因,是部分经销商因资金链问题导致车辆无法交付。2024年6月,江苏盐城最大的汽车经销商森风集团曝出资金链断裂的消息,该集团代理了包括宝马、奥迪、奔驰和林肯在内的20多个品牌。这一事件进一步加剧了宝马等在中国市场面临的压力。
燃油车价格体系崩溃
如今,宝马等合资豪华品牌正面临两难境地:一方面,继续参与价格战将不可避免地削弱品牌价值和利润空间;另一方面,如果不采取价格策略,市场份额和销量将面临持续下滑的压力。对于BBA而言,这一困境显然是巨大的挑战。
造成这一局面的原因之一,是中国新能源市场的发展速度与合资豪华品牌的节奏不一致。根据数据和行业发展趋势,中国新能源汽车的渗透率将在2025年突破50%,这一进程比原定目标提前了10年。根据2020年的规划,这一目标原定为2035年。中国新能源汽车市场的突然加速,这让宝马等合资豪华品牌转型的节奏明显滞后。
目前,BBA的新能源车型大多属于「油改电」产品,即在原有的燃油车型基础上转换动力形式,而没有进行针对电动车特性的全面设计迭代。因此,这类车型在续航能力、舒适性、安全性和智能化方面,都无法与专为电动化打造的车型相比,竞争力明显不足,难以赢得消费者的青睐。
宝马等品牌的新一代纯电动车型,预计最快于2025年上市。例如,宝马专为电动车设计的Neue Klasse平台首款车型预计在2025年推出;奔驰的全新MMA平台车型同样要等到2025年在北京奔驰量产;而奥迪基于PPE平台的Q6 e-tron也预计到2025年才能国产上市。这意味着BBA在未来几年内依然面临新能源领域的激烈竞争。
曾经主导中国豪华车市场的BBA,如今正面临电动化、智能化转型的重大挑战,品牌价值也在受到冲击。坊间流传的调侃“再不努力,只能开BBA”似乎逐渐成为现实。
宝马目前最畅销的新能源车型——宝马i3 | 图片来源:视觉中国
另一个不容忽视的因素,是传统燃油车价格体系的全面崩溃。
过去几十年,合资品牌在中国市场确立了相对稳固的价格体系。例如,A级车的定价通常在10-20万元之间,B级车约为20万元,C级车则在30万元左右。这一价格体系不仅是消费者购车时的心理预期,也成为车企在产品定位、成本管理和利润规划的核心依据。
然而,随着新能源车的强势崛起和价格战的持续发酵,尤其是比亚迪提出的「油电同权」和「电比油便宜」等概念,传统的价格主导权正逐渐向自主品牌转移。原有的定价体系正在被彻底打破,C级车的售价逐步进入B级车区间,而B级车则以接近A级车的价格销售,以往整个市场的价格逻辑已失效。
举例来说,在A级轿车市场中,比亚迪秦PLUS DM-i荣耀版、日产轩逸、大众朗逸、丰田雷凌和现代伊兰特等车型的起售价已经跌破8万元大关,平均降幅达到3万元以上。与此同时,主流B级轿车的起售价也逐渐接近A级车的中高配车型,部分车型的售价已降至12万元左右。而在紧凑型SUV市场,起售价普遍在15万元左右,部分品牌甚至将价格压低至11万或12万元。
在这种情况下,各细分市场的价格混乱已成常态,不同车型的定价出现了相互踩踏的现象,导致市场竞争更加白热化。这种价格体系的紊乱不仅打乱了车企的产品策略,还使得品牌在市场中的定位变得模糊不清。
从当前市场态势来看,豪华品牌盲目跟进价格战的效果并不显著。特别是在产品力不足的情况下,单靠价格战刺激销量增长无法实现长远的可持续发展。
豪华品牌的核心竞争力,并非仅靠短期的销量增长,而是基于品牌价值的深厚积累和持续的技术创新。相比自主品牌,宝马、奥迪、奔驰等豪华品牌依然具备强大的品牌优势。真正的挑战在于如何以品牌为核心,通过技术创新和产品升级填补短板。
作为全球最重要的汽车市场之一,如何与中国竞争对手「共舞」,现在压力给到了国外豪华品牌。