挤不动的世界机器人大会上, 香港二四六开奖免费资料 自变量秀出了真·通用具身智能

机器之心报道 澳门王中王100%期期中

编辑:泽南

会整理家务、制作香囊,还能比心比耶。
具身智能已经进化到这种程度了,真实满足用户需求似乎指日可待。

今天上午,2025 世界机器人大会 WRC 正式开幕。最近的 AI 技术突破,让参展的公司纷纷拿出了新技术,人头攒动的展台之间,我们看到了一众「具身智能」加持的机器人,其中很多还是首次发布。

它们从整理家务、工业物流、制造装配到跳舞表演可谓无所不能,形态也各式各样,颇有些前不久大模型「百模大战」的样子。不过在这其中,有一家的公司反其道而行之,实现了「一脑多用」的真・通用智能。

国内头部创业公司「自变量机器人」给具身智能定义了一个新的标准。

一脑多用

覆盖多种场景

在 WRC 的展台上,自变量的通用轮式双臂机器人「小量」在制作香囊,为看展观众们送上专属小礼物。

它内置自变量自研的通用具身大模型 WALL-A,短短几天时间内就学会了自主制作香囊,而且工作时不挑环境 —— 不论展会现场周遭的声光环境有多复杂,人群动向如何,都不会干扰到它的「细活」。

如果提出指令,机器人能根据观众的喜好,自主拾取不同的香包,在不到 10cm 的空间中,双臂精巧配合,处理柔性物体的复杂形变,完成香囊的制作,最后一步贴上徽章,跟随观众手掌的移动将香囊成功地递至手中。

当它发现香囊制作物料缺乏时,将主动从制作吧台避障,移动到物料中转区,双臂协同,先后将空的物料筐放到置货架上,随后拿取物料盘完成补料。基于自变量自研的语义导航技术,「小量」能够迅速适应陌生的展位环境,并自主避障完成补货。

展台另一边,你可以向机器人「小白」发出语音指令:「小白,客厅有点乱,请整理一下!」它会在展位模拟的客厅环境中自主移动,在未对周边环境进行建模的情况下,通过语义导航功能和视觉系统实时判断,一边移动一边精准操作完成收纳清理。

它可以拾取地面上的废纸、饮料瓶、塑料袋等各种不规则形状的垃圾,耐心清理完地面后,再把沙发上随意堆叠的多件衣物收纳到脏衣篓。

此外,除了制作香囊,完成日常家务,凭借 WALL-A 模型的强大泛化性,自变量的机械臂也在现场展示了在物流和工业场景中的应用操作,并且速度媲美人为操作。

自变量现场展示的能力相对少见:他们的产品基于端到端的具身智能大模型,能够自主规划并完成一整套长序列复杂操作,在开放随机的环境里能真正做到自主感知、决策与高精度操作,能像人类一样快速学习,不断进行思考、推理、判断、决策,举一反三。

在展会现场,自变量用同一个模型完成了制作香囊、分拣快递、家务清洁、分拣快递、环绕皮带等涉及多场景的完全不同种类的任务。纵观世界机器人大会现场,自变量机器人是唯一真正做到「一脑多用」—— 利用同一个基座大模型,仅通过短期、少样本的训练就能够在开放环境下胜任不同的任务。

「量子 2 号」问世

五指灵巧手加持

在现场,自变量还展示了两台全新仿人形机器人,基于自变量自研的臂手一体外骨骼技术,在市场首个实现仿人机械臂和高自由度灵巧手的一体化遥操控制。这也为未来机器人真正完成灵巧操作奠定基础。

它们的动作精准且自然,一台负责提供情绪价值,能够与观众即时互动,打招呼碰拳比心。

一台展示了在通用场景中深度清洁的能力,通过夹持工具后的自旋转功能,使用清洁刷、拖布头,能够轻松实现 360 度无死角全方位清洁。

这是自变量首次亮相的轮式双臂仿人形机器人「量子 2 号」。在过去不到半年时间内,完成研发面世,包括灵巧手,均由自变量全栈自研实现。

量子 2 号采用轮式通用底盘,可以在家庭的各个房间、商店、工厂货架等狭小空间灵活穿梭。它的双臂控制范围达到 2 米,末端速度达到 2 米 / 秒,力度控制精确度达到 0.1N,既可以拿起一支笔,也可以搬起一箱水。全身具有高达 62 个自由度,配备视觉、触觉及力位感知等多种传感器,在复杂通用任务操作中,每个动作都贴近人类的运动逻辑和表现。

其中,五指灵巧手采用仿生结构设计,单手拥有 20 个自由度、15 个驱动单元,并可以感知细微的压力变化。据了解,这款灵巧手能够做到捏起薯片不会碎,握起玻璃杯不滑落。配合自变量自研的机械外骨骼遥操器,它就可以学习人类的手部动作,采集行为数据,用作进一步训练基础模型。

综合来看,量子 2 号的多处细节设置均完美适配人类生活空间:不论是递送物品、协助家务,还是与人类配合作业,量子 2 号在设计时都考虑到了高安全冗余和动态质心设计,确保在人类身边工作时的安全与稳定。

从 WALL-A 大模型、灵巧手再到整机本体,量子 2 号背后拥有一套软硬件结合的完整技术栈,这不仅让它看起来更「像人类」,也让它在未来的家庭、商业、工业场景中,具备了更广阔的通用化任务潜力。

具身智能「大脑」

跻身全球第一梯队

在生成式 AI 技术兴起之后,机器人领域经历了一波技术革新,一家家创业公司的 demo 吸引着全世界的眼球。我们似乎只需要「人形 + 大模型 + AI 视觉」就能很快构建起能胜任各种任务的机器人,替代人类的大量工作。

但如果深入了解一下技术你就会发现,如今很多机器人完成的动作,仍然是提前编排好的动作序列、后台人工遥控,以及视频剪辑修饰的结果。

对于很多具身智能产品来说,大模型技术尚未成熟,更不用说进行商业验证了。故事讲完,大规模的实践才刚刚开始。

实际上,要想构建我们想象中「物理世界的 AI」,不仅需要具身智能模型做到精确归类识别,极强的泛化推理能力,还要求机器人软硬件能够高度协同,以操作任意形状、位置的物体。这对算法和数据提出了前所未有的要求。

自变量机器人提出的具身智能基座模型 WALL-A 已经摸到了这个门槛。

作为一个端到端统一的 VLA(Vision Language Action)模型,WALL-A 能够像人类一样思考和工作,不再依赖模块化的信息传递,而是可以直接解析图像、语言信息,进行跨模态的因果推理并生成动作指令,实现了从感知输入直接映射到机器人控制动作的完整闭环能力。

物理世界 AI 的另一头,自动驾驶正在掀起「端到端 2.0」的技术革命,这一波架构的革新就是来源于机器人领域。人们已经意识到了具身智能的突破不会来自对现有基于视觉 – 语言基础模型的修补,而是需要一个统一的架构。

在基于 VLA 架构的 WALL-A 模型中,系统对多模态信息建立了对应关系。经过大量针对性数据的训练,WALL-A 已初步展示出了类似于大语言模型(LLM)的智能涌现,它可以理解人类的手写涂鸦与文字之间对应的关系,也拥有了空间推理能力,可以看着图片,用积木搭出与之匹配的形状。

基于 WALL-A 的系统在面对复杂的环境,能够整合视觉观察、空间记忆和常识知识,构建出连贯的推理链条,具备推理链和一定的自主探索能力。简单来说,它驱动的机器人「有常识」,并能进行灵活决策。

也正是因为端到端模型的统一框架,在实际应用中 WALL-A 可以实现很快的执行速度,面对前所未见的物体、场景可以理解并输出正确的响应。它可以支持超过百类高精度、高复杂度操作任务,实现了很好的的通用与跨场景泛化能力。

有这一套基座模型能力的加持,在今年的世界机器人大会上,我们才见证了机器人技术的一次跃迁。

回想自变量机器人这家明星公司的发展历程,可以发现它的实力不可小觑:一边是研发速度快,一边是技术还能做到足够扎实。

2023 年底成立的自变量机器人,已经在短短一年半的时间里完成了「大模型 + 本体」的搭建。

在去年 4 月,自变量发布初版具身智能底座大模型,随即展示了特定任务上的少样本学习、自发跨任务迁移能力。

去年 10 月,自变量机器人训练出最大参数规模的具身智能通用操作大模型「WALL-A」,在很多任务的操作上达到世界一流水平。

去年 11 月,自变量自研的大规模数据采集设备投入使用,在数据质量控制与数据收集效率方面达到世界领先水平,展现出长序列训推能力和泛化性,模型鲁棒性、成功率优势显著。

今年 4 月,自变量机器人率先在具身思维链等方面取得突破,WALL-A 模型在部分未见的新任务场景中展现出零样本泛化能力,自研本体「量子一号」也率先在开放场景实现商业化落地。

如今,自变量正式对外发布新一代具身轮式仿人形机器人量子 2 号(Quanta X2),至此,自变量机器人已经形成了从算法到落地,软件 + 硬件一体化的全自研技术栈,机器人「大脑」也迅速跻身全球具身智能第一梯队。

具身智能的落地

才刚刚开始

自变量创始人王潜表示,未来 3 到 5 年,通用机器人就有望逐步进入到消费端。

随着具身智能的引入,机器人的智慧不断提升,我们会在不久的将来看到它们在很多领域大展身手。从世界机器人大会上看过来,可见的应用方向包括但不限于:

居家服务:机器人自主完成打扫、整理收纳等各种家务,进行买菜补货,甚至完成做饭等任务。
商业场景:在零售、酒店等环境中承担各种服务,或进入康养旅居产业担任导游、护工等工作。
科研教育:部署在前沿研究机构和高校中,作为实验平台帮助人们探索新技术。
工业制造:在传统工业机器人的基础上,具身智能方法能够快速完成操作指令设定,降低编程和调试成本。
对于具身智能的落地来说,这些场景都具有深耕价值。而且在自变量展示的范式中,基础模型可以在真实世界中持续迭代。 澳门平特一肖100%免费

在建立技术体系的同时,自变量也在持续推动具身智能的大规模落地。据介绍,自变量目前在与头部客户合作,还计划围绕模型和硬件建立开放生态,赋能更多合作伙伴。

在可预见的未来,具身智能的第一批落地场景,也将成为自变量大展身手的舞台。

出处:39888.com大三巴论坛

欢迎向您的朋友推荐本站或本资料,一起交流!