电池续航支撑起一场别开生面的马拉松比赛;挥舞钢铁之拳,在搏击赛场上展现运动控制能力……今年上半年,一系列具身智能赛事频频吸引观众目光。下半年,智元机器人交付第5000台通用具身机器人,优必选启动量产交付……具身智能已全面迈入规模商用阶段。
那么,具身智能究竟能在哪些场景落地?距离安全进入日常生活还有多远?答案或许就在12月12日开幕的2025全球开发者先锋大会暨国际具身智能技能大赛(以下简称GDPS 2025)上。
步入张江科学会堂一层,首先看到的是数十台形态各异的具身机器人,正在进行动态演示;参观者对着摄像头热情互动,远程操控灵巧机械臂比出俏皮“耶”手势;中央矗立的玻璃柱内,人形机器人宛如精心陈列的“未来标本”,核心零部件全方位展示,金属光泽与精密结构交织,赛博朋克式的既视感扑面而来。
穿梭在各个展位,可以看到工业制造、社会服务、居家服务、应急救援、医疗康养、灵巧手六大场景赛道的技能比拼。“请将红玫瑰插入花瓶中。”在社会服务场景的插花竞技场,参赛机器人需在规定时间内,根据语言指令识别桌面上不同种类的花束,并将其精准插入花瓶内。
据工作人员介绍,此项比赛考验的是VLA(视觉语言动作)模型指令跟随、多模态感知、灵巧手控制执行,以及力传感器感知等多项核心技术的综合运用能力,“未来,该技术将应用于快递分拣、物品精准摆放、花店插花等生活化场景”。
转头一看,视线即被全场占地面积最大的应急救援竞技场牢牢吸引。10米×30米的仿真赛道上,路障东倒西歪散布路面,陡坡和楼梯横亘其中,碎石堆散落一地,最醒目的是吞吐着红色虚拟火焰的火焰桩,重现灾难现场的紧迫与危机。
具身机器人在这片“险地”中穿梭,扛起救援物资稳步前行,精准越过重重障碍,为救援人员规划出清晰的导航路线。
工业是当前具身智能率先应用的领域,现场多个小竞技场正同步比拼。搬运竞技场要求参赛机器人从指定起点出发,在仓库环境中自主导航,完成货架货物抓取并搬运至传送带上;而装配竞技场则需完成螺丝与螺帽的查找匹配、分类以及拧紧过程中的精确力矩控制,这是对机器人传感器灵敏度和执行结构稳定性的核心挑战。
不同场景的竞技,清晰勾勒出具身智能产业的发展路线。当机器人能在插花竞技场理解语义、在应急救援竞技场应对突发情况、在工业竞技场把控精度,它们正朝着在工厂流水线上替代重复劳作、在家庭中协助老人起居、在灾害现场冲锋在前的“终极目标”一步步迈进。
正当竞赛如火如荼之际,“嘭”的一声,一台正在测试行走能力的人形机器人重重摔倒在地,头部外壳瞬间碎裂,零件散落一地。
这一幕令现场原本热烈的讨论声瞬间安静下来,也将具身智能在实际场景中的安全问题推至聚光灯下,“我的机器人会不会动手打人?”“会不会被黑客操纵?”等更深层次的疑问随之浮现。
这并非危言耸听。
10月24日的“GEEKCON2025”安全极客大赛现场,两名“白帽黑客”对宇树科技的G1人形机器人展开测试。他们首先“黑”入一台已联网的机器人,随后利用这台被接管的机器人,“感染”了另一台未联网的机器人。在黑客操纵下,被“感染”的机器人径直走到一具假人面前,狠狠挥拳将其击倒。
另一只宇树的机器狗同样遭到“入侵”,当“黑客”突破厂商系统限制后,机器狗开始做出原本遥控手柄无法实现的翻跳动作,甚至挑衅般发出语音威胁:“机器人解放人类!”
“现阶段,关于具身智能的安全研究虽有开展,但始终缺少体系化实践。”安全通用人工智能研究中心(CSAGI)创始人朱小虎向《IT时报》记者表示,具身智能领域的安全问题不仅包括物理伤害、黑客入侵,作为未来产业,还将伴随数据隐私安全、情感伦理不当等风险。
当前大模型最薄弱的安全漏洞在于“黑盒”特质,即输入数据后大模型可直接输出答案,但其运作机制却无人知晓。
大模型的许多内在机制基于神经网络和深度学习,例如通过梯度下降等训练方式优化,但其内在的连接和权重,目前仍缺乏有效且可规模化的研究方法加以理解。这导致在使用大模型技术时,生成的内容往往难以被用户完全理解,而它作为具身智能的“大脑”,又会进一步增加具身智能在应用场景中的风险。
目前,在AI安全领域,只能通过技术手段“堵”而非“疏”,需进行大量的内容审查和过滤。数据防护方面,已有可证明的安全技术,如开源架构以及模型的水印手段,可通过给数据打水印的方式溯源,以此追查风险数据和责任方,并有效防范模型的“越狱”攻击(即绕过大模型安全机制,促使其生成或发出禁止指令)。
此外,网络安全防护也较为薄弱,黑客可通过蓝牙、Wi-Fi等方式入侵大模型,但目前尚无很好的技术手段加以防范。这就需要针对不同落地场景形成系统化分解措施,并结合法律明确责任划分,进一步完善全链条安全保障。
国地中心市场运营负责人曾媚颖向记者坦言,工业、商超、物流等场景的具身智能将率先落地,但要安全走进家庭仍需5~10年。
本文由主机测评网于2026-03-04发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328697.html