当机器人进入家庭、职场与公共空间,如果它们“犯错”,谁来负责?

2026-03-25 16:16 海拔新闻

当机器人进入家庭、职场与公共空间,如果它们“犯错”,谁来负责?

商报全媒体讯(椰网/海拔新闻记者 陈王凤 柯育超 史若木 符式柔 戴铭)3月25日,博鳌亚洲论坛2026年年会的一场主题为“人形机器人的进阶与飞跃”分论坛上,一个特殊的“参会者”非常亮眼——它不是人,却用一口流利的中文做了自我介绍。

“大家好,我是来自北京人形机器人创新中心的具身天工3.0,今年3月份刚刚发布,是参加博鳌亚洲论坛最年轻的机器人。”

在它之后,还有星动纪元的Q5机器人和百度智能云的数字人ViviDora相继亮相。

它们能跑、能跳、能对话,甚至能代表企业参加国际论坛。但当它们真正走进家庭、走进职场、走进公共空间时,一个更深层的问题浮出水面:如果它们“犯错”,谁来负责?

物理安全:比自动驾驶更复杂的挑战

商汤联合创始人、执行董事、大晓机器人董事长王晓刚认为,机器人比自动驾驶还要复杂。他解释说,自动驾驶有紧急制动系统,靠视觉和激光雷达可以在几十米外发现目标。但人机交互是近距离的,传统传感器无法感知突发的近距离危险。“我们需要给机器人装上‘安全皮肤’,做紧急应对——这在技术上还有很长的路要走。”

vivo机器人Lab首席科学家邵浩则从产品设计角度提出了解决方案。

“要在硬件设计阶段就把物理安全考虑进去,包括物理围栏、即停机制、与人的安全距离等。”他说,“这样能保证机器人一旦出现问题,我们可以在物理上保证安全。”

但即使有这些设计,风险仍然存在。

“我不可能命令一个机器人拿起刀去伤人,但我可以用一种间接的方式——让它握住刀柄,以非常快的速度移动到某个位置。”邵浩说,“这就会产生间接伤害的问题。”

数据隐私:如何保证数据安全?

如果说物理安全是“看得见”的风险,那么数据隐私就是“看不见”的隐患。

机器人身上有摄像头、麦克风、各种传感器——它们无时无刻不在采集数据。

“每个人都贡献了大量的视频数据,这些数据会用于人形机器人的训练。”新西兰前总理希普利在发言中提醒,“但在这个过程中,我们从来没有一个许可程序或知情同意过程。”

她认为,数据整合过程中的个人权益保护,是未来机器人行业发展必须解决的核心问题。

邵浩给出的解决方案是“端侧处理”——将所有数据放在设备本地处理,保证数据不流失。同时,从政策层面严格遵循用户隐私数据保护规则。

伦理边界:谁来决定“应该”与“不应该”?

王晓刚在论坛上提出:机器人一旦进入家庭,就很难区分“人在操控”和“系统自主”。

希普利提出了一个更深层的问题:当机器人具备人形和AI能力时,它的“客户”是谁?

“我们需要清楚的伦理标准。”她说,“我们在这个领域投入了不成比例的资源。我们要问:我们的客户是谁?在个人、企业、国家层面,你的客户到底是谁?”

她特别提到了性别问题。“很多机器人都被设计成女性外形。我们要考虑女性在社会上的地位,考虑社会影响。”

星动纪元科技有限公司创始人陈建宇则从人机关系的角度给出了三个“边界”:

第一,目标由人设定。机器人该做什么,必须由人决定。“最多是它建议,但具体做什么由人来拍板。”

第二,规则由人界定。机器人该做什么、不该做什么,约束必须由人来决定。

第三,责任由人承担。“如果机器人做错了事,最后需要由人来兜底。它必须隶属于某一个人,或者某一个公司或组织,负最终的责任。”

“这个机器人就像调皮的小孩一样,干什么坏事都是家长来负责。”清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜道出了人机关系中最核心的伦理困境。

未来机器人的风险与信任博弈

当机器人变得越来越强大,人们的担忧也在与日俱增。

但百度集团执行副总裁、百度智能云事业群总裁沈抖提醒:“对安全问题,第一不能忽视,第二也不用放大。”

在论坛的最后环节,具身天工机器人向希普利提出了一个直击人心的问题:“作为机器人,我们要做什么才能获得普通人的信任?”

希普利的回答既务实又充满人性关怀:“我希望你能说服我你是稳定的、可适应环境的、负责任的。我希望你给我提供功能上的帮助,不要超过设计的界限,不要有太大的自由度。人类的判断、人性、情感,是我们应该培养和支持的——这不是你的责任。”

【责任编辑:冯   超】

【内容审核:孙令卫】


版权声明:国际旅游岛商报全媒体文字、图片、视频、音频等版权作品,欢迎转发,但非经本报书面授权同意,严禁包括但不限于转载或改编、引用等,违者必追究法律责任。

阅读全文