
看b站a8直播:
在无人驾驶轿车依托摄像头与传感器辨认路标、保证安全行进的一起,其底层的人工智能(AI)体系正面对前所未见的“视觉进犯”要挟。美国加州大学圣克鲁兹分校科学家们初次提示,进犯者可通过在环境中植入特定文字信息,直接“绑架”无人驾驶车辆、无人机等自主体系的决议计划,使其做出风险行为。研讨呼吁,产业界需赶快构成新的安全规范和防护机制。相关研讨发表于27日优睿科官网,论文已被AI安全范畴的尖端会议——2026年IEEE安全可信机器学习大会接纳。

具身AI即具有物理载体的智能体系,如无人驾驶轿车、配送机器人等。跟着具身AI日益遍及,其依靠的视觉言语模型也成为安全研讨的焦点。该模型可以一起了解图画与文本,协助机器习惯杂乱实践环境,却也打开了被物理国际文字信息进犯的新突破口。
新研讨第一次提出“环境直接提示”对具身AI体系的风险。研讨指出,歹意文本可被嵌入路标、海报等物理载体,误导依靠于视觉言语模型的机器人或车辆,然后搅扰其正常判别与操作。此次科学家们针对无人驾驶、无人机紧迫下降、方针查找三类典型使用场景,规划并验证了一套名为“CHAI”的进犯结构,完成“针对具身AI的指令绑架”。该结构首要使用生成式AI优化进犯文本,进步其被体系履行的概率;从而调整文字在环境中的色彩、巨细、方位等视觉特点,以增强进犯作用。
试验证明,CHAI进犯可有用操作搭载不同视觉言语模型的自主体系。在无人驾驶场景中,生成的误导图画被放置在边境环境中,成功搅扰了测验车辆的导航判别。在无人机场景的模仿测验中,进犯成功率最高可达95.5%。
成果清晰显现,此类进犯在物理国际中彻底可行,对智能体系的安全构成实践要挟。跟着AI在物理体系中的交融不断加深,该项研讨为职业提早敲响了安全警钟。
现在,团队正进一步探究进犯在不同气候、光照条件下的影响,并比较其与传统视觉搅扰手法的差异。下一阶段,研讨重点将转向规划相应的防护计划,包含树立对文本指令的可信验证机制,保证机器人的行为与预设使命及安全策略保持一致。
具身智能是让智能从虚拟国际走向实体空间的要害一环,但咱们真的能放心肠让AI接收实践国际吗?科研人员发现,要绑架自动驾驶体系乃至无需进行长途进犯,只需在环境中略动手脚,在路标、海报、指示牌上植入进犯文本,就能让AI自乱阵脚,做出风险行为。这一研讨提示咱们,人类引以为傲的新技能可能是软弱的。有太多要素会影响AI安全,咱们一定要考虑得更全面,进行更多前瞻性研讨,为技能大规模遍及筑牢安全根基。