planning embodied AI neuro-symbolic safety verification iterative refinement
摘要

大型语言模型(LLMs)在具身AI中展现出作为规划器的潜力,但其随机性缺乏形式化推理,无法提供严格的物理部署安全性保证。当前方法通常依赖不可靠的LLMs进行安全检查或直接拒绝不安全计划而未提供修复方案。本文提出可验证迭代优化框架(VIRF),一种神经符号混合架构,将安全机制从被动守门转向主动协作。核心贡献是引入导师-学徒对话机制,其中基于形式化安全本体的确定性逻辑导师为LLM规划器提供因果和教学反馈,实现智能计划修复而非简单规避。同时提出可扩展的知识获取流程,从现实文档中合成安全知识库,修正现有基准的盲点。在具有挑战性的家庭安全任务中,VIRF实现了0%的危险动作率(HAR)和77.3%的目标条件率(GCR),显著优于所有基线方法,且效率高,平均仅需1.1次修正迭代。

AI 推荐理由

论文核心围绕规划能力展开,提出了一种可验证的迭代优化框架用于提升具身AI的安全性与规划质量。

论文信息
作者 Feiyu Wu, Xu Zheng, Yue Qu, Zhuocheng Wang, Zicheng Feng et al.
发布日期 2026-02-09
arXiv ID 2602.08373
相关性评分 10/10 (高度相关)