强化学习 技能学习 机器人控制 拓扑规划
摘要

机器人打结是一项基础性挑战,因其涉及可变形物体的复杂交互和严格的拓扑约束。本文提出TWISTED-RL框架,在无需人类演示的情况下改进了先前最先进的打结方法(TWISTED)。该方法将单个打结问题智能地分解为多个子问题,并由专门的代理分别处理。本文方法用基于抽象拓扑动作的多步强化学习策略替代了TWISTED中通过监督学习获得的单步逆模型,从而实现了更精细的拓扑状态转换,避免了代价高昂且低效的数据收集协议,提升了在不同打结配置中的泛化能力。实验结果表明,TWISTED-RL能够解决之前无法完成的高复杂度打结任务,包括常用的八字结和死结。成功率的提升和规划时间的减少确立了TWISTED-RL作为无需人类演示的机器人打结新标杆。

AI 推荐理由

论文聚焦于Agent的技能学习,通过强化学习实现复杂任务(打结)的分解与执行。

论文信息
作者 Guy Freund, Tom Jurgenson, Matan Sudry, Erez Karpas
发布日期 2026-02-16
arXiv ID 2602.14526
相关性评分 9/10 (高度相关)