摘要
在可控相机的视频生成中,保持长期空间一致性仍是一个核心挑战。现有基于记忆的方法通常依赖于从历史重建的全局3D场景生成锚点视频,但多视角重建不可避免地引入了跨视角对齐误差,导致生成质量下降。本文提出AnchorWeave,一种增强记忆的视频生成框架,通过使用多个干净的局部几何记忆并学习协调其跨视角不一致性来替代单一的全局记忆。AnchorWeave通过覆盖驱动的局部记忆检索与目标轨迹对齐,并在生成过程中通过多锚点编织控制器整合所选局部记忆。大量实验表明,AnchorWeave显著提升了长期场景一致性,同时保持了高质量的视觉效果,消融分析进一步验证了局部几何条件、多锚点控制和覆盖驱动检索的有效性。
AI 推荐理由
论文核心围绕记忆机制展开,提出基于局部几何记忆的视频生成框架以解决长期空间一致性问题。
论文信息