多智能体系统 模态逻辑 神经符号系统 可微推理 信任网络
摘要

随着多智能体AI系统从简单的聊天机器人发展为自主群体,调试语义失败需要对知识、信念、因果关系和义务进行推理,而这正是模态逻辑所设计的形式化内容。然而,传统模态逻辑需要手动指定在实际系统中未知或动态的关系结构。本文介绍了通过模态逻辑神经网络(MLNNs)实现的可微模态逻辑(DML),使系统能够仅从行为数据中学习信任网络、因果链和监管边界。文章提出了一个统一的神经符号调试框架,涵盖四个模态:认识论(信任谁)、时间(事件何时导致故障)、道义(允许哪些动作)和信念(如何解释智能体的信心)。每个模态均在具体的多智能体场景中进行了演示,包括从外交游戏中发现欺骗性联盟到检测LLM幻觉,并展示了如何将逻辑矛盾转化为可学习的优化目标。关键贡献包括:(1)可解释的学习结构,其中信任和因果关系是显式参数而非不透明嵌入;(2)通过可微分公理注入知识以指导稀疏数据下的学习;(3)组合多模态推理,结合认识论、时序和道义约束;以及(4)适用于监控、主动控制和通信的多智能体系统的实际部署模式。所有代码均以可执行的Jupyter Notebook形式提供。

AI 推荐理由

论文聚焦于基于模态逻辑的可微推理框架,用于多智能体系统的诊断与通信,直接涉及推理机制的设计与实现。

论文信息
作者 Antonin Sulc
发布日期 2026-02-12
arXiv ID 2602.12083
相关性评分 9/10 (高度相关)