小型语言模型 对话状态管理
摘要

客服问答系统日益依赖对话语言理解。尽管大语言模型(LLMs)性能优异,但其高计算成本限制了在资源受限环境中的部署。小型语言模型(SLMs)虽更高效,但在需保持对话连贯性与上下文理解的多轮客服问答中效果尚不明确。本文研究了经过指令微调的SLMs在采用历史摘要策略以保留关键对话状态下的表现,并提出基于对话阶段的定性分析方法,评估模型在客服交互不同阶段的行为。通过词汇与语义相似度指标及人工与LLM-as-a-judge评估,对9个低参数SLMs与3个商用LLMs进行比较。结果表明SLMs表现差异显著,部分接近LLM水平,其余则难以维持对话连贯性与上下文对齐。

AI 推荐理由

采用历史摘要策略维护对话状态,涉及记忆机制但非核心研究。

论文信息
作者 Lakshan Cooray, Deshan Sumanathilaka, Pattigadapa Venkatesh Raju
发布日期 2026-01-31
arXiv ID 2602.00665
相关性评分 6/10 (相关)