定性事件感知:利用时空情节记忆在策略游戏中学习战斗
摘要
本文由Will Hancock和Kenneth D. Forbus撰写,来自Northwestern University的Qualitative Reasoning Group,探讨了如何利用时空情节记忆自动将连续体验分割成结构化情节,并利用这些描述进行类比学习。研究聚焦于策略游戏中的军事战斗事件,通过自动生成事件描述并从这些经验中学习,提升游戏中的表现。文章展示了基于时空变化的情节分割有助于学习,因为它们在有用的时空粒度上捕捉事件描述。此外,还展示了情节的空间范围感知影响其时间持续性及生成的案例总数。
原理
本文的核心在于利用Hayes的历史概念(histories)来表示连续域中的变化,并在此基础上构建了定性时空情节记忆(QSTEM)。历史概念通过将变化表示为基于参与变化的对象的时空片段,解决了传统情景演算中缺乏空间约束的问题。QSTEM通过定性描述空间扩展实体的变化属性作为定性时间间隔,实现了自动的时空适应,使得描述依赖于通用编码方案,便于代理适应新情况。此外,通过结构映射引擎(SME)、MAC/FAC检索系统和SAGE泛化系统等类比机制,实现了对时空学习的支持。
流程
论文详细描述了在策略游戏Freeciv中,代理如何记录军事战斗的轨迹并基于这些经验做出决策。工作流程包括案例构建、复合实体的持续性、记录流(fluents)、学习模型以及决策制定。代理通过定性描述战斗事件的时空边界,自动生成结构化描述的军事战斗案例。这些案例基于QSTEM构建,并通过SAGE系统进行类比学习,从而不断优化其游戏策略。具体示例展示了如何通过扩展的空间表示来持续战斗事件,并利用这些信息进行学习和决策。
应用
本文提出的模型不仅适用于策略游戏中的军事战斗,还可广泛应用于涉及复杂数量条件的事件和领域,如社交聚会、教室、液体等。通过定性时空表示,代理能够更好地理解和学习连续事件,这对于认知机器人、日常事件理解等领域具有重要应用价值。未来研究将进一步探索这些表示在其他领域的应用,如常识事件学习在认知机器人环境中的应用。
