CE-QArg算法:量化双极性论证框架中的反事实解释新方法

CE-QArg: Counterfactual Explanations for Quantitative Bipolar Argumentation Frameworks (Technical Report)

摘要

本文介绍了一种名为CE-QArg的新算法,用于在量化双极性论证框架(QBAFs)中生成反事实解释。QBAFs是一种用于理解和解释论证强度的模型,但现有的基于归属的方法无法解释如何将当前强度改变为期望强度。CE-QArg算法通过两个核心模块——极性和优先级,来确定每个论证的更新方向和幅度,从而识别有效且成本效益高的反事实解释。本文还讨论了反事实解释的一些形式属性,并在随机生成的QBAFs上进行了实证评估。

原理

CE-QArg算法的核心在于通过极性和优先级两个模块来确定论证的更新方向和幅度。极性模块根据论证之间的连接关系和攻击路径的数量来确定论证的影响类型(中性、正向、负向或未知)。优先级模块则根据论证与主题论证之间的最短路径长度来确定更新的优先级。算法通过迭代调整论证的基础分数,直到主题论证的强度达到期望值。这种基于极性和优先级的迭代更新策略使得算法能够高效地找到成本效益高的反事实解释。

流程

CE-QArg算法的工作流程如下:

  1. 初始化:设定主题论证和期望强度,计算所有论证的极性和优先级。
  2. 迭代更新:根据极性和优先级,逐步调整每个论证的基础分数,确保分数在[0, 1]范围内。
  3. 终止条件:当主题论证的强度达到或接近期望强度时,算法停止并返回当前的基础分数函数作为反事实解释。 例如,在贷款申请的QBAF示例中,算法会通过调整如年收入、信用评分等论证的基础分数,来找到使得贷款申请被批准的反事实解释。

应用

CE-QArg算法在需要解释复杂决策过程的领域具有广泛的应用前景,如医疗、金融和司法决策。通过提供反事实解释,该算法可以帮助用户理解模型决策的原因,并指导如何通过改变输入来达到期望的决策结果。此外,该算法还可以用于改进现有模型的透明度和可解释性,增强用户对AI系统的信任。