揭秘硬件木马:一种可解释的人工智能架构及其应用前景
摘要
本文介绍了一种能够分类并解释硬件木马的人工智能架构。硬件木马是在集成电路(IC)设计阶段被植入的恶意电路,一旦制造完成,这些木马无法被移除或通过软件补丁轻易绕过。本文提出的解决方案基于现有的硬件木马检测特征,引入了一种可解释的方法和架构,通过使用机器学习(ML)技术,特别是在数字硬件木马检测中使用信任中心木马基准测试,实现了对硬件木马的分类和解释。该研究的前景在于提高硬件木马检测的透明度和可信度,从而增强信息安全。
原理
本文提出的架构通过结合硬件木马检测的特征,构建了一个基于机器学习的分类系统。该系统利用支持向量机(SVM)作为推理引擎(IE),通过分析逻辑门扇入(LGFi)、触发器输入(FFi)、触发器输出(FFo)、主输入(PI)和主输出(PO)等五个特征的组合,来识别和解释硬件木马。这些特征的组合被称为属性,每个属性都有一个解释性度量(Xj),表示该属性的可解释性。系统通过训练数据来优化SVM的参数,并使用静态和动态权重方法来处理数据集的不平衡问题。最终,决策过程(DMP)根据IE的投票结果和属性有效性权重来做出系统决策,并通过可解释的人工智能(XAI)功能生成解释,以增强决策的可信度。
流程
本文的工作流程包括数据准备、属性基础的可解释架构和案例基础的可解释架构。数据准备阶段使用信任中心的木马基准数据,通过处理Verilog门级网表来提取五个特征和类别信息。属性基础的可解释架构通过将五个特征转换为所有可能的31种特征组合,并使用SVM进行分类和解释。案例基础的可解释架构则通过训练索引(TI)来快速提供相关案例和参考,使用K最近邻(KNN)算法来解释新样本的决策。具体示例展示了如何通过这些架构来解释硬件木马的检测结果。
应用
本文提出的可解释人工智能架构在硬件木马检测领域具有广泛的应用前景。通过提供透明的决策过程和解释,该架构可以增强用户对硬件木马检测系统的信任,从而在军事、航空、金融等关键领域提高系统的安全性和可靠性。此外,该方法还可以推广到其他需要高可信度机器学习决策的领域,如医疗诊断、网络安全等。
