利用LLMs开发新型变种恶意软件:网络安全的新挑战

Synthetic Cancer – Augmenting Worms with LLMs

摘要

本文由Benjamin Zimmerman和David Zollikofer提交至瑞士AI安全奖,探讨了利用大型语言模型(LLMs)开发新型变种恶意软件的风险。文章提出了一种利用LLMs进行自动代码重写以逃避基于签名的检测,并通过社交工程策略促使收件人执行附带恶意软件的电子邮件的恶意软件。文章通过一个功能性最小原型展示了LLMs在网络安全领域带来的风险,并强调了进一步研究智能恶意软件的必要性。

原理

本文提出的恶意软件利用LLMs进行两个关键过程:代码重写和目标传播结合社交工程。在代码重写阶段,恶意软件利用LLM(如GPT-4)完全重写其源代码,确保每次感染的变体都不同,从而避免基于签名的检测。在传播阶段,恶意软件扫描Outlook中的过往邮件对话,利用LLM分析这些对话,并草拟回复邮件,鼓励用户打开附件,从而实现恶意软件的传播。

流程

  1. 蠕虫安装:蠕虫通过电子邮件发送给目标用户,用户在社交工程策略的诱导下执行蠕虫。初始执行后,蠕虫从互联网下载所需依赖,并可能对用户文件进行加密等破坏性操作。
  2. 蠕虫复制:使用LLM(如GPT-4),蠕虫逐文件复制自身,完全重写源代码,确保每次感染的变体都不同,使基于签名的检测变得不可行。
  3. 蠕虫传播:复制完成后,蠕虫扫描Outlook中的过往邮件对话,LLM分析这些对话,草拟回复邮件,鼓励用户打开附件。邮件作为回复发送,附带蠕虫副本,完成传染循环。

应用

本文提出的恶意软件展示了LLMs在网络安全领域的潜在风险,特别是在恶意软件的开发和传播中。这种技术的应用前景主要在于提高恶意软件的隐蔽性和传播效率,对网络安全构成重大威胁。因此,需要进一步研究和开发相应的防御机制,以应对这种新型威胁。