利用LLMs开发新型变种恶意软件:网络安全的新挑战
摘要
本文由Benjamin Zimmerman和David Zollikofer提交至瑞士AI安全奖,探讨了利用大型语言模型(LLMs)开发新型变种恶意软件的风险。文章提出了一种利用LLMs进行自动代码重写以逃避基于签名的检测,并通过社交工程策略促使收件人执行附带恶意软件的电子邮件的恶意软件。文章通过一个功能性最小原型展示了LLMs在网络安全领域带来的风险,并强调了进一步研究智能恶意软件的必要性。
Read more...本文由Benjamin Zimmerman和David Zollikofer提交至瑞士AI安全奖,探讨了利用大型语言模型(LLMs)开发新型变种恶意软件的风险。文章提出了一种利用LLMs进行自动代码重写以逃避基于签名的检测,并通过社交工程策略促使收件人执行附带恶意软件的电子邮件的恶意软件。文章通过一个功能性最小原型展示了LLMs在网络安全领域带来的风险,并强调了进一步研究智能恶意软件的必要性。
Read more...本文介绍了一种创新的方法,通过将大型语言模型(LLMs)与上下文多臂老虎机(Contextual Multi-Armed Bandit, CB)框架结合,来优化推荐系统中的个性化建议。论文展示了LLMs在模拟人类行为和偏好方面的能力,从而能够为CB提供初始训练数据,减少在线学习中的遗憾(regret)。这种方法通过利用LLMs生成的合成奖励分布来预训练CB,显著降低了模型训练的数据收集成本和时间。实验结果表明,该方法在不同的CB设置中都能有效减少早期遗憾,显示出其在实际应用中的潜力和效率。
Read more...本文提出了一种利用大型语言模型(LLM)生成的解释来促进对话中社会意义检测的通用分类方法。通过设计多方面的提示,提取连接可见线索和潜在社会意义的推理文本解释,这些解释作为对话文本的扩充,有助于对话理解和迁移。实验结果表明,添加这些解释在 2340 个实验设置中对两个不同的社会意义检测任务(每个任务跨越两个不同的语料库)都有显著的积极影响。
Read more...本文针对长期因果效应估计中的一个重要但具有挑战性的问题——估计长期异质剂量反应曲线(HDRC),特别是在存在未观测混杂因素的情况下。现有的方法通常依赖于理想假设来估计长期的平均效应,例如没有未观测的混杂因素或二元治疗,而在许多实际应用中,这些假设可能被违反,且平均效应无法提供个体级别的建议。本文提出了一种新的方法,通过引入最优传输加权框架来对齐观测数据与实验数据,从而在理论上保证去除未观测的混杂因素。此外,为了准确预测连续治疗的异质效应,本文通过利用由最优传输诱导的重新加权分布,建立了反事实预测误差的泛化边界。最后,基于上述理论基础,开发了一种HDRC估计器。在多个合成和半合成数据集上进行的广泛实验研究表明,本文提出的方法具有有效性。
Read more...本文提出了一种基于粒计算的多层次顺序三向决策(S3W-GDM)方法,用于解决双层次犹豫模糊语言术语集(DHHFLTS)环境下的群决策问题。该方法同时考虑了群决策问题的模糊性、犹豫性和变化性,通过定义专家决策表和决策级信息的提取/聚合,利用邻域理论、优势关系和后悔理论(RT)重新设计条件概率和相对损失函数的计算,提高了决策效率和决策结果的可解释性。
Read more...本文介绍了一种基于高斯过程的锂离子电池系统健康监测和故障分析方法。该方法利用现场数据对电池系统进行建模,能够有效分离时间相关和操作点相关的电阻,实现对电池系统的快速处理和在线监测,有助于深入了解电池在现场的退化和故障情况。
Read more...本文介绍了一种名为“Chain-of-Gesture Prompting”的新型实时端到端错误检测框架,用于机器人辅助微创手术(RMIS)视频中的错误检测。该框架受自然语言处理中的链式思维提示启发,通过两个推理模块模拟专家外科医生的决策过程,从而提高手术安全性和效率。具体来说,该框架包括一个手势视觉推理模块和一个多尺度时间推理模块,能够在不依赖手势标签的情况下,实时检测手术视频中的错误。实验结果显示,该方法在公共基准数据集JIGSAWS上的性能优于现有技术,处理每帧视频仅需6.69毫秒。
Read more...本文介绍了一种名为Human-Aware Vision-and-Language Navigation (HA-VLN)的新型导航任务,该任务通过结合动态人类活动和放松关键假设,扩展了传统的视觉-语言导航(VLN)框架。为了支持HA-VLN的研究,作者提出了Human-Aware 3D (HA3D)模拟器和Human-Aware Room-to-Room (HA-R2R)数据集。此外,还提出了两种多模态代理:Expert-Supervised Cross-Modal (VLN-CM)和Non-Expert-Supervised Decision Transformer (VLN-DT),利用跨模态融合和多样化的训练策略,在动态人类环境中进行有效导航。全面的评估结果强调了进一步研究以增强HA-VLN代理在现实世界中的鲁棒性和适应性的必要性。最终,这项工作为未来在具身AI和Sim2Real转移方面的研究提供了基准和见解,为在人类环境中更真实和适用的VLN系统铺平了道路。
Read more...本文介绍了一种利用强化学习在图表示上进行知识获取的对话代理。该代理旨在通过与其他代理的对话,战略性地获取新信息,扩展其知识库。代理将其知识建模为RDF知识图,并通过对话整合新信念。对话中的响应是通过识别围绕这些新整合信念的图模式生成的。研究表明,可以通过强化学习学习策略,在交互过程中选择有效的图模式,而无需依赖显式的用户反馈。本文证明了利用用户作为有效信息源的概念验证,展示了知识中心代理通过对话主动获取知识的潜力。
Read more...本文探讨了机器学习中广泛观察到的“线上准确性”现象,即模型在分布内(ID)和分布外(OOD)数据上的准确率在不同超参数和数据配置下呈正相关。然而,本文研究了这一现象的鲁棒性,发现噪声数据和干扰特征的存在足以打破这一现象,导致ID和OOD准确率呈负相关,即“错误线上的准确性”。这种现象在存在虚假(捷径)特征的情况下也可能发生,这些特征往往掩盖了更复杂的信号(核心,非虚假)特征,导致干扰特征空间变大。此外,扩大数据集规模并不会缓解这种不良行为,甚至可能加剧它。本文通过线性分类模型正式证明了OOD错误的一个下界,并展示了这一现象在合成和真实噪声数据集上的存在。
Read more...