"QUEEN:一种新型防御机制,有效保护深度学习模型免受提取攻击"

QUEEN: Query Unlearning against Model Extraction

摘要

本文介绍了一种名为QUEEN的新型防御机制,旨在对抗模型提取攻击(MEA),这种攻击威胁到深度学习模型的安全性和隐私。QUEEN通过测量查询的敏感性并主动对潜在的模型提取攻击进行反击,从而限制了攻击者训练盗版模型的能力。该方法通过敏感性测量和输出扰动两个主要组件,有效地防止了攻击者通过查询结果训练出性能接近原始模型的盗版模型。实验结果显示,QUEEN在对抗多种模型提取攻击时表现优于现有防御措施,且对模型准确性的影响相对较低。

Read more...

"ReGround3D:开启3D视觉推理与定位的新纪元"

Empowering 3D Visual Grounding with Reasoning Capabilities

摘要

本文介绍了一项名为“3D推理定位”的新任务,旨在通过结合推理和定位能力,使模型能够根据隐含的人类指令在3D场景中定位目标物体并提供相应的解释。为了推动这一领域的发展,研究团队引入了名为ScanReason的新基准,该基准提供了超过10,000个问题-答案-位置对,涵盖五种推理类型。此外,研究团队设计了ReGround3D方法,该方法通过视觉中心推理模块和3D定位模块的协同工作,以及推理和定位步骤的交替机制,显著提高了模型在复杂3D场景中的定位能力。实验结果验证了所提方法的有效性,并展示了其在机器人和增强现实等应用中的广阔前景。

Read more...

"主动继承:利用合成数据引导大型语言模型生成理想文本"

LLM See, LLM Do: Guiding Data Generation to Target Non-Differentiable Objectives

摘要

本文探讨了合成数据对大型语言模型(LLMs)的影响,特别是如何通过精炼数据影响其他LLMs。研究系统地分析了合成数据源如何塑造模型的内部偏见、校准和生成文本的属性及偏好。研究发现,即使合成数据提示看似“中性”,模型对某些属性仍异常敏感,这引发了一个问题:是否可以利用数据生成过程在测试时明确引导模型向我们想要的属性发展?本文提出了“主动继承”这一概念,描述了如何根据非可微目标有意限制合成数据,以引导模型生成具有高词汇多样性或低毒性的文本。

Read more...

"创新医疗数据管理:混合RAG-empowered多模态LLM框架引领未来"

Hybrid RAG-empowered Multi-modal LLM for Secure Healthcare Data Management: A Diffusion-based Contract Theory Approach

摘要

本文由Cheng Su等人提出,针对快速发展的医疗领域中安全和有效的数据管理及共享问题,介绍了一种基于扩散理论的混合检索增强生成(RAG)多模态大型语言模型(MLLM)框架。该框架通过分层跨链架构确保医疗数据的安全训练,并利用多模态指标筛选和整合检索结果,以提高MLLM的输出质量。此外,文章还引入了信息年龄(AoI)来间接评估数据新鲜度,并运用合同理论激励医疗数据持有者分享新鲜数据,以缓解数据共享中的信息不对称问题。最终,通过基于生成扩散模型(GDM)的强化学习算法,确定最优合同以实现高效的数据共享。数值结果显示,所提出的方案在实现安全和高效的医疗数据管理方面表现出色。

Read more...

"创新混合模型提升PM2.5预测精度:城市空气管理的未来"

Optimizing PM2.5 Forecasting Accuracy with Hybrid Meta-Heuristic and Machine Learning Models

摘要

本文介绍了一种结合混合元启发式算法和机器学习模型的方法,用于优化PM2.5预测的准确性。研究聚焦于使用支持向量回归(SVR)模型,通过粒子群优化(PSO)和灰狼优化(GWO)算法来优化SVR的超参数“C”和“Gamma”,以提高预测精度。评估指标包括R-squared(R2)、均方根误差(RMSE)和平均绝对误差(MAE)。结果显示,PSO-SVR和GWO-SVR模型在预测PM2.5浓度方面表现出色,具有广泛的应用前景。

Read more...

"创新融合:说话者嵌入在端到端神经说话者细分中的应用与突破"

Leveraging Speaker Embeddings in End-to-End Neural Diarization for Two-Speaker Scenarios

摘要

本文探讨了在双说话者场景中,如何通过在端到端神经说话者细分系统中融入说话者信息嵌入来增强说话者区分能力,同时保持其处理语音重叠的优势。研究提出多种方法将这些嵌入与声学特征结合,并深入分析了沉默帧的正确处理、提取说话者嵌入的窗口长度以及变换器编码器大小等关键参数。实验在CallHome数据集上进行,结果显示相较于基准端到端模型,细分错误率显著降低,实现了10.78%的相对改进。

Read more...

"利用XAI增强二元分类:在稀缺数据中的突破与应用"

The Impact of an XAI-Augmented Approach on Binary Classification with Scarce Data

摘要

本文探讨了在数据稀缺情况下,使用可解释人工智能(XAI)增强方法进行二元分类的问题。在临床实践中,即时超声(POCUS)设备的普及为快速诊断提供了可能,但图像解读需要专业训练,这在紧急情况下可能不可行。因此,开发能够从有限数据中学习的机器学习分类器变得尤为重要。本文提出了一种新的方法,利用Gradient SHAP(一种可解释人工智能技术)来增强分类器的学习能力,从而在数据稀缺的情况下提高分类准确性。研究结果表明,该方法在多个医学数据集上显著减少了过拟合现象,提高了分类性能。

Read more...

"利用知识图谱适配器提升多语言LLMs在低资源语言中的性能"

Adapting Multilingual LLMs to Low-Resource Languages with Knowledge Graphs via Adapters

摘要

本文探讨了如何通过使用适配器(adapters)将来自语言本体的图知识整合到多语言大型语言模型(LLMs)中,以提高低资源语言(LRLs)在情感分析(SA)和命名实体识别(NER)任务中的性能。研究基于成功的参数高效微调技术,如K-ADAPTER和MAD-X,提出了一种类似的方法,将多语言图中的知识通过语言关系连接到多语言LLMs中,特别是针对八种低资源语言:马耳他语、保加利亚语、印度尼西亚语、尼泊尔语、爪哇语、维吾尔语、藏语和僧伽罗语。通过在从ConceptNet中提取的语言特定数据上微调语言特定适配器,旨在实现知识在覆盖知识图的语言之间的转移。研究比较了不同的微调目标,包括标准掩码语言建模(MLM)、全词掩码MLM和目标掩码MLM,以分析它们在学习和对提取的图数据进行整合的有效性。通过在语言特定任务上的实证评估,研究评估了结构化图知识如何影响多语言LLMs在LRLs中的SA和NER性能,提供了关于适应语言模型以应对低资源场景潜在好处的见解。

Read more...

"多模态大语言模型的上下文学习:原理、策略与应用前景"

From Introspection to Best Practices: Principled Analysis of Demonstrations in Multimodal In-Context Learning

摘要

本文探讨了多模态大语言模型(LLMs)在上下文学习(ICL)中的表现,特别是在提供图像-文本对作为演示时。研究通过系统评估不同规模模型的多模态ICL能力,揭示了模态在不同任务中的不同重要性,并提出了基于模态的演示选择策略以提升ICL性能。此外,研究还发现,通过文本相似性选择的演示有助于模型捕捉任务的归纳偏差,即使在未见过的或与预训练数据相矛盾的任务中也能有效提升性能。

Read more...

"强化学习驱动的志愿者边缘云工作流调度:优化资源分配的新前沿"

Reinforcement Learning-driven Data-intensive Workflow Scheduling for Volunteer Edge-Cloud

摘要

本文探讨了志愿者边缘云(VEC)环境中数据密集型科学工作流的调度问题。由于VEC资源的分布性和异构性,传统的集中式任务调度面临挑战。论文提出了一种基于强化学习(RL)的数据密集型科学工作流调度方法,该方法考虑了工作流需求、VEC资源对工作流的偏好以及多样化的VEC资源政策,以确保稳健的资源分配。通过将长期平均性能优化问题建模为马尔可夫决策过程(MDP),并采用基于事件的异步优势行动者-评论家(A3C)RL方法求解,论文展示了其在满足工作流需求、VEC偏好和资源利用方面的优势。

Read more...
Previous Page 101 of 156 Next Page