探索量子神经网络的表达能力和归纳偏差

Exploiting the equivalence between quantum neural networks and perceptrons

摘要

这篇论文探讨了量子神经网络(QNNs)的表达能力和归纳偏差。通过将 QNNs 映射到经典感知机,研究了它们在布尔函数上的局限性和障碍。论文还提出了两种方法来克服这些限制,即使用 QNN 生成经典 DNN 启发的内核,以及构建具有更丰富归纳偏差的分层非线性 QNN。最后,论文讨论了 QNN 文献中可能模糊其在经典数据上实现量子优势难度的特征。

Read more...

探索青光眼诊断新前沿:Graph-Guided Test-Time Adaptation框架的突破与应用

Graph-Guided Test-Time Adaptation for Glaucoma Diagnosis using Fundus Photography

摘要

本文介绍了一种名为Graph-Guided Test-Time Adaptation (GTTA)的创新框架,用于通过眼底摄影图像进行青光眼的自动诊断。青光眼是全球导致不可逆失明的主要原因之一,而深度学习技术在眼底图像上的应用已显著提高了早期诊断的准确性。然而,不同设备和地点获取的图像(即域偏移)对预训练模型在实际应用中的泛化能力提出了挑战。GTTA框架通过整合眼底图像的拓扑信息到模型训练中,增强了模型的可迁移性,并减少了学习虚假相关性的风险。在推理阶段,GTTA引入了一种新颖的测试时间训练目标,使源训练的分类器逐步适应目标模式,同时进行可靠的类条件估计和一致性正则化。实验结果表明,GTTA在跨域青光眼诊断基准测试中表现优异,显示出其先进性和潜在的临床应用价值。

Read more...

探索音乐创作新境界:MuseBarControl引领细粒度音乐生成革命

MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss

摘要

本文介绍了一种名为MuseBarControl的创新方法,旨在通过预训练和反事实损失增强符号音乐生成中的细粒度控制。该方法解决了现有音乐生成模型在控制音乐细节(如单个乐段的节奏和风格)方面的不足。通过引入预训练任务和反事实损失,MuseBarControl显著提高了音乐生成模型在乐段级别控制的精确度,同时保持了音乐质量。该研究不仅为音乐家和爱好者提供了更灵活的创作工具,也为自动音乐作曲领域开辟了新的应用前景。

Read more...

探索鲁棒Q-学习算法:解决模型不确定性的新途径

Robust Q-Learning for finite ambiguity sets

摘要

本文提出了一种新颖的Q-学习算法,用于解决具有有限模糊集的分布式鲁棒马尔可夫决策问题。该算法允许任意选择概率测度的模糊集,只要模糊集包含有限数量的测度。与传统的基于Wasserstein距离或Kullback-Leibler散度的模糊集不同,本文的方法允许申请者创建更符合其需求的模糊集,并通过Q-学习算法解决相关的鲁棒马尔可夫决策问题。此外,通过多个数值实验展示了该方法的可行性。

Read more...

提升抽取式摘要连贯性:新数据集与LLMs微调方法

Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs

摘要

本文介绍了一种旨在提高抽取式摘要连贯性的新方法,通过创建一个人工标注的数据集,结合自然语言用户反馈,对大型语言模型(LLMs)进行监督微调,以增强其生成的摘要的连贯性。初步实验表明,这种方法在生成连贯摘要方面取得了显著的性能提升(约10%的Rouge-L分数),并且通过用户反馈对指令调优模型进行基准测试,得出了一些有趣的发现。

Read more...

揭秘代码语言模型的黑箱:前馈层的深度探索与应用前景

Looking into Black Box Code Language Models

摘要

本文探讨了代码语言模型(code LMs)的内部工作机制,特别是其前馈层(feed-forward layers)的角色和影响。通过分析两个先进的代码语言模型Codegen-Mono和Polycoder,以及三种广泛使用的编程语言Java、Go和Python,研究发现较低层主要捕获语法模式,而较高层则编码抽象概念和语义。此外,本文展示了在前馈层中编辑特定概念的可行性,且不会显著影响模型的整体性能。这些发现有助于更好地理解、调试和测试代码语言模型。

Read more...

揭秘硬件木马:一种可解释的人工智能架构及其应用前景

An AI Architecture with the Capability to Classify and Explain Hardware Trojans

摘要

本文介绍了一种能够分类并解释硬件木马的人工智能架构。硬件木马是在集成电路(IC)设计阶段被植入的恶意电路,一旦制造完成,这些木马无法被移除或通过软件补丁轻易绕过。本文提出的解决方案基于现有的硬件木马检测特征,引入了一种可解释的方法和架构,通过使用机器学习(ML)技术,特别是在数字硬件木马检测中使用信任中心木马基准测试,实现了对硬件木马的分类和解释。该研究的前景在于提高硬件木马检测的透明度和可信度,从而增强信息安全。

Read more...

揭秘联邦学习中的非合作性后门攻击:新威胁与防御策略

Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape

摘要

本文探讨了联邦学习(FL)中的非合作性后门攻击(NBA),这是一种新型的安全威胁。在这种攻击中,独立的恶意客户端引入特定的触发器和目标类别,利用FL的去中心化特性,使得检测变得困难。实验表明,FL系统对这种攻击非常脆弱,单个后门可以在不影响主要任务的情况下成功学习。研究强调了在不断发展的FL环境中,需要强大的防御机制来对抗多样化的后门攻击。虽然本文主要关注实证分析,但我们相信这可以指导后门研究向更现实的设置发展,并强调FL在构建对抗多样化后门威胁的强大防御中的关键作用。

Read more...

深度强化学习模型的量化与剪枝:资源受限环境中的性能优化

The Impact of Quantization and Pruning on Deep Reinforcement Learning Models

摘要

本文探讨了深度强化学习(DRL)模型在资源受限环境中的部署问题,特别是通过量化和剪枝这两种神经网络压缩方法来优化DRL模型的性能。研究团队评估了这些技术对DRL模型在平均回报、内存使用、推理时间和能源消耗等方面的影响。研究发现,尽管这些压缩技术减少了模型的大小,但并未显著提高DRL模型的能源效率。文章提供了关于模型压缩与DRL性能之间权衡的深入见解,为在资源受限环境中部署高效的DRL模型提供了指导。

Read more...
Previous Page 70 of 156 Next Page