探索NLPGuard:一种减少NLP分类器偏见的新框架

NLPGuard: A Framework for Mitigating the Use of Protected Attributes by NLP Classifiers

摘要

本文介绍了一种名为NLPGuard的框架,旨在减少自然语言处理(NLP)分类器对受保护属性的依赖。随着深度学习在NLP模型中的广泛应用,这些模型往往作为黑箱系统运行,难以检测和纠正对敏感属性(如性别、种族或性取向)的误用。传统的偏见缓解方法主要关注在不同群体间实现性能平衡,但未能解决模型对受保护属性的依赖问题。NLPGuard框架通过处理未标记数据集、现有NLP分类器及其训练数据,生成一个修改后的训练数据集,显著减少了对受保护属性的依赖,同时不牺牲准确性。该框架在三个分类任务中进行了评估:识别有毒语言、情感分析和职业分类,结果显示NLPGuard有效地减少了模型对受保护属性的依赖,同时略微提高了准确性。

Read more...

探索ProductAgent:通过对话澄清实现精准电子商务产品搜索

ProductAgent: Benchmarking Conversational Product Search Agent with Asking Clarification Questions

摘要

本文介绍了一种在电子商务场景中的产品需求澄清任务,用户以模糊查询开始对话,而任务导向的代理通过提出澄清问题来实现更准确和定制化的产品搜索。为了解决这一任务,我们提出了ProductAgent,一个配备有策略性澄清问题生成和动态产品检索能力的对话信息寻求代理。具体来说,我们开发了代理,使其具备产品特征总结、查询生成和产品检索的策略。此外,我们提出了名为PROCRARE的基准,通过LLM驱动的用户模拟器自动和定性地评估代理的性能。实验表明,ProductAgent与用户积极互动,并随着对话轮次的增加,用户需求逐渐变得更加明确和详细,从而提高了检索性能。

Read more...

探索不确定性量化在语音情感识别中的应用与前景

Are you sure? Analysing Uncertainty Quantification Approaches for Real-world Speech Emotion Recognition

摘要

本文探讨了在现实世界语音情感识别(SER)应用中,不确定性量化(UQ)方法的重要性及其在处理模糊情感标签、分布外(OOD)数据和不良录音条件等挑战中的应用。论文通过评估多种UQ方法在模拟真实世界SER场景中的表现,展示了这些方法在提高预测可靠性方面的潜力。特别是,论文强调了在模型训练中引入OOD数据可以显著提升模型对异常信号的识别能力。

Read more...

探索人工智能中的类人对象概念表示:多模态大型语言模型的突破

Human-like object concept representations emerge naturally in multimodal large language models

摘要

本文探讨了多模态大型语言模型(LLMs)是否能通过大量语言和多模态数据的学习,自然地发展出类似于人类的对象概念表示。研究结合行为和神经影像分析方法,通过收集470万条LLM和多模态LLM(MLLM)的三元组判断数据,提取出能够捕捉1854个自然对象基础相似性结构的66维嵌入。这些嵌入显示出高度的稳定性和预测性,并表现出与人类心理表示相似的语义聚类。进一步分析表明,这些模型嵌入与人类大脑中许多功能定义的区域(如EBA、PPA、RSC和FFA)的神经活动模式有很强的对应关系,表明LLM和MLLM的对象表示虽然与人类不完全相同,但共享了反映人类概念知识关键模式的基本共性。这项研究深化了对机器智能的理解,并为开发更接近人类的人工认知系统提供了信息。

Read more...

探索人机情感交互:差异结果训练在社交辅助机器人中的应用与前景

Human-Robot Mutual Learning through Affective-Linguistic Interaction and Differential Outcomes Training [Pre-Print]

摘要

本文探讨了在人机交互中,通过情感语言交互和差异结果训练(Differential Outcomes Training, DOT)来促进人机间的相互学习。研究基于儿童与照顾者的互动模式,设计了一个模拟机器人尝试学习如何最佳地传达其内部需求,同时人类“照顾者”学习如何满足机器人的需求。研究结果显示,使用差异结果训练(DOT)相比非差异结果训练(Non-DOT)显著提高了人机间的学习效率和准确性。此外,机器人采用探索-利用策略选择相比纯利用策略选择进一步提升了学习效果。这些发现对于在治疗和教育领域中使用社交辅助机器人(SAR)具有重要意义。

Read more...

探索图卷积网络中的过平滑现象:理论与实践

Bridging Smoothness and Approximation: Theoretical Insights into Over-Smoothing in Graph Neural Networks

摘要

本文探讨了图卷积网络(GCNs)中的过平滑现象,通过建立一个理论框架来评估目标函数使用GCNs进行逼近的下界。文章首先介绍了图上的K-函数概念,并证明了其与平滑模数的等价性。随后,分析了GCNs中高频能量衰减的现象,这是过平滑的一个关键指标。此外,文章还建立了一个目标函数逼近的下界,该下界由函数的平滑模数决定,为理解GCNs的逼近能力提供了新的视角。通过数值实验,文章验证了理论结果,并观察到了能量衰减的现象,这些观察支持了理论上的指数衰减顺序。

Read more...

探索多模态开放集域泛化与适应:MOOSA方法的突破与应用

Towards Multimodal Open-Set Domain Generalization and Adaptation through Self-supervision

摘要

本文探讨了多模态开放集域泛化和适应问题,这是一个在未见过的域中识别新类别的挑战性任务,特别是在输入为多种模态的情况下。现有研究主要集中在单模态开放集域泛化上,而本文首次引入了一种新颖的方法来解决多模态开放集域泛化(MMOSDG)问题,利用自监督学习。文章提出了两种创新的多模态自监督前置任务:掩蔽跨模态转换和多模态拼图游戏,这些任务有助于学习多模态代表性特征,从而增强泛化和开放类别检测能力。此外,文章还提出了一种新的熵加权机制来平衡不同模态之间的损失。通过在EPIC-Kitchens和HAC数据集上的广泛实验,证明了所提方法的有效性和多功能性。

Read more...

探索多语言环境下的增强检索生成技术:构建高效的多语言RAG管道

Retrieval-augmented generation in multilingual settings

摘要

本文探讨了在多语言环境下增强检索生成(Retrieval-augmented Generation, RAG)的实现和评估。传统的RAG主要集中在英语环境中,而本文扩展了这一概念,考虑了用户查询和数据存储在13种不同语言中的情况。文章详细介绍了构建一个高效的多语言RAG(mRAG)管道所需的组件和调整,并强调了任务特定的提示工程在生成用户语言响应中的重要性。此外,文章还指出了当前评估指标在多语言设置中需要进行的调整,以适应命名实体拼写的变体。主要挑战包括非拉丁字母语言中的频繁代码切换、偶尔的流畅性错误、文档的错误解读或无关检索。文章最后发布了相应的代码库,以支持未来在零样本设置中对多语言RAG的研究。

Read more...

探索大型语言模型性能预测的新框架:协同性能预测(CPP)

Collaborative Performance Prediction for Large Language Models

摘要

本文介绍了一种名为“协同性能预测”(Collaborative Performance Prediction, CPP)的新框架,旨在全面理解和准确预测大型语言模型(LLMs)在多样化下游任务中的表现。传统的缩放法则(scaling laws)主要依赖于模型家族内部的相似性进行性能预测,而忽略了不同模型家族之间的相似性。CPP框架通过利用多种模型的历史性能数据和其他设计因素,显著提高了预测的准确性。此外,CPP框架还能够进行因素重要性的详细分析,这是传统缩放法则所忽视的。本文的研究成果为LLMs的性能预测提供了新的视角和方法,具有重要的理论和实践意义。

Read more...
Previous Page 107 of 156 Next Page