探索不确定性量化在语音情感识别中的应用与前景

Are you sure? Analysing Uncertainty Quantification Approaches for Real-world Speech Emotion Recognition

摘要

本文探讨了在现实世界语音情感识别(SER)应用中,不确定性量化(UQ)方法的重要性及其在处理模糊情感标签、分布外(OOD)数据和不良录音条件等挑战中的应用。论文通过评估多种UQ方法在模拟真实世界SER场景中的表现,展示了这些方法在提高预测可靠性方面的潜力。特别是,论文强调了在模型训练中引入OOD数据可以显著提升模型对异常信号的识别能力。

Read more...

探索人工智能中的类人对象概念表示:多模态大型语言模型的突破

Human-like object concept representations emerge naturally in multimodal large language models

摘要

本文探讨了多模态大型语言模型(LLMs)是否能通过大量语言和多模态数据的学习,自然地发展出类似于人类的对象概念表示。研究结合行为和神经影像分析方法,通过收集470万条LLM和多模态LLM(MLLM)的三元组判断数据,提取出能够捕捉1854个自然对象基础相似性结构的66维嵌入。这些嵌入显示出高度的稳定性和预测性,并表现出与人类心理表示相似的语义聚类。进一步分析表明,这些模型嵌入与人类大脑中许多功能定义的区域(如EBA、PPA、RSC和FFA)的神经活动模式有很强的对应关系,表明LLM和MLLM的对象表示虽然与人类不完全相同,但共享了反映人类概念知识关键模式的基本共性。这项研究深化了对机器智能的理解,并为开发更接近人类的人工认知系统提供了信息。

Read more...

探索人机情感交互:差异结果训练在社交辅助机器人中的应用与前景

Human-Robot Mutual Learning through Affective-Linguistic Interaction and Differential Outcomes Training [Pre-Print]

摘要

本文探讨了在人机交互中,通过情感语言交互和差异结果训练(Differential Outcomes Training, DOT)来促进人机间的相互学习。研究基于儿童与照顾者的互动模式,设计了一个模拟机器人尝试学习如何最佳地传达其内部需求,同时人类“照顾者”学习如何满足机器人的需求。研究结果显示,使用差异结果训练(DOT)相比非差异结果训练(Non-DOT)显著提高了人机间的学习效率和准确性。此外,机器人采用探索-利用策略选择相比纯利用策略选择进一步提升了学习效果。这些发现对于在治疗和教育领域中使用社交辅助机器人(SAR)具有重要意义。

Read more...

探索图卷积网络中的过平滑现象:理论与实践

Bridging Smoothness and Approximation: Theoretical Insights into Over-Smoothing in Graph Neural Networks

摘要

本文探讨了图卷积网络(GCNs)中的过平滑现象,通过建立一个理论框架来评估目标函数使用GCNs进行逼近的下界。文章首先介绍了图上的K-函数概念,并证明了其与平滑模数的等价性。随后,分析了GCNs中高频能量衰减的现象,这是过平滑的一个关键指标。此外,文章还建立了一个目标函数逼近的下界,该下界由函数的平滑模数决定,为理解GCNs的逼近能力提供了新的视角。通过数值实验,文章验证了理论结果,并观察到了能量衰减的现象,这些观察支持了理论上的指数衰减顺序。

Read more...

探索多模态开放集域泛化与适应:MOOSA方法的突破与应用

Towards Multimodal Open-Set Domain Generalization and Adaptation through Self-supervision

摘要

本文探讨了多模态开放集域泛化和适应问题,这是一个在未见过的域中识别新类别的挑战性任务,特别是在输入为多种模态的情况下。现有研究主要集中在单模态开放集域泛化上,而本文首次引入了一种新颖的方法来解决多模态开放集域泛化(MMOSDG)问题,利用自监督学习。文章提出了两种创新的多模态自监督前置任务:掩蔽跨模态转换和多模态拼图游戏,这些任务有助于学习多模态代表性特征,从而增强泛化和开放类别检测能力。此外,文章还提出了一种新的熵加权机制来平衡不同模态之间的损失。通过在EPIC-Kitchens和HAC数据集上的广泛实验,证明了所提方法的有效性和多功能性。

Read more...

探索多语言环境下的增强检索生成技术:构建高效的多语言RAG管道

Retrieval-augmented generation in multilingual settings

摘要

本文探讨了在多语言环境下增强检索生成(Retrieval-augmented Generation, RAG)的实现和评估。传统的RAG主要集中在英语环境中,而本文扩展了这一概念,考虑了用户查询和数据存储在13种不同语言中的情况。文章详细介绍了构建一个高效的多语言RAG(mRAG)管道所需的组件和调整,并强调了任务特定的提示工程在生成用户语言响应中的重要性。此外,文章还指出了当前评估指标在多语言设置中需要进行的调整,以适应命名实体拼写的变体。主要挑战包括非拉丁字母语言中的频繁代码切换、偶尔的流畅性错误、文档的错误解读或无关检索。文章最后发布了相应的代码库,以支持未来在零样本设置中对多语言RAG的研究。

Read more...

探索大型语言模型性能预测的新框架:协同性能预测(CPP)

Collaborative Performance Prediction for Large Language Models

摘要

本文介绍了一种名为“协同性能预测”(Collaborative Performance Prediction, CPP)的新框架,旨在全面理解和准确预测大型语言模型(LLMs)在多样化下游任务中的表现。传统的缩放法则(scaling laws)主要依赖于模型家族内部的相似性进行性能预测,而忽略了不同模型家族之间的相似性。CPP框架通过利用多种模型的历史性能数据和其他设计因素,显著提高了预测的准确性。此外,CPP框架还能够进行因素重要性的详细分析,这是传统缩放法则所忽视的。本文的研究成果为LLMs的性能预测提供了新的视角和方法,具有重要的理论和实践意义。

Read more...

探索大型语言模型的数学推理能力:MathCAMPS框架的先进性与应用前景

MathCAMPS: Fine-grained Synthesis of Mathematical Problems From Human Curricula

摘要

本文介绍了一种名为MathCAMPS的新型数学问题合成框架,该框架旨在从人类课程中细粒度地合成高质量的数学问题。MathCAMPS基于K-8年级的数学共同核心(CC)标准,通过形式化语法生成多样化的符号问题及其答案,并利用大型语言模型(LLMs)将这些符号问题转化为自然语言问题。此外,论文提出了一种循环一致性方法来验证问题的忠实度,并引入了数学对话任务,通过后续问题深入探测模型的理解能力。实验结果显示,即使在最强大的模型中,也存在令人惊讶的失败案例,尤其是在回答简单的后续问题时。此外,论文还评估了Pythia 12B在MathCAMPS上的训练检查点,分析了特定数学技能在训练过程中的发展情况。MathCAMPS框架的提出,为社区提供了一个低成本的工具,用于生成和扩展高质量的数据集,进一步推动了LLMs在数学推理能力上的研究和应用。

Read more...

探索大型语言模型的模糊推理能力:FROG基准测试的挑战与前景

FRoG: Evaluating Fuzzy Reasoning of Generalized Quantifiers in Large Language Models

摘要

本文介绍了一种新的基准测试FROG,用于评估大型语言模型(LLMs)在模糊推理方面的能力。FROG包含真实世界的数学应用题,这些题目引入了广义量词(GQs),如“大多数”或“少数”,这些量词在日常语言中经常用于引入模糊性。实验结果显示,当前的LLMs在处理模糊推理任务时仍面临重大挑战,并且现有的增强推理能力的方法并不总是能提高这些模型在模糊逻辑任务中的表现。此外,研究还发现LLMs在FROG上的表现存在逆规模效应,即模型规模越大,表现并不一定越好。

Read more...
Previous Page 107 of 156 Next Page