探索HYBRINFOX:结合BERT与专家系统VAGO的主观性检测新方法

HYBRINFOX at CheckThat! 2024 – Task 2: Enriching BERT Models with the Expert System VAGO for Subjectivity Detection

摘要

本文介绍了HYBRINFOX团队在CLEF 2024 CheckThat!竞赛中解决任务2的方法,即主观性检测。该方法的独特之处在于使用了一个混合系统,结合了经过微调用于主观性检测的RoBERTa模型、用于捕捉语义的冻结句子BERT(sBERT)模型,以及由专家系统VAGO计算的多个分数,该系统独立开发,用于基于词汇测量文本中的模糊性和主观性。在英语评估数据上,HYBRINFOX方法以0.7442的宏观F1分数排名第一。对于其他语言,该方法通过翻译成英语的步骤,产生了更多混合的结果。本文解释了混合方法的原理,并概述了如何改进该方法以适用于英语以外的其他语言。

Read more...

探索LCG方法在大规模语言模型中的应用:生成临床相关的高质量内容

Integrating Randomness in Large Language Models: A Linear Congruential Generator Approach for Generating Clinically Relevant Content

摘要

本研究探讨了如何通过线性同余生成器(LCG)方法在大规模语言模型(LLMs)中引入随机性,以生成与临床相关的高质量内容,特别是在医学教育中的多项选择题(MCQs)。研究通过LCG方法确保了在多个生成轮次中,胃肠道生理和病理事实的独特组合,并将其整合到GPT-4o模型的提示中,以创建临床相关的案例式输出。在14轮生成中,共产生了98个独特的输出,展示了LCG方法在生成多样化和高质量内容方面的有效性。这种方法解决了随机性和重复性的关键问题,提高了LLM生成内容的质���和效率,适用于多种应用场景。

Read more...

探索MiniGPT-Med:革命性的医学视觉语言模型,引领放射学诊断新纪元

MiniGPT-Med: Large Language Model as a General Interface for Radiology Diagnosis

摘要

本文介绍了一种名为MiniGPT-Med的创新型视觉语言模型,该模型源自大规模语言模型并专门为医学应用定制。MiniGPT-Med在多种成像模式(如X射线、CT扫描和MRI)中展现出卓越的多功能性,能够执行医学报告生成、视觉问题回答(VQA)和疾病识别等任务。其对图像和文本临床数据的集成处理显著提高了诊断准确性。实证评估证实,MiniGPT-Med在疾病定位、医学报告生成和VQA基准测试中表现卓越,标志着在辅助放射学实践中缩小差距的重要一步。此外,该模型在医学报告生成方面达到了最先进的性能,准确性超过之前最佳模型19%。MiniGPT-Med有望成为放射学诊断的通用接口,提升广泛医学成像应用的诊断效率。

Read more...

探索MobileExperts:引领移动设备操作代理的新纪元

MobileExperts: A Dynamic Tool-Enabled Agent Team in Mobile Devices

摘要

本文介绍了一种名为MobileExperts的创新型多模态多智能体框架,专为安卓移动设备设计,旨在提高设备操作代理(DOA)的智能水平并降低推理成本和时间。MobileExperts通过动态组建专家团队和多智能体协作,有效解决了处理复杂任务和减少高推理成本的问题。该框架引入了工具制定和双层规划机制,通过实验验证了其在不同智能级别任务上的优越性能,实现了约22%的推理成本降低。

Read more...

探索MULTI-CONVFORMER:革新自动语音识别的新前沿

Multi-Convformer: Extending Conformer with Multiple Convolution Kernels

摘要

本文介绍了一种名为MULTI-CONVFORMER的新型自动语音识别(ASR)系统,该系统通过在Conformer架构中引入多个卷积核来增强对局部上下文的建模能力。Conformer是一种结合了多头部注意力和卷积的先进ASR模型,但传统上使用固定内核的卷积模块限制了其性能。MULTI-CONVFORMER通过使用多个卷积核并结合门控机制,有效地改善了局部依赖性的建模,实现了与现有Conformer变体(如CgMLP和E-Branchformer)相媲美甚至更好的性能,同时参数效率更高。实验结果显示,在多个数据集和不同建模范式下,MULTI-CONVFORMER能够实现高达8%的相对词错误率(WER)改进。

Read more...

探索STOC-TOT:一种革命性的多跳问答框架,提升大型语言模型的推理能力

STOC-TOT: Stochastic Tree-of-Thought with Constrained Decoding for Complex Reasoning in Multi-Hop Question Answering

摘要

本文介绍了一种名为STOC-TOT的新型多跳问答(MHQA)框架,该框架通过随机树状思维推理和约束解码技术,旨在提高大型语言模型在复杂推理场景下的性能。STOC-TOT通过将原始问题分解为多个子问题,形成不同的推理路径,并在每个推理步骤中为每条路径分配概率估计,从而构建一个树状推理结构。此外,该框架在回答阶段采用约束解码,确保模型生成基于证据的、准确的答案,减少幻觉现象。实验结果显示,STOC-TOT在多个MHQA数据集和大型语言模型上显著优于其他推理提示方法。

Read more...

探索人工智能的认知本质:神经网络的数学思维与抽象过程

Psychology of Artificial Intelligence: Epistemological Markers of the Cognitive Analysis of Neural Networks

摘要

本文由Michael Pichat撰写,探讨了人工神经网络的认知过程和内容的本质,即人工智能如何“思考”以及其知识的存在形式。文章深入分析了神经网络的基本认知构建块,以及这些构建块如何通过数学处理在神经层中进行认知活动。此外,文章还讨论了连续神经层的认知功能,强调了神经网络通过一系列概念抽象步骤,逐步实现对信息的优化分析。

Read more...

探索代码LLMs的语义理解能力:EMPICA框架的实证研究

An Empirical Study on Capability of Large Language Models in Understanding Code Semantics

摘要

本文介绍了一项关于大型语言模型(LLMs)在理解代码语义能力方面的实证研究。研究团队开发了一个名为EMPICA的综合框架,用于系统性地评估代码LLMs在理解代码语义方面的能力。该框架通过引入受控的代码修改和变换,观察模型的响应,以评估模型对语义等价和非等价代码输入的鲁棒性和敏感性。实验结果表明,尽管代码LLMs在各种软件工程任务中表现出色,但它们对代码变换的鲁棒性和敏感性在不同任务和变换操作中存在显著差异。此外,模型在语义保留变换方面表现出更好的鲁棒性,而在语义非保留变换方面则表现出较低的敏感性。这些发现强调了增强模型理解代码语义能力,特别是提高其敏感性的必要性。

Read more...

探索变分自编码器在交叉子群体中的对抗鲁棒性:挑战与前景

Adversarial Robustness of VAEs across Intersectional Subgroups

摘要

本文由Chethan Krishnamurthy Ramanaik、Arjun Roy和Eirini Ntoutsi共同撰写,探讨了变分自编码器(VAEs)在交叉子群体中的对抗鲁棒性问题。尽管VAEs在维度降低、表示学习和数据生成等任务中取得了显著进展,但它们仍然容易受到对抗攻击的影响。研究特别关注了非目标对抗攻击,通过优化样本特定的最小扰动来评估VAEs在不同人口子群体(如年龄和性别的组合)中的鲁棒性。研究发现,尽管某些子群体的鲁棒性存在差异,但这些差异并不总是与子群体的大小直接相关。此外,研究还探讨了数据稀缺性和表示纠缠等因素对这些差异的影响。

Read more...

探索声学BPE在解码器-仅TTS模型中的有效性:提升语音合成的新途径

On the Effectiveness of Acoustic BPE in Decoder-Only TTS

摘要

本文探讨了在仅解码器的文本到语音(TTS)模型中使用声学字节对编码(BPE)的有效性。声学BPE通过将语音离散化为标记并进一步压缩标记序列,提高了合成语音的可理解性和多样性。研究在LibriTTS数据集上进行,结果表明声学BPE能够显著提升TTS模型的性能,包括提高语音质量和加速训练及推理过程。

Read more...
Previous Page 75 of 156 Next Page