GenTrap:一种基于GNN和Transformer的5G无线链路故障预测框架

A Generalized Transformer-based Radio Link Failure Prediction Framework in 5G RANs

摘要

本文提出了一种名为GenTrap的新型无线链路故障预测框架,该框架针对5G无线接入网络(RAN)中的无线链路故障(RLF)预测系统。GenTrap框架通过引入图神经网络(GNN)基于的可学习天气效应聚合模块和最先进的时间序列转换器,有效地学习了RAN及其周围天气站的时空上下文。该框架能够集成到任何现有的预测模型中,以实现更好的性能和泛化能力。通过在两个真实世界数据集(农村和城市)上进行评估,GenTrap在F1分数上显著优于其他模型,显示出其在5G网络中确保无缝通信和满足高数据速率、低延迟和改进可靠性要求的潜力。

Read more...

Lucy框架:解决大型数据库复杂关系的文本到SQL转换新方案

Lucy: Think and Reason to Solve Text-to-SQL

摘要

本文介绍了一种名为Lucy的新型文本到SQL框架,旨在解决大型企业数据库中复杂关系的问题。Lucy结合了大型语言模型(LLM)的理解能力和自动化推理技术,以处理数据库中的复杂约束。该框架在零样本文本到SQL的复杂基准测试中表现优于现有技术。论文详细分析了LLM在处理大型工业数据库时面临的挑战,并提出了有效的解决方案,展示了Lucy在多个标准基准测试中的显著性能提升。

Read more...

NADI 2024:阿拉伯语方言识别与处理的新挑战与机遇

NADI 2024: The Fifth Nuanced Arabic Dialect Identification Shared Task

摘要

本文介绍了第五届 Nuanced Arabic Dialect Identification Shared Task(NADI 2024)的研究成果。NADI 的目标是通过提供指导、数据集、建模机会和标准化评估条件,帮助推进阿拉伯语 NLP 的发展,使研究人员能够在预先指定的任务上进行协作竞争。NADI 2024 针对方言识别(作为多标签任务)、阿拉伯语方言程度识别(子任务 2)和方言到 MSA 的机器翻译(子任务 3)。共有 51 个独特的团队注册参加共享任务,其中 12 个团队参与(在测试阶段有 76 个有效提交)。其中,三个团队参加了子任务 1,三个团队参加了子任务 2,八个团队参加了子任务 3。获奖团队在子任务 1 上分别实现了 50.57 F1、0.1403 RMSE 和 20.44 BLEU。结果表明,阿拉伯语方言处理任务,如方言识别和机器翻译仍然具有挑战性。我们描述了参与团队所采用的方法,并简要展望了 NADI 的未来。

Read more...

ZOBNN:零开销提升二值神经网络的可靠性,赋能安全关键应用

ZOBNN: Zero-Overhead Dependable Design of Binary Neural Networks with Deliberately Quantized Parameters

摘要

本文介绍了一种名为ZOBNN(Zero-Overhead Dependable Design of Binary Neural Networks with Deliberately Quantized Parameters)的创新技术,旨在提高二值神经网络(BNNs)的可靠性和故障容忍度。通过精心设计的量化方法,ZOBNN在不增加任何计算开销的情况下,显著提升了BNNs对内存故障的鲁棒性。该技术通过限制浮点参数的范围,减少了内存故障对网络输出的影响,从而在保持高精度的同时,实现了对安全关键应用的支持。

Read more...

创新地标定位技术:基于最优传输损失的热图回归在医学图像分析中的应用

Aortic root landmark localization with optimal transport loss for heatmap regression

摘要

本文提出了一种基于最优传输损失的热图回归方法,用于主动脉根部地标定位,旨在减轻医生在经导管主动脉瓣植入手术中的负担。传统的地标预测方法主要采用耗时的两步估计方法,而本文提出的方法能够在粗略图像中实现高精度的单步地标定位。该方法通过应用最优传输损失来打破传统热图回归方法中预测精度和学习稳定性之间的权衡。实验结果表明,该方法在3D CT图像数据集上的估计误差显著优于现有方法和其他损失函数。

Read more...

利用大型语言模型自动化生成高性能计算软件的单元测试

Harnessing the Power of LLMs: Automating Unit Test Generation for High-Performance Computing

摘要

本文探讨了利用大型语言模型(LLMs)自动生成高性能计算(HPC)软件的单元测试的潜力。针对并行和高性能计算软件的单元测试实施面临的挑战,如复杂逻辑和并行处理技术的特殊性,本文评估了Davinci和ChatGPT两种生成模型在C++并行程序单元测试生成中的应用。研究发现,LLMs能够生成大部分语法正确且覆盖率高的单元测试,但也存在重复断言和空白测试用例等局限性。

Read more...

探索 MMSci:提升科学理解的多模态数据集

MMSci: A Multimodal Multi-Discipline Dataset for PhD-Level Scientific Comprehension

摘要

本文介绍了一个名为 MMSci 的多模态、多学科数据集,旨在评估大型语言模型(LLM)和大型多模态模型(LMM)对博士水平科学内容的理解能力。该数据集包含来自 72 个科学学科的高质量、同行评审的学术文章和图表,可用于评估模型对科学文章和图表的理解能力。此外,作者还探索了将该数据集作为训练资源的方法,通过构建视觉指令跟随数据和交错的文章文本和图表图像,提高了模型对科学内容的理解能力。

Read more...

探索RAG增强型LLM在软件集成中的挑战与前景

Vortex under Ripplet: An Empirical Study of RAG-enabled Applications

摘要

本文通过深入研究100个开源应用程序及其问题报告,揭示了在将增强检索生成(RAG)的大型语言模型(LLM)集成到软件系统中时,开发者面临的挑战。研究发现,超过98%的应用程序存在多种集成缺陷,这些缺陷影响了软件的功能性、效率和安全性。文章总结了19种缺陷模式,并提出了相应的解决指南,旨在辅助LLM驱动的软件开发,并激发未来的研究。

Read more...

探索RTM模型在推文情感分析与属性判别中的先进应用

Identifying Intensity of the Structure and Content in Tweets and the Discriminative Power of Attributes in Context with Referential Translation Machines

摘要

本文介绍了一种使用参考翻译机(RTM)来识别推文结构和内容强度以及属性在上下文中的判别力的方法。通过将任务转化为机器翻译性能预测(MTPP),RTM模型能够预测英语、阿拉伯语和西班牙语推文中的情感强度,并评估属性在区分两个词时的有效性。该研究在SemEval-2018的两个预测任务中展示了RTM模型的应用,取得了令人鼓舞的结果。

Read more...

探索具身任务规划:MFE-ETP基准引领多模态基础模型的新前沿

MFE-ETP: A Comprehensive Evaluation Benchmark for Multi-modal Foundation Models on Embodied Task Planning

摘要

本文介绍了一种名为MFE-ETP的综合评估基准,用于评估多模态基础模型(MFMs)在具身任务规划中的性能。该基准旨在深入探讨MFMs在此领域的能力和局限性,通过构建一个包含对象理解、时空感知、任务理解和具身推理四个关键能力的系统评估框架。MFE-ETP基准以其复杂的任务场景、典型的任务类型、不同难度的任务实例和丰富的测试案例类型为特点,涵盖从多模态问题回答到具身任务推理的广泛范围。此外,本文还提供了一个简单易用的自动评估平台,用于在提出的基准上对多个MFMs进行自动化测试。通过使用该基准和评估平台,研究者评估了几个最先进的MFMs,并发现它们在性能上显著落后于人类水平。MFE-ETP是一个高质量、大规模且具有挑战性的基准,与现实世界任务相关。

Read more...
Previous Page 62 of 156 Next Page