探索大型语言模型的鲁棒性:推理阶段的奥秘

The Remarkable Robustness of LLMs: Stages of Inference?

摘要

本文探讨了大型语言模型(LLMs)在推理过程中的显著鲁棒性,通过删除和交换相邻层来验证其对模型预测准确性的影响。研究发现,即使在未经微调的情况下,这些干预措施仍能保留原始模型72-95%的预测准确性,且层数越多的模型表现出更高的鲁棒性。基于这些结果,作者提出了四个普遍的推理阶段:去标记化、特征工程、预测集成和残差锐化。这些阶段描述了模型如何从原始标记表示逐步转化为更高层次的上下文表示,最终形成具体的下一个标记预测。

Read more...

探索心脏MRI的未来:CMRxRecon2024数据集引领多模态成像技术新纪元

CMRxRecon2024: A Multi-Modality, Multi-View K-Space Dataset Boosting Universal Machine Learning for Accelerated Cardiac MRI

摘要

本文介绍的CMRxRecon2024数据集是一个多模态、多视角的心脏磁共振成像(MRI)k空间数据集,旨在推动加速心脏MRI的通用机器学习技术的发展。该数据集是目前公开的最大且最多样化的心脏k空间数据集,包含330名健康志愿者的数据,覆盖了临床心脏MRI工作流程中常用的多种模态、解剖视图和采集轨迹。通过提供一个开放平台,包括教程、基准和数据处理工具,该数据集旨在促进心脏MRI重建方法的技术开发、公平评估和临床转化。

Read more...

探索抽象推理的新前沿:ARLC模型的创新与应用

Towards Learning Abductive Reasoning using VSA Distributed Representations

摘要

本文介绍了一种名为Abductive Rule Learner with Context-awareness (ARLC)的模型,该模型基于Learn-VRF,专门用于解决基于抽象推理的任务,特别是在Raven’s progressive matrices (RPM)测试中的应用。ARLC通过引入一种新颖且更广泛适用的训练目标,显著提高了抽象推理任务的可解释性和准确性。该模型不仅能够编程领域知识,还能学习数据分布背后的规则。在I-RAVEN数据集上的评估显示,ARLC在分布内和分布外(未见过的属性-规则对)测试中均达到了最先进的准确率,超越了包括大型语言模型在内的神经符号和连接主义基线,尽管其参数数量远少于这些基线。此外,ARLC在编程后训练中表现出鲁棒性,能够从示例中逐步学习,而不会导致编程解决方案的灾难性遗忘。本文还验证了ARLC从2x2 RPM星座无缝转移到未见过的星座的能力。

Read more...

探索无分词器的大型语言模型:T-FREE的突破与应用前景

T-FREE: Tokenizer-Free Generative LLMs via Sparse Representations for Memory-Efficient Embeddings

摘要

本文介绍了一种名为T-FREE的新型无分词器(Tokenizer-Free)生成式大型语言模型(LLMs),通过稀疏表示实现内存高效的嵌入。T-FREE通过直接嵌入单词的稀疏激活模式,利用字符三元组(character triplets),无需参考语料库,从而解决了传统分词器在计算开销、词汇利用效率和嵌入层大小方面的局限性。实验表明,T-FREE在下游性能上具有竞争力,且在跨语言迁移学习中表现显著提升。

Read more...

探索未来:BiCo-Fusion——引领3D物体检测的新潮流

BiCo-Fusion: Bidirectional Complementary LiDAR-Camera Fusion for Semantic- and Spatial-Aware 3D Object Detection

摘要

本文介绍了一种名为BiCo-Fusion的新型双向互补LiDAR-相机融合框架,用于实现语义和空间感知的3D物体检测。该框架通过融合多模态特征,增强LiDAR特征的语义和相机特征的空间感知能力,并自适应地从两种模态中选择特征,构建统一的3D表示。BiCo-Fusion包括预融合(Pre-Fusion)和统一融合(Unified Fusion)两个阶段,通过实验证明了其在nuScenes基准测试中的优越性能。

Read more...

探索深度学习在预测荷兰社区抑郁与焦虑风险中的应用

Predicting Depression and Anxiety Risk in Dutch Neighborhoods from Street-View Images

摘要

本文探讨了利用荷兰街景图像(SVI)预测社区抑郁和焦虑风险的可能性。研究通过分析9,879张荷兰街景图像,结合荷兰健康监测数据,使用深度学习模型DeiT Base和ResNet50进行风险等级预测。研究结果显示,这两种模型在预测抑郁和焦虑风险方面取得了43.43%和43.63%的准确率,调整后的准确率分别为83.55%和80.38%。此外,研究还采用了SHapley Additive exPlanations(SHAP)方法和梯度展开技术来解释模型的预测决策,揭示了特定景观特征与抑郁风险类别之间的潜在关联。研究建议未来可通过这些方法监测社区抑郁和焦虑风险随时间的变化,为公共卫生策略提供支持。

Read more...

探索生命起源:自复制程序在计算基质中的自发涌现

Computational Life: How Well-formed, Self-replicating Programs Emerge from Simple Interaction

摘要

本文探讨了生命起源和人工生命领域中的一个核心问题:自复制程序如何从简单的交互中自发涌现。通过研究基于多种简单编程语言和机器指令集的计算基质,本文展示了在没有显式适应度景观的环境中,随机非自复制程序如何倾向于产生自复制程序。文章详细说明了这一过程如何通过随机交互和自我修改发生,无论是否存在背景随机突变,并展示了自复制程序出现后如何继续涌现出更复杂的动态。此外,文章还提供了一个极简编程语言的反例,其中自复制程序虽然可能存在,但迄今为止尚未观察到其自发涌现。

Read more...

探索生成模型中的隐藏能力:概念空间框架下的学习动态分析

Emergence of Hidden Capabilities: Exploring Learning Dynamics in Concept Space

摘要

本文探讨了现代生成模型如何通过识别和操作训练数据背后的抽象概念来展示其卓越能力。文章提出了一种名为“概念空间”的框架,用于分析模型在学习过程中的动态行为,其中每个轴代表数据生成过程中的一个独立概念。通过在概念空间中描述学习动态,文章揭示了概念学习速度和顺序如何受数据属性的影响,称为“概念信号”。此外,文章观察到模型在学习过程中会出现突然的方向转变,这些转变恰好对应于模型潜在能力的出现,即模型能够操作概念,但这些能力在常规输入提示下无法显现。尽管研究主要集中在合成数据集上,但文章推测生成模型在训练过程中会突然且一致地学习到这些潜在能力,尽管在常规输入提示下可能不会立即展现这些能力。

Read more...

探索维基百科变化事件数据集CHEW:揭示大型语言模型的时间理解能力

CHEW: A Dataset of CHanging Events in Wikipedia

摘要

本文介绍了CHEW(CHanging Events in Wikipedia)数据集,这是一个专注于维基百科中事件和实体随时间变化的新型数据集。论文通过使用CHEW数据集来测试大型语言模型(LLMs)对维基百科实体和事件时间线的理解能力,特别是在生成和分类任务中的表现。研究结果表明,尽管LLMs拥有时间信息,但它们在构建准确的时间线上仍面临挑战。此外,论文还展示了CHEW衍生嵌入在识别意义变化方面的有效性。

Read more...

探索编译器优化的未来:Meta大型语言模型编译器的创新与应用

Meta Large Language Model Compiler: Foundation Models of Compiler Optimization

摘要

本文介绍了一种名为Meta Large Language Model Compiler(LLM Compiler)的新型大型语言模型,专门设计用于代码和编译器优化任务。LLM Compiler基于Code Llama模型构建,通过训练大量编译器中间表示(IR)和汇编代码,增强了模型对编译器优化技术的理解。该模型经过5460亿个令牌的训练,并进行了指令微调,以模拟编译器行为。LLM Compiler的发布旨在为学术研究人员和行业从业者提供一个可扩展、成本效益高的基础,以进一步研究和开发编译器优化技术。

Read more...
Previous Page 136 of 156 Next Page