SINKT:利用大型语言模型实现结构感知的归纳知识追踪

SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model

摘要

本文介绍了一种名为SINKT的新型知识追踪模型,该模型利用大型语言模型(LLM)实现结构感知的归纳知识追踪。知识追踪(KT)是智能辅导系统(ITS)中的关键任务,旨在预测学生对未来问题的回答正确性。传统的基于ID的传导方法在教育KT场景中面临数据稀疏和冷启动问题,且未能直接建模概念与问题之间的复杂关系。SINKT通过引入LLM,首次实现了归纳知识追踪,利用LLM构建概念间的结构关系,并通过编码概念和问题来整合语义信息,最终通过与学生的知识状态和问题表示的交互来预测学生的回答。实验结果表明,SINKT在四个真实世界数据集上优于12种现有的传导KT模型,并展示了在归纳KT任务上的优越性能。

Read more...

TOKEN:利用对象中心化标记化提升自动驾驶长尾事件处理能力

Tokenize the World into Object-level Knowledge to Address Long-tail Events in Autonomous Driving

摘要

本文探讨了自动驾驶领域中长尾事件处理的问题,即自动驾驶系统在遇到罕见或未见过的场景时性能下降的情况。为了解决这一问题,研究者提出了TOKEN,一种多模态大型语言模型(MM-LLM),它通过将世界分解为对象级别的知识来增强自动驾驶车辆在长尾场景中的规划能力。TOKEN通过利用传统的端到端驾驶模型生成浓缩且语义丰富的场景表示,并通过有意的表示和推理对齐训练阶段进行优化,以提高LLM的规划兼容性。实验结果表明,TOKEN在定位、推理和规划能力上优于现有框架,显著减少了轨迹L2误差和碰撞率。

Read more...

VisCoIN: 利用生成模型实现可解释的深度学习

Restyling Unsupervised Concept Based Interpretable Networks with Generative Models

摘要

本文介绍了一种名为Visualizable CoIN (VisCoIN)的新型架构,旨在解决在大型图像上学习无监督概念字典的CoIN系统中的可视化限制。该方法通过将概念特征映射到预训练生成模型的潜在空间,利用生成模型实现高质量的可视化,并自然地提供了一种直观和交互式的过程来更好地解释学习到的概念。此外,利用预训练生成模型还提高了系统的训练效率。该方法在多个大型图像识别基准上进行了实验,证明了其在可解释预测网络的准确性、重建的保真度以及学习概念的忠实度和一致性方面的有效性。

Read more...

µ-Bench:开启显微镜理解的新篇章

μ-Bench: A Vision-Language Benchmark for Microscopy Understanding

摘要

本文介绍了 µ-Bench,这是一个用于显微镜理解的视觉语言基准。它涵盖了各种科学学科、显微镜模式、尺度和生物的 22 个生物医学任务。作者通过评估最先进的生物医学、病理学和通用 VLM,发现当前模型在所有类别上都存在困难,即使是基本任务,如区分显微镜模式。此外,当前的专业模型在生物医学数据上进行微调后,往往表现不如通用模型。在特定显微镜领域进行微调可能导致灾难性遗忘,侵蚀基础模型中编码的先前生物医学知识。

Read more...

个体脑部分割:方法、验证与应用的前沿综述

Individual brain parcellation: Review of methods, validations and applications

摘要

本文综述了近年来在个体脑部分割(individual brain parcellation)领域的最新进展,强调了在精准医学快速发展的背景下,群体级别的脑图谱分割方法由于未能考虑个体间的差异性而受到限制。文章详细介绍了基于优化和学习的方法在个体脑功能区域精确映射中的应用,并引入了全面的评估指标来验证个体脑图谱的有效性。此外,文章还探讨了个体脑图谱在神经科学研究和临床医学中的应用,以及面临的挑战和未来的发展方向。

Read more...

优化检索增强生成上下文:通过异常检测提升问答系统性能

Optimization of Retrieval-Augmented Generation Context with Outlier Detection

摘要

本文由NextAI Systems LLC的Vitaly Bulgakov撰写,聚焦于优化问答系统中用于增强生成上下文的检索方法,特别是通过异常检测技术来减少上下文大小并提高其质量。论文指出,增加检索文档的数量可能会导致大型语言模型(LLM)在生成回答时性能下降,因为大量文档中可能包含与查询无关的信息,从而导致答案出现幻觉。为此,研究团队提出了一系列方法,通过计算嵌入向量与查询向量及中心向量之间的距离来识别异常值,从而筛选出语义上最相关的文档。这些方法通过与OpenAI GPT-4o模型获得的真实答案进行相似度比较来评估,发现对于复杂问题和答案的改进最为显著。关键词包括人工智能(AI)、大型语言模型(LLM)、检索增强生成(RAG)、特征工程、降维、高斯混合模型和异常检测。

Read more...

创新方法提升多语言大型语言模型的性能

Improving Multilingual Instruction Finetuning via Linguistically Natural and Diverse Datasets

摘要

本文提出了一种创新方法,通过利用英语为中心的大型语言模型(LLMs)和单语语料库,以及一个评分函数,来收集多语言指令微调(IFT)数据集。这种方法旨在保持语言的自然性和确保指令的多样性,从而提高LLMs在非英语环境中的语言理解和生成能力。实验结果表明,使用这种方法微调的LLMs在多语言摘要任务中表现显著优于基于翻译和模板的数据集微调的模型。

Read more...

利用扩散概率模型在深紫外线荧光图像中提升乳腺癌检测准确性

Deep learning for automated detection of breast cancer in deep ultraviolet fluorescence images with diffusion probabilistic model

摘要

本文探讨了在深紫外线荧光图像(DUV)中应用扩散概率模型(DPM)进行乳腺癌自动检测的问题。由于医疗图像数据集的限制,深度学习方法在应用中面临挑战。本文提出了一种解决方案,通过DPM生成高质量的合成DUV图像,以增强训练数据集,从而提高乳腺癌分类的准确性。实验结果表明,使用DPM进行数据增强后,乳腺癌检测的准确率从93%提升至97%,显著优于传统的仿射变换和ProGAN方法。

Read more...

加速医疗诊断:优化X射线图像分类的深度学习策略

Optimized Learning for X-Ray Image Classification for Multi-Class Disease Diagnoses with Accelerated Computing Strategies

摘要

本文由Sebastián A. Cruz Romero等人撰写,针对X射线图像在多类别疾病诊断中的分类问题,提出了一种基于优化学习策略的解决方案。该研究主要关注于减少训练和推理任务的执行时间,通过引入改进的预训练ResNet模型,结合PyTorch、CUDA、混合精度训练和学习率调度器等先进技术,以提高X射线图像分析算法的精确度和可靠性。研究结果显示,与正常训练相比,CUDA加速训练显著减少了执行时间,尽管不同训练优化模式之间的差异微乎其微。此外,研究还探讨了使用MPI4Py进行有效并行数据处理以及利用多进程加速大数据集预处理的潜力。

Read more...

加速自动驾驶安全测试:地下停车场感知失败场景生成新方法

Acceleration method for generating perception failure scenarios based on editing Markov process

摘要

本文由Canjie Cai撰写,提出了一种针对地下停车场的感知失败场景加速生成方法。随着自动驾驶技术的快速发展,自动驾驶车辆已成为未来交通系统的核心。然而,地下停车场的特殊环境,如结构限制、光照不足和高密度障碍物,对自动驾驶车辆的感知系统提出了更高的要求。本文通过学习背景车辆(BVs)与自动驾驶车辆(AVs)在感知失败场景中的交互,利用编辑马尔可夫过程优化感知失败场景数据的训练,从而在Carla和Vissim平台上构建了一个高密度的感知失败场景智能测试环境。该方法不仅提高了感知算法的安全性能,还为自动驾驶技术在复杂环境中的应用提供了新的测试和验证手段。

Read more...
Previous Page 105 of 156 Next Page