SecGenAI框架:保护澳大利亚关键技术领域的生成式人工智能应用安全

SecGenAI: Enhancing Security of Cloud-based Generative AI Applications within Australian Critical Technologies of National Interest

摘要

本文介绍了《SecGenAI: Enhancing Security of Cloud-based Generative AI Applications within Australian Critical Technologies of National Interest》这篇论文的核心信息。论文针对澳大利亚国家利益关键技术中的生成式人工智能(GenAI)应用,提出了一个全面的安全框架——SecGenAI。该框架专注于检索增强生成(RAG)系统,解决了功能性、基础设施和治理层面的安全需求,通过端到端的安全分析生成规范,强调数据隐私、安全部署和共享责任模型。SecGenAI与澳大利亚隐私原则、AI伦理原则以及澳大利亚网络安全中心和数字转型机构的指南相一致,旨在缓解数据泄露、对抗性攻击和模型逆向等威胁。该研究为智能系统领域提供了可行的安全实施策略,促进了AI应用的创新,并保护了国家利益。

Read more...

SGCCNet:引领3D物体检测新纪元的高效单阶段点云检测器

SGCCNet: Single-Stage 3D Object Detector With Saliency-Guided Data Augmentation and Confidence Correction Mechanism

摘要

本文介绍了一种名为SGCCNet的单阶段3D物体检测器,该检测器利用点云数据进行高效且准确的物体识别。SGCCNet通过引入显着性引导的数据增强(SGDA)策略和置信度校正机制(CCM),解决了低质量物体学习不足(ILQ)和定位精度与分类置信度不一致(MLC)的问题。实验结果表明,SGCCNet在KITTI数据集上的性能优于现有的基于点的检测器,实现了80.82%的AP3D在中等等级,显示出其在智能交通系统中的广泛应用前景。

Read more...

SINKT:利用大型语言模型实现结构感知的归纳知识追踪

SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model

摘要

本文介绍了一种名为SINKT的新型知识追踪模型,该模型利用大型语言模型(LLM)实现结构感知的归纳知识追踪。知识追踪(KT)是智能辅导系统(ITS)中的关键任务,旨在预测学生对未来问题的回答正确性。传统的基于ID的传导方法在教育KT场景中面临数据稀疏和冷启动问题,且未能直接建模概念与问题之间的复杂关系。SINKT通过引入LLM,首次实现了归纳知识追踪,利用LLM构建概念间的结构关系,并通过编码概念和问题来整合语义信息,最终通过与学生的知识状态和问题表示的交互来预测学生的回答。实验结果表明,SINKT在四个真实世界数据集上优于12种现有的传导KT模型,并展示了在归纳KT任务上的优越性能。

Read more...

TOKEN:利用对象中心化标记化提升自动驾驶长尾事件处理能力

Tokenize the World into Object-level Knowledge to Address Long-tail Events in Autonomous Driving

摘要

本文探讨了自动驾驶领域中长尾事件处理的问题,即自动驾驶系统在遇到罕见或未见过的场景时性能下降的情况。为了解决这一问题,研究者提出了TOKEN,一种多模态大型语言模型(MM-LLM),它通过将世界分解为对象级别的知识来增强自动驾驶车辆在长尾场景中的规划能力。TOKEN通过利用传统的端到端驾驶模型生成浓缩且语义丰富的场景表示,并通过有意的表示和推理对齐训练阶段进行优化,以提高LLM的规划兼容性。实验结果表明,TOKEN在定位、推理和规划能力上优于现有框架,显著减少了轨迹L2误差和碰撞率。

Read more...

VisCoIN: 利用生成模型实现可解释的深度学习

Restyling Unsupervised Concept Based Interpretable Networks with Generative Models

摘要

本文介绍了一种名为Visualizable CoIN (VisCoIN)的新型架构,旨在解决在大型图像上学习无监督概念字典的CoIN系统中的可视化限制。该方法通过将概念特征映射到预训练生成模型的潜在空间,利用生成模型实现高质量的可视化,并自然地提供了一种直观和交互式的过程来更好地解释学习到的概念。此外,利用预训练生成模型还提高了系统的训练效率。该方法在多个大型图像识别基准上进行了实验,证明了其在可解释预测网络的准确性、重建的保真度以及学习概念的忠实度和一致性方面的有效性。

Read more...

µ-Bench:开启显微镜理解的新篇章

μ-Bench: A Vision-Language Benchmark for Microscopy Understanding

摘要

本文介绍了 µ-Bench,这是一个用于显微镜理解的视觉语言基准。它涵盖了各种科学学科、显微镜模式、尺度和生物的 22 个生物医学任务。作者通过评估最先进的生物医学、病理学和通用 VLM,发现当前模型在所有类别上都存在困难,即使是基本任务,如区分显微镜模式。此外,当前的专业模型在生物医学数据上进行微调后,往往表现不如通用模型。在特定显微镜领域进行微调可能导致灾难性遗忘,侵蚀基础模型中编码的先前生物医学知识。

Read more...

个体脑部分割:方法、验证与应用的前沿综述

Individual brain parcellation: Review of methods, validations and applications

摘要

本文综述了近年来在个体脑部分割(individual brain parcellation)领域的最新进展,强调了在精准医学快速发展的背景下,群体级别的脑图谱分割方法由于未能考虑个体间的差异性而受到限制。文章详细介绍了基于优化和学习的方法在个体脑功能区域精确映射中的应用,并引入了全面的评估指标来验证个体脑图谱的有效性。此外,文章还探讨了个体脑图谱在神经科学研究和临床医学中的应用,以及面临的挑战和未来的发展方向。

Read more...

优化检索增强生成上下文:通过异常检测提升问答系统性能

Optimization of Retrieval-Augmented Generation Context with Outlier Detection

摘要

本文由NextAI Systems LLC的Vitaly Bulgakov撰写,聚焦于优化问答系统中用于增强生成上下文的检索方法,特别是通过异常检测技术来减少上下文大小并提高其质量。论文指出,增加检索文档的数量可能会导致大型语言模型(LLM)在生成回答时性能下降,因为大量文档中可能包含与查询无关的信息,从而导致答案出现幻觉。为此,研究团队提出了一系列方法,通过计算嵌入向量与查询向量及中心向量之间的距离来识别异常值,从而筛选出语义上最相关的文档。这些方法通过与OpenAI GPT-4o模型获得的真实答案进行相似度比较来评估,发现对于复杂问题和答案的改进最为显著。关键词包括人工智能(AI)、大型语言模型(LLM)、检索增强生成(RAG)、特征工程、降维、高斯混合模型和异常检测。

Read more...

创新方法提升多语言大型语言模型的性能

Improving Multilingual Instruction Finetuning via Linguistically Natural and Diverse Datasets

摘要

本文提出了一种创新方法,通过利用英语为中心的大型语言模型(LLMs)和单语语料库,以及一个评分函数,来收集多语言指令微调(IFT)数据集。这种方法旨在保持语言的自然性和确保指令的多样性,从而提高LLMs在非英语环境中的语言理解和生成能力。实验结果表明,使用这种方法微调的LLMs在多语言摘要任务中表现显著优于基于翻译和模板的数据集微调的模型。

Read more...

利用扩散概率模型在深紫外线荧光图像中提升乳腺癌检测准确性

Deep learning for automated detection of breast cancer in deep ultraviolet fluorescence images with diffusion probabilistic model

摘要

本文探讨了在深紫外线荧光图像(DUV)中应用扩散概率模型(DPM)进行乳腺癌自动检测的问题。由于医疗图像数据集的限制,深度学习方法在应用中面临挑战。本文提出了一种解决方案,通过DPM生成高质量的合成DUV图像,以增强训练数据集,从而提高乳腺癌分类的准确性。实验结果表明,使用DPM进行数据增强后,乳腺癌检测的准确率从93%提升至97%,显著优于传统的仿射变换和ProGAN方法。

Read more...
Previous Page 105 of 156 Next Page