预测急诊出院后的高住院风险:一种集成学习方法的应用

Predicting Elevated Risk of Hospitalization Following Emergency Department Discharges

摘要

本文由Dat Hong, Philip M. Polgreen和Alberto Maria Segre共同撰写,聚焦于预测急诊部门出院后短期内(3天、7天和14天)的住院风险。文章通过数据挖掘技术,利用大型医院数据集,构建了高准确度的预测模型。该模型结合了逻辑回归、朴素贝叶斯和关联规则分类器,旨在帮助医生在急诊部门环境中预测患者早期入院的风险,从而提高患者安全和医疗服务质量。

Read more...

"AE-APT:深度学习驱动的APT检测新工具,革新网络安全防御"

Hack Me If You Can: Aggregating AutoEncoders for Countering Persistent Access Threats Within Highly Imbalanced Data

摘要

本文介绍了一种名为AE-APT的深度学习工具,用于在高度不平衡的数据集中检测高级持续威胁(APTs)。AE-APT采用了一系列从基本到基于Transformer的AutoEncoder方法,并通过在DARPA透明计算程序生成的来源跟踪数据库上进行评估,展示了其相较于其他方法的显著更高的检测率。该工具能够跨多个操作系统(包括Android、Linux、BSD和Windows)检测和排序异常,显示出在识别APT类模式方面的优越性能。

Read more...

"AI助力皮肤癌诊断:Grad-CAM与专家标注的融合创新"

AI-Driven Skin Cancer Diagnosis: Grad-CAM and Expert Annotations for Enhanced Interpretability

摘要

本文介绍了一种基于人工智能的工具,用于通过远程皮肤病学提高基底细胞癌(BCC)诊断的可解释性。该工具结合了Grad-CAM技术和高水平专家标注,以增强诊断的透明度和准确性。通过识别图像中的主要BCC皮损模式,并利用基于期望最大化(EM)算法的共识参考,该工具实现了90%的BCC/非BCC分类准确率和99%的临床相关BCC模式检测准确率。此外,该工具通过临床启发的可视化解释,帮助医疗专业人员理解AI模型的决策过程,从而加速转诊并优化资源利用。

Read more...

"DP-Weights: 训练后加噪,隐私保护新境界"

Too Good to be True? Turn Any Model Differentially Private With DP-Weights

摘要

本文介绍了一种创新的机器学习模型训练方法,通过在训练后对模型权重应用差分隐私(Differential Privacy, DP)噪声,以实现隐私保护。传统的差分隐私方法通常在训练过程中引入噪声,这可能导致模型性能下降或隐私保护不足。本文提出的DP-Weights方法允许在训练完成后调整噪声水平,以达到最佳的隐私-效用平衡。该方法通过数学证明和实证评估,包括成员推理攻击和性能评估,验证了其有效性。与传统的DP-SGD模型相比,DP-Weights模型在保持相似的隐私保证的同时,显著减少了训练时间和提高了参数调整的灵活性。

Read more...

"ELR-GNN:革新多模态对话情感识别的高效图神经网络"

Efficient Long-distance Latent Relation-aware Graph Neural Network for Multi-modal Emotion Recognition in Conversations

摘要

本文介绍了一种高效的长距离潜在关系感知图神经网络(ELR-GNN),用于对话中的多模态情感识别(MERC)。该任务旨在基于对话中的多模态信息分析每个话语的真实情感状态,对于对话理解至关重要。现有方法主要使用图神经网络(GNN)来建模对话关系并捕捉上下文的潜在语义关系。然而,由于GNN的复杂性,现有方法无法有效捕捉长距离话语之间的潜在依赖关系,从而限制了MERC的性能。ELR-GNN通过使用预提取的文本、视频和音频特征作为输入,利用双向长短期记忆网络(Bi-LSTM)捕捉上下文语义信息,并构建对话情感交互图。为了有效捕捉长距离话语之间的潜在依赖关系,本文采用扩张广义前向推送算法预计算全局话语之间的情感传播,并设计情感关系感知操作符来捕捉不同话语之间的潜在语义关联。此外,结合早期融合和自适应晚期融合机制,融合说话者关系信息和上下文的潜在依赖信息。最后,获取高级话语特征并将其输入多层感知机(MLP)进行情感预测。实验结果表明,ELR-GNN在基准数据集IEMOCAP和MELD上达到了最先进的性能,运行时间分别减少了52%和35%。此外,ELR-GNN能够有效提高MERC任务的准确性,通过捕捉和融合话语之间的潜在语义关系。

Read more...

"LoPT: 革命性的低秩提示调优技术,大幅提升语言模型参数效率"

LoPT: Low-Rank Prompt Tuning for Parameter Efficient Language Models

摘要

本文介绍了一种名为Low-rank Prompt Tuning (LoPT)的新方法,旨在通过减少训练参数数量来提高语言模型在特定任务上的性能。传统的prompt tuning方法通过优化输入的前缀或后缀嵌入来控制语言模型,而LoPT通过低秩模型优化这些嵌入,实现了与全参数优化相媲美的效果,同时减少了训练参数的数量,提高了参数效率。

Read more...

"SSCBM:突破传统概念瓶颈模型的新框架"

Semi-supervised Concept Bottleneck Models

摘要

本文介绍了一种名为SSCBM(Semi-supervised Concept Bottleneck Model)的新框架,旨在解决传统概念瓶颈模型(CBMs)在训练过程中对精确和丰富标注概念数据的依赖问题。CBMs虽然能够提供基于概念的解释,但其训练通常需要专家标注,成本高昂且资源密集。SSCBM通过利用标记和未标记数据的联合训练,并引入伪标签生成策略和对齐损失,有效解决了这些问题。实验结果显示,即使在仅有20%的标记数据情况下,SSCBM也能达到高概念准确性和预测准确性,显示出其在实际应用中的巨大潜力。

Read more...

"优化大型语言模型的共情响应生成:理论驱动的方法与实践"

EmPO: Theory-Driven Dataset Construction for Empathetic Response Generation through Preference Optimization

摘要

本文由Ondrej Sotolar等人撰写,探讨了在对话代理中生成共情响应的问题。共情响应生成(ERG)是使对话代理能够理解用户情境、情感和体验,从而生成适当、类人响应的关键技术。尽管大型语言模型(LLM)在此任务上显示出潜力,但确保响应的共情质量和模型的泛化性能仍面临挑战。本文提出了一种新颖的方法,通过构建理论驱动的偏好数据集并使用偏好优化算法来对齐LLM,以解决这些挑战。研究使用了EmpatheticDialogues数据集,并评估了共情响应生成的效果,同时公开了所有数据集、源代码和模型。

Read more...

"再遗忘:大型语言模型内容监管的新挑战"

UnUnlearning: Unlearning is not sufficient for content regulation in advanced generative AI

摘要

本文由Google DeepMind的研究团队撰写,探讨了在大型语言模型(LLMs)中使用“遗忘”(unlearning)技术进行内容监管的局限性。文章指出,尽管遗忘技术最初旨在从机器学习模型中移除隐私敏感信息,但其在防止模型生成非法或有害内容方面的效果有限。文章提出了“再遗忘”(ununlearning)的概念,即通过上下文学习,模型可以重新获取已被遗忘的知识,从而使遗忘技术在内容监管方面的应用变得复杂。文章强调,为了有效监管非法内容,除了遗忘技术外,还需要结合内容过滤等其他机制。

Read more...

"创新AI工具:自动化生成SAPPhIRE模型,提升设计效率与准确性"

Development and Evaluation of a Retrieval-Augmented Generation Tool for Creating SAPPhIRE Models of Artificial Systems

摘要

本文由Anubhab Majumder等人撰写,介绍了如何利用大型语言模型(LLMs)开发和评估一种增强检索生成工具,用于创建人工系统的SAPPhIRE因果模型。SAPPhIRE模型在支持设计类比(DbA)方面被发现非常有用,但创建人工或生物系统的SAPPhIRE模型是一个劳动密集型过程,需要专家从多个技术文档中获取系统工作原理的知识。本文提出的检索增强生成(RAG)工具旨在生成与人工系统的SAPPhIRE构造相关的信息,并初步评估了该工具的成功性,重点关注事实准确性和结果的可靠性。

Read more...
Previous Page 128 of 156 Next Page