"实现公平分类:一种基于双玩家博弈的新方法"

Enhancing Class Fairness in Classification with A Two-Player Game Approach

摘要

本文针对分类任务中数据增强可能引入的不公平影响问题,提出了一种基于双玩家博弈的公平分类方法(FACT)。数据增强虽然能提升某些类别的性能,但可能对其他类别产生不利影响,这在某些应用领域中尤为关键。FACT方法通过将分类器的训练与数据增强问题形式化为一个公平优化问题,并进一步转化为一个对抗性双玩家博弈,从而确保类别间的公平性。文章还提出了一种新的乘法权重优化算法,并从理论上证明了该算法能够收敛到一个对所有类别公平的解决方案。实验结果表明,该方法在五个数据集上的分类器性能分布更为公平,且对平均准确率的影响有限。

Read more...

"革新视频理解:多模态大型语言模型在时间活动定位中的应用"

Temporal Grounding of Activities using Multimodal Large Language Models

摘要

本文探讨了使用多模态大型语言模型(LLMs)进行活动的时间定位问题,即在视频中识别特定动作的时间间隔。文章提出了一种两阶段方法,结合图像和文本LLMs,以提高时间活动定位的准确性。通过在Charades-STA数据集上的实验,证明了该方法的有效性,并展示了指令调优对小型多模态LLM的影响,使其在处理动作查询时输出更丰富和信息量更大的描述,从而提高时间间隔识别的性能。

Read more...

推进公平的解释性AI:跨学科专家小组审查框架的应用与前景

Interdisciplinary Expertise to Advance Equitable Explainable AI

摘要

本文由Chloe R. Bennett等作者撰写,聚焦于通过跨学科专家小组(IDEP)审查可解释人工智能(XAI)分析,以推进公平的解释性AI。文章指出,尽管人工智能在医疗健康领域的应用迅速增长,但仍存在针对受广泛结构性压迫群体的偏见和性能不佳问题。文章提出,通过利用社会流行病学和健康公平的最佳实践,可以提高AI的解释性,从而帮助我们发展对发现关联的假设。IDEP框架允许从多个角度讨论和批判性地评估AI模型解释,识别偏见区域和未来研究方向。文章强调了跨学科专家小组在产生更准确、公平解释方面的重要性,这些解释是历史和情境化的。跨学科小组讨论有助于减少偏见,识别潜在的混杂因素,并识别研究空白,从而为AI模型改进提供机会。

Read more...

Ego-Foresight:通过视觉运动预测提升机器人强化学习的效率与性能

Ego-Foresight: Agent Visuomotor Prediction as Regularization for RL

摘要

本文提出了一种名为Ego-Foresight的新方法,用于在深度强化学习(RL)中通过视觉运动预测来解耦代理和环境,从而提高训练效率和性能。该方法通过自我监督学习,无需监督信号即可实现代理和环境的分离。主要发现是代理的视觉运动预测为RL算法提供了正则化,鼓励动作保持在可预测的范围内。在真实世界机器人交互和模拟机器人操作任务中,Ego-Foresight方法显示出平均23%的效率提升和8%的性能提升。

Read more...

恶劣环境下的自主轮椅:提升道路穿越决策的鲁棒性与安全性

Experimental Evaluation of Road-Crossing Decisions by Autonomous Wheelchairs against Environmental Factors

摘要

本文探讨了自主轮椅在复杂环境因素影响下的道路穿越决策问题。研究团队通过实验评估了雾、雨、黑暗等环境因素对自主轮椅视频跟踪性能的影响,并提出了一种量化这些影响的方法,以便在跟踪精度下降到不可接受水平时发出警告并重新配置系统,从而提高整体安全性。研究结果表明,通过适当的软件过滤和传感器融合技术,可以有效评估和提升自主轮椅在恶劣环境下的操作鲁棒性。

Read more...

迭代设计的力量:人类修订编辑如何引领多模态生成模型达到新高度

Revision Matters: Generative Design Guided by Revision Edits

摘要

本文探讨了如何通过人类设计师的修订编辑来指导和增强多模态生成模型在布局设计中的应用。研究基于预训练的大型多模态模型Gemini,通过监督微调任务设置,展示了人类修订编辑在迭代布局细化中的关键作用。尽管人类编辑存在噪声,但通过引入人类修订编辑,模型在设计FID评分上达到了接近人类水平的性能。此外,研究还发现,完全依赖模型自身判断的自修订可能导致生成退化,而早期阶段的人类指导对于最终生成至关重要。

Read more...

生成式人工智能与大语言模型:学术界的机遇与挑战

The global landscape of academic guidelines for generative AI and Large Language Models

摘要

本文探讨了生成式人工智能(GAI)和大语言模型(LLM)在学术界的应用及其带来的教育益处和伦理考量。文章通过系统调查和文本挖掘分析全球和国家指导方针,以及80所大学的具体指南,深入理解了GAI和LLM在教育中的机遇与挑战。文章强调了平衡这些技术优势与解决伦理问题、确保公平访问和教育成果的重要性,并提出了促进负责任创新和伦理实践的建议。

Read more...

探索认知任务学:基于掩码自编码器和迁移学习的fMRI重建新方法

Uncovering cognitive taskonomy through transfer learning in masked autoencoder-based fMRI reconstruction

摘要

本文由Youzhi Qu等人撰写,探讨了通过迁移学习在基于掩码自编码器的功能性磁共振成像(fMRI)重建中揭示认知任务学(taskonomy)的方法。文章主要解决了神经信号重建的问题,特别是在信号完成和去噪方面。作者提出了一种基于掩码自编码器(MAE)的模型来重建fMRI数据,并利用迁移学习框架来量化认知任务之间的关系。实验结果表明,MAE模型能够有效地捕捉大脑区域之间的时间动态模式和交互作用,实现跨受试者的fMRI信号重建。通过迁移学习框架获得的认知任务学揭示了认知任务之间的关系,特别是在运动任务中的子任务相关性和情感、社交及赌博任务之间的相似性。研究还表明,通过MAE模型重建fMRI数据可以揭示潜在的表示,并且获得的任务学为神经解码任务中选择源任务提供了指导,以提高目标任务的解码性能。

Read more...

量化AI公平性:一种创新的跨部门交叉差异分析方法

Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness

摘要

本文介绍了一种创新的方法,通过潜在类别分析(LCA)量化用户定义的多组之间的跨部门交叉差异,以解决AI发展中的公平性问题。该研究强调了在AI决策过程中,如资源分配和服务方案开发中,处理多重和交叉形式的不平等的重要性。研究使用了EVENS和Census 2021(英格兰和威尔士)等数据集,验证了该方法的有效性,并揭示了少数族裔群体之间的显著差异,强调了在现实世界AI应用中实施针对性干预的必要性。

Read more...

揭秘AI医疗决策:PrognosisEx模型如何提高预后预测的透明度和可靠性

Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery

摘要

本文介绍了一种名为PrognosisEx的新型可解释预测模型,该模型结合了决策推理和特征识别能力,特别适用于医疗影像中的早期疾病检测和预后任务。PrognosisEx通过解码模型的决策过程,识别并可视化影响模型最终预测的关键特征,从而提高AI在医疗健康领域的可靠性,并有助于在预后理解有限的疾病中发现新知识。

Read more...
Previous Page 150 of 156 Next Page