探索大脑的视觉密码:Vi-ST模型如何解码动态视觉场景的神经编码
摘要
本文由Rining Wu等人提出,旨在解决动态视觉场景与视网膜神经编码之间的内在时间关系问题。传统的研究多基于静态图像或人工视频,忽略了复杂的时间关系。为此,作者提出了Vi-ST模型,这是一个结合了自监督Vision Transformer(ViT)先验的时空卷积神经网络,旨在解析视网膜神经群体基于时间的编码模式。该模型在泛化测试中表现出强大的预测性能,并通过详细的消融实验验证了各时间模块的重要性。此外,文章还引入了一种视觉编码评估指标,该指标考虑了时间因素,并探讨了不同数量的神经群体对互补编码的影响。总体而言,Vi-ST模型为大脑中动态视觉场景的神经编码提供了一个新颖的建模框架,有效地将我们对视频的大脑表征与神经活动对齐。
Read more...








