第一次,语言的神经激活被定位到细胞级

简介: 【7月更文挑战第26天】

一篇名为《Semantic encoding during language comprehension at single-cell resolution》的论文,发表在《Nature》上,该论文由来自哈佛医学院和麻省理工学院的研究人员合作完成。这篇论文主要研究了人类大脑在语言理解过程中的语义编码,并首次在单个神经元的分辨率上进行了定位。

研究人员使用一种名为"single-neuronal recordings"的技术,在人类大脑的左前额叶皮层中记录了单个神经元的活动。他们发现,当人们听到或看到具有特定语义内容的单词时,这些神经元会选择性地激活。

具体来说,研究人员将每个单词与一个300维的向量相关联,该向量表示了该单词在语义空间中的位置。然后,他们使用一种称为"spherical clustering"的技术,将这些向量聚类为9个不同的语义域,如动作、状态、物体等。

他们发现,许多神经元对特定语义域的单词有选择性的响应。例如,一个神经元可能对表示食物的单词有强烈的响应,而对表示动物的单词则没有响应。这种选择性响应的程度可以用一个称为"selectivity index"(SI)的指标来衡量,SI的值越高,表示神经元对特定语义域的选择性越强。

研究人员还发现,这些神经元的活动模式在不同的参与者之间是一致的,并且对不同的语言材料(如句子和单词列表)也是一致的。这表明,这些神经元的活动模式可能反映了一种普遍的语义编码机制,而不仅仅局限于特定的语言或任务。

此外,研究人员还发现,这些神经元的活动模式可以用于解码人们在听到新单词时所理解的语义域。他们使用一种机器学习算法,根据神经元的活动模式预测了单词所属的语义域,并发现这种预测的准确性显著高于随机猜测。

然而,这项研究也存在一些局限性。首先,它只研究了左前额叶皮层中的神经元,而没有研究其他与语言处理相关的脑区。其次,它只使用了一种语言(英语)和一组有限的语言材料,因此可能无法推广到其他语言或更广泛的语义空间。最后,它没有直接测量人们在听到单词时的主观体验或语义判断,而是依赖于对神经元活动的间接测量。

论文地址:https://www.nature.com/articles/s41586-024-07643-2

目录
相关文章
|
9月前
|
机器学习/深度学习 缓存 算法
【论文速递】IJCV2022 - CRCNet:基于交叉参考和区域-全局条件网络的小样本分割
【论文速递】IJCV2022 - CRCNet:基于交叉参考和区域-全局条件网络的小样本分割
|
机器学习/深度学习 传感器 编解码
首篇!BEV-Locator:多目端到端视觉语义定位网络(清华&轻舟智航)(下)
准确的定位能力是自动驾驶的基础。传统的视觉定位框架通过几何模型来解决语义地图匹配问题,几何模型依赖于复杂的参数调整,从而阻碍了大规模部署。本文提出了BEV定位器:一种使用多目相机图像的端到端视觉语义定位神经网络。具体地,视觉BEV(鸟瞰图)编码器提取多目图像并将其展平到BEV空间中。而语义地图特征在结构上嵌入为地图查询序列。然后,cross-model transformer将BEV特征和语义图查询关联起来。通过交叉注意力模块递归地查询自车的定位信息。最后,可以通过解码transformer输出来推断自车位姿。论文在大规模nuScenes和Qcraft数据集中评估了所提出的方法。
首篇!BEV-Locator:多目端到端视觉语义定位网络(清华&轻舟智航)(下)
|
移动开发 文字识别 算法
论文推荐|[PR 2019]SegLink++:基于实例感知与组件组合的任意形状密集场景文本检测方法
本文简要介绍Pattern Recognition 2019论文“SegLink++: Detecting Dense and Arbitrary-shaped Scene Text by Instance-aware Component Grouping”的主要工作。该论文提出一种对文字实例敏感的自下而上的文字检测方法,解决了自然场景中密集文本和不规则文本的检测问题。
1969 0
论文推荐|[PR 2019]SegLink++:基于实例感知与组件组合的任意形状密集场景文本检测方法
|
9月前
|
Python
python隶属关系图模型:基于模型的网络中密集重叠社区检测方法
python隶属关系图模型:基于模型的网络中密集重叠社区检测方法
|
机器学习/深度学习 传感器 编解码
万字长文 | 多目标跟踪最新综述(基于Transformer/图模型/检测和关联/孪生网络)(上)
随着自动驾驶技术的发展,多目标跟踪已成为计算机视觉领域研究的热点问题之一。MOT 是一项关键的视觉任务,可以解决不同的问题,例如拥挤场景中的遮挡、相似外观、小目标检测困难、ID切换等。为了应对这些挑战,研究人员尝试利用transformer的注意力机制、利用图卷积神经网络获得轨迹的相关性、不同帧中目标与siamese网络的外观相似性,还尝试了基于简单 IOU 匹配的 CNN 网络、运动预测的 LSTM。为了把这些分散的技术综合起来,作者研究了过去三年中的一百多篇论文,试图提取出近年来研究者们更加关注的解决 MOT 问题的技术。
万字长文 | 多目标跟踪最新综述(基于Transformer/图模型/检测和关联/孪生网络)(上)
|
机器学习/深度学习 编解码 自动驾驶
联合训练2D-3D多任务学习 | 深度估计、检测、分割、3D检测通吃
联合训练2D-3D多任务学习 | 深度估计、检测、分割、3D检测通吃
375 0
|
机器学习/深度学习 数据可视化
CVPR2023 | 无需动态区域分割!多帧深度估计新进展:跨线索注意力机制提升动态区域精度
CVPR2023 | 无需动态区域分割!多帧深度估计新进展:跨线索注意力机制提升动态区域精度
399 0
|
机器学习/深度学习 人工智能 网络架构
CVPR‘2023 | PIDNet: 基于注意力机制引导的实时语义分割网络架构,完美解决空间细节、上下文和边界信息
CVPR‘2023 | PIDNet: 基于注意力机制引导的实时语义分割网络架构,完美解决空间细节、上下文和边界信息
1160 0
|
机器学习/深度学习 人工智能 监控
南洋理工提出全场景图生成PSG任务,像素级定位物体,还得预测56种关系
南洋理工提出全场景图生成PSG任务,像素级定位物体,还得预测56种关系
139 0