认知科学建模研究、认知神经科学的限制:建模笔记翻译(3)

简介: 认知科学建模研究、认知神经科学的限制:建模笔记翻译(3)

内容接上篇 建模教学和认知科学的发展:建模笔记翻译(2)

原标题:Notes for a Modeling Theory of Science, Cognition and Instruction

作者:戴维·赫斯特内斯(David Hestenes) ,亚利桑那州立大学(Arizona State University)

摘要:建模理论为跨学科研究提供基础,涉及到科学、教育研究和认知的许多方面,对科学实践、教学设计,科学、数学和常识之间建立联系都有重要意义。

大辉划重点:

4.认知科学建模研究

认知科学研究有望成为一门普遍的心理科学,它跨越了所有的科学领域。Box 2列出了我认为与建模高度相关的研究,也是我正在推广的理论。

Box 2:认知科学建模研究

科学哲学

  • 罗纳德·基尔(基于模型的科学哲学)
  • Jon Barwise(基于图表的演绎推理)

科学历史和社会学

  • 托马斯·库恩(《范式驱动研究》)
  • Maxwell (类比建模)

认知心理学

  • Dedre Gentner  (类比推理)
  • Philip Johnson-Laird (心智模型推理)
  • 特维斯基(空间心理模型与视觉图像)

认知语言学

  • George Lakoff( 隐喻与径向范畴)
  • Ronald Langacker (认知语法与意象图式)

认知神经科学

  • Michael O’Keeffe  (海马体作为认知地图)
  • Stephen Grossberg (神经网络理论)

物理教育研究

  • Andy 迪萨 (现象学原语)
  • John Clement (桥接类比)

信息&设计科学

  • (UML)通用建模语言& 面向对象编程

这个列表只是概要性的,很多我最喜欢的都省略了。这些科学家的工作效率非常高,即使是最重要的工作也无法全部列出。我呼吁大家关注各种研究主题,在讨论具体问题时,这些主题将随着引用而扩展。

参考文献 [15,16] 为 Giere、Nercessian 和根特纳的重要著作提供了一个入口,这些著作与我自己的想法相似,以至于很难相信各自是独立开发的。这说明了一个事实——重要思想是隐含在科学文化中,等待着研究者去阐释和培养。

在接下来的章节中,我将强调建模理论与认知语言学的关系——尤其是George Lakoff[17-20]的观点。语言是心灵的窗口,语言学研究已经从大量的数据中提炼出对语言结构和使用的深刻洞察。我的目的是将这些见解应用于理解科学和数学。认知语言学使这项工作成为可能,因为它重建了语言学理论,与最近的认知科学革命保持一致。

5.认知神经科学的限制

认知神经科学将认知解释为大脑的一个功能。它在心理学和生物学之间架起了桥梁。要解决的问题是匹配认知理论(心理学层面上)和神经网络理论(生物学层面上)。已经有相当多的证据支持认知(心理层面)是基于感觉运动系统(生物层面)的工作假设

证据有三类:

  • 软约束:来自认知科学,特别是经认知语言学验证的认知结构模型。
  • 硬约束:识别出特定的神经结构和神经机制,支持认知和记忆。
  • 进化限制:一个关于大脑如何进化来支持认知的合理解释。

一些评论将有助于明晰这些主题。

生物学告诉我们,大脑适应性地进化出导航能力,这个能力让我们找到食物并对威胁做出反应。感知和行为肯定是建立在可识别的感觉运动系统的大脑结构之上。

然而,并没有类似的专门用于认知的大脑结构被发现。这有力地表明,认知也是建立在感觉运动系统之上的。那么,主要问题是:感觉运动系统的哪些适应和扩展是支持认知所必需的?

我认为,尽管自省在科学上名声不佳,但它是认知信息的重要来源,多年来哲学家、语言学家和数学家一直在系统地探索这一问题。正如康德首先意识到,Lakoff 最近阐述,数学的结构是由我们思考方式上的硬性约束所塑造的。

一个主要的结论是几何概念(根植于感觉运动系统)是数学系统中关系结构的主要来源。

我基本上同意 MarkJohnson 的新康德认知理论,该理论借鉴了认知语言学的软约束。但是它需要感觉运动神经科学的严格约束来协调支持。这为认知神经科学的研究确定了一个很有前途的方向,斯蒂芬· 格罗斯伯格的研究计划提供了追求它的最佳理论资源,也印证了我的观点。

(未完待续……)

目录
相关文章
|
28天前
|
机器学习/深度学习 人工智能
类人神经网络再进一步!DeepMind最新50页论文提出AligNet框架:用层次化视觉概念对齐人类
【10月更文挑战第18天】这篇论文提出了一种名为AligNet的框架,旨在通过将人类知识注入神经网络来解决其与人类认知的不匹配问题。AligNet通过训练教师模型模仿人类判断,并将人类化的结构和知识转移至预训练的视觉模型中,从而提高模型在多种任务上的泛化能力和稳健性。实验结果表明,人类对齐的模型在相似性任务和出分布情况下表现更佳。
57 3
|
13天前
|
机器学习/深度学习 人工智能 机器人
推荐一些关于将图形学先验知识融入人工智能模型的研究论文
推荐一些关于将图形学先验知识融入人工智能模型的研究论文
|
4月前
|
数据采集 机器学习/深度学习 自然语言处理
利用阿里云实现情感分析:从理论到实践
在当今数字化时代,了解用户的情感和态度对于企业和组织来说至关重要。情感分析(Sentiment Analysis)是一种自然语言处理技术,用于识别和提取文本中的主观信息,如情感倾向和情绪状态。本文将介绍如何使用阿里云平台提供的工具和服务来实施情感分析,并探讨其在不同场景下的应用。
241 0
利用阿里云实现情感分析:从理论到实践
|
6月前
|
测试技术 计算机视觉
斯坦福新研究提升大模型长视频理解能力
【2月更文挑战第29天】斯坦福大学研究团队开发的VideoAgent系统在长视频理解上取得突破,提升了大型语言模型处理视频内容的能力。该系统通过模拟人类认知过程,以高效(平均8.4帧)实现高准确率(54.1%和71.3%的零样本准确率),在EgoSchema和NExT-QA基准测试中超越现有最佳方法。VideoAgent借鉴人类观看视频的方式,迭代选择关键帧进行信息提取和推理,为长视频理解设定新标准。论文链接:[arxiv.org/pdf/2403.10517.pdf](https://arxiv.org/pdf/2403.10517.pdf)
224 1
斯坦福新研究提升大模型长视频理解能力
|
6月前
|
机器学习/深度学习 人工智能 知识图谱
LeCun视觉世界模型论文,揭示AI学习物理世界的关键
【2月更文挑战第16天】LeCun视觉世界模型论文,揭示AI学习物理世界的关键
71 2
LeCun视觉世界模型论文,揭示AI学习物理世界的关键
|
6月前
|
存储 自然语言处理 文字识别
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
2713 0
|
机器学习/深度学习 人工智能 算法
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
138 0
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
|
机器学习/深度学习 人工智能 编解码
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
深度视觉模型在高风险领域有着广泛的应用。因此它们的黑匣子性质目前吸引了研究界的极大兴趣。论文在《可解释的人工智能》中进行了第一次调查,重点是解释深度视觉模型的方法和指标。涵盖了最新技术的里程碑式贡献,论文不仅提供了现有技术的分类组织,还挖掘了一系列评估指标,并将其作为模型解释的不同特性的衡量标准进行整理。在深入讨论当前趋势的同时,论文还讨论了这一研究方向的挑战和未来途径。
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
|
机器学习/深度学习 人工智能 算法
人工智能机器学习底层原理剖析,人造神经元,您一定能看懂,通俗解释把AI“黑话”转化为“白话文”
按照固有思维方式,人们总以为人工智能是一个莫测高深的行业,这个行业的人都是高智商人群,无论是写文章还是和人讲话,总是讳莫如深,接着就是蹦出一些“高级”词汇,什么“神经网络”,什么“卷积神经”之类,教人半懂不懂的。尤其ChatGPT的风靡一时,更加“神话”了这个行业,用鲁迅先生形容诸葛武侯的话来讲:“多智而近妖”。 事实上,根据二八定理,和别的行业一样,人工智能行业内真正顶尖的天才也就是20%,他们具备真正的行业颠覆能力,可以搞出像ChatGPT这种“工业革命”级别的产品,而剩下的80%也不过就是普通人,每天的工作和我们这些人一样,枯燥且乏味,而之所以会出现类似“行业壁垒”的现象,是因为这个行
人工智能机器学习底层原理剖析,人造神经元,您一定能看懂,通俗解释把AI“黑话”转化为“白话文”
|
人工智能
从BERT到ChatGPT,百页综述梳理预训练大模型演变史(1)
从BERT到ChatGPT,百页综述梳理预训练大模型演变史
240 0
下一篇
无影云桌面