认知科学建模研究、认知神经科学的限制:建模笔记翻译(3)

简介: 认知科学建模研究、认知神经科学的限制:建模笔记翻译(3)

内容接上篇 建模教学和认知科学的发展:建模笔记翻译(2)

原标题:Notes for a Modeling Theory of Science, Cognition and Instruction

作者:戴维·赫斯特内斯(David Hestenes) ,亚利桑那州立大学(Arizona State University)

摘要:建模理论为跨学科研究提供基础,涉及到科学、教育研究和认知的许多方面,对科学实践、教学设计,科学、数学和常识之间建立联系都有重要意义。

大辉划重点:

4.认知科学建模研究

认知科学研究有望成为一门普遍的心理科学,它跨越了所有的科学领域。Box 2列出了我认为与建模高度相关的研究,也是我正在推广的理论。

Box 2:认知科学建模研究

科学哲学

  • 罗纳德·基尔(基于模型的科学哲学)
  • Jon Barwise(基于图表的演绎推理)

科学历史和社会学

  • 托马斯·库恩(《范式驱动研究》)
  • Maxwell (类比建模)

认知心理学

  • Dedre Gentner  (类比推理)
  • Philip Johnson-Laird (心智模型推理)
  • 特维斯基(空间心理模型与视觉图像)

认知语言学

  • George Lakoff( 隐喻与径向范畴)
  • Ronald Langacker (认知语法与意象图式)

认知神经科学

  • Michael O’Keeffe  (海马体作为认知地图)
  • Stephen Grossberg (神经网络理论)

物理教育研究

  • Andy 迪萨 (现象学原语)
  • John Clement (桥接类比)

信息&设计科学

  • (UML)通用建模语言& 面向对象编程

这个列表只是概要性的,很多我最喜欢的都省略了。这些科学家的工作效率非常高,即使是最重要的工作也无法全部列出。我呼吁大家关注各种研究主题,在讨论具体问题时,这些主题将随着引用而扩展。

参考文献 [15,16] 为 Giere、Nercessian 和根特纳的重要著作提供了一个入口,这些著作与我自己的想法相似,以至于很难相信各自是独立开发的。这说明了一个事实——重要思想是隐含在科学文化中,等待着研究者去阐释和培养。

在接下来的章节中,我将强调建模理论与认知语言学的关系——尤其是George Lakoff[17-20]的观点。语言是心灵的窗口,语言学研究已经从大量的数据中提炼出对语言结构和使用的深刻洞察。我的目的是将这些见解应用于理解科学和数学。认知语言学使这项工作成为可能,因为它重建了语言学理论,与最近的认知科学革命保持一致。

5.认知神经科学的限制

认知神经科学将认知解释为大脑的一个功能。它在心理学和生物学之间架起了桥梁。要解决的问题是匹配认知理论(心理学层面上)和神经网络理论(生物学层面上)。已经有相当多的证据支持认知(心理层面)是基于感觉运动系统(生物层面)的工作假设

证据有三类:

  • 软约束:来自认知科学,特别是经认知语言学验证的认知结构模型。
  • 硬约束:识别出特定的神经结构和神经机制,支持认知和记忆。
  • 进化限制:一个关于大脑如何进化来支持认知的合理解释。

一些评论将有助于明晰这些主题。

生物学告诉我们,大脑适应性地进化出导航能力,这个能力让我们找到食物并对威胁做出反应。感知和行为肯定是建立在可识别的感觉运动系统的大脑结构之上。

然而,并没有类似的专门用于认知的大脑结构被发现。这有力地表明,认知也是建立在感觉运动系统之上的。那么,主要问题是:感觉运动系统的哪些适应和扩展是支持认知所必需的?

我认为,尽管自省在科学上名声不佳,但它是认知信息的重要来源,多年来哲学家、语言学家和数学家一直在系统地探索这一问题。正如康德首先意识到,Lakoff 最近阐述,数学的结构是由我们思考方式上的硬性约束所塑造的。

一个主要的结论是几何概念(根植于感觉运动系统)是数学系统中关系结构的主要来源。

我基本上同意 MarkJohnson 的新康德认知理论,该理论借鉴了认知语言学的软约束。但是它需要感觉运动神经科学的严格约束来协调支持。这为认知神经科学的研究确定了一个很有前途的方向,斯蒂芬· 格罗斯伯格的研究计划提供了追求它的最佳理论资源,也印证了我的观点。

(未完待续……)

目录
相关文章
|
9天前
|
机器学习/深度学习 人工智能 机器人
推荐一些关于将图形学先验知识融入人工智能模型的研究论文
推荐一些关于将图形学先验知识融入人工智能模型的研究论文
|
2月前
|
自然语言处理 数据安全/隐私保护
整合 200 多项相关研究,大模型终生学习最新综述来了
【9月更文挑战第26天】近年来,大型语言模型(LLMs)在自然语言处理、智能问答及内容生成等领域广泛应用。面对不断变化的数据、任务和用户偏好,LLMs需具备适应能力。传统静态数据集训练方式难以满足需求,因此提出了“终身学习”方法,使模型持续学习新知识并避免遗忘旧知识。最新综述文章整合200多项研究,将终身学习分为内部知识(连续预训练和微调)与外部知识(基于检索和工具)两大类,涵盖12种应用场景,探讨了模型扩展和数据选择等新兴技术。然而,终身学习也面临计算资源、知识冲突及数据安全等挑战。
54 6
|
6月前
|
机器学习/深度学习 人工智能 知识图谱
LeCun视觉世界模型论文,揭示AI学习物理世界的关键
【2月更文挑战第16天】LeCun视觉世界模型论文,揭示AI学习物理世界的关键
66 2
LeCun视觉世界模型论文,揭示AI学习物理世界的关键
|
6月前
|
存储 自然语言处理 文字识别
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
MLLM首篇综述 | 一文全览多模态大模型的前世、今生和未来
2692 0
|
机器学习/深度学习 人工智能 安全
调查分析两百余篇大模型论文,数十位研究者一文综述RLHF的挑战与局限
调查分析两百余篇大模型论文,数十位研究者一文综述RLHF的挑战与局限
333 0
|
机器学习/深度学习 人工智能 算法
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
138 0
自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法
|
机器学习/深度学习 人工智能 编解码
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
深度视觉模型在高风险领域有着广泛的应用。因此它们的黑匣子性质目前吸引了研究界的极大兴趣。论文在《可解释的人工智能》中进行了第一次调查,重点是解释深度视觉模型的方法和指标。涵盖了最新技术的里程碑式贡献,论文不仅提供了现有技术的分类组织,还挖掘了一系列评估指标,并将其作为模型解释的不同特性的衡量标准进行整理。在深入讨论当前趋势的同时,论文还讨论了这一研究方向的挑战和未来途径。
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
|
机器学习/深度学习 人工智能 自然语言处理
从BERT到ChatGPT,百页综述梳理预训练大模型演变史(2)
从BERT到ChatGPT,百页综述梳理预训练大模型演变史
368 0
|
人工智能
从BERT到ChatGPT,百页综述梳理预训练大模型演变史(1)
从BERT到ChatGPT,百页综述梳理预训练大模型演变史
240 0
|
机器学习/深度学习 人工智能 算法
深度学习怎么入门?一文弄清楚最常见的专业词汇
深度学习怎么入门?一文弄清楚最常见的专业词汇
163 0
深度学习怎么入门?一文弄清楚最常见的专业词汇