理解推理行为

简介: 理解推理行为

人类的推理行为大致分为两种模式:经验模式(归纳)和认知模式(演绎)。经验模式另外更通俗的说法叫做:“直觉”(或“因果判定”)。

从进化来看,经验模式已经内嵌在人类的基因之中,最符合生存的需要,除却生死,皆为闲事。谈虎色变,望风而逃,依靠历史经验,既有模式,才能让人类在进化中更大程度的存活下来。生死之间,没有从容不迫,推理演绎的空间。

从心理学来看,人类不仅喜欢对已发生的事实因果归纳,对未发生的事也有难以抑制的归因冲动。简化背景过程,寻找模式,降低复杂性,减轻了我们的记忆负担;秩序、控制感、确定性,极大的满足了我们的“安全”诉求。

然而,直觉模式大多数情况下显得并不是多么可靠。

其一,与人类早期的面临的环境截然不同,当前发生的事件,依赖自身已有的知识或者已知的信息,已经不足以有效完成因果判定。要想得出正确的结论,往往需要强大的专业知识。

美国阿波罗登月:伟大创举or惊世骗局?

其二,美化的东西和柏拉图式的简化东西天生容易被看见,我们喜欢已知的模式和有条理的知识。对已有知识的信念,甚至让我们对现实正在发生的事物达到视而不见的程度。

其三,信息妨碍知识,对于经验、现实的细节了解的越多,看到的噪点就越多,也就可能把信息错当成真实信息。

其四,对于很多复杂系统涌现的特征,甚至无法使用科学的方法进行合理的解释。

1990 年,《展示杂志》(Parade Magazine)的专栏作家莎凡特(Marilyn vos Savant)曾撰文叙述三门问题:

假设你正在参加一个游戏节目,你被要求在三扇门中选择一扇:其中一扇后面有一辆车,其余两扇后面则是山羊。你最初选择了一道门,假设是一号门,然后知道所有门后面有什么的主持人,开启了另一扇后面有山羊的门,假设是三号门。他然后问你:“你想选择二号门吗?”你想想:转换你之前的选择对你得到车有帮助吗?

并给出了她的答案:改变初选会更有好处。

在所有认为该换和不该换的争论中,正反两方形成了两种对立的观点。

一种是认为不换的中奖几率是1/3,换的话将有2/3的几率中奖,因此当然应该换

另外一种观点认为现在只有一辆车一只羊分别在两个门里,换不换当然都一样,几率都是50% (大脑直觉)

大脑的直觉认为:主持人选择的是山羊的门已经发生的确定的事情。殊不知,如此确定的事情其实发生的时间并不是“在找的时刻”,而是在判断和决策之后。

上面故事的意义在于说明:

  1. 当新的信息产生,当我们依赖的信息已经过时,那么我们当初做的选择是不是还足够可靠。我们的决策都是基于判断的基础之上的,而每一个判断大都是基于贝叶斯的后验概率。
  2. 对于已知的东西,直觉模式(方法论)才有用。不变的事物似乎会有专家,新生的事物面前,通常是没有专家的。能做的就是保持开放的心态,保持信念,不断探索试错,才能对新生事物有更加深入的认知。**

本文作者 : cyningsun

本文地址https://www.cyningsun.com/07-16-2018/reasoning-skill.html

版权声明 :本博客所有文章除特别声明外,均采用 CC BY-NC-ND 3.0 CN 许可协议。转载请注明出处!

# 软技能

  1. 快速迭代阅读法
  2. 学习方法论小结
  3. 如何系统性的阅读
  4. 如何理解和控制情绪
  5. 学习学习再学习
目录
相关文章
|
机器学习/深度学习 人工智能 API
使用TensorRT-LLM进行高性能推理
LLM的火爆之后,英伟达(NVIDIA)也发布了其相关的推理加速引擎TensorRT-LLM。TensorRT是nvidia家的一款高性能深度学习推理SDK。此SDK包含深度学习推理优化器和运行环境,可为深度学习推理应用提供低延迟和高吞吐量。而TensorRT-LLM是在TensorRT基础上针对大模型进一步优化的加速推理库,它号称可以增加4倍的推理速度。
531 0
|
6月前
|
机器学习/深度学习 人工智能 Cloud Native
大语言模型推理提速,TensorRT-LLM 高性能推理实践
大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。
101664 2
|
6月前
|
物联网 Shell Swift
NPU推理&微调大模型实战
本文为魔搭社区轻量级训练推理工具SWIFT微调实战教程系列
|
3月前
|
机器学习/深度学习 数据采集 人工智能
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
271 0
【机器学习】QLoRA:基于PEFT亲手量化微调Qwen2大模型
|
3月前
|
机器学习/深度学习 人工智能 关系型数据库
【机器学习】Qwen2大模型原理、训练及推理部署实战
【机器学习】Qwen2大模型原理、训练及推理部署实战
648 0
【机器学习】Qwen2大模型原理、训练及推理部署实战
|
4月前
|
并行计算 PyTorch 算法框架/工具
LLM推理引擎怎么选?TensorRT vs vLLM vs LMDeploy vs MLC-LLM
有很多个框架和包可以优化LLM推理和服务,所以在本文中我将整理一些常用的推理引擎并进行比较。
394 2
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
大模型微调
【7月更文挑战第31天】
119 4
|
5月前
|
缓存 自然语言处理 分布式计算
LLM 推理的极限速度
【6月更文挑战第9天】自然语言处理中的大型语言模型面临着推理速度挑战。为了实现快速推理,优化涉及硬件(如使用高性能GPU)、软件(模型架构设计和算法优化)、数据预处理等方面。代码示例展示了Python中LLM推理时间的计算。其他加速方法包括模型量化、缓存机制和分布式计算。通过多方位优化,可提升LLM的性能,以满足实时应用需求。未来技术发展有望带来更大突破。
166 5
|
11月前
|
自然语言处理 测试技术 异构计算
使用Accelerate库在多GPU上进行LLM推理
大型语言模型(llm)已经彻底改变了自然语言处理领域。随着这些模型在规模和复杂性上的增长,推理的计算需求也显著增加。为了应对这一挑战利用多个gpu变得至关重要。
1578 0
|
6月前
|
缓存 人工智能 自然语言处理
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践