送书福利!从《模型思维》学做一个多模型思考者

简介: 文末送书福利!

编辑推荐

很多人都知道投资者查理·芒格喜欢谈论“思维模型”,他说:“要想获得普世智慧,80~90个重要的模型就能完成90%的工作。”不过在我看来,那其实是一些理解和思考的套路,相当于是新时期的成语典故。

斯科特·佩奇说的模型要高级得多,是学者们使用的那种正规的“理论模型”。斯科特·佩奇是密歇根大学复杂性研究中心“掌门人”,著有《模型思维》《多样性红利》,他的“模型思维课”有超过100万用户在学习和使用。

在新书《模型思维》里,佩奇不仅讲清楚了做一个多模型思考者在当今复杂社会的意义,还讲解了二三十个模型,教我们成为多模型思考者,科学地使用模型进行思考。这是一个武器级的概念,想要理解它,你的思维方式需要先升级。

《模型思维》(The Model Thinker )

作者:【美】斯科特·佩奇(Scott Page)

出版社:湛庐文化/浙江人民出版社

351.jpg

模型,让你的思考正规化

要想用高级方法研究问题和做出决策,首先得让思考正规化。

比如一个小孩踢足球,他竭尽全力也没踢出去多远,而一个大人飞起一脚,球就会被踢得很远。有人对这个现象总结了一个规律:踢球的力量越大,球飞得就越远。

这是很不错的观察和思考。足球运动员通过训练能对“球性”有深刻的体察,但是如果你让他谈力量和距离的关系,他也只能说到这个程度。各种古代成语典故,比如唇亡齿寒、扬汤止沸,以及《孙子兵法》等古代军事将领写的兵书战策,也都是这个水平的思考。这些思考都是有用的……但是,这种思考方式太落后了。

首先它不精确。如果把力量增大一倍,球的飞行距离能增加多少呢?其次它没有适用范围。这个道理一直都对吗?在什么情况下会不好用呢?这样的思考都回答不了。

我们身处复杂世界里的现代人,可不能靠成语典故和寓言故事指导决策,因为这样水平的思考没有精致推演的能力。现代学者都在使用更高级的思考方式。
最起码的一点,一个数学公式能抵千言万语。想要知道踢球的力量和球的飞行距离的关系,我们首先用牛顿第二定律公式描写力量和加速度的关系,然后通过加速度和触球时间计算速度,再考虑地球引力和空气阻力……这听起来比较麻烦,但是这一套思考允许你做精致的推演。

这就是思考方式的正规化。我们思考的其实已经不是具体的球和具体的踢球者了,我们思考的是一个抽象出来的踢球模型。

模型是对真实世界的抽象。正规化就是抽象化,抽象化才能可推导,而可推导是个非常厉害的能力。其实我们每次做数学应用题,都是在使用一个模型。你知道题目包含的假设,和因果关系,就能用数学推导出一个结果。

一旦思维上升到模型的高度,我们就不再是普通老百姓水平了,一般的道理就骗不了我们。

模型,让你的决策更精确

如果“多样性”说的是观察问题的“视角”,“模型”说的就是研究问题的“镜头”。

模型不仅可以提升个人思考水平,国家都在用模型做决策。2008年金融危机期间,美国财政部在关键时刻出手,购买了AIG公司(美国国际集团,American International Group)的资产,最终使得 AIG 没有倒闭。这个救援行动遭到了各方的猛烈批评,有人说这等于是政府直接干预经济,违背了自由市场的理念;有人说雷曼兄弟公司为什么不救援呢?雷曼破产了AIG却没事,这公平吗?

美国政府行事的逻辑在哪呢?讲故事不如看模型。下面这张图是当时国际货币基金组织搞的一个模型,描写了各大金融机构之间的网络关系 ——
353.jpg

各个机构之间的连线代表他们的关联,连线越粗越越深,关联就越强。AIG处在关系网的一个中心位置,很多金融机构购买了AIG提供的资产保险,如果他们资产的价值下降,AIG会给他们兜底。

有了这个模型,我们就可做推演了。可以想象如果AIG倒闭会发生什么?使用数学推导,我们知道其他机构就会拿不到保险金,他们也会跟着倒闭,结果很可能是灾难性的连锁反应。AIG是“大到不能倒”,这就是为什么要救AIG。那为什么不救雷曼兄弟呢?因为模型中雷曼兄弟并不具有AIG这么核心的位置。

事实证明雷曼兄弟的倒闭并没有牵扯到整个金融系统,模型的预测可以说是准确的。金融危机过去之后,美国政府又卖掉了AIG的资产,一进一出从中还净挣了230亿美元……可以说当初救援AIG是一个正确的决定。

模型帮我们看清了各个金融机构之间关系的本质。如果没有这个模型,只说AIG很重要,就不足以做出这种精确而大胆的操作。但是问题来了,模型有那么多,当初为什么要选择这个模型呢?

为什么不考虑各个金融机构高官的任职情况呢?为什么不考虑这些机构在历史上对美国所做的贡献呢?为什么不考虑对舆论的影响呢?

简单地说,只看关系模型,是因为我们想要的只是金融市场的稳定。不简单地说,忽略其他因素,这是一个非常主观的冒险选择。

在多模型中选择模型,需要智慧。

从数据到智慧,成为一个多模型思考者

为了进一步理解模型,佩奇讲解了一个智慧层次结构,也是认知上的金字塔。

金字塔的最底层是数据。数据代表各种事件和现象,比如出门看见下雨,这就是一个数据。数据本身没有组织和结构,也没有意义。数据只能告诉你发生了什么,并不能让你理解为什么会发生。

数据的上一层是信息。信息是结构化的数据。看见下雨只是数据,但如果有人统计哈尔滨市在2019011月份这一个月总共下了多少雨,这就不是简单的数据了,而是信息。信息就可以用来做分析和解读。

信息再往上一层是知识。知识能把信息组织起来,告诉我们事件之间的逻辑联系。有云导致下雨,因为下雨所以天气变得凉快,这都是知识。成语典故和思维套路都是知识。模型,则可以说是一种高级知识,能解释和预测。

认知金字塔的最上一层,是智慧。智慧是识别和选择相关知识的能力。

一个人可能掌握很多模型,但是具体到这个问题到底该用哪个模型,敢不敢用这个模型,则是智慧。

作者佩奇举了一个例子。一只小猫从4000米的高空掉下来,请问它会给地面造成什么样的危害?我们得先选一个模型。

用最简单的重力加速度模型,我们会发现猫触地之前的速度非常非常快,它会在地上砸出一个大坑。但是用一个更复杂的模型,考虑到空气阻力,物体在大气层中的掉落速度其实会趋向一个恒定的数值,并没有那么快,那么危害就不会很大。如果掉下来的是一只小老鼠,甚至可能都不会死。

所以说,从数据到智慧,这是真正意义上的认知升级。

如果一个人浑浑噩噩地混日子,只体验而不总结,他得到的就只有数据。

有人偶尔看新闻,知道现在发生的事情都是什么意思,他就获得了信息。

有人能从经验中总结一些规律,还从书本上学到一些说法,他就拥有了知识。

为什么有很多人说“学了很多知识,却仍然过不好这一生”呢?因为有知识不等于有智慧。有智慧,会选择该用哪个知识,能使用模型做出决策,而且还真敢去执行,那才是真本事。

从数据到智慧,你会发现越往上就越主观。信息已经是个性化的总结。知识中的因果关系已经是主观的判断。而智慧,更可以说是一种艺术。

到底该选哪个模型?没有固定的操作流程。

经济学家有句名言说“所有模型都是错的,其中有一些是有用的。”模型说的不是真实世界,而是对真实事件的抽象和简化。我们必须忽略很多因素,才能让问题可以推演。而这么做的危险是可能得到完全错误的结论。

所以需要了解每个模型的优点和局限性,需要有举一反三的能力,更需要有创造性。

延续之前一本《多样性红利》的逻辑,佩奇特别强调,有时候需要同时使用多个模型,才能做出准确的预测和判断。

所以说,模型是对真实世界的一种主观抽象描写,代表正规化的思考。模型通过严谨的定义和数学逻辑关系,允许我们做精致的推演,从而获得精确交流、解释、判断、设计、预测、探索和采取行动的能力。而选择什么样的模型、选择一个还是几个模型,则是智慧。

希望佩奇讲的这些模型能成为你认知工具箱里的常备武器……因为使用了数学,其中有些武器的精确度超出想象。

目录

序言 这本书是怎样写成的
Part 1 为什么需要模型思维
01 做一个多模型思考者
02 模型的7大用途
03 多模型思维
04 对人类行为者建模
Part 2 模型思维
05 正态分布
06 幂律分布
07 线性模型
08 非线性模型
09 与价值和权力有关的模型
10 网络模型
11 广播模型、扩散模型和传染模型
12 熵:对不确定性建模
13 随机游走
14 路径依赖模型
15 局部互动模型
16 李雅普诺夫函数与均衡
17 马尔可夫模型
18 系统动力学模型
19 基于阈值的模型
20 空间竞争模型与享受竞争模型
21 博弈论模型
22 合作模型
23 与集体行动有关的问题
24 与机制设计有关的模型
25 信号模型
26 学习模型
27 多臂老虎机问题
28 崎岖景观模型
结语
像芒格一样智慧地思考——多模型思维的实际应用

送书活动

1.扫码加阿里妹微信
阿里妹2号.jpg

2.分享这篇文章到朋友圈,并保留到开奖时。
3.在下方小程序中参与抽奖,抽2名同学送价值150元的《模型思维》(中奖者未转发则不可领奖哦)
352.png
4.2019年12月13日17点开奖

相关文章
|
7月前
|
机器学习/深度学习 数据采集 存储
4个维度讲透ChatGPT技术原理,揭开ChatGPT神秘技术黑盒
4个维度讲透ChatGPT技术原理,揭开ChatGPT神秘技术黑盒
|
1天前
|
机器学习/深度学习 测试技术
LeCun赞转!类Sora模型能否理解物理规律?字节豆包大模型团队系统性研究揭秘
近日,字节跳动豆包大模型团队发布论文,探讨视频生成模型(如类Sora模型)在理解物理规律方面的能力,引起广泛关注并获Yann LeCun点赞。研究通过2D模拟平台测试扩散模型,发现其在分布内表现优异,但在分布外和组合泛化上存在不足,揭示了基于案例的泛化和特征优先级机制。这表明,仅靠视觉数据难以学习到真正的物理规律,未来需引入物理先验知识以提升模型性能。
28 16
|
1月前
|
人工智能 机器人
朱玉可团队新作:看一眼就能模仿,大模型让机器人轻松学会撒盐
朱玉可团队来自UT Austin和NVIDIA Research,提出了一种名为OKAMI的新方法,通过模仿人类行为视频,使机器人能快速学会操作技能,如撒盐、放玩具等。OKAMI分为参考计划生成和对象感知重定位两阶段,显著提高了机器人的操作精度和适应能力,减少了传统方法所需的大量示范和训练时间。
21 3
|
1月前
|
机器学习/深度学习 人工智能 算法
视频生成模型变身智能体:斯坦福Percy Liang等提出VideoAgent,竟能自我优化
斯坦福大学Percy Liang团队推出VideoAgent,一种能生成高质量视频并自我优化的模型。它结合强化学习和监督学习,根据用户反馈和环境变化自动调整,提升视频生成质量和用户体验,但同时也面临模型不稳定性和高资源需求等挑战。
35 6
|
2月前
|
机器学习/深度学习 数据采集 人工智能
揭开大模型幻觉之谜:深入剖析数据偏差与模型局限性如何联手制造假象,并提供代码实例助你洞悉真相
【10月更文挑战第2天】近年来,大规模预训练模型(大模型)在自然语言处理和计算机视觉等领域取得卓越成绩,但也存在“大模型幻觉”现象,即高准确率并不反映真实理解能力。这主要由数据偏差和模型局限性导致。通过平衡数据集和引入正则化技术可部分缓解该问题,但仍需学界和业界共同努力。
40 4
|
4月前
|
机器学习/深度学习 算法 Python
**《惊世发现!揭开机器学习 k-近邻算法测试的神秘面纱,震撼你的认知边界!》**
【8月更文挑战第16天】k-近邻算法(kNN)是机器学习中一种直观且有效的分类与回归方法。它基于距离度量,对新样本找到训练集中最近的k个邻居并根据多数表决预测类别。通过示例展示了如何使用Python和`sklearn`库实现kNN,并采用交叉验证优化k值以提高模型的稳定性和准确性。充分测试kNN有助于在实际问题中发挥其最大效能。
37 1
|
4月前
|
人工智能 测试技术
真相了!大模型解数学题和人类真不一样:死记硬背、知识欠缺明显,GPT-4o表现最佳
【8月更文挑战第15天】WE-MATH基准测试揭示大型多模态模型在解决视觉数学问题上的局限与潜力。研究涵盖6500题,分67概念5层次,评估指标包括知识与泛化不足等。GPT-4o表现最优,但仍存多步推理难题。研究提出知识概念增强策略以改善,为未来AI数学推理指明方向。论文见: https://arxiv.org/pdf/2407.01284
61 1
|
7月前
|
机器学习/深度学习 编解码 自然语言处理
华为诺亚实验室提出CFT | 大模型打压下语义分割该何去何从?或许这就是答案!
华为诺亚实验室提出CFT | 大模型打压下语义分割该何去何从?或许这就是答案!
95 0
|
SQL 机器学习/深度学习 自然语言处理
个人眼中的大模型
纵观最近两年互联网科技圈,大模型在自然语言工程领域的崛起确实给我们带来了很多新的可能性和机遇。结合我最近阅读了阿里开发者写的《应用开发者的疑问:大模型是真正的银弹吗?》这篇文章,是否可以将大模型视为真正的银弹呢?关于这个问题,我有一些个人观点想要分享一下,分享一下个人是否觉得大模型就是真正的银弹。
171 1
个人眼中的大模型
思维模型No.63|让你洞察本质的「冰山模型」
思维模型No.63|让你洞察本质的「冰山模型」
155 0