“啤酒尿布”模型管用,说不清因果又怎样?

简介: 好的模型,为什么非得是人能够理解的?有的人,对深度学习(deep learning)模型,很不以为然。说根本没有搞清楚因果关系,只是拿出相关性来说事儿。
img_c60226342e5f478a138fd2376a36e295.jpe

好的模型,为什么非得是人能够理解的?

有的人,对深度学习(deep learning)模型,很不以为然。

说根本没有搞清楚因果关系,只是拿出相关性来说事儿。

尤其是模型无法清楚解释——即不能像牛顿力学一样,用简单优美的数学公式刻画。

img_fb24ed19d0b4ebfb93218c401125318f.jpe

奇怪,为什么模型一定要简单到清清楚楚?

复杂系统已经被研究了这么多年,却还有人恨不得回归前信息化时代。

img_883c9273c2c8c0214243a2f9ea5723e3.jpe

总不能因为你只学过文科班高中物理,就得让全世界的科学研究退回到1800年之前吧?

人是通过大脑,对信息进行加工的。

连这个加工工具,至今都没有完全搞清楚,不是吗?

img_d05177539222155954186920c5c016ee.png

那为何要对机器们在大数据上,辛辛苦苦构造出的模型,如此苛刻?

一个模型,可以准确做分类预测。而且反复在新的、没有训练的数据上尝试过,好用,那不就好了?

虽然不能排除纯是因为运气,但是这种可能概率很小。

img_58d7055309b6e07b164994dd19f14f5e.jpe

好的模型,为什么非得是人能够理解的?

人对于宏观世界,至今缺乏理解。大爆炸只是假说。

人对于微观世界,同样缺乏理解。什么叫“测不准”来着?

人对于暗物质,意见不一。找不到证据,成为了“最好的证据”。

人连时间是什么,还说不清楚。要不然哪儿来的这么多穿越剧?

那凭什么,一个好用的模型,只是因为层数多、结构复杂、无法用数学语言解释给听众,就被鄙视?

img_dfe4eaaa4450e2b58b38c5fe82f918c0.png

其实原因也不难理解。

都在于人类社会协作中的共识。

img_0069d7d8485db13bd17cd21e0d2e9b20.jpe

大家都认同的,很有价值。

例如美元、黄金和一线城市的房地产。

极少数人才认同的,价值没有这么高。

例如2012年的比特币。

img_1dae1fe5334fad732601977afd00f209.png

大部分人都无法理解,自然难以达成共识。

这时候有人出来批评复杂模型,看不懂的人就觉得很爽。

看,我不理解的东西,就一定是不靠谱的,哈哈。

站队的结果,就是大部分连讨论对象是啥,都没有搞清楚的人,跟随主流意见,人云亦云而已。

然而……

共识是会发生变化的,即所谓“范式转移”嘛。

img_8bd81534a8064c282fac48ca0c9cb83a.jpe

喜欢请点赞。还可以微信关注和置顶我的公众号“玉树芝兰”(nkwangshuyi)

如果你对数据科学感兴趣,不妨阅读我的系列教程索引贴《如何高效入门数据科学?》,里面还有更多的有趣问题及解法。

目录
相关文章
|
4月前
|
人工智能 测试技术
真相了!大模型解数学题和人类真不一样:死记硬背、知识欠缺明显,GPT-4o表现最佳
【8月更文挑战第15天】WE-MATH基准测试揭示大型多模态模型在解决视觉数学问题上的局限与潜力。研究涵盖6500题,分67概念5层次,评估指标包括知识与泛化不足等。GPT-4o表现最优,但仍存多步推理难题。研究提出知识概念增强策略以改善,为未来AI数学推理指明方向。论文见: https://arxiv.org/pdf/2407.01284
58 1
|
6月前
|
机器学习/深度学习 人工智能 监控
算法金 | 奇奇怪怪的正则化
**摘要:** 本文深入浅出地介绍了正则化在机器学习中的作用,旨在防止过拟合,提高模型泛化能力。正则化通过添加惩罚项限制模型复杂度,包括L1(Lasso回归,产生稀疏解)、L2(Ridge回归,减少参数大小)、Elastic Net(结合L1和L2优点)以及Lp正则化等。其他方法如Early Stopping、Dropout和数据增强也是防止过拟合的有效手段。选择正则化方法要考虑数据特性、模型复杂性、计算资源和调参能力。正则化参数设置可通过交叉验证、网格搜索等方法优化。文章最后强调了正则化对控制模型复杂度和提升性能的重要性。
73 8
算法金 | 奇奇怪怪的正则化
|
6月前
|
人工智能
答案抽取正确率达96.88%,xFinder断了大模型作弊的小心思
【6月更文挑战第26天】xFinder模型针对大语言模型(LLMs)的评估难题,提出了强化答案抽取的解决方案,显著提高了准确性至93.42%,超过传统RegEx的74.38%。xFinder设计用于减少模型对特定答案格式的依赖,提升评估可靠性。尽管依赖大量标注数据和需持续优化,该工作为LLM评估提供了新标准[(arxiv.org/abs/2405.11874)]。
48 4
|
6月前
|
BI
假设检验随想
假设检验随想
34 0
|
7月前
|
机器学习/深度学习
药物分子设计新策略,微软条件扩散模型DiffLinker登Nature子刊
【5月更文挑战第5天】微软研究院在Nature子刊发表新成果,提出药物分子设计模型DiffLinker。该深度学习模型利用扩散过程生成具有特定化学性质的分子结构,优化药物效能。DiffLinker能加速设计过程,提高效率,但需大量数据训练,且生成结果可能受数据偏差影响。[[1](https://www.nature.com/articles/s42256-024-00815-9)]
72 2
|
7月前
|
机器学习/深度学习 存储 算法
手写决策树算法——基于决策树的XX联盟游戏胜负预测
手写决策树算法——基于决策树的XX联盟游戏胜负预测
87 0
|
机器学习/深度学习 数据挖掘
基于灰色神经网络的订单需求预测代码(Matlab代码实现)
基于灰色神经网络的订单需求预测代码(Matlab代码实现)
234 0
|
搜索推荐
ICDE 2023 | DCMT:基于因果纠偏的直接全空间多任务转化率预测模型
ICDE 2023 | DCMT:基于因果纠偏的直接全空间多任务转化率预测模型
1151 0
ICDE 2023 | DCMT:基于因果纠偏的直接全空间多任务转化率预测模型
|
编解码 自然语言处理 机器人
哈佛大学砸场子:DALL-E 2只是「粘合怪」,生成正确率只有22%
哈佛大学砸场子:DALL-E 2只是「粘合怪」,生成正确率只有22%
106 0
|
算法
陶哲轩攻克60年几何学难题!发现「周期性密铺猜想」在高维空间反例
陶哲轩攻克60年几何学难题!发现「周期性密铺猜想」在高维空间反例
187 0