关于人脑的超级错误

简介:

人脑的认识自始至终都是一个哲学问题,在没有搞清楚这个问题之前,我们之前做的任何结论都是无效的,甚至是误导人类的超级错误。

人工智能时代是个重新认识人脑的时代,有些时候我们用人脑去思考人脑,这件事情本身就是一个错误的做法。得出的结论也可想而知,而AI的出现或许能够帮助我们重新认识人脑。

模拟人脑,一直以来都是一些科学家的梦想。随着人工智能的发展,各大公司也纷纷成立了自己的模拟大脑计划。最出名的可能就是谷歌大脑和百度大脑,它们大部分的结构是:云(云计算)——物理层(大规模集群式芯片)——应用层(来自各行业的数据信息)。



人脑

2017年4月份,斯坦福大学和桑迪亚国家实验室的研究人员们构建除了一种人工突触,这给科学家们制造出高效而精巧的大脑仿生计算机提供了契机。但是,现实却是残酷的,模拟人脑这样的场景一般都会出现在科幻电影里面。

科幻大片《超体》讲述了主人公Lucy的大脑利用率由正常的10%扩大到100%后,最终变身为无所不能的“女超人”。影片向我们传递了一个观念,人类只利用了10%的脑容量。其实,之前就有各种说法,说我们人类的大脑利用效率很低。对于这一说法,很多科学家并不认同,科学作家罗比·博伊德表示:并不是我们只使用了大脑的10%,而是这个大脑如何运作的不解之谜,我们仅仅解开了10%而已。因为我们只了解10%,所以我们认为我们只使用了大脑的10%而已。

我个人非常认同这个观点,我觉得人类对于大脑的认知水平有限。对于大脑的神秘性,过分夸大了而已。即便是今天的物理学发展的足够的好,我们也办法解释所有的事情。就像经典物理学的局限性,它没有办法解释高速运动的物体的规律。这也再次证实了,科学是永无尽头的,我们由于缺少基本的科学认知体系,对一些事物的不可解释性也就变成了可解释的了。

经典物理学的局限性被相对论和量子力学解决了,那么说又来解决“相对论”和“量子力学”的局限性?还是说它们本身就没有局限性?我觉得应该是缺少解决理论,而并非没有局限性。或许,解决了这个问题后,人类对大脑的运作机制会有一个更清晰的认识。或许,在未来,我们解释了光速的局限性,制造时间机器也会变成现实。

人类的大脑有几百亿个脑神经细胞,每个神经细胞有几百条脑神经,每条脑神经有几百个突触,每个突触有几百到几千个蛋白质。一个脑细胞的作用相当于一台大型计算机,一个突触的作用相当于计算机的一个芯片,这样可以推算出人的大脑相当于上百万亿块芯片。量变必定导致质变,这可能也是成为大脑大部分机制不可解释的原因之一。

人脑是一台性能极强的超级计算机,而且功耗极低,即便如此,大脑也是我们身体能量主要的消耗者。此外,凭借连接至记忆区的数十亿神经元,人类还能有条不紊的处理信息。这样的基本结构跟机器有着本质的差异。即便我们在很短的时间里,思考感觉、处理海量的信息,大脑也不会因此而爆炸,只是会感觉到些许的疲惫;机器则不同,越快的信息处理速度意味着更大的负荷,而且能源消耗极高。

AlphaGo就是那个下象棋的怪兽,去年打败李世石版本的AlphaGo,下一场棋需要消耗的电费为3000美元,主要是制冷的成本。有专业人士计算,AlphaGo拥有1202个CPU,176个GPU,一场五小时的比赛,耗能为3000兆焦耳,大约相当于一个成年人300天的能量消耗,而这只是核心处理器的能耗而已。

对于人来说,下一场棋索要消耗的能量,虽然不是很少。但是在AlphaGo面前也不敢程度,或许AlphaGo一分钟消耗的能量就超过了人类。

这就引出了一个问题:如果每个人都要拥有一个这样的功能,那要消耗多少能源?未来的能源结构是否能够满足我们对人工智能的需求?

但是,不得不承认的是今天我们的能源结构进化速度是非常慢的。远远赶不上技术的进化速度。所以,今天我就套用一个当下最流行的词语——“供给侧改革”。能不能从算法的基础上来优化人工智能,如果这样做,就必须重新认识人脑。因为在人类已知的世界或者认知中,人脑是最省能量的机器。

在过去的几百年的时间里面,人类从来没有放弃过寻找人脑的秘密。但是,对于很多寻找秘密的人来说,他们大多源于兴趣和对科学的执着。而今天,人工智能的需求将会让我们投入更多的资源去发现人脑,认识人脑。我个人认为认识人脑,将会成为人工智能时代进步的一个重要标志。



芯片

人工智能时代,人类或许需要新的思想大爆炸来作为新时代大厦建设的理论基础,或者是需要将原有的思想更加深入的理解。曾经有一个著名学者说过:人类为什么不能认清人脑,因为人类永远在人脑的基础上去尝试认识人脑。简单的用一句话概况就是:不识庐山真面目,只缘身在此山中。或许今天,我们应该用人工智能去认识人脑,而不是让人脑去认识人脑!

创作不宜,点赞支持!

相关文章
从人脑到大模型:冯诺依曼的提示词工程启示
从人脑到大模型:冯诺依曼的提示词工程启示
LLM为何频频翻车算术题?最新研究追踪单个神经元,大脑短路才是根源
最新研究揭示,大型语言模型(LLM)在解决算术问题时依赖于一组稀疏的重要神经元,这些神经元实现简单的启发式算法,而非稳健的算法或记忆训练数据。通过因果分析,研究人员发现这些启发式算法的组合是LLM产生正确算术答案的主要机制,并在训练早期就已形成。这为改进LLM的算术能力提供了新方向。论文地址:https://arxiv.org/abs/2410.21272
79 10
大模型时代的思考:小心陷入ChatLLMs构建的蜜糖陷阱-基于人类反馈的间接(反向)驯化-你是否有注意到?
本文探讨了大模型基于人类反馈训练的原理及其潜在风险,特别是大模型在迎合用户需求时可能带来的“蜜糖陷阱”。通过实际案例分析,强调了理性使用大模型的重要性,提出了保持批判性思维、明确人机协作边界、提升人类判断力和创新能力等建议,旨在让大模型真正为人类服务,而不是限制人类思维。
185 4
COLM 2:从正确中学习?大模型的自我纠正新视角
【10月更文挑战第11天】本文介绍了一种名为“从正确中学习”(LeCo)的新型自我纠正推理框架,旨在解决大型语言模型(LLMs)在自然语言处理任务中的局限性。LeCo通过提供更多的正确推理步骤,帮助模型缩小解空间,提高推理效率。该框架无需人类反馈、外部工具或手工提示,通过计算每一步的置信度分数来指导模型。实验结果显示,LeCo在多步骤推理任务上表现出色,显著提升了推理性能。然而,该方法也存在计算成本高、适用范围有限及可解释性差等局限。
79 1
论文介绍:下一个词预测的陷阱
【5月更文挑战第3天】《下一个词预测的陷阱》论文反思了此技术在模拟人类思维上的局限,指出自回归推理和教师强制训练两种模式的潜在失败。作者通过实验展示这些模型在简单任务中的失败,提议无教师训练策略以规避问题,并强调理解教师强制训练的失败对改进模型至关重要。该研究为语言模型的发展提供了新的思考方向。[论文链接](https://arxiv.org/pdf/2403.06963.pdf)
58 1
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等