类脑计算的研究进展与发展趋势

简介: 浅见

谈及智能控制方法,很多研究还是在做控制算法的优化,但到目前控制领域乃至整个人工智能领域所面临的两个重大瓶颈其实是存储器和中央处理器分离“冯诺依曼”架构导致的存储墙效应造成能效低下,和引领半导体发展的摩尔定律预计在未来数年内失效。针对这两个问题,未来更适用的智能控制方法,显而易见,应该是基于非冯诺依曼架构的类脑计算控制方法。
在类脑计算领域有三大板块,第一,类脑计算算法、芯片、软件工具链和系统;第二,接口;第三,应用。结合此篇论文,主要说明我对类脑计算算法、芯片以及应用方面的感想。

一、类脑计算算法

之前在总结各种智能算法时,我试着对比真实宇宙与数码世界,后来发现人脑和电脑用基本的原理是正好相反的。真实世界中,每一层都支撑上一层,但数码宇宙却是每一层回到最底层。目前的人工神经网络,只是借助了空间复杂性的描述,完成一种傻瓜式的映射。而对于真正的大脑,一个神经元接一千个一万个神经元。这是扩和缩的概念,计算机是缩,脑是扩,所以最终处理信息的时候是非常快的,所以我们想建立一个一样的架构,就要让计算机的架构保持类脑复杂性。 在物理学角度,这是熵的增减问题,反映到计算机上,这就产生了,能耗、速度和带宽等一系列问题。
因为广义的通用系统,需要控制的元素太多了,而现如今我们的认知能力又有限并且水平不一,所以按照传统智能算法,得出的结论是参差不齐的。所以想提高准确度与认知能力,必须要结合时间和空间空的复杂度,而最有效的方法,不是一味的追求理论上的准确度,而是试错,试错是人类一个非常非常重要的能力。所以训练一个算法模型主要采用通过环境刺激和交互训练实现感知认知等基础性智能,其效率更高,获得的智能也更适应复杂环境。
把时空复杂性结合起来,也就是把空间的编码和时间的编码结合起来,是把一个多维空间的信息转换成0101这样一个的信息量,主频越来越快,这正是编码算法的多维性。

二、类脑计算芯片

类脑计算机的基本元器件是模拟生物神经元和突触的神经形态器件,其特征尺寸与生物对应物相当或更小,不仅可比晶体管更小,而且部分器件出错不影响系统基本功能。
我所了解到目前国内类脑芯片研究成果比较出色的有,寒武纪的类脑智能芯片和清华大学类脑计算中心的天机芯。我在看这些芯片基础资料的同时,了解到,类脑智能芯片发展主要背景的几项技术,这也未来几年智能芯片发展的核心依托技术。
1.先进测量计算的发展,对脑的认识越来越清楚,似乎到了一个拐点,就是人类真正理解脑基本的机制。
2.超级计算机的发展,可以做很多的仿真,省时、省力、省时间。
3.云计算和互联网提供了一个足够复杂的系统,给人进行交付,互动、学习,同时它的发展给我们很多的启示,使我们对它有很好的理解。
4.纳米器件的发展,已经可以做出和人脑能耗差不别级别的器件。
也正是各行各业的技术,一起崛起,让我意识到技术的发展,同人的发展一样,不是要往独当一面的方向发展,而是相互融合的,对于类脑智能,它必须是精密仪器、医学、计算机、自动化、微电子、电子和材料等学科知识相互渗透,相互复合而来。

三、类脑计算应用

一直站在学生的角度看世界,不免对教育有很多看法,其实也只有学生才能深刻的认识教育所面临的问题,比如,教育资源不公平,不能因材施教,理论不联系实际等等。学过了很多智能算法,有没有一种可以颠覆现在的教育系统,根据我们学生的真实需求而受教育呢?我希望类脑计算能,不仅能作为未来认知智能时代,万物智联的主要手段,还能推动教育方式的改革,用思维改进技术,用技术改变思维。
当然,在类脑计算领域中自主开发软件工具链和类脑计算系统也非常重要。其中目前所涉及的智能算法,还只是通用人工智能的算法,软件开发也是基于Tensorflow架构的。所以,我们在类脑计算模型方向的研究还任重道远,也是迫切需要自主解决的,希望未来自己能在这个方向有所突破。

目录
相关文章
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
探索无限:Sora与AI视频模型的技术革命 - 开创未来视觉艺术的新篇章
探索无限:Sora与AI视频模型的技术革命 - 开创未来视觉艺术的新篇章
62 1
|
6月前
|
机器学习/深度学习 存储 人工智能
云和生成式人工智能或成未来趋势
云和生成式人工智能或成未来趋势
|
11月前
|
机器学习/深度学习 人工智能 并行计算
全球首创 :分子之心开源新AI算法,攻克蛋白质侧链预测与序列设计难题
全球首创 :分子之心开源新AI算法,攻克蛋白质侧链预测与序列设计难题
104 0
|
11月前
|
机器学习/深度学习 存储 数据采集
突破边界:高性能计算引领LLM驶向通用人工智能AGI的创新纪元
LLM的发展将为全球和中国AI芯片、AI服务器市场的增长提供强劲动力,据估算,LLM将为全球和中国AI服务器带来约891.2亿美元和338.2亿美元的市场空间。
|
人工智能 数据库
后AlphaFold时代,AI如何持续赋能蛋白质计算?
后AlphaFold时代,AI如何持续赋能蛋白质计算?
|
存储 运维 安全
浪潮“智造者”:方寸之间的计算“炼金术”
浪潮“智造者”:方寸之间的计算“炼金术”
|
机器学习/深度学习 存储 人工智能
四种新兴技术:生物技术、小型卫星、量子计算机和认知增强的认知
  本文4589字,建议阅读12分钟。   本文论述了生物技术、小型卫星、量子计算机和认知增强的安全问题。   本文节选自专著《Technology and National Security: Maintaining America's Edge》,The Aspen Institute ,2022年1月31日。文章题目《Four Emerging Technologies and National Security》。本文讨论了四种新兴技术:生物技术、小型卫星、量子计算机和认知增强,并简要介绍这四种技术及其对美国国家安全的影响,最后提出应对建议。   作者:Jason Mathen
222 0
|
机器学习/深度学习 存储 人工智能
神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
近日,由圣母大学姜炜文博士后,史弋宇教授和 IBM 研究院 Jinjun Xiong 博士开展的研究,实现了首个机器学习和量子计算协同设计框架,QuantumFlow,为神经网络在量子计算机上的实现铺平了道路。
306 0
神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
|
机器学习/深度学习 人工智能 算法
人工智能向“上”生长,可信AI渐行渐近
人工智能向“上”生长,可信AI渐行渐近
118 0
人工智能向“上”生长,可信AI渐行渐近
|
机器学习/深度学习 存储 人工智能
深度学习重新定义安全技术,大数据的益处,无人驾驶并不聪明,类脑计算……
中国计算机大会(China National Computer Congress,简称“ CNCC”)是由中国计算机学会(CCF)主办的全国计算机领域规模最大、规格最高的学术、技术、产业交融互动的大会。
173 0
深度学习重新定义安全技术,大数据的益处,无人驾驶并不聪明,类脑计算……