2015年中国计算机大会昨天在合肥开幕(查看昨天的详细报道请点击此处),今天会场中的精彩报告有:
- 东京大学喜连川优: 社会可以从大数据中受益
- 微软洪小文:无人驾驶并不聪明
- 360颜水成:深度学习或将重新定义安全技术
- 中国工程院院士郑南宁团队:分享了他们对于类脑计算和视觉认知的看法。
东京大学喜连川优: 社会可以从大数据中受益
中国计算机大会今天进入第二天,东京大学教授、日本国家信息研究所所长喜连川优发表演讲表示:大数据时代里,依靠数据分析技术,不仅企业会从中受益,整个社会也会得到好处。
喜连川优的研究工作为高性能数据库技术的散列连接算法的发展作出了重大贡献,大大提高了在关系数据库系统中的连接操作的性能。他在硬件领域的贡献包括高速分拣系统与先进的内存管理算法,这项工作最终进行了商业化运作,并在2000年获得了Datamation排序基准。他的研究成果——哈希连接算法被广泛应用。
演讲中,喜连川优介绍了日本社会面临大数据来临所面临的难题,同时还介绍了其在孟加拉和日本部分医院采用大数据分析后取得的良好结果。
微软洪小文:无人驾驶并不聪明
微软亚太研发集团主席、微软研究院院长洪小文今天在中国计算机大会上表示:无人驾驶并不聪明,人工智能离人类智能相差很远。
洪小文的演讲从现有人工智能研究的现状出发,包括图像识别、语音识别等等,也介绍了微软小冰在这些领域的发展情况。洪小文透露:现在微软小冰每次轮回问答达到23轮,这从另一个侧面展示了小冰的智能水平。
在IQ测试方面,洪小文展示了其算法如何战胜人类的:
接下来,洪小文着重阐述了他对人工智能和人类智能的区别。他认为,现在人工智能与机器学习、大数据这些名词之间的界限已经消失,某种意义上说,三者指的就是一回事。
洪小文将intelligence(智能)的组成要素分成以下几个:
- capability(功能)
- intelligence(智能)
- intellect(智力)
- wisdom(智慧)
洪小文说,虽然图灵曾断言所有事情都可以被算法计算(computerised),但算法是人类发明的。因此,人类要比机器聪明很多。另一方面,洪小文列举无人驾驶的例子:「无人驾驶一点也不智能,人类驾驶不过通过眼睛和耳朵,而无人驾驶汽车需要大量传感器数据才能做出判断」或许无人驾驶汽车可以开的比人类好,但不能说这些汽车比人聪明。
洪小文指出,早在1960年代人工智能出现之后时代周刊就在封面发出警告,但五十多年过去了,这种警告还在延续。洪小文说:未来的Ai不再是artificial intelligence,而是argument intlligence。
360颜水成:深度学习或将重新定义安全技术
在今天举行的中国计算机大会上,上月刚刚入职360公司的计算机视觉与深度学习专家新加坡国立大学副教授颜水成表示,深度学习技术对于安全领域意义重大。
据机器之心记者了解,颜水成9月刚刚加入360,负责建立和领导360人工智能研究院。公开资料显示,颜水成毕业于北京大学,也是伊利诺伊大学(UIUC)的博士后,目前在新加坡国立大学领导机器学习与计算机视觉实验室。颜水成的主要研究领域是计算机视觉,深度学习,与多媒体分析。
在今天的演讲中,颜水成这种探讨了深度学习对于安全技术的潜在颠覆性,他认为,从硬件到算法再到现有产品的实践都证明,目前深度学习技术领先于其他机器学习算法。具体到360公司的业务布局,在完成桌面互联网、移动互联网的产品布局后,360在智能硬件领域发力。而根据之前网易科技的报道:未来不排除颜水成会推动360智能硬件在人工智能、机器学习以及图像识别方面的技术有突破性成果。举例来说,颜水成擅长的基于深度学习的人脸/一般物体识别技术在智能摄像头、行车记录仪等产品上会有广泛应用场景。
颜水成还在演讲中介绍了360目前的深度学习研究成果,为了更好地监测网络流量,360研究人员利用深度学习分析一段网络流量的来源,其准确度大大优于传统算法:
随着业界对深度学习认可程度提升,国内外诸多企业都在布局相关研究的产品化,相信未来还将有更多基于深度学习的产品出现。
人类为什么要进行类脑研究?
昨天机器之心报道了清华大学类脑计算研究中心学术委员会主任张钹对于类脑计算机研究的看法,而在今天的中国计算机大会上,来自西安交通大学教授、中国工程院院士郑南宁的团队分享了他们对于类脑计算和视觉认知的看法。
人脑是迄今为止最有效的信息处理系统,从生理角度来说,人脑平均重量只有1300克,功耗只有30瓦,这区区30瓦的功耗可以支持1000亿神经元、1万亿神经胶质细胞、1000万亿突触连接、280 quintillon(百万的三次方)记忆单元。而目前世界上运行最快的超级计算机功耗高达17兆瓦,由170个机柜组成。
事实上,1981年日本曾经启动过第五代计算机计划,目标是突破「冯诺伊曼计算机架构」,这个耗资超过8亿美元的项目在1992年宣布失败。近几年来,集成电路计算技术正在向两个方向发展:
- 将既有的芯片技术推向极限,小于7纳米的芯片工艺成为众多芯片厂商攻坚的难题;
- 寻找新的材料和计算方法适应后硅时代,目前已经有的新材料由碳纳米管、石墨烯、忆阻器,计算方法上,量子计算、类脑计算都处在研发中;
另一方面,神经科学、计算机科学、神经网络理论的进步,以及大数据时代对于智能计算的需求使得我们在此聚焦「类脑计算」。类脑计算以神经元作为基本计算和存储单元,利用神经元之间的突触连接传递信息,模拟神经突触的强度变化,其分布式的存储盒分布式的计算党员直接相连构成大规模神经网络计算系统。
本质上说,类脑计算和冯诺伊曼计算架构完全不同,比如在运算和存储上,类脑计算采用紧耦合的运算和存储,而冯诺伊曼计算架构则分离式的。但目前,类脑计算面临诸多困难,首先是我们尚未搞清楚大脑的工作原理,一个最简单的例子:大脑用来处理激励的能量消耗只占了很小的比例,那些与刺激无关的能量消耗到底做了什么?又或者在休眠状态下,人类的记忆会得到强化,这其中的原理又是什么?
其次,现有计算机的计算能力离人脑相差甚远。大脑约有10的11次方神经元,每个神经元约有10的4次方突触连接,以10Hz的速度释放神经脉冲,其计算量约为10的16次方操作,现有的计算机根本无法满足这个计算需求,预计到2019——2023年才有相匹配的计算机出现。
郑南宁的团队表示,目前实现类脑计算的途径包括基于生物学的脑认知模型、基于数据驱动的脑认知模型以及基于数学的脑认知模型。在技术路线上,从组建到系统,利用网络规模和计算能力逐步逼近大脑。