马少平教授:我的AI研究之路

简介:

最近,有不同人问了我同一个问题:是什么渊源,走上了人工智能这条路。说实话,别说是人工智能,就连进入计算机行业,都完全是阴差阳错的结果,并不是我的主动选择。


1977年,文革结束后,突然传来消息,要恢复高考了,当时我还在读高中,对于怎么填报志愿,一概不知。班主任老师的意见是,什么专业你自己选,学校一定要报清华北大。我问这两所学校的差别,老师说,北大偏文理,清华偏理工。我想了想,觉得自己喜欢理工,就选择了清华,但是还是不知道选择什么专业,在那个小县城里,没有任何资料可供参考。刚好在本地的报纸上刊登了一些学校的专业目录,在清华大学栏目下,我看到了“自动控制”四个字,虽然不知道自动控制是干什么,但凭感觉是个自己喜欢的专业,于是就报了这个专业。


高考结束后,有一天突然收到了被清华大学电子工程系录取的通知书,这电子工程系是干什么的一概不知,中学的老师也没有人知道。刚好一个老师在北京工作的亲戚来探亲,他是文革前毕业的大学生,老师很热心的帮我咨询。这位亲戚看完录取通知书后,很神秘的对我说:这是一个保密专业,就没有任何下文了。


来到学校报到后,才知道我读的就是电子工程系的自动控制专业,此外还有计算机和无线电两个专业。1979年,电子工程系更名为计算机系,而原来的无线电系则从四川绵阳搬回北京,更名为电子工程系。


而当时我们教研组的一些老师,张钹老师、林尧瑞老师、石纯一老师、黄昌宁老师等,则从更早的时候,就在探讨开拓新的研究方向,并选择了人工智能,从1978年就开始招收人工智能方向的研究生,1979年在我系本科中开设人工智能导论课,由林尧瑞老师主讲。我就是在那个课上首次接触了人工智能,印象中教材是一本油印的教材,内容包括至少现在在大多数人工智能教材中还会讲的A*算法、α-β剪枝算法、定理证明等。之后又开设了lisp语言课,由陆玉昌老师主讲,做过的作业包括八皇后问题等。最后的考试有多个题目可选,我选择了使用α-β剪枝算法实现五子棋下棋程序,虽然水平并不高,但也可以下棋了。这应该是我最早实现的人工智能程序,而α-β剪枝算法正是IBM的深蓝所采用的基本算法框架。


1982年本科毕业后,我继续在清华读硕士,研究方向是有关汽车自动驾驶的,也就是现在火热的无人车,论文题目为“汽车行驶的计算机实时控制及性能函数对系统参数灵敏度的计算”。当然那个时候受各种条件的限制,做的还比较简单,我的论文中只实现了左右转弯、躲避固定障碍物等的简单控制。实验室购买了一辆二手的日本车,经改装后作为实验用车,在实际测试时为了观察汽车轨迹是否合理,在车上装了一桶水,通过一个水管流水,记录车的运行轨迹,计算机用的是TRS-80,用的是basic编程语言。


1984年硕士毕业留校后,我开始从事专家系统构建方面的研究工作,和研究生一起,先后实现了好几个专家系统,包括货船积载专家系统、火车编组站调度专家系统和某军事设备故障诊断专家系统等,还申请了一个863项目,机器人故障诊断系统。做专家系统的关键是整理专家知识,为了能跟专家对话,需要花费很多时间学习相关的领域知识,基本上可以称得上半个专家了。比如为了做火车编组站调度专家系统,自学了很多编组站调度方面的书籍,多次去山海关火车站向调度人员请教、学习,到后来,我们也基本可以胜任调度员的工作了,只是做的不如专业调度员快,但我们做的方案基本被对方所认可。掌握了相关知识后,进一步总结整理知识,最后实现的专家系统,可以达到专业调度员的水平,并且速度要快的多,极大的减轻了调度人员的工作强度,提高了工作效率。


我做的最成功的一个专家系统是90年代中期为某企业做的一个市场调查报告自动生成专家系统,是我们系为该企业做的一个信息化系统的一个组成部分。根据以往企业撰写的市场调查报告,总结了若干模板和写作知识,根据企业收集的市场数据,自动完成市场调查报告。为了使得报告内容看起来更加自然和富有变化,我们总结了很多写作知识,所完成的报告,基本可以达到人的水平。该专家系统,结合我们系为该企业做的信息化系统,可以用语音的形式播报市场调查报告,并配合语音的进度,自动在计算机屏幕上,显示各种图表等,相关的同步信息,也是由专家系统自动生成的。


从1992年,我又开始从事汉字识别方面的研究工作,选择了被认为难度最大的脱机手写体汉字识别,也就是对写在纸上、经扫描得到的汉字图象做识别。1994年我在职攻读博士学位,研究方向就是有关脱机手写体汉字识别方面的。在单字汉字识别研究的基础上,我们组最早研究了汉字识别后处理方法,也就是说,在单个汉字识别的基础上,利用汉字在句中的上下文关系,自动纠正识别结果,提高识别率。在一次863组织的汉字识别评测现场,我们的系统以句子为单位,先是显示单字识别结果,再显示后处理后的结果。限于当时的技术水平,又加上评测用的汉字写的不是很工整,识别结果错误很多,以至于很多句子看不懂,但是经后处理后,大多数识别错误的汉字得以纠正,人看懂已经完全没有问题了。当后处理结果显示出来后,我还清楚的记得,现场观众一片哗然的叫好声。


大概在1997年前后,突然有几个公司宣布要做《四库全书》数字化的工作,有的公司还在人民大会堂抢先召开新闻发布会,试图抢占先机。这些公司完全没有想到这件事情的难度,试图采取人工录入的方式,完成《四库全书》的数字化工作,最终导致失败,只有采用了我们的汉字识别技术的书同文公司最终取得了成功,完成了《四库全书》全部的数字化工作,这也是我一生中可以保留下来的一件有意义的工作。


《四库全书》数字化难度在哪里呢?为什么用人工录入方式的尝试均以失败告终呢?《四库全书》共收录古籍3503种、79337卷、装订成36000余册,含有约8亿个汉字。台湾曾经出版过影印版,在页面缩小到原来页面的四分之一后,全套书总重量仍然达到了2.5吨的重量,可以想象这套书有多少。这么大的量,又是繁体字,录入也好,校对也好,都带来了极大的难度。而以汉字识别为基础的数字化方案,从识别到校对,可以提供一套切实可行的解决方案,最终历时两年时间,终于完成了《四库全书》的全部数字化工作。这其中也遇到了几个技术难题,比如缺少训练用样本等,为此我们提出了一种样本生成技术解决训练样本少的问题,并提出了一种增量式学习方法,实现了边训练边识别,可以滚动式地构建古籍识别系统,这对古籍数字化是一个非常重要的技术。可惜在报教育部奖时,被某权威人士认为是“现有技术的简单应用”而落选。


在做《四库全书》数字化的过程中,接触到了信息检索,当时互联网开始普及,google也刚刚成立不久,意识到搜索引擎在将来的网络化社会将是一个十分重要的工具。在经过一番调研之后,决定将小组的工作转向搜索引擎相关技术的研究。在黄昌宁老师的建议下,我们先从参加TREC评测开始(TREC是信息检索领域的一个著名的会议,以各种评测闻名),一方面可以通过参加评测获得数据,另一方面也可以相对快速地检验我们的研究成果,和国际上优秀团队一决高低。经过大约两年的学习、研究,小组于2002年首次参加TREC评测,就获得了一项第一名,这也是TREC举办以来,亚洲参加评测单位首次获得第一名,在此之前亚洲最好成绩是第4。从此一发不可收拾,小组连续10年每年都至少有一个第一名。也正是由于有了这样的成绩,从2007年开始,和搜狗公司共建清华大学-搜狗公司搜索技术联合实验室,双方合作9年,就搜索引擎技术共同开展合作研究,并于2016年将联合实验室升级为天工智能计算研究院,为此搜狗公司捐赠了1.8亿人民币用于研究院的建设。这期间双方不仅在国际顶级会议和期刊上联合发表了多篇论文,大多数研究成果还用于搜狗搜索引擎中,有效的提升了搜狗搜索引擎的性能。


这么多年来,我在人工智能的若干个方向上做了一些研究,看似是些不同的方向,但是相互之间也是有很多关联的,很多基础知识是通用的。比如在汉字识别后处理中,我们就引入了专家系统中的黑板模型,将多种不同的知识融入到汉字识别后处理,有效提高了后处理的性能。在做信息检索研究时,尤其是初期,很多汉字识别中用到的机器学习方法,也起到了非常重要的作用。


回首往事,一直艰难地走在人工智能之路上,在人工智能的寒冬期,多少诱惑不为所动,因为看好人工智能的未来;在今天人工智能的火热期,更要保持冷静的头脑,因为人工智能还远远没有达到人们所期望的那样,还有很长的路要走。努力吧,路在前方!


原文发布时间为:2017-05-07 

本文来自云栖社区合作伙伴“数据派THU”,了解相关信息可以关注“数据派THU”微信公众号

相关文章
|
2月前
|
人工智能 安全 搜索推荐
北大计算机学院再登国际AI顶刊!张铭教授团队揭露医疗AI致命漏洞
【10月更文挑战第17天】北京大学计算机学院张铭教授团队在国际顶级人工智能期刊上发表重要成果,揭示了医疗AI系统中的致命漏洞——“模型反演”。该漏洞可能导致误诊和医疗事故,引起学术界和工业界的广泛关注。研究强调了医疗AI系统安全性评估的重要性。
46 1
|
2月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
41 1
|
10天前
|
机器学习/深度学习 人工智能 自然语言处理
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
52 25
|
1月前
|
人工智能 开发者
人类自身都对不齐,怎么对齐AI?新研究全面审视偏好在AI对齐中的作用
论文《AI对齐中的超越偏好》挑战了偏好主义AI对齐方法,指出偏好无法全面代表人类价值观,存在冲突和变化,并受社会影响。文章提出基于角色的对齐方案,强调AI应与其社会角色相关的规范标准一致,而非仅关注个人偏好,旨在实现更稳定、适用性更广且更符合社会利益的AI对齐。论文链接:https://arxiv.org/pdf/2408.16984
36 2
|
1月前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
46 12
|
1月前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
2月前
|
人工智能 安全 搜索推荐
北大计算机学院再登国际AI顶刊!张铭教授团队揭露医疗AI致命漏洞
【10月更文挑战第16天】北京大学张铭教授团队在国际顶级人工智能期刊上发表重要成果,揭示了医疗AI系统中的致命漏洞——“模型反演”。该漏洞可使攻击者通过特定数据样本误导AI诊断,引发误诊风险。此发现引起广泛关注,强调了医疗AI安全评估的重要性。
63 4
|
2月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
49 6
|
2月前
|
人工智能 自然语言处理 机器人
MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨
麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。
60 2
|
3月前
|
存储 人工智能 JavaScript
根据Accenture的研究,CEO和CFO谈论AI和GenAI是有原因的
数字化转型与当前GenAI领导者之间的关键区别在于,CEO和CFO(而非CIO)似乎参与了指导AI投资的过程。例如,Accenture在2024年1月报告称,到2023年底,在财报电话会议中提到AI的次数几乎达到4万次,因为C级领导层正在为“重大技术变革”做好准备
47 1