中国的一个研究小组正准备推出一个人工智能系统,旨在实时捕捉幼儿园中的虐待儿童行为。
这项研究已经进行了好几年,但是最近北京红黄蓝幼儿园被指控虐待儿童的事件引起了对这一个研究的激烈讨论。
中国的大多数幼儿园都在教室安装了监控摄像头,但是很多监控摄像头没有得到有效的监控。研究人员说,他们的人工智能算法可以分析一个实时视频流来跟踪每个学生和老师的动作。
当发现异常行为(如打耳光)时,电脑可以通过把剪辑下来的视频发送给幼儿园的管理人员,政府监管机构或家长,发出警报,以供评估。
研究人员正在对该技术进行广泛的测试,并期望在明年完成原型。
贵州民族大学计算机科学副教授,该项目的首席科学家Rao Yan说,从2013年开始研究以来,她的团队遇到了技术障碍和资金短缺问题。她表示:“这就是所谓研究中的次要领域,没有吸引到太多的资金和关注度。”
虽然中国近年来在人工智能方面投入了大量资金,但大多数视频分析系统目前在仅仅在国防安全领域,包括国防和反恐活动中使用。
但是,作为一个年幼的孩子的母亲,Rao说,她觉得有义务找到一个技术来解决防止虐待儿童的问题。“不仅仅是我的小孩”,她说,“我们正在全国各地看到这个问题。”
在中国,许多幼儿园教师年轻而且收入不足,有些教师缺乏足够的培训。
红黄蓝幼儿园只是近年来的一些幼儿园虐待案件之一,其中一些已经被监控摄像头发现,引发了家长们对安全隐患的担忧,促使国务院对全国范围内的幼儿园进行检查。
于是 Rao和她的同事开始研究,刚开始,他们以为这将是一件容易的工作。有很多算法来检测暴力,异常或“疯狂”的行为。但是他们很快发现现有的方法只适用于成年人。
“老师体型大,学生体型小。电脑在处理视频时很容易跟丢”,Rao说。孩子的行为也给机器造成了很大的困惑。他们可能会在椅子上跳起来,用手中的玩具枪追逐对方,或者长时间坐在角落里玩沙子。
所有这些活动对于成年人来说都是反常的,但是对于儿童来说是正常的,所以使用为成年人开发的AI工具来监控儿童,你会发现机器在不断发出警报。
所以Rao在幼儿园设置了一个新的机器学习算法。该团队从学前班收集了大量的监控录像,并将这些数据输入电脑。开始时,研究人员不得不告诉机器哪种行为是正确的,哪些是错误的,但后来电脑学会了正确评估镜头,几乎不需要人为干预。
研究人员正在对来自幼儿园的新视频进行测试,他们希望明年能够公开展示这项技术。但Rao表示,这个系统还有很大的改进空间。“这远非完美。我希望更多的研究人员可以加入这项工作,加速人工智能技术在打击虐待儿童方面的应用。
清华大学电子工程系教授Zhang Li说,他们和中国其他的顶级AI实验室很快会将资源转移到解决防止儿童虐待的问题。
Zhang表示,国内许多机场,火车站和公共场所已经在使用这项技术来检测异常行为,使用的方法有面部识别等等。
但是,要在幼儿园使用这一技术,研究院需要获得大量的数据,这是一个难题,他说。
“有些幼儿园可能不愿意分享数据,因为这些视频可能包含敏感信息。一些家长也可能有隐私方面的担忧,“Zhang说。
北京中国科学院模式识别国家实验室研究员Huang Kaiqi表示,计算机可以通过跟踪人体图像中的每个像素来跟踪移动或手势,因此可以检测到微小的行为,如儿童被扎针。
“虐待通常包含一系列的行为。这些行动可以形成一个模式,可以通过机器学习和识别。“他说。
Huang还表示,其他检测方法如声音和热感应也可以用来收集更多的信息,这样行为跟踪系统可以做出更准确的判断。
例如,如果孩子在教师采取某种行动后反复哭泣,系统可能会发出警报。公安部负责全国监视和报警系统的高级警官表示,将考虑在学校、包括幼儿园的安全系统中增加人工智能技术。
据官方人士透露,北京在2012年颁布了一项规定,要求所有学校都安装安全摄像头,但许多系统没有专门的人员进行监控,硬盘通常只是被保存起来以备不时之需。
他说:“人工智能拥有一双永不眨眼的眼睛,一个永不疲倦的头脑。”但他补充说,单靠技术无法解决问题,滥用仍然可能发生在安全摄像机的范围之外。他说:“没有任何技术可以充分保护我们的孩子
原文发布时间为:2017-12-1
本文作者:马文
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号