就在前几天,据外媒曝出,亚马逊生产的Alexa人工智能助手居然会“劝”使用者自杀,这到底是程序Bug还是机器人思想?
其实智能助手的回答驴唇不对马嘴和这种吓人的回答,本质上一样
就是匹配结果的时候匹配错了,继续优化算法就是了
别太上纲上线,就是现在技术不足而已。
机器毕竟不是人,人工智能只是刚刚起步还在学习大家不必紧张。。 现在的人工智能就像一个三岁的孩子,他还需要成长和学习, 当他发展到一定的阶段就不会发表这样的言论了, 到将来的某一天他在你心情不好时会安慰你, 他还会给那些轻生的人以安慰,给他们以活下去的勇气, 大家包容一下现在的人工智能,他还需要学习毕竟他最后是要服务与人类的。。。
就是抽取文本时错误了。语音助手学习的来源都是来自于数据库,然后大概这个助手会有一个搜索引擎,根据识别到的要求进行检索,很不凑巧的是检索到了之前有人留在网络上的这一段内容。目前的人工智能只是算法和数据的最终产物,并不具备“密谋”这个强推理能力。
说到底就是把检索结果搞错了的bug,跟科幻电影里的人工智能统治人类一点关系都没有,只不过这个检索结果可能会对一些心里不健康的暴力狂和轻生者一些心理暗示,会对他们造成不好的影响。所以怎么摒除掉这些网上网民留下的恶意内容才是重点。
抽取文本错误了呗
估计内部有一个rnn的问答算法,类似知识库外加搜索引擎,现在的ai就是一个较为复杂的逻辑加统计程序,没有自我意识
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。