过去几年,霍金(Stephen Hawking)、马斯克(Elon Musk)、比尔·盖茨等一些名人警告我们应加强关注超级 AI 可能带来的危险后果。而且他们还把钱用在这方面:包括马斯克在内的几位亿万富翁为 OpenAI 提供支持,该组织致力于开发惠及人类的人工智能。
但是对很多人来说,这不过是杞人忧天。吴恩达称担心杀人机器人的出现就好像担心火星上人口过剩一样。与其担心人类被人工智能统治,不如思考因为我们过分相信我们制造的智能系统而可能带来的真正风险。
机器学习的工作模式是训练已有数据寻找规律。当机器作出回答时,我们通常无法知道它的解答过程。这就存在明显的问题。机器的准确性取决于它学习时所使用的数据的准确性。由于我们提供给人工智能的很多数据都是不完美的,我们也不应期待人工智能一直能提供完美的答案。我们需要加强审视基于人工智能的决策过程。由于我们按照自己的样子制造出人工智能,它就很可能兼具人类的优点和缺点。