人们总是高估一项科技所带来的短期效益,却又低估它的长期影响。20年后,AI会给我们带来什么改变,我们的生活会是什么样子?本书用十个故事给我们展示了未来的十个生活片段。
一叶知命
第一个故事一叶知命提出了一个问题,如果你愿意上交你的行为数据,AI就能最大化你的利益,你愿不愿意上交?只要你愿意,AI就能为了提供价值最大化的行为建议,从而改善你的身体,降低你的保费。那么,AI最为理性(收益最大)的建议,你要不要听?
这其实也是我们现在就面临的问题。打开你经常用的购物APP,你看到的商品都是那些AI猜测你可能会下单购买的商品,这不仅仅依赖于你过去的浏览消费数据,还包括和你画像相似的其他用户的浏览记录。如果他推荐的就是你想要的,你买不买?再比如,当你刷抖音的时候,你有没有感觉越刷越爽?AI总能让你刷到感兴趣的内容。在某些时候,AI比你更了解你。这背后的技术就是深度学习。
深度学习依赖于海量的数据,AI不知道什么是对什么是错,但它能抽象出对错的标准。AI不认识猫,它只是根据无数张猫图抽象出了猫的特征,才知道这个是猫。对于这种单一领域的,具有明确结果的事情,AI通过大量数据可以做到比人更擅长。
反之,则AI不如人类。如果AI数据量太少,AI算法就没有足够多的样本去洞察数据背后的模糊特征之间的有意义的关联;如果问题涉及多个领域,AI算法就无法周全考虑不同领域之间的关联,也无法获得足够数据来覆盖多领域多因素排列组合的所有可能性;如果目标太过宽泛,AI算法就缺乏明确的方向,也就无法更进一步地优化模型。
写到这里,我想到AI很大的一个缺点,那就是”看不懂“。我想到一个案例。在智慧农业领域,有一个领域是做环境控制,通过硬件控制植物的生长环境。只要你输入温度、湿度等环境数据,系统可以通过各种复杂条件数据控制不同设备来进行环境数据的控制。对客户来说,这就是一黑盒,他并不知道系统为什么这个时候要开空调,下一分钟他又要做什么。于是后来客户主动要求不使用系统自动执行,改为手动配置任务执行。我相信在很多其他领域,也会遇到这个问题。
看不懂不仅意味着过程不可控,还意味着结果不可控。 我记得以前看到过一个案例,讲招聘部门事后发现他们的AI软件歧视女性候选人,仅仅只是现有数据表明男性候选人能够好地胜任工作。
假面神邸
第二个故事讲的是Deepfake(深度伪造),如果你对视频造假感兴趣可以到B站上搜索一下这方面的视频。不用到2042年,现在这门技术已经相对很成熟了,只不过在使用上还有门槛。想想如果有人冒充你给你父母发了一段你急需要钱做某事的视频,视频中看到的是你,说话的声音也是你。你的家人有多大可能会被骗?
一年多以前,我曾经就专门转发过这样的假视频到家庭群里面。没有人发现这段视频是假的。很多事情人们听过和经历过是完全不一样的。如果有条件,你也可以这样试试。
可以预见的是,未来的所有数字信息都可能是伪造的。无论是线上的视频、录音,还是实时摄像头拍摄的画面,甚至法庭上的视频证据,都有可能是假的。那我们能怎么办?虽然人无法识别假视频,但AI可以。技术带来的问题,除了靠法律道德外,还得靠技术来解决。
双雀
第三个故事讲的是两个双胞胎,拥有不同性格,他们差异很大,但在AI的帮助下,他们救赎了自己,找到了自己的方向。
无接触之恋
第四个故事讲的是无接触的恋爱。讲的是后疫情时代人类与病毒共存的社会。其中女主因为害怕病毒不敢出门,因为男友的一次意外事故,重新走出家门,获得新生的故事。
偶像之死
第五个故事是关于虚拟偶像的。讲述女主人公在XR技术的帮助下,如何探寻偶像死亡原因的故事。我们这一代人虽然也有偶像,但并没有多么狂热(也有可能当时信息还没这么发达)。我看现在的一些明星粉丝,感觉有点宗教色彩的狂热。但偶像也是人,是人就会有缺点,也会犯错。我觉得最好的关系还是平等的朋友关系。每个人都应该做好自己,而不是把情感投射到他人身上。
XR包括三种技术:AR、VR、MR。我以前玩过VR游戏,说实话并没有给我带来多么好的体验。但最近这几年XR硬件的设备发展很快,开复老师预测,XR眼镜会在2025年实现大规模商业化落地(目前做得最好的是微软的 HoloLens系列),我自己觉得比较难,但预测的时间点离现在不到3年,我们可以拭目以待。
神圣车手
第六个故事是神圣车手,如果你玩的赛车游戏是真实的,你还敢玩吗?当虚拟和现实无法分辨,当远程控制车辆技术能够无延迟,实时精准的操作,那么原来虚拟的游戏就可以变成真实的商业业务。
自动驾驶车辆又被称为无人驾驶车辆。自动驾驶技术分为六个等级。
在2018年底,其实就有部分L4的自动驾驶车辆在限定的道路上进行测试了。但截止到2021年,自动驾驶车辆行驶的里程依然不高。测试里程最高的是谷歌的Waymo,693辆车测试了375万公里。限制自动驾驶发展的最大制约因素并不是技术问题(随着增强现实的发展,测试里程和环境都不是问题),更多来至伦理道德和责任义务的问题。
如果自动驾驶导致了一场车祸,请问谁应该对这个车祸负责?是汽车制造商,还是AI算法的供应商?或者编写算法的程序员?还是乘坐在车内的驾驶员?这个问题现在还没有得到答案。我记得之前还见过一个问题,如果突然发生极端事件,AI算法是保车里的人,还是保车外面的人?这个问题目前也没有答案。可以说,这些问题没有答案,自动驾驶的时代就不会到来。
人类刹车计划
第七个故事人类刹车计划,这是文章里最为疯狂的故事,当一个科学家把科技当做武器报复社会的时候,人类的生命是多么脆弱。甚至人类文明都是脆弱的。技术不会毁掉人类,人类自己才会。
自主武器则是未来战争的常规武器,它的好处是能够减少士兵的牺牲,但坏处更明显,它就是个杀人武器。未来人的生命真的会很脆弱。一支由一万架无人机组成的军队就可以摧毁半座城市,而成本可能只需要1000万美元。
我记得以前看过一个电视剧黑镜,其中里面有一集讲杀人蜂的,限定的杀人规则是键盘侠,最后,所有的键盘侠都死了....
职业救星
第八个故事讲的是人工智能替代人类工作。随着AI的发展,人类能从事的工作越来越少,于是出现了职业再造师这样的工作。but,科技的发展太快了,职业再造跟得上AI替代的速度么?未来可能真的会存在,虚拟人给真实人提供虚拟岗位的事情。
以前新技术代替老技术,虽然会造成一部分人失业,但同时也会创造一部分新岗位。但AI不一样,它大部分情况下就是单纯地替代人工。 AI替代人工现在已经有苗头了,而且这个过程会越来越快。虽然,未来人不用工作也能获得基本的生存物资,但之后呢?马斯洛需求理论最底层是生理和安全需求,这部分国家可以保障,而更高级的需求是没办法光靠给就能获得的。那有没有必要设计一些虚拟的工作场景来让失业者获得只有通过工作才能产生的成就感和满足感?我估计会,为了社会的安定,很多人都会活在虚拟与现实之间。
当然,AI也有局限,至少在创造力、同理心、灵活性三个方面在目前看是没办法代替人类的。而且说到底,AI只是工具,最终做决策的还是人。哪怕决策的是AI,最终检验决策结果的也还是人。 下面两张图是书中原图,大家可以直观看到哪些岗位是容易被替代的。
幸福岛
第九个故事是关于幸福的。集齐全世界的所有资源加上最先进AI的辅助,能不能让人一直幸福?这就是幸福岛想要做的事情。
我们都知道人的一些感官跟人体的激素有关。比如大麻素能给人带来快感,多巴胺能让人兴奋,内啡肽能止痛,肾上腺素能激发人能量。但并没有什么神经递质是跟幸福感相关。如果把幸福当作是满足欲望的话,那人可能永远也不会幸福。
以前看过一些调研,说得了彩票的人幸福感长期看并没有提高。那时候我就在想,他是怎么定义这个幸福的?我觉得每个人对幸福的定义都不一样,而且自己也不一定能说清楚。既然自己说不清楚,那么AI怎么能把一个说不清楚的事情做好呢。除非,AI真的找到”控制幸福激素“的密码,像控制多巴胺一样控制“幸福激素”。
想要实现这一点,那首先得解决数据安全问题。我的所有数据应该由谁保管?谁又有资格保管?靠区块链这种去中心化组织吗?这是我们首先要解决的问题。
丰饶之梦
第十个故事,物质被满足之后的人类社会会是怎样?当AI大幅降低商品成本,物质变得不再稀缺,所有人都能很低成本地获得生存物质。甚至一切基础物质都变成了免费。那么钱还有什么意义?那些把赚钱当成工作的人将如何自处?整个社会又将如何正常运转?丰饶之梦描述的就是丰饶背景下,可能形成的一种社会形态。
这个故事里开复老师特意强调了,丰饶并非一切物质都免费。一切物质都免费的时代,可能只是虚幻的乌托邦,但丰饶是现实的。我们现在普通人拥有的物品也比以前帝王多得太多太多了。未来的人只会拥有更多。
我理解这个故事跟职业救星的故事本质上是解决同一个问题。那就是当一个人的物质需求被满足后,如何满足其精神需求?如果精神需求没办法满足,则社会可能不仅不会变好,反而会变得更坏。不要低估一个闲得蛋疼的人会做出什么荒唐事来。
总的来说,这本书提出了一些好问题,也尝试给出一些解决方案。但未来是不是真的会往这方面走,还充满了很多不确定性。开复老师因为专业所以看得比普通人更深,但同样的,这种专业也会导致其对技术的发展过于乐观。技术可能会因为某个关键突破而得到快速发展,但人们对技术的接受度,政策的制定是一个缓慢的过程。以前,我理解未来已来,只是尚未流行。更多是认为技术受限于成本而未流行。现在又多了一个维度的理解,技术越强大,人类越不能犯错。