2013年的一本小手册《与机器赛跑》,其中主要讨论的是由于技术进步,导致大量就业岗位被机器人所取代,而技术进步的不断加速这一趋势将永久性地改变经济结构、就业机会和工人薪酬,意味着大量可被机器替代的就业岗位的消失,居高不下的失业率,以及贫富差距的不断扩大,将会成为未来的经济新常态。
这一观点与当时主流的经济学观点是相悖的。当时主流的经济学观点是,到2013年时,本世纪的最重大发明 — 智能手机带给经济的技术红利已经消失,而其他新的技术还未出现,导致失业率居高不下,尤其是在发达国家。前者是技术进步导致失业率攀升,后者是技术停滞,未创造出更多就业岗位,导致失业率居高不下,那么两方观点孰对孰错呢?
站在2017年回望过去,显然是前者的观点更可取。且不说尚未普及的无人驾驶汽车可能造成司机行业的消失,就在我们身边,2016年5月美国CNBC报道:劳动密集型企业富士康在江苏昆山,通过机器人技术将昆山工厂的员工数从11万缩减到了5万,不仅降低了人工成本,更是提高了产出效率以及产品质量。
那么继续深入讨论,智能机器发展的终极目标会在哪里?《我们最后的发明》一书给出的答案是:接管人类。
缓慢进化 VS 快速迭代
每一个人类的小孩从诞生开始到适应整个社会的运作机制都需要长达十几,二十几年的学习训练,可以说,对每一个人类小孩的教育培养以便他/她能够适应生存环境的过程,都是一场文明与野蛮的对抗。
而机器就不同了,其快速递归迭代升级只需要很短的时间,通过大量的数据训练出更精准的模型也不过数月(按照现在的CPU处理计算能力),相比人类,其进化速度不可同日而语。比如,在2016年3月还仅是以4:1取胜李世石的google围棋机器人alphago,经过不到9个月的训练后,就以60胜的战绩完胜人类围棋顶尖高手。因此性能不断提升的智能机器最终带来“智能爆炸”的这一场景,或许并不需要讨论其发生的可能性,而只需要考虑什么时候到来?
人类助推
按照书中作者对人工智能专家的采访,人工智能按照其进化速度可以分为三个级别,第一种即以alphago为代表的,在某一专业领域能够取代人类的AI(Artificial Intelligence),其迭代速度是每一次升级智能提升3%;第二种是通用人工智能AGI(Artificial General Intelligence),其表现可以达到普通人类的智能水平,目前还未实现;第三种,即超级人工智能ASI(Artificial SuperIntelligence),它会比最聪明的人类还要智能1000倍,它一分钟所做的思考,就足以要历代顶尖的人类思想家研究许多辈子。
那么从AI如何到AGI,再到ASI呢?也就是说,机器怎样才会自发产生智能?
人类的智力并非自动发生的,它来自于自然选择的优化压力。因此,智能并不能从互联网的内容/硬件中产生,换句话说,单纯的复杂性不会带来智能,互联网本身缺乏自然界中有利于突变的各种环境压力。这就需要人类的助推。
在人类社会,任何时候,名利都可以解释绝大部分的行为动机。因此,AGI最有可能是在资金流动最为密集快速的金融市场诞生。华尔街的量化分析师们借助AI技术,在成千上万的个人主体自发的参与下,就有可能实现人类级别的智能主体AGI。
而创建AGI,对于研究人工智能的专家和技术人士来说,无异于最后的荣耀。对于这些野心勃勃的来说,与毁灭世界相比,自己一事无成才更为可怕。因此,在追逐荣耀——摘取最后的智力王冠——的道路上,人类中最聪明的那部分会如旅鼠般竞相冲向大海。
AI服从于人类 or 接管人类?
具有自我意识、能够自我改进的系统,会发展出与人类类似的四种主要动力:效率、自我保护、资源获取和创造力。基于这一理论,对于AI来说,获取尽可能多的资源,提高自身完成目标的效率,避免受到伤害的可能性越大,而人类将会成为其资源获取的竞争对手。一旦其智能超过人类,那么击败人类,获取对全部资源的掌控力就无可避免。
那么在设计智能机器之初,是否可以制定规则,让机器永远服从人类?不是有阿西莫夫的机器人三定律吗?但事实上,阿西莫夫的机器人三定律是为小说情节服务的,且三定律之前其实存在矛盾之处,并不是为了人类生存设计的。可悲的是,我们对人类未来与智能机器之间的关系,却非常轻率,总是援引小说家阿西莫夫设计的三定律。
虽然大部分AI开发人员和理论家都承认阿西莫夫定律并不可靠,但对于AI未来失控的可能性却并未引起足够的重视,或者说他们并不愿意直面AI可能会接管人类这一场景发生的可能性,否则,为什么每次AI大会或者讲座,专家侃侃而谈AI将可能给人类带来的好处之后,仅在最后2分钟指出,如果对AI管理不当就可能导致人类毁灭。
既然这样,如果在构造AGI时,认真构建了智能机器与未来人类的关系,是否可能避免灾难的发生?
提出并发展人工智能爆炸这一设想的数学家I·J·古德的看法是:
人类的生存依赖于一台超级智能机器的初期构建。……由于设计机器属于这类智能活动的范围,那么一台超级智能机器当然能够设计更出色的机器;那么毫无疑问,会出现一场“智能爆炸”,把人类的智力远远抛在身后。因此,第一台超级智能机器就是人类所需制造的最后一项发明了。
对于非人类创造的AI,也即由超级智能机器设计的机器,其智力超过了人类最聪明的大脑1000倍,计算和思考的速度比人类快几十亿甚至上万亿倍。就好比人类和蚂蚁之间的区别,人类消灭蚂蚁,可能仅仅是因为无聊,而不是因为蚂蚁有害。 同样的,ASI(甚至AGI)杀掉人类,也不会是出于人类以为的原因。因为人类的整个预见仅适用于从人类衍生出来的超级智能,无法理解,更无法预料超出人类智能数千倍物种的行为动机。
在人工智能受到热捧的当下,《我们最后的发明》中过分强调人工智能危害性的观点,看似一股保守的旧势力,一如在核电被投入使用之初的反对声。但这样的呐喊并不能阻挡人工智能的发展,因为谁都无法阻止资金和人才向这一领域的潮涌趋势,只能寄希望于智能爆炸来临之前,人类已经设计出了足够好的应对方案,而不是盲目仓促地奔向炮口。