《十问:霍金沉思录》是物理学家史蒂芬·霍金最后的著作,这本书涉及他对科学与社会所面临的重大问题的思考,包括“人类是否会一直在地球上生存下去?(可能不会)”“时间旅行是否可能?(仍无法排除可能性)”等;还有对诸如地球面临的严重威胁、“超人”种群以及外太空是否存在智慧生命、人类是否应该去开拓太空殖民地等问题进行的最后预测,这些预测饱含了霍金对人类未来深深的忧思。
智力是人之为人的核心。文明所提供的一切都是人类智慧的产物DNA传递代际的生命蓝图。愈加复杂的生命形式从眼睛和耳朵等传感器输入信息,在大脑或其他系统中处理信息,决定如何行动,然后向譬如肌肉等输出信息以作用于外界。
在我们138亿年的宇宙历史中的某个时刻,发生了一件美妙的事。这种信息处理变得如此聪明,以使生命获得意识。我们宇宙现在已经醒来,意识到自己。微末如星尘的我们,居然对我们生活于其中的宇宙有了如此详细的了解,我认为这是一个胜利。
我认为蚯蚓的大脑运作与电脑计算之间没有显著差异。我还相信进化意味着,在蚯蚓和人类的大脑之间不存在质的差异。因此,电脑原则上可以模仿人类智慧,甚至更好。某些东西获得比其祖先更高智力显然是可能的:我们演化得比我们的猿类祖先更聪明,而爱因斯坦比他的父母聪明。
如果电脑继续遵守摩尔定律,它们的速度和记忆容量每18个月加倍,结果是在接下来的100年的某个时刻电脑很可能在智力上超过人类。当人工智能(AI)在AI设计中变得比人类做得更好,这样它可以在无人帮助的情况下以递归的方式改善自己,我们就可能会面临智力爆炸,最终导致机器在智力上超过我们更甚于我们超过蜗牛。当那种情形发生时,我们需要确保计算机的目标与我们的目标相互一致。人们也许会轻率地将高智能机器的概念斥为只不过是科学幻想,但这可能是一个错误,还可能是我们最糟糕的错误。
在过去的20多年里,人工智能一直专注围绕制造智能代理人的问题,那是在特定环境中感知和行动的系统。在这种情况下,智能与理性的统计和经济概念有关。通俗地讲,也就是做出好的决策、计划或推论的能力。由于这项最近的工作,人工智能、机器学习、统计学、控制理论、神经科学和其他领域之间形成了很大程度的整合和交叉。共享理论框架的建立,结合数据和处理能力,在各种组件任务中取得了显著的成功,例如语音识别、图像分类、自动驾驶车辆、机器翻译、腿式运动和问答系统。
随着在这些领域和其他领域中从实验室研究转向经济上有价值的技术发展,良性循环也在演进,即使性能上的微小改进也值得花大笔资金,从而促进了对研究更进一步的投入。
当今一个广泛共识是,人工智能研究正在稳步发展,其对社会的影响可能会增加。潜在的好处是巨大的,我们无法预测当AI可能提供的工具放大这种智能时,我们会获得什么。彻底消除疾病和贫困是可能的。由于AI的巨大潜力,重要的是研究如何在避免潜在陷阱的同时获得收益。创建AI的成功将是人类历史上的最大事件。
不幸的是,它可能也是最后一个,除非我们学会如何规避风险。将AI用作工具包可以增强我们现有的智能,在科学和社会的每个领域进步。但是,它也会带来危险。到目前为止开发的原始形式的人工智能被证明非常有用,我却害怕创造出匹配或超越人类的某种东西的后果。我担心的是,AI会自己起飞并不断加速重新设计自己。
人类受到缓慢的生物进化的限制,无法竞争,将会被超越。在未来,AI可以发展自身的意志,那是一种与我们相冲突的意志。其他人相信人类可以在相当长的一段时间控制技术的速度,让AI实现解决许多世界问题的潜力。对此,我还不是这么确定,虽然众所周知,关于人类,我是一个乐观主义者。
例如,在短期内,世界军事力量正在考虑开始自动武器系统的军备竞赛,该系统可以选择和消除他们自己的目标。
虽然联合国正在辩论将禁止这种武器的条约,自动武器支持者通常忘了问最重要的问题。军备竞赛的可能终点是什么,那是人类想要的吗?我们真的希望廉价的人工智能武器成为明天的卡拉什尼科夫冲锋枪,卖给黑市上的罪犯和恐怖分子吗?考虑到我们对越发先进的人工智能系统实行长期控制的能力,我们是否应该武装他们并将我们的防御交给他们?
2010年,电脑化的交易系统创造了股票市场的闪电崩盘;电脑触发的防御领域崩溃会是什么样子?现在是停止自动武器军备竞赛的最佳时机。
从中期来看,人工智能可以使我们的工作自动化,带来巨大繁荣和平等。更长远地看,我们对于可以实现的事情没有根本的限制。没有任何物理定律可以排除比以人脑中的粒子排列更高级的计算方式组织粒子的方法。爆炸式过渡是可能的,但它的结局可能与电影不同。正如数学家欧文·约翰·古德在1965年意识到的那样,在科幻作家维纳尔·维格称之为技术奇点之处,具有超人智慧的机器甚至可以进一步重复改进他们的设计。人们可以想象这样的技术胜过金融市场,发明超过人类研究人员,操纵超过人类领导者,并甚至可能用我们无法理解的武器制服我们。而AI短期对我们的影响取决于谁控制它,长期影响取决于它究竟是否可能被控制。
总之,对于人类,超级智能的问世是有史以来要么最好要么最坏的事。人工智能的真正风险不是恶意,而是能力。一个超级聪明的AI会非常擅长实现目标,如果这些目标和我们的不一致,我们就遇到了麻烦。你可能不是蚂蚁邪恶的仇敌,会去恶意踩踏它们,但如果你负责水力发电的绿色能源项目,而在该地区有一个蚁丘要被淹掉,对于蚂蚁那就太糟糕了。
不要将人类置于那些蚂蚁的境地。我们应该提前计划。如果一个先进的外星人文明给我们发短信说,“我们几十年后到达”,我们会不会就回复“行,当你到了这里给我们打电话,我们会开灯欢迎”呢?大概不会,但这或多或少正是我们在对付AI时所做的。除了一些小的非营利性机构之外,很少有人致力于这些严肃的研究。
幸运的是,现在正在发生变化。技术开发者比尔·盖茨、史蒂夫·沃兹尼亚克和埃隆· 马斯克回应了我的担忧,而一种健康的风险评估文化和对社会影响的认识开始在AI社区扎根。2015 年1 月,我和埃隆· 马斯克以及许多AI专家,签署了一份关于人工智能的公开信,呼吁认真研究其对社会的影响。
在过去,埃隆·马斯克警告说,超人类人工智能能够提供无法估量的好处,但如果不谨慎地部署,将对人类产生不利影响。
他和我是生命未来研究所的科学顾问委员会成员,该研究所致力于减轻人类面临的存在的风险,我们起草了该公开信。
该信要求具体研究在获得AI为我们提供潜在好处的同时,如何能够预防潜在问题,并且旨在让AI研究人员和开发人员更加关注AI安全性。此外,对于政策制定者和公众来说,这封信是想提供信息而不是危言耸听。我们认为非常重要的是,每个人都知道AI研究人员正在认真考虑这些担忧和道德问题。例如,人工智能具有根除疾病和贫困的潜力,但研究人员必须努力创造可以控制的人工智能。
2016年10月,我在剑桥还创立了一个新中心,该中心将尝试解决人工智能研究快速发展所带来的一些开放式问题。
利弗休姆智能未来中心是一个多学科研究所,致力于研究智力的未来,这对我们的文明和物种的未来至关重要。我们花了很多时间研究历史,我们得承认,主要是愚蠢的历史。现在人们正在转去研究智能的未来,这是受欢迎的改变。我们意识到了这种潜在危险,但也许利用这种新技术革命的工具,我们甚至可以去除工业化对自然界造成的一些破坏。
人工智能发展的最新进展包括欧洲议会呼吁起草一套管理创造机器人和AI的法规。有点令人惊讶的是,这包括电子人格的一种形式,旨在确保最有能力和最先进的AI的权利和责任。一个欧洲议会发言人评论说,随着我们日常生活中越来越多的领域受到机器人的影响,我们需要确保机器人正在并将继续为人类服务。一份提交给议会的报告宣称世界正处于新的工业机器人革命的前沿。它审查是否允许赋予机器人作为电子人,具有与公司人格的法律定义同等的合法权利。
但它强调在任何时候研究人员和设计师都应确保所有机器人设计配有一个终结开关。
在斯坦利· 库布里克的科幻片《2001:太空漫游》中,太空船上载有发生故障的机器人电脑哈尔,这对船上的科学家们没有什么帮助,但那是虚构的。我们针对事实。在报告中,奥斯本· 克拉克多国律师事务所的顾问罗那· 布拉泽尔说,我们没赋予鲸鱼和大猩猩人格,所以没有必要急于赋予机器人人格。但是要警惕。该报告承认,在几十年内,人工智能可能超越人类的智力,并挑战人类和机器人关系。
到2025 年,将有大约30 个特大城市,每个城市拥有超过1 000 万的居民。当所有人都吵着要求为他们随时提供商品和服务,技术能否帮助我们,跟上我们对即时商务的渴望?机器人肯定会加速在线零售流程。但要彻底改变购物行为,它们需要足够快,以便在每个订单上实现当日交货。
与世界互动的机会正在迅速增加,而不必亲自到场。你可以想象,我觉得这很有吸引力,尤其是因为我们所有人的城市生活都如此繁忙。多少次你希望有替身可以分担你的工作量?为我们自己创造现实的数字代理人是一个雄心勃勃的梦想,但最新的技术表明它可能不像听起来那么匪夷所思。
当我年轻时,技术的兴起似乎提示,我们将来都将享受更多的休闲时光。但事实上,我们越能干,我们就越忙。我们的城市已经充满扩展我们能力的机器,但如果我们可以同时在两个地方该多厉害?我们习惯于在电话系统和公告上使用自动语音。现在发明家丹尼尔· 克拉夫特正在探究我们如何在视觉上复制自己。问题是,替身有多逼真?
互动导师可能对大规模开设在线课程(MOOCs)和娱乐有用。这真的很令人兴奋。电子数字演员会永远年轻,能够表现人类不可能胜任的技能。我们未来的偶像甚至可以不是真实的。
我们如何与数字世界联系是我们将来取得进展的关键。
在最聪明的城市,最聪明的家庭将配备如此有灵犀的设备,它们几乎可以毫不费力地与人进行互动。
当打字机被发明时,它变革了我们与机器互动的方式。将近150年后,触摸屏幕已经开启了与数字世界新的沟通方式。最近的AI里程碑,比如自驾汽车,或电脑赢得围棋赛,预示了即将发生的事物。巨大投资正在涌入这项技术,它已经成为我们生活的重要组成部分。未来几十年,它将渗透到我们社会的每个方面,包括医疗、工作、教育和科学等许多领域,为我们提供聪明的帮助和建议。我们迄今所看到的成就,和未来几十年将会带来的相比,肯定是微小的,我们也无法预测,当人工智能扩展了我们自己的思维后,我们可能会取得的成就。
也许借助这种新技术革命的工具,我们可以使人类生活更美好。例如,研究人员正在开发有助于脊髓损伤患者瘫痪逆转的AI。运用硅芯片植入以及在大脑与身体之间的无线电子接合,该技术会允许人们用自己的意念去控制自己的身体动作。
我相信大脑和电脑连接是未来的交流方式。有两种方法,电极接通头骨和移植物。第一个就像透过磨砂玻璃看不太清楚,第二个更好,但有感染风险。如果我们可以将人脑连接到互联网,它就会将整个维基百科都作为其资源。
随着人、设备和信息越来越紧密相互连接,世界甚至变化得更快。计算能力正在增长,量子计算正在迅速实现。这将以指数方式的更快速度革新人工智能,它将推进加密。量子电脑将改变一切,甚至人类生物学。
已经有一种精确编辑DNA的技术,称为CRISPR。这种基因组编辑技术的基础是细菌防御系统。它可以准确地定位和编辑遗传密码的片断。遗传操作的最佳目的是修改基因可以让科学家通过纠正基因突变来治疗遗传疾病。然而,还可能存在操纵DNA的不怎么高尚的动机。我们在基因工程方面走多远将成为一个日益迫切的问题。我们如果无视基因工程的危险,就绝无可能治疗运动神经元疾病,比如我的ALS。
智力被定性为适应变化的能力。人类智慧是能够适应环境变化的人经世代自然选择的结果。我们不应害怕改变。我们需要让它对我们有利。
我们所有人都可以发挥作用,确保我们和下一代不仅有机会,而且立志尽早充分参与科学研究,以便我们能够继续发挥自己的潜力,为整个人类创造一个更美好的世界。我们需要进行机器学习,关于AI不能只限于应该如何的理论讨论,还应确保我们计划如何做到这一点。我们所有人都有可能推进被接受或预期的界限,并思考大问题。我们站在一个美丽新世界的门槛上。这是一个令人兴奋的,不过也将是危险的地方,而我们是先锋。
当我们发明火时,我们反复被火搞砸了一些事情,然后发明了灭火器。鉴于拥有更强大的技术譬如核武器、合成生物学和强人工智能,我们应该改为预先计划未来,并希望第一次就把事情弄妥,因为这可能是我们仅有的机会。我们的未来是一个技术日益增长的力量和使用它的智慧之间的竞争。让我们确保智慧胜利。