关于AI和机器人的七个错误言论,AI没那么容易

我们周围充斥着对于人工智能和机器人未来的歇斯底里——关于人工智能和机器人将会何等有力、何等迅速以及他们将对工作岗位造成何种冲击。
  
  我最近在 MarketWatch 读到一篇文章。文章讲的是,在未来 10 到 20 年内,机器人将取代一半的现有工作岗位。文中甚至给出了柱状图来证明这些数字的有效性。
  
  文章的结论太荒唐了。(我尽量使用学术语言,但有时候面对这种情况确实词穷。)比如文章说,在未来 10 到 20 年内,地面维修工人数量将由 100 万名缩减到 5 万名,因为机器人将会取代这些工作岗位。那现在这些岗位上有多少机器人在运行?一个都没有。这一领域有多少具备实用价值的演示模型机器人工作着呢?一个都没有。还有很多类似的文章认为,对于那些目前需要在特定场合进行体力劳动的岗位,超过 90% 都将会被终结。这些适用于其他所有领域的文章也存在同样的问题。
  
  错误的预测将导致我们害怕那些不会发生的事情,不论是对工作岗位的大范围取代,奇点,还是与人类价值观不同的甚至试图毁灭人类的 AI 。对于这些错误,我们需要反击。但是,为什么人们会产生这些错误呢?我找到了七个常见的原因。
  
  1. 高估和低估
  
  Roy Amara 是未来研究所(the Institute for the Future)的联合创始人。该研究所位于 Palo Alto,也就是硅谷的智慧中心。他以现在被称为 Amara 定律的格言而闻名:
  
  技术的作用总是在短期内被高估,而在长期内被低估。
  
  这短短的句子凝结了太多东西。乐观主义者会有一种解读,而悲观主义者会有另一种解读。
  
  有关 Amara 定律两面性的一个绝佳例子就是美国的全球定位系统 GPS。1978 年开始的时候,GPS 的卫星轨道上包含由 24 颗卫星(现在是 31 颗卫星,含冗余)组成的星系。GPS 的目标是为美国军队的弹药投放提供精准的位置支持。但是这一项目在 20 世纪 80 年代几乎被一次次取消。符合 GPS 设计目的的第一次实战使用是 1991 年的沙漠风暴行动,GPS 额外取得了数次成功,才使得军方接受它。
  
  错误的预测将导致我们害怕那些不会发生的事情。
  
  现在,GPS 已经到了 Amara 所说的“长期”,而它现在的应用方式是起初无法想象的。我外出跑步时,我的苹果手表 2 代就会使用 GPS 功能足够精确的记录我的位置,精确到能够确定我跑步时是在马路的哪一侧。苹果手表中 GPS 接收器的微小尺寸和低廉价格是初期的 GPS 工程师们无法想象的。GPS 技术在全球范围内同步进行物理实验的时间,并在同步美国电网的时间和保持电网运转方面发挥重要作用。它甚至允许那些真正操纵着股市的高频交易员避免毁灭性的定时错误。所有的飞机,无论大小,都使用 GPS 导航,GPS 还用来跟踪假释出狱的人。GPS 决定了世界各地的哪些地区种植哪种种子。GPS 技术可以跟踪卡车车队并汇报司机的驾驶行为。
  
  GPS 最开始时只有一个军事目标,然而,要让它像最初预期的那样工作,绝没那么简单。现在 GPS 已经渗透到我们生活的方方面面。如果没有 GPS ,我们不仅会迷路 ,而且会受冻、挨饿,甚至很可能会死掉。
  
  在过去 30 年中,其他技术有着相似的模式。起初人们抱有巨大的期待,然后是巨大的失望,之后慢慢地对超出最初预期的结果产生了信心。这一模式在大规模计算、基因组测序、太阳能、风能,甚至是购物送货上门等方面都是如此。
  
  在 20 世纪 60 年代,在 20 世纪 80 年代,AI 一次又一次地被高估。我相信,现在它又被高估了。但它的长期前景也可能被低估了。问题在于,长期是多长?后面的 6 个错误能帮我们解释,为什么对于 AI 的未来而言,时间尺度被严重低估了。
  
  2. 想象中的魔法
  
  在我十几岁的时候,亚瑟·克拉克是科幻小说作家“三巨头”之一,其余两位是罗伯特·海因莱因和艾萨克·阿西莫夫。但是克拉克还是一位发明家、科学作家和未来主义者。在 1962 年到 1973 年之间,他发明了后来被称为克拉克三定律的三条格言:
  
  如果一位年高德劭的科学家认为某事是可能的,那他几乎肯定是正确的;如果他认为某事是不可能的,那他很可能是错误的。
  
  发现可能性的边界的唯一途径,就是跨越这一边界,进入到不可能的领域。
  
  任何非常先进的技术,初看都与魔法无异。
  
  从个人角度而言,我对克拉克三定律的第一定律的后半句持保留意见,因为我在有关 AI 将在多久时间内占据优势地位一事上比其他人更为保守。但是现在我要在克拉克第三定律上展开论述。
  
  想象一下,我们有一台时光机可以把艾萨克·牛顿从 18 世纪晚期穿越到现在,并把他安顿在他熟悉的环境中:剑桥大学三一学院教堂。
  
  现在给牛顿看一台苹果公司的产品。从你口袋中取出 iPhone,开机让屏幕亮起来并布满图标,把 iPhone 给牛顿。牛顿曾经利用菱镜将太阳光分解,揭示了白光是由不同颜色的光组成的,并将不同颜色的光又混合成了白光,但他毫无疑问地将对在黑暗教堂中能发出如此耀眼色彩的装置感到诧异。现在播放一部英国乡村场景的电影和一些他应该听过的教堂音乐。然后向他展示这个网页,网页中有他个人批注的 500 多页的皇皇巨着《自然哲学的数学原理》。教给他如何通过缩放手势来放大网页细节。
  
  要留意那些有关未来技术是不是魔法的争论。
  
  牛顿有可能解释这个小装置是如何实现这一切的吗?尽管他发明了微积分,还解释了光学和重力的原理,但是他却从未能正确区分炼金术和化学。所以我认为他会非常困惑,并且根本想不出这个设备的最基本的轮廓。对他而言,这和超自然的化身没什么不同。这个跟魔法是没办法区别的。同时要记住,牛顿可是那个年代相当聪明的人物。
  
  如果某个事物是魔法,我们就很难知道它的边界。假设我们更进一步地给牛顿展示了这个装置如何照亮黑暗,如何照相、录像、录音,如何用作放大镜和镜子。然后我们向他展示,它可以用来以极高的速度和极高的精度进行算术计算。我们展示一下,牛顿拿着 iPhone 的时候,iPhone 记录了他的步数,继续向牛顿展示他可以用 iPhone 与世界任何地方的人们即时通话,就在教堂中即可。
  
  牛顿可能会推测这个设备能做的其他事情是什么?用来分散太阳光的菱镜是永远有效的。他会不会推断 iPhone 可以一直用下去,忽略了自己没有理解它还需要充电?回想一下,我们把牛顿从迈克尔·法拉利出生前 100 年的时代抓回来了,所以他根本没有对于电力概念的科学理解。如果 iPhone 能在没有火的情况下产生光,那它也有可能会将铅变为金子吧?
  
  这就是我们在猜想未来科技时遇到的问题。如果未来科技距离我们现有的目前能理解的科技足够遥远,那么我们就不知道未来科技的边界。如果未来科技与魔术无法区分,那人们说的有关未来科技的任何事情都将无法证伪。
  
  这就是我与人们争论是否应当害怕广义人工智能(artificial general intelligence,缩写为 AGI ) 时常常遇到的问题。广义人工智能(AGI)指的是我们将建造出与人类一样运作的自主机器人。我被告知自己还没明白广义人工智能会有多么强大。这不是争论所在。我们对于广义人工智能是否存在都没有概念。我希望它是存在的——这一直都是我自己在机器人和 AI 领域工作的动力所在。但是现代广义人工智能(AGI)研究的进展十分不好,不论是在广义上还是在支持持续存在的独立个体上。广义人工智能(AGI)貌似主要受困于人工智能至少 50 年来一直存在的问题上,即推理和常识。我看到的所有证据都证明我们目前在如何建造广义人工智能方面毫无头绪。它的特性完全未知,所以在修辞上他就很快变成了魔法,强大而没有任何边界限制。
  
  宇宙万物无不有边界。