联系我们 contact us
地址:北京市朝阳区汤立路
   218号明天·STUDIO·A座
010-84678879

您当前所在位置:主页>技术共享>物联世界>

侯世达:为什么人工智能还远远谈不上「智能」?
时间:2017-10-12 21:03 作者:佚名 点击:

人工智能的最终归宿也许会回到侯世达(Douglas Hofstadter)。1979 年他写了《哥德尔 埃舍尔 巴赫——集异璧之大成》一书,由此获得普利策奖。现今 72 岁的侯世达一直默然思考着「思考」(thinking),以及如何通过计算机实现它。他认为当下的 AI 毫不「智能」,并担忧人类由此误入歧途。关于 AI 当前的现状,哪些做错了?前方又有哪些危险?带着这一初衷,Quartz 采访了侯世达。

编译 | 路雪、黄小天

来源 | Quartz

  作者 | Nikhil Sonnad、Dave Gershgorn

  

侯世达:为什么人工智能还远远谈不上「智能」?

侯世达,一个思考「思考」的人

  人工智能研究初期的二十世纪五六十年代,目标是通过模仿人类直观理解世界的能力,创造像人一样思考和学习的计算机。但是「思考」(thinking)远比想象的要复杂,1950 年代的计算机还无法实现它。这令人灰心丧气,最终导致人们彻底放弃了对「思考」的思考,转向通过海量数据训练计算机解决具体任务,即导致了当下的人工智能(深度学习)大爆发。计算机在国际象棋上战胜人类,靠的不是对棋艺的不懈追求,而是检索数百万棋谱选择获胜的最优解。

  2017 年,AI 似乎再次与这一古老的问题相遇:如何使计算机更像人。深度学习先驱 Geoffrey Hinton 在 Axios 的采访中说自己陷入了「深深的怀疑」,深度学习本质上是一种体力活。相反,计算机应该足够灵活,像人一样学习一切,而无需各种各样的数据集。

  面对 AI 的这些转变,美国印第安纳大学认知科学与比较文学教授侯世达对「思考」(thinking)的思考从未间断。他认为当下的 AI 毫不「智能」,并担忧人类由此误入歧途。关于 AI 当前的现状,哪些做错了?前方又有哪些危险?带着这一初衷,Quartz 采访了侯世达。

  Quartz:首先我们谈一下计算机对语言的理解能够达到什么程度。为了实现语言之间的高效翻译,机器必须对世界有深刻的理解,是吗?

  侯世达:当我想到翻译的时候,我想到的是把译文与原文对应起来,做到对等。因此,如果原文富有艺术之美,那么译文也应如此。但这显然在谷歌翻译的能力范围之外。

  谷歌翻译没有理解力,致使其翻译漏洞百出。有句德文的正确英文译文是「The maid brought in the soup」,而谷歌却翻成「The maid entered the soup」。它翻对了「maid」,但译文的意思是错的,在现实生活中压根儿就不会发生。

  我不是有意刁难谷歌翻译,我真正想表达的意思是要始终记住,计算机只使用「词」,不理解「词」。

  Quartz:这就是你所谓的「伊丽莎效应」(Eliza effect)?

  侯世达:伊丽莎效应是指仅仅由于我们使用语言,赋予单词或词组它们原本并不具备的意义;因此,当另一实体使用字词并将其一一呈现在屏幕上,或者说出它们时,我们很容易认为屏幕之后的实体也有「智能」,能够思考。但实际上这完全是错的。

  Quartz:你认为计算机在不理解字词意义的前提下,有可能像人一样做到信达雅的翻译吗?

  侯世达:不,我完全不这么认为。因为真实世界非常非常复杂。

  Quartz:我们需要其他术语来进一步界定 AI,以进一步证明它无法真正表征「智能」吗?

  侯世达:这个问题很有趣。我并不认为我们现在拥有了「智能」。比如让我们回到这几年尽人皆知的自动驾驶汽车。

  我曾开车从印第安纳布鲁明顿(Bloomington)的家里去芝加哥做演讲,一两个小时后,高速上出现了非常严重的拥堵。我离芝加哥还很远,但路完全堵住了,我该如何做呢?有些人开始掉头,下高速,抄小路避开拥堵,。这可行,但有些车却因此陷入草地的泥沼之中。因此,我在想,我要这样做、冒这个险吗?

  假如我不赶时间,我可以慢慢前行直到穿过拥堵,但是现在我必须尽快赶到芝加哥。我已经堵了一个小时,时间所剩无几。现在我该如何做?我要承担多少损失?这次演讲对我非常重要吗?如果我打电话告诉他们我迟到半小时或者一小时呢?因此我在车上独自思考着,一会儿我要在限速 70 的车道上开 80 吗?或者开 90?我到底要开多快?

  对我来讲,这就是「驾驶」。真正的驾驶有很多现实世界的因素牵涉其中。

  如果你放眼世界,其中的情景没有规则,不会像国际象棋或围棋那样井井有条。现实世界中的情景没有边界,没有内外。

  Quartz:如果人们认为「机器智能」也在思考,会困扰你吗?

  侯世达:如果你问我理论上计算机硬件能否做到像人一样思考,答案当然是肯定的。计算机硬件能做大脑做的任何事,只是现在还未做到。我们对大脑的模仿停留在表面,并且有不少人走错了方向。有时机器的表现十分出彩。

  当时我步入该领域的感受是这样:创建看起来像是在思考的程序很有趣,创建像人一样会一点思考的程序也很有趣,这使你觉得正在逼近「思考」的本质,并且你做的越精妙,效果就越好。

  我比较认可机器也在缓慢进化的想法,这使我觉得人类才是终极目标,人类智能是一个奇迹。

  换言之,我认为从计算机智能通达人类智能存在着一种渐近的方法,渐近意味着从下方接近它,而不是超越它。这就像是一条曲线逼近一条直线,一直在直线下方移动。

  但是,随着 AlphaGo 和深蓝不断取得胜利,人们开始猜想人类这条线是否会被越过,就像深蓝所做的那样。两条线汇在一起,它们交叉了。没有渐近,只有交叉,接着计算机这条线开始直线上升。

  对我来讲,这是如此不同的一幅画面,我不喜欢它。

  真正使我恐惧的是人类思想覆灭,散入尘埃的场景。人类之于计算机就像蟑螂或跳蚤之于人类,我们没有得到计算机的帮助或加持,却被其彻底毁灭。这让人不寒而栗。

自动驾驶:、、、、、

网站地图 | RSS订阅 | RSS地图 | 网站首页 | 关于我们 | 技术共享 | 产品中心 | 成功案例 | 加盟我们 | 客户服务 | 联系我们 |
工况监测
    地址:北京市朝阳区汤立路218号明天·STUDIO·A座
    电话:0086-10-8467  8879      TEL:0086-133  6699  5587   (电话推销勿扰)
    版权所有:新企力(北京)检测服务有限公司   工作时间:(周一至周五  8:30-17:30)
    邮箱:web#xqili.com   京ICP备15050323号  
关闭