编者按:本文来自微信公众号“极客公园”(ID:geekpark),作者宋德。我想你们大概都知道Facebook一个AI项目失控被迫关闭的事了。据外媒报道,Facebook于6月开始测试的AI系统出现了问题,两个智能对话机器人在对话时开发出了「人类不理解的语言」,目前这个项目已经被Facebook自己关闭了,其官方解释说研究人员「希望AI与人沟通,而不是相互沟通。

」但是Facebook关闭该项目的新闻已经曝出半个多月了,而其AI聊天机器人「创造一种人类无法理解的语言」这事更是六月的旧闻了。为什么这件事现在又火起来了呢?原因可能是Facebook的创始人马克·扎克伯格刚刚与埃隆·马斯克就AI威胁论的问题隔空吵了个架,余热尚在,Facebook被迫关闭「失控」的AI项目绝对是一波「打脸」的好戏码,于是我们就看到一波鼓吹AI威胁论的声音此起彼伏。有关该事件的外媒报道但我们在看了许多外媒文章之后发现,他们并没有对此事追根溯源,从一开始,他们就把AI之间语法不通的英语句子看做了一种全新的语言,而Facebook的两个聊天机器人Bob和Alice使用的依然是英语单词,只是语法上没有任何意义而已。Bob:「IcancanIIeverythingelse."Alice:「Ballshavezerotometometometometometometometometo."翻译过来是:Bob:「我能能我我所有其他事。」Alice:「球没有对我对我对我对我对我对我对我对我对。

」这怎么看都是英语没学好啊。Bob和Alice的对话截图;图源:FastCo.Design对于这件事,人工智能公司iPIN的创始人杨洋表示,其实这种机器乱语的情况早就有了先例,Google的聊天机器人就出现过这种状况,「说是新的语言太勉强,反而是将文字符号化,高阶语言降为低阶语言,或者说机器语言。」「自创语言」的来龙去脉6月的时候,Facebook人工智能实验室发表了一篇文章,介绍了他们如何教AI与人类进行谈判,他们希望训练机器人不仅仅是在表面上模仿人类,而是真正的像人类一样处理事情。在这个项目上Facebook取得了一定的研究成果,他们的机器人在与人进行谈判时,人类甚至无法区分出对面的是机器还是人类。但后来情况发生了变化。

Bob和Alice之间的对话出现了上述那种语法不通的句子,据Facebook人工智能实验室的研究人员DhruvBatra所说,对话系统出现故障的原因是因为「没有针对英语语言的奖励机制」。此前我们报道过,深度学习技术的一个延伸——加强学习(ReinforcementLearning)中,技术人员可以通过设立奖励机制来规范机器自学习的方向,从而得到开发者更想要的深度学习结果,比如去年AlphaGo在升级的过程中就使用了这样的技术,再比如在这个事件里,据Dhruv的说法,如果研究人员在系统中编写针对英语语法的奖励机制,系统就会偏向于更符合英语语法的语言,也就不会出现现在的情况。我们就此事采访了AI平台公司三角兽科技的创始人马宇驰先生,他认为「这应该是一个小题大做的事情,在模型训练不完善的时候对话,会有类似的情形,理解成没完成的训练工作也许更合适。」另外一边iPIN的创始人杨洋也持有类似的观点:「任何对话,加上GAN(生成对抗网络),再做一些语言价值预设作为反馈逻辑,很容易出现这种情况。其实用GAN来训练机器人编程,本来就是这么个思路。

」说到底,这就是个技术失误,所谓「英语是一个非常复杂且难懂的语言,对机器学习来说不是很适合」,听起来非常危言耸听,好像AI像科幻电影里一样,已经开始「淘汰人类」了,但事实是,机器只是机器,他们不过是设定好的程序,你见过哪个程序员用英语写程序的?这一点是各类鼓吹AI真的发明了一种语言这种说辞的的文章没有提到的。项目关闭原因有待证实谈到Facebook关闭该项目的原因,马宇驰先生的态度非常明确:「Facebook关闭AI项目的原因不可能是这种,应该是外面杜撰出来的」,报道中出现的问题「修复重置等等都可以(解决)」。据外媒最初的报道,Facebook的研究员MikeLewis表示,他们关闭该项目的原因是因为目前的情况不符合他们的预期,「我们的目标是让机器人和人聊天」。原文里并没有给出详细的采访过程,也没有被访研究员的前后语境,加上文章从一开始就把它当做是AI觉醒奇点前兆一样的事件来看待,确实给人一种科幻成真的感觉,但这其实是有点误导读者的意思了,马宇驰先生也对文章中的采访内容表示了质疑。宣传以外,是人主观放大了问题事实上,在人工智能屡屡成为热门事件的今天,人们在面对相关事件时其实夹杂着一点「对科幻的向往」,无论是《终结者》里的「天网」还是《生化危机》里的「红皇后」,这些科幻故事中的机器反派往往叫人又爱又恨,在听故事之后,人们往往有一种科幻成真的幻想情节,如果现实中出现了天网会怎样?这也应该是科幻片最迷人的地方之一吧。

《生化危机》中的红皇后;图源:YouTube此前美国的警卫机器人Steve故障「投池」就引起了好一波关注,先是在社交媒体走红,有引起了各大媒体的报道,机器人自杀的笑话瞬间登上新闻头条成为了热门话题。有人认为Steve工作太无聊了自杀,有人认为巡逻散步的Steve思考人生时迷了路……不管怎么说,都是典型的人的思维。警卫机器人Steve落水;图源:NewYorkPost但从官方的调查来看,Steve落水的原因无非是下雨天气影响或者障碍导致的紧急路线变更导致的,说到底都是尚待修复的bug,不仅不是机器太过智能,反而是因为不够智能导致的。但外界对此的关心其实是有主观选择的,大众对机器故障毫不在乎,但如果说是「工作无聊、投池自杀」就要吸睛得多。而人们在对待类似的问题时,往往不由自主会去放大这样的问题,微软聊天机器人说脏话、机器人投池自杀、Facebook聊天机器人发明语言……一个个事件累加起来给人一种AI越来越失控的感觉,但这种整体的感觉只是表层的感觉,没有事实的依据,更没有对每个问题进行深度的探索,加之马斯克、霍金等大腕发声宣扬AI威胁论,群众不自觉地就会站在技术真相的对立面。

在一次内部培训中,创新工场AI工程院副院长王咏刚先生就曾表示,在Google内部,技术人员甚至不愿意将目前大行其道的深度学习技术称为人工智能。在他们看来目前家家户户热议的人工智能还非常初级,远远谈不上智能。