对不起,Facebook的AI系统没有“失控”……
2017-08-02 15:48 Facebook 人工智能 人工智能威胁论 马斯克

你有没有被Facebook的AI系统“失控”的新闻惊吓到?幸好那是个乌龙。但是,你相信要拯救地球的马斯克吗?

文 | 杨洁    编辑 | 黑智

机器碾压人类的时刻要到了?

马斯克和扎克伯格关于AI威胁论的争论还没有远去,日前,又传出Facebook关闭了一个“失控”的人工智能系统的新闻,据称是因为聊天机器人开始用他们自己的语言说话,这些语言使用英语单词,但人类无法理解。

据报道称,Facebook 于 6 月开始测试的 AI 系统出现了问题,两个智能对话机器人在对话时“失控”了。当然,它们并没有关闭全球的电脑或者作出其他什么类似的行动来,而是它们在对话时停止使用英语,并开始使用只有它们自己才能理解的新创建的语言。Facebook不得不拔掉正在研究的人工智能系统的插头。

和马斯克表示人工智能是人类文明面临的最大风险、应该积极“监管”的言论对照,这自然让人容易产生更大的担忧。机器是否可以脱离研究人员设置的脚本,改善沟通的结果,进而“欺骗”人类?

但事实上,这个担心还是太早了。

很快,Facebook解释称,两个机器人为实验性质,且并没有发明新的语言,因为他们还是在用i、balls、the等英文单词沟通,只是没有设置“英语语法”的激励项,于是创造了一种新的表达方式而已。因此,官方也表示,他们关闭人工智能系统的原因也并非是由于它们“失控”,而是因为这样做没有意义,因为他们更“希望AI和人沟通,而不是相互沟通。”

所以,大概的原因,我们可以解释为,这两台机器,它们只是英语不好。

就如同两个婴幼儿,在用大人听不懂的话交流,但是其基础还是人类语言。

但不用担心的是,这两个孩子没有人类一样复杂的思维和创造力。

AI威胁论已经不是个新鲜话题了。

几年前,谷歌旗下人工智能实验室DeepMind的联合创始人哈萨比斯造访马斯克的SpaceX火箭工厂时,马斯克说,SpaceX的终极目标是这个世界上最重要的项目:星际殖民,这样“将来如果人工智能向人类发起攻击,我们还有一个藏身之地。”

哈萨比斯的反应是哈哈大笑说,那人工智能也会追着人类去火星。

因此,马斯克的担忧一直没有被打消。

著名物理学家霍金也抱有同样的忧虑。他曾向BBC表示:“我认为,人工智能的发展可能预示着人类的灭亡。”

人工智能是否如此凶猛?

李开复在给Quartz的约稿中提到:人工智能擅长对目标明确的工作进行优化(但是不能创造,没有感情);机械控制的发展速度较人工智能软件的发展要缓慢得多;传感器虽然得到迅猛发展,但价格昂贵、体积偏大且太耗电。

人工智能时代正在走近,机器在帮助我们提升工作效率、节省成本、带来效益,甚至在高重复性劳动中能够替代人的部分工作,但是,它们还远不具备“人性”。人工智能在数年前,还连猫和狗都无法区分。它们现在,也许只是摄像头、车辆中的自动驾驶系统、按照设置脚本完成工作的物流机器人,或者辅助教学的工具。

拥有自我意识、情感的机器,目前还没有出现。

那么,这一天是否终会到来呢?

鲁白曾在博鳌论坛上表示:“人工智能可以有认知功能,包括逻辑思维分析,以及决策之类。人还有另外的一个方面的认知叫做高级认知功能,里面包括语言包括自我的意识,包括想象力、创造力最后还有人所特有的一种目的性的行为,而我认为,人类是在这方面,是不能被机器代替的。”

在深圳IT领袖峰会上,李彦宏曾表示,机器学习的算法还在初级阶段,未来还有很多提升空间,但同时,他说,强人工智能时代,可能永远也不会到来,用电脑的方法模拟人脑,达到人脑的水平,是永远做不到的:“人工智能什么时候能挑战人的认知能力?我觉得还有很长很长的时间。我说话比较保守,我说很长,但我其实认为,这一天永远不可能来到。”

但对人工智能,人类对它的“不信任”是存在的。因为,从本质上看,目前深度学习,是个非常黑的“黑箱”。也即是,你是不能看出它是如何工作的。也许机器输出的结果,可以给到合理的解释,但也有可能,有的你还完全没有任何理由去推断。

因此,我们在利用机器决策时,不能简单地去相信或拒绝相信它的判断,同样,我们也要保证,如何让AI系统学会作出符合我们道德标准和社会规范的判断。

之前,美国五大科技巨头谷歌、Facebook、亚马逊、IBM和微软罕见携手,成立了人工智能合作组织。此外,欧盟也开始探讨机器人和人工智能方面的道德问题。

当然,AI之间对抗的实验也已经在进行。

Google本部的人工智能团队Google Brain(不是 DeepMind),就针对这个问题在去年做了实验。研究者用到了三个并不复杂的神经网络,其中两个均未学过任何的加密知识,而是单纯依靠二者之间的共识(一段共享的密钥 K),去设计出一个加密的方法;另一个则为解密方。

结果发现他们搭建的人工智能系统,自己创造出了一个加密算法,不光人猜不透,还能“自我升级”,让算法无法破解。

DeepMind 则是找了两个人工智能玩对抗游戏,结果发现,它们之间也能学会共赢和合作。

在今年5月乌镇的围棋峰会的人机配对赛中,即将终局前,面对劣势,与古力搭档的AlphaGo决定投子认输,古力却拒绝了AlphaGo的要求,仍坚持鏖战。而之后,AlphaGo的棋路变得越来越消极,最终,古力在不可逆转的情势下,也只得认输。

但是,这些实验并没有脱离人类的控制,作为环境的搭建者,人类需要设计和搭建神经网络,以及对失败和成功的定义等。

但对于AI威胁论,在马斯克忙碌之余,我们或许现在还大可以放下心来。用马云的话说,现在AlphaGo还不会下臭棋,那么,so what?