弱人工智能下人类可能面临的一些麻烦-尊龙凯时官方网址

author: chris song

人工智能发端于上世纪五十年代,经历了几次繁荣与低谷,到2016年谷歌所收购的deepmind公司的人工智能alphago赢得与世界围棋冠军的比赛,大众对人工智能的热情被重新点燃,并且持续升温。催生这波人工智能热潮的原因是产业发展的三个重要因素:超大规模的计算能力、大数据、机器学习尤其是深度学习算法都取得了进展。



我们以为的人工智能发展阶段可能是这样:



但真正的人工智能发展阶段可能是这样:



所谓强人工智能,就是智力水平跟人差不多的人工智能,就是拥有了自主意识,同时又不够「特别特别」聪明。


我们根本就来不及跟人工智能对抗,就瞬间被超越了。这种超越,可能是很可怕的。想想看,黑猩猩的大脑只是比我们轻了那么点、皮层比我们小了那么些,在我们眼里,他们就是野蛮的动物,跟弱智一样。那有强大学习能力、在「大脑」进化中并没有「硬件限制」的人工智能,看我们也许就像看低几个维度的生命了。


图片来自《人工智能的未来》


弱人工智能其实早已融入我们生活,而且正在潜移默化影响我们的生活。比较麻烦的是,大部分人都没有意识到这一点。在警惕着机器人、矩阵或者外星人的时候,我们都很可能全被弱人工智能所「统御」。这种统御并不是有意识的,而是无意识的。 


弱人工智能之所以被大家忽视,有两点主要原因:  


第一,弱人工智能一般很少被大家认为是人工智能本身,而觉得只是人工智能的分支或者技术。这些技术知名之后,都不叫人工智能了,比如 siri(语音识别&自然语言处理)和今日头条(个性化推荐)。前几天锤子发布会上演示的讯飞语音输入(语音识别)和 big bang 的功能(中文分词),也看起来不太像那么高级的人工智能,而只是比较先进的技术而已。人工智能这个词的发明者 john mccarthy 就说到,一样东西如果是人工智能实现的,那人们就不再叫他人工智能了。  


第二,相较强人工智能和超人工智能来说,弱人工智能看似完全在掌控之中。同时,弱人工智能又没有自主意识,并不会刻意去改变什么预设之外的工作,只是在执行人类给它写好的代码、编好的逻辑。既然是这样,拆弹机器人就永远只会拆弹,不会做出炸弹来;纳米机器人就永远只会治病,不会制造生化武器。好像没什么可怕的。但事情真的是这样的吗?  


弱人工智能的技术实际已经相当成熟,相关的科技公司也已经逐步崛起(机器之心选出全球最值得关注的 100 家人工智能公司)。许多生活中你尚未意识到的地方,其实都已经有了它们的身影。



那么在人工智能下,我们会遇到哪些麻烦呢?


-

01

-

信息被垄断


我们已经习惯了:打开搜索引擎,找想要的信息;打开新闻客户端,看看新闻;打开朋友圈,了解下朋友的动态。这么简单的、已经习以为常的场景,实则暗藏巨大的隐患。


现在纸媒很快要被淘汰,手机成了真正人人必备的信息入口,而互联网则逐渐成了唯一的信息平台——这在人类历史上绝无仅有。在很多人眼里,我们看到的信息变得多了,我们变得更加自由,但从另一方面来说,我们想要的信息被垄断和控制也变得更容易了。


想想看,我们想知道这个世界在发生什么,是不是已经完全依赖互联网了?在惯常思维中,互联网应该是打破了信息垄断的,但为什么说现在的互联网又在变得垄断了?  


康奈尔的计算机教授 thorsten joachims 曾经做过一个实验,观察用户点击 google 搜索结果的情况。其中第一条结果有 42% 的点击率,而第二条则是 8%。也就是说,不管剩下的结果怎么样,前两条结果已经占据了 50% 的注意力。  


接着,他们互换了前两条的位置,结果变成了 34% 和 12%。这也就是说,不管结果本身是怎样的,用户仍然只关心最开始的那条。  是不是跟想象的不太一样?  


百度、google 这样的公司,正在牢牢把控着目前我们的信息入口。虽然我们搜出来了 1000000 个结果或者 5000 个结果,有种世界尽在掌握的感觉,但实际上很遗憾的是,对绝大多数用户来说,不管是 1000000 个还是 5000 个结果,他们只会点击第一页最顶上的几条而已。  


说到这里,估计不用提示你也能想到在信息垄断方面,他们能做什么了吧。他们其实已经做了一些。百度今年某个事件,就是在知乎酝酿发酵的,而这个事件,恰恰就是百度利用了信息垄断来获利,在某些用户获取信息的过程中夹了私货(广告)导致的(青年魏则西之死)。  google 也经常在这个方面出事情,比如 2011 年的非法医药广告(谷歌曾因网络药品广告被罚5亿美元 后彻底整改)以及今年疑似为希拉里站台。



不管影响谷歌的搜索结果是不是真的,希拉里竞选团队的技术负责人的确是前谷歌的高管。凡是在获取信息通路上,处于入口地位的产品,都有垄断信息的可能。  当你随手点击了一家看似不错的餐厅的外卖时,也许不会意识到他们是花了钱的、是被平台塞到前面的(xxx、xx推外卖版“竞价排名” 被指虚假宣传);当你津津有味地阅读某个新闻客户端的推荐文章时,也估计不知道有些文章其实是软文或者公关文。  我们以为有了全新的信息入口、选择变得更多了。但其实我们选择变得更少了。   



-

02

-

过滤泡沫


我们以为是好的信息,结果是被机器人过滤掉真的有用的而推荐了他们设计的信息陷阱。


我们享受着个性化的服务:搜索引擎都在提供我们最有可能点击的网页;今日头条在说我们关心的才是头条;网易云音乐努力让我们总是听到喜欢的歌......  第二个要说的麻烦同样存在于看似更便捷和舒适的人工智能技术里——个性化推荐。  


近几年随着机器学习的发展,个性化推荐愈发有效。我们能用新闻客户端看到更喜欢的资讯、能用音乐客户端听到更喜欢的歌。在这之前,我们都疲于从无数的资讯和歌曲中分辨哪些才是我们喜欢的。  


似乎很美好,毕竟我们能够找到自己更喜欢的了。但这正是陷阱所在:我们喜欢的,就是我们需要的吗?  就好像说,我们喜欢甜,就每顿饭只吃白砂糖?喜欢美女,就每天混迹于红灯区吗?如果只顾着享受快感,那么毒品就会是正确的选择。当这些个性化推荐系统逐渐明白我们的喜好后,就会很精准地给我们最喜欢的,而且永远都是最喜欢的。   



协同过滤是最常见的个性化推荐算法,亚马逊、facebook、今日头条、网易云音乐、豆瓣都采用了这种算法。我们喜欢摇滚乐,系统搞明白后,我们就永远听不到其它的音乐风格了,并且会错失跟它们邂逅的机会。就像一个朋友说的,他在听了一个星期民谣以后,想听几首流行歌,在每天的推荐歌单里已经找不到了。我们喜欢小米手机,系统搞明白后,我们也就永远看不到其它手机的资讯了。我们会认为全世界都在议论小米,却意识不到在三四线城市,仍然是 vivo 和 oppo 的天下。


互联网观察家 eli pariser 在 2011 年的 ted 演讲上,把这样的现象叫做 the filter bubble,也就是过滤泡沫。过滤泡沫让我们只关心世界的一小块,而且是越来越窄的一小块。更可怕的是,由于我们自己并不清楚过滤泡沫的存在,所以我们也不知道自己不知道。

   

图片出自 eli pariser 的 ted 演讲


在未来各种互联网服务成为常态后,即使没有人去操纵,在个性化推荐的「协助」下,我们也会变得越来越狭隘。我们订的推荐的外卖,都是一个口味的;我们喜欢的歌,都是一个类型的;我们看的新闻,都是关于某一些事情的;我们到淘宝买的排序在前的东西,都是一样风格的。 这可能是我们会遇到的第二个麻烦。  



-

03

-

数据风险   


我们在享受着数据的便利。淘宝能够依据我们的个人数据推荐最合适的商品;餐厅能够根据我们的喜好推荐最合适的菜单;医生可以根据我们的历史病历数据来得到更准确的诊断;连家里的智能温度系统知道我们回家了都会把温度调整到最适宜的状态。  


在《1984》里,电子屏无处不在。老大哥依靠这个监视着每个人。如今的城市里,公共场合摄像头也是无处不在的,虽然目的不是为了监视我们,但至少提供了监视我们的途径。  


数据将通过三个途径变得更加完善: 


 一、主动提供。既然要有个性化推荐,既然我们要享受其它各种大数据带来的福利,那么我们就要提供很多个人的信息和数据。你可能没注意很多软件注册时的声明,但在读下这些文字时,你估计已经默认同意过几十个甚至上百个产品的隐私协议了,这些协议确保他们能够合法获取你的各种信息和数据。


二、被动监视。智能设备在逐步变多,也就意味着摄像头、各种传感器和监视器都变得多了起来。当你家里布满各种各样的智能设备、或者你身上在用各种设备,并且它们都接入了互联网时,它们也就同时带来了泄露你各种隐私的风险。  


三、间接收集。科技进步使得很多过去在档案里、在纸质手册里的很多信息得以电子化。我们在医院的病历数据,在公安局的登记数据,在学校的教育数据,在公司的工作数据,在银行的信用数据,原本只是在限定的时空里存储,现在则会存入联网的数据库。迟迟没有破案的白银连环杀人案,就是因为公安局的 dna 检测能够联网匹配,在 y-str 数据库里发现了凶手的堂叔。  


由于这些变化,我们的数据逐步变得完整。这些数据,迟早可以描述我们每个人(就像《黑镜》第 2 季第 1 集里所讲的那样,死者的社交信息已经可以重塑他本人了),并且实时、动态地「监视」我们每个人。  


这些数据如果被滥用,后果不堪设想。  


如果被政府滥用,那就是像《1984》里描述的那种场景。我们所见到的每个摄像头、每块屏幕都是监视器,我们所拨出的每个电话、发的每条消息都被窃听。 


   


苹果的经典广告里,拿着锤子的女模特击碎了老大哥的屏幕。而现在,苹果变成了新的老大哥,拥有全世界无数用户的个人信息。好在他们暂时还没有向政府妥协。 除了提供给政府,还有种可能是数据库的泄露。这样的事情发生过不止一次两次了,经常有账号密码泄露,就有大量的用户隐私被传出,有些非常严重。  


这世界上不会存在完美的安全措施。互联网的地下世界有着无数黑客,他们可以来去无踪地搞到这些数据,不留任何痕迹。  科幻短剧《黑镜》第 3 季第 3 集讲的就是主人公和其他几个人被人盗取了隐私数据,被抓住了把柄所以言听计从、毫无还手之力,结局凄惨。   


除此之外,在某些人工智能技术足够成熟后,数据可能有更重要的意义。目前的数据也许只是个人用途,但未来的数据可能是社会性的,比如交通数据、金融数据或者军事数据。  


万一这些数据被人窃取甚至操纵,那后果不堪设想。就像一个连环杀人案,凶手的 dna 在数据库里被人修改掉,那无辜的人就可能被当做杀人犯;或者有的人病历数据被恶意改掉,结果医生开了对他来说可能会过敏致死的药......  


未来的智能交通系统、医疗系统,在工厂里的各种智能机械......但凡是有杀人放火能力的,并且在依照我们设定的数据按部就班工作的智能系统,都有可能因为数据篡改而造成天灾人祸。  


《黑镜》第 3 季第 6 集里,原本用来维持生态平衡的电子蜜蜂被人修改了智能模块的数据,变成了可怕的杀人凶器。    



-

04

-

真假陷阱


有了 ar 之后,我们的未来会大不一样。


了解更多关于ar技术请点击


未来如果能在家里,能感受到在任何其它环境中相似的体验,那干嘛还要出门呢?佛教中有所谓五感(色声香味触),这些感知都能用先进的科技完成的话,我们是不是就省去了很多麻烦呢? 

 

问题就来了:你怎么知道你所看到的、感觉到的是真的还是假的呢?  


快速发展的人工智能技术会让造假变得有可能。  


我们用 ar 的工具跟朋友聊天、谈笑风生,但其实跟你聊天的,会不会只是一个机器人?那些影像会不会只是制作出的 cg?  你在路上看到每个路标、行人或者远处的高山,会不会是全息投影出来的假象?你坐在火车里,以为是一直驶向北方的,但车窗会不会是投射虚假风景的电子屏、你其实绕路去了另外的地方?  随着 ar 技术的发展,我们也许都会戴上像 google glass 那样的工具(当然肯定没有它那么笨拙)。有可能就像一个隐形眼镜一样方便,戴上去就能看到更多智能系统提供的视听内容;甚至有可能会直接植入什么芯片和纳米设备。  



如果是这样,我们以为只是增强了现实的 ar 技术,就有无数种方法来操纵我们、混淆我们了。  《黑镜》第 3 季第 5 集里的大兵,都植入了称为「mass」的视听增强系统,用来辅助他们的军事行动。他们可以直接取用无人机的视角、看到系统发来的信息以及地图。同时,这个系统也可以屏蔽掉很多声音、改变看到的画面,制造出虚假的内容,用来误导和操纵大兵。


相关阅读


网站地图