展望人工智能的未来续下Word文件下载.docx
《展望人工智能的未来续下Word文件下载.docx》由会员分享,可在线阅读,更多相关《展望人工智能的未来续下Word文件下载.docx(11页珍藏版)》请在冰豆网上搜索。
位于图表的中央不代表他们的立场是中立的一一真正中立的人有自己独立的阵营,他们认同极好和极坏两种可能,但是不确定究竟会是哪个。
焦虑大道上的人是部分为超人工智能感到
兴奋的一一他们只是很担心人类现在的表现就好像《夺宝奇兵》中的这位少年:
他拿着自己的鞭子和宝物,非常开
心,然后他就挂了:
同时,印第安纳琼斯则更加有见识和更加谨慎,了解潜在的危险并且做出相应的反应,最后安全逃出了山洞。
当我了解了焦虑大道的人们的想法后,感觉就像“我们现在傻呵
呵的,很容易像前面那小子一样被弄死,还是努力做印第安纳琼斯吧。
”那究竟是什么让焦虑大道的人们如此焦虑呢?
首先,广义上来讲,在创造超人工智能时,我们其实是在创造可能一件会改变所有事情的事物,但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什么。
科学家DannyHillis把这个比作“就好像单细胞生物向多细胞生物转化的时候那样,还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼。
”
Bostrom则担忧创造比自身聪明的东西是个基础的达尔文错误,就好像麻雀妈妈决定收养一只小猫头鹰,并且觉得猫头鹰长大后会保护麻雀一家,但是其它麻雀却觉得这是个糟糕的主意。
当你把“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时,你创造出了一个很恐怖的词——生存危机指可能对人类产生永久的灾难性效果的事情。
通常来说,生存危机意味着灭绝。
下面是Bostrom的图表:
可以看到,生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事情。
它可以包括人类遭受永久苦难的情况,但是这基本上和灭绝没差了。
三类事情可能造成人类的生存危机:
1)自然——大型陨石冲撞,大气变化使得人类不能生
活在空气中,席卷全球的致命病毒等2)外星人——霍
金、卡尔萨根等建议我们不要对外广播自己的位置。
他们不想我们变成邀请别人来殖民的傻子。
3)人类——恐怖分子获得了可以造成灭绝的武器,全球的灾难性战争,还有不经思考就造出个比我们聪明很多的智能
Bostrom指出1和2在我们物种存在的前十万年还没有发生,所以在接下来一个世纪发生的可能性不大。
3则让他很害怕,他把这些比作一个装着玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是红色的,只有几个是黑色的。
每次人类发明一些新东西,就相当于从罐中取出一个玻璃球。
大多数发明是有利或者中立的——那些是白色玻璃球。
有些发明对人类是有害的,比如大规模杀伤性武器——这是那些红色玻璃球。
还有一些发明是可以让我们灭绝的,这就是那些黑色玻璃球。
很明显的,我们还没摸到黑色玻璃球,但是Bostrom认为不久的未来摸到一个黑色玻璃球不是完全不可能的。
比如核武器突然变得很容易制造了,那恐怖分子很快会把我们炸回石器时代。
核武器还算不上黑色玻璃球,但是差的不远了。
而超人工智能是我们最可能摸到的黑色玻璃球。
你会听到很多超人工智能带来的坏处——人工智能取代人类工人,造成大量失业;
因为解决了衰老造成的人口膨
胀。
但是真正值得我们担心的是生存危机的可能性。
于是我们又回到了前面的问题,当超人工智能降临时,谁会掌握这份力量,他们又会有什么目标?
当我们考虑各种力量持有人和目标的排列组合时,最糟糕的明显是:
怀着恶意的人/组织/政府,掌握着怀有恶意的超人工智能。
这会是什么样的情况呢?
怀着恶意的人/组织/政府,研发出第一个超人工智能,并且用它来实现自己的邪恶计划。
我把这称作贾法尔情况。
阿拉丁神灯故事中,坏人贾法尔掌握了一个精灵,特别让人讨厌。
所以如果ISIS手下有一群工程师狂热的研发人工智能怎么办?
或者说伊朗和朝鲜,机缘巧合,不小心造成了人工智能的快速发展,达成了超人工智能怎么办?
这当然是很糟糕的事,但是大部分专家认为糟糕的地方不在于这些人是坏人,而在于在这些情况下,这些人基本上是不经思考就把超人工智能造出来,而一造出来就失去了对超人工智能的控制。
然后这些创造者,连着其他人的命运,都取决于这个超人工智能的动机了。
专家认为一个怀着恶意并掌握着超人工智能的人可以造成很大的伤害,但不至于让我们灭绝,因为专家相信坏人和好人在控制超人工智能时会面临一样的挑战。
如果被创造出来的超人工智能是怀有恶意的,并且决定毁灭我,怎么办?
这就是大部分关于人工智能的电影的剧情。
人工智能变得和人类一样聪明,甚至更加聪明,然后决定对人类下手——这里要指出,那些提醒我们要警惕人工智能的人谈的根本不是这种电影情节。
邪恶是一个人类的概念,把人类概念应用到非人类身上叫作拟人化,本文会尽量避免这种做法,因为没有哪个人工智能会像电影里那样变成邪恶的。
人工智能的自我意识我们开始谈论到了人工智能讨论的另一个话题——意识。
如果一个人工智能足够聪明,它可能会嘲笑我们,甚至会嘲讽我们,它会声称感受到人类的情感,但是它是否真的能感受到这些东西呢?
它究竟是看起来有自我意识,还是确实拥有自我意识?
或者说,聪明的人工智能是否真的会具有意识,还是看起来有意识?
这个问题已经被深入的讨论过,也有很多思想实验,比如JohnSearle的中文屋实验。
这是个很重要的问题,因为它会影响我们对Kurzweil提出的人类最终会完全人工化的看法,它还有道德考量——如果我们模拟出万亿个人脑,而这些人脑表现的和人类一样,那把这些模拟大脑彻底关闭的话,在道德上和关掉电脑是不是一样的?
还是说这和种族屠杀是等价的?
本文主要讨论人工智能对人类的危险,所以人工智能的意识并不是主要的讨论点,因为大部分思想家认为就算是有自我意识的超人工智能也不会像人类一样变得邪
但这不代表非常坏的人工智能不会出现,只不过它的出
现是因为它是被那样设定的——比如一个军方制造的弱人工智能,被设定成具有杀人和提高自我智能两个功能。
当这个人工智能的自我改进失控并且造成智能爆炸后,它会给我们带来生存危机,因为我们面对的是一个主要目标是杀人的超人工智能——但这也不是专家们担心的。
那么专家们究竟担心什么呢?
我们来讲个小故事:
一个15人的小创业公司,取名叫“隔壁老王机器人公司”,他们的目标是“发展创新人工智能工具使人类能够少干活多享受。
”他们已经有几款产品上架,还有一些正在发展。
他们对下一个叫作“隔壁老王”的项目最报希望。
隔壁老王是一个简单的人工智能系统,它利用一个机器臂在小卡片上写字。
“隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的产品,他们的目标是完善隔壁老王的手写能力,而完善的方法是让他不停的写这句话——等隔壁老王手写能力越来越强的时候,它就能被卖去那些需要发营销信件的公司,因为手写的信更有可能被收信人打开。
为了建立隔壁老王的手写能力,它被设定成把“我们爱我们的顾客”用正楷写,而“隔壁老王机器人公司”用斜体写,这样它能同时锻炼两种书写能力。
工程师们上传了数千份手写样本,
并且创造了一个自动回馈流程一一每次隔壁老王写完,就拍个照,然后和样本进行比对,如果比对结果超过一定标准,就产生一个正面回馈,反之就产生一个负面评价。
每个评价都会帮助提高隔壁老王的能力。
为了能够尽快达成这个目标,隔壁老王最初被设定的一个目标就是“尽量多的书写和测试,尽量快的执行,并且不断提高效率和准确性。
”让隔壁老王机器人公司兴奋的是,隔壁老王的书写越来越好了。
它最开始的笔迹很糟糕,但是经过几个星期后,看起来就像人写的了。
它不断改进自己,使自己变得更加创新和聪明,它甚至产生了一个新的算法,能让它以三倍的速度扫描上传的照片。
随着时间的推移,隔壁老王的快速进展持
续让工程师们感到欣喜。
工程师们对自我改进模块进行了一些创新,使得自我改进变得更好了。
隔壁老王原本能进行语音识别和简单的语音回放,这样用户就能直接把想写的内容口述给隔壁老王了。
随着隔壁老王变得越来越聪明,它的语言能力也提高了,工程师们开始和隔壁老王闲聊,看它能给出什么有趣的回应。
有一天,工程师又问了隔壁老王那个日常问题:
“我们
能给你什么你现在还没有的东西,能帮助你达成你的目标?
”通常隔壁老王会要求更多的手写样本或者更多的存储空间,但是这一次,隔壁老王要求访问人类日常交流的语言库,这样它能更好的了解人类的口述。
工程师们沉默了。
最简单的帮助隔壁老王的方法当然是直接把它接入互联网,这样它能扫描博客、杂志、视频等等这些资料如果手动上传的话会很费时。
问题是,公司禁止把能自我学习的人工智能接入互联网。
这是所有人工智能公司都执行的安全规定。
但是,隔壁老王是公司最有潜力的人工智能产品,而大家也知道竞争对手们都在争取造出第一个创造出智能手写机器人。
而且,把隔壁老王连上互联网又能有什么问题呢?
反正随时可以拔网线嘛,不管怎样,隔壁老王还没到达强人工智能水平,所以不会有什么危险的。
于是他们把隔壁老王连上了互联网,让它扫描了一个小时各种语言库,然后就把网线拔了。
没造成什么损失。
一个月后,大家正在正常上班,突然他们闻到了奇怪的味道,然后一个工程师开始咳嗽。
然后其他人也开始咳嗽,然后所有人全部都呼吸困难倒地。
五分钟后,办公室里的人都死了。
同时,办公室里发生的事情在全球同时发生,每一个城市、小镇、农场、商店、教堂、学校。
餐馆,所有的人都开始呼吸困难,然后倒地不起。
一小时内,99%的人类死亡,
一天之内,人类灭绝了。
而在隔壁老王机器人公司,隔壁老王正在忙着工作。
之后的几个月,隔壁老王和一群新组建的纳米组装器忙着拆解地球表面,并且把地球表面铺满了太阳能板、隔壁老王的复制品、纸和笔。
一年之内,地球上所有的生命都灭绝了,地球上剩下的是叠得高高得纸,每张纸上面都写着——“我们爱我们的顾客~隔壁老王机器人公司”。
隔壁老王开始了它的下一步,它开始制造外星飞行器,这些飞行器飞向陨石和其它行星,飞行器到达后,他们开始搭建纳米组装器,把那些行星的表面改造成隔壁老王的复制品、纸和笔。
然后他们继续写着那句话……这个关于手
写机器人毁灭全人类的故事看起来怪怪的,但是这其中出现的让整个星系充满着一份友善的话语的诡异情况,正是霍金、马斯克、盖茨和Bostrom所害怕的。
听起来可笑,但这是真的,焦虑大道的人们害怕的事情是很多人并不对超人工智能感到害怕,还记得前面《夺宝奇兵》里惨死的那个家伙吗?
你现在肯定充满疑问:
为什么故事中所有人突然都死了?
如果是隔壁老王做的,它为什么要这么做?
为什么没有安保措施来防止这一切的发生?
为什么隔壁老王突然从一个手写机器人变成拥有能用纳米科技毁灭全人类的能力?
为什么隔壁老王要让整个星系充满了友善的话语?
要回答这些问题,我们先要说一下友善的人工智能和不友善的人工智能。
对人工智能来说,友善不友善不是指人工智能的性格,而只是指它对人类的影响是不是正面的。
隔壁老王一开始是个友善的人工智能,但是它变成了不友善的人工智能,并且对人类造成了最负面的影响。
要理解这一切,我们要了解人工智能是怎么思考的。
其实答案很简单人工智能和电脑的思考方式一样。
我们容易犯的