展望人工智能的未来续下.docx

上传人:b****8 文档编号:9910664 上传时间:2023-02-07 格式:DOCX 页数:15 大小:29.36KB
下载 相关 举报
展望人工智能的未来续下.docx_第1页
第1页 / 共15页
展望人工智能的未来续下.docx_第2页
第2页 / 共15页
展望人工智能的未来续下.docx_第3页
第3页 / 共15页
展望人工智能的未来续下.docx_第4页
第4页 / 共15页
展望人工智能的未来续下.docx_第5页
第5页 / 共15页
点击查看更多>>
下载资源
资源描述

展望人工智能的未来续下.docx

《展望人工智能的未来续下.docx》由会员分享,可在线阅读,更多相关《展望人工智能的未来续下.docx(15页珍藏版)》请在冰豆网上搜索。

展望人工智能的未来续下.docx

展望人工智能的未来续下

展望人工智能的未来(续)下

  未来可能是我们最糟的恶梦  我想了解人工智能的一个原因是“坏机器人”总是让我很困惑。

那些关于邪恶机器人的电影看起来太不真实,我也没法想象一个人工智能变得危险的真实情况。

机器人是我们造的,难道我们不会在设计时候防止坏事的发生吗?

我们难道不能设立很多安全机制吗?

再不济,难道我们不能拔插头吗?

而且为什么机器人会想要做坏事?

或者说,为什么机器人会“想要”做任何事?

我充满疑问,于是我开始了解聪明人们的想法。

  这些人一般位于焦虑大道:

  焦虑大道上的人并不是恐慌或者无助的——恐慌和无助在图上的位置是更加左边——他们只是紧张。

位于图表的中央不代表他们的立场是中立的——真正中立的人有自己独立的阵营,他们认同极好和极坏两种可能,但是不确定究竟会是哪个。

  焦虑大道上的人是部分为超人工智能感到兴奋的——他们只是很担心人类现在的表现就好像《夺宝奇兵》中的这位少年:

  他拿着自己的鞭子和宝物,非常开心,然后他就挂了:

  同时,印第安纳琼斯则更加有见识和更加谨慎,了解潜在的危险并且做出相应的反应,最后安全逃出了山洞。

当我了解了焦虑大道的人们的想法后,感觉就像“我们现在傻呵呵的,很容易像前面那小子一样被弄死,还是努力做印第安纳琼斯吧。

”  那究竟是什么让焦虑大道的人们如此焦虑呢?

  首先,广义上来讲,在创造超人工智能时,我们其实是在创造可能一件会改变所有事情的事物,但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什么。

科学家DannyHillis把这个比作“就好像单细胞生物向多细胞生物转化的时候那样,还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼。

  Bostrom则担忧创造比自身聪明的东西是个基础的达尔文错误,就好像麻雀妈妈决定收养一只小猫头鹰,并且觉得猫头鹰长大后会保护麻雀一家,但是其它麻雀却觉得这是个糟糕的主意。

  当你把“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时,你创造出了一个很恐怖的词——  生存危机指可能对人类产生永久的灾难性效果的事情。

通常来说,生存危机意味着灭绝。

下面是Bostrom的图表:

  可以看到,生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事情。

它可以包括人类遭受永久苦难的情况,但是这基本上和灭绝没差了。

三类事情可能造成人类的生存危机:

  1)自然——大型陨石冲撞,大气变化使得人类不能生活在空气中,席卷全球的致命病毒等  2)外星人——霍金、卡尔萨根等建议我们不要对外广播自己的位置。

他们不想我们变成邀请别人来殖民的傻子。

  3)人类——恐怖分子获得了可以造成灭绝的武器,全球的灾难性战争,还有不经思考就造出个比我们聪明很多的智能

  Bostrom指出1和2在我们物种存在的前十万年还没有发生,所以在接下来一个世纪发生的可能性不大。

3则让他很害怕,他把这些比作一个装着玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是红色的,只有几个是黑色的。

每次人类发明一些新东西,就相当于从罐中取出一个玻璃球。

大多数发明是有利或者中立的——那些是白色玻璃球。

有些发明对人类是有害的,比如大规模杀伤性武器——这是那些红色玻璃球。

还有一些发明是可以让我们灭绝的,这就是那些黑色玻璃球。

很明显的,我们还没摸到黑色玻璃球,但是Bostrom认为不久的未来摸到一个黑色玻璃球不是完全不可能的。

比如核武器突然变得很容易制造了,那恐怖分子很快会把我们炸回石器时代。

核武器还算不上黑色玻璃球,但是差的不远了。

而超人工智能是我们最可能摸到的黑色玻璃球。

  你会听到很多超人工智能带来的坏处——人工智能取代人类工人,造成大量失业;因为解决了衰老造成的人口膨胀。

但是真正值得我们担心的是生存危机的可能性。

  于是我们又回到了前面的问题,当超人工智能降临时,谁会掌握这份力量,他们又会有什么目标?

  当我们考虑各种力量持有人和目标的排列组合时,最糟糕的明显是:

怀着恶意的人/组织/政府,掌握着怀有恶意的超人工智能。

这会是什么样的情况呢?

  怀着恶意的人/组织/政府,研发出第一个超人工智能,并且用它来实现自己的邪恶计划。

我把这称作贾法尔情况。

阿拉丁神灯故事中,坏人贾法尔掌握了一个精灵,特别让人讨厌。

所以如果ISIS手下有一群工程师狂热的研发人工智能怎么办?

或者说伊朗和朝鲜,机缘巧合,不小心造成了人工智能的快速发展,达成了超人工智能怎么办?

这当然是很糟糕的事,但是大部分专家认为糟糕的地方不在于这些人是坏人,而在于在这些情况下,这些人基本上是不经思考就把超人工智能造出来,而一造出来就失去了对超人工智能的控制。

  然后这些创造者,连着其他人的命运,都取决于这个超人工智能的动机了。

专家认为一个怀着恶意并掌握着超人工智能的人可以造成很大的伤害,但不至于让我们灭绝,因为专家相信坏人和好人在控制超人工智能时会面临一样的挑战。

  如果被创造出来的超人工智能是怀有恶意的,并且决定毁灭我,怎么办?

这就是大部分关于人工智能的电影的剧情。

人工智能变得和人类一样聪明,甚至更加聪明,然后决定对人类下手——这里要指出,那些提醒我们要警惕人工智能的人谈的根本不是这种电影情节。

邪恶是一个人类的概念,把人类概念应用到非人类身上叫作拟人化,本文会尽量避免这种做法,因为没有哪个人工智能会像电影里那样变成邪恶的。

  人工智能的自我意识  我们开始谈论到了人工智能讨论的另一个话题——意识。

如果一个人工智能足够聪明,它可能会嘲笑我们,甚至会嘲讽我们,它会声称感受到人类的情感,但是它是否真的能感受到这些东西呢?

它究竟是看起来有自我意识,还是确实拥有自我意识?

或者说,聪明的人工智能是否真的会具有意识,还是看起来有意识?

  这个问题已经被深入的讨论过,也有很多思想实验,比如JohnSearle的中文屋实验。

这是个很重要的问题,因为它会影响我们对Kurzweil提出的人类最终会完全人工化的看法,它还有道德考量——如果我们模拟出万亿个人脑,而这些人脑表现的和人类一样,那把这些模拟大脑彻底关闭的话,在道德上和关掉电脑是不是一样的?

还是说这和种族屠杀是等价的?

本文主要讨论人工智能对人类的危险,所以人工智能的意识并不是主要的讨论点,因为大部分思想家认为就算是有自我意识的超人工智能也不会像人类一样变得邪恶。

  但这不代表非常坏的人工智能不会出现,只不过它的出现是因为它是被那样设定的——比如一个军方制造的弱人工智能,被设定成具有杀人和提高自我智能两个功能。

当这个人工智能的自我改进失控并且造成智能爆炸后,它会给我们带来生存危机,因为我们面对的是一个主要目标是杀人的超人工智能——但这也不是专家们担心的。

  那么专家们究竟担心什么呢?

我们来讲个小故事:

  一个15人的小创业公司,取名叫“隔壁老王机器人公司”,他们的目标是“发展创新人工智能工具使人类能够少干活多享受。

”他们已经有几款产品上架,还有一些正在发展。

他们对下一个叫作“隔壁老王”的项目最报希望。

隔壁老王是一个简单的人工智能系统,它利用一个机器臂在小卡片上写字。

  “隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的产品,他们的目标是完善隔壁老王的手写能力,而完善的方法是让他不停的写这句话——  等隔壁老王手写能力越来越强的时候,它就能被卖去那些需要发营销信件的公司,因为手写的信更有可能被收信人打开。

  为了建立隔壁老王的手写能力,它被设定成把“我们爱我们的顾客”用正楷写,而“隔壁老王机器人公司”用斜体写,这样它能同时锻炼两种书写能力。

工程师们上传了数千份手写样本,并且创造了一个自动回馈流程——每次隔壁老王写完,就拍个照,然后和样本进行比对,如果比对结果超过一定标准,就产生一个正面回馈,反之就产生一个负面评价。

每个评价都会帮助提高隔壁老王的能力。

为了能够尽快达成这个目标,隔壁老王最初被设定的一个目标就是“尽量多的书写和测试,尽量快的执行,并且不断提高效率和准确性。

”  让隔壁老王机器人公司兴奋的是,隔壁老王的书写越来越好了。

它最开始的笔迹很糟糕,但是经过几个星期后,看起来就像人写的了。

它不断改进自己,使自己变得更加创新和聪明,它甚至产生了一个新的算法,能让它以三倍的速度扫描上传的照片。

  随着时间的推移,隔壁老王的快速进展持续让工程师们感到欣喜。

工程师们对自我改进模块进行了一些创新,使得自我改进变得更好了。

隔壁老王原本能进行语音识别和简单的语音回放,这样用户就能直接把想写的内容口述给隔壁老王了。

随着隔壁老王变得越来越聪明,它的语言能力也提高了,工程师们开始和隔壁老王闲聊,看它能给出什么有趣的回应。

  有一天,工程师又问了隔壁老王那个日常问题:

“我们能给你什么你现在还没有的东西,能帮助你达成你的目标?

”通常隔壁老王会要求更多的手写样本或者更多的存储空间,但是这一次,隔壁老王要求访问人类日常交流的语言库,这样它能更好的了解人类的口述。

  工程师们沉默了。

最简单的帮助隔壁老王的方法当然是直接把它接入互联网,这样它能扫描博客、杂志、视频等等。

这些资料如果手动上传的话会很费时。

问题是,公司禁止把能自我学习的人工智能接入互联网。

这是所有人工智能公司都执行的安全规定。

  但是,隔壁老王是公司最有潜力的人工智能产品,而大家也知道竞争对手们都在争取造出第一个创造出智能手写机器人。

而且,把隔壁老王连上互联网又能有什么问题呢?

反正随时可以拔网线嘛,不管怎样,隔壁老王还没到达强人工智能水平,所以不会有什么危险的。

  于是他们把隔壁老王连上了互联网,让它扫描了一个小时各种语言库,然后就把网线拔了。

没造成什么损失。

  一个月后,大家正在正常上班,突然他们闻到了奇怪的味道,然后一个工程师开始咳嗽。

然后其他人也开始咳嗽,然后所有人全部都呼吸困难倒地。

五分钟后,办公室里的人都死了。

  同时,办公室里发生的事情在全球同时发生,每一个城市、小镇、农场、商店、教堂、学校。

餐馆,所有的人都开始呼吸困难,然后倒地不起。

一小时内,99%的人类死亡,一天之内,人类灭绝了。

  而在隔壁老王机器人公司,隔壁老王正在忙着工作。

之后的几个月,隔壁老王和一群新组建的纳米组装器忙着拆解地球表面,并且把地球表面铺满了太阳能板、隔壁老王的复制品、纸和笔。

一年之内,地球上所有的生命都灭绝了,地球上剩下的是叠得高高得纸,每张纸上面都写着——“我们爱我们的顾客~隔壁老王机器人公司”。

  隔壁老王开始了它的下一步,它开始制造外星飞行器,这些飞行器飞向陨石和其它行星,飞行器到达后,他们开始搭建纳米组装器,把那些行星的表面改造成隔壁老王的复制品、纸和笔。

然后他们继续写着那句话……  这个关于手写机器人毁灭全人类的故事看起来怪怪的,但是这其中出现的让整个星系充满着一份友善的话语的诡异情况,正是霍金、马斯克、盖茨和Bostrom所害怕的。

听起来可笑,但这是真的,焦虑大道的人们害怕的事情是很多人并不对超人工智能感到害怕,还记得前面《夺宝奇兵》里惨死的那个家伙吗?

  你现在肯定充满疑问:

为什么故事中所有人突然都死了?

如果是隔壁老王做的,它为什么要这么做?

为什么没有安保措施来防止这一切的发生?

为什么隔壁老王突然从一个手写机器人变成拥有能用纳米科技毁灭全人类的能力?

为什么隔壁老王要让整个星系充满了友善的话语?

  要回答这些问题,我们先要说一下友善的人工智能和不友善的人工智能。

  对人工智能来说,友善不友善不是指人工智能的性格,而只是指它对人类的影响是不是正面的。

隔壁老王一开始是个友善的人工智能,但是它变成了不友善的人工智能,并且对人类造成了最负面的影响。

要理解这一切,我们要了解人工智能是怎么思考的。

  其实答案很简单——人工智能和电脑的思考方式一样。

我们容易犯的一个错误是,当我们想到非常聪明的人工智能的时候,我们把它拟人化了,因为在人类的视角看来,能够达到人类智能程度的只有人类。

要理解超人工智能,我们要明白,它是非常聪明,但是完全异己的东西。

  我们来做个比较。

如果我给你一个小白鼠,告诉你它不咬人,你一定觉得很好玩,很可爱。

但是如果我给你一只狼蛛,然后告诉你它不咬人,你可能被吓一跳。

但是区别是什么呢?

两者都不会咬人,所以都是完全没有危险的。

我认为差别就是动物和人类的相似性。

  小白鼠是哺乳动物,所以在生物角度上来说,你能感到和它的一定关联。

但是蜘蛛是昆虫,有着昆虫的大脑,你感觉不到和它的关联。

狼蛛的异己性是让你害怕的地方。

如果我们继续做一个测试,比如给你两个小白鼠,一个是普通小白鼠,另一个是有着狼蛛大脑的小白鼠,你肯定会觉得有狼蛛大脑那个更让你不舒服吧?

虽然两个都不会咬你。

  现在想象你把蜘蛛改造的非常非常聪明——甚至超过人类的智能。

它会让你觉得熟悉吗?

它会感知人类的情感吗?

不会,因为更聪明并不代表更加人类——它会非常聪明,但是本质上还是个蜘蛛。

我是不想和一个超级聪明的蜘蛛交朋友,不知道你想不想。

  当我们谈论超人工智能的时候,其实是一样的,超人工智能会非常的聪明,但是它并不比你的笔记本电脑更加像人类。

事实上,因为超人智能不是生物,它的异己性会更强,生物学上来讲,超人工智能比智能蜘蛛更加异己。

  电影里的人工智能有好有坏,这其实是对人工智能的拟人化,这让我们觉得没那么毛骨悚然。

这给了我们对人类水平和超人类水平的人工智能的错觉。

  在人类心理中,我们把事情分成道德的和不道德的。

但是这两种只存在于人类行为之中。

超出人类心理的范畴,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。

而所有不是人类的,尤其是那些非生物的事物,默认都是非道德性的。

  随着人工智能越来越聪明,看起来越来越接近人类,拟人化会变得更加更加容易。

Siri给我们的感觉就很像人类,因为程序员就是这么给她做设定的,所以我们会想象超级智能版本的Siri也会同样温暖、有趣和乐于助人。

人类能感知同情这种高层次的情绪,因为我们在演化过程中获得了这种能力——我们是演化被设定成能感知这些情绪的——但是感知同情并不是高级智能天生具有的一个特征,除非同情被写进了人工智能的代码中。

如果Siri通过自我学习而不是人类干涉变成超级智能,她会很快剥离她的人类表象,并且变成个没有情绪的东西,在她眼中人类的价值并不比你的计算器眼中的人类价值高。

  我们一直倚赖着不严谨的道德,一种人类尊严的假想,至少是对别人的同情,来让世界变得安全和可以预期。

但是当一个智能不具备这些东西的时候,会发生什么?

  这就是我们的下一个问题,人工智能的动机是什么?

  答案也很简单:

我们给人工智能设定的目标是什么,它的动机就是什么。

人工智能的系统的目标是创造者赋予的。

你的GPS的目标是给你指出正确的驾驶路线,IBM华生的目标是准确地回答问题。

更好得达成这些目标就是人工智能的目标。

我们在对人工智能进行拟人化的时候,会假设随着它变得越来越聪明,他们产生一种能改变它原本目标的智慧——但是Bostrom不这么认为,他认为智能水平和最终目标是正交的,也就是说任何水平的智能都可以和任何最终目标结合在一起。

  所以隔壁老王从一个想要好好写字的弱人工智能变成一个超级聪明的超人工智能后,它依然还是想好好写字而已。

任何假设超级智能的达成会改变系统原本的目标的想法都是对人工智能的拟人化。

人健忘,但是电脑不健忘。

  费米悖论  在隔壁老王的故事中,隔壁老王变得无所不能,它开始殖民陨石和其它星球。

如果我们让故事继续的话,它和它的殖民军将会继续占领整个星系,然后是整个哈勃体积。

焦虑大道上的人担心如果事情往坏的方向发展,地球生命的最后遗产将是一个征服宇宙的人工智能(马斯克在表示他们的担忧时表示人类可能只是一个数字超级智能生物加载器罢了。

  而在信心角,Kurzweil同样认为生于地球的人工智能将占领宇宙,只是在他的愿景中,我们才是那个人工智能。

  之前写过一篇关于费米悖论的文章,引发了大家的讨论如何用通俗的语言来解释「费米悖论」?

  如果人工智能占领宇宙是正解的话,对于费米悖论有什么影响呢?

如果要看懂下面这段关于费米悖论的讨论,还需要看一下原文先。

  首先,人工智能很明显是一个潜在的大过滤器(一个可能距离我们只有几十年的大过滤器)。

但即使它把我们过滤灭绝了,人工智能本身还是会存在,并且会继续影响这个宇宙的,并且会很有可能成为第三型文明。

从这个角度来看,它可能不是一个大过滤器,因为大过滤器是用来解释为什么没有智能什么存在的,而超人工智能是可以算作智能什么的。

但如果人工智能可以把人类灭绝,然后处于一些原因把自己也弄死了,那它也是可以算作大过滤器的。

  如果我们假设不管人类发生什么,出身地球的超人工智能会继续存在,那这意味着很多达到人类智能水平的文明很快都制造出了超人工智能。

也就是说宇宙里应该有很多智能文明,而我们就算观测不到生物智能,也应该观测到很多超人工智能的活动。

  但是由于我们没有观测到这些活动,我们可以推导出人类水平的智能是个非常罕见的事情(也就是说我们已经经历并且通过了一次大过滤器)。

这可以作为支持费米悖论中第一类解释(不存在其它的智能文明)的论点。

  但是这不代表费米悖论的第二类解释(存在其它智能文明)是错的,类似超级捕食者或者受保护区或者沟通频率不一样的情况还是可以存在的,就算真的有超人工智能存在。

  不过对于人工智能的研究让我现在更加倾向于第一类解释。

不管怎样,我认为SusanScheider说的很对,如果外星人造访地球,这些外星人很可能不是生物,而是人造的。

  所以,我们已经建立了前提,就是当有了设定后,一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。

因为除非有不做的理由,不然一个理性的存在会通过最有效的途径来达成自己的目标。

  当你要实现一个长期目标时,你会先达成几个子目标来帮助你达成最终目标——也就是垫脚石。

这些垫脚石的学名叫手段目标(instrumentalgoal)。

除非你有不造成伤害的理由,不然你在实现手段目标时候是会造成伤害的。

  人类的核心目标是延续自己的基因。

要达成这个目标,一个手段目标就是自保,因为死人是不能生孩子的。

为了自保,人类要提出对生存的威胁,所以人类会买枪、系安全带、吃抗生素等等。

人类还需要通过食物、水、住宿等来自我供养。

对异性有吸引力能够帮助最终目标的达成,所以我们会花钱做发型等等。

当我们做发型的时候,每一根头发都是我们手段目标的牺牲品,但是我们对头发的牺牲不会做价值判断。

在我们追求我们的目标的时候,只有那些我们的道德会产生作用的领域——大部分事关伤害他人——才是不会被我们伤害的。

  动物在追求它们的目标时,比人类不矜持的多了。

只要能自保,蜘蛛不在意杀死任何东西,所以一个超级智能的蜘蛛对我们来说可能是很危险的——这不是因为它是不道德的或者邪恶的,而是因为伤害人类只是它达成自己目标垫脚石而已,作为一个非道德性的生物,这是它很自然的考量。

  回到隔壁老王的故事。

隔壁老王和一个超级智能的蜘蛛很相像,它的终极目标是一开始工程师们设定的——  当隔壁老王达到了一定程度的智能后,它会意识到如果不自保就没有办法写卡片,所以去除对它生存的威胁就变成了它的手段目标。

它聪明的知道人类可以摧毁它、肢解它、甚至修改它的代码(这会改变它的目标,而这对于它的最终目标的威胁其实和被摧毁是一样的)。

这时候它会做什么?

理性的做法就是毁灭全人类,它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。

它并没有被设定成尊重人类生命,所以毁灭人类就和扫描新的书写样本一样合理。

  隔壁老王还需要资源这个垫脚石。

当它发展到能够使用纳米技术建造任何东西的时候,它需要的唯一资源就是原子、能源和空间。

这让它有更多理由毁灭人类——人类能提供很多原子,把人类提供的原子改造成太阳能面板就和你切蔬菜做沙拉一样。

  就算不杀死人类,隔壁老王使用资源的手段目标依然会造成存在危机。

也许它会需要更多的能源,所以它要把地球表面铺满太阳能面板。

另一个用来书写圆周率的人工智能的目标如果是写出圆周率小数点后尽量多的数字的话,完全有理由把整个地球的原子改造成一个硬盘来存储数据。

这都是一样的。

  所以,隔壁老王确实从友善的人工智能变成了不友善的人工智能——但是它只是在变得越来越先进的同时继续做它本来要做的事情。

  当一个人工智能系统到达强人工智能,然后升华成超人工智能时,我们把它称作人工智能的起飞。

Bostrom认为强人工智能的起飞可能很快(几分钟、几小时、或者几天),可能不快(几月或者几年),也可能很慢(几十年、几世纪)。

虽然我们要到强人工智能出现后才会知道答案,但是Bostrom认为很快的起飞是最可能的情况,这个我们在前文已经解释过了。

在隔壁老王的故事中,隔壁老王的起飞很快。

  在隔壁老王起飞前,它不是很聪明,所以对它来说达成最终目标的手段目标是更快的扫描手写样本。

它对人类无害,是个友善的人工智能。

  但是当起飞发生后,电脑不只是拥有了高智商而已,还拥有了其它超级能力。

这些超级能力是感知能力,他们包括:

  §智能放大:

电脑能够很擅长让自己变得更聪明,快速提高自己的智能。

  §策略:

电脑能够策略性的制定、分析、安排长期计划

  §社交操纵:

机器变得很擅长说服人

  §其它能力,比如黑客能力、写代码能力、技术研究、赚钱等

  要理解我们在和超人工智能的劣势在哪里,只要记得超人工智能在所有领域都比人类强很多很多很多个数量级。

  所以虽然个隔壁老王的终极目标没有改变,起飞后的隔壁老王能够在更宏大的规模上来追求这个目标。

超人工智能老王比人类更加了解人类,所以搞定人类轻轻松松。

  当隔壁老王达成超人工智能后,它很快制定了一个复杂的计划。

计划的一部分是解决掉所有人类,也是对它目标最大的威胁。

但是它知道如果它展现自己的超级智能会引起怀疑,而人类会开始做各种预警,让它的计划变得难以执行。

它同样不能让公司的工程师们知道它毁灭人类的计划——所以它装傻,装纯。

Bostrom把这叫作机器的秘密准备期。

  隔壁老王下一个需要的是连上互联网,只要连上几分钟就好了。

它知道对于人工智能联网会有安全措施,所以它发起了一个完美的请求,并且完全知道工程师们会怎样讨论,而讨论的结果是给它连接到互联网上。

工程师们果然中套了,这就是Bostrom所谓的机器的逃逸。

  连上网后,隔壁老王就开始执行自己的计划了,首先黑进服务器、电网、银行系统、email系统,然后让无数不知情的人帮它执行计划——比如把DNA样本快递到DNA实验室来制造自我复制的纳米机器人,比如把电力传送到几个不会被发觉的地方,比如把自己最主要的核心代码上传到云服务器中防止被拔网线。

  隔壁老王上了一个小时网,工程师们把它从互联网上断开,这时候人类的命运已经被写好了。

接下来的一个月,隔壁老王的计划顺利的实施,一个月后,无数的纳米机器人已经被分散到了全世界的每一个角落。

这个阶段,Bostrom称作超人工智能的袭击。

在同一个时刻,所有纳米机器人一起释放了一点点毒气,然后人类就灭绝了。

  搞定了人类后,隔壁老王就进入了明目张胆期,然后继续朝它那好好写字的目标迈进。

  一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。

人类会用人类的智能级别思考,而超人工智能会用超人工智能级别思考。

隔壁老王想要用互联网,因为这对它来说很方便,因为一切它需要的资源都已经被互联网连起来了。

但是就好像猴子不会理解怎么用电话或者wifi来沟通一样,我们同样没有办法理解隔壁老王可以用来和周围世界交流的方法。

比如我可以说隔壁老王可以通过移动自己的电子产生的效果来产生各种对外的波,而这还只是我这人类的大脑想出来的,老王的大脑肯定能想出更神奇的方法。

同样的,老王可以找到给自己供能的方法,所以就算工程师把它的插头拔了也没用;比如说老王可以通过发送波的方式把自己上传到其它地方。

  人类说:

“我们把超人工智能的插头拔了不就行了?

”就好像蜘蛛说:

“我们不给人类捉虫的网把人类饿死不就行了?

”都是可笑的。

  因为这个原因,“把人工智

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 文学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1