人神分界的起点人工智能与区块链.docx

上传人:b****5 文档编号:3292829 上传时间:2022-11-21 格式:DOCX 页数:9 大小:27.63KB
下载 相关 举报
人神分界的起点人工智能与区块链.docx_第1页
第1页 / 共9页
人神分界的起点人工智能与区块链.docx_第2页
第2页 / 共9页
人神分界的起点人工智能与区块链.docx_第3页
第3页 / 共9页
人神分界的起点人工智能与区块链.docx_第4页
第4页 / 共9页
人神分界的起点人工智能与区块链.docx_第5页
第5页 / 共9页
点击查看更多>>
下载资源
资源描述

人神分界的起点人工智能与区块链.docx

《人神分界的起点人工智能与区块链.docx》由会员分享,可在线阅读,更多相关《人神分界的起点人工智能与区块链.docx(9页珍藏版)》请在冰豆网上搜索。

人神分界的起点人工智能与区块链.docx

人神分界的起点人工智能与区块链

人神分界的起点:

人工智能与区块链

“我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大–VernorVinge”0.生产力大爆发

人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。

如果你站在这里,你会是什么感觉?

看上去非常刺激吧?

但是你要记住,当你真的站在时间的图表中的时候,你是看不到曲线的右边的,因为你是看不到未来的。

所以你真实的感觉大概是这样的:

1.遥远的未来——就在眼前未来学家:

RayKurzweil未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成。

按照加速回报定,Kurzweil认为人类在21世纪的进步将是20世纪的1000倍。

如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——下一个吓尿单位可能只需要十几年,而2050年的世界会变得面目全非。

2.通往超级智能之路人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。

人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类。

弱人工智能(ANI):

弱人工智能是擅长于单个方面的人工智能。

比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。

强人工智能(AGI):

人类级别的人工智能。

强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。

创造强人工智能比创造弱人工智能难得多,我们现在还做不到。

LindaGottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。

”强人工智能在进行这些操作时应该和人类一样得心应手。

超人工智能(ASI):

牛津哲学家,知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。

”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。

超人工智能也正是为什么人工智能这个话题这么火热的缘故,同样也是为什么永生和灭绝这两个词会在本文中多次出现。

现在,人类已经掌握了弱人工智能。

其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。

这段旅途中人类可能会生还下来,可能不会,但是无论如何,世界将变得完全不一样。

2.1.我们现在的位置——充满了弱人工智能的世界

弱人工智能是在特定领域等同或者超过人类智能/效率的机器智能,一些常见的例子:

汽车上有很多的弱人工智能系统,从控制防抱死系统的电脑,到控制汽油注入参数的电脑。

谷歌正在测试的无人驾驶车,就包括了很多弱人工智能,这些弱人工智能能够感知周围环境并作出反应。

你的手机也充满了弱人工智能系统。

当你用地图软件导航,接受音乐电台推荐,查询明天的天气,和Siri聊天,以及其它很多很多应用,其实都是弱人工智能。

世界最强的跳棋、象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能。

现在的弱人工智能系统并不吓人。

最糟糕的情况,无非是代码没写好,程序出故障,造成了单独的灾难,比如造成停电、核电站故障、金融市场崩盘等等。

虽然现在的弱人工智能没有威胁我们生存的能力,我们还是要怀着警惕的观点看待正在变得更加庞大和复杂的弱人工智能的生态。

每一个弱人工智能的创新,都在给通往强人工智能和超人工智能的旅途添砖加瓦。

用AaronSaenz的观点,现在的弱人工智能,就是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。

2.3.弱人工智能到强人工智能之路为什么这条路很难走?

只有明白创造一个人类智能水平的电脑是多么不容易,才能让你真的理解人类的智能是多么不可思议。

造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比理解人类的大脑,并且创造个类似的东西要简单太多了。

至今为止,人类的大脑是我们所知宇宙中最复杂的东西。

而且创造强人工智能的难处,并不是你本能认为的那些。

造一个能在瞬间算出十位数乘法的计算机——非常简单造一个能分辨出一个动物是猫还是狗的计算机——极端困难造一个能战胜世界象棋冠军的电脑——早就成功了造一个能够读懂六岁小朋友的图片书中的文字,并且了解那些词汇意思的电脑——谷歌花了几十亿美元在做,还没做出来。

一些我们觉得困难的事情——微积分、金融市场策略、翻译等,对于电脑来说都太简单了我们觉得容易的事情——视觉、动态、移动、直觉——对电脑来说太TM的难了。

用计算机科学家DonaldKnuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。

”读者应该能很快意识到,那些对我们来说很简单的事情,其实是很复杂的。

要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。

想想就很难吧?

我们要怎样才能达到这样的水平呢?

增加电脑处理速度和让电脑变得智能

要达到强人工智能,肯定要满足的就是电脑硬件的运算能力。

如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力。

用来描述运算能力的单位叫作cps(calculationspersecond,每秒计算次数),要计算人脑的cps只要了解人脑中所有结构的最高cps,然后加起来就行了。

现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了,天河每秒能进行3.4亿亿。

当然,天河二号占地720平方米,耗电2400万瓦,耗费了3.9亿美元建造。

广泛应用就不提了,即使是大部分商业或者工业运用也是很贵的。

Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一部分了。

摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。

我们用这个定律来衡量1000美元什么时候能买到1亿亿cps。

现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。

也就是说现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。

听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。

按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。

至少在硬件上,我们已经能够强人工智能了(中国的天河二号),而且十年以内,我们就能以低廉的价格买到能够支持强人工智能的电脑硬件。

3.强人工智能到超人工智能之路总有一天,我们会造出和人类智能相当的强人工智能电脑,然后人类和电脑就会平等快乐的生活在一起。

呵呵,逗你呢。

即使是一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势:

硬件上:

-速度。

脑神经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹,也就是神经元1000万倍的速度运行,而这比我们达成强人工智能需要的硬件还差远了。

大脑的内部信息传播速度是每秒120米,电脑的信息传播速度是光速,差了好几个数量级。

-容量和储存空间。

人脑就那么大,后天没法把它变得更大,就算真的把它变得很大,每秒120米的信息传播速度也会成为巨大的瓶颈。

电脑的物理大小可以非常随意,使得电脑能运用更多的硬件,更大的内存,长期有效的存储介质,不但容量大而且比人脑更准确。

-可靠性和持久性。

电脑的存储不但更加准确,而且晶体管比神经元更加精确,也更不容易萎缩(真的坏了也很好修)。

人脑还很容易疲劳,但是电脑可以24小时不停的以峰值速度运作。

软件上来说:

-可编辑性,升级性,以及更多的可能性。

和人脑不同,电脑软件可以进行更多的升级和修正,并且很容易做测试。

电脑的升级可以加强人脑比较弱势的领域——人脑的视觉元件很发达,但是工程元件就挺弱的。

而电脑不但能在视觉元件上匹敌人类,在工程元件上也一样可以加强和优化。

-集体能力。

人类在集体智能上可以碾压所有的物种。

从早期的语言和大型社区的形成,到文字和印刷的发明,再到互联网的普及。

人类的集体智能是我们统治其它物种的重要原因之一。

而电脑在这方面比我们要强的很多,一个运行特定程序的人工智能网络能够经常在全球范围内自我同步,这样一台电脑学到的东西会立刻被其它所有电脑学得。

而且电脑集群可以共同执行同一个任务,因为异见、动力、自利这些人类特有的东西未必会出现在电脑身上。

通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当作一个重要的里程碑,但是也就仅此而已了。

它不会停留在这个里程碑上的。

考虑到强人工智能之于人脑的种种优势,人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。

这一切发生的时候我们很可能被吓尿,因为从我们的角度来看a)虽然动物的智能有区别,但是动物智能的共同特点是比人类低很多;b)我们眼中最聪明的人类要比最愚笨的人类要聪明很很很很多。

所以,当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,就好像一个动物一般。

然后,它突然达到了最愚笨的人类的程度,我们到时也许会感慨:

“看这个人工智能就跟个脑残人类一样聪明,真可爱。

但问题是,从智能的大局来看,人和人的智能的差别其实是不大的。

因为很蠢的人和很聪明的人之间的差距,也远远小于人和猩猩的差距。

所以当人工智能达到了脑残级别的智能后,它会很快变得比爱因斯坦更加聪明:

4.智能爆炸从这边开始,这个话题要变得有点吓人了。

我在这里要提醒大家,以下所说的都是大实话——是一大群受人尊敬的思想家和科学家关于未来的诚实的预测。

你在下面读到什么离谱的东西的时候,要记得这些东西是比你我都聪明很多的人想出来的。

首先,我们要引出一个沉重的概念——递归的自我改进。

这个概念是这样的:

一个运行在特定智能水平的人工智能,比如说脑残人类水平,是可以通过自我改进机制变得越来越聪明。

我们假设它后来达到了爱因斯坦的水平。

而这个时候当它再继续进行自我改进的时候,因为现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。

第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。

如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。

以下的情景很可能会发生:

一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。

这个级别的超级智能不是我们能够理解的,就好像蜜蜂不会理解凯恩斯经济学一样。

在我们的语言中,我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念。

但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。

也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。

想一下,如果我们的大脑能够发明Wifi,那么一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子的位置。

那些在我们看来超自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单。

防止人类衰老,治疗各种不治之症,解决世界饥荒,甚至让人类永生,或者操纵气候来保护地球未来的什么,这一切都将变得可能。

同样可能的是地球上所有生命的终结。

当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。

这时候我们所关心的就是:

一旦机器达到了人类级别的智能,我们将见到如下的场景:

这让我们无所适从,尤其考虑到超人工智能可能会发生在我们有生之年,我们都不知道该用什么表情来面对。

再我们继续深入这个话题之前,让我们提醒一下自己超级智能意味着什么。

首先,它的运算速度会非常非常快——就好像一个运算速度是人类百万倍的机器,能够用几分钟时间思考完人类几十年才能思考完的东西。

这听起来碉堡了,而且超人工智能确实会比人类思考的快很多,但是真正的差别其实是在智能的质量而不是速度上。

用人类来做比喻,人类之所以比猩猩智能很多,真正的差别并不是思考的速度,而是人类的大脑有一些独特而复杂的认知模块,这些模块让我们能够进行复杂的语言呈现、长期规划、或者抽象思考等等,而猩猩的脑子是做不来这些的。

就算你把猩猩的脑子加速几千倍,它还是没有办法在人类的层次思考的,它依然不知道怎样用特定的工具来搭建精巧的模型——人类的很多认知能力是猩猩永远比不上的,你给猩猩再多的时间也不行。

而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情,而是猩猩的大脑根本不能理解这些事情的存在——猩猩可以理解人类是什么,也可以理解摩天大楼是什么,但是它不会理解摩天大楼是被人类造出来的,对于猩猩来说,摩天大楼那么巨大的东西肯定是天然的,句号。

对于猩猩来说,它们不但自己造不出摩天大楼,它们甚至没法理解摩天大楼这东西能被任何东西造出来。

而这一切差别,其实只是智能的质量中很小的差别造成的。

而当我们在讨论超人工智能时候,智能的范围是很广的,和这个范围比起来,人类和猩猩的智能差别是细微的。

如果生物的认知能力是一个楼梯的话,不同生物在楼梯上的位置大概是这样的:

要理解一个具有超级智能的机器有多牛逼,让我们假设一个在上图的楼梯上站在深绿色台阶上的一个机器,它站的位置只比人类高两层,就好像人类比猩猩只高两层一样。

这个机器只是稍微有点超级智能而已,但是它的认知能力之于人类,就好像人类的认知能力之于猩猩一样。

就好像猩猩没有办法理解摩天大楼是能被造出来的一样,人类完全没有办法理解比人类高两层台阶的机器能做的事情。

就算这个机器试图向我们解释,效果也会像教猩猩造摩天大楼一般。

而这,只是比我们高了两层台阶的智能罢了,站在这个楼梯顶层的智能之于人类,就好像人类之于蚂蚁一般——它就算花再多时间教人类一些最简单的东西,我们依然是学不会的。

但是我们讨论的超级智能并不是站在这个楼梯顶层,而是站在远远高于这个楼梯的地方。

当智能爆炸发生时,它可能要花几年时间才能从猩猩那一层往上迈一步,但是这个步子会越迈越快,到后来可能几个小时就能迈一层,而当它超过人类十层台阶的时候,它可能开始跳着爬楼梯了——一秒钟爬四层台阶也未尝不可。

所以让我们记住,当第一个到达人类智能水平的强人工智能出现后,我们将在很短的时间内面对一个站在下图这样很高很高的楼梯上的智能(甚至比这更高百万倍):

前面已经说了,试图去理解比我们高两层台阶的机器就已经是徒劳的,所以让我们很肯定的说,我们是没有办法知道超人工智能会做什么,也没有办法知道这些事情的后果。

任何假装知道的人都没搞明白超级智能是怎么回事。

自然演化花了几亿年时间发展了生物大脑,按这种说法的话,一旦人类创造出一个超人工智能,我们就是在碾压自然演化了。

当然,可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能,直到有一天有一个智能能够创造出超级智能,而这个节点就好像踩上了地雷的绊线一样,会造成全球范围的大爆炸,从而改变所有生物的命运。

科学界中大部分人认为踩上绊线不是会不会的问题,而是时间早晚的问题。

想想真吓人。

那我们该怎么办呢?

可惜,没有人都告诉你踩到绊线后会发生什么。

但是人工智能思想家NickBostrom认为我们会面临两类可能的结果——永生和灭绝。

首先,回顾历史,我们可以看到大部分的生命经历了这样的历程:

物种出现,存在了一段时间,然后不可避免的跌落下生命的平衡木,跌入灭绝的深渊。

历史上来说,“所有生物终将灭绝”就像“所有人都会死”一样靠谱。

至今为止,存在过的生物中99.9%都已经跌落了生命的平衡木,如果一个生物继续在平衡木上走,早晚会有一阵风把它吹下去。

Bostrom把灭绝列为一种吸引态——所有生物都有坠入的风险,而一旦坠入将没有回头。

虽然大部分科学家都承认一个超人工智能有把人类灭绝的能力,也有一些人为如果运用得当,超人工智能可以帮助人类和其它物种,达到另一个吸引态——永生。

Bostrom认为物种的永生和灭绝一样都是吸引态,也就是我一旦我们达成了永生,我们将永远不再面临灭绝的危险——我们战胜了死亡和几率。

所以,虽然绝大多数物种都从平衡木上摔了下去灭绝了,Bostrom认为平衡木外是有两面的,只是至今为止地球上的生命还没聪明到发现怎样去到永生这另一个吸引态。

如果Bostrom等思想家的想法是对的,而且根据我的研究他们确实很可能是对的,那么我们需要接受两个事实:

1)超人工智能的出现,将有史以来第一次,将物种的永生这个吸引态变为可能2)超人工智能的出现,将造成非常巨大的冲击,而且这个冲击可能将人类吹下平衡木,并且落入其中一个吸引态有可能,当自然演化踩到绊线的时候,它会永久的终结人类和平衡木的关系,创造一个新的世界,不管这时人类还是不是存在。

而现在的问题就是:

“我们什么时候会踩到绊线?

”以及“从平衡木上跌下去后我们会掉入哪个吸引态?

”4.1.什么时候我们会踩到绊线?

没人知道答案,但是一些聪明人已经思考了几十年,接下来我们看看他们想出来了些什么。

先来讨论“我们什么时候会踩到绊线?

”也就是什么时候会出现第一个超级智能。

不出意外的,科学家和思想家对于这个意见的观点分歧很大。

2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,结果有一半以上的人工智能专家认为在你的有生之年能够有90%的可能性能见到强人工智能的实现。

从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。

所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。

当然,以上所有的数据都是推测,它只代表了现在人工智能领域的专家的中位意见,但是它告诉我们的是,很大一部分对这个领域很了解的人认为2060年是一个实现超人工智能的合理预测——距今只有45年。

那么我们来看一下下一个问题,踩到绊线后,我们将跌向平衡木的哪一个方向?

4.2.踩到绊线后,我们将何去何从?

超级智能会产生巨大的力量,所以关键的问题时——到时这股力量究竟由谁掌握,掌握这份力量的人会怎么做?

这个问题的答案将决定超人工智能究竟是天堂还是地狱。

在我们深入讨论好坏这个问题之前,我们先把“什么时候会发生”和“这是好事还是坏事”的结果综合起来画张表,这代表了大部分专家的观点:

我们等下再考虑主流阵营的观点。

咱们先来问一下你自己是怎么想的,其实我大概能猜到你是怎么想的,因为我开始研究这个问题前也是这样的想的。

很多人其实不关心这个话题,原因无非是:

像本文第一部分所说,电影展示了很多不真实的人工智能场景,让我们认为人工智能不是正经的课题。

作家JamesBarrat把这比作传染病控制中心发布吸血鬼警报一样滑稽。

因为认知偏差,所以我们在见到证据前很难相信一件事情是真的。

我确信1988年的时候电脑科学家们就已经常在讨论因特网将是多么重要,但是一般人并不会认为因特网会改变他们的生活——直到他们的生活真的被改变了。

一方面,1988年的电脑确实不够给力,所以那时的人们看着电脑会想:

“这破玩意儿也能改变我的生活,你逗我吧?

”人们的想象力被自己对于电脑的体验而约束。

让他们难以想象电脑会变成现在的样子。

同样的事情正发生在人工智能领域。

我们听到很多人说人工智能将会造成很大影响,但是因为这个事情还没发生,因为我们和一些弱爆了的人工智能系统的个人经历,让我们难以相信这东西真的能改变我们的生活。

而这些认知偏差,正是专家们在努力对抗的。

就算我们相信人工智能的巨大潜力,你今天又花了多少时间思考“在接下来的永恒中,绝大部分时间我都不会再存在”这个问题?

虽然这个问题比你今天干的大部分事情都重要很多,但是正常人都不会老是想这个吧。

这是因为你的大脑总是关注日常的小事,不管长期来看有多少重要的事情,我们天生就是这么思考的。

这篇东西的主要目标就是让你脱离普通人阵营,加入专家思考的阵营,哪怕能让你站到两条不确定线的交点上,目标也达到了。

在我的研究中,我见识到了各种各样的观点,但是我发现大多数人的观点都停留在主流阵营中。

事实上超过四分之三的专家都属于主流阵营中的两个小阵营:

焦虑大道和信心角。

我们将对这两个小阵营做深入的谈论,让我们从比较有趣的那个开始吧

4.2.1.为什么未来会是天堂?

研究人工智能这个领域后,我发现有比预期的多得多的人站在信心角当中:

站在信心角中的人非常兴奋,他们认为他们将走向平衡木下比较有趣的那个吸引态,未来将实现他们的梦想,他们只需耐心等待。

把这一部分人从其他思想家区分开来的是这些人对于比较有趣的那个吸引态的欲望——他们很有信心永生是我们的发展方向。

5.超人工智能能做什么?

在我们继续讨论人工智能前,让我们谈一下纳米技术这个任何关于人工智能的讨论都会涉及到的领域:

纳米技术纳米技术说的是在1-100纳米的范围内操纵物质的技术。

一纳米是一米的十亿分之一,是一毫米的一百万分之一。

1-100纳米这个范围涵盖了病毒(100纳米长),DNA(10纳米宽),大分子比如血红蛋白(5纳米),和中分子比如葡萄糖(1纳米)。

当我们能够完全掌握纳米技术的时候,我们离在原子层面操纵物质就只差一步了,因为那只是一个数量级的差距(约0.1纳米)。

要了解在纳米量级操纵物质有多困难,我们可以换个角度来比较。

国际空间站距离地面431公里。

如果一个人身高431公里,也就是他站着能够顶到国际空间站的话,他将是普通人类的25万倍大。

如果你把1-100纳米放大25万倍,你算出的是0.25毫米-25毫米。

所以人类使用纳米技术,就相当于一个身高431公里的巨人用沙子那么大的零件搭精巧的模型。

如果要达到原子级别操纵物质,就相当于让这个431公里高的巨人使用0.025毫米大的零件。

关于纳米技术的思考,最早由物理学家费曼在1959年提出,他解释道:

“据我所知,物理学的原理,并不认为在原子级别操纵物质是不可能的。

原则上来说,物理学家能够制造出任何化学家能写出来的物质——只要把一个个原子按照化学家写出来的放在一起就好了。

”其实就是这么简单,所以我们只要知道怎样移动单个的分子和原子,我们就可以造出任何东西。

工程师EricDrexler提出纳米级组装机后,纳米技术在1986年成为了一门正经的学科。

纳米级组装机的工作原理是这样的:

一个牛逼扫描仪扫描物件的3D原子模型,然后自动生成用来组装的软件。

然后由一台中央电脑和数万亿的纳米“机器人”,通过软件用电流来指挥纳米机器人,最后组成所需要的物件。

--------------------------再扯远一点

纳米技术有一些不是那么有趣的部分——能够制造数万亿的纳米机器人唯一合理的方法就是制造可以自我复制的范本,然后让指数级增长来完成建造任务。

很机智吧?

是很机智,但是这一不小心就会造成世界末日。

指数级增长虽然能很快的制造数万亿的纳米机器人,但这也是它可怕的地方——如果系统出故障了,指数级增长没有停下来,那怎么办?

纳米机器人将会吞噬所有碳基材料来支持自我复制,而不巧的是,地球生命就是碳基的。

地球上的生物质量大概包含10^45个碳原子。

一个纳米机器人有10^6个碳原子的话,只需要10^39个纳米机器人就能吞噬地球上全部的生命了,而2^130约等于10^39,也就是说自我复制只要进行130次就能吞噬地球生命了。

科学家认为纳米机器人进行一次自我复制只要100秒左右,也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命。

更糟糕的是,如果恐怖分子

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 小学教育 > 英语

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1