人工智能的未来纽约大学专家研讨会五大议题.docx
《人工智能的未来纽约大学专家研讨会五大议题.docx》由会员分享,可在线阅读,更多相关《人工智能的未来纽约大学专家研讨会五大议题.docx(5页珍藏版)》请在冰豆网上搜索。
人工智能的未来纽约大学专家研讨会五大议题
人工智能的未来:
纽约大学专家研讨会五大议题
2016年1月11日——12日,纽约大学举办了一场名为「人工智能的未来(TheFutureofArti?
cialIntelligence)」的研讨会,来自学术界和产业界的人工智能从业者云集一堂,展开了两天密集讨论。
彼时,AlphaGo攻克围棋的消息还未发布,公众对于人工智能发展的认知还不清晰,而在这些从业者看来,人工智能的这次「复兴」有着与以往不同的历史意义,从技术发展到社会影响,与会者展开了颇具前瞻性的讨论。
谷歌CEOEricSchmidt发表了开幕演讲,列出了人工智能领域的最新进展,这些进展让我们有了解决之前无力解决问题的能力。
他强调人工智能应该打造一个让「多数人」而不是「少数人」受益的未来。
我们面临的挑战中,水净化、合成食品生产、物资分布的管理,能源供应的优化都是一些我们如何利用自然流动的数据流的能力决定了我们怎样来满足社会整体需求的领域。
Schmidt设想了一个研究是「开放的」的世界,这与军事支持的研究相反;军事支持的研究往往高度机密,而且也会源于一些和全人类利益不同的考虑的动机。
他谈论了产业界/学术界合作的重要性,比如,通过大规模开放给科学界的真实世界数据集来衡量进步。
他强调了对用于科学进步的「平台(platform)」的需求以及在这些平台上建设的系统的需求,以便能够处理各种问题的动态特性,且有足够的创造性从而能在平台的运行的同时同步学习。
FacebookCTOMikeSchroepfer强调了类似的对长远型的「十年问题(10yearproblems)」的支持投入,共享数据和算法,促进开放和同行评议的研究。
Facebook积极地通过「在有科学家的地方建实验室」以促进基础研究。
这次研讨会上,科学家们的讨论很有前瞻性,预测了AI的冲击和益处,以及对人类与人工智能的更长远的未来思考。
这次讨论涌现出了五个主要问题:
为什么这次热潮和以往不同?
人工智能历史中有好几次「繁荣-萧条」的周期,其中的乐观情绪被一些人们认为的显著进步所推动,后面则跟随着因不切实际的期望而带来的失望。
我们目前正处在又一次繁荣期。
这一次会有所不同吗,为什么?
我们应该怎样控制可能比人类更智能,同时我们又不能完全理解其工作方式的系统?
这个问题的一个更为急切的版本是:
我们应该怎样控制极其复杂且可能比人类更精确,但却不能直接解释它们自己的行为的系统?
人工智能系统是否应该有一个统一的目标函数(objectivefunction)还是说多样化评估更加合适?
我们会看到我们自己在大部分任务中被机器人取代,还是通过机器智能增强自身呢?
这个过程中,人工智能将创造出的工作会比其所消灭的工作更多吗,还是正好相反?
我们现有的用于管理人类的权利和行动的规则框架对机器人来说足够吗?
为什么这次会不一样?
现在和过去的一项根本的且可衡量的区别是机器学习已经帮助我们在解决感知问题上取得了长足进步。
机器之前不能读、听或看,这些一般需要专门为它们调配的输入。
新的系统则可以直接读取视觉、听觉和语言输入。
这一进步让机器可以在没有人类的参与下读取来自世界的直接输入,并为更进一步的处理创造它自己的内部表征。
连同强大的工具,大数据是另一个不同,尤其是在机器通过输入-输出对(input–outputpairs)表示的数据进行学习的监督学习(supervisedlearning)领域。
很多问题都可适用于这类型的构型(formulation),而且我们已经在几乎每个已有大数据集可用的领域见证了机器学习系统雨后春笋般地涌现。
计算机能够比最好的人类更好地完成任务的情况正变得越来越普遍。
然而,对于许多问题而言,并没有纯净的输入-输出对,并且/或者监督学习是不合适的。
比如说,我们可能常常关心一些累积的结果,例如整体健康度或收益/成本比而不是直到最终结果之前的每一个决定的好处。
这可能适用于不同类型的构型,例如「强化学习」,其中的回报不定期累加,累积的收益要被最大化,评价分配是困难的。
人工智能中最近许多让人兴奋之处都是由强化学习和「深度学习」的进步推动的,这些学习方式受到了类似于大脑的工作方式的启发和影响。
有趣的是,这一领域的一些关键进步来自于对现代视频游戏的研究,在这些游戏中,大量可用于学习的数据可以通过模拟的形式创造。
老一代玩游戏的程序和新一代玩视频游戏的程序之间的重要差异是:
前者由人类教导它尽量玩得足够好,而后者只给予了对游戏的控制和得分,没有其它关于自己所玩的特定游戏的知识,只能靠自己摸索。
目前的程序并不获取问题的表征作为输入,而是只获取问题本身的原始输入,再从其中发展出自己的对问题的内部表征。
这一进步把系统智能推向「上游」,移除了人类输入和潜在的偏差。
尽管这些新算法已经让涉及到识别和自然语言处理的领域出现了进步,但怎样让它们扩展到可以推理、规划、解释和学会学习的认知系统中仍然是该领域的一个主要研究难题。
最近一本名叫《TheMasterAlgorithm》的书认为由逻辑、进化、统计学和大脑启发的机器学习领域的各种分支是一种可以统一它们的更为抽象的算法的不同演绎。
创造能够整合这些分支的能力的系统是现在人工智能研究活动的热点。
我们怎么控制我们并不完全理解的系统?
如果机器可以比人类处理更多案例,也能明显比人类消化更多的信息并将其整合到它们的决策中,那么它们会变得比人类更聪明吗?
如果这个问题的答案是「是」,我们该怎样「控制」这样的系统呢?
这是一个容不得我们再延迟谈论的假设性问题。
今天,与其问机器「是否」会变得比人类更智能,许多研究人员不确定的只是这「何时」会发生。
现在机器已经能靠自己做出一些特定的科学发现了。
他们能够创造假设,而且配置了合适的认知标准(例如预测准确度或模型鉴定)后,它们可以自行设计自己以解决问题和发现新知识。
一旦这样的机器被整合到了我们的生活网络中,如果它们开始以一种我们不能理解的方式行动,我们可能就无法「关闭它们」了。
而且要是机器真的很擅长做一些不良的事情呢?
要是一个机器人在按照自身编程实现目标的同时无意地给无辜的一方带来了伤害呢?
事实上,2016年2月14日谷歌的机器人汽车有了它的第一个事故,那时它正在变道。
据谷歌称,它的汽车不仅尝试遵守法规,还要迁就人类的驾驶标准,比如让路规则——道路的文明精神——这比我们意识到的更加微妙。
尽管这是一个相对较小的事故,更大的问题是这种对后果的失控可能会在机器在复杂坏境中运行时出现。
著名的控制论专家诺伯特·维纳在50多年前就警告过我们这一困境了:
「为了达到我们的目标,如果我们使用一种我们不能有效地进行干预的机械……我们最好要十分确认放进机器的目标就是我们真正期望的目标,而不只是该目标花哨的模拟。
」
即使我们清楚我们想要的目标,我们也不能肯定我们会喜欢机器行为中的不可预测的后果。
这一问题的最近表现是对不想通过自己的搜索或社交媒体上的帖子的数据暴露自己的种族、性别或政治信仰的个体进行推理的预测模型的能力。
这需要解决「推测伦理(ethicsofinference)」问题,牵涉到那些使用与个人核心利益相矛盾的数据的系统。
人工智能系统应该有一个目标函数吗?
前面两个问题的讨论带我们走向了一个不可避免的问题:
人工智能系统应该有一个目标函数吗?
还是说这样的系统应该以某种方式和我们一起进化?
指导人工智能系统设计的一个显而易见的准则是最优性(optimality)。
这可能适用于感知问题,超人类的视觉或听觉会有其价值——通过扩大我们的能力让人类更强。
但为推理系统或涉及到道德的地方定义最优性是很困难的。
尽管我们应该向有道德和伦理的人工智能系统努力,但为机器定义伦理道德含义是什么却是一个严峻的挑战。
不幸的是,这是一个我们再也不能视而不见的问题了。
尽管大部分学科都假设目标性和功效性的指标都是外部确定的(exogenouslyspecified)——就是说把握它们是别人的事——但我们现在正快速接近需要为自动决策系统迎头解决这个问题的时候。
大自然会提供一个答案吗?
一些科学家断言通过适应环境多年的进化,大自然精心调节了人类的奖励功能,而也许这些也能为学习算法提供基础。
尽管这些功能通过观察人类行为能进行模拟逼近,但它们适合于机器吗?
还有一个同样棘手的问题是:
这样目标函数该怎样描述,通过自然语言还是某些其它形式?
Schmidt在他的开幕讲话中指出人工智能的巨大挑战是建立「正确的目标函数」的最佳实践。
但如何描述它们的可能方式仍旧是一个开放的问题。
人机对立还是人机合作?
历史上,人类与机器合作工作,用过他们提高生产效率。
工业机器极大提高了劳动效率。
办公机器让个人和商业活动更加高效并创造了新类型的工作机会和需求。
通过给机器提供让其可以自动学习和提高的原料,大数据和强大的算法已经改变了这一格局。
决策上的提升让学习机器扩展到了很多领域。
例如,依靠算法的大规模系统决策在金融和广告等行业的激增,这些行业的体量和复杂性使得将人类参与到这一流程中是不可行的,而且自动化所带来的错误的成本和其所带来的利益相比实在微不足道。
相反,在一些错误的成本很高和/或不容易定义的领域,自动化变得很有风险。
比如,要让无人驾驶汽车变得普遍,我们将需要对错误的成本和后果有很好的估计。
也许甚至更重要的是,我们需要解决在必须做出关键的权衡时算法设计中所涉及到的道德问题,比如说那些与生死决策有关的问题。
随着人工智能系统开始在更多原本属于人类范围的任务中发挥作用,一个相关问题是它们最终创造的工作是否会比它们将摧毁的工作更多。
关于这个问题,可能会出现一个被少数玩家主宰的赢家通吃的未来情景——这些玩家为将会取代劳动力的智能机器人的制造提供工具。
事实上,如果我们将Facebook和谷歌的「人力资本回报」与纽约时报和WPP对比,那每位雇员的市值比例大约是50:
1,而每位雇员的收入比例大约是10:
1.如果这些数字预示着未来的就业趋势,我们将看见随着机器在看、听、读、推理和学习方面——这些通常是目前这些人类岗位的关键需求——变得足够灵巧,许多行业都将出现大规模的劳动力迁移。
受到影响最大的很可能是那些自动化风险很低而所需的感知和决策能力可通过最小的预编程被机器学习到的行业和专业。
比如,政府机构每天都处理的许多问题只需要简单决策,然后大规模执行(例如解决停车罚单争议)。
对于这样的问题,机器可以产生行政效率上的巨大收益和更好的结果。
类似地,商业上也使用了大量人类来处理如认证和审批等决策所需的过程。
随着自动化的精确度的提高和异常处理的成本降低,许多这样的过程在自动化上已经成熟。
尽管生产力和效率可以获得大量增益,但这将让我们更好还是更糟糕?
我们并没有控制生产力、增长和不平等的经济规律。
工业革命提供了一些粗糙的类比,例如火车运输对传统马车运输的冲击,对马的需求最初为了响应更高的货物出货量而出现了增长,但当机械化解决了「最后一英里」时马的需求就消失了。
从这样的类比中我们认识到知道新技术可以刺激需求,这将在短期内增加价值链中非自动化的任务(如交付和服务)的劳动力需求,但随着自动化悄悄渗透这些过程中,这些临时的工作将变得脆弱并最终不再需要人类。
我们已经在金融服务行业见过了这种模式,该行业中之前由人类做的分析工作正迁移到更便宜的地区,然后变得越来越自动化。
我们目前的监管/法律框架足以应付机器人吗?
简单回答就是NO。
法律法规的语言充满了处理动机(intent)和情绪(emotion)的概念,非常非常人类化。
立法机构、机关和法院是围绕着处理配属于人的权力和责任而设计的,其中的动机、责任义务等都可以被判断出来。
机器人和算法则相反,是一片没有先例的处女地。
法律是以自然语言表述的。
尽管明确地解读许多法律背后的意图是可能的,但一些法律中则不只是涉及到「事实」而还有「观点」,这要求高度的主观性。
事实上,正如Scherer指出的那样,解读(美国宪法)第二修正案这样的基础法律就可能涉及到观点的解释。