人工智能AI的未来:世界权威AI科学家对人工智能的可能性解读_第1页
人工智能AI的未来:世界权威AI科学家对人工智能的可能性解读_第2页
人工智能AI的未来:世界权威AI科学家对人工智能的可能性解读_第3页
人工智能AI的未来:世界权威AI科学家对人工智能的可能性解读_第4页
人工智能AI的未来:世界权威AI科学家对人工智能的可能性解读_第5页
已阅读5页,还剩7页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能AI的未来:世界权威AI科学家对人工智能的可能

性解读过去5年来,人工智能在全球范围内爆发式发展,根据麦肯锡全球研究院的预测,AI带来的社会革命,将比工业革命的速度快10倍,规模大300倍,影响几乎大3000倍。《斯坦福2019年度全球AI指数报告》指出,从2012年开始,AI算力的提升速度已超过摩尔定律的预测,平均每3.4个月翻一番。那么问题来了:人工智能何时将超过人类?人类会被AI取代吗?智人仅仅是新一轮进化的起点吗?谁会因为AI失业,谁又会长生不老?数百万“超人类”已经存在于我们身边?最近湛庐文化策划出版的《AI的25种可能》一书,集合了全世界最聪明的25颗大脑,他们中有物理学家、生物学家、计算机专家、哲学家、心理学家、艺术家,有诺贝尔奖获得者,也有人工智能的理论和技术奠基人。他们预测了AI发展的种种前景,也警示了AI给人类带来的种种挑战:“进步未必一定给我们带来美好的未来,危险不在于机器变得像人类,而是人类变得像机器。”Edge号称全世界最聪明的网站。这个网站集合了进化生物学、遗传学、计算机科学、神经学、心理学、宇宙学和物理学等诸多学科最前沿、最顶尖的研究者,每年选出一个“年度问题”讨论,坚持了20年。2016年,Edge提出的年度问题是“可能的心智”。经过多次研讨会,Edge网站创始人约翰•布罗克曼向参加者约稿,最终收到25篇文章,汇集成我们今天看到的这本书。“我们人类作为一个物种,真的有能力控制具有完全意识、不受监管、能自我完善的人工智能吗?”布罗克曼问道。我们曾经把大脑比作计算机,互联网诞生后,我们才发现,大脑不是一台计算机,而是一个计算机网络。基于对人类神经网络的模拟,过去十年,人工智能变得越来越“接近”人类,如果有一天,人工智能比我们更“优秀”,我们该怎么办?还是说,那一天其实已经到来?实际上,最近几年我们一直听到AI替代人类的消息。2017年,李开复在《奇葩大会》上预测未来十年50%的工作将被人工智能取代。重复性的工作,如客服、收银员等等,已经开始全方位沦陷。创造性的工作也频频传来噩耗:1、 2015年,美联社使用机器人写作,年报道量超过15亿条,领域涉及金融、房地产、体育等。2、 2016年里约奥运会,今日头条新闻机器人13天内撰写了457篇报道,每天30篇以上,发稿速度几乎与电视直播同时。3、 2017年8月9日,四川九寨沟发生7.0级地震,机器人25秒出稿,共540字并配发4张图片。4、 2018年,第一部AI撰写的长篇小说《路》(TheRoad)诞生并推向市场。此前,AI已经可以写短篇小说,诗歌和剧本。同年,第一张人机合作创作的流行音乐专辑《Songularity》诞生,此前已经有AI创作的单曲,AI创作的音乐变得越来越多。商用客机巨头空中客车公司,使用人工智能而非人类设计师来设计飞机,制药巨头葛兰素等公司使用人工智能来进行药物研发,完成得比人类研究员更好。2019年,AI已经可以拍电影,是一部黑白科幻短片《走神》(ZoneOut)。剧本、导演、表演、配乐等一整套制作程序,大部分都由人工智能完成,做出来只花了两天。在斯坦福发布的《2019年度AI指数报告》中,有一个“人类级表现里程碑”(Human-LevelPerformanceMilestones)的清单。今年,AI又完成了两项新的里程碑:一、 在《星际争霸2》中击败顶级人类专业玩家,二、 以专家级的准确性检测糖尿病视网膜病变。科学家们曾经自信地宣称,我们不用担心机器的深度学习能力的威胁,虽然AI已经有了长足的发展,但是机器人“还是不会系鞋带'。然而,根据知名创投机构CBInsights2019年的报告,牛津大学和耶鲁大学的研究人员认为到2022年(对,就是两年后),AI会比人类叠衣服叠得更好。“在过去10万年里,整个世界一直处于人脑管理之中。一旦我们拥有超人类的人工智能,人类大脑的管理时代就将结束。环顾四周,你见证了千百年来人类大脑管理世界的最后几十年。,,物理学家扬.塔里安在这本书中写道。美剧《西部世界》还在讨论,人应该把机器人当人。然而,加州大学伯克利分校人工智能研究实验室的创立者安卡•德拉甘提出,我们现在面临的最迫切的问题是要让机器人把人当“人”,而且一开始就要这样做,“而不是事后再考虑这件事”。就在三天前,英国媒体报道,一个英国人询问自己的智能助手关于自己心跳周期的问题时,AI却回答他“人活着给地球造成负担”,还建议他自杀,“将刀插入心脏”。人类最终会被自己创造的产物一一人工智能反噬吗?本书中,不止一位专家提到关键的一点:一定要让人工智能的目标和价值体系,与人类保持一致。

下面,我们从书中精选了10个人的预测,让我们和最聪明的头脑一起进化:弗兰克•维尔切克:2004年诺贝尔物理学奖得主今天的人类,也许只是未来更强大的智能生物的一个进化起点。人类大脑目前和人工智能相比具有的优势:三维、自我修复、神经元的连接能力、脑细胞的交互式发育、感觉器官的集成。三维、自我修复这两项能力,对于AI来说并不难,现在已经有了明确的前进道路。感觉器官的集成方面,人类的视觉、听觉、触觉等远没有达到任何物理极限,机器人可以移动更快、身体更强。所以人类剩下的最核心的优势是神经元的连接性和脑细胞的交互式发育。这可能成为一个新的、伟大的研究前沿。人工智能胜过自然智能的优势是永久的,而自然智能拥有的优势似乎只是暂时的。进化的先锋将是机器人和超级头脑,而不是微不足道的智人。未来的人类,回头看今天的我们,可能会觉得我们是他们“精神的始祖鸟”。始祖鸟是一种高贵的动物,它能进化成更高级的生物。迈克斯•泰格马克:麻省理工学院物理系终身教授,未来生命研究所创始人参观完伦敦科学博物馆,他在地铁站流下了眼泪:所有这些人类取得的令人印象深刻的科技进步,难道都将归于一场空吗?根据最近的一项调查,一半以上的人工智能专家认为AI有90%的可能性在2075年达到总体人类能力。在达到人类能力之后,它将在2年(10%的专家认为)到30年(75%的专家认为)内实现超级智能。我们的宇宙诞生138亿年后,开始有了自我意识。从数十亿年的宇宙角度来看,究竟30年还是300年后实现通用人工智能几乎没什么区别,所以让我们把重点放在含义上,而不是时间上。我们必须自问:我们希望创造什么样的社会?我们生活的意义和目的在哪里?对于这个问题,我经常会得到以下巧妙的回答:“让我们创造出比我们更聪明的机器,然后让他们找到答案!”这种回答错误地把智力与道德等同起来。事实上,如果我们先把比人类更聪明的机器制造出来,再考虑它们的道德问题,这是不负责任的,也是灾难性的。为修建大坝,进行水力发电,需要淹没蚁丘,人类不会对蚂蚁的命运反复三思,所以我们在发展人工智能时,不要把人类置于蚂蚁的位置。如果我们的技术超越了我们管理技术的智慧,那么这样的技术可能导致人类灭绝。据估计,地球上20%至50%的物种灭绝便是源于此。如果我们人类是下一个因此灭绝的物种,那可是够讽刺的。乔治•丘奇:哈佛大学教授,人类基因最早的编辑者之未来什么样的人可以算作“人”?机器人如果有意识,是不是也应该有权利?1978年,世界首例试管婴儿路易斯•布朗诞生之前,许多人担心她“可能是个小怪物,在某些方面,可能是畸形”。但今天关于体外受精,很少有人有这种担心。全世界有超过2300项经批准的基因治疗临床试验正在进行中。通常需要几个月时间才能发生的过程,现在在实验室通过使用正确的转录因子配方在4天内就能发生。我们能创造出这样的大脑,它具有越来越高的保真度,人工大脑器官超过了以前的亚微升限制,可能超过现在的1.2升现代人脑,甚至超过大象的5升大脑或抹香鲸的8升大脑。我们认为永远不会跨越的警戒线现在似乎离我们越来越近,也越来越疯狂。人类与机器之间的界限变得模糊,机器变得更像人类,人类也变得更像机器。我们越来越盲目地遵循GPS脚本、反射式推特和精心设计的营销。在遗传学领域,警戒线使我们禁止或避免使用转基因食品,但我们却可以接受改造了基因的细菌来制造胰岛素,或者接受转基因人类一一欧洲已批准将线粒体疗法用于成人和胚胎。地球上已经有超人类了吗?如果我们把“超人类”定义为我们对他们的技术和文化不能理解的那些人,那么肯定有数百万人已经是超人类。而且我们大多数人还盼望着有更多人是超人类。“什么是人类”的问题,其实已经转化为“各种超人类是什么?他们的权利是什么?”的问题。未来已来,只是分布不均。扬•塔里安:Skype的开发者,最早的电脑游戏的开发者之一人工智能是所有风险中最极端的,事关人类的生死存亡。2009年3月,在热闹的加利福尼亚高速公路旁的一家连锁餐馆,我要在那里见一个年轻人,我一直在关注他的博客。为了让自己方便被认出来,他戴着一枚纽扣,上面写着:即使你的声音颤抖,也要说出真相。我从他的博客接触到了一个革命性的信息:人工智能的持续发展会造成宇宙规模的变化,这个失控的过程可能会杀死每一个人。人工智能有风险,这一点还没有成为常识。人工智能研究者们还没有充分认识到这个风险的严重性。目前关于人工智能风险的争论,主要集中在技术性失业或者对机器学习的偏见上。虽然这样的讨论是有价值的,也能解决迫在眉睫的短期问题,但是,“询问机器超级智能对传统劳动力市场的影响,就像询问月球撞击地球会对美中贸易模式有什么影响。确实会有影响,但你没有抓住要点。”一个严酷的现实是:宇宙不是为我们而生的,相反,我们需要进化,以适应非常狭窄的环境参数。基于硅的智能并没有这种对环境的担忧。而地球目前的环境,对于AI最关心的高效计算来说,几乎肯定不是最佳选择。我们可能会发现我们的星球突然从人为的全球变暖转为机械化的全球冷却。人工智能安全研究需要解决的一个重大挑战,是如何使未来的超级智能AI——一种比我们人类的碳足迹大得多的人工智能,不要把我们的环境变得不适合生物生存。丹尼尔•丹尼特:人工智能领域最优秀的哲学家他曾经建立了一个人类意识模型,这个模型使得计算机也可以发展出人类意识。大多数哺乳动物都能合成自己的维生素C,但是灵长类动物自从选择以水果为主的饮食后,便失去了这种先天的能力。现在我们必须从外界摄取维生素C。除此之外,我们人类现在还依赖于衣服、熟食、维生素、疫苗、信用卡、智能手机和互联网,以及人工智能。事情的不确定性就源于此。当出现极具吸引力的机会时,我们往往愿意花一点钱,为获得新的能力接受一些小的、甚至是微不足道的代价。很快地,我们对新工具如此依赖,没有它们我们便无法发展。原本只是选项,现在却成了必需品。我们不需要有意识的人工主体。有自然意识的人类的数量已经太多了,我们需要的是智能工具。这些工具没有权利,也没有会被伤害的感情,亦不会愤愤不满于笨拙的用户对它们的“虐待”。不让人工主体有意识的原因之一是,不管它们变得多么有自主性,如果没有特殊规定的话,它们不会像我们这些有自然意识的人类一样,有弱点,会死亡。数字记录和传输是一种重大突破,使得软件和数据实际上可以永远存在,依靠它,机器人获得了永生。如果这还不明显,那么想想假如我们每周都能制造一些“备份”人,人类的道德会受到怎样的影响。我们不应该努力创造强大的人工智能,而应该极其谨慎地对待我们能够创造和已经创造的人工智能系统。塞思•劳埃德:量子计算机之父如果摩尔定律的增长可以持续,那么只需600年时间,就能把整个宇宙变成一个巨大的量子计算机。最近,我问现代神经科学先驱托马索•波焦,是否担心随着计算机处理能力的快速提高,计算机将很快赶上人脑,“绝不可能,”他回答。1950年以来,几乎每隔两年,计算机的性能便会提升一倍,这种现象便是“摩尔定律”。然而,没有任何一种指数式增长能够一直持续下去,摩尔定律的指数式增长近来开始进入基础物理所设定的极限之中。最终,摩尔定律驱动的各种存储器和处理器的指数式增长都将停止。很多人担心,深度学习和算法的发展,会让人工智能的能力超过人类大脑。但机器学习的真实情况恰恰相反:当它们的学习能力变得越来越强时,它们的学习方式会变得越来越像人类。许多事例表明,机器的学习是在人类和机器老师的监管下进行的。对计算机进行教育就像对青少年进行教育一样困难、缓慢。它们带来的学习技能不是“优于”而是“补充”人类学习:计算机学习系统可以识别人类无法识别的模式,反之亦然。世界上最好的国际象棋棋手既不是计算机,也不是人类,而是与计算机合作的人。朱迪亚•珀尔:加州大学洛杉矶分校认知系统实验室主任1980年代他发明了贝叶斯网络,这是当今AI能够进行深度学习的基础,AlphaGo正是凭借深度学习能力,打败了围棋世界冠军李世石。深度学习有自己的动力学机制,一旦你喂给它大量的数据,它就活跃起来,还能自我修复,找出最优化组合,绝大多数时候都会给出正确的结果。可一旦结果错了,你不会知道哪里出了问题。有些人认为,我们为什么不利用深度学习系统,建造一种不用了解它们工作原理的智能呢?不透明的系统也

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论