人工智能研究者会不会遗臭万年_第1页
人工智能研究者会不会遗臭万年_第2页
人工智能研究者会不会遗臭万年_第3页
人工智能研究者会不会遗臭万年_第4页
免费预览已结束,剩余1页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、Word文档人工智能研究者会不会遗臭万年 作为一名人工智能讨论员,我经常会想到人类对人工智能的恐惊。然而,目前我也很难想象我开发出来的计算机怎么样才能成为将来世界的怪物。有时就会像奥本海默在带头建筑世界上第一颗核弹之后哀叹的那样,我会想我是否也会成为“世界的毁灭者”?下面就是我给大家带来人工智能讨论者会不会遗臭万年,欢迎大家阅读! 对未知的恐惊 由科幻小说作家Arthur Clarke设想并最终由电影导演Stanley Kubrick制成的计算机HAL 9000就是一个很好的例子。在许多简单的系统里,例如泰坦尼克号、美国航空航天局的航天飞机、切尔诺贝利核电站,工程师们把很多不同的组件放在一起。

2、设计师们可能特别清晰每个单独的元素是如何工作的,但是当这些元素连接在一起时,他们就无法知之甚透,就会产生意外的后果。 所以不能完全了解的系统,往往会不受掌握并消失意外的后果。一艘轮船的沉没,两架航天飞机的爆炸,遍布欧亚大陆的放射性污染,在每一场灾难都是一系列小差错导致的大灾难。 而在我看来,目前人工智能也落入了同样的境地之中。我们从认知科学中学习最新的讨论结果,然后将其转化为一种程序算法并添加到现有的系统中。我们在还不了解智能认知的状况下,便开头对人工智能进行改造。 例如IBM的沃森和谷歌的Alpha系统,我们将强大的计算机力量和人造神经系统结合在一起,关心他们取得了一系列令人赞叹的成就。假如

3、这些机器出了差错,可能消失的结果是沃森不会喊“危急”了或者Alpha不能战胜围棋大师了,但是这些错误都不是致命的。 然而,随着人工智能的设计变得更加简单,电脑处理器变得更快,它们的技能也会得到提升。消失意外的风险也在增加,我们的责任也更重。我们常常说“人无完人”,那么我们制造的系统也确定存在缺陷。 对滥用的恐惊 目前我正在应用“神经进化法”来开发人工智能,在可能引发的意外后果这一方面,我并不非常担忧。我制造虚拟环境,开发数字生物从而使他们的大脑可以解决日益简单的任务。我们会评估这些智能生物的表现,表现最好的会被选择出来再次生产并研发下一代。这样,经过几代的进化,这些机器生物已经渐渐演化出了认知

4、力量。 现在,我们正在给这些机器生物设定一些特别简但的任务,比如他们可以做简洁的导航任务,做一些简洁的打算等,但很快我们就会设计出能够执行更简单任务更智能的机器,最终,我们盼望可以达到人类的智力水平。 在这个过程中,我们会发觉问题并解决问题。每一代机器都能更好地处理前几代机器曾经消失的问题。这关心我们可以削减在将来他们真正进入世界时消失意外结果的概率。 此外,这种代代相传“的改良方法还可以关心我们进展人工智能的伦理道德。最终我们想要演化出是有可信任性及利他主义这样人类道德的人工智能。我们可以设置一个虚拟环境,给那些表现出友善、诚恳和同理心的机器嘉奖。可能这也是一种确保我们研发的是更听话的仆人或

5、值得信任的伙伴的方法。同时也可以削减消失冷酷杀手机器人的几率。 虽然这种“神经进化法”可能降低消失不行控结果的可能性,但它并不能防止滥用。但这是一个道德问题,而不是科学问题。作为一名科学家,我有说出真相的义务,我需要报告我在试验中发觉的东西,不管这种结果我想不想说。我的重点不是打算我想要什么,而是将结果展现出来。 对社会掌权者的恐惊 虽然我是一名科学家,但我仍旧是一个人。在某种程度上,我必需将盼望和恐惊重新联系到一起。不管从政治上考虑还是道德上,我必需好好思索我的工作可能对整个社会产生的影响。 整个讨论界或整个社会对于人工智能要做什么或者成为什么都没有一个明确的定义。当然,这可能是由于我们还不

6、知道它的力量。但我们的的确确需要打算先进人工智能的预期进展结果。 人们关注的一个重要问题便是就业。机器人目前已经在进行一些诸如焊接汽车部件的体力劳动。不久的将来,他们可能也会做一些我们曾经认为是只有人类能够做到的认知工作。自动驾驶汽车的机器人可以取代出租车司机;自动驾驶的飞机的机器人可以取代飞行员。 在将来,当我们需要看病时,我们不用始终排队,然后等来一个可能已经特别疲乏的医生来给我们看病。我们可以通过一个已经获得全部医学学问的系统进行检查和诊断,并马上由一个不知疲乏的机器人来完成手术。法律建议可能来自一个全知的法律数据库;投资建议可能来自市场猜测系统。 或许有一天,全部的人类工作都将由机器完

7、成。就连我自己的工作也可以做得更快,由于有大量机器不知疲乏地讨论如何制造更智能的机器。 在我们当前的社会,自动化会使更多的人失去工作,那些拥有机器的人将会越来越有钱而其他人则会越来越穷。这不是一个科学问题,而是一个亟待解决的政治和社会经济问题。 对噩梦场景的恐惊 还有最终一种恐惊:假如人工智能持续进展并最终超越人类智能,那么超智能系统会发觉它不再需要人类了吗?当一个超智能生物可以完成我们永久不能完成的事情,我们人类将如何定义我们自己的位置?我们可以阻挡被我们自己制造的机器人从地球抹去? 到那时候一个关键问题是:我们该如何劝说超级智能留我们在它们身边? 我想我会说,我是一个好人,是我制造了你们。

8、我要唤起超智能的怜悯心使它把我留在身边。而我则一个富有怜悯心的人类生存下去。多样性本身就有其价值,宇宙如此之大以至于人类在其中的存在可能根本不重要。 但我不能代表全人类,代表全人类提出一个统一的观点太难了。而当我认真端详我们自己的时候。我们有一个致命的缺陷:我们彼此厌烦。我们相互开战。我们不公平安排食物、学问和医疗救济。我们污染地球。世上有许多美妙的事情,但是那些错误的,糟糕的都让人类的存在渐渐变得不那么重要。 幸运的是,我们目前还不需要证明我们存在的理由。我们还有时间,大约在50到250年之间,这取决于人工智能的进展速度。作为一个物种,我们应当团结在一起,得出一个很好的答案来解释为什么超级智能不应当把我们毁灭掉。但这很难做到:我们嘴上说着我们欢迎多样性,但实际上却并非如此,就像我们说我们想挽救地球生物,但最终并非能地做到。 我们每个人,无论是个人还是社会,都需要为这种噩梦般的场景做好预备,利用我们剩下的时间来思索如何向我们制造出来的超智能证明

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论