剧情是:一个男主角2020年未来的科技生活他掌握了人工智能技术,发明了一个女性人工智能人形机器人,

当前位置:&>&&>&
  □邓线平  人工智能AlphaGo连续战胜李世石后,在世界范围内引起大讨论,很多人担心“机器超越并最终控制人类”的科幻剧情,可能在未来真实上演。更加有趣的是,一些人揣测AlphaGo故意输掉一盘棋,就是为了打消人类顾虑,让人类掉以轻心,以实现人工智能最终统治人类的野心。  人类最终被机器人统治?无论乐观还是悲观,技术改变人类社会都已成为一个事实  一般认为,电脑要在围棋比赛中胜出,比其他游戏困难得多。因为围棋盘势更为宽广,以电脑来计算相当困难,使用传统人工智能方法的程式几乎不可能获胜。相较于先前的围棋程式,AlphaGo表现显著提升。在与Crazy Stone和Zen等其他围棋程式的500局比赛中,AlphaGo仅输一局。2015年10月,AlphaGo以5比0击败欧洲围棋冠军华裔法籍棋士樊麾二段,这是电脑围棋程式首次在全尺寸棋盘上公平击败职业围棋棋手。短短半年后,AlphaGo又挑战排名世界前三的人类选手李世石九段并获胜,成功引起世界范围内关于人工智能的大讨论。  有人仔细地分析了人机对弈的过程,内心感到非常震撼,不仅从中看到了AlphaGo的精妙计算能力,而且还观察到它的“个性”:“它有着超凡的大局观,洞悉整个棋盘上的所有薄弱之处。对自己的弱点,它两度自补,显得很‘猥琐’。但对李世石看似无懈可击的地盘则毫不犹豫地出击,近乎一剑封喉。它在‘脱先’时的那种气定神闲,宛如成竹在胸的世外高人,带给对手凛然的压迫感。无论接下来胜负如何,有一点已经可以肯定,阿尔法狗已经是无可争议的顶尖围棋高手,没有任何人敢于小觑它的实力。至于未来,则必定属于它。”著名物理学家和宇宙学家霍金也号召大家警惕人工智能可能带来的威胁,特斯拉创始人埃隆?马斯克甚至因担心未来机器将取代人类而抑郁。  但也存在另一种声音,“脸书”创始人扎克伯格就认为这些担忧毫无依据。在被问及如何看待机器可能在很多方面比人类大脑更聪明时,扎克伯格曾作出如下回应:“人类制造机器就是为了让机器在某些方面强于人类,但是机器在某些方面超越人类不意味着机器有能力学习其他方面的能力,或者将不同的信息联系起来而做超越人类的事情,而这一点非常重要”。当被问道“难道科幻小说里那种事情(机器超越人类)真的就不可能发生么?我们难道一点都不需要担心人工智能的安全性么?”时,扎克伯格解释道:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管怎么样,我们要先造出飞机,再担心飞机的安全性。我们过度担忧人工智能,将阻碍人工智能实际的进步。我们要认识到无人驾驶汽车可能可以帮助我们减少车祸的发生,而且人工智能系统甚至能够帮我们诊断疾病,所以因为担心安全性而阻碍人工智能的进步可能是最糟糕的选择,因为我们本来可以利用人工智能让世界更美好。”  无论乐观还是悲观,人工智能终将大大改变人类社会。实际上,像所有技术一样,它已经大大改变了人类社会。  人工智能分为弱人工智能和强人工智能。弱人工智能(Artificial Narrow Intelligence,简称ANI)是指仅在单个领域比较牛的人工智能程序。比如这一次战胜李世石的谷歌AlphaGo,便是弱人工智能的典型代表。其特征便是虽然很擅长下围棋,却无法与你玩一把飞行棋,也难怪有评论称其水平只是人工智能界的“小学生”。与之相类似的还有我们较为熟悉的苹果Siri,以及美联社、腾讯、新华社等尝试的“机器人记者”。这些写稿机器人虽然已经可以自动生产财报报道的内容,但是对于报道“看了一场体育比赛之后,用虽败犹荣来描述胜负”,却是它们完成不了的。  强人工智能(Artificial General Intelligence,简称AGI)则是能够达到人类级别的人工智能程序。不同于弱人工智能,强人工智能可以像人类一样应对不同层面的问题,而不仅仅只是下下围棋,写写财报报道。不仅如此,它还具有自我学习、理解复杂理念等多种能力。也正因此,强人工智能程序的开发比弱人工智能要困难很多。  有人在此基础上,进一步提出了超人工智能(Artificial Super Intelligence,简称ASI)。其中,牛津大学哲学系教授、人工智能思想家尼克?博斯特罗姆是最知名的,他把“超人工智能”定义为:它们“在几乎所有领域都比最聪明的人类大脑还聪明很多,包括科学创新、通识和社交技能”。  对人工智能的讨论,不能“就技术论技术”,而应站在“技术哲学”的高度去分析  一个问题是,目前关于人工智能的讨论,都只是就技术论技术,而并没有深入了解技术背后的内在规律,因此也就难以真正探究技术的未来。技术未来会怎样?这需要哲学上的回答。  人工智能到底能不能与人和谐共处?回答这个问题的关键在于,人类自身是不是足够强大。如果人类社会还没有足够强大,还不能承受人工智能所带来的冲击,这时候就产生了强大的人工智能,那么就有可能产生可怕的后果。其实,不止人工智能,任何一种技术都是如此。  对人工智能是否会战胜人类的不同看法,对应着技术哲学上两种争论已久的观点,即技术实体论和技术工具论。认为技术能战胜人类的属技术实体论,著名哲学家海德格尔即持此观点。他认为,技术构成一种新的文化体系,这种新的文化体系将整个社会世界重新构造成一种控制的对象;这个体系具有一种扩张性活力的特点,它将最终侵入每一块前技术的飞地和塑造社会生活的整体。技术工具论则认为,技术是用来服务于使用者目的的“工具”。人们想让它干什么就干什么,它不可能超越人类,更不可能去控制人类。  技术工具论只看到了问题的一面。任何一项技术,作为工具在提升人类能力的同时,也改变着人类,不但改变了操作工具的人,而且通过他改变了整个社会结构。一个人可能因为发明一项技术,或者利用一项技术,而改变自己在社会结构中的地位,继而更深刻地改变社会。技术实体论则走向了另一个极端,即将人类自主性完全交给技术,而忽视了人类理性的作用。  实际上,任何一项技术,包括人工智能技术,其作用于人类,都是一步一步慢慢实现的。新技术首先作用于某一领域,某一个人,或者某一群人,继而影响整个社会。总体来看,在此过程中,人类理性发挥作用,将不好的作用效果屏蔽掉,将好的作用效果发挥出来。现有的技术发展历程就是如此。核技术可以毁灭人类,也可以用来发电、造福人类。关键是在技术发展、推广的过程中,一系列的社会建构在起作用,规范着技术使其朝着正确的道路前进。这可看作是技术实体论与技术工具论外的第三种观点,即技术逐步改变人类,但同时受人类理性控制,最终将人类带到一个更能发挥主体性同时又更规范的世界。技术可能在某一方面胜过人类,但要从整体上统治人类是不可能的。因为技术本身要遵守这些规范。  人工智能也属这样一种技术。虽然它在逻辑分析推算方面,能力会远超人类,但它的能力完全发挥需要一步步实现。在这个过程中,人工智能与人的差距会始终存在,这种差距不是能力上的差距,而是生存上的差距。人工智能是一种“目的性存在”,它为完成人类的某种目的而存在。而人类本身是一种交往性存在,由交往而形成社会,形成命运共同体。机器人在某一时间点只是一种工具,而人可以在现实中根据实际情况进行博弈。通过交往,人类社会编织了严密的制度、道德网络。这些网络是为人类共同体服务的,而人工智能只是这个网络中很小的一环。人工智能也在改变人类,一方面,改变社会原有的结构;另一方面,人类需要设计出更多的规范,使人工智能更好地为人服务,而不是去破坏人的生存境况。  以围棋为例,虽然AlphaGo能战胜李世石,能战胜绝大多数人类,甚至整个人类智力汇总起来也战胜不了它,但它不可能控制人类。它的能力只在围棋方面,人类所形成的社会网络非常严密,无所不在,围棋只是其中的一个游戏。AlphaGo的算法厉害,但开电门需要人类;现在的AlphaGo,甚至落子都需要人类代替,更不用说与人直接交流,参与社会活动等。即使未来人工智能可以参与部分社会活动,但它一定是在某种人类目的性基础上参与社会活动。它要突破整个社会网络,完全改变人类,甚至统治人类,是不可能做到的。除非人类丧失了基本理性。  我们更应该担心的是:人类可能利用人工智能这一高新科技,自己打败自己  未来可能每个领域都有机器人工作,并且,每个领域的机器人都会超越人类。是不是这些机器人联合起来就可以统治人类呢?答案也是不可能的。当初设计这些机器人的时候,只是要求它们完成特定的工作,它们不可能联合起来,或者说,联合起来不是它们的主要工作和任务。即使是它们的工作和任务,也是人类给予它们的工作和任务,也是为了完成特定的人类社会目的,为人类服务的。一方面,人类社会可以控制这些机器人;另一方面,它们工作的目的和任务不可能超越维护人类生存的目标。  但是,这一切都要建立在人类社会足够强大、人类理性能够充分发挥作用上。人类是不是足够强大,体现在社会网络是否足够完善。完善的社会网络,可以让人类联结成一个命运共同体。它的内涵体现在两方面:一方面,不能把人当作奴役的对象,人始终是技术服务的对象;另一方面,技术的局部运用,当它产生负面作用时,可以及时被断开。完善的社会网络,可以在技术行使破坏功能时,利用人类网络,将机器人制服。人工智能再发达,它始终处于社会的一环,而不是统治整个社会系统。它再发达,也只是为整个社会所用,继而为个体所用。  反之,不完善的社会网络则可能产生机器人统治人类的空间,这是人工智能发展真正可怕的地方。不完善的社会网络,意味着社会还没准备好迎接新技术。其实,任何一种技术应用都是如此。现实社会中,技术对人的“统治”已无所不在,如很多人对手机、互联网的沉迷等。在社会网络不完善的情况下,人工智能的破坏作用将大大增加,这应该是人类真正需要担心的。但这种情况发生,显然不是人工智能战胜人类,而是人类自己打败自己。  人类是不是足够强大,还体现在有没有针对特定的技术进行相关防护。在开发人工智能之前,应进行相关的制度设计,避免人工智能被少部分人利用。现在的人工智能还只是完成某一项工作,随着技术的进步,人工智能越来越像人本身,这时,对它的防护就显得更加重要,也更加困难。因为它将更深度参与人类社会的构建,并像人一样活动。它将与人形成越来越深入的联系。因此,随着技术进步,人工智能向前的每一步,都需要进行深刻的探讨。在此之前,应防止技术被贸然应用――不但人工智能如此,一切高新技术都是如此。(作者单位:广东省社会科学院)
本文相关新闻简单介绍一下2017年最新科学技术产品——人工智能(二)|人工智能|人类|机器人_新浪网
简单介绍一下2017年最新科学技术产品——人工智能(二)
简单介绍一下2017年最新科学技术产品——人工智能(二)
人工智能的普遍运用可能你我已经感受到了,首先介绍一下“人工智能”。简单的说就是让机器具有人的智慧,可以完成人类的工作。目前人工智能的运用主要在语音助手、机器人、人脸识别等,苹果的SIRI,百度的无人驾驶系统、还有击败了人类围棋冠军的智能机器人Alpha Go等等,人工智能的力量让人惊叹。最为可怕的是机器具有深度学习算法,既可以从每一次不管成功还是失败的训练中,他都可以从中学习,机器由于是算法控制,具有人类无法比拟的精确度,在做同一件事情时会比人类具有更小的错误率。也可以在错误中学习的更多、更快。所以,今年自学成才的Alphago Zero 以100比0的成绩碾压了其前辈Alphago ,未来人工智能将大面积取代人类工作,大大减轻人类的负担,而人类要想在其中获得良好生存,要明白自己相比于机器人,自身的优势在哪里。
特别声明:以上文章内容仅代表作者本人观点,不代表新浪看点观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪看点联系。我_机器人_人类的未来_漫谈人工智能科幻电影_秦喜清_百度文库
您的浏览器Javascript被禁用,需开启后体验完整功能,
享专业文档下载特权
&赠共享文档下载特权
&100W篇文档免费专享
&每天抽奖多种福利
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
我_机器人_人类的未来_漫谈人工智能科幻电影_秦喜清
阅读已结束,下载本文需要
定制HR最喜欢的简历
下载文档到电脑,同时保存到云知识,更方便管理
加入VIP
还剩3页未读,
定制HR最喜欢的简历
你可能喜欢八问人工智能:人类会失业吗?_科学之家_知道日报_百度知道
八问人工智能:人类会失业吗?
人工智能技术方兴未艾,机器人在设想的未来生活中更是举足轻重,但是这对我们到底意味着什么?近日,科研网站The Conversation总结出8个有关人工智能和机器 人的问题,并邀请各界人士进行讨论。看完告诉小编,对于这些问题,你是怎么想的呢?1. 仿人智能有多大可能实现?人工智能教授Toby Walsh:仿人智能是可以实现的。虽说人类大脑是世界上已知最为复杂的系统,没有什么可以和大脑数十亿个神经元和数万亿个神经元连接的复杂程度相媲美,但是也没有什么物理法则阻止我们重现 或超越大脑脑力。《计算机科学》(Computer Science)读者Kevin Korb:从阿西莫夫到斯皮尔伯格,人工智能技术在流行作品中可谓炉火纯青。这个问题没有问到的是:人工智能会在什么时间实现?包括 我在内的大多数人工智能研究员认为,答案是近期不可能出现,当前人工智能的关键问题研究进展缓慢。人工智能作品中不大可能实现的是机器人的情感和道德生活。作品中的机器人不是像《星际迷航》里的Data一样毫无情感,就是像《她》中的机器人一样和人类无差 别。智商、情商和能商相互依存,任何一方不可能离开其他两者单独存在,但科幻小说一般会把它们区分开。柏拉图笔下的苏格拉底也犯了类似的错误。人工智能立法研究员Gary Lea:人工智能不是不可能,但实际问题是“什么智能程度才算人工智能?”应用实验也许能帮我们揭晓答案:图灵测试(如 果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试),咖啡测试(机器人能否走进陌生的房 间然后冲一杯咖啡),大学学位测试和工作测试。如果人工智能系统能通过上述所有测试(还有其他心理学家可能想出的其他测试),那么人工智能应该差不多算是实现了。也许最终的挑战是机器人能否和人类一起 生活而不被发现?2. 自动化正在取代很多工作。现在是不是应该立法保护这些行业?机器人学教授Jonathan Roberts:2013年,牛津大学研究人员根据自动化可行性程度对各类工作进行排序后发现,未来20年内,美国境内近半数的工作将面临计算机 化的风险。2014年,网络上出现了一个名为Humans Need Not Apply的高点击率视频,深入讨论人类是否会因机器人的发展而失业。视频指出,很多工作都将被机器人 或自动化系统取代,就业将会成为未来人类社会的一大问题。未来会发生什么无法预测,但用机器代替人类不仅仅是技术层面的问题,商业需求、社会态度和特定市场的人类行为等都是需要考虑的因素。哲学教授Rob Sparrow:立法保护特定行业并不能解决自动化技术进步导致人类失业这一问题,我们该做的是两件事情:第一,即使在一个高度自动化的世界里,仍然应该保证人们拥有良好的生活和开展有意义工作的机会。乌托邦思想曾认为:未来有机器人工作,人类则不必辛劳。如 果认为机器人取代人类工作是坏事,那其实是我们认为普通人有收入、能进行让生活更有意义的活动实际取决于雇佣他们的有钱人。事实上,我们应该考虑重新分配 机器产生的财富,在减少人类工作的同时保证人们从事自己喜欢的事情并能从中获得价值。第二,应该保护社会中的弱势群体,防止他们受到糟糕的待遇。从我母亲的机器人护理经历来看,将机器人引入本就不尽人意的老年人护理行业,很有可能是雪上加 霜。犯人和儿童等群体也是容易被强制引入机器人看护的对象。人工智能教授Toby Walsh:社会将发生一些重大变化。美国如今从业人数最多的工作是卡车司机。但30年内,大多数卡车将变成自动驾驶。如何应对这种变化是整个社会的问题。历史证明,单纯的保护主义作用并不大。每个国家都应参与进来寻求解决办法。此外,我们可以努力适应新世界,保证劳动力 的受教育水平,以此来适应技术创新产生的新工作岗位。我们要保证每个人都能受益于这场科技浪潮。也许人人都可以减少工作,共享自动化创造的经济利益呢?这可能需要通过从根本上改变社会税收和福利制度才能做到 。《计算机科学》读者Kevin Korb:行业保护和限制不是解决之道。我觉得技术发展应该以解决现实问题为目的,这必然会导致经济混乱,而善良的社会将包容落后于 此的人。但是,只要我们控制好寡头,就能通过改善技术解决这些问题。另外,如果我们能够培养人们对工作的灵活性,聪明的人类是可以应付自动化所带来的冲击的。 国防分析师Jai Galliot:人们通常认为被自动化取代的人应该去寻找更有意义的工作。但是,这个想法并不全面。想象一下空军飞行员吧。这些飞行员全身心投入,经过充分的训练,时刻准备着保卫他们的国家和人民。对于现役军人来说,在战场上保家卫国才是最有价值的工作 ,所以对于被替代的军人而言,找到其他有意义的替代工作并没有多大安慰。澳大利亚青年基金会(Foundation for Young Australians)表示,如今澳大利亚年轻人正在接受培训的工作中,有60%将会因为自动化而被迫转型。可悲的是,一 个机器人可以代替很多工人。创新和知识经济的时代,发达经济的未来取决于年轻人能否适应由自动化所带来的全球化或共享化的工作。3. 未来5到10年人工智能去向何处?人工智能教授Toby Walsh:人工智能将成为连接所有设备的操作系统,Siri和Cortana这样的应用程序将变成我们与互联世界互动的通道。人工智能将实现我们与智能手机、汽车、冰箱、中央供暖系统和房门的交互。我们将生活在一个永远在线的世界。机器人学教授Jonathan Roberts:未来5到10年,机器学习系统很可能以机器人的形式和我们互动。下一个需要克服的巨大技术挑战是如何赋予机器人视觉。在过去的四五十年里,这项挑战一直是众多机器人研究人员的课题。领域内越来越多的人相信使用大数据的机器学习最终可以部分解决赋予机器人视觉的问题。最近,昆士兰科技大学、阿德莱德大学、澳大利亚国立大学和莫纳什大学在澳大利亚研究委员会资助的机器人卓越视觉中心(Centre of Excellence in Robotic Vision)组队,努力解决诸多妨碍机器人视觉的难题。4. 我们是否应该担心军用和其他武装机器人?哲学教授Rob Sparrow:人类最不需要的就是让很多优秀的工程师和机器人专家研发杀人机器。机器人武器将极易引发冲突,政府会认为开战不会造成任何伤亡,因而将更轻易发起战争。偶发战争的风险将提高,因为军方会在高危环境中部署无人设备,例如潜 在敌方的领空位置或深海港口。这些情况下,机器人可能在人类否决它之前就开战,使用自动化机器人可能会进一步威胁对人类生命。基于以上原因,我和国外同事们共同建立了国际机器人武装控制委员会(International Committee for Robot Arms Control),支持停止机器人杀手运动 (Campaign to Stop Killer Robots)。人工智能教授Toby Walsh:&杀手机器人&是继火药和原子弹之后的下一场革命。如果现在行动起来,也许我们能通过禁令阻止杀人机器人研发的军 备竞赛。一项禁令不足以使技术停滞。采用自动化技术的自动汽车,每年将在澳大利亚减少1000多起道路交通事故。但是一项禁令足以败坏技术的名声,从而阻止军火公司兜 售或进一步研发杀人机器。这种方法对很多武器都发生过作用,例如激光致盲武器。如果不颁布禁令,恐怖分子和流氓国家将使用杀人机器人对付我们。对于那些声称现存法律已经涵盖杀人机器人的观点,我不敢苟同。因为我们还不能正确设计它们以避免额外损伤。即便未来我们有能力设计,也无法阻止黑客入侵机 器人使其做出不道德的事情。就算是合法使用,它们也会成为恐怖的武器。机器人伦理学者Sean Welsh:我们应该注意军用机器人。但是我们不应该觉得没有现行法律管理武器化机器人。没有法律详细规定不能用钢琴丝行凶,法律通常只规定严禁谋杀,但我们不能为了停止谋杀而禁用钢琴丝。同样,现存法律已经禁止在和平时期使用任何武器进行谋 杀,在战争时期使用任何武器造成非法死亡。担心自主武器被非法利用不能成为禁止自主武器的理由,就好比担心自动汽车被非法利用(做汽车炸弹)就禁止自动汽 车一样。不加区别的滥用任何武器导致不必要的灾难已经违反了国际人道主义法律。有人提倡把自主武器与生化武器归为一类。但是,禁止生化武器的主要原因是它们对敌友无差别攻击并会导致不必要的灾难(缓慢痛苦的死亡)。它们毫无人道主义 特征。相比之下,没有任何证据证明“杀手机器人”会进行无差别攻击或带来痛苦的死亡。与人类操作的武器相比,机器人武器的精密度和准确度是它得 到支持的关键。如果设计正确,机器人武器将降低额外伤亡的可能性。而且机器人武器的目标可以被设定位抓捕而不是杀死敌人。自动武器确实有潜在的人道主义特征。5. 超级人工智能有多大可能实现?机器学习和人工智能副教授David Dowe:我们一度认为机器人无法做到的事情现如今已经一一实现:打败人类象棋冠军(1997年),赢得《危险边缘》(Jeopardy!)益智问 答游戏节目,目前基本成为矿区标准的无人驾驶车,自动翻译等等。目前,智力测试问答仍是测定智力的方法,我最近也在关注计算机在这些测试方面的表现。哲学教授Rob Sparrow:如果人工智能可以出现,那么超级人工智能也可以出现。没有理由相信除人类以外的实体不能获得智力,也没有证据说明最高的人 类智商就是智力的上限。如果人类能在不久的将来创造出这样的机器,我们应该感到害怕。想想人类是如何对待老鼠的吧,那些比我们聪明无数倍的机器为什么要对我们好呢?6. 如果我们对自己的思想都所知甚少,我们能有意识地制造出人工意识吗?《计算机科学》读者Kevin Korb:作为功能主义信仰者,我相信我们有可能制造出人工意识。这不意味着我们期望制造人工意识,只是说我们有可能。John Searle(哲学家,语言学家,提出中文房间思想实验)对人工意识可能性的反驳似乎混淆了功能实现性和计算实现性。也就是说,计算出意识也许在逻辑上是不 可能的,但这不意味着嵌入式功能计算机不会有意识。哲学教授Rob Sparrow:很多工程师、计算机科学家和科幻小说作家认为我们很快就能创造出人工意识。他们估算人类大脑的神经元数量,并指出我们很快 就能造出有同样数量逻辑门的计算机。如果你咨询那些真正能“修补”思想的心理学家或心理医生,我觉得你会得到截然不同的答案。治疗重度抑郁症的最先进方法依然包括电击大脑,这就好 比修理抛锚的汽车时把汽油浇在发动机上。我们对思想的了解还不够,所以不能创造人工意识。7. 半机械人与人工智在概念或技术上有什么区别?信息系统学副教授Katina Michael:半机械人(Cyborg)是人类和机器相结合。从定义上看,半机械人指增加技术部件或利用技术提高能力的人。随着技术能力的进步 ,我们发现可以把技术应用于人体,制造假肢和/或用于强化。所以,如果我们选择那种设计,技术将不再是我们的延伸,而是我们身体的一部分。相比较下,人工智能是通过经验学习模拟人类决策智力的计算机系统。半机械人始于人类并可能经历转变过程,而人工智能则主要以软件的形式根植于计算机系统。有些研究人员认为,半机械人也可以始于人形机器人并包含活体组织和其他器官。不管是给人安装机器还是给机器安装器官,只要人工智能通过硅微型芯片或纳米技 术植入假肢或人造器官,这个人或机器就是半机械人。对这种控制论已有早期实验。1998年,Kevin Warwick教授把他的第一个实验命名为Cyborg 1.0,他通过手术在前臂植入了硅芯片响应器。在2002年的Cyborg 2.0项目 中,Warwick通过手术在左臂正中神经纤维里植入了100个电极阵列。最终我们需要十分小心,防止植入身体的人工智能吞没并控制人类意识。控制论已经进入了我们的生活8. 你对人工智能的未来和它给人类带来的利益持乐观态度还是悲观态度?人工智能教授Toby Walsh:我既乐观又悲观。人工智能确实是人类的革命性成果,它会改变我们的经济、社会以及我们在世界上的中心地位。如果运用得当, 世界将变得更加美好,所有人都会变得更加健康、富有、快乐。当然,和其他任何技术一样,我们也可能因为选择错误而走入歧途。不幸的是,人类确实做出过错误 选择。我们知道全球变暖正在发生,但我们似乎没办法不走这条路。我们知道恐怖主义正在破坏世界,但我们也好像无法阻止。人工智能讲给我们的社会带来深刻根本的挑 战,例如完全改变工作的本质。科幻小说将变成科学现实。哲学教授Rob Sparrow:我对人工智能对人类的长期影响持悲观态度。我不想否认人工智能会带来很多好处,尤其在支持人类做出更好的决定和追求现在难以实现的科学目标等方面。通过尝试制造实现大脑功能的机器来研究大脑本身就 是件有趣而且有意义的工作。但是,人工智能学者造出的系统可能主要用于让富者更富、强者更强,这样的危险是存在的。而且我认为人工智能的前景可能会让人类自欺欺人,相信自己无须为现在的气候变化做任何努力。人们的注意力可能会从知道该怎么做、但缺少政治意愿的事实上分 散开来。最后,虽然我们现在还不太清楚人工智能如何实现,但如果工程师成功制造出比人类聪明的超级人工智能,我们就可能有种族灭绝的危险。机器人学教授Jonathan Roberts:我对人工智能对人类的长期影响持乐观态度。我认为人工智能有潜力从根本上改变人类,所以,如果你不喜欢改变,那么你也不会 喜欢未来。我认为人工智能会彻底改变医疗保健,尤其是诊断,并且使个人药物定制成为可能。人工智能全科医生和机器人医生可共享所得,从而创造可访问全世界医疗数据的 超级医生。我持乐观态度的另一个原因是,人类通常能够发现技术产生的重大负面影响并最终解决问题。事情在人类的掌控中,人类将自然而然地尝试并利用技术来创造更好的世界。《计算机科学》读者Kevin Korb:我对人类的中期未来感到悲观。我认为气候变化和随之而来的混乱和战争可能给科技带来巨大破坏,彼时人工智能的发展可能停滞 。如果那些情况没有发生,那么技术会持续发展,而且在长期内实现人工智能。在此过程中,人工智能将衍生出对经济和社会的益处,所以我认为只要人工智能技术存 在,它的重要性就存在。人工智能立法研究员Gary Lea:我认为人工智能的长期未来会喜忧参半。如果科学家和工程师在研究、设计和制造选择中仔细考虑安全和公众福利,而且有合理的 管理框架作为支撑,这样应该没有问题。因此,总的来说,我对这个问题持谨慎乐观态度,但对人类而言,人工智能还有很多其他长期存在的危险。相关文献:1.Predators or Plowshares? Arms Control of Robotic Weapons. | Sparrow, R. 2009. | IEEE Technology and Society 28(1): 25-29, Spring.2.Computer models solving intelligence test problems: Progress and implications | José Hernández-Oralloa, Fernando Martínez-Plumeda,Ute Schmidb, Michael Siebersb, David L. Dowec | doi:10.1016/j.artint.(科学之家:译审/编辑:Rui)
用户在百度知道日报上发表的全部内容,严禁第三方转载。任何第三方使用相关内容,必须联系百度知道日报,获得书面授权,并按照规定的方式使用该内容。
文章出处:百度知道日报()
原始链接:
为您推荐:
热门作者推荐
普及安全合理用药知识,传播科学医药信息。
北京市政府投资建设,北京市科学技术协会承建的大型公益性科普门户网站。
十八般兵器,样样精通
文史作家。
高中历史教师
寻装网大型互联网装修平台.服务面向全国500多个城市.已成为广大业户首选品牌.
合作及供稿请联系:}

我要回帖

更多关于 男主角不走剧情 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信