人工智能与人类的未来会给人类未来带来灾难吗

对人工智能的十大误解:人类将被超级AI毁灭?_网易科技
对人工智能的十大误解:人类将被超级AI毁灭?
用微信扫码二维码
分享至好友和朋友圈
本文来源:蝌蚪五线谱(微信ID:kedo2011)
误解一:“我们永远不可能发明出和人类智力相当的AI。”
在一些特定领域,比如说国际象棋、围棋、股市交易以及人机对话等,我们已经发明出与人脑匹敌或超越人脑的计算机。电脑和驱动他们的运算法则只会变得更好,电脑精通几乎任何人类能力只是时间问题。
纽约大学心理学家盖瑞•马库斯(Gary Marcus)曾说过,几乎所有研究AI的人都认为机器最终将取代人类。“狂热分子和怀疑论者之间唯一的不同是对时间早晚的判断。”未来主义者,像雷•库兹韦尔,认为机器统治人类会在几十年后发生,而其他人则说可能得几个世纪。
最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。
AI怀疑论者认为生物脑在本质上是有独特之处的,这是无法解决的科技难题,其实这些是没有说服力的。我们的大脑是生物学意义的机器,但也不过是机器。他们存在于现实世界里,就要遵循基本的物理法则。人脑没有东西是不可知的。
误解二:“人工智能将会有意识。”
AMC电视连续剧 Human 中,并不是全部人工智能都获得了意识
关于机器智能的一个普遍假设是:将来机器智能会有意识。也就是说,机器会像人一样思考。评论家们,如微软创始人之一的保罗•艾伦,则更进一步认为我们还未达到人工通用智能,即机器能够像人类一样执行任何需要智力的任务,因为我们缺乏关于意识的科学理论。正如伦敦帝国理工学院认知机器人研究者穆雷•沙纳罕(Murray Shanahan)所指出的那样,我们应该避免混淆认知和意识这两种概念。
“探究意识确实是一门迷人且重要的课题,但是我认为意识对于人类水平的人工智能来说是并不是必要的。或者更精确地说,我们用‘意识’这个词来指代心理的和认知的属性,这些在人类身上是捆绑在一起的。”
最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。
不能仅仅因为一台机器通过了图灵测试,就认为它有意识。先进的AI留给我们的印象是它们是有意识的,但是再先进的AI对于自己的认识也不会比一块石头或一个计算器多。
误解三:“超级人工智能会很友好。”
哲学家康德认为智能与道德密不可分。神经学家David Chalmers在他的论文《非凡的哲学分析》中吸取了康德的著名观点,并将其运用于人工智能的提升中。
如果这个观点是正确的话,我们可以想到AI因智力爆发性增长致使道德感急剧升高的状况。可以想到,ASI系统变得超级智能的同时会具有无上的道德感,因此我们可以认为它们是善良的。
但是,这个“先进的AI从本质上将是好的、开明的”的观点是站不住脚的。正如Armstrong指出,存在很多聪明的战犯。智力和道德感间的关系在人类中貌似并不存在,所以他怀疑该假设在其他智能形式中,恐怕也是难以成立的。
“聪明的人的不道德行为可以比他们的笨蛋同胞造成更大规模的破坏,”他说。“智力只是给了他们变得更坏的能力,它并没有把他们变成好人。”
误解四:“简单的程序修补就能解决AI的控制难题。”
假设创造出比人类更伟大的AI,我们将面临一个严重的问题,那就是:控制问题。如何在家里安置以及控制ASI?如何确保ASI对人类是友好的?在这些问题上,未来主义者和AI理论家们完全不知所措。最近,佐治亚理工学院的研究人员天真地认为AI可以通过阅读简单的故事来学习人类的价值观和社会习俗。这可能远不是读几个小故事能解决的。
“人们推荐了很多可能解决整个AI控制问题的简单技巧,”阿姆斯特朗说。示例包括为ASI编写取悦人类的程序,或者仅仅使ASI作为人类的工具使用。再或者,我们可以将积极的概念,比如爱或尊敬整合进他的源代码。为了防止ASI对社会只有单一偏激的看法,我们可以给它编写欣赏智力、文化和社会多样性的程序。
但是这些方法要么太过简单,这就好比试图给复杂的人类喜恶确定一个简单肤浅的定义,要么就是把复杂的人类价值观生硬地压缩成一个简单的字词或想法。比如,对“尊敬”这个词,要确定内涵一致又普遍接受的定义是极度困难的。
“并不是说这些简单的技巧是没用的。这些对策里面有很多给研究指明了道路,对解决这个终极难题有所帮助。但是这些只是想法,具体的操作还需要我们做更多的开发研究工作。”阿姆斯特朗说。
正如《机械姬》里所描述的一样,要控制比人类还聪明的人工智能将会十分困难
误解五:“人工超智能很聪明,不会犯错。”
电影《少年透明人》(1957)中的超级计算机
AI研究者兼Surfing Samurai机器人开发者Richard Loosemore认为大多数假设的AI毁灭世界的情景都不符合逻辑。人们总假想在这种情景下,AI可能会说:“我知道毁灭人类文明只是我的设计故障,但我不得不这么做。”Loosemore指出如果AI像这样打算毁灭人类时,那它一生会很多这样的逻辑矛盾,也会因此摧毁自己的知识库,导致自己变得愚蠢,而不足以对我们造成伤害。他还断言,那些认为“AI只会按照指定程序做事”的人,与当初用这样的话评价电脑不具备灵活性的人一样,犯了同样的错误。
就职于牛津大学人类未来研究所(Future of Humanity Institute)的皮特•麦金泰尔(Peter McIntyre)和斯图尔特•阿姆斯特朗(Stuart Armstrong)都对此有不同看法。他们认为人工智能将很大程度上受到编程的限制。他们相信AI也会犯错误,或者他们还没有聪明到了解人类想从他们那里得到什么。
“从定义上讲,超级人工智能(ASI)是一个拥有智力的载体,它在各个相关领域都要比最优秀的人类大脑更聪明。”麦金泰尔如是告诉Gizmodo。 “它将十分清楚我们用他们来做什么。”麦金泰尔和阿姆斯特朗相信AI只会做程序编写的任务,如果它能变得足够聪明的话,它将能理解依照程序完成任务与领略规则精髓的不同,也将能理解人类的意图。
麦金泰尔把人类未来的困境比作老鼠的困境。老鼠想要在人类居所寻求食物和栖息地,人类不愿居室内有老鼠,两者冲突。麦金泰尔说,“正如我们明白老鼠的目的,超级智能系统也能知道人类想要的,但仍对此漠不关心。”
误解六:“我们将被超级人工智能毁灭。”
没有任何证据表明我们会被AI毁灭或无法控制它们。正如AI研究者Eliezer Yudkowsky所说:“AI既不会恨,也不会爱,但人类由原子构成的,除了智能以外,人类还有感情。”
牛津大学的哲学学者Nick Bostrom在他的书《超级智能:路径、危险与策略》中提到,真正的超级人工智能一旦完成,将比以往人类的任何发明都危险。一些著名的学者如Elon Musk, Bill Gates, and Stephen Hawking(后者曾警告AI也许是人类史上最糟糕的错误)也提出了警告。
但没有什么事是可以确定的,没人知道AI将采取什么行动以及如何威胁到人类。正如Musk指出的,人工智能可以用来控制、调节和监视其它人工智能。也许可以它灌输人类的价值观,使之毫无保留地对人类保持友好。
误解七:“我们不应该害怕AI。”
一月份,脸书创办者马克扎克伯格说我们不应该害怕AI,AI会为世界带来难以估量的好处。扎克伯格只说对了一半。我们随时准备从AI身上收获巨大的利益——从自动驾驶汽车到新药物的研制,但是没有人能保证AI的所有影响都是良性的。
高度智能化的系统也许了解某一特定任务的一切,例如解决令人厌烦的财务问题,或者黑进对手的系统。但是在这些特殊领域之外,高度智能系统会变得极其无知无觉。谷歌的DeepMind系统精通围棋,但除围棋以后,它在其他方面没有探索的理性和能力。
在中东国家使用Flame病毒进行网络间谍活动
误解八:“AI和机器人造成的风险是相同的。”
这是一个特别常见的错误认识,不加鉴别发布消息的媒体和好莱坞电影比如《终结者》系列使这一错误更加深入人心。
如果一个超级人工智能比如天网想要毁灭人类,它不会使用端着机枪的机器人。其实还有更高效的办法,如散播瘟疫,引发纳米级灰雾(grey goo,具备自我复制能力的微小机器人)灾难,甚至仅仅破坏大气层。人工智能有潜在的危险,不是因为它所昭示的机器人的未来,而是它在世界上的自我定位。
误解九:“未来的AI和科幻小说里的AI是相同的。”
的确,科幻作品被作家和未来主义者们用来预测美好的将来,但ASI所带来的图景完全不是一回事。更重要的是,与人类本性不同的AI不会让我们知道并预测它们确切的本性和形式。
科幻作品考虑到我们人类是弱小的,大多数AI被设定地与人类很类似。“有一些观点认为,即使是在人类中,也存在着多种类型的心智模式,你和你的邻居也是不同的,但人与人之间的心智区别要同其他可能存在的心智形式相比是微不足道的,”McIntyre说道。
大多数科幻小说旨在讲一个引人入胜的故事,但不够科学准确。因此,科幻小说中的冲突往往是存在于实力接近的实体之间。Armstrong说,“没有意识、喜乐或仇恨的AI毫无阻力地消灭所有的人类、达到一个本身无趣目标,可以想见这样的电影情节会有多无聊。”
误解十:“AI将会抢走我们所有的工作。”
人工智能把我们大部分的工作自动化和它能毁灭人类的潜在性,这是两件完全不相关的事情。根据《机器人的崛起》的作者Martin Ford所说,这两件事常常被混为一谈。思考在遥远的将来AI的意义是很好的,但只有这不影响到我们思考未来的几十年遇到的问题时,这样做才有意义。其中最主要的是大规模的自动化。
毫无疑问,人工智能将取代很多现存的职业,包括从车间工人到高级白领。一些专家预测在不久的将来美国的一半工作将被自动化所取代。但这不意味着我们没有能力应付局面。最理想的情况是为我们人类实现人人称赞的目标,达到接近乌托邦的境界,无论是脑力劳动者还是体力劳动者,人人都从劳役中解放了出来。
机器人将在未来的几十年取代数以百万计的岗位。我们必须强调:“在未来的几十年里AI将抹杀许多工作,但这是件好事,”Miller说。例如,自动驾驶汽车将取代卡车司机,这样可以节约运输成本,使货物的价格更便宜。“如果你靠做卡车司机谋生,你失业了,但其他人都赚了,因为他们的工资买到了更多的东西,”Miller说。“这些人所省下的钱用于其它的商品和服务,这可以为人类创造新的就业机会。”
在所有的可能性中,人工智能将创造出创造财富的新方法,同时解放出人类去做其他的事情。人工智能的进步将引领其它领域的进步,特别是制造业的进步。在未来,它将更容易满足我们的基本需求,而不是相反。
(翻译:Bonnie & 死水)
本文来源:网易科技报道
责任编辑:王超_NT4133
用微信扫码二维码
分享至好友和朋友圈
加载更多新闻
热门产品:   
:        
:         
热门影院:
阅读下一篇
用微信扫描二维码
分享至好友和朋友圈新浪广告共享计划>
广告共享计划
人工智能会是人类的灾难吗?
2015年9月,霍金签发了一封公开信,警告称,人工智能不一定是好事或导致人类灭亡。
凯文·凯利:人工智能时代的到来最大的益处在于,各种人工智能将帮助我们定义人性。
扎克伯格:我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。
3月9日注定会被写入人类史册——是的你应该已经在无数刷屏的文章开头读到过这句话。这一天,全人类通过网络直播共同围观谷歌人工智能阿尔法(AlphaGo)与韩国棋手&的超级对弈见证了人类首局失守,笃信人类未来同样会遭人工智能搏杀的声音越来越多
9日下午谷歌人工智能与韩国棋手李世石的第一场比赛结束,AlphaGo获得当日比赛的胜利。双方在较量3个半小时后,李世石宣布认输。李世石输了。这个结果震惊世界,借用著名科幻小说《三体》中的情节来形容,这是又一个人类智慧守护者面临被“破壁”的危险。
是的,李世石输了,但又怎样?人工智能赢了棋,人类却赢得了未来。
抛开深度学习、博弈树、神经网络等令门外汉眩晕的词汇,在人类与机器的较量转战围棋领域之初,我们就应该想见,即使是天才棋手也会敌不过人工智能。但这并不可怕,没有人类上千年来在棋谱上沉淀的智慧,何来AlphaGo今天的胜利?真正可怕的并非人工智能的成长上限,而是人类对人工智能深深的误解,以及惶恐。
从这一点上而言,人类输了首局反倒是好事。它让我们重新审视人性、竞技美学,以及人类智慧。人工智能对人类生活的种种颠覆,帮助我们直抵生活的核心。AlphaGo并非依靠自然进化而来,即便其会筑势、会手筋、会试应手、会逆转棋局,本质上映射的还是人类智慧的结晶。那么,更合适的建议或许是:“不用那么担心”。
人工智能时代到来,我们是谁?
“人工智能的应用无处不在,它带来的影响力是巨大的。因为这意味着一切物体均可拟人化,意味着我们可以加速新事物发展,云端人工智能技术意味着,两双智能鞋的数据可以彼此分享,这就是综合人工智能的表现。这的确大大加快了发明新事物的进程。”很显然,《连线》杂志创始主编、《失控》作者凯文·凯利不仅丝毫不担心人工智能会对人类产生威胁,反而沉浸于智能技术所蕴含的无穷想象之中、并为此兴奋不已。
在其新作《必然》中,他将这种兴奋感展现得淋漓尽致:“人工智能时代的到来最大的益处在于,各种人工智能将帮助我们定义人性。我们需要人工智能告诉我们——我们是谁?”
霍金抵制人工智能,毫无根据?
霍金号召大家警惕人工智能可能带来的威胁、伊隆·马斯克因担心未来机器将取代人类而抑郁,但在扎克伯格看来,这些担忧毫无依据。
在被问及如何看待机器可能在很多方面比大脑更聪明,比如IBM深蓝战胜棋王卡斯帕罗夫等问题时,扎克伯格曾作出如下回应:“人类制造机器就是为了让机器在某些方面强于人类,但是机器在某些方面超越人类不意味着机器有能力学习其他方面的能力,或者将不同的信息联系起来而做超越人类的事情,而这一点非常重要”。
机器学会了学习,人为何忧心?
当被问道“难道科幻小说里那种(机器超越人类)的事情真的就不可能发生么?我们难道一点都不需要担心人工智能的安全性么?”时,扎克伯格解释道:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管怎么样,我们要先造出飞机,再担心飞机的安全性。我们过度担忧人工智能,将阻碍人工智能实际的进步。我们要认识到无人驾驶汽车可能可以帮助我们减少车祸的发生,而且人工智能系统甚至能够帮我们诊断疾病,所以因为担心安全性而阻碍人工智能的进步可能是最糟糕的选择。”是啊,世界正在发生一桩重要的事情,智能化正渗透进各个领域,可是为什么要因其足够富有想象空间,而忧心忡忡?
怕工作被抢走?200年前就有
这个值得期待的循环是如何运转的呢?智能化的水平越高、应用范围越广,就有越多人想要使用它,这又将继续促进人工智能朝向愈加“智能”的方向发展,进一步拓宽应用范围。担心工作岗位被这些聪明又不知疲倦的伙伴抢走吗?但我们为什么要选择性遗忘人类工业化过程中,被自动化技术接替的那些乏味的、机械性高度重复的工作,以及工业文明在全新领域为人类开拓的那亿万份工作呢?就像19世纪的农民无法想象今天我们大多数人从事的工作一样,人类应该尽情畅想正如潮水般袭来的新职业,而非关起门对未来出路感到惴惴不安。
“在机器人和计算机智能的协助下,我们得以完成150年前完全无法想象的事情,这是机器人介入人类生活后最令人赞叹的一点。”凯文·凯利说道。
深蓝早击败过人类然后呢?
当1997年深蓝多次击败顶级象棋棋手之后,人们也曾感到如临大敌。但结果呢?
“但更让人意外的是人工智能的出现并未削弱纯人类国际象棋选手的水平。恰恰相反,在廉价且超级智能的国际象棋软件的激励下,下国际象棋的人数、锦标赛的数量以及选手的水平都达到了历史之最。与深蓝首次战胜卡斯帕罗夫时相比,拥有国际象棋大师头衔的人数至少翻了一番。现今排名第一的人类国际象棋选手马格努斯·卡尔森就曾和人工智能一起训练,并且被认为是所有人类国际象棋选手中最接近电脑的一个。他还是有史以来评分最高的人类国际象棋大师。”凯文·凯利在《必然》中写道。
如何看待“人工智能威胁论”
樊麾:我们面对新生事物要放宽眼界,毕竟人类的想象力和创造力还是机器学不会的,人还是最牛的。
巴特·塞尔曼:开发人工智能有一定的风险,但人工智能研究界已经开始研究所谓的人工智能安全。这些将要开发出来的系统将对人类保持友好,并与人类合作,我对此相当有信心。
刘慈欣:在科幻小说中,人工智能一般是以与人类对立的状态出现的,这倒不是说科幻小说作者都悲观,而是为了构造足够的矛盾冲突,我想我也不例外。我认为那些关于人工智能发展的警告多少有些危言耸听,从现在的发展状况看,人工智能离威胁到人类生存还很遥远。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。人工智能真的会毁灭人类吗?
[摘要]人工智能到底是“好技术”还是“坏技术”,人类能掌控它吗?
腾讯科技 孙实 2月7日报道本来是一项为了维护世界和平的研究计划,突然转变成为一场灾难,人类面临着被智能机器人“奥创”毁灭的风险,钢铁侠、美国队长、绿巨人、雷神等一众超级英雄,再次联手拯救了地球……没错,这就是今年五月即将上映的《复仇者联盟2:奥创纪元》的故事情节。《复仇者联盟2》被定义为超级英雄科幻大片,故事情节离现实还有非常遥远的距离,但“人工智能毁灭人类”不得不触动我们的神经。1956年,“人工智能”这一学术术语首次被提出,“人工智能”也正式成为了一门新兴学科。但在随后的几十年里,”人工智能“给我们的印象更多地是在实验室以及电影里。但在2013年前后,以()、、为代表的科技巨头接连入局人工智能领域,再加上鸿海等厂商计划利用机器人工作,“人工智能“逐渐走进了我们的生活。面对科技界一股前所未有的”人工智能大潮“,马斯克、盖茨等科技大佬坐不住了。2014年8月,马斯克在Twitter发布一条状态:“Bostrom撰写的《超级智能》一书值得一读,我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。” 比尔•盖茨 也在最近的一次活动上表示,机器将取代人类从事各种工作,如果我们能够处理得好,它们应该能发挥积极作用。可是数十年后,人工智能将发展到足以令人担忧的程度。人工智能的隐患:或冲击现有社会体系2月初,致力于“降低人类面临的现存风险”的未来研究所(Future of Life Institute)的数百名顶尖科学家在一封公开信中签名,公开信呼吁科技界在推动人工智能发展的同时,彻底审视人工智能的发展将对人类社会产生怎样的影响。这封信的作者承认,人工智能在语音识别、图像分类、自动驾驶汽车、机器翻译和答疑系统等领域取得了显著成功,并认为这些研究有助于消灭疾病和贫困。但他们坚持认为,“人工智能系统必须做我们希望它做的事情”,科学界应确立 “有助于最大限度提高人工智能社会效益”的研究目标。公开信强调,未来的人工智能可能在计算机安全、经济、法律和哲学等领域影响社会,但就是这种无处不在的潜在性,可以引发多方面的危机。例如,科学家们认为,如果未来经济的某些部分变得自动化,工人以及工人工资会受到很大影响,人工智能专家们不得不要重视。人工智能应该正视下列问题:致命的自动化武器是否符合人道主义法? 当人工智能系统从监控摄像头、电话线路和电子邮件中收集数据时,如何避免侵犯隐私权?来自英国牛津大学的一群学者去年在一篇博客文章中写道:“当一台机器发生错误,其错误方式可能比人的失误更有戏剧性,可能会带来更多不可预知的结果。简单算法在很大程度上是可预测的,但在不寻常的情况下,它可能作出离奇的决定。”与这些比较现实的问题相比,知名科学家霍金想的更为长远。霍金在接受BBC采访时表示,如果技术具有与人类类似的能力,“它将脱离控制,并以加速度重新设计自己。更可怕的是,由于生物学意义上的限制,人类无法赶上技术的发展速度。“霍金对人类的未来表示担忧:“人类由于受到缓慢的进化的限制,无法与机器竞争,并会被取代。全人工智能的发展可能导致人类的终结。”从这些科学家的言论中,我们可以看到,科技界、科学界对人工智能的担忧主要来自两方面:一方面是人工智能对人类工作、生活方式的改变,可能影响到现有的法律体系、道德标准以及利益分配的模式等等,而人类做出改变的速度未必能跟的上人工智能的发展速度,这就会对社会现有的体制造成冲击,从而引发混乱;另一方面是,人工智能让人类越来越缺乏思考,而其自身则有可能越来越聪明,从而威胁到人类的生存。预言成真?“毁灭论“有些危言耸听对于马斯克、盖茨、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等,谷歌去年甚至还推出了自己的内部机器人实验室。施密特认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且希望人们能够意识到:机器人会成为我们的朋友。施密特说:“对于人工智能的担忧,都是正常的。但是回顾历史你会发现,这些绝对是错误的。我们只是希望能通过更多机械化的方式,能让我们穿上更好的衣服,而且历史的经验已经证明,过去的经济繁荣时期,大多数是因为采用新技术而引发的。”全球副总裁王阳也曾对腾讯科技表示,当科技取得突飞猛进的成果时,总是让人感到害怕,但真正重要的是掌握技术的人。“总是有邪恶的人用新技术来捣蛋”,技术的发展是势不可挡的,比如在好莱坞大片中,经常可以看到邪恶势力滥用高科技技术,但人类必须尽快掌握这些以抵抗非正义者的侵略。总之,对于新技术的发展,难免会存在争论,但的进步总归是为人类带来更美好的未来。“托尼•科恩是英国利兹大学自动推理教授。他说,完全的人工智能“还有很长的一段路要走,从现在发展的速度来看,我认为仍然需要几近上百年。”科恩认为,说尽管识别程序和语音识别取得了长足进步,在开放混乱的环境里,机器人表现很差,人工智能最终面临的最大障碍是“机器毕竟是机器“。从多数的人观点来看,“人工智能毁灭人类”的论断似乎有些夸张,现有的科学技术只能让机器从事一些较为基础的事情,例如生产线上的一些固定动作等等,甚至连无人驾驶汽车上的智能系统都并不完善,更谈不上人工智能具有思维、情感,能够对人类的生存造成威胁。但是有一点却不能忽视,随着科学技术的进步,自动化的人工智能会越来越多地出现在我们的工作、生活,机器代替人类工作很有可能在不远的将来成为现实。无人驾驶汽车算是最接近我们的一种人工智能,但除了技术因素外,它还面临很多挑战。例如,谷歌无人驾驶汽车出了车祸,造成了严重的后果,是车主、谷歌,还是驱动汽车的算法、感应器以及所有控制系统来负责交通事故?很遗憾,现有的法律系统未能跟上现代社会、企业或机器人发展的步伐,根本给不出明确的答案。我们还应该想到,当机器人让大批工人失业时,我们该怎么办?当机器人误操作引发事故,现有法律如何厘清责任?当黑客借助人工智能犯罪时,我们又该如何防范?这些都应该是我们现在需要正视的问题。
[责任编辑:vikwang]
您认为这篇文章与"新一网(08008.HK)"相关度高吗?
Copyright & 1998 - 2018 Tencent. All Rights Reserved
还能输入140字霍金:人工智能的进步可能引发灾难导致人类灭绝
  【环球网综合报道】据香港《文汇报》1月20日报道,著名物理学家霍金预测,随着科技的发展,人类正面临一系列可导致自身灭绝的风险,包括核战争、全球暖化及转基因病毒等。
  据报道,霍金认为人类最终能移居其他星球,因此即使发生灾难,也能生存下去。不过他警告,未来数百年人类仍无法建立自给自足的外层空间栖息地,在此期间必须小心防范科技带来的风险。
  霍金即将在英国广播公司节目就宇宙黑洞发表演讲,他18日回答听众提问时说:&在未来一段时期内,地球出现灾难的机会或许很低,但风险随时间不断增加,在未来1000年或1万年几乎肯定会出现。&
  霍金此前曾指出,随着人工智能日益先进,未来或会导致人类灭绝。但他18日乐观地表示,人类不会停止发展科技或令其倒退,而是能够及时认识到风险并设法控制。(实习编辑:马娜&审核:谭利娅)
版权作品,未经环球网Huanqiu.com书面授权,严禁转载,违者将被追究法律责任。
责编:任梅子
环球时报系产品
扫描关注环球网官方微信
扫描关注 这里是美国微信公众号
扫描关注更多环球微信公众号标签:,,,,,
版权声明:版权归控制工程网所有,转载请注明出处!
WAGO-万可专栏
在线研讨会
控制工程网 & CONTROL ENGINEERING China
全球工业控制、自动化和仪器仪表领域的先锋媒体
商务及广告合作
任小姐(北京)&&&&&&&&&&&&&&&&&夏小姐(上海)
电话:010-&&&&&&电话:
新闻投稿:王小姐
关注我们的微信}

我要回帖

更多关于 人工智能与人类的未来 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信