如何评价「谷歌无意放弃与美军maven项目合作:双方研究军事AI

又一五角大楼 AI 军事项目曝光!美军方正在利用人工智能预测核导弹发射
几个月前,有媒体爆出,科技巨头谷歌参与了美国军方的人工智能(AI)军事项目,鉴于应用 AI 的道德标准尚未形成国际共识,此行为招来了谷歌内部员工和外界舆论的非议。最终,谷歌迫于压力,不得不宣布在为期 18 个月的合约结束之后停止续约。然而,谷歌的退出似乎并不影响五角大楼的 AI 军事计划的进行。
有匿名的美国官员向媒体透露,美国军方十分看好 AI 技术在军事领域的应用,已经启动了多个 AI 军事项目。其中一项鲜为人知的项目是,利用 AI 寻找核导弹发射器的位置,以及预测核导弹的发射。系统的侦测范围覆盖朝鲜等国家和地区,目的是更好地保护美国免受潜在的核导弹袭击。
研发中的AI系统将最终实现自主思考,以远超人类的速度和准确度搜寻大量数据,例如卫星图像,之后根据这些数据寻找导弹准备发射的迹象。一旦有所发现,美国军方将收到早期预警,这增加了摧毁或拦截导弹的成功率,同时政府也可以更早地开展外交手段,从根本上避免导弹发射。
图:AI导弹追踪系统的简介(路透社)
目前这一项目还在起步阶段,不过导弹发射器追踪系统的早期原型已经投入试验。除了军方手中的数据,研发人员还与商业公司合作,以获得更多的数据和行为模式,其中包括看穿风暴和树林的雷达数据。
该项目只不过是 AI 军事计划的冰山一角。熟悉计划的消息人士透露称,谷歌参与的 Maven 项目是训练 AI 识别无人机录像中的物体。还有专门针对朝鲜的试点项目,因为美国军方怀疑导弹发射装置被隐藏在了隧道、森林和洞穴中。
AI军备竞赛
中国和俄罗斯都在大力研发 AI 技术,甚至是结合 AI 和军事力量,美国自然也不能落后。美国众议院武装部队委员会主席 Mac Thornberry 表示,“俄罗斯和中国肯定是在追求类似的东西,可能在某些方面比我们付出的努力更多。”
图:防空导弹(路透社)
从美国官方预算数据中不难发现,美国政府不仅增加了国防预算,同时也加大了对AI军事化应用的投资。特朗普政府为一项 AI 导弹项目投入了 8300 万美元,这是去年项目预算的三倍。
除此之外,预算文件还指出,五角大楼的导弹发射器追踪计划将扩展到“五角大楼4+1问题”中的剩余问题。术语“4+1问题”通常用来指代围绕中国,俄罗斯,伊朗和朝鲜(四个国家),以及恐怖主义的问题和解决方案。这也将进一步增加未来的军事预算。
AI 导弹项目的一部分预计在 2020 年之后实现。不过即便如此,一些美国官员表示,面对日趋复杂的国际环境,包括朝鲜的核武器威胁和俄罗斯强大的军事力量,AI 技术在军事项目上的整体投资仍然不足,研究仍然有限。
“我们不能犯错”
虽然AI技术正在迅速发展,但是它依然存在不少的缺陷和漏洞。美国国防部高级研究计划局(DARPA)主任 Steven Walker 表示,“智能化进程势不可挡,但我们不能犯错,因为这些系统可以被欺骗。”
MIT 的一项研究结果显示,AI物品识别系统可以被轻易地欺骗,比如系统会将塑料海龟识别成步枪。
图 | MIT的对抗性神经网络研究
这种荒谬的错误证明了现阶段 AI 技术和人类认知之间的差距,同时也提醒了研究人员,面对核武器识别系统,其他国家完全可以利用技术隐藏武器的身份和信息。更可怕的是,如果系统错误地将“海龟”识别为核武器,那么可能会就此引发一场外交争端,甚者是核战争。
不过五角大楼认为这种错误是可以避免的。“一旦AI系统全面投入使用,五角大楼需要建立保障措施,”美国空军将军 John Hyten 表示。“以确保核决策最终由人类控制和决定,而不是机器。”
这听起来就像其他所有由人类控制的武器一样,可是人类犯的错还少吗?
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点坚持不作恶,谷歌数十名员工集体辞职抗议AI军事合作
导读:我们期待科技能够发展得足够好,好到可以让整个世界都更加美好,但是就像谷歌的座右铭所说:不作恶,应该是底线。
差不多一个月之前,谷歌宣布与五角大楼合作,进行人工智能军事项目的研究,该项目将利用人工智能解读视频图像,据当时的报导称:谷歌的 AI 技术有可能被用于提高无人机打击的准确度。此事直接导致近 4000 名谷歌员工联名抗议,强烈反对将 AI 技术用于军事研究。遗憾的是,谷歌员工的抗议似乎并没有起到什么效果,一个月之后,谷歌高层仍然不放弃与五角大楼的合作,Maven 项目仍在继续。于是,十几名谷歌员工集体宣布辞职,以此来反抗谷歌的作为。前美国国防部官员保罗·斯查瑞表示,由于谷歌的企业文化历史和军队对于人工智能技术日益增长的需求之间的矛盾,谷歌公司内部的分歧是不可避免的。
以“不作恶”为信条的谷歌变了吗?
从历史上看,谷歌推广了一种鼓励员工挑战和讨论产品决策的开放文化。但是一些员工认为他们的领导不再关心他们的担忧,而让他们直接面对后果。“在过去的几个月里,我对这种回应,以及对人们所关心问题的处理和倾听方式越来越失望。”一位辞职的员工说。
三年前,也就是 2015 年,谷歌曾经也爆发过一次大规模的员工集体抗议事件,那时候,员工强烈反对在其博客平台中传播色情内容。当时的员工同样是以“不作恶”这句座右铭来向谷歌施压,那一次他们确实成功了,或许是因为在色情内容面前,谷歌实在是找不到什么站得住脚的解释来支撑自己做下去。一直以来谷歌都被认为是一家广告公司,但即便如此,有些广告也是做不得的——虽然利益可能真的很高。
三年后,“不作恶”的谷歌给自己找到了合适的理由,他们与五角大楼合作的名为 Maven 的项目,利用人工智能解读视频图像,按照美国军方的说法:这样做的目的是在进行军事打击的过程中避免误伤友军,不仅可以提升打击精准度,还可以减少自家军队的伤亡。
虽然不知道谷歌坚持与五角大楼合作的背后,到底谷歌自愿的,还是因为某些“不可抗力”,但是,对于谷歌的员工们而言,他们无法接受军方的解释。在相当一部分员工眼里,这次的谷歌就是在“作恶”,违背了原则,身为谷歌的一员,他们认为必须站出来,捍卫这家公司一直以来的信条。
一位辞职抗议的员工这样说:“这完全不应该是谷歌的作为,反倒是像一个满世界寻找合作的机器学习初创公司干的事。看来谷歌的原则与声誉都已经不重要了。”
军方将如何使用 AI 技术?
说到军用 AI 技术,想必很多人脑海里的第一个产品就是无人机了。
这部名为《杀人机器人》的短片,是由 Autonomousweapons.org 和加利福尼亚大学计算机科学教授 Stuart Russell 合作制作的,目的是为了警醒世人,未来随处可见的杀人机器人,可能将置人类于危险的境地,因为自动化武器可以在无人指导的情况下,定位并射杀人类。
影片描述了迷你无人机群刺杀政治活动家和美国律师的故事,只有巴掌大的无人机通过实时数据挖掘和人工智能,血腥猎杀目标。除了短片本身的惊悚以外,更让人不寒而栗的是影片中描写的科技都是现存可行的技术,如面部识别、自动定位、无人机等。
很凑巧的是,谷歌参与的 Maven 项目中,就会运用到这些技术。此外,谷歌还将提供用于机器学习应用的 TensorFlow API,以帮助军事分析人员检测图像中的物体。
除了无人机,各国在机器人领域的研究也让人倍感担忧,一旦战争机器人量产,发动战争将更加轻而易举,同时带来的破坏也将是呈指数增长的。
没错,对于这些研究,我们不能光看到不好的那一面,也要想想他们带来的益处,比如增加国防实力、减少人类士兵伤亡等等,但是,当这些技术手段落入恐怖分子的手中,还会有人这么想吗?战争已经足够残忍了,为何还要用科技让它变得更加恐怖。
给佩奇、Pichai、Diane Greene 和李飞飞的一封公开信
今天,国际机器人武器控制委员会(ICRAC)发布了一封公开信,短短数小时内,已有超过 300 名人工智能、伦理学和计算机科学领域的学者联名,公开呼吁谷歌结束其对 Maven 项目的支持,转而支持禁止自主武器系统的国际条约。这封信的两位作者彼得·阿萨罗(Peter Asaro)和露西·苏希曼(Lucy Suchman)曾在联合国就自动武器问题作证,第三位作者 Lilly Irani 是一位科学教授、前谷歌员工。
苏希曼表示,谷歌对 Maven 项目的贡献完全可能加速全自动武器的开发。虽然谷歌总部位于美国,但它有义务保护全球用户群,而不是与任何一个国家的军队结盟。谷歌的高管们正在为参与 Maven 项目辩护,包括 Google Cloud 业务主管黛安·格林 (Diane Greene),她曾多次力挺这个项目。
在这封支持谷歌员工的公开信中,他们是这样说的:
尽管 Maven 项目的报告目前强调了人类分析师的作用,但这些技术有望成为自动目标识别和自主武器系统的基础。随着军事指挥官们将目标识别算法视为可靠,它将会吸引人们对这些系统进行减弱甚至消除人为审查和监督。据国防部称,国防部已经计划在无人机上安装图像分析技术,包括武装无人机。然后,我们距离授权自动无人机自动杀人,而不需要人工监控或有意义的人员控制,只需要一小步。科技公司的道德行为需要考虑谁可能受益于技术而谁又可能受到伤害。
我们也非常担心 Google 可能将人们日常生活的数据与军事监控数据整合在一起,并将其与有针对性的杀戮结合起来应用。谷歌已经进入军事工作,无需在国内或国际上进行公开辩论或审议。虽然谷歌在没有民主公众参与的情况下经常决定技术的未来,但其加入军事技术会将信息基础设施的私人控制问题变得突出。
如果谷歌决定将全球互联网用户的个人数据用于军事目的,那么它将侵犯公众的信任,因为它将用户的生命和人权置于危险之中,这对其业务至关重要。像谷歌这样的跨国公司,其责任必须与他们的用户的跨国化相匹配。根据谷歌所考虑的国防部合同,以及已经在微软和亚马逊上签订的类似合同,都标志着私人科技行业之间的危险联盟,这个联盟目前拥有大量来自全球各地的敏感的个人数据,以及一个国家的军队。它们还表明,未能与全球公民社会和外交机构进行接触,这些机构已经强调了这些技术的道德风险。
我们正处于关键时刻。剑桥分析公司 (Cambridge Analytica) 的丑闻表明,公众越来越担心科技行业将拥有如此大的权力。这使得信息技术基础设施的风险越来越高,以及当前国家和国际治理框架的不足以维护公众的信任。这种情况比从事裁决生命和死亡的系统更为真实。
就像欧盟一直没有同意 Facebook 等公司在欧洲建立数据中心,没有人愿意自己国家公民的个人数据掌握在其他国家手中,更不要说被其他国家用来进行军事研究。科技公司掌握了全球用户的个人信息,其目的在于为用户们提供定制化服务。当这些信息被军方所拥有,难道目的也是给全球的用户们进行“定制化制裁”吗?
还有一些 AI 专家主要关注的是现有技术仍然不可靠,并且可能被黑客控制而作出非预期的战场决策。纽约大学 AI 研究员加里马库斯说:“我不会相信任何软件来做关键任务的决定。” 马库斯说,Maven 项目属于道德“灰色地带”,因为公众并不知道该软件将如何使用。“如果谷歌希望从事为军队做分类的事情,那么公众有权关心 Google 正在成为什么样的公司。”
有关 AI 武器问题的讨论已经不是第一次了,在任何时代,安全性都是最重要的。2015 年曾经曝出特斯拉被黑客操控,高速路上狂奔的消息,足见目前 AI 技术的漏洞还是很多的,至于所谓 AI 武器,正如上面那位专家所说,一旦被黑客入侵,后果将会不堪设想。我们期待科技能够发展得足够好,好到可以让整个世界都更加美好,但是就像谷歌的座右铭所说:不作恶,应该是底线。
参考链接:
https://www.theguardian.com/technology/2015/feb/27/google-backtracks-on-porn-ban-in-blogger
https://gizmodo.com/google-employees-resign-in-protest-against-pentagon-con-
https://www.bloomberg.com/news/articles//inside-google-a-debate-rages-should-it-sell-artificial-intelligence-to-the-military
https://www.icrac.net/open-letter-in-support-of-google-employees-and-tech-workers/(本文来源于AI前线,作者Vincent,IT大佬已获得作者授权、经IT大佬编辑发布,文中观点为作者观点、不代表IT大佬观点。)
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点谷歌无意放弃与美军合作:双方研究军事AI武器
稿源:快科技
之前曾有消息称,谷歌正在跟美国军方合作,秘密测试基于AI人工智能的技术,用于军事行动中,这遭遇到了自家员工的抗议。据CNET报道称,谷歌无意放弃与美军方的合作,在他们看来,双方开发的是利用机器学习技术识别无人机采集到的视频中的物体,该任务对于机器学习技术来说很简单,且只需很少的人员用于评估识别结果。当然这项技术还能运用到其他有攻击性的武器上.....对此,谷歌也强调,国防部正使用“对所有谷歌云用户都开放的开源的物体识别软件”,并且是基于未标记数据的。谷歌表示:“该技术用来标记视频中的物体以供后续相关人员参考,旨在将相关工作人员从视频分析等高度繁重的工作中解脱出来。”前美国国防部官员保罗·斯查瑞表示,由于谷歌的历史和军队对于人工智能技术日益增长的需求之间的矛盾,谷歌公司内部的分歧是不可避免的。
有好的文章希望站长之家帮助分享推广,猛戳这里
本网页浏览已超过3分钟,点击关闭或灰色背景,即可回到网页谷歌无意放弃与美军合作:双方研究军事AI武器
之前曾有消息称,谷歌正在跟美国军方合作,秘密测试基于AI人工智能的技术,用于军事行动中,这遭遇到了自家员工的抗议。据CNET报道称,谷歌无意放弃与美军方的合作,在他们看来,双方开发的是利用机器学习技术识别无人机采集到的视频中的物体,该任务对于机器学习技术来说很简单,且只需很少的人员用于评估识别结果。当然这项技术还能运用到其他有攻击性的武器上.....对此,谷歌也强调,国防部正使用“对所有谷歌云用户都开放的开源的物体识别软件”,并且是基于未标记数据的。谷歌表示:“该技术用来标记视频中的物体以供后续相关人员参考,旨在将相关工作人员从视频分析等高度繁重的工作中解脱出来。”前美国国防部官员保罗·斯查瑞表示,由于谷歌的历史和军队对于人工智能技术日益增长的需求之间的矛盾,谷歌公司内部的分歧是不可避免的。凤凰周刊logo
周刊客服咨询
【北京办事处】
【深圳办事处】
& / & 正文
美军、科技巨头联手AI军事化
智能化战争已势不可挡, 科技界挣扎在“不作恶”与商业利益之间
阅读次数:711&|&
收藏本文 
摘要:各国军方、科技巨头、高校院所等不会停止将人工智能应用于军事的脚步,从机械化战争到信息化战争,再到智能化战争,AI军事化注定势不可挡。
近日,谷歌终于宣布,与美国国防部的Maven项目合同在明年到期后不再续约。
谷歌CEO桑达尔·皮查伊为此发表了题为《AI at Google:ourprinciples》(谷歌AI的原则)的文章,阐述谷歌在研发和使用AI(人工智能)时将遵循的7大指导原则,并明确列出谷歌“不会追求的AI应用”类别,包括:可能造成危害的技术、武器或其他以人身伤害为主要目的的技术、违反国际公约收集或使用信息的技术,以及违反人权和国际法的技术等。
去年9月,谷歌获得了五角大楼的Maven项目合同,并选择对外秘而不宣。
直到今年初,有员工在谷歌内部交流平台将此事曝光。一时各界哗然,“丑闻”随即迅猛发酵。大批员工认为,谷歌参与五角大楼Maven项目,违背了谷歌成立之初立下的“不作恶”原则和理想。
谷歌高层试图挽留该项目。结果,四千余名谷歌员工签署请愿书,要求公司取消该项目合同,数十名员工辞职以示抗议。同时,全球学术界有三百多名人工智能专家也联名上书谷歌高管。
迫于压力,谷歌最终放弃了Maven项目。
不过,业界解读,各国军方、科技巨头、高校院所等不会停止将人工智能应用于军事的脚步,从机械化战争到信息化战争,再到智能化战争,AI军事化注定势不可挡。
2017年4月,美国五角大楼提出了Maven项目。美国军方在全球各地投放了大量无人机,这些无人机每日每时都传回海量的视频资料,军方分析师早已不堪重负。Maven的首要任务就是,利用人工智能技术,来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。
去年8月,美国国防部长马蒂斯到访硅谷,与谷歌高层会面。9月,谷歌拿到有史以来第一份与五角大楼的AI合同。
当时,谷歌高管李飞飞一度建议避开这份合约。李飞飞是全球人工智能领域最耀眼的科学家之一,同时担任斯坦福大学人工智能实验室主任和谷歌云人工智能首席科学家。
后来她在给《纽约时报》的一封电子邮件中回忆道,“武器化人工智能可能是人工智能最敏感的话题之一”。如果谷歌与军方合作,对媒体来说是“red meat”(报道标靶)。李飞飞说,“我相信以人为中心的AI能以积极、善意的方式造福人类。任何AI武器化的项目,都是违背我的原则的。”
不过,在与IBM、亚马逊和微软等激烈争夺数月后,谷歌在去年9月底还是获得了Maven项目的合同。
谷歌高层曾非常支持Maven项目,因为这可以让谷歌云赢得更多更大的五角大楼合同。据报道,谷歌正在竞标五角大楼价值上百亿美元的云计算——JEDI项目(联合企业国防基建项目)。IBM和微软等也将参与竞标。
但他们也对外界如何评判谷歌参与军事项目十分担忧。于是,谷歌与国防部的合同条款之一是,未经该公司许可,谷歌的参与不得被提及。
直到今年初,有员工在谷歌内部交流平台曝光此事,随后引爆了谷歌员工们的激烈反对。
硅谷所在的旧金山湾区有较强的自由派倾向,历来“不作恶”的谷歌又居旗手地位,这份协议在公司内部员工间非常不受欢迎。
按照美国军方的说法:Maven项目在军事打击过程中,不仅可以提升打击精准度,还可以避免误伤友军。面对质疑,美国军方强调,只会将人工智能作为人类收集情报的合作伙伴。
谷歌员工们显然无法接受军方的解释,因为谷歌参与军事项目本已违背原则,而且人工智能技术还不完善,一旦出错或失控,可能造成灾难性后果。
《杀人机器人》短片就描述了迷你无人机群刺杀政治活动家和律师的故事,只有巴掌大的无人机,可以在无人指导的情况下,通过实时数据分析和人工智能,定位并射杀人类。
更让人惊悚的是,影片中描写的科技都是现实可行的技术,如人脸识别、自动定位、无人机等。
谷歌参与的Maven项目,就会运用到这些技术。
“不作恶”原则还能守多久?
日,美国加利福尼亚,海军研究办公室的项目官员向海军陆战队成员介绍了基于“低成本无人机蜂群技术”的无人机,也就是被媒体认为是代号“郊狼”的无人机。
面对大批员工的反对,谷歌高层一度虚与委蛇,不愿放弃Maven项目。
今年4月,四千余名谷歌员工联名上书,要求CEO皮查伊立即取消参与Maven项目,并发布声明承诺谷歌不会开发用于战争的技术。
这份请愿书援引了谷歌避免涉足军事领域的历史,及其著名的“不作恶”口号。
“谷歌参与Maven项目将不可挽回地毁灭谷歌的品牌和它吸纳人才的能力。在越来越多的对于人工智能可能会武器化的恐惧中,谷歌在获取公众信任方面已经显得力不从心。这一协议将会使谷歌的声誉面临威胁,并将会使谷歌站在其核心价值观的对立面。”谷歌的员工在信中写到。
不过,这封信还是没能立即奏效。
谷歌云CEO黛安·格林曾向员工解释,Maven项目不是为了攻击目的,该合同“仅900万美元”,主要是为国防部提供了开源软件TensorFlow。
但科技媒体Gizmodo获得的内部电子邮件显示,最初的合同价值至少1500万美元,预计该项目的预算将增长到高达2.5亿美元。谷歌也并不只是提供开源的TensorFlow软件,而是打算建立一个类似“谷歌地球”的监测系统,让五角大楼的分析师能“点击建筑,查看与之相关的一切”,并为“整个城市”建立车辆、人员、土地特性等的图像。
到去年12月,谷歌就已经构建了一个系统,并且取得不错的成果,模型对专业标签错过的车辆检测的准确率能达到90%。
历史上,谷歌推崇一种鼓励员工挑战和讨论产品决策的开放文化。
但是一些员工认为,谷歌高层不再关心他们的担忧。“在过去几个月里,我对这种回应,以及对人们所关心问题的处理和倾听方式越来越失望。”一位辞职的员工说。
除了数十名员工辞职,学界也加入对谷歌的质疑中。5月,国际机器人武器控制委员会(ICRAC)向谷歌母公司Alphabet的CEO拉里·佩奇,谷歌CEO桑达尔·皮查伊,谷歌云CEO黛安·格林,谷歌云首席科学家、副总裁李飞飞发出一封公开信。
他们要求谷歌及其母公司Alphabet:终止与国防部的Maven项目合同;承诺不开发军事技术,也不允许其收集的个人数据用于军事行动;承诺不参与或支持发展、制造、贸易或使用自主武器;并支持禁止自主武器。
“根据谷歌、微软和亚马逊等的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。”信中称,“我们距离授权自动无人机自动杀人,而不需要人工控制,只需要一小步。科技公司的行为需要考虑谁可能受益于技术,而谁又可能受到伤害。”
谷歌及其母公司Alphabet雇佣了许多世界顶级的人工智能科学家,他们很多都来自学术界,因为认同谷歌的伟大理想和信条而加入其中。
比如,深度学习三巨头之一的Geoff Hinton一直公开表示他不愿为美国政府工作,1980年代后期,Hinton离开美国去加拿大的部分原因是他不愿从国防部获得资金。谷歌人工智能统帅Jeff Dean也参与签署了一封反对使用自主武器的联名信。
位于伦敦的DeepMind(开发了著名的阿尔法狗,谷歌于2014年收购)高层也表示,他们完全反对军事和监视项目,而且员工们已经表示了强烈抗议。DeepMind与谷歌的收购合同即表明,DeepMind的技术永远不允许被用于军事或监视用途。
谷歌高层明白,继续坚持Maven项目,将面对无法承受的内外舆论压力和AI人才的流失;如果放弃合同,谷歌也可能因此失去更多的五角大楼合同。
到6月,谷歌终于宣布,与美国军方签订的Maven合同在2019年到期后,将不再寻求续约。
随后,谷歌CEO皮查伊发布署名文章《谷歌AI的原则》。文中,皮查伊概述了谷歌应用AI的7个核心原则,并列出不会追求的AI应用。
皮查伊还表示,谷歌虽然不会开发用于武器的AI,但将继续在其他许多领域与政府和军方合作,包括:网络安全、培训、军人招募、退伍军人医疗、搜索和救援。
对于谷歌的退缩,美国国防部似乎无所谓。他们认为其他承包商仍然会竞相参与。美国国防部高级研究计划局(DARPA,美军最重要的高科技研发组织者)副局长Peter Highnam表示,DARPA的AI等技术项目“有数百家积极出价的院校和公司”。
AI军事变革
“谁能掌控AI,谁就能掌控世界……”去年9月,俄罗斯总统普京在对一群小学生就人工智能发表讲话时宣称。
美国五角大楼则将机器人武器视为自二战以来的第三次技术浪潮。第一次技术浪潮是1950年代战地核武器的发展,其目的是阻挡苏联对西欧的潜在入侵;第二次是始于1970年代的精确打击武器的发展,并应用于1991年的海湾战争中。目前,AI在军事领域的应用似乎正推动信息化战争向“算法战争”转变。
美国国防部副部长、前波音公司高管Patrick Shanahan(帕特里克·沙纳汗)日前表示,五角大楼准备在近期建成一个“卓越中心”,将多个现有的与AI应用相关的军事计划整合在一起。
据《华尔街日报》报道,美国国防部在2017年人工智能相关领域的花费为74亿美元。
应美国情报高级研究计划局(IARPA)要求,哈佛大学肯尼迪政治学院2017年7月发布《人工智能与国家安全》报告。
报告指出,AI的每一种技术都为美国国家安全机构的战略、组织、优先事项和资源分配带来重大变革,其未来影响力至少可与核武器比肩。
该报告提出的三点建议就包括支持AI技术用于和平目的:DARPA、IARPA、海军研究办公室和国家科学基金会应增加与AI相关的基础研究经费;国防部应发布关于AI军民两用能力的信息征询书;向美国In-Q-Tel公司(专门服务于中央情报局)提供更多资源,促进国家安全机构和AI商业公司的合作。
目前,美国军方已经启动众多AI军事项目,各类无人车、无人机、无人船等层出不穷,这些项目多涉及大学院所、军工企业以及科技公司。
2016年6月,美国辛辛那提大学通过一场模拟空战,测试了该校开发的名为“ALPHA”的飞行程序。模拟空战中,“ALPHA”驾驶F-15战机凌厉地碾压了驾驶F-22战机的基恩·李上校。李上校表示:“这是我见过的最具侵略性、敏捷性、变化性和可靠性的AI”。
X-47B是美国海军空中无人战斗平台的验证机,2011年首飞成功,2013年实现航母起降,2015年实现自主空中加油,成为人类历史上第一架由电脑独立操纵,具备监视、情报收集和战场打击多功能的无人飞行器。
在中小型无人机方面,2016年7月,美国海军利用雷神公司的“郊狼”无人机开展了海上无人机蜂群编队试验,验证了蜂群作战、巡飞、陆地回收等关键技术。
美国某研究团队进行数百次模拟的结果表明,8架无人机进行集群攻击时,有大约3架能够避开世界最先进的“宙斯盾”防御系统的拦截。可见,智能无人飞行器一旦具备了集群作战能力,将可能彻底改变战争中的攻防平衡。
唐吉诃德式的战斗
“有些国家会从国家层面为占领人工智能领域的制高点而展开竞争,这可能引发第三次世界大战。”硅谷创业家埃隆·马斯克在推特上充满忧虑地说。
去年8月,马斯克与来自26个国家的116名机器人和人工智能公司的创始人签署了一份公开信,在墨尔本召开的国际人工智能联合会议(IJCAI)上公布,他们呼呼禁止机器人武器,希望联合国将其纳入特定常规武器公约(CCW)的禁用名单。
围绕机器人武器,联合国正式专家会议已经于去年11月开始讨论进行管制的可能性。
1981年签署的联合国《特定常规武器公约》,对禁用武器做了两种特征规定:一是过度不人道,如激光致盲武器;二是具有滥杀滥伤作用,如战时大量布置地雷。
人工智能武器的危险在于滥杀滥伤的可能,操作不当或被恶意攻击,甚至会引发人道危机。
比如,2015年曾曝出特斯拉电动车被黑客操控,在高速路上狂奔。同年举行的著名的黑客集会“黑帽子大会”上,就有现场展示通过无线控制器,黑进了智能狙击步枪。麻省理工学院的一项研究显示,AI识别系统可以被轻易欺骗,如系统会将塑料海龟识别成步枪。这些都表明目前的AI技术还有很多漏洞。
试想假如三两个极端分子,就可以遥控数十台自动射击的枪械机器人、上百台无人驾驶车辆,并且能把任何角落作为基地,最终可能酿成完全失控的灾难性大规模杀伤。
反对AI军事化的业内专家们,所能做的似乎只有不断联合署名。比如,近日约60位各国AI专家联合向韩国科学技术学院去信抗议,该大学如果不承诺停止研发,将与之断绝关系。声明中称,机器人武器“可能使战争恶化并为恐怖分子所利用,一旦开发出来将无法挽回”。最终,该学院院长发表声明,做出了承诺。
或许,部分谷歌员工和AI专家们对人工智能武器的反对,更像是唐吉诃德式的战斗。正如马斯克等人联名签署的公开信所言:“如果有任何一个主要军事力量推动人工智能武器发展,全球军备竞赛将无法避免。”
在AI军事化的道路上,各大国都注定处在博弈困境中,由于每个国家都担心他国开发AI武器,战略层面注定的不信任和不安全感,促使各大国都疯狂地竞争性开发AI武器。
AI军事化势不可挡。全球科技界注定要继续在“不作恶”与商业利益间做出选择。
香港凤凰周刊}

我要回帖

更多关于 谷歌美军目标识别 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信