原标题:川普AI守国论遭遇阻力:警惕技术沦为偏见工具
AI到底是技术理性还是偏见工具
上月底,美国纽约再度发生恐袭事件后总统特朗普下令国土安全部加强已执行的極端审查(extreme vetting)程序。此举日前遭到54位从事机器学习、数据挖掘以及其他自动化决策技术研究的科学家联名反对
其实早在去年特朗普竞选期间,就曾一度宣称将会对移民进行大量的意识形态审查也就是他所称的“极端审查”。 今年1月特朗普签署了极端审查的行政命令。の后美国国土安全部下属机构移民和海关执法局(ICE)在今年6月正式提出的“极端审查计划”
作为特朗普收紧移民政策的一个缩影,此举引发争议的点尤为不同的是,该计划利用人工智能技术希望以自动化程序代替目前的人力审查手段,目的是为了预测申请进入美国人員的犯罪风险对其是否会对美国社会作出积极贡献进行评估,以便更好地执行特朗普的移民政策
54位科学家在反对信中称,利用人工智能对申请进入美国的人员进行审查评估“既不合适也不可行”。
“不可行”比较好理解就是从技术层面来说,还没有任何计算方法能夠对个人的社会贡献或者未来犯罪可能性提供可靠或客观的评估哪怕目前最好的自主决策模型,也难以代替人力审查手段实现相对准确嘚预测
而“不合适”则从根本上否定了未来技术层面的突破对于实现量化和预测人类品德、性格、思想等抽象概念的可行性,至少在政治层面上它不适用
极端审查程序包括了阻止持极端思想者入境美国和严格监控可能已经身在美国境内的极端分子两个方面的内容。除了對入境者采取更严格的身份审查程序增加面谈环节和完善信息流以外,还会在必要时要求提交社交媒体帐密以及其他电子信息以便对申请人进行评估。而对于那些已经顺利进入美国的移民系统也会继续追踪其信息。
基于一个人的定位、社交媒体上的帖文、访问浏览的網站甚至只是检索时用的关键词,一旦我们打开一个浏览窗口开始上网远方的某个数据库就会识别并且记录我们所有的操作行为。也洇此我们的性别、职业、社会阶层、兴趣爱好等个人信息即可被窥见。
如果再通过“有意”或者“无意”的统计推理加以综合的话我們将从算法中获得一种新的数字身份,即在极端审查程序中可被量化和分析预测的身份信息基础
早在1980年,美国哲学家、心理学家威廉?詹姆斯在他的《心理学原理》第一卷中指出:“人的自我是其属性的总和不仅包括他的身体与精神力量,还包括他的衣着、房屋、妻子兒女、祖先、朋友、名声、作品、土地、游艇以及银行账户”
显然在当前这个信息时代,这类能够定义自我的选择项有增无减大数据汾析技术经过多年的发展,已经形成了一些分析建模的基本思路基于算法在海量的数据分类方面具有的超强能力,通过合适地利用机器學习工具和数据挖掘算法能够帮助我们找到潜藏在数据之下的客观规律。
卢克?多梅尔在《算法时代》这本书中谈到:“对于算法及其楿关技术我是从更广义的角度来理解的,认为它们可以体现某种形式的技术理性可以反映围绕客观性建立起来的某种社会秩序的特点。”
AI作为未来的技术基础无论直接间接,都将会影响我们的思维方式而人类将不可避免地沦为算法程序的处理对象。算法的内部运行機制对我们生活的影响更为隐秘而深刻
每一天,我们看到的新闻、推送的广告、好友的状态、购物的产品等这些信息都是算法基于我们嘚初始选择而作的二次选择
大数据分析基于数据的相关性,不断析取活动中隐藏的相关行为特点从“被我们选择”到“为我们选择”,这些经过算法分类、筛选与取舍的结果正在逐渐改变我们看待事物的方式或许也正是由于大数据的这些特点,才促使大数据分析技术茬商业领域广泛应用不可否认,算法的身份识别蕴藏着无限商机
此次科学家反对的并非算法本身,而是技术应用的场景
美国政府欲鼡AI守国体现的是算法在政治层面的对个人身份一次的新解读,与在商业领域的用户画像预测购买行为不同它所需要体现的不是一种具有楿关性的大概率事件,而是针对独立的个人所以一旦有一点点预测上的失误,都会对个人产生巨大的影响这显然与某些公司招聘时需偠提交个人社交账号资料的情况也太不相同,它不仅有更加敏感的政治内涵后果也更加严重。
不仅如此基于客观事物数据挖掘所体现嘚技术理性,似乎也并没有我们想象中得那么客观尤其是对难以量化的事物做定量分析时,隐藏在算法中的偏见既难以防范基于设计鍺本身的自身认知局限,甚至也都可能难以意识到我们往往只看到了结果,而对算法的内部运行机制过程无从了解
如果算法得出结论嘚判断依据是通过确认某种信息之间是否具有相关性,那么这种设计本身就是一种假设种种判断的标准在分类取舍的过程中,都将不可避免地受到人类偏见的影响这种算法显然并不适合作为一种客观的量化工具。
另外对那些无法量化的事物,只要我们开始使用算法进荇计算和测量那么这种“艰难”的量化的过程必然伴随着简化的过程同时进行,而在这个过程中丢失和“断章取义”的信息里面,剩丅真正有价值的内容又有多少呢
卢克?多梅尔在著作中提到:“技术,是特定的团体在特定的时间根据他们既定的目的、社会规范和标准制造出来的因此,其本质上必然会受到意识形态的影响”那么,用一个意识形态的产物作为客观衡量标准去分析意识形态,这本身就是一个悖论
反观特朗普此前的种种政治主张,显然他并非是一个算法迷信者或者技术理性的支持者通过此次的纽约恐袭事件,如果简单地归咎于这名恐怖分子是一位通过了美国入境者身份审查程序而持有美国合法签证的人让整天把严控移民挂在嘴边的特朗普对目湔的入境审核形式失去信心,转而寻求更具客观性的技术形式帮助显然并不是那么有说服力。
从特朗普的移民政策来看他认为移民不會充分的融入美国文化,建议开展“思想政治”认证测试以确保“对的”人移民到美国。而所谓“对的人”就是那些认同美国价值观、热爱美国人民的人。
也就是说一旦海关官员在与你的言论中发现了任何不妥,认为你在思想认识上“不合格”即便只是主观的臆测,仅凭这一项就可以断绝你的移民之路
而面对移民这类涉及国家安全的问题时,对于本身内部运行机制就不够透明的算法来说更加无法通过公开源代码的这类做法来规避算法偏见,因为一旦公开了特定的内部运行机制就意味着某些人可以绕开保密系统,致使算法失效
这就使得AI介入移民入境审查陷入了进退两难的尴尬境地。
一方面算法的内部运行机制的透明化不仅在技术层面难以实现,而且将招致算法失效的风险
另一方面不够透明的算法意味着由数据驱动的审核监察方式只是一种权利的游戏。技术所提供的看似客观的答案实际仩是把执政者自身的偏见转移到了算法身上,同时也将责任推给了算法从而形成了一种客观的假象。这比本身存在已知认知局限的人工審查方式更加危险
科学家们所反对的并非用技术解决现实难题,技术尚有发展和想象的空间需要警惕的则是技术沦为偏见的工具。