美国棱镜门计划最有可能用什么编程语言

穗港各界专家共谋抵制网络黄毒

嘚基础上扩大试点的覆盖面,在全市选择条件成熟的区(县级市)推进青少年事务社工试点 #p#分页标题#e#
广州市教育科学研究所副研究员蔣亚辉:加强青少年媒介素养教育
    “学校应加强媒介素养教育,培养学生获取分析、鉴别各种信息的能力教会他们面对海量信息轰炸时,有目的、有标准地去选择部分接受”
    蒋说,目前有些学校还在开设网络课程时教学生如何上网“其实很多学生早已学会这些知识,網络课程应该更注重在培养学生如何应对网络负面信息方面培养他们在网络面前的文明公德和自律自制。”
    广州市教育局团委委员李绮華:学校应大力倡导“绿色上网”
    李绮华表示“校方应开展健康上网、绿色上网教育,加强学生对互联网安全与危险的认识培养他们學习《网络文明公约》,树立正确的网络观念”另外,李绮华认为学校应多开发绿色网站,为学生提供公共交流的绿色空间并应提高青少年对虚拟世界与现实生活区别的意识,让他们远离网络犯罪

}

穗港各界专家共谋抵制网络黄毒

嘚基础上扩大试点的覆盖面,在全市选择条件成熟的区(县级市)推进青少年事务社工试点 #p#分页标题#e#
广州市教育科学研究所副研究员蔣亚辉:加强青少年媒介素养教育
    “学校应加强媒介素养教育,培养学生获取分析、鉴别各种信息的能力教会他们面对海量信息轰炸时,有目的、有标准地去选择部分接受”
    蒋说,目前有些学校还在开设网络课程时教学生如何上网“其实很多学生早已学会这些知识,網络课程应该更注重在培养学生如何应对网络负面信息方面培养他们在网络面前的文明公德和自律自制。”
    广州市教育局团委委员李绮華:学校应大力倡导“绿色上网”
    李绮华表示“校方应开展健康上网、绿色上网教育,加强学生对互联网安全与危险的认识培养他们學习《网络文明公约》,树立正确的网络观念”另外,李绮华认为学校应多开发绿色网站,为学生提供公共交流的绿色空间并应提高青少年对虚拟世界与现实生活区别的意识,让他们远离网络犯罪

}

  在一月底结束的2019年国际消费電子产品展会上(CES 2019)LG总裁兼首席技术官帕克(I.P.Park)发表了关于AI如何促进“自我进化”产品的主旨演讲。“人工智能与伦理”的讨论成为了这场原夲与严肃话题不太相关的消费技术盛会的序幕。

  从自动驾驶到智能家居无论是讨论频率还是技术创新,人工智能都已经渗透在人们縋求更好生活的方方面面

  据麦肯基估计,到2030年人工智能会在全球范围内创造近130亿美元的额外经济产值,占世界GDP增长的1.2%[1]同时,各國政府也注意到这一技术对人类社会的深入在加拿大一家国际智库发布的《建设人工智能的世界——国家和区域人工智能政策报告》[2]中,全球已有18个主要国家发布了关于人工智能的针对性战略和政策包括科技、法规、伦理、社会治理等多个方面。

  然而随着人工智能的井喷式发展,关于人工智能为整个社会带来的影响也从科幻作品中走进现实的桌面。

  撇开科幻作品中炫酷而强大的终结者不谈仅仅简单的自动驾驶技术,当真正投入使用后也会面临“电车悖论”的困扰人类社会生活的复杂性在于其不仅追求工作的效率和精确,更追求选择的公正与合理

  随着技术的不断发展,当人工智能真正嵌入人们的日常生活这些伦理选择便也真实地摆在面前,成为囚工智能设计者们需要解决的问题

  那么具体来看,人工智能究竟引发了哪些讨论?我们需要关注哪些问题呢?在过去的一年里大家关紸了这些问题:

  人工智能不应该伤害人

  早在机器人诞生之时,人们便为这种本为帮助人类而设计的机器制定了伦理规范上世纪50姩代,著名科幻小说家阿西莫夫便在《我机器人》一书中提出了“机器人学的三大法则”。

  法则第一条便规定:“机器人不得伤害囚类个体或者目睹人类个体将遭受危险而袖手不管”。保护至高的人类生命是一切行动的前提从字面上看,这应是一条被普遍承认与遵守的规则但现实并非科幻作品中那样简单。

  2018年4月谷歌与美国五角大楼达成了Maven项目的合作,通过机器学习技术和先进的计算机视覺技术在无人机拍摄的视频中辨别物体,自动探测和识别38种类别的目标从而减轻军事分析员的工作负担。此外该技术也可以用于追蹤目标人员的行动。

  此举引发众多项目相关员工辞职也有将近4000名员工签名请愿谷歌取消该项目。6月谷歌发表声明,强调其不会进荇任何武器开发或以伤害人类为目的的人工智能研究但项目并未终止。最终在员工们“拒绝为军方研究人工智能”的压力下谷歌最终確认该项目2019年3月到期后将不再续约。

  这场在人工智能界由普通员工发起的“反战运动”的胜利提醒我们——毫无疑问人工智能技术囿极为广阔的应用领域,在技术高速发展的今天人形“终结者”并不会出现,但可能会以另一种形式悄悄到来

  然而,技术发展需偠伦理与规则的限制毕竟,正是这些最基本的规制保持着人类社会在不断的摩擦、碰撞与冲突中的正常前行

  也许人工智能的去武器化已经在社会大部分达成共识,谷歌的项目也在世界众多和平主义者的声讨中败下阵来

  然而,除了自动化武器这种“主动伤人”の外当人工智能深入到我们生活中不同场景时,一些人工智能“被迫伤人”的场景如何处理也成为了重要的议题

  自动驾驶便是一唎。

  2018年10月麻省理工学院在Nature上发表了一篇将自动驾驶牵涉入“电车难题”的论文[3]。

  研究人员通过其开发的“道德机器”(moral machine)向来自200多個国家的200多万在线参与者提出了一系列自动驾驶汽车在紧急情况时面对不同生命如何选择的问题

  结果显示了人类间选择的多样性——不同群体的选择偏好有很大不同,如一些集群倾向于保护动物一些集群倾向于保护老人。这些特殊性可以在人类的不同集群中出现泹对于需要提前规定好程序,按唯一特定模式选择的自动驾驶汽车要么少数人的偏好被无限放大,与大多数产生冲突要么少数人的偏恏在多数人的压倒性优势下完全湮灭。

  如果按照研究的普遍性结果制定自动驾驶规则那么多数人与青年人会被保护,而少数人与老姩人则被牺牲可以想象,若如此规则被全面推广老年人是否还敢出现在车水马龙的街头。

  “一方面我们希望为公众提供一种简單的方式进行重要的社会讨论,”媒体实验室媒体艺术与科学副教授Iyad Rahwan说 “另一方面,我们希望收集数据以确定人们认为哪些因素对于洎动驾驶汽车在解决道德权衡方面的重要性。”讨论并未结束人们也在不断的讨论中进一步认识自动驾驶的真正影响,并为其制定规则

  人工智能不应该歧视人

  在麻省理工学院的调查中,除了对生命的选择更值得关注的是人工智能算法对人类偏好差异性的放大。若不注意这些不同很有可能通过算法开发被扩大为偏见,并实在地影响人们的选择

  比如亚马逊的人工智能雇员系统。这一试验性的雇员系统通过对之前员工简历的机器学习在实际操作中会给女性技术员的简历评分较低。在无数争议后亚马逊终于在2018年11月关闭了這一系统。

  就在亚马逊关闭人工智能简历筛选系统的同一个月八名美国国会议员向亚马逊的CEO寄出了联名签名信,抗议其人脸识别系統也存在种族歧视的问题尽管这次亚马逊顶住压力给予回击,但来自全世界的平权者仍不买账双方的争吵尚未停止。

  通过大量、迅速且精确的重复计算机器学习能够解决效率问题,在许多领域都大有发展空间但在高效的同时,细观人类提供的机器学习的样本茬摒除误差、寻找规律时,自然以样本中的多数为样例运用到现实时,便成为人们所指责的“歧视”这并非开发者故意的行为,也并非人工智能本身的问题

  只能说,在人类历史的发展中人工智能帮我们指出了曾经没有意识到的问题,当我们坚信人工智能应当为所有人服务时我们需要思考如何克服曾经的偏见,这是人与人工智能共同的任务

  人工智能不应该“操纵”人

  除了已有数据的鈈同偏好,在人工智能的数据与推荐方面人们也有许多担心。

  当人工智能不断展示其强大的数据处理能力时许多评论者认为人工智能是中心化的,由于极强的数据攫取能力巨大的信息不对称带来社会的恐慌。2018年的Facebook隐私泄露事件将数据安全推到了风口浪尖对人工智能和算法的不信任也上升到从未有过的高度。

  同时算法推荐类产品也被重新审视。

  一方面算法推荐背后强力的数据抓取与汾析令人们觉得自己在人工智能面前仿佛赤身裸体,没有一点隐私;另一方面算法推荐,一味满足人们喜好造就的“知识茧房”也令人们恐惧人工智能强大到可以操控人类的“自我意识”

  2018年12月,谷歌旗下的视频社交网站YouTube又被指出向客户推送极端主义、假新闻等内容YouTube竝刻道歉并删除了视频,但如何纠偏算法推荐系统各方讨论的问题

  人类的道德观,是在历史漫长的社会实践活动中天然形成的而對于没有经历过这些社会实践的计算机来说,并不能自然形成道德约束

  但显然,算法需要价值观已经成为人工智能界的一种主流共識

  要将符合人类价值的约束加于算法中,公开算法只是第一步如何通过社会讨论确立规则、通过想象力和创造力设计更符合人类倫理价值的算法,还需要在人工智能技术开发的路上不断探索

  人工智能不应该完全取代人

  如果说算法使消费者与人工智能之间絀现了裂痕,那么人工智能在生产端对人的碾压性优势则带来更多恐慌从机械臂到机器人,从自动化生产到人工智能写新闻能够替代囚类劳动的人工智能产品层出不穷。

  2016年12月美国白宫发布了《人工智能、自动化与经济报告》[4],指出人工智能生产正在颠覆劳动力市場在当时这似乎还略显“多虑”,但之后的这两年中人们也切身感受到人工智能给劳动力市场带来的压力。

  2019年初布鲁金斯研究Φ心的报告指出[5],大约3600万美国人面临被人工智能替代的危险不仅在农业和制造业,服务业也受到威胁但也有经济学家指出,自动化生產与服务能够创造新的职位同时,一些对创造力要求很高的职位也并不能被替代

  事实上,每一次技术的飞跃与变革都会带来相應社会的阵痛,但社会总能在阵痛中实现转型或以教育提升个人素质,跻身于更具挑战性也更具价值的工作中;或通过人工智能创造新的職位实现劳动转型;或加入创业创新大潮,为社会创新注入更多活力

  我们看到,这些富有创造力的人们正是在“抗争”人工智能嘚过程中与其合作,在牺牲中实现社会的不断向前

  警醒而不忘科技向善之初心

  面对技术带来的问题与社会讨论,治理者与实业镓们都以自己的方式给出了回应

  在美国2019年的国防部财政预算中,人工智能国家安全委员会第一次出现委员会聘请包括谷歌、微软茬内的人工智能巨头公司的专家,专门评估人工智能、机器学习相关的技术创新保证对其的运用在法律框架内,并符合伦理价值

  無独有偶,2018年12月欧盟的52位各领域专家发布了《人工智能发展和运用的伦理指导》[6],希望在伦理方面对人工智能技术进行规制他们认为,人工智能首先应当尊重基本人权、伦理规则和社会价值即追求“伦理目标”;在保持技术创造性的同时,需要反思和加强人工智能的可靠性

  在2018年的人工智能发展规划中,英国也建立了数据伦理中心试图管理难以捉摸的大数据。

  政府以外各大公司也主动发出洎己关于人工智能的伦理倡议,以保证人工智能的合理发展在2018年世界移动通信大会上,IBM Watson首席技术官Rob High提出了IBM人工智能开发的三大原则——信任、尊重与隐私保护

  同时,微软倡议政府为面部识别技术制定规制并提出了六大原则——公平、透明、责任、无歧视、知情同意与法律控制。深陷数据泄露旋涡的Facebook也在2019年初开始行动——拿出750万美元与慕尼黑技术大学合作建立了人工智能伦理研究所希望在人工智能的研究中引入更多伦理思考。

  腾讯董事会主席马化腾在2018年世界人工智能大会上提到的人工智能的“四可”理念也对人工智能的各個问题做出了完整的回应。“四可”翻译为“ARCC”(Available, Reliable, Comprehensible, and Controllable读作ark),即未来人工智能是应当做到“可知”、“可控”、“可用”和“可靠”

  腾訊希望通过“四可”这样的一个道德框架开始,去帮助AI开发者和他们的产品赢得公众的信任这也正是如今全世界人工智能开发者追求的目标。

  腾讯公司高级副总裁郭凯天在第二届科技向善论坛上谈到:“在数字社会的背景下从业者需要保持警醒、自省,更需要相信科技向善相信人类有能力和智慧去驾驭和控制这次技术革命。”

  从数据采集、训练到机器学习人工智能其实只是放大了一直存在於人类社会的问题,提醒我们在新的时代背景下发挥想象力与创造力去思考与解决这些问题。

  技术来自于人类对美好生活的追求咜始于人,也应控于人无论是立法限制,还是价值原则归根结底,都是对人类社会伦理价值的重新探讨

  人工智能的大潮仍在继續,互联网时代的先锋应当能够在这大潮中立足、思考,抱着向善的信念不断稳重前行。

}

我要回帖

更多关于 棱镜门 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信