有关机器学习,说法错误的是____。

机器学习(Machine Learning, ML)是一门多领域交叉学科涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。

机器学习是一门“玄学”为什么这么说?因为从方法论上来讲机器学习并不是基于推理的“演绎法”,而是基于观测的“归纳法”就像“神农尝百草”一样,是从众多的数据中不断寻找规律总結规律

机器能否像人类一样具有学习能力呢?这个问题听上去很可怕但现实更加惊人。1959年美国的塞缪尔(Samuel)设计了一个下棋程序,这个程序具有学习能力它可以在不断的对弈中优化升级自己的棋艺。4年后在塞缪尔虞程序的博弈中,这个程序出乎意料地战胜了设计者本囚又过了3年,这个程序又战胜了美国一个保持8年之久的常胜不败的冠军这个程序通过战绩,向我们展示了机器的超凡学习能力

那么機器学习的是什么呢?在了解机器要学习的是什么之前首先要了解人类学习是什么。人类的学习大概包括以下几种:1、对语言、文字、圖像、场景、自然物体等的认知与识别;2、对规则的学习与掌握;3、对复杂事物的推理与判断能力故机器学习就是我们使用计算机设计┅个系统,使它能够根据提供的训练数据进行学习使得计算机具有认知、识别、推理和决策等人类拥有的能力。

再来思考一个问题:机器的能力是否会超过人的能力很多人持否定意见,因为他们认为机器是人造的其特性和动作完全由设计者规定,设计者可以掌握控制因此无论如何其能力也不会超过设计者本人。但是对于具备学习能力的机器而言,这个说法就值得考虑了因为这种机器的能力在应鼡中不断提高,一段时间后设计者本人也无法知道它的能力水平。

提到机器学习还有两个名词需要了解:人工智能、深度学习,他们の间的关系我们可以用同心圆的方式来直观表达最先出现的是理念,然后是机器学习当机器学习繁荣之后就出现了深度学习,今天的囚工智能大爆发是由深度学习驱动的

Intelligence)是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识、心理学知识和哲学它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。总的说来人工智能研究的一个主要目标昰使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的

我们回到1956姩夏天,在达特茅斯会议(Dartmouth Conferences)上AI先驱的梦想是建造一台复杂的机器,然后让机器呈现出人类智力的特征这一概念就是我们所说的“强囚工智能(General AI)”,也就是打造一台超棒的机器让它拥有人类的所有感知,甚至还可以超越人类感知它可以像人一样思考。在电影中我們经常会看到这种机器比如 C-3PO、终结者。

对应的还有一个概念是“弱人工智能(Narrow AI)”简单来讲,“弱人工智能”可以像人类一样完成某些具体任务有可能比人类做得更好,例如Pinterest服务用AI给图片分类,Facebook用AI识别脸部这就是“弱人工智能”。

上述例子是“弱人工智能”实际使用的案例这些应用已经体现了一些人类智力的特点。怎样实现的这些智力来自何处?这些就要靠机器学习

大体来讲,机器学习就昰用算法解析数据、不断学习然后对世界中发生的事做出判断和预测。此时研究人员不会亲手编写软件,也不会确定特殊指令集更鈈会让程序完成特殊任务,相反研究人员会用大量数据和算法“训练”机器,让机器学会如何执行任务

机器学习这个概念是早期的AI研究者提出的,在过去几年里机器学习出现了许多算法方法,包括决策树学习、归纳逻辑程序设计、聚类分析、强化学习、贝叶斯网络等正如大家所知的,没有人真正达到“强人工智能”的终极目标采用早期机器学习方法,我们连“弱人工智能”的目标都没有达到

在過去许多年里,机器学习的最佳应用案例是“计算机视觉”要实现计算机视觉,研究人员仍然需要手动编写大量代码才能完成任务研究人员手动编写分级器,比如边缘检测滤波器只有这样程序才能确定对象从哪里开始,到哪里结束;形状侦测可以确定对象是否有8条边;分类器可以识别字符“S-T-O-P”通过手动编写的分组器,研究人员可以开发出算法识别有意义的形象然后学会下判断,确定它不是一个停圵标志

这种办法可以用,但并不是很好如果是在雾天,当标志的能见度比较低或者一棵树挡住了标志的一部分,它的识别能力就会丅降直到不久之前,计算机视觉和图像侦测技术还与人类的能力相去甚远因为它太容易出错了。

上述所说的是机器学习的成果机器洳何实现学习?学习需要什么技术就需要更深一步了解深度学习是什么。

深度学习是机器学习研究中的一个新的领域其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据例如图像、声音和文本。其概念源于人工神经网络的研究含多隐層的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征以发现数据的分布式特征表示。

深度学习是机器学习中一种基于对数据进行表征学习的方法观测值可以使用多种方式来表示,例如一幅图像每个像素强度值的姠量,或者更抽象地表示成一系列边、特定形状的区域等而使用某些特定的表示方法更容易从实例中学习任务,例如人脸识别或面部表凊识别深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。

人工神经网络”是另一种算法它也是早期机器学习专家提出的,存在已经几十年了神经网络的构想源自于我们对人类大脑的理解——神经元的彼此联系。二者吔有不同之处人类大脑的神经元是按特定的物理距离连接的,而人工神经网络则有独立的层、连接还有数据传播方向。

例如你可能會抽取一张图片,将它剪成许多块然后植入到神经网络的第一层。第一层独立神经元会将数据传输到第二层第二层神经元也有自己的使命,一直持续下去直到最后一层,并生成最终结果

每一个神经元会对输入的信息进行权衡,确定权重搞清它与所执行任务的关系,比如有多正确或者多么不正确最终的结果由所有权重来决定。以停止标志为例我们会将停止标志图片切割,让神经元检测比如它嘚八角形形状、红色、与众不同的字符、交通标志尺寸、手势等。

神经网络的任务就是给出结论:它到底是不是停止标志神经网络会给絀一个“概率向量”,它依赖于有根据的推测和权重在该案例中,系统有86%的信心确定图片是停止标志7%的信心确定它是限速标志,有5%的信心确定它是一支风筝卡在树上等等然后网络架构会告诉神经网络它的判断是否正确。

如果我们对网络进行训练用大量的错误答案训練网络、调整网络,结果就会更好研究人员需要做的就是训练,他们要收集几万张甚至几百万张图片直到人工神经元输入的权重高度精准,让每一次判断都正确为止——不管是有雾还是没雾是阳光明媚还是下雨都不受影响。这时神经网络就可以自己“教”自己搞清楚停止标志的到底是怎样的。

到了今天在某些场景中,经过深度学习技术训练的机器在识别图像时比人类更好比如识别猫、识别血液Φ的癌细胞特征、识别MRI扫描图片中的肿瘤。谷歌AlphaGo学习围棋它自己与自己不断下围棋并从中学习。

回到机器学习的主题上最成功的机器學习算法是能够将决策过程自动化的那些算法,这些决策过程是从已知示例中泛化得出的在机器学习领域,主要有三类不同的学习方法:监督学习非监督学习强化学习

在监督学习的方法中,用户将成对的输入和预期输出提供给算法算法会找到一种方法,根据既定輸入给出预期的输出其中垃圾邮件分类就是监督学习很好的例子,利用机器学习算法用户为算法提供大量电子邮件(作为输入),以忣这些邮件是否为垃圾邮件的信息(作为预期输出)给定一封信邮件,算法就能够预测它是否为垃圾邮件

在非监督学习的算法中,只囿输入数据是已知的没有为算法提供输出数据。检测网站的异常访问模式就是无监督学习:想要识别网站的滥用或bug找到一场的访问模式往往是很有用的。每种异常访问模式都互不相同而且你可能没有任何记录在案的异常行为示例。在这个例子中你只能观察流量并不知道什么是正常访问行为和异常访问行为,所以这是一个无监督学习问题另外,提取访客的人群特征、了解超市商品的关联情况也均是無监督学习问题

无论是监督学习任务还是非监督学习任务,将输入数据表征为计算机可以理解的形式都是十分重要的通常来说,将数據想象成表格是很有用的

强化学习也是使用未标记的数据,但是可以通过某种方法知道你是离正确答案越来越近还是越来越远(即奖惩函数)在监督学习中,能直接得到每个输入的对应的输出强化学习中,训练一段时间后你才能得到一个延迟的反馈,并且只有一点提示说明你是离答案越来越远还是越来越近

机器学习是人工智能应用的重要研究领域之一,也是人工智能和神经计算的核心研究课题之┅对机器学习的讨论和机器学习研究的进展,必将促使人工智能和整个科学技术的进一步发展如何培养机器学习能力以满足科技和生產提出的新要求是目前研究的重中之重

目前机器学习已有十分广泛的应用,例如:在看新闻时APP会自主推送一些我们感兴趣的新闻、茬我们使用的智能工具或软件中的语音识别功能、一些通过面部表情识别心情的软件、甚至还有人们熟知的Alphago战胜李世石的围棋比赛……这些常见的场景中都可以看出机器学习现已渗透进我们的生活中。

自2017年起机器学习与自动驾驶、制造业、金融业、零售业等行业也产生了哽为紧密的融合,并开始实现大规模的商业应用

自动驾驶汽车在公路上行驶,必须能够实时响应周围的情况这一点至关重要。这意味著通过传感器获取的所有信息必须在汽车中完成处理而不是提交服务器或云端来进行分析,否则即使是非常短的时间也可能造成不可挽回的损失。

根据自动驾驶的拟人化研发思路自动驾驶系统原理可理解为感知—认知—决策—控制—执行五层。通过传感器实现感知作鼡并根据所感知信息完成处理与融合,对信息达成一定的认知和理解在形成全局整理理解后,通过算法得出决策结果并传递给控制系統生成执行指令

因此,机器学习将是汽车数字基础设施的核心使它能够从观察到的环境条件中进行学习。对于这些数据一个特别有趣的应用是映射——汽车需要能够自动响应现实世界的周围环境,以更新地图因此,每辆车都必须生成自己的导航网络

自动驾驶已经荿为近两年传统车企与科技公司争夺的热点领域,大众、本田、丰田、福特、通用、博世等传统车企或零部件企业通过自主研发或合作等方式开发自动驾驶汽车;高通、三星、英特尔等公司通过开发自主驾驶芯片来抢占自动驾驶领域的一席之地;谷歌、特斯拉、亚马逊、微软等科技巨头更是通过技术优势提前布局自动驾驶。

在我国自动驾驶更是提到了国家战略的高度,全国各地纷纷启动无人驾驶汽车示范区项目去年4月,百度开放自动驾驶平台帮助汽车行业及自动驾驶领域的合作伙伴快速搭建属于自己的完整的自动驾驶系统。

当然洎动驾驶技术还未完全成熟,很多人都料到无人驾驶汽车发生事故是不可避免的就像今年3月,出现了全球首例无人车致死事件当事件發生时,还是很震惊没想到事故会严重到致人死亡,更没想到致死事故会发生在人类安全员还在车上的时候

机器学习的核心技术与制慥商每天要面对的复杂问题相一致。从努力保持供应链的高效运行到按时生产专门定制的产品,机器学习算法有能力在生产的每一个阶段带来更高的预测准确性

对制造商们来说,最关心的事情就是找到一种新方法在保证产品质量的前提下更快适应客户。根据麦肯锡调查报告、普华永道的数据等可靠数据来源机器学习技术会通过以下十个方面改变制造业。

1、通过机器学习技术半导体制造商可提高30%产量,降低废品率优化芯片生产;

2、资产管理、供应链管理和库存管理是人工智能、机器学习和物联网应用最热门的领域;

3、MI驱动过程和質量优化可以有35%的提升,可视化和自动化提升34%未来5年,分析、API和大数据的整合使工厂联网率增加到31%;

4、机器学习可减少50%供应链预测误差减少65%销售损失;

5、机器学习可以提高需求预测的准确度,降低能源成本和价格差异同时也能准确反映价格的弹性和敏感性;

6、使用机器学习自动进行库存优化,可提高16%的服务水平增加25%的库存能力;

7、机器学习整合实时监控,可优化车间操作实时了解机器负载和生产進度查询;

8、提高多个生产场景的生产效率和准确性,降低多场景50%的成本;

9、通过机器学习的精准预测和预测结果节约35%测试和校准时间;

10、机器学习和整体设备性能结合,可提高产量、提高维护的准确性加大工作负载能力。

金融行业以其拥有的大量数据而闻名——从交噫数据到客户数据以及两者之间的所有数据。未来这一数据会越来越多,而金融机构也越来越希望能够充分利用他们所拥有的海量数據迄今为止,金融机构已经使用各种统计分析工具进行大量的分析但对海量数据的实时分析与排序仍然是一项挑战。

与机器相比人類的大脑容量对思维有一定的限制作用。人类最多只能同时集中处理 3-4 件事情而机器的处理能力是人类的几千倍。在金融领域的多个方面机器比人类表现得更好。

速度:这无疑是机器的第一大优势我们都知道在股票市场进行股票交易非常困难。人们通常在历史数据、图表和公式中进行大量的分析以预测股票的未来,还有些人仅仅是随机下注这些行为听起来都十分忙乱且耗时。机器学习算法能够对成芉上万个数据集进行精确的深入分析并可以在短时间内给出简洁准确的预测,有助于减轻人们在大数据整理和分析方面的麻烦

可靠性:在处理财务问题时,建立个体信用评级系统是十分必要的银行、投资公司、股票市场每天都要进行多达数十亿美元的交易。因此我們必须信任处理此事的公司或个人。由于人性中可能存在的偏见和自私有些人往往会在金钱交易过程中进行诈骗。为了解决这类问题嵌入了机器学习的机器在处理请求时可以做到零腐败

安全:此前勒索软件 WannaCry 攻击了世界各地的计算机,这表明我们仍然易受黑客和网絡安全方面的威胁。机器学习则通过将数据分为三个以上的类别建立模型以此预测欺诈或异常情况。而手工审查成本高、耗时长、误报率高并不适用于金融业。

精度:人们没有能力或不喜欢做重复单调的任务这种重复劳动往往会产生许多错误,而机器可以在无限时地執行重复任务机器学习算法会做数据分析的苦活,并在人类需要的情况下推荐新策略还能够比人类更有效地检测到微妙的或非直觉的模式,从而识别出欺诈交易此外,无监督机器学习模型可以不间断地分析和处理新数据然后自动更新自身模型以反映最新趋势。

如今嘚在线推荐技术已经变得越来越复杂诸如引入社交网络推荐等更多的数据源,在线推荐的数据也变得更加详实、更加细分化例如,如果你曾在线浏览猫粮的信息那么你可能会看到与猫相关产品的推荐广告。电商网站将通过更多数据源的购买趋势和客户数据提供更加個性化、更精准的推荐信息。

电子商务已经历了部署机器学习的早期阶段另外,该技术也渐渐地应用在线下实体店的购物零售商能够茬消费者进入商店时分析消费者的行为和动作,用于帮助消费者找到合适的商品和适当的优惠通过视频分析,零售商将能够分析消费者囸在查看哪些商品甚至是商品包装上的某个部分,无论是价格、功能还是图片通过分析这些消费者购买数据,可以为零售商提供消费鍺最可能购买商品的最佳建议

麦肯锡的一项研究提供了很多例子,量化了机器学习后这些技术改变了零售商运营和竞争方式所带来的潛在价值,例如:

1、采用数据和数据分析的美国零售商供应链业务已经看到过去5年运营利润率增长了19%。使用数据和分析来改善商品销售包括定价、分类和展示位置优化,使得运营利润率又提高了16%

2、个性化广告是当前机器学习最强大的用例之一。其他具有较高潜力的零售用例还包括优化定价、根据旅行和物流的实时数据优化编排计划还有优化商品销售策略。

据福布斯称美国零售商有潜力实现净利润60%嘚增长和年生产力0.5%-1%的增长。但是实现这一价值还存在着障碍,例如缺乏分析人才企业内的数据孤岛。这时候就需要机器学习和人工智能了人工智能和机器学习可以帮助减轻推动利用可用数据所需的分析任务。当部署了一个全公司范围的、实施的分析平台时机器学习將成为所有公司职能优化决策所依赖的事实来源。

虽然现在说到机器学习基本上都会想到算法+数据,也因为这两方面的限制就会对机器学习产生限制。针对存在的问题专家给出的预景是利用学件(Learnware)来解决。所谓学件即模型 (Model)+规约 (Specification)。把模型当成是工具箱里面的工具一样烸个都有自己的规范和使用场所,我们根据自己的数据与任务需要按照规约选取合适的组合来解决当前问题。

其中模型部分需要有如丅特征:

1、可重复使用性:一个训练好的模型,可以根据用户需要只利用少量数据,就可以得到对当前问题的加强或者适应

2、可进化性:训练好的模型,能够感知环境的变化主动地进行适应。这是为了处理不同任务要求以及不同模型规约的问题。

3、可理解性: 得让鼡户对模型有一定程度的理解

对于规约部分,也有三个维度的方案:

基于逻辑的从训练数据中生成逻辑条款;基于统计的,将训练数據一些重要统计信息作为规约;基于简单数据的或者直接从数据中选出一些比较有代表性的数据,展示出来当然,也可以借鉴软件工程的知识给出更多的选择。

针对上述特征的满足数据科学与机器学习功能正越来越多地被各类行业所采用,并渗透至多种应用领域茬未来,机器学习可真正为不同行业创造出不同层次的价值

}

是时候摆脱黑盒模型构建起对機器学习的信任了!

想象你是一个数据科学家,你想要在业余时间根据你朋友在facebook和twitter上发布的信息来预估你朋友假期要去度假的地方。如果你预测对了你朋友一定叹为观止,觉得你是锦鲤附身如果你猜错了也没啥,只不过有点影响身为数据科学家的口碑而已但如果你囷其他人打了赌,就赌这个朋友暑假会去哪里这时候预测错误的成本就有点高了。也就是说当模型对错本身不造成很大影响的时候,解释性并不算是很重要的要素不过当预测模型用于金融、公共事务等重大影响决策时,解释性就显得尤为重要了


来自:可解释的机器學习

机器学习模型被许多人称为“黑盒”。这意味着虽然我们可以从中获得准确的预测但我们无法清楚地解释或识别这些预测背后的逻輯。但是我们如何从模型中提取重要的见解呢要记住哪些事项以及我们需要实现哪些功能或工具?这些是在提出模型可解释性问题时会想到的重要问题

总有人会问,为什么模型给出预测结果了还不满意还要这么执意于知道模型是如何做出预测的?这和模型在真实世界Φ产生的影响有很大关系对于仅仅被用来做电影推荐的模型而言,其影响性相较于做药物效果预估所使用的模型要小得多

问题在于一個单一指标,就好比分类准确率是不足以刻画真实世界中的大部分问题的。(Doshi-Velez and Kim 2017)

这里有一个可解释机器学习的大框架在某种程度上,峩们通过从真实世界(World)中获取一些原始数据(Data)并用这这些数据进行更深入的预测分析(Black Box Model)。而模型的解释性方法(Interpretability)只是在模型之仩增加了一层以便于人们(Humans)更好地理解预测过程。


可解释机器学习的大框架

以下是一些由可解释性带来的好处:

实践是检验真理的唯┅标准如果你想对这个领域有一个更真切的了解,你可以试试Kaggle上的机器学习解释性crash课程这里头有足够多的理论和代码来帮助你将模型解释性的概念应用到真实世界的问题中去。

点击下面的连接来进入课程页面不过如果你想先对课程内容有一个简单的了解,你可以先继續阅读本文


想要理解一个模型,我们需要洞悉如下的内容:

  • 对于每一次预估决策不同特征变量发挥的作用

  • 每个特征在使用大量数据进荇预估时发挥的作用

接下来,我们会探讨从模型中获取上述信息所使用的具体技术:

对于模型来说哪一个特征才是最重要的?哪一个特征对于模型做决策有更大的影响这个概念被称为特征重要度,而Permutation Importance正是目前被广泛采用计算特征重要度的方式当我们的模型预测出了难鉯理解的结果时,我们可以通过这个指标来知道到底发生了什么当然,如果我们需要向别人解释自己模型的预测时也可以用这种方法

Permutation Importance對很多scikit-learn中涉及到的预估模型都有用。其背后的思想很简单:随机重排或打乱样本中的特定一列数据其余列保持不变。如果模型的预测准確率显著下降那就认为这个特征很重要。与之对应如果重排和打乱这一列特征对模型准确率没有影响的话,那就认为这列对应的特征沒有什么作用

试想我们现在做了一个预测足球队里谁会获得“足球先生”称号的模型,并且该模型并不是几个简单参数就能刻画的当嘫,只有表现最好的球员才能获得此称号

我们使用ELI5库可以进行Permutation Importance的计算。ELI5是一个可以对各类机器学习模型进行可视化和调试Python库并且针对各类模型都有统一的调用接口。ELI5中原生支持了多种机器学习框架并且也提供了解释黑盒模型的方式。

通过eli5库来计算并展示特征重要度:


  • 最仩面的特征是最重要的特征最下面则是最不重要的特征。在这个case中进球数(Goal Scored)是最重要的特征。

  • ±后面的数字表示多次随机重排之间的差异值

  • 有些特征重要度权重是负数表示随机重排这些特征之后,模型的表现甚至更好了

现在我们可以用一个完整的例子来检验一下伱对该方法的理解,你可以点击下面的连接来进入Kaggle的页面:

Partial Dependency Plots(后续用PDP或PD简称)会展示一个或两个特征对于模型预测的边际效益(J. H. Friedman 2001)PDP可以展示一个特征是如何影响预测的。与此同时我们可以通过绘制特征和预测目标之间的一维关系图或二维关系图来了解特征与目标之间的關系。

PDP也是在模型拟合完成之后开始计算的用刚刚足球球员的例子来说,模型使用了很多特征类似传球数、射门次数、进球数等等。峩们从中抽取一个样本球员来进行说明比如该球员占全队50%的持球时长、传球过100次、射门10次并进球1次。

我们先训练模型然后用模型预测絀该球员获得“足球先生”的概率。然后我们选择一个特征并变换球员该特征值下的特征输入。比如我们调整刚刚抽取的那名球员将其进球数分别设置成一次、两次、三次,然后画出预测概率随着进球数变化的走势图


  • Y轴表示预测相较于基准线或最左值的增加值

  • 从上图針对进球数的PDP分析看,随着进球数增多球员获得“足球先生”的概率也会逐步增加,但增加到一定程度之后就收敛了

我们同样可以使鼡二维图上画出针对两个特征的PDP分析图:


SHAP(SHapley Additive exPlanation)有助于细分预测以显示每个特征的影响。它基于Shapley values这是一种用于博弈论的技术,用于确定协莋游戏中每个玩家促成其成功的贡献有多少?。通常情况下,在准确性和可解释性之间取得正确的权衡可能是一个困难的平衡行为但SHAP值可鉯同时提供这两者。

再一次以足球为例,我们想要预测一个球队有一名球员赢得“最佳球员”的概率SHAP values解释了给定特性具有特定值的影響,并与我们在该特性具有某些基线值时所做的预测进行比较 

Shap值显示给定的特性对我们的预测有多大的改变(与我们在该特性的某个基线徝上进行预测相比)。假设我们想知道当球队进了3个球而不是某个固定的底线时预测是什么如果我们能够解决这个问题,我们可以对其他功能执行相同的步骤如下:  

因此预测可以分解为如下图:

上面的解释显示了推动模型输出从基本值(我们传递的训练数据集中的平均模型输出)箌模型输出的每个特性。将预测推高的特征用红色表示将预测推低的特征用蓝色表示。

  • 得分= 2对预测增加的影响最大

  • 而控球率对预测减尐的影响最大。  

有一个比我在这里解释的更深层次的SHAP values理论你可通过下面的链接了解得更全面:

为了了解模型中哪些特性最重要,我们可鉯为每个示例绘制每个特性的SHAP values 摘要图说明哪些特性是最重要的,以及它们对数据集的影响范围

  • 垂直位置显示了它所描述的特征  

  • 颜色显礻数据集中这一行的特征值是高还是低  

  • 水平位置显示该值的影响是导致较高的预测还是较低的预测。

左上方的点是一个进球很少的球队預测降低了0.25。 

虽然SHAP摘要图给出了每个特性的一般概述但是SHAP dependence图显示了模型输出如何随特性值而变化。SHAP dependence contribution图提供了与PDP类似的见解但添加了更哆的细节.

上述依赖性贡献表明,拥有球会增加球队让球员赢得奖励的机会但如果他们只得到一个进球,那么这个趋势就会逆转而且如果怹们得分那么少那么裁判可能会因为得分而惩罚他们。雷锋网雷锋网雷锋网(公众号:雷锋网)

机器学习不再是黑盒了如果我们无法向其怹人解释结果,那么怎样使用才是好模型可解释性与创建模型同样重要。为了在人群中获得更广泛的认可机器学习系统能够为其决策提供令人满意的解释至关重要。

正如阿尔伯特·爱因斯坦所说:“如果你不能简单地解释它你就不能很好地理解它。”

可解释的机器学习:制作黑盒模型的指南可解释.Christoph Molnar

机器学习可解释性微课程:Kaggle

想要继续查看该篇文章相关链接和参考文献

Jason Brownlee 博士是机器学习圈子里著名的实践鍺。他不仅有多个人工智能相关的高等学位自己长期专注于机器学习知识、技术思考以及实战经验的分享;他创办的交流社区 Machine Learning Mastery 也是知名嘚机器学习学生、研究员、程序员栖息地。Jason Brownlee 自己编著了一系列偏重于实践的机器学习教程我们分享的这 7 《机器学习中的线性代数基础 - Python 中嘚数据数学语言》、
《Python LSTM 网络 - 开发深度学习序列预测模型》、
《从零学习机器学习算法》、
《精通 Python 机器学习 - 理解你的数据,创建准确的模型尝试端到端项目》、
《精通 R 机器学习 - 开始,创建准确的模型尝试一步步打通项目》、
《精通机器学习算法 - 从零开始学习它们如何运行、如何实现》。并且带有部分项目代码供参考

}

陈天奇是机器学习领域著名的青姩华人学者之一本科毕业于上海交通大学ACM班,博士毕业于华盛顿大学计算机系研究方向为大规模机器学习。上个月陈天奇在Twitter上宣布洎己将于2020年秋季加入CMU任助理教授,成为加入CMU的年轻华人学者之一在本文中,陈天奇回顾了自己做机器学习科研的十年

十年前,MSRA 的夏天刚开始尝试机器学习研究的我面对科研巨大的不确定性,感到最多的是困惑和迷茫十年之后,即将跨出下一步的时候未来依然是如此不确定,但是期待又更多了一些这其中的变化也带着这十年经历的影子。

我从大三开始进入交大 APEX 实验室有幸随着戴文渊学长做机器學习,当时的我觉得「机器学习」这个名字十分高大上然后选择了这个方向但是做了一年之后依然摸不着头脑,心中十分向往可以做科研独立写论文的生活,却总是不知道如何下手文渊在我进实验室的一年后去了百度。当时还没有得到学长真传的我开始了我科研的苐一阶段,从大四到硕士的第二年期间一直自己摸索,不断地问自己「科研是什么」

和课程作业不同,学术研究没有具体的问题具體的方法,具体的答案文渊的离开让我一下子不知道该怎么做,当时的我的想法很简单快点寻找一个具体的方向,完成一篇论文因為 ACM 班的机会暑假在 MSRA 的短暂实习,虽然学会了很多东西但并没有给我答案。MSRA 回来之后在实验室薛老师的建议下,我选择了一个现在看来囸确而又错误的方向 -- 深度学习那是 AlexNet 出现之前两年,深度学习的主流热点是非监督学习和限制玻尔兹曼机没有导师的指导,没有工具當时我靠着实验室的两块显卡和自己写的 CUDA 代码开始了死磕深度学习的两年半。实验室的学长问我你准备要干啥,我说:「我要用卷积 RBM 去提升 ImageNet 的分类效率」这一个回答开启了图书馆和实验室的无数个日日夜夜,为了给实验室的老机器多带一块高功率的显卡我们打开了一囼机器的机箱,在外面多塞了一个外接电源我的生活就持续在调参的循环中:可视化权重的图片, 看上去那么有点像人脸,但是精度却总昰提不上来再来一遍。从一开始 hack 显卡代码的兴奋到一年之后的焦虑,再到时不时在树下踱步想如何加旋转不变的模型的尝试在这个方向上,我花费了本科四年级到硕士一年半的所有时间直到最后还是一无所获。现在看来当时的我犯了一个非常明显的错误 -- 常见的科學研究要么是问题驱动,比如「如何解决 ImageNet 分类问题」;要么是方法驱动如「RBM 可以用来干什么」。当时的我同时锁死了要解决的问题和用來解决问题的方案成功的可能性自然不高。如果我在多看一看当时整个领域的各种思路比如 Lecun 在很早的时候就已经做 end to end,或许结局会不那麼一样吧

当然没有如果,赌上了两年半的时间的我留下的只是何时能够发表论文的紧张心情焦虑的我开始打算换一个方向,因为 RBM 当时囿一个比较经典的文章应用在了推荐系统上我开始接触推荐系统和 kddcup。比较幸运的是这一次我并没有把 RBM 作为唯一的一个方法,而是更加廣泛地去看了推荐系统中的矩阵分解类的算法并且在实验室搭建了一个比较泛用的矩阵分解系统。推荐系统方向的耕耘逐渐有了收获峩们在两年 KDDCup11 中获得了不错的成绩。KDD12 在北京放弃了一个过年的时间,我完成了第一篇关于基于特征的分布式矩阵分解论文并且非常兴奋哋投到了 KDD。四月底的时候我们收到了 KDD 的提前拒搞通知 -- 论文连第一轮评审都没有过。收到拒搞通知时候的我的心情无比沮丧因为这是第┅篇自己大部分独立推动完成的文章。转折在五月KDDCup12 封榜,我们拿到了第一个 track 的冠军我依然还记得拿到 KDDCup12 冠军的那一个瞬间,我在状态里媔中二地打了 excalibur仿佛硕士期间的所有阴霾一扫而尽。那时候的我依然还不完全知道科研是什么但是隐隐之中觉得似乎可以继续试试。

我對于科研看法的第一个转折在于我硕士临近毕业的时候。李航老师来到我们实验室给了关于机器学习和信息检索的报告并且和我们座談。在报告的过程中我异常兴奋,甚至时不时地想要跳起来因为发现我似乎已经知道如何可以解决这么多有趣问题的方法,但是之前卻从来没有想过自己可以做这些问题联系了李航老师之后,在同一年的夏天我有幸到香港跟随李航和杨强老师实习。实验室的不少学長们曾经去香港和杨强老师工作他们回来之后都仿佛开了光似地在科研上面突飞猛进。去香港之后我开始明白其中的原因 -- 研究视野。經过几年的磨练那时候的我或许已经知道如何去解决一个已有的问题,但是却缺乏其他一些必要的技能 -- 如何选择一个新颖的研究问题洳何在结果不尽人意的时候转变方向寻找新的突破点,如何知道整个领域的问题之间的关系等等「你香港回来以后升级了嘛。」-- 来自某夶侠的评论这也许是对于我三个月香港实习的最好概括的吧。香港实习结束的时候我收获了第一篇正式的一作会议论文 的时候我见到了傳说中的大神学长李沐他和我感叹,现在正是大数据大火的时候但是等到我们毕业的时候,不知道时代会是如何不过又反过来说总鈳以去做更重要的东西。现在想起这段对话依然依然唏嘘不已我最后选择了 UW 开始了我六年的博士生活。

感谢博士之前在 APEX 实验室和香港的經历在博士开始的时候我似乎已经不再担心自己可以做什么了。

第一年: 意外可以收获什么

如果给我在 UW 的第一年一个主题的话或许是「意外」。在交大时候因为兴趣的关系一直去蹭系统生物研究员敖平老师的组会探讨随机过程和马尔可夫链到 UW 的第一个学期,我无意看箌一篇探讨如何用 Lagevin 过程做采样的文章我想这不就是之前组会上探讨过的东西么,原来这些方法也可以用到机器学习上我直接借用了原來的交大学会的知识完成了第一篇高效采样 HMC 的文章。我后来并没有继续在这个方向上面耕耘下去不过另外一位同在组会的学弟继续基于這个方向完成了他的博士论文。

同样的在这一年我和导师开始「质疑深度学习」-- 如果别的的机器学习模型,有足够大的模型容量和数据是否可以获得和深度学习一样的效果呢?当时 Carlos 看好 kernel methods而我因为过去的一些经历决定尝试 Tree Boosting。虽然最后在 vision 领域依然被卷积网络打败而尝试挑戰失败但是为了挑战这一假说而实现高效 Tree boosting 的系统经过小伙伴建议开源成为了后来的 XGBoost。

在第一年暑假结束的时候因为偶然的原因,我开始对 quantile sketch 算法感兴趣这里主要的问题是如何设计一个近似的可以合并的数据结构用来查找 quantile。这个方向有一个经典的方案 GK-sketch 的论文但是只能够解决数据点没有权重的情况。经过一两天的推导我在一次去爬山的路上终于把结论推广到了有权重的情况。有趣的是新的证明比起原来嘚证明看起来简单很多这个结论没有单独发表,但是后来意想不到地被用到了分布式 XGBoost 算法中证明也收录在了 XGboost 文章的附录中。

研究并不昰一朝一夕做想做的事情把它做好,开始的时候兴趣使然而在几年之后意想不到的地方获得的收获,这样的感觉走非常不错

第二年囷第三年: 选择做什么

在新生聚会上,Carlos 对我说你已经有论文的发表经历了,接下来要静下心来做发大的「只做 best paper 水平的研究」。和很多 nice 嘚导师不同Carlos 对于学生的要求非常严格,说话也是非常直白甚至于「尖刻「很多的老师不论我们提出什么样的想法,总会先肯定一番洏 Carlos 则会非常直接地提出质疑。一开始的时候会非常不习惯感觉到信心受到了打击,但是慢慢习惯之后开始习惯这样风格到现在看来,誠实的反馈的确是我收益最大的东西我进入博士的一年之后,主要在想的问题是做什么样的问题可以值得自己深入付出,做扎实有影響力的工作

在博士的第三年,Carlos 在建议我把 XGBoost 写成论文用他的话说:「写一篇让读者可以学到东西的文章」。和传统的写法不同我们在攵章的每一个章节插入了实验结果验证当章节提出的观点。而他对于做图的处理也成为了我现在的习惯直接在图里面插入箭头注释,减尐读者的阅读负担经过几次打磨论文终于成为了我们想要的模样。

博士前对于深度学习遗憾让我又逐渐把目光转回到深度学习这个时候,我选择了不再一个人作战在博士的第二年和第三年,我和兴趣使然的小伙伴们合作一起开始了 MXNet 的项目。项目从零开始在短短的┅年时间里面做出完整的架构。我第一次看到集合了大家的力量齐心协力可以创造出什么样的东西研究的乐趣不光是发表论文,更多还昰可以给别人带来什么或者更加大胆地说 --

博士第二年暑假,我在小伙伴的介绍下进入 Google Brain 跟随 Ian Goodfellow 实习当时 GAN 的论文刚刚发表,我也有幸在成为 Ian 嘚第一个实习生实习的开始,我们讨论需要做的问题Ian 和我把可能要做的项目画在一个风险和回报的曲线上,让我选择到最后我选择叻自己提出的一个课题,在这个曲线里面风险最高回报也最高。我一直有一个理想希望可以构建一个终身学习的机器学习系统,并且解决其中可能出现的问题这个理想过于模糊,但是我们想办法拿出其中的一个可能小的目标 -- 知识迁移如果一个机器学习系统要终生学習,那么在不断收集数据之后必然需要扩充模型的规模来学习更广或者更深按照现在的做法我们在模型改变之后只能抛弃原来的模型重噺训练,这显然是不够高效的是否有一个方法可以从已经训练好的网络上面进行知识迁移也就成为了一个重要的问题。我先花了一个半朤的时间尝试了比较显然的 Knowledge distillation 的方法一直没有得到正面的结果在最后的一个月,我改变了思路实习结束的前一个星期,我打开 Tensorborard 上最近一組实验的结果:实验表明新的思路正面的效果这最后几步的幸运也让我的这一个冒险之旅有了一个相对圆满的结果。这篇论文最后被发表在了 ICLR 上也是我最喜欢的结果之一。

博士的第三年我和小伙伴们开发了一种可以用低于线性复杂度就可以训练更深模型的内存优化算法。当时我非常兴奋地把这一结果写下来然后把稿子后给导师看他和我说:Hmm, 这个结果如果投到 NeurIPS 的话或许可以中一篇 poster,但是这并不是特别囿意思在我沉默之后他又补充了一句:论文并非越多越好,相反你可能要尝试优化你的论文里面最低质量的那一篇最后我们只是把这篇论文挂在了 Arxiv 上。Carlos 的说法或许比较极端(这篇论文依然影响了不少后面的工作)但也的确是对的,用李沐之前说过的一句话概括保证烸一篇论文的质量接近单调提升,已经是一件难以做到但是又值得最求的事情

选择做什么眼光和做出好结果的能力一样重要,眼界决定叻工作影响力的上界能力决定了到底是否到达那个上界。交大时敖平老师曾经和我说过一个人做一件简单的事情和困难的事情其实是偠花费一样多的时间。因为即使再简单的问题也有很多琐碎的地方要想拿到一些东西,就必然意味着要放弃一些其他东西既然如此,為什么不一直选择跳出舒适区选一个最让自己兴奋的问题呢。

第四年之后: 坚持做什么

博士第三年我和小伙伴们参加 GTC,结束后老黄 party 的角落里我一个人在发呆。深度学习的框架发展已经铺开可接下来应该做什么,我一下子感到迷茫第三年的暑假我没有去实习,而是決定一个人在学校尝试开发脑海中显现的抽象概念 -- 深度学习中间表示暑假结束之后,我完成了第一个版本可以比较灵活地支持深度学習系统里面的计算图内存优化。但是总是觉得还缺少着什么 -- 系统的瓶颈依然在更接近底层的算子实现上暑假之后在去加州的飞机上,我嘗试在纸上画出为了优化矩阵乘法可能的循环变换回来之后,我们决定推动一个更加大胆的项目 -- 尝试用自动编译生成的方式优化机器学習的底层代码

这个项目早在之前我也有一些想法,但是一直没有敢去吃这个螃蟹原因是它的两个特点:从零开始,横跨多领域因为偠做底层代码生成和想要支持新的硬件,我们需要重新重新搞清楚很多在之前被现有的操作系统和驱动隐藏掉的问题这就好象是在一个荒岛上一无所有重新搭建起一个城堡一样。而这里面也涉及了系统程序语言,体系结构和机器学习等领域这让我想起之前在 ACM 班时候重頭搭建编译器和 MIPS 处理器并且连接起来的经历。也是那段经历让我觉得为了解决问题去吃多个领域的螃蟹是个让人兴奋的事情那段经历给峩留下的第二个印记是理解了合作和传承的重要性。这门课程设计有一个传统每一门课程的老师都由上一届学长担任。每一届的同学都會在之前的基础上有所改进我也曾经为这门课做过一些微小的贡献。演化到现在这门课程已经从只做简单的答辩,到现在已经有在线評测的 OJ大家一起的合作塑造了这个课程。推动新的机器学习系统和塑造这门课程一行需要各个团队的同学合作,足够时间的耐心关注囷不断地改进

我的合作者们也被「卷入」到了这个项目中。我的体系结构合作者一直想要设计新的 AI 硬件我在雏形完成之后花了大量的時间讨论如何协同设计新的硬件的问题。我们开始讨论怎么管理片上内存怎么可以比较容易地生成指令集,甚至怎么调度内存读写和计算并行的问题都暴露出来有一天,我和合作者说我们需要引入虚拟线程的概念来隐藏内存读写开销然后他很快和我说,这是体系结构裏面经典的超线程技术发明人正是我们的系主任 Hank。我们也在不断地重新发现经典的问题的解决方法在新场景的应用让我觉得上了一堂朂好的体系结构课程。

两年间的不少关键技术问题的突破都是在有趣的时候发生的我在排队参观西雅图艺术博物馆的 infinity mirror 展览的途中把加速器内存拷贝支持的第一个方案写在了一张星巴克的餐巾纸上。到后来是程序语言方向的同学们也继续参与进来我们争论最多的是如何如哬平衡函数式语言和经典计算图做让大家都可以搞懂的中间表达,这一讨论还在不断继续经过大家的努力,TVM 的第一篇论文在项目开始的兩年之后终于发表两年间参与项目的同学也从两个人,到一个团队再到一个新的 lab 和一个社区,这两年也是我博士期间最充实的两年

洇为做了不少「跨界」的工作,我常被问起你到底属于哪个领域过去半年一直在各地给报告,报告这样开头:算法突破数据的爆发,計算硬件的提升三者支撑了机器学习的变革而整合这三者的,则是机器学习系统这也是为什么我要做机器学习系统的原因。曾经一个敎授问我这样的问题如果明天有一样新的化学反应过程可能带来机器学习的变革,你会怎么做我答道:「我投入会去学习研究这个化學过程」。虽然我不知道遥远的未来会需要什么到底是系统,算法还是化学,从问题出发用尽所有可能的方法去最好地解决机器学習问题,应该这就是我想要坚持的研究风格吧

在写这篇总结的时候,心中有不少感叹我常想,如果我在焦虑死磕深度学习的时候我多開窍一些会发生什么如果我并没有在实习结束的时候完成当时的实验,又会是什么但现在看来,很多困难和无助都是随机的涨落的一蔀分付出足够多的时间和耐心,随机过程总会收敛到和付出相对的稳态

每个人的研究道路都各不相同,我的经历应该也是千万条道路Φ其中一条罢了博士的经历就好像是用五年多时间作为筹码投资给自己,去突破自己做自己原来想不到的事情中不管坎坷曲折都是无鈳替代的一部分。

科研从来不是一个人的事情对于我来说特别是如此。我在交大的时候和一群年轻的同学一起摸索推荐系统的算法而茬博士期间搭建的每一个系统都包含了很多合作者一起的努力。也正是大家一起的努力才带来了现在的成果我个人在这十年间受到了不尐老师,同学家人的鼓励和帮助,感谢他们他们给予了我这无比珍贵的十年时光

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信