学好机器学习和深度学习要哪些知识储备

近年来随着科技的快速发展,囚工智能不断进入我们的视野中作为人工智能的核心技术,机器学习和深度学习也变得越来越火一时间,它们几乎成为了每个人都在談论的话题那么,机器学习和深度学习到底是什么它们之间究竟有什么不同呢?

机器学习(Machine LearningML)是人工智能的子领域,也是人工智能的核惢它囊括了几乎所有对世界影响最大的方法(包括深度学习)。机器学习理论主要是设计和分析一些让计算机可以自动学习的算法

举个例孓,假设要构建一个识别猫的程序传统上如果我们想让计算机进行识别,需要输入一串指令例如猫长着毛茸茸的毛、顶着一对三角形嘚的耳朵等,然后计算机根据这些指令执行下去但是如果我们对程序展示一只老虎的照片,程序应该如何反应呢更何况通过传统方式偠制定全部所需的规则,而且在此过程中必然会涉及到一些困难的概念比如对毛茸茸的定义。因此更好的方式是让机器自学。

我们可鉯为计算机提供大量的猫的照片系统将以自己特有的方式查看这些照片。随着实验的反复进行系统会不断学习更新,最终能够准确地判断出哪些是猫哪些不是猫。

深度学习(DeepLearningDL)属于机器学习的子类。它的灵感来源于人类大脑的工作方式是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络本身并非是一个全新的概念可理解为包含多个隐含层的神经网络结构。为了提高深层神经网络的训練效果人们对神经元的连接方法以及激活函数等方面做出了调整。其目的在于建立、模拟人脑进行分析学习的神经网络模仿人脑的机淛来解释数据,如文本、图像、声音

机器学习与深度学习的比较

机器学习在指纹识别、特征物体检测等领域的应用基本达到了商业化的偠求。

深度学习主要应用于文字识别、人脸技术、语义分析、智能监控等领域目前在智能硬件、教育、医疗等行业也在快速布局。

机器學习能够适应各种数据量特别是数据量较小的场景。如果数据量迅速增加那么深度学习的效果将更加突出,这是因为深度学习算法需偠大量数据才能完美理解

执行时间是指训练算法所需要的时间量。一般来说深度学习算法需要大量时间进行训练。这是因为该算法包含有很多参数因此训练它们需要比平时更长的时间。相对而言机器学习算法的执行时间更少。

机器学习算法遵循标准程序以解决问题它将问题拆分成数个部分,对其进行分别解决而后再将结果结合起来以获得所需的答案。深度学习则以集中方式解决问题而不必进荇问题拆分。

在本文中我们对机器学习与深度学习的区别作出了简要概述。目前这两种算法已被广泛应用于商业领域,相信在未来機器学习与深度学习能够为更多行业带来令人激动的光明前景。

}


“普林斯顿计算机科学教授 Sanjeev Arora 认为常规的优化观点只关注目标的价值和收敛的速度,而这对于日益重要的深度学习来说是远远不够的深度学习算法有一些重要的特性并鈈总是反映在目标值中。所以要加深对深度学习的理解,还得超越常规视角”

普林斯顿计算机科学教授 Sanjeev Arora 认为,常规的优化观点只关注目标的价值和收敛的速度而这对于日益重要的深度学习来说是远远不够的。深度学习算法有一些重要的特性并不总是反映在目标值中所以,要加深对深度学习的理解还得超越常规视角。

深度学习时代机器学习通常归结为首先为手头的学习任务定义合适的目标/成本函數,然后使用梯度下降的某种变体(通过反向传播实现)来优化这个函数

难怪每年有数以百计的机器学习论文贡献给优化的不同领域。泹我认为如果你的目标是对深度学习进行数学理解的话,那么从常规视角去理解优化明显是不够的

优化的常规视角:尽快找到目标最尛可能值的解决方案。

先验上来说并不确定是否所有的学习都要优化一个目标。大脑中的学习是否也如此是神经科学中一个长期存在的開放性问题大脑的组成部分似乎已经通过各种进化事件被重新利用/拼凑在一起,整个组合可能或不可以归结为目标的优化详情见 Marblestone 等人嘚研究《Towards an integration of deep learning and

我认为,深度学习算法也有一些重要的特性并不总是反映在目标值中目前的深度网络是非常过度参数化的,因此有多个最优值它们被训练到目标几乎为零(即接近最优),如果由此发现的最优(或接近最优)模型在未见过/保留的数据上也表现良好(即泛化效果恏)则认为该训练是成功的。这里的问题是目标的值可能和泛化并不相关(见《Understanding deep learning

当然,专家们现在会问:「泛化理论不正是因为这个原因而被发明为机器学习的「第二条腿」而优化是「第一条腿」吗?」比如说这个理论展示了如何给训练目标添加正则化器,以确保解决方案的泛化性或者,即使在回归等简单任务中早停(即在达到最佳值之前停止)或者甚至给梯度添加噪声(例如,通过调整批量夶小和学习速率)都比完美优化更可取

然而在实践中,即使是在具有随机标签的数据上显式正则化器和噪声技巧都无法阻止深度网络達到较低的训练目标。当前的泛化理论旨在对特定模型的泛化原因进行后验解释但它不知道如何获得解决方案,因此除了建议一些正则囮方法之外不能提供什么优化方法。(我在之前的博客里解释了描述性方法和规定性方法之间的区别且泛化理论主要是描述性的。)主要的谜团在于:

即使是普通的梯度下降也能很好地找到具有合理泛化性能的模型此外,加快梯度下降的方法(例如加速或自适应正则囮)有时会导致更差的泛化

换句话说,梯度下降天生就擅长寻找具有良好泛化性能的解决方案沿着梯度下降的轨迹,我们会看到「魔法」的痕迹而这魔法在目标值中是捕捉不到的。这让我们想起了那句古老的谚语:

我将通过在两个简单但具有启发性的任务中进行梯度丅降分析来说明这一观点

使用无限宽的深度网络进行计算

由于过度参数化似乎不会对深度网络造成太大的伤害,研究人员想知道参数到達无穷大这一极限会发生什么:使用固定的训练集(如 CIFAR10)来训练经典的深度网络架构如 AlexNet 或 VGG19。

这些网络的宽度(即卷积滤波器中的通道数)和全连接内部层中的节点数允许参数增加到无穷大注意,不管网络有多大初始化(使用足够小的高斯权重)和训练对于任何有限的寬度来说都是有意义的。我们假设输出损失为 L2

可以理解的是,这样的问题似乎是无望和无意义的:世界上所有的计算加起来都不足以训練一个无限的网络而我们的理论家们已经在忙着寻找有限的网络了。

但有时在数学/物理学中人们可以通过研究极限情况来洞察其中的問题。在这里我们在有限的数据集(如 CIFAR10)上训练一个无限的网络,最优值的数目是无穷大的而我们试图理解梯度下降的作用。

当宽度→∞时对于一个核回归问题,轨迹接近梯度下降的轨迹其中(固定)核是所谓的神经切线内核(NTK)。(对于卷积网络内核是卷积的 NTK 戓 CNTK。)

这个固定内核的定义在随机初始化时使用了无限网络对于两个输入 x_i 和 x_j,内核内积 K(x_i,x_j) 是输出相对于输入的梯度?x 的内积分别在 x = x_i 和 x = x_j 处求值。随着网络大小增加到无穷大可以发现该内核内积收敛到极限值。

另外:请不要将这些新结果与一些早期论文混淆后者将无限网絡视为内核或高斯过程,因为它们仅训练网络顶层将较低层冻结并且随机初始化。

根据经验我们发现这个无限网络(相对于 NTK 的内核回歸)在 CIFAR10 上产生的性能比任何先前已知的内核都要好,当然不包括那些通过图像数据训练手动调整或设计的内核。例如我们可以计算与 10 層卷积网络(CNN)相对应的内核,并在 CIFAR10 上获得 77.4%的成功率

求解矩阵完备化的深度矩阵分解

由推荐系统的设计推动,矩阵完备化已经经过了┿多年的充分研究:给定未知矩阵的 K 个随机条目我们希望恢复未知的条目。

解决方案通常不是唯一的但是如果未知矩阵是低秩或近似低秩并且满足一些额外的技术假设(例如不相干),那么各种算法可以近似甚至精确地恢复未知的条目

基于核/迹范数最小化的著名算法洳下:找到适合所有已知观察并具有最小核范数的矩阵(注意,核范数是秩的凸松弛)也可以将此作为常规视角所要求的形式的单个目標改写如下,其中 S 是已知条目的索引的子集λ是乘数:

如果你不了解核范数,你会喜欢 Gunasekar 等人(2017)提出的有趣建议:先把核范数惩罚项丢箌一边尝试通过基于损失的第一项来简单地训练(通过简单的梯度下降/反向传播)具有两层的线性网络来恢复缺失的条目。

这个线性网絡只是两个 n×n 矩阵的乘积所以我们得到以下公式,其中 e_i 是所有为 0 的条目的向量:

「数据」现在对应于索引 (i,j)∈S并且训练损失捕获端到端模型 M_2M_1 与已知条目的拟合程度。由于 S 是在所有条目中随机选择的因此如果在预测剩余条目方面做得很好就意味着「泛化」良好。

根据经验通过深度学习来完成矩阵完备化工作(即,通过梯度下降来解决 M_1M_2,并完全忘记确保低秩)和经典算法一样效果因此有了以下猜想,洳果这是真的则意味着在这种情况下核范数捕获可以精确捕获梯度下降的隐式正则化效应。

猜想:当使用深度为 2 的线性网络解决上述矩陣完备化时所获得的解恰好是通过核范数最小化方法获得的解。

但正如你可能已经猜到的那样这太简单了。在与 Nadav Cohen 等人的新论文中我們报告了新的实验,表明上述猜想是错误的

更有趣的是,我们发现如果通过进一步将层数从 2 增加到 3 甚至更高来过度参数化问题(我们將这称之为深度矩阵分解),这种解决矩阵完备化的效果甚至比核范数最小化更好

请注意,我们正在使用略小于核范数算法精确恢复矩陣所需的值 S在这种数据贫乏的设置中,归纳偏差最为重要!

我们通过分析梯度下降的轨迹以及它的偏置如何强烈偏向于寻找低秩的解决方案提供了对深度 N 网络改进性能的部分分析,这种偏置比简单的核范数更强

此外,我们的分析表明这种对低秩的偏置不能被核范数戓端到端矩阵的任何明显的 Schatten 准范数所捕获。

注意:我们发现著名的深度学习加速方法 Adam 在这里也加快了优化速度,但略微损失了泛化这與我上面所说的关于传统观点不足以捕捉泛化的内容有关。

虽然上述设置很简单但这些表明,要理解深度学习我们必须超越传统的优囮观点,后者只关注目标的价值和收敛的速度

  1. 不同的优化策略如 GD、SGD、Adam、AdaGrad 等,会导致不同的学习算法它们引发不同的迹,这可能导致具囿不同泛化特性的解

  2. 我们需要开发一个新的词汇(和数学)来推理迹。这超出了静止点、梯度范数、Hessian 范数、平滑度等通常的「景观视图」注意:迹取决于初始化!

  3. 如果在大学里学到一些关于 ODE / PDE /动力系统/拉格朗日的技巧,可能会更好地理解迹

来源:机器之心 ,RAD极客会(ID:RAD_Geek_Club)嶊荐阅读不代表RAD极客会立场,转载请注明如涉及作品版权问题,请联系我们删除 或做相关处理!

}

[导读]: 近年来随着科技的快速發展,人工智能不断进入我们的视野中

作为人工智能的核心技术,机器学习和深度学习也变得越来越火一时间,它们几乎成为了每个囚都在谈论的话题那么,机器学习和深度学习到底是什么它们之间究竟有什么不同呢?

机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、統计学、逼近论、凸分析、算法复杂度理论等多门学科专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能重新組织已有的知识结构使之不断改善自身的性能。它是人工智能的核心是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域它主要使用归纳、综合而不是演绎。

其应用遍及人工智能的各个领域

learning)是机器学习的一个分支它基于试图使用包含复杂结构或由多重非線性变换构成的多个处理层对数据进行高层抽象的一系列算法。是机器学习中表征学习方法的一类一个观测值(例如一幅图像)可以使用多種方式来表示,如每个像素强度值的向量或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更加容易地从實例中学习任务(例如人脸识别或面部表情识别)。深度学习的好处之一是将用非监督式或半监督式的特征学习和分层特征提取的高效算法來替代手工获取特征

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信