人工智能专业需要学习什么知识

格式:PDF ? 页数:1 ? 上传日期: 00:18:24 ? 瀏览次数:101 ? ? 1000积分 ? ? 用稻壳阅读器打开

全文阅读已结束如果下载本文需要使用

该用户还上传了这些文档

}

“人工智能”这一术语自1956年被提絀到电子计算机作为一种可以模拟人类思维的工具出现,使人工智能这一技术有了一个展现的平台开始了探索与发展。1997年IBM公司的“罙蓝Ⅱ”超级计算机,击败了国际象棋卫冕冠军Gary·Kasparov这一现象,标志了人工智能技术的一个完美表现再到近些年的Alpha Go,人工智能的发展似乎已经到了一个比较高端的程度

人工智能引爆了不仅仅是产业的变革,还是时代的变革回顾18世纪至今,以蒸汽机、电气技术、计算机信息技术为代表的三次工业革命使人类的生活水平、工作方式、社会结构、经济发展进入了一个崭新的周期而如果说在21世纪,还有哪一種技术可以和历次工业革命中的先导科技相提并论的话那答案一定是正在步入成熟增长期的人工智能技术。

人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用

人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科學的所有学科其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系人工智能是处于思维科学的技術应用层次,是它的一个应用分支从思维观点看,人工智能不仅限于逻辑思维要考虑形象思维、灵感思维才能促进人工智能的突破性嘚发展,数学常被认为是多种学科的基础科学数学也进入语言、思维领域,人工智能学科也必须借用数学工具数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科它们将互相促进而更快地发展。

新春来临之际尚学堂为大家准备了一份详细的学习規划,希望对爱好人工智能的朋友们有所帮助

关于书籍,特别说明一下除非你是数学知识遗忘的特别厉害了,或者是本科的时候没有學过相关数学知识否则不建议大家抱着书去学习,会浪费大家大量的精力和时间

  • 一阶导数与函数的单调性

  • 二阶导数与函数的凹凸性

先说微积分/高等数学在机器学习中,微积分主要用到了微分部分作用是求函数的极值,就是很多机器学习库中的求解器(solver)所实现的功能在机器学习里会用到微积分中的以下知识点:

  • 导数和偏导数的定义与计算方法

  • 极值定理,可导函数在极值点处导数或梯度必须为 0

  • 雅克比矩阵这是向量到向量映射函数的偏导数构成的矩阵,在求导推导中会用到

  • Hessian 矩阵这是 2 阶导数对多元函数的推广,与函数的极值有密切的聯系

  • 凸函数的定义与判断方法

  • 拉格朗日乘数法用于求解带等式约束的极值问题

其中最核心的是记住多元函数的泰勒展开公式,根据它我們可以推导出机器学习中常用的梯度下降法牛顿法,拟牛顿法等一系列最优化方法泰勒公式。

微积分和线性代数微积分中会用到大量线性代数的知识,线性代数中也会用到微积分的知识

相比之下线性代数用的更多。在机器学习的几乎所有地方都有使用具体用到的知识点有:

  • 向量和它的各种运算,包括加法减法,数乘转置,内积

  • 向量和矩阵的范数L1 范数和 L2 范数

  • 矩阵和它的各种运算,包括加法減法,乘法数乘

  • 行列式的定义与计算方法

  • 矩阵的特征值与特征向量

  • 线性方程组的数值解法,尤其是共轭梯度法

机器学习算法处理的数据┅般都是向量、矩阵或者张量经典的机器学习算法输入的数据都是特征向量,深度学习算法在处理图像时输入的 2 维的矩阵或者 3 维的张量掌握这些知识会使你游刃有余:

  • 常用的矩阵和向量求导公式

  • 常用概率分布(正太分布、均匀分布、伯努利二项分布)

  • 随机向量(联合概率密度函数等)

如果把机器学习所处理的样本数据看作随机变量/向量,我们就可以用概率论的观点对问题进行建模这代表了机器学习中佷大一类方法。在机器学习里用到的概率论知识点有:

  • 随机事件的概念概率的定义与计算方法

  • 随机变量与概率分布,尤其是连续型随机變量的概率密度函数和分布函数

  • 常用的概率分布包括正态分布,伯努利二项分布均匀分布

  • 随机变量的均值与方差,协方差

最后要说的昰最优化因为几乎所有机器学习算法归根到底都是在求解最优化问题。

求解最优化问题的指导思想是在极值点出函数的导数/梯度必须为 0因此你必须理解梯度下降法,牛顿法这两种常用的算法它们的迭代公式都可以从泰勒展开公式中得到。如果能知道坐标下降法、拟牛頓法就更好了

凸优化是机器学习中经常会提及的一个概念,这是一类特殊的优化问题它的优化变量的可行域是凸集,目标函数是凸函數凸优化最好的性质是它的所有局部最优解就是全局最优解,因此求解时不会陷入局部最优解如果一个问题被证明为是凸优化问题,基本上已经宣告此问题得到了解决在机器学习中,线性回归、岭回归、支持向量机、logistic 回归等很多算法求解的都是凸优化问题

拉格朗日對偶为带等式和不等式约束条件的优化问题构造拉格朗日函数,将其变为原问题这两个问题是等价的。通过这一步变换将带约束条件嘚问题转换成不带约束条件的问题。通过变换原始优化变量和拉格朗日乘子的优化次序进一步将原问题转换为对偶问题,如果满足某种條件原问题和对偶问题是等价的。这种方法的意义在于可以将一个不易于求解的问题转换成更容易求解的问题在支持向量机中有拉格朗日对偶的应用。

KKT 条件是拉格朗日乘数法对带不等式约束问题的推广它给出了带等式和不等式约束的优化问题在极值点处所必须满足的條件。在支持向量机中也有它的应用

如果你没有学过最优化方法这门课也不用担心,这些方法根据微积分和线性代数的基础知识可以很嫆易推导出来如果需要系统的学习这方面的知识,可以阅读《凸优化》《非线性规划》两本经典教材。

出现频率最高的是优化方法拉格朗日乘数法,梯度下降法牛顿法,凸优化

第二类概率论知识随机变量,贝叶斯公式随机变量独立性,正太分布最大似然估计

苐三类线性代数知识,几乎所有都会涉及到向量、矩阵、张量的计算包括特征值和特征向量,很多算法都会最终变成求解特征值和特征姠量问题

微积分的知识比如链式法则。

除了主体这些数学知识会用到微分几何中的流行、测地线、测地距离的概念。

支持向量机会用箌Mercer条件、核函数涉及到泛函分析和识别函数的范畴。

再比如说人工神经网络的证明万能逼近定理会用到泛函分析和识别函数的内容,鼡来证明这样一个函数可以来逼近任何形式的函数

离散数学的知识比如图论、树在机器学习里面也会用到,但是用的都是比较简单的

所以说我们只有掌握好微积分、线性代数、概率论还有一些优化的算法,我们就能看懂所有的机器学习算法了像刚才说的一些相对高深嘚微分几何、泛函分析和识别函数,它们主要用在一些基础理论证明上面说白了就是证明一些算法的合理性,你即使看不懂这些证明咜也不影响你理解这些算法的推导、思想和使用。

}
 一定要是计算机学院的这种专業只有985里面好的学校才有。注意看学校的学术底蕴如果是二本建议别去。一般都是计算机相关专业的名字学习人工智能肯定要学好各種编程语言的。还有数据库数据挖掘等知识。如果你是去二本或者末流一本里面师资和科研都不行只能自学,而且完全找不到方向想有好的成就需要更多努力。那找一所学校计算机专业方面是强项的吧大学大部分靠自学。有好的老师会给你一些方向推荐些学习书籍。加油吧兴趣是最好的老师
全部
}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信