机器学习全新升级版

499¥899.00

  • 课程学习日历
  • 第1章:机器学习的数学基础
  • 1.1 函数介绍
  • 练习:函数介绍
  • 1.2 向量
  • 练习:向量
  • 1.3 矩阵与张量
  • 练习:矩阵与张量
  • 1.4 特征值和特征向量
  • 练习:特征值与特征向量
  • 1.5 奇异值分解
  • 练习:奇异值分解
  • 1.6 Jacobian和Hessian矩阵
  • 1.7 凸函数
  • 练习:凸函数
  • 第2章:机器学习的数学基础
  • 2.1 概率问题
  • 练习:概率问题
  • 2.2 独立性随机变量
  • 2.3 期望、方差和协方差
  • 练习:期望、方差和协方差
  • 2.4 联合概率
  • 练习:联合概率
  • 2.5 分布(1)
  • 2.6 分布(2)
  • 第一周_答疑
  • 第3章:机器学习的哲学(Philosophy of ML)
  • 3.1 机器学习的模型
  • 3.2 机器学习的应用
  • 3.3 过拟合
  • 练习:过拟合
  • 3.4 机器学习的分类
  • 练习:机器学习得分类
  • 第4章:机器学习的数学基础
  • 4.1 有监督学习
  • 4.2 损失函数
  • 4.3 梯度下降(1)
  • 练习:梯度下降(1)
  • 4.4 梯度下降(2)
  • 4.5 牛顿方法
  • 第二周_答疑
  • 第5章:经典机器学习模型(Classical ML Models)
  • 5.1 有参和无参模型
  • 练习:有参和无参模型
  • 5.2 KNN简介
  • 练习:KNN简介
  • 5.3 距离测算
  • 练习:距离测算
  • 5.4 朴素贝叶斯
  • 练习:朴素贝叶斯
  • 5.5 朴素贝叶斯的实际应用
  • 第6章:经典机器学习模型(Classical ML Models)
  • 6.1 决策树简介
  • 6.2 信息熵(1)
  • 练习:信息熵(1)
  • 6.3 信息熵(2)
  • 练习:信息熵(2)
  • 6.4 ID3算法
  • 练习:ID3算法
  • 6.5 决策树节点的划分
  • 第三周_答疑
  • 第7章:经典机器学习模型(Classical ML Models)
  • 7.1 CART树
  • 练习:CART树
  • 7.2 Bagging
  • 7.3 Boosting
  • 练习:Boosting
  • 7.4 Gradient Boosting
  • 练习:Gradient Boosting
  • 第8章:线性模型(Linear Models)
  • 8.1 线性模型
  • 8.2 最小二乘
  • 练习:最小二乘
  • 8. 3 线性分类器
  • 8.4 极大似然
  • 8.5 逻辑回归(1)
  • 练习:逻辑回归(1)
  • 第四周答疑
  • 第9章:线性模型(Linear Models)
  • 9.1 逻辑回归(2)
  • 练习:逻辑回归(2)
  • 9.2 岭回归
  • 练习:岭回归
  • 9.3 LASSO
  • 练习:LASSO
  • 9.4 优化方法(1)
  • 练习:优化方法(1)
  • 9.5 优化方法(2)
  • 第10章:核方法(Kernel Methods)
  • 10.1 拉格朗日乘子法(1)
  • 10.2 拉格朗日乘子法(2)
  • 10.3 拉格朗日乘子法(3)
  • 练习:拉格朗日乘子法(3)
  • 10.4 最大间隔
  • 练习:最大间隔
  • 第五周答疑
  • 第11章:核方法(Kernel Methods)
  • 11.1 拉格朗日对偶问题
  • 11.2 支持向量
  • 练习:支持向量
  • 11.3 SVM计算过程
  • 练习:SVM计算过程
  • 11.4 线性可分
  • 第12章:统计学习(Statistical Learning)
  • 12.1 贝叶斯公式
  • 12.2 隐含变量和概率模型
  • 12.3 EM算法
  • 12.4 琴生不等式
  • 第六周答疑
  • 第13章:统计学习(Statistical Learning)
  • 13.1 3个硬币问题
  • 13.2 高斯混合模型
  • 练习:高斯混合模型
  • 13.3 隐马尔可夫模型(1)
  • 练习:隐马尔可夫模型(1)
  • 13.4 隐马尔可夫模型(2)
  • 第14章:统计学习(Statistical Learning)
  • 14.1 隐马尔可夫模型在NLP中的运用(1)
  • 14.2 EM算法
  • 14.3 隐马尔可夫模型在NLP中的运用(2)
  • 14.4 隐马尔可夫模型在NLP中的运用(3)
  • 第七周_答疑
  • 第15章:统计学习(Statistical Learning)
  • 15.1 高维下的高斯模型
  • 15.2 主题模型
  • 练习:主题模型
  • 15.3 Dirichlet分布(1)
  • 15.4 Dirichlet分布(2)
  • 第16章:无监督学习(Unsupervised Learning)
  • 16.1 统计学习内容回顾
  • 16.2 kmeans算法
  • 练习:kmeans算法
  • 16.3 PCA降维
  • 练习:PCA降维
  • 16.4 SVD降维
  • 16.5 isomap
  • 第八周_答疑
  • 第17章:流形学习(Manifold Learning)
  • 17.1 聚类
  • 练习:聚类
  • 17.2 局部线性嵌入
  • 练习:局部线性嵌入
  • 17.3 分布性随机领域嵌入(1)
  • 17.4 分布性随机领域嵌入(2)
  • 第18章:概念学习(Concept Learning)
  • 18.1 无参模型
  • 18.2 高斯过程(1)
  • 练习:高斯过程(1)
  • 18.3 高斯过程(2)
  • 第九周答疑 2019.02.19 20:50
  • 第19章:神经网络
  • 19.1 神经网络简介
  • 19.2 反向传播
  • 19.3 CNN
  • 练习:CNN
  • 19.4 RNN
  • 练习:RNN
  • 第20章:强化学习(Reinforcement Learning)
  • 20.1 深度学习回顾
  • 20.2 增强学习(1)
  • 20.3 强化学习(2)
  • 第十周答疑 2019.02.26 20:50

授课教师

小象学院签约讲师英国布里斯托(Bristol)大学硕士、博士。美国加州大学伯克利分校(UC Berkeley)博士后、牛津 (Oxford)...