班.级.规.模.及.环.境--热.线:4008699035 手.机:15921673576( 微.信.同.号) |
坚持小班授课,为保证培训效果,增加互动环节,每期人数限3到5人。 |
上.课.时.间.和.地.点 |
上课地点:【上海】:同济大学(沪西)/新城金郡商务楼(11号线白银路站) 【深圳分部】:电影大厦(地铁一号线大剧院站)/深圳大学成教院 【北京分部】:北京中山学院/福鑫大楼 【南京分部】:金港大厦(和燕路) 【武汉分部】:佳源大厦(高新二路) 【成都分部】:领馆区1号(中和大道) 【沈阳分部】:沈阳理工大学/六宅臻品 【郑州分部】:郑州大学/锦华大厦 【石家庄分部】:河北科技大学/瑞景大厦 【广州分部】:广粮大厦 【西安分部】:协同大厦
最近开课时间(周末班/连续班/晚班):即将开课,详情请咨询客服! |
实.验.设.备 |
◆课时: 共5 部份,30学时
☆注重质量
☆边讲边练
☆合格学员免费推荐工作
★实.验.设.备请点击这儿查看★ |
质.量.保.障 |
1、免费重修;
2、课程结束后,授课老师留联系方式,保障培训效果,免费技术支持。
3、推荐机会。 |
大纲 |
|
一、机器学习 1)机器学习概述2)定义问题
二、数据预处理 1)特征抽取2)特征转换3)归一化
三、线性回归算法 1)线性回归2)Ridge岭回归3)Lasso回归4)Elastic Net算法
四、KNN K近邻算法 1)KNN算法原理2)KNN算法应用
五、逻辑回归算法 1)sigmoid函数2)逻辑回归的损失函数3)逻辑回归的优化4)逻辑回归的多分类问题5)Softmax回归多分类
六、梯度下降算法 1)批量梯度下降2)随机梯度下降3)mini-batch梯度下降
七、牛顿法与拟牛顿法 1)牛顿法求函数根2)牛顿法求解函数最优化问题3)拟牛顿法—L-BFGS
八、决策树算法 1)决策树的简介2)CART、ID-3、C4.53)gini系数4)信息增益5)信息增益率6)叶子节点的表达7)回归树8)预剪枝和后剪
九、Bagging集成算法 1)bootstrap2)随机森林
十、Adaboost算法 1)Adaboost算法流程2)Adaboost算法损失函数优化
十一、GBDT算法 1)函数空间梯度下降2)GBM框架3)GBDT算法解决回归问题
十二、XGboost和lightGBM算法 1)目标函数的建立2)子树的分裂条件3) 子树叶子节点的表达4)与传统GBDT的比较
十三、支持向量机 1)线性可分支持向量机2)软间隔支持向量机3)核函数方法4)SMO算法5)SVM回归SVR和分类SVC
十四、聚类算法 1)各种相似度距离测度方法2)K-Means算法3)K-Means算法优缺点4)密度聚类5)层级聚类6)谱聚类
十五、PCA主成分分析算法 1) 方差最大化投影2) 矩阵的特征值与特征向量3) PCA降维
十六、LDA降维 1) LDA投影标准2) LDA降维算法
十七、MDS降维算法 1) 基于空间距离保持的方法2) MDS算法原理
十八、ISO-map降维算法 1) 近似测地距离的计算2) 最短路径距离算法3) ISO-map算法原理
十九、LLE算法 1) 数据点的局部线性关系2) LLE算法原理
二十、SVD奇异值分解算法 1) 方阵的特征值分解2) 矩阵的奇异值分解3) 左右奇异向量4) 推荐系统应用
二十一、ALS矩阵分解算法 1) 矩阵分解的另一种方式2) 评估近似矩阵的方法3) ALS矩阵分解
二十二、FM 因子分解机 1) FM模型介绍2) FM算法详解
二十三、朴素贝叶斯算法 1)朴素贝叶斯2)文本分类上的应用
二十四、贝叶斯网络 1) 有向概率图模型2) 生成模型3) 贝叶斯网络联合分布的表达4) 贝叶斯网络性质
二十五、隐马尔可夫模型 1)隐马可夫模型的基本概念2)概率计算问题3)前向/后向算法4)维特比算法
二十六、最大熵模型 1) 随机变量的熵、联合熵、相对熵、互信息
2) 最大熵原理 3)最大熵模型的学习 4)最大似然估计 5)模型学习的最优化算法
二十七、EM算法 1)EM算法原理及收敛性2)EM算法在高斯混合模型学习中的应用
二十八、条件随机场 1)条件随机场的定义与形式2)条件随机场的学习方法
二十九、PLSA 主题模型 1) LSA潜语义分析2) PLSA的模型拓扑3) EM算法应用于PLSA模型训练
三十、LDA主题模型 1)LDA主题模型概述2)共轭先验分布3)狄利克雷分布4)Laplace平滑5)Gibbs采样详解6)LDA与词向量Word2Vec效果比较
三十一、神经网络 1) 前向传播2) 反向传播3) 激活函数4) 梯度弥散/消失5) 参数初始化6) 多层感知机
|