编辑点评:统计学习方法第二版李航pdf
统计学习是计算机及其应用领域的一门重要的学科。本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法等,小编今天也给大家准备了统计学习方法第二版李航pdf供大家下载,有需要的就快来下载吧
内容简介
统计学习是计算机及其应用领域的一门重要的学科。本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、
支持向量机、提升方法、em算法、隐马尔可夫模型和条件随机场等。除第1章概论和最后一章总结外,每章介绍一种方法。叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,
便于读者掌握统计学习方法的实质,学会运用。为满足读者进一步学习的需要,书中还介绍了一些相关研究,给出了少量习题,列出了主要参考文献。
《统计学习方法》是统计学习及相关课程的教学参考书,适用于高等院校文本数据挖掘、信息检索及自然语言处理等专业的大学生、研究生,也可供从事计算机应用相关专业的研发人员参考。
统计学习方法相关内容部分预览
作者简介
李航 日本京都大学电气工程系毕业,日本东京大学计算机科学博士。曾任职于日本NEC公司中央研究所,微软亚洲研究院高级研究员及主任研究员,现任华为诺亚方舟实验室首席科学家。
北京大学、南开大学、西安交通大学客座教授。研究方向包括信息检索、自然语言处理、统计机器学习及数据挖掘。
作品目录
《统计学习方法》
第1章统计学习方法概论
1.1统计学习
1.2监督学习
1.2.1基本概念
1.2.2问题的形式化
1.3统计学习三要素
1.3.1模型
1.3.2策略
1.3.3算法
1.4模型评估与模型选择
1.4.1训练误差与测试误差
1.4.2过拟合与模型选择
1.5i~则化与交叉验证
1.5.1正则化
1.5.2交叉验证
1.6泛化能力
1.6.1泛化误差
1.6.2泛化误差上界
1.7生成模型与判别模型
.1.8分类问题
1.9标注问题
1.10回归问题
本章概要
继续阅读
习题
参考文献
第2章感知机
2.1感知机模型
2.2感知机学习策略
2.2.1数据集的线性可分性
2.2.2感知机学习策略
2.3感知机学习算法
2.3.1感知机学习算法的原始形式
2.3.2算法的收敛性
2.3.3感知机学习算法的对偶形式
本章概要
继续阅读
习题
参考文献
第3章众近邻法
3.1 k近邻算法
3.2 k近邻模型
3.2.1模型
3.2.2距离度量
·3.2.3 k值的选择
3.2.4分类决策规则
3.3k近邻法的实现:kd树
3.3.1构造af树
3.3.2搜索af树
本章概要
继续阅读
习题
参考文献
第4章朴素贝叶斯法
4.1朴素贝叶斯法的学习与分类
4.1.1基本方法
4.1.2后验概率最大化的含义
4.2朴素贝叶斯法的参数估计
4.2.1极大似然估计
4.2.2学习与分类算法
4.2.3贝叶斯估计
本章概要
继续阅读
习题
参考文献
第5章决策树
5.1决策树模型与学习
5.1.1决策树模型
5.1.2决策树与isthen规则
5.1.3决策树与条件概率分布
5.1.4决策树学习
5.2特征选择
5.2.1特征选择问题
5.2.2信息增益
5.2.3信息增益比
5.3决策树的生成
5.3.11d3算法
5.3.2 c4.5的生成算法
5.4决策树的剪枝
5.5cart算法
5.5.1cart生成
5.5.2cart剪枝
本章概要
继续阅读
习题
参考文献
第6章逻辑斯谛回归与最大熵模型
6.1逻辑斯谛回归模型
6.1.1逻辑斯谛分布
6.1.2项逻辑斯谛回归模型
6.1.3模型参数估计
6.1.4多项逻辑斯谛回归
6.2最大熵模型
6.2.1最大熵原理
6.2.2最大熵模型的定义
6.2.3最大熵模型的学习
6.2.4极大似然估计
6.3模型学习的最优化算法
6.3.1改进的迭代尺度法
6.3.2拟牛顿法
本章概要
继续阅读
习题
参考文献
第7章支持向量机
7.1线性可分支持向量机与硬间隔最大化
7.1.1线性可分支持向量机
7.1.2函数间隔和几何间隔
7.1.3间隔最大化
7.1.4学习的对偶算法
7.2线性支持向量机与软间隔最大化
7.2.1线性支持向量机
7.2.2学习的对偶算法
7.2.3支持向量
7.2.4合页损失函数
7.3非线性支持向量机与核函数
7.3.1核技巧
7.3.2定核
7.3.3常用核函数
7.3.4非线性支持向量分类机
7.4序列最小最优化算法
7.4.1两个变量二次规划的求解方法
7.4.2变量的选择方法
7.4.3smo算法
本章概要
继续阅读
习题
参考文献
第8章提升方法
8.1提升方法adaboost算法
8.1.1提升方法的基本思路
8.1.2adaboost算法
8.1.3 adaboost的例子
8.2adaboost算法的训练误差分析
8.3 adaboost算法的解释
8.3.1前向分步算法
8.3.2前向分步算法与ad9boost
8.4提升树
8.4.1提升树模型
8.4.2提升树算法
8.4.3梯度提升
本章概要
继续阅读
习题
参考文献
第9章em算法及其推广
9.1em算法的引入
9.1.1em算法
9.1.2em算法的导出
9.1.3em算法在非监督学习中的应用
9.2em算法的收敛性
9.3em算法在高斯混合模型学习中的应用
9.3.1高斯混合模型
9.3.2高斯混合模型参数估计的em算法
9.4em算法的推广
9.4.1f函数的极大极大算法
9.4.2gem算法
本章概要
继续阅读
习题
参考文献
第10章隐马尔可夫模型
10.1隐马尔可夫模型的基本概念
10.1.1隐马尔可夫模型的定义
10.1.2观测序列的生成过程
10.1.3隐马尔可夫模型的3个基本问题
10.2概率计算算法
10.2.1直接计算法
10.2.2前向算法
10.2.3后向算法
10.2.4一些概率与期望值的计算
10.3学习算法
10.3.1监督学习方法
10.3.2baum-welch算法
10.3.3baum-welch模型参数估计公式
10.4预测算法
10.4.1近似算法
10.4.2维特比算法
本章概要
继续阅读
习题
参考文献
第11章条件随机场
11.1概率无向图模型
11.1.1模型定义
11.1.2概率无向图模型的因子分解
11.2条件随机场的定义与形式
11.2.1条件随机场的定义
11.2.2条件随机场的参数化形式
11.2.3条件随机场的简化形式
11.2.4条件随机场的矩阵形式
11.3条件随机场的概率计算问题
11.3.1前向后向算法
11.3.2概率计算
11.3.3期望值的计算
11.4条件随机场的学习算法
11.4.1改进的迭代尺度法
11.4.2拟牛顿法
11.5条件随机场的预测算法
本章概要
继续阅读
习题
参考文献
第12章统计学习方法总结
附录a梯度下降法
附录b牛顿法和拟牛顿法
附录c拉格朗日对偶性
如何学习《统计学习方法》?
李航老师那本书提到的算法,需要理解到实现层面,能在黑板上能推到能讲清楚原理,应用场景,对比。那些都是企业常用的,最经典的算法。
因为每个人对具体算法的理解深浅和侧重不一样。面试一般侧重机器学习的基本问题,而不是深度挖掘一个研究方向的。
什么是过渡拟合,怎么控制模型复杂度,参数个数和训练样本大小关系,增量的学习。甚至工程的一些并行计算框架的了解等,都可以成为面试题目。不要猜题,而是整体把握,即使答不上来具体问题,也能显示你在机器学习上有个大概的认识。祝顺利
————-跑题——–不要听网上胡说,三个月速成机器学习,那是成功学,不是研究。
如果本科毕业工作,联系平衡一下工作和爱好的关系。相比开发测试运维,机器学习还是不稳定需求。
有追求。建议直接申请国外的博士,如果条件达不到。就一边工作一边学习概率线性代数统计以及机器学习基础的开放课程。准备雅思托福考试。这个过程也许半年也许几年,看个人。我是工作了两年后才出去读博的,晚一点,只要最后摸着路了也是值得的。
等你能写出自己的propose和有了语言成绩,就可以出来啦。
如果中途放弃,其实也没什么,每个人适合做的事情不一样。认真学习开发,运维,测试。一样成为应用专家,顶尖工程师。
Comments