封面
版权信息
作者简介
内容简介
前言PREFACE
第1章 环境配置
1.1 安装Conda
1.1.1 Windows环境
1.1.2 Linux环境
1.2 替换源
1.3 Conda环境管理
1.3.1 虚拟环境安装
1.3.2 虚拟环境使用
1.4 PyCharm安装与配置
1.5 小结
第2章 线性回归
2.1 模型的建立与求解
2.1.1 理解线性回归模型
2.1.2 建立线性回归模型
2.1.3 求解线性回归模型
2.1.4 sklearn简介
2.1.5 安装sklearn及其他库
2.1.6 线性回归示例代码
2.1.7 小结
2.2 多变量线性回归
2.2.1 理解多变量
2.2.2 多变量线性回归建模
2.2.3 多变量回归示例代码
2.3 多项式回归
2.3.1 理解多项式
2.3.2 多项式回归建模
2.3.3 多项式回归示例代码
2.3.4 小结
2.4 回归模型评估
2.4.1 常见回归评估指标
2.4.2 回归指标示例代码
2.4.3 小结
2.5 梯度下降
2.5.1 方向导数与梯度
2.5.2 梯度下降算法
2.5.3 小结
2.6 正态分布
2.6.1 一个问题的出现
2.6.2 正态分布
2.7 目标函数推导
2.7.1 目标函数
2.7.2 求解梯度
2.7.3 矢量化计算
2.7.4 从零实现线性回归
2.7.5 小结
第3章 逻辑回归
3.1 模型的建立与求解
3.1.1 理解逻辑回归模型
3.1.2 建立逻辑回归模型
3.1.3 求解逻辑回归模型
3.1.4 逻辑回归示例代码
3.1.5 小结
3.2 多变量与多分类
3.2.1 多变量逻辑回归
3.2.2 多分类逻辑回归
3.2.3 多分类示例代码
3.2.4 小结
3.3 常见的分类评估指标
3.3.1 二分类场景
3.3.2 二分类指标示例代码
3.3.3 多分类场景
3.3.4 多分类指标示例代码
3.3.5 小结
3.4 目标函数推导
3.4.1 映射函数
3.4.2 概率表示
3.4.3 极大似然估计
3.4.4 求解梯度
3.4.5 从零实现二分类逻辑回归
3.4.6 从零实现多分类逻辑回归
3.4.7 小结
第4章 模型的改善与泛化
4.1 基本概念
4.2 特征标准化
4.2.1 等高线
4.2.2 梯度与等高线
4.2.3 标准化方法
4.2.4 特征组合与映射
4.2.5 小结
4.3 过拟合
4.3.1 模型拟合
4.3.2 过拟合与欠拟合
4.3.3 解决欠拟合与过拟合问题
4.3.4 小结
4.4 正则化
4.4.1 测试集导致糟糕的泛化误差
4.4.2 训练集导致糟糕的泛化误差
4.4.3 正则化中的参数更新
4.4.4 正则化示例代码
4.4.5 小结
4.5 偏差、方差与交叉验证
4.5.1 偏差与方差定义
4.5.2 模型的偏差与方差
4.5.3 超参数选择
4.5.4 模型选择
4.5.5 小结
4.6 实例分析手写体识别
4.6.1 数据预处理
4.6.2 模型选择
4.6.3 模型测试
4.6.4 小结
第5章 K近邻
5.1 K近邻思想
5.2 K近邻原理
5.2.1 算法原理
5.2.2 K值选择
5.2.3 距离度量
5.3 sklearn接口与示例代码
5.3.1 sklearn接口介绍
5.3.2 K近邻示例代码
5.3.3 小结
5.4 kd树
5.4.1 构造kd树
5.4.2 最近邻kd树搜索
5.4.3 最近邻搜索示例
5.4.4 K近邻kd树搜索
5.4.5 K近邻搜索示例
5.4.6 小结
第6章 朴素贝叶斯
6.1 朴素贝叶斯算法
6.1.1 概念介绍
6.1.2 理解朴素贝叶斯
6.1.3 计算示例
6.1.4 求解步骤
6.1.5 小结
6.2 贝叶斯估计
6.2.1 平滑处理
6.2.2 计算示例
6.2.3 小结
第7章 文本特征提取与模型复用
7.1 词袋模型
7.1.1 理解词袋模型
7.1.2 文本分词
7.1.3 构造词表
7.1.4 文本向量化
7.1.5 考虑词频的文本向量化
7.1.6 小结
7.2 基于贝叶斯算法的垃圾邮件分类
7.2.1 载入原始文本
7.2.2 制作数据集
7.2.3 训练模型
7.2.4 复用模型
7.2.5 小结
7.3 考虑权重的词袋模型
7.3.1 理解TF-IDF
7.3.2 TF-IDF计算原理
7.3.3 TF-IDF计算示例
7.3.4 TF-IDF示例代码
7.3.5 小结
7.4 词云图
7.4.1 生成词云图
7.4.2 自定义样式
7.4.3 小结
第8章 决策树与集成学习
8.1 决策树的基本思想
8.1.1 冠军球队
8.1.2 信息的度量
8.1.3 小结
8.2 决策树的生成之ID3与C4.5
8.2.1 基本概念与定义
8.2.2 计算示例
8.2.3 ID3生成算法
8.2.4 C4.5生成算法
8.2.5 特征划分
8.2.6 小结
8.3 决策树生成与可视化
8.3.1 ID3算法示例代码
8.3.2 决策树可视化
8.3.3 小结
8.4 决策树剪枝
8.4.1 剪枝思想
8.4.2 剪枝步骤
8.4.3 剪枝示例
8.4.4 小结
8.5 CART生成与剪枝算法
8.5.1 CART算法
8.5.2 分类树生成算法
8.5.3 分类树生成示例
8.5.4 分类树剪枝步骤
8.5.5 分类树剪枝示例
8.5.6 小结
8.6 集成学习
8.6.1 集成学习思想
8.6.2 集成学习种类
8.6.3 Bagging集成学习
8.6.4 Boosting集成学习
8.6.5 Stacking集成学习
8.6.6 小结
8.7 随机森林
8.7.1 随机森林原理
8.7.2 随机森林示例代码
8.7.3 特征重要性评估
8.7.4 小结
8.8 泰坦尼克号生还预测
8.8.1 读取数据集
8.8.2 特征选择
8.8.3 缺失值填充
8.8.4 特征值转换
8.8.5 乘客生还预测
8.8.6 小结
第9章 支持向量机
9.1 SVM思想
9.2 SVM原理
9.2.1 超平面的表达
9.2.2 函数间隔
9.2.3 几何间隔
9.2.4 最大间隔分类器
9.2.5 函数间隔的性质
9.2.6 小结
9.3 SVM示例代码与线性不可分
9.3.1 线性SVM示例代码
9.3.2 从线性不可分谈起
9.3.3 将低维特征映射到高维空间
9.3.4 SVM中的核技巧
9.3.5 从高维到无穷维
9.3.6 常见核函数
9.3.7 小结
9.4 SVM中的软间隔
9.4.1 软间隔定义
9.4.2 最大化软间隔
9.4.3 SVM软间隔示例代码
9.4.4 小结
9.5 拉格朗日乘数法
9.5.1 条件极值
9.5.2 求解条件极值
9.5.3 小结
9.6 对偶性与KKT条件
9.6.1 广义拉格朗日乘数法
9.6.2 原始优化问题
9.6.3 对偶优化问题
9.6.4 KKT条件
9.6.5 计算示例
9.6.6 小结
9.7 SVM优化问题
9.7.1 构造硬间隔广义拉格朗日函数
9.7.2 硬间隔求解计算示例
9.7.3 构造软间隔广义拉格朗日函数
9.7.4 软间隔中的支持向量
9.7.5 小结
9.8 SMO算法
9.8.1 坐标上升算法
9.8.2 SMO算法思想
9.8.3 SMO算法原理
9.8.4 偏置b求解
9.8.5 SVM算法求解示例
9.8.6 小结
第10章 聚类
10.1 聚类算法的思想
10.2 k-means聚类算法
10.2.1 算法原理
10.2.2 k值选取
10.2.3 k-means聚类示例代码
10.2.4 小结
10.3 k-means算法求解
10.3.1 k-means算法目标函数
10.3.2 求解簇中心矩阵Z
10.3.3 求解簇分配矩阵U
10.3.4 小结
10.4 从零实现k-means聚类算法
10.4.1 随机初始化簇中心
10.4.2 簇分配矩阵实现
10.4.3 簇中心矩阵实现
10.4.4 聚类算法实现
10.4.5 小结
10.5 k-means++聚类算法
10.5.1 算法原理
10.5.2 计算示例
10.5.3 从零实现k-means++聚类算法
10.5.4 小结
10.6 聚类评估指标
10.6.1 聚类纯度
10.6.2 兰德系数与F值
10.6.3 调整兰德系数
10.6.4 聚类指标示例代码
10.6.5 小结
10.7 加权k-means聚类算法
10.7.1 引例
10.7.2 加权k-means聚类算法思想
10.7.3 加权k-means聚类算法原理
10.7.4 加权k-means聚类算法迭代公式
10.7.5 从零实现加权k-means聚类算法
10.7.6 参数求解
10.7.7 小结
图书推荐
更新时间:2023-08-10 16:31:37