1.
Introduction
2.
Chapter1 基础
2.1.
Jupyter Notebook
2.2.
Matplotlib
2.3.
mdbook
2.4.
Numpy
2.5.
Python Class
3.
Chapter4 最基础的分类算法-k近邻算法kNN
3.1.
kNN
3.2.
数据归一化
3.3.
scikit-learn中的Scaler
3.4.
kNN缺点
4.
Chapter5 线性回归法
4.1.
线性回归
4.2.
MSE/MAS/R Squared
4.3.
多元线性回归
5.
Chapter6 梯度下降法
5.1.
梯度下降法
5.2.
模拟实现梯度下降法
5.3.
线性回归中的梯度下降法
5.4.
实现线性回归中的梯度下降法
5.5.
梯度下降法的向量化和数据标准化
5.6.
随机梯度下降法
5.7.
scikit-learn 中的随机梯度下降法
5.8.
如何判断梯度下降法中梯度值是正确的
5.9.
小批量梯度下降法
6.
Chapter7 PCA和梯度上升法
6.1.
PCA
6.2.
使用梯度上升法求解PCA问题
6.3.
求数据主成分PCA
6.4.
求数据的前n个主成分
6.5.
高维数据向低维数据映射
6.6.
scikit-learn中的PCA
6.7.
MNIST 数据集
7.
Chapter8 多项式回归和模型泛化
7.1.
scikit-learn中的多项式回归和Pipeline
7.2.
过拟合和欠拟合
7.3.
训练数据集和测试数据集
7.4.
学习曲线
7.5.
验证数据集与交叉验证
7.6.
偏差方差权衡
7.7.
岭回归
7.8.
LASSO回归
7.9.
弹性网络
8.
Chapter9 逻辑回归
8.1.
逻辑回归
8.2.
逻辑回归的损失函数
8.3.
逻辑回归损失函数的梯度
8.4.
实现逻辑回归算法
8.5.
决策边界 - Decision Boundary
8.6.
逻辑回归中使用多项式特征
8.7.
逻辑回归中使用正则化
8.8.
OvR 与 OvO - 逻辑回归解决多分类问题
9.
Chapter10 评价分类结果
9.1.
准确度陷阱和混淆矩阵
9.2.
精准率和召回率的平衡
9.3.
精准率-召回率曲线
9.4.
ROC曲线
9.5.
多分类问题中的混淆矩阵
10.
Chapter11 SVM
10.1.
SVM
10.2.
SVM 背后的最优化问题
10.3.
Soft Margin SVM 和SVM 正则化
10.4.
scikit-learn中的SVM
10.5.
SVM中使用多项式特征和核函数
10.6.
核函数 - 多项式核为例
10.7.
高斯核函数
10.8.
BF核函数中的gamma
10.9.
使用SVM解决回归问题
11.
Chapter12 决策树
11.1.
决策树
11.2.
信息熵
11.3.
使用信息熵寻找最优划分
11.4.
基尼系数
11.5.
CART 与决策树中的超参数
11.6.
决策树解决回归问题
11.7.
决策树的局限性
12.
Chapter13 Ensemble Learning 集成学习
12.1.
集成学习
12.2.
Soft Voting Classifier
12.3.
Bagging and Pasting
12.4.
OOB(Out of Bag) 和关于Bagging的更多讨论
12.5.
随机森林和Extra-Trees
12.6.
Ada Boosting 和Gradient Boosting
12.7.
Stacking
Light (default)
Rust
Coal
Navy
Ayu
Python3 入门机器学习 经典算法与应用
SVM中使用多项式特征和核函数