|
17 | 17 | * [3、正则化](#3正则化) |
18 | 18 | * [4、S型函数(即)](#4s型函数即) |
19 | 19 | * [5、映射为多项式](#5映射为多项式) |
20 | | - * [6、使用的优化方法](#6使用的优化方法) |
| 20 | + * [6、使用的优化方法](#6使用scipy的优化方法) |
21 | 21 | * [7、运行结果](#7运行结果) |
22 | 22 | * [8、使用scikit-learn库中的逻辑回归模型实现](#8使用scikit-learn库中的逻辑回归模型实现) |
23 | 23 | * [逻辑回归_手写数字识别_OneVsAll](#逻辑回归_手写数字识别_onevsall) |
|
41 | 41 | * [1、代价函数](#1代价函数) |
42 | 42 | * [2、Large Margin](#2large-margin) |
43 | 43 | * [3、SVM Kernel(核函数)](#3svm-kernel核函数) |
44 | | - * [4、使用中的模型代码](#4使用中的模型代码) |
| 44 | + * [4、使用中的模型代码](#4使用scikit-learn中的svm模型代码) |
45 | 45 | * [5、运行结果](#5运行结果) |
46 | 46 | * [五、K-Means聚类算法](#五k-means聚类算法) |
47 | 47 | * [1、聚类过程](#1聚类过程) |
|
53 | 53 | * [7、运行结果](#7运行结果) |
54 | 54 | * [六、PCA主成分分析(降维)](#六pca主成分分析降维) |
55 | 55 | * [1、用处](#1用处) |
56 | | - * [2、2D-->1D,nD-->kD](#22d-1dnd-kd) |
| 56 | + * [2、2D-->1D,nD-->kD](#22d--1dnd--kd) |
57 | 57 | * [3、主成分分析PCA与线性回归的区别](#3主成分分析pca与线性回归的区别) |
58 | 58 | * [4、PCA降维过程](#4pca降维过程) |
59 | 59 | * [5、数据恢复](#5数据恢复) |
|
62 | 62 | * [8、运行结果](#8运行结果) |
63 | 63 | * [9、使用scikit-learn库中的PCA实现降维](#9使用scikit-learn库中的pca实现降维) |
64 | 64 | * [七、异常检测 Anomaly Detection](#七异常检测-anomaly-detection) |
65 | | - * [1、高斯分布(正态分布)](#1高斯分布正态分布) |
| 65 | + * [1、高斯分布(正态分布)](#1高斯分布正态分布gaussian-distribution) |
66 | 66 | * [2、异常检测算法](#2异常检测算法) |
67 | | - * [3、评价的好坏,以及的选取](#3评价的好坏以及的选取) |
| 67 | + * [3、评价的好坏,以及的选取](#3评价px的好坏以及ε的选取) |
68 | 68 | * [4、选择使用什么样的feature(单元高斯分布)](#4选择使用什么样的feature单元高斯分布) |
69 | 69 | * [5、多元高斯分布](#5多元高斯分布) |
70 | 70 | * [6、单元和多元高斯分布特点](#6单元和多元高斯分布特点) |
|
0 commit comments