Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

Commit 5aeddce

Browse files
📝 fix catalog of readme
1 parent 4f71b0c commit 5aeddce

File tree

1 file changed

+63
-64
lines changed

1 file changed

+63
-64
lines changed

‎readme.md‎

Lines changed: 63 additions & 64 deletions
Original file line numberDiff line numberDiff line change
@@ -3,73 +3,72 @@
33

44
[![MIT license](https://img.shields.io/dub/l/vibe-d.svg)](https://github.com/lawlite19/MachineLearning_Python/blob/master/LICENSE)
55

6-
76
## 目录
87
* [机器学习算法Python实现](#机器学习算法python实现)
9-
* [一、线性回归](#一-线性回归)
10-
* [1、代价函数](#1-代价函数)
11-
* [2、梯度下降算法](#2-梯度下降算法)
12-
* [3、均值归一化](#3-均值归一化)
13-
* [4、最终运行结果](#4-最终运行结果)
14-
* [5、使用scikit-learn库中的线性模型实现](#5-使用scikit-learn库中的线性模型实现)
15-
* [二、逻辑回归](#二-逻辑回归)
16-
* [1、代价函数](#1-代价函数)
17-
* [2、梯度](#2-梯度)
18-
* [3、正则化](#3-正则化)
19-
* [4、S型函数(即)](#4-s型函数即)
20-
* [5、映射为多项式](#5-映射为多项式)
21-
* [6、使用的优化方法](#6-使用的优化方法)
22-
* [7、运行结果](#7-运行结果)
23-
* [8、使用scikit-learn库中的逻辑回归模型实现](#8-使用scikit-learn库中的逻辑回归模型实现)
8+
* [一、线性回归](#一线性回归)
9+
* [1、代价函数](#1代价函数)
10+
* [2、梯度下降算法](#2梯度下降算法)
11+
* [3、均值归一化](#3均值归一化)
12+
* [4、最终运行结果](#4最终运行结果)
13+
* [5、使用scikit-learn库中的线性模型实现](#5使用scikit-learn库中的线性模型实现)
14+
* [二、逻辑回归](#二逻辑回归)
15+
* [1、代价函数](#1代价函数)
16+
* [2、梯度](#2梯度)
17+
* [3、正则化](#3正则化)
18+
* [4、S型函数(即)](#4s型函数即)
19+
* [5、映射为多项式](#5映射为多项式)
20+
* [6、使用的优化方法](#6使用的优化方法)
21+
* [7、运行结果](#7运行结果)
22+
* [8、使用scikit-learn库中的逻辑回归模型实现](#8使用scikit-learn库中的逻辑回归模型实现)
2423
* [逻辑回归_手写数字识别_OneVsAll](#逻辑回归_手写数字识别_onevsall)
25-
* [1、随机显示100个数字](#1-随机显示100个数字)
26-
* [2、OneVsAll](#2-onevsall)
27-
* [3、手写数字识别](#3-手写数字识别)
28-
* [4、预测](#4-预测)
29-
* [5、运行结果](#5-运行结果)
30-
* [6、使用scikit-learn库中的逻辑回归模型实现](#6-使用scikit-learn库中的逻辑回归模型实现)
31-
* [三、BP神经网络](#三-bp神经网络)
32-
* [1、神经网络model](#1-神经网络model)
33-
* [2、代价函数](#2-代价函数)
34-
* [3、正则化](#3-正则化)
35-
* [4、反向传播BP](#4-反向传播bp)
36-
* [5、BP可以求梯度的原因](#5-bp可以求梯度的原因)
37-
* [6、梯度检查](#6-梯度检查)
38-
* [7、权重的随机初始化](#7-权重的随机初始化)
39-
* [8、预测](#8-预测)
40-
* [9、输出结果](#9-输出结果)
41-
* [四、SVM支持向量机](#四-svm支持向量机)
42-
* [1、代价函数](#1-代价函数)
43-
* [2、Large Margin](#2-large-margin)
44-
* [3、SVM Kernel(核函数)](#3-svm-kernel核函数)
45-
* [4、使用中的模型代码](#4-使用中的模型代码)
46-
* [5、运行结果](#5-运行结果)
47-
* [五、K-Means聚类算法](#五-k-means聚类算法)
48-
* [1、聚类过程](#1-聚类过程)
49-
* [2、目标函数](#2-目标函数)
50-
* [3、聚类中心的选择](#3-聚类中心的选择)
51-
* [4、聚类个数K的选择](#4-聚类个数k的选择)
52-
* [5、应用——图片压缩](#5-应用图片压缩)
53-
* [6、使用scikit-learn库中的线性模型实现聚类](#6-使用scikit-learn库中的线性模型实现聚类)
54-
* [7、运行结果](#7-运行结果)
55-
* [六、PCA主成分分析(降维)](#六-pca主成分分析降维)
56-
* [1、用处](#1-用处)
57-
* [2、2D-->1D,nD-->kD](#2-2d-1dnd-kd)
58-
* [3、主成分分析PCA与线性回归的区别](#3-主成分分析pca与线性回归的区别)
59-
* [4、PCA降维过程](#4-pca降维过程)
60-
* [5、数据恢复](#5-数据恢复)
61-
* [6、主成分个数的选择(即要降的维度)](#6-主成分个数的选择即要降的维度)
62-
* [7、使用建议](#7-使用建议)
63-
* [8、运行结果](#8-运行结果)
64-
* [9、使用scikit-learn库中的PCA实现降维](#9-使用scikit-learn库中的pca实现降维)
65-
* [七、异常检测 Anomaly Detection](#七-异常检测-anomaly-detection)
66-
* [1、高斯分布(正态分布)](#1-高斯分布正态分布)
67-
* [2、异常检测算法](#2-异常检测算法)
68-
* [3、评价的好坏,以及的选取](#3-评价的好坏以及的选取)
69-
* [4、选择使用什么样的feature(单元高斯分布)](#4-选择使用什么样的feature单元高斯分布)
70-
* [5、多元高斯分布](#5-多元高斯分布)
71-
* [6、单元和多元高斯分布特点](#6-单元和多元高斯分布特点)
72-
* [7、程序运行结果](#7-程序运行结果)
24+
* [1、随机显示100个数字](#1随机显示100个数字)
25+
* [2、OneVsAll](#2onevsall)
26+
* [3、手写数字识别](#3手写数字识别)
27+
* [4、预测](#4预测)
28+
* [5、运行结果](#5运行结果)
29+
* [6、使用scikit-learn库中的逻辑回归模型实现](#6使用scikit-learn库中的逻辑回归模型实现)
30+
* [三、BP神经网络](#三bp神经网络)
31+
* [1、神经网络model](#1神经网络model)
32+
* [2、代价函数](#2代价函数)
33+
* [3、正则化](#3正则化)
34+
* [4、反向传播BP](#4反向传播bp)
35+
* [5、BP可以求梯度的原因](#5bp可以求梯度的原因)
36+
* [6、梯度检查](#6梯度检查)
37+
* [7、权重的随机初始化](#7权重的随机初始化)
38+
* [8、预测](#8预测)
39+
* [9、输出结果](#9输出结果)
40+
* [四、SVM支持向量机](#四svm支持向量机)
41+
* [1、代价函数](#1代价函数)
42+
* [2、Large Margin](#2large-margin)
43+
* [3、SVM Kernel(核函数)](#3svm-kernel核函数)
44+
* [4、使用中的模型代码](#4使用中的模型代码)
45+
* [5、运行结果](#5运行结果)
46+
* [五、K-Means聚类算法](#五k-means聚类算法)
47+
* [1、聚类过程](#1聚类过程)
48+
* [2、目标函数](#2目标函数)
49+
* [3、聚类中心的选择](#3聚类中心的选择)
50+
* [4、聚类个数K的选择](#4聚类个数k的选择)
51+
* [5、应用——图片压缩](#5应用图片压缩)
52+
* [6、使用scikit-learn库中的线性模型实现聚类](#6使用scikit-learn库中的线性模型实现聚类)
53+
* [7、运行结果](#7运行结果)
54+
* [六、PCA主成分分析(降维)](#六pca主成分分析降维)
55+
* [1、用处](#1用处)
56+
* [2、2D-->1D,nD-->kD](#22d-1dnd-kd)
57+
* [3、主成分分析PCA与线性回归的区别](#3主成分分析pca与线性回归的区别)
58+
* [4、PCA降维过程](#4pca降维过程)
59+
* [5、数据恢复](#5数据恢复)
60+
* [6、主成分个数的选择(即要降的维度)](#6主成分个数的选择即要降的维度)
61+
* [7、使用建议](#7使用建议)
62+
* [8、运行结果](#8运行结果)
63+
* [9、使用scikit-learn库中的PCA实现降维](#9使用scikit-learn库中的pca实现降维)
64+
* [七、异常检测 Anomaly Detection](#七异常检测-anomaly-detection)
65+
* [1、高斯分布(正态分布)](#1高斯分布正态分布)
66+
* [2、异常检测算法](#2异常检测算法)
67+
* [3、评价的好坏,以及的选取](#3评价的好坏以及的选取)
68+
* [4、选择使用什么样的feature(单元高斯分布)](#4选择使用什么样的feature单元高斯分布)
69+
* [5、多元高斯分布](#5多元高斯分布)
70+
* [6、单元和多元高斯分布特点](#6单元和多元高斯分布特点)
71+
* [7、程序运行结果](#7程序运行结果)
7372

7473
## 一、[线性回归](/LinearRegression)
7574
- [全部代码](/LinearRegression/LinearRegression.py)

0 commit comments

Comments
(0)

AltStyle によって変換されたページ (->オリジナル) /