1. 第一章 简介
1.1 机器学习(Machine Learning)
机器学习:研究能够从经验中自动提升自身性能的计算机算法。
从数学角度:机器学习就是从数据中学习一个函数𝑓 。
机器学习:能过从针对任务T的一些经验E和性能指标P中学习的计算机程序。同时它在任务T上的表现可以通过性能指标P来提高。
1.2 有监督学习(Supervised Learning)
给出“正确答案”。
回归(Regression):输出连续的值。
分类(Classification):输出离散的值。
1.3 无监督学习(Unsupervised Learning)
不给出任何标签,找到数据中暗含的结构或信息。
聚类算法(Clustering):
组织计算集群
社交网络分析
市场分割
天文数据分析
2. 第二章 线性回归(Linear Regression)
2.1 假设函数(hypothesis)
2.2 代价函数(cost function)
2.3 简化(Simplified)
2.4 重新加入θ 0 {\theta _0}θ
2.5 梯度下降(Gradient descent)
问题描述:
2.6 梯度下降总结
2.7 线性回归梯度下降
3. 第三章 线性代数基础
3.1 矩阵和向量(Matrices and vectors)
矩阵(Matrix)是一个按照长方阵列排列的复数或实数集合。
矩阵维数:行数*列数
A AA:矩阵,A i j {A_{ij}}A ij :表示第i ii行第j jj列的元素。
向量:n ∗ 1 n*1n∗1的矩阵
y yy:向量,n-dimension 向量
3.2 矩阵加减与标量(scalar)运算
两个行列相等的矩阵才可以相加减:对应元素相加减
标量同一个矩阵相加减乘除:标量与每个元素分别运算,矩阵维数不变
3.3 矩阵向量乘法
3.4 矩阵乘法
3.5 矩阵乘法特征
3.6 逆和转置
4. 第四章 多元线性回归
4.1 多元特征
4.2 多元变量梯度下降
4.3 多元变量梯度下降:特征缩放(Feature Scaling)
4.4 多元变量梯度下降:学习率α \alphaα
4.5 特征和多项式回归
4.6 正规方程(Normal equation)解析解法
4.7 正规方程:不可逆矩阵
5. 第五章 Octave基础
主要讲解 Octave语言,但是人生苦短,我选python,跳过!!!