6. 第六章 逻辑回归(Logistic Regression)
6.1 分类(Classification)
6.2 逻辑回归:假设陈述
6.3 决策边界(Decision Boundary)
6.4 损失函数(Cost Function)
6.5 简化代价函数与梯度下降
6.6 高级优化方法
优化算法:
梯度下降法(常用,简单)
共轭梯度法(conjugate gradient)
拟牛顿法(BFGS)
L-BFGS
高级优化算法的优点:
无需手动挑选学习率α \alphaα
通常比梯度下降法更快
高级优化算法的缺点:
更复杂
6.7 多分类:一对多(one-vs-all)
7. 第七章 正则化(Regularization)
7.1 过拟合问题(overfitting)
7.2 代价函数(cost function)
7.4 正则化逻辑回归
8. 第八章 神经网络:表示(Neural Network:Representation)
8.1 非线性假设(Non-linear hypothesis)
8.2 神经元和大脑
起源:算法尝试模仿大脑。
神经网络在80年代和90年代早期非常流行,在90年代后期流行度下降。
近来神经网络热度重新上升:已经在很多应用领域成为目前最先进的方法。
amazing:你能把几乎任何传感器接入到大脑中,大脑的学习算法就能找出学习数据的方法,并处理这些数据。这真是太神奇了,这也告诉我们通用人工智能是可行的,存在的!!!
8.3 模型展示1
8.4 模型展示2
8.5 示例与直观解释1
非线性分类器可以处理异或问题,而线性分类器不行。
8.6 示例与直观解释2
8.7 多分类
最后输出层输出n维向量,每一维表示是这一类的概率。