- 第1章 人工只能概述
机器是如何实现人类的智力呢?训练,模型(参数)。深度学习+神经网络。
深度学习前身是Artificial Neural Network。Input Layer, Hidden Layout, Output Layer。
前向传播(Forward Propagation)
最后层给出结论,概率向量。
ANN,层与层之间有大量链接,层内的神经元一般相互独立。
激活函数Activation Function。非线性。神经元将其他的数据做一个非线性变化,输出给下层。
成本函数Cost Function。定量评估特定输入值下,计算出来的输出结果与真实值偏差,调整层的权重,使最后的损失最小。反向传播Backward Propagation。
神经网络算法:计算、链接、评估、纠错、训练。深度学增加层数、神经元数量。
分类Classification,特征Feature,标记Label。有监督学习Supervised Learning。
无监督学习:Imsi[ervosed Learning。不明确分类,数据呈现聚群结构。聚类clustering;激励制度,强化学习Reinforcement Learning。
半监督学习Semi-Supervised Learning。
损失函数Loss Functing。
机器学习流行之前,需要大量的领域知识。
以统计方法为核心的机器学习成为主流后,重要的是做特征工程(Feature Engineering),不断调整参数。对于语音、图像相对困难。
深度学习,不需要过多提取特征,自动学习出特征。
TensorFlow支持异构设备分布式计算。
Convolutional Neural Network,Recurrent Neural Network,Long Short-Term Memory。
Tensorflow, Caffe, Torch7
Deep Flexibility,True Portability,Connect Research and Production,Auto-Differentiation, Language Options, Maximize Performance。
ImageNet Large Scale Visual Recognition Challenge
- 第2章 TensorFlow环境的准备
numpy,matplotlib,jupyter,scikit-image,librosa,nltk,keras,tflearn
- 第3章 可视化TensorFlow
playground.tensorflow.org
特征提取Feature Extraction,分类器Classifier。
测试损失Test loss,训练损失Training Loss。
TensorBoard,Graphs面板。