开发者社区> megachen> 正文

神经网络

简介: 神经网络案例 摘要 在Compute Vision(计算机视觉)中,我们输入的是一张一张的图片,但是在计算机看来,每一张图片都是由一个一个像素点组成的,那么,什么是我们的输入样本X,什么又是我们的标签y?在图像识别中,一张图片所有像素点就是一个样本,也就是矩阵X中的一行,y就是对这个图片判断的结果。
+关注继续查看

神经网络案例

摘要

  • 在Compute Vision(计算机视觉)中,我们输入的是一张一张的图片,但是在计算机看来,每一张图片都是由一个一个像素点组成的,那么,什么是我们的输入样本X,什么又是我们的标签y?在图像识别中,一张图片所有像素点就是一个样本,也就是矩阵X中的一行,y就是对这个图片判断的结果。可想而知,就算是一张50x50的图片,它的特征也有2500之多,如果他是RGB图片,那就是7500个特征,那么特征的值是什么?就是图片的亮度(intensity),它的是在0-255之间。在图像识别中,我们会将像素矩阵unrolled成为一个向量,将这个向量作为一个训练集。如果要可视化图片,需要将其在转换为矩阵。
  • activation function(激活函数),其实它就是在机器学习领域中的sigmoid(logistic)函数,这是在神经网络中换了一个名字罢了。
  • 在深度学习中,我们会遇到比较复杂的\(J(\theta)\)目标函数(cost function), 一般情况下,使用梯度下降的方法来计算\(J(\theta)\)目标函数的最小值,有下面这个梯度下降公式\[\theta := \theta - {{\partial}\over{\partial{\theta}}}J(\theta)\]其实\({{\partial}\over{\partial{\theta}}}J(\theta)\)是梯度,梯度下降公式的关键点就是计算出梯度,在线性回归和逻辑回归这些简单的模型中的目标函数的梯度是好求的,可以直接带入偏导的公式,但是在深度学习中比较复杂,求梯度需要回归到最原始的求法,使用定义法进行求导,不过这样的计算量非常的大,于是后来就诞生了反向传播算法(backpropagation algorithm),这个算法大量地使用了链式求导法则。大致上是下面的公式(如果实现了反向传播算法,要通过梯度检测,之后再投入到训练中,因为反向传播算法比较的复杂,实现起来可以会有bug)
    • 假设我们现在有4个layer,输出层是一个节点(这是一个单分类的问题)
    • \(\delta^{(4)}=(a^{(4)}-y)\)
    • \(\delta^{(3)}=({\theta^{(3)}})^{T}{\delta}^{(4)} \times g(z^{(3)})\), 其中\(\delta^{(3)}\), \(z^{(3)}\)等都是向量或者矩阵,建议在数学公式推导的时候使用实数,在推导结束时候,放到matlab等应用的时候将其转为向量或者矩阵表示。
    • \(\delta^{(2)} = ({\theta^{(2)}})^{T}{\delta}^{(3)} \times g(z^{(2)})\)
    • 第一层是不需要计算误差的,因为它是我们原始的输入层。
    • 上述式子中的\(g(z^{(3)})\)等于sigmoid(\(z^{(3)}\))(sigmoid(\(z^{(3)} - 1\)))
  • 梯度检测(gradient checking)
    • 在上面我们已经知道了,在使用了反向传播算法计算出误差值(error),为了防止使用反向传播高级算法出现bug,需要使用正规的求导的方法来检测反向传播算法是否出现了bug,只要gradApprox \(\approx\) DVec则表示没有bug,对于如何实现梯度检测,只需要构建一个小型的神经网络,接着生成一些数据X和标签y分别输入到反向传播函数和一般计算梯度的函数中,最后将结果进行比较即可
  • 在神经网络中会有非常多的参数,为这些参数赋予初始值是非常重要的,于是就产生了随机初始化的方法(random initialize), 一个参数表示为\(\theta_{ji}^{(l)}\),随机初始化的目的就是将\(\epsilon\)的初始值在\(-\epsilon\)\(\delta\)之间
  • 在进行反向传播的时候,计算出来的error item \(\delta\) 的个数与参数的个数一样的,因为error item与每一个与之对应的参数密切相关,我们要通过error item计算出参数的梯度theta_grad,当所有的训练样本都输入进去并参与到了error item的运算中去的时候,得到的theta_grad与参数是同维度的,由此可以推断出,error item 也是与参数同维度的,这里将error item \(\approx {{\partial}\over{\partial{\theta}}}J(\theta)\)$,这样就计算出了梯度,接下来就可以更新参数了
  • 我们知道在神经网络中我们的参数\(\theta\)成为了多个矩阵,返回的梯度也成为多个矩阵,这与我们之前学习的线性回归和逻辑回归不同,他们的是一个列向量,上面提到的是在一次迭代中,因此为了统一和方便编程,将几个矩阵全部unrolled成为一个列向量

规定

  • L: 表示layer的个数
  • \(a_{i}^{(j)}\): 表示第j层layer的第i个单元(unit)
  • \(s_{j}\): 表示第j层layer的单元的个数
  • \(\Theta^{(j)}\): 表示第j层layer的权重矩阵

代码

  • costFunction

% 将y标签的值转为[0 0 0 0 1 0 0 0 0 0 ...]的形式
% 使用for循环迭代每一个样本
% 注意,显示的情况就是参数都已经有了,在一个for循环中,输入的是一个样本
tmp = (1:num_labels)';
for i = 1:m
   % 将其中的一个样本的标签转化为[0 0 0 0 0 1 ... 0 0]形式
   % 神经网络的前向传播
   y_new = y(i) == tmp;
   x = [1 X(i, :)];
   z_2 = Theta1 * x';
   a_2 = sigmoid(z_2); % 25x1 demensions
   z_3 = Theta2 * [1, a_2']';
   a_3 = sigmoid(z_3);
   % 计算损失函数
   J = J + sum(-y_new .* log(a_3) - (1 - y_new) .* log(1 - a_3));
   
   % 神经网络的后向传播
   delta_3 = a_3 - y_new;
   delta_2 = Theta2' * delta_3 .* [1; sigmoidGradient(z_2)];
   delta_2 = delta_2(2:end);
   Theta1_grad = Theta1_grad + delta_2 * x;
   Theta2_grad = Theta2_grad + delta_3 * [1 a_2'];
   
end
J = 1 / m * J;
J = J + lambda / (2 * m) * (sum(sum(Theta1 .^ 2)) + sum(sum(Theta2 .^ 2)));
% =========================================================================
Theta1_grad = Theta1_grad / m + lambda / m * Theta1;
Theta1_grad(:, 1) = Theta1_grad(:, 1) - lambda /m * Theta1(:, 1);

Theta2_grad = Theta2_grad / m + lambda / m * Theta2;
Theta2_grad(:, 1) = Theta2_grad(:, 1) - lambda / m * Theta2(:, 2);
% Unroll gradients
grad = [Theta1_grad(:) ; Theta2_grad(:)];

end
  • randomInitWeights
% You need to return the following variables correctly 
W = zeros(L_out, 1 + L_in);

% ====================== YOUR CODE HERE ======================
% Instructions: Initialize W randomly so that we break the symmetry while
%               training the neural network.
%
% Note: The first column of W corresponds to the parameters for the bias unit
%
epsilon_init = 0.12;
W = rand(L_out, L_in + 1) * 2 * epsilon_init - epsilon_init; 

% =========================================================================

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
阿里云服务器如何登录?阿里云服务器的三种登录方法
购买阿里云ECS云服务器后如何登录?场景不同,大概有三种登录方式:
9518 0
使用SSH远程登录阿里云ECS服务器
远程连接服务器以及配置环境
13164 0
阿里云服务器怎么设置密码?怎么停机?怎么重启服务器?
如果在创建实例时没有设置密码,或者密码丢失,您可以在控制台上重新设置实例的登录密码。本文仅描述如何在 ECS 管理控制台上修改实例登录密码。
20194 0
腾讯云服务器 设置ngxin + fastdfs +tomcat 开机自启动
在tomcat中新建一个可以启动的 .sh 脚本文件 /usr/local/tomcat7/bin/ export JAVA_HOME=/usr/local/java/jdk7 export PATH=$JAVA_HOME/bin/:$PATH export CLASSPATH=.
13788 0
阿里云服务器端口号设置
阿里云服务器初级使用者可能面临的问题之一. 使用tomcat或者其他服务器软件设置端口号后,比如 一些不是默认的, mysql的 3306, mssql的1433,有时候打不开网页, 原因是没有在ecs安全组去设置这个端口号. 解决: 点击ecs下网络和安全下的安全组 在弹出的安全组中,如果没有就新建安全组,然后点击配置规则 最后如上图点击添加...或快速创建.   have fun!  将编程看作是一门艺术,而不单单是个技术。
18464 0
阿里云服务器如何登录?阿里云服务器的三种登录方法
购买阿里云ECS云服务器后如何登录?场景不同,云吞铺子总结大概有三种登录方式: 登录到ECS云服务器控制台 在ECS云服务器控制台用户可以更改密码、更换系统盘、创建快照、配置安全组等操作如何登录ECS云服务器控制台? 1、先登录到阿里云ECS服务器控制台 2、点击顶部的“控制台” 3、通过左侧栏,切换到“云服务器ECS”即可,如下图所示 通过ECS控制台的远程连接来登录到云服务器 阿里云ECS云服务器自带远程连接功能,使用该功能可以登录到云服务器,简单且方便,如下图:点击“远程连接”,第一次连接会自动生成6位数字密码,输入密码即可登录到云服务器上。
33165 0
使用NAT网关轻松为单台云服务器设置多个公网IP
在应用中,有时会遇到用户询问如何使单台云服务器具备多个公网IP的问题。 具体如何操作呢,有了NAT网关这个也不是难题。
34970 0
阿里云服务器安全组设置内网互通的方法
虽然0.0.0.0/0使用非常方便,但是发现很多同学使用它来做内网互通,这是有安全风险的,实例有可能会在经典网络被内网IP访问到。下面介绍一下四种安全的内网互联设置方法。 购买前请先:领取阿里云幸运券,有很多优惠,可到下文中领取。
18901 0
+关注
megachen
Just for fun
180
文章
0
问答
文章排行榜
最热
最新
相关电子书
更多
JS零基础入门教程(上册)
立即下载
性能优化方法论
立即下载
手把手学习日志服务SLS,云启实验室实战指南
立即下载