深度学习中常用的优化方法

简介: 附python代码如下:#!/usr/bin/env python3# encoding: utf-8"""@version: 0.1@author: lyrichu@license: Apache Licence @contact: 919987476@qq.

img_c84aaf78969d05498de58580bce9ee5d.png

img_6cd59ed7083a5609dafb6cc39d8da5c5.png

img_f9b62f91ccda86ddb87ef710486d5f6a.png

img_a8caa715b04e492c0afb336d3e42f4a0.png

img_983d9bf3a84e0547f6667b9f570b5d3b.png

img_1d26102d025d2d9f394cc9e75aa2e5c0.png

附python代码如下:

#!/usr/bin/env python3
# encoding: utf-8
"""
@version: 0.1
@author: lyrichu
@license: Apache Licence 
@contact: 919987476@qq.com
@site: http://www.github.com/Lyrichu
@file: lyrichu_20180424_01.py
@time: 2018/04/24 16:02
@description:
Q1:使用python实现GD,SGD,Momentum,AdaGrad,RMSProp以及Adam优化算法
假设这里优化的目标函数是一个二元函数:y = w1x1 + w2x2 + b,数据点为
[(1,1),2],[(2,3),5],[(3,4),7],[(5,6),11],real w1 = w2 = 1,b = 0
"""
import random
from math import sqrt

data = [[(1,1),2],[(2,3),5],[(3,4),7],[(5,6),11]]
def GD(data,lr = 0.001,epoches = 10):
    random.seed(66) # 产生相同的随机数
    w1,w2,b = [random.random() for _ in range(3)]
    print("Using method GD,lr = %f,epoches = %d" % (lr,epoches))
    for i in range(epoches):
        w1_grads = sum([2*(w1*x1+w2*x2+b-y)*x1 for (x1,x2),y in data])
        w2_grads = sum([2*(w1*x1+w2*x2+b-y)*x2 for (x1,x2),y in data])
        b_grads = sum([2*(w1*x1+w2*x2+b-y) for (x1,x2),y in data])
        w1 -= lr*w1_grads
        w2 -= lr*w2_grads
        b -= lr*b_grads
        loss = sum([(w1*x1+w2*x2+b-y)**2 for (x1,x2),y in data])
        print("epoch %d,(w1,w2,b) = (%f,%f,%f),loss = %f" %(i+1,w1,w2,b,loss))


def SGD(data,lr = 0.001,epoches = 10):
    random.seed(66)  # 产生相同的随机数
    w1, w2, b = [random.random() for _ in range(3)]
    print("Using method SGD,lr = %f,epoches = %d" % (lr, epoches))
    for i in range(epoches):
        (x1,x2),y = random.choice(data) # 随机选择一个数据点
        w1_grads = 2*(w1 * x1 + w2 * x2 + b - y)*x1
        w2_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x2
        b_grads = 2 * (w1 * x1 + w2 * x2 + b - y)
        w1 -= lr * w1_grads
        w2 -= lr * w2_grads
        b -= lr * b_grads
        loss = sum([(w1 * x1 + w2 * x2 + b - y) ** 2 for (x1, x2), y in data])
        print("epoch %d,(w1,w2,b) = (%f,%f,%f),loss = %f" % (i + 1, w1, w2, b, loss))

def Momentum(data,beta = 0.9,lr = 0.001,epoches = 10):
    random.seed(66)  # 产生相同的随机数
    w1, w2, b = [random.random() for _ in range(3)]
    m = [0,0,0] # 初始动量
    print("Using method Momentum,lr = %f,beta = %f,epoches = %d" % (lr,beta,epoches))
    for i in range(epoches):
        (x1, x2), y = random.choice(data)  # 随机选择一个数据点
        w1_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x1
        w2_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x2
        b_grads = 2 * (w1 * x1 + w2 * x2 + b - y)
        m[0] = beta*m[0] + lr*w1_grads
        m[1] = beta*m[1] + lr*w2_grads
        m[2] = beta*m[2] + lr*b_grads
        w1 -= m[0]
        w2 -= m[1]
        b -= m[2]
        loss = sum([(w1 * x1 + w2 * x2 + b - y) ** 2 for (x1, x2), y in data])
        print("epoch %d,(w1,w2,b) = (%f,%f,%f),loss = %f" % (i + 1, w1, w2, b, loss))


def AdaGrad(data,eta = 1e-8,lr = 0.1,epoches = 10):
    # eta 是平滑系数(非常小的一个正数)
    s = 0
    random.seed(66)  # 产生相同的随机数
    w1, w2, b = [random.random() for _ in range(3)]
    print("Using method AdaGrad,lr = %f,eta = %f,epoches = %d" % (lr,eta,epoches))
    for i in range(epoches):
        (x1, x2), y = random.choice(data)  # 随机选择一个数据点
        w1_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x1
        w2_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x2
        b_grads = 2 * (w1 * x1 + w2 * x2 + b - y)
        s += sum([i**2 for i in [w1_grads,w2_grads,b_grads]])
        s1 = sqrt(s+eta)
        w1 -= lr*w1_grads/s1
        w2 -= lr*w2_grads/s1
        b -= lr*b_grads/s1
        loss = sum([(w1 * x1 + w2 * x2 + b - y) ** 2 for (x1, x2), y in data])
        print("epoch %d,(w1,w2,b) = (%f,%f,%f),loss = %f" % (i + 1, w1, w2, b, loss))



def RMSProp(data,eta = 1e-8,beta = 0.9,lr =0.1,epoches = 10):
    # eta 是平滑系数(非常小的一个正数)
    s = 0
    random.seed(66)  # 产生相同的随机数
    w1, w2, b = [random.random() for _ in range(3)]
    print("Using method RMSProp,lr = %f,beta = %f,eta = %f,epoches = %d" % (lr,beta,eta,epoches))
    for i in range(epoches):
        (x1, x2), y = random.choice(data)  # 随机选择一个数据点
        w1_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x1
        w2_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x2
        b_grads = 2 * (w1 * x1 + w2 * x2 + b - y)
        s = beta*s + (1-beta)*sum([i ** 2 for i in [w1_grads, w2_grads, b_grads]])
        s1 = sqrt(s + eta)
        w1 -= lr*w1_grads / s1
        w2 -= lr*w2_grads / s1
        b -= lr*b_grads / s1
        loss = sum([(w1 * x1 + w2 * x2 + b - y) ** 2 for (x1, x2), y in data])
        print("epoch %d,(w1,w2,b) = (%f,%f,%f),loss = %f" % (i + 1, w1, w2, b, loss))

def Adam(data,eta = 1e-8,beta1 = 0.9,beta2 = 0.99,lr = 0.1,epoches = 10):
    # eta 是平滑系数(非常小的一个正数)
    s = 0
    m = [0,0,0] # 动量
    random.seed(66)  # 产生相同的随机数
    w1, w2, b = [random.random() for _ in range(3)]
    print("Using method Adam,lr = %f,beta1 = %f,beta2 = %f,eta = %f,epoches = %d" % (lr, beta1,beta2,eta,epoches))
    for i in range(epoches):
        (x1, x2), y = random.choice(data)  # 随机选择一个数据点
        w1_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x1
        w2_grads = 2 * (w1 * x1 + w2 * x2 + b - y) * x2
        b_grads = 2 * (w1 * x1 + w2 * x2 + b - y)
        m[0] = beta1 * m[0] + (1-beta1)* w1_grads
        m[1] = beta1 * m[1] + (1-beta1)* w2_grads
        m[2] = beta1 * m[2] + (1-beta1)* b_grads
        m = [i/(1-beta1) for i in m]
        s = beta2 * s + (1 - beta2) * sum([i ** 2 for i in [w1_grads, w2_grads, b_grads]])
        s /= (1-beta2)
        s1 = sqrt(s + eta)
        w1 -= lr * m[0] / s1
        w2 -= lr * m[1] / s1
        b -= lr * m[2] / s1
        loss = sum([(w1 * x1 + w2 * x2 + b - y) ** 2 for (x1, x2), y in data])
        print("epoch %d,(w1,w2,b) = (%f,%f,%f),loss = %f" % (i + 1, w1, w2, b, loss))


if __name__ == '__main__':
    GD(data,lr = 0.001,epoches=100)
    SGD(data,lr = 0.001,epoches=100)
    Momentum(data,lr = 0.001,beta=0.9,epoches=100)
    AdaGrad(data,eta=1e-8,lr=1,epoches=100)
    RMSProp(data,lr=1,beta=0.99,eta=1e-8,epoches=100)
    Adam(data,lr=1,beta1=0.9,beta2=0.9999,eta=1e-8,epoches=100)

原始的pdf文档如果需要可以在https://pan.baidu.com/s/1GhGu2c_RVmKj4hb_bje0Eg下载.

热爱编程,热爱机器学习! github:http://www.github.com/Lyrichu github blog:http://Lyrichu.github.io 个人博客站点:http://www.movieb2b.com(不再维护)
目录
相关文章
|
27天前
|
机器学习/深度学习 数据采集 运维
使用 Python 实现深度学习模型:智能食品生产线优化
使用 Python 实现深度学习模型:智能食品生产线优化
52 13
|
23天前
|
机器学习/深度学习 自然语言处理 语音技术
Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧
本文介绍了Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧,并通过TensorFlow和PyTorch等库展示了实现神经网络的具体示例,涵盖图像识别、语音识别等多个应用场景。
48 8
|
24天前
|
机器学习/深度学习 数据采集 供应链
使用Python实现智能食品供应链优化的深度学习模型
使用Python实现智能食品供应链优化的深度学习模型
39 8
|
27天前
|
机器学习/深度学习 数据采集 算法
深度学习中的模型优化策略
在深度学习的海洋中,模型优化是提升航船速度的关键。本文将探讨如何通过调整学习率、应用正则化技术以及利用先进的优化算法来提高深度学习模型的性能。我们将从简单的线性回归模型入手,逐步深入到复杂的卷积神经网络,展示如何在实践中应用这些优化策略,以期达到更好的泛化能力和计算效率。
|
1月前
|
机器学习/深度学习 算法 数据可视化
使用Python实现深度学习模型:智能食品配送优化
使用Python实现深度学习模型:智能食品配送优化
56 2
|
1月前
|
机器学习/深度学习 算法
深度学习中的模型优化策略
【10月更文挑战第35天】在深度学习的海洋中,模型优化是那把能够引领我们抵达知识彼岸的桨。本文将从梯度下降法出发,逐步深入到动量、自适应学习率等高级技巧,最后通过一个实际代码案例,展示如何应用这些策略以提升模型性能。
|
23天前
|
机器学习/深度学习 数据采集 人工智能
探索人工智能中的深度学习模型优化策略
探索人工智能中的深度学习模型优化策略
|
25天前
|
机器学习/深度学习 人工智能 TensorFlow
基于TensorFlow的深度学习模型训练与优化实战
基于TensorFlow的深度学习模型训练与优化实战
73 0
|
29天前
|
机器学习/深度学习 数据采集 算法
利用深度学习优化图像识别系统的性能
利用深度学习优化图像识别系统的性能
40 0
|
1月前
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现智能食品广告投放优化的深度学习模型
使用Python实现智能食品广告投放优化的深度学习模型
64 0