毕业设计(基于TensorFlow的深度学习与研究)之完结篇

简介: 本文是我的毕业设计基于TensorFlow的深度学习与研究的完结篇,在本篇推文中,我将分为三个部分去写:第一部分是对我毕业设计系列推文的总体安排;第二部分是对我毕业设计的总结概括;第三部分我将引入一个入门级的案例(借助fashion_mnist数据集),一方面是帮助初学者对深度学习和卷积神经网络有一定的了解,另一方面是此案例与我毕设中的一个案例相似度较高(另外,我毕设中涉及的两个案例的源代码我将在答辩之后更新到Github上)。

前言


本文是我的毕业设计基于TensorFlow的深度学习与研究的完结篇,在本篇推文中,我将分为三个部分去写:


  • 第一部分是对我毕业设计系列推文的总体安排;
  • 第二部分是对我毕业设计的总结概括;
  • 第三部分我将引入一个入门级的案例(借助fashion_mnist数据集),一方面是帮助初学者对深度学习和卷积神经网络有一定的了解,另一方面是此案例与我毕设中的一个案例相似度较高(另外,我毕设中涉及的两个案例的源代码我将在答辩之后更新到Github上)。



毕设系列推文总体安排



从毕业设计开始到现在,我总共发过两篇与其相关的推文,第一篇是于2020.01.13发布的TensorFlow环境搭建,第二篇是于2020.03.18发布的毕业设计(基于TensorFlow的深度研究与实现)之番外篇大家可以去我的公号翻一下,等到我的所有毕设相关的推文更新完之后,我会做下整理,方便大家查阅。


微信图片_20220610221029.png

图 1.1 毕设相关推文


毕设系列推文总体安排如下(打 为已完成内容,打 × 为未完成内...ing 为正在编写的内容):


  1. TensorFlow环境搭建(1篇)
  2. 基础知识内容(包括TensorFlow 2.0简单介绍、卷积神经网络基础介绍,预估2~3篇)×
  3. 项目案例讲解及代码展示(两个案例:利用AlexNet完成MNIST手写字的识别、利用AlexNet完成五种花的分类,预估2篇)×
  4. 毕业设计(基于TensorFlow的深度研究与实现)之番外篇(内容涉及通过华为云AI开发平台ModelArts完成五种花分类项目案例的部署测试及滑动验证码缺口识别)
  5. 毕设最终篇(内容涉及系列推文总体安排、项目总结以及初学者入门深度学习的一个demo讲解)...ing



毕设仿真项目总结


我的毕业设计总体架构可以分为三大板块:



  1. 相关知识了解(包括英文文献翻译、第一章绪论部分、第五章总结与期望部分、致谢部分、参考文献部分等,这些部分内容大都与仿真项目关系不大,但是这些都是为更好完成仿真项目必要的准备工作)
  2. 基础知识部分(包括TensorFlow 2.0中对高阶API tf.keras.models的使用方法的介绍以及使用Sequential按顺序构建模型序列的介绍)。
  3. 项目仿真部分(主要包括两个案例:第一个是利用AlexNet搭建卷积神经网络完成MNIST手写字的识别,要求准确率在95%,且规定Conv=3层、MaxPool=2层、ReLU=3层,Dense=1层,连接神经元个数为1024,最后一个全连接层使用softmax函数;第二个案例是使用AlexNet标准网络结构完成五种花分类的识别,并通过ModelArts进行部署测试)


以下是我的毕业设计的目录梗概部分:


微信图片_20220610221056.png

图 2.1 第1-2章知识结构


微信图片_20220610221101.png

图 2.2 第3章知识结构


微信图片_20220610221105.png

图 2.3 第4-5章知识结构



入门级案例演示



上述两部分内容是我对我毕设系列推文的一个总结及下一阶段发推文的安排,并不涉及太多知识层面的讲解,接下来我将通过一个入门级案例来简单介绍一下相关的知识。


案例内容概览:

在本案例中我们使用TensorFlow 2.0版本中的高阶API tf.keras.modelstf.keras.datasets并通过Sequential按顺序构建神经网络(最简单的神经网络,代码中构建了隐藏层为三个全连接层的简单神经网络)来完成对fashion_mnist数据集的训练。其中我们损失函数使用的是sparse多分类交叉熵损失函数(sparse_categorical_crossentropy),优化器使用的是随机梯度下降法(sgd),前两个全连接层后面均有sigmoid损失函数,且最后一个全连接层后面接softmax损失函数。


写代码咯:


我们使用该数据集的前5000张作为验证集图片,其余图片均作训练集,借助matplotlib中的函数先展示这个数据中的15张图片(3*5,前3行、5列的图像)


展示图像的代码如下所示:

def show_imgs(n_rows,n_cols,x_data,y_data,class_names):
    assert len(x_data) == len(y_data)
    assert n_rows * n_cols < len(x_data)
    plt.figure(figsize=(n_cols*1.4,n_rows*1.6))
    for row in range(n_rows):
        for col in range(n_cols):
            index = n_cols * row +col
            plt.subplot(n_rows,n_cols,index+1)
            plt.imshow(x_data[index],cmap="binary",interpolation="nearest")
            plt.axis("off")
            plt.title(class_names[y_data[index]])
        plt.show()
class_names = ["T-shirt","Trouser","Pullover","Dress","Coat","Sandal","Shirt","Sneaker","Bag","Ankle boot"]

效果如下图所示:


微信图片_20220610221116.png

图 2.4 1*5图像展示



微信图片_20220610221121.png

图 2.5 2*5图像展示



微信图片_20220610221126.png

图 2.6 3*5图像展示


image.gif


了解了fashion_mnist数据集的大概情况之后,我们来通过Sequential构建模型,代码如下:



model = tf.keras.models.Sequential([
     tf.keras.layers.Flatten(input_shape = [28,28]),
     tf.keras.layers.Dense(300,activation="relu"),
     tf.keras.layers.Dense(100,activation="relu"),
     tf.keras.layers.Dense(10,activation="softmax")
 ])

我们通过如下代码:


model.summary()


在控制台瞅瞅我们搭建的模型,如下图所示:


微信图片_20220610221132.png

图 2.7 查看模型


完成之后,我们开始对数据集进行训练,迭代次数10次,默认batch_size=32,数据集不算太大,我们就在本机cpu跑就行了(小伙伴们当然可以买一块GPU来运算,但是如果和我一样穷的话,建议大家像这种入门级的demo跑在本机就可以了,稍微数据量大点的大家可以借助Google Cloud或者AWS云平台托管运算,更大数据量的还请各位小伙伴少吃点肉把钱节省下来买GPU)所有代码如下:


import tensorflow as tf
fashion_mnist = tf.keras.datasets.fashion_mnist
(x_train_all,y_train_all),(x_test,y_test) = fashion_mnist.load_data()
x_valid,x_train = x_train_all[:5000],x_train_all[5000:]
y_valid,y_train = y_train_all[:5000],y_train_all[5000:]
model = tf.keras.models.Sequential([
    tf.keras.layers.Flatten(input_shape = [28,28]),
    tf.keras.layers.Dense(300,activation="sigmoid"),
    tf.keras.layers.Dense(100,activation="sigmoid"),
    tf.keras.layers.Dense(10,activation="softmax")
])
model.compile(loss = "sparse_categorical_crossentropy",optimizer="sgd",metrics=["accuracy"])
history = model.fit(x_train,y_train,epochs = 10 ,validation_data = (x_valid,y_valid))

其最终结果如下所示:


微信图片_20220610221137.png


其最终识别率在80%左右,我的毕设中关于使用AlexNet识别MNIST的例子其准确率在98%左右,关于五种花的识别的准确率在76%(受限于样本集个数)。总体来说,识别率较高,若小伙伴们还想继续提高识别率,建议在原有的基础上改善隐藏层结构(代码中隐藏层的结构过于简单)。

相关文章
|
5天前
|
机器学习/深度学习 数据可视化 网络架构
增强深度学习模型的可解释性和泛化能力的方法研究
【8月更文第15天】在深度学习领域,模型的准确率和预测能力是衡量模型好坏的重要指标。然而,随着模型复杂度的增加,它们往往变得越来越难以理解,这限制了模型在某些关键领域的应用,例如医疗诊断、金融风险评估等。本文将探讨如何通过几种方法来增强深度学习模型的可解释性,同时保持或提高模型的泛化能力。
21 2
|
17天前
|
机器学习/深度学习 人工智能 算法
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
眼疾识别系统,使用Python作为主要编程语言进行开发,基于深度学习等技术使用TensorFlow搭建ResNet50卷积神经网络算法,通过对眼疾图片4种数据集进行训练('白内障', '糖尿病性视网膜病变', '青光眼', '正常'),最终得到一个识别精确度较高的模型。然后使用Django框架开发Web网页端可视化操作界面,实现用户上传一张眼疾图片识别其名称。
52 9
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
|
13天前
|
机器学习/深度学习 算法 PyTorch
【深度学习】TensorFlow面试题:什么是TensorFlow?你对张量了解多少?TensorFlow有什么优势?TensorFlow比PyTorch有什么不同?该如何选择?
关于TensorFlow面试题的总结,涵盖了TensorFlow的基本概念、张量的理解、TensorFlow的优势、数据加载方式、算法通用步骤、过拟合解决方法,以及TensorFlow与PyTorch的区别和选择建议。
33 2
|
17天前
|
机器学习/深度学习 存储 算法框架/工具
【深度学习】猫狗识别TensorFlow2实验报告
本文介绍了使用TensorFlow 2进行猫狗识别的实验报告,包括实验目的、采用卷积神经网络(CNN)进行训练的过程,以及如何使用交叉熵作为损失函数来识别猫狗图像数据集。
39 1
|
20天前
|
机器学习/深度学习 数据挖掘 TensorFlow
解锁Python数据分析新技能,TensorFlow&PyTorch双引擎驱动深度学习实战盛宴
【7月更文挑战第31天】在数据驱动时代,Python凭借其简洁性与强大的库支持,成为数据分析与机器学习的首选语言。**数据分析基础**从Pandas和NumPy开始,Pandas简化了数据处理和清洗,NumPy支持高效的数学运算。例如,加载并清洗CSV数据、计算总销售额等。
33 2
|
20天前
|
机器学习/深度学习 数据挖掘 TensorFlow
|
1月前
|
机器学习/深度学习 人工智能 安全
深度学习中的对抗性样本研究
在深度学习技术飞速发展的今天,对抗性样本作为一项重要的安全议题,引起了研究者们的广泛关注。对抗性样本指的是经过精心设计的、能够误导深度学习模型做出错误判断的输入数据。本文将深入探讨对抗性样本的生成机制、防御策略以及对未来深度学习安全性的影响,同时通过实验数据分析,揭示对抗性攻击对模型性能的具体影响,旨在为深度学习的安全性研究提供理论依据和实践指导。 【7月更文挑战第19天】
|
17天前
|
机器学习/深度学习 算法 测试技术
【深度学习】手写数字识别Tensorflow2实验报告
文章介绍了使用TensorFlow 2进行手写数字识别的实验报告,包括实验目的、采用全连接神经网络模型进行训练的过程、以及如何使用交叉熵作为损失函数来识别MNIST数据集的手写数字。
25 0
|
20天前
|
机器学习/深度学习 供应链 TensorFlow
深度学习实战营:TensorFlow+Python,打造你的数据驱动决策引擎
【7月更文挑战第31天】在数据驱动时代,深度学习助力企业决策。以零售业销量预测为例,利用TensorFlow与Python构建LSTM模型预测商品销量,优化库存与营销。
28 0
|
1月前
|
机器学习/深度学习 PyTorch TensorFlow
在深度学习中,数据增强是一种常用的技术,用于通过增加训练数据的多样性来提高模型的泛化能力。`albumentations`是一个强大的Python库,用于图像增强,支持多种图像变换操作,并且可以与深度学习框架(如PyTorch、TensorFlow等)无缝集成。
在深度学习中,数据增强是一种常用的技术,用于通过增加训练数据的多样性来提高模型的泛化能力。`albumentations`是一个强大的Python库,用于图像增强,支持多种图像变换操作,并且可以与深度学习框架(如PyTorch、TensorFlow等)无缝集成。

热门文章

最新文章