深度学习基础:神经网络原理与构建

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介: **摘要:**本文介绍了深度学习中的神经网络基础,包括神经元模型、前向传播和反向传播。通过TensorFlow的Keras API,展示了如何构建并训练一个简单的神经网络,以对鸢尾花数据集进行分类。从数据预处理到模型构建、训练和评估,文章详细阐述了深度学习的基本流程,为读者提供了一个深度学习入门的起点。虽然深度学习领域广阔,涉及更多复杂技术和网络结构,但本文为后续学习奠定了基础。


一、引言

随着人工智能技术的快速发展,深度学习作为机器学习的一个重要分支,已经广泛应用于图像识别、自然语言处理、语音识别等多个领域。深度学习之所以取得如此显著的成果,主要归功于其核心技术——神经网络。本文将对神经网络的基本原理进行概述,并通过代码示例展示如何构建一个简单的神经网络。


二、神经网络概述

神经网络是一种模拟人脑神经元工作方式的计算模型,由大量神经元相互连接而成。每个神经元接收来自其他神经元的输入信号,通过激活函数产生输出信号,并将输出信号传递给其他神经元。神经网络通过调整神经元之间的连接权重来学习数据的特征,进而实现对输入数据的分类或预测。

神经网络通常由输入层、隐藏层和输出层组成。输入层负责接收原始数据,隐藏层负责提取数据的特征,输出层则负责产生最终的分类或预测结果。在深度学习中,通常使用多层神经网络(深度神经网络)来提取更高级别的特征,以提高模型的性能。


三、神经网络原理

3.1 神经元模型

神经元是神经网络的基本单元,其结构如图1所示。神经元接收来自其他神经元的输入信号x1, x2, ..., xn,通过加权求和得到净输入z,然后将z通过激活函数f得到输出y。神经元的数学模型可以表示为:

[ z = \sum_{i=1}^{n} w_i x_i + b ]

[ y = f(z) ]

其中,wi为第i个输入信号的权重,b为偏置项,f为激活函数。常用的激活函数有Sigmoid函数、ReLU函数等。

3.2 前向传播

在神经网络中,信息从输入层逐层传递到输出层的过程称为前向传播。在前向传播过程中,神经元的输入信号经过加权求和和激活函数处理后,产生输出信号并传递给下一层神经元。通过前向传播,神经网络可以计算出给定输入对应的输出。

3.3 反向传播

反向传播是神经网络训练的关键步骤。在训练过程中,神经网络通过反向传播算法调整神经元之间的连接权重,以减小模型在训练集上的误差。反向传播算法基于链式法则和梯度下降方法,通过计算误差对权重的梯度来更新权重值。具体来说,反向传播算法包括以下几个步骤:

(1)计算输出层的误差:根据输出层的实际输出和期望输出计算误差。

(2)反向传播误差:将误差逐层反向传播到隐藏层,计算隐藏层神经元的误差。

(3)计算梯度:根据误差和激活函数的导数计算误差对权重的梯度。

(4)更新权重:使用梯度下降方法更新权重值,以减小误差。


四、神经网络构建

下面我们将使用Python的深度学习框架TensorFlow来构建一个简单的神经网络,以实现对鸢尾花数据集(Iris dataset)的分类。

4.1 数据准备

首先,我们需要加载鸢尾花数据集,并将其划分为训练集和测试集。这里我们使用scikit-learn库来加载数据集,并使用train_test_split函数划分数据集。


from sklearn.datasets import load_iris  
from sklearn.model_selection import train_test_split  
from sklearn.preprocessing import StandardScaler  
# 加载鸢尾花数据集  
iris = load_iris()  
X = iris.data  
y = iris.target  
# 数据标准化  
scaler = StandardScaler()  
X_scaled = scaler.fit_transform(X)  
# 划分训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)

4.2 构建神经网络模型

接下来,我们使用TensorFlow的Keras API来构建一个简单的神经网络模型。该模型包含一个输入层(4个神经元,对应鸢尾花的四个特征)、一个隐藏层(10个神经元,使用ReLU激活函数)和一个输出层(3个神经元,使用Softmax激活函数进行多分类)。


import tensorflow as tf  
from tensorflow.keras.models import Sequential  
from tensorflow.keras.layers import Dense  
# 构建神经网络模型  
model = Sequential([  
    Dense(10, activation='relu', input_shape=(4,)),  
    Dense(3, activation='softmax')  
])  
# 编译模型  
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])

4.3 训练模型

接下来,我们使用训练数据对神经网络模型进行训练。在Keras中,我们通过调用fit方法来训练模型,设置适当的训练轮次(epochs)和批处理大小(batch_size)。


# 训练模型  
history = model.fit(X_train, y_train, epochs=50, batch_size=10, validation_split=0.2)

在上面的代码中,validation_split=0.2表示将20%的训练数据用作验证集,以便在训练过程中监控模型的性能,并防止过拟合。epochs=50表示整个数据集将被遍历50次,而batch_size=10表示每次更新模型权重时使用的样本数量。

4.4 评估模型

模型训练完成后,我们可以使用测试集来评估模型的性能。


# 评估模型  
test_loss, test_acc = model.evaluate(X_test, y_test)  
print('Test accuracy:', test_acc)

这段代码将在测试集上评估训练好的模型,并打印出测试集上的准确率。

4.5 预测

我们还可以使用训练好的模型对新的未知数据进行预测。


# 进行预测  
predictions = model.predict(X_test)  
predicted_classes = np.argmax(predictions, axis=1)  
# 打印部分预测结果  
print("Predicted classes:", predicted_classes[:5])  
print("Actual classes:", y_test[:5])

这段代码使用模型对测试集进行预测,并输出前5个样本的预测类别和实际类别。

五、总结

本文概述了神经网络的基本原理,包括神经元模型、前向传播和反向传播算法。通过代码示例,我们展示了如何使用TensorFlow的Keras API构建一个简单的神经网络,并用其对鸢尾花数据集进行分类。从数据准备到模型构建、训练和评估,我们逐步介绍了深度学习的整个流程。

深度学习是一个广阔的领域,本文只是一个入门级的介绍。在实际应用中,可能还需要考虑更多的因素,如模型的正则化、优化器的选择、学习率的调整等。此外,对于更复杂的任务,可能需要设计更深的网络结构或使用其他高级技术,如卷积神经网络(CNN)用于图像处理,循环神经网络(RNN)用于序列数据等。希望本文能为读者提供一个深度学习的基础入门,并激发进一步学习和探索的兴趣。

目录
相关文章
|
21小时前
|
机器学习/深度学习 PyTorch 算法框架/工具
RNN、LSTM、GRU神经网络构建人名分类器(三)
这个文本描述了一个使用RNN(循环神经网络)、LSTM(长短期记忆网络)和GRU(门控循环单元)构建的人名分类器的案例。案例的主要目的是通过输入一个人名来预测它最可能属于哪个国家。这个任务在国际化的公司中很重要,因为可以自动为用户注册时提供相应的国家或地区选项。
|
21小时前
|
机器学习/深度学习
RNN、LSTM、GRU神经网络构建人名分类器(二)
这个文本描述了一个使用RNN(循环神经网络)、LSTM(长短期记忆网络)和GRU(门控循环单元)构建的人名分类器的案例。案例的主要目的是通过输入一个人名来预测它最可能属于哪个国家。这个任务在国际化的公司中很重要,因为可以自动为用户注册时提供相应的国家或地区选项。
|
2天前
|
机器学习/深度学习 算法 Python
深度学习初遇——自己动手实现三层神经网络
深度学习初遇——自己动手实现三层神经网络
20 4
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
深度揭秘:深度学习框架下的神经网络架构进化
从感知机到深度学习的革命,神经网络经历了从简单到复杂的演变。反向传播使多层网络实用化,深度信念网络(DBN)和卷积神经网络(CNN)的兴起,尤其是AlexNet在ImageNet竞赛中的胜利,开启了深度学习黄金时代。ResNet的残差学习解决了深度梯度消失问题。循环神经网络(RNN)、LSTM和GRU改进了序列处理,Transformer模型(如BERT和GPT)引领了自然语言处理的变革。超大规模模型如GPT-3和通义千问展示惊人能力,影响医疗、自动驾驶等多个领域。未来,平衡模型复杂度、计算成本与应用需求将是关键。
23 2
|
1天前
|
网络协议 网络架构 数据格式
网络原理,网络通信以及网络协议
网络原理,网络通信以及网络协议
4 1
|
3天前
|
机器学习/深度学习 人工智能 Serverless
【深度学习】神经网络中的激活函数:释放非线性的力量
【深度学习】神经网络中的激活函数:释放非线性的力量
13 1
|
3天前
|
机器学习/深度学习 搜索推荐 算法
基于深度学习神经网络协同过滤模型(NCF)的图书推荐系统
登录注册 热门图书 图书分类 图书推荐 借阅图书 购物图书 个人中心 可视化大屏 后台管理
基于深度学习神经网络协同过滤模型(NCF)的图书推荐系统
|
5天前
|
机器学习/深度学习 搜索推荐 PyTorch
【机器学习】图神经网络:深度解析图神经网络的基本构成和原理以及关键技术
【机器学习】图神经网络:深度解析图神经网络的基本构成和原理以及关键技术
31 2
|
2天前
|
机器学习/深度学习 自然语言处理 TensorFlow
深入浅出:理解和实现深度学习中的卷积神经网络(CNN)
在当今的数据驱动世界,深度学习已经成为许多领域的关键技术。本文将深入探讨卷积神经网络(CNN)的原理、结构和应用,旨在帮助读者全面理解这项强大的技术,并提供实际的实现技巧。
17 0
|
3天前
|
机器学习/深度学习 人工智能 算法
【机器学习】深度神经网络(DNN):原理、应用与代码实践
【机器学习】深度神经网络(DNN):原理、应用与代码实践
13 0