DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Sequential)利用MNIST(手写数字图片识别)数据集实现多分类预测

简介: DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Sequential)利用MNIST(手写数字图片识别)数据集实现多分类预测

输出结果


image.png







1.10.0

Size of:

- Training-set:  55000

- Validation-set: 5000

- Test-set:  10000

Epoch 1/1

 128/55000 [..............................] - ETA: 15:39 - loss: 2.3021 - acc: 0.0703

 256/55000 [..............................] - ETA: 13:40 - loss: 2.2876 - acc: 0.1172

 384/55000 [..............................] - ETA: 14:24 - loss: 2.2780 - acc: 0.1328

 512/55000 [..............................] - ETA: 13:57 - loss: 2.2613 - acc: 0.1719

 640/55000 [..............................] - ETA: 13:57 - loss: 2.2414 - acc: 0.1828

 768/55000 [..............................] - ETA: 13:58 - loss: 2.2207 - acc: 0.2135

 896/55000 [..............................] - ETA: 14:01 - loss: 2.1926 - acc: 0.2467

1024/55000 [..............................] - ETA: 13:34 - loss: 2.1645 - acc: 0.2725

1152/55000 [..............................] - ETA: 13:38 - loss: 2.1341 - acc: 0.2969

1280/55000 [..............................] - ETA: 13:40 - loss: 2.0999 - acc: 0.3273

1408/55000 [..............................] - ETA: 13:37 - loss: 2.0555 - acc: 0.3629

……

54016/55000 [============================>.] - ETA: 15s - loss: 0.2200 - acc: 0.9350

54144/55000 [============================>.] - ETA: 13s - loss: 0.2198 - acc: 0.9350

54272/55000 [============================>.] - ETA: 11s - loss: 0.2194 - acc: 0.9351

54400/55000 [============================>.] - ETA: 9s - loss: 0.2191 - acc: 0.9352

54528/55000 [============================>.] - ETA: 7s - loss: 0.2189 - acc: 0.9352

54656/55000 [============================>.] - ETA: 5s - loss: 0.2185 - acc: 0.9354

54784/55000 [============================>.] - ETA: 3s - loss: 0.2182 - acc: 0.9354

54912/55000 [============================>.] - ETA: 1s - loss: 0.2180 - acc: 0.9355

55000/55000 [==============================] - 863s 16ms/step - loss: 0.2177 - acc: 0.9356

  32/10000 [..............................] - ETA: 22s

 160/10000 [..............................] - ETA: 8s

 288/10000 [..............................] - ETA: 6s

 416/10000 [>.............................] - ETA: 5s

 544/10000 [>.............................] - ETA: 5s

 672/10000 [=>............................] - ETA: 5s

 800/10000 [=>............................] - ETA: 5s

 928/10000 [=>............................] - ETA: 4s

1056/10000 [==>...........................] - ETA: 4s

1184/10000 [==>...........................] - ETA: 4s

1312/10000 [==>...........................] - ETA: 4s

1440/10000 [===>..........................] - ETA: 4s

……

9088/10000 [==========================>...] - ETA: 0s

9216/10000 [==========================>...] - ETA: 0s

9344/10000 [===========================>..] - ETA: 0s

9472/10000 [===========================>..] - ETA: 0s

9600/10000 [===========================>..] - ETA: 0s

9728/10000 [============================>.] - ETA: 0s

9856/10000 [============================>.] - ETA: 0s

9984/10000 [============================>.] - ETA: 0s

10000/10000 [==============================] - 5s 489us/step

loss 0.060937872195523234

acc 0.9803

acc: 98.03%

[[ 963    0    0    1    1    0    4    1    4    6]

[   0 1128    0    2    0    1    2    0    2    0]

[   2    9 1006    1    1    0    0    3   10    0]

[   1    0    2  995    0    3    0    5    2    2]

[   0    1    0    0  977    0    0    1    0    3]

[   2    0    0    7    0  874    3    1    1    4]

[   2    3    0    0    6    1  943    0    3    0]

[   0    5    7    3    1    1    0  990    1   20]

[   4    1    3    3    2    1    7    2  944    7]

[   4    6    0    4    9    1    0    1    1  983]]



设计思路


image.png




核心代码

result = model.evaluate(x=data.x_test,

                       y=data.y_test)

 

for name, value in zip(model.metrics_names, result):

   print(name, value)

print("{0}: {1:.2%}".format(model.metrics_names[1], result[1]))

y_pred = model.predict(x=data.x_test)

cls_pred = np.argmax(y_pred, axis=1)  

plot_example_errors(cls_pred)        

plot_confusion_matrix(cls_pred)    

images = data.x_test[0:9]                      

cls_true = data.y_test_cls[0:9]                

y_pred = model.predict(x=images)              

cls_pred = np.argmax(y_pred, axis=1)            

title = 'MNIST(Sequential Model): plot predicted example, resl VS predict'

plot_images(title, images=images,              

           cls_true=cls_true,

           cls_pred=cls_pred)


相关文章
|
2月前
|
人工智能 搜索推荐 IDE
突破网页数据集获取难题:Web Unlocker API 助力 AI 训练与微调数据集全方位解决方案
本文介绍了Web Unlocker API、Web-Scraper和SERP API三大工具,助力解决AI训练与微调数据集获取难题。Web Unlocker API通过智能代理和CAPTCHA绕过技术,高效解锁高防护网站数据;Web-Scraper支持动态内容加载,精准抓取复杂网页信息;SERP API专注搜索引擎结果页数据抓取,适用于SEO分析与市场研究。这些工具大幅降低数据获取成本,提供合规保障,特别适合中小企业使用。粉丝专属体验入口提供2刀额度,助您轻松上手!
93 2
|
3月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
4月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB 2022a实现时间序列预测,采用CNN-GRU-SAM网络结构,结合鲸鱼优化算法(WOA)优化网络参数。核心代码含操作视频,运行效果无水印。算法通过卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征,全连接层整合输出。数据预处理后,使用WOA迭代优化,最终输出最优预测结果。
|
4月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
|
3月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本内容介绍了一种基于CNN-LSTM-SAM网络与鲸鱼优化算法(WOA)的时间序列预测方法。算法运行于Matlab2022a,完整程序无水印并附带中文注释及操作视频。核心流程包括数据归一化、种群初始化、适应度计算及参数更新,最终输出最优网络参数完成预测。CNN层提取局部特征,LSTM层捕捉长期依赖关系,自注意力机制聚焦全局特性,全连接层整合特征输出结果,适用于复杂非线性时间序列预测任务。
|
4月前
|
机器学习/深度学习 数据采集 算法
基于GWO灰狼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a,展示了时间序列预测算法的运行效果(无水印)。核心程序包含详细中文注释和操作视频。算法采用CNN-GRU-SAM网络,结合灰狼优化(GWO),通过卷积层提取局部特征、GRU处理长期依赖、自注意力机制捕捉全局特征,最终实现复杂非线性时间序列的高效预测。
|
23天前
|
机器学习/深度学习 算法 测试技术
图神经网络在信息检索重排序中的应用:原理、架构与Python代码解析
本文探讨了基于图的重排序方法在信息检索领域的应用与前景。传统两阶段检索架构中,初始检索速度快但结果可能含噪声,重排序阶段通过强大语言模型提升精度,但仍面临复杂需求挑战
57 0
图神经网络在信息检索重排序中的应用:原理、架构与Python代码解析
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
|
10月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch代码实现神经网络
这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。
151 9
|
11月前
|
机器学习/深度学习 编解码 数据可视化
图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比
目前我们看到有很多使用KAN替代MLP的实验,但是目前来说对于图神经网络来说还没有类似的实验,今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。
296 1

热门文章

最新文章