DL之Attention:基于ClutteredMNIST手写数字图片数据集分别利用CNN_Init、ST_CNN算法(CNN+SpatialTransformer)实现多分类预测(一)

简介: DL之Attention:基于ClutteredMNIST手写数字图片数据集分别利用CNN_Init、ST_CNN算法(CNN+SpatialTransformer)实现多分类预测

数据特征工程


image.png


Train samples: (50000, 60, 60, 1)

Validation samples: (10000, 60, 60, 1)

Test samples: (10000, 60, 60, 1)

Input shape: (60, 60, 1)


T1、CNN_Init start


输出结果


T1、CNN_Init start!

_________________________________________________________________

Layer (type)                 Output Shape              Param #  

=================================================================

conv2d_1 (Conv2D)            (None, 58, 58, 32)        320      

_________________________________________________________________

conv2d_2 (Conv2D)            (None, 56, 56, 64)        18496    

_________________________________________________________________

max_pooling2d_1 (MaxPooling2 (None, 28, 28, 64)        0        

_________________________________________________________________

conv2d_3 (Conv2D)            (None, 26, 26, 64)        36928    

_________________________________________________________________

max_pooling2d_2 (MaxPooling2 (None, 13, 13, 64)        0        

_________________________________________________________________

conv2d_4 (Conv2D)            (None, 11, 11, 64)        36928    

_________________________________________________________________

dropout_1 (Dropout)          (None, 11, 11, 64)        0        

_________________________________________________________________

flatten_1 (Flatten)          (None, 7744)              0        

_________________________________________________________________

dense_1 (Dense)              (None, 128)               991360    

_________________________________________________________________

dropout_2 (Dropout)          (None, 128)               0        

_________________________________________________________________

dense_2 (Dense)              (None, 10)                1290      

=================================================================

Total params: 1,085,322

Trainable params: 1,085,322

Non-trainable params: 0

_________________________________________________________________

None

Train on 50000 samples, validate on 10000 samples

Epoch 1/30

核心代码


   #(1)、定义模型结构

   model = Sequential()

   model.add(Conv2D(32, kernel_size=(3, 3),

                    activation='relu',

                    input_shape=input_shape))

   model.add(Conv2D(64, (3, 3), activation='relu'))

   model.add(MaxPooling2D(pool_size=(2, 2)))

   model.add(Conv2D(64, kernel_size=(3, 3),

                    activation='relu'))

   model.add(MaxPooling2D(pool_size=(2, 2)))

   model.add(Conv2D(64, (3, 3), activation='relu'))

   model.add(Dropout(0.25))

   model.add(Flatten())

   model.add(Dense(128, activation='relu'))

   model.add(Dropout(0.5))

   model.add(Dense(nb_classes, activation='softmax'))






T2、ST_CNN start


_________________________________________________________________

Layer (type)                 Output Shape              Param #  

=================================================================

conv2d_1 (Conv2D)            (None, 56, 56, 32)        832      

_________________________________________________________________

activation_1 (Activation)    (None, 56, 56, 32)        0        

_________________________________________________________________

max_pooling2d_1 (MaxPooling2 (None, 28, 28, 32)        0        

_________________________________________________________________

conv2d_2 (Conv2D)            (None, 24, 24, 64)        51264    

_________________________________________________________________

activation_2 (Activation)    (None, 24, 24, 64)        0        

_________________________________________________________________

conv2d_3 (Conv2D)            (None, 22, 22, 64)        36928    

_________________________________________________________________

activation_3 (Activation)    (None, 22, 22, 64)        0        

_________________________________________________________________

max_pooling2d_2 (MaxPooling2 (None, 11, 11, 64)        0        

_________________________________________________________________

flatten_1 (Flatten)          (None, 7744)              0        

_________________________________________________________________

dense_1 (Dense)              (None, 50)                387250    

_________________________________________________________________

activation_4 (Activation)    (None, 50)                0        

_________________________________________________________________

dense_2 (Dense)              (None, 6)                 306      

=================================================================

Total params: 476,580

Trainable params: 476,580

Non-trainable params: 0

_________________________________________________________________

None

_________________________________________________________________

Layer (type)                 Output Shape              Param #  

=================================================================

spatial_transformer_1 (Spati (None, 30, 30, 1)         476580    

_________________________________________________________________

conv2d_4 (Conv2D)            (None, 28, 28, 32)        320      

_________________________________________________________________

dropout_1 (Dropout)          (None, 28, 28, 32)        0        

_________________________________________________________________

conv2d_5 (Conv2D)            (None, 26, 26, 64)        18496    

_________________________________________________________________

dropout_2 (Dropout)          (None, 26, 26, 64)        0        

_________________________________________________________________

max_pooling2d_3 (MaxPooling2 (None, 13, 13, 64)        0        

_________________________________________________________________

conv2d_6 (Conv2D)            (None, 11, 11, 64)        36928    

_________________________________________________________________

dropout_3 (Dropout)          (None, 11, 11, 64)        0        

_________________________________________________________________

max_pooling2d_4 (MaxPooling2 (None, 5, 5, 64)          0        

_________________________________________________________________

flatten_2 (Flatten)          (None, 1600)              0        

_________________________________________________________________

dense_3 (Dense)              (None, 256)               409856    

_________________________________________________________________

dropout_4 (Dropout)          (None, 256)               0        

_________________________________________________________________

activation_5 (Activation)    (None, 256)               0        

_________________________________________________________________

dense_4 (Dense)              (None, 10)                2570      

_________________________________________________________________

activation_6 (Activation)    (None, 10)                0        

=================================================================

Total params: 944,750

Trainable params: 944,750

Non-trainable params: 0

_________________________________________________________________

None

Train on 50000 samples, validate on 10000 samples

Epoch 1/30

- 974s - loss: 2.0926 - categorical_accuracy: 0.2345 - val_loss: 1.6258 - val_categorical_accuracy: 0.5949

Epoch 2/30

- 1007s - loss: 1.0926 - categorical_accuracy: 0.6387 - val_loss: 0.7963 - val_categorical_accuracy: 0.8433

Epoch 3/30

- 844s - loss: 0.6038 - categorical_accuracy: 0.8118 - val_loss: 0.4906 - val_categorical_accuracy: 0.8977

Epoch 4/30

- 851s - loss: 0.4351 - categorical_accuracy: 0.8648 - val_loss: 0.3909 - val_categorical_accuracy: 0.9160

Epoch 5/30

- 864s - loss: 0.3483 - categorical_accuracy: 0.8914 - val_loss: 0.3046 - val_categorical_accuracy: 0.9367

Epoch 6/30

- 872s - loss: 0.3158 - categorical_accuracy: 0.9027 - val_loss: 0.2826 - val_categorical_accuracy: 0.9349

Epoch 7/30

- 861s - loss: 0.2772 - categorical_accuracy: 0.9136 - val_loss: 0.3244 - val_categorical_accuracy: 0.9243

Epoch 8/30

- 862s - loss: 0.2414 - categorical_accuracy: 0.9251 - val_loss: 0.2228 - val_categorical_accuracy: 0.9600

Epoch 9/30

- 858s - loss: 0.2278 - categorical_accuracy: 0.9287 - val_loss: 0.2305 - val_categorical_accuracy: 0.9556

Epoch 10/30

- 860s - loss: 0.2150 - categorical_accuracy: 0.9328 - val_loss: 0.2119 - val_categorical_accuracy: 0.9600

Epoch 11/30

- 862s - loss: 0.2130 - categorical_accuracy: 0.9334 - val_loss: 0.1949 - val_categorical_accuracy: 0.9583

Epoch 12/30

- 855s - loss: 0.1917 - categorical_accuracy: 0.9410 - val_loss: 0.1841 - val_categorical_accuracy: 0.9595

Epoch 13/30

- 857s - loss: 0.1891 - categorical_accuracy: 0.9414 - val_loss: 0.2455 - val_categorical_accuracy: 0.9613

Epoch 14/30

- 862s - loss: 0.1865 - categorical_accuracy: 0.9423 - val_loss: 0.2044 - val_categorical_accuracy: 0.9629

Epoch 15/30

- 863s - loss: 0.1789 - categorical_accuracy: 0.9446 - val_loss: 0.2147 - val_categorical_accuracy: 0.9647

Epoch 16/30

- 855s - loss: 0.1708 - categorical_accuracy: 0.9460 - val_loss: 0.1748 - val_categorical_accuracy: 0.9692

Epoch 17/30

- 859s - loss: 0.1615 - categorical_accuracy: 0.9509 - val_loss: 0.1870 - val_categorical_accuracy: 0.9707

Epoch 18/30

- 862s - loss: 0.1538 - categorical_accuracy: 0.9514 - val_loss: 0.1906 - val_categorical_accuracy: 0.9689

Epoch 19/30

- 866s - loss: 0.1494 - categorical_accuracy: 0.9537 - val_loss: 0.1596 - val_categorical_accuracy: 0.9728

Epoch 20/30

- 864s - loss: 0.1490 - categorical_accuracy: 0.9537 - val_loss: 0.1821 - val_categorical_accuracy: 0.9692

Epoch 21/30

- 860s - loss: 0.1517 - categorical_accuracy: 0.9524 - val_loss: 0.1579 - val_categorical_accuracy: 0.9701

Epoch 22/30

- 859s - loss: 0.1506 - categorical_accuracy: 0.9539 - val_loss: 0.1595 - val_categorical_accuracy: 0.9712

Epoch 23/30

- 859s - loss: 0.1407 - categorical_accuracy: 0.9567 - val_loss: 0.1590 - val_categorical_accuracy: 0.9712

Epoch 24/30

- 856s - loss: 0.1361 - categorical_accuracy: 0.9569 - val_loss: 0.2160 - val_categorical_accuracy: 0.9723

Epoch 25/30

- 856s - loss: 0.1348 - categorical_accuracy: 0.9583 - val_loss: 0.1678 - val_categorical_accuracy: 0.9741

Epoch 26/30

- 856s - loss: 0.1298 - categorical_accuracy: 0.9596 - val_loss: 0.1820 - val_categorical_accuracy: 0.9707

Epoch 27/30

- 856s - loss: 0.1317 - categorical_accuracy: 0.9597 - val_loss: 0.1998 - val_categorical_accuracy: 0.9738

Epoch 28/30

- 855s - loss: 0.1325 - categorical_accuracy: 0.9594 - val_loss: 0.1991 - val_categorical_accuracy: 0.9674

Epoch 29/30

- 856s - loss: 0.1230 - categorical_accuracy: 0.9621 - val_loss: 0.1848 - val_categorical_accuracy: 0.9720

Epoch 30/30

- 856s - loss: 0.1246 - categorical_accuracy: 0.9611 - val_loss: 0.1754 - val_categorical_accuracy: 0.9755

  32/10000 [..............................] - ETA: 59s

  64/10000 [..............................] - ETA: 59s

  96/10000 [..............................] - ETA: 59s

 128/10000 [..............................] - ETA: 57s

 160/10000 [..............................] - ETA: 56s

 192/10000 [..............................] - ETA: 55s

 224/10000 [..............................] - ETA: 55s

 256/10000 [..............................] - ETA: 54s

 288/10000 [..............................] - ETA: 54s

 320/10000 [..............................] - ETA: 54s

 352/10000 [>.............................] - ETA: 53s

 384/10000 [>.............................] - ETA: 53s

 416/10000 [>.............................] - ETA: 53s

 448/10000 [>.............................] - ETA: 52s

 480/10000 [>.............................] - ETA: 52s

 512/10000 [>.............................] - ETA: 52s

 544/10000 [>.............................] - ETA: 52s

 576/10000 [>.............................] - ETA: 52s

 608/10000 [>.............................] - ETA: 52s

 640/10000 [>.............................] - ETA: 52s

 672/10000 [=>............................] - ETA: 51s

 704/10000 [=>............................] - ETA: 51s

 736/10000 [=>............................] - ETA: 51s

 768/10000 [=>............................] - ETA: 51s

 800/10000 [=>............................] - ETA: 51s

 832/10000 [=>............................] - ETA: 50s

 864/10000 [=>............................] - ETA: 50s

 896/10000 [=>............................] - ETA: 50s

 928/10000 [=>............................] - ETA: 50s

 960/10000 [=>............................] - ETA: 50s

 992/10000 [=>............................] - ETA: 49s

1024/10000 [==>...........................] - ETA: 49s

1056/10000 [==>...........................] - ETA: 49s

1088/10000 [==>...........................] - ETA: 49s

1120/10000 [==>...........................] - ETA: 49s

1152/10000 [==>...........................] - ETA: 49s

1184/10000 [==>...........................] - ETA: 49s

1216/10000 [==>...........................] - ETA: 48s

1248/10000 [==>...........................] - ETA: 48s

1280/10000 [==>...........................] - ETA: 48s

1312/10000 [==>...........................] - ETA: 48s

1344/10000 [===>..........................] - ETA: 48s

1376/10000 [===>..........................] - ETA: 47s

1408/10000 [===>..........................] - ETA: 47s

1440/10000 [===>..........................] - ETA: 47s

1472/10000 [===>..........................] - ETA: 47s

1504/10000 [===>..........................] - ETA: 47s

1536/10000 [===>..........................] - ETA: 46s

1568/10000 [===>..........................] - ETA: 46s

1600/10000 [===>..........................] - ETA: 46s

1632/10000 [===>..........................] - ETA: 46s

1664/10000 [===>..........................] - ETA: 46s

1696/10000 [====>.........................] - ETA: 46s

1728/10000 [====>.........................] - ETA: 46s

1760/10000 [====>.........................] - ETA: 46s

1792/10000 [====>.........................] - ETA: 46s

1824/10000 [====>.........................] - ETA: 45s

1856/10000 [====>.........................] - ETA: 45s

1888/10000 [====>.........................] - ETA: 45s

1920/10000 [====>.........................] - ETA: 45s

1952/10000 [====>.........................] - ETA: 45s

1984/10000 [====>.........................] - ETA: 45s

2016/10000 [=====>........................] - ETA: 44s

2048/10000 [=====>........................] - ETA: 44s

2080/10000 [=====>........................] - ETA: 44s

2112/10000 [=====>........................] - ETA: 44s

2144/10000 [=====>........................] - ETA: 44s

2176/10000 [=====>........................] - ETA: 44s

2208/10000 [=====>........................] - ETA: 44s

2240/10000 [=====>........................] - ETA: 43s

2272/10000 [=====>........................] - ETA: 43s

2304/10000 [=====>........................] - ETA: 43s

2336/10000 [======>.......................] - ETA: 43s

2368/10000 [======>.......................] - ETA: 43s

2400/10000 [======>.......................] - ETA: 43s

2432/10000 [======>.......................] - ETA: 42s

2464/10000 [======>.......................] - ETA: 42s

2496/10000 [======>.......................] - ETA: 42s

2528/10000 [======>.......................] - ETA: 42s

2560/10000 [======>.......................] - ETA: 42s

2592/10000 [======>.......................] - ETA: 41s

2624/10000 [======>.......................] - ETA: 41s

2656/10000 [======>.......................] - ETA: 41s

2688/10000 [=======>......................] - ETA: 41s

2720/10000 [=======>......................] - ETA: 41s

2752/10000 [=======>......................] - ETA: 41s

2784/10000 [=======>......................] - ETA: 40s

2816/10000 [=======>......................] - ETA: 40s

2848/10000 [=======>......................] - ETA: 40s

2880/10000 [=======>......................] - ETA: 40s

2912/10000 [=======>......................] - ETA: 40s

2944/10000 [=======>......................] - ETA: 39s

2976/10000 [=======>......................] - ETA: 39s

3008/10000 [========>.....................] - ETA: 39s

3040/10000 [========>.....................] - ETA: 39s

3072/10000 [========>.....................] - ETA: 39s

3104/10000 [========>.....................] - ETA: 39s

3136/10000 [========>.....................] - ETA: 38s

3168/10000 [========>.....................] - ETA: 38s

3200/10000 [========>.....................] - ETA: 38s

3232/10000 [========>.....................] - ETA: 38s

3264/10000 [========>.....................] - ETA: 38s

3296/10000 [========>.....................] - ETA: 37s

3328/10000 [========>.....................] - ETA: 37s

3360/10000 [=========>....................] - ETA: 37s

3392/10000 [=========>....................] - ETA: 37s

3424/10000 [=========>....................] - ETA: 37s

3456/10000 [=========>....................] - ETA: 36s

3488/10000 [=========>....................] - ETA: 36s

3520/10000 [=========>....................] - ETA: 36s

3552/10000 [=========>....................] - ETA: 36s

3584/10000 [=========>....................] - ETA: 36s

3616/10000 [=========>....................] - ETA: 36s

3648/10000 [=========>....................] - ETA: 35s

3680/10000 [==========>...................] - ETA: 35s

3712/10000 [==========>...................] - ETA: 35s

3744/10000 [==========>...................] - ETA: 35s

3776/10000 [==========>...................] - ETA: 35s

3808/10000 [==========>...................] - ETA: 34s

3840/10000 [==========>...................] - ETA: 34s

3872/10000 [==========>...................] - ETA: 34s

3904/10000 [==========>...................] - ETA: 34s

3936/10000 [==========>...................] - ETA: 34s

3968/10000 [==========>...................] - ETA: 33s

4000/10000 [===========>..................] - ETA: 33s

4032/10000 [===========>..................] - ETA: 33s

4064/10000 [===========>..................] - ETA: 33s

4096/10000 [===========>..................] - ETA: 33s

4128/10000 [===========>..................] - ETA: 33s

4160/10000 [===========>..................] - ETA: 32s

4192/10000 [===========>..................] - ETA: 32s

4224/10000 [===========>..................] - ETA: 32s

4256/10000 [===========>..................] - ETA: 32s

4288/10000 [===========>..................] - ETA: 32s

4320/10000 [===========>..................] - ETA: 31s

4352/10000 [============>.................] - ETA: 31s

4384/10000 [============>.................] - ETA: 31s

4416/10000 [============>.................] - ETA: 31s

4448/10000 [============>.................] - ETA: 31s

4480/10000 [============>.................] - ETA: 31s

4512/10000 [============>.................] - ETA: 30s

4544/10000 [============>.................] - ETA: 30s

4576/10000 [============>.................] - ETA: 30s

4608/10000 [============>.................] - ETA: 30s

4640/10000 [============>.................] - ETA: 30s

4672/10000 [=============>................] - ETA: 29s

4704/10000 [=============>................] - ETA: 29s

4736/10000 [=============>................] - ETA: 29s

4768/10000 [=============>................] - ETA: 29s

4800/10000 [=============>................] - ETA: 29s

4832/10000 [=============>................] - ETA: 29s

4864/10000 [=============>................] - ETA: 28s

4896/10000 [=============>................] - ETA: 28s

4928/10000 [=============>................] - ETA: 28s

4960/10000 [=============>................] - ETA: 28s

4992/10000 [=============>................] - ETA: 28s

5024/10000 [==============>...............] - ETA: 27s

5056/10000 [==============>...............] - ETA: 27s

5088/10000 [==============>...............] - ETA: 27s

5120/10000 [==============>...............] - ETA: 27s

5152/10000 [==============>...............] - ETA: 27s

5184/10000 [==============>...............] - ETA: 27s

5216/10000 [==============>...............] - ETA: 26s

5248/10000 [==============>...............] - ETA: 26s

5280/10000 [==============>...............] - ETA: 26s

5312/10000 [==============>...............] - ETA: 26s

5344/10000 [===============>..............] - ETA: 26s

5376/10000 [===============>..............] - ETA: 25s

5408/10000 [===============>..............] - ETA: 25s

5440/10000 [===============>..............] - ETA: 25s

5472/10000 [===============>..............] - ETA: 25s

5504/10000 [===============>..............] - ETA: 25s

5536/10000 [===============>..............] - ETA: 25s

5568/10000 [===============>..............] - ETA: 24s

5600/10000 [===============>..............] - ETA: 24s

5632/10000 [===============>..............] - ETA: 24s

5664/10000 [===============>..............] - ETA: 24s

5696/10000 [================>.............] - ETA: 24s

5728/10000 [================>.............] - ETA: 23s

5760/10000 [================>.............] - ETA: 23s

5792/10000 [================>.............] - ETA: 23s

5824/10000 [================>.............] - ETA: 23s

5856/10000 [================>.............] - ETA: 23s

5888/10000 [================>.............] - ETA: 23s

5920/10000 [================>.............] - ETA: 22s

5952/10000 [================>.............] - ETA: 22s

5984/10000 [================>.............] - ETA: 22s

6016/10000 [=================>............] - ETA: 22s

6048/10000 [=================>............] - ETA: 22s

6080/10000 [=================>............] - ETA: 21s

6112/10000 [=================>............] - ETA: 21s

6144/10000 [=================>............] - ETA: 21s

6176/10000 [=================>............] - ETA: 21s

6208/10000 [=================>............] - ETA: 21s

6240/10000 [=================>............] - ETA: 21s

6272/10000 [=================>............] - ETA: 20s

6304/10000 [=================>............] - ETA: 20s

6336/10000 [==================>...........] - ETA: 20s

6368/10000 [==================>...........] - ETA: 20s

6400/10000 [==================>...........] - ETA: 20s

6432/10000 [==================>...........] - ETA: 19s

6464/10000 [==================>...........] - ETA: 19s

6496/10000 [==================>...........] - ETA: 19s

6528/10000 [==================>...........] - ETA: 19s

6560/10000 [==================>...........] - ETA: 19s

6592/10000 [==================>...........] - ETA: 19s

6624/10000 [==================>...........] - ETA: 18s

6656/10000 [==================>...........] - ETA: 18s

6688/10000 [===================>..........] - ETA: 18s

6720/10000 [===================>..........] - ETA: 18s

6752/10000 [===================>..........] - ETA: 18s

6784/10000 [===================>..........] - ETA: 17s

6816/10000 [===================>..........] - ETA: 17s

6848/10000 [===================>..........] - ETA: 17s

6880/10000 [===================>..........] - ETA: 17s

6912/10000 [===================>..........] - ETA: 17s

6944/10000 [===================>..........] - ETA: 17s

6976/10000 [===================>..........] - ETA: 16s

7008/10000 [====================>.........] - ETA: 16s

7040/10000 [====================>.........] - ETA: 16s

7072/10000 [====================>.........] - ETA: 16s

7104/10000 [====================>.........] - ETA: 16s

7136/10000 [====================>.........] - ETA: 16s

7168/10000 [====================>.........] - ETA: 15s

7200/10000 [====================>.........] - ETA: 15s

7232/10000 [====================>.........] - ETA: 15s

7264/10000 [====================>.........] - ETA: 15s

7296/10000 [====================>.........] - ETA: 15s

7328/10000 [====================>.........] - ETA: 14s

7360/10000 [=====================>........] - ETA: 14s

7392/10000 [=====================>........] - ETA: 14s

7424/10000 [=====================>........] - ETA: 14s

7456/10000 [=====================>........] - ETA: 14s

7488/10000 [=====================>........] - ETA: 14s

7520/10000 [=====================>........] - ETA: 13s

7552/10000 [=====================>........] - ETA: 13s

7584/10000 [=====================>........] - ETA: 13s

7616/10000 [=====================>........] - ETA: 13s

7648/10000 [=====================>........] - ETA: 13s

7680/10000 [======================>.......] - ETA: 13s

7712/10000 [======================>.......] - ETA: 12s

7744/10000 [======================>.......] - ETA: 12s

7776/10000 [======================>.......] - ETA: 12s

7808/10000 [======================>.......] - ETA: 12s

7840/10000 [======================>.......] - ETA: 12s

7872/10000 [======================>.......] - ETA: 11s

7904/10000 [======================>.......] - ETA: 11s

7936/10000 [======================>.......] - ETA: 11s

7968/10000 [======================>.......] - ETA: 11s

8000/10000 [=======================>......] - ETA: 11s

8032/10000 [=======================>......] - ETA: 11s

8064/10000 [=======================>......] - ETA: 10s

8096/10000 [=======================>......] - ETA: 10s

8128/10000 [=======================>......] - ETA: 10s

8160/10000 [=======================>......] - ETA: 10s

8192/10000 [=======================>......] - ETA: 10s

8224/10000 [=======================>......] - ETA: 9s

8256/10000 [=======================>......] - ETA: 9s

8288/10000 [=======================>......] - ETA: 9s

8320/10000 [=======================>......] - ETA: 9s

8352/10000 [========================>.....] - ETA: 9s

8384/10000 [========================>.....] - ETA: 9s

8416/10000 [========================>.....] - ETA: 8s

8448/10000 [========================>.....] - ETA: 8s

8480/10000 [========================>.....] - ETA: 8s

8512/10000 [========================>.....] - ETA: 8s

8544/10000 [========================>.....] - ETA: 8s

8576/10000 [========================>.....] - ETA: 7s

8608/10000 [========================>.....] - ETA: 7s

8640/10000 [========================>.....] - ETA: 7s

8672/10000 [=========================>....] - ETA: 7s

8704/10000 [=========================>....] - ETA: 7s

8736/10000 [=========================>....] - ETA: 7s

8768/10000 [=========================>....] - ETA: 6s

8800/10000 [=========================>....] - ETA: 6s

8832/10000 [=========================>....] - ETA: 6s

8864/10000 [=========================>....] - ETA: 6s

8896/10000 [=========================>....] - ETA: 6s

8928/10000 [=========================>....] - ETA: 6s

8960/10000 [=========================>....] - ETA: 5s

8992/10000 [=========================>....] - ETA: 5s

9024/10000 [==========================>...] - ETA: 5s

9056/10000 [==========================>...] - ETA: 5s

9088/10000 [==========================>...] - ETA: 5s

9120/10000 [==========================>...] - ETA: 4s

9152/10000 [==========================>...] - ETA: 4s

9184/10000 [==========================>...] - ETA: 4s

9216/10000 [==========================>...] - ETA: 4s

9248/10000 [==========================>...] - ETA: 4s

9280/10000 [==========================>...] - ETA: 4s

9312/10000 [==========================>...] - ETA: 3s

9344/10000 [===========================>..] - ETA: 3s

9376/10000 [===========================>..] - ETA: 3s

9408/10000 [===========================>..] - ETA: 3s

9440/10000 [===========================>..] - ETA: 3s

9472/10000 [===========================>..] - ETA: 2s

9504/10000 [===========================>..] - ETA: 2s

9536/10000 [===========================>..] - ETA: 2s

9568/10000 [===========================>..] - ETA: 2s

9600/10000 [===========================>..] - ETA: 2s

9632/10000 [===========================>..] - ETA: 2s

9664/10000 [===========================>..] - ETA: 1s

9696/10000 [============================>.] - ETA: 1s

9728/10000 [============================>.] - ETA: 1s

9760/10000 [============================>.] - ETA: 1s

9792/10000 [============================>.] - ETA: 1s

9824/10000 [============================>.] - ETA: 0s

9856/10000 [============================>.] - ETA: 0s

9888/10000 [============================>.] - ETA: 0s

9920/10000 [============================>.] - ETA: 0s

9952/10000 [============================>.] - ETA: 0s

9984/10000 [============================>.] - ETA: 0s

10000/10000 [==============================] - 56s 6ms/step





相关文章
|
25天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
|
2月前
|
机器学习/深度学习 人工智能 算法
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
文本分类识别系统。本系统使用Python作为主要开发语言,首先收集了10种中文文本数据集("体育类", "财经类", "房产类", "家居类", "教育类", "科技类", "时尚类", "时政类", "游戏类", "娱乐类"),然后基于TensorFlow搭建CNN卷积神经网络算法模型。通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型,并保存为本地的h5格式。然后使用Django开发Web网页端操作界面,实现用户上传一段文本识别其所属的类别。
91 1
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
|
1月前
|
存储 缓存 分布式计算
数据结构与算法学习一:学习前的准备,数据结构的分类,数据结构与算法的关系,实际编程中遇到的问题,几个经典算法问题
这篇文章是关于数据结构与算法的学习指南,涵盖了数据结构的分类、数据结构与算法的关系、实际编程中遇到的问题以及几个经典的算法面试题。
30 0
数据结构与算法学习一:学习前的准备,数据结构的分类,数据结构与算法的关系,实际编程中遇到的问题,几个经典算法问题
|
29天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化卷积神经网络(Bayes-CNN)的多因子数据分类识别算法matlab仿真
本项目展示了贝叶斯优化在CNN中的应用,包括优化过程、训练与识别效果对比,以及标准CNN的识别结果。使用Matlab2022a开发,提供完整代码及视频教程。贝叶斯优化通过构建代理模型指导超参数优化,显著提升模型性能,适用于复杂数据分类任务。
|
1月前
|
移动开发 算法 前端开发
前端常用算法全解:特征梳理、复杂度比较、分类解读与示例展示
前端常用算法全解:特征梳理、复杂度比较、分类解读与示例展示
21 0
|
2月前
|
机器学习/深度学习 算法 数据挖掘
决策树算法大揭秘:Python让你秒懂分支逻辑,精准分类不再难
【9月更文挑战第12天】决策树算法作为机器学习领域的一颗明珠,凭借其直观易懂和强大的解释能力,在分类与回归任务中表现出色。相比传统统计方法,决策树通过简单的分支逻辑实现了数据的精准分类。本文将借助Python和scikit-learn库,以鸢尾花数据集为例,展示如何使用决策树进行分类,并探讨其优势与局限。通过构建一系列条件判断,决策树不仅模拟了人类决策过程,还确保了结果的可追溯性和可解释性。无论您是新手还是专家,都能轻松上手,享受机器学习的乐趣。
48 9
|
2月前
|
机器学习/深度学习 数据采集 数据可视化
深度学习实践:构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行分类
本文详细介绍如何使用PyTorch构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行图像分类。从数据预处理、模型定义到训练过程及结果可视化,文章全面展示了深度学习项目的全流程。通过实际操作,读者可以深入了解CNN在图像分类任务中的应用,并掌握PyTorch的基本使用方法。希望本文为您的深度学习项目提供有价值的参考与启示。
|
3月前
|
数据采集 机器学习/深度学习 算法
【python】python客户信息审计风险决策树算法分类预测(源码+数据集+论文)【独一无二】
【python】python客户信息审计风险决策树算法分类预测(源码+数据集+论文)【独一无二】
|
3月前
|
存储 算法 安全
密码算法的分类
【8月更文挑战第23天】
99 0
|
3月前
|
机器学习/深度学习 监控 算法
R-CNN系列目标算法
8月更文挑战第12天

热门文章

最新文章