SSD-Tensorflow 512x512 训练配置

简介: SSD-Tensorflow 512x512 训练配置

搞了几天终于把这个给搞得差不多了,遇到的错误这里也记录一下:

一、配置【配置什么的300和512其实差不多,这里只举一个例子来分析一下】

 之前的文件修改什么的和300x300的一样:https://www.cnblogs.com/GrPhoenix/p/10018072.html

从自己训练的ssd_300_vgg模型开始训练ssd_512_vgg的模型

     因ssd_300_vgg中没有block12,又因为block7,block8,block9,block10,block11,中的参数张量两个网络模型中不匹配,因此ssd_512_vgg中这几个模块的参数不从ssd_300_vgg模型中继承,因此使用checkpoint_exclude_scopes命令指出。

        因为所有的参数均需要训练,因此不使用命令--trainable_scopes

1  #/bin/bash
  2  DATASET_DIR = / home / data / xxx / imagedata / xing_tf / train_tf /
  3  TRAIN_DIR = / home / data / xxx / model / xing300512_model /
  4  CHECKPOINT_PATH = / home / data / xxx / model / xing300_model / model.ckpt - 60000    #加载的ssd_300_vgg模型
  5  python3 . / train_ssd_network.py \
  6         - - train_dir = ${TRAIN_DIR} \
  7         - - dataset_dir = ${DATASET_DIR} \
  8         - - dataset_name = pascalvoc_2007 \
  9         - - dataset_split_name = train \
10         - - model_name = ssd_512_vgg \
11         - - checkpoint_path = ${CHECKPOINT_PATH} \
12         - - checkpoint_model_scope = ssd_300_vgg \
13         - - checkpoint_exclude_scopes = ssd_512_vgg / block7,ssd_512_vgg / block7_box,ssd_512_vgg / block8,ssd_512_vgg / block8_box,ssd_512_vgg / block9,ssd_512_vgg / block9_box,ssd_512_vgg / block10,ssd_512_vgg / block10_box,ssd_512_vgg / block11,ssd_512_vgg / b    lock11_box,ssd_512_vgg / block12,ssd_512_vgg / block12_box \
14         #--trainable_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_3    00_vgg/block10_box,ssd_300_vgg/block11_box \
15         - - save_summaries_secs = 28800  \
16         - - save_interval_secs = 28800  \
17         - - weight_decay = 0.0005  \
18         - - optimizer = adam \
19         - - learning_rate_decay_factor = 0.94  \
20         - - batch_size = 16  \
21         - - num_classes = 4  \
22         - gpu_memory_fraction = 0.8  \

另外由300转512后还需修改:

1. 首先修改ssd_vgg_512.py的训练类别

2.修改train_ssd_network.py的model_name

  修改为ssd_512_vgg

3. 修改nets/np_methods.py

   修改:将300改为512, 将类别改为自己数据的类别(+背景)

4. 修改preprocessing/ssd_vgg_preprocessing.py

   修改:将300改为512

5. 修改ssd_notbook.ipynb

  a  将文件中数字“300”改为“512”

其他修改可以参考:http://blog.csdn.net/liuyan20062010/article/details/78905517

二、我遇到的错误:

InvalidArgumentError (see above for traceback): Restoring from checkpoint failed. This is most likely due to a mismatch between the current graph and the graph from the checkpoint. Please ensure that you have not altered the graph expected based on the checkpoint. Original error:
Assign requires shapes of both tensors to match. lhs shape= [84] rhs shape= [8]
     [[{{node save/Assign_20}} = Assign[T=DT_FLOAT, _class=["loc:@ssd_512_vgg/block12_box/conv_cls/biases"], use_locking=true, validate_shape=true, _device="/job:localhost/replica:0/task:0/device:GPU:0"](ssd_512_vgg/block12_box/conv_cls/biases, save/RestoreV2/_41)]]
     [[{{node save/RestoreV2/_104}} = _Send[T=DT_FLOAT, client_terminated=false, recv_device="/job:localhost/replica:0/task:0/device:GPU:0", send_device="/job:localhost/replica:0/task:0/device:CPU:0", send_device_incarnation=1, tensor_name="edge_110_save/RestoreV2", _device="/job:localhost/replica:0/task:0/device:CPU:0"](save/RestoreV2:52)]]

  这类的问题本质上来说还是自己的配置不对,这个问题我查了很久,最后发现实在是太simpleT-T。

  我的问题的话:在从300转到512的时候忘记改ssd_vgg_512.py的类别导致test的时候文件配置和训练的tensor  shape不匹配TT...


AIEarth是一个由众多领域内专家博主共同打造的学术平台,旨在建设一个拥抱智慧未来的学术殿堂!【平台地址:https://devpress.csdn.net/aiearth】 很高兴认识你!加入我们共同进步!

目录
相关文章
|
4月前
|
机器学习/深度学习 算法 TensorFlow
文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
71 0
文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
|
5月前
|
TensorFlow 算法框架/工具
tensorflow/train训练指令
tensorflow/train训练指令
38 0
|
7月前
|
机器学习/深度学习 监控 算法
【tensorflow】连续输入的神经网络模型训练代码
【tensorflow】连续输入的神经网络模型训练代码
|
7月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
【tensorflow】连续输入的线性回归模型训练代码
  get_data函数用于生成随机的训练和验证数据集。首先使用np.random.rand生成一个形状为(10000, 10)的随机数据集,来模拟10维的连续输入,然后使用StandardScaler对数据进行标准化。再生成一个(10000,1)的target,表示最终拟合的目标分数。最后使用train_test_split函数将数据集划分为训练集和验证集。
|
7月前
|
机器学习/深度学习 移动开发 算法
动物识别系统python+Django网页界面+TensorFlow算法模型+数据集训练
动物识别系统python+Django网页界面+TensorFlow算法模型+数据集训练
99 0
动物识别系统python+Django网页界面+TensorFlow算法模型+数据集训练
|
26天前
|
机器学习/深度学习 运维 监控
TensorFlow分布式训练:加速深度学习模型训练
【4月更文挑战第17天】TensorFlow分布式训练加速深度学习模型训练,通过数据并行和模型并行利用多机器资源,减少训练时间。优化策略包括配置计算资源、优化数据划分和减少通信开销。实际应用需关注调试监控、系统稳定性和容错性,以应对分布式训练挑战。
|
26天前
|
机器学习/深度学习 TensorFlow 调度
优化TensorFlow模型:超参数调整与训练技巧
【4月更文挑战第17天】本文探讨了如何优化TensorFlow模型的性能,重点介绍了超参数调整和训练技巧。超参数如学习率、批量大小和层数对模型性能至关重要。文章提到了三种超参数调整策略:网格搜索、随机搜索和贝叶斯优化。此外,还分享了训练技巧,包括学习率调度、早停、数据增强和正则化,这些都有助于防止过拟合并提高模型泛化能力。结合这些方法,可构建更高效、健壮的深度学习模型。
|
7月前
|
Java TensorFlow 算法框架/工具
【tensorflow】TF1.x保存.pb模型 解决模型越训练越大问题
在上一篇博客【tensorflow】TF1.x保存与读取.pb模型写法介绍介绍的保存.pb模型方法中,保存的是模型训练过程中所有的参数,而且训练越久,最终保存的模型就越大。我的模型只有几千参数,可是最终保存的文件有1GB。。。。
|
7月前
|
机器学习/深度学习 存储 自然语言处理
|
3月前
|
机器学习/深度学习 人工智能 API
人工智能应用工程师技能提升系列2、——TensorFlow2——keras高级API训练神经网络模型
人工智能应用工程师技能提升系列2、——TensorFlow2——keras高级API训练神经网络模型
38 0