tensorflow/train训练指令

简介: tensorflow/train训练指令

由于tensorflow models 训练指令过于麻烦,本人将一些 文件放到了 自建的training目录

并记录下训练指令

//cd 到training目录
//生成csv文件
python3 xml_to_csv.py
//cd training
//生成tfrecord文件
//训练集 ,测试集各执行一次
python3 product_tfrecord.py --csv_input=data/train_labels.csv --output_path=data/train.record
python3 product_tfrecord.py --csv_input=data/test_labels.csv --output_path=data/test.record
//开始训练
//cd 到training。或者 object_detection 目录
//
//注意修改配置文件ssd_mobilenet_v1_coco.config
//
//开始训练
//运行命令
//注意num_eval_steps 不能过大
python3 model_main.py --pipeline_config_path=/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/ssd_mobilenet_v1_coco.config --model_dir=/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/result --num_train_steps=2000 --num_eval_steps=500 --alsologtostderr
python3 model_main.py --pipeline_config_path=/Users/limengkai/PycharmProjects/models-master/research/object_detection/training_2/ssd_mobilenet_v1_coco.config --model_dir=/Users/limengkai/PycharmProjects/models-master/research/object_detection/training_2/result --num_train_steps=2000 --num_eval_steps=500 --alsologtostderr
//使用 ssd v2 模型进行训练
python3 model_main.py --pipeline_config_path=/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/ssd_mobilenet_v2_coco.config --model_dir=/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/result --num_train_steps=1000 --num_eval_steps=500 --alsologtostderr
//训练会生成model.ckpt-xx文件训练文件会不断更新 xxx数值
//下边根据此类型文件 ,生成最终 pd可应用模型
//生成。pd 模型文件
//cd object_detection 目录
//注意修改training/model.ckpt-1167。的数值, 保证存在 model.ckpt-1167
python export_inference_graph.py
–input_type image_tensor
–pipeline_config_path training/ssd_mobilenet_v1_coco.config
–trained_checkpoint_prefix training/result/model.ckpt-6494
–output_directory xsk_v1_graph;
python export_inference_graph.py
–input_type image_tensor
–pipeline_config_path training/ssd_mobilenet_v2_coco.config
–trained_checkpoint_prefix training/result/model.ckpt-647
–output_directory xsk_v2_graph;
//最后利用 教程文件py 查看效果

image_size must contain 3 elements[4]

这是因为训练的数据集中不是所有的图片位深都是三通道的。

写一个脚本查看所有的数据集中所有的数据,列举出不是RGB的图片:

from PIL import Image
import os
path = ‘/home/seven/cy_folder/data/plane/’ #图片目录
for file in os.listdir(path):
extension = file.split(’.’)[-1]
if extension == ‘jpg’:
fileLoc = path+file
img = Image.open(fileLoc)
if img.mode != ‘RGB’:
print(file+’, '+img.mode)
//显示框设置,最后一行,可以规定,标记的最小值。6 代表百分之60
vis_util.visualize_boxes_and_labels_on_image_array(
image_np,
np.squeeze(boxes),
np.squeeze(classes).astype(np.int32),
np.squeeze(scores),
category_index,
use_normalized_coordinates=True,
line_thickness=8,
min_score_thresh=.6)
train_input_reader: {
tf_record_input_reader {
input_path: “/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/data/train.record”
}
label_map_path: “/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/object-detection.pbtxt”
}
eval_config: {
num_examples: 500

Note: The below line limits the evaluation process to 10 evaluations.

Remove the below line to evaluate indefinitely.

max_evals: 100
}
eval_input_reader: {
tf_record_input_reader {
input_path: “/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/data/test.record”
}
label_map_path: “/Users/limengkai/PycharmProjects/models-master/research/object_detection/training/object-detection.pbtxt”
shuffle: true
num_readers: 1
}
python export_inference_graph.py --input_type image_tensor --pipeline_config_path training/ssd_mobilenet_v1_coco.config --trained_checkpoint_prefix training/result/model.ckpt-2000 --output_directory kuli;


相关文章
|
5月前
|
机器学习/深度学习 算法 TensorFlow
文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
114 0
文本分类识别Python+卷积神经网络算法+TensorFlow模型训练+Django可视化界面
|
12月前
|
机器学习/深度学习 移动开发 算法
动物识别系统python+Django网页界面+TensorFlow算法模型+数据集训练
动物识别系统python+Django网页界面+TensorFlow算法模型+数据集训练
139 0
动物识别系统python+Django网页界面+TensorFlow算法模型+数据集训练
|
12月前
|
机器学习/深度学习 监控 算法
【tensorflow】连续输入的神经网络模型训练代码
【tensorflow】连续输入的神经网络模型训练代码
|
12月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
【tensorflow】连续输入的线性回归模型训练代码
  get_data函数用于生成随机的训练和验证数据集。首先使用np.random.rand生成一个形状为(10000, 10)的随机数据集,来模拟10维的连续输入,然后使用StandardScaler对数据进行标准化。再生成一个(10000,1)的target,表示最终拟合的目标分数。最后使用train_test_split函数将数据集划分为训练集和验证集。
|
2月前
|
UED 存储 数据管理
深度解析 Uno Platform 离线状态处理技巧:从网络检测到本地存储同步,全方位提升跨平台应用在无网环境下的用户体验与数据管理策略
【8月更文挑战第31天】处理离线状态下的用户体验是现代应用开发的关键。本文通过在线笔记应用案例,介绍如何使用 Uno Platform 优雅地应对离线状态。首先,利用 `NetworkInformation` 类检测网络状态;其次,使用 SQLite 实现离线存储;然后,在网络恢复时同步数据;最后,通过 UI 反馈提升用户体验。
49 0
|
2月前
|
机器学习/深度学习 API 算法框架/工具
【Tensorflow+keras】Keras API两种训练GAN网络的方式
使用Keras API以两种不同方式训练条件生成对抗网络(CGAN)的示例代码:一种是使用train_on_batch方法,另一种是使用tf.GradientTape进行自定义训练循环。
28 5
|
2月前
|
API 算法框架/工具
【Tensorflow+keras】使用keras API保存模型权重、plot画loss损失函数、保存训练loss值
使用keras API保存模型权重、plot画loss损失函数、保存训练loss值
22 0
|
3月前
|
机器学习/深度学习 PyTorch TensorFlow
在深度学习中,数据增强是一种常用的技术,用于通过增加训练数据的多样性来提高模型的泛化能力。`albumentations`是一个强大的Python库,用于图像增强,支持多种图像变换操作,并且可以与深度学习框架(如PyTorch、TensorFlow等)无缝集成。
在深度学习中,数据增强是一种常用的技术,用于通过增加训练数据的多样性来提高模型的泛化能力。`albumentations`是一个强大的Python库,用于图像增强,支持多种图像变换操作,并且可以与深度学习框架(如PyTorch、TensorFlow等)无缝集成。
|
5月前
|
机器学习/深度学习 TensorFlow 调度
优化TensorFlow模型:超参数调整与训练技巧
【4月更文挑战第17天】本文探讨了如何优化TensorFlow模型的性能,重点介绍了超参数调整和训练技巧。超参数如学习率、批量大小和层数对模型性能至关重要。文章提到了三种超参数调整策略:网格搜索、随机搜索和贝叶斯优化。此外,还分享了训练技巧,包括学习率调度、早停、数据增强和正则化,这些都有助于防止过拟合并提高模型泛化能力。结合这些方法,可构建更高效、健壮的深度学习模型。
|
12月前
|
Java TensorFlow 算法框架/工具
【tensorflow】TF1.x保存.pb模型 解决模型越训练越大问题
在上一篇博客【tensorflow】TF1.x保存与读取.pb模型写法介绍介绍的保存.pb模型方法中,保存的是模型训练过程中所有的参数,而且训练越久,最终保存的模型就越大。我的模型只有几千参数,可是最终保存的文件有1GB。。。。

热门文章

最新文章

相关实验场景

更多
下一篇
无影云桌面