问题一:modelscope 训练时,cfg.train.checkpoint的保存中间结果设置不管用?
modelscope跑的模型, 请问这个saving checkpoint at 200 iterations,怎么把200改的大一点,在哪里设置,我按照你们给出的格式cfg.train.checkpoint,把"by_epoch": True, 但是结果还是按照iter进行保存的,interval不管怎么设置,跑的结果还是200个interval就保存一次,这怎么弄。求答复,谢谢。
参考回答:
参考一下网上的代码,感觉不只是这一块设置起作用,是不是还要改一下其他的参数 # Set up a RunConfig to only save checkpoints once per training cycle. run_config = tf.estimator.RunConfig(save_checkpoints_secs=1e9,keep_checkpoint_max = 10)
#改变keep_checkpoint_max的值就可以改变保存到本地的checkpoint的数量
model = tf.estimator.Estimator( model_fn=deeplab_model_focal_class_imbalance_loss_adaptive.deeplabv3_plus_model_fn, model_dir=FLAGS.model_dir, config=run_config, params={ 'output_stride': FLAGS.output_stride, 'batch_size': FLAGS.batch_size, 'base_architecture': FLAGS.base_architecture, 'pre_trained_model': FLAGS.pre_trained_model, 'batch_norm_decay': _BATCH_NORM_DECAY, 'num_classes': _NUM_CLASSES, 'tensorboard_images_max_outputs': FLAGS.tensorboard_images_max_outputs, 'weight_decay': FLAGS.weight_decay, 'learning_rate_policy': FLAGS.learning_rate_policy, 'num_train': _NUM_IMAGES['train'], 'initial_learning_rate': FLAGS.initial_learning_rate, 'max_iter': FLAGS.max_iter, 'end_learning_rate': FLAGS.end_learning_rate, 'power': _POWER, 'momentum': _MOMENTUM, 'freeze_batch_norm': FLAGS.freeze_batch_norm, 'initial_global_step': FLAGS.initial_global_step })
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/488360?spm=a2c6h.14164896.0.0.55721edfBKaCYG
问题二:老师好!我现在ModelScope思路有问题吗?我早上在手机上训练的,声音跟我本人有些失真。现在部署了加大样本,训练的效果能提上来吗?
老师好!我现在ModelScope思路有问题吗?我早上在手机上训练的,声音跟我本人有些失真。现在部署了加大样本,训练的效果能提上来吗?
参考回答:
声音失真可能是由于多种原因导致的,例如录音设备的质量、录音环境的噪声等。这些因素可能会影响模型的训练效果和数据质量。
如果你已经部署了加大样本的模型,并且使用更好的录音设备和环境进行训练,那么训练效果可能会有所提升,但是具体效果还需要根据实际情况进行评估。
在进行模型训练时,需要注意以下几点:
数据质量:训练模型的数据质量是影响模型效果的重要因素,需要保证数据的准确性、完整性和一致性,避免噪声和干扰等因素对数据的影响。
数据量:数据量也是影响模型效果的重要因素,需要保证数据量足够大,并且具有代表性,以避免过拟合和欠拟合等问题。
训练算法和参数:训练算法和参数也是影响模型效果的重要因素,需要选择合适的算法和参数,并且进行适当的调优和优化,以获得更好的训练效果。
模型评估和测试:训练完成后,需要对模型进行评估和测试,以检查模型的性能和稳定性,并且进行调整和改进,以达到预期的效果。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/518682?spm=a2c6h.14164896.0.0.47731edfZgRZLr
问题三:我想问问ModelScope怎么能恢复模型训练啊?()里加载了之前训练的参数,但一运行就是从头开始
问题1:我想问问ModelScope怎么能恢复模型训练啊? trainer.train()里加载了之前训练的参数,但一运行就是从头开始 问题2:现在没有任何方法能恢复训练吗
参考回答:
回答1:目前这个trainer不支持继续训练,已经给研发同学提了需求,后续会做修改。 回答2:试试加一个"resume_from"参数
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/516759?spm=a2c6h.14164896.0.0.47731edfZgRZLr
问题四:ModelScope SambertHifigan个性化语音合成-中文-预训练-16k 这个支持?
问题1:ModelScope SambertHifigan个性化语音合成-中文-预训练-16k 这个支持训练吗 , 我按照页面操作,提示缺少模型文件 刚刚提示缺少se.onnx , 我有运行了下,提示下面这个错误 问题2:还报下面的错误
参考回答:
回答1:model_revision用v1.0.4,这块我整下,v1.0.5改名儿了 回答2:得要gpu
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/517978?spm=a2c6h.14164896.0.0.47731edfZgRZLr
问题五:ModelScope txt2sql怎么使用自己的数据微调?没看到是如何处理成给的训练集格式的
ModelScope txt2sql怎么使用自己的数据微调?没看到是如何处理成给的训练集格式的
参考回答:
您好,请参考下这个回答哈~
https://developer.aliyun.com/ask/489171?spm=a2c6h.14164896.0.0.49854d238l9hjY
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/517971?spm=a2c6h.14164896.0.0.47731edfZgRZLr