NLP自学习平台为什么同一份文本分类的样本数据,换长文本分类模型,一直在训练中呢?
tensorflow.python.framework.errors_impl.InvalidArgumentError: ValueError: `generator` yielded an element of shape (0,) where an element of shape (None, None) was expected.
Traceback (most recent call last):
File \"/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/ops/script_ops.py\", line 236, in __call__
ret = func(*args)
File \"/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/data/ops/dataset_ops.py\", line 825, in generator_py_func
\"of shape %s was expected.\" % (ret_array.shape, expected_shape))
ValueError: `generator` yielded an element of shape (0,) where an element of shape (None, None) was expected.
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
样本数据不平衡
长文本分类模型对样本数据要求较高,如果不同类别的样本数据量差异很大,容易造成模型倾斜,影响训练效果。
样本数据存在噪声
长文本样本如果存在大量噪声数据,比如格式混乱、标点错误严重、 歧义和重复内容,都会影响模型的学习。
文本长度过长
如果样本文本平均长度非常长,则模型需要更多参数和计算资源才能有效捕捉特征,否则易训练不收敛。
模型选型不当
不同的长文本分类模型存在明显差异,需要结合数据特征选择最合适的模型类型。否则可能导致训练失败。
模型参数设置不当
如batch size、learning rate、epoch数等参数设置不合理,容易造成模型在一开始的训练中就出错。
硬件资源紧张
长文本通常要求更高的计算资源,如果使用的是有限的免费配额,很容易导致训练超时或者内存不足而失败。
提供上述信息很有可能定位原因:
训练日志及错误提示
数据与模型信息
数据集量级和平均文本长度
使用的模型参数
训练使用的硬件规格