NLP自学习平台为什么同一份文本分类的样本数据,换长文本分类模型,一直在训练中呢?
tensorflow.python.framework.errors_impl.InvalidArgumentError: ValueError: `generator` yielded an element of shape (0,) where an element of shape (None, None) was expected.
Traceback (most recent call last):
File \"/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/ops/script_ops.py\", line 236, in __call__
ret = func(*args)
File \"/usr/local/lib/python3.6/dist-packages/tensorflow_core/python/data/ops/dataset_ops.py\", line 825, in generator_py_func
\"of shape %s was expected.\" % (ret_array.shape, expected_shape))
ValueError: `generator` yielded an element of shape (0,) where an element of shape (None, None) was expected.
样本数据不平衡
长文本分类模型对样本数据要求较高,如果不同类别的样本数据量差异很大,容易造成模型倾斜,影响训练效果。
样本数据存在噪声
长文本样本如果存在大量噪声数据,比如格式混乱、标点错误严重、 歧义和重复内容,都会影响模型的学习。
文本长度过长
如果样本文本平均长度非常长,则模型需要更多参数和计算资源才能有效捕捉特征,否则易训练不收敛。
模型选型不当
不同的长文本分类模型存在明显差异,需要结合数据特征选择最合适的模型类型。否则可能导致训练失败。
模型参数设置不当
如batch size、learning rate、epoch数等参数设置不合理,容易造成模型在一开始的训练中就出错。
硬件资源紧张
长文本通常要求更高的计算资源,如果使用的是有限的免费配额,很容易导致训练超时或者内存不足而失败。
提供上述信息很有可能定位原因:
训练日志及错误提示
数据与模型信息
数据集量级和平均文本长度
使用的模型参数
训练使用的硬件规格
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。