用modelscope的GPT-3(1.3B)预训练模型直接推理的效果:这个直接限制字数了吧?
"输出长度调整可以在 perprocessor 参数通过增加 sequence_length 实现,在 configuration.json 文件中: { ""preprocessor"": { ""type"": ""text-gen-jieba-tokenizer"", ""sequence_length"": 512 }, ... } 或者在 cfg_modify_fn 中修改: def cfg_modeify_fn(cfg): cfg.preprocessor.sequence_length = 512 return cfg 另外 config.json 中还支持 tokens_to_generate 参数,这个参数会在 perprocessor padding 的长度基础上延长,默认为100——该回答整理自钉群“魔搭ModelScope开发者联盟群 ①”