在使用pipeline()方法推理GPT3模型时,希望通过传入top_k、top_p等参数控制生成内容的多样性,但官方并没有相关示例,在源代码也没找到相关内容
在 1.4.1 版本后 palm,gpt3 等生成模型可以直接在 pipeline 中传入生成参数,例如: pipe = pipeline(Tasks.text_generation, model=model_id) print(pipe('示例输入', top_p=0.95, temperature=0.9, max_length=1024)) 后续我们会完善文本生成相关文档~