暂无个人介绍
简介: 广告大师大卫·奥格威曾在《一个广告人的自白》中提到:标题在大部分广告中,都是最重要的元素,能够决定读者会不会看这则广告。一般来说,读标题的人比读内人的人多出4倍。换句话说,你所写标题的价值将是整个广告预算的80%。因此对于一篇文章、新闻来说,标题的好坏决定了点击和流量。本文介绍通过ModelScope的AI模型PALM来完成标题/摘要生成
您好,抱歉给您带来使用问题,您可以去数据集的modelcard页面,更新到最新的modelscope库版本来解决这个问题
您好,目前该模型还不支持finetune
您好,目前还暂时不支持chatyuan的训练功能,可以试用下其他相关的生成大模型,如GPT-3等系列,是支持自定义训练等
您好,可以试下space系列的text-to-sql相关的模型,返回sql语句
您好,感觉您对我们模型的认可,我们正在规划更大规模的模型(13B)开源
您好,您这边的执行环境是怎么样的呢,是CPU还是GPU环境
您好,我们目前只有中英的large模型,您可以先使用large模型,我们规划下base模型相关的上线
您好,可以按照这个配置修改参数
您好,如果是 nccl 改 gloo 可以通过修改配置文件中的 megatron: { "world_size": ... "distributed_backend": "gloo", <-- 添加这行 ... }
您好,这个是一个未知的bug,我们正在尝试复现和修复,很抱歉很您带来不便,修复完成后我们会第一时间通知您
请您在 finetune 时确认传入的 trainer name 为 Trainers.gpt3_trainer,大模型训练时我们额外定义了一些并行相关的代码,使用 nlp_trainer 或 default 训练时会出现这一报错 trainer = build_trainer(name=Trainers.gpt3_trainer, default_args=kwargs)
在 1.4.1 版本后 palm,gpt3 等生成模型可以直接在 pipeline 中传入生成参数,例如: pipe = pipeline(Tasks.text_generation, model=model_id) print(pipe('示例输入', top_p=0.95, temperature=0.9, max_length=1024)) 后续我们会完善文本生成相关文档~
您好,您指的是哪个模型呢,模型下载是缓存在cache目录
您好,目前13B模型暂不支持下载,感谢您的关注
您好,直接修改pipeline load的模型路径为本地checkpoint即可 p = pipeline(Tasks.text_generation, model=dir)
您好,您使用的是哪个模型呢
您好,您指的是GPT-3模型吗,目前GPT-3开源可支持下载训练的最大模型是2.7B,
您好,与文档中load模型类似,checkpoint_path 只需填写到 os.path.join(self.tmp_dir, 'epoch_1'),或是 iter_xxx 这一级即可,不用添加 .pth 后缀,读取过程后面会自动拼接文件名
您好,目前暂时还没有开源的计划,有开源我们会第一时间在用户群通知~,感谢您的关注