问题一:ModelScope翻译模型给的例子报错呀,哪里出问题了?
ModelScope翻译模型给的例子报错呀,哪里出问题了?
参考回答:
可以将python环境编码设置成utf-8,而不是gbk
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/482636?spm=a2c6h.14164896.0.0.7d5a508euj5zDV
问题二:ModelScope中为什么调用模型还需要联网啊?不联网就报错
ModelScope中为什么调用模型还需要联网啊?不联网就报错
参考回答:
参考这个链接的Q5:https://modelscope.cn/docs/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/490739?spm=a2c6h.14164896.0.0.7d5a508euj5zDV
问题三:您好,请教下ModelScope训练nlp_gpt3_text-generation_1.3B模型增
您好,请教下ModelScope训练nlp_gpt3_text-generation_1.3B模型增大数据集与测试集后出现如下报错。这个该如何解决呢? RuntimeError: The expanded size of the tensor (541) must match the existing size (511) at non-singleton dimension 3. Target sizes: [1, 32, 511, 541]. Tensor sizes: [1, 1, 511, 511] 这个是训练代码哈 from modelscope.msdatasets import MsDataset from modelscope.trainers import build_trainer from modelscope.metainfo import Trainers from datasets import load_dataset import sys sys.setrecursionlimit(4000)
data_files = {"train": "train.csv", "test": "test.csv"}
dataset = load_dataset("csv", data_files=data_files, delimiter=",") dataset = MsDataset(dataset) train_dataset = MsDataset(dataset['train']).remap_columns({'text1': 'src_txt', 'text2': 'tgt_txt'})
.map(lambda example: {'src_txt': example['src_txt'] + '\n'}) eval_dataset = MsDataset(dataset['test']).remap_columns({'text1': 'src_txt', 'text2': 'tgt_txt'})
.map(lambda example: {'src_txt': example['src_txt'] + '\n'})
max_epochs = 10
tmp_dir = './gpt3_dureader'
num_warmup_steps = 200
def noam_lambda(current_step: int): current_step += 1 return min(current_step**(-0.5), current_step * num_warmup_steps**(-1.5))
def cfg_modify_fn(cfg): cfg.train.lr_scheduler = { 'type': 'LambdaLR', 'lr_lambda': noam_lambda, 'options': { 'by_epoch': False } } cfg.train.optimizer = {'type': 'AdamW', 'lr': 3e-4} cfg.train.dataloader = { 'batch_size_per_gpu': 2, 'workers_per_gpu': 1 } cfg.train.hooks.append({ 'type': 'MegatronHook' }) cfg.preprocessor.sequence_length = 512 cfg.model.checkpoint_model_parallel_size = 1 return cfg
kwargs = dict( model='./models/damo/nlp_gpt3_text-generation_1.3B', train_dataset=train_dataset, eval_dataset=eval_dataset, max_epochs=max_epochs, work_dir=tmp_dir, cfg_modify_fn=cfg_modify_fn)
trainer = build_trainer( name=Trainers.gpt3_trainer, default_args=kwargs) trainer.train()
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/505693?spm=a2c6h.14164896.0.0.7d5a508euj5zDV
问题四:ModelScope中机器翻译模型在windows上运行推理,报错怎么办?
ModelScope中机器翻译模型在windows上运行推理,报错怎么办?UnicodeDecodeError: 'gbk' codec can't decode byte 0x84 in position 7: illegal multibyte sequenceVi 我改了几处 open 函数指定文件编号后,就可以正常运行
参考回答:
嗯 支持utf-8编码 不支持gbk
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/490726?spm=a2c6h.14164896.0.0.7d5a508euj5zDV
问题五:部署到EAS时遇到了ModelScope版本问题
目的: 想在EAS上部署ChatGLM-6B-Int4模型
操作: 部署EAS,通过ModelScope的Api进行模型服务创建,代码如下图 服务日志报错,提示ModelScope Library版本不对,如下图 我看了下默认的服务配置,镜像地址是registry-vpc.cn-hangzhou.aliyuncs.com/modelscope-repo/modelscope:model_deploy-1.3.0,如下图 于是将镜像改成ModelScope教程中推荐的CPU环境镜像地址,如下图 然后部署,进行更新服务,但依然报错,如下图 我看报错里,貌似ModelScope版本还是1.3.0,没更换成1.5.0。有没有大佬指点一下,这种情况下应如何处理呀?
参考回答:
好的,以下是使用 ModelScope 的 API 在 EAS 上部署 ChatGLM-6B-Int4 模型的步骤:
首先,您需要创建一个 ModelScope 帐户并登录。
然后,您需要创建一个 EAS 实例。
创建 EAS 实例后,您需要创建一个模型服务。
在创建模型服务时,您需要选择 ChatGLM-6B-Int4 模型。
选择模型后,您需要配置模型服务的参数。
配置模型服务参数后,您需要单击“创建”按钮。
模型服务创建后,您将获得一个服务 ID。
您需要使用服务 ID 来调用模型服务的 API。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/500870?spm=a2c6h.14164896.0.0.7d5a508euj5zDV