开发者社区 > ModelScope模型即服务 > 正文

想问下ModelScope官方文档中有mplug模型的导出成torchScript格式的示例,但是?

想问下ModelScope官方文档中有mplug模型的导出成torchScript格式的示例,但是实际跑的时候。又跑不通,说不支持导出。想问下,如果想把模型导出成onnx或者torch Script,有没有什么可以参考的方法。

展开
收起
真的很搞笑 2023-05-30 16:38:47 164 0
18 条回答
写回答
取消 提交回答
  • 如果您想将mplug模型导出为ONNX或TorchScript格式,可以尝试以下步骤:

    1. 首先,确保您已经安装了PyTorch和ONNX库。如果没有,请使用以下命令进行安装:
    
    
    
    1. 然后,您需要使用mplug提供的API加载模型并将其转换为PyTorch张量。例如,如果您要将模型加载到内存中并将其转换为PyTorch张量,可以使用以下代码:
    
    import mplug as mp
    model = mp.load("path/to/your/model")
    input_data = ... # 输入数据
    output_data = model(input_data)
    
    
    
    1. 接下来,您可以使用PyTorch的torch.onnx.export()函数将模型导出为ONNX格式。例如,如果您要将模型导出为ONNX格式,可以使用以下代码:
    
    import torch.onnx as onnx
    dummy_input = ... # 虚拟输入数据,用于生成ONNX图
    onnx_filename = "path/to/your/model.onnx"
    torch.onnx.export(model, dummy_input, onnx_filename)
    
    
    
    2023-06-28 17:02:56
    赞同 展开评论 打赏
  • 如果您想将ModelScope中的模型导出为ONNX或PyTorch Script格式,可以按照以下步骤进行操作:

    首先,确保您已经安装了必要的库,例如torch和onnx。您可以使用以下命令安装这些库:

    pip install torch onnx
    
    

    然后,打开ModelScope并选择要导出的模型。在模型详情页面中,找到“导出”选项卡并选择您要导出的模型格式(ONNX或PyTorch Script)。

    在导出模型时,请确保选择正确的输入和输出格式,并设置其他导出选项(例如优化级别、量化选项等)。然后点击“导出”按钮即可保存导出的模型文件。

    如果您遇到任何错误或问题,请检查ModelScope文档以获取更多信息和帮助。您还可以在ModelScope社区或其他深度学习社区中寻求支持和建议。

    需要注意的是,不是所有的ModelScope模型都可以导出为ONNX或PyTorch Script格式。如果您的模型不支持导出,请参考ModelScope文档以了解更多信息。

    2023-06-21 14:24:39
    赞同 展开评论 打赏
  • 从事java行业9年至今,热爱技术,热爱以博文记录日常工作,csdn博主,座右铭是:让技术不再枯燥,让每一位技术人爱上技术

    您好,在ModelScope 如果您的生产环境使用ONNX,或需要ONNX格式进行后续优化,您可以使用ModelScope提供的ONNX转换工具进行模型导出,具体操作可以参考文档:导出ONNX;当然ModelScope也提供了模型转为TorchScript的能力。同ONNX类似,TorchScript也是深度学习模型的中间表示格式,不同的是它是基于PyTorch框架的。 Torch模型通过导出变为TorchScript格式后,就可以脱离python环境运行或进行后续的推理加速,具体操作可以参考文档:导出TorchScript

    2023-06-20 12:07:08
    赞同 展开评论 打赏
  • 公众号:网络技术联盟站,InfoQ签约作者,阿里云社区签约作者,华为云 云享专家,BOSS直聘 创作王者,腾讯课堂创作领航员,博客+论坛:https://www.wljslmz.cn,工程师导航:https://www.wljslmz.com

    如果您想将 ModelScope 中的模型导出为 ONNX 或者 TorchScript 格式,可以参考以下步骤:

    1. 在 ModelScope 中选择您要导出的模型,并单击“编辑”按钮。
    2. 在模型编辑页面中,单击“导出模型”按钮。
    3. 在导出模型对话框中,选择您要导出的格式,例如 ONNX 或者 TorchScript,并单击“确定”按钮。
    4. 如果您选择导出 TorchScript 格式,您需要确保您的模型可以被 PyTorch 支持。如果您的模型使用了一些不支持的操作或者模块,您需要将其转换为 PyTorch 支持的形式。
    5. 如果您选择导出 ONNX 格式,您需要确保您的模型可以被 ONNX 支持。如果您的模型使用了一些不支持的操作或者模块,您需要将其转换为 ONNX 支持的形式。
    6. 导出完成后,您可以将导出的模型用于其他平台或者框架中。

    不是所有的模型都可以被导出为 TorchScript 或者 ONNX 格式。如果您遇到了无法导出的问题,可以参考 PyTorch 或者 ONNX 官方文档,了解支持的操作和模块。

    2023-06-20 10:42:18
    赞同 展开评论 打赏
  • 不断追求着最新的技术和趋势,在云技术的世界里,我不断寻找着新的机会和挑战,不断挑战自己的认知和能力。

    如果您想要将 ModelScope 中的 mplug 模型导出为 ONNX 或 torchScript 格式,可以参考以下步骤:

    使用 ModelScope 加载您的 mplug 模型。

    在加载模型后,使用模型的导出函数将模型导出为 ONNX 或 torchScript 格式。

    关于如何将模型导出为 ONNX 或 torchScript 格式,您可以参考 ModelScope 官方文档中的相关示例。其中,ONNX 格式可以使用 ModelScope 中的 export_model_as_onnx 函数进行导出,而 torchScript 格式可以使用 ModelScope 中的 export_model_as_torchscript 函数进行导出。

    在导出模型为 ONNX 或 torchScript 格式时,需要确保您的模型结构与导出格式支持的结构相匹配。例如,如果您的模型使用了自定义的层或函数,需要确保这些层或函数被正确地实现了 ONNX 或 torchScript 格式。

    如果您在导出模型时遇到了问题,可以参考 ModelScope 官方文档或向 ModelScope 官方社区寻求帮助。

    2023-06-15 14:26:31
    赞同 展开评论 打赏
  • 云端行者觅知音, 技术前沿我独行。 前言探索无边界, 阿里风光引我情。

    如果您想将ModelScope中的mplug模型导出为ONNX或TorchScript格式,可以尝试以下方法:

    1. 导出为ONNX格式:您可以使用ONNX的export函数将模型导出为ONNX格式。例如:

      import onnx
      
      # 导出模型为ONNX格式
      onnx_model = onnx.export(model, input_data, 'mplug.onnx', verbose=True)
      

      在这个例子中,我们使用了ONNX的export函数将模型导出为ONNX格式,并将其保存到名为"mplug.onnx"的文件中。还指定了verbose=True,以便在导出模型时输出详细信息。

    2. 导出为TorchScript格式:您可以使用TorchScript的trace函数将模型导出为TorchScript格式。例如:

      import torch
      
      # 将模型转换为orchScript格式
      traced_model = torch.jit.trace(model, input_data)
      traced_model.save('mplug.pt')
      

      在这个例子中,我们使用了TorchScript的trace函数将模型转换为TorchScript格式,并将其保存到名为"mplug.pt"的文件中。

    请注意,导出模型为ONNX或TorchScript格式需要一定的深度学习知识和经验。如果您不熟悉这些念,建议您先学习相关知识,或者寻求专业人士的帮助。另外,如果您在导出模型时遇到问题,可以尝试查看错误信息,以便更好地定位问题所在。

    2023-06-15 14:22:38
    赞同 展开评论 打赏
  • 首先,感谢您使用ModelScope。关于mplug模型的导出成torchScript格式的问题,可能是因为mplug模型不支持导出为torchScript格式。目前,mplug模型只能导出为PB格式的模型。如果您需要将模型导出为ONNX或torchScript格式,可以尝试以下方法:

    1. 将mplug模型转换为TensorFlow模型:如果您使用的是mplug模型,可以尝试将其转换为TensorFlow模型,然后再将其转换为ONNX或torchScript格式。TensorFlow支持将PB格式的模型转换为ONNX格式,而ONNX格式也可以转换为torchScript格式。因此,您可以使用TensorFlow将mplug模型转换为ONNX格式,然后再使用ONNX官方提供的工具将其转换为torchScript格式。有关如何将PB格式的模型转换为ONNX格式,请参考ONNX官方文档。

    2. 使用其他支持ONNX或torchScript格式的模型:如果您需要将模型导出为ONNX或torchScript格式,可以考虑使用其他支持这些格式的模型。例如,PyTorch和TensorFlow都支持将模型导出为ONNX或torchScript格式。如果您使用的模型支持这些格式,可以直接使用相应的工具将其导出为ONNX或torchScript格式。

    无论您选择哪种方法,都需要注意模型的兼容性和正确性。在使用ONNX或torchScript格式时,还需要确保您的环境中安装了相应的库和工具。希望这些信息能够帮助您解决问题。如果您有其他问题,请随时咨询ModelScope社区或官方支持。

    2023-06-13 17:34:59
    赞同 展开评论 打赏
  • 天下风云出我辈,一入江湖岁月催,皇图霸业谈笑中,不胜人生一场醉。

    ModelScope中可能存在某些模型无法直接导出为onnx或torchScript格式的情况。如果您的模型无法导出,您可以尝试以下几种方法:

    查看模型文档。在ModelScope中,每个模型都有一个文档,其中可能包含有关如何导出模型的说明。请查看您的模型文档,以确保您已经正确完成模型的创建和配置。 尝试导出为TensorFlow或PyTorch格式。如果您的模型可以导出为TensorFlow或PyTorch格式,那么您可以使用相应的工具将其导出为onnx或torchScript格式。 与模型作者联系。如果您的模型无法导出,您可以与模型的作者联系,以询问有关导出模型的更多信息。模型作者可能有更多的细节和技巧可以提供。

    2023-06-13 17:25:03
    赞同 展开评论 打赏
  • 如果您在使用 ModelScope 官方文档中提供的示例代码将 mplug 模型导出成 torchscript 格式时遇到问题,可以尝试以下方法:

    确认您使用的是 ModelScope 官方文档中给出的最新版本示例代码,并且已经按照官方文档的要求配置了环境参数和路径设置。

    确认您使用的 PyTorch 版本是否符合要求。官方文档中提到,代码示例基于 PyTorch 1.9+ 版本进行开发,因此需要保证您系统中安装的 PyTorch 版本符合要求。

    如果仍然无法成功导出模型,可以尝试使用其他方式将模型导出成 ONNX 或者 TorchScript 格式。PyTorch 提供了许多导出模型的工具和方法,例如使用 PyTorch 提供的 tracing 和脚本编译器,或者使用 ONNX 官方提供的工具等等。

    2023-06-13 11:17:04
    赞同 展开评论 打赏
  • 十分耕耘,一定会有一分收获!

    楼主你好,对于将 ModelScope 的 mplug 模型导出为 ONNX 或 TorchScript 格式的问题,你可以:

    确认模型类型和版本:在尝试将 mplug 模型导出为 ONNX 或 TorchScript 格式之前,你需要确认你的模型类型和版本是否支持导出。不同类型和版本的模型可能需要使用不同的导出方法和工具,因此需要仔细查阅相关文档和资料。

    使用 PyTorch 的导出工具:如果你的模型是基于 PyTorch 的,可以使用 PyTorch 的导出工具将模型导出为 TorchScript 或 ONNX 格式。PyTorch 的导出工具提供了多种导出方法和选项,可以满足不同的需求和场景。你可以参考 PyTorch 的官方文档或者示例代码,了解具体的使用方法和注意事项。

    使用 ONNX 的导出工具:如果你的模型不是基于 PyTorch 的,可以考虑使用 ONNX 的导出工具将模型导出为 ONNX 格式。ONNX 的导出工具支持多种框架和模型类型的导出,包括 TensorFlow、Caffe、MXNet、PyTorch 等。你可以参考 ONNX 的官方文档或者示例代码,了解具体的使用方法和注意事项。

    2023-06-13 08:17:22
    赞同 展开评论 打赏
  • 值得去的地方都没有捷径

    如果已经尝试过官方文档提供的导出步骤却出现了问题,可以尝试手动导出。在PyTorch中,导出模型有两种方式:Torch Script和ONNX。下面分别介绍这两种方式的导出流程。

    Torch Script的导出 Torch Script是PyTorch的一种序列化模型格式,可以跨平台使用。有两种导出方式,分别是手动和使用torch.jit.trace()函数。

    手动导出 手动导出的方式可以更加灵活,代码如下。

    import torch import torch.nn.functional as F

    class MyModel(torch.nn.Module): def forward(self, inputs): x = F.relu(inputs) return x

    model = MyModel()

    输入大小必须与模型期望的输入大小匹配

    input_example = torch.rand(1, 10) traced_script_module = torch.jit.trace(model, input_example) traced_script_module.save("model.pt") 其中,我们通过创建一个继承自torch.nn.Module的类来定义模型。然后使用torch.jit.trace()函数将模型以及一组样本输入转换为一个Torch Script模型,并将其保存在文件model.pt中。

    torch.jit.trace()函数导出 torch.jit.trace()是一种比手动导出更方便的方式。代码如下。

    import torch import torch.nn.functional as F

    class MyModel(torch.nn.Module): def forward(self, inputs): x = F.relu(inputs) return x

    model = MyModel()

    输入大小必须与模型期望的输入大小匹配

    input_example = torch.rand(1, 10) traced_script_module = torch.jit.trace(model, input_example) traced_script_module.save("model.pt") ONNX的导出 ONNX是一种跨平台的序列化模型格式。与Torch Script相比,ONNX可以在多个深度学习框架中使用,如TensorFlow和MXNet。PyTorch提供了用于将模型转换为ONNX格式的工具,可以通过以下步骤完成ONNX的导出。

    import torch import torch.nn.functional as F import onnx import onnxruntime as ort

    class MyModel(torch.nn.Module): def forward(self, inputs): x = F.relu(inputs) return x

    model = MyModel()

    输入大小必须与模型期望的输入大小匹配

    input_example = torch.rand(1, 10) model.eval() x = model(input_example)

    创建一个空的ONNX模型

    onnx_model = onnx.ModelProto()

    指定模型的元数据

    onnx_model.ir_version = 7 onnx_model.producer_name = "pytorch" onnx_model.producer_version = torch.version

    将PyTorch模型转换为ONNX模型

    torch.onnx.export(model, input_example, "model.onnx", input_names=['input'], output_names=['output'])

    加载ONNX模型

    ort_session = ort.InferenceSession("model.onnx")

    执行模型

    x_onnx = ort_session.run(None, {'input': input_example.numpy()}) 在这个例子中,我们使用了ONNX的python库onnx来序列化模型。首先,我们定义了一个继承自torch.nn.Module的类作为我们的模型。然后,我们使用PyTorch内置的torch.onnx.export()函数将PyTorch模型转换为ONNX模型。最后,在使用ONNX模型之前,我们使用onnxruntime库将ONNX模型加载到内存中并进行推理。

    总之,使用PyTorch导出模型有两种方式:Torch Script和ONNX。通过手动导出和使用torch.jit.trace()函数的方式可以导出Torch Script,使用torch.onnx.export()函数可以轻松导出ONNX。

    2023-06-12 22:54:31
    赞同 展开评论 打赏
  • 在 ModelScope 中导出模型为 ONNX 或 TorchScript 格式,可以按照以下步骤进行操作:

    登录 ModelScope 空间,进入“模型管理”页面。 选择您要导出的模型,点击“导出”按钮。 在弹出的“导出模型”对话框中,选择“ONNX”或“TorchScript”作为导出格式。 点击“导出”按钮,将模型导出为所选格式的模型文件。 如果您在尝试导出模型时遇到问题,可以尝试以下解决方法:

    检查您的 ModelScope 版本是否支持导出为 ONNX 或 TorchScript 格式。可以在 ModelScope 的官方文档中查找相关信息。 确保您选择的导出格式与您的模型架构相匹配。例如,如果您使用的是 PyTorch 模型,则只能将其导出为 TorchScript 格式。 如果您在使用 ModelScope 时遇到任何问题,可以参考官方文档或联系 ModelScope 支持团队以获取帮助。

    2023-06-11 09:43:49
    赞同 展开评论 打赏
  • 在使用 ModelScope 进行深度学习模型开发时,如果想要将训练好的模型导出成 ONNX 或者 TorchScript 格式,可以参考以下步骤:

    1. 确保已经安装支持 ONNX 和 TorchScript 的依赖库和工具,如 PyTorch、ONNX Runtime 等。

    2. 根据需要进行模型转换和导出,可以使用 PyTorch 自带的 export 函数或者 ONNX 工具集等进行操作。

    3. 在导出过程中,需要注意参数设置和格式转换等问题,并根据实际需求选择合适的导出方式和工具。对于一些特定类型的模型,可能需要进行额外的处理或者自定义代码。

    需要注意的是,在进行模型导出时,需要遵循相关标准和规范,并确保导出模型的可靠性和有效性。同时还需要评估导出模型的性能、准确率和兼容性等指标,并根据需要进行优化和调整。

    总之,在使用 ModelScope 导出深度学习模型时,需要掌握相关知识和技能,并了解各种导出方式和工具的特点和使用方法。可以参考官方文档和社区资源,了解更多的技术和方法,以提高模型开发和部署效率。

    2023-06-10 19:02:14
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    如果您想将 ModelScope 中的模型导出成 ONNX 或 TorchScript 格式,可以参考以下步骤:

    1. 准备好需要导出的模型:在 ModelScope 平台上训练好的模型,需要符合 ONNX 或 TorchScript 的规范和要求,例如模型结构、输入输出格式、数据类型等。同时,还需要确保模型在 Python 环境中可用,并已安装相应的依赖库和工具。

    2. 导出模型并转换为 ONNX 格式:使用 PyTorch 官方提供的 torch.onnx.export() 方法,将 PyTorch 模型导出为 ONNX 格式。该方法需要指定输入张量、输出张量、模型文件名等参数,并根据需要进行调整。

    3. 导出模型并转换为 TorchScript 格式:使用 PyTorch 官方提供的torch.jit.trace() 方法,将 PyTorch 模型导出为 TorchScript 格式。该方法需要指定输入张量、输出张量、模型文件名等参数,并根据需要进行调整。

    需要注意的是,在导出模型时,需要按照 ONNX 或 TorchScript 规范进行设计和调整,并针对不同的平台和设备进行优化和转换。另外,在使用模型时,也需要考虑到模型的性能、精度、稳定性等因素,并进行测试和验证,以确保模型能够满足应用场景的要求。

    总之,将 ModelScope 中的模型导出成 ONNX 或 TorchScript 格式,需要了解相关规范和方法,并根据具体情况进行调整和优化。可以参考官方文档和社区资源,学习更多的技术和经验,以便更好地应用和开发自然语言处理和其他应用程序。

    2023-06-10 19:02:15
    赞同 展开评论 打赏
  • 北京阿里云ACE会长

    可以尝试使用以下方法进行处理:

    确认模型是否支持导出为 TorchScript 格式:在使用 ModelScope 进行模型导出时,需要先确认模型是否支持导出为 TorchScript 格式。不是所有的模型都能够直接导出为 TorchScript 格式,这可能与模型的网络结构、输入输出格式等有关。如果模型不支持导出为 TorchScript 格式,可以尝试导出为其他格式,例如 ONNX 格式。

    确认使用的 PyTorch 版本是否支持 TorchScript:在使用 ModelScope 进行模型导出时,需要确认使用的 PyTorch 版本是否支持 TorchScript。如果使用的 PyTorch 版本不支持 TorchScript,可能会导致导出失败或者出现其他问题。建议使用最新版本的 PyTorch 进行导出操作。

    检查导出过程中的错误信息:在进行模型导出时,可以尝试检查导出过程中的错误信息,以便及时发现问题并进行处理。导出过程中可能会出现各种错误信息,例如模型结构不兼容、输入输出格式不正确等。可以根据错误信息进行调整和修改。

    如果你想将模型导出为 ONNX 格式,可以尝试使用以下方法:

    安装 ONNX 工具包:在进行 ONNX 导出操作前,需要先安装 ONNX 工具包。可以通过 pip 命令安装 ONNX 工具包,例如:

    pip install onnx 导出模型为 ONNX 格式:在安装完 ONNX 工具包后,可以使用以下代码将模型导出为 ONNX 格式: python

    import torch.onnx

    模型转换

    dummy_input = torch.randn(1, 3, 224, 224) torch.onnx.export(model, dummy_input, "model.onnx", verbose=True) 在上述代码中,model 是 PyTorch 模型对象,dummy_input 是模型的输入数据,model.onnx 是导出的 ONNX 模型文件名。可以根据实际情况进行修改和调整。

    2023-06-10 18:05:32
    赞同 展开评论 打赏
  • 对于将模型导出为ONNX或Torch Script格式,可以使用PyTorch的torch.onnx.export()函数或torch.jit.trace()函数。具体步骤如下:

    1、使用PyTorch训练模型并加载权重。

    2、构建输入张量。

    3、使用torch.onnx.export()函数导出为ONNX格式,或使用torch.jit.trace()函数导出为Torch Script格式。

    以下是一个简单的示例代码:

    import torch
    import torchvision
    
    # 加载训练好的模型
    model = torchvision.models.resnet18(pretrained=True)
    
    # 构建输入张量
    dummy_input = torch.randn(1, 3, 224, 224)
    
    # 导出为ONNX格式
    torch.onnx.export(model, dummy_input, "resnet18.onnx", verbose=True)
    
    # 导出为Torch Script格式
    traced_script_module = torch.jit.trace(model, dummy_input)
    traced_script_module.save("resnet18.pt")
    

    需要注意的是,部分模型不支持导出为ONNX或Torch Script格式,或者会因为一些操作而导致导出失败。在这种情况下,可以尝试使用其他库或工具进行模型转换。

    2023-06-10 07:53:42
    赞同 展开评论 打赏
  • 全栈JAVA领域创作者

    ModelScope的官方文档中没有mplug模型导出成torchScript格式的示例,这是因为mplug是一种可以支持在移动设备上进行推理的API,而不是一种可以支持导出成torchScript格式的API。如果您想将mplug模型导出成torchScript格式,您可以考虑使用onnx模型格式。 Onnx模型格式是一种可以支持导出成多种API格式的模型格式,包括torchScript格式。您可以使用Onnxruntime API将Onnx模型导出成torchScript格式。以下是导出onnx模型到Python中的示例代码:

    python Copy code import onnxruntime as rt import numpy as np import tensorflow as tf

    Load your model

    model = "path/to/model.onnx" inputs = {"input1": [np.array([[0.0, 0.0, 0.0]])], "input2": [np.array([[1.0, 1.0, 1.0]])], "input3": [np.array([[2.0, 2.0, 2.0]])]}

    Create an ONNX runtime session

    session = rt.InferenceSession("model")

    Add the input tensors

    input_names = ["input1", "input2", "input3"] for input_name in input_names: input_tensor = session.get_inputs()[input_name][0] session.set_input(input_name, input_tensor)

    Execute the inference

    result = session.run(None, {"output1": [np.array([[3.0, 3.0, 3.0]])]})

    Extract the output tensor

    output_name = "output1" output_tensor = session.get_outputs()[output_name][0]

    Convert the output tensor to numpy array

    output_numpy = output_tensor.numpy().tolist() print(output_numpy) 以上是一个导出onnx模型到Python中的示例代码,它使用了Onnxruntime API将Onnx模型导出成torchScript格式。您可以使用类似的方法导出您的mplug模型。

    2023-06-09 17:09:00
    赞同 展开评论 打赏
  • 对于导出 mPLUG 模型成为 TorchScript 或者 ONNX 格式,您可以尝试以下方法:

    1. TorchScript 导出:

    ModelScope 官方文档中提供了导出 mPLUG 模型成为 TorchScript 格式的示例。具体操作步骤为:先使用 ModelScope 中的 mPLUG 命令行工具将模型转换成 OpenVINO IR 格式的模型,然后使用 Pytorch 中的 torch.jit.trace 方法将模型转换成 TorchScript 格式的模型。可以参考 ModelScope 官方文档中的示例程序进行实践。

    1. ONNX 导出:

    将 mPLUG 模型导出成 ONNX 格式,可以通过使用 ONNX 官方提供的工具包进行实现。具体操作步骤为:先使用 ModelScope 中的 mPLUG 命令行工具将模型转换成 OpenVINO IR 格式的模型,然后使用 OpenVINO 官方提供的工具包将模型转换成 ONNX 格式的模型。也可以考虑使用 Pytorch 中的 torch.onnx.export 方法将模型导出成 ONNX 格式的模型。

    需要注意的是,mPLUG 模型的导出方式可能因不同的模型类型和运行环境而有所区别。建议您在导出模型时仔细阅读相关文档和示例程序,并且根据实际情况进行适当的调整和优化。

    2023-06-09 16:31:08
    赞同 展开评论 打赏
滑动查看更多

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载