notebook GPU模式 chatglm2-6b都跑不了吗?

本文涉及的产品
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,5000CU*H 3个月
简介: notebook GPU模式 chatglm2-6b 跑出错,提示GPU内存不足

notebook GPU模式,首次运行实例代码“介绍清华大学”,能成功返回,之后写了个python,让批量生成,一跑就出错,提示GPU内存不够。

Traceback (most recent call last):
File "glm.py", line 63, in
main()
File "glm.py", line 60, in main
generate_and_save_articles(model, input_file, output_dir)
File "glm.py", line 23, in generate_and_save_articles
article = generate_article(model, keyword)
File "glm.py", line 9, in generate_article
result = pipe(inputs)
File "/opt/conda/lib/python3.8/site-packages/modelscope/pipelines/base.py", line 219, in call
output = self._process_single(input, args, kwargs)
File "/opt/conda/lib/python3.8/site-packages/modelscope/pipelines/base.py", line 254, in _process_single
out = self.forward(out,
forward_params)
File "/opt/conda/lib/python3.8/site-packages/modelscope/pipelines/nlp/text_generation_pipeline.py", line 274, in forward
return self.model.chat(inputs, self.tokenizer)
File "/opt/conda/lib/python3.8/site-packages/modelscope/models/nlp/chatglm2/text_generation.py", line 1432, in chat
response, history = self._chat(
File "/opt/conda/lib/python3.8/site-packages/torch/utils/_contextlib.py", line 115, in decorate_context
return func(
args, kwargs)
File "/opt/conda/lib/python3.8/site-packages/modelscope/models/nlp/chatglm2/text_generation.py", line 1204, in _chat
outputs = self.generate(
inputs, gen_kwargs)
File "/opt/conda/lib/python3.8/site-packages/torch/utils/_contextlib.py", line 115, in decorate_context
return func(*args,
kwargs)
File "/opt/conda/lib/python3.8/site-packages/transformers/generation/utils.py", line 1572, in generate
return self.sample(
File "/opt/conda/lib/python3.8/site-packages/transformers/generation/utils.py", line 2619, in sample
outputs = self(
File "/opt/conda/lib/python3.8/site-packages/modelscope/models/base/base_torch_model.py", line 36, in call
return self.postprocess(self.forward(args, **kwargs))
File "/opt/conda/lib/python3.8/site-packages/accelerate/hooks.py", line 165, in new_forward
output = old_forward(
args, kwargs)
File "/opt/conda/lib/python3.8/site-packages/modelscope/models/nlp/chatglm2/text_generation.py", line 1094, in forward
lm_logits = self.transformer.output_layer(hidden_states)
File "/opt/conda/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1501, in _call_impl
return forward_call(*args,
kwargs)
File "/opt/conda/lib/python3.8/site-packages/accelerate/hooks.py", line 160, in new_forward
args, kwargs = module._hf_hook.pre_forward(module, args, *kwargs)
File "/opt/conda/lib/python3.8/site-packages/accelerate/hooks.py", line 286, in pre_forward
set_module_tensor_to_device(
File "/opt/conda/lib/python3.8/site-packages/accelerate/utils/modeling.py", line 298, in set_module_tensor_to_device
new_value = value.to(device)
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 508.00 MiB (GPU 0; 15.90 GiB total capacity; 2.04 GiB already allocated; 494.81 MiB free; 2.05 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
1月前
|
人工智能 架构师 容灾
函数计算 FC:首发 GPU 极速模式,更弹性、更降本
2024 云栖大会上,函数计算 FC 为 AI 加码,首发 GPU 极速模式,让 GPU 可以更弹性、更便宜。
192 14
|
5月前
|
运维 监控 Serverless
一键开启 GPU 闲置模式,基于函数计算低成本部署 Google Gemma 模型服务
本文介绍如何使用函数计算 GPU 实例闲置模式低成本、快速的部署 Google Gemma 模型服务。
164969 58
|
弹性计算 异构计算 AI芯片
阿里云GPU服务器租用费用一年价格及GPU配置计费模式说明
阿里云GPU服务器租用费用一年价格及GPU配置计费模式说明,阿里云GPU服务器租用价格表包括包年包月价格、一个小时收费以及学生GPU服务器租用费用,阿里云GPU计算卡包括NVIDIA V100计算卡、T4计算卡、A10计算卡和A100计算卡,GPU云服务器gn6i可享受3折优惠,阿里云百科分享阿里云GPU服务器租用价格表、GPU一个小时多少钱以及学生GPU服务器收费价格表
239 0
|
弹性计算 供应链 固态存储
阿里云GPU服务器租用费用一年价格及GPU配置计费模式说明
阿里云GPU服务器配置及租用费用价格表,阿里云GPU云服务器计费模式分为包年包月、按量付费和抢占式实例
3121 0
阿里云GPU服务器租用费用一年价格及GPU配置计费模式说明
|
消息中间件 缓存 算法
Android GPU呈现模式原理及卡顿掉帧浅析
Android GPU呈现模式原理及卡顿掉帧浅析
969 0
Android GPU呈现模式原理及卡顿掉帧浅析
|
异构计算
鸟类的大脑处理数据模式,可以启发CPU/GPU的设计
鸟类的大脑处理数据模式,可以启发CPU/GPU的设计
108 0
|
2月前
|
机器学习/深度学习 编解码 人工智能
阿里云gpu云服务器租用价格:最新收费标准与活动价格及热门实例解析
随着人工智能、大数据和深度学习等领域的快速发展,GPU服务器的需求日益增长。阿里云的GPU服务器凭借强大的计算能力和灵活的资源配置,成为众多用户的首选。很多用户比较关心gpu云服务器的收费标准与活动价格情况,目前计算型gn6v实例云服务器一周价格为2138.27元/1周起,月付价格为3830.00元/1个月起;计算型gn7i实例云服务器一周价格为1793.30元/1周起,月付价格为3213.99元/1个月起;计算型 gn6i实例云服务器一周价格为942.11元/1周起,月付价格为1694.00元/1个月起。本文为大家整理汇总了gpu云服务器的最新收费标准与活动价格情况,以供参考。
阿里云gpu云服务器租用价格:最新收费标准与活动价格及热门实例解析
|
1月前
|
机器学习/深度学习 存储 人工智能
阿里云GPU云服务器实例规格gn6v、gn7i、gn6i实例性能及区别和选择参考
阿里云的GPU云服务器产品线在深度学习、科学计算、图形渲染等多个领域展现出强大的计算能力和广泛的应用价值。本文将详细介绍阿里云GPU云服务器中的gn6v、gn7i、gn6i三个实例规格族的性能特点、区别及选择参考,帮助用户根据自身需求选择合适的GPU云服务器实例。
阿里云GPU云服务器实例规格gn6v、gn7i、gn6i实例性能及区别和选择参考