请问白盒化加速如何设置--user-script为rapidformer_finetune_huggingface_bert_trainer.py,并设置加速开关。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
您好,可以按如下操作设置:
#!/bin/bash
export CUDA_VISIBLE_DEVICES=4,5,6,7
export MASTER_ADDR=localhost
export MASTER_PORT=6010
export NNODES=1
export NODE_RANK=0
rapidformer --user-script rapidformer_finetune_huggingface_bert_trainer.py
--task sequence_classification \
--pretrained-model-name-or-path 'bert-base-cased' \
--data-path glue \
--data-name mrpc \
--epochs 3 \
--micro-batch-size 16 \
--global-batch-size 16 \
--lr 2e-5 \
--lr-decay-style linear \
--lr-warmup-iters 100 \
--weight-decay 1e-2 \
--clip-grad 1.0 \
--mixed-precision #开启混合精度训练
--zero-3-memory-optimization \ #开启模型状态切分
--onnx-runtime-training \ #开启计算图优化
白盒化加速设置步骤如下: 1. 在命令行中输入以下命令:
python -m rapidformer_finetune_huggingface_bert_trainer --user-script rapidformer_finetune_huggingface_bert_trainer.py --acceleration-switch on
人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。