ModelScope这个问题有遇到过么?

ModelScope这个问题有遇到过么?02ce997cb7c244c3cb67bf13db82d4a3.png

展开
收起
真的很搞笑 2023-11-15 07:27:32 56 分享 版权
2 条回答
写回答
取消 提交回答
  • 这个问题是由于在使用梯度检查点(gradient checkpointing)时,use_cache=True这个问题是由于在使用梯度检查点(gradient checkpointing)时,use_cache=True与梯度检查点不兼容导致的。为了解决这个问题,你需要将use_cache设置为False

    你可以在你的代码中找到以下部分:

    from transformers import TrainingArguments, Trainer
    
    training_args = TrainingArguments(
        output_dir="./results",
        per_device_train_batch_size=4,
        per_device_eval_batch_size=16,
        gradient_accumulation_steps=2,
        learning_rate=5e-5,
        weight_decay=0.01,
        evaluation_strategy="epoch",
        save_strategy="epoch",
        num_train_epochs=3,
        logging_dir="./logs",
        logging_steps=10,
        use_cache=True,  # 这里需要修改为 False
    )
    
    trainer = Trainer(
        model=model,
        args=training_args,
        train_dataset=train_dataset,
        eval_dataset=test_dataset,
    )
    

    use_cache=True修改为use_cache=False,然后重新运行你的代码。

    2023-11-30 10:41:23
    赞同 展开评论
  • 没遇到过哦,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-11-15 13:02:37
    赞同 展开评论

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理