BERT是2018年10月由Google AI研究院提出的一种预训练模型。BERT的全称是Bidirectional Encoder Representation from Transformers。BERT在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩: 全部两个衡量指标上全面超越人类,并且在11种不同NLP测试中创出SOTA表现,包括将GLUE基准推高至80.4% (绝对改进7.6%),MultiNLI准确度达到86.7% (绝对改进5.6%),成为NLP发展史上的里程碑式的模型成就。
一、安装配置初步运行环境
安装文章链接: 点击打开《基于Windows中学习Deep Learning之搭建Anaconda+Pytorch(Cuda+Cudnn)+Pycharm工具和配置环境完整最简版》文章
二、根据上面的文章配置好初步环境后,复制粘贴下面命令打开“D:\Anaconda\Scripts”路径下的控制平台CMD运行安装transformers,若出现下面图片中的错误无法正常安装则继续往后操作进行,没出现问题直接跳转到第九步(注意:博主配置运行环境是在Anaconda默认base的环境和新建的python虚拟环境transformers下都进行配置,其实可以只配置一个就行,一般选择新建的python虚拟环境,然后将配置好的虚拟环境的python运行环境和Pycharm对应的项目进行连接,然后即可正常运行项目程序)。
pip install transformers
三、打开Anaconda Prompt,依次复制下面的命令运行建立Anaconda的python虚拟环境transformers,然后将“D:\Anaconda\envs\transformers\Scripts”添加到环境变量PATH中。注意:下面命令中的python=3.7是根据博主安装的python版本对应的,若你安装的是其他版本可以进行对应的修改。
conda create -n transformers python=3.7
conda env list
四、复制粘贴下面命令打开“D:\Anaconda\envs\transformers\Scripts”路径下的控制平台CMD运行安装transformers,等待一分钟左右进行安装。
pip install transformers
五、下载完成后将对应下载的文件复制粘贴到“D:\Anaconda\Scripts”路径下,复制粘贴过程中若提示重复的文件,要选择直接跳过。
六、复制粘贴下面命令打开“D:\Anaconda\Scripts”路径下的控制平台CMD运行安装transformers,可能会出现下面图片中的部分小问题,如:ERROR: Cannot uninstall ‘PyYAML’。
pip install transformers
七、复制粘贴下面命令继续运行即可解决上面的小问题。
pip install --ignore-installed PyYAML
八、复制粘贴下面命令运行,等待十秒成功安装见下图。
pip install transformers
九、测试安装transformers是否成功,运行下面的代码是否报错,若报错表示没有安装成功见下图。
from transformers import BertTokenizer, BertModel, BertForMaskedLM
十、若没有报错表示安装成功,见下图。
注意:有些涉及Bert模型配置运行环境的文章和github仓库依旧使用下面的命令进行环境的安装,但是总是提示无法安装,原因是Hugging Face的这款BERT工具以前称为pytorch-transformers和pytorch-pretrained-bert,在不断的更新迭代中已经更名为transformers这个名字,自然安装pytorch-pretrained-bert是无法正常安装的,所以要改成安装transformers。
pip install pytorch-pretrained-bert
pip install transformers