MindSpore QuickStart——LSTM算法实践学习
不得不说本作者实在很菜,还要努力的学习。首先说明一下:
1.机器学习和深度学习可以说初探完了,但是其功力太浅。
2.本想只是学习一下,看看的,但是还是入坟了
3.作者能力实在有限,基础实在太差,太菜,只是将流程走了一遍,部分理解不了。
此文为期两天的华为mindspore框架深度学习:
第一天:
1.MindSpore的WASM与Rust实验:
2.基于eBPF的AI kernel观测:
3.轻松使用Volcano和kubeflow进行分布式部署:
第一天我是啥也不懂,只有两字:**
还好第三个作业是跟着文档走的,这一块非常感谢。总之最后完成了作业。
第二天:
1.MindSpore0.3.0新版本介绍:下午发布
2.MindSpore QuickStart——LSTM算法实践:
3.算法加速大杀器:二阶优化详解:
这个还可以,毕竟之前学习了paddlepaddle一点还能有所理解
主要说一下mindspore对lstm算法实践:
特此说明:在这里我是使用jupyter去完成的,没有使用ssh远程
准备数据
1.使用git拷贝:
!git clone https://gitee.com/mindspore/mindspore
2.切换到这个路径
cd /mindspore/example/lstm_aclImdb/
3.下载数据,上传数据
这是数据下载地址
http://ai.stanford.edu/~amaas/data/sentiment/aclImdb_v1.tar.gz http://nlp.stanford.edu/data/glove.6B.zip
将它们解压:
unzip glove.6B.zip -d ./glove
tar -xvzf aclImdb_v1.tar.gz
安装需要包:
pip install gensim
这也是mindspore刚发行的版本
执行程序:
执行:
!python train.py --preprocess=true --aclimdb_path=./aclImdb --glove_path=./glove --ckpt_path=./ckpt
使用这个命令将会产生错误如下:
我们以此解决:
!python -m gensim.scripts.glove2word2vec --input ./glove/glove.6B.300d.txt --output ./glove/glove.6B.300d.w2vformat.txt mv glove/glove.6B.300d.txt glove/glove.6B.300d.txt.bak mv glove/glove.6B.300d.w2vformat.txt glove/glove.6B.300d.txt
再次执行:
!python train.py --preprocess=true --aclimdb_path=./aclImdb --glove_path=./glove --ckpt_path=./ckp
等待训练结果:
执行验证程序:
python eval.py --ckpt_path=./ckpt/lstm-20_390.ckpt
产生结果:
致此结束,到这里本作者终于淦完。
最后总结一下:
在这两日学习,这两日的复现让我真的学习到很多知识和接触很多,对此非常感谢mindspore官方提供的学习机会。
此上如有不足之处,望您指正。