DLC Quick Start使用教程
•阿里云PAI DLC实例运行LeNet Sample
一、上传项目到码云
注意:国内服务器因为网络原因,直接加载GitHub项目经常会因为网络超时导致Clone失败,建议优先考虑国内代码托管服务。
•1.1 项目结构
•1.2 letnet_sample.py
import tensorflflow as tf import matplotlib.pyplot as plt 23 阿里云AI产品必知必会系列电子书batch = 32 # 创建模型 model = keras.Sequential([ # 卷积层1 keras.layers.Conv2D(6, 5), # 使用6个5*5的卷积核对单通道32*32的图片进行卷积,结果得到6个28*28的特征图 keras.layers.MaxPooling2D(pool_size=2, strides=2), # 对28*28的特征图进行2*2最大池化,得到14*14的特征图 keras.layers.ReLU(), # ReLU激活函数 # 卷积层2 keras.layers.Conv2D(16, 5), # 使用16个5*5的卷积核对6通道14*14的图片进行卷积,结果得到16个10*10的特征图 keras.layers.MaxPooling2D(pool_size=2, strides=2), # 对10*10的特征图进行2*2最大池化,得到5*5的特征图 keras.layers.ReLU(), # ReLU激活函数 # 卷积层3 keras.layers.Conv2D(120, 5), # 使用120个5*5的卷积核对16通道5*5的图片进行卷积,结果得到120个1*1的特征图 keras.layers.ReLU(), # ReLU激活函数 # 将 (None, 1, 1, 120) 的下采样图片拉伸成 (None, 120) 的形状 keras.layers.Flatten(), # 全连接层1 keras.layers.Dense(84, activation='relu'), # 120*84 # 全连接层2 keras.layers.Dense(10, activation='softmax') # 84*10 ]) model.build(input_shape=(batch, 32, 32, 1)) model.summary() model.compile(optimizer=keras.optimizers.Adam(), loss=keras.losses.CategoricalCrossentropy(), metrics=['accuracy']) # 训练 history = model.fifit(train_db, epochs=50) # 损失下降曲线 plt.plot(history.history['loss']) plt.title('model loss') plt.ylabel('loss') plt.xlabel('epoch') plt.show() # 测试 model.evaluate(test_db)
•1.3 requirements.txt
scikit-learn==0.24.2 tensorflflow==2.3.0
注意:此处仅做通过requirement方式安装包的功能演示,本身系统已经安装了上面的包,不安装也不影响Code的正常运行。
•1.4 获取私有仓库认证信息
二、创建PAI DLC任务
•2.1 创建代码配置
•2.2 创建任务
•2.3查看资源运行情况