Kubeflow实战系列:阿里云上使用JupyterHub

本文涉及的产品
容器镜像服务 ACR,镜像仓库100个 不限时长
简介: 介绍 本系列将介绍如何在阿里云容器服务上运行Kubeflow, 本文介绍如何使用Jupyter Hub。 背景介绍 时间过得真快,李世乭和AlphaGo的人机对弈已经是两年前的事情。在过去的两年中,人工智能开始从学术界向工业界转型,基于人工智能技术的产品化落地和工业界方案的探索正如火如荼的进行。

介绍

本系列将介绍如何在阿里云容器服务上运行Kubeflow, 本文介绍如何使用Jupyter Hub。

背景介绍

时间过得真快,李世乭和AlphaGo的人机对弈已经是两年前的事情。在过去的两年中,人工智能开始从学术界向工业界转型,基于人工智能技术的产品化落地和工业界方案的探索正如火如荼的进行。而随着计算和数据的规模化,机器学习模型持续迭代的常态化,人们意识到过去实验室里的手工作坊式的做法已经无法应对新的变化。

kubeflow.png

而Kubernetes作为基于容器技术的云平台,正在悄然的改变大规模部署和应用程序管理的行业标准,越来越多的企业开始使用Kubernetes来部署和运维自己的应用。虽然Kubernetes最擅长解决的是无状态服务生命周期管理,但是越来越多的其他类型的工作负载也在开始向这个平台迁移,目的在于利用Kubernetes平台本身的API,可靠性和生命周期管理能力。

而最近新兴的Kubeflow社区,就是利用Kubernetes将大规模机器学习变得模块化,可迁移和易扩展。

Kubeflow介绍

Kubeflow致力于利用Kubernetes将机器学习(ML)工作流程的部署变得简单,便携和可扩展。其目标不是重新创建其他服务,而是提供一种直接的方式将机器学习的最佳开源系统部署到各种基础架构中。 在运行Kubernetes的任何地方,都应该可以运行Kubeflow。该项目一直在不断的演进和丰富之中,目前主要包含的模块:

  • JupyterHub创建和管理交互式Jupyter笔记本。 Jupyter本身支持跨所有编程语言的交互式数据科学和科学计算。
  • TensorFlow训练管理控制器,可以配置使用CPU或者GPU,并且动态调整训练集群的规模
  • TensorFlow服务将训练好的模型以grpc和REST的方式提供API调用

Kubeflow分别支持本地部署模式和云平台部署,阿里云Kubernetes容器服务针对于KubeFlow做了本地化的定制,方便您在阿里云上运行Kubeflow方案。

部署阿里云Kubernetes容器服务,并且选择GPU类型

具体参考创建GPU集群

部署Kubeflow

安装ksonnet

Kubeflow 利用 ksonnet 打包和部署其组件。

首先,安装ksonnet版本 0.9.2

# curl -o ks_0.9.2_linux_amd64.tar.gz http://kubeflow.oss-cn-beijing.aliyuncs.com/ks_0.9.2_linux_amd64.tar.gz
# tar -xvf ks_0.9.2_linux_amd64.tar.gz
# cp ks_0.9.2_linux_amd64/ks /usr/local/bin/
# ks version

准备Github Token

  • 登录https://github.com/settings/tokens创建token。你无须提供任何权限给这个token
  • 请保存好该token,因为你无法再查看到这个token。如果没有记录好token,你就只能重现创建一个新的token
  • 可以将该token保存到shell启动脚本中,比如
echo "export GITHUB_TOKEN=${GITHUB_TOKEN}" >> ~/.bashrc
export GITHUB_TOKEN=${GITHUB_TOKEN}

该问题是ksonnet的限制:可以参考文档github-rate-limiting-errors了解其中的细节。

安装Kubeflow

# 创建Kubeflow运行的namespace
NAMESPACE=kubeflow
kubectl create namespace ${NAMESPACE}

# 指定特有版本
VERSION=jupyterhub-alibaba-cloud

# 初始化Kubeflow应用,并且将其namespace设置为default环境
APP_NAME=my-kubeflow
ks init ${APP_NAME} --api-spec=version:v1.9.3
cd ${APP_NAME}
ks env set default --namespace ${NAMESPACE}

# 安装 Kubeflow 模块
ks registry add kubeflow github.com/cheyang/kubeflow/tree/${VERSION}/kubeflow
ks registry list

ks pkg install kubeflow/core@${VERSION}
ks pkg install kubeflow/tf-serving@${VERSION}
ks pkg install kubeflow/tf-job@${VERSION}

# 创建核心模块的模板
ks generate kubeflow-core kubeflow-core

# 支持运行在阿里云Kubernetes容器服务
ks param set kubeflow-core cloud ack

ks param set kubeflow-core jupyterHubImage registry.aliyuncs.com/kubeflow-images-public/jupyterhub-k8s:1.0.1
ks param set kubeflow-core tfJobImage registry.cn-hangzhou.aliyuncs.com/kubeflow-images-public/tf_operator:v20180326-6214e560
ks param set kubeflow-core tfAmbassadorImage registry.aliyuncs.com/datawire/ambassador:0.34.0
ks param set kubeflow-core tfStatsdImage registry.aliyuncs.com/datawire/statsd:0.34.0

ks param set kubeflow-core jupyterNotebookRegistry registry.aliyuncs.com
ks param set kubeflow-core JupyterNotebookRepoName kubeflow-images-public

# 这里为了使用简单,将服务以LoadBalancer的方式暴露,这样可以直接通过阿里云SLB的ip访问。
ks param set kubeflow-core jupyterHubServiceType LoadBalancer
ks param set kubeflow-core tfAmbassadorServiceType LoadBalancer
ks param set kubeflow-core tfJobUiServiceType LoadBalancer


# 部署KubeFlow
ks apply default -c kubeflow-core

验证部署

查看相关的Pod是否处于Running状态

# kubectl get po -n kubeflow
NAME                                READY     STATUS    RESTARTS   AGE
ambassador-58f64cb77-9cqq2          2/2       Running   0          3h
ambassador-58f64cb77-fqn8x          2/2       Running   0          3h
ambassador-58f64cb77-g8pb6          2/2       Running   0          3h
centraldashboard-648d5f56d9-xp9c8   1/1       Running   0          3h
tf-hub-0                            1/1       Running   0          3h
tf-job-dashboard-759c7d4dd-6mj2j    1/1       Running   0          3h
tf-job-operator-7684bcf66b-qqvt8    1/1       Running   0          3h

体验Jupyter Hub

1. 可以通过kubectl命令查看Jupyter Hub的外网访问ip, 在本例子里,外网ip为101.37.178.121

# kubectl get svc -n kubeflow tf-hub-lb
NAME        TYPE           CLUSTER-IP    EXTERNAL-IP      PORT(S)        AGE
tf-hub-lb   LoadBalancer   172.19.3.22   101.37.178.121   80:32373/TCP   4h

注意由于Kubeflow的Jupyter Hub目前仅仅提供http访问,并不推荐在生产环境使用LoadBalancer模式的Service,建议在生产环境,可以使用kubectl proxy的模式访问

2. 通过外网ip访问Jupyter Hub, 默认没有提供认证插件,可以通过任何用户名和密码登录

jupyterhub_1.jpg

3. 点击Start My Server创建Jupyter Notebook

jupyterhub_2.jpg

4. 可以从下拉框里,选择不同版本TensorFlow的Jupyter Notebook(1.4.1,1.5.1,1.6.0, 1.7.0), 这里的地址都是阿里云容器镜像的地址,无需担心镜像下拉失败的问题。如果要使用一块GPU卡,请在Extera Resource Limits填入{"nvidia.com/gpu":"1"}, 点击Spwan:

jupyterhub_3.jpg

5. 这时可以看到启动页面一直处于加载状态,这是由于Jupyter Notebook的镜像通常很大,下载时间较长。

jupyterhub_4.jpg

6. 当Jupyter Notebook启动完成后,就会完成自动跳转.这时候可以从下拉框选择Terminal, 并且点击

jupyterhub_5.jpg

7. 可以在Terminal执行nvidia smi, 可以看到当前环境是P100的单卡

jupyterhub_6.jpg

8. 可以通过http://{ip}/user/{user}/tree返回到Jupyter主页, 从下拉框选择python 3,并且点击

jupyterhub_7.jpg

9. 运行简单的mnist softmas测试

jupyterhub_8.jpg

以下为测试代码:

from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

import tensorflow as tf

x = tf.placeholder(tf.float32, [None, 784])

W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))

y = tf.nn.softmax(tf.matmul(x, W) + b)

y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))

train_step = tf.train.GradientDescentOptimizer(0.05).minimize(cross_entropy)

sess = tf.InteractiveSession()
tf.global_variables_initializer().run()

for _ in range(1000):
  batch_xs, batch_ys = mnist.train.next_batch(100)
  sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))

删除Kubeflow

# ks delete default -c kubeflow-core
# kubectl delete ns kubeflow

总结

为了方便阿里云的用户学习和使用Kubeflow, 阿里云Kubernetes容器服务提供了本地化运行的方案。当然Kubeflow目前还不够成熟,但是它的社区热度和演进速度还是让人充满了期待;我们会进一步加强Kubeflow和阿里云自身负载均衡,存储和认证机制相结合,进一步降低在阿里云使用Kubernetes上的机器学习栈的难度。

相关实践学习
巧用云服务器ECS制作节日贺卡
本场景带您体验如何在一台CentOS 7操作系统的ECS实例上,通过搭建web服务器,上传源码到web容器,制作节日贺卡网页。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
Kubernetes TensorFlow 算法框架/工具
Kubeflow 使用指南
Kubeflow(https://github.com/kubeflow)是基于Kubernetes(https://kubernets.io,容器编排与管理服务软件)和TensorFlow(https://tensorflow.org,深度学习库)的机器学习流程工具,使用Ksonnet进行应用包的管理。
12810 0
|
Kubernetes 安全 Cloud Native
knative入门指南
knative入门指南
470 0
knative入门指南
|
机器学习/深度学习
《阿里云 Kubernetes+Kubeflow – 加速深度学习实验的利器》电子版地址
阿里云 Kubernetes+Kubeflow – 加速深度学习实验的利器
238 0
《阿里云 Kubernetes+Kubeflow – 加速深度学习实验的利器》电子版地址
|
存储 Kubernetes 前端开发
GitOps【1】入门实践
GitOps【1】入门实践
GitOps【1】入门实践
|
机器学习/深度学习 存储 Kubernetes
Kubeflow 和 Argo 的综合比较
MLOps 通过自动化可重复的任务来帮助简化 ML 生命周期。它还提供了帮助数据科学团队与其他团队有效协作、沟通和协调的最佳实践。 机器学习管道是 MLOps 中的一个关键概念。理想情况下,一旦机器学习模型投入生产,就会构建一个可以根据需要重新训练模型的系统,并且可以进一步开发该系统,而不是依赖临时工作流。 许多公司的一个重要问题是找到最合适的平台来管理他们的自动化工作流程。一些人正在寻找为 ML/MLOps 构建的特定工具,例如:Kubeflow,而另一些人则在寻找更通用的编排器,例如:Argo 或 Airflow,它们可以适用于机器学习工作流。
|
监控 网络协议 Serverless
serverless-knative serving安装实战
serverless-knative serving安装实战
174 0
|
机器学习/深度学习 Kubernetes 算法
玩转Kubeflow第一章: kubeflow 国内本地安装及案例介绍
kubeflow 是 google 开源的一个基于 kubernetes 的 ML workflow 平台,其集成了大量的机器学习工具,这里给大家介绍下基于阿里云镜像仓库进行kubeflow安装部署,同时通过 kittab 超参数案例,pipeline workflow 的例子给大家详细介绍kubeflow各组件的玩法,同时在最后提出针对kubeflow 构建 MLOps 平台的一些思考。
16242 1
玩转Kubeflow第一章: kubeflow 国内本地安装及案例介绍
|
机器学习/深度学习 存储 Kubernetes
kubeflow系列(二):kubeflow组件介绍
kubeflow作为基于云原生的机器学习大礼包,即可以作为一个很好的云原生的学习例子,同时基于k8s的生态必将是未来的发展的方向,相信后续Mxnet、paddle等各类型技术框架也都会运行在kubernetes这个生态之上,而对组件和架构的梳理可以以最快的速度了解kubeflow。
4654 0
kubeflow系列(二):kubeflow组件介绍
|
机器学习/深度学习 固态存储 容器
像Google一样构建机器学习系统 - 在阿里云上搭建Kubeflow Pipelines
谈到机器学习工作流平台,Google的工程经验非常丰富,它的TensorFlow Extended机器学习平台支撑了Google的搜索,翻译,视频等核心业务;更重要的是其对机器学习领域工程效率问题的理解深刻,
5592 0
|
Prometheus Kubernetes Cloud Native
Kubernetes 实战教学,手把手教您用 Helm 在 K8s 平台上部署 Prometheus
随着单片系统变得越来越庞大以至于无法处理,许多企业开始将其分解为微服务体系结构。无论何时我们从单片架构转向微服务架构,应用程序都包含多个组件,这些组件之间的服务需要进行相互通信。
8333 0