问题一:机器学习PAI用的还是deepfm模型, 多机多卡, mpi在多机上可以跑通,帮忙看下这个问题?
/usr/bin/mpirun -np 16
--map-by ppr:4:socket -bind-to socket
--hostfile ./hostfile
--allow-run-as-root
--tag-output
--report-bindings
--mca pml ob1
--mca btl ^openib
--mca btl_tcp_if_exclude lo,docker0,bond0
--wdir /home/deeprec
-x NCCL_IB_DISABLE=0
-x NCCL_IB_GID_INDEX=3
-x NCCL_IB_HCA=mlx5
-x NCCL_DEBUG=INFO
-x NCCL_IB_TIMEOUT=25
-x NCCL_IB_RETRY_CNT=7
-x NCCL_SOCKET_IFNAME=eth0
-x TF_GPU_CUPTI_FORCE_CONCURRENT_KERNEL=1
-x JAVA_HOME=/opt/jdk/jdk1.8
-x START_STATISTIC_STEP=100
-x LIBHDFS_OPTS=-Dhadoop.root.logger=WARN,console
-x STOP_STATISTIC_STEP=110
-x MEM_USAGE_STRATEGY=251
-x JEMALLOC_PATH=/home/deeprec
-x SEC_TOKEN_PATH=/home/deeprec/tokens_sectoken
-x TF_SCRIPT=train.py
-x YARN_APP_ID=application_1681844181995_4023507
-x TF_WORKSPACE=/home/deeprec
-x HADOOP_HDFS_HOME=/opt/yarn/hadoop
-x HADOOP_TOKEN_FILE_LOCATION=/home/deeprec/container_tokens
-x PYTHONPATH=/usr/lib/python3.8/site-packages/merlin_sok-1.1.4-py3.8-linux-x86_64.egg:
-x PATH=/opt/yarn/hadoop/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
-x APPLICATION_ID=application_1681844181995_4023507
-x LD_LIBRARY_PATH=/opt/jdk/jdk1.8/jre/lib/amd64/server:/opt/yarn/hadoop/lib/native:/opt/yarn/hadoop/lib/native python train.py
--output_dir=hdfs:///user/xxx/deeprec
--data_location=hdfs:///user/xxx/criteo_1tb
--protocol=grpc
--smartstaged=false
--batch_size=2048
--steps=30000
--ev=true
--ev_elimination=l2
--ev_filter=counter
--op_fusion=true
--input_layer_partitioner=0
--dense_layer_partitioner=16
--group_embedding=collective
--workqueue=true
--parquet_dataset=false
机器学习PAI用的还是deepfm模型, 上次跑通了单机多卡, 这次想试试, 多机多卡, 在上yarn调度. ssh都配好了, mpi在多机上可以跑通,帮忙看下这个问题?是在yarn上先拉起两个大容器, 每个容器基本占一台物理机(8卡A100), 然后在容器内打通ssh, 然后在容器内用mpi拉起deeprec进程
参考回答:
所以目前你们是MPI本地提交作业,物理机跑多机多卡能跑起来,用集群调度容器跑不起来,你试试在机器上看看get_physical_devices看看tf有没有正常识别GPU设备 SOK的相关Op目前都只实现了GPU的版本,但是我看Log显示进程只检测到CPU device;所以你要不进容器检查一下tf 的visible_devices
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/506082?spm=5176.8068049.0.0.77566d1989YhJO
问题二:机器学习PAI为啥出来的结果是这样的呢,没有那种比较整齐的表格吗?
机器学习PAI为啥出来的结果是这样的呢,没有那种比较整齐的表格吗?
参考回答:
是个json,py返回的是dict,你可以自己格式化打印。 另外实验目录下有个json文件是格式化的应该
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/506081?spm=5176.8068049.0.0.77566d1989YhJO
问题三:机器学习PAI怎么利用Yolox算法训练自己的数据集?
机器学习PAI怎么利用Yolox算法训练自己的数据集?为什么我一张卡 训练出来的map的值与其他的架构下的yolox算法(mmdetection)有很大的差距, 训练出来的模型识别效果也不好。前20epoch的map等指标都显示未0 ,有时候训练了300个epoch都可能指标值不超过0.1,有大佬解读一下你们使用yolox算法正常吗,你们的使用姿势是如何的? 是在这里下载预训练模型吗
参考回答:
我有遇到过,使用一下对应的预训练权重,这个问题会好一些。是的,然后config文件里面加一句load_from=link或者path
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/506080?spm=5176.8068049.0.0.77566d1989YhJO
问题四:这个方法在机器学习PAI中读取mysql数据,报错这段代码是想把一个表的数据存到另一个表吗?"
"
这个方法读取mysql数据,报错
"
参考回答:
"CatclogSourceBatchOp缺了catalog,可以这样设 CatalogSourceBatchOp().setCatalogObject(catalogObject)
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/505919?spm=5176.8068049.0.0.77566d1989YhJO
问题五:请问关于机器学习PAI、PAI-Designer、PAI-DSW、PAI-EAS中item2vec或者 item embedding的模型和服务在哪里?我要做物品(或者多模态的物品的表示)的表征和相似度检索
请问关于机器学习PAI、PAI-Designer、PAI-DSW、PAI-EAS中item2vec或者 item embedding的模型和服务在哪里?我要做物品(或者多模态的物品的表示)的表征和相似度检索
参考回答:
关于机器学习PAI、PAI-Designer、PAI-DSW、PAI-EAS中的item2vec或者item embedding的模型和服务,您可以通过以下步骤进行操作:
- 登录阿里云机器学习平台PAI控制台,进入“工作空间”页面。
- 在“工作空间”页面中,选择您的工作空间,并进入该工作空间的控制台。
- 在该工作空间的控制台中,您可以使用PAI-Designer或PAI-DSW等工具来构建和训练item2vec或item embedding模型,并使用PAI-EAS等工具来部署和管理您的模型服务。
- 在使用PAI-Designer或PAI-DSW构建模型时,您可以选择使用TensorFlow、PyTorch等深度学习框架,并使用PAI提供的数据处理、模型训练和模型评估等功能来完成模型构建和训练。
- 在使用PAI-EAS部署模型服务时,您可以选择使用TensorFlow Serving、MXNet Serving等模型服务框架,并使用PAI提供的模型部署、服务配置和监控等功能来完成模型服务的部署和管理。
关于物品的表征和相似度检索,您可以根据您的具体需求选择合适的算法和模型,并使用PAI提供的功能来完成模型构建、训练和部署。例如,您可以使用Word2Vec、GloVe等算法来构建物品的表征模型,并使用余弦相似度、欧几里得距离等方法来计算物品之间的相似度。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/505446?spm=5176.8068049.0.0.77566d1989YhJO