首页> 标签> 并行计算
"并行计算"
共 81 条结果
全部 问答 文章 公开课 课程 电子书 技术圈 体验
成功执行“ RUN cd srcdir && chmod + x ./configure”后,在Do
我正在尝试在Dockerfile中构建Swig。但是,当我尝试运行时./configure,我收到一条错误消息,指出它没有找到,尽管肯定存在。 这是使用Dockerfile安装Swig的工作示例: FROM nvidia/cuda:7.5-cudnn4-devel MAINTAINER Tim O'Shea # install swig RUN apt-get install -y g++ RUN apt-get install -y libpcre3 libpcre3-dev RUN wget "http://prdownloads.sourceforge.net/swig/swig-3.0.12.tar.gz" RUN chmod 777 swig-3.0.12.tar.gz RUN tar -xzvf swig-3.0.12.tar.gz RUN cd swig-3.0.12 && chmod +x ./configure && ls -l RUN ./configure --prefix=$(pwd)/swigtool RUN make RUN make install
问答
并行计算
2020-01-05
云服务器能否安装并运行CUDA
我的笔记本不是N卡,无法跑CUDA,请问学生的ECS能不能运行?在ubuntu环境下
问答
弹性计算  ·  并行计算  ·  Ubuntu
2017-10-12
实践GROMACS
GROMACS 简介 GROMACS(GROningen MAchine for Chemical Simulations)是一款通用软件包,用于对具有数百万颗粒子的系统进行基于牛顿运动方程的分子动力学模拟。GROMACS主要用于生物化学分子,如蛋白质,脂质等具有多种复杂键合相互作用的核酸。由于GROMACS在计算典型的主流模拟应用如非键合相互作用非常高效,许多研究人员将其用于非生物系统如聚合物的研究。 GROMACS支持从现代分子动力学实现中预期的所有常见算法,其代码由世界各地的开发人员维护。详情可参见官网 www.gromacs.org 。 准备工作 运行以下示例需要在创建集群时选择安装GROMACS相关软件包。 [backcolor=transparent]注:若需运行gromacs-gpu算例,在创建集群时[backcolor=transparent]必须使用GPU系列机型作为计算节点,否则集群创建或gromacs-gpu无法按照以下指引运行。 同时还需选择所依赖的相关MPI库 运行算例 [backcolor=transparent]注意:运行算例前务必做好 提交作业中准备工作部分的操作。 GROMACS 算例1:水中的溶菌酶(Lysozyme in Water) 本样例为用户设置一个蛋白质(lysozyme)加上离子在水盒子里的模拟过程。 官方教程链接: http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin/gmx-tutorials/lysozyme/index.html 非官方中文翻译链接: http://jerkwin.github.io/GMX/GMXtut-1/ 下载地址 http://public-ehs.oss-cn-hangzhou.aliyuncs.com/packages/Lysozyme.tar.gz 运行步骤 a. 串行版本$ ./serial_run.sh b. 并行版本$ ./parallel_run.sh GROMACS算例2:水分子运动 本算例为模拟大量水分子在给定空间、温度内的运动过程,以下运行实例为GPU加速版。 运行步骤 设置环境变量,运行module avail 查看是否安装GROMACS 软件。 [backcolor=transparent]$ export MODULEPATH[backcolor=transparent]=/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]ehpcmodulefiles[backcolor=transparent]/[backcolor=transparent]   [backcolor=transparent]# module命令依赖的环境变量[backcolor=transparent]$ module avail[backcolor=transparent]------------------------------[backcolor=transparent] [backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]ehpcmodulefiles [backcolor=transparent]-------------------------------------[backcolor=transparent]gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]/[backcolor=transparent]2016.3[backcolor=transparent]      openmpi[backcolor=transparent]/[backcolor=transparent]1.10[backcolor=transparent].[backcolor=transparent]7 运行 module load 加载 GROMACS,OpenMPI。 [backcolor=transparent]$ module load openmpi[backcolor=transparent]$ module load gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]$ which gmx_mpi[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]/[backcolor=transparent]2016.3[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]gmx_mpi 下载water算例 假设当前目录在当前用户的$HOME下面 [backcolor=transparent]$ pwd[backcolor=transparent]/[backcolor=transparent]home[backcolor=transparent]/[backcolor=transparent]current_user_name[backcolor=transparent]>[backcolor=transparent]$ wget http[backcolor=transparent]://[backcolor=transparent]public[backcolor=transparent]-[backcolor=transparent]ehs[backcolor=transparent].[backcolor=transparent]oss[backcolor=transparent]-[backcolor=transparent]cn[backcolor=transparent]-[backcolor=transparent]hangzhou[backcolor=transparent].[backcolor=transparent]aliyuncs[backcolor=transparent].[backcolor=transparent]com[backcolor=transparent]/[backcolor=transparent]packages[backcolor=transparent]/[backcolor=transparent]water_GMX50_bare[backcolor=transparent].[backcolor=transparent]tar[backcolor=transparent].[backcolor=transparent]gz[backcolor=transparent]$ tar xzvf water_GMX50_bare[backcolor=transparent].[backcolor=transparent]tar[backcolor=transparent].[backcolor=transparent]gz 提交PBS作业运行water算例。高配置计算节点(>32 CPU核,双GPU卡)的PBS作业脚本 [backcolor=transparent]$ cat [backcolor=transparent]>[backcolor=transparent] gromacs_single_node[backcolor=transparent].[backcolor=transparent]pbs[backcolor=transparent]#!/bin/sh[backcolor=transparent]#PBS -l ncpus=32,mem=4gb[backcolor=transparent]#PBS -l walltime=00:20:00[backcolor=transparent]#PBS -o gromacs_gpu_pbs.log[backcolor=transparent]#PBS -j oe[backcolor=transparent]cd [backcolor=transparent]/[backcolor=transparent]home[backcolor=transparent]/[backcolor=transparent]water[backcolor=transparent]-[backcolor=transparent]cut1[backcolor=transparent].[backcolor=transparent]0[backcolor=transparent]_GMX50_bare[backcolor=transparent]/[backcolor=transparent]1536[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]/[backcolor=transparent]2016.3[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]gmx_mpi grompp [backcolor=transparent]-[backcolor=transparent]f pme[backcolor=transparent].[backcolor=transparent]mdp [backcolor=transparent]-[backcolor=transparent]c conf[backcolor=transparent].[backcolor=transparent]gro [backcolor=transparent]-[backcolor=transparent]p topol[backcolor=transparent].[backcolor=transparent]top [backcolor=transparent]-[backcolor=transparent]o topol_pme[backcolor=transparent].[backcolor=transparent]tpr[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]openmpi[backcolor=transparent]/[backcolor=transparent]1.10[backcolor=transparent].[backcolor=transparent]7[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]mpirun [backcolor=transparent]-[backcolor=transparent]np [backcolor=transparent]4[backcolor=transparent] [backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]/[backcolor=transparent]2016.3[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]gmx_mpi mdrun [backcolor=transparent]-[backcolor=transparent]ntomp [backcolor=transparent]8[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]resethway [backcolor=transparent]-[backcolor=transparent]noconfout [backcolor=transparent]-[backcolor=transparent]nsteps [backcolor=transparent]8000[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]v [backcolor=transparent]-[backcolor=transparent]pin on [backcolor=transparent]-[backcolor=transparent]nb gpu [backcolor=transparent]-[backcolor=transparent]gpu_id [backcolor=transparent]0011[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]s topol_pme[backcolor=transparent].[backcolor=transparent]tpr 较低配置节点的PBS作业脚本 [backcolor=transparent]$ cat [backcolor=transparent]>[backcolor=transparent] gromacs_single_node[backcolor=transparent].[backcolor=transparent]pbs[backcolor=transparent]#!/bin/sh[backcolor=transparent]#PBS -l ncpus=4,mem=4gb[backcolor=transparent]#PBS -l walltime=00:20:00[backcolor=transparent]#PBS -o gromacs_gpu_pbs.log[backcolor=transparent]#PBS -j oe[backcolor=transparent]cd [backcolor=transparent]/[backcolor=transparent]home[backcolor=transparent]/[backcolor=transparent]water[backcolor=transparent]-[backcolor=transparent]cut1[backcolor=transparent].[backcolor=transparent]0[backcolor=transparent]_GMX50_bare[backcolor=transparent]/[backcolor=transparent]1536[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]/[backcolor=transparent]2016.3[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]gmx_mpi grompp [backcolor=transparent]-[backcolor=transparent]f pme[backcolor=transparent].[backcolor=transparent]mdp [backcolor=transparent]-[backcolor=transparent]c conf[backcolor=transparent].[backcolor=transparent]gro [backcolor=transparent]-[backcolor=transparent]p topol[backcolor=transparent].[backcolor=transparent]top [backcolor=transparent]-[backcolor=transparent]o topol_pme[backcolor=transparent].[backcolor=transparent]tpr[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]openmpi[backcolor=transparent]/[backcolor=transparent]1.10[backcolor=transparent].[backcolor=transparent]7[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]mpirun [backcolor=transparent]-[backcolor=transparent]np [backcolor=transparent]1[backcolor=transparent] [backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]gromacs[backcolor=transparent]-[backcolor=transparent]gpu[backcolor=transparent]/[backcolor=transparent]2016.3[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]gmx_mpi mdrun [backcolor=transparent]-[backcolor=transparent]ntomp [backcolor=transparent]4[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]resethway [backcolor=transparent]-[backcolor=transparent]noconfout [backcolor=transparent]-[backcolor=transparent]nsteps [backcolor=transparent]8000[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]v [backcolor=transparent]-[backcolor=transparent]pin on [backcolor=transparent]-[backcolor=transparent]nb gpu [backcolor=transparent]-[backcolor=transparent]s topol_pme[backcolor=transparent].[backcolor=transparent]tpr 通过PBS作业脚本提交作业 [backcolor=transparent]$ qsub gromacs_single_node[backcolor=transparent].[backcolor=transparent]pbs[backcolor=transparent]1.iZ2zedptfv8e8dc9c2zt0tZ[backcolor=transparent]$ qstat[backcolor=transparent]                                                            [backcolor=transparent]Req[backcolor=transparent]'d  Req'[backcolor=transparent]d   [backcolor=transparent]Elap[backcolor=transparent]Job[backcolor=transparent] ID          [backcolor=transparent]Username[backcolor=transparent] [backcolor=transparent]Queue[backcolor=transparent]    [backcolor=transparent]Jobname[backcolor=transparent]    [backcolor=transparent]SessID[backcolor=transparent] NDS TSK [backcolor=transparent]Memory[backcolor=transparent] [backcolor=transparent]Time[backcolor=transparent]  S [backcolor=transparent]Time[backcolor=transparent]---------------[backcolor=transparent] [backcolor=transparent]--------[backcolor=transparent] [backcolor=transparent]--------[backcolor=transparent] [backcolor=transparent]----------[backcolor=transparent] [backcolor=transparent]------[backcolor=transparent] [backcolor=transparent]---[backcolor=transparent] [backcolor=transparent]---[backcolor=transparent] [backcolor=transparent]------[backcolor=transparent] [backcolor=transparent]-----[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent] [backcolor=transparent]-----[backcolor=transparent]1.iZ2zedptfv8e8[backcolor=transparent] mingying workq    gromacs_si  [backcolor=transparent]20775[backcolor=transparent]   [backcolor=transparent]1[backcolor=transparent]   [backcolor=transparent]4[backcolor=transparent]    [backcolor=transparent]4gb[backcolor=transparent] [backcolor=transparent]00[backcolor=transparent]:[backcolor=transparent]20[backcolor=transparent] R [backcolor=transparent]00[backcolor=transparent]:[backcolor=transparent]03
问答
并行计算  ·  算法  ·  Shell  ·  对象存储  ·  异构计算
2017-10-26
GPU服务器 CUDA Device Driver问题
有台GPU云服务器,在服务器上跑模型软件,模型软件提示无法使用GPU,提示问题如下: Fatal   34: ASSERT: initialise_gpu: 2d sim parameter Use GPU card set to Always, but no GPU card [of compute level 3.0 or above] available FATAL 1 Selecting CUDA Device  CUDA Device driver older than CUDA runtime library. Please update CUDA device drivers 意思是 驱动比较旧,请问如何升级驱动?
问答
并行计算  ·  云计算  ·  异构计算
2018-12-12
创建 NVIDIA 驱动和深度学习框架的 GPU 实例
实例规格详情 请参阅文档 实例规格族查看 gn5/gn5i/gn4 实例规格族的详细规格。 创建 GPU 实例 登录 ECS 管理控制台。在左边导航栏,选择[backcolor=transparent]云服务器 ECS > [backcolor=transparent]实例。单击右上角[backcolor=transparent]创建实例。在创建页面注意以下配置信息。 实例属性要求地域gn5:华东 1、华东 2、华北 2、华南 1 、美国东部 1(弗吉尼亚) 、香港、亚太东南 1、欧洲中部 1、 美国西部 1、 亚太东南 2gn5i:华北 2网络专有网络实例在系列 III 下选择 gn5/gn5i/gn4 实例规格带宽根据您的实际需要选择带宽镜像需要自行下载并安装 NVIDIA GPU 驱动和深度学习框,可以根据您的实际需要选择公共镜像。如果需要创建预装 NVIDIA GPU 驱动和深度学习框架的 GPU 实例,可以参阅下文便捷创建 GPU 实例到镜像市场选择相应镜像。 便捷创建 GPU 实例 预装 NVIDIA GPU 驱动和 CUDA 库的市场镜像 在[backcolor=transparent]创建实例页面选择[backcolor=transparent]镜像市场。输入关键字 [backcolor=transparent]NVIDIA 手动查找镜像。目前支持 CentOS 7.3 和 Ubuntu 16.04 系统,具体信息详见其镜像介绍。 预装 NVIDIA GPU 驱动和深度学习框架的市场镜像 在[backcolor=transparent]创建实例页面选择[backcolor=transparent]镜像市场。输入关键字[backcolor=transparent]深度学习手动查找镜像。目前支持 Ubuntu 16.04 系统,具体信息详见其镜像介绍。
问答
机器学习/深度学习  ·  弹性计算  ·  并行计算  ·  Ubuntu  ·  Linux  ·  网络安全  ·  异构计算
2017-10-18
如何开通MaxCompute 2.0?
MaxCompute是阿里云自主研发的分布式数据仓库服务。提供SQL,MapReduce,Graph,MPI等多种计算模型。满足用户BI分析,个性化推荐,机器学习,数据挖掘,深度学习等多种计算场景的需求。完善的授权体系,有效保障用户数据安全。最新推出的MaxCompute 2.0 不但在性能上有大幅提升,并新增处理非结构化数据能力,同时提供了高度兼容Hadoop MapReduce的编程接口,以及InteliJ本地开发调试插件。
问答
机器学习/深度学习  ·  SQL  ·  分布式计算  ·  并行计算  ·  搜索推荐  ·  Hadoop  ·  数据挖掘  ·  BI  ·  MaxCompute  ·  数据安全/隐私保护
2016-10-12
直播、点播系统
直播、点播系统       随着视频分享站点的兴起,以及智能手机的流行,需要进行大量的离线视频转码工作,以适应异构网络和多终端环境的需要,为此我们在2009年着手开发视频转码平台(将各种格式的视频文件转换成H264编码的mp4,3GP文件),并于2010年6月推出2.0版,2011年4月成功推出2.5.1版,推出后不断吸收用户意见,持续改进,更新至现在的2.5.3版本。于此同时我们结合云计算的MapReduce分布式计算思想,构造一个多台机器协同工作的云转码平台,达到超快速乃至准实时转码的目的。      PPVOD云转码视频转码服务器可以将各种格式的视音频文件转换为标准的mp4文件(视频采用H.264编码,音频采用AAC编码),转码过程由转码调度服务器调度多台转码服务器完成文件批量转码工作,转码服务器采用多核心、多线程、多任务的方式进行格式转换处理,并可根据实际使用需求,采用文件分段转码模式完成对用户最短时间完成转码的需求,转码服务器采用硬件CUDA技术加速转码过程,快速完成转码工作,对于高端应用需求,转码服务器可以搭载GPU高速处理技术设备,协同CPU完成更为高效的转码工作。 高速转码服务器通过转码任务处理软件,方便用户完成批量转码工作,同时基于REST模式提供一系列的Web API接口,便于与第三方应用系统整合集成。    转码工作方式:用户通过各种终端设备通过web服务器将需要转码的文件上传至JobTracker服务器,同时完成文件的分片工作分配给转码服务器进行转码工作,完成转码后将mp4文件上传到ReduceTask服务器完成文件的合并工作,提交到web服务器供用户使用。 3. 云转码平台功能特点 1. 设备支持广泛     支持各种输入设备,包括硬盘、CD(包括DTS)、VCD、DVD等; 支持各种主流的视音频格式,包括mpeg1/2/4,rm/rmvb、wmv、mov、mts等; 支持各种输出参数设置,系统内置主流设备输出参数模板,包括PC、Android手机、iPhone手机、iPod、iPad、AppleTV、PSP、PS3等。 2. 转码功能支持全面     支持多音轨技术,可保留源文件的所有音轨。 支持字幕转码,包括源文件中的内嵌字幕和外挂字幕。 支持反交错处理,自动对源视频进行反交错处理,提高视频清晰度。 3. 转码速度优异    支持硬件编解码加速:采用CUDA并行计算技术,大幅提升转码性能。比传统采用转码方式要高出数十倍。 智能检测机器硬件性能,根据策略启动多个转码进程,每个进程启动多个转码线程同时转码,充分利用多核、多进程、多线程的优势提升转码性能。 支持分段转码:可以将一个文件精确分成多段利用多核同时转码,快速合并成整个文件。 4、强悍的网页上传功能 支持断点续传、秒传、拖拽上传、批量上传。 无需配置服务器、无需安装插件,即可上传无限大的视频文件。 支持各种手机浏览器录制上传和本地上传。 4、PPVOD云转码系统优势 一、无需配置复杂的运行环境,一键安装即可拥有上传环境、防盗链机制、服务器端自动转码。 二、超强上传功能含超大文件上传、断点续传、批量上传、秒传、拖拽上传等等你想不到的功能,更可喜的是这些上传功能都可以整合到你的网站系统,轻松拥有。 三、自带视频加密地址分享功能,通过简短的分享地址即可实现任何设备观看。 四、人性化的多清晰度自适应网速环境切换,网速快播放高清晰度画面,网速低自动播放低清晰度画面,无需人工干预。 五、视频广告可插入视频流轻松实现片头片尾和随机广告插入,即使分享出去的广告也可带各种图片、swf、视频广告,并且后台管理,相当方便。 六、真正的视频文件加密(非地址加密一类方法),从视频文件内部本身加密,即使视频被下载也不能被其他软件播放,配合防盗链和防下载功能,视频唯一性保护可谓严丝合缝。 5、与数字资源共享管理系统无缝整合    云转码服务器可以和多媒体资源应用平台及其它第三方资源应用平台结合,上传节目后自动转换格式,供平台调用,对于上传到多媒体资源应用平台的视音频文件、文本类文件,系统自动调用转码服务进行格式转换,转换完成后,自动添加到平台中,提供视音频文件的mp4转换、文本文件转换为swf文件,提供在线浏览。
问答
编解码  ·  分布式计算  ·  并行计算  ·  API  ·  调度  ·  数据安全/隐私保护  ·  Android开发  ·  网络架构  ·  iOS开发  ·  异构计算
2016-12-12
有人用student云服务器ECS安装并运行CUDA来进行深度学习吗?
我的电脑不是N卡。所以目光投向学生云服务器ECS,可是购买页面没有说 学生ECS 有支持N卡或GPU高性能计算,所以 学生ECS能安装并运行CUDA进行深度学习吗?还是说有点慢,还是能进行的。
问答
机器学习/深度学习  ·  弹性计算  ·  并行计算  ·  异构计算
2017-10-13
python怎么并行计算
python怎么并行计算
问答
并行计算  ·  Python
2018-05-10
请教一个关于gpu的问题
如果我训练的时候cuda是10.0的,部署上线调的时候线上cuda是9.0的,线上调用gpu的时候会不会报错 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群
问答
并行计算  ·  开发者  ·  异构计算
2019-10-11
1 2 3 4 5 6 7 8 9
跳转至:
云计算
21601 人关注 | 57834 讨论 | 36877 内容
+ 订阅
  • ECS使用体验
  • 我的ECS使用体验报告
  • ECS使用有感
查看更多 >
人工智能
2599 人关注 | 9268 讨论 | 62813 内容
+ 订阅
  • 高校学生参加飞天加速计划
  • 【React】归纳篇(六)组件对象的生命周期 | 实例 | 虚拟DOM与DOM Diff算法
  • 阿里云服务器ECS、轻量应用服务器和云虚拟主机的区别及对比
查看更多 >
开发与运维
5197 人关注 | 125229 讨论 | 188416 内容
+ 订阅
  • ECS使用体验
  • ADO.NET基础01
  • centos s3cmd的安装和使用
查看更多 >
安全
1034 人关注 | 23268 讨论 | 53036 内容
+ 订阅
  • C#基础01
  • HTML知识点01
  • ADO.NET基础02
查看更多 >
大数据
184047 人关注 | 22893 讨论 | 52480 内容
+ 订阅
  • ECS使用体验
  • C#基础01
  • HTML知识点01
查看更多 >