首页> 标签> 并行计算
"并行计算"
共 81 条结果
全部 问答 文章 公开课 课程 电子书 技术圈 体验
云转码视频系统
           云转码视频系统            随着视频分享站点的兴起,以及智能手机的流行,需要进行大量的离线视频转码工作,以适应异构网络和多终端环境的需要,为此我们在2009年着手开发视频转码平台(将各种格式的视频文件转换成H264编码的mp4,3GP文件),并于2010年6月推出2.0版,2011年4月成功推出2.5.1版,推出后不断吸收用户意见,持续改进,更新至现在的2.5.3版本。于此同时我们结合云计算的MapReduce分布式计算思想,构造一个多台机器协同工作的云转码平台,达到超快速乃至准实时转码的目的。            91flv视频转码服务器可以将各种格式的视音频文件转换为标准的mp4文件(视频采用H.264编码,音频采用AAC编码),转码过程由转码调度服务器调度多台转码服务器完成文件批量转码工作,转码服务器采用多核心、多线程、多任务的方式进行格式转换处理,并可根据实际使用需求,采用文件分段转码模式完成对用户最短时间完成转码的需求,转码服务器采用硬件CUDA技术加速转码过程,快速完成转码工作,对于高端应用需求,转码服务器可以搭载GPU高速处理技术设备,协同CPU完成更为高效的转码工作。 高速转码服务器通过转码任务处理软件,方便用户完成批量转码工作,同时基于REST模式提供一系列的Web API接口,便于与第三方应用系统整合集成。            经过实际大规模应用测试,对于1080P高清节目而言,采用我们的高配置转码服务器可以达到32倍速的转码效率,如果多台服务器同时工作则可以将转码速度得到线性大规模提升。 云转码服务模式 转码工作方式:用户通过各种终端设备通过web服务器将需要转码的文件上传至JobTracker服务器,同时完成文件的分片工作分配给转码服务器进行转码工作,完成转码后将mp4文件上传到ReduceTask服务器完成文件的合并工作,提交到web服务器供用户使用。 云转码平台功能特点 1. 设备支持广泛支持各种输入设备,包括硬盘、CD(包括DTS)、VCD、DVD等; 支持各种主流的视音频格式,包括mpeg1/2/4,rm/rmvb、wmv、mov、mts等; 支持各种输出参数设置,系统内置主流设备输出参数模板,包括PC、Android手机、iPhone手机、iPod、iPad、AppleTV、PSP、PS3等。 2. 转码功能支持全面]支持多音轨技术,可保留源文件的所有音轨。 支持字幕转码,包括源文件中的内嵌字幕和外挂字幕。 支持反交错处理,自动对源视频进行反交错处理,提高视频清晰度。 3. 转码速度优异支持硬件编解码加速:采用CUDA并行计算技术,大幅提升转码性能。比传统采用转码方式要高出数十倍。智能检测机器硬件性能,根据策略启动多个转码进程,每个进程启动多个转码线程同时转码,充分利用多核、多进程、多线程的优势提升转码性能。 支持分段转码:可以将一个文件精确分成多段利用多核同时转码,快速合并成整个文件。 强悍的网页上传功能         支持断点续传、秒传、拖拽上传、批量上传。 无需配置服务器、无需安装插件,即可上传无限大的视频文件。        支持各种手机浏览器录制上传和本地上传。 91flv云转码优势: 一、无需配置复杂的运行环境,一键安装即可拥有上传环境、防盗链机制、服务器端自动转码。 二、超强上传功能含超大文件上传、断点续传、批量上传、秒传、拖拽上传等等你想不到的功能,更可喜的是这些上传功能都可以整合到你的网站系统,轻松拥有。 三、自带视频加密地址分享功能,通过简短的分享地址即可实现任何设备观看。 四、人性化的多清晰度自适应网速环境切换,网速快播放高清晰度画面,网速低自动播放低清晰度画面,无需人工干预。 五、视频广告可插入视频流轻松实现片头片尾和随机广告插入,即使分享出去的广告也可带各种图片、swf、视频广告,并且后台管理,相当方便 六、真正的视频文件加密(非地址加密一类方法),从视频文件内部本身加密,即使视频被下载也不能被其他软件播放,配合防盗链和防下载功能,视频唯一性保护可谓严丝合缝。 与数字资源共享管理系统无缝整合            云转码服务器可以和多媒体资源应用平台及其它第三方资源应用平台结合,上传节目后自动转换格式,供平台调用,对于上传到多媒体资源应用平台的视音频文件、文本类文件,系统自动调用转码服务进行格式转换,转换完成后,自动添加到平台中,提供视音频文件的mp4转换、文本文件转换为swf文件,提供在线浏览 转码过程:用户上传需转码的视音频文件,并设置转码文件格式,系统标志需要转码的文件,由转码调度服务器定时轮询RMS系统,查看是否有新增的转码任务,当转码调度服务器检测到系统有新的转码任务时,启动转码服务进程进行转码,完成转码后将转码文件传回RMS系统。
问答
编解码  ·  分布式计算  ·  并行计算  ·  API  ·  调度  ·  数据安全/隐私保护  ·  Android开发  ·  网络架构  ·  iOS开发  ·  异构计算
2016-11-01
高并发计算和并行计算的区别是什么?
高并发计算和并行计算的区别是什么?
问答
并行计算
2022-01-13
云数据库 HybridDB for PostgreSQL中的名词解释
下表列出了 HybridDB for PostgreSQL 所涉及到的基本概念: 名词解释计算组HybridDB for PostgreSQL 中的运行单元,一个 HybridDB for PostgreSQL 实例由多个计算组组成,计算组数量的增加,可以线性提升性能。计算组规格用户可购买的计算资源单位,包括 CPU、IO、内存和磁盘。不同计算组规格的性能不同,每个计算组内的资源将分配在同一台物理主机中。计算组个数所购买的计算组数量,最小单位为 2 个,不同计算组规格对应不同的可购买数量。[tr=rgb(239, 251, 255)][td]MPP Massively Parallel Processing,一种分布式 Shared Nothing 计算架构,通过多个无共享的节点(HybridDB for PostgreSQL 中称为计算组)同时并行计算以提升性能。
问答
并行计算  ·  关系型数据库  ·  数据库  ·  PostgreSQL
2017-11-01
PolarDB v2.0的并行计算有什么好处?
PolarDB v2.0的并行计算有什么好处?
问答
并行计算  ·  关系型数据库  ·  分布式数据库  ·  PolarDB
2022-04-01
Pytorch中的LSTM:如何添加/更改序列长度维度?
我在pytorch中运行LSTM,但据我所知,它只取序列长度= 1。当我将序列长度整形为4或其他数字时,就会得到输入和目标长度不匹配的错误。如果我同时对输入和目标进行整形,那么模型会抱怨它不接受多目标标签。 我的训练数据集有66512行和16839列,目标中有3个类别/类。我想使用批处理大小为200和序列长度为4,即在一个序列中使用4行数据。 请建议如何调整我的模型和/或数据,以便能够运行模型的各种序列长度(例如,4)。 batch_size=200 import torch from torch.utils.data import TensorDataset from torch.utils.data import DataLoader train_target = torch.tensor(train_data[['Label1','Label2','Label3']].values.astype(np.float32)) train_target = np.argmax(train_target, axis=1) train = torch.tensor(train_data.drop(['Label1','Label2','Label3'], axis = 1).values.astype(np.float32)) train_tensor = TensorDataset(train.unsqueeze(1), train_target) train_loader = DataLoader(dataset = train_tensor, batch_size = batch_size, shuffle = True) print(train.shape) print(train_target.shape) torch.Size([66512, 16839]) torch.Size([66512]) import torch.nn as nn class LSTMModel(nn.Module): def __init__(self, input_dim, hidden_dim, layer_dim, output_dim): super(LSTMModel, self).__init__() # Hidden dimensions self.hidden_dim = hidden_dim # Number of hidden layers self.layer_dim = layer_dim # Building LSTM self.lstm = nn.LSTM(input_dim, hidden_dim, layer_dim, batch_first=True) # Readout layer self.fc = nn.Linear(hidden_dim, output_dim) def forward(self, x): # Initialize hidden state with zeros h0 = torch.zeros(self.layer_dim, x.size(0), self.hidden_dim).requires_grad_().to(device) # Initialize cell state c0 = torch.zeros(self.layer_dim, x.size(0), self.hidden_dim).requires_grad_().to(device) out, (hn, cn) = self.lstm(x, (h0,c0)) # Index hidden state of last time step out = self.fc(out[:, -1, :]) return out input_dim = 16839 hidden_dim = 100 output_dim = 3 layer_dim = 1 batch_size = batch_size num_epochs = 1 model = LSTMModel(input_dim, hidden_dim, layer_dim, output_dim) device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") model.to(device) criterion = nn.CrossEntropyLoss() learning_rate = 0.1 optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate) print(len(list(model.parameters()))) for i in range(len(list(model.parameters()))): print(list(model.parameters())[i].size()) 6 torch.Size([400, 16839]) torch.Size([400, 100]) torch.Size([400]) torch.Size([400]) torch.Size([3, 100]) torch.Size([3]) for epoch in range(num_epochs): for i, (train, train_target) in enumerate(train_loader): # Load data as a torch tensor with gradient accumulation abilities train = train.requires_grad_().to(device) train_target = train_target.to(device) # Clear gradients w.r.t. parameters optimizer.zero_grad() # Forward pass to get output/logits outputs = model(train) # Calculate Loss: softmax --> cross entropy loss loss = criterion(outputs, train_target) # Getting gradients w.r.t. parameters loss.backward() # Updating parameters optimizer.step() print('Epoch: {}. Loss: {}. Accuracy: {}'.format(epoch, np.around(loss.item(), 4), np.around(accuracy,4))) 问题来源StackOverflow 地址:/questions/59381695/lstm-in-pytorch-how-to-add-change-sequence-length-dimension
问答
机器学习/深度学习  ·  并行计算  ·  PyTorch  ·  算法框架/工具
2019-12-27
云转码系统
云转码视频系统 1. 概述     随着视频分享站点的兴起,以及智能手机的流行,需要进行大量的离线视频转码工作,以适应异构网络和多终端环境的需要,为此我们在2009年着手开发视频转码平台(将各种格式的视频文件转换成H264编码的mp4,3GP文件),并于2010年6月推出2.0版,2011年4月成功推出 2.5.1 版,推出后不断吸收用户意见,持续改进 ,更新至现在的 2.5.3版本 。于此同时我们结合云计算的MapReduce分布式计算思想,构造一个多台机器协同工作的云转码平台,达到超快速乃至准实时转码的目的。    91flv视频 转码服务器 可以将各种格式的视音频文件转换为标准的mp4文件(视频采用H.264编码,音频采用AAC编码),转码过程由转码调度服务器调度多台转码服务器完成文件批量转码工作,转码服务器采用多核心、多线程、多任务的方式进行格式转换处理,并可根据实际使用需求,采用文件分段转码模式完成对用户最短时间完成转码的需求,转码服务器采用硬件CUDA技术加速转码过程,快速完成转码工作,对于高端应用需求,转码服务器可以搭载GPU高速处理技术设备,协同CPU完成更为高效的转码工作。 高速转码服务器 通过转码任务处理软件,方便用户完成批量转码工作,同时基于REST模式提供一系列的Web API接口,便于与第三方应用系统整合集成。     经过实际大规模应用测试,对于1080P高清节目而言,采用我们的高配置转码服务器可以达到32倍速的转码效率,如果多台服务器同时工作则可以将转码速度得到线性大规模提升。                                91flv视频 转码 系统 2、云转码服务模式    转码工作方式:用户通过各种终端设备通过web服务器将需要转码的文件上传至JobTracker服务器,同时完成文件的分片工作分配给转码服务器进行转码工作,完成转码后将mp4文件上传到ReduceTask服务器完成文件的合并工作,提交到web服务器供用户使用。 3. 云转码平台功能特点 1. 转码功能支持全面 支持多音轨技术,可保留源文件的所有音轨。 支持字幕转码,包括源文件中的内嵌字幕和外挂字幕。 支持反交错处理,自动对源视频进行反交错处理,提高视频清晰度。 2 . 转码速度优异 支持硬件编解码加速:采用CUDA并行计算技术,大幅提升转码性能。比传统采用转码方式要高出数十倍。 智能检测机器硬件性能,根据策略启动多个转码进程,每个进程启动多个转码线程同时转码,充分利用多核、多进程、多线程的优势提升转码性能。 支持分段转码:可以将一个文件精确分成多段利用多核同时转码,快速合并成整个文件。 3.强悍的网页上传功能 支持断点续传、秒传、拖拽上传、批量上传。 无需配置服务器、无需安装插件,即可上传无限大的视频 文 件 支持各种手机浏览器录制上传和本地上传。 4、91flv云 转码优势 一、无需配置复杂的运行环境,一键安装即可拥有上传环境、防盗链机制、服务器端自动转码。 二、超强上传功能含超大文件上传、断点续传、批量上传、秒传、拖拽上传等等你想不到的功能,更可喜的是这些上传功能都可以整合到你的网站系统,轻松拥有。 三、自带视频加密地址分享功能,通过简短的分享地址即可实现任何设备观看。 四、人性化的多清晰度自适应网速环境切换,网速快播放高清晰度画面,网速低自动播放低清晰度画面,无需人工干预。 五、视频广告可插入视频流轻松实现片头片尾和随机广告插入,即使分享出去的广告也可带各种图片、swf、视频广告,并且后台管理,相当方便。 六、真正的视频文件加密(非地址加密一类方法),从视频文件内部本身加密,即使视频被下载也不能被其他软件播放,配合防盗链和防下载功能,视频唯一性保护可谓严丝合缝。 5、 与数字资源共享管理系统无缝整合 云转码服务器可以和多媒体资源应用平台及其它第三方资源应用平台结合,上传节目后自动转换格式,供平台调用,对于上传到多媒体资源应用平台的视音频文件、文本类文件,系统自动调用转码服务进行格式转换,转换完成后,自动添加到平台中,提供视音频文件的mp4转换、文本文件转换为swf文件,提供在线浏览。 [size=; font-size: 16pt,16pt] 转码过程:用户上传需转码的视音频文件,并设置转码文件格式,系统标志需要转码的文件,由转码调度服务器定时轮询RMS系统,查看是否有新增的转码任务,当转码调度服务器检测到系统有新的转码任务时,启动转码服务进程进[行转码,完成转码后将转码文件传回RMS系统。               91flv视频云转码网站:http://www.yunzhuanma.com/
问答
编解码  ·  分布式计算  ·  并行计算  ·  API  ·  调度  ·  数据安全/隐私保护  ·  云计算  ·  网络架构  ·  异构计算
2016-11-04
实践LAMMPS
官网 http://lammps.sandia.gov/ 。 简介 LAMMPS(Large-scale Atomic/Molecular Massively Parallel Simulator)是一款经典分子动力学软件。LAMMPS包含的势可用于固体材料(金属、半导体)、软物质(生物大分子,聚合物)、粗粒化或介观尺度模型体系。 算例 1 “3d Lennard-Jones melt” 准备工作 运行以下示例需要在创建集群时选择安装LAMMPS相关软件包。 同时还需选择所依赖的相关MPI库 操作步骤 1.运行 module avail,查看是否已安装 LAMMPS 软件。 [backcolor=transparent]$ export MODULEPATH[backcolor=transparent]=/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]ehpcmodulefiles[backcolor=transparent]/[backcolor=transparent]$ module avail[backcolor=transparent]------------------------------[backcolor=transparent] [backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]ehpcmodulefiles [backcolor=transparent]-------------------------------------[backcolor=transparent]lammps[backcolor=transparent]/[backcolor=transparent]31Mar17[backcolor=transparent]-[backcolor=transparent]mpich   lammps[backcolor=transparent]/[backcolor=transparent]31Mar17[backcolor=transparent]-[backcolor=transparent]openmpi mpich[backcolor=transparent]/[backcolor=transparent]3.2[backcolor=transparent].[backcolor=transparent]2[backcolor=transparent]            openmpi[backcolor=transparent]/[backcolor=transparent]1.10[backcolor=transparent].[backcolor=transparent]7 2.运行 module load 加载LAMMPS。 [backcolor=transparent]$ module load lammps[backcolor=transparent]/[backcolor=transparent]31Mar17[backcolor=transparent]-[backcolor=transparent]mpich[backcolor=transparent]$ module load mpich[backcolor=transparent]$ which lmp[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]lammps[backcolor=transparent]/[backcolor=transparent]31Mar17[backcolor=transparent]-[backcolor=transparent]mpich[backcolor=transparent]/[backcolor=transparent]lmp 3.进入算例目录,有以下作业提交方式。 命令行直接提交。 [backcolor=transparent]$ srun [backcolor=transparent]--[backcolor=transparent]mpi[backcolor=transparent]=[backcolor=transparent]pmi2 [backcolor=transparent]-[backcolor=transparent]N [backcolor=transparent]2[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]n [backcolor=transparent]4[backcolor=transparent] lmp [backcolor=transparent]-[backcolor=transparent]in[backcolor=transparent] [backcolor=transparent]in[backcolor=transparent].[backcolor=transparent]intel[backcolor=transparent].[backcolor=transparent]lj[backcolor=transparent]LAMMPS [backcolor=transparent]([backcolor=transparent]31[backcolor=transparent] [backcolor=transparent]Mar[backcolor=transparent] [backcolor=transparent]2017[backcolor=transparent])[backcolor=transparent]Lattice[backcolor=transparent] spacing [backcolor=transparent]in[backcolor=transparent] x[backcolor=transparent],[backcolor=transparent]y[backcolor=transparent],[backcolor=transparent]z [backcolor=transparent]=[backcolor=transparent] [backcolor=transparent]1.6796[backcolor=transparent] [backcolor=transparent]1.6796[backcolor=transparent] [backcolor=transparent]1.6796[backcolor=transparent]Created[backcolor=transparent] orthogonal box [backcolor=transparent]=[backcolor=transparent] [backcolor=transparent]([backcolor=transparent]0[backcolor=transparent] [backcolor=transparent]0[backcolor=transparent] [backcolor=transparent]0[backcolor=transparent])[backcolor=transparent] to [backcolor=transparent]([backcolor=transparent]134.368[backcolor=transparent] [backcolor=transparent]67.1838[backcolor=transparent] [backcolor=transparent]67.1838[backcolor=transparent])[backcolor=transparent]2[backcolor=transparent] by [backcolor=transparent]1[backcolor=transparent] by [backcolor=transparent]2[backcolor=transparent] MPI processor grid[backcolor=transparent]Created[backcolor=transparent] [backcolor=transparent]512000[backcolor=transparent] atoms[backcolor=transparent]...[backcolor=transparent] [backcolor=transparent]... 作业形式提交。 [backcolor=transparent]$ cat job[backcolor=transparent].[backcolor=transparent]sh [backcolor=transparent]# 作业内容[backcolor=transparent]#!/usr/bin/env bash[backcolor=transparent]mpirun lmp [backcolor=transparent]-[backcolor=transparent]in[backcolor=transparent] [backcolor=transparent]./[backcolor=transparent]in[backcolor=transparent].[backcolor=transparent]intel[backcolor=transparent].[backcolor=transparent]lj[backcolor=transparent]$ sbatch [backcolor=transparent]-[backcolor=transparent]N [backcolor=transparent]2[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]n [backcolor=transparent]4[backcolor=transparent] [backcolor=transparent]./[backcolor=transparent]job[backcolor=transparent].[backcolor=transparent]sh [backcolor=transparent]# 提交作业[backcolor=transparent]Submitted[backcolor=transparent] batch job [backcolor=transparent]235[backcolor=transparent]$ squeue [backcolor=transparent]# 查看作业[backcolor=transparent]             JOBID PARTITION     NAME     USER ST       TIME  NODES NODELIST[backcolor=transparent]([backcolor=transparent]REASON[backcolor=transparent])[backcolor=transparent]               [backcolor=transparent]235[backcolor=transparent]      comp   job[backcolor=transparent].[backcolor=transparent]sh     user  R       [backcolor=transparent]0[backcolor=transparent]:[backcolor=transparent]03[backcolor=transparent]      [backcolor=transparent]2[backcolor=transparent] s[backcolor=transparent][[backcolor=transparent]02[backcolor=transparent]-[backcolor=transparent]03[backcolor=transparent]] 分配资源后提交 [backcolor=transparent]$ salloc [backcolor=transparent]-[backcolor=transparent]N [backcolor=transparent]2[backcolor=transparent] mpirun [backcolor=transparent]-[backcolor=transparent]n [backcolor=transparent]4[backcolor=transparent] lmp [backcolor=transparent]-[backcolor=transparent]in[backcolor=transparent] [backcolor=transparent]in[backcolor=transparent].[backcolor=transparent]intel[backcolor=transparent].[backcolor=transparent]lj [backcolor=transparent]salloc[backcolor=transparent]:[backcolor=transparent] [backcolor=transparent]Granted[backcolor=transparent] job allocation [backcolor=transparent]236[backcolor=transparent]salloc[backcolor=transparent]:[backcolor=transparent] [backcolor=transparent]Waiting[backcolor=transparent] [backcolor=transparent]for[backcolor=transparent] resource configuration[backcolor=transparent]salloc[backcolor=transparent]:[backcolor=transparent] [backcolor=transparent]Nodes[backcolor=transparent] s[backcolor=transparent][[backcolor=transparent]02[backcolor=transparent]-[backcolor=transparent]03[backcolor=transparent]][backcolor=transparent] are ready [backcolor=transparent]for[backcolor=transparent] job[backcolor=transparent]LAMMPS [backcolor=transparent]([backcolor=transparent]31[backcolor=transparent] [backcolor=transparent]Mar[backcolor=transparent] [backcolor=transparent]2017[backcolor=transparent]) 提交PBS作业(GPU加速版) [backcolor=transparent]$ cat [backcolor=transparent]>[backcolor=transparent] lammps_single_node[backcolor=transparent].[backcolor=transparent]pbs[backcolor=transparent]#!/bin/sh[backcolor=transparent]#PBS -l ncpus=28,mem=12gb[backcolor=transparent]#PBS -l walltime=00:10:00[backcolor=transparent]#PBS -o lammps_pbs.log[backcolor=transparent]#PBS -j oe[backcolor=transparent]cd [backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]lammps[backcolor=transparent]/[backcolor=transparent]31Mar17[backcolor=transparent]-[backcolor=transparent]openmpi[backcolor=transparent]/[backcolor=transparent]src[backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]openmpi[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]mpirun [backcolor=transparent]-[backcolor=transparent]np [backcolor=transparent]28[backcolor=transparent] [backcolor=transparent]/[backcolor=transparent]opt[backcolor=transparent]/[backcolor=transparent]lammps[backcolor=transparent]/[backcolor=transparent]31Mar17[backcolor=transparent]-[backcolor=transparent]openmpi[backcolor=transparent]/[backcolor=transparent]bin[backcolor=transparent]/[backcolor=transparent]lmp_mpi [backcolor=transparent]-[backcolor=transparent]sf gpu [backcolor=transparent]-[backcolor=transparent]pk gpu [backcolor=transparent]2[backcolor=transparent] [backcolor=transparent]-[backcolor=transparent]in[backcolor=transparent] [backcolor=transparent]./[backcolor=transparent]in[backcolor=transparent].[backcolor=transparent]intel[backcolor=transparent].[backcolor=transparent]lj [backcolor=transparent]-[backcolor=transparent]v m [backcolor=transparent]0.1[backcolor=transparent]$ qsub lammps_single_node[backcolor=transparent].[backcolor=transparent]pbs
问答
并行计算  ·  Shell  ·  异构计算
2017-10-26
云转码视频系统
[size=; font-size: 14pt,14pt]     随着视频分享站点的兴起,以及智能手机的流行,需要进行大量的离线视频转码工作,以适应异构网络和多终端环境的需要,为此我们在2009年着手开发视频转码平台(将各种格式的视频文件转换成H264编码的mp4,3GP文件),并于2010年6月推出2.0版,2011年4月成功推出2.5.1版,推出后不断吸收用户意见,持续改进,更新至现在的2.5.3版本。于此同时我们结合云计算的MapReduce分布式计算思想,构造一个多台机器协同工作的云转码平台,达到超快速乃至准实时转码的目的。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]    [size=; font-size: 14pt,14pt] 91flv视频转码服务器可以将各种格式的视音频文件转换为标准的mp4文件(视频采用H.264编码,音频采用AAC编码),转码过程由转码调度服务器调度多台转码服务器完成文件批量转码工作,转码服务器采用多核心、多线程、多任务的方式进行格式转换处理,并可根据实际使用需求,采用文件分段转码模式完成对用户最短时间完成转码的需求,转码服务器采用硬件CUDA技术加速转码过程,快速完成转码工作,对于高端应用需求,转码服务器可以搭载GPU高速处理技术设备,协同CPU完成更为高效的转码工作。 高速转码服务器通过转码任务处理软件,方便用户完成批量转码工作,同时基于REST模式提供一系列的Web API接口,便于与第三方应用系统整合集成。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 经过实际大规模应用测试,对于1080P高清节目而言,采用我们的高配置转码服务器可以达到32倍速的转码效率,如果多台服务器同时工作则可以将转码速度得到线性大规模提升。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 2、云转码服务模式 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]    [size=; font-size: 14pt,14pt] 转码工作方式:用户通过各种终端设备通过web服务器将需要转码的文件上传至JobTracker服务器,同时完成文件的分片工作分配给转码服务器进行转码工作,完成转码后将mp4文件上传到ReduceTask服务器完成文件的合并工作,提交到web服务器供用户使用。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 3. 云转码平台功能特点 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 1. 设备支持广泛 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]    [size=; font-size: 14pt,14pt] 支持各种输入设备,包括硬盘、CD(包括DTS)、VCD、DVD等; [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     支持各种主流的视音频格式,包括mpeg1/2/4,rm/rmvb、wmv、mov、mts等; [size=; font-size: 14pt,14pt]     支持各种输出参数设置,系统内置主流设备输出参数模板,包括PC、Android手机、iPhone手机、iPod、iPad、AppleTV、PSP、PS3等。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 2. 转码功能支持全面 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]    [size=; font-size: 14pt,14pt] 支持多音轨技术,可保留源文件的所有音轨。 [size=; font-size: 14pt,14pt]     支持字幕转码,包括源文件中的内嵌字幕和外挂字幕。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     支持反交错处理,自动对源视频进行反交错处理,提高视频清晰度。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 3. 转码速度优异 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]    [size=; font-size: 14pt,14pt] 支持硬件编解码加速:采用CUDA并行计算技术,大幅提升转码性能。比传统采用转码方式要高出数十倍。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]    智能检测机器硬件性能,根据策略启动多个转码进程,每个进程启动多个转码线程同时转码,充分利用多核、多进程、多线程的优势提升转码性能。 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     支持分段转码:可以将一个文件精确分成多段利用多核同时转码,快速合并成整个文件。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 4、强悍的网页上传功能[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     支持断点续传、秒传、拖拽上传、批量上传。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     无需配置服务器、无需安装插件,即可上传无限大的视频文件。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     支持各种手机浏览器录制上传和本地上传。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 4、91flv云转码优势[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 一、无需配置复杂的运行环境,一键安装即可拥有上传环境、防盗链机制、服务器端自动转码。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 二、超强上传功能含超大文件上传、断点续传、批量上传、秒传、拖拽上传等等你想不到的功能,更可喜的是这些上传功能都可以整合到你的网站系统,轻松拥有。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 三、自带视频加密地址分享功能,通过简短的分享地址即可实现任何设备观看。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 四、人性化的多清晰度自适应网速环境切换,网速快播放高清晰度画面,网速低自动播放低清晰度画面,无需人工干预。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 五、视频广告可插入视频流轻松实现片头片尾和随机广告插入,即使分享出去的广告也可带各种图片、swf、视频广告,并且后台管理,相当方便。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 六、真正的视频文件加密(非地址加密一类方法),从视频文件内部本身加密,即使视频被下载也不能被其他软件播放,配合防盗链和防下载功能,视频唯一性保护可谓严丝合缝。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 5、与数字资源共享管理系统无缝整合[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     [size=; font-size: 14pt,14pt] 云转码服务器可以和多媒体资源应用平台及其它第三方资源应用平台结合,上传节目后自动转换格式,供平台调用,对于上传到多媒体资源应用平台的视音频文件、文本类文件,系统自动调用转码服务进行格式转换,转换完成后,自动添加到平台中,提供视音频文件的mp4转换、文本文件转换为swf文件,提供在线浏览。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     [size=; font-size: 14pt,14pt] 转码过程:用户上传需转码的视音频文件,并设置转码文件格式,系统标志需要转码的文件,由转码调度服务器定时轮询RMS系统,查看是否有新增的转码任务,当转码调度服务器检测到系统有新的转码任务时,启动转码服务进程进行转码,完成转码后将转码文件传回RMS系统。[size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt] 6、国内与国际主流技术对比 [size=; font-size: 14pt,14pt] [size=; font-size: 14pt,14pt]     [size=; font-size: 14pt,14pt] 当前,国外同类技术主流厂商主要有美国的Elemental等,他们当前所能达到的转码速率最高是8倍速,而且价格比国内也要高出很多,因此国内在这一领域仍处于相对领先的水平。 [size=; font-size: 14pt,14pt]
问答
编解码  ·  分布式计算  ·  并行计算  ·  API  ·  调度  ·  数据安全/隐私保护  ·  Android开发  ·  网络架构  ·  iOS开发  ·  异构计算
2016-10-25
租用服务器中自带的驱动(nvidia)、包(cuda、deep_learning)都没有了
租了一台GPU可视化计算器,Ubuntu16.04(预装NVIDIA GPU驱动和深度学习框架),一开始进入的时候还可以查看到已经安装好的驱动和包(deep_learning、nvidia、NVIDIA_CUDA-8.0_Samples),但几天之后不知为何这些都没有了,感觉服务器信息被重置了,添加的用户也都没了,去搜索上述驱动和包的时候,也没了。不知道有没有人遇到过类似的问题,如果有,请指点一下。或者哪位大神知道原因,也请指点一下。
问答
机器学习/深度学习  ·  并行计算  ·  数据可视化  ·  异构计算
2018-01-24
【Duang!!】深圳地域按量ECS分时计费,晚上用2核4G、4核8G省大钱!
尊敬的阿里云ECS按量用户:          为了更充分的利用资源,满足不同时间段按量用户使用按量ECS的需求,阿里云ECS在3月4日推出深圳地域按量付费ECS分时段计费,针对深圳地域2核4G、4核8G配置,在每天晚上20点—凌晨5点时间段的9个小时的CPU和内存价格为白天价格60%(即6折),6折折扣有效期:2015年3月4日—2015年5月4日。        由于2核4G(0.528元/小时)、4核8G(1.056元/小时)在该时间段价格分别比2核2G(0.56元/小时)、4核4G(1.12元/小时)更便宜。 对于2核、4核有需求的应用压测、并发应用、并行计算等按量用户可以放到晚20点-凌晨5点时间段选择这两款配置来进行使用。比如使用100台2核4G实例连续使用5个小时,晚上比白天便宜近200元,使用100台4核8G实例连续使用5个小时,晚上比白天便宜近350元左右。     详细价格参考ECS价格总览http://help.aliyun.com/knowledge_detail.htm?knowledgeId=5974907 阿里云ECS团队2015年3月4日
问答
弹性计算  ·  并行计算  ·  测试技术
2015-03-04
1 2 3 4 5 6 7 8 9
跳转至:
开发者社区官方技术圈
66279 人关注 | 5419 讨论 | 211 内容
+ 订阅
  • 阿里云开发者积分细则
  • 线上公开课 | 数智新金融助力行业高质量发展
  • 给运维工程师的Cheatsheets! 《Shell脚本速查手册》免费下!
查看更多 >
云计算
21601 人关注 | 57834 讨论 | 36877 内容
+ 订阅
  • ECS使用体验
  • 我的ECS使用体验报告
  • ECS使用有感
查看更多 >
人工智能
2599 人关注 | 9268 讨论 | 62813 内容
+ 订阅
  • 高校学生参加飞天加速计划
  • 【React】归纳篇(六)组件对象的生命周期 | 实例 | 虚拟DOM与DOM Diff算法
  • 阿里云服务器ECS、轻量应用服务器和云虚拟主机的区别及对比
查看更多 >
开发与运维
5197 人关注 | 125229 讨论 | 188416 内容
+ 订阅
  • ECS使用体验
  • ADO.NET基础01
  • centos s3cmd的安装和使用
查看更多 >
大数据
184047 人关注 | 22893 讨论 | 52480 内容
+ 订阅
  • ECS使用体验
  • C#基础01
  • HTML知识点01
查看更多 >