• 关于 从虚拟到物理是什么 的搜索结果

问题

优势与挑战并存着,网络虚拟化的6大要点

hamtyb 2019-12-01 20:27:33 9831 浏览量 回答数 0

问题

为什么你的云厂商可能会换IP,开发者如何避免被影响?

趁我还年轻 2019-12-01 21:13:24 3658 浏览量 回答数 2

问题

如何分清云计算与虚拟化的关系

wyc_luck 2019-12-01 20:19:00 12823 浏览量 回答数 2

海外云虚拟主机包年25元/月起

海外独享虚拟主机全面上线,助力构建海外网站,提升公司国际形象;全球有效覆盖,超高性价比;建站入门首选,助力出口,适合跨境贸易企业。

问题

【教程免费下载】 VMware vSphere性能设计:性能密集场景下CPU、内存

沉默术士 2019-12-01 22:07:47 1680 浏览量 回答数 1

问题

7种方法避免虚拟化环境中的数据丢失

elinks 2019-12-01 21:14:33 4972 浏览量 回答数 0

问题

云主机追根到底就是一个虚拟机,没有必要过于神话

云代维 2019-12-01 21:48:53 8665 浏览量 回答数 6

问题

云计算定义与诠释矛盾与纠结

西瓜小狼 2019-12-01 22:08:15 8736 浏览量 回答数 6

回答

你之前的那个问题我看过,但当时我没有回答。既然你又问了一次,那我这次就来说说吧,如果有错误请多多包涵。最重要的一点:分布式是逻辑上的,集群是物理上的。怎么理解这句话?分布式:把一个程序或系统拆分开来,分别跑在不同的计算机上,然后这些部分的结果汇总起来就是整个程序的目标结果时,这种方式就是分布式了。例如分布式存储、分布式计算。集群:按照某种方式将一批计算机以某种“紧密”的方式连接在一起,使得它们可以对外表现的像一个功能更强的计算机一样,那么这种方式就是计算机集群了。比如云计算机房、数据中心机房、超级计算机中心等等,这些地方的计算机都可以看作是一个集群。主从数据库是不是集群?当然不是。主从数据库是一种逻辑结构,和服务器的物理布局无关:你可以用集群搭建,也能用几台独立的计算机搭建,甚至可以在一台计算机上跑几个虚拟机搭建,甚至可以在同一台计算机中通过多进程来搭建。那它是不是分布式的?我的观点是不是。因为主从数据库两者是备份关系,一般不同时工作,只有当一个坏了另一个才会顶上。为什么分布式存储算分布式的,而主从数据库却不算呢?因为分布式存储(例如CDN)各个节点的地位是平等的,而且同时工作。整个CDN中的节点将所有用户的请求分散开来了,所有CDN节点提供的服务构成了该CDN网络所提供服务的总和。比如某个CDN网络在北京、广州、上海和青海共有4个节点,那么全国用户对该CDN网络的请求将分散到这4个节点上去完成,这4个节点所提供的服务合起来就是该CDN网络所提供的服务。而主从数据库则不是这样,假如某一个时间点上有N个数据库请求发到该网站上,那么在同一时间,这N个请求要么全是主数据库处理,要么全是某个从数据库处理,这些主从数据库并没有分散这些请求。再来说说LVS,我的理解是它是一个采用分布式方式实现的集群。从名字里的Virtual也能看出来,它并不是传统的集群,传统意义上的集群是一群物理上紧密联系的计算机系统,通常位于同一个机房中,通过机架和复杂的布线连接。而LVS则更强调的是逻辑上的:这些服务器物理上不需要放在一起,甚至可以间隔任意远(比如一部分在北京一部分在广州),然后通过网络将它们连接起来,连接后的效果与集群一样——在逻辑上,它们是一个真正的集群,具有集群的一切性质。仅仅有一点,那就是效率可能不如真正的物理集群那么高。最后,通过上面LVS的分析可以看出来,分布式和集群是不同的两个概念,而且相互之间并不冲突。你可以用集群来搭载分布式系统,也可以用分布式技术来实现一个集群(比如LVS)。

我的中国 2019-12-02 01:33:58 0 浏览量 回答数 0

问题

由阿里云服务器宕机看真正云计算

chinasoso 2019-12-01 21:09:28 9672 浏览量 回答数 3

问题

为什么ECS 默认没有启用虚拟内存或SWAP

boxti 2019-12-01 21:51:53 1360 浏览量 回答数 0

回答

专有宿主机(Dedicated Host,简称DDH)是阿里云专为企业客户定制优化的云端解决方案,具有物理资源独享、部署更灵活、配置更丰富、性价比更高等特点,可以有效地降低企业上云的TCO(Total Cost of Ownership)。 DDH是指由一个租户独享物理资源的云主机。作为该云主机的唯一租户,您不需要与其他租户共享云主机所有物理资源。您还可以获得这台物理服务器的物理属性信息,包括CPU数量(Socket数)、物理CPU核数、内存大小,并根据宿主机规格创建指定规格族的ECS实例。宿主机规格详情,请参见宿主机规格。 观看以下视频了解什么是DDH。 功能特性 DDH提供自动部署、关联宿主机等功能,让您灵活部署业务。更多详情,请参见功能特性。 应用场景 DDH满足严格的安全合规要求,允许您自带许可证(BYOL)上云,有效地降低业务迁移上云的成本。更多详情,请参见应用场景。 产品优势 与共享宿主机(多租户环境)相比,DDH为您提供一种依托于阿里云虚拟化服务的单租户运行环境,能让您独享一台云主机的所有物理资源,同时还兼具灵活性和弹性。DDH与共享宿主机的区别如下图所示。区别 在DDH上创建的ECS实例继承了基于共享宿主机云服务器ECS的所有功能和性能指标,方便您部署和使用。更多详情,请参见产品优势。 相关服务 在DDH上创建的ECS实例支持的阿里云服务,请参见什么是云服务器ECS。 DDH上的ECS实例与共享宿主机上ECS实例的功能差异,请参见ECS实例功能对比。 使用DDH 使用DDH资源的相关限制,请参见使用限制。 通过ECS管理控制台创建DDH。具体操作请参见创建DDH。 DDH创建后,您可以在DDH上进行下列操作: 在DDH上创建ECS实例 在不同DDH之间迁移ECS实例 将ECS实例从共享宿主机迁移到DDH 升降配包年包月ECS实例 ECS实例计费方式由按量付费转为包年包月 自动续费DDH或手动续费DDH 产品定价 DDH支持包年包月。更多详情,请参见计费概述。

景凌凯 2020-04-04 22:02:44 0 浏览量 回答数 0

问题

【教程免费下载】深度实践kvm:核心技术、管理运维、性能优化与项目实施

沉默术士 2019-12-01 22:07:45 1127 浏览量 回答数 0

问题

【教程免费下载】深度实践kvm:核心技术、管理运维、性能优化与项目实施

沉默术士 2019-12-01 22:07:45 1181 浏览量 回答数 0

问题

虚拟免费主机换系统文件上传无法访问

尼古拉斯2 2019-12-01 21:37:50 3854 浏览量 回答数 2

问题

让云计算真正省钱,解决云存储架构九个问题让云计算真正省钱

hamtyb 2019-12-01 20:27:33 11001 浏览量 回答数 4

问题

MongoDB与内存 先讲讲Linux是如何管理内存的 再说说MongoDB是如何使用内存的:报错

kun坤 2020-06-14 08:19:04 0 浏览量 回答数 0

问题

Postgres-XL主从切换的问题

追随的风 2019-12-01 20:09:15 4498 浏览量 回答数 2

问题

破除自动化灾难恢复的4个谎言

elinks 2019-12-01 21:15:22 7289 浏览量 回答数 0

回答

关于swap交换分区的设置:一种流行的、以讹传讹的说法是,安装Linux系统时,交换分区swap的大小应该是内存的两倍。也就是说,如果内存是2G,那么就应该分出4G的硬盘空间作为交换空间。其实这是严重的浪费。真实的情况是:可以根据你系统内存的大小,以及所使用的程序,自行决定交换分区的大小,甚至可以完全不用交换分区!首先解释一下什么是交换分区。交换分区,英文的说法是swap,意思是“交换”、“实物交易”。它的功能就是在内存不够的情况下,操作系统先把内存中暂时不用的数据,存到硬盘的交换空间,腾出内存来让别的程序运行,和Windows的虚拟内存(pagefile.sys)的作用是一样的。做一个假设:如果你的内存足够大,极少出现内存不足的情况,那么你就不需要交换分区。事实上,这种可能性是完全存在的。现在的1G内存的电脑不算什么了。动辄4G内存的电脑也日益普遍。日常使用的话,很少能用完全部的内存。在用不完内存容量的情况下,还要划出它两倍的硬盘空间用于内存交换,这不是浪费吗?可以说,在你内存基本够用的情况下,完全可以不要交换空间。在Windows下也是一样,在系统属性中,把虚拟内存设置为0,系统依然运行的很好。当然,如果你用的是服务器,还是要有专门的虚拟内存,有备无患。但是虚拟内存的大小不一定非要内存的两倍。那么怎么知道你的系统有没有用到交换空间呢?只需要在root用户下,运行下面的命令就可以知道了。free -m在日常应用中,通过上述命令看到交换空间的使用情况为0,那么你就不需要很大的虚拟内存,甚至可以完全不需要另辟硬盘空间作为虚拟内存。那么,万一有一天你需要了呢,难道要重装系统?大可不必,在Linux下虚拟内存不单可以放在单独的交换分区,也可以是一个在正常分区下的交换文件。1 查看swap 空间大小(总计): # free -m 默认单位为k, -m 单位为M   total used free shared buffers cached   Mem: 377 180 197 0 19 110   -/+ buffers/cache: 50 327   Swap: 572 0 5722 查看swap 空间(file(s)/partition(s)): 包括 文件 和 分区 的详细信息  # swapon -s  等价于  # cat /proc/swaps3 添加交换空间  两种选择:添加一个交换分区或添加一个交换文件。推荐你添加一个交换分区;不过,若你没有多少空闲空间可用,则添加交换文件。3.1 添加一个交换分区  步骤如下: a 使用fdisk来创建交换分区(假设 /dev/sdb2 是创建的交换分区) b 使用 mkswap 命令来设置交换分区:   # mkswap /dev/sdb2 c 启用交换分区:   # swapon /dev/sdb2 d 写入/etc/fstab,以便在引导时启用:   /dev/sdb2 swap swap defaults 0 03.2 添加一个交换文件  a 创建大小为512M的交换文件:   # dd if=/dev/zero of=/swapfile1 bs=1024k count=512  b 使用 mkswap 命令来设置交换文件:   # mkswap /swapfile1  c 启用交换分区:   # swapon /swapfile1  d 写入/etc/fstab,以便在引导时启用:   /swapfile1 swap swap defaults 0 0  新添了交换分区并启用它之后,请查看cat /proc/swaps 或 free 命令的输出来确保交换分区已被启用了。4 删除交换空间:  a 禁用交换分区:   # swapoff /dev/sdb2  b 从 /etc/fstab 中删除项目;  c 使用fdisk或yast工具删除分区。  删除交换文件步骤同上。--------------------------------------------------------------------------------   # free -m    total used free shared buffers cached   Mem: 377 180 197 0 19 110   -/+ buffers/cache: 50 327   Swap: 572 0 572Mem 行显示了从系统角度看来内存使用的情况, total是系统可用的内存大小, 数量上等于系统物理内存减去内核保留的内存.buffers和cached是系统用做缓冲的内存. buffers与某个块设备关联, 包含了文件系统元数据, 并且跟踪了块的变化. cache只包含了文件本身.-/+ buffers/cache 行则从用户角度显示内存信息, 可用内存从数量上等于mem行used列值减去buffers和cached内存的大小.因为buffers和cached是操作系统为加快系统运行而设置的, 当用户需要时, 可以只接为用户使用.top 显示系统运行时的各进程动态、实时的状态(cpu、内存)top 中有3个列 VIRT RES SHR, 标示了进程使用的内存情况.VIRT 标识这个进程可以使用的内存总大小, 包括这个进程真实使用的内存, 映射过的文件, 和别的进程共享的内存等.RES 标识这个这个进程真实占用内存的大小.SHR 标识可以和别的进程共享的内存和库大小.vmstat 显示内存的使用情况这些命令都是从/proc/meminfo中读取内存信息.关于/proc/meminfo中各行的含意, 在内核源代码的Documentation/filesystems/proc.txt文件中有叙述系统的真实内存大小可以用 dmesg | grep mM[mM]看到/proc/pid/status显示一个进程的详细状态# cat /proc/5346/status Name: bash State: S (sleeping) SleepAVG: 98% Tgid: 5346 Pid: 5346 PPid: 5343 TracerPid: 0 Uid: 1000 1000 1000 1000 Gid: 104 104 104 104 FDSize: 256 Groups: 6 24 29 44 104 113 1000 1001 VmPeak: 6528 kB VmSize: 6528 kB VmLck: 0 kB VmHWM: 1976 kB VmRSS: 1976 kB VmData: 752 kB VmStk: 84 kB VmExe: 644 kB VmLib: 1788 kB VmPTE: 16 kB Threads: 1 SigQ: 0/4294967295 SigPnd: 0000000000000000 ShdPnd: 0000000000000000 SigBlk: 0000000000000000 SigIgn: 0000000000384004 SigCgt: 000000004b813efb CapInh: 0000000000000000 CapPrm: 0000000000000000 CapEff: 0000000000000000VmSize即为该进程内存总大小, 和top输出中的VIRT一致.

云栖技术 2019-12-02 02:35:43 0 浏览量 回答数 0

问题

【教程免费下载】Unity虚拟现实开发实战

玄学酱 2019-12-01 22:07:47 1731 浏览量 回答数 1

问题

免费Docker镜像来袭,你造么?

豆妹 2019-12-01 21:17:20 20834 浏览量 回答数 15

回答

首先,需要明确一点,如果操作系统被安装在D盘,就会发现少有软件会自动识别系统路径并出现D盘的默认安装位置,然而还是有些软件会显示C盘,这和软件安装包有关。所以,C盘并不是绝对的,但一定是很多软件开发商的默契所在,那些可以自动识别系统分区并默认了安装位置为系统盘所在的软件便是在尊重Windows系统的设计。也有像腾讯产品这样自动检测安装目录并创建次目录的软件,但这样人性化设计的安装步骤只存在一小部分。Windows系统中: Program Files和Program Files(x86)是用来存放程序本体的, ProgramData和%user%/appdata是用来存放程序数据的。当你的程序本体出现问题,你只需要重新安装程序,你的用户数据依然会保存。当你要还原程序设置,你只需要从ProgramData或者%user%/appdata中删掉程序的配置文件,就能够把程序还原到初始设置。程序在安装过程中向对应的注册表位置写入软件信息和卸载程序的路径,这样就可以通过控制面板统一的管理程序。所以,绿色软件还是要慎用, 这种脱离了系统管控的东西还是少用为妙。那软件装在C盘好吗?先说说为什么很多用户会在软件安装在C盘和D盘之间选择后者。原因之一:在N年前,硬盘容量还不像现在这样海量,20G就可被称为大容量硬盘的年代,计算机的C盘作为系统盘,在安装完操作系统后基本就没多大空间了,所以当时人们的习惯是将软件安装在非系统盘,以免因为系统盘剩下的空间过小导致虚拟内存不足(那年代物理内存容量也不像现在这么恐怖的,256M跑xp的也有,运行大型软件,例如游戏啥的,虚拟内存还是很必要的。)原因之二:有人说过了,操作系统并非不坏金身,总有挂了的时候,而windows不像类unix环境那样,挂了你自己还可以鼓捣鼓捣,说不定就起来了,windows挂了之后当时大多数人,包括所谓的“高手”们,采用的均是简单粗暴但最有效的方式,格了系统盘重装。 这时备份你的个人文件就是个问题,当时并没有太多的简单易用的系统维护环境可选。(基本都是DOS,一则这东西界面不是那么友好,二则系统被你用崩溃了肯定不是一两天的事儿,在没有文件管理器的情况下把少则数百多则上千的文件从系统盘复制到别的盘符并非易事)。如今呢,咱赶上好时候了,硬件配置大幅提升,使得系统盘空间不够用的情况越来越少了,可以为C盘分担更多的空间,以便在C盘安装软件。并且有了很多较为易用的系统维护环境,基本都是基于PE,用光盘或U盘或网络启动,而不少主板厂商由于BIOS容量激增也开发出了一些基于BIOS的系统维护环境,功能也相当强大。所以,这件事可以遗忘了,不用再强逼自己把软件安装在其他分区中。

独步清客 2019-12-02 00:44:06 0 浏览量 回答数 0

问题

游戏云间之三:游戏运维

起航 2019-12-01 21:43:27 23458 浏览量 回答数 17

回答

直观来说,Binder是Android中的一个类,它实现了IBinder接口,从IPC的角度来说,Binder是Android中的一种跨进程通信的一种方式,同时还可以理解为是一种虚拟的物理设备,它的设备驱动是/dev/binder/。从Framework角度来说,Binder是ServiceManager的桥梁。从应用层来说,Binder是客户端和服务端进行通信的媒介。 我们先来了解一下这个类中每个方法的含义: DESCRIPTOR:Binder的唯一标识,一般用于当前Binder的类名表示。 asInterface(android.os.IBinder obj):用于将服务端的Binder对象转换成客户端所需的AIDL接口类型的对象,这种转化过程是区分进程的,如果客户端和服务端位于同一个进程,那么这个方法返回的是服务端的stub对象本身,否则返回的是系统封装后的Stub.proxy对象。 asBinder():用于返回当前Binder对象。 onTransact:该方法运行在服务端的Binder线程池中,当客户端发起跨进程通信请求的时候,远程请求通过系统底层封装后交给该方法处理。注意这个方法public boolean onTransact(int code, android.os.Parcel data, android.os.Parcel reply, int flags),服务端通过code可以确定客户端所请求的目标方法是什么,接着从data中取出目标方法所需的参数,然后执行目标方法。当目标方法执行完毕后,就像reply中写入返回值。这个方法的执行过程就是这样的。如果这个方法返回false,客户端是会请求失败的,所以我们可以在这个方法中做一些安全验证。 每个Android的进程,只能运行在自己进程所拥有的虚拟地址空间。对应一个4GB的虚拟地址空间,其中3GB是用户空间,1GB是内核空间,当然内核空间的大小是可以通过参数配置调整的。对于用户空间,不同进程之间彼此是不能共享的,而内核空间却是可共享的。Client进程向Server进程通信,恰恰是利用进程间可共享的内核内存空间来完成底层通信工作的,Client端与Server端进程往往采用ioctl等方法跟内核空间的驱动进行交互 Client、Server和ServiceManager实现在用户空间中,Binder驱动实现在内核空间中 Binder驱动程序和ServiceManager在Android平台中已经实现,开发者只需要在用户空间实现自己的Client和Server Binder驱动程序提供设备文件/dev/binder与用户空间交互,Client、Server和ServiceManager通过open和ioctl文件操作函数与Binder驱动程序进行通信 Client和Server之间的进程间通信通过Binder驱动程序间接实现 ServiceManager是一个守护进程,用来管理Server,并向Client提供查询Server接口的能力,将字符形式的Binder名字转化成Client中对该Binder的引用,使得Client能够通过Binder名字获得对Server中Binder实体的引用 服务器端:一个Binder服务器就是一个Binder类的对象。当创建一个Binder对象后,内部就会开启一个线程,这个线程用户接收binder驱动发送的消息,收到消息后,会执行相关的服务代码。 Binder驱动:当服务端成功创建一个Binder对象后,Binder驱动也会相应创建一个mRemote对象,该对象的类型也是Binder类,客户就可以借助这个mRemote对象来访问远程服务。 客户端:客户端要想访问Binder的远程服务就必须获取远程服务的Binder对象在binder驱动层对应的binder驱动层对应的mRemote引用。当获取到mRemote对象的引用后就可以调用相应Binde对象的服务了。 Binder的工作机制但是要注意一些问题:1、当客户端发起请求时,由于当前线程会被挂起,直到服务端返回数据,如果这个远程方法很耗时的话,那么是不能够在UI线程,也就是主线程中发起这个远程请求的。 由于Service的Binder方法运行在线程池中,所以Binder方法不管是耗时还是不耗时都应该采用同步的方式,因为它已经运行在一个线程中了。

景凌凯 2020-04-10 21:05:16 0 浏览量 回答数 0

问题

memcache proxy之memagent介绍分析 实现分析 一致性hash?400报错

爱吃鱼的程序员 2020-06-05 12:21:05 0 浏览量 回答数 1

回答

引用来自“AiryLinus”的评论 1. 装 PHP 的时候记得装 PDO 扩展和 PDO_PGSQL 扩展,在安装  drupal, wordpress, phpbb 的时候选择使用 PDO_PGSQL 驱动。 2. 单独装 phppgadmin 就下载 php 代码包,自己新建 nginx 虚拟主机或者放到 web 根目录下面的某个子目录。 多谢6楼,终于得到一个答案! 同时多谢大家的捧场和建议,这次本人就要钻牛角尖,所以决定 postgresql 一条路走到黑了 ^^; 另外,我一边作环境一边把过程记录下来,我觉得对本身是大有益处的。或者过后在把整理出来的内容发给大家,希望对同道们有些帮助 ###### PHP+MySQL是黄金搭档,不喜欢Oracle,你可以用MariaDB或者Percona Server。 另外WordPress默认只支持MySQL数据库,还有国内很多PHP程序也都使用MySQL的,比如Discuz!  编译过PHP你就知道,PHP现在都是在内置MySQL数据库驱动mysqlnd,数据库连接和操作性能更好,另外还针对MySQL开发了mysqli扩展,提供一系列MySQL操作函数,从phpMyAdmin也可以看到PHP对MySQL的控制能力。另外MySQL管理程序HeidiSQL、MySQL-Front、MySQL Workbench都很不错,不输于PGAdmin3。 ######用nativecat吧,如果没安装桌面的话,安装 PGAdmin3干嘛,既然在虚拟机,可以在物理机安装PGAdmin3或者nativecat,ssh登录啊######哦,原来是劝我改行啊! 不过暂时还不想改呀... ###### PHP除了MySQL外,对其他数据库支持都不好。 这里说的不好,指得一个是数据库扩展的功能和性能上的跟进(比如PHP针对MySQL驱动做了特殊优化,对其他数据库则没有),其他数据库在PHP里都是二等公民;其次是PHP不支持连接池,对Pg、Oracle等进程型数据库来说是不能接受的;最后,也是最重要的,社区支持。你几乎找不到PHP和其他数据库配合使用的代码和项目、讨论等,比如你要找JAVA和Oracle,MySQL,H2,Sqlite等搭配,.NET和MSSQL,MySQL等搭配的文章,烂大街,但你找PHP,只能找到PHP+MySQL的文章或软件。遇到问题基本也是孤军奋战。 所以说,虽然理论上PHP支持各种数据库,但现实是,PHP只能搭配MySQL。 说完PHP,再说PG。PG在日本和对日外包中用的多,国内很少很少。 ######如果不允许盗版,PG就会多起来的了, MySQL有它水土不服的领域。######PHP内置SQLite3数据库和MySQL数据库驱动,当然连接其他数据库也完全可以,使用PDO也很方便:http://us.php.net/manual/zh/refs.database.php###### 果断 MySQL,还用说吗?! 你想学 php,就专注在上面,不要搞七搞八的。 ###### 1. 装 PHP 的时候记得装 PDO 扩展和 PDO_PGSQL 扩展,在安装 drupal, wordpress, phpbb 的时候选择使用 PDO_PGSQL 驱动。 2. 单独装 phppgadmin 就下载 php 代码包,自己新建 nginx 虚拟主机或者放到 web 根目录下面的某个子目录。 ######支持楼主######呵呵,推荐mysql这种垃圾的也不知道是什么心理

kun坤 2020-06-04 11:20:25 0 浏览量 回答数 0

问题

quickdb 另辟捷径高效解决NOSQL数据库 数据持久性问题:报错

kun坤 2020-06-07 16:39:10 0 浏览量 回答数 1

问题

怎样实现数据存储的管理维护

elinks 2019-12-01 21:14:17 9098 浏览量 回答数 0

问题

选购VPS时应当注意的问题

绫纱 2019-12-01 21:18:36 11573 浏览量 回答数 0

回答

DevOps 这个概念最早是在 2007 年提出的,那时云计算基础设施的概念也才刚刚提出没多久,而随着互联网的逐渐普及,应用软件的需求爆发式增长,软件开发的理念也逐渐从瀑布模型(waterfall)转向敏捷开发(agile)。传统的软件交付模式(应用开发人员专注于软件开发、IT 运维人员负责将软件部署到服务器运行),再也无法满足互联网软件快速迭代的需求。于是,DevOps 作为一种打破研发和运维之间隔阂、加快软件交付流程、提高软件交付质量的文化理念和最佳实践 逐渐普及至今。 DevOps 的现状 DevOps 的流行得益于业界对于应用软件敏捷开发、高质量交付的诉求,所以为开发和运维开辟了一块“公共的空间”,让双方可以在这里紧密合作。那时软件研发依旧属于一个新兴行业,人们习惯于向成熟的制造业学习,制造业解决大规模生产的方式,就是构建流水线,通过流水线规范化每个步骤对接的内容,而流水线上的工人们则只需要各司其职,快速熟练的完成自己这部分生产内容。 所以,DevOps 借鉴了制造业的经验,开始构建持续集成 / 持续交付(CI/CD)的流水线,催生出了一系列自动化 / 半自动化工具(如 puppet、chef、ansible 等),结合编写脚本的可扩展能力,将研发和运维的大量操作规范化,从而达到彼此协作的目标。但是最终还是要有人投入到这些工具的构建中,于是就出现了 DevOps 团队。DevOps 团队构建的工具和平台,帮助研发更容易地接近生产环境,让研发在持续集成、持续交付的过程中可以一键部署、快速试错,从而很大程度提前暴露和避免了软件在实际运行过程中的问题。 从本质上讲,DevOps 是为运维服务的。 它把生产环境的运维流程通过自动化的工具提供出来了,屏蔽了基础设施细节,同时让软件本身的问题更容易暴露,从而把这些问题尽量提前交给研发去解决。这些,其实都是在帮助运维减轻负担。 这一套模式在一开始运转良好,但是问题也随着时间的推移慢慢暴露出来了。DevOps 本身不为企业带来直接的利润,也不增加产品的功能,它们是企业的成本中心,所以许多企业不愿意为 DevOps 投入太多的成本。久而久之,DevOps 的能力便无法与研发人员增长的需求所匹配,不愿意继续伴随着云和开源社区的发展向前演进,反而成为软件研发的瓶颈。试想一下,有多少大公司的技术人员,对自己公司里的“研发效能”工具表示满意呢? 云计算的普及 聪明的企业总能从自己的需求中发现业界共有的需求,AWS 便是这么诞生的,他们早在 2006 年便首次把软件部署需要的网络、计算、存储等基础设施当做服务提供给用户,允许任何人在不购买服务器等物理硬件的情况下构建互联网应用程序,规模化使得整体的成本比用户自建更低。而云计算 IaaS、PaaS、SaaS 的概念也正是在那一年开始逐渐清晰的。 云计算的初期,用户主要使用的是 IaaS 服务,如虚拟机、存储等,使用云计算服务的企业依旧需要运维来管理这一类基础设施,只是运维管理的对象从物理机切换到虚拟机而已,并没有太本质的区别。 而随着云计算的快速发展,云的能力不断补充、增强,渐渐将原先由运维提供的方方面面的能力都转换成为了云上的服务,这其中自然包含了管理软件完整生命周期的各类服务,从代码托管、持续集成、持续交付,到监控、报警、自动扩缩容等一系列的能力,均能在云上找到对应的服务。品类之多、数量之巨,令人瞠目结舌。 但是 DevOps 依然有着用武之地。云的对接难度实在太大了,涉及到的云服务又多,不同云厂商提供的服务还不统一,为了使用云上的产品不得不投入大量的时间学习,而为了防止云厂商的绑定又不得不做多厂商的适配,DevOps 依旧需要像过去一样为开发屏蔽实际环境的复杂性,只不过这次他们要负责管理的基础设施变成了云资源。 改变一切的 Kubernetes Kubernetes 的本质是现代应用基础设施,它关注如何将应用与“云”天然地集成在一起,将“云”的最大价值发挥出来。Kubernetes 强调让基础设施能更好的配合应用、以更高效的方式为应用“输送”基础设施能力,而不是反之。在这个过程中,Kubernetes 、Docker、Operator 等在云原生生态中起到了关键作用的开源项目,正在在把应用管理与交付推上一个跟以前完全不一样的境况:Kubernetes 的使用者只通过声明式的方式描述自己应用的终态是什么,然后一切就结束了。Kubernetes 会处理后面的所有事情。 这也是为什么 Kubernetes 非常强调声明式 API。通过这种方式,Kubernetes 本身接入的基础设施能力越强,Kubernetes 的使用者能够声明的终态就越丰富,他的职责也就约单纯。现在,我们不仅能够通过 Kubernetes 声明应用的运行终态,比如;“这个应用需要 10 个实例”,我们还能够声明应用的很多运维终态,比如:“这个应用使用金丝雀发布策略进行升级”,以及 “当它的 CPU 使用量大于 50% 时,请自动扩展 2 个实例出来”。 这就让传统的 DevOps 工具和团队受到了挑战:如果一个业务研发自己只需要通过声明式 API 声明他的应用的所有终态甚至包括完整的 SLA,后面的一切就都会有 Kubernetes 来自动的搞定,那么他还有什么理由去对接和学习各式各样的 DevOps 流水线呢? 换句话说,长久以来,DevOps 实际上是在充当研发与基础设施之间的那一层“胶水”。而现在,Kubernetes 通过它极具生命力的声明式 API 和无限接入的应用基础设施能力,正在完美的扮演这个“胶水层”的作用。这也提醒了我们,上一个正在被 Kubernetes 体系强烈挑战的“胶水层”,其实叫做“传统中间件”:它正遭受到 Service Mesh 的巨大冲击。 DevOps 会消失吗? 近几年,Kubernetes 项目经常被描述成 DevOps 的“最佳拍档”。类似的观点认为, Kubernetes 跟 Docker 一样,解决的是软件运行时的问题。这意味着 Kubernetes 更像一种“时髦”的 IaaS,只不过运行时从虚拟机变成了容器。所以,只要能够将现有 DevOps 思想和流程对接到 Kubernetes 上来,就可以享受到容器技术带来的轻量级与弹性。这对于提倡“敏捷”的 DevOps 来说,显然是最好的组合。 不过,至少目前看来,Kubernetes 的发展路径并不是一个类 IaaS 的角色。它虽然关注接入底层的基础设施能力,但它本身却又不是基础设施能力的提供方。而且,相比于软件运行时,Kubernetes 似乎更关心软件的生命周期和状态流转。不仅如此,它还提供了一种叫做“控制器模型”的机制来将软件的实际状态与期望状态不断逼近,这显然都已经超出了一个“软件运行时”的范畴。 Kubernetes 项目对应用本身的“额外关注”,让它与一个类 IaaS 基础设施有着明显的区别,也让它“胶水”的定位更加明显。而如果 Kubernetes 的能力足够强大,那么作为研发与基础设施之间现有的“胶水层”, DevOps 是否还有必要存在?在所谓的云原生时代,应用研发与交付是不是真的会走向“一次声明”就可以“撒手不管”,从而让 DevOps 彻底消失呢? 不过,至少目前看来,Kubernetes 项目距离这个愿景,还有不少困难需要克服。 “Platform for Platform” API 的局限性 Kubernetes 是一个典型的 “Platform for Platform”项目,所以它的 API,距离纯研发视角还是非常遥远的。就比如一个 Deployment 对象,就既包括了研发侧关心的镜像,也包括了基础设施侧的资源配置,甚至是容器安全配置。此外, Kubernetes API 并没有提供出对“运维能力”的描述与定义方式,这也使得声明之后的“撒手不管”变得遥不可及。这也是为什么目前 DevOps 依然被需要的原因:Kubernetes 的大多数字段,还是必须经过研发和运维共同协作的流程来进行填充。 无法对更多的云资源进行描述 K8s 的原生 API 只包含了云资源的很少一部分,比如用 PV/PVC 表达存储,用 Ingress 表达负载均衡,但这对于一个完全声明式的应用描述来说是完全不够的。比如,研发希望在 K8s 上找到一个概念来表达数据库、VPC、消息队列等需求的时候,就会感到非常困惑。而现有的所有方案则完全依赖于云厂商的实现从而带来了新的 vendor lock-in 困惑。 Operator 体系缺乏互操作性 Kubernetes 的 Operator 机制是这个项目的能力能够无限增长的公开秘密。但令人遗憾的是,目前所有 Operator 之间的关系,就像是一个又一个的烟囱,互相之间没有任何交互与协作的可能。比如,我们把云上的 RDS 通过 CRD 和 Operator 扩展到了 K8s 声明式 API 的体系中,但是当第三方希望写一个定时备份 RDS 持久化文件的 CRD Operator 去配合的时候,却往往无从下手。这就又需要 DevOps 的体系介入来解决问题。 未来? 显然,现在的 Kubernetes 项目,依然需要借助 DevOps 体系来真正完成软件的高效迭代与交付工作。这是不可避免的:尽管 Kubernetes 声称自己是“以应用为中心”的基础设施,但它作为一个从 Google Borg 衍生出来的系统级项目,其本身的设计和工作层次还是更多的基础设施领域徘徊。但另一方面,我们绝不可否认的是,Kubernetes 在它的关键路径上,始终保持着对研发侧 “NoOps” 的追求。这种渴望,从它第一天提出“声明式应用管理”理论的时候就已经“昭然若揭”,而 CRD 和 Operator 体系的建立,更让这种应用级别的关心终于有了落地的机会。我们已经看到很多 DevOps 流程正在“下沉”为 Kubernetes 里的声明式对象与控制循环,比如 Tekton CD 项目。 如果 Kubernetes 的未来是 100% 的声明式应用管理,那么我们有理由相信 DevOps 最终会从技术领域消失然后彻底蜕变成一种文化。毕竟,那个时候的运维工程师,可能都会成为 Kubernetes Controller/Operator 的编写者或者设计者。而研发呢?他们可能根本不会知道原来 Kubernetes 这个东西曾经如此显赫的存在过。

有只黑白猫 2020-01-07 11:35:38 0 浏览量 回答数 0
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 云栖号物联网 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 2020阿里巴巴研发效能峰会 企业建站模板 云效成长地图 高端建站 云栖号弹性计算 阿里云云栖号 云栖号案例 云栖号直播