阿里云新品发布会周刊第66期 丨 阿里云容器新品重磅发布 !
本期发布会阿里云将首推两款重磅新品,容器服务企业版 ACK Pro和边缘容器服务 ACK@Edge,深度解析阿里云面向云原生的新思考和新动态。
Dragonfly Nydus——下一代容器格式的一种实现
容器技术从1979年发展至今已经超过40年,docker 只能说是目前为止,其中一种比较著名而流行的实现。可以说,docker 解决了应用分发的难题,为日后 kubernetes 的流行奠定了基础。 但是,俗话说得好,勇士战胜恶龙之日,自身亦化作恶龙。不管是 Docker 公司后来各种神操作(把项目改名 Moby ,docker swarm 的弱鸡编排)也好,CoreOS 的崛起也罢。开源世界的战争,是一种技术标准的全球话语权争夺,这种争夺远比你想象的要残酷。
阿里云荣获可信云容器安全能力先进级认证, ACK/ACR为企业级安全护航
在7月29日的2020可信云大会上,信通院发布了国内云厂商的容器安全评估结果。阿里云容器服务荣获最高级别先进级可信云安全能力认证,特别是在最小化攻击面,二进制镜像验签名,密文的BYOK加密等能力上国内领先,达到国际先进水平。
阿里云荣获可信云容器安全能力先进级认证, ACK/ACR为企业级安全护航
在7月29日的2020可信云大会上,信通院发布了国内云厂商的容器安全评估结果。阿里云容器服务荣获最高级别先进级可信云安全能力认证,特别是在最小化攻击面,二进制镜像验签名,密文的BYOK加密等能力上国内领先,达到国际先进水平。
应用中心最佳实践之——使用应用组完成多集群一键部署
在现实中的应用交付实践中,常常需要将同一应用同时部署到多个集群中。应用中心支持将同一个数据源定义的应用,通过应用组的形式一键部署到多个集群中,实现统一管理。
容器存储:Flexvolume 迁移 CSI (NAS、OSS数据卷)
本文介绍如何将Flexvolume插件挂载的NAS、OSS类型存储转换到CSI插件类型;如果您使用了云盘数据卷,本文提供的方案还不适合这个场景,具体方案敬请期待。
基于ASM配置JWT请求授权
服务网格包含两种认证方式: • 传输认证:基于双向TLS技术,常用于服务间通信认证。 • 来源认证:基于JWT技术,常用于客户端和服务之间的请求认证。 在服务网格中配置JWT请求授权,可以实现来源认证(又称为最终用户认证)。在接收用户请求时,该配置用于认证请求头信息中的ACCESS TOKEN是否可信,并授权给来源合法的请求。
基于ASM的GRPC服务部署实践
继MicroServices之后,ServiceMesh是又一个推动软件工业的革命性技术。其服务治理的方法论,不仅改变了技术实现的方式和社会分工。 运行于数据平面的用户服务与治理服务的各种规则彻底解耦。运行于控制平面的规则定义组件,将流量控制的具体规则推送给运行于数据平面的proxy,proxy通过对用户服务的ingress和egress的实际控制,最终实现服务治理。 grpc协议相比http而言,既具备http跨操作系统和编程语言的好处,又提供了基于流的通信优势。而且,grpc逐渐成为工业界的标准,一旦我们的grpc服务可以mesh化,那么更多的非标准协议就可以通过转为grpc协议的方式
容器技术企业落地最佳实践
阿里云容器服务的技术专家易立为大家带来容器技术企业落地最佳实践的介绍。内容包括容器技术的背景,阿里云容器服务概述,容器技术在企业落地的正确姿势,以及容器服务的演进方向。
解读 Knative Serving v0.15.0 版本特性
Knative 0.15.0 版本已于近期发布,针对 Knative Serving v0.15.0 版本对这些新功能特性进行解读,让你快速对新版本特性有所深入了解。
开发者社区精选直播合集 | 容器化时代
容器技术(Container),是一项将单个操作系统的资源划分到孤立的组中,以便更好地在孤立的组间平衡有冲突的资源使用需求的技术。该技术受到业内广泛关注,有充分的证据表明,容器技术能够大大提升工作效率。本合集精选容器技术进化历程、应用及及痛点剖析的分享视频,助你玩转容器技术!
如何使用 Istio 进行多集群部署管理(2): 单控制平面 Gateway 连接拓扑
本文摘自于由阿里云高级技术专家王夕宁撰写的《Istio 服务网格技术解析与实践》一书,讲述了如何使用 Istio 进行多集群部署管理来阐述服务网格对多云环境、多集群即混合部署的支持能力。
如何使用 Istio 进行多集群部署管理(1): 单控制平面 VPN 连接拓扑
本文摘自于由阿里云高级技术专家王夕宁撰写的《Istio 服务网格技术解析与实践》一书,在展望服务网格未来的同时,讲述了如何使用 Istio 进行多集群部署管理,来阐述服务网格对多云环境、多集群即混合部署的支持能力。
阿里云新品发布会周刊第48期 丨 Gartner 容器报告:阿里云与 AWS 并列第一,领先微软、谷歌
新产品、新版本、新技术、新功能、价格调整,评论在下方,下期更新!关注更多新品发布会!
阿里云新品发布会周刊第48期 丨 Gartner 容器报告:阿里云与 AWS 并列第一,领先微软、谷歌
新产品、新版本、新技术、新功能、价格调整,评论在下方,下期更新!关注更多新品发布会!
Argo项目入驻CNCF,一文解析Kubernetes原生工作流
近期CNCF宣布欢迎Argo项目进入 CNCF 孵化器,作为一个新加入的项目,Argo主要关注于Kubernetes原生的工作流,持续部署等方面。 Argo项目是一组Kubernetes原生工具集合,用于运行和管理Kubernetes上的作业和应用程序。
为容器和 Kubernetes 构建应用程序的 7 个最佳实践
当容器和 Kubernetes 变得日益普及时,我们更需要做的是保持清醒,不要被欺骗,误认为应该使用它们来运行任何类型的应用程序。
Terway网络场景下的vSwitch扩容
Terway网络插件是阿里云容器服务自研的网络插件,使用原生的弹性网卡分配给Pod实现Pod网络。兼顾性能和灵活性,是阿里云容器服务目前阶段、尤其是在大规模集群场景下的首选网络方案。本文讲解如何处理集群使用的vSwitch IP资源不足的问题以及解决办法。
基于阿里云托管服务网格ASM完成应用全自动化渐进式发布的GitOps解决方案实践
简介 ASM ASM当前处于公测阶段,欢迎扫码入群进一步交流: 阿里云服务网格(Alibaba Cloud Service Mesh,简称 ASM)提供了一个全托管式的服务网格平台,兼容于社区 Istio 开源服务网格,用于简化服务的治理,包括服务调用之间的流量路由与拆分管理、服务间通信的认证安全以及网格可观测性能力,从而极大地减轻开发与运维的工作负担。
阿里云服务网格ASM之扩展能力(2):在ASM中支持自定义外部授权
前面的系列文档中介绍了如何创建服务网格ASM实例,并介绍了如何将一个应用示例部署到 ASM 实例中,本文在此基础上介绍如何在ASM中支持自定义外部授权。
阿里云服务网格ASM之扩展能力(1):在ASM中通过EnvoyFilter添加HTTP请求头
前面的系列文档中介绍了如何创建服务网格ASM实例,并介绍了如何将一个应用示例部署到 ASM 实例中,本文在此基础上介绍如何通过定义EnvoyFilter来添加HTTP请求头,以满足一些场景下的要求,例如使用安全请求头保护应用程序的安全等。
在AlibabaCloud上,如何使用AD FS进行SSO登录并完成在容器服务ACK集群中的身份验证之 【用户SSO】
阿里云支持基于SAML 2.0的SSO(Single Sign On,单点登录),也称为身份联合登录。本文以Microsoft Active Directory (AD) 为例为您介绍企业如何使用自有的身份系统实现与阿里云的SSO并在容器服务ACK集群中进行身份验证。 本文主要介绍 ** AD FS的安装部署 **, ** 用户SSO ** 配置和登录, 如需了解 **角色SSO** 配置和
纳管集群接入Metric Adapter
在容器服务的应用目录里找到“ack-alibaba-cloud-metrics-adapter” 填入AccessKeyId、AccessKeySecret、RegionId这三个参数,“创建”即可 部署完成后可以参考这里的例子
解读 Knative Eventing v0.12.0 新特性
本文针对 Knative Eventing v0.12.0 版本新功能特性进行解读,让你快速对 v0.12.0 版本有所了解。
Kubernetes容器运行时接口-CRI
Kubernetes提供了多种容器开放接口用于对接不同的后端来提供资源,如提供计算资源的容器运行时接口(Container Runtime Interface, CRI),提供网络资源的容器网络接口(Container Network Interface, CNI),提供提供存储资源的容器存储接口(Container Storage Interface, CSI)。这篇作为这系列的开篇,主要介绍了kubelet的CRI接口实现。
云原生必备知识: 容器数据卷
是一个可供一个或多个容器使用的特殊目录。 可以达到以下目的: 1.绕过“拷贝写”系统,以达到本地磁盘 IO 的性能,(比如运行一个容器,在容器中对数据卷修改内容,会直接改变宿主机上的数据卷中的内容,所以是本地磁盘IO的性能,而不是先在容器中写一份,最后还要将容器中的修改的内容拷贝出来进行同步。) 2.绕过“拷贝写”系统,有些文件不需要在 docker commit 打包进镜像文件。 3.在多个容器间共享目录。 4.在宿主和容器间共享目录。 5.在宿主和容器间共享一个文件。
云原生必备知识: 容器设计模式
即容器中的设计模式,包含迭代器模式和适配器模式。迭代器模式即提供一种方法访问一个容器对象中各个元素,而又不暴露该对象的内部细节。适配器模式及即适配器模式是23种中设计模式之一,它的主要作用是在新接口和老接口之间进行适配。它非常像我们出国旅行时带的电源转换器,我们国家的电器使用普通的扁平两项或三项插头,而去外国的话,使用的标准就不一样了,比如德国,使用的是德国标准,是两项圆头的插头。如果去德国旅游,那么我们使用的手机充电器插头无法插到德国的插排中去,那就意味着我们无法给手机充电。怎样解决这个问题呢?只要使用一个电源转化器就行了。
云原生必备知识:容器
容器,是一个视图隔离、资源可限制、独立文件系统的进程集合,它将系统的其他资源隔离开来,具有自己独立的资源视图。“视图隔离”,指的是能够看到部分进程、有独立的主机名,“资源可限制”,指的是可以限制内存大小、CPU 使用个数等。
阿里云基因计算服务使用最佳实践 - 通过Remote API实现基因数据处理
阿里云基因计算服务(AGS)是一个依托于云计算平台,使用容器、工作流等云原生技术,针对生信行业基因数据处理的整体解决方案。您可以不用关心基因数据处理过程中的计算资源、处理逻辑、数据缓存等细节,只需要将您的源数据(Fastq文件)地址提供给ags,ags既可高效、快速完成整个数据分析流程,并将结果数据上传到您期望的存储空间。
边缘容器服务:边缘原生应用与实践
本文由阿里云高级技术专家熊鹰分享,希望通过介绍现在阿里云在边缘计算和边缘原生这些技术领域的经验,让大家能了解到现在边缘计算的发展现状、边缘适合的业务场景、以及5G和MEC时代我们对于边缘原生的一些思考。
容器下监控体系的构建-概览
kubernetes下监控体系的构建 整体结构如图所示,下面我们来分别介绍每一部分的构建方案,以及相关的参考 k8s本身的监控 k8s事件监控体系的补全 大家都知道k8s本身的事件体系还是比较强大的,非常适合其本身的声明式API的特征。
免费试用!容器集群监控利器 阿里云 Prometheus 服务正式商业化
阿里云Prometheus服务经过近半年的公测试用,终于在新年伊始开始提供商业化服务,感谢广大用户在这半年里和我们一起成才和蜕变。我们坚信阿里云Prometheus服务会在云原生时代提供给大家最佳的监控体验。欢迎开通免费试用,入群更能享受专属优惠。
Knative 驾驭篇:带你 '纵横驰骋' Knative 自动扩缩容实现
Knative 中提供了自动扩缩容灵活的实现机制,本文从 `三横两纵` 的维度带你深入了解 KPA 自动扩缩容的实现机制。让你轻松驾驭 Knative 自动扩缩容。
纳管集群接入日志服务
接入日志服务 在容器服务的应用目录里找到“ack-sls-log-controller” 填入合适的参数后,“创建”即可,图中红框标注处均需要填入自己集群对应的值 如果集群和vpc有专线打通 InstallParam参数可以去掉'-internet'后缀 Endpoint参数可以在{regio.
容器服务 kubernetes 系统组件介绍
容器服务建立 kubernetes 集群后,系统默认建立一批 kubernetes 集群的系统组件与进程,理解他们的部署配置方式和含义,是优化集群,排除 k8s 集群故障的技术基础之一。本文将为大家详细讲解 kubernetes 集群系统组件的功能及用法。
深度解析容器服务Kubernetes集群容量以及网络规划
#背景 在目前云原生技术被如火如荼的大规模使用的过程中。越来越多的用户都会使用Kubernetes集群去部署其应用。但是在这个过程中,如果由于早期对于容量和网络的规划不当,可能造成实际生产中实践中,不能满足业务的真实需要。如果此时在重新规划就面临着集群重建、应用迁移的诸多事项,这样不仅仅浪费了大量的精力,甚至可能会造成业务有一定的中断。因此,为了使得广大使用者可以更加深入的理解阿里云容器服务Ku
阿里云上万个 Kubernetes 集群大规模管理实践
阿里云容器服务从2015年上线后,一路伴随并支撑双十一发展。在2019年的双十一中,容器服务ACK除了支撑集团内部核心系统容器化上云和阿里云的云产品本身,也将阿里多年的大规模容器技术以产品化的能力输出给众多围绕双十一的生态公司和ISV公司。通过支撑来自全球各行各业的容器云,容器服务已经沉淀了支持单元化架构、全球化架构、柔性架构的云原生应用托管中台能力,管理了超过1W个以上的容器集群。本文会介绍下容器服务ACK在海量k8s集群管理上的实践经验。
数据卷挂载问题快速恢复
本文阐述的是业务快速恢复方案:当Pod因为数据卷挂载重启失败时,暂不去解决节点挂载的问题,而是让pod先在其他节点启动成功,快速恢复业务,待业务恢复后再去分析出问题的节点。