
暂无个人介绍
暂时未有相关通用技术能力~
阿里云技能认证
详细说明金融科技发展趋势金融科技英译为Fintech,是Financial Technology的缩写,指通过利用各类科技手段创新传统金融行业所提供的产品和服务,提升效率并有效降低运营成本。2022年初,中国人民银行自三年前发布金融科技发展规划之后,再次印发《金融科技发展规划(2022-2025年)》,意在推动中国金融科技从“立柱架梁”全面迈入“积厚成势”新阶段,力争到2025年实现整体水平与核心竞争力跨越式提升。而银行业核心系统的数字化转型一直是金融科技的重中之重。从资产规模、业务规模来看,银行是金融机构中的绝对主体。截至2020年,我国总共有4607家银行:其中政策性银行3家、国有大型商业银行6家、全国股份制商业银行12家,城市商业银行135家、农村商业银行1500家、农村信用社694家、村镇银行1633家、农村合作银行27家、民营银行19家、外资银行41家、住房储蓄银行1家等等。目前国内银行格局是典型的长尾形态。 第一梯队(皇亲国戚):大型国有商业银行,包括“四大行”+交通银行+邮储银行,总资产/负债占银行业金融机构约45%。第二梯队(大都市精英白领):12家股份制商业银行,其总资产/负债占银行业金融机构约18%。第三梯队(地方各阶层):包括各城市商业银行(总资产/负债约占13%)、农村商业银行(总资产负债约占12%)和其他银行。总体而言,2021年是“金融科技三年规划”的收官之年,也是十四五规划开启之年,未来几年金融机构的技术投入与数字创新实践将主要集中于三个方向:基础技术建设与升级、业务需求导向的数字化实践、基于数字金融基础设施的创新实践。基础技术建设与升级:分布式核心系统、分布式数据库、数据中台、国产化等基础技术及工具的投入和升级建设。业务需求导向的数字化实践:满足机构对自身业务的数字实践需求,解决所面临的“生产力瓶颈、可信关系难以构建”等问题,如推动隐私计算、联盟链、RPA等技术的发展与实践落地。基于数字金融基础设施的创新实践:如在数字人民币基础上结合实际业务场景加载智能合约应用、在数字监管体系中进行合规科技的实践探索等。 银行业务系统概述复盘银行IT的历史我们发现,银行IT存在7-8年的换代周期,每个周期对应不同的驱动因素。本轮周期从2020或2021年开始,驱动因素为分布式技术的应用以及系统国产化的要求。 典型银行系统业务应用架构为了更好的了解银行业务系统,我们首先来整体看一个典型商业银行IT系统应用架构,如下图: 典型银行IT业务系统大体可以分为四大类:业务类系统、渠道类系统、管理类系统、其他支持系统。其中业务类系统方案规模占比约42%,渠道类系统方案规模占比约20%,管理类系统方案规模占比约36%。我们日常生活中熟知的金融业务主要包括手机银行、网商银行、ATM、柜台等等,这些直接与个人接触的基本对应渠道类系统,当然后端还是由核心业务系统来支撑的。银行核心系统数字化转型银行核心系统是银行软件系统的核心和基础,是面向银行各类业务的交易处理系统,通过交易处理,驱动会计核算和支付清算,最终达到集成化处理后台业务目标。无论是后台的信贷管理、资金管理等系统,还是前置平台、与客户直接对接的一系列柜台业务,都需要核心业务系统作为支撑。核心系统支持银行85%以上的收入:核心系统的存款业务和贷款业务模块支撑了银行的利差收入,占银行总收入的70%以上;核心系统的银行卡业务、资金清算业务模块支撑了大部分的银行手续费及佣金收入,占银行总收入的17%左右。典型商业银行核心系统业务架构 典型商业银行核心系统进化路线单机核心(1980~1990)采用PC机+终端,数据分散存储的架构,主要完成登记簿、原始凭证电算化过程,以代替手工操作,实现了单个网点内账号的自动记账、自动检测,提高了记账速度与核算效率。 网络核心(1990~2000)网点之间通过网络连接,实现了数据实时传输交换,同时可以进行联机业务处理,实现了跨网点的存取款(通兑通存)。网点间的数据在一定区域范围内集中,使用小型机进行处理。因为数据和账务等进行了有效集中,科目的设置等都能进行统一;也因为数据的打通,对业务流程也能进行之前无法做到的优化,包括交易的自动化,催生了交易系统的诞生。 胖核心(2000~2008)中国加入WTO后,区域性的数据集中已无法满足银行服务升级与管理变革的需要,更无法满足银行业务量增长和业务范围扩张的需求,故需要进行数据大集中,全行一本帐,头部银行开始使用了大型机处理业务。同时银行核心系统与部分管理功能相结合,在实现会计核算与支付清算的同时,还实现了属于信贷管理、风险管理、财务管理的部分功能,这与国外70年代、80年代建成的核心系统相似。 瘦核心(2008~至今) 在SOA的总体设计思想影响下,“大前置、瘦核心”成为新核心系统的总目标:系统基于业务与管理相分离的设计思想,通过综合前置实现“小核心、大外围”。瘦核心剥离了大部分管理功能(如信贷管理、风险管理、财务管理等业务中的流程管理功能),只是完成央行和中国金融市场规定的支付业务、结算业务、存款业务、贷款业务中的账务处理和会计处理,内容相对较单一。稳定的“瘦核心”系统与灵活的外围共同组成银行处理系统,容易随银行业务需求的变化快速响应市场,创新金融产品,并迅速投放市场;且符合渐进式转型策略,以分布式技术为基础的瘦核心已经成为国内银行新一代核心系统的正确选择。近十年,分布式核心底层架构也经历着不断变化:分布式时代的前奏:第一代JAVA版银行核心系统的落地在2010年以前,银行核心系统的主流开发语言还是大机上的COBOL、C语言或是数据库存储过程2011年,我国银行业第一代Java核心系统迎来了落地契机,当时恰逢恒丰银行需要重构核心系统,他们也倾向于Java语言。历时两年的建设,2013年Java版核心系统在恒丰银行成功投产,成为国内第一版Java版核心系统。分布式时代的开端:首个分布式核心系统落地2015年,网商银行/微众银行分布式核心系统纷纷上线,系统采用Java语言+云架构和业务逻辑的开发、全部应用采用分布式架构、实现了交易与核算分离、支持亿级海量用户和高并发交易等,并首次在核心系统使用了MySQL数据库,成为我国银行业核心系统分布式的开端。全面进入分布式时代:传统银行开始布局分布式核心2015年平安银行、南京银行等银行陆续启动了分布式核心系统建设,2016年10月,平安银行、南京银行分布式核心系统同期上线。2019年8月,分布式核心在传统银行领域迎来了一个重大转折点,全国首家采用国产分布式数据库的银行核心系统在张家港农商行成功落地分布式技术进阶:首个“微服务+单元化”分布式核心系统落地分布式有三种典型的实现方式:分布式事务数据库、数据库中间件、应用架构分布式。单元化作为分布式架构的一种经典实现模式,它与微服务架构结合可以为新一代IT架构带来更多的架构红利。无限可伸缩架构,可基于单元水平扩容、微服务弹性伸缩多中心部署架构,通过单元多中心多活部署,提升容灾能力灰度发布能力,基于单元灰度、微服务版本灰度,提高版本发布可靠性故障隔离能力,通过单元故障隔离、微服务故障隔离,降低故障影响范围,提高系统整体可用性2020年6月东莞银行新一代核心系统上线,采用了“微服务+单元化”架构。银行转型对核心系统提出的新要求 银行为什么需要对核心系统进行升级改造?这背后除了政策牵引外,也是有着实实在在的业务需求存在。面对来自内外部的挑战,银行业亟需实现以客户为中心,灵活响应客户需求的核心系统。主要聚焦在这么几个方面:业务核算分离:需要支持业务处理和会计核算分离,适应科目灵活的配置和高效的处理模式以客户为中心:能够快速识别客户,展示客户全貌,为客户提供差异化服务产品创新:需要建立以灵活定制、快速推出产品为目标的产品支持体系差异化定价:能够支持利率、费率等面向个体和群体的差异化参数配置和定价体系灵活的账户体系:需要优化账户的结构和重要业务流程,提升运营效率,提升客户体验弹性的组织管理:提供弹性的组织架构管理模式设计,支持机构变更时灵活的业务调整和处理精细化的数据支持:满足全面的精细化管理对核心系统数据完整性要求,支持管理分析决策互联网时代新核心系统探索 整体而言,新一代核心的新需求需要更新的架构和技术来满足。在各银行探索新一代核心的转型方向中,大体上也出现了这么三种实施路径: 新一代单核心系统:分布式核心实现 大多数分布式核心系统都大致可以分为两个部分:分布式技术平台和分布式应用平台分布式技术平台:在开发核心系统时采用分布式基础架构,包括分布式事务、分布式数据库访问、分布式批量框架、分布式缓存、分布式消息队列、分布式业务集成等。采用此架构天然具备云原生能力,可以实现核心上云。分布式应用平台:对核心系统的业务模块、功能、库表等进行切割,变成不同粒度的子模块,能灵活进行组合和拆分,而不像传统核心打包成一个大平台。新一代核心系统改造之路:双核心系统 目前双核心系统方案是讨论最多的核心改造方案。维持原有核心系统不变,新建一套互联网核心系统,一稳一快,来满足银行的业务发展需求。双核心架构与早期信用卡业务系统独立在核心之外的架构思路相似:早期银行急于上线信用卡业务,但信用卡的各种记账、计息、计提等功能操作与传统核心的存贷有非常大的不同,在原有核心上做改造非常麻烦、且时间周期冗长,直接采购的信用卡系统或模块独立自成一派,放进传统核心中对核心的改造也非常大,故有不少银行将信用卡系统独立在核心之外记账。现在的互联网核心的双核心架构与当年的信用卡系统的做法类似,都是为了解决核心改造漫长困难与新兴业务快速发展的矛盾而出现的方案。 传统核心 互联网核心追求稳定性、安全性、准确性追求敏捷性、快速迭代力、伸缩能力应对银行传统的存贷、银行卡业务应对互联网高频、交易量少、并发性高的业务采用集中式架构采用容器化、微服务架构选择商用平台+商用数据库采用通用中间件、数据库等分布式平台适应银行流程上逐级审批的冗长过程需保障系统整体的高可用性需要面对用户数量、交易上上升的问题头部银行的分布式核心上云 目前多数传统银行的分布式核心探索本质上并非分布式核心、核心上云。而是在瘦核心的进程中,将管理功能剥离,进行分布式部署、上云,核心系统的主要存贷款业务、银行卡业务均较难实现分布式。 中小型银行新核心系统逻辑 总结 银行核心系统数字化转型,从上层新一代核心应用系统建设,到底层分布式架构、云计算架构、分布式数据库、大数据、AI、区块链等技术,如何形成综合方案竞争力一直是各云厂商关注的重点。前一部分云厂商基本不直接参与(或通过入股金融软件服务商,或通过生态合作参与),后一部分是云厂商重点参与的内容。从竞争力而言,一方面通过加大生态合作等手段增加方案上游竞争力;另一方面在基础设施层面通过关键标杆客户实践,更早的参与到客户分布式核心系统建设的总体规划中去。 核心系统的稳定性、安全性需求,决定了核心上云是一个较漫长的过程,而且一定需要前期的充分规划与验证,甚至是与应用开发商联合验证,因此拉通生态合作能力也就成为这一轮竞争中的重要手段。
产品介绍私网连接(PrivateLink)能够帮助您在阿里云 VPC 中通过私有网络,安全稳定的访问部署在其它 VPC 中的服务,大幅简化网络架构,同时避免通过公网访问服务带来的安全风险。核心优势:安全的网络传输 流量不会离开阿里云内网,大大减少数据泄露的可能性服务本身的发布和访问都是在 VPC 中进行,避免了公网攻击等网络安全问题可控的服务访问 提供方可以精确控制连接建立和连接带宽,使用方可以利用 NACL、安全组等控制服务的访问单向访问服务特定服务资源,降低双方风险各个连接相互独立,互不干扰超低的网络时延 支持同可用区的服务访问,时延可控,质量更好支持多可用区高可用能力极简的网络管理 保持双方网络独立,无需担心地址冲突,无需配置复杂的路由和安全策略支持跨账号服务访问,简化账号管理产品客户类型企业客户组织架构和业务比较复杂,网络需要根据业务进行调整。不同业务之间的服务需要以安全的方式进行相互访问需要与外部的供应商或客户进行安全可靠的服务互访,对于数据的安全性或时延有较高的要求生态合作伙伴为阿里云用户提供 SaaS/PaaS 服务,对数据的安全性,或者服务的访问时延有较高要求。例如,金融交易、大数据、人工智能、企业ERP等服务提供商精心打造的功能通过私网发布云上服务三个步骤将 VPC 中的服务集群通过私网发布给用户• 创建服务集群:通过私网 SLB 创建一个可伸缩的高可用服务集群• 创建终端节点服务:创建私网连接服务,并将之前的私网 SLB 作为服务资源加入• 将服务 ID 提供给用户:将所创建的终端节点服务 ID 提供给用户,便于他们通过私网连接访问安全连接云上私网服务三个步骤连接到通过私网连接发布的服务• 创建终端节点:用户根据服务 ID 创建终端节点,并选择需要访问的可用区和 vSwitch,作为服务的入口• 接受服务连接请求:服务提供方可以手工接受连接请求,或者通过白名单自动接受连接请求• 配置安全策略:配置终端节点的安全组和网络 ACL 等安全策略,控制对服务的访问多种服务访问方式提供了多种服务访问方式,满足不同场景下对于高可用和时延的要求• 通过终端节点域名访问:访问包含多个可用区的终端节点域名,支持多可用区高可用和同可用区优先访问能力• 通过终端节点可用区域名和IP访问:通过可用区域名或者 IP 访问特定可用区的服务入口,用户可以利用自身的业务探测实现多可用区高可用,或者访问指定可用区中的服务资源丰富的带宽和连接监控能力给服务的双方都提供了各种维度的流量监控能力• 服务使用方监控维度:包括每个终端节点、终端节点可用区、终端节点可用区网卡的双向流量、包速率和丢包统计• 服务提供方监控维度:包括每个终端节点服务、终端节点连接、终端节点服务资源、关联的终端节点、关联的终端节点可用区,以及关联的终端节点网卡的双向流量、包速率和丢包统计全面的安全保护和管理能力给服务双方都提供了全面的安全保护和安全管理能力• 终端节点访问保护:支持通过安全组和网络 ACL 控制对终端节点的访问策略• 单向的服务访问:只允许用户主动访问服务方的服务,服务方不能反向访问用户网络,保护用户侧网络的安全• 只允许访问特定服务资源:用户只能够访问服务方特定的 SLB 服务集群,无法访问服务方 VPC 中其它资源,保护服务方网络安全• 单个连接的保护限速:服务方可以限制单个连接的最大带宽,防止单个用户带宽过大或 DoS 攻击使用场景企业级服务总线• 不同业务线/组织的服务互访:随着企业组织和业务的不断发展,这些业务或者组织之间的服务需要相互进行访问。可以使用私网连接提供这些服务之间的互访能力,而无需将网络直接连通• 与外部合作伙伴之间的服务互访:不同的企业之间,也可以通过私网连接进行服务的相互访问。例如外部合作伙伴需要访问企业内部服务时,可以通过私网连接将服务发布给特定伙伴访问• 解决地址冲突问题:企业的网络在发展过程中,不可避免会出现网段冲突的情况。即使服务双方的 VPC 网段冲突,仍然可以使用私网连接进行服务的互访云上私网SaaS服务生态• 私网服务发布:能够将 SaaS 服务通过私网连接发布给特定客户使用,避免公网中服务被劫持的风险• 数据安全保护:无需通过公网,数据只会在同机房传输,大大降低数据传输过程中被窃取的风险• 连接管理和监控能力:可以精确控制每个用户的连接,并且可以为不同用户分配不同的服务资源• 更高的性价比:成本远低于公网,并且可以提供更大的带宽和更低的时延,以及更好的弹性和阿里云现有产品关系• 可以与云企业网配合使用,满足跨地域服务访问和服务发布等场景的需要• 可以与智能接入网关、VPN 网关、高速通道等混合云产品配合使用,满足线下分支或移动办公访问云上服务等场景的需要产品供货• 中国站和国际站同时支持• 当前支持地域包括:北京、上海、杭州、深圳、张家口、河源、乌兰察布、香港、新加坡、伦敦、德国、吉隆坡• 预计 3 月底完成所有 Region 发布产品文档产品详情页:https://www.aliyun.com/product/network/privatelink帮助文档:https://help.aliyun.com/product/120462.html常见问题答疑问:私网连接与云企业网等有什么区别和联系?答:私网连接用于不同 VPC 之间的私网服务访问,无需把网络直接连通,也无需进行路由配置。云企业网主要用于多个 VPC的网络连接组网,需要进行路由的配置。私网连接可以与云企业网等其他产品配合使用,满足更加复杂的场景要求。例如可以通过组合使用私网连接、云企业网以及混合云产品,满足全球跨地域的服务访问,以及线下分支和移动办公访问云上服务的需要。问:私网连接的适用场景和核心能力是什么?答:私网连接适用于不同 VPC 之间需要相互访问服务的场景。使用私网连接无需将服务双方的网络直接连通,保持了服务双方网络的独立性和封闭性。这一方面大大简化了双方的网络配置,也大大提升了服务的安全性。这对于复杂企业的服务互访,以及云上的应用生态有非常大的帮助。问:私网连接能否支持跨地域的服务访问?答:私网连接只做同 AZ 的流量转发。如果需要访问其它地域的服务,可以结合云企业网一起使用。
ALB产品概览 ALB基于阿里云自研的洛神云网络2.0 平台,基于开放弹性的NFV平台技术,可以为用户提供灵活弹性以及超高性能的实例规格。新产品采用域名售卖形态,主主的容灾模型,为用户提供更稳定的服务体验和更大的弹性能力;同时在HTTP/HTTPS/WSS等已有协议的基础上,新增对QUIC的支持,为短视频、直播用户提供了更极致的低时延体验。在产品特性上,ALB同样推出了众多的高级转发特性,基于Header、Cookie及Method等多种转发方式,可以更好的满足用户的个性化路由转发需求。ALB的推出,极大提升了阿里云负载均衡的产品体系核心竞争力,在转发规则、服务器组、多证书等关键配置场景上,给用户带来了更极致的体验。在产品配置层面,相比于经典SLB提供了异步调用接口,提供更高的并发访问以及quota能力,结合ALB提供的服务器组、访问控制、TLS、转发规则模板、健康检查模板等Region级别的配置,带给用户更易用而且高性能的产品配置能力。【产品介绍】【应用场景】【免费试用】 ALB弹性架构 随着互联网的快速发展,网络流量逐年攀升,用户应用系统承受的流量越来越大,且具有明显的峰谷效应。实例按需扩容以及超大规格已成为用户成本管理的关键诉求。为了解决这个痛点,ALB以阿里云海量软硬件一体的计算、网络资源为依托,基于洛神云网络2.0 NFV平台的灵活调度以及高效资源管理能力,提供了灵活的弹性伸缩及超大的规格能力,很好的解决了这个诉求。 产品形态上,ALB采用了域名的售卖方式,单个域名在用户所选的可用区均有VIP承载业务,同时各可用区的VIP互为主主容灾。 ALB会自动根据用户流量的大小来对VIP的容量以及VIP的数量进行动态调整,给用户带来极致的弹性体验,减低运维开销的同时最大限度的节约成本。应用型负载均衡具备超强7层处理能力,单实例7层处理能力高达100万QPS。 ALB功能及增强特性 互联网从出现到现在各种网络优化方案层出不穷,为了获得更可靠、低延时的传输,业界在网络传输优化上一直在寻求更好的方案。当TCP的优化陷入瓶颈后,基于UDP的QUIC在建立延迟、拥塞控制、连接迁移、队头阻塞上都表现出了更明显的优势。阿里云ALB上也提供了对QUIC的支持,目前支持gQUIC Q46、Q44、Q43、Q39、Q36、Q35等版本。 随着用户业务的日趋复杂,各种各样的场景对负载均衡的需求也越来越多样化,比如云原生场景下,金丝雀发布以及蓝绿发布等精细化的发布策略在传统的域名、URL转发模式下已经无法满足。在该背景下ALB推出的自定义转发平台,不但增强了传统的域名、URL的正则配置功能,还支持按Header转发、按Cookie转发、按Method转发等转发方式。 在TLS策略上,ALB也提供了用户完全自定制的能力,用户可以根据自己的安全等级要求来选择其ALB实例所支持的TLS协议版本以及算法套件。 ALB配置模型 在配置性能和quota方面,ALB提供了异步API能力,支持用户进行更大规模的并发配置,并且提升产品quota能力,让用户更简单高效的使用ALB产品,与业务系统集成。相比于SLB,ALB在配置对象模型上也做出了很多的优化:• 服务器组(地域级别):包含服务器、端口、健康检查配置,服务器组可以被关联到监听,或转发规则中,不在局限于单个实例。• 证书(地域级别):ALB产品与SSL证书中心联动,用户将拥有统一的证书管理入口,在ALB各Region中可以按需进行关联使用。• 转发规则(地域级别):包含匹配条件和转发动作,可关联单独的健康检查相关配置。• 健康检查(地域级配):健康检查配置,包含健康检查协议、健康检查端口、健康检查方法、健康检查阈值等相关配置,进行抽象模板化,减少重复配置。 ALB公测入口 阿里云网络应用型负载均衡ALB产品已上线并开放公测,欢迎查看并申请公测。**产品介绍:https://www.aliyun.com/product/slb场景价值:https://developer.aliyun.com/article/772872申请试用:https://page.aliyun.com/form/act2085862391/index.htm?**
近日,在2020云栖大会上,阿里云重磅推出了多款网络新品,其中之一就是PrivateLink私网连接服务。PrivateLink产品能够实现专有网络VPC与阿里云上的服务建立安全稳定的私有连接,简化网络架构,实现私网访问服务,避免通过公网访问服务带来的潜在安全风险。 什么是私网连接PrivateLink? 一直以来,云上业务要对外发布服务,或者访问其他业务网络的资源,都是通过搭建公网出口的方式实现,比如使用弹性公网EIP、公网负载均衡SLB、NAT网关等产品建立连接,提供网络服务。但随着云上企业逐渐增加,企业也逐渐希望可以在云内网络中发布自己的服务,即通过阿里云内部网络实现服务发布与连接互访,弥补安全性相对较低、网络时延相对较高的互联网服务的不足,而能够提供这种云内私网连接的服务就是PrivateLink。 哪些场景可能会需要PrivateLink? 在阿里云上大量企业内部服务、企业间云服务、云上企业生态等业务场景,可以充分利用PrivateLink私网连接实现专有网络VPC与阿里云上的服务建立安全稳定的私有连接,配置灵活,满足不同的应用场景。场景例举一:将VPC内的云服务共享给其他VPC使用私网连接服务把一个VPC内的负载均衡(SLB)服务共享给另外一个VPC,实现跨VPC私网访问SLB服务。如图所示,要实现在VPC1中私网访问VPC2中部署的SLB服务,需要将SLB作为服务资源加入到终端节点服务中,然后在VPC1中创建连接该服务的终端节点,实现通过终端节点私网访问SLB服务。 场景说明1: 企业级SAAS云服务,可以在阿里云内网发布服务,其他云上企业或个人可以跨地域访问服务资源,共享阿里云网络更低时延、高可用及高安全性网络能力。 场景说明2: 大中型集团企业或跨国公司,在集团层面建立服务发布层,各分子公司及海外办事处可以通过PrivateLink来访问服务资源,实现多账号、多VPC的快速互连、安全隔离等价值,帮助中大型企业更好的实现全业务上云,让业务使用和互连更加便捷可靠。 场景例举二:将VPC内的云服务共享给本地数据中心使用私网连接服务把一个VPC内的SLB服务共享给本地数据中心,实现云下私网访问云上SLB服务。如图所示,要实现在本地数据中心私网访问VPC2中部署的SLB服务,需要先将VPC2内的SLB服务共享给VPC1,然后通过专线、VPN网关或智能接入网关将本地数据中心与VPC1连接起来,实现本地数据中心私网访问云上SLB服务。 场景说明:ISV/SI与企业间构建云上生态时,ISV/SI通过在阿里云上搭建自己的云上服务或将本地IDC服务接入阿里云网络,将更多线下服务搬到云上,协助长期使用ISV/ SI线下服务的企业用户,实现更高效、高质量的企业上云。 阿里云PrivateLink有哪些优势价值? 私网通信阿里云网络服务提供稳定、安全、可靠、低时延的高质量网络通信。全球超过 21个区域数据中心,63个可用区,120+POP节点。通过PrivateLink搭建私网服务,访问流量均在阿里云内网转发,不会通过公网,避免通过公网访问服务带来的潜在风险。 安全可靠使用PrivateLink访问云服务,可以对VPC网络中用于访问服务的弹性网卡添加安全组规则,提供更强的安全保障和控制手段,流量不会离开阿里云内网,大大减少数据泄露的可能性,避免被攻击等互联网安全问题。 超低时延使用PrivateLink访问云服务,访问请求会在同可用区内转发,时延更优,抖动更小;同时阿里云网络底层自带高可用能力,可靠性更高。 极简管理使用PrivateLink访问云服务,服务方和使用方的网络可独立规划,无需担心地址冲突,简化网络路由配置;同时可以提供跨账号服务访问,简化账号和安全管理。 结 语 企业上云,网络先行。阿里云网络提供企业多种形态的云网络服务能力,用户可以根据业务特征选择公网或者私网连接服务,优化业务模型及访问质量,综合分配使用成本,简化运维管理。PrivateLink私网连接不仅带来更稳定、安全的网络服务,还能够从业务模式上带来新生机。需要了解更多信息请参考!产品介绍:https://www.aliyun.com/product/network/privatelink申请试用:https://page.aliyun.com/form/act1768806091/index.htm观看发布会回放:https://yunqi.aliyun.com/2020/session58?liveId=44675
近日,在阿里云2020年云栖大会上,阿里云智能网络产品研究员祝顺民重磅发布了多款网络新品,其中之一就是应用负载均衡ALB。ALB产品定位应用层高级负载,具备超强性能、安全可靠、面向云原生、即开即用等优势价值,提供弹性自动伸缩、QUIC协议支持、基于内容的高级路由、自带DDoS安全防护、云原生应用、弹性灵活计费等产品能力,满足越来越多元化的应用层负载需求。 哪些业务场景需要应用负载均衡 说到负载均衡,很多朋友或许都会想到经典负载均衡,阿里云负载均衡SLB发布近十年,为各行各业的用户提供强大稳定的负载分担能力,解决大并发流量负载分担,消除单点故障,提高业务可用性。但随着企业和互联网业务高速发展,业务形态和需求不断变化,诸多业务场景已经无法单纯的用传统负载均衡来满足全部需求。在大互联网业务、电商大促、音视频、移动互联网应用、游戏业务、金融服务、云原生开发应用等场景中,存在大量高性能、弹性、多协议七层转发、安全、云原生等需求,急需新产品设计来满足。场景例举一:某电商大促业务电商经常需要在某个节日、某次活动中进行集中促销,直播带货必不可少,但活动前又无法预估业务高峰会达到多大的流量水平;此外电商场景中,常常需要根据地域、时间段、支付流程等进行负载分担。传统的负载均衡虽然具备一定的统一灵活调度能力,但在弹性、自动扩展、高性能方面还有所欠缺;同时实时弹性、高并发、超大新建规格、多协议(HTTP/HTTPS/HOST/URL/Cookie/Http Method))7层负载转发能力也无法通过传统负载均衡来实现,需要全新的应用负载均衡产品来满足业务需求。场景例举二:某视频直播业务对于各类视频业务,如影视剧长视频,生活短视频、直播带货、在线教学等等,视频业务对后端的资源需求越来越高。动则上百万新建连接需求,自动弹性扩展,基于用户画像的流量转发机制等等,让当前以四层为主的负载均衡系统无法完全满足业务发展需要。而应用负载均衡ALB基于QUIC的传输转发能力,更快速高效的建立连接,缩短时延,分担业务请求流量,保障大流量业务需求。场景例举三;某云原生应用业务近些年诸多业务已经上云,由于云厂商提供了统一的IaaS 能力和云服务,大幅提升了IaaS 层的复用程度,用户也希望IaaS以上层的系统也被统一,使资源、产品可被不断复用,从而能够进一步降低企业运营成本,这正好就是云原生架构专注解决的问题。全新应用型负载均衡ALB基于云原生架构设计,能够很好的满足用户需求,应对灰度发布、流量仿真、微服务等场景。 阿里云应用负载均衡有哪些优势价值 超强性能:基于阿里云自研的洛神云网络2.0 平台,提供灵活弹性以及超高性能的实例规格。具备超强7层处理能力,单实例7层处理能力高达100万QPS。 安全可靠:四级高可用容灾,并且集成DDoS、WAF,为业务安全保驾护航。 更低时延:在HTTP/HTTPS/WSS等已有协议的基础上,新增对QUIC的支持,为视频、直播用户提供了更极致的低时延体验。 面向云原生:与ACK/SAE/K8S深度集成,阿里云官方云原生Ingress网关。 个性化路由转发:众多的高级转发特性,基于Header、Cookie及Method等多种转发方式,可以更好的满足用户的个性化路由转发需求 即开即用:秒级创建实例,即开即用,完善的监控、日志,访问日志数据一键挖掘。 灵活计费:采用灵活按量计费方式,主主的容灾模型,提供更稳定的服务体验和更大的弹性能力 结 语 企业上云,网络先行。随着越来越多的复杂企业应用上云,对于云端的网络要求越来越高,首当其冲的是大流量并发能力,应用负载分担能力。阿里云发布应用负载均衡,将更加聚焦助力用户应用交付,保障应用高弹性、更安全、更可靠、更实惠。需要了解更多信息请参考!ALB产品介绍:https://g.alicdn.com/network_console/alb-welcome/0.0.1/index.htmlALB申请测试:https://page.aliyun.com/form/act2085862391/index.htm观看发布会回放:https://yunqi.aliyun.com/2020/session58?liveId=44675SLB免费试用:https://free.aliyun.com/product/bgpfreetrial
熟悉NAT网关的朋友都知道,NAT网关主要在公网出口做SNAT/DNAT使用,各行各业用户朋友很多都在使用阿里云NAT网关产品来管理公网IP及流量,但随着业务规模潮汐式变化,流量分析越发困难,流量陡增带来的成本也越来越高。互联网、新金融、直播电商、爆款游戏、在线教育、短视频、远程办公等突发流量型业务对NAT网关产品提出了更丰富更有价值的需求,为此我们一直在思考: 用户对NAT产品最大的诉求到底是什么?用户期待NAT产品有哪些新实力?阿里云能给用户提供什么样的NAT产品? 经过多方调研,多次讨论,我们总结了几个大家普遍关注的实际问题,将普通型NAT网关做了全面升级,并将在增强型NAT网关新架构上持续迭代演进,不断满足用户新需求新期待。NAT新用户:申请免费试用NAT老用户:点击免费升级 增强型NAT网关有哪些新能力? 灵活计费:用多少付多少的灵活计费能力(CU计费/按小时) 应用场景: 多个EIP绑定NAT,以前是按天计费,无论使用时间多长,使用规格多大,均会计费。增强型NAT是按小时计费,每小时统计CU值(新建/并发/流量),平均节省约20%费用。 简易运维:全业务流量运维监控和大盘展示能力,监控指标达22个。 应用场景:几乎所有NAT用户均面临运维压力大的问题。日常出现故障,流量是最直观的反应。增强型NAT能快速查出TOP ECS的出入流量情况,NAT网关的新建/并发/丢包信息,VPC之间的丢包/总量,公网出入的丢包/总量等,均可直观展示。 弹性:随用户业务而动的灵活弹性,满足流量陡增等高并发需求 应用场景:在电商大促/游戏发版/金融服务/直播视频等业务中,传统做法需要预估流量来购买相应的NAT实例,如果预估较小,虽然成本低但是业务可能因为大流量受影响,而且会面临频繁变更的繁琐;如果预估过高,会造成资源浪费,成本高。增强型NAT灵活弹性能力无需预估,可根据业务弹性支持业务,按小时按实际使用量付费,更灵活更稳定更节约成本。 高性能:提升到100Gbps 级别转发能力,2000万并发连接数,250万新建连接数,满足各行各业场景需求。 应用场景:传统NAT容易遇到性能瓶颈。混合云场景中大带宽接入,在互联网业务/电商大促/游戏发版/金融服务/直播视频等业务中的潮汐流量现象,需要高性能NAT服务满足业务需求。 高可用:多可用区容灾,满足业务高连续性要求 应用场景:针对金融/零售/互联网等实时性要求较高的服务业务,同城容灾必不可少,增强型NAT架构上天然支持。 新功能:同VPC下多NAT网关,单IP同时支持SNAT/DNAT等详情请点击:增强型NAT网关发布公告 增强型NAT网关全新NFV架构解读 阿里云网络新一代NFV平台架构及优势 阿里云网络产品的背后,就是洛神系统。洛神系统来源于中国的古典神话,期望阿里云网络产品,和河运的槽道一样,能够通畅的连接资源。近期洛神系统推出新一代开放、弹性的阿里云网络NFV平台,基于云上ECS环境提供了通用的网络转发和管控能力,支撑了NATGW、SLB、PrivateLink、VPN等众多网络产品。NFV技术平台的关键特点是弹性伸缩、容灾、多租户和生态友好。1)依赖NFV编排,基于ECS网元的资源池管理,提供分钟级交付和无限水平扩容能力,可以满足不同业务的弹性需求;同时基于软硬结合的转发架构实现海量流量或大象流类的硬件卸载。2)在可靠性上,通过多路径接入,平台具备多可用区多活的容灾能力,同时实现负载均衡,单节点异常时可以快速自动恢复。3)此外,NFV平台也具备了多租户能力,将服务提供方的VPC和服务消费者的VPC分隔开,在提供丰富业务网元的同时支持第三方生态接入。 增强型NAT网关就是在新一代NFV架构上搭建的,并通过新架构获得了超强性能、很好的弹性和灵活性,丰富的功能特性等,后续也会有更多功能基于新一代NFV架构进行构建和演进。 如何快速获得增强型NAT产品能力呢? 如果您是首次使用,满足以下条件,可以申请免费试用 阿里云注册用户,且完成实名认证(企业/个人认证均可)未购买过任何付费形式的NAT网关产品(NAT首购用户) NAT新用户:申请免费试用 如果您以前一直在使用NAT网关,可以限时免费升级NAT老用户:点击免费升级 活动时间:2020.10.1—2020.12.31 如果正在阅读的您在使用、升级阿里云NAT网关过程中有任何疑问,或者对阿里云NAT网关有任何建议,欢迎来此相聚 NAT网关客户交流钉钉群:34756416(加群请备注:公司+姓名)
通过此文:你可以了解阿里云网络SLB负载均衡产品进化史。你可以了解SLB最新产品架构及应用场景。你可以了解SLB的技术新内涵。 你可以免费获取SLB产品介绍文档。你还可以免费获得SLB小型实例试用机会! 如果你满足以下条件,可免费试用SLB小型私网实例1个月。 阿里云注册登录用户,且完成实名认证(企业/个人认证均可)未购买过任何付费方式的SLB产品(SLB首购用户) 活动范围:SLB/简约型/私网实例,先到先得。(注:如用于公网出口,您需要将私网SLB与公网EIP绑定使用)限制条件:本活动限制每个新用户只可享受一次优惠机会,请勿频繁提交。试用步骤:进立即购买页面》实例规格选择简约型》实例类型选择私网》点击立即购买。注意事项:试用期间如需要变配升级实例规格,或试用结束后继续使用本实例,均会产生费用,请按需购买。 戳这里获得SLB免费试用机会 >>点击免费获取《阿里云网络SLB负载均衡产品资料》<<SLB负载均衡 快速入门体验Step1:创建负载均衡实例。负载均衡实例是一个运行的负载均衡服务实体。Step2:添加监听和后端服务器。配置负载均衡实例,添加监听规则和后端服务器。Step3:域名解析(可选)。使用云解析服务将一个域名解析到SLB服务地址上,提供服务。Step4:删除负载均衡实例。如果您不需要SLB服务了,为避免不必要计费,可以将其删除。 负载均衡从诞生到现在也随着网络业务的变化而不断的进化,逐渐发展成为现在云化的负载均衡形态。让我们先来看一下负载均衡的“进化史” 互联网业务初期发展阶段业务特点:此时互联网业务还处于拓新阶段,互联网企业不够壮大,其网络业务集中在运营商或者大型IDC侧进行管理,需要集中处理大量访问流量。此时需要性能和稳定性都很强的负载均衡方案。 硬件负载均衡设备在此时应运而生,它们有专业的维护团队,很高的硬件性能,以及稳定可靠的业务保证。 但是由于和物理硬件强相关,对于用户来说,其投资昂贵,需要预先预测出自己的业务发展量来进行投资,在业务发展初期的投资很容易出现浪费;其次就是扩展难,硬件的采购,安装是有一个比较长的周期的,难以达到随业务扩展的需求;最后就是运维难,需要一个专业的团队来运维,故障恢复周期取决于故障本身的恢复难度和团队的专业水平。 互联网业务高速发展阶段业务特点:随着互联网企业的高速崛起,对于这些企业来说,竞争异常激烈,需要经常快速的调整业务以满足客户的需求。 软件化的负载均衡在此时应运而生,典型的如LVS和Nginx,LVS主要负责四层的负载均衡,Nginx主要负责七层的负载均衡。其中LVS使用Linux内核集群实现负载均衡服务器。应用范围比较广,因为其工作在4层,所以它几乎可以对所有应用做负载均衡,包括http、数据库、在线聊天室等等;Nginx工作在七层,可针对http做分流策略,适合轻量级的Web 服务 软件化的负载均衡让客户可以灵活的部署并且调整业务,但是由于这些大部分还是客户自己部署的,因此客户在部署的时候还是要去考虑和硬件性能的配套,性能难以扩展,同时负载均衡本身可靠性方案的部署,后续的功能和容量的扩展等问题都需要去思考兼顾,无法做到真正的随心所欲部署。 业务全面上云阶段业务特点:业务的云化已经是大势所趋,云化带给了企业前所未有的“网络随业务而动”的体验,用户在规划网络的时候不再去考虑企业业务发展对网络的要求是什么,而仅仅去关注业务发展本身就可以了,网络是可以随着业务发展而不断弹性变化的。 在这样的阶段,对负载均衡提出了新的要求,在满足企业高性能,高安全要求的前提下,要能随着企业的发展而自主的随时弹性伸缩,时刻与企业业务相匹配,同时对于网络不断涌现的新业务要能做到全面的支持。 阿里云的SLB负载均衡是如何满足业务发展需求的呢? 我们首先来看看双十一和新冠期间阿里云负载均衡的优秀表现。 阿里云负载均衡SLB产品已多年承载阿里巴巴集团双十一购物狂欢节的网络巅峰流量,刚刚过去的2019年双十一,集团所有核心系统上云,全面由公共云SLB承载,峰值流量1.22 Tbps,并发连接数3.38亿,每秒处理2.89亿数据包 , 每秒新建416万条链接。 今年新冠肺炎疫情期间,负载均衡SLB更为钉钉提供了5.12T 带宽、8亿并发,及 16亿pps 的容量保障,全力助力钉钉上1000万家企业的在线开工,为直播上课、视频会议、群直播的顺畅访问提供有力支撑,保障了全国5000万学生“在家上课”低延迟、流量的体验。 阿里云负载均衡不断引领的技术优势,保证了其对这样大流量业务的强力支撑,我们接下来就来剖析一下阿里云负载均衡持续进化的技术内涵: 100G网络进化,经历了Kernel LVS到DPDK版LVS带来的性能大幅提升后,单纯DPDK LVS已无法满足100G网络的性能需求,通过软硬件结合的技术,对最新的100G网卡硬件特性进行了深度定制,大象流业务完全由硬件处理,满足了SLB产品对单流性能以及整体能力的需求。 基于洛神2.0的NFV平台架构,为用户提供更高级的弹性预热、更快速的特性迭代、流量调度能力和超大的弹性能力,SLB整体容量不再受限于SLB硬件资源,依托阿里云ECS提供的强大计算能力,超大型实例规格已经为多个顶级客户提供服务。 SSL处理能力进一步升级,通过集成最新一代的Intel QuickAssist Technology硬件加速能力,不仅能够满足超大弹性能力带来的SSL卸载需求,同时支持了业界最新的TLS 1.3等安全协议规范。 原生集成容器服务。阿里云容器服务 Kubernetes 版提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。在云原生领域,基于阿里云容器领域的持续积累,不管是在Kubernetes专有版、托管版还是Serverless版本,都支持SLB负载均衡的无缝集成,Kubernetes API Server通过SLB提供了全局访问能力,对于用户业务需要的服务和路由,无需通过控制台或OpenAPI手动创建负载均衡SLB,通过容器Kubernetes控制台管理界面、Kubernetes Dashboard甚至kubectl命令行工具或YAML配置文件,以Kubernetes原生的方式,完全无需感知SLB,即可自动完成SLB的创建和使用。容器服务的 SLB 方案支持原生的阿里云高可用负载均衡,可以自动完成网络配置的修改和更新。该方案经历了大量用户长时间的使用,稳定性和可靠性大大超过用户自建的入口实现。 原生支持服务网格Service Mesh。阿里云服务网格是一个托管式的微服务应用流量统一管理平台,兼容Istio,支持多个Kubernetes集群统一流量管理,为容器和虚拟机应用服务提供一致性的通信控制。整合阿里云容器服务、网络互连和安全能力,打造云端最佳服务网格环境,为每个微服务提供一致的流量控制和可观测能力。不管是阿里云服务网格,还是阿里云容器服务Kubernetes版本中支持的Istio,都实现了和负载均衡SLB的全面集成,不管是Istio虚拟服务还是服务网关,都可以自动通过负载均衡SLB提供负载均衡高可用能力。 除了支持Kubernetes的云原生生态,负载均衡SLB还能够支持阿里云弹性容器实例ECI,阿里云弹性容器实例(Elastic Container Instance)是 Serverless 和容器化的弹性计算服务。您无需管理底层 ECS 服务器,只需要提供打包好的镜像,即可运行容器,并仅为容器实际运行消耗的资源付费。不管是自建Kubernetes,还是直接使用ECI实例,负载均衡SLB都支持ECI的直接挂载,使用控制台或OpenAPI操作即可使用。 SLB同时支持多种组网方式,目前已全面支持IPv6网络,并支持各种混合云场景,通过专线连接的线下IDC,通过CEN连接的跨地域甚至跨越大洋的云企业网,都可以通过SLB挂载,统一对外提供服务。在云原生领域,阿里云容器服务开源了所有和阿里云网络包括负载均衡SLB集成的相关代码和解决方案,自建方案也同样可以达到无缝集成负载均衡SLB的能力,另外通过SLB支持的混合云部署能力,可以做到各种异构网络和环境的线上和线下全打通。 走过路过体验不错过,戳这里获得SLB免费试用机会
2021年03月
2020年10月
2020年09月