DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 本文讲的是DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享【编者的话】微服务是最近非常热门的话题了,它带来的好处吸引不少互联网公司对现有项目进行微服务架构改进。 本次分享是博主根据自身的项目经验,介绍如何对现有架构进行调整,总结这过程中的相关技术选型,以及如何实施技改,并分享最终取得的非常让人意外的成果。
本文讲的是DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享【编者的话】微服务是最近非常热门的话题了,它带来的好处吸引不少互联网公司对现有项目进行微服务架构改进。 本次分享是博主根据自身的项目经验,介绍如何对现有架构进行调整,总结这过程中的相关技术选型,以及如何实施技改,并分享最终取得的非常让人意外的成果。

大家好,我是凤凰牌老熊,很高兴能有机会和大家交流关于微服务系统建设相关的话题。 近期和微服务相关的话题非常地火,大家看到的各种开发技术网站,微服务都是一个热门的话题。 今天我也来凑凑热闹吧。 将要和大家分享的是我已经做过的一个项目和正在做的一个项目。这两个项目都是对现有系统进行微服务改造,我将重点介绍具体技术改造的内容,为后来者提供借鉴参考。 一些关于微服务的高大上的理论内容,比如微服务的意义、为什么要微服务、限流熔断的理论依据和实现框架等等内容,大家可以参看以前专家的分享。

先介绍第一个项目的技术改造。这是一个数据仓库的建仓项目。 公司的业务数据的读写往往都会分布在多个项目中,这给前端数据展示以及数据分析造成困难。拿视频数据来说,其元数据,如作者、演员等信息,一般会由内容管理系统来生产;而视频流数据,如编码、时长等,是由编码系统来产生的。视频的观看人数、点击数等,又是由统计系统来提供。 而在页面展示的时候,这些内容都要同时显示出来。这就需要一个数据仓库作为中介,将所有数据收集起来,并提供给前端使用。 这个数据仓库系统基本上会对接公司所有的业务系统,提供数据读、写和分析支持。 

我在2014年接手这个项目的时候,已经有一个比较稳定运行的系统。实际技改工作是2015年初开始,2015年底完成。成果主要包括:
  • 数据读写的性能大幅提升。高峰期读的QPS 由 50次/分钟,提升到 2万/秒,日访问量也从2万左右,提升到接近20亿。并可以轻易横向扩展。数据写入能力,也从30TPS/秒,提升到3000TPS/秒。
  • 从单机房服务,扩展到异地三机房同时提供服务。让大部分业务访问都能够在同机房内部完成。跨机房数据同步,正常情况下,在1s内可以完成。
  • 新接口开发投入的effort缩短,从原有的1-2天,进一步缩短到2小时即可上线。

在这过程中,我们在对原有系统做技术升级的同时,也引入了微服务框架来做实现。作为技改项目,我们的原则是:小步快跑,积小胜为大胜。在保证线上系统稳定运行的同时,逐步改进原有系统。 这是一个核心系统,一旦出问题,公司整个业务都会受到影响。技术改造是一个高风险的工作。 除非是上级领导明确要求并同意把这个工作作为考核指标来激励团队,否则很难以推进。 另外也要得到团队成员的支持。 我们启动这个工作前有半年的准备期,其中很大一部分工作是在争取大家的支持。最后也是认可这个架构的人才参与系统改进工作,确保整个工作是按照预定设计逐步推进。

这个项目我们进行的还比较顺利,原来的系统的基础还算比较好。 老项目有三个大工程,实现数据读、写、同步。对外提供的是RPC接口,使用Apache Thrift作为RPC框架和服务器。 数据同时写入到MongoDB和HBase中。MongoDB主要用来支持数据读取,而HBase用来支持数据写入。 

主要问题在于:
  • 虽然原项目设计打算用Mongodb和HBase来做读写分离,实际实现的时候并未达到这个目标。数据是同时写入MongoDB和Hbase的。这经常导致数据不一致,在高峰期写入时,由于MongoDB的特性,经常发生写入失败的情况。
  • 项目规模大,维护困难。几个核心类,每个类规模都超过2000行。新员工入职后,没有半年的熟悉时间,都不敢动核心代码。
  • 开发进展慢。由于这个项目提供的是后台数据功能,一般产品规划时很容易漏掉这里的工作。当想起来需要支持的时候,给的开发时间都不多。

需要我们在架构和流程上做调整。具体来说,在微服务化的层面,我们做了如下工作: 

1. 建立服务网关

这是一个很重要的工作,有了网关的支持,我们就可以根据需要把流量在新老系统之间切换。我们采用的是zookeeper和网关服务来实现。所有服务注册到zookeeper上,网关服务根据zookeeper的注册项来将用户请求按比例打到具体的工作机上。这比直接访问工作机会增加1ms左右的开销。在网关上使用Netflix Hystrix来实现熔断和限流。

2. 细分业务,读写分离

一提到读写分离,很多人直观概念是使用主从的方式来实现。 实现上还需要根据业务情况来详细分析。 这个项目中,我们将数据写入场景做了详细的分析,按场景来拆分原有数据读写接口。 在写入上,我们按照场景拆分为如下接口:
  • 高速写入。主要用于离线分析结果入库。 采取的方案是分析数据通过MapReduce、Spark等框架写入到Kafka中,我们接受Kafka的数据,灌入到HBase中。 每天变更数据在千万量级,1小时左右时间完成写入。这些数据变更无需实时通知业务方。
  • 中速写入。主要用于支持线上数据的入库。数据通过RPC服务接口直接入库到Hbase中,支持每秒在3000TPS左右的写入。
  • 低速可靠写入。主要用于支持人工生产数据入库。数据也是通过RPC接口来写到HBase中。数据写入后,通过消息机制来通知各业务方相关的改动。

在读取功能上,我们也拆分为两类工作:
  • 可靠读取,主要用于支持数据生产工作。同一条数据会有不同业务方来通过工作流来写入,后写入者需要通过上一个写入者的数据来确定写的内容。这种情况,要求能够随时读取到可靠的数据。 对于这些读取,我们是直接将请求打到持久化库中(Hbase)。
  • 高速读取,主要用于支持线上数据查看。这类操作一般对数据的实时性要求不高。我们采用Couchbase来做缓存,支持线上读取。 废弃早期的MongoDB。我们一个Couchbase可以轻松支持线上上万的QPS。

这就涉及到数据同步问题了:
  • 读写库之间的数据同步,我们通过MQ(Apache ActiveMQ,桥接)来实现。 数据写入到HBase时,发出Message。读库接收到Message之后,更新自己的数据。
  • 跨机房数据同步,我们也是走的MQ。相对来说,MQ对网络不像数据库内部同步机制这么敏感。 在网络出问题的时候,MQ能够尽快恢复。同时监控起来也方便。

这里有一个小细节,实际上跨机房的Couchbase数据同步,我们也是走的MQ。在每个机房接受MQ之后更新Couchbase的数据。 我们的Couchbase定位于缓存,仅保存热数据。从实践中发现,不同地域的人,关注的数据还是不一样的。这导致Couchbase的内容差异不少。

3. 接口拆分,微服务化

有了网关的支持,明确拆分目标和架构后,我们就可以将原项目中庞大的实现类做拆分,按照服务来切分,建立Project。每个Project仅实现不会超过5个接口,这些接口都是高内聚的、同功能的,仅仅是参数略有不同。 拆分之后,每个项目中的实现类都很少,不会超过10个,而且每个类的规模也很小,代码行数不会超过300行。 新员工入职后,都能够立即上手。

4. 完善基础设施

在微服务环境上,我们采用Git做版本控制,GitLab做代码审核, Jenkins来支持自动发布和上线。正在小规模试用Spring Cloud,效果还不错,后续会继续推广。

这是第一个项目的情况。第二个项目是我当前正在做的。这是一个支付系统,面临的情况比第一个项目复杂多了,也是更典型的一个项目。原系统是SSH框架,很难想象支付系统会采用这个技术选型。不过大部分现存的web系统也都是采用这个框架,这个改造可以为大家提供更相似的实战经验。老系统规模庞大,每个项目都有超过1000个类,最大的一个项目有3000多个类。由于项目正在进行中,可以分享的内容还不多。项目完成后,争取有机会和大家一些再做交流。 目前可以分享的要点主要有:
  • 这个项目我们采用Spring Cloud来作为微服务的框架。
  • 我们将系统拆分2个大层,不包括前端系统。一层是对外提供的Web服务,采用http/json。 一层是业务逻辑层,供Web服务层调用,采用RPC来实现。
  • Web层采用Spring Boot来实现;
  • RPC层采用Apache Thrift 来实现。
  • 服务网关使用Nginx + Lua实现Load Balance、限流、服务自动发现。
  • 基础设施上,仍然是Git + GitLab + Jenkins。

关于这个项目的进展,以及项目开发中的一些想法和设计,大家可以关注我的公众号“凤凰牌老熊”,或者访问 个人博客 ,谢谢。

Q & A

Q:服务网关使用Nginx + Lua 方案有考虑过吗?
A:有,我第二个项目就用这个方案来做,正在做。
Q:我想问个问题,微服务后分布式事务如何处理的?
A:非常好的问题。第一个项目没有这方面的问题。第二个项目,支付项目,事务处理问题就很突出。 网上有不少分享,关于如何使用MQ来做分布式事务的。不过我们用的方式比较简单粗暴。 那就是去掉分布式事务,追求最终一致。 从实际情况来看,这已经能够满足绝大部分的场景需求了。
Q:关于ZooKeeper / Curator+ 自己实现的发现服务来做服务的自动注册和发现,能否详细一点说明?
A:Apache Curator是对ZooKeeper API的一个封装,支持事件处理和重试,和Spring Framework也集成得很好。在服务注册实现上,我们是在服务提供方通过Curator API来写入到ZooKeeper上,服务消费者从ZooKeeper上来发现所需要的服务。
Q:1-5个内聚的接口一个project。 能在详细下么?
A:内聚的接口,指这些接口功能相同,主要是输入参数不一样。比如检索的接口,有按关键字检索,有按作者 + 时间的检索。这样的接口,可以放在同一个项目里面。但是根据ID来读取的接口,和这个检索接口,就是不同的项目。 这样控制项目规模不会太庞大,也便于维护。
Q:我有个问题,你们这个项目一定有很多微服务的jar包,这是jar包在服务器上是怎么分布的?
A:对Web接口类型的微服务,其实和普通的项目一样,每个项目就管自己的jar包以及它所依赖的jar包。 也有人会把所有的jar包汇总起来打成一个大jar包,这种方式,容易出现资源文件被覆盖的情况,也不容易更新,不推荐。
Q:RPC为什么不用国产Dubbo啊?
A:这是个好问题,我们经常被问这个问题。 Dubbo是个不错的框架,相对微服务来说,还是太重了。 而且,性能上,比Thrift 还是要差不少。 所以我们就直接上Thrift了。
Q:支付的这个需要对接多个银行么?
A:需要,我们现在对接了快10个银行,还在对接更多的银行。除了银行,第三方支付、外卡等,也都在接。
Q:服务网关重点需要关注那些点?
A:我们实际有两个网关,一个是对外的Web接口服务网关,关注的是Load Balance以及可靠性。 特别是服务重启的时候,网关要提前解除注册,重启之后,网关要延后注册上。 这有不少成熟的组件可以用,不一定像我们这样自己开发。 RPC网关,也是要注意稳定性和性能,以及网关决不能和业务耦合。
Q:微服务是按表来拆分的,那么是一个服务自己连一个数据库还是有统一得数据层呢?
A:RPC层的微服务,基本是按表来拆分了,自己连一个数据库。这里实际也分两层,数据访问层和业务逻辑层。如果业务逻辑很薄,就合并成一层了。
Q:用 Thrift 做 RPC,服务发现也是自己做的吗?
A:是的,这个用Apache Curator比较容易实现,我们就自己搞一个。
Q:Hbase和mongo读写分离这块能具体说一下嘛? 和mongo副本集比较有啥优势么?
A:这个问题就是涉及到如何使用数据库的问题。每个数据库都有自己的优势,比如HBase写入性能极好,上万的TPC都没问题,但是读取的性能就差了,就小几千。 Couchbase读取的性能极佳,但是写入就很一般。 Redis读写都很不错,就是不能支持太大粒度的数据,以及容量有限制。 MongoDB似乎比较尴尬,功能很全面,但是读写都一般。
Q:Couchbase通过MQ实现跨机房同步是怎么实现的?
A:在主流程中,数据修改的时候会发出一个Message,监听程序接收到这个消息后,去更新couchbase中的数据。 采用MQ的原因,在于它对网络波动不像数据库直接同步那么敏感。

以上内容根据2016年11月29日晚微信群分享内容整理。分享人李雄峰,程序员 & 架构师,来自中科大的本科,研究生在软件所学习。先后在中科辅龙、三星(中国)研究院和国内一些大型的互联网公司呆过。在中科辅龙公司负责电子政务内容管理系统建设,负责研发龙驭系列产品的研发,这款产品最终实施到2000多个电子政务网站上,期间也参与了一些支付反洗钱以及支付系统的建设。之后在三星中国研究院,负责自然语言处理(NLP)以及智能家居相关项目。智能家居项目在2014CES消费电子展上作为三星重点项目推介。2014年开始加入爱奇艺公司,负责数据仓库和支付系统的建设。 DockOne每周都会组织定向的技术分享,欢迎感兴趣的同学加微信:liyingjiesz,进群参与,您有想听的话题或者想分享的话题都可以给我们留言。

原文发布时间为:2016-11-30

本文作者:李雄峰

本文来自云栖社区合作伙伴Dockerone.io,了解相关信息可以关注Dockerone.io。

原文标题:DockOne微信分享(九十七):现有系统实施微服务架构改进经验分享

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
22天前
|
机器学习/深度学习 文字识别 监控
安全监控系统:技术架构与应用解析
该系统采用模块化设计,集成了行为识别、视频监控、人脸识别、危险区域检测、异常事件检测、日志追溯及消息推送等功能,并可选配OCR识别模块。基于深度学习与开源技术栈(如TensorFlow、OpenCV),系统具备高精度、低延迟特点,支持实时分析儿童行为、监测危险区域、识别异常事件,并将结果推送给教师或家长。同时兼容主流硬件,支持本地化推理与分布式处理,确保可靠性与扩展性,为幼儿园安全管理提供全面解决方案。
|
1月前
|
资源调度 监控 调度
基于SCA的软件无线电系统的概念与架构
软件通信体系架构(SCA)是基于软件定义无线电(SDR)思想构建的开放式、标准化和模块化平台,旨在通过软件实现通信功能的灵活配置。SCA起源于美军为解决“信息烟囱”问题而推出的联合战术无线电系统(JTRS),其核心目标是提升多军种联合作战通信能力。 上海介方信息公司的OpenSCA操作环境严格遵循SCA4.1/SRTF标准,支持高集成、嵌入式等场景,适用于军用通信、雷达等领域。 SCA体系包括目标平台资源层(TRL)、环境抽象层(EAL)、SRTF操作环境(OE)及应用层(AL)。其中,SRTF操作环境包含操作系统、运行时环境(RTE)和核心框架(CF),提供波形管理、资源调度等功能。
【YashanDB知识库】如何排查YMP报错:”OCI版本为空或OCI的架构和本地系统的架构不符“
【YashanDB知识库】如何排查YMP报错:”OCI版本为空或OCI的架构和本地系统的架构不符“
【YashanDB知识库】如何排查YMP报错:”OCI版本为空或OCI的架构和本地系统的架构不符“
|
16天前
|
Cloud Native Serverless 流计算
云原生时代的应用架构演进:从微服务到 Serverless 的阿里云实践
云原生技术正重塑企业数字化转型路径。阿里云作为亚太领先云服务商,提供完整云原生产品矩阵:容器服务ACK优化启动速度与镜像分发效率;MSE微服务引擎保障高可用性;ASM服务网格降低资源消耗;函数计算FC突破冷启动瓶颈;SAE重新定义PaaS边界;PolarDB数据库实现存储计算分离;DataWorks简化数据湖构建;Flink实时计算助力风控系统。这些技术已在多行业落地,推动效率提升与商业模式创新,助力企业在数字化浪潮中占据先机。
96 12
|
10天前
|
人工智能 自然语言处理 API
MCP与A2A协议比较:人工智能系统互联与协作的技术基础架构
本文深入解析了人工智能领域的两项关键基础设施协议:模型上下文协议(MCP)与代理对代理协议(A2A)。MCP由Anthropic开发,专注于标准化AI模型与外部工具和数据源的连接,降低系统集成复杂度;A2A由Google发布,旨在实现不同AI代理间的跨平台协作。两者虽有相似之处,但在设计目标与应用场景上互为补充。文章通过具体示例分析了两种协议的技术差异及适用场景,并探讨了其在企业工作流自动化、医疗信息系统和软件工程中的应用。最后,文章强调了整合MCP与A2A构建协同AI系统架构的重要性,为未来AI技术生态系统的演进提供了方向。
204 4
|
1月前
|
人工智能 运维 Cloud Native
2025年国内工单系统推荐:技术架构、场景适配与行业实践
分析了智能化升级、大数据驱动、云原生架构及全渠道融合四大技术趋势,从功能适配性、易用性、集成能力、安全性和性价比五个维度指导企业选型,并推荐合力亿捷等三家系统的优劣对比,结合电商和制造行业的实际案例,帮助企业提升客户服务水平与竞争力。
113 11
2025年国内工单系统推荐:技术架构、场景适配与行业实践
|
30天前
|
运维 供应链 前端开发
中小医院云HIS系统源码,系统融合HIS与EMR功能,采用B/S架构与SaaS模式,快速交付并简化运维
这是一套专为中小医院和乡镇卫生院设计的云HIS系统源码,基于云端部署,采用B/S架构与SaaS模式,快速交付并简化运维。系统融合HIS与EMR功能,涵盖门诊挂号、预约管理、一体化电子病历、医生护士工作站、收费财务、药品进销存及统计分析等模块。技术栈包括前端Angular+Nginx,后端Java+Spring系列框架,数据库使用MySQL+MyCat。该系统实现患者管理、医嘱处理、费用结算、药品管控等核心业务全流程数字化,助力医疗机构提升效率和服务质量。
|
9天前
|
前端开发 API 开发工具
一年撸完百万行代码,企业微信的全新鸿蒙NEXT客户端架构演进之路
本文将要分享的是企业微信的鸿蒙Next客户端架构的演进过程,面对代码移植和API不稳定的挑战,提出了DataList框架解决方案。通过结构化、动态和认知三重熵减机制,将业务逻辑与UI解耦,实现数据驱动开发。采用MVDM分层架构(业务实体层、逻辑层、UI数据层、表示层),屏蔽系统差异,确保业务代码稳定。
69 0
|
2月前
|
机器学习/深度学习 缓存 自然语言处理
DeepSeek背后的技术基石:DeepSeekMoE基于专家混合系统的大规模语言模型架构
DeepSeekMoE是一种创新的大规模语言模型架构,融合了专家混合系统(MoE)、多头潜在注意力机制(MLA)和RMSNorm归一化。通过专家共享、动态路由和潜在变量缓存技术,DeepSeekMoE在保持性能的同时,将计算开销降低了40%,显著提升了训练和推理效率。该模型在语言建模、机器翻译和长文本处理等任务中表现出色,具备广泛的应用前景,特别是在计算资源受限的场景下。
662 29
DeepSeek背后的技术基石:DeepSeekMoE基于专家混合系统的大规模语言模型架构
|
1月前
|
JSON Java 数据格式
微服务——SpringBoot使用归纳——Spring Boot中的全局异常处理——处理系统异常
本文介绍了在Spring Boot项目中如何通过创建`GlobalExceptionHandler`类来全局处理系统异常。通过使用`@ControllerAdvice`注解,可以拦截项目中的各种异常,并结合`@ExceptionHandler`注解针对特定异常(如参数缺失、空指针等)进行定制化处理。文中详细展示了处理参数缺失异常和空指针异常的示例代码,并说明了通过拦截`Exception`父类实现统一异常处理的方法。虽然拦截`Exception`可一劳永逸,但为便于问题排查,建议优先处理常见异常,最后再兜底处理未知异常,确保返回给调用方的信息友好且明确。
133 0
微服务——SpringBoot使用归纳——Spring Boot中的全局异常处理——处理系统异常
下一篇
oss创建bucket