程超:手把手教你动手扩展分布式调用链

简介:
640?wx_fmt=jpeg&wxfrom=5


一、说在前面

微服务是当下最火的词语,现在很多公司都在推广微服务,当服务越来越多的时候,我们是否会纠结以下几个问题:

  • 面对一笔超时的订单,究竟是哪一步处理时间超长呢?

  • 数据由于并发莫名篡改,到底都谁有重大嫌疑呢?

  • 处理遗漏了一笔订单,曾经是哪个环节出错把它落下了?

  • 系统莫名的报错,究竟是哪一个服务报的错误?

  • 每个服务那么多实例服务器,如何快速定位到是哪一个实例服务器报错的呢?

现在很多系统都要求可用性达到99.9%以上,那么我们除了增加系统健壮性减少故障的同时,我们又如何在真正发生故障的时候,快速定位和解决问题,也将是我们的重中之重。

在做微服务框架选择的时候,Spring Cloud无疑是当下最火的,但是因为Spring Cloud是近二年的后起新秀,以及在使用方式上面的差别,目前在很多中小企业还是以dubbo为主,不过遗憾的是,dubbo从官方来讲已经不维护了,很多公司都是自己再去维护,那么今天我就来给大家介绍一下,我们是如何通过修改dubbo源码实现了分布式调用链的第一阶段:调用链日志的打印。

二、什么是分布式调用链

1、什么是调用链

基于Google Dapper论文,用户每次请求都会生成一个全局ID(traceId),通过它将不同系统的“孤立”的日志串在一起,重组成调用链。

2、调用链的调用过程

  1. 当用户发起一个请求时,首先到达前端A服务,然后分别对B服务和C服务进行RPC调用。

  2. B服务处理完给A做出响应,但是C服务还需要和后端的D服务和E服务交互之后再返还给A服务,最后由A服务来响应用户的请求。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

Paste_Image.png

3、对整个调用过程的追踪

  1. 请求到来生成一个全局TraceID,通过TraceID可以串联起整个调用链,一个TraceID代表一次请求。

  2. 除了TraceID外,还需要SpanID用于记录调用父子关系。每个服务会记录下Parent id和Span id,通过他们可以组织一次完整调用链的父子关系。

  3. 一个没有Parent id的span成为root span,可以看成调用链入口。

  4. 所有这些ID可用全局唯一的64位整数表示;

  5. 整个调用过程中每个请求都要透传TraceID和SpanID。

  6. 每个服务将该次请求附带的TraceID和附带的SpanID作为Parent id记录下,并且将自己生成的SpanID也记录下。

  7. 要查看某次完整的调用则只要根据TraceID查出所有调用记录,然后通过Parent id和Span id组织起整个调用父子关系。

最终的TraceId和SpanId的调用关系图如下所示:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

Paste_Image.png

三、基于Dubbo的实现

1、Dubbo的调用过程

在我们分析源码的时候,有一行代码是:

Protocol refprotocol = ExtensionLoader.getExtensionLoader(Protocol.class).getAdaptiveExtension();

这行代码实际上是利用SPI机制,动态加载指定的Protocol注入到ProtocolFilterWrapper中,再通过Wrapper访问到可执行的Invoker对象,Dubbo默认使用的是DubboProtocol最终通过netty的方式进行通信,具体调用过程请看下图:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

Paste_Image.png

可以看到基本的流程是:

InvokerInvocationHandler ->ClusterInvoker ->LoadBalance -> ProtocolFilterWrapper -> Protocol -> DubboInvoker

而在调用链的实现过程中技术难点主要是有二个:

  • 在哪里暂存调用链

  • 调用链信息如何传递

2、Dubbo协议下的调用链传递过程

那么在默认的Dubbo协议下,实现调用链的过程很简单只需要在应用项目或者Dubbo源码中使用如下代码就可以实现调用链的传递。

RpcContext.getContext().setAttachment(CallChainContext.TRACEID, traceIdValue);

RpcInvocation rpcInvocation = (RpcInvocation) inv;
rpcInvocation.setAttachment(CallChainContext.TRACEID, traceIdValue);
rpcInvocation.setAttachment(CallChainContext.SPANID, spanIdValue);

在DubboInvoker中最终通信的时候会将上述代码的RpcInvocation对象传递出去,那么我们只需要在接收端获取既可。

3、Hessian协议下的调用链传递过程

大家都知道,Dubbo在实现通信的协议上使用的有Netty、Hessian、Rest等方式,由于我们项目的特殊性,目前采用的是Dubbo的Hessian协议。

先看HessianProtocol的如下代码:

 protected <T> T doRefer(Class<T> serviceType, URL url) throws RpcException {

   HessianProxyFactory hessianProxyFactory = new HessianProxyFactory();
   String client = url.getParameter(Constants.CLIENT_KEY, Constants.DEFAULT_HTTP_CLIENT);        
  if ("httpclient".equals(client)) {      hessianProxyFactory.setConnectionFactory(new HttpClientConnectionFactory());      } else if (client != null && client.length() > 0 && ! Constants.DEFAULT_HTTP_CLIENT.equals(client)) {            
       throw new IllegalStateException("Unsupported http protocol client=\"" + client + "\"!");        }        
       int timeout = url.getParameter(Constants.TIMEOUT_KEY, Constants.DEFAULT_TIMEOUT);        hessianProxyFactory.setConnectTimeout(timeout);        hessianProxyFactory.setReadTimeout(timeout);        
       return (T) hessianProxyFactory.create(serviceType, url.setProtocol("http").toJavaURL(), Thread.currentThread().getContextClassLoader());    }


通过代码可以看到,实际上在使用Hessian通信的时候并没有将RpcInvocation里面设定的TraceId和SpanId传递出去,调用在这一块中止了。

那我们如何自己来实现呢?

  • 第一步、我们在Dubbo源码中自己实现了一个Filter(不是Dubbo的Filter),用来产生TraceId和SpanId,以及最后的清理工作,请看代码如下:

public void doFilter(ServletRequest request, ServletResponse response, FilterChain chain)           
 throws IOException, ServletException {        
 // 将请求转换成HttpServletRequest请求 HttpServletRequest httpServletRequest = (HttpServletRequest) request;        
   try {        archieveId(request);   } catch (Throwable e) {
      log.log(Level.SEVERE, "traceId或spanId解析出错!", e);   }        
  try {        chain.doFilter(request, response);   } catch (IOException e) {            
     //还原线程名称     throw e;   } catch (ServletException e) {            
      //还原线程名称      throw e;   } finally {       CallChainContext.getContext().clearContext();   } }

在Filter中产生TraceId和SpanId以后,会将二个值放到我们封装好的CallChainContext中进行暂存。

  • 第二步、我们将HessianProxyFactory进行继承改造

public class HessianProxyWrapper extends HessianProxy {    
 private static final long serialVersionUID = 353338409377437466L;    
 private static final Logger log = Logger.getLogger(HessianProxyWrapper.class            .getName());    public HessianProxyWrapper(URL url, HessianProxyFactory factory, Class<?> type) {        
     super(url, factory, type);    }    protected void addRequestHeaders(HessianConnection conn) {        
     super.addRequestHeaders(conn);      conn.addHeader("traceId", CallChainContext.getContext().getTraceId());      conn.addHeader("spanId", CallChainContext.getContext().getSpanId());    } }

我们将CallChainContext中暂存的TraceId和SpanId放入到Hessian的header中。

继承Dubbo的HessianProxyFactory这个类,新类名是HessianProxyFactoryWrapper,在create方法中将HessianProxy替换为新封装的HessianProxyWrapper,代码如下:

public Object create(Class<?> api, URL url, ClassLoader loader) {
 if (api == null)
 throw new NullPointerException(
   "api must not be null for HessianProxyFactory.create()");    InvocationHandler handler = null;                
   //将HessianProxy修改为HessianProxyWrapper    handler = new HessianProxyWrapper(url, this, api);        
 
   return Proxy.newProxyInstance(loader, new Class[] { api,      HessianRemoteObject.class }, handler);    }

修改后的HessianProtocol的代码如下:

protected <T> T doRefer(Class<T> serviceType, URL url) throws RpcException {       
  //新继承的   HessianProxyFactoryWrapper hessianProxyFactory = new HessianProxyFactoryWrapper();   String client = url.getParameter(Constants.CLIENT_KEY, Constants.DEFAULT_HTTP_CLIENT);        
  if ("httpclient".equals(client)) {      hessianProxyFactory.setConnectionFactory(new HttpClientConnectionFactory());      } else if (client != null && client.length() > 0 && ! Constants.DEFAULT_HTTP_CLIENT.equals(client)) {
         throw new IllegalStateException("Unsupported http protocol client=\"" + client + "\"!");      }
     int timeout = url.getParameter(Constants.TIMEOUT_KEY, Constants.DEFAULT_TIMEOUT);      hessianProxyFactory.setConnectTimeout(timeout);      hessianProxyFactory.setReadTimeout(timeout);        
     return (T) hessianProxyFactory.create(serviceType, url.setProtocol("http").toJavaURL(), Thread.currentThread().getContextClassLoader());    }

通过以上方式可以将我们产生的TraceId和SpanId通过Hessian的方式传递出去,我们在接收请求的时候,只需要使用如下代码的方式就可以获取到二个值。

String traceIdValue = request.getHeader("traceId");String spanIdValue = request.getHeader("spanId");
  • 第三步、如何打印调用链信息

我们在项目中使用的是Logback的方式打印日志,首先想到的是继承一个ClassicConverter对象,实现Logback的自定义格式转换器,参考代码如下:

public class CallChainConverter extends ClassicConverter {

  @Override    public String convert(ILoggingEvent event) {
    Map<String,String> globalMap = CallChainContext.getContext().get();
    StringBuilder builder = new StringBuilder();        
   if(null == globalMap) {      globalMap = new HashMap<String, String>();      CallChainContext.getContext().add(globalMap);    } else {            
       String traceId = globalMap.get("traceId");            
       String spainId = globalMap.get("spanId");            
   if(traceId == null) {      traceId = String.valueOf(Thread.currentThread().getId());      }            
   if(spainId == null) {      spainId = "1";      }      builder.append("GUID[");      builder.append(traceId)          
     builder.append("] - LEVEL[");      builder.append(spainId);      builder.append("] ");     }        
   return builder.toString();    } }

在Logback配置文件中进行如下修改:

<conversionRule conversionWord="callContext"  converterClass="com.ulpay.dubbox.core.util.CallChainConverter" />

<layout class="com.ulpay.dubbox.core.util.CallChainPatternLayout">
    <pattern>%d %-5p %c [%t] %callContext - %m%n</pattern>
</layout>

最终打印的日志格式如下样式:

[RMI TCP Connection(127.0.0.1:2181)] GUID[760a1fedd7ab4ff8a309cebaa01cc61d] - LEVEL[15.27.1]  - [执行时间] - [xxx项目] - [xxx服务.xxx方法] - 耗时[7]毫秒

4、采集日志信息实现分布式调用链界面展示

一个最简单的demo示意图如下:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

Paste_Image.png

  • 通过logstash采集日志到kafka

  • kafka负责提供数据给Hbase

  • 通过Hbase进行数据分析

最终效果展示图如下:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

Paste_Image.png

四、总结

对于分布式调用链来说,目前市面上有很多开源的工具,比如:pinpoint,Cat以及sky-walking等等,将这些工具与我们扩展的调用链日志结合起来将起到更好的效果。

出于公司的考虑,以上的代码采用的是伪代码,但也具有一定参考价值,我写这篇文章的目的也是希望能够给大家提供一些思路,希望大家能够多提建议,我会持续改进。


来源:中生代技术

原文链接

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
7月前
|
消息中间件 Kafka Apache
微服务消息驱动:构建弹性、可扩展的分布式应用
在当今的软件开发世界中,微服务架构已经成为了构建大型应用的流行方式。随着应用规模的不断扩大,微服务架构引入了一些挑战,其中之一是确保各个微服务之间的通信高效、可靠和可扩展。微服务消息驱动架构应运而生,它为解决这些挑战提供了强大的工具和方法。
|
3月前
|
消息中间件 Kafka
消息队列 MQ:构建高效、可扩展的分布式系统
消息队列 MQ:构建高效、可扩展的分布式系统
|
9月前
|
数据采集 存储 分布式计算
构建可扩展的分布式爬虫系统
构建可扩展的分布式爬虫系统
|
Dragonfly 缓存 弹性计算
适用场景全新升级!扩展 Dragonfly2 作为分布式缓存系统架构 | 龙蜥技术
对于不存在的一个远端源地址,Dragonfly无法分发数据应该怎么办?
适用场景全新升级!扩展 Dragonfly2 作为分布式缓存系统架构 | 龙蜥技术
|
存储
核心特性—分布式线性扩展
史上最优惠活动:阿里云企业云服务器全场2折起
126 0
核心特性—分布式线性扩展
|
存储 SQL
核心特性—分布式线性扩展
数据物理分布 PolarDB-X将数据表以水平分区的方式,分布在多个存储节点(DN)上。数据分区方式由分区函数决定,PolarDB-X支持哈希(Hash)、范围(Range)等常用的分区函数。 以下图为例,shop库中的orders表根据每行数据的id属性进行哈希,被分区水平切分成orders_00~orders_11共计12个分区,均匀分布在4个数据节点上。PolarDB-X的分布式SQL层将会自动完成查询路由、结果合并等。
核心特性—分布式线性扩展
|
监控 Java 数据安全/隐私保护
阿里云服务网格ASM之扩展能力(4):在ASM中实现分布式跟踪
服务网格ASM集成了阿里云链路追踪服务,为分布式应用的开发者提供了完整的调用链路还原、调用请求量统计、链路拓扑、应用依赖分析等能力,可以帮助开发者快速分析和诊断分布式应用架构下的性能瓶颈,提升开发诊断效率。
1065 0
阿里云服务网格ASM之扩展能力(4):在ASM中实现分布式跟踪
|
测试技术 存储 uml
蚂蚁金服分布式链路跟踪组件链路透传原理与SLF4J MDC的扩展能力分析 | 剖析
Scalable Open Financial Architecture 是蚂蚁金服自主研发的金融级分布式中间件,包含了构建金融级云原生架构所需的各个组件,是在金融场景里锤炼出来的最佳实践。
1139 0
|
存储 监控 Java
蚂蚁金服分布式链路跟踪组件 SOFATracer 链路透传原理与SLF4J MDC 的扩展能力分析 | 剖析
在线压测,我们在已有的系统中,模拟一些请求(压测流量)对我们的系统进行压力测试,那么在整个链路中我们是如何让所有的系统都识别出当前的请求是压测流量而不是正式流量的呢?压测流量的标记又是如何在整个链路传递的呢? 又例如我们已经有了链路数据分析能力,能够快速定位到某个请求是在 A 系统里出的问题,那么我们怎么从 A 系统的业务日志里找到当前请求对应的业务日志呢? 带着这些问题,让我们先来看看 SOFATracer 的链路透传以及支持 SLF4J MDC 扩展能力。
2081 0

热门文章

最新文章