go-micro集成链路跟踪的方法和中间件原理

简介: go-micro集成链路跟踪的方法和中间件原理

前几天有个同学想了解下如何在go-micro中做链路跟踪,这几天正好看到wrapper这块,wrapper这个东西在某些框架中也称为中间件,里边有个opentracing的插件,正好用来做链路追踪。opentracing是个规范,还需要搭配一个具体的实现,比如zipkin、jeager等,这里选择zipkin。

1689144742842.png


链路跟踪实战


安装zipkin


通过docker快速启动一个zipkin服务端:

docker run -d -p 9411:9411 openzipkin/zipkin


程序结构


为了方便演示,这里把客户端和服务端放到了一个项目中,程序的目录结构是这样的:

1689144799313.png

  • main.go 服务端程序。
  • client/main.go 客户端程序。
  • config/config.go 程序用到的一些配置,比如服务的名称和监听端口、zipkin的访问地址等。
  • zipkin/ot-zipkin.go opentracing和zipkin相关的函数。

安装依赖包


需要安装go-micro、opentracing、zipkin相关的包:

go get go-micro.dev/v4@latest
go get github.com/go-micro/plugins/v4/wrapper/trace/opentracing
go get -u github.com/openzipkin-contrib/zipkin-go-opentracing


编写服务端


首先定义一个服务端业务处理程序:

type Hello struct {
}
func (h *Hello) Say(ctx context.Context, name *string, resp *string) error {
  *resp = "Hello " + *name
  return nil
}

这个程序只有一个方法Say,输入name,返回 "Hello " + name。

然后使用go-micro编写服务端框架程序:

func main() {
  tracer := zipkin.GetTracer(config.SERVICE_NAME, config.SERVICE_HOST)
  defer zipkin.Close()
  tracerHandler := opentracing.NewHandlerWrapper(tracer)
  service := micro.NewService(
    micro.Name(config.SERVICE_NAME),
    micro.Address(config.SERVICE_HOST),
    micro.WrapHandler(tracerHandler),
  )
  service.Init()
  micro.RegisterHandler(service.Server(), &Hello{})
  if err := service.Run(); err != nil {
    log.Println(err)
  }
}

这里NewService的时候除了指定服务的名称和访问地址,还通过micro.WrapHandler设置了一个用于链路跟踪的HandlerWrapper。

这个HandlerWrapper是通过go-micro的opentracing插件提供的,这个插件需要传入一个tracer。这个tracer可以通过前边安装的 zipkin-go-opentracing 包来创建,我们把创建逻辑封装在了config.go中:

func GetTracer(serviceName string, host string) opentracing.Tracer {
  // set up a span reporter
  zipkinReporter = zipkinhttp.NewReporter(config.ZIPKIN_SERVER_URL)
  // create our local service endpoint
  endpoint, err := zipkin.NewEndpoint(serviceName, host)
  if err != nil {
    log.Fatalf("unable to create local endpoint: %+v\n", err)
  }
  // initialize our tracer
  nativeTracer, err := zipkin.NewTracer(zipkinReporter, zipkin.WithLocalEndpoint(endpoint))
  if err != nil {
    log.Fatalf("unable to create tracer: %+v\n", err)
  }
  // use zipkin-go-opentracing to wrap our tracer
  tracer := zipkinot.Wrap(nativeTracer)
  opentracing.InitGlobalTracer(tracer)
  return tracer
}

service创建完毕之后,还要通过 micro.RegisterHandler 来注册前边编写的业务处理程序。

最后通过 service.Run 让服务运行起来。

编写客户端

再来看一下客户端的处理逻辑:

func main() {
  tracer := zipkin.GetTracer(config.CLIENT_NAME, config.CLIENT_HOST)
  defer zipkin.Close()
  tracerClient := opentracing.NewClientWrapper(tracer)
  service := micro.NewService(
    micro.Name(config.CLIENT_NAME),
    micro.Address(config.CLIENT_HOST),
    micro.WrapClient(tracerClient),
  )
  client := service.Client()
  go func() {
    for {
      <-time.After(time.Second)
      result := new(string)
      request := client.NewRequest(config.SERVICE_NAME, "Hello.Say", "FireflySoft")
      err := client.Call(context.TODO(), request, result)
      if err != nil {
        log.Println(err)
        continue
      }
      log.Println(*result)
    }
  }()
  service.Run()
}

这段代码开始也是先NewService,设置客户端程序的名称和监听地址,然后通过micro.WrapClient注入链路跟踪,这里注入的是一个ClientWrapper,也是由opentracing插件提供的。这里用的tracer和服务端tracer是一样的,都是通过config.go中GetTracer函数获取的。

然后为了方便演示,启动一个go routine,客户端每隔一秒发起一次RPC请求,并将返回结果打印出来。运行效果如图所示:


1689144970686.png

Wrap原理分析

Wrap从字面意思上理解就是封装、嵌套,在很多的框架中也称为中间件,比如gin中,再比如ASP.NET Core中。这个部分就来分析下go-micro中Wrap的原理。

服务端Wrap

在go-micro中服务端处理请求的逻辑封装称为Handler,它的具体形式是一个func,定义为:

func(ctx context.Context, req Request, rsp interface{}) error

这个部分就来看一下服务端Handler是怎么被Wrap的。

HandlerWrapper

要想Wrap一个Handler,必须创建一个HandlerWrapper类型,这其实是一个func,其定义如下:

type HandlerWrapper func(HandlerFunc) HandlerFunc

它的参数和返回值都是HandlerFunc类型,其实就是上面提到的Handler的func定义。

以本文链路跟踪中使用的 tracerHandler 为例,看一下HandlerWrapper是如何实现的:

  func(h server.HandlerFunc) server.HandlerFunc {
    return func(ctx context.Context, req server.Request, rsp interface{}) error {
      ...
      if err = h(ctx, req, rsp); err != nil {
      ...
    }
  }

从中可以看出,Wrap一个Hander就是定义一个新Handler,在它的的内部调用传入的原Handler。

Wrap Handler

创建了一个HandlerWrapper之后,还需要把它加入到服务端的处理过程中。

go-micro在NewService的时候通过调用 micro.WrapHandler 设置这些 HandlerWrapper:

service := micro.NewService(
    ...
    micro.WrapHandler(tracerHandler),
  )

实现:

func WrapHandler(w ...server.HandlerWrapper) Option {
  return func(o *Options) {
    var wrappers []server.Option
    for _, wrap := range w {
      wrappers = append(wrappers, server.WrapHandler(wrap))
    }
    o.Server.Init(wrappers...)
  }
}

它返回的是一个函数,这个函数会将我们传入的HandlerWrapper通过server.WrapHandler转化为一个server.Option,然后交给Server.Init进行初始化处理。

这里的server.Option其实还是一个func,看一下WrapHandler的源码:

func WrapHandler(w HandlerWrapper) Option {
  return func(o *Options) {
    o.HdlrWrappers = append(o.HdlrWrappers, w)
  }
}

这个func将我们传入的HandlerWrapper添加到了一个切片中。

那么这个函数什么时候执行呢?就在Server.Init中。看一下Server.Init中的源码:

 func (s *rpcServer) Init(opts ...Option) error {
  ...
  for _, opt := range opts {
    opt(&s.opts)
  }
  if s.opts.Router == nil {
    r := newRpcRouter()
    r.hdlrWrappers = s.opts.HdlrWrappers
    ...
    s.router = r
  }
  ...
}

它会遍历传入的所有server.Option,也就是执行每一个func(o *Options)。这样Options的切片HdlrWrappers中就添加了我们设置的HandlerWrapper,同时还把这个切片传递到了rpcServer的router中。

可以看到这里的Options就是rpcServer.opts,HandlerWrapper切片同时设置到了rpcServer.router和rpcServer.opts中。

还有一个问题:WrapHandler返回的func什么时候执行呢?

这个在micro.NewService -> newService -> newOptions中:


func newOptions(opts ...Option) Options {
  opt := Options{
  ...
    Server:    server.DefaultServer,
  ...
  }
  for _, o := range opts {
    o(&opt)
  }
  ...
}

遍历opts就是执行每一个设置func,最终执行到rpcServer.Init。

到NewService执行完毕为止,我们设置的WrapHandler全部添加到了一个名为HdlrWrappers的切片中。

再来看一下服务端Wrapper的执行过程是什么样的?

执行Handler的这段代码在rpc_router.go中:

func (s *service) call(ctx context.Context, router *router, sending *sync.Mutex, mtype *methodType, req *request, argv, replyv reflect.Value, cc codec.Writer) error {
  defer router.freeRequest(req)
  ...
  for i := len(router.hdlrWrappers); i > 0; i-- {
    fn = router.hdlrWrappers[i-1](fn)
  }
  ...
  // execute handler
  return fn(ctx, r, rawStream)
}

根据前面的分析,可以知道router.hdlrWrappers中记录的就是所有的HandlerWrapper,这里通过遍历router.hdlrWrappers实现了HandlerWrapper的嵌套,注意这里遍历时索引采用了从大到小的顺序,后添加的先被Wrap,先添加在外层。

实际执行时就是先调用到最先添加的HandlerWrapper,然后一层层向里调用,最终调用到我们注册的业务Handler,然后再一层层的返回,每个HandlerWrapper都可以在调用下一层前后做些自己的工作,比如链路跟踪这里的检测执行时间。


相关文章
|
2天前
|
定位技术
【视频】Boosting集成学习原理与R语言提升回归树BRT预测短鳍鳗分布生态学实例-3
【视频】Boosting集成学习原理与R语言提升回归树BRT预测短鳍鳗分布生态学实例
|
2天前
|
机器学习/深度学习 缓存 算法
【视频】Boosting集成学习原理与R语言提升回归树BRT预测短鳍鳗分布生态学实例-2
【视频】Boosting集成学习原理与R语言提升回归树BRT预测短鳍鳗分布生态学实例
|
1天前
|
Java 数据库连接 Spring
K8S+Docker理论与实践深度集成java面试jvm原理
K8S+Docker理论与实践深度集成java面试jvm原理
|
2天前
|
前端开发
基于RuoYi-Flowable-Plus的若依ruoyi-nbcio支持自定义业务表单流程的集成方法与步骤(二)
基于RuoYi-Flowable-Plus的若依ruoyi-nbcio支持自定义业务表单流程的集成方法与步骤(二)
|
2天前
|
SQL 前端开发 数据库
基于RuoYi-Flowable-Plus的若依ruoyi-nbcio支持自定义业务表单流程的集成方法与步骤(一)
基于RuoYi-Flowable-Plus的若依ruoyi-nbcio支持自定义业务表单流程的集成方法与步骤(一)
19 2
基于RuoYi-Flowable-Plus的若依ruoyi-nbcio支持自定义业务表单流程的集成方法与步骤(一)
|
2天前
|
前端开发
基于jeecgboot流程管理平台的自定义业务表单集成方法
基于jeecgboot流程管理平台的自定义业务表单集成方法
16 0
|
2天前
|
缓存 测试技术 持续交付
Golang深入浅出之-Go语言中的持续集成与持续部署(CI/CD)
【5月更文挑战第5天】本文介绍了Go语言项目中的CI/CD实践,包括持续集成与持续部署的基础知识,常见问题及解决策略。测试覆盖不足、版本不一致和构建时间过长是主要问题,可通过全面测试、统一依赖管理和利用缓存优化。文中还提供了使用GitHub Actions进行自动化测试和部署的示例,强调了持续优化CI/CD流程以适应项目需求的重要性。
54 1
|
2天前
|
Prometheus 监控 Cloud Native
Golang深入浅出之-Go语言中的分布式追踪与监控系统集成
【5月更文挑战第4天】本文探讨了Go语言中分布式追踪与监控的重要性,包括追踪的三个核心组件和监控系统集成。常见问题有追踪数据丢失、性能开销和监控指标不当。解决策略涉及使用OpenTracing或OpenTelemetry协议、采样策略以及聚焦关键指标。文中提供了OpenTelemetry和Prometheus的Go代码示例,强调全面可观测性对微服务架构的意义,并提示选择合适工具和策略以确保系统稳定高效。
35 5
|
2天前
|
中间件 Go
Go语言中的中间件设计与实现
【5月更文挑战第4天】Go语言中的中间件在HTTP请求处理中扮演重要角色,提供了一种插入逻辑层的方式,便于实现日志、认证和限流等功能,而不增加核心代码复杂性。中间件遵循`http.Handler`接口,通过函数组合实现。常见问题包括错误处理(确保中间件能正确处理并传递错误)和请求上下文管理(使用`context.Context`共享数据以避免并发问题)。通过理解中间件机制和最佳实践,可以构建更健壮的Web应用。
37 0
|
2天前
|
机器学习/深度学习 算法 前端开发
【Python机器学习专栏】集成学习算法的原理与应用
【4月更文挑战第30天】集成学习通过组合多个基学习器提升预测准确性,广泛应用于分类、回归等问题。主要步骤包括生成基学习器、训练和结合预测结果。算法类型有Bagging(如随机森林)、Boosting(如AdaBoost)和Stacking。Python中可使用scikit-learn实现,如示例代码展示的随机森林分类。集成学习能降低模型方差,缓解过拟合,提高预测性能。