在Feign接口中返回泛型类型——自定义Decoder

简介: 前几天对接了一套第三方接口,所有接口的请求地址一样,请求参数和响应结果中有很多共同的字段,所以就想把这些字段都抽出来,Feign定义的接口直接返回泛型类型。

前几天对接了一套第三方接口,所有接口的请求地址一样,请求参数和响应结果中有很多共同的字段,所以就想把这些字段都抽出来,Feign定义的接口直接返回泛型类型。


Feign定义

@FeignClient(name = "demoFeign", url = "${config.demo.domain}")
public interface DemoFeign {
    @PostMapping(value = "/open/post")
    public <R extends BaseResponse, T extends BaseRequest> R invoke(@RequestBody T request);
}


请求参数父类 BaseRequest


@Data
public class BaseRequest{
    private String requestId;
    private String timeStamp;
    private String method;
}

接口1的请求参数定义 Request01


@Data
public class Request01 extends BaseRequest{
    private String merchantId;
}


接口2的请求参数定义 Request02


@Data
public class Request02 extends BaseRequest{
    private String orderNo;
}


响应结果父类 BaseRequest


@Data
public class BaseResponse{
    private String code;
    private String message;
}

接口1的响应结果定义 Response01


@Data
public class Response01 extends BaseResponse{
    private String merchantId;
    private String merchantName;
}


接口2的响应结果定义 Response02


@Data
public class Response02 extends BaseResponse{
    private String orderNo;
    private String orderTime;
}

调用的时候报错:feign.codec.DecodeException: type is not an instance of Class or ParameterizedType: R


feign.codec.DecodeException: type is not an instance of Class or ParameterizedType: R
  at org.springframework.cloud.openfeign.support.SpringDecoder.decode(SpringDecoder.java:61)
  at org.springframework.cloud.openfeign.support.ResponseEntityDecoder.decode(ResponseEntityDecoder.java:62)
  at feign.optionals.OptionalDecoder.decode(OptionalDecoder.java:36)
  at feign.SynchronousMethodHandler.decode(SynchronousMethodHandler.java:176)
  at feign.SynchronousMethodHandler.executeAndDecode(SynchronousMethodHandler.java:140)
  at feign.SynchronousMethodHandler.invoke(SynchronousMethodHandler.java:78)
  at feign.ReflectiveFeign$FeignInvocationHandler.invoke(ReflectiveFeign.java:103)
  at com.sun.proxy.$Proxy129.invoke(Unknown Source)


原来是当接口返回类型定义成泛型时,Feign的解码器Decoder(Feign默认的解码器是SpringDecoder)在解析接口响应内容的时候,Type被解析成了TypeVariableImpl类型,导致反序列化响应内容失败。

7.png


Feign的编码器和解码器是可插拔的,可以自定义一个Feign的解码器来解决这个问题。


1、定义一个 解析返回类型为泛型Feign接口解码器GenericsFeignResultDecoder,需要实现Decoder接口;


public class GenericsFeignResultDecoder implements Decoder {
  private static NamedThreadLocal<Class> feignReturnTypeThreadLocal=new NamedThreadLocal<Class>("feignReturnTypeThreadLocal");
  // 调用Feign的泛型接口前,先调用GenericsFeignResultDecoder.setReturnType()方法设置接口返回类型
  public static void setReturnType(Class returnType){
        feignReturnTypeThreadLocal.set(returnType);
    }
    // 重写Decode
    @Override
    public Object decode(Response response, Type type) throws IOException, DecodeException, FeignException {
      try{
          if (response.body() == null) {
              throw new DecodeException(response.status(), "no data response");
          }
          Class returnType=feignReturnTypeThreadLocal.get();
          String bodyStr = Util.toString(response.body().asReader(Util.UTF_8));
          return JSON.parseObject(bodyStr,returnType);
      } catch (Exception e) {
            log.error("GenericsFeignResultDecoder.decode error", e);
        }finally {
            feignReturnTypeThreadLocal.remove();
        }
        return null;
    }
}


2、定义一个CustomizedConfiguration类,用于包装GenericsFeignResultDecoder实例,用configuration属性为Feign指定自当前配置类。


@FeignClient(name = "demoFeign", url = "${config.demo.domain}", configuration = CustomizedConfiguration.class)
public interface DemoFeign {
    @PostMapping(value = "/open/post")
    public <R extends BaseResponse, T extends BaseRequest> R invoke(@RequestBody T request);
    public class CustomizedConfiguration{
        @Bean
        public Decoder feignDecoder() {
            return new GenericsFeignResultDecoder();
        }
        @Bean
        @Scope("prototype")
        public Feign.Builder feignBuilder() {
            return Feign.builder();
        }
    }
}


如果要为当前Spring容器管理的所有Feign都指定这个解码器,就把CustomizedConfiguration类挪到Feign接口外面,再加@Configuration,我这里为了方便就写到Feign接口里了;如果只是为一个Feign Client指定自定义的解码器,GenericsFeignResultDecoder就不要加Spring注解(不要被Spring管理)了,否则就成了全局的了。


调用Feign的时候,需要先设置Feign接口返回的具体类型,这里通过ThreadLocal来传递Feign接口返回值的具体类型,在调用前把返回值类型放在ThreadLocal中,调用完再remove掉。


需要注意的是,用这种方法需要设置Hystrix的隔离策略为信号量隔离(默认为线程隔离),或者为当前FeignClient禁止Hystrix,上面的代码就为DemoFeign禁止了Hystrix。


调用Feign


@Service
public class DemoService{
  @Autowired
  private DemoFeign demoFeign;
    public void function01(Request01 request){
    GenericsFeignResultDecoder.setReturnType(Response01.class);
    Response01 response=demoFeign.invoke(request);
    // ……
  }
    public void function02(Request02 request){
    GenericsFeignResultDecoder.setReturnType(Response02.class);
    Response02 response=demoFeign.invoke(request);
    // ……
  }
}



相关文章
|
3天前
|
人工智能 自然语言处理 Shell
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
仅用3分钟,百炼调用满血版Deepseek-r1 API,享受百万免费Token。阿里云提供零门槛、快速部署的解决方案,支持云控制台和Cloud Shell两种方式,操作简便。Deepseek-r1满血版在推理能力上表现出色,尤其擅长数学、代码和自然语言处理任务,使用过程中无卡顿,体验丝滑。结合Chatbox工具,用户可轻松掌控模型,提升工作效率。阿里云大模型服务平台百炼不仅速度快,还确保数据安全,值得信赖。
143549 24
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
|
5天前
|
人工智能 API 网络安全
用DeepSeek,就在阿里云!四种方式助您快速使用 DeepSeek-R1 满血版!更有内部实战指导!
DeepSeek自发布以来,凭借卓越的技术性能和开源策略迅速吸引了全球关注。DeepSeek-R1作为系列中的佼佼者,在多个基准测试中超越现有顶尖模型,展现了强大的推理能力。然而,由于其爆火及受到黑客攻击,官网使用受限,影响用户体验。为解决这一问题,阿里云提供了多种解决方案。
16599 37
|
13天前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
5天前
|
并行计算 PyTorch 算法框架/工具
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
1296 8
|
13天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
3408 117
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
8天前
|
人工智能 自然语言处理 API
DeepSeek全尺寸模型上线阿里云百炼!
阿里云百炼平台近日上线了DeepSeek-V3、DeepSeek-R1及其蒸馏版本等六款全尺寸AI模型,参数量达671B,提供高达100万免费tokens。这些模型在数学、代码、自然语言推理等任务上表现出色,支持灵活调用和经济高效的解决方案,助力开发者和企业加速创新与数字化转型。示例代码展示了如何通过API使用DeepSeek-R1模型进行推理,用户可轻松获取思考过程和最终答案。
|
5天前
|
人工智能 自然语言处理 程序员
如何在通义灵码里用上DeepSeek-V3 和 DeepSeek-R1 满血版671B模型?
除了 AI 程序员的重磅上线外,近期通义灵码能力再升级全新上线模型选择功能,目前已经支持 Qwen2.5、DeepSeek-V3 和 R1系列模型,用户可以在 VSCode 和 JetBrains 里搜索并下载最新通义灵码插件,在输入框里选择模型,即可轻松切换模型。
925 14
|
12天前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
1932 9
阿里云PAI部署DeepSeek及调用
|
9天前
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。
|
12天前
|
缓存 自然语言处理 安全
快速调用 Deepseek API!【超详细教程】
Deepseek 强大的功能,在本教程中,将指导您如何获取 DeepSeek API 密钥,并演示如何使用该密钥调用 DeepSeek API 以进行调试。

热门文章

最新文章