高并发场景下的 HttpClient 优化,QPS 大大提升!

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 高并发场景下的 HttpClient 优化,QPS 大大提升!

HttpClient优化思路:


池化

长连接

httpclient和httpget复用

合理的配置参数(最大并发请求数,各种超时时间,重试次数)

异步 6、多读源码

1.背景

我们有个业务,会调用其他部门提供的一个基于http的服务,日调用量在千万级别。使用了httpclient来完成业务。之前因为qps上不去,就看了一下业务代码,并做了一些优化,记录在这里。


先对比前后:优化之前,平均执行时间是250ms;优化之后,平均执行时间是80ms,降低了三分之二的消耗,容器不再动不动就报警线程耗尽了,清爽~


2.分析

项目的原实现比较粗略,就是每次请求时初始化一个httpclient,生成一个httpPost对象,执行,然后从返回结果取出entity,保存成一个字符串,最后显式关闭response和client。我们一点点分析和优化:


2.1 httpclient反复创建开销

httpclient是一个线程安全的类,没有必要由每个线程在每次使用时创建,全局保留一个即可。


2.2 反复创建tcp连接的开销

tcp的三次握手与四次挥手两大裹脚布过程,对于高频次的请求来说,消耗实在太大。试想如果每次请求我们需要花费5ms用于协商过程,那么对于qps为100的单系统,1秒钟我们就要花500ms用于握手和挥手。又不是高级领导,我们程序员就不要搞这么大做派了,改成keep alive方式以实现连接复用!


2.3 重复缓存entity的开销

原本的逻辑里,使用了如下代码:


HttpEntity entity = httpResponse.getEntity();

String response = EntityUtils.toString(entity);

1

这里我们相当于额外复制了一份content到一个字符串里,而原本的httpResponse仍然保留了一份content,需要被consume掉,在高并发且content非常大的情况下,会消耗大量内存。并且,我们需要显式的关闭连接,ugly。


3.实现

按上面的分析,我们主要要做三件事:一是单例的client,二是缓存的保活连接,三是更好的处理返回结果。一就不说了,来说说二。


提到连接缓存,很容易联想到数据库连接池。httpclient4提供了一个PoolingHttpClientConnectionManager 作为连接池。接下来我们通过以下步骤来优化:


3.1 定义一个keep alive strategy

关于keep-alive,本文不展开说明,只提一点,是否使用keep-alive要根据业务情况来定,它并不是灵丹妙药。还有一点,keep-alive和time_wait/close_wait之间也有不少故事。


在本业务场景里,我们相当于有少数固定客户端,长时间极高频次的访问服务器,启用keep-alive非常合适


再多提一嘴,http的keep-alive 和tcp的KEEPALIVE不是一个东西。回到正文,定义一个strategy如下:


ConnectionKeepAliveStrategy myStrategy = new ConnectionKeepAliveStrategy() {

   @Override

   public long getKeepAliveDuration(HttpResponse response, HttpContext context) {

       HeaderElementIterator it = new BasicHeaderElementIterator

           (response.headerIterator(HTTP.CONN_KEEP_ALIVE));

       while (it.hasNext()) {

           HeaderElement he = it.nextElement();

           String param = he.getName();

           String value = he.getValue();

           if (value != null && param.equalsIgnoreCase

              ("timeout")) {

               return Long.parseLong(value) * 1000;

           }

       }

       return 60 * 1000;//如果没有约定,则默认定义时长为60s

   }

};


3.2 配置一个PoolingHttpClientConnectionManager

PoolingHttpClientConnectionManager connectionManager = new PoolingHttpClientConnectionManager();

connectionManager.setMaxTotal(500);

connectionManager.setDefaultMaxPerRoute(50);//例如默认每路由最高50并发,具体依据业务来定

1

2

也可以针对每个路由设置并发数。


3.3 生成httpclient

httpClient = HttpClients.custom()

   .setConnectionManager(connectionManager)

   .setKeepAliveStrategy(kaStrategy)

   .setDefaultRequestConfig(RequestConfig.custom().setStaleConnectionCheckEnabled(true).build())

   .build();


注意:使用setStaleConnectionCheckEnabled方法来逐出已被关闭的链接不被推荐。更好的方式是手动启用一个线程,定时运行closeExpiredConnections 和closeIdleConnections方法,如下所示。


public static class IdleConnectionMonitorThread extends Thread {


   private final HttpClientConnectionManager connMgr;

   private volatile boolean shutdown;


   public IdleConnectionMonitorThread(HttpClientConnectionManager connMgr) {

       super();

       this.connMgr = connMgr;

   }


   @Override

   public void run() {

       try {

           while (!shutdown) {

               synchronized (this) {

                   wait(5000);

                   // Close expired connections

                   connMgr.closeExpiredConnections();

                   // Optionally, close connections

                   // that have been idle longer than 30 sec

                   connMgr.closeIdleConnections(30, TimeUnit.SECONDS);

               }

           }

       } catch (InterruptedException ex) {

           // terminate

       }

   }


   public void shutdown() {

       shutdown = true;

       synchronized (this) {

           notifyAll();

       }

   }


}



3.4 使用httpclient执行method时降低开销

这里要注意的是,不要关闭connection。


一种可行的获取内容的方式类似于,把entity里的东西复制一份:


res = EntityUtils.toString(response.getEntity(),"UTF-8");

EntityUtils.consume(response1.getEntity());

1

但是,更推荐的方式是定义一个ResponseHandler,方便你我他,不再自己catch异常和关闭流。在此我们可以看一下相关的源码:


public <T> T execute(final HttpHost target, final HttpRequest request,

           final ResponseHandler<? extends T> responseHandler, final HttpContext context)

           throws IOException, ClientProtocolException {

       Args.notNull(responseHandler, "Response handler");


       final HttpResponse response = execute(target, request, context);


       final T result;

       try {

           result = responseHandler.handleResponse(response);

       } catch (final Exception t) {

           final HttpEntity entity = response.getEntity();

           try {

               EntityUtils.consume(entity);

           } catch (final Exception t2) {

               // Log this exception. The original exception is more

               // important and will be thrown to the caller.

               this.log.warn("Error consuming content after an exception.", t2);

           }

           if (t instanceof RuntimeException) {

               throw (RuntimeException) t;

           }

           if (t instanceof IOException) {

               throw (IOException) t;

           }

           throw new UndeclaredThrowableException(t);

       }


       // Handling the response was successful. Ensure that the content has

       // been fully consumed.

       final HttpEntity entity = response.getEntity();

       EntityUtils.consume(entity);//看这里看这里

       return result;

   }


可以看到,如果我们使用resultHandler执行execute方法,会最终自动调用consume方法,而这个consume方法如下所示:


public static void consume(final HttpEntity entity) throws IOException {

       if (entity == null) {

           return;

       }

       if (entity.isStreaming()) {

           final InputStream instream = entity.getContent();

           if (instream != null) {

               instream.close();

           }

       }

   }

可以看到最终它关闭了输入流。


4.其他

通过以上步骤,基本就完成了一个支持高并发的httpclient的写法,下面是一些额外的配置和提醒:


4.1 httpclient的一些超时配置

CONNECTION_TIMEOUT是连接超时时间,SO_TIMEOUT是socket超时时间,这两者是不同的。连接超时时间是发起请求前的等待时间;socket超时时间是等待数据的超时时间。


HttpParams params = new BasicHttpParams();

//设置连接超时时间

Integer CONNECTION_TIMEOUT = 2 * 1000; //设置请求超时2秒钟 根据业务调整

Integer SO_TIMEOUT = 2 * 1000; //设置等待数据超时时间2秒钟 根据业务调整


//定义了当从ClientConnectionManager中检索ManagedClientConnection实例时使用的毫秒级的超时时间

//这个参数期望得到一个java.lang.Long类型的值。如果这个参数没有被设置,默认等于CONNECTION_TIMEOUT,因此一定要设置。

Long CONN_MANAGER_TIMEOUT = 500L; //在httpclient4.2.3中我记得它被改成了一个对象导致直接用long会报错,后来又改回来了


params.setIntParameter(CoreConnectionPNames.CONNECTION_TIMEOUT, CONNECTION_TIMEOUT);

params.setIntParameter(CoreConnectionPNames.SO_TIMEOUT, SO_TIMEOUT);

params.setLongParameter(ClientPNames.CONN_MANAGER_TIMEOUT, CONN_MANAGER_TIMEOUT);

//在提交请求之前 测试连接是否可用

params.setBooleanParameter(CoreConnectionPNames.STALE_CONNECTION_CHECK, true);


//另外设置http client的重试次数,默认是3次;当前是禁用掉(如果项目量不到,这个默认即可)

httpClient.setHttpRequestRetryHandler(new DefaultHttpRequestRetryHandler(0, false));


4.2 如果配置了nginx的话,nginx也要设置面向两端的keep-alive

现在的业务里,没有nginx的情况反而比较稀少。nginx默认和client端打开长连接而和server端使用短链接。注意client端的keepalive_timeout和keepalive_requests参数,以及upstream端的keepalive参数设置,这三个参数的意义在此也不再赘述。


以上就是我的全部设置。通过这些设置,成功地将原本每次请求250ms的耗时降低到了80左右,效果显著。


JAR包如下:


<!-- httpclient -->

<dependency>

   <groupId>org.apache.httpcomponents</groupId>

   <artifactId>httpclient</artifactId>

   <version>4.5.6</version>

</dependency>


代码如下:


//Basic认证

private static final CredentialsProvider credsProvider = new BasicCredentialsProvider();

//httpClient

private static final CloseableHttpClient httpclient;

//httpGet方法

private static final HttpGet httpget;

//

private static final RequestConfig reqestConfig;

//响应处理器

private static final ResponseHandler<String> responseHandler;

//jackson解析工具

private static final ObjectMapper mapper = new ObjectMapper();

static {

   System.setProperty("http.maxConnections","50");

   System.setProperty("http.keepAlive", "true");

   //设置basic校验

   credsProvider.setCredentials(

           new AuthScope(AuthScope.ANY_HOST, AuthScope.ANY_PORT, AuthScope.ANY_REALM),

           new UsernamePasswordCredentials("", ""));

   //创建http客户端

   httpclient = HttpClients.custom()

           .useSystemProperties()

           .setRetryHandler(new DefaultHttpRequestRetryHandler(3,true))

           .setDefaultCredentialsProvider(credsProvider)

           .build();

   //初始化httpGet

   httpget = new HttpGet();

   //初始化HTTP请求配置

   reqestConfig = RequestConfig.custom()

           .setContentCompressionEnabled(true)

           .setSocketTimeout(100)

           .setAuthenticationEnabled(true)

           .setConnectionRequestTimeout(100)

           .setConnectTimeout(100).build();

   httpget.setConfig(reqestConfig);

   //初始化response解析器

   responseHandler = new BasicResponseHandler();

}

/*

* 功能:返回响应

* @author zhangdaquan

* @date 2019/1/3 上午11:19

* @param [url]

* @return org.apache.http.client.methods.CloseableHttpResponse

* @exception

*/

public static String getResponse(String url) throws IOException {

   HttpGet get = new HttpGet(url);

   String response = httpclient.execute(get,responseHandler);

   return response;

}


/*

* 功能:发送http请求,并用net.sf.json工具解析

* @author zhangdaquan

* @date 2018/8/15 下午2:21

* @param [url]

* @return org.json.JSONObject

* @exception

*/

public static JSONObject getUrl(String url) throws Exception{

   try {

       httpget.setURI(URI.create(url));

       String response = httpclient.execute(httpget,responseHandler);

       JSONObject json = JSONObject.fromObject(response);

       return json;

   } catch (IOException e) {

       e.printStackTrace();

   }

   return null;

}

/*

* 功能:发送http请求,并用jackson工具解析

* @author zhangdaquan

* @date 2018/12/24 下午2:58

* @param [url]

* @return com.fasterxml.jackson.databind.JsonNode

* @exception

*/

public static JsonNode getUrl2(String url){

   try {

       httpget.setURI(URI.create(url));

       String response = httpclient.execute(httpget,responseHandler);

       JsonNode node = mapper.readTree(response);

       return node;

   } catch (IOException e) {

       e.printStackTrace();

   }

   return null;

}

/*

* 功能:发送http请求,并用fastjson工具解析

* @author zhangdaquan

* @date 2018/12/24 下午2:58

* @param [url]

* @return com.fasterxml.jackson.databind.JsonNode

* @exception

*/

public static com.alibaba.fastjson.JSONObject getUrl3(String url){

   try {

       httpget.setURI(URI.create(url));

       String response = httpclient.execute(httpget,responseHandler);

       com.alibaba.fastjson.JSONObject jsonObject = com.alibaba.fastjson.JSONObject.parseObject(response);

       return jsonObject;

   } catch (IOException e) {

       e.printStackTrace();

   }

   return null;

}


原文:blog.csdn.net/u010285974/article/details/85696239

————————————————

版权声明:本文为CSDN博主「Java技术栈」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/youanyyou/article/details/130551809

相关文章
|
1月前
|
存储 监控 固态存储
在高并发环境下,如何优化 WAL 的写入性能?
在高并发环境下,如何优化 WAL 的写入性能?
|
20天前
|
缓存 监控 Java
Java 线程池在高并发场景下有哪些优势和潜在问题?
Java 线程池在高并发场景下有哪些优势和潜在问题?
|
26天前
|
NoSQL Java Redis
京东双十一高并发场景下的分布式锁性能优化
【10月更文挑战第20天】在电商领域,尤其是像京东双十一这样的大促活动,系统需要处理极高的并发请求。这些请求往往涉及库存的查询和更新,如果处理不当,很容易出现库存超卖、数据不一致等问题。
44 1
|
1月前
|
存储 缓存 NoSQL
大数据-38 Redis 高并发下的分布式缓存 Redis简介 缓存场景 读写模式 旁路模式 穿透模式 缓存模式 基本概念等
大数据-38 Redis 高并发下的分布式缓存 Redis简介 缓存场景 读写模式 旁路模式 穿透模式 缓存模式 基本概念等
57 4
|
1月前
|
Java Linux
【网络】高并发场景处理:线程池和IO多路复用
【网络】高并发场景处理:线程池和IO多路复用
42 2
|
1月前
|
缓存 监控 负载均衡
nginx相关配置及高并发优化
Nginx的高并发优化是一个综合性的过程,需要根据具体的业务场景和硬件资源量身定制。以上配置只是基础,实际应用中还需根据服务器监控数据进行持续调整和优化。例如,利用工具如ab(Apache Benchmarks)进行压力测试,监控CPU、内存、网络和磁盘I/O等资源使用情况,确保配置的有效性和服务的稳定性。
107 0
|
1月前
|
Java Linux 应用服务中间件
【编程进阶知识】高并发场景下Bio与Nio的比较及原理示意图
本文介绍了在Linux系统上使用Tomcat部署Java应用程序时,BIO(阻塞I/O)和NIO(非阻塞I/O)在网络编程中的实现和性能差异。BIO采用传统的线程模型,每个连接请求都会创建一个新线程进行处理,导致在高并发场景下存在严重的性能瓶颈,如阻塞等待和线程创建开销大等问题。而NIO则通过事件驱动机制,利用事件注册、事件轮询器和事件通知,实现了更高效的连接管理和数据传输,避免了阻塞和多级数据复制,显著提升了系统的并发处理能力。
55 0
|
2月前
|
缓存 分布式计算 Hadoop
HBase在高并发场景下的性能分析
HBase在高并发场景下的性能受到多方面因素的影响,包括数据模型设计、集群配置、读写策略及性能调优等。合理的设计和配置可以显著提高HBase在高并发环境下的性能。不过,需要注意的是,由于项目和业务需求的不同,性能优化并没有一劳永逸的解决方案,需要根据实际情况进行针对性的调整和优化。
92 8
|
1月前
|
消息中间件 前端开发 Java
java高并发场景RabbitMQ的使用
java高并发场景RabbitMQ的使用
81 0
|
3月前
|
存储 缓存 监控
函数计算产品使用问题之调用sd生图时,怎么保证高并发场景正常运行
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。