jsoup爬虫发送get、post请求、解析html、获取json

简介: jsoup爬虫发送get、post请求、解析html、获取json

@[TOC]

1 简介

jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据

  • 依赖

          <dependency>
              <groupId>org.jsoup</groupId>
              <artifactId>jsoup</artifactId>
              <version>1.8.3</version>
          </dependency>
    

    官网地址:https://jsoup.org/apidocs/org/jsoup/nodes/Element.html

    2 发送get请求

    2.1设置请求头和cookie

      public static void main(String[] args) throws IOException {
         
          doGet("","");
      }
    
      public static void doGet(String url ,String cookie) throws IOException {
         
          url = "https://www.baidu.com/";
          cookie = "BIDUPSID=56C4FFBF72723876ACBD5B2EA2C75AD8; PSTM=1669362017; BD_UPN=12314753; BAIDUID=F4A7FCF34D70EE033317D31778290FE0:FG=1; ZFY=bMkQzdDwo03XIz75dDC8:AwpdCLhCOaBeWmYRxguNzHQ:C; BAIDUID_BFESS=F4A7FCF34D70EE033317D31778290FE0:FG=1; baikeVisitId=a61698de-af11-451a-8f37-7a0efc41ef7c; __bid_n=184d169de2c1b652e44207; RT=\"z=1&dm=baidu.com&si=7ao2cg4efas&ss=lb63h3q0&sl=3&tt=2hm&bcn=https://fclog.baidu.com/log/weirwood?type=perf&ld=31p&ul=18ia&hd=18ka\"; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; COOKIE_SESSION=439025_2_8_9_12_10_0_0_8_6_0_0_459518_56535_3_0_1670314644_1669853798_1670314641|9#56556_3_1669853666|2; BA_HECTOR=24a484ah0k84258h0h852gj41hovnrf1g; ab_sr=1.0.1_ODA0NTY3OGYzMmViNzMyNGQ1YWU1MzhjZDc1YjM2ZjQ0MjlkZjlhOTI2ZjZjMjk1N2NlODAzNjg5YjRlNDQxNjUzZjQ2M2JkZDYwOWQ2Y2Q1MDI4NzRhNjRkM2RjYmQxOGNiNjZhMTk0YjFhZThmMmE4ZjljN2MyMzJmOWFhOWNlMTk3MmZjNTcyNjNkN2RhYjQ3M2Y1MjNlMjViNjcyOQ==; BDRCVFR[PGnakqNNAQT]=mk3SLVN4HKm; BD_HOME=1; H_PS_PSSID=37856_36560_36920_37835_37841_37871_37765_37797_37760_37853_26350_22160_37881; delPer=0; BD_CK_SAM=1; PSINO=1; H_PS_645EC=35d9T+b4lE+jHT8VNaqK1aghA5CXp4Yf4fqDSH/hRVMSETsPPBQsOh069iA";
          //获取请求连接
          Connection con = Jsoup.connect(url);
          //请求头设置,特别是cookie设置
          con.header("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9");
          con.header("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36");
          con.header("Host","www.baidu.com");
          con.header("Referer","https://www.baidu.com/link?url=Su25Siv6Fi0gZJgDQoDcxse30NxOOLSSqQcNy0k6FU3&wd=&eqid=d8ed532b000af73400000003638feddc");
          con.header("Cookie", cookie);
          //解析请求结果
          Document doc = con.get();
          //获取标题
          System.out.println(doc.title());
          //输出网页
    //        System.out.println(doc.toString());
      }
    

    2.2 设置请求参数

          //获取请求连接
          Connection conn = Jsoup.connect("http://www.cnblogs.com/zhangfei/p/");
          //请求参数设置
          conn.data("page","3");
          //获取请求结果
          Document doc = conn.get();
    

    2.3 获取登录后的cookie、response

    public static String doGetResponse(String url,String cook,String header) throws IOException{
         
          //获取请求连接
          Connection con = Jsoup.connect(url);
          //请求头设置,特别是cookie设置
          con.header("Accept", "text/html, application/xhtml+xml, */*");
          con.header("Content-Type", "application/x-www-form-urlencoded");
          con.header("User-Agent", "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0))");
          con.header("Cookie", cook);
          //发送请求
          Response resp=con.method(Method.GET).execute();
          //获取cookie名称为__bsi的值
          String cookieValue = resp.cookie("__bsi");
          System.out.println("cookie  __bsi值:  "+cookieValue);
          //获取返回cookie所值
          Map<String,String> cookies = resp.cookies();
          System.out.println("所有cookie值:  "+cookies);
          //获取返回头文件值
          String headerValue = resp.header(header);
          System.out.println("头文件"+header+"的值:"+headerValue);
          //获取所有头文件值
          Map<String,String> headersOne =resp.headers();
          System.out.println("所有头文件值:"+headersOne);
          return headerValue; 
      }
    

    3 发送post请求

    3.1 发送post请求返回body

    public static String doPost(String url,Map<String,String> map,String cookie) throws IOException{
         
          //获取请求连接
          Connection con = Jsoup.connect(url);
          //遍历生成参数
          if(map!=null){
         
              for (Entry<String, String> entry : map.entrySet()) {
         
                 //添加参数
                  con.data(entry.getKey(), entry.getValue());
                 }
          }
          //插入cookie(头文件形式)
          con.header("Cookie", cookie);
          Document doc = con.post();
          System.out.println(doc);
          return doc.toString();
      }
    

    3.2 发送post请求获取cookie、response

    //发送请求
          Response resp=con.method(Method.POST).execute();
          //获取cookie名称为__bsi的值
          String cookieValue = resp.cookie(header);
          System.out.println(cookieValue);
    

    3.3 发送json参数,application/json; charset=UTF-8

          //获取请求连接
          Connection con = Jsoup.connect(url);
          //这里用了阿里的fastjson2
          JSONObject jsonObject = new JSONObject();
          jsonObject.put("name","迪迦");
          con.requestBody(jsonObject.toString());
          //解析请求结果,这里忽略contentType检查,不然会默认为application/x-www-form-urlencoded
          Connection.Response response = con.ignoreContentType(true).method(Connection.Method.POST).execute();
    

    4 Document的使用

    4.1 使用DOM的方式来取得

      getElementById(String id)//通过id来获取
      getElementsByTag(String tagName)//通过标签名字来获取
      getElementsByClass(String className)//通过类名来获取
      getElementsByAttribute(String key)//通过属性名字来获取
      getElementsByAttributeValue(String key, String value)//通过指定的属性名字,属性值来获取
      getAllElements()//获取所有元素
    

    4.2 通过类似于css或jQuery的选择器来查找元素

    ```java
    public Elements select(String cssQuery)

//举例
Elements links = doc.select("a[href]"); //带有href属性的a元素
Elements pngs = doc.select("img[src$=.png]");

## 4.3 从Element对象中,取出我们真正需要的内容
```java
Element.text()
//这个方法用来取得一个元素中的文本。
Element.html()或Node.outerHtml()
//这个方法用来取得一个元素中的html内容
Node.attr(String key)
//获得一个属性的值,例如取得超链接<a href="">中href的值

4.4 示例

        //爬取搜索页面的图片、书名、价格、出版社
        //获取请求
        String url = "https://search.jd.com/Search?keyword=java";
        // 解析网页 (Jsou返回的Document就是浏览器的Docuement对象)
        Document document = Jsoup.parse(new URL(url), 30000);
        //获取id,所有在js里面使用的方法在这里都可以使用
        Element element = document.getElementById("J_goodsList");
        //获取所有的li元素
        Elements elements = element.getElementsByTag("li");
        //用来计数
        int c = 0;
        //获取元素中的内容  ,这里的el就是每一个li标签
        for (Element el : elements) {
   
            c++;
            //这里有一点要注意,直接attr使用src是爬不出来的,因为京东使用了img懒加载
            String img = el.getElementsByTag("img").eq(0).attr("data-lazy-img");
            //获取商品的价格,并且只获取第一个text文本内容
            String price = el.getElementsByClass("p-price").eq(0).text();
            String title = el.getElementsByClass("p-name").eq(0).text();
            String shopName = el.getElementsByClass("p-shopnum").eq(0).text();
            //打印爬取结果
            log.info("{}-{}-{}-{}",img,price,title,shopName);
        }
        return "";
目录
相关文章
|
7月前
|
数据采集 存储 调度
BeautifulSoup VS Scrapy:如何选择适合的HTML解析工具?
在Python网页抓取领域,BeautifulSoup和Scrapy是两款备受推崇的工具。BeautifulSoup易于上手、灵活性高,适合初学者和简单任务;Scrapy则是一个高效的爬虫框架,内置请求调度、数据存储等功能,适合大规模数据抓取和复杂逻辑处理。两者结合使用可以发挥各自优势,例如用Scrapy进行请求调度,用BeautifulSoup解析HTML。示例代码展示了如何在Scrapy中设置代理IP、User-Agent和Cookies,并使用BeautifulSoup解析响应内容。选择工具应根据项目需求,简单任务选BeautifulSoup,复杂任务选Scrapy。
129 1
BeautifulSoup VS Scrapy:如何选择适合的HTML解析工具?
|
7月前
|
数据采集 前端开发 API
SurfGen爬虫:解析HTML与提取关键数据
SurfGen爬虫:解析HTML与提取关键数据
|
10月前
|
XML 数据采集 数据格式
Python 爬虫必备杀器,xpath 解析 HTML
【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href=&#39;example.com&#39;]` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
215 7
|
10月前
|
XML JavaScript 前端开发
如何解析一个 HTML 文本
【10月更文挑战第23天】在实际应用中,根据具体的需求和场景,我们可以灵活选择解析方法,并结合其他相关技术来实现高效、准确的 HTML 解析。随着网页技术的不断发展,解析 HTML 文本的方法也在不断更新和完善,
|
10月前
|
JavaScript 前端开发 Java
SpringBoot项目的html页面使用axios进行get post请求
SpringBoot项目的html页面使用axios进行get post请求
160 2
|
10月前
|
JavaScript API 开发工具
<大厂实战场景> ~ Flutter&鸿蒙next 解析后端返回的 HTML 数据详解
本文介绍了如何在 Flutter 中解析后端返回的 HTML 数据。首先解释了 HTML 解析的概念,然后详细介绍了使用 `http` 和 `html` 库的步骤,包括添加依赖、获取 HTML 数据、解析 HTML 内容和在 Flutter UI 中显示解析结果。通过具体的代码示例,展示了如何从 URL 获取 HTML 并提取特定信息,如链接列表。希望本文能帮助你在 Flutter 应用中更好地处理 HTML 数据。
298 1
|
10月前
|
JavaScript 前端开发 Java
SpringBoot项目的html页面使用axios进行get post请求
SpringBoot项目的html页面使用axios进行get post请求
126 0
|
6月前
|
算法 测试技术 C语言
深入理解HTTP/2:nghttp2库源码解析及客户端实现示例
通过解析nghttp2库的源码和实现一个简单的HTTP/2客户端示例,本文详细介绍了HTTP/2的关键特性和nghttp2的核心实现。了解这些内容可以帮助开发者更好地理解HTTP/2协议,提高Web应用的性能和用户体验。对于实际开发中的应用,可以根据需要进一步优化和扩展代码,以满足具体需求。
521 29
|
6月前
|
前端开发 数据安全/隐私保护 CDN
二次元聚合短视频解析去水印系统源码
二次元聚合短视频解析去水印系统源码
166 4
|
6月前
|
JavaScript 算法 前端开发
JS数组操作方法全景图,全网最全构建完整知识网络!js数组操作方法全集(实现筛选转换、随机排序洗牌算法、复杂数据处理统计等情景详解,附大量源码和易错点解析)
这些方法提供了对数组的全面操作,包括搜索、遍历、转换和聚合等。通过分为原地操作方法、非原地操作方法和其他方法便于您理解和记忆,并熟悉他们各自的使用方法与使用范围。详细的案例与进阶使用,方便您理解数组操作的底层原理。链式调用的几个案例,让您玩转数组操作。 只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~

热门文章

最新文章

推荐镜像

更多
  • DNS