Python爬虫Xpath库详解#4

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云解析DNS,个人版 1个月
全局流量管理 GTM,标准版 1个月
简介: XPath详解,涉及获取所有节点,子节点,父节点,属性匹配,文本获取,属性获取,按序选择等。【2月更文挑战第13天】

前言

前面,我们实现了一个最基本的爬虫,但提取页面信息时使用的是正则表达式,这还是比较烦琐,而且万一有地方写错了,可能导致匹配失败,所以使用正则表达式提取页面信息多多少少还是有些不方便。

对于网页的节点来说,它可以定义 id、class 或其他属性。而且节点之间还有层次关系,在网页中可以通过 XPath 或 CSS 选择器来定位一个或多个节点。那么,在页面解析时,利用 XPath 或 CSS 选择器来提取某个节点,然后再调用相应方法获取它的正文内容或者属性,不就可以提取我们想要的任意信息了吗?

在 Python 中,怎样实现这个操作呢?不用担心,这种解析库已经非常多,其中比较强大的库有 lxml、Beautiful Soup、pyquery 等,本章就来介绍这 3 个解析库的用法。有了它们,我们就不用再为正则表达式发愁,而且解析效率也会大大提高。

使用 XPath

XPath,全称 XML Path Language,即 XML 路径语言,它是一门在 XML 文档中查找信息的语言。它最初是用来搜寻 XML 文档的,但是它同样适用于 HTML 文档的搜索。

所以在做爬虫时,我们完全可以使用 XPath 来做相应的信息抽取。本节中,我们就来介绍 XPath 的基本用法。

1. XPath 概览

XPath 的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供了超过 100 个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎所有我们想要定位的节点,都可以用 XPath 来选择。

XPath 于 1999 年 11 月 16 日成为 W3C 标准,它被设计为供 XSLT、XPointer 以及其他 XML 解析软件使用,更多的文档可以访问其官方网站:Cover page | xpath | W3C standards and drafts | W3C

2. XPath 常用规则

表 4-1 列举了 XPath 的几个常用规则。

表 4-1 XPath 常用规则

表 达 式 描  述
nodename 选取此节点的所有子节点
/ 从当前节点选取直接子节点
// 从当前节点选取子孙节点
. 选取当前节点
.. 选取当前节点的父节点
@ 选取属性

这里列出了 XPath 的常用匹配规则,示例如下:

//title[@lang='eng']

这就是一个 XPath 规则,它代表选择所有名称为 title,同时属性 lang 的值为 eng 的节点。

后面会通过 Python 的 lxml 库,利用 XPath 进行 HTML 的解析。

3. 准备工作

使用之前,首先要确保安装好 lxml 库,若没有安装,可以参考第 1 章的安装过程。

4. 实例引入

现在通过实例来感受一下使用 XPath 来对网页进行解析的过程,相关代码如下:

from lxml import etree

text = '''

   

           

  • first item
  •        

  • second item
  •        

  • third item
  •        

  • fourth item
  •        

  • fifth item
  •    

     

    '''

    html = etree.HTML(text)

    result = etree.tostring(html)

    print(result.decode('utf-8'))

    这里首先导入 lxml 库的 etree 模块,然后声明了一段 HTML 文本,调用 HTML 类进行初始化,这样就成功构造了一个 XPath 解析对象。这里需要注意的是,HTML 文本中的最后一个 li 节点是没有闭合的,但是 etree 模块可以自动修正 HTML 文本。

    这里我们调用 tostring 方法即可输出修正后的 HTML 代码,但是结果是 bytes 类型。这里利用 decode 方法将其转成 str 类型,结果如下:

       

             

    • first item
    •        

    • second item
    •        

    • third item
    •        

    • fourth item
    •        

    • fifth item
    •    

       

      可以看到,经过处理之后,li 节点标签被补全,并且还自动添加了 body、html 节点。

      另外,也可以直接读取文本文件进行解析,示例如下:

      from lxml import etree


      html = etree.parse('./test.html', etree.HTMLParser())

      result = etree.tostring(html)

      print(result.decode('utf-8'))

      其中 test.html 的内容就是上面例子中的 HTML 代码,内容如下:

         

               

      • first item
      •        

      • second item
      •        

      • third item
      •        

      • fourth item
      •        

      • fifth item
      •    

         

        这次的输出结果略有不同,多了一个 DOCTYPE 的声明,不过对解析无任何影响,结果如下:

           

                 

        • first item
        •        

        • second item
        •        

        • third item
        •        

        • fourth item
        •        

        • fifth item
        •    

           

          5. 所有节点

          我们一般会用 // 开头的 XPath 规则来选取所有符合要求的节点。这里以前面的 HTML 文本为例,如果要选取所有节点,可以这样实现:

          from lxml import etree

          html = etree.parse('./test.html', etree.HTMLParser())

          result = html.xpath('//*')

          print(result)

          运行结果如下:

          [, , , , , , , , , , , , , ]

          这里使用 * 代表匹配所有节点,也就是整个 HTML 文本中的所有节点都会被获取。可以看到,返回形式是一个列表,每个元素是 Element 类型,其后跟了节点的名称,如 html、body、div、ul、li、a 等,所有节点都包含在列表中了。

          当然,此处匹配也可以指定节点名称。如果想获取所有 li 节点,示例如下:

          from lxml import etree
          html = etree.parse('./test.html', etree.HTMLParser())
          result = html.xpath('//li')
          print(result)
          print(result[0])

          这里要选取所有 li 节点,可以使用 //,然后直接加上节点名称即可,调用时直接使用 xpath 方法即可。

          运行结果:

          [, , , , ]

          这里可以看到提取结果是一个列表形式,其中每个元素都是一个 Element 对象。如果要取出其中一个对象,可以直接用中括号加索引,如 [0]。

          6. 子节点

          我们通过 / 或 // 即可查找元素的子节点或子孙节点。假如现在想选择 li 节点的所有直接 a 子节点,可以这样实现:

          from lxml import etree
          html = etree.parse('./test.html', etree.HTMLParser())
          result = html.xpath('//li/a')
          print(result)

          这里通过追加 /a 即选择了所有 li 节点的所有直接 a 子节点。因为 //li 用于选中所有 li 节点,/a 用于选中 li 节点的所有直接子节点 a,二者组合在一起即获取所有 li 节点的所有直接 a 子节点。

          运行结果如下:

          [, , , , ]

          此处的 / 用于选取直接子节点,如果要获取所有子孙节点,就可以使用 //。例如,要获取 ul 节点下的所有子孙 a 节点,可以这样实现:

          from lxml import etree
          html = etree.parse('./test.html', etree.HTMLParser())
          result = html.xpath('//ul//a')
          print(result)

          运行结果是相同的。

          但是如果这里用 //ul/a,就无法获取任何结果了。因为 / 用于获取直接子节点,而在 ul 节点下没有直接的 a 子节点,只有 li 节点,所以无法获取任何匹配结果,代码如下:

          from lxml import etree
          html = etree.parse('./test.html', etree.HTMLParser())
          result = html.xpath('//ul/a')
          print(result)

          运行结果如下:

          []

          因此,这里我们要注意 / 和 // 的区别,其中 / 用于获取直接子节点,// 用于获取子孙节点。

          7. 父节点

          我们知道通过连续的 / 或 // 可以查找子节点或子孙节点,那么假如我们知道了子节点,怎样来查找父节点呢?这可以用.. 来实现。

          比如,现在首先选中 href 属性为 link4.html 的 a 节点,然后再获取其父节点,然后再获取其 class 属性,相关代码如下:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//a[@href="link4.html"]/../@class')  
          print(result)

          运行结果如下:

          ['item-1']

          检查一下结果发现,这正是我们获取的目标 li 节点的 class。

          同时,我们也可以通过 parent:: 来获取父节点,代码如下:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//a[@href="link4.html"]/parent::*/@class')  
          print(result)

          8. 属性匹配

          在选取的时候,我们还可以用 @符号进行属性过滤。比如,这里如果要选取 class 为 item-0 的 li 节点,可以这样实现:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//li[@class="item-0"]')  
          print(result)

          这里我们通过加入 [@class="item-0"],限制了节点的 class 属性为 item-0,而 HTML 文本中符合条件的 li 节点有两个,所以结果应该返回两个匹配到的元素。结果如下:

          ,

          可见,匹配结果正是两个,至于是不是那正确的两个,后面再验证。

          9. 文本获取

          我们用 XPath 中的 text 方法获取节点中的文本,接下来尝试获取前面 li 节点中的文本,相关代码如下:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//li[@class="item-0"]/text()')  
          print(result)

          运行结果如下:

          ['\n     ']

          奇怪的是,我们并没有获取到任何文本,只获取到了一个换行符,这是为什么呢?因为 XPath 中 text 方法前面是 /,而此处 / 的含义是选取直接子节点,很明显 li 的直接子节点都是 a 节点,文本都是在 a 节点内部的,所以这里匹配到的结果就是被修正的 li 节点内部的换行符,因为自动修正的 li 节点的尾标签换行了。

          即选中的是这两个节点:

        • first item
        • fifth item
        • 其中一个节点因为自动修正,li 节点的尾标签添加的时候换行了,所以提取文本得到的唯一结果就是 li 节点的尾标签和 a 节点的尾标签之间的换行符。

          因此,如果想获取 li 节点内部的文本,就有两种方式,一种是先选取 a 节点再获取文本,另一种就是使用 //。接下来,我们来看下二者的区别。

          首先,选取到 a 节点再获取文本,代码如下:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//li[@class="item-0"]/a/text()')  
          print(result)

          运行结果如下:

          ['first item', 'fifth item']

          可以看到,这里的返回值是两个,内容都是属性为 item-0 的 li 节点的文本,这也印证了前面属性匹配的结果是正确的。

          这里我们是逐层选取的,先选取了 li 节点,又利用 / 选取了其直接子节点 a,然后再选取其文本,得到的结果恰好是符合我们预期的两个结果。

          再来看下用另一种方式(即使用 //)选取的结果,代码如下:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//li[@class="item-0"]//text()')  
          print(result)

          运行结果如下:

          ['first item', 'fifth item', '\n     ']

          不出所料,这里的返回结果是 3 个。可想而知,这里是选取所有子孙节点的文本,其中前两个就是 li 的子节点 a 节点内部的文本,另外一个就是最后一个 li 节点内部的文本,即换行符。

          所以说,如果要想获取子孙节点内部的所有文本,可以直接用 // 加 text 方法的方式,这样可以保证获取到最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果想获取某些特定子孙节点下的所有文本,可以先选取到特定的子孙节点,然后再调用 text 方法方法获取其内部文本,这样可以保证获取的结果是整洁的。

          10. 属性获取

          我们知道用 text 方法可以获取节点内部文本,那么节点属性该怎样获取呢?其实还是用 @符号就可以。例如,我们想获取所有 li 节点下所有 a 节点的 href 属性,代码如下:

          from lxml import etree  
          html = etree.parse('./test.html', etree.HTMLParser())  
          result = html.xpath('//li/a/@href')  
          print(result)

          ```这里我们通过 @href 即可获取节点的 href 属性。注意,此处和属性匹配的方法不同,属性匹配是中括号加属性名和值来限定某个属性,如 [@href="link1.html"],而此处的 @href 指的是获取节点的某个属性,二者需要做好区分。


          运行结果如下:

          ['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']

          可以看到,我们成功获取了所有 li 节点下 a 节点的 href 属性,它们以列表形式返回。

          11. 属性多值匹配

          有时候,某些节点的某个属性可能有多个值,例如:

          from lxml import etree  
          text = '''  
          <li class="li li-first"><a href="link.html">first item</a></li> 
          '''  
          html = etree.HTML(text)  
          result = html.xpath('//li[@class="li"]/a/text()')  
          print(result)

          这里 HTML 文本中 li 节点的 class 属性有两个值 li 和 li-first,此时如果还想用之前的属性匹配获取,就无法匹配了,此时的运行结果如下:

          []

          这时就需要用 contains 方法了,代码可以改写如下:

          from lxml import etree  
          text = '''  
          <li class="li li-first"><a href="link.html">first item</a></li>  
          '''  
          html = etree.HTML(text)  
          result = html.xpath('//li[contains(@class, "li")]/a/text()')  
          print(result)

          这样通过 contains 方法,第一个参数传入属性名称,第二个参数传入属性值,只要此属性包含所传入的属性值,就可以完成匹配了。

          此时运行结果如下:

          ['first item']

          此种方式在某个节点的某个属性有多个值时经常用到,如某个节点的 class 属性通常有多个。

          12. 多属性匹配

          另外,我们可能还遇到一种情况,那就是根据多个属性确定一个节点,这时就需要同时匹配多个属性。此时可以使用运算符 and 来连接,示例如下:

          from lxml import etree  
          text = '''  
          <li class="li li-first" name="item"><a href="link.html">first item</a></li>
          '''  
          html = etree.HTML(text)  
          result = html.xpath('//li[contains(@class, "li") and @name="item"]/a/text()')  
          print(result)

          这里的 li 节点又增加了一个属性 name。要确定这个节点,需要同时根据 class 和 name 属性来选择,一个条件是 class 属性里面包含 li 字符串,另一个条件是 name 属性为 item 字符串,二者需要同时满足,需要用 and 操作符相连,相连之后置于中括号内进行条件筛选。运行结果如下:

          ['first item']

          这里的 and 其实是 XPath 中的运算符。另外,还有很多运算符,如 or、mod 等,在此总结为表 4-2。

          表 4-2 运算符及其介绍

          运算符 描  述 实  例 返 回 值
          or age=19 or age=20 如果 age 是 19,则返回 true。如果 age 是 21,则返回 false
          and age>19 and age<21 如果 age 是 20,则返回 true。如果 age 是 18,则返回 false
          mod 计算除法的余数 5 mod 2 1
          计算两个节点集 //book
          + 加法 6 + 4 10
          - 减法 6 - 4 2
          * 乘法 6 * 4 24
          div 除法 8 div 4 2
          = 等于 age=19 如果 age 是 19,则返回 true。如果 age 是 20,则返回 false
          != 不等于 age!=19 如果 age 是 18,则返回 true。如果 age 是 19,则返回 false
          < 小于 age<19 如果 age 是 18,则返回 true。如果 age 是 19,则返回 false
          <= 小于或等于 age<=19 如果 age 是 19,则返回 true。如果 age 是 20,则返回 false
          > 大于 age>19 如果 age 是 20,则返回 true。如果 age 是 19,则返回 false
          >= 大于或等于 age>=19 如果 age 是 19,则返回 true。如果 age 是 18,则返回 false

          此表参考来源:XPath 运算符

          13. 按序选择

          有时候,我们在选择的时候某些属性可能同时匹配了多个节点,但是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?

          这时可以利用中括号传入索引的方法获取特定次序的节点,示例如下:

          from lxml import etree
          text = '''
          <div>
              <ul>
                   <li class="item-0"><a href="link1.html">first item</a></li>
                   <li class="item-1"><a href="link2.html">second item</a></li>
                   <li class="item-inactive"><a href="link3.html">third item</a></li>
                   <li class="item-1"><a href="link4.html">fourth item</a></li>
                   <li class="item-0"><a href="link5.html">fifth item</a>
               </ul>
           </div>
          '''
          html = etree.HTML(text)
          result = html.xpath('//li[1]/a/text()')
          print(result)
          result = html.xpath('//li[last()]/a/text()')
          print(result)
          result = html.xpath('//li[position()<3]/a/text()')
          print(result)
          result = html.xpath('//li[last()-2]/a/text()')
          print(result)

          第一次选择时,我们选取了第一个 li 节点,中括号中传入数字 1 即可。注意,这里和代码中不同,序号是以 1 开头的,不是以 0 开头。

          第二次选择时,我们选取了最后一个 li 节点,中括号中调用 last 方法即可,返回的便是最后一个 li 节点。

          第三次选择时,我们选取了位置小于 3 的 li 节点,也就是位置序号为 1 和 2 的节点,得到的结果就是前两个 li 节点。

          第四次选择时,我们选取了倒数第三个 li 节点,中括号中调用 last 方法再减去 2 即可。因为 last 方法代表最后一个,在此基础减 2 就是倒数第三个。

          运行结果如下:

          ['first item']

          ['fifth item']

          ['first item', 'second item']

          ['third item']

          这里我们使用了 last、position 等方法。在 XPath 中,提供了 100 多个方法,包括存取、数值、字符串、逻辑、节点、序列等处理功能,它们的具体作用可以参考:XPath、XQuery 以及 XSLT 函数

          14. 节点轴选择

          XPath 提供了很多节点轴选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等,示例如下:

          from lxml import etree
          text = '''
          <div>
              <ul>
                   <li class="item-0"><a href="link1.html"><span>first item</span></a></li>
                   <li class="item-1"><a href="link2.html">second item</a></li>
                   <li class="item-inactive"><a href="link3.html">third item</a></li>
                   <li class="item-1"><a href="link4.html">fourth item</a></li>
                   <li class="item-0"><a href="link5.html">fifth item</a>
               </ul>
           </div>
          '''
          html = etree.HTML(text)
          result = html.xpath('//li[1]/ancestor::*')
          print(result)
          result = html.xpath('//li[1]/ancestor::div')
          print(result)
          result = html.xpath('//li[1]/attribute::*')
          print(result)
          result = html.xpath('//li[1]/child::a[@href="link1.html"]')
          print(result)
          result = html.xpath('//li[1]/descendant::span')
          print(result)
          result = html.xpath('//li[1]/following::*[2]')
          print(result)
          result = html.xpath('//li[1]/following-sibling::*')
          print(result)

          运行结果如下:

          [, , , ]

          []

          ['item-0']

          []

          []

          []

          [, , , ]

          第一次选择时,我们调用了 ancestor 轴,可以获取所有祖先节点。其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用 *,表示匹配所有节点,因此返回结果是第一个 li 节点的所有祖先节点,包括 html、body、div 和 ul。

          第二次选择时,我们又加了限定条件,这次在冒号后面加了 div,这样得到的结果就只有 div 这个祖先节点了。

          第三次选择时,我们调用了 attribute 轴,可以获取所有属性值,其后跟的选择器还是 *,这代表获取节点的所有属性,返回值就是 li 节点的所有属性值。

          第四次选择时,我们调用了 child 轴,可以获取所有直接子节点。这里我们又加了限定条件,选取 href 属性为 link1.html 的 a 节点。

          第五次选择时,我们调用了 descendant 轴,可以获取所有子孙节点。这里我们又加了限定条件获取 span 节点,所以返回的结果只包含 span 节点而不包含 a 节点。

          第六次选择时,我们调用了 following 轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是 * 匹配,但又加了索引选择,所以只获取了第二个后续节点。

          第七次选择时,我们调用了 following-sibling 轴,可以获取当前节点之后的所有同级节点。这里我们使用 * 匹配,所以获取了所有后续同级节点。

          以上是 XPath 轴的简单用法,更多轴的用法可以参考:XPath Axes(轴)

          15. 结语

          到现在为止,我们基本上把可能用到的 XPath 选择器介绍完了。XPath 功能非常强大,内置函数非常多,熟练使用之后,可以大大提升 HTML 信息的提取效率。

          如果想查询更多 XPath 的用法,可以查看:XPath 教程

          如果想查询更多 Python lxml 库的用法,可以查看 lxml - Processing XML and HTML with Python


          如果本文对你有帮助,不要忘记点赞,收藏+关注!你的支持是我最大的动力

          相关文章
          |
          2天前
          |
          数据采集 人工智能 数据可视化
          Python selenium爬虫被检测到,该怎么破?
          Python selenium爬虫被检测到,该怎么破?
          WK
          |
          2天前
          |
          机器学习/深度学习 数据采集 算法框架/工具
          Python那些公认好用的库
          Python拥有丰富的库,适用于数据科学、机器学习、网络爬虫及Web开发等领域。例如,NumPy和Pandas用于数据处理,Matplotlib和Dash用于数据可视化,Scikit-learn、TensorFlow和PyTorch则助力机器学习。此外,Pillow和OpenCV专长于图像处理,Pydub处理音频,Scrapy和Beautiful Soup则擅长网络爬虫工作
          WK
          14 4
          |
          2天前
          |
          机器学习/深度学习 JSON 数据挖掘
          什么是 Python 库?
          【8月更文挑战第29天】
          13 4
          |
          1天前
          |
          机器学习/深度学习 存储 算法
          NumPy 与 SciPy:Python 科学计算库的比较
          【8月更文挑战第30天】
          11 1
          |
          1天前
          |
          机器学习/深度学习 数据可视化 数据挖掘
          Python中的数据可视化:使用Matplotlib库绘制图表
          【8月更文挑战第30天】数据可视化是数据科学和分析的关键组成部分,它帮助我们以直观的方式理解数据。在Python中,Matplotlib是一个广泛使用的绘图库,提供了丰富的功能来创建各种类型的图表。本文将介绍如何使用Matplotlib库进行数据可视化,包括安装、基本概念、绘制不同类型的图表以及自定义图表样式。我们将通过实际代码示例来演示如何应用这些知识,使读者能够轻松地在自己的项目中实现数据可视化。
          |
          2天前
          |
          数据采集 程序员 测试技术
          比 requests 更强大 Python 库,让你的爬虫效率提高一倍!
          比 requests 更强大 Python 库,让你的爬虫效率提高一倍!
          |
          19天前
          |
          数据采集 存储 JSON
          Python爬虫开发:BeautifulSoup、Scrapy入门
          在现代网络开发中,网络爬虫是一个非常重要的工具。它可以自动化地从网页中提取数据,并且可以用于各种用途,如数据收集、信息聚合和内容监控等。在Python中,有多个库可以用于爬虫开发,其中BeautifulSoup和Scrapy是两个非常流行的选择。本篇文章将详细介绍这两个库,并提供一个综合详细的例子,展示如何使用它们来进行网页数据爬取。
          |
          14天前
          |
          数据采集 存储 中间件
          Python进行网络爬虫:Scrapy框架的实践
          【8月更文挑战第17天】网络爬虫是自动化程序,用于从互联网收集信息。Python凭借其丰富的库和框架成为构建爬虫的首选语言。Scrapy作为一款流行的开源框架,简化了爬虫开发过程。本文介绍如何使用Python和Scrapy构建简单爬虫:首先安装Scrapy,接着创建新项目并定义爬虫,指定起始URL和解析逻辑。运行爬虫可将数据保存为JSON文件或存储到数据库。此外,Scrapy支持高级功能如中间件定制、分布式爬取、动态页面渲染等。在实践中需遵循最佳规范,如尊重robots.txt协议、合理设置爬取速度等。通过本文,读者将掌握Scrapy基础并了解如何高效地进行网络数据采集。
          62 6
          |
          4月前
          |
          数据采集 存储 中间件
          Python高效爬虫——scrapy介绍与使用
          Scrapy是一个快速且高效的网页抓取框架,用于抓取网站并从中提取结构化数据。它可用于多种用途,从数据挖掘到监控和自动化测试。 相比于自己通过requests等模块开发爬虫,scrapy能极大的提高开发效率,包括且不限于以下原因: 1. 它是一个异步框架,并且能通过配置调节并发量,还可以针对域名或ip进行精准控制 2. 内置了xpath等提取器,方便提取结构化数据 3. 有爬虫中间件和下载中间件,可以轻松地添加、修改或删除请求和响应的处理逻辑,从而增强了框架的可扩展性 4. 通过管道方式存储数据,更加方便快捷的开发各种数据储存方式
          |
          4月前
          |
          数据采集 存储 JSON
          Python爬虫面试:requests、BeautifulSoup与Scrapy详解
          【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
          77 0
          下一篇
          云函数