HTML解析之BeautifulSoup

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: HTML解析之BeautifulSoup

BeautifulSoup4简称bs4,是爬虫必学的三方库,它是一个HTML/XML的解析器,主要是解析和提取 HTML/XML 数据,Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,而lxml(使用Xpath语法解析网页数据)是局部遍历,因此时间和内存开销都会大很多,所以性能要低于lxml。

官方文档:https://beautifulsoup.readthedocs.io/zh_CN/latest/

pip 安装:

pip install bs4`或者`pip install beautifulsoup4

BeautifulSoup使用语法:

from bs4 import BeautifulSoup
# 实例化一个BeautifulSoup对象,加载页面源码
soup = BeautifulSoup(要解析的文本, "解析器")
# 可以加载互联网上的页面到BeautifulSoup对象中。
soup = BeautifulSoup(res.text, "lxml")
# 可以加载本地html文档或者互联网上的页面到BeautifulSoup对象中。
fp = open('./demo.html','r',encoding='utf-8')
soup = BeautifulSoup(fp, "lxml")
# 调用对象中的相关属性和方法进行标签定位和数据提取
print(soup.p)

常用的解析器

img

推荐使用lxml作为解析器,因为效率更高。

需要安装:pip install lxml

常用的属性和方法

「首先,定义一个html文档字符串:」

html_doc = """
<html><head><title>The Dormouse's story</title></head>
    <body>
<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister1" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""

「不知道文档html的格式和组织,使用prettify()按照网页格式输出」

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, "lxml")
print(soup.prettify()) 

img

访问标签tag

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, "lxml")
print(type(soup.p))
print(soup.p) # 查找p标签,找到第一个
print(soup.title) # 查找title标签
print(soup.title.name) # 输出title标签的名字
print(soup.body.a) # body标签下的a标签
print(soup.a.parent.name) # a标签父节点的标签名字
输出:
# <class 'bs4.element.Tag'>
# <p class="title"><b>The Dormouse's story</b></p>
# <title>The Dormouse's story</title>
# title
# <a class="sister1" href="http://example.com/elsie" id="link1">Elsie</a>
# p

获取标签属性值

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, "lxml")
print(soup.p['class']) # 查找p标签中class内容
#  ['title']
print(soup.a.attrs) # 返回一个字典,获取标签所有属性
# # {'href': 'http://example.com/elsie', 'class': ['sister1'], 'id': 'link1'}
print(soup.a.attrs['href']) # 获取标签指定属性
#  http://example.com/elsie

搜索遍历文档

有时候根据文档结构不能直接获取标签,则可以使用find()和find_all()方法获取。

「find(name,attrs,...)」:查找标签,返回的是一个bs4.element.Tag对象,有多个结果,只返回第一个,没有返回None

「find_all(name,attrs,...)」:返回的是一个bs4.element.Tag对象组成的list,不管有没有找到,都是list

最常用的用法是出入name以及attr参数找出符合要求的标签。

from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, "lxml")
print(soup.find('a')) # 查找第一个a标签
#  <a class="sister1" href="http://example.com/elsie" id="link1">Elsie</a>

# 查找id属性是link3的a标签
print(soup.find('a', id="link3"))
#  <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>

# class是python中的内置关键字,class属性后加_ class_
print(soup.find('a',class_="sister1"))
#  <a class="sister1" href="http://example.com/elsie" id="link1">Elsie</a>

#  搜索所有标签
print(soup.find_all('a')) # 查找所有a标签list
# [<a class="sister1" href="http://example.com/elsie" id="link1">Elsie</a>,
# <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>,
# <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

# 列表索引
print(soup.find_all('a')[2])
# <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
# 列表查找,返回所有a标签和b标签
print(soup.find_all(['p','a']))

获取标签文本内容

「soup.标签.text/get_text():」 获取标签中所有文本内容,包括子节点

「soup.标签.string:」 获取到最里层标签,可以直接用.string的方法获取标签内的文字

「find+contents:」 如果不是最里层的标签,可以用find+contents的方法,该方法返回的是一个列表,获取的是标签内所有内容,可以根据索引获取特定的文本。

print(soup.a.text)
print(soup.a.string)
print(soup.a.get_text())
# Elsie
# Elsie
# Elsie

print(soup.find('p',class_="story").text)
# Elsie,
# Lacie and
# Tillie;
# and they lived at the bottom of a well.

print(soup.find_all('a')[0].text)
# Elsie

print(soup.find('p').contents[0].text)
# The Dormouse's story
目录
相关文章
|
16天前
|
XML JavaScript 前端开发
如何解析一个 HTML 文本
【10月更文挑战第23天】在实际应用中,根据具体的需求和场景,我们可以灵活选择解析方法,并结合其他相关技术来实现高效、准确的 HTML 解析。随着网页技术的不断发展,解析 HTML 文本的方法也在不断更新和完善,
|
15天前
|
JavaScript API 开发工具
<大厂实战场景> ~ Flutter&鸿蒙next 解析后端返回的 HTML 数据详解
本文介绍了如何在 Flutter 中解析后端返回的 HTML 数据。首先解释了 HTML 解析的概念,然后详细介绍了使用 `http` 和 `html` 库的步骤,包括添加依赖、获取 HTML 数据、解析 HTML 内容和在 Flutter UI 中显示解析结果。通过具体的代码示例,展示了如何从 URL 获取 HTML 并提取特定信息,如链接列表。希望本文能帮助你在 Flutter 应用中更好地处理 HTML 数据。
93 1
|
21天前
|
XML 数据格式
HTML 实例解析
本文介绍了HTML中常见元素的使用方法,包括`&lt;p&gt;`、`&lt;body&gt;`和`&lt;html&gt;`等。详细解析了这些元素的结构和作用,并强调了正确使用结束标签的重要性。此外,还提到了空元素的使用及大小写标签的规范。
|
27天前
|
XML 前端开发 数据格式
Beautiful Soup 解析html | python小知识
在数据驱动的时代,网页数据是非常宝贵的资源。很多时候我们需要从网页上提取数据,进行分析和处理。Beautiful Soup 是一个非常流行的 Python 库,可以帮助我们轻松地解析和提取网页中的数据。本文将详细介绍 Beautiful Soup 的基础知识和常用操作,帮助初学者快速入门和精通这一强大的工具。【10月更文挑战第11天】
55 2
|
1月前
|
缓存 Java 程序员
Map - LinkedHashSet&Map源码解析
Map - LinkedHashSet&Map源码解析
66 0
|
1月前
|
算法 Java 容器
Map - HashSet & HashMap 源码解析
Map - HashSet & HashMap 源码解析
52 0
|
1月前
|
存储 Java C++
Collection-PriorityQueue源码解析
Collection-PriorityQueue源码解析
59 0
|
1月前
|
安全 Java 程序员
Collection-Stack&Queue源码解析
Collection-Stack&Queue源码解析
78 0
|
1天前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
9 2
|
1天前
|
存储 安全 Linux
Golang的GMP调度模型与源码解析
【11月更文挑战第11天】GMP 调度模型是 Go 语言运行时系统的核心部分,用于高效管理和调度大量协程(goroutine)。它通过少量的操作系统线程(M)和逻辑处理器(P)来调度大量的轻量级协程(G),从而实现高性能的并发处理。GMP 模型通过本地队列和全局队列来减少锁竞争,提高调度效率。在 Go 源码中,`runtime.h` 文件定义了关键数据结构,`schedule()` 和 `findrunnable()` 函数实现了核心调度逻辑。通过深入研究 GMP 模型,可以更好地理解 Go 语言的并发机制。

推荐镜像

更多