BeautifulSoup文档1-简介、安装和使用

简介: BeautifulSoup文档1-简介、安装和使用

1 BeautifulSoup简介

  • Beautiful Soup 是一个可以从HTMLXML文件中提取数据的Python库;
  • Beautiful Soup 3 目前已经停止开发,推荐使用Beautiful Soup 4

2 初步了解

注意:以下实例来源于BeautifulSoup官方文档:Beautiful Soup 4.4.0 文档

  • 先看一个文档如下,官网简称为爱丽丝梦游仙境
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""
  • 使用BeautifulSoup解析上述实例,得到一个 BeautifulSoup 的对象,并能按照标准的缩进格式的结构输出:
from bs4 import BeautifulSoup
soup = BeautifulSoup(html_doc, 'html.parser')

print(soup.prettify())
  • 输出为:
D:\Python37\python.exe F:/python_study/testother/bs01.py
<html>
 <head>
  <title>
   The Dormouse's story
  </title>
 </head>
 <body>
  <p class="title">
   <b>
    The Dormouse's story
   </b>
  </p>
  <p class="story">
   Once upon a time there were three little sisters; and their names were
   <a class="sister" href="http://example.com/elsie" id="link1">
    Elsie
   </a>
   ,
   <a class="sister" href="http://example.com/lacie" id="link2">
    Lacie
   </a>
   and
   <a class="sister" href="http://example.com/tillie" id="link3">
    Tillie
   </a>
   ;
and they lived at the bottom of a well.
  </p>
  <p class="story">
   ...
  </p>
 </body>
</html>

进程已结束,退出代码 0

3 BeautifulSoup安装

3.1 Windows系统上安装

 pip install beautifulsoup4

3.2 安装解析器

pip install lxml

pip install html5lib

4 BeautifulSoup数据获取几种简单方法

4.1 获取title

print(f"获取title: {soup.title}\n")
  • 输出为:
获取title: <title>The Dormouse's story</title>

4.2 获取title.name

print(f"获取title.name: {soup.title.name}\n")
  • 输出为:
获取title.name: title

4.3 获取title.string

print(f"获取title.string: {soup.title.string}\n")
  • 输出为:
获取title.string: The Dormouse's story

4.4 获取title.parent.name

print(f"获取title.parent.name: {soup.title.parent.name}\n")
  • 输出为:
获取title.parent.name: head

4.5 获取第一个p标签

print(f"获取第一个p标签: {soup.p}\n")
  • 输出为:
获取第一个p标签: <p class="title"><b>The Dormouse's story</b></p>

4.6 获取p标签中的['class']

print(f"获取p标签中的['class']: {soup.p['class']}\n")
  • 输出为:
获取p标签中的['class']: ['title']

4.7 获取第一个a标签

print(f"获取第一个a标签: {soup.a}\n")
  • 输出为:
获取第一个a标签: <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>

4.8 获取所有a标签

print(f"获取所有a标签: {soup.find_all('a')}\n")
  • 输出为:
获取所有a标签: 
[<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, 
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, 
<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

4.9 获取某个指定的链接

print(f"获取某个指定的链接: {soup.find(id='link3')}\n")
  • 输出为:
获取某个指定的链接: <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>

4.10 获取所有a标签链接

print("获取所有a标签链接:")
for link in soup.find_all('a'):
    print(f"{link.get('href')}")
  • 输出为:
获取所有a标签链接:
http://example.com/elsie
http://example.com/lacie
http://example.com/tillie

4.11 获取文档中文字内容

print(f"获取文档中文字内容:{soup.get_text()}")
  • 输出为:
获取文档中文字内容:
The Dormouse's story

The Dormouse's story
Once upon a time there were three little sisters; and their names were
Elsie,
Lacie and
Tillie;
and they lived at the bottom of a well.
...

5 本文涉及的源码

# -*- coding:utf-8 -*-
# 作者:NoamaNelson
# 日期:2023/2/13 
# 文件名称:bs01.py
# 作用:BeautifulSoup4的简单使用
# 联系:VX(NoamaNelson)
# 博客:https://blog.csdn.net/NoamaNelson


from bs4 import BeautifulSoup

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""

soup = BeautifulSoup(html_doc, 'html.parser')

print(soup.prettify())

# 获取title
print(f"获取title: {soup.title}\n")

# 获取title.name
print(f"获取title.name: {soup.title.name}\n")

# 获取title.string
print(f"获取title.string: {soup.title.string}\n")

# 获取title.parent.name
print(f"获取title.parent.name: {soup.title.parent.name}\n")

# 获取第一个p标签
print(f"获取第一个p标签: {soup.p}\n")

# 获取p标签中的['class']
print(f"获取p标签中的['class']: {soup.p['class']}\n")

# 获取第一个a标签
print(f"获取第一个a标签: {soup.a}\n")

# 获取所有a标签
print(f"获取所有a标签: {soup.find_all('a')}\n")

# 获取某个指定的链接
print(f"获取某个指定的链接: {soup.find(id='link3')}\n")

# 获取所有a标签链接
print("获取所有a标签链接:")
for link in soup.find_all('a'):
    print(f"{link.get('href')}")

# 获取文档中文字内容
print(f"获取文档中文字内容:{soup.get_text()}")
目录
相关文章
|
6月前
|
XML 数据格式
Beautiful Soup 库提供了许多常用的方法
【5月更文挑战第10天】Beautiful Soup库用于HTML/XML文档解析和操作,提供初始化、查找、提取信息及修改文档的方法。如:find()和find_all()查找元素,.string或.get_text()获取文本,.attrs获取属性,.append()、.insert()、.remove()、.replace_with()、.unwrap()和.wrap()修改文档结构。还有.prettify()格式化输出,.encode()和.decode()处理编码。这些功能组合使用可灵活处理文档信息。
38 1
WK
|
2月前
|
XML 前端开发 API
Beautiful Soup有哪些支持功能
Beautiful Soup是一个强大的Python库,用于从HTML或XML文件中提取数据。它支持多种解析器,如html.parser、lxml和html5lib,能灵活应对不同格式的文档。通过丰富的API,可以轻松遍历解析树,按标签名、属性或字符串内容搜索和提取数据。此外,Beautiful Soup还支持简单的树修改操作,处理不同编码的文档,并具备良好的容错性。从4.0版本起,它引入了CSS选择器,使搜索更加便捷。详尽的官方文档和广泛的社区支持使其成为处理网页数据的理想选择。
WK
39 1
|
6月前
|
XML 机器学习/深度学习 移动开发
​Beautiful Soup 4.12.0 文档(三)
​Beautiful Soup 4.12.0 文档(三)
|
6月前
|
XML 前端开发 数据格式
​Beautiful Soup 4.12.0 文档(二)
​Beautiful Soup 4.12.0 文档(二)
|
6月前
|
XML 前端开发 数据格式
​Beautiful Soup 4.12.0 文档(一)
​Beautiful Soup 4.12.0 文档(一)
|
6月前
|
XML 数据格式
Beautiful Soup 库有哪些常用的方法
Beautiful Soup 库有哪些常用的方法
105 1
|
6月前
|
数据采集 XML 前端开发
Python爬虫 Beautiful Soup库详解#4
BeautifulSoup基础,节点选择器,方法选择器,css选择器【2月更文挑战第14天】
86 1
|
数据采集 前端开发 Python
【Python爬虫】用beautifulsoup4库遇到的错误及处理
在这里对使用beautifulsoup时遇到的问题进行汇总。
|
前端开发 API Python
在Python中如何使用BeautifulSoup进行页面解析
在Python中如何使用BeautifulSoup进行页面解析
|
Python
Python使用BeautifulSoup4修改网页内容实战
最近有个小项目,需要爬取页面上相应的资源数据后,保存到本地,然后将原始的HTML源文件保存下来,对HTML页面的内容进行修改将某些标签整个给替换掉。对于这类需要对HTML进行操作的需求,最方便的莫过于BeautifulSoup4的库了。
114 0