【安全合规】python爬虫从0到1 -beautifulsoup(bs4)的基本使用

简介: python爬虫从0到1 -beautifulsoup(bs4)的基本使用

文章目录

(一)bs4基本简介

1. 功能

beautifulsoup简称bs4,和lxml一样是一个html的解析器,主要功能也是解析和获取数据。


2. 优缺点

缺点:效率总体来说没有lxml高

优点:接口设计人性化,使用方便


(二)安装以及创建

1. 安装.image.png

2. 导入

from bs4 import beautifulsoup

3. 创建对象

  1. 服务器响应的文件生成对象
soup = BeautifulSoup(response.read().decode('utf-8'),'lxml')
  1. 本地文件生成对象


image.pngimage.png

soup  = BeautifulSoup(open('beautiful.html',encoding='utf-8'),'lxml')

注:打开文件格式默认为gbk,因此我们需要指定编码为utf-8

(三)节点定位

根据标签名查找结点

以下实例由此HTML源码为基础:

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Title</title>
</head>
<body>
<div>
<ul>
    <li id="l1">北京</li>
    <li id = 'l2'>上海</li>
    <li class="cl3">重庆</li>
    <li  class="cl4">天津</li>
    <p>welcome</p>
    <a href="" id = 'i1' class="a1">python爬虫</a>
</ul>
</div>
<div id="i2">
    <p id = "p1">hello world</p>
    <a href="https://baidu.com"  id = 'i3' title="t2">baidu</a>
</div>
</body>
</html>
  1. 查找第一个符合条件的值:
print(soup.a)
  1. 查找标签的属性和属性值并以列表的形式展现
print(soup.a.attrs)

(五)获取节点信息

获取节点内容image.png实例:

html代码image.png

obj = soup.select('#i2')[0]
print(obj.string)
print(obj.get_text())

image.png

obj = soup.select('.cl3')[0]
# 获取标签的名字
print(obj.name)
# 获取属性值并以字典的形式显示
print(obj.attrs)

image.png

obj = soup.select('.cl3')[0]
print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])

image.png

相关文章
|
14天前
|
数据采集 存储 API
网络爬虫与数据采集:使用Python自动化获取网页数据
【4月更文挑战第12天】本文介绍了Python网络爬虫的基础知识,包括网络爬虫概念(请求网页、解析、存储数据和处理异常)和Python常用的爬虫库requests(发送HTTP请求)与BeautifulSoup(解析HTML)。通过基本流程示例展示了如何导入库、发送请求、解析网页、提取数据、存储数据及处理异常。还提到了Python爬虫的实际应用,如获取新闻数据和商品信息。
|
18天前
|
数据采集 Python
【python】爬虫-西安医学院-校长信箱
本文以西安医学院-校长信箱为基础来展示爬虫案例。来介绍python爬虫。
【python】爬虫-西安医学院-校长信箱
|
24天前
|
数据采集 安全 Python
python并发编程:Python实现生产者消费者爬虫
python并发编程:Python实现生产者消费者爬虫
24 0
python并发编程:Python实现生产者消费者爬虫
|
4天前
|
数据采集 存储 JSON
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
13 0
|
7天前
|
数据采集 JavaScript 前端开发
使用Python打造爬虫程序之破茧而出:Python爬虫遭遇反爬虫机制及应对策略
【4月更文挑战第19天】本文探讨了Python爬虫应对反爬虫机制的策略。常见的反爬虫机制包括User-Agent检测、IP限制、动态加载内容、验证码验证和Cookie跟踪。应对策略包括设置合理User-Agent、使用代理IP、处理动态加载内容、验证码识别及维护Cookie。此外,还提到高级策略如降低请求频率、模拟人类行为、分布式爬虫和学习网站规则。开发者需不断学习新策略,同时遵守规则和法律法规,确保爬虫的稳定性和合法性。
|
7天前
|
XML 数据采集 自然语言处理
请解释Python中的BeautifulSoup库以及它的主要用途。
BeautifulSoup是Python的HTML/XML解析库,用于数据提取和网页抓取。它提供树形结构解析文档,支持查找、访问和修改元素。主要用途包括网页抓取、数据清洗、自动化测试、内容生成、网站开发及与其他库集成,如Requests和Scrapy。适用于各种数据处理场景。
9 1
|
18天前
|
数据采集 存储 前端开发
Python爬虫如何快速入门
写了几篇网络爬虫的博文后,有网友留言问Python爬虫如何入门?今天就来了解一下什么是爬虫,如何快速的上手Python爬虫。
21 0
|
30天前
|
数据采集 XML 程序员
揭秘YouTube视频世界:利用Python和Beautiful Soup的独特技术
本文介绍了如何使用Python和Beautiful Soup库抓取YouTube视频数据,包括标题、观看次数和点赞、踩的数量。通过亿牛云爬虫代理IP服务避免被网站屏蔽,提供代理服务器配置和请求头设置示例。代码可能需根据YouTube页面更新进行调整。
揭秘YouTube视频世界:利用Python和Beautiful Soup的独特技术
|
1月前
|
数据采集 存储 Web App开发
一键实现数据采集和存储:Python爬虫、Pandas和Excel的应用技巧
一键实现数据采集和存储:Python爬虫、Pandas和Excel的应用技巧
|
1月前
|
数据采集 前端开发 JavaScript
Python爬虫零基础到爬啥都行
Python爬虫项目实战全程实录,你想要什么数据能随意的爬,不管抓多少数据几分钟就能爬到你的硬盘,需要会基本的前端技术(HTML、CSS、JAVASCRIPT)和LINUX、MYSQL、REDIS基础。
20 1
Python爬虫零基础到爬啥都行