【安全合规】python爬虫从0到1 -beautifulsoup(bs4)的基本使用

简介: python爬虫从0到1 -beautifulsoup(bs4)的基本使用

文章目录

(一)bs4基本简介

1. 功能

beautifulsoup简称bs4,和lxml一样是一个html的解析器,主要功能也是解析和获取数据。


2. 优缺点

缺点:效率总体来说没有lxml高

优点:接口设计人性化,使用方便


(二)安装以及创建

1. 安装.image.png

2. 导入

from bs4 import beautifulsoup

3. 创建对象

  1. 服务器响应的文件生成对象
soup = BeautifulSoup(response.read().decode('utf-8'),'lxml')
  1. 本地文件生成对象


image.pngimage.png

soup  = BeautifulSoup(open('beautiful.html',encoding='utf-8'),'lxml')

注:打开文件格式默认为gbk,因此我们需要指定编码为utf-8

(三)节点定位

根据标签名查找结点

以下实例由此HTML源码为基础:

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Title</title>
</head>
<body>
<div>
<ul>
    <li id="l1">北京</li>
    <li id = 'l2'>上海</li>
    <li class="cl3">重庆</li>
    <li  class="cl4">天津</li>
    <p>welcome</p>
    <a href="" id = 'i1' class="a1">python爬虫</a>
</ul>
</div>
<div id="i2">
    <p id = "p1">hello world</p>
    <a href="https://baidu.com"  id = 'i3' title="t2">baidu</a>
</div>
</body>
</html>
  1. 查找第一个符合条件的值:
print(soup.a)
  1. 查找标签的属性和属性值并以列表的形式展现
print(soup.a.attrs)

(五)获取节点信息

获取节点内容image.png实例:

html代码image.png

obj = soup.select('#i2')[0]
print(obj.string)
print(obj.get_text())

image.png

obj = soup.select('.cl3')[0]
# 获取标签的名字
print(obj.name)
# 获取属性值并以字典的形式显示
print(obj.attrs)

image.png

obj = soup.select('.cl3')[0]
print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])

image.png

相关文章
|
数据采集 测试技术 C++
无headers爬虫 vs 带headers爬虫:Python性能对比
无headers爬虫 vs 带headers爬虫:Python性能对比
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
655 6
|
数据采集 存储 监控
Python 原生爬虫教程:网络爬虫的基本概念和认知
网络爬虫是一种自动抓取互联网信息的程序,广泛应用于搜索引擎、数据采集、新闻聚合和价格监控等领域。其工作流程包括 URL 调度、HTTP 请求、页面下载、解析、数据存储及新 URL 发现。Python 因其丰富的库(如 requests、BeautifulSoup、Scrapy)和简洁语法成为爬虫开发的首选语言。然而,在使用爬虫时需注意法律与道德问题,例如遵守 robots.txt 规则、控制请求频率以及合法使用数据,以确保爬虫技术健康有序发展。
1524 31
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
1062 4
|
11月前
|
数据采集 存储 NoSQL
分布式爬虫去重:Python + Redis实现高效URL去重
分布式爬虫去重:Python + Redis实现高效URL去重
|
数据采集 存储 搜索推荐
打造个性化网页爬虫:从零开始的Python教程
【8月更文挑战第31天】在数字信息的海洋中,网页爬虫是一艘能够自动搜集网络数据的神奇船只。本文将引导你启航,用Python语言建造属于你自己的网页爬虫。我们将一起探索如何从无到有,一步步构建一个能够抓取、解析并存储网页数据的基础爬虫。文章不仅分享代码,更带你理解背后的逻辑,让你能在遇到问题时自行找到解决方案。无论你是编程新手还是有一定基础的开发者,这篇文章都会为你打开一扇通往数据世界的新窗。
|
12月前
|
数据采集 XML 存储
Headers池技术在Python爬虫反反爬中的应用
Headers池技术在Python爬虫反反爬中的应用
|
数据采集 存储 数据挖掘
深入探索 Python 爬虫:高级技术与实战应用
本文介绍了Python爬虫的高级技术,涵盖并发处理、反爬虫策略(如验证码识别与模拟登录)及数据存储与处理方法。通过asyncio库实现异步爬虫,提升效率;利用tesseract和requests库应对反爬措施;借助SQLAlchemy和pandas进行数据存储与分析。实战部分展示了如何爬取电商网站的商品信息及新闻网站的文章内容。提醒读者在实际应用中需遵守法律法规。
534 66
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
706 4
|
数据采集 Web App开发 JavaScript
爬虫策略规避:Python爬虫的浏览器自动化
爬虫策略规避:Python爬虫的浏览器自动化

推荐镜像

更多