python爬虫访问百度贴吧案例

简介: python爬虫访问百度贴吧案例
  • 需求:
    1.爬取贴吧名称 ,以海贼王为例
    2.要进行翻页爬取(起始页,中止页)
    3.把每一页的内容保存到本地

页面分析

分析url 翻页爬取的时候:大多数情况下是需要分析url的规律

找出海贼王贴吧前三页的url如下:
https://tieba.baidu.com/f?ie=utf-8&kw=%E6%B5%B7%E8%B4%BC%E7%8E%8B&fr=search(第一页)
https://tieba.baidu.com/f?kw=%E6%B5%B7%E8%B4%BC%E7%8E%8B&ie=utf-8&pn=50(第二页)
https://tieba.baidu.com/f?kw=%E6%B5%B7%E8%B4%BC%E7%8E%8B&ie=utf-8&pn=100(第三页)

经验证,第一页的也可以写作:
https://tieba.baidu.com/f?kw=%E6%B5%B7%E8%B4%BC%E7%8E%8B&ie=utf-8&pn=0(第一页)

使用input(),从控制台输入想要查找的内容

代码一般写法

import urllib.request
import urllib.parse

name = input("请输入贴吧名称")
headers = {
    
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
}

# 起始页
begin = int(input("请输入开始页"))
# 结束页
end = int(input("请输入结束页"))
kw = {
    'kw': name}
result = urllib.parse.urlencode(kw)

# 拼接url
for i in range(begin, end+1):  # 整数序列,range范围是左闭右开
    pn = (i-1)*50
    # print(pn)
    base_url = 'https://tieba.baidu.com/f?'
    url = base_url + result + '&pn=' + str(pn)
    # 发请求
    req = urllib.request.Request(url, headers=headers)
    res = urllib.request.urlopen(req)  # 发起请求,获得响应
    # print(res.getcode())  # 得到响应码,200表示请求成功
    html = res.read().decode('utf-8')
    # print(html)

    # 写入文件
    filename = '第'+str(i) + '页.html'
    with open(filename, 'w', encoding='utf-8') as f:
        f.write(html)
        print(f'正在爬取第{
      i}页')  

函数写法

import urllib.request
import urllib.parse


# 分析功能:读取页面,写入文件,主函数
def readPage(url):
    headers = {
    
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
    }
    # 发请求
    req = urllib.request.Request(url, headers=headers)
    res = urllib.request.urlopen(req)  # 发起请求,获得响应
    # print(res.getcode())  # 得到响应码,200表示请求成功
    html = res.read().decode('utf-8')
    return html


def writePage(filename, html):
    with open(filename, 'w', encoding='utf-8') as f:
        f.write(html)


def main():
    name = input("请输入贴吧名称")
    # 起始页
    begin = int(input("请输入开始页"))
    end = int(input("请输入结束页"))
    # 中文网址有问题,需要对name进行处理
    kw = {
    'kw': name}
    result = urllib.parse.urlencode(kw)
    # 拼接url
    for i in range(begin, end + 1):  # 整数序列,range范围是左闭右开
        pn = (i - 1) * 50
        # print(pn)
        base_url = 'https://tieba.baidu.com/f?'
        url = base_url + result + '&pn=' + str(pn)
        # 调用函数
        html = readPage(url)
        filename = '第'+str(i) + '页.html'
        writePage(filename, html)


if __name__ == '__main__':  # 程序主入口
    main()

面向对象写法

import urllib.request
import urllib.parse


class BaiduSpider(object):
    def __init__(self):
        self.headers = {
    
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
        }
        self.base_url = 'https://tieba.baidu.com/f?'

    def readPage(self, url):
        # 发请求
        req = urllib.request.Request(url, headers=self.headers)
        res = urllib.request.urlopen(req)  # 发起请求,获得响应
        # print(res.getcode())  # 得到响应码,200表示请求成功
        html = res.read().decode('utf-8')
        return html

    def writePage(self, filename, html):
        with open(filename, 'w', encoding='utf-8') as f:
            f.write(html)

    def main(self):
        name = input("请输入贴吧名称")
        # 起始页
        begin = int(input("请输入开始页"))
        end = int(input("请输入结束页"))
        # 中文网址有问题,需要对name进行处理
        kw = {
    'kw': name}
        result = urllib.parse.urlencode(kw)
        # 拼接url
        for i in range(begin, end + 1):  # 整数序列,range范围是左闭右开
            pn = (i - 1) * 50
            # print(pn)
            url = self.base_url + result + '&pn=' + str(pn)
            # 调用函数
            html = self.readPage(url)
            filename = '第' + str(i) + '页.html'
            self.writePage(filename, html)


if __name__ == '__main__':
    spider = BaiduSpider()  # 创建实例对象
    spider.main()
目录
相关文章
|
6天前
|
数据采集 Web App开发 前端开发
处理动态Token:Python爬虫应对AJAX授权请求的策略
处理动态Token:Python爬虫应对AJAX授权请求的策略
|
6天前
|
数据采集 网络协议 API
协程+连接池:高并发Python爬虫的底层优化逻辑
协程+连接池:高并发Python爬虫的底层优化逻辑
|
15天前
|
数据采集 存储 Web App开发
处理Cookie和Session:让Python爬虫保持连贯的"身份"
处理Cookie和Session:让Python爬虫保持连贯的"身份"
|
17天前
|
数据采集 监控 Shell
无需Python:Shell脚本如何成为你的自动化爬虫引擎?
Shell脚本利用curl/wget发起请求,结合文本处理工具构建轻量级爬虫,支持并行加速、定时任务、增量抓取及分布式部署。通过随机UA、异常重试等优化提升稳定性,适用于日志监控、价格追踪等场景。相比Python,具备启动快、资源占用低的优势,适合嵌入式或老旧服务器环境,复杂任务可结合Python实现混合编程。
|
19天前
|
数据采集 存储 XML
Python爬虫入门(1)
在互联网时代,数据成为宝贵资源,Python凭借简洁语法和丰富库支持,成为编写网络爬虫的首选。本文介绍Python爬虫基础,涵盖请求发送、内容解析、数据存储等核心环节,并提供环境配置及实战示例,助你快速入门并掌握数据抓取技巧。
|
5月前
|
数据采集 测试技术 C++
无headers爬虫 vs 带headers爬虫:Python性能对比
无headers爬虫 vs 带headers爬虫:Python性能对比
|
5月前
|
数据采集 存储 监控
Python 原生爬虫教程:网络爬虫的基本概念和认知
网络爬虫是一种自动抓取互联网信息的程序,广泛应用于搜索引擎、数据采集、新闻聚合和价格监控等领域。其工作流程包括 URL 调度、HTTP 请求、页面下载、解析、数据存储及新 URL 发现。Python 因其丰富的库(如 requests、BeautifulSoup、Scrapy)和简洁语法成为爬虫开发的首选语言。然而,在使用爬虫时需注意法律与道德问题,例如遵守 robots.txt 规则、控制请求频率以及合法使用数据,以确保爬虫技术健康有序发展。
745 31
|
4月前
|
数据采集 存储 NoSQL
分布式爬虫去重:Python + Redis实现高效URL去重
分布式爬虫去重:Python + Redis实现高效URL去重
|
10月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
419 6
|
5月前
|
数据采集 XML 存储
Headers池技术在Python爬虫反反爬中的应用
Headers池技术在Python爬虫反反爬中的应用

推荐镜像

更多