Crawler:基于BeautifulSoup库+requests库实现爬取2018最新电影《后来的我们》热门短评

简介: Crawler:基于BeautifulSoup库+requests库实现爬取2018最新电影《后来的我们》热门短评

输出结果


image.png





实现代码


# -*- coding: utf-8 -*-

#Py之Crawler:利用BeautifulSoup库实现爬取2018最新电影《后来的我们》热门短评

import time

import requests

import csv

from bs4 import BeautifulSoup

head = 'https://movie.douban.com/subject/'

middle = '/comments?start='

zr_tail = '&limit=20&sort=new_score&status=P&percent_type='

names = []

header = {

  'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0'

}

zr_urls = ['最热']

def createUrls():

  for j in range(1, 34, 2):

      name = names[j]

      #print(name)

      for i in range(0, 100, 20):

          zr_urls.append(head + str(name) + middle + str(i) + zr_tail)

          #print(zr_urls)得到某个电影短评地址(默认最热排序),如https://movie.douban.com/subject/27063335/comments?start=0&limit=20&sort=new_score&status=P&percent_type=

def readName():

  with open('爬取电影名称.txt', mode='r', encoding='utf-8') as f:

      for i in f.readlines():

          i = i.strip('\n')

          names.append(i)

          #print(names)  

readName()

createUrls()

get_comments(zr_urls)  #传入zr_urls


相关文章
|
6月前
|
数据采集 开发者 Python
Python爬虫实战:利用Beautiful Soup解析网页数据
在网络爬虫的开发过程中,数据解析是至关重要的一环。本文将介绍如何利用Python的Beautiful Soup库来解析网页数据,包括解析HTML结构、提取目标信息和处理特殊情况,帮助开发者更好地实现爬虫功能。
|
5月前
|
数据采集 Web App开发 数据挖掘
使用Python和BeautifulSoup轻松抓取表格数据
使用Python和BeautifulSoup,结合代理IP,可以从网页抓取表格数据,如中国气象局的天气信息。通过requests库发送HTTP请求,BeautifulSoup解析HTML提取表格。安装必要库后,设置代理IP,发送请求,解析HTML找到表格,提取数据并存储。通过Pandas进行数据分析,如计算平均气温。这种方法让数据抓取和分析变得更加便捷。
121 3
使用Python和BeautifulSoup轻松抓取表格数据
|
6月前
|
数据采集 存储 JSON
Python爬虫面试:requests、BeautifulSoup与Scrapy详解
【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
203 0
|
6月前
|
数据采集 存储 监控
Python爬虫实战:利用BeautifulSoup解析网页数据
在网络信息爆炸的时代,如何快速高效地获取所需数据成为许多开发者关注的焦点。本文将介绍如何使用Python中的BeautifulSoup库来解析网页数据,帮助你轻松实现数据抓取与处理的技术。
|
6月前
|
数据采集 XML 前端开发
Python爬虫 Beautiful Soup库详解#4
BeautifulSoup基础,节点选择器,方法选择器,css选择器【2月更文挑战第14天】
84 1
|
数据采集 前端开发 Python
【Python爬虫】用beautifulsoup4库遇到的错误及处理
在这里对使用beautifulsoup时遇到的问题进行汇总。
|
6月前
|
数据采集 XML 数据格式
python爬虫入门篇:如何解析爬取到的网页数据?试下最简单的BeautifulSoup库!
前面笔记解析了如何使用requests模块向网站发送http请求,获取到网页的HTML数据。这篇我们来如何使用BeautifulSoup模块来从HTML文本中提取我们想要的数据。Beautiful Soup,简称bs4,是Python的一个HTML或XML的解析库,一般用它来从网页中提取数据。
99 1
|
数据采集 XML 数据格式
python爬虫——Beautiful Soup库(数据解析)模块讲解
python爬虫——Beautiful Soup库(数据解析)模块讲解
222 0
python爬虫——Beautiful Soup库(数据解析)模块讲解
|
数据采集 Python
python爬虫BeautifulSoup模块解析数据入门
python爬虫BeautifulSoup模块解析数据入门
190 0
python爬虫BeautifulSoup模块解析数据入门
|
XML 数据格式 Python
如何利用 Beautiful Soup 爬取网页数据
如何利用 Beautiful Soup 爬取网页数据
198 0
如何利用 Beautiful Soup 爬取网页数据