世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

简介: 还有4天就世界杯了,作为一个资深(伪)球迷,必须要实时关注世界杯相关新闻,了解各个球队动态,这样才能在一堆球迷中如(大)鱼(吹)得(特)水(吹),迎接大家仰慕的目光!给大家分享一个快速了解相关信息的办法:刷论坛!我们来...

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

还有4天就世界杯了,作为一个资深(伪)球迷,必须要实时关注世界杯相关新闻,了解各个球队动态,这样才能在一堆球迷中如(大)鱼(吹)得(特)水(吹),迎接大家仰慕的目光!

给大家分享一个快速了解相关信息的办法:刷论坛!我们来一起做个虎扑论坛的爬虫吧!

抓包获取虎扑论坛相关帖子内容,逐条显示!

先来观察下网页,打开论坛首页,选择国际足球

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

然后往下拉,找到世界杯相关内容

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

这里就是我们的目标了,所有相关的新闻都会在这里显示,用F12打开“开发者工具”然后往下浏览看看数据包

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

注意箭头指向的那几个地方!

这就是刚才浏览的新闻所在的json包,来看看具体数据是什么

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

ok,标题、地址、发布时间包括来源都已经出现了!我们可以直接抓取json数据然后取出相关内容!

再进入具体新闻页面看看

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

所有的文本内容,都在

这个标签下的

标签内,我们可以用xpath直接取div下的所有文本内容!

这里就不一 一说明了,直接上代码,并录个小的GIF图片给大家看看效果

#@author Q群542110741
# -*- coding:utf-8 -*-
import requests
from lxml import etree

header = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:60.0) Gecko/20100101 Firefox/60.0',
    'Host':'soccer.hupu.com',
    'Referer':'https://soccer.hupu.com/'}
i = 0
while 1:
    #构建循环页面翻页
    url = 'https://soccer.hupu.com/home/latest-news?league=世界杯&page='
    i += 1
    #获取json数据,一页20个
    html = requests.get(url+str(i),headers=header).json()['result']
    for info in html:
        time_r = info['time']#发布时间
        title = info['title']#标题
        url_r = info['url']#新闻链接
        origin = info['origin']#来源
        print(title)
        print('发布时间:',time_r,' '*5,'来自:',origin)
        head = header
        head['Host'] = 'voice.hupu.com'#更改header中Host参数
        html_r = requests.get(url_r,headers=head)#获取新闻详情
        html_r.encoding = 'utf-8'#编码格式指定
        #获取div下的所有文本
        datas = etree.HTML(html_r.text).xpath('//div[@class="artical-content-read"]')[0].xpath('string(.)').strip()
        print('\n'+'内容:'+'\n'*2,datas,'\n')
        #可由用户手动退出循环
        if input('任意键继续,“q”退出') in ['q', 'Q']:
            exit()

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

现在我们可以快乐的刷刷论坛,积累最新资讯,秒杀一切挡在我们前(装)进(B)道路上的渣渣吧~!

世界杯快到了,看我用Python爬虫实现(伪)球迷速成!

欢迎大家关注,私信我一起学习,一起看球!

相关文章
|
7天前
|
数据采集 数据挖掘 Python
Python:pandas做爬虫
Python:pandas做爬虫
19 0
|
4天前
|
数据采集 存储 XML
构建高效的Python爬虫系统
【9月更文挑战第30天】在数据驱动的时代,掌握如何快速高效地获取网络信息变得至关重要。本文将引导读者了解如何构建一个高效的Python爬虫系统,从基础概念出发,逐步深入到高级技巧和最佳实践。我们将探索如何使用Python的强大库如BeautifulSoup和Scrapy,以及如何应对反爬措施和提升爬取效率的策略。无论你是初学者还是有经验的开发者,这篇文章都将为你提供宝贵的知识和技能,帮助你在信息收集的海洋中航行得更远、更深。
17 6
|
20小时前
|
数据采集 存储 数据挖掘
深入探索 Python 爬虫:高级技术与实战应用
本文介绍了Python爬虫的高级技术,涵盖并发处理、反爬虫策略(如验证码识别与模拟登录)及数据存储与处理方法。通过asyncio库实现异步爬虫,提升效率;利用tesseract和requests库应对反爬措施;借助SQLAlchemy和pandas进行数据存储与分析。实战部分展示了如何爬取电商网站的商品信息及新闻网站的文章内容。提醒读者在实际应用中需遵守法律法规。
100 66
|
3天前
|
数据采集 数据挖掘 数据处理
Python中实现简单爬虫并处理数据
【9月更文挑战第31天】本文将引导读者理解如何通过Python创建一个简单的网络爬虫,并展示如何处理爬取的数据。我们将讨论爬虫的基本原理、使用requests和BeautifulSoup库进行网页抓取的方法,以及如何使用pandas对数据进行清洗和分析。文章旨在为初学者提供一个易于理解的实践指南,帮助他们快速掌握网络数据抓取的基本技能。
14 3
|
7天前
|
数据采集 Python
天天基金数据的Python爬虫
天天基金数据的Python爬虫
23 3
|
10天前
|
数据采集 存储 JavaScript
构建您的第一个Python网络爬虫:抓取、解析与存储数据
【9月更文挑战第24天】在数字时代,数据是新的金矿。本文将引导您使用Python编写一个简单的网络爬虫,从互联网上自动抓取信息。我们将介绍如何使用requests库获取网页内容,BeautifulSoup进行HTML解析,以及如何将数据存储到文件或数据库中。无论您是数据分析师、研究人员还是对编程感兴趣的新手,这篇文章都将为您提供一个实用的入门指南。拿起键盘,让我们开始挖掘互联网的宝藏吧!
|
6天前
|
数据采集 JSON 数据格式
Python:南京地铁每日客流数据的爬虫实现
Python:南京地铁每日客流数据的爬虫实现
17 1
|
7天前
|
数据采集 Python
Python:某市公交线路站点的爬虫实现
Python:某市公交线路站点的爬虫实现
|
7天前
|
数据采集 网络协议 调度
Python爬虫策略分析4
Python爬虫策略分析4
19 1
|
7天前
|
数据采集 前端开发 Python
Python爬虫策略分析3
Python爬虫策略分析3
11 1
下一篇
无影云桌面