【从零开始的python生活①】手撕爬虫扒一扒力扣的用户刷题数据(2)

简介: 【从零开始的python生活①】手撕爬虫扒一扒力扣的用户刷题数据(2)

三、网站元素定位

对于元素定位这块会比较麻烦,我单独讲一讲


确定元素

首先要确定要找元素的特征

5511b335779c50dc45b0dacdb439d9a.png

我这里就要扒一扒对应地址的解决问题数。我们可以按ctrl+shift+c 然后点对应的元素就会像图上这样出现我要的元素位置。

然后我们很容易发现他是在解决问题的同级别的<b>标签下。

我们可以用相对位置来定位


//*[text()="解决问题"]


这个表示的是找到解决问题对应的标签

我们需要的数据其实是其同层级下的b标签的数据

那么就是


//*[text()="解决问题"]/../b


其中…表示上级目录 我们就可以定位到所要的数据了


submitTag = driver.find_elements_by_xpath('//*[text()="解决问题"]/../b')
distance = submitTag[0].text


最后就是拿到我们想要的数据 我们需要的数据格式是text


网络延迟

如果我们因为网络延迟或者访问量过大没有抓到数据怎么办呢?

我的想法就是休息3s再抓,如果重试5次还是抓不到那就下一个跳过

那我们怎么直到抓没抓到呢?


submitTag = driver.find_elements_by_xpath('//*[text()="解决问题"]/../b')


这句里面用的elements返回的是个列表,所以长度为0就是没找到

然后是等待重试语句


 

if(len(submitTag) == 0):
        for k in range(1,5):
            sleep(3)
            driver.get(lie)
            submitTag = driver.find_elements_by_xpath('//*[text()="解决问题"]/../b')
            if(len(submitTag) != 0):
                break
        if(len(submitTag) == 0):
            print("false")
            i+=1
            continue

看着很长。其实一点也不复杂,第一个for会进行五次重试,每次重试完如果拿到数据就跳出

如果5次循环结束还是拿不到,就让i+1其实就是跳过了这组数据啦。


五、最终成果

import pandas as pd
import openpyxl
from selenium import webdriver
from time import sleep
num = 10        #写入的数据列 
driver = webdriver.Chrome()
df = pd.read_excel('111.xlsx',index_col='LeetCode地址')
#读取一整列的数据
wb=openpyxl.load_workbook(r'111.xlsx')
ws = wb['Sheet1']
i = 1
for lie in df.index.values:
    driver.get(lie)
    submitTag = driver.find_elements_by_xpath('//*[text()="解决问题"]/../b')
    if(len(submitTag) == 0):
        for k in range(1,5):
            sleep(3)
            driver.get(lie)
            submitTag = driver.find_elements_by_xpath('//*[text()="解决问题"]/../b')
            if(len(submitTag) != 0):
                break
        if(len(submitTag) == 0):
            print("false")
            i+=1
            continue
    distance = submitTag[0].text
    ws.cell(row = i+1, column = num).value = distance
    i=i+1
    print(i)
wb.save(r'111.xlsx')


利用num保存写入列是为了以后能够方便修改 打印i是为了能看到进度

7f72a03ce9aef16ef3815bb183a88f8.png


六、写在最后

当然这个只是第一次入门的小作品,其中没用封装成函数,也没有用到类对象什么的高级运用,但是可以作为一个语言的基础中的基础中的入门,如果大家喜欢这个系列还麻烦大家给个赞啥的。


相关文章
|
1天前
|
算法 Serverless 数据处理
从集思录可转债数据探秘:Python与C++实现的移动平均算法应用
本文探讨了如何利用移动平均算法分析集思录提供的可转债数据,帮助投资者把握价格趋势。通过Python和C++两种编程语言实现简单移动平均(SMA),展示了数据处理的具体方法。Python代码借助`pandas`库轻松计算5日SMA,而C++代码则通过高效的数据处理展示了SMA的计算过程。集思录平台提供了详尽且及时的可转债数据,助力投资者结合算法与社区讨论,做出更明智的投资决策。掌握这些工具和技术,有助于在复杂多变的金融市场中挖掘更多价值。
22 12
|
3天前
|
数据采集 JSON Java
Java爬虫获取微店快递费用item_fee API接口数据实现
本文介绍如何使用Java开发爬虫程序,通过微店API接口获取商品快递费用(item_fee)数据。主要内容包括:微店API接口的使用方法、Java爬虫技术背景、需求分析和技术选型。具体实现步骤为:发送HTTP请求获取数据、解析JSON格式的响应并提取快递费用信息,最后将结果存储到本地文件中。文中还提供了完整的代码示例,并提醒开发者注意授权令牌、接口频率限制及数据合法性等问题。
|
6天前
|
数据采集 数据安全/隐私保护 Python
从零开始:用Python爬取网站的汽车品牌和价格数据
在现代化办公室中,工程师小李和产品经理小张讨论如何获取懂车帝网站的汽车品牌和价格数据。小李提出使用Python编写爬虫,并通过亿牛云爬虫代理避免被封禁。代码实现包括设置代理、请求头、解析网页内容、多线程爬取等步骤,确保高效且稳定地抓取数据。小张表示理解并准备按照指导操作。
从零开始:用Python爬取网站的汽车品牌和价格数据
|
8天前
|
数据采集 前端开发 API
SurfGen爬虫:解析HTML与提取关键数据
SurfGen爬虫:解析HTML与提取关键数据
|
1月前
|
数据采集 Web App开发 数据可视化
Python用代理IP获取抖音电商达人主播数据
在当今数字化时代,电商直播成为重要的销售模式,抖音电商汇聚了众多达人主播。了解这些主播的数据对于品牌和商家至关重要。然而,直接从平台获取数据并非易事。本文介绍如何使用Python和代理IP高效抓取抖音电商达人主播的关键数据,包括主播昵称、ID、直播间链接、观看人数、点赞数和商品列表等。通过环境准备、代码实战及数据处理与可视化,最终实现定时任务自动化抓取,为企业决策提供有力支持。
|
2月前
|
数据采集 存储 XML
python实战——使用代理IP批量获取手机类电商数据
本文介绍了如何使用代理IP批量获取华为荣耀Magic7 Pro手机在电商网站的商品数据,包括名称、价格、销量和用户评价等。通过Python实现自动化采集,并存储到本地文件中。使用青果网络的代理IP服务,可以提高数据采集的安全性和效率,确保数据的多样性和准确性。文中详细描述了准备工作、API鉴权、代理授权及获取接口的过程,并提供了代码示例,帮助读者快速上手。手机数据来源为京东(item.jd.com),代理IP资源来自青果网络(qg.net)。
|
2月前
|
数据采集 Web App开发 监控
Python爬虫:爱奇艺榜单数据的实时监控
Python爬虫:爱奇艺榜单数据的实时监控
|
2月前
|
数据采集 安全 定位技术
使用代理IP爬虫时数据不完整的原因探讨
在信息化时代,互联网成为生活的重要部分。使用HTTP代理爬取数据时,可能会遇到失败情况,如代理IP失效、速度慢、目标网站策略、请求频率过高、地理位置不当、网络连接问题、代理配置错误和目标网站内容变化等。解决方法包括更换代理IP、调整请求频率、检查配置及目标网站变化。
80 11
|
2月前
|
数据采集 分布式计算 大数据
构建高效的数据管道:使用Python进行ETL任务
在数据驱动的世界中,高效地处理和移动数据是至关重要的。本文将引导你通过一个实际的Python ETL(提取、转换、加载)项目,从概念到实现。我们将探索如何设计一个灵活且可扩展的数据管道,确保数据的准确性和完整性。无论你是数据工程师、分析师还是任何对数据处理感兴趣的人,这篇文章都将成为你工具箱中的宝贵资源。
|
2月前
|
数据采集 数据可视化 数据挖掘
利用Python自动化处理Excel数据:从基础到进阶####
本文旨在为读者提供一个全面的指南,通过Python编程语言实现Excel数据的自动化处理。无论你是初学者还是有经验的开发者,本文都将帮助你掌握Pandas和openpyxl这两个强大的库,从而提升数据处理的效率和准确性。我们将从环境设置开始,逐步深入到数据读取、清洗、分析和可视化等各个环节,最终实现一个实际的自动化项目案例。 ####
305 10

推荐镜像

更多