Python黑科技系列15-爬虫自动化工具-VIP付费文章数据下载

简介: 不要惧怕还未到来的结果,要坚信,人生那么长,执着努力的人,一定会被时光温柔以待。愿一切为之努力的事情,都有浪漫的结果。不动声色地变好,每一天都要比昨天更加好。仅此一生,当然要全力以赴。

实战

思路:
1| 搭建界面 (输入框 + 按钮 + 提示标签)
2| 业务层 - 自动化爬虫 - 无界面浏览器
3| 保存 - 持久化 -
4| 打包成PC端exe运行程序
安装模块: pip install selenium

目标网站,不允许复制任何数据,需要VIP充钱才行,今天我们就破解这个。
image.png

第一步| 搭建界面 (输入框 + 按钮 + 提示标签)

from tkinter import *

tk = Tk()
tk.title('自动化破解工具')
tk.geometry('+900+300')
tk.mainloop()

image.png

# 网格布局框架
f1 = Frame(tk)
f1.pack(padx=20,pady=15)

Label(f1,text='请输入要破解的文章链接:').grid(row= 0,column = 0)
# 字符串 str
in_tony = StringVar()
# 输入框
Entry(f1,width=50,textvariable=in_tony).grid(row= 0,column = 1)
# 按钮
Button(tk,text=' 开始破解 ',command = data).pack()

image.png

第二步| 业务层 - 自动化爬虫 - 无界面浏览器


from selenium.webdriver import Chrome
from selenium.webdriver import ChromeOptions

# 单独的 代码区域 -
def data():
    # 获取输入框中的网址
    url = in_tony.get()
    # 加载驱动

    options = ChromeOptions()
    # 隐藏浏览器 -
    options.add_argument('--headless')
    
    driver = Chrome('chromedriver.exe', options=options)
    # 打开一个网页
    driver.get(url)

    text = driver.find_elements_by_xpath('//div[@class="content"]')
    # 循环
    for tony in text:  
        print(tony.text)

image.png

image.png

第三步| 保存 - 持久化 -

file = open('文章.doc', 'w')
file.write(tony.text + '\n')

image.png

第四步| 打包成PC端exe运行程序

打包可以通过pyinstaller进行打包 。指令输入在cmd 命令行中。

打包指令;使用绝对路径。
pyinstaller -F xxxxx.py
image.png

在这个浮躁的时代;竟然还有人能坚持篇篇原创;

如果本文对你学习有所帮助-可以点赞👍+ 关注!将持续更新更多新的文章。

支持原创。感谢!

相关文章
|
18天前
|
运维 Linux Apache
Puppet 作为一款强大的自动化运维工具,被广泛应用于配置管理领域。通过定义资源的状态和关系,Puppet 能够确保系统始终处于期望的配置状态。
Puppet 作为一款强大的自动化运维工具,被广泛应用于配置管理领域。通过定义资源的状态和关系,Puppet 能够确保系统始终处于期望的配置状态。
40 3
|
21天前
|
运维 Linux Apache
Puppet这一强大的自动化运维工具,涵盖其基本概念、安装配置及使用示例
【10月更文挑战第8天】本文介绍了Puppet这一强大的自动化运维工具,涵盖其基本概念、安装配置及使用示例。Puppet通过定义资源状态和关系,确保系统配置始终如一,支持高效管理基础设施。文章详细讲解了Puppet的安装步骤、配置方法及DSL语言示例,帮助读者快速掌握Puppet的使用技巧。
47 2
|
11天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
21天前
|
数据处理 Python
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。
41 3
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
|
9天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
25 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
18天前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
40 2
|
19天前
|
JSON 安全 数据安全/隐私保护
深度剖析:Python如何运用OAuth与JWT,为数据加上双保险🔐
【10月更文挑战第10天】本文介绍了OAuth 2.0和JSON Web Tokens (JWT) 两种现代Web应用中最流行的认证机制。通过使用Flask-OAuthlib和PyJWT库,详细展示了如何在Python环境中实现这两种认证方式,从而提升系统的安全性和开发效率。OAuth 2.0适用于授权过程,JWT则简化了认证流程,确保每次请求的安全性。结合两者,可以构建出既安全又高效的认证体系。
35 1
|
20天前
|
运维 关系型数据库 MySQL
自动化运维工具Ansible的实战应用
【10月更文挑战第9天】在现代IT运维领域,效率和可靠性是衡量一个系统是否健康的重要指标。自动化运维工具Ansible因其简洁、易用的特性,成为了众多企业和开发者的首选。本文将通过实际案例,展示如何利用Ansible进行日常的运维任务,包括配置管理、软件部署以及批量操作等,帮助读者深入理解Ansible的应用场景及其带来的效益。
|
21天前
|
人工智能 运维 监控
自动化运维:从脚本到工具的演变之路
【10月更文挑战第8天】在数字化时代的浪潮中,运维不再是简单的硬件维护,它已经演变成一场关于效率、稳定性和创新的技术革命。本文将带您领略自动化运维的魅力,从最初的脚本编写到现代复杂的自动化工具,我们将一探究竟,看看这些工具如何帮助运维人员简化日常任务,提升工作效率,并最终推动业务发展。
|
16天前
|
JavaScript 前端开发 搜索推荐
Gulp:构建自动化与任务管理的强大工具
【10月更文挑战第13天】Gulp:构建自动化与任务管理的强大工具
45 0