使用Python写出一个GUI可视化爬虫工具总结分享

简介: 我本是一名前端开发,不能说熟悉...最起码前端目前主流技术 Vue React 还是 jQuery 都有使用过。可以说这三个也是包含最少 60%的使用场景了。突然转变去写 Python 真的很不适应,不过还好。也是一种锻炼。

theme: devui-blue

highlight: sunburst

私人文档,仅供参考!

前言:我本是一名前端开发,不能说熟悉...最起码前端目前主流技术 Vue React 还是 jQuery 都有使用过。可以说这三个也是包含最少 60%的使用场景了。突然转变去写 Python 真的很不适应,不过还好。也是一种锻炼。当初我的想法是 做一个Web平台配合 Java 来调用写好的 Python。当然啦,期间我也使用过 Nodejs 来写后端,结果不太理想。经过一周半的编写,调试,终于可以对接后端,我传递参数给接口,接口服务调用 Python 然后把数据返回给我的同时插入数据库。但是...我还是想的太简单了,中间各种问题层出不穷,真的要把我搞崩溃了。加班到十点多,回家了一直和朋友调试到凌晨,问题仅仅解决了一半...后来经过一番商讨,我反思自己,为什么要做的这么”完美“呢?能用不就好了。于是痛定思痛!想了一晚上,脑子里突然蹦出一个想法!我什么...非要做个Web端呢?直呼握草,立马坐起来拍大腿!我记得 Python 好像是可以写桌面端应用的!!于是次日上班。直接开干!!


软件介绍

软件运行时直接生成txt和csv两种文件。可选

操作流程:

graph TD
手动输入关键词 --> 页数
导入文件 --> 页数--> 执行--> 新建文件并且插入数据

先看一下软件成品吧(截至文章发布前) 以及我的GitHub地址

微信截图_20230612093254.png

样式可以用qss来编写

这款桌面端应用目前的功能包括但不限于:分词循环爬取搜索导入文件爬取软件设置在线更新任务/错误捕获输出当前进度自动更新代理

使用技术及三方库

语言使用的是 Python39 用到的库包括但不限于 PyQt5、requests、BeautifulSoup、os、time、urllib、tldextract、random、psutil、chardet。
我就捡几个重点说说吧(仅限于个人理解)。

PyQt5: 这个库就是标题所写 GUI(Graphics User Interface),中文名称为图形用户界面,是计算机与其使用者之间的对话接口。我之前用的是 tk 界面实在是!太丑了!

psutil: 专门用来获取操作系统以及硬件相关的信息,比如:CPU、磁盘、网络、内存等等

requests: 如你所见,就是用来请求的

代码结构

序主要分为两个类:Spider 和 MainWindow。

Spider 类主要实现了以下几个方法:

  • init方法:初始化Spider类的属性,包括关键词、页数、文件名、任务输出、进度输入和主窗口等。然后调用search_mobile_web方法开始爬取。

  • run_getiCookie方法:用于获取cookie。

  • convert_params方法:将参数转换为列表。

  • set_ArrayList方法:用于获取URL的域名。

  • search_mobile_web方法:主要实现了爬取神马搜索引擎的搜索结果的功能。首先获取关键词和页数,然后循环爬取每一页的搜索结果。在爬取每一页的搜索结果时,先设置代理,然后发送请求,获取响应,解析响应,获取搜索结果的标题和URL,并将结果写入文件。最后关闭所有的TCP连接。
  • MainWindow 类主要实现了以下几个方法:

  • init方法:初始化MainWindow类的属性,包括关键词、页数、文件名、任务输出、进度输入和主窗口等。然后创建控件,包括关键词输入框、页数输入框、文件名输入框、任务输出框、进度输入框、错误输出框、执行按钮、导入文件按钮、取消导入按钮和强行停止按钮。最后创建菜单栏和菜单。

  • show_setting_dialog方法:用于显示代理参数设置对话框。

  • show_error方法:用于在错误输出框中显示错误信息。

  • select_file方法:用于选择要导入的文件。

  • stop_script方法:用于停止程序的执行。

  • cancel_import方法:用于取消导入文件。

  • get_next_word方法:用于获取下一个要爬取的关键词。

  • run_script方法:用于执行爬虫程序。首先获取关键词、页数和文件名,然后创建Spider对象,并调用search_mobile_web方法开始爬取。最后将爬取结果输出到任务输出框中。如果出现错误,将错误信息输出到错误输出框中。
  • 简单来说Spider负责主线程爬虫逻辑编写,而MainWindow就是负责 GUI 的绘制以及软件的操作反馈等。


    部分代码介绍

    爬虫这块代码我就不介绍了。因为每个、任何一个爬虫都是独一无二的,无非就是 get 访问网页拿到源代码,然后通过各种方式例如类 ID 来进行定位 提取而已。

    介绍Spider的:
    run_getiCookie方法,这个方法可能不适合绝大部分人,因为我爬取的是神马搜索引擎,他的 Cookie 是每次请求都会变化,如果你拿了一个一直用,不出五次,绝对反爬。所以我做的操作是 一个 Cookie 就用两次。

    下面是代码

    def run_getiCookie(self):
        urls = 'https://访问一个能拿到Cookie的地址'
        response= requests.get(urls) # get访问网页
        cookie = response.headers['Set-Cookie'] # 利用response库自带方法取提取header里面的Cookie 然后储存到外部,
        return {
       
        # 最后返回我们请求所需要的请求头参数
            'User-Agent': random.choice(agent_list), #这个方法是在众多User-Agent列表里每次提取一个,防止反爬。
            "Accept-Encoding":'参数',
            "Accept-Language":'参数',
            "Server": "参数",
            "Content-Type": "参数",
            'Cookie':cookie
         }
    

    介绍MainWindow的:

    show_error方法是用于在错误输出框中显示错误信息。该方法接受一个 message 参数,用于指定要显示的错误信息。在方法内部,使用 Qt 的 appendPlainText 方法将 message 添加到错误输出框中。该方法主要用于在程序执行过程中出现错误时,将错误信息显示给用户,方便用户进行排查和解决。该方法的代码如下:

    @staticmethod
    def show_error(self, error_msg):
        #静态方法,供外部调用
        # 在错误输出文本框中显示错误信息
        #可以使用append
        self.error_output.setPlainText(error_msg + '\n')
    
    def show_errorMainWindow(self, error_msg):
        self.error_output.setPlainText(error_msg + '\n')
    

    可能有的人就问了,为什么同样功能的代码要写两遍呢?
    对,我也没办法技术有限。因为不同的类调用方法的话,针对于这个函数,我不太熟悉,其他函数我能调用,我也不知道这个为什么。于是我就写了一个静态的,外部可以直接MainWindow.show_error(str(e)),来调用,可是我本身函数如果调用的话是不可行的,因为staticmethod的缺点有很多,但是对我来说,最重要的一条是

    静态方法无法访问类的实例变量和方法,因为静态方法不会自动传递类的实例作为第一个参数。这意味着静态方法无法访问类的状态,也无法修改类的状态。

    这也就意味着,我无法使用这个方法捕获错误,来展示到错误输出上去。所以无奈暂时写两个。

    select_file,stop_script,cancel_import 这几个方法很简单了,就是导入文件、退出软件、删除导入的文件。

    get_next_word 这个方法我也折腾了一会,主要是,我的词语有两个途径,手动和文件。而且文件的词语量常常大于五十万,我目前是用一百万词量测试的。
    下面看代码:

    #简化版
    def get_next_word(self):
        if not self.words:
            QMessageBox.information(self, '提示', '文件未导入')
            return None
        else:
            word = next(self.words, None)
            print(word)
            if word is not None:
                return word
            else:
                self.task_output.insertPlainText(f'所有词语查询完毕\n')
                self.task_output.update()
                return None
    

    首先判断导入的文件是否为空,如果为空,则弹出提示框,提示用户文件未导入,并返回 None。如果导入的文件不为空,则使用 Python 的内置函数 next 从文件中获取下一个关键词,如果获取成功,则返回该关键词。如果获取失败,则表示所有关键词已经查询完毕,此时在任务输出框中插入一条提示信息,并返回 None。

    OK!写完

    本文同步 我的笔记

    End

    相关文章
    |
    15天前
    |
    数据采集 存储 API
    网络爬虫与数据采集:使用Python自动化获取网页数据
    【4月更文挑战第12天】本文介绍了Python网络爬虫的基础知识,包括网络爬虫概念(请求网页、解析、存储数据和处理异常)和Python常用的爬虫库requests(发送HTTP请求)与BeautifulSoup(解析HTML)。通过基本流程示例展示了如何导入库、发送请求、解析网页、提取数据、存储数据及处理异常。还提到了Python爬虫的实际应用,如获取新闻数据和商品信息。
    |
    1天前
    |
    数据可视化 数据挖掘 数据处理
    statsmodels, Python 统计分析工具库!
    statsmodels, Python 统计分析工具库!
    8 1
    |
    1天前
    |
    开发者 Python
    six,一个神奇的 Python 版本兼容工具库!
    six,一个神奇的 Python 版本兼容工具库!
    11 4
    |
    1天前
    |
    人工智能 Python
    beets,一个有趣的 Python 音乐信息管理工具!
    beets,一个有趣的 Python 音乐信息管理工具!
    10 4
    |
    2天前
    |
    数据采集 数据可视化 数据挖掘
    R语言与Python:比较两种数据分析工具
    【4月更文挑战第25天】R语言和Python是目前最流行的两种数据分析工具。本文将对这两种工具进行比较,包括它们的历史、特点、应用场景、社区支持、学习资源、性能等方面,以帮助读者更好地了解和选择适合自己的数据分析工具。
    |
    3天前
    |
    数据采集 数据可视化 数据处理
    Python从入门到精通的文章3.3.1 深入学习Python库和框架:数据处理与可视化的利器
    Python从入门到精通的文章3.3.1 深入学习Python库和框架:数据处理与可视化的利器
    |
    5天前
    |
    数据采集 存储 JSON
    Python爬虫面试:requests、BeautifulSoup与Scrapy详解
    【4月更文挑战第19天】本文聚焦于Python爬虫面试中的核心库——requests、BeautifulSoup和Scrapy。讲解了它们的常见问题、易错点及应对策略。对于requests,强调了异常处理、代理设置和请求重试;BeautifulSoup部分提到选择器使用、动态内容处理和解析效率优化;而Scrapy则关注项目架构、数据存储和分布式爬虫。通过实例代码,帮助读者深化理解并提升面试表现。
    13 0
    |
    8天前
    |
    数据采集 JavaScript 前端开发
    使用Python打造爬虫程序之破茧而出:Python爬虫遭遇反爬虫机制及应对策略
    【4月更文挑战第19天】本文探讨了Python爬虫应对反爬虫机制的策略。常见的反爬虫机制包括User-Agent检测、IP限制、动态加载内容、验证码验证和Cookie跟踪。应对策略包括设置合理User-Agent、使用代理IP、处理动态加载内容、验证码识别及维护Cookie。此外,还提到高级策略如降低请求频率、模拟人类行为、分布式爬虫和学习网站规则。开发者需不断学习新策略,同时遵守规则和法律法规,确保爬虫的稳定性和合法性。
    |
    8天前
    |
    机器学习/深度学习 数据挖掘 计算机视觉
    python数据分析工具SciPy
    【4月更文挑战第15天】SciPy是Python的开源库,用于数学、科学和工程计算,基于NumPy扩展了优化、线性代数、积分、插值、特殊函数、信号处理、图像处理和常微分方程求解等功能。它包含优化、线性代数、积分、信号和图像处理等多个模块。通过SciPy,可以方便地执行各种科学计算任务。例如,计算高斯分布的PDF,需要结合NumPy使用。要安装SciPy,可以使用`pip install scipy`命令。这个库极大地丰富了Python在科学计算领域的应用。
    12 1
    |
    9天前
    |
    数据可视化 数据挖掘 Python
    Python中数据分析工具Matplotlib
    【4月更文挑战第14天】Matplotlib是Python的数据可视化库,能生成多种图表,如折线图、柱状图等。以下是一个绘制简单折线图的代码示例: ```python import matplotlib.pyplot as plt x = [1, 2, 3, 4, 5] y = [2, 4, 6, 8, 10] plt.figure() plt.plot(x, y) plt.title('简单折线图') plt.xlabel('X轴') plt.ylabel('Y轴') plt.show() ```
    13 1