【Python百日刷题计划】Day8~网页分析和一些基础题目

本文涉及的产品
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云解析DNS,个人版 1个月
简介: 【Python百日刷题计划】Day8~网页分析和一些基础题目

文章目录

📚前言

📄题目一

📜题目要求

📜我的解析

📜我的答案

📄题目二

📜我的解析

📜我的答案

📄题目三

📜题目要求

📜我的解析

📜我的答案

📄题目四

📜写在前面

📜题目要求

📜我的答案

📜我的解析:

📚结语


📄题目一

📜题目要求

image.gif编辑

📜我的解析

本道题目难度较小主要考察了内置函数的基本使用方法

📜我的答案

def main(lst):
    return sorted(lst,key=abs)[len(lst) - 1]
image.gif

📄题目二

image.gif编辑

📜我的解析

本题难度较小,主要考察列表,匿名函数,列表推导式的基本使用方法。

📜我的答案

def main(lst):
    is_odd = lambda l : l % 2 == 1        #判断列表中元素是否为奇数的函数
    return [i for i in filter(is_odd,lst)]#生成器中的列表推导式
image.gif

filter内置函数的使用方法------>>【http://t.csdn.cn/NV79F

列表推导式的使用方法 ------>> 【http://t.csdn.cn/eIkZj

📄题目三

📜题目要求

image.gif编辑

📜我的解析

本题难度很小主要考察的是if-else语句和格式化输出

📜我的答案

print('What kind of drink would you like?')
kind_of_drink = input()
if kind_of_drink == 'cola':
    print('Below is your cola. Please check it!')
else:
    print('The {} has been sold out!'.format(kind_of_drink))
image.gif

📄题目四

📜写在前面

写本道题目之前需要掌握以下知识点哟,不清楚的可以翻看我之前的博客或者是网上查找相应的视频来回顾

    • 知识点一👉urlib库的使用中请求对象的定制使用urllib来获取源码
    • 知识点二👉re模块的基本使用方法
    • 知识点三👉json模块的基本使用方法
    • 知识点四👉正则匹配(用于对网页想要信息的提取和不想要信息的剔除
    • 知识点五👉文件的基本使用方法

    📜题目要求

    👉获取某瓣电影排名前十页电影的<"电影排名" "电影标题" "豆瓣评分"和"评论人数">并且将爬取下来的数据放到名为<豆瓣电影信息>的文件中

    image.gif编辑

    📜我的答案

    import json
    import re
    import urllib.request
    def html_get(url):
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
        }
        request = urllib.request.Request(url=url, headers=headers)
        response = urllib.request.urlopen(request).read().decode('utf-8')
        return response
    def page_info(h):
        com = re.compile(
            '<div class="item">.*?<div class="pic">.*?<em .*?>(?P<电影排名>\d+).*?<span class="title">(?P<电影标题>.*?)</span>'
            '.*?<span class="rating_num" .*?>(?P<豆瓣评分>.*?)</span>.*?<span>(?P<评论人数>.*?)评价</span>', re.S)
        ret = com.finditer(h)
        for i in ret:
            yield {
                "电影排名": i.group("电影排名"),
                "电影标题": i.group("电影标题"),
                "豆瓣评分": i.group("豆瓣评分"),
                "评论人数": i.group("评论人数"),
            }
    def main(num):
        url = 'https://movie.douban.com/top250?start=%s&filter=' % num
        douban_html = html_get(url)
        res = page_info(douban_html)
        print(res)
        f=open("豆瓣电影信息","a",encoding="utf8")
        for obj in res:
            print(obj)
            data=json.dumps(obj,ensure_ascii=False)
            f.write(data+"\n")
        f.close()
    if __name__ == '__main__':
        count = 0
        for page_num  in range(10):
            main(count)
            count += 25
    输出结果:
    image.gif

    输出结果:

    image.gif编辑

    知识点:

    flags有很多可选值:

    image.gif编辑

     

      • re.I(IGNORECASE)忽略大小写,括号内是完整的写法
      • re.M(MULTILINE)多行模式,改变^和$的行为
      • re.S(DOTALL)点可以匹配任意字符,包括换行符
      • re.L(LOCALE)做本地化识别的匹配,表示特殊字符集 \w, \W, \b, \B, \s, \S 依赖于当前环境,不推荐使用
      • re.U(UNICODE) 使用\w \W \s \S \d \D使用取决于unicode定义的字符属性。在python3中默认使用该flag
      • re.X(VERBOSE)冗长模式,该模式下pattern字符串可以是多行的,忽略空白字符,并可以添加注释

      📜我的解析:

      html_get(url)函数:

        • 作用:

        获取豆瓣对应网址的网页源码

          • 参数:

          要获取信息的网址

            • 返回值:

            豆瓣对应网址的网页源码

            ✨ page_info(h)函数

              • 作用:

              该函数的作用是匹配获取到的网页源码中的"电影排名" "电影标题" "豆瓣评分"和"评论人数"

                • 参数:

                对应网址的网页源码

                  • 返回值:

                  一个生成器函数

                  ✨ main(num)函数

                    • 作用:

                    顾名思义该函数是程序中的主函数,调用它获取对应页数的<"电影排名" "电影标题" "豆瓣评分"和"评论人数">并且将爬取下来的数据放到名为<豆瓣电影信息>的文件中

                      • 参数:

                      num = 0 则表示第一页,num = 25则表示第二页,num = 50则表示第三页,以此类推,因为每页有25部电影。

                        • 返回值:

                        将爬取下来的数据放到名为<豆瓣电影信息>的文件中

                        相关文章
                        |
                        9天前
                        |
                        数据采集 数据可视化 索引
                        【python】python股票量化交易策略分析可视化(源码+数据集+论文)【独一无二】
                        【python】python股票量化交易策略分析可视化(源码+数据集+论文)【独一无二】
                        |
                        4天前
                        |
                        机器学习/深度学习 数据采集 数据可视化
                        使用Python实现深度学习模型:智能舆情监测与分析
                        【8月更文挑战第16天】 使用Python实现深度学习模型:智能舆情监测与分析
                        19 1
                        |
                        7天前
                        |
                        存储 JSON 数据可视化
                        用Python分析S11决赛EDGvsDK,教你怎么硬核吹EDG
                        用Python分析S11决赛EDGvsDK,教你怎么硬核吹EDG
                        22 4
                        用Python分析S11决赛EDGvsDK,教你怎么硬核吹EDG
                        |
                        7天前
                        |
                        编解码 算法 Linux
                        Linux平台下RTSP|RTMP播放器如何跟python交互投递RGB数据供视觉算法分析
                        在对接Linux平台的RTSP播放模块时,需将播放数据同时提供给Python进行视觉算法分析。技术实现上,可在播放时通过回调函数获取视频帧数据,并以RGB32格式输出。利用`SetVideoFrameCallBackV2`接口设定缩放后的视频帧回调,以满足算法所需的分辨率。回调函数中,每收到一帧数据即保存为bitmap文件。Python端只需读取指定文件夹中的bitmap文件,即可进行视频数据的分析处理。此方案简单有效,但应注意控制输出的bitmap文件数量以避免内存占用过高。
                        |
                        6天前
                        |
                        数据采集 数据挖掘 数据处理
                        Python爬虫开发:爬取简单的网页数据
                        本文详细介绍了如何使用Python爬取简单的网页数据,以掘金为例,展示了从发送HTTP请求、解析HTML文档到提取和保存数据的完整过程。通过这个示例,你可以掌握基本的网页爬取技巧,为后续的数据分析打下基础。希望本文对你有所帮助。
                        |
                        10天前
                        |
                        存储 供应链 数据可视化
                        【python】python 大型商超会员数据研究分析可视化 (源码+数据集+论文)【独一无二】
                        【python】python 大型商超会员数据研究分析可视化 (源码+数据集+论文)【独一无二】
                        |
                        7天前
                        |
                        数据采集 数据挖掘 数据处理
                        Python爬虫开发:爬取简单的网页数据
                        在数据分析中,数据的获取是第一步。随着互联网的普及,网络爬虫成为获取数据的重要手段。本文将详细介绍如何使用Python爬取简单的网页数据。
                        |
                        8天前
                        |
                        数据采集 数据可视化 Python
                        【python】python猫眼电影数据抓取分析可视化(源码+数据集+论文)【独一无二】
                        【python】python猫眼电影数据抓取分析可视化(源码+数据集+论文)【独一无二】
                        |
                        9天前
                        |
                        机器学习/深度学习 数据采集 算法
                        【python】python基于微博互动数据的用户类型预测(随机森林与支持向量机的比较分析)(源码+数据集+课程论文)【独一无二】
                        【python】python基于微博互动数据的用户类型预测(随机森林与支持向量机的比较分析)(源码+数据集+课程论文)【独一无二】
                        |
                        9天前
                        |
                        存储 数据采集 数据可视化
                        【python】python基于akshare企业财务数据对比分析可视化(源码+数据集+论文)【独一无二】
                        【python】python基于akshare企业财务数据对比分析可视化(源码+数据集+论文)【独一无二】