【Python百日刷题计划】Day8~网页分析和一些基础题目

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 【Python百日刷题计划】Day8~网页分析和一些基础题目

文章目录

📚前言

📄题目一

📜题目要求

📜我的解析

📜我的答案

📄题目二

📜我的解析

📜我的答案

📄题目三

📜题目要求

📜我的解析

📜我的答案

📄题目四

📜写在前面

📜题目要求

📜我的答案

📜我的解析:

📚结语


📄题目一

📜题目要求

image.gif编辑

📜我的解析

本道题目难度较小主要考察了内置函数的基本使用方法

📜我的答案

def main(lst):
    return sorted(lst,key=abs)[len(lst) - 1]
image.gif

📄题目二

image.gif编辑

📜我的解析

本题难度较小,主要考察列表,匿名函数,列表推导式的基本使用方法。

📜我的答案

def main(lst):
    is_odd = lambda l : l % 2 == 1        #判断列表中元素是否为奇数的函数
    return [i for i in filter(is_odd,lst)]#生成器中的列表推导式
image.gif

filter内置函数的使用方法------>>【http://t.csdn.cn/NV79F

列表推导式的使用方法 ------>> 【http://t.csdn.cn/eIkZj

📄题目三

📜题目要求

image.gif编辑

📜我的解析

本题难度很小主要考察的是if-else语句和格式化输出

📜我的答案

print('What kind of drink would you like?')
kind_of_drink = input()
if kind_of_drink == 'cola':
    print('Below is your cola. Please check it!')
else:
    print('The {} has been sold out!'.format(kind_of_drink))
image.gif

📄题目四

📜写在前面

写本道题目之前需要掌握以下知识点哟,不清楚的可以翻看我之前的博客或者是网上查找相应的视频来回顾

    • 知识点一👉urlib库的使用中请求对象的定制使用urllib来获取源码
    • 知识点二👉re模块的基本使用方法
    • 知识点三👉json模块的基本使用方法
    • 知识点四👉正则匹配(用于对网页想要信息的提取和不想要信息的剔除
    • 知识点五👉文件的基本使用方法

    📜题目要求

    👉获取某瓣电影排名前十页电影的<"电影排名" "电影标题" "豆瓣评分"和"评论人数">并且将爬取下来的数据放到名为<豆瓣电影信息>的文件中

    image.gif编辑

    📜我的答案

    import json
    import re
    import urllib.request
    def html_get(url):
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
        }
        request = urllib.request.Request(url=url, headers=headers)
        response = urllib.request.urlopen(request).read().decode('utf-8')
        return response
    def page_info(h):
        com = re.compile(
            '<div class="item">.*?<div class="pic">.*?<em .*?>(?P<电影排名>\d+).*?<span class="title">(?P<电影标题>.*?)</span>'
            '.*?<span class="rating_num" .*?>(?P<豆瓣评分>.*?)</span>.*?<span>(?P<评论人数>.*?)评价</span>', re.S)
        ret = com.finditer(h)
        for i in ret:
            yield {
                "电影排名": i.group("电影排名"),
                "电影标题": i.group("电影标题"),
                "豆瓣评分": i.group("豆瓣评分"),
                "评论人数": i.group("评论人数"),
            }
    def main(num):
        url = 'https://movie.douban.com/top250?start=%s&filter=' % num
        douban_html = html_get(url)
        res = page_info(douban_html)
        print(res)
        f=open("豆瓣电影信息","a",encoding="utf8")
        for obj in res:
            print(obj)
            data=json.dumps(obj,ensure_ascii=False)
            f.write(data+"\n")
        f.close()
    if __name__ == '__main__':
        count = 0
        for page_num  in range(10):
            main(count)
            count += 25
    输出结果:
    image.gif

    输出结果:

    image.gif编辑

    知识点:

    flags有很多可选值:

    image.gif编辑

     

      • re.I(IGNORECASE)忽略大小写,括号内是完整的写法
      • re.M(MULTILINE)多行模式,改变^和$的行为
      • re.S(DOTALL)点可以匹配任意字符,包括换行符
      • re.L(LOCALE)做本地化识别的匹配,表示特殊字符集 \w, \W, \b, \B, \s, \S 依赖于当前环境,不推荐使用
      • re.U(UNICODE) 使用\w \W \s \S \d \D使用取决于unicode定义的字符属性。在python3中默认使用该flag
      • re.X(VERBOSE)冗长模式,该模式下pattern字符串可以是多行的,忽略空白字符,并可以添加注释

      📜我的解析:

      html_get(url)函数:

        • 作用:

        获取豆瓣对应网址的网页源码

          • 参数:

          要获取信息的网址

            • 返回值:

            豆瓣对应网址的网页源码

            ✨ page_info(h)函数

              • 作用:

              该函数的作用是匹配获取到的网页源码中的"电影排名" "电影标题" "豆瓣评分"和"评论人数"

                • 参数:

                对应网址的网页源码

                  • 返回值:

                  一个生成器函数

                  ✨ main(num)函数

                    • 作用:

                    顾名思义该函数是程序中的主函数,调用它获取对应页数的<"电影排名" "电影标题" "豆瓣评分"和"评论人数">并且将爬取下来的数据放到名为<豆瓣电影信息>的文件中

                      • 参数:

                      num = 0 则表示第一页,num = 25则表示第二页,num = 50则表示第三页,以此类推,因为每页有25部电影。

                        • 返回值:

                        将爬取下来的数据放到名为<豆瓣电影信息>的文件中

                        相关文章
                        |
                        11天前
                        |
                        机器学习/深度学习 数据采集 TensorFlow
                        使用Python实现智能食品消费模式分析的深度学习模型
                        使用Python实现智能食品消费模式分析的深度学习模型
                        103 70
                        |
                        1月前
                        |
                        数据采集 缓存 定位技术
                        网络延迟对Python爬虫速度的影响分析
                        网络延迟对Python爬虫速度的影响分析
                        |
                        13天前
                        |
                        机器学习/深度学习 数据采集 TensorFlow
                        使用Python实现智能食品消费习惯分析的深度学习模型
                        使用Python实现智能食品消费习惯分析的深度学习模型
                        115 68
                        |
                        9天前
                        |
                        机器学习/深度学习 数据采集 数据挖掘
                        使用Python实现智能食品消费市场分析的深度学习模型
                        使用Python实现智能食品消费市场分析的深度学习模型
                        79 36
                        |
                        3天前
                        |
                        数据可视化 算法 数据挖掘
                        Python量化投资实践:基于蒙特卡洛模拟的投资组合风险建模与分析
                        蒙特卡洛模拟是一种利用重复随机抽样解决确定性问题的计算方法,广泛应用于金融领域的不确定性建模和风险评估。本文介绍如何使用Python和EODHD API获取历史交易数据,通过模拟生成未来价格路径,分析投资风险与收益,包括VaR和CVaR计算,以辅助投资者制定合理决策。
                        31 15
                        |
                        7天前
                        |
                        机器学习/深度学习 数据采集 数据挖掘
                        使用Python实现智能食品消费趋势分析的深度学习模型
                        使用Python实现智能食品消费趋势分析的深度学习模型
                        51 18
                        |
                        16天前
                        |
                        测试技术 开发者 Python
                        使用Python解析和分析源代码
                        本文介绍了如何使用Python的`ast`模块解析和分析Python源代码,包括安装准备、解析源代码、分析抽象语法树(AST)等步骤,展示了通过自定义`NodeVisitor`类遍历AST并提取信息的方法,为代码质量提升和自动化工具开发提供基础。
                        30 8
                        |
                        25天前
                        |
                        JavaScript 前端开发 开发者
                        探索 DrissionPage: 强大的Python网页自动化工具
                        DrissionPage 是一个基于 Python 的网页自动化工具,结合了浏览器自动化的便利性和 requests 库的高效率。它提供三种页面对象:ChromiumPage、WebPage 和 SessionPage,分别适用于不同的使用场景,帮助开发者高效完成网页自动化任务。
                        104 4
                        |
                        1月前
                        |
                        数据采集 存储 JSON
                        Python爬虫开发中的分析与方案制定
                        Python爬虫开发中的分析与方案制定
                        |
                        16天前
                        |
                        机器学习/深度学习 数据采集 供应链
                        使用Python实现深度学习模型:智能食品市场分析
                        使用Python实现深度学习模型:智能食品市场分析
                        31 0