【项目】全国疫情实时追踪——python爬虫+flask+echarts实现(超详细)(二)

简介: 【项目】全国疫情实时追踪——python爬虫+flask+echarts实现(超详细)(二)

接下来是css得代码


#title{
    position: absolute;
    width:40%;
    height:10%;
    top:0;
    left : 30%;
    background-color: #47c6e9;
  font-size: 30px;
  display:flex;
  align-items:center;
  justify-content:center;
}
#time{
    position: absolute;
    height:10%;
  width: 30%;
    top:0%;
    right:0%;
    font-size:20px;
    background-color: #47c6e9;
}
#ls{
  position: absolute;
  height:10%;
  width: 30%;
  top:0%;
  left:0%;
  font-size:30px;
  background-color: #47c6e9;
}
#z1{
    position: absolute;
    width:40%;
    height:30%;
    top:10%;
    left : 30%;
  background-color: #47c6e9;
    /* background:#black; */
}
#z2{
    position: absolute;
    width:40%;
    height:70%;
    top:30%;
    left : 30%;
    /* background:white; */
}
#zuo1{
    position: absolute;
    width:30%;
    height:45%;
    top:10%;
    left : 0;
    background:#666666;
}
#zuo2{
    position: absolute;
    width:30%;
    height:45%;
    top:55%;
    left : 0;
    background:#666666;
}
#y1{
    position: absolute;
    width:30%;
    height:45%;
    top:10%;
    right : 0%;
    background-color: #47c6e9;
}
#y2{
    position: absolute;
    width:30%;
    height:45%;
    top:55%;
    right : 0%;
    background-color: #47c6e9;
}
.num{
    width:25%;
    float:left;
    display:flex;
    align-items:center;
    justify-content:center;
    color:gold;
    font-size:10px;
}
.num1{
    width:25%;
    float:left;
    display:flex;
    align-items:center;
    justify-content:center;
    color:green;
    font-size:10px;
}
.num2{
    width:25%;
    float:left;
    display:flex;
    align-items:center;
    justify-content:center;
    color:red;
    font-size:10px;
}
.num3{
    width:25%;
    float: right;
    display: ;
    align-items:center;
    justify-content:center;
    color:wh:;;
    font-size:10px;
}
.txt{
    width:25%;
    float:left;
    font-family:'幼圆';
    display:flex;
    align-items:center;
    justify-content:center;
    color:white;
}
.txt h2{
     margin:0;
}

前端基本都布置好了,我们可以来写后端程序了


三.


flask的应用!!


首先我们得下载flask


下载方法就是pip得方法,我就不多说了。


就是flask得环境配置我说一下,我们先看图。


image.png


社区版我们需要自己创建这flask得文件夹,然后在里面创建这些文件夹。


我们剩下的直接看flask的代码。


from flask import Flask
from flask import render_template ,request,redirect,jsonify
import dr
app = Flask(__name__)
@app.route('/')
def hello_world():
   return render_template('lianxi.html',data=dr.get_data2(),data2 = dr.get_data3(),data3 = dr.get_data4())
@app.route('/time')
def get_time():
    return dr.get_time()
@app.route('/data')
def get_data():
    data = dr.get_data()
    return jsonify({'confirm':data[0],'heal':data[1],'dead':data[2],'shuru':data[3]})
import time
import csv
def get_time():
    time_str = time.strftime('%Y{}%m{}%d{} %X')
    return time_str.format('年','月','日')
def get_data():
    with open(r'C:\Users\admin\PycharmProjects\untitled\实战案例\yqin.csv','r')as f:
        list1=[]
        list3=[]
        f1=csv.reader(f)
        for i in f1:
            list1.append(i)
        list2 = list1[1]
        list3.append(list2[1])
        list3.append(list2[3])
        list3.append(list2[4])
        list3.append(list2[6])
    return tuple(list3)
def get_data1():
    with open(r'C:\Users\admin\PycharmProjects\untitled\yq1.csv', 'r', newline='')as f:
        f1 = csv.reader(f)
        lit2 = []
        dict1 = []
        for i in f1:
            lit1 = []
            if i[0] == '省份':
                continue
            else:
                # lit1.append({"name":i[0],"value":int(i[1])})
                lit1.append(i[0])
                lit1.append(int(i[1]))
                lit2.append(lit1)
    # return {'data':lit1}
    return lit2
def get_data2():
    lit= []
    f = get_data1()
    for i in f:
        lit.append({"name":i[0],"value":int(i[1])})
#     return jsonify({"data":lit})
    return lit
def get_data3():
    f = get_data1()
    list1 = []
    list2 = []
    for i in f:
        list1.append(i[0])
        list2.append(i[1])
    return list1,list2
def get_data4():
    with open(r'C:\Users\admin\PycharmProjects\untitled\实战案例\yimiao.csv','r',encoding='utf-8',newline='')as f:
        f1= csv.reader(f)
        list1 = list(f1)
        # for i in f1:
        #     print(i)
        return list1[0],list1[1],list1[2]

第二个是dr代码,负责后端数据的读取,就是最开始爬虫的数据传到前端数据中。


总结:


这差不多就是疫情实时追踪得全部步骤,还有那个前端的图形模块都是在echarts中可以下载的,大家直接下载就可以了,如果还有什么疑问可以直接找我讨论就可以哦,如果觉得写的可以的大家给我点点赞哦。



目录
相关文章
|
19天前
|
数据采集 存储 XML
Python爬虫:深入探索1688关键词接口获取之道
在数字化经济中,数据尤其在电商领域的价值日益凸显。1688作为中国领先的B2B平台,其关键词接口对商家至关重要。本文介绍如何通过Python爬虫技术,合法合规地获取1688关键词接口,助力商家洞察市场趋势,优化营销策略。
|
1月前
|
数据采集 Web App开发 监控
高效爬取B站评论:Python爬虫的最佳实践
高效爬取B站评论:Python爬虫的最佳实践
|
1月前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
4天前
|
数据采集 JSON API
如何利用Python爬虫淘宝商品详情高级版(item_get_pro)API接口及返回值解析说明
本文介绍了如何利用Python爬虫技术调用淘宝商品详情高级版API接口(item_get_pro),获取商品的详细信息,包括标题、价格、销量等。文章涵盖了环境准备、API权限申请、请求构建和返回值解析等内容,强调了数据获取的合规性和安全性。
|
9天前
|
数据采集 存储 API
利用Python爬虫获取1688关键词接口全攻略
本文介绍如何使用Python爬虫技术合法合规地获取1688关键词接口数据,包括环境准备、注册1688开发者账号、获取Access Token、构建请求URL、发送API请求、解析HTML及数据处理存储等步骤,强调遵守法律法规和合理使用爬虫技术的重要性。
|
17天前
|
数据采集 JSON 开发者
Python爬虫京东商品详情数据接口
京东商品详情数据接口(JD.item_get)提供商品标题、价格、品牌、规格、图片等详细信息,适用于电商数据分析、竞品分析等。开发者需先注册账号、创建应用并申请接口权限,使用时需遵循相关规则,注意数据更新频率和错误处理。示例代码展示了如何通过 Python 调用此接口并处理返回的 JSON 数据。
|
21天前
|
XML 数据采集 数据格式
Python 爬虫必备杀器,xpath 解析 HTML
【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href='example.com']` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
|
24天前
|
数据采集 XML 存储
构建高效的Python网络爬虫:从入门到实践
本文旨在通过深入浅出的方式,引导读者从零开始构建一个高效的Python网络爬虫。我们将探索爬虫的基本原理、核心组件以及如何利用Python的强大库进行数据抓取和处理。文章不仅提供理论指导,还结合实战案例,让读者能够快速掌握爬虫技术,并应用于实际项目中。无论你是编程新手还是有一定基础的开发者,都能在这篇文章中找到有价值的内容。
|
22天前
|
数据采集 JavaScript 前端开发
Python爬虫能处理动态加载的内容吗?
Python爬虫可处理动态加载内容,主要方法包括:使用Selenium模拟浏览器行为;分析网络请求,直接请求API获取数据;利用Pyppeteer控制无头Chrome。这些方法各有优势,适用于不同场景。
|
25天前
|
存储 数据可视化 数据挖掘
Python数据分析项目:抖音短视频达人粉丝增长趋势
Python数据分析项目:抖音短视频达人粉丝增长趋势
下一篇
DataWorks