Streamlit的第一个应用(二)(上)

简介: Streamlit的第一个应用(二)

1 前言


📣 重要通知!在我之前的博客中,曾经介绍过Streamlit的安装方法和初步应用。如果你还没有参阅过,请先阅读这篇文章,它为我们接下来的探索铺垫了基础。🔍😊

(一) 初识Streamlit——安装以及初步应用 在这篇文章中,我向大家简要介绍了Streamlit的安装过程,并分享了一个简单应用的示例供大家参考。让我们回顾一下这篇文章:(一)初识streamlit——安装以及初步应用🚀🔗

感谢大家一直以来的支持与鼓励!接下来,我们将继续探索如何使用Streamlit创建第一个应用。请随我一同展开这个令人兴奋的旅程!💡✨

本文涉及到每章节的详细内容都会在之后的博文中讲解,这里是为了向读者展示利用streamlit搭建数据看板的完整流程


2 创建第一个应用 📝🚀


在本部分中,我们将一起探索如何使用Streamlit来创建第一个应用程序。Streamlit不仅仅是创建数据应用的一种方式,它还为我们提供了一个活跃的社区平台,让我们可以分享应用和创意,并相互帮助改进工作。赶快加入我们的社区论坛吧,我们非常乐于听取你的问题和想法,并帮助你解决困扰 —— 今天就开始吧!


首先,我们需要创建一个新的Python脚本,我们可以将其命名为 uber_pickups.py。

打开你最喜欢的集成开发环境(IDE)或文本编辑器,然后添加以下几行代码:


import streamlit as st
import pandas as pd
import numpy as np

每个优秀的应用程序都需要一个标题,因此让我们来添加一个:


/

st.title('Uber在纽约市的搭车数据')

现在,我们可以在命令行中运行Streamlit:

streamlit run uber_pickups.py

运行Streamlit应用与运行其他Python脚本没有任何区别。每当你需要查看应用程序时,只需使用这个命令即可。应用程序通常会在浏览器中自动开启一个新的选项卡。


3 获取数据 📦🔍


现在我们已经创建了一个应用程序,下一步需要做的是获取纽约市Uber的搭车和下车数据。


让我们首先编写一个功能来加载数据。我们将编写一个名为load_data的函数,该函数使用pandas库的read_csv函数从指定的URL下载数据,并将其存储在一个名为data的数据帧中。我们还将所有列名称转换为小写,并将日期/时间列转换为pandas的日期时间类型。

# 设置日期/时间列的名称
DATE_COLUMN = 'date/time'
# 定义数据集的URL地址
DATA_URL = ('https://s3-us-west-2.amazonaws.com/'
         'streamlit-demo-data/uber-raw-data-sep14.csv.gz')
# 定义加载数据的函数
def load_data(nrows):
    # 从指定URL下载数据,并将其加载到数据帧中
    data = pd.read_csv(DATA_URL, nrows=nrows)
    # 将列名称转换为小写
    lowercase = lambda x: str(x).lower()
    data.rename(lowercase, axis='columns', inplace=True)
    # 将日期/时间列转换为日期时间类型
    data[DATE_COLUMN] = pd.to_datetime(data[DATE_COLUMN])
    # 返回加载的数据帧
    return data


在上述代码中,我们使用DATA_URL变量来指定数据集的URL地址。然后,我们调用read_csv函数,并传入nrows参数来加载指定数量的行数据。


接下来,我们在应用程序中使用这个函数来加载实际的数据。我们创建一个文本元素data_load_state,用于在应用程序中显示加载数据的状态信息。然后,我们调用load_data函数,并传入10000作为要加载的行数。一旦数据加载完成,我们使用text方法来更新data_load_state文本元素的内容,提示数据加载已完成。


/

# 创建一个文本元素,告诉读者数据正在加载中。
data_load_state = st.text('正在加载数据...')
# 加载10,000行数据到数据帧中。
data = load_data(10000)
# 通知读者数据已成功加载。
data_load_state.text('加载数据...完成!')


最后,我们通过运行streamlit run命令来启动应用程序,并选择"Always Rerun"选项。这样,当对应用程序进行任何更改并保存后,它都会自动重新加载,并显示数据加载的状态信息。


4 函数缓存🚀🔍📊


缓存是一种性能优化技术,可以将函数计算的结果保存在内存中,以便在下次调用时快速获取。而Streamlit的缓存功能非常简单,只需要使用@st.cache装饰器即可激活。

使用@st.cache装饰器标记一个函数后,Streamlit会自动管理函数的缓存。在函数调用时,Streamlit会检查两个方面:


(1)使用的输入参数:如果提供的参数值与之前的一样,Streamlit会直接从缓存中获取结果,而不会重新计算。


(2)函数内部的代码:如果代码没有发生变化,Streamlit也会从缓存中获取结果,从而避免重复计算。


使用缓存功能有很多好处。特别是对于加载大型数据集或进行耗时计算的情况下,缓存可以显著提高应用程序的性能和响应速度。通过避免重复计算,我们可以使应用程序更加高效。


要使用缓存功能,只需在函数定义之前使用@st.cache装饰器标记函数即可。这一行简单的代码就可以为你的应用程序带来神奇的缓存效果。


5 赏析原始数据 ✨🎉


在开始处理数据之前,咱们得先瞄一眼要处理的原始数据,这是个非常不错的主意哦!那么咱们来为应用程序添加一个炫酷的副标题,并将原始数据打印出来:


/

import streamlit as st
# 添加子标题
st.subheader('原始数据')
# 打印原始数据
st.write(data)


在上面的代码中,我们使用st.subheader()函数添加了一个子标题,以强调原始数据的重要性。然后,使用st.write()函数将数据打印出来。有趣的是,st.write()函数可以渲染几乎任何你传递给它的内容。


st.write()函数会根据数据类型的不同尝试展示最合适的方式。如果它没有按照你的预期工作,你可以尝试使用专门的命令,如st.dataframe()来显示数据框。完整的命令列表可以查看 API 参考文档。


通过观察原始数据,你可以对数据的结构和特征有一个初步的了解。这对于理解数据和选择适当的分析方法非常重要。


6 绘制直方图 📊✨


现在,我们将进一步分析数据集,通过绘制直方图来了解Uber在纽约市最繁忙的小时段。

首先,在原始数据部分下面添加一个子标题:

st.subheader('每小时乘车次数')

接下来,使用NumPy生成一个直方图,按小时统计乘车时间:

# 使用NumPy生成一个直方图,按小时统计乘车时间
hist_values = np.histogram(
    data[DATE_COLUMN].dt.hour, bins=24, range=(0,24))[0]


这段代码使用NumPy库生成了直方图的值,将乘车时间按小时进行分类并统计出现的次数。


现在,让我们使用Streamlit的st.bar_chart()方法来绘制直方图:

# 通过Streamlit的st.bar_chart()方法绘制直方图
st.bar_chart(hist_values)


保存你的脚本。这个直方图应该会立即显示在你的应用程序中。经过快速查看,我们可以看到最繁忙的时间是下午17点(5点)。

相关文章
|
定位技术
Streamlit的第一个应用(二)(下)
Streamlit的第一个应用(二)
494 0
|
存储 设计模式 前端开发
Streamlit应用中构建多页面(三):两种方案(上)
Streamlit应用中构建多页面(三):两种方案
4072 0
|
机器学习/深度学习 前端开发 数据可视化
神奇的streamlit (哇 原来深度学习还可以这样玩)
神奇的streamlit (哇 原来深度学习还可以这样玩)
神奇的streamlit (哇 原来深度学习还可以这样玩)
|
存储 缓存 数据可视化
(七)解析Streamlit的数据元素:探索st.dataframe、st.data_editor、st.column_config、st.table、st.metric和st.json的神奇之处(上)
(七)解析Streamlit的数据元素:探索st.dataframe、st.data_editor、st.column_config、st.table、st.metric和st.json的神奇之处
6607 0
|
数据可视化 前端开发 数据安全/隐私保护
Streamlit快速构建数据应用程序
【10月更文挑战第21天】Streamlit 是一个开源的 Python 库,用于快速构建数据应用程序。它简化了数据可视化的开发过程,允许用户通过简单的 Python 脚本创建交互式应用,而无需编写复杂的前端代码。本文介绍了 Streamlit 的基本概念、安装方法、示例应用的创建、扩展功能及部署方法,展示了其在 Python 可视化领域的潜力和优势。
|
7月前
|
存储 人工智能 监控
一键部署 Dify + MCP Server,高效开发 AI 智能体应用
本文将着重介绍如何通过 SAE 快速搭建 Dify AI 研发平台,依托 Serverless 架构提供全托管、免运维的解决方案,高效开发 AI 智能体应用。
6256 64
|
11月前
|
机器学习/深度学习 人工智能 数据处理
[python 技巧] 快速掌握Streamlit: python快速原型开发工具
本文旨在快速上手python的streamlit库,包括安装,输入数据,绘制图表,基础控件,进度条,免费部署。
1243 64
[python 技巧] 快速掌握Streamlit: python快速原型开发工具
|
Devops jenkins 测试技术
DevOps实践:持续集成与持续部署(CI/CD)的实现之路
【9月更文挑战第33天】在软件开发的海洋中,DevOps是一艘能够加速航行、提升航程质量的巨轮。本文将作为你的航海图,指引你理解并实现DevOps文化中的核心环节——持续集成(CI)与持续部署(CD)。我们将从基础概念出发,逐步深入到实际操作,带你领略代码到部署的全过程。准备好扬帆起航,让我们共同探索如何通过自动化工具和流程优化,让软件交付变得既高效又可靠。
|
数据可视化 前端开发 数据挖掘
数据分析可视化神器---streamlit框架,各种图表绘制,布局以及生产综合案例剖析
数据分析可视化神器---streamlit框架,各种图表绘制,布局以及生产综合案例剖析
2707 0