Python实现对数据的ADF检验

简介: 之前帮朋友做一个python项目,对一组的excel数据进行数据预警,如果数据异常就进行预警,通知开发人员进行处理,这里对数据的处理是进行adf检验,判断其是否数据异常,这篇文章就介绍python如何读取excel数据并对其进行adf检验。

之前帮朋友做一个python项目,对一组的excel数据进行数据预警,如果数据异常就进行预警,通知开发人员进行处理,这里对数据的处理是进行adf检验,判断其是否数据异常,这篇文章就介绍python如何读取excel数据并对其进行adf检验。

在这里先介绍下什么是ADF检验。


在使用很多时间序列模型的时候,如 ARMA、ARIMA,都会要求时间序列是平稳的,所以一般在研究一段时间序列的时候,第一步都需要进行平稳性检验,除了用肉眼检测的方法,另外比较常用的严格的统计检验方法就是ADF检验,也叫做单位根检验。


ADF检验全称是 Augmented Dickey-Fuller test,顾名思义,ADF是 Dickey-Fuller检验的增广形式。DF检验只能应用于一阶情况,当序列存在高阶的滞后相关时,可以使用ADF检验,所以说ADF是对DF检验的扩展。


ADF检验就是判断序列是否存在单位根:如果序列平稳,就不存在单位根;否则,就会存在单位根。


所以,ADF检验的 H0 假设就是存在单位根,如果得到的显著性检验统计量小于三个置信度(10%,5%,1%),则对应有(90%,95,99%)的把握来拒绝原假设。


检验的对象叫做单位根。当一个自回归过程中:


如果滞后项系数b为1,就称为单位根。当单位根存在时,自变量和因变量之间的关系具有欺骗性,因为残差序列的任何误差都不会随着样本量(即时期数)增大而衰减,也就是说模型中的残差的影响是永久的。这种回归又称作伪回归。如果单位根存在,这个过程就是一个随机漫步(random walk)。


在python中可以使用statsmodels 模块进行adf检验,这个模块提供了很多统计模型。


其使用方法如下:


首先需要导入adfuller函数


from statsmodels.tsa.stattools import adfuller
复制代码


这里说明下adfuller函数的参数意义:


x:一维的数据序列。


maxlag:最大滞后数目。


regression:回归中的包含项(c:只有常数项,默认;ct:常数项和趋势项;ctt:常数项,线性二次项;nc:没有常数项和趋势项)


autolag:自动选择滞后数目(AIC:赤池信息准则,默认;BIC:贝叶斯信息准则;t-stat:基于maxlag,从maxlag开始并删除一个滞后直到最后一个滞后长度基于 t-statistic 显著性小于5%为止;None:使用maxlag指定的滞后)


store:True  False,默认。


regresults:True 完整的回归结果将返回。False,默认。


另外返回值意义为:


adf:Test statistic,T检验,假设检验值。


pvalue:假设检验结果。


usedlag:使用的滞后阶数。


nobs:用于ADF回归和计算临界值用到的观测值数目。


icbest:如果autolag不是None的话,返回最大的信息准则值。


resstore:将结果合并为一个dummy。


以上都是对其基本概念的介绍,接下来就上代码:


这里excel的样例数据如下:


05bcccb1b2264dcd9d9477bc1f3a8cf4~tplv-k3u1fbpfcp-zoom-in-crop-mark_1304_0_0_0.webp.jpg


import xlrd
import pandas as pd
import matplotlib.pyplot as plt
from statsmodels.graphics.tsaplots import plot_acf
from statsmodels.tsa.stattools import adfuller
import pandas as pd
import numpy as np
import datetime 
endtime = datetime.datetime.now()
starttime = datetime.datetime.now()-datetime.timedelta(minutes=5)
x_data=[]
y_data=[]
data = xlrd.open_workbook(r'C:\Users\Jiang\Desktop\test.xlsx')
table = data.sheets()[0]
cap = table.col_values(2)
cap1 = table.col_values(0)
for i in range(1,len(cap)):
    x_data.append(cap1[i])
    y_data.append(cap[i])
adf_seq = np.array(y_data)
dftest = adfuller(adf_seq,autolag='AIC')
if dftest[1]>0.05:
    print(starttime)
    print(endtime)
    print(dftest)
    print("当前接通率不平稳")
else:
    print(dftest[1])
    print(starttime)
    print(endtime)
    print(dftest)
    print("当前接通率平稳")
#画折线图
#用来正常显示中文标签
plt.rcParams['font.sans-serif']=['SimHei'] 
plt.plot(x_data, y_data, 'g-s')
plt.title('接通率')
plt.legend()
plt.xlabel('id')
plt.ylabel('接通率')
plt.show()
复制代码


折线图结果:


ea870caae16b40258f0360b90d5dde7b~tplv-k3u1fbpfcp-zoom-in-crop-mark_1304_0_0_0.webp.jpg


ADF检验结果


微信截图_20220517194827.png


数据结果说明:


第一个值:表示Test Statistic , 即T值,表示T统计量


第二个值:p-value,即p值,表示T统计量对应的概率值


第三个值:Lags Used,即表示延迟


第四个值:Number of Observations Used,即表示测试的次数


大括号中的值,分别表示1%, 5%, 10% 的三个level。


可以看到p-value的值大于5%,所以可以认为该数据是不平稳的。


这里的5%是常用的阈值,也可以根据自己的实际需求进行设定。


以上就是通过python对数据进行adf根检验的例子。这里主要涉及到了如果读取excel数据并进行处理,另外核心就是使用statsmodels 的adfuller函数进行adf根检验。

目录
相关文章
|
1月前
|
数据采集 Web App开发 数据可视化
Python零基础爬取东方财富网股票行情数据指南
东方财富网数据稳定、反爬宽松,适合爬虫入门。本文详解使用Python抓取股票行情数据,涵盖请求发送、HTML解析、动态加载处理、代理IP切换及数据可视化,助你快速掌握金融数据爬取技能。
997 1
|
1月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
343 0
|
1月前
|
JSON 算法 API
Python采集淘宝商品评论API接口及JSON数据返回全程指南
Python采集淘宝商品评论API接口及JSON数据返回全程指南
|
1月前
|
JSON API 数据安全/隐私保护
Python采集淘宝拍立淘按图搜索API接口及JSON数据返回全流程指南
通过以上流程,可实现淘宝拍立淘按图搜索的完整调用链路,并获取结构化的JSON商品数据,支撑电商比价、智能推荐等业务场景。
|
2月前
|
存储 监控 API
Python实战:跨平台电商数据聚合系统的技术实现
本文介绍如何通过标准化API调用协议,实现淘宝、京东、拼多多等电商平台的商品数据自动化采集、清洗与存储。内容涵盖技术架构设计、Python代码示例及高阶应用(如价格监控系统),提供可直接落地的技术方案,帮助开发者解决多平台数据同步难题。
|
2月前
|
存储 JSON 算法
Python集合:高效处理无序唯一数据的利器
Python集合是一种高效的数据结构,具备自动去重、快速成员检测和无序性等特点,适用于数据去重、集合运算和性能优化等场景。本文通过实例详解其用法与技巧。
128 0
|
2月前
|
数据采集 关系型数据库 MySQL
python爬取数据存入数据库
Python爬虫结合Scrapy与SQLAlchemy,实现高效数据采集并存入MySQL/PostgreSQL/SQLite。通过ORM映射、连接池优化与批量提交,支持百万级数据高速写入,具备良好的可扩展性与稳定性。
|
2月前
|
JSON API 数据安全/隐私保护
Python采集淘宝评论API接口及JSON数据返回全流程指南
Python采集淘宝评论API接口及JSON数据返回全流程指南
|
2月前
|
数据采集 数据可视化 关系型数据库
基于python大数据的电影数据可视化分析系统
电影分析与可视化平台顺应电影产业数字化趋势,整合大数据处理、人工智能与Web技术,实现电影数据的采集、分析与可视化展示。平台支持票房、评分、观众行为等多维度分析,助力行业洞察与决策,同时提供互动界面,增强观众对电影文化的理解。技术上依托Python、MySQL、Flask、HTML等构建,融合数据采集与AI分析,提升电影行业的数据应用能力。
|
2月前
|
数据可视化 大数据 数据挖掘
基于python大数据的招聘数据可视化分析系统
本系统基于Python开发,整合多渠道招聘数据,利用数据分析与可视化技术,助力企业高效决策。核心功能包括数据采集、智能分析、可视化展示及权限管理,提升招聘效率与人才管理水平,推动人力资源管理数字化转型。

推荐镜像

更多