数据分析-Pandas如何画自相关图
数据分析和处理中,难免会遇到各种数据,那么数据呈现怎样的规律呢?不管金融数据,风控数据,营销数据等等,莫不如此。如何通过图示展示数据的规律?
数据表,时间序列数据在数据分析建模中很常见,例如天气预报,空气状态监测,股票交易等金融场景。数据分析过程中重新调整,重塑数据表是很重要的技巧,此处选择Titanic数据,以及巴黎、伦敦欧洲城市空气质量监测 N O 2 NO_2 NO2数据作为样例。
数据分析
数据分析-Pandas如何转换产生新列
数据分析-Pandas如何统计数据概况
数据分析-Pandas如何轻松处理时间序列数据
数据分析-Pandas如何选择数据子集
数据分析-Pandas如何重塑数据表-CSDN博客
本文用到的样例数据:
Titanic数据
样例代码:
源代码参考 Pandas如何重塑数据表
源代码参考 python数据分析-数据表读写到pandas
导入关键模块
import pandas as pd
import numpy as np
import matplotlib.pyplot as pltplt.close("all")
在pandas数据分析中,自相关图是一个快速数据测试,以确定数据点是否随机。如果数据点遵循某种趋势,那么一个或多个自相关将显著非零。
最简autocorrelation图画法
pandas画Auto correlation图方法最简单,只要一句语句搞定。
直接使用 series,autocorrelation_plot函数即可。
随机数据序列
data = pd.Series(np.arange(12,7000,16.3))
autocorrelation_plot(data)spacing = np.linspace(-99 * np.pi, 99 * np.pi, num=1000)
data = pd.Series(0.2 * np.random.rand(1000) + 0.9 )
autocorrelation_plot(data);plt.show()
plt.close("all")
图中的虚线显示99%的置信区间,自相关图在所有时间滞后中都非常接近于零。
线性数据序列
spacing = np.linspace(-99 * np.pi, 99 * np.pi, num=1000)
data = pd.Series(0.2 * np.random.rand(1000) + 0.9 * spacing)autocorrelation_plot(data);plt.show()
plt.close("all")
正弦数据序列
spacing = np.linspace(-99 * np.pi, 99 * np.pi, num=1000)
data = pd.Series(0.2 * np.random.rand(1000) + 0.9 * np.sin(spacing))autocorrelation_plot(data);plt.show()
plt.close("all")
余弦数据序列
spacing = np.linspace(-99 * np.pi, 99 * np.pi, num=1000)
data = pd.Series(0.2 * np.random.rand(1000) + 0.9 * np.cos(spacing))
autocorrelation_plot(data);plt.show()
plt.close("all")
以上代码只是一个简单示例,示例代码中的表达式可以根据实际问题进行修改。
后面介绍下其他的展示形式。
觉得有用 收藏 收藏 收藏
点个赞 点个赞 点个赞
End
GPT专栏文章:
GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案
GPT实战系列-LangChain + ChatGLM3构建天气查询助手
大模型查询工具助手之股票免费查询接口
GPT实战系列-简单聊聊LangChain
GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)
GPT实战系列-ChatGLM2模型的微调训练参数解读
GPT实战系列-如何用自己数据微调ChatGLM2模型训练
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案
GPT实战系列-Baichuan2本地化部署实战方案
GPT实战系列-Baichuan2等大模型的计算精度与量化
GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF
GPT实战系列-探究GPT等大模型的文本生成-CSDN博客