利用python做数据分析 札记(二)

简介: 实验环境:Anaconda-> Jupyter 参考数据:利用python进行数据分析 python版本 3.

这里写图片描述
实验环境:Anaconda-> Jupyter
参考数据:利用python进行数据分析
python版本 3.5.2
所有的源文件和所需的数据地址是http://download.csdn.net/detail/liangjbdd/8842239#comment

path='C:\\Users\\ecaoyng\\Desktop\\work space\\Python\\py_for_analysis\\pydata-book-master\\ch02\\usagov_bitly_data2012-03-16-1331923249.txt'
open(path).readline()

也可以用JSON列表,loads函数,注意地址分隔符要转义

import json
path='C:\\Users\\ecaoyng\\Desktop\\work space\\Python\\py_for_analysis\\pydata-book-master\\ch02\\usagov_bitly_data2012-03-16-1331923249.txt'
records=[json.loads(line) for line in open(path)]
print (records[0])
print (type(records))

{‘gr’: ‘MA’, ‘u’: ‘http://www.ncbi.nlm.nih.gov/pubmed/22415991‘, ‘cy’: ‘Danvers’, ‘h’: ‘wfLQtf’, ‘hh’: ‘1.usa.gov’, ‘r’: ‘http://www.facebook.com/l/7AQEFzjSi/1.usa.gov/wfLQtf‘, ‘a’: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.78 Safari/535.11’, ‘al’: ‘en-US,en;q=0.8’, ‘ll’: [42.576698, -70.954903], ‘hc’: 1331822918, ‘nk’: 1, ‘tz’: ‘America/New_York’, ‘c’: ‘US’, ‘l’: ‘orofrog’, ‘g’: ‘A6qOVH’, ‘t’: 1331923247}

records[0]['tz']

‘America/New_York’

列表推导式:

timezones=[rec['tz'] for rec in records if 'tz' in rec]
timezones[:10]

[‘America/New_York’,
‘America/Denver’,
‘America/New_York’,
‘America/Sao_Paulo’,
‘America/New_York’,
‘America/New_York’,
‘Europe/Warsaw’,
”,
”,
”]

def get_counts(seq):
    counts={}
    for x in seq:
        if x in counts:
            counts[x] +=1
        else:
            counts[x]=1
    return counts

get_counts(timezones)

用python代码对时区进行计数:
传统python:

def get_counts(seq):
    counts={}
    for x in seq:
        if x in counts:
            counts[x] +=1
        else:
            counts[x]=1
    return counts

get_counts(timezones)

也可以用defaultdict,将dic的初始值设置为0

from collections import defaultdict
def get_counts2(seq):
    counts=defaultdict(int) # Init with 0
    for x in seq:
        counts[x]+=1
    return counts

tztimes=get_counts2(timezones)
len(timezones)

3440

tztimes.items()

ict_items([(”, 521), (‘Europe/Uzhgorod’, 1), (‘Asia/Pontianak’, 1), (‘Europe/Brussels’, 4), (‘America/Mazatlan’, 1), (‘America/Monterrey’, 1), (‘Asia/Dubai’, 4), (‘Europe/Bratislava’, 3), (‘Asia/Jerusalem’, 3), (‘Europe/Rome’, 27), (‘Asia/Kuala_Lumpur’, 3), (‘America/Indianapolis’, 20), (‘Europe/Lisbon’, 8), (‘Europe/Volgograd’, 1), (‘America/Montevideo’, 1), (‘Europe/Skopje’, 1), …


如果想要得到前十位的时区,用字典的处理技巧:

def top_counts(count_dict,n=10):
    value_key_pairs=[(count,tz)for tz,count in count_dict.items()]
    value_key_pairs.sort()
    return value_key_pairs[-n:]

top_counts(tztimes)

[(‘America/New_York’, 1251),
(”, 521),
(‘America/Chicago’, 400),
(‘America/Los_Angeles’, 382),
(‘America/Denver’, 191),
(‘Europe/London’, 74),
(‘Asia/Tokyo’, 37),
(‘Pacific/Honolulu’, 36),
(‘Europe/Madrid’, 35),
(‘America/Sao_Paulo’, 33)]

也可以用标准库中的collections.Counter

from collections import Counter
counts=Counter(timezones)
counts.most_common(10)

[(‘America/New_York’, 1251),
(”, 521),
(‘America/Chicago’, 400),
(‘America/Los_Angeles’, 382),
(‘America/Denver’, 191),
(‘Europe/London’, 74),
(‘Asia/Tokyo’, 37),
(‘Pacific/Honolulu’, 36),
(‘Europe/Madrid’, 35),
(‘America/Sao_Paulo’, 34)]


用pandas对时区进行计数
DataFrame用于将数据表示成一个表格

from pandas import DataFrame, Series
import pandas as pd; import numpy as np
frame=DataFrame(records)
frame

若不按顺序查看

frame['tz'][:10]

0 America/New_York
1 America/Denver
2 America/New_York
3 America/Sao_Paulo

这里frame的输出是摘要视图,主要用于较大的DataFrame对象。frame[‘tz’]所返回的Series对象有一个value_counts方法可以得到需要的值

frame['tz'].value_counts()

若此时想用matplotlib生成一张图片,需要先将未知或者缺失的时区填上一个替代值。fillna可以替代缺失值,空字符串则可以通过布尔型数组索引加以替换。

clean_tz=frame['tz'].fillna('Missing')
clean_tz[clean_tz== ''] = 'Unknow'
tz_counts=clean_tz.value_counts()
tz_counts[:10]

America/New_York 1251
Unknow 521
America/Chicago 400
America/Los_Angeles 382
America/Denver 191
Missing 120
Europe/London 74
Asia/Tokyo 37
Pacific/Honolulu 36
Europe/Madrid 35
Name: tz, dtype: int64

利用plot方法可以得到水平条形图
当然你要打开pylab
打开方法:

%pylab

Using matplotlib backend: Qt5Agg
Populating the interactive namespace from numpy and matplotlib

tz_counts[:10].plot(kind='barh',rot=0)

这里写图片描述


比如取frame的一列

frame['a']
type(frame['a'])

得到:
0 Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKi…
1 GoogleMaps/RochesterNY
2 Mozilla/4.0 (compatible; MSIE 8.0; Windows NT …
3 Mozilla/5.0 (Macintosh; Intel Mac OS X 10_6_8)…

pandas.core.series.Series

比如要将agent字符串的第一节分离出来并得到另外一份用户行为摘要

results=Series([x.split()[0] for x in frame.a.dropna()])
results[:5]

0 Mozilla/5.0
1 GoogleMaps/RochesterNY
2 Mozilla/4.0
3 Mozilla/5.0
4 Mozilla/5.0
dtype: object

results.value_counts()[:8]

Mozilla/5.0 2594
Mozilla/4.0 601
GoogleMaps/RochesterNY 121
Opera/9.80 34
TEST_INTERNET_AGENT 24
GoogleProducer 21
Mozilla/6.0 5
BlackBerry8520/5.0.0.681 4
dtype: int64

假如你想按windows和非windows用户来区分时区的统计信息。为了简单,假如agent字符串中含有windows就认为是windows用户,由于有些agent缺失,所以先移除

cframe=frame[frame.a.notnull()]
operating_system=np.where(cframe['a'].str.contains('Windows'), 'Windows', 'Not Windows')
operating_system[:5]

array([‘Windows’, ‘Not Windows’, ‘Windows’, ‘Not Windows’, ‘Windows’],
dtype=’

print (len(cframe))
by_tz_os=cframe.groupby(['tz'])
by_tz_os.size()

输出
3440
tz
521
Africa/Cairo 3
Africa/Casablanca 1
Africa/Ceuta 2
Africa/Johannesburg 1
Africa/Lusaka 1
America/Anchorage 5
America/Argentina/Buenos_Aires 1

dtype: int64

为了计算是否和cframe的值相等

by_tz_os.size().sum()

3440

unstack 可以使一列数据设置为列标签

agg_counts=by_tz_os.size().unstack()
agg_counts[:10]

agg_counts=agg_counts.fillna(0)
agg_counts

这里写图片描述

agg_counts['Not Windows'].sum(0)

1194.0

agg_counts.loc['Pacific/Honolulu']

Not Windows 0.0
Windows 36.0
Name: Pacific/Honolulu, dtype: float64

indexer=agg_counts.sum(1).loc['Pacific/Honolulu']
indexer

36.0

count_subset=agg_counts.take(indexer)[-10:]
count_subset

最后来选取最常出现的时区
这里写图片描述

take的作用官方文档是Analogous to ndarray.take(百度)

作图:

count_subset.plot(kind='barh',stacked=True)

这里写图片描述


from pandas import DataFrame #从pandas库中引用DataFrame
df_obj = DataFrame() #创建DataFrame对象
df_obj.dtypes #查看各行的数据格式
df_obj.head() #查看前几行的数据,默认前5行
df_obj.tail() #查看后几行的数据,默认后5行
df_obj.index #查看索引
df_obj.columns #查看列名
df_obj.values #查看数据值
df_obj.describe #描述性统计
df_obj.T #转置
df_obj.sort(columns = ‘’)#按列名进行排序
df_obj.sort_index(by=[‘’,’’])#多列排序,使用时报该函数已过时,请用sort_values
df_obj.sort_values(by=[”,”])同上


一个numpy的例子

import numpy as np
data = {i: np.random.randn() for i in range(7)}
print (data)
print (dtype(data))

{0: -0.3545697629475486, 1: 1.3098551782757126, 2: -0.17715637837979628, 3: 0.7631836116626937, 4: 0.1599041446132432, 5: 0.7041281969761696, 6: 0.5984084616089319}

def printMax(x, y):  
    '''Prints the maximum of two numbers.\
    The two values must be integers.'''  
    x = int(x) # convert to integers, if possible  
    y = int(y)  

    if x > y:  
        print (x, 'is maximum')  
    else:  
        print (y, 'is maximum')  

printMax(3, 5)  
print (printMax.__doc__)
print ('---------------')
print (help(printMax))

5 is maximum
Prints the maximum of two numbers. The two values must be integers.
/——————-
printMax(x, y)
Prints the maximum of two numbers. The two values must be integers.

None

目录
相关文章
|
2月前
|
数据采集 数据可视化 数据挖掘
Python数据分析实战:Pandas处理结构化数据的核心技巧
在数据驱动时代,结构化数据是分析决策的基础。Python的Pandas库凭借其高效的数据结构和丰富的功能,成为处理结构化数据的利器。本文通过真实场景和代码示例,讲解Pandas的核心操作,包括数据加载、清洗、转换、分析与性能优化,帮助你从数据中提取有价值的洞察,提升数据处理效率。
125 3
|
7天前
|
数据可视化 大数据 关系型数据库
基于python大数据技术的医疗数据分析与研究
在数字化时代,医疗数据呈爆炸式增长,涵盖患者信息、检查指标、生活方式等。大数据技术助力疾病预测、资源优化与智慧医疗发展,结合Python、MySQL与B/S架构,推动医疗系统高效实现。
|
4月前
|
数据采集 数据可视化 搜索推荐
Python数据分析全流程指南:从数据采集到可视化呈现的实战解析
在数字化转型中,数据分析成为企业决策核心,而Python凭借其强大生态和简洁语法成为首选工具。本文通过实战案例详解数据分析全流程,涵盖数据采集、清洗、探索、建模、可视化及自动化部署,帮助读者掌握从数据到业务价值的完整技能链。
480 0
|
2月前
|
数据可视化 数据挖掘 大数据
基于python大数据的水文数据分析可视化系统
本研究针对水文数据分析中的整合难、分析单一和可视化不足等问题,提出构建基于Python的水文数据分析可视化系统。通过整合多源数据,结合大数据、云计算与人工智能技术,实现水文数据的高效处理、深度挖掘与直观展示,为水资源管理、防洪减灾和生态保护提供科学决策支持,具有重要的应用价值和社会意义。
|
3月前
|
存储 数据挖掘 大数据
基于python大数据的用户行为数据分析系统
本系统基于Python大数据技术,深入研究用户行为数据分析,结合Pandas、NumPy等工具提升数据处理效率,利用B/S架构与MySQL数据库实现高效存储与访问。研究涵盖技术背景、学术与商业意义、国内外研究现状及PyCharm、Python语言等关键技术,助力企业精准营销与产品优化,具有广泛的应用前景与社会价值。
|
11月前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python进行数据分析的入门指南
本文将引导读者了解如何使用Python进行数据分析,从安装必要的库到执行基础的数据操作和可视化。通过本文的学习,你将能够开始自己的数据分析之旅,并掌握如何利用Python来揭示数据背后的故事。
|
6月前
|
机器学习/深度学习 数据采集 数据可视化
Python数据分析,别再死磕Excel了!
Python数据分析,别再死磕Excel了!
233 2
|
9月前
|
机器学习/深度学习 存储 数据可视化
这份Excel+Python飞速搞定数据分析手册,简直可以让Excel飞起来
本书介绍了如何将Python与Excel结合使用,以提升数据分析和处理效率。内容涵盖Python入门、pandas库的使用、通过Python包操作Excel文件以及使用xlwings对Excel进行编程。书中详细讲解了Anaconda、Visual Studio Code和Jupyter笔记本等开发工具,并探讨了NumPy、DataFrame和Series等数据结构的应用。此外,还介绍了多个Python包(如OpenPyXL、XlsxWriter等)用于在无需安装Excel的情况下读写Excel文件,帮助用户实现自动化任务和数据处理。
|
12月前
|
机器学习/深度学习 算法 数据挖掘
数据分析的 10 个最佳 Python 库
数据分析的 10 个最佳 Python 库
数据分析的 10 个最佳 Python 库
|
12月前
|
存储 数据可视化 数据挖掘
使用Python进行数据分析和可视化
本文将引导你理解如何使用Python进行数据分析和可视化。我们将从基础的数据结构开始,逐步深入到数据处理和分析的方法,最后通过实际的代码示例来展示如何创建直观的数据可视化。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有价值的见解和技巧。让我们一起探索数据的世界,发现隐藏在数字背后的故事!
343 5

推荐镜像

更多
下一篇
开通oss服务