Python-分析json文件

Posted 陈敬(Cathy)

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python-分析json文件相关的知识,希望对你有一定的参考价值。

一、本节用到的基础知识

1.逐行读取文件

for line in open(\'E:\\Demo\\python\\json.txt\'):
    print line

 

2.解析json字符串

Python中有一些内置模块可以非常便捷地将json字符串转换为Python对象。比如json模块中的json.relaods()方法可以将json字符串解析为相应的字典。

import json

s=\'{ "a": "GoogleMaps\\/RochesterNY", "c": "US", "nk": 0, "tz": "America\\/Denver", "gr": "UT", "g": "mwszkS", "h": "mwszkS", "l": "bitly", "hh": "1.usa.gov", "r": "http:\\/\\/www.AwareMap.com\\/", "u": "http:\\/\\/www.monroecounty.gov\\/etc\\/911\\/rss.php", "t": 1331926741, "hc": 1308262393, "cy": "Provo", "ll": [ 40.218102, -111.613297 ] }\'
o=json.loads(s)
print o

 

运行结果:

{u\'a\': u\'GoogleMaps/RochesterNY\', u\'c\': u\'US\', u\'nk\': 0, u\'tz\': u\'America/Denver\', u\'gr\': u\'UT\', u\'g\': u\'mwszkS\', u\'h\': u\'mwszkS\', u\'cy\': u\'Provo\', u\'l\': u\'bitly\', u\'hh\': u\'1.usa.gov\', u\'r\': u\'http://www.AwareMap.com/\', u\'u\': u\'http://www.monroecounty.gov/etc/911/rss.php\', u\'t\': 1331926741, u\'hc\': 1308262393, u\'ll\': [40.218102, -111.613297]}

 

3.列表生成式

详见:http://www.cnblogs.com/janes/p/5530979.html

二、将json文件解析为字典列表

要对json文件进行分析,首先我们逐行读取该文件,并把每行转换成对应的字典对象,然后组成一个列表。

import json
#读取文件并解析为字典组成的列表
dicList=[json.loads(line) for line in open(\'E:\\Demo\\python\\json.txt\')]
#打印第一个字典元素
print dicList[0]
#打印第一个元素中的时区
print dicList[0][\'tz\']

 

运行结果:

{u\'a\': u\'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (Khtml, like Gecko) Chrome/17.0.963.78 Safari/535.11\', u\'c\': u\'US\', u\'nk\': 1, u\'tz\': u\'America/New_York\', u\'gr\': u\'MA\', u\'g\': u\'A6qOVH\', u\'h\': u\'wfLQtf\', u\'cy\': u\'Danvers\', u\'l\': u\'orofrog\', u\'al\': u\'en-US,en;q=0.8\', u\'hh\': u\'1.usa.gov\', u\'r\': u\'http://www.facebook.com/l/7AQEFzjSi/1.usa.gov/wfLQtf\', u\'u\': u\'http://www.ncbi.nlm.nih.gov/pubmed/22415991\', u\'t\': 1331923247, u\'hc\': 1331822918, u\'ll\': [42.576698, -70.954903]}

America/New_York

三、利用Python标准库统计json文件中的时区数据

1.首先将所有时区数据放在一个列表中

#获取所有时区数据
timezones=[item[\'tz\'] for item in dicList if \'tz\' in item]
#测试打印前五条
print timezones[0:5]

 

运行结果:

[u\'America/New_York\', u\'America/Denver\', u\'America/New_York\', u\'America/Sao_Paulo\', u\'America/New_York\']

2.然后将时区列表转换为时区计数字典,key为时区名,value为出现次数。

#自定义函数,统计时区出现次数
def countZone(timezones):
    count_zone={}
    for tz in timezones:
        if(tz in count_zone):
            count_zone[tz]+=1
        else:
            count_zone[tz]=1
    return count_zone

#自定义函数,返回top N
def countTop(dicCount,n):
    valueKeyItems=[(value,key) for key,value in dicCount.items()]
    valueKeyItems.sort()
    return valueKeyItems[-n:]
    
#测试并打印出现次数最多的5个时区    
count=countZone(timezones)
print countTop(count,5)

 

运行结果:

[(191, u\'America/Denver\'), (382, u\'America/Los_Angeles\'), (400, u\'America/Chicago\'), (521, u\'\'), (1251, u\'America/New_York\')]

3.利用defaultdict简化函数countZone函数

Python标准库collections对一些数据结构进行了拓展操作,使用起来更加便捷,其中defaultdict可以给字典赋值默认value。

from collections import defaultdict,Counter
def countZone(timezones):
    count_zone=defaultdict(int)
    for tz in timezones:
        count_zone[tz]+=1
    return count_zone

 

4.利用collections.Counter简化countTop函数

from collections import Counter

def countTop(dicCount,n):
    return Counter(dicCount).most_common(n)

 

5.完整代码

# -*- coding: utf-8 -*-
import json
#1.读取文件并转换为字典列表
#读取文件并解析为字典组成的列表
dicList=[json.loads(line) for line in open(\'E:\\Demo\\python\\json.txt\')]

#2.统计时区
#获取所有时区数据
timezones=[item[\'tz\'] for item in dicList if \'tz\' in item]

#统计时区出现次数
from collections import defaultdict,Counter
def countZone(timezones):
    count_zone=defaultdict(int)
    for tz in timezones:
        count_zone[tz]+=1
    return count_zone

#返回top N
def countTop(dicCount,n):
    return Counter(dicCount).most_common(n)
    
#测试并打印出现次数最多的5个时区    
count=countZone(timezones)
print countTop(count,5)

 

#运行结果:[(u\'America/New_York\', 1251), (u\'\', 521), (u\'America/Chicago\', 400), (u\'America/Los_Angeles\', 382), (u\'America/Denver\', 191)]

四 利用pandas统计json文件中的时区数据

1.运用DataFrame统计时区数据

①DataFrame是pandas中很常用的数据结构,它把数据转换为一个类似表格的结构。

# -*- coding: utf-8 -*-
import json
from pandas import DataFrame
dicList=[json.loads(line) for line in open(\'E:\\Demo\\python\\json.txt\')]
frame=DataFrame(dicList)
#测试打印时区列表中前5个元素
print frame[\'tz\'][:5]

 

运行结果:

0     America/New_York

1       America/Denver

2     America/New_York

3    America/Sao_Paulo

4     America/New_York

②frame[\'tz\']有value_counts()函数,可以直接返回对应的计数。

#打印出现次数最多的5个时区

print frame[\'tz\'].value_counts()[:5]

 

运行结果:

America/New_York       1251

                                 521

America/Chicago         400

America/Los_Angeles     382

America/Denver          191

③为不存在时区数据或者时区为空字符串的数据补全默认值。

fillna()函数可以补全不存在的字段;空字符串可以通过布尔型索引的形式进行替换。

tzList=frame[\'tz\'].fillna(\'Missing\')
tzList[tzList ==\'\']=\'Unknown\'
print tzList.value_counts()[:5]

 

运行结果:

America/New_York       1251

Unknown                 521

America/Chicago         400

America/Los_Angeles     382

America/Denver          191

这样我们就完成了之前用标准Python库相同的工作,完整代码如下:

# -*- coding: utf-8 -*-
import json
from pandas import DataFrame
dicList=[json.loads(line) for line in open(\'E:\\Demo\\python\\json.txt\')]
frame=DataFrame(dicList)
#打印出现次数最多的5个时区
print frame[\'tz\'].value_counts()[:5]

#补全时区不存在或者为空的情况
tzList=frame[\'tz\'].fillna(\'Missing\')
tzList[tzList ==\'\']=\'Unknown\'
print tzList.value_counts()[:5]

 

2.利用plot方法绘制垂直条形图

参考:http://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html

tzList.value_counts()[:5].plot(kind=\'bar\',rot=0)

运行:我们可以利用%paste命令将代码粘贴运行。

命令行:

ipython

%pylab

%paste

 

运行结果:

Image

本文用到的json文件:点此下载

参考:《利用Python进行数据分析》

如需转载,请标明出处:http://www.cnblogs.com/janes/p/5546673.html

以上是关于Python-分析json文件的主要内容,如果未能解决你的问题,请参考以下文章

Python-分析json文件

Alamofire 文件上传出现错误“JSON 文本未以数组或对象开头,并且允许未设置片段的选项”

python python中的漂亮(或漂亮打印)JSON对象具有这一功能。在尝试了解什么时,我总是使用这个片段

我在哪里更改此 Python 代码片段以将临时文件保存在 tmp 文件夹中?

VS Code配置markdown代码片段

VS Code配置markdown代码片段