文件处理

Posted zeroones

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了文件处理相关的知识,希望对你有一定的参考价值。

主目录

文件处理:  csv, table, json, txt, db

这里面全是死的东西,在这几个例子最常用的是.csv   .dat   .txt   文件,再牛逼点儿的使用json转成对象

import pandas as pd
import json
path = \'datasets/bitly_usagov/example.txt\'
open(path).readline()

records = [json.loads(line) for line in open(path)]
records[0]

#----------------------------------#

pd.options.display.max_rows = 10
unames = [\'user_id\', \'gender\', \'age\', \'occupation\', \'zip\']
rnames = [\'user_id\', \'movie_id\', \'rating\', \'timestamp\']
mnames = [\'movie_id\', \'title\', \'genres\']
user= pd.read_table(\'datasets/movielens/users.dat\', sep=\'::\', header=None, names=unames)
ratings = pd.read_table(\'datasets/movielens/ratings.dat\', sep=\'::\', header=None, names= rnames)
movies = pd.read_table(\'datasets/movielens/movies.dat\', sep=\'::\', header=None, names=mnames)
user[:5]

#----------------------------------#

names1880 = pd.read_csv(\'datasets/babynames/yob1880.txt\', names = [\'name\', \'sex\', \'births\'])
names1880.head()

#----------------------------------#

db = json.load(open(\'datasets/usda_food/database.json\'))  # 32M的数据
len(db)

#----------------------------------#

fec = pd.read_csv(\'datasets/fec/P00000001-ALL.csv\')
fec.info()

 

详细中文参考:  https://www.jianshu.com/p/047d8c1c7e14

 

持续更新...

 

以上是关于文件处理的主要内容,如果未能解决你的问题,请参考以下文章

常用python日期日志获取内容循环的代码片段

处理屏幕旋转上的片段重复(带有示例代码)

在 Python 多处理进程中运行较慢的 OpenCV 代码片段

你如何在 python 中处理 graphql 查询和片段?

如何有效地打开 30gb 的文件并处理其中的片段而不减慢速度?

是否有在单个活动中处理多个片段的 Android 设计模式?