爬虫学习之第三章数据存储
Posted lcy0302
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫学习之第三章数据存储相关的知识,希望对你有一定的参考价值。
第三章 数据存储
第一节 json文件处理:
什么是json:
JSON(javascript Object Notation, JS 对象标记) 是一种轻量级的数据交换格式。它基于 ECMAScript (w3c制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。简洁和清晰的层次结构使得 JSON 成为理想的数据交换语言。 易于人阅读和编写,同时也易于机器解析和生成,并有效地提升网络传输效率。更多解释请见:https://baike.baidu.com/item/JSON/2462549?fr=aladdin
JSON支持数据格式:
- 对象(字典)。使用花括号。
- 数组(列表)。使用方括号。
- 整形、浮点型、布尔类型还有null类型。
- 字符串类型(字符串必须要用双引号,不能用单引号)。
多个数据之间使用逗号分开。
注意:json本质上就是一个字符串。
字典和列表转JSON:
import json books = [ ‘title‘: ‘钢铁是怎样练成的‘, ‘price‘: 9.8 , ‘title‘: ‘红楼梦‘, ‘price‘: 9.9 ] json_str = json.dumps(books,ensure_ascii=False) print(json_str)
因为json
在dump
的时候,只能存放ascii
的字符,因此会将中文进行转义,这时候我们可以使用ensure_ascii=False
关闭这个特性。
在Python
中。只有基本数据类型才能转换成JSON
格式的字符串。也即:int
、float
、str
、list
、dict
、tuple
。
将json数据直接dump
到文件中:
json
模块中除了dumps
函数,还有一个dump
函数,这个函数可以传入一个文件指针,直接将字符串dump
到文件中。示例代码如下:
books = [ ‘title‘: ‘钢铁是怎样练成的‘, ‘price‘: 9.8 , ‘title‘: ‘红楼梦‘, ‘price‘: 9.9 ] with open(‘a.json‘,‘w‘) as fp: json.dump(books,fp)
将一个json字符串load成Python对象:
json_str = ‘["title": "钢铁是怎样练成的", "price": 9.8, "title": "红楼梦", "price": 9.9]‘ books = json.loads(json_str,encoding=‘utf-8‘) print(type(books)) print(books)
直接从文件中读取json:
import json with open(‘a.json‘,‘r‘,encoding=‘utf-8‘) as fp: json_str = json.load(fp) print(json_str)
第二节 csv文件处理
读取csv文件:
import csv with open(‘stock.csv‘,‘r‘) as fp: reader = csv.reader(fp) titles = next(reader) for x in reader: print(x)
这样操作,以后获取数据的时候,就要通过下表来获取数据。如果想要在获取数据的时候通过标题来获取。那么可以使用DictReader
。示例代码如下:
import csv with open(‘stock.csv‘,‘r‘) as fp: reader = csv.DictReader(fp) for x in reader: print(x[‘turnoverVol‘])
写入数据到csv文件:
写入数据到csv文件,需要创建一个writer
对象,主要用到两个方法。一个是writerow
,这个是写入一行。一个是writerows
,这个是写入多行。示例代码如下:
import csv headers = [‘name‘,‘age‘,‘classroom‘] values = [ (‘zhiliao‘,18,‘111‘), (‘wena‘,20,‘222‘), (‘bbc‘,21,‘111‘) ] with open(‘test.csv‘,‘w‘,newline=‘‘) as fp: writer = csv.writer(fp) writer.writerow(headers) writer.writerows(values)
也可以使用字典的方式把数据写入进去。这时候就需要使用DictWriter
了。示例代码如下:
import csv headers = [‘name‘,‘age‘,‘classroom‘] values = [ "name":‘wenn‘,"age":20,"classroom":‘222‘, "name":‘abc‘,"age":30,"classroom":‘333‘ ] with open(‘test.csv‘,‘w‘,newline=‘‘) as fp: writer = csv.DictWriter(fp,headers) writer = csv.writeheader() writer.writerow(‘name‘:‘zhiliao‘,"age":18,"classroom":‘111‘) writer.writerows(values)
第三节 mysql数据库操作
安装mysql:
- 在官网:https://dev.mysql.com/downloads/windows/installer/5.7.html
- 如果提示没有
.NET Framework
框架。那么就在提示框中找到下载链接,下载一个就可以了。 - 如果提示没有
Microsoft Virtual C++ x64(x86)
,那么百度或者谷歌这个软件安装即可。 - 如果没有找到。那么私聊我。
navicat:
navicat是一个操作mysql数据库非常方便的软件。使用他操作数据库,就跟使用excel操作数据是一样的。
安装驱动程序:
Python要想操作MySQL。必须要有一个中间件,或者叫做驱动程序。驱动程序有很多。比如有mysqldb
、mysqlclient
、pymysql
等。在这里,我们选择用pymysql
。安装方式也是非常简单,通过命令pip install pymysql
即可安装。
数据库连接:
数据库连接之前。首先先确认以下工作完成,这里我们以一个pymysql_test
数据库.以下将介绍连接mysql
的示例代码:
import pymysql db = pymysql.connect( host="127.0.0.1", user=‘root‘, password=‘root‘, database=‘pymysql_test‘, port=3306 ) cursor = db.cursor() cursor.execute("select 1") data = cursor.fetchone() print(data) db.close()
插入数据:
import pymysql db = pymysql.connect( host="127.0.0.1", user=‘root‘, password=‘root‘, database=‘pymysql_test‘, port=3306 ) cursor = db.cursor() sql = """ insert into user( id,username,gender,age,password ) values(null,‘abc‘,1,18,‘111111‘); """ cursor.execute(sql) db.commit() db.close()
如果在数据还不能保证的情况下,可以使用以下方式来插入数据:
sql = """
insert into user(
id,username,gender,age,password
)
values(null,%s,%s,%s,%s);
"""
cursor.execute(sql,(‘spider‘,1,20,‘222222‘))
import pymysql db = pymysql.connect( host="127.0.0.1", user=‘root‘, password=‘root‘, database=‘pymysql_test‘, port=3306 ) cursor = db.cursor() sql = """ insert into user( id,username,gender,age,password ) values(null,‘abc‘,1,18,‘111111‘); """ cursor.execute(sql) db.commit() db.close()
查找数据:
使用pymysql
查询数据。可以使用fetch*
方法。
fetchone()
:这个方法每次之获取一条数据。fetchall()
:这个方法接收全部的返回结果。fetchmany(size)
:可以获取指定条数的数据。
示例代码如下:
cursor = db.cursor() sql = """ select * from user """ cursor.execute(sql) while True: result = cursor.fetchone() if not result: break print(result) db.close()
或者是直接使用fetchall
,一次性可以把所有满足条件的数据都取出来:
cursor = db.cursor() sql = """ select * from user """ cursor.execute(sql) results = cursor.fetchall() for result in results: print(result) db.close()
或者是使用fetchmany
,指定获取多少条数据:
cursor = db.cursor() sql = """ select * from user """ cursor.execute(sql) results = cursor.fetchmany(1) for result in results: print(result) db.close()
删除数据:
cursor = db.cursor() sql = """ delete from user where id=1 """ cursor.execute(sql) db.commit() db.close()
更新数据:
conn = pymysql.connect(host=‘localhost‘,user=‘root‘,password=‘root‘,database=‘pymysql_demo‘,port=3306) cursor = conn.cursor() sql = """ update user set username=‘aaa‘ where id=1 """ cursor.execute(sql) conn.commit() conn.close()
以上是关于爬虫学习之第三章数据存储的主要内容,如果未能解决你的问题,请参考以下文章