如何将 SQL 查询结果转换为 PANDAS 数据结构?
Posted
技术标签:
【中文标题】如何将 SQL 查询结果转换为 PANDAS 数据结构?【英文标题】:How to convert SQL Query result to PANDAS Data Structure? 【发布时间】:2012-08-16 08:18:12 【问题描述】:对于这个问题的任何帮助将不胜感激。
所以基本上我想对我的 SQL 数据库运行一个查询,并将返回的数据存储为 Pandas 数据结构。
我已附上查询代码。
我正在阅读关于 Pandas 的文档,但我无法识别查询的返回类型。
我尝试打印查询结果,但没有提供任何有用的信息。
谢谢!!!!
from sqlalchemy import create_engine
engine2 = create_engine('mysql://THE DATABASE I AM ACCESSING')
connection2 = engine2.connect()
dataid = 1022
resoverall = connection2.execute("
SELECT
sum(BLABLA) AS BLA,
sum(BLABLABLA2) AS BLABLABLA2,
sum(SOME_INT) AS SOME_INT,
sum(SOME_INT2) AS SOME_INT2,
100*sum(SOME_INT2)/sum(SOME_INT) AS ctr,
sum(SOME_INT2)/sum(SOME_INT) AS cpc
FROM daily_report_cooked
WHERE campaign_id = '%s'",
%dataid
)
所以我有点想了解我的变量“resoverall”的格式/数据类型是什么,以及如何将它与 PANDAS 数据结构一起使用。
【问题讨论】:
基本上,“resoverall”变量的结构/类型是什么,如何转换成Pandas数据结构。 Pandas 听起来很有趣,我以前没听说过,但是这个问题几乎没有任何意义。你能试着澄清一下“没有提供任何有用的信息”是什么意思吗? 因为我执行的查询给出了一个返回值,只是想知道我应该如何操作这个返回值并将它变成一个pandas数据结构。我对 python 很陌生,因此没有太多知识,就像我们在 php 中所做的只是做一个 sql_fetch_array 并且我们有“可用”数据。 =) 【参考方案1】:这是完成这项工作的最短代码:
from pandas import DataFrame
df = DataFrame(resoverall.fetchall())
df.columns = resoverall.keys()
您可以像 Paul 的回答那样去花哨地解析类型。
【讨论】:
这对我来说适用于从 Oracle 数据库中获取的 1.000.000 条记录。df = DataFrame(cursor.fetchall())
返回ValueError: DataFrame constructor not properly called!
,看来元组的元组对于 DataFrame 构造函数是不可接受的。在字典或元组模式下,光标上也没有.keys()
。
请注意,keys 方法仅适用于使用 sqlalchemy 获得的结果。 Pyodbc 使用列的描述属性。
这可以用于 Postgres 数据库吗?我正在尝试使用 keys()
函数获取结果数据框的列名,但无法正常工作。
@BowenLiu 是的,您可以与 psycopg2 一起使用 df.columns=[ x.name for x in recoverall.description ]
【参考方案2】:
编辑:2015 年 3 月
如下所述,pandas 现在使用SQLAlchemy 来读取(read_sql)和插入(to_sql)数据库。以下应该工作
import pandas as pd
df = pd.read_sql(sql, cnxn)
上一个答案: 来自similar question的mikebmassey
import pyodbc
import pandas.io.sql as psql
cnxn = pyodbc.connect(connection_info)
cursor = cnxn.cursor()
sql = "SELECT * FROM TABLE"
df = psql.frame_query(sql, cnxn)
cnxn.close()
【讨论】:
这似乎是最好的方法,因为您不需要手动使用 .keys() 来获取列索引。可能丹尼尔的答案是在这种方法存在之前写的。你也可以使用 pandas.io.sql.read_frame() @openwonk 在上面的代码 sn-p 中哪里会实现pd.read_sql()
?
实际上,自从我上次回复以来,我已经多次使用pyodbc
和pandas
。以示例添加新答案,仅供参考。【参考方案3】:
如果您使用 SQLAlchemy 的 ORM 而不是表达式语言,您可能会发现自己想要将 sqlalchemy.orm.query.Query
类型的对象转换为 Pandas 数据框。
最干净的方法是从查询的statement属性中获取生成的SQL,然后用pandas的@987654323@方法执行。例如,从名为 query
的 Query 对象开始:
df = pd.read_sql(query.statement, query.session.bind)
【讨论】:
一种更有效的方法是从 sqlalchemy 获取语句,然后让 pandas 自己使用pandas.read_sql_query
进行查询,并将 query.statement
传递给它。看到这个答案:***.com/a/29528804/1273938
谢谢@LeoRochael!我编辑了我的答案。绝对干净!【参考方案4】:
编辑 2014-09-30:
pandas 现在有一个read_sql
函数。你肯定想改用它。
原答案:
我无法在 SQLAlchemy 方面为您提供帮助——我总是根据需要使用 pyodbc、MySQLdb 或 Psychopg2。但是这样做时,像下面这样简单的功能往往会满足我的需求:
import decimal
import pyodbc #just corrected a typo here
import numpy as np
import pandas
cnn, cur = myConnectToDBfunction()
cmd = "SELECT * FROM myTable"
cur.execute(cmd)
dataframe = __processCursor(cur, dataframe=True)
def __processCursor(cur, dataframe=False, index=None):
'''
Processes a database cursor with data on it into either
a structured numpy array or a pandas dataframe.
input:
cur - a pyodbc cursor that has just received data
dataframe - bool. if false, a numpy record array is returned
if true, return a pandas dataframe
index - list of column(s) to use as index in a pandas dataframe
'''
datatypes = []
colinfo = cur.description
for col in colinfo:
if col[1] == unicode:
datatypes.append((col[0], 'U%d' % col[3]))
elif col[1] == str:
datatypes.append((col[0], 'S%d' % col[3]))
elif col[1] in [float, decimal.Decimal]:
datatypes.append((col[0], 'f4'))
elif col[1] == datetime.datetime:
datatypes.append((col[0], 'O4'))
elif col[1] == int:
datatypes.append((col[0], 'i4'))
data = []
for row in cur:
data.append(tuple(row))
array = np.array(data, dtype=datatypes)
if dataframe:
output = pandas.DataFrame.from_records(array)
if index is not None:
output = output.set_index(index)
else:
output = array
return output
【讨论】:
我认为您需要在顶部的某处导入小数? 这对某些人来说可能是相关的......我研究这个的原因是因为我的其他问题,在这里使用 read_sql() ***.com/questions/32847246/… 这对于那些不能使用不支持所有数据库的SQLAlchemy的人来说是相关的。 @lamecicle 有点不同意。 IIRC,read_sql
仍然可以通过例如 pyodbc、psychpg2 等接受非 SQLAlchemy 连接【参考方案5】:
MySQL 连接器
对于那些使用 mysql 连接器的用户,您可以使用此代码作为开始。 (感谢@Daniel Velkov)
使用的参考:
Querying Data Using Connector/Python Connecting to MYSQL with Python in 3 stepsimport pandas as pd
import mysql.connector
# Setup MySQL connection
db = mysql.connector.connect(
host="<IP>", # your host, usually localhost
user="<USER>", # your username
password="<PASS>", # your password
database="<DATABASE>" # name of the data base
)
# You must create a Cursor object. It will let you execute all the queries you need
cur = db.cursor()
# Use all the SQL you like
cur.execute("SELECT * FROM <TABLE>")
# Put it all to a data frame
sql_data = pd.DataFrame(cur.fetchall())
sql_data.columns = cur.column_names
# Close the session
db.close()
# Show the data
print(sql_data.head())
【讨论】:
【参考方案6】:1。使用 MySQL-connector-python
# pip install mysql-connector-python
import mysql.connector
import pandas as pd
mydb = mysql.connector.connect(
host = 'host',
user = 'username',
passwd = 'pass',
database = 'db_name'
)
query = 'select * from table_name'
df = pd.read_sql(query, con = mydb)
print(df)
2。使用 SQLAlchemy
# pip install pymysql
# pip install sqlalchemy
import pandas as pd
import sqlalchemy
engine = sqlalchemy.create_engine('mysql+pymysql://username:password@localhost:3306/db_name')
query = '''
select * from table_name
'''
df = pd.read_sql_query(query, engine)
print(df)
【讨论】:
简单而伟大的答案!【参考方案7】:这是我使用的代码。希望这会有所帮助。
import pandas as pd
from sqlalchemy import create_engine
def getData():
# Parameters
ServerName = "my_server"
Database = "my_db"
UserPwd = "user:pwd"
Driver = "driver=SQL Server Native Client 11.0"
# Create the connection
engine = create_engine('mssql+pyodbc://' + UserPwd + '@' + ServerName + '/' + Database + "?" + Driver)
sql = "select * from mytable"
df = pd.read_sql(sql, engine)
return df
df2 = getData()
print(df2)
【讨论】:
【参考方案8】:这是对您问题的简短回答:
from __future__ import print_function
import MySQLdb
import numpy as np
import pandas as pd
import xlrd
# Connecting to MySQL Database
connection = MySQLdb.connect(
host="hostname",
port=0000,
user="userID",
passwd="password",
db="table_documents",
charset='utf8'
)
print(connection)
#getting data from database into a dataframe
sql_for_df = 'select * from tabledata'
df_from_database = pd.read_sql(sql_for_df , connection)
【讨论】:
【参考方案9】:像 Nathan 一样,我经常想将 sqlalchemy 或 sqlsoup 查询的结果转储到 Pandas 数据框中。我自己的解决方案是:
query = session.query(tbl.Field1, tbl.Field2)
DataFrame(query.all(), columns=[column['name'] for column in query.column_descriptions])
【讨论】:
如果你有一个查询对象。从 sqlalchemy 获取语句并让 pandas 自己使用pandas.read_sql_query
进行查询,将query.statement
传递给它,效率更高。看到这个答案:***.com/a/29528804/1273938【参考方案10】:
resoverall
是一个 sqlalchemy ResultProxy 对象。您可以在sqlalchemy docs 中阅读更多相关信息,后者解释了使用引擎和连接的基本用法。这里重要的是 resoverall
是 dict 。
Pandas 喜欢 dict 之类的对象来创建其数据结构,请参阅online docs
祝 sqlalchemy 和 pandas 好运。
【讨论】:
【参考方案11】:只需将pandas
和pyodbc
一起使用。您必须根据您的数据库规范修改您的连接字符串 (connstr
)。
import pyodbc
import pandas as pd
# MSSQL Connection String Example
connstr = "Server=myServerAddress;Database=myDB;User Id=myUsername;Password=myPass;"
# Query Database and Create DataFrame Using Results
df = pd.read_sql("select * from myTable", pyodbc.connect(connstr))
我已将pyodbc
用于多个企业数据库(例如 SQL Server、MySQL、MariaDB、IBM)。
【讨论】:
如何使用 Pyodbc 将此数据帧再次写回 MSSQL?除了使用 sqlalchemy 对DataFrame
对象使用to_sql
方法。该方法默认为 SQLite,因此您必须显式地向它传递一个指向 MSSQL 数据库的对象。见docs。
我尝试了下面的一个,我有大约 200K 行和 13 列。 15分钟后也没有完成。有任何想法吗? df.to_sql('tablename',engine,schema='schemaname',if_exists='append',index=False)
这看起来确实很慢......我可能需要查看整个代码的运行情况,抱歉。我希望 pandas
更适合轻量级 ETL 工作,但是唉...【参考方案12】:
这个问题很老了,但我想加上我的两分钱。我将问题读作“我想对我的 [my]SQL 数据库运行查询并将返回的数据存储为 Pandas 数据结构 [DataFrame]。”
从代码看来,您的意思是 mysql 数据库,并假设您的意思是 pandas DataFrame。
import MySQLdb as mdb
import pandas.io.sql as sql
from pandas import *
conn = mdb.connect('<server>','<user>','<pass>','<db>');
df = sql.read_frame('<query>', conn)
例如,
conn = mdb.connect('localhost','myname','mypass','testdb');
df = sql.read_frame('select * from testTable', conn)
这会将 testTable 的所有行导入 DataFrame。
【讨论】:
【参考方案13】:上一篇文章已经很久了,但也许它对某人有帮助......
比 Paul H 短:
my_dic = session.query(query.all())
my_df = pandas.DataFrame.from_dict(my_dic)
【讨论】:
【参考方案14】:这是我的。以防万一您使用的是“pymysql”:
import pymysql
from pandas import DataFrame
host = 'localhost'
port = 3306
user = 'yourUserName'
passwd = 'yourPassword'
db = 'yourDatabase'
cnx = pymysql.connect(host=host, port=port, user=user, passwd=passwd, db=db)
cur = cnx.cursor()
query = """ SELECT * FROM yourTable LIMIT 10"""
cur.execute(query)
field_names = [i[0] for i in cur.description]
get_data = [xx for xx in cur]
cur.close()
cnx.close()
df = DataFrame(get_data)
df.columns = field_names
【讨论】:
【参考方案15】:pandas.io.sql.write_frame 已弃用。 https://pandas.pydata.org/pandas-docs/version/0.15.2/generated/pandas.io.sql.write_frame.html
应该改为使用 pandas.DataFrame.to_sql https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.to_sql.html
还有另一种解决方案。 PYODBC to Pandas - DataFrame not working - Shape of passed values is (x,y), indices imply (w,z)
从 Pandas 0.12 开始(我相信)你可以这样做:
import pandas
import pyodbc
sql = 'select * from table'
cnn = pyodbc.connect(...)
data = pandas.read_sql(sql, cnn)
在 0.12 之前,您可以这样做:
import pandas
from pandas.io.sql import read_frame
import pyodbc
sql = 'select * from table'
cnn = pyodbc.connect(...)
data = read_frame(sql, cnn)
【讨论】:
这是迄今为止最简单的方法【参考方案16】:最好的方法
db.execute(query) where db=db_class() #database class
mydata=[x for x in db.fetchall()]
df=pd.DataFrame(data=mydata)
【讨论】:
【参考方案17】:如果结果类型是ResultSet,则应先将其转换为字典。然后会自动收集 DataFrame 列。
这适用于我的情况:
df = pd.DataFrame([dict(r) for r in resoverall])
【讨论】:
【参考方案18】:这是一个我喜欢的简单解决方案:
将您的数据库连接信息放在一个安全位置的 YAML 文件中(不要在代码仓库中对其进行版本化)。
---
host: 'hostname'
port: port_number_integer
database: 'databasename'
user: 'username'
password: 'password'
然后在字典中加载conf,打开db连接,在数据框中加载SQL查询的结果集:
import yaml
import pymysql
import pandas as pd
db_conf_path = '/path/to/db-conf.yaml'
# Load DB conf
with open(db_conf_path) as db_conf_file:
db_conf = yaml.safe_load(db_conf_file)
# Connect to the DB
db_connection = pymysql.connect(**db_conf)
# Load the data into a DF
query = '''
SELECT *
FROM my_table
LIMIT 10
'''
df = pd.read_sql(query, con=db_connection)
【讨论】:
以上是关于如何将 SQL 查询结果转换为 PANDAS 数据结构?的主要内容,如果未能解决你的问题,请参考以下文章
如何将 sql 查询转换为 Pandas Dataframe 和 PySpark Dataframe
试图找到将 SQL Query 转换为具有大量记录的 Pandas DataFrame 的最有效方法
如何使用 php 数组将 sql 查询结果转换为数据透视表?