本文涉及pandas最常用的36个函数,通过这些函数介绍如何完成数据生成和导入、数据清洗、预处理,以及最常见的数据分类,数据筛选,分类汇总,透视等最常见的操作。
生成数据表常见的生成数据表的方法有两种,第一种是导入外部数据,第二种是直接写入数据。
Python支持从多种类型的数据导入。在开始使用Python进行数据导入前需要先导入numpy和pandas库
import numpy as np import pandas as pd1)导入外部数据
df=pd.read_csv('name.csv')
df=pd.read_Excel('name.xlsx')
里面有很多可选参数设置,例如列名称、索引列、数据格式等
2)直接写入数据df = pd.Dataframe({"id":[1001,1002,1003,1004,1005,1006],
"date":pd.date_range('20130102', periods=6),
"city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
"age":[23,44,54,32,34,32],
"category":['100-A','100-B','110-A','110-C','210-A','130-F'],
"price":[1200,np.nan,2133,5433,np.nan,4432]},
columns =['id','date','city','category','age','price'])
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qopGjXbW-1636780452889)(C:Users大利AppDataRoamingTyporatypora-user-images1622375738113.png)]
3)文件过大无法直接读入:#对于文件过大直接读取其中一列
#skiprows=0 从第几行开始
#nrows=10 读取多少行
#usecols=['area (sq. mi)'] 读取那一列数据
a = pd.read_csv('./state-areas.csv',skiprows=0, nrows=10,usecols=['area (sq. mi)'])
a.max() #对这一列执行聚合函数
有局限性,如果数据过大一列也没有办法读取,可以将一列数据分成几段,对每一段进行求最大值,列名每次会改变,解决方法直接将数据作为列名(读取一列的方法):
a = pd.read_csv('./state-areas.csv',skiprows=50001, nrows=1) #查看一行数据
数据表检查
数据表检查的目的是了解数据表的整体情况,获得数据表的关键信息、数据的概况,例如整个数据表的大小、所占空间、数据格式、是否有 空值和重复项和具体的数据内容,为后面的清洗和预处理做好准备。
0.是否有列名:#名字与列名对齐:
orderinfo = pd.read_csv("order_info.csv",names=["oid","uid","status","price","creat_at"])
1.数据维度(行列)
Excel中可以通过CTRL+向下的光标键,和CTRL+向右的光标键 来查看行号和列号。Python中使用shape函数来查看数据表的维度,也就是行数和列数。
df.shape2.数据表信息
使用info函数查看数据表的整体信息,包括数据维度、列名称、数据格式和所占空间等信息。#数据表信息
df.info()3.查看数据格式RangeIndex: 6 entries, 0 to 5 Data columns (total 6 columns): id 6 non-null int64 date 6 non-null datetime64[ns] city 6 non-null object category 6 non-null object age 6 non-null int64 price 4 non-null float64 dtypes: datetime64[ns](1), float64(1), int64(2), object(2) memory usage: 368.0+ bytes
Excel中通过选中单元格并查看开始菜单中的数值类型来判断数 据的格式。Python中使用dtypes函数来返回数据格式。
Dtypes是一个查看数据格式的函数,可以一次性查看数据表中所 有数据的格式,也可以指定一列来单独查看
#查看数据表各列格式
df.dtypes
id int64
date datetime64[ns]
city object
category object
age int64
price float64
dtype: object
#查看单列格式
df['B'].dtype
dtype('int64')
4.查看空值
Isnull是Python中检验空值的函数
#检查数据空值 df.isnull()
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-o65ZEoGa-1636780452896)(C:Users大利AppDataRoamingTyporatypora-user-images1622376316972.png)]
#检查特定列空值 df['price'].isnull()
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RUe3Ejnh-1636780452898)(C:Users大利AppDataRoamingTyporatypora-user-images1622376394833.png)]
5.查看唯一值Excel中查看唯一值的方法是使用“条件格式”对唯一值进行颜色 标记。
Python中使用unique函数查看唯一值。
#查看city列中的唯一值 df['city'].unique() array(['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '], dtype=object)6.查看数据表数值
Python中的Values函数用来查看数据表中的数值
#查看数据表的值 df.values7.查看列名称
Colums函数用来单独查看数据表中的列名称。
#查看列名称 df.columns Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype=' object')8.查看前10行数据
Head函数用来查看数据表中的前N行数据
#查看前3行数据 df.head(3)9.查看后10行数据
Tail行数与head函数相反,用来查看数据表中后N行的数据
#查看最后3行 df.tail(3)数据表清洗
本章介绍对数据表中的问题进行清洗,包括对空值、大小写问题、数据格式和重复值的处理。
1.处理空值(删除或填充)Excel中可以通过“查找和替换”功能对空值进行处理
Python中处理空值的方法比较灵活,可以使用 Dropna函数用来删除数据表中包含空值的数据,也可以使用fillna函数对空值进行填充。
#删除数据表中含有空值的行 df.dropna(axis = 0) #只针对表中一行数据进行NaN删除,使用参数subset uo1 = uo.dropna(subset=["paidtime"])
也可以使用数字对空值进行填充
#使用前后数据进行填充 df.fillna(method='ffill',axis=1) df.fillna(method='bfill',axis=0)
#使用数字0填充数据表中空值 df.fillna(value=0)
使用price列的均值来填充NA字段,同样使用fillna函数,在要填充的数值中使用mean函数先计算price列当前的均值,然后使用这个均值对NA进行填充。
#使用price均值对NA进行填充 df['price'].fillna(df['price'].mean()) Out[8]: 0 1200.0 1 3299.5 2 2133.0 3 5433.0 4 3299.5 5 4432.0 Name: price, dtype: float642.清理空格
字符中的空格也是数据清洗中一个常见的问题
#清除city字段中的字符空格 df['city']=df['city'].map(str.strip)3.大小写转换
在英文字段中,字母的大小写不统一也是一个常见的问题。Excel中有UPPER,LOWER等函数,Python中也有同名函数用来解决 大小写的问题。
#city列大小写转换 df['city']=df['city'].str.lower()4.更改数据格式
Python中通过astype函数用来修改数据格式。
1)#将series直接转换为数值
Ytrain.astype("category").cat.codes
2)
#更改数据格式
df['price'].astype('int')
0 1200
1 3299
2 2133
3 5433
4 3299
5 4432
Name: price, dtype: int32
5.更改列名称
Rename是更改列名称的函数,我们将来数据表中的category列更改为category-size。
#更改列名称
df.rename(columns={'category': 'category-size'})
6.删除重复值
Excel的数据目录下有“删除重复项”的功能
Python中使用drop_duplicates函数删除重复值
df['city'] 0 beijing 1 sh 2 guangzhou 3 shenzhen 4 shanghai 5 beijing Name: city, dtype: object
city列中beijing存在重复,分别在第一位和最后一位 drop_duplicates()函数删除重复值
#删除后出现的重复值 df['city'].drop_duplicates() 0 beijing 1 sh 2 guangzhou 3 shenzhen 4 shanghai Name: city, dtype: object
设置keep='last‘’参数后,与之前删除重复值的结果相反,第一位 出现的beijing被删除keep可以等于last,first,
#删除先出现的重复值 df['city'].drop_duplicates(keep='last') 1 sh 2 guangzhou 3 shenzhen 4 shanghai 5 beijing Name: city, dtype: objec7.数值修改及替换
Excel中使用“查找和替换”功能就可以实现数值的替换
Python中使用replace函数实现数据替换
#数据替换
df['city'].replace('sh', 'shanghai')
0 beijing
1 shanghai
2 guangzhou
3 shenzhen
4 shanghai
5 beijing
Name: city, dtype: object
数据预处理
本章主要讲的是数据的预处理,对清洗完的数据进行整理以便后期的统计和分析工作。主要包括数据表的合并,排序,数值分列,数据分组及标记等工作。
1.数据表合并#内连接外连接,一般情况直接使用外连接 pd.concat([userinfo,orderinfo],join='outer',axis=0) pd.concat([userinfo,orderinfo],join='inner',axis=1) #对合并后的行索引重新排序 tmp = pd.concat([userinfo,userinfo],ignore_index=True)
在Excel中没有直接完成数据表合并的功能,可以通过VLOOKUP函数分步实现。在Python中可以通过merge函数一次性实现。
#建立df1数据表
df1=pd.Dataframe({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
"gender":['male','female','male','female','male
','female','male','female'],
"pay":['Y','N','Y','Y','N','Y','N','Y',],
"m-point":[10,12,20,40,40,40,30,20]})
使用merge函数对两个数据表进行合并,合并的方式为inner,将 两个数据表中共有的数据匹配到一起生成新的数据表。并命名为 df_inner。
#数据表匹配合并 df_inner=pd.merge(df,df1,how='inner')
合并的方式还有left,right和outer方式
df_left=pd.merge(df,df1,how='left') df_right=pd.merge(df,df1,how='right') df_outer=pd.merge(df,df1,how='outer',left_on='name',right_on='uname')2.设置索引列
索引列可以进行数据提取,汇总,数据筛选
#设置索引列
df_inner.set_index('id')
#撤回索引列
df_inner.reset_inder('id')
3.排序(按索引,按数值)
Excel中可以通过数据目录下的排序按钮直接对数据表进行排 序
Python中需要使用sort_values函数和sort_index函数完成排序
#按特定列的值排序 df_inner.sort_values(by=['age'],ascing = True)
Sort_index函数用来将数据表按索引列的值进行排序。
#按索引列排序 df_inner.sort_index()4.数据分箱
数据的分箱和离散化
- 数据连续和离散,区分两种变量的方法为观察变量是否连续可分。
- 连续 : 年龄 体重,相邻的两个数值可作无限分割
- 离散 : 分类的类型都是离散型,离散数据连续化,不可能实现的
1)对于一列中只有少部分元素组成,想要对其进行分组可以使用map函数进行映射:
orderinfo['status'].map({"已支付":1,"未支付":0})
- 利用映射将一组series转化成自己想要的表现形式
def num2str(x):
if x < 100:
return '废铁'
elif x<300:
return "白银"
elif x<1000:
return '黄金'
elif x<10000:
return '白金'
else:
return '钻石'
books["买家会员名"]=books.买家实际支付金额.map(num2str)
3)不常用的分箱方法:
#等距分箱 pd.cut(books.买家实际支付金额,bins=50)
#等比分箱 #q=4代表按照4分位进行分箱 pd.qcut(books.买家实际支付金额,q=4)5.数据分列
Excel中的数据目录下提供“分列”功能。
在Python中使用split函数实现分列:
使用映射函数apply和lambda匿名函数实现列的分裂(针对字符串):
orderinfo['status'].apply(lambda x:x.split("支付")[0])
数据提取
1.按标签提取(loc)
#对列进行索引: df_inner[列名]
#按索引提取单行的数值 df_inner.loc[3]
使用冒号可以限定提取数据的范围,冒号前面为开始的标签值后面为结束的标签值。
#按索引提取区域行数值 df_inner.loc[0:5]
Reset_index函数用于恢复索引,这里我们重新将date字段的日期 设置为数据表的索引,并按日期进行数据提取。
#重设索引 df_inner.reset_index()
#设置日期为索引
df_inner=df_inner.set_index('date')
#提取4日之前的所有数据 df_inner[:'2013-01-04']2.按位置提取(iloc)
使用iloc函数按位置对数据表中的数据进行提取,这里冒号前后 的数字不再是索引的标签名称,而是数据所在的位置,从0开始。
#使用iloc按位置区域提取数据 df_inner.iloc[:3,:2]
iloc函数除了可以按区域提取数据,还可以按位置逐条提取
#使用iloc按位置单独提取数据 df_inner.iloc[[0,2,5],[4,5]]
前面方括号中的0,2,5表示数据所在行的位置,后面方括号中的数表示所在列的位置。
3.插入数据#插入一行数据 nasdaq.loc[nasdaq.shape[0]] = ["05/26/2021","$73.81",19398954,"$73.66","$74.6","$72.26"]
#插入一列
nasdaq["Price"] = [数据]
#通过映射函数插入与列表相关联的一列:
#计算出总价
#map每次只能处理一列,如果要使用map进行列计算无法实现
#apply计算的速度十分低下 ,但是以往pandas官网推荐使用apply进行计算
def pr(x):
return x["price"]*x["num"]
orderinfo.apply(pr,axis=1) #axis=1 行计算
4.查询数据
#查询通过列索引找到行索引,通过行索引找到数据 nasdaq.loc[(nasdaq["Open"]=='$72.25') & (nasdaq["Low"]=='$71.58')]5.修改数据
#通过索引元素,定位行列,给元素进行其他赋值 nasdaq.loc[nasdaq["Open"]=='$72.44',"Open"] = "$72.55"6.删除数据
#查找需要被删除的行索引,inplace表示是否覆盖原数据
inds = nasdaq.query("Open=='$72.55'").index
nasdaq.drop(labels=inds,axis=0,inplace=True)
数据筛选
按条件筛选(与、或、非)
Excel数据目录下提供了“筛选”功能,用于对数据表按不同的条 件进行筛选。
Python中使用loc函数配合筛选条件来完成筛选功能。配合sum和count函数还能实现Excel中sumif和countif函数的功能。使用“与”条件进行筛选,条件是年龄大于25岁,并且城市为 beijing。
#使用“与”条件进行筛选 df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beiji ng'), ['id','city','age','category','gender']]
#使用“或”条件筛选 df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beiji ng'), ['id','city','age','category','gender']].sort(['age'])
#使用“非”条件进行筛选 df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age', 'category','gender']].sort(['id'])
在前面的代码后面增加city列,并使用count函数进行计数。相当于Excel中的countifs函数的功能
#对筛选后的数据按city列进行计数 df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age', 'category','gender']].sort(['id']).city.count()query函数筛选
#使用query函数进行筛选
df_inner.query('city == ["beijing", "shanghai"]')
在前面的代码后增加price字段和sum函数。对筛选后的price字段 进行求和,相当于Excel中的sumifs函数的功能。
#对筛选后的结果按price进行求和
df_inner.query('city == ["beijing", "shanghai"]').price.sum()
12230
数据汇总
Excel中使用分类汇总和数据透视可以按特定维度对数据进行汇总,Python中使用的主要函数是groupby和value_counts()。
1.分类汇总1)#对所有列进行计数汇总
df_inner.groupby('city').count()
2)#对特定的ID列进行计数汇总
df_inner.groupby('city')['id'].count()
city
beijing 2
guangzhou 1
shanghai 2
shenzhen 1
Name: id, dtype: int64
3)#对两个字段进行汇总计数
df_inner.groupby(['city','size'])['id'].count()
city size
beijing A 1
F 1
guangzhou A 1
shanghai A 1
B 1
shenzhen C 1
Name: id, dtype: int64
2.使用agg映射函数对多列进行聚合函数运算:
df.groupby(["Y","客户省份"]).agg({"数量":"sum","金额":"sum","产品ID":"size"})
.rename(columns={"数量":"各省购买货物数量","金额":"各省支付金额","产品ID":"各省下单数量"})
3.透视表:
groupby 两次就是数据透视表,思维模仿excel中的透视表
value_counts stack:降维: stack() 将2维边为一维表 列索引转变为行索引 Dataframe.stack(level=- 1, dropna=True) # dropna如果为True 则会删除全为空的行 # 设为False 则会保留使用stack()的时候,level等于哪一个,哪一个就消失,出现在行里。
#把透视数据转别为一维排版数据
Q = pd.Dataframe(res.stack(level=0)).reset_index().rename(columns={0:"营业额","level_1":"城市"})
unstack:
将含有groupby两次分组的列选出一列作为行形成2维表: unstack() 行索引转变为列索引(透视表变换) Dataframe.unstack(level=1, fill_value=None) #fill_value填充NaN使用unstack()的时候,level等于哪一个,哪一个就消失,出现在列里。 #level等于的数字就是行索引的列。数据统计 1.数据采样(重采样)
Python通过resample函数完成数据采样
1)升采样 一般不太用,觉得数据太少了,把时间细分(很多数据都是NaN)
2)降采样 比如说数据是一个小时一收集(数据密度大,计算效率底下),把小时换算成天
#groupby对于详细的时间类型无法进行精确的分组 (参数可以是:Y/M/D)
newdf = df.resample("D").sum()
2.描述统计
Python中可以通过Describe对数据进行描述统计(调用函数直接生成)
#数据表描述性统计 df_inner.describe().round(2).T3.相关分析
Python中则通过corr函数皮尔逊系数的计算完成相关分析的操作,并返回相关系数。
#相关性分析 df_inner['price'].corr(df_inner['m-point']) 0.77466555617085264 #数据表相关性分析 df_inner.corr()数据输出 1.写入Excel
#输出到Excel格式
df_inner.to_Excel('Excel_to_Python.xlsx', sheet_name='bluewhale_c
c')
2.写入csv
#输出到CSV格式
#index不保存
df_inner.to_csv('Excel_to_Python.csv',index=False)
3.index是否保存
#整理好的数据导出
#index不保存
nasdaq.to_csv("newdf.csv",index=False)
零散知识点
1、时间处理:
1).改为时间格式:时间类型改变完记得在替换成表中内容
#将字符串格式的时间改为datetime64:
#contb_receipt_dt为列名
方式1:
ue["contb_receipt_dt"].astype("datetime64")
方式2:
pd.to_datetime(ue["contb_receipt_dt"])
#参数errors='coerce'跳过出错的时间
pd.to_datetime(uo1["paidtime"],errors='coerce')
2).年月日提取:
#A为时间列: A.dt.year A.dt.month A.dt.day A.dt.hour
3).to_period()
使用这个函数处理过的数据,不能直接导入pyecharts中,类型不是列表。
#季度报表或者是周报用的比较多(Q/M/W)
ue= ue.to_period("Q")
ue
4)时间日期后有大量的小时秒,无法直接提取可以用 np.timedelta64(1,“D”)
(now-R)/ np.timedelta64(1,"D")
now 现在的时间减去 当时发生的事件出现的就是转化前的内容。
tolist 多用于pyechars绘制图片当中,充当数据进行绘制图片。
toarray 多用在朴素贝叶斯当中。
3、优化运行效率:1)需要导入的模块:
import numpy as np import pandas as pd import swifter import numba as nb
2)loc[]、iloc[]、query[] (索引行数据) 运行速度比较:
loc[] > iloc[] > 函数 (索引行数据)
3)多个列计算比较运算速度:
表[“列名”] > loc[ : ,“列名”] > iloc[ : ,“列名”] > 表.映射函数()
4)老版本中编写中出现eval函数
5)映射优化:
#swifter 可以自动切换Anaconda中Pandas和Dask
#Pandas基于单核计算
#Dask可以进行多核计算
#什么时候不能使用Dask,数据的合并
6)优化聚合函数:
自己写的函数 > pandas自带函数 >映射函数



