栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

Pandas函数总结

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Pandas函数总结

从Excel到Pandas

本文涉及pandas最常用的36个函数,通过这些函数介绍如何完成数据生成和导入、数据清洗、预处理,以及最常见的数据分类,数据筛选,分类汇总,透视等最常见的操作。

生成数据表

常见的生成数据表的方法有两种,第一种是导入外部数据,第二种是直接写入数据。

Python支持从多种类型的数据导入。在开始使用Python进行数据导入前需要先导入numpy和pandas库

import numpy as np
import pandas as pd
1)导入外部数据
df=pd.read_csv('name.csv')
df=pd.read_Excel('name.xlsx')

里面有很多可选参数设置,例如列名称、索引列、数据格式等

2)直接写入数据
df = pd.Dataframe({"id":[1001,1002,1003,1004,1005,1006],
"date":pd.date_range('20130102', periods=6),
"city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
"age":[23,44,54,32,34,32],
"category":['100-A','100-B','110-A','110-C','210-A','130-F'],
"price":[1200,np.nan,2133,5433,np.nan,4432]},
columns =['id','date','city','category','age','price'])

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qopGjXbW-1636780452889)(C:Users大利AppDataRoamingTyporatypora-user-images1622375738113.png)]

3)文件过大无法直接读入:
#对于文件过大直接读取其中一列
#skiprows=0 从第几行开始
#nrows=10  读取多少行
#usecols=['area (sq. mi)'] 读取那一列数据
a = pd.read_csv('./state-areas.csv',skiprows=0, nrows=10,usecols=['area (sq. mi)'])
a.max()   #对这一列执行聚合函数

有局限性,如果数据过大一列也没有办法读取,可以将一列数据分成几段,对每一段进行求最大值,列名每次会改变,解决方法直接将数据作为列名(读取一列的方法):

a = pd.read_csv('./state-areas.csv',skiprows=50001, nrows=1) #查看一行数据
数据表检查

数据表检查的目的是了解数据表的整体情况,获得数据表的关键信息、数据的概况,例如整个数据表的大小、所占空间、数据格式、是否有 空值和重复项和具体的数据内容,为后面的清洗和预处理做好准备。

0.是否有列名:
#名字与列名对齐:
orderinfo = pd.read_csv("order_info.csv",names=["oid","uid","status","price","creat_at"])
1.数据维度(行列)

Excel中可以通过CTRL+向下的光标键,和CTRL+向右的光标键 来查看行号和列号。Python中使用shape函数来查看数据表的维度,也就是行数和列数。

df.shape
2.数据表信息

使用info函数查看数据表的整体信息,包括数据维度、列名称、数据格式和所占空间等信息。#数据表信息

df.info()

RangeIndex: 6 entries, 0 to 5
Data columns (total 6 columns):
id 6 non-null int64
date 6 non-null datetime64[ns]
city 6 non-null object
category 6 non-null object
age 6 non-null int64
price 4 non-null float64
dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
memory usage: 368.0+ bytes
3.查看数据格式

Excel中通过选中单元格并查看开始菜单中的数值类型来判断数 据的格式。Python中使用dtypes函数来返回数据格式。

Dtypes是一个查看数据格式的函数,可以一次性查看数据表中所 有数据的格式,也可以指定一列来单独查看

#查看数据表各列格式
df.dtypes
id int64
date datetime64[ns]
city object
category object
age int64
price float64
dtype: object
#查看单列格式
df['B'].dtype
dtype('int64')
4.查看空值

Isnull是Python中检验空值的函数

#检查数据空值
df.isnull()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-o65ZEoGa-1636780452896)(C:Users大利AppDataRoamingTyporatypora-user-images1622376316972.png)]

#检查特定列空值
df['price'].isnull()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RUe3Ejnh-1636780452898)(C:Users大利AppDataRoamingTyporatypora-user-images1622376394833.png)]

5.查看唯一值

Excel中查看唯一值的方法是使用“条件格式”对唯一值进行颜色 标记。

Python中使用unique函数查看唯一值。

#查看city列中的唯一值
df['city'].unique()


array(['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '], dtype=object)
6.查看数据表数值

Python中的Values函数用来查看数据表中的数值

#查看数据表的值
df.values

7.查看列名称

Colums函数用来单独查看数据表中的列名称。

#查看列名称
df.columns
Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='
object')
8.查看前10行数据

Head函数用来查看数据表中的前N行数据

#查看前3行数据
df.head(3)
9.查看后10行数据

Tail行数与head函数相反,用来查看数据表中后N行的数据

#查看最后3行
df.tail(3)
数据表清洗

本章介绍对数据表中的问题进行清洗,包括对空值、大小写问题、数据格式和重复值的处理。

1.处理空值(删除或填充)

Excel中可以通过“查找和替换”功能对空值进行处理

Python中处理空值的方法比较灵活,可以使用 Dropna函数用来删除数据表中包含空值的数据,也可以使用fillna函数对空值进行填充。

#删除数据表中含有空值的行
df.dropna(axis = 0)
#只针对表中一行数据进行NaN删除,使用参数subset
uo1 = uo.dropna(subset=["paidtime"])

也可以使用数字对空值进行填充

#使用前后数据进行填充
df.fillna(method='ffill',axis=1)
df.fillna(method='bfill',axis=0)
#使用数字0填充数据表中空值
df.fillna(value=0)

使用price列的均值来填充NA字段,同样使用fillna函数,在要填充的数值中使用mean函数先计算price列当前的均值,然后使用这个均值对NA进行填充。

#使用price均值对NA进行填充
df['price'].fillna(df['price'].mean())
Out[8]:
0    1200.0
1    3299.5
2    2133.0
3    5433.0
4    3299.5
5    4432.0
Name: price, dtype: float64

2.清理空格

字符中的空格也是数据清洗中一个常见的问题

#清除city字段中的字符空格
df['city']=df['city'].map(str.strip)
3.大小写转换

在英文字段中,字母的大小写不统一也是一个常见的问题。Excel中有UPPER,LOWER等函数,Python中也有同名函数用来解决 大小写的问题。

#city列大小写转换
df['city']=df['city'].str.lower()

4.更改数据格式

Python中通过astype函数用来修改数据格式。

1)#将series直接转换为数值
Ytrain.astype("category").cat.codes
2)
#更改数据格式
df['price'].astype('int')
0 1200
1 3299
2 2133
3 5433
4 3299
5 4432
Name: price, dtype: int32
5.更改列名称

Rename是更改列名称的函数,我们将来数据表中的category列更改为category-size。

#更改列名称
df.rename(columns={'category': 'category-size'})

6.删除重复值

Excel的数据目录下有“删除重复项”的功能

Python中使用drop_duplicates函数删除重复值

df['city']
0 beijing
1 sh
2 guangzhou
3 shenzhen
4 shanghai
5 beijing
Name: city, dtype: object

city列中beijing存在重复,分别在第一位和最后一位 drop_duplicates()函数删除重复值

#删除后出现的重复值
df['city'].drop_duplicates()
0 beijing
1 sh
2 guangzhou
3 shenzhen
4 shanghai
Name: city, dtype: object

设置keep='last‘’参数后,与之前删除重复值的结果相反,第一位 出现的beijing被删除keep可以等于last,first,

#删除先出现的重复值
df['city'].drop_duplicates(keep='last')
1 sh
2 guangzhou
3 shenzhen
4 shanghai
5 beijing
Name: city, dtype: objec
7.数值修改及替换

Excel中使用“查找和替换”功能就可以实现数值的替换

Python中使用replace函数实现数据替换

#数据替换
df['city'].replace('sh', 'shanghai')
0 beijing
1 shanghai
2 guangzhou
3 shenzhen
4 shanghai
5 beijing
Name: city, dtype: object
数据预处理

本章主要讲的是数据的预处理,对清洗完的数据进行整理以便后期的统计和分析工作。主要包括数据表的合并,排序,数值分列,数据分组及标记等工作。

1.数据表合并
#内连接外连接,一般情况直接使用外连接
pd.concat([userinfo,orderinfo],join='outer',axis=0)
pd.concat([userinfo,orderinfo],join='inner',axis=1)
#对合并后的行索引重新排序
tmp = pd.concat([userinfo,userinfo],ignore_index=True)

在Excel中没有直接完成数据表合并的功能,可以通过VLOOKUP函数分步实现。在Python中可以通过merge函数一次性实现。

#建立df1数据表
df1=pd.Dataframe({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
"gender":['male','female','male','female','male
','female','male','female'],
"pay":['Y','N','Y','Y','N','Y','N','Y',],
"m-point":[10,12,20,40,40,40,30,20]})

使用merge函数对两个数据表进行合并,合并的方式为inner,将 两个数据表中共有的数据匹配到一起生成新的数据表。并命名为 df_inner。

#数据表匹配合并
df_inner=pd.merge(df,df1,how='inner')

合并的方式还有left,right和outer方式

df_left=pd.merge(df,df1,how='left')
df_right=pd.merge(df,df1,how='right')
df_outer=pd.merge(df,df1,how='outer',left_on='name',right_on='uname')
2.设置索引列

索引列可以进行数据提取,汇总,数据筛选

#设置索引列
df_inner.set_index('id')
#撤回索引列
df_inner.reset_inder('id')

3.排序(按索引,按数值)

Excel中可以通过数据目录下的排序按钮直接对数据表进行排 序

Python中需要使用sort_values函数和sort_index函数完成排序

#按特定列的值排序
df_inner.sort_values(by=['age'],ascing = True)

Sort_index函数用来将数据表按索引列的值进行排序。

#按索引列排序
df_inner.sort_index()

4.数据分箱

数据的分箱和离散化

  • 数据连续和离散,区分两种变量的方法为观察变量是否连续可分。
  • 连续 : 年龄 体重,相邻的两个数值可作无限分割
  • 离散 : 分类的类型都是离散型,离散数据连续化,不可能实现的

1)对于一列中只有少部分元素组成,想要对其进行分组可以使用map函数进行映射:

orderinfo['status'].map({"已支付":1,"未支付":0})
  1. 利用映射将一组series转化成自己想要的表现形式
def num2str(x):
    if x < 100:
        return '废铁'
    elif x<300:
        return "白银"
    elif x<1000:
        return '黄金'
    elif x<10000:
        return '白金'
    else:
        return '钻石'
    
books["买家会员名"]=books.买家实际支付金额.map(num2str)

3)不常用的分箱方法:

#等距分箱
pd.cut(books.买家实际支付金额,bins=50)


#等比分箱
#q=4代表按照4分位进行分箱
pd.qcut(books.买家实际支付金额,q=4)

5.数据分列

Excel中的数据目录下提供“分列”功能。

在Python中使用split函数实现分列:

使用映射函数apply和lambda匿名函数实现列的分裂(针对字符串):

orderinfo['status'].apply(lambda x:x.split("支付")[0])
数据提取 1.按标签提取(loc)
#对列进行索引:
df_inner[列名]
#按索引提取单行的数值
df_inner.loc[3]

使用冒号可以限定提取数据的范围,冒号前面为开始的标签值后面为结束的标签值。

#按索引提取区域行数值
df_inner.loc[0:5]

Reset_index函数用于恢复索引,这里我们重新将date字段的日期 设置为数据表的索引,并按日期进行数据提取。

#重设索引
df_inner.reset_index()

#设置日期为索引
df_inner=df_inner.set_index('date')

#提取4日之前的所有数据
df_inner[:'2013-01-04']

2.按位置提取(iloc)

使用iloc函数按位置对数据表中的数据进行提取,这里冒号前后 的数字不再是索引的标签名称,而是数据所在的位置,从0开始。

#使用iloc按位置区域提取数据
df_inner.iloc[:3,:2]

iloc函数除了可以按区域提取数据,还可以按位置逐条提取

#使用iloc按位置单独提取数据
df_inner.iloc[[0,2,5],[4,5]]

前面方括号中的0,2,5表示数据所在行的位置,后面方括号中的数表示所在列的位置。

3.插入数据
#插入一行数据
nasdaq.loc[nasdaq.shape[0]] = ["05/26/2021","$73.81",19398954,"$73.66","$74.6","$72.26"]
#插入一列
nasdaq["Price"] = [数据]

#通过映射函数插入与列表相关联的一列:

#计算出总价
#map每次只能处理一列,如果要使用map进行列计算无法实现
#apply计算的速度十分低下 ,但是以往pandas官网推荐使用apply进行计算
def pr(x):
    return x["price"]*x["num"]

orderinfo.apply(pr,axis=1) #axis=1 行计算
4.查询数据
#查询通过列索引找到行索引,通过行索引找到数据
nasdaq.loc[(nasdaq["Open"]=='$72.25') & (nasdaq["Low"]=='$71.58')]
5.修改数据
#通过索引元素,定位行列,给元素进行其他赋值
nasdaq.loc[nasdaq["Open"]=='$72.44',"Open"] = "$72.55"
6.删除数据
#查找需要被删除的行索引,inplace表示是否覆盖原数据
inds = nasdaq.query("Open=='$72.55'").index
nasdaq.drop(labels=inds,axis=0,inplace=True)
数据筛选 按条件筛选(与、或、非)

Excel数据目录下提供了“筛选”功能,用于对数据表按不同的条 件进行筛选。

Python中使用loc函数配合筛选条件来完成筛选功能。配合sum和count函数还能实现Excel中sumif和countif函数的功能。使用“与”条件进行筛选,条件是年龄大于25岁,并且城市为 beijing。

#使用“与”条件进行筛选
df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beiji
ng'), ['id','city','age','category','gender']]

#使用“或”条件筛选
df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beiji
ng'), ['id','city','age','category','gender']].sort(['age'])

#使用“非”条件进行筛选
df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age',
'category','gender']].sort(['id'])

在前面的代码后面增加city列,并使用count函数进行计数。相当于Excel中的countifs函数的功能

#对筛选后的数据按city列进行计数
df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age',
'category','gender']].sort(['id']).city.count()
query函数筛选
#使用query函数进行筛选
df_inner.query('city == ["beijing", "shanghai"]')

在前面的代码后增加price字段和sum函数。对筛选后的price字段 进行求和,相当于Excel中的sumifs函数的功能。

#对筛选后的结果按price进行求和
df_inner.query('city == ["beijing", "shanghai"]').price.sum()
12230
数据汇总

Excel中使用分类汇总和数据透视可以按特定维度对数据进行汇总,Python中使用的主要函数是groupby和value_counts()。

1.分类汇总
1)#对所有列进行计数汇总
df_inner.groupby('city').count()

2)#对特定的ID列进行计数汇总
df_inner.groupby('city')['id'].count()
city
beijing 2
guangzhou 1
shanghai 2
shenzhen 1
Name: id, dtype: int64

3)#对两个字段进行汇总计数
df_inner.groupby(['city','size'])['id'].count()
city size
beijing A 1
F 1
guangzhou A 1
shanghai A 1
B 1
shenzhen C 1
Name: id, dtype: int64
2.使用agg映射函数对多列进行聚合函数运算:
df.groupby(["Y","客户省份"]).agg({"数量":"sum","金额":"sum","产品ID":"size"})
.rename(columns={"数量":"各省购买货物数量","金额":"各省支付金额","产品ID":"各省下单数量"})
3.透视表:

groupby 两次就是数据透视表,思维模仿excel中的透视表

value_counts

stack:
降维: stack() 将2维边为一维表
列索引转变为行索引
 Dataframe.stack(level=- 1, dropna=True)
 # dropna如果为True 则会删除全为空的行
 # 设为False 则会保留使用stack()的时候,level等于哪一个,哪一个就消失,出现在行里。

#把透视数据转别为一维排版数据
Q = pd.Dataframe(res.stack(level=0)).reset_index().rename(columns={0:"营业额","level_1":"城市"})

unstack:
将含有groupby两次分组的列选出一列作为行形成2维表: unstack() 
行索引转变为列索引(透视表变换) 
 Dataframe.unstack(level=1, fill_value=None)
 #fill_value填充NaN使用unstack()的时候,level等于哪一个,哪一个就消失,出现在列里。
 #level等于的数字就是行索引的列。

数据统计 1.数据采样(重采样)
Python通过resample函数完成数据采样

1)升采样 一般不太用,觉得数据太少了,把时间细分(很多数据都是NaN)

2)降采样 比如说数据是一个小时一收集(数据密度大,计算效率底下),把小时换算成天

#groupby对于详细的时间类型无法进行精确的分组 (参数可以是:Y/M/D)

newdf = df.resample("D").sum()

2.描述统计

Python中可以通过Describe对数据进行描述统计(调用函数直接生成)

#数据表描述性统计
df_inner.describe().round(2).T

3.相关分析

Python中则通过corr函数皮尔逊系数的计算完成相关分析的操作,并返回相关系数。

#相关性分析
df_inner['price'].corr(df_inner['m-point'])
0.77466555617085264
#数据表相关性分析
df_inner.corr()

数据输出 1.写入Excel
#输出到Excel格式
df_inner.to_Excel('Excel_to_Python.xlsx', sheet_name='bluewhale_c
c')

2.写入csv
#输出到CSV格式
#index不保存
df_inner.to_csv('Excel_to_Python.csv',index=False)
3.index是否保存
#整理好的数据导出
#index不保存
nasdaq.to_csv("newdf.csv",index=False)
零散知识点 1、时间处理:

1).改为时间格式:时间类型改变完记得在替换成表中内容

#将字符串格式的时间改为datetime64:
#contb_receipt_dt为列名
方式1:
ue["contb_receipt_dt"].astype("datetime64")
方式2:
pd.to_datetime(ue["contb_receipt_dt"])

#参数errors='coerce'跳过出错的时间
pd.to_datetime(uo1["paidtime"],errors='coerce')

2).年月日提取:

#A为时间列:
A.dt.year
A.dt.month
A.dt.day
A.dt.hour

3).to_period()
使用这个函数处理过的数据,不能直接导入pyecharts中,类型不是列表。

#季度报表或者是周报用的比较多(Q/M/W)
ue= ue.to_period("Q")
ue

4)时间日期后有大量的小时秒,无法直接提取可以用 np.timedelta64(1,“D”)

(now-R)/ np.timedelta64(1,"D")

now 现在的时间减去 当时发生的事件出现的就是转化前的内容。

2、ndarray装换成list,list转换成ndarray

tolist 多用于pyechars绘制图片当中,充当数据进行绘制图片。

toarray 多用在朴素贝叶斯当中。

3、优化运行效率:

1)需要导入的模块:

import numpy as np
import pandas as pd
import swifter
import numba as nb

2)loc[]、iloc[]、query[] (索引行数据) 运行速度比较:

loc[] > iloc[] > 函数 (索引行数据)

3)多个列计算比较运算速度:

表[“列名”] > loc[ : ,“列名”] > iloc[ : ,“列名”] > 表.映射函数()

4)老版本中编写中出现eval函数

5)映射优化:

#swifter 可以自动切换Anaconda中Pandas和Dask
#Pandas基于单核计算
#Dask可以进行多核计算
#什么时候不能使用Dask,数据的合并

6)优化聚合函数:

自己写的函数 > pandas自带函数 >映射函数

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/498717.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号