侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python 数据处理库 pandas 入门教程基本操作

Python  /  管理员 发布于 7年前   199

pandas是一个Python语言的软件包,在我们使用Python语言进行机器学习编程的时候,这是一个非常常用的基础编程库。本文是对它的一个入门教程。

pandas提供了快速,灵活和富有表现力的数据结构,目的是使“关系”或“标记”数据的工作既简单又直观。它旨在成为在Python中进行实际数据分析的高级构建块。

入门介绍

pandas适合于许多不同类型的数据,包括:

  • 具有异构类型列的表格数据,例如SQL表格或Excel数据
  • 有序和无序(不一定是固定频率)时间序列数据。
  • 具有行列标签的任意矩阵数据(均匀类型或不同类型)
  • 任何其他形式的观测/统计数据集。

由于这是一个Python语言的软件包,因此需要你的机器上首先需要具备Python语言的环境。关于这一点,请自行在网络上搜索获取方法。

关于如何获取pandas请参阅官网上的说明:pandas Installation。

通常情况下,我们可以通过pip来执行安装:

sudo pip3 install pandas

或者通过conda 来安装pandas:

conda install pandas

目前(2018年2月)pandas的最新版本是v0.22.0(发布时间:2017年12月29日)。

我已经将本文的源码和测试数据放到Github上:pandas_tutorial ,读者可以前往获取。

另外,pandas常常和NumPy一起使用,本文中的源码中也会用到NumPy。

建议读者先对NumPy有一定的熟悉再来学习pandas,我之前也写过一个NumPy的基础教程,参见这里:Python 机器学习库 NumPy 教程

核心数据结构

pandas最核心的就是Series和DataFrame两个数据结构。

这两种类型的数据结构对比如下:

DataFrame可以看做是Series的容器,即:一个DataFrame中可以包含若干个Series。

注:在0.20.0版本之前,还有一个三维的数据结构,名称为Panel。这也是pandas库取名的原因:pan-da-s。但这种数据结构由于很少被使用到,因此已经被废弃了。

Series

由于Series是一维结构的数据,我们可以直接通过数组来创建这种数据,像这样:

# data_structure.pyimport pandas as pdimport numpy as npseries1 = pd.Series([1, 2, 3, 4])print("series1:\n{}\n".format(series1))

这段代码输出如下:

series1:0 11 22 33 4dtype: int64

这段输出说明如下:

  • 输出的最后一行是Series中数据的类型,这里的数据都是int64类型的。
  • 数据在第二列输出,第一列是数据的索引,在pandas中称之为Index。

我们可以分别打印出Series中的数据和索引:

# data_structure.pyprint("series1.values: {}\n".format(series1.values))print("series1.index: {}\n".format(series1.index))

这两行代码输出如下:

series1.values: [1 2 3 4]series1.index: RangeIndex(start=0, stop=4, step=1)

如果不指定(像上面这样),索引是[1, N-1]的形式。不过我们也可以在创建Series的时候指定索引。索引未必一定需要是整数,可以是任何类型的数据,例如字符串。例如我们以七个字母来映射七个音符。索引的目的是可以通过它来获取对应的数据,例如下面这样:

# data_structure.pyseries2 = pd.Series([1, 2, 3, 4, 5, 6, 7], index=["C", "D", "E", "F", "G", "A", "B"])print("series2:\n{}\n".format(series2))print("E is {}\n".format(series2["E"]))

这段代码输出如下:

series2:C 1D 2E 3F 4G 5A 6B 7dtype: int64E is 3DataFrame

下面我们来看一下DataFrame的创建。我们可以通过NumPy的接口来创建一个4x4的矩阵,以此来创建一个DataFrame,像这样:

# data_structure.pydf1 = pd.DataFrame(np.arange(16).reshape(4,4))print("df1:\n{}\n".format(df1))

这段代码输出如下:

df1: 0 1 2 30 0 1 2 31 4 5 6 72 8 9 10 113 12 13 14 15

从这个输出我们可以看到,默认的索引和列名都是[0, N-1]的形式。

我们可以在创建DataFrame的时候指定列名和索引,像这样:

# data_structure.pydf2 = pd.DataFrame(np.arange(16).reshape(4,4), columns=["column1", "column2", "column3", "column4"], index=["a", "b", "c", "d"])print("df2:\n{}\n".format(df2))

这段代码输出如下:

df2: column1 column2 column3 column4a 0 1 2 3b 4 5 6 7c 8 9 10 11d 12 13 14 15

我们也可以直接指定列数据来创建DataFrame:

# data_structure.pydf3 = pd.DataFrme({"note" : ["C", "D", "E", "F", "G", "A", "B"], "weekday": ["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"]})print("df3:\n{}\n".format(df3))

这段代码输出如下:

df3: note weekday0 C Mon1 D Tue2 E Wed3 F Thu4 G Fri5 A Sat6 B Sun

请注意:

DataFrame的不同列可以是不同的数据类型

如果以Series数组来创建DataFrame,每个Series将成为一行,而不是一列

例如:

# data_structure.pynoteSeries = pd.Series(["C", "D", "E", "F", "G", "A", "B"], index=[1, 2, 3, 4, 5, 6, 7])weekdaySeries = pd.Series(["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"], index=[1, 2, 3, 4, 5, 6, 7])df4 = pd.DataFrame([noteSeries, weekdaySeries])print("df4:\n{}\n".format(df4))

df4的输出如下:

df4: 1 2 3 4 5 6 70 C D E F G A B1 Mon Tue Wed Thu Fri Sat Sun

我们可以通过下面的形式给DataFrame添加或者删除列数据:

# data_structure.pydf3["No."] = pd.Series([1, 2, 3, 4, 5, 6, 7])print("df3:\n{}\n".format(df3))del df3["weekday"]print("df3:\n{}\n".format(df3))

这段代码输出如下:

df3: note weekday No.0 C Mon 11 D Tue 22 E Wed 33 F Thu 44 G Fri 55 A Sat 66 B Sun 7df3: note No.0 C 11 D 22 E 33 F 44 G 55 A 66 B 7

Index对象与数据访问

pandas的Index对象包含了描述轴的元数据信息。当创建Series或者DataFrame的时候,标签的数组或者序列会被转换成Index。可以通过下面的方式获取到DataFrame的列和行的Index对象:

# data_structure.pyprint("df3.columns\n{}\n".format(df3.columns))print("df3.index\n{}\n".format(df3.index))

这两行代码输出如下:

df3.columnsIndex(['note', 'No.'], dtype='object')df3.indexRangeIndex(start=0, stop=7, step=1)

请注意:

  • Index并非集合,因此其中可以包含重复的数据
  • Index对象的值是不可以改变,因此可以通过它安全的访问数据

DataFrame提供了下面两个操作符来访问其中的数据:

  • loc:通过行和列的索引来访问数据
  • iloc:通过行和列的下标来访问数据

例如这样:

# data_structure.pyprint("Note C, D is:\n{}\n".format(df3.loc[[0, 1], "note"]))print("Note C, D is:\n{}\n".format(df3.iloc[[0, 1], 0]))

第一行代码访问了行索引为0和1,列索引为“note”的元素。第二行代码访问了行下标为0和1(对于df3来说,行索引和行下标刚好是一样的,所以这里都是0和1,但它们却是不同的含义),列下标为0的元素。

这两行代码输出如下:

Note C, D is:0 C1 DName: note, dtype: objectNote C, D is:0 C1 DName: note, dtype: object

文件操作

pandas库提供了一系列的read_函数来读取各种格式的文件,它们如下所示:

  • read_csv
  • read_table
  • read_fwf
  • read_clipboard
  • read_excel
  • read_hdf
  • read_html
  • read_json
  • read_msgpack
  • read_pickle
  • read_sas
  • read_sql
  • read_stata
  • read_feather

读取Excel文件

注:要读取Excel文件,还需要安装另外一个库:xlrd

通过pip可以这样完成安装:

sudo pip3 install xlrd

安装完之后可以通过pip查看这个库的信息:

$ pip3 show xlrdName: xlrdVersion: 1.1.0Summary: Library for developers to extract data from Microsoft Excel (tm) spreadsheet filesHome-page: http://www.python-excel.org/Author: John MachinAuthor-email: [email protected]: BSDLocation: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packagesRequires: 

接下来我们看一个读取Excel的简单的例子:

# file_operation.pyimport pandas as pdimport numpy as npdf1 = pd.read_excel("data/test.xlsx")print("df1:\n{}\n".format(df1))

这个Excel的内容如下:

df1: C Mon0 D Tue1 E Wed2 F Thu3 G Fri4 A Sat5 B Sun

注:本文的代码和数据文件可以通过文章开头提到的Github仓库获取。

读取CSV文件

下面,我们再来看读取CSV文件的例子。

第一个CSV文件内容如下:

$ cat test1.csv C,MonD,TueE,WedF,ThuG,FriA,Sat

读取的方式也很简单:

# file_operation.pydf2 = pd.read_csv("data/test1.csv")print("df2:\n{}\n".format(df2))

我们再来看第2个例子,这个文件的内容如下:

$ cat test2.csv C|MonD|TueE|WedF|ThuG|FriA|Sat

严格的来说,这并不是一个CSV文件了,因为它的数据并不是通过逗号分隔的。在这种情况下,我们可以通过指定分隔符的方式来读取这个文件,像这样:

# file_operation.pydf3 = pd.read_csv("data/test2.csv", sep="|")print("df3:\n{}\n".format(df3))

实际上,read_csv支持非常多的参数用来调整读取的参数,如下表所示:

参数 说明
path 文件路径
sep或者delimiter 字段分隔符
header 列名的行数,默认是0(第一行)
index_col 列号或名称用作结果中的行索引
names 结果的列名称列表
skiprows 从起始位置跳过的行数
na_values 代替NA的值序列
comment 以行结尾分隔注释的字符
parse_dates 尝试将数据解析为datetime。默认为False
keep_date_col 如果将列连接到解析日期,保留连接的列。默认为False。
converters 列的转换器
dayfirst 当解析可以造成歧义的日期时,以内部形式存储。默认为False
data_parser 用来解析日期的函数
nrows 从文件开始读取的行数
iterator 返回一个TextParser对象,用于读取部分内容
chunksize 指定读取块的大小
skip_footer 文件末尾需要忽略的行数
verbose 输出各种解析输出的信息
encoding 文件编码
squeeze 如果解析的数据只包含一列,则返回一个Series
thousands 千数量的分隔符

详细的read_csv函数说明请参见这里:pandas.read_csv

处理无效值

现实世界并非完美,我们读取到的数据常常会带有一些无效值。如果没有处理好这些无效值,将对程序造成很大的干扰。

对待无效值,主要有两种处理方法:直接忽略这些无效值;或者将无效值替换成有效值。

下面我先创建一个包含无效值的数据结构。然后通过pandas.isna函数来确认哪些值是无效的:

# process_na.pyimport pandas as pdimport numpy as npdf = pd.DataFrame([[1.0, np.nan, 3.0, 4.0],   [5.0, np.nan, np.nan, 8.0],   [9.0, np.nan, np.nan, 12.0],   [13.0, np.nan, 15.0, 16.0]])print("df:\n{}\n".format(df));print("df:\n{}\n".format(pd.isna(df)));****

这段代码输出如下:

df: 0 1 2 30 1.0 NaN 3.0 4.01 5.0 NaN NaN 8.02 9.0 NaN NaN 12.03 13.0 NaN 15.0 16.0df: 0 1 2 30 False True False False1 False True True False2 False True True False3 False True False False

忽略无效值

我们可以通过pandas.DataFrame.dropna函数抛弃无效值:

# process_na.pyprint("df.dropna():\n{}\n".format(df.dropna()));

注:dropna默认不会改变原先的数据结构,而是返回了一个新的数据结构。如果想要直接更改数据本身,可以在调用这个函数的时候传递参数 inplace = True。

对于原先的结构,当无效值全部被抛弃之后,将不再是一个有效的DataFrame,因此这行代码输出如下:

df.dropna():Empty DataFrameColumns: [0, 1, 2, 3]Index: []

我们也可以选择抛弃整列都是无效值的那一列:

# process_na.pyprint("df.dropna(axis=1, how='all'):\n{}\n".format(df.dropna(axis=1, how='all')));

注:axis=1表示列的轴。how可以取值'any'或者'all',默认是前者。

这行代码输出如下:

df.dropna(axis=1, how='all'): 0 2 30 1.0 3.0 4.01 5.0 NaN 8.02 9.0 NaN 12.03 13.0 15.0 16.0

替换无效值

我们也可以通过fillna函数将无效值替换成为有效值。像这样:

# process_na.pyprint("df.fillna(1):\n{}\n".format(df.fillna(1)));

这段代码输出如下:

df.fillna(1):  0 1  2  30 1.0 1.0 3.0 4.01 5.0 1.0 1.0 8.02 9.0 1.0 1.0 12.03 13.0 1.0 15.0 16.0

将无效值全部替换成同样的数据可能意义不大,因此我们可以指定不同的数据来进行填充。为了便于操作,在填充之前,我们可以先通过rename方法修改行和列的名称:

# process_na.pydf.rename(index={0: 'index1', 1: 'index2', 2: 'index3', 3: 'index4'},   columns={0: 'col1', 1: 'col2', 2: 'col3', 3: 'col4'},   inplace=True);df.fillna(value={'col2': 2}, inplace=True)df.fillna(value={'col3': 7}, inplace=True)print("df:\n{}\n".format(df));

这段代码输出如下:

df:  col1 col2 col3 col4index1 1.0 2.0 3.0 4.0index2 5.0 2.0 7.0 8.0index3 9.0 2.0 7.0 12.0index4 13.0 2.0 15.0 16.0

处理字符串

数据中常常牵涉到字符串的处理,接下来我们就看看pandas对于字符串操作。

Series的str字段包含了一系列的函数用来处理字符串。并且,这些函数会自动处理无效值。

下面是一些实例,在第一组数据中,我们故意设置了一些包含空格字符串:

# process_string.pyimport pandas as pds1 = pd.Series([' 1', '2 ', ' 3 ', '4', '5']);print("s1.str.rstrip():\n{}\n".format(s1.str.lstrip()))print("s1.str.strip():\n{}\n".format(s1.str.strip()))print("s1.str.isdigit():\n{}\n".format(s1.str.isdigit()))

在这个实例中我们看到了对于字符串strip的处理以及判断字符串本身是否是数字,这段代码输出如下:

s1.str.rstrip():0  11 2 2 3 3  44  5dtype: objects1.str.strip():0 11 22 33 44 5dtype: objects1.str.isdigit():0 False1 False2 False3  True4  Truedtype: bool


下面是另外一些示例,展示了对于字符串大写,小写以及字符串长度的处理:

# process_string.pys2 = pd.Series(['Stairway to Heaven', 'Eruption', 'Freebird',     'Comfortably Numb', 'All Along the Watchtower'])print("s2.str.lower():\n{}\n".format(s2.str.lower()))print("s2.str.upper():\n{}\n".format(s2.str.upper()))print("s2.str.len():\n{}\n".format(s2.str.len()))

该段代码输出如下:

s2.str.lower():0   stairway to heaven1     eruption2     freebird3   comfortably numb4 all along the watchtowerdtype: objects2.str.upper():0   STAIRWAY TO HEAVEN1     ERUPTION2     FREEBIRD3   COMFORTABLY NUMB4 ALL ALONG THE WATCHTOWERdtype: objects2.str.len():0 181  82  83 164 24dtype: int64

总结

以上所述是小编给大家介绍的Python 数据处理库 pandas 入门教程基本操作,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对站的支持!


  • 上一条:
    python中实现将多个print输出合成一个数组
    下一条:
    解决python 输出是省略号的问题
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客