精华内容
下载资源
问答
  • Excel数据进行读取并重新整理至新Excel,并绘制Excel中数据为图表
  • 主要介绍了Python应用实现处理excel数据过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
  • 利用Python处理Excel数据——xlrd,xlwt库

    千次阅读 多人点赞 2020-01-15 14:14:22
    与其花费好几天去做这些繁琐无意义的操作,不如学学python如何批量读写excel文件,以下介绍用xlrd和xlwt库处理Excel数据。 我们新建一个excel表格(table1.xlsx)用于案例讲解: 一、使用xlrd库读取excel数据 ...

    当面对成百上千个excel文件,需要重复读写时,你会不会很头大呢?

    与其花费好几天去做这些繁琐无意义的操作,不如学学python如何批量读写excel文件,以下介绍用xlrd和xlwt库处理Excel数据。

    我们新建一个excel表格(table1.xlsx)用于案例讲解:

    一、使用xlrd库读取excel数据

    1、python读取excel文件特定数据

     

    import xlrd
    
    data = xlrd.open_workbook(r'E:\Anaconda\data\hc200115\table1.xlsx') # 打开xlsx文件(绝对路径)
    table = data.sheets()[0] # 打开第一张表
    nrows = table.nrows # 获取表的行数
    
    # 循环逐行输出
    for i in range(nrows): 
       print(table.row_values(i)[:4]) # 取前四列数据
    
    ['Name', 'Age', 'Class', 'Score']
    ['Tom', 19.0, 162061.0, 80.0]
    ['Jack', 20.0, 172051.0, 90.0]
    ['Alan', 18.0, 150461.0, 100.0]
    # Excel数据的行、列数
    nrows=table.nrows
    ncols=table.ncols
    print(nrows)
    print(ncols)
    4
    4

    (注)打开xlsx文件时相对路径与绝对路径区别:

    data = xlrd.open_workbook(r'E:\Anaconda\data\hc200115\table1.xlsx')   # 绝对路径
    data = xlrd.open_workbook('table1.xlsx')                                                  # 相对路径(当前工作目录下)


    2、python读取读取excel文件所有数据

    import xlrd
    #打开一个xls文件
    workbook = xlrd.open_workbook('table1.xlsx')
    
    #抓取所有sheet页的名称
    worksheets = workbook.sheet_names()
    print('worksheets is %s' %worksheets)
    worksheets is ['Sheet1']
    #定位到sheet1
    worksheet1 = workbook.sheet_by_name(u'Sheet1')
    
    #遍历sheet1中所有行row
    num_rows = worksheet1.nrows
    for curr_row in range(num_rows):
        row = worksheet1.row_values(curr_row)
        print('row%s is %s' %(curr_row,row))
    
    #遍历sheet1中所有列col
    num_cols = worksheet1.ncols
    for curr_col in range(num_cols):
        col = worksheet1.col_values(curr_col)
        print('col%s is %s' %(curr_col,col))
    row0 is ['Name', 'Age', 'Class', 'Score']
    row1 is ['Tom', 19.0, 162061.0, 80.0]
    row2 is ['Jack', 20.0, 172051.0, 90.0]
    row3 is ['Alan', 18.0, 150461.0, 100.0]
    
    col0 is ['Name', 'Tom', 'Jack', 'Alan']
    col1 is ['Age', 19.0, 20.0, 18.0]
    col2 is ['Class', 162061.0, 172051.0, 150461.0]
    col3 is ['Score', 80.0, 90.0, 100.0]
    #遍历sheet1中所有单元格cell
    for rown in range(num_rows):
        for coln in range(num_cols):
            cell = worksheet1.cell_value(rown,coln)
            print(cell)
    Name
    Age
    Class
    Score
    Tom
    19.0
    162061.0
    80.0
    Jack
    20.0
    172051.0
    90.0
    Alan
    18.0
    150461.0
    100.0
    

    二、使用xlwt库来写入excel数据

    import xlwt
    
    #创建workbook和sheet对象
    workbook = xlwt.Workbook() #注意Workbook的开头W要大写
    sheet1 = workbook.add_sheet('sheet1',cell_overwrite_ok=True)
    
    #向sheet页中写入数据
    sheet1.write(0,0,'Name1')
    sheet1.write(0,1,'aaaa')
    sheet1.write(1,0,'Name2')
    sheet1.write(1,1,'bbbb')
    
    #保存该excel文件,有同名文件时直接覆盖
    workbook.save('test.xlsx')
    
    print('创建excel文件完成!')
    创建excel文件完成!

    (在工作目录下生成“test.xlsx”文件)

     

     

    展开全文
  • Python进行Excel数据处理

    万次阅读 多人点赞 2020-04-03 15:55:36
    Python进行Excel数据处理思路实现1. 使用openpyxl2. 使用xlrd和xlwt总结 前两天GF让用Python写个Excel表格处理脚本,在这里记录一下。某公司有个数据统计汇总表格,仅为初表,复制粘贴汇总而来。初表中,存在同一...

    前两天GF让用Python写个Excel表格处理脚本,在这里记录一下。某公司有个数据统计汇总表格,仅为初表,复制粘贴汇总而来。初表中,存在同一员工推荐多套商品以及各自金额,目标呢:合并同类项,并把推荐数量和金额进行累加。文字解释不太清楚,上图说话。
    原始图片 original
    原始图片
    目标图片 final
    在这里插入图片描述

    思路

    Step 1: 涉及excel文件的读写,在此使用openpyxl或者xlrd和xlwt组合,需要了解其中的方法和单元格操作。
    Step 2: 需要进行人名和推荐数量配对,以及累计金额的累加,在此使用字典数据类型。此外由于存在推荐多套的情况,在此需要进行一键对多值的映射,对于字典中值的初始化,使用列表方便改变数量。
    Step 3:在“累计认购金额”条目,需要注意单元格内的内容格式是数字类型还是文本类型,如果是数字类型,可以使用sum函数累加,如果是文本类型,需要使用int函数转化为数值在累加,也可使用map函数进行字符到数字的映射。

    实现

    1. 使用openpyxl

    # By WDL 2020-3-31
    from openpyxl import Workbook, load_workbook
    wb= load_workbook("XXX公司推荐成交明细.xlsx")
    ws=wb["Sheet1"]#也可以使用wb.get_sheet_by_name("Sheet1") 获取工作表
    # 读取数据,把excel中的一个table按行读取出来,存入一个二维的list
    total_list=[]
    for row in ws.rows:
        row_list=[]
        for cell in row:
            row_list.append(cell.value)
        total_list.append(row_list)
    # 利用字典进行数据统计
    namedict={}
    valuedict={}
    for term in total_list:
        if term[1] == None or term[1] == "员工姓名":# 员工姓名列
            continue
        else:
            namedict[term[1]]=namedict.get(term[1],0)+1
            valuedict.setdefault(term[1],[]).append(term[-1]) #一键 对多值的字典
    
    #保存写操作
    newwb = Workbook()
    newsheet=newwb.active
    newsheet.title="Sheet1"
    #表头
    newsheet["A1"]=total_list[0][0]
    newsheet.merge_cells("A1:C1") #合并单元格
    newsheet["A2"]="员工姓名"
    newsheet["B2"]="推荐数量"
    newsheet["C2"]="累计认购金额"
    
    #单元格
    i=3
    for name in namedict:
        newsheet.cell(row=i,column=1).value=name
        newsheet.cell(row=i, column=2).value=namedict[name]
        newsheet.cell(row=i, column=3).value =sum(valuedict[name])
        i=i+1
    newwb.save("XXX公司推荐成交明细_final.xlsx")
    

    2. 使用xlrd和xlwt

    # By WDL 2020-3-31
    import xlrd,xlwt
    wb=xlrd.open_workbook("XXX公司推荐成交明细.xlsx")
    ws=wb.sheet_by_index(0)
    print(ws.row_values(2)) #每一行作为一个列表
    total_list=[]
    for row in range(ws.nrows):
        row_list=ws.row_values(row)
        total_list.append(row_list)
    namedict={}
    for items in total_list:
        if items[1]==None or items[1]=="员工姓名":
            continue
        else:
            if items[1] in namedict.keys():
                namedict[items[1]]["推荐数量"]  += 1
                namedict[items[1]]["累计认购金额"] +=items[-1]
            else:
                namedict.setdefault(items[1], {})
                namedict[items[1]].setdefault("推荐数量",1)
                namedict[items[1]].setdefault("累计认购金额", items[-1])
    # 写操作
    wb = xlwt.Workbook()
    ws = wb.add_sheet("Sheet1")
    ws.write(0,0,label ="test")
    wb.save("测试.xls") #xlwt貌似只支持xls格式
    

    xlrd和xlwt模式没有写全,本人太懒,有兴趣的朋友可以自己试着补全。需要注意,xlwt貌似只支持保存为.xls的表格。并且,在第二种方法中,使用了字典的嵌套,第一层字典的键为名字,值为字典。

    总结

    openpyxl和xlrd/xlwt中需要注意单元格的索引,openpyxl单元格行列编号从1开始,而xlrd/xlwt的编号从0开始。其他关于字体格式,以及自动化识别的操作,本人太懒没再研究。

    [1]: openpyxl 的使用 - excel中数据转成列表/ 字典https://blog.csdn.net/GYK0812/article/details/104380629/
    [2]: Python Openpyxl快速入门教程 https://blog.csdn.net/qq_33353186/article/details/79191069

    展开全文
  • python来自动生成excel数据文件。python处理excel文件主要是第三方模块库xlrd、xlwt、xluntils和pyExcelerator,除此之外,python处理excel还可以用win32com和openpyxl模块
  • python读写excel练习资料,使用python3.6.2,提供给用户做更好的练习使用
  • python编写的excel数据汇总小程序 一、软件功能 将多个excel表sheet1的数据汇总至一个新的excel表中。 二、设计思想 遍历“源数据表”目录下的所有excel表,读取数据,写入到一个新生成的excel中。 三、使用方法 1、...
  • 【学习笔记】python实现excel数据处理

    万次阅读 多人点赞 2019-02-27 20:03:44
    概述 Excel固然功能强大,也有许多函数实现数据处理功能,但是Excel仍需大量人工操作,虽然能嵌入VB脚本宏,但也...因此,本文就python处理excel数据进行了学习,主要分为pythonexcel数据处理的常用数据类型以及...

    概述

    Excel固然功能强大,也有许多函数实现数据处理功能,但是Excel仍需大量人工操作,虽然能嵌入VB脚本宏,但也容易染上宏病毒。python作为解释性语言,在数据处理方面拥有强大的函数库以及第三方库,excel作为主要基础数据源之一,在利用数据进行分析前往往需要预先对数据进行整理。因此,本文就python处理excel数据进行了学习,主要分为python对excel数据处理的常用数据类型以及常用函数,用python语言实现excel基本操作。
    在这里插入图片描述在这里插入图片描述


    常用数据类型序列sequence, 列表list, 元组tuple, array,字典dictionary,series,dataframe,集合set区别

    序列

    首先,序列是是Python中最基本的数据结构。序列中的每个元素都分配一个数字 - 它的位置,或索引,第一个索引是0,第二个索引是1,依此类推。每个索引对应一个元素。Python包含 6 中内建的序列,包括列表、元组、字符串、Unicode字符串、buffer对象和xrange对象。
    对于序列,都可以使用以下操作:

    • 索引
    • 切片
    • 成员检查
    • 计算序列的长度
    • 取序列中的最大、最小值

    列表list

    概述用途

    • 一组有序项目的集合。可变的数据类型【可进行增删改查】
    • 列表是以方括号“[]”包围的数据集合,不同成员以“,”分隔。
    • 列表中可以包含任何数据类型,也可包含另一个列表
    • 列表可通过序号访问其中成员

    声明方式

    example = [0,1,2,3,4,5,6,7,8,9]  
    

    API

    Python列表脚本操作符

    在这里插入图片描述

    Python列表函数

    在这里插入图片描述

    Python列表方法

    在这里插入图片描述

    切片

    #列表操作补充--切片操作  
    example = [0,1,2,3,4,5,6,7,8,9]  
    #打印某一区间 左闭右开  
    print(example[4:8])  
    #想包含最后一个  
    print(example[4:])  
    #包含首个  
    print(example[:8])  
    #所有的  
    print(example[:])  
    #第三个参数为步长  
    print(example[1:8:2])  
    #倒序输出  
    print(example[::-1])  
    #列表合并  
    a = [1,2,3]  
    b = [4,5,6]  
    print(a+b)  
    #替换  
    ex = [1,2,3,4,5,6]  
    ex[4:]=[9,8,7]  
    print(ex)#将56换为987
    

    判断列表中

    >>> list4=[123,["das","aaa"],234]
    >>> list4
    >>> "aaa" in list4 #in只能判断一个层次的元素
    False
    >>> "aaa" in list4[1] #选中列表中的列表进行判断
    True
    >>> list4[1][1]
    'aaa'
    

    元组tuple

    概述用途

    • 不可变序列
    • 元组是以圆括号“()”包围的数据集合,不同成员以“,”分隔
    • 与列表不同:元组中数据一旦确立就不能改变
    • 通过下标进行访问

    声明方式

    L=(1,2,3)
    含0个元素的元组: L = ()
    

    元组操作

    访问元组

    >>> o =('a','b','c',('d1','d2')) 
    >>> print o[0]
    >>> print o[3][0]
    a
    d1
    
    >>> age=22
    >>> name='sandra'
    >>> print'%s is %d years old'%(name,age)
    sandra is 22 years old
    

    修改元组
    (元组中的元素值是不允许修改的,但我们可以对元组进行连接组合,如下实例)

    tup1 = (12, 34.56);
    tup2 = ('abc', 'xyz');
    # 以下修改元组元素操作是非法的。
    # tup1[0] = 100;
    # 创建一个新的元组
    tup3 = tup1 + tup2;
    print tup3;
    

    添加元组

    #通过切片方法添加
    a=(1,2,3,4,5,6)
    a=a[:2]+(10,)+a[2:]
    a
    

    删除元素

    del tup1
    
    

    API

    元组运算符

    与字符串一样,元组之间可以使用 + 号和 * 号进行运算。这就意味着他们可以组合和复制,运算后会生成一个新的元组。
    在这里插入图片描述

    元组内置函数

    在这里插入图片描述

    字典dictionary

    概述用途

    • 字典是另一种可变容器模型,且可存储任意类型对象。

    • 字典的每个键值(key=>value)对用冒号(:)分割,每个对之间用逗号(,)分割,整个字典包括在花括号({})中

    声明方式

    d = {key1 : value1, key2 : value2 }
    //键必须是唯一的,但值则不必。
    //值可以取任何数据类型,但键必须是不可变的,如字符串,数字或元组。
    

    字典操作

    访问字典里的值

    dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'};
    dict['Name']
    dict['Age']
    

    修改字典

    dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'};
    dict['Age'] = 8; 
    dict['School'] = "DPS School"
    

    删除字典元素
    能删单一的元素也能清空字典,清空只需一项操作。

    显示删除一个字典用del命令,如下实例:

    dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'};
    del dict['Name']; # 删除键是'Name'的条目
    dict.clear();     # 清空词典所有条目
    del dict ;        # 删除词典
    
    

    API

    字典内置函数

    在这里插入图片描述

    字典内置方法

    在这里插入图片描述

    ndarray(数组)–numpy

    概述用途

    python中的list是python的内置数据类型,list中的数据类不必相同的,而array的中的类型必须全部相同。在list中的数据类型保存的是数据的存放的地址,简单的说就是指针,并非数据,这样保存一个list就太麻烦了,例如list1=[1,2,3,‘a’]需要4个指针和四个数据,增加了存储和消耗cpu。numpy中封装的array有很强大的功能,里面存放的都是相同的数据类型
    1)numpy array 必须有相同数据类型属性 ,Python list可以是多种数据类型的混合
    2)numpy array有一些方便的函数
    3)numpy array数组可以是多维的

    声明方式

    np.array用来创建ndarray类型

    b=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]])  
    

    API

    series-pandas

    概述用途

    class pandas.Series(data = None,index = None,dtype = None,name = None,copy = False,fastpath = False )

    带轴标签的一维ndarray(包括时间序列)。

    标签不一定是唯一的,但必须是可清洗的类型。该对象支持基于整数和基于标签的索引,并提供了许多方法来执行涉及索引的操作。来自ndarray的统计方法已被覆盖,以自动排除缺失的数据(目前表示为NaN)。

    Series(+, - ,/ , *)之间的操作根据其关联的索引值对齐值 - 它们不必是相同的长度。结果索引将是两个索引的排序并集。

    声明

    Python列表,index与列表元素个数一致

    
    In [1]: import pandas as pd
    ​
    In [2]: list_a = [2,4,5,6]
    ​
    In [3]: pd.Series(list_a)
    Out[3]:
    0    2
    1    4
    2    5
    3    6
    dtype: int64
    

    标量值,index表达Series类型的尺寸

    
    In [4]: pd.Series(1,index = [1,2,3])
    Out[4]:
    1    1
    2    1
    3    1
    dtype: int64
    

    Python字典,键值对中的“键”是索引,index从字典中进行选择操作

    In [5]: pd.Series({'a':1,'b':3})
    Out[5]:
    a 1
    b 3
    dtype: int64
    #如果定义的index在原字典中已经存在,那么该索引会一直对应原字典的值,如果index对应不到原字典的值,则会返回NaN
    In [11]: pd.Series({'a':1,'b':3},index = ['b','a','c'])
    Out[11]:
    b 3.0
    a 1.0
    c NaN
    dtype: float64
    

    ndarray,索引和数据都可以通过ndarray类型创建

    In [9]: list_b = np.arange(6)
    ​
    In [10]: pd.Series(list_b)
    Out[10]:
    0    0
    1    1
    2    2
    3    3
    4    4
    5    5
    dtype: int32
    

    其他函数,range()函数等

    In [12]: pd.Series(range(3))
    Out[12]:
    0    0
    1    1
    2    2
    dtype: int32
    

    series操作

    Series类型包括index和values两部分

    In [14]: a = pd.Series({'a':1,'b':5}) 
    In [15]: a.index 
    Out[15]: Index(['a', 'b'], dtype='object') 
    
    In [16]: a.values #返回一个多维数组numpy对象 
    Out[16]: array([1, 5], dtype=int64)
    

    Series类型的操作类似ndarray类型

    #自动索引和自定义索引并存,但不能混用
     In [17]: a[0] #自动索引 
    Out[17]: 1 
    #自定义索引 
    In [18]: a['a'] 
    Out[18]: 1 
    #不能混用
    In [20]: a[['a',1]] 
    Out[20]: 
    a 1.0 
    1 NaN 
    dtype: float64
    

    Series类型的操作类似Python字典类型

    #通过自定义索引访问
    #对索引保留字in操作,值不可以
    In [21]: 'a' in a
    Out[21]: True
    ​
    In [22]: 1 in a
    Out[22]: False
    

    Series类型在运算中会自动对齐不同索引的数据

    In [29]: a = pd.Series([1,3,5],index = ['a','b','c']) 
    In [30]: b = pd.Series([2,4,5,6],index = ['c,','d','e','b'])
     In [31]: a+b 
    Out[31]: 
    a NaN 
    b 9.0 
    c NaN 
    c, NaN
    d NaN 
    e NaN 
    

    Series对象可以随时修改并即刻生效

    In [32]: a.index = ['c','d','e'] 
    In [33]: a 
    Out[33]: 
    c 1 
    d 3
     e 5 
    dtype: int64 
    In [34]: a+b 
    Out[34]: 
    b NaN 
    c NaN
    c, NaN 
    d 7.0 
    e 10.0
    dtype: float64
    

    dataframe-pandas

    概述用途

    DataFrame提供的是一个类似表的结构,由多个Series组成,而Series在DataFrame中叫columns

    声明方式

    import pandas as pd
    from pandas import Series, DataFrame
    import numpy as np
    data = DataFrame(np.arange(15).reshape(3,5),index=['one','two','three'],columns=['a','b','c','d','e'])
    print data
    
            a   b   c   d   e
    one     0   1   2   3   4
    two     5   6   7   8   9
    three  10  11  12  13  14
    

    array

    import pandas as pd
    import numpy as np
    s1=np.array([1,2,3,4])
    s2=np.array([5,6,7,8])
    df=pd.DataFrame([s1,s2])
    print df
    

    在这里插入图片描述

    series列表(效果与二维array相同)

    import pandas as pd
    import numpy as np
    s1=pd.Series(np.array([1,2,3,4]))
    s2=pd.Series(np.array([5,6,7,8]))
    df=pd.DataFrame([s1,s2])
    print df
    

    在这里插入图片描述

    value为Series的字典结构

    import pandas as pd
    import numpy as np
    
    s1=pd.Series(np.array([1,2,3,4]))
    s2=pd.Series(np.array([5,6,7,8]))
    df=pd.DataFrame({"a":s1,"b":s2});
    print df
    

    在这里插入图片描述

    操作

    直接取值df.[]

    df=pd.DataFrame({"A":[1,2,3,4],"B":[5,6,7,8],"C":[1,1,1,1]})
    df=df[df.A>=2]
    print df
    

    使用.loc[]

    df=pd.DataFrame({"A":[1,2,3,4],"B":[5,6,7,8],"C":[1,1,1,1]})
    df=df.loc[df.A>2]
    print df
    

    .ix[]索引

    print df.columns.size#列数 2
    print df.iloc[:,0].size#行数 3 
    print df.ix[[0]].index.values[0]#索引值 0
    print df.ix[[0]].values[0][0]#第一行第一列的值 11
    print df.ix[[1]].values[0][1]#第二行第二列的值 121
    

    API

    group(groupby 形成group)

    df = pd.DataFrame({'animal': 'cat dog cat fish dog cat cat'.split(),
                      'size': list('SSMMMLL'),
                      'weight': [8, 10, 11, 1, 20, 12, 12],
                      'adult' : [False] * 5 + [True] * 2});
    #列出动物中weight最大的对应size
    group=df.groupby("animal").apply(lambda subf: subf['size'][subf['weight'].idxmax()])
    print group
    

    在这里插入图片描述
    使用get_group 取出其中一分组

    df = pd.DataFrame({'animal': 'cat dog cat fish dog cat cat'.split(),
                      'size': list('SSMMMLL'),
                      'weight': [8, 10, 11, 1, 20, 12, 12],
                      'adult' : [False] * 5 + [True] * 2});
    
    group=df.groupby("animal")
    cat=group.get_group("cat")
    print cat
    

    在这里插入图片描述

    集合

    概述作用

    集合中包含一系列的元素,在Python中这些元素不需要是相同的类型,且这些元素在集合中是没有存储顺序的。

    声明

    >>> {1,2,"hi",2.23}
    {2.23, 2, 'hi', 1}
    >>> set("hello")
    {'l', 'h', 'e', 'o'}
    

    注:由于集合和字典都用{}表示,所以初始化空的集合只能通过set()操作,{}只是表示一个空的字典

    集合操作

    集合的增加

    >>> a={1,2}
    >>> a.update([3,4],[1,2,7])
    >>> a
    {1, 2, 3, 4, 7}
    >>> a.update("hello")
    >>> a
    {1, 2, 3, 4, 7, 'h', 'e', 'l', 'o'}
    >>> a.add("hello")
    >>> a
    {1, 2, 3, 4, 'hello', 7, 'h', 'e', 'l', 'o'}
    

    集合的删除

    >>> a={1,2,3,4}
    >>> a.discard(1)
    >>> a
    {2, 3, 4}
    >>> a.discard(1)
    >>> a
    {2, 3, 4}
    >>> a.remove(1)
    Traceback (most recent call last):
      File "<input>", line 1, in <module>
    KeyError: 1
    

    集合也支持pop()方法,不过由于集合是无序的,pop返回的结果不能确定,且当集合为空时调用pop会抛出KeyError错误,可以调用clear方法来清空集合:

    >>> a={3,"a",2.1,1}
    >>> a.pop()
    >>> a.pop()
    >>> a.clear()
    >>> a
    set()
    >>> a.pop()
    Traceback (most recent call last):
      File "<input>", line 1, in <module>
    KeyError: 'pop from an empty set'
    

    API

    集合操作

    • 并集:set.union(s),也可以用a|b计算
    • 交集:set.intersection(s),也可以用a&b计算
    • 差集:set.difference(s),也可以用a-b计算
      需要注意的是Python提供了一个求对称差集的方法set.symmetric_difference(s),相当于两个集合互求差集后再求并集,其实就是返回两个集合中只出现一次的元素,也可以用a^b计算。
    >>> a={1,2,3,4}
    >>> b={3,4,5,6}
    >>> a.symmetric_difference(b)
    {1, 2, 5, 6}
    2
    4
    

    set.update(s)操作相当于将两个集合求并集并赋值给原集合,其他几种集合操作也提供各自的update版本来改变原集合的值,形式如intersection_update(),也可以支持多参数形式。

    包含关系

    两个集合之间一般有三种关系,相交、包含、不相交。在Python中分别用下面的方法判断:

    • set.isdisjoint(s):判断两个集合是不是不相交
    • set.issuperset(s):判断集合是不是包含其他集合,等同于a>=b
    • set.issubset(s):判断集合是不是被其他集合包含,等同于a<=b
      如果要真包含关系,就用符号操作>和<。

    不变集合

    Python提供了不能改变元素的集合的实现版本,即不能增加或删除元素,类型名叫frozenset,使用方法如下:

    >>> a = frozenset("hello")
    >>> a
    frozenset({'l', 'h', 'e', 'o'})
    2
    

    需要注意的是frozenset仍然可以进行集合操作,只是不能用带有update的方法。如果要一个有frozenset中的所有元素的普通集合,只需把它当作参数传入集合的构造函数中即可:

    python excel操作

    ##生成数据表

    准备

    import numpy as np
    import pandas as pd
    

    导入数据表

    df=pd.DataFrame(pd.read_csv('name.csv',header=1))
    df=pd.DataFrame(pd.read_excel('name.xlsx'))
    

    创建数据表

    df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
                       "date":pd.date_range('20130102', periods=6),
                       "city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
                       "age":[23,44,54,32,34,32],
                       "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
                       "price":[1200,np.nan,2133,5433,np.nan,4432]},
                       columns =['id','date','city','category','age','price'])
    

    数据表检查

    python中处理的数据量通常会比较大,,我们无法一目了然的了解数据表的整体情况,必须要通过一些方法来获得数据表的关键信息。数据表检查的另一个目的是了解数据的概况,例如整个数据表的大小,所占空间,数据格式,是否有空值和重复项和具体的数据内容。为后面的清洗和预处理做好准备。

    数据维度

    #查看数据表的维度
    df.shape
    (6, 6)
    

    数据表信息

    #数据表信息
    df.info()
    
    &lt;class 'pandas.core.frame.DataFrame'&gt;
    RangeIndex: 6 entries, 0 to 5
    Data columns (total 6 columns):
    id          6 non-null int64
    date        6 non-null datetime64[ns]
    city        6 non-null object
    category    6 non-null object
    age         6 non-null int64
    price       4 non-null float64
    dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
    memory usage: 368.0+ bytes
    

    查看数据格式

    #查看数据表各列格式
    df.dtypes
     
    id                   int64
    date        datetime64[ns]
    city                object
    category            object
    age                  int64
    price              float64
    dtype: object
    
    #查看单列格式
    df['B'].dtype
     
    dtype('int64')
    
    

    查看空值

    Isnull是Python中检验空值的函数,返回的结果是逻辑值,包含空值返回True,不包含则返回False。可以对整个数据表进行检查,也可以单独对某一列进行空值检查。

    #检查数据空值
    df.isnull()
    
    #检查特定列空值
    df['price'].isnull()
    0    False
    1     True
    2    False
    3    False
    4     True
    5    False
    
    Name: price, dtype: bool
    

    查看唯一值 (删除重复项)

    #查看city列中的唯一值
    df['city'].unique()
    
    array(['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '], dtype=object)
    

    查看数据表数值

    #查看数据表的值
    df.values
    array([[1001, Timestamp('2013-01-02 00:00:00'), 'Beijing ', '100-A', 23,
            1200.0],
           [1002, Timestamp('2013-01-03 00:00:00'), 'SH', '100-B', 44, nan],
           [1003, Timestamp('2013-01-04 00:00:00'), ' guangzhou ', '110-A', 54,
            2133.0],
           [1004, Timestamp('2013-01-05 00:00:00'), 'Shenzhen', '110-C', 32,
            5433.0],
           [1005, Timestamp('2013-01-06 00:00:00'), 'shanghai', '210-A', 34,
            nan],
           [1006, Timestamp('2013-01-07 00:00:00'), 'BEIJING ', '130-F', 32,
            4432.0]], dtype=object)
    

    查看列名称

    #查看列名称
    df.columns
    Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='object')
    

    查看前10行数据

    #查看前3行数据
    df.head(3)
    

    查看后10行数据

    #查看最后3行
    df.tail(3)
    

    数据表清洗

    处理空值

    #删除数据表中含有空值的行
    df.dropna(how='any')
    
    
    #使用数字0填充数据表中空值
    df.fillna(value=0)
    
    #使用数字0填充数据表中空值
    df.fillna(value=0)
    
    #使用price均值对NA进行填充
    df['price'].fillna(df['price'].mean())
    0    1200.0
    1    3299.5
    2    2133.0
    3    5433.0
    4    3299.5
    5    4432.0
    Name: price, dtype: float64
    

    清理空格

    #清除city字段中的字符空格
    df['city']=df['city'].map(str.strip)
    

    大小写转换

    #city列大小写转换
    df['city']=df['city'].str.lower()
    

    更改数据格式

    #更改数据格式
    df['price'].astype('int')
    0    1200
    1    3299
    2    2133
    3    5433
    4    3299
    5    4432
    Name: price, dtype: int32
    

    更改列名称

    #更改列名称
    df.rename(columns={'category': 'category-size'})
    

    删除重复值

    #删除后出现的重复值
    df['city'].drop_duplicates()
    0      beijing
    1      sh
    2      guangzhou
    3     shenzhen
    4     shanghai
    Name: city, dtype: object
    
    #删除先出现的重复值
    df['city'].drop_duplicates(keep='last')
    1      sh
    2      guangzhou
    3     shenzhen
    4     shanghai
    5     beijing
    Name: city, dtype: objec
    

    数值修改及替换

    #数据替换
    df['city'].replace('sh', 'shanghai')
    

    数据预处理

    数据表合并

    首先是对不同的数据表进行合并,我们这里创建一个新的数据表df1,并将df和df1两个数据表进行合并。在Excel中没有直接完成数据表合并的功能,可以通过VLOOKUP函数分步实现。在python中可以通过merge函数一次性实现。下面建立df1数据表,用于和df数据表进行合并。

    #数据表匹配合并,inner模式
    df_inner=pd.merge(df,df1,how='inner')
    #其他数据表匹配模式
    df_left=pd.merge(df,df1,how='left')
    df_right=pd.merge(df,df1,how='right')
    df_outer=pd.merge(df,df1,how='outer')
    

    设置索引列

    #设置索引列
    df_inner.set_index('id')
    

    排序(按索引,按数值)

    #按特定列的值排序
    df_inner.sort_values(by=['age'])
    
    #按索引列排序
    df_inner.sort_index()
    

    数据分组(vlookup)

    Excel中可以通过VLOOKUP函数进行近似匹配来完成对数值的分组,或者使用“数据透视表”来完成分组。相应的 python中使用where函数完成数据分组。

    #如果price列的值>3000,group列显示high,否则显示low
    df_inner['group'] = np.where(df_inner['price'] > 3000,'high','low')
    
    #对复合多个条件的数据进行分组标记
    df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000), 'sign']=1
    

    数据分列(对字段拆分)

    #对category字段的值依次进行分列,并创建数据表,索引值为df_inner的索引列,列名称为category和size
    pd.DataFrame((x.split('-') for x in df_inner['category']),index=df_inner.index,columns=['category','size'])
    
    #将完成分列后的数据表与原df_inner数据表进行匹配
    df_inner=pd.merge(df_inner,split,right_index=True, left_index=True)
    

    数据提取

    按标签提取(loc)

    #按索引提取单行的数值
    df_inner.loc[3]
    id 1004
    date 2013-01-05 00:00:00
    city shenzhen
    category 110-C
    age 32
    price 5433
    gender female
    m-point 40
    pay Y
    group high
    sign NaN
    category_1 110
    size C
    Name: 3, dtype: object
    

    使用冒号可以限定提取数据的范围,冒号前面为开始的标签值,后面为结束的标签值。下面提取了0到5的数据行。

    #按索引提取区域行数值
    df_inner.loc[0:5]
    

    Reset_index函数用于恢复索引,这里我们重新将date字段的日期设置为数据表的索引,并按日期进行数据提取。

    #重设索引
    df_inner.reset_index()
    
    #设置日期为索引
    df_inner=df_inner.set_index('date')
    

    使用冒号限定提取数据的范围,冒号前面为空表示从0开始。提取所有2013年1月4日以前的数据。

    #提取4日之前的所有数据
    df_inner[:'2013-01-04']
    

    按位置提取(iloc)

    使用iloc函数按位置对数据表中的数据进行提取,这里冒号前后的数字不再是索引的标签名称,而是数据所在的位置,从0开始。

    #使用iloc按位置区域提取数据
    df_inner.iloc[:3,:2]
    

    iloc函数除了可以按区域提取数据,还可以按位置逐条提取,前面方括号中的0,2,5表示数据所在行的位置,后面方括号中的数表示所在列的位置。

    #使用iloc按位置单独提取数据
    df_inner.iloc[[0,2,5],[4,5]]
    

    按标签和位置提取(ix)

    ix是loc和iloc的混合,既能按索引标签提取,也能按位置进行数据提取。下面代码中行的位置按索引日期设置,列按位置设置。

    #使用ix按索引标签和位置混合提取数据
    df_inner.ix[:'2013-01-03',:4]
    

    按条件提取(区域和条件值)

    除了按标签和位置提起数据以外,还可以按具体的条件进行数据。下面使用loc和isin两个函数配合使用,按指定条件对数据进行提取。
    使用isin函数对city中的值是否为beijing进行判断。

    #判断city列的值是否为beijing
    df_inner['city'].isin(['beijing'])
    
    date
    2013-01-02 True
    2013-01-05 False
    2013-01-07 True
    2013-01-06 False
    2013-01-03 False
    2013-01-04 False
    Name: city, dtype: bool
    

    将isin函数嵌套到loc的数据提取函数中,将判断结果为Ture数据提取出来。这里我们把判断条件改为city值是否为beijing和 shanghai。如果是就把这条数据提取出来。

    #先判断city列里是否包含beijing和shanghai,然后将复合条件的数据提取出来。
    df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]
    

    数值提取还可以完成类似数据分列的工作,从合并的数值中提取出制定的数值。

    category=df_inner['category']
    0 100-A
    3 110-C
    5 130-F
    4 210-A
    1 100-B
    2 110-A
    Name: category, dtype: object
    
    #提取前三个字符,并生成数据表
    pd.DataFrame(category.str[:3])
    

    数据筛选

    使用与,或,非三个条件配合大于,小于和等于对数据进行筛选,并进行计数和求和。与excel中的筛选功能和countifs和sumifs功能相似。

    按条件筛选(与,或,非)

    #使用“与”条件进行筛选
    df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']]
    
    #使用“或”条件筛选
    df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']].sort(['age'])
    

    在前面的代码后增加price字段以及sum函数,按筛选后的结果将price字段值进行求和,相当于excel中sumifs的功能。

    #对筛选后的数据按price字段进行求和
    df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'),
    ['id','city','age','category','gender','price']].sort(['age']).price.sum()
    
    19796
    
    #使用“非”条件进行筛选
    df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id'])
    

    在前面的代码后面增加city列,并使用count函数进行计数。相当于excel中的countifs函数的功能。

    #对筛选后的数据按city列进行计数
    df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id']).city.count()
    4
    

    还有一种筛选的方式是用query函数。下面是具体的代码和筛选结果。

    #使用query函数进行筛选
    df_inner.query('city == ["beijing", "shanghai"]')
    

    在前面的代码后增加price字段和sum函数。对筛选后的price字段进行求和,相当于excel中的sumifs函数的功能。

    #对筛选后的结果按price进行求和
    df_inner.query('city == ["beijing", "shanghai"]').price.sum()
    12230
    

    数据汇总

    Excel中使用分类汇总和数据透视可以按特定维度对数据进行汇总,python中使用的主要函数是groupby和pivot_table。下面分别介绍这两个函数的使用方法。

    分类汇总

    Groupby是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby按列名称出现的顺序进行分组。同时要制定分组后的汇总方式,常见的是计数和求和两种。

    #对所有列进行计数汇总
    df_inner.groupby('city').count()
    
    #对特定的ID列进行计数汇总
    df_inner.groupby('city')['id'].count()
    city
    beijing 2
    guangzhou 1
    shanghai 2
    shenzhen 1
    Name: id, dtype: int64
    
    #对两个字段进行汇总计数
    df_inner.groupby(['city','size'])['id'].count()
    city size
    beijing A 1
    F 1
    guangzhou A 1
    shanghai A 1
    B 1
    shenzhen C 1
    Name: id, dtype: int64
    

    除了计数和求和外,还可以对汇总后的数据同时按多个维度进行计算,下面的代码中按城市对price字段进行汇总,并分别计算price的数量,总金额和平均金额。

    #对city字段进行汇总并计算price的合计和均值。
    df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])
    

    数据透视

    Excel中的插入目录下提供“数据透视表”功能对数据表按特定维度进行汇总。Python中也提供了数据透视表功能。通过pivot_table函数实现同样的效果。
    数据透视表也是常用的一种数据分类汇总方式,并且功能上比groupby要强大一些。下面的代码中设定city为行字段,size为列字段,price为值字段。分别计算price的数量和金额并且按行与列进行汇总。

    #数据透视表
    pd.pivot_table(df_inner,index=["city"],values=["price"],columns=["size"],aggfunc=[len,np.sum],fill_value=0,margins=True)
    

    在这里插入图片描述

    数据统计

    数据采样

    Python通过sample函数完成数据采样。

    #简单的数据采样
    df_inner.sample(n=3)
    

    Weights参数是采样的权重,通过设置不同的权重可以更改采样的结果,权重高的数据将更有希望被选中。这里手动设置6条数据的权重值。将前面4个设置为0,后面两个分别设置为0.5。

    #手动设置采样权重
    weights = [0, 0, 0, 0, 0.5, 0.5]
    f_inner.sample(n=2, weights=weights)
    
    #采样后不放回
    df_inner.sample(n=6, replace=False)
    
    #采样后放回
    df_inner.sample(n=6, replace=True)
    

    描述统计

    Python中可以通过Describe对数据进行描述统计。
    Describe函数是进行描述统计的函数,自动生成数据的数量,均值,标准差等数据。下面的代码中对数据表进行描述统计,并使用round函数设置结果显示的小数位。并对结果数据进行转置。

    #数据表描述性统计
    df_inner.describe().round(2).T
    

    在这里插入图片描述

    标准差

    Python中的Std函数用来接算特定数据列的标准差。

    #标准差
    df_inner['price'].std()
    1523.3516556155596
    

    协方差

    Excel中的数据分析功能中提供协方差的计算,python中通过cov函数计算两个字段或数据表中各字段间的协方差。
    Cov函数用来计算两个字段间的协方差,可以只对特定字段进行计算,也可以对整个数据表中各个列之间进行计算。

    #两个字段间的协方差
    df_inner['price'].cov(df_inner['m-point'])
    17263.200000000001
    	
    #数据表中所有字段间的协方差
    df_inner.cov()
    

    相关分析

    Excel的数据分析功能中提供了相关系数的计算功能,python中则通过corr函数完成相关分析的操作,并返回相关系数。
    Corr函数用来计算数据间的相关系数,可以单独对特定数据进行计算,也可以对整个数据表中各个列进行计算。相关系数在-1到1之间,接近1为正相关,接近-1为负相关,0为不相关。

    #相关性分析
    df_inner['price'].corr(df_inner['m-point'])
    0.77466555617085264
    	
    #数据表相关性分析
    df_inner.corr()
    

    数据输出

    处理和分析完的数据可以输出为xlsx格式和csv格式。

    写入excel

    #输出到excel格式
    df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')
    

    写入csv

    #输出到CSV格式
    df_inner.to_csv('excel_to_python.csv')
    

    在数据处理的过程中,大部分基础工作是重复和机械的,对于这部分基础工作,我们可以使用自定义函数进行自动化。以下简单介绍对数据表信息获取自动化处理。

    #创建数据表
    df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
    "date":pd.date_range('20130102', periods=6),
    "city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
    "age":[23,44,54,32,34,32],
    "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
    "price":[1200,np.nan,2133,5433,np.nan,4432]},
    columns =['id','date','city','category','age','price'])
    	
    #创建自定义函数
    def table_info(x):
        shape=x.shape
        types=x.dtypes
        colums=x.columns
        print("数据维度(行,列):\n",shape)
        print("数据格式:\n",types)
        print("列名称:\n",colums)
    	
    #调用自定义函数获取df数据表信息并输出结果
    table_info(df)
     
    数据维度(行,列):
    (6, 6)
    数据格式:
    id int64
    date datetime64[ns]
    city object
    category object
    age int64
    price float64
    dtype: object
    列名称:
    Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='object')
    

    参考

    好的学习资料


    展开全文
  • 利用Python处理excel表格数据

    万次阅读 多人点赞 2019-06-06 14:59:44
    利用pandas高效处理数据。 pandas依赖xlrd模块来处理Excel。安装这个模块:pip install xlrd 安装pandas,安装命令:pip install pandas pandas处理Excel表单 提前准备一个Excel文件:dataFall2018.xlsx,有...

    利用pandas高效处理数据。

    1. pandas依赖xlrd模块来处理Excel。安装这个模块:pip install xlrd
    2. 安装pandas,安装命令:pip install pandas

    pandas处理Excel表单
    提前准备一个Excel文件:dataFall2018.xlsx,有一个表单,表单名为Sheet1;
    Sheet1的数据展示如下:
    在这里插入图片描述
    引入pandas模块:

    import  pandas  as pd
    

    读取Excel的两种方式:

    1. 默认读取第一个表单:
    import  pandas  as pd
    
    df = pd.read_excel('dataFall2018.xlsx')
    #默认读取前五行的数据
    data = df.head()
    print("获取到的数据:\n",data)
    

    结果如下
    在这里插入图片描述

    2.通过指定表单名来读取:

    import  pandas  as pd
    
    df = pd.read_excel('dataFall2018.xlsx',sheet_name='Sheet1')
    data = df.head()
    print("获取到的数据:\n",data)
    

    结果和第一次一样。

    3.通过表单索引来指定要访问的表单,0表示第一个表单;也可以采用表单名加索引的方式来定位表单;也可以同时定位多个表单。

    df=pd.read_excel('dataFall2018.xlsx',sheet_name=['Sheet1','Sheet2'])#可以通过表单名同时指定多个
    # df=pd.read_excel(''dataFall2018.xlsx',sheet_name=0)#可以通过表单索引来指定读取的表单
    # df=pd.read_excel(''dataFall2018.xlsx',sheet_name=['Sheet1',1])#可以混合的方式来指定
    # df=pd.read_excel(''dataFall2018.xlsx',sheet_name=[1,2])#可以通过索引 同时指定多个
    data=df.values#获取所有的数据,注意这里不能用head()方法哦~
    print("获取到所有的值:".data)
    

    pandas操作Excel的行列

    1. 读取指定的行,数据会保存在列表里面
    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    #0表示第一行 这里读取数据并不包含表头,要注意哦!
    data = df.ix[0].values
    print("获取到的数据:\n",data)
    

    结果如下
    在这里插入图片描述

    2.读取指定的多行,结果会保存在嵌套列表里面

    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    #0表示第一行 这里读取数据并不包含表头,要注意哦!
    data = df.ix[[0,1]].values
    print("获取到的数据:\n",data)
    

    结果如下(空数据会被nan代替):
    在这里插入图片描述

    1. 读取指定的行列:
    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    #读取第0行第1列的值
    data = df.ix[0,1]
    print("获取到的数据:\n",data)
    
    1. 读取指定的多行多列值
    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    data=df.ix[[0,2],['喂料秤','窑速']].values#读取第一行第三行的喂料秤以及窑速列的值,这里需要嵌套列表
    print("读取指定行的数据:\n{0}",data)
    
    1. 获取所有行的指定列
    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    data=df.ix[:,['喂料秤','窑速']].values#读所有行的喂料秤以及窑速列的值,这里需要嵌套列表
    print("读取指定行的数据:\n",data)
    
    1. 获取行号并打印输出
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    print("输出行号列表",df.index.values)
    

    结果显示如下:
    在这里插入图片描述

    1. 获取列名并打印输出
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    print("输出列标题",df.columns.values)
    
    1. 获取随机输出指定行数的值:
    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx' )
    print("输出值",df.sample(1).values)    #这个方法类似于head()方法以及df.values方法
    
    1. 获取指定列的值
    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx' )
    print("输出值\n",df['喂料秤'].values)
    

    pandas处理Excel数据成为字典

    import  pandas  as pd
    
    #这个会直接默认读取到这个Excel的第一个表单
    df = pd.read_excel('dataFall2018.xlsx')
    for i in df.index.values:  #获取行号的索引,并对其进行遍历
        # 根据i来获取每一行指定的数据,并利用to_dict方法转成字典
        row_data = df.ix[i].to_dict()
        print(row_data)
    

    参考 https://www.cnblogs.com/liulinghua90/p/9935642.html

    展开全文
  • Python处理Excel数据-pandas篇

    千次阅读 多人点赞 2020-12-15 20:15:41
    Python处理Excel数据-pandas篇 非常适用于大量数据的拼接、清洗、筛选及分析 在计算机编程中,pandas是Python编程语言的用于数据操纵和分析的软件库。特别是,它提供操纵数值表格和时间序列的数据结构和运算操作。...
  • 主要为大家详细介绍了python操作EXCEL数据、写数据的实例源码,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  • 用于快速生成sql语句,适用于测试人员批量生成合理测试数据
  • 如何用Python处理Excel?Pandas视频教程&官方文档来啦~-附件资源
  • 首先学习Python的基础知识,然后使用Python来控制Excel,做数据处理。电子版数据免费下载 链接: https://pan.baidu.com/s/17xqT5bXsJFbfXJTXcGrXYQ 提取码: src8 复制这段内容后打开百度网盘手机App,操作更方便哦...
  • 利用Python处理Excel数据

    万次阅读 2019-01-11 18:02:34
    读取数据 显示数据 显示数据的行与列数 查看数据格式dtpyes 显示列名 添加默认的列名 显示数据后5行 显示数据唯一值 ... 处理空值 更改数据格式 更改列名称 删除重复值 对列...
  • 记一个python处理excel数据清洗的实例的源文件
  • python使用pandas处理excel数据

    千次阅读 2020-10-19 10:39:44
    使用pandas的 read_excel()方法来读取excel数据,可以读取第一个sheet,指定的sheet,多个sheet或所有的sheet。Pandas会将这些数据转化成一个 DataFrame结构,它是一个扁平的结构来的。接着就可以对数据进行数据...
  • python处理excel表格数据

    千次阅读 2020-04-07 16:30:34
    python处理excel表格数据 方法一 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。 excel表格数据筛选功能 ...
  • python实现——处理Excel表格(超详细)

    万次阅读 多人点赞 2021-10-12 20:18:38
    获取单元格中的数据4.2:获取单元格的行、列、坐标5:获取区间内的数据获取指定区间的数据获取指定行列的数据按行、列获取值获取活动表的行列数操作创建新的excel修改单元格、excel另存为添加数据插入有效数据插入...
  • 作为一个学习用Python进行数据分析的新手来说,通过本文来记录分享一些我在用Python中的pandas、numpy来分析Excel表中数据数据清洗和整理的工作,目的是熟悉numpy以及pandas基础操作,所有操作利用Excel均可以方便...
  • pythonexcel数据处理

    千次阅读 2018-08-09 11:33:01
    2.对数据计算处理 3.写入新表 import re import xlrd import xlwt import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D #filename = filename.decode('utf-8...
  • 主要介绍了Python读取Excel数据并生成图表过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
  • pythonexcel数据处理可视化的方法:首先安装xlrd与xlwt库,进行表格读取;然后使用pyecharts生成Echarts图表的类库;最后安装Echarts读取Excel数据及显示即可。pythonexcel数据处理可视化的方法:Excel表操作...
  • Python之openpyxl处理excel数据

    千次阅读 2019-07-09 22:21:00
    1.前言 ...其实,python中有好多专门针对Excel进行数据处理的库,比如:xlrd、xlwt、xlutils、openpyxl以及大数据中常用的pandas等等,他们的侧重点各有不同。我们简单的列举一下: 库名 作用 ...
  • 利用Python取出excel数据并生成统计图

    千次阅读 2019-09-14 22:07:30
    取出excel数据生成图表 ...Python中用来读取excel数据的模块 安装pip install xlrd xlrd文档 pyecharts Echarts 是一个由百度开源的数据可视化,凭借着良好的交互性,精巧的图表设计,得到了众多开发者的认可。 ...
  • 3-Python利用pandas处理Excel数据

    千次阅读 多人点赞 2019-05-07 20:57:37
    Python利用pandas处理Excel数据 本章节内容主要参考来源:https://www.cnblogs.com/liulinghua90/p/9935642.html 一、配置环境 1、pandas依赖处理Excel的xlrd模块,所以我们需要提前安装这个,安装命令是:pip ...
  • Excel较大规模数据处理实例(可直接用)python实现

    万次阅读 多人点赞 2018-01-04 18:47:28
    问题是这样的, 我是我们学校的寒招队伍的负责人。但是管理的人数实在是太多了。所以在这个地方的,我就想用下脚本去帮助自己进行管理。从效果来看,还是非常方便的。 故事情节: 这次,我和两三个小伙伴们要...
  • 从零基础开始讲解Python语言的使用。 将学习的Python知识与Excel相结合做应用。 最后实现PythonExcel数据处理的自动化。 即学习了Excel数据处理的技能,更学会了一门热门编程语言。
  • 从零基础开始用python处理excel数据(xlrd、xlwt) 我的第一篇Blog!本来想在520发的! 动动手,记录一下学习过程! 心之所向,无问西东! 文章目录 一、读取Excel工作簿

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 47,883
精华内容 19,153
关键字:

pythonexcel数据处理

python 订阅