精华内容
下载资源
问答
  • 利用Simulink对Excel中的数据进行傅里叶分析 Simulink里提供了FFT模块,可以方便地采集到的数据进行傅里叶分析。本文讲述如何利用simulink对Excel中的数据进行傅里叶分析。 Step1:在matlab指令窗口中输入如下...
  • 主要介绍了Python使用SQLite和Excel操作进行数据分析,小编觉得还是挺不错的,具有一定借鉴价值,需要的朋友可以参考下
  • Python/对excel进行数据分析 (mark)

    万次阅读 多人点赞 2018-12-05 16:12:01
    Python对excel进行分析   目前有一个excel表,其中里面有一个工作薄的名称为:btc,在这个工作薄中有2013年–2018年的所有交易数据,本文主要实现,将不同的年份的数据保存至新的工作薄并起名...

    Python对excel进行分析


      目前有一个excel表,其中里面有一个工作薄的名称为:btc,在这个工作薄中有2013年–2018年的所有交易数据,本文主要实现,将不同的年份的数据保存至新的工作薄并起名成为:2013,2014等等。

    在这里插入图片描述
    在这里插入图片描述

      如果不用python进行操作的话,我们首先需要打开excel表,然后选择btc工作薄。新建2013 2014工作薄,最后进行分析导入,保存退出。在python操作中首先需要导入excel表,然后获取到btc工作薄中的数据,通过不同的时间年份来获取不同年份的数据,最后创建新的工作薄,导入–>保存退出:

    1、导入内置库及第三方库

    import os  #  用于获取excel文件路径,以及对分析后的excel文件进行保存 
    import openpyxl  #  使用openpyxl可以对excel进行操作,需要安装 pip install openpyxl
    import datetime  #  日期
    import time  #  时间
    

    1.2、定义文件路径


    year_list = [2013, 2014, 2015, 2016, 2017, 2018]
    file_path = r"F:\python-office\log"
    file_name = "btc.xlsx"
    file_result = os.path.join(file_path, file_name)
    

    1.3、定义函数


    #!/usr/bin/env python
    # -*- coding:utf-8 -*-
    
    import os
    import openpyxl
    import datetime
    import time
    
    year_list = [2013, 2014, 2015, 2016, 2017, 2018]
    file_path = r"F:\python-office\log"
    file_name = "btc.xlsx"
    file_result = os.path.join(file_path, file_name)
    
    
    def excel():
        """
        """
        wb = openpyxl.load_workbook(file_result)  #  首先获取excel文件生成对象wb 使用openpyxl.load_workbook 方法
        sh = wb.active  #  使用wb中的active方法获取当前工作薄:btc 生成新的对象sh
        index = 0  #  设置一个数字变量之后会用到
        for i in range(len(year_list)): # 循环6次,6次来源于year_list列表长度
            count = 2 # 定义一个数字变量 后面会用到
            sh1 = wb.create_sheet(str(year_list[index])) # 使用使用wb.create 方法创建工作薄名称。名称为列表中的值,index是上面定义的数字变量
    
            for rows in sh.rows: # 循环btc工作薄表中的内容
                if rows[0].coordinate != "A1" and datetime.datetime.strptime(rows[0].value, '%Y-%m-%d %H:%M:%S %Z').year == year_list[index]: 
                # 把日期和金额去除从第二行开始循环, 使用datetime模块将获取的value1的时间字符串解析为时间元组。 最后取年值进行匹配
                    # print(rows[0].value, rows[1].value)
                    sh1["A1"] = "日期" # 写入日期
                    sh1["B1"] = "金额" # 写入金额
                    sh1["A" + str(count)] = rows[0].value # A + str(count) 第二行开始 写入
                    sh1["B" + str(count)] = rows[1].value 
    
                    # print("in sh:", sh1["A" + str(count)].value, sh1["B" + str(count)].value)
                    print(f"正在分析{year_list[index]}年数据.....")
                    count += 1 # 没完成一次循环 count + 1
            index += 1 # 同时index + 1
        wb.save("yankerp.xlsx") # 当函数全部执行完成后,使用wb.save 保存即可。
    
    if __name__ == "__main__":
        start_time = time.time()
        excel()
        print(f"分析完成,用时时间为{time.time() - start_time}秒")
    

    4、完整代码


    #!/usr/bin/env python
    # -*- coding:utf-8 -*-
    
    import os
    import openpyxl
    import datetime
    import time
    
    year_list = [2013, 2014, 2015, 2016, 2017, 2018]
    file_path = r"F:\python-office\log"
    file_name = "btc.xlsx"
    file_result = os.path.join(file_path, file_name)
    
    
    def excel():
        """
        """
        wb = openpyxl.load_workbook(file_result)
        sh = wb.active
        index = 0
        for i in range(len(year_list)):
            count = 2
            sh1 = wb.create_sheet(str(year_list[index]))
    
            for rows in sh.rows:
                if rows[0].coordinate != "A1" and datetime.datetime.strptime(rows[0].value, '%Y-%m-%d %H:%M:%S %Z').year == year_list[index]:
                    # print(rows[0].value, rows[1].value)
                    sh1["A1"] = "日期"
                    sh1["B1"] = "金额"
                    sh1["A" + str(count)] = rows[0].value
                    sh1["B" + str(count)] = rows[1].value
    
                    # print("in sh:", sh1["A" + str(count)].value, sh1["B" + str(count)].value)
                    print(f"正在分析{year_list[index]}年数据.....")
                    count += 1
            index += 1
        wb.save("yankerp.xlsx")
    
    if __name__ == "__main__":
        start_time = time.time()
        excel()
        print(f"分析完成,用时时间为{time.time() - start_time}秒")
    

    运行过程及结果:

    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    展开全文
  • 使用Excel数据分析工具进行多元回归分析
  • 对Excel进行数据分析

    2017-12-04 19:46:31
    使用pandas读取数据,然后进行数据分析。。。。。。
  • 在做建模比赛时,利用matlab对excel进行数据操作程序,做备份而已
  • Excel数据进行关联规则分析之前需要对数据进行预处理:将表头去掉,并保存你所需要的数据,导入你所需要分析Excel地址和‘Sheet1’,所得出的数据,即是你所需要的结果。
  • 由于Excel 默认下是没有数据分析选项的,所以需要添加数据分析选项 点击文件中的选项 在加载项中,选择Excel加载项,再点击转到(G)… 勾选上 Analysis ToolPak 和 Analysis ToolPak - VBA ,然后点击确定 ...

    一、配置Excel2016

    1. 下载并安装Excel2016,然后打开 Excel2016 ,新建一个空白工作簿
      在这里插入图片描述

    2. 点击数据,查看是否拥有数据分析工具
      由于Excel 默认下是没有数据分析选项的,所以需要添加数据分析选项
      在这里插入图片描述

    3. 点击文件中的选项
      在这里插入图片描述

    4. 在加载项中,选择Excel加载项,再点击转到(G)…
      在这里插入图片描述

    5. 勾选上 Analysis ToolPak 和 Analysis ToolPak - VBA ,然后点击确定
      在这里插入图片描述

    6. 添加成功
      在这里插入图片描述

    二、线性回归分析

    在实验前已经对数据进行处理,删去了重复冗余项,删去了女儿的部分,只保留了儿子部分,并且分别独立的对父子,母子身高进行分析。

    1.父子身高线性回归分析

    1. 填入父子身高信息
      在这里插入图片描述

    2. 点击数据分析,选择回归,点击确定
      在这里插入图片描述

    3. 选择X,Y范围

    在这里插入图片描述

    1. 勾选需要的功能,点击确定,线性回归分析完成
      在这里插入图片描述

    2.母子身高线性回归分析

    具体步骤如上
    得到结果如下
    在这里插入图片描述

    3.多元线性回归分析

    以父母身高做x,儿子身高做y
    步骤如上,得到结果如下
    在这里插入图片描述

    三、线性回归方程

    1.父子身高线性回归方程

    1. 选择所有数据,插入散点图
      在这里插入图片描述

    2. 选择快速布局,得到线性方程
      在这里插入图片描述

    3. 线性方程成立
      当父亲身高75英尺时,儿子身高为71.49英尺。

    2.母子身高线性回归方程

    具体步骤如上
    得到结果如下
    在这里插入图片描述

    四、Anscombe四重奏数据集判断

    1.数据集dataset1

    线性回归分析
    在这里插入图片描述
    线性回归方程
    在这里插入图片描述
    该线性回归方程不成立

    2.数据集dataset2

    线性回归分析
    在这里插入图片描述
    线性回归方程
    在这里插入图片描述
    该线性回归方程不成立,从散点图看出应当为二元方程

    3.数据集dataset3

    线性回归分析
    在这里插入图片描述
    线性回归方程
    在这里插入图片描述
    该线性回归方程成立,虽然第3个数据偏差较大

    4.数据集dataset4

    线性回归分析
    在这里插入图片描述
    线性回归方程
    在这里插入图片描述
    该线性回归方程不成立,其中第8的一个数据偏差过大

    展开全文
  • 数据透视分析就是要在 不同维度对数据进行汇总,过滤,分析,比较,作图。用来发现数据的变化趋势和不同因素导致的差异。 这在销售,统计,金融 等方面十分有用,常常会在一些管理软件中使用。 接下来使用Excel介绍...
  • 用Excel进行数据分析-PPT
  • 但本书绝不仅仅是一本Excel图表制作说明书,而是一本讲述数据分析Excel图表书。本书采用职场故事的讲解风格,讲解方式避免了枯燥乏味的数学和统计学理论,只讲解职场必知必会的数据分析知识。
  • 对Excel数据进行读取并重新整理至新Excel,并绘制Excel数据为图表
  • 提示:通常我们对excel表格进行删除多个项的时候,如果一条一条的删除就会花费很多时间,并且也不知道要删除的部分是否删除完,进行查询,分类的时候python语言几条语句就能简单的完成要求。 例如:从一个有很多条...

    用python操作excel表格,进行数据分析

    项目场景:

    提示:通常我们对excel表格进行删除多个项的时候,如果一条一条的删除就会花费很多时间,并且也不知道要删除的部分是否删除完,进行查询,分类的时候用python语言几条语句就能简单的完成要求。
    例如:从一个有很多条学生信息的excel表中按要求进行操作
    excel表格的列项


    代码展示:

    首先在软件中导入excel表格,即用python打开csv文件

    from pandas import Series,DataFrame
    import pandas as pd
    import numpy as np
    import csv
    import codecs
    
    data_csv = pd.read_csv("d:/shiyan.csv",encoding = "gbk")
    
    data_csv  #就能在python软件中打印出要查找的信息
    

    将数据以文件形式导出保存

    data_csv.to_csv('d:/1.csv')  #以csv形式存储
    data_csv = data_csv.to_excel("d:/1.xls")   #以excel表形式存储
    

    删除后两列所有信息

    data_csv = data_csv.drop(['任选课类别_显示值','考试类型_显示值'],axis=1)  
    

    针对表中的字要修改的进行统一修改

    data_csv=data_csv.replace(['合格','良好'],[60,80])#军训分数栏的文字修改为分数合格对应60分,良好对应80分
    

    特定要求筛选

    data0_csv = data_csv[data_csv['学号']>20120000]  #筛选出学号大于2012000的学生信息  
    
    data0_csv = data_csv[data_csv['院系_显示值'] == '文学与新闻传播学院']   #从所以的信息总分离出文传学院的数据
    
    TeamID1 = data_csv[data_csv['TeamID'] == 1]  #显示出第一学期的数据
    

    分组

    #group用来分组
    group = TeamID1['成绩'].groupby(TeamID1['学号']) #以每个学号进行分组,并保留下每个学号的每个课成绩
    #agg用来聚合
    a = group.agg(['sum']+['mean']+['max']+['min']+['count'])
    

    用python函数对成绩进行分析,count=9表明有9门学科
    在这里插入图片描述

    a.columns=['总分','每学期该专业平均分','每学期该专业最高分','每学期该专业最低分','每学期该专业考试门数']
    

    在这里插入图片描述

    分别用迭代递归缓存求斐波拉契数列

    在这里插入图片描述

    from tkinter import *                
    import easygui 
    import time
    master = Tk()
    frame = Frame(master)  # 确定一个框架用于美观 
    frame.pack(padx = 20,pady = 20)
    
    v1 = StringVar() # 分别用于储存需要计算的数据和 结果
    v2 = StringVar()
    v3 = StringVar()
    v4 = StringVar()
    v5 = StringVar()
    v6 = StringVar()
    
    def test(content):
         return content.isdigit()  # 检查是不是数字 .
    testCMD = frame.register(test)  # 将函数 进行包装 . 
    Label(frame,text='迭代算法:',padx=10).grid(row=0,column=0)
        
     # %p 是输入框的最新内容 . 当输入框允许改变的时候该值有效 ,
    Label(frame,text='输入项数:',padx=10).grid(row=0,column=2)
    e2 = Entry(frame,width=10,textvariable=v1,validate='key',\
              validatecommand=(test,'%p')).grid(row=0,column=3)
    
    Label(frame,text='结果',padx=10).grid(row=0,column=4)
    e3 = Entry(frame,width=15,textvariable=v2,state='readonly').grid(row=0,column=5)
    
    Label(frame,text='花费时间:',padx=10).grid(row=0,column=6)
    e4 = Entry(frame,width=15,textvariable=v3,state='readonly').grid(row=0,column=7)
    
    Label(frame,text='递归算法:',padx=10).grid(row=1,column=0)
        
     # %p 是输入框的最新内容 . 当输入框允许改变的时候该值有效 ,
    Label(frame,text='输入项数:',padx=10).grid(row=1,column=2)
    e5 = Entry(frame,width=10,textvariable=v4,validate='key',\
              validatecommand=(test,'%p')).grid(row=1,column=3)
    
    Label(frame,text='结果',padx=10).grid(row=1,column=4)
    e6 = Entry(frame,width=15,textvariable=v5,state='readonly').grid(row=1,column=5)
    
    Label(frame,text='花费时间:',padx=10).grid(row=1,column=6)
    e7 = Entry(frame,width=15,textvariable=v6,state='readonly').grid(row=1,column=7)
    
    
    def calc():
        if v1.get()=='':
            easygui.msgbox('请先输入内容 !')
            return 
        result1 = fibonacci3(12)
        v2.set(result1)
        result2 = Time3()
        v3.set(result2)
        
    
        
    def calc():
        if v4.get()=='':
            easygui.msgbox('请先输入内容 !')
            return 
        result1 = fibonacci1()
        v5.set(result1)
        result2 = Time3()
        v6.set(result2)
        
        
    """def test():
        if e1.get() == 'f1':
            print("正确") 
            fibonacci3(10)
            #
            return True
        else:
            fibonacci3(5)
            print('错误')
            e1.delete(0,END)
            return False   """
    #递归
    def fibonacci1(n):
        # base case
        if n==0 or n==1:
            return 1
        # recurssive case
        else:
            return fibonacci1(n-1) + fibonacci1(n-2)
    #print ([fibonacci1(i) for i in range(32)])
        
    
    def Time3():
        start_CPU = time.clock()
        fibonacci3(32)
        end_CPU = time.clock()
        return end_CPU - start_CPU
    
    def fibonacci3(n):
        a, b = 0, 1
        for i in range(1, n+1):
            a, b = b, a+b
        return b
    #print ([fibonacci3(i) for i in range(32)])
    
    Button(frame,text='结果1',command=calc).grid(row=4,column=3,pady=15)
    Button(frame,text='结果2',command=calc).grid(row=4,column=4,pady=15)
    
    mainloop()
    

    斐波拉契数列:

    def calc1():
        if v1.get()=='':
            easygui.msgbox('请先输入内容 !')
            return 
        result1 = fibonacci1(v1.get())
        v2.set(result1)
        result2 = Time1()
        v3.set(result2)
    
    def fibonacci1(n):
        a, b = 0, 1
        for i in range(1, n+1):
            a, b = b, a+b
        return b
    
    #迭代    
    def Time1(n):
        start_CPU = time.clock()
        fibonacci1(n)
        end_CPU = time.clock()
        return end_CPU - start_CPU
    

    知识扩充:

    CSV:

    csv是最通用的一种文件格式,它可以非常容易地被导入各种PC表格及数据库中。此文件,一行即为数据表的一行。生成数据表字段用半角逗号隔开。csv文件用记事本和excel都能打开,用记事本打开显示逗号,用excel打开,没有逗号了,逗号都用来分列了,还可有Editplus打开。

    python常用的科学计算库:

    Numpy:
    Pandas
    Scipy


    展开全文
  • Excel一样使用python进行数据分析.pdf
  • Excel数据分析中最常用的工具,本篇文章通过python与excel的功能对比介绍如何使用python通过函数式编程完成excel中的数据处理及分析工作。在Python中pandas库用于数据处理 ,我们从1787页的pandas官网文档中总结出...

    Excel是数据分析中最常用的工具,本篇文章通过python与excel的功能对比介绍如何使用python通过函数式编程完成excel中的数据处理及分析工作。在Python中pandas库用于数据处理 ,我们从1787页的pandas官网文档中总结出最常用的36个函数,通过这些函数介绍如何通过python完成数据生成和导入,数据清洗,预处理,以及最常见的数据分类,数据筛选,分类 汇总,透视等最常见的操作。

    文章内容共分为9个部分。这是第一篇,介绍前3部分内容,数据表生成,数据表查看,和数据清洗。以下是《像Excel一样使用python进行数据分析》系列文章的目录。

    %E7%9B%AE%E5%BD%95-643x1024.png

    1, 生成数据表

    第一部分是生成数据表,常见的生成方法有两种,第一种是导入外部数据,第二种是直接写入数据。 Excel中的文件菜单中提供了获取外部数据的功能,支持数据库和文本文件和页面的多种数据源导入。

    %E8%8E%B7%E5%8F%96%E5%A4%96%E9%83%A8%E6%95%B0%E6%8D%AE.png

    python支持从多种类型的数据导入。在开始使用python进行数据导入前需要先导入pandas库,为了方便起见,我们也同时导入numpy库。

    1

    2

    import numpy as np

    import pandas as pd

    导入数据表

    下面分别是从excel和csv格式文件导入数据并创建数据表的方法。代码是最简模式,里面有很多可选参数设置,例如列名称,索引列,数据格式等等。感兴趣的朋友可以参考pandas的

    官方文档。

    1

    2

    df=pd.DataFrame(pd.read_csv('name.csv',header=1))

    df=pd.DataFrame(pd.read_excel('name.xlsx'))

    创建数据表

    另一种方法是通过直接写入数据来生成数据表,excel中直接在单元格中输入数据就可以,python中通过下面的代码来实现。生成数据表的函数是pandas库中的DateFrame函数,数据表一共有6行数据,每行有6个字段。在数据中我们特意设置了一些NA值和有问题的字段,例如包含空格等。后面将在数据清洗步骤进行处理。后面我们将统一以DataFrame的简称df来命名数据表。

    1

    2

    3

    4

    5

    6

    7

    df= pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],

    "date":pd.date_range('20130102', periods=6),

    "city":['Beijing ','SH',' guangzhou ','Shenzhen','shanghai','BEIJING '],

    "age":[23,44,54,32,34,32],

    "category":['100-A','100-B','110-A','110-C','210-A','130-F'],

    "price":[1200,np.nan,2133,5433,np.nan,4432]},

    columns=['id','date','city','category','age','price'])

    这是刚刚创建的数据表,我们没有设置索引列,price字段中包含有NA值,city字段中还包含了一些脏数据。

    df.png

    2,数据表检查

    第二部分是对数据表进行检查,python中处理的数据量通常会比较大,比如我们之前的文章中介绍的纽约出租车数据和Citibike的骑行数据,数据量都在千万级,我们无法一目了然的 了解数据表的整体情况,必须要通过一些方法来获得数据表的关键信息。数据表检查的另一个目的是了解数据的概况,例如整个数据表的大小,所占空间,数据格式,是否有空值和重复项和具体的数据内容。为后面的清洗和预处理做好准备。

    数据维度(行列)

    Excel中可以通过CTRL+向下的光标键,和CTRL+向右的光标键来查看行号和列号。Python中使用shape函数来查看数据表的维度,也就是行数和列数,函数返回的结果(6,6)表示数据表有6行,6列。下面是具体的代码。

    1

    2

    3

    #查看数据表的维度

    df.shape

    (6,6)

    数据表信息

    使用info函数查看数据表的整体信息,这里返回的信息比较多,包括数据维度,列名称,数据格式和所占空间等信息。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    #数据表信息

    df.info()

    <class 'pandas.core.frame.DataFrame'>

    RangeIndex:6 entries,0 to5

    Data columns (total6 columns):

    id 6 non-null int64

    date6 non-null datetime64[ns]

    city6 non-nullobject

    category6 non-nullobject

    age6 non-null int64

    price4 non-null float64

    dtypes: datetime64[ns](1), float64(1), int64(2),object(2)

    memory usage:368.0+ bytes

    查看数据格式

    Excel中通过选中单元格并查看开始菜单中的数值类型来判断数据的格式。Python中使用dtypes函数来返回数据格式。

    %E6%9F%A5%E7%9C%8B%E6%95%B0%E6%8D%AE%E6%A0%BC%E5%BC%8F.png

    Dtypes是一个查看数据格式的函数,可以一次性查看数据表中所有数据的格式,也可以指定一列来单独查看。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    #查看数据表各列格式

    df.dtypes

    id int64

    date datetime64[ns]

    cityobject

    categoryobject

    age int64

    price float64

    dtype:object

    1

    2

    3

    4

    #查看单列格式

    df['B'].dtype

    dtype('int64')

    查看空值

    Excel中查看空值的方法是使用“定位条件”功能对数据表中的空值进行定位。“定位条件”在“开始”目录下的“查找和选择”目录中。

    %E6%9F%A5%E7%9C%8B%E7%A9%BA%E5%80%BC.png

    Isnull是Python中检验空值的函数,返回的结果是逻辑值,包含空值返回True,不包含则返回False。可以对整个数据表进行检查,也可以单独对某一列进行空值检查。

    1

    2

    #检查数据空值

    df.isnull()

    df_isnull.png

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    #检查特定列空值

    df['price'].isnull()

    0 False

    1 True

    2 False

    3 False

    4 True

    5 False

    Name: price, dtype:bool

    查看唯一值

    Excel中查看唯一值的方法是使用“条件格式”对唯一值进行颜色标记。Python中使用unique函数查看唯一值。

    %E6%9F%A5%E7%9C%8B%E5%94%AF%E4%B8%80%E5%80%BC.png

    Unique是查看唯一值的函数,只能对数据表中的特定列进行检查。下面是代码,返回的结果是该列中的唯一值。类似与Excel中删除重复项后的结果。

    1

    2

    3

    4

    #查看city列中的唯一值

    df['city'].unique()

    array(['Beijing ','SH',' guangzhou ','Shenzhen','shanghai','BEIJING '], dtype=object)

    查看数据表数值

    Python中的Values函数用来查看数据表中的数值。以数组的形式返回,不包含表头信息。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    #查看数据表的值

    df.values

    array([[1001, Timestamp('2013-01-02 00:00:00'),'Beijing ','100-A',23,

    1200.0],

    [1002, Timestamp('2013-01-03 00:00:00'),'SH','100-B',44, nan],

    [1003, Timestamp('2013-01-04 00:00:00'),' guangzhou ','110-A',54,

    2133.0],

    [1004, Timestamp('2013-01-05 00:00:00'),'Shenzhen','110-C',32,

    5433.0],

    [1005, Timestamp('2013-01-06 00:00:00'),'shanghai','210-A',34,

    nan],

    [1006, Timestamp('2013-01-07 00:00:00'),'BEIJING ','130-F',32,

    4432.0]], dtype=object)

    查看列名称

    Colums函数用来单独查看数据表中的列名称。

    1

    2

    3

    4

    #查看列名称

    df.columns

    Index(['id','date','city','category','age','price'], dtype='object')

    查看前10行数据

    Head函数用来查看数据表中的前N行数据,默认head()显示前10行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看前3行的数据。

    1

    2

    #查看前3行数据

    df.head(3)

    df_head3.png

    查看后10行数据

    Tail行数与head函数相反,用来查看数据表中后N行的数据,默认tail()显示后10行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看后3行的数据。

    1

    2

    #查看最后3行

    df.tail(3)

    df_tail3.png

    3,数据表清洗

    第三部分是对数据表中的问题进行清洗。主要内容包括对空值,大小写问题,数据格式和重复值的处理。这里不包含对数据间的逻辑验证。

    处理空值(删除或填充)

    我们在创建数据表的时候在price字段中故意设置了几个NA值。对于空值的处理方式有很多种,可以直接删除包含空值的数据,也可以对空值进行填充,比如用0填充或者用均值填充。还可以根据不同字段的逻辑对空值进行推算。

    Excel中可以通过“查找和替换”功能对空值进行处理,将空值统一替换为0或均值。也可以通过“定位”空值来实现。

    %E6%9F%A5%E6%89%BE%E5%92%8C%E6%9B%BF%E6%8D%A2%E7%A9%BA%E5%80%BC.png

    Python中处理空值的方法比较灵活,可以使用 Dropna函数用来删除数据表中包含空值的数据,也可以使用fillna函数对空值进行填充。下面的代码和结果中可以看到使用dropna函数后,包含NA值的两个字段已经不见了。返回的是一个不包含空值的数据表。

    1

    2

    #删除数据表中含有空值的行

    df.dropna(how='any')

    df_dropna.png

    除此之外也可以使用数字对空值进行填充,下面的代码使用fillna函数对空值字段填充数字0。

    1

    2

    #使用数字0填充数据表中空值

    df.fillna(value=0)

    我们选择填充的方式来处理空值,使用price列的均值来填充NA字段,同样使用fillna函数,在要填充的数值中使用mean函数先计算price列当前的均值,然后使用这个均值对NA进行填

    充。可以看到两个空值字段显示为3299.5

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    #使用price均值对NA进行填充

    df['price'].fillna(df['price'].mean())

    0 1200.0

    1 3299.5

    2 2133.0

    3 5433.0

    4 3299.5

    5 4432.0

    Name: price, dtype: float64

    df_nan.png

    清理空格

    除了空值,字符中的空格也是数据清洗中一个常见的问题,下面是清除字符中空格的代码。

    1

    2

    #清除city字段中的字符空格

    df['city']=df['city'].map(str.strip)

    大小写转换

    在英文字段中,字母的大小写不统一也是一个常见的问题。Excel中有UPPER,LOWER等函数,python中也有同名函数用来解决大小写的问题。在数据表的city列中就存在这样的问题。我们将city列的所有字母转换为小写。下面是具体的代码和结果。

    1

    2

    3

    #city列大小写转换

    df['city']=df['city'].str.lower()

    lower.png

    更改数据格式

    Excel中通过“设置单元格格式”功能可以修改数据格式。Python中通过astype函数用来修改数据格式。

    %E8%AE%BE%E7%BD%AE%E5%8D%95%E5%85%83%E6%A0%BC%E6%A0%BC%E5%BC%8F.png

    Python中dtype是查看数据格式的函数,与之对应的是astype函数,用来更改数据格式。下面的代码中将price字段的值修改为int格式。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    #更改数据格式

    df['price'].astype('int')

    0 1200

    1 3299

    2 2133

    3 5433

    4 3299

    5 4432

    Name: price, dtype: int32

    更改列名称

    Rename是更改列名称的函数,我们将来数据表中的category列更改为category-size。下面是具体的代码和更改后的结果。

    1

    2

    #更改列名称

    df.rename(columns={'category':'category-size'})

    df_rename.png

    删除重复值

    很多数据表中还包含重复值的问题,Excel的数据目录下有“删除重复项”的功能,可以用来删除数据表中的重复值。默认Excel会保留最先出现的数据,删除后面重复出现的数据。

    %E5%88%A0%E9%99%A4%E9%87%8D%E5%A4%8D%E9%A1%B9.png

    Python中使用drop_duplicates函数删除重复值。我们以数据表中的city列为例,city字段中存在重复值。默认情况下drop_duplicates()将删除后出现的重复值(与excel逻辑一致)。增加keep=’last’参数后将删除最先出现的重复值,保留最后的值。下面是具体的代码和比较结果。

    原始的city列中beijing存在重复,分别在第一位和最后一位。

    1

    2

    3

    4

    5

    6

    7

    8

    df['city']

    0 beijing

    1 sh

    2 guangzhou

    3 shenzhen

    4 shanghai

    5 beijing

    Name: city, dtype:object

    使用默认的drop_duplicates()函数删除重复值,从结果中可以看到第一位的beijing被保留,最后出现的beijing被删除。

    1

    2

    3

    4

    5

    6

    7

    8

    #删除后出现的重复值

    df['city'].drop_duplicates()

    0 beijing

    1 sh

    2 guangzhou

    3 shenzhen

    4 shanghai

    Name: city, dtype:object

    设置keep=’last"’参数后,与之前删除重复值的结果相反,第一位出现的beijing被删除,保留了最后一位出现的beijing。

    1

    2

    3

    4

    5

    6

    7

    8

    #删除先出现的重复值

    df['city'].drop_duplicates(keep='last')

    1 sh

    2 guangzhou

    3 shenzhen

    4 shanghai

    5 beijing

    Name: city, dtype: objec

    数值修改及替换

    数据清洗中最后一个问题是数值修改或替换,Excel中使用“查找和替换”功能就可以实现数值的替换。

    %E6%9F%A5%E6%89%BE%E5%92%8C%E6%9B%BF%E6%8D%A2%E7%A9%BA%E5%80%BC1.png

    Python中使用replace函数实现数据替换。数据表中city字段上海存在两种写法,分别为shanghai和SH。我们使用replace函数对SH进行替换。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    #数据替换

    df['city'].replace('sh','shanghai')

    0 beijing

    1 shanghai

    2 guangzhou

    3 shenzhen

    4 shanghai

    5 beijing

    Name: city, dtype:object

    本篇文章这是系列的第二篇,介绍第4-6部分的内容,数据表生成,数据表查看,和数据清洗。

    4-6%E7%9B%AE%E5%BD%95.png

    4,数据预处理

    第四部分是数据的预处理,对清洗完的数据进行整理以便后期的统计和分析工作。主要包括数据表的合并,排序,数值分列,数据分

    组及标记等工作。

    数据表合并

    首先是对不同的数据表进行合并,我们这里创建一个新的数据表df1,并将df和df1两个数据表进行合并。在Excel中没有直接完成数据表合并的功能,可以通过VLOOKUP函数分步实现。在python中可以通过merge函数一次性实现。下面建立df1数据表,用于和df数据表进行合并。

    1

    2

    3

    4

    5

    #创建df1数据表

    df1=pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006,1007,1008],

    "gender":['male','female','male','female','male','female','male','female'],

    "pay":['Y','N','Y','Y','N','Y','N','Y',],

    "m-point":[10,12,20,40,40,40,30,20]})

    df1.png

    使用merge函数对两个数据表进行合并,合并的方式为inner,将两个数据表中共有的数据匹配到一起生成新的数据表。并命名为df_inner。

    1

    2

    #数据表匹配合并,inner模式

    df_inner=pd.merge(df,df1,how='inner')

    df_inner.png

    除了inner方式以外,合并的方式还有left,right和outer方式。这几种方式的差别在我其他的文章中有详细的说明和对比。

    1

    2

    3

    4

    #其他数据表匹配模式

    df_left=pd.merge(df,df1,how='left')

    df_right=pd.merge(df,df1,how='right')

    df_outer=pd.merge(df,df1,how='outer')

    设置索引列

    完成数据表的合并后,我们对df_inner数据表设置索引列,索引列的功能很多,可以进行数据提取,汇总,也可以进行数据筛选等。

    设置索引的函数为set_index。

    1

    2

    #设置索引列

    df_inner.set_index('id')

    df_inner_set_index.png

    排序(按索引,按数值)

    Excel中可以通过数据目录下的排序按钮直接对数据表进行排序,比较简单。Python中需要使用ort_values函数和sort_index函数完成排序。

    %E6%8E%92%E5%BA%8F.png

    在python中,既可以按索引对数据表进行排序,也可以看制定列的数值进行排序。首先我们按age列中用户的年龄对数据表进行排序。

    使用的函数为sort_values。

    1

    2

    #按特定列的值排序

    df_inner.sort_values(by=['age'])

    sort_values.png

    Sort_index函数用来将数据表按索引列的值进行排序。

    1

    2

    #按索引列排序

    df_inner.sort_index()

    sort_index.png

    数据分组

    Excel中可以通过VLOOKUP函数进行近似匹配来完成对数值的分组,或者使用“数据透视表”来完成分组。相应的 python中使用where函数完成数据分组。

    Where函数用来对数据进行判断和分组,下面的代码中我们对price列的值进行判断,将符合条件的分为一组,不符合条件的分为另一组,并使用group字段进行标记。

    1

    2

    #如果price列的值>3000,group列显示high,否则显示low

    df_inner['group']= np.where(df_inner['price'] >3000,'high','low')

    where.png

    除了where函数以外,还可以对多个字段的值进行判断后对数据进行分组,下面的代码中对city列等于beijing并且price列大于等于4000的数据标记为1。

    1

    2

    #对复合多个条件的数据进行分组标记

    df_inner.loc[(df_inner['city']== 'beijing') & (df_inner['price'] >= 4000),'sign']=1

    sign.png

    数据分列

    与数据分组相反的是对数值进行分列,Excel中的数据目录下提供“分列”功能。在python中使用split函数实现分列。

    %E6%95%B0%E6%8D%AE%E5%88%86%E5%88%97.png

    在数据表中category列中的数据包含有两个信息,前面的数字为类别id,后面的字母为size值。中间以连字符进行连接。我们使用split函数对这个字段进行拆分,并将拆分后的数据表匹配回原数据表中。

    1

    2

    #对category字段的值依次进行分列,并创建数据表,索引值为df_inner的索引列,列名称为category和size

    pd.DataFrame((x.split('-')for xin df_inner['category']),index=df_inner.index,columns=['category','size'])

    split.png

    1

    2

    #将完成分列后的数据表与原df_inner数据表进行匹配

    df_inner=pd.merge(df_inner,split,right_index=True, left_index=True)

    merge_1-1024x298.png

    5,数据提取

    第五部分是数据提取,也是数据分析中最常见的一个工作。这部分主要使用三个函数,loc,iloc和ix,loc函数按标签值进行提取,iloc按位置进行提取,ix可以同时按标签和位置进行提取。下面介绍每一种函数的使用方法。

    按标签提取(loc)

    Loc函数按数据表的索引标签进行提取,下面的代码中提取了索引列为3的单条数据。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    #按索引提取单行的数值

    df_inner.loc[3]

    id 1004

    date2013-01-05 00:00:00

    city shenzhen

    category110-C

    age32

    price5433

    gender female

    m-point40

    pay Y

    group high

    sign NaN

    category_1110

    size C

    Name:3, dtype:object

    使用冒号可以限定提取数据的范围,冒号前面为开始的标签值,后面为结束的标签值。下面提取了0到5的数据行。

    1

    2

    #按索引提取区域行数值

    df_inner.loc[0:5]

    df_inner_loc1-1024x171.png

    Reset_index函数用于恢复索引,这里我们重新将date字段的日期设置为数据表的索引,并按日期进行数据提取。

    1

    2

    #重设索引

    df_inner.reset_index()

    reset_index-1024x274.png

    1

    2

    #设置日期为索引

    df_inner=df_inner.set_index('date')

    set_index_date-1024x338.png

    使用冒号限定提取数据的范围,冒号前面为空表示从0开始。提取所有2013年1月4日以前的数据。

    1

    2

    #提取4日之前的所有数据

    df_inner[:'2013-01-04']

    %E6%8C%89%E6%8F%90%E8%B5%B7%E6%8F%90%E5%8F%96-1024x217.png

    按位置提取(iloc)

    使用iloc函数按位置对数据表中的数据进行提取,这里冒号前后的数字不再是索引的标签名称,而是数据所在的位置,从0开始。

    1

    2

    #使用iloc按位置区域提取数据

    df_inner.iloc[:3,:2]

    iloc1.png

    iloc函数除了可以按区域提取数据,还可以按位置逐条提取,前面方括号中的0,2,5表示数据所在行的位置,后面方括号中的数表示所在列的位置。

    1

    2

    #使用iloc按位置单独提取数据

    df_inner.iloc[[0,2,5],[4,5]]

    iloc2.png

    按标签和位置提取(ix)

    ix是loc和iloc的混合,既能按索引标签提取,也能按位置进行数据提取。下面代码中行的位置按索引日期设置,列按位置设置。

    1

    2

    #使用ix按索引标签和位置混合提取数据

    df_inner.ix[:'2013-01-03',:4]

    ix.png

    按条件提取(区域和条件值)

    除了按标签和位置提起数据以外,还可以按具体的条件进行数据。下面使用loc和isin两个函数配合使用,按指定条件对数据进行提取 。

    使用isin函数对city中的值是否为beijing进行判断。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    #判断city列的值是否为beijing

    df_inner['city'].isin(['beijing'])

    date

    2013-01-02 True

    2013-01-05 False

    2013-01-07 True

    2013-01-06 False

    2013-01-03 False

    2013-01-04 False

    Name: city, dtype:bool

    将isin函数嵌套到loc的数据提取函数中,将判断结果为Ture数据提取出来。这里我们把判断条件改为city值是否为beijing和 shanghai。如果是就把这条数据提取出来。

    1

    2

    #先判断city列里是否包含beijing和shanghai,然后将复合条件的数据提取出来。

    df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]

    loc%E6%8C%89%E7%AD%9B%E9%80%89%E6%9D%A1%E4%BB%B6%E6%8F%90%E5%8F%96-1024x266.png

    数值提取还可以完成类似数据分列的工作,从合并的数值中提取出制定的数值。

    1

    2

    3

    4

    5

    6

    7

    8

    category=df_inner['category']

    0 100-A

    3 110-C

    5 130-F

    4 210-A

    1 100-B

    2 110-A

    Name: category, dtype:object

    1

    2

    #提取前三个字符,并生成数据表

    pd.DataFrame(category.str[:3])

    category_str.png

    6,数据筛选

    第六部分为数据筛选,使用与,或,非三个条件配合大于,小于和等于对数据进行筛选,并进行计数和求和。与excel中的筛选功能和countifs和sumifs功能相似。

    按条件筛选(与,或,非)

    Excel数据目录下提供了“筛选”功能,用于对数据表按不同的条件进行筛选。Python中使用loc函数配合筛选条件来完成筛选功能。配合sum和count函数还能实现excel中sumif和countif函数的功能。

    %E7%AD%9B%E9%80%89.png

    使用“与”条件进行筛选,条件是年龄大于25岁,并且城市为beijing。筛选后只有一条数据符合要求。

    1

    2

    #使用“与”条件进行筛选

    df_inner.loc[(df_inner['age'] >25) & (df_inner['city']== 'beijing'), ['id','city','age','category','gender']]

    %E4%B8%8E.png

    使用“或”条件进行筛选,年龄大于25岁或城市为beijing。筛选后有6条数据符合要求。

    1

    2

    3

    #使用“或”条件筛选

    df_inner.loc[(df_inner['age'] >25) | (df_inner['city']== 'beijing'), ['id','city','age','category','gender']].sort

    (['age'])

    %E6%88%96.png

    在前面的代码后增加price字段以及sum函数,按筛选后的结果将price字段值进行求和,相当于excel中sumifs的功能。

    1

    2

    3

    4

    5

    #对筛选后的数据按price字段进行求和

    df_inner.loc[(df_inner['age'] >25) | (df_inner['city']== 'beijing'),

    ['id','city','age','category','gender','price']].sort(['age']).price.sum()

    19796

    使用“非”条件进行筛选,城市不等于beijing。符合条件的数据有4条。将筛选结果按id列进行排序。

    1

    2

    #使用“非”条件进行筛选

    df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id'])

    %E9%9D%9E.png

    在前面的代码后面增加city列,并使用count函数进行计数。相当于excel中的countifs函数的功能。

    1

    2

    3

    #对筛选后的数据按city列进行计数

    df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id']).city.count()

    4

    还有一种筛选的方式是用query函数。下面是具体的代码和筛选结果。

    1

    2

    #使用query函数进行筛选

    df_inner.query('city == ["beijing", "shanghai"]')

    query-1024x263.png

    在前面的代码后增加price字段和sum函数。对筛选后的price字段进行求和,相当于excel中的sumifs函数的功能。

    1

    2

    3

    #对筛选后的结果按price进行求和

    df_inner.query('city == ["beijing", "shanghai"]').price.sum()

    12230

    这是第三篇,介绍第7-9部分的内容,数据汇总,数据统计,和数据输出。

    7-9%E7%9B%AE%E5%BD%95.png

    7,数据汇总

    第七部分是对数据进行分类汇总,Excel中使用分类汇总和数据透视可以按特定维度对数据进行汇总,python中使用的主要函数是groupby和pivot_table。下面分别介绍这两个函数的使用方法。

    分类汇总

    Excel的数据目录下提供了“分类汇总”功能,可以按指定的字段和汇总方式对数据表进行汇总。Python中通过Groupby函数完成相应的操作,并可以支持多级分类汇总。

    %E5%88%86%E7%B1%BB%E6%B1%87%E6%80%BB1.png

    Groupby是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby按列名称出现的顺序进行分组。同时要制定分组后的汇总方式,常见的是计数和求和两种。

    1

    2

    #对所有列进行计数汇总

    df_inner.groupby('city').count()

    groupby.png

    可以在groupby中设置列名称来对特定的列进行汇总。下面的代码中按城市对id字段进行汇总计数。

    1

    2

    3

    4

    5

    6

    7

    8

    #对特定的ID列进行计数汇总

    df_inner.groupby('city')['id'].count()

    city

    beijing2

    guangzhou1

    shanghai2

    shenzhen1

    Name:id, dtype: int64

    在前面的基础上增加第二个列名称,分布对city和size两个字段进行计数汇总。

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    #对两个字段进行汇总计数

    df_inner.groupby(['city','size'])['id'].count()

    city size

    beijing A1

    F1

    guangzhou A1

    shanghai A1

    B1

    shenzhen C1

    Name:id, dtype: int64

    除了计数和求和外,还可以对汇总后的数据同时按多个维度进行计算,下面的代码中按城市对price字段进行汇总,并分别计算price的数量,总金额和平均金额。

    1

    2

    #对city字段进行汇总并计算price的合计和均值。

    df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])

    groupby1.png

    数据透视

    Excel中的插入目录下提供“数据透视表”功能对数据表按特定维度进行汇总。Python中也提供了数据透视表功能。通过pivot_table函数实现同样的效果。

    %E6%95%B0%E6%8D%AE%E9%80%8F%E8%A7%86.png

    数据透视表也是常用的一种数据分类汇总方式,并且功能上比groupby要强大一些。下面的代码中设定city为行字段,size为列字段,price为值字段。分别计算price的数量和金额并且按行与列进行汇总。

    1

    2

    #数据透视表

    pd.pivot_table(df_inner,index=["city"],values=["price"],columns=["size"],aggfunc=[len,np.sum],fill_value=0,margins=True)

    pivot_table.png

    8,数据统计

    第九部分为数据统计,这里主要介绍数据采样,标准差,协方差和相关系数的使用方法。

    数据采样

    Excel的数据分析功能中提供了数据抽样的功能,如下图所示。Python通过sample函数完成数据采样。

    %E6%95%B0%E6%8D%AE%E6%8A%BD%E6%A0%B7.png

    Sample是进行数据采样的函数,设置n的数量就可以了。函数自动返回参与的结果。

    1

    2

    #简单的数据采样

    df_inner.sample(n=3)

    %E7%AE%80%E5%8D%95%E9%9A%8F%E6%9C%BA%E9%87%87%E6%A0%B7-1024x218.png

    Weights参数是采样的权重,通过设置不同的权重可以更改采样的结果,权重高的数据将更有希望被选中。这里手动设置6条数据的权重值。将前面4个设置为0,后面两个分别设置为0.5。

    1

    2

    3

    #手动设置采样权重

    weights= [0,0,0,0,0.5,0.5]

    df_inner.sample(n=2, weights=weights)

    %E6%89%8B%E5%8A%A8%E8%AE%BE%E7%BD%AE%E9%87%87%E6%A0%B7%E6%9D%83%E9%87%8D1-1024x341.png

    从采样结果中可以看出,后两条权重高的数据被选中。

    %E6%89%8B%E5%8A%A8%E8%AE%BE%E7%BD%AE%E9%87%87%E6%A0%B7%E6%9D%83%E9%87%8D2-1024x176.png

    Sample函数中还有一个参数replace,用来设置采样后是否放回。

    1

    2

    #采样后不放回

    df_inner.sample(n=6, replace=False)

    %E9%87%87%E6%A0%B7%E5%90%8E%E4%B8%8D%E6%94%BE%E5%9B%9E-1024x343.png

    1

    2

    #采样后放回

    df_inner.sample(n=6, replace=True)

    %E9%87%87%E6%A0%B7%E5%90%8E%E6%94%BE%E5%9B%9E-1024x348.png

    描述统计

    Excel中的数据分析中提供了描述统计的功能。Python中可以通过Describe对数据进行描述统计。

    %E6%8F%8F%E8%BF%B0%E7%BB%9F%E8%AE%A1.png

    Describe函数是进行描述统计的函数,自动生成数据的数量,均值,标准差等数据。下面的代码中对数据表进行描述统计,并使用round函数设置结果显示的小数位。并对结果数据进行转置。

    1

    2

    #数据表描述性统计

    df_inner.describe().round(2).T

    describe.png

    标准差

    Python中的Std函数用来接算特定数据列的标准差。

    1

    2

    3

    #标准差

    df_inner['price'].std()

    1523.3516556155596

    协方差

    Excel中的数据分析功能中提供协方差的计算,python中通过cov函数计算两个字段或数据表中各字段间的协方差。

    %E5%8D%8F%E6%96%B9%E5%B7%AE.png

    Cov函数用来计算两个字段间的协方差,可以只对特定字段进行计算,也可以对整个数据表中各个列之间进行计算。

    1

    2

    3

    #两个字段间的协方差

    df_inner['price'].cov(df_inner['m-point'])

    17263.200000000001

    1

    2

    #数据表中所有字段间的协方差

    df_inner.cov()

    cov.png

    相关分析

    Excel的数据分析功能中提供了相关系数的计算功能,python中则通过corr函数完成相关分析的操作,并返回相关系数。

    %E7%9B%B8%E5%85%B3%E7%B3%BB%E6%95%B0.png

    Corr函数用来计算数据间的相关系数,可以单独对特定数据进行计算,也可以对整个数据表中各个列进行计算。相关系数在-1到1之间,接近1为正相关,接近-1为负相关,0为不相关。

    1

    2

    3

    #相关性分析

    df_inner['price'].corr(df_inner['m-point'])

    0.77466555617085264

    1

    2

    #数据表相关性分析

    df_inner.corr()

    corr.png

    9,数据输出

    第九部分是数据输出,处理和分析完的数据可以输出为xlsx格式和csv格式。

    写入excel

    1

    2

    #输出到excel格式

    df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')

    excel-1024x156.png

    写入csv

    1

    2

    #输出到CSV格式

    df_inner.to_csv('excel_to_python.csv')

    在数据处理的过程中,大部分基础工作是重复和机械的,对于这部分基础工作,我们可以使用自定义函数进行自动化。以下简单介绍对数据表信息获取自动化处理。

    1

    2

    3

    4

    5

    6

    7

    8

    #创建数据表

    df= pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],

    "date":pd.date_range('20130102', periods=6),

    "city":['Beijing ','SH',' guangzhou ','Shenzhen','shanghai','BEIJING '],

    "age":[23,44,54,32,34,32],

    "category":['100-A','100-B','110-A','110-C','210-A','130-F'],

    "price":[1200,np.nan,2133,5433,np.nan,4432]},

    columns=['id','date','city','category','age','price'])

    1

    2

    3

    4

    5

    6

    7

    8

    #创建自定义函数

    def table_info(x):

    shape=x.shape

    types=x.dtypes

    colums=x.columns

    print("数据维度(行,列): ",shape)

    print("数据格式: ",types)

    print("列名称: ",colums)

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    #调用自定义函数获取df数据表信息并输出结果

    table_info(df)

    数据维度(行,列):

    (6,6)

    数据格式:

    id int64

    date datetime64[ns]

    cityobject

    categoryobject

    age int64

    price float64

    dtype:object

    列名称:

    Index(['id','date','city','category','age','price'], dtype='object')

    转载来源于:

    http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-excel-1.html

    http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-excel-2.html

    http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-excel-3.html

    展开全文
  • 下面这篇文章主要给大家介绍了关于python对excel进行数据剔除操作的相关内容,分享出来供大家参考学习,下面话不多说了,来一起看看详细的介绍吧。 Python解析Excel时需要安装两个包,分别是xlrd(读excel)和xlwt...
  • 用excel数据分析

    千次阅读 2019-04-05 11:00:55
    我们先来看看某公司全国产品销售的报表(截取了部分) 某公司全国产品销售的报表 ...我们使用 excel 进行数据分析,一般有以下步骤 需求收集 数据整理 数据简单统计 图表展示 分析结果撰写报告 第一...
  • 支持数据分析的数据集,你值得拥有!很好用的分析数据!在压缩包里有具体的使用说明!主要是针对初学数据分析的人,而打造的数据集,可以在数据集上进行相关的操作。
  • 高清带书签,文中案例打包放在了一起。...《我最想要的Excel数据分析书》从统计分析最基础的解决思路开始介绍,然后结合四个实际实用案例进行了讲解,最后阐述了如何利用EXCEL环境,使数据分析更加高效。
  • 用Excel进行数据分析数据分析工具在哪里? Excel里面自带的数据分析功能也可以完成SAS、SPSS这些专业统计软件有的数据分析工作, 这其中包括:描述性统计、相关系数、概率分布、均值推断、线性、非线性回归、...
  • python从excel中读取数据进行相关分析 # -*- coding: utf-8 -*- """ Created on Fri Nov 27 19:41:32 2020 @author: asus """ import numpy as np import pandas as pd from pandas import read_excel from ...
  • 本书介绍“迅速”进行“有价值的分析”的思考过程。因为盲目着手数据分析,很可能要面对费心费力却无甚收获的结果。所以,我们需要清晰掌握分析的重要体系,以便进行“有价值的发现“”,进而拿出成果。
  • 掌握对数据表或称为数据清单的排序分类汇总筛选等简单的数据库管理分析操作 掌握图表的建立以及修改的方法 二实验内容 在可写硬盘D盘或E盘的根目录中新建一个以本人学号和姓名为文件名的作业文件夹例如081234567张三...
  • 基于Excel数据分析

    2018-07-19 16:44:28
    基于Excel数据分析,为快速入门Excel打基础,基于Excel数据分析,为快速入门Excel打基础,基于Excel数据分析,为快速入门Excel打基础,基于Excel数据分析,为快速入门Excel打基础,基于Excel数据分析,为快速入门...
  • Excel 数据处理与分析 Excle 是微软公司 office 系列办公软件的组件之一它是一个功能强大的电子 表格程序 Excle 不仅可以将整齐而美观的表格呈现给用户还可以用来进行数据分析和预测完成许多复杂的数据运算帮助...
  • 本书在对Excel技术论坛上上百万个提问的分析与提炼的基础上,汇集了用户在使用Excel进行数据处理与分析过程中最常见的需求,通过270多个实例的演示与讲解,将Excel高手的过人技巧手把手教给读者,并帮助读者发挥创意...
  • Excel到python(SQL)数据分析进阶指南这两本书,适合具有一定excel基础的人学习python/SQL的,通过excel与二者的对比,来进行学习。值得拥有
  • excel数据分析教程完整版excel数据分析教程完整版excel数据分析教程完整版excel数据分析教程完整版
  • Excel到Python——数据分析进阶指南 从Excel到Python——数据分析进阶指南 从Excel到Python——数据分析进阶指南 从Excel到Python——数据分析进阶指南 从Excel到Python——数据分析进阶指南
  • 基于Excel的地理数据分析方法

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 135,990
精华内容 54,396
关键字:

如何用excel对数据进行相关分析