精华内容
下载资源
问答
  • python数据分析,用python对excel表格操作
    千次阅读
    2020-10-04 14:58:44

    用python操作excel表格,进行数据分析

    项目场景:

    提示:通常我们对excel表格进行删除多个项的时候,如果一条一条的删除就会花费很多时间,并且也不知道要删除的部分是否删除完,进行查询,分类的时候用python语言几条语句就能简单的完成要求。
    例如:从一个有很多条学生信息的excel表中按要求进行操作
    excel表格的列项


    代码展示:

    首先在软件中导入excel表格,即用python打开csv文件

    from pandas import Series,DataFrame
    import pandas as pd
    import numpy as np
    import csv
    import codecs
    
    data_csv = pd.read_csv("d:/shiyan.csv",encoding = "gbk")
    
    data_csv  #就能在python软件中打印出要查找的信息
    

    将数据以文件形式导出保存

    data_csv.to_csv('d:/1.csv')  #以csv形式存储
    data_csv = data_csv.to_excel("d:/1.xls")   #以excel表形式存储
    

    删除后两列所有信息

    data_csv = data_csv.drop(['任选课类别_显示值','考试类型_显示值'],axis=1)  
    

    针对表中的字要修改的进行统一修改

    data_csv=data_csv.replace(['合格','良好'],[60,80])#军训分数栏的文字修改为分数合格对应60分,良好对应80分
    

    特定要求筛选

    data0_csv = data_csv[data_csv['学号']>20120000]  #筛选出学号大于2012000的学生信息  
    
    data0_csv = data_csv[data_csv['院系_显示值'] == '文学与新闻传播学院']   #从所以的信息总分离出文传学院的数据
    
    TeamID1 = data_csv[data_csv['TeamID'] == 1]  #显示出第一学期的数据
    

    分组

    #group用来分组
    group = TeamID1['成绩'].groupby(TeamID1['学号']) #以每个学号进行分组,并保留下每个学号的每个课成绩
    #agg用来聚合
    a = group.agg(['sum']+['mean']+['max']+['min']+['count'])
    

    用python函数对成绩进行分析,count=9表明有9门学科
    在这里插入图片描述

    a.columns=['总分','每学期该专业平均分','每学期该专业最高分','每学期该专业最低分','每学期该专业考试门数']
    

    在这里插入图片描述

    分别用迭代递归缓存求斐波拉契数列

    在这里插入图片描述

    from tkinter import *                
    import easygui 
    import time
    master = Tk()
    frame = Frame(master)  # 确定一个框架用于美观 
    frame.pack(padx = 20,pady = 20)
    
    v1 = StringVar() # 分别用于储存需要计算的数据和 结果
    v2 = StringVar()
    v3 = StringVar()
    v4 = StringVar()
    v5 = StringVar()
    v6 = StringVar()
    
    def test(content):
         return content.isdigit()  # 检查是不是数字 .
    testCMD = frame.register(test)  # 将函数 进行包装 . 
    Label(frame,text='迭代算法:',padx=10).grid(row=0,column=0)
        
     # %p 是输入框的最新内容 . 当输入框允许改变的时候该值有效 ,
    Label(frame,text='输入项数:',padx=10).grid(row=0,column=2)
    e2 = Entry(frame,width=10,textvariable=v1,validate='key',\
              validatecommand=(test,'%p')).grid(row=0,column=3)
    
    Label(frame,text='结果',padx=10).grid(row=0,column=4)
    e3 = Entry(frame,width=15,textvariable=v2,state='readonly').grid(row=0,column=5)
    
    Label(frame,text='花费时间:',padx=10).grid(row=0,column=6)
    e4 = Entry(frame,width=15,textvariable=v3,state='readonly').grid(row=0,column=7)
    
    Label(frame,text='递归算法:',padx=10).grid(row=1,column=0)
        
     # %p 是输入框的最新内容 . 当输入框允许改变的时候该值有效 ,
    Label(frame,text='输入项数:',padx=10).grid(row=1,column=2)
    e5 = Entry(frame,width=10,textvariable=v4,validate='key',\
              validatecommand=(test,'%p')).grid(row=1,column=3)
    
    Label(frame,text='结果',padx=10).grid(row=1,column=4)
    e6 = Entry(frame,width=15,textvariable=v5,state='readonly').grid(row=1,column=5)
    
    Label(frame,text='花费时间:',padx=10).grid(row=1,column=6)
    e7 = Entry(frame,width=15,textvariable=v6,state='readonly').grid(row=1,column=7)
    
    
    def calc():
        if v1.get()=='':
            easygui.msgbox('请先输入内容 !')
            return 
        result1 = fibonacci3(12)
        v2.set(result1)
        result2 = Time3()
        v3.set(result2)
        
    
        
    def calc():
        if v4.get()=='':
            easygui.msgbox('请先输入内容 !')
            return 
        result1 = fibonacci1()
        v5.set(result1)
        result2 = Time3()
        v6.set(result2)
        
        
    """def test():
        if e1.get() == 'f1':
            print("正确") 
            fibonacci3(10)
            #
            return True
        else:
            fibonacci3(5)
            print('错误')
            e1.delete(0,END)
            return False   """
    #递归
    def fibonacci1(n):
        # base case
        if n==0 or n==1:
            return 1
        # recurssive case
        else:
            return fibonacci1(n-1) + fibonacci1(n-2)
    #print ([fibonacci1(i) for i in range(32)])
        
    
    def Time3():
        start_CPU = time.clock()
        fibonacci3(32)
        end_CPU = time.clock()
        return end_CPU - start_CPU
    
    def fibonacci3(n):
        a, b = 0, 1
        for i in range(1, n+1):
            a, b = b, a+b
        return b
    #print ([fibonacci3(i) for i in range(32)])
    
    Button(frame,text='结果1',command=calc).grid(row=4,column=3,pady=15)
    Button(frame,text='结果2',command=calc).grid(row=4,column=4,pady=15)
    
    mainloop()
    

    斐波拉契数列:

    def calc1():
        if v1.get()=='':
            easygui.msgbox('请先输入内容 !')
            return 
        result1 = fibonacci1(v1.get())
        v2.set(result1)
        result2 = Time1()
        v3.set(result2)
    
    def fibonacci1(n):
        a, b = 0, 1
        for i in range(1, n+1):
            a, b = b, a+b
        return b
    
    #迭代    
    def Time1(n):
        start_CPU = time.clock()
        fibonacci1(n)
        end_CPU = time.clock()
        return end_CPU - start_CPU
    

    知识扩充:

    CSV:

    csv是最通用的一种文件格式,它可以非常容易地被导入各种PC表格及数据库中。此文件,一行即为数据表的一行。生成数据表字段用半角逗号隔开。csv文件用记事本和excel都能打开,用记事本打开显示逗号,用excel打开,没有逗号了,逗号都用来分列了,还可有Editplus打开。

    python常用的科学计算库:

    Numpy:
    Pandas
    Scipy


    更多相关内容
  • 首先我们做数据分析,想要得出最科学,最真实的结论,必须要有好的数据。而实际上我们一般面对的的都是复杂,多变的数据,所以必须要有强大的数据处理能力,接下来,我从我们面临的最真实的情况,一步一步教会大家...
  • 一文看懂怎么用 Python数据分析

    万次阅读 多人点赞 2019-04-16 17:18:38
    作者 | 蓝鲸网站分析博客来源|http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-ex...

    作者 | 蓝鲸网站分析博客

    来源 | http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-excel-3.html

    常遇到两类朋友。一类是会爬虫但不知道如何进一步做数据分析的,一类是平常用 Excel 做分析但不太会用 Python 分析的。如果和你很像,那下面这篇系统长文会很适合你,建议先收藏

    Excel 是数据分析中最常用的工具,本文通过 Python 与 excel 的功能对比介绍如何使用 Python 通过函数式编程完成 excel 中的数据处理及分析工作。从 1787 页的 pandas 官网文档中总结出最常用的 36 个函数,通过这些函数介绍如何通过 Python 完成数据生成和导入、数据清洗、预处理、数据分类、数据筛选、分类 汇总、透视等最常见的操作。

    文章内容共分为 9 个部分目录如下:

    640?wx_fmt=png
    目录

    01 生成数据表

    第一部分是生成数据表,常见的生成方法有两种,第一种是导入外部数据,第二种是直接写入数据。 Excel 中的文件菜单中提供了获取外部数据的功能,支持数据库和文本文件和页面的多种数据源导入。

    640?wx_fmt=png
    获取外部数据

    python 支持从多种类型的数据导入。在开始使用 python 进行数据导入前需要先导入 pandas 库,为了方便起见,我们也同时导入 numpy 库。

    1import numpy as np
    2import pandas as pd

    导入数据表

    下面分别是从 excel 和 csv 格式文件导入数据并创建数据表的方法。代码是最简模式,里面有很多可选参数设置,例如列名称,索引列,数据格式等等。感兴趣的朋友可以参考 pandas 的
    官方文档。

    1df=pd.DataFrame(pd.read_csv('name.csv',header=1))
    2df=pd.DataFrame(pd.read_excel('name.xlsx'))

    创建数据表

    另一种方法是通过直接写入数据来生成数据表,excel 中直接在单元格中输入数据就可以,python 中通过下面的代码来实现。生成数据表的函数是 pandas 库中的 DateFrame 函数,数据表一共有 6 行数据,每行有 6 个字段。在数据中我们特意设置了一些 NA 值和有问题的字段,例如包含空格等。后面将在数据清洗步骤进行处理。后面我们将统一以 DataFrame 的简称 df 来命名数据表。

    1df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
    2                   "date":pd.date_range('20130102', periods=6),
    3                   "city":['Beijing ''SH'' guangzhou ''Shenzhen''shanghai''BEIJING '],
    4                   "age":[23,44,54,32,34,32],
    5                   "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
    6                   "price":[1200,np.nan,2133,5433,np.nan,4432]},
    7                   columns =['id','date','city','category','age','price'])

    这是刚刚创建的数据表,我们没有设置索引列,price 字段中包含有 NA 值,city 字段中还包含了一些脏数据。

    640?wx_fmt=png
    df

    02 数据表检查

    第二部分是对数据表进行检查,python 中处理的数据量通常会比较大,比如我们之前的文章中介绍的纽约出租车数据和 Citibike 的骑行数据,数据量都在千万级,我们无法一目了然的 了解数据表的整体情况,必须要通过一些方法来获得数据表的关键信息。数据表检查的另一个目的是了解数据的概况,例如整个数据表的大小,所占空间,数据格式,是否有空值和重复项和具体的数据内容。为后面的清洗和预处理做好准备。

    数据维度(行列)

    Excel 中可以通过 CTRL+向下的光标键,和 CTRL+向右的光标键来查看行号和列号。Python 中使用 shape 函数来查看数据表的维度,也就是行数和列数,函数返回的结果(6,6)表示数据表有 6 行,6 列。下面是具体的代码。

    1#查看数据表的维度
    2df.shape
    3(66)

    数据表信息

    使用 info 函数查看数据表的整体信息,这里返回的信息比较多,包括数据维度,列名称,数据格式和所占空间等信息。

     1#数据表信息
    2df.info()
    3
    4<class 'pandas.core.frame.DataFrame'>
    5RangeIndex:
     6 entries, 0 to 5
    6Data columns (total 6 columns):
    7id          6 non-null int64
    8date        6 non-null datetime64[ns]
    9city        6 non-null object
    10category    6 non-null object
    11age         6 non-null int64
    12price       4 non-null float64
    13dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
    14memory usage: 368.0+ bytes

    查看数据格式

    Excel 中通过选中单元格并查看开始菜单中的数值类型来判断数据的格式。Python 中使用 dtypes 函数来返回数据格式。

    640?wx_fmt=png

    Dtypes 是一个查看数据格式的函数,可以一次性查看数据表中所有数据的格式,也可以指定一列来单独查看。

     1#查看数据表各列格式
    2df.dtypes
    3
    4id                   int64
    5date        datetime64[ns]
    6city                object
    7category            object
    8age                  int64
    9price              float64
    10dtype: object
    11
    12#查看单列格式
    13df['B'].dtype
    14
    15dtype('int64')

    查看空值

    Excel 中查看空值的方法是使用“定位条件”功能对数据表中的空值进行定位。“定位条件”在“开始”目录下的“查找和选择”目录中。

    640?wx_fmt=png
    查看空值

    Isnull 是 Python 中检验空值的函数,返回的结果是逻辑值,包含空值返回 True,不包含则返回 False。可以对整个数据表进行检查,也可以单独对某一列进行空值检查。

    1#检查数据空值
    2df.isnull()
    640?wx_fmt=png
    df_isnull
     1#检查特定列空值
    2df['price'].isnull()
    3
    40    False
    51     True
    62    False
    73    False
    84     True
    95    False
    10Name: price, dtype: bool

    查看唯一值

    Excel 中查看唯一值的方法是使用“条件格式”对唯一值进行颜色标记。Python 中使用 unique 函数查看唯一值。

    640?wx_fmt=png
    查看唯一值

    Unique 是查看唯一值的函数,只能对数据表中的特定列进行检查。下面是代码,返回的结果是该列中的唯一值。类似与 Excel 中删除重复项后的结果。

    1#查看 city 列中的唯一值
    2df['city'].unique()
    3
    4array(['Beijing ''SH'' guangzhou ''Shenzhen''shanghai''BEIJING '], dtype=object)

    查看数据表数值

    Python 中的 Values 函数用来查看数据表中的数值。以数组的形式返回,不包含表头信息。

     1#查看数据表的值
    2df.values
    3
    4array([[1001, Timestamp('2013-01-02 00:00:00'), 'Beijing ''100-A'23,
    5        1200.0],
    6       [1002, Timestamp('2013-01-03 00:00:00'), 'SH''100-B'44, nan],
    7       [1003, Timestamp('2013-01-04 00:00:00'), ' guangzhou ''110-A'54,
    8        2133.0],
    9       [1004, Timestamp('2013-01-05 00:00:00'), 'Shenzhen''110-C'32,
    10        5433.0],
    11       [1005, Timestamp('2013-01-06 00:00:00'), 'shanghai''210-A'34,
    12        nan],
    13       [1006, Timestamp('2013-01-07 00:00:00'), 'BEIJING ''130-F'32,
    14        4432.0]], dtype=object)

    查看列名称

    Colums 函数用来单独查看数据表中的列名称。

    1#查看列名称
    2df.columns
    3
    4Index(['id''date''city''category''age''price'], dtype='object')

    查看前 10 行数据

    Head 函数用来查看数据表中的前 N 行数据,默认 head()显示前 10 行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看前 3 行的数据。

    1`#查看前 3 行数据``df.head(``3``)`


    640?wx_fmt=png
    df_head(3)

    查看后 10 行数据

    Tail 行数与 head 函数相反,用来查看数据表中后 N 行的数据,默认 tail()显示后 10 行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看后 3 行的数据。

    1`#查看最后 3 行``df.tail(``3``)`
    640?wx_fmt=png
    df_tail(3)

    03 数据表清洗

    第三部分是对数据表中的问题进行清洗。主要内容包括对空值,大小写问题,数据格式和重复值的处理。这里不包含对数据间的逻辑验证。

    处理空值(删除或填充)

    我们在创建数据表的时候在 price 字段中故意设置了几个 NA 值。对于空值的处理方式有很多种,可以直接删除包含空值的数据,也可以对空值进行填充,比如用 0 填充或者用均值填充。还可以根据不同字段的逻辑对空值进行推算。

    Excel 中可以通过“查找和替换”功能对空值进行处理,将空值统一替换为 0 或均值。也可以通过“定位”空值来实现。

    640?wx_fmt=png
    查找和替换空值

    Python 中处理空值的方法比较灵活,可以使用 Dropna 函数用来删除数据表中包含空值的数据,也可以使用 fillna 函数对空值进行填充。下面的代码和结果中可以看到使用 dropna 函数后,包含 NA 值的两个字段已经不见了。返回的是一个不包含空值的数据表。

    1#删除数据表中含有空值的行
    2df.dropna(how='any')
    640?wx_fmt=png
    df_dropna

    除此之外也可以使用数字对空值进行填充,下面的代码使用 fillna 函数对空值字段填充数字 0。

    1#使用数字 0 填充数据表中空值
    2df.fillna(value=0)

    我们选择填充的方式来处理空值,使用 price 列的均值来填充 NA 字段,同样使用 fillna 函数,在要填充的数值中使用 mean 函数先计算 price 列当前的均值,然后使用这个均值对 NA 进行填
    充。可以看到两个空值字段显示为 3299.5

     1#使用 price 均值对 NA 进行填充
    2df['price'].fillna(df['price'].mean())
    3
    40    1200.0
    51    3299.5
    62    2133.0
    73    5433.0
    84    3299.5
    95    4432.0
    10Name: price, dtype: float64

    640?wx_fmt=png
    df_nan

    清理空格

    除了空值,字符中的空格也是数据清洗中一个常见的问题,下面是清除字符中空格的代码。

    1#清除 city 字段中的字符空格
    2df['city']=df['city'].map(str.strip)

    大小写转换

    在英文字段中,字母的大小写不统一也是一个常见的问题。Excel 中有 UPPER,LOWER 等函数,python 中也有同名函数用来解决大小写的问题。在数据表的 city 列中就存在这样的问题。我们将 city 列的所有字母转换为小写。下面是具体的代码和结果。

    1#city 列大小写转换
    2df['city']=df['city'].str.lower()
    640?wx_fmt=png
    lower

    更改数据格式

    Excel 中通过“设置单元格格式”功能可以修改数据格式。Python 中通过 astype 函数用来修改数据格式。

    640?wx_fmt=png
    设置单元格格式

    Python 中 dtype 是查看数据格式的函数,与之对应的是 astype 函数,用来更改数据格式。下面的代码中将 price 字段的值修改为 int 格式。

     1#更改数据格式
    2df['price'].astype('int')
    3
    40    1200
    51    3299
    62    2133
    73    5433
    84    3299
    95    4432
    10Name: price, dtype: int32

    更改列名称

    Rename 是更改列名称的函数,我们将来数据表中的 category 列更改为 category-size。下面是具体的代码和更改后的结果。

    1#更改列名称
    2df.rename(columns={'category''category-size'})
    640?wx_fmt=png
    df_rename

    删除重复值

    很多数据表中还包含重复值的问题,Excel 的数据目录下有“删除重复项”的功能,可以用来删除数据表中的重复值。默认 Excel 会保留最先出现的数据,删除后面重复出现的数据。

    640?wx_fmt=png
    删除重复项

    Python 中使用 drop_duplicates 函数删除重复值。我们以数据表中的 city 列为例,city 字段中存在重复值。默认情况下 drop_duplicates()将删除后出现的重复值(与 excel 逻辑一致)。增加 keep=’last’参数后将删除最先出现的重复值,保留最后的值。下面是具体的代码和比较结果。

    原始的 city 列中 beijing 存在重复,分别在第一位和最后一位。

    1df['city']
    20      beijing
    31           sh
    42    guangzhou
    53     shenzhen
    64     shanghai
    75      beijing
    8Name: city, dtype: object

    使用默认的 drop_duplicates()函数删除重复值,从结果中可以看到第一位的 beijing 被保留,最后出现的 beijing 被删除。

    1#删除后出现的重复值
    2df['city'].drop_duplicates()
    30      beijing
    41           sh
    52    guangzhou
    63     shenzhen
    74     shanghai
    8Name: city, dtype: object

    设置 keep=’last‘’参数后,与之前删除重复值的结果相反,第一位出现的 beijing 被删除,保留了最后一位出现的 beijing。

    1#删除先出现的重复值
    2df['city'].drop_duplicates(keep='last')
    31           sh
    42    guangzhou
    53     shenzhen
    64     shanghai
    75      beijing
    8Name: city, dtype: objec

    数值修改及替换

    数据清洗中最后一个问题是数值修改或替换,Excel 中使用“查找和替换”功能就可以实现数值的替换。

    640?wx_fmt=png
    查找和替换空值

    Python 中使用 replace 函数实现数据替换。数据表中 city 字段上海存在两种写法,分别为 shanghai 和 SH。我们使用 replace 函数对 SH 进行替换。

    1#数据替换
    2df['city'].replace('sh''shanghai')
    30      beijing
    41     shanghai
    52    guangzhou
    63     shenzhen
    74     shanghai
    85      beijing
    9Name: city, dtype: object

    本篇文章这是系列的第二篇,介绍第 4-6 部分的内容,数据表生成,数据表查看,和数据清洗。

    640?wx_fmt=png
    4-6 目录

    04 数据预处理

    第四部分是数据的预处理,对清洗完的数据进行整理以便后期的统计和分析工作。主要包括数据表的合并,排序,数值分列,数据分
    组及标记等工作。

    数据表合并

    首先是对不同的数据表进行合并,我们这里创建一个新的数据表 df1,并将 df 和 df1 两个数据表进行合并。在 Excel 中没有直接完成数据表合并的功能,可以通过 VLOOKUP 函数分步实现。在 python 中可以通过 merge 函数一次性实现。下面建立 df1 数据表,用于和 df 数据表进行合并。

    1#创建 df1 数据表
    2df1=pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
    3"gender":['male','female','male','female','male','female','male','female'],
    4"pay":['Y','N','Y','Y','N','Y','N','Y',],
    5"m-point":[10,12,20,40,40,40,30,20]})
    640?wx_fmt=png
    df1

    使用 merge 函数对两个数据表进行合并,合并的方式为 inner,将两个数据表中共有的数据匹配到一起生成新的数据表。并命名为 df_inner。

    1#数据表匹配合并,inner 模式
    2df_inner=pd.merge(df,df1,how='inner')
    640?wx_fmt=png
    df_inner

    除了 inner 方式以外,合并的方式还有 left,right 和 outer 方式。这几种方式的差别在我其他的文章中有详细的说明和对比。

    1#其他数据表匹配模式
    2df_left=pd.merge(df,df1,how='left')
    3df_right=pd.merge(df,df1,how='right')
    4df_outer=pd.merge(df,df1,how='outer')

    设置索引列

    完成数据表的合并后,我们对 df_inner 数据表设置索引列,索引列的功能很多,可以进行数据提取,汇总,也可以进行数据筛选等。
    设置索引的函数为 set_index。

    1#设置索引列
    2df_inner.set_index('id')
    640?wx_fmt=png
    df_inner_set_index

    排序(按索引,按数值)

    Excel 中可以通过数据目录下的排序按钮直接对数据表进行排序,比较简单。Python 中需要使用 ort_values 函数和 sort_index 函数完成排序。

    640?wx_fmt=png
    排序

    在 python 中,既可以按索引对数据表进行排序,也可以看制定列的数值进行排序。首先我们按 age 列中用户的年龄对数据表进行排序。
    使用的函数为 sort_values。

    1#按特定列的值排序
    2df_inner.sort_values(by=['age'])
    640?wx_fmt=png
    sort_values

    Sort_index 函数用来将数据表按索引列的值进行排序。

    1#按索引列排序
    2df_inner.sort_index()
    640?wx_fmt=png
    sort_index

    数据分组

    Excel 中可以通过 VLOOKUP 函数进行近似匹配来完成对数值的分组,或者使用“数据透视表”来完成分组。相应的 python 中使用 where 函数完成数据分组。

    Where 函数用来对数据进行判断和分组,下面的代码中我们对 price 列的值进行判断,将符合条件的分为一组,不符合条件的分为另一组,并使用 group 字段进行标记。

    1#如果 price 列的值>3000,group 列显示 high,否则显示 low
    2df_inner['group'] = np.where(df_inner['price'] > 3000,'high','low')
    640?wx_fmt=png
    where

    除了 where 函数以外,还可以对多个字段的值进行判断后对数据进行分组,下面的代码中对 city 列等于 beijing 并且 price 列大于等于 4000 的数据标记为 1。

    1#对复合多个条件的数据进行分组标记
    2df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000), 'sign']=1
    640?wx_fmt=png
    sign

    数据分列

    与数据分组相反的是对数值进行分列,Excel 中的数据目录下提供“分列”功能。在 python 中使用 split 函数实现分列。

    640?wx_fmt=png
    数据分列

    在数据表中 category 列中的数据包含有两个信息,前面的数字为类别 id,后面的字母为 size 值。中间以连字符进行连接。我们使用 split 函数对这个字段进行拆分,并将拆分后的数据表匹配回原数据表中。

    1#对 category 字段的值依次进行分列,并创建数据表,索引值为 df_inner 的索引列,列名称为 category 和 size
    2pd.DataFrame((x.split('-'for x in df_inner['category']),index=df_inner.index,columns=['category','size'])
    640?wx_fmt=png
    split
    1#将完成分列后的数据表与原 df_inner 数据表进行匹配
    2df_inner=pd.merge(df_inner,split,right_index=True, left_index=True)
    640?wx_fmt=png
    merge_1

    05 数据提取

    第五部分是数据提取,也是数据分析中最常见的一个工作。这部分主要使用三个函数,loc,iloc 和 ix,loc 函数按标签值进行提取,iloc 按位置进行提取,ix 可以同时按标签和位置进行提取。下面介绍每一种函数的使用方法。

    按标签提取(loc)

    Loc 函数按数据表的索引标签进行提取,下面的代码中提取了索引列为 3 的单条数据。

     1#按索引提取单行的数值
    2df_inner.loc[3]
    3id 1004
    4date 2013-01-05 00:00:00
    5city shenzhen
    6category 110-C
    7age 32
    8price 5433
    9gender female
    10m-point 40
    11pay Y
    12group high
    13sign NaN
    14category_1 110
    15size C
    16Name: 3, dtype: object

    使用冒号可以限定提取数据的范围,冒号前面为开始的标签值,后面为结束的标签值。下面提取了 0 到 5 的数据行。

    1#按索引提取区域行数值
    2df_inner.loc[0:5]
    640?wx_fmt=png
    df_inner_loc1

    Reset_index 函数用于恢复索引,这里我们重新将 date 字段的日期设置为数据表的索引,并按日期进行数据提取。

    1#重设索引
    2df_inner.reset_index()
    640?wx_fmt=png
    reset_index
    1#设置日期为索引
    2df_inner=df_inner.set_index('date')
    640?wx_fmt=png
    set_index_date

    使用冒号限定提取数据的范围,冒号前面为空表示从 0 开始。提取所有 2013 年 1 月 4 日以前的数据。

    1#提取 4 日之前的所有数据
    2df_inner[:'2013-01-04']
    640?wx_fmt=png
    按提起提取

    按位置提取(iloc)

    使用 iloc 函数按位置对数据表中的数据进行提取,这里冒号前后的数字不再是索引的标签名称,而是数据所在的位置,从 0 开始。

    1#使用 iloc 按位置区域提取数据
    2df_inner.iloc[:3,:2]
    640?wx_fmt=png
    iloc1

    iloc 函数除了可以按区域提取数据,还可以按位置逐条提取,前面方括号中的 0,2,5 表示数据所在行的位置,后面方括号中的数表示所在列的位置。

    1#使用 iloc 按位置单独提取数据
    2df_inner.iloc[[0,2,5],[4,5]]
    640?wx_fmt=png
    iloc2

    按标签和位置提取(ix)

    ix 是 loc 和 iloc 的混合,既能按索引标签提取,也能按位置进行数据提取。下面代码中行的位置按索引日期设置,列按位置设置。

    1#使用 ix 按索引标签和位置混合提取数据
    2df_inner.ix[:'2013-01-03',:4]
    640?wx_fmt=png
    ix

    按条件提取(区域和条件值)

    除了按标签和位置提起数据以外,还可以按具体的条件进行数据。下面使用 loc 和 isin 两个函数配合使用,按指定条件对数据进行提取 。

    使用 isin 函数对 city 中的值是否为 beijing 进行判断。

     1#判断 city 列的值是否为 beijing
    2df_inner['city'].isin(['beijing'])
    3
    4date
    52013-01-02 True
    62013-01-05 False
    72013-01-07 True
    82013-01-06 False
    92013-01-03 False
    102013-01-04 False
    11Name: city, dtype: bool

    将 isin 函数嵌套到 loc 的数据提取函数中,将判断结果为 Ture 数据提取出来。这里我们把判断条件改为 city 值是否为 beijing 和 shanghai。如果是就把这条数据提取出来。

    1#先判断 city 列里是否包含 beijing 和 shanghai,然后将复合条件的数据提取出来。
    2df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]
    640?wx_fmt=png
    loc 按筛选条件提取

    数值提取还可以完成类似数据分列的工作,从合并的数值中提取出制定的数值。

     1category=df_inner['category']
    20 100-A
    33 110-C
    45 130-F
    54 210-A
    61 100-B
    72 110-A
    8Name: category, dtype: object
    9
    10#提取前三个字符,并生成数据表
    11pd.DataFrame(category.str[:3])
    640?wx_fmt=png
    category_str

    06 数据筛选

    第六部分为数据筛选,使用与,或,非三个条件配合大于,小于和等于对数据进行筛选,并进行计数和求和。与 excel 中的筛选功能和 countifs 和 sumifs 功能相似。

    按条件筛选(与,或,非)

    Excel 数据目录下提供了“筛选”功能,用于对数据表按不同的条件进行筛选。Python 中使用 loc 函数配合筛选条件来完成筛选功能。配合 sum 和 count 函数还能实现 excel 中 sumif 和 countif 函数的功能。

    640?wx_fmt=png
    筛选

    使用“与”条件进行筛选,条件是年龄大于 25 岁,并且城市为 beijing。筛选后只有一条数据符合要求。

    1#使用“与”条件进行筛选
    2df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']]
    640?wx_fmt=png

    使用“或”条件进行筛选,年龄大于 25 岁或城市为 beijing。筛选后有 6 条数据符合要求。

    1#使用“或”条件筛选
    2df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']].sort
    3(['age'])
    640?wx_fmt=png

    在前面的代码后增加 price 字段以及 sum 函数,按筛选后的结果将 price 字段值进行求和,相当于 excel 中 sumifs 的功能。

    1#对筛选后的数据按 price 字段进行求和
    2df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'),
    3['id','city','age','category','gender','price']].sort(['age']).price.sum()
    4
    519796

    使用“非”条件进行筛选,城市不等于 beijing。符合条件的数据有 4 条。将筛选结果按 id 列进行排序。

    1#使用“非”条件进行筛选
    2df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id'])
    640?wx_fmt=png

    在前面的代码后面增加 city 列,并使用 count 函数进行计数。相当于 excel 中的 countifs 函数的功能。

    1#对筛选后的数据按 city 列进行计数
    2df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id']).city.count()
    34

    还有一种筛选的方式是用 query 函数。下面是具体的代码和筛选结果。

    1#使用 query 函数进行筛选
    2df_inner.query('city == ["beijing", "shanghai"]')
    640?wx_fmt=png
    query

    在前面的代码后增加 price 字段和 sum 函数。对筛选后的 price 字段进行求和,相当于 excel 中的 sumifs 函数的功能。

    1#对筛选后的结果按 price 进行求和
    2df_inner.query('city == ["beijing", "shanghai"]').price.sum()
    312230

    这是第三篇,介绍第 7-9 部分的内容,数据汇总,数据统计,和数据输出。


    640?wx_fmt=png
    7-9 目录

    07  数据汇总

    第七部分是对数据进行分类汇总,Excel 中使用分类汇总和数据透视可以按特定维度对数据进行汇总,python 中使用的主要函数是 groupby 和 pivot_table。下面分别介绍这两个函数的使用方法。

    分类汇总

    Excel 的数据目录下提供了“分类汇总”功能,可以按指定的字段和汇总方式对数据表进行汇总。Python 中通过 Groupby 函数完成相应的操作,并可以支持多级分类汇总。

    640?wx_fmt=png
    分类汇总 1

    Groupby 是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby 按列名称出现的顺序进行分组。同时要制定分组后的汇总方式,常见的是计数和求和两种。

    1#对所有列进行计数汇总
    2df_inner.groupby('city').count()
    640?wx_fmt=png
    groupby

    可以在 groupby 中设置列名称来对特定的列进行汇总。下面的代码中按城市对 id 字段进行汇总计数。

    1#对特定的 ID 列进行计数汇总
    2df_inner.groupby('city')['id'].count()
    3city
    4beijing 2
    5guangzhou 1
    6shanghai 2
    7shenzhen 1
    8Name: id, dtype: int64

    在前面的基础上增加第二个列名称,分布对 city 和 size 两个字段进行计数汇总。

     1#对两个字段进行汇总计数
    2df_inner.groupby(['city','size'])['id'].count()
    3city size
    4beijing A 1
    51
    6guangzhou A 1
    7shanghai A 1
    81
    9shenzhen C 1
    10Name: id, dtype: int64

    除了计数和求和外,还可以对汇总后的数据同时按多个维度进行计算,下面的代码中按城市对 price 字段进行汇总,并分别计算 price 的数量,总金额和平均金额。

    1#对 city 字段进行汇总并计算 price 的合计和均值。
    2df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])
    640?wx_fmt=png
    groupby1

    数据透视

    Excel 中的插入目录下提供“数据透视表”功能对数据表按特定维度进行汇总。Python 中也提供了数据透视表功能。通过 pivot_table 函数实现同样的效果。

    640?wx_fmt=png
    数据透视

    数据透视表也是常用的一种数据分类汇总方式,并且功能上比 groupby 要强大一些。下面的代码中设定 city 为行字段,size 为列字段,price 为值字段。分别计算 price 的数量和金额并且按行与列进行汇总。

    1#数据透视表
    2pd.pivot_table(df_inner,index=["city"],values=["price"],columns=["size"],aggfunc=[len,np.sum],fill_value=0,margins=True)
    640?wx_fmt=png
    pivot_table

    08 数据统计

    第九部分为数据统计,这里主要介绍数据采样,标准差,协方差和相关系数的使用方法。

    数据采样

    Excel 的数据分析功能中提供了数据抽样的功能,如下图所示。Python 通过 sample 函数完成数据采样。

    640?wx_fmt=png
    数据抽样

    Sample 是进行数据采样的函数,设置 n 的数量就可以了。函数自动返回参与的结果。

    1#简单的数据采样
    2df_inner.sample(n=3)


    640?wx_fmt=png
    简单随机采样

    Weights 参数是采样的权重,通过设置不同的权重可以更改采样的结果,权重高的数据将更有希望被选中。这里手动设置 6 条数据的权重值。将前面 4 个设置为 0,后面两个分别设置为 0.5。

    1#手动设置采样权重
    2weights = [00000.50.5]
    3df_inner.sample(n=2, weights=weights)
    640?wx_fmt=png
    手动设置采样权重 1

    从采样结果中可以看出,后两条权重高的数据被选中。

    640?wx_fmt=png
    手动设置采样权重 2

    Sample 函数中还有一个参数 replace,用来设置采样后是否放回。

    1#采样后不放回
    2df_inner.sample(n=6, replace=False)
    640?wx_fmt=png
    采样后不放回
    1#采样后放回
    2df_inner.sample(n=6, replace=True)
    640?wx_fmt=png
    采样后放回

    描述统计

    Excel 中的数据分析中提供了描述统计的功能。Python 中可以通过 Describe 对数据进行描述统计。

    640?wx_fmt=png
    描述统计

    Describe 函数是进行描述统计的函数,自动生成数据的数量,均值,标准差等数据。下面的代码中对数据表进行描述统计,并使用 round 函数设置结果显示的小数位。并对结果数据进行转置。

    1#数据表描述性统计
    2df_inner.describe().round(2).T
    640?wx_fmt=png
    describe

    标准差
    Python 中的 Std 函数用来接算特定数据列的标准差。

    1#标准差
    2df_inner['price'].std()
    31523.3516556155596

    协方差
    Excel 中的数据分析功能中提供协方差的计算,python 中通过 cov 函数计算两个字段或数据表中各字段间的协方差。

    640?wx_fmt=png
    协方差

    Cov 函数用来计算两个字段间的协方差,可以只对特定字段进行计算,也可以对整个数据表中各个列之间进行计算。

    1#两个字段间的协方差
    2df_inner['price'].cov(df_inner['m-point'])
    317263.200000000001
    640?wx_fmt=png
    cov

    相关分析
    Excel 的数据分析功能中提供了相关系数的计算功能,python 中则通过 corr 函数完成相关分析的操作,并返回相关系数。

    640?wx_fmt=png
    相关系数

    Corr 函数用来计算数据间的相关系数,可以单独对特定数据进行计算,也可以对整个数据表中各个列进行计算。相关系数在-1 到 1 之间,接近 1 为正相关,接近-1 为负相关,0 为不相关。

    1#相关性分析
    2df_inner['price'].corr(df_inner['m-point'])
    30.77466555617085264
    4
    5#数据表相关性分析
    6df_inner.corr()
    640?wx_fmt=png
    corr

    09 数据输出

    第九部分是数据输出,处理和分析完的数据可以输出为 xlsx 格式和 csv 格式。

    写入 excel

    1#输出到 excel 格式
    2df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')
    640?wx_fmt=png
    excel

    写入 csv

    1#输出到 CSV 格式
    2df_inner.to_csv('excel_to_python.csv')

    在数据处理的过程中,大部分基础工作是重复和机械的,对于这部分基础工作,我们可以使用自定义函数进行自动化。以下简单介绍对数据表信息获取自动化处理。

     1#创建数据表
    2df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
    3"date":pd.date_range('20130102', periods=6),
    4"city":['Beijing ''SH'' guangzhou ''Shenzhen''shanghai''BEIJING '],
    5"age":[23,44,54,32,34,32],
    6"category":['100-A','100-B','110-A','110-C','210-A','130-F'],
    7"price":[1200,np.nan,2133,5433,np.nan,4432]},
    8columns =['id','date','city','category','age','price'])
    9
    10#创建自定义函数
    11def table_info(x):
    12    shape=x.shape
    13    types=x.dtypes
    14    colums=x.columns
    15    print("数据维度(行,列):\n",shape)
    16    print("数据格式:\n",types)
    17    print("列名称:\n",colums)
    18
    19#调用自定义函数获取 df 数据表信息并输出结果
    20table_info(df)
    21
    22数据维度(行,列):
    23(66)
    24数据格式:
    25id int64
    26date datetime64[ns]
    27city object
    28category object
    29age int64
    30price float64
    31dtype: object
    32列名称:
    33Index(['id''date''city''category''age''price'], dtype='object')

    以上就是用 Python 做数据分析的基本内容。





    /今日留言主题/

    你用 Python 主要做什么,数据分析多么?

    (留言格式:Dayxx:blahblah)

    展开全文
  • 作为一个学习用Python进行数据分析的新手来说,通过本文来记录分享一些我在用Python中的pandas、numpy来分析Excel表中数据的数据清洗和整理的工作,目的是熟悉numpy以及pandas基础操作,所有操作利用Excel均可以方便...

    作为一个学习用Python进行数据分析的新手来说,通过本文来记录分享一些我在用Python中的pandas、numpy来分析Excel表中数据的数据清洗和整理的工作,目的是熟悉numpy以及pandas基础操作,所有操作利用Excel均可以方便实现。备注:本文中使用的是ipython完成的编辑



    数据来源及结构

      本文所分析的数据是通过爬虫抓取的微博数据。选取新浪微博为数据平台,选取我国34个省的旅游政务官方微博为研究对象,利用爬虫软件Gooseeker爬取微博信息,包括用户名、粉丝数、开博日期、当月原创微博总数No、当月总微博数N、单条博文的转发数、单条博文的评论数、条博文的点赞数。

      爬取的数据表格 test.xlsx 包括以下几个sheet中,基本表结构见下

      


    1、All(所有博文):所有字段见下:其中有用字段是‘用户名、微博内容、时间、转发数、评论数、点赞数’,共有6585条数据(备注:转发数中的缺失值为“转发”,评论数中的缺失值为“评论”,点赞数中的缺失值为“赞”):



    2、sf(各省信息表,此表中:省份名完整



    3、sfwibo (此表记录的是各个微博账号对应的省份名,省份名不完整,已知各个省份名只有前两个字完整)



     4、base_info2(爬取的微博账户的相关信息)(备注:此处的“昵称”与sfweibo中的“微博用户名”等同)



     

     


      本文思路:

    Step1:对于All表:1)取出有用字段。2)处理缺失值。3)数据透视

    Step2:对于sf 和sfweibo 表:1)以省份名做数据连接成sf_sfweibo。2)并与All表做数据连接sf_sfweibo_All。

    Step3:对于base_info表:1)与sf_sfweibo_All做数据连接 2)计算h值 3)处理数据4)计算相关性

    Step4:导出最后结果到一个Excel文件中,完成数据处理。、

     

     


     数据处理过程:

    step1 :



    # -*- coding=utf-8 -*-

    导入需要的包

     

    from__future__import division

    import numpy as np

    import pandas as pd

    import matplotlib.pyplot as plt

    from numpy.randomimport randn

    from pandasimport Series, DataFrame

    from datetimeimport datetime

    import xlrd, openpyxl

     

    xlsx_file = pd.ExcelFile('test1.xlsx')

    All = xlsx_file.parse('All')

     1)取出有用字段

    # 删掉表格中的无用列,保留有用列

    d1 = All.drop(All.columns[:11], axis=1, inplace = False)

    All = d1.drop(d1.columns[-1], axis=1, inplace = False)

     

    # 显示表格前五行

    All.head()


    # 查看去重未处理前表中记录长度

    len(All)

     

    # 获取到重复的行的行号的前20

    All[All.duplicated()==True].index[:20]

     

    # 删除掉重复的行,在原值上直接修改

    All.drop_duplicates(inplace=True)

    len(All)#通过运行结果,可以发现确实删掉了,当前记录条数为6159

     

    2)处理缺失值

    # 处理缺失值,先获取该列,将列中的"转发"评论"""替换掉

    # 为什么不在读取表格的时候直接设置呢?因为如果一开始就设置替换,会导致整张表中的"转发"评论"""均会被替换掉,造成信息损失

    All[u'转发数'][All[u'转发数']==u'转发'] = '0'

    All[u'评论数'][All[u'评论数']==u'评论'] = '0'

    All[u'点赞数'][All[u'点赞数']==u''] = '0' #等价于# All[u'点赞数'].replace(u'','0')

     

    All.head()


    3)数据透视

    All.describe()


    备注:出现这个结果说明了数据类型不是数值型

    #查看表中各个列的数据类型

    All.dtypes

     

    # 为了能进行数据透视,需要将对应列的数据类型转换成数值型

    # DataFrame表中的某列数据进行转换类型

    All[u'转发数']=All[u'转发数'].astype('int64')

    All[u'评论数'] = All[u'评论数'].astype('int64')

    All[u'点赞数'] = All[u'点赞数'].astype('int64')

    All.describe()

     

    # 查看表中各个列的数据类型

    All.dtypes

     

    #将预处理过的表保存到All.xlsx

    All.to_excel('All.xlsx',index=False)

     

    # 数据透视表

    All_pivot= All.pivot_table(values=[u'转发数',u'评论数',u'点赞数',u'微博内容'],index=[u'用户名'],\

                             aggfunc={u'转发数':np.sum,u'评论数':np.sum,u'点赞数':np.sum,u'微博内容':np.size})

    # 给该列换名称

    All_pivot.rename(columns={u'微博内容':u'当月总微博数'},inplace=True)

    All_pivot

     

    # 将完成的透视表保存

    All_pivot.to_excel('All_pivot.xlsx')

     step2

    1)以省份名做数据连接成sf_sfweibo

    # 读取test1.xlsx 中的sf

    sf = xlsx_file.parse('sf')

    sf.head()

     

    #读取test1.xlsx中的sfweibo

    sfweibo = xlsx_file.parse('sfweibo')

    sfweibo.head()


    # 通过上面的表格输出可以看出,要想将sfsfweibo进行连接,需要对sf以及sf微博中的省份名

    # 但是,由于sfweibo 中的省份名是不完整的,已知名称中肯定包含省份中的前两个字,为此,需要对两个表格切割后,进行连接

    sf[u'省份前两字'] = np.nan

    for iin range(len(sf[u'省份名'])):

        sf[u'省份前两字'][i] = sf[u'省份名'][i][:2]

     

    sfweibo[u'省份前两字'] = np.nan

    for iin range(len(sfweibo[u'省份名'])):

        sfweibo[u'省份前两字'][i] = sfweibo[u'省份名'][i][:2]

     

    # 显示表格的前五行

    sf.head()

     

    # 显示表格的前五行

    sfweibo.head()

     

    # 保存数据

    sf.to_excel('sf.xlsx',index=False)

    sfweibo.to_excel('sfweibo.xlsx',index=False)

     

    # 连接两表

    sf_sfweibo = sf.merge(sfweibo,on=u'省份前两字')

    sf_sfweibo.head()

     

    # 获取连接后表格中需要的字段名,并重新排列

    sf_sfweibo1 = sf_sfweibo.iloc[:,[4,1,2]]

    sf_sfweibo1.head()

     

    # 存储连接后的表

    sf_sfweibo1.to_excel('sf_sfweibo.xlsx',index=False)

     2)并与All表做数据连接sf_sfweibo_All

    #连接sf_sfweiboAll_pivot两表

    sf_sfweibo = sf_sfweibo1

    sf_sfweibo_All_pivot =pd.merge(sf_sfweibo,All_pivot,left_on=u'微博用户名',right_on=u'用户名',right_index=True)

    #显示连接后的表格的前五行
    sf_sfweibo_All_pivot.head()

     

    # 将连接后的表进行存储

    sf_sfweibo_All_pivot.to_excel('sf_sfweibo_All_pivot.xlsx',index=False)

     step3:

    1)与sf_sfweibo_All做数据连接 

    # 处理爬取的用户的基本信息表base_info

    base = xlsx_file.parse('base_info')

    base.head()

     

    #base表与sf_sfweibo_All_pivot进行连接

    sf_sfweibo_All_pivot_base = base.merge(sf_sfweibo_All_pivot,left_on=u'昵称',right_on=u'微博用户名')

    ssapb = sf_sfweibo_All_pivot_base # 名称太长,换个名称

     

    ssapb.head()

     

    # 替换某列的名字

    ssapb.rename(columns={u'当月总微博数_x':u'当月总微博数'},inplace=True)

     

    # 删除其中的多余列

    ssapb = ssapb.drop([u'昵称',u'当月总微博数_y'],axis=1)

     

    # 读取第一行的数

    ssapb.iloc[0]

     

     

    # 添加一列(当月原创数= 当月总微博数-当月转发数)

    ssapb[u'当月原创数'] = ssapb[u'当月总微博数']-ssapb[u'当月转发数']

     

    #将某列同时与某段字符串连接,通过观察网页可以发现这是网址的特点

    linkfix = "?is_ori=1&is_forward=1&is_text=1&is_pic=1&is_video=1&is_music=1&is_\

    article=1&key_word=&start_time=2017-05-01&end_time=2017-05-31&is_search=1&is_searchadv=1#_0"

    ssapb[u'当月博文网址'] = ssapb[u'主页链接']+linkfix

     

    allfix = "?profile_ftype=1&is_all=1#_0"

    ssapb[u'全部博文网址'] = ssapb[u'主页链接']+allfix

     

    #计算出篇均转发/点赞/评论,并添加列

    ssapb[u'篇均点赞'] = ssapb[u'点赞数']/ssapb[u'当月总微博数']

    ssapb[u'篇均转发'] = ssapb[u'转发数']/ssapb[u'当月总微博数']

    ssapb[u'篇均评论'] = ssapb[u'评论数']/ssapb[u'当月总微博数']

     

    # 读取表中的第一行数据

    ssapb.iloc[0]

     


    # 存储表格

    ssapb.to_excel('ssapb.xlsx',index=False)


      2)计算h值 

    # All表分组,获取表格的index

    gb = All.groupby(u'用户名')

    gb1 = gb.size()

    gbindex = gb1.index

    print gbindex,gb1

     


    #根据h指数的定义,分别计算转发/评论/点赞h指数

    # 再记录下每个用户名的最大互动度max(转发+评论+点赞)

     

    sortAllf = All.sort_values(by=[u'用户名',u'转发数'],ascending=[True,False])

    sortAllc = All.sort_values(by=[u'用户名',u'评论数'],ascending=[True,False])

    sortAlll = All.sort_values(by=[u'用户名',u'点赞数'],ascending=[True,False])

    mm = (sortAllf,sortAllc,sortAlll)

     

    # 将计算得到的结果重新存储到一个新的DataFrame

    All_h =pd.DataFrame(np.arange(136).reshape(34,4),columns=['fh','ch','lh','max_hdd'],index=gbindex)

    fh=[]

    ch=[]

    lh=[]

    max_hdd = []

    for jin range(len(mm)):

        for iin gbindex:

            tempdf =mm[j][mm[j][u'用户名']==i]

            tempdf['hdd'] = tempdf[u'转发数']+tempdf[u'评论数']+tempdf[u'点赞数']

           max_hdd.append(tempdf['hdd'].max())

            tempdf['numf'] = range(len(tempdf))

            if  j==0:

                a =len(tempdf[tempdf[u'转发数']>=tempdf['numf']+1])

               fh.append(a)

            elif  j==1:

                b =len(tempdf[tempdf[u'评论数']>=tempdf['numf']+1])

               ch.append(b)

            else:

                c = len(tempdf[tempdf[u'点赞数']>=tempdf['numf']+1])

               lh.append(c)

     

          

    All_h['fh']=fh

    All_h['ch']=ch

    All_h['lh']=lh

     

    # 因为,前面的循环一共循环了三遍,使得All_h重复了3遍,因此只要获取前34位即可

    All_h['max_hdd']=max_hdd[:34]

     

    # 插入一个综合h指数,该指数是转发/评论/点赞h指数三个的均值

    All_h.insert(3,'HS',All_h.iloc[:,:3].mean(1))

    #更改列名称

    All_h.rename(columns={'fh':u'转发h指数','ch':u'评论h指数',\

                       'lh':u'点赞h指数','HS':u'综合h指数','max_hdd':u'单篇最大互动度'},inplace=True)

    All_h.head()

     

    #连接ssapbAll_h表格

    ssapb_All_h= pd.merge(ssapb, All_h, left_on=u'微博用户名',right_on=u'用户名',right_index=True)

     

    #加一列原创率

    ssapb_All_h[u'原创率'] = ssapb_All_h[u'当月原创数']/ssapb_All_h[u'当月总微博数']

     

    ssapb_All_h.iloc[0]

     

    # 存档

    ssapb_All_h.to_excel('ssapb_All_h.xlsx',index=False)


    3)计算相关性

    # 获取原DataFrame中的几列存储到新的DataFrame中,计算综合h指数与其他分指数之间的相关性

    f1 = ssapb_All_h.loc[:,[u'综合h指数',u'转发h指数',u'评论h指数',u'点赞h指数']]

    # 计算f1中各列数据的相关性

    corr1 = f1.corr()

    # 将该相关性结果存档

    corr1.to_excel('corr1.xlsx')

     

    corr1

     

    # 获取原DataFrame中的几列存储到新的DataFrame中,计算综合h指数与其他微博信息之间的相关性

    f2 = ssapb_All_h.loc[:,[u'综合h指数',u'转发数',u'评论数',u'点赞数',u'篇均转发',u'篇均评论',u'篇均点赞']]

    corr2 = f2.corr()

    corr2.to_excel('corr2.xlsx')


    corr2

     

    # 获取原DataFrame中的几列存储到新的DataFrame中,计算综合h指数与其他信息之间的相关性

    f3 = ssapb_All_h.loc[:,[u'综合h指数',u'原创率',u'粉丝数',u'微博总数',u'单篇最大互动度']]

    corr3 = f3.corr()

    corr3.to_excel('corr3.xlsx')

    corr3

     

    # 重新排序列

    aa =ssapb_All_h.iloc[:,[8,9,10,5,15,16,0,1,2,3,4,6,14,7,11,12,13,24,20,21,22,23,17,18,19,25]]


    aa.to_excel('finally.xlsx')

    aa.iloc[0]

     

     4)处理数据,处理浮点位数/转成百分位数

    # 将表中的浮点类型保留至小数点后四为

    f = lambda x:'%.4f' % x

    aa.ix[:,21:] = aa.ix[:,21:].applymap(f)

    aa.ix[:,21:] = aa.ix[:,21:].astype('float64')

     

    aa.iloc[0]

     

    # 将原创率转成百分比形式

    f1 = lambda x :'%.2f%%' %  (x*100)

    aa[[u'原创率']]= aa[[u'原创率']].applymap(f1)


    aa.to_excel('finally1.xlsx',index=False)

    aa.iloc[0]

     

    aa.sort_values(by=u'综合h指数', ascending=False, inplace=True)

    # 按照综合h指数降序排序,添加一个排序位数

    aa['rank'] =np.arange(34)+1

     

    # 要想得到综合h指数/排名"的列,需要将aa['rank']aa[u'综合h指数']进行合并成一列,这就要求必须连接字符串类型

    aa['rank'] = aa['rank'].astype('string_')

    aa[u'综合h指数'] = aa[u'综合h指数'].astype('string_')

     

    # 连接成一列

    aa[u'综合h指数/排名'] = aa[u'综合h指数']+'/'+ aa['rank']

     

    aa.iloc[0]

     

    step4

    1)存储最终数据

    # 删除掉一列rank

    del aa['rank']

    # 将该数据类型换回来,换成浮点型

    aa[u'综合h指数'] = aa[u'综合h指数'].astype('float64')

    aa.to_excel('finally2.xlsx',index=False)




     结语:


    至此,本次分析操作过程已全部结束,希望这些操作可以新手有一定的参考帮助

    应亲们的需求,该链接是本文的原数据表,https://github.com/clover95/DataAnalysisbyPython/tree/master/weibo


    展开全文
  • 手把手教你使用Python数据分析

    千次阅读 2021-05-20 11:00:53
    一、数据分析是什么 数据分析是指用适当的统计分析方法对收集来的大量数据进行分析,将它们加以汇总和理解并消化,以求最大化地开发数据的功能,发挥数据的作用,使得数据的价值最大化 二、数据分析是做什么的 数据...

    一、数据分析是什么

    数据分析是指用适当的统计分析方法对收集来的大量数据进行分析,将它们加以汇总和理解并消化,以求最大化地开发数据的功能,发挥数据的作用,使得数据的价值最大化

    二、数据分析是做什么的

    数据分析是为了提取有用信息和形成结论而对数据加以详细研究和概括总结的过程。 数据分析的数学基础在20世纪早期就已确立,但直到计算机的出现才使得实际操作成为可能,并使得数据分析得以推广。

    • 分析用户的消费行为
      • 制定促销活动的方案
      • 制定促销时间和粒度
      • 计算用户的活跃度
      • 分析产品的回购力度
    • 分析广告点击率
      • 决定投放时间
      • 制定广告定向人群方案
      • 决定相关平台的投放

    数据分析使用适当的方法对收集来的大量数据进行分析,帮助人们做出判断,以便采取适当的行动

    • 保险公司从大量赔付申请数据中判断哪些为骗保的可能
    • 支付宝通过从大量的用户消费记录和行为自动调整花呗的额度
    • 短视频平台通过用户的点击和观看行为数据针对性的给用户推送喜欢的视频

    三、为什么学习数据分析

    • 岗位的需求
    • 是 Python 数据科学的基础
    • 是机器学习的基础

    四、数据分析实现流程

    • 提出问题
    • 准备数据
    • 分析数据
    • 获得结论
    • 成果可视化

    五、数据分析环境的搭建

    1. Anaconda

    • 官网:https://www.anaconda.com 下载安装对应安装包即可

    • 注意: 安装目录不可以有中文和特殊符号

    Anaconda集成好了数据分析和机器学习中所需要的全部环境

    2. Jupyter

    • Jupyter就是Anaconda提供的一个基于Web的可视化开发工具

    3. Jupyter的基本使用

    • 启动: 在终端中输入:jupyter notebook,按下回车即可

    • 新建文件: New -->> python3

    • Cell(代码块)有两种模式

      • code: 编写代码
      • markdown: 编写笔记
    • 快捷键

      • 添加cell:ab

      • 删除:x

      • 修改cell的模式

        • 修改成markdown模式:m
        • 修改成code模式:y
      • 执行cell内代码:shift+enter

      • 自动补全:tab

      • 打开帮助文档:shift+tab

    六、如何用Python进行数据分析

    在Python中我们数据分析离不开以下三剑客

    • Numpy
    • Pandas
    • Matplotlib

    Numpy模块

    • Numpy(Numerical Python) 是 Python 语言中做科学计算的基础库。重在于数值计算,也是大部分 Python 科学计算库的基础,多用于在大型、多维数组上执行的数值运算。

    1. Numpy的创建

    • 使用 array()创建一个一维数组

    在这里插入图片描述

    • 使用 array() 创建一个多维数组

    在这里插入图片描述

    • 使用 zero() 创建一个多维数组

    在这里插入图片描述

    • 使用 ones() 创建一个多维数组

    在这里插入图片描述

    • 使用 linspace() 创建一维的等差数列数组

    在这里插入图片描述

    • 使用 arange() 创建一维的等差数列数组

    在这里插入图片描述

    • 使用 random.randint() 创建随机的多维数组

    在这里插入图片描述

    2. Numpy的常用属性

    • shape
    • ndim
    • size
    • dtype

    在这里插入图片描述

    3. Numpy的索引和切片

    • 索引操作和列表同理

    在这里插入图片描述

    • 切片操作

    在这里插入图片描述

    4. Numpy的矩阵操作

    • 矩阵变形

    在这里插入图片描述

    • 级联操作

      • 将多个 Numpy 数组进行横向或者纵向的拼接
      • axis轴向参数
        • 0:列
        • 1:行

    在这里插入图片描述

    • 常用的聚合操作

      • sum, max, min, mean

    在这里插入图片描述

    • 常用的统计函数

      • 标准差:一组数据平均值分散程度的一种度量
      • 方差:统计中的方差是每个样本值与全体样本值的平均数之差的平方值的平均数,即 mean((x-x.mean())**2。换句话说,标准差就是方差的平方根。

    在这里插入图片描述

    Pandas模块

    1. 为什么学习Pandas

    Numpy能够帮助我们处理的是数值型的数据,而Pandas可以帮我们处理除数值型以外的其他类型数据,

    2. Pandas的数据结构

    • Series
      • 是一种类似于一维数组的对象,由下面两个部分组成:
        • values:一组数据(ndarray类型)
        • index:相关的数据索引标签
    • DataFrame
      • 是一个表格型的数据结构。其既有行索引,也有列索引。
        • 行索引:index
        • 列索引:columns
        • 值:values

    3. Series操作

    3.1 Series的创建

    在这里插入图片描述

    index用来指定显式索引,可以增强Series的可读性。

    在这里插入图片描述

    也可以使用字典作为数据源。

    在这里插入图片描述

    3.2 Series的索引和切片

    在这里插入图片描述

    3.3 Series的常用属性
    • shape
    • size
    • index
    • values
    • dtypes
      在这里插入图片描述
    3.4 Series的常用方法
    • head(), tail()
    • unique()
    • isnull(), notnull()

    在这里插入图片描述

    3.5 Series的算数运算

    索引一致的元素进行算数运算否则补空

    在这里插入图片描述

    4. DataFrame操作

    4.1 DataFrame的创建

    在这里插入图片描述

    可使用 ndarray 创建。

    在这里插入图片描述

    也可以使用字典作为数据源。

    在这里插入图片描述

    index 用来指定显式索引,可以增强 DataFrame 的可读性。

    在这里插入图片描述

    4.2 DataFrame索引和切片
    • iloc: 通过隐式索引取行

    • loc: 通过显式索引取行

    • 对行进行切片

    • 对列进行切片

    在这里插入图片描述

    4.3 DataFrame常用属性
    • shape
    • values
    • columns
    • index

    在这里插入图片描述

    4.4 DataFrame的常用方法

    同Series

    4.5 DataFrame的算数运算

    同Series

    4.6 DataFrame的级联和合并

    级联操作

    • pd.concat
    • pd.append

    接下来我们伪造两组DataFrame数据。

    在这里插入图片描述

    使用pd.concat()

    在这里插入图片描述

    • 匹配级联
      • 横向级联
    • 不匹配级联
      • 不匹配指的是级联的维度和索引不一致。例如纵向级联时列索引不一致,横向级联时行索引不一致。
      • 有两种连接方式
        • 外连接:补NaN(默认模式)
        • 内连接:只连接匹配的项

    PS:如果想要保留数据的完整性必须使用参数 join='outer'(外连接)

    使用 pd.append()

    • 只能纵向级联,并且只能外级联,不可以内级联(一般不用)。

    在这里插入图片描述

    合并操作

    pd.merge()

    • mergeconcat 的区别在于,merge 需要依据某一共同列来进行合并。
    • 使用 pd.merge() 合并时,会自动根据两者相同 column 名称的那一列作为 key 来进行合并。
    • 注意:每一列元素的顺序不要求一致

    一对一合并

    首先我们来伪造两组 DataFrame。

    在这里插入图片描述

    使用 pd.merge()

    在这里插入图片描述

    一对多合并

    首先我们来伪造两组 DataFrame。

    在这里插入图片描述

    使用 pd.merge()

    在这里插入图片描述

    多对多合并

    首先我们来伪造两组 DataFrame。

    在这里插入图片描述

    使用 pd.merge()

    在这里插入图片描述

    merge()方法还可以使用left_on参数和right_on参数哦,how这个参数也可以指定不同的连接方式。

    5. 基于Pandas的数据清洗

    5.1 为什么需要做数据清洗
    • 原始数据中可能存在缺失值(空值)
      • 这些值是没有意义的,并且会干扰我们分析结果的产生
    • 重复值
      • 重复值是没有必要多次分析和处理的
    • 异常值
      • 由于数据采集手段不同等,数据中可能会产生异常值,异常值同样会干扰我们分析结果的产生
    5.2 处理缺失值
    • 有两种缺失值:
      • None
      • np.nan(NaN)
    • 两种缺失值的区别
      • None:None对象类型
      • np.nan:浮点型

    为什么在数据分析中需要用到浮点类型的空而不是对象类型的?

    • None+1会报 TypeError,而 np.nan+1 结果是 nan。它不会干扰或者中断运算。
    • NaN可以参与运算
    • None不可以参与运算

    在Pandas中如果数据中遇到了None形式的空值则Pandas会将其强转成NaN的类型。

    缺失值处理操作

    我们来伪造一组带有缺失值的数据。

    在这里插入图片描述

    • 方法1:对缺失值进行过滤(删除空所在的行数据)

      • isnull() 搭配 any()

    在这里插入图片描述

    • notnull() 搭配 all()

    在这里插入图片描述

    • 使用 dropna()可以直接将缺失的行或者列数据进行删除

    在这里插入图片描述

    • 方法2:fillna() 对缺失值进行填充

    在这里插入图片描述

    5.3 处理重复数据

    我们来伪造一组带有重复值的数据。

    在这里插入图片描述

    • 使用drop_duplicates()

    在这里插入图片描述

    5.4 处理异常值

    异常值是什么?

    • 异常值指的是可能会对具有实质性意义的估计产生偏见或影响,并且会增加误差方差的值。

    接下来我们伪造一组带有异常值的数据。

    在这里插入图片描述

    然后我们来实现异常值的清洗。

    在这里插入图片描述

    6. Pandas高级操作

    6.1 替换操作
    • 替换操作可以同步作用于Series和DataFrame中
    • 单值替换
      • 普通替换:替换所有符合要求的元素
        • to_replace=15, value='value'
      • 按列指定单值替换
        • to_replace={列标签: 替换值}, value='value'
    • 多值替换
      • 列表替换
        • to_replace=[], value=[]
      • 字典替换(推荐)
        • to_replace={to_replace: value, to_replace: value}

    首先我们来伪造一组DataFrame。

    在这里插入图片描述

    使用 replace()

    在这里插入图片描述

    6.2 映射操作
    • 概念:创建一个映射关系列表,把values元素和一个特定的标签或者字符串绑定(给一个元素值提供不同的表现形式)
    • map是Series的方法,只能被Series调用

    首先我们来伪造一组DataFrame。

    在这里插入图片描述

    使用 map()

    在这里插入图片描述

    例:超过3000部分的薪资缴纳50%的税,计算每个人的税后薪资

    在这里插入图片描述

    6.3 分组聚合操作
    • 数据分类处理的核心:
      • groupby() 函数
      • groups 属性查看分组情况

    分组

    接下里我们伪造一组DataFrame。

    在这里插入图片描述

    使用 groupby()groups

    在这里插入图片描述

    聚合

    在这里插入图片描述

    高级数据聚合

    • 使用 groupby() 分组后,也可以使用 transform()apply() 提供自定义函数实现更多的运算
    • df.groupby('item')['price'].sum() <==> df.groupby('item')['price'].apply(sum)
    • transform()apply() 都会进行运算,在 transform() 或者 apply() 中传入函数即可
    • transform()apply() 也可以传入一个 lambda 表达式

    在这里插入图片描述

    6.4 数据加载
    • 读取csv文件数据

    在这里插入图片描述

    • 读取数据库中的数据
      在这里插入图片描述

    matplotlib模块

    • matplotlib模块可以帮助我们轻松的将数据制成图表可视化展示。

    首先我们倒入全局的模块

    在这里插入图片描述

    1. 绘制线形图

    1.1 绘制单条和多条线形图

    在这里插入图片描述

    1.2 设置坐标系的比例

    在这里插入图片描述

    1.3 设置图例

    在这里插入图片描述

    1.4 设置轴的标识

    在这里插入图片描述

    1.5 图例保存

    在这里插入图片描述

    1.6 曲线的样式和风格

    在这里插入图片描述

    还有其他多种参数的样式哦,详情请见库的源代码。

    2. 绘制柱状图

    在这里插入图片描述

    其余用法和线形图类似。

    3. 绘制直方图

    • 是一个特殊的柱状图,又叫做密度图。
    • plt.hist()的参数
      • bins:可以是一个bin数量的整数值,也可以是表示bin的一个序列。默认值为10
      • normed:如果值为True,直方图的值将进行归一化处理,形成概率密度,默认值为False
      • color:指定直方图的颜色。可以是单一颜色值或颜色的序列。如果指定了多个数据集合,例如DataFrame对象,颜色序列将会设置为相同顺序。如果未指定,将会使用一个默认的线条颜色
      • orientation:通过设置 orientationhorizontal 创建水平直方图。默认值为 vertical

    在这里插入图片描述

    其余用法和线形图类似。

    4. 绘制饼图

    • pie(),饼图也只有一个参数 x
    • 饼图适合展示各部分占总体的比例,条形图适合比较各部分的大小

    在这里插入图片描述

    其余用法和线形图类似。

    5. 散点图

    • scatter(), 因变量随自变量而变化的大致趋势

    在这里插入图片描述

    其余用法和线形图类似。



    PS:欢迎提出宝贵意见,如想询问技术问题可以留言区留言或加开发人员的微信(微信号:x118422)进行咨询~

    展开全文
  • Pands模块可以帮助数据分析师轻松地解决数据的预处理问题,如数据类型的转换、缺失值的处理、描述性统计分析、数据的汇总等。Pandas模块的核心操作对象就是序列(Series)和数据框(DataFrame)。序列可以理解为数据...
  • Python的一大应用就是数据分析了,而数据分析中,经常碰到需要处理Excel数据的情况。这里做一个Python处理Excel数据的总结,基本受用大部分情况。相信以后用Python处理Excel数据不再是难事儿!Python处理Excel数据...
  • Python数据分析初学之分析表格

    千次阅读 2022-03-29 13:13:48
    文章目录Python数据分析初学之分析表格任务要求代码实现 Python数据分析初学之分析表格 任务要求 1)使用 pandas 读取文件 data.csv 中的数据 ,创建 DataFrame 对象,并删除其中所有缺失值; 2)使用 matplotlib 生成...
  • python金融数据分析

    千次阅读 2022-01-26 11:08:04
    Python 已广泛应用于银行业、投资管理 保险业、房地产行业等金融领域用于开发金融模型、管理风险和自动完成交易。许多大型金融机构依赖 Python 来搭建职位管理、资产定价、风险管理和交易系统等基础设施。 本书将...
  • 1、Python数据分析流程及学习路径数据分析的流程概括起来主要是:读写、处理计算、分析建模和可视化四个部分。在不同的步骤中会用到不同的Python工具。每一步的主题也包含众多内容。根据每个部分需要用到的工具,...
  • 数据分析 读取excel表中的数据是要进行分析的,这时候首先应该做的是如何保存分析数据,以谁作为键,以谁作为值,是以sheet名分多个部分存储还是合在一个里面。不仅如此,使用字典还是列表等存储方式也会对数据的...
  • 第一章 python数据分析概述 本章内容 1 . 理解数据 2 . 认识数据分析 3 . 数据分析工具Python 4 . 重要的Python数据分析类库 5 . 集成开发环境和文本编辑器 6 . 使用Jupyter Notebook 1.1 Python数据分析概述1 ...
  • 基于Python数据分析

    千次阅读 2020-11-29 21:25:00
    转载 | CSDN编辑 | 雷课小雷下面来介绍一下基于Python数据分析,主要介绍数据分析的概念、数据分析流程、Python优势、常用模块的用途以及使用Python进行数据分析的学习方法及步骤;随着大数据和人工智能时代的到来...
  • 1、大数据分析框架结构 2、数据、信息与数据分析 数据:是指对客观事件进行记录并可以鉴别的符号,是对客观事物的性质、状态以及相互关系等进行记载的物理符号或这些物理符号的组合。它是可识别的、抽象的符号。 ...
  • Python/对excel进行数据分析 (mark)

    万次阅读 多人点赞 2018-12-05 16:12:01
    Python对excel进行分析 &amp;amp;amp;nbsp; 目前有一个excel表,其中里面有一个工作薄的名称为:btc,在这个工作薄中有2013年–2018年的所有交易数据,本文主要实现,将不同的年份的数据保存至新的工作薄并起名...
  • python数据分析总结一

    2021-12-05 23:18:57
    category: Python数据分析 date: 2021/12/03 一. 数据分析概述 1. 数据分析师的职责和技能栈 1.1 职责 监控数据 揪出异常 找到原因 探索趋势 1.2 技能栈 计算机科学(数据分析工具、编程语言、数据库) 数学和...
  • 在不导入其他厍的情况下,仅仅使用 pandas就可实现聚类分析离散化 C、 pandas 可以实现所有的数据预处理操作 D、 cut 函数默认情况下做的是等宽法离散化 正确答案: D 我的答案:D ...
  • 昨日,女票拿了一个Excel文档,里面有上万条数据要进行分析,刚开始一个字段分析,Excel用的不错,还能搞定,到后来两个字段的分析,还有区间比如年龄段的数据分析,实在是心疼的不行,于是就想给她程序处理之。...
  • 系列一:《python数据分析基础与实践》 章节1Python概况 课时2Python简介 章节2Python安装 课时3安装Anaconda 课时4使用Anaconda 章节3数据准备 课时5数据类型 – 布尔型 课时6数据类型 – 数值型 课时7数据类型 – ...
  • ---------------------------Python数据分析与挖掘实战(第2版)---------------------------前言基础篇第1章 数据挖掘基础 21.1 某知名连锁餐饮企业的困惑 21.2 从餐饮服务到数据挖掘 41.3 数据挖掘的基本任务 ...
  • Python数据分析与可视化的学习,重在实操,空谈语法毫无意义。 本课程着重讲解数据分析与可视化工具的实操应用,结合实战案例,带你边学边练,重点知识充分理解。 四大案例结合实际场景,帮助你加深记忆,并且在...
  • Python数据分析之数据统计

    千次阅读 2021-08-17 10:41:06
    Excel 的数据分析功能中提供了数据抽样的功能,如下图所示。Python 通过 sample 函数完成数据采样。 2、数据抽样 Sample 是进行数据采样的函数,设置 n 的数量就可以了。函数自动返回参与的结果。 1#简单的数据采样 ...
  • python对excel数据分析常用功能 (一文学会如何用Python实现excel基础功能) 本文主要应用pandas包完成,先加载pandas包 import pandas as pd 1、excel数据读取 data = pd.read_excel(r"C:\\Users\\Desktop\\test....
  • Python 中常用数据分析

    千次阅读 2021-02-11 09:58:59
    Python 是常用是数据分析工具,常用的数据分析库有很多,下面主要介绍如下五个分析库:NumPy、Pandas、SciPy、StatsModels、Matplotlib。 NumPy NumPy 是一个非常常用的数据分析库,更准确点说是一个数学计算库,...
  • Python数据分析之csv文件

    千次阅读 2022-04-22 10:21:55
    Python数据分析之csv文件
  • 在开始使用 python 进行数据导入前需要先导入 pandas 库,为了方便起见,我们也同时导入 numpy 库。 1 import numpy as np 2 import pandas as pd 导入数据表 下面分别是从 excel 和 csv 格式文件导入数据
  • python数据分析和数据可视化总结

    千次阅读 2021-03-13 08:51:05
    python数据分析和数据可视化总结数据分析数据和信息什么是数据分析数据分析的目的数据分析过程Numpy和Pandas如何利用Pandas读取文件如何利用Pandas写入数据到新文件使用jieba提炼关键字词jieba分词有三种模式text...
  • Python是进行数据分析的一种很不错的语言,主要是因为以数据为中心的库非常适合。 Pandas是其中的一种,使导入和分析数据更加容易。 在本文中,我使用了来分析斯坦福网站的公共数据集中的Country Data.csv文件中的...
  • Python 数据分析概述

    2021-04-17 16:38:00
    1、认识数据分析 1.1 数据分析概念 数据分析是指用适当的分析方法对收集来的大量数据进行分析,提取有用信息和形成结论,对数据加以详细研究和概括总结的过程。 广义的数据挖掘包括狭义数据分析和数据挖掘。狭义的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 59,325
精华内容 23,730
关键字:

python表格数据分析