精华内容
下载资源
问答
  • 原标题:用Python做数据分析有哪些优势?在大数据的浪潮下,许多行业都开始运用数据来指导各项商业决策的实施。那么我们应该如何进行数据分析呢?这个时候Python出现在我们的眼前,作为数据分析的一大利器,它与其他...

    原标题:用Python做数据分析有哪些优势?

    在大数据的浪潮下,许多行业都开始运用数据来指导各项商业决策的实施。那么我们应该如何进行数据分析呢?这个时候Python出现在我们的眼前,作为数据分析的一大利器,它与其他数据分析工具的差别又在哪里呢?下面我们就来看看,做数据分析时使用Python的优势,除了它自身语言简洁高效易上手的优点,还有它身上具备了许多工具都没有的强大性能。

    48c702c6450d447b8951dfd70b5eaea0.jpeg

    1、Python自身的优势。

    Python简单易学可读性强,一段好的代码,阅读起来像是在读一篇外语文章,可以使你只关心完成什么工作任务,而不是纠结于Python语法。除此之外,它还拥有非常多优秀的库可用于数据分析,目前超过125,000的第三方Python库,对于像pandas,NumPy和matplotlib这样以数据为中心的库,任何懂Python语法规则的人都可以操作部署。最重要的是它是免费开源的!!

    2、Python与其他数据分析工具的对比。

    (1)Python处理Excel表格,是通过调用模块,处理这些数据并生成报表。相比Excel,Python能够处理更大的数据集;能够更容易的实现自动化分析;能够比较容易的建立复杂的机器学习模型。

    (2)相比spss,spss是个统计软件,只适合在科学研究领域做实验数据的分析,并不适合做偏向实际应用场景的数据的分析;而Python能够处理复杂的数据逻辑,因此在这些场景的使用更有优势。

    (3)相比R语言,Python的机器学习库只有一个sklearn ,所有的机器学习方法都集中在这一个库中,而R语言,我不清楚它到底有多少个用来做机器学习的库,R语言中的机器学习方法是如此的分散,以至于很难掌握。而且Python的使用人数在不断上升,有一些曾经只使用R的人在转向Python,投入到一个呈现上升趋势的技术中,未来才会更加宽广。

    (4)相比上述的几个工具,,Python在做机器学习、网络爬虫、大数据分析时更加的得心应手。目前很多数据科学方面的应用都可以轻松使用Python实现。包括数据搜集,清洗,整理,可视化,机器学习,人工智能,开发,运维等。所以光一个Python就可以做到全套服务。

    看了这么多Python在使用数据分析时的优势,大家心动了吗?心动不如行动,现在就开始学习Python吧~掌握了这一个利器,大家就可以下数据的海洋里游刃有余的遨游。返回搜狐,查看更多

    责任编辑:

    展开全文
  • def linear_regression(X, Y): #solve linear system X^TXY = XB beta=np.linalg.solve(X.T.dot(X),X.T.dot(Y)) return beta
  • Python新手入门教程_教你怎么用Python做数据分析 跟大家讲了这么多期的Python教程,有小伙伴在学Python新手教程的时候说学Python比较复杂的地方就是资料太多了,比较复杂。很多网上的资料都是从语法教起的,花了很多...

    Python新手入门教程_教你怎么用Python做数据分析

    跟大家讲了这么多期的Python教程,有小伙伴在学Python新手教程的时候说学Python比较复杂的地方就是资料太多了,比较复杂。很多网上的资料都是从语法教起的,花了很多时间还是云里雾里,摸不清方向。很多激情饱满的小伙伴卡在了Python新手入门的前一步。

    Python新手入门教程_教你怎么用Python做数据分析
    别着急嘛,激情还是要有的,坚持是要继续的,学习哪是一朝一夕的事情呢!!!

    可别丧,坚持住,我来帮大家捋一捋头绪,捋一捋思路!帮助大家提高学习效率!

    三大板块:
    两组Python基础术语
    如何实现爬虫
    如何做数据分析

    1.两大Python基础术语

    A.变量和赋值

    Python可以直接定义变量名字并进行赋值的,例如我们写出a = 4时,Python解释器干了两件事情:

    • 在内存中创建了一个值为4的整型数据
    • 在内存中创建了一个名为a的变量,并把它指向4

    用一张示意图表示Python变量和赋值的重点:
    在这里插入图片描述

    Python新手入门教程_教你怎么用Python做数据分析
    例如下图代码,“=”的作用就是赋值,同时Python会自动识别数据类型:

    a=4 #整型数据
    b=2 #整型数据
    c=“4” #字符串数据
    d=“2” #字符串数据
    print(“a+b结果为”,a+b)#两个整数相加,结果是6
    print(“c+d结果为”,c+d)#两个文本合并,结果是文本“42”
    #以下为运行结果
    >>>a+b结果为 6
    >>>c+d结果为 42
    

    B.数据类型

    在初级的数据分析过程中,有三种数据类型是很常见的:

    • 列表list(Python内置)
    • 字典dic(Python内置)
    • DataFrame(工具包pandas下的数据类型,需要import pandas才能调用)

    它们分别是这么写的:

    列表(list):

    #列表
    liebiao=[1,2.223,-3,'刘强东','章泽天','周杰伦','昆凌',['微博','B站','抖音']]
    

    list是一种有序的集合,里面的元素可以是之前提到的任何一种数据格式和数据类型(整型、浮点、列表……),并可以随时指定顺序添加其中的元素,其形式是:

    #ist是一个可变的有序表,所以,可以往list中追加元素到末尾:
    liebiao.append('瘦')
    ptint(liebiao)
    #结果1
    >>>[1, 2.223, -3, '刘强东', '章泽天', '周杰伦', '昆凌', ['微博', 'B站', '抖音'], '瘦']
    #也可以把元素插入到指定的位置,比如索引号为5的位置,插入“胖”这个元素:
    liebiao.insert(5, '胖')
    ptint(liebiao)
    #结果2
    >>>[1, 2.223, -3, '刘强东', '章泽天', '胖', '周杰伦', '昆凌', ['微博', 'B站', '抖音'], '瘦']
    

    字典(dict):

    #字典
    zidian={'刘强东':'46','章泽天':'36','周杰伦':'40','昆凌':'26'}
    

    字典使用键-值(key-value)存储,无序,具有极快的查找速度。以上面的字典为例,想要快速知道周杰伦的年龄,就可以这么写:

    zidian['周杰伦']
    >>>'40'
    

    dict内部存放的顺序和key放入的顺序是没有关系的,也就是说,"章泽天"并非是在"刘强东"的后面。

    DataFrame:

    DataFrame可以简单理解为excel里的表格格式。导入pandas包后,字典和列表都可以转化为DataFrame,以上面的字典为例,转化为DataFrame是这样的:

    import pandas as pd
    df=pd.DataFrame.from_dict(zidian,orient='index',columns=['age'])#注意DataFrame的D和F是大写
    df=df.reset_index().rename(columns={'index':'name'})#给姓名加上字段名
    

    在这里插入图片描述

    和excel一样,DataFrame的任何一列或任何一行都可以单独选出进行分析。

    是不是有很多东西在学Python新手入门教程的时候不懂的,在这里悟了一些呢!
    以上三种数据类型是python数据分析中用的最多的类型,基础语法到此结束,接下来就可以着手写一些函数计算数据了。

    2.从Python爬虫来学循环函数

    掌握了以上基本语法概念,我们就足以开始学习一些有趣的函数。我们以爬虫中绕不开的遍历url为例,讲讲大家最难理解的循环函数for的用法:

    for函数

    for函数是一个常见的循环函数,先从简单代码理解for函数的用途:

    zidian={'刘强东':'46','章泽天':'36','周杰伦':'40','昆凌':'26'}
    for key in zidian:
     print(key)
    >>>
    刘强东
    章泽天
    周杰伦
    昆凌
    

    因为dict的存储不是按照list的方式顺序排列,所以,迭代出的结果顺序很可能不是每次都一样。默认情况下,dict迭代的是key。如果要迭代value,可以用for value in d.values(),如果要同时#迭代key和value,可以用for k, v in d.items()

    可以看到,字典里的人名被一一打印出来了。**for 函数的作用就是用于遍历数据。**掌握for函数,可以说是真正入门了Python函数。

    爬虫和循环

    for函数在书写Python爬虫中经常被应用,因为爬虫经常需要遍历每一个网页,以获取信息,所以构建完整而正确的网页链接十分关键。以某票房数据网为例,他的网站信息长这样:
    在这里插入图片描述
    在这里插入图片描述

    该网站的周票房json数据地址可以通过抓包工具找到,网址为http://www.cbooo.cn/BoxOffice/getWeekInfoData?sdate=20190114

    仔细观察,该网站不同日期的票房数据网址(url)只有后面的日期在变化,访问不同的网址(url)就可以看到不同日期下的票房数据:
    在这里插入图片描述
    我们要做的是,遍历每一个日期下的网址,用Python代码把数据爬下来。此时for函数就派上用场了,使用它我们可以快速生成多个符合条件的网址:

    import pandas as pd
    url_df = pd.DataFrame({'urls':['http://www.cbooo.cn/BoxOffice/getWeekInfoData?sdate=' for i in range(5)],'date' :pd.date_range(20190114,freq = 'W-MON',periods = 5)})
    '''
    将网址相同的部分生成5次,并利用pandas的时间序列功能生成5个星期一对应的日期。
    其中用到了第一部分提供的多个数据类型:
    range(5)属于列表,
    'urls':[]属于字典,
    pd.dataframe属于dataframe
    '''
    url_df['urls'] = url_df['urls'] + url_df['date'].astype('str')
    

    滑动滑块可以看到完整代码和中间的注释。
    在这里插入图片描述
    为了方便理解,我给大家画了一个for函数的遍历过程示意图:
    在这里插入图片描述
    此处省略掉后续爬取过程,相关爬虫代码见文末。我们使用爬虫爬取了5800+条数据,包含20个字段,时间囊括了从2008年1月开始至2019年2月十一年期间的单周票房、累计票房、观影人次、场均人次、场均票价、场次环比变化等信息。

    3. 用Python实现数据分析?

    除了爬虫,分析数据也是Python的重要用途之一,Excel能做的事,Python究竟怎么实现呢;Excel不能做的事,Python又是否能实现呢?利用电影票房数据,我们分别举一个例子说明:

    Python分析
    在做好数据采集和导入后,选择字段进行初步分析可以说是数据分析的必经之路。在Dataframe数据格式的帮助下,这个步骤变得很简单。

    比如当我们想看单周票房第一的排名分别都是哪些电影时,可以使用pandas工具库中常用的方法,筛选出周票房为第一名的所有数据,并保留相同电影中周票房最高的数据进行分析整理:

    import pandas as pd
    data = pd.read_csv('中国票房数据爬取测试20071-20192.csv',engine='python')
    data[data['平均上座人数']>20]['电影名']
    #计算周票房第一随时间变化的结果,导入数据,并选择平均上座人数在20以上的电影为有效数据
    dataTop1_week = data[data['排名']==1][['电影名','周票房']]
    #取出周票房排名为第一名的所有数据,并保留“电影名”和“周票房”两列数据
    dataTop1_week = dataTop1_week.groupby('电影名').max()['周票房'].reset_index()
    #用“电影名”来分组数据,相同电影连续霸榜的选择最大的周票房保留,其他数据删除
    dataTop1_week = dataTop1_week.sort_values(by='周票房',ascending=False)
    #将数据按照“周票房”进行降序排序
    dataTop1_week.index = dataTop1_week['电影名']
    del dataTop1_week['电影名']
    #整理index列,使之变为电影名,并删掉原来的电影名列
    dataTop1_week
    #查看数据
    

    在这里插入图片描述
    9行代码,我们完成了Excel里的透视表、拖动、排序等鼠标点击动作。最后再用Python中的可视化包matplotlib,快速出图:

    在这里插入图片描述
    在这里插入图片描述
    函数化分析
    以上是一个简单的统计分析过程。接下来就讲讲Excel基础功能不能做的事——自定义函数提效。观察数据可以发现,数据中记录了周票房和总票房的排名,那么刚刚计算了周票房排名的代码,还能不能复用做一张总票房分析呢?
    在这里插入图片描述

    当然可以,只要使用def函数和刚刚写好的代码建立自定义函数,并说明函数规则即可:

    def pypic(pf):
    
    #定义一个pypic函数,变量是pf
    
    dataTop1_sum = data[['电影名',pf]]
    
    #取出源数据中,列名为“电影名”和pf两列数据
    
    dataTop1_sum = dataTop1_sum.groupby('电影名').max()[pf].reset_index()
    
    #用“电影名”来分组数据,相同电影连续霸榜的选择最大的pf票房保留,其他数据删除
    
    dataTop1_sum = dataTop1_sum.sort_values(by=pf,ascending=False)
    
    #将数据按照pf进行降序排序
    
    dataTop1_sum.index = dataTop1_sum['电影名']
    
    del dataTop1_sum['电影名']
    
    #整理index列,使之变为电影名,并删掉原来的电影名列
    
    dataTop1_sum[:20].iloc[::-1].plot.barh(figsize = (6,10),color = 'orange')
    
    name=pf+'top20分析'
    
    plt.title(name)
    
    #根据函数变量名出图
    

    定义函数后,批量出图so easy:

    在这里插入图片描述
    在这里插入图片描述
    学会函数的构建,一个数据分析师才算真正能够告别Excel的鼠标点击模式,迈入高效分析的领域。

    学Python新手入门教程的同时认真看一下这篇文章,相信很多东西你会恍然大悟。

    【注】本篇文章参考自微信公众号:小詹学Python,此公众号定期会分享Python相关学习教程。

    展开全文
  • 最近几年,大数据的发展程度越来越明显,很多企业由于使用了大数据分析使得企业朝着更好的方向发展,这就导致的数据分析行业的人才开始稀缺起来,对于数据分析这个工作中,是需要学会...那么使用Python做数据分析...
        
    13825820-b1adac0b493bf635.jpg

    最近几年,大数据的发展程度越来越明显,很多企业由于使用了大数据分析使得企业朝着更好的方向发展,这就导致的数据分析行业的人才开始稀缺起来,对于数据分析这个工作中,是需要学会一些编程语言的,比如MATLAB,Python,Java等语言。对于初学者来说,Python是一个不错的语言,Python语言简单易懂,同时对于大数据分析有很明显的帮助。那么使用Python做数据分析的优点是什么呢?一般来说就是简单易学、语言通用、存在科学计算活跃区域等等。

    首先说说Python的第一个优点,那就是简单易学。很多学过Java的朋友都知道,Python语法简单的多,代码十分容易被读写,最适合刚刚入门的朋友去学习。我们在处理数据的时候,一般都希望数据能够转化成可运算的数字形式,这样,不管是没学过编程的人还是学过编程的人都能够看懂这个数据。

    Python在数据分析和交互、探索性计算以及数据可视化等方面都显得比较活跃,这就是Python作为数据分析的原因之一,python拥有numpy、matplotlib、scikit-learn、pandas、ipython等工具在科学计算方面十分有优势,尤其是pandas,在处理中型数据方面可以说有着无与伦比的优势,已经成为数据分析中流砥柱的分析工具。

    13825820-6d45a876dba5da28.jpg

    Python也具有强大的编程能力,这种编程语言不同于R或者matlab,python有些非常强大的数据分析能力,并且还可以利用Python进行爬虫,写游戏,以及自动化运维,在这些领域中有着很广泛的应用,这些优点就使得一种技术去解决所有的业务服务问题,这就充分的体现的Python有利于各个业务之间的融合。如果使用Python,能够大大的提高数据分析的效率。

    python是人工智能时代的通用语言

    Python对于如今火热的人工智能也有一定的帮助,这是因为人工智能需要的是即时性,而Python是一种非常简洁的语言,同时有着丰富的数据库以及活跃的社区,这样就能够轻松的提取数据,从而为人工智能做出优质的服务。

    通过上面的描述,想必大家已经知道了使用Python做数据分析的优点是什么了吧,Python语言得益于它的简单方便使得在大数据、数据分析以及人工智能方面都有十分明显的存在感,对于数据分析从业者以及想要进入数据分析从业者的人来说,简单易学容易上手的优势也是一个优势,所以,要做好数据分析,一定要学会Python语言。

    展开全文
  • 一文看懂怎么 Python 做数据分析

    万次阅读 多人点赞 2019-04-16 17:18:38
    作者 | 蓝鲸网站分析博客来源|http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-ex...
        

    作者 | 蓝鲸网站分析博客

    来源 | http://bluewhale.cc/2017-04-21/use-python-for-data-analysis-like-excel-3.html

    常遇到两类朋友。一类是会爬虫但不知道如何进一步做数据分析的,一类是平常用 Excel 做分析但不太会用 Python 分析的。如果和你很像,那下面这篇系统长文会很适合你,建议先收藏

    Excel 是数据分析中最常用的工具,本文通过 Python 与 excel 的功能对比介绍如何使用 Python 通过函数式编程完成 excel 中的数据处理及分析工作。从 1787 页的 pandas 官网文档中总结出最常用的 36 个函数,通过这些函数介绍如何通过 Python 完成数据生成和导入、数据清洗、预处理、数据分类、数据筛选、分类 汇总、透视等最常见的操作。

    文章内容共分为 9 个部分目录如下:

    640?wx_fmt=png
    目录

    01 生成数据表

    第一部分是生成数据表,常见的生成方法有两种,第一种是导入外部数据,第二种是直接写入数据。 Excel 中的文件菜单中提供了获取外部数据的功能,支持数据库和文本文件和页面的多种数据源导入。

    640?wx_fmt=png
    获取外部数据

    python 支持从多种类型的数据导入。在开始使用 python 进行数据导入前需要先导入 pandas 库,为了方便起见,我们也同时导入 numpy 库。

    1import numpy as np
    2import pandas as pd

    导入数据表

    下面分别是从 excel 和 csv 格式文件导入数据并创建数据表的方法。代码是最简模式,里面有很多可选参数设置,例如列名称,索引列,数据格式等等。感兴趣的朋友可以参考 pandas 的
    官方文档。

    1df=pd.DataFrame(pd.read_csv('name.csv',header=1))
    2df=pd.DataFrame(pd.read_excel('name.xlsx'))

    创建数据表

    另一种方法是通过直接写入数据来生成数据表,excel 中直接在单元格中输入数据就可以,python 中通过下面的代码来实现。生成数据表的函数是 pandas 库中的 DateFrame 函数,数据表一共有 6 行数据,每行有 6 个字段。在数据中我们特意设置了一些 NA 值和有问题的字段,例如包含空格等。后面将在数据清洗步骤进行处理。后面我们将统一以 DataFrame 的简称 df 来命名数据表。

    1df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
    2                   "date":pd.date_range('20130102', periods=6),
    3                   "city":['Beijing ''SH'' guangzhou ''Shenzhen''shanghai''BEIJING '],
    4                   "age":[23,44,54,32,34,32],
    5                   "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
    6                   "price":[1200,np.nan,2133,5433,np.nan,4432]},
    7                   columns =['id','date','city','category','age','price'])

    这是刚刚创建的数据表,我们没有设置索引列,price 字段中包含有 NA 值,city 字段中还包含了一些脏数据。

    640?wx_fmt=png
    df

    02 数据表检查

    第二部分是对数据表进行检查,python 中处理的数据量通常会比较大,比如我们之前的文章中介绍的纽约出租车数据和 Citibike 的骑行数据,数据量都在千万级,我们无法一目了然的 了解数据表的整体情况,必须要通过一些方法来获得数据表的关键信息。数据表检查的另一个目的是了解数据的概况,例如整个数据表的大小,所占空间,数据格式,是否有空值和重复项和具体的数据内容。为后面的清洗和预处理做好准备。

    数据维度(行列)

    Excel 中可以通过 CTRL+向下的光标键,和 CTRL+向右的光标键来查看行号和列号。Python 中使用 shape 函数来查看数据表的维度,也就是行数和列数,函数返回的结果(6,6)表示数据表有 6 行,6 列。下面是具体的代码。

    1#查看数据表的维度
    2df.shape
    3(66)

    数据表信息

    使用 info 函数查看数据表的整体信息,这里返回的信息比较多,包括数据维度,列名称,数据格式和所占空间等信息。

     1#数据表信息
    2df.info()
    3
    4<class 'pandas.core.frame.DataFrame'>
    5RangeIndex:
     6 entries, 0 to 5
    6Data columns (total 6 columns):
    7id          6 non-null int64
    8date        6 non-null datetime64[ns]
    9city        6 non-null object
    10category    6 non-null object
    11age         6 non-null int64
    12price       4 non-null float64
    13dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
    14memory usage: 368.0+ bytes

    查看数据格式

    Excel 中通过选中单元格并查看开始菜单中的数值类型来判断数据的格式。Python 中使用 dtypes 函数来返回数据格式。

    640?wx_fmt=png

    Dtypes 是一个查看数据格式的函数,可以一次性查看数据表中所有数据的格式,也可以指定一列来单独查看。

     1#查看数据表各列格式
    2df.dtypes
    3
    4id                   int64
    5date        datetime64[ns]
    6city                object
    7category            object
    8age                  int64
    9price              float64
    10dtype: object
    11
    12#查看单列格式
    13df['B'].dtype
    14
    15dtype('int64')

    查看空值

    Excel 中查看空值的方法是使用“定位条件”功能对数据表中的空值进行定位。“定位条件”在“开始”目录下的“查找和选择”目录中。

    640?wx_fmt=png
    查看空值

    Isnull 是 Python 中检验空值的函数,返回的结果是逻辑值,包含空值返回 True,不包含则返回 False。可以对整个数据表进行检查,也可以单独对某一列进行空值检查。

    1#检查数据空值
    2df.isnull()
    640?wx_fmt=png
    df_isnull
     1#检查特定列空值
    2df['price'].isnull()
    3
    40    False
    51     True
    62    False
    73    False
    84     True
    95    False
    10Name: price, dtype: bool

    查看唯一值

    Excel 中查看唯一值的方法是使用“条件格式”对唯一值进行颜色标记。Python 中使用 unique 函数查看唯一值。

    640?wx_fmt=png
    查看唯一值

    Unique 是查看唯一值的函数,只能对数据表中的特定列进行检查。下面是代码,返回的结果是该列中的唯一值。类似与 Excel 中删除重复项后的结果。

    1#查看 city 列中的唯一值
    2df['city'].unique()
    3
    4array(['Beijing ''SH'' guangzhou ''Shenzhen''shanghai''BEIJING '], dtype=object)

    查看数据表数值

    Python 中的 Values 函数用来查看数据表中的数值。以数组的形式返回,不包含表头信息。

     1#查看数据表的值
    2df.values
    3
    4array([[1001, Timestamp('2013-01-02 00:00:00'), 'Beijing ''100-A'23,
    5        1200.0],
    6       [1002, Timestamp('2013-01-03 00:00:00'), 'SH''100-B'44, nan],
    7       [1003, Timestamp('2013-01-04 00:00:00'), ' guangzhou ''110-A'54,
    8        2133.0],
    9       [1004, Timestamp('2013-01-05 00:00:00'), 'Shenzhen''110-C'32,
    10        5433.0],
    11       [1005, Timestamp('2013-01-06 00:00:00'), 'shanghai''210-A'34,
    12        nan],
    13       [1006, Timestamp('2013-01-07 00:00:00'), 'BEIJING ''130-F'32,
    14        4432.0]], dtype=object)

    查看列名称

    Colums 函数用来单独查看数据表中的列名称。

    1#查看列名称
    2df.columns
    3
    4Index(['id''date''city''category''age''price'], dtype='object')

    查看前 10 行数据

    Head 函数用来查看数据表中的前 N 行数据,默认 head()显示前 10 行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看前 3 行的数据。

    1`#查看前 3 行数据``df.head(``3``)`


    640?wx_fmt=png
    df_head(3)

    查看后 10 行数据

    Tail 行数与 head 函数相反,用来查看数据表中后 N 行的数据,默认 tail()显示后 10 行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看后 3 行的数据。

    1`#查看最后 3 行``df.tail(``3``)`
    640?wx_fmt=png
    df_tail(3)

    03 数据表清洗

    第三部分是对数据表中的问题进行清洗。主要内容包括对空值,大小写问题,数据格式和重复值的处理。这里不包含对数据间的逻辑验证。

    处理空值(删除或填充)

    我们在创建数据表的时候在 price 字段中故意设置了几个 NA 值。对于空值的处理方式有很多种,可以直接删除包含空值的数据,也可以对空值进行填充,比如用 0 填充或者用均值填充。还可以根据不同字段的逻辑对空值进行推算。

    Excel 中可以通过“查找和替换”功能对空值进行处理,将空值统一替换为 0 或均值。也可以通过“定位”空值来实现。

    640?wx_fmt=png
    查找和替换空值

    Python 中处理空值的方法比较灵活,可以使用 Dropna 函数用来删除数据表中包含空值的数据,也可以使用 fillna 函数对空值进行填充。下面的代码和结果中可以看到使用 dropna 函数后,包含 NA 值的两个字段已经不见了。返回的是一个不包含空值的数据表。

    1#删除数据表中含有空值的行
    2df.dropna(how='any')
    640?wx_fmt=png
    df_dropna

    除此之外也可以使用数字对空值进行填充,下面的代码使用 fillna 函数对空值字段填充数字 0。

    1#使用数字 0 填充数据表中空值
    2df.fillna(value=0)

    我们选择填充的方式来处理空值,使用 price 列的均值来填充 NA 字段,同样使用 fillna 函数,在要填充的数值中使用 mean 函数先计算 price 列当前的均值,然后使用这个均值对 NA 进行填
    充。可以看到两个空值字段显示为 3299.5

     1#使用 price 均值对 NA 进行填充
    2df['price'].fillna(df['price'].mean())
    3
    40    1200.0
    51    3299.5
    62    2133.0
    73    5433.0
    84    3299.5
    95    4432.0
    10Name: price, dtype: float64

    640?wx_fmt=png
    df_nan

    清理空格

    除了空值,字符中的空格也是数据清洗中一个常见的问题,下面是清除字符中空格的代码。

    1#清除 city 字段中的字符空格
    2df['city']=df['city'].map(str.strip)

    大小写转换

    在英文字段中,字母的大小写不统一也是一个常见的问题。Excel 中有 UPPER,LOWER 等函数,python 中也有同名函数用来解决大小写的问题。在数据表的 city 列中就存在这样的问题。我们将 city 列的所有字母转换为小写。下面是具体的代码和结果。

    1#city 列大小写转换
    2df['city']=df['city'].str.lower()
    640?wx_fmt=png
    lower

    更改数据格式

    Excel 中通过“设置单元格格式”功能可以修改数据格式。Python 中通过 astype 函数用来修改数据格式。

    640?wx_fmt=png
    设置单元格格式

    Python 中 dtype 是查看数据格式的函数,与之对应的是 astype 函数,用来更改数据格式。下面的代码中将 price 字段的值修改为 int 格式。

     1#更改数据格式
    2df['price'].astype('int')
    3
    40    1200
    51    3299
    62    2133
    73    5433
    84    3299
    95    4432
    10Name: price, dtype: int32

    更改列名称

    Rename 是更改列名称的函数,我们将来数据表中的 category 列更改为 category-size。下面是具体的代码和更改后的结果。

    1#更改列名称
    2df.rename(columns={'category''category-size'})
    640?wx_fmt=png
    df_rename

    删除重复值

    很多数据表中还包含重复值的问题,Excel 的数据目录下有“删除重复项”的功能,可以用来删除数据表中的重复值。默认 Excel 会保留最先出现的数据,删除后面重复出现的数据。

    640?wx_fmt=png
    删除重复项

    Python 中使用 drop_duplicates 函数删除重复值。我们以数据表中的 city 列为例,city 字段中存在重复值。默认情况下 drop_duplicates()将删除后出现的重复值(与 excel 逻辑一致)。增加 keep=’last’参数后将删除最先出现的重复值,保留最后的值。下面是具体的代码和比较结果。

    原始的 city 列中 beijing 存在重复,分别在第一位和最后一位。

    1df['city']
    20      beijing
    31           sh
    42    guangzhou
    53     shenzhen
    64     shanghai
    75      beijing
    8Name: city, dtype: object

    使用默认的 drop_duplicates()函数删除重复值,从结果中可以看到第一位的 beijing 被保留,最后出现的 beijing 被删除。

    1#删除后出现的重复值
    2df['city'].drop_duplicates()
    30      beijing
    41           sh
    52    guangzhou
    63     shenzhen
    74     shanghai
    8Name: city, dtype: object

    设置 keep=’last‘’参数后,与之前删除重复值的结果相反,第一位出现的 beijing 被删除,保留了最后一位出现的 beijing。

    1#删除先出现的重复值
    2df['city'].drop_duplicates(keep='last')
    31           sh
    42    guangzhou
    53     shenzhen
    64     shanghai
    75      beijing
    8Name: city, dtype: objec

    数值修改及替换

    数据清洗中最后一个问题是数值修改或替换,Excel 中使用“查找和替换”功能就可以实现数值的替换。

    640?wx_fmt=png
    查找和替换空值

    Python 中使用 replace 函数实现数据替换。数据表中 city 字段上海存在两种写法,分别为 shanghai 和 SH。我们使用 replace 函数对 SH 进行替换。

    1#数据替换
    2df['city'].replace('sh''shanghai')
    30      beijing
    41     shanghai
    52    guangzhou
    63     shenzhen
    74     shanghai
    85      beijing
    9Name: city, dtype: object

    本篇文章这是系列的第二篇,介绍第 4-6 部分的内容,数据表生成,数据表查看,和数据清洗。

    640?wx_fmt=png
    4-6 目录

    04 数据预处理

    第四部分是数据的预处理,对清洗完的数据进行整理以便后期的统计和分析工作。主要包括数据表的合并,排序,数值分列,数据分
    组及标记等工作。

    数据表合并

    首先是对不同的数据表进行合并,我们这里创建一个新的数据表 df1,并将 df 和 df1 两个数据表进行合并。在 Excel 中没有直接完成数据表合并的功能,可以通过 VLOOKUP 函数分步实现。在 python 中可以通过 merge 函数一次性实现。下面建立 df1 数据表,用于和 df 数据表进行合并。

    1#创建 df1 数据表
    2df1=pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
    3"gender":['male','female','male','female','male','female','male','female'],
    4"pay":['Y','N','Y','Y','N','Y','N','Y',],
    5"m-point":[10,12,20,40,40,40,30,20]})
    640?wx_fmt=png
    df1

    使用 merge 函数对两个数据表进行合并,合并的方式为 inner,将两个数据表中共有的数据匹配到一起生成新的数据表。并命名为 df_inner。

    1#数据表匹配合并,inner 模式
    2df_inner=pd.merge(df,df1,how='inner')
    640?wx_fmt=png
    df_inner

    除了 inner 方式以外,合并的方式还有 left,right 和 outer 方式。这几种方式的差别在我其他的文章中有详细的说明和对比。

    1#其他数据表匹配模式
    2df_left=pd.merge(df,df1,how='left')
    3df_right=pd.merge(df,df1,how='right')
    4df_outer=pd.merge(df,df1,how='outer')

    设置索引列

    完成数据表的合并后,我们对 df_inner 数据表设置索引列,索引列的功能很多,可以进行数据提取,汇总,也可以进行数据筛选等。
    设置索引的函数为 set_index。

    1#设置索引列
    2df_inner.set_index('id')
    640?wx_fmt=png
    df_inner_set_index

    排序(按索引,按数值)

    Excel 中可以通过数据目录下的排序按钮直接对数据表进行排序,比较简单。Python 中需要使用 ort_values 函数和 sort_index 函数完成排序。

    640?wx_fmt=png
    排序

    在 python 中,既可以按索引对数据表进行排序,也可以看制定列的数值进行排序。首先我们按 age 列中用户的年龄对数据表进行排序。
    使用的函数为 sort_values。

    1#按特定列的值排序
    2df_inner.sort_values(by=['age'])
    640?wx_fmt=png
    sort_values

    Sort_index 函数用来将数据表按索引列的值进行排序。

    1#按索引列排序
    2df_inner.sort_index()
    640?wx_fmt=png
    sort_index

    数据分组

    Excel 中可以通过 VLOOKUP 函数进行近似匹配来完成对数值的分组,或者使用“数据透视表”来完成分组。相应的 python 中使用 where 函数完成数据分组。

    Where 函数用来对数据进行判断和分组,下面的代码中我们对 price 列的值进行判断,将符合条件的分为一组,不符合条件的分为另一组,并使用 group 字段进行标记。

    1#如果 price 列的值>3000,group 列显示 high,否则显示 low
    2df_inner['group'] = np.where(df_inner['price'] > 3000,'high','low')
    640?wx_fmt=png
    where

    除了 where 函数以外,还可以对多个字段的值进行判断后对数据进行分组,下面的代码中对 city 列等于 beijing 并且 price 列大于等于 4000 的数据标记为 1。

    1#对复合多个条件的数据进行分组标记
    2df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000), 'sign']=1
    640?wx_fmt=png
    sign

    数据分列

    与数据分组相反的是对数值进行分列,Excel 中的数据目录下提供“分列”功能。在 python 中使用 split 函数实现分列。

    640?wx_fmt=png
    数据分列

    在数据表中 category 列中的数据包含有两个信息,前面的数字为类别 id,后面的字母为 size 值。中间以连字符进行连接。我们使用 split 函数对这个字段进行拆分,并将拆分后的数据表匹配回原数据表中。

    1#对 category 字段的值依次进行分列,并创建数据表,索引值为 df_inner 的索引列,列名称为 category 和 size
    2pd.DataFrame((x.split('-'for x in df_inner['category']),index=df_inner.index,columns=['category','size'])
    640?wx_fmt=png
    split
    1#将完成分列后的数据表与原 df_inner 数据表进行匹配
    2df_inner=pd.merge(df_inner,split,right_index=True, left_index=True)
    640?wx_fmt=png
    merge_1

    05 数据提取

    第五部分是数据提取,也是数据分析中最常见的一个工作。这部分主要使用三个函数,loc,iloc 和 ix,loc 函数按标签值进行提取,iloc 按位置进行提取,ix 可以同时按标签和位置进行提取。下面介绍每一种函数的使用方法。

    按标签提取(loc)

    Loc 函数按数据表的索引标签进行提取,下面的代码中提取了索引列为 3 的单条数据。

     1#按索引提取单行的数值
    2df_inner.loc[3]
    3id 1004
    4date 2013-01-05 00:00:00
    5city shenzhen
    6category 110-C
    7age 32
    8price 5433
    9gender female
    10m-point 40
    11pay Y
    12group high
    13sign NaN
    14category_1 110
    15size C
    16Name: 3, dtype: object

    使用冒号可以限定提取数据的范围,冒号前面为开始的标签值,后面为结束的标签值。下面提取了 0 到 5 的数据行。

    1#按索引提取区域行数值
    2df_inner.loc[0:5]
    640?wx_fmt=png
    df_inner_loc1

    Reset_index 函数用于恢复索引,这里我们重新将 date 字段的日期设置为数据表的索引,并按日期进行数据提取。

    1#重设索引
    2df_inner.reset_index()
    640?wx_fmt=png
    reset_index
    1#设置日期为索引
    2df_inner=df_inner.set_index('date')
    640?wx_fmt=png
    set_index_date

    使用冒号限定提取数据的范围,冒号前面为空表示从 0 开始。提取所有 2013 年 1 月 4 日以前的数据。

    1#提取 4 日之前的所有数据
    2df_inner[:'2013-01-04']
    640?wx_fmt=png
    按提起提取

    按位置提取(iloc)

    使用 iloc 函数按位置对数据表中的数据进行提取,这里冒号前后的数字不再是索引的标签名称,而是数据所在的位置,从 0 开始。

    1#使用 iloc 按位置区域提取数据
    2df_inner.iloc[:3,:2]
    640?wx_fmt=png
    iloc1

    iloc 函数除了可以按区域提取数据,还可以按位置逐条提取,前面方括号中的 0,2,5 表示数据所在行的位置,后面方括号中的数表示所在列的位置。

    1#使用 iloc 按位置单独提取数据
    2df_inner.iloc[[0,2,5],[4,5]]
    640?wx_fmt=png
    iloc2

    按标签和位置提取(ix)

    ix 是 loc 和 iloc 的混合,既能按索引标签提取,也能按位置进行数据提取。下面代码中行的位置按索引日期设置,列按位置设置。

    1#使用 ix 按索引标签和位置混合提取数据
    2df_inner.ix[:'2013-01-03',:4]
    640?wx_fmt=png
    ix

    按条件提取(区域和条件值)

    除了按标签和位置提起数据以外,还可以按具体的条件进行数据。下面使用 loc 和 isin 两个函数配合使用,按指定条件对数据进行提取 。

    使用 isin 函数对 city 中的值是否为 beijing 进行判断。

     1#判断 city 列的值是否为 beijing
    2df_inner['city'].isin(['beijing'])
    3
    4date
    52013-01-02 True
    62013-01-05 False
    72013-01-07 True
    82013-01-06 False
    92013-01-03 False
    102013-01-04 False
    11Name: city, dtype: bool

    将 isin 函数嵌套到 loc 的数据提取函数中,将判断结果为 Ture 数据提取出来。这里我们把判断条件改为 city 值是否为 beijing 和 shanghai。如果是就把这条数据提取出来。

    1#先判断 city 列里是否包含 beijing 和 shanghai,然后将复合条件的数据提取出来。
    2df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]
    640?wx_fmt=png
    loc 按筛选条件提取

    数值提取还可以完成类似数据分列的工作,从合并的数值中提取出制定的数值。

     1category=df_inner['category']
    20 100-A
    33 110-C
    45 130-F
    54 210-A
    61 100-B
    72 110-A
    8Name: category, dtype: object
    9
    10#提取前三个字符,并生成数据表
    11pd.DataFrame(category.str[:3])
    640?wx_fmt=png
    category_str

    06 数据筛选

    第六部分为数据筛选,使用与,或,非三个条件配合大于,小于和等于对数据进行筛选,并进行计数和求和。与 excel 中的筛选功能和 countifs 和 sumifs 功能相似。

    按条件筛选(与,或,非)

    Excel 数据目录下提供了“筛选”功能,用于对数据表按不同的条件进行筛选。Python 中使用 loc 函数配合筛选条件来完成筛选功能。配合 sum 和 count 函数还能实现 excel 中 sumif 和 countif 函数的功能。

    640?wx_fmt=png
    筛选

    使用“与”条件进行筛选,条件是年龄大于 25 岁,并且城市为 beijing。筛选后只有一条数据符合要求。

    1#使用“与”条件进行筛选
    2df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']]
    640?wx_fmt=png

    使用“或”条件进行筛选,年龄大于 25 岁或城市为 beijing。筛选后有 6 条数据符合要求。

    1#使用“或”条件筛选
    2df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']].sort
    3(['age'])
    640?wx_fmt=png

    在前面的代码后增加 price 字段以及 sum 函数,按筛选后的结果将 price 字段值进行求和,相当于 excel 中 sumifs 的功能。

    1#对筛选后的数据按 price 字段进行求和
    2df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'),
    3['id','city','age','category','gender','price']].sort(['age']).price.sum()
    4
    519796

    使用“非”条件进行筛选,城市不等于 beijing。符合条件的数据有 4 条。将筛选结果按 id 列进行排序。

    1#使用“非”条件进行筛选
    2df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id'])
    640?wx_fmt=png

    在前面的代码后面增加 city 列,并使用 count 函数进行计数。相当于 excel 中的 countifs 函数的功能。

    1#对筛选后的数据按 city 列进行计数
    2df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id']).city.count()
    34

    还有一种筛选的方式是用 query 函数。下面是具体的代码和筛选结果。

    1#使用 query 函数进行筛选
    2df_inner.query('city == ["beijing", "shanghai"]')
    640?wx_fmt=png
    query

    在前面的代码后增加 price 字段和 sum 函数。对筛选后的 price 字段进行求和,相当于 excel 中的 sumifs 函数的功能。

    1#对筛选后的结果按 price 进行求和
    2df_inner.query('city == ["beijing", "shanghai"]').price.sum()
    312230

    这是第三篇,介绍第 7-9 部分的内容,数据汇总,数据统计,和数据输出。


    640?wx_fmt=png
    7-9 目录

    07  数据汇总

    第七部分是对数据进行分类汇总,Excel 中使用分类汇总和数据透视可以按特定维度对数据进行汇总,python 中使用的主要函数是 groupby 和 pivot_table。下面分别介绍这两个函数的使用方法。

    分类汇总

    Excel 的数据目录下提供了“分类汇总”功能,可以按指定的字段和汇总方式对数据表进行汇总。Python 中通过 Groupby 函数完成相应的操作,并可以支持多级分类汇总。

    640?wx_fmt=png
    分类汇总 1

    Groupby 是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby 按列名称出现的顺序进行分组。同时要制定分组后的汇总方式,常见的是计数和求和两种。

    1#对所有列进行计数汇总
    2df_inner.groupby('city').count()
    640?wx_fmt=png
    groupby

    可以在 groupby 中设置列名称来对特定的列进行汇总。下面的代码中按城市对 id 字段进行汇总计数。

    1#对特定的 ID 列进行计数汇总
    2df_inner.groupby('city')['id'].count()
    3city
    4beijing 2
    5guangzhou 1
    6shanghai 2
    7shenzhen 1
    8Name: id, dtype: int64

    在前面的基础上增加第二个列名称,分布对 city 和 size 两个字段进行计数汇总。

     1#对两个字段进行汇总计数
    2df_inner.groupby(['city','size'])['id'].count()
    3city size
    4beijing A 1
    51
    6guangzhou A 1
    7shanghai A 1
    81
    9shenzhen C 1
    10Name: id, dtype: int64

    除了计数和求和外,还可以对汇总后的数据同时按多个维度进行计算,下面的代码中按城市对 price 字段进行汇总,并分别计算 price 的数量,总金额和平均金额。

    1#对 city 字段进行汇总并计算 price 的合计和均值。
    2df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])
    640?wx_fmt=png
    groupby1

    数据透视

    Excel 中的插入目录下提供“数据透视表”功能对数据表按特定维度进行汇总。Python 中也提供了数据透视表功能。通过 pivot_table 函数实现同样的效果。

    640?wx_fmt=png
    数据透视

    数据透视表也是常用的一种数据分类汇总方式,并且功能上比 groupby 要强大一些。下面的代码中设定 city 为行字段,size 为列字段,price 为值字段。分别计算 price 的数量和金额并且按行与列进行汇总。

    1#数据透视表
    2pd.pivot_table(df_inner,index=["city"],values=["price"],columns=["size"],aggfunc=[len,np.sum],fill_value=0,margins=True)
    640?wx_fmt=png
    pivot_table

    08 数据统计

    第九部分为数据统计,这里主要介绍数据采样,标准差,协方差和相关系数的使用方法。

    数据采样

    Excel 的数据分析功能中提供了数据抽样的功能,如下图所示。Python 通过 sample 函数完成数据采样。

    640?wx_fmt=png
    数据抽样

    Sample 是进行数据采样的函数,设置 n 的数量就可以了。函数自动返回参与的结果。

    1#简单的数据采样
    2df_inner.sample(n=3)


    640?wx_fmt=png
    简单随机采样

    Weights 参数是采样的权重,通过设置不同的权重可以更改采样的结果,权重高的数据将更有希望被选中。这里手动设置 6 条数据的权重值。将前面 4 个设置为 0,后面两个分别设置为 0.5。

    1#手动设置采样权重
    2weights = [00000.50.5]
    3df_inner.sample(n=2, weights=weights)
    640?wx_fmt=png
    手动设置采样权重 1

    从采样结果中可以看出,后两条权重高的数据被选中。

    640?wx_fmt=png
    手动设置采样权重 2

    Sample 函数中还有一个参数 replace,用来设置采样后是否放回。

    1#采样后不放回
    2df_inner.sample(n=6, replace=False)
    640?wx_fmt=png
    采样后不放回
    1#采样后放回
    2df_inner.sample(n=6, replace=True)
    640?wx_fmt=png
    采样后放回

    描述统计

    Excel 中的数据分析中提供了描述统计的功能。Python 中可以通过 Describe 对数据进行描述统计。

    640?wx_fmt=png
    描述统计

    Describe 函数是进行描述统计的函数,自动生成数据的数量,均值,标准差等数据。下面的代码中对数据表进行描述统计,并使用 round 函数设置结果显示的小数位。并对结果数据进行转置。

    1#数据表描述性统计
    2df_inner.describe().round(2).T
    640?wx_fmt=png
    describe

    标准差
    Python 中的 Std 函数用来接算特定数据列的标准差。

    1#标准差
    2df_inner['price'].std()
    31523.3516556155596

    协方差
    Excel 中的数据分析功能中提供协方差的计算,python 中通过 cov 函数计算两个字段或数据表中各字段间的协方差。

    640?wx_fmt=png
    协方差

    Cov 函数用来计算两个字段间的协方差,可以只对特定字段进行计算,也可以对整个数据表中各个列之间进行计算。

    1#两个字段间的协方差
    2df_inner['price'].cov(df_inner['m-point'])
    317263.200000000001
    640?wx_fmt=png
    cov

    相关分析
    Excel 的数据分析功能中提供了相关系数的计算功能,python 中则通过 corr 函数完成相关分析的操作,并返回相关系数。

    640?wx_fmt=png
    相关系数

    Corr 函数用来计算数据间的相关系数,可以单独对特定数据进行计算,也可以对整个数据表中各个列进行计算。相关系数在-1 到 1 之间,接近 1 为正相关,接近-1 为负相关,0 为不相关。

    1#相关性分析
    2df_inner['price'].corr(df_inner['m-point'])
    30.77466555617085264
    4
    5#数据表相关性分析
    6df_inner.corr()
    640?wx_fmt=png
    corr

    09 数据输出

    第九部分是数据输出,处理和分析完的数据可以输出为 xlsx 格式和 csv 格式。

    写入 excel

    1#输出到 excel 格式
    2df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')
    640?wx_fmt=png
    excel

    写入 csv

    1#输出到 CSV 格式
    2df_inner.to_csv('excel_to_python.csv')

    在数据处理的过程中,大部分基础工作是重复和机械的,对于这部分基础工作,我们可以使用自定义函数进行自动化。以下简单介绍对数据表信息获取自动化处理。

     1#创建数据表
    2df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
    3"date":pd.date_range('20130102', periods=6),
    4"city":['Beijing ''SH'' guangzhou ''Shenzhen''shanghai''BEIJING '],
    5"age":[23,44,54,32,34,32],
    6"category":['100-A','100-B','110-A','110-C','210-A','130-F'],
    7"price":[1200,np.nan,2133,5433,np.nan,4432]},
    8columns =['id','date','city','category','age','price'])
    9
    10#创建自定义函数
    11def table_info(x):
    12    shape=x.shape
    13    types=x.dtypes
    14    colums=x.columns
    15    print("数据维度(行,列):\n",shape)
    16    print("数据格式:\n",types)
    17    print("列名称:\n",colums)
    18
    19#调用自定义函数获取 df 数据表信息并输出结果
    20table_info(df)
    21
    22数据维度(行,列):
    23(66)
    24数据格式:
    25id int64
    26date datetime64[ns]
    27city object
    28category object
    29age int64
    30price float64
    31dtype: object
    32列名称:
    33Index(['id''date''city''category''age''price'], dtype='object')

    以上就是用 Python 做数据分析的基本内容。





    /今日留言主题/

    你用 Python 主要做什么,数据分析多么?

    (留言格式:Dayxx:blahblah)

    展开全文
  • 用python做数据分析 安装包一次到位 pip install numpy pandas scipy matplotlib sklearn lxml re requests bs4 tushare seaborn
  • 下面我们就来看看,做数据分析使用Python的优势,除了它自身语言简洁高效易上手的优点,还有它身上具备了许多工具都没有的强大性能。  1、Python自身的优势。  Python简单易学可读性强,一段好的代码,...
  • 用python做数据分析(行列转换)

    千次阅读 2018-01-25 12:20:08
    python行列转换 reshape是有问题的,因为这是根据一个顺序的数进行遍历的 但是,下面这个函数就有了对应的操作 C:\Users\Administrator>python Python 3.5.4 (v3.5.4:3f56838, Aug 8 2017, 02:17:05) [MSC ...
  • Linux下用python做数据分析的环境配置

    千次阅读 2017-07-27 01:08:30
    虽然python在linux系统中是默认安装的,但是python默认的解释器并不支持tab补全,所以推荐使用ipython。 sudo apt-get install ipython Vim 安装 当练习的时候不想使用太大的IDE怎么办?强大的vim帮助我们直接...
  • 如果你对数据分析有所了解,一定听说过一些亲民的工具 如Excel、Tableau、PowerBI等,都能成为数据分析的得力助手。 但它们的不足也是显而易见的: 操作繁琐,复用性差,功能相对局限单一。 怎么解决呢?——Python...
  • Python数据分析实例

    万次阅读 多人点赞 2019-06-14 22:13:37
    Python数据分析 Python爬取网页数据
  • python数据分析

    万次阅读 多人点赞 2018-07-22 19:43:44
    python绘图、python数据分析、python库、股票分析
  • 利用python做数据分析书中的数据集

    千次阅读 2019-01-08 13:43:40
    利用python做数据分析的数据集 参考这个项目,很全免费 https://github.com/wen-fei/PythonForDataAnalysis
  • python做数据分析实例

    千次阅读 热门讨论 2017-10-08 19:02:24
    本文用到的数据在评论区留下邮箱即可。 本文通过对美国枪杀数据的探索,综合运用python做一些数据的提取和统计
  • 系列一:《python数据分析基础与实践》 章节1Python概况 课时2Python简介 章节2Python安装 课时3安装Anaconda 课时4使用Anaconda 章节3数据准备 课时5数据类型 – 布尔型 课时6数据类型 – 数值型 课时7数据类型 – ...
  • Python能够这么火其中一个重要的原因是数据分析带起来的。Python的优点有很多,要是能运用到工作中,会发现工作的效率大大提升,当然涨薪也是再正常不过的事情。互联网公司很多人都喜欢...
  • Python数据分析与机器学习实战

    万人学习 2017-01-24 10:18:45
    Python数据分析与机器学习实战教程,该课程精心挑选真实的数据集为案例,通过python数据科学库numpy,pandas,matplot结合机器学习库scikit-learn完成一些列的机器学习案例。课程以实战为基础,所有课时都结合代码演示...
  • 不过你知道如何利用Python做数据分析吗?需要学习哪些知识?下面就给大家讲解一下。 与数据分析相关的Python库很多,比如Numpy、pandas、matplotlib、scipy等,数据分析的操作包括数据的导入和导出、数据筛选、数据...
  • 伴随着移动互联网的飞速发展,越来越多用户被互联网连接在一起,用户所积累下来的数据越来越多,市场对数据方面人才的需求也越来越大,数据分析、数据挖掘、算法......已然成为当前炙手可热的热...
  • python做数据分析怎么样?

    千次阅读 2018-08-01 09:50:43
    用python做数据分析是一件再合适不过的事情,我们举个简单的例子。 例如收集数据的方法是使用问卷,实验软件(例如,PsychoPy,OpenSesame)和观察。 当问卷和实验软件使用数字应用程序时,我们当然也会以数字文件...
  • Python 数据相关性分析

    万次阅读 多人点赞 2018-04-25 15:09:49
    可能是此增彼涨,或者是负相关,也可能是没有关联,那么我们就需要一种能把这种关联性定量的工具来对数据进行分析,从而给我们的决策提供支持,本文即介绍如何使用 Python 进行数据相关性分析。 关键词 python 方差...
  • 基于Python数据分析

    万次阅读 多人点赞 2019-02-25 15:50:02
    下面来介绍一下基于Python数据分析,主要介绍数据分析的概念、数据分析流程、Python优势、常用模块的用途以及使用 Python进行数据分析的学习方法及步骤; 随着大数据和人工智能时代的到来,网络和信息技术开始...
  • Python金融数据分析入门到实战

    万人学习 2019-09-26 17:08:33
    以Python为编程语言 解锁3大主流数据分析工具 Python金融具有先天优势,课程提取了Python数据分析工具NumPy、Pandas及可视化工具Matplotlib的关键点详细讲解,帮助同学掌握数据分析的关键技能。 2大购课福利
  • 用Python做数据商品情感分析(商品评论数据情感分析) 现在,我们得到了一些关于XX商品的评论信息的数据,我们需要对这些评论信息的数据进行情感分析分析步骤 机械压缩去词 短句过滤 情感分析 分词处理(jieba...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 584,753
精华内容 233,901
关键字:

如何用python做数据分析

python 订阅