• Beautiful Souphttp://beautifulsoup.readthedocs.io/zh_CN/latest/Beautiful Soup 是一个可以从HTML或XML文件中提取数据Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.requests...

    Beautiful Soup

    http://beautifulsoup.readthedocs.io/zh_CN/latest/

    Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.

    requests
    http://docs.python-requests.org/zh_CN/latest/index.html
    Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。


    展开全文
  • python地理位置处理python地理编码地址以及用来处理经纬度的GeoDjango – 世界级地理图形 web 框架。GeoIP – MaxMind GeoIP Legacy 数据库的Python API。geojson – GeoJSON 的 Python 绑定及工具。geopy – ...

    http://blog.csdn.net/pipisorry/article/details/52205266

    python地理位置处理

    python地理编码地址以及用来处理经纬度的库

    GeoDjango – 世界级地理图形 web 框架。
    GeoIP – MaxMind GeoIP Legacy 数据库的Python API。
    geojson – GeoJSON 的 Python 绑定及工具。
    geopy – Python 地址编码工具箱。
    pygeoip – 纯 Python GeoIP API。
    django-countries – 一个 Django应用程序,提供用于表格的国家选择功能,国旗图标静态文件以及模型中的国家字段。

    其它:

    shapely,是geos的python封装,而geos是jts的c++移植版本。

    python地理数据处理相关代码

    [Python计算地图上两点经纬度间的距离]

    皮皮blog



    Python 地址编码工具箱geopy

    geopy is a Python 2 and 3 client for several popular geocoding web services.
    geopy makes it easy for Python developers to locate the coordinates of addresses, cities, countries, and landmarks across the globe using third-party geocoders and other data sources.
    geopy includes geocoder classes for the OpenStreetMap Nominatim, ESRI ArcGIS, Google Geocoding API (V3), Baidu Maps, Bing Maps API, Mapzen Search, Yandex, IGN France, GeoNames, NaviData, OpenMapQuest, What3Words, OpenCage, SmartyStreets, geocoder.us, and GeocodeFarm geocoder services. The various geocoder classes are located in geopy.geocoders.

    安装

    pip install geopy

    基本使用

    Note: 函数参数都是纬度latitude在前,经度longitude在后

    查询地名转换为具体地址和经纬度Geocoding

    To geolocate a query to an address and coordinates:
    >>> from geopy.geocoders import Nominatim
    >>> geolocator = Nominatim()
    >>> location = geolocator.geocode("175 5th Avenue NYC")
    >>> print(location.address)
    Flatiron Building, 175, 5th Avenue, Flatiron, New York, NYC, New York, ...
    >>> print((location.latitude, location.longitude))
    (40.7410861, -73.9896297241625)
    >>> print(location.raw)
    {'place_id': '9167009604', 'type': 'attraction', ...}
    To find the address corresponding to a set of coordinates:

    >>> from geopy.geocoders import Nominatim
    >>> geolocator = Nominatim()
    >>> location = geolocator.reverse("52.509669, 13.376294")
    >>> print(location.address)
    Potsdamer Platz, Mitte, Berlin, 10117, Deutschland, European Union
    >>> print((location.latitude, location.longitude))
    (52.5094982, 13.3765983)
    >>> print(location.raw)
    {'place_id': '654513', 'osm_type': 'node', ...}

    计算两地距离Measuring Distance

    通过经纬度计算两地距离的两种方法。Geopy can calculate geodesic distance between two points using the Vincenty distance or great-circle distance formulas, with a default of Vincenty available as the class geopy.distance.distance, and the computed distance available as attributes (e.g., miles, meters,kilometers,etc.).

    输入数据类型可以是tuple, list, array...,元素类型可以是float, str...

    Vincenty distance

    >>> from geopy.distance import vincenty
    >>> newport_ri = (41.49008, -71.312796)
    >>> cleveland_oh = (41.499498, -81.695391)
    >>> print(vincenty(newport_ri, cleveland_oh).miles)
    538.3904451566326

    Vincenty distance (vincenty) uses a more accurate ellipsoidal modelof the earth. This is the default distance formula, and is thus aliased asdistance.distance. There are multiple popular ellipsoidal models, andwhich one will be the most accurate depends on where your points are locatedon the earth. The default is the WGS-84 ellipsoid, which is the most globallyaccurate. geopy includes a few othermodels in the distance.ELLIPSOIDS dictionary:

                  model             major (km)   minor (km)     flattening
    ELLIPSOIDS = {'WGS-84':        (6378.137,    6356.7523142,  1 / 298.257223563),
                  'GRS-80':        (6378.137,    6356.7523141,  1 / 298.257222101),
                  'Airy (1830)':   (6377.563396, 6356.256909,   1 / 299.3249646),
                  'Intl 1924':     (6378.388,    6356.911946,   1 / 297.0),
                  'Clarke (1880)': (6378.249145, 6356.51486955, 1 / 293.465),
                  'GRS-67':        (6378.1600,   6356.774719,   1 / 298.25),
                  }
    

    You can change the ellipsoid model used by the Vincenty formula like so:

    >>> distance.vincenty(ne, cl, ellipsoid='GRS-80').miles
    

    The above model name will automatically be retrieved from theELLIPSOIDS dictionary. Alternatively, you can specify the model valuesdirectly:

    >>> distance.vincenty(ne, cl, ellipsoid=(6377., 6356., 1 / 297.)).miles
    

    [class geopy.distance.vincenty(*args, **kwargs)]

    [https://en.wikipedia.org/wiki/Vincenty’s_formulae]

    great-circle distance

    >>> from geopy.distance import great_circle
    >>> newport_ri = (41.49008, -71.312796)
    >>> cleveland_oh = (41.499498, -81.695391)
    >>> print(great_circle(newport_ri, cleveland_oh).miles)
    537.1485284062816

    [class geopy.distance.great_circle(*args, **kwargs)]

    [https://en.wikipedia.org/wiki/Great-circle_distance]

    两种经纬度距离度量方法的区别

    Vincenty's formulae are two related iterative methods used in geodesy to calculate the distance between two points on the surface of a spheroid, developed by Thaddeus Vincenty (1975a) They are based on the assumption that the figure of the Earth is an oblate spheroid(扁球形体), and hence are more accurate than methods such as great-circle distance which assume a spherical(球状的) Earth.

    [What's the difference between vincenty and great circle distance calculations?]

    计算出错

    TypeError: __new__() takes from 1 to 4 positional arguments but 5 were given

    可能是某个坐标的维度不对,如[[ ]]二维就不对,应该是[]或者()。

    ValueError: Vincenty formula failed to converge!

    vincenty算法可以不收敛,可能是因为中间有一些三角函数的计算是通过迭代计算出来的,超过最大迭代次数就当作不收敛了。the basic iterative technique for the inverse method is just Vincenty (regular + his antipodal method); so it may fail to converge in some cases.

    Examples where the solution of the inverse problem fails to converge:

    lat1 lon1  lat2 lon2
         0.7   0   -0.3 179.7
         2.2   0   -1.8 179.6
         2.3   0   -2.0 179.6
    

    [Talk:Geodesics on an ellipsoid]

    def c():
        from geopy import distance
        xs = [[0.7, 0], [2.2, 0], [2.3, 0], [12, 45]]
        ys = [[-0.3, 179.7], [-1.8, 179.6], [-2.0, 179.6], [25, 65]]
        for x, y in zip(xs, ys):
            try:
                d = distance.vincenty(x, y)
                print(d)
            except:
                print('error')

    [Python - Vincenty's inverse formula not converging (Finding distance between points on Earth)]

    设置很大的迭代次数也不会收敛:

    d = distance.vincenty(x, y, iterations = 1000000)

    解决:
    It may be preferable to use  :class:`.great_circle`, which is marginally less accurate, but always produces a result.

    [https://github.com/geopy/geopy/pull/144/files]

    [geopy documents]

    [geopy/geopy]

    from: http://blog.csdn.net/pipisorry/article/details/52205266

    ref: 


    展开全文
  • python作为解释性语言,在数据处理方面拥有强大的函数以及第三方,excel作为主要基础数据源之一,在利用数据进行分析前往往需要预先对数据进行整理。因此,本文就python处理excel数据进行了学习,主要分为python...

    概述

    Excel固然功能强大,也有许多函数实现数据处理功能,但是Excel仍需大量人工操作,虽然能嵌入VB脚本宏,但也容易染上宏病毒。python作为解释性语言,在数据处理方面拥有强大的函数库以及第三方库,excel作为主要基础数据源之一,在利用数据进行分析前往往需要预先对数据进行整理。因此,本文就python处理excel数据进行了学习,主要分为python对excel数据处理的常用数据类型以及常用函数,用python语言实现excel基本操作。
    在这里插入图片描述在这里插入图片描述


    常用数据类型序列sequence, 列表list, 元组tuple, array,字典dictionary,series,dataframe,集合set区别

    序列

    首先,序列是是Python中最基本的数据结构。序列中的每个元素都分配一个数字 - 它的位置,或索引,第一个索引是0,第二个索引是1,依此类推。每个索引对应一个元素。Python包含 6 中内建的序列,包括列表、元组、字符串、Unicode字符串、buffer对象和xrange对象。
    对于序列,都可以使用以下操作:

    • 索引
    • 切片
    • 成员检查
    • 计算序列的长度
    • 取序列中的最大、最小值

    列表list

    概述用途

    • 一组有序项目的集合。可变的数据类型【可进行增删改查】
    • 列表是以方括号“[]”包围的数据集合,不同成员以“,”分隔。
    • 列表中可以包含任何数据类型,也可包含另一个列表
    • 列表可通过序号访问其中成员

    声明方式

    example = [0,1,2,3,4,5,6,7,8,9]  
    

    API

    Python列表脚本操作符

    在这里插入图片描述

    Python列表函数

    在这里插入图片描述

    Python列表方法

    在这里插入图片描述

    切片

    #列表操作补充--切片操作  
    example = [0,1,2,3,4,5,6,7,8,9]  
    #打印某一区间 左闭右开  
    print(example[4:8])  
    #想包含最后一个  
    print(example[4:])  
    #包含首个  
    print(example[:8])  
    #所有的  
    print(example[:])  
    #第三个参数为步长  
    print(example[1:8:2])  
    #倒序输出  
    print(example[::-1])  
    #列表合并  
    a = [1,2,3]  
    b = [4,5,6]  
    print(a+b)  
    #替换  
    ex = [1,2,3,4,5,6]  
    ex[4:]=[9,8,7]  
    print(ex)#将56换为987
    

    判断列表中

    >>> list4=[123,["das","aaa"],234]
    >>> list4
    >>> "aaa" in list4 #in只能判断一个层次的元素
    False
    >>> "aaa" in list4[1] #选中列表中的列表进行判断
    True
    >>> list4[1][1]
    'aaa'
    

    元组tuple

    概述用途

    • 不可变序列
    • 元组是以圆括号“()”包围的数据集合,不同成员以“,”分隔
    • 与列表不同:元组中数据一旦确立就不能改变
    • 通过下标进行访问

    声明方式

    L=(1,2,3)
    含0个元素的元组: L = ()
    

    元组操作

    访问元组

    >>> o =('a','b','c',('d1','d2')) 
    >>> print o[0]
    >>> print o[3][0]
    a
    d1
    
    >>> age=22
    >>> name='sandra'
    >>> print'%s is %d years old'%(name,age)
    sandra is 22 years old
    

    修改元组
    (元组中的元素值是不允许修改的,但我们可以对元组进行连接组合,如下实例)

    tup1 = (12, 34.56);
    tup2 = ('abc', 'xyz');
    # 以下修改元组元素操作是非法的。
    # tup1[0] = 100;
    # 创建一个新的元组
    tup3 = tup1 + tup2;
    print tup3;
    

    添加元组

    #通过切片方法添加
    a=(1,2,3,4,5,6)
    a=a[:2]+(10,)+a[2:]
    a
    

    删除元素

    del tup1
    
    

    API

    元组运算符

    与字符串一样,元组之间可以使用 + 号和 * 号进行运算。这就意味着他们可以组合和复制,运算后会生成一个新的元组。
    在这里插入图片描述

    元组内置函数

    在这里插入图片描述

    字典dictionary

    概述用途

    • 字典是另一种可变容器模型,且可存储任意类型对象。

    • 字典的每个键值(key=>value)对用冒号(:)分割,每个对之间用逗号(,)分割,整个字典包括在花括号({})中

    声明方式

    d = {key1 : value1, key2 : value2 }
    //键必须是唯一的,但值则不必。
    //值可以取任何数据类型,但键必须是不可变的,如字符串,数字或元组。
    

    字典操作

    访问字典里的值

    dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'};
    dict['Name']
    dict['Age']
    

    修改字典

    dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'};
    dict['Age'] = 8; 
    dict['School'] = "DPS School"
    

    删除字典元素
    能删单一的元素也能清空字典,清空只需一项操作。

    显示删除一个字典用del命令,如下实例:

    dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'};
    del dict['Name']; # 删除键是'Name'的条目
    dict.clear();     # 清空词典所有条目
    del dict ;        # 删除词典
    
    

    API

    字典内置函数

    在这里插入图片描述

    字典内置方法

    在这里插入图片描述

    ndarray(数组)–numpy

    概述用途

    python中的list是python的内置数据类型,list中的数据类不必相同的,而array的中的类型必须全部相同。在list中的数据类型保存的是数据的存放的地址,简单的说就是指针,并非数据,这样保存一个list就太麻烦了,例如list1=[1,2,3,‘a’]需要4个指针和四个数据,增加了存储和消耗cpu。numpy中封装的array有很强大的功能,里面存放的都是相同的数据类型
    1)numpy array 必须有相同数据类型属性 ,Python list可以是多种数据类型的混合
    2)numpy array有一些方便的函数
    3)numpy array数组可以是多维的

    声明方式

    np.array用来创建ndarray类型

    b=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]])  
    

    API

    series-pandas

    概述用途

    class pandas.Series(data = None,index = None,dtype = None,name = None,copy = False,fastpath = False )

    带轴标签的一维ndarray(包括时间序列)。

    标签不一定是唯一的,但必须是可清洗的类型。该对象支持基于整数和基于标签的索引,并提供了许多方法来执行涉及索引的操作。来自ndarray的统计方法已被覆盖,以自动排除缺失的数据(目前表示为NaN)。

    Series(+, - ,/ , *)之间的操作根据其关联的索引值对齐值 - 它们不必是相同的长度。结果索引将是两个索引的排序并集。

    声明

    Python列表,index与列表元素个数一致

    
    In [1]: import pandas as pd
    ​
    In [2]: list_a = [2,4,5,6]
    ​
    In [3]: pd.Series(list_a)
    Out[3]:
    0    2
    1    4
    2    5
    3    6
    dtype: int64
    

    标量值,index表达Series类型的尺寸

    
    In [4]: pd.Series(1,index = [1,2,3])
    Out[4]:
    1    1
    2    1
    3    1
    dtype: int64
    

    Python字典,键值对中的“键”是索引,index从字典中进行选择操作

    In [5]: pd.Series({'a':1,'b':3})
    Out[5]:
    a 1
    b 3
    dtype: int64
    #如果定义的index在原字典中已经存在,那么该索引会一直对应原字典的值,如果index对应不到原字典的值,则会返回NaN
    In [11]: pd.Series({'a':1,'b':3},index = ['b','a','c'])
    Out[11]:
    b 3.0
    a 1.0
    c NaN
    dtype: float64
    

    ndarray,索引和数据都可以通过ndarray类型创建

    In [9]: list_b = np.arange(6)
    ​
    In [10]: pd.Series(list_b)
    Out[10]:
    0    0
    1    1
    2    2
    3    3
    4    4
    5    5
    dtype: int32
    

    其他函数,range()函数等

    In [12]: pd.Series(range(3))
    Out[12]:
    0    0
    1    1
    2    2
    dtype: int32
    

    series操作

    Series类型包括index和values两部分

    In [14]: a = pd.Series({'a':1,'b':5}) 
    In [15]: a.index 
    Out[15]: Index(['a', 'b'], dtype='object') 
    
    In [16]: a.values #返回一个多维数组numpy对象 
    Out[16]: array([1, 5], dtype=int64)
    

    Series类型的操作类似ndarray类型

    #自动索引和自定义索引并存,但不能混用
     In [17]: a[0] #自动索引 
    Out[17]: 1 
    #自定义索引 
    In [18]: a['a'] 
    Out[18]: 1 
    #不能混用
    In [20]: a[['a',1]] 
    Out[20]: 
    a 1.0 
    1 NaN 
    dtype: float64
    

    Series类型的操作类似Python字典类型

    #通过自定义索引访问
    #对索引保留字in操作,值不可以
    In [21]: 'a' in a
    Out[21]: True
    ​
    In [22]: 1 in a
    Out[22]: False
    

    Series类型在运算中会自动对齐不同索引的数据

    In [29]: a = pd.Series([1,3,5],index = ['a','b','c']) 
    In [30]: b = pd.Series([2,4,5,6],index = ['c,','d','e','b'])
     In [31]: a+b 
    Out[31]: 
    a NaN 
    b 9.0 
    c NaN 
    c, NaN
    d NaN 
    e NaN 
    

    Series对象可以随时修改并即刻生效

    In [32]: a.index = ['c','d','e'] 
    In [33]: a 
    Out[33]: 
    c 1 
    d 3
     e 5 
    dtype: int64 
    In [34]: a+b 
    Out[34]: 
    b NaN 
    c NaN
    c, NaN 
    d 7.0 
    e 10.0
    dtype: float64
    

    dataframe-pandas

    概述用途

    DataFrame提供的是一个类似表的结构,由多个Series组成,而Series在DataFrame中叫columns

    声明方式

    import pandas as pd
    from pandas import Series, DataFrame
    import numpy as np
    data = DataFrame(np.arange(15).reshape(3,5),index=['one','two','three'],columns=['a','b','c','d','e'])
    print data
    
            a   b   c   d   e
    one     0   1   2   3   4
    two     5   6   7   8   9
    three  10  11  12  13  14
    

    array

    import pandas as pd
    import numpy as np
    s1=np.array([1,2,3,4])
    s2=np.array([5,6,7,8])
    df=pd.DataFrame([s1,s2])
    print df
    

    在这里插入图片描述

    series列表(效果与二维array相同)

    import pandas as pd
    import numpy as np
    s1=pd.Series(np.array([1,2,3,4]))
    s2=pd.Series(np.array([5,6,7,8]))
    df=pd.DataFrame([s1,s2])
    print df
    

    在这里插入图片描述

    value为Series的字典结构

    import pandas as pd
    import numpy as np
    
    s1=pd.Series(np.array([1,2,3,4]))
    s2=pd.Series(np.array([5,6,7,8]))
    df=pd.DataFrame({"a":s1,"b":s2});
    print df
    

    在这里插入图片描述

    操作

    直接取值df.[]

    df=pd.DataFrame({"A":[1,2,3,4],"B":[5,6,7,8],"C":[1,1,1,1]})
    df=df[df.A>=2]
    print df
    

    使用.loc[]

    df=pd.DataFrame({"A":[1,2,3,4],"B":[5,6,7,8],"C":[1,1,1,1]})
    df=df.loc[df.A>2]
    print df
    

    .ix[]索引

    print df.columns.size#列数 2
    print df.iloc[:,0].size#行数 3 
    print df.ix[[0]].index.values[0]#索引值 0
    print df.ix[[0]].values[0][0]#第一行第一列的值 11
    print df.ix[[1]].values[0][1]#第二行第二列的值 121
    

    API

    group(groupby 形成group)

    df = pd.DataFrame({'animal': 'cat dog cat fish dog cat cat'.split(),
                      'size': list('SSMMMLL'),
                      'weight': [8, 10, 11, 1, 20, 12, 12],
                      'adult' : [False] * 5 + [True] * 2});
    #列出动物中weight最大的对应size
    group=df.groupby("animal").apply(lambda subf: subf['size'][subf['weight'].idxmax()])
    print group
    

    在这里插入图片描述
    使用get_group 取出其中一分组

    df = pd.DataFrame({'animal': 'cat dog cat fish dog cat cat'.split(),
                      'size': list('SSMMMLL'),
                      'weight': [8, 10, 11, 1, 20, 12, 12],
                      'adult' : [False] * 5 + [True] * 2});
    
    group=df.groupby("animal")
    cat=group.get_group("cat")
    print cat
    

    在这里插入图片描述

    集合

    概述作用

    集合中包含一系列的元素,在Python中这些元素不需要是相同的类型,且这些元素在集合中是没有存储顺序的。

    声明

    >>> {1,2,"hi",2.23}
    {2.23, 2, 'hi', 1}
    >>> set("hello")
    {'l', 'h', 'e', 'o'}
    

    注:由于集合和字典都用{}表示,所以初始化空的集合只能通过set()操作,{}只是表示一个空的字典

    集合操作

    集合的增加

    >>> a={1,2}
    >>> a.update([3,4],[1,2,7])
    >>> a
    {1, 2, 3, 4, 7}
    >>> a.update("hello")
    >>> a
    {1, 2, 3, 4, 7, 'h', 'e', 'l', 'o'}
    >>> a.add("hello")
    >>> a
    {1, 2, 3, 4, 'hello', 7, 'h', 'e', 'l', 'o'}
    

    集合的删除

    >>> a={1,2,3,4}
    >>> a.discard(1)
    >>> a
    {2, 3, 4}
    >>> a.discard(1)
    >>> a
    {2, 3, 4}
    >>> a.remove(1)
    Traceback (most recent call last):
      File "<input>", line 1, in <module>
    KeyError: 1
    

    集合也支持pop()方法,不过由于集合是无序的,pop返回的结果不能确定,且当集合为空时调用pop会抛出KeyError错误,可以调用clear方法来清空集合:

    >>> a={3,"a",2.1,1}
    >>> a.pop()
    >>> a.pop()
    >>> a.clear()
    >>> a
    set()
    >>> a.pop()
    Traceback (most recent call last):
      File "<input>", line 1, in <module>
    KeyError: 'pop from an empty set'
    

    API

    集合操作

    • 并集:set.union(s),也可以用a|b计算
    • 交集:set.intersection(s),也可以用a&b计算
    • 差集:set.difference(s),也可以用a-b计算
      需要注意的是Python提供了一个求对称差集的方法set.symmetric_difference(s),相当于两个集合互求差集后再求并集,其实就是返回两个集合中只出现一次的元素,也可以用a^b计算。
    >>> a={1,2,3,4}
    >>> b={3,4,5,6}
    >>> a.symmetric_difference(b)
    {1, 2, 5, 6}
    2
    4
    

    set.update(s)操作相当于将两个集合求并集并赋值给原集合,其他几种集合操作也提供各自的update版本来改变原集合的值,形式如intersection_update(),也可以支持多参数形式。

    包含关系

    两个集合之间一般有三种关系,相交、包含、不相交。在Python中分别用下面的方法判断:

    • set.isdisjoint(s):判断两个集合是不是不相交
    • set.issuperset(s):判断集合是不是包含其他集合,等同于a>=b
    • set.issubset(s):判断集合是不是被其他集合包含,等同于a<=b
      如果要真包含关系,就用符号操作>和<。

    不变集合

    Python提供了不能改变元素的集合的实现版本,即不能增加或删除元素,类型名叫frozenset,使用方法如下:

    >>> a = frozenset("hello")
    >>> a
    frozenset({'l', 'h', 'e', 'o'})
    2
    

    需要注意的是frozenset仍然可以进行集合操作,只是不能用带有update的方法。如果要一个有frozenset中的所有元素的普通集合,只需把它当作参数传入集合的构造函数中即可:

    python excel操作

    ##生成数据表

    准备

    import numpy as np
    import pandas as pd
    

    导入数据表

    df=pd.DataFrame(pd.read_csv('name.csv',header=1))
    df=pd.DataFrame(pd.read_excel('name.xlsx'))
    

    创建数据表

    df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
                       "date":pd.date_range('20130102', periods=6),
                       "city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
                       "age":[23,44,54,32,34,32],
                       "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
                       "price":[1200,np.nan,2133,5433,np.nan,4432]},
                       columns =['id','date','city','category','age','price'])
    

    数据表检查

    python中处理的数据量通常会比较大,,我们无法一目了然的了解数据表的整体情况,必须要通过一些方法来获得数据表的关键信息。数据表检查的另一个目的是了解数据的概况,例如整个数据表的大小,所占空间,数据格式,是否有空值和重复项和具体的数据内容。为后面的清洗和预处理做好准备。

    数据维度

    #查看数据表的维度
    df.shape
    (6, 6)
    

    数据表信息

    #数据表信息
    df.info()
    
    &lt;class 'pandas.core.frame.DataFrame'&gt;
    RangeIndex: 6 entries, 0 to 5
    Data columns (total 6 columns):
    id          6 non-null int64
    date        6 non-null datetime64[ns]
    city        6 non-null object
    category    6 non-null object
    age         6 non-null int64
    price       4 non-null float64
    dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
    memory usage: 368.0+ bytes
    

    查看数据格式

    #查看数据表各列格式
    df.dtypes
     
    id                   int64
    date        datetime64[ns]
    city                object
    category            object
    age                  int64
    price              float64
    dtype: object
    
    #查看单列格式
    df['B'].dtype
     
    dtype('int64')
    
    

    查看空值

    Isnull是Python中检验空值的函数,返回的结果是逻辑值,包含空值返回True,不包含则返回False。可以对整个数据表进行检查,也可以单独对某一列进行空值检查。

    #检查数据空值
    df.isnull()
    
    #检查特定列空值
    df['price'].isnull()
    0    False
    1     True
    2    False
    3    False
    4     True
    5    False
    
    Name: price, dtype: bool
    

    查看唯一值 (删除重复项)

    #查看city列中的唯一值
    df['city'].unique()
    
    array(['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '], dtype=object)
    

    查看数据表数值

    #查看数据表的值
    df.values
    array([[1001, Timestamp('2013-01-02 00:00:00'), 'Beijing ', '100-A', 23,
            1200.0],
           [1002, Timestamp('2013-01-03 00:00:00'), 'SH', '100-B', 44, nan],
           [1003, Timestamp('2013-01-04 00:00:00'), ' guangzhou ', '110-A', 54,
            2133.0],
           [1004, Timestamp('2013-01-05 00:00:00'), 'Shenzhen', '110-C', 32,
            5433.0],
           [1005, Timestamp('2013-01-06 00:00:00'), 'shanghai', '210-A', 34,
            nan],
           [1006, Timestamp('2013-01-07 00:00:00'), 'BEIJING ', '130-F', 32,
            4432.0]], dtype=object)
    

    查看列名称

    #查看列名称
    df.columns
    Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='object')
    

    查看前10行数据

    #查看前3行数据
    df.head(3)
    

    查看后10行数据

    #查看最后3行
    df.tail(3)
    

    数据表清洗

    处理空值

    #删除数据表中含有空值的行
    df.dropna(how='any')
    
    
    #使用数字0填充数据表中空值
    df.fillna(value=0)
    
    #使用数字0填充数据表中空值
    df.fillna(value=0)
    
    #使用price均值对NA进行填充
    df['price'].fillna(df['price'].mean())
    0    1200.0
    1    3299.5
    2    2133.0
    3    5433.0
    4    3299.5
    5    4432.0
    Name: price, dtype: float64
    

    清理空格

    #清除city字段中的字符空格
    df['city']=df['city'].map(str.strip)
    

    大小写转换

    #city列大小写转换
    df['city']=df['city'].str.lower()
    

    更改数据格式

    #更改数据格式
    df['price'].astype('int')
    0    1200
    1    3299
    2    2133
    3    5433
    4    3299
    5    4432
    Name: price, dtype: int32
    

    更改列名称

    #更改列名称
    df.rename(columns={'category': 'category-size'})
    

    删除重复值

    #删除后出现的重复值
    df['city'].drop_duplicates()
    0      beijing
    1      sh
    2      guangzhou
    3     shenzhen
    4     shanghai
    Name: city, dtype: object
    
    #删除先出现的重复值
    df['city'].drop_duplicates(keep='last')
    1      sh
    2      guangzhou
    3     shenzhen
    4     shanghai
    5     beijing
    Name: city, dtype: objec
    

    数值修改及替换

    #数据替换
    df['city'].replace('sh', 'shanghai')
    

    数据预处理

    数据表合并

    首先是对不同的数据表进行合并,我们这里创建一个新的数据表df1,并将df和df1两个数据表进行合并。在Excel中没有直接完成数据表合并的功能,可以通过VLOOKUP函数分步实现。在python中可以通过merge函数一次性实现。下面建立df1数据表,用于和df数据表进行合并。

    #数据表匹配合并,inner模式
    df_inner=pd.merge(df,df1,how='inner')
    #其他数据表匹配模式
    df_left=pd.merge(df,df1,how='left')
    df_right=pd.merge(df,df1,how='right')
    df_outer=pd.merge(df,df1,how='outer')
    

    设置索引列

    #设置索引列
    df_inner.set_index('id')
    

    排序(按索引,按数值)

    #按特定列的值排序
    df_inner.sort_values(by=['age'])
    
    #按索引列排序
    df_inner.sort_index()
    

    数据分组(vlookup)

    Excel中可以通过VLOOKUP函数进行近似匹配来完成对数值的分组,或者使用“数据透视表”来完成分组。相应的 python中使用where函数完成数据分组。

    #如果price列的值>3000,group列显示high,否则显示low
    df_inner['group'] = np.where(df_inner['price'] > 3000,'high','low')
    
    #对复合多个条件的数据进行分组标记
    df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000), 'sign']=1
    

    数据分列(对字段拆分)

    #对category字段的值依次进行分列,并创建数据表,索引值为df_inner的索引列,列名称为category和size
    pd.DataFrame((x.split('-') for x in df_inner['category']),index=df_inner.index,columns=['category','size'])
    
    #将完成分列后的数据表与原df_inner数据表进行匹配
    df_inner=pd.merge(df_inner,split,right_index=True, left_index=True)
    

    数据提取

    按标签提取(loc)

    #按索引提取单行的数值
    df_inner.loc[3]
    id 1004
    date 2013-01-05 00:00:00
    city shenzhen
    category 110-C
    age 32
    price 5433
    gender female
    m-point 40
    pay Y
    group high
    sign NaN
    category_1 110
    size C
    Name: 3, dtype: object
    

    使用冒号可以限定提取数据的范围,冒号前面为开始的标签值,后面为结束的标签值。下面提取了0到5的数据行。

    #按索引提取区域行数值
    df_inner.loc[0:5]
    

    Reset_index函数用于恢复索引,这里我们重新将date字段的日期设置为数据表的索引,并按日期进行数据提取。

    #重设索引
    df_inner.reset_index()
    
    #设置日期为索引
    df_inner=df_inner.set_index('date')
    

    使用冒号限定提取数据的范围,冒号前面为空表示从0开始。提取所有2013年1月4日以前的数据。

    #提取4日之前的所有数据
    df_inner[:'2013-01-04']
    

    按位置提取(iloc)

    使用iloc函数按位置对数据表中的数据进行提取,这里冒号前后的数字不再是索引的标签名称,而是数据所在的位置,从0开始。

    #使用iloc按位置区域提取数据
    df_inner.iloc[:3,:2]
    

    iloc函数除了可以按区域提取数据,还可以按位置逐条提取,前面方括号中的0,2,5表示数据所在行的位置,后面方括号中的数表示所在列的位置。

    #使用iloc按位置单独提取数据
    df_inner.iloc[[0,2,5],[4,5]]
    

    按标签和位置提取(ix)

    ix是loc和iloc的混合,既能按索引标签提取,也能按位置进行数据提取。下面代码中行的位置按索引日期设置,列按位置设置。

    #使用ix按索引标签和位置混合提取数据
    df_inner.ix[:'2013-01-03',:4]
    

    按条件提取(区域和条件值)

    除了按标签和位置提起数据以外,还可以按具体的条件进行数据。下面使用loc和isin两个函数配合使用,按指定条件对数据进行提取。
    使用isin函数对city中的值是否为beijing进行判断。

    #判断city列的值是否为beijing
    df_inner['city'].isin(['beijing'])
    
    date
    2013-01-02 True
    2013-01-05 False
    2013-01-07 True
    2013-01-06 False
    2013-01-03 False
    2013-01-04 False
    Name: city, dtype: bool
    

    将isin函数嵌套到loc的数据提取函数中,将判断结果为Ture数据提取出来。这里我们把判断条件改为city值是否为beijing和 shanghai。如果是就把这条数据提取出来。

    #先判断city列里是否包含beijing和shanghai,然后将复合条件的数据提取出来。
    df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]
    

    数值提取还可以完成类似数据分列的工作,从合并的数值中提取出制定的数值。

    category=df_inner['category']
    0 100-A
    3 110-C
    5 130-F
    4 210-A
    1 100-B
    2 110-A
    Name: category, dtype: object
    
    #提取前三个字符,并生成数据表
    pd.DataFrame(category.str[:3])
    

    数据筛选

    使用与,或,非三个条件配合大于,小于和等于对数据进行筛选,并进行计数和求和。与excel中的筛选功能和countifs和sumifs功能相似。

    按条件筛选(与,或,非)

    #使用“与”条件进行筛选
    df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']]
    
    #使用“或”条件筛选
    df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'), ['id','city','age','category','gender']].sort(['age'])
    

    在前面的代码后增加price字段以及sum函数,按筛选后的结果将price字段值进行求和,相当于excel中sumifs的功能。

    #对筛选后的数据按price字段进行求和
    df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'),
    ['id','city','age','category','gender','price']].sort(['age']).price.sum()
    
    19796
    
    #使用“非”条件进行筛选
    df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id'])
    

    在前面的代码后面增加city列,并使用count函数进行计数。相当于excel中的countifs函数的功能。

    #对筛选后的数据按city列进行计数
    df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort(['id']).city.count()
    4
    

    还有一种筛选的方式是用query函数。下面是具体的代码和筛选结果。

    #使用query函数进行筛选
    df_inner.query('city == ["beijing", "shanghai"]')
    

    在前面的代码后增加price字段和sum函数。对筛选后的price字段进行求和,相当于excel中的sumifs函数的功能。

    #对筛选后的结果按price进行求和
    df_inner.query('city == ["beijing", "shanghai"]').price.sum()
    12230
    

    数据汇总

    Excel中使用分类汇总和数据透视可以按特定维度对数据进行汇总,python中使用的主要函数是groupby和pivot_table。下面分别介绍这两个函数的使用方法。

    分类汇总

    Groupby是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby按列名称出现的顺序进行分组。同时要制定分组后的汇总方式,常见的是计数和求和两种。

    #对所有列进行计数汇总
    df_inner.groupby('city').count()
    
    #对特定的ID列进行计数汇总
    df_inner.groupby('city')['id'].count()
    city
    beijing 2
    guangzhou 1
    shanghai 2
    shenzhen 1
    Name: id, dtype: int64
    
    #对两个字段进行汇总计数
    df_inner.groupby(['city','size'])['id'].count()
    city size
    beijing A 1
    F 1
    guangzhou A 1
    shanghai A 1
    B 1
    shenzhen C 1
    Name: id, dtype: int64
    

    除了计数和求和外,还可以对汇总后的数据同时按多个维度进行计算,下面的代码中按城市对price字段进行汇总,并分别计算price的数量,总金额和平均金额。

    #对city字段进行汇总并计算price的合计和均值。
    df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])
    

    数据透视

    Excel中的插入目录下提供“数据透视表”功能对数据表按特定维度进行汇总。Python中也提供了数据透视表功能。通过pivot_table函数实现同样的效果。
    数据透视表也是常用的一种数据分类汇总方式,并且功能上比groupby要强大一些。下面的代码中设定city为行字段,size为列字段,price为值字段。分别计算price的数量和金额并且按行与列进行汇总。

    #数据透视表
    pd.pivot_table(df_inner,index=["city"],values=["price"],columns=["size"],aggfunc=[len,np.sum],fill_value=0,margins=True)
    

    在这里插入图片描述

    数据统计

    数据采样

    Python通过sample函数完成数据采样。

    #简单的数据采样
    df_inner.sample(n=3)
    

    Weights参数是采样的权重,通过设置不同的权重可以更改采样的结果,权重高的数据将更有希望被选中。这里手动设置6条数据的权重值。将前面4个设置为0,后面两个分别设置为0.5。

    #手动设置采样权重
    weights = [0, 0, 0, 0, 0.5, 0.5]
    f_inner.sample(n=2, weights=weights)
    
    #采样后不放回
    df_inner.sample(n=6, replace=False)
    
    #采样后放回
    df_inner.sample(n=6, replace=True)
    

    描述统计

    Python中可以通过Describe对数据进行描述统计。
    Describe函数是进行描述统计的函数,自动生成数据的数量,均值,标准差等数据。下面的代码中对数据表进行描述统计,并使用round函数设置结果显示的小数位。并对结果数据进行转置。

    #数据表描述性统计
    df_inner.describe().round(2).T
    

    在这里插入图片描述

    标准差

    Python中的Std函数用来接算特定数据列的标准差。

    #标准差
    df_inner['price'].std()
    1523.3516556155596
    

    协方差

    Excel中的数据分析功能中提供协方差的计算,python中通过cov函数计算两个字段或数据表中各字段间的协方差。
    Cov函数用来计算两个字段间的协方差,可以只对特定字段进行计算,也可以对整个数据表中各个列之间进行计算。

    #两个字段间的协方差
    df_inner['price'].cov(df_inner['m-point'])
    17263.200000000001
    	
    #数据表中所有字段间的协方差
    df_inner.cov()
    

    相关分析

    Excel的数据分析功能中提供了相关系数的计算功能,python中则通过corr函数完成相关分析的操作,并返回相关系数。
    Corr函数用来计算数据间的相关系数,可以单独对特定数据进行计算,也可以对整个数据表中各个列进行计算。相关系数在-1到1之间,接近1为正相关,接近-1为负相关,0为不相关。

    #相关性分析
    df_inner['price'].corr(df_inner['m-point'])
    0.77466555617085264
    	
    #数据表相关性分析
    df_inner.corr()
    

    数据输出

    处理和分析完的数据可以输出为xlsx格式和csv格式。

    写入excel

    #输出到excel格式
    df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')
    

    写入csv

    #输出到CSV格式
    df_inner.to_csv('excel_to_python.csv')
    

    在数据处理的过程中,大部分基础工作是重复和机械的,对于这部分基础工作,我们可以使用自定义函数进行自动化。以下简单介绍对数据表信息获取自动化处理。

    #创建数据表
    df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
    "date":pd.date_range('20130102', periods=6),
    "city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
    "age":[23,44,54,32,34,32],
    "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
    "price":[1200,np.nan,2133,5433,np.nan,4432]},
    columns =['id','date','city','category','age','price'])
    	
    #创建自定义函数
    def table_info(x):
        shape=x.shape
        types=x.dtypes
        colums=x.columns
        print("数据维度(行,列):\n",shape)
        print("数据格式:\n",types)
        print("列名称:\n",colums)
    	
    #调用自定义函数获取df数据表信息并输出结果
    table_info(df)
     
    数据维度(行,列):
    (6, 6)
    数据格式:
    id int64
    date datetime64[ns]
    city object
    category object
    age int64
    price float64
    dtype: object
    列名称:
    Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='object')
    

    参考

    好的学习资料


    展开全文
  • 前言 百度网盘视频:https://pan.baidu.com/s/1moFYT1lt-YazLGY9AGmm-g 优酷视频集合: Python基础 开发环境搭建及基本数据类型 ...Python科学计算 ...空间数据处理环境搭建 空间数据基础 空...

    前言

    GitBook:https://theonegis.gitbook.io/geopy/

    优酷视频:http://v.youku.com/v_show/id_XMzU2NjAzMTk0NA==.html?spm=a2hzp.8253876.0.0&f=51736885

    YouTube视频:https://www.youtube.com/channel/UCdRMZUyzcVLWZoWItuH2PhQ

    百度网盘:https://pan.baidu.com/s/1moFYT1lt-YazLGY9AGmm-g


    如果有热心网友对我的该系列博客《Python空间数据处理实战》有什么好的建议的话,比如需要增加哪些内容,写作风格上的改进等,可以直接给我留言或者发邮件,谢谢大家,希望我的分享能帮助到一些热衷GIS与RS数据处理的童鞋!

    如果有出版社希望,该系列的教程能够出版发行,欢迎联系作者!


    Python基础

    开发环境搭建及基本数据类型

    运算符及字符串

    序列与字典

    流程控制语句

    函数

    面向对象编程初识

    面向对象编程高级

    Python科学计算

    空间数据处理环境搭建

    空间数据基础

    空间参考

    地图投影

    空间数据

    GDAL空间数据处理

    GDAL简介

    栅格数据组织

    矢量数据组织

    GDAL数据基本操作

    打开栅格影像的正确方式

    栅格数据格式转换

    栅格数据创建与保存

    读取HDF或者NetCDF格式的栅格数据

    栅格数据投影转换

    栅格数据裁剪

    打开Shapefile文件的正确方式

    创建Shapefile文件并写入数据

    矢量数据投影转换

    GDAL常用命令工具

    矢量数据处理

    属性操作

    Shapefile属性操作之增

    Shapefile属性操作之删

    Shapefile属性操作之改

    Shapefile属性操作之查

    矢量数据空间查询

    基本空间分析

    GIS空间分析之Buffer

    空间数据库

    网络分析

    栅格数据处理

    基本数据预处理

    命令行工具

    脚本编程

    高级应用

    其它开源库的使用

    Fiona矢量数据处理

    Fiona简介及Shapefile数据读取

    使用Fiona创建Shapefile矢量数据

    Rasterio栅格数据处理

    使用Rasterio读取栅格数据

    使用Rasterio创建栅格数据

    使用Rasterio做投影变换

    QGIS二次开发

    遥感影像智能处理

    展开全文
  • Python数据处理

    2019-05-27 19:23:19
    作者通过循序渐进的练习,详细介绍如何有效地获取、清洗、分析与呈现数据,如何将数据处理过程自动化,如何安排文件编辑与清洗任务,如何处理更的数据集,以及如何利用获取的数据来创作引人入胜的故事。...

    本书特色

    用传统的电子表格来处理数据不仅效率低下,而且无法处理某些格式的数据,对于混乱或庞大的数据集更是束手无策。本书将教你如何利用语法简单、容易上手的Python轻松处理数据。作者通过循序渐进的练习,详细介绍如何有效地获取、清洗、分析与呈现数据,如何将数据处理过程自动化,如何安排文件编辑与清洗任务,如何处理更大的数据集,以及如何利用获取的数据来创作引人入胜的故事。学完本书,你的数据处理和分析能力将更上一层楼。

    • 快速了解Python基本语法、数据类型和语言概念
    • 概述数据的获取与存储方式
    • 清洗数据并格式化,以消除数据集中的重复值与错误
    • 学习何时对数据进行标准化,何时对数据清理进行测试并将其脚本化
    • 使用Scrapy写网络爬虫
    • 利用新的Python库和技术对数据集进行探索与分析
    • 使用Python解决方案将整个数据处理过程自动化

    “如果你一直感觉电子表格(甚至关系型数据库)无法回答你想要提出的问题,或者除这些工具之外你准备进一步学习,那么这本书非常适合你。我一直在等待这本书的出现。”

    ——Derek Willis,ProPublica新闻应用开发者,OpenElections联合创始人

    “所有新手数据科学家、数据工程师或其他技术方面的数据专家都应该读一读这本实践指南。数据处理领域正需要这样一本书,真希望我第一次开始用Python处理数据时就能有它指导。”

    ——Tyrone Grandison博士,Proficiency Labs Intl. CEO

    目录

    版权声明
    O’Reilly Media, Inc.介绍
    本书赞誉
    前言
    第 1 章 Python 简介
    第 2 章 Python 基础
    第 3 章 供机器读取的数据
    第 4 章 处理 Excel 文件
    第 5 章 处理 PDF 文件,以及用 Python 解决问题
    第 6 章 数据获取与存储
    第 7 章 数据清洗:研究、匹配与格式化
    第 8 章 数据清洗:标准化和脚本化
    第 9 章 数据探索和分析
    第 10 章 展示数据
    第 11 章 网页抓取:获取并存储网络数据
    第 12 章 高级网页抓取:屏幕抓取器与爬虫
    第 13 章 应用编程接口
    第 14 章 自动化和规模化
    第 15 章 结论
    附录 A 编程语言对比
    附录 B 初学者的 Python 学习资源
    附录 C 学习命令行
    附录 D 高级 Python 设置
    附录 E Python 陷阱
    附录 F IPython 指南
    附录 G 使用亚马逊网络服务
    关于作者
    关于封面

    下载

    https://pan.baidu.com/s/1B2H_CxsXfnjRouxU6bCTRw

    展开全文
  • python数据分析常用

    2019-04-30 09:52:12
    numpy 创建矩阵: 引入numpy并生成矩阵 import numpy as np a = np.array([[1,2,3],[4,5,6]]) 常用方法: 矩阵元素个数 a.size 矩阵形状 a.shape ...Pandas 是基于 NumPy 的一个开源 Python ,它...
  • Python3 数据处理常用模块 1、os os.startfile: 调用系统程序打开指定路径下的文件,具体使用形式为: os.startfile(path) path: 1、根目录表示为:'.' 2、为避免'/'对path的影响,在path前面加上...
  • 最近在研究python进行地理数据处理的相关内容。工欲善其事,必先利其器,python地理数据处理的第一步当是环境的搭建,下面进行详细说明。 1、安装python(https://www.python.org/) 如果有安装ArcGIS,则默认...
  • Python数据科学家十分喜爱的编程语言,其内置了很多由C语言编写的,操作起来更加方便,Python在网络爬虫的传统应用领域,在大数据的抓取方面具有先天优势,目前,最流行的爬虫框架Scrapy,HTTP工具包urlib2,...
  • 就是因为Python提供了大量的第三方的,开箱即用,非常方便,而且还免费哦,学Python的同学里估计有30%以上是为了做数据分析师或者数据挖掘,所以数据分析相关的一定要熟悉,那么常用的Python数据分析有哪些呢...
  • Python爬虫数据处理

    2017-06-09 22:12:00
    一、首先理解下面几个函数 设置变量 length()函数 char_length() replace() 函数 max() 函数 1.1、设置变量 set @变量名=值 set @address='中国-山东省-聊城市-莘县'; select @address ...1.2 、length()函数 char...
  • 本文通过部分示例介绍了空间处理库Shape的部分概念与操作函数。 官方文档:https://shapely.readthedocs.io/en/latest/manual.html#introduction 1、函数列表 函数类型 算子名称 ...
  • python数据分析

    2020-03-15 14:02:40
    python绘图、python数据分析、python、股票分析
  • DataFrame是Pandas处理表的数据结构,可看作是python中的类似数据库的操作,是Python数据挖掘中最常用的工具。下面介绍DataFrame的一些常用方法。
  • 本文章主要介绍了一些优秀的Python第三方,其中包括:从数据处理到人工智能;从web解析到网络空间等等 Python库之数据分析 ​​​​​​​ Python库之数据可视化 ​​​​​​​ Python库之文本处理 ​...
  • numpy系统是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵,比Python自身的嵌套列表...numpy(Numeric Python)提供了许多高级的数值编程工具,如:矩阵数据类型、矢量处理,以及精密的...
  • 其中,数据分析pandas是Python最经典的之一。它使用一个二维的DataFrame来表示表格式的数据,相比较于Numpy,Pandas可以存储混合的数据结构,同时使用NaN来表示缺失的数据,而不用像Numpy一样要手工处理缺失的...
  • Python数据处理利器: 前言:数据科学概念总结 入门Numpy只需要将我贴出来的代码,复制到你的IDE中。一行行的运行,然后思考,不难。看懂后,自己试着写一遍,自己给自己抛出问题,不看我的代码,自己创建...
  • 在下载了pycharm软件以及通过前两篇文章,配置了相应的模块包之后,那就开始对常用的模块的学习,以便后期利用这些模块对数据做模型化处理。   如果你已经决定把Python作为你的编程语言,那么,你脑海中的下一个...
  • Python空间数据处理环境搭建 作者:阿振 邮箱:tanzhenyugis@163.com 博客:https://blog.csdn.net/theonegis/article/details/80089375 修改时间:2018-04-26 优酷视频地址:...
1 2 3 4 5 ... 20
收藏数 221,641
精华内容 88,656