csv 订阅
逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号),其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该文件是一个字符序列,不含必须像二进制数字那样被解读的数据。CSV文件由任意数目的记录组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。通常,所有记录都有完全相同的字段序列。通常都是纯文本文件。建议使用WORDPAD或是记事本来开启,再则先另存新档后用EXCEL开启,也是方法之一。CSV文件格式的通用标准并不存在,但是在RFC 4180中有基础性的描述。使用的字符编码同样没有被指定,但是bitASCII是最基本的通用编码。 展开全文
逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号),其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该文件是一个字符序列,不含必须像二进制数字那样被解读的数据。CSV文件由任意数目的记录组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。通常,所有记录都有完全相同的字段序列。通常都是纯文本文件。建议使用WORDPAD或是记事本来开启,再则先另存新档后用EXCEL开启,也是方法之一。CSV文件格式的通用标准并不存在,但是在RFC 4180中有基础性的描述。使用的字符编码同样没有被指定,但是bitASCII是最基本的通用编码。
信息
应    用
在程序之间转移表格数据
外文名
Comma-Separated Values
中文名
逗号分隔值
CSV用法
CSV是一种通用的、相对简单的文件格式,被用户、商业和科学广泛应用。最广泛的应用是在程序之间转移表格数据,而这些程序本身是在不兼容的格式上进行操作的(往往是私有的和/或无规范的格式)。因为大量程序都支持某种CSV变体,至少是作为一种可选择的输入/输出格式。 [1]  例如,一个用户可能需要交换信息,从一个以私有格式存储数据的数据库程序,到一个数据格式完全不同的电子表格。最可能的情况是,该数据库程序可以导出数据为“CSV”,然后被导出的CSV文件可以被电子表格程序导入。“CSV”并不是一种单一的、定义明确的格式(尽管RFC 4180有一个被通常使用的定义)。因此在实践中,术语“CSV”泛指具有以下特征的任何文件:在这些常规的约束条件下,存在着许多CSV变体,故CSV文件并不完全互通。然而,这些变异非常小,并且有许多应用程序允许用户预览文件(这是可行的,因为它是纯文本),然后指定分隔符、转义规则等。如果一个特定CSV文件的变异过大,超出了特定接收程序的支持范围,那么可行的做法往往是人工检查并编辑文件,或通过简单的程序来修复问题。因此在实践中,CSV文件还是非常方便的。
收起全文
精华内容
参与话题
问答
  • Python中pd.read_csv()函数用法简单介绍

    万次阅读 2018-04-28 21:45:52
    dl_data.csv文件: 行索引为:[-20......19] 列索引为:[-25......25] 语句分析: q_table6 = pd.read_csv('dl_data.csv',encoding = "utf-8",header = 0,names = range(0,50)) 功能:将原来的列索引...

     

    dl_data.csv文件:

    行索引为:[-20......19]

    列索引为:[-25......25]

    语句分析:

    q_table6 = pd.read_csv('dl_data.csv',encoding = "utf-8",header = 0,names = range(0,50))

    功能:将原来的列索引[-25......25]替换成[0....49]。

    介绍:header = 0是默认情况(即不标明,默认就是header = 0),表示以数据的第一行为列索引。

               encoding = "utf-8"表明以utf-8为编码规则。

               names = range(0,50))表示以[0....49]为列索引的名字

           

    q_table6 = pd.read_csv('dl_data.csv',encoding = "utf-8",header = None,names = range(0,50))

    功能:给数据添加一行列索引[0....49],header = None表示原来的数据是没有列索引的,就算你的数据里面有列索引,这时就把  原来的列索引当成了数据。

     

    上面两个语句都会默认为数据添加行索引,即会把原来的行索引当成数据,自己再添加新的行索引[0,1,2.....] !!!!!!!如果不想添加新的行索引,代码如下:

    q_table6 = pd.read_csv('dl_data.csv',encoding = "utf-8",index_col=0)

    index_col=0表示以原有数据的第一列(索引为0)当作行索引。

    
     
    
     

     

    展开全文
  • Python使用csv模块读写csv文件

    万次阅读 多人点赞 2019-05-26 17:18:09
    Python使用csv模块读写csv文件 csv是逗号分隔值(Comma-Separated Values)的简称。 有时也称为字符分隔值,因为分隔字符也可以不是逗号,其文件以纯文本形式存储表格数据。纯文本意味着该文件是一个字符序列,...

    Python使用csv模块读写csv文件

    csv是逗号分隔值(Comma-Separated Values)的简称。

    有时也称为字符分隔值,因为分隔字符也可以不是逗号,其文件以纯文本形式存储表格数据。纯文本意味着该文件是一个字符序列,不含必须像二进制数字那样被解读的数据。

    csv可以存储各种各样的数据,不过,通常来说,比较适合存储有相同字段或表头的一批数据,这些数据可以展示成表格。

    可以使用excel开启csv文件,打开后看到的数据以excel表格的方式进行展示。

    现在我们就开始使用csv将数据写入csv文件,然后将数据从csv中读取出来使用。

    一、将数据写入csv文件中

    import csv
    
    
    csv_data = (
        (1, 2, 3, 4, 5, 6),
        ('a', 'b', 'c', 'd', 'e', 'f'),
        ('p', 'y', 't', 'h', 'o', 'n')
    )
    output_file_name = 'csv_file.csv'
    
    
    def save_csv(target_list, output_file_name):
        """
        将数据写入csv文件
        """
        if not output_file_name.endswith('.csv'):
            output_file_name += '.csv'
        csv_file = open(output_file_name, "w", newline="")
        key_data = target_list[0]
        value_data = [target for target in target_list]
        csv_writer = csv.writer(csv_file)
        csv_writer.writerow(key_data)
        csv_writer.writerows(value_data)
        csv_file.close()
    
    
    save_csv(csv_data, output_file_name)

    代码描述:

    1.我们先将需要保存的数据解析好,保存成固定的数据类型(保存成列表,元组,字典都可以,根据具体场景来选择)

    2.我们将保存数据到csv文件的代码封装成一个函数,方便重用。步骤主要分为三步:打开文件,写入数据,关闭文件。其中,写入数据时记得先写入表头(我们使用excel打开时需要表头)再写入表格中的数据,数据要以一个列表的形式传递给writerows()。

    运行结果:

    运行以上代码后,会在当前目录下创建一个csv_file.csv的文件,并写入csv_data的数据,可以使用excel打开文件查看。如下图。

    二、从csv文件中读取数据

    input_file_name = 'csv_file.csv'
    
    
    def read_csv(input_file_name):
        """
        读取csv文件数据
        """
        with open(input_file_name, 'r', encoding='utf-8') as csv_file:
            csv_reader = csv.reader(csv_file)
            # csv_reader对象,是一个列表的格式
            print(csv_reader)
            # csv_reader对象的一个迭代器,可以通过next()取出其中的元素
            print(next(csv_reader))
            # 也可以通过for循环取出所有元素
            for line in csv_reader:
                print(''.join(line))
    
    
    read_csv(output_file_name)

    代码描述:

    1.可以通过with上下文管理的方式打开csv文件,如果想在with的代码块外对读出来的数据进行处理,则可以使用open()打开,再使用close()关闭。

    2.csv通过csv.reader()来打开csv文件,返回的是一个列表格式的迭代器,可以通过next()方法获取其中的元素,也可以使用for循环依次取出所有元素。

    运行结果:

    <_csv.reader object at 0x00000295BC044528>
    ['1', '2', '3', '4', '5', '6']
    123456
    abcdef
    python
    

    这样,将数据写入csv和从csv中读取数据就完成了,使用过程是非常简单的。

     

     

    展开全文
  • 以行人重识别的数据集Market1501为例,对数据集图片的18个关节点坐标文件 pckh_train.csv 进行: csv文件打开、csv文件保存和csv文件删除行信息操作。 首先展示 pckh_train.csv 文件: 接着摆出代码, 即csv...

    以行人重识别的数据集Market1501为例,对数据集图片的18个关节点坐标文件  pckh_train.csv 进行:

    csv文件打开csv文件保存csv文件删除行信息操作。

     

    首先展示  pckh_train.csv  文件:

    接着摆出代码, 即csv文件打开csv文件保存csv文件删除行信息操作:

    import csv
    
    # 如果 pckh_train=>relabel=True  
    # 如果 pckh_test=>relabel=False
    # 如果 pckh_query=>relabel=False
    relabel=True
    path = './pckh_train.csv'
    list_n = []
    
    ############## 删除是-1的列表元素################
    def del_neg(list):
        while -1 in list:
            for i in list:
                if i == -1:
                    list.remove(i)
                else:
                    continue
        return list
    
    ############ 转换成 pids, camid,sid, kid查找##################
    with open(path, 'r', encoding="utf-8") as myFile:
        raws = csv.reader(myFile)
        # print(raws)
        for raw in raws:
            list_n.append(raw)
    
        # id 转换
        pid_container = set()
        for i in range(1, len(list_n)):
            l = list_n[i][0].split('_')
            # print(l) #['0002', 'c1s1', '000451', '03.jpg']
            pids = int(l[0])
            if pids == -1: continue  # junk images are just ignored
            pid_container.add(pids)
        pid2label = {pid: label for label, pid in enumerate(pid_container)}
        # print(pid2label)
    
       ################### id + camid + sid + kid + qid==> 保存为新的csv文件###############################
        for i in range(1, len(list_n)):
            l = list_n[i][0].split('_')
            # print(l) ['0002', 'c1s1', '000451', '03.jpg']
            pids, camid, sid, kid, qid = int(l[0]), int(l[1][1]), int(l[1][3]), int(l[2]),int((l[3][:-4]))
    
            if pids == -1: continue
            assert 0 <= pids <= 1501  # pid == 0 means background
            assert 1 <= camid <= 6
            camid -= 1  # index starts from 0
            if relabel:pid = pid2label[pids]
            # list_name = int(pids + camid + sid + kid + qid)
            list_name = [pids,camid,sid,kid,qid]
            # print(list_name)# [76, 6, 1, 19051]
            # # pids, camid, sid, kid
            # print('pids',pids)
            # print('camid',camid)
            # print('sid',sid)
            # print('kid',kid)
    
            y = list_n[i][1]
            x = list_n[i][2]
            row = [list_name, y, x]
            out = open(path, "a", newline="")
            csv_writer = csv.writer(out, dialect="excel")
            csv_writer.writerow(row)
    
    ############# 删除csv文件行数#######################
    import pandas as pd
    csv_data = pd.read_csv('pckh_train.csv',header=None)
    csv_data1=csv_data.drop(range(1,len(list_n)),axis=0,inplace=True)
    csv_data.to_csv('pckh_train_1.csv',index=False,sep=',',header=None)
    

     最后展示最终删除行之后保存为 pckh_train_1.csv  文件的效果图:

     

    展开全文
  • Pandas的read_csv和 to_csv函数参数分析详解 1. read_csv read_csv方法定义 pd.read_csv(filepath_or_buffer, sep=',', delimiter=None, header='infer', names=None, index_col=None, usecols=None, ...

    Pandas的read_csv和 to_csv函数参数分析详解

     

     

    1. read_csv

    read_csv方法定义

     

    pd.read_csv(filepath_or_buffer, sep=',', delimiter=None, header='infer', names=None, 
    index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, 
    dtype=None, engine=None, converters=None, true_values=None, false_values=None, 
    skipinitialspace=False, skiprows=None, nrows=None, na_values=None, 
    keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, 
    parse_dates=False, infer_datetime_format=False, keep_date_col=False, 
    date_parser=None, dayfirst=False, iterator=False, chunksize=None,
     compression='infer', thousands=None, decimal=b'.', lineterminator=None,
     quotechar='"', quoting=0, escapechar=None, comment=None, encoding=None,
     dialect=None, tupleize_cols=False, error_bad_lines=True, warn_bad_lines=True, 
    skipfooter=0, skip_footer=0, doublequote=True, delim_whitespace=False,
     as_recarray=False, compact_ints=False, use_unsigned=False,
     low_memory=True, buffer_lines=None, memory_map=False, float_precision=None)
    
    

    读取文件路径,可以是URL,可用URL类型包括:http, ftp, s3和文件。

    常用参数

    sep :str, default ‘,'
    指定分隔符。如果不指定参数,则会尝试使用逗号分隔。csv文件一般为逗号分隔符。

    delimiter : str, default None 
    定界符,备选分隔符(如果指定该参数,则sep参数失效)

    delim_whitespace :boolean, default False.
    指定空格(例如' ‘或者' ‘)是否作为分隔符使用,等效于设定sep='\s+'。
    如果这个参数设定为Ture那么delimiter 参数失效。

    header :int or list of ints, default ‘infer'
    指定行数用来作为列名,数据开始行数。如果文件中没有列名,则默认为0,否则设置为None。对于数据读取有表头和没表头的情况很实用

    header :int or list of ints, default ‘infer'
    指定行数用来作为列名,数据开始行数。如果文件中没有列名,则默认为0,否则设置为None。

    names :  array-like, default None
    用于结果的列名列表,对各列重命名,即添加表头。
    如数据有表头,但想用新的表头,可以设置header=0,names=['a','b']实现表头定制。

    index_col : int or sequence or False, default None
    用作行索引的列编号或者列名,如果给定一个序列则有多个行索引。
    可使用index_col=[0,1]来指定文件中的第1和2列为索引列。

    usecols : array-like, default None
    返回一个数据子集,即选取某几列,不读取整个文件的内容,有助于加快速度和降低内存。
    usecols=[1,2]或usercols=['a','b']

    squeeze : boolean, default False
    如果文件只包含一列,则返回一个Series

    prefix :  str, default None
    在没有列标题时,给列添加前缀。例如:添加‘X' 成为 X0, X1, ...

    mangle_dupe_cols : boolean, default True
    重复的列,将‘X'...'X'表示为‘X.0'...'X.N'。如果设定为False则会将所有重名列覆盖。

    不太常用参数

    dtype : Type name or dict of column -> type, default None
    每列数据的数据类型。例如 {‘a': np.float64, ‘b': np.int32}

    engine :  {‘c', ‘python'}, optional
    使用的分析引擎。可以选择C或者是python。C引擎快但是Python引擎功能更加完备。

    converters : dict, default None
    列转换函数的字典。key可以是列名或者列的序号。

    true_values和false_values :  list, default None
    Values to consider as True or False

    skipinitialspace :boolean, default False
    忽略分隔符后的空白(默认为False,即不忽略)

    skiprows : list-like or integer, default None
    需要忽略的行数(从文件开始处算起),或需要跳过的行号列表(从0开始)。

    skipfooter : int, default 0
    从文件尾部开始忽略。 (c引擎不支持)

    nrows : int, default None
    需要读取的行数(从文件头开始算起)。

    na_values : scalar, str, list-like, or dict, default None
    一组用于替换NA/NaN的值。如果传参,需要制定特定列的空值。
    默认为‘1.#IND', ‘1.#QNAN', ‘N/A', ‘NA', ‘NULL', ‘NaN', ‘nan'`.

    keep_default_na :  bool, default True
    如果指定na_values参数,并且keep_default_na=False,那么默认的NaN将被覆盖,否则添加。

    na_filter : boolean, default True
    是否检查丢失值(空字符串或者是空值)。
    对于大文件来说数据集中没有空值,设定na_filter=False可以提升读取速度。

    verbose :boolean, default False
    是否打印各种解析器的输出信息,例如:“非数值列中缺失值的数量”等。

    skip_blank_lines :boolean, default True
    如果为True,则跳过空行;否则记为NaN。

    encoding : str, default None
    指定字符集类型,通常指定为'utf-8'. List of Python standard encodings

    dialect : str or csv.Dialect instance, default None
    如果没有指定特定的语言,如果sep大于一个字符则忽略。具体查看csv.Dialect 文档

    tupleize_cols : boolean, default False
    Leave a list of tuples on columns as is (default is to convert to a Multi Index on the columns)

    error_bad_lines : boolean, default True
    如果一行包含太多的列,那么默认不会返回DataFrame ,如果设置成false,那么会将改行剔除(只能在C解析器下使用)。

    warn_bad_lines : boolean, default True
    如果error_bad_lines =False,并且warn_bad_lines =True 那么所有的“bad lines”将会被输出(只能在C解析器下使用)。

    low_memory : boolean, default True
    分块加载到内存,在低内存消耗中解析。但是可能出现类型混淆。
    确保类型不被混淆需要设置为False。或者使用dtype 参数指定类型。
    注意使用chunksize 或者iterator 参数分块读入会将整个文件读入到一个Dataframe,
    而忽略类型(只能在C解析器中有效)

    日期类型相关参数

    parse_dates : boolean or list of ints or names or list of lists or dict, default False

    boolean. True -> 解析索引
    list of ints or names. e.g. If [1, 2, 3] -> 解析1,2,3列的值作为独立的日期列;
    list of lists. e.g. If [[1, 3]] -> 合并1,3列作为一个日期列使用
    dict, e.g. {‘foo' : [1, 3]} -> 将1,3列合并,并给合并后的列起名为"foo"

    示例:df=pd.read_csv(file_path,parse_dates=['time1','time2']),
    把time1和time2两列解析为日期格式。
    这里不得不说,很遗憾中文不行,比如‘4月5日'这种格式就不能解析。

     infer_datetime_format :boolean, default False
    如果设定为True并且parse_dates 可用,那么pandas将尝试转换为日期类型,如果可以转换,转换方法并解析。
    在某些情况下会快5~10倍。

    keep_date_col : boolean, default False
    如果连接多列解析日期,则保持参与连接的列。默认为False。

    date_parser :  function, default None
    于解析日期的函数,默认使用dateutil.parser.parser来做转换。
    Pandas尝试使用三种不同的方式解析,如果遇到问题则使用下一种方式。
    1.使用一个或者多个arrays(由parse_dates指定)作为参数;
    2.连接指定多列字符串作为一个列作为参数;
    3.每行调用一次date_parser函数来解析一个或者多个字符串(由parse_dates指定)作为参数。

    dayfirst : boolean, default False
    DD/MM格式的日期类型

    大文件常用参数

    iterator : boolean, default False
    返回一个TextFileReader 对象,以便逐块处理文件。

    chunksize : int, default None
    文件块的大小, See IO Tools docs for more informationon iterator and chunksize.

    chunksize : int, default None
    文件块的大小, See IO Tools docs for more informationon iterator and chunksize.

    chunksize : int, default None
    文件块的大小, See IO Tools docs for more informationon iterator and chunksize.

    decimal : str, default ‘.'
    字符中的小数点 (例如:欧洲数据使用',‘).

    float_precision : string, default None
    Specifies which converter the C engine should use for floating-point values. 
    The options are None for the ordinary converter, high for the high-precision converter,
    and round_trip for the round-trip converter.

    lineterminator : str (length 1), default None
    行分割符,只在C解析器下使用。

    quotechar : str (length 1), optional
    引号,用作标识开始和解释的字符,引号内的分割符将被忽略。

    quoting : int or csv.QUOTE_* instance, default 0
    控制csv中的引号常量。
    可选 QUOTE_MINIMAL (0), QUOTE_ALL (1), QUOTE_NONNUMERIC (2) or QUOTE_NONE (3)

    doublequote : boolean, default True
    双引号,当单引号已经被定义,并且quoting 参数不是QUOTE_NONE的时候,
    使用双引号表示引号内的元素作为一个元素使用。

    escapechar : str (length 1), default None
    当quoting 为QUOTE_NONE时,指定一个字符使的不受分隔符限值。

    comment : str, default None
    标识着多余的行不被解析。如果该字符出现在行首,这一行将被全部忽略。
    这个参数只能是一个字符,空行(就像skip_blank_lines=True)注释行被header和skiprows忽略一样。
    例如如果指定comment='#' 解析‘#empty\na,b,c\n1,2,3' 以header=0 那么返回结果将是以'a,b,c'作为header。

    读取多个文件

    #读取多个文件
    
    import pandas
    import glob
    
    for r in glob.glob("test*.csv"):
        csv=pandas.read_csv(r)
        csv.to_csv("test.txt",mode="a+")

     

    2. to_csv

    to_csv方法定义:

    DataFrame.to_csv(path_or_buf=None, sep=', ', na_rep='', float_format=None, columns=None, 
    header=True, index=True, index_label=None, mode='w', encoding=None, compression=None, 
    quoting=None, quotechar='"', line_terminator='\n', chunksize=None, tupleize_cols=None, 
    date_format=None, doublequote=True, escapechar=None, decimal='.')
    

    path_or_buf=None: string or file handle, default None 
    File path or object, if None is provided the result is returned as a string. 
    字符串或文件句柄,默认无文件 
    路径或对象,如果没有提供,结果将返回为字符串。

    sep : character, default ‘,’ 
    Field delimiter for the output file. 
    默认字符 ‘ ,’ 
    输出文件的字段分隔符。

    na_rep : string, default ‘’ 
    Missing data representation 
    字符串,默认为 ‘’ 
    浮点数格式字符串

    float_format : string, default None 
    Format string for floating point numbers 
    字符串,默认为 None 
    浮点数格式字符串

    columns : sequence, optional Columns to write 
    顺序,可选列写入

    header : boolean or list of string, default True 
    Write out the column names. If a list of strings is given it is assumed to be aliases for the column names 
    字符串或布尔列表,默认为true 
    写出列名。如果给定字符串列表,则假定为列名的别名。

    index : boolean, default True 
    Write row names (index) 
    布尔值,默认为Ture 
    写入行名称(索引)

    index_label : string or sequence, or False, default None 
    Column label for index column(s) if desired. If None is given, and header and index are True, then the index names are used. A sequence should be given if the DataFrame uses MultiIndex. If False do not print fields for index names. Use index_label=False for easier importing in R 
    字符串或序列,或False,默认为None 
    如果需要,可以使用索引列的列标签。如果没有给出,且标题和索引为True,则使用索引名称。如果数据文件使用多索引,则应该使用这个序列。如果值为False,不打印索引字段。在R中使用index_label=False 更容易导入索引.

    mode : str 
    模式:值为‘str’,字符串 
    Python写模式,默认“w”

    encoding : string, optional 
    编码:字符串,可选 
    表示在输出文件中使用的编码的字符串,Python 2上默认为“ASCII”和Python 3上默认为“UTF-8”。

    compression : string, optional 
    字符串,可选项 
    表示在输出文件中使用的压缩的字符串,允许值为“gzip”、“bz2”、“xz”,仅在第一个参数是文件名时使用。

    line_terminator : string, default ‘\n’ 
    字符串,默认为 ‘\n’ 
    在输出文件中使用的换行字符或字符序列

    quoting : optional constant from csv module 
    CSV模块的可选常量 
    默认值为to_csv.QUOTE_MINIMAL。如果设置了浮点格式,那么浮点将转换为字符串,因此csv.QUOTE_NONNUMERIC会将它们视为非数值的。

    quotechar : string (length 1), default ‘”’ 
    字符串(长度1),默认“” 
    用于引用字段的字符

    doublequote : boolean, default True 
    布尔,默认为Ture 
    控制一个字段内的quotechar

    escapechar : string (length 1), default None 
    字符串(长度为1),默认为None 
    在适当的时候用来转义sep和quotechar的字符

    chunksize : int or None 
    int或None 
    一次写入行

    tupleize_cols : boolean, default False 
    布尔值 ,默认为False 
    从版本0.21.0中删除:此参数将被删除,并且总是将多索引的每行写入CSV文件中的单独行 
    (如果值为false)将多索引列作为元组列表(如果TRUE)或以新的、扩展的格式写入,其中每个多索引列是CSV中的一行。

    date_format : string, default None 
    字符串,默认为None 
    字符串对象转换为日期时间对象

    decimal: string, default ‘.’ 
    字符串,默认’。’ 
    字符识别为小数点分隔符。例如。欧洲数据使用 ​​’,’

    pandas的to_csv()使用方法

    1.首先查询当前的工作路径:

     

     
    import os
    
    os.getcwd() #获取当前工作路径

    2.to_csv()是DataFrame类的方法,read_csv()是pandas的方法

     

    dt.to_csv() #默认dt是DataFrame的一个实例,参数解释如下

     

    • 路径 path_or_buf: A string path to the file to write or a StringIO
    
     
    dt.to_csv('Result.csv') #相对位置,保存在getwcd()获得的路径下
    
    dt.to_csv('C:/Users/think/Desktop/Result.csv') #绝对位置

     

    • 分隔符 sep : Field delimiter for the output file (default ”,”)
    dt.to_csv('C:/Users/think/Desktop/Result.csv',sep='?')#使用?分隔需要保存的数据,如果不写,默认是,

     

    • 替换空值 na_rep: A string representation of a missing value (default ‘’)
    dt.to_csv('C:/Users/think/Desktop/Result1.csv',na_rep='NA') #确实值保存为NA,如果不写,默认是空

     

    • 格式 float_format: Format string for floating point numbers
    dt.to_csv('C:/Users/think/Desktop/Result1.csv',float_format='%.2f') #保留两位小数

     

    • 是否保留某列数据 cols: Columns to write (default None)
    dt.to_csv('C:/Users/think/Desktop/Result.csv',columns=['name']) #保存索引列和name列

     

    • 是否保留列名 header: Whether to write out the column names (default True)
    dt.to_csv('C:/Users/think/Desktop/Result.csv',header=0) #不保存列名

     

    • 是否保留行索引 index:  whether to write row (index) names (default True)
    dt.to_csv('C:/Users/think/Desktop/Result1.csv',index=0) #不保存行索引


     

     

    展开全文
  • python csv文件的操作

    万次阅读 2019-05-10 19:04:04
    python 对csv文件的操作十分简单,几行代码即可搞定csv文件,通常分为读操作和写操作。 读取csv文件 读取普通csv,不带字段名称 示例代码: >>> import csv >>> with open('test.csv', 'rb') as ...
  • pandas.read_csv()语法及综合案例: 1、使用pandas读取csv文件的全部数据:pd.read_csv("filepath",[encoding='编码']) 2、使用pandas读取csv文件的指定列方法:usecols=[0,1,2,...] 3、使用pandas读取csv文件的指定...
  • 文章目录Python文件操作总结——CSV文件的读取和写入1. CSV文件的读取2. CSV文件的写入 Python文件操作总结——CSV文件的读取和写入 python中的CSV文件的读取和写入操作比较简单和直观,只需要把csv文件中数据读出...
  • 用python读写和处理csv文件

    万次阅读 多人点赞 2018-07-18 22:13:43
    用python读写和处理csv文件 读取 这里我们使用pandas包来读取csv文件,pandans处理csv文件十分方便我认为是目前最方便的读取方式 首先安装pandans pip install pandans 安装好了之后我们读取一个csv文件 ...
  • python读取csv并画折线图

    千次阅读 2019-10-19 15:58:32
    python读取csv并画折线图 本文将说明如何用Python读取csv文件并且使用其数据画出折线图 1、导入库并规定格式 import csv import matplotlib.pyplot as plt import matplotlib plt.rcParams['font.sans-serif'] =...
  • Python使用pandas读取CSV文件

    千次阅读 2019-09-25 13:49:02
    使用pandas读取CSV文件 import pandas as pd csv_data = pd.read_csv("./path_file/file.csv", encoding = 'UTF-8') 如果报错 'utf-8' codec can't decode byte 0xb1 in position 0: invalid start byte 可以试...
  • python读写csv文件,使用csv.reader()方法及csv.writer()方法 import csv with open(r"C:\郑宏宇\python_learn\c.csv","r") as f: a_csv = csv.reader(f) for row in a_csv: print(row) with open(r"C:\郑宏宇...
  • Python 将数据写入CSV文件

    万次阅读 多人点赞 2019-04-27 14:30:50
    python 将数据写入csv文件 1 介绍CSV 逗号分隔值(Comma-Separated Values,CSV,也称为字符分隔值,分隔字符也可以不是逗号)。 保存形式 其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该...
  • csv

    千次阅读 2013-10-24 16:42:22
    csv.reader(csvfile, dialect='excel', **fmtparams) 返回一个reader 对象,将按照行遍历csvfile。csvfile 可以是任何支持iterator 并且__next()__返回一个字符串的对象。文件对象和列表都可以。如果csvfile是...
  • CSV 文件和 csv 模块 标准库中有自带的 csv (逗号分隔值) 模块处理 csv 格式的文件: import csvcsv 文件 假设我们有这样的一个文件: %%file data.csv "alpha 1", 100, -1.443 "beat 3", 12, -0.0934 "gamma ...
  • #csv模块中的DictReader函数中编码的问题 处理日常的csv文件筛选问题中,通过以下的一段小代码,发现不同的编码格式下的程序有不同的错误,如下: #encoding=utf-8 import csv with ...
  • CSV 文件操作

    千次阅读 2019-04-04 08:52:44
    1 CSV 简介 CSV 文件通常用于我们在电子表格软件和纯文本之间交互数据,CSV 文件内容是一些用逗号分隔的原始字符串。 CSV 文件的操作在 Python 中有单独的模块来使用,模块名为 csv 2 CSV 文本操作 导入模块:...
  • 首先我是通过read_csv将数据读入 然后把id列去掉,将date列设置为索引。之后将date列的数据转化为标准格式,代码如下: import pandas as pd air = pd.read_csv(’…/forecast pm25/weather.csv’, index_col=7) air...
  • Python读取CSV 文件 去掉重复数据

    千次阅读 2019-12-12 16:40:54
    安装 xlrd 模块 和 pandas 模块 pip3 install xlrd pip install pandas Python 文件 导入pandas模块 import pandas as pd 读取文件 按照需要去重的列名去重数据 ...data = pd.read_csv("E:/test.csv") ...
  • 1、利用pandas.read_csv读取数据后再用pandas.to_csv写入数据,在新写入的数据里,多出了一行是为什么呢?对比了一下读取的和写入的数据,差别在于,写入的数据在中间多出一行空白行。 ``` import pandas as pd ...
  • python写入csv文件的几种方法总结

    万次阅读 多人点赞 2017-04-11 11:48:16
    最常用的一种方法,利用pandas包import ...b = [4,5,6] #字典中的key值即为csv中列名 dataframe = pd.DataFrame({'a_name':a,'b_name':b})#将DataFrame存储为csv,index表示是否显示行名,default=True dataframe.to_csv
  • TempData = pd.read_csv('test.csv', encoding='gb2312')) TempData = pd.DataFrame(TempData) TempData.to__csv(‘test.csv’, index=False, sep=',', encoding='gb2312') 由于我的test.csv中本身包含乱码,...
  • FileNotFoundError [Errno 2] File b'xxx.csv' does not exist b'xxx.csv' 文章目录一、 问题描述二、 问题分析三、 解决方法3.1 方法一3.2 方法二 一、 问题描述 运行代码的时候,弹出以下错误提示 self._reader ...
  • R语言学习(经验一):导入.csv数据

    万次阅读 2019-07-16 16:16:46
    R语言学习(经验一):导入.csv数据 作为小白一枚,主要想和各位大佬切磋进步,这里都是我自己的见解,有不对的地方,切望批评指正。这里我总结一下前不久自己刚犯的一些错误。** 想要把如下这份我自创的.xisx文件...
  • Excel和CSV格式文件的不同之处

    万次阅读 多人点赞 2017-12-03 22:34:21
    Excel和CSV格式文件的不同之处 来源:https://www.guru99.com/excel-vs-csv.html Excel CSV 这是一个二进制文件,它保存有关工作簿中所有工作表的信息 CSV代表CommaSeparatedValues。这是一个纯...
  • fwriter.writerows(zip(csvrow1,csvrow2,csvrow3)) n = n + 1 print(str(n)) #------------------------------------------------ copy改动版后头信息会重复写入的 try: summary = text['...
  • pd.read_csv用法

    万次阅读 多人点赞 2019-04-17 22:16:39
    pd.read_csv(filepath_or_buffer, sep=’, ‘, delimiter=None, header=’infer’, names=None, index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None, ...

空空如也

1 2 3 4 5 ... 20
收藏数 75,633
精华内容 30,253
关键字:

csv