精华内容
下载资源
问答
  • Sqoop支持两种方式的全量数据导入和增量数据导入,同时可以指定数据是否以并发形式导入。下面依次来看: 全量数据导入 就像名字起的那样,全量数据导入就是一次性将所有需要导入的数据,从关系型数据库一次性...

    Sqoop支持两种方式的全量数据导入和增量数据导入,同时可以指定数据是否以并发形式导入。下面依次来看:


    全量数据导入

    就像名字起的那样,全量数据导入就是一次性将所有需要导入的数据,从关系型数据库一次性地导入到Hadoop中(可以是HDFS、Hive等)。全量导入形式使用场景为一次性离线分析场景。用sqoop import命令,具体如下:

    # 全量数据导入
    sqoop import \
     --connect jdbc:mysql://192.168.xxx.xxx:3316/testdb \
     --username root \
     --password 123456 \
     --query “select * from test_table where \$CONDITIONS” \
     --target-dir /user/root/person_all \ 
     --fields-terminated-by “,” \
     --hive-drop-import-delims \
     --null-string “\\N” \
     --null-non-string “\\N” \
     --split-by id \
     -m 6 \

    重要参数说明:

    参数 说明
    – query SQL查询语句
    – target-dir HDFS目标目录(确保目录不存在,否则会报错,因为Sqoop在导入数据至HDFS时会自己在HDFS上创建目录)
    –hive-drop-import- delims 删除数据中包含的Hive默认分隔符(^A, ^B, \n)
    –null-string string类型空值的替换符(Hive中Null用\n表示)
    –null-non-string 非string类型空值的替换符
    –split-by 数据切片字段(int类型,m>1时必须指定)
    -m Mapper任务数,默认为4


    增量数据导入

    事实上,在生产环境中,系统可能会定期从与业务相关的关系型数据库向Hadoop导入数据,导入数仓后进行后续离线分析。故我们此时不可能再将所有数据重新导一遍,此时我们就需要增量数据导入这一模式了。

    增量数据导入分两种,一是基于递增列的增量数据导入(Append方式)。二是基于时间列的增量数据导入(LastModified方式)。

    1、Append方式

    举个栗子,有一个订单表,里面每个订单有一个唯一标识自增列ID,在关系型数据库中以主键形式存在。之前已经将id在0~5201314之间的编号的订单导入到Hadoop中了(这里为HDFS),现在一段时间后我们需要将近期产生的新的订单数据导入Hadoop中(这里为HDFS),以供后续数仓进行分析。此时我们只需要指定–incremental 参数为append,–last-value参数为5201314即可。表示只从id大于5201314后开始导入。

    # Append方式的全量数据导入
     sqoop import \
       --connect jdbc:mysql://192.168.xxx.xxx:3316/testdb \
       --username root \
       --password 123456 \
       --query “select order_id, name from order_table where \$CONDITIONS” \
       --target-dir /user/root/orders_all \ 
       --split-by order_id \
       -m 6  \
       --incremental append \
       --check-column order_id \
       --last-value 5201314

    重要参数说明:

    参数 说明
    –incremental append 基于递增列的增量导入(将递增列值大于阈值的所有数据增量导入Hadoop)
    –check-column 递增列(int)
    –last-value 阈值(int)

    2、lastModify方式
    此方式要求原有表中有time字段,它能指定一个时间戳,让Sqoop把该时间戳之后的数据导入至Hadoop(这里为HDFS)。因为后续订单可能状态会变化,变化后time字段时间戳也会变化,此时Sqoop依然会将相同状态更改后的订单导入HDFS,当然我们可以指定merge-key参数为orser_id,表示将后续新的记录与原有记录合并。

    # 将时间列大于等于阈值的数据增量导入HDFS
     sqoop import \
       --connect jdbc:mysql://192.168.xxx.xxx:3316/testdb \
       --username root \
       --password transwarp \
       --query “select order_id, name from order_table where \$CONDITIONS” \
       --target-dir /user/root/order_all \ 
       --split-by id \
       -m 4  \
       --incremental lastmodified \
       --merge-key order_id \
       --check-column time \
       # remember this date !!!
       --last-value “2014-11-09 21:00:00

    重要参数说明:

    参数 说明
    –incremental lastmodified 基于时间列的增量导入(将时间列大于等于阈值的所有数据增量导入Hadoop)
    –check-column 时间列(int)
    –last-value 阈值(int)
    –merge-key 合并列(主键,合并键值相同的记录)

    并发导入参数如何设置?

    我们知道通过 -m 参数能够设置导入数据的 map 任务数量,即指定了 -m 即表示导入方式为并发导入,这时我们必须同时指定 - -split-by 参数指定根据哪一列来实现哈希分片,从而将不同分片的数据分发到不同 map 任务上去跑,避免数据倾斜。

    重要Tip

    • 生产环境中,为了防止主库被Sqoop抽崩,我们一般从备库中抽取数据。
    • 一般RDBMS的导出速度控制在60~80MB/s,每个 map 任务的处理速度5~10MB/s 估算,即 -m 参数一般设置4~8,表示启动 4~8 个map 任务并发抽取。

    如果大家有补充,欢迎交流。

    展开全文
  • java实现Excel数据导入到数据库

    千次下载 热门讨论 2014-05-31 23:59:34
    java实现Excel数据导入到数据库,如果数据库中存在就更新。 数据库数据导入到Excel表中。
  • Neo4j数据导入

    千次阅读 2019-10-21 16:05:13
    常见的Neo4j数据导入方式如下: 1.通过Cypher中的create语句。 2.Cypher中的load csv方式。 3.官方提供的neo4j-import工具。 4.官方提供的Java API BatchInserter。 5.batch-import 工具。 6.neo4j-apocload....

    常见的Neo4j数据导入方式如下:
    1.通过Cypher中的create语句。
    2.Cypher中的load csv方式。
    3.官方提供的neo4j-import工具。
    4.官方提供的Java API BatchInserter。
    5.batch-import 工具。
    6.neo4j-apocload.csv +apoc.load.relationship。
    其各自使用对比如下图(网上):
    在这里插入图片描述
    现就LOAD CSV及neo4j-import工具进行说明。

    **

    LOAD CSV

    **

    LOAD CSV可支持读取本地文件及远程文件,语法分别为:

    本地:LOAD CSV FROM "file:///data.csv"
    远程:LOAD CSV FROM 'https://neo4j.com/docs/cypher-manual/3.5/csv/artists.csv'
    

    使用参数:
    1.using periodic commit n : 每n条自动提交一次
    2.with headers :文件第一行作为参数名,加上该参数才能使用line.name这种方式
    3.with line :为每行数据重命名

    Neo4j数据导入中最关键的是csv文件数据的格式,要求如下,
    在这里插入图片描述
    即字符编码为UTF-8,行分隔符为\n,默认列分隔符为逗号,但可加FIELDTERMINATOR参数指定分隔符,当dbms.import.csv.legacy_quote_escaping参数为true时,默认转义字符为\。

    示例

    节点

    csv文件为:
    在这里插入图片描述
    导入:

    load csv from 'file:///node.csv' As line create (a:qianfu{name:line[1],post:line[2]});
    

    得到
    在这里插入图片描述
    这里若将csv文件改为:
    在这里插入图片描述
    则语句可为

    load csv with headers from 'file:///node.csv' As line create (a:qianfu{name:line.name,post:line.post});
    

    为避免重复插入,可将create关键字换为merge。
    还有个值得注意的点是csv文件目录的问题,笔者第一次导入时就碰到了这个坑,报Couldn’t load the external resource at: file…错误,仔细一看报错信息,是路径的问题。
    在这里插入图片描述
    原来load csv的时候会去/usr/local/neo4j-community-3.5.11/import目录下找相应文件,所以写相对路径就ok。
    若想使用绝对路径或修改默认路径,可在neo4j.conf配置文件中,找到 dbms.directories.import=import,将该行注释掉或者改成自己习惯的路径。

    关系

    csv文件为:
    在这里插入图片描述
    导入,

    load csv with headers from "file:///relation.csv" As line match  (from:qianfu{name:line.name1}),(to:qianfu{name:line.name2})  
    merge (from) -[r:rel{pro:line.rela}]-> (to);
    

    在这里插入图片描述

    **

    neo4j-import

    **
    neo4j-import同neo4j-admin import (官方推荐),使用前提是关闭neo4j服务,原有库不存在。
    语法:

    neo4j-admin import [--mode=csv] [--database=<name>]
                              [--report-file=<filename>]
                              [--nodes[:Label1:Label2]=<"file1,file2,...">]
                              [--relationships[:RELATIONSHIP_TYPE]=<"file1,file2,...">]
                              [--id-type=<STRING|INTEGER|ACTUAL>]
                              [--input-encoding=<character-set>]
                              [--ignore-extra-columns[=<true|false>]]
                              [--ignore-duplicate-nodes[=<true|false>]]
                              [--ignore-missing-nodes[=<true|false>]]
                              [--multiline-fields[=<true|false>]]
                              [--delimiter=<delimiter-character>]
                              [--array-delimiter=<array-delimiter-character>]
                              [--quote=<quotation-character>]
                              [--max-memory=<max-memory-that-importer-can-use>]
                              [--f=<File containing all arguments to this import>]
                              [--high-io=<true/false>]
    

    主要选项说明:
    mode:默认为csv。
    database:默认为graph.db。
    report-file:为文件导入记录(导入时会生成import.report文件,记录未导入成功的条目)。
    nodes:待导入的节点csv文件,可直接使用nodes:Label的方式显示指定标签。
    relationships:待导入的关系csv文件,relationships:RELATIONSHIP_TYPE指定关系。
    id-type:每个节点需有唯一标识,id-type指定唯一标识类型,默认为string。
    input-encoding:导入数据的字符集,默认UTF-8。
    delimiter:csv文件数据间分隔符,默认逗号。
    ignore-extra-columns:导入时忽略未指定的列。默认false。
    ignore-duplicate-nodes:导入时节点忽略重复节点。默认false。
    ignore-missing-nodes:导入时忽略关系里缺失的节点。默认false。

    示例

    csv文件分别为:

    customers.csv

    customerId:ID(Customer),name
    23,Delicatessen Inc
    42,Delicous Bakery
    

    products.csv

    productId:ID(Product),name,price,:LABEL
    11,Chocolate,10,Product;Food
    

    orders_header.csv

    orderId:ID(Order),date,total,customerId:IGNORE
    

    orders1.csv

    1041,2015-05-10,130,23
    

    orders2.csv

    1042,2015-05-12,20,42
    

    order_details.csv

    :START_ID(Order),amount,price,:END_ID(Product)
    1041,13,130,11
    1042,2,20,11
    

    customer_orders_header.csv

    :END_ID(Order),date:IGNORE,total:IGNORE,:START_ID(Customer)
    

    导入:

    关闭neo4j: ./neo4j stop
    删除原有graph.db库: rm -rf /usr/local/neo4j-community-3.5.11/data/databases/graph.db
    导入:./neo4j-admin import --id-type=STRING --nodes:Customer=customers.csv --nodes=products.csv --nodes="orders_header.csv,orders1.csv,orders2.csv" --relationships:CONTAINS="order_details.csv" --relationships:ORDERED="customer_orders_header.csv,orders1.csv,orders2.csv"
    

    出现下图所示即导入成功。
    在这里插入图片描述
    启动neo4j。
    在这里插入图片描述
    导入过程中出现了 Expected ‘–nodes’ to have at least 1 valid item, but had 0 []报错信息,意思是找不到有效的节点,后检查为csv文件路径及文件名称问题,值得注意。

    csv文件格式说明:
    customers.csv文件头 customerId:ID(Customer),name 指定customerId属性为唯一标识,指定id-group名称为Customer(为避免多个节点有重复的id,所以需指定,若只导入单个实体可不指定),且该文件未指定Label,故在导入语句中显示指定Label --nodes:Customer=customers.csv。
    products.csv文件 productId:ID(Product),name,price,:LABEL 最后一列为标签,该文件内容指定Chocolate为Product;Food两标签,分号隔开。
    orders_header.csv文件中最后一列加:IGNORE表示导入忽略该列。
    关系csv文件order_details.csv中文件头*:START_ID(Order),amount,price,:END_ID(Product)* 中 :START_ID(Order)表示关系起点,为Order组的id,:END_ID表示关系终点,为Product组id。与节点类似,也可在文件中最后一列加:TYPE指定关系类型。

    总结

    用户可根据所需选择数据导入方式,就上述两种方式而言,LOAD CSV更适合数据量较小,且不能关闭neo4j的情况,通常用于增量更新。neo4j-admin import方式更适用于大量数据情况,且必须关闭neo4j,通常适用于数据初始化。但无论哪种方式,csv文件数据格式处理都是最重要的一环。

    文章内容参考:
    https://neo4j.com/developer/guide-import-csv/#_super_fast_batch_importer_for_huge_datasets

    展开全文
  • 如何把数据导入数据库

    万次阅读 2019-05-08 20:55:42
    数据库是我们经常用到的软件,但是如何把自己想要的数据导入到数据库之中呢 下面我来给大家讲解一下。 首先我做一个案例: 先给大家看一下我将要导入的是哪一个数据: 就是这两个了,导入数据库有2个难点 1丶你得...

    开发工具与关键技术:SQL
    数据库是我们经常用到的软件,但是如何把自己想要的数据导入到数据库之中呢 下面我来给大家讲解一下。
    首先我做一个案例:
    先给大家看一下我将要导入的是哪一个数据:
    在这里插入图片描述
    就是这两个了,导入数据库有2个难点
    1丶你得记住你要把文件放入的地方(当然这只是方法之一)
    2丶切记别玩了导入之后的附加
    接下来给你们看一下导入成功之后的图片:
    在这里插入图片描述

    这就是把数据导入数据库成功之后的样式,可以看到点击登录数据库之后点击数据库之后的情景,在点击之后会出现想导入数据的名称右键之后会出现自己想编辑的东西 这样就算是完成了
    现在我就来教大家如何导入。
    首先先把自己想导入的数据先复制一份
    再找到自己电脑之中的C盘,找到之后 找到一个文件名叫 Program Files (大家不用担心命名不同的问题 因为在C盘中很多文件名是固定的,只有个别能进行更该),找到这个文件之后
    点击进去 有一个 文件名叫做 Microsoft SQL Server 这个需要注意 因为有很多和这个文件名字差不多的文件名 需要注意查看 点击完了这个文件夹之后 : 如图所示
    在这里插入图片描述
    是文件夹最后的一个 里面有 MSA 和 MSR MSS 开头的三个 选择最后一个 MSS开头的 文件夹 点进去之后只有一个文件夹 MSSQL 右键打开 会出出现一个 DATA 的文件 然后把自己要导入的数据直接粘贴到文件夹之中
    粘贴完成之后打开数据库 之后你会发现其实 数据并没有传送到数据库之中 其实你只是把数据放到了数据库的文件夹之中并没有附加上去。
    在登录数据库完成之后右击数据库会有一个附加的字样,
    如图所示:
    在这里插入图片描述
    在点击完成之后 里面会出现一个添加的字样
    如下图所示:
    在这里插入图片描述
    直接点击添加它会弹出你所有在数据库之中的名字在这之中
    如图所示:
    在这里插入图片描述
    接下来把自己想要要导入的数据 用鼠标选中 点击确定便可以导入成功了,若是在图中没有你想要导入的数据 那么 用鼠标点击我用红色矩形框住的位置 点击一下 (因为有一些路径名字很长在我所用红色矩形框住的地方显示不了全部的路径) 在点击之后用按右键便可以把路径给看到了,然后找到路径 把数据粘贴到里面 按照上面的内容附加 之后便可以让数据出现 在数据库之中了。

    展开全文
  • MaxCompute数据导入导出

    千次阅读 2018-09-18 11:47:09
    MaxCompute数据导入导出1.Tunnel命令导入数据2.MaxCompute Studio导入数据3.Tunnel SDK4.其他导入方式详细介绍请见 MaxCompute提供多种数据导入导出方式,如下所示: 直接在客户端使用Tunnel命令。 通过MaxCompute ...


    MaxCompute提供多种数据导入导出方式,如下所示:

    • 直接在客户端使用Tunnel命令。
    • 通过MaxCompute Studio工具可视化方式实现本地数据文件导入导出,详情请参见导入导出数据。
    • 通过Tunnel提供的SDK自行编写Java工具。
    • 通过Flume及Fluentd插件方式导入。
    • 通过DataWorks对数据导入和导出,详情请参见数据集成概述。

    导出数据请参见Tunnel命令操作中Download的相关命令。

    1.Tunnel命令导入数据

    1.准备数据
    假设您已准备本地文件wc_example.txt,本地存放路径为D:\odps\odps\bin,内容如下:

    I LOVE CHINA!MY NAME IS MAGGIE.
    I LIVE IN HANGZHOU!I LIKE PLAYING BASKETBALL!

    2.创建MaxCompute表
    您需要把上面的数据导入到MaxCompute的一张表中,所以需要创建MaxCompute表。

    CREATE TABLE wc_in (word string);

    3.执行tunnel命令
    输入表创建成功后,可以在MaxCompute客户端输入Tunnel命令进行数据的导入,如下所示:

    tunnel upload D:\odps\odps\bin\wc_example.txt wc_in;

    4.执行成功后,查看表wc_in的记录

    说明
    (1)有关Tunnel命令的更多详细介绍,例如如何将数据导入分区表等,请参见Tunnel操作。
    (2)当表中含有多个列时,可以通过-fd参数指定列分隔符。

    2.MaxCompute Studio导入数据

    在使用MaxCompute Studio导入数据前,您需要先安装MaxCompute Studio,并配置项目空间链接。

    1.准备数据
    假设依然是该本地文件wc_example.txt,本地存放路径为D:\odps\odps\bin
    2.创建MaxCompute表
    您需要把上面的数据导入到MaxCompute的一张表中,所以需要创建MaxCompute表。右键单击项目的 tables&views列表:

    执行成功,则建表成功。

    3上传数据文件
    右键单击tables&views列表中新建的表wc_in

    3.Tunnel SDK

    具体略:主要通过java对Tunnel源文件进行修改以及配置pom.xml文件

    4.其他导入方式

    除了通过客户端及Tunnel Java SDK导入数据,阿里云数加数据集成、开源的Sqoop、Fluentd、Flume、LogStash 等工具都可以进行数据导入到MaxCompute,详情请参见数据上传下载-工具介绍。

    详细介绍请见

    https://help.aliyun.com/document_detail/27809.html?spm=a2c4g.11186623.6.578.14502185gwthBb

    展开全文
  • matlab 数据导入

    千次阅读 2015-05-24 16:47:35
    另一种是通过matlab的数据导入向导导入。下面分布介绍这两种方法: 一、使用matlab数据导入向导  1、先来看看txt文档中保存的数据结构,如图所示,数据之间用空格隔开,这种结构是比较理想的。可以直接导入。或者...
  • SQLServer 2012 数据导入与数据导出

    千次阅读 2019-04-15 12:59:03
    文章目录导入数据使用SSMS工具导入数据导出数据使用SSMS工具导出数据 导入数据 数据信息: 使用SSMS工具导入数据 展开“数据库”,右击需要导入数据的数据库,选择“任务”,在任务中选择“导入数据”。 ...
  • greenplum数据导入导出

    千次阅读 2019-05-29 10:31:40
    一、数据导入 greenplum数据导入有五种方式: 1. insert:通过sql直接插入数据 2. copy:通过master节点加载,无法实现并行高效数据加载 copy tablename from '/home/../test.cvs' with delimiter ','; 3...
  • 如何用Matlab把excel表格中的数据导入Matlab中并绘制出图?   1.将excel中的数据导入Matlab中,点击“导入数据” 2.弹出“Import”窗口,在窗口工具栏左侧导入选项中选择“Matrix(矩阵)”,然后点击工具栏...
  • tif数据导入Postgresql

    千次阅读 2018-11-16 22:03:48
    前言 空间数据包括矢量数据和...下面我们来看看如何利用raster2pgsql工具将tif数据导入postgresql中。 1、找到raster2pgsql工具 在Postgresql安装目录找到raster2pgsql所在路径,并在命令提示符切换到该路径 ...
  • SAP LTMC物料主数据导入教程
  • SPSS数据导入

    千次阅读 2016-08-23 22:33:47
    一:数据导入方法 1、手动录入:enter和tab 2、.xls格式文件(excel默认格式)注意:spss 19.0版本的软件只支持.xls格式;spss 22.0版本软件既支持 .xls 也支持.xlsx 3、.sav格式文件(spss默认格式) 4、.txt...
  • 利用Python进行数据分析——数据导入导出

    万次阅读 多人点赞 2017-08-07 09:02:18
    python数据分析之数据导入导出
  • hbase数据导入导出

    千次阅读 2018-12-05 17:53:23
    hbase数据导入 将本地文件(test.csv)上传到hdfs的根目录下,然后导入数据到hbase 1.本地写一个文件进行测试,文件名为test.csv,内容如下: 2.将文件上传到Hadoop 3.查看是否上传成功(文件存在,表示成功) ...
  • python之pandas数据导入

    万次阅读 2018-07-19 14:34:27
    pandas数据导入 学习python最好的学习方法就是带着自己的工作需求或者目标去学习。pandas库不多介绍,先放一些最基础的内容帮助学习。 pandas导入/导出数据是非常方便的,可以快速的导入现在常见的excel、csv、txt...
  • neo4j数据导入导出

    千次阅读 2018-11-01 07:27:22
    执行数据导出命令 ./neo4j-admin dump --database=graph.db --to=/soft/graph.db.dump 执行数据导入命令 neo4j-admin load --from=/soft/graph.db.dump --database=graph.db --force  
  • MATLAB数据导入(importdata函数)

    万次阅读 多人点赞 2018-09-19 12:25:22
    编写程序时,有时需要从外部读入数据,这里介绍用importdata函数把数据导入MATLAB的方法。 1.加载和显示图像文件 在MATLAB中建立一个脚本文件,内容如下: filename = 'ming.png'; A = importdata(filename); ...
  • oracle之——oracle数据库数据导入导出步骤(入门)

    万次阅读 多人点赞 2017-04-18 16:38:59
    oracle数据库数据导入导出步骤(入门)说明: 1.数据库数据导入导出方法有多种,可以通过exp/imp命令导入导出,也可以用第三方工具导出,如:PLSQL 2.如果熟悉命令,建议用exp/imp命令导入导出,避免第三方工具...
  • docker mysql数据导入

    千次阅读 2018-07-19 10:47:19
    一、主机与docker容器之间数据导入、导出 从主机复制到容器 sudo docker cp host_path containerID:container_path 从容器复制到主机 sudo docker cp containerID:container_path host_path 二、mysql ...
  • Stata学习笔记——数据导入

    千次阅读 2019-01-07 16:05:50
    数据导入 常用数据格式 .csv : 用逗号分隔符分割的数据形式 .xlsx : Excel的表格形式 .dta : Stata专用的数据形式 数据导入命令
  • Solr中的数据导入

    千次阅读 2018-08-24 08:18:32
    Solr中的数据导入 创建数据库 Solr可以直接将数据库中的数据导入Solr中,在导入数据前,需要首先创建数据库,并插入相关数据。  1.1.创建数据库 创建表并插入数据 进行配置 在Solr服务器程序中添加jar包...
  • 查看logstash 导入数据到es中,数据导入的数量 stat /home/raw_data/8_31/* #查看文件状态, 查看logstash处理文件进度记录 input { file { path => [ "/home/raw_data/8_31/*.csv" ] start_...
  • 数据导入到SqlServer是很常用的一个功能,而Excel数据源又是数据导入功能的常用数据源,在使用时遇到一些问题,记录下来防止大家走弯路。 UserInfo表结构以及Excel数据截图 UserInfo表结构: Excel数据: ...
  • Kafka数据导入导出

    千次阅读 2017-10-24 09:45:52
    用命令行方式读写 Kafka 玩玩还行,真正投入实际使用时,往往需要把数据导入到 Kafka 或导出 Kafka 数据到本地文件中。这里我们学习一下怎么实现这个功能。   先创建一个本地源数据文件:   ...
  • python如何把excel数据导入数据库

    万次阅读 2018-11-23 19:02:20
    因为需要对数据处理,将excel数据导入到数据库,记录一下过程。 使用到的库:xlrd 和 pymysql (如果需要写到excel可以使用xlwt) 直接丢代码,使用python3,注释比较清楚。 ? 1 2 3 4 ...
  • python数据导入数据库的方法: 一种是导入sqlalchemy包,另一种是导入psycopg2包。 具体用法如下(此处以postgre数据库举例) 第一种: # 导入包 from sqlalchemy import create_engine import pandas as pd ...
  • spark数据导入导出

    千次阅读 2017-12-22 11:12:06
    1、数据导入:结构化数据,hive中 2、代码提交: (1) spark-shell的方式 (2) spark-submit的方式,代码已经编译好。 (3) zeppelin,spark编码的方式 3、数据输出: (1) csv,json (2) 本地化,hive 【实现】 1、...
  • Igor数据导入与绘图

    千次阅读 2019-08-09 20:37:59
    Igor数据导入 Igor支持多种数据格式 常见的数据格式有:简单文本格式(内容可以是数字、字母)、二进制文件、影像(TIFF, PNG, JPG …)、Excel文件等. 可以在Main menu -> Data -> Load Waves 查看所有支持的...
  • 用navicat的“导入”功能,把excel数据导入到mysql,30多万行,只能导入4万多行, 而且显示导入成功,完全没有报错。。。 请问这是什么愿意,怎么解决啊? 谢谢各位大神~

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 159,934
精华内容 63,973
关键字:

数据导入