精华内容
下载资源
问答
  • 1、创建表空间 CREATE bigfile TABLESPACE zwj  LOGGING  DATAFILE 'F:\oracle\zwj.ORA' SIZE 1000M  AUTOEXTEND  ON NEXT 1000M MAXSIZE UNLIMITED EXTENT MANAGEMENT LOCAL  SEGMENT SPACE
    1、创建表空间
    CREATE bigfile TABLESPACE   zwj
        LOGGING
        DATAFILE 'F:\oracle\zwj.ORA' SIZE 1000M
        AUTOEXTEND
        ON NEXT  1000M MAXSIZE UNLIMITED EXTENT MANAGEMENT LOCAL
        SEGMENT SPACE MANAGEMENT  AUTO;
    2、创建用户,并给用户指定默认表空间
     CREATE USER  kanguhong  PROFILE DEFAULT
        IDENTIFIED BY kanguhong DEFAULT TABLESPACE   zwj
        TEMPORARY TABLESPACE TEMP
        ACCOUNT UNLOCK;
    3、给用户用赋权限
    GRANT UNLIMITED TABLESPACE TO kanguhong;
    GRANT CONNECT TO kanguhong;
    GRANT DBA TO kanguhong;

    GRANT RESOURCE TO kanguhong;


    4、准备工作:创建directory对象(以dmpdir为例),并赋予用户权限(以trunkgas为例) --这是用数据泵导入数据
    create directory dmpdir as 'F:\temp';
    grant read,write on directory dmpdir to kanguhong;
    执行完成后,如果下一步是导入,先将要导入的文件放到对应路径下


    5、导入
    impdp  kanguhong/kanguhong  directory=dmpdir dumpfile=zwj_1112.DMP LOGFILE=zwjI_imp.log TABLE_EXISTS_ACTION=REPLACE  
       ----- TABLE_EXISTS_ACTION=REPLACE 表对象存在时,替换


    6、扩展表空间(如果以前表空间不够用,可以给表空间扩展文件个数)
    alter tablespace  zwj  add datafile 'D:\oracle\product\10.2.0\db_1\database\zwj2.ORA' SIZE 2000M AUTOEXTEND ON NEXT 1000M MAXSIZE UNLIMITED


    7.备注:以下这条命令是 当导入文件中有表KNOWLEDGEITEM不是在DALIANRANQI表空间时,而是在XINJIANGGAS表空间,这时不用建XINJIANGGAS空间,就可以导入表KNOWLEDGEITEM了。remap_schema当你从A用户导出的数据,想要导入到B用户中去,就使用这个:remap_schema=A:B
    impdp  kanguhong/kanguhong  directory=dmpdir dumpfile=zwj_1112.dmp tables=KNOWLEDGEITEM  REMAP_SCHEMA=XINJIANGGAS:kanguhong REMAP_TABLESPACE=XINJIANGGAS:zwj        LOGFILE=zwjTEST_1112_IMP.log   (在第五步的基础上再执行此句即可)


    展开全文
  • Hive创建表以及导入数据

    千次阅读 2018-07-04 14:54:12
    ## 建表### 内```create table test_user_base( name string comment 'name value', workid string comment 'workid value', age string comment 'age value', sex string comment 'sex value', phone string ...
    ## 建表
    ### 内表
    ```
    create table test_user_base(
    name string comment 'name value',
    workid string comment 'workid value',
    age string comment 'age value',
    sex string comment 'sex value',
    phone string comment 'phone value',
    addr string comment 'addr value',
    flag string comment 'flag value',
    )row format delimited fields terminated by ',';
    ```


    ### 外表
    create EXTERNAL table test_user_base(
    name string comment 'name value',
    workid string comment 'workid value',
    age string comment 'age value',
    sex string comment 'sex value',
    phone string comment 'phone value',
    addr string comment 'addr value',
    flag string comment 'flag value',
    )row format delimited fields terminated by ',';
    ```


    > 内部表和外部表不一样,内部表保存的是真实的数据,外部表的数据保存在文件系统上,hive内部仅仅保存数据元路径;删除的时候,内部表会删除元数据和真实数据全部删除,且不可恢复;内部表仅仅删除元数据。


    ## 导数
    ### 导入
    1. 从本地导入数据
    ```
    load data local inpath '/opt/custorm' into table customer;
    ```


        2. 从HDFS导入数据(会将HDFS上的文件mv到建表时指定的目录下,而不是copy)
        ```
        load data inpath '/user/root/employees.txt' overwrite into table employees;
        ```
        > into是加上,而overwrite是覆盖。


    ### 导出
    1. 导出到本地
    ```
    insert overwrite local directory '/opt/customer_exp' 
    row format delimited fields terminated by ','
    select * from employees limit 5;
    ```
    2. 导出到HDFS
    ```
    insert overwrite directory '/user/root/customer_exp' 
    row format delimited fields terminated by ','
    select * from employees limit 5;
    ```


    tips:
    - 建表和加载分区时加上 if not exists 
    - 删除表时加上   drop table if exists
    - 强制删除数据库:drop database if exists test cascate;





    展开全文
  • 创建表空间 创建表空间时要设置自动扩展 create tablespace 空间名称 datafile 'D:\oracle\product\10.2.0\oradata\orcl\空间名称.dbf' ...--datafile 空间数据存放位置 创建用户并分配默认空间 create us...

    创建表空间 创建表空间时要设置自动扩展

    create tablespace 表空间名称 datafile 'D:\oracle\product\10.2.0\oradata\orcl\表空间名称.dbf' size 1024M  autoextend on next 10M maxsize unlimited
    --datafile 表空间数据存放位置

    创建用户并分配默认表空间
    create user 用户名 identified by 密码 default tablespace 表空间名称;
     

    给用户授权

      角色说明:

      Oracle 拥有connect,resource和dba三个权限;
      其中 connect 最低级的权限 多用户临时用户访问,可以对数据库表进行crud操作。
      resource 资源角色,除了可以进行crud操作之外,还能进行存储过程、触发器、簇等操作
      dab 数据库管理 拥有数据库最高权限,可以对数据库进行任何操作。

    创建目录对象

    CREATE OR REPLACE DIRECTORY 目录对象名称 as 'D:\DataPump';  
    给目录对象授权
    GRANT read, write ON DIRECTORY 目录对象名称 TO 用户名;  
     

    导入

     impdp 用户名/密码@orcl DIRECTORY=目录对象 DUMPFILE=DMP数据泵EXCLUDE=CONSTRAINT full=y

    撤销授权

    revoke connect.resource from 用户名
     

    修改表空间未自动扩展

    ALTER DATABASE DATAFILE 'D:\oracle\oradata\orcl\表空间名称.dbf' AUTOEXTEND ON  MAXSIZE UNLIMITED;   
                                              

    修改表空间大小

    ALTER DATABASE DATAFILE 'D:\oracle\oradata\orcl\表空间名称.dbf' RESIZE 1024M;
     

    删除表空间

    DROP TABLESPACE 表空间名称 INCLUDING CONTENTS AND DATAFILES;
     

    删除用户

    drop user 用户名
    删除用户 且当前用户下有数据
    drop user 用户名 cascade;

    展开全文
  • impala创建表导入数据

    千次阅读 2018-09-20 10:11:06
    远程服务器拷贝(本地服务器A文件拷贝到远程服务器B): scp -r ./clean -P 63305 remote_user_name@192...创建impala数据表 create table company_info(_id varchar(100), _name varchar(100), _scope string) r...

    远程服务器拷贝(本地服务器A文件拷贝到远程服务器B):

    scp -r ./clean -P 63305  remote_user_name@192.168.**.**:remote_server_path

    创建impala数据表

    create table company_info(_id varchar(100), _name varchar(100), _scope string) row format delimited fields terminated by '$' ;

     

    将hdfs上的文件Move到Impala数据表的hdfs目录下:
    LOAD DATA INPATH "hdfs_source_path" OVERWRITE INTO TABLE company_info ;
     

    注意点:

    (1)通过impala-shell创建的表,其owner属于impala,需要保证hdfs上的源数据目录的owner也是impala。

    owner更改命令:

    sudo -u hdfs hdfs dfs -chown -R impala:supergroup "hdfs_source_path"

    (2)impala表导入数据时,导入文件只能是hdfs文件,而且分隔符必须是字符,不能是字符串。(cdh 5.13)

    (3)ubuntu上的多个文件打包和压缩为单个rar文件:

    rar a target_name.rar name1_* name2.txt

     

     

    展开全文
  • SQL(创建表导入数据)

    千次阅读 2019-06-13 08:47:19
    创建表导入数据 1 在数据库中创建一个新的数据库,命名。 2 命名之后在数据库文件选择路径,两个都要确定。 3 在新建的数据库中新建一个,添加所需要的数据后, 要设计一个ID;在ID列名设计主键,然后设计...
  • 1、Hive创建表----直接使用create语句 (IF NOT EXISTS判断是否已存在,BY后面接分隔符) CREATE TABLE IF NOT EXISTS 表名(字段1 数据类型,字段2 数据类型) ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘,’; ...
  • 接下来我想要创建一个b并将a中的数导入b, 在mysql中我可以这样做, CREATE TABLE IF NOT EXISTES b SELECT * FROM a; 而在sqllite数据库中适用mysql的语法却不在适用,有了一些微小的差异, CREATE TABLE...
  • 这里记录使用hana modeler创建schema,在schema下创建表,向该表导入数据。 schema就是定义一个“容器”,或者说空间来装一些数据库对象,比如视图、等。 创建schema 所有的schema都在catalog目录下,右键Catalog...
  • Doris 创建mysql从Mysql数据库导入数据 Doris 支持创建Mysql引擎的,操作此相当于操作远程Mysql。可以用来导入Mysql数据使用或测试。 建表语句(表名为sysbench生成的): CREATE TABLE example_db.table_...
  • 需要注意的是:创建表空间和用户是在sqlPlus中执行,而导入数据需要在cmd窗口执行。 一、创建表空间 create tablespace 空间名 datafile 'd:/*.dbf' size *M 在创建的时候定义空间名,空间文件对应的位置及...
  • hive创建外部导入数据

    千次阅读 2019-05-12 14:13:22
    在HDFS创建分区,并存有文件 手工创建或者由程序在HDFS上生成了分区目录,每个分区目录下有相应的文件。 vi test.txt 2;Lily;1991;Shanghai 3;Jack;1992;Guangxi 4;Jenny;1999;Xinjiang 5;Jay;1995;Xizang 6;Tom;...
  • 创建用户名之前,需要以...其格式为:格式: create tablespace 间名 datafile ‘数据文件名’ size 空间大小; 例如: SQL> create tablespace mytable datafile 'd:\myoracle\mytables1.dbf' size 1024M segmen
  • 将一个dmp文件以数据泵的方式导入到一个新的用户中,并且创建表空间。 以下操作可以在plsql工具中执行: --创建directory路径,将dmp文件和日志文件放进去(不会创建出物理文件夹,可以通过下一步查看是否创建出逻辑...
  • sqoop从sqlserver导入数据操作指令及hive创建表过程#sqoop从sqlserver导入数据到HDFS上,指定存储目录。设置m(mr)数量bin/sqoop import \--connect 'jdbc:sqlserver://xx.xx.xx.xxx:1433;database=库名' \--username...
  • 【需求】有时候我们不想导入数据到hive中,而是通过在hive中创建关联的方式查询hdfs上的数据,之后就能通过hive客户端或者spark应用程序获取hive的数据了。【原理】由于在hdfs中已存入了我们提前整理好的结构化...
  • 熟练掌握他们的创建方法,和函数中一些参数的使用。 对创建的数据结构进行,排序、查找、删除等简单的操作。 二、实验内容: 1、向量的创建及因子的创建和查看 有一份来自澳大利亚所有州和行政区的20个税务会计...
  • 数据泵--导入时自动创建用户

    千次阅读 2016-01-18 18:54:10
    今天在进行数据导入导出实验的时候,发现,原库存在但不在目标端存在的用户,比如A,在从原库导出A用户下,并导入目标端之后,会自动在目标端创建A用户。 源端A用户: create table test(id number); 导出。...
  • 创建hive和使用Load data指令导入数据的注意事项(一)创建hive数据库和1.1 类似于MySql创建命令,创建数据库和,并指定它在hdfs上的存储数据的目录'/hive_hdfs_local_data‘hive> CREATE DATABASE yyz...
  • 1.创建用户空间 create tablespace tbs_bidm (空间的名字) datafile 'D:\app\oracle\bidm\tbs_bidm_01.dbf' size 800M (初始大小) autoextend on(自动扩展) next 512m maxsize unlimited; 2.创建一个...
  • 如果已有先删除 sqlplus sys/orcl as sysdba ...//Oracle 创建表空间 创建用户 授予空间 授予dba权限 导入dmp数据文件  //命令行以dba身份登录 sqlplus sys/orcl as sysdba //创建表空间 cre
  • 本文提供一种在SQL Server下缺乏导入数据权限导入数据方法
  • django-批量导入数据到新创建

    千次阅读 2018-04-25 19:10:57
    3. 批量导入数据 比如有如下内容的blog.txt: title 1****content 1 title 2****content 2 title 3****content 3 title 4****content 4 title 5****content 5 title 6****content 6 将以上数据导入新建的中,可用...
  • Hive本身并不存储数据,而是将数据存储在...通过create user命令创建user时,会在HDFS中生成一个user目录/文件。 外部 数据不由Hive管理,使用drop命令删除一个时,只是把的元数据给删除了,而数据不会...
  • H2数据库导出导入数据方法

    万次阅读 2014-06-29 13:36:38
    1.导出数据:通过自带的CSVWRITE方法导出为csv格式文件。...2.导入数据:根据csv文件创建h2数据。  执行命令:  //csv文件数据创建test  CREATE TABLE TEST AS SELECT * FROM CSVREAD('d:/t
  • 最近这个项目做hive建表在导入数据的时候,数据量大的时候难免会慢一点,现在又发现了一种新的导入数据方式; 使用hdfs的文件进行导入,所以要使用的话就得先把文件上传到hdfs再操作 三个前提:1.文件必须已经上传...
  • 导入数据到hive中的6种方式

    万次阅读 2018-03-06 22:42:54
    数据导入六种方式1、加载本地文件到hive表语法2、加载hdfs文件到hive中3、加载数据覆盖中已有的数据4、创建表时通过select加载create table if not exists default.dept_catsas select * from dept;5、创建表通过...
  • Hive导入数据的四种方法

    千次阅读 2018-12-18 22:43:34
    (1)、从本地文件系统中导入数据到Hive; (2)、从HDFS上导入数据到Hive; (3)、从别的中查询出相应的数据并导入到Hive中; (4)、在创建表的时候通过从别的中查询出相应的记录并插入到所创建中...
  • imp导入数据指定空间,大致有以下几种方法可以:  1. 有一个简单的方法,适用于数据比较少的情况:直接使用UltraEdit打方DMP文件,默认是16进制,切换成文本模式,将里面的:TABLESPACE "TS1"全部替换成...
  • hive导入数据到分区/动态导入

    千次阅读 2018-08-18 23:13:32
    首先说明,insert into tab...从A中查询数据插入到B分区中 hive> insert into table B > partition (分区1 = '',分区2 = '') > select id, name > from A > where ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 654,176
精华内容 261,670
关键字:

导入数据的方法创建表