精华内容
下载资源
问答
  • plsql导入.dmp步骤

    万次阅读 多人点赞 2017-10-13 22:43:20
    plsql导入.sql和.dmp文件时,会经常用到,对于初学者来说可能没有那么简单,毕竟oracle数据库比较麻烦。 下面是我自己导入.sql和.dmp文件的步骤。 1.导入.sql文件(sql文件是表结构文件,不包含数据)工具->导入表...

    plsql导入.sql和.dmp文件时,会经常用到,对于初学者来说可能没有那么简单,毕竟oracle数据库比较麻烦。
    下面是我自己导入.sql和.dmp文件的步骤。
    1.导入.sql文件(sql文件是表结构文件,不包含数据)

    工具->导入表

    这里写图片描述
    2.->sql插入
    这里写图片描述
    关于可执行文件,该文件位置在oracle的安装位置下
    我的是:F:\app\Administrator\product\11.2.0\dbhome_1\BIN\sqlplus.exe
    3.->oracle插入,现在.bmp文件(.bmp文件是含有数据的储存文件)
    这里写图片描述
    注意:不要勾选“显示”,否则导入表没有数据
    可执行文件与第二步的位置一样,
    我的是F:\app\Administrator\product\11.2.0\dbhome_1\BIN\imp.exe
    无论导入到出,都需要选择可执行文件,导出.dmp文件需要exp.exe可执行文件。
    4.查看日志,可以看到导入.bmp文件成功
    这里写图片描述
    5.查询数据,测试,成功。
    这里写图片描述

    总结一下
    1.导入.sql文件需要sqlplus.exe,导入.bpm文件需要imp.exe,导出.sql直接导出,导出.bmp文件需要exp.exe。
    2.我曾试过直接导入.bmp文件,后来发现并没有数据。
    3.oracle导入时没有勾选“显示”的时候,也没有数据。

    写这篇文章的时间太久远了~我现在都忘记了,甚至改用了MySQL,如有不对,望评论区指正。

    戳这里领取 Java学习资料(Java思维导图+入门视频+框架+40本电子书+100集Java面试视频+5w字Java面试题+600套简历模板)

    展开全文
  • impdp导入dmp文件

    万次阅读 2017-03-09 12:49:32
    只能导入expdp导出的dmp文件。 expdp导出的时候,需要创建DIRECTORY 导出什么表空间,导入也要什么表空间。 导出什么用户,导入也要什么用户。 如果没有要新建。 从杭州服务器expdp导出了TOOLBOX用户的数据库dmp...

    impdp命令在cmd下直接用,不必登录oracle。只能导入expdp导出的dmp文件。

     

    expdp导出的时候,需要创建 DIRECTORY

    导出什么表空间,导入也要什么表空间。

    导出什么用户,导入也要什么用户。

    如果没有要新建。

     

    从杭州服务器expdp导出了TOOLBOX用户的数据库dmp文件,要导入宁波本地开发环境中。

     

    宁波本地oracle环境是全新的(windows环境)。

     

    创建表空间

    create tablespace TOOLBOX
    logging
    datafile 'C:\oraclexe\app\oracle\oradata\XE\TOOLBOX.dbf'
    size 50m
    autoextend on
    next 32m maxsize unlimited
    extent management local;

    创建用户,赋予权限
    create user TOOLBOX identified by 123456;
    alter user TOOLBOX default tablespace TOOLBOX;
    grant CREATE ANY DIRECTORY,create session,create table,create view,unlimited tablespace to TOOLBOX;

    登录ToolBox用户

    创建DIRECTORY

    CREATE OR REPLACE DIRECTORY 
    DMPDIR AS  'c:\'; 

     

    编写导入impdp语句

    impdp toolbox/123456 DIRECTORY=DMPDIRDUMPFILE=hz_toolbox_20160613.dmp full=y

     

    -------------

    请关注我的订阅号   松门一枝花   

     

     

    展开全文
  • test.dmp test.dmp test.dmp

    2011-07-23 09:30:57
    test.dmp test.dmp test.dmp test.dmp
  • DMP不完美演示 培训DMP以增强不完美的示范。
  • 大数据DMP项目

    2019-05-07 12:21:13
    DMP项目的项目需求、介绍,计算逻辑,以及开发代码和源数据等,
  • oracle导出dmp

    2017-11-14 21:52:42
    详细的oracle数据库导出dmp文件操作说明,适用于各个操作系统
  • DMP项目

    千次阅读 2019-08-23 17:33:52
    DMP说明: DMP(Data Management Platform)数据管理平台,是把分散的多方数据进行整合纳入统一的技术平台,并对这些数据进行标准化和细分,让用户可以把这些细分结果推向现有的互动营销环境里的平台。 1.项目背景 ...

    DMP说明:
    DMP(Data Management Platform)数据管理平台,是把分散的多方数据进行整合纳入统一的技术平台,并对这些数据进行标准化和细分,让用户可以把这些细分结果推向现有的互动营销环境里的平台。
    1.项目背景
    互联网广告(本项目针对手机,OTT,PC)的崛起得益于信息技术的发展和普及,智能的终端设备迅猛的发展。
    互联网广告的优势:
    1)受众多 10亿+网民
    2)可以跟踪用户的行为,进而可以做精准营销
    2.dsp流程
    在这里插入图片描述
    如果用户是第一次进来,在DMP中没有信息,有默认的广告投放公司,比如可口可乐会去投(追求曝光率)
    DSP主要是有两个属性,1就是广告,2就是DMP系统,里面有我们用户的信息(比如关注的物品的权重)
    3.项目开发部分
    项目开展之前进行一下操作,成为项目准备阶段
    1)需求分析
    这里简单的说几句,因为涉及到公司机密和技术要点,不便于详细说明,望理解。
    dmp项目就是用来支撑精准广告投放的,主要是用用户画像,根据埋点采集的数据,进行ETL处理,然后进行数据分析,抽象出来一些标签,再根据用户行为数据,从不同维度数据的权重,给用户打上标签,实现广告精准投放。
    2)技术架构
    详细的请看下图:
    在这里插入图片描述
    3)技术选型
    CDH5.16.1(hadoop2.6.x,hbase等)
    Spark2.3(sparksql,sparkstreaming)
    Java1.8
    Scala2.11.8
    kafka10.1

    这里贴出几种类型数据展示一下:
    1>.行为数据
    0bb49045000057eee4ed3a580019ca06,0,0,0,100002,未知,26C7B9C83DB4B6197CEB80D53B3F5DA,1,1,0,0,2016-10-0106:19:17,139.227.161.115,com.apptreehot.horse,马上赚,AQ+KIQeBhehxf6xf98BFFnl+CV00p,A10%E55F%BC%E6%AO%B%,1,4.1.1,760,980,上海市,上海市,4,3,Wifi,0,0,2,插屏,1,2,6,未知,1,0,0,0,0,0,0,0,0,555,240,290,AQ+KIQeBhexf6x988FFnl+CVOOp,1,0,0,0,0,0,mm_26632353_8068780_27326559,2016-10-01 06:19:17,
    2>.dmp检测数据
    2019-08-15 00:07:35 {dmp:admaster;deviceid:DEVICE_948134c7097826d47ac1680388ef1811;adxtype:39;ip:112.23.190.244;dealid:d700cb8047d96660eef5dba91054f81f;4|1121394:1;4|1121393:0;}
    3>.投放日志数据(默认分隔符"\001")
    dsp_imp_uv_table.ip221.15.29.238
    dsp_imp_uv_table.request_typeGET
    dsp_imp_uv_table.url_hostdspo.htm
    dsp_imp_uv_table.media_id17
    dsp_imp_uv_table.creative_id2050317000
    dsp_imp_uv_table.device_idDEVICE_b2f945a1ea91809b4832d8b160d01bd8
    dsp_imp_uv_table.ts1551369958
    dsp_imp_uv_table.str1-
    dsp_imp_uv_table.str2-
    dsp_imp_uv_table.uaCupid/3.0;NetType/unknown
    dsp_imp_uv_table.str3-
    dsp_imp_uv_table.http_type200
    dsp_imp_uv_table.date_id20190301
    以上为三种数据格式。
    所以第一步要考虑数据存储问题,这里还考虑到以后要进行数据分析,数据量大(每天近乎10T采集数据),这里选用hdfs用于存放原始数据。
    竟然选用了hadoop,那数据分析工具自然选用hive。对上述数据类型进行建表,完成数据仓库的ODS(临时存储层)层
    简单的列举几个sql:

    表一:
    create EXTERNAL table IF NOT EXISTS danp_data_db.dsp_imp_uv_table(
    ip string,
    request_type string,
    url_host string,
    media_id string,
    creative_id string,
    device_id string,
    ts string,
    str1 string,
    str2 string,
    ua string,
    str3 string,
    http_type string
    )
    partitioned by (date_id string)
    row format delimited fields terminated by '\t'
    stored as TEXTFILE
    LOCATION '/hive_data/danp_data/dsp_get';
    
    表二:
    create EXTERNAL table x_test.dmp(
    dmp string,
    deviceid string,
    adxtype string,
    ip string,
    dealid string,
    audiences map<STRING,STRING>
    )
    partitioned by (date_id string,media string)
    row format delimited fields terminated by '\001'
    COLLECTION ITEMS TERMINATED BY ',' 
    map keys terminated by '=' 
    stored as TEXTFILE
    LOCATION '/dmp_dataclean/dmp_table';
    
    分区表刷新分区
    MSCK REPAIR TABLE dmp_db.dmp_partition_table;
    

    当我们对ODS层搭建完成,这时需要数据流入,所以写了定时脚本(crontab),让数据每天自己入库,相关脚本如下:

    #!/bin/bash
    
    export JAVA_HOME=/usr/share/java/jdk1.8.0_211
    export CLASSPATH=.:${JAVA_HOME}/jre/lib/rt.jar:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar
    export PATH=$PATH:${JAVA_HOME}/bin
    
    date_idv=`date -d "-1 day" +"%Y%m%d"`
    echo "--------------------clean data date:$date_idv--------------------"
    hdfs dfs -mkdir /hive_data/dmp/data/$date_idv;
    for name in /data/dmp_data/*/*$date_idv.txt
    do
    hdfs dfs -put $name /hive_data/dmp/data/$date_idv;
    echo "--------------------date into hdfs success:$name--------------------"
    done;
    echo "--------------------data clean begin--------------------"
    hadoop jar /data/dmp_data/xyy_jars/DmpDataClean.jar work01 /hive_data/dmp/data/$date_idv /hive_data/dmp/data/$date_idv/output $date_idv;
    echo "--------------------clean success--------------------"
    hdfs dfs -mv /hive_data/dmp/data/$date_idv/output/* /hive_data/dmp/table;
    hdfs dfs -mkdir /hive_data/dmp/dmp_partition_table/date_id=$date_idv;
    echo "--------------------data analyze--------------------"
    hive -e "insert overwrite directory \"/hive_data/dmp/dmp_partition_table/date_id=$(date -d "-1 day" +"%Y%m%d")\" select logtime, dmp, deviceid, adxtype, ip, dealid, audiences from dmp_db.dmp_table where logdate=\"$(date -d "-1 day" +"%Y-%m-%d")\" ";
    echo "--------------------get data success--------------------"
    echo "--------------------add patition--------------------"
    hive -e "MSCK REPAIR TABLE dmp_db.dmp_partition_table;";
    echo "--------------------everything be ok--------------------"
    

    DmpDataClean.jar代码如下(公司要求,有删减)

    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.JobContext;
    import org.apache.hadoop.mapreduce.Mapper;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    
    import java.io.IOException;
    import java.util.HashMap;
    import java.util.Map;
    import java.util.regex.Matcher;
    import java.util.regex.Pattern;
    
    
    public class DataClean {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS","hdfs://"+args[0]+":8020");
            Job job = Job.getInstance(conf);
    
            job.setJarByClass(DataClean.class);
    
            job.setMapperClass(DCmapper.class);
    
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(NullWritable.class);
    
            FileInputFormat.setInputPaths(job, new Path(args[1]));
            FileOutputFormat.setOutputPath(job, new Path(args[2]));
            //FileInputFormat.setInputPaths(job, new Path("C:\\Users\\yxiong02\\Desktop\\data\\input"));
            //FileOutputFormat.setOutputPath(job, new Path("C:\\Users\\yxiong02\\Desktop\\data\\output"));
    
            job.setNumReduceTasks(0);
    
            MyOut.setOutputName(job, args[3]);
    
            boolean res = job.waitForCompletion(true);
            System.exit(res?0:1);
        }
    
    
    
    }
    
    class MyOut extends TextOutputFormat {
    
        protected static void setOutputName(JobContext job, String name) {
            job.getConfiguration().set(BASE_OUTPUT_NAME, name);
        }
    }
    
    class DCmapper extends Mapper<LongWritable,Text,Text,NullWritable>{
    
    
        protected void map(LongWritable key, Text value, Context context){
            System.out.println("开始执行");
            String line=value.toString();
            System.out.println("原始数据---------->"+line);
            String cleandata=null;
            try{
                cleandata = clean(line);
            }catch (Exception e){
                System.out.println("清洗失败~");
            }
    
    
            try{
                if(cleandata!=null){
                    context.write(new Text(cleandata),NullWritable.get());
                    System.out.println("清洗数据---------->"+cleandata);
                }
            }catch (Exception e){
                System.out.println(e);
            }
        }
    
        public static String clean(String s){
            Pattern pattern = Pattern.compile("([0-9]{4}-[0-9]{2}-[0-9]{2})\\s([0-9]{2}:[0-9]{2}:[0-9]{2})\\s\\{(.*dealid:\\w+);(.*);}");
            Matcher matcher = pattern.matcher(s);
            if(matcher.find()){
                String data1=matcher.group(1);
                String data2=matcher.group(2);
                String data3=matcher.group(3);
                String data4=matcher.group(4);
                StringBuilder sb=new StringBuilder();
                sb.append(data1+"\001");
                sb.append(data2+"\001");
                for(String s1:data3.split(";")){
                    String[] split = s1.split(":");
                    sb.append(split[1]+"\001");
                }
                Map<String,String> map=new HashMap();
                if(data4.contains(";")){
                    for(String ds:data4.split(";")){
                        String[] a=((ds.split("\\|"))[1]).split(":");
                        map.put(a[0],a[1]);
                    }
                }else {
                    String[] a=((data4.split("\\|"))[1]).split(":");
                    map.put(a[0],a[1]);
                }
                if(!map.isEmpty()){
                    String s1 = map.toString();
                    String substring = s1.substring(s1.indexOf("{") + 1, s1.indexOf("}"));
                    sb.append(substring);
                    return sb.toString();
                }else {
                    return null;
                }
            }else {
                return null;
            }
        }
    }
    

    以上均为让检测数据每天自动化流入ODS层。
    以上工作完成之后,需要根据需求完成数据分析与提取。这里举一例:

    select date_id,
    dealid,
    substr(logtime,1,2) as hours,
    (map_keys(audiences))[0] as pg, 
    (map_values(audiences))[0] as zt, 
    count((map_values(audiences))[0]) as num 
    from dmp_db.dmp_partition_table 
    group by date_id,dealid,substr(logtime,1,2),(map_keys(audiences))[0],(map_values(audiences))[0] 
    order by date_id,dealid,hours 
    

    将抽取出来的数据存入PDW(数据仓库)层,降低表的复杂度,减少连表查询。
    这里的相关工作同上面的脚本,也可以看到数据会自动加载到PDW层。
    然后就是数据的MID(数据集市层)层
    -----为数据集市层,这层数据是面向主题来组织数据的,通常是星形或雪花结构的数据。从数据粒度来说,这层的数据是轻度汇总级的数据,已经不存在明细数据了。从数据的时间跨度来说,通常是PDW层的一部分,主要的目的是为了满足用户分析的需求,而从分析的角度来说,用户通常只需要分析近几年(如近三年的数据)的即可。从数据的广度来说,仍然覆盖了所有业务数据。
    最后就是针对每一波投放,准备数据的APP(应用层)层
    -----为应用层,这层数据是完全为了满足具体的分析需求而构建的数据,也是星形或雪花结构的数据。从数据粒度来说是高度汇总的数据。从数据的广度来说,则并不一定会覆盖所有业务数据,而是MID层数据的一个真子集,从某种意义上来说是MID层数据的一个重复。从极端情况来说,可以为每一张报表在APP层构建一个模型来支持,达到以空间换时间的目的数据仓库的标准分层只是一个建议性质的标准,实际实施时需要根据实际情况确定数据仓库的分层,不同类型的数据也可能采取不同的分层方法。
    针对这一层的数据,处理逻辑会复杂一些,相关操作如下:
    1>.整理训练集数据,在历史数据中心抽取60%做为训练集,提取相关字段,给每个维度定义相应的权重(维度:deviceid,sex,people,ip,address,saletype,cars…等)。
    2>.第一步适当的降低维度,排除无关精要的维度,提高有用维度的权重,相关model如下

    # -*- coding: utf-8 -*-
    from __future__ import unicode_literals
    import numpy as np
    import matplotlib.pyplot as mp
    import sklearn.linear_model as lm
    import sklearn.metrics as sm
    import pickle
    
    #采集数据
    x,y = [],[]
    with open('./single.txt','r') as f:
        for line in f.readlines():
            data = [float(substr) for substr in line.split(',')]
            x.append(data[:-1])
            y.append(data[-1])
    
    x = np.array(x)
    y = np.array(y)
    
    #创建模型,也就意味着选择了算法
    model = lm.LinearRegression() #线性回归
    
    #训练模型
    model.fit(x,y)
    
    #根据输入预测输出
    pred_y = model.predict(x)
    
    #打印每个样本的实际输出和预测输出
    for true, pred in zip(y,pred_y):
        print(true,'----->',pred)
    
    mp.figure('Linear Regression', facecolor='lightgray')
    mp.title('Linear Regression', fontsize=20)
    mp.xlabel('x', fontsize=14)
    mp.ylabel('y', fontsize=14)
    mp.tick_params(labelsize=10)
    mp.grid(linestyle=':')
    mp.scatter(x, y, c='dodgerblue', alpha=0.75, s=60, label='Sample')
    
    #得到输入从小到大的索引值
    sorted_indices = x.T[0].argsort()
    mp.plot(x[sorted_indices],pred_y[sorted_indices],c='orangered',label='Regression')
    mp.legend()
    mp.show()
    
    
    
    #检测model:
    import sklearn.metrics as sm
    
    
    # 平均绝地值误差: 1/m * ∑|实际输出减去预测输出| 取绝地值
    print(sm.mean_absolute_error(y,pred_y))
    
    # 平均平方误差: SQRT(1/m * ∑(实际输出减去预测输出)^2)
    print(sm.mean_squared_error(y,pred_y))
    
    # 中位数绝对值误差:MEDIAN(|实际输出减去预测输出|)
    print(sm.median_absolute_error(y,pred_y))
    
    # R2得分 误差越接近于正无穷,r2值越接近于0,误差越接近0,r2值越接近1(相当于做了一次归一化)
    print(sm.r2_score(y,pred_y))
    

    因为算法为公司机密,这里就没有放源码,这里只是我自己写的小demo,望大佬们海涵。
    其实model的作用就在于判断一个数据库里没有的数据,我们如何判断这一个流量吃不吃。至此dmp的数据存储和分析告一段落,但是在dsp投放的流程中,dmp只能算底层,接下来开始投放逻辑这一阶段。
    第一:解决实时投放问题
    当一个流量来了,要判断这个deviceid是否存在于我们库里面(这里的库指的是我们通过分析,存下来的人群数据。当然这里不会查询hive,这将是一个极其漫长的过程,在广告投放之前,我们会摘取数据先存放到redis里面,这里又涉及到一个技术点,docker,我们在docker里面搭建redis),如果存在,这个流量我们就吃,不存在我们再走数据分析阶段,通过之前离线分析的算法,实时对行为进行分析,然后再判断要不要投放,这里用到kafka+sparkstreaming的Receiver方式。
    代码如下:

    import org.apache.spark.SparkConf
    import org.apache.spark.streaming.kafka.KafkaUtils
    import org.apache.spark.streaming.{Seconds, StreamingContext}
    
    /**
      * Created by jy02268879 on 2018/7/19.
      *
      * Spark Streaming 基于 Receiver 对接Kafka
      */
    object KafkaReceiver {
      def main(args: Array[String]): Unit = {
    
        if(args.length != 4){
          System.err.println("Usage: KafkaReceiver <zkQuorum> <groupId> <topics> <numPartitions>")
          System.exit(1)
        }
    
        val Array(zkQuorum, groupId, topics, numPartitions) = args
    
        val sparkConf = new SparkConf().setAppName("KafkaReceiver").setMaster("local[3]")
        val ssc = new StreamingContext(sparkConf,Seconds(5))
    
        val topicMap = topics.split(",").map((_,numPartitions.toInt)).toMap
        val messages = KafkaUtils.createStream(ssc,zkQuorum,groupId,topicMap)
    
        messages.print()
        messages.map(_._2).flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).print()
    
        ssc.start()
        ssc.awaitTermination()
      }
    }
    

    只是流程代码,不包含逻辑。
    第二:超时数据处理
    对于超时数据的处理就很简单了,直接存入hdfs的ODS层,然后走批处理,被定时任务处理掉。
    到这里我们的dmp项目大致完成,剩下的就是日常bug修复,考虑超时问题的解决方案。
    这里再规整一下技术点:
    sparkstreaming+kafka的Receiver模式,完成数据实时分析。
    hive on spark提高数据处理速度。
    线性回归和逻辑回归等相关算法进行数据分析(由于本人不是算法人员,只知道一个大概,望大佬们谅解)。


    就先写到这里,之后代码整理好了再上传,或者相关逻辑的修改,也会更新,开发就是一个测试过程,看哪个技术更合适,所以慢慢来吧

    展开全文
  • 修改dmp版本工具

    2018-10-11 15:33:28
    修改dmp的版本号
  • 如何导出dmp文件:  exp prj/prj@TEST file=d:\prj.dmp full=y   导入dmp文件   1、首先,我们可以先建立自己的一个用户表空间,创建表空间的格式如下: create tablespace prj(表空间的名字) datafile ...

    如何导出dmp文件:

       exp prj/prj@TEST file=d:\prj.dmp full=y

     

    导入dmp文件

     

    1、首先,我们可以先建立自己的一个用户表空间,创建表空间的格式如下:

    create tablespace prj(表空间的名字) 
    datafile 'D:\oracle\product\10.2.0\userdata\prj.dbf'  (这边可以写成oracle的某个路径下)
    size 50m  (初始大小)
    autoextend on;(自动扩展)

     

    2、接下来,我们可以创建一个自己的用户,创建格式如下:

    CREATE USER bdf2_user (用户名) 
    IDENTIFIED BY upassword(密码)
    DEFAULT TABLESPACE test(上面创建的表空间) 
    TEMPORARY TABLESPACE temp;(临时表空间就写temp即可)

     

    3、然后,我们需要给自己的用户赋予权限来管理自己的表空间

    GRANT CONNECT TO prj;  
    GRANT RESOURCE TO prj;  
    GRANT dba TO prj;--dba为最高级权限,可以创建数据库,表等。

     

    以上三条语句的执行环境都需要进入oralce之后

    cmd下进入oracle的方式

    sqlplus system/密码      回车即可

     

    4、接下来我们就可以将我们的dmp文件导入到我们自己的表空间中了,导入方式

    imp prj/prj@SID full=y  file= d:\data\xxxx.dmp ignore=y

     

    导入实例

    imp utest/upassword  file=D:\20171120.dmp full=y ignore=y (将文件导入到我们自己新建的用户的表空间中)  注意:这条语句的执行环境是刚进命令台时的环境

    展开全文
  • Oracle备份dmp导入dmp的小工具

    热门讨论 2012-09-24 15:35:36
    Oracle备份dmp导入dmp的小工具,共两个工具小程序,小巧好用!
  • 当电脑出现蓝屏时,Windows系统会自动生成一个蓝屏错误DMP文件,这个文件保存在系统哪个位置,哪个目录下面,怎么获取到这个蓝屏错误DMP文件呢?若没有经过人为更改,蓝屏错误DMP文件一般默认会保存在系统根目录下,...
  • 目录1 说明dmp文件为oracle数据库的数据备份文件,执行oracle数据库导出dmp文件,相当于执行数据库备份;执行导入dmp文件,相当于数据库还原。2 导出dmp文件在dos控制台下执行如下指令:su -oracleexp iflashbuy/...
  • DMP模型

    千次阅读 2016-10-12 09:20:08
    什么是DMP模型  DMP模型是一种经济学模型,是莫滕森(Mortensen)和皮萨里季斯在经济现象解释的基础理论上进一步拓展这个搜寻理论,并应用到劳动市场提出的。  DMP模型是一个理论框架,包含了一个理论核心和一...
  • 又来给大家分享咯,上次我发布了一篇场景的推文,里面有介绍到大致的介绍了DMP玩法。虽然我在上一章已经把大致的使用方法列出来了,但是依然有很多小伙伴表示“一学就会,一试就翻”,所以这次也就细一点,照顾一下...
  • dmp版本修改工具

    2018-01-10 16:22:41
    可以修改oracle导出dmp的版本号,解决导出dmp导入到低版本数据库是无法正常执行的问题
  • MPU9250&DMP

    热门讨论 2017-03-13 20:42:37
    九轴陀螺仪MPU9250已经移植好的DMP
  • 这一期拟定的主题是DMP的基础知识和玩法透析,我就先从DMP基础知识开始讲,DMP(Data Management Platform)其实就是数据管理平台,简单来说就是各种标签下的人群包,主要是用来帮助我们的商品和店铺在千人千面里寻找你...
  • 【1】.DMP文件的由来我们这里说的dmp文件是从Oracle系统中导出来的备份数据,也可以认为dmp是Oracle系统中的转储文件。【2】.exp/imp与expdp/impdp区别?Dmp文件一般会用exp命令来导出,用imp命令来导入也就是恢复...
  • 目录1 说明dmp文件为oracle数据库的数据备份文件,执行oracle数据库导出dmp文件,相当于执行数据库备份;执行导入dmp文件,相当于数据库还原。2 导出dmp文件在dos控制台下执行如下指令:su -oracleexp iflashbuy/...
  • 1、导出dmpexp tbxcpay6/1@192.168.0.115/orcl file=e:\pay.dmp2、导入dmpimp tbxcpay6/1@orcl file=e:\pay.dmp full=y但是导入之前需要创建命名空间,用户及授权--创建表空间create tablespace "DEVICE_MANAGE" ...
  • oracle: linux下 oracle怎么导入dmp文件

    万次阅读 2018-03-31 21:37:35
    先创建数据库用户:create user XXX identified by xxx default tablespace ...数据库:用户名:XXXX密码:XXXX服务器连接地址和SID:10.XX.XX.XXX:1521/orcl1、给dmp文件加权限chmod 777 /home/userct/oss-shan...
  • Oracle数据库DMP文件

    2018-06-28 15:18:38
    CSDNCSDN,Oracle数据库pub_workday.dmp文件wenjian。
  • MPU9250&DMP;

    2018-02-09 17:59:20
    九轴陀螺仪MPU9250已经移植好的DMP库九轴陀螺仪MPU9250已经移植好的DMP库九轴陀螺仪MPU9250已经移植好的DMP库九轴陀螺仪MPU9250已经移植好的DMP
  • 修改DMP版本

    热门讨论 2012-04-24 15:19:27
    比如:从11g的oracle导出的dmp文件,在本机(10G)上导入会报版本错误,这个修改dmp的版本,修改成本地的oracle版本,就可以在本地导入了。
  • dmp 文件

    2018-04-26 14:59:13
    如何生成转储(dmp)文件–工具篇 任务管理器 任务管理器可以说是最易获取的系统工具,同时它具有生成转储文件的功能。但要注意的是在64位操作系统上面,默认启动的是64位的任务管理器。使用...
  • mpu6050dmp角度读取

    2018-01-26 21:25:15
    mpu6050dmp角度读取 文件内附有官方dmp库函数和融合好的工程
  • 使用命令导入dmp文件#1.进入mysql bin目录cd C:\Program Files\MySQL\MySQL Server 5.7\bin#2.使用导入命令; ds0 是数据库名, path是数据库文件(dmp/sql)路径mysql -u root -p ds0 < d:\current_sql.dmp#3.输入...
  • dmp自动生成文件

    2017-06-10 10:58:51
    程序异常时候,自动生成dmp文件,调用方式详见博客说明;
  • 一、异常描述将备份的生成环境Oracle数据dmp复制到桌面,使用PL/SQL创建生成环境用户,在CMD窗口执行Oralce导入imp命令,如下所示,报出“IMP-00002: 无法打开 C:/Documents.DMP 进行读取..导入文件: EXPDAT.DMP>...
  • 场景:windows2008 R2系统 ,往新安装的oracle11g数据库导入同事给的dmp文件到指定的新建的用户。1、创建表空间在导入dmp文件之前,先打开查看dmp文件的表空间名称(tablespace)。如下图:注:因为我一会要用plsql...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 15,635
精华内容 6,254
关键字:

dmp