精华内容
下载资源
问答
  • (1)年份有7年2006-2012,听说STATA可以自动设置虚拟变量,请问命令是怎样的?(2)行业共有12,已经设好虚拟变量,如下图 请问我在回归时怎么控制行业,命令是怎样子?STATA新手,在论坛上看了挺方法但还是...

    控制变量行业年份回归时在STATA里怎么操作_stata 分年份回归

    我希望做一个多元回归,但需要控制年份和行业。
    (1)年份有7年2006-2012,听说STATA可以自动设置虚拟变量,请问命令是怎样的?(2)行业共有12个,已经设好虚拟变量,如下图

    请问我在回归时怎么控制行业,命令是怎样子?STATA新手,在论坛上看了挺多方法但还是没明白,请尽量讲详细一点!
    stata控制变量分年份回归操作:
    直接在回归命令里用 i.year 就会生成以year为基础的虚拟变量
    比如reg y x i.year,就是控制年份后y对x的回归,数据里只需要有year这个变量就行,不需要每年都生成变量然后再放入回归命令中。
    代码:  xi:reg y x i.year i.industry
    year表示年份变量,industry为行业变量
    这些不用自己事先创建,只需要有industry代码,直接i.industry就可以生成。
    追问:请问行业代码要怎么样的?我的数据是国泰安下的,每个公司的行业都是用字母表示,如000002公司用K表示其行业,但这样STATA是不能识别呀,需要给他赋值。我问了老师,说需要自己弄成虚拟变量,如第一个帖子的图。现在行业虚拟变量已经表示出了,我在回归时要怎么控制。数据分析培训
    追答:不用自己创建,数据库下载的,比如行业变量名为industry,其包含了
    a,f,c,d,e类似的字符,直接用i.industry就可以。
    追问:
    回归的时候写上i.Industry之后出现这个问题:
    Industry:  string variables may not be used as factor variables
    r(109);
    这时该怎么办
    答:把行业变成数字虚拟变量 1,2,3,4.。。  行业变量是字符,需要转成数值型

    转载于:https://www.cnblogs.com/amengduo/p/9587218.html

    展开全文
  • 那么需要用到虚拟环境,每个虚拟环境互相隔离,在一个虚拟环境中安装卸载模块其他不受影响! 1. python虚拟环境安装 sudo apt-get install python-virtualenv sudo easy_install virtualenvwrapper 上述工具装好后...
  • Hadoop单机伪分布式部署

    千次阅读 2015-01-20 14:10:53
    由于没有那么机器,就在自己的虚拟机上部署一套hadoop集群,这被称作伪分布式集群,但是不管怎么样,这里主要记录部署hadoop的过程以及遇到的问题,然后再使用一简单的程序测试环境。 1、安装JAVA、下载hadoop...
         由于没有那么多机器,就在自己的虚拟机上部署一套hadoop集群,这被称作伪分布式集群,但是不管怎么样,这里主要记录部署hadoop的过程以及遇到的问题,然后再使用一个简单的程序测试环境。
    
    1、安装JAVA、下载hadoop程序包,配置hadoop的环境变量。
         这里要设置JAVA_HOME等于java的安装目录,将hadoop程序所在的目录添加到系统的PATH环境变量下,这样可以直接在shell中启动hadoop命令。这里使用的hadoop的2.6.0版本。
    2、设置SSH
         之所以需要安装ssh是因为Hadoop需要通过ssh方式启动slave列表中的各台机器上的守护进程,虽然我们这里称作伪分布式的方式安装,但是hadoop还是按照集群的方式启动的,只不过集群中的所有机器都是在同一台机器上罢了。ssh默认端口为22,可以查看端口22判断是否已经安装启动了。然后为了能够让hadoop通过ssh启动程序,需要免密码使用ssh,如果不进行设置,直接使用
    ssh user@127.0.0.1(要确保本机已经安装了ssh服务器和客户端)会出现这样的情况:
    hzfengyu@hzfengyu:~/workplace$ ssh hzfengyu@127.0.0.1
    hzfengyu@127.0.0.1's password:
    Welcome to Ubuntu 13.10 (GNU/Linux 3.11.0-12-generic i686)
    
    * Documentation:  https://help.ubuntu.com/
    
    Last login: Mon Jan 19 15:03:01 2015 from localhost

    也就是每次都需要你输入该用户的密码,为了配置免密码登录,需要执行如下的命令:
    ssh-keygen  -t  dsa -P '' -f  ~/.ssh/id_dsa
    cat  ~/.ssh/id_dsa.pub  >>  ~/.ssh/authorized_keys

    第一个命令是生成一个密钥,-t表示迷药类型,这里使用dsa认证的方式,-P表示密码,这里使用的是空,-f表示生成密钥文件的地址;第二个目录是将生成的密钥的公钥拷贝成当前主机已授权的key文件,这样通过ssh命令连接主机就不需要密码了。可以再次通过上面的ssh命令检验。
    3、配置hadoop的环境配置文件etc/hadoop/hadoop-env.sh
    这个是hadoop的环境配置文件,需要配置JAVA_HOME的目录,确保该目录是java的安装目录。
    4、配置etc/hadoop/core-site.xml配置文件
    <configuration>
    
         <property>
              <name>hadoop.tmp.dir</name>
              <value>/home/hzfengyu/workplace/hadoop/data</value>
         </property>
    
         <property>
              <name>fs.default.name</name>
              <value>hdfs://主机地址:9000</value>
         </property>
    
    </configuration>

    5、配置MapReduce配置文件etc/hadoop/mapred-site.xml
    <configuration>
         <property>
              <name>mapred.job.tracker</name>
              <value>主机地址:9001</value>
         </property>
    </configuration>

    6、配置HDFS配置文件etc/hadoop/hdfs-site.xml
    <configuration>
         <property>
              <name>dfs.replication</name>
              <value>1</value>
         </property>
    
         <property>
              <name>dfs.namenode.name.dir</name>
              <value>/home/hzfengyu/workplace/hadoop/hdfs/name</value>
         </property>
    
         <property>
              <name>dfs.datannode.data.dir</name>
              <value>/home/hzfengyu/workplace/hadoop/hdfs/data</value>
         </property>
    </configuration>

    7、格式化hdfs文件系统然后启动所有的模块
    hadoop namenode -format           
    该命令格式化HDFS文件系统。
    然后执行./sbin/start-all.sh,这时候会出现问题,如下:
    Starting namenodes on [Java HotSpot(TM) Client VM warning: You have loaded library /home/hzfengyu/workplace/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now.
    It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.

    查看发现这是由于平台的不兼容导致的,我下载的hadoop是64位的版本,而自己的机器却是32位的,所以这时候需要手动编译hadoop。
    hzfengyu@hzfengyu-VirtualBox:~/workplace/hadoop/hadoop-2.6.0$ file  /home/hzfengyu/workplace/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0
    /home/hzfengyu/workplace/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, BuildID[sha1]=0x2c42803ac908d7781a6c66a16723dd8ebb7dd76e, not stripped
    hzfengyu@hzfengyu-VirtualBox:~/workplace/hadoop/hadoop-2.6.0$ uname -a
    Linux hzfengyu.netease.com 3.11.0-12-generic #19-Ubuntu SMP Wed Oct 9 16:12:00 UTC 2013 i686 i686 i686 GNU/Linux

    但是maven依赖于protobuf,所以还需要首先下载并安装protobuf,protobuf的版本必须是2.5.0版本或者以上,否则也会编译不通过。maven的版本还需要3.0.2以上,可以下载一个maven的执行文件来构建。
    构建过程中出现这样的问题:
    [ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (make) on project hadoop-common: An Ant BuildException has occured: exec returned: 1
    [ERROR] around Ant part ...<exec dir="/home/hzfengyu/workplace/hadoop/hadoop-2.6.0-src/hadoop-common-project/hadoop-common/target/native" executable="cmake" failοnerrοr="true">... @ 4:152 in /home/hzfengyu/workplace/hadoop/hadoop-2.6.0-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml

    这时候需要安装下面两个库,如下:
    sudo apt-get install zlib1g-dev
    sudo apt-get install libssl-dev

    又出现问题了:org.apache.maven.lifecycle.LifecycleExecutionException: Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (dist) on project hadoop-hdfs-httpfs: An Ant BuildException has occured: exec returned: 2
    google了一把发现是因为没有安装forrest而导致的,也不知道这个是干什么的,直接去官网(http://forrest.apache.org/)上下载一个最新的版本,是绿色安装的(难道这些就是java的优势吗?以前下载c++实现的程序都是需要三步安装)。然后设置环境变量FORREST_HOME和PATH中加入forrest的bin目录,重新编译。

    加入forrest之后仍然还出现这个错误,于是决心不编译这个模块了,找到hadoop-hdfs-project/pom.xml文件,将<!--module>hadoop-hdfs-httpfs</module-->给注释掉,重新编译就能够顺利编译完成,不知道对hadoop有没有什么影响。

    这时候 已经编译好的hadoop-2.6.0在hadoop-2.6.0-src/hadoop-dist/target/目录下,这时候我们使用这个覆盖之前下载的hadoop目录就可以了。因为这是一个新编译出来的程序,所以需要再次执行hadoop namenode -format 来初始化HDFS,否则还是会出现错误。
    再次执行start-dfs.sh出现如下的错误:
    Starting namenodes on [hzfengyu.netease.com]
    hzfengyu.netease.com: Error: JAVA_HOME is not set and could not be found.
    localhost: Error: JAVA_HOME is not set and could not be found.
    Starting secondary namenodes [0.0.0.0]
    0.0.0.0: Error: JAVA_HOME is not set and could not be found.

    我觉得这是由于在ssh登录到新的终端之后JAVA_HOME在新的会话里面不再有效(如果是在shell下通过export设置的就只在当前回会话有效,如果希望对于当前用户的所有会话都有效则需要在~/.bashrc文件里面添加export JAVA_HOME=XXX,如果希望对于所有的用户都有效,需要在/etc/profile文件的末未添加export)。但是这样操作之后通过ssh建立新的会话,查看JAVA_HOME变量确定是有效值,但是仍然会出现这样的错误,于是就不得不使出狠招了。在libexec/hadoop-config.sh文件里面找到"Error: JAVA_HOME is not set and could not be found."这一行,可以看出这一行是没有找到JAVA_HOME所设置的目录而打印的,那么就在这一个if判断之前加上export JAVA_HOME=xxx语句,就可以确定在这里能够找到JAVA_HOME的值了,无论在哪个终端上都不会出错,但是如果在多个机器上,每个机器的JAVA_HOME的路径设置不一样的话,这样需要一个个的修改,的确是一个问题。

    再次执行./sbin/start-dfs.sh和./sbin/start-yarn.sh两个脚本,就能够把hadoop需要的进程全部启动了,通过jps查看有下面的进程:
    hzfengyu@hzfengyu:~/workplace/hadoop$ jps
    8329 SecondaryNameNode
    8507 ResourceManager
    8660 Jps
    8143 DataNode
    8023 NameNode
    8628 NodeManager

    好了,到这里hadoop单机版就编译部署完成了,其实集群的部署应该也是差不多的,通过ssh的方式也很容易在多个机器中部署。然后使用一个简单的测试程序跑一下吧。

    在学习新语言的时候都是使用”hello world“作为入门,而单词统计的程序就是mapReduce的”hello world“,下面我们随便创造一个英文单词组成的文件,然后统计这个文件中每一个单词出现的次数。下面是hadoop官方文档的介绍页:
    Apache Hadoop 2.6.0
    
    Apache Hadoop 2.6.0 is a minor release in the 2.x.y release line, building upon the previous stable release 2.4.1.
    
    Here is a short overview of the major features and improvements.
    
    Common
    Authentication improvements when using an HTTP proxy server. This is useful when accessing WebHDFS via a proxy server.
    A new Hadoop metrics sink that allows writing directly to Graphite.
    Specification work related to the Hadoop Compatible Filesystem (HCFS) effort.
    HDFS
    Support for POSIX-style filesystem extended attributes. See the user documentation for more details.
    Using the OfflineImageViewer, clients can now browse an fsimage via the WebHDFS API.
    The NFS gateway received a number of supportability improvements and bug fixes. The Hadoop portmapper is no longer required to run the gateway, and the gateway is now able to reject connections from unprivileged ports.
    The SecondaryNameNode, JournalNode, and DataNode web UIs have been modernized with HTML5 and Javascript.
    YARN
    YARN's REST APIs now support write/modify operations. Users can submit and kill applications through REST APIs.
    The timeline store in YARN, used for storing generic and application-specific information for applications, supports authentication through Kerberos.
    The Fair Scheduler supports dynamic hierarchical user queues, user queues are created dynamically at runtime under any specified parent-queue.

    首先,创建一个新的文件,将这段英文的内容复制到该文件中:
    cat > test
    然后将新创建的test文件放到HDFS文件系统上作为mapReduce的输入文件:
    ./bin/hadoop fs -put ./test /wordCountInput

    该命令执行HDFS的命令将本地的文件test放置到HDFS的根目录下wordCountInput文件。通过ls命令查看是否执行成功:
    hzfengyu@hzfengyu-VirtualBox:~/workplace/hadoop/hadoop-2.6.0$ ./bin/hadoop fs -ls /
    Found 1 items
    -rw-r--r--   1 hzfengyu supergroup       1400 2015-01-20 13:05 /wordCountInput

    mapReduce的测试包在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar中,这是多个测试程序打包而成的jar文件,我们使用wordCount功能执行单词统计。
    ./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount /wordCountInput /wordCountOutput
    这个命令使用hadoop的mapReduce执行jar包中的wordcount程序,这个程序的输入是HDFS的/wordCountInput文件(如果这个文件是一个目录,那么输入就是该目录下的所有文件),输出放到HDFS的/wordCountOutput目录中。执行过程中打印很多INFO信息,我们看一下部分的输出信息:
    15/01/20 13:09:29 INFO Configuration.deprecation: session.id is deprecated. Instead, use dfs.metrics.session-id
    15/01/20 13:09:29 INFO jvm.JvmMetrics: Initializing JVM Metrics with processName=JobTracker, sessionId=
    15/01/20 13:09:29 INFO input.FileInputFormat: Total input paths to process : 1
    15/01/20 13:09:30 INFO mapreduce.JobSubmitter: number of splits:1
    15/01/20 13:09:30 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_local810038734_0001
    ...
    15/01/20 13:09:33 INFO mapred.MapTask: Starting flush of map output
    15/01/20 13:09:33 INFO mapred.MapTask: Spilling map output
    ...
    15/01/20 13:09:34 INFO mapreduce.Job:  map 100% reduce 0%
    ...
    15/01/20 13:09:35 INFO mapred.LocalJobRunner: Finishing task: attempt_local810038734_0001_r_000000_0
    15/01/20 13:09:35 INFO mapred.LocalJobRunner: reduce task executor complete.
    15/01/20 13:09:35 INFO mapreduce.Job:  map 100% reduce 100%
    15/01/20 13:09:36 INFO mapreduce.Job: Job job_local810038734_0001 completed successfully
    15/01/20 13:09:36 INFO mapreduce.Job: Counters: 38
    ...
         File Input Format Counters
              Bytes Read=1400
         File Output Format Counters
              Bytes Written=1416

    然后看一下结果的目录:
    hzfengyu@hzfengyu-VirtualBox:~/workplace/hadoop/hadoop-2.6.0$ ./bin/hadoop fs -ls /wordCountOutput
    Found 2 items
    -rw-r--r--   1 hzfengyu supergroup          0 2015-01-20 13:09 /wordCountOutput/_SUCCESS
    -rw-r--r--   1 hzfengyu supergroup       1416 2015-01-20 13:09 /wordCountOutput/part-r-00000

    可以看到这个目录下有两个文件,其中part-r-00000就是我们的执行结果:
    hzfengyu@hzfengyu-VirtualBox:~/workplace/hadoop/hadoop-2.6.0$ ./bin/hadoop fs -cat /wordCountOutput/part-r-00000
    Hadoop     5
    The     5
    a     4
    and     7
    for     4
    is     5
    now     3
    proxy     2
    release     3
    the     9
    to     4
    user     3

    这里只摘取了出现次数大于2的一些单词和它在上面的文件中的出现次数。它正确的统计了上面文件中出现的单词的个数,接着我们就可以自己写mapReduce程序来实现各种各样的计算功能了。

    展开全文
  • 我在 win10 下利用 anaconda 建立了多个 python 虚拟环境,但是在 sublime 中每次都是执行的系统默认的,在系统(或者用户)变量里面指定的python解释器。 这次我想要sublime 利用我指定路径的 python解释器进行...

    声明: 主要以 python 解释器的设置教程进行说明。

    我在 win10 下利用 anaconda 建立了多个 python 虚拟环境,但是在 sublime 中每次都是执行的系统默认的,在系统(或者用户)变量里面指定的python解释器。

    这次我想要sublime 利用我指定路径的 python解释器进行程序的执行。

    在网上找了一些资源,都是在介绍怎么对sublime的新的编译器的文件的配置,但是并没有指明将配置文件保存到哪里才能生效。

    首先,简单概括:

    *.sublime-build :指定编译器文件

    C:\Users\Username\AppData\Roaming\Sublime Text 3\Packages\User :win10 编译文件保存的路径

    {
        "env": {"PYTHONIOENCODING": "utf8"},
        "cmd": ["D:/anaconda/envs/py35/python.exe", "-u", "$file"],   # 更改为你的 python解释器 指定的相应的路径
        "file_regex": "^[ ]*File \"(...*?)\", line ([0-9]*)",
        "selector": "source.python"
    }

    : 自定义的编译器文件的格式

     

    言归正传,如果看了上面的你还不能够配置自己指定的编译器,接下来开始正式的详细的介绍:

    新建解释器 
    Tools -> Build System -> New Build System…,如下图所示:

    {
        "env": {"PYTHONIOENCODING": "utf8"},
        "cmd": ["D:/anaconda/envs/py35/python.exe", "-u", "$file"],   # 更改为你的 python解释器 指定的相应的路径
        "file_regex": "^[ ]*File \"(...*?)\", line ([0-9]*)",
        "selector": "source.python"
    }

     

    Ctrl + S ,保存至以下路径,并命名(这个名字就是你自定义的编译器环境的名字)

    # windows:
    
    C:\Users\[Username]\AppData\Roaming\Sublime Text 3\Packages\User  # Username 是你的电脑用户名
    
    # mac:
    /Users/[Username]/Library/Application Support/Sublime Text 3/Packages/User # Username 是你的电脑用户名

     

    然后选择  Tools -> Build System -> New Build System…,如本文第一张图所示,选择相应的编译器执行指令。

    之后 Ctrl + B 就能执行程序了。

     

    # coding=utf-8
    
    import sys
    import os
    
    
    def style(str):
    	print('\n---------------- ',str,' ----------------')
    
    
    style('python版本信息')
    print(sys.version)  # 查看python解释器 
    
    style('获得当前工作目录')
    print(os.getcwd()) #获得当前工作目录
    
    style('去掉文件名,返回目录,__file__: 代表当前文件')
    base_dir=os.path.dirname(__file__)
    print(base_dir)
    
    style('修改系统变量')
    sys.path.append(base_dir)  #临时修改环境变量
    print(sys.path)
    
    style('获取 PYTHONPATH 系统变量')
    env_dist = os.environ # environ是在os.py中定义的一个dict environ = {} 
    print(env_dist.get('PYTHONPATH')) # os.getenv('PYTHONPATH')
    
    

     

    
     

     

     

    参考:

    https://blog.csdn.net/mouday/article/details/79837906

    https://blog.csdn.net/a506681571/article/details/78332217

    https://www.cnblogs.com/slqt/p/9288840.html

     

     

     

     

    展开全文
  • 成一个设备可以同时高效地运行多个虚拟系统。 Dalvik 虚拟机执行(.dex)的 Dalvik 可执行文件,该格式文 件针对小内存使用做了 优化。同时虚拟机是基于寄存器的,所有的类都经由 JAVA 编译器编译,然后通过 SDK 中 ...
  • 新版Android开发教程.rar

    千次下载 热门讨论 2010-12-14 15:49:11
    Android 是一专门针对移动设备的软件集,它包括一操作系统,中间件和一些重要的应用程序。 Beta 版 的 Android SDK 提供了在 Android 平台上使用 JaVa 语言进行 Android 应用开发必须的工具和 API 接口。 特性 ...
  • 操作系统维持着一个虚拟地址到物理地址的转换的表,以便计算机硬件可以正确地响应地址请求。并且,如果地址在硬盘上而不是在 RAM 中,那么操作系统将暂时停止您的进程,将其他内存转存到硬盘中,从硬盘上加载被...
  • java 面试题 总结

    2009-09-16 08:45:34
    与cgi的区别在于servlet处于服务器进程中,它通过多线程方式运行其service方法,一个实例可以服务于多个请求,并且其实例一般不会销毁,而CGI对每个请求都产生新的进程,服务完成后就销毁,所以效率上低于servlet。...
  • 操作系统(内存管理)

    热门讨论 2009-09-20 12:55:25
    操作系统维持着一个虚拟地址到物理地址的转换的表,以便计算机硬件可以正确地响应地址请求。并且,如果地址在硬盘上而不是在 RAM 中,那么操作系统将暂时停止您的进程,将其他内存转存到硬盘中,从硬盘上加载被请求...
  • 一次移动或复制多个文件 B.2. 强制用户写日志 B.2.1. 服务器端的钩子脚本(Hook-script) B.2.2. 工程(Project)属性 B.3. 从版本库里更新选定的文件到本地 B.4. Roll back (Undo) revisions in the repository ...
  • c#学习笔记.txt

    热门讨论 2008-12-15 14:01:21
    接口可以从多个基接口继承,而类或结构可以实现多个接口。接口可以包含方法、属性、事件和索引器。接口本身不提供它所定义的成员的实现。接口只指定实现该接口的类或接口必须提供的成员。接口可以是命名空间或类的...
  • 4.1.3 窗口程序是怎么工作的 92 4.2分析窗口程序 99 4.2.1 模块和句柄 99 4.2.2 创建窗口 101 4.2.3 消息循环 107 4.2.4 窗口过程 109 4.3窗口间的通信 114 4.3.1 窗口间的消息互发 114 4.3.2 在窗口间传递数据 117 ...
  • 4.1.3 窗口程序是怎么工作的 92 4.2分析窗口程序 99 4.2.1 模块和句柄 99 4.2.2 创建窗口 101 4.2.3 消息循环 107 4.2.4 窗口过程 109 4.3窗口间的通信 114 4.3.1 窗口间的消息互发 114 4.3.2 在窗口间传递数据 117 ...
  • ”这个简单的例子开始到编写多线程、注册表和网络通信等复杂的程序,通过60多个实例逐渐深入Win32汇编语言的方方面面。本书作者罗云彬拥有十余年汇编语言编程经验,是汇编编程网站http://asm.yeah.net和汇编编程论坛...
  • C#微软培训教材(高清PDF)

    千次下载 热门讨论 2009-07-30 08:51:17
    第五章 变量和常量 .44 5.1 变 量 .44 5.2 常 量 .46 5.3 小 结 .47 第六章 类 型 转 换 .48 6.1 隐式类型转换 .48 6.2 显式类型转换 .53 6.3 小 结 .56 第七章 表 达 式 .58 7.1 操 作 符 .58 ...
  • ExtAspNet_v2.3.2_dll

    2010-09-29 14:37:08
    +为所有Panel(包括Grid,Tree,Form等)增加枚举类型Icon,其中包含1700多个小图标。 -如果Panel具有IconUrl属性,则IconUrl优先于Icon。 -所有Icon的列表在icon.aspx。 -为Button,MenuItem(MenuButton,...
  • 深入浅出MySQL数据库开发、优化与管理维护

    千次下载 热门讨论 2014-01-21 15:48:01
     29.3.5 主复制时的自增长变量冲突问题   29.3.6 查看从服务器的复制进度   29.4 切换主从服务器   29.5 小结   第30章 MySQLCluster   30.1 MySQLCluster架构   30.2 MySQLCluster的配置  ...
  • 英特尔面试专项准备

    2020-12-09 13:46:46
    </li><li>特性用例测试</li><li>虚拟化原理与实现</li><li>CPU虚拟化</li><li>内存虚拟化</li><li>内存复用</li><li>C语言安全规范</li><li>Kubernetes租户管理</li><li>OCI特性开发</li><li>容器网络调研</li><li...
  • C#微软培训资料

    2014-01-22 14:10:17
    第五章 变量和常量 .44 5.1 变 量 .44 5.2 常 量 .46 5.3 小 结 .47 第六章 类 型 转 换 .48 6.1 隐式类型转换 .48 6.2 显式类型转换 .53 6.3 小 结 .56 第七章 表 达 式 .58 7.1 操 作 符 .58 ...
  • +为所有Panel(包括Grid,Tree,Form等)增加枚举类型Icon,其中包含1700多个小图标。 -如果Panel具有IconUrl属性,则IconUrl优先于Icon。 -所有Icon的列表在icon.aspx。 -为Button,MenuItem(MenuButton,...
  • 4.3.3 设置常用的SQL*Plus变量 81 4.3.4 SQL*Plus错误记录 84 4.3.5 SQL*Plus命令行选项 85 4.4 SQL*Plus管理命令 87 4.4.1 CLEAR命令 87 4.4.2 STORE命令 88 4.4.3 SHOW命令 88 4.5 关键的SQL*Plus...
  • 如果有引导系统的计算机,必须保证是在包含 Windows 的驱动器上使用该命令。 Diskpart  创建和删除硬盘驱动器上的分区。diskpart 命令仅在使用故障恢复控制台时才可用。  diskpart [ /add |/delete] [device_...
  • 03 MapReduce-Demo——这是我另外一个项目,从多个设计模式实战 MapReduce 编程实例 仅供参考: 原生态在hadoop上运行java程序 ——引自@zhao_xiao_long 推荐几个博客分类博主LanceToBigData:Hadoop ,...
  • asp.net知识库

    2015-06-18 08:45:45
    ADO.NET 2.0 大批量数据操作和多个动态的结果集 ADO.NET 2.0 异步处理 在ASP.NET中使用WINDOWS验证方式连接SQL SERVER数据库 改进ADO.Net数据库访问方式 ASP.NET 2.0 绑定高级技巧 简单实用的DataSet更新数据库的类+...
  • 这两钩子则会分别在该分组每测试用例运行前和运行后执行。由于很代码都需要模拟环境,可以再这些<code>before或<code>beforeEach做这些准备工作,然后在<code>after或<code>afterEach里做回收操作...
  • 19.3 变量和常量(与T-SQL进行比较) 19.4 PL/SQL中的数据类型(包含Oracle11g中新增的类型) 19.5 如何把大文件保存到表BLOB列中 19.6 如何把大内容保存到表的CLOB列中 19.7 Oracle11g新特性:无dual的...

空空如也

空空如也

1 2
收藏数 28
精华内容 11
关键字:

多个虚拟变量怎么设置