精华内容
下载资源
问答
  • 1、Hadoop有三种配置模式,分别为独立模式、伪分布式模式、... 伪分布式模式:守护程序运行在本地主机,模拟一个规模集群。 分布式模式:守护程序运行在多个主机的集群上。 2、安装SSH、配置SSH无密码登陆。 在

    1、Hadoop有三种配置模式,分别为独立模式、伪分布式模式、分布式模式。
    独立模式:即本地模式,该模式没有运行的守护程序,所有的程序运行在一个jvm中。适合开发期间运行MapReduce程序,源于他的易于测试和调试。
    伪分布式模式:守护程序运行在本地主机,模拟一个小规模集群。
    分布式模式:守护程序运行在多个主机的集群上。
    2、安装SSH、配置SSH无密码登陆。
    在伪分布式模式下,必须启动守护进程,因此我们需要安装SSH脚本。
    Hadoop实际上并不区分伪分布式模式和分布式模式;它只是启动守护进程的集合
    主机集群中通过ssh主机和开始守护进程。伪分布式模式是完全分布式模式的一个特例(单个主机),所以我们需要确保我们可以SSH本地主机和无需输入密码登录。

    (1)安装
    sudo apt-get install openssh-server
    (2)配置密钥,-t指定算法(rsa算法);-P,指定密码;-f指定存放密钥的文件名称。
    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    (3)进入.ssh目录。会有两个文件。其中id_rsa为私钥,id_rsa.pub为公钥。把公钥放在授权认证的文件里面去。
    cat id_rsa.pub >> authorized_keys
    (4)登录ssh,测试你可以登录。第一次登录会提示确认连接,之后该提示则会消失。
    ssh localhost
    

    3、配置。
    基本概念:nameNode:名称节点,只存放文件目录。 dataNode:数据节点,存放数据。secondaryNameNode:辅助节点,节点的备份,replication:数据副本(数据备份)。

    (1)配置core-site.xml文件,配置nameNode名称节点的位置。
    
        <!-- core-site.xml -->
        <configuration>
            <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost/</value>
            </property>
        </configuration>
    (2)配置hdfs-site.xml文件,配置副本数量。
    
        <!-- hdfs-site.xml -->
        <configuration>
            <property>
                <name>dfs.replication</name>
                <value>1</value>
            </property>
        </configuration>
    (3)配置mapred-site.xml文件,配置mapreduce框架指定yarn
    
        <!-- mapred-site.xml -->
        <configuration>
            <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
            </property>
        </configuration>
    (4)配置yarn-site.xml文件,配置资源管理器。节点管理器。
    
        <!-- yarn-site.xml -->
        <configuration>
            <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>localhost</value>
            </property>
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
        </configuration>

    4、使用HDFS文件系统。

    (1)对文件系统进行格式化。
    hdfs namenode -format
    (2)启动dfs守护进程,
    start-dfs.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo 
    注:config之后是文章上面配置的xml文件目录。
    (3)启动yarn的mapreduce框架。
    start-yarn.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo
    注:config之后是文章上面配置的xml文件目录。
    

    5、创建用户目录

    (1)为了方便以后使用,这里配置一个环境变量HADOOP_CONF_DIR
    export HADOOP_CONF_DIR=./
    注:‘./’代表配置的xml文件目录。
    (2)创建用户目录
    hadoop fs -mkdir /user/
    

    6、简单应用

    (1)通过jps/jps -l查看启动的进程。
    

    这里写图片描述

    (2)通过web页面访问查询。
    http://localhost:50070,查看名称节点。
    

    这里写图片描述

    http://localhost:19888,查询资源管理器节点。
    

    这里写图片描述
    (3)查看文件目录信息
    hadoop fs -ls /
    这里写图片描述

    7、停止服务

    (1)停止yarn的mapreduce框架
    stop-yarn.sh
    (2)停止dfs守护进程
    stop-dfs.sh
    

    8、Hadoop提供了一个start-all.sh –config $HADOOP_INSTALL/etc/hadoop_pseudo,可以同时启动之前的进程。
    这里写图片描述

    展开全文
  • Hadoop集群搭建及wordcount测试

    千次阅读 2016-05-05 23:00:45
    1. hadoop三种安装模式 单机模式 无需运行任何守护进程...Hadoop守护进程运行在本地机器上,模拟一个规模的集群。 完全分布式模式 Hadoop运行在一个真实的集群中,本文以hadoop-2.6.3为例讲解此模式配置。 2. hado

    1. hadoop三种安装模式

    • 单机模式
      无需运行任何守护进程(daemon),所有程序都在单个JVM上执行。由于在本机模式下测试和调试MapReduce程序较为方便,因此,这种模式适宜用在开发阶段。
    • 伪分布式模式
      Hadoop守护进程运行在本地机器上,模拟一个小规模的集群。
    • 完全分布式模式
      Hadoop运行在一个真实的集群中,本文以hadoop-2.6.3为例讲解此模式配置。

    2. hadoop分布式模式配置
    本文的配置基于完成《hadoop安装与配置》的基础之上。集群配置信息如下:

    名称 IP 功能
    ubuntu-master 192.168.30.128 namenode,jobtracker
    ubuntu-slave 192.168.30.129 datanode

    在hadoop解压目录下新建tmp、hdfs、hdfs\name、hdfs\data文件夹,后续配置文件中会使用这些目录。
    为hadoop用户赋予权限,使得该用户获得hadoop目录下文件的操作权限,命令如下:

    sudo chown -r /usr/opt/hadoop/hadoop-2.6.3

    编辑hadoop-2.6.3/etc/hadoop/hadoop-env.sh文件,修改JAVA_HOME值对应到jdk安装目录,如下:

    export JAVA_HOME=/usr/opt/java/jdk1.8.0_77
    

    配置hadoop守护进程的运行参数:

    • 配置core-site.xml
    <configuration>  
        <property>  
            <name>fs.defaultFS</name>  
            <value>hdfs://193.168.30.128:9000</value>  
        </property>  
        <property>  
            <name>io.file.buffer.size</name>  
            <value>131072</value>  
        </property>  
        <property>  
            <name>hadoop.tmp.dir</name>  
            <value>file:/usr/opt/hadoop/hadoop-2.6.3/tmp</value>    
        </property>  
        <property>  
            <name>hadoop.proxyuser.spark.hosts</name>  
            <value>*</value>  
        </property>  
        <property>  
            <name>hadoop.proxyuser.spark.groups</name>  
            <value>*</value>  
        </property>  
    </configuration>  
    • 配置hdfs-site.xml
    <configuration>  
        <property>  
            <name>dfs.namenode.secondary.http-address</name>  
            <value>192.168.30.128:9001</value>  
        </property>  
        <property>  
            <name>dfs.namenode.name.dir</name>  
            <value>file:/usr/opt/hadoop/hadoop-2.6.3/hdfs/name</value>  
        </property>  
        <property>  
            <name>dfs.datanode.data.dir</name>  
            <value>file:/usr/opt/hadoop/hadoop-2.6.3/hdfs/data</value>  
        </property>  
        <property>  
            <name>dfs.replication</name>  
            <value>3</value>  
        </property>  
        <property>  
            <name>dfs.webhdfs.enabled</name>  
            <value>true</value>  
        </property>  
    </configuration>  
    • 配置mapred-site.xml
    <configuration>  
        <property>  
            <name>mapreduce.framework.name</name>  
            <value>yarn</value>  
        </property>  
        <property>  
            <name>mapreduce.jobhistory.address</name>  
            <value>192.168.30.128:10020</value>  
        </property>  
        <property>  
            <name>mapreduce.jobhistory.webapp.address</name>  
            <value>192.168.30.128:19888</value>  
        </property>  
    </configuration>  
    • 配置yarn-site.xml
    <configuration>  
        <property>  
            <name>yarn.nodemanager.aux-services</name>  
            <value>mapreduce_shuffle</value>  
        </property>  
        <property>  
            <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
            <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
        </property>  
        <property>  
            <name>yarn.resourcemanager.address</name>  
            <value>192.168.30.128:8032</value>  
        </property>  
        <property>  
            <name>yarn.resourcemanager.scheduler.address</name>  
            <value>192.168.30.128:8030</value>  
        </property>  
        <property>  
            <name>yarn.resourcemanager.resource-tracker.address</name>  
            <value>192.168.30.128:8035</value>  
        </property>  
        <property>  
            <name>yarn.resourcemanager.admin.address</name>  
            <value>192.168.30.128:8033</value>  
        </property>  
        <property>  
            <name>yarn.resourcemanager.webapp.address</name>  
            <value>192.168.30.128:8088</value>  
        </property>  
    </configuration>  
    • 配置masters
      将msater机器加入masters文件中,内如如下:
    192.168.30.128
    • 配置slaves
      将所有slave机器加入到slave是文件中(如果master也作为datanode请一并加入),内容如下:
    192.168.30.128
    192.168.30.129
    
    • 修改hosts
      修改所有master机器和slave机器的hosts文件,注意注释掉127.0.1.1配置
      这里写图片描述

    最后在所有机器上复制以上配置信息,可以通过复制/etc/hadoop文件夹到所有机器相应目录下,完成机器配置复制,命令如下:

    scp -r /usr/opt/hadoop/hadoop-2.6.3/etc/hadoop czliuming@192.168.30.128:/usr/opt/hadoop/hadoop-2.6.3/etc

    注:如果上述文件在相应目录下不存在,可以自行创建,我的目录下就没有mapred-site.xml
    完成以上配置后,hadoop集群已搭建完毕,下面进行hdfs初始化(仅执行一次),进入hadoop安装目录,执行以下命令:

    bin/hadoop namenode -format

    出现如下界面则hdfs初始化成功:

    这里写图片描述

    hdfs初始化结束后,我们就可以尝试启动hadoop集群了,首先启动hdfs命令如下:

    sbin/start-dfs.sh

    出现如下图信息,则表示启动成功:

    这里写图片描述

    接下来,我们启动yarn,执行以下命令;

    sbin/start-yarn.sh

    启动信息如下图:

    这里写图片描述

    最后通过浏览器访问(http://192.168.30.128:8088/cluster/nodes)来查看集群运行状态,如下图所示:

    这里写图片描述

    至此,hadoop集群的搭建已全部完成。

    3. WordCount测试

    • Eclipse安装Hadoop插件
           在GitHub上下载[hadoop-eclipse-plugin-2.6.0插件]将hadoop-eclipse-plugin-2.6.0.jar拷贝到Eclipse安装目录\plungins目录下,重启Eclipse打开window->preferences,如果增加了Hadoop map/reduce菜单则证明插件安装成功。
          在系统环境变量中新建变量“HADOOP_USER_NAME=czliuming”并新建变量“HADOOP_HOME=D:\Software\Hadoop\hadoop-2.6.3”将hadoop解压目录下bin目录加入path路径中。
          点击Hadoop map/reduce菜单,配置hadoop在本地系统的解压目录如图所示:

      这里写图片描述

          切换到map/reduce工程视图,在Map/Reduce Locations控制台中右键选择“New Hadoop Location”对hadoop集群进行连接配置,如图所示:
      这里写图片描述

      其中,Host为hadoop-master的ip地址,map/reduce端口号为mapred-site.xml中mapreduce.jobhistory.address配置的端口号,DFS端口号为core-site.xml中fs.defaultFS配置的端口号。

      注意:如果连接失败,请检查代理设置,将master机器IP加入到代理过滤列表中,如图所示:

      这里写图片描述

    • WordCount程序测试
      新建Map/Reduce Project,在src目录中新建WordCount类,并输入以下代码:

      package wordcount;
      
      import java.io.IOException;
      import java.util.StringTokenizer;
      
      import org.apache.hadoop.conf.Configuration;
      import org.apache.hadoop.fs.Path;
      import org.apache.hadoop.io.IntWritable;
      import org.apache.hadoop.io.Text;
      import org.apache.hadoop.mapreduce.Job;
      import org.apache.hadoop.mapreduce.Mapper;
      import org.apache.hadoop.mapreduce.Reducer;
      import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
      import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
      
      public class WordCount {
      
        public static class TokenizerMapper
             extends Mapper<Object, Text, Text, IntWritable>{
      
          private final static IntWritable one = new IntWritable(1);
          private Text word = new Text();
      
          public void map(Object key, Text value, Context context
                          ) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
              word.set(itr.nextToken());
              context.write(word, one);
            }
          }
        }
      
        public static class IntSumReducer
             extends Reducer<Text,IntWritable,Text,IntWritable> {
          private IntWritable result = new IntWritable();
      
          public void reduce(Text key, Iterable<IntWritable> values,
                             Context context
                             ) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable val : values) {
              sum += val.get();
            }
            result.set(sum);
            context.write(key, result);
          }
        }
      
        public static void main(String[] args) throws Exception {
          Configuration conf = new Configuration();
          Job job = Job.getInstance(conf, "word count");
          job.setJarByClass(WordCount.class);
          job.setMapperClass(TokenizerMapper.class);
          job.setCombinerClass(IntSumReducer.class);
          job.setReducerClass(IntSumReducer.class);
          job.setOutputKeyClass(Text.class);
          job.setOutputValueClass(IntWritable.class);
          FileInputFormat.addInputPath(job, new Path(args[0]));
          FileOutputFormat.setOutputPath(job, new Path(args[1]));
          System.exit(job.waitForCompletion(true) ? 0 : 1);
        }
      }

      设置启动参数,如图所示:

      这里写图片描述

      其中,第一个为输入目录,第二个为输出目录,根据实际情况进行配置,我的配置如下:
      这里写图片描述

      最后执行wordcount程序,执行完毕会在输出目录输出单词统计结果,至此wordcount测试结束。

    注意:如果执行过程中出现报错,请参考《Hadoop常见问题汇总》进行处理。

    展开全文
  • 人民币大写互转程序.cmd 人民币金额小写转大写.cmd 十进制转二进制.cmd 十进制转十六进制.cmd 字母大写转换.cmd 把秒转换为天小时分秒的格式.cmd 阿拉伯与罗马数字互转程序.cmd 阿拉伯数字转为罗马数字....
  • 程序开发范例宝典>>

    2012-10-24 10:41:28
    光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。  本书适合程序开发人员,也可供大中专院校师生阅读。 目 ...
  • 通过一个测试类 public static void main(String[] args) throws Exception { Roboter robby = new Roboter(); robby.setStartURL(new URL(...
  •  本书可作为高等院校“网页设计与开发”类课程教材,也可作为网站制作、Web程序设计培训教材,还可作为网页设计与Web编程爱好者的自学参考书。  本书特点  ●构思清晰,结构合理。  ●内容全面系统,语言简洁...
  • 『课程目录』 1课程介绍 2.1如何安装charles 2.2Charles界面介绍 3.1如何抓取天气预报接口讲解 ...3.3配置通用的https抓包规则 4.1断点的使用 4.2模拟弱网测试 4.3Chrome配置弱网 ...小程序抓包实操 ...

    『课程目录』
    1课程介绍
    2.1如何安装charles
    2.2Charles界面介绍
    3.1如何抓取天气预报接口讲解
    3.2如何抓取https协议请求
    3.3配置通用的https抓包规则
    4.1断点的使用
    4.2模拟弱网测试
    4.3Chrome配置弱网
    5.1手机模拟器配置
    5.2Android真机配置
    5.3Iphone手机配置
    5.5映射本地资源
    5.6Charles接口调试
    小程序抓包实操

    链接: https://pan.baidu.com/s/1dJ27L7umSFLZ9Bu_lGwhZg
    提取码: http://songti.net/thread-1208-1-1.html

    展开全文
  • 光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。  本书适合程序开发人员,也可供大中专院校师生阅读。 目 ...
  • 光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。  本书适合程序开发人员,也可供大中专院校师生阅读。 目 ...
  • 光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。  本书适合程序开发人员,也可供大中专院校师生阅读。 目 ...
  • 目录下子目录数:0个;总文件数:15个;文件类型共计:1个;总大小:505.61MB字节 (0);目录中文件数:15个 ├─01课程介绍.mp4 ...├─13小程序抓包实操.mp4 ├─14映射本地资源.mp4 ├─15Charles接口调试.mp4
  • 在开始配置前,我们先了解Hadoop的三种运行模式。 Hadoop的三种运行模式 独立(或本地)模式:无需运行...**伪分布式模式:**Hadoop守护进程运行在本地机器上,模拟一个规模的集群。 **全分布式模式:**Ha...

    在开始配置前,我们先了解Hadoop的三种运行模式。

    Hadoop的三种运行模式

    • 独立(或本地)模式:无需运行任何守护进程,所有程序都在同一个JVM上执行。在独立模式下测试和调试MapReduce程序很方便,因此该模式在开发阶段比较适合。
    • **伪分布式模式:**Hadoop守护进程运行在本地机器上,模拟一个小规模的集群。
    • **全分布式模式:**Hadoop守护进程运行在一个集群上。

    下面我们进入正题,即如何在Windows 7上搭建Hadoop伪分布式环境。

    1. 安装JDK,设置环境变量。
      首先,在控制面板上查看自己的操作系统是32位还是64位。
      然后,检查自己的电脑上是否已经具备Java环境。步骤如下:
      1)Ctrl+R
      2)cmd
      3)输入java -version,若正常显示java版本,证明本机已安装java环境,跳到步骤2.若显示“不是内部或外部命令”,则需要安装JDK,继续步骤4)
      4) 安装JDK,楼主用的是jdk-8u131-windows-x64.exe,因为不允许重复上传CSDN资源,所以楼主无法提供给大家,可以自行下载。说明:只需安装JDK,不需要安装JRE。
      5)配置Java环境变量,配置路径:计算机(右键)–属性–高级系统设置—高级–环境变量。
      在系统变量处新建,变量名:JAVA_HOME;变量值:你安装JDK的位置,楼主的是D:\Tools\jdk
      修改path:在原有的那串变量值后增加%JAVA_HOME%\bin;…
      6)测试Java环境
      在cmd窗口:
      测试Java环境:
      echo %JAVA_HOME%
      echo %path%
      path
      java -version
      javac -version
    2. 下载Hadoop 2.7.7,这个楼主传了资源,诚信赚分,哈哈(https://download.csdn.net/download/u013159040/10620584
      下载,解压到某个文件夹,如D:\Tools\Hadoop
    3. 下载window util for hadoop。为了配合hadoop 2.7.7,楼主也上传了资源(https://download.csdn.net/download/u013159040/10620589),下载后解压到hadoop2.7.7的bin目录下,直接覆盖该目录下的所有内容。请注意此util与具体的hadoop版本是有关的,如果选用不同的hadoop版本,需要找到正确的util。
    4. 添加Hadoop环境变量,参考Java的,新建HADOOP_HOME 变量名同样是自己存放hadoop的位置,如D:\Tools\Hadoop\hadoop-2.7.7, 并添加path路径:%HADOOP_HOME%\bin
    5. 创建nodename和datanode目录,用来保存数据,如:
      d:\tools\hadoop\data\namenode
      d:\tools\hadoop\data\datanode

    6. 在D:\Tools\Hadoop\hadoop-2.7.7\etc\hadoop里修改4个配置文件:core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>   
    </configuration>
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    hdfs-site.xml(不要直接复制楼主的,要看看自己的namenode和datanode存放的位置是否和楼主一致,不一致的要修改):

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/D:/Tools/data/namenode</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>/D:/Tools/data/datanode</value>
        </property>
    </configuration>
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    mapred-site.xml:

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    yarn-site.xml:

    <configuration>
        <!-- Site specific YARN configuration properties -->
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
            <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
            <name>yarn.scheduler.minimum-allocation-mb</name>
            <value>1024</value>
        </property>
        <property>
            <name>yarn.nodemanager.resource.memory-mb</name>
            <value>4096</value>
        </property>
        <property>
            <name>yarn.nodemanager.resource.cpu-vcores</name>
            <value>2</value>
        </property>
    </configuration>
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    7.上面步骤完成设置后,就可以试着运行Hadoop了。
    Hadoop 启动命令start -all.cmd
    Hadoop 结束命令stop -all.cmd
    进入到自己的hadoop sbin目录(一直cd就行了),启动start-all.cmd,再jps查看java进程,如下图
    这里写图片描述
    同时,会跳出4个窗口
    DataNode
    namenode
    nodemanager
    resourcemanager

    web方式查看文件系统:http://localhost:50070/
    查看mapreduce job:http://localhost:8088
    由NameNode(守护进程)服务提供


    下面可以测试Hadoop自带的Wordcount

    1. 在d盘新建一个txt文件t1.txt
      t1.txt
    2. 把t1上传到HDFS: hadoop fs -put d:\t1.txt /t1/t1.txt
    3. cd进到mapreduce,然后可以开始运行wordcount了:
      hadoop jar /D:\Application\hadoop-2.7.7\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.7.7.jar wordcount \t1 \output
      这里写图片描述
    4. 然后我们可以看到词频统计结果:
      这里写图片描述
      网页上查看的如下:
      这里写图片描述
      可以下载分布式文件系统上的这个t1.txt文件。
    展开全文
  • 16.3.1 模拟测试概述 16.3.2 创建Mock对象 16.3.3 设定Mock对象的期望行为及返回值 16.3.4 验证交互行为 16.4 测试整合之王Unitils 16.4.1 Unitils概述 16.4.2 集成Spring 16.4.3 集成Hibernate 16.4.4 集成Dbunit ...
  • 16.3.1 模拟测试概述 16.3.2 创建Mock对象 16.3.3 设定Mock对象的期望行为及返回值 16.3.4 验证交互行为 16.4 测试整合之王Unitils 16.4.1 Unitils概述 16.4.2 集成Spring 16.4.3 集成Hibernate 16.4.4 集成Dbunit ...
  • 持续交付-发布可靠软件的系统方法

    热门讨论 2014-03-02 01:32:14
    3.5.2 提交前在本地运行所有的提交测试,或者让持续集成服务器完成此事 53 3.5.3 等提交测试通过后再继续工作 54 3.5.4 回家之前,构建必须处于成功状态 54 3.5.5 时刻准备着回滚到前一个版本 55 3.5.6 在回滚...
  • 2.4.3 应用程序配置管理 33 2.4.4 跨应用的配置管理 36 2.4.5 管理配置信息的原则 37 2.5 环境管理 38 2.5.1 环境管理的工具 41 2.5.2 变更过程管理 41 2.6 结 42 第3章 持续集成 43 3.1 引言 ...
  • 5.5 管理各种应用程序配置 101 5.5.1 为本地化和设备配置指定资源 102 5.5.2 在程序中使用适当的配置资源 104 5.5.3 高效地组织应用程序资源 106 结 107 参考资料和更多信息 108 第三部分 Android用户...
  • 6.4.2 模拟MySQL表被误删除的环境 6.4.3 通过ext3grep分析数据、恢复数据 6.5 本章结 第3篇 网络存储应用篇 第7章 IP网络存储iSCSI 7.1 存储的概念与术语 7.1.1 SCSI介绍 7.1.2 FC介绍 7.1.3 ...
  • A 新增 模拟小程序进程销毁重启 A 新增 编辑器行内错误和警告提示 A 新增 Mac 和 Windows 微信的模拟器类型 U 优化 1.02.1912261 的安装包结构 U 优化 MacOS 版关闭项目窗口时,显示项目列表窗口 U 优化 插件...
  • windowsnt 技术内幕

    2014-04-09 20:47:17
    报名参加考试 考试的费用问题 考前的自我调整 使用考试中心提供的考试工具 参加模拟测试 熟悉使用计算机进行考试 充分利用考试时间 考题的形式 理解多重选择题型 理解对错题题型 理解多重选择多重答案题型 理解基于...
  • iphone3开发基础教程

    2013-07-07 17:52:39
    17.3 现实中的iPhone:本地化应用程序 398 17.3.1 查看当前区域设置 401 17.3.2 测试LocalizeMe 401 17.3.3 本地化nib文件 402 17.3.4 查看本地化的项目结构 403 17.3.5 本地化图像 405 17.3.6 本地化应用程序图标 ...
  • 精通Java JDK

    热门讨论 2009-06-27 20:03:50
    ManageEmployeeSalary.java 模拟雇员工资管理-主类程序 第7章(\程序源文件\第七章) TryCatchTest.java 异常捕获try…catch语句测试 ThrowTest.java 异常抛出throw及throws语句测试 MyException.java ...
  • 全书分4个部分,分别从Android基础介绍、环境搭建、SDK介绍,到应用剖析、组件介绍、综合实例演示,以及符合潮流的、最新的移动开发技术,如HTML5、OpenGL ES、NDK编程、Android测试驱动开发等几个方面讲述。...
  • 全书分4个部分,分别从Android基础介绍、环境搭建、SDK介绍,到应用剖析、组件介绍、综合实例演示,以及符合潮流的、最新的移动开发技术,如HTML5、OpenGL ES、NDK编程、Android测试驱动开发等几个方面讲述。...
  • 219 7.6 使用内容提供器 219 第8章 地图、地理编码和基于位置的服务 237 8.1 使用基于位置的服务 238 8.2 配置模拟器来测试基于位置的服务 238 8.3 更新模拟位置提供器中的位置 238 8.4 选择一个位置提供器 239 第9...
  • 11.2 配置数据源控件的高速缓存 321 11.3 存储连接信息 321 11.4 使用绑定的列表控件和数据源控件 324 11.4.1 GridView 325 11.4.2 编辑GridView中的数据行 333 11.4.3 删除GridView数据 337 11.4.4 ...
  • 1.1.2 本地库 2 1.1.3 OPhone运行环境 3 1.1.4 Widget运行环境 3 1.1.5 应用程序框架 4 1.1.6 应用程序 5 1.2 开发OPhone应用程序 5 1.2.1 开发语言 5 1.2.2 OPhone SDK 5 1.2.3 OPhone开发者社区 6 1.3 将OPhone...
  • 27.1.2 应用程序配置文件979 27.1.3 配置的应用979 27.1.4 检测配置文件的变化980 27.1.5 配置文件的格式980 27.2 公共配置设置981 27.2.1 连接字符串981 27.2.2 配置会话状态982 27.2.3 编译配置985 27.2.4 浏览器...
  • 易语言辅助模块

    2013-02-14 19:52:02
    程序配置项, 文本型, 公开, 读取指定配置文件中指定项目的文本内容。 .参数 配置文件名, 文本型, , 全路径配置文件名,指定配置文件的名称,通常以.ini作为文件名后缀。 .参数 小节名, 文本型, , 包含欲读入...

空空如也

空空如也

1 2 3 4 5
收藏数 86
精华内容 34
关键字:

本地模拟测试小程序配置