-
Hadoop配置伪分布式模式
2016-11-21 14:09:391、Hadoop有三种配置模式,分别为独立模式、伪分布式模式、... 伪分布式模式:守护程序运行在本地主机,模拟一个小规模集群。 分布式模式:守护程序运行在多个主机的集群上。 2、安装SSH、配置SSH无密码登陆。 在1、Hadoop有三种配置模式,分别为独立模式、伪分布式模式、分布式模式。
独立模式:即本地模式,该模式没有运行的守护程序,所有的程序运行在一个jvm中。适合开发期间运行MapReduce程序,源于他的易于测试和调试。
伪分布式模式:守护程序运行在本地主机,模拟一个小规模集群。
分布式模式:守护程序运行在多个主机的集群上。
2、安装SSH、配置SSH无密码登陆。
在伪分布式模式下,必须启动守护进程,因此我们需要安装SSH脚本。
Hadoop实际上并不区分伪分布式模式和分布式模式;它只是启动守护进程的集合
主机集群中通过ssh主机和开始守护进程。伪分布式模式是完全分布式模式的一个特例(单个主机),所以我们需要确保我们可以SSH本地主机和无需输入密码登录。(1)安装 sudo apt-get install openssh-server (2)配置密钥,-t指定算法(rsa算法);-P,指定密码;-f指定存放密钥的文件名称。 ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa (3)进入.ssh目录。会有两个文件。其中id_rsa为私钥,id_rsa.pub为公钥。把公钥放在授权认证的文件里面去。 cat id_rsa.pub >> authorized_keys (4)登录ssh,测试你可以登录。第一次登录会提示确认连接,之后该提示则会消失。 ssh localhost
3、配置。
基本概念:nameNode:名称节点,只存放文件目录。 dataNode:数据节点,存放数据。secondaryNameNode:辅助节点,节点的备份,replication:数据副本(数据备份)。(1)配置core-site.xml文件,配置nameNode名称节点的位置。
<!-- core-site.xml --> <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost/</value> </property> </configuration>
(2)配置hdfs-site.xml文件,配置副本数量。
<!-- hdfs-site.xml --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
(3)配置mapred-site.xml文件,配置mapreduce框架指定yarn
<!-- mapred-site.xml --> <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
(4)配置yarn-site.xml文件,配置资源管理器。节点管理器。
<!-- yarn-site.xml --> <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
4、使用HDFS文件系统。
(1)对文件系统进行格式化。 hdfs namenode -format (2)启动dfs守护进程, start-dfs.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo 注:config之后是文章上面配置的xml文件目录。 (3)启动yarn的mapreduce框架。 start-yarn.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo 注:config之后是文章上面配置的xml文件目录。
5、创建用户目录
(1)为了方便以后使用,这里配置一个环境变量HADOOP_CONF_DIR export HADOOP_CONF_DIR=./ 注:‘./’代表配置的xml文件目录。 (2)创建用户目录 hadoop fs -mkdir /user/
6、简单应用
(1)通过jps/jps -l查看启动的进程。
(2)通过web页面访问查询。 http://localhost:50070,查看名称节点。
http://localhost:19888,查询资源管理器节点。
(3)查看文件目录信息
hadoop fs -ls /7、停止服务
(1)停止yarn的mapreduce框架 stop-yarn.sh (2)停止dfs守护进程 stop-dfs.sh
8、Hadoop提供了一个start-all.sh –config $HADOOP_INSTALL/etc/hadoop_pseudo,可以同时启动之前的进程。
-
Hadoop集群搭建及wordcount测试
2016-05-05 23:00:451. hadoop三种安装模式 单机模式 无需运行任何守护进程...Hadoop守护进程运行在本地机器上,模拟一个小规模的集群。 完全分布式模式 Hadoop运行在一个真实的集群中,本文以hadoop-2.6.3为例讲解此模式配置。 2. hado1. hadoop三种安装模式
- 单机模式
无需运行任何守护进程(daemon),所有程序都在单个JVM上执行。由于在本机模式下测试和调试MapReduce程序较为方便,因此,这种模式适宜用在开发阶段。 - 伪分布式模式
Hadoop守护进程运行在本地机器上,模拟一个小规模的集群。 - 完全分布式模式
Hadoop运行在一个真实的集群中,本文以hadoop-2.6.3为例讲解此模式配置。
2. hadoop分布式模式配置
本文的配置基于完成《hadoop安装与配置》的基础之上。集群配置信息如下:名称 IP 功能 ubuntu-master 192.168.30.128 namenode,jobtracker ubuntu-slave 192.168.30.129 datanode 在hadoop解压目录下新建tmp、hdfs、hdfs\name、hdfs\data文件夹,后续配置文件中会使用这些目录。
为hadoop用户赋予权限,使得该用户获得hadoop目录下文件的操作权限,命令如下:sudo chown -r /usr/opt/hadoop/hadoop-2.6.3
编辑hadoop-2.6.3/etc/hadoop/hadoop-env.sh文件,修改JAVA_HOME值对应到jdk安装目录,如下:
export JAVA_HOME=/usr/opt/java/jdk1.8.0_77
配置hadoop守护进程的运行参数:
- 配置core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://193.168.30.128:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/opt/hadoop/hadoop-2.6.3/tmp</value> </property> <property> <name>hadoop.proxyuser.spark.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.spark.groups</name> <value>*</value> </property> </configuration>
- 配置hdfs-site.xml
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.30.128:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/opt/hadoop/hadoop-2.6.3/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/opt/hadoop/hadoop-2.6.3/hdfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
- 配置mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>192.168.30.128:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>192.168.30.128:19888</value> </property> </configuration>
- 配置yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>192.168.30.128:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>192.168.30.128:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>192.168.30.128:8035</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>192.168.30.128:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>192.168.30.128:8088</value> </property> </configuration>
- 配置masters
将msater机器加入masters文件中,内如如下:
192.168.30.128
- 配置slaves
将所有slave机器加入到slave是文件中(如果master也作为datanode请一并加入),内容如下:
192.168.30.128 192.168.30.129
- 修改hosts
修改所有master机器和slave机器的hosts文件,注意注释掉127.0.1.1配置
最后在所有机器上复制以上配置信息,可以通过复制/etc/hadoop文件夹到所有机器相应目录下,完成机器配置复制,命令如下:
scp -r /usr/opt/hadoop/hadoop-2.6.3/etc/hadoop czliuming@192.168.30.128:/usr/opt/hadoop/hadoop-2.6.3/etc
注:如果上述文件在相应目录下不存在,可以自行创建,我的目录下就没有mapred-site.xml
完成以上配置后,hadoop集群已搭建完毕,下面进行hdfs初始化(仅执行一次),进入hadoop安装目录,执行以下命令:bin/hadoop namenode -format
出现如下界面则hdfs初始化成功:
hdfs初始化结束后,我们就可以尝试启动hadoop集群了,首先启动hdfs命令如下:
sbin/start-dfs.sh
出现如下图信息,则表示启动成功:
接下来,我们启动yarn,执行以下命令;
sbin/start-yarn.sh
启动信息如下图:
最后通过浏览器访问(http://192.168.30.128:8088/cluster/nodes)来查看集群运行状态,如下图所示:
至此,hadoop集群的搭建已全部完成。
3. WordCount测试
Eclipse安装Hadoop插件
在GitHub上下载[hadoop-eclipse-plugin-2.6.0插件]将hadoop-eclipse-plugin-2.6.0.jar拷贝到Eclipse安装目录\plungins目录下,重启Eclipse打开window->preferences,如果增加了Hadoop map/reduce菜单则证明插件安装成功。
在系统环境变量中新建变量“HADOOP_USER_NAME=czliuming”并新建变量“HADOOP_HOME=D:\Software\Hadoop\hadoop-2.6.3”将hadoop解压目录下bin目录加入path路径中。
点击Hadoop map/reduce菜单,配置hadoop在本地系统的解压目录如图所示:
切换到map/reduce工程视图,在Map/Reduce Locations控制台中右键选择“New Hadoop Location”对hadoop集群进行连接配置,如图所示:
其中,Host为hadoop-master的ip地址,map/reduce端口号为mapred-site.xml中mapreduce.jobhistory.address配置的端口号,DFS端口号为core-site.xml中fs.defaultFS配置的端口号。注意:如果连接失败,请检查代理设置,将master机器IP加入到代理过滤列表中,如图所示:
WordCount程序测试
新建Map/Reduce Project,在src目录中新建WordCount类,并输入以下代码:package wordcount; import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class WordCount { public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{ private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context ) throws IOException, InterruptedException { StringTokenizer itr = new StringTokenizer(value.toString()); while (itr.hasMoreTokens()) { word.set(itr.nextToken()); context.write(word, one); } } } public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context ) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } result.set(sum); context.write(key, result); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(TokenizerMapper.class); job.setCombinerClass(IntSumReducer.class); job.setReducerClass(IntSumReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } }
设置启动参数,如图所示:
其中,第一个为输入目录,第二个为输出目录,根据实际情况进行配置,我的配置如下:
最后执行wordcount程序,执行完毕会在输出目录输出单词统计结果,至此wordcount测试结束。
注意:如果执行过程中出现报错,请参考《Hadoop常见问题汇总》进行处理。
- 单机模式
-
300多个bat-cmd-dos批处理程序代码.rar
2020-04-05 15:23:08人民币大小写互转程序.cmd 人民币金额小写转大写.cmd 十进制转二进制.cmd 十进制转十六进制.cmd 字母大小写转换.cmd 把秒转换为天小时分秒的格式.cmd 阿拉伯与罗马数字互转程序.cmd 阿拉伯数字转为罗马数字.... -
程序开发范例宝典>>
2012-10-24 10:41:28光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。 本书适合程序开发人员,也可供大中专院校师生阅读。 目 ... -
Sosoo 1.0网络爬虫程序.doc
2010-12-18 19:50:24通过一个测试类 public static void main(String[] args) throws Exception { Roboter robby = new Roboter(); robby.setStartURL(new URL(... -
网页与Web程序设计 课件 ppt 机械工业出版社 part1
2010-11-28 19:24:38本书可作为高等院校“网页设计与开发”类课程教材,也可作为网站制作、Web程序设计培训教材,还可作为网页设计与Web编程爱好者的自学参考书。 本书特点 ●构思清晰,结构合理。 ●内容全面系统,语言简洁... -
快速掌握Charles抓包工具 [MP4] (115M)
2020-01-11 00:38:15『课程目录』 1课程介绍 2.1如何安装charles 2.2Charles界面介绍 3.1如何抓取天气预报接口讲解 ...3.3配置通用的https抓包规则 4.1断点的使用 4.2模拟弱网测试 4.3Chrome配置弱网 ...小程序抓包实操 ...『课程目录』
1课程介绍
2.1如何安装charles
2.2Charles界面介绍
3.1如何抓取天气预报接口讲解
3.2如何抓取https协议请求
3.3配置通用的https抓包规则
4.1断点的使用
4.2模拟弱网测试
4.3Chrome配置弱网
5.1手机模拟器配置
5.2Android真机配置
5.3Iphone手机配置
5.5映射本地资源
5.6Charles接口调试
小程序抓包实操链接: https://pan.baidu.com/s/1dJ27L7umSFLZ9Bu_lGwhZg
提取码: http://songti.net/thread-1208-1-1.html -
书 名:程序开发范例宝典>>【上卷】(分三卷上传完本书案例)
2010-04-10 10:31:12光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。 本书适合程序开发人员,也可供大中专院校师生阅读。 目 ... -
书 名:程序开发范例宝典>>【中卷】(分三卷上传完本书案例)
2010-04-05 21:59:37光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。 本书适合程序开发人员,也可供大中专院校师生阅读。 目 ... -
书 名:程序开发范例宝典>>【下卷】(分三卷上传完本书案例)
2010-04-05 03:24:09光盘提供了书中所有实例的源代码,全部源代码都经过精心调试,在Windows XP/Windows 2000/Windows Server 2003等操作系统下测试通过,均能够正常运行。 本书适合程序开发人员,也可供大中专院校师生阅读。 目 ... -
快速掌握Charles抓包工具教程
2021-04-08 10:34:09目录下子目录数:0个;总文件数:15个;文件类型共计:1个;总大小:505.61MB字节 (0);目录中文件数:15个 ├─01课程介绍.mp4 ...├─13小程序抓包实操.mp4 ├─14映射本地资源.mp4 ├─15Charles接口调试.mp4 -
win7服务器单机安装hadoop
2019-04-11 11:02:38在开始配置前,我们先了解Hadoop的三种运行模式。 Hadoop的三种运行模式 独立(或本地)模式:无需运行...**伪分布式模式:**Hadoop守护进程运行在本地机器上,模拟一个小规模的集群。 **全分布式模式:**Ha...在开始配置前,我们先了解Hadoop的三种运行模式。
Hadoop的三种运行模式
- 独立(或本地)模式:无需运行任何守护进程,所有程序都在同一个JVM上执行。在独立模式下测试和调试MapReduce程序很方便,因此该模式在开发阶段比较适合。
- **伪分布式模式:**Hadoop守护进程运行在本地机器上,模拟一个小规模的集群。
- **全分布式模式:**Hadoop守护进程运行在一个集群上。
下面我们进入正题,即如何在Windows 7上搭建Hadoop伪分布式环境。
- 安装JDK,设置环境变量。
首先,在控制面板上查看自己的操作系统是32位还是64位。
然后,检查自己的电脑上是否已经具备Java环境。步骤如下:
1)Ctrl+R
2)cmd
3)输入java -version,若正常显示java版本,证明本机已安装java环境,跳到步骤2.若显示“不是内部或外部命令”,则需要安装JDK,继续步骤4)
4) 安装JDK,楼主用的是jdk-8u131-windows-x64.exe,因为不允许重复上传CSDN资源,所以楼主无法提供给大家,可以自行下载。说明:只需安装JDK,不需要安装JRE。
5)配置Java环境变量,配置路径:计算机(右键)–属性–高级系统设置—高级–环境变量。
在系统变量处新建,变量名:JAVA_HOME;变量值:你安装JDK的位置,楼主的是D:\Tools\jdk
修改path:在原有的那串变量值后增加%JAVA_HOME%\bin;…
6)测试Java环境
在cmd窗口:
测试Java环境:
echo %JAVA_HOME%
echo %path%
path
java -version
javac -version - 下载Hadoop 2.7.7,这个楼主传了资源,诚信赚分,哈哈(https://download.csdn.net/download/u013159040/10620584)
下载,解压到某个文件夹,如D:\Tools\Hadoop - 下载window util for hadoop。为了配合hadoop 2.7.7,楼主也上传了资源(https://download.csdn.net/download/u013159040/10620589),下载后解压到hadoop2.7.7的bin目录下,直接覆盖该目录下的所有内容。请注意此util与具体的hadoop版本是有关的,如果选用不同的hadoop版本,需要找到正确的util。
- 添加Hadoop环境变量,参考Java的,新建HADOOP_HOME 变量名同样是自己存放hadoop的位置,如D:\Tools\Hadoop\hadoop-2.7.7, 并添加path路径:%HADOOP_HOME%\bin
创建nodename和datanode目录,用来保存数据,如:
d:\tools\hadoop\data\namenode
d:\tools\hadoop\data\datanode在D:\Tools\Hadoop\hadoop-2.7.7\etc\hadoop里修改4个配置文件:core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
hdfs-site.xml(不要直接复制楼主的,要看看自己的namenode和datanode存放的位置是否和楼主一致,不一致的要修改):
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/D:/Tools/data/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/D:/Tools/data/datanode</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
mapred-site.xml:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
yarn-site.xml:
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.scheduler.minimum-allocation-mb</name> <value>1024</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>4096</value> </property> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>2</value> </property> </configuration>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
7.上面步骤完成设置后,就可以试着运行Hadoop了。
Hadoop 启动命令start -all.cmd
Hadoop 结束命令stop -all.cmd
进入到自己的hadoop sbin目录(一直cd就行了),启动start-all.cmd,再jps查看java进程,如下图
同时,会跳出4个窗口
web方式查看文件系统:http://localhost:50070/
查看mapreduce job:http://localhost:8088
由NameNode(守护进程)服务提供
下面可以测试Hadoop自带的Wordcount
- 在d盘新建一个txt文件t1.txt
- 把t1上传到HDFS: hadoop fs -put d:\t1.txt /t1/t1.txt
- cd进到mapreduce,然后可以开始运行wordcount了:
hadoop jar /D:\Application\hadoop-2.7.7\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.7.7.jar wordcount \t1 \output
- 然后我们可以看到词频统计结果:
网页上查看的如下:
可以下载分布式文件系统上的这个t1.txt文件。
-
Spring.3.x企业应用开发实战(完整版).part2
2013-05-31 09:37:4716.3.1 模拟测试概述 16.3.2 创建Mock对象 16.3.3 设定Mock对象的期望行为及返回值 16.3.4 验证交互行为 16.4 测试整合之王Unitils 16.4.1 Unitils概述 16.4.2 集成Spring 16.4.3 集成Hibernate 16.4.4 集成Dbunit ... -
Spring3.x企业应用开发实战(完整版) part1
2013-05-31 09:24:0516.3.1 模拟测试概述 16.3.2 创建Mock对象 16.3.3 设定Mock对象的期望行为及返回值 16.3.4 验证交互行为 16.4 测试整合之王Unitils 16.4.1 Unitils概述 16.4.2 集成Spring 16.4.3 集成Hibernate 16.4.4 集成Dbunit ... -
持续交付-发布可靠软件的系统方法
2014-03-02 01:32:143.5.2 提交前在本地运行所有的提交测试,或者让持续集成服务器完成此事 53 3.5.3 等提交测试通过后再继续工作 54 3.5.4 回家之前,构建必须处于成功状态 54 3.5.5 时刻准备着回滚到前一个版本 55 3.5.6 在回滚... -
持续交付--发布可靠软件的系统方法.pdf
2014-02-10 10:37:192.4.3 应用程序的配置管理 33 2.4.4 跨应用的配置管理 36 2.4.5 管理配置信息的原则 37 2.5 环境管理 38 2.5.1 环境管理的工具 41 2.5.2 变更过程管理 41 2.6 小结 42 第3章 持续集成 43 3.1 引言 ... -
Android移动应用开发从入门到精通--详细书签版
2013-02-08 11:45:335.5 管理各种应用程序配置 101 5.5.1 为本地化和设备配置指定资源 102 5.5.2 在程序中使用适当的配置资源 104 5.5.3 高效地组织应用程序资源 106 小结 107 参考资料和更多信息 108 第三部分 Android用户... -
集群好书《高性能Linux服务器构建实战》 试读章节下载
2012-04-11 09:53:476.4.2 模拟MySQL表被误删除的环境 6.4.3 通过ext3grep分析数据、恢复数据 6.5 本章小结 第3篇 网络存储应用篇 第7章 IP网络存储iSCSI 7.1 存储的概念与术语 7.1.1 SCSI介绍 7.1.2 FC介绍 7.1.3 ... -
【最新版】wechat_devtools_1.02.2004020.dmg【亲测可用】最好的微信开发者工具
2020-04-08 18:51:49A 新增 模拟小程序进程销毁重启 A 新增 编辑器行内错误和警告提示 A 新增 Mac 和 Windows 微信的模拟器类型 U 优化 1.02.1912261 的安装包结构 U 优化 MacOS 版关闭项目窗口时,显示项目列表窗口 U 优化 插件... -
windowsnt 技术内幕
2014-04-09 20:47:17报名参加考试 考试的费用问题 考前的自我调整 使用考试中心提供的考试工具 参加模拟测试 熟悉使用计算机进行考试 充分利用考试时间 考题的形式 理解多重选择题型 理解对错题题型 理解多重选择多重答案题型 理解基于... -
iphone3开发基础教程
2013-07-07 17:52:3917.3 现实中的iPhone:本地化应用程序 398 17.3.1 查看当前区域设置 401 17.3.2 测试LocalizeMe 401 17.3.3 本地化nib文件 402 17.3.4 查看本地化的项目结构 403 17.3.5 本地化图像 405 17.3.6 本地化应用程序图标 ... -
-
精通Java JDK
2009-06-27 20:03:50ManageEmployeeSalary.java 模拟雇员工资管理-主类程序 第7章(\程序源文件\第七章) TryCatchTest.java 异常捕获try…catch语句测试 ThrowTest.java 异常抛出throw及throws语句测试 MyException.java ... -
Android开发权威指南.(人民邮电.李宁).pdf
2016-06-01 12:41:24全书分4个部分,分别从Android基础介绍、环境搭建、SDK介绍,到应用剖析、组件介绍、综合实例演示,以及符合潮流的、最新的移动开发技术,如HTML5、OpenGL ES、NDK编程、Android测试驱动开发等几个方面讲述。... -
Android开发权威指南(第一版扫描版).李宁.pdf
2014-03-29 18:38:54全书分4个部分,分别从Android基础介绍、环境搭建、SDK介绍,到应用剖析、组件介绍、综合实例演示,以及符合潮流的、最新的移动开发技术,如HTML5、OpenGL ES、NDK编程、Android测试驱动开发等几个方面讲述。... -
Android 高级编程 高清 pdf 中文版
2012-02-02 20:53:07219 7.6 使用内容提供器 219 第8章 地图、地理编码和基于位置的服务 237 8.1 使用基于位置的服务 238 8.2 配置模拟器来测试基于位置的服务 238 8.3 更新模拟位置提供器中的位置 238 8.4 选择一个位置提供器 239 第9... -
2.ASP.NET.2.0.高级编程(第4版) [1/7]
2009-12-27 07:52:5411.2 配置数据源控件的高速缓存 321 11.3 存储连接信息 321 11.4 使用绑定的列表控件和数据源控件 324 11.4.1 GridView 325 11.4.2 编辑GridView中的数据行 333 11.4.3 删除GridView数据 337 11.4.4 ... -
OPhone应用开发权威指南(黄晓庆)
2015-03-08 12:19:151.1.2 本地库 2 1.1.3 OPhone运行环境 3 1.1.4 Widget运行环境 3 1.1.5 应用程序框架 4 1.1.6 应用程序 5 1.2 开发OPhone应用程序 5 1.2.1 开发语言 5 1.2.2 OPhone SDK 5 1.2.3 OPhone开发者社区 6 1.3 将OPhone... -
ASP.NET2.0高级编程(第4版)1/6
2009-10-01 13:40:0827.1.2 应用程序配置文件979 27.1.3 配置的应用979 27.1.4 检测配置文件的变化980 27.1.5 配置文件的格式980 27.2 公共配置设置981 27.2.1 连接字符串981 27.2.2 配置会话状态982 27.2.3 编译配置985 27.2.4 浏览器... -
易语言辅助模块
2013-02-14 19:52:02子程序 读配置项, 文本型, 公开, 读取指定配置文件中指定项目的文本内容。 .参数 配置文件名, 文本型, , 全路径配置文件名,指定配置文件的名称,通常以.ini作为文件名后缀。 .参数 小节名, 文本型, , 包含欲读入...