2017-08-15 18:33:09 qq_33813365 阅读数 4203
  • JAVA报表开发JasperReport+iReport5.6详解

    课程包含从基础的环境搭建,到控件的详细使用和对ireport难点进行重点讲解,一共21个小节。 难点包含: 条件styles Crosstab交叉表格 报表分组和统计 Subreport子报表(参数传递,子报表返回值) chart图表类所有控件 jasperreport导出word,excel,pdf 多数据源报表 JSP中显示jasperreport报表等

    11635 人正在学习 去看看 安燚

大礼包内含书目:

Apache Spark源码剖析.pdf
深入理解Spark:核心思想与源码分析.pdf
Spark快速大数据分析.pdf
Spark高级数据分析.pdf
数据算法--Hadoop-Spark大数据处理技巧
Spark大数据处理:技术、应用与性能优化(全).pdf
Spark技术内幕  深入解析Spark内核架构设计与实现原理.pdf

下载地址:
http://pan.baidu.com/s/1c1GB56K

2017-08-31 01:12:00 weixin_30449239 阅读数 0
  • JAVA报表开发JasperReport+iReport5.6详解

    课程包含从基础的环境搭建,到控件的详细使用和对ireport难点进行重点讲解,一共21个小节。 难点包含: 条件styles Crosstab交叉表格 报表分组和统计 Subreport子报表(参数传递,子报表返回值) chart图表类所有控件 jasperreport导出word,excel,pdf 多数据源报表 JSP中显示jasperreport报表等

    11635 人正在学习 去看看 安燚
下载地址:网盘下载

 

 

内容简介  · · · · · ·

作者简介  · · · · · ·

黄宜华博士,南京大学计算机科学与技术系教授、PASA大数据实验室学术带头人。中国计算机学会大数据专家委员会委员、副秘书长,江苏省计算机学会大数据专家委员会主任。于1983、1986和1997年获得南京大学计算机专业学士、硕士和博士学位。主要研究方向为大数据并行处理、云计算以及Web信息挖掘等,发表学术研究论文60多篇。2010年在Google公司资助下在本校创建并开设了“MapReduce大数据并行处理技术”课程,成为全国最早开设该课程的院校之一。因在该课程教学和人才培养方面的出色成绩获得2012年Google奖教金。目前正在开展系统化的大数据并行处理技术研究工作,主持国家和省部级科研项目以及与美国Intel公司等业界的合作研究项目多项。

苗凯翔 (Kai X. Miao) 博士,英特尔中国大数据首席技术官,中国计算机学会大数据专家委员会委员。曾担任英特尔中国区系统集成部总监、信息技术研究部门亚洲地区总监、英特尔北美地区解决方案首席架构师。于2009荣获英特尔公司首席工程师职称。在加入英特尔以前,曾在美国Rutgers与DeVry大学任教。获得北方交通大学(北京)通信学士学位、美国辛辛那提大学电机工程硕士和博士学位。发表期刊和会议研究论文多篇,并拥有21项美国专利,在各种会议上发表过上百次主题演讲,曾参与IETF、ITU 和 MIT CFP等工业标准的制定,并于2006 年担任IEEE通信杂志的联合编辑。

目录  · · · · · ·

推荐序一
推荐序二
推荐序三
丛书序言
前  言
第一部分 Hadoop系统
第1章 大数据处理技术简介 2
1.1 并行计算技术简介 2
1.1.1 并行计算的基本概念 2
1.1.2 并行计算技术的分类 6
1.1.3 并行计算的主要技术问题 10
1.2 大数据处理技术简介 13
1.2.1 大数据的发展背景和研究意义 13
1.2.2 大数据的技术特点 16
1.2.3 大数据研究的主要目标、基本原则和基本途径 17
1.2.4 大数据计算模式和系统 18
1.2.5 大数据计算模式的发展趋势 21
1.2.6 大数据的主要技术层面和技术内容 22
1.3 MapReduce并行计算技术简介 25
1.3.1 MapReduce的基本概念和由来 25
1.3.2 MapReduce的基本设计思想 26
1.3.3 MapReduce的主要功能和技术特征 28
1.4 Hadoop系统简介 30
1.4.1 Hadoop的概述与发展历史 30
1.4.2 Hadoop系统分布式存储与并行计算构架 31
1.4.3 Hadoop平台的基本组成与生态系统 33
1.4.4 Hadoop的应用现状和发展趋势 37
第2章 Hadoop系统的安装与操作管理 39
2.1 Hadoop系统安装方法简介 39
2.2 单机和单机伪分布式Hadoop系统安装基本步骤 39
2.2.1 安装和配置JDK 40
2.2.2 创建Hadoop用户 40
2.2.3 下载安装Hadoop 40
2.2.4 配置SSH 41
2.2.5 配置Hadoop环境 42
2.2.6 Hadoop的运行 43
2.2.7 运行测试程序 43
2.2.8 查看集群状态 44
2.3 集群分布式Hadoop系统安装基本步骤 44
2.3.1 安装和配置JDK 44
2.3.2 创建Hadoop用户 45
2.3.3 下载安装Hadoop 45
2.3.4 配置SSH 45
2.3.5 配置Hadoop环境 46
2.3.6 Hadoop的运行 48
2.3.7 运行测试程序 48
2.3.8 查看集群状态 49
2.4 Hadoop MapReduce程序开发过程 49
2.5 集群远程作业提交与执行 53
2.5.1 集群远程作业提交和执行过程 53
2.5.2 查看作业执行结果和集群状态 53
第3章 大数据存储——分布式文件系统HDFS 56
3.1 HDFS的基本特征与构架 56
3.1.1 HDFS的基本特征 57
3.1.2 HDFS的基本框架与工作过程 57
3.2 HDFS可靠性设计 60
3.2.1 HDFS数据块多副本存储设计 60
3.2.2 HDFS可靠性的设计实现 61
3.3 HDFS文件存储组织与读写 63
3.3.1 文件数据的存储组织 63
3.3.2 数据的读写过程 65
3.4 HDFS文件系统操作命令 68
3.4.1 HDFS启动与关闭 68
3.4.2 HDFS文件操作命令格式与注意事项 69
3.4.3 HDFS文件操作命令 69
3.4.4 高级操作命令和工具 77
3.5 HDFS基本编程接口与示例 83
3.5.1 HDFS编程基础知识 83
3.5.2 HDFS基本文件操作API 84
3.5.3 HDFS基本编程实例 87
第4章 Hadoop MapReduce并行编程框架 91
4.1 MapReduce基本编程模型和框架 91
4.1.1 MapReduce并行编程抽象模型 91
4.1.2 MapReduce的完整编程模型和框架 93
4.2 Hadoop MapReduce基本构架与工作过程 96
4.2.1 Hadoop系统构架和MapReduce程序执行过程 96
4.2.2 Hadoop MapReduce执行框架和作业执行流程 98
4.2.3 Hadoop MapReduce作业调度过程和调度方法 102
4.2.4 MapReduce执行框架的组件和执行流程 106
4.3 Hadoop MapReduce主要组件与编程接口 107
4.3.1 数据输入格式InputFormat 107
4.3.2 输入数据分块InputSplit 109
4.3.3 数据记录读入RecordReader 110
4.3.4 Mapper类 112
4.3.5 Combiner 114
4.3.6 Partitioner 115
4.3.7 Sort 116
4.3.8 Reducer类 119
4.3.9 数据输出格式OutputFormat 120
4.3.10 数据记录输出RecordWriter 122
第5章 分布式数据库HBase 123
5.1 HBase简介 123
5.1.1 为什么需要NoSQL数据库 123
5.1.2 HBase的作用和功能特点 125
5.2 HBase的数据模型 126
5.2.1 HBase的基本数据模型 126
5.2.2 HBase的查询模式 128
5.2.3 HBase表设计 129
5.3 HBase的基本构架与数据存储管理方法 132
5.3.1 HBase在Hadoop生态中的位置和关系 132
5.3.2 HBase的基本组成结构 133
5.3.3 HBase Region 133
5.3.4 Region Server 135
5.3.5 HBase的总体组成结构 138
5.3.6 HBase的寻址和定位 139
5.3.7 HBase节点的上下线管理 142
5.4 HBase安装与操作 145
5.4.1 安装一个单机版的HBase 145
5.4.2 HBase Shell操作命令 146
5.4.3 基于集群的HBase安装和配置 149
5.5 HBase的编程接口和编程示例 152
5.5.1 表创建编程接口与示例 152
5.5.2 表数据更新编程接口与示例 153
5.5.3 数据读取编程接口与示例 155
5.5.4 HBase MapReduce支持和编程示例 157
5.6 HBase的读写操作和特性 161
5.6.1 HBase的数据写入 161
5.6.2 HBase的数据读取 171
5.7 其他HBase功能 173
5.7.1 Coprocessor 173
5.7.2 批量数据导入Bulk Load 176
第6章 分布式数据仓库Hive 179
6.1 Hive的作用与结构组成 179
6.2 Hive的数据模型 181
6.2.1 Hive的数据存储模型 181
6.2.2 Hive的元数据存储管理 182
6.2.3 Hive的数据类型 183
6.3 Hive的安装 184
6.3.1 下载Hive安装包 184
6.3.2 配置环境变量 184
6.3.3 创建Hive数据文件目录 185
6.3.4 修改Hive配置文件 185
6.4 Hive查询语言——HiveQL 188
6.4.1 DDL语句 188
6.4.2 DML语句 189
6.4.3 SELECT查询语句 190
6.4.4 数据表操作语句示例 190
6.4.5 分区的使用 192
6.4.6 桶的使用 193
6.4.7 子查询 194
6.4.8 Hive的优化和高级功能 194
6.5 Hive JDBC编程接口与程序设计 196
第7章 Intel Hadoop系统优化与功能增强 200
7.1 Intel Hadoop系统简介 200
7.1.1 Intel Hadoop系统的主要优化和增强功能 200
7.1.2 Intel Hadoop的系统构成与组件 201
7.2 Intel Hadoop系统的安装和管理 202
7.3 Intel Hadoop HDFS的优化和功能扩展 202
7.3.1 HDFS的高可用性 203
7.3.2 Intel Hadoop系统高可用性配置服务 204
7.3.3 Intel Hadoop系统高可用性配置服务操作 206
7.3.4 自适应数据块副本调整策略 208
7.4 Intel Hadoop HBase的功能扩展和编程示例 211
7.4.1 HBase大对象存储(LOB) 211
7.4.2 加盐表 212
7.4.3 HBase跨数据中心大表 213
7.5 Intel Hadoop Hive的功能扩展和编程示例 216
7.5.1 开源Hive的不足 216
7.5.2 Intel Hadoop“Hive over HBase”优化设计 216
7.5.3 Hive over HBase的架构 216
第二部分 MapReduce的编程和算法设计
第8章 MapReduce基础算法程序设计 220
8.1 WordCount 220
8.1.1 WordCount算法编程实现 220
8.2 矩阵乘法 223
8.2.1 矩阵乘法原理和实现思路 223
8.2.2 矩阵乘法的MapReduce程序实现 224
8.3 关系代数运算 227
8.3.1 选择操作 227
8.3.2 投影操作 228
8.3.3 交运算 229
8.3.4 差运算 230
8.3.5 自然连接 231
8.4 单词共现算法 233
8.4.1 单词共现算法的基本设计 233
8.4.2 单词共现算法的实现 234
8.4.3 单词共现算法实现中的细节问题 235
8.5 文档倒排索引 237
8.5.1 简单的文档倒排索引 237
8.5.2 带词频等属性的文档倒排索引 239
8.6 PageRank网页排名算法 242
8.6.1 PageRank的简化模型 243
8.6.2 PageRank的随机浏览模型 244
8.6.3 PageRank的MapReduce实现 245
8.7 专利文献分析算法 249
8.7.1 构建专利被引用列表 250
8.7.2 专利被引用次数统计 251
8.7.3 专利被引用次数直方图统计 252
8.7.4 按照年份或国家统计专利数 254
第9章 MapReduce高级程序设计技术 256
9.1 简介 256
9.2 复合键值对的使用 257
9.2.1 把小的键值对合并成大的键值对 257
9.2.2 巧用复合键让系统完成排序 259
9.3 用户定制数据类型 262
9.3.1 Hadoop内置的数据类型 263
9.3.2 用户自定义数据类型的实现 263
9.4 用户定制数据输入输出格式 264
9.4.1 Hadoop内置的数据输入格式与RecordReader 265
9.4.2 用户定制数据输入格式与RecordReader 265
9.4.3 Hadoop内置的数据输出格式与RecordWriter 269
9.4.4 用户定制数据输出格式与RecordWriter 269
9.4.5 通过定制数据输出格式实现多集合文件输出 270
9.5 用户定制Partitioner和Combiner 271
9.5.1 用户定制Partitioner 272
9.5.2 用户定制Combiner 273
9.6 组合式MapReduce计算作业 274
9.6.1 迭代MapReduce计算任务 274
9.6.2 顺序组合式MapReduce作业的执行 275
9.6.3 具有复杂依赖关系的组合式MapReduce作业的执行 275
9.6.4 MapReduce前处理和后处理步骤的链式执行 276
9.7 多数据源的连接 278
9.7.1 基本问题数据示例 279
9.7.2 用DataJoin类实现Reduce端连接 279
9.7.3 用全局文件复制方法实现Map端连接 285
9.7.4 带Map端过滤的Reduce端连接 287
9.7.5 多数据源连接解决方法的限制 288
9.8 全局参数/数据文件的传递与使用 288
9.8.1 全局作业参数的传递 288
9.8.2 查询全局的MapReduce作业属性 290
9.8.3 全局数据文件的传递 291
9.9 关系数据库的连接与访问 292
9.9.1 从数据库中输入数据 292
9.9.2 向数据库中输出计算结果 292
第10章 MapReduce数据挖掘基础算法 295
10.1 K-Means聚类算法 295
10.1.1 K-Means聚类算法简介 295
10.1.2 基于MapReduce的K-Means算法的设计实现 297
10.2 KNN最近邻分类算法 300
10.2.1 KNN最近邻分类算法简介 300
10.2.2 基于MapReduce的KNN算法的设计实现 301
10.3 朴素贝叶斯分类算法 303
10.3.1 朴素贝叶斯分类算法简介 303
10.3.2 朴素贝叶斯分类并行化算法的设计 304
10.3.3 朴素贝叶斯分类并行化算法的实现 306
10.4 决策树分类算法 310
10.4.1 决策树分类算法简介 310
10.4.2 决策树并行化算法的设计 313
10.4.3 决策树并行化算法的实现 317
10.5 频繁项集挖掘算法 327
10.5.1 频繁项集挖掘问题描述 327
10.5.2  Apriori频繁项集挖掘算法简介 328
10.5.3 Apriori频繁项集挖掘并行化算法的设计 329
10.5.4 Apriori频繁项集挖掘并行化算法的实现 331
10.5.5 基于子集求取的频繁项集挖掘算法的设计 335
10.5.6 基于子集求取的频繁项集挖掘并行化算法的实现 336
10.6 隐马尔科夫模型和最大期望算法 340
10.6.1 隐马尔科夫模型的基本描述 340
10.6.2 隐马尔科夫模型问题的解决方法 341
10.6.3 最大期望算法概述 345
10.6.4 并行化隐马尔科夫算法设计 345
10.6.5 隐马尔科夫算法的并行化实现 348
第11章 大数据处理算法设计与应用编程案例 352
11.1 基于MapReduce的搜索引擎算法 352
11.1.1 搜索引擎工作原理简介 353
11.1.2 基于MapReduce的文档预处理 354
11.1.3 基于MapReduce的文档倒排索引构建 356
11.1.4 建立Web信息查询服务 363
11.2 基于MapReduce的大规模短文本多分类算法 365
11.2.1 短文本多分类算法工作原理简介 365
11.2.2 并行化分类训练算法设计实现 366
11.2.3 并行化分类预测算法设计实现 369
11.3 基于MapReduce的大规模基因序列比对算法 371
11.3.1 基因序列比对算法简介 371
11.3.2 并行化BLAST算法的设计与实现 373
11.4 基于MapReduce的大规模城市路径规划算法 379
11.4.1 问题背景和要求 379
11.4.2 数据输入 380
11.4.3 程序设计要求 384
11.4.4 算法设计总体框架和处理过程 385
11.4.5 并行化算法的设计与实现 386
11.5 基于MapReduce的大规模重复文档检测算法 396
11.5.1 重复文档检测问题描述 396
11.5.2 重复文档检测方法和算法设计 397
11.5.3 重复文档检测并行化算法设计实现 401
11.6 基于内容的并行化图像检索算法与引擎 404
11.6.1 基于内容的图像检索问题概述 404
11.6.2 图像检索方法和算法设计思路 405
11.6.3 并行化图像检索算法实现 407
11.7 基于MapReduce的大规模微博传播分析 412
11.7.1 微博分析问题背景与并行化处理过程 413
11.7.2 并行化微博数据获取算法的设计实现 414
11.7.3 并行化微博数据分析算法的设计实现 416
11.8 基于关联规则挖掘的图书推荐算法 422
11.8.1 图书推荐和关联规则挖掘简介 422
11.8.2 图书频繁项集挖掘算法设计与数据获取 423
11.8.3 图书关联规则挖掘并行化算法实现 425
11.9 基于Hadoop的城市智能交通综合应用案例 432
11.9.1 应用案例概述 432
11.9.2 案例一:交通事件检测 433
11.9.3 案例二:交通流统计分析功能 435
11.9.4 案例三:道路旅行时间分析 435
11.9.5 案例四:HBase实时查询 436
11.9.6 案例五:HBase Endpoint快速统计 437
11.9.7 案例六:利用Hive高速统计 439
附  录
附录A OpenMP并行程序设计简介 442
附录B MPI并行程序设计简介 448
附录C 英特尔Apache Hadoop*系统安装手册 457
参考文献 486

 

 

 

下载地址:网盘下载

 

转载于:https://www.cnblogs.com/long12365/p/9731444.html

2019-01-28 13:40:46 weixin_44553289 阅读数 68
  • JAVA报表开发JasperReport+iReport5.6详解

    课程包含从基础的环境搭建,到控件的详细使用和对ireport难点进行重点讲解,一共21个小节。 难点包含: 条件styles Crosstab交叉表格 报表分组和统计 Subreport子报表(参数传递,子报表返回值) chart图表类所有控件 jasperreport导出word,excel,pdf 多数据源报表 JSP中显示jasperreport报表等

    11635 人正在学习 去看看 安燚

“大数据”这个词儿已经在 IT 圈蔓延到各个领域,如果真要刨根问底的问一句“如何实现大数据分析”,恐怕是 IT 圈里的好些人也一时半会儿解释不清楚吧。所以尝试把大数据分析这个事做个深入浅出的剖析还是很有意义的。仁者见仁智者见智,能力所限,表达如有不准确的地方希望你能用包容的心态多理解和指导。

首先,用5秒钟的时间扫描一下下面的这段内容吧:
在这里插入图片描述
知道上面是一段日志文件的片段的请举手。敢问阁下您是一位受人尊敬的码农吧?

在这里插入图片描述
看上面内容像天书的请举手。请不要怀疑自己的能力,证明你是一个正常人,你的人生依然充满希望和光明。

在这里插入图片描述
如果把上面的日志信息归纳如下,看起来是不是有点感觉了。

在这里插入图片描述

每当你访问一个网站时,从你打开网站首页开始,到你离开那个网站,只要网站愿意,你的一举一动就会不停的产生类似上面这样日志记录,无数人的访问会产生大量的访问记录,这个网站的“用户访问情况大数据”就这样产生了。

接着思考,这些用户访问情况的大数据有什么价值呢?

没错!做网站用户行为分析呀,了解用户在网站上的动向、喜好,然后给用户推荐更他更有可能感兴趣的内容,为网站的运营决策提供数据参考等等,这个过程用一句带点技术范儿的话总结就是:“日志掘金“。
在这里插入图片描述
日志掘金就是大数据分析的一个具体的应用场景。因为原始的日志文件(数据源)的信息是大而全的,而且结构有些复杂不易读懂,所以日志掘金就像淘金一样,从茫茫的数据海洋中,通过过滤、清洗,筛出有价值的关键信息—— KPI(黄金)。

在这里插入图片描述

那么继续思考,如何通过技术实现从“数据源”过滤出“KPI”呢?下面是一个简要的数据掘金流程图,请稍微耐点心看看(图下的文字解读会让你柳暗花明又一村):

在这里插入图片描述

用户上网产生的行为被“日志文件”记录下来,因为网站的访问量很大,所以产生的日志文件也很大,为了能够更高效的对这个文件进行分析,所以把它保存到一个叫“ HDFS ”的分布式文件系统中。这个过程中一份完整的“日志文件”会被拆分成n个小文件(按照每个小文件64MB等分),拆分后的每个小文件会再复制2个备份(n个小文件就变成了3n个),然后将这些小文件保存到“ HDFS ”系统的划分出来的存储节点上(一个存储节点可以简单理解为一台电脑),保存的过程中同一份小文件和它的拷贝要保存在不同的存储节点上(目的是为了防止某几台电脑坏了,没有备份的话就会造成文件缺失)。

在这里插入图片描述

通过上面的过程,接下来从一个大日志文件中查找数据就演变为可以利用一群计算节点(计算机),同时从n个小文件中并行的查找数据了,然后再将每个节点查找的结果进行合并汇总,这个过程就是 MapReduce 数据清洗。

这个过程有点复杂,举个栗子:从一个包含一组单词的文件中(理解为“日志文件”)统计每个单词出现的次数。首先将一个大文件拆分为三个小文件,然后分别统计每个小文件中每个单词出现的次数,最后汇总每个小文件统计的结果。具体如下图所示:

在这里插入图片描述

经过 MapReduce 数据清洗之后,从一个数据结构不规则、大而全的日志文件中提取出需要的关键指标数据了,请注意提取后的数据依然保存在 HDFS 中。再深入思考一下,如何从提取后的数据进行统计呢?这个时候可以有多种方案了,下图例举了2个方案,这两个方案我们不展开详细说明了,总而言之是能够从 HDFS 中进行数据的统计了。

在这里插入图片描述

最后再思考一个问题:既然已经能够统计分析了,为什么还要再多此一举将 HDFS 中的数据导入到 HBase 和 MySQL 数据库中呢?这不是画蛇添足吗?

这是因为需要把数据统计分析的结果和数据明细能够方便的提供给别人(比如:前端开发同学)去使用,满足别人坐享其成的快感!

举个栗子吧:

小马不懂大数据底层技术,但他在百度上找到了一个叫“图表秀”的数据可视化分析软件。他请团队的技术大牛将公司产品网站运行的大数据进行采集、清洗,将网站 KPI 数据保存到本地的一个数据库中,这样每次给领导做月度汇报时,他就熟练的利用“图表秀”来制作各种丰富多样的数据图表。

其实,上面这个日志分析的过程还是蛮复杂的,市面上有一些专业的日志分析软件将数据采集、清洗、统计、可视化分析的过程做成了成熟的软件产品,这就降低了技术门槛,提升了日志掘金的效率。比较知名的有 SaCa DataInsight

2012-08-08 16:53:18 broadview2006 阅读数 2052
  • JAVA报表开发JasperReport+iReport5.6详解

    课程包含从基础的环境搭建,到控件的详细使用和对ireport难点进行重点讲解,一共21个小节。 难点包含: 条件styles Crosstab交叉表格 报表分组和统计 Subreport子报表(参数传递,子报表返回值) chart图表类所有控件 jasperreport导出word,excel,pdf 多数据源报表 JSP中显示jasperreport报表等

    11635 人正在学习 去看看 安燚

深入理解OracleExadata

(美)奥斯本(Osborne, K.)等著

黄凯耀,张乐奕,张瑞译

ISBN978-7-121-17489-6

2012年7月出版

定价:99.00元

16开

600页

宣传语

本书将传授你所应知道的一切,让你尽情驾驭这个改变了游戏规则的数据库一体机平台。

内 容 简 介

本书深入地诠释了Exadata的各项特性,如智能扫描、混合列式存储、存储索引、智能闪存、IO资源管理;系统地介绍了如何安装、配置和管理Exadata;完美地阐述了Exadata的等待事件、性能监控和调优方法;详细地剖析了计算节点和存储节点的内部原理;全面地分享了作者们在实际项目中所获得的宝贵经验,如怎样进行大数据的高效移植、Exadata上的一些常见误区、数据库资源管理,等等。本书是实践经验的总结和升华,可读性极强,不仅有对Exadata深入的研究,还有对它们优雅的展现,它将带领读者进入Exadata的殿堂。

原作者中文版序

首先我们要向这本书的中国读者问好。在一年前的Oracle Open World 2011上,我们被问及是否愿意帮助中国的翻译小组将这本书翻译成中文,而今天,我们非常兴奋地看到中文译本即将出版。在这个过程中,我们的意外收获是这次翻译又再次为本书的内容做了一次技术审校,就本书的内容及复杂度而言,在写作过程中出现一些错漏在所难免,而中文翻译小组的出色反馈帮助我们纠正和澄清了这些错误。

至今,这本书的英文版出版已有一年,而离Oracle发布Exadata V2也已超过两年。我们被Exadata在全球走红的速度所震惊(但是并不太惊讶)。写作一本如此崭新技术的书籍的一大挑战就是要面对产品本身的快速变化。幸运的是,它并没有太多令人耳目一新的新增特性,时至今日,本书仍然是学习Exadata的权威资料。书中展示的例子和实验仍然有效,并为读者带来了宝贵的见解。我们希望你能从本书中获益,希望本书可以帮助你了解智能存储的内部工作机理,也可以帮助你理解为什么称其为数据库技术的一个飞跃。

——Kerry,Randy,Tanel

本书序

2008年9月,Oracle CEO Larry Ellison在甲骨文全球用户大会(OOW)上宣布了软件及硬件集成一体化的数据库机——Oracle Exadata Database Machine(以下简称Exadata)。Exadata的推出不但震撼了业界、吸引了全球数据库专家的关注,也引起了Oracle数据库“粉丝”们对其技术的探究和追逐,而且也使得Exadata成为了网络搜索的热点IT词汇。

也正是由于Exadata在技术架构上的自我创新、功能上的丰富增强和性能上的极大优化,使得Exadata在市场推出3年多的时间里,得到了全球用户的广泛认可。目前,Exadata的全球部署已经超过了1000台、用户遍及67个国家的23个行业。Exadata数据库机已成为甲骨文30多年发展史中最成功的新产品。在甲骨文公司的云计算解决方案中,Exadata作为数据库云服务器是OraclePaaS(Platform-as-a-Service,平台即服务)平台的基础构件,成为企业搭建云环境、构建云支撑平台的基石。

随着Exadata 产品和技术的不断更新和广泛使用,无论是Exadata技术爱好者还是我们的广大用户,都非常希望有一本深入介绍Exadata的技术书籍,让读者不仅能从理论概念上更能从实际应用上来更好地理解和把握Exadata的技术机理,循序渐进地探索其内部的技术细节。

而Expert Oracle Exadata(written byKerry Osborne, Randy Johnson and Tanel Põder)一书的问世无疑是“雪中送炭”,本书的三位作者Kerry、Randy和Tanel都是大家熟知的Oracle技术领域内的大师,他们不但有自己的Oracle技术博客,还为全球客户实施和部署Oracle Exadata产品,积累了丰厚的实战经验,对Exadata技术的精髓有切身的体验和理解。本书一经出版便成为Amazon网站上受人关注的书籍。

我相信作为国内读者,更希望看到本书的中文版译著。机缘巧合的是,我们国内的三位译者,也是国内Oracle数据库“粉丝”们熟知的技术专家——甲骨文公司的黄凯耀(Kaya)、阿里巴巴的张瑞(Jacky)、云和恩墨的张乐奕(Kamus)。

三位译者出于对Exadata技术的热爱和把控,以及对读者的尊重,在翻译的过程中,不是简单地对照原文完成语句的翻译,而是在译文中仔细斟酌每一句话的含义,按照中文阅读习惯加以解释,增加了阅读的流畅性、可理解性,避免了生涩的直译。特别值得一提的是,对于一些原文较为晦涩的地方,三位译者根据自己的理解增加了“译者注”,我相信这在目前大多数技术书籍的译文中并不常见。

也正如三位译者在各自的译者序中所写,从2011年8月份开始着手翻译起,三位译者之间及与原著作者之间关于本书翻译的邮件沟通,来来回回将近500封,同时三位译者对原文中的一些错误之处也进行了一并纠正,真可谓为本译作“锦上添花”。

我相信这本汇集了原作者、译者及其他多位大师的技术、经验和点评的专业书籍,一定能让国内有此技术爱好的读者沉浸于书中、感同身受,有所收获。我也相信读完本书,能让你感受到“欲穷千里目,更上一层楼”的境界。

喻思成 

Oracle全球副总裁 

2016-11-23 21:42:41 tianshirenheweu 阅读数 726
  • JAVA报表开发JasperReport+iReport5.6详解

    课程包含从基础的环境搭建,到控件的详细使用和对ireport难点进行重点讲解,一共21个小节。 难点包含: 条件styles Crosstab交叉表格 报表分组和统计 Subreport子报表(参数传递,子报表返回值) chart图表类所有控件 jasperreport导出word,excel,pdf 多数据源报表 JSP中显示jasperreport报表等

    11635 人正在学习 去看看 安燚
【C26】《深入理解Oracle12c数据库管理》PDF 下载
第1章安装Oracle1 
1.1了解OFA1 
1.1.1Oracle清单目录2 
1.1.2Oracle基础目录3 
1.1.3Oracle主目录3 
1.1.4Oracle网络文件目录4 
1.1.5自动诊断信息库4 
1.2安装Oracle5 
1.2.1步骤1:创建OS组和用户5 
1.2.2步骤2:确保充分配置了OS7 
1.2.3步骤3:获取Oracle安装软件8 
1.2.4步骤4:解压缩文件8 
1.2.5步骤5:创建oraInst.loc文件9 
1.2.6步骤6:配置应答文件,然后运行安装程序9 
1.2.7步骤7:解决任何疑难问题13 
1.3使用已安装程序的副本安装Oracle14 
1.3.1步骤1:使用OS实用程序复制已安装的程序14 
1.3.2步骤2:附加Oracle主目录15 
1.4升级Oracle软件16 
1.5安装失败后的重新安装17 
1.6安装临时补丁18 
1.7使用图形界面的安装程序执行远程安装19 
1.7.1步骤1:在本地计算机上安装XWindow系统和网络实用程序20 
1.7.2步骤2:在本地计算机上启动XWindow系统会话20 
1.7.3步骤3:将Oracle安装文件复制到远程服务器上20 
1.7.4步骤4:运行xhost命令21 
1.7.5步骤5:通过XWindow系统登录远程计算机21 
1.7.6步骤6:确保在远程计算机上正确设置DISPLAY变量21 
1.7.7步骤7:运行runInstaller实用程序22 
1.7.8步骤8:解决问题23 
1.8小结23 
第2章实现数据库24 
2.1设置OS变量24 
2.1.1手动加强方法25 
2.1.2使用Oracle的方法设置OS变量25 
2.1.3我x喜欢的设置OS变量的方法27 
2.2创建数据库28 
2.2.1步骤1:设置OS变量29 
2.2.2步骤2:配置初始化文件29 
2.2.3步骤3:创建必需的目录31 
2.2.4步骤4:创建数据库31 
2.2.5步骤5:创建数据目录35 
2.3配置和实现监听器36 
2.3.1手动配置监听器36 
2.3.2使用NetConfigurationAssistant实现监听器37 
2.3.3通过网络连接数据库38 
2.4创建密码文件39 
2.5启动和停止数据库40 
2.5.1了解OS认证40 
2.5.2启动数据库41 
2.5.3停止数据库43 
2.6使用dbca创建数据库44 
2.7删除数据库46 
2.8一台服务器上运行多少个数据库47 
2.9了解Oracle体系结构49 
2.10小结51 
第3章配置高效环境52 
3.1自定义OS命令提示符53 
3.2自定义SQL提示符54 
3.3为常用命令创建快捷方式56 
3.3.1使用别名56 
3.3.2使用函数57 
3.4快速再次运行命令58 
3.4.1使用向上箭头键和向下箭头键滚动59 
3.4.2使用Ctrl+P和Ctrl+N组合键59 
3.4.3列出命令的历史记录59 
3.4.4反向搜索60 
3.4.5设置命令编辑器60 
3.5开发标准脚本61 
3.5.1dba_setup61 
3.5.2dba_fcns62 
3.5.3tbsp_chk.bsh62 
3.5.4conn.bsh64 
3.5.5filesp.bsh65 
3.5.6login.sql67 
3.5.7top.sql67 
3.5.8lock.sql68 
3.5.9users.sql70 
3.6组织脚本70 
3.6.1步骤1:创建目录71 
3.6.2步骤2:将文件复制到目录71 
3.6.3步骤3:配置启动文件71 
3.7小结72 
第4章表空间和数据文件73 
4.1x初创建的5个表空间74 
4.2了解更多需求74 
4.3创建表空间75 
4.4重命名表空间78 
4.5控制重做日志79 
4.6更改表空间的写入模式80 
4.7删除表空间80 
4.8使用Oracle管理的文件82 
4.9创建大文件表空间83 
4.10在表空间中启用默认的表压缩83 
4.11显示表空间的尺寸84 
4.12更改表空间尺寸86 
4.13切换数据文件的联机状态87 
4.14重命名和移动数据文件89 
4.14.1执行数据文件联机操作89 
4.14.2执行数据文件脱机操作89 
4.15小结93 
第5章管理控制文件、联机重做日志和归档94 
5.1管理控制文件94 
5.1.1查看控制文件的名称和位置96 
5.1.2增加控制文件97 
5.1.3移动控制文件99 
5.1.4删除控制文件100 
5.2管理联机重做日志101 
5.2.1显示联机重做日志信息103 
5.2.2确定联机重做日志组的XX尺寸104 
5.2.3确定重做日志组的XX数量106 
5.2.4增加联机重做日志组107 
5.2.5调整联机重做日志组的尺寸和删除联机重做日志组107 
5.2.6向日志组增加联机重做日志文件109 
5.2.7从日志组删除联机重做日志文件109 
5.2.8移动或重命名重做日志文件110 
5.3实现归档模式111 
5.3.1体系结构决策111 
5.3.2设置归档重做日志文件的存储位置112 
5.3.3“非Oracle模式”的FRA思想115 
5.3.4启用归档日志模式116 
5.3.5x用归档日志模式117 
5.3.6归档日志的存储位置缺少可用空间时的应对方法117 
5.3.7备份归档重做日志文件119 
5.4小结119 
第6章用户账号和基本安全120 
6.1管理默认用户120 
6.1.1锁定账号和密码过期121 
6.1.2区分DBA创建的账号123 
6.1.3检查默认密码124 
6.2创建用户账号125 
6.2.1选择用户名和验证方式125 
6.2.2分配默认的永久和临时表空间128 
6.3修改密码130 
6.4使用其他用户账号登录130 
6.5修改用户132 
6.6删除用户133 
6.7提高密码安全性和资源使用xx134 
6.7.1密码的基本安全性134 
6.7.2密码长度136 
6.7.3xx数据库资源的使用138 
6.8管理权限139 
6.8.1分配数据库系统权限139 
6.8.2分配数据库对象权限140 
6.8.3以集中方式分配权限141 
6.9小结142 
第7章表和约束144 
7.1表的类型144 
7.2数据类型145 
7.2.1字符型146 
7.2.2数值型147 
7.2.3日期型148 
7.2.4RAW149 
7.2.5ROWID149 
7.2.6大对象150 
7.2.7可扩展的字符类型150 
7.3创建表151 
7.3.1创建堆组织表152 
7.3.2实现虚拟列154 
7.3.3实现隐藏列156 
7.3.4创建只读表157 
7.3.5创建延迟段157 
7.3.6创建含有自动增长(标识)列的表158 
7.3.7默认的SQL并行执行方式160 
7.3.8压缩表数据161 
7.3.9减少重做日志163 
7.3.10通过查询结果创建表165 
7.4修改表167 
7.4.1获得必需的锁机制167 
7.4.2重命名表168 
7.4.3增加列168 
7.4.4更改列168 
7.4.5重命名列170 
7.4.6删除列170 
7.5显示表的DDL代码171 
7.6删除表172 
7.7恢复已删除的表172 
7.8删除表中的数据174 
7.8.1使用DELETE语句174 
7.8.2使用TRUNCATE语句174 
7.9查看和调整高水位线标记175 
7.10与高水位线有关的性能问题175 
7.10.1跟踪检测高水位线标记下方的空间176 
7.10.2使用DBMS_SPACE软件包检查高水位线标记下方的空间176 
7.10.3查看数据字典的分区视图178 
7.10.4降低高水位线标记178 
7.11创建临时表180 
7.12创建索引组织表181 
7.13管理约束182 
7.13.1创建主键约束182 
7.13.2强制应用xx键184 
7.13.3创建外键约束185 
7.13.4检查特定的数据条件186 
7.13.5强制应用NOTNULL约束187 
7.13.6x用约束187 
7.13.7启用约束189 
7.14小结191 
第8章索引192 
8.1创建索引的时机193 
8.1.1以积极方式创建索引193 
8.1.2以消极方式创建索引193 
8.2规划健壮性194 
8.2.1索引的类型195 
8.2.2估算索引的尺寸196 
8.2.3为索引创建独立表空间197 
8.2.4创建便携脚本199 
8.2.5创建命名标准199 
8.3创建索引200 
8.3.1创建二叉树索引200 
8.3.2创建组合索引202 
          

......         


下载地址:http://www.javaxxz.com/thread-286164-1-2.html

深入理解MyBatis

阅读数 58

深入理解Redis

阅读数 2809

没有更多推荐了,返回首页