精华内容
下载资源
问答
  • 可以分为大类,分别是:甲、乙、丙、丁、戊五类。至于更详细的情况,可以去查阅《GB丙类仓库能否存放危险化学品2019年1月8日危险化学品仓库按其使用性质和经营规模分为三种类型:大型仓库、中型仓库、小型仓库。中型...

    ba26632a4bf5f01a5d829fc098d253e3.png危险化学品仓库分哪几类?

    危险化学品仓库的分类标准是根据存放物品的火灾危险性来进行分类的。可以分为五大类,分别是:甲、乙、丙、丁、戊五类。至于更详细的情况,可以去查阅《GB

    38cf9f2b58e87a40853d183c74015cb6.png丙类仓库能否存放危险化学品

    2019年1月8日危险化学品仓库按其使用性质和经营规模分为三种类型:大型仓库、中型仓库、小型仓库。中型仓库或货场是指总面积( )平方米。~9000 B.500~10000 C

    危险化学品仓库应采用不导热的耐火材料做屋顶和墙壁的隔热层,屋檐要

    2019年7月29日这类仓库的特点是使用面比较广,存放的地点分散,有的甚至附设在其他仓库之中,而且领取频繁,容易发生事故殃及四邻。 大中型危险化学品仓库的墙体应该采

    92a17d298e90274355f664d606ab9eaf.png丙类仓库能否存放危险化学品

    2017年8月4日危险化学品仓库按其使用性质和经营规模分为三种类型:大型仓库、中型仓库、小型仓库。大型仓库或货场是指总面积超过()平方米。B.5000C.9000D.1000

    危险品仓库,危险品仓储,危险品库房|危险化学品租赁

    2018年9月5日危险化学品仓库按其使用性质和经营规模分为三种类型.大型仓库、中型仓库、小型仓库。中型仓库或货场是指总面积()平方米。

    危险化学品是否必须在甲类仓库储存?

    2017年7月13日以下试题来自:危险化学品安全作业考试(裂解裂化工艺考试)题库单项选择题危险化学品仓库按其使用性质和经营规模分为三种类型.大型仓库、中型仓库、小型

    MTQ3NTk1MjMxNTg1MjE0Njk1NjIxOTg=.jpg广东珠三角广州地区危险化学品仓库

    2018年6月29日危险化学品库房贮存规定 - 危险化学品库房贮存规定 1、危险化学品必须贮存在经公安部门批准设置的专门化学危险品仓 库中。 2、贮存危险化学品的仓库必

    972f0b6505c3048ca9c285d75db5e083.png危险品仓库建筑 危险化学品仓库面积

    2018年11月23日危险化学品仓库如何分类?,编辑同志:请问:危险化学品仓库如何分类?佟铁先生:来函收悉。危险化学物品仓库是收发和储存有燃烧、爆炸、腐蚀、灼伤、中毒等

    20151210162635652.jpg丙类仓库能否存放危险化学品

    2019年9月24日危险化学品仓库分几类内容来自筑龙网与危险化学品仓库分几类内容来自与之相关的精品资料、博文热帖、培训课程等。更多危险化学品仓库分几类相关资料请

    展开全文
  • 数据仓库应用(三): SQL Server 2005的数据仓库应用–联机分析OLAP一、问题背景 某电子商务网站主要销售电子产品,产品又分为几类别,包括:电脑、手机、键盘等,每个类别内又细分为几个小类别,各类别...

    关联文章:
    数据仓库应用(二):数据抽取、转换、加载(ETL)
    数据仓库应用(三): SQL Server 2005的数据仓库应用–联机分析OLAP

    一、问题背景

        某电子商务网站主要销售电子类产品,产品又分为几个大类别,包括:电脑类、手机类、键盘类等,每个类别内又细分为几个小类别,各类别下又有诸多的商品,每一个商品都有一个唯一的商品编号。用户可以通过注册成为会员来进行商品的下单购买。用户下单后会由系统自动产生一个唯一的订单号。
    

    为该电子商务平台建立一个能够为不同年龄段的用户提供相应年龄段需求量最大的产品的数据仓库。以提供给该企业一个个性化产品的需求量分析方案,增强企业市场竞争力。

    二、需求分析

    目的:不同年龄段的用户对产品的需求数据分析,以提供更好的产品销售方案,方便向不同年龄段的用户提供适合的产品信息。

    三、数据仓库体系结构图

    体系结构

    四、主要主题域的概念模型图

    概念模型

    五、雪花模型图

    雪花模型

    六、逻辑模型图

    逻辑模型

    七、物理模型图

    用户关系存储结构关系模型
    用户关系
    商品关系存储结构关系模型
    商品关系
    时间关系存储结构关系模型
    时间关系
    地域关系存储结构关系模型
    地域关系
    年龄关系存储结构关系模型
    年龄关系
    学历关系存储结构关系模型
    学历关系
    销售事件存储结构关系模型
    销售事件

    八、粒度模型图

    用户对商品的下单记录
    粒度模型

    九、在SQL SERVER2005中建立数据仓库数据库的sql语句

    脚本已经放在github中点击查看

    展开全文
  • 实时数据仓库的发展、架构和趋势

    千次阅读 2021-04-02 09:30:59
    当前基于 Hive 的离线数据仓库已经非常成熟,数据中台体系也基本上是围绕离线数仓进行建设。但是随着实时计算引擎的不断发展以及业务对于实时报表...另一诸如部分实时报表的需求通常没有非常高的时效性要求,一般.

    当前基于 Hive 的离线数据仓库已经非常成熟,数据中台体系也基本上是围绕离线数仓进行建设。但是随着实时计算引擎的不断发展以及业务对于实时报表的产出需求不断膨胀,业界最近几年就一直聚焦并探索于两个相关的热点问题:实时数仓建设和大数据架构的批流一体建设。

    实时数仓建设:实时数仓 1.0

    传统意义上我们通常将数据处理分为离线数据处理和实时数据处理。对于实时处理场景,我们一般又可以分为两类,一类诸如监控报警类、大屏展示类场景要求秒级甚至毫秒级;另一类诸如大部分实时报表的需求通常没有非常高的时效性要求,一般分钟级别,比如 10 分钟甚至 30 分钟以内都可以接受。

    对于第一类实时数据场景来说,业界通常的做法比较简单粗暴,一般也不需要非常仔细地进行数据分层,数据直接通过 Flink 计算或者聚合之后将结果写入 MySQL/ES/HBASE/Druid/Kudu 等,直接提供应用查询或者多维分析。如下所示:

    而对于后者来说,通常做法会按照数仓结构进行设计,我们称后者这种应用场景为实时数仓,将作为本篇文章讨论的重点。从业界情况来看,当前主流的实时数仓架构基本都是基于 Kafka+Flink 的架构(为了行文方便,就称为实时数仓 1.0)。下图是基于业界各大公司分享的实时数仓架构抽象的一个方案:

    这套架构总体依然遵循标准的数仓分层结构,各种数据首先汇聚于 ODS 数据接入层。再接着经过这些来源明细数据的数据清洗、过滤等操作,完成多来源同类明细数据的融合,形成面向业务主题的 DWD 数据明细层。在此基础上进行轻度的汇总操作,形成一定程度上方便查询的 DWS 轻度汇总层(注:这里没有画出 DIM 维度层,一般选型为 Redis/HBase,下文架构图中同样没有画出 DIM 维度层,在此说明)。最后再面向业务需求,在 DWS 层基础上进一步对数据进行组织进入 ADS 数据应用层,业务在数据应用层的基础上支持用户画像、用户报表等业务场景。

    基于 Kafka+Flink 的这套架构方案很好的解决了实时数仓对于时效性的业务诉求,通常延迟可以做到秒级甚至更短。基于上图所示实时数仓架构方案,笔者整理了一个目前业界比较主流的整体数仓架构方案:

    上图中上层链路是离线数仓数据流转链路,下层链路是实时数仓数据流转链路,当然实际情况可能是很多公司在实时数仓建设中并没有严格按照数仓分层结构进行分层,与上图稍有不同。

    然而基于 Kafka+Flink 的实时数仓方案有几个非常明显的缺陷:

    (1)Kafka 无法支持海量数据存储。对于海量数据量的业务线来说,Kafka 一般只能存储非常短时间的数据,比如最近一周,甚至最近一天;

    (2)Kafka 无法支持高效的 OLAP 查询。大多数业务都希望能在 DWD\DWS 层支持即席查询的,但是 Kafka 无法非常友好地支持这样的需求;

    (3)无法复用目前已经非常成熟的基于离线数仓的数据血缘、数据质量管理体系。需要重新实现一套数据血缘、数据质量管理体系;

    (4)Lambad 架构维护成本很高。很显然,这种架构下数据存在两份、schema 不统一、 数据处理逻辑不统一,整个数仓系统维护成本很高;

    (5)Kafka 不支持 update/upsert。目前 Kafka 仅支持 append。实际场景中在 DWS 轻度汇聚层很多时候是需要更新的,DWD 明细层到 DWS 轻度汇聚层一般会根据时间粒度以及维度进行一定的聚合,用于减少数据量,提升查询性能。假如原始数据是秒级数据,聚合窗口是 1 分钟,那就有可能产生某些延迟的数据经过时间窗口聚合之后需要更新之前数据的需求。这部分更新需求无法使用 Kafka 实现。

    所以实时数仓发展到现在的架构,一定程度上解决了数据报表时效性问题,但是这样的架构依然存在不少问题,随着技术的发展,相信基于 Kafka+Flink 的实时数仓架构也会进一步往前发展。那会往哪里发展呢?

    大数据架构的批流一体建设。

    带着上面的问题我们再来接着聊一聊最近一两年和实时数仓一样很火的另一个概念:批流一体。对于批流一体的理解,笔者发现有很多种解读,比如有些业界前辈认为批和流在开发层面上都统一到相同的 SQL 上是批流一体,又有些前辈认为在计算引擎层面上批和流可以集成在同一个计算引擎是批流一体,比如 Spark/Spark Structured Streaming 就算一个在计算引擎层面实现了批流一体的计算框架,与此同时另一个计算引擎 Flink,目前在流处理方面已经做了很多的工作而且在业界得到了普遍的认可,但在批处理方面还有一定的路要走。

    实时数仓 2.0

    笔者认为无论是业务 SQL 使用上的统一还是计算引擎上的统一,都是批流一体的一个方面。除此之外,批流一体还有一个最核心的方面,那就是存储层面上的统一。在这个方面业界也有一些走在前面的技术,比如最近一段时间开始流行起来的数据湖三剑客-- delta/hudi/iceberg,就在往这个方向走。存储一旦能够做到统一,上述数据仓库架构就会变成如下模样(以 Iceberg 数据湖作为统一存储为例),称为实时数仓 2.0:

    这套架构中无论是流处理还是批处理,数据存储都统一到数据湖 Iceberg 上。那这么一套架构将存储统一后有什么好处呢?很明显,可以解决 Kafka+Flink 架构实时数仓存在的前面 4 个问题:

    (1)可以解决 Kafka 存储数据量少的问题。目前所有数据湖基本思路都是基于 HDFS 之上实现的一个文件管理系统,所以数据体量可以很大。

    (2)DW 层数据依然可以支持 OLAP 查询。同样数据湖基于 HDFS 之上实现,只需要当前的 OLAP 查询引擎做一些适配就可以进行 OLAP 查询。

    (3)批流存储都基于 Iceberg/HDFS 存储之后,就完全可以复用一套相同的数据血缘、数据质量管理体系。

    (4)Kappa 架构相比 Lambad 架构来说,schema 统一,数据处理逻辑统一,用户不再需要维护两份数据。

    有的同学说了,这不,你直接解决了前 4 个问题嘛,还有第 5 个问题呢?对,第 5 个问题下文会讲到。

    又有的同学会说了,上述架构确实解决了 Lambad 架构的诸多问题,但是这套架构看起来就像是一条离线处理链路,它是怎么做到报表实时产出呢?确实,上述架构图主要将离线处理链路上的 HDFS 换成了数据湖 Iceberg,就号称可以实现实时数仓,听起来容易让人迷糊。这里的关键就是数据湖 Iceberg,它到底有什么魔力?

    为了回答这个问题,笔者就上述架构以及数据湖技术本身做一个简单的介绍(接下来也会基于 Iceberg 出一个专题深入介绍数据湖技术)。上述架构图中有两条数据处理链路,一条是基于 Flink 的实时数据链路,一条是基于 Spark 的离线数据链路。通常数据都是直接走实时链路处理,而离线链路则更多的应用于数据修正等非常规场景。这样的架构要成为一个可以落地的实时数仓方案,数据湖 Iceberg 是需要满足如下几个要求的:

    (1)支持流式写入-增量拉取。流式写入其实现在基于 Flink 就可以实现,无非是将 checkpoint 间隔设置的短一点,比如 1 分钟,就意味每分钟生成的文件就可以写入到 HDFS,这就是流式写入。没错,但是这里有两个问题,第一个问题是小文件很多,但这不是最关键的,第二个问题才是最致命的,就是上游每分钟提交了很多文件到 HDFS 上,下游消费的 Flink 是不知道哪些文件是最新提交的,因此下游 Flink 就不知道应该去消费处理哪些文件。这个问题才是离线数仓做不到实时的最关键原因之一,离线数仓的玩法是说上游将数据全部导入完成了,告诉下游说这波数据全部导完了,你可以消费处理了,这样的话就做不到实时处理。

    数据湖就解决了这个问题。实时数据链路处理的时候上游 Flink 写入的文件进来之后,下游就可以将数据文件一致性地读走。这里强调一致性地读,就是不能多读一个文件也不能少读一个文件。上游这段时间写了多少文件,下游就要读走多少文件。我们称这样的读取叫增量拉取。

    (2)解决小文件多的问题。数据湖实现了相关合并小文件的接口,Spark/Flink 上层引擎可以周期性地调用接口进行小文件合并。

    (3)支持批量以及流式的 Upsert(Delete)功能。批量 Upsert/Delete 功能主要用于离线数据修正。流式 upsert 场景上文介绍了,主要是流处理场景下经过窗口时间聚合之后有延迟数据到来的话会有更新的需求。这类需求是需要一个可以支持更新的存储系统的,而离线数仓做更新的话需要全量数据覆盖,这也是离线数仓做不到实时的关键原因之一,数据湖是需要解决掉这个问题的。

    (4)支持比较完整的 OLAP 生态。比如支持 Hive/Spark/Presto/Impala 等 OLAP 查询引擎,提供高效的多维聚合查询性能。

    这里需要备注一点,目前 Iceberg 部分功能还在开发中。具体技术层面 Iceberg 是怎么解决上述问题的,请持续关注本号,接下来一篇文章会详细讲解哦。

    实时数仓 3.0

    按照批流一体上面的探讨,如果计算引擎做到了批流一体的统一,就可以做到 SQL 统一、计算统一以及存储统一,这时就迈入实时数仓 3.0 时代。对于以 Spark 为核心技术栈的公司来说,实时数仓 2.0 的到来就意味着 3.0 的到来,因为在计算引擎层面 Spark 早已做到批流一体。基于 Spark/数据湖的 3.0 架构如下图:

    假如未来 Flink 在批处理领域成熟到一定程度,基于 Flink/数据湖的 3.0 架构如下图:

    上面所介绍的,是笔者认为接下来几年数据仓库发展的一个可能路径。对于业界目前实时数仓的一个发展预估,个人觉得目前业界大多公司都还往实时数仓 1.0 这个架构上靠;而在接下来 1 到 2 年时间随着数据湖技术的成熟,实时数仓 2.0 架构会成为越来越多公司的选择,其实到了 2.0 时代之后,业务同学最关心的报表实时性诉求和大数据平台同学最关心的数据存储一份诉求都可以解决;随着计算引擎的成熟,实时数仓 3.0 可能和实时数仓 2.0 一起或者略微滞后一些普及。

    作者简介

    子和,网易大数据开发工程师,长期从事分布式 KV 数据库、分布式时序数据库以及大数据底层组件等相关工作。

    展开全文
  • 某电子商务网站主要销售电子产品,产品又分为几类别,包括:电脑、手机、键盘等,每个类别内又细分为几个小类别,各类别下又有诸多的商品,每一个商品都有一个唯一的商品编号。用户可以通过注册成为会员...

    关联文章:
    数据仓库应用(一):数据仓库模型设计
    数据仓库应用(三): SQL Server 2005的数据仓库应用–联机分析OLAP

    一、问题背景

    某电子商务网站主要销售电子类产品,产品又分为几个大类别,包括:电脑类、手机类、键盘类等,每个类别内又细分为几个小类别,各类别下又有诸多的商品,每一个商品都有一个唯一的商品编号。用户可以通过注册成为会员来进行商品的下单购买。用户下单后会由系统自动产生一个唯一的订单号。
    

    现在已为该电子商务平台创建了数据仓库,这次将为该电子商务平台数据仓库建立数据抽取、转换、加载框架并进行数据抽取、转换、加载工作。

    二、操作步骤

    1、给出各个目标维表(时间维、地区维、产品维、客户维等)数据结构及样例数据、相应源表(或源文件)数据结构及样例数据;给出目标事实表结构及样例数据、相应数据源表结构及样例数据(可能一个表,也可能多个表)。

    数据已经放在github点击查看

    以下是各个维表所对应数据源文件的名称:
    
        用户维表:tbl_user数据源表
        地区维表:tbl_area数据源表
        年龄维表:tbl_age数据源表
        时间维表:tbl_time数据源表
        学历维表:tbl_edu数据源表
        商品维表:tbl_goods数据源表
        商品类别维表:tbl_goods_type数据源表
    

    2、根据需求分析结果设计数据仓库ETL架构,画出ETL架构图。

    ETL架构

    3、根据需求分析结果设计数据抽取、转换、加载(ETL)模型(概念模型、逻辑模型)。

    概念模型:

    概念模型

    逻辑模型:

    逻辑模型

    4、设计数据抽取、转换、加载(ETL)策略。

    数据抽取
    
        从数据源oracle数据库中的数据利用PLSQL软件根据维度的需要分批抽取到Execl表格中
    
        1. 利用sql语句查询出所需要字段的数据
    
        2. 在所查到的结果集中选中全部的内容,然后直接生成execl表数据
    
        3. 得到我们所需要的数据源
    
    
    
    数据转换
    
        对于Execl表格中抽取到数据仓库中的数据进行如下转换和清洗
    
        1.对来自数据源中的数据的输出部分,如果有遇到字符串类型的数据源数据需要对这些字符串类型编码进行转换 
    
        2.将数据源中的时间数据转换成相对应的:年、月、日、季度四个字段
    
        3.将数据源中的用户的出生日期转换成年龄以及相对应的年龄段
    
        4.对于用户数据源表中拆分成多个维度时,对于地区维表和学历维表以及年龄维表提供生成主键的策略:
    
    
        将用户的ID加上性别的编码作为年龄维表的主键
    
        将用户的ID加上用户的年龄作为学历表的主键
    
        对于地区维表直接使用数字的编号来作为其所对应的主键
    
       5.对于缺失或错误的数据,我们采用人工填写其缺失或者错误的数据
    
    
    
    数据加载
    
        利用SSIS工具将清洗、转换后的数据加载到数据仓库的所对应的维度表中
    
    展开全文
  • 而多维分析又是数据仓库的重要表现形式,近年来由于互联网的发展,使得多维分析领域的工具和产品更加注重提供基于Web前端联机分析界面,而不仅仅是在网上发布数据。 <br> 提到数据仓库,人们难免会想到仅有...
  • 但是,常用的分拣方法大致可分为:人工分拣、半自动机械分拣设备和分拣机自动分拣。今天我们就来分析一下现代物流分拣种方式的区别和特点是什么?一、人工分拣方式它是物流分拣最初的形态,以人工为主,仅需较...
  • 主要用来处理大量的并发用户的数据处理,如处理同时输入的成百上千的事务 数据仓库:和OLTP数据库正好相反,他主要用来存储大量不易变化的数据,或是定期进行一定数据变化的数据,他旨在分析和检索,如企业年内的...
  • 总的而言分为以下几大类,若有您感兴趣的内容,我将不胜荣幸: Java 后台中间件; 码头工人 Kubernetes 大数据 综合兴趣,例如LeetCode,树莓派,群晖系统等; 开发运营 常用工具和技巧; 问题处理备忘; Java...
  • 在“从数据库技术的40年发展历程看新征程”一文中,我们通过回顾数据库的发展史,重新理解了数据库的定义——数据库就是一个存放数据的仓库,这个仓库按照一定的数据结构...我们已经提到数据库已经可以分为几类有:
  • 获取token登录进入drone,点头像,在菜单里选择token复制token即可API 介绍Drone的api分为几大类Builds 构建Cron 定时任务Repos 仓库SecretsUser 用户Users调用举例:Build API构建列表(Build List)获取仓库的最新...
  • 结合我们822实验室开源的图像处理平台...图像处理方法可以分为几大类,比如图像平滑、轮廓提取、角点检测、形态学处理等,每一个大类下又有很多小类,比如图像平滑有高斯平滑、中值平滑和均值平滑等,我...
  • 数据处理现状:当前基于Hive的离线数据仓库已经非常成熟,数据中台体系也基本上是围绕离线数仓进行建设。但是随着实时计算引擎的不断发展以及业务对于实时报表的产出...另一诸如部分实时报表的需求通常没有非常...
  • 在开始写博客之前先简单将...主要分为几大类:爬虫,描述性分析,统计,数据可视化,数据库,数据仓库,数据挖掘,机器学习,深度学习(可以看看百度深度学习研究院相关资料),为啥我说大多数的人做的事情都不...
  • 仓库系统的设计基本可以分为五个模块,出库、入库、库内、基础资料、策略。在之前的文章中已经分享过库内管理了。本篇主要针对于出库管理进行分享,希望可以帮助到有这方面需求的朋友。出库类型常见的单据类型出库...
  • 关系型数据库

    2017-08-13 23:09:46
    数据库可以大致分为以下几类:关系型数据库、对象型数据库、网格型数据库、层次型数据库。在实际开发中用得最多的要算关系型数据库了,关系型数据库的一个最大的特点就是表与表之间存在关联关系,而不是独立存在的。...
  • 一、介绍 hive是建立在Hadoop上的数据仓库基础架构。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在Hadoop中规模...hive的结构可以分为以下部分: 用户接口:
  • MySQL是一种关系型数据库管理系统,关系数据库将数据保存在不同的表中,而不是将所有数据放在一个大仓库内,这样就增加...我们也可以通过分类查看帮助,那mysql将帮助分为了哪几类呢,使用help contents命令进行查看。
  • 数据挖掘 tip

    2011-12-07 17:07:00
    从技术层面来说,按照数据挖掘产出的知识可以粗分为大类:描述型挖掘和预测型挖掘。 描述型挖掘是对现有数据的进一步精炼和归纳,从中抽取中更宏观的反映数据特征的概念描述。举个例子来说,某家银行有百万...
  • 从技术层面来说,按照数据挖掘产出的知识可以粗分为大类:描述型挖掘和预测型挖掘。描述型挖掘是对现有数据的进一步精炼和归纳,从中抽取中更宏观的反映数据特征的概念描述。举个例子来说,某家银行有百万客户,...
  • Hive架构

    2020-08-02 22:53:59
    Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具用 来数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的规模数据的机制。...Hive 的结构可以分为以下部分: ① ①
  • CSCE441-源码

    2021-02-12 13:38:22
    该项目分为几个步骤: 仅绘制每个三角形的边界框。 使用随机颜色绘制每个三角形内的像素 使用重心坐标在顶点颜色之间进行插值 在图像的整个高度上插值颜色 添加Z缓冲并基于Z深度为每个像素着色 根据顶点法线设置...
  • 环境配置其实就是添加我自行构建的软件仓库为源,具体包括以下步。 添加i386架构 因为deepin-wine相关的软件包都是i386的,而现在的系统基本是64位的,所以需要先添加i386架构支持。 通过dpkg --print-...
  • Hive 的结构可以分为以下部分: 用户接口:包括 CLI, Client, WUI 元数据存储。通常是存储在关系数据库如 mysql, derby 中 6 解释器、编译器、优化器、执行器 Hadoop:用 HDFS 进行存储,利用 MapReduce 进行...
  • 首酷企业进销存管理系统,专业的企业管理系统 一、系统特色 采用稳定、安全、高效的数据库系统 首酷进销存管理系统分为单机版和网络版,分别采用Microsoft公司的Access和SQL Server 2000作为后台数据库,...
  • 第四部分简要介绍了xml、数据挖掘和数据仓库种新兴技术。  本书是高等院校计算机及相关专业本科生、研究生数据库系统课程的理想教材,也是对相关技术人员非常有价值的参考书。 作译者  Ramez elmasri是世界...
  • 27.按货架的形式分类,自动化仓库分为单元式仓库和拣选式仓库。 28.多式联运适用于水路、公路、铁路和航空等运输方式,由于在国际贸易中85%左右的货物是通过海运来完成的,所以该种运输方式在国际多式联运中...
  • java面试题

    2018-04-27 19:55:38
    答:JDO是java对象持久化的新的规范,为java data object的简称,也是一个用于存取某种数据仓库中的对象的标准化API。 CORBA? 答:CORBA标准是公共对象请求代理结构,用途为:用不同的程序设计语言书写,在不同的...
  • 考虑了很多次是否改进,最终个人决定不改进,留给各位小伙伴完成,目前common中util工具比较少,而且只使用了其中的某个,大家可以根据需求自行增加, 另外比较重要的Log/File工具强烈建议根据业务和Android...
  • 仓库目前分为五个部分: 第一个部分是 leetcode 经典题目的解析,包括思路,关键点和具体的代码实现。 第二部分是对于数据结构与算法的总结 第三部分是 anki 卡片, 将 leetcode 题目按照一定的方式记录在 ...

空空如也

空空如也

1 2 3 4
收藏数 77
精华内容 30
关键字:

仓库分为几大类