精华内容
下载资源
问答
  • 过去30年,企业数据管理都以传统IT架构为基础,以采集数据为主要目的。每当技术部门为业务部门解决问题时,需要从业务需求探查、技术壁垒打通等从上到下各个方面来建设新系统。每个系统建成都自成一体,各个...

    过去30年,企业数据管理都以传统的IT架构为基础,以采集数据为主要目的。每当技术部门为业务部门解决问题时,需要从业务需求的探查、技术壁垒的打通等从上到下各个方面来建设新系统。每个系统的建成都自成一体,各个系统数据孤立存在,在其基础上搭建的应用系统更是'烟囱林立',各自满足业务部门的不同需求。这种情况不仅耗费各部门大量的精力,也使得各个系统难以打通管理,无法形成更强大的数据能力。

     

    不同于IT信息技术,中台战略以数据技术为核心,以提升客户价值为目的。数字化中台基于共享服务单元和多层次(数据中台、技术中台和业务中台)驱动的架构设计思想,彻底颠覆了企业传统的IT以及组织和业务的纵向架构。同传统的IT架构相比,数字化中台需要更完善的方法论与工具的支撑,同时涉及对业务的高度认同和管理的全面协同(见图5)。

     

     

    那么,数字化中台有哪些基本特征?

     

    首先,数字化中台是能力共享平台。如今,很多产品应用研发初始都在强调功能性,各个功能存在或多或少的重复性。然而企业对这些产品功能的定义并不相同,当客户产生某些需求时,由于定义的不同,产品功能和功能间的数据很难打通,也无法实现能力共享。在数字化中台基础上的应用开发并不强调功能性,更注重能力的共享。这种能力就像水电煤一样可以直接向外输出使用,从而满足业务部门和用户的不同需求。

     

    第二,数字化中台是有机的一体化平台,包含模型资产、应用资产、工具资产、技术资产为一体的赋能平台。数字化中台不只是输出技术能力,数据能力、资产能力、应用能力以及制度能力等也是中台的价值输出。数字化中台的核心点在于赋能业务部门及用户,以应用为出发点,快速响应前台和外部的需求,帮助业务部门产生业绩,形成企业增长。

     

    第三,数字化中台是新一代的数据架构思路,其工作原理是以应用为出发点,进行数据整合,最终呈现的结果是数据应用的平台。随着未来科学技术愈发先进,人们的需求千变万化,各种应用的产生也就顺其自然,而以纯技术为导向的中台很难快速响应外部的应用需求。

     

    数字化中台是一种端到端的技术平台,而不是一堆API的接口,其更注重业务端的使用和业务价值的体现。数字化中台的建设需要结合业务部门灵活的应用需求,技术部门强大的数据治理、数据建模等能力,以及公司各个部门和资产的多维配合。它是集业务、技术和公司资产的有机结合体,并不是片面的模块的组合体。

     

    第四,数字化中台是一种新的技术建设思路,它打破了企业以前传统的功能式和集成式的建设思路。企业以前产品打造的过程先依靠工程师搭建基础技术架构,架构搭建完成后再添加应用功能。这种建设思路比较适合产品模式稳定的企业,对于应用需求多变、应用出发点无法一时统一的公司来说并不是最佳的选择。这种因为工程或者基础设施建设出的产品最终会无法为业务部门提供更多价值。因此,以应用为核心思考点的建设思路才是企业保持长久生命力的关键,而数字化中台的建设将帮助企业改变传统的产品应用建设方式。

     

    最后,数字化中台不是多个管理系统和分析工具的集成。传统企业为提高管理效率会部署CRM、ERP等多种管理系统,这些管理系统主要承担管理基础数据的作用,虽然也提供一些简单业务分析,但对企业运营决策价值有限,尤其当企业外部需求越来越多变,仅仅具有数据采集、存储和简单分析功能的传统企业信息化系统早已无法满足市场需求。

     

    为了摆脱困境,一些企业通过将多个管理系统的账号打通,并增设各种分析工具的方式来对原有系统进行'技术升级',但这种集成式的建设思路仍无法真正赋能业务对象。数据应用多样化,大量临时的、即时的、分散的需求不时产生,数据模型需要根据业务重点经常调整,企业仅仅通过联通各个管理系统账号和添加分析工具,无法真正有效地响应前台和外部的需求。

     

    更重要的是,多个管理系统和分析工具的集成虽然可能一时为企业解决了部分问题,但是各个系统产品的建设思路不一致,产品与产品间既有重叠功能,也有边界划分,且产品之间定义并不相同,无法形成统一的、无缝结合的数据资产。产品与产品之间的技术出入会导致应用的出错,最终影响用户对产品的信任。由此,集成式的建设方式给技术部门形成巨大的维护成本和治理成本,并没有达到数字化中台建设的真正目的。

    展开全文
  • 根据资产总体状况,盈利能力和经济环境,企业价值评估是对企业整体公平市场综合评估。 不同的企业具有不同性质和评估目标,应选择合适方法来评估不同的企业特征。 传统的企业价值评估方法可以概括为三种基本...
  • 核心Java程序设计技术

    2021-04-16 12:20:13
    通过我的大量对比,这是国际学界在互联网环境下第一个具备通用开发能力的程序设计技术。尽我所知,我国在程序设计领域的贡献很少,我的这个成果具备首创价值。我正在把它以新的语言形式展现出来。这应该是我国在...
  • 自考阶段总结

    热门讨论 2020-09-27 21:44:24
    2简述核心能力的特征? 3简述知识管理的基本原则? 4谈谈金字塔式组织结构表现的弊端? 5简述供应链管理模式与传统管理模式的区别? 6论述总成本领先战略的优势? 一、  1.分析客户 2、深入了解目标客户 3、建立...

    网络经济与企业管理
    在学习中运用了快速阅读和思维导图的方法,下面是在网上找到的问题和答案,以及自己做的思维导图(部分)

    网络经济与企业管理
    1简述客户关系管理的基本流程?
    2简述核心能力的特征?
    3简述知识管理的基本原则?
    4谈谈金字塔式组织结构表现的弊端?
    5简述供应链管理模式与传统管理模式的区别?
    6论述总成本领先战略的优势?

    一、
      1.分析客户 2、深入了解目标客户 3、建立客户关系网络 4、创造客户价值 5、管理客户关系
      二、
      1、有价值的创造能力 2、异质性 3、难模仿性 4、不可交易性 5、扩展性 6、动态性
      三、
      1、积累原则 2、信任原则 3、交流原则 4、共享原则 5、创新原则
      四、
      1、对外部环境反映迟钝、调整缓慢 2、减缓信息流动速度,造成信息失真 3、组织内部难以协调,不利于创新
      五、
      1、供应链管理强调采用集成的思想和方法。
      2、供应链管理强调提高整个供应链的核心能力
      3、供应链管理强调提高整个供应链的效率
      4、供应链管理强调大规模定制
      六、
      1、与竞争对手相比,低成本企业具有在价格基础上参与竞争的主要地位,并能在价格战中保护自己。
      2、低成本战略有利于企业采取灵活的定价策略,将竞争对手排挤出市场,并攻击那些在其他竞争战略上取得成功的对手,从而获得超额利润。
      3、低成本战略能在企业面对讨价还价能力强的顾客是,仍能获得足够的利润
      4、低成本战略能能使企业在面对强有力的供应商垄断原材料零部件市场和控制价格时,相对竞争对手而处于有利地位。
      5、低成本战略有利于建立起行业壁垒,因为低成本对潜在的新进入者而言是必须克服的一种行业进入障碍,可以防止新进入者侵蚀本公司分额。

    展开全文
  • 为学生确立建设有中国特色社会主义的理想信念,自觉地坚持党的基本理论、基本路线和基本纲领打下扎实的理论基础。" }; ViewBag.sjjg = new CourseModel { Cid = "80905", Cname = "数据结构", Cmode = "专业限选",...
  • 大数据之初体验

    2017-11-15 14:55:38
    大数据的基本概念:大数据 (巨量数据集合(IT行业术语));大数据(big data),指无法在一定时间范围内用...大数据的基本特征: 大数据的企业架构: 大数据的核心理念:分而治之,比如10TB的数据给一台机器
         大数据的基本概念:大数据
    

    (巨量数据集合(IT行业术语));大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    大数据的基本特征:


    大数据的企业架构:

    大数据的核心理念:分而治之,比如10TB的数据给一台机器处理,速度肯定比10TB的数据分配给10台机器处理来的慢。
    Hadoop2.X的核心模块:


    HDFS分布式文件系统:




    HDFS文件系统
    1、分布式-》主从架构:master/slaves
    2、主节点和从节点
    -》主节点:NameNode,管理
    -》存储管理元数据(内存)
    -》从节点:DataNode,执行
    —》真正存储数据的,消耗的是机器上的磁盘
    3、海量数据的文件存储,建立在很多的物理机器上,真正的数据仍然是在物理磁盘上的
    4、设计理念:一次写入,多次读取(不能够修改)
    5、HDFS只能一个用户写入,目前并不能多用户并发写入
    6、文件系统:存储文件-》属性
    -》名称
    -》位置
    -》副本数
    -》权限
    -》存储的块
    -》各个块存储在哪些datanode节点上
    ....
    -》这些文件的属性在HDFS中称作:文件的元数据(命名空间)
    7、举例:HDFS存储的块默认大小:256MB
    存储的文件大小:500MB
    -》第一个块:256MB
    -》第二个块:244MB
    -》如果HDFS中某个文件块大小小于这个存储的块的大小,是不会占据整个块的存储空间的
    -》多个文件是不能放到一个块中的
    8、HDFS文件系统读和写:
    -》读:HDFS->/tmp/file.txt
    -》client-》HDFS(NameNode)
    -》client-》HDFS(DataNode)
    -》写:local->D盘:file.txt -》 HDFS->/tmp/
    -》client-》HDFS(NameNode)
    -》client-》HDFS(DataNode)
    9、Hadoop中很多的组件之间的通信是根据RPC协议进行通信的(大部分情况下)
    10、HDFS就近原则机制
    11、HDFS不太适合存储大量的小文件
    -》小文件合并
    淘宝文件系统TFS-》开源 github

    HDFS架构深入
      1、副本数、块的存储、主从架构、启动读取文件
    2、一次写入,多次读取-》考虑到效率问题
    -》写入元数据和数据本身的时候就会产生很大量的资源消耗
    -》如果支持HDFS文件的修改,会增加整个系统的实现难度,会考虑其他的因素
    -》高吞吐量,批量处理,不是低延迟的访问
    -》HDFS有升级和回滚的机制
    -》修改块的大小
    <name>dfs.blocksize</name>
    <value>134217728</value>
    3、namenode启动过程
    -》读取fsimage和edits文件
    -》加载到内存
    -》根据文件和目录的路径来构建整个namenode元数据命名空间的镜像-》在内存中
    -》fsimage文件在初始后没有记录的一块信息
    -》每一个块对应到哪些datanodes节点上
    -》每个datanode在启动的时候,会对本地磁盘进行扫描
    -》每个datanode会自己上面存储的所有的块的信息汇报给namenode
    -》namenode接收到datanode汇报的信息,并且保存到内存中
    -》所以namenode在启动的时候会有一个等待的过程
    -》等待所有datanode向namenode汇报块的状态信息
    -》namenode在启动的过程中,在等待的过程中是处于一个【安全模式】
    -》安全模式下文件系统是处于一个只读的状态
    [-safemode enter | leave | get | wait]
    $ bin/hdfs dfsadmin -safemode get
    $ bin/hdfs dfsadmin -safemode enter
    $ bin/hdfs dfsadmin -safemode leave
    -》当达到一定标准的时候就会自动离开安全模式
    <name>dfs.namenode.safemode.threshold-pct</name>
    <value>0.999f</value>
    -》在namenode启动之后datanode与namenode之间会有持续性的保持通信
    -》心跳机制,告知主节点下面的从节点是否正常运行,默认情况下是每3秒发送一次
    -》时间间隔是可以用户自定义的
    <name>dfs.heartbeat.interval</name>
    <value>3</value>
    -》如果超过这个时间点长时间没有心跳,说明这个单个节点就出现故障
    -》namenode在接收到datanode的心跳之后,会有一个反馈
    -》反馈的过程中,namenode会附带一些命令给到datanode
    <name>dfs.namenode.stale.datanode.interval</name>
    <value>30000</value>
    -》单独指定edits日志文件的存放位置
    <name>dfs.namenode.edits.dir</name>
    <value>${dfs.namenode.name.dir}</value>
    -》单独指定fsimage日志文件的存放位置
    <name>dfs.namenode.name.dir</name>
    <value>file://${hadoop.tmp.dir}/dfs/name</value>
    -》指定datanode本地磁盘存储的位置
    <name>dfs.datanode.data.dir</name>
    <value>file://${hadoop.tmp.dir}/dfs/data</value>
    -》这些属性参数在实际的工作中会比较常用
    -》集群中的所有机器都会有相同的配置文件信息

    Hadoop的架构
    1、官网:http://hadoop.apache.org/
    2、Apache-》孵化器项目-》升级到顶级项目(TM)
    3、特性:
    【可靠性】
    -》数据的存储可靠性,机器当机的情况出现-》考虑数据是否会丢失
    -》HDFS策略-》副本数,一份数据存多份,存在不同的节点上(默认情况下:3个副本数)
    -》用户可以自定义副本数的个数(通过配置文件指定)
    -》保证数据安全性(以硬盘作为代价进行策略操作)
    -》HDFS中存储文件的形式:块block的形式存储的,块的大小,块默认大小:128MB(2.X版本)
    -》用户可以自定义设置块的大小
    -》Hadoop 2.x版本中块的默认大小是:128MB,Hadoop 1.x系统中块的默认大小是:64MB
    -》存储的块损坏了该怎么办?-》对每个存储的文件生成一个校验码,之后在定期检测或者读取到这个块的时候又会生成一个校验码,进行匹配,如果没有匹配上说明这个块损坏
    -》计算的可靠性,在计算处理的过程中出现宕机情况,数据处理是否能够继续,可以继续
    【可扩展性】
    -》一个集群中可能会出现若干台机器宕机损坏的情况,从机架上拿下来进行人工修复重新上架
    -》或者在原本的集群数目上额外增加多台机器,比如:原本100台,追加20台
    -》集群搭建的过程中扩展性是一个难点,同步一致性也是一个难点
    Cloudera-》发行的版本名称:CDH版本
    -》二十一世纪Google三大论文
    -》GFS(谷歌文件系统)-》HDFS文件系统
    -》BigTable -》HBase分布式数据库
    -》MapReduce-》MapReduce计算模型


    Hadoop的Yarn框架:
      1、分布式-》主从架构:master/slaves
    2、主节点:ResourceManager管理型
    -》集群整体的资源情况的分配
    3、从节点:NodeManager      执行行
    -》首先nodemanager和datanode一般会放在一台机器上
    -》datanode是消耗磁盘空间,nodemanager是消耗资源
    -》集群单个节点资源都是在nodemanager
    -》每个Container容器都是在不同的nodemanager节点上运行的
    4、集群资源的管理和分配、多任务的调度
    5、运行的很多任务
    -》运行时间
    -》需要资源
    6、任务调度流程:
    client提交job(MapReduce)-》ResourceManager
    job-》map01、map02、map03
      -》每个map任务都需要有一个管理者
      -》应用管理者ApplicationMaster
    -》任务的管理、监控、调度
    -》MapReduce中有一个经典案例:单词统计wordcount
    -》一篇文章分为多个块,对应到不同的map块,最后统计结果进行汇总
    -》提交wordcount-》ResourceManager会为这个任务分配一个ApplicationMaster
    -》ApplicationMaster为job任务下的map和reduce去向ResourceManager申请资源
    -》每个map任务需要在一个独立的资源状态下去运行
    -》在yarn中有Container的概念,可以理解为是一个容器
    -》每个map任务在各自独立的Container中去运行任务
    -》ResourceManager返回给ApplicationMaster的就是多个Container
    -》Container起到的就是资源隔离的机制
    -》所有的任务运行完成之后ApplicationMaster就会向ResourceManager提交信息
    -》无论成功或者失败都会提交信息
    -》如果运行失败,重新运行任务,重新提交申请,重新分配资源
    -》当任务运行完成之后,任务会关闭,资源会释放
    -》ApplicationMaster本身也是需要运行,也需要在Container中启动
    -》YARN是在Hadoop2.x系统中才有的新的框架组件
    -》原本Hadoop 0.x 或者 Hadoop 1.x版本中组件服务很少
    -》HDFS+MapReduce



    Yarn服务功能描述: 

    yarn的资源管理
    Apps Submitted Apps Pending Apps Running Apps Completed
    提交的应用 等待的应用 运行的应用 完成的应用

    VCores 虚拟核数-》可以当做真实的CPU核数来理解
    1、物理内存的大小设置,默认是8G
    <name>yarn.nodemanager.resource.memory-mb</name>
        <value>8192</value>
    2、检测物理内存
    <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>true</value>
    3、虚拟内存,倍数默认2.1倍
    <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>2.1</value>
    4、CPU核数设置,默认是8核
    <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>8</value>
    平衡机器之间处理的速度


    MapReduce分布式计算框架:
    1、一个计算框架需要有一个输入和一个输出
    2、input数据输入-》map处理-》shuffle -》 reduce处理-》output结果输出



    MapReduce计算模型
    1、计算过程抽象到两个函数
    -》map()
    -》reduce()
    2、input -> map -> shuffle -> reduce -> output  ->提交yarn
    -》MapReduce可以没有reduce部分,但是必须要有map部分
    3、MapReduce可以编写一个固定的模板格式
    4、键值对<keyvalue>-》整个程序的流向形式
    -》输入数据如何转换为<keyvalue>
    -》map如何来处理<keyvalue>
    -》reduce如何来处理<keyvalue>
    5、以单词统计wordcount为例:
    hadoop mapreduce<keyvalue><0,hadoop mapreduce>
    hadoop spark <keyvalue>
    hadoop hive <keyvalue>
    hello hadoop <keyvalue>
    hive hbase <keyvalue>
    shanghai beijing<keyvalue>
    -》MR框架本身有一个默认的实现
    -》一行就是一个<keyvalue>
    -》key是偏移量
    -》value是这一行的值
    -》分割单词,看有多少个单词
    <0,hadoop mapreduce> -》分割   hadoop  mapreduce
    -》统计单词出现的次数,出现一次就记录一次
    -》<hadoop,1> <mapreduce,1>
    -》<hadoop,1> <spark,1>
    -》<hadoop,1> <hive,1>
    -》reduce阶段-》将相同key的value放在一起
    -》放到一个集合中<hadoop,list(1,1,1)>  -》 values
    -》reduce默认情况下数目只有一个,根据实际的业务可以设置多个

    MapReduce的编程模板
    1、map和reduce都分别需要继承两个基类,Mapper和Reducer
    -》两个函数map()和reduce()
    2、还有一个上下文context,封装了很多东西,便于编程
    3、MapReduce模板分为三大块
    Mapper区
    map()
    Reducer区
    reduce()
    Driver区
    job
    4、in代表的是输入,out代表输出
    Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>四个参数代表四个类型
    5、Hadoop有自己的基本数据类型,和Java相似
    -》Hadoop的基本数据类型都需要继承一个叫做writable的接口
    -》字符串类型就是Text,封装好了
    6、map的输出就是reduce的输入


    编写单词统计wordcount程序
    1、数据输入map到文件中去一行行读取文件内容<keyvalue>
    2、本地测试和运行yarn,一个适合查看结果集,一个测试环境
    3、yarn上运行必须打jar包,打jar包过程中一定注意需要指定主类,main class
    $ bin/yarn jar wordcount.jar /user/ds/mapreduce/input /user/ds/mapreduce/output4


    展开全文
  • 网上会展并不提倡上网能够解决企业的一切问题,而是主攻企业的供求信息关注度,让企业能够得到真实有效产品信息,并通过互联共享机制,让企业发布信息最广泛为人所知,让企业感觉到网络所能带来实际利益,...
  • 到了70年代,由于计算机处理能力的飞速发展和环境、资源等问题日益突出,GIS技术开始进入实用,出现了实际的GIS应用系统。80年代则是GIS大发展的时期,技术逐渐走向成熟,专业制造商开始出现,商业化的实用系统进入...
  • 引用类型和原始类型具有不同的特征和用法,它们包括:大小和速度问题,这种类型以哪种类型数据结构存储,当引用类型和原始类型用作某个类实例数据时所指定缺省值。对象引用实例变量缺省值为 null,而原始...

空空如也

空空如也

1 2 3 4 5
收藏数 97
精华内容 38
关键字:

企业核心能力的基本特征