精华内容
下载资源
问答
  • 基于kettle的数据集成平台(三)

    千次阅读 2021-04-06 16:37:48
    大家知道,物联网平台数据处理过程:硬件设备层——》数据收集层——》业务逻辑层——》展示层。 物联网平台的主要数据传输协议有mqtt,coap,http等,mqtt是最常见的一种。展示层一般采用websocket技术进行展示...

    上篇文章主要介绍了使用kettle平台实现文档的高效解析。通过上传文档和下载文档的方式,来对各种异构文档进行数据格式的统一。本篇文章进行介绍kettle平台的其他高级功能,即:mqtt与websocket的相互转换。

    场景描述:

    需求:物联网平台的数据处理。

    大家知道,物联网平台的数据处理过程:硬件设备层——》数据收集层——》业务逻辑层——》展示层。

    物联网平台的主要数据传输协议有mqtt,coap,http等,mqtt是最常见的一种。展示层一般采用websocket技术进行展示。

    问题:

    1. 如何将mqtt请求的数据转换为websocket呢?
    2. 如何在转换过程中加入业务逻辑呢?

    方案:

    如果采用按照处理普通需求的方式,按照定制化逻辑进行开发,势必会导致大量的代码量,而且因为逻辑不通用,会导致一系列的问题。我就猜测有没有这样的一个中间件来解决这个问题呢?通过在互联网上一顿操作,愣是找不到任何资源。我就下决心完成开发这套中间件。

    效果预览:

    mqtt客户端:MQTTBox。

    通过mqttBox向主题windows发布消息,如下图。

    数据集成平台:

    平台提供websocket接口,并在平台中设置mqtt的相关配置

     websocket客户端在线测试:

    调用websocket接口,平台开始监听mqtt数据,若有数据进入,则会通过websocket推送出来

     原理简介:

    • 通过“MQTT consumer”节点来连接mqtt服务器,当然连接服务器的配置也可以通过平台进行配置。

    •  通过“Get records from stream”节点来进行流处理,对每一条数据进行定制化处理。

    将以上两个转换文件进行组合,便可以实现对mqtt的监听,以及对流数据的处理。

    • 平台原理:

    通过将上述两个文件进行上传保存后,websocket服务接口通过执行这两个文件,将mqtt数据变化转换为websocket数据变化,并最终通过websocket通道进行数据输出。

    总结:

    平台通过mqtt与websocket的相互转换功能,非常巧妙的解决了物联网中的数据协议转换问题,极大的简化了开发工作量。当然这个功能不仅仅支持mqtt,消息中间件都支持(如:rabbitmqt,kafka等)。

    若有什么疑问,可加qq893393953。

    展开全文
  • 时间过得很快,ESB(数据集成平台)项目本月就要上线,之后转入运维。 现在总结一下,数据集成平台有以下特点: 1、高效稳定的消息处理 2、简单易用的数据管理 3、接口服务整体企业架构高可用 4、多协议的支持运行...

    时间过得很快,ESB(数据集成平台)项目本月就要上线,之后转入运维。

    现在总结一下,数据集成平台有以下特点:

    1、高效稳定的消息处理
    2、简单易用的数据管理
    3、接口服务整体企业架构高可用
    4、多协议的支持运行良好


    1,高效稳定的消息处理,其实需要你去关注接口设计的合理,每一次接口的消息流动都在可控范围内,不会有某个巨无霸接口拖垮平台性能。平台要达到这个特点,需要我们关注生产订单发布接口,按照我上一个整车厂的实践经验(TermCenter的PLM、SAP的ERP、RockWell的MES 、SOA的ESB这些组件同这次项目完全一致),这个接口,就是所有接口中数据最大的接口,只有这个接口平稳了,整个ESB平台才能平稳。

    上一个项目,这个接口我对它运维了2年,因为它设计不合理,每次ERP发出的订单数量较大时,ESB乃至下游系统接收都会不顺利。所以优化需求很快就被提出,ERP被要求重新设计接口数据量。我提供了整套包含下游系统校验的优化方案( 其实在方案提出之前,我早早就在ERP系统中用ABAP测试了新的优化方案,并和ESB项目组一起对新方案做了完整的测试)。

    OSB资深开发顾问因为没有这么相似的项目经历,一开始没有意识到这个接口必须用优化方案才能可行;事情往后发展,经过测试数据,大家很快发现,如果不优化这个接口,显然是不行的(ESB对生产订单全放一个包里,再对大报文XML做foreach运算。平台的上限只能处理150个订单,而我们工厂一天三班是800个订单)。还好,我得到了项目架构师的鼎立相助,最后我们使用了优化的方案。 准确的描述这个技术问题,是任何语言对海量的XML大文本数据做foreach运算总是很糟糕,而如果数据的载体不是XML文本,是内存变量,那才是正常的解决之道。现在回忆起来,有时候双方博弈的结果,其实也取决于你的决心。

    优化方案完成后,我们对该接口做了压力测试。接口一次传输6000个生产订单,ESB、MOM、LES下游系统传递并接收,全部用时90分钟。并且一个订单没有丢。而上一个项目,这个接口传输100个订单,我也要去生产计划员那儿蹲守半个小时,以确保正常完成。


    2、简单易用的数据管理,需要关注消息放数据库的大小

    6000个订单的压力测试做完,很快又出现了新的问题,用来存放消息的数据库爆了。

    我使用我自己的工具oracle space tool(工具说明详情见我blog和github) 一直在关注ESB数据库的大小。

    一个订单的XML数据是2M,平台设计是保存到数据库里,消息的进出都被保存一次,广播到LES和MOM也被保存一次,最后就是这个接口服务的消息被保存了4份到数据库里。 压力测试当天,我们做了2次6000个订单的测试。数据库空间涨了100个GB。 按这个做法肯定是不行的,优化数据库消息存储的需求很快被提了出来。熊可也是很厉害的,很快找到了解决办法。只用了短短一周时间,在平台和数据库之间启用了压缩功能圆满解决了这个问题,压缩后的数据量缩小了100倍。这个数据量是我们平台运维可以接受的。

    3、接口服务整体企业架构高可用,需要关注各服务器集群的连接架构

    不但ESB内部的服务器集群是多个主机没有单点,包括连接到其它集群服务器的链路也是多连接的,我称为梦幻架构。详情请见blog


    4、关注MSMQ消息客户端的代码使用

    Oracle server bus的优势其实很大一块体现在它对多个协议的成熟组件的支持。单单在MQ这个协议上,它就支持JAVA的MQ客户端和.net的MQ客户端接入,这样JAVA和.NET2大世界都被OSB的MQ接入了。

    LES微软项目组找到我们,每收5个数据包会掉2个,这个问题有点夸张。他们使用的是.net的MQ客户端接入,用的组件是oracle提供的标准的dll。

    每一个CSDN的程序员可能都希望进入微软或有相关工作经历为耀,其实我也是;在微软项目组面前玩C#,无异于班门弄斧。

    但是LES生产系统马上上线,这个问题需要快速解决。我用C#做了一个测试程序,模拟LES的场景使用oracle提供的标准dll库,程序跑了一上午,心跳+收发MQ包2000个,一个也没有掉。(详情请见blog)

    我们很快锁定了问题,lance笑了,不是oracle server bus平台的问题。


    To be continue........

    展开全文
  • 1、系统集成平台主要是为医院内部各个应用提供统一的医疗数据访问服务,提供数据共享和数据集成服务,确保临床等信息系统进行工作流整合并实现交互协作。平台本身不会存储大量的数据,只是做负责数据的解释和交换。...

    1、系统集成平台主要是为医院内部各个应用提供统一的医疗数据访问服务,提供数据共享和数据集成服务,确保临床等信息系统进行工作流整合并实现交互协作。平台本身不会存储大量的数据,只是做负责数据的解释和交换。通常用到技术架构是面向服务架构(SOA)的医院服务总线(HSB)的集成方案。
    要求建设厂商了解熟悉医院信息系统集成的方法, 应用集成、数据集成、界面集成等,了解医院院内外业务工作流程集成和信息交换方式,熟悉基于SOA的ESB总线架构,能够基于IHE、DICOM、HL7等医疗国际标准制定覆盖医疗所有业务流程的系统集成规范,开发基于规范的系统集成平台。

    2、临床数据中心是对医院内部各个业务系统数据进行整合。以病人为中心,以患者EMPI为主线,实现病人临床数据的模型化 ,对数据进行标准化存储,采用标准的SQL结构化数据存储方式。
    要求建设厂商熟悉医院应用系统数据结构,具有对异构厂商的医疗数据进行抽取和加工的能力,具备将临床数据按业务逻辑重新建模存储的能力。

    3、医院大数据平台是基于科研的需要,做数据清洗或加工, 为医院管理、诊疗、科研等服务。
    通常采用Hadoop、Spark等大数据处理技术。
    要求建设厂商数据大数据相关技术,可以根据医院数据的需求进行大数据建模,可以选择合适的大数据工具进行分析,提供适合医院实际需求的大数据服务。

    展开全文
  • 11月1日,Informatica举办了网络会议《Informatica数据交换平台主要特性及案例分享》,本文根据Informatica 资深技术顾问续岩演讲内容整理而来。 续岩 Informatica资深技术顾问 观看完整视频回放请长按识别如下...

    11月1日,Informatica举办了网络会议《Informatica数据交换平台主要特性及案例分享》,本文根据Informatica 资深技术顾问续岩演讲内容整理而来。

    续岩

    Informatica资深技术顾问

    观看完整视频回放请长按识别如下二维码:

    随着大数据技术的不断普及应用,以及数据资产概念的深入人心,很多企业已经启动或准备着手开展数据治理项目。

    数据治理的渊源可以往上追溯到公司治理和IT治理。公司治理是关系到企业生死存亡的关键点,它会为企业未来发展指明方向。为了更好地支撑公司治理的方向和策略,IT治理会提供相应的IT系统支撑和规划。具体到数据治理,其实是在IT治理和公司治理之下的。无论企业处于什么行业,在数据的要求方面都是共通的,例如数据质量、数据的可访问性、数据的可用性、数据的一致性、数据安全性、数据可审计性等,这都是我们在数据治理过程中对数据提出来的要求。

    为了更好地实现数据治理,我们通常需要三驾马车来支持:策略与流程、标准、技术平台。策略与流程从纲领角度为数据治理的开展铺平道路,自上而下形成相应的组织架构、管理目标、管理策略和流程。在数据治理的推广过程中,还需要辅助以标准规范,这样才能够保障数据治理项目的顺利开展。这包括数据的定义和分类、企业数据模型、开发和技术标准、主数据等。此外,要更好地实现数据治理项目的落地,还需要一个底层的可靠的全面的技术平台支持,为数据治理提供基础架构,这样才能避免数据治理项目变成空谈。

    **数据集成是数据治理中的重中之重**

    谈到具体的数据治理架构,我们用下面这张图做个简单的阐释:

    首先,我们需要搭建一个数据治理组织,里面会有相应的治理委员会为数据治理的规划、标准、流程、定岗定责等提供非常好的支撑。在数据治理委员会的指导下,我们才可以更好地去开展数据治理的相关工作。比如说数据资产目录、元数据管理等,之外还有数据集成管理、数据质量管理、数据安全、数据服务以及企业数据中心等。

    在这众多的建设项目中,Informatica认为最基础的莫过于元数据管理和数据集成管理。大家可能都认可元数据管理或者叫数据资产目录是数据治理中很重要的环节,但关于数据集成管理在数据治理中的作用,有些人可能会持怀疑态度。为什么我们说数据集成是数据治理中非常关键的环节呢?我认为有两个原因:

    第一,我们在进行数据资产目录管理或者叫元数据管理的时候,不仅要从各个系统里搜寻、查询数据资产的分布情况,同时还要追溯整个数据流转的脉络。而数据流转的脉络则与数据集成密不可分。如果企业内部存在多种多样的数据集成方式,例如Java代码、存储过程、DB Link等,那么我们在进行数据追踪、审计的时候,就会发现无从下手。随着我们需要进行管理和维护的方式与渠道越来越多,这势必会给数据治理项目增加更多的成本和维护难度。

    第二,在数据治理项目中,对元数据管理,或者说对数据资产目录的管理,仅仅是一个起始点,仅仅是对数据状况摸底的一个过程。更重要的是我们要以此为基础,去进行真正的数据价值的挖掘以及治理。比如说质量监控、主数据管理、数据服务等,但这些与数据集成密不可分。因此,我们肯定需要一个全面的数据集成平台,以支持数据治理项目的运转。

    基于上述两点,我们可以看出,数据集成平台对于数据治理是非常重要的基础环节。只有打好数据集成平台这个基础,我们才能做到厚积薄发,才能在后续治理过程中实现更好的价值,降低管理和维护成本。

    **Informatica DIH实现数据运算与数据承载的完美结合**

    谈到数据集成,大家都不会陌生。早在建设数据仓库或数据中心的时候,大家就会采用ETL工具来搭建数据集成平台。数据集成平台承载的是数据的运算、抓取和转换能力,它可以帮助我们在不同系统之间实现数据交互,消除数据孤岛,但ETL工具本身并不会承载数据。数据从源端到目标端进行了流转,但在ETL工具这个层面不会有任何的存留。那么自然而然带来了问题:当一个系统有很多访问需求的时候,例如核心系统承载了整个企业内部的百分之八九十的关键数据,因此对数据的访问就会非常频繁。但核心系统的真正目的实际上是为了承载核心业务的发展,并不是为了数据共享而建。所以当我们有越来越多的数据访问,尤其是要去访问数据核心系统的时候,势必会给系统带来很大的压力,最终影响企业的正常运营。为此我们提出了数据中心、ODS等概念,进行数据系统的分压与承载,以承担起整个企业内部的数据交换和分发功能。

    基于上述两点,Informatica提出能够合二为一,既具备高效的ETL运算能力,又能够提供数据承载能力的产品,这就是我们的DIH——Informatica Data Integration Hub数据交换平台。Informatica DIH在整个系统的架构中,就像一个数据总线,是一个数据的集成hub,它把所有系统之间的数据交互集中在一个平台之上,底层采用了PowerCenter高效的数据运转流程,可以快速地从各个系统中进行数据的访问控制,并能够把数据高效地推送到消费系统之上。Informatica DIH既有数据承载能力,又有数据运算能力,极大地满足了企业对于数据系统之间解耦,同时降低系统依赖性的需求。

    Informatica DIH还有一个很大的改变,就是我们改变了传统的ETL方式,变成以管理为核心的模式。采用基于数据主题的自助发布和订阅方式,来快速适应企业系统内部的数据交互需求。也就是说当数据需求出现的时候,我们可以登录DIH平台查找已有的数据主题进行订阅。那么这些数据就会按照我们的方式自动形成相应的数据流转工作流,将数据按照我们所需要的频度,从数据来源系统抽取到消费系统,这样就大大地缩短了数据开发的周期。在此之上,Informatica DIH还提供了相应的数据生命周期管理、数据集中统计等功能。

    **Informatica DIH产品主要功能**

    下面,我们来具体看一下Informatica DIH详细的功能模块。

    在底层存储上,Informatica DIH除了保留最传统、最关键的元数据信息外,还多了一个存储区域,那就是历史数据交换区。基于这个历史数据交换区,DIH可以更好地为企业数据交换提供承载能力。所有的数据访问和数据发布都可以在DIH产品平台之上来进行运转。

    我们再来看Informatica DIH数据模型管理模块。Informatica系统内部的这些交互是以数据为主题,作为基本单元的。一个数据主题是一个逻辑数据对象,它与物理表之间的关系可以是一对多的关系。举例来讲,客户信息可以是一个数据主题,那么客户信息实际上承载的物理表可能有客户主表信息、客户资料信息、客户地址表信息、客户电话信息等。通过对数据主题这个模型的定义,我们可以更完整的把数据和客户信息定义成一个基本的交换单元,通过对这个交换单元的发布和订阅,能够更全面地实现数据的交互。

    在数据交互方面,Informatica数据集成交互管理模块实际上就是我们刚才谈到的基于数据主题的发布订阅功能,可以实现数据从DIH平台上的自助式发布,以及从DIH平台向消费系统的发布,这样就实现了系统之间的解耦,避免了数据需求方系统对数据发布方的依赖,并且可以实现不同时间频度的数据传输。

    在此之上,Informatica DIH还具备数据质量检测或者叫数据质量防火墙的功能。这个功能是Informatica数据质量、数据治理产品的亮点。数据质量检测可以利用DIH平台作为数据交换的唯一入口,来进行数据指标验证和清理规则的切入。通过这种方式,当所有数据进入到DIH平台的时候,就是标准的,并可以分享、可以信赖的数据。通过一次清洗多次使用的方式,极大地提升了Informatica数据质量的验证效率和清理效率,同时也为未来维护数据质量、统一模型、统一引擎提供了平台支撑。

    在某些特殊应用场景下,我们可能会有些敏感信息需要进行发布,可能会有一些客户的隐私信息需要进行共享。在这个过程中,我们就可以根据需求,在数据集成的过程中去添加数据脱敏,以及数据加密模块来实现对隐私信息的保护。

    同时,数据集成交互还需要考虑历史数据的堆积。因为随着时间的推移,在一个系统之内的数据会不断累加,尤其作为一个交换平台来讲,每天的数据承载量很大。如果没有优秀的数据生命周期管理功能,数据系统的运行健康状态就会受到影响。Informatica DIH产品提供了优秀的数据生命周期管理功能,它可以基于数据主题去订阅每一个数据主题的生命周期时间。当这份数据被所有的需求方取走之后,它会开始计时,到达相应的有效期,这部分发布的数据就会自动从DIH平台中清除掉或者被转走,从而保证数据交换平台的健康稳定运行。

    此外,在安全控制方面,Informatica DIH也提供了全面的访问控制功能,以实现对不同用户和数据主题之间的访问权限管理,管控可以访问和发布的数据主题。由于DIH平台采用了集中的数据存储功能,所以我们对于数据审计和监控有了一个唯一入口。在DIH平台之上,我们可以非常清晰地看到每个系统对数据的使用情况,以及数据发布和需求量,从而可以得到更准确更全面的数据热度分析,为以后的数据挖掘和使用提供更有力的数据支持。

    正如前文所述,Informatica DIH产品基于PowerCenter强大的ETL引擎之上,因此它天然地继承了PowerCenter所有的强大功能,包括集群部署、高并发分区式处理,以及全面的接口管理,包括大数据平台、云平台、企业数据库、文档文件等常见的数据类型支持。


    通过将ETL运算能力与数据承载能力完美结合,Informatica DIH数据交换平台可以更加全面地为企业数据集成提供平台支撑,为数据治理打通脉络,帮助企业最终做到以数据为核心,实现流程驱动、责任明确的深入治理。

    展开全文
  • 数据集成

    万次阅读 2018-05-13 21:16:32
    数据集成内容定义:数据集成是要将互相关联的分布式异构数据源集成到一起, 使用户能够以透明的方式访问这些数据源。 集成是指维护数据源整体上的数据一致性、提高信息共享利用的效率; 透明的方式是指用户无需关心...
  • 数据集成(Data Integration)是阿里集团对外提供的可跨异构数据存储系统的、可靠、安全、低成本、可弹性扩展的数据同步平台,为20+种数据源提供不同网络环境下的离线(全量/增量)数据进出通道。 产品详情:...
  • 工业互联网平台是面向制造业数字化、网络化、智能化需求,构建基于海量数据采集、汇聚、分析的服务体系,支撑制造资源泛在连接、弹性供给、高效配置的工业云平台。其本质是通过构建精准、实时、高效的数据采集互联...
  • 大数据应用统一集成平台CDAP简介

    万次阅读 2017-09-22 09:53:04
    CDAP概述 CDAP (CAST DATA APPLICATION PLATFORM)是一个开源的大数据应用统一集平台,帮助应用开发者和系统管理员基于Hadoop技术栈来构建、测试、部署、管理数据应用程序。CDAP由Datasets、Programs、 Services、...
  • 数据集成--ETL工具

    千次阅读 2019-01-13 18:04:41
    最有代表性的,美团合并了大众点评,两家外卖平台的数据必须整合在一起,才能发挥更大的商业价值----数据集成数据集成的两种架构:ELT 和 ETL 一般来说,数据工程师的工作包括了数据的 ETL 和数据挖掘算法的...
  • 数据清洗、数据集成

    千次阅读 2019-05-14 10:28:36
    数据清洗、数据集成 整个数据分析过程中,数据清洗大概占到了80%。 数据质量准则: 完整性:单条数据是否存在空值,统计的字段是否完善。 全面性:观察某一列全部数据值可通过常识判断该列在数据定义、单位标识、...
  • 整个大数据的处理流程可以定义为,在合适工具的辅助下,对广泛异构的数据源进行抽取和集成,将结果按照一定的标准进行统一存储,然后利用合适的数据分析技术对存储的数据进行分析,从中提取有益的知识,并利用恰当的...
  • 数据集成学习笔记 --- DataX学习笔记

    千次阅读 2017-08-22 15:21:36
    数据集成学习笔记 --- DataX学习笔记
  • 华为ROMA平台数据集成FDI配置

    千次阅读 2020-06-03 18:52:04
    华为ROMA平台数据集成FDI配置问题记录 因为使用了华为的一套数据加工平台,需要将本地mysql数据库的数据同步到华为dayu平台做数据加工,首先将本地mysql的表数据通过ROMA平台同步到dws数据仓库。 1.在ROMA实例中编写...
  • 数据集成方案

    千次阅读 2019-08-23 09:27:02
    也称ETL、对跨部门的...数据集成常见问题如下: 1 涉及部门众多,数据接口类型多样化。 2 顶层设计缺失或历史原因,数据缺乏统一标准,信息孤岛、数据碎片化现象严重。 3 数据冗余、数据不一致、错误数据等系列...
  • kettle实战-4 OMI介绍-4.1 数据开发

    千次阅读 2019-07-05 09:27:29
    数据开发使用kettle的spoon 工具做线下开发数据处理流程,然后将转换或任务上传至OMI平台。菜单“数据开发”->“资源上传”。  创建数据处理,选择上传资源,配置相关运行参数,在线执行kettle组件,转换或...
  • 数据交换平台

    千次阅读 2019-05-06 11:36:02
    1.什么是数据交换平台 数据交换平台就是把不同来源、不同特性的数据在逻辑上和物理上有机地集中,从而为企业应用系统...通过数据集成实现信息互联,为数据分析应用提供完整数据。 (2)形成统一数据标准,实现多样...
  • 而这又带来了新的问题——我们该如何选择正确的数据集成工具,从而对各类数据加以归纳?今天的文章将就此展开探讨。 数据不在一个数据库,文件系统,数据库或存储库中。为了满足许多业务需求,必须将数据与其他...
  • 20.数据集成、数据整合、数据融合

    千次阅读 2019-07-19 09:35:56
    数据集成是指 数据集成已经发展很久了,虽然仍然有很多值得研究的问题。但是百度上都是应用步骤,应用方法,甚至有阿里、微软的广告 定义:数据集成是要将互相关联的分布式异构数据源集成到一起, 使用户能够以透明...
  • 医院信息集成平台现状总结

    千次阅读 2019-02-25 18:19:00
    平台运用消息引擎等数据传输技术和标准化的消息封装手段实现院内应用系统的互联互通、通过异构系统、异构数据、异构网络、异构协议之间的信息集成和基于规范的数据交换实现共享,从而形成全院级的病人主索引,满足...
  • 一、背景介绍基础集成平台是信息系统的基础设施环境,为各应用系统提供公共基础设施(如ESB、消息中间件等),将各系统的通用基础服务功能(如用户管理、授权管理、配置管理等)从业务系统剥离出来,使得业务系统...
  • ETl

    千次阅读 2014-03-21 12:07:54
    ETL,Extraction-Transformation-Loading的缩写,中文名称为数据提取、转换和加载。 ETL工具有:OWB(Oracle Warehouse Builder)、ODI(Oracle Data Integrator)、Informatic PowerCenter、Trinity、AICloudETL、...
  • 大数据处理技术之数据集成

    千次阅读 2019-03-20 16:40:23
    大数据处理技术是一个十分...而大数据处理的技术有很多,其中最常见的就是数据集成,那么什么是数据集成呢?下面我们就给大家介绍一下这些知识。 自学习大数据的时候,我门会学到很多的知识,也会了解到很多的知识点...
  • 而阿里云的数加平台呢,从产品形态上来看,也分为数据集成,数据开发,数据管理和运维中心这几个模块,大致对应了数据的导入导出,作业脚本的开发管理,表格元数据信息的编辑查询,权限的管理,以及任务的监控,管理...
  • 2010年左右,还是在上学的时候,学过一门课程叫《数据仓库与数据挖掘》,那还是属于传统数据的时代,我们会讨论什么是数据仓库?什么是数据集市?数据仓库和数据库有什么区别?等等,当我还在苦苦学习这些之时,...
  • 本文探讨了消息总线的扩展方向——面向消息的数据集成的可行性。
  • 论企业集成平台的架构设计

    千次阅读 2019-06-25 13:19:09
    论企业集成平台的架构设计 三、选择合适的应用集成平台 (介绍)目前,开放式(开源)企业应用集成的规范和平台的主流技术有两种: - 种是微软公司的COM+(组件对象模型)规范和Windows . NET平台,另一种是SUN...
  • 金康汽车数据集成平台项目从2018年6月15日项目启动,通过项目组近6个月的努力,于2018年12月28日完成了项目建设阶段要求的各项工作顺利上线运行。 目前金康数字化工厂业务系统已经全面接入集成平台(产品研发PLM、...
  • Omi – 前端跨框架跨平台框架 基于 Web Components 并支持 IE8+(omio),小程序(omip) 和 任意前端框架集成 Github star 9.2K+, MIT协议。 特性 框架无关,任何框架可以使用 Omi 自定义元素 提供桌面、移动和...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 381,998
精华内容 152,799
关键字:

数据集成平台