精华内容
下载资源
问答
  • 系统上线后如何确保原始数据的准确性
    千次阅读
    2019-05-01 16:15:19

    标题系统上线后如何确保原始数据的准确性?

    系统一旦交付客户使用,首先肯定是系统原始数据采集,然后才是系统业务流程的处理(其实质也还是数据的交换与处理),要确保原始数据的准确性,我认为应该做好以下几个方面:

    (1)定制数据采集模板要全面又要简洁。全面指的是采集的数据项目要做到全覆盖,不能漏项目。简洁是指采集的数据要做好分层分类,让客户尽量做选择题而非填空题。一个系统采集的数据本来就比较繁杂,客户对某些数据项目的认知又参差不齐,要准确的采集原始数据又不给客户增加很大负担,就需要将数据采集模板设计成填字游戏一下,既让他们有完成游戏的冲动,又明确规则的重要性。

    (2)定制数据采集模板要有完善的数据填报说明和提示,并对关键项目进行数据限制。在不影响模板复杂性的前提下,在数据项目上增加填报说明和提示,让客户一目了然,对于关键的项目进行项目内容和填报格式的严格限制。

    (3)定制数据采集模板工具的选择。比较常见的有excel模板、word模板、客户端模板、浏览端在线模板等,这些模板各有利弊:excel模板用户界面比较熟悉,容易上手,兼容性存在问题而且数据限制比较困难;word模板不如excel采集数据导入系统方便,而且进行数据限制也比较困难,客户端定制的模板比较符合系统的要求,数据准确性也高,但也可能存在需要本地化安装、数据导入导出上传等麻烦,操作的灵活性也可能不够;浏览端在线模板比较方便,在手机、电脑、pad上都可以采集,而且可以方便采集非文字、图片数据项目,采集的数据项目可以实时比对更新,也没有安装的麻烦,但开发成本可能要高一定,有条件的可以选择。

    (4)组织数据采集培训。数据采集是一个相当重要的环节,要确保采集的数据 的准确性,需要对填报人员进行培训,明确数据采集的步骤、注意事项和常见问题。

    (5)数据筛查。原始数据一旦导入系统,数据不能立即进入运行库,首先应该进入临时库,进行数据筛查,因为有的数据是原先进行数据限制不够导入数据填报错误或格式错误或者数据比较稀疏,发现这些问题,系统端可以进行预处理就在系统端进行预处理,包括数据清理等数据仓库步骤可以在此时发挥作用,如果系统层面无法核实的,则需要将数据问题反馈给用户,再次分析客户需求,并更正数据或者调整数据项目。

    (6)数据确认。数据筛查完成之后,需要将导入的原始数据进行可视化的整理,让客户直观的数据进行再确认,确保数据是对客户需要的真实写照。

    (7)备份存档。数据确认完成后,将确认过的数据备份存档。

    更多相关内容
  • 最新完美版教育资料
  • 上周收到一位读者的询问:怎么保证数据的正确? 以下是原文: 上游,会遇到根源问题,比如客户端在数据上报时就传错的情况,比如手抖把下单时间不小心上报成了用户点击商品详情的时间. 中游,指标的计算正确与否...

    |0x00 问题描述

    上周收到一位读者的询问:怎么保证数据的正确性?

    以下是原文:

    上游,会遇到根源性问题,比如客户端在数据上报时就传错的情况,比如手抖把下单时间不小心上报成了用户点击商品详情的时间.

    中游,指标的计算正确与否完全依赖于开发人员对于指标含义的理解以及业务方对于数据结果的敏感程度,一旦有一方出现问题即使指标统计错误也无人可以发现,甚至开发人员写错统计代码,或者由于字段的值异常, 代码没有处理好异常等等导致计算脚本异常中断,都会导致计算结果的偏差.

    下游,业务方看到指标时,可能也对指标的统计口径理解上有偏差,经常需要问技术人员为啥这两个指标是跟他预期不一致的,技术人员就总是要反复排查统计逻辑和解答业务人员的疑惑,很耗时.

    关于这三个典型问题,我们分开来看。

    |0x01 上游数据的保障

    针对上游数据的保障,我的看法是,错误的发生是不可避免的,甚至一些隐藏的问题始终无法被发现,但我们要做的不是100%杜绝问题,而是及时发现95%的可疑问题。

    因此,,针对ODS层,不论是数据同步任务、视图还是其他形式,保障数据的准确性的核心有两点:一是及时监控问题的发生;二是保障一个流畅的上下游沟通方法。

    但是,在防范问题发生之前,工程端也是要参与到数据准确性保障的工作中来,也就是尽可能在埋点平台上做好保障,这个需要有比较好的功能测试。

    其次,我们得有一套合理的埋点规范,不论是SPM,还是其他一些自定义的方法,合理的规范不仅能够减少上下游的信息误差,同时也会避免因为扯皮导致的一些数据问题,问题中的上报错误也会少很多,至少我们能够加一层规范校验来检查出部分的问题,这还是比较关键的。

    最后,要有可靠的数据同步工具,前一阶段Sqoop下线了,但其他的工具,比如DataX,都可以来尝试使用。当然,我们可以对一些具有典型特征的字段格式,做基本的校验规则,比如日期、正数、手机号等。

    其实数据出现错误是难免的,世界本就是概率的、而非永恒不变的,网络波动、编码错误、人工处理,都有很多可能导致问题。因此,在ODS接入阶段,我们的建议是以发现问题为主。

    但发现问题的方式,是有技巧的。比如,波动性监控就是一种非常不错的方法,通过检测总条数、金额总数等具备统计学特征的指标,我们可以发现一些问题的端倪。如果波动在5%左右,需要确认原因;如果是10%,就可能是某些系统节点问题;如果是30%,就可能是面上的问题了。

    发现问题后,及时跟上游反馈,一起看原因。解析失败的数据不要丢,记录下来,方便后续分析原因。

    如果这个阶段发现问题,建议直接阻断,因为如果下游很多的话,刷新和解释的成本还是很高,比如晚一点产出,确保没问题。

    |0x02 中游指标的计算

    中游的保障思路,是通过强规范来约束行为,同时通过一些工具来保障强规范的落地。按照维度建模和一些数据治理的理论,当这一层严格执行规范时,发生问题的概率,其实是非常小的。

    中游,即CDM层,包括了DWD、DWS、DIM,是我们经常强调的公共层,需要强规范和一些工具的保障来落地。强规范,代表分层、命名、编码、CodeReview等规范,很多文章有详细介绍,这里不再赘述。工具保障,是利用技术的力量,包括规则检查、数据质量、数据对比、数据验证等工具。可以说,仅仅依靠规范是不够的,我们需要工具来检查规范的落地。

    最典型的工具有这么几种,一种是规则检查,在Dataphin等开发工具上有内置,在命名上就加以规范;一种是报警设置,常规的开发工具也都会集成,比如编码正确性校验、权限检测、冒烟测试、循环依赖检查等,工具可以帮助避免大多数的低级错误;还有一种是数据对比工具,一些重构任务不确定会不会影响结果,通过对比工具则能快速实现这一目的。对于任务本身,需要检查调度参数、依赖关系、定时设置等属性。

    重点介绍下DQC,也就是质量保障工具。比如检查主键唯一、数据是否为空、波动性监控等,从各个角度可以衡量今天产出的数据是否大体正常,一旦出现明显不符合逻辑的数据,则证明今天的数据可能有脏数据,同样会及时通知相关责任人进行排查修复,从某个方面确保数据准确性。从这个角度看,所有的核心任务节点,都需要配置DQC。当然,某些节点不需要了,需要及时下线,省去很多维护的成本。

    除去工具检查规范外,任务本身也需要一些保障工具。

    当任务开发完成后,在提交和发布前,建议进行冒烟测试。比如校验SQL规范、检查权限、校验调度方式,等等。节点发布之后,需要在运维中心,查看节点每个周期的运行情况,是否出错、运行时间、所耗费的资源、上下游节点的运行情况,然后根据业务需求优化调整代码或者配置。UDF函数需要有统一管理,不能一个功能有多个节点。

    除此之外,定期进行慢任务治理,也是必不可少的。慢任务治理不仅仅是数据质量要关心的事情,对于数据准确性而言,时效性也是一个考核因素,这一点比较关键。

    凡此种种,其实会非常拖累开发的节奏,但往往是做的越快,错的越多,一些繁琐的规定,还是很有必要的。

    |0x03 下游指标的使用

    下游保障思路有两点,一个是做好测试,另一个是写好文档和注释,当然,如果有系统性介绍指标的说明,就更好了。

    下游使用数据前,需要有数据测试的接入。数据测试,包括三种:自测、测试同学验证、线上任务验证。因为任务的细节只有自己知道,因此自测是必须且有必要的。很多时候,我们还需要相信数据测试的同学,大一点的需求需要有专业人的介入。最后是任务验证,跑一次真实的数据,保证整个环节是通常的。至于线上任务,在上线前、修改后,都需要手动来触发一次,确保修改是正确的,不会对第二天值班的同学造成影响。

    做好测试,特指针对ADS层,即数据组合和输出的规范。因为ADS通常开发比较迅速、逻辑比较复杂、变化比价快速,因为很多逻辑只有开发自己清楚,这种情况下,自测显得非常重要。当然,打好与测试同学的配合,也很重要。

    另外,指标体系也是必须要有的,这是一个老生常谈的问题。指标体系,大体要有如下的内容:

    • 指标定义;
    • 度量目的;
    • 度量方法;
    • 度量维度;
    • 统计周期;
    • 数据来源;
    • 数据范围。

    如果有可能的话,需要针对某个场景的分析思路,写系统的介绍文档,包括流程图、漏斗图、分析目的、分析指标、牵引意义等各种角度的说明。麻烦吗?非常麻烦,但这就是看你愿意把成本花在解释上,还是花在文档上。

    最后,要有数据可视化工具,一些很常见的问题,通过可视化工具,可以轻松发现,比如金额是负数,比如波动非常大,这些都有助于发现问题。

    |0xFF 六西格玛

    出一个题目:假设一个工作需要100道工序完成,如果每一道工序的合格率都达到99%,经过100道工序后,产品的总合格率是?

    答案是,36.6%。

    其实,数据开发有些时候与工厂类似,加工的工序很多,我们又无法保障每个环节100%准确。

    这时候,我们用六西格玛的思想,来武装自己,就最合适不过了。企业可以用西格玛的不同等级作为对比,来衡量自身的流程管理水平。

    比如,六西格玛背后的原理,是如果你检测到你的项目中有多少缺陷,你就可以找出如何系统地减少缺陷,使你的项目尽量完美的方法。一个企业要想达到六西格玛标准,那么它的出错率不能超过百万分之3.4。

    如果我们利用数据规范 + 保障工具,确保每个环节出错率,在一个相当低的水平上,与六西格玛标准相当,那么我们就可以拍着胸脯说,我们的数据,是准确的。

    完美通常不存在,尽可能低,已经是一种极限了。

    展开全文
  • mysql处理高并发-保证数据准确性

    万次阅读 2017-05-26 18:53:36
     1、先查询出目前金额信息a  2、将充值的金额组装a(原金额+充值金额=新金额)  3、更新金额(执行update方法) 问题: 多并发的情况下, 会是多个线程同时读取到目前金额a , 之后 多个线

    问题描述: 压力高并发情况下  执行update方法 得到结果非预期结果

     

    例如: 多个线程执行 充值金额方法

             1、先查询出目前金额信息a

             2、将充值的金额组装a(原金额+充值金额=新金额)

             3、更新金额(执行update方法)

    问题: 多并发的情况下, 会是多个线程同时读取到目前金额a ,  之后 多个线程进行分别组装数据,依次更新,  这就导致  A账户本来有50元  两个并发线程同时充值50元  最终数据库中 账户只有100元,而不是150元(第二次更新覆盖第一次更新)

     

    解决方案:

    1、先更新(更新会锁表)  然后在查询   如果金额超出预期  直接回滚 ,更新中  将加减运算放在sql中执行 可以保证数据准确性。

    beginTranse(开启事务)

    try{

        //quantity为请求减掉的库存数量
        $dbca->query('update s_store set amount = amount - quantity where postID = 12345');

        $result = $dbca->query('select amount from s_store where postID = 12345');

        if(result->amount < 0){

           throw new Exception('库存不足');

        }

    }catch($e Exception){

        rollBack(回滚)

    }

    commit(提交事务)

    优化:

    beginTranse(开启事务)

    try{

        //quantity为请求减掉的库存数量
        $dbca->query('update s_store set amount = amount - quantity where postID = 12345');

        $result = $dbca->query('select amount from s_store where postID = 12345');

        if(result->amount < 0){

           throw new Exception('库存不足');

        }

    }catch($e Exception){

        rollBack(回滚)

    }

    commit(提交事务)

     

    2、乐观锁,类CAS机制

        第二种加锁方案是一种悲观锁机制。而且SELECT...FOR UPDATE方式也不太常用,联想到CAS实现的乐观锁机制,于是我想到了第三种解决方案:乐观锁。

        具体来说也挺简单,首先SELECT SQL不作任何修改,然后在UPDATE SQL的WHERE条件中加上SELECT出来的vip_memer的end_at条件。如下:


    vipMember = SELECT * FROM vip_member WHERE uid=1001 LIMIT 1 # 查uid为1001的会员
    cur_end_at = vipMember.end_at
    if vipMember.end_at < NOW():
       UPDATE vip_member SET start_at=NOW(), end_at=DATE_ADD(NOW(), INTERVAL 1 MONTH), active_status=1, updated_at=NOW() WHERE uid=1001 AND end_at=cur_end_at
    else:
       UPDATE vip_member SET end_at=DATE_ADD(end_at, INTERVAL 1 MONTH), active_status=1, updated_at=NOW() WHERE uid=1001 AND end_at=cur_end_at

     

        这样可以根据UPDATE返回值来判断是否更新成功,如果返回值是0则表明存在并发更新,那么只需要重试一下就好了。

     

    3、应用层分布式锁

    可以在应用层使用一个分布式锁(可以放在Memcache中),控制同一时间,只允许一个应用实例进行查询并更新的操作。

     

    4、使用队列

     

     

    相关推荐: http://blog.csdn.net/asd1836382/article/details/46355703

    http://www.jb51.net/article/50103.htm

    http://blog.csdn.net/dujianxiong/article/details/54849091

    http://blog.csdn.net/caomiao2006/article/details/38568825(个人认为  这个写的还不错)

    展开全文
  • 电表远程抄表系统如何保证数据传输的准确性 电表远程抄表系统如何保证数据传输的准确性?因为很多用户在使用电表远程抄表系统总是 认为数据抄收的不正确,特别是担心当用电数据抄错的时候,影响自己的利益。(这里所...

    电表远程抄表系统如何保证数据传输的准确性
    电表远程抄表系统如何保证数据传输的准确性?因为很多用户在使用电表远程抄表系统总是
    认为数据抄收的不正确,特别是担心当用电数据抄错的时候,影响自己的利益。(这里所说的
    利益当然是用户关心的电表电费的使用情况)
    其实这个问题大体是不需要担心的。为什么这样说了?很多用户带着疑问。这里首先就是要探讨
    的底层仪表数据的通信结构和协议功能。还有上层的网络通信TCP协议功能。从这两个方面来说
    有这两个通信方式的存在,数据是不会通信错误的。在上层的TCP协议中有一个16位校验和:16位TCP头。
    也就是说发送机器基于发送数据内容计算一个值,接收机器接收的这个值要和发送机器一样,才能证明
    数据的有效。并且这个一个强制的字段。
    再说一下底层一般数据的通信结构,因为我们最为关注的是电表远程抄表里的智能电表的数据准确性的。
    一般来说,只要电表的走字正常正确的话,通信的数据就都是正确的。为什么?因为在仪表,这里所说
    的是电表通信,传送一个数据是采用计算机的二进制信息进行传送,走的方式是串行,虽然串行通信容易
    在远距离传送是会受到干扰等情况,但是数据发送方,也就是电表远程抄表系统的电表方式采用很多二进制
    字节进行通信的。这里很多二进制字节是最关键的,因为电表远程抄表抄送智能电表的一个参数是需要很多
    字节才能完成的,这个很多字节其实主要就是为了保证电表远程抄表系统数据传输的准确性。当然这么多字
    节传送一个参数,(假如这里的参数就是用户的智能电表的用电量)虽然有点浪费,但是这样就能保证
    数据的正确性了,如果在远距离传送数据的时候,数据出现错误的话,那么这么多字节里就能帮助判断
    这些数据是不是正确。还有一个作用就是这么多数据有识别每个电表的功能,因为对于电表远程抄表系统
    来说,不可能抄收一个电表的数据,需要抄收很多个,可能几百,几千,上万等等。所以当电表远程抄表
    系统发送抄收数据的时候,这个抄收数据里的二进制字节就包括每个仪表的表号,又名表的地址。
    当然发送这么多字节数据来抄收电表的一个参数,还有一个重要功能为数据准确性的目的的。那么是如何实现
    多字节实现电表远程抄表数据的准确性了,这就是数据的校验功能了,因为数据在传输中,如果出现错误,
    那么接收的这个数据校验的字节(或者说字符)也就是错误的了。在电表发送方,有数据校验计算功能的。
    当发送到接受方,也就是电表远程抄表系统里的时候,系统也会计算一个值,如果两个值不一样,就判断
    这么多数据是错误的了。这里所说的这么多数据实际上对应的专业术语就是一帧数据,在仪表通信的时候
    是一帧数据在传输一个参数,而不是一个数据在传输。
    好,以上就是电表远程抄表系统如何保证数据传输的准确性,实际在电表远程抄表传送数据的方式为两种
    模式,一种是国家电网使用的645-2007协议,这个协议是以固定字符和累加和校验来保证数据传输的正确
    性的。还有一种是采用MBUS协议来传输的,这个是用CRC校验的方式。

    展开全文
  • 盘点,即通过实物清点结果和账面库存进行对比,发现两者差异并及时调整该差异,以保证库存的实时准确性,并追溯差异产生的原因。这里的准确性包括数量的准确性、存放位置的准确性、存货质量的准确性等。盘点的目的之...
  • DBA任务---确保统计信息准确性

    万次阅读 2011-04-13 20:50:00
    最近忙得不可开交,项目进入了cut over阶段,压力之大,前所未有。我的任务就是,负责优化long running的... 虽然那个Long running SQL 与统计信息无关,但是我还是提出要确保统计信息准确性。作为DBA,我必须定制出
  • 信息安全与保密

    千次阅读 2019-08-20 17:37:27
    信息安全,具体地说就是保证信息的保密、完整、真实、占有。 保密是指系统中的信息必须按照该信息拥有者的要求保证一定的秘密,不会被未经许可的第三方非法获取。系统必须阻止一切对秘密信息的非授权...
  • 互联网金融信息安全实务 第六章 事务处理 知识点原子 目录页 原子需求 分布式事务处理模型 1 2 原子性保证 冲正 3 4 原子 指事务是系统的逻辑工作单位事务中包括的诸操作要么都做要么都不做将一组操作进行打包...
  • 在kafka中主要通过ISR机制来保证消息的可靠。 下面通过几个问题来说明kafka如何来保证消息可靠与一致 在kafka中ISR是什么? 在zk中会保存AR(Assigned Replicas)列表,其中包含了分区所有的副本,其中 AR = ...
  • 一、消息传输的可靠是即时通讯系统的核心 即时通讯怎么做到可靠传输信息 随着科技发展,无论是工作还是生活即时通讯已成为了大家传输信息必不可少的工具。既然要承担传输消息的重任,传输的可靠自然是**即时...
  • 还对预测算法进行了优化,保证在预测过程的准确性。为了验证设计的基于协同过滤算法的医院人力资源信息智能采集系统的有效性,还进行了对比仿真试验,通过试验结果可以看出,提出的基于协同过滤算法的医院人力资源...
  • 在系统服务化的过程中,我们不得不面临的一个问题是多个子系统间业务数据的一致如何保证,解决这个问题有多种方式。XA可能很多人首先会想到XA规范中定义的分布式事务,下图是XA规范中定义的DTP(Distributed ...
  • 信息素养是一个综合的概念,它包含多方面的内容: 1.要有信息意识; 2.能有效地利用信息源; 3.能对信息进行批判的思考; 4.能将有用信息融合成个人的知识体系; 5.能主动鉴别各类信息,并能评价、分析、开发和...
  • 文章对煤炭电子档案信息安全的概念、方法、技术、管理等方面进行了研究及探讨,并论述了如何采取有效的措施,以保证煤炭电子档案信息的原始性、真实性、可靠性、完整性、准确性
  • 信息沟通管理制度 信息沟通制度 制定制度的目的 ...真实 信息管理人员在收集过程中必须保证信息的真实和可靠在加工过程中必须防止和减少各种干扰保证信息不失真 适用 信息的处理必须适合项目管理的需要便于利
  • 心电算法准确性评价总结

    千次阅读 2018-03-20 18:32:05
    花两天时间调研了心电算法评价路径,受到数据库无法获取的限制,企业拥有算法验证能力,既有利于产品性能也保证算法的优化迭代方向。1、相关标准:国内记录盒分析型心电图机的检测要同时执行YY1139-2013和YY0782-...
  • 信息系统安全复习提纲

    万次阅读 2022-01-03 12:48:36
    信息系统安全复习 2021.12月整理 标注了部分2021年12月考察到的知识点 目录信息系统安全复习一、基本概念第一讲 信息系统概论1.什么是信息系统2.信息系统的例子,包括云计算、雾计算、边缘计算等3.信息系统的架构、...
  • 点击上方“朱小厮的博客”,选择“设为星标”后台回复”加群“获取公众号专属群聊入口随着业务的快速发展、业务复杂度越来越高,传统单体应用逐渐暴露出了一些问题,例如开发效率低、可维护差、架构...
  • 高并发下如何保证数据的一致常用方法(JMM篇)

    万次阅读 多人点赞 2020-03-12 15:43:14
    ​ synchronized可以保证可见、有序和代码块的原子,原则上它是一种对象锁,只要某线程获取到该对象锁后,其他使用该对象锁的同步代码块均进入阻塞状态,等待该线程执行完释放该对象锁后,其他线程才能One by...
  • redis中如何保证缓存数据的一致

    千次阅读 2019-11-04 22:13:53
    当有两个线程A、B,线程A去修改数据库中的值改为allen,然后出现网络波动,线程B将数库中的值修改为了Mike,然后两个线程都会删除缓存,保证数据一致。 方式五: 最佳实现, 数据异步同步 Canal:基于...
  • 3.解释GIS中编辑的重要 1.说明定位错误和拓扑错误之间的的差异 答:定位错误,如 多边形丢失和线失真,与空间要素的几何上的不准确相关。 而拓扑错误,如 悬挂线和未闭合多边形,与空间要素之间的逻辑上的不一致...
  • 1. 准确率,召回率,F1值 首先介绍三种最常用的无序的评价指标,它们适用于一种相对简单的情况:在搜索结果中仅考虑返回的文档是否与查询相关,而不考虑这些返回文档在结果列表中的相对位置和顺序。 准确率...
  • 信息论:熵与互信息

    万次阅读 多人点赞 2016-11-25 21:18:43
    这篇文章主要讲:熵, 联合熵(joint entropy),条件熵(conditional entropy),相对熵(relative entropy,KL 距离),互信息(mutual information),交叉熵(cross entropy),困惑度(perplexity)。 ...
  • 为了综合合理利用设备多个方面的故障特征信息,提高故障诊断的准确性,提出了一种多故障特征信息融合的故障诊断方法。该方法依据加权改进后的证据理论,通过构建融合诊断框架,分析融合组建原则,保证了各特征域故障...
  • 信息安全发展的三个阶段:通信保密,信息安全,信息保障 Wind River的安全专家则针对IoT设备安全提出了如下建议: 安全启动 设备首次开机时,理应采用数字证书对运行的系统和软件作认证; 访问控制 采用不同...
  • 用户画像如何验证正确

    千次阅读 2020-01-12 18:43:46
    最近在用户画像任务中有个迷茫点,通过从用户行为或者用户数据中为用户量身定制的标签到底准不准确呢?之前对用户画像的初步了解写过一篇博客,其中对画像的验证主要基于模型的线上线下评估。然而,在实际的业务中...
  • 实用标准 网络与信息安全事件...一总则 一工作目标 保障信息的合法性完整性准确性保障网络计算机相关配套设备设施及系统运行环境的安全其中重点维护网络系统运力交易业务系统基础数据库服务器及公司网站的安全 二编制
  • 如果残差之间存在相关性,则残差中会留有信息,这些信息应用于计算预测。 2. 残差均值为零 如果残差的平均值不是零,则预测有偏差。 任何不满足这些属性的预测方法都可以得到改进 (?如何改进使得残差符合这个规律)...
  • 精确一次处理语义(exactly onece semantic–EOS),Kafka的EOS主要体现在3个方面:1)幂等producer 保证单个分区的只会发送一次,不会出现重复消息2)事务(transation):保证原子的写入多个分区,即写入到多个分区的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 324,279
精华内容 129,711
关键字:

如何确保信息的准确性