精华内容
下载资源
问答
  • 数据预处理_数据清理

    万次阅读 多人点赞 2018-01-11 15:40:53
    - - 数据清理:可以用来清楚数据中的噪声,纠正不一致。 - - 数据集成:将数据由多个数据源合并成一个一致的数据存储,如数据仓库。 - - 数据归约:可以通过如聚集、删除冗余特征或聚类来降低数据的规模。 - -...

    1、概述

    实际的数据库极易受噪声、缺失值和不一致数据的侵扰,因为数据库太大,并且多半来自多个异种数据源。低质量的数据将会导致低质量的挖掘结果。有大量的数据预处理技术:
    - - 数据清理:可以用来清楚数据中的噪声,纠正不一致。
    - - 数据集成:将数据由多个数据源合并成一个一致的数据存储,如数据仓库。
    - - 数据归约:可以通过如聚集、删除冗余特征或聚类来降低数据的规模。
    - - 数据变换:(例如,规范化)可以用来把数据压缩到较小的区间,如0.0到1.0。

    这可以提高设计距离度量的挖掘算法的准确率和效率。这些技术不是排斥的,可以一起使用。

    1.1、数据质量 数据如果能满足其应用的要求,那么它是高质量的。数据质量涉及许多因素,包括:准确率、完整性、一致性、时效性、可信性和可解释性。

    2、数据清理

    现实世界的数据一般是不完整的、有噪声的和不一致的。数据清理例程试图填充缺失的值、光滑噪声并识别离群点、纠正数据中的不一致。

    2.1、缺失值

    如何处理缺失的属性?我们来看看下面的方法:
    1- - - 忽略元组:当缺少类标号时通常这样做(假设挖掘任务设计分类)。除非元组有多个属性缺少值,否则更改方法不是很有效。当每个属性缺失值的百分比变化很大时,他的性能特别差。采用忽略元组,你不能使用该元组的剩余属性值。这些数据可能对手头的任务是有用的。
    2- - - 人工填写缺失值:一般来说,该方法很费事,并且当数据集很大、缺失很多值时该方法可能行不通。
    3- - - 使用一个全局填充缺失值:将缺失的属性值用同一个常量(如:“Unknow”或-∞)替换。如果确实的值都如“Unknow”替换,则挖掘程序可能误认为他们形成了一个有趣的概念,因为他们都具有相同的值 – “Unknow”。因此,尽管该方法简单,但是并不十分可靠。
    4- - - 使用属性的中心度量(如均值或中位数)填充缺失值:对于正常的(对称的)数据分布而言,可以使用均值,而倾斜数据分布应该使用中位数。
    5- - - 使用与给定元组属同一类的所有样本的属性均值或中位数:
    6- - - 使用最可靠的值填充缺失值:可以用回归、贝叶斯形式化方法的基于推理的工具或决策树归纳确定。

    方法3~方法6使数据有偏,可能填入的数据不准确。然而,方法6是最流行的策略。与其他方法(可能方法2除外)相比,它使用已有数据的大部分信息来预测缺失值。

    需要注意的是,在某些情况下,缺失值并不意味着数据有错误。理想情况下,每个属性都应当有一个或多个空值条件的规则。这些规则可以说明是否允许空值,并且/或者说明这样的空值应该如何处理或转换。如果在业务处理的稍后步骤提供值,字段也可能故意留下空白。因此,尽管在得到数据后,我们可以尽我们所能来清理数据,但好的数据库和数据输入设计将有助于在第一现场把缺失值或者错误的数量降至最低。

    2.2、噪声数据
    噪声(noise)是被测量的变量的随机误差或方差。我们可以使用基本的数据统计描述技术(例如,盒图或者散点图)和数据可视化方法来识别可能代表噪声的离群点。

    1- - - 分箱(bining):分箱方法通过考察数据的“近邻”(即周围的值)来光滑有序的数据值。这些有序的值被分布到一些“捅”或箱中。由于分箱方法考察近邻的值,因此它进行局部的光滑。
    这里写图片描述

    如上图所示,数据首先排序并被划分到大小为3的等频的箱中。对于用箱均值光滑,箱中每一个值都被替换为箱中的均值。类似的,可以使用用箱中位数光滑或者用箱边界光滑等等。

    2- - - 回归(regression):可以用一个函数拟合数据来光滑数据。这种技术称之为回归。线性回归涉及找出拟合两个属性(或变量)的“最佳”直线,使得一个属性可以用来预测另一个。多元线性回归是线性回归的扩充,其中涉及的属性多余两个,并且数据拟合到一个多维曲面。

    3- - - 离群点分析(outlier analysis):可以通过如聚类来检测离群点。聚类将类似的值组织成群或“簇”。直观地,落在簇集合之外的值被视为离群点。
    这里写图片描述

    2.3、数据清理作为一个过程

    数据清理过程第一步是偏差检测(discrepancy detection)。导致偏差的因素可能有多种,包括具有很多可选字段的设计糟糕的输入表单、人为的输入错误、有意的错误(例如,不愿意泄露个人隐私),以及数据退化(例如,过时的地址)。偏差也可能源于不一致的数据表示和编码的不一致使用。记录数据的设备的错误和系统错误是另一种偏差源。当数据(不适当地)用于不同于当初的目的时,也可能出现错误。数据集成也可能导致不一致(例如,当给定的属性在不同的数据库中具有不同的名称时)。

    那么,如何进行偏差检测呢?首先,我们明确一个概念,”关于数据的数据“称作元数据。例如,每个属性的数据类型是定义域是什么?每个属性可接受的值是什么?对于把握数据趋势和识别异常,数据的基本统计描述是有用的。例如,找出均值、中位数和众数。数据是对称的还是倾斜的?值域是什么?所有的值都在期望的区间内吗?每个属性的标准差是多少?远离给定属性均值超过两个标准差的值可能标记为可能的离群点。属性之间存在已知的依赖吗?在这一步,可以编写程序或使用稍后我们讨论到的工具。由此,你可能发现噪声、离群点和需要考察的不寻常的值。

    1- - - 编码格式:警惕编码使用的不一致和数据表示的不一致问题(例如,日期“2015/12/08”和”08/12/2015”);
    2- - - 字段过载:开发者将新属性的定义挤进已经定义的属性的未使用(位)部分(例如,使用一个属性未使用的位,该属性取值已经使用了32位中的31位)。

    1- - - :唯一性规则:给定属性的每个值都必须不同于该属性的其他值。
    2- - - :连续性规则:属性的最低值和最高值之间没有缺失的值,并且所有的值还必须是唯一的(例如,检验数).
    3- - - :空值规则:说明空白、问号、特殊符号或指示空值条件的其他串的使用(例如,一个给定属性的值何处不能用),以及如何处理这样的值。

    1- - - 数据清洗工具(data scrubbing tools):使用简单的领域知识(邮政地址知识和拼写检查),检查并纠正数据中的错误。在清理多个数据源的数据时,这些工具依赖分析和模糊匹配技术。
    2- - - 数据审计工具(data auditing tools):通过分析数据发现规则和联系,并检测违反这些条件的数据来发现偏差。
    3- - - 数据迁移工具(data migration tools):允许说明简单的变换,如将串”gender”用“sex”替换。
    4- - -ETL(extraction/transformation/loading,提取/变换/装入)工具:允许用户通过图形用户界面说明变换。
    通常,这些工具只支持有限的变换,因此我们可能需要为数据清理过程的这一步编写定制的程序。

    偏差检测和数据变换(纠正偏差) 迭代执行这两步过程。通常,需要多次迭代才能使用户满意。

    新的数据清理方法强调加强交互性。例如,Potter’s Wheel是一种公开的数据清理工具,它集成了偏差检测和数据变换。



    预处理阶段
    预处理阶段主要做两件事情:
    一是将数据导入处理工具。通常来说,建议使用数据库,单机跑数搭建MySQL环境即可。如果数据量大(千万级以上),可以使用文本文件存储+Python操作的方式。
    二是看数据。这里包含两个部分:一是看元数据,包括字段解释、数据来源、代码表等等一切描述数据的信息;二是抽取一部分数据,使用人工查看方式,对数据本身有一个直观的了解,并且初步发现一些问题,为之后的处理做准备。
    第一步:缺失值清洗
    缺失值是最常见的数据问题,处理缺失值也有很多方法,我建议按照以下四个步骤进行:
    1、确定缺失值范围:对每个字段都计算其缺失值比例,然后按照缺失比例和字段重要性,分别制定策略,可用下图表示:
    2、去除不需要的字段:这一步很简单,直接删掉即可……但强烈建议清洗每做一步都备份一下,或者在小规模数据上试验成功再处理全量数据,不然删错了会追悔莫及(多说一句,写SQL的时候delete一定要配where!)。
    3、填充缺失内容:某些缺失值可以进行填充,方法有以下三种:
    • 以业务知识或经验推测填充缺失值
    • 以同一指标的计算结果(均值、中位数、众数等)填充缺失值
    • 以不同指标的计算结果填充缺失值

    前两种方法比较好理解。关于第三种方法,举个最简单的例子:年龄字段缺失,但是有屏蔽后六位的身份证号,so……
    4、重新取数:如果某些指标非常重要又缺失率高,那就需要和取数人员或业务人员了解,是否有其他渠道可以取到相关数据。

    以上,简单的梳理了缺失值清洗的步骤,但其中有一些内容远比我说的复杂,比如填充缺失值。很多讲统计方法或统计工具的书籍会提到相关方法,有兴趣的各位可以自行深入了解。
    第二步:格式内容清洗
    如果数据是由系统日志而来,那么通常在格式和内容方面,会与元数据的描述一致。而如果数据是由人工收集或用户填写而来,则有很大可能性在格式和内容上存在一些问题,简单来说,格式内容问题有以下几类:
    1、时间、日期、数值、全半角等显示格式不一致
    这种问题通常与输入端有关,在整合多来源数据时也有可能遇到,将其处理成一致的某种格式即可。
    2、内容中有不该存在的字符
    某些内容可能只包括一部分字符,比如身份证号是数字+字母,中国人姓名是汉字(赵C这种情况还是少数)。最典型的就是头、尾、中间的空格,也可能出现姓名中存在数字符号、身份证号中出现汉字等问题。这种情况下,需要以半自动校验半人工方式来找出可能存在的问题,并去除不需要的字符。
    3、内容与该字段应有内容不符
    姓名写了性别,身份证号写了手机号等等,均属这种问题。 但该问题特殊性在于:并不能简单的以删除来处理,因为成因有可能是人工填写错误,也有可能是前端没有校验,还有可能是导入数据时部分或全部存在列没有对齐的问题,因此要详细识别问题类型。
    格式内容问题是比较细节的问题,但很多分析失误都是栽在这个坑上,比如跨表关联或VLOOKUP失败(多个空格导致工具认为“陈丹奕”和“陈 丹奕”不是一个人)、统计值不全(数字里掺个字母当然求和时结果有问题)、模型输出失败或效果不好(数据对错列了,把日期和年龄混了,so……)。因此,请各位务必注意这部分清洗工作,尤其是在处理的数据是人工收集而来,或者你确定产品前端校验设计不太好的时候……
    第三步:逻辑错误清洗
    这部分的工作是去掉一些使用简单逻辑推理就可以直接发现问题的数据,防止分析结果走偏。主要包含以下几个步骤:
    1、去重
    有的分析师喜欢把去重放在第一步,但我强烈建议把去重放在格式内容清洗之后,原因已经说过了(多个空格导致工具认为“陈丹奕”和“陈 丹奕”不是一个人,去重失败)。而且,并不是所有的重复都能这么简单的去掉……
    我曾经做过电话销售相关的数据分析,发现销售们为了抢单简直无所不用其极……举例,一家公司叫做“ABC管家有限公司“,在销售A手里,然后销售B为了抢这个客户,在系统里录入一个”ABC官家有限公司“。你看,不仔细看你都看不出两者的区别,而且就算看出来了,你能保证没有”ABC官家有限公司“这种东西的存在么……这种时候,要么去抱RD大腿要求人家给你写模糊匹配算法,要么肉眼看吧。
    上边这个还不是最狠的,请看下图:
    你用的系统里很有可能两条路都叫八里庄路,敢直接去重不?(附送去重小tips:两个八里庄路的门牌号范围不一样)
    当然,如果数据不是人工录入的,那么简单去重即可。
    2、去除不合理值
    一句话就能说清楚:有人填表时候瞎填,年龄200岁,年收入100000万(估计是没看见”万“字),这种的就要么删掉,要么按缺失值处理。这种值如何发现?提示:可用但不限于箱形图(Box-plot).
    3、修正矛盾内容
    有些字段是可以互相验证的,举例:身份证号是1101031980XXXXXXXX,然后年龄填18岁,我们虽然理解人家永远18岁的想法,但得知真实年龄可以给用户提供更好的服务啊(又瞎扯……)。在这种时候,需要根据字段的数据来源,来判定哪个字段提供的信息更为可靠,去除或重构不可靠的字段。
    逻辑错误除了以上列举的情况,还有很多未列举的情况,在实际操作中要酌情处理。另外,这一步骤在之后的数据分析建模过程中有可能重复,因为即使问题很简单,也并非所有问题都能够一次找出,我们能做的是使用工具和方法,尽量减少问题出现的可能性,使分析过程更为高效。

    第四步:非需求数据清洗
    这一步说起来非常简单:把不要的字段删了。
    但实际操作起来,有很多问题,例如:
    • 把看上去不需要但实际上对业务很重要的字段删了;
    • 某个字段觉得有用,但又没想好怎么用,不知道是否该删;
    • 一时看走眼,删错字段了。

    前两种情况我给的建议是:如果数据量没有大到不删字段就没办法处理的程度,那么能不删的字段尽量不删。第三种情况,请勤备份数据……
    第五步:关联性验证
    如果你的数据有多个来源,那么有必要进行关联性验证。例如,你有汽车的线下购买信息,也有电话客服问卷信息,两者通过姓名和手机号关联,那么要看一下,同一个人线下登记的车辆信息和线上问卷问出来的车辆信息是不是同一辆,如果不是(别笑,业务流程设计不好是有可能出现这种问题的!),那么需要调整或去除数据。
    严格意义上来说,这已经脱离数据清洗的范畴了,而且关联数据变动在数据库模型中就应该涉及。但我还是希望提醒大家,多个来源的数据整合是非常复杂的工作,一定要注意数据之间的关联性,尽量在分析过程中不要出现数据之间互相矛盾,而你却毫无察觉的情况。
    以上,就是我对数据清洗过程的一个简单梳理。由于能力所限,难免挂一漏万,请各位不吝赐教,感谢。

    二、数据分析之前的各项准备工作

    数据分析团队各成员确定之后,将进行下一项工作,就是找到有价值的数据进行分析了。数据是分析的基础,因此数据的质量、数据的相关度、数据的维度等会影响数据分析的结果影,其中GIGO(垃圾进垃圾出)对于数据分析结果影响最大。

    1数据源选择

    数据分析团队面对大量的数据源,各个数据源之间交叉联系,各个数据域之间具有逻辑关系,各个产品统计口径不同,不同的时间段数值不同等。这一系列问题多会影响数据分析结果,因此确定数据源选择和数据整理至关重要。

    DBA可以基于数据分析需要,找到相关数据,建立一张数据宽表,将数据仓库的数据引入到这张宽表当中,基于一定的逻辑关系进行汇总计算。这张宽表作为数据分析的基础,然后再依据数据分析需要衍生出一些不同的表单,为数据分析提供干净全面的数据源。宽表一方面是用于集中相关分析数据,一方面是提高效率,不需要每次分析时都查询其他的数据表,影响数据仓库效率。

    2数据抽样选择

    简单的数据分析可以调用全体数据进行分析,数据抽样主要用于建模分析,抽样需考虑样本具有代表性,覆盖各种客户类型,抽样的时间也很重要,越近的时间窗口越有利于分析和预测。在进行分层抽样时,需要保证分成出来的样本比例同原始数据基本一致。

    3数据类型选择

    数据类型分为连续型和离散型,建模分析时需要确定数据类型。进行业务收入趋势分析、销售额预测分析、RFM分析时,一般采用连续型变量。信用评级、分类预测时一般采用离散变量。

    4缺失值处理

    数据分析过程中会面对很多缺失值,其产生原因不同,有的是由于隐私的原因,故意隐去。有的是变量本身就没有数值,有的是数据合并时不当操作产生的数据缺失。

    缺失值处理可以采用替代法(估值法),利用已知经验值代替缺失值,维持缺失值不变和删除缺失值等方法。具体方法将参考变量和自变量的关系以及样本量的多少来决定。

    5异常值检测和处理

    异常值对于某些数据分析结果影响很大,例如聚类分析、线性回归(逻辑回归)。但是对决策树、神经网络、SVM支持向量机影响较小。

    一般异常值是指明显偏离观测值的平均值,例如年龄为200岁,平均收入为10万元时,有个异常值为300万元。第一个异常值为无效异常值,需要删掉,但是第二个异常值可能属于有效异常值,可以根据经验来决定是否保留或删掉。

    6数据标准化

    数据标准化的目的是将不同性质、不同量级的数据进行指数化处理,调整到可以类比的范围。例如在建立逻辑回归模型时,性别的取值是0或以,但是收入取值可能就是0-100万,跨度较大,需要进行标准化。

    一般可以采用最佳/最大标准化(Min-Max标准化法)将数值定在0和1之间,便于计算。Z分数法和小数定标标准化法也可以采用。

    7数据粗分类(Categorization)处理

    归类和分类的目的是减少样本的变量,常有的方法由等间距分类,等频数分类。可以依据经验将自变量分成几类,分类的方法可以不同,建议采用卡方检验来决定采用哪种分类方法。连续型变量可以用WOE变化方法来简化模型,但降低了模型的可解释性。

    8变量选择

    数据分析过程中会面对成百上千的变量,一般情况下只有少数变量同目标变量有关,有助于提高预测精度。通常建模分析时,有意义的变量不会超过10-15个,称他们为强相关变量(聪明变量)。可以利用变量过滤器的方法来选择变量。常见的变量过滤器应用场景如下。

     


    三、数据分析过程

    1向业务部门进行调研,了解业务需要解决的问题,将业务问题映射成数据分析工作和任务

    2调研企业内外部数据,找到分析需要的数据,将数据汇聚到一个特定的区域,数据集市或数据仓库,探索性分析

    3数据清洗,包括检查数据的一致性,处理异常值和缺失值,删除重复数据等

    4数据转换,例如数据分箱(Binning),将字符型变量转化为数字型变量,按照数据所需维度进行汇总

    5建立模型,按照业务需求建立不同模型(例如客户流失预警、欺诈检测、购物篮分析、营销响应等)

    6模型结果解释和评估,业务专家进行业务解释和结果评价

    四、大数据分析场景和模型应用

    数据分析建模需要先明确业务需求,然后选择是描述型分析还是预测型分析。如果分析的目的是描述客户行为模式,就采用描述型数据分析,描述型分析就考虑关联规则、序列规则、聚类等模型。

    预测型数据分析就是量化未来一段时间内,某个事件的发生概率。有两大预测分析模型,分类预测和回归预测。常见的分类预测模型中,目标变量通常都是二元分类变量例如欺诈与否,流失与否,信用好坏等。回归预测模型中,目标变量通常都是连续型变量,常见的有股票价格预测、违约损失率预测(LGD)等。

    生存分析聚焦于将事件的结果和出现这一结果所经历的时间进行分析,源于医疗领域,研究患者治疗后的存活时间。生存分析可也可以用于预测客户流失时间,客户下次购买时间,客户违约时间,客户提前偿还贷款时间,客户下次访问网站时间等。

    常见的数据分析应用场景如下

    1市场营销

    营销响应分析建模(逻辑回归,决策树)

    净提升度分析建模(关联规则)

    客户保有分析建模(卡普兰梅尔分析,神经网络)

    购物蓝分析(关联分析Apriori)

    自动推荐系统(协同过滤推荐,基于内容推荐,基于人口统计推荐,基于知识推荐,组合推荐,关联规则)

    客户细分(聚类)

    流失预测(逻辑回归)

    2风险管理

    客户信用风险评分(SVM,决策树,神经网络)

    市场风险评分建模(逻辑回归和决策树)

    运营风险评分建模(SVM)

    欺诈检测(决策树,聚类,社交网络)

    五、数据模型评价的方法

    1AUC值判别法
     


    AUC小于0.7识别能力很弱

    AUC在0.7-0.8之间识别能力可接受

    AUC在0.8-0.9之间识别能力卓越

    AUC大于0.9模型出现意外

    2KS判别法

    KS值大于0.2就表示具有较好的可预测性

    本文大部分内容来源于BartBaesens所著《AnalysisinaBigDataWorld:TheEssentialGuidetoDataScienceanditsApplications》。中文书名为《大数据分析数据科学应用场景与实践精髓》柯晓燕张纪元翻译

    展开全文
  • 数据挖掘-数据清理-噪声数据

    千次阅读 2019-04-16 22:40:00
    数据清理-噪声数据 数据清理例程试图填充缺失的值、光滑噪声并识别离群点、纠正数据中的不一致。 噪声数据 噪声(noise)是被测量的变量的随机误差或方差。光滑数据,去除噪声方法如下。 1.分箱(binning) ...

    数据清理-噪声数据

    数据清理例程试图填充缺失的值、光滑噪声并识别离群点、纠正数据中的不一致。

    噪声数据

    噪声(noise)是被测量的变量的随机误差或方差。光滑数据,去除噪声方法如下。

    1.分箱(binning)

    分箱方法通过考察数据的近邻(即周围的值)来光滑有序数据值。这些有序的值被分不到一些桶或箱中。由于分箱方法考察近邻的值,因此它进行局部光滑。
    对于用箱均值光滑,箱中每一个值都被替换为箱中的均值。
    用箱中位数光滑,此时,箱中的每一个值都被替换为该箱的中位数。
    对于用箱边界光滑,给定箱中的最大和最小值同样被视为箱边界,而箱中的每一个值都被替换为最近的边界值。
    一般而言,宽度越大,光滑效果越明显。箱也可以是等宽的,其中每个箱值的区间范围是常量。分箱也可以作为一种离散化技术使用。

    2.回归(regression)

    也可以用一个函数拟合数据来光滑数据,这种技术称为回归。线性回归涉及找出拟合两个属性(或变量)的最佳直线,使得一个属性可以用来预测另一个。多元线性回归是线性回归的扩充,其中涉及的属性多于两个,并且数据拟合到一个多维曲面。

    3.离群点分析(outlier analysis)

    可以通过如聚类来检测离群点。聚类将类似的值组织成群或簇。直观地,落在簇集合之外的值被视为离群点。

     

    转载于:https://www.cnblogs.com/EnzoDin/p/10720633.html

    展开全文
  • Kafka数据清理配置

    千次阅读 2018-01-15 13:10:54
    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。 数据清理的方式 删除 log.cleanup.policy=delete启用删除策略 直接删除,删除后的消息不可恢复。可配置以下两...

    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。

    数据清理的方式

    删除

    log.cleanup.policy=delete启用删除策略
    直接删除,删除后的消息不可恢复。可配置以下两个策略:
    清理超过指定时间清理:
    log.retention.hours=16
    超过指定大小后,删除旧的消息:
    log.retention.bytes=1073741824

    解释:log.retention.bytes为topic每个分区的最大文件大小,一个topic的大小限制 =分区数*log.retention.bytes。-1没有大小限制,log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖

    为了避免在删除时阻塞读操作,采用了copy-on-write形式的实现,删除操作进行时,读取操作的二分查找功能实际是在一个静态的快照副本上进行的,这类似于Java的CopyOnWriteArrayList。

    压缩

    将数据压缩,只保留每个key最后一个版本的数据。
    首先在broker的配置中设置log.cleaner.enable=true启用cleaner,这个默认是关闭的。
    在topic的配置中设置log.cleanup.policy=compact启用压缩策略。

    压缩策略的细节

    这里写图片描述
    如上图,在整个数据流中,每个Key都有可能出现多次,压缩时将根据Key将消息聚合,只保留最后一次出现时的数据。这样,无论什么时候消费消息,都能拿到每个Key的最新版本的数据。
    压缩后的offset可能是不连续的,比如上图中没有5和7,因为这些offset的消息被merge了,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,比如,当试图获取offset为5的消息时,实际上会拿到offset为6的消息,并从这个位置开始消费。
    这种策略只适合特俗场景,比如消息的key是用户ID,消息体是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
    压缩策略支持删除,当某个Key的最新版本的消息没有内容时,这个Key将被删除,这也符合以上逻辑。

    转自:http://blog.csdn.net/honglei915/article/details/49683065

    展开全文
  • kafka数据清理

    千次阅读 2018-04-12 10:49:57
    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。数据清理的方式删除log.cleanup.policy=delete启用删除策略直接删除,删除后的消息不可恢复。可配置以下两个策略:...


    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。

    数据清理的方式

    删除

    log.cleanup.policy=delete启用删除策略
    直接删除,删除后的消息不可恢复。可配置以下两个策略:
    清理超过指定时间清理:  
    log.retention.hours=16
    超过指定大小后,删除旧的消息:
    log.retention.bytes=1073741824
    为了避免在删除时阻塞读操作,采用了copy-on-write形式的实现,删除操作进行时,读取操作的二分查找功能实际是在一个静态的快照副本上进行的,这类似于Java的CopyOnWriteArrayList。

    压缩

    将数据压缩,只保留每个key最后一个版本的数据。
    首先在broker的配置中设置log.cleaner.enable=true启用cleaner,这个默认是关闭的。
    在topic的配置中设置log.cleanup.policy=compact启用压缩策略。

    压缩策略的细节

    如上图,在整个数据流中,每个Key都有可能出现多次,压缩时将根据Key将消息聚合,只保留最后一次出现时的数据。这样,无论什么时候消费消息,都能拿到每个Key的最新版本的数据。
    压缩后的offset可能是不连续的,比如上图中没有5和7,因为这些offset的消息被merge了,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,比如,当试图获取offset为5的消息时,实际上会拿到offset为6的消息,并从这个位置开始消费。
    这种策略只适合特俗场景,比如消息的key是用户ID,消息体是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
    压缩策略支持删除,当某个Key的最新版本的消息没有内容时,这个Key将被删除,这也符合以上逻辑。

     

    Kafka 的详细介绍请点这里
    Kafka 的下载地址请点这里

     

    本文永久更新链接地址http://www.linuxidc.com/Linux/2014-07/104470.htm

     

    linux

    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。

    数据清理的方式

    删除

    log.cleanup.policy=delete启用删除策略
    直接删除,删除后的消息不可恢复。可配置以下两个策略:
    清理超过指定时间清理:  
    log.retention.hours=16
    超过指定大小后,删除旧的消息:
    log.retention.bytes=1073741824
    为了避免在删除时阻塞读操作,采用了copy-on-write形式的实现,删除操作进行时,读取操作的二分查找功能实际是在一个静态的快照副本上进行的,这类似于Java的CopyOnWriteArrayList。

    压缩

    将数据压缩,只保留每个key最后一个版本的数据。
    首先在broker的配置中设置log.cleaner.enable=true启用cleaner,这个默认是关闭的。
    在topic的配置中设置log.cleanup.policy=compact启用压缩策略。

    压缩策略的细节

    如上图,在整个数据流中,每个Key都有可能出现多次,压缩时将根据Key将消息聚合,只保留最后一次出现时的数据。这样,无论什么时候消费消息,都能拿到每个Key的最新版本的数据。
    压缩后的offset可能是不连续的,比如上图中没有5和7,因为这些offset的消息被merge了,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,比如,当试图获取offset为5的消息时,实际上会拿到offset为6的消息,并从这个位置开始消费。
    这种策略只适合特俗场景,比如消息的key是用户ID,消息体是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
    压缩策略支持删除,当某个Key的最新版本的消息没有内容时,这个Key将被删除,这也符合以上逻辑。

     

    Kafka 的详细介绍请点这里
    Kafka 的下载地址请点这里

     

    本文永久更新链接地址http://www.linuxidc.com/Linux/2014-07/104470.htm

     

    linux
    展开全文
  • 数据预处理的主要步骤:数据清理、数据集成、数据归约和数据变换。 数据清理:例程通过填写缺失的值,光滑噪声数据、识别或删除离群点,并解决不一致性来“清理”数据。数据集成:集成多个数据库、数据立方体或文件...
  • HDFS上磁盘数据清理

    千次阅读 2017-04-14 08:31:02
    HDFS数据清理一些办法: datanode数据做reblance 清理临时目录、日志目录文件 全量分区表历史分区清理 使用lzo,orc格式进行数据压缩 清理或者归档历史冷数据 增加datanode横向扩容 附上自动清理目录下过期的...
  • pinpoint,HBase数据清理

    2020-04-29 20:18:46
    文章目录HBASE数据清理HBase shell查看表信息查看表描述如果修改表信息 HBASE数据清理 pinpoint使用HBASE储存数据,对于HBase进行数据清理。 HBase shell 进入HBASE目录,执行如下命令,进入shell bin/hbase shell ...
  • 四、数据清理 原文:DS-100/textbook/notebooks/ch04 译者:飞龙 协议:CC BY-NC-SA 4.0 自豪地采用谷歌翻译 数据以多种格式出现,并且在分析的实用性方面差别很大。尽管我们希望,我们所有的数据都以...
  • 数据预处理_数据清理(缺失值、噪声等详细处理)

    万次阅读 多人点赞 2018-08-11 10:57:21
    - - 数据清理:可以用来清楚数据中的噪声,纠正不一致。  - - 数据集成:将数据由多个数据源合并成一个一致的数据存储,如数据仓库。  - - 数据归约:可以通过如聚集、删除冗余特征或聚类来降低数据的规模。  - -...
  • Python 数据清理实战

    千次阅读 多人点赞 2020-04-20 15:31:41
    Python数据清洗实战 含 常用工具、文件读写、数据表处理、数据转换、数据统计、数据预处理
  • 关于Redis的数据清理

    千次阅读 2018-07-29 16:04:40
    关于Redis的数据清理   我们数据平台中有使用Redis来给线上提供低延时(20毫秒以内)的高并发读写请求,其中最大的Redis使用了阿里云的Redis集群(256G),存储的记录超过10亿,Key的有效期设置为15天,每天写入...
  • 使用Excel表格进行数据清理

    千次阅读 2019-05-10 18:48:22
    有一些数据清理阶段遇到的小技巧,在此记录一下。 数据清理主要的工作步骤是:调整样式→删除重复值→处理缺失值→一致化处理→数据排序→异常值处理 打开Excel表之后乱码: 造成乱码的原因和编程中时常遇到的字符...
  • SkyWalking 数据清理机制(TTL)

    千次阅读 2021-01-18 16:06:03
    SkyWalking同时提供了数据清理机制,即我们采集的数据会保留多长时间。因为链路追踪这样的需求,大多数情况下只需要查找短时间内的数据,甚至是实时数据,那么我们就不需要长时间的保留采集到的数据。 配置 配置文件...
  • K3数据清理

    千次阅读 2011-08-01 09:35:25
    K3历史数据清理 有的K/3用户基础资料中客户达到了几千家,想把没有余额的客户清除掉,用K/3自身的功能是不能够清除的,但如果把历史数据清除后, 就可以删除这些没用的数据。 有的品牌代理的企业,做了几年后,...
  • ThingsBoard 数据清理

    千次阅读 2021-03-08 16:12:33
    有群友提问:tb中数据库积累的遥测数据太多后,怎么清理?这里记录分享一下! 功能介绍 在规则链的行动节点类型下的保存时间序列节点中有TTL功能(Time To Live 的缩写,指数据生存时间)。配置的**TTL单位.
  • 漫游Kafka之过期数据清理

    万次阅读 2015-11-06 15:40:56
    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。
  • Oracle垃圾数据清理相关问题

    千次阅读 2015-08-06 11:14:31
    垃圾数据清理,简单的说,就是删除不需要的那些数据,释放存储空间 最常用的就是delete命令、truncate命令,甚至是删除表空间重建,具体操作都很简单,不是本文的重点下面,总结几个垃圾数据清理常见的几个问题1、...
  • 基于这些见解,是时候通过数据清理将我们的数据集变为尖端形状 。 数据清理的步骤和技术将因数据集而异。因此,单个指南无法涵盖 您可能遇到的所有内容。 但是,本指南提供了可靠的起始框架 ,每次都可以使用。...
  • R数据清理与转换

    千次阅读 2016-05-01 15:45:23
    数据清理与转换 1缺失值得处理 #查看哪些地方是数据是缺失的 > which(is.na(a),arr.ind=TRUE) #删除空缺的数据 > a > which(is.na(a),arr.ind=TRUE)# 发现已经没有空缺的数据了  row col   which(x...
  • Python数据清理终极指南(2020版)

    千次阅读 2020-03-08 15:40:03
    作者 | Lianne & Justin译者 | 陆离出品 | AI科技大本营(ID:rgznai100)一般来说,我们在拟合一个机器学习模型或是统计模型之前,总是要进行数据清理...
  • pandas (三)数据清理的常用方法

    千次阅读 2020-05-29 16:15:23
    数据清理的常用方法 df.columns = ['a','b','c'] # 重命名列名 df.columns = df.columns.str.replace(' ', '_') # 列名空格换下划线 df.loc[df.AAA >= 5, ['BBB', 'CCC']] = 555 # 替换数据 df['pf'] = df.site_...
  • 数据清理工具OpenRefine(google refine)

    千次阅读 2018-04-25 11:42:48
    数据清理工具OpenRefine
  • - - 数据清理:可以用来清楚数据中的噪声,纠正不一致。 - - 数据集成:将数据由多个数据源合并成一个一致的数据存储,如数据仓库。 - - 数据归约:可以通过如聚集、删除冗余特征或聚类来降低数据的规模。 - - ...
  • Oracle数据清理存储过程

    千次阅读 2018-03-05 14:18:23
    /************************************... 功 能:清理数据,保留z_ddwpt表当天数据,保留z_his表三天数据,删除后要检查索引的状态  UNUSABLE后重建索引,以达到对表的分析  说 明:通过JOB任务每天晚上0点...
  • Python利用置信区间进行数据清理

    千次阅读 2018-07-24 16:02:02
    当我们利用python进行数据清理和筛选时,有时候一串数据的噪点很多,我们需要抽取一部分数据作为样本来进行分析,下面推荐一种基本的数据筛选方法,利用置信区间,例:样本满足正态分布。 置信区间:当给出某个估计...
  • 历史数据清理--方案

    千次阅读 2017-02-24 20:02:27
    1. 数据库历史数据清理   #创建历史表 create table ag_alert_record_history asselect * from ag_alert_record;   select * from ag_alert_record wheremessage_time between sysdate-90 and sysdate order by ...
  • 原文地址:Pythonic Data Cleaning With NumPy and Pandas原文作者:Malay Agarwal译文出自:掘金翻译计划本文永久链接:github....Python 式数据清理数据科学家花费大量时间清理数据集,将它们清理为可以...
  • ORACLE数据清理

    千次阅读 2007-05-29 11:39:00
    最近做用户现场的数据清理工作,每个表需要删除的数据有50万条左右,结果只删除了2个表的数据后就出现了连接不上的情况,而且删除的速度很慢,2个表的删除花了一个晚上的时间,最后发现是arch日志满了的原因, 于是删除了...
  • MongoDB大量数据清理方法

    千次阅读 2020-08-27 18:36:22
    文章目录MongoDB清理数据的方法TTL Indexcapped collectiondropremovedeleteMany大量数据删除性能最优化设置合理的删除粒度根据`_id` 删除过期数据回收空间 MongoDB清理数据的方法 TTL Index capped collection drop...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 382,933
精华内容 153,173
关键字:

数据清理