精华内容
下载资源
问答
  • 主要介绍了python 删除excel表格重复行,数据预处理操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  • 使用python删除excel表格重复行。 # 导入pandas包并重命名为pd import pandas as pd # 读取Excel中Sheet1中的数据 data = pd.DataFrame(pd.read_excel('test.xls', 'Sheet1')) # 查看读取数据内容 print(data) # ...
  • 如何标记重复数据: 比如有如下列: A B B A C 需要找出哪些数据是重复的,很简单:选中A列 — 格式 — 条件格式 — 公式 =countif(a$1:a1,a1)>1 — 格式设置成红色 重复的数据变红色了还有一种方法...

    如何标记重复数据:

    比如有如下列:

    A

    B

    B

    A

    C

    需要找出哪些数据是重复的,很简单:
    选中A列 — 格式 — 条件格式 — 公式 =countif(a$1:a1,a1)>1 — 格式设置成红色  
    重复的数据变红色了
    还有一种方法是在B列 输入:=countif(a$1:a1,a1)>1  回车,把公式往下拖即可。
    重复数据 会显示 TRUE

    数据查找

    使用vlookup函数

    删除重复数据

    在使用 Excel 时您可能经常需要把重复的记录删除掉。在 Excel 2003 里面如何做到这点呢?我们需要用到数据筛选的功能。

    1. 我们看下面这个例子。为了大家看得清楚,我把重复记录标出来了。
      收起这个图片 展开这个图片
      原始表格
    2. 选中所有记录,并且要把标题一起选中。
    3. 数据菜单-> 筛选 -> 高级筛选
      收起这个图片 展开这个图片
      高级筛选
    4. 弹出一个高级筛选对话框,你可以选在原有区域显示筛选结果,这样就会在原来的数据位置把重复记录删除。我更推荐你选将筛选结果复制到其他位置,这样会保留原来那张表(下面我们使用后者)。
      收起这个图片 展开这个图片
      高级筛选1
    5. 然后点复制到右边的彩色小按钮。
      收起这个图片 展开这个图片
      高级筛选2,复制到
    6. 选择复制到的位置。选中一个单元格就行。我们这里把它复制到原来表格下面一点位置。然后按那个彩色小按钮。
      收起这个图片 展开这个图片
      选中一个单元格
    7. 最重要的部分:把选择不重复的记录勾上。然后确定。
      收起这个图片 展开这个图片
      选择不重复的记录
    展开全文
  • 重复数据删除Python库 重复数据删除是一个python库,使用机器学习对结构化数据快速执行模糊匹配,重复数据删除和实体解析。 重复数据删除将帮助您: 从名称和地址的电子表格中删除重复的条目 将具有客户信息的...
  • 对Excel表格中的数据进行编辑,查询是否有重复数据对比等,
  • 不同表格查找重复数据VBA

    千次阅读 2018-12-25 13:50:54
    分析两个表格中对应列的重复情况。 Sub Match_Dec() '两个表格表格中的某一列为对应列,查找这两列中的重复记录和差异记录。 Dim ar As Long, br As Long, i As Integer, j As Integer, num As Integer 'ar/...

    分析两个表格中对应列的重复情况。

    Sub Match_Dec()
        '两个表格,表格中的某一列为对应列,查找这两列中的重复记录和差异记录。
        
        Dim ar As Long, br As Long, i As Integer, j As Integer, num As Integer
            'ar/br为行数,i为外层循环数控制,j为内层循环数控制
        Dim A_Range As Range, B_Range As Range
        Dim myFont As Font
        
        Set A_Range = Worksheets("Sheet4").UsedRange
        Set B_Range = Worksheets("Sheet5").UsedRange
        
        ar = A_Range.Rows.Count
        br = B_Range.Rows.Count
        
        num = 0
    '查找重复行
        
        For i = 1 To ar
            Debug.Print "第" & i; "行"
            For j = 1 To br
                If A_Range.Cells(i, 1) = B_Range.Cells(j, 1) Then
                    Debug.Print "第" & j; "行为重复行"
    '                'myRange.Cells(i, 1).EntireRow.Delete shift:=xlShiftUp 'xlShiftToLeft
    '
                    Set myFont = A_Range.Cells(i, 1).EntireRow.Font
                    'Set myFont = B_Range.Cells(j, 1).EntireRow.Font
                    With myFont
                    .Name = "楷体"
                    .Size = 15
                    .Bold = True
                    .Italic = True
                    .Color = RGB(255, 0, 0)
                    .Strikethrough = True '水平删除线
                    .Underline = xlUnderlineStyleNone 'xlUnderlineStyleSingle 'xlUnderlineStyleDouble
                    .Shadow = False  '是/否无变化??
                    .Subscript = False
                    .Superscript = False
                    '具体属性设置参看:https://docs.microsoft.com/zh-cn/office/vba/api/excel.xlpattern
                    End With
                    
                    num = num + 1
                End If
             Next
        Next
        
        Debug.Print "共有" & num & "重复行"
    End Sub
    
    展开全文
  • sqlServer删除重复数据

    2013-08-12 16:40:07
    有两个意义上的重复记录,一是完全重复的记录,也即所有字段均重复的记录,二是部分关键字段重复的记录,比如Name字段重复,而其他字段不一定重复或都重复可以忽略。
  • power BI中删除表格重复行步骤

    千次阅读 2020-05-24 19:45:59
    由于种种原因导入power BI的数据存在重复行,需要删除,步骤如下: (1)“开始”-“编辑查询”:此时会新打开一个窗口 (2)在新窗口中“选中目标列表头区域右键”-“删除重复项” 此时删除的是全表的重复行。 .....

    由于种种原因导入power BI的数据存在重复行,需要删除,步骤如下:
    (1)“开始”-“编辑查询”:此时会新打开一个窗口
    在这里插入图片描述

    (2)在新窗口中“选中目标列表头区域右键”-“删除重复项”
    在这里插入图片描述此时删除的是全表的重复行。

    展开全文
  • 重复数据删除将帮助您:从名称和地址的电子表格中删除重复的条目,即使没有唯一的客户ID,也可以将带有客户信息的列表链接到具有订单历史记录的列表中,以获取广告系列贡献的数据库,并找出由同一个人做出的贡献,...
  • 删除表中重复数据 删除表中重复数据 删除表中重复数据
  • 第一步删除phoenix中系统的表格信息,主要为SYSTEM.CATALOG,第二步删除Hbase中的表格信息。操作步骤: (1)查询phoenix系统表 SYSTEM.CATALOG 内容是所有表格的信息,系统表和自建表SYSTEM.FUNCTION 内容是...

    操作过程:
    第一步删除phoenix中系统的表格信息,主要为SYSTEM.CATALOG,第二步删除Hbase中的表格信息。

    操作步骤:
    (1)查询phoenix系统表
    这里写图片描述
    SYSTEM.CATALOG 内容是所有表格的信息,系统表和自建表

    SYSTEM.FUNCTION 内容是所有函数信息,系统函数和自定义函数

    SYSTEM.SEQUENCE 我也不知道

    SYSTEM.STATS 内容是所有表格的最后状态信息

    (2)查询SYSTEM.CATALOG表结构
    这里写图片描述

    (3)我要删除的表格
    DELETE from SYSTEM.CATALOG where TABLE_NAME = ‘USER_DETAILS’;
    这里写图片描述

    (4)查询SYSTEM.STATS表结构
    这里写图片描述

    (5)删除Hbase中的表格
    这里写图片描述

    (6)重新建表以及查询
    这里写图片描述

    0: jdbc:phoenix:localhost:2181> drop table USER_DETAILS;
    16/07/21 14:38:15 WARN ipc.CoprocessorRpcChannel: Call failed on IOException
    org.apache.hadoop.hbase.DoNotRetryIOException: org.apache.hadoop.hbase.DoNotRetryIOException: USER_DETAILS: 36
    	at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:87)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1469)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService.callMethod(MetaDataProtos.java:11725)
    	at org.apache.hadoop.hbase.regionserver.HRegion.execService(HRegion.java:7796)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execServiceOnRegion(RSRpcServices.java:1988)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execService(RSRpcServices.java:1970)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$2.callBlockingMethod(ClientProtos.java:33652)
    	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
    	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: java.lang.ArrayIndexOutOfBoundsException: 36
    	at org.apache.phoenix.schema.PTableImpl.init(PTableImpl.java:403)
    	at org.apache.phoenix.schema.PTableImpl.<init>(PTableImpl.java:315)
    	at org.apache.phoenix.schema.PTableImpl.makePTable(PTableImpl.java:303)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.getTable(MetaDataEndpointImpl.java:883)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.buildTable(MetaDataEndpointImpl.java:501)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.doDropTable(MetaDataEndpointImpl.java:1489)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1442)
    	... 10 more
    
    	at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
    	at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
    	at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
    	at java.lang.reflect.Constructor.newInstance(Constructor.java:422)
    	at org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:106)
    	at org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:95)
    	at org.apache.hadoop.hbase.protobuf.ProtobufUtil.getRemoteException(ProtobufUtil.java:327)
    	at org.apache.hadoop.hbase.protobuf.ProtobufUtil.execService(ProtobufUtil.java:1624)
    	at org.apache.hadoop.hbase.ipc.RegionCoprocessorRpcChannel$1.call(RegionCoprocessorRpcChannel.java:92)
    	at org.apache.hadoop.hbase.ipc.RegionCoprocessorRpcChannel$1.call(RegionCoprocessorRpcChannel.java:89)
    	at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:126)
    	at org.apache.hadoop.hbase.ipc.RegionCoprocessorRpcChannel.callExecService(RegionCoprocessorRpcChannel.java:95)
    	at org.apache.hadoop.hbase.ipc.CoprocessorRpcChannel.callMethod(CoprocessorRpcChannel.java:56)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService$Stub.dropTable(MetaDataProtos.java:11925)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl$9.call(ConnectionQueryServicesImpl.java:1480)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl$9.call(ConnectionQueryServicesImpl.java:1466)
    	at org.apache.hadoop.hbase.client.HTable$15.call(HTable.java:1797)
    	at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: org.apache.hadoop.hbase.ipc.RemoteWithExtrasException(org.apache.hadoop.hbase.DoNotRetryIOException): org.apache.hadoop.hbase.DoNotRetryIOException: USER_DETAILS: 36
    	at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:87)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1469)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService.callMethod(MetaDataProtos.java:11725)
    	at org.apache.hadoop.hbase.regionserver.HRegion.execService(HRegion.java:7796)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execServiceOnRegion(RSRpcServices.java:1988)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execService(RSRpcServices.java:1970)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$2.callBlockingMethod(ClientProtos.java:33652)
    	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
    	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: java.lang.ArrayIndexOutOfBoundsException: 36
    	at org.apache.phoenix.schema.PTableImpl.init(PTableImpl.java:403)
    	at org.apache.phoenix.schema.PTableImpl.<init>(PTableImpl.java:315)
    	at org.apache.phoenix.schema.PTableImpl.makePTable(PTableImpl.java:303)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.getTable(MetaDataEndpointImpl.java:883)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.buildTable(MetaDataEndpointImpl.java:501)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.doDropTable(MetaDataEndpointImpl.java:1489)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1442)
    	... 10 more
    
    	at org.apache.hadoop.hbase.ipc.RpcClientImpl.call(RpcClientImpl.java:1268)
    	at org.apache.hadoop.hbase.ipc.AbstractRpcClient.callBlockingMethod(AbstractRpcClient.java:226)
    	at org.apache.hadoop.hbase.ipc.AbstractRpcClient$BlockingRpcChannelImplementation.callBlockingMethod(AbstractRpcClient.java:331)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$BlockingStub.execService(ClientProtos.java:34118)
    	at org.apache.hadoop.hbase.protobuf.ProtobufUtil.execService(ProtobufUtil.java:1620)
    	... 13 more
    16/07/21 14:38:15 WARN client.HTable: Error calling coprocessor service org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService for row \x00\x00USER_DETAILS
    java.util.concurrent.ExecutionException: org.apache.hadoop.hbase.DoNotRetryIOException: org.apache.hadoop.hbase.DoNotRetryIOException: USER_DETAILS: 36
    	at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:87)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1469)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService.callMethod(MetaDataProtos.java:11725)
    	at org.apache.hadoop.hbase.regionserver.HRegion.execService(HRegion.java:7796)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execServiceOnRegion(RSRpcServices.java:1988)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execService(RSRpcServices.java:1970)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$2.callBlockingMethod(ClientProtos.java:33652)
    	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
    	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: java.lang.ArrayIndexOutOfBoundsException: 36
    	at org.apache.phoenix.schema.PTableImpl.init(PTableImpl.java:403)
    	at org.apache.phoenix.schema.PTableImpl.<init>(PTableImpl.java:315)
    	at org.apache.phoenix.schema.PTableImpl.makePTable(PTableImpl.java:303)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.getTable(MetaDataEndpointImpl.java:883)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.buildTable(MetaDataEndpointImpl.java:501)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.doDropTable(MetaDataEndpointImpl.java:1489)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1442)
    	... 10 more
    
    	at java.util.concurrent.FutureTask.report(FutureTask.java:122)
    	at java.util.concurrent.FutureTask.get(FutureTask.java:192)
    	at org.apache.hadoop.hbase.client.HTable.coprocessorService(HTable.java:1809)
    	at org.apache.hadoop.hbase.client.HTable.coprocessorService(HTable.java:1765)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl.metaDataCoprocessorExec(ConnectionQueryServicesImpl.java:1196)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl.metaDataCoprocessorExec(ConnectionQueryServicesImpl.java:1176)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl.dropTable(ConnectionQueryServicesImpl.java:1465)
    	at org.apache.phoenix.schema.MetaDataClient.dropTable(MetaDataClient.java:2304)
    	at org.apache.phoenix.schema.MetaDataClient.dropTable(MetaDataClient.java:2226)
    	at org.apache.phoenix.jdbc.PhoenixStatement$ExecutableDropTableStatement$1.execute(PhoenixStatement.java:860)
    	at org.apache.phoenix.jdbc.PhoenixStatement$2.call(PhoenixStatement.java:338)
    	at org.apache.phoenix.jdbc.PhoenixStatement$2.call(PhoenixStatement.java:326)
    	at org.apache.phoenix.call.CallRunner.run(CallRunner.java:53)
    	at org.apache.phoenix.jdbc.PhoenixStatement.executeMutation(PhoenixStatement.java:324)
    	at org.apache.phoenix.jdbc.PhoenixStatement.execute(PhoenixStatement.java:1345)
    	at sqlline.Commands.execute(Commands.java:822)
    	at sqlline.Commands.sql(Commands.java:732)
    	at sqlline.SqlLine.dispatch(SqlLine.java:808)
    	at sqlline.SqlLine.begin(SqlLine.java:681)
    	at sqlline.SqlLine.start(SqlLine.java:398)
    	at sqlline.SqlLine.main(SqlLine.java:292)
    Caused by: org.apache.hadoop.hbase.DoNotRetryIOException: org.apache.hadoop.hbase.DoNotRetryIOException: USER_DETAILS: 36
    	at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:87)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1469)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService.callMethod(MetaDataProtos.java:11725)
    	at org.apache.hadoop.hbase.regionserver.HRegion.execService(HRegion.java:7796)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execServiceOnRegion(RSRpcServices.java:1988)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execService(RSRpcServices.java:1970)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$2.callBlockingMethod(ClientProtos.java:33652)
    	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
    	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: java.lang.ArrayIndexOutOfBoundsException: 36
    	at org.apache.phoenix.schema.PTableImpl.init(PTableImpl.java:403)
    	at org.apache.phoenix.schema.PTableImpl.<init>(PTableImpl.java:315)
    	at org.apache.phoenix.schema.PTableImpl.makePTable(PTableImpl.java:303)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.getTable(MetaDataEndpointImpl.java:883)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.buildTable(MetaDataEndpointImpl.java:501)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.doDropTable(MetaDataEndpointImpl.java:1489)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1442)
    	... 10 more
    
    	at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
    	at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
    	at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
    	at java.lang.reflect.Constructor.newInstance(Constructor.java:422)
    	at org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:106)
    	at org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:95)
    	at org.apache.hadoop.hbase.protobuf.ProtobufUtil.getRemoteException(ProtobufUtil.java:327)
    	at org.apache.hadoop.hbase.protobuf.ProtobufUtil.execService(ProtobufUtil.java:1624)
    	at org.apache.hadoop.hbase.ipc.RegionCoprocessorRpcChannel$1.call(RegionCoprocessorRpcChannel.java:92)
    	at org.apache.hadoop.hbase.ipc.RegionCoprocessorRpcChannel$1.call(RegionCoprocessorRpcChannel.java:89)
    	at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:126)
    	at org.apache.hadoop.hbase.ipc.RegionCoprocessorRpcChannel.callExecService(RegionCoprocessorRpcChannel.java:95)
    	at org.apache.hadoop.hbase.ipc.CoprocessorRpcChannel.callMethod(CoprocessorRpcChannel.java:56)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService$Stub.dropTable(MetaDataProtos.java:11925)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl$9.call(ConnectionQueryServicesImpl.java:1480)
    	at org.apache.phoenix.query.ConnectionQueryServicesImpl$9.call(ConnectionQueryServicesImpl.java:1466)
    	at org.apache.hadoop.hbase.client.HTable$15.call(HTable.java:1797)
    	at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: org.apache.hadoop.hbase.ipc.RemoteWithExtrasException(org.apache.hadoop.hbase.DoNotRetryIOException): org.apache.hadoop.hbase.DoNotRetryIOException: USER_DETAILS: 36
    	at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:87)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1469)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService.callMethod(MetaDataProtos.java:11725)
    	at org.apache.hadoop.hbase.regionserver.HRegion.execService(HRegion.java:7796)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execServiceOnRegion(RSRpcServices.java:1988)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execService(RSRpcServices.java:1970)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$2.callBlockingMethod(ClientProtos.java:33652)
    	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
    	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: java.lang.ArrayIndexOutOfBoundsException: 36
    	at org.apache.phoenix.schema.PTableImpl.init(PTableImpl.java:403)
    	at org.apache.phoenix.schema.PTableImpl.<init>(PTableImpl.java:315)
    	at org.apache.phoenix.schema.PTableImpl.makePTable(PTableImpl.java:303)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.getTable(MetaDataEndpointImpl.java:883)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.buildTable(MetaDataEndpointImpl.java:501)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.doDropTable(MetaDataEndpointImpl.java:1489)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1442)
    	... 10 more
    
    	at org.apache.hadoop.hbase.ipc.RpcClientImpl.call(RpcClientImpl.java:1268)
    	at org.apache.hadoop.hbase.ipc.AbstractRpcClient.callBlockingMethod(AbstractRpcClient.java:226)
    	at org.apache.hadoop.hbase.ipc.AbstractRpcClient$BlockingRpcChannelImplementation.callBlockingMethod(AbstractRpcClient.java:331)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$BlockingStub.execService(ClientProtos.java:34118)
    	at org.apache.hadoop.hbase.protobuf.ProtobufUtil.execService(ProtobufUtil.java:1620)
    	... 13 more
    Error: org.apache.hadoop.hbase.DoNotRetryIOException: USER_DETAILS: 36
    	at org.apache.phoenix.util.ServerUtil.createIOException(ServerUtil.java:87)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1469)
    	at org.apache.phoenix.coprocessor.generated.MetaDataProtos$MetaDataService.callMethod(MetaDataProtos.java:11725)
    	at org.apache.hadoop.hbase.regionserver.HRegion.execService(HRegion.java:7796)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execServiceOnRegion(RSRpcServices.java:1988)
    	at org.apache.hadoop.hbase.regionserver.RSRpcServices.execService(RSRpcServices.java:1970)
    	at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$2.callBlockingMethod(ClientProtos.java:33652)
    	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
    	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
    	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: java.lang.ArrayIndexOutOfBoundsException: 36
    	at org.apache.phoenix.schema.PTableImpl.init(PTableImpl.java:403)
    	at org.apache.phoenix.schema.PTableImpl.<init>(PTableImpl.java:315)
    	at org.apache.phoenix.schema.PTableImpl.makePTable(PTableImpl.java:303)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.getTable(MetaDataEndpointImpl.java:883)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.buildTable(MetaDataEndpointImpl.java:501)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.doDropTable(MetaDataEndpointImpl.java:1489)
    	at org.apache.phoenix.coprocessor.MetaDataEndpointImpl.dropTable(MetaDataEndpointImpl.java:1442)
    	... 10 more (state=08000,code=101)
    
    北京小辉微信公众号

    在这里插入图片描述

    大数据资料分享请关注
    展开全文
  • 重复数据删除将帮助您: 从姓名和地址的电子表格中删除重复条目 将包含客户信息的列表链接到另一个包含订单历史记录的列表,即使没有唯一的客户 ID 获取活动贡献的数据库并找出哪些是由同一个人制作的,即使为每条...
  • 前台JSP页面以表格展示数据的过程中出现了重复数据 渠道一列里,只出现在一个柜面即可。 问题解决: 1. 从前台的JSP页面到后台查看代码是没有出错的。 2. 渠道这一列的数据是通过联表查询转换而得的, ...
  • excel 删除重复数据,列数据

    千次阅读 2012-07-30 11:52:50
    大家在使用Excel表格总汇大批量数据时,难免会发现一些重复行和重复数据,这时我们就应该将那些重复的数据删除,以免会影响我们的工作,在Excel中删除重复数据和重复行的方法有N多,下面Word联盟(www.wordlm.com)...
  • Mongodb 删除重复数据的几个方法

    万次阅读 2017-07-10 17:52:41
    Mongodb 删除重复数据最近在处理一些专利数据,从专利局爬数据的时候,总会间隙性出现中断,为了保证数据的完整性就进行了一些重复下载。将数据从几万个Excel表格中导入Mongodb后,第一步就是要去掉重复数据。我...
  • sql server如何删除表中重复数据

    千次阅读 2018-08-25 21:39:18
    1.将查询到的无重复数据存入临时表中 2.删除原表的内容 3.将临时表插入到原表中 4.删除临时表 理解起来是比较简单的,这里举个例子 --创建表 CREATE TABLE AA( Id int, Name varchar(10) ) --为表添加信息 ...
  • pandas通常在读取excel数据之后,如果需要进行去重,有两种...(1)使用drop_duplicates(subset=None, keep=‘first’, inplace=False)删除重复项 参数解释: Parameters ---------- subset : column label or se...
  • 在使用Excel表格时,当Excel表格数据在数量庞大的情况下,输入重复数据在所难免。但为确保表格最终统计分析... 一、高级筛选 Excel自带的高级筛选功能,可以快速将数据列中的重复数据删除,并筛选保留不重复的数据...
  • excel表格同一单元格里删除重复

    千次阅读 2020-08-27 14:05:05
    转自知乎问题:同一个单元格里删除重复词,只保留一个唯一词怎么做 ? 如下图红框,有重复词:2个“舒缓”,3个“伤感”,效果是要删掉的词有:1个“舒缓”,2个“伤感”,只留下都是唯一词。 解决方案: 作者...
  • Mysql删除重复数据、比较两个表数据

    千次阅读 2018-10-25 15:20:59
    删除t_discredit_company_info表重复数据(t_discredit_company_info表数据重复) DELETE FROM t_discredit_company_info WHERE id IN ( SELECT * FROM ( SELECT id FROM t_discredit_company_info WHERE (company...
  • dataset中删除重复数据

    千次阅读 2012-04-06 16:15:34
    ///  /// 获取对固定列不重复的新DataTable ... /// 含有重复数据的DataTable  /// 需要验证重复的列名  /// 新的DataTable,colName列不重复,表格式保持不变  private DataTable GetDistinctTable(DataT
  • plsql查询、删除重复数据

    千次阅读 2013-07-24 16:37:00
    查询不重复数据 SELECT * FROM jnbus_zzfc_mx j WHERE j.ROWID IN (SELECT MAX(ROWID) FROM jnbus_zzfc_mx t GROUP BY t.driverid,...删除重复数据 DELETE FROM jnbus_zzfc_mx j WHERE j.ROWID NOT IN (S...
  • 需求是ajax将数据库数据回显到页面表格中,但是表格数据重复加载了两次。如图所示: 数据尚未处理完善,请忽略细节。以下是前台代码: 解决:删除或者添加标签。其实表格中是默认存在一套,标签的(即使不显式写出...
  • Oracle删除重复数据只留一条 查询及删除重复记录的SQL语句 1、查找表中多余的重复记录,重复记录是根据单个字段(Id)来判断 select*from表whereIdin(selectIdfrom表groupbyIdhavingcount(Id)>1) 2、删除表中...
  • Mysql删除表中重复数据,已解决

    万次阅读 2018-12-21 08:54:13
    如何快速删除数据表中重复【某个字段重复】的数据呢,比如我customer表中有一个cus_nmae字段,如果要删除cus_name字段的重复记录,且保留最小主键【这里customer的主键是cid】,首先想到的sql应该如下: DELETE ...
  • Excel查找筛选并删除重复数据

    千次阅读 2015-03-23 11:55:03
    Excel工作表的规模比较庞大、内容比较多,手工查找和删除重复数据很难做到“完全彻底”,Excel 2007几个新功能可以轻松解决这类问题。——1)标识重复数据 选中A列,单击“开始→条件格式→突出显示单元格规则→...
  • javascript动态添加删除表格数据管理

    千次阅读 2011-08-12 10:01:16
    本文和大家分享一下使用javascript动态添加删除表格数据管理,主要实现功能如下: 点击添加按钮可以添加一个空的可以修改的记录。 点击表格单元格可以修改文本。 修改后实现了保存的接口。 如果添加了新的...
  • 在录入众多数据之后,难免会有一些重复,对于这些重复数据可以高亮显示,如此一来就会提高工作效率,那么如何高亮重复项和删除重复项呢?下面有个不错的教程,全程为大家详细讲解一下。有不会的朋友可不要错过喽,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 75,487
精华内容 30,194
关键字:

怎么把表格重复的数据删除