精华内容
下载资源
问答
  • python3 大文件去重

    2021-03-18 11:38:48
    一、生成待去重数据每行是固定位数的数字串import osfrom random import randint#-- from u_工具 import *print("———— 开始 ————")#-- 打点()# 用来配置的变量位数 = 13行数 = 500 * 10000输出目录 = "./a_...

    一、生成待去重数据

    每行是固定位数的数字串

    import os

    from random import randint

    #-- from u_工具 import *

    print("———— 开始 ————")

    #-- 打点()

    # 用来配置的变量

    位数 = 13

    行数 = 500 * 10000

    输出目录 = "./a_输入"

    输出文件 = f"{输出目录}/随机数.txt"

    # 预处理

    _00 = "".join(["0" for i in range(位数 - 1)])

    _100 = "1" + _00

    最小值 = int(_100)

    _1000 = _100 + "0"

    最大值 = int(_1000)

    if not os.path.exists(输出目录):

    os.makedirs(输出目录)

    #-- 输出文件 = 文件名防重_追加数字(输出文件)

    # 实际处理

    with open(输出文件,"a") as f:

    for i in range(行数):

    f.write(f"{randint(最小值, 最大值)}\n")

    百分比 = (i+1) / 行数 * 100

    if 百分比 == int(百分比):

    print(f"已完成{int(百分比)}%")

    #-- 打点()

    #-- print(f"\n总耗时:{计时(0)}")

    print("———— 结束 ————")

    dc9906242f3dbfe443584da9fa6195c6.png

    187be67e05c85ec1ad466bdc7a1732ac.png

    二、通过set()按行去重

    1. 按原值比较

    (1)读取全部数据

    (2)用正则表达式来分行

    (3)通过set数据结构来去除重复数据

    (4)将set的数据写入文件

    import os

    import re

    #-- from u_工具 import *

    print("———— 开始 ————")

    #-- 打点()

    # 用来配置的变量

    输入目录 = "./a_输入"

    输出目录 = "./b_输出"

    输出文件 = f"{输出目录}/去重结果.txt"

    # 预处理

    # 目录不存在就手动建立

    if not os.path.exists(输出目录):

    os.makedirs(输出目录)

    if not os.path.exists(输入目录):

    os.makedirs(输入目录)

    #-- 输出文件 = 文件名防重_追加数字(输出文件)

    # 获取待去重文件

    待去重文件列表 = []

    待去重文件列表 = [f"{输入目录}/{i}" for i in os.listdir(输入目录)]

    #-- getDeepFilePaths(待去重文件列表,输入目录,"txt")

    print(f"\n总共{len(待去重文件列表)}个文件")

    # 实际处理

    all_lines = []

    文件个数 = 0

    for 文件 in 待去重文件列表:

    文件个数 += 1

    print(f"\n处理第{文件个数}个文件")

    #-- 打点()

    # (1)读全部

    with open(文件) as f:

    data = f.read()

    # (2)正则分行

    regx = '''[\w\~`\!\@\#\$\%\^\&\*\(\)\_\-\+\=\[\]\{\}\:\;\,\.\/\\?]+'''

    lines = re.findall(regx, data)

    all_lines.extend(lines)

    #-- 打点()

    #-- print(f"读取完毕,耗时:{计时()}")

    # (3)集合去重

    all_lines_set = set(all_lines)

    #-- 打点()

    #-- print(f"\n\n去重完毕,耗时:{计时()}")

    # (4)循环写入

    with open(输出文件,"a") as f_rst:

    for line in all_lines_set:

    f_rst.write(line + '\n')

    #-- 打点()

    #-- print(f"\n写入完毕,耗时:{计时()}")

    #-- 打点()

    #-- print(f"\n\n总耗时:{计时(0)}")

    print("———— 结束 ————")

    66a7dc999eee76e335851cfbb711fdd3.png

    ebb03be1772cfcfb60833d72ca52e0a7.png

    展开全文
  • 昨天无聊写了一个百度图片...好吧,今天写一个文件去重功能,贴上来。python3.6开发,在Windows下需要安装vc2015动态库。程序已经打包好,下载地址: http://pan.baidu.com/s/1bpalugf 密码:kfk4#/usr/bin/env pyth...

    昨天无聊写了一个百度图片爬虫,测试了一下搜索“斗图”。一下给我下了3000多个图片,关键是有一半以上重复的。what a fuck program !

    好吧,今天写一个文件去重功能,贴上来。

    python3.6开发,在Windows下需要安装vc2015动态库。程序已经打包好,下载地址: http://pan.baidu.com/s/1bpalugf 密码:kfk4

    #/usr/bin/env python

    #Guoyabin

    #-*- coding:utf-8 -*-

    import os,hashlib

    def filecount():

    filecount=int(os.popen('dir /B |find /V /C ""').read())

    return(filecount)

    def md5sum(filename):

    f=open(filename, 'rb')

    md5=hashlib.md5()

    while True:

    fb = f.read(8096)

    if not fb:

    break

    md5.update(fb)

    f.close()

    return (md5.hexdigest())

    def delfile():

    all_md5={}

    filedir=os.walk(os.getcwd())

    for i in filedir:

    for tlie in i[2]:

    if md5sum(tlie) in all_md5.values():

    os.remove(tlie)

    else:

    all_md5[tlie]=md5sum(tlie)

    if __name__=='__main__':

    keyword=input('

    请把本程序放到要去重的文件夹内,并按回车继续

    ')

    oldf=filecount()

    print('去重前有',oldf,'个文件

    请稍等正在为您删除重复文件...')

    delfile()

    print('

    去重后剩',filecount(),'个文件')

    print('

    一共帮您删除了',oldf-filecount(),'个文件

    ')

    keyword=input('请按回车退出')

    无耻的求一下赞助

    展开全文
  • shell两个文件去重的多种姿势前言大家都知道shell在文本处理上确有极大优势,比如多文本合并、去重等,但是最近遇到了一个难搞的问题,即两个大数据量文件去重。下面来看看详细的介绍吧。要求有txt文件A.txt和B.txt...

    shell两个文件去重的多种姿势

    前言

    大家都知道shell在文本处理上确有极大优势,比如多文本合并、去重等,但是最近遇到了一个难搞的问题,即两个大数据量文件去重。下面来看看详细的介绍吧。

    要求

    有txt文件A.txt和B.txt。

    其中A为关键词和搜索量,以逗号分隔,约90万行。

    B为关键词,约400万行。

    需要从A中找出与B重复的关键词。

    我试了N种姿势,但结果都不尽人意,最奇怪的是有些方法对小数据量的测试文件有用,一旦用在A与B上就会失败,真叫人百思不得其解。

    姿势一:

    awk -F, '{print $1}' A >keywords.txt

    cat keywords.txt B.txt | sort | uniq -d

    #先从A.txt种取出关键词,然后与B.txt一起打开,用sort排序,uniq -d 取出重复的行

    姿势二:

    awk -F, '{print $1}' A >keywords.txt

    #照例先取出关键词

    comm -1 -2 keywords.txt B.txt

    #利用comm命令,显示两个文件都存在的行

    姿势三:

    awk -F, '{print $1}' A >keywords.txt

    for i in `cat keywords.txt`

    do

    A=`egrep -c "^$i$" B.txt`

    if [ $A != 0 ]

    then

    echo $i >>重复关键词.txt

    fi

    done

    #这种姿势就稍微复杂点

    #首先取出关键词,然后利用for循环逐个去B.txt里面匹配(注意正则写法^$i$),如果匹配到的结果数不为0,说明这个关键词是重复的,然后输出

    #这种方法的优点是稳妥,缺点是效率太TM低了,90万个词逐一与400万词匹配,shell默认又没有多线程,耗时太长。

    姿势四:

    awk -F, '{print $1}' A >keywords.txt

    cat keywords.txt B.txt | awk '!a[$1]++'

    #这个方法的原理其实我不太懂,awk命令实在太强大太高深了,但是这种方法又简洁又快速

    其实还有一种grep -v 、grep -f的方法,但是我没有试过,所以不在这里列出了。

    总结

    以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流。

    时间: 2016-12-18

    本文详细介绍了使用shell去除文件中的空行的方法,学习下sed.awk.shell文件检测的方法,有需要的朋友可以作个参考. 本节内容:shell去掉文件中空行 1,shell 去掉文件中的空行 复制代码 代码如下: cat filename | sed -e '/^$/d' > filename 2,保留最新的9个文件,其它的文件删除的命令语句 复制代码 代码如下: ls -t | awk '{if(NR>9){print $0}}' |xargs rm -f 附,shell中的特殊变量

    核心代码 #!/bin/sh myPath="/var/log/httpd/" myFile="/var /log/httpd/access.log" #这里的-x 参数判断$myPath是否存在并且是否具有可执行权限 if [ ! -x "$myPath"]; then mkdir "$myPath" fi #这里的-d 参数判断$myPath是否存在 if [ ! -d "$myPath"]; then

    basename example.tar.gz .tar.gz # => example FILE="example.tar.gz" echo "${FILE%%.*}" # => example echo "${FILE%.*}" # => example.tar echo "${FILE#*.}" # => tar.gz echo "${FILE##*.}" # => gz

    获取单个文件行数 文件:test1.sh 行数:20 方法一 复制代码 代码如下: awk '{print NR}' test1.sh|tail -n1 如图所示: 方法二 复制代码 代码如下: awk 'END{print NR}' test1.sh 如图所示: 方法三 复制代码 代码如下: grep -n "" test1.sh|awk -F: '{print '}|tail -n1 如图所示: 方法四 复制代码 代码如下: sed -n '$=' test1.sh 如图所示: 方

    实现代码一. #!/bin/sh # 判断文件是否存在 # link:www.jb51.net # date:2013/2/28 myPath="/var/log/httpd/" myFile="/var /log/httpd/access.log" # 这里的-x 参数判断$myPath是否存在并且是否具有可执行权限 if [ ! -x "$myPath"]; then mkdir "$myPath" fi # 这里的-d

    Linux下文本处理工具很丰富很强大,例如这样一个文件: 复制代码 代码如下: cat log www.jb51.net 192.168.1.1www.jb51.net 192.168.1.1www.jb51.net 192.168.1.2ffffffffffffffffffffffffffffffffffffeeeeeeeeeeeeeeeeeeeefffffffffffffffffffeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeggggggggggggggg

    出现bad interpreter:No such file or directory的原因,是文件格式的问题.这个文件是在Windows下编写的.换行的方式与Unix不一样,但是在vim下面如果不Set一下又完全看不出来. 问题分析:1.将windows 下编写好的SHELL文件,传到linux下执行,提示出错.2.出错信息:bad interpreter: 没有那个文件或目录. 问题原因:因为操作系统是windows,在windows下编辑的脚本,所以有可能有不可见字符.脚本文件是DOS格式

    方法有很多,下面写出三种方法:写法一: 复制代码 代码如下: #!/bin/bashwhile read linedoecho $linedone < filename(待读取的文件) 写法二: 复制代码 代码如下: #!/bin/bashcat filename(待读取的文件) | while read linedoecho $linedone 写法三: 复制代码 代码如下: for line in `cat filename(待读取的文件)`doecho $linedone 说明:for逐行

    在Linux中有很多方法逐行读取一个文件的方法,其中最常用的就是下面的脚本里的方法,而且是效率最高,使用最多的方法.为了给大家一个直观的感受,我们将通过生成一个大的文件的方式来检验各种方法的执行效率. 方法1:while循环中执行效率最高,最常用的方法. 复制代码 代码如下: function while_read_LINE_bottm(){ While read LINE do echo $LINE done  < $FILENAME } 注释:我习惯把这种方式叫做read釜底抽薪,因为这种方

    脚本 first (测试示例1) first#!/bin/bashecho 'your are in first file' 方法一:使用source #!/bin/bashecho 'your are in second file'source first 方法二:使用. #!/bin/bashecho 'your are in second file'. first 方法三:使用sh#!/bin/bashecho 'your are in second file'sh  first

    脚本 first (测试示例1) 复制代码 代码如下: #!/bin/bash echo 'your are in first file' 问)在当前脚本文件中调用另外一个脚本文件? 方法一: 使用 source 脚本 second (测试示例2) 复制代码 代码如下: #!/bin/bash echo 'your are in second file' source first 方法二: 使用 . 脚本 second (测试示例3) 复制代码 代码如下: #!/bin/bash echo 'y

    比如我写了一个JS文件,这个文件需要调用另外一个JS文件,该如何实现呢?下面就总结下在js文件中引入另一个js文件的实现 方法一,在调用文件的顶部加入下例代码 function addScript(url){ document.write(""); } 注:有时你引用的文件还可能需要引用其他的js,我们需要将需要的那个js文件也以同样的方法引用进

    在Java,Python中,可以用import的方式来进行脚本或模块之间调用,例如: 复制代码 代码如下: >>> import math  >>> math.sqrt(4)  2.0 在Shell中要如何调用别的shell脚本,或别的脚本中的变量,函数呢? 方法一:   . ./subscript.sh      方法二:   source ./subscript.sh 注意: 1.两个点之间,有空格,千万注意. 2.两个脚本不在同一目录,要用绝对路径 3.为简单起见

    本文介绍在PowerShell脚本中,如何获取脚本文件(.ps1文件)所在的目录.本文介绍在方法适用于PowerShell 3.0. 在PowerShell 3.0中,有一个变量可以很方便的获取脚本所在的目录.我们在e:\ps\script1.ps1和script2.ps1,内容分别如下: script1.ps1内容: 复制代码 代码如下: Write-Host "This is script1.ps1" Write-Host "Let me call script2.ps1

    关于VS2008或VS2005中数据库配置字符串的三种取法 VS2008建立Form程序时,如果添加数据源会在配置文件 app.config中自动写入连接字符串,这个字符串将会在你利用DataSet,SqlDataAparter,SqlConnection等控件时如影随行地提示你让去选择,或者是新建字符串.如果要用代码的方式取得这个字符串则有三种方式: app.config内容: <?xml version="1.0" encoding="utf-8" ?&g

    方式一:Convert.ToDateTime(string) 复制代码 代码如下: Convert.ToDateTime(string) 注意:string格式有要求,必须是yyyy-MM-dd hh:mm:ss 方式二:Convert.ToDateTime(string, IFormatProvider) 复制代码 代码如下: DateTimeFormatInfo dtFormat = new System.GlobalizationDateTimeFormatInfo(); dtFormat

    1.使用find的参数实现 复制代码 代码如下: [root@xiaobb mnt]# find . -maxdepth 1 -size +1000000c./sys.tar.gz./install.tar.bz2./CTeX_2.9.0.152_Full.exe./php-5.3.6.tar.gz[root@xiaobb mnt]# ls -lhtotal 1.3G-rw-r--r-- 1 root root 1.1G 2011-04-28 11:35 CTeX_2.9.0.152_Full.

    前言 在使用webpack作为构建工具,开发 vue项目的时候,难免会用到 jquery这种第三方插件(毕竟都是从用jquery过来的),那么怎么引用呢?接下来我来说三种方法. 1 html 模板文件引用法,这种方法最直接也是我们最熟悉,直接在项目中的网页模板文件中加入jquery的引用即可 a.引用 b.使用 2 expose-loader 引用法 a. 安装jquery npm i jquery -D b. main.js中引用 jquery import Vue from 'vue' im

    假如有脚本 first.sh: #!/bin/bash #------------------ #@file:first.sh #------------------ echo 'your are in first file' 如何在其它Shell脚本中调用first.sh呢?主要有三种方法:source.点号以及sh命令. 1.source #!/bin/bash #--------------- #@file:second.sh #--------------- echo 'your are

    展开全文
  • linux 文件去重

    2021-03-03 09:49:51
    在查日志的时候经常会遇到文件去重,排序获得想要的结果,下面我们就来看看具体的案例: 文本行去重:测试文件 test.txt Hello World. Apple and Nokia. Hello World. I wanna buy an Apple device. The Iphone...

    在查日志的时候经常会遇到文件的去重,排序获得想要的结果,下面我们就来看看具体的案例:

    文本行去重:测试文件 test.txt

    Hello World.
    Apple and Nokia.
    Hello World.
    I wanna buy an Apple device.
    The Iphone of Apple company.
    Hello World.
    The Iphone of Apple company.
    My name is Friendfish.
    Hello World.
    Apple and Nokia.
    

    第一步:排序
    由于uniq命令只能对相邻行进行去重复操作,所以在进行去重前,先要对文本行进行排序,使重复行集中到一起。
    $ sort test.txt
    Apple and Nokia.
    Apple and Nokia.
    Hello World.
    Hello World.
    Hello World.
    Hello World.
    I wanna buy an Apple device.
    My name is Friendfish.
    The Iphone of Apple company.
    The Iphone of Apple company.

    第二步:去掉相邻的重复行
    $ sort test.txt | uniq
    Apple and Nokia.
    Hello World.
    I wanna buy an Apple device.
    My name is Friendfish.
    The Iphone of Apple company.

    第三步:文本行去重并按重复次数排序
    (1)首先,对文本行进行去重并统计重复次数(uniq命令加-c选项可以实现对重复次数进行统计。)。
    $ sort test.txt | uniq -c
    2 Apple and Nokia.
    4 Hello World.
    1 I wanna buy an Apple device.
    1 My name is Friendfish.
    2 The Iphone of Apple company.

    (2)对文本行按重复次数进行排序。
    sort -n可以识别每行开头的数字,并按其大小对文本行进行排序。默认是按升序排列,如果想要按降序要加-r选项(sort -rn)。
    $ sort test.txt | uniq -c | sort -rn
    4 Hello World.
    2 The Iphone of Apple company.
    2 Apple and Nokia.
    1 My name is Friendfish.

    (3)每行前面的删除重复次数。
    cut命令可以按列操作文本行。可以看出前面的重复次数占8个字符,因此,可以用命令cut -c 9- 取出每行第9个及其以后的字符。
    $ sort test.txt | uniq -c | sort -rn | cut -c 9-
    Hello World.
    The Iphone of Apple company.
    Apple and Nokia.
    My name is Friendfish.
    I wanna buy an Apple device.
     

    cut命令的使用,用法如下:
    
    cut -b list [-n] [file …]
    cut -c list [file …]
    cut -f list [-d delim][-s][file …]
    
    上面的-b、-c、-f分别表示字节、字符、字段(即byte、character、field);
    list表示-b、-c、-f操作范围,-n常常表示具体数字;
    file表示的自然是要操作的文本文件的名称;
    delim(英文全写:delimiter)表示分隔符,默认情况下为TAB;
    -s表示不包括那些不含分隔符的行(这样有利于去掉注释和标题)
    三种方式中,表示从指定的范围中提取字节(-b)、或字符(-c)、或字段(-f)。
    
    范围的表示方法:
    n 只有第n项
    n- 从第n项一直到行尾
    n-m 从第n项到第m项(包括m)
    -m 从一行的开始到第m项(包括m)
    - 从一行的开始到结束的所有项

    补充两个文件的排序操作:

    sort file1 file2 排序两个文件的内容 
    sort file1 file2 | uniq 取出两个文件的并集(重复的行只保留一份) 
    sort file1 file2 | uniq -u 删除交集,留下其他的行 
    sort file1 file2 | uniq -d 取出两个文件的交集(只留下同时存在于两个文件中的文件) 

    有这些就可以简单排序了,如有补充可以留言!
     

     

     

    展开全文
  • 本文实例讲述了Python实现的txt文件去重功能。分享给大家供大家参考,具体如下:# -*- coding:utf-8 -*-#! python2import shutila=0readDir = "/Users/Administrator/Desktop/old.txt" #oldwriteDir = "/Users/...
  • 用python对excel文件去重 代码: import pandas as pd import numpy as np df = pd.read_csv(r’C:\Users\小天使\Desktop\data\prod_to_rules_quchong.csv’) df.sort_values(‘retro_templates’,ascending=False)#...
  • Python办公自动化——8行代码实现文件去重

    千次阅读 多人点赞 2021-08-08 16:14:00
    Python办公自动化——8行代码实现文件去重 需求描述 上周突然接到一个任务,要通过XX网站导出XX年-XX年之间的数据,导出后的文件名就是对应日期,导出后发现,竟然有的文件大小是一样,但文件名又没有重复,所以...
  • 本篇文章主要内容是用PHP多个进程配合redis的有序集合实现大文件去重,感兴趣的朋友可以学习一下。1.对一个大文件比如我的文件为-rw-r–r– 1 ubuntu ubuntu 9.1G Mar 1 17:53 2018-12-awk-uniq.txt2.使用split命令...
  • 工作中偶尔会遇到文件去重的事情,收到一大堆文件,名称各不相同,分析文件的时候发现有不少重复的文件,导致工作效率低下,那么,这里就写了一个python脚本实现文件去重功能 工作原理 脚本会检查你给出的文件路径下...
  • ") print(datetime.now().strftime('%y-%m-%d %h:%m:%s')) if __name__ == "__main__": main() 以上这篇对python读写文件去重、re、set的使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家...
  • /*** 两个csv文件数据去重*/ public classCSVDeduplication {private static final String CSV_PATH = "I:\\";public static Listids(String path) { List result = new ArrayList(); File csv= new File(path); //...
  • 一、两个文件的交集、并集(前提条件:每个文件中不得有重复行)1. 取出两个文件的并集(重复的行只保留一份)cat file1 file2 | sort | uniq > file32. 取出两个文件的交集(只留下同时存在于两个文件中的文件)cat ...
  • 图片文件如果相同,md5是一样的。于是利用此进行图片去重。 import os import hashlib def get_md5(file): file = open(file, 'rb') md5 = hashlib.md5(file.read()) file.close() md5_values = md5.hexdigest...
  • 一、数据去重日常工作中,使用Hive或者Impala查询导出来可能会存在数据重复的现象,但又不想重新执行一遍查询(查询时间稍长,导出文件内容多),因此想到了使用Linux命令将文件的内容重复数据进行去除。案例如下:...
  • python对文件内容的去重 文章目录python对文件内容的去重前言实现步骤总结 前言 很多时候我们获取的数据存在大量重复,重复数据在进一步处理时会降低处理效率,且可能导致错误,因此内容去重是数据处理一个重要...
  • 对有序的大文件去重排序,首先确定文件大小,分割比例,直接上代码:#!/bin/bash#号是注释#文件名称,改为自己的实际文件路径#文件内容每行都类似 2ff9a2acc|8.0.0.168|Anc|6.1x64|2052|2018-01-25split_file_name...
  • 大家可能经常遇到文件内容排序去重处理的事情,使用 linux 命令可以很方便的处理,sort 命令在处理文件排序和去重中起着非常重要的左右,是文件处理的利器。比如有以下文件内容:pythontab....
  • 用Python给文件去重

    2021-10-14 13:42:23
    import sys list01 = [] file=sys.argv[1] newfile=sys.argv[2] for i in open(file): if i in list01: continue list01.append(i) with open(newfile, 'w') as handle: handle.writelines(list01) ...
  • awk ‘{print $1}‘ | sort | uniqcat filename读取一个文件awk ‘{print $1}‘ 以默认字符分割文件每一行内容,取第一个数据sort 对内容进行正序排序 sort -r 倒序 -n依照数值的大小排序uniq 对内容进行去重 ...
  • excel文件去重

    2021-11-30 10:28:52
    #导入pandas import ...保存去重后的数据到excel; data.to_excel('C:/Users/EFY/Desktop/11/处理后的数据.xls', encoding='gbk') #或者 #data.to_csv('C:/Users/EFY/Desktop/11/处理后的数据.csv', encoding='utf8')
  • 分析一般可能会想到一次将文本内容读取到内存中,用HashSet对内容去重,但是很不幸这个过程jvm会内存溢出,无奈,只能另想办法,首先将这个大文件中的内容读取出来,对每行String的hashCode取模取正整数,可用取模...
  • 存储文件时,为了节省存储空间,需要实现文件去重,即同一份文件只在服务器上存储一份。一种实现是文件上传后先落到应用服务器上,计算MD5并存储到数据库中,然后决定是否上传存储服务器。这样做的缺点是应用服务器...
  • csv文件合并、去重

    2021-05-06 20:22:42
    import pandas as pd import glob outputfile=r'G:\shiyabn\LZQ\1108_check\hebing.csv' ...print('共发现%s个CSV文件'% len(csv_list)) print('正在处理') def hebing(csv_list): for inputfile in csv_list: f
  • 实现两个文本内容去重,输出两个文本不重复的结果 两个测试文本内容如下 1.txt中内容为 1 2 3 4 5 6 7 8 2.txt中内容为 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 分别读取两个文本的内容 读取1.txt的内容,具体实现...
  • public class Test { /** * 功能:Java读取txt文件的内容 步骤:1:先获得文件句柄 2:获得文件句柄当做是输入一个字节码流,需要对这个输入流进行读取 * 3:读取到输入流后,需要读取生成字节流 4:一行一行的输出...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 78,581
精华内容 31,432
关键字:

文件去重