精华内容
下载资源
问答
  • Git文件过大(pack文件过大

    千次阅读 2019-04-24 17:17:26
    .git/objects/pack 文件过大 可能是由于开发过程中上传过大文件,虽然现已删除,但仍然保存着git记录中。 解决办法: 一、删除仓库上的项目,重新提交代码。 二、彻底清除历史记录 1.识别出最大的三个文件 git...

    .git/objects/pack 文件过大

    可能是由于开发过程中上传过大文件,虽然现已删除,但仍然保存着git记录中。

    解决办法:

    一、删除仓库上的项目,重新提交代码。

    二、彻底清除历史记录

    1.识别出最大的三个文件

    git verify-pack -v .git/objects/pack/pack-8eaeb...9e.idx | sort -k 3 -n | tail -3

    296169a146c50dbc100a5d0ee5be87a45cd7cbb3 blob   50296832 49474116 291684796
    
    aae2c1bf6109f2729502349722b4c3402626d755 blob   77762481 77330392 78759794
    
    35047899fd3b0dd637b0da2086e7a70fe27b1ccb blob   100534272 100014418 191670176
    

    2.查询大文件的文件名

    git rev-list --objects --all | grep 35047899fd3b0dd637b0da2086e7a70fe27b1ccb

    35047899fd3b0dd637b0da2086e7a70fe27b1ccb /wabapi/bulid/master-0.0.1.jar

    3.将该文件从历史记录的所有 tree 中移除

    git filter-branch --index-filter 'git rm --cached --ignore-unmatch  /wabapi/bulid/master-0.0.1.jar'

    4.执行如下语句

    rm -rf .git/refs/original/
     
    git reflog expire --expire=now --all
     
    git fsck --full --unreachable
     
    git repack -A -d
     
    git gc --aggressive --prune=now
     
    git push --force

     

    展开全文
  • 在电脑上拷贝文件到u盘时,特别是文件大于4个G时,就会提示文件过大无法拷贝,下面为具体解决方法: 方法 1 :当所拷贝的文件大于4个G时,就会提示文件过大无法拷贝的情况(如下图) 2: 当所拷贝的文件大于4...

    在电脑上拷贝文件到u盘时,特别是文件大于4个G时,就会提示文件过大无法拷贝,下面为具体解决方法:

    方法

    • 1 :当所拷贝的文件大于4个G时,就会提示文件过大无法拷贝的情况(如下图)

     

    2: 当所拷贝的文件大于4个G时,就会提示文件过大无法拷贝的情况

    3: 查看自己的U盘的属性,文件类型是FAT32类型,不能拷贝4个G大小以上文件

     

    4: 利用“Windows+R键”调出“运行”窗口(如下图)

    5: 接着输入“cmd”并点击“确定”(如下图)

     

    6: 然后输入命令“convert F:/fs:ntfs ”并点击键盘上的回车键,注意F为自己的U盘(如下图)

     

    7: 然后会对文件类型进行修改(如下图)

     

    8 : 修改成功后即可进行拷贝(如下图)

     

     

     

     

     

     

    展开全文
  • 解决catalina.out文件过大的问题

    万次阅读 2018-05-05 12:11:27
    有用Tomcat的人,绝对都会遇到这样一个问题:catalina.out文件过大。 它是Tomcat默认生成的日志文件,会随着时间的推移,逐渐增大,不断的增长,甚至达到几G,几十G的大小。由于文件过大,不仅占系统的存储,我们...

    前言

    有用Tomcat的,绝对都会遇到这样一个问题:catalina.out文件过大。

    它是Tomcat默认生成的日志文件,会随着时间的推移,逐渐增大,不断的增长,甚至达到几G,几十G的大小。由于文件过大,不仅占系统的存储,我们还将无法使用过常规的编辑工具进行查看,严重影响系统的维护工作。

    对此,出现了以下几种解决catalina.out文件过大的方案。


    暴力型


    除非不需要日志,否则不建议使用


    1.手动版
    每次监控到tomcat的硬盘空间变小达到阈值,手动登陆服务器,切换到tomcat的logs下,手动清空

    echo " "  > catalina.out
    

    2.脚本版
    编写脚本,放入计划任务中,定时清空

    crontab -e 
    0 24 * * *    sh /root/qin_catalina.out.sh
    
    vim qin_catalina.out.sh
     #!/usr/bin/bash 
     echo " " > catalina.out
    

    技术型


    1.日志切割工具版0.1

    使用cronolog日志切分工具切分Tomcat的catalina.out日志文件

    <1>下载cronolog,并进行安装

    wget http://cronolog.org/download/cronolog-1.6.2.tar.gz   (中国服务器可能无法下载或下载缓慢,可先下载到境外服务器上)
    
    tar zxvf cronolog-1.6.2.tar.gz
    
    ./cronolog-1.6.2/configure
    
    make
    
    make install
    
    (默认安装在/usr/local/sbin下)
    

    <2>.配置

    在tomcat/bin/catalian.sh中

    org.apache.catalina.startup.Bootstrap "$@" start \ >> "$CATALINA_BASE"/logs/catalina.out 2&1 &
    
    改成:
    org.apache.catalina.startup.Bootstrap"$@" start \ |/usr/local/sbin/cronolog "$CATALINA_BASE"/logs/catalina.%Y-%m-%d.out >> /dev/null 2>&1 &
    或
    org.apache.catalina.startup.Bootstrap   "$@"  start  2>&1  \   |  /usr/local/sbin/cronolog "$CATALINA_BASE"/logs/catalina.%Y-%m-%d.out >> /dev/null & 
    
    并注释    touch "$CATALINA_OUT"  
    

    <3>重启Tomcat
    Tomcat输出日志文件分割成功,输出log文件格式变为:catalina.2017-05-15.out


    1.日志切割工具版0.2

    CentOS6.5后自带logrotate程序,可以解决catalina.out的日志轮转问题

    <1>在/etc/logrotate.d/目录下新建一个tomcat的文件

    cat >/etc/logrotate.d/tomcat 
    
    /usr/local/tomcat/logs/catalina.out{            要轮转的文件
        copytruncate                                创建新的catalina.out副本,截断源catalina.out文件
        daily                                       每天进行catalina.out文件的轮转
        rotate 7                                    至多保留7个副本
        missingok                                   文件丢失了,轮转不报错
        compress                                    使用压缩
        size 500M                                    当catalina.out文件大于16MB,就轮转
    }
    

    其他参数:

    compress                                   通过gzip 压缩转储以后的日志
    nocompress                                 不做gzip压缩处理
    copytruncate                               用于还在打开中的日志文件,把当前日志备份并截断;是先拷贝再清空的方式,拷贝和清空之间有一个时间差,可能会丢失部分日志数据。
    nocopytruncate                             备份日志文件不过不截断
    create mode owner group                    轮转时指定创建新文件的属性,如create 0777 nobody nobody
    nocreate                                   不建立新的日志文件
    delaycompress                              和compress 一起使用时,转储的日志文件到下一次转储时才压缩
    nodelaycompress                            覆盖 delaycompress 选项,转储同时压缩。
    missingok                                  如果日志丢失,不报错继续滚动下一个日志
    errors address                             专储时的错误信息发送到指定的Email 地址
    ifempty                                    即使日志文件为空文件也做轮转,这个是logrotate的缺省选项。
    notifempty                                 当日志文件为空时,不进行轮转
    mail address                               把转储的日志文件发送到指定的E-mail 地址
    nomail                                     转储时不发送日志文件
    olddir directory                           转储后的日志文件放入指定的目录,必须和当前日志文件在同一个文件系统
    noolddir                                   转储后的日志文件和当前日志文件放在同一个目录下
    sharedscripts                              运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会执行一次脚本
    prerotate                                  在logrotate转储之前需要执行的指令,例如修改文件的属性等动作;必须独立成行
    postrotate                                 在logrotate转储之后需要执行的指令,例如重新启动 (kill -HUP) 某个服务!必须独立成
    daily                                      指定转储周期为每天
    weekly                                     指定转储周期为每周
    monthly                                    指定转储周期为每月
    rotate count                               指定日志文件删除之前转储的次数,0 指没有备份,5 指保留5 个备份
    dateext                                    使用当期日期作为命名格式
    dateformat .%s                             配合dateext使用,紧跟在下一行出现,定义文件切割后的文件名,必须配合dateext使用,只支持 %Y %m %d %s 这四个参数
    size(或minsize) log-size                   当日志文件到达指定的大小时才转储,log-size能指定bytes(缺省)及KB (sizek)

    <2>当执行以上操作时是自动执行的,也可手动切割

    logrotate /etc/logrotate.conf
    

    如果只轮转tomcat配置文件,要指定文件

    logrotate --force /etc/logrotate.d/tomcat
    

    <3>删除要清理的日志

    手工查找需要清理的日志文件

    cd /usr/local/tomcat/logs
    rm -rf catalina.out.4.gz
    

    2.日志切割脚本版

    使用cron每天来定时备份当前的catalina.out,然后清空他的内容;
    <1>crontab -e

    01 0 * * *  sh /root/qie_catalina.out.sh
    

    <2>cat qie_catalina.out.sh 参考脚本

     #!/bin/bash 
     DATE=`date "+%Y-%m-%d"`
    
    
    cp /etc/tomcat/logs/catalina.out  /etc/tomcat/logs/`catalina.out.$DATE`
    wait
    
    echo " " > catalina.out
    

    3.修改日志级别版

    日志级别:
    SEVERE (highest value) > WARNING > INFO > CONFIG > FINE > FINER > FINEST (lowest value)

    <1>修改conf/logging.properties日志配置文件,将level级别设置成WARNING减少日志的输出。也可以设置成OFF,直接禁用。
    
    catalina.org.apache.juli.FileHandler.level = WARNING
    
    catalina.org.apache.juli.FileHandler.directory = ${catalina.base}/logs
    
    catalina.org.apache.juli.FileHandler.prefix = catalina.
    
    展开全文
  • fastDFS上传文件过大

    千次阅读 2020-04-10 22:57:28
    在做项目时有一个上传文件的需求,文件过大时前端报错 413 Request Entity Too Large 解决步骤 1.百度后,因为项目使用了nginx负载均衡,需要修改nginx配置文件,找到nginx.conf文件在其中增加 client_max_body_...

    在做项目时有一个上传文件的需求,文件过大时前端报错

    413 Request Entity Too Large
    

    解决步骤

    1.百度后,因为项目使用了nginx负载均衡,需要修改nginx配置文件,找到nginx.conf文件在其中增加

    client_max_body_size 50m;//设置客户端请求体最大值
    client_body_buffer_size 10m;//配置请求体缓存区大小
    
    

    具体的位置查了下,放在http{}下或者server{}下好像没什么区别,http{}中没有就会自动加载代理的server{}下。

    可是,配置完后前端确实不报错了,后端又有问题了,后端接受不到请求了???

    2.继续百度,发现可能跟springboot配置的文件上传大小限制有关,于是去配置application.yml文件,扩大max-file-size和max-request-size。(springboot2.0是下面的配置,老版本将servlet换成http)

     spring: 
      servlet:
        multipart:
          #默认支持文件上传.
          enabled: true
          #支持文件写入磁盘.
          file-size-threshold: 0
          # 上传文件的临时目录
          location:
          # 最大支持文件大小
          max-file-size: 50MB
          # 最大支持请求大小
          max-request-size: 50MB
    

    如果配置文件觉得格式很麻烦,可以在启动类以代码形式配置

    @MapperScan("com.xxx.xxx.dao")
    @SpringBootApplication
    public class DemoApplication {
    
        public static void main(String[] args) {
            SpringApplication.run(DemoApplication .class, args);
        }
    
        @Bean
        public MultipartConfigElement multipartConfigElement() {
            MultipartConfigFactory factory = new MultipartConfigFactory();
            //文件最大
            factory.setMaxFileSize(DataSize.parse("50MB"));
            //设置总上传数据总大小
            factory.setMaxRequestSize(DataSize.parse("50MB"));
            return factory.createMultipartConfig();
        }
    }
    

    配置后 后端可以收到请求了,但是文件上传时又报错了…报错信息为

    java.netSocketTimeoutException:Read timed out
    

    3.根据报错信息知道是连接超时,我的需求是需要将文件上传到fastdfs文件系统中,然后将信息写入到mysql中,而因为文件过大,自然过程就慢了,所以需要去application.yml配置下连接池的超时时间

    spring:
      datasource:
        druid:
          url: jdbc:mysql://localhost:3306/alumnihome?serverTimezone=GMT%2B8
          username: root
          password: root
          driver-class-name: com.mysql.cj.jdbc.Driver
          initial-size: 5 #初始建立连接数量
          min-idle: 5 #最小连接数量
          max-active: 20  #最大连接数量
          max-wait: 10000 #获取连接最大等待时间,毫秒
          test-on-borrow: true  #申请连接时检测连接是否有效
          test-on-return: false #归还连接时检测连接是否有效
          time-between-eviction-runs-millis: 60000  #配置间隔检测连接是否有效的时间(单位是毫秒)
          min-evictable-idle-time-millis: 300000 #连接在连接池的最小生存时间(毫秒)
    

    将其中的min-evictable-idle-time-millis即 连接在连接池的最小生存时间增加,我直接加了个0,然后文件成功上传,解决问题~

    展开全文
  • 有时候在CAD制图过程中,我们可能会遇到CAD文件过大的问题,导致无法正常保存传输,可能会占用过多的存储空间。这时候该如何解决呢?小编今天给大家介绍一下几个超级好用的方法,解决CAD文件过大问题,减小CAD文件...
  • 解决git提交报错,提示文件过大,且去掉大文件也报同样的错误问题
  • 关于目标文件系统,文件过大的解决方法 拷贝电影到U盘时,发现出现了“对于目标文件系统,文件”xx“过大的情况,经查其实是U盘文件系统格式的问题,你的u盘或者是硬盘的文件系统格式为FAT32,这种格式最大只能支持...
  • crfclust.bdb文件过大处理

    千次阅读 2021-03-05 07:28:38
    crfclust.bdb文件过大ora.crf简介如何清理过大的文件 crfclust.bdb 文件是Oracle CRF 服务用于存储数据的文件,默认只存储一定时间数据,正常情况不会增长过大。但大家都知道,bug可以有无限可能。 ora.crf简介 CHM....
  • git文件过大,怎么办?

    千次阅读 2019-04-05 17:34:43
    最近遇到一个git文件过大的问题,针对这个问题进行了研究,在此与大家共享。 【探索之路】 一、问题 我们需要改造一个别的团队开发的系统;开始的时候将代码以及和代码相关的一些东西放到了我们的gitLab上;...
  • MongoDB日志文件过大

    千次阅读 2017-12-22 16:55:39
    MongoDB日志文件过大MongoDB启动的时候指定了–logpath为一个日志文件。随着时间此文件会变得越来越大,达到好几个G。 因为不想让MongoDB进程重新启动,所以不能停止进程删除此文件。解决的方法网上给方式有两种。...
  • 文件拷贝--单一文件过大

    千次阅读 2017-05-15 10:38:26
    在大文件拷贝到云盘、U盘时会遇到“文件过大”,无法完成拷贝的提示。这主要是因为所拷贝的介质采用的文件系统基于FAT32或仅能提供4G以内的免费上传服务,针对这种情况,一种有效的方法是将单一的大文件压缩成多个小...
  • Adobe Premiere导出文件过大的解决方法

    万次阅读 2018-09-22 17:02:33
    Adobe Premiere导出文件过大的解决方法 13248561
  • git目录下object文件过大清理

    千次阅读 2019-10-30 17:32:00
    今天发现gitlab上的程序竟然有几百兆,但是下载源码并没有那么大,最后发现是git文件夹下的pack文件过大,所以记录一下 (此处有个疑问,按照操作步骤,把多余的dist压缩文件的记录清掉了,但是还是很大,发现还存在...
  • Adobe Premiere导出文件过大

    千次阅读 2019-06-15 10:32:04
    Adobe Premiere软件用于视频剪辑,但是有时候导出文件过大。 解决方案:修改导出 格式:H.264; 目标比特率:2M; 目标比特率越高,画质越高,占存越大。 ...
  • SQL Server日志文件过大 大日志文件清理方法 ,网上提供了很多分离数据库——〉删除日志文件-〉附加数据库 的方法,此方法风险太大,过程也比较久,有时候也会出现分离不成功的现象。下面的方式是不需要做数据库分离...
  • u盘提示文件过大怎么办

    千次阅读 2018-04-08 10:01:50
    拷贝文件到u盘时,虽然还有足够空间,但u盘提示文件过大不能执行复制操作,问题很可能出在u盘格式上。fat32格式的u盘只能拷贝或者创建单个小于4g的文件,而ntfs格式的可以支持单个大小不超过2TB的文件,只要将fat32...
  • 如何处理.git文件过大

    千次阅读 2018-10-27 17:06:25
    如何处理.git文件过大 由于前阵子git上传了过大的文件,删除后,发现history里面还是有大文件(因为git有版本回退功能,所以将历史文件记录下来了),导致别人在clone的时候非常慢,我采用暴力清除方法,记录下...
  • redis AOF文件过大

    千次阅读 2017-08-08 17:08:43
    标redis AOF文件过大题最近新安装了一台redis,版本为redis-3.2.5数据盘用的是固态硬盘。之前用的是普通硬盘,redis日志天天报Asynchronous AOF fsync is taking too long (disk is busy?). Writing the AOF buffer ...
  • SpringBoot上传文件过大解决办法

    千次阅读 2019-04-24 17:39:41
    SpringBoot上传文件过大时会报如下错误: the request was rejected because its size (576134143) exceeds the configured maximum (52428800) 解决办法: 在启动类中加如下配置方法即可(具体大小可以自己决定...
  • @[springboot 记录一次MultipartFile文件上传时文件过大,捕获的异常无法抛给前端 MultipartFile文件上传时文件过大,捕获的异常无法抛给前端 如果是springboot 只需要在项目application.yml中配置: server: tomcat: ...
  • 1、组件按需加载 现在大多的ui库都是以组件的形式进行处理,所以只需导入需要模块的即可 2、去掉生成map文件 ...通过外部引入的方式引入这些UI组件库,从而减少打包文件过大的问题 (1)inde...
  • 使用pycharm打开一些大文件时,会出现上述提示,表明文件过大,只能以只读的方式显示前一小部分内容,这种情况显然是非常不方便的,想要将文件全部显示,就需要修改pycharm的配置文件。 首先找到pycharm的安装路径...
  • 对于目标文件系统,文件过大无法复制到u盘的解决方案:  原因分析:文件系统差异造成的传输失败! 1、格式化 (1)、 (2)  (3) (4)完成,可以复制 2、使用转换方式将u盘文件系统转换为可以...
  • 文件过大,无法复制

    千次阅读 2015-01-09 11:11:38
    轻松战胜“文件过大无法复制”
  • 博主最近在写laravel+vue+element的一个项目,因为不是很了解webpack所以踩了不少坑,其中就有vue单文件过大问题,于是在这里记录下解决方法。 主要思路是分为两点。 减少webpack打包体积,将不用修改的库用cdn...
  • outlook2010 pst文件过大解决办法

    千次阅读 2020-03-24 11:45:56
    outlook pst文件过大解决方法 ******运维的日常 *定位合肥 #相信很多小伙伴在刚刚接触运维工作的时候,没有经验,也没有人带领你学习技术而自己又不得不独自前行。一句话走向未来,同时也走向孤独。#####奋斗ing!!...
  • U盘拷贝时提示文件过大

    千次阅读 2018-05-27 10:01:12
    现在我们的日常生活和工作中很多地方能会用到u盘,但是有时候,我们在进行文件复制到U盘操作的时候,也会碰到这样的情况,系统提示“复制文件过大无法复制”,U盘正常,就是复制的文件可能大了点,出现这种状况怎么办?...
  • 文章上传到arxiv上面,会遇到文件过大(latex文件夹)而导致提交被挂起(holding)的问题,其根本原因可能是文件里面的图片(eps格式)过大。小编自己尝试了各大网站给的各种方法,包括将eps文件变成pdf, jpg等格式...
  • U盘现在作为一个便携的移动存储工具,已经在我们生活中扮演了一个重要的角色,但是我们经常会遇到在复制一些文件到U盘里的时候,明明U盘空间还有很大,却提示文件过大无法复制,面对这样的问题,我们该如何解决?...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 43,281
精华内容 17,312
关键字:

文件过大