精华内容
下载资源
问答
  • 写毕业论文时,遇到自定义目录格式不生效的问题,一番搜索后,终于还是靠自己解决了这个问题,特此记录一下。 问题描述:正文部分设置了三级标题,如图1-1所示,在自定义目录格式时,设置了目录1(TOC1)格式为小四...

    写毕业论文时,遇到自定义目录格式不生效的问题,一番搜索后,终于还是靠自己解决了这个问题,特此记录一下。

    问题描述:正文部分设置了三级标题,如图1-1所示,在自定义目录格式时,设置了目录1(TOC1)格式为小四宋体加粗,目录2(TOC2)和目录3(TOC3)格式为小四宋体常规,生成的目录如图1-2所示,发现目录格式并不是自己定义的格式。
    在这里插入图片描述
    图1-1 正文三级标题格式

    在这里插入图片描述
    图1-2 生成自定义目录

    解决方法:经过试验发现,自己在设置正文标题时,直接选中了word提供的“标题1”、“标题2”和“标题3”样式,由于这些默认样式的格式跟自己的需求不同,于是我直接在正文标题处设置了字体格式,而不是修改word提供的“标题1”、“标题2”和“标题3”的样式。这是造成我自定义目录格式不生效的原因。发现了这一点后,找到了两种解决方法:
    1、直接对word提供的这三个标题样式进行修改。
    首先,全选中正文1级标题(第一章 小三黑体加粗),在开始菜单栏的样式栏中发现“标题1”被选中,右击后点击修改,将标题1样式设置为自己需要的格式。对正文2级和3级标题做同样的操作。至此,更新目录或者重新添加自定义目录后,得到的目录格式就是之前设置的格式了,如图1-4所示,目录格式变成小四宋体了。
    在这里插入图片描述
    图1-3 修改标题样式
    在这里插入图片描述
    图1-4 最终得到了想要的自定义目录格式
    2、自己创建三个标题样式。
    这个方法原理与方法1是相同的。在样式栏中点击其他按钮,然后点击创建样式,样式名称可以自己定义,点击修改,修改完格式后,再定义正文标题时就可以直接使用自己创建的样式了。至此,自定义目录的格式也能生效了。如果要修改正文标题的格式,可以直接修改自定义的标题样式。
    在这里插入图片描述
    图1-5 添加自定义样式按钮
    在这里插入图片描述
    图1-6 创建样式

    设置样式格式时,最好将添加到样式库自动更新勾上
    在这里插入图片描述
    图1-7 设置样式的格式

    展开全文
  • 弄了两个小时的目录格式,就是为了一键生成! 总结一下,记录一下避免以后防同样的错误 当然是不要再来一次答辩!!!! 使用的是word2016 1.设置自定义目录 2.设置样式 格式一定要选择来自模板!!!!!要不然...

    弄了两个小时的目录格式,就是为了一键生成!
    总结一下,记录一下避免以后犯同样的错误
    使用的是word2016

    1.设置自定义目录

    在这里插入图片描述

    2.设置样式

    格式一定要选择来自模板!!!!!要不然修改按钮不会亮!!!在这里插入图片描述

    3.修改一级标题的格式

    在这里插入图片描述
    点击修改后
    在这里插入图片描述
    按照毕业论文格式要求,设置他的格式,里面有一个比较容易忽视的点,就是制表位的设置
    主要是为了让页码向右对齐
    在这里插入图片描述
    制表位的位置我之前设置多个好像是没用的,最好设置一个
    其他二级三级或者以下目录都是这样设置的

    到这里就结束了,点击引用中的更新目录
    在这里插入图片描述
    然后就变成想要的目录格式的目录啦
    在这里插入图片描述

    展开全文
  • 文章目录需求编写自定义输出格式编写自定义记录读取器Mapper类Reducer类设置Driver执行结果 需求 将下面的三个文件的内容读取到一个SequenceFile中,SequenceFile是hadoop中特有的文件格式,适合key-value的存储。比...

    自定义输入需求

    将下面的三个文件的内容读取到一个SequenceFile中,SequenceFile是hadoop中特有的文件格式,适合key-value的存储。比普通文件格式节省空间。现在默认的输出格式是TextOutputFormat(文本格式的输出),改为SequenceFileOutputFormat。将输入目录的文件读取key-value(bytes)形式,将文件的内容读取封装为bytes类型,然后将文件名作为key。
    在这里插入图片描述
    在这里插入图片描述

    先来看看底层的map方法

    下面的方法最重要的就是nextKeyValue();此方法的内部实现将我们需要的值设为key和value,所以我们要重写该方法。

    使用maptask的runNewMapper方法开始正式的map阶段
        1、根据自定义map类名,获得自定义map对象
        2、调用Mapper的run函数来运行用户自定义的map方法
            //设置相关变量或者参数,一个map只调用一次
            setup(context);
            try {
              while (context.nextKeyValue()) {
            //使用while循环调用自定义map的方法
            map(context.getCurrentKey(), context.getCurrentValue(), context);
              }
            } finally {
              //清理过程,包括清理一些没用的k-v
              cleanup(context);
            }
    

    编写自定义输入格式

    import java.io.IOException;
    
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.mapreduce.InputSplit;
    import org.apache.hadoop.mapreduce.JobContext;
    import org.apache.hadoop.mapreduce.RecordReader;
    import org.apache.hadoop.mapreduce.TaskAttemptContext;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    
    /*
     * 1. 改变切片策略,一个文件固定切1片,通过指定文件不可切
     * 
     * 2. 提供RecordReader ,这个RecordReader读取切片的文件名作为key,读取切片的内容封装到bytes作为value
     */
    public class MyInputFormat extends FileInputFormat {
    
    	@Override
    	public RecordReader createRecordReader(InputSplit split, TaskAttemptContext context)
    			throws IOException, InterruptedException {
    		
    		return new MyRecordReader();
    	}
    	
    	// 重写isSplitable
    	@Override
    	protected boolean isSplitable(JobContext context, Path filename) {
    		
    		return false;
    	}
    	
    	
    
    }
    

    编写自定义记录读取器

    该部分重写nextKeyValue()方法。然后在initialize中初始化一些我们需要的值。

    import java.io.IOException;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FSDataInputStream;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.BytesWritable;
    import org.apache.hadoop.io.IOUtils;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.InputSplit;
    import org.apache.hadoop.mapreduce.RecordReader;
    import org.apache.hadoop.mapreduce.TaskAttemptContext;
    import org.apache.hadoop.mapreduce.lib.input.FileSplit;
    
    /*
     * RecordReader从MapTask处理的当前切片中读取数据
     * 
     * XXXContext都是Job的上下文,通过XXXContext可以获取Job的配置Configuration对象
     */
    public class MyRecordReader extends RecordReader {
    	
    	private Text key;
    	private BytesWritable value;
    	
    	private String filename;
    	private int length;
    	
    	private FileSystem fs;
    	private Path path;
    	
    	private FSDataInputStream is;
    	
    	private boolean flag=true;
    
    	// MyRecordReader在创建后,在进入Mapper的run()之前,自动调用
    	// 文件的所有内容设置为1个切片,切片的长度等于文件的长度
    	@Override
    	public void initialize(InputSplit split, TaskAttemptContext context) throws IOException, InterruptedException {
    
    		FileSplit fileSplit=(FileSplit) split;
    		
    		filename=fileSplit.getPath().getName();
    		
    		length=(int) fileSplit.getLength();
    		
    		path=fileSplit.getPath();
    		
    		//获取当前Job的配置对象
    		Configuration conf = context.getConfiguration();
    		
    		//获取当前Job使用的文件系统
    		fs=FileSystem.get(conf);
    		
    		 is = fs.open(path);
    		
    	}
    
    	// 读取一组输入的key-value,读到返回true,否则返回false
    	// 将文件的名称封装为key,将文件的内容封装为BytesWritable类型的value,返回true
    	// 第二次调用nextKeyValue()返回false
    	@Override
    	public boolean nextKeyValue() throws IOException, InterruptedException {
    		
    		if (flag) {
    			
    			//实例化对象
    			if (key==null) {
    				key=new Text();
    			}
    			
    			if (value==null) {
    				value=new BytesWritable();
    			}
    			
    			//赋值
    			//将文件名封装到key中
    			key.set(filename);
    			
    			// 将文件的内容读取到BytesWritable中
    			byte [] content=new byte[length];
    			
    			IOUtils.readFully(is, content, 0, length);
    			
    			value.set(content, 0, length);
    			
    			flag=false;
    			
    			return true;
    			
    		}
    		
    		return false;
    	}
    
    	//返回当前读取到的key-value中的key
    	@Override
    	public Object getCurrentKey() throws IOException, InterruptedException {
    		return key;
    	}
    
    	//返回当前读取到的key-value中的value
    	@Override
    	public Object getCurrentValue() throws IOException, InterruptedException {
    		return value;
    	}
    
    	//返回读取切片的进度
    	@Override
    	public float getProgress() throws IOException, InterruptedException {
    		return 0;
    	}
    
    	// 在Mapper的输入关闭时调用,清理工作
    	@Override
    	public void close() throws IOException {
    		if (is != null) {
    			IOUtils.closeStream(is);
    		}
    		
    		if (fs !=null) {
    			fs.close();
    		}
    	}
    
    }
    

    Mapper类

    import org.apache.hadoop.io.BytesWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    public class CustomIFMapper extends Mapper<Text, BytesWritable, Text, BytesWritable>{
    
    }
    

    Reducer类

    import org.apache.hadoop.io.BytesWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    public class CustomIFReducer extends Reducer<Text, BytesWritable, Text, BytesWritable>{
    
    }
    

    设置Driver

    import java.io.IOException;
    import java.net.URI;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.BytesWritable;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat;
    
    public class CustomIFDriver {
    	
    	public static void main(String[] args) throws Exception {
    		
    		Path inputPath=new Path("C:\\Users\\Lenovo\\Desktop\\PPT\\input");
    		Path outputPath=new Path("C:\\Users\\Lenovo\\Desktop\\PPT\\output");
    		
    
    		//作为整个Job的配置
    		Configuration conf = new Configuration();
    		//保证输出目录不存在
    		FileSystem fs=FileSystem.get(conf);
    		
    		if (fs.exists(outputPath)) {
    			
    			fs.delete(outputPath, true);
    			
    		}
    		
    		// ①创建Job
    		Job job = Job.getInstance(conf);
    		
    		job.setJarByClass(CustomIFDriver.class);
    		
    		
    		// 为Job创建一个名字
    		job.setJobName("wordcount");
    		
    		// ②设置Job
    		// 设置Job运行的Mapper,Reducer类型,Mapper,Reducer输出的key-value类型
    		job.setMapperClass(CustomIFMapper.class);
    		job.setReducerClass(CustomIFReducer.class);
    		
    		// Job需要根据Mapper和Reducer输出的Key-value类型准备序列化器,通过序列化器对输出的key-value进行序列化和反序列化
    		// 如果Mapper和Reducer输出的Key-value类型一致,直接设置Job最终的输出类型
    		job.setOutputKeyClass(Text.class);
    		job.setOutputValueClass(BytesWritable.class);
    		
    		// 设置输入目录和输出目录
    		FileInputFormat.setInputPaths(job, inputPath);
    		FileOutputFormat.setOutputPath(job, outputPath);
    		
    		// 设置输入和输出格式
    		job.setInputFormatClass(MyInputFormat.class);
    		job.setOutputFormatClass(SequenceFileOutputFormat.class);
    		
    		// ③运行Job
    		job.waitForCompletion(true);
    		
    		
    	}
    
    }
    
    

    执行结果

    在这里插入图片描述
    在这里插入图片描述

    自定义输出需求

    在这里插入图片描述
    在这里插入图片描述
    需求
    过滤输入的log日志,包含baidu的网站输出到e:/baidu.log,不包含baidu的网站输出到e:/other.log。

    实现代码

    Mapper

    /*
     * 1.什么时候需要Reduce
     * 		①合并
     * 		②需要对数据排序
     * 
     * 2. 没有Reduce阶段,key-value不需要实现序列化
     */
    public class CustomOFMapper extends Mapper<LongWritable, Text, String, NullWritable>{
    	
    	@Override
    	protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, String, NullWritable>.Context context)
    			throws IOException, InterruptedException {
    	
    		String content = value.toString();
    		
    		context.write(content+"\r\n", NullWritable.get());
    		
    	}
    
    }
    

    自定义outputformat

    public class MyOutPutFormat extends FileOutputFormat<String, NullWritable>{
    
    	@Override
    	public RecordWriter<String, NullWritable> getRecordWriter(TaskAttemptContext job)
    			throws IOException, InterruptedException {
    		return new MyRecordWriter(job);
    	}
    
    }
    

    自定义记录写出

    public class MyRecordWriter extends RecordWriter<String, NullWritable> {
    	
    	private Path baiduPath=new Path("e:/baidu.log");
    	private Path otherPath=new Path("e:/other.log");
    	
    	private FSDataOutputStream baiduOS ;
    	private FSDataOutputStream otherOS ;
    	
    	private FileSystem fs;
    	
    	private TaskAttemptContext context;
    
    	public MyRecordWriter(TaskAttemptContext job) throws IOException {
    		
    			context=job;
    		
    			Configuration conf = job.getConfiguration();
    			
    			fs=FileSystem.get(conf);
    			
    			 baiduOS = fs.create(baiduPath);
    			 otherOS = fs.create(otherPath);
    	}
    	
    
    	// 负责将key-value写出到文件
    	@Override
    	public void write(String key, NullWritable value) throws IOException, InterruptedException {
    		
    		if (key.contains("baidu")) {
    			
    			baiduOS.write(key.getBytes());
    			
    			
    			
    		}else {
    			
    			otherOS.write(key.getBytes());
    			
    		}
    		
    	}
    
    	// 关闭操作
    	@Override
    	public void close(TaskAttemptContext context) throws IOException, InterruptedException {
    		
    		if (atguguOS != null) {
    			IOUtils.closeStream(baiduOS);
    		}
    		
    		if (otherOS != null) {
    			IOUtils.closeStream(otherOS);
    			
    		}
    		
    		if (fs != null) {
    			fs.close();
    		}
    		
    	}
    
    }
    

    driver

    public class CustomOFDriver {
    	
    	public static void main(String[] args) throws Exception {
    		
    		Path inputPath=new Path("e:/mrinput/outputformat");
    		Path outputPath=new Path("e:/mroutput/outputformat");
    		
    
    		//作为整个Job的配置
    		Configuration conf = new Configuration();
    		//保证输出目录不存在
    		FileSystem fs=FileSystem.get(conf);
    		
    		if (fs.exists(outputPath)) {
    			
    			fs.delete(outputPath, true);
    			
    		}
    		
    		// ①创建Job
    		Job job = Job.getInstance(conf);
    		
    		job.setJarByClass(CustomOFDriver.class);
    		
    		
    		// 为Job创建一个名字
    		job.setJobName("wordcount");
    		
    		// ②设置Job
    		// 设置Job运行的Mapper,Reducer类型,Mapper,Reducer输出的key-value类型
    		job.setMapperClass(CustomOFMapper.class);
    		
    		// 设置输入目录和输出目录
    		FileInputFormat.setInputPaths(job, inputPath);
    		FileOutputFormat.setOutputPath(job, outputPath);
    		
    		// 设置输入和输出格式
    		job.setOutputFormatClass(MyOutPutFormat.class);
    		
    		// 取消reduce阶段
    		job.setNumReduceTasks(0);
    		
    		// ③运行Job
    		job.waitForCompletion(true);
    		
    		
    	}
    
    }
    
    展开全文
  • 由于日志管理需要整合到统一的日志管理平台,所以集群部署的多台服务器日志会冲突,老板要求在日志路径及日志文件中加上服务器IP加以区分,此...百度后有大神说整一个logback自定义格式转换器,也就是继承ClassicCon...

    由于日志管理需要整合到统一的日志管理平台,所以集群部署的多台服务器日志会冲突,老板要求在日志路径及日志文件中加上服务器IP加以区分,此为前要。


    首先说一下为什么不用MDC赋值来操作:MDC赋值其实也可以达到区分路劲和在文件中加Ip的目的,但是代码倾入大,需要动底层框架上已经封装好的业务jar包,因此首先pass。
    百度后有大神说整一个logback自定义格式转换器,也就是继承ClassicConverter,实现他的convert方法,然后配置在xml中配置conversionRule标签,即可获取自定义的值,亲测后发现该方式只能在文件中(Pattern)获取到自定义的值,而路径中(FileNamePattern)无法获取到值,创建的路径为***/%PARSER_ERROR[***]/***,因此该方式不能满足需求。但是该方式文件中使用还是方便的,因此附上我自己的实现;

    // 新建java类
    package *****.****.util.logback;
    
    import ch.qos.logback.classic.pattern.ClassicConverter;
    import ch.qos.logback.classic.spi.ILoggingEvent;
    import java.net.InetAddress;
    import java.net.UnknownHostException;
    
    /**
     * 该工具类用于在logback中通过%IP获取节点IP地址(日志文件内容),该类需要配置在logback中conversionRule标签
     */
    public class NodeIpConverter extends ClassicConverter {
        private static String nodeIP;
        static {
            try {
                nodeIP = InetAddress.getLocalHost().getHostAddress();
            } catch (UnknownHostException e) {
                e.printStackTrace();
            }
        }
        @Override
        public String convert(ILoggingEvent event) {
            return nodeIP;
        }
    }
    
    // logback.xml添加以下配置,该配置位于configuration标签下
    <conversionRule conversionWord="nodeIp" converterClass="***.***.util.logback.NodeIpConverter"/>
    该方式引用时为 %nodeIp
    
    

    一路不同再找一路,再次寻求度娘,发现通过自定义全局属性可以实现在路径中动态获取IP值,柳暗花明啊,而且经过测试发现该方式不仅可以在路径(FileNamePattern)中动态获取服务器IP,同时日志输出文件中(Pattern)也可以使用,下面奉上代码:

    // 新建java类继承PropertyDefinerBase,重写getPropertyValue方法
    package ***.***.util.logback;
    
    import java.net.InetAddress;
    import java.net.UnknownHostException;
    import ch.qos.logback.core.PropertyDefinerBase;
    
    /**
     * 该工具类用于在logback中通过%IP获取节点IP地址(日志文件路劲),该类需要配置在logback中conversionRule标签
     */
    public class NodeIpProperty extends PropertyDefinerBase {
        private static String nodeIP;
        static {
            try {
                nodeIP = InetAddress.getLocalHost().getHostAddress();
            } catch (UnknownHostException e) {
                e.printStackTrace();
            }
        }
    
        @Override
        public String getPropertyValue() {
            return NodeIpProperty.nodeIP;
        }
    }
    
    //logback.xml中添加如下配置,该配置位于configuration标签下
    <define name="NODE_IP" class="***.***.util.logback.NodeIpProperty"/>
    
    该方式引用时为 ${NODE_IP}
    

    以上,不是什么新东西,只是在实际工作中遇到的坑,希望能帮到遇到同样问题的伙伴

    展开全文
  • 这是Microsoft Word 自定义目录的一个样例,感兴趣地可以看一下。先设置章节标题,然后插入自定义目录,插入的时候对设置相应的目录格式
  • word自定义目录

    千次阅读 2019-04-25 17:23:13
    自定义目录 2、确定显示级别->自定义修改确定字体段落 3、点击修改样式 4、修改格式->选择后续段落样式为你想要修改的样式 5、确定应用即可,标题类别自行在文章中设置好,这样目录才会自动生成 ...
  • maven自定义目录

    千次阅读 2015-10-21 15:20:51
    maven优势于Ant的原因有很大一部分来自于maven...maven遵循约定大于配置,默认目录为: 目录src/main/java java源码目录 目录src/main/resources 资源文件目录 目录src/test/java 测试java源码目录
  • goland如何利用go fmt设置自动格式化代码写自定义目录标题设置方式 设置方式 https://jingyan.baidu.com/article/c45ad29c64cfe7051653e245.html
  • 自定义日志格式、路径 log_format my_format '$remote_addr $msec $http_host $request_uri'; 使用精准配准,对/log.jpg的请求记录自定义日志。 location =/log.jpg { default_type images/jpg; access_log...
  • 先试了PSPad,自定义了语法高亮,由于要按Ctrl+J才能自动补全,而notepad++可以敲字母的时候直接自动补全就显示出来了,方便些,于是又试了下notepad++的自定义语言格式。就自定义的语法高亮来说,PSPad比notepad++...
  • 【Excel】设置自定义单元格格式

    万次阅读 2018-10-14 17:51:52
    我们知道Excel中设置单元格格式时可以通过自定义方式设置格式,但是具体如何使用一般人都不是很清楚,其实自定义功能非常强大。本文主要介绍一下自定义单元格格式的小技巧,主要流程: 1.选中要设置单元格格式的...
  • 因为自定义目录而脑壳疼的可以来看看 设置每行的缩进 之后按确定,接着设置目录2 ...之后无论是更新标题还是增加标题,更新整个目录之后,目录格式是不会改变的! 比如添加一章 然后更新目录 ok ...
  • android studio 导入自定义编码格式

    千次阅读 2015-05-05 11:46:23
    android studio 导入自定义的编码格式
  • ** 1. 复杂距离 ** a.水平和竖直距离 b.填充距离与弹性距离 c.行距 d.制表符 e.悬挂缩进 f.整段缩进 2. 自定义章节样式 % 导言区 \documentclass[a4paper]{ctexart} ...\usepackage{titlesec} %自定义
  • 我们上一篇分析了logback的源码和自定义Appender的妙用,这一篇介绍一下自定义日志格式和异步打印日志的妙用。 Logback源码解析及自定义Appender、自定义Logback.xml标签 目录1. 自定义日志格式0. 背景介绍1. 自定义...
  • js时间格式化成自定义格式

    千次阅读 2017-11-05 13:57:17
    后台为了有很好的传输,所以就设置时间格式毫秒类型。如:new Date().getTime(); 就得到一个毫秒类型的时间格式:...可以看目录,定位查看各个小节 java后台转换时间格式 使用 String pattern = "yyyy-MM-dd HH:mm:
  • flink table api 自定义数据格式解析

    千次阅读 2019-02-21 16:47:32
    flink table api目前支持的数据格式(https://ci.apache.org/projects/flink/flink-docs-release-1.7/dev/table/tableApi.html )除基础数据格式外还支持pojo,但毕竟支持有限,我们希望通过固定的解析,就能直
  • 本文简单介绍在使用cronolog对tomcat的日志进行自定义日期格式的切割,方便日志的整理和遇到问题日志的排查! 安装cronolog 安装cronolog的方法网上有很多,这里也简单的介绍一下。 1.下载安装包 cronolog...
  • Eclipse自定义编码格式与快捷键1.在Eclipse的主界面称之为透明视图,每一个独立的窗口称为视图,视图可通过右上角菜单的open Perspective来打开新的工作视图,也可以通过主菜单栏的window->show view 来打开我们想要...
  • image Watch高级应用:自定义图像格式 image watch documents https://imagewatch.azurewebsites.net/ImageWatchHelp/ImageWatchHelp.htm#_Toc351981452 Image watch是一个vs的扩展插件,可以在调试代码过程中...
  • 在开发中比较常见的还是log4j,基本上每个开发者都知道,但是使用logback输出日志,估计用的人不多,其实这两个都是slf4j的实现,而且是同一个作者。 ...我们也可以控制每一条日志的输出格式;通过
  • vue 自定义格式化配置

    2020-06-16 11:44:29
    vue 自定义格式化配置 在项目根目录创建 .prettierrc 文件,添加如下图配置,保存后,在需要格式化的文件中重新格式化即可
  • Hadoop & Hadoop Streaming 自定义输出格式

    千次阅读 2013-09-23 22:30:17
    有时候会将错误的或者不符合要求的日志输出到另外一个目录,以备后来进行查验,这里给出个简单的例子,并简单说明下如何在Hadoop Streaming中使用这种方法将错误格式的日志输出到自定义的路径。
  • 使用localIdentName自定义生成格式可选的参数有: path:表示样式表相对于项目根目录所在路径; name:表示样式表文件的名称; local:表示样式的类名定义名称; hash:length:表示32位的hash值。 在webpack.config....
  • laravel 自定义日志目录

    千次阅读 2019-05-04 16:21:16
    laravel自带的Log::...为了方便,使用Logger自定义封装一些日志功能。 <?php /** * laravel的日志类不够用,根据项目日志习惯二次封装Monolog日志类 */ namespace App\Utils; use Monolog\Logger; use M...
  • 文章目录1、授权成功返回自定义格式信息2、用户无权限返回自定义格式信息1、添加授权拒绝处理器2、配置资源服务器,添加如下方法配置相关链接SpringBoot2.0 整合Oauth2 (一) 基本配置 1、授权成功返回自定义格式信息...
  • Vetur自定义格式化代码

    千次阅读 2020-07-03 20:22:17
    Vetur自定义格式化代码 1.在src根目录创建prettirerrc文件 2.在prettirerrc文件里写如下代码 { "semi": false, "singleQuote": true } 即在格式化时不会加分号,同时双引号变单引号。
  • public class WordCount { public static void main(String[] args) throws Exception { Configuration conf = new ... //输出信息保存在本地项目目录下 System.exit(job.waitForCompletion(true)?0:1); } }
  • NC57自定义按钮XML格式

    2019-07-18 08:35:48
    这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、...
  • logrus日志自定义格式

    千次阅读 2020-03-29 16:36:04
    2)自定义格式 logrus提供了SetFormatter可以设置格式,logrus自带的格式为(JSONFormatter,TextFormatter) func (s *LogFormatter) Format(entry *log.Entry) ([]byte, error) { timestamp := //日期格式实现 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 388,921
精华内容 155,568
关键字:

怎样自定义目录格式