精华内容
下载资源
问答
  • 如何一篇英文文章的Summary

    万次阅读 2014-09-28 08:25:18
    摘要主要包括三个步骤:(1)阅读;(2)写作;(3)修改成文。  第一步:阅读 A.认真阅读给定的原文材料。如果一遍不能理解,就多读两遍。阅读次数越多,你对原文的理解就越深刻。 B.给摘要起一个...

    摘要是对一篇文章的主题思想的简单陈述。它用最简洁的语言概括了原文的主题。写摘要主要包括三个步骤:(1)阅读;(2)写作;(3)修改成文。

           第一步:阅读

    A.认真阅读给定的原文材料。如果一遍不能理解,就多读两遍。阅读次数越多,你对原文的理解就越深刻。

    B.给摘要起一个标题。用那些能概括文章主题思想的单词、短语或短句子作为标题。也可以采用文中的主题句作为标题。主题句往往出现在文章的开头或结尾。一个好标题有助于确定文章的中心思想。

    C.现在,就该决定原文中哪些部分重要,哪些部分次重要了。对重要部分的主要观点进行概括。

    D.简要地记下主要观点——主题、标题、细节等你认为对概括摘要重要的东西。

           第二步:动手写作

    A. 摘要应该只有原文的三分之一或四分之一长。因此首先数一下原文的字数,然后除以三,得到一个数字。摘要的字数可以少于这个数字,但是千万不能超过这个数字。

    B. 摘要应全部用自己的话完成。不要引用原文的句子。

    C. 应该遵循原文的逻辑顺序。这样你就不必重新组织观点、事实。

    D. 摘要必须全面、清晰地表明原文所载的信息,以便你的读者不需翻阅原文就可以完全掌握材料的原意。

    E. 写摘要时可以采用下列几种小技巧:

    1) 删除细节。只保留主要观点。

    2) 选择一至两个例子。原文中可能包括5个或更多的例子,你只需从中筛选一至二个例子。

    3) 把长段的描述变成短小、简单的句子。如果材料中描述某人或某事用了十个句子,那么你只要把它们变成一两句即可。

    4) 避免重复。在原文中,为了强调某个主题,可能会重复论证说明。但是这在摘要中是不能使用的。应该删除那些突出强调的重述句。

    5) 压缩长的句子。如下列两例:

    “His courage in battle might without exaggeration be called lion-like.”

    可以概括为:”He was very brave in battle.”

    “He was hard up for money and was being pressed by his creditor.”

    可以概括为:“He was in financial difficulties.”

    6) 你还可以使用词组代替整句或者从句。请看下面的例子:

    “Beautiful mountains like Mount Tai, Lushan Mountain, and Mount Huang, were visited by only a few people in the past. Today, better wages, holidays with pay, new hotels on these mountains, and better train and bus services, have brought them within reach of many who never thought of visiting them ten years ago.”

    可以概括为:”Beautiful mountains like Mount Tai, once visited by only a few people, are today accessible to many, thanks to better wages, paid holidays, new hotels and better transportation services.”

    7) 使用概括性的名词代替具体的词,比如:

    “She brought home several Chinese and English novels, a few copies of Time and Newsweek and some textbooks. She intended to read all of them during the winter vocation.”

    可以概括为:”She brought home a lot of books to read during the vocation.”

    8) 使用最短的连接词。比如,可以使用but, then, thus, yet, though,不能使用at the same time, in the first place, because of these, on the other hand等较长的连接词。通常,使用分号就能够达成使用连接词的效果。

    9) 文章中的第一人称说的话通常在摘要中转换成第三人称,从而把大段的对白简化,比如:

    Kate looked at Paul disapprovingly: You use too much salt on your food, Paul — it’s not good for you!” Paul put down his knife and frowned:”Why on earth not! If you didn’t have salt on your food it would taste awful… like eating cardboard or sand… just imagine bread without salt in it, or potatoes or pasta cooked without salt!” Kate was patient. She didn’t want to quarrel with Paul. She wanted to persuade him. She said firmly:”But too much salt is bad for you. It cause high blood pressure and latter on, heart-attacks. It also disguises the taste of food, the real tastes which are much more subtle than salt, and which we have lost the sensitivity to appreciate any more.”

    可以用第三人称概括为:

    Kate suggested to Paul that he should eat less salt. She thought that eating too much salt would do harm to Paul’s health and that it could reduce the real tastes of food. But Paul disagreed. He said that food without salt would be tasteless.

            第三步:修改成文

    草稿拟好以后,对它进行修改。首先,与原文比较看是否把所有重要的观点都概括了,摘要中的观点是否与原文中的完全一致。其次,如果摘要中出现了不必要的词汇、短语或长句子,删除它们。第三,检查拼写、语法和标点符号的错误。最后,保持语言简单明了。

            经过上述步骤和方法,一篇摘要就可以完成了。

    批注:网络上有关摘要写作的资源不胜枚举,但是不一定都切合大家的需求,我这里提供一些比较好的摘要写作链接,希望对大家的练习有所帮助。

    http://www.columbia.edu/cu/ssw/write/handouts/summary.html

    http://bbs2.beiwaionline.com/cgi-bin/ultimatebb.cgi?ubb=get_topic;f=38;t=000152#000000 (北外网院内部论坛相关讨论)

    http://bbs2.beiwaionline.com/cgi-bin/ultimatebb.cgi?ubb=get_topic;f=38;t=000115#000000 (北外网院内部论坛相关讨论)

    展开全文
  • TensorFlow之summary详解

    千次阅读 2019-02-11 21:16:56
    TensorFlow中 tensorboard 工具通过读取在网络训练过程中保存到...summary.py定义在tensorflow/python/summary/summary.py。提供了像tf.summary.scalar、tf.summary.histogram 等方法,用来把graph图中的相关信...

     

    TensorFlow中 tensorboard 工具通过读取在网络训练过程中保存到本地的日志文件实现数据可视化,日志数据保存主要用到 tf.summary 中的方法。 

    summary.py定义在tensorflow/python/summary/summary.py。提供了像tf.summary.scalartf.summary.histogram 等方法,用来把graph图中的相关信息,如结构图、学习率、准确率、Loss等数据转换成 protocol buffer 数据格式,然后再调用 writer.py里的tf.summary.FileWriter 类,调用其add_summary方法把这些数据写入到本地硬盘,之后就可以借用 tensorboard 工具可视化这些数据

     

    一、summary.py的函数

    1、tf.summary.scalar

    用于保存标量或单个数值,一般用来保存loss,accuary,学习率等数据,比较常用

    tf.summary.scalar(name,tensor,collections=None,family=None)

    name:要保存的数据的命名。在TensorBoard中也用作系列名称。

    tensor:要可视化的数据,张量。在scalar函数中应该是一个标量,如当前的学习率、Loss等

    collections:定义保存的数据归于哪个集合。默认为[GraphKeys.SUMMARIES]

    family:如果定义,在Tensorboard显示的时候,将作为前缀加在变量名前

     

    2、tf.summary.histogram

    输出带直方图的汇总的protocol buffer数据,一般用来显示训练过程中变量的分布情况

    tf.summary.histogram(name,values,collections=None,family=None)

    values:要可视化的数据,可以是任意形状和大小的张量数据

    其它三个参数跟上面一样。

     

    3、tf.summary.image

    输出带图像的protocol buffer数据,汇总数据的图像的的形式如下: ’ tag /image/0’, ’ tag /image/1’…,如:input/image/0等。

    tf.summary.image(name,tensor,max_outputs=3,
        collections=None,
        family=None)

    tensor:形状为[批量数、高度、宽度、通道数]的4阶张量,类型为 uint8 或 float32 ,其中通道数为1、3或4。

    max_outputs:生成图像的批处理元素的最大数目。

    其它同上。

     

    4、tf.summary.audio

    输出带音频的protocol buffer数据。音频是由张量构建的,张量必须是三维的[批量大小,帧,通道数]或二维的[批量大小,帧]。

    tf.summary.audio(name,tensor,sample_rate,
        max_outputs=3,
        collections=None,
        family=None)

    tensor:形状为[批量大小,帧,通道数]的三阶张量或形状[批量大小,帧]的二阶张量。类型为float32

    sample_rate:以赫兹表示的信号采样率的标量float32张量。

    max_outputs:为其生成音频的批处理元素的最大数目

    其它同上

     

    5、tf.summary.merge

    对指定的多个值进行联合输出。运行op时,如果要合并的摘要中的多个值使用同一个标记,则会报告InvalidArgument错误。

    tf.summary.merge(inputs,collections=None,name=None)

    inputs:包含protocol buffers数据的字符串张量列表

    collections:定义保存的数据归于哪个集合。默认为[]

    name:操作的名称

     

    6、tf.summary.merge_all

    对所有值进行联合输出。可以将所有summary全部保存到磁盘,以便tensorboard显示。如果没有特殊要求,一般用这一句就可一显示训练时的各种信息了

    tf.summary.merge_all(key=tf.GraphKeys.SUMMARIES,scope=None,name=None)

    key:定义保存的数据归于哪个集合。默认为[GraphKeys.SUMMARIES]

    scope:用于筛选摘要操作的可选范围,使用re.match

    name:操作的名称

     

    二、text_summary.py的函数

    8、tf.summary.text

    用于将文本类型的张量数据转换成张量写入summary中

    tf.summary.text(name,tensor,collections=None)

    name:要生成的数据的命名。在TensorBoard中也用作系列名称。

    tensor:要转换的字符串类型张量

    collections:定义保存的数据归于哪个集合。默认为[GraphKeys.SUMMARIES]

     

    如:

    text = """/a/b/c\\_d/f\\_g\\_h\\_2019"""
    summary_op0 = tf.summary.text('text', tf.convert_to_tensor(text))
    -->b'\n/\n\x04textB\x1d\x08\x07\x12\x00B\x17/a/b/c\\_d/f\\_g\\_h\\_2019J\x08\n\x06\n\x04text'

     

    三、FileWriter类

    9、tf.summary.FileWriter

    是一个类,定义在tensorflow/python/summary/writer/writer.py。其作用是将总结的协议缓冲区写入事件文件中。这个类提供了一套完整的机制在给定的目录中创建一个事件文件,然后在其中添加summary和事件。而且这个类是异步地(asynchronously)来更新文件内容,意味着你能够调用直接从训练循环向文件添加数据的方法,而不会减慢训练。其初始化函数如下:

    def __init__(self,
        logdir,
        graph=None,
        max_queue=10,
        flush_secs=120,
        graph_def=None,
        filename_suffix=None,
        session=None):

    logdir:事件文件要保存的目录
    graph: graph(图)对象,例如 sess.graph
    max_queue:队列中事件和概要的最大数量,默认为10;
    flush_secs:事件和概要保存到本地磁盘的间隔,默认120S;
    graph_def: 旧版本的graph,已弃用;
    filename_suffix:可选参数,事件文件的后缀。

    其有一个add_summary()方法用于将训练过程数据保存在FileWriter对象指定的logdir文件中。

    add_summary(self, summary, global_step=None)

    close() 方法是把事件文件写到硬盘,并且关闭文件,一般是在不再需要writer的时候调用这个函数。

    用法示例:

    tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge_all()  
    train_writer = tf.summary.FileWriter(dir,sess.graph)#定义一个写入summary的目标文件的对象,dir为写入文件地址  
    ......(交叉熵、优化器等定义)  
    for step in xrange(training_step):                  #训练循环  
        train_summary = sess.run(merge_summary,feed_dict =  {...})#调用sess.run运行图,生成一步的训练过程数据  
        train_writer.add_summary(train_summary,step)#调用train_writer的add_summary方法将训练过程以及训练步数保存
    train_writer.close()

     

     

    参考:https://www.cnblogs.com/lyc-seu/p/8647792.html

     

     

     

     

     

     

     

    展开全文
  • Python summary

    千次阅读 2020-01-29 16:27:30
    Update : 20191022 Python3 基础语法 编码 源码文件的编码方式: # -*- coding:utf-8 -*- 注释 python中单行注释以#开头; 多行注释:’’'和"""; 行与缩进 用缩进来表示代码块; 缩进的空格数是可变的...comple...

    Update : 20191031


    Python3 基础语法

    Python 内建数据类型

    编码
    源码文件的编码方式:

    # -*- coding:utf-8 -*-
    
    • number 数字
    • string 字符串
    • list 列表
    • tuple 元组
    • dictionary
    • Set 集合

    注释
    python中单行注释以#开头;
    多行注释:’’'和""";

    行与缩进
    用缩进来表示代码块; 缩进的空格数是可变的;

    多行语句
    python使用反斜杠()来实现多行语句;

    数字类型(Number)

    • int(整数)
    • bool()
    • float
    • complex

    字符串(string)

    Python3 常用标准库

    1. datetime
    2. BeautifulSoup
    3. matplotlib
    4. glob
    5. logging
    6. tarfile
    7. pandas – numpy, setuptools
    8. python3-distutils
    9. PyQt5, PyQtWebEngine
      10.pyOpenGL – to check version : python3 -m pip list

    distutils
    provides support for building and install additional modules into a Python installation.

    pip包管理工具

    sudo apt install python3-pip
    # this command will install many dependences
    
    1. install
    2. show
    3. list
    4. uninstall
    5. help
    # 使用Python对应的版本按照包
    python -m pip install package_name
    

    datetime 时间管理模块

    datetime module: 时间模块,主要内容

    1. time Objects
    2. date Objects
    3. datetime Objects
    4. tzinfo Objects
    5. timedelta Objects
    6. strftime() and strptime() Behavior

    Scrapy 爬虫工具常用库

    install scrapy

    sudo python3 -m pip install scrapy
    

    Requests Http 库

    HTTP协议入门 – 阮一峰

    requests.session
    requests.get
    requests.post

    HTTP 原理

    URL

    HTTP报文
    请求报文(请求行,+ headers + body),响应报文(状态行+headers + body)

    headers
    status_code
    context
    content

    content-Type:

    1. text/html:
    2. x-www-form-urlencoded: web 页面纯文本表单的提交方式
    3. multitype/form-data 页面含有二进制文件时的提交方式
    4. application/json 单项内容(文本或非文本都可以),用于web API 的响应或者POST/PUT 的请求

    BeautifulSoup xml 和html的解析库

    导入包

    from bs4 import BeautifulSoup
    

    matplotlib 数据图的库

    import matplotlib as plt
    

    glob

    官方解释:

    Unix style pathname pattern expansion
    The glob module finds all the pathnames matching a specified pattern according to the rules used by the Unix shell, although results are returned in arbitrary order.

    logging

    作用为了记录程序执行期间的log, 便于程序调试

    Logging 模块

    logging 模块的架构

    Basic config

    1. warning
    2. debug
    3. warning
    4. info
    5. basicConfig 基本的配置,升级输出的格式,level, 是否保存到文件

    Advanced Logging tutorial

    1. getLogger()
    2. Loggers
    3. setLevel()

    Tarfile

    1. tarfile objects
    2. tarinfo objects

    Python 处理文件

    1. json - 处理json文件,主要用法是load 和dump, 另外还有一些是格式的处理
    2. csv - 逗号分隔的文件

    Python 实例方法、类方法和静态方法

    1. 实例方法(instance method): 第一个参数是self,
    2. 类方法 ( class method),通过装饰器@classmethod来定义;既可以通过类也可以通过实例来调用
    3. 静态方法(static method),通过装饰器@staticmethod来定义,可以通过类或者实例来调用静态方法。

    PEP - 328

    python 导入包

    展开全文
  • tensorboard summary存储数据

    千次阅读 2018-09-10 00:00:54
    利用summary存储数据 总共分为4步 添加记录节点 tf.summary.scalar(name, tensor) 汇总记录节点 summary_op = tf.summary.merge_all() 运行汇总节点 summary_str = sess.run(summary, feed_dict=feed_dict) ...

    利用summary存储数据

    总共分为4步
    使用步骤

    1. 添加记录节点
      tf.summary.scalar(name, tensor)
    2. 汇总记录节点
      summary_op = tf.summary.merge_all()
    3. 运行汇总节点
      summary_str = sess.run(summary, feed_dict=feed_dict)
    4. 将数据存到文件中
      1. summary_write = tf.summary.FileWriter(logdir,
        graph=sess.graph)
      2. summary_write.add_summary(summary_str, global_step=global_step)

    可视化显示

    tensorboard –logdir=绝对路径

    然后在浏览器中打开相应网站,比如http://desktop-45es9ip:6006即可

    注意,路径不需要加引号

    几个注意事项

    • global_step 是tensorflow内部会自动维护的变量,在使用时,先用以下代码创建,trainable=False表明此 变量为非训练参数。

        global_step = tf.Variable(0, name='global_step', trainable=False)

      然后将参数传递给optimizer.minimize中的默认参数global_step中,每训练一次,global_step会+1,之后在别的需要此参数的函数调用即可

        optimizer = tf.train.GradientDescentOptimizer(learning_rate)
          train_op = optimizer.minimize(cost, global_step=global_step)
      
      
      # 在后边add_summary函数中调用
      
      summary_write.add_summary(summary_str, global_step=sess.run(global_step))
    • 以下代码不可以写在for循环中

      summary_write = tf.summary.FileWriter(logdir,graph=sess.graph)

    例子

    接下来有一个例子,用逻辑回归和三层的神经网络结构来在mnist识别手写体,并将这两天的知识点包含在其中了。

        import tensorflow as tf
        from tensorflow.examples.tutorials.mnist import input_data
    
        data_dir = 'temp'
        mnist = input_data.read_data_sets(data_dir, one_hot=True)
        # import pickle
    
        # def load_from_pickle(data_type):
        #   file_name = '{}.pickle'.format(data_type)
        #   with open(file_name, 'rb') as f:
        #       return pickle.load(f)
        #
        # # load data from disk
        # train = load_from_pickle('train')
        # validation = load_from_pickle('validation')
        # test = load_from_pickle('test')
        # train_image, train_label = train['image'], train['label']
        # validation_image, validation_label = validation['image'], validation['label']
        # test_image, test_label = test['image'], test['label']
    
        def layer(input, weight_shape, bias_shape):
            # how to set stddev ?
            # the variance of weights in a network should be 2 / n_in,
            # n_in is the nummber inputs coming into the neuron
            weight_stddev = (2.0 / weight_shape[0]) ** 0.5
            w_innit = tf.random_normal_initializer(stddev=weight_stddev)
            bias_init = tf.constant_initializer(value=0.)
            W = tf.get_variable('W', weight_shape, initializer=w_innit)
            b = tf.get_variable('b', bias_shape, initializer=bias_init)
    
            return tf.nn.relu(tf.matmul(input, W) + b)
    
    
        def inference(x, model=0):
            '''
    
            :param x:
            :param model: 0 --> logistic regression   1--> multilayer neural network
            :return:
            '''
            if model == 0:
                init = tf.constant_initializer(value=0)
    
                W = tf.get_variable('W', [784, 10], initializer=init)
                b = tf.get_variable('b', [10], initializer=init)
    
                output = tf.nn.softmax(tf.matmul(x, W)) + b
                return output
            elif model == 1:
                with tf.variable_scope("hidden_1"):
                    hidden_1 = layer(x, [784, 256], [256])
                with tf.variable_scope("hidden_2"):
                    hidden_2 = layer(hidden_1, [256, 256], [256])
                with tf.variable_scope("hidden_3"):
                    output = layer(hidden_2, [256, 10], [10])
                    return output
    
        def loss(output, y, choice=0):
            '''
    
            :param output:
            :param y:
            :param choice: 0 --> implement by self  1--> call tf implementation
            :return:
            '''
            # implemented by self
            if choice == 0:
    
                # cross_entropy
                dot_product = y * tf.log(output)
                # sum in row
                xentropy = -tf.reduce_sum(dot_product, axis=1)
            # tf implementation
            elif choice == 1:
                xentropy = tf.nn.softmax_cross_entropy_with_logits(labels=y,
                                                                   logits=output)
    
            # mean on every item
            loss = tf.reduce_mean(xentropy)
    
            return loss
    
        def training(cost, global_step, learning_rate):
            # add to summary
            # summary  records data used for tensorboard
            tf.summary.scalar('cost', cost)  # !!!!!!!! 1
    
            optimizer = tf.train.GradientDescentOptimizer(learning_rate)
            train_op = optimizer.minimize(cost, global_step=global_step)
            return train_op
    
        def evaluate(output, y):
            correct_prediction = tf.equal(tf.argmax(output, axis=1),
                                          tf.argmax(y, axis=1))
            accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
            return accuracy
    
        # python script
        # parameters
        learning_rate = 0.01
        training_epochs = 10
        batch_size = 1000
        display_step = 1
    
        with tf.Graph().as_default():
            # mnist data image of shape 28 * 28 = 784
            x = tf.placeholder(dtype=tf.float32, shape=[None, 784])
            # 0~9 digits recognition => 10 classes
            y = tf.placeholder(dtype=tf.float32, shape=[None, 10])
    
            output = inference(x, model=1)
            cost = loss(output, y, choice=1)
    
            # create a not trainable variable to record train step
            global_step = tf.Variable(0, name='global_step', trainable=False)
    
            train_op = training(cost, global_step, learning_rate)
            eval_op = evaluate(output, y)
    
    
            # record data
            summary_op = tf.summary.merge_all() # !!!!!! 2
    
    
            saver = tf.train.Saver()
            with tf.Session() as sess:
    
                summary_write = tf.summary.FileWriter("logs",
                                        graph=sess.graph) # !!!!!!!!!!!! 3
                init_op = tf.global_variables_initializer()
                sess.run(init_op)
    
                # training cycle
                for epoch in range(training_epochs):
    
                    avg_cost = 0.
                    total_batch = int(mnist.train.num_examples / batch_size)
    
                    # loop over all batches
                    for i in range(total_batch):
                        mbatch_x, mbatch_y = mnist.train.next_batch(batch_size)
                        # fit training using batch data
                        feed_dict = {x: mbatch_x, y: mbatch_y}
                        sess.run(train_op, feed_dict=feed_dict)
    
                        # compute average loss
                        minibatch_cost = sess.run(cost, feed_dict=feed_dict)
                        avg_cost += minibatch_cost / total_batch
    
    
                        # display logs every 1 epoch step
                        if epoch % display_step == 0:
                            val_feed_dict = {
                                x: mnist.validation.images,
                                y: mnist.validation.labels
                            }
    
                            accuracy = sess.run(eval_op, feed_dict=val_feed_dict)
    
                            print("Validation error: {}".format(1 - accuracy))
    
    
                            ##    !!!!!!!!!!!!!!! 4
                            summary_str = sess.run(summary_op, feed_dict=feed_dict)
                            summary_write.add_summary(summary_str, global_step=sess.run(global_step))
                            last_global_step = sess.run(global_step)
                            print("训练次数:", last_global_step)
                            # saver.save(sess, 'logistic_logs/model-checkpoint', global_step=global_step)
                print('optimization finished')
                test_feed_dict = {
                    x: mnist.test.images,
                    y: mnist.test.labels
                }
                accuracy = sess.run(eval_op, feed_dict=test_feed_dict)
                print("Test Accuracy:{}".format(accuracy))
                summary_write.close()
    
    
    
    
    
    
    
    
    展开全文
  • tf.summary.scalar()和tf.summary.histogram

    万次阅读 2019-08-30 21:45:31
    1、tf.summary.scalar 用来显示标量信息,其格式为: tf.summary.scalar(tags, values, collections=None, name=None) 例如:tf.summary.scalar('mean', mean) 一般在画loss,accuary时会用到这个函数。 2、tf....
  • 【C#】Summary注释

    千次阅读 2018-12-14 22:53:54
    看到别人的源码中有这样的注释,感觉挺奇怪,每次这样会很麻烦吧。 /// <summary> /// 这是一个注释 /// </summary> /// <returns></returns> 查资料...
  • 详解keras的model.summary()输出参数Param计算过程

    万次阅读 多人点赞 2018-12-22 20:32:24
    使用keras构建深度学习模型,我们会通过model.summary()输出模型各层的参数状况,如下: ________________________________________________________________ Layer (type) Output Shape Param # ==============...
  • tf.summary.FileWriter

    万次阅读 2017-10-25 15:04:22
    ummary_waiter = tf.summary.FileWriter("log",tf.get_default_graph()) log是事件文件所在的目录,这里是工程目录下的log目录。第二个参数是事件文件要记录的图,也就是tensorflow默认的图。...
  • writer.add_summary异常处理

    千次阅读 2019-10-19 16:01:47
    Tensorflow: You must feed a value for placeholder tensor 'inputs/y_input' with dtype float and shape 从字面理解是:你必须给占位符y_input喂入一个... writer = tf.summary.FileWriter("logs/",sess.graph) ...
  • LeetCode228——Summary Ranges

    千次阅读 2015-07-09 00:25:58
    一个月没C++代码,现在感到好陌生 Given a sorted integer array without duplicates, return the summary of its ranges. For example, given [0,1,2,4,5,7], return ["0->2","4->5","7"]. Credits: Special ...
  • c# 利用注释summary生成文档

    万次阅读 2017-02-05 18:21:07
    c# 利用注释summary生成文档 在代码的过程中养成良好的注释习惯是非常必要的,这也为生成代码的说明文档打下了基础。再利用文档生成工具可以生成标准的文档,省时省力。     注释写法 在一个方法好后,...
  • 1.2回归之线性模型summary函数汇总

    千次阅读 2016-02-07 12:34:16
    线性模型的汇总数据,t检验,summary()函数 summary(a) Call: lm(formula = hww hww ~ hwh + 1) Residuals: 各分位数(残差) Min 1Q Median 3Q Max -3.721 -1.699 0.210 1.807 3.074 Coefficients
  • tf.summary.scalar(  name,  tensor,  collections=None,  family=None   ) 定义于:tensorflow/python/summary/summary.py。 输出一个包含单个标量值的Summary协议缓冲区。 生成的Summary有一个包含输入...
  • 用法有很多,如tf.summary.scalar用来显示标量信息,tf.summary.histogram用来显示直方图信息,等。 其中tf.summary.merge_all()可以用来将所有summary全部保存到磁盘,以便tensorboard显示。 tf.summary....
  • [tensorflow] summary op 用法总结

    千次阅读 2019-04-10 21:22:15
    0. 前言 官方教程(需要翻墙,都有中文版了): TensorBoard:可视化学习 TensorBoard:图的直观展示 TensorBoard:直方图信息中心 ...tf.summary相关API的功能就是,将定期将部分指定tensor的值保存...
  • Tensorflow下使用 tf.summary.FileWriter(),提示 PermissionDeniedError; 我的解决方法:把 tf.summary.FileWriter() 中的路径成绝对路径
  • 英语中的SUMMARY撰写的具体格式

    千次阅读 2019-06-16 23:29:24
    英语中的SUMMARY撰写的具体格式步骤如下: 1、之前,需要认真仔细地读几遍原文材料,让理解更深刻。 2、遵循原文的逻辑顺序,对重要部分的主题、标题、细节进行概括,全面清晰地表明原文信息。 3、给摘要起一个好...
  • C# 中注释/// <summary>是什么意思

    千次阅读 2020-04-09 18:42:45
    平时自己代码的时候,注释都是用两个斜杠这么的// 但是我在实际工作时,看到别人的函数接口前面都是这么注释的: /// <summary> /// 这是一个函数的例子 /// </summary> void Funtion() { ... ...
  • WPF Summary 系列指导(连载中…^_^)

    千次阅读 2011-03-23 18:36:00
    WPF Summary:01、WPF的介绍 ...WPF Summary:06、XAML大小 WPF Summary:07、XAML空白处理 WPF Summary:08、XAML标记扩展 WPF Summary:09、XAML命名空间 WPF Summary:10、Application概述 WPF Summary
  • tf.summary.FileWriter()用法

    千次阅读 2018-11-21 10:35:31
    来源:...Writes Summary protocol buffers to event files. The FileWriter class provides a mechanism to create an event file in a given dir...
  • (五)美赛写作篇:Summary官方模板+论文模板

    千次阅读 热门讨论 2020-03-05 21:58:24
    Summary官方模板+论文+MEMO模板1、单独的summary sheet(Word/LaTex)2、整合2020新版summary sheet的论文模板(Word) 1、单独的summary sheet(Word/LaTex) 如下图,2020年美赛的summary sheet较之前有更新,可...
  • 一个tf Estimator Summary Hook 函数

    千次阅读 2019-01-31 20:00:32
    一个tf Estimator Summary Hook 函数 应用场景:最近在使用tf.estimator.DNNLinearCombinedClassifier时,希望能够使用tensorboard去看一下loss的下降曲线。 虽然Tensorflow有提供了tf.train.SummarySaverHook,但是...
  • tensorboard-----summary用法总结

    千次阅读 2018-11-06 17:49:53
    Tensorflow学习笔记——Summary用法  最近在研究tensorflow自带的例程speech_command,顺便学习tensorflow的一些基本用法。 其中tensorboard 作为一款可视化神器,可以说是学习tensorflow时模型训练以及参数可视化...
  • Vb.net注释<summary>

    千次阅读 2014-01-06 23:04:23
    ''' 这是注释内容 ''' ''' 这里参数注释 ''' Sub Test1(str As String) End Sub ''' ''' 这里是注释内容 ''' ''' Dim a As String 1. 先代码 2. 在代码头上敲上'''(连敲3下单引号键') 3.
  • 当然Timing Summary中也会有: 从上面的Design Timing Summary中可以看出,WNS以及TNS是针对Setup Time Check的,而WHS以及TNS是针对Hold Time Check的, Design Timing Summary对应的Tcl命令为:r...
  • 但是Summary在定义φ-quantiles的时候,会定义一个波动范围,那么实际上φ-quantiles的计算会在φ加减波动范围内波动,如果这个范围内值的波动范围很大,那么取值就会不准确了 Summary和Histogram的不同 ...
  • 有的时候需要在编辑了EditTextPreference或者修改了ListPreferenceListPreference的时候动态的来改变他们的summary值。 下面给出我采用的一种解决方案,这种方案的有点是你只需要在xml里面设置好summary的模板就行,...
  • C#中的<summary>

    万次阅读 2016-07-20 11:44:05
    <summary> 标记应当用于描述类型或类型成员。   使用   添加针对某个类型说明的补充信息。   使用  cref 特性 可启用文档工具(如 Sandcastle )来创建指向代码元素的文档页内部超链接。 <summary> ...
  • 原文链接:http://tecdat.cn/?p = 6481 总结数据集 ## Skim summary statistics ## n obs: 150 ## n variables: 5 ## ## Variable type: factor ## variable missing complete n n_unique ...
  • 3.1 实践:如何使用Summary类型Metric? 3.2 源码分析:Summary是如何计算分位数的? 首先看Summary的定义 再看Summary的实现 如何计算分位数? 4 Summary就这么简单? 如果你对上述这些问题有答案,欢迎留言...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 163,670
精华内容 65,468
关键字:

如何写summary