精华内容
下载资源
问答
  • gitbook-plugin-summary Gitbook插件自动生成SUMMARY.md 介绍 这个插件是出于无法从基本树结构自动生成SUMMARY.md文件的挫败感而创建的。 结果是你安装了这个插件,它就在你当前的book.json文件book.json 。 无需...
  • 的命令行工具来生成SUMMARY.MD从一个文件夹。 电子书 《 Nodejs区块链开发2》: : 《 Nodejs区块链开发》: : 《用Gitbook和Github轻松构建自出版平台》: : 《 sails.js官方文档多语言电子书》: : 更多...
  • CHAOS Summary 2009

    2011-12-08 01:25:41
    CHAOS Summary 2009 CHAOS Summary 2009
  • 在Pytorch上使用summary

    万次阅读 多人点赞 2019-10-14 12:08:33
    我们知道,Keras有一个非常有好的功能是summary,可以打印显示网络结构和参数,一目了然。但是,Pytorch本身好像不支持这一点。不过,幸好有一个工具叫torchsummary,可以实现和Keras几乎一样的效果。 pip install ...

    我们知道,Keras有一个非常有好的功能是summary,可以打印显示网络结构和参数,一目了然。但是,Pytorch本身好像不支持这一点。不过,幸好有一个工具叫torchsummary,可以实现和Keras几乎一样的效果。

    pip install torchsummary
    

    然后我们定义好网络结构之后,就可以用summary来打印显示了。假设我们定义的网络结构是一个叫Generator的类。

    import torch
    from torchsummary import summary
    
    # 需要使用device来指定网络在GPU还是CPU运行
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    netG_A2B = Generator(3, 3).to(device)
    summary(netG_A2B, input_size=(3, 256, 256))
    

    之后,就可以打印网络结构了。一个示例结构如下:

    ----------------------------------------------------------------
            Layer (type)               Output Shape         Param #
    ================================================================
                Conv2d-1         [-1, 64, 224, 224]           1,792
                  ReLU-2         [-1, 64, 224, 224]               0
                Conv2d-3         [-1, 64, 224, 224]          36,928
                  ReLU-4         [-1, 64, 224, 224]               0
             MaxPool2d-5         [-1, 64, 112, 112]               0
                Conv2d-6        [-1, 128, 112, 112]          73,856
                  ReLU-7        [-1, 128, 112, 112]               0
                Conv2d-8        [-1, 128, 112, 112]         147,584
                  ReLU-9        [-1, 128, 112, 112]               0
            MaxPool2d-10          [-1, 128, 56, 56]               0
               Conv2d-11          [-1, 256, 56, 56]         295,168
                 ReLU-12          [-1, 256, 56, 56]               0
               Conv2d-13          [-1, 256, 56, 56]         590,080
                 ReLU-14          [-1, 256, 56, 56]               0
               Conv2d-15          [-1, 256, 56, 56]         590,080
                 ReLU-16          [-1, 256, 56, 56]               0
            MaxPool2d-17          [-1, 256, 28, 28]               0
               Conv2d-18          [-1, 512, 28, 28]       1,180,160
                 ReLU-19          [-1, 512, 28, 28]               0
               Conv2d-20          [-1, 512, 28, 28]       2,359,808
                 ReLU-21          [-1, 512, 28, 28]               0
               Conv2d-22          [-1, 512, 28, 28]       2,359,808
                 ReLU-23          [-1, 512, 28, 28]               0
            MaxPool2d-24          [-1, 512, 14, 14]               0
               Conv2d-25          [-1, 512, 14, 14]       2,359,808
                 ReLU-26          [-1, 512, 14, 14]               0
               Conv2d-27          [-1, 512, 14, 14]       2,359,808
                 ReLU-28          [-1, 512, 14, 14]               0
               Conv2d-29          [-1, 512, 14, 14]       2,359,808
                 ReLU-30          [-1, 512, 14, 14]               0
            MaxPool2d-31            [-1, 512, 7, 7]               0
               Linear-32                 [-1, 4096]     102,764,544
                 ReLU-33                 [-1, 4096]               0
              Dropout-34                 [-1, 4096]               0
               Linear-35                 [-1, 4096]      16,781,312
                 ReLU-36                 [-1, 4096]               0
              Dropout-37                 [-1, 4096]               0
               Linear-38                 [-1, 1000]       4,097,000
    ================================================================
    Total params: 138,357,544
    Trainable params: 138,357,544
    Non-trainable params: 0
    ----------------------------------------------------------------
    Input size (MB): 0.57
    Forward/backward pass size (MB): 218.59
    Params size (MB): 527.79
    Estimated Total Size (MB): 746.96
    ----------------------------------------------------------------
    
    展开全文
  • model.summary()中的Keras样式model.summary() Keras有一个简洁的API来查看模型的可视化,这在调试网络时非常有帮助。 这是一个尝试在PyTorch中模仿的准系统代码。 目的是提供与print(your_model)中的print(your_...
  • Keras style model.summary() in PyTorch > torch-summary 1.3.3 以上两个链接里,我需要的是多个输入Multiple Inputs w/ Different Data Types from torchsummary import summary summary(model, [(1, 2048), ...

    > Keras style model.summary() in PyTorch
    > torch-summary 1.3.3

    以上两个链接里,我需要的是多个输入Multiple Inputs w/ Different Data Types

    from torchsummary import summary
    
    summary(model, [(1, 2048), (1, 300)],  batch_size=-1, device='cuda')
    
    import torch
    import torchvision
    from torchsummary import summary          #使用 pip install torchsummary
    
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    vgg = torchvision.models.vgg16().to(device)
    summary(vgg, input_size=(3, 224, 224))
    
    

    > 在Pytorch上使用summary

    > 使用torchsummary打印torch模型的每层形状参数

    展开全文
  • Summary用法

    千次阅读 2018-06-17 14:26:59
    Tensorflow学习笔记——Summary用法 最近在研究tensorflow自带的例程speech_command,顺便学习tensorflow的一些基本用法。其中tensorboard 作为一款可视化神器,可以说是学习tensorflow时模型训练以及参数可视化的...

    Tensorflow学习笔记——Summary用法

            最近在研究tensorflow自带的例程speech_command,顺便学习tensorflow的一些基本用法。

    其中tensorboard 作为一款可视化神器,可以说是学习tensorflow时模型训练以及参数可视化的法宝。

    而在训练过程中,主要用到了tf.summary()的各类方法,能够保存训练过程以及参数分布图并在tensorboard显示。

    tf.summary有诸多函数:

    1、tf.summary.scalar

    用来显示标量信息,其格式为:

    tf.summary.scalar(tags, values, collections=None, name=None)

    例如:tf.summary.scalar('mean', mean)

    一般在画loss,accuary时会用到这个函数。

    2、tf.summary.histogram

    用来显示直方图信息,其格式为:

    tf.summary.histogram(tags, values, collections=None, name=None) 
    例如: tf.summary.histogram( 'histogram', var)
    一般用来显示训练过程中变量的分布情况
    3、tf.summary.distribution
    分布图,一般用于显示weights分布
    4、tf.summary.text

    可以将文本类型的数据转换为tensor写入summary中:

    例如:

    text = """/a/b/c\\_d/f\\_g\\_h\\_2017"""
    summary_op0 = tf.summary.text('text', tf.convert_to_tensor(text))

    5、tf.summary.image

    输出带图像的probuf,汇总数据的图像的的形式如下: ' tag /image/0', ' tag /image/1'...,如:input/image/0等。

    格式:tf.summary.image(tag, tensor, max_images=3, collections=None, name=Non

    6、tf.summary.audio

    展示训练过程中记录的音频 

    7、tf.summary.merge_all

    merge_all 可以将所有summary全部保存到磁盘,以便tensorboard显示。如果没有特殊要求,一般用这一句就可一显示训练时的各种信息了。

    格式:tf.summaries.merge_all(key='summaries')

    8、tf.summary.FileWriter

    指定一个文件用来保存图。

    格式:tf.summary.FileWritter(path,sess.graph)

    可以调用其add_summary()方法将训练过程数据保存在filewriter指定的文件中

    Tensorflow Summary 用法示例:

    复制代码
    tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge_all()  
    train_writer = tf.summary.FileWriter(dir,sess.graph)#定义一个写入summary的目标文件,dir为写入文件地址  
    ......(交叉熵、优化器等定义)  
    for step in xrange(training_step):                  #训练循环  
        train_summary = sess.run(merge_summary,feed_dict =  {...})#调用sess.run运行图,生成一步的训练过程数据  
        train_writer.add_summary(train_summary,step)#调用train_writer的add_summary方法将训练过程以及训练步数保存  
    复制代码

    此时开启tensorborad:

    1. tensorboard --logdir=/summary_dir 

    便能看见accuracy曲线了。

    另外,如果我不想保存所有定义的summary信息,也可以用tf.summary.merge方法有选择性地保存信息:

    9、tf.summary.merge

    格式:tf.summary.merge(inputs, collections=None, name=None)

    一般选择要保存的信息还需要用到tf.get_collection()函数

    示例:

    复制代码
    tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge([tf.get_collection(tf.GraphKeys.SUMMARIES,'accuracy'),...(其他要显示的信息)])  
    train_writer = tf.summary.FileWriter(dir,sess.graph)#定义一个写入summary的目标文件,dir为写入文件地址  
    ......(交叉熵、优化器等定义)  
    for step in xrange(training_step):                  #训练循环  
        train_summary = sess.run(merge_summary,feed_dict =  {...})#调用sess.run运行图,生成一步的训练过程数据  
        train_writer.add_summary(train_summary,step)#调用train_writer的add_summary方法将训练过程以及训练步数保存  
    复制代码

    使用tf.get_collection函数筛选图中summary信息中的accuracy信息,这里的

    tf.GraphKeys.SUMMARIES  是summary在collection中的标志。

    当然,也可以直接:

    acc_summary = tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge([acc_summary ,...(其他要显示的信息)])  #这里的[]不可省

     如果要在tensorboard中画多个数据图,需定义多个tf.summary.FileWriter并重复上述过程。

    展开全文
  • model.summary()中的Keras样式model.summary() 1.用法 git clone https://github.com/liuruiyang98/Jittor-summary.git from jittorsummary import summary summary ( your_model , input_size = ( channels , H , ...
  • tensorflow Summary方法详解

    万次阅读 多人点赞 2018-03-30 10:22:26
    1、tf.summary.scalar 用来显示标量信息,其格式为: tf.summary.scalar(name, tensor, collections=None) 例如:tf.summary.scalar('mean', mean) 一般在画loss,accuary时会用到这个函数。 2、tf.summary....

    1、tf.summary.scalar

    用来显示标量信息,其格式为:

    tf.summary.scalar(name, tensor, collections=None)

    例如:tf.summary.scalar('mean', mean)

    一般在画loss,accuary时会用到这个函数。


    2、tf.summary.histogram

    用来显示直方图信息,其格式为:

    tf.summary.histogram(tags, values, collections=None, name=None) 

    例如: tf.summary.histogram('histogram', var)
    一般用来显示训练过程中变量的分布情况


    3、tf.summary.distribution
    分布图,一般用于显示weights分布


    4、tf.summary.text
    可以将文本类型的数据转换为tensor写入summary中:

    例如:

    text = """/a/b/c\\_d/f\\_g\\_h\\_2017"""
    summary_op0 = tf.summary.text('text', tf.convert_to_tensor(text))

    5、tf.summary.image

    输出带图像的probuf,汇总数据的图像的的形式如下: ’ tag /image/0’, ’ tag /image/1’…,如:input/image/0等。

    格式:tf.summary.image(name, tensor, max_outputs=3, collections=None)


    6、tf.summary.audio

    展示训练过程中记录的音频


    7、tf.summary.merge_all

    merge_all 可以将所有summary全部保存到磁盘,以便tensorboard显示。如果没有特殊要求,一般用这一句就可一显示训练时的各种信息了。

    格式:tf.summaries.merge_all(key='summaries')


    8、tf.summary.FileWriter

    指定一个文件用来保存图。

    格式:tf.summary.FileWritter(path,sess.graph)

    可以调用其add_summary()方法将训练过程数据保存在filewriter指定的文件中

    Tensorflow Summary 用法示例:

    tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge_all()  
    train_writer = tf.summary.FileWriter(dir,sess.graph)#定义一个写入summary的目标文件,dir为写入文件地址  
    ......(交叉熵、优化器等定义)  
    for step in xrange(training_step):                  #训练循环  
        train_summary = sess.run(merge_summary,feed_dict =  {...})#调用sess.run运行图,生成一步的训练过程数据  
        train_writer.add_summary(train_summary,step)#调用train_writer的add_summary方法将训练过程以及训练步数保存  

    此时开启tensorborad:

    tensorboard –logdir=/summary_dir
    便能看见accuracy曲线了。

    另外,如果我不想保存所有定义的summary信息,也可以用tf.summary.merge方法有选择性地保存信息


    9、tf.summary.merge

    格式:tf.summary.merge(inputs, collections=None, name=None)

    一般选择要保存的信息还需要用到tf.get_collection()函数

    示例:

    tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge([tf.get_collection(tf.GraphKeys.SUMMARIES,'accuracy'),...(其他要显示的信息)])  
    train_writer = tf.summary.FileWriter(dir,sess.graph)#定义一个写入summary的目标文件,dir为写入文件地址  
    ......(交叉熵、优化器等定义)  
    for step in xrange(training_step):                  #训练循环  
        train_summary = sess.run(merge_summary,feed_dict =  {...})#调用sess.run运行图,生成一步的训练过程数据  
        train_writer.add_summary(train_summary,step)#调用train_writer的add_summary方法将训练过程以及训练步数保存  

    使用tf.get_collection函数筛选图中summary信息中的accuracy信息,这里的

    tf.GraphKeys.SUMMARIES 是summary在collection中的标志。

    当然,也可以直接:

    acc_summary = tf.summary.scalar('accuracy',acc)                   #生成准确率标量图  
    merge_summary = tf.summary.merge([acc_summary ,...(其他要显示的信息)])  #这里的[]不可省

    当然也会有API版本的问题:
    1、AttributeError: ‘module’ object has no attribute ‘SummaryWriter’

    tf.train.SummaryWriter 改为:tf.summary.FileWriter

    2、AttributeError: module ‘tensorflow’ has no attribute ‘merge_all_summaries’

     tf.merge_all_summaries()改为:summary_op = tf.summary.merge_all()

    3、AttributeError: ‘module’ object has no attribute ‘histogram_summary’

    tf.histogram_summary(var.op.name, var) 改为:  tf.summary.histogram()

    4、AttributeError: ‘module’ object has no attribute ‘scalar_summary’

    tf.scalar_summary('images', images)改为:tf.summary.scalar('images', images)

    5、AttributeError: module ‘tensorflow’ has no attribute ‘image_summary’

    tf.image_summary('images', images)改为:tf.summary.image('images', images)
    展开全文
  • 为了实现tensorflow可视化,我使用tf.summary.FileWriter()的时候, 会出现错误提示:AttributeError: module 'tensor board.summary._tf.summary' has no attribute 'FileWriter' 我发现这个问题网上没有博客提到...
  • TensorFlow之summary详解

    千次阅读 2019-02-11 21:16:56
    TensorFlow中 tensorboard 工具通过读取在网络训练过程中保存到...summary.py定义在tensorflow/python/summary/summary.py。提供了像tf.summary.scalar、tf.summary.histogram 等方法,用来把graph图中的相关信...
  • 方法一: 用了一个trick ...el-table :summary-method="getSummaries" :show-summary="showSum" > 需要更新时调用 this.showSum=false; this.$nextTick() .then( ()=> { this.showSum=tru...
  • tf.summary.scalar()和tf.summary.histogram

    万次阅读 2019-08-30 21:45:31
    1、tf.summary.scalar 用来显示标量信息,其格式为: tf.summary.scalar(tags, values, collections=None, name=None) 例如:tf.summary.scalar('mean', mean) 一般在画loss,accuary时会用到这个函数。 2、tf....
  • tensorflow中summary操作

    千次阅读 2018-04-03 22:24:46
    tf中 tensorboard 工具通过读取在网络训练... tf.summarysummary是tf中的一个py文件,位置在 '/tensorflow/python/summary/' 文件夹下,提供了像tf.summary.scalar、tf.summary.histogram 等方法,用来把graph...
  • R语言:summary()函数解读

    万次阅读 多人点赞 2019-06-17 16:08:54
    summary():获取描述性统计量,可以提供最小值、最大值、四分位数和数值型变量的均值,以及因子向量和逻辑型向量的频数统计等。结果解读如下: 1. 调用:Call 2. 残差统计量:Residuals 3. 系数:Coefficients 4...
  • tf.summary用法总结

    千次阅读 2019-07-16 20:50:19
    全部merge:tf.summary.merge_all() summary_writer = tf.summary.FileWriter('E:/data/tensorflow-master/1.Cnn_Captcha/result/', flush_secs=60) summary_writer.add_graph(sess.graph)#添加graph图 tf.summary....
  • tf第九讲:tensorboard可视化之tf.summary

    万次阅读 多人点赞 2021-03-11 13:27:28
    tf.summary()使用方法2.1 使用步骤2.2 tf.summary.scalar()等写入函数2.2.1 tf.summary.scalar2.2.2 tf.summary.histogram2.2.3 tf.summary.image2.2.4 tf.summary.text2.3 tf.summary.merge&tf.summary.merge_...
  • 2020美赛新版的summary sheet(word版本),免费下载! MCM-ICM_2020_Summary
  • tensorflow学习笔记——summary

    千次阅读 2021-03-09 08:41:08
    运用summary就可以实现上述目的,具体如下: 1、定义summary,如 mean=tf.reduce_mean(w1) stddev=tf.sqrt(tf.reduce_mean(tf.square(w1-mean))) tf.summary.scalar(‘mean’,mean) tf.summary.scalar(‘stddev’,...
  • tensorboard summary存储数据

    千次阅读 2018-09-10 00:00:54
    利用summary存储数据 总共分为4步 添加记录节点 tf.summary.scalar(name, tensor) 汇总记录节点 summary_op = tf.summary.merge_all() 运行汇总节点 summary_str = sess.run(summary, feed_dict=feed_dict) ...
  • 使用tensorflow2.1.0,输入tf.summary.FileWriter时会报错 AttributeError: module ‘tensorboard.summary._tf.summary’ has no attribute ‘FileWriter’ 解决方法: 将tf.summary.FileWriter改成 tf.summary....
  • Tensorflow-Summary用法

    千次阅读 2018-05-09 17:24:58
    在训练过程中,主要用到了tf.summary...tf.summary有诸多函数:1、tf.summary.scalar用来显示标量信息,其格式为:tf.summary.scalar(tags, values, collections=None, name=None)例如:tf.summary.scalar('mean', m...
  • Storm UI Topology summary

    千次阅读 2015-12-18 10:25:09
    Storm UI Topology summary 初学storm,提交了个本地模式的topology,运行正常,但是Storm UI Topology summary为空; 经过各种检查实验,原来是只有提交distributed mode的才能在Storm UI Topology summary看到。 ...
  • tf.summary用法

    千次阅读 2018-09-14 14:37:21
    转:... 1、tf.summary.scalar 用来显示标量信息,其格式为: tf.summary.scalar(name, tensor, collections=None) 1 例如:tf.summary.scalar('mean', mean) 一般在画loss,ac...
  • 将tf.summary.FileWriter()换成tf.summary.create_file_writer()
  • TensorFlow学习--Summary

    千次阅读 2018-03-13 16:59:16
    Summary在TensorFlow中,Summary是对网络中的张量进行检测的一种操作,不会影响数据流本身.利用tf.summary.FileWriter()可以将检测结果序列化存储到文件中.然后可以在TensorBoard中查看结果.检测实例:#!/usr/bin...
  • var summary = require ( "gulp-summary" ) ; gulp . task ( 'doc' , function ( ) { var summary_wd = './doc' ; gulp . src ( "./src/**/*.js" ) . pipe ( gulp . dest ( summary_wd + "/src" ) ) . pipe ( ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 550,863
精华内容 220,345
关键字:

summary