精华内容
下载资源
问答
  • Mark

    区块链概念

    区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。

    区块链含义

    狭义来讲,区块链是一种按照时间顺序,将数据区块以顺序相连的方式,组合成的一种链式数据结构,并以密码学方式,保证不可篡改和不可伪造的分布式账本。

    • 区块链技术包括 1.0 技术和 2.0 技术,常见的应用分别是比特币和以太坊

    在这里插入图片描述

    展开全文
  • 信息熵概念与公式表及在NLP上的含义:包含名称、节点、信息论含义、NLP含义、公式
  • AI相关词汇的概念与含义表,包含常用的AI领域各种术语及其解释,是AI入门必备工具。
  • 网站流量的基本概念与含义 通常说的网站流量(traffic)是指网站的访问量,是用来描述访问一个网站的用户数量以及用户所浏览的网页数量等指标, 常用的统计指标包括网站的独立用户数量、总用户数量(含重复...

    网站流量的基本概念与含义

    通常说的网站流量(traffic)是指网站的访问量,是用来描述访问一个网站的用户数量以及用户所浏览的网页数量等指标,

    常用的统计指标包括网站的独立用户数量、总用户数量(含重复访问者)、网页浏览数量、每个用户的页面浏览数量、用户

    在网站的平均停留时间等。


    IP、PV、UV 的含义和区别

    网站流量的统计中会有ip、pv、uv 3个数值,它们分别是什么意思?

    ip、uv和pv的定义

    IP(独立IP): 即Internet Protocol,指独立IP数。00:00-24:00内相同IP地址之被计算一次。
    PV(访问量): 即Page View, 即页面浏览量或点击量,用户每次刷新即被计算一次。
    UV(独立访客):即Unique Visitor,访问您网站的一台电脑客户端为一个访客。00:00-24:00内 相同的客

    户端只被计算一次。

    ip,pv,uv的区别

    IP(独立IP):某IP地址的计算机访问网站的次数。这种统计方式很容易实现,具有真实性。所以是衡量网站流量的重要指

    标。

    PV(访问量):PV反映的是浏览某网站的页面数,所以每刷新一次也算一次。就是说PV与来访者的数量成正比,但PV并不是

    页面的来访者数量,而是网站被访问的页面数量。

    UV(独立访客):可以理解成访问某网站的电脑的数量。网站判断来访电脑的身份是通过来访电脑的

    cookies实现的。如果更换了IP后但不清除cookies,再访问相同网站,该网站的统计中UV数是不变的。

    展开全文
  • 数学中的物理、几何概念与含义

    千次阅读 2016-11-18 22:14:21
    1. energy function 一个向量的二范数 ||x|| 表示着向量 x 的能量;

    1. energy function

    • x22=n|x(n)|2,一个向量的二范数表示着向量 x 的能量;
    展开全文
  • Tensor不同,Variable必须初始化以后才有具体的值 。 tensor = tf.zeros(shape=[ 1 , 2 ]) variable = tf.Variable(tensor) sess = tf.InteractiveSession() # print (sess.run(variable)) # 会报错 sess.run...

    1.tensorflow的运行流程

    tensorflow的运行流程主要有2步,分别是构造模型训练

    在构造模型阶段,我们需要构建一个图(Graph)来描述我们的模型。所谓图,也可以理解为流程图,就是将数据的输入->中间处理->输出的过程表示出来,就像下面这样。 

    20160601101108139.png-26.2kB

    注意此时是不会发生实际运算的。而在模型构建完毕以后,会进入训练步骤。此时才会有实际的数据输入,梯度计算等操作。那么,如何构建抽象的模型呢?这里就要提到tensorflow中的几个概念:Tensor,Variable,placeholder,而在训练阶段,则需要介绍Session。下面先解释一些上面的几个概念

    1.1概念描述


    1.1.1 Tensor

    Tensor的意思是张量,不过按我的理解,其实就是指矩阵。也可以理解为tensorflow中矩阵的表示形式。Tensor的生成方式有很多种,最简单的就如

    import tensorflow as tf # 在下面所有代码中,都去掉了这一行,默认已经导入
    a = tf.zeros(shape=[1,2])
    • 1
    • 2
    • 1
    • 2

    不过要注意,因为在训练开始前,所有的数据都是抽象的概念,也就是说,此时a只是表示这应该是个1*5的零矩阵,而没有实际赋值,也没有分配空间,所以如果此时print,就会出现如下情况:

    print(a)
    #===>Tensor("zeros:0", shape=(1, 2), dtype=float32)
    • 1
    • 2
    • 1
    • 2

    只有在训练过程开始后,才能获得a的实际值

    sess = tf.InteractiveSession()
    print(sess.run(a))
    #===>[[ 0.  0.]]
    • 1
    • 2
    • 3
    • 1
    • 2
    • 3

    这边设计到Session概念,后面会提到


    1.1.2 Variable

    故名思议,是变量的意思。一般用来表示图中的各计算参数,包括矩阵,向量等。例如,我要表示上图中的模型,那表达式就是 

    y=Relu(Wx+b)

    (relu是一种激活函数,具体可见这里)这里Wb是我要用来训练的参数,那么此时这两个值就可以用Variable来表示。Variable的初始函数有很多其他选项,这里先不提,只输入一个Tensor也是可以的

    W = tf.Variable(tf.zeros(shape=[1,2]))
    • 1
    • 1

    注意,此时W一样是一个抽象的概念,而且与Tensor不同,Variable必须初始化以后才有具体的值

    tensor = tf.zeros(shape=[1,2])
    variable = tf.Variable(tensor)
    sess = tf.InteractiveSession()
    # print(sess.run(variable))  # 会报错
    sess.run(tf.initialize_all_variables()) # 对variable进行初始化
    print(sess.run(variable))
    #===>[[ 0.  0.]]
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    1.1.3 placeholder

    又叫占位符,同样是一个抽象的概念。用于表示输入输出数据的格式。告诉系统:这里有一个值/向量/矩阵,现在我没法给你具体数值,不过我正式运行的时候会补上的!例如上式中的x和y。因为没有具体数值,所以只要指定尺寸即可

    x = tf.placeholder(tf.float32,[1, 5],name='input')
    y = tf.placeholder(tf.float32,[None, 5],name='input')
    • 1
    • 2
    • 1
    • 2

    上面有两种形式,第一种x,表示输入是一个[1,5]的横向量。 
    而第二种形式,表示输入是一个[?,5]的矩阵。那么什么情况下会这么用呢?就是需要输入一批[1,5]的数据的时候。比如我有一批共10个数据,那我可以表示成[10,5]的矩阵。如果是一批5个,那就是[5,5]的矩阵。tensorflow会自动进行批处理


    1.1.4 Session

    session,也就是会话。我的理解是,session是抽象模型的实现者。为什么之前的代码多处要用到session?因为模型是抽象的嘛,只有实现了模型以后,才能够得到具体的值。同样,具体的参数训练,预测,甚至变量的实际值查询,都要用到session,看后面就知道了


    1.2 模型构建

    这里我们使用官方tutorial中的mnist数据集的分类代码,公式可以写作 

    z=Wx+ba=softmax(z)

    那么该模型的代码描述为

    # 建立抽象模型
    x = tf.placeholder(tf.float32, [None, 784]) # 输入占位符
    y = tf.placeholder(tf.float32, [None, 10])  # 输出占位符(预期输出)
    W = tf.Variable(tf.zeros([784, 10]))        
    b = tf.Variable(tf.zeros([10]))
    a = tf.nn.softmax(tf.matmul(x, W) + b)      # a表示模型的实际输出
    
    # 定义损失函数和训练方法
    cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(a), reduction_indices=[1])) # 损失函数为交叉熵
    optimizer = tf.train.GradientDescentOptimizer(0.5) # 梯度下降法,学习速率为0.5
    train = optimizer.minimize(cross_entropy)  # 训练目标:最小化损失函数
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    可以看到这样以来,模型中的所有元素(图结构,损失函数,下降方法和训练目标)都已经包括在train里面。我们可以把train叫做训练模型。那么我们还需要测试模型

    correct_prediction = tf.equal(tf.argmax(a, 1), tf.argmax(y, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    • 1
    • 2
    • 1
    • 2

    上述两行代码,tf.argmax表示找到最大值的位置(也就是预测的分类和实际的分类),然后看看他们是否一致,是就返回true,不是就返回false,这样得到一个boolean数组。tf.cast将boolean数组转成int数组,最后求平均值,得到分类的准确率(怎么样,是不是很巧妙)


    1.3 实际训练

    有了训练模型和测试模型以后,我们就可以开始进行实际的训练了

    sess = tf.InteractiveSession()      # 建立交互式会话
    tf.initialize_all_variables().run() # 所有变量初始化
    for i in range(1000):
        batch_xs, batch_ys = mnist.train.next_batch(100)    # 获得一批100个数据
        train.run({x: batch_xs, y: batch_ys})   # 给训练模型提供输入和输出
    print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    可以看到,在模型搭建完以后,我们只要为模型提供输入和输出,模型就能够自己进行训练和测试了。中间的求导,求梯度,反向传播等等繁杂的事情,tensorflow都会帮你自动完成。


    2. 实际代码

    实际操作中,还包括了获取数据的代码

    """A very simple MNIST classifier.
    See extensive documentation at
    http://tensorflow.org/tutorials/mnist/beginners/index.md
    """
    from __future__ import absolute_import
    from __future__ import division
    from __future__ import print_function
    
    # Import data
    from tensorflow.examples.tutorials.mnist import input_data
    
    import tensorflow as tf
    
    flags = tf.app.flags
    FLAGS = flags.FLAGS
    flags.DEFINE_string('data_dir', '/tmp/data/', 'Directory for storing data') # 把数据放在/tmp/data文件夹中
    
    mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)   # 读取数据集
    
    
    # 建立抽象模型
    x = tf.placeholder(tf.float32, [None, 784]) # 占位符
    y = tf.placeholder(tf.float32, [None, 10])
    W = tf.Variable(tf.zeros([784, 10]))
    b = tf.Variable(tf.zeros([10]))
    a = tf.nn.softmax(tf.matmul(x, W) + b)
    
    # 定义损失函数和训练方法
    cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(a), reduction_indices=[1]))  # 损失函数为交叉熵
    optimizer = tf.train.GradientDescentOptimizer(0.5) # 梯度下降法,学习速率为0.5
    train = optimizer.minimize(cross_entropy) # 训练目标:最小化损失函数
    
    # Test trained model
    correct_prediction = tf.equal(tf.argmax(a, 1), tf.argmax(y, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    
    # Train
    sess = tf.InteractiveSession()      # 建立交互式会话
    tf.initialize_all_variables().run()
    for i in range(1000):
        batch_xs, batch_ys = mnist.train.next_batch(100)
        train.run({x: batch_xs, y: batch_ys})
    print(sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}))
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43

    得到的分类准确率在91%左右

    展开全文
  • MR(Measurement Report,测量报告)是指信息在业务信道上每480ms(信令信道上470ms)发送一次数据,这些数据可用于网络评估和优化。 MR测量报告由MS和BTS完成,MS执行并上报GSM小区下行电平强度、质量和TA,BTS执行...
  • 数采物联长期从事电表无线数据采集工作,不少人对最大需量这一概念理解不够透彻,这里给大家普及一下最大需量的含义。 MD也叫契约用电负荷,又叫“最大需量”(单位:kW),是指客户在一个电费结算周期内,每单位时间...
  • # coding:utf-8 ''' 进程:重量级进程,就是程序的一次运行。进程拥有独立的内存空间。 线程:轻量级进程,就是进程分支,同一进程下的线程共享该进程的内存 python虚拟机:python模仿系统运行的一个功能,是单CPU...
  • 在 o/r 映射的时候出现的概念,如果没有 o/r 映射,没有这个概念存在了。通常对应数据模型 ( 数据库 ), 本身还有部分业务逻辑的处理。可以看成是数据库中的表相映射的 java 对象。最简单的 PO 就是对应数据库中...
  •  在概率论中,两个随机变量 X Y 之间相互关系,大致有下列3种情况: 当 X, Y 的联合分布像上图那样时,我们可以看出,大致上有: X 越大 Y 也越大, X 越小 Y 也越小,这种情况,我们称为“正相关”。 当X, Y ...
  • GVR的含义与作用

    2020-11-26 15:18:31
    k8s中包含了许多资源,列如常用的Pod、Deployment、Secret、Daemonset、Statefulset等等(这里讲的不是Kind的概念,而是k8s在代码中定义的类型结构体,虽然大家平时写yaml中Kind写的多是这些类型,后面会讲解)。...
  • 推荐教材:《Python程序设计基础应用》(ISBN:9787111606178),董付国,机械工业出版社 图书详情: 配套资源: 用书教师可以联系董老师获取教学大纲、课件、源码、电子教案、考试系统等配套教学资源。 ...
  • 在项目中合理地运用设计模式可以完美地解决很多问题,每种模式在现实中都有相应的原理来之对应,每种模式都描述了一个在我们周围不断重复发生的问题,以及该问题的核心解决方案,这也是设计模式能被广泛应用的原因...
  • 时域频域的含义

    2014-06-28 10:51:46
    此文档描述了移动通信领域中,频率域时间域之间的对应关系,可帮助读者更好的理解OFDM的概念
  • 概念:名

    2019-10-03 14:22:46
    概念的名称是人类联系意识与实体的桥梁;...第一种是一个概念符号,与概念描述的内容关联不大;另一种是概念的高度概括,看到名字以后就能够猜出包含的大概意思。 概念的实,即为概念的内涵和外延。 概念亦...
  • 详解Javahome Path ClassPath的含义  1、首先搞明白内部命令外部命令的区别 在学习编程过程中经常遇到这样的概念: 内部命令 启动后是常住内存的。 用dos的时候内存都比较小,非常贵,而...
  • 帧率码率的概念

    2018-09-14 12:32:00
    本文介绍音视频的帧率码率的概念。 小程之前还介绍了音视频的其它概念,读者可以关注“广州小程”微信公众号,并在“音视频->基础概念与流程”菜单项中查阅相关的文章。 (1)帧率 帧率,表示的是频率,也...
  • JAVANIOBuffer中各种重要的状态属性的含义与关系图解一个简单的NIO例子NIO的基本概念与笔记源码看一看大概的意思与 问题 :buffer是怎么读?怎么写?flip()方法执行的原理:Buffer类简单了解代码测试总结 一个简单的NIO...
  • implements 实现接口:Java也提供继承机制﹐但还另外提供一个叫interface的概念。由于Java的继承机制只能提供单一继承(就是只能继承一种父类别)﹐所以就以Java的interface来代替C++的多重继...
  • [转]BNF 和EBNF的含义与用法

    千次阅读 2008-11-10 23:21:00
    最近搞了搞编译器,解释器.由于自己才接触,开始完全不晓得基础概念BNF...方便了解,学习转http://blog.chinaunix.net/u/3176/showart_404211.html BNF 和EBNF的含义与用法 BNF 和EBNF的含义与用法(感谢译者:Sunnybill
  • 近年来,几大关键技术的进步和应用,极大... 进入2006年,SOA等新需求的提出,协同软件概念也赋予了新的含义。在激烈竞争的市场环境下,企业的管理模式很难固化,当企业要做出一些改动时需要面对巨大的挑战。同时,随着
  • 同步异步的概念

    2014-08-14 08:57:18
    异步:一种通讯方式,对设备需求简单。我们的PC机提供的标准通信接口都是异步的。...同步处理相对,异步处理不用阻塞当前线程来等待处理完成,而是允许后续操作,直至其它线程将处理完成,并回调通知此线程。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,487
精华内容 1,794
关键字:

含义与概念