精华内容
下载资源
问答
  • 不少伙伴表示疑惑,不知道如何去计算,下面教大家使用公式,轻松搞定加减乘除运算~Word函数计算公式,先记住这三个函数求和函数SUM求积函数PRODUCT求平均值函数AVERAGE1、Word表格求和在Word表格中求和,直接点击...

    在Word表格中的数据应该如何计算呢?不少伙伴表示疑惑,不知道如何去计算,下面教大家使用公式,轻松搞定加减乘除运算~

    Word函数计算公式,先记住这三个函数:

    求和函数SUM

    求积函数PRODUCT

    求平均值函数AVERAGE

    1、Word表格求和

    在Word表格中求和,直接点击【布局】-【数据】-【公式】,默认是求和公式,直接点击确定就能求出第一个单元格的结果,剩下单元格使用F4按键填充即可。

    137a37fbd592d34232efa68d4171830b.gif

    注意:left:向左计算;right:向右计算;below:向下计算;above:向上计算。根据实际操作切换公式。

    2、Word表格求平均值

    在单元格上点击【公式】,将sum函数修改成AVERAGE函数计算出第一个单元格的结果,其余的使用F4填充。

    f3087840c4fa7378f690f6eb0332ed0a.gif

    3、Word表格求积

    一样的操作,进入【公式】,将函数改成PRODUCT求出结果,再使用F4填充。

    d2fc0e5dc59a7128db146a2ad757c81c.gif

    4、Word表格减法计算

    减法运算需要我们手动输入公式=B2-C2,其余单元格也需要手动输入公式完成计算,不能快速填充哦。

    d7c36c35400d7d3e9a2d71ad24ba63ba.gif

    5、Word表格除法计算

    除法运算和减法运算是一样的,使用公式=B2/C2运算,其余单元格对应修改公式计算结果,需要一个个单元格手动操作。

    d44d8c6bd686ff8d83f19caf3c521674.gif
    展开全文
  • Word中的表格运算是一大难题,并不能像Excel中那样强悍和方便,不过基本运算还是足以满足我们需求。之前跟大家分享过通过插入函数来实现简单的求和运算,今天就此基础上,将各类基本运算一并分享给你,希望...
    8111d593438875213757639684fe5319.png

    Word中的表格运算是一大难题,并不能像Excel中那样强悍和方便,不过基本的运算还是足以满足我们的需求的。之前跟大家分享过通过插入函数来实现简单的求和运算,今天就在此基础上,将各类基本运算一并分享给你,希望对工作有所帮助哦!

    首先来看看求和,这个比较简单,之前也分享过,我们只需要在后面的单元格点一下,然后在布局中找到公式选项,点击会给我们默认的“=SUM(LEFT) ”,正是我们所需要的,直接确认就可以了,对于下面的几个直接按F4(重复上一步操作)就可以了。对于下面一行的求和也是一样的,默认的函数是“=SUM(ABOVE)”,然后F4填充其他几个单元格。对于平均数,我们只需要将默认的函数修改成AVERAGE就可以了,同理,对于乘积,就将函数修改为PRODUCT。以上三种都有现成的函数,第一个完成直接按F4就可以填充到其他单元格,是比较方便的。

    8ba45a36cd6f054f960b28352db78eab.gif

    如果是减法呢?就没有现成的函数了,而是需要我们通过手动填入公式来完成。比如这里的减法,就需要我们将默认的公式修改为“=B2-C2”,而且这个时候F4是失灵的,每一个的计算都需要我们手动修改来完成,相对来说比较复杂。

    77d22a8bbc9817cbd870b495f43a56f3.gif

    如果是除法呢?也是类似的,比如这里我们需要计算同比,就需要用增长量除以基数。每一个都需要我们手动输入来完成。同比通常是用百分比来表示,怎么样才能将这些小数转化为百分比呢?这里需要借助一个插件,那就是“Word精灵”,选中刚才的小数,然后点击Word精灵下面的“小数转百分比”就可以了。

    9a94f1663459d9d9cb89b36b4727643e.gif

    怎么样,你学会了?今天内容干货比较多,希望对于你有所帮助哦!

    展开全文
  • 8.在Word的表格操作计算求和的函数是( )。B A、Count B、Sum C、Total D、Average 9.如要在Word文档创建表格,应使用( )菜单。B A、格式 B、表格 C、工具 D、插入 10.在Word编辑状态下,如要调整段落的...
  • 负采样是一种训练技巧,通过观察上一节的Skip-Gram和CBOW的目标函数就会发现,公式的最后都有一个求和项,而求和的范围是词汇表的所有词,如果词汇表非常巨大,那么对目标函数进行反向传播时的计算量会非常大...

    负采样是一种训练技巧,通过观察上一节中的Skip-Gram和CBOW的目标函数就会发现,公式的最后都有一个求和项,而求和的范围是词汇表中的所有词,如果词汇表非常巨大,那么在对目标函数进行反向传播时的计算量会非常大。而通过负采样可以减少输入维度,对于Skip-Gram模型来说就是选定几个中心词之外的词和中心词一起训练,这比整个词汇表一起训练的计算量要小很多。
    想了解具体公式推导的读者可以参考这篇博客
    下面给出代码实现:

    import torch
    import torch.nn as nn
    from torch.autograd import Variable
    import torch.optim as optim
    import torch.nn.functional as F
    import nltk
    import random
    import numpy as np
    from collections import Counter
    flatten = lambda l: [item for sublist in l for item in sublist]
    random.seed(1024)
    
    USE_CUDA = torch.cuda.is_available()
    gpus = [0]
    torch.cuda.set_device(gpus[0])
    
    FloatTensor = torch.cuda.FloatTensor if USE_CUDA else torch.FloatTensor
    LongTensor = torch.cuda.LongTensor if USE_CUDA else torch.LongTensor
    ByteTensor = torch.cuda.ByteTensor if USE_CUDA else torch.ByteTensor
    
    def getBatch(batch_size, train_data):
        random.shuffle(train_data)
        sindex = 0
        eindex = batch_size
        while eindex < len(train_data):
            batch = train_data[sindex: eindex]
            temp = eindex
            eindex = eindex + batch_size
            sindex = temp
            yield batch
        
        if eindex >= len(train_data):
            batch = train_data[sindex:]
            yield batch
    
    def prepare_sequence(seq, word2index):
        idxs = list(map(lambda w: word2index[w] if word2index.get(w) is not None else word2index["<UNK>"], seq))
        return Variable(LongTensor(idxs))
    
    def prepare_word(word, word2index):
        return Variable(LongTensor([word2index[word]]) if word2index.get(word) is not None else LongTensor([word2index["<UNK>"]]))
    
    corpus = list(nltk.corpus.gutenberg.sents('melville-moby_dick.txt'))[:500]
    corpus = [[word.lower() for word in sent] for sent in corpus]
    # 以上加载数据集和一些函数的内容和上一节一样
    # 构造停用词
    word_count = Counter(flatten(corpus))
    MIN_COUNT = 3
    exclude = []
    for w, c in word_count.items():
        if c < MIN_COUNT:
            exclude.append(w)
    # 构造训练集的方式也和上一节一样
    vocab = list(set(flatten(corpus)) - set(exclude))    
    word2index = {}
    for vo in vocab:
        if word2index.get(vo) is None:
            word2index[vo] = len(word2index)
            
    index2word = {v:k for k, v in word2index.items()}
    WINDOW_SIZE = 5
    windows =  flatten([list(nltk.ngrams(['<DUMMY>'] * WINDOW_SIZE + c + ['<DUMMY>'] * WINDOW_SIZE, WINDOW_SIZE * 2 + 1)) for c in corpus])
    train_data = []
    for window in windows:
        for i in range(WINDOW_SIZE * 2 + 1):
            if window[i] in exclude or window[WINDOW_SIZE] in exclude: 
                continue # min_count
            if i == WINDOW_SIZE or window[i] == '<DUMMY>': 
                continue
            train_data.append((window[WINDOW_SIZE], window[i]))
    X_p = []
    y_p = []
    for tr in train_data:
        X_p.append(prepare_word(tr[0], word2index).view(1, -1))
        y_p.append(prepare_word(tr[1], word2index).view(1, -1))
    # 下面介绍选择负样本词的方法
    # 简单来说就是计算一个词在词汇表中的权重,公式:(word_count/num_total_words)**0.75
    # 具体情况可以参考文章开头给出的博客  
    Z = 0.001    
    word_count = Counter(flatten(corpus))
    num_total_words = sum([c for w, c in word_count.items() if w not in exclude])
    unigram_table = []
    for vo in vocab:
        unigram_table.extend([vo] * int(((word_count[vo]/num_total_words)**0.75)/Z))
    # 定义负采样函数,该函数返回选择出来的负样本词
    def negative_sampling(targets, unigram_table, k):
        batch_size = targets.size(0)
        neg_samples = []
        for i in range(batch_size):
            nsample = []
            target_index = targets[i].data.cpu().tolist()[0] if USE_CUDA else targets[i].data.tolist()[0]
            while len(nsample) < k:   # num of sampling
                neg = random.choice(unigram_table)
                if word2index[neg] == target_index:
                    continue
                nsample.append(neg)
            neg_samples.append(prepare_sequence(nsample, word2index).view(1, -1))
        
        return torch.cat(neg_samples)
    # 定义模型  
    class SkipgramNegSampling(nn.Module):
        
        def __init__(self, vocab_size, projection_dim):
            super(SkipgramNegSampling, self).__init__()
            self.embedding_v = nn.Embedding(vocab_size, projection_dim) # center embedding
            self.embedding_u = nn.Embedding(vocab_size, projection_dim) # out embedding
            self.logsigmoid = nn.LogSigmoid()
                    
            initrange = (2.0 / (vocab_size + projection_dim))**0.5 # Xavier init
            self.embedding_v.weight.data.uniform_(-initrange, initrange) # init
            self.embedding_u.weight.data.uniform_(-0.0, 0.0) # init
            
        def forward(self, center_words, target_words, negative_words):
            center_embeds = self.embedding_v(center_words) # B x 1 x D
            target_embeds = self.embedding_u(target_words) # B x 1 x D
            
            neg_embeds = -self.embedding_u(negative_words) # B x K x D
            
            positive_score = target_embeds.bmm(center_embeds.transpose(1, 2)).squeeze(2) # Bx1
            negative_score = torch.sum(neg_embeds.bmm(center_embeds.transpose(1, 2)).squeeze(2), 1).view(negs.size(0), -1) # BxK -> Bx1
            
            loss = self.logsigmoid(positive_score) + self.logsigmoid(negative_score)
            
            return -torch.mean(loss)
        
        def prediction(self, inputs):
            embeds = self.embedding_v(inputs)
            
            return embeds 
    EMBEDDING_SIZE = 30 
    BATCH_SIZE = 256
    EPOCH = 100
    NEG = 10 # Num of Negative Sampling
    model = SkipgramNegSampling(len(word2index), EMBEDDING_SIZE)
    if USE_CUDA:
        model = model.cuda()
    optimizer = optim.Adam(model.parameters(), lr=0.001)
    for epoch in range(EPOCH):
        for i,batch in enumerate(getBatch(BATCH_SIZE, train_data)):
            
            inputs, targets = zip(*batch)
            
            inputs = torch.cat(inputs) # B x 1
            targets = torch.cat(targets) # B x 1
            negs = negative_sampling(targets, unigram_table, NEG)
            model.zero_grad()
    
            loss = model(inputs, targets, negs)
            
            loss.backward()
            optimizer.step()
        
            losses.append(loss.data.tolist()[0])
        if epoch % 10 == 0:
            print("Epoch : %d, mean_loss : %.02f" % (epoch, loss))
    # 计算余弦相似度
    def word_similarity(target, vocab):
        if USE_CUDA:
            target_V = model.prediction(prepare_word(target, word2index))
        else:
            target_V = model.prediction(prepare_word(target, word2index))
        similarities = []
        for i in range(len(vocab)):
            if vocab[i] == target: 
                continue
            
            if USE_CUDA:
                vector = model.prediction(prepare_word(list(vocab)[i], word2index))
            else:
                vector = model.prediction(prepare_word(list(vocab)[i], word2index))
            
            cosine_sim = F.cosine_similarity(target_V, vector).data.tolist()[0]
            similarities.append([vocab[i], cosine_sim])
        return sorted(similarities, key=lambda x: x[1], reverse=True)[:10]
                                                   
    展开全文
  • Word_2003域应用

    2011-06-26 11:21:31
    Word 2003域应用 一、域应用基础 1 ...五、利用域在Word中实现计算功能 38 1.计算表格行或列 38 (1)计算表格行 38 (2)计算表格列 38 2.计算任意单元格 38 (1)对任意单元格求和 38 (2)If函数的判断求和 39
  • word2vec初心是什么,为什么使用负采样技术。 看了很多博客和B站视频讲解,还是没有...softmax函数激活,会导致计算全部单词‘得分’(滑动窗口滑动过程,需要计算滑动窗口里面单词然后求和,效率低) 2..

    word2vec的初心是什么,为什么使用负采样技术。后面看论文过程经常遇到负采样,如mepath2vec等等,对这个知识点不了解清楚,论文很多精华部分理解就会有偏差了。

    看了很多博客和B站视频讲解,还是没有讲解清楚。

    最后还是知乎大佬说清楚了。详见

     

    1 用负采样带来的问题

    • 参数更新慢

    其一 我们每次只对窗口中出现的几个单词参数进行更新,但是在计算梯度的过程中,是对整个参数矩阵进行运算,这样参数矩阵中的大部分值都是0。

    • 计算开销大

    其二 是 导致计算效率低下
    softmax函数激活,会导致计算全部的单词‘得分’(滑动窗口在滑动过程中,需要计算滑动窗口里面单词然后求和,效率低)



    2. 使用负采样


    负采样的核心思想是:

    计算中心词和窗口中上下文词的真实“得分”,再加一些“噪声”,即词表中的随机词(滑动窗口以外)和中心词的“得分”。

    目标方程

    最大化 真实单词对“得分”+    “噪声”作为目标方程。)
    采用上述公式解决了之前说的两个问题:

    • 仅对K个参数进行采样
    • 放弃softmax函数,采用sigmoid函数,这样就不存在先求一遍窗口中所有单词的‘“得分”的情况


    3. 计算梯度

    把最大化问题变为最小化问题:

    \mathbf{J_{t }(\theta )= -log\delta (u_o^{T}u_c) - \sum_{i=1}^{k}\mathbb{E}_{jP(w)}[log\delta (-u_j^{T}u_c]}

    里面涉及到的变量是u_0 , u_ju_c.分别进行求偏导即可。然后进行更新

    u_c求偏导

    其他参数为不管,看为常量。

    其中里面的sigmoid函数(除log外)求导后为:\frac{\partial \delta (u_o^{T}u_c)} {\partial u_c} =\delta (u_o^{T}u_c)\cdot (1-\delta (u_o^{T}u_c))u_o

    \frac{\partial J(\theta ) }{\partial u_c} =\frac{\partial -log\delta (u_o^{T}u_c) }{\partial u_c} - \frac{\partial \sum_{i=1}^{k}\mathbb{E}_{jP(w)}[log\delta (-u_j^{T}u_c)]} {\partial u_c}

    = -\frac{1}{\delta (u_o^{T}u_c)}[\delta (u_o^{T}u_c)\cdot (1-\delta (u_o^{T}u_c))u_o] - \sum_{i=1}^{k}\frac{1}{\delta (-u_i^{T}u_c)}[\delta (-u_i^{T}u_c)\cdot (1-\delta (-u_i^{T}u_c))\cdot (-u_i)]

    注意这里的log看着以e为底,T这个求和与u_c无关,k这个求和与u_c有关.

     

    化简得:

    \frac{\partial J(\theta ) }{\partial u_c} = (\delta (u_o^{T}u_c)-1)u_o - \sum_{i=1}^{k} (\delta (-u_i^{T}u_c)-1)u_i,前面知乎大佬没有进行最大化变最小化,直接就给出了答案,是错的。应该先最小化,在求导,结果才对。

    u_o求偏导

    其他参数为不管,看为常量。

    按照u_c求导思路:

    \frac{\partial J(\theta ) }{\partial u_o} =\frac{\partial -log\delta (u_o^{T}u_c) }{\partial u_o} = -\frac{1}{\delta (u_o^{T}u_c)}[\delta (u_o^{T}u_c)\cdot (1-\delta (u_o^{T}u_c))u_0]

    化简得:

     \frac{\partial J(\theta ) }{\partial u_o} = (\delta (u_o^{T}u_c)-1)u_o

     

    u_i求偏导

    \frac{\partial J(\theta ) }{\partial u_i} =0 - \frac{\partial \sum_{i=1}^{k}\mathbb{E}_{jP(w)}[log\delta (-u_i^{T}u_c]} {\partial u_i}

    = 0- \sum_{i=1}^{k}\frac{1}{\delta (-u_i^{T}u_c)}[\delta (-u_i^{T}u_c)\cdot (1-\delta (-u_i^{T}u_c))-u_c]

    化简得:

    \frac{\partial J(\theta ) }{\partial u_i} = - \sum_{i=1}^{k} (\delta (-u_i^{T}u_c)-1)u_c

    展开全文
  • 实例279 Update触发器系统日志中的应用 实例280 触发器嵌套使用 实例281 获取数据库中的触发器 第12章 ASP.NET内置对象 12.1 页面传值 实例282 用Response.Redirect()方法进行页面传值 实例283 通过Session对象...
  • 【提取Flash文件】:将嵌入Excel或者Word中的Flash文件提取出来,保存为Swf文件 【播放Flash文件】:不用专业播放器,直接选择Flash动画即可播放,且具有自动透明播放功能 【提取选区唯一值】:将选择区域数据,...
  • 【提取Flash文件】:将嵌入Excel或者Word中的Flash文件提取出来,保存为Swf文件 【播放Flash文件】:不用专业播放器,直接选择Flash动画即可播放,且具有自动透明播放功能 【提取选区唯一值】:将选择区域...
  • EXCEL百宝箱8.0终极版

    2011-11-05 16:48:02
    函数功能与参数:判断指定区域是否有重复单元格的函数只有一个参数即为引用,结果为True时表示有重复,否则无重复。 函数名称:File  函数功能与参数:用于创建带链接的文件目录,有三个参数,包括路径、文件名...
  • Excel百宝箱8.0

    2011-06-07 21:32:17
    函数功能与参数:判断指定区域是否有重复单元格的函数只有一个参数即为引用,结果为True时表示有重复,否则无重复。 函数名称:File  函数功能与参数:用于创建带链接的文件目录,有三个参数,包括路径、文件名...
  • delphi 开发经验技巧宝典源码

    热门讨论 2010-08-12 16:47:23
    0235 如何读取Word中的文本 156 0236 通过身份证号获取年龄 157 0237 如何实现一个应用程序只能打开一个进程 158 7.4 其他数据处理技术 159 0238 对计算结果四舍五入 159 0239 获取一个字符ASCII值 ...
  • 0235 如何读取Word中的文本 156 0236 通过身份证号获取年龄 157 0237 如何实现一个应用程序只能打开一个进程 158 7.4 其他数据处理技术 159 0238 对计算结果四舍五入 159 0239 获取一个字符ASCII值 ...
  • 0235 如何读取Word中的文本 156 0236 通过身份证号获取年龄 157 0237 如何实现一个应用程序只能打开一个进程 158 7.4 其他数据处理技术 159 0238 对计算结果四舍五入 159 0239 获取一个字符ASCII值 ...
  • 0235 如何读取Word中的文本 156 0236 通过身份证号获取年龄 157 0237 如何实现一个应用程序只能打开一个进程 158 7.4 其他数据处理技术 159 0238 对计算结果四舍五入 159 0239 获取一个字符ASCII值 ...
  • 0235 如何读取Word中的文本 156 0236 通过身份证号获取年龄 157 0237 如何实现一个应用程序只能打开一个进程 158 7.4 其他数据处理技术 159 0238 对计算结果四舍五入 159 0239 获取一个字符ASCII值 ...
  • 0235 如何读取Word中的文本 156 0236 通过身份证号获取年龄 157 0237 如何实现一个应用程序只能打开一个进程 158 7.4 其他数据处理技术 159 0238 对计算结果四舍五入 159 0239 获取一个字符ASCII值 ...
  • Excel函 数 大 全

    2010-05-10 22:35:56
    能这样方便查找的函数大全是从来没有过的,网络是一般的函数说明或大全都是用WORD做成的,大家学习的时候不是很方便,特别是初学者就象看天书一样,现在有了它就可以方便的复制公式,再粘贴到自己所要的文件再...
  • 另外,“函数向导”对话框会生成28个新的函数,用于扩展Excel的计算功能。且所有功能都通用于Excel 2002、2003、2007和2010。  Excel百宝箱 79个菜单工具的功能介绍如下: 功能名称功能介绍 【公农双历查询】...
  • Python Cookbook

    2013-07-31 22:33:26
    17.4 调用Windows DLL的函数 601 17.5 多线程环境使用SWIG生成的模块 603 17.6 用PySequence_Fast将Python序列转为 C数组 604 17.7 用迭代器逐个访问Python序列的元素 608 17.8 从Python可调用的C函数返回...
  • 5.4 文秘工作常用的函数 5.4.1 AND函数 5.4.2 TEXT函数 5.4.3 TODAY函数 5.4.4 YEAR函数 5.4.5 IF函数 5.4.6 COUNTIF函数 文秘应用 统计报销费用大于500元的个数 5.4.7 SUMIF函数 5.4.8 SUMPRODLJcT函数 5.4.9 ...
  • 尹成Python27天入门到项目实战

    千人学习 2020-12-05 17:04:22
    业day19up 深度遍历与广度遍历正则表达式小结最简单递归递归顺序递归求和递归腾讯台阶面试题文件夹的函数遍历文件夹遍历文件夹有层次感栈模拟递归栈模拟递归遍历文件夹栈模拟递归遍历文件夹层次感普及网站提取概念栈...
  • 根据各功能的特点,对子菜单作了18个分类, 而函数向导对话框也生成100个左右新的函数,用于扩展Excel的计算功能。且所有功能都通用于Excel 2002、2003和2007、2010。支持英文显示与繁简体操作系统,支持Wista...
  • 14.12 读写Cookie的函数 14.13 获取JavaScript函数的所有参数 14.14 奇偶数的判断 14.15 JavaScript运行VBScript函数 14.16 购物篮常用的计算总价效果 14.17 同一用户的来访统计 14.18 十六进制转换为十进制 ...
  • EXCEL集成工具箱V6.0

    2010-09-11 01:44:37
    作了18个分类, 而函数向导对话框也生成100个左右新的函数,用于扩展Excel的计算功能。且所有功能都通用于 Excel 2002、2003和2007、2010。支持英文显示与繁简体操作系统、拥有20多款华丽的皮肤界面,支持Excel...
  • 作了18个分类, 而函数向导对话框也生成100个左右新的函数,用于扩展Excel的计算功能。且所有功能都通用于 Excel 2002、2003和2007、2010。支持英文显示与繁简体操作系统、拥有30多款华丽的皮肤界面,支持Excel...
  • 作了18个分类, 而函数向导对话框也生成100个左右新的函数,用于扩展Excel的计算功能。且所有功能都通用于 Excel 2002、2003和2007、2010。支持英文显示与繁简体操作系统、拥有20多款华丽的皮肤界面,支持Excel...
  • 作了18个分类, 而函数向导对话框也生成100个左右新的函数,用于扩展Excel的计算功能。且所有功能都通用于 Excel 2002、2003和2007、2010。支持英文显示与繁简体操作系统、拥有20多款华丽的皮肤界面,支持Excel...
  • 14.12 读写Cookie的函数 14.13 获取JavaScript函数的所有参数 14.14 奇偶数的判断 14.15 JavaScript运行VBScript函数 14.16 购物篮常用的计算总价效果 14.17 同一用户的来访统计 14.18 十六进制转换为十进制 ...
  • 应用案例 - 用户身份验证 / 英制单位与公制单位互换 / 掷骰子决定做什么 / 百分制成绩转等级制 / 分段函数求值 / 输入三条边长度如果能构成三角形就计算周长和面积 Day04 - 循环结构 循环结构应用场景 - ...

空空如也

空空如也

1 2 3
收藏数 41
精华内容 16
关键字:

在word中计算求和的函数是