精华内容
下载资源
问答
  • 在日常工作学习中,一般会利用...打开带有数据的Word中的表格文档,小编自己制作的表格为例,要求计算同学们的考试平均分来,如图所示。第一步:选中第一个要求的均值数据单元格,找到“表格工具”下的“布局”选项...

    在日常工作学习中,一般会利用Excel的函数知识来处理数据,求得数字的平均值。但是在Word表格中的数据,该如何快速正确的处理数据,利用公式,求得平均值呢?下面就让小编向大家详细介绍word平均值公式,电脑前的朋友一定记得收藏。

    打开带有数据的Word中的表格文档,小编自己制作的表格为例,要求计算同学们的考试平均分来,如图所示。

    e17f7ca6e1c16be032f093a4c37de8c1.png

    第一步:选中第一个要求的均值数据单元格,找到“表格工具”下的“布局”选项卡单击 ,找到底下菜单栏中的“数据”按钮单击,并且在弹出的下级列表中,找到“公式”进行单击,如图所示。

    391a0f3f784e1af56b5d899fd479fed9.png

    第二步:在弹出的“公式”对话框中,“公式”下面默认输入的是“求和公式”所以要进行修改才行。

    9bb7983f5c6d76b9d2b69f6b7b8cb8e1.png

    第三步:选中输入框中的“SUM(LEFT)进行删除”,找到“粘贴函数”下面的下拉箭头单击。在下拉菜单选择“AVERAGE”单击,并在()中输入LEFT,表示向左计算平均值,如图所示。

    e847fd45caea901dcfb82d38b01b19c0.png

    第四步:点击“确定”,即计算出第一个行数据的平均值,如图所示。

    0b30e5e90272981118f5486ba5b2ed6b.png

    第五步:求出第一个平均值之后,选中对应的单元格,使用快捷键“F4”即可快速重复上次操作,就可以快速求出每个同学的平均值,如图所示。

    6d02bced353e5b8f6e34ebc8efdf88a0.png

    以上内容就是利用word公式求得平均值得详细介绍,是不是很简单,不知道电脑前的你学会没有?Word表格还可以简单的处理求和等数据,希望同学们能够在课后举一反三,多加练习,熟练掌握。

    本篇文章使用以下硬件型号:联想小新Air15;系统版本:win10;软件版本:Word 2007。

    展开全文
  • word中如何使用公式如上边的那个表格,如果我们要求出每个人的总工资,和平均工资。可能有人,就会将这个表格复制到Excel中进行计算,其实在word中我们一样也可以像在Excel中那样进行公式计算。步骤1:我们将光标...

    word中如何使用公式

    6d5d4509a32535ea3921d03bf3775ef7.png

    如上边的那个表格,如果我们要求出每个人的总工资,和平均工资。可能有人,就会将这个表格复制到Excel中进行计算,其实在word中我们一样也可以像在Excel中那样进行公式计算。

    步骤1:我们将光标定位到第一个人的总工资单元格,切换到,表格工具的布局选项卡下边。

    955bc02add5bde878a49d333701d1f70.png

    步骤2:点击数据功能组下边的fx公式按钮,在打开的公式对话框中,输入公式=SUM(LEFT);即可求出第一个人的总工资(备注:sum为求和函数,average为求平均值函数,left的意思是左侧所有数据,above的意思是上方所有数据)

    19cd576800b05ad454513f1d3425d6d5.png

    步骤3:我们求出第一个单元格的值以后,可以按向下的箭头,调到下一个单元格,然后按F4键,重复上一步操作,即可求出其他人的总工资。

    步骤4:执行步骤1、2,在公式对话框中输入=AVERAGE(ABOVE),即可求出,平均工资。

    本节完……

    关注我,学习更多办公技巧。

    展开全文
  • 回答:用求和“SUM”函来数源和“求平均数”函数完成。具体的操作方法和步骤如下:1、首先,以Word2010版本为例,计算表的总分和平均分,见下图,然后进入下一步。2、其次,完成上述步骤后,单击页面顶部的“布局”...

    回答:

    用求和“SUM”函来数源和“求平均数”函数完成。

    具体的操作方法和步骤如下:

    1、首先,以Word2010版本为例,计算表的总分和平均分,见下图,然后进入下一步。

    b6d3ea054e8d4a7b3719632405cb6beb.gif

    2、其次,完成上述步骤后,单击页面顶部的“布局”选项,然后单击菜单栏右侧的“公式”选项,如下图所示,然后进入下一步。

    ef08c739d7ce0c27d0a692b6c085d286.gif

    3、接着,完成上述步骤后,在弹出的“公式”设置框中,填写公式“= SUM(LEFT)”,然后单击“确定”按钮,如下图所示,然后进入下一步。

    ccf0708652ccb8beff3bdd038f02b12e.gif

    4、然后,完成上述步骤后,将看到该列的总分已计算出来,如下图所示,然后进入下一步。

    617bf43da9f1174f32f51e84de51bfa1.gif

    5、随后,完成上述步骤后,同理可以计算下面的总分,或直接使用快捷键“F4”重复上述步骤,而无需频繁输入公式,如下图所示,然后进入下一步。

    22ba3cbd881f62e0718a14f5d6076e39.gif

    6、接着,完成上述步骤后,以相同的方式计算平均得分,首先打开“公式”设置框,填写公式以找到平均值函数“= AVERAGE(B2:F2)”,此处的访问区域与Excel表相同,也从A列开始,然后单击下面的“确定”按钮,如下图所示,然后进入下一步。

    62c414e2d7be13ace476a9e012bbd25e.gif

    7、最后,完成上述步骤后,可以计算列的平均数,并对后面的结果重复上述操作即可,如下图所示。这样,问题就解决了。

    1ab91d343bf2a965a705ea6fa67d1568.gif

    展开全文
  • 这是一个文本分类的系列专题,将采用不同的方法有简单到复杂实现文本分类。 使用Stanford sentiment treebank 电影评论数据集 (Socher et al....第一个最简单的模型: 词向量平均模型(Word Average ...

    这是一个文本分类的系列专题,将采用不同的方法有简单到复杂实现文本分类。
    使用Stanford sentiment treebank 电影评论数据集 (Socher et al. 2013). 数据集可以从这里下载
    链接:数据集
    提取码:yeqw
    代码请参考:文本分类

    第一个最简单的模型: 词向量平均模型(Word Average Model)

    词向量平均模型

    我们用X = {x_1, x_2,x_3…x_n}表示一个句子,x_t是句子中的第t个单词,我们使用emb来表示单词的embedding函数,也就是说 emb(x)返回一个d维度的词向量。
    首先我们定义一个word_averaging 句子encoder:
    havg=1/xtemb(xt)h_{avg} = 1/|x| * \sum_t emb(x_t)
    然后,这个句子是正面情感的概率就是:
    pos=σ(WThavg)pos = \sigma(W^T * h_{avg})

    \sigma是逻辑斯蒂函数, w 是一个d维向量。如果,pos>=0.5分类器就返回正面的情感,否则就返回负面情感.

    在训练的时候我们使用binary log loss。整个模型的参数就是embedding函数 emb 和向量 w 。注意词向量的维度 d 和 w 的维度必须相同。有些单词可能在DEV和TEST中出现,但是没有在TRAIN当中出现。针对这些单词,我们可以随机生成一个词向量(一个特殊的UNK词向量)。不过在初始化词向量的时候,注意不要初始化太大的范围,否则这些unknown words的norm太大可能会导致模型效果变差(所以这里我们将词向量初始化为-0.1到0.1之间的随机数)

    import random
    from collections import Counter
    import torch
    import torch.nn as nn
    import torch.optim as optim
    import torch.nn.functional as F
    USE_CUDA = torch.cuda.is_available()
    device = torch.device('cuda' if USE_CUDA else 'cpu')
    

    读数据

    with open('senti.train.tsv','r') as rf:
        lines = rf.readlines()
    print(lines[:10])
    

    [‘hide new secretions from the parental units\t0\n’, ‘contains no wit , only labored gags\t0\n’, ‘that loves its characters and communicates something rather beautiful about human nature\t1\n’, ‘remains utterly satisfied to remain the same throughout\t0\n’, ‘on the worst revenge-of-the-nerds clich茅s the filmmakers could dredge up\t0\n’, “that 's far too tragic to merit such superficial treatment\t0\n”, ‘demonstrates that the director of such Hollywood blockbusters as Patriot Games can still turn out a small , personal film with an emotional wallop .\t1\n’, ‘of saucy\t1\n’, “a depressed fifteen-year-old 's suicidal poetry\t0\n”, “are more deeply thought through than in most ` right-thinking ’ films\t1\n”]

    def read_corpus(path):
        sentences = []
        labels = []
        with open(path,'r', encoding='utf-8') as f:
            for line in f:
                sentence, label = line.split('\t')
                sentences.append(sentence.lower().split())
                labels.append(label[0])
        return sentences, labels
    
    train_path,dev_path,test_path = 'senti.train.tsv','senti.dev.tsv','senti.test.tsv'
    
    train_sentences, train_labels = read_corpus(train_path)
    dev_sentences, dev_labels = read_corpus(dev_path)
    test_sentences, test_labels = read_corpus(test_path)
    
    print(len(train_sentences)), print(len(train_labels))
    

    67349
    67349

    train_sentences[1], train_labels[1]
    

    ([‘contains’, ‘no’, ‘wit’, ‘,’, ‘only’, ‘labored’, ‘gags’], ‘0’)

    构造词典

    def build_vocab(sentences, word_size=20000):
        c = Counter()
        for sent in sentences:
            for word in sent:
                c[word] += 1
        print('文本总单词量为:',len(c))
        words_most_common = c.most_common(word_size)
        ## adding unk, pad
        idx2word = ['<pad>','<unk>'] + [item[0] for item in words_most_common]
        word2dix = {w:i for i, w in enumerate(idx2word)}
        return idx2word, word2dix
    
    WORD_SIZE=20000
    idx2word, word2dix = build_vocab(train_sentences, word_size=WORD_SIZE)
    

    文本总单词量为: 14828

    idx2word[:10]
    

    [’’, ‘’, ‘the’, ‘,’, ‘a’, ‘and’, ‘of’, ‘.’, ‘to’, “'s”]

    构造batch

    def numeralization(sentences, labels, word2idx):
        '把word list表示的句子转成 index 表示的列表'
        numeral_sent = [[word2dix.get(w, word2dix['<unk>']) for w in s] for s in sentences]
        numeral_label =[int(label) for label in labels]
        return list(zip(numeral_sent, numeral_label))
    
    num_train_data = numeralization(train_sentences, train_labels, word2dix)
    num_test_data = numeralization(test_sentences, test_labels, word2dix)
    num_dev_data = numeralization(dev_sentences, dev_labels, word2dix)
    
    
    def convert2tensor(batch_sentences):
        '将batch数据转成tensor,这里主要是为了padding'
        lengths = [len(s) for s in batch_sentences]
        max_len = max(lengths)
        batch_size = len(batch_sentences)
        batch = torch.zeros(batch_size, max_len, dtype=torch.long)
        for i, l in enumerate(lengths):
            batch[i, :l] = torch.tensor(batch_sentences[i])
        return batch
    
    def generate_batch(numeral_sentences_labels, batch_size=32):
        '''将list index 数据 分成batch '''
        batches = []
        num_sample = len(numeral_sentences_labels)
        random.shuffle(numeral_sentences_labels)
        numeral_sent = [n[0] for n in numeral_sentences_labels]
        numeral_label = [n[1] for n in numeral_sentences_labels]
        for start in range(0, num_sample, batch_size):
            end = start + batch_size
            if end > num_sample:
                batch_sentences = numeral_sent[start : num_sample]
                batch_labels = numeral_label[start : num_sample]
                batch_sent_tensor = convert2tensor(batch_sentences)
                batch_label_tensor = torch.tensor(batch_labels, dtype=torch.float)
            else:
                batch_sentences = numeral_sent[start : end]
                batch_labels = numeral_label[start : end]
                batch_sent_tensor = convert2tensor(batch_sentences)
                batch_label_tensor = torch.tensor(batch_labels, dtype=torch.float)
            batches.append((batch_sent_tensor.cuda(), batch_label_tensor.cuda()))
        return batches
    
    train_data = generate_batch(num_train_data)
    
    a = train_data[4]
    
    text,label=a
    
    text
    

    tensor([[ 2, 1470, 0, …, 0, 0, 0],
    [ 3789, 0, 0, …, 0, 0, 0],
    [ 2056, 15, 283, …, 0, 0, 0],
    …,
    [11711, 3, 12789, …, 42, 2365, 7],
    [ 1484, 524, 0, …, 0, 0, 0],
    [ 308, 11, 10, …, 0, 0, 0]], device=‘cuda:0’)

    构建模型

    class AVGModel(nn.Module):
        def __init__(self, vocab_size, embed_dim, output_size, pad_idx):
            super().__init__()
            self.embedding = nn.Embedding(vocab_size, embed_dim, padding_idx=pad_idx)
            initrange = 0.1
            self.embedding.weight.data.uniform_(-initrange, initrange)
            self.fc = nn.Linear(embed_dim, output_size)
        def forward(self, text):
            ## [batch_size, seq_len]->[batch_size, seq_len, embed_dim]
            embed = self.embedding(text)
            ## attention
            ##[batch_size, seq_len, embed_dim]->[batch_size, embed_dim]
            pooled = F.avg_pool2d(embed, (embed.size(1),1)).squeeze(1)
            ## [batch_size, embed_dim]->[batch_size, output_size]
            out = self.fc(pooled)
            return out
        def get_embed_weigth(self):
            return self.embedding.weight.data
    
    VOCAB_SIZE = len(word2dix)
    EMBEDDING_DIM = 100
    OUTPUT_SIZE = 1
    PAD_IDX = word2dix['<pad>']
    
    model = AVGModel(vocab_size=VOCAB_SIZE,
                     embed_dim=EMBEDDING_DIM,
                     output_size=OUTPUT_SIZE, 
                     pad_idx=PAD_IDX)
    model.to(device)
    

    AVGModel(
    (embedding): Embedding(14830, 100, padding_idx=0)
    (fc): Linear(in_features=100, out_features=1, bias=True)
    )

    定义损失函数 和优化函数

    criterion = nn.BCEWithLogitsLoss()
    criterion = criterion.to(device)
    optimizer = optim.Adam(model.parameters(), lr=1e-4)
    

    训练模型

    def get_accuracy(output, label):
        ## output: batch_size 
        y_hat = torch.round(torch.sigmoid(output)) ## 将output 转成0和1
        correct = (y_hat == label).float()
        acc = correct.sum()/len(correct)
        return acc
    
    def evaluate(batch_data, model, criterion, get_accuracy):
        model.eval()
        num_epoch = epoch_loss = epoch_acc = 0
        with torch.no_grad():
            for text, label in batch_data:
                out = model(text).squeeze(1)
                loss = criterion(out, label)
                acc = get_accuracy(out, label)
                num_epoch +=1 
                epoch_loss += loss.item()
                epoch_acc += acc.item()
        
        return epoch_loss/num_epoch, epoch_acc/num_epoch          
    
    def train(batch_data, model, criterion, optimizer, get_accuracy):
        model.train()
        num_epoch = epoch_loss = epoch_acc = 0
        for text, label in batch_data:
            model.zero_grad()
            out = model(text).squeeze(1)
            loss = criterion(out, label)
            acc = get_accuracy(out, label)
            loss.backward()
            optimizer.step()
            num_epoch +=1 
            epoch_loss += loss.item()
            epoch_acc += acc.item()
        
        return epoch_loss/num_epoch, epoch_acc/num_epoch
            
    
    NUM_EPOCH = 30
    best_valid_acc = -1
    
    dev_data = generate_batch(num_dev_data)
    for epoch in range(NUM_EPOCH):
        train_data = generate_batch(num_train_data)
        train_loss, train_acc = train(train_data, model, criterion, optimizer, get_accuracy)
        valid_loss, valid_acc = evaluate(dev_data, model, criterion, get_accuracy)
        if valid_acc > best_valid_acc:
            best_valid_acc = valid_acc
            torch.save(model.state_dict(),'avg-model.pt')
        
        print(f'Epoch: {epoch+1:02} :')
        print(f'\t Train Loss: {train_loss:.4f} | Train Acc: {train_acc*100:.2f}%')
        print(f'\t Valid Loss: {valid_loss:.4f} | Valid Acc: {valid_acc*100:.2f}%')
        
    

    Epoch: 01 :
    Train Loss: 0.1558 | Train Acc: 94.39%
    Valid Loss: 0.6171 | Valid Acc: 82.25%
    Epoch: 02 :
    Train Loss: 0.1550 | Train Acc: 94.45%
    Valid Loss: 0.6319 | Valid Acc: 81.47%
    Epoch: 03 :
    Train Loss: 0.1526 | Train Acc: 94.53%
    Valid Loss: 0.6300 | Valid Acc: 82.59%
    Epoch: 04 :
    Train Loss: 0.1510 | Train Acc: 94.60%
    Valid Loss: 0.6502 | Valid Acc: 81.25%
    Epoch: 05 :
    Train Loss: 0.1495 | Train Acc: 94.64%
    Valid Loss: 0.6515 | Valid Acc: 82.37%

    model.load_state_dict(torch.load('avg-model.pt'))
    

    <All keys matched successfully

    test_data = generate_batch(num_test_data)
    test_loss, test_acc = evaluate(test_data, model, criterion, get_accuracy)
    print(f'Test Loss: {test_loss:.4f} |  Test Acc: {test_acc*100:.2f}%')
    

    Test Loss: 0.5369 | Test Acc: 81.23%

    打印词向量

    embed = model.get_embed_weigth()
    embed_norm = torch.norm(embed, p=None, dim=1)
    sort_embed_norm, sort_embed_norm_idx = embed_norm.sort()
    
    print('norm 最小的30个单词:')
    for idx in sort_embed_norm_idx[:30].tolist():
        print(idx2word[idx], end=' / ')
    

    norm 最小的30个单词:
    par / holiday / pastiche / seedy / e-graveyard / quieter / home / captain / keeps / possibly / urge / aching / career / album / code / elegy / peculiar / squint / handheld / blown / quite / cops / miss / the / blush / judd / trip / appointed / make / themselves /

    print('norm 最大的30个单词:')
    for idx in sort_embed_norm_idx[-30:].tolist():
        print(idx2word[idx], end=' / ')
    

    norm 最大的30个单词:
    wonderfully / lousy / unlikable / choppy / badly / splendid / worst / dazzling / outstanding / inept / listless / lacking / playful / mesmerizing / unnecessary / amazing / stunning / irritating / unimaginative / refreshingly / heartwarming / devoid / riveting / suffers / tiresome / pointless / thought-provoking / poorly / mess / unfunny /

    norm 最大的30个单词都是和电影评价相关的词语

    norm 最小的30个单词 都是和对电影情感评价无关的词语

    展开全文
  • Word公式编辑器的使用方法

    千次阅读 2013-10-05 09:19:25
    Word公式编辑器的使用方法  转:http://xalq329.blog.163.com/blog/static/84974886201212115844522/ 一. 公式编辑器的安装方法 二. 打开公式编辑器窗口的方法  1.打开编辑器新窗口的方法 ...
  • 这是一个文本分类的系列专题,将采用不同的方法有简单到复杂实现文本分类。 使用Stanford sentiment treebank 电影评论数据集 (Socher et al. 2013)....有Attention的词向量平均模型 Word Average Mod...
  • 不少伙伴表示疑惑,不知道如何去计算,下面教大家使用公式,轻松搞定加减乘除运算~Word函数计算公式,先记住这三个函数:求和函数SUM求积函数PRODUCT求平均值函数AVERAGE操作方法01Word表格求和在Word表格中求和,...
  • 1.什么是单元格地址 通过之前的学习,我们知道表格是由n个单元格组成的,这些单元格是可以用符号去描述它在表格中的位置。 行标:使用阿拉伯数据(1,2,3…)描述单元格在表格中垂直方向的序号。...表格公式 ...
  • 利用Word自带的公式编辑器进行公式编辑时,遇到复杂公式例如平均值,估计值等的编辑,利用unicode输入比较简便。 以平均值为例: 第一步:插入公式,并输入x 第二步:x后面斜杠\并输入对应英文,x\hat 第三部:按一...
  • 如何在word中像LaTeX一样键入公式

    万次阅读 多人点赞 2018-01-30 16:38:42
    如何在word中像LaTeX一样键入公式 小伙伴们下学期就要开始写毕业论文了,大多数同学应该会选择word,不可避免的会有很多嵌套的公式需要大家添加在文本当中。 在LaTeX中,公式、矩阵等都可以用键盘键入,操作起来...
  • word2vec】算法原理 公式推导

    万次阅读 多人点赞 2018-10-10 09:17:24
    前言 近两年来由Mikolov等...越来越多的研究人员希望尝试使用word2vec,但我注意到对于word2vec参数学习过程目前还缺乏一个全面解释的资料,因此限制了许多神经网络方面了解不深的人去理解word2vec的工作原理。 ...
  • 2、求平均数:填入一系列数字,光标定位于最后一格中,点击菜单中的“表格”-“公式”,在弹出对话框中填入公式“=AVERAGE(ABOVE)”(=平均(上方))在=(Formula)域中,可以使用数值与下列数学和关系运算符的任意组合。...
  • word是一款非常实用的办公软件,我们经常会使用word进行文档编辑,我们在使用中不可避免会遇到编辑数学公式,例如在Word中输入平均数的符号X上加一横(X拔), 那应该怎么编辑呢?接下来就跟着小编一起来看看吧。操作...
  • 以上内容我先用word写好,直接复制粘贴到CSDN出现乱码,所以转成图片添加水印再上传的。 不足之处欢迎指出
  • word2vec原理 概念 一句话中,连续的词之前是有相关联系的,那么可以借助这种关系来学习出每个词的向量表示。把一个词用一个向量表示后的好处有:变成机器能理解的语言,降维(以前的做法是用tf-idf构造文本向量)...
  • 下面介绍一些Word中与数据处理和公式编辑相关的小技巧,能让你的文档更加美观,并且不用劳师动众的去搬Excel的救兵。  数据统计技巧之一:公式结果快速计算  在文档编辑的时候,可能遇到需要计算公式结果...
  • Word2vec 原理公式推到和代码实现

    千次阅读 2017-06-15 10:17:22
    本文摘录整编了一些理论介绍,推导了word2vec中的数学原理;并考察了一些常见的word2vec实现,评测其准确率等性能,最后分析了word2vec原版C代码;针对没有好用的Java实现的现状,移植了原版C程序到Java。时间和水平...
  • 下面介绍一些Word中与数据处理和公式编辑相关的小技巧,能让你的文档更加美观,并且不用劳师动众的去搬Excel的救兵。 <br /> 数据统计技巧之一:公式结果快速计算 <br /> 在文档编辑的时候,可能遇到...
  • 算术平均、几何平均、调和平均、平方平均和移动平均跟计算编程有什么关系:Just One Word,不能只会算术平均数,还有其他很多选择,以及不同场景使用不同的平均数。 算术平均 算术平均(Arithmetic mean)是最...
  • 参考文献tf-idf公式及sklearn中TfidfVectorizer1 文本向量化特征的不足2. TF-IDF概述3 用scikit-learn进行TF-IDF预处理4. TF-IDF小结联结 sklearn文本特征提取——TfidfVectorizer (term frequency-inverse ...
  • Word表格原来也能求得平均值(转)[@more@]  在Word中我们怎样才能求得如图1所示的每位学生5门功课的平均值以及4位学生各单科的平均值?其实,Word表格可以像在Excel中一样,能够用A1、A2、B1、B2……...
  • 今天是【第二十二期】的教程啦,在这里给大家分享一个关于word的小知识,就是如何在word表格做加减乘除运算。一般来说我们经常是在excel做数字运算,怎么在word做加减乘除呢?是不是听上去有点不可思议。下面就给...
  • Excel 公式

    2016-10-30 19:23:18
    Excel常用电子表格公式大全 1、 查找重复内容公式:=IF(COUNTIF(A:A,A2)>1,"重复","")。 2、 用出生年月来计算年龄公式:=TRUNC((DAYS360(H6,"2009/8/30",FALSE))/360,0)。 3、 从输入的18位身份证号的...
  • word2vec和word embedding有什么区别?

    千次阅读 2017-12-18 11:26:29
    作者:Scofield链接:...很好,正好可借此机会介绍词向量、word2vec以及DeepNLP整套相关的东西:文章很长,是从CSDN上写好复制过来的,亦可直接跳到博客观看:深度学习(Deep Learning)
  • Word2vec可以将词语转换为高维向量空间中的向量表示,它能揭示上下文关系。首先使用word2vec,将其训练得到词向量作为特征权重,然后根据情感词典和词性的两种特征选择方法筛选出有价值的特征,最后引入SVM训练和...
  • F9(Word表格)运算器指南Microsoft Office Word 2003、 2007 、2010 组件开发应用目录简介2安装指南3运算方式3一、求和 3二、公式映射4三、函数编辑4四、格式映射4五、复制 5六、更新 5七、等于 6八、鼠标模式6九、...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 11,927
精华内容 4,770
关键字:

平均分word公式