精华内容
下载资源
问答
  • 怎样在word中进行运算

    千次阅读 2018-06-01 21:11:48
    最近做一个word的行业上的地区数据统计报告,以前的做法是把excel表里的数据一个一个的粘贴到word中指定的位置,我觉的这样做效率好像不太高,依稀记得好像邮件合并可以做这事。然而我邮件合并的过程遇到了...

    最近在做一个word的行业上的地区数据统计报告,以前的做法是把excel表里的数据一个一个的粘贴到word中指定的位置,我觉的这样做效率好像不太高,依稀记得好像邮件合并可以做这事。然而我在邮件合并的过程中遇到了一些问题,比如要比较当前月份的用户量和上个月的用户量是增加了还是减少了,增加或减少了多少,这是就要进行比较和取绝对值。下面我把我所学的分享给大家。

    怎样在word中进行加减乘除呢?首先按crtl键加上f9键创建一个有大括号的域,手敲的大括号是不行的,两个大括号也不同,如下图:


    第二个大括号是手敲的,是不是和上面那个不一样的?

    接下来进行简单的加减运算,在第一个大括号里面敲一个等于号,然后随便写个运算,比如1+2:


    这时按alt加上f9键:



    咦,为什么什么都没有呢?因为要按f9刷新一下才会显示:



    就可以看到数字3了。

    与里面也可以进行函数运算,例如 -3取取绝对值:



    同样按alt加上f9,然后按f9,就会看到值是3.

    现在在excel中有两行数据,我随便编的。。。


    说要比较张三当前月比上个月的金额多了还是少了,多了或者少了多少百分比呢?

    在word报告表中用邮件合并功能:

    导入excel表:


    点击编辑收件人列表可以看到excel里的数据:



    想要比较当前月和上个月么比较呢?

    点击规则里的 如果那么:




    好像没有金额之间的比较,我们可以先写当前金额和0的比较,然后在此基础上进行修改,点击确认,可以看到以下代码:



    把 0 删掉,复制,粘贴到删除0的位置上,然后把 当前金额 的 当前两个字 改成 上一月,最后按alt加上f9:



    可以看到结果,接着再算增幅,先按ctrl加上f9,然后在生成的域中写公式,并且插入合并域:



    word中也可以给计算结果添加格式,添加保留两位小数点的百分比格式为: 数字*100 \# 0.00%

    \#的两边都要有空格,这里的"数字"要乘上100,不然的话50.00%会显示成0.5%,最终的结果如下图:


    按alt加上f9,再按f9刷新:


    我是在word中进行计算的,当然excel表中也可以计算好了再把数据直接插入到word中,我觉得都可以吧。最后想说的是  额。。。各位大佬轻点喷,不行,我要去买冰块敷个脸

    展开全文
  • Word中的页眉数字自动累加

    千次阅读 2019-02-01 16:36:55
    将光标移动到你要插入的累加数字的地方,连按两次“Ctrl+F9”快捷键(不同电脑可能不同),得到一对包含一起的花括号“{{}}”,括号输入域代码如下:“{={Page}*2-1}”。按“Alt+F9”。生成如下累加页眉 1 3 5...

    #笔记
    将光标移动到你要插入的累加数字的地方,连按两次“Ctrl+F9”快捷键(不同电脑可能不同),得到一对包含在一起的花括号“{{}}”,在括号中输入域代码如下:“{={Page}*2-1}”。按“Alt+F9”。生成如下累加页眉
    1 3 5 ……
    类似修改代码为“{={Page}}”
    得到累加页眉数
    1 2 3 4……
    统计
    共{={NumPages}}页

    展开全文
  • python实现统计输入字符字母,数字,空格和其他字符的个数 # 输入一行字符串,分别统计其中字母,数字,空格和其他字符的个数 word = 0 num = 0 other = 0 space = 0 a = input("请输入一串字符: ") for k in a: ...

    python实现统计输入字符中字母,数字,空格和其他字符的个数

    # 输入一行字符串,分别统计其中字母,数字,空格和其他字符的个数
    word = 0
    num = 0
    other = 0
    space = 0
    a = input("请输入一串字符: ")
    for k in a:
        # 是否为单词
        if k.isalpha():
            word += 1
        # 是否为数字
        elif k.isdigit():
            num += 1
        elif k == ' ':
            space += 1
        else:
            other += 1
    print('字母个数是:', word)
    print('数字的个数是: ', num)
    print('空格的个数是: ', space)
    print('其他字符个数是: ', other)
    
    展开全文
  • 本篇博客也是做豆瓣电影数据的分析过程,需要对影评信息和剧情摘要信息进行分析而写的一篇博客 以前学习hadoop时,感觉做中文分词也没那么麻烦,但是到了Spark,却碰到了诸多困难,但幸好最终都解决了这些问题...

    写在前边的话:

            本篇博客也是在做豆瓣电影数据的分析过程中,需要对影评信息和剧情摘要信息进行分析而写的一篇博客

            以前学习hadoop时,感觉做中文分词也没那么麻烦,但是到了Spark,却碰到了诸多困难,但幸好最终都解决了这些问题,而得到了正确的结果,这里我们不解释具体的spark语法之类的,着重于解决中文分词统计这个问题

            同步github地址:点击查看


    1:Python+jieba

          使用python版本的spark,首先想到的便是jieba分词,这里结合python的jieba分词和Spark对文件内容进行分词和词频统计,使用的样例数据依旧豆瓣电影的影评数据,这里只是采用了大鱼海棠的影评信息进行分词。

          数据样例的格式如下:

    26051523        根据真实事件改编,影片聚焦1973年智利政变时期,一对年轻的德国夫妇丹尼尔与莱娜反抗智利军政府统领、独裁者皮诺切特的故事。当时正值智利政变的高潮期,丹尼尔被皮诺切特的手下绑架到一个被称为“尊严殖民地”的秘密基地。那儿正是前德国纳粹分子逃亡智利所建的聚集地,而军政府武装进行着大量的刑讯工作与秘密人体实验,被绑架的人从来没有一个曾活着逃出“殖民地”。然而丹尼尔的妻子莱娜没有放弃,她找到了基地所在,并计划救出丈夫。

         需要注意的是:如果去掉下面函数中的combine函数,则正常保存统计结果,显示的形式大致是这样的

         

         而这里的combine函数就是为了解决这个问题,最终的统计结果为

         

    #-*-coding:utf-8-*-
    from pyspark import SparkConf, SparkContext
    
    import jieba
    
    def split(line):
        word_list = jieba.cut(line.strip().split("\t")[1])  #进行中文分词
        ls =[]
        for word in word_list:
            if len(word)>1:      #过滤掉单音节词
                ls.append(word)
        return ls
    
    def combine(line):        #去除保存结果中的括号和解=解决中文编码显示的问题
        result = ""
        result +=line[0]+"\t"+str(line[1])   #让数字在前,方便统计
        return result
    
    def main(sc):
        text = sc.textFile("/file/douban_movie_data/movie_summary.txt")
        word_list = text.map(split).collect() #保存为列表
        count = sc.parallelize(word_list[0]) #返回列表中的第一个元素
        results = count.map(lambda w:(w,1)).reduceByKey(lambda x,y:x+y).map(combine).sortByKey().saveAsTextFile("/file/douban_movie_data/result")
        print "succeed"
    
    if __name__=="__main__":
        conf = SparkConf().setAppName("wordSplit")
        conf.setMaster("local")
        sc= SparkContext(conf = conf)
        main(sc)


    2:Java+Scala+庖丁分词

           网上搜了一遍,有使用ansj分词的,但是瞄了一遍,不懂,于是还是回归到了庖丁分词,整体的程序分为两部分,一个是java+庖丁分词程序,一个是scala提交spark的统计程序,具体代码和解释如下

           至于如何使用Idea+Spark构建开发环境请移步:点击阅读

           庖丁分词等中文分词比较请移步:点击阅读

              这里需要注意的是:庖丁分词的字典库的配置问题(下图红线所示),正常情况下,程序打成jar包在spark集群上运行会报出各种错误,但主要是两个方面,一个是spark集群的内存问题(我用的是自己电脑的虚拟机,视具体配置而定),二是字典库的路径问题,我这里是把dic放在集群上每台机器的一个指定的相同的目录,同时把jar包在放在集群上的每台机器上

                

    tokens.java

    import java.io.IOException;
    import java.io.StringReader;
    import java.util.ArrayList;
    import java.util.List;
    
    import net.paoding.analysis.analyzer.PaodingAnalyzer;
    
    import org.apache.lucene.analysis.Analyzer;
    import org.apache.lucene.analysis.Token;
    import org.apache.lucene.analysis.TokenStream;
    
    public class tokens {
        public static List<String> anaylyzerWords (String str){
            // TODO Auto-generated method stub
            //定义一个解析器  
            Analyzer analyzer = new PaodingAnalyzer();
            //定义一个存放存词的列表
            List<String> list=new ArrayList<String>();
            //得到token序列的输出流
            TokenStream tokens = analyzer.tokenStream(str, new StringReader(str));
            try{
                Token t;
                while((t=tokens.next() ) !=null){
                    list.add(t.termText());
                }
            }catch(IOException e){
                e.printStackTrace();
            }
            return list;
        }
    
        public static void main(String[] args){
            String text = "本思想就是在分词的同时进行句法、语义分析, 利用句法信息和语义信息来进行词性标注, " +
                    "以解决分词歧义现象。因为现有的语法知识、句法规则十分笼统、复杂, 基于语法和规则的分词" +
                    "法所能达到的精确度远远还不能令人满意, 目前这种分词系统还处在试验阶段。";
            List<String> list=tokens.anaylyzerWords(text);
            for(String s:list){
                System.out.println(s);
            }
    
        }
    }  


    Analyzer.scala
    import org.apache.spark._
    /**
      * Created by gaoyt on 2016/8/11.
      */
    object Analyzer {
      def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setAppName("my app").setMaster("spark://192.168.48.130:7077")
        val sc = new SparkContext(conf)
        val outputPath = "/file/douban_movie_data/summary"
        sc.addJar("/home/master/SparkApp/WordAnalyzer.jar")
        sc.textFile("/file/douban_movie_data/movie_summary.txt").map(x => {
          val list=tokens.anaylyzerWords(x)
          list.toString.replace("[", "").replace("]", "").split(",")
        }).flatMap(x => x.toList).map(x => (x.trim(),1)).reduceByKey(_+_).saveAsTextFile(outputPath)
    
      }
    }

    最终的运行结果如下:


    执行查看命令

    /opt/hadoop/bin/hdfs dfs -cat /file/douban_movie_data/summary/part-00001




    展开全文
  • 使用Microsoft Word写论文之类的文档的时候,经常需要列出参考文献,并对它们进行引用。有时候,格式规范要求我们将参考文献编号和引用标记都变成数字上标。本教程给出了这种格式要求的实现方法。 注:完成本教程时...
  • 统计一遍中文文章的字数(不包括标点符号,考虑英文/数字序列(不拆分成当个字母或数字) """ import re import jieba c = "\\" text = """然而,参加string聚会或者出席典礼时,很多人会抱怨自己挑不出一件拿得...
  • 这里我们将要实际的应用正则表达式,来识别和统计不同种类字符的频率。 二、正则表达式语法 1.从上一篇博客暂提以下的语法表,详情参见正则表达式链接 ​ JAVA程序也会使用到正则表达式 API相关...
  • Java中文分词组件 - word分词

    万次阅读 2019-02-10 16:17:50
    word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。能通过...
  • 统计语言模型统计语言模型案例统计语言模型缺点7.3.1.4 神经网络语言模型NNLMNNLM神经网络语言模型例子7.3.1.4 Word2Vec举例:CBOW前向计算与向量(参数)更新推导7.3.1.5 拓展- Word...
  • word2vec安装使用笔记

    千次阅读 2017-09-26 20:35:07
    word2vec 入门基础基本概念word2vec是Google2013年开源的一个工具,核心思想是将词表征映 ...项目链接:https://code.google.com/archive/p/word2vec背景知识词向量词向量就是用来将语言的词进行数学化
  • 遇到一个需求,需要发布统计图,导出统计图以word形式,这里介绍Java后台的方式; 1、前端传入图片的base64;传入统计图名,介绍等等,把导出接口做成通用的,这样可以导出任意统计图 代码(这里把参数自己写这里...
  • Excel统计,要写入Word表格相应框处的数字,但怎样将Word的每个代号正确而无遗漏地提取出来,是一个需要解决的问题。 对于体温、脉率、呼吸频率、血压等信息,我们需将Word每个对应单元数字...
  • 若要使用现有的设计,请"格式"框单击进行选择。 5.根据需要,选择其他与目录有关的选项。 如果目前未使用大纲级别或内置样式,请进行下列操作之一: 用大纲级别创建目录 1.指向"视图"菜单上的"工具栏",再...
  • 之前的分词学习后,开始处理提取的词语进行词频统计,因为依据词频是进行关键词提取的最简单方法: 1、英文词频统计和词云制作 from nltk import word_tokenize #分词处理 from nltk.corpus import stopwords #...
  •  java上机实现统计D://document/file.txt文件出现的字母个数、数字个数、汉字个数、空格个数及行数?  自己实现了下:  import java.io.BufferedReader; import java.io.File; import java.io....
  • Windows系统下使用维基百科中文语料训练word2vec词向量 By 龙前尘 实验环境:win8、python 2.7 转载请注明地址: http://blog.csdn.net/svenhuayuncheng/article/details/78751311 笔者按 笔者近期用简单问...
  • word2vec学习+使用介绍

    千次阅读 2015-08-10 22:53:24
    word2vec是google的开源工具,很值得学习使用,推荐大家使用!代码已跑通顺利运行。 word2vec是一个将单词转换成向量形式的工具。可以把对文本内容的处理简化为向量空间的向量运算,计算出向量空间上的相似度,来...
  • 统计字符串中数字出现的次数 筛选出数字组成新的字符串即可 var num = str . replace ( /[^\d]/g , '' ) ; 搜索带pen的字符串,除了open. 求上一级目录。 var path = "D:\\learnByDo\\awecg....
  • Python读取文件进行中文词频统计

    千次阅读 2019-04-10 15:11:15
    利用Counter函数进行词频统计,比较简洁,代码如下: 数据:movie_comments.csv文件为23万的影评数据 # -*- coding:utf-8 -*- import jieba import re import pandas as pd from collections import Counter ...
  • Chinese word segmentation 中文词分割

    千次阅读 2018-06-06 20:19:53
    转自: ... 现有分词介绍 分词方法大致分为两种: ...基于词典的方法本质上就是字符串匹配的方法,将一串文本的文字片段和已有的词典进行匹配,如果匹配到,则此文字片段就作为一个分词结果。...
  • 使用Java的Stream流的方式实现单词的频次统计 ...Java8,其新增的特性Stream流,也可以很简单的完成单词频次统计的案例。 下面上一段代码: @Test public void test() { List<String> l...
  • word2vec使用

    千次阅读 2013-12-20 16:40:55
    word2vec是一个将单词转换成向量形式的工具。可以把对文本内容的处理简化为向量空间的向量运算,计算出向量空间上的相似度,来表示文本语义上的相似度。 一、理论概述 (主要来源于...
  • word使用技巧60例

    千次阅读 2012-07-26 20:00:14
     在Word表格里选中要填入相同内容的单元格,单击“格式→项目符号和编号”,进入“编号”选项卡,选择任意一种样式,单击“自定义”按钮,“自定义编号列表”窗口“编号格式”栏内输入要填充的内容,“编号...
  • word2vec使用指导

    万次阅读 多人点赞 2014-04-22 16:34:16
    word2vec是一个将单词转换成向量形式的工具。可以把对文本内容的处理简化为向量空间的向量运算,计算出向量空间上的相似度,来表示文本语义上的相似度。 一、理论概述 (主要来源于...
  • 范围内的不作统计。多个相同的字符只计算一次 例如,对于字符串abaca而言,有a、b、c三种不同的字符,因此输出3。 输入描述: 输入一行没有空格的字符串。 输出描述: 输出范围(0~127)字符的个数。 示例1 ...
  • word2vec c代码使用说明

    千次阅读 2015-02-03 15:17:33
    摘要: 1 分词 将文本语料进行分词,以空格,tab隔开都可以。生成分词后的语料 ...对分词后的语料test.txt.../word2vec -train test.txt -output vectors.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sampl
  • Word2vec训练中文词向量

    千次阅读 2018-08-16 10:55:19
    将所有的语料读入到列表,把每一句已经分好词的句子作为列表的一个元素,类似: [[‘i’,’am’,’a’,’girl’],[‘he’,’is’,’a’,’boy’]] from gensim.models import Word2Vec import os import sys...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 44,296
精华内容 17,718
关键字:

在word中进行数字统计使用