精华内容
下载资源
问答
  • 2021-04-02 21:18:28

    描述:‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬

    参考课本P173实例代码10.2,统计《三国演义》(文件:三国演义.txt 编码格式 utf-8)中一些主要人物名字出现的次数。‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬

    需统计次数的人物名字:孔明、玄德、曹操、关公、张飞 出现的次数。‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬

    输入:‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬

    无‪‬‪‬‪‬‪‬‪‬‮‬‫‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‫‬

    输出:
    在这里插入图片描述
    注意:输出如上图,按递减顺序输出统计结果;打开文件 三国演义.txt 使用语句open(“三国演义.txt”, “r”,encoding=“utf-8”).read()。

    import jieba
    
    name_dict = {'曹操':0, '孔明':0, '玄德':0, '关公':0, '张飞':0}
    
    txt = open("三国演义.txt", "r",encoding="utf-8").read()
    
    words = jieba.lcut(txt)
    
    for word in words:
        if word in name_dict:
            name_dict[word] += 1
    
    name_dict = sorted(list(name_dict.items()), key=lambda item: item[1], reverse=True)
    
    for item in name_dict:
        print('{} : {}'.format(item[0], item[1]))
    
    更多相关内容
  • Ingress 代理统计截图的 OCR 解析脚本 地位 该项目处于早期试验阶段。 统计数据的解析看起来已经相当可靠,但需要更多的测试。 有关如何测试和帮助的信息,请参阅测试。 跆拳道? 该脚本的灵感来自于出色的 agent-...
  • NULL 博文链接:https://sparksun.iteye.com/blog/1107175
  • 假设HDFS 上有两个文件wordfile1.txt 和wordfile2.txt(其他文件也行),运行Hadoop 中自带的词频统计程序,对数据集进行词频统计。 一、准备工作: 1. 按CDH 环境说明文档配置 相对目录转到/user/hdfs ,那么新创建...

    实验题目: 词频统计

    假设HDFS 上有两个文件wordfile1.txt 和wordfile2.txt(其他文件也行),运行Hadoop 中自带的词频统计程序,对数据集进行词频统计

    一、准备工作:

    1. 按CDH 环境说明文档配置

    在这里插入图片描述

    相对目录转到/user/hdfs ,那么新创建的用户文件夹bigdata***就在/user/ hdfs 目录之下。

    2. 在Hdfs中创建wordfile1.txt 和wordfile2.txt文件

    方法一:新建input文件夹,传到hdfs后,使用vim命令创建编辑txt文件

    (1)在服务器上新建一个input文件夹

    mkdir input
    

    (2)把input 上传到先前我们准备的bigdata***文件夹

    hadoop fs -put input bigdata43
    

    (3)使用vim 命令创建并写入wordfile1.txt 和wordfile2.txt,由于wordfile1.txt 和wordfile2.txt 起先并不存在,所以vim 命令会先创建一个缓存文件来进行编辑,键入完文本内容后,按esc,再输入:wq ,保存退出即可。

    方法二:新建input文件夹,在其中新建txt文件后,将input文件夹直接上传到hdfs

    (1)本地新建一个input文件夹,使用Xftp将文件夹传输到服务器

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GNhNkNI0-1634697977496)(C:\Users\lenovo\AppData\Roaming\Typora\typora-user-images\image-20211014101004298.png)]

    ​ (2)把input 上传到先前我们准备的bigdata***文件夹

    hadoop fs -put input bigdata43
    

    二、开始实验

    1. 运行Hadoop 中自带的词频统计程序,进行词频统计

    hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-examples-3.0.0-cdh6.2.0.jar wordcount bigdata43/input bigdata43/output/output1
    

    或者

    yarn jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-examples-3.0.0-cdh6.2.0.jar wordcount bigdata43/input bigdata43/output/output1
    

    出现以下图片即运行成功

    在这里插入图片描述

    注意:

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-raMVZDHt-1634697977505)(C:\Users\lenovo\AppData\Roaming\Typora\typora-user-images\image-20211014104040262.png)]

    2. 查看输出文件名称:

    hadoop fs -ls /output/output1/*
    

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jcEU7TL9-1634697977508)(C:\Users\lenovo\AppData\Roaming\Typora\typora-user-images\image-20211014103600804.png)]

    3. 查看统计结果:

    hadoop fs -ls /output/output1/*
    

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ySpvy0BL-1634697977511)(C:\Users\lenovo\AppData\Roaming\Typora\typora-user-images\image-20211014103828952.png)]

    三、运行成功,退出程序

    展开全文
  • 本文实例为大家分享了Android自定义条形对比统计图的具体代码,供大家参考,具体内容如下 一、测试截图 二、实现方法 package com.xtravel.widget; import java.util.Timer; import java.util.TimerTask; import ...
  • 百度统计后台截图

    2015-03-26 14:35:50
    百度统计后台截图,可方便了解到百度统计实际后台样式
  • 本文实例讲述了JavaScript统计网站访问次数的实现代码。分享给大家供大家参考。具体如下: 运行效果截图如下: 完整代码: <html> <head> <meta http-equiv="Content-Type" content="text/html; ...
  • Spark编程实战-词频统计

    千次阅读 热门讨论 2021-05-18 13:18:55
    用SPARK API编程(可用SCALA或者JAVA),将三个文本分别加载为RDD(或DataFrame),然后综合统计三个文本中的各个单词数量总和。 文章目录 RDD 例题 spark-shell

    文章目录

    在这里插入图片描述
    Spark安装可参考:Spark集群安装-基于hadoop集群

    RDD


    RDD(Rseilient Distributed Datasets)是一个分布式对象集合,本质上是一个只读的分区记录集合,每个RDD可以分成多个分区,每个分区就是一个数据集片段,并且一个RDD的不同分区可以被保存到集群中不同的节点上,从而可以在集群中的不同节点上进行并行运算,提供了一种高度受限的共享内存模型。

    RDD是Spark的主要操作对象,RDD可以通过多种方式灵活创建,可通过导入外部数据源建立,或从其他的RDD转化而来。Spark程序中必须创建一个SparkContext对象作为程序的入口,负责创建RDD、启动任务等。启动spark-shell后会自动创建该对象,可通过sc变量访问。

    RDD支持两种类型的操作:

    1. 行动(Action)
      在数据集上进行运算,返回计算值。
    2. 转换(Transformation)
      基于现有数据集创建一个新的数据集。

    可以通过官网查看API:
    http://spark.apache.org/docs/latest/api/scala/org/apache/spark/index.html
    列举部分常用的:

    ActionAPI说明
    count()返回数据集中原始个数
    collect()以数组形式返回数据集中所有元素
    first()返回数据集第一个元素
    take(n)以数组形式返回数据集前n个元素
    reduce(func)通过func函数聚合数据集中元素
    foreach(func)将数据集中每个元素传递到func函数中运行
    TransformationAPI说明
    filter(func)筛选满足func函数的元素,并返回一个新的数据集
    map(func)将元素传递到func函数,并将结果返回为一个新的数据集
    flatMap(func)与map()相似,但每个输入元素都可以映射到0或多个输出结果
    groupByKey(func)应用于<K,V>键值对的数据集时,返回一个新的<K,Iterable<V>>形式的数据集
    reduceByKey(func)应用于<K,V>键值对的数据集时,返回一个新的(K,V)形式数据集,每个值是将key传递到func函数中进行聚合

    插播反爬信息 )博主CSDN地址:https://wzlodq.blog.csdn.net/

    例题


    用SPARK API编程(可用SCALA或者JAVA),将三个文本分别加载为RDD(或DataFrame),然后综合统计三个文本中的各个单词数量总和。

    1.txt

    There is no standard definition of game feel. As players and game designers, we have some beginnings of common language, but we have never collectively defined game feel above what’s necessary for discussing a specific game. We can talk about the feel of a game as being “floaty” or “responsive” or “loose,” and these descriptions may even have meaning across games, as in “We need to make our game feel more responsive, like Asteroids.” But if I ask 10 working game designers what game feel is–as I did in preparation for writing this book–I get 10 different answers. And here’s the thing: each of these answers is correct. Each answer describes a different facet, a different area, which is crucial to game feel

    2.txt

    To many designers, game feel is about intuitive controls. A good-feeling game is one that lets players do what they want when they want, without having to think too much about it. Good game feel is about making a game easy to learn but difficult to master. The enjoyment is in the learning, in the perfect balance between player skill and the challenge presented. Feelings of mastery bring their own intrinsic rewards.

    3.txt

    Another camp focuses on physical interactions with virtual objects. It’s all about timing, about making players really feel the impact, about the number of frames each move takes, or about how polished the interactions are.

    spark-shell


    cd /usr/local #新建上述三个文件
    vi 1.txt
    vi 2.txt
    vi 3.txt
    source /etc/profile
    $HADOOP_HOME/sbin/./start-all.sh #起动hadoop集群
    $SPARK_HOME/sbin/./start-all.sh #起动spark集群
    $SPARK_HOME/bin/./spark-shell #进入spark-shell
    

    在这里插入图片描述

    val textFile=sc.textFile("file:///usr/local/*.txt")
    val wordCounts=textFile.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey((a,b)=>a+b)
    wordCounts.collect()
    

    在这里插入图片描述
    用sbt编译打包Scala和用Maven编译打包Java日后再更吧(咕咕咕)。

    原创不易,请勿转载本不富裕的访问量雪上加霜
    博主首页:https://wzlodq.blog.csdn.net/
    来都来了,不评论两句吗👀
    如果文章对你有帮助,记得一键三连❤

    展开全文
  • 本次作业要完成在Hadoop平台搭建完成的基础上,利用Spark组件完成文本词频统计的任务,目标是学习Scala语言,理解Spark编程思想,基于Spark 思想,使用IDEA编写SparkWordCount程序,并能够在spark-shell中执行代码和...
  • 昆虫识别和数目统计 2017/4/8---------二值化 2017/4/9---------图片中昆虫虫体计数 2017/4/22-------PyQt和OpenCV_VideoFrame结合做出基本界面 摄像头Frame中检测虫体数目,并在界面中显示标出 学习昆虫图像...
  • 【Hadoop】MapReduce案例——词频统计

    千次阅读 2022-04-21 15:14:12
    MapReduce案例——词频统计

    一、前期准备

    1.新建maven项目
    2.pom.xml中添加项目依赖

    <?xml version="1.0" encoding="UTF-8"?>
    
    <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
      xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
      <modelVersion>4.0.0</modelVersion>
    
      <groupId>com.hdtrain</groupId>
      <artifactId>wordcount</artifactId>
      <version>1.0-SNAPSHOT</version>
    
      <name>wordcount</name>
      <!-- FIXME change it to the project's website -->
      <url>http://www.example.com</url>
    
      <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <!--修改jdk版本-->
        <maven.compiler.source>1.8</maven.compiler.source>
        <maven.compiler.target>1.8</maven.compiler.target>
      </properties>
    
      <dependencies>
          <dependency>
              <groupId>junit</groupId>
              <artifactId>junit</artifactId>
              <version>4.11</version>
              <scope>test</scope>
          </dependency>
          <!--日志依赖-->
          <dependency>
              <groupId>log4j</groupId>
              <artifactId>log4j</artifactId>
              <version>1.2.17</version>
          </dependency>
          <!--hadoop-hdfs-->
          <dependency>
              <groupId>org.apache.hadoop</groupId>
              <artifactId>hadoop-hdfs</artifactId>
              <version>2.7.1</version>
          </dependency>
          <!--hadoop-commmon-->
          <dependency>
              <groupId>org.apache.hadoop</groupId>
              <artifactId>hadoop-common</artifactId>
              <version>2.7.1</version>
          </dependency>
          <!--hadoop-client-->
          <dependency>
              <groupId>org.apache.hadoop</groupId>
              <artifactId>hadoop-client</artifactId>
              <version>2.7.1</version>
          </dependency>
          <!--hadoop-mapreduce-->
          <dependency>
              <groupId>org.apache.hadoop</groupId>
              <artifactId>hadoop-mapreduce-client-core</artifactId>
              <version>2.7.1</version>
          </dependency>
          <!--IK分词器依赖-->
          <dependency>
              <groupId>com.janeluo</groupId>
              <artifactId>ikanalyzer</artifactId>
              <version>2012_u6</version>
          </dependency>
      </dependencies>
    
      <build>
        <pluginManagement><!-- lock down plugins versions to avoid using Maven defaults (may be moved to parent pom) -->
          <plugins>
            <!-- clean lifecycle, see https://maven.apache.org/ref/current/maven-core/lifecycles.html#clean_Lifecycle -->
            <plugin>
              <artifactId>maven-clean-plugin</artifactId>
              <version>3.1.0</version>
            </plugin>
            <!-- default lifecycle, jar packaging: see https://maven.apache.org/ref/current/maven-core/default-bindings.html#Plugin_bindings_for_jar_packaging -->
            <plugin>
              <artifactId>maven-resources-plugin</artifactId>
              <version>3.0.2</version>
            </plugin>
            <plugin>
              <artifactId>maven-compiler-plugin</artifactId>
              <version>3.8.0</version>
            </plugin>
            <plugin>
              <artifactId>maven-surefire-plugin</artifactId>
              <version>2.22.1</version>
            </plugin>
            <plugin>
              <artifactId>maven-jar-plugin</artifactId>
              <version>3.0.2</version>
            </plugin>
            <plugin>
              <artifactId>maven-install-plugin</artifactId>
              <version>2.5.2</version>
            </plugin>
            <plugin>
              <artifactId>maven-deploy-plugin</artifactId>
              <version>2.8.2</version>
            </plugin>
            <!-- site lifecycle, see https://maven.apache.org/ref/current/maven-core/lifecycles.html#site_Lifecycle -->
            <plugin>
              <artifactId>maven-site-plugin</artifactId>
              <version>3.7.1</version>
            </plugin>
            <plugin>
              <artifactId>maven-project-info-reports-plugin</artifactId>
              <version>3.0.0</version>
            </plugin>
          </plugins>
        </pluginManagement>
      </build>
    </project>
    

    3.项目中添加resource文件夹
    添加配置文件:core-site.xml、hdfs-site.xml、mapred-site.xml
    修改文件夹文件结构为resource

    二、WordCount案例

    采用”哈利波特“英文版作为数据
    1.WordCountJob.class

    package com.hdtrain;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    
    // 定义wordcount任务
    public class WordCountJob {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    		//System.setProperty("HADOOP_USER_NAME", "root");
            //读取配置文件
            Configuration configuration = new Configuration(true);
            configuration.set("mapreduce.framework.name", "local");
            //创建job
            Job job = Job.getInstance(configuration);
            //设置Job的参数
            job.setJobName("wordcount-" + System.currentTimeMillis()); //设置job名
            job.setJarByClass(WordCountJob.class); //设置当前job主类
            job.setNumReduceTasks(2);
    
            //设置要处理文件的路径
            FileInputFormat.setInputPaths(job, "/data/harry.txt");
            //设置输出结果路径
            FileOutputFormat.setOutputPath(job, new Path("/results/wordcount-"+System.currentTimeMillis()));
    
            //设置map要输出的数据类型
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(IntWritable.class);
    
            //设置map类
            job.setMapperClass(WordCountMapper.class);
            //设置reduce类
            job.setReducerClass(WordCountReduce.class);
    
            //提交任务
            job.waitForCompletion(true);
        }
    }
    

    2.WordCountMapper.class

    package com.hdtrain;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    import java.io.IOException;
    
    public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
    
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            //获取单词
            String[] words = value.toString().replaceAll("[^a-zA-Z0-9\\s']", "").split(" ");
            开始向context添加数据,写出到reduce,统计单词数量
            for (int i = 0; i < words.length; i++){
                context.write(new Text(words[i]), new IntWritable(1));
            }
        }
    }
    

    3.WordCountReducer.class

    package com.hdtrain;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    import java.io.IOException;
    import java.util.Iterator;
    
    public class WordCountReducer extends Reducer<Text, IntWritable, Text, LongWritable> {
        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
            //声明一个变量存放总数
            long count = 0;
            //获取迭代器
            Iterator<IntWritable> iterator = values.iterator();
            //开始遍历迭代器
            while (iterator.hasNext()){
                int value = iterator.next().get();
                count += value;
            }
            //继续写出
            context.write(key, new LongWritable(count));
        }
    }
    

    4.计算结果
    在这里插入图片描述

    三、射雕英雄传词频案例

    采用”哈利波特“英文版作为数据
    1.SdxyzJob.class

    package com.hdtrain;
    
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import sun.net.sdp.SdpSupport;
    
    import java.io.IOException;
    
    public class SdyxzJob {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
            //1.读取配置文件
            Configuration configuration = new Configuration(true);
            configuration.set("mapreduce.framework.name", "local");
    
            //2.创建job
            Job job = Job.getInstance(configuration);
    
            //3.设置job的参数
            job.setJobName("射雕英雄传-"+System.currentTimeMillis());
            job.setJarByClass(SdyxzJob.class);
            job.setNumReduceTasks(2);
    
            //4.设置要处理数据文件的路径
            FileInputFormat.setInputPaths(job, new Path("/data/sdyxz.txt"));
    
            //5.设置输出结果路径
            FileOutputFormat.setOutputPath(job, new Path("/results/sdyxz-"+System.currentTimeMillis()));
    
            //6.设置map要输出的数据类型
            job.setOutputKeyClass(Text.class);
            job.setMapOutputValueClass(IntWritable.class);
    
            //7.设置map类
            job.setMapperClass(SdyxzMapper.class);
    
            //8.设置reduce类
            job.setReducerClass(SdyxzReducer.class);
    
            //9.提交job
            job.waitForCompletion(true);
        }
    }
    

    2.SdxyzMapper.class

    package com.hdtrain;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    import org.wltea.analyzer.core.IKSegmenter;
    import org.wltea.analyzer.core.Lexeme;
    
    import java.io.IOException;
    import java.io.StringReader;
    
    public class SdyxzMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
    
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            StringReader stringReader = new StringReader(value.toString());
            IKSegmenter ikSegmenter = new IKSegmenter(stringReader, true);
            Lexeme lexeme = null;
            while((lexeme = ikSegmenter.next()) != null){
                context.write(new Text(lexeme.getLexemeText()), new IntWritable(1));
            }
        }
    }
    

    3.SdxyzReducer.class

    package com.hdtrain;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    import java.io.IOException;
    import java.util.Iterator;
    
    public class SdyxzReducer extends Reducer<Text, IntWritable, Text, LongWritable> {
    
        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
            long count = 0;
            Iterator<IntWritable> iterator = values.iterator();
            while(iterator.hasNext()){
                int value = iterator.next().get();
                count += value;
            }
            context.write(key, new LongWritable(count));
        }
    }
    

    4.IK分词器示例

    package com.hdtrain;
    
    import org.wltea.analyzer.core.IKSegmenter;
    import org.wltea.analyzer.core.Lexeme;
    
    import java.io.IOException;
    import java.io.StringReader;
    
    public class IKword {
        public static void main(String[] args) throws IOException {
    
            StringReader stringReader = new StringReader("畔一排数十株乌柏树,叶子似火烧般红,正是八月天时。村前村后的野草刚起始变黄,一抹斜阳映照之下,更增了几分萧索。两株大松树下围着一堆村民,男男女女和十几个小孩,正自聚精会神的听着一个瘦削的老者说话。");
            IKSegmenter ikSegmenter = new IKSegmenter(stringReader, true);
            Lexeme lexeme = null;
            while((lexeme = ikSegmenter.next()) != null){
                System.out.println(lexeme.getLexemeText());
            }
        }
    }
    
    

    5.计算结果
    在这里插入图片描述

    展开全文
  • 网速统计监控工具

    2017-11-29 18:14:04
    技术要点: 0) 从性能数据中获取网络适配器(网卡)个数,列表,根据需要获取特定网卡的每秒流量 ...2) 用csv文件来保存数据,方便筛选与统计 3) 用opencv库来保存全屏截图,保存的图片体积较小 anqingli.com
  • 乘风多用户PHP统计系统 v5.2更新内容 ...乘风多用户PHP统计系统截图 乘风多用户PHP统计系统后台登陆 默认超级管理员登陆页面:域名/admin.php 用户:admin 密码:admin 相关阅读 同类推荐:站长常用源码
  • 易语言屏幕后台自动截图源码,屏幕后台自动截图,软件配置,统计使用时间,屏幕截图,发送邮件,开机自启
  • Hadoop的词频统计源代码WordCount
  • 淘宝搜索统计专家是基于淘宝的淘宝数据分析工具,数据准确、实时(即时采集分析),为买家或卖家提供实用的数据。   淘宝搜索统计专家可以让知道,你同行业的店铺一个月的销售量和销售...淘宝搜索统计专家 v11.4截图
  • 微信小程序-带折线统计图的资讯小程序源码及项目截图
  • 脚本运行效果截图: 此脚本包含的功能有: 1、实时监控任意网卡的流量 2、统计10秒内平均流量 3、统计每个端口在10秒内的平均流量,基于客户端和服务端端口统计。可以看出哪些端口占流量比较大,对于web服务器,...
  • 词频统计工具 v3.16.zip

    2019-07-11 08:33:56
    词频统计工具是一款专业的中英文词频统计工具软件。软件功能强大,可以统计包括Word文档(.doc;...值得一提是软件不仅可以统计出这些数据,还可以将这些数据按出现次数排序输出为Excel表格或Word表格文档。...统计方式截图
  • 统计本地文件中单词出现次数 二.操作流程 1.读取外部文件创建JavaRDD; 2.通过flatMap转化操作切分字符串,获取单词新JavaRDD; 3.通过mapToPair,以key为单词,value统一为1的键值JavaPairRDD; 4.通过reduceByKey...
  • 流量统计示例代码

    2017-03-28 21:40:29
    博客 【智能路由器】设备流量、网速统计及上下线提醒(基于netfilter编程) 示例代码 地址:http://blog.csdn.net/u012819339/article/details/50513387
  • 资源名称:概率论与数理统计浙大四版视频资源目录:【】1【】10【】2【】3【】4【】5【】6【】7【】8【】9资源截图: 资源太大,传百度网盘了,链接在附件中,有需要的同学自取。
  • 数据分析与挖掘实验报告 内含实验过程,源码,截图和实验小结
  • 前言 即将用到爬虫,于是打算收集一下User ...程序运行截图如下: 1、UA信息 2、操作系统信息 3、浏览器 用脚本统计最近一个月的访问日志,得到以下结果: 搜索引擎爬虫比较频繁,每天有好几千次数据访问; Wi
  • 资源包含文件:设计报告word+源码及数据+项目截图 实验内容: 实现基于词典的分词方法和统计分词方法:两类方法中各实现一种即可; 对分词结果进行词性标注,也可以在分词的同时进行词性标注; 对分词及词性标注结果...
  • 资源名称:以Excel为决策工具的商务与经济统计资源截图: 资源太大,传百度网盘了,链接在附件中,有需要的同学自取。
  • 内容索引:ASP源码,其它类别,折线图,图表 Asp生成统计折线图源代码,是不是觉得很神奇的技术,看了源码你就知道了,不复杂,但却很实用,测试截图如上所示,还支持动画选择图表项的功能,很不错。
  • 本文实例为大家分享了android自定义环形统计图动画的具体代码,供大家参考,具体内容如下 一、测试截图 二、实现原理  package com.freedomanlib; import java.util.Timer; import java.util.TimerTask; import ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 60,652
精华内容 24,260
关键字:

如何统计截图