精华内容
下载资源
问答
  • Excel制作自动汇总的评分模板

    千次阅读 2019-05-15 16:45:06
    公司组织活动,请你这几一个可以自动汇总的评分表使用工具Excel表格1. 评分表录入基础评分2. 自动评分汇总表模板文件 使用工具Excel表格 评分表标准:通过评分表录入数据,汇总表汇总得分,通过计算,去掉一个最高...

    公司组织活动,请你这几一个可以自动汇总的评分表

    使用工具Excel表格

    评分表标准:通过评分表录入数据,汇总表汇总得分,通过计算,去掉一个最高值,一个最低值,求平均分,根据平均分得出排名。

    1. 评分表录入基础评分

    模板表结构:设置评委序号列(相同已合并),参赛单位序号,参赛单位名称,10个评分项 列,一个求和 汇总列。
    请先根据自己参赛单位 ,评委数,分数项 对应增删不同两个表格内容。模板表中,参赛单位8个,评委6个,分数项10个;
    录入数据请填入 单张表,如果评委表已汇总数据,可直接填入总计到任一分项,如没有汇总分数,请将基础分数填入各分项中。录入时,通过刷选功能,筛选单张表中的 顺序列,对各单位依次筛选 填入,提高录入效率。

    2. 自动评分汇总表

    注意表中黄色的单元格之间是重要关联位置

    1. 汇总表评委列已通过公式 与单张表总分小计进行引用关联,当增加或删除评委时,注意与单张表 小计的 重新关联。
    2. 最高分,最低分,总分,平均分,排名均有公式,不用修改
    3. 出席评委数有公式,增加评委时注意公式,此处与平均分计算相关

    模板文件

    百度云盘链接: link. 提取码: su7z
    需要录入的评分数据
    自动汇总的评分表

    展开全文
  • EPLAN 部件汇总表制作

    千次阅读 2020-05-18 22:59:39
    2.选择一个部件汇总表的模板 3.部件汇总表分为两个部分,第一部分可编辑文本;第二部分占位符文本 4.占位符文本添加。接下来以部件总价为例进行讲解:选择菜单栏中的【插入】→【占位符文本】 选择【格式化属性或...

    1.选择菜单栏中的【工具】→【主数据】→【表格】→【打开】
    在这里插入图片描述
    2.选择一个部件汇总表的模板
    在这里插入图片描述
    3.部件汇总表分为两个部分,第一部分可编辑文本;第二部分占位符文本
    在这里插入图片描述
    4.占位符文本添加。接下来以部件总价为例进行讲解:选择菜单栏中的【插入】→【占位符文本】
    在这里插入图片描述
    选择【格式化属性或计算属性】,选择扩展符号打开。
    在这里插入图片描述
    选择【计算】,选择箭头符号
    在这里插入图片描述
    选择【占位符文本】,选择箭头符号
    在这里插入图片描述
    选择【部件参考】→【总量(件数)】,确定。
    在这里插入图片描述
    选择【*】,选择箭头符号
    在这里插入图片描述
    再次选择【占位符文本】,选择箭头符号,选择【部件】→【购买价格/价格单位 币种1】,确定。
    在这里插入图片描述
    在这里插入图片描述
    最终将格式拖拽至合适位置。
    最终结果如下:
    在这里插入图片描述

    展开全文
  • 开源爬虫汇总表

    千次阅读 2016-10-19 17:25:16
    世界上已经成型的爬虫软件多达上百种,本文对较为知名及常见的开源爬虫软件进行梳理,按开发语言进行汇总,如下表所示。...开源爬虫汇总表 开发语言 软件名称 软件介绍 许可证 Java
       世界上已经成型的爬虫软件多达上百种,本文对较为知名及常见的开源爬虫软件进行梳理,按开发语言进行汇总,如下表所示。虽然搜索引擎也有爬虫,但本次我汇总的只是爬虫软件,而非大型、复杂的搜索引擎,因为很多兄弟只是想爬取数据,而非运营一个搜索引擎。

    开源爬虫汇总表

    开发语言

    软件名称

    软件介绍

    许可证

    Java

    Arachnid

    微型爬虫框架,含有一个小型HTML解析器

    GPL

    crawlzilla

    安装简易,拥有中文分词功能

    Apache2

    Ex-Crawler

    由守护进程执行,使用数据库存储网页信息

    GPLv3

    Heritrix

    严格遵照robots文件的排除指示和META robots标签

    LGPL

    heyDr

    轻量级开源多线程垂直检索爬虫框架

    GPLv3

    ItSucks

    提供swing GUI操作界面

    不详

    jcrawl

    轻量、性能优良,可以从网页抓取各种类型的文件

    Apache

    JSpider

    功能强大,容易扩展

    LGPL

    Leopdo

    包括全文和分类垂直搜索,以及分词系统

    Apache

    MetaSeeker

    网页抓取、信息提取、数据抽取工具包,操作简单

    不详

    Playfish

    通过XML配置文件实现高度可定制性与可扩展性

    MIT

    Spiderman

    灵活、扩展性强,微内核+插件式架构,通过简单的配置就可以完成数据抓取,无需编写一句代码

    Apache

    webmagic

    功能覆盖整个爬虫生命周期,使用Xpath和正则表达式进行链接和内容的提取

    Apache

    Web-Harvest

    运用XSLT、XQuery、正则表达式等技术来实现对Text或XML的操作,具有可视化的界面

    BSD

    WebSPHINX

    由两部分组成:爬虫工作平台和WebSPHINX类包

    Apache

    YaCy

    基于P2P的分布式Web搜索引擎

    GPL

    Python

    QuickRecon

    具有查找子域名名称、收集电子邮件地址并寻找人际关系等功能

    GPLv3

    PyRailgun

    简洁、轻量、高效的网页抓取框架

    MIT

    Scrapy

    基于Twisted的异步处理框架,文档齐全

    BSD

    C++

    hispider

    支持多机分布式下载, 支持网站定向下载

    BSD

    larbin

    高性能的爬虫软件,只负责抓取不负责解析

    GPL

    Methabot

    经过速度优化、可抓取WEB、FTP及本地文件系统

    不详

    Methanol

    模块化、可定制的网页爬虫,速度快

    不详

    C#

    NWebCrawler

    统计信息、执行过程可视化

    GPLv2

    Sinawler

    国内第一个针对微博数据的爬虫程序,功能强大

    GPLv3

    spidernet

    以递归树为模型的多线程web爬虫程序,支持以GBK (gb2312)和utf8编码的资源,使用sqlite存储数据

    MIT

    Web Crawler

    多线程,支持抓取PDF/DOC/EXCEL等文档来源

    LGPL

    网络矿工

    功能丰富,毫不逊色于商业软件

    BSD

    PHP

    OpenWebSpider

    开源多线程网络爬虫,有许多有趣的功能

    不详

    PhpDig

    适用于专业化强、层次更深的个性化搜索引擎

    GPL

    Snoopy

    具有采集网页内容、提交表单功能

    GPL

    ThinkUp

    采集推特、脸谱等社交网络数据的社会媒体视角引擎,可进行交互分析并将结果以可视化形式展现

    GPL

    微购

    可采集淘宝、京东、当当等300多家电子商务数据

    GPL

    ErLang

    Ebot

    可伸缩的分布式网页爬虫

    GPLv3

    Ruby

    Spidr

    可将一个或多个网站、某个链接完全抓取到本地

    MIT

     

    下面对这些软件具体说明


    Java爬虫1. Arachnid

    Arachnid是一个基于Java的web spider框架.它包含一个简单的HTML剖析器能够分析包含HTML内容的输入流.通过实现Arachnid的子类就能够开发一个简单的Web spiders并能够在Web站上的每个页面被解析之后增加几行代码调用。 Arachnid的下载包中包含两个spider应用程序例子用于演示如何使用该框架。

    特点:微型爬虫框架,含有一个小型HTML解析器

    许可证:GPL

    2、crawlzilla

    crawlzilla 是一个帮你轻松建立搜索引擎的自由软件,有了它,你就不用依靠商业公司的搜索引擎,也不用再烦恼公司內部网站资料索引的问题。

    由 nutch 专案为核心,并整合更多相关套件,并卡发设计安装与管理UI,让使用者更方便上手。

    crawlzilla 除了爬取基本的 html 外,还能分析网页上的文件,如( doc、pdf、ppt、ooo、rss )等多种文件格式,让你的搜索引擎不只是网页搜索引擎,而是网站的完整资料索引库。

    拥有中文分词能力,让你的搜索更精准。

    crawlzilla的特色与目标,最主要就是提供使用者一个方便好用易安裝的搜索平台。

    授权协议: Apache License 2
    开发语言: Java JavaScript SHELL
    操作系统: Linux

    特点:安装简易,拥有中文分词功能

    3、Ex-Crawler

    Ex-Crawler 是一个网页爬虫,采用 Java 开发,该项目分成两部分,一个是守护进程,另外一个是灵活可配置的 Web 爬虫。使用数据库存储网页信息。

    • 授权协议: GPLv3
    • 开发语言: Java
    • 操作系统: 跨平台

    特点:由守护进程执行,使用数据库存储网页信息

    4、Heritrix

    Heritrix 是一个由 java 开发的、开源的网络爬虫,用户可以使用它来从网上抓取想要的资源。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取逻辑。

    Heritrix采用的是模块化的设计,各个模块由一个控制器类(CrawlController类)来协调,控制器是整体的核心。

    代码托管:https://github.com/internetarchive/heritrix3

    • 授权协议: Apache
    • 开发语言: Java
    • 操作系统: [url=]跨平台[/url]

    特点:严格遵照robots文件的排除指示和META robots标签

    5、heyDr

    heyDr是一款基于java的轻量级开源多线程垂直检索爬虫框架,遵循GNU GPL V3协议。

    用户可以通过heyDr构建自己的垂直资源爬虫,用于搭建垂直搜索引擎前期的数据准备。

    • 授权协议: GPLv3
    • 开发语言: Java
    • 操作系统: 跨平台

    特点:轻量级开源多线程垂直检索爬虫框架

    6、ItSucks

    ItSucks是一个java web spider(web机器人,爬虫)开源项目。支持通过下载模板和正则表达式来定义下载规则。提供一个swing GUI操作界面。

    特点:提供swing GUI操作界面

    7、jcrawl

    jcrawl是一款小巧性能优良的的web爬虫,它可以从网页抓取各种类型的文件,基于用户定义的符号,比如email,qq.

    • 授权协议: Apache
    • 开发语言: Java
    • 操作系统: 跨平台

    特点:轻量、性能优良,可以从网页抓取各种类型的文件

    8、JSpider

    JSpider是一个用Java实现的WebSpider,JSpider的执行格式如下:

    jspider http://,否则会报错。如� ... �用默认配置。

    特点:网页抓取、信息提取、数据抽取工具包,操作简单

    11、Playfish

    playfish是一个采用java技术,综合应用多个开源java组件实现的网页抓取工具,通过XML配置文件实现高度可定制性与可扩展性的网页抓取工具

    应用开源jar包包括httpclient(内容读取),dom4j(配置文件解析),jericho(html解析),已经在 war包的lib下。

    这个项目目前还很不成熟,但是功能基本都完成了。要求使用者熟悉XML,熟悉正则表达式。目前通过这个工具可以抓取各类论坛,贴吧,以及各类CMS系统。像Discuz!,phpbb,论坛跟博客的文章,通过本工具都可以轻松抓取。抓取定义完全采用XML,适合Java开发人员使用。

    使用方法:

    • 下载右边的.war包导入到eclipse中,
    • 使用WebContent/sql下的wcc.sql文件建立一个范例数据库,
    • 修改src包下wcc.core的dbConfig.txt,将用户名与密码设置成你自己的mysql用户名密码。
    • 然后运行SystemCore,运行时候会在控制台,无参数会执行默认的example.xml的配置文件,带参数时候名称为配置文件名。

    系统自带了3个例子,分别为baidu.xml抓取百度知道,example.xml抓取我的javaeye的博客,bbs.xml抓取一个采用 discuz论坛的内容。

    • 授权协议: MIT
    • 开发语言: Java
    • 操作系统: 跨平台

    特点:通过XML配置文件实现高度可定制性与可扩展性

    12、Spiderman

    Spiderman 是一个基于微内核+插件式架构的网络蜘蛛,它的目标是通过简单的方法就能将复杂的目标网页信息抓取并解析为自己所需要的业务数据。

    怎么使用?

    首先,确定好你的目标网站以及目标网页(即某一类你想要获取数据的网页,例如网易新闻的新闻页面)

    然后,打开目标页面,分析页面的HTML结构,得到你想要数据的XPath,具体XPath怎么获取请看下文。

    最后,在一个xml配置文件里填写好参数,运行Spiderman吧!

    • 授权协议: Apache
    • 开发语言: Java
    • 操作系统: 跨平台

    特点:灵活、扩展性强,微内核+插件式架构,通过简单的配置就可以完成数据抓取,无需编写一句代码

    13、webmagic

    webmagic的是一个无须配置、便于二次开发的爬虫框架,它提供简单灵活的API,只需少量代码即可实现一个爬虫。

    webmagic采用完全模块化的设计,功能覆盖整个爬虫的生命周期(链接提取、页面下载、内容抽取、持久化),支持多线程抓取,分布式抓取,并支持自动重试、自定义UA/cookie等功能。

    webmagic包含强大的页面抽取功能,开发者可以便捷的使用css selector、xpath和正则表达式进行链接和内容的提取,支持多个选择器链式调用。

    webmagic的使用文档:http://webmagic.io/docs/

    查看源代码:http://git.oschina.net/flashsword20/webmagic

    • 授权协议: Apache
    • 开发语言: Java
    • 操作系统: 跨平台

    特点:功能覆盖整个爬虫生命周期,使用Xpath和正则表达式进行链接和内容的提取。

    备注:这是一款国产开源软件,由 黄亿华贡献

    14、Web-Harvest

    Web-Harvest是一个Java开源Web数据抽取工具。它能够收集指定的Web页面并从这些页面中提取有用的数据。Web-Harvest主要是运用了像XSLT,XQuery,正则表达式等这些技术来实现对text/xml的操作。

    其实现原理是,根据预先定义的配置文件用httpclient获取页面的全部内容(关于httpclient的内容,本博有些文章已介绍),然后运用XPath、XQuery、正则表达式等这些技术来实现对text/xml的内容筛选操作,选取精确的数据。前两年比较火的垂直搜索(比如:酷讯等)也是采用类似的原理实现的。Web-Harvest应用,关键就是理解和定义配置文件,其他的就是考虑怎么处理数据的Java代码。当然在爬虫开始前,也可以把Java变量填充到配置文件中,实现动态的配置。

    • 授权协议: BSD
    • 开发语言: Java

    特点:运用XSLT、XQuery、正则表达式等技术来实现对Text或XML的操作,具有可视化的界面

    15、WebSPHINX

    WebSPHINX是一个Java类包和Web爬虫的交互式开发环境。Web爬虫(也叫作机器人或蜘蛛)是可以自动浏览与处理Web页面的程序。WebSPHINX由两部分组成:爬虫工作平台和WebSPHINX类包。

    授权协议:Apache

    开发语言:Java

    特点:由两部分组成:爬虫工作平台和WebSPHINX类包

    16、YaCy

    YaCy基于p2p的分布式Web搜索引擎.同时也是一个Http缓存代理服务器.这个项目是构建基于p2p Web索引网络的一个新方法.它可以搜索你自己的或全局的索引,也可以Crawl自己的网页或启动分布式Crawling等.

    • 授权协议: GPL
    • 开发语言: Java Perl
    • 操作系统: 跨平台

    特点:基于P2P的分布式Web搜索引擎

    Python爬虫17、QuickRecon

    QuickRecon是一个简单的信息收集工具,它可以帮助你查找子域名名称、perform zone transfe、收集电子邮件地址和使用microformats寻找人际关系等。QuickRecon使用python编写,支持linux和 windows操作系统。

    • 授权协议: GPLv3
    • 开发语言: Python
    • 操作系统: Windows Linux

    特点:具有查找子域名名称、收集电子邮件地址并寻找人际关系等功能

    18、PyRailgun

    这是一个非常简单易用的抓取工具。支持抓取javascript渲染的页面的简单实用高效的python网页爬虫抓取模块

    • 授权协议: MIT
    • 开发语言: Python
    • 操作系统: 跨平台 Windows Linux OS X

    特点:简洁、轻量、高效的网页抓取框架

    备注:此软件也是由国人开放

    github下载:https://github.com/princehaku/pyrailgun#readme

    19、Scrapy

    Scrapy 是一套基于基于Twisted的异步处理框架,纯python实现的爬虫框架,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便~

    • 授权协议: BSD
    • 开发语言: Python
    • 操作系统: 跨平台

    github源代码:https://github.com/scrapy/scrapy

    特点:基于Twisted的异步处理框架,文档齐全

    C++爬虫20、hispider

    HiSpider is a fast and high performance spider with high speed

    严格说只能是一个spider系统的框架, 没有细化需求, 目前只是能提取URL, URL排重, 异步DNS解析, 队列化任务, 支持N机分布式下载, 支持网站定向下载(需要配置hispiderd.ini whitelist).

    特征和用法:

    • 基于unix/linux系统的开发
    • 异步DNS解析
    • URL排重
    • 支持HTTP 压缩编码传输 gzip/deflate
    • 字符集判断自动转换成UTF-8编码
    • 文档压缩存储
    • 支持多下载节点分布式下载
    • 支持网站定向下载(需要配置 hispiderd.ini whitelist )
    • 可通过 http://127.0.0.1:3721/ 查看下载情况统计,下载任务控制(可停止和恢复任务)
    • 依赖基本通信库libevbase 和 libsbase (安装的时候需要先安装这个两个库)、

    工作流程:

    • 从中心节点取URL(包括URL对应的任务号, IP和port,也可能需要自己解析)
    • 连接服务器发送请求
    • 等待数据头判断是否需要的数据(目前主要取text类型的数据)
    • 等待完成数据(有length头的直接等待说明长度的数据否则等待比较大的数字然后设置超时)
    • 数据完成或者超时, zlib压缩数据返回给中心服务器,数据可能包括自己解析DNS信息, 压缩后数据长度+压缩后数据, 如果出错就直接返回任务号以及相关信息
    • 中心服务器收到带有任务号的数据, 查看是否包括数据, 如果没有数据直接置任务号对应的状态为错误, 如果有数据提取数据种link 然后存储数据到文档文件.
    • 完成后返回一个新的任务.

    授权协议: BSD

    开发语言: C/C++

    操作系统: Linux

    特点:支持多机分布式下载, 支持网站定向下载

    21、larbin

    larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人 Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。Larbin只是一个爬虫,也就 是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。一个简单的larbin的爬虫可以每天获取500万的网页。

    利用larbin,我们可以轻易的获取/确定单个网站的所有链接,甚至可以镜像一个网站;也可以用它建立url 列表群,例如针对所有的网页进行 url retrive后,进行xml的联结的获取。或者是 mp3,或者定制larbin,可以作为搜索引擎的信息的来源。

    • 授权协议: GPL
    • 开发语言: C/C++
    • 操作系统: Linux

    特点:高性能的爬虫软件,只负责抓取不负责解析

    22、Methabot

    Methabot 是一个经过速度优化的高可配置的 WEB、FTP、本地文件系统的爬虫软件。

    • 授权协议: 未知
    • 开发语言: C/C++
    • 操作系统: Windows Linux

    特点:过速度优化、可抓取WEB、FTP及本地文件系统

    源代码:http://www.oschina.net/code/tag/methabot

    C#爬虫23、NWebCrawler

    NWebCrawler是一款开源,C#开发网络爬虫程序。

    特性:

    • 可配置:线程数,等待时间,连接超时,允许MIME类型和优先级,下载文件夹。
    • 统计信息:URL数量,总下载文件,总下载字节数,CPU利用率和可用内存。
    • Preferential crawler:用户可以设置优先级的MIME类型。
    • Robust: 10+ URL normalization rules, crawler trap avoiding rules.

    授权协议: GPLv2

    开发语言: C#

    操作系统: Windows

    项目主页:http://www.open-open.com/lib/view/home/1350117470448

    特点:统计信息、执行过程可视化

    24、Sinawler

    国内第一个针对微博数据的爬虫程序!原名“新浪微博爬虫”。

    登录后,可以指定用户为起点,以该用户的关注人、粉丝为线索,延人脉关系搜集用户基本信息、微博数据、评论数据。

    该应用获取的数据可作为科研、与新浪微博相关的研发等的数据支持,但请勿用于商业用途。该应用基于.NET2.0框架,需SQL SERVER作为后台数据库,并提供了针对SQL Server的数据库脚本文件。

    另外,由于新浪微博API的限制,爬取的数据可能不够完整(如获取粉丝数量的限制、获取微博数量的限制等)

    本程序版权归作者所有。你可以免费: 拷贝、分发、呈现和表演当前作品,制作派生作品。 你不可将当前作品用于商业目的。

    5.x版本已经发布! 该版本共有6个后台工作线程:爬取用户基本信息的机器人、爬取用户关系的机器人、爬取用户标签的机器人、爬取微博内容的机器人、爬取微博评论的机器人,以及调节请求频率的机器人。更高的性能!最大限度挖掘爬虫潜力! 以现在测试的结果看,已经能够满足自用。

    本程序的特点:

    • 6个后台工作线程,最大限度挖掘爬虫性能潜力!
    • 界面上提供参数设置,灵活方便
    • 抛弃app.config配置文件,自己实现配置信息的加密存储,保护数据库帐号信息
    • 自动调整请求频率,防止超限,也避免过慢,降低效率
    • 任意对爬虫控制,可随时暂停、继续、停止爬虫
    • 良好的用户体验

    授权协议: GPLv3

    开发语言: C# .NET

    操作系统: Windows

    25、spidernet

    spidernet是一个以递归树为模型的多线程web爬虫程序, 支持text/html资源的获取. 可以设定爬行深度, 最大下载字节数限制, 支持gzip解码, 支持以gbk(gb2312)和utf8编码的资源; 存储于sqlite数据文件.

    源码中TODO:标记描述了未完成功能, 希望提交你的代码.

    • 授权协议: MIT
    • 开发语言: C#
    • 操作系统: Windows

    github源代码:https://github.com/nsnail/spidernet

    特点:以递归树为模型的多线程web爬虫程序,支持以GBK (gb2312)和utf8编码的资源,使用sqlite存储数据

    26、Web Crawler

    mart and Simple Web Crawler是一个Web爬虫框架。集成Lucene支持。该爬虫可以从单个链接或一个链接数组开始,提供两种遍历模式:最大迭代和最大深度。可以设置 过滤器限制爬回来的链接,默认提供三个过滤器ServerFilter、BeginningPathFilter和 RegularExpressionFilter,这三个过滤器可用AND、OR和NOT联合。在解析过程或页面加载前后都可以加监听器。介绍内容来自Open-Open

    • 开发语言: Java
    • 操作系统: 跨平台
    • 授权协议: LGPL

    特点:多线程,支持抓取PDF/DOC/EXCEL等文档来源

    27、网络矿工

    网站数据采集软件 网络矿工采集器(原soukey采摘)

    Soukey采摘网站数据采集软件是一款基于.Net平台的开源软件,也是网站数据采集软件类型中唯一一款开源软件。尽管Soukey采摘开源,但并不会影响软件功能的提供,甚至要比一些商用软件的功能还要丰富。

    • 授权协议: BSD
    • 开发语言: C# .NET
    • 操作系统: Windows

    特点:功能丰富,毫不逊色于商业软件

    PHP爬虫28、OpenWebSpider

    OpenWebSpider是一个开源多线程Web Spider(robot:机器人,crawler:爬虫)和包含许多有趣功能的搜索引擎。

    • 授权协议: 未知
    • 开发语言: PHP
    • 操作系统: 跨平台

    特点:开源多线程网络爬虫,有许多有趣的功能

    29、PhpDig

    PhpDig是一个采用PHP开发的Web爬虫和搜索引擎。通过对动态和静态页面进行索引建立一个词汇表。当搜索查询时,它将按一定的排序规则显示包含关 键字的搜索结果页面。PhpDig包含一个模板系统并能够索引PDF,Word,Excel,和PowerPoint文档。PHPdig适用于专业化更 强、层次更深的个性化搜索引擎,利用它打造针对某一领域的垂直搜索引擎是最好的选择。

    演示:http://www.phpdig.net/navigation.php?action=demo

    • 授权协议: GPL
    • 开发语言: PHP
    • 操作系统: 跨平台

    特点:具有采集网页内容、提交表单功能

    30、ThinkUp

    ThinkUp 是一个可以采集推特,facebook等社交网络数据的社会媒体视角引擎。通过采集个人的社交网络账号中的数据,对其存档以及处理的交互分析工具,并将数据图形化以便更直观的查看。

    • 授权协议: GPL
    • 开发语言: PHP
    • 操作系统: 跨平台

    github源码:https://github.com/ThinkUpLLC/ThinkUp

    特点:采集推特、脸谱等社交网络数据的社会媒体视角引擎,可进行交互分析并将结果以可视化形式展现

    31、微购

    微购社会化购物系统是一款基于ThinkPHP框架开发的开源的购物分享系统,同时它也是一套针对站长、开源的的淘宝客网站程序,它整合了淘宝、天猫、淘宝客等300多家商品数据采集接口,为广大的淘宝客站长提供傻瓜式淘客建站服务,会HTML就会做程序模板,免费开放下载,是广大淘客站长的首选。

    演示网址:http://tlx.wego360.com

    授权协议: GPL

    开发语言: PHP

    操作系统: 跨平台

    ErLang爬虫32、Ebot

    Ebot 是一个用 ErLang 语言开发的可伸缩的分布式网页爬虫,URLs 被保存在数据库中可通过 RESTful 的 HTTP 请求来查询。

    • 授权协议: GPLv3
    • 开发语言: ErLang
    • 操作系统: 跨平台

    github源代码:https://github.com/matteoredaelli/ebot

    项目主页: http://www.redaelli.org/matteo/blog/projects/ebot

    特点:可伸缩的分布式网页爬虫

    Ruby爬虫33、Spidr

    Spidr 是一个Ruby 的网页爬虫库,可以将整个网站、多个网站、某个链接完全抓取到本地。

    • 开发语言: Ruby
    • 授权协议:MIT

    特点:可将一个或多个网站、某个链接完全抓取到本地


    展开全文
  • eigrp的自动汇总与手工汇总

    千次阅读 2019-04-07 15:41:33
    在eigrp中存在两种汇总方式:自动汇总与手工汇总。下面是汇总的详解: 1.eigrp自动汇总 图1:eigrp汇总拓扑图 首先配置eigrp的基础配置,确保R1与R3分别有对方的eigrp路由条目: R1: R2: R3: 自动...

    在eigrp中存在两种汇总方式:自动汇总与手工汇总。下面是汇总的详解:

    1.eigrp自动汇总

    图1:eigrp汇总拓扑图

    捕获9
    首先配置eigrp的基础配置,确保R1与R3分别有对方的eigrp路由条目:

    R1:

    捕获1

    R2:

    捕获2

    R3:

    捕获3

    自动汇总,只对内部路由生效内部路由就是EIGRP协议宣告的子网,外部网络就是通过重分布等其他方式进入EIGRP协议的路由条目。在默认情况下,eigrp会自动启动汇总,可以通过"show ip protocols"命令查看eigrp的详细信息:

    捕获4
    通过上面的截图我们可以总结如下内容:

    EIGRP 路由汇总原则:

    1.当开启"auto-summary"自动汇总时,每个EIGRP路由器都会为自己的直连路由产生一条汇总信息(这条直连路由需要宣告进EIGRP),然后这条路由的明细和汇总信息都会放在拓扑表和路由表中,明细路由使用C表示,汇总路由使用D表示。不开启auto-summary则没有。

    特别需要补充的是:

    1.EIGRP只汇总自己network的网段,别的路由器传递过来的路由和重分发的路由,都不汇总。

    2.路由器收到的路由是汇总的还是明细的取决于发送更新给你的路由器是否开启了auto-summary。

    注意:

    路由表里同时会产生一条指向本地null0的汇总路由条目,所谓null0可以理解成一个垃圾桶,“有去无回”是对它最好的描述,那么为什么会产生一条汇总路由指向NULL0口呢?其实这样做的目的是为了防止“环路”(在路由器中虽然有TTL这种机制,但是过长的TTL值会导致防环效率低下):
    为了证明防环机制,我们继续进行实验,现在拓扑图如下所示:

    捕获

    在R1上有三条环回口,用来模拟外网网段,由于R1开启了自动汇总,所以R1与R2的路由表如下:

    捕获

    捕获1

    在R1的路由表中,三个10网段的环回口被汇总到10.0.0.0/8,本地多出来了一条指向NULL0的10.0.0.0/8的路由条目(该路由条目AD=5),现状假设R1上有一条指向R2的默认路由:

    捕获3

    由于eigrp的汇总特征决定了只有当最后一条汇总子路由(例如本例中的10.1.1.1)条目丢失时,汇总路由条目才会消失,因此如果此时loop1的路由条目丢失,查看R1与R2的路由表如下:捕获5

    捕获6

    R1已经没有了loop1接口,但是R2仍然有一条去往R1的10.0.0.0/8的汇总路由。现在假设R2右边有一数据包目的地址是:192.168.1.1,那么他到达R2的时候会被路由至R1,如果R1没有那条指向NULL0的汇总路由存在,那么R1在匹配不到目标地址的时候会按照默认路由发回R2,此时环路产生。

    2.eigrp手工汇总

    eigrp的手工汇总使用的命令是:(注意:在接口配置模式下进行手动汇总)

    "R1(config-if)# ip summary-address eigrp 90 10.1.0.0 255.255.0.0"效果如下:

    首先在路由配置模式下使用''no auto-summary''命令取消自动汇总,会出现如下提示:

     

    捕获

    此时R2的路由表为:(明细路由已经出现)

    捕获

    在R1使用手工汇总命令:

    捕获

    查看R2与R1的路由表,效果与自动汇总效果类似:

    捕获

    捕获

    注意:手工汇总优先级最高。

     

     

     

     

     

     

     

     

     

     

     

     

    展开全文
  • 仪表识别方法汇总

    千次阅读 2019-07-05 20:09:07
    仪表自动识别方法汇总 进入实验室,接到的第一个任务,老师让查一些仪表识别的解决方案,搜集了三天相关的博客和论文,自认为比较好的四个方法,自己总结了一下: 数字仪表示数读取 方法一:基于OpenCV和LSSVM的...
  • UPDATE 汇总表 INNER JOIN (SELECT user_id , SUM(amount) amount ,COUNT(user_id) sign_count FROM 明细表 GROUP BY user_id) ON 汇总表.user_id= 明细表.user_id SET 汇总表.total_sign_amount =明细表....
  • 同班选任意成绩表合成成绩汇总表  不同班的成绩表不能汇总  自动计算总分
  • 程序是人机交互的媒介,有输出必然也有输入,第三章我们讲解了如何将数据输出到显示器上,本章我们开始讲解如何从键盘输入数据。在C语言中,有多个函数可以从键盘获得用户输入: scanf():和 printf() 类似,scanf...
  • H3CNE 320题 RIPv2路由自动汇总

    千次阅读 2013-12-30 16:39:00
    320. MSR路由器通过RIPv2 和外界交换路由信息,在路由表里有...RIP协议本身都是在主类网络的边界进行汇总的,如果是RIP V2没有关闭自动汇总的话是自动汇总为主类网络的,如果是手动汇总的话,可以汇总成D选型的。
  • SAP 表汇总

    千次阅读 2016-10-22 14:07:37
    SAP 整理: VBKPF-预制凭证抬头: VBKPF-预制凭证抬头 VBKPF-预制凭证抬头 VBSEG-预制凭证行项目: VBSEG-预制凭证行项目 VBSEG-预制凭证行项目 VBSEGA-预制凭证行项目_资产: VBSEGA-预制凭证...
  • 这个以Null0为出接口的自动汇总条目是出现在发生汇总的路由器上, 下面讨论两种各种情况: 1,R1 router eigrp 100 network 10.1.1.0 0.0.0.255 network 172.16.1.0 0.0.0.255 network 172.16.2.0...
  • 团队中每个成员都有不同的工作安排,为了方便管理,对不同成员进行单独的AP管理固然重要,但是当AP积累到一定程度时,每天去AP中查询时就会很耗费时间,并且容易遗漏一些AP。那么能不能实现既可以对每个成员的AP...
  • 数据库和应用服务器分别在两台主机上,当数据库连接意外断开,自动重新连接后,应用和数据库能够重新连接成功,但是报表应用就无法使用了,必须重启应用服务器,才能继续使用报表应用。 下面介绍一种方法,使得不...
  • 这里会汇总一些毕业论文写作必备工具,高效自动化,助学弟学妹们一臂之力
  • Python 自动化测试面试题目汇总

    万次阅读 多人点赞 2019-03-20 11:12:20
    Python 自动化测试面试题目 1、super 是干嘛用的?在 Python2 和 Python3 使用,有什么区别?为什么要使用 super?请举例说明。答: super 用于继承父类的方法、属性。 super 是新式类中才有的,所以 Python2 中...
  • js知识点汇总

    万次阅读 多人点赞 2019-11-03 20:58:42
    •弹出窗口•计数器•自动跳转页面•获得浏览器信息•图片切换 44.BOM综述 BrowserObject浏览器提供的 用户与浏览器窗口之间交互的对象 及操作的接口。 Model 这些对象并不是独立存在的,对象与对象之间存在...
  • Python 汇总多个Excel数据

    千次阅读 2019-11-19 01:13:12
    本文使用xlrd模块读取Excel,使用openpyxl模块写入Excel,可将同表头结构的数据汇总至同一Excel文件中。 该小工具应该是网上同类小工具中效率较高的,只需要单次循环即可解决。 代码如下: # 汇总相同表头的Excel...
  • 工业自动化通信协议汇总

    千次阅读 2016-11-28 16:39:06
  • Python办公自动化实践1:从多个excel中提取数据并汇总到一个工作页中,表格,抽取,sheet 发表时间:2020-04-26 问题:从当前目录或子目录中查询符合条件的excel表格,并从这些excel表格中抽取符合条件的行汇总到...
  • 现有这样的明细数据 我们希望按照下图的样子统计 按照负责单位分组并进行分组小计。 制作关键点: 1. 根据负责单位分组 2. 计算出分组小计 制表过程: 1. 启动润乾报表工具 2. 新建空白报表 3. ...
  • 实时分享CVPR、ECCV等会议,关注深度学习、自动驾驶领域,我们期待你的加入。... 获取2020年最新论文动态,请加微信: ...免费获取整理的python、pytorch、tensorflow等...续前文:2020年| 最新自动驾驶数据集汇总,...
  • Sub st1()  Dim r&, i&  Dim arr, brr  Dim x, y, z, t, k  Set d = CreateObject("scripting.dictionary")  Set d2 = CreateObject("scripting.dictionary") ... Set s = CreateObject("scrip
  • redis——相关问题汇总

    万次阅读 多人点赞 2019-10-16 10:09:19
    而哈希在保持较低的哈希值冲突概率的前提下,查找时间复杂度接近O(1),性能更高一些。所以我们平常使用的各种Map或dictionary结构,大都是基于哈希实现的。 从算法实现难度上来比较,skiplist比平衡树要简单得...
  • jqGrid表格自带group分组功能,包括表头Header分组和表格内容分组功能,本文讨论表格行如何...表格行新增、删除时如何自动更新分组统计;表格行汇总列单元格编辑室如何更新分组统计;如何动态实现分组展开、收起功能。
  • 表面缺陷检测数据集汇总及其相关项目推荐

    千次阅读 多人点赞 2020-06-27 00:00:00
    中科院自动化所 [3] 《汇总|缺陷检测数据集》 推荐阅读: 专辑|相机标定 专辑|3D点云 专辑|SLAM 专辑|深度学习与自动驾驶 专辑|结构光 专辑|事件相机 专辑|OpenCV学习 专辑|学习资源汇总 专辑|招聘与项目对接 专辑|...
  • hive中操作的汇总

    2018-08-09 14:08:37
    在使用hive时,会时常遇到一些的操作,今天就把平时积累的和大家分享一下~ 1、修改字段名 --语法格式 alter table 表名 CHANGE col_old_name col_new_name new_type; --实例 use dw_bi; alter table dimcity ...
  • 用c# 把excel的数据自动导入sql数据库 并根据excel的内容自动创建数据库,经过网上查资料和自己的努力做了出来 ,只不过是实现了功能并未优化代码,下面分享我的代码 首先建一个网站项目 ,其.aspx代码如下 ...
  • 最新Java面试题,常见面试题及答案汇总

    万次阅读 多人点赞 2019-07-12 08:56:55
    Java最新面试题、面试题答案汇总
  • 微信公众号接口权限表汇总

    万次阅读 2014-12-04 12:16:15
    自动回复 无上限 已获得   客服接口   未获得   群发接口   未获得   模板消息(业务通知)   未获得   用户管理 用户分组管理...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 92,365
精华内容 36,946
关键字:

如何制作自动汇总表