精华内容
下载资源
问答
  • 1、 算法有哪些特点?它有哪些特征?它和程序的主要区别是什么? 2、 算法的时间复杂度指的是什么?如何表示? 3、 算法的空间复杂度指的是什么?如何表示? 4、 什么是最坏时间复杂性?什么是最好时间复杂性? 5、 ...
  • 一、文本挖掘定义文本...二、文本挖掘步骤1)读取数据库或本地外部文本文件2)文本分词2.1)自定义字典2.2)自定义停止词2.3)分词2.4)文字云检索哪些词切的不准确、哪些词没有意义,需要循环2.1、2.2和 2.3步骤3)构建文...

    一、文本挖掘定义

    文本挖掘指的是从文本数据中获取有价值的信息和知识,它是数据挖掘中的一种方法。文本挖掘中最重要最基本的应用是实现文本的分类和聚类,前者是有监督的挖掘算法,后者是无监督的挖掘算法。

    540-640x380.jpg

    二、文本挖掘步骤

    1)读取数据库或本地外部文本文件

    2)文本分词

    2.1)自定义字典

    2.2)自定义停止词

    2.3)分词

    2.4)文字云检索哪些词切的不准确、哪些词没有意义,需要循环2.1、2.2和 2.3步骤

    3)构建文档-词条矩阵并转换为数据框

    4)对数据框建立统计、挖掘模型

    5)结果反馈

    三、文本挖掘所需工具

    本次文本挖掘将使用R语言实现,除此还需加载几个R包,它们是tm包、tmcn包、Rwordseg包和wordcloud包。其中tmcn包和Rwordseg包无法在CRAN镜像中下载到,有关这两个包的下载方法。

    四、实战

    本文所用数据集来自于sougou实验室数据,具体可至链接下载>>>

    本文对该数据集做了整合,将各个主题下的新闻汇总到一张csv表格中,数据格式如下图所示:

    541.jpg

    具体数据可至文章后面的链接。

    542-640x197.jpg

    543.jpg

    接下来需要对新闻内容进行分词,在分词之前需要导入一些自定义字典,目的是提高切词的准确性。由于文本中涉及到军事、医疗、财经、体育等方面的内容,故需要将搜狗字典插入到本次分析的字典集中。

    544.jpg

    545.jpg

    如果需要卸载某些已导入字典的话,可以使用uninstallDict()函数。

    分词前将中文中的英文字母统统去掉。

    546.jpg

    图中圈出来的词对后续的分析并没有什么实际意义,故需要将其剔除,即删除停止词。

    547.jpg

    548.jpg

    停止词创建好后,该如何删除76条新闻中实际意义的词呢?下面通过自定义删除停止词的函数加以实现。

    549.jpg

    550.jpg

    相比与之前的分词结果,这里瘦身了很多,剔除了诸如“是”、“的”、“到”、“这”等无意义的次。 判别分词结果的好坏,最快捷的方法是绘制文字云,可以清晰的查看哪些词不该出现或哪些词分割的不准确。

    551.jpg

    552.jpg

    仍然存在一些无意义的词(如说、日、个、去等)和分割不准确的词语(如黄金周切割为黄金,医药切割为药等),这里限于篇幅的原因,就不进行再次添加自定义词汇和停止词。

    553.jpg

    554.jpg

    此时语料库中存放了76条新闻的分词结果。

    555.jpg

    556-640x227.jpg

    从图中可知,文档-词条矩阵包含了76行和7939列,行代表76条新闻,列代表7939个词;该矩阵实际上为稀疏矩阵,其中矩阵中非0元素有11655个,而0元素有591709,稀疏率达到98%;最后,这7939个词中,最频繁的一个词出现在了49条新闻中。

    由于稀疏矩阵的稀疏率过高,这里将剔除一些出现频次极地的词语。

    557.jpg

    558-1.jpg

    这样一来,矩阵中列大幅减少,当前矩阵只包含了116列,即116个词语。

    为了便于进一步的统计建模,需要将矩阵转换为数据框格式。

    559.jpg

    560.jpg

    总结

    所以在实际的文本挖掘过程中,最为困难和耗费时间的就是分词部分,既要准确分词,又要剔除无意义的词语,这对文本挖掘者是一种挑战。 文中数据和脚本可至如下链接下载: http://yunpan.cn/cupyBj9xTkHe7访问密码 a88b

    免费公开课福利:

    展开全文
  • 一、文本挖掘定义 文本挖掘指的是从文本数据中获取价值的信息和知识,它是数据挖掘中的一种方法。文本挖掘中最重要最基本的应用是实现文本的分类和...2.4)文字云检索哪些词切的不准确、哪些词没有意义,需要循...

    一、文本挖掘定义

    文本挖掘指的是从文本数据中获取有价值的信息和知识,它是数据挖掘中的一种方法。文本挖掘中最重要最基本的应用是实现文本的分类和聚类,前者是有监督的挖掘算法,后者是无监督的挖掘算法。

    二、文本挖掘步骤

    1)读取数据库或本地外部文本文件

    2)文本分词

    2.1)自定义字典

    2.2)自定义停止词

    2.3)分词

    2.4)文字云检索哪些词切的不准确、哪些词没有意义,需要循环2.1、2.2和 2.3步骤

    3)构建文档-词条矩阵并转换为数据框

    4)对数据框建立统计、挖掘模型

    5)结果反馈

    三、文本挖掘所需工具

    本次文本挖掘将使用R语言实现,除此还需加载几个R包,它们是tm包、tmcn包、Rwordseg包和wordcloud包。其中tmcn包和Rwordseg包无法在CRAN镜像中下载到,有关这两个包的下载方法。

    四、实战

    本文所用数据集来自于sougou实验室数据,具体可至链接下载>>>

    本文对该数据集做了整合,将各个主题下的新闻汇总到一张csv表格中,数据格式如下图所示:

    具体数据可至文章后面的链接。

     

    接下来需要对新闻内容进行分词,在分词之前需要导入一些自定义字典,目的是提高切词的准确性。由于文本中涉及到军事、医疗、财经、体育等方面的内容,故需要将搜狗字典插入到本次分析的字典集中。

    如果需要卸载某些已导入字典的话,可以使用uninstallDict()函数。

    分词前将中文中的英文字母统统去掉。

    图中圈出来的词对后续的分析并没有什么实际意义,故需要将其剔除,即删除停止词。

    停止词创建好后,该如何删除76条新闻中实际意义的词呢?下面通过自定义删除停止词的函数加以实现。

    相比与之前的分词结果,这里瘦身了很多,剔除了诸如“是”、“的”、“到”、“这”等无意义的次。 判别分词结果的好坏,最快捷的方法是绘制文字云,可以清晰的查看哪些词不该出现或哪些词分割的不准确。

    仍然存在一些无意义的词(如说、日、个、去等)和分割不准确的词语(如黄金周切割为黄金,医药切割为药等),这里限于篇幅的原因,就不进行再次添加自定义词汇和停止词。

    此时语料库中存放了76条新闻的分词结果。

    从图中可知,文档-词条矩阵包含了76行和7939列,行代表76条新闻,列代表7939个词;该矩阵实际上为稀疏矩阵,其中矩阵中非0元素有11655个,而0元素有591709,稀疏率达到98%;最后,这7939个词中,最频繁的一个词出现在了49条新闻中。

    由于稀疏矩阵的稀疏率过高,这里将剔除一些出现频次极地的词语。

    这样一来,矩阵中列大幅减少,当前矩阵只包含了116列,即116个词语。

    为了便于进一步的统计建模,需要将矩阵转换为数据框格式。

    总结

    所以在实际的文本挖掘过程中,最为困难和耗费时间的就是分词部分,既要准确分词,又要剔除无意义的词语,这对文本挖掘者是一种挑战。 文中数据和脚本可至如下链接下载: http://yunpan.cn/cupyBj9xTkHe7 访问密码 a88b

    免费公开课福利:

    美国西北大学海归大咖主讲,全国首例机器学习算法课程

    转载于:https://www.cnblogs.com/icebing/p/6727479.html

    展开全文
  • 文本挖掘案例

    2017-04-01 13:51:00
    一、文本挖掘定义 文本挖掘指的是从文本数据中获取价值的信息和知识,它是数据挖掘中的一种方法。文本挖掘中最重要最基本的应用是实现文本的分类和...2.4)文字云检索哪些词切的不准确、哪些词没有意义,需要循环2...

    一、文本挖掘定义

    文本挖掘指的是从文本数据中获取有价值的信息和知识,它是数据挖掘中的一种方法。文本挖掘中最重要最基本的应用是实现文本的分类和聚类,前者是有监督的挖掘算法,后者是无监督的挖掘算法。

    大数据

    二、文本挖掘步骤

    1)读取数据库或本地外部文本文件

    2)文本分词

    2.1)自定义字典

    2.2)自定义停止词

    2.3)分词

    2.4)文字云检索哪些词切的不准确、哪些词没有意义,需要循环2.1、2.2和 2.3步骤

    3)构建文档-词条矩阵并转换为数据框

    4)对数据框建立统计、挖掘模型

    5)结果反馈

    三、文本挖掘所需工具

    本次文本挖掘将使用R语言实现,除此还需加载几个R包,它们是tm包、tmcn包、Rwordseg包和wordcloud包。其中tmcn包和Rwordseg包无法在CRAN镜像中下载到,有关这两个包的下载方法可参见下文>>>

    四、实战

    本文所用数据集来自于sougou实验室数据,具体可至链接下载>>>

    本文对该数据集做了整合,将各个主题下的新闻汇总到一张csv表格中,数据格式如下图所示:

    d大数据

    具体数据可至文章后面的链接。

    大数据

    大数据

    接下来需要对新闻内容进行分词,在分词之前需要导入一些自定义字典,目的是提高切词的准确性。由于文本中涉及到军事、医疗、财经、体育等方面的内容,故需要将搜狗字典插入到本次分析的字典集中。

    大数据

    大数据

    如果需要卸载某些已导入字典的话,可以使用uninstallDict()函数。

    分词前将中文中的英文字母统统去掉。

    大数据

    图中圈出来的词对后续的分析并没有什么实际意义,故需要将其剔除,即删除停止词。

    大数据

    大数据

    停止词创建好后,该如何删除76条新闻中实际意义的词呢?下面通过自定义删除停止词的函数加以实现。

    大数据

    大数据

    相比与之前的分词结果,这里瘦身了很多,剔除了诸如“是”、“的”、“到”、“这”等无意义的次。

    判别分词结果的好坏,最快捷的方法是绘制文字云,可以清晰的查看哪些词不该出现或哪些词分割的不准确。

    大数据

    大数据

    仍然存在一些无意义的词(如说、日、个、去等)和分割不准确的词语(如黄金周切割为黄金,医药切割为药等),这里限于篇幅的原因,就不进行再次添加自定义词汇和停止词。

    大数据

    大数据

    此时语料库中存放了76条新闻的分词结果。

    大数据

    大数据

    从图中可知,文档-词条矩阵包含了76行和7939列,行代表76条新闻,列代表7939个词;该矩阵实际上为稀疏矩阵,其中矩阵中非0元素有11655个,而0元素有591709,稀疏率达到98%;最后,这7939个词中,最频繁的一个词出现在了49条新闻中。

    由于稀疏矩阵的稀疏率过高,这里将剔除一些出现频次极地的词语。

    大数据

    大数据

    这样一来,矩阵中列大幅减少,当前矩阵只包含了116列,即116个词语。

    为了便于进一步的统计建模,需要将矩阵转换为数据框格式。

    大数据

    大数据

    总结

    所以在实际的文本挖掘过程中,最为困难和耗费时间的就是分词部分,既要准确分词,又要剔除无意义的词语,这对文本挖掘者是一种挑战。

    文中数据和脚本可至如下链接下载:

    http://yunpan.cn/cupyBj9xTkHe7 访问密码 a88b

    作者:刘顺祥。数据分析师,热爱数据分析与挖掘工作,擅长使用R语言

    转载于:https://www.cnblogs.com/zourui4271/p/6655694.html

    展开全文
  • Linux面试精华汇总

    2020-11-12 17:19:19
    文章目录1. LVS和Nginx有什么区别?2. 使用nginx+keepalived实现负载均衡,解决单点与高...8. 负载均衡策略有哪些?Nginx中upstream 负载均衡算法介绍9. Linux中如何快速查找某个文件?10. Linux中如何检索文件内容?1

    1. LVS和Nginx有什么区别?

    一、lvs的优势:
    1.抗负载能力强,因为lvs工作方式的逻辑是非常简单的,而且工作在网络层第4层(传输层),仅作请求分发用,没有流量,所以在效率上基本不需要太过考虑。lvs一般很少出现故障,即使出现故障一般也是其他地方(如内存、CPU等)出现问题导致lvs出现问题。
    2.配置方便,这通常是一大劣势同时也是一大优势,因为没有太多的可配置的选项,所以除了增减服务器,并不需要经常去触碰它,大大减少了人为出错的几率。
    3.工作稳定,因为其本省抗负载能力很强,所以稳定性高也是顺理成章的事,另外各种lvs都有完整的双机热备方案,所以一点不用担心均衡器本身会出什么问题,节点出现故障的话,lvs会自动判别,所以系统整体式非常稳定的。
    4.无流量,lvs仅仅分发请求,而流量并不从它本身出去,所以可以利用它这点来做一些线路分流之用。没有流量同时也保住了均衡器的IO性能不会受到大流量的影响。
    5.lvs基本上能支持所有应用,因为绿色工作在第4层,所以它可以对几乎所有应用做负载均衡,包括http、数据库、聊天室等。
    二、nginx和lvs作对比的结果:
    1.nginx工作在网络的第7层,所以它可以针对http应用本身来做分流策略,比如针对域名、目录结构等,相比之下lvs并不具备这样的功能,所以nginx单凭这点可以利用的场合就远多于lvs了;但nginx有用的这些功能使其可调整度要高于lvs,所以经常要去触碰触碰,由lvs的第2条优点来看,触碰多了,人为出现问题的几率也就会大;
    2.nginx对网络的依赖较小,理论上只要ping得通,网页访问正常,nginx就能连得通,nginx同时还能区分内外网,如果是同时拥有内外网的节点,就相当于单机拥有了备份线路;lvs就比较依赖于网络环境,目前来看服务器在同一网段内并且lvs使用direct方式分流,效果较能得到保证。另外注意,lvs需要向托管商至少申请多于一个ip来做visual ip,貌似是不能用本省的ip来做VIP的。要做好lvs管理员,确实得跟进学习很多有关网络通信方面的知识,就不再是一个http那么简单了。
    3.nginx安装和配置比较简单,测试起来也很方便,因为它基本能把错误用日志打印出来。lvs的安装和配置、测试就要花比较长的时间,因为同上所述,lvs对网络依赖性比较大,很多时候不能配置成功都是因为网络问题而不是配置问题,出了问题要解决也相应的会麻烦的多。
    4.nginx也同样能承受很高负载且稳定,但负载度很稳定度差lvs还有几个等级:nginx处理所有流量所以受限于机器IO和配置;本身的bug也还是难以避免的;nginx没有现成的双机热备方案,所以跑在单机上还是风险比较大,单机上的事情全都很难说。
    5.nginx可以检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点。目前lvs中ldirectd也能支持针对服务器内部的情况来监控,但lvs的原理使其不能重发请求。重发请求这点,比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,nginx会把上传切到另一台服务器重新处理,而lvs就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而恼火。
    6.nginx对请求的异步处理可以帮助节点服务器减轻负载,键入使用Apache直接对外服务,那么出现很多的窄带链接时Apache服务器将会占用大量内存而不能释放,使用多于一个nginx做Apache代理的话,这些窄带链接会被nginx挡住,Apache上就不会堆积过多的请求,这样就减少了相当多的内存占用。这点使用squid也有相同的作用,即使squid本身配置为不缓存,对Apache还是有很大帮助你的。lvs没有这些功能,也就无法能比较

    2. 使用nginx+keepalived实现负载均衡,解决单点与高流量并发问题。为什么要用nginx而不用lvs?

    1.高并发连接:官方测试能够支撑5万并发连接,在实际生产环境中跑到2——3万并发连接数。
    2.内存消耗少:在3万并发连接数下,开启的10个nginx进程才消耗150M内存(150*10=150M)。
    3.配置文件非常简单:风格跟程序一样通俗易懂。
    4.成本低廉:nginx为开源软件,可以免费使用。而购买F5 big-ip、netscaler等硬件负载均衡交换机则需要十多万至几十万人民币。
    5.支持rewrite重写规则:能够根据域名、url的不同,将http请求分到不同的后端服务器群组。
    6.内置的健康检查功能:如果nginx proxy后端的某台web服务器宕机了,不会影响前端访问。
    7.节省带宽:支持gzip压缩,可以添加浏览器本地缓存的header头。

    3. Nginx的作用是什么?其优点有什么

    在这里插入图片描述

    4. 什么是反向代理?什么是正向代理?

    在这里插入图片描述

    5. LVS、Nginx、HAproxy 有什么区别?

    LVS :是基于四层的转发。
    HAproxy : 是基于四层和七层的转发,是专业的代理服务器。
    Nginx :是 WEB 服务器,缓存服务器,又是反向代理服务器,可以做七层的转发。
    区别:LVS 由于是基于四层的转发所以只能做端口的转发,而基于 URL 的、基于目录的这种转发 LVS 就做不了此时只能由Nginx来完成!

    6. Nginx为什么要做动、静分离?

    在我们的软件开发中,有些请求是需要后台处理的(如:.jsp,.do 等等),有些请求是不需要经过后台处理的(如:css、html、jpg、js 等等文件),这些不需要经过后台处理的文件称为静态文件,否则动态文件。
    因此我们后台处理忽略静态文件。这会有人又说那我后台忽略静态文件不就完了吗?当然这是可以的,但是这样后台的请求次数就明显增多了。在我们对资源的响应速度有要求的时候,我们应该使用这种动静分离的策略去解决动、静分离将网站静态资源(HTML,JavaScript,CSS,img等文件)与后台应用分开部署,提高用户访问静态代码的速度,降低对后台应用访问
    这里我们将静态资源放到 Nginx 中,动态资源转发到 Tomcat 服务器中去。当然,因为现在七牛、阿里云等 CDN 服务已经很成熟,主流的做法,是把静态资源缓存到 CDN 服务中,从而提升访问速度。相比本地的 Nginx 来说,CDN 服务器由于在国内有更多的节点,可以实现用户的就近访问。并且,CDN 服务可以提供更大的带宽,不像我们自己的应用服务,提供的带宽是有限的。

    7. 什么叫 CDN 服务?

    CDN ,即内容分发网络。
    其目的是,通过在现有的 Internet中 增加一层新的网络架构,将网站的内容发布到最接近用户的网络边缘,使用户可就近取得所需的内容,提高用户访问网站的速度。一般来说,因为现在 CDN 服务比较大众,所以基本所有公司都会使用 CDN 服务。

    8. 负载均衡策略有哪些?

    在这里插入图片描述

    Nginx中upstream 负载均衡算法介绍

    在这里插入图片描述

    9. Linux中如何快速查找某个文件?

    在这里插入图片描述

    10. Linux中如何检索文件内容?

    在这里插入图片描述

    11. Linux中如何对文件内容进行统计?

    在这里插入图片描述
    在这里插入图片描述

    12. Linux中如何批量替换文本内容?

    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • 《大数据:互联网大规模数据挖掘与分布式处理》源自作者在斯坦福大学教授多年的“Web挖掘”课程材料,主要关注大数据环境下数据挖掘的实际算法。书中分析了海量数据集数据挖掘常用的算法,介绍了目前Web应用的许多...
  • 《大数据:互联网大规模数据挖掘与分布式处理》源自作者在斯坦福大学教授多年的“Web挖掘”课程材料,主要关注大数据环境下数据挖掘的实际算法。书中分析了海量数据集数据挖掘常用的算法,介绍了目前Web应用的许多...
  • (6)按文件的逻辑存储结构分:结构文件、无结构文件 (7)按文件中的数据形式分:源文件、目标文件 3、文件的逻辑结构和物理结构 •文件的逻辑结构 ---从用户观点看 ---按文件名及记录号...
  • 点量BT内核SDK_3.6.2

    2011-07-15 16:03:08
    传统的BT软件在新种子文件替换老种子时,需要先扫描原始文件才能获知需要去下载哪些数据块,如果一个几G的文件夹,扫描一次需要很久,并且扫描期间机器磁盘占用严重。所以点量BT提供的这个接口,在大量文件需要...
  • 排序法都有哪些,其算法都是怎样的 如何将十进制字符串、十六进制字符串和二进制字符串互相转化 如何随机选号 第15章 发布程序 如何给软件加密和解密 如何使程序在开机时就自动运行 如何创建快捷方式 如何删除快捷...
  • (2)问题二:架构2.0融入了哪些新技术以及各自什么作用?  本课程对应着系统架构2.0,即第2阶段,主要目标:基于架构1.0,优化系统的整体性能,实现一个真正的互联网社交产品; 其中,可以学习到的技术干货...
  • 通过数据库优化设计、分页算法、全文检索,SpaceBuilder可以轻松处理千万级以上数据。借助于当前最优的分布式部署方案,SpaceBuilder已经在多个客户站点验证了万人同时在线的性能目标。     Spacebuilder v3.2...
  • 通过数据库优化设计、分页算法、全文检索,SpaceBuilder可以轻松处理千万级以上数据。借助于当前最优的分布式部署方案,SpaceBuilder已经在多个客户站点验证了万人同时在线的性能目标。 Spacebuilder v3.2与上个版本...
  • C#编程经验技巧宝典

    热门讨论 2008-06-01 08:59:33
    106 <br>0175 如何检索指定条件数组中的元素 107 <br>0176 如何动态改变数组长度 108 <br>0177 如何反转数组中元素的顺序 108 <br>0178 如何排序数组中的元素的顺序 109 <br>0179 如何创建...
  • CVPR/ECCV 2018 最新目标检测算法有了解过嘛 如何理解上采样,和下采样的区别是什么 上采样(UNSampling)与上池化(UnPooling)区别 全连接层理论上可以替代卷积层嘛 神经网络里面可以用什么方法替换掉pooling ...
  • 面试题020 Java中的注释有哪些 40 3.2 对象和类型 41 面试题021 类和对象有什么区别 41 面试题022 Java中如何使用继承来重用代码 43 面试题023 简述Java中的多态 44 面试题024 请介绍Java中静态成员的特点 46 ...
  • Java程序员面试宝典pdf

    热门讨论 2013-02-21 13:06:13
    面试题020 Java中的注释有哪些 40 3.2 对象和类型 41 面试题021 类和对象有什么区别 41 面试题022 Java中如何使用继承来重用代码 43 面试题023 简述Java中的多态 44 面试题024 请介绍Java中静态成员的特点 46 面试题...
  • php高级开发教程说明

    2008-11-27 11:39:22
    大家是否想过,为什么会这么多的编程语言?除了所谓“主流语言”例如C、C + +、 P a s c a l等之外,还有其他的如L o g o l、C o b o l、F o r t r a n、S i m u l a和许多更加特殊的语言。当列出一 个项目的梗概...
  • [Oracle.11g权威指南(第2版)].谷长勇.扫描版.pdf

    千次下载 热门讨论 2013-06-23 21:16:09
    控制文件对数据库的正常运行至关重要,通过本章的学习,读者可以对控制文件有一定的理解。 10.1 控制文件概述 276 10.1.1 控制文件的组成 276 10.1.2 控制文件的大小 277 10.1.3 控制文件更新 277 10.1.4 可复用区与...
  • 5.1.1 更强的口令散列算法 180 5.1.2 创新的安全性 181 5.1.3 延迟失败登录 183 5.1.4 口令区分大小写 184 5.1.5 基本遵从行业安全建议 184 5.1.6 升级隐含的安全问题 185 5.1.7 口令版本 185 5.1.8 区分大...
  • 中文摘要需写成200字左右的篇幅,因本刊目前已被国内多种重要检索机构收录,为了更好地宣传您的文章,要求中文摘要内容不能太简单,要研究目的、方法、结果和结论等。 英文摘要需写成200词左右的篇幅,因我刊目前已...
  • 这一章的目的主要是让大家了解开源系统集成商都有哪些权益和责任。这一章突出介绍了MySQL的快速成长及其在开源和数据库系统市场中的重要性。此外,这一章还清晰地勾勒出了开源运动发展的脉络。  第2章对什么是...
  • 第4~9章重点针对jdk api的使用提出了80条建议,例如字符串的拼接方法该如何选择、枚举使用时有哪些注意事项、出现nullpointerexception该如何处理、泛型的多重界限该如何使用、多线程编程如何预防死锁,等等;...
  • 第一时间被Google所收录,添加地图生成功能,Google会检索并读取生成的地图文件,进行网站的全面收录! 四三、具有强大的访问统计功能 Html静态版新增访问统计功能,包括总体数据统计、每日访问明细功能,具有完善...
  • 软件测试规范

    2018-04-23 09:16:12
    软件测试规范 目 录 一.概述 ...............................................................................................................................................................

空空如也

空空如也

1 2
收藏数 27
精华内容 10
关键字:

文件检索算法有哪些