精华内容
下载资源
问答
  • python爬虫第一课,制作搜索引擎

    千次阅读 2015-05-25 11:26:54
    from BeautifulSoup import * from urlparse import urljoin ...我们的搜索引擎基于关键词, 所以将连词,冠词忽略 下面的代码是爬虫, 将网页的文本数据存储到我们的sqlite中, 大家看不懂也没有关系, 知道这些函
    from BeautifulSoup import *
    from urlparse import urljoin
    
    ignaorewords=set(['the','of','to','and','a','in','is','it'])

    我们的搜索引擎基于关键词, 所以将连词,冠词忽略


    下面的代码是爬虫, 将网页的文本数据存储到我们的sqlite中, 大家看不懂也没有关系, 知道这些函数是干什么的就行了

    from sqlite3 import dbapi2 as sqlite
    import urllib2
    class crawler:
        def __init__(self,dbname):
            self.con=sqlite.connect(dbname)
            #连接并建立数据库, dbname 随意, 'xxx.db'就可以
        def __del__(self):
            self.con.close()
        def dbcommit(self):
            self.con.commit()
        
        def getentryid(self,table,field,value,createnew=True):
            cur=self.con.execute(
                "select rowid from %s where %s='%s'" %(table,field,value))
            res=cur.fetchone()
            if res==None:
                cur=self.con.execute(
                    "insert into %s (%s) values ('%s')" % (table,field,value))
                return cur.lastrowid
            else:
                return res[0]
        
        
        def addtoindex(self,url,soup):
            if self.isindexed(url): return
            print 'Indexing',url
            
            #Get words
            text=self.gettextonly(soup)
            words=self.separatewords(text)
            
            #Get URL id
            urlid=self.getentryid('urllist','url',url)
            
            # Link word to url
            for i in range(len(words)):
                word=words[i]
                if word in ignaorewords: continue
                wordid=self.getentryid('wordlist','word',word)
                self.con.execute("insert into wordlocation(urlid,wordid,location) \
                values(%d,%d,%d)" % (urlid,wordid,i))
                
                
        
        def gettextonly(self,soup):
            v=soup.string
            if v==None:
                c=soup.contents
                resulttext=''
                for t in c:
                    subtext=self.gettextonly(t)
                    resulttext+=subtext+'\n'
                return resulttext
            else:
                return v.strip()
        
        def separatewords(self,text):
            splitter=re.compile('\\W*')
            return [s.lower() for s in splitter.split(text) if s!='']
        
        def isindexed(self,url):
            u=self.con.execute(
                "select rowid from urllist where url='%s'" % url).fetchone()
            if u!=None:
                #if crawled
                v=self.con.execute(
                    'select * from wordlocation where urlid=%d' % u[0]).fetchone()
                if v != None: return True
            return False
        
        def addlinkref(self,urlFrom,urlTo,linkText):
            pass
        
        def crawl(self,pages,depth=2):
            for i in range(depth):
                newpages=set()
                for page in pages:
                    try:
                        c=urllib2.urlopen(page)
                    except:
                        print "Could not open",page
                        continue
                    soup=BeautifulSoup(c.read())
                    self.addtoindex(page,soup)
                    
                    links=soup('a')
                    for link in links:
                        if 'href' in dict(link.attrs):
                            url=urljoin(page,link['href'])
                            if url.find("'") != -1:
                                continue
                            url=url.split('#')[0] #remove location portion
                            if url[0:4]=='http' and not self.isindexed(url):
                                newpages.add(url)
                                linkText=self.gettextonly(link)
                                self.addlinkref(page,url,linkText)
                    self.dbcommit()
                pages=newpages
                
        def createindextables(self):
            self.con.execute('create table urllist(url)')
            self.con.execute('create table wordlist(word)')
            self.con.execute('create table wordlocation(urlid,wordid,location)')
            self.con.execute('create table link(fromid integer,toid integer)')
            self.con.execute('create table linkwords(wordid,linid)')
            self.con.execute('create index wordidx on wordlist(word)')
            self.con.execute('create index urlidx on urllist(url)')
            self.con.execute('create index wordurlidx on wordlocation(wordid)')
            self.con.execute('create index urltoidx on link(toid)')
            self.con.execute('create index urlfromidx on link(fromid)')
            self.dbcommit()
    好了, 有了爬虫, 我们再将需要爬取的页面写出来

    pagelist=[['http://en.xjtu.edu.cn/'],
              ['http://www.lib.xjtu.edu.cn/'],
              ['http://en.wikipedia.org/wiki/Xi%27an_Jiaotong_University']]
    建立数据库

    mycrawler=crawler('searchindex.db')
    mycrawler.createindextables()
    爬取

    mycrawler.crawl(pagelist[0])
    搜索引擎

    class searcher:
        def __init__(self,dbname):
            self.con=sqlite.connect(dbname)
        
        def __del__(self):
            self.con.close()
        
        def getmatchrows(self,q):
            # Strings to build the query
            fieldlist='w0.urlid'
            tablelist=''  
            clauselist=''
            wordids=[]
    
            # Split the words by spaces
            words=q.split(' ')  
            tablenumber=0
    
            for word in words:
                #Get the word ID
                wordrow=self.con.execute(
                    "select rowid from wordlist where word='%s'" % word).fetchone()
                if wordrow!=None:
                    wordid=wordrow[0]
                    wordids.append(wordid)
                    if tablenumber>0:
                        tablelist+=','
                        clauselist+=' and '
                        clauselist+='w%d.urlid=w%d.urlid and ' % (tablenumber-1,tablenumber)
                    fieldlist+=',w%d.location' % tablenumber
                    tablelist+='wordlocation w%d' % tablenumber      
                    clauselist+='w%d.wordid=%d' % (tablenumber,wordid)
                    tablenumber+=1
    
            # Create the query from the separate parts
            fullquery='select %s from %s where %s' % (fieldlist,tablelist,clauselist)
            print fullquery
            cur=self.con.execute(fullquery)
            rows=[row for row in cur]
    
            return rows,wordids
        
        def geturlname(self,id):
            return self.con.execute(
                "select url from urllist where rowid=%d" % id).fetchone()[0]
        
        def normaliszescores(self,scores,smallIsBetter=0):
            vsmall=0.00001
            if smallIsBetter:
                minscore=min(scores.value())
                return dict([(u,float(minscore)/max(vsmall,l)) for (u,l)\
                            in scores.items()])
            else:
                maxscore=max(scores.values())
                if maxscore==0:
                    maxscore=vsmall
                return dict([(u,float(c)/maxscore) for (u,c) in scores.items()])
    
    #score methods
        def frequencyscore(self,rows):
            counts=dict([(row[0],0) for row in rows])
            for row in rows:
                counts[row[0]]+=1
            return self.normaliszescores(counts)
        
        def locationscore(self,rows):
            locations=dict([(row[0],1000000) for row in rows])
            for row in rows:
                loc=sum(row[1:])
                if loc<locations[row[0]]:
                    locations[row[0]]=loc
            return self.normaliszescores(locations,smallIsBetter=1)
        
        def distancescore(self,rows):
            if len(row[0])<=2:
                return dict([(row[0],1.0) for row in rows])
            mindistance=dict([(row[0],1000000) for row in rows])
            for row in rows:
                dist=sum([abs(row[i]-row[i-1]) for i in range(2,len(row))])
                if dist < mindistance[row[0]]:
                    mindistance[row[0]]=dist
            return self.normaliszescores(mindistance,smallIsBetter=1)
    #---------------------------------------------------------------------------
    
        
        def getscoredlist(self,rows,wordids):
            totalscores=dict([(row[0],0) for row in rows])
            
            weights=[(1.0,self.frequencyscore(rows))]
            
            for (weight,scores) in weights:
                for url in totalscores:
                    totalscores[url]+=weight*scores[url]
            return totalscores
        
        def query(self,q):
            rows,wordids=self.getmatchrows(q)
            scores=self.getscoredlist(rows,wordids)
            rankedscores=sorted([(score,url) for (url,score) in scores.items()],reverse=1)
            for (score,urlid) in rankedscores[:10]:
                print '%f\t%s' % (score,self.geturlname(urlid))
    建立搜索引擎与数据库的关联

    e=searcher('searchindex.db')
    搜索

    e.query('xjtu college')
    这样你的第一个搜索引擎就搭建完毕啦:

    1.000000	http://en.xjtu.edu.cn/XJTU_Introduction/Introduction.htm
    0.941176	http://en.xjtu.edu.cn/info/1044/1683.htm
    0.705882	http://en.xjtu.edu.cn/Schools_and_Colleges.htm
    0.529412	http://en.xjtu.edu.cn/info/1044/1681.htm
    0.470588	http://en.xjtu.edu.cn/Education/Undergraduate_Education.htm
    0.382353	http://en.xjtu.edu.cn/XJTU_News/News.htm
    0.382353	http://en.xjtu.edu.cn/Campus_Life/Student_Bodies.htm
    0.294118	http://en.xjtu.edu.cn/XJTU_News/Teaching_and_learning.htm
    0.294118	http://en.xjtu.edu.cn/info/1044/1572.htm
    0.279412	http://en.xjtu.edu.cn/info/1044/1571.htm









    展开全文
  • http://webdesign.chinaitlab.com/frontpage/522032.html 
    展开全文
  • 不知你上网时注意到没有:一些内容丰富的网站,总建有一个内容搜索引擎;一些大型的商业网站或者综合网站,都配有强大的网站搜索引擎,比如搜狐、新浪、雅虎等等。其方便的搜索查询功能至今给人们留下难以磨灭的印象...
    不知你上网时注意到没有:一些内容丰富的网站,总建有一个内容搜索引擎;一些大型的商业网站或者综合网站,都配有强大的网站搜索引擎,比如搜狐、新浪、雅虎等等。其方便的搜索查询功能至今给人们留下难以磨灭的印象,你只要输入你想浏览资料的关键字(比如:网页),一按“搜索”按钮,关于“网页”的资料列表就呈现在你的眼前;这只是搜索引擎的基本功能--搜索查询。笔者现在专门负责网上山东(http://www.china-sd.net)中山东搜索版块的建设,利用最常用的开发语言--asp开发搜索引擎的强大功能!下面我就搜索引擎主要组成部分和其中一些功能的实现代码讲解给大家,有什么不足之处请大家给予指出! 
      在这一章节中,我介绍一下搜索引擎的组成部分和主要功能。
    
      搜索引擎的组成,大致分为三部分:
    1、界面:这一部分主要是面向客户的,是可以看到的部分,比如您打开search.sina.com.cn事后看到的页面。
    2、程序:这一部分主要是执行代码,根据客户的搜索要求去执行代码从而获得搜索结果;这些是我们看不到的。
    3、数据库:所有的搜索引擎都离不开数据库,连著名的google.com也不例外;数据库是储存搜索资料的仓库,储存的越多,搜索得到的资料就会越多,这也是搜索引擎是否强大的闪耀点之一。
      那么搜索引擎是否强大还有其他的闪耀点喽,是什么呢?对,搜索引擎数据库中的存储资料再多,我们不能够方便的去查找搜索,甚至查找不到所需的资料,那么这个数据库就是“死”的,毫无用处可言,所以程序代码起到非常重要的作用。
      讲到这里,我应该给大家介绍一下搜索引擎的几个主要功能:
      1、搜索查询:毫无疑问这是最基本的功能了,根据关键字找到符合关键字的相关资料。
      2、分页显示:如果你搜索到的资料非常多,都放在一个页面里,那样给人的感觉就会使乱糟糟的一片;分页显示根据人们看书的习惯,将一部分内容放到第一页,其他的内容放到第二页、第三页等等。
      3、搜索统计:一般包括查询资料的数量,分几个页面,每个页面含几个资料,当前页面资料范围等等。
      4、搜索结果编排:搜索排名我想大家不会陌生,这些是综合网站搜索引擎挣money的一项措施,这也是强大搜索引擎中不可缺少的功能;比如根据点击量排名,根据收费排名、根据等级排名。
      5、多个关键字查询:“如果要查找包含多个关键词的信息,可以用空格把关键词隔开”这是新浪搜索引擎版面中的一段文字,在一个文本框中打上多个关键字搜索查询资料。
      6、整体统计:这个是对搜索引擎开通至今一些数据统计,包含“热门查询关键字”统计、数据库中资料整体统计、每个类别所含资料统计等等。
      以上功能代码主要根据笔者的要求来书写,大家可以在我写的代码上做修改,以成为你自己需要的功能代码。
      好了,经过了一节的热身后,我们也可以进入实战阶段,首先,我们先建一个数据库,作为资料的存储,这里我将数据库的文件名为information.mdb,使用access创建数据库,当然你也可以使用sqlserver创建。
      建立四个表:www(存储资料),sort(大类),samll(小类),key(查询关键字)
      1、www表:id---自动编号,sitename---站点名称,url---站点链接,faq---简要说明,key---关键字,time---添加时间,level---站点等级,sortid---大类id,smallid---小类id,hot---站点点击次数。
      2、sort表:id---自动编号,sort
      3、small表:id---自动编号,small
      4、key表:keyname---关键字;keyhot---出现的次数
      用asp建立与数据库的连接:conn.asp
    <%
    on error resume next
    connstr="DBQ=" server.mappath("information.mdb") ";DefaultDir=;DRIVER={Microsoft Access Driver (*.mdb)};"
    Set conn=Server.CreateObject("ADODB.CONNECTION")
    conn.open connstr
    %>
      说明:使用Server.MapPath()表示的路径为文件的相对路径,我这里conn.asp和information.mdb在同一个目录下。我想这些都很简单,大家很容易理解和接受的!好,将数据库建立起来后,我们就可以建设强大功能的搜索引擎。请期待哦!嘻嘻~~~~
    
      用asp制作强大的搜索引擎 -- 模糊搜索
      根据一个关键字,搜索到相关的资料,这里的“相关”是指资料中有类似这个关键字的字符串。例如:“山东”这个关键字,只要数据库中资料里包含“山东”这个关键字的都要把它们找出来。模糊搜索的应用其实很简单,只要使用一个sql语句就可以实现,下面咱们看看他的语句的写法。
      sql语法中你会发现这么几个判定词:LIKE、NOT LIKE和 BETWEEN。 LIKE判定词是一个非常有用的符号。不过,在很多情况下用了它可能会带给你太多的数据,所以在用到它之前最好先开动脑筋多想想自己到底想获得什么数据。NOT LIKE是反其道而行了。BETWEEN假设你想取出一定范围内的数据,而且你事先知道范围的起点和终点,那么你不妨采用BETWEEN 判断词。这几个判定词根据不同的环境使用,一般最常用的就是like和"%"结合了。
    dim sql,key
    key=request("key")
    sql="select * from www where sitename like '%"&key&"%' or faq like '%"&key&"%' or key like '%"&key&"%' "
      说明:这里的sql语句目的就是检索数据库中sitename字段中是否包含key,faq字段中是否包含key,key字段中是否包含key,这样做的目的是让搜索的范围包含到“站点名称”、“站点简要说明”、“站点关键字”。如果你只想搜索关键字只要使用 sql="select * from www where key like '%"&key&"%' " 就可以了。“like”中都使用了“or”来相连,“or” “或者”的意思,意思是不论哪一个like 符合条件,都要把搜索到的资料输出显示出来。
      OK,现在大可不必去看看能不能执行或者说执行的结果如何,因为搜索引擎大部分功能的实现都是靠sql语句的书写了。等我把其他的相关sql语句的功能实现介绍完后,大家再看看效果,呵呵!别着急!! 
    
    
    
    
    展开全文
  • 网站制作搜索引擎

    千次阅读 2004-10-07 13:39:00
    在网页设计方面,还有许多问题需要引起我们注意:框架结构(Frame Sets)有些搜索引擎(如FAST)是不支持框架结构的,他们的“蜘蛛”程序无法阅读这样的网页。图象区块(Image Maps)除AltaVista和Northern Light...
    在网页设计方面,还有许多问题需要引起我们注意:

    框架结构(Frame Sets)

    有些搜索引擎(如FAST)是不支持框架结构的,他们的“蜘蛛”程序无法阅读这样的网页。

    图象区块(Image Maps)

    除AltaVista和Northern Light明确支持图像区块链接外,其他引擎是不支持它的。当“蜘蛛”程序遇到这种结构时,往往会感到茫然不知所措。因此尽量不要设计Image Map链接。

    特效链接

    我们经常看到有些网站为导航链接加上了特效,如点击某个项目会展开下层链接等。这些效果一般通过Java Script实现,视觉上非常新颖,但在“蜘蛛”程序的眼里则没那么诱人,相反它无法解读这种链接。为了让搜索引擎顺利检索到你的网页,建议还是牺牲掉一些花哨的东西。

    FLASH

    虽然FLASH制作的网页视觉效果震撼,但搜索引擎对此却不太感冒。明智的做法是提供FLASH和非FLASH网页两种选择,这样即增加了网页的观赏性,又照顾到了搜索引擎的情绪。

    动态网页(Dynamic Pages)

    任何地址中带“?”号、“&”号(或其他类似符号)的网页都会把“蜘蛛”程序挡在门外。这些网页通常由 CGI、ASP等程序产生,技术上很先进,但不适合搜索引擎的“蜘蛛”程序。虽然目前有的大型搜索引擎(如 Google)已具备检索动态网页的能力,但相当一部分数引擎还是不支持它的。因此,我们还是少数服从多数,尽量不用动态网页为好。

    加密网页

    除非你不希望搜索引擎检索你的网页,否则不要给你的网页加密。

    网页容量

    包括图像在内的网页字节数最好不要超过50K。体型庞大的网页下载速度慢,不仅会让普通访问者等得心急如焚,有时也会使“蜘蛛”程序感到不耐烦。

    独立域名与付费虚拟主机

    目前搜索引擎都不愿接收位于免费主页空间上的网站。其理由是,既然你认为自己的网站如此重要,以至于需要登录搜索引擎让天下人都知道,那么你没有理由还将它放在免费服务器上。更何况免费主页一般速度奇慢(如果你最近访问过Geocity就会有这种体会),会影响大家搜索信息的效率。尤其是商业网站,这点钱都舍不得掏,你就不能指望别人相信你的实力。当然凡事都有例外,如果你的网站确实优秀,也有可能被搜索引擎接受,不过在相同条件下,你的排名则会远远跟在那些拥有独立域名的网站后面。

    展开全文
  • 搜索引擎

    千次阅读 2008-10-23 10:47:00
    从使用者的角度看,搜索引擎提供一个包含搜索框的页面,在搜索框输入词语,通过浏览器提交给搜索引擎后,搜索引擎就会返回跟用户输入的内容相关的信息列表。互联网发展早期,以雅虎为代表的网站分类目录查询非常流行...
  • 搜索引擎介绍

    千次阅读 2017-02-06 11:41:51
    自从1994年问世以来,搜索引擎逐渐成为了人们获取Internet信息资源的主要方式,相关搜索引擎网站也逐渐成为Web用户使用Internet时的首选访问站点之一,另外搜索引擎和实时通讯、电子邮件等服务已经成为当今各大门户...
  • 用VBScript制作个人网站搜索引擎

    千次阅读 2002-01-30 12:04:00
    用VBScript制作个人网站搜索引擎摘要:本文探讨了只利用VBScript和XML技术创建不需要数据库服务器的搜索引擎,该搜索引擎在最基本的Web服务器和IE 4.0以上客户端环境中运行,可以查询自己网站上的各种信息,尤其适合...
  • 作者:http://www.donews.net/lealting/archive/2004/03/31/9759.aspx今天看了一篇文章,主要是讲,如何制作搜索引擎可以友好访问的链接,大概的内容是这样的:很多的时候我们在进行查询的时候,总是会以这样的...
  • 搜索引擎简介

    千次阅读 2011-12-19 14:45:27
    开放源代码搜索引擎为人们学习、研究并掌握搜索技术提供了极好的途径与素材,推动了搜索技术的普及与发展,使越来越多的人开始了解并推广使用搜索技术。使用开源搜索引擎,可以大大缩短构建搜索应用的周期,并可根据...
  • Elasticsearch 搜索引擎开发实战

    千次阅读 2019-01-03 23:30:39
    本书结合 Elasticsearch 在工程中的实际应用,详细介绍了使用 Elasticsearch 开发支持中文和英文搜索引擎的相关技术,从而实现系统监控。 本书共分为8章,内容涵盖了 Elasticsearch 搜索引擎开发的环境安装与配置;...
  • 常用搜索引擎指令

    千次阅读 2020-01-20 11:32:18
    搜索引擎优化:就是根据对搜索引擎的算法规则来优化内容,从而使页面能够被搜索引擎信任,并获得较好的排名。 黑帽SEO是用垃圾技术欺骗搜索引擎,一般叫做SEO作弊。黑帽SEO以伪装、欺诈和窃取的方式骗取在SERP中的高...
  • 搜索引擎实验报告

    千次阅读 2019-12-12 13:56:18
    搜索引擎是指根据一定的策略、运用特定的计算机程序从互联网上采集信息,在对信息进行组织和处理后,为用户提供检索服务,将检索的相关信息展示给用户的系统。 网络中用于各种功能的搜索引擎非常多,在求职,找工作...
  • 自建搜索引擎

    千次阅读 2016-03-05 20:08:32
    最近学长布置了一个自建搜索引擎的学习任务,被网上的代码坑过了,所以将自己的学习成果分享出来。 首先我个人做的是一个站内静态搜索引擎,以新浪网为初始url进行广度优先搜索得到500个网页,保存之后你便可以建立...
  • 在中文搜索领域,「百度」独占鳌头,但口碑...这些搜索引擎主打“不追踪你的搜索引擎”,不存储、收集和传播你的任何个人信息,也不记录你的搜索历史,但在主要搜索技术方面,Google仍旧是最佳选择,我已经离不开它了
  • 搜索引擎概述(全)

    千次阅读 2019-10-24 11:16:12
    搜索引擎概述: 1.1 搜索引擎的概念: 搜索引擎是指根据一定的策略,运用特定的计算机程序搜集互联网上的信息,在对信息进行组织和处理后,并将处理后的信息显示给用户提供检索服务的系统 从使用者的角度看,搜索...
  • python 手把手教你基于搜索引擎实现文章查重

    万次阅读 多人点赞 2020-09-13 22:18:19
    本文使用搜索引擎结果作为文章库,再与本地或互联网上数据做相似度对比,实现文章查重;由于查重的实现过程与一般情况下的微博情感分析实现流程相似,从而轻易的扩展出情感分析功能(下一篇将在此篇代码的基础上完成...
  • 导读: 原来的自己大多时候是通过视频和书本资料自学,很少有动手实践,也就会有眼高手低...小米网页的搜索框是通过input标签实现,右边搜索图标使用Font Awesome图标实现,鼠标悬停背景色变为小米主流颜色黄色这些...
  • 搜索引擎优化

    千次阅读 2007-10-09 18:00:00
    SEO 概述搜索引擎(Search Engine)它是一个根据站点内容,将各种站点分门别类的网站。每个引擎的工作原理都不同,有的是按META值来分,有的是根据页面内容,有的按页面标题,还有的将这些方法综合运用。搜索引擎通过...
  • 搜索引擎常考题汇总

    千次阅读 2019-10-30 22:50:51
    搜索引擎:指根据一定的策略,运用特定的计算机程序搜集网上的信息,在对信息进行组织和处理后,并将处理后的信息显示给用户的为用户提供检索服务的系统 元搜索引擎:在统一的用户查询界面与信息反馈的形式下,共享...
  • 搜索引擎选择: Elasticsearch与Solr

    千次阅读 2018-07-24 17:55:26
    搜索引擎选型调研文档 Elasticsearch简介* Elasticsearch是一个实时的分布式搜索和分析引擎。它可以帮助你用前所未有的速度去处理大规模数据。 它可以用于全文搜索,结构化搜索以及分析,当然你也可以将这三者...
  • 搜索引擎优化手册

    千次阅读 2009-08-07 23:47:00
    搜索引擎优化知识》目录第一部分:域名和主机对SEO的影响 域名选择与SEO 主机选择与SEO 第二部分:搜索引擎优化的核心:关键字策略 关键字的选择 关键字密度 关键字分布 第三部分:对搜索引擎友好的网页设计制作 ...
  • 搜索引擎JSONP接口

    万次阅读 2017-09-24 20:24:40
    ---------------------------------------搜索引擎JSONP接口--------------------------------------------- 提示:URL中的 #content# 为搜索的 关键字 谷歌(Google) ...
  • 开源搜索引擎研究

    千次阅读 2011-05-16 21:09:00
    本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/shupili141005/archive/2009/11/21/4842174.aspx<br />    搜索引擎并不是对互联网进行直接搜索,而是对已抓取网页索引库的搜索,索引在...
  • 搜索引擎研究

    千次阅读 2005-09-22 16:34:00
    http://www.wespoke.com/archives/cat_search_engine.php搜索引擎研究"Search Engine" archive搜索引擎的几则消息1:54 on Tuesday January 25, 2005 | 0 Trackbacks | 1 Comments 1。 google TV 和录像搜索 Google ...
  • Python实现简易搜索引擎

    千次阅读 2020-01-29 17:09:19
    Python实现简易搜索引擎 一、实验内容 实现对Python知识点与编程案例的搜索,建立Python知识点与案例资料库。对使用者输入的搜索词分词、去停用词、取关键词,纠正用户的错误输入,实现检索,记录每次的搜索词。 ...
  • 搜索引擎语法汇总

    万次阅读 2009-09-28 10:30:00
    通过搜索引擎来查找自己想要的网址或信息是最快捷的方法,也是最佳途径。因此,掌握基本的搜索语法及使用方法对每个冲浪者是十分重要的。 搜索引擎一般是通过搜索关键词来完成自己的搜索过程,即填入一些简单的...
  • 搜索引擎反作弊之内容作弊

    万次阅读 2012-03-24 08:53:04
    本文节选自《这就是搜索引擎:核心技术详解》第八章  网页反作弊是目前所有商业搜索引擎需要解决的重要难点,出于商业利益驱使,很多网站站长会针对搜索引擎排名进行分析,并采取一些手段来提高网站排名,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 55,851
精华内容 22,340
关键字:

如何制作搜索引擎