精华内容
下载资源
问答
  • python多分类关键词搜索
    2020-12-05 16:43:36

    import webbrowser

    def main():

    keystr=input('输入关键字:\n')

    print('0、所有分类\n1、搜索\n2、百科\n3、社交\n4、购物\n5、视频\n6、图片\n7、翻译\n8、代码')

    num=int(input('选择分类:\n'))

    if num==0:

    l=lss+lbk+lsj+lgw+lsp+ltp+lfy+ldm

    for i in l:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==1:

    for i in lss:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==2:

    for i in lbk:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==3:

    for i in lsj:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==4:

    for i in lgw:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==5:

    for i in lsp:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==6:

    for i in ltp:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==7:

    for i in lfy:

    url=i%keystr

    webbrowser.open(url,new=0)

    elif num==8:

    for i in ldm:

    url=i%keystr

    webbrowser.open(url,new=0)

    else:

    print('请输入对应数字!')

    #搜索类,可以添加或者删除,注意关键词位置用%s代替

    lss=[

    'https://www.baidu.com/s?wd=%s',

    'https://www.sogou.com/web?query=%s',

    'http://www.bing.com/search?q=%s',

    'https://www.yandex.com/search/?text=%s'

    ]

    #百科类,可以添加或者删除,注意关键词位置用%s代替

    lbk=[

    'https://baike.baidu.com/search?word=%s',

    'https://www.sogou.com/sogou?query=%s&insite=baike.sogou.com',

    'https://zh.moegirl.org/index.php?search=%s',

    'https://zh.wikihow.com/wikiHowTo?search=%s'

    ]

    #社交类,可以添加或者删除,注意关键词位置用%s代替

    lsj=[

    'https://m.weibo.cn/p/100103type=1&q=%s',

    'https://www.zhihu.com/search?type=content&q=%s'

    ]

    #购物类,可以添加或者删除,注意关键词位置用%s代替

    lgw=[

    'https://search.jd.com/Search?enc=utf-8&keyword=%s',

    'https://s.taobao.com/search?tab=mall&q=%s',

    'https://s.taobao.com/search?q=%s',

    'https://search.suning.com/%s/',

    'https://search.gome.com.cn/search?question=%s',

    'https://www.amazon.cn/s/%s',

    'http://search.dangdang.com/?key=%s'

    ]

    #视频类,可以添加或者删除,注意关键词位置用%s代替

    lsp=[

    'https://search.bilibili.com/all?keyword=%s',

    'http://so.youku.com/search_video/q_%s',

    'https://v.qq.com/x/search/?q=%s',

    'http://so.iqiyi.com/so/q_%s'

    ]

    #图片类,可以添加或者删除,注意关键词位置用%s代替

    ltp=[

    'http://image.baidu.com/search/index?tn=baiduimage&word=%s',

    'https://pic.sogou.com/pics?query=%s',

    'https://cn.bing.com/images/search?q=%s',

    'https://yandex.com/images/search?text=%s'

    ]

    #翻译类,可以添加或者删除,注意关键词位置用%s代替

    lfy=[

    'https://translate.google.cn/#auto/zh-CN/%s',

    'https://translate.google.cn/#auto/en/%s',

    'https://cn.bing.com/translator/?from=&to=zh-cn&text=%s',

    'https://cn.bing.com/translator/?from=&to=en&text=%s'

    ]

    #代码类,可以添加或者删除,注意关键词位置用%s代替

    ldm=[

    'https://github.com/search?q=%s',

    'https://search.gitee.com/?skin=rec&type=repository&q=%s',

    'https://caniuse.com/#search=%s'

    ]

    main()

    while True:

    i=input('是否继续?q:退出,其它:继续\n')

    if i=='q':

    break

    else:

    main()

    更多相关内容
  • python爬取微博关键词搜索博文,只需要修改cookie和url参数
  • 主要介绍了python实现搜索指定目录下文件及文件内搜索指定关键词的方法,可实现针对文件夹及文件内关键词搜索功能,需要的朋友可以参考下
  • python搜索关键词自动提交 方法一: import requests keyword="python" header = { 'Accept': '*/*', 'Accept-Encoding': 'gzip, deflate, br', 'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;...

    python搜索关键词自动提交
    方法一:

    import requests
    keyword="python"
    header = {
        'Accept': '*/*',
        'Accept-Encoding': 'gzip, deflate, br',
        'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
        'Connection': 'keep-alive',
        'Content-Type': 'text/plain;charset=UTF-8',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.56',}
    
    kv={'wd':keyword}
    
    r=requests.get("http://www.baidu.com/s",params=kv,headers=header)
    print(len(r.content.decode()))
    
    
    

    方法2:

    import requests
    def search(keyword):
    
        header = {
        'Accept': '*/*',
        'Accept-Encoding': 'gzip, deflate, br',
        'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
        'Connection': 'keep-alive',
        'Content-Type': 'text/plain;charset=UTF-8',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.56',}
    
    
        r=requests.get("http://www.baidu.com/s?wd="+keyword,headers=header)
    
        print(len(r.content.decode()))
    
    if __name__ == '__main__':
        keyword="python"
        search(keyword)
    
    
    展开全文
  • 就是一个简单的python查询百度关键词排名的函数,以下是一些简介:1、UA随机2、操作简单方便,直接getRank(关键词,域名)就可以了3、编码转化。编码方面应该没啥问题了。4、结果丰富。不仅有排名,还有搜索结果的...
  • python实现关键词搜索

    千次阅读 2018-11-18 22:17:23
    使用时,直接使用search函数即可找相关菜谱,支持多个关键词搜索,支持高评分词条优先显示。搜索结果为前十个相关菜谱,显示时有三种排序方式: ordering=‘normal’:默认排序,依照相关性。 ordering=‘health’:...

    这个项目是要从存储了许多菜谱的json文件中依据关键词快速找到相应菜谱。

    使用时,直接使用search函数即可找相关菜谱,支持多个关键词搜索,支持高评分词条优先显示。搜索结果为前十个相关菜谱,显示时有三种排序方式:
    ordering=‘normal’:默认排序,依照相关性。
    ordering=‘health’:依据卡路里,蛋白质,脂肪数值计算菜谱是否健康,将更健康的排在前面。
    ordering=‘simple’:依据原材料数量和烧菜步骤数量,将更简单的菜谱排在前面。

    import json
    import re
    import sys
    #有用到sys.maxsize,这是系统最大int型整数,方便排序
    
    #parse and tokenize (split into words) of all recipes
    def process_recipes(filename):
        #定义新的dictiorary数据库存储菜谱数据
        title_to_terms = {}
        categories_to_terms = {}
        ingredients_to_terms = {}
        directions_to_terms = {}
        pattern = re.compile('[\W_]+')
        
        #打开json文件
        with open(filename) as f:
            recipes = json.load(f)
            print(len(recipes))
            for recipe_number in range(20):
                #将每个菜谱句子分解成单词,存入词袋库(dictionary实现)
                recipe = recipes[recipe_number]
                recipe_to_terms[recipe_number] = {}
                
                #如果此recipe有title,将此title句子分割为一组单词并存入数据库
                if 'title' in recipe.keys():
                    title = recipe['title']
                    title_to_terms['title'] = pattern.sub(' ',title)
                    re.sub(r'[\W_]+','', title_to_terms['title'])
                    title_to_terms['title'] = title_to_terms['title'].split()
                    recipe_to_terms[recipe_number].update(title_to_terms)
                #如果此recipe有categories,将此categories句子分割为一组单词并存入数据库 
                if 'categories' in recipe.keys():
                    categories = str(recipe['categories'])
                    categories_to_terms['categories'] = pattern.sub(' ',categories)
                    re.sub(r'[\W_]+','', categories_to_terms['categories'])
                    categories_to_terms['categories'] = categories_to_terms['categories'].split()
                    recipe_to_terms[recipe_number].update(categories_to_terms)
                #如果此recipe有ingredients,统计原料数量存入数据库,将此ingredients句子分割为一组单词并存入数据库 
                if 'ingredients' in recipe.keys():
                    recipe_to_terms[recipe_number].update({'number':len(recipe['ingredients'])})
                    
                    ingredients = str(recipe['ingredients'])
                    ingredients_to_terms['ingredients'] = pattern.sub(' ',ingredients)
                    re.sub(r'[\W_]+','', ingredients_to_terms['ingredients'])
                    ingredients_to_terms['ingredients'] = ingredients_to_terms['ingredients'].split()
                    recipe_to_terms[recipe_number].update(ingredients_to_terms)
                #如果此recipe有directions,统计步骤数量存入数据库,将此directions句子分割为一组单词并存入数据库 
                if 'directions' in recipe.keys():
                    recipe_to_terms[recipe_number].update({'step':len(recipe['directions'])})
                    
                    directions = str(recipe['directions'])
                    directions_to_terms['directions'] = pattern.sub(' ',directions)
                    re.sub(r'[\W_]+','', directions_to_terms['directions'])
                    directions_to_terms['directions'] = directions_to_terms['directions'].split()
                    recipe_to_terms[recipe_number].update(directions_to_terms)
                #如果此recipe有rating,存入数据库
                if 'rating' in recipe.keys():
                    recipe_to_terms[recipe_number].update({'rating':recipe['rating']})
                #如果此recipe有calories,存入数据库
                if 'calories' in recipe.keys():
                    recipe_to_terms[recipe_number].update({'calories':recipe['calories']})
                #如果此recipe有protein,存入数据库
                if 'protein' in recipe.keys():
                    recipe_to_terms[recipe_number].update({'protein':recipe['protein']})
                #如果此recipe有fat,存入数据库
                if 'fat' in recipe.keys():
                    recipe_to_terms[recipe_number].update({'fat':recipe['fat']})
            #返回数据库
            return recipe_to_terms
    
    def word_count(word,term_dictionary):
        count={}
        #统计每个recipe中这个单词的数量
        for recipe_number in term_dictionary.keys():
            count[recipe_number]={}
            title_count=0
            categories_count=0
            ingredients_count=0
            directions_count=0
            line_count={}
            #统计所有单词出现的次数
            for i in range(len(word)):
                #统计title中的数量
                if 'title' in term_dictionary[recipe_number].keys():
                    for j in range(len(term_dictionary[recipe_number]['title'])):
                        if term_dictionary[recipe_number]['title'][j]==word[i]:
                            title_count+=1
                #统计categories中的数量
                if 'categories' in term_dictionary[recipe_number].keys():
                    for j in range(len(term_dictionary[recipe_number]['categories'])):
                        if term_dictionary[recipe_number]['categories'][j]==word[i]:
                            categories_count+=1
                #统计ingredients中的数量
                if 'ingredients' in term_dictionary[recipe_number].keys():
                    for j in range(len(term_dictionary[recipe_number]['ingredients'])):
                        if term_dictionary[recipe_number]['ingredients'][j]==word[i]:
                            ingredients_count+=1
                #统计directions中的数量
                if 'directions' in term_dictionary[recipe_number].keys():
                    for j in range(len(term_dictionary[recipe_number]['directions'])):
                        if term_dictionary[recipe_number]['directions'][j]==word[i]:
                            directions_count+=1
            #将rating的值保留下来作为权重计算参数之一
            if 'rating' in term_dictionary[recipe_number].keys():
                rating=term_dictionary[recipe_number]['rating']
                print(rating)
                if rating is None:
                    rating=0
            else:
                rating=0
            #为每个recipe生成一个字典存储数量统计结果
            line_count={'title':title_count,'categories':categories_count,'ingredients':ingredients_count,'directions':directions_count,'rating':rating}
            #将此recipe的统计结果添加进大字典中
            count[recipe_number].update(line_count)
        #返回大字典
        return count
    
    def calculate_weight(count):
        weight=[]
        #根据每个recipe的统计结果乘以权重并相加得到相关性
        for recipe_number in range(len(count)):
            weight.append(8*count[recipe_number]['title']+4*count[recipe_number]['categories']+2*count[recipe_number]['ingredients']+1*count[recipe_number]['directions']+count[recipe_number]['rating'])
        return weight
    
    def sort(weight):
        top_index=[]
        #依据降序找到前10个相关度最大的recipe的index
        for i in range(10):
            #将weight列表中最大值的index添加进top_index
            top_index.append(weight.index(max(weight)))
            #将weight列表中最大值改为-1
            weight[weight.index(max(weight))]=-1
        return top_index
    
    def search(query,ordering):
        result=[]
        #访问文件生成完整数据库termlist
        termlist = process_recipes('recipes.json')
        print(termlist[3])
        #去掉query中的,和.
        query=query.replace(',','')
        query=query.replace('.','')
        #将query分解为单词
        query=query.split(' ')
        print('query:')
        print(query)
        #统计每个recipe中query出现的次数
        count=word_count(query,termlist)
        print(count)
        #根据次数统计计算相关度
        weight=calculate_weight(count)
        print('weight: ')
        print(weight)
        #找到相关度前10的recipe的index
        top_index=sort(weight)
        print('Top ten index: ')
        print(top_index)
        if ordering=='normal':
            #直接输出排序结果
            result_index=top_index
        if ordering=='simple':
            simple_degree=[]
            #对于相关度前10的recipe来说
            for i in range(10):
                if termlist[top_index[i]]['number']*termlist[top_index[i]]['step']==0:
                    #如果原料数量或烹饪步骤为0,将此recipe排至末位
                    simple_degree.append(sys.maxsize)
                else:
                    #计算这个recipe的简单度并加入list中
                    simple_degree.append(termlist[top_index[i]]['number']*termlist[top_index[i]]['step'])
            print(simple_degree)
            #按照简单度对相关度高的recipes重新升序排序
            for i in range(0,len(simple_degree)):
                for j in range (i,len(simple_degree)):
                    if simple_degree[i]>simple_degree[j]:
                        temp=simple_degree[i]
                        simple_degree[i]=simple_degree[j]
                        simple_degree[j]=temp
                        temp=top_index[i]
                        top_index[i]=top_index[j]
                        top_index[j]=temp
            #输出新的排序结果
            result_index=top_index
            print(result_index)
        if ordering=='health':
            n=1
            health_degree=[]
            for i in range(10):
                if 'calories' in termlist[top_index[i]].keys() and 'protein' in termlist[top_index[i]].keys() and 'fat' in termlist[top_index[i]].keys():
                    if termlist[top_index[i]]['calories'] is None or termlist[top_index[i]]['protein'] is None or termlist[top_index[i]]['fat'] is None:
                        #如果卡路里,蛋白质或脂肪值不存在,将此recipe排至末位
                        health_degree.append(sys.maxsize)
                    else:
                        #计算这个recipe的健康度并加入list中
                        health_degree.append((abs(termlist[top_index[i]]['calories']-(510*n))/510)+(2*(abs(termlist[top_index[i]]['protein']-(18*n))/18))+(4*(abs(termlist[top_index[i]]['fat']-(150*n))/150)))
                else:
                    #如果卡路里,蛋白质或脂肪信息不存在,将此recipe排至末位
                    health_degree.append(sys.maxsize)
            print(health_degree)
            #按照健康度对相关度高的recipes重新升序排序
            for i in range(0,len(health_degree)):
                for j in range (i,len(health_degree)):
                    if health_degree[i]>health_degree[j]:
                        temp=health_degree[i]
                        health_degree[i]=health_degree[j]
                        health_degree[j]=temp
                        temp=top_index[i]
                        top_index[i]=top_index[j]
                        top_index[j]=temp
            #输出新的排序结果
            result_index=top_index
            print(result_index)
        #从完整数据库中找到排序结果对应的title
        for i in range(len(result_index)):
            title=""
            for j in range(len(termlist[result_index[i]]['title'])):
                title=title+termlist[result_index[i]]['title'][j]+" "
            title=title[:-1]
            result.append(title)
        #返回已经排序后的title的list
        return result
    
    #输入待寻找的关键词和排序方法
    result=search('oil, Mahi',ordering='normal')
    print('search results: ')
    #输出结果
    for i in range(len(result)):
        print(result[i])
    

    菜谱的json数据文件

    recipes.json

    展开全文
  • python3+pycharm+requests+re+BeatifulSoup+json 这个确实也属实有一些勉强,不少童鞋私信问我有木有 下载大图 的源码,我说可能会有,现在分享给大家。 当然对于一个图片平台来说,高质量图片下载可能是...

    环境: python3+pycharm+requests+re+BeatifulSoup+json

    image

    这个确实也属实有一些勉强,不少童鞋私信问我有木有 下载大图 的源码,我说可能会有,现在分享给大家。

    当然对于一个图片平台来说,高质量图片下载可能是 其核心业务 ,并且我看了以下,那些高质量大图下载起来很贵!所以笔者并没有尝试付费下载然后查看大图的地址,因为这个可以猜想 成功率很低 ,并且成本比较高,退而求其次,笔者采取 以下几种方法 。

    对图虫平台初步分析之后,得到以下观点:

    原版高质量无水印图片下载太贵,由于没付费下载没有找到高质量图的高清无水印原图真实地址。 没有办法(能力) 下载原版高清无水印。并且笔者也能猜测这个是一个网站的核心业务肯定也会层层设套。不会轻易获得, 所以并没有对付费高清高质量无水印图片穷追不舍 。

    但是高质量展示图在预览时候的是可以查看带有水印的高清图的(带着图虫创意水印)。

    网站有一些免费的高清大图图片可以获取到。虽然这个 不是精选图 ,但是 质量也还可以 !

    下载免费高清大图

    在图虫创意有个板块的图片是免费开放的。在 共享图片 专栏。的图片可以搜索下载。

    https://stock.tuchong.com/topic?topicId=37 图虫创意url地址

    image

    找到一张图片点进去,检查地址你可以直接访问得到。而有相关因素的就是一个 图片服务器域名 + 图片id 组成的 图片url地址 。也就是我们要批量找到这些图片的id。最后,如果你的时间不是很紧张,并且又想快速的python提高,最重要的是不怕吃苦,建议你可以架微♥信:762459510 ,那个真的很不错,很多人进步都很快,需要你不怕吃苦哦!大家可以去添加上看一下~

    image

    在搜索界面查看源码,发现这个和前面的分析如出一辙,它的 图片id藏在js里面 。我们只需通过正则解析。 拿到id然后拼凑url即可完成所有图片地址 ,这个解析方式和上文基本完全一致,只不过是浏览器的URL和js的位置有相对的变化只需小量修改,然后直接爬虫下载保存即可!而这个搜索html的url就是 https://stock.tuchong.com/free/search/?term= + 搜索内容 。这个下载内容的实现在上一篇已经分析过。请自行查看或看下文代码!这样

    image

    下载带水印的精选图

    好的图片都在 优选图片专栏 。然而这部分图片我们可以免费获取带水印的图片。

    在登录账号之后点开的图片预览,当你 点开预览 的时候是可以看得到图片的。每张图片对应一个唯一ID,这个地址可以获得但是比较麻烦。我们尝试能不能获得一个 简单通用的url 地址呢?

    image

    经过尝试发现这个图片的url可以在我们 上面 的免费高清大图 url地址共用 !也就是我们可以得到这个ID通过上个url来 批量获取下载图片 !下载图片的方法一致不需要重复造轮子。而id的获取方法我们在下载高清小图就已经详细介绍过了也是一样的。那么分析就已经成功了,代码将在后面给出,这样我们可以下载带水印的高清大图了!

    image

    image

    当然,就配图而言还是高质量图的质量高很多,如果可以接受的话可以使用。唯一缺点就是图创水印。最后,如果你的时间不是很紧张,并且又想快速的python提高,最重要的是不怕吃苦,建议你可以架微♥信:762459510 ,那个真的很不错,很多人进步都很快,需要你不怕吃苦哦!大家可以去添加上看一下~

    代码与总结

    image

    image

    这样,整个流程就完成了,对于目录方面,我也对图虫有水印的和没水印的进行了区分,供大家使用。在使用方面,先输入1或2(1代表有水印高质量图,2代表共享图),在输入关键词即可批量下载。

    image

    image

    image

    展开全文
  • 前段时间为了查找自己的老王python关键词排名怎么样,特意用python写了一个查找网页关键词排名的程序,感觉效果还不错。特别是查找关键词排名靠后的网页来说非常的方便,不用自己手动的去一个个的翻页,废话不说了...
  • 介绍了在Windows下如何通过运行python爬取百度搜索关键词提交。即采用python的request库编制程序自动向搜索引擎提交关键词,并获得搜索结果。工具/原料安装Python的电脑方法/步骤1打开百度页面,搜索关键词,比如:...
  • 介绍的是利用python3根据关键词爬取百度百科的内容,注意本文用的是python3版本以及根据关键词爬取,爬取也只是单纯的爬网页信息,有需要的可以参考借鉴。
  • 最近手头的一个小需求,正好在学习Python就使用Python脚本来制作,如下~ 我的脚本都是我经过测试可用的,如有问题,欢迎各位大佬提出,小白一定积极改进,感谢 需求 1.获得一个tar包,放到指定路径解压 2.对解压后的...
  • 我尝试使用Python搜索一特定目录下所有文件中的关键词。代码如下: #!/usr/bin/python #encoding:UTF-8 import os import docx from docx import * #判断文件中是否包含关键字,是则将文件路径打印出来 ...
  • 前言本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,...因此今天以新浪新闻为例,分析如何通过Python爬虫按关键词抓取相关的新闻。首先,如果从新闻直接进行搜索,你会发现其内容最多显示20页...
  • python搜索引擎根据关键词爬取内容

    千次阅读 2020-04-06 18:08:17
    wd是搜索关键词,pn是分页的页面,由于百度搜索每页的结果是十个(最上面的可能是广告推广,不是搜索结果),所以pn=0是第一页,第二页是pn=10… 例如https://www.baidu.com/s?wd=python&pn=0,得到的是关...
  • python抓取关键词网站

    2020-12-16 01:31:05
    虽然我不是Python高手,但我是零基础,之前会的都是软件PS,PPT之类。点击链接加入群【我爱python大神】:https://jq.qq.com/?_wv=1027&k=47zuLPd如果目的是想成为程序员,参考教学大纲。如果只是学程序,理解...
  • 主要介绍了python通过BF算法实现关键词匹配的方法,实例分析了BF算法的原理与Python实现技巧,具有一定参考借鉴价值,需要的朋友可以参考下
  • 输入命令pip urllib2接下来打开PyCharm ,新建一个python文件,导入模块,具体代码如下:import urllib.requestimport urllib.parseimport re这里我们还需要导入 re模块用来写正则匹配3接下来用input代码和用户交互...
  • 《百度搜索关键词自动提交》配套源代码文件,供python学习者交流学习之用,免费下载,供爬虫爱好者学习和交流。
  • Python:Requests关键词搜索

    千次阅读 2021-04-09 16:53:40
    关键词搜索CSDN网页 >>> import requests >>> kv={'q':'python'} >>> r=requests.get("http://so.csdn.net/so/search/all",params=kv) >>> r.status_code 200 >>>...
  • 实验目的是用python编写网络搜索程序,完成对一个特定网站的文本搜索。对站内网页内容进行分词并建立倒排索引结构,通过输入文本词汇,检索出站内所有网页内容中出现过此文本的网页。  流程是:抓取网页链接,分词...
  • 前言最近做了一个python3作业题目,涉及到:网页爬虫网页中文文字提取建立文字索引关键词搜索涉及到的库有:爬虫库:requests解析库:xpath正则:re分词库:jieba...放出代码方便大家快速参考,实现一个小demo。题目...
  • 第1篇写了访问百度并打印页面源码,似乎没什么实际意义,这次弄个有点用的,就是百度中输入指定关键词搜索,然后获取搜索结果第一页(翻页后面会陆续写)。 比如我们输入‘博客园’,下面是查询结果(为啥写博客园...
  • 在Github上看到一个有趣的第三方模块Qdata,可以根据关键词获取百度指数、百度搜索指数,还有天眼查搜索公司数据的功能。 百度指数 百度指数是以百度海量网民行为数据为基础的数据分析平台。百度指数主要功能模块有...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 34,663
精华内容 13,865
关键字:

python搜索关键词