精华内容
下载资源
问答
  • 百度收录问题一直是不少渣渣头痛的问题,而官方其实提供了普通收录和快速收录这样的接口,直接调用官方api接口,大力出奇迹,你需要相信,你尽管seo,有排名算我输,不收录,怎么会呢,不是给你...

    百度收录问题一直是不少渣渣头痛的问题,而官方其实提供了普通收录和快速收录这样的接口,直接调用官方api接口,大力出奇迹,你需要相信,你尽管seo,有排名算我输,不收录,怎么会呢,不是给你留了一个首页网址么?以前写过熊掌号的api网址提交,可惜被清退了,也不知道能不能用了。

    其实调用官方api还是比较简单,直接按照官方给出的示例和参数就能实现,稍微抄抄改改,你也能够实现,至于收录效果,还是前面说的那句话,也是国内seo人员的核心,大力出奇迹!

    示例代码

    
    #百度普通收录 资源提交 API提交
    #微信:huguo00289
    # -*- coding: UTF-8 -*-
    import requests
    import json
    
    
    
    def api(site,token,url):
        print(f">>> 正在向百度推送链接-- {url} ..")
        post_url=f"http://data.zz.baidu.com/urls?site={site}&token={token}"
        headers = {
            'User-Agent': 'curl/7.12.1',
            'Host': 'data.zz.baidu.com',
            'Content-Type': 'text/plain',
            'Content-Length': '83',
        }
        response=requests.post(post_url,headers=headers,data=url)
        req=response.text
        if "success" in req:
            print(f"恭喜,{url} -- 百度推送成功!")
            req_json=json.loads(req)
            print(f'当天剩余的可推送url条数: {req_json["remain"]}')
    
        else:
            print(f"{url} -- 百度推送失败!")
    
    
    

    下面我们继续来优化完善一下!

    首先网站地图,想必大家都知道,sitemap.xml格式文件,里面包含有网站所有的网站,我们可以通过它来向搜索引擎提交网业地址,同时我们也可以在它身上下功夫,这里我使用的网站地图文件为老虎地图所制作。

    从sitemap.xml文件读取到网页链接地址,使用正则表达式就可以很轻松的实现目的!

    示例代码

        def get_url(self):
            with open(self.path,'r',encoding='utf-8') as f:
                xml_data=f.read()
    
            print(">>> 读取网站地图文件成功!")
    
            urls=re.findall(r'<loc>(.+?)</loc>',xml_data,re.S)
            print(urls)
            print(f">>> 共有网页链接数 :{len(urls)} 条!")
    
            return urls
    

    考虑到大部分大佬哥的网站链接推送数量可不少,这里应用了线程池的技术,多线程推送网址,比较简单,复制粘贴即可完成!

    示例代码

        def main(self):
            urls=self.get_url()
            try:
                # 开4个 worker,没有参数时默认是 cpu 的核心数
                pool = ThreadPool()
                results = pool.map(self.api,urls)
                pool.close()
                pool.join()
                print(">> 采集所有链接百度推送完成!")
    
            except Exception as e:
                print(f'错误代码:{e}')
                print("Error: unable to start thread")
    

    完整代码参考

    #百度普通收录 资源提交 API提交
    #微信:huguo00289
    # -*- coding: UTF-8 -*-
    import requests
    import json,re
    from multiprocessing.dummy import Pool as ThreadPool
    
    class Ts():
        def __init__(self,site,token,path):
            self.site=site
            self.token=token
            self.path=path
    
    
    
        def api(self,url):
            print(f">>> 正在向百度推送链接-- {url} ..")
            post_url = f"http://data.zz.baidu.com/urls?site={self.site}&token={self.token}"
            headers = {
                'User-Agent': 'curl/7.12.1',
                'Host': 'data.zz.baidu.com',
                'Content-Type': 'text/plain',
                'Content-Length': '83',
            }
            response = requests.post(post_url, headers=headers, data=url)
            req = response.text
            if "success" in req:
                print(f"恭喜,{url} -- 百度推送成功!")
                req_json = json.loads(req)
                print(f'当天剩余的可推送url条数: {req_json["remain"]}')
    
            else:
                print(f"{url} -- 百度推送失败!")
    
    
            return None
    
    
    
        def get_url(self):
            with open(self.path,'r',encoding='utf-8') as f:
                xml_data=f.read()
    
            print(">>> 读取网站地图文件成功!")
    
            urls=re.findall(r'<loc>(.+?)</loc>',xml_data,re.S)
            print(urls)
            print(f">>> 共有网页链接数 :{len(urls)} 条!")
    
            return urls
    
    
    
        def main(self):
            urls=self.get_url()
            try:
                # 开4个 worker,没有参数时默认是 cpu 的核心数
                pool = ThreadPool()
                results = pool.map(self.api,urls)
                pool.close()
                pool.join()
                print(">> 采集所有链接百度推送完成!")
    
            except Exception as e:
                print(f'错误代码:{e}')
                print("Error: unable to start thread")
    
    
    
    
    if __name__ == '__main__':
        site="网站地址"
        token="秘钥"
        path=r"网站地图文件存储路径"
        spider=Ts(site,token,path)
        spider.main()
        
    

    相关阅读:


    百度主动推送工具汇总,Python POST工具实例源码

          

    微信公众号:二爷记

    不定时分享python源码及工具

    展开全文
  • $api = '百度资源平台的推送接口地址'; $ch = curl_init(); $options = array( CURLOPT_URL => $api, CURLOPT_POST => true, CURLOPT_RETURNTRANSFER => true, CURLOPT_POSTFIELDS => implode("\n", $urls), ...

    新建目录/e/extend/目录/index.php,内容如下

    require('../../class/connect.php'); //引入数据库配置文件和公共函数文件

    require('../../class/db_sql.php'); //引入数据库操作文件

    require('../../data/dbcache/class.php'); //引入栏目缓存文件

    $link=db_connect(); //连接MYSQL

    $empire=new mysqlquery(); //声明数据库操作类

    $editor=1; //声明目录层次

    $sqlnews=$empire->query("select * from {$dbtbpre}ecms_news where date(FROM_UNIXTIME(truetime, '%Y%m%d' ))=curdate() order by newstime DESC"); //查询新闻表,当天添加的信息

    require('template/index.temp.php'); //导入模板文件

    db_close(); //关闭MYSQL链接

    $empire=null; //注消操作类变量

    ?>

    新建目录/e/extend/目录/template/index.temp.php,内容如下

    if(!defined('InEmpireCMS'))

    {

    exit();

    }

    ?>

    $wz='https://www.域名.com/';    //网址没有的需要添加域名

    while($r=$empire->fetch($sqlnews))        //循环获取查询记录

    {

    $titleurl[] = sys_ReturnBqTitleLink($r);        //标题链接

    }

    while($r=$empire->fetch($sqlphoto))        //循环获取查询记录

    {

    $titleurl[] = $wz.'/huanjing/'.$r[id].'.html';        //标题链接

    }

    $urls = $titleurl;

    $api = '百度资源平台的推送接口地址';

    $ch = curl_init();

    $options =  array(

    CURLOPT_URL => $api,

    CURLOPT_POST => true,

    CURLOPT_RETURNTRANSFER => true,

    CURLOPT_POSTFIELDS => implode("\n", $urls),

    CURLOPT_HTTPHEADER => array('Content-Type: text/plain'),

    );

    curl_setopt_array($ch, $options);

    $result = curl_exec($ch);

    echo $result;

    ?>

    验证只有后台才可以打开

    define('EmpireCMSAdmin','1');

    require('../../class/connect.php'); //引入数据库配置文件和公共函数文件

    require('../../class/db_sql.php'); //引入数据库操作文件

    require("../../class/functions.php");

    require('../../data/dbcache/class.php'); //引入栏目缓存文件

    require '../'.LoadLang("pub/fun.php"); //引入分页语言包文件

    $link=db_connect(); //连接MYSQL

    $empire=new mysqlquery(); //声明数据库操作类

    $editor=1; //声明目录层次

    //验证用户

    $lur=is_login();

    $logininid=$lur['userid'];

    $loginin=$lur['username'];

    $loginrnd=$lur['rnd'];

    $loginlevel=$lur['groupid'];

    $loginadminstyleid=$lur['adminstyleid'];

    //ehash

    $ecms_hashur=hReturnEcmsHashStrAll();

    $sqlnews=$empire->query("select * from {$dbtbpre}ecms_news where date(FROM_UNIXTIME(truetime, '%Y%m%d' ))=curdate() order by newstime DESC"); //查询新闻表,当天添加的信息

    require('template/index.temp.php'); //导入模板文件

    db_close(); //关闭MYSQL链接

    $empire=null; //注消操作类变量

    ?>

    价格:99.00

    商品编号:

    微信扫码付款后,联系我

    QQ:413fb9621ccefe417c867cb33ac3f46a.png

    微信:315125873

    展开全文
  • 少爷百度普通收录批量提交
  • ip.txt 代理地址存放 url.txt 需要提交的地址(不要带http) cookie.txt 百度cookie 一行一条
  • 百度收录问题一直是不少渣渣头痛的问题,而官方其实提供了普通收录和快速收录这样的接口,直接调用官方api接口,大力出奇迹,你需要相信,你尽管seo,有排名算我输,不收录,怎么会呢,不是给你留了一个首页网址么?...

    ad4125ead62d6e36b8cee75c00fdb823.png

    百度收录问题一直是不少渣渣头痛的问题,而官方其实提供了普通收录和快速收录这样的接口,直接调用官方api接口,大力出奇迹,你需要相信,你尽管seo,有排名算我输,不收录,怎么会呢,不是给你留了一个首页网址么?以前写过熊掌号的api网址提交,可惜被清退了,也不知道能不能用了。

    4d88b79151b0ee04eced88c4e64134ac.png

    其实调用官方api还是比较简单,直接按照官方给出的示例和参数就能实现,稍微抄抄改改,你也能够实现,至于收录效果,还是前面说的那句话,也是国内seo人员的核心,大力出奇迹!

    3a374f80cf9da2c9793d659c2dc4cc01.png

    示例代码

    #百度普通收录 资源提交 API提交
    #微信:huguo00289
    # -*- coding: UTF-8 -*-
    import requests
    import json
    
    
    
    
    
    
    def api(site,token,url):
        print(f">>> 正在向百度推送链接-- {url} ..")
        post_url=f"http://data.zz.baidu.com/urls?site={site}&token={token}"
        headers = {
            'User-Agent': 'curl/7.12.1',
            'Host': 'data.zz.baidu.com',
            'Content-Type': 'text/plain',
            'Content-Length': '83',
        }
        response=requests.post(post_url,headers=headers,data=url)
        req=response.text
        if "success" in req:
            print(f"恭喜,{url} -- 百度推送成功!")
            req_json=json.loads(req)
            print(f'当天剩余的可推送url条数: {req_json["remain"]}')
    
    
        else:
            print(f"{url} -- 百度推送失败!

    下面我们继续来优化完善一下!

    首先网站地图,想必大家都知道,sitemap.xml格式文件,里面包含有网站所有的网站,我们可以通过它来向搜索引擎提交网业地址,同时我们也可以在它身上下功夫,这里我使用的网站地图文件为老虎地图所制作。

    从sitemap.xml文件读取到网页链接地址,使用正则表达式就可以很轻松的实现目的!

    示例代码

        def get_url(self):
            with open(self.path,'r',encoding='utf-8') as f:
                xml_data=f.read()
    
    
            print(">>> 读取网站地图文件成功!")
    
    
            urls=re.findall(r'<loc>(.+?)</loc>',xml_data,re.S)
            print(urls)
            print(f">>> 共有网页链接数 :{len(urls)} 条!")
    
    
            return ur

    考虑到大部分大佬哥的网站链接推送数量可不少,这里应用了线程池的技术,多线程推送网址,比较简单,复制粘贴即可完成!

    示例代码

        def main(self):
            urls=self.get_url()
            try:
                # 开4个 worker,没有参数时默认是 cpu 的核心数
                pool = ThreadPool()
                results = pool.map(self.api,urls)
                pool.close()
                pool.join()
                print(">> 采集所有链接百度推送完成!")
    
    
            except Exception as e:
                print(f'错误代码:{e}')
                print("Error: unable to start thread")

    完整代码参考

    #百度普通收录 资源提交 API提交
    #微信:huguo00289
    # -*- coding: UTF-8 -*-
    import requests
    import json,re
    from multiprocessing.dummy import Pool as ThreadPool
    
    
    class Ts():
        def __init__(self,site,token,path):
            self.site=site
            self.token=token
            self.path=path
    
    
    
    
    
    
        def api(self,url):
            print(f">>> 正在向百度推送链接-- {url} ..")
            post_url = f"http://data.zz.baidu.com/urls?site={self.site}&token={self.token}"
            headers = {
                'User-Agent': 'curl/7.12.1',
                'Host': 'data.zz.baidu.com',
                'Content-Type': 'text/plain',
                'Content-Length': '83',
            }
            response = requests.post(post_url, headers=headers, data=url)
            req = response.text
            if "success" in req:
                print(f"恭喜,{url} -- 百度推送成功!")
                req_json = json.loads(req)
                print(f'当天剩余的可推送url条数: {req_json["remain"]}')
    
    
            else:
                print(f"{url} -- 百度推送失败!")
    
    
    
    
            return None
    
    
    
    
    
    
        def get_url(self):
            with open(self.path,'r',encoding='utf-8') as f:
                xml_data=f.read()
    
    
            print(">>> 读取网站地图文件成功!")
    
    
            urls=re.findall(r'<loc>(.+?)</loc>',xml_data,re.S)
            print(urls)
            print(f">>> 共有网页链接数 :{len(urls)} 条!")
    
    
            return urls
    
    
    
    
    
    
        def main(self):
            urls=self.get_url()
            try:
                # 开4个 worker,没有参数时默认是 cpu 的核心数
                pool = ThreadPool()
                results = pool.map(self.api,urls)
                pool.close()
                pool.join()
                print(">> 采集所有链接百度推送完成!")
    
    
            except Exception as e:
                print(f'错误代码:{e}')
                print("Error: unable to start thread")
    
    
    
    
    
    
    
    
    if __name__ == '__main__':
        site="网站地址"
        token="秘钥"
        path=r"网站地图文件存储路径"
        spider=Ts(site,token,path)
      
    展开全文
  • 本次带来的IQ百度普通收录推送精灵不仅能够帮助站长收录推送,还可以一次性捕获目标站点的全部链接,包括所有站点的IQ普通推送向导可以主动将所有站点链接资源推送到百度搜索,从而缩短了百度爬虫查找网站链接的时间...

    简介:

    本次带来的IQ百度普通收录推送精灵不仅能够帮助站长收录推送,还可以一次性捕获目标站点的全部链接,包括所有站点的IQ普通推送向导可以主动将所有站点链接资源推送到百度搜索,从而缩短了百度爬虫查找网站链接的时间,最多可以同时推送100000条,可以快速管理组站点,因此无需每次都输入接口地址,站点地图或其他内容。


    软件说明:

    包括所有站点的IQ普通推送向导可以主动将所有站点链接资源推送到百度搜索,从而缩短了百度爬虫查找网站链接的时间,但并不能保证包容的效果。
    该程序需要与站点地图合作以一键捕获所有站点链接(您可以自己编辑和自定义提交的链接),上限为100,000,并且每日配额取决于您网站的质量。
    与您自己的Sitemap.xml手动提交协作,效果甚至更好。 该程序可以快速管理组站点,因此无需每次都输入接口地址,站点地图或其他内容。


    使用方法:

    输入网站和接口地址
    点击捕获全站链接
    点击一键推送即可


    网盘下载地址:

    http://www.bytepan.com/tT8sUo998TV


    展开全文
  • java百度收录查询源码

    2018-04-02 11:01:52
    自己做的一个百度查询页面,源码打包,解压运行直接可用!
  • 目录普通收录API提交文档推送接口推送示例报错正确写法另外原文地址 这个问题我在各个搜索引擎SEO网站提交入口和使用感受 中已经遇到了,但是今天再试的时候又忘记了。 特此再记录一次: 普通收录API提交文档 推送...
  • JAVA对接百度API提交普通收录/SEO 说明: 为了增加内容的曝光量,除了主动让百度爬虫爬取之外,还有普通收录的API提交,程序主动向百度搜索推送资源,缩短爬虫发现网站链接的时间。 官网地址:...
  • 站长: 今天给大家分享一个php的百度收录查询 API源码,大家可自行封装为接口。实例代码: php$domain=(isset($_GET['domain']))?$_GET['domain']:$_POST['domain'];if(empty($domain))echo'查询域名不能为空';$count=...
  • 1、普通收录工具可以向百度搜索主动推送资源,缩短爬虫发现网站链接的时间,不保证收录效果。 2、API提交和手动提交共享配额,每日至多提交10万条有价值的内容,sitemap提交配额不与其他方式共享,具体配额以站点...
  • 打开百度收录平台,进行如下图操作。先登陆操作,然后点击【用户中心】下【站点管理】。 进入到【站点管理】页面后,你就可以添加你想添加网站 第一步:输入网站 第二步:设置站点领域(最多3项) 第三步:验证...
  • php百度收录

    2019-10-29 09:30:24
    <?php defined('IN_PHPCMS') or exit('No permission resources.'); header("Content-Type:text/...charset=utf-8"); //pc_base::load_sys_class('model', '../phpcms/libs/classes/', 0); pc_base::load_sys_c...
  • 百度收录资源提交主要有3种方式: API推送:最为快速的提交方式,建议您将站点当天新产出链接立即通过此方式推送给百度,以保证新链接可以及时被百度收录。 Sitemap:您可以定期将网站链接放到Sitemap中,然后将...
  • 百度搜索到有两种方法,一种是等百度主动来爬取你的网站,还有一种是你自己主动提交给百度告诉它来爬取。第一种周期太过漫长,所以本文就讲第二种 1.准备网站 首先,想要做SEO的同学,需要考虑清楚所选择的前端...
  • 百度收录分为快速收录和普通收录,快速收录只对部分优质站点开放,所以对于大多数人只能用普通收录普通收录方法有三种:API提交、sitemap、手动提交 tips:如何统计自己的网站有哪些页面? 百度sitemap在线生成...
  • 天级收录参数:realtime curl推送示例 将要提交的链接按照每行一条的格式写入一个文本文件中,命名此文件为urls.txt,然后进入该文件所在目录,执行如下命令:curl -H 'Content-Type:text/plain' --data-binary @...
  • 可以让你发布文章时直接自动推送百度普通接口,制作的版本是,PBOOTCMS 3.1.2版本,代码添加简洁,大部分使用的是官方自带代码,没有繁琐无用代码 下载链接 点击下载PBOOTCMS 3.1.2 发布文章百度普通自动推送PHP修改...
  • 百度sitemap Api自动提交收录方法

    千次阅读 2021-01-28 22:53:53
    百度sitemap Api自动提交收录方法,本文使用python提交。 首先先将网站的sitemap地图(网站根目录自己生成的sitemap.xml)转换为txt文本的一条条链接,然后再把txt文本的链接通过api提交百度站长收录百度官网的...
  • 百度站长平台使用教程:普通收录

    千次阅读 2020-12-17 15:48:08
    在上一期篇的百度站长平台使用教程中,我们介绍了快速收录功能,今天我们再来介绍一下普通收录功能。 普通收录 普通收录有API提交、sitemap提交、手动提交三种方式,每一种方式都可以使用,它们之间互不影响,具体...
  • 如何使用百度API提交收录

    千次阅读 2020-06-22 16:02:24
    百度收录有快速收录和普通收录,当前快速收录仅对部分优质站点开放,所有对于大多数人只能用普通收录普通收录方法有三种: 1、API提交 2、sitemap 3、手动提交 本文只介绍API提交方法,别的方法相对简单不多...
  • 网站资源快速收录百度API提交Java版,让你的网站快速收录提高排名
  • java百度文章收录

    2021-02-01 16:10:12
    @Data @Configuration public class BaiDuPushConfig { public static String url = ...token=Token"; @Value("${baidu.workUrl}") private String workUrl;... public static String Post(String PostUrl, Stri.
  • 普通收录工具可以向百度搜索主动推送资源,缩短爬虫发现网站链接的时间,不保证收录效果。 通过普通收录接口,每天可提交最多10万条有价值内容。提交的内容会进入百度搜索统一管理,请耐心等待。 仅限提交关联过主体...
  • 如何查看自己的网站或者博客上的文章被百度收录? 首先,小伙伴们得了解为什么你们在自己博客上发表了文章,发表了多天了,但是在你百度的时候,还是搜不出自己的文章,搜到的都是别人的,这到底是为什么呢??? ...
  • 网站质量不错的网站可以在百度站长平台/数据提交/sitemap栏目下看到实时推送的功能, 目前这个工具是邀请开放, 百度的实时推送的api接口可以实时推送我们新发布的文章, 保证百度在第一时间收录.百度站长平台...
  • 收录是众多站长们最为关心的问题,因为要排名就必须要先有收录,当我们发布了一篇新的文章之后,都希望蜘蛛能够立即来抓取,在百度站长平台有个链接提交,通过这个可以解决这个问题。今天我们讲述的是链接提交中的...
  • 百度站长后台“普通收录-自动推送”功能恢复通知。 完整的消息如下: 尊敬的搜索合作伙伴: 您好,即日起搜索资源平台恢复“普通收录-自动推送”功能,以便更快发现与收录站点新增资源,降低站点维护成本。特别提醒...
  • 今天给大机器推荐一个可以根据站点sitemap.xml一键推送给百度收录的python小脚本。 基本思路: 1、获取站点的sitemap.xml文件 2、根据sitemap.xml解析出url 3、组合数据并推送给百度 具体实施: 1、获取...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,317
精华内容 2,126
关键字:

百度普通收录