精华内容
下载资源
问答
  • QQ群号采集批量专家的功能是非常强大的。
  • 免费QQ批量加群专家+QQ群采集器.破解版

    千次下载 热门讨论 2012-03-27 12:02:25
    免费QQ批量加群专家+QQ群采集器.破解版
  • 如何采集QQ群群员QQ号,采集QQ号,批量采集QQ号 众所周知,QQ群群员QQ号无法导出,即使会员也不可以,那我们只能通过三方工具来实现我们的要求,那今天我们讲讲如何通过火车采集器来采集QQ群群员QQ号。 使用工具 ...

    如何采集QQ群群员QQ号,采集QQ号,批量采集QQ号

    众所周知,QQ群群员QQ号无法导出,即使会员也不可以,那我们只能通过三方工具来实现我们的要求,那今天我们讲讲如何通过火车采集器来采集QQ群群员QQ号。

    使用工具

    • 火车采集器
    • 抓包工具 Fiddler
    • QQ (轻聊版)
    隐藏内容
    采集准备

     

    1、开启Fiddler代理

    打开Fiddler软件,依次点击Tools – Options – Connections

    • 设置代理端口:Fiddler listens on port : 8888
    • 勾选:Allow remote computers to connect
    • 勾选:Reuse client connections
    • 勾选:Reuse server connections

    2、设置QQ登录代理

    • 点击登录界面右上角小三角 – 网络设置 – 类型 – http代理 – 地址 – 本机IP地址 – 端口 – 8888

    如何查看本机IP:开始键 + r 输入 cmd  再次输入ipconfig,如图

    使用那个IP都可以 。

    抓包开始

    打开抓包工具,开启抓包,登录QQ打开某个QQ群 – 点击群名 – 成员,回到抓包工具中,找到下面这个前半部分链接:

    http://qinfo.clt.qq.com/cgi-bin/qun_info/get_members_info_v1?friends=1&gc=······

    点击上方的相关链接复制Cookie值到采集器中

    复制到这

    包抓到了 采集相信各位没啥问题。

    起始地址就是这个get地址,这个起始页也是内容页,采集QQ标签规则这么写 },”参数”:{  ,如果采集到多余数据使用数据处理,进行处理下。

    如果采集多个QQ群的话就修改get地址中的gc值,因为gc值就是QQ群号

    原创文章,转载自荣耀博客

    转载于:https://www.cnblogs.com/webnote/p/10349347.html

    展开全文
  • 增加批量帐号登录功能,批量采集,提取成员,提取好友等,无需再一个个换号啦! b.验证码显示更稳定,并且支持远程自动打码功能,彻底解放您的双手! c.增加无限采集qq功能(仅限高级用户体验)! d.增加数据库...
  • 如果没有技术基础,在使用者遇到问题,可查看下文的联系方式,自行通过QQ群请教他人或者官方淘宝店铺提供无偿或有偿技术调试。 鉴于使用者较多,总是有小伙伴联系我定制二次开发,但时间太少。预计今年底会统一出一...
  • 酋长多功能QQ空间采集王 v6.4.3.0,主要升级了访客采集接口,早在今年年初,...4.QQ群成员提取:采集已经登录的QQ号码,所有群和成员,可导出成员。 5.QQ空间访客资料抽取:可添加固定号码并提取该QQ空间访客资料。
  • 前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 今天来教大家一个自动化爬虫的工具 selenium ...¤QQ群:961562169 selenium Sele

    前言

    本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

    今天来教大家一个自动化爬虫的工具 selenium

    很多人学习python,不知道从何学起。
    很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
    很多已经做案例的人,却不知道如何去学习更加高深的知识。
    那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!??¤
    QQ群:961562169

    selenium

    Selenium 是一个 Web 的自动化测试工具,最初是为网站自动化测试而开发的,就像玩游戏用的按键精灵,可以按指定的命令自动操作。

    Selenium 测试工具直接操控浏览器中,就像真正的用户在操作一样。Selenium 可以根据的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生等。

    项目目标

    今天的目标是爬取付费歌曲

    受害者地址

    http://tool.liumingye.cn/music/?page=homePage

     

     

    先给大家看下效果

    爬虫代码

    导入工具

    import time
    import requests
    from selenium import webdriver
    from selenium.webdriver.chrome.options import Options

    解析网页

    打开F12 开发者工具,不管三七二十一,先来一顿瞎分析~

     

     

    哦豁~ 这里面居然有数据接口,还是post请求,那这样的话就咱们就看它的data参数,那里有变化

     

     

     

     

    driver = webdriver.Chrome(executable_path='chromedriver.exe', options=chrome_options)
    # key_world = input('请输入歌手名字:')
    driver.get('http://tool.liumingye.cn/music/?page=searchPage')
    driver.find_element_by_css_selector('#input').send_keys('张杰')
    driver.find_element_by_css_selector('#search  button:nth-child(2) i').click()
    def download(name, url):
        filename = 'C:\\Users\\Administrator\\Desktop\\音乐\\' + name + '.mp3'
        response = requests.get(url=url)
        with open(filename, mode='wb') as f:
            f.write(response.content)
    
    def drop_down():
        """模拟人去滚动鼠标向下浏览页面"""
        for x in range(1, 20, 10):
            time.sleep(0.5)
            j = x / 10
            js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j
            driver.execute_script(js)
    
    
    lis = driver.find_elements_by_css_selector('#player li')
    f = 0
    for li in lis:
        f += 1
        name = li.find_element_by_css_selector('.aplayer-list-title').text
        li.find_element_by_css_selector('.aplayer-list-download').click()
        down_url = driver.find_element_by_css_selector('#m-download > div > div > div.modal-body > div:nth-child(6) > div.input-group-append > a.btn.btn-outline-secondary.download').get_attribute('href')
        driver.find_element_by_css_selector('#m-download > div > div > div.modal-header > button').click()
        # time.sleep(1)
        download(name, down_url)
        print(name, down_url)
        if f % 10 == 0:
            drop_down()

    运行代码后,效果如下

     

     

     

     

     

     

     

    展开全文
  • WebMarc Ver3.0.0.4 支持套书丛书下载(一个isbn多本书) 优化国图批下提高下载速度 isbn 预处理 对于国图未命中的isbn或者二渠道图书(格式...编目交流(新建):100807311 请大家 主动加入到改,共同交流 ,学习
  • 众大云采集

    2016-07-20 18:29:31
    14、支持批量采集、问答采集、视频采集等等 15、输入关键词可以采集任何内容,不用写采集规则,是一款万能采集工具。 功能不一一列举,更多的功能请安装此插件体验。 问:哪些网站系统可以使用众大云采集? 答:...
  • 商业联盟 QQ群538250800 技术搞事 QQ群599020441 解决方案 QQ群152889761 加入我们 QQ群649347320 共享学习 QQ群674240731 纪年科技aming 网络安全 ,深度学习,嵌入式,机器强化,生物智能,生命科学。 思路 : 利用现有...

    在这里插入图片描述


    QQ 1274510382
    Wechat JNZ_aming
    商业联盟 QQ群538250800
    技术搞事 QQ群599020441
    解决方案 QQ群152889761
    加入我们 QQ群649347320
    共享学习 QQ群674240731
    纪年科技aming
    网络安全 ,深度学习,嵌入式,机器强化,生物智能,生命科学。


    思路 :

    利用现有的搜索引擎API以及GoogleHacking技术 ,
    批量进行关键字查询和注入点检测

    #分为三步 :

    URL采集
    对采集到的不可能的URL进行过滤 , 例如静态的页面等
    注入点检测

    https://www.exploit-db.com/google-hacking-database

    URL采集 :
    利用Bing提供的免费API , 进行URL采集 : (Bing.py)

      #!/usr/bin/env python
    #coding:utf8
    
    import requests
    import json
    import sys
    
    # config-start
    BingKey = "" # config your bing Ocp-Apim-Subscription-Key
    Keyword = "简书"
    maxPageNumber = 10
    pageSize = 10
    # config-end
    
    url = "https://api.cognitive.microsoft.com/bing/v5.0/search?q=" + Keyword
    
    headers = {
        'Host':'api.cognitive.microsoft.com',
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:50.0) Gecko/20100101 Firefox/50.0',
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
        'Accept-Language':'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
        'Accept-Encoding':'gzip, deflate, br',
        'Ocp-Apim-Subscription-Key':BingKey,
        'Upgrade-Insecure-Requests':'1',
        'Referer':'https://api.cognitive.microsoft.com/bing/v5.0/search?q=opensns',
        'Connection':'keep-alive',
    }
    
    
    for i in range(maxPageNumber):
        tempUrl = url + "&offset=" + str(i * pageSize) + "&count=" + str(pageSize)
        response = requests.get(tempUrl, headers=headers)
        content = response.text
        jsonObject = json.loads(content)
        results = jsonObject['webPages']['value']
        for result in results:
            resulturl = result['displayUrl']
            if resulturl.startswith("https://"):
                print resulturl
            else:
                print "http://" + resulturl
    

    利用开源HTML解析库对百度搜索结果页面进行解析 , 采集URL : (Baidu.py)

     #!/usr/bin/env python
    #coding:utf8
    
    import requests
    from bs4 import BeautifulSoup
    import sys
    
    # config-start
    keyword = "简书"
    # config-end
    
    url = "http://www.baidu.com/s?wd=" + keyword
    response = requests.get(url)
    content = response.content
    status_code = response.status_code
    soup = BeautifulSoup(content, "html.parser")
    links = soup.findAll("a")
    for link in links:
        try:
            dstURL = link['href']
            if (dstURL.startswith("http://") or dstURL.startswith("https://")) and dstURL.startswith("http://www.baidu.com/link?url=") :
                result_url = requests.get(dstURL).url
                print result_url
        except Exception as e:
            continue
    

    对静态页面等URL进行过滤

     #!/usr/bin/env python
    #coding:utf8
    
    file = open("urls.txt","r")
    for line in file:
        content = line[0:-1]
        if content.endswith("html"):
            continue
        if content.endswith("htm"):
            continue
        if ".php" in content or ".asp" in content:
            print content
    

    检测注入点 :

     #!/usr/bin/env python
    #coding:utf8
    
    import os
    import sys
    
    file = open(sys.argv[1],"r")
    
    for line in file:
        url = line[0:-1]
        print "*******************"
        command = "sqlmap.py -u " + url + " --random-agent -f --batch --answer=\"extending=N,follow=N,keep=N,exploit=n\""
        print "Exec : " + command
        os.system(command)
    

    搜索引擎语法

    关键字(搜索范围) 引擎

    【1】完全匹配搜索——精确匹配 “” 引号 和书名号《》
    查询词很长 ,baidu分析过后 可能是拆分
    把包含引号部分 作为整体 顺序匹配 来搜索

    引号为英文状态下的引号。
    屏蔽一些百度推广

    eg:
    “网站推广策划” 整个名字
    "“手机” / 《手机》 "

    【2】± 加减号的用法
    加号 同时包含两个关键字 相当于空格和and。

    减号 搜索结果中不含特定查询词 —— 前面必须是空格 后面紧连着需要排除的词

    eg:
    电影 -搜狐
    音乐 +古风

    【3】OR的用法   
    搜索两个或更多关键字

    eg:
    “seo or 深圳seo”
    可能出现其中的一个关键字,也可能两个都出现。
    “seo or 你的名字”(这里不加引号)。
    如果你的名字为常见名。你会发现意外的惊喜,和你同名同姓的居然还有同行业。
    “seo or 深圳seo”(这里不加引号) 就发现了和同名同姓的,还跟我同行。
     
     
    【4】intitle

    网页标题内容——网页内容提纲挈领式的归纳
    竞争页面
    关键词优化

    eg:
    (搜的时候不加引号)
    “intitle:管理登录”
    “新疆 intitle:雪菊”
    “网络推广 intitle:他的名字”

    【5】intext和 allintext (针对google有效)
    在网页的内容中出现,而不是标题,

    找页面里包含‘SEO’,标题包含SEO的对应文章页面。
    只搜索网页部分中包含的文字(忽略了标题,URL等的文字),
    类似在某些网站中使用的“文章内容搜索”功能。

    eg:
    “深圳SEO intext:SEO”

    【6】inurl

    搜索网址中 url链接 包含的的字符串 (中文 英文),
    竞争对手 排名

    eg:
    搜索登录地址,可以这样写“inurl:admin.asp”,
    想搜索Discuz的论坛,可以输入inurl:forum.php,
    “csdn博客 inurl:py_shell”
     
    【7】site

    搜索特定网页
    看搜索引擎收录了多少页面。

    ——某个站点中有自己需要找的东西,就可以把搜索范围限定在这个站点中
    “胡歌 空格 insite:www.sina.com.cn”

    【8】link

    搜索某个网站的链接。
    搜索某个网站url的内部链接和外部链接
    不是对每个搜索引擎都很准,尤其是Google,
    只会返回索引库中的一部分,并且是随机的一部分,
    百度则不支持这个指令。
    雅虎全面支持,而且查询得比较准确,
    一般我们查看网站的链接都以雅虎为准,
    【9】filetype

    搜索你想要的电子书,限定在指定文档格式中

    并不是所有的格式都会支持,现在百度支持的格式有pdf、doc、xls、all、ppt、rtf,

    eg:
    “python教程 filetype:pdf”
    doc文件,就写“filetype:doc”,
    “seo filetype:doc”,(搜的时候不加引号) ,

    【10】related(只使用于google)   
    指定URL相关的页面、
    一般都会显示与你网站有相同外链的网站。
    竞争的对手,
    相同的外链。

    【11】 * 通配符 (百度不支持)
    eg: 搜索 * 擎

    【12】inanchor 导入链接 锚文字中包含 (百度不支持)
    竞争对手
    链接指向

    【13】allintitle 包含多组关键字
    【14】allinurl
    【15】linkdomain (雅虎)
    某域名反向链接 排除 得到外部链接
    linkdomain: xxx.com -xxx.com

    【16】related (google) 某个网站 关联页面
    有共同外部链接
    【17】domain 某一网站相关信息
    “domain:url”

    【18】index (百度)
    “index of mp3”

    【19】A|B 包含a或者b

    展开全文
  • QQ 营销 免费 QQ批量加群专家 QQ群采集器 破解版
  • 技术交流 QQ群599020441 纪年科技aming 0x01 前言 URl采集 批量刷洞 0x02 ZoomEyeAPI脚本编写 ZoomEye是一款针对网络空间的搜索引擎 收录了互联网空间中的设备、网站及其使用的服务或组件等信息。 ...

    在这里插入图片描述


    QQ 1274510382
    Wechat JNZ_aming
    商业联盟 QQ群538250800
    技术搞事 QQ群599020441
    解决方案 QQ群152889761
    加入我们 QQ群649347320
    共享学习 QQ群674240731
    纪年科技aming
    网络安全 ,深度学习,嵌入式,机器强化,生物智能,生命科学。

    叮叮叮:产品已上线 —>关注 官方-微信公众号——济南纪年信息科技有限公司
    民生项目:商城加盟/娱乐交友/创业商圈/外包兼职开发-项目发布/
    安全项目:态势感知防御系统/内网巡查系统
    云服项目:动态扩容云主机/域名/弹性存储-数据库-云盘/API-AIeverthing
    产品咨询/服务售后(同)

    纸上得来终觉浅,绝知此事要躬行 !!!
    寻找志同道合伙伴创业中。。。抱团滴滴aming联系方式!!


    url采集器

    0x01 前言

    • URl采集 批量刷洞

    0x02 ZoomEyeAPI脚本编写

    • ZoomEye是一款针对网络空间的搜索引擎
    • 收录了互联网空间中的设备、网站及其使用的服务或组件等信息。
      ZoomEye 拥有两大探测引擎:Xmap 和 Wmap
      分别针对网络空间中的设备及网站,
      通过 24 小时不间断的探测、识别,标识出互联网设备及网站所使用的服务及组件。
    • 研究人员可以通过 ZoomEye 方便的了解组件的普及率及漏洞的危害范围等信息。
    • 虽然被称为 “黑客友好” 的搜索引擎,
    • 但 ZoomEye 并不会主动对网络设备、网站发起攻击,收录的数据也仅用于安全研究。
    • ZoomEye更像是互联网空间的一张航海图。
      在这里插入图片描述
      API 文档

    在这里插入图片描述

    先登录,然后获取access_token
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

     user = raw_input('[-] PLEASE INPUT YOUR USERNAME:')
    passwd = raw_input('[-] PLEASE INPUT YOUR PASSWORD:')
    
     def Login():
        data_info = {'username' : user,'password' : passwd}
        data_encoded = json.dumps(data_info) 
        respond = requests.post(url = 'https://api.zoomeye.org/user/login',data = data_encoded)
        try:
            r_decoded = json.loads(respond.text) 
            access_token = r_decoded['access_token']
        except KeyError:
            return '[-] INFO : USERNAME OR PASSWORD IS WRONG, PLEASE TRY AGAIN'
        return access_token
    if __name__ == '__main__':
        print Login()
    

    在这里插入图片描述

     def search():
        headers = {'Authorization': 'JWT ' + Login()}
        r = requests.get(url = 'https://api.zoomeye.org/host/search?query=tomcat&page=1',
                             headers = headers)
        response = json.loads(r.text)
        print(response)
    if __name__ == '__main__':
        search()
    

    在这里插入图片描述
    JSON数据,
    我们可以取出IP部分…

      print(response)
        for x in response['matches']:
            print(x['ip'])
    

    在这里插入图片描述
    HOST的单页面采集
    接下来,就是用FOR循环…获取多页的IP

     
    
    
    #-*- coding: UTF-8 -*-
    import requests
    import json
    
    from click._compat import raw_input
    
    
    def Login():
        data_info = {'username' : user,'password' : passwd}
        data_encoded = json.dumps(data_info)
        respond = requests.post(url = 'https://api.zoomeye.org/user/login',data = data_encoded)
        try:
            r_decoded = json.loads(respond.text)
            access_token = r_decoded['access_token']
        except KeyError:
            return '[-] INFO : USERNAME OR PASSWORD IS WRONG, PLEASE TRY AGAIN'
        return access_token
    
    
    
    def search():
        headers = {'Authorization': 'JWT ' + Login()}
        for i in range(1, int(PAGECOUNT)):
            r = requests.get(url='https://api.zoomeye.org/host/search?query=tomcat&page=' + str(i),
                             headers=headers)
            response = json.loads(r.text) 
        print(response)
        for x in response['matches']:
            print(x['ip'])
    
    
    
    if __name__ == '__main__':
        user = raw_input('[-] PLEASE INPUT YOUR USERNAME:')
        passwd = raw_input('[-] PLEASE INPUT YOUR PASSWORD:')
        PAGECOUNT = raw_input('[-] PLEASE INPUT YOUR SEARCH_PAGE_COUNT(eg:10):')
        search()
    

    这样就取出了你想要的页码的数据,然后就是完善+美观代码了…

      
    
    
    #-*- coding: UTF-8 -*-
    import requests
    import json
    
    from click._compat import raw_input
    
    
    def Login(user,passwd):
        data_info = {'username' : user,'password' : passwd}
        data_encoded = json.dumps(data_info)
        respond = requests.post(url = 'https://api.zoomeye.org/user/login',data = data_encoded)
        try:
            r_decoded = json.loads(respond.text)
            access_token = r_decoded['access_token']
        except KeyError:
            return '[-] INFO : USERNAME OR PASSWORD IS WRONG, PLEASE TRY AGAIN'
        return access_token
    
    
    
    def search(queryType,queryStr,PAGECOUNT,user,passwd):
        headers = {'Authorization': 'JWT ' + Login(user,passwd)}
        for i in range(1, int(PAGECOUNT)):
            r = requests.get(url='https://api.zoomeye.org/'+ queryType +'/search?query='+queryStr+'&page='+ str(i),
                             headers=headers)
            response = json.loads(r.text)
            try:
                if queryType == "host":
                    for x in response['matches']:
                        print(x['ip'])
                if queryType == "web":
                    for x in response['matches']:
                        print(x['ip'][0])
            except KeyError:
                print("[ERROR] No hosts found")
    
    
    
    
    
    def main():
        print (" _____                     _____           ____  "   )
        print ("|__  /___   ___  _ __ ___ | ____|   _  ___/ ___|  ___ __ _ _ __" )
        print ("  / // _ \ / _ \| '_ ` _ \|  _|| | | |/ _ \___ \ / __/ _` | '_ \ ")
        print (" / /| (_) | (_) | | | | | | |__| |_| |  __/___) | (_| (_| | | | |")
        print ("/____\___/ \___/|_| |_| |_|_____\__, |\___|____/ \___\__,_|_| |_|")
        print ("                                |___/                            ")
        user = raw_input('[-] PLEASE INPUT YOUR USERNAME:')
        passwd = raw_input('[-] PLEASE INPUT YOUR PASSWORD:')
        PAGECOUNT = raw_input('[-] PLEASE INPUT YOUR SEARCH_PAGE_COUNT(eg:10):')
        queryType = raw_input('[-] PLEASE INPUT YOUR SEARCH_TYPE(eg:web/host):')
        queryStr = raw_input('[-] PLEASE INPUT YOUR KEYWORD(eg:tomcat):')
        Login(user,passwd)
        search(queryType,queryStr,PAGECOUNT,user,passwd)
    if __name__ == '__main__':
        main()
    
    
    
    

    在这里插入图片描述
    在这里插入图片描述

    0x03 ShoDanAPI脚本编写
    在这里插入图片描述

    Shodan是互联网上最可怕的搜索引擎。
    CNNMoney的一篇文章写道,
    虽然目前人们都认为谷歌是最强劲的搜索引擎,
    但Shodan才是互联网上最可怕的搜索引擎。
    与谷歌不同的是,Shodan不是在网上搜索网址,
    而是直接进入互联网的背后通道。
    Shodan可以说是一款“黑暗”谷歌,
    一刻不停的在寻找着所有和互联网关联的服务器、摄像头、打印机、路由器等等。
    每个月Shodan都会在大约5亿个服务器上日夜不停地搜集信息。
    Shodan所搜集到的信息是极其惊人的。
    凡是链接到互联网的红绿灯、安全摄像头、家庭自动化设备以及加热系统等等都会被轻易的搜索到。
    Shodan的使用者曾发现过一个水上公园的控制系统,一个加油站,甚至一个酒店的葡萄酒冷却器。

    而网站的研究者也曾使用Shodan定位到了核电站的指挥和控制系统及一个粒子回旋加速器。

    Shodan真正值得注意的能力就是能找到几乎所有和互联网相关联的东西。
    而Shodan真正的可怕之处就是这些设备几乎都没有安装安全防御措施,其可以随意进入。

    0x04 简易BaiduURL采集脚本编写

    0x05 【彩蛋篇】论坛自动签到脚本

    在这里插入图片描述

    展开全文
  •  相对于其他营销方式,Q营销成本极为低廉,却可以更为直接、准确的找到群体性的目标客户,然后有针对性地进行信息推送、完成营销行为,因为QQ成员是精准的潜在客户。基于目前的Q营销需求,安赛科技正式推出A+...
  • 顺风QQ全能营销王 v1.2

    2019-11-05 13:20:36
    自动采集全国QQ群号码!3.自动加QQ好友!(批量自动切换QQ号加QQ好友功能)4.自动加指定好友!(批量自动切换QQ号加指定QQ好友功能)5.自动加QQ群!6.自动提取QQ好友(可导出)7.自动提取QQ群成员(可导出群成员号码和群成员...
  • Ecshop淘宝评论采集与销售记录同步插件1淘宝的商品评论任意抓取。淘宝集市、商城都是浮云,要多少有多少,一键直接成为你的真实评论。2商品太多怎么办? 有批量功能,一键导入,全站不重复。3销售记录同步生成,要...
  • 【全自动签到/留言/评论/留痕/发日志/改资料】空间全自动登录 空间签到 空间留言 日志/说说评论 相册/相片分享 空间互踩(留痕) 批量提取成员/好友 批量采集QQ帐号 完美的参数设置 多线程操作 多文本随机发送 多种...
  • 推荐与智者软件出品的:智者QQ采集器、《QQ空间说说采集器》、QQ日志评论推广专家、《QQ空间批量留言专家》等配合使用!  使用必须安装Microsoft .NET Framework v2.0!WIN7默认自带无需下载!
  • 按条件批量采集空间数据 软件支持按关键字,地域,年龄,性别条件采集QQ,让你的营销更加有的放矢,让你的产品推广更加事半功倍! QQ空间日志评论 支持陌生人空间评论 软件可以自动筛选具有评论回复权限的空间,...
  • QQ群: 624054633 Email: blog: 架构 APP: 接入skyeye-client的系统会通过kafkaAppender向kafka写入日志 es-indexer-group: kafka的es消费组,读取kafka的数据并批量bulk到es monitor-group: kafka的监控消费组,app...
  • 批量输入关键词、根据关键词、加方式进行过滤,筛选群号 良心短链接功能 可编辑短链接使用说明 可编辑、可修改、防红、可收款 一个短链对应多个长链接 在线markdown编辑器 markdown在线编辑器 一款基于edit
  • 优享淘客助手 v1.5

    2019-11-05 01:11:12
    QQ群自动发布等功能。(提醒:每个阿里妈妈账号采用独有数据库,采集或发布商品信息登陆阿里妈妈账户)一、批量采集 1.U站采集:可通过设置关键字、佣金比例、商品现价、30天推广量、30天佣金额五个参数采集你所需要...
  • Blairl多功能群发系统

    2011-07-02 10:09:25
    一、邮件海量群发:可...六、快速提取QQ群成员账号:软件成功的应用了采集提取功能相结合。完全可以在短时间内提取出群里每一位成员的邮箱账号 七、批量挂QQ:一次性登入批量QQ,彻底打破一台电脑只挂10个QQ号的瓶颈
  • 需要的朋友们赶紧下载试试吧叮咚微信内部软件功能: QQ在线采集,精准数据,智能导出 QQ登录,Q成员提取,识别男女,智能导出 微信批量检测功能,智能区分开通和未开通,QQ区分男女功能, 移动,联通,电信,号码...
  • 3、登陆后台,点击程序注册,输入您的域名及注册码(采集插件注册码申请联系QQ群:84043281),安装完成! 软件采集教程: 1、登陆新云后台。 2、进行采集测试必须先创建分类。点击下载频道>>新建软件分类 3、点击采集...
  • QQ群:124867090、147976428、4624706(软件购买、使用咨询、定制开发等事宜请联系群主) 官方微博:http://weibo.com/AmrLab   七、应用领域 1. 淘宝客站点:通过采集现有的淘宝客站点,或者淘宝的某个子站点,...
  • 最爱电影网1.0版带采集 主要更新功能如下: 1、增加影片数量统计函数。 2、改进侧边栏及首页列表第一数据是否显示图片的函数。 3、加入AJAX留言插件。 4、加入AJAX评论插件,后台可设置是否开启,后台可分别按IP,...
  • DedeCMS友情链接批量管理系统(备选) - 可批量管理众多网站的友情链接   被卸载的模块列表: 会员模块(关闭了会员注册功能,不影响管理员账号使用) 投票模块 留言薄模块 挑错模块 购物车模块 评论模块 ...
  • DedeCMS友情链接批量管理系统(备选) - 可批量管理众多网站的友情链接   被卸载的模块列表: 会员模块(关闭了会员注册功能,不影响管理员账号使用) 投票模块 留言薄模块 挑错模块 购物车模块 评论模块 ...
  • 考虑到站群网站一般只作内容更新,大多功能都用不上,所卸载的模块较多,如有其它要求可联系我QQ:79702151,进行反馈,该程序由织梦管理员之家维护更新! 已整合的程序和接口: 采集侠 - DEDECMS站群首选内容...
  • 所以,经过内部讨论,也考虑了QQ群内兄弟们的意见,决定发布全功能版的08年黑色风格程序,来帮助广大喜欢做DJ站的站长朋友们能够快速的建立起自己的DJ网站!希望广大站长朋友会喜欢她!爱护她!让我们一起走向成功!...

空空如也

空空如也

1 2 3
收藏数 42
精华内容 16
关键字:

qq群批量采集