精华内容
下载资源
问答
  • 代理IP网页源码

    千次阅读 2009-11-26 14:57:00
    昨晚帮龙哥写了这样一个程序,也没有什么太高深的“技术”,希望哪位友友能更新一下吧! (只怪自己算法基础不好,不然也写个简单的正则表达式什么的,直接抓取网页中的代理地址~~) 1、部分VC源码:下面While处的...

     昨晚帮龙哥写了这样一个程序,也没有什么太高深的“技术”,希望哪位友友能更新一下吧!

     

    (只怪自己算法基础不好,不然也写个简单的正则表达式什么的,直接抓取网页中的代理地址~~)

     

    1、部分VC源码:

    下面While处的代码容易造成程序假死,你也可以直接删除这个等待加载的循环:

     

    2、程序运行界面:

     

    3、VC源代码下载:

    官方下载:http://download.csdn.net/source/1848398

    展开全文
  • 使用代理文章阅读量

    千次阅读 2018-05-18 23:03:14
    time.sleep(60) #时间过小不能实现准确的阅读量(10) try: req = requests.get(url,headers =header,proxies=proxy_ip) soup = BeautifulSoup(req.text,'lxml') view = soup.select('#mainBox > main > div....
    思路:通过免费代理网站获取多个代理IP,利用requests库获取网页内容,get()方法请求携带proxies参数,通过bs4库解析网页。
    #coding=utf-8
    
    import random
    import re
    import time
    import requests
    from bs4 import BeautifulSoup
    
    class ProxyHandler(object):
        def __init__(self):
            self.user_agent_list = [
                "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
                "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
                "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
                "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
                "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1"
            ]
            # 获取代理地址的网址
            self.proxy_get_url = 'http://www.xicidaili.com'
            # 目标地址
            self.visit_url = 'https://blog.csdn.net/t1623183652/article/details/73292150'
            # 获取能用的代理集合
            self.proxy_list = []
            # 请求超时时间为100s
            self.timeout = 100
    
        def get_proxy_list(self):
            '''
            解析得到需要的代理列表数据
            :return:
            '''
            # 从self.user_agent_list中随机取出一个字符串
            UA = random.choice(self.user_agent_list)
            print('随机产生的UA是====%s' % UA)
            headers = {
                'User-Agent': UA
            }
            response = requests.get(url=self.proxy_get_url, headers=headers, timeout=self.timeout)
            html = response.text
            # 获取<td></td>里面的所有内容
            list = re.findall(r'<td>(.*?)</td>', html)
            for index in range(int(len(list) / 6)):
                http = list[index * 6 + 3]
                ip = list[index * 6]
                port = list[index * 6 + 1]
                # 过滤掉一些socket连接
                if re.search(r'(HTTP|HTTPS)', http) is None:
                    continue
                proxy = '%s://%s:%s' % (http.lower(), ip, port)
                self.proxy_list.append(proxy)
            return (self.proxy_list)  #80个代理ip
    
        #获取文章的阅读量
        def readnum(self,url,header,proxy_ip):
            for i in range(5):
                time.sleep(60) #时间过小不能实现准确的刷阅读量(10)
                try:
                    req = requests.get(url,headers =header,proxies=proxy_ip)
                    soup = BeautifulSoup(req.text,'lxml')
                    view = soup.select('#mainBox > main > div.blog-content-box > div.article-info-box > div > div > span')[0].getText()
                    print("第%d次:阅读量%s" %(i+1,view))
                except requests.exceptions.ConnectionError:
                    print ("ConnectionError")
    
    if __name__ == '__main__':
        proxy_handler = ProxyHandler()
        proxy_list=proxy_handler.get_proxy_list()
        print (proxy_list)
        proxy_ip={
            'http':random.choice(proxy_list).split(r"//")[1]
        }
    
        url =('https://blog.csdn.net/relocy/article/details/51533302')
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'}
        proxy_handler.readnum(url,header,proxy_ip)
    
    

    展开全文
  • 好羞耻地写下这篇博客,不过大家一看博主这可怜的访问量,就知道博主十足好孩子!!!呵呵,莫道石人一只眼,挑动黄河天下反 首先了解一下常见反爬虫的检测方法 频率监测:有些网站会设置一种频率监测的机制,对于...

    好羞耻地写下这篇博客,不过大家一看博主这可怜的访问量,就知道博主十足好孩子!!!呵呵,莫道石人一只眼,挑动黄河天下反
    首先了解一下常见反爬虫的检测方法

    频率监测:有些网站会设置一种频率监测的机制,对于同一IP,若在一定时间内访问的速度超过了设置的阈值,那么便会判定该IP的源头是一个爬虫机器人,从而限制访问频率或暂时禁止IP对其的访问

    频数监测:与1有些类似,但是是对用户访问页面的数量进行统计,并在监测结果超过阈值后进行限制操作

    Headers识别:这里常用的是对UA的识别和对Referer的判断。User-Agent是用户所使用的操作系统以及浏览器的标识。Referer表示请求是从哪个链接而来的。
    这里我们随机了UA,对于headers里面的Referer一样可以随机化,做法和user_agent一样,伪装地越好,被抓概率越小
    废话不多说,上代码……

    # -*- coding: utf-8 -*-
    import urllib2
    import requests
    import time
    import random
    #定义代理列表,以便使用随机代理访问,
    user_agent_list=[
                'Mozilla/5.0(compatible;MSIE9.0;WindowsNT6.1;Trident/5.0)',
                'Mozilla/4.0(compatible;MSIE8.0;WindowsNT6.0;Trident/4.0)',
                'Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)',
                'Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Version/11.11',
                'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1',
                'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER',
                'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)',
                'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0',
                'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36',  
                'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36' 
    ]
    #url列表,包含要访问的网站
    url_list=[
            'https://blog.csdn.net/qq_41011336/article/details/83213550',
            'https://blog.csdn.net/qq_41011336/article/details/83211781',
            'https://blog.csdn.net/qq_41011336/article/details/83009231',
            'https://blog.csdn.net/qq_41011336/article/details/82984319',
            'https://blog.csdn.net/qq_41011336/article/details/82982616',
            'https://blog.csdn.net/qq_41011336/article/details/82591545',
            'https://blog.csdn.net/qq_41011336/article/details/83217577',
            'https://blog.csdn.net/qq_41011336/article/details/83016709',
            'https://blog.csdn.net/qq_41011336/article/details/83015986',
            'https://blog.csdn.net/qq_41011336/article/details/82785311',
            'https://blog.csdn.net/qq_41011336/article/details/82498124',
            'https://blog.csdn.net/qq_41011336/article/details/82528008',
            'https://blog.csdn.net/qq_41011336/article/details/83216791'
            
            ]
    
    #生成ip地址列表,以便使用代理ip访问,这里ip地址从txt文档中读取
    def get_proxy_ip_list():
        global proxy_list
        proxy_list=[]
        proxy_ip_list=[]
        print "导入proxy_list..."
        f=open("C:\Users\Administrator.USER-20160909TG\Desktop\ip1.txt")
        line=f.readline().strip('\n')
        while line:
            proxy_list.append(line)
            line=f.readline().strip('\n')
        f.close()
        for i in range(len(proxy_list)):
            ip = 'http://' + proxy_list[i]
            proxy_ip_list.append(ip)
        return proxy_ip_list
    #另一种生成ip地址列表的方法,这里ip地址直接写在函数中的ip_list中
    def get_proxy_ip_list2():
        global proxy_ip_list2
        proxy_ip_list2=[]
        ip_list=['61.135.217.7:80','118.190.95.35:9001','112.115.57.20:3128','124.235.181.175:80']
        for i in range(len(ip_list)):
            ip = 'http://' + ip_list[i]
            proxy_ip_list2.append(ip)
        print proxy_ip_list2
        return proxy_ip_list2  
        
    #生成爬虫,爬取网页    
    def visit(url,headers,proxies):
        times=0
        while(1):
            url=random.choice(url_list)
            header={'User_Agent':random.choice(user_agent_list)}
            proxy={'http':random.choice(proxies)}
            try:
                #print '%s%s%s'%(url,header,proxy)
                res=requests.get(url,headers=header,proxies=proxy)
                print res.headers
            except:
                print'wrong'
                time.sleep(0.1)
            else:
                print'visit %d times'%times
                time.sleep(random.random())
                #time.sleep(15)
                times+=1 
            if times%20==0:
                time.sleep(15)
            
    if __name__=="__main__":
        get_proxy_ip_list2()
        visit(url_list,user_agent_list,proxy_ip_list2)
    
    展开全文
  • 这几天朋友参加比赛需要,就写了个脚本帮忙投票. 我们首先来到要投票的网站上来看看。 随便找一个投上一票 居然不用登陆,当然是每个IP只能投一票。 打开Chrome dev tools, 看一下 Get请求。 那直接把Request ...

    这几天朋友参加比赛需要,就写了个脚本帮忙刷投票.
    我们首先来到要投票的网站上来看看。
    随便找一个投上一票

    这里写图片描述
    居然不用登陆,当然是每个IP只能投一票。
    打开Chrome dev tools, 看一下
    Get请求。
    那直接把Request URL复制下来,这个就是用于刷票的URL  微信拓客
    按理来说只要把这个URL 发给任何一个人诱惑他点开,就是帮你投票了。

    这里写图片描述
    他返回了一个Json数据格式。告诉我们已经投过票了。

    然后我们登VPN 换一个IP 试试看。

    这里写图片描述
    Json “Total” 名称 就是当前的票数。“result”为true 显然告诉我们投票成功了。
    那的确是这样的。

    然后想要刷票呢,我们需要找一些开放HTTP代理的IP。我找了半天然后推荐这个网站 可以直接抓取IP到这种格式。

    这里写图片描述

    然后接下来就是写脚本了。
    由于我没有长期接触过Python 网络方面的编程。以前也只是看着用Requests库爬了一些小网站的数据。

    可以先看下这篇博文

    #coding=utf-8
    import urllib2
    import urllib
    import re
    import threading
    import sys
    from time import ctime
    import time
    rlock = threading.RLock()
    def vote(proxyIP,i,urls):
        try:
            #print "voting...%d..." % i
            #使用代理IP
            proxy_support = urllib2.ProxyHandler(proxyIP)
            opener = urllib2.build_opener(proxy_support, urllib2.HTTPHandler)
            #定义Opener
    
            urllib2.install_opener(opener)
            #把opener绑定到全局
    
            sendt = '投票'.decode('utf-8').encode('gb2312')
    
            #设置刷票地址
            #post数据bn
            values = {}
            req = urllib2.urlopen(urls)
            #直接打开这个URL
            html = req.read()
            #读取返回数据
            if html.find('true'.decode('utf-8').encode('gb2312')):
                print "投票 [%d] 成功" % i
                return 1
            else:
                print "投票 [%d] 失败" % i
                return 0;
        except Exception:
            return False
    
    if __name__ == "__main__":
        args = sys.argv
        if(len(args) == 3):
            ipFile = open(args[1]);
            ipList = ipFile.readlines()
            ipFile.close()
            length = range(len(ipList))
            threads = []
            for i in length:
                ipLine = ipList[i]
    
                ip=ipLine.strip()
                proxy_ip = {'http': ip}
                t = threading.Thread(target=vote,args=(proxy_ip,i,args[2]))
                print "get ",args[2],ip
                threads.append(t)
            for i in length:
                threads[i].start();
                if i%100:
                    time.sleep(5)
                    #每100个线程等待 5秒
            for i in length:
                threads[i].join()
    
        else:
            print """刷票工具
                    python brush.py IP文件 Get地址:
    
                    """

    然后我们运行来看看结果
    原来的票数

    这里写图片描述

    运行了15分钟之后

    这里写图片描述

    微信刷投票软件

     

     

     

    展开全文
  • 我用Python写自动代理服务IP的经过

    千次阅读 2016-03-26 21:23:45
    应朋友要求实现一个动态切换代理服务器IP的功能,朋友只发了一个博客链接给我,用Python做的,当时我对Python并不熟悉,但是那篇博客中的思路确实很清晰,于是决定安装Python,按照博客的思路,一步一步的走下去。...
  • 上次充值短信条数不少, 好像比计划提早很多用完,是否有被盗的情况 ? 新昕科技:使用短信风控防火墙+短信路由 1. 可以确保短信验证码不被盗, 2. 云控制台可以实时展现发送短信的详细数据, 3. 短信路由...
  • 这几天朋友参加比赛需要,就写了个脚本帮忙刷票. 我们首先来到要投票的网站... 随便找一个投上一票 ... 打开Chrome dev tools, 看一下 Get请求。 那直接把Request URL复制下来,这个就是用于刷票的URL ...告诉我们已经
  •  上面几步完成后试着了一下,发现太快系统会返回“投票失败,疑似刷票”的提示,又调整了一下间隔时间。可过了两天,突然又不好使了,几番分析,发现是加了IP限制。找代理比较麻烦,所以就用宽带重连的方法不停...
  • 我们都知道很多社交网络可以粉,也可以阅读量。所以,我们经常会看到很多记者报道过这样的灰色产业链的新闻。 你也许很好奇,这些技术都是怎么实现的? 在这个流程里,需要有下面三个准备: 1.多个手机号 ...
  • 源码介绍: 代刷网刷订单量源码,上传即可使用 网盘下载地址: http://www.bytepan.com/T6yk00KelAf 图片:
  • 上周写了一个腾讯旗下的一个小说网站的自动回帖程序:  具体怎么实现的呢? ...再结合爬虫的相关技术具体实现。大概分为这么几步: ... 第一步:先找到评论接口: ... 使用chrome或者火狐浏览器,或者专业点的fiddler...
  • 【教程】爱玩吧QQ空间说说怎么秒赞教程 说明: 首先添加一个QQ账号,添加完成后回到本页面,点击你的QQ号码进入任务列表,在任务列表里可以添加秒赞、秒评、自动说说、QQ机器人等QQ挂机服务。 以后要...
  • 一、从单谈起 一年两度的618和双十一,是电商和剁手党在仲夏和金秋的两场盛宴,也是单党的两场狂欢。竞争与压力之下,单成为了新入商户和低信用商户在官方选择之外速度最快的店铺成长方式。它们按订单价格及...
  • 简单的网络刷票软件制作原理

    千次阅读 2008-12-17 21:18:00
    最近不知道怎么搞的。...虽然是小软件,但是还是从中学到了不少东西。下面简单介绍下我的开发过程,希望对读者有所帮助。 首先要分析目标站点,就从提交页面开始,一般都是一个Form用POST或者GET方式提交到处理页面,...
  • 本来准备写一个空间留言的脚本,然而kb TX,无限循环空间验证码。上午还傻x的学验证码识别,后来才发现根本发不了留言,即使填的是对的,仍然继续弹出。无奈,睡了一觉,开始搞新玩意–代理IP!其实之前就应该用到...
  • 学会用脚本来刷票

    万次阅读 2016-04-23 16:11:36
    今天一同学找到我问我会不会写刷票的软件,因为这个投票活动有别的学院的人用脚本刷票了 我想,天哪,我们计算机学院都还没用脚本呢都被外院抢先了= = 所以研究研究动手写一下 还是老方法,登陆一下抓下包就搞定...
  • 那些在APP榜的公司:为了融资 不也得 发布日期:2012.10.16信息来源:《创业家》杂志    冲榜1.3万元,维护1.5万元/天。  作为丁香园CTO和微博上的活跃份子,冯大辉经常会收到这样...
  • 痛苦的路由器 破校园 小米mini潘多拉

    千次阅读 多人点赞 2019-02-28 16:32:28
    上学期不知道哪位老兄告诉我这学期校园要涨价 然后我就想到了去破解一下路由器实现哆点的一人登陆全寝室使用 说干咱就干,首先就要先找一些资料 怎么 不然就跟没头苍蝇一样 做无用功 但是还好csdn里面有很多...
  • 软件功能:刷流量统计,网站流量IP,博客,投票,排行榜,刷流量交换,贴子人气等等,只要你想得到的都能用他来软件提供了两种的方式 ●每种方式都提供完后自动关机,等自动化功能,无需人工参于非常方便 ●每...
  • 又有多少点击量是靠“单”出来的?这些问题或许很多人并不了解。 淘宝常常能反映出一个产业的供需现状。6月6日,《每日经济新闻》记者在淘宝输入“视频点击量”等关键词搜索发现,视频
  • 什么是代理IP? 代理IP有哪些作用?

    千次阅读 2020-06-10 17:02:39
    随着互联网的普及与高速发展,互联网工作者对于网络的需求也越来越大,例如网络推广营销、数据采集爬取、游戏测试、数据分析等等,都需要使用IP代理。但是相对应的网络安全问题也随之而来。网络诈骗、信息泄露、病毒...
  • 路由器固件

    万次阅读 2018-05-27 21:35:14
    一直以来就有很多朋友问我,路由器要怎么固件,什么路由器才能,怎么? 就以上问题,我今天给大家做出一一详解。 首先,什么路由器可以固件 在这里,我最推荐的是网件和华硕的路由器,梅林固件,效果...
  • 近期抖音播放量怎么、抖音播放量苹果突然走火如何防止量呢?近期,抖音短视频(以下简称抖音),快手、西瓜视频等以发表小视频为主的软件非常火爆,尤其是抖音。火到什么程度呢?APP Store 摄影和录像类应用...
  • Python微信投票源码!用PY实现自动化投票

    万次阅读 多人点赞 2019-04-14 21:55:07
    这几天朋友参加比赛需要,就写了个 Python微信刷票 ...微信刷票   到此就结束了。关于 微信投票 ​​​​​​​软件。更多内容可以看下 : http://tp.gam7.com          
  • 最近在折腾抖音,想抓一些数据,上Fiddler,设置好代理跟安装证书以后,抖音一直提示网络错误。... 解决起来也简单,在安卓里安装Xposed跟JustTrustMe模块就可以了。 ...Xposed到处都有,就不多说了, ...
  • 刷票小程序案例原理剖析(python和java)

    千次阅读 多人点赞 2019-06-01 17:28:42
    这类网站是确实不太好操作,一般是每个账户每天能够若干票。因为账户的资源是有限的,我们很难通过获取大量的账户资源为我们服务。况且,一般的登录稍微大厂或者技术高点其中的js加密会比较复杂,对于普通人js水平...
  • 短信防机制设计

    千次阅读 2018-11-24 17:03:29
    短信验证码可以验证手机号的有效性,短信验证应用的地方越来越多,写这篇博文的原因是因为最近我司最近弄了个H5活动,有个发送短信验证码的功能由于java组没做防机制导致短信被。而他们的解决办法令我匪夷所思,...
  • 82ipHTTP代理提取可按照代理匿性质过滤提取的IP;82ipHTTP代理提取可以按照省市、网络运营商及IP段过滤提取IP,82ipHTTP代理提取客户端可以定时自动化提取到客户指定目录,内置IE代理设置系统,...第一家,定时提取HTTP...
  • bili播放量

    千次阅读 2019-05-31 16:15:06
    需求:bili单个视频的播放量 环境 :python + selenium 相关说明: 打开视频url,页面加载完成,当点击了播放按钮之后认定为一次有效的播放,视频播放量加一,故使用selenium模拟点击 import requests from ...
  • 最近想帮同学一下网络投票,所以想找个轮换代理的软件,没想到网上竟然没有!好不容易找到几个可怜兮兮的资源,不是假的就是有病毒。。。。。。。只能自己动手了。。。。弥补一下网络的空白。。。。。。 现在我以...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 25,376
精华内容 10,150
关键字:

代网刷