精华内容
下载资源
问答
  • Python壁纸下载.zip

    2020-05-11 14:52:31
    Python实现的图片下载工具,可以用来下载第三方网站上的各种图片,修改后可以适用更多的网站图片资源下载
  • 广告关闭腾讯云11.11云上盛惠 ,精选热门产品助力上云,云...usrbinenv python# encoding: utf-8 import os, time, requests, json,refrom retrying import retryfrom urllib import parse class honorofkings:def ...

    o55g08d9dv.jpg广告关闭

    腾讯云11.11云上盛惠 ,精选热门产品助力上云,云服务器首年88元起,买的越多返的越多,最高返5000元!

    h18z2nc6ce.png

    usrbinenv python# encoding: utf-8 import os, time, requests, json,refrom retrying import retryfrom urllib import parse class honorofkings:def __init__(self, save_path=userscuixiaoyandownloads):self.save_path = save_path self.time = str(time.time()).split(.) self.url =https:apps.game.qq.comcgi...

    493gbzw10b.png

    实现思路起初想用c来实现,毕竟设置壁纸需要调用win32 api c可能方便点,但后来发现c处理图片没有标准函数支持,还得找其他库,而且对c也不是特别熟悉,正好最近在看python,就用它练练手吧。 大致思路就是每次开机启动程序,自动计算当前日期,然后在壁纸上计算标记,最后更新壁纸。 其中主要包括两个技术点:1、在...

    今天为大家介绍一个控制windows电脑桌面壁纸的案例,具有很好的参考价值,是在电脑上的注册表做手脚,一直刷新桌面,可以做一个很好的桌面壁纸生成器代码如下:导入第三方库? 头部信息? 循环下载网页图片? 学习从来不是一个人的事情,要有个相互监督的伙伴! 这里推荐一下我们的python学习扣qun:784758214,这里是python...

    8ij237z87n.jpeg

    但是由于系统会自动更换这些图片,所以就算再好看的图片,也许下次开机之后就被替换掉了。 借助python,我们可以用简单的几行代码,批量提取这些精美的锁屏图片。 把喜欢的图片设置成桌面背景,就不用担心被替换掉啦。 提取原理win10系统会自动下载最新的锁屏壁纸,并将他们保存在一个系统文件夹中,路径是:1c...

    最近看了下python,就想着获取下bing的图片,每天定时爬取,保存到本地,可以做背景图片用。 也在网上看了一些其他的例子。 就自己动手写了一个小的爬图片的python脚本。 我们进来来爬取的是必应壁纸的相关实例,代码如下:import reimport osimport requestsfrom time import sleep headers ={ user-agent: (mozilla...

    522r6s576t.jpeg

    大家好,我是朱小五马上就要过年了,要不要换一个喜气洋洋、洋洋洒洒、洒扫应对、对牛弹琴的手机壁纸呢? 今天小五给大家表演的节目是:用python生成自己独一无二的手机壁纸。 首先我们需要选择一个现成的手机壁纸作为模板,我选择了这种以自己姓氏为主题的专属手机壁纸。? 这其实是个之前迎接跨年的手机壁纸,先利用...

    ▼更多精彩推荐,请关注我们python新手入门指引python快速入门(一)python分析红楼梦,宝玉和十二钗的人物关系带你了解一下神奇的github...爬虫分析今天我们的目的是爬取英雄联盟所有英雄的皮肤壁纸,然后下载到本地。 首先我们要找到皮肤壁纸网页地址:? 在英雄联盟首页>游戏资料>英雄 网页中...

    i34jd7dr5h.png

    (点击图片打开属性)? 7 小结1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。 2、本文基于python网络爬虫,利用爬虫库,获取wallhaven4k壁纸。 3、4k的壁纸下载时可能会有点缓慢,请大家耐心的等待。 如果图片的地址不一样,需要自己修改一下图片的保存的地址。 4、大家也可以在wallhaven网址上,寻找...

    ps93bohre3.jpeg

    用来作为桌面壁纸是非常好看的,我们可以保存下来的,在上图中,我们点击桌面,如果电脑较慢的话,会有 1-2 秒的间隔才会弹出输入密码框,在这期间,可按 prscr 键截屏,在通过文件助手发送,保存就可以得到精美壁纸了。 这种方法小编用了一段时间后,现在截屏经常截不了了,所以小编使用 python 批量转化后保存到...

    8uf1ce82at.jpeg

    但是由于系统会自动更换这些图片,所以就算再好看的图片,也许下次开机之后就被替换掉了。 借助python,我们可以用简单的几行代码,批量提取这些精美的锁屏图片。 把喜欢的图片设置成桌面背景,就不用担心被替换掉啦。 提取原理win10系统会自动下载最新的锁屏壁纸,并将他们保存在一个系统文件夹中,路径是c...

    caogj05rgb.png

    autopy是一个自动化操作的python库,可以模拟一些鼠标、键盘事件,还能对屏幕进行访问,本来我想用win32api来模拟输入事件的,发现这个用起来比较简单,最...当你输入一张图片时,它会把与这张图相似的图像都给你呈现出来,所以当你找到一张中意的图想做壁纸又觉得太小的时候,基本可以用这个方法找到合适的~我们...

    pv815e0txe.png

    时间在流逝 每一天 都值得认真对待 文章目录一、前言王者荣耀这款手游,想必大家都玩过或听过,游戏里英雄有各式各样的皮肤,制作得很精美,有些拿来做电脑壁纸它不香吗。 本文带你利用python爬虫一键下载王者荣耀英雄皮肤壁纸。 1. 目标创建一个文件夹, 里面又有按英雄名称分的子文件夹保存该英雄的所有皮肤图片url...

    apk91dh3lz.jpeg

    星标行哥,为你带来更多好玩的python应用初级版本使用ctypes工具包,一行python代码指定壁纸图片的路径(修改函数里的第三个参数),即可更换你的电脑桌面importctypesctypes.windll.user32.systemparametersinfow(20, 0, “c:杨超越_4.jpeg”,0) # 设置桌面 ? 中阶版本将所有想设置成电脑桌面的壁纸图片放到同一个...

    ka7y8prnfi.jpeg

    前言python现在非常火,语法简单而且功能强大,很多同学都想学python! 所以小的给各位看官们准备了高价值python学习视频教程及相关电子版书籍,欢迎前来领取! 简介壁纸的选择其实很大程度上能看出电脑主人的内心世界,有的人喜欢风景,有的人喜欢星空,有的人喜欢美女,有的人喜欢动物。 然而,终究有一天你已经...

    picture-4这样我们就完成了一个简易版的壁纸爬虫,为什么说是简易版呢,理由如下:图片太小了,根本不能用作壁纸(其实是我偷懒了( ̄▽ ̄)),要获取高清壁纸的话,还需要点击图片进入下一个页面,简单起见我直接爬了首页的缩略图。 不能自动翻页,运行一次只能下载一页的图片,翻页可以获取网页中下一页的链接...

    5k6ziskdb9.png

    1前言在上周的文章中,小编给大家讲了python gui编程,做了一个有趣的“消息轰炸机”,如果想发给朋友用怎么办呢? 所以今天,小编就通过实战来让大家学会用pyinstaller打包带有资源文件的python文件。 2准备安装pyinstaller就不用说了,前面基础篇也给大家介绍过,直接在命令行运行以下代码即可。 pip install py...

    ul0pt3upiw.png

    1前言众所周知,python是一种脚本语言,python程序必须在python环境下运行,所以如果想把自己写的程序给别人看的话,就比较麻烦,他需要先配置python环境,对于电脑小白来说这是“要命”的事情。 而且如果是客户的话,也不想让对方知道源代码,那么怎样才能既保留自己的源代码同时又能让对方很方便的使用自己的程序呢...

    c3g58qygu6.jpeg

    html=response.content.decode() #得到的html是json文件格式的内容,所以之后用json提取数据 html=json.loads(html) rep=htmlprint(翻译的结果:,rep)代码写完了,最后之差将代码转化为桌面程序。 那么如何实现呢? 打包exe这里我们需要安装python的另外两个第三方库pywin32和pyinstaller,安装的具体操作我们不详细...

    还是在为 python 桌面应用制作原生 ui ,或者是在优化现有的 python 代码,以下这些 python 项目都是应该使用的。 python 凭借其易用的特点,已经被工业界和学术界广泛采用。 另一方面,python 丰富的第三方项目——库、附加组件,和辅助的开发成果——使得 python 语言的应用范围被不断扩大。 其中一些项目,比如 py...

    arzyqcgtfd.jpeg

    还是在为 python 桌面应用制作原生 ui ,或者是在优化现有的 python 代码,以下这些 python 项目都是应该使用的。 python 凭借其易用的特点,已经被工业界和学术界广泛采用。 另一方面,python 丰富的第三方项目——库、附加组件,和辅助的开发成果——使得 python 语言的应用范围被不断扩大。 其中一些项目,比如 py...

    展开全文
  • My Little Wallpaper-适用于Linux的Python壁纸切换器 我的小壁纸随机壁纸切换器。 当前支持的桌面环境/窗口管理器: gnome -Unity,Gnome和Cinnamon fluxbox -Fluxbox,Openbox,JWM,AfterStep(需要fbsetbg ,...
  • 主要为大家详细介绍了python requests+pywin32实现桌面壁纸切换,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  • 异步Python壁纸爬虫

    2020-12-17 16:44:14
    My Blog:https://www.saky.site 欢迎来玩哈打造一个壁纸爬虫来爬你的老婆/老公吧!...Python包alphacoders是一个可以从Alpha Coders壁纸站上抓取图片的工具。pip install alphacoders注意:仅支...

    My Blog:https://www.saky.site  欢迎来玩哈

    打造一个壁纸爬虫来爬你的老婆/老公吧!!!

    本次爬取的为 Alpha Coders壁纸站 ,壁纸充足质量高且画幅大,并且提供简单的检索功能。

    当然手工下载是不可能的,爬虫不香吗 !

    Python包alphacoders是一个可以从Alpha Coders壁纸站上抓取图片的工具。

    pip install alphacoders

    注意:仅支持3.7版本

    它提供了非常简(chou)单(lou)的命令行工具

    python -m alphacoders miku --limit=30

    其中,miku 替换为你要下载的壁纸名称,必须英文, limit=下载的壁纸数量 ,limit=30即为下载30张图片。

    默认将在运行它的路径下创建miku文件夹

    Python包源码:https://github.com/whoiscc/alphacoders

    商业转载请联系作者获得授权,非商业转载请注明出处。

    For commercial use, please contact the author for authorization. For non-commercial use, please indicate the source.

    知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议

    www.saky.site/2020/05/12/python-reptile/

    展开全文
  • 下载安装Python3 官网下载即可,选择合适的版本:https://www.python.org/downloads/ 安装一直下一步即可,记得勾选添加到环境变量。 安装pypiwin32 执行设置壁纸操作需要调用Windows系统的API,需要安装pypiwin32...
  • Python爬虫,高清美图我全都要(彼岸桌面壁纸

    万次阅读 多人点赞 2020-03-30 11:13:49
    推荐自己的专栏:玩一玩爬虫咯 本人比较喜欢收集壁纸,发现彼岸桌面壁纸唯美分类下的壁纸,我都很喜欢;于是写了个爬虫,后来发现整个网站的网页结构基本一致,于是加了点代码,把整个网页的高清壁纸都爬下来了 文章...
     
    

    本人比较喜欢收集壁纸,发现彼岸桌面壁纸唯美分类下的壁纸,我都很喜欢;于是写了个爬虫,后来发现整个网站的网页结构基本一致,于是加了点代码,把整个网页的高清壁纸都爬下来了

    目录一:概览

    在电脑上,创建一个文件夹用来存放爬取彼岸桌面的图片

    此文件夹下有25个文件夹,对应分类
    在这里插入图片描述
    每个分类文件夹下有若干个文件夹,对应页码
    在这里插入图片描述
    页码文件夹下,存放图片文件

    目录二:环境准备

    还需要使用三个第三方包(有兴致的可以看看官方文档)

    • requests:通过http请求获取页面,官方文档
    • lxml:是python的一个解析库,支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高,官方文档
    • Beautiful Soup4:可以从HTML或XML文件中提取数据,官方文档

    在终端中分别输入以下pip命令,安装它们

    python -m pip install beautifulsoup4
    python -m pip install lxml
    python -m pip install requests
    

    目录三:分析页面结构

    • 因为我的电脑的分辨率为1920 × 1080,所以我爬取的图片的分辨率为此
    • 彼岸桌面壁纸提供了许多分类供我们浏览:日历、动漫、风景、美女、游戏、影视、动态、唯美、设计…

      4k分类下的壁纸是该网站收益的重要资源,而且我没有4k壁纸的需求,对其不进行爬取

      CSS选择器:#header > div.head > ul > li:nth-child(1) > div > a,定位到包裹分类的a标签

    我以唯美分类下的壁纸,来讲解接下来怎么爬取图片
    在这里插入图片描述

    1. 总共有73页,除了最后一页,每页有18张图片

      但是在代码中我们最好需要自动获取总页码,嗯,彼岸桌面壁纸网站的结构是真的舒服,基本上每个页码的HTML结构都是类似的

      CSS选择器:div.page a,定位到包裹页码数的a标签,只有6个
    2. 并且每页的第三张图片都是一样的广告,需要在代码中把它过滤掉
    3. 每个分页的超链接很清晰:http://www.netbian.com/weimei/index_x.htm
      x 恰好为该页的页码
    4. 注意:在分类下看到的图片是略缩图,分辨率都较低;要得到1920 × 1080分辨率的该图,需要进行两次跳转

    以下图为例

    在分类页面中我们可以直接获取该图片的url,但很可惜,它的分辨率并不令人满意;
    通过检查,很明显的看到,在分类页中展示的每一个图片都指向另一个超链接
    在这里插入图片描述
    CSS选择器:div#main div.list ul li a,定位到包裹图片的a标签
    点击该图片,第一次跳转,转到新的链接,页面中显示有下列内容:
    在这里插入图片描述
    CSS选择器:div#main div.endpage div.pic div.pic-down a,定位到包裹图片的a标签

    点击下载壁纸(1920 × 1080)的按钮,第二次跳转,转向一个新的链接,终于达成目的,该链接中显示的图片的分辨率为 1920 × 1080

    一波三折,终于给我找到了该图片的1920 × 1080高清图

    CSS选择器:div#main table a img,定位到该图片的img标签

    经过本人爬取检验,其中有极个别图片由于很多零碎的问题而下载失败,还有少部分图片因为网站虽然提供1920 × 1080分辨率的下载按钮却给的其它分辨率

    目录四:代码分析

    • 下文中凡是 红色加粗内容,请按照我的解释,根据自身情况进行修改

    第一步:设置全局变量

    index = 'http://www.netbian.com' # 网站根地址
    interval = 10 # 爬取图片的间隔时间
    firstDir = 'D:/zgh/Pictures/netbian' # 总路径
    classificationDict = {} # 存放网站分类子页面的信息
    
    • index ,要爬取网页的网站根地址,代码中爬取图片需要使用其拼接完整url
    • interval,我们去爬取一个网站的内容时要考虑到该网站服务器的承受能力,短时间内爬取该网站大量内容会给该网站服务器造成巨大压力,我们需要在爬取时设置间隔时间
      单位:秒
      由于我要爬取彼岸桌面网站的全部高清图片,若集中在短时间内爬取,一方面会给网站服务器巨大的压力,一方面网站服务器会将我们的链接强制断掉,所以我设置的每张图片爬取时间间隔为10秒;如果你只是爬取少量图片,可以将间隔时间设置的短点
    • firstDir,爬取图片存放在你电脑上的根路径;代码中爬取图片时,在一级目录下会按照彼岸桌面唯美分类下的分页页码生成文件夹并存放图片
    • classificationDict,存放网站下分类指向的url、对应的分类文件夹路径

    第二步:获取页面筛选后的内容列表

    写一个函数,获取页面筛选后的内容数组

    • 传进来两个参数
      url:该网页的url
      select:选择器(与CSS中的选择器无缝对接,我很喜欢,定位到HTML中相应的元素)
    • 返回一个列表
    def screen(url, select):
        html = requests.get(url = url, headers = UserAgent.get_headers()) # 随机获取一个headers
        html.encoding = 'gbk'
        html = html.text
        soup = BeautifulSoup(html, 'lxml')
        return soup.select(select)
    
    • headers,作用是假装是个用户访问该网站,为了保证爬虫的成功率,每一次爬取页面随机抽取一个headers
    • encoding ,该网站的编码

    第三步:获取全部分类的url

    # 将分类子页面信息存放在字典中
    def init_classification():
        url = index
        select = '#header > div.head > ul > li:nth-child(1) > div > a'
        classifications = screen(url, select)
        for c in classifications:
            href = c.get('href') # 获取的是相对地址
            text = c.string # 获取分类名
            if(text == '4k壁纸'): # 4k壁纸,因权限问题无法爬取,直接跳过
                continue
            secondDir = firstDir + '/' + text # 分类目录
            url = index + href # 分类子页面url
            global classificationDict
            classificationDict[text] = {
                'path': secondDir,
                'url': url
            }
    

    接下来的代码,我以唯美分类下的壁纸,来讲解怎么通过跳转两次链接爬取高清图片

    第四步:获取分类页面下所有分页的url

    大部分分类的分页大于等于6页,可以直接使用上面定义的screen函数,select定义为div.page a,然后screen函数返回的列表中第6个元素可以获取我们需要的最后一页页码

    但是,有的分类的分页小于6页,
    比如:

    需要重新写一个筛选函数,通过兄弟元素来获取

    # 获取页码
    def screenPage(url, select):
        html = requests.get(url = url, headers = UserAgent.get_headers())
        html.encoding = 'gbk'
        html = html.text
        soup = BeautifulSoup(html, 'lxml')
        return soup.select(select)[0].next_sibling.text
    

    获取分类页面下所有分页的url

    url = 'http://www.netbian.com/weimei/'
    select = '#main > div.page > span.slh'
    pageIndex = screenPage(secondUrl, select)
    lastPagenum = int(pageIndex) # 获取最后一页的页码
    for i in range(lastPagenum):
        if i == 0:
            url = 'http://www.netbian.com/weimei/index.htm'
        else:
            url = 'http://www.netbian.com/weimei/index_%d.htm' %(i+1)
    

    由于该网站的HTML结构非常清晰,所以代码写起来简单明了

    第五步:获取分页下图片所指url

    通过检查,可以看到获取到的url为相对地址,需要将其转化为绝对地址

    select = 'div#main div.list ul li a'
    imgUrls = screen(url, select)
    

    通过这两行代码获取的列表中的值,形如此:

    <a href="/desk/21237.htm" target="_blank" title="星空 女孩 观望 唯美夜景壁纸 更新时间:2019-12-06"><img alt="星空 女孩 观望 唯美夜景壁纸" src="http://img.netbian.com/file/newc/e4f018f89fe9f825753866abafee383f.jpg"/><b>星空 女孩 观望 唯美夜景壁纸</b></a>
    
    • 需要对获取的列表进行处理
    • 获取a标签中的href属性值,并将其转化为绝对地址,这是第一次跳转所需要的url

    第六步:定位到 1920 × 1080 分辨率图片

    # 定位到 1920 1080 分辨率图片               
    def handleImgs(links, path):
        for link in links:
            href = link.get('href')
            if(href == 'http://pic.netbian.com/'): # 过滤图片广告
                continue
    
            # 第一次跳转
            if('http://' in href): # 有极个别图片不提供正确的相对地址
                url = href
            else:
                url = index + href
            select = 'div#main div.endpage div.pic div.pic-down a'
            link = screen(url, select)
            if(link == []):
                print(url + ' 无此图片,爬取失败')
                continue
            href = link[0].get('href')
    
            # 第二次跳转
            url = index + href
    
            # 获取到图片了
            select = 'div#main table a img'
            link = screen(url, select)
            if(link == []):
                print(url + " 该图片需要登录才能爬取,爬取失败")
                continue
            name = link[0].get('alt').replace('\t', '').replace('|', '').replace(':', '').replace('\\', '').replace('/', '').replace('*', '').replace('?', '').replace('"', '').replace('<', '').replace('>', '')
            print(name) # 输出下载图片的文件名
            src = link[0].get('src')
            if(requests.get(src).status_code == 404):
                print(url + ' 该图片下载链接404,爬取失败')
                print()
                continue
            print()
            download(src, name, path)
            time.sleep(interval)
    

    第七步:下载图片

    # 下载操作
    def download(src, name, path):
        if(isinstance(src, str)):
            response = requests.get(src)
            path = path + '/' + name + '.jpg'
            while(os.path.exists(path)): # 若文件名重复
                path = path.split(".")[0] + str(random.randint(2, 17)) + '.' + path.split(".")[1]
            with open(path,'wb') as pic:
                for chunk in response.iter_content(128):
                    pic.write(chunk)
    

    目录五:代码的容错能力

    一:过滤图片广告

    if(href == 'http://pic.netbian.com/'): # 过滤图片广告
        continue
    

    二:第一次跳转页面,无我们需要的链接

    彼岸壁纸网站,对第一次跳转页面的链接,给的都是相对地址

    但是极个别图片直接给的绝对地址,而且给的是该分类网址,所以需要做两步处理

    if('http://' in href):
        url = href
    else:
        url = index + href
    
    ...
    
    if(link == []):
        print(url + ' 无此图片,爬取失败')
        continue
    

    下面是第二次跳转页面所遇问题

    三:由于权限问题无法爬取图片

    if(link == []):
        print(url + "该图片需要登录才能爬取,爬取失败")
        continue
    

    四:获取img的alt,作为下载图片文件的文件名时,名字中携带\t 或 文件名不允许的特殊字符:

    • 在Python中,’\t’ 是转义字符:空格
    • 在windows系统当中的文件命名,文件名称中不能包含 \ / : * ? " < > | 一共9个特殊字符
    name = link[0].get('alt').replace('\t', '').replace('|', '').replace(':', '').replace('\\', '').replace('/', '').replace('*', '').replace('?', '').replace('"', '').replace('<', '').replace('>', '')
    

    五:获取img的alt,作为下载图片文件的文件名时,名字重复

    path = path + '/' + name + '.jpg'
    while(os.path.exists(path)): # 若文件名重复
        path = path.split(".")[0] + str(random.randint(2, 17)) + '.' + path.split(".")[1]
    

    六:图片链接404

    比如:
    在这里插入图片描述

    if(requests.get(src).status_code == 404):
        print(url + ' 该图片下载链接404,爬取失败')
        print()
        continue
    

    目录六:完整代码

    展开全文
  • 本文档是一个.py文件,里面写了制作动态地球壁纸Python源代码,不用懂Python,只要会执行Python文件即可生成
  • /usr/bin/env python# -*- coding: UTF-8 -*-#-------------------------------------------------------------------------------# Name: 对http访问的封装## Author: qianlifeng## Created: 10-02-2012#----------...

    #!/usr/bin/env python

    # -*- coding: UTF-8 -*-

    #-------------------------------------------------------------------------------

    # Name: 对http访问的封装

    #

    # Author: qianlifeng

    #

    # Created: 10-02-2012

    #-------------------------------------------------------------------------------

    import base64

    import urllib

    import urllib2

    import time

    import re

    import sys

    class SendRequest:

    """

    网页请求增强类

    SendRequest('http://xxx.com',data=dict, type='POST', auth='base',user='xxx', password='xxx')

    """

    def __init__(self, url, data=None, method='GET', auth=None, user=None, password=None, cookie = None, **header):

    """

    url: 请求的url,不能为空

    date: 需要post的内容,必须是字典

    method: Get 或者 Post,默认为Get

    auth: 'base' 或者 'cookie'

    user: 用于base认证的用户名

    password: 用于base认证的密码

    cookie: 请求附带的cookie,一般用于登录后的认证

    其他头信息:

    e.g. referer='www.sina.com.cn'

    """

    self.url = url

    self.data = data

    self.method = method

    self.auth = auth

    self.user = user

    self.password = password

    self.cookie = cookie

    if 'referer' in header:

    self.referer = header[referer]

    else:

    self.referer = None

    if 'user-agent' in header:

    self.user_agent = header[user-agent]

    else:

    ## self.user_agent = 'Mozilla/5.0 (Windows NT 5.1; rv:8.0) Gecko/20100101 Firefox/8.0'

    self.user_agent = 'Mozilla/5.0 (iPhone; U; CPU iPhone OS 3_0 like Mac OS X; en-us) AppleWebKit/528.18 (KHTML, like Gecko) Version/4.0 Mobile/7A341 Safari/528.16'

    self.__SetupRequest()

    self.__SendRequest()

    def __SetupRequest(self):

    if self.url is None or self.url == '':

    raise 'url 不能为空!'

    #访问方式设置

    if self.method.lower() == 'post':

    self.Req = urllib2.Request(self.url, urllib.urlencode(self.data))

    elif self.method.lower() == 'get':

    if self.data == None:

    self.Req = urllib2.Request(self.url)

    else:

    self.Req = urllib2.Request(self.url + '?' + urllib.urlencode(self.data))

    #设置认证信息

    if self.auth == 'base':

    if self.user == None or self.password == None:

    raise 'The user or password was not given!'

    else:

    auth_info = base64.encodestring(self.user + ':' + self.password).replace('\n','')

    auth_info = 'Basic ' + auth_info

    self.Req.add_header("Authorization", auth_info)

    elif self.auth == 'cookie':

    if self.cookie == None:

    raise 'The cookie was not given!'

    else:

    self.Req.add_header("Cookie", self.cookie)

    if self.referer:

    self.Req.add_header('referer', self.referer)

    if self.user_agent:

    self.Req.add_header('user-agent', self.user_agent)

    def __SendRequest(self):

    try:

    self.Res = urllib2.urlopen(self.Req)

    self.source = self.Res.read()

    self.code = self.Res.getcode()

    self.head_dict = self.Res.info().dict

    self.Res.close()

    except:

    print "Error: HttpWrapper=>_SendRequest ", sys.exc_info()[1]

    def GetResponseCode(self):

    """

    得到服务器返回的状态码(200表示成功,404网页不存在)

    """

    return self.code

    def GetSource(self):

    """

    得到网页源代码,需要解码后在使用

    """

    if "source" in dir(self):

    return self.source

    return u''

    def GetHeaderInfo(self):

    """

    u'得到响应头信息'

    """

    return self.head_dict

    def GetCookie(self):

    """

    得到服务器返回的Cookie,一般用于登录后续操作

    """

    if 'set-cookie' in self.head_dict:

    return self.head_dict['set-cookie']

    else:

    return None

    def GetContentType(self):

    """

    得到返回类型

    """

    if 'content-type' in self.head_dict:

    return self.head_dict['content-type']

    else:

    return None

    def GetCharset(self):

    """

    尝试得到网页的编码

    如果得不到返回None

    """

    contentType = self.GetContentType()

    if contentType is not None:

    index = contentType.find("charset")

    if index > 0:

    return contentType[index+8:]

    return None

    def GetExpiresTime(self):

    """

    得到网页过期时间

    """

    if 'expires' in self.head_dict:

    return self.head_dict['expires']

    else:

    return None

    def GetServerName(self):

    """

    得到服务器名字

    """

    if 'server' in self.head_dict:

    return self.head_dict['server']

    else:

    return None

    __all__ = [SendRequest,]

    if __name__ == '__main__':

    b = SendRequest("http://www.baidu.com")

    print b.GetSource()

    展开全文
  • 因为看到了一组比较有意思的图片,就想着可以不可以根据当前时间自动设置成桌面壁纸壁纸也在压缩包里。https://github.com/cin619/change-background-timely.git。也可以访问github直接下载。
  • python自动更换壁纸

    2018-09-10 23:50:58
    自动获取当前目录下的所有.jpg的图片,并且每隔十分钟后自动随机更换一张壁纸,不是轮换。sdadfasdfas
  • python 高清壁纸下载

    2020-12-21 22:50:15
    import os import re from urllib import request import json ...headers = { "User-Agent": "Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 ...
  • python实现桌面壁纸自动更换(附源码) 轻松实现桌面壁纸自动切换
  • ** 楼主也才学习python半年,写下在这个博客算是对自己成长的记录和提高吧,欢迎小伙伴们一起探讨,共同提高。** ** 话不多说,这个爬虫的目的是将某壁纸网站上的图片爬取下来,并保存在本地。所以我们需要...
  • python爬虫之爬取壁纸(新手入门级)

    千次阅读 多人点赞 2020-08-12 21:10:13
    一:首先选取一个网站,这里我们选择了一个壁纸网站 二:进入网站,我们可以看到很多图片放在一页里 三:按下F12开发者工具,点击Elments查看网页的代码 四:按住左上角箭头,并点击网页中的图片找到图片所在代码...
  • Python更换桌面壁纸.zip

    2020-11-04 13:47:38
    python 自动定时更换壁纸,有GUI界面。
  • 前言在设计爬虫项目的时候,首先要在脑内明确人工浏览页面获得图片时的步骤一般地,我们去网上批量打开壁纸的时候一般操作如下:1、打开壁纸网页2、单击壁纸图(打开指定壁纸的页面)3、选择分辨率(我们要下载高清的图...
  • Python爬虫-爬取wallhaven壁纸

    千次阅读 多人点赞 2021-03-18 21:28:08
    Python爬虫-爬取wallhaven壁纸前言可行性分析功能介绍效果展示基本思路1.获取每页壁纸的url2.获取每张壁纸缩略图的url具体步骤如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一...
  • Python爬取壁纸

    2021-01-29 09:04:31
    不想一张张看壁纸怎么办,不想一张张下载怎么办,来让我们用python解决一切,爬取一网站所有壁纸。1.准备前期运行环境·python运行环境,安装request模块 (这个问题需要自己去解决)2.分析网页行为 [想直接点的,可以...
  • 基于Python实现Windows下壁纸切换功能

    千次阅读 2018-02-07 14:35:20
    如你所见,在这篇文章里,我们将通过Python和Windows注册表实现壁纸切换功能,主要涉及到的Python中的requests、pyinstaller这两个模块的使用,希望大家喜欢。 故事缘由   人们常常相信事出有因,可这世界上有些...
  • import timefrom concurrent.futures import ThreadPoolExecutorimport timeimport osimport refrom urllib.parse import urlencodeimport requestsfrom bs4 import BeautifulSoupfrom selenium import webdriverfro...
  • 软件下载 https://ghgxj.lanzous.com/iRYi6jgf1ab 使用教程 成果展示 目标站点 https://wallpaperscraft.com/ ...因为是国外的网站,所以开启VPN代理的话会快一些;当然如果你没有代理服务器,就不要开启代理。......
  • 利用Python爬虫抓取必应每日壁纸,每四小时运行一次,在D盘下生成BingBG文件保存图片,在程序当前目录下生成log文件
  • 适用于新手学习内涵很多基础算法及网络爬虫,给大家带来一定的学习很值得思考,同时也希望和大家一起交流。
  • python 动态壁纸

    2021-05-05 10:14:51
    竟然用Python做一个炫酷的小姐姐动态壁纸_cainiao_python的博客-CSDN博客 https://blog.csdn.net/cainiao_python/article/details/106561410?ivk_sa=1024320u ref2: (5 条消息) Python怎样实现Wallpaper Engine? - ...
  • Python实例一一更换桌面壁纸

    千次阅读 2018-09-22 15:23:00
    最近学习了一些Python基础知识,想着利用Python做一些小的脚本,然后看到一篇博客,介绍了如何抓取Bing主页上的图片来作为电脑的壁纸,于是就照例实现一下,在实现的过程中遇到一些小问题,记录一下: 主要源于以下...
  • python 自动更换壁纸.py

    2019-08-23 12:48:32
    从网上获取免费的随机图片API接口 有四个分类 :随机,影视,女神,风景 然后爬虫结合 tkinter 并且可以设置开机自启,实现桌面壁纸的自动切换,可设置切换频率
  • 不少同学都知道,必应每天都会更新壁纸,都十分漂亮,有时候还十分惊艳,同时还会根据每个地区的特色应用不同的壁纸。那么,如何让自己的电脑每天同步必应每日图片作为桌面背景呢?下面用python...
  • 简介 壁纸的选择其实很大程度上能看出电脑主人的内心世界,有的人喜欢风景,有的人喜欢星空,有的人喜欢美女,有的人喜欢动物。然而,终究有一天你已经产生审美...python学习交流扣扣qun,934109170 群里有不错的学习

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,215
精华内容 2,886
关键字:

python壁纸

python 订阅
友情链接: ezusb_c.rar