精华内容
下载资源
问答
  • Python #coding:utf-8 from hashlib import md5 import requests,<span class="wp_keywordlink_affiliate"><a href="https://www...
    Python
    #coding:utf-8 from hashlib import md5 import requests,<span class="wp_keywordlink_affiliate"><a href="https://www.168seo.cn/tag/os" title="View all posts in os" target="_blank">os</a></span> ''' format 字符串格式化 <span class="wp_keywordlink_affiliate"><a href="https://www.168seo.cn/tag/os" title="View all posts in os" target="_blank">os</a></span>.getcwd() 获取当前的目录 md5(content).hexdigest() 生成md5 <span class="wp_keywordlink_affiliate"><a href="https://www.168seo.cn/tag/os" title="View all posts in os" target="_blank">os</a></span>.path.exists检测文件是否存在 ''' def save_image(content): file_path = '{0}/{1}.{2}'.format(os.getcwd(), md5(content).hexdigest(), 'jpg') print(file_path) if not os.path.exists(file_path): with open(file_path, 'wb') as f: f.write(content) #二进制写入 f.close() else: print("已存在") def main(url): res = requests.get(url) if res.status_code==200: content=res.content save_image(content) if __name__ == '__main__': url="https://ss0.bdstatic.com/k4oZeXSm1A5BphGlnYG/skin/767.jpg" main(url) #=================if else 单行判断========================== title = result if result else 'None' #如果存在 则返回把result赋值给title 如果不存在则返回None #dict loops for (k,v) in dict.items(): print "dict[%s]=" % k,v # Json.dumps默认输出是的ascii码,转成中文 def write_to_file(content): with open('result.txt', 'a', encoding='utf-8') as f: # utf-8的编码打开 f.write(json.dumps(content, ensure_ascii=False) + '\n') #取消 对ascii的支持 # requests 的常用的异常处理方法 from requests.exceptions import RequestException def get_one_page(url): try: response = requests.get(url) if response.status_code == 200: #判断状态码 return response.text return None except RequestException: #捕获异常 return None
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    #coding:utf-8
    from hashlib import md5
    import requests,os
     
    '''
    format 字符串格式化
    os.getcwd() 获取当前的目录
    md5(content).hexdigest() 生成md5
    os.path.exists检测文件是否存在
    '''
    def save_image(content):
     
        file_path = '{0}/{1}.{2}'.format(os.getcwd(), md5(content).hexdigest(), 'jpg')
        print(file_path)
        if not os.path.exists(file_path):
            with open(file_path, 'wb') as f:
                f.write(content)
                #二进制写入
                f.close()
        else:
            print("已存在")
     
    def main(url):
        res = requests.get(url)
        if res.status_code==200:
            content=res.content
            save_image(content)
     
    if __name__ == '__main__':
        url="https://ss0.bdstatic.com/k4oZeXSm1A5BphGlnYG/skin/767.jpg"
        main(url)
     
    #=================if else 单行判断==========================
     
    title = result if result else 'None'
     
    #如果存在 则返回把result赋值给title 如果不存在则返回None
     
    #dict loops
     
    for (k,v) in  dict.items():
            print "dict[%s]=" % k,v
     
    # Json.dumps默认输出是的ascii码,转成中文
     
    def write_to_file(content):
        with open('result.txt', 'a', encoding='utf-8') as f:
     
        # utf-8的编码打开
           f.write(json.dumps(content, ensure_ascii=False) + '\n')
          
      #取消 对ascii的支持
     
    # requests 的常用的异常处理方法
     
    from requests.exceptions import RequestException
     
    def get_one_page(url):
        try:
            response = requests.get(url)
            if response.status_code == 200:
            #判断状态码
                return response.text
            return None
        except RequestException:
            #捕获异常
            return None

    selenium 显示等待和隐式等待很重要

    http://www.168seo.cn/python/23837.html




      zeropython 微信公众号 5868037 QQ号 5868037@qq.com QQ邮箱
    展开全文
  • 主要为大家详细介绍了python保存网页图片到本地的方法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  • 主要介绍了python pyqtgraph 保存图片到本地的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  • python 图片保存到本地

    2021-04-13 15:59:13
    7).value logo = sheet.cell(i, 22).value args = (logo,company_name) print(args) if logo == '无' or logo == '': pass else: # 下载到本地 print(args) url = logo d = 'D:\\B\\' path = d + str(company_name)...
    from xlrd import open_workbook
    import requests
    import os
    
    def conn():
        workbook = open_workbook(r'C:\路径\inquiry_info.xls')
        sheet = workbook.sheet_by_index(0)
        for i in range(1, 394):
            company_name = sheet.cell(i, 7).value
            logo = sheet.cell(i, 22).value
            args = (logo,company_name)
            print(args)
            if logo == '无' or logo == '':
                pass
            else:
                # 下载到本地
                print(args)
                url = logo
                d = 'D:\\B\\'
                path = d + str(company_name) + '.' + url.split('.')[-1]
                try:
                    if not os.path.exists(d):
                        os.mkdir(d)
                    if not os.path.exists(path):
                        r = requests.get(url)
                        r.raise_for_status()
                        with open(path, 'wb') as f:
                            f.write(r.content)
                            f.close()
                            print("图片保存成功")
                    else:
                        print("图片已存在")
                except:
                    print("图片获取失败")
    conn()

     

    展开全文
  • Python——保存图片到本地

    万次阅读 2019-03-11 16:01:29
    举个例子,比如我想保存github网,浏览器头有个图标. resp = requests.get("https://github.com/favicon.ico") with open("C:\\Python37\\911.jpg",'wb')as jpg: jpg.write(r.content)

    举个例子,比如我想保存github网,浏览器头有个图标.

    resp = requests.get("https://github.com/favicon.ico")

    with open("C:\\Python37\\911.jpg",'wb')as jpg:
        jpg.write(r.content)

    展开全文
  • python pyqtgraph 保存图片到本地

    千次阅读 2018-07-24 15:41:00
    pyqtgraph官方给的示例居然会报错2333 官方文档传送门:#####pyqtgraph export ...保存为png会闪退不知道是我这里的原因还是这里有bug,我希望直接生成图片(Exporting from the API) 先查看本地site-packa...

    pyqtgraph官方给的示例居然会报错2333

    官方文档传送门:#####pyqtgraph export

    pyqtgraph支持在可视化窗口中右键保存(Exporting from the GUI)试了一下只能保存为svg格式,

    保存为png会闪退不知道是我这里的原因还是这里有bug,我希望直接生成图片(Exporting from the API)

    先查看本地site-packages里面有test文件,里面有生成svg的版本画出来的图是svg格式只能放在浏览器看不能改后缀名

    而我希望生成png之类的图片

    折腾了一下终于弄了一个能跑的出来:

    from __future__ import division, print_function, absolute_import
    import pyqtgraph as pg
    import pyqtgraph.exporters
    import numpy as np
    
    def test_plotscene():
        pg.setConfigOption('foreground', (255,255,255))
        w = pg.GraphicsWindow()
        p = w.addPlot()
        p.plot(np.linspace(0.0, 20.0, 20), pen={'color':'w'})
        p.setXRange(0,20)
        p.setYRange(-10,20)
        app = pg.mkQApp()
        app.processEvents()
        ex = pyqtgraph.exporters.ImageExporter(w.scene())
        ex.export(fileName="test.png")
    
    if __name__ == "__main__":
        test_plotscene()

     

     

    转载于:https://www.cnblogs.com/dzzy/p/9360381.html

    展开全文
  • python 保存网页图片到本地

    千次阅读 2014-12-23 10:24:44
    /usr/bin/env Python #coding=utf-8 import time import datetime import sys import random import math import uuid import cookielib import urllib2 import os class GetImage(): reload(sy
  • python爬取图片保存到本地

    千次阅读 2018-12-18 14:27:19
    Python爬取图片(你懂得) requests与Bs4 这两个模块是本文使用的主要模块,requests可以获取连接,bs4全名BeautifulSoup,是编写python爬虫常用库之一,主要用来解析html标签。这两个模块可以通过cmd终端下载 pip ...
  • python爬取的图片保存到本地 # -*- coding: utf-8 -*- import urllib import requests import os import codecs url = 'http://724.169pp.net/bizhi/2017/039/1.jpg' bytes = urllib.request.urlopen(url) f = ...
  • Python爬取网络图片保存到本地文件夹主要内容第一步 引入库文件第二步 获取网页文档第三步 获取图片地址第四步 通过地址保存图片在main方法执行以上方法执行main()方法爬取结果 主要内容 经过上一次的爬虫实例,我...
  • 经常我们导师丢一个微信文章过来,让我们把其中的图片...使用Python自动保存看起来是个不错的办法。 # coding=utf-8 import re import requests def spider(paperurl, picpat): headers = { "User-Agent": "Mo...
  • 本篇文章给大家介绍python抓取网页中图片保存到本地,对python抓取网页图片相关知识感兴趣的朋友一起学习吧
  • python把爬取到的图片保存到本地

    千次阅读 2018-05-12 11:18:35
    图片保存到本地的第一种方法 :thisimgurl = "http:"+thisimg # 为网址添加上http协议 thisimgurl = thisimgurl.replace("\\","") 把转义字符替换 # print(thisimgurl) # 每一张...
  • Python的抓取图片保存到本地 import urllib.request #打开和读取url的模块 import re #python匹配的模块 import os #python与操作系统交互的模块(创建文件夹等) def gethtml(url): page = urllib.request....
  • python爬虫爬取图片保存到本地文件

    千次阅读 2019-02-16 20:46:00
    今天搜索电脑壁纸突发奇想就把所有壁纸怕取下来了 百度 壁纸 随便挑了一个点进去是zol电脑壁纸ZOL桌面壁纸 现在开始爬取 import requests ...def baocun(url):#此方法是将图片保存文件到本地 只需要传入图片...
  • (找不狗头) from typing import List, Any, Union # import requests import random import string import urllib.request from bs4 import BeautifulSoup import os,stat from PIL import Image from io import...
  • python爬取图片 先上代码: from urllib.request import Request, urlopen, urlretrieve from fake_useragent import UserAgent import time import re def get_html(rul): # 设置请求头 headers = { 'User-...
  • python 图片抓取 并保存到本地

    千次阅读 2019-04-26 16:19:08
    首先安装包: ...pip install ...# 图片处理的库 pip install pillow pip install requests import requests from bs4 import BeautifulSoup from PIL import Image import os from io import BytesIO ...
  • python爬虫 解析图片保存到本地

    千次阅读 2018-06-22 17:32:36
    以 wb 方式保存就ok了 def picture(): pic_url_list = connetion_mysql_1() print(pic_url_list) header = { 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apn...
  • 1. 获取图片链接,将图片链接append list 中 图片链接有两种, 第一种,有规律 :只有图片名称不一样 urls = [] for i in range(5460): # range(5460) 代表有多少张图片 url = '****图片存放的网址*/...
  • import re import requests import json import os ... x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36' ...# 下载图片 request.urlretrieve(img_url,path)

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 775
精华内容 310
关键字:

python保存图片到本地

python 订阅