下载器 订阅
下载器是辅助下载的工具,它是利用自己的下载原理,来提高下载速度的一种工具。 展开全文
下载器是辅助下载的工具,它是利用自己的下载原理,来提高下载速度的一种工具。
信息
属    于
特殊下载工具
特    点
只能下载特定的某个软件
中文名
下载器
外文名
Download
下载器工具释义
下载器属于特殊下载工具,一般的网络游戏都有它的下载器。下载器只能下载特定的某个软件下载器的使用方法比较简单,只需要设置下载路径。网络种类指上网方式,比如ADSL、ISDN、宽带等。下载器的下载方式是BT,P2P,多线程直连等方式下载。
收起全文
精华内容
下载资源
问答
  • HappyPanda:PC端E-Hentai\ExHentai下载器

    万次阅读 热门讨论 2019-06-10 23:02:15
    HappyPanda:PC端E-Hentai\ExHentai下载器 软件使用C#编写,支持以下功能: 下载E-Hentai的画集 下载ExHentai的画集(需要提供可用的Cookie) 支持原图下载 支持代理(自动使用IE代理设置) 更多功能...

    HappyPanda:PC端E-Hentai\ExHentai下载器


    > 基本上是停止开发了

    本软件从0.3版本开始,即因为硬盘故障导致源码丢失,后续更新均是通过dnSpy修改。
    目前0.8版本基本上在网络没有问题的情况下可以做到95%+可用性,所以此软件停止更新。
    如果遇到e站大改版,我会考虑从0开始重新开发新的版本。最后,谢谢大家一直以来的支持!

    2020.7.8 update: 遇到简单bug还是会更新的

    > 当前最新版本

    v0.9 beta BuildDate:20.07.08

    > 功能介绍

    软件主界面

    软件使用C#编写,支持以下功能:

    • 下载E-Hentai的画集
    • 下载ExHentai的画集(需要提供可用的Cookie)
    • 支持原图下载
    • 支持代理(自动使用IE代理设置)
    • ※ 断点续传 (新功能)
    • 更多功能开发中…

    > 下载

    • 百度网盘 [ 点击下载 ],提取码: htte,解压密码123
    • 压缩包大小:11.5 KB (11,794 字节)
    • 压缩包MD5:60AD207597FA7EDA1DACADCBCEA7C66D

    > 使用说明

    如果有以下内容无法解决的情况,请在本篇博客下留言。

    > 打开

    下载后,请将文件解压再运行。
    因为使用了后台下载,杀毒软件可能会报毒,若您不放心,您可以:

    • 相信我
    • 使用类似dnSpy的.net反编译软件查看源代码
    • (Q:为什么不直接开源呢? A:代码写的太烂了,丢人(捂脸))

    然后将软件添加到白名单。
    如果您仍不相信我并且不会使用反编译软件,您可以:

    • 删除软件

    软件启动后,将询问您是否需要下载E-Hentai的画集,如果只需要下载ExHentai的画集,可以选否。
    (ExHentai某些网络可以直接访问,如果有ExHentai的Cookie可以直接用ExHentai链接下载。)

    然后软件会询问您是否需要下载ExHentai的画集,如果只需要下载E-Hentai的画集,可以选否(免填Cookie)。
    如果选择了是,则需要填写ExHentai的Cookie信息用于登陆,下面会讲解如何获得Cookie。

    > 获得ExHentai的Cookie

    1.在浏览器中登陆到ExHentai,并确认不是Sad Panda状态。
    2.打开浏览器的控制台,Chrome或Chrome内核(带有极速内核字样)的浏览器在Windows下默认应该是按F12键,IE浏览器(版本8.0+)亦是按F12键打开。
    3.找到并点击“Console”或“控制台”字样的选项卡。
    4.在输入区域输入:“document.cookie”(不含双引号,小写英文),按下回车键。
    5.您将看到一行数据,其格式类似为:

    "ipb_member_id=*******; ipb_pass_hash=********************************; igneous=*********; 后面可能还有一些内容"
    

    其中至少应有ipb_member_id,ipb_pass_hash,igneous这三项。
    复制这行数据,这就是ExHentai的Cookie啦!

    > 检测E-Hentai和ExHentai的状态

    软件会根据您的选择来检测E-Hentai和ExHentai是否可用,如果ExHentai可用,将提示您是否保存Cookie以便下次使用。

    若检测不可用或报错:

    对于E-Hentai:

    • 检查IE浏览器能否正常访问E-Hentai
    • 检查IE浏览器的代理设置(软件会自动使用IE浏览器的代理设置)

    对于ExHentai:

    • 检查Cookie是否正确
    • 在双核浏览器中用IE内核(兼容内核)访问ExHentai,检查是否可用正常显示

    > 粘贴画集地址并下载

    粘贴E-Hentai或ExHentai的画集地址到软件中,它的格式应该是类似这样的:
    https://e-hentai.org/g/xxxxxxx/xxxxxxxxxxhttps://exhentai.org/g/xxxxxxx/xxxxxxxxxx
    点击“分析”按钮,软件会判断你输入的地址是否正确。

    如果输入正确,软件会获取到画集的标题,同时提升您是否要开始下载,点击“是”即可开始下载

    > 下载原图

    选择“下载原图”选项将会尝试下载原图,相当于点击网页中的“Download original *** x *** *** KB source”。
    下载原图需要Cookie,如果您已设置ExHentai的Cookie,就不用再次设置,否则将需要您输入一个可以登陆E-Hentai或ExHentai的Cookie。
    获取E-Hentai的Cookie的方式与获得ExHentai的Cookie的方式相同。

    注意:尺寸较小的图片可能没有原图。ExHentai的Cookie可以用于E-Hentai,但是E-Hentai的Cookie不能用于ExHentai。

    > 断点续传

    断点续传是0.3版本添加的新功能,默认开启,不可关闭。此功能的出现主要是由于国内网络环境较差,难以一次下载成功(向大家道歉!当初没想到这个问题)。
    当下载开始时,如果目录中存在已下载完毕的文件,将跳过已下载文件开始下载。如:
    下载[xxx] aaa画集,下载到10.jpg时,出于某种原因,软件报错,
    再次打开软件,继续下载[xxx] aaa画集,因为10.jpg文件存在,将从11.jpg开始下载。

    ※ 请注意!这可能产生一个问题※

    若软件下载10.jpg时,文件下载到一半即报错,而10.jpg文件已被创建,断点续传将从11.jpg开始下载,而10.jpg将处于损坏状态!
    解决方案:软件报错,准备续传之前,请您手动检查刚刚下载的文件是否正常,若不正常,请删除该文件。

    > 文件下载到哪了?

    软件根目录\画集标题
    下载的图片会根据先后顺序排号,如1.jpg,2.png…
    软件会自动识别图片格式。

    > 常见错误

    • 超时、在 WebClient 请求期间发生异常、无法连接到远程服务器
      尝试改善您的网络环境,或使用合适的代理·服务器。

    • 509
      每个IP和账号都有下载图片的配额(具体多少我也不确定),配额耗尽就会导致509错误。
      您可以尝试: 更换IP地址(也许可以通过重启光猫和路由器实现)或代理服务器的线路、或等几小时到一天时间来让配额自动恢复。

    > 其他问题和反馈建议

    请在此篇博客下留言。

    > 反编译后修改软件并重新编译发布

    可以,但请标明原作者。

    > 更新日志

    版本 0.1 :测试版本
    版本 0.2 :加入ExHentai支持
    版本 0.3 :加入断点续传功能
    版本 0.4 :适应ExHentai新版网页
    版本 0.5 :修复一个“如果评论区有指向另一个画集中的某一页的网址,则会导致下载途中出现内容页检查错误err-2”的bug
    版本 0.6 :修复“选择了下载原图但是下载的还是普通图像”的bug(吐槽:从0.4开始就有这个bug了怎么都没人发现的)
    版本 0.7 :修复作品名里一些符号导致下载失败的问题
    版本 0.8 :修复e-hentai(表站)无法下载原图的问题
    版本 0.9 :修复单个画集超过999张会因为字符串转换出错导致无法下载的问题

    > BUG!催更!

    • 已停止更新,除非e站大改版,否则不会再推出新版本。
    • 除非这个bug很好修
    展开全文
  • 这款软件不知道是什么原理。 下载链接:https://pan.baidu.com/s/1mjlsKEO 你们csdn也不知道管管,有免费下的,我们还花钱冲会员干嘛?
  • ENFI下载器

    万次阅读 2019-06-20 17:30:16
    因为想要下载百度云盘里的文件,可是下载速度太慢了,无奈就上网搜索一下下载加速器,搜到了ENFI下载器,想着就安装试试,看看速度如何,下载下来,不要注册和登陆,直接免费送5G的下载流量,正好够用,下载速度基本...

    因为想要下载百度云盘里的文件,可是下载速度太慢了,无奈就上网搜索一下下载加速器,搜到了ENFI下载器,想着就安装试试,看看速度如何,下载下来,不要注册和登陆,直接免费送5G的下载流量,正好够用,下载速度基本上在5-9兆之间,可能也得看个人的网速怎么样吧,反正就是速度比百度云盘快的多的多,没多久就下完了

    总之,速度是真的快,而且可以用闲置的电脑赚钱呢,下载赚钱两不误

    下载地址:https://pan.baidu.com/s/1ibzdh2vpTNKLtndI0Yy5pQ 提取码: 8jrc

    展开全文
  • 下载器中间件简介 自定义下载器中间件 RandomUserAgentMiddleware RandomProxyMiddleware 激活下载器中间件 内置下载器中间件 CookiesMiddleware DefaultHeadersMiddleware DownloadTimeoutMiddleware ...

    目录

    下载器中间件简介

    自定义下载器中间件

    RandomUserAgentMiddleware

    RandomProxyMiddleware

    激活下载器中间件

    内置下载器中间件

    CookiesMiddleware

    DefaultHeadersMiddleware

    DownloadTimeoutMiddleware

    HttpProxyMiddleware

    RedirectMiddleware

    RetryMiddleware

    RobotsTxtMiddleware

    UserAgentMiddleware


    下载器中间件简介

    下载器中间件(Downloader Middleware)是介于Scrapy的request/response处理的钩子框架。 是用于全局修改Scrapy request和response的一个轻量、底层的系统。

    自定义下载器中间件

    每个下载器中间件是一个定义了以下一个或多个方法的Python类:

        def process_request(self, request, spider):
            # 每一个Requests 从引擎传递给下载器之前,该方法被调用
    
            # 必须返回下述值之一:
            # - None: Scrapy将继续处理该request,由其他的下载器中间件(按照顺序编号由小到大)或者下载器处理;
            # - Response: 其将返回该response ;
            #             其他下载器中间件的 process_request() 或 process_exception() 方法 以及 下载器的下载函数将不会被调用;
            #             已经激活的下载器中间件将按照顺序编号由大到小依次调用 process_response() 方法对该response进行处理;
            # - Request: Scrapy 将停止调用 process_request() 方法并重新调度返回的request
            # - raise IgnoreRequest: 声明忽略该request;
            #                        已经激活的下载器中间件将按照顺序编号由大到小依次调用 process_exception() 方法对该异常进行处理;
            #                        如果没有任何一个方法处理该异常, 则request的errback(Request.errback)方法会被调用;
            #                        如果没有代码处理抛出的异常, 则该异常被忽略且不记录(不同于其他异常那样)。
            return None
    
        def process_response(self, request, response, spider):
            # 每一个Responses 从下载器返回给引擎之前,该方法被调用
    
            # 必须返回下述值之一:
            # - Response: 可以与传入的response相同,也可以是全新的对象 ;
            #             已经激活的比当前中间件顺序编号小的下载器中间件将按照顺序编号由大到小依次调用 process_response() 方法对该response进行处理;
            # - Request: Scrapy 将停止调用 process_request() 方法并重新调度返回的request
            # - raise IgnoreRequest: 声明忽略该request;
            #                        则调用request的errback(Request.errback)。 如果没有代码处理抛出的异常,则该异常被忽略且不记录(不同于其他异常那样);
            return response
    
        def process_exception(self, request, exception, spider):
            # 当下载器或者下载器中间件执行 process_request() 方法抛出异常时,该方法被调用
    
            # 必须返回下述值之一:
            # - None: Scrapy将继续处理该异常;
            #         已经激活的下载器中间件将按照顺序编号由大到小依次调用 process_exception() 方法对该异常进行处理;
            #         直到所有下载器中间件都被调用完毕,则调用默认的异常处理;
            # - Response:  已经激活的下载器中间件将按照顺序编号由大到小依次调用 process_response() 方法对该response进行处理;
            # - Request: Scrapy 将停止异常处理并重新调度返回的request
            pass

    RandomUserAgentMiddleware

     RandomUserAgentMiddleware能够从我们预先定义好的User-Agent列表中随机选择一个添加到Request的请求头中。

    import random
    
    # 随机选择 User-Agent 下载器中间件
    class RandomUserAgentMiddleware(object):
    
        def process_request(self, request, spider):
            # 从 settings 的 USER_AGENTS 列表中随机选择一个作为 User-Agent
            user_agent = random.choice(spider.settings['USER_AGENTS'])
            request.headers['User-Agent'] = user_agent
            return None
    
        def process_response(self, request, response, spider):
            # 验证 User-Agent 设置是否生效
            print(request.headers['User-Agent'])
            return response

     settings.py 中配置的 USER_AGENTS 列表内容格式如下:

    USER_AGENTS = [
        "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36",
        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/535.2 (KHTML, like Gecko) Chrome/15.0.874.120 Safari/535.2"
    ]

    RandomProxyMiddleware

    在网络爬虫过程中,经常会碰到 IP地址被限制访问的情况,我们通常都会通过设置代理来解决。

    RandomProxyMiddleware就是这样一个下载器中间件,能够从我们预先定义好的IP代理列表中随机选择一个来发送请求。

    import random
    
    # 随机选择 IP 代理下载器中间件
    class RandomProxyMiddleware(object):
    
        # 从 settings 的 PROXIES 列表中随机选择一个作为代理
        def process_request(self, request, spider):
            proxy = random.choice(spider.settings['PROXIES'])
            request.meta['proxy'] = proxy
            return None

     settings.py 中配置的 PROXIES 列表内容格式如下:

    PROXIES = [
        "https://171.13.92.212:9797",
        "https://164.163.234.210:8080",
        "https://143.202.73.219:8080",
        "https://103.75.166.15:8080"
    ]

    激活下载器中间件

    要激活下载器中间件,需要将其加入到 DOWNLOADER_MIDDLEWARES 设置中。 该设置是一个字典(dict),键为中间件类的路径,值为其中间件的顺序(order)。

    激活 RandomUserAgentMiddleware 和 RandomProxyMiddleware 两个下载器中间件的配置如下:

    # Enable or disable downloader middlewares
    # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html
    DOWNLOADER_MIDDLEWARES = {
        'baidu_tieba.middlewares.RandomUserAgentMiddleware': 541,
        'baidu_tieba.middlewares.RandomProxyMiddleware': 542
    }

    DOWNLOADER_MIDDLEWARES 设置会与Scrapy定义的 DOWNLOADER_MIDDLEWARES_BASE 设置合并(但不是覆盖), 而后根据顺序(order)进行排序,最后得到启用中间件的有序列表: 第一个中间件是最靠近引擎的,最后一个中间件是最靠近下载器的。

    关于如何分配中间件的顺序请查看 DOWNLOADER_MIDDLEWARES_BASE 设置,而后为你的中间件选择一个合适的顺序(order)值。 由于每个中间件执行不同的动作,你的中间件可能会依赖于之前(或者之后)执行的中间件,因此顺序是很重要的。

    以下是 DOWNLOADER_MIDDLEWARES_BASE 的默认配置:

    DOWNLOADER_MIDDLEWARES_BASE = {
        'scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware': 100,
        'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware': 300,
        'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware': 350,
        'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': 400,
        'scrapy.downloadermiddlewares.retry.RetryMiddleware': 500,
        'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware': 550,
        'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware': 580,
        'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 590,
        'scrapy.downloadermiddlewares.redirect.RedirectMiddleware': 600,
        'scrapy.downloadermiddlewares.cookies.CookiesMiddleware': 700,
        'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 750,
        'scrapy.downloadermiddlewares.chunked.ChunkedTransferMiddleware': 830,
        'scrapy.downloadermiddlewares.stats.DownloaderStats': 850,
        'scrapy.downloadermiddlewares.httpcache.HttpCacheMiddleware': 900,
    }

    如果你想禁止内置的(在 DOWNLOADER_MIDDLEWARES_BASE 中设置并默认启用的)中间件, 你可以在项目的 DOWNLOADER_MIDDLEWARES 设置中定义该中间件,并将其值赋为 None 。 例如,关闭内置的 UserAgentMiddleware 中间件:

    DOWNLOADER_MIDDLEWARES = {
        'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None
    }

    最后,请注意,有些中间件需要通过特定的设置来启用。更多内容请查看相关中间件文档

    内置下载器中间件

    接下来将对几个常用的内置下载器中间件进行简单介绍。 

    CookiesMiddleware

    class scrapy.downloadermiddlewares.cookies.CookiesMiddleware

     内置的 CookiesMiddleware 下载器中间件使得爬取需要cookie(例如使用session)的网站成为了可能。 其追踪了web server发送的cookie,并在之后的request中发送回去, 就如浏览器所做的那样。

    以下设置可以用来配置CookiesMiddleware中间件:

    COOKIES_ENABLED = True # 是否启用 CookiesMiddleware ,默认 True
    COOKIES_DEBUG = False # 是否启用 Cookies 调试,默认 False

     如果启用 Cookies 调试,Scrapy将记录所有在request(Cookie 请求头)发送的cookies及response接收到的cookies(Set-Cookie 接收头)。

    下边是启用 COOKIES_DEBUG 的记录的样例:

    2011-04-06 14:35:10-0300 [scrapy] INFO: Spider opened
    2011-04-06 14:35:10-0300 [scrapy] DEBUG: Sending cookies to: <GET http://www.diningcity.com/netherlands/index.html>
            Cookie: clientlanguage_nl=en_EN
    2011-04-06 14:35:14-0300 [scrapy] DEBUG: Received cookies from: <200 http://www.diningcity.com/netherlands/index.html>
            Set-Cookie: JSESSIONID=B~FA4DC0C496C8762AE4F1A620EAB34F38; Path=/
            Set-Cookie: ip_isocode=US
            Set-Cookie: clientlanguage_nl=en_EN; Expires=Thu, 07-Apr-2011 21:21:34 GMT; Path=/
    2011-04-06 14:49:50-0300 [scrapy] DEBUG: Crawled (200) <GET http://www.diningcity.com/netherlands/index.html> (referer: None)
    [...]

    DefaultHeadersMiddleware

    class scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware

    该中间件设置 DEFAULT_REQUEST_HEADERS 指定的默认request header。

    # Override the default request headers:
    DEFAULT_REQUEST_HEADERS = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
        'Accept-Language': 'en',
    }

    DownloadTimeoutMiddleware

    class scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware

    该中间件设置 DOWNLOAD_TIMEOUT 指定的request下载超时时间。

    # 下载器超时时间(单位: 秒),默认 180
    DOWNLOAD_TIMEOUT = 180

    HttpProxyMiddleware

    class scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware

    该中间件提供了对request设置HTTP代理的支持。你可以通过在 Request 对象中设置 proxy 元数据来开启代理。

    类似于Python标准库模块 urllib 及 urllib2 ,其使用了下列环境变量:

    http_proxy
    https_proxy
    no_proxy

    你也可以针对每个请求设置 proxy 元数据, 其形式类似于 http://some_proxy_server:port 。

    RedirectMiddleware

    class scrapy.downloadermiddlewares.redirect.RedirectMiddleware

    该中间件根据response的状态处理重定向的request。

    通过该中间件的(被重定向的)request的url可以通过 Request.meta 的 redirect_urls 键找到。

    RedirectMiddleware 可以通过下列设置进行配置(更多内容请参考设置文档):

    REDIRECT_ENABLED # 是否启用RedirectMiddleware中间件,默认: True
    REDIRECT_MAX_TIMES # 单个request被重定向的最大次数,默认: 20

    如果 Request.meta 包含 dont_redirect 键,则该request将会被此中间件忽略。

    RetryMiddleware

    class scrapy.downloadermiddlewares.retry.RetryMiddleware

    该中间件将重试可能由于临时的问题,例如连接超时或者HTTP 500错误导致失败的页面。

    爬取进程会收集失败的页面并在最后,spider爬取完所有正常(不失败)的页面后重新调度。 一旦没有更多需要重试的失败页面,该中间件将会发送一个信号(retry_complete), 其他插件可以监听该信号。

    RetryMiddleware 可以通过下列设定进行配置 (更多内容请参考设置文档):

    RETRY_ENABLED # 是否启用 RetryMiddleware ,默认: True
    RETRY_TIMES # 包括第一次下载,最多的重试次数,默认: 2
    RETRY_HTTP_CODES # 重试的response 返回值(code),默认: [500, 502, 503, 504, 400, 408]

    关于HTTP错误的考虑:

    如果根据HTTP协议,您可能想要在设定 RETRY_HTTP_CODES 中移除400错误。 该错误被默认包括是由于这个代码经常被用来指示服务器过载(overload)了。而在这种情况下,我们想进行重试。

    如果 Request.meta 包含 dont_retry 键, 该request将会被本中间件忽略。

    RobotsTxtMiddleware

    class scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware

    该中间件过滤所有robots.txt eclusion standard中禁止的request。

    确认该中间件及 ROBOTSTXT_OBEY 设置被启用以确保Scrapy尊重robots.txt。

    # Obey robots.txt rules,默认 True
    ROBOTSTXT_OBEY = False

    UserAgentMiddleware

    class scrapy.downloadermiddlewares.useragent.UserAgentMiddleware

    用于覆盖spider的默认 User-Agent 的中间件。

    要使得spider能覆盖默认的 User-Agent,其 USER_AGENT 属性必须被设置。

    # Crawl responsibly by identifying yourself (and your website) on the user-agent
    USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'

    参考文章

    https://scrapy-chs.readthedocs.io/zh_CN/1.0/topics/downloader-middleware.html

     

    展开全文
  • GGGIS地图下载器

    千次阅读 2021-01-11 13:04:11
    这里写自定义目录标题地图下载器介绍 地图下载器介绍 GGGIS地图下载器是一款GIS行业地图应用基础软件。 是由个人开发者开发,坚持免费使用的原则,后期逐渐开源开放的互联网精神。 目前软件可以下载谷歌地图高清卫星...

    GGGIS地图下载器

    地图下载器介绍

    GGGIS地图下载器是一款GIS行业地图应用基础软件。网站链接:www.gggis.com

    是由个人开发者开发,坚持免费使用的原则,后期逐渐开源开放的互联网精神。

    目前软件可以下载谷歌地图高清卫星地图、电子地图、地形图,支持国内的百度、高德、天地图等地图的下载。后期根据需要逐步增加地图源。地图包含无偏移影像,和偏移地图。其中无偏移支持xi’an80,Beijing54,CGCS2000,WGS84投影转换,矢量套合、在线标注、标准分幅、支持AutoCAD、Arcgis等软件的使用和配合。

    1关于产品:本产品仅限于个人研究和学习使用,禁止将本软件用于生产、经营等商业用途或者其他用途。

    2.关于数据版权:本软件志在实现免费、开源的互联网精神。所提供的数据仅供研究学习使用,其数据版权归原提供商所有。合法使用,如因使用不当引|起任何产权纠纷,本软件开发商不承担任何连带责任!

    ##在这里插入图片描述

    展开全文
  • 免费文库下载器

    千次阅读 2019-10-10 11:04:05
    免费下载百度文库、豆丁文库等文库内容,打开下载器,找到需要下载的文库内容,将网址复制输入下载器内 ,点击下载即可 · 下载地址
  • Google地图下载器制作

    千人学习 2017-02-05 08:55:49
    课程从零开始制作一套GoogleMap地图下载器,开发环境VS2008, 界面采用MFC 瓦片数据存储采用Sqlite Http网络数据访问采用CURL库 xml文件解析和存储采用rapidxml 多线程采用生产者和消费者模型 地图渲染采用OpenGLES2.0...
  • xilinx下载器hs3

    千次阅读 2020-05-31 22:08:34
    本文福利一下大家,xilinx的fpga的下载器一向的价格令人害怕,上百元,这里我介绍一款xilinx的下载器hs3 ad工程 ad工程里面包括原理图和pcb文件,大家可以修改与生产 hs3量产工具 量产工具用于烧录固件,烧录万就...
  • 乐影音下载器6.6(2019-7-5)能下载国内视频网站上面的视频。 你只需要复制视频网址就能自动帮你下载视频,这是你唯一需要做的! 下载:官方下载百度网盘Linux版 (360可能会将本软件误判为病毒,性命担保绝对无毒,...
  • 在 Android 程序开发中如果需要下载文件,除了自己程序内部实现下载外,还可以直接使用 Android 系统自带的下载器进行下载,使用系统下载器通常有两种方式: 1. 浏览器下载 将下载链接使用浏览器打开,把下载...
  • Google Play App下载器

    万次阅读 2020-05-19 15:48:34
    假设现在我们已经通过拿到了一个txt文件,每一行对应的是包名,现在我们要用这个下载器,批量的去下载这个App, 要如何用Shell脚本实现: 最简单的一种方法就是用for循环: for line in `cat education.txt` do #...
  • 现在使用水经注万能地图下载器的朋友越来越多,但是可能还不大清楚为何称之为万能地图下载器,那我们就来讲一讲万能地图下载器那些不得不说的“故事”。 工具/原料 水经注万能地图下载器 方法/步骤 1.首先我们点...
  • 百度网盘下载器

    千次阅读 2019-03-05 16:06:48
    说明:百度云不开会员真的是龟速,就在大佬的博客上找了好多百度网盘的下载器,这里罗列出来几个,可以去大佬博客上下载。 Speedpan:百度网盘满速下载工具,无需登录,也可直接下载BT种子 Speedpan YunDownload ...
  • Qt Http下载器

    千次阅读 2018-09-12 17:23:35
    Qt Http下载器 Qt Http下载器 功能 效果图 唠叨一句 代码工程文件 结尾 功能 1.HTTP文件下载; 2.多线程任务下载; 3.支持断点下载; 4.支持分片式下载; 5.界面交互,支持暂停,重启,删除...
  • 百度文库下载器Python实现

    千次阅读 2018-07-12 14:46:16
    因此需要一个百度文库下载器。 之前有冰点文库下载器但是后来不好使了。 下面给出利用Python写的百度文库下载器。 此下载器可以下载doc类型的,txt类型的文本文档及PPT,不过PPT最终将以图片的形式保存。由于百度...
  • ENFI下载器是一款为百度网盘资源打造的加速下载软件,界面简洁明了,上手简单,支持各路老司机资源下载,下载的文件大小与流量余额扣除成正比,听到这里是不是很慌,担心要花费RMB才能继续用,这些是不存在滴,您只...
  • 大家好,今天教给大家如何下载钉钉视频!...首先我们打开地瓜网络钉钉视频下载器,进入软件的主界面,然后点击开始检测数据(如图所示) 第二步,我们模拟观看需要下载的钉钉视频 第三步,在软件上会
  • IDM下载器最新版本6.32.7

    万次阅读 2020-06-14 19:36:20
    IDM是一款老牌的Windows下载器,支持全网嗅探,倍速下载,批量下载等功能,。网上有很多老版本,其中很多并不稳定,不具备全网嗅探功能,比如网站视频无法直下,网站音频无法直下,而且多线程下载时最高支持8线程。...
  • 知网下载器_Cnkidownloader,无需登录知网即可免费下载文献 使用教程 启动知网下载器_Cnkidownloder.exe。在知网搜索你所需要的论文,进入详情页复制浏览器中的网址到知网下载器_Cnkidownloader中,按回车即可下载,...
  • 关于如何使用stc下载器下载stm32程序

    千次阅读 2020-04-16 22:38:35
    刚开始学习的是51单片机,这次毕设老师让使用的是stm32的芯片,因为之前买过正点原子的mini开发板和st-link下载器,所以我尝试直接按照图片sw模式与最小系统板连接。结果没法下载,我也不知道为什么。 之后有一...
  • 百度云高速下载器 kinhdown

    千次阅读 2020-12-09 14:51:20
    百度云高速下载器 kinhdownkinhdown官网地址简介<1>在线解析:<2>软件下载地址:<3>使用方法 kinhdown 官网地址 地址:kurukurumi.tk 简介 <1>在线解析: pan.kdbaidu.com <...
  • 史上最强的下载器,没有之一

    千次阅读 多人点赞 2020-05-09 10:39:55
    首先要感谢 Github 上的 soimort ,今天介绍的这个下载器是 soimort 开源在 Github 上的,名字叫做 you-get 。 Github 地址:https://github.com/soimort/you-get/ you-get 这个开源的下载器非常恐怖的拥有 32.7k ...
  • 使用太乐地图下载器下载百度地图切片 下载环境 电脑为wind10,太乐地图下载器4.6版 下载步骤 1.打开软件,点击打开地图下载工具 2.点击主菜单,选择百度地图-百度街道地图(要下载其他地图切片可按分类选择下载)...
  • 地图下载器的共享

    千次阅读 2018-11-25 17:21:03
    一谈到地图下载器,许多不良心厂商昧着良心忽悠普通大众,下载常用的互联网地图(谷歌,百度,高德)切片要花钱买。典型的公司如:水经注,BigMap(真的黑心)。以下我给大家介绍几款免费好用的地图下载软件 1、太乐...
  • 我使用的Android 2.2,如何使用Android默认下载器下载文件?(网页浏览器也使用这个下载器)。 我使用如下的代码实现: Intent i = new Intent(Intent.ACTION_VIEW , Uri.parse("MyUrl")); startActivity(i); ...
  • 2.右键更新驱动程序-浏览我的计算机查找驱动程序-让我从计算机的可用列表选取-F:\studysoft\vivado2018\Vivado\2018.1\data\xicom\cable_drivers\nt64\dlc10_win7\windrvr6,安装该文件后,即可看到下载器指示灯亮起...
  • 收藏几款好用的网页下载工具(网页下载器)引言webzipTeleportUltra Teleport Ultra小飞兔下载Mihov Picture DownloaderWinHTTrack HTTrack仿站小工具 引言 有的人利用网页下载工具下载网站到本地进行慢慢的欣赏,有...
  • 自制XILINX FPGA JTAG下载器

    千次阅读 2020-05-01 22:23:40
    自制XILINX FPGA JTAG下载器 概述 使用USB to JTAG协议转换芯片(FT2232H)实现,该芯片默认状态为两路RS232串口,通过更改配置实现USB to JTAG。芯片支持的协议如下所示: 本次应用使用channel A作为JTAG口,...
  • 或者直接去ENFI下载器官网:enfi.cloud 1、高速下载 先放1张下载的速度图片,速度基本上都是满带宽下载,可以达到5-9M/S。 2、免登录下载 不用登陆你的百度网盘账号就可以享受百度网盘不限速下载,你只需要用邮箱...
  • 学生党、工作党,这个全新的 “万能文库”下载器,你绝对值得拥有! ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 151,023
精华内容 60,409
关键字:

下载器