精华内容
下载资源
问答
  • MD4SG网站 如何更改网站? 在进入选项之前,您对Git熟悉...另一个选择是克隆此存储库,然后首先在本地计算机编辑网站。 这样,您可以在提交/提交请求之前检查一切是否看起来不错。 有问题或建议吗? 然后提交问题。
  • 最后,你将轻松的在互联网巡航,建立抓取能够从一个域跳到另一个域,收集信息,并且将信息存储起来以供日后使用。 老实说,网页抓取是一个神奇的领域,如果你想进入你个需要巨大支出但前期投资相对较少的领域...

    第一部分介绍

    这部分关注网络抓取的基本结构:怎么使用Python从web服务器上获取信息,怎样对服务器的响应进行基本处理,如何开始与网站自动化交互。最后,你将轻松的在互联网上巡航,建立抓取能够从一个域跳到另一个域,收集信息,并且将信息存储起来以供日后使用。
    老实说,网页抓取是一个神奇的领域,如果你想进入你个需要巨大支出但前期投资相对较少的领域(凑合着看吧,英语太差,翻译不好~~)。在所有的可能性中,你将遇到的网页抓取项目将用到接下来6章90%的技术。本节讨论一般(尽管技术型)人认为的”网络抓取“:

    • 从一个域名中获取HTML数据
    • 解析数据以获取目标信息
    • 存储目标信息
    • 根据需要,转到另一个页面重复上面的操作

    在进入第二部分更复杂的项目之前,这(指上面的操作)将会给你一个坚实的基础。不要愚蠢的任务认为第一节不如第二部分进阶项目重要。在写网络抓取的时候,你将会使用的几乎所有本书第一部分的信息。

    第一章 Your First Web Scraper

    说明一下
    web scraper 是'网络爬取',网络爬虫是'web spider''web crawler',但我们一般都说'网络爬虫' ,所以接下来,我可能会用'网络爬虫'来翻译'web scraper'

    一旦你开始学习网络爬虫,你就会感激浏览器为我们做的所有的小事情。如果没有HTML布局的格式化,CSS的样式,JavaScript的执行以及图片的渲染,那web就看起来有点吓人了。但是在这一章和下一章,我们将涉及到怎样在没有浏览器的帮助下格式化和解析数据。
    这一章从发送一个GET请求到web服务器的一个特殊页面开始,读取从页面获得的HTML,并为了分离我们想要的内容做一些简单的数据提取。

    连接(Connecting)

    如果你没有在计算机网络或网络安全方面花太多时间(即你对这方面没有太多了解),那么网络结构可能看起来有点神秘。我们并不想考虑当我们每次打开浏览器并访问http://google.com的时候网络到底做了什么.并且我们也不需要去了解。实际上,我想要说明的是,计算机接口是非常先进的,对于大多数使用网络的人来说一点也不需要去知道它是怎样工作的,这是多么不可思议啊!!!。
    然而,网络爬虫需要分离一些接口的包装,不仅是在浏览器的层面上(怎样解释所有的这些HTML,CSS,and JavaScript),偶尔也在网络连接的层面上。
    为了让你了解一下你的浏览器获取所需信息的基本过程,我们用下面的例子说明一下。Alice有一个网络服务器。Bob有一台电脑,并且尝试连接Alice的服务。当一台机器想要与另一台机器对话,会产生类似下面的交换:(下面的这段翻译参考qq_15297487的博客

    1. Bob的电脑沿着比特流发送了1和0的高低电压,这些比特组成了一些信息,包含一个报头和报文。报头包含Bob的路由器的MAC地址为直接目的地址,爱丽丝的IP为最终目的地址。报文包含了请求爱丽丝服务器的应用程序。
    2. Bob的本地路由器接收所有这些1和0,并封装他们作为一个包,从Bob自身的MAC地址,发往爱丽丝的IP地址。他的路由器标记他的IP在包中作为“来自”的IP,并且把他通过网络发送出去。
    3. Bob的包经过多个中间服务器来给他的包指向通往爱丽丝服务器的正确的物理地址和有线的路径。
    4. 爱丽丝的服务器收到这个包和她的IP地址.
    5. 爱丽丝的服务器读取这个包中位于报头的的端口地址(几乎所有的web端口都是80(默认80端口),这可以被认为是类似于包数据的“公寓号”,IP地址就是“街道地址”),并且通过他关闭相应的应用程序——Web服务器应用程序.
    6. Web服务器应用程序从服务器处理器接收到流数据。这个数据说是这样的:- 这是一个GET请求;- 接下来是文件要求:index.html
    7. 列表内容Web服务器找到正确的HTML文件,封装到一个新的包中通过本地路由器发送给Bob,通过相同的过程,传输给Bob的电脑看。
    参考到这里结束

    瞧,我们有网络

    所以,在这个交流中,浏览器扮演了什么样的角色?完全的没起到什么作用(哈哈,怎么能这么说浏览器呢,抠鼻)。事实上,相对于互联网的历史,浏览器算是最近的发明了,Nexus发布与1990年。
    当然,网页浏览器在信息打包,信息发送以及翻译你所得到的这些漂亮的图片,声音,视频和文本数据方面是非常有用的的应用。然而,浏览器只是一些代码,这些代码可以被拆分,分解成基本的组成部分,重写,重用并且可以用来干任何你想干的事情。一个web浏览器可以告诉处理程序给你的无线(或有线)接口发送一些数据,但是许多的语言也有同样的库去做这样的时期你敢。
    让我们来看看Python是怎样做的:

     from urllib.request import urlopen
     html = urlopen("http://pythonscraping.com/pages/page1.html")
     print(html.read())

    你可以将这个代码保存为scrapetest.py并且在你的命令提示终端上运行它,通过命令:$python scrapetest.py注意,如果你在你的电脑上也安装了Python2.x,你可能需要明确的使用Python3.x来运行命令,像这样:$python3 scrapetest.py
    在终端上将会输出http://bit.ly/1QjYgcd 页面的完整的HTML代码。更准确的说,这个输出的是域名为http://pythonscraping.com的服务器中< webroot >/pages目录下page1.htm的HTML文件。
    有什么不同的呢?大多数现代网页有许多关联的资源文件。它们可能是图片文件,javaScript文件,CSS文件或者任何其他的这个页面所请求连接的内容。当一个浏览器点击一个<img src="cutekitten.jpg">的标签时,浏览器就会知道为了为用户渲染页面,它需要做一个新的请求以获得cuteKitten.jpg`的文件的数据。请记住,我们的Python脚本没有返回和请求多个文件的逻辑;它只能读取我们请求过的单个的HTML文件。
    所以那Python要怎样做呢?由于纯Python的性质,下面一行代码:

    from urllib.request import urlopen

    的意思就如同看到的一样:在Python的request模块(建立在urllib库)中仅仅导入urlopen函数。
    选择urllib还是urllib2?
    如果你在Python2.x中使用过urllib2,你会注意到在urllib2和urllib之间发生了一些变化,在Python3.x中,urllib2被重命名为urllib并且分割成一些子模块:urllib.request, urllib.parse, 和urllib.error。但是函数名称大多保持相同,当使用新的urllib库时,你需要注意哪个函数已经被移动到子模块中。


    urllib是一个Python的标准库(这意味着运行这个例子的时候你不需要安装任何额外的东西)并且包含了在网络上请求数据,处理cookies,甚至于改变如同头和用户代理这些元数据。我们将在本书中从头到尾的使用urllib,所以我们建议你去阅读Python这个库的文档.
    urlopen 被用来通过网络打开远程目标并读取它。因为它是一个相当通用的库(它能轻松读取HTML文件,图片文件,或任何其它的流文件),我们整本书都会相当频繁的使用它。

    BeautifulSoup介绍

    “Beautiful Soup, so rich and green,….”这首诗就不用翻译了吧
    这个BeautifulSoup模块被命名为爱丽丝梦游仙境中的Lewis Carroll的同名诗歌。在故事中,这首诗是一个叫做素甲鱼(本身对流行的维多利亚素甲鱼汤制成的双关语,但是不是甲鱼是牛)的人物唱的就像它同名的仙境,BeautifulSoup试图让它没有意义感,它通过处理糟糕的HTML和呈现给我们简单的找寻Python对象代表的XML结构来帮助我们格式化和组织混乱的网页。

    安装 BeautifulSoup

    这个就不用翻译了吧,按照步骤安装就行了,或是找其它文档,网上一大堆

    运行BeaurifulSoup

    在BeautifuSoup中最常用的一个对象就是,这个BeautifulSoup对象。让我们在使用中看一下,修改本章开始建立的例子:

    from urllib.request import urlopen
    from bs4 import BeautifulSoup
    html = urlopen("http://www.pythonscraping.com/exercises/exercise1.html")
    bsObj = BeautifulSoup(html.read())
    print(bsObj.h1)

    输出结果如下:

    <h1>An Interesting Title</h1>

    在这个例子之前,我们导入了urlopen库并且调用了html.read()去获取HTML页面的内容。这个HTML内容然后被转换成一个BeautifulSoup对象,类似以下的结构:

    • html → < html >< head >…< /head>< body>…< /body>< /html>
    • head → < head>< title>A Useful Page< title>< /head>
    • title → < title>A Useful Page< /title>
    • body → < body>< h1>An Int…< /h1>< div>Lorem ip…< /div>< /body>
    • h1 → < h1>An Interesting Title< /h1>
    • div → < div>Lorem Ipsum dolor…< /div>

    需要注意的是,我们从页面提取的< h1>标签嵌套了两层深入到了BeautifulSoup对象中 (html → body → h1)。然而,当我们真正的从对象获取的话,我们直接调用h1标签:bsObj.h1
    实际上,下面的任何一种函数调用都会产生相同的输出结果
    bsObj.html.body.h1
    bsObj.body.h1
    bsObj.html.h1
    我们希望通过这个小示例能够让你对BeautifulSoup库的强大和简单有一个认识。实际上我们可以从任何HTML或XML文件中提取任何信息,只要这个信息被包含在标签中,或在标签附近。在第三章我们将探究更深更复杂的BeautifulSoup函数调用,也将看一看正则表达式以及他们如何与BeautifulSoup共同使用提取网页信息。

    可靠的连接

    混乱的网页:数据格缺乏格式化,网站下线,结束标签确实。在网页爬虫中,最令人沮丧的经历就是当你开始运行爬虫然后去睡觉,想着第二天会得到所要的所有数据——只发现了爬虫撞上了一个没有预料到的数据格式异常,在你走开不久就停止了执行。在这样的情况下,你可能会尝试去诅咒这个网站的开发者(和格式奇怪的数据),但是,你真正应该踢的是自己,对于没有第一时间预料到这个异常。让我们看一下我们爬虫的第一行,在导入语句之后,来指出如何处理可能抛出的异常:
    html = urlopen("http://www.pythonscraping.com/exercises/exercise1.html")
    有两件事情会使这行代码抛出异常
    - 在服务器中没有找到这个页面(或者在获取页面是发生了错误)
    - 没有找到服务器
    在第一种情况下,将会返回一个HTTP错误。这个HTTP错误也许是’404 Page Not Found’,’500 Internal Server Error’等等。所有这些情况,urlopen函数将会抛出通用异常HTTPError,我们可以通过一下方式处理这个异常:

    try:
        html = urlopen("http://www.pythonscraping.com/exercises/exercise1.html")
    except HTTPError as e:
        print(e)
        # return null,break,or do some other "plan B"
    else:
        # program continues. Note: If you return or break in the exception catch,
        # you do not need to use "else" statement

    如果HTTP错误代码被返回,那么程序将打印出错误,并且不会执行剩下的在else中的语句
    如果根本就没有找到服务器,urlopen返回一个空对象。这个对象类似于其他编程语言中的null,我们可以添加一个检查来判断返回的html是否为None:

    if html is None:
        print("URL is not found")
    else:
        # program continues

    当然,如果从服务器中成功获取页面,这里依旧有一个问题就是,这个页面中并不是我们完全期望的内容。每次你从BeautifulSoup对象获取标签,BeautifulSoup会聪明的添加检查以确保标签真实存在。如果你尝试获取一个不存在的标签,BeautifulSoup将会返回空的对象。问题是,从一个空对象中获取标签会导致抛出AttributeError异常。
    下面的一行代码(nonExistentTag是一个虚构的标签,不是一个真的BeautifulSoup函数):
    print(bsObj.nonExistentTag)
    返回一个None对象。这是个完美合理的处理检查对象。如果你不去检查他,而是在这个None对象上去尝试调用其它函数,麻烦就会来了,就像下面的情况:
    print(bsObj.nonExistentTag.someTag)
    将会抛出异常:
    `AttributeError: ‘NoteType’ object has no attribute ‘someTag’
    所以,如何才能防止出现这两种情况?最简单的方法是显式的检查这两种情况:

    try:
        badContent = bsObj.nonExistingTag.anotherTag
    exception AttributeError as :
        # 如果bsObj.nonExistingTag不存在,则出现异常
        print("Tag was not found")
    else:
        if badContent == None:
            # 如果bsObj.nonExistingTag存在,但anotherTag不存在
            print("Tag was not found")
        else:
            print(badContent)

    第一眼看起来这种检查和处理每一个异常似乎很费力,但是这使得很容易重组代码让代码写起来少点困难(更重要的是读起来更清晰)。例如这个代码,是我们在写同一个爬虫时略微有一些不同的方式:

    from urllib.request import urlopen
    from urllib.error import HTTPError
    from bs4    import  BeautifulSoup
        def getTitle(url):
            try:
                html    =   urlopen(url)
                except HTTPError as e:
                    return  None
                try:
                    bsObj = BeautifulSoup(html.read())
                    title = bsObj.body.h1
                except AttributeError as e:
                    return None
                    return title
    title = getTitle("http://www.pythonscraping.com/exercises/exercise1.html")
    if title == None:
        print("Title could not be found")
    else:
        print(title)

    在这里例子中,我们创建了一个getTitel函数,这个函数会返回页面的任一title,或者在提取出现一些问题的时候返回一个None对象。里面的getTitle函数,我们用来检查HTTPError,就像在前面的例子中,也封装了两个包括了一个try方法的BeautifulSoup语句。在这几行中一个AttributeError也许会被抛出(如果服务器不存在,html会是一个None对象,所以html.read()将会抛出一个AttributeError)。事实上,我们可以在一个try语句中包含很多行,或者完全调用其他函数,从而可以在任何地点抛出一个AttributeError。当写爬虫时候,重要的一点就是在总体格局上同时考虑代码的异常处理和可读性。你可能会很希望可以重用大量的代码。具有通用功能的函数,比如:获取网站的HTML和getTitle(完整详细的异常处理),使得爬取网页非常的快速和可靠。


    2016年8月20日 21:31:21 转载请注明出处http://blog.csdn.net/zwx2445205419/article/details/52260073

    展开全文
  • 更经常的称为网页追逐者,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,主要用于搜索引擎,它将一个网站的所有内容与链接进行阅读,并建立相关的全文索引到数据库中,然后跳到另一个网站。 传统爬虫...

    爬虫,被称为网络机器人,在FOAF社区中间,更经常的称为网页追逐者,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,主要用于搜索引擎,它将一个网站的所有内容与链接进行阅读,并建立相关的全文索引到数据库中,然后跳到另一个网站。

    传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,再不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。

    Python新手学习网络爬虫要做什么?

     

    我们自学一段时间Python后想要学习网络爬虫,需要做些什么吗?

    想要做爬虫,我们就需要做到以下几点:

    一、先了解html有关的知识

    html是一种标记语言并不难学,它是超文本标记语言,标准通用标记语言下的一个应用。“超文本”就是指页面内可以包含图片、链接,甚至音乐、程序等非文字元素。超文本标记语言的结构包括“头”部分(英语:Head)、和“主体”部分(英语:Body),其中“头”部提供关于网页的信息,“主体”部分提供网页的具体内容。

    Python网络爬虫学习,不需要你深入学习html,只要知道掌握它常用的简单标签跟知识点就行。

    Python新手学习网络爬虫要做什么?

     

    二、比起html,js建议多少懂一点

    js比html难很多,但多少也要知道它的一些知识原理,有条件的推荐看下《JavaScript DOM编程艺术》和《Javascript高级程序设计》的前三章这两本书,能让你对js有一定的认识。

    Python新手学习网络爬虫要做什么?

     

    三、urllib、urllib2两个库很重要

    urllib和urllib2个库是我们在抓取页面要用的。在python中,urllib和urllib2不可相互替代,虽然urllib2是urllib的增强,但是urllib中有urllib2中所没有的函数。

    urllib2可以用urllib2.openurl中设置Request参数,来修改Header头。如果你访问一个网站,想更改User Agent(可以伪装你的浏览器),你就要用urllib2。

    urllib支持设置编码的函数,urllib.urlencode,在模拟登陆的时候,经常要post编码之后的参数,所以要想不使用第三方库完成模拟登录,你就需要使用urllib。

    记住!urllib一般和urllib2一起搭配使用,而且Cookielib这个库配合urllib2可以封装opener,在需要cookie时可以自动解决,建议了解一些,会封装opener即可。re正则表达式库可以帮助你高效的从页面中分离要的内容,正则表达式要略知一二。

    Python新手学习网络爬虫要做什么?

     

    四、scrapy多去了解下

    scrapy是应用最广泛的爬虫框架,没有之一,而且是成熟度最高的框架,可利用成熟产品,避免重复“造轮子”,可以更快速的构建项目。

    Scrap也是Python开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。是你学习爬虫绝对会用到的一个框架。

    Python新手学习网络爬虫要做什么?

     

    五、抓包知识与网络防爬

    学习一些抓包知识,有些网站防爬,需要人工浏览一些页面,抓取数据包分析防爬机制,然后做出应对措施。比如解决cookie问题,或者模拟设备等。

    我们要知道对方网站是怎么防止爬虫的,比如:

    新建 内容

    User-agent: *

    Disallow: /

    或者网页头部文件添加,添加如下语句:

    <meta name="robots" content="noindex, nofollow">

    当网站出现这样类似的反爬机制时,你对抓包知识理解有多深就有多好的解决方式,这里还有一点要提下,如果网站有API,写爬虫会更容易哦!

    Python新手学习网络爬虫要做什么?

     

    自学Python一般学的都是学些基本语法,或者字符串、字节串的解码与编码,对于网站开发、网络爬虫什么的都是无法理解的,所以小编今天就为你们指出一条网络爬虫的学习方向,上面五种学习爬虫会用到的知识,你若是都弄懂了,爬虫的学习也就成功了。

    展开全文
  • 网络爬虫是一种程序,主要用于搜索引擎,它将一个网站的所有内容与链接进行阅读,并建立相关的全文索引到数据库中,然后跳到另一个网站.样子好像一只大蜘蛛. 当人们在网络(如google)搜索关键字时,其实就是比对数据库...

    网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。


    网络爬虫是一种程序,主要用于搜索引擎,它将一个网站的所有内容与链接进行阅读,并建立相关的全文索引到数据库中,然后跳到另一个网站.样子好像一只大蜘蛛.
    
    当人们在网络上(如google)搜索关键字时,其实就是比对数据库中的内容,找出与用户相符合的.网络爬虫程序的质量决定了搜索引擎的能力,如google的搜索引擎明显要比百度好,就是因为它的网络爬虫程序高效,编程结构好.


    展开全文
  • 入门学习Linux常用必会60命令实例详解doc/txt

    千次下载 热门讨论 2011-06-09 00:08:45
    一个新安装的Linux系统允许用户使用“Alt+F1”“Alt+F6”键来访问前六个虚拟控制台。虚拟控制台最有用的是,当一个程序出错造成系统死锁时,可以切换其它虚拟控制台工作,关闭这个程序。 shutdown 1.作用 ...
  • 在android8.0 系统手机 访问一个https的网站,他会自动跳转到另一个https域名上去, 然后我在shouldOverrideUrlLoading()方法中拦截了要跳转的链接,追加要用的参数,mWebView.loadUrl(mUrl) 去加载 然后就没有...

    在android8.0 系统手机 上访问一个https的网站,他会自动跳转到另一个https域名上去, 然后我在shouldOverrideUrlLoading()方法中拦截了要跳转的链接,追加要用的参数,mWebView.loadUrl(mUrl) 去加载

    然后就没有反应了,状态监听也没有任何回调,抓包也没有任何请求发出去。 android8.0以下的系统都是正常的,有没有大神知道啊

    网页js跳转的方法使用的是window.location.href,页面也没有表单提交

    @Override public boolean shouldOverrideUrlLoading(WebView view, String url) { if (subUrl.startsWith(actUrl)) { String addedUrl = addThirdPartyActivity(mUrl); mWebView.loadUrl(mUrl); return true; } return false; }

    用的是华为手机

    里面业务比较多 把关键代码抽出来了 addThirdPartyActivity()方法是对全局muUrl做处理 添加用户信息和加密参数,数据反复验证过是没用问题的 走的是返回true的那个分支 第一个链接到第二个链接是服务器重定向过去的

    重定向的第二个链接我把他单独打开也没有问题

    第一个怀疑证书https问题 但是并没用看到返回证书报错的回调

    第二个怀疑js跨域

    第三个怀疑谷歌8系统又偷偷改啥了 android的webview贼坑 但是又差不多又啥问题

    有碰到此种坑的大神知道么

    转载于:https://juejin.im/post/5aba18f65188255570060be3

    展开全文
  • 小时内学会 C#(txt版本)

    热门讨论 2009-08-19 18:09:37
    在一小时内学会 C#。...你可以使用 unsafe 修饰符在 C# 中定义一个不安全下文。在不安全上下文中,你可以插入不安全代码,如 C++ 的指针等。参见以下代码: 复制内容剪贴板 代码: public unsafe MyFunction...
  • 数据同步风车 v2.4.rar

    2019-07-14 08:04:45
    文件远程备份到另一台服务器或互相备份的软件。 监视指定文件夹下文件的变化并将增加或修改文件同步备份到另一台服务器。数据异地同步软件,数据异地备份软件,文件异地同步软件,文件异地备份软件。  1.同步...
  • 数据同步风车 v2.4

    2019-11-02 04:27:25
    监视指定文件夹下文件的变化并将增加或修改文件同步备份到另一台服务器的文件远程备份软件,数据异地同步软件,数据异地备份软件,文件异地同步软件,文件异地备份软件。 1.同步效率经过测试到达99.4%左右。 2.自动...
  • vc++ 应用源码包_1

    热门讨论 2012-09-15 14:22:12
    压缩包内有两个源码包,一个是注册机源程序,另一个是解密机的源程序,一套完整的参考实例。 VC+MapX源码含GPS跟踪演示 VC3D 利用VC编程在界面实现3D文字 在MFC应用程序中浏览PDF、Word文档文件 vcdialog 自...
  • vc++ 应用源码包_6

    热门讨论 2012-09-15 14:59:46
    压缩包内有两个源码包,一个是注册机源程序,另一个是解密机的源程序,一套完整的参考实例。 VC+MapX源码含GPS跟踪演示 VC3D 利用VC编程在界面实现3D文字 在MFC应用程序中浏览PDF、Word文档文件 vcdialog 自...
  • vc++ 应用源码包_5

    热门讨论 2012-09-15 14:45:16
    压缩包内有两个源码包,一个是注册机源程序,另一个是解密机的源程序,一套完整的参考实例。 VC+MapX源码含GPS跟踪演示 VC3D 利用VC编程在界面实现3D文字 在MFC应用程序中浏览PDF、Word文档文件 vcdialog 自...
  • vc++ 应用源码包_2

    热门讨论 2012-09-15 14:27:40
    压缩包内有两个源码包,一个是注册机源程序,另一个是解密机的源程序,一套完整的参考实例。 VC+MapX源码含GPS跟踪演示 VC3D 利用VC编程在界面实现3D文字 在MFC应用程序中浏览PDF、Word文档文件 vcdialog 自...
  • vc++ 应用源码包_4

    热门讨论 2012-09-15 14:38:35
    压缩包内有两个源码包,一个是注册机源程序,另一个是解密机的源程序,一套完整的参考实例。 VC+MapX源码含GPS跟踪演示 VC3D 利用VC编程在界面实现3D文字 在MFC应用程序中浏览PDF、Word文档文件 vcdialog 自...
  • vc++ 应用源码包_3

    热门讨论 2012-09-15 14:33:15
    压缩包内有两个源码包,一个是注册机源程序,另一个是解密机的源程序,一套完整的参考实例。 VC+MapX源码含GPS跟踪演示 VC3D 利用VC编程在界面实现3D文字 在MFC应用程序中浏览PDF、Word文档文件 vcdialog 自...
  • Visual Studio程序员箴言--详细书签版

    热门讨论 2012-10-16 20:37:39
    技巧1.14 在不滚动的情况下跳到编辑器中当前视图的顶部或底部 8 技巧1.15 隐藏编辑器中的垂直和水平滚动条 10 1.2.2 在编辑器内和编辑器之间进行导航 10 技巧1.16 通过返回标记在编辑器中进行向前和向后定位...
  • 文章管理系统

    2014-12-06 10:19:22
    11.解决后台编辑器之前空2格低于一个汉字的问题 12.完善几个细节问题 13.整合20121103~20121220补丁 2012年12月20日 ★更新方式:admin文件夹改成你后台目录名,然后补丁包里的所有文件覆盖进去。 1.富媒体...
  • 让默认的就可以了,但是超频玩者是肯定不会放过任何可以提高性能的东西的,所以如果你想在这里让你的电脑提升一点性能的话,就必须慢慢试验,选择一个适当的参数才能让你的计算机达到性能和稳定的最佳状态!...
  • 一文带你搞懂API网关

    2020-12-28 06:45:32
    假设你正在开发一个电商网站,那么这里会涉及很多后端的微服务,比如会员、商品、推荐服务等等。 <p><img alt="image" src=...
  • nlb负载均衡架设教程

    2018-05-30 15:37:39
    我们现在server01新建一个共享文件夹,放我们的网站 然后再server02和server03安装IIS服务,并配置IIS服务器 Server02的IIS配置相同 配置完成后,我们现在客户机用浏览器访问http://192.168.10.100 ...
  • 篇基本是第一版的修订,只是做了一个调整,那便是在兼顾 Windows和Linux两方面用户的基础,默认在Linux下建立开发环境来编写我们的操作系统。至于这样做的原因,在本书第 2章有比较详细的说明。当然,开发环境...
  • 篇基本是第一版的修订,只是做了一个调整,那便是在兼顾 Windows和Linux两方面用户的基础,默认在Linux下建立开发环境来编写我们的操作系统。至于这样做的原因,在本书第 2章有比较详细的说明。当然,开发环境...
  • 如果你连Win2k的驱动也没有,那就只有另一个办法了,先找出你的设备的生产厂家和型号,一般说明 书或板、卡上面都把厂家和型号打印上去了,然后从能上网的电脑上进厂家的网站,选中型号后直接 下载。再用软盘或...
  • X-Scan v3.1

    2018-10-22 08:43:03
    “顺序执行针对服务的破坏性脚本” - 如果一个脚本正在尝试D.O.S某个服务,另一个脚本同时在获取该服务信息,或同时有其他脚本尝试溢出该服务,将导致扫描结果不正确。但如果脚本间不需要互相等待,将会节省扫描...
  • 如果待查文件在比对库中存在,文件名相同会自动跳过比对,若文件名不相同,则会导致查重重复率高于90%的情况(相当于是两篇相同的文本进行比对,至于为什么不是100%后续有说明)。 查重原理说明 查重的原理: 每两...
  • iPhone开发秘籍(第2版)--源代码

    热门讨论 2012-12-11 13:51:22
    2.5.5 设置另一个断点 42 2.5.6 使用文本消息 43 2.5.7 移动Clear Log按钮 43 2.5.8 启用Zombie 44 2.6 内存管理 45 2.6.1 泄漏 45 2.6.2 缓存 45 2.7 秘诀:使用Instruments检测内存泄漏 46 2.8 秘诀:...
  • c语言编写单片机技巧

    2009-04-19 12:15:17
    可能的话,可以ic37去买一些小零件,自己搭一个小系统让它工作起来。 HOTLEK的单片机是RISC结构的8位单片机,它可以广泛应用在家用电器、安全系统、掌上游戏等方面。大概来说可以分成I/O型单片机、LCD型单片机...
  • 这是我将我的所有公开的算法资料整理的一个电子书,全部题目信息中文化,以前会有一些英文描述,感谢 @CYL 的中文整理。 限时免费下载!后期随时可能收费 有些动图,在做成电子书(比如 pdf)的时候自然就变没了,...
  • 实例244 使用内联接选择一个表与另一个表中行相关所有行 7.16 外联接查询 实例245 Left Outer Join查询——左外联接查询 478 实例246 Right Outer Join查询——右外联接查询 479 实例247 使用外联接进行多表...
  • X-Scan

    千次下载 热门讨论 2008-04-04 15:19:43
    超时数据将被忽略 “过针对主机的破坏性脚本” - 如标题所述 “检测脚本间的依赖关系” - NASL脚本间相互是有关联的,比如一个脚本先获取服务的版本,另一个脚本再根据服务版本进行其他检测。如果打乱了...

空空如也

空空如也

1 2
收藏数 33
精华内容 13
关键字:

上网站自动跳到另一个网站