精华内容
下载资源
问答
  • 用HTML5开发一个人网站,一共包含八个网页,有个人主页,爱摄影,爱音乐,爱阅读等网页
  • 经过反复摸索,终于发现了打开新的标签页的可靠办法,由此实现以一个浏览器打开多个标签页,代码分享给大家。 from selenium import webdriver js="window.open({},'_blank');" #第一个网站 driver=webdriver.Chrome...

    如何用selenium打开新的标签页?网上都说是实现输入Ctrl+t即可,但测试完全不可行。经过反复摸索,终于发现了打开新的标签页的可靠办法,由此实现以一个浏览器打开多个标签页,代码分享给大家。

    from selenium import webdriver
    js="window.open('{}','_blank');"
    #第一个网站
    driver=webdriver.Chrome()
    driver.get('http://web1.com')
    driver.find_element_by_id('username').send_keys('user1')
    driver.find_element_by_id('password').send_keys('pass1')
    driver.find_element_by_tag_name('form').submit()  	#表单提交
    #第二个网站
    driver.execute_script(js.format('http://web2.com'))
    driver.switch_to.window(driver.window_handles[-1])    #切换到最新页面
    driver.find_element_by_id('userid').send_keys('user2')
    driver.find_element_by_id('pwd').send_keys('pass2')
    driver.find_element_by_id('Submit').click()		#点击按钮
    #第三个网站 
    driver.execute_script(js.format('http://wweb3.com')
    driver.switch_to.window(driver.window_handles[-1])    #切换到最新页面
    if 'login' in driver.current_url:		#默认打开页面后会自动跳转到登录页
      driver.find_element_by_id('_umname').send_keys('user3')
      driver.find_element_by_id('pwd').send_keys('pass3')
      driver.find_element_by_id('submit').click()
    
    
    展开全文
  • python使用scrapy自动爬取多个网页

    千次阅读 2019-05-19 16:48:55
    如果我们想爬取多个网页。比如网上的小说该如何如何操作呢。比如下面的这样的结构。是小说的第一篇。可以点击返回目录还是下一页 对应的网页代码: 我们再看进入后面章节的网页,可以看到增加了上一页 对应...

    前言

    本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

    PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

    python免费学习资料以及群交流解答点击即可加入

    前面介绍的scrapy爬虫只能爬取单个网页。如果我们想爬取多个网页。比如网上的小说该如何如何操作呢。比如下面的这样的结构。是小说的第一篇。可以点击返回目录还是下一页

    对应的网页代码:

    我们再看进入后面章节的网页,可以看到增加了上一页

    对应的网页代码:

    通过对比上面的网页代码可以看到. 上一页,目录,下一页的网页代码都在<div>下的<a>元素的href里面。不同的是第一章只有2个<a>元素,从二章开始就有3个<a>元素。因此我们可以通过<div>下<a>元素的个数来判决是否含有上一页和下一页的页面。代码如下

    最终得到生成的网页链接。并调用Request重新申请这个网页的数据

    那么在pipelines.py的文件中。我们同样需要修改下存储的代码。如下。可以看到在这里就不是用json. 而是直接打开txt文件进行存储

    完整的代码如下:在这里需要注意两次yield的用法。第一次yield后会自动转到Test1Pipeline中进行数据存储,存储完以后再进行下一次网页的获取。然后通过Request获取下一次网页的内容

    对于自动爬取网页scrapy有个更方便的方法:CrawlSpider

    前面介绍到的Spider中只能解析在start_urls中的网页。虽然在上一章也实现了自动爬取的规则。但略显负责。在scrapy中可以用CrawlSpider来进行网页的自动爬取。

    爬取的规则原型如下:

    classscrapy.contrib.spiders.Rule(link_extractor, callback=None, cb_kwargs=None, follow=None,process_links=None, process_request=None)

    LinkExtractor.:它的作用是定义了如何从爬取到的的页面中提取链接

    Callback指向一个调用函数,每当从LinkExtractor获取到链接时将调用该函数进行处理,该回调函数接受一个response作为第一个参数。注意:在用CrawlSpider的时候禁止用parse作为回调函数。因为CrawlSpider使用parse方法来实现逻辑,因此如果使用parse函数将会导致调用失败

    Follow是一个判断值,用来指示从response中提取的链接是否需要跟进

    在scrapy shell中提取www.sina.com.cn为例

    LinkExtractor中的allow只针对href属性:

    例如下面的链接只针对href属性做正则表达式提取

    结构如下:可以得到各个链接。

    可以通过restrict_xpaths对各个链接加以限制,如下的方法:

    实例2:还是以之前的迅读网为例

    提取网页中的下一节的地址:

    网页地址:

    http://www.xunread.com/article/8c39f5a0-ca54-44d7-86cc-148eee4d6615/1.shtml

     下一页的的相对URL地址为2.shtml。

    通过如下规则提取出来

    >>> item=LinkExtractor(allow=('\d\.shtml')).extract_links(response)

    >>> for i in item:

    ...   print i.ur

    ...

    http://www.xunread.com/article/8c39f5a0-ca54-44d7-86cc-148eee4d6615/2.shtml

    也通过导航页面直接获取所有章节的链接:

    C:\Users\Administrator>scrapy shell http://www.xunread.com/article/8c39f5a0-ca54

    -44d7-86cc-148eee4d6615/index.shtml

     

    from scrapy.linkextractors import LinkExtractor

     

    >>> item=LinkExtractor(allow=('\d\.shtml')).extract_links(response)

    >>> for i in item:

    ...   print i.url

    得到如下全部的链接

    那么接下来构造在scrapy中的代码,如下

    关键的是rules=(Rule(LinkExtractor(allow=('\d\.shtml')),callback='parse_item',follow=True),) 这个里面规定了提取网页的规则。以上面的例子为例。爬取的过程分为如下几个步骤:

    1 从http://www.xunsee.com/article/8c39f5a0-ca54-44d7-86cc-148eee4d6615/1.shtml开始,第一调用parse_item,用xpath提取网页内容,然后用Rule提取网页规则,在这里提取到2.shtml

    进入2.shtml.进入2.shtml后再重复运行第一步的过程。直到Rules中提取不到任何规则

    我们也可以做一下优化,设置start_urls为页面索引页面

    http://www.xunsee.com/article/8c39f5a0-ca54-44d7-86cc-148eee4d6615/index.shtml

    这样通过Rule可以一下提取出所有的链接。然后对每个链接调用parse_item进行网页信息提取。这样的效率比从1.shtml要高效很多。

    展开全文
  • jquery/js实现一个网页同时调用多个倒计时(最新的)

    万次阅读 多人点赞 2015-11-25 15:24:27
    jquery/js实现一个网页同时调用多个倒计时(最新的) 最近需要网页添加多个倒计时. 查阅网络,基本上都是千遍一律的不好用. 自己按需写了个.希望对大家有用. 有用请赞一个哦! //js //js2 var plugJs={ stamp:0, ...

    jquery/js实现一个网页同时调用多个倒计时(最新的)

    最近需要网页添加多个倒计时. 查阅网络,基本上都是千遍一律的不好用. 自己按需写了个.希望对大家有用. 有用请赞一个哦!

    //js

    //js2
    var plugJs={
        stamp:0,
        tid:1,
        stampnow:Date.parse(new Date())/1000,//统一开始时间戳
        intervalTime:function(){
            if(plugJs.stamp > 0){
                var day = Math.floor(plugJs.stamp / (60 * 60 * 24));
                var hour = Math.floor(plugJs.stamp / (60 * 60)) - (day * 24);
                var minute = Math.floor(plugJs.stamp / 60) - (day * 24 * 60) - (hour * 60);
                var second = Math.floor(plugJs.stamp) - (day * 24 * 60 * 60) - (hour * 60 * 60) - (minute * 60);
                
                if (day <= 9) day = '0' + day;
                if (hour <= 9) hour = '0' + hour;
                if (minute <= 9) minute = '0' + minute;
                if (second <= 9) second = '0' + second;
                jQuery('.t_h_'+plugJs.tid).html(hour);
                jQuery('.t_m_'+plugJs.tid).html(minute);
                jQuery('.t_s_'+plugJs.tid).html(second);
                plugJs.stamp--;
                setTimeout('if(typeof(plugJs.intervalTime) == "function"){plugJs.intervalTime();}',1000);
            }
        },
        timer:function (stampend,tid){
            plugJs.stamp = parseInt(stampend)-parseInt(plugJs.stampnow);//剩余时间戳
            plugJs.tid = tid;
            setTimeout('if(typeof(plugJs.intervalTime) == "function"){plugJs.intervalTime();}',1000);
        }
    };
    jQuery(document).ready(function(){
        var stampend = parseInt(jQuery('.countdown_1').attr('data-time'));//灵活读取表里的结束时间戳
        plugJs.timer(stampend,'1');
    });

     


    //html 原文http://blog.csdn.net/websites/article/details/50037611

     

    <div class="time countdown_1" data-time="1449429731">
        <span class="t_h_1">00</span>
        <i class="lay_line">:</i>
        <span class="t_m_1">00</span>
        <i class="lay_line">:</i>
        <span class="t_s_1">00</span>
    </div>
    <div class="time countdown_2" data-time="1449456731">
        <span class="t_h_2">00</span>
        <i class="lay_line">:</i>
        <span class="t_m_2">00</span>
        <i class="lay_line">:</i>
        <span class="t_s_2">00</span>
    
    </div>

     

    注释:setTimeout() 只执行 code 一次。如果要多次调用,请使用 setInterval() 或者让 code 自身再次调用 setTimeout()。

     

     

     

     

     

    展开全文
  • 如何查看网页上的字体

    千次阅读 2019-11-18 16:33:45
    font-family 设置了那么字体,浏览器到底使用了哪个? 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。 ...

    font-family 设置了那么多字体,浏览器到底使用了哪个?

    最近,有个小盆友的Boss问他,咱们网站用的什么字体?
    小盆友按照css的规则,告诉Boss,浏览器会使用它可识别的第一个字体,如果浏览器不支持第一个字体,则会尝试下一个。
    显然,小盆友没说清楚想要的答案,Boss不买账。
    受了批评的小盆友,一脸委屈的找到我。 我第一反应是拒绝的,这个百度一下,应该会有的。
    既然你也进来了,一定是和他一样,没找到个合适的文章。
    主要是让他学会如何解决问题,不是我要难为他,浪费他的时间。
    接下来进入正题:

    研究一下 “百度为您找到相关结果约8,240,000个” 用了什么字体

    以Google浏览器为例

    检查元素

    我在百度搜索了一个关键词,检查下图划线部分的这个元素:
    在这里插入图片描述
    右击也好,F12也罢,总之得到下图这个结果
    在这里插入图片描述
    到这里你已经成功80%了

    查看字体

    点击Computed这里,是不是看到计算属性了
    不要急,往下看,最下面
    在这里插入图片描述
    看到我红色方框了吧。
    恭喜你,成功了!
    微软雅黑字体 —— 12个字符
    Arial字体 ———— 9个字符
    不信的话,自己数一下【百度为您找到相关结果约8,240,000个】

    展开全文
  • cmd 浏览器打开多个网页

    千次阅读 2018-05-27 15:22:20
    解决方案 如果浏览器的安装路径中有空格,可以用“ ”代替,如下: C:\Program Files\Mozilla Firefox\firefox....用火狐浏览器打开网页的批处理代码:start 安装路径 网址 这里我的火狐安装路径是:F:\Program ...
  • 最近看了一小效果,感觉还挺不错,代码实现起来也挺简单,于是就写了些。 html: //用来显示逐渐出现的文字 宝贝,我好想好想你,想你想的睡不好觉,想你想的吃不下饭,我爱你爱你爱你,么么么么么么么么,啵啵...
  • 由于第一代网页基本都是为800x600的15'CRT显示器开发的,所以大多数...另一个网页使用小字体的原因是,在互联网普及之初,英文网页占的比例比较大。由于英文字母相对汉字来说超简单,都没有笔画是否复杂一说,英文的...
  • 利用Python爬取网页多个页面的表格数据并存到已有的excel中 1、具体要求 获取牛客网->题库->在线编程->剑指Offer网页,获取表格中的全部题目,保存到本地excel中 2、技术要求 利用Selenium+...
  • 网页的一个页面中显示另一个页面

    千次阅读 2018-10-20 19:56:42
    内联框架:HTML内联框架是为了实现在网页中显示网页,突出了内联二,就是在一个网页中,我们能够控制在这个网页中用大的框去显示另外一个网页,并且能通过CSS对其进行控制。 2、两种应用场景: (1)固定右侧...
  • font-spider(蛛)官网: 蛛 github源码 安装 先要安装npm与node 安装好之后就可以直接安装蛛 我用了centos的服务器 用npm全局安装font-spider # npm install font-spider -g 安装之后输入 # font-...
  • 多个域名使用微信网页授权

    千次阅读 2018-07-31 16:05:40
    想要页面授权的网站A,通过已微信授权B网站的一个html页面获取code,来实现多个网站页面授权。此过程A会进行一次跳转,跳转到B获取code,再回到A,此时A已被授权。除了多一次跳转,其他不受影响。 1.公众号后台填写...
  • 所以总不能对项目A进行重写设置一入口写好多页面来进行项目B的开发吧。这样不但耗费时间,而且项目A和B就不是独立的项目了。对授权不了解的可以参考我的这篇文章:https://blog.csdn.net/qq_3543000...
  • 到现在才发现,网页可以直接输出为pdf文档 软件准备:火狐浏览器FireFOX、AdobePDF ...将需要合并的多个文件放在一个统一的文件夹 打开AdobePDF软件——&amp;gt;点击左上角文件——&amp;...
  • 不然的话会出现只能打开一个页面的情况 str += ' + i + '"' + ' href="' + urls[i] + '" target=_blank>第' + i + '个 '; //str += ' '; //str += ''; } document.getElementById("myid").innerHTML = str; let btn...
  • 一个HTML页面插入多个表单的问题

    千次阅读 2019-01-04 21:23:09
    在同一个HTML的页面中规则上允许可以用到多个&lt;form&gt;&lt;/form&gt;标签,但是为了防止提交时后台无法识别最好给表单加上不同的ID或者class,博主选择的是加上不同id的方法供大家参考。 ...
  • 最近遇到一在做列表的时候需要把每列表后面加上倒计时,时间结束执行其他功能。 由于列表渲染的时候是通过socket 直接返回列表数据,没有进行页面的整体刷新。进而每次socket 数据过来的时候使定时器再次生成,...
  • 里面规定了提取网页的规则。以上面的例子为例。爬取的过程分为如下几步骤: 1 从 http://www.xunsee.com/article/8c39f5a0-ca54-44d7-86cc-148eee4d6615/1.shtml 开始,第一调用 parse_item ,用 xpath ...
  • 有些笔记本电脑或LCD...但是IE浏览器缺省是使用96DPI分辨率来显示的,且不允许用户在选项里选择使用自定义的分辨率,所以看很多网页时字体会变得很小以至于影响阅读。 以前有一办法是在IE选项的辅助功能里设置IE...
  • 微信网页授权: https://open.weixin.qq.com/connect/oauth2/authorize?appid=APPID&redirect_uri=REDIRECT_URI&response_type=code&scope=SCOPE&state=STATE#wechat_redirect 跳转后地址 ...
  • Python爬取网址中多个页面的信息

    千次阅读 2020-09-23 14:25:13
    本文讲解该如何爬取之后的页面信息,希望对你有帮助 一、审查元素 ...小编创建了一Python学习交流QQ群:778463939 寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书! ''' def nex
  • 测试场景:1、100个用户在5秒内同时访问14个页面2、添加固定计时器:每个网页之间间隔500毫秒,即上一个网页访问结束后,休息500毫秒在访问下一个网页3、添加断言持续时间:这个时间是毫秒为单位,即响应时间。...
  • 1.在一个网页多个HTML页面。 使用标签 rows="25%,50%,25%"> 把网站分成三部分,rows代表行,cols代表列。 src="text2.html" noresize="noresize"> 添加三个HTML的位置即可,noresize 代表网页的大小...
  • 一、生成0-599数的txt文件 # with open 打开文件 不用关闭 with open('1.txt', mode='a+', encoding='utf-8') as f: for i in range(0, 10): f.write('###00%s\n' % i) for i in range(10, 100): f.wri...
  • web网页引入自定义字体设置

    万次阅读 2017-11-30 11:55:20
    新项目中 设计用了一自定义的字体,由于不熟悉,折腾了好大一圈,最终在同事的帮助下,顺利解决,记录一下,供有同样疑虑的小伙伴参考。 1、首先需要下载你需要的字体,此项目中用到的字体是思源黑体(light),...
  • test.png 完整的代码: &lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;meta charset="utf-8"&gt; &lt;style&gt; .tree-default{ ... hei...
  • 网页使用中文字体的两种解决方案

    千次阅读 2015-10-18 23:21:54
    背景:英文的字体很好使用,因为只有26大小写字母,以及一些符号,本身的字体文件就很小,不会对页面的加载造成大的影响;但是中文的字体文件相当大,仅字体文件本身就5-6M,所以需要采取点手段才敢在网站中使用...
  • 在上一篇scrapy介绍中,我们抓取了单一的网页。这一章介绍了如何自动抓取多个网页。这里还是以一个小说的页面为例子进行讲解
  • #加入count是为了有张图片,防止名字相同被替换掉 count=0 #for循环 找到所有img标签 获取其他元素也可以写别的标签 for img in soup.find_all("img"): #得到他的src属性 src=img.get("src") print(src) #请求...
  • 如何制作一个网页

    万次阅读 多人点赞 2018-07-30 23:31:11
    当您导航到Internet上的网页时,浏览器正在做很工作。浏览器读取所有必需的文件(HTML,CSS和JavaScript)并解释这些原始资源以绘制您看到的复杂页面。 在本文中,您将学习如何使用自己计算机上的文本编辑器创建...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,097,310
精华内容 438,924
关键字:

网页的多个子页面