2019-01-15 13:51:44 tobale 阅读数 1787
  • Python网络爬虫基础篇

    本课程主要给大家分享基于Python语言的网络爬虫基础篇体验,其中讲解爬虫原理介绍,urllib和requests爬虫库的使用,以及网络爬虫中的数据分析与信息提取。通过模拟Web的GET和POST请求来爬取数据,介绍如何应对各种常见反爬机制。后续还会有更深入的网络爬虫介绍体验,请大家持续关注。

    8358 人正在学习 去看看 CSDN讲师

由于ID依据电脑的mac地址生成, 所以需要修改电脑的mac地址来修改ID

1. 更换linux的mac地址 (http://www.linuxfly.org/post/89/)

ifconfig eth0 down
ifconfig eth0 hw ether xx:xx:xx:xx:xx:xx
ifconfig eth0 up

2. 卸载之前的teamviewer

sudo dpkg --purge teamviewer
rm -rf ~/.config/teamviewer
rm -rf ~/.local/share/teamviewer13

3. 重新安装teamviewer

sudo dpkg -i ~/Downloads/teamviewer-host_13.0.5641_amd64.deb

 

2017-04-05 11:17:19 qq_16416231 阅读数 3961
  • Python网络爬虫基础篇

    本课程主要给大家分享基于Python语言的网络爬虫基础篇体验,其中讲解爬虫原理介绍,urllib和requests爬虫库的使用,以及网络爬虫中的数据分析与信息提取。通过模拟Web的GET和POST请求来爬取数据,介绍如何应对各种常见反爬机制。后续还会有更深入的网络爬虫介绍体验,请大家持续关注。

    8358 人正在学习 去看看 CSDN讲师
maxPostSize="0"  tomcat post 的数据大小有限制  ,maxPostSize设置为0表示没有限制 用以上下代码覆盖掉上面的就可以了
<Connector connectionTimeout="20000" port="8080" protocol="HTTP/1.1" redirectPort="8443"  maxPostSize="0"/>  
  <!-- A "Connector" using the shared thread pool-->  
  <!--  
  <Connector executor="tomcatThreadPool"  
             port="8080" protocol="HTTP/1.1"  
             connectionTimeout="20000"  
             redirectPort="8443" maxPostSize="0"/>  


tomcat nginx默认的post大小限制
执行大文件上传,或者,大数据量提交时,当提交的数据大小超过一定限制时,发现后台从request取值的代码request.getParameter("message")返回值为null,原因是因为服务器对于提交的post请求的大小有一定的限制

tomcat:默认大小2097152,当maxPostSize=0时,不限制;maxPostSize=20971520时,为20M
nginx:默认的最大请求body大小为8m,修改设置client_max_body_size=100m;
resin:没有发现默认限制请求大小的地方!

tomcat:maxPostSize

The maximum size in bytes of the POST which will be handled by the container FORM URL parameter parsing. The limit can be disabled by setting this attribute to a value less than or equal to 0. If not specified, this attribute is set to 2097152 (2 megabytes).


Nginx的"413 request entiry too large"
tomcat返回400
tomcat请求端口都加上maxPostSize="0"
 
2012-08-31 10:25:00 yanggang_1997_2000 阅读数 10
  • Python网络爬虫基础篇

    本课程主要给大家分享基于Python语言的网络爬虫基础篇体验,其中讲解爬虫原理介绍,urllib和requests爬虫库的使用,以及网络爬虫中的数据分析与信息提取。通过模拟Web的GET和POST请求来爬取数据,介绍如何应对各种常见反爬机制。后续还会有更深入的网络爬虫介绍体验,请大家持续关注。

    8358 人正在学习 去看看 CSDN讲师
原文链接:http://blog.s135.com/post/380

Linux下限制网卡的带宽,可用来模拟服务器带宽耗尽,从而测试服务器在此时的访问效果。

  1、安装iproute
yum -y install iproute


  2、限制eth0网卡的带宽为50kbit:
/sbin/tc qdisc add dev eth0 root tbf rate 50kbit latency 50ms burst 1000


  3、限制带宽为50kbit后,在百兆局域网中wget下载一个大文件:
# wget http://192.168.1.7/test.zip
--19:40:27-- http://192.168.1.7/test.zip
Connecting to 192.168.1.7:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 23862312 (23M) [application/zip]
Saving to: `test.zip'

37% [=======> ] 8,994,816 457K/s eta 27s

  下载速度为457K/s,限制效果达到。

  4、解除eth0网卡的带宽限制:
/sbin/tc qdisc del dev eth0 root tbf


  5、对比:未作带宽限制情况下,在百兆局域网中wget下载一个大文件:
# wget http://192.168.1.7/test.zip
--19:44:33-- http://192.168.1.7/test.zip
Connecting to 192.168.1.7:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 23862312 (23M) [application/zip]
Saving to: `test.zip'

100%[==========>] 23,862,312 6.14M/s in 3.7s

19:44:36 (6.16 MB/s) - `test.zip' saved [23862312/23862312]

  下载速度为6.16MB/s。
2017-03-12 11:24:29 LIU_YANZHAO 阅读数 249
  • Python网络爬虫基础篇

    本课程主要给大家分享基于Python语言的网络爬虫基础篇体验,其中讲解爬虫原理介绍,urllib和requests爬虫库的使用,以及网络爬虫中的数据分析与信息提取。通过模拟Web的GET和POST请求来爬取数据,介绍如何应对各种常见反爬机制。后续还会有更深入的网络爬虫介绍体验,请大家持续关注。

    8358 人正在学习 去看看 CSDN讲师

今天帮一个群里朋友改linux+nginx+wordpress上传限制,一般方法是在php.ini里改。但是他不知道php.ini在哪里,怎么找到php.ini呢?

方法很简单,在终端输入

find / -name “php.ini”

php.ini位置显而易见啦只需要在末尾加

upload_max_filesize = 40M
post_max_size = 40M

上传限制就是40M啦

原文地址:http://liuyanzhao.com/2006.html

2018-04-26 20:54:20 sunayn 阅读数 5840
  • Python网络爬虫基础篇

    本课程主要给大家分享基于Python语言的网络爬虫基础篇体验,其中讲解爬虫原理介绍,urllib和requests爬虫库的使用,以及网络爬虫中的数据分析与信息提取。通过模拟Web的GET和POST请求来爬取数据,介绍如何应对各种常见反爬机制。后续还会有更深入的网络爬虫介绍体验,请大家持续关注。

    8358 人正在学习 去看看 CSDN讲师

1.标准答案

  • GET在浏览器回退时是无害的,而POST会再次提交请求。

  • GET产生的URL地址可以被Bookmark,而POST不可以。

  • GET请求会被浏览器主动cache,而POST不会,除非手动设置。

  • GET请求只能进行url编码,而POST支持多种编码方式。

  • GET请求参数会被完整保留在浏览器历史记录里,而POST中的参数不会被保留。

  • GET请求在URL中传送的参数是有长度限制的,而POST么有。

  • 对参数的数据类型,GET只接受ASCII字符,而POST没有限制。

  • GET比POST更不安全,因为参数直接暴露在URL上,所以不能用来传递敏感信息。

  • GET参数通过URL传递,POST放在Request body中。

2.博主理解

上面的这些看起来很多,背给面试官的时候又显得太过于官方,其实大体也就是这几个方面:

GET参数放在URL中,并且只请求一次;而POST放在Request body中,请求两次。

所以GET只能进行URL编码了,参数就会被完整保留历史记录了,长度就有限了,数据类型只能是ASCLL字符了,不安全不能传递敏感信息了也就相继产生

剩下也就记一下POST回退时会再次请求,GET的URL地址可以被记录书签,GET会被主动保存缓存等。

3.题外话

这些只是浅显的入门,并非完全理解深入,如果想要深入了解还应该多查多看



没有更多推荐了,返回首页