精华内容
下载资源
问答
  • 某一网站平台的客户数据库黑客篡改了,篡改了会员的信息以及金额,包括注单也黑客篡改,导致平台的损失很大,在后台提现的时候,客户才发现会员的数据有异常,觉得不得劲,查询该会员账号的所有投注信息发现了...

    某一网站平台的客户数据库被黑客篡改了,篡改了会员的信息以及金额,包括注单也被黑客篡改,导致平台的损失很大,在后台提现的时候,客户才发现会员的数据有异常,觉得不得劲,查询该会员账号的所有投注信息发现了问题。数据库被攻击了,防止数据库被攻击,被篡改。

    数据库的安全问题每天都会发生,不光光篡改你的数据,前些日子有一客户的数据库被删除了,并留下内容说是数据库已备份,需要比特币来恢复,大约价格在几万左右,客户之前有做异地数据库备份,这才将损失降到最低,但是日后的数据库安全问题给他们敲响了警钟,需要做安全防护与部署,防止后期再被删除,攻击。甚至有些网站的数据库被脱裤,所有的会员账号密码名字,手机号都隐私信息被泄露出去,被打包卖了,数据库的安全问题不容忽视。关于数据库的安全设置,以及防止数据库被攻击,如何查找攻击者,详细的讲解一下:

    目前常见的数据库攻击的特征分为,数据库root密码的弱口令攻击,以及sql注入攻击,数据库提权加管理员账户,数据库写入木马代码,数据库某一表被删除,数据库内容被篡改等等,通过对数据库日志的安全分析,可以发现问题的根源与攻击的源头。

    首先我们要将我们的数据库开启log日志记录功能,每一个对数据库的请求,读写,都要记录下来,执行了哪些sql语句,查询,增加,删除等等,这样我们就可以看的很明白,如何开启mysql日志功能呢?连接数据库登陆root管理员账户,然后执行 :SET GLOBAL general_log = 'On';这一句命令,这是开启,接下来就是存在log日志的文件地址,再执行SET GLOBAL general_log_file = '/mysqlrizhi/safe.log'; 当你在网站进行查询的时候就会记录你的sql执行语句,如下图:

    通过上面我们可以看到,第一个是时间,几点几分,connect是连接数据库的操作,init db是数据库的名称,query是查询的意思,针对admin表进行查询操作,quit就是退出,我们要看明白日志才能分析出数据库被攻击的原因。数据库日志还会出现一些尝试利用弱口令进行攻击的,如下图:

    上面就是用数据库密码爆破工具来进行密码的猜测,针对于数据库的端口mysql默认是3306端口,针对这一端口,我们可以进行安全限制,对其指定IP放行,不对外公开访问,这样大大的杜绝了数据库的攻击与密码的猜解。数据库被攻击,很重要的一些特殊sql语句要记住,想drop,以及lock,info outfile,update,dumpfile,都是一些管理员的操作,备份数据库导出数据库,以及输出文件到网站目录,删除某个表,对数据库进行更新等操作。

    数据库安全设置与防篡改,防攻击的办法

    数据库的默认端口3306或者是sqlserver1433端口都要做端口的安全策略,限制对外开放,或者使用phpmyadmin对数据库进行管理等操作,网站的数据库调用账户使用普通权限账户,只有读写,增加删除等操作,没有管理员权限,时刻对数据库进行备份,设置数据库备份计划,每天,每小时都可以设置备份到指定的目录,如果使用的是阿里云的服务器建议开启阿里云的快照备份,如果自己对数据库不是太熟悉的话,也不知该如何防止数据库被攻击,建议找专业的网站安全公司来处理解决数据库被篡改,删除的问题,像Sinesafe,绿盟那些专门做网站安全防护的安全服务商来帮忙。再一个数据库的配置开启魔术模式,对sql注入的字符进行自动转义,防止sql注入攻击。

    展开全文
  • 对于如何防止网站被爬取,我想从以下几种方法去分析: 1.基于程序本身去防止爬取:作为爬虫程序,爬取行为是对页面的源文件爬取,如爬取静态页面的html代码,可以用jquery去模仿写html,这种方

    今天想对一个问题进行分析和讨论,就是关于爬虫对网站页面爬取的问题,有些网站通过爬虫去采集其它的网站页面信息作为己用,大量的爬取行为会对web服务器有比较性能有影响,主要的表现就是会变得很慢。

    对于如何防止网站被爬取,我想从以下几种方法去分析:

    1.基于程序本身去防止爬取:作为爬虫程序,爬取行为是对页面的源文件爬取,如爬取静态页面的html代码,可以用jquery去模仿写html,这种方法伪装的页面就很难被爬取了,不过这种方法对程序员的要求很高。

    2.基于iptables和shell脚本:可以对nginx的access.log进行策略定义,例如定义在1分钟内并发连接数超过30个ip为非法,如ip不在白名单内,则加入iptables策略封掉,当然这种的缺点是会有“误伤”,策略细粒度越小就会有更多的“误伤”,细粒度大就会使效果变差,另外还有类似的第三方工具fail2ban,利用做filter和actor对一些有危害的操作记录或是封ip。但是对于某个特定的爬虫地址(例如网易、有道)的爬取行为拒绝也很难准确做到,因为你无法准确知道这些特定的爬虫ip地址(例如网易、有道),以下是我的定位方式,不过发现由于ip库不准确造成错误的屏蔽。注意:建议不要用封ip条目的方式,iptables列表长度是65535时就会封满,服务器也就会死机。

    111812892.jpg

    脚本如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    #! /bin/bash
    LOGFILE=/ var /log/nginx/access.log
    PREFIX=/etc/spiders
    #日志中大部分蜘蛛都有spider的关键字,但是百度的不能封,所以过滤掉百度
    grep  'spider'  $LOGFILE |grep -v  'Baidu'  |awk  '{print $1}'  >$PREFIX/ip1.txt
    # 封掉网易的有道
    grep  'YoudaoBot'  $LOGFILE  | awk  '{print $1}'  >>$PREFIX/ip1.txt
    #封掉雅虎
    grep  'Yahoo!'  $LOGFILE  | awk  '{print $1}'  >>$PREFIX/ip1.txt
    # 过滤掉信任IP
    sort -n $PREFIX/ip1.txt |uniq  |sort |grep -v  '192.168.0.'  |grep -v  '127.0.0.1' >$PREFIX/ip2.txt
    # 如果一小时内,发包不超过 30 个就要解封
    /sbin/iptables -nvL |awk  '$1 <= 30 {print $8}'  >$PREFIX/ip3.txt
    for  ip  in  `cat $PREFIX/ip3.txt`;  do  /sbin/iptables -D INPUT -s $ip -j DROP ; done
    /sbin/iptables -Z  // 将iptables计数器置为0
    for  ip  in  `cat $PREFIX/ip2.txt`;  do  /sbin/iptables -I INPUT -s $ip -j DROP ; done


    3.使用robots.txt文件:例如阻止所有的爬虫爬取,但是这种效果不是很明显。

    1
    2
    User-agent: *
    Disallow: /


    4.使用nginx的自带功能:通过对httpuseragent阻塞来实现,包括GET/POST方式的请求,以nginx为例,具体步骤如下:

    编辑nginx.conf

    1
    #vim /usr/local/nginx/conf/nginx.conf

    拒绝以wget方式的httpuseragent,增加如下内容

    1
    2
    3
    4
    5
    6
    7
    8
    ## Block http user agent - wget ##
    if  ($http_user_agent ~* (Wget) ) {
    return  403 ;
    }
    ## Block Software download user agents ##
    if  ($http_user_agent ~* LWP::Simple|BBBike|wget) {
    return  403 ;
    }

    平滑启动

    1
    # /usr/local/nginx/sbin/nginx -s reload



    如何拒绝多种http user agent,内容如下:

    1
    2
    3
    if  ($http_user_agent ~ (agent1|agent2|Foo|Wget|Catall Spider|AcoiRobot) ) {
    return  403 ;
    }


    大小写敏感匹配

    1
    2
    3
    4
    5
    6
    7
    8
    ### 大小写敏感http user agent拒绝###
    if  ($http_user_agent ~ (Catall Spider|AcoiRobot) ) {
    return  403 ;
    }
    ### 大小写不敏感http user agent拒绝###
    if  ($http_user_agent ~* (foo|bar) ) {
    return  403 ;
    }

    注意语法:~*表示是大小写不敏感,~表示是大小写敏感

    原文:http://laoxu.blog.51cto.com/4120547/1302013


    /***********************附上php爬取目录文件代码***********************************/


    复制代码
     1 <html>
     2     <body>
     3         <?php
     4             function traverse($path = '.') {
     5                 $current_dir = opendir($path);    //opendir()返回一个目录句柄,失败返回false
     6                 while(($file = readdir($current_dir)) !== false) {    //readdir()返回打开目录句柄中的一个条目
     7                     $sub_dir = $path . DIRECTORY_SEPARATOR . $file;    //构建子目录路径
     8                     if($file == '.' || $file == '..') {
     9                         continue;
    10                     } else if(is_dir($sub_dir)) {    //如果是目录,进行递归
    11                         echo 'Directory ' . $file . ':<br>';
    12                         traverse($sub_dir);
    13                     } else {    //如果是文件,直接输出
    14                         echo 'File in Directory ' . $path . ': ' . $file . '<br>';
    15                     }
    16                 }
    17             }
    18             
    19             traverse('xxtt');
    20         ?>
    21     </body>
    22 </html>
    复制代码

    页面输出

    Directory autoload:
    File in Directory d:\www\autoload: MyClass.php
    File in Directory d:\www\autoload: MyClass2.php
    File in Directory d:\www\autoload: test.php
    File in Directory d:\www: changelog.txt
    File in Directory d:\www: cryptForm.php
    File in Directory d:\www: diffDomain.php
    Directory ExamingOnline:
    Directory New folder:
    File in Directory d:\www: example.php
    File in Directory d:\www: example2.php
    Directory Excel:
    File in Directory d:\www\Excel: oleread.inc
    File in Directory d:\www\Excel: oleread.php
    File in Directory d:\www\Excel: reader.php
    File in Directory d:\www: expert.xls
    File in Directory d:\www: expert.xlsx
    File in Directory d:\www: index.php
    File in Directory d:\www: index2.php
    File in Directory d:\www: jxlrwtest.xls
    File in Directory d:\www: lcs.php


    展开全文
  • 如何防止网站内容采集

    万次阅读 2014-12-25 14:31:50
    很多防采集方法在施行的... 两者单位时间内会多次大量抓取访问的网站内容;  c. 宏观上来讲两者IP都会变动;  d. 两者多没耐心的去破解你对网页的一些加密(验证),比如网页内容通过js文件加密,比如需要输入验证码
    很多防采集方法在施行的时候需要考虑是否影响搜索引擎对网站的抓取,所以先来分析下一般采集器和搜索引擎爬虫采集有何不同。
    
      相同点:
      a. 两者都需要直接抓取到网页源码才能有效工作,
      b. 两者单位时间内会多次大量抓取被访问的网站内容;
      c. 宏观上来讲两者IP都会变动;
      d. 两者多没耐心的去破解你对网页的一些加密(验证),比如网页内容通过js文件加密,比如需要输入验证码才能浏览内容,比如需要登录才能访问内容等。
      不同点:
      搜索引擎爬虫先忽略整个网页源码脚本和样式以及html标签代码,然后对剩下的文字部分进行切词语法句法分析等一系列的复杂处理。而采集器一般是通过 html标签特点来抓取需要的数据,在制作采集规则时需要填写目标内容的开始标志何结束标志,这样就定位了所需要的内容;或者采用对特定网页制作特定的正则表达式,来筛选出需要的内容。无论是利用开始结束标志还是正则表达式,都会涉及到html标签(网页结构分析)。
      然后再来提出一些防采集方法
      1、限制IP地址单位时间的访问次数
      分析:没有哪个常人一秒钟内能访问相同网站5次,除非是程序访问,而有这种喜好的,就剩下搜索引擎爬虫和讨厌的采集器了。
      弊端:一刀切,这同样会阻止搜索引擎对网站的收录
      适用网站:不太依靠搜索引擎的网站
      采集器会怎么做:减少单位时间的访问次数,减低采集效率
      2、屏蔽ip
      分析:通过后台计数器,记录来访者ip和访问频率,人为分析来访记录,屏蔽可疑Ip。
      弊端:似乎没什么弊端,就是站长忙了点
      适用网站:所有网站,且站长能够知道哪些是google或者百度的机器人
      采集器会怎么做:打游击战呗!利用ip代理采集一次换一次,不过会降低采集器的效率和网速(用代理嘛)。
      3、利用js加密网页内容
      Note:这个方法我没接触过,只是从别处看来
      分析:不用分析了,搜索引擎爬虫和采集器通杀
      适用网站:极度讨厌搜索引擎和采集器的网站
      采集器会这么做:你那么牛,都豁出去了,他就不来采你了
      4、网页里隐藏网站版权或者一些随机垃圾文字,这些文字风格写在css文件中
      分析:虽然不能防止采集,但是会让采集后的内容充满了你网站的版权说明或者一些垃圾文字,因为一般采集器不会同时采集你的css文件,那些文字没了风格,就显示出来了。
      适用网站:所有网站
      采集器会怎么做:对于版权文字,好办,替换掉。对于随机的垃圾文字,没办法,勤快点了。
      5、用户登录才能访问网站内容
      分析:搜索引擎爬虫不会对每个这样类型的网站设计登录程序。听说采集器可以针对某个网站设计模拟用户登录提交表单行为。
      适用网站:极度讨厌搜索引擎,且想阻止大部分采集器的网站
      采集器会怎么做:制作拟用户登录提交表单行为的模块
      6、利用脚本语言做分页(隐藏分页)
      分析:还是那句,搜索引擎爬虫不会针对各种网站的隐藏分页进行分析,这影响搜索引擎对其收录。但是,采集者在编写采集规则时,要分析目标网页代码,懂点脚本知识的人,就会知道分页的真实链接地址。
      适用网站:对搜索引擎依赖度不高的网站,还有,采集你的人不懂脚本知识
      采集器会怎么做:应该说采集者会怎么做,他反正都要分析你的网页代码,顺便分析你的分页脚本,花不了多少额外时间。
      7、防盗链措施(只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER") )
      分析:asp和php可以通过读取请求的HTTP_REFERER属性,来判断该请求是否来自本网站,从而来限制采集器,同样也限制了搜索引擎爬虫,严重影响搜索引擎对网站部分防盗链内容的收录。
      适用网站:不太考虑搜索引擎收录的网站
      采集器会怎么做:伪装HTTP_REFERER嘛,不难。
      8、全flash、图片或者pdf来呈现网站内容
      分析:对搜索引擎爬虫和采集器支持性不好,这个很多懂点seo的人都知道
      适用网站:媒体设计类并且不在意搜索引擎收录的网站
      采集器会怎么做:不采了,走人
      9、网站随机采用不同模版
      分析:因为采集器是根据网页结构来定位所需要的内容,一旦先后两次模版更换,采集规则就失效,不错。而且这样对搜索引擎爬虫没影响。
      适用网站:动态网站,并且不考虑用户体验。
      采集器会怎么做:一个网站模版不可能多于10个吧,每个模版弄一个规则就行了,不同模版采用不同采集规则。如果多于10个模版了,既然目标网站都那么费劲的更换模版,成全他,撤。
      10、采用动态不规则的html标签
      分析:这个比较变态。考虑到html标签内含空格和不含空格效果是一样的,所以< div >和< div >对于页面显示效果一样,但是作为采集器的标记就是两个不同标记了。如果次页面的html标签内空格数随机,那么
      采集规则就失效了。但是,这对搜索引擎爬虫没多大影响。
      适合网站:所有动态且不想遵守网页设计规范的网站。
      采集器会怎么做:还是有对策的,现在html cleaner还是很多的,先清理了html标签,然后再写采集规则;应该用采集规则前先清理html标签,还是能够拿到所需数据。
      总结:
      一旦要同时搜索引擎爬虫和采集器,这是很让人无奈的事情,因为搜索引擎第一步就是采集目标网页内容,这跟采集器原理一样,所以很多防止采集的方法同时也阻碍了搜索引擎对网站的收录,无奈,是吧?以上10条建议虽然不能百分之百防采集,但是几种方法一起适用已经拒绝了一大部分采集器了。
    展开全文
  • 如何避免浏览记录被追踪呢?

    千次阅读 2020-12-08 13:22:54
    这其实是IP活动被记录了,你的浏览记录被追踪了。如果你不希望自己的活动记录被追踪,可以选择在上网的时候换IP。具体要怎么做呢?神龙教你几招: 在大部分情况下,关闭Cable / DSL调制解调器五分钟,就可以改变IP...

    你有没有被这样的广告所困扰?当你用浏览器搜索了某样物品,再浏览其他网站时,就会收到软件推送的相应广告,不断提示你商品有折扣了。这样的情况每天都在互联网上发生,仿佛生活被窥视了一样,让人难以忍受。
    在这里插入图片描述

    这其实是IP活动被记录了,你的浏览记录被追踪了。如果你不希望自己的活动记录被追踪,可以选择在上网的时候换IP。具体要怎么做呢?神龙教你几招:

    在大部分情况下,关闭Cable / DSL调制解调器五分钟,就可以改变IP地址。

    或者使用网络代理服务器,只需要把网络地址更改为代理服务器,然后从Web浏览网站就可以了。

    除此之外,我们还能通过设置代理IP来隐藏自己的IP地址。高匿代理IP匿名性最好,也不容易被人发现,可以很好地保护隐私,通过网络是不会查看到历史记录的。

    开启浏览器的隐私模式或者定时清理浏览记录和缓存也能够起到一定帮助,不过IP 地址是直接暴露给网站的,浏览过程仍会被记录,不能完美保护自己的隐私。

    展开全文
  • 如何巧妙的防止网站被劫持

    千次阅读 2019-09-22 22:23:54
    那么域名劫之后该如做呢,如何才能防止域名劫? IIS7网站监控 测域名是否墙、DNS污染检测、网站打开速度检测等信息。 如何预防域名劫持? 1、为域名注册商和注册用邮箱设置复杂密码...
  • 怎么看网站是否被黑防止网站被

    千次阅读 2018-11-02 11:20:30
    网站被黑,打开网站竟然跳转到博cai网站上去了,一开始以为自己看错了,多次从百度点击自己网站进去,还是会跳转到彩piao网站上,第一反应是自己的网站被黑了,经营网站很多年了,从来未遇到过这种情况。 先来看下...
  • 从最近我收到的很多站长反馈以及我主动去了解的情况来看,相当一部分站长对于自己网站被黑表示非常的不理解,觉得自己的网站不大,弄得又不怎么的,怎么就被黑客盯上了,并挂上了黑链。然后开始怀疑自己是不是表现得...
  • MySQL 面试题

    万次阅读 多人点赞 2019-09-02 16:03:33
    艿艿:貌似我面试没问过…反正,我是没弄懂过~~ 插入缓冲(insert buffer) 二次写(double write) 自适应哈希索引(ahi) 预读(read ahead) ? 为什么 SELECT COUNT(*) FROM table 在 InnoDB 比 ...
  • MySQL防止重复插入相同记录 insert if not exists

    万次阅读 热门讨论 2018-03-21 17:23:07
    在 MySQL 中,插入(insert)一条记录,经常需要检查这条记录是否已经存在,只有当记录不存在时才执行插入操作1. INSERT INTO IF EXISTS1.1.语法INSERT INTO TABLE (field1, field2, fieldn) SELECT 'field1', '...
  • 在公司如何防止监控上网记录

    万次阅读 2012-11-11 21:52:48
    SSH隧道也可以防止上网记录被监控,但是用SOCKS代理时候,要启用Firefox的socks_remote_dns,才可以防止DNS查询监控,同时也避免了 DNS污染 。 需要注意的是,在VPN服务器端开始,就没有什么加密了,仍然 ...
  • 目前越来越多的服务器被入侵,以及攻击事件频频的发生,像数据被窃取,数据库被篡改,用户数据被脱裤,网站被强制跳转到恶意网站上,网站在百度的快照被劫持,等等的攻击症状层出不穷,当我们的服务器被攻击,被黑的...
  • 网站安全配置Nginx防止网站被攻击

    万次阅读 2016-05-16 16:45:42
    网站安全配置(Nginx)防止网站被攻击(包括使用了CDN加速之后的配置方法)分类:服务器配置 标签:nginx 360网站卫士 CDN 10,216 views人浏览 网站被攻击是一个永恒不变的话题,网站攻击的方式也是一个永恒不变的...
  • 入门学习Linux常用必会60个命令实例详解doc/txt

    千次下载 热门讨论 2011-06-09 00:08:45
    -n:防止sync系统调用,它用在用fsck修补根分区之后,以阻止内核用老版本的超级块覆盖修补过的超级块。 -w:并不是真正的重启或关机,只是写wtmp(/var/log/wtmp)纪录。 -f:没有调用shutdown,而强制关机或...
  • 答案:可以通过使用 EXISTS 条件句防止插入重复记录。 示例一:插入多条记录 假设有一个主键为 client_id 的 clients 表,可以使用下面的语句: INSERT INTO clients (client_id, client_name,
  • 对于如何防止网站被爬取,我想从以下几种方法去分析: 1.基于程序本身去防止爬取:作为爬虫程序,爬取行为是对页面的源文件爬取,如爬取静态页面的html代码,可以用jquery去模仿写html,这种方法伪装的页
  • 乐观锁(循环的目的是为了可能的情况下必须更新一条记录) DECLARE @taskId INT,@timestamp TIMESTAMP WHILE EXISTS(SELECT * FROM task AS t WHERE flag=0) BEGIN SELECT TOP 1 @taskId=taskId,@timestamp=t....
  • Java防止重复数据多次调用接口导致数据库插入重复记录
  • MySQL插入多行记录防止主键重复

    千次阅读 2019-05-20 18:05:20
    1.应用场景 即当批量插入记录,主键字段值相同时,做额外处理 //不过一般可以先先将数据做处理,如唯一性处理,之后... 举个例子,字段a定义为UNIQUE,并且原数据库表table中已存在记录(2,2,9)和(3,2,1),...
  • 防止云服务器爆破的一些措施

    千次阅读 2020-12-04 10:06:22
    防止云服务器爆破的措施修改SSH登录端口禁用root用户友情提示结语 最近频繁接收到云服务器告警信息,提示暴力破解登录,由于本人懒惰,没有搭理,第二日IP冻结!!!尴尬!!!为了防止再次破解,加了一层...
  • 毕业设计总结

    千次阅读 2018-07-13 13:26:03
    下一页同理,但还是要注意如果最后一页只有几条记录小于你定的每页记录数时,对于全部内容的截取就应当小心,否则容易报错。 5)对于下拉列表中导入数据库中的值,可以用Ajax。可是我不会啊!!!!后来我可以在点...
  • MySQL避免重复插入记录的四种方法

    千次阅读 2018-12-05 11:44:18
    REPLACE和INSERT很相像,但是如果旧记录与新记录有相同的值,则在新记录被插入之前,旧记录被删除,容易导致主键值迅速增大溢出。 REPLACE INTO table ( name , email , phone ) VALUES ( 'abc' , 'abc@...
  • sql中防止记录重复的方法

    千次阅读 热门讨论 2013-09-11 21:00:06
    之前看过sql讲的视频,貌似讲过关于本文主题的东西,但当时听不大懂,现在也不懂,也许讲的太专业了,方法也太专业了,反正现在我就是不知道她讲的方法是什么,直到今天,我忍受了多次因为记录重复而造成的麻烦,...
  • DNS A记录 NS记录 MX记录 CNAME记录 TXT记录 TTL值 PTR值  建站名词解释:DNS A记录 NS记录 MX记录 CNAME记录 TXT记录 TTL值 PTR值 泛域名 泛解析 域名绑定 域名转向 1. DNS  DNS:Domain Name System 域名...
  • 最近在做demo的时候,碰到这么一个问题:当页面上同一角色有两个人登录的时候,他们同时操作统一条记录; 简言之就是,同一记录同一时刻多人操作。这种情况在我的业务中回导致数据的冗余,干扰正常的程序运行。 ...
  • 如何防止短信验证码攻击?

    千次阅读 2018-08-03 11:37:24
    如何防止验证码攻击?验证码可以用来攻击单个用户,也就是短信轰炸,也可以刷量增加网站成本,虽然一条几分钱,但是量多了也是一种成本。以下几种验证码攻击的解决方案。 1.发送间隔限制,每过60秒或120秒之后...
  • 建站名词解释:DNS A记录 NS记录 MX记录 CNAME记录 TXT记录 TTL值 PTR值 泛域名 泛解析 域名绑定 域名转向  1.DNS:Domain Name System 域名管理系统 域名是由圆点分开一串单词或缩写组成的,每一个域名都对应一个...
  • 最近遇到一个关于防止短信验证码刷的问题,相信很多朋友也遭遇过这个刷短信的问题。因此,就“防止验证码短信被盗刷”作一个总结和分享。 1、短信验证码是什么? 1.短信验证码是什么: 短信验证码是通过发送...
  • python 分析qq聊天记录

    千次阅读 2019-03-20 17:21:16
    1、'r'是防止字符转义的 如果路径中出现'\t'的话 不加r的话\t就会转义 而加了'r'之后'\t'就能保留原有的样子。 raw string。 2、[]定义字符范围。[\d-]匹配数字和-格式的字符;\s+ 匹配多个空格。 [^\n]代表任何...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 501,960
精华内容 200,784
关键字:

怎么防止被网站记录