精华内容
下载资源
问答
  • #!/usr/bin/python # -*- coding: utf-8 -*- import ...' File_Search(sys.argv[1]) end = time.clock() print '分析完毕,共运行时长:' + str(end - start) sys.exit(0) else: print '文件scp传输异常...'

    #!/usr/bin/python

    # -*- coding: utf-8 -*-

    import os

    import re

    from multiprocessing.dummy import Pool as ThreadPool

    import sys

    import time

    import pexpect

    # 规则列表

    rulelist = ['\.\./', 'select.+(from|limit)', '(?:(union(.*?)select))', 'having|rongjitest', 'sleep\((\s*)(\d*)(\s*)\)',

    'benchmark\((.*)\,(.*)\)', 'base64_decode\(', '(?:from\W+information_schema\W)',

    '(?:(?:current_)user|database|schema|connection_id)\s*\(', '(?:etc\/\W*passwd)',

    'into(\s+)+(?:dump|out)file\s*', 'group\s+by.+\(', 'xwork.MethodAccessor',

    '(?:define|eval|file_get_contents|include|require|require_once|shell_exec|phpinfo|system|passthru|preg_\w+|execute|echo|print|print_r|var_dump|(fp)open|alert|showmodaldialog)\(',

    'xwork\.MethodAccessor', '(gopher|doc|php|glob|file|phar|zlib|ftp|ldap|dict|ogg|data)\:\/',

    'java\.lang', '\$_(GET|post|cookie|files|session|env|phplib|GLOBALS|SERVER)\[',

    '\

    '.(bak|inc|old|mdb|sql|backup|java|class)$', '\.(svn|htaccess|bash_history)',

    '(vhost|bbs|host|wwwroot|www|site|root|hytop|flashfxp).*\.rar',

    '(phpmyadmin|jmx-console|jmxinvokerservlet)', 'java\.lang',

    '/(attachments|upimg|images|css|uploadfiles|html|uploads|templets|static|template|data|inc|forumdata|upload|includes|cache|avatar)/(\\w+).(php|jsp)']

    SSH_PASSWD = 'toor' #webserver密码

    def Auto_scp():

    cmd = ['scp -r root@192.168.188.131:/var/log/snort/* log-2016-07-28/40/',

    'scp -r root@192.168.188.131:/var/log/*.log log-2016-07-28/39/'

    ]

    for line in cmd:

    child = pexpect.spawn(line,timeout=300)

    child.expect('password:')

    child.sendline(SSH_PASSWD)

    child.expect(pexpect.EOF)

    return True

    def File_Search(filepath):

    filelist = []

    for lists in os.listdir(filepath):

    path = os.path.join(filepath, lists)

    if os.path.isfile(path):

    filelist.append(path)

    if os.path.isdir(path):

    File_Search(path)

    pool = ThreadPool(50)

    results = pool.map(Log_Analysis, filelist)

    pool.close()

    pool.join()

    def Log_Analysis(filename):

    content = open(filename).read()

    r = open('result.txt', 'a') #需要本地先新建个result.txt文件

    r.write('\n' + '=================== web_log_secAnalysis ===================' + '\n' + filename + '\n')

    for regex in rulelist:

    result_tmp = re.compile(regex,re.IGNORECASE).findall(content)

    if result_tmp:

    r.write(str(result_tmp) + '\n' )

    return 'True'

    if __name__ == '__main__':

    if len(sys.argv) 

    print "Usage: log_SecAnalysis.py filepath"

    sys.exit(0)

    else:

    if Auto_scp():

    start = time.clock()

    print '====> Log is analyzing, please wait for a moment <==== '

    File_Search(sys.argv[1])

    end = time.clock()

    print '分析完毕,共运行时长:' + str(end - start)

    sys.exit(0)

    else:

    print '文件scp传输异常...'

    展开全文
  • 一款简单好用的Web日志分析工具,可以大大提升效率,目前业内日志分析工具比较多,今天推荐十个比较好用的Web日志安全分析工具。1、360星图一款非常好用的网站访问日志分析工具,可以有效识别Web漏洞攻击、CC攻击、...

    经常听到有朋友问,有没有比较好用的web日志安全分析工具?

    首先,我们应该清楚,日志文件不但可以帮助我们溯源,找到入侵者攻击路径,而且在平常的运维中,日志也可以反应出很多的安全攻击行为。

    一款简单好用的Web日志分析工具,可以大大提升效率,目前业内日志分析工具比较多,今天推荐十个比较好用的Web日志安全分析工具。

    1、360星图

    一款非常好用的网站访问日志分析工具,可以有效识别Web漏洞攻击、CC攻击、恶意爬虫扫描、异常访问等行为。一键自动化分析,输出安全分析报告,支持iis/apache/nginx日志,支持自定义格式。

    下载地址:

    本地下载地址

    10cb461f63fdd505d327de1073cbae0c.png

    2、LogForensics

    TSRC提供的一款日志分析工具,可从单一可疑线索作为调查起点,遍历所有可疑url(CGI)和来源IP。

    相关下载地址:

    504c2625da5fd983e0983ea29f586140.png

    3、GoAccess

    一款可视化 Web 日志分析工具,通过Web 浏览器或者 *nix 系统下的终端程序即可访问。能为系统管理员提供快速且有价值的 HTTP 统计,并以在线可视化服务器的方式呈现。

    官网地址:

    90b2da09ce045bb8bcb8cfeaf6f779b9.png

    4、AWStats

    一款功能强大的开源日志分析系统,可以图形方式生成高级Web,流媒体,ftp或邮件服务器统计信息。

    官网地址:

    cff7a53f22c9f7822e767fbe83298a40.png

    5、Logstalgia

    一款非常炫酷且可视化日志分析工具,可以直观的展示CC攻击和网站的日志分析,并以可视化的3D效果展示出来。

    下载地址:

    5b4679509492e3c48da63faacd5d2b5c.png

    6、FinderWeb

    程序员的看日志利器,支持,tail, less, grep,支持超大的文本文件,从几M到几十G的日志文件都流畅自如。

    下载使用:

    9d759736830aeee3d271e42c94ebee3e.png

    7、web-log-parser

    一款开源的分析web日志工具,采用python语言开发,具有灵活的日志格式配置。

    github项目地址:

    03d8c45f7f835ee0f2fb2b044410e5c7.png

    8、ELK

    开源实时日志分析的ELK平台,由ElasticSearch、Logstash和Kiabana三个开源项目组成,在企业级日志管理平台中十分常见。

    下载使用:

    3e0e344dbdb478b88fa7c26ea1fa7b48.png

    9、Splunk

    一款顶级的日志分析软件,如果你经常用 grep、awk、sed、sort、uniq、tail、head 来分析日志,那么你可以很容易地过渡到Splunk。

    下载地址:

    0c034ba9dd9e97ac066a2242d205812c.png

    10、IBM QRadar

    Qradar有一个免费的社区版本,功能上和商用版本差别不大,适合小规模日志和流量分析使用。

    下载地址:

    210a7d57fac9aed88530a9e30e00f419.png

    到此这篇关于10个好用的Web日志安全分析工具推荐小结的文章就介绍到这了,更多相关Web日志安全分析工具内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    展开全文
  • windows的日志文件记录了windows系统发生的各种发生的事件和操作记录(例如系统,安全,应用程序),通过日志文件可以掌握系统的使用情况和各种操作行为记录,特别是对于系统安全来说,日志文件显得尤为重要。

    1. windows日志分析

    windows的日志文件记录了windows系统发生的各种发生的事件和操作记录(例如系统,安全,应用程序),通过日志文件可以掌握系统的使用情况和各种操作行为记录,特别是对于系统安全来说,日志文件显得尤为重要。

     

    本篇主要是从系统安全方面进行windows日志分析,windows系统主要记录三类日志:系统日志,安全日志,应用程序日志。这三类文件的存放路径为:C:\Windows\System32\winevt\Logs。

    系统日志文件名:System.evtx。

    安全日志文件名:Security.evtx

    应用程序日志文件名:Application.evtx

    应用程序日志记录了应用程序或系统程序的日志记录。系统日志记录了系统组件,驱动程序和应用软件的崩溃及数据。

    安全日志记录了系统的安全审计时间,包含各种登录日志,访问日志,进程日志,特权使用,账号管理,策略变更,系统时间。在应急响应或入侵溯源中,安全日志是最为常用的。

    windows系统的日志文件是以.evtx后缀结尾的,这种日志文件需要用windows的事件查看器对日志进行分析:

     

     

    windows事件查看器中每一个事件都有一个事件ID ,常见的安全事件ID有:

    4624 登录成功

    4625 登录失败

    4634 注销成功

    4647 用户启动的注销

    4672 使用超级用户(如管理员)进行登录

    4720 创建用户

     

    对某些事件进行分析的时候,可以通过安全日志的筛选功能:

     

     

    每个成功登录的事件都会标记一个登录类型,不同登录类型代表不同的方式:

     

     

    2. linux系统日志分析

    linux系统拥有非常灵活和强大的日志功能,可以保存几乎所有的操作记录,之前学习linux文件系统的时候,有一个/var/log目录,该目录就记录了linux系统的相关日志文件,包括安装的软件的日志文件。

    查看日志配置:more /etc/rsyslog.conf

     

    3.web日志分析

    Web访问日志记录了Web服务器接收处理请求及运行时错误等各种原始信息

    通过日志信息可以知道用户访问的ip,时间,操作系统,浏览器,访问了哪些页面,访问状态是否成功等信息。

     

    web日志的存放路径:

    apache的日志路径一般配置在httpd.conf的目录下或者位于/var/log/http

    IIS的日志默认在系统目录下的Logfiles下的目录当中

    tomcat 一般位于tomcat安装目录下的一个logs文件夹下面

    Nginx日志一般配置在nginx.conf或者vhost的conf文件中

    一般来说,web日志文件通常都比较大,可以借助一些Sublime,notepad++工具分析。

     

    在对WEB日志进行安全分析时,一般可以按照两种思路展开,逐步深入,还原整个攻击过程:第一种确定入侵的时间范围,以此为线索,查找这个时间范围内可疑的日志,进一步排查,最终确定攻击者,还原攻击过程。第二种攻击者在入侵网站后,通常会留下后门维持权限,以方便再次访问,我们可以找到该文件,并以此为线索来展开分析。

     

     

     

    展开全文
  • 文章目录日志分析篇---Web日志分析一、 web日志二、日志分析技巧三、日志分析案例1、定位攻击源2、搜索相关日志记录3、对找到的访问日志进行解读,攻击者大致的访问路径如下:四、日志统计分析技巧五、我的公众号 ...

    日志分析篇—Web日志分析

    一、 web日志

    Web访问日志记录了Web服务器接收处理请求及运行时错误等各种原始信息。通过对WEB日志进行的安全分析,不仅可 以帮助我们定位攻击者,还可以帮助我们还原攻击路径,找到网站存在的安全漏洞并进行修复。
    我们来看一条Apache的访问日志:

    127.0.0.1 - - [11/Jun/2018:12:47:22 +0800] "GET /login.html HTTP/1.1" 200 
    786 "-" "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML,
    like Gecko) Chrome/66.0.3359.139
    Safari/537.36"
    

    通过这条Web访问日志,我们可以清楚的得知用户在什么IP、什么时间、用什么操作系统、什么浏览器的情况下访问了 你网站的哪个页面,是否访问成功。
    本文通过介绍Web日志安全分析时的思路和常用的一些技巧。

    二、日志分析技巧

    在对WEB日志进行安全分析时,一般可以按照两种思路展开,逐步深入,还原整个攻击过程。
    第一种:确定入侵的时间范围,以此为线索,查找这个时间范围内可疑的日志,进一步排查,终确定攻击者,还原攻 击过程。
    第二种:攻击者在入侵网站后,通常会留下后门维持权限,以方便再次访问,我们可以找到该文件,并以此为线索来展 开分析。
    常用分析工具:
    Window下,推荐用 EmEditor 进行日志分析,支持大文本,搜索效率还不错。
    Linux下,使用Shell命令组合查询分析。
    Shell+Linux命令实现日志分析,一般结合grep、awk等命令等实现了几个常用的日志分析统计技巧。
    Apache日志分析技巧:
    1、 列出当天访问次数多的IP命令:

    cut -d- -f 1 log_file|uniq -c | sort -rn | head -20
    

    2、 查看当天有多少个IP访问:

    awk '{print $1}' log_file|sort|uniq|wc -l 
    

    3、 查看某一个页面被访问的次数:

    grep "/index.php" log_file | wc -l 
    

    4、 查看每一个IP访问了多少个页面:

    awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file 
    

    5、 将每个IP访问的页面数进行从小到大排序:

    awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n 
    

    6、 查看某一个IP访问了哪些页面:

    grep ^111.111.111.111 log_file| awk '{print $1,$7}' 
    

    7、 去掉搜索引擎统计当天的页面:

    awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l 
    

    8、 查看2018年6月21日14时这一个小时内有多少IP访问:

    awk '{print $4,$1}' log_file | grep 21/Jun/2018:14 | awk '{print $2}'| sort | uniq | wc -l
    

    三、日志分析案例

    Web日志分析实例:通过nginx代理转发到内网某服务器,内网服务器某站点目录下被上传了多个图片木马,虽然II7下 不能解析,但还是想找出谁通过什么路径上传的。
    在这里,我们遇到了一个问题:由于设置了代理转发,只记录了代理服务器的ip,并没有记录访问者IP?这时候,如何 去识别不同的访问者和攻击源呢?
    这是管理员日志配置不当的问题,但好在我们可以通过浏览器指纹来定位不同的访问来源,还原攻击路径。

    1、定位攻击源

    首先访问图片木马的记录,只找到了一条,由于所有访问日志只记录了代理IP,并不能通过IP来还原攻击路径,这时 候,可以利用浏览器指纹来定位。
    在这里插入图片描述
    浏览器指纹:

    Mozilla/4.0+ 
    (compatible;+MSIE+7.0;+Windows+NT+6.1;+WOW64;+Trident/7.0;+SLCC2;+.NET+CLR+2
    .0.50727;+.NET+CLR+3.5.3 0729;+.NET+CLR+3.0.30729;+.NET4.0C;+.NET4.0E)
    

    2、搜索相关日志记录

    通过筛选与该浏览器指纹有关的日志记录,可以清晰地看到攻击者的攻击路径。
    在这里插入图片描述

    3、对找到的访问日志进行解读,攻击者大致的访问路径如下:

    A、攻击者访问首页和登录页
    B、攻击者访问MsgSjlb.aspx和MsgSebd.aspx
    C、攻击者访问Xzuser.aspx
    D、攻击者多次POST(怀疑通过这个页面上传模块缺陷)
    E、攻击者访问了图片木马
    打开网站,访问Xzuser.aspx,确认攻击者通过该页面的进行文件上传了图片木马,同时,发现网站了存在越权访问漏 洞,攻击者访问特定URL,无需登录即可进入后台界面。通过日志分析找到网站的漏洞位置并进行修复。

    四、日志统计分析技巧

    统计爬虫:

    grep -E 'Googlebot|Baiduspider'  /www/logs/access.2019-02-23.log | awk '{ print $1 }' | sort | uniq 
    

    统计浏览器:

    cat /www/logs/access.2019-02-23.log | grep -v -E
     'MSIE|Firefox|Chrome|Opera|Safari|Gecko|Maxthon' | sort | uniq -c | sort -r -n
    | head -n 100   
    

    IP 统计:

    grep '23/May/2019' /www/logs/access.2019-02-23.log | awk '{print $1}' | awk -F'.' '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -r -n | head -n 10    2206 219.136.134.13    
    1497 182.34.15.248    
    1431 211.140.143.100    
    1431 119.145.149.106    
    1427 61.183.15.179    
    1427 218.6.8.189    
    1422 124.232.150.171    
    1421 106.187.47.224    
    1420 61.160.220.252    
    1418 114.80.201.18
    

    统计网段:

    cat /www/logs/access.2019-02-23.log | awk '{print $1}' | awk -F'.' '{print $1"."$2"."$3".0"}' | sort | uniq -c | sort -r -n | head -n 200
    

    统计域名:

    cat /www/logs/access.2019-02-23.log |awk '{print $2}'|sort|uniq -c|sort -rn|more
    HTTP Status:
    cat  /www/logs/access.2019-02-23.log |awk '{print $9}'|sort|uniq -c|sort -rn|more 
    5056585 304 
    1125579 200    
    7602 400       
    5 301
    

    URL 统计:

    cat /www/logs/access.2019-02-23.log |awk '{print $7}'|sort|uniq -c|sort -rn|more
    

    文件流量统计:

    cat /www/logs/access.2019-02-23.log |awk '{sum[$7]+=$10}END{for(i in sum){print sum[i],i}}'|sort -rn|more 
    
    grep ' 200 ' /www/logs/access.2019-02-23.log |awk '{sum[$7]+=$10}END{for(i in sum){print sum[i],i}}'|sort -rn|more   
    

    URL访问量统计:

    cat /www/logs/access.2019-02-23.log | awk '{print $7}' | egrep '\?|&' | sort | uniq -c | sort rn | more   
    

    脚本运行速度:
    查出运行速度慢的脚本

    grep -v 0$ /www/logs/access.2019-02-23.log | awk -F '\" ' '{print $4" " $1}' web.log | awk '{print $1" "$8}' | sort -n -k 1 -r | uniq > /tmp/slow_url.txt    
    

    IP, URL 抽取:

    # tail -f /www/logs/access.2019-02-23.log | grep '/test.html' | awk '{print $1" "$7}'
    

    参考链接:

    https://www.jb51.net/article/53954.htm
    https://www.jb51.net/article/58017.htm 
    https://cloud.tencent.com/developer/article/1051427
    

    五、我的公众号

    后续操作请持续关注哦!!!
    了解更多请关注下列公众号:

    😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗😗😗😗😗😗😗😗😗
    在这里插入图片描述
    😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗 😗😗😗😗😗😗😗😗😗

    展开全文
  • 原标题:基于golang+lua的Web日志安全分析系统FBI-AnalyzerFBI-Analyzer是一个灵活的日志分析系统,基于golang和lua,插件风格类似ngx-lua。使用者只需要编写简单的lua逻辑就可以实现golang能实现的所有需求,跳转...
  • 通过对WEB日志进行的安全分析,不仅可以帮助我们定位攻击者,还可以帮助我们还原攻击路径,找到网站存在的安全漏洞并进行修复。 Web日志格式 218.19.140.242 - - [10/Dec/2010:09:31:17 +0800] “GET /query/...
  • web服务器日志分析

    2021-08-10 08:46:14
    web服务器日志分析 内容精选换一换您可以通过云日志服务,查看访问七层共享型负载均衡请求的详细日志记录,分析负载均衡的响应状态码,快速定位异常的后端服务器。您已经创建了七层负载均衡。您已经开通了云日志服务...
  • 前言:小编也是在前几天通过,安恒的资深项目经理讲解(甘老师),老师风趣幽默,讲解生动形象,在他讲解的时候,我就萌生出要把这知识点分享出来,当然这只是为小白开启分析之路,并没有什么高操作,分享的只是我的...
  • 参考链接:https://blog.csdn.net/su__xiaoyan/article/details/112427411 web日志格式解析 web日志会记录用户对web页面的访问操作行为,通过日志分析可以追踪溯源。需要注意由于POST提交的数据过于庞大,中间件...
  • 虽然这款 WAF 很优秀,但是使用起来并没有那么容易,之前也整理了文章介绍它的原理和规则,然而还有一个问题,就是它的日志分析,之前介绍原理规则的时候,也介绍了它的日志规则,但是在使用过程中,纯文本的记录...
  • 一款非常好用的网站访问日志分析工具,可以有效识别Web漏洞攻击、CC攻击、恶意爬虫扫描、异常访问等行为。一键自动化分析,输出安全分析报告,支持iis/apache/nginx日志,支持自定义格式。 缺点: 支持的日志类型较...
  • 不要一骨脑全选上,结果是在日志中有一大堆的记录,都不知道看什么好。其次是审核的方式,除了系统安全审核(如用户登录、注销、目录访问等),系统还有访问审核和文件审核。你可以对重要文件加以严格审核,可以审核到...
  • Web日志挖掘是指采用数据挖掘技术,对站点用户访问Web服务器过程中产生的日志数据进行分析处理,从而发现Web用户的访问模式和兴趣爱好等,这些信息对站点建设潜在有用的可理解的未知信息和知识,用于分析站点的被...
  • 日志又分为系统日志(由系统服务rsyslog进行统一管理)、用户日志(记录用户登录登出系统的信息)以及程序日志(最为主要的日志,由各应用产生,如apache日志、nginx日志等)。二、常见日志介绍内核及公共消息日志:/var/...
  • web服务器的系统事件日志 内容精选换一换本节操作指导用户查看Windows弹性云服务器的登录日志。本节操作以2012操作系统云服务器为例。登录弹性云服务器。选择“开始 > 管理工具 > 事件查看器 ”。打开“ ...
  • 我的博客网站有时候会被黑客光顾,短时间有大量的request涌入(1s内有上百个访问),直接导致CPU爆表,造成网站无法正常访问,于是考虑写一个日志分析工具. 实施步骤 主要有三步: 通过正则提取访问日志里的关键...
  • web 服务器的系统事件日志 内容精选换一换为加强对系统数据的容灾管理,云堡垒机支持配置日志备份,提高审计数据安全性和系统可扩展性。本小节主要介绍如何在系统配置OBS桶参数,将日志远程备份至OBS桶。开启远程...
  • 0x00 FOFA语句 body="WebApi/encrypt/js-sha1/build/sha1.min.js" 0x01 未授权访问漏洞利用 ... ...转载请注明:Adminxe's Blog»【漏洞复现】绿盟BAS日志数据安全分析系统未授权访问 ...
  • 一、构建虚拟web主机 1、简介 ①虚拟web主机指的是在同一台服务器中运行多个web站点,其中每一个站点实际上并不独立占用整个服务器,因此被称为“虚拟”Web主机。通过虚拟Web主机服务可以充分利用服务器的硬件资源,...
  • 告警日志分析

    2021-06-11 16:00:54
    告警日志分析 告警日志分析概述 针对日常IT运维过程中遇到的网络故障、网络安全事件等场景提供的日志分析记录来获取相关有价值信息的一种服务措施。 告警日志分析为发现日常安全威胁、快速排查...基于WAF的常见web安全
  • IIS web服务器日志分析工具Microsoft的IIS Web服务器是当今最流行的Web服务器之一。IIS Web服务器是处理全局请求和共享网页或其他基于Web的内容的媒介,跟踪IIS Web服务器的使用情况和性能并确保Web服务器的安全性...
  • 网络安全入门技术:三种最常用的日志分析软件 现在有大量的开放源码日志跟踪程序和分析工具可用,这使得为活动志书选择合适的资源比想象中要容易得多。 下面给大家推荐三种最常用也是最好用的日志分析软件。 1、...
  • windows服务器怎么查看web日志 内容精选换一换华为云帮助中心,为用户提供产品简介、价格说明、购买指南、用户指南、API参考、最佳实践、常见问题、视频帮助等技术文档,帮助您快速上手使用华为云服务。弹性云服务器...
  • 实验十:Web日志审计

    2021-06-01 10:23:23
    让学生了解如下信息,并掌握具体的日志分析方法: 分析网站服务器(Web Server)日志是网站分析的重要方法 服务器日志记录了网站服务器的许多运行信息,这些信息能够帮助安全管理人员分析网站的流量和访问者在网站上...
  • 日志分析

    千次阅读 2021-03-22 10:54:23
    一.web日志分析 (一)、特征字符分析 1.sql注入 2. 数据库类型判断 有以上信息可以尝试判断是否为sql注入 (二)、访问频率分析 二.系统日志分析 (一)、Linux (二)、Windows 三.练习题 题目来源:墨者学院...
  • 常见Web安全漏洞总结及推荐解决方案1.SQL注入:2.不安全的会话管理漏洞:3.任意文件上传:4.任意文件读取:5.任意代码执行:6.越权访问:7.敏感信息泄露:8.XSS跨站脚本攻击:9.CSRF跨站请求伪造:10.用户名/口令...
  • Apache构建web主机、日志分割及AWStats分析系统

    千次阅读 热门讨论 2021-03-24 17:41:46
    Apache配置与应用及Apache的网页优化Apache配置与应用一、构建虚拟web主机二、支持的虚拟主机类型1、基于域名的虚拟主机①、为虚拟主机提供域名解析方法一:部署DNS域名解析服务器,来提供域名解析方法二:在 /etc/...
  • 小B是Q公司的安全攻城狮,最近Q公司不太平,出现了好几次的安全攻击事件。可在事后小B却找不到被攻击的真正原因,于是领导下命令给小B,必须做到对攻击事件的检测与溯源,不然就可以卷铺盖回家了。 听到此话的小B...
  • 常见的Web安全漏洞特征

    千次阅读 2021-01-11 19:21:39
    Web安全漏洞分析 SQL注入攻击特征 文件上传 命令执行 框架漏洞-ThinkPHP 5.x RCE 框架漏洞-Struts2-016 框架漏洞-Struts2-045 中间件漏洞-Tomcat控制台弱口令 中间件漏洞-Tomcat(CVE-2017-12615) ...
  • Elasticsearch + Logstash + Kibana(ELK)是一套开源的日志管理方案,分析网站的访问情况时我们一般会借助Google/百度等方式嵌入JS做数据统计,但是当网站访问异常或者被攻击时我们需要在后台分析如Nginx的具体日志...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 105,817
精华内容 42,326
关键字:

web安全日志分析