精华内容
下载资源
问答
  • ELK日志监控

    千次阅读 2018-06-11 15:41:59
    二、 ELK简介 三、 环境要求 四、 系统搭建 1.Java环境 2.安装elasticsearch (1)安装elasticsearch (4)内核调优 (5)配置head插件 (6)修改配置文件 (7)浏览器访问 3.安装logstash (1)yum...
    
    
    目录
    一、 框架图 
    二、 ELK简介 
    三、 环境要求 
    四、 系统搭建 
    
    1.Java环境 
    
    2.安装elasticsearch 
    (1)安装elasticsearch 
    (4)内核调优 
    (5)配置head插件 
    (6)修改配置文件 
    (7)浏览器访问 
    
    3.安装logstash 
    (1)yum安装服务 
    (2)pipeline文件 
    (4)后台验证 
    
    4.安装kibana 
    (1)yum安装kibana 
    (2)浏览器访问验证 

     

     

     

     

    一、框架图

     

     

     

    二、ELK简介

    ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成:

    ElasticSearch是一个基于Lucene的开源分布式搜索服务器。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是第二流行的企业搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。在elasticsearch中,所有节点的数据是均等的。

    Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤、分析,并将其存储供以后使用(如,搜索),您可以使用它。说到搜索,logstash带有一个web界面,搜索和展示所有日志。

    Kibana 是一个基于浏览器页面的Elasticsearch前端展示工具,也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。

     

    三、环境要求

    CentOS 6.

    Elasticsearch 6.1

    Logstash 6.1

    Kibana 6.1

    Jdk 1.8.0

     

     

    四、系统搭建

    1.Java环境

    [root@elk-node1 ~]# yum install -y java-1.8.0

    [root@elk-node1 ~]# java -version

    openjdk version "1.8.0_121"

    OpenJDK Runtime Environment (build 1.8.0_121-b13)

    OpenJDK 64-Bit Server VM (build 25.121-b13, mixed mode)

     

    2.安装elasticsearch

    1)安装elasticsearch

    [root@elk-node1 ~]# tar -xf elasticsearch-6.1.0.tar.gz -C /usr/local/ && mv /usr/local/elasticsearch-6.1.0 /usr/local/elasticsearch

    [root@elk-node1 ~]# vim /usr/local/elasticsearch/config/elasticsearch.yml

    cluster.name: elk     //集群名

    node.name: elk-node1   //节点名

    path.data: /usr/local/elasticsearch/data//data存储路径

    path.logs: /var/log/elasticsearch   //log存储路径

    network.host: 0.0.0.0    //监听地址

    http.port: 9200          //监听端口

    discovery.zen.ping.unicast.hosts: ["192.168.1.20", "192.168.1.11"]         //elasticsearch服务器集群节点地址

    discovery.zen.minimum_master_nodes: 2     //2个节点安装elasticsearch服务

    http.cors.enabled: true   

    http.cors.allow-origin: "*"

    bootstrap.memory_lock: false//Centos7以下版本配置
    bootstrap.system_call_filter: false//Centos7以下版本配置

     

    4)内核调优

    vi /etc/security/limits.conf 

    #添加如下内容:

    * soft nofile 65536

    * hard nofile 131072

    * soft nproc 20480

    * hard nproc 40960

     

    vi /etc/security/limits.d/90-nproc.conf 

    #修改以下内容

    * soft nproc 10240

     

    vi /etc/sysctl.conf 

    #添加下面配置:

    vm.max_map_count=655360

     

     

    #配置完成后,执行以下命令:

    sysctl -p

     

     

    5)配置head插件

    [root@elk-node1 ~]# mkdir  /usr/local/elasticsearch/data /var/log/elasticsearch &&

    wget https://nodejs.org/dist/v9.3.0/node-v9.3.0-linux-x64.tar.gz

    [root@elk-node1 ~]# tar -xf node-v9.3.0-linux-x64.tar.gz -C /usr/local/

    [root@elk-node1 ~]# ln -s /usr/local/node-v9.3.0-linux-x64/bin/node /usr/bin/node

    [root@elk-node1 ~]# ln -s /usr/local/node-v9.3.0-linux-x64/bin/npm /usr/bin/npm

    [root@elk-node1 ~]# node -v

    v6.9.5

    [root@elk-node1 ~]# npm -v

    3.10.10

    [root@elk-node1 ~]# npm install -g grunt-cli

    [root@elk-node1 ~]# ln -s /usr/local/node-v9.3.0-linux-x64/lib/node_modules/grunt-cli/bin/grunt /usr/bin/grunt

    [root@elk-node1 ~]# cd /usr/local/elasticsearch/

    [root@elk-node1 elasticsearch]# yum install -y git

    [root@elk-node1 elasticsearch]# git clone git://github.com/mobz/elasticsearch-head.git

    [root@elk-node1 elasticsearch]# useradd elasticsearch && chown -R elasticsearch:elasticsearch elasticsearch-head/

    [root@elk-node1 elasticsearch]# cd /usr/local/elasticsearch/elasticsearch-head/ && npm install phantomjs-prebuilt@2.1.16 --ignore-scripts

    [root@elk-node1 elasticsearch-head]# npm install

    [root@elk-node1 elasticsearch-head]# cd /usr/local/elasticsearch/elasticsearch-head/_site/

    [root@elk-node1 _site]# cp app.js app.js.bak

    [root@elk-node1 _site]# vim app.js

                    init: function(parent) {

                            this._super();

                            this.prefs = services.Preferences.instance();

                            this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "http://192.168.1.20:9200";   //修改4354

    [root@elk-node1 _site]# cd /usr/local/elasticsearch/elasticsearch-head/

    [root@elk-node1 elasticsearch-head]# cp Gruntfile.js Gruntfile.js.bak

    [root@elk-node1 elasticsearch-head]# vim Gruntfile.js

                    connect: {

                            server: {

                                    options: {

                                            hostname: "0.0.0.0",   //添加这一行

                                            port: 9100,

                                            base: '.',

                                            keepalive: true

                                    }

                            }

                    }

     

     

    (6)修改配置文件

    修改文件:/usr/local/elasticsearch/config/elasticsearch.yml,在Memory字段下增加内容:

    bootstrap.memory_lock: false
    bootstrap.system_call_filter: false

    [root@elk-node1 elasticsearch-head]# /usr/local/elasticsearch/bin/elasticsearch  &  //不能以root用户启动

    [root@elk-node1 elasticsearch-head]# grunt server & //需要在elasticsearch-head目录下启动该服务

    [root@elk-node1 elasticsearch-head]# netstat -anplut  //检查9200,9300,9100端口

     

     

     

    (7)浏览器访问

    访问http://192.168.1.20:9200/进行验证 

     

    访问http://192.168.1.20:9100/进行验证 

     

    3.安装logstash

    (1)yum安装服务

    [root@elk-node1 ~]# tar xf logstash-6.1.0.tar.gz -C /usr/local/ && mv /usr/local/logstash/logstash-6.1.0 /usr/local/logstash/logstash

    [root@elk-node1 ~]# mkdir /var/log/logstash && cd /usr/local/logstash/

    [root@elk-node1 logstash]# vim /usr/local/logstash/config/logstash.yml

    path.data: /usr/local/logstash/data

    path.config: /usr/local/logstash/config

    path.logs: /var/log/logstash

     

    (2)pipeline文件

    [root@elk-node1 logstash]# cd /usr/local/logstash/config/

    [root@elk-node1 conf.d]# vim messages.conf

    input {

        file {

            path => "/var/log/messages"

        }

    }

    output {

        elasticsearch {

            hosts => ["192.168.1.20:9200"]

            index => "messages-%{+YYYY.MM.dd}"

        }

        stdout {# codec => rubydebug

        }

    }

    [root@elk-node1 logstash]# chown -R logstash:logstash /usr/local/logstash/config/

    [root@elk-node1 logstash]# chmod 644 /var/log/messages

    [root@elk-node1 logstash]# useradd logstash && chown -R logstash:root /usr/local/logstash/config/

    [root@elk-node1 logstash]# /usr/local/logstash/bin/logstash -e 'input { stdin { } } output { stdout {} }'

    启动logstash并验证

    [root@elk-node1 ~]# /usr/local/logstash/bin/logstash -f /usr/local/logstash/config/messages.conf &

    Created symlink from /etc/systemd/system/multi-user.target.wants/logstash.service to /etc/systemd/system/logstash.service.

    [root@elk-node1 ~]# netstat -anplut

    //查看9600端口

     

    (4)后台验证

    访问网址 http://192.168.1.20:9100/ 

     

     

    4.安装kibana

    (1)yum安装kibana

    [root@elk-node1 ~]# tar xf kibana-6.1.0-linux-x86_64.tar.gz -C /usr/local/ && mv /usr/local/kibana-6.1.0 /usr/local/kibana

    [root@elk-node1 ~]# cd /usr/local/kibana

    [root@elk-node1 kibana]# vim /usr/local/kibana/config/kibana.yml

    server.port: 5601

    server.host: "0.0.0.0"

    elasticsearch.url: "http://192.168.1.20:9200"

    [root@elk-node1 kibana]# /usr/local/kibana/bin/kibana &

    [root@elk-node1 kibana]# netstat -anplut |grep :5601

    tcp        0      0 0.0.0.0:5601            0.0.0.0:*               LISTEN      4335/node

    (2)浏览器访问验证

    访问网址 http://192.168.1.20:5601/ 

    【注意:在红线部分添加messages-*,然后点击Discover,如果不能显示图形,请把时间选择一小时或更长。】

     

    展开全文
  • elk日志监控平台搭建

    2020-09-05 05:48:18
    elk日志监控平台搭建 版本:6.1.3 jdk 安装(略) kibana 安装 tar xvzf kibana-6.1.3-linux-x86_64.tar.gz 启动 : ./bin/kibana 验证: http://localhost:5601 后台启动: ./bin/kibana & exit退出 ...

    elk日志监控平台搭建

    版本:6.1.3

    1. jdk 安装(略)

    2. kibana 安装

       tar xvzf kibana-6.1.3-linux-x86_64.tar.gz
       启动 : ./bin/kibana
       验证: http://localhost:5601
       后台启动: ./bin/kibana &
       exit退出
      
    3. elasticsearch 安装
      tar xvzf elasticsearch-6.1.3.tar.gz
      修改配置文件 vim elasticsearch.yml
      network.host:0.0.0.0
      启动: ./bin/elasticsearch -d #-d为后台启动
      验证: http://ip:9200

       报错:max file descriptors [65535] for elasticsearch process is too low, increase to at least [65536]
       
       编辑 /etc/security/limits.conf
       追加:* soft nofile 65536
       	  * hard nofile 131072
       	  * soft nproc 2048
       	  * hard nproc 4096
       	  
       报错: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
       
       编辑: /etc/sysctl.conf
       追加:vm.max_map_count=655360
       保存后,执行:
       	  sysctl -p
      
    4. logstash 安装
      unzip logstash-6.1.3.zip
      修改配置:vi config/jvm.options
      -Xms6g (运行内存,具体多大视配置而定)
      -Xmx6g
      新建 logstash.conf 文件(文件名自定义)
      插件内容(更多内容参照官网):
      input {
      file {
      path => “/usr/local/src/open_falcon/alarm/logs/*.log”
      start_position => “beginning” #定义文件读取的位置
      }
      }

       	output {
       		# 输出到 elasticsearch
       		elasticsearch {
       		   hosts => ["192.168.31.128:9200"]
       		   index => "test_elk"
       	   }
       		#输出到文件
       		#file {
       		#       path => "/usr/local/test.log"
       		#}
      
       	}
      
       启动:bin/logstash -f logstash.conf
      
    展开全文
  • springboot+ELK日志监控系统 ELK简介 ELK是Elasticsearch+Logstash+Kibana简称 Elasticsearch 是一个分布式的搜索和分析引擎,可以用于全文检索、结构化检索和分析,并能将这三者结合起来。Elasticsearch 基于 ...

    springboot+ELK日志监控系统

     

    ELK简介
    ELK是Elasticsearch+Logstash+Kibana简称

    Elasticsearch 是一个分布式的搜索和分析引擎,可以用于全文检索、结构化检索和分析,并能将这三者结合起来。Elasticsearch 基于 Lucene 开发,现在是使用最广的开源搜索引擎之一。

    Logstash 简单来说就是一根具备实时数据传输能力的管道,负责将数据信息从管道的输入端传输到管道的输出端,与此同时这根管道还可以让你根据自己的需求在中间加上滤网,Logstash提供了很多功能强大的滤网以满足你的各种应用场景。

    Kibana 是一个开源的分析与可视化平台,设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看、交互存放在Elasticsearch索引里的数据,使用各种不同的图标、表格、地图等,kibana能够很轻易的展示高级数据分析与可视化。


    ELK下载安装
    可以去官网分别下载安装:https://www.elastic.co/downlo...
    需要提前安装JDK1.8,这里我是在windows上操作。

     

    Elasticsearch安装启动
    如图,下载Elasticsearch并解压

    config/elasticsearch.yml配置文件,修改配置(也是默认配置,可以不做修改)

    network.host=localhost
    network.port=9200
    

    sticsearch.bat,启动成功,访问localhost:9200

    
    {
      "name" : "LAPTOP-ML8IAD5Q",
      "cluster_name" : "elasticsearch",
      "cluster_uuid" : "uD-57EI7Rfan6nHNra1MvQ",
      "version" : {
        "number" : "7.9.2",
        "build_flavor" : "default",
        "build_type" : "zip",
        "build_hash" : "d34da0ea4a966c4e49417f2da2f244e3e97b4e6e",
        "build_date" : "2020-09-23T00:45:33.626720Z",
        "build_snapshot" : false,
        "lucene_version" : "8.6.2",
        "minimum_wire_compatibility_version" : "6.8.0",
        "minimum_index_compatibility_version" : "6.0.0-beta1"
      },
      "tagline" : "You Know, for Search"
    }

    logstash安装启动
    如图,下载Logstash并解压

    bin目录下新建配置log4j_to_es.conf

    input {
        tcp {  
        ##host:port就是上面appender中的 destination,这里其实把logstash作为服务,开启8888端口接收logback发出的消息  
            host => "localhost"  
            port => 8888
        #模式选择为server  
            mode => "server"  
            tags => ["tags"]  
    
        ##格式json  
            codec => json_lines         
        }  
    
    } 
    
    output {
            elasticsearch {
            #ES地址
                    hosts => "127.0.0.1:9200"
            #指定索引名字
                    index => "applog"
            }
            stdout { codec => rubydebug}
    }

    新建文件run_default.bat

    logstash -f log4j_to_es.conf

    保存直接双击该配置文件,启动成功,控制台输出如下:

     

    访问localhost:9600:

    {"host":"LAPTOP-MJ88A0EI","version":"7.9.2","http_address":"127.0.0.1:9600","id":"a0fe5a6f-e35d-4c5f-8b87-24344a928239","name":"LAPTOP-MJ88A0EI","build_date":"2018-06-29T22:43:59Z","build_sha":"b79493047db01afca1e11c856fe8538d7ecb5787","build_snapshot":false}

    Kibana安装启动
    如图,下载Kibana并解压

    这里,直接默认配置即可,bin/kibana.bat双击运行,启动成功,访问localhost:5601

    clipboard.png

    至此,软件启动完毕!


    创建SpringBoot项目,pom.xml文件如下:

    <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
             xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
        <modelVersion>4.0.0</modelVersion>
    
        <groupId>com.zm.elk</groupId>
        <artifactId>elk</artifactId>
        <version>0.0.1-SNAPSHOT</version>
        <packaging>jar</packaging>
    
        <name>elk</name>
        <description></description>
    
        <parent>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-parent</artifactId>
            <version>2.0.3.RELEASE</version>
            <relativePath/> <!-- lookup parent from repository -->
        </parent>
    
        <properties>
            <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
            <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
            <java.version>1.8</java.version>
        </properties>
    
        <dependencies>
            <dependency>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-web</artifactId>
            </dependency>
    
            <dependency>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-test</artifactId>
                <scope>test</scope>
            </dependency>
    
            <dependency>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-starter-log4j</artifactId>
                <version>1.3.8.RELEASE</version>
            </dependency>
    
            <dependency>
                <groupId>net.logstash.logback</groupId>
                <artifactId>logstash-logback-encoder</artifactId>
                <version>4.9</version>
            </dependency>
        </dependencies>
    
        <build>
            <plugins>
                <plugin>
                    <groupId>org.springframework.boot</groupId>
                    <artifactId>spring-boot-maven-plugin</artifactId>
                </plugin>
            </plugins>
        </build>
    
    
    </project>

    log4j的配置如下:

    log4j.rootLogger=INFO,console
    
    # for package com.demo.elk, log would be sent to socket appender.
    log4j.logger.com.forezp=DEBUG, socket
    
    # appender socket
    log4j.appender.socket=org.apache.log4j.net.SocketAppender
    log4j.appender.socket.Port=4560
    log4j.appender.socket.RemoteHost=localhost
    log4j.appender.socket.layout=org.apache.log4j.PatternLayout
    log4j.appender.socket.layout.ConversionPattern=%d [%-5p] [%l] %m%n
    log4j.appender.socket.ReconnectionDelay=10000
    
    # appender console
    log4j.appender.console=org.apache.log4j.ConsoleAppender
    log4j.appender.console.target=System.out
    log4j.appender.console.layout=org.apache.log4j.PatternLayout
    log4j.appender.console.layout.ConversionPattern=%d [%-5p] [%l] %m%n

    logback..xml配置如下:

    <?xml version="1.0" encoding="UTF-8"?>
    <configuration>
    <appender name="LOGSTASH" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <destination>localhost:8888</destination>
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" />
    </appender>
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder charset="UTF-8"> <!-- encoder 可以指定字符集,对于中文输出有意义 -->
            <pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
        </encoder>
    </appender>
    
    <root level="INFO">
        <appender-ref ref="LOGSTASH" />
        <appender-ref ref="STDOUT" />
    </root>
    
    </configuration>

     

     

    log测试:

    import org.junit.Before;
    import org.junit.Test;
    import org.junit.runner.RunWith;
    import org.slf4j.Logger;
    import org.slf4j.LoggerFactory;
    import org.springframework.boot.test.context.SpringBootTest;
    import org.springframework.test.context.junit4.SpringRunner;
    
    @RunWith(SpringRunner.class)
    @SpringBootTest
    public class ElkApplicationTests {
    
        // 定义一个全局的记录器,通过LoggerFactory获取
        private final static Logger log = LoggerFactory.getLogger(Test.class);
    
        @Before
        public void setUp() {
        }
        @Test
        public void test() {
            log.trace("trace 成功了");
            log.debug("debug 成功了");
            log.info("info 成功了");
            log.warn("warn 成功了");
            log.error("error 成功了");
        }
    
    }

    回到kibana上查看信息:

    clipboard.png

    然后create index pattern

    clipboard.png

    clipboard.png

    回到Discover

    clipboard.png

    在右边就能看到具体的日志信息啦!!

    展开全文
  • 1:前提 :服务器已搭建java环境 1.8 2:elk步骤 :首先搭建ES做数据存储,然后搭建... 1:在服务器根目录下 创建名为ELK文件夹 1:cd / 2: mkdir elk 3:cd elk 2: 下载ES包:wget https://artifacts.elastic....

    1:前提

    :服务器已搭建java环境 1.8

    2:elk步骤

    :首先搭建ES做数据存储,然后搭建Kibana做数据可视化。最后搭建Logstash做数据流转

    ::1:搭建ES

           1:在服务器根目录下 创建名为ELK文件夹  1:cd / 2: mkdir elk 3:cd elk

           2: 下载ES包:wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.4.3.tar.gz

           3:解压之  tar -zxvf elasticsearch-6.4.3.tar.gz 整体目录如下

     修改相关文件配置。由于这个服务器是1核1G的。es默认配置-Xms 和-Xmx都是1G 一般是需要启动将其增加到4G左右。但是

    服务器只有1G,还搭了XXL和别的东西 就给了512M 不然无法启动。

    然后需要修改系统的虚拟内存大小  vim /etc/sysctl.conf  修改vm.max_map_count=262144 。未定义该参数则新增。

    推出vim 后执行 sysctl -p  使其立即生效。

    由于ES无法使用root 账户登录 所以新增一个用户 并赋予es文件夹权限 add user useres  ;chown -R useres  /elk/elasticsearch-6.4.3

    然后启动es 执行es文件夹 bin 目录下 elasticsearch即可 started即为启动成功

    外网访问 9200端口 即可验证

    ES搭建成功 。开始搭建kibana

    2:kibana
     

    到elk目录下下载kibana压缩包 并解压

    cd /elk;wget https://artifacts.elastic.co/downloads/kibana/kibana-6.4.3-linux-x86_64.tar.gz ;tar -zxvf kibana-6.4.3-linux-x86_64.tar.gz 。解压后目录如下

    修改目录下配置  cd config ;vim kibana.yml . 到文件末新增属性

    server.port: 5601
    server.host: "0.0.0.0"
    elasticsearch.url: "http://ES地址:9200"
    kibana.index: ".kibana"

    保存退出

    启动kibana ../bin/kibana (好不容易截图成功了==之前老进不去 因为内存太小,ES跑挂了。重启后马上刷新kibana.后面服务器换了公司的测试服务器。因为配置稍微好一些。而且公司刚好也需要搭ELK)

     

    3:搭建logstash  (一般搭建在项目部署的服务器上)

    下载解压wget https://artifacts.elastic.co/downloads/logstash/logstash-6.4.3.tar.gz; tar zxvf  logstash-6.4.3.tar.gz 解压后目录如下

     

    修改config配置

    cd config ; vim logstash-sample.conf

    这段内容是百度后修改的==主要内容为输入输出 output 以及过滤器 input表示数据源  path是一个数组,定义需要同步的内容 这里是同步日志文件。最好用绝对路径 输入日志的路径(支持通配符)。output输出位置。这里定义的是输出到es 配置es地址 index 是es索引库最好根据项目名+日期来建 。user是具有es权限的用户 。即启动ES时 新增的USER password 是user的password.(中间的过滤器脚本我也不太熟,就直接加上了)

    这样ELK就全部搭建好了。

    后面一些配置可以全部到kibana可视化界面操作了

    点击如图所示Management->index Patterns-->Create Index Pattern

    输入新建的索引名 下一步 选择@Timestamp ->create Index Pattern 就可以在kibana上查询日志文件了。

     

     

     

     

     

    3:搜索测试

    设置日志产生时间 以及索引库 加要搜索的关键词 如 “留言” 开始搜索 即能查询到结果

     

     

    ELK搭建日志监控平台成功。也可以通过修改或新增logstash的input做jdbc或者kafka 数据源。做kafka消息监控 或sql监控等。

    或者修改output指定kafka 。当发生某个事件(input) 去发一个MQ等

     

     

    展开全文
  • ELK日志监控平台

    2018-05-30 11:05:45
    elk 开源日志分析平台介绍 1 介绍 elasticsearch 是一个开源分布式搜索引擎,它的特点是:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动负载等特性logstash:是一个...
  • ELK日志监控系统搭建

    2018-07-10 10:02:41
    ELK简介:ELK(ElasticSearch, Logstash, Kibana)搭建实时日志分析平台(开源实时日志分析ELK平台部署)日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查...
  • ELK日志监控系统

    2020-09-09 16:10:25
    https://www.cnblogs.com/seagull-321/p/9222004.html
  • Docker搭建ELK日志监控

    2019-04-13 01:37:56
    前言:Elasticsearch做日志存储、Logstash做日志收集、Kibana界面展示 环境:MAC、Docker环境正常 1、下载elk镜像:docker pull sepb/elk 2、启动容器:docker run -p 5601:5601 -p 9200:9200 -p 5044:5044 -e ...
  • ELK日志收集框架,elastalert 从其中的es查询告警。 python3.6:或以上,一般系统都自带了 安装elastalert 下载 git clone https://github.com/Yelp/elastalert.git 安装 cd elastalert/ pip install -r ...
  • 程序运行避免不了出错,测试环境时我们可以通过打断点定位问题。...现在流行的日志监控系统ELK完美解决这个问题。本文整理了ELK单机版在Linux系统进行搭建,以及springboot将日志关联到ELK系统。 ELK是由...
  • 1. ELK概述ELK,也就是Elasticsearch、Logstash、Kibana三者的结合,是一套开源的分布式日志管理方案.Elasticsearch:负责日志存储、检索和分析LogStash:负责日志的收集、处理Kibana:负责日志的可视化方案: ...
  • 本次主要讨论在java开发过程中,经常使用到的日志监控平台。技术选型有Elasticsearch、Filebeat、Kibana。适用于java应用实例少于50个的场景。软件版本统一为最新的6.5.0,操作系统为centos7.4。以下为整个安装、...
  • 下载完成后解压到文件夹下:F://ELK ,建议把ELK文件放在一个文件夹下容易管理 坑位,注意避坑: 1. 解压后文件夹名字太长会出各种各样的问题,尽量把后面的版本号都去掉。 第一步 启动 1. elasticsearch、...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 14,447
精华内容 5,778
关键字:

elk日志监控