精华内容
下载资源
问答
  • 意图使用docker-compose部署完整的一套ES集群,包括cerebro和Kibana,yml文件如下: ···yml version: ‘2.2’ services: cerebro: image: lmenezes/cerebro:0.9.3 container_name: cerebro ports: - “9000:9000...

    环境描述

    操作系统: CentOS 7.x
    Docker版本: 20.10.3
    docker-compose版本: 1.18.0

    意图使用docker-compose部署完整的一套ES集群,包括cerebro和Kibana,yml文件如下:

    version: '2.2'
    services:
      cerebro:
        image: lmenezes/cerebro:0.9.3
        container_name: cerebro
        ports:
          - "9000:9000"
        command:
          - -Dhosts.0.host=http://elasticsearch:9200
        networks:
          - elk
      kibana:
        image: docker.elastic.co/kibana/kibana:7.10.2
        container_name: kibana7
        environment:
          - I18N_LOCALE=zh-CN
          - XPACK_GRAPH_ENABLED=true
          - TIMELION_ENABLED=true
          - XPACK_MONITORING_COLLECTION_ENABLED="true"
        ports:
          - "5601:5601"
        networks:
          - elk
      es01:
        image: docker.elastic.co/elasticsearch/elasticsearch:7.10.2-amd64
        container_name: es01
        environment:
          - cluster.name=escluster
          - node.name=es01
          - bootstrap.memory_lock=true
          - "ES_JAVA_OPTS=-Xms4096m -Xmx4096m"
          - discovery.seed_hosts=es01,es02
          - cluster.initial_master_nodes=es01,es02
        ulimits:
          memlock:
            soft: -1
            hard: -1
        volumes:
          - es7data1:/usr/share/elasticsearch/data
        ports:
          - 9200:9200
        networks:
          - elk
      es02:
        image: docker.elastic.co/elasticsearch/elasticsearch:7.10.2-amd64
        container_name: es02
        environment:
          - cluster.name=escluster
          - node.name=es02
          - bootstrap.memory_lock=true
          - "ES_JAVA_OPTS=-Xms4096m -Xmx4096m"
          - discovery.seed_hosts=es01,es02
          - cluster.initial_master_nodes=es01,es02
        ulimits:
          memlock:
            soft: -1
            hard: -1
        volumes:
          - es7data2:/usr/share/elasticsearch/data
        networks:
          - elk
    
    volumes:
      es7data1:
        driver: local
      es7data2:
        driver: local
    
    networks:
      elk:
        driver: bridge
    

    问题描述

    当执行docker-compose 后,访问9200端口正常,访问cerebro的9000端口和kibana的5601端口均不正常,具体表现为:

    1. 访问cerebro后,连接ES集群提示连接被拒绝"connection refused"
    2. 访问kibana,页面显示为“kibana notready yet”

    问题调查

    分别查看日志,cerebro日志中显示cerebro访问http://elasticsearch:9200为connection refused,kibana中显示Unable to revive connection: http://elasticsearch:9200/,回头查看yml文件内容,发现kibana访问的ES地址为默认的elasticsearch,无法得知真实的ES地址,cerebro同理

    问题修复

    将yml文件中的-Dhosts.0.host=http://elasticsearch:9200 修改为-Dhosts.0.host=http://172.17.0.1:9200,kibana的environment 添加一行- ELASTICSEARCH_HOSTS=http://172.17.0.1:9200,其中172.17.0.1 为docker0网卡的IP地址,重新执行docker-compose up -d命令后一切正常。

    展开全文
  • 主要介绍了Docker-compose 建立ELK集群的实现方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • docker集群ELK部署读取本地日志--配置文件;包含docker-compose集群部署ELK的配置脚本和elasticsearch、kibana的配置文件、logstash解析日志的配置文件
  • 1、目前日志总量不是很大,所以我只是通过docker-composeELK容器指定运行在一个节点,部署在了一台主机上面。可以按照需求将容器分别部署在三台主机上面、不过要注意相应的容器所需的物理卷的挂载位置也要在相对应...

    1、目前日志总量不是很大,所以我只是通过docker-compose将ELK容器指定运行在一个节点,部署在了一台主机上面。可以按照需求将容器分别部署在三台主机上面、不过要注意相应的容器所需的物理卷的挂载位置也要在相对应的主机上面。

    docker-compose.yml

    version: "3"

    services:

     elasticsearch:    #服务name

      image: docker.elastic.co/elasticsearch/elasticsearch:6.8.6    #指定elasticsearch使用的版本镜像,可根据自己的需求更改

      environment:    #elasticsearch容器启动的系统环境

        - node.name=es01

        - cluster.name=es-docker-cluster

        - discovery.type=single-node     #单节点运行

        - http.cors.enabled=true

        - http.cors.allow-origin=*

        - "ES_JAVA_OPTS=-Xms16g -Xmx16g"  #JAVA的内存大小

      ulimits: #集群运行,该配置无实际意义,可忽略

       memlock:

         soft: -1

         hard: -1  

      volumes:  #挂载相应本地存储目录存储数据,挂载配置文件

        - ./esdata/data:/usr/share/elasticsearch/data  #将本地文件存储和容器目录映射

        - ./esdata/logs:/user/share/elasticsearch/logs

        - ./esdata/plugins:/usr/share/elasticsearch/plugins

        - ./elk-config/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml

      ports:  #容器与外部服务器的端口映射

        - 9200:9200

        - 9300:9300

      networks: #指定固定IP地址,但是运行后没有生效,没找到原因,暂时放弃

        esnet:

         ipv4_address: 10.0.18.3

      deploy:

        replicas: 1

        placement:

         constraints:

          - node.hostname==docker-worker02     #指定在docker-swarm的那个主机节点运行

        update_config:

          parallelism: 1

          delay: 10s

        restart_policy:

          condition: on-failure

     logstash:

      image: docker.elastic.co/logstash/logstash:6.8.6

      ports:

        - '9044:9044'

      volumes:

        - ./elk-config/logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml

        - ./elk-config/logstash/config/logstash.conf:/usr/share/logstash/pipeline/logstash.conf

       - ./logdata:/usr/share/logstash/data

      networks:

        - esnet

      deploy:

        replicas: 1

        placement:

         constraints:

          - node.hostname==docker-worker02

     kibana:

      image: docker.elastic.co/kibana/kibana:6.8.6

      volumes:

        - ./elk-config/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml

      ports:

        - '5601:5601'

      networks:

        - esnet

      depends_on:  #依赖服务

        - elasticsearch

      deploy:

        replicas: 1

        placement:

         constraints:

          - node.hostname==docker-worker02

     headPlugin:

      image: 'mobz/elasticsearch-head:5'

      container_name: head

      ports:

        - '9100:9100'

      networks:

        - esnet

      deploy:

        replicas: 1

        placement:

         constraints:

          - node.hostname==docker-worker02

    networks:

      esnet:

        ipam:

         config:

          - subnet: 10.0.18.0/24

     

    2、运行docker-compose文件前先创建相应的的目录和配置文件

    Mkdir /esdata/data    #elasticsearch的数据存储目录

    Mkdir /esdata/logs    #elasticsearch的日志

    Mkdir /esdata/plugins

    Mkdir /logdata/dnslog  #远程sftp服务器下载的dns日志

    Mkdir /elk-config        #elasticsearch logstash kibana的配置文件

    因为elasticsearch产生数据、需要给相应的文件目录写入权限

    Chmod 775 /esdata/data

    Chmod 775 /esdata/logs

    Chmod 775 /logdata

    3、在docker swarm管理节点上创建docker-compose.yml文件,写入docker-compose具体的代码数据

    4、运行docker-compose.yml文件、部署服务

    docker stack deploy -c docker-compose.yml elk

     

    5、docker stack及docker容器操作的常用基本命令

    1) docker stsack deploy

    用于根据 Stack 文件(通常是 docker-stack.yml)部署和更新 Stack 服务的命令。

    2) docker stack ls

    会列出 Swarm 集群中的全部 Stack,包括每个 Stack 拥有多少服务。

    3) docker stack ps

    列出某个已经部署的 Stack 相关详情。该命令支持 Stack 名称作为其主要参数,列举了服务副本在节点的分布情况,以及期望状态和当前状态。

    4) docker stack rm

    命令用于从 Swarm 集群中移除 Stack。移除操作执行前并不会进行二次确认。

    5)docker ps

    显示目前运行的容器信息,容器ID

    6)docker inspect 容器ID |grep IPAddress

    获取容器的IP地址

     

    6、在docker-swarm管理节点使用docker stack命令运行docker-compose是将容器服务运行在整个集群上面,因为ELK有存储数据的需求,因此在docker-compos文件里面,将ELK指定在了worker02节点即(172.16.10.12)服务器上面运行,所以在172.16.10.12上面挂载硬盘。硬盘挂载配置请参考《虚拟机的配置调整》

     

     

    7、查看elasticsearch的容器IP地址、并修改kibana、logstash配置文件内的elasticsearch的地址后重新加载容器服务

     

    1)、查看容器ID:dockers ps

    2)查看elasticsearch的容器IP地址:

    docker inspect 容器ID |grep IPAddress

     

    3)修改kibana.yml和logstash.conf的elasticsearch的地址为上面查询到的地址

     

    4)重新加载kibana、logstash服务

    8、看到各个容器正常启动,ELK部署完成。启动异常过程可以查看容器启动日志

     

     

     

    9、启动完成后可以尝试浏览器访问:172.16.10.12:9200、172.16.10.12:9100 、172.16.10.12:5600

    验证服务正常部署完成

     

     

    参考链接:https://github.com/deviantony/docker-elk

                      https://www.cnblogs.com/wenhuazzz/p/12055747.html

                      https://blog.csdn.net/CaptainJava/article/details/106879295

                      https://www.elastic.co/guide/en/elasticsearch/reference/7.4/docker.html

     
    展开全文
  • ELK日志收集系统(三):docker-compose部署ELK单机与集群一:安装docker-compose二:docker-compose小型web案例三:单机环境ELK系统搭建四:多主机ELK部署4.1 开启docker swarm4.2 启动集群 一:安装docker-compose...

    一:安装docker-compose

    官方安装文档见:docker-compose install
    安装方式一:

    # 注意下面url中的docker-compose版本
    sudo curl -L "https://github.com/docker/compose/releases/download/1.23.1/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
    sudo chmod +x /usr/local/bin/docker-compose
    docker-compose --version
    

    安装方式二:

    pip install docker-compose
    

    二:docker-compose小型web案例

    所用到的文件目录如下:

    [root@node01 case1-flask-web]# tree
    .
    ├── docker-compose.yml
    ├── Dockerfile
    └── flask-web-code
        ├── app.py
        └── requirements.txt
    1 directory, 4 files
    

    app.py文件内容如下:

    #!/usr/bin/env python
    # encoding: utf-8
    import time
    import redis
    from flask import Flask
    
    app = Flask(__name__)
    cache = redis.Redis(host='172.17.2.36', port = 3306)
    def get_hit_count():
            retries = 5
            while True:
                    try:
                            return cache.incr('hits')
                    except redis.execeptions.ConnectError as exec:
                            if retries = 0:
                                    raise exec
                            retries -= 1
                            time.sleep(0.5)
    @app.route('/')
    def main():
            count = get_hit_count()
            return "欢迎访问!网站已累计访问{}次\n".format(count)
    
    if __name__ == '__main__':
            app.run(host = '0.0.0.0', debug = True)
    

    requirements.txt为上面app.py文件运行所需的依赖,内容如下:

    [root@node01 case1-flask-web]# cat flask-web-code/requirements.txt
    redis
    flask
    

    Dockerfile文件内容如下:

    [root@node01 case1-flask-web]# cat Dockerfile
    # flask web app v1.0
    FROM python:alpine3.6
    COPY ./flask-web-code /code
    WORKDIR /code
    RUN pip install -r requirements.txt
    CMD ["python","app.py"]
    

    docker-compose文件内容如下:

    [root@node01 case1-flask-web]# cat docker-compose.yml
    version: "3"
    services:
      flask-web:
        build: .
        ports:
          - "5000:5000"
        container_name: flask-web
        networks:
          - web
      redis:
        image: redis
        container_name: redis
        networks:
          - web
        volumes:
          - redis-data:/data
    networks:				# 创建一个名为web的网络
      web:
        driver: "bridge"
    volumes:				# 创建一个名为redis-data的数据卷
      redis-data:
        driver: "local"
    

    检测docker-compose.yml文件语法是否有错:

    docker-compose config	 # 在docker-compose.yml文件目录下运行
    

    运行docker-compose:

    docker-compose up -d
    

    三:单机环境ELK系统搭建

    ELK日志收集系统(三):docker-compose部署ELK单机与集群
    Elasticsearch官方docker-compose安装文档:

    https://www.docker.elastic.co/#
    https://www.elastic.co/guide/en/elasticsearch/reference/6.6/docker.html
    

    docker-compose.yml文件内容如下:

    version: '2.2'
    services:
      elasticsearch:
        image: docker.elastic.co/elasticsearch/elasticsearch:6.6.2
        container_name: elasticsearch
        environment:
          - cluster.name=docker-cluster
          - bootstrap.memory_lock=true
          - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
        ulimits:
          memlock:
            soft: -1
            hard: -1
        volumes:
          - esdata1:/usr/share/elasticsearch/data
        ports:
          - 9200:9200
        networks:
          - esnet
      elasticsearch2:
        image: docker.elastic.co/elasticsearch/elasticsearch:6.6.2
        container_name: elasticsearch2
        environment:
          - cluster.name=docker-cluster
          - bootstrap.memory_lock=true
          - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
          - "discovery.zen.ping.unicast.hosts=elasticsearch"
        ulimits:
          memlock:
            soft: -1
            hard: -1
        volumes:
          - esdata2:/usr/share/elasticsearch/data
        networks:
          - esnet
      logstash:
        image: docker.elastic.co/logstash/logstash:6.6.2
        container_name: logstash
        networks:
          - esnet
        environment:
          - "LS_JAVA_OPTS=-Xms256m -Xmx256m"
        depends_on:
          - elasticsearch
          - elasticsearch2
      kibana:
        image: docker.elastic.co/kibana/kibana:6.6.2
        container_name: kibana
        networks:
          - esnet
        ports:
          - "5601:5601"
        depends_on:
          - elasticsearch
          - elasticsearch2
    
    volumes:
      esdata1:
        driver: local
      esdata2:
        driver: local
    
    networks:
      esnet:
    

    测试访问elasticsearch:

    [root@node01 elk]# curl 127.0.0.1:9200
    {
      "name" : "TlZE8Cd",
      "cluster_name" : "docker-cluster",
      "cluster_uuid" : "g6xjoIdsTvuH2R0ibq86JA",
      "version" : {
        "number" : "6.6.2",
        "build_flavor" : "default",
        "build_type" : "tar",
        "build_hash" : "3bd3e59",
        "build_date" : "2019-03-06T15:16:26.864148Z",
        "build_snapshot" : false,
        "lucene_version" : "7.6.0",
        "minimum_wire_compatibility_version" : "5.6.0",
        "minimum_index_compatibility_version" : "5.0.0"
      },
      "tagline" : "You Know, for Search"
    }
    

    测试访问kibana:http://IP:5601

    四:多主机ELK部署

    这里以两台主机为例,部署ELK集群。多主机的集群部署需要借助docker swarm工具来完成。

    4.1 开启docker swarm

    [root@node01 ~]# docker swarm init
    Swarm initialized: current node (10yazab81gljnr55d6rgzwdkt) is now a manager.
    
    To add a worker to this swarm, run the following command:
    
        docker swarm join \
        --token SWMTKN-1-4vkyt0jr4ws4yklpwrp1koas213fzwpqnj8xceb324dst7k1ca-16rcj6szgan37o1zd8s6j04na \
        172.17.2.239:2377
    
    To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
    # 备份上面的docker swarm jon ... 命令
    # 其他主机需要通过这条命令加入集群
    

    查看已有的集群节点:

    [root@node01 ~]# docker node ls
    ID                           HOSTNAME            STATUS  AVAILABILITY  MANAGER STATUS
    10yazab81gljnr55d6rgzwdkt *  node01.adminba.com  Ready   Active        Leader
    # 上面那台主机就是本机
    

    在其他主机上执行命令加入集群:

    [root@node02 ~]# docker swarm join --token SWMTKN-1-4vkyt0jr4ws4yklpwrp1koas213fzwpqnj8xceb324dst7k1ca-16rcj6szgan37o1zd8s6j04na 172.17.2.239:2377
    This node joined a swarm as a worker.
    

    再次查看集群节点:

    [root@node01 ~]# docker node ls
    ID                           HOSTNAME            STATUS  AVAILABILITY  MANAGER STATUS
    10yazab81gljnr55d6rgzwdkt *  node01.adminba.com  Ready   Active        Leader
    zl62ro2c1qg4l9bowqdoof1j2    node02.adminba.com  Ready   Active
    

    当docker swarm启动后会增加两个网络:

    [root@node01 ~]# docker network ls
    NETWORK ID          NAME                DRIVER              SCOPE
    0a0f9dc6cc3c        bridge              bridge              local
    e68ced357b66        docker_gwbridge     bridge              local		# 新增加的,用来访问外网
    1220950fefa2        host                host                local
    c2z09todfds5        ingress             overlay             swarm		# 新增加的,集群中各个节点的相互通信
    02b0466d2fda        none                null                local
    

    4.2 启动集群

    docker-compose.yml文件内容如下:

    # 对比上面单机版的docker-compose文件内容,少了的选项即为不支持的选项
    [root@node01 swarm-elk]# cat docker-compose.yml
    version: "3.6"
    services:
      elasticsearch:
        image: docker.elastic.co/elasticsearch/elasticsearch:6.6.2
        environment:
          - cluster.name=docker-cluster
          - bootstrap.memory_lock=false
          - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
        volumes:
          - esdata1:/usr/share/elasticsearch/data
        ports:
          - 9200:9200
        networks:
          - esnet
        deploy:
          placement:
            constraints:
              - node.role == manager
      elasticsearch2:
        image: docker.elastic.co/elasticsearch/elasticsearch:6.6.2
        environment:
          - cluster.name=docker-cluster
          - bootstrap.memory_lock=false
          - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
          - "discovery.zen.ping.unicast.hosts=elasticsearch"
        volumes:
          - esdata2:/usr/share/elasticsearch/data
        networks:
          - esnet
        deploy:
          placement:
            constraints:
              - node.role == worker
      logstash:
        image: docker.elastic.co/logstash/logstash:6.6.2
        networks:
          - esnet
        environment:
          - "LS_JAVA_OPTS=-Xms256m -Xmx256m"
        deploy:
          replicas: 2
      logstash2:
        image: docker.elastic.co/logstash/logstash:6.6.2
        networks:
          - esnet
        environment:
          - "LS_JAVA_OPTS=-Xms256m -Xmx256m"
        deploy:
          replicas: 2
      kibana:
        image: docker.elastic.co/kibana/kibana:6.6.2
        networks:
          - esnet
        ports:
          - "5601:5601"
        deploy:
          placement:
            constraints:
              - node.role == manager
    
    volumes:
      esdata1:
        driver: local
      esdata2:
        driver: local
    
    networks:
      esnet:
        driver: "overlay"
    

    启动命令:

    docker stack deploy -c docker-compose.yml elk
    
    展开全文
  • docker-compose部署7.12版本ELK ELK版本: elasticsearch:7.12.1 logstash:7.12.1 kibana:7.12.1 以下所有文件均可在gitee和github上获取https://gitee.com/korov/Docker,https://github.com/Korov/Docker docker...

    docker-compose部署7.12版本ELK

    ELK版本:
    elasticsearch:7.12.1
    logstash:7.12.1
    kibana:7.12.1

    以下所有文件均可在gitee和github上获取https://gitee.com/korov/Docker,https://github.com/Korov/Docker

    docker-compose 文件

    version: '3.4'
    
    services: 
        elasticsearch:
            image: elasticsearch:7.12.1
            container_name: elasticsearch
            ports: 
                - 9200:9200
                - 9300:9300
            environment: 
                - "discovery.type=single-node"
        logstash:
            image: logstash:7.12.1
            container_name: logstash
            volumes: 
                - "./logstash.conf:/usr/share/logstash/config/logstash.conf:ro"
            ports: 
                - "5044:5044"
                - "9600:9600"
            environment: 
                LS_JAVA_OPTS: "-Xmx512m -Xms512m"
            depends_on: 
                - elasticsearch
        kibana:
            image: kibana:7.12.1
            container_name: kibana
            volumes: 
                - "./kibana.yaml:/usr/share/kibana/config/kibana.yml:ro"
            ports: 
                - 5601:5601
            depends_on: 
                - elasticsearch
    

    elasticsearch配置文件

    network.host: 0.0.0.0
    xpack:
      ml.enabled: false
      monitoring.enabled: false
      security.enabled: false
      watcher.enabled: false
    

    logstash配置文件

    input {
        file {
            path => ["/usr/share/logstash/pipeline/logs/test.log"]
            start_position => "beginning"
        }
    }
    output {
       elasticsearch { hosts => ["elasticsearch:9200"] }
    }
    

    kibana配置文件

    server.host: "0.0.0.0"
    elasticsearch.hosts: ["http://elasticsearch:9200/"]
    xpack:
      apm.ui.enabled: false
      graph.enabled: false
      ml.enabled: false
      monitoring.enabled: false
      reporting.enabled: false
      security.enabled: false
      grokdebugger.enabled: false
      searchprofiler.enabled: false
    

    将以上文件全部放在相同文件夹下然后执行以下命令
    docker-compose up -d
    耐心等待一段时间之后访问界面http://localhost:5601

    在这里插入图片描述

    展开全文
  • ELK部署笔记(docker-compose部署

    千次阅读 2020-11-28 12:19:13
    1、用docker部署elk的大体步骤 yum install docker yum install docker-compose 新建自定义目录,新建docker-compose.yml文件(这个过程叫编排服务) mkdir /xxx/elk vim dokcer-compose.yml 复制以下内容到...
  • docker-compose部署es集群

    千次阅读 2020-01-21 18:03:47
    通过docker-compose部署es集群。es最新版本:7.5.1 mkdir -p /home/elfk/elasticsearch/config mkdir /home/elfk/elasticsearch/{data1,data2,data3} cd /home/elfk echo 'ELK_VERSION=7.5.1' > .env tree . ...
  • docker-composeELK环境搭建 dockerdocker-compose 安装教程:https://blog.csdn.net/m0_46210779/article/details/115035841?spm=1001.2014.3001.5502 环境搭配 切换到/usr/local目录下 #创建docker目录 mkdir...
  • 使用docker-compose部署ELK docker下载部署所需镜像 kibana 7.5.0 docker pull kibana:7.5.0 elasticsearch 7.5.0 docker pull elasticsearch:7.5.0 logstash 7.5.0 docker pull logstash:7.5.0 elasticsearch-head...
  • docker-compose.yml version: "3" services: elasticsearch: #容器name image: docker.elastic.co/elasticsearch/elasticsearch:6.8.6 #指定elasticsearch使用的版本镜像 environment: #elasticsearch容器启动...
  • 编写/data/elk/docker-compose.yml version: '3' services: elasticsearch: image: elasticsearch:7.7.0 #镜像 container_name: elk_elasticsearch #定义容器名称 restart: always #开机启动,失败也会一直重启 ...
  • docker-compose搭建日志监控系统ELK 1、基础环境 文章目录docker-compose搭建日志监控系统ELK1、基础环境环境要求2、环境配置3、配置启动docker-compose.yml4.spring booot输出日志到ELK 环境要求 服务器:centos ...
  • 本文介绍通过 docker-compose 构建 ES 集群ELK等相关软件。 制作包含analysis-ik、analysis-pinyin等插件的ES镜像,Dockerfile如下 # Docker image of elasticsearch with ik and pinyin # VERSION 7.2.0 # ...
  • docker-compose-elk.yml version: '3' services: elasticsearch: image: elasticsearch:7.5.0 container_name: es7.5.0 environment: - discovery.type=single-node #配置es启动单节点 - cluster.name
  • 新手小白docker-compose搭建ELK, 解决Spring Boot分布式日志问题ELK平台简介ELK工作原理docker-ce,ELK环境安装docker-ce工具安装docker-compose工具关闭防火墙max_map_count问题以及解决编写docker-compose.yml安装...
  • 文章目录容器技术 Docker 应用一、Docker-compose Elastic Stack1.配置2.内存映射3.启动4.访问测试二、Docker-compose Logstash1.配置 容器技术 Docker 应用 一、Docker-compose Elastic Stack 官方地址 1.配置 ...
  • 第一步安装docker: ...第二步安装docker-compose yum -y install -y epel-release #安装pip需要先安装epel-release包 yum install -y python-pip #安装pip ...pip install docker-compose #安装docker-comp
  • 基于docker-composeELK环境搭建

    千次阅读 2020-07-03 11:02:02
    基于docker-composeELK环境搭建 因为最近学习到了需要利用到ELK的环境,因为昨天自己不小心踩了坑,在这里跟大家分享一下快速搭建的方法。简单易上手。也是记录自己的学习过程,以后也可以用到。 1、安装Docker ...
  • Docker-compose-consul部署Ningx+Tomcat+ELK分析Nginx访问日志一、Docker-compose部署Tomcat1. 安装compose2. 编写Dockerfile文件3. 编写dockers-compose.yml文件4. 执行yml文件创建容器二、配置consul自动同步1. ...
  • Docker-Compose项目是Docker官方的开源项目,负责实现对Docker容器集群的快速编排,haproxy用以负载均衡管理。 #安装docker-compose #两个问题:pip2报错需要安装pip3,本地源报错利用豆瓣源 [root@mangge01 ~]# ...
  • docker-compose 部署 elasticsearch 集群

    千次阅读 2018-11-22 17:27:53
    目录结构 ├── config 配置目录 │ ├── es.yml es配置文件 │ ├── es1.yml es1配置文件 │ ├── es2.yml es2配置文件 └── docker-compose.yml d...
  • docker官方提供了docker-compose编排工具,elk集群一键就可以搞定,真是兴奋。好了下面咱们开始吧。 一、 https://github.com/deviantony/docker-elk $ cd /006_xxxallproject/005_docker/001_elk/d...
  • 步骤一 搭建swarm集群环境 1、创建keystore宿主机,创建命令如下: eval "$(docker-machine env elk-keystore)" 2、在elk-keystore宿主机上创建consul容器,创建命令如下: 1)eval "$(docker-machine env elk-...
  • Docker-compose环境搭建elk服务 主要应用于logstash采集mysql的(输入)数据输出到elasticsearch,并通过ik分词器以便于搜索 在当前登录的用户目录下新建docker-compose.yml配置文件: docker-compose.yml #我...
  • image: docker.elastic.co/elasticsearch/elasticsearch:7.13.2 container_name: es01 environment: - node.name=es01 - cluster.name=es-docker-cluster - discovery.seed_hosts=es02,es03 - cluster...
  • 下面详细介绍docker-compose安装的过程(单机版)! (一)创建相关目录路径 创建一个elk目录: mkdir elk 切换到elk目录下,然后在其下分别创建elasticsearch、logstash、kibana、filebeat目录以及各目录相关的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 858
精华内容 343
关键字:

docker-compose部署elk集群