精华内容
下载资源
问答
  • logstash安装教程linux版

    2020-01-07 14:38:32
    安装步骤: 1.将logstash解压 进入logstash-6.8.3 cd logstash-6.8.3 2.新建一个文件夹用来存放数据库连接的配置文件 mkdir my-config 从这个连接获取配置文件:...

    logstash介绍

    • 数据收集处理引擎
    • ETL工具

    安装步骤:

    1.将logstash解压

    进入logstash-6.8.3

    cd logstash-6.8.3

    2.新建一个文件夹用来存放数据库连接的配置文件

    mkdir my-config

    从这个连接获取配置文件:https://pan.baidu.com/s/1TtKRW-OmpQAKJthrZoeTww
    提取码:3mwp

    然后将其上传到刚才新建的文件夹下

    编辑sqlserver-es.conf

    vi sqlserver-es.conf

    下面是监听数据库的字段变化配置,根据自己的需求配置即可

     

    然后保存

    启动es数据库

    执行下面代码,在es数据库中创建模板

    curl -H "Content-Type: application/json" -XPUT http://192.168.1.10中:9200/_template/consumer_statistics -d '
    {"template":"consumer_statistics","order":2,"version":60001,"index_patterns":["consumer_statistics"],"settings":{"index":{"refresh_interval":"5s","max_result_window":"2147483647"}},"mappings":{"_default_":{"dynamic_templates":[{"message_field":{"path_match":"message","mapping":{"norms":false,"type":"text"},"match_mapping_type":"string"}},{"string_fields":{"mapping":{"norms":false,"type":"text","fields":{"keyword":{"ignore_above":1024,"type":"keyword"}}},"match_mapping_type":"string","match":"*"}}],"properties":{"@timestamp":{"type":"date"},"geoip":{"dynamic":true,"properties":{"ip":{"type":"ip"},"latitude":{"type":"half_float"},"location":{"type":"geo_point"},"longitude":{"type":"half_float"}}},"@version":{"type":"keyword"}}}},"aliases":{}}'

    通过浏览器访问到es数据库,说明启动成功了

     

    然后进入到进入logstash下的bin目录

    启动

    ./logstash -f ../my-config/sqlserver-es.conf

    如下就是启动成功了,并且每5秒更新一次数据

     

    展开全文
  • Logstash安装教程

    2020-01-08 18:25:40
    安装

    安装

    1. 官网下载压缩包
      https://www.elastic.co/cn/products/elasticsearch
    2. 解压
    tar -xzf logstash-7.5.1.tar.gz
    
    1. 新建logstash.conf文件,用于配置输入、过滤规则、输出信息
    [root@m5315392269-5 logstash]# cd logstash-7.5.1/
    [root@m5315392269-5 logstash-7.5.1]# touch logstash.conf
    
    #logstash.conf文件中的内容
    input {
      beats {
        type => "log"
        port => "5044" #开始本机的5044端口,监听
      }
    }
    
    filter{
      mutate{
        split=>["message","|"]
          add_field => {
            "log_date" => "%{[message][0]}"
          }
          add_field => {
            "log_level" => "%{[message][1]}"
          }
          add_field => {
            "log_thread" => "%{[message][2]}"
          }
          add_field => {
            "log_class" => "%{[message][3]}"
          }
          add_field => {
            "log_content" => "%{[message][4]}"
          }
    
          remove_field => ["message"]
      }
    }
    
    output {
      stdout { codec => rubydebug }
      elasticsearch {
        hosts => ["10.237.79.147:9200"]
        index => "%{type}-%{+YYYY.MM.dd}"
      }
    }
    
    1. 启动logstash
    [root@m5315392269-5 logstash-7.5.1]# ./bin/logstash -f logstash.conf
    

    Logstash配置文件介绍

    1. 设置输入

    2. 设置过滤规则
      add_field:在事件中加入一个filed
      tags:添加一个任意的数字作为当前事件的标签,这个标签对我们后续的工作会有帮助
      参考教程链接:
      关于logstash导入es库的配置文件的一些理解
      LogStash的Filter的使用

      mutate过滤器:
      mutate插件用于集成至Logstash上过滤日志数据,即在数据写入ES前进行数据清洗和数据格式化。
      split函数(mutate中常用函数):将包含特定分隔符的字符串拆分成数组
      参考教程链接:ELK 系列六、logstash 的mutate过滤器功能介绍

    3. 设置输出

    遇到问题

    (1)LogStash 错误:Logstash could not be started because there is already another instance usin

    Sending Logstash logs to /usr/local/logstash/logstash-6.5.0/logs which is now configured via log4j2.properties
    [2018-11-20T12:23:45,931][WARN ][logstash.config.source.multilocal] Ignoring the 'pipelines.yml' file because modules or command line options are specified
    [2018-11-20T12:23:46,088][FATAL][logstash.runner          ] Logstash could not be started because there is already another instance using the configured data directory.  If you wish to run multiple instances, you must change the "path.data" setting.
    [2018-11-20T12:23:46,130][ERROR][org.logstash.Logstash    ] java.lang.IllegalStateException: Logstash stopped processing because of an error: (SystemExit) exit
    

    原因及解决办法
    之前运行的instance有缓冲,保存在path.data里面有.lock文件(path默认指logstash解压后的目录),删除掉即可。

    data$ ls -alh
    总用量 20K
    drwxr-sr-x  4 tingshuo staff 4.0K 11月 20 11:42 .
    drwxr-sr-x 14 tingshuo staff 4.0K 11月 20 11:42 ..
    drwxr-sr-x  2 tingshuo staff 4.0K 11月 20 11:42 dead_letter_queue
    -rw-r--r--  1 tingshuo staff    0 11月 20 11:42 .lock
    drwxr-sr-x  2 tingshuo staff 4.0K 11月 20 11:42 queue
    -rw-r--r--  1 tingshuo staff   36 11月 20 11:42 uuid
    
    #删除并重新启动
    rm -rf .lock
    
    展开全文
  • LogStash安装与使用教程

    千次阅读 2019-08-01 14:39:20
    Logstash的介绍 Logstash管道有两个必需的元素,输入和输出,...LogStash安装 LogStash的下载地址 安装JDK1.8 上传下载的安装包到/opt/logstash目录下,解压tar -zxvf logstash-6.5.4.tar.gz 配置全局环境变量vi...

    Logstash的介绍

    Logstash管道有两个必需的元素,输入和输出,以及一个可选元素过滤器。输入插件从数据源那里消费数据,过滤器插件根据你的期望修改数据,输出插件将数据写入目的地。

    LogStash的安装

    1. LogStash的下载地址
    2. 安装JDK1.8
    3. 上传下载的安装包到/opt/logstash目录下,解压tar -zxvf logstash-6.5.4.tar.gz
    4. 配置全局环境变量vi /etc/profile添加如下内容
    export JAVA_HOME=/usr/java/jdk1.8.0_152
    export LOGSTASH_HOME=/opt/logstash/logstash-6.5.4
    export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    export PATH=$PATH:$JAVA_HOME/bin:$LOGSTASH_HOME/bin
    
    1. 查看是否安装成功:logstash -V
      显示所安装的版本号:logstash 6.5.4
    2. 运行第一个程序测试:
    logstash -e'input {stdin {}} output {stdout {}}'
    

    启动后再命令行输入Hello Word! 回车,在控制台会显示

    {
          "@version" => "1",
           "message" => "Hello Word! ",
              "host" => "master",
        "@timestamp" => 2019-01-07T05:23:53.238Z
    }
    
    1. Ctrl+C可以停止!

    常用插件

    File input plugin

    通常,日志记录会在每行写入的末尾添加换行符。默认情况下,假定每个事件都是一行,并且一行被视为换行符之前的文本。如果您想将多个日志行连接到一个事件中,您将需要使用多行编解码器。插件在发现新文件和处理每个发现的文件之间循环。发现的文件具有生命周期,它们从“观察”或“忽略”状态开始。生命周期中的其他状态是:“主动”,“关闭”和“未观看”。

    默认情况下,使用4095个文件的窗口来限制正在使用的文件句柄数。处理阶段有许多阶段:

    • 检查自上次以来“关闭”或“忽略”文件的大小是否已更改,如果是,则将其置于“已观看”状态。
    • 选择足够的“监视”文件来填充窗口中的可用空间,这些文件变为“活动”。
    • 打开并读取活动文件,默认情况下,每个文件从最后的已知位置读取到当前内容(EOF)的末尾。

    文件的读取策略:

    1. 在某些情况下,能够控制首先读取哪些文件,排序以及文件是完全读取还是带状/条带化是很有用的。
    2. 完全读取的是文件A,然后是文件B,然后是文件C,等等。
    3. 带状或带状读取是先读取文件A,然后读取文件B,然后读取文件C,如此循环,再读取文件A,直到读取所有文件

    带状读取是通过更改file_chunk_count或者file_chunk_size指定的。如果您希望所有文件中的一些事件尽可能早地出现在Kibana中,那么绑定和排序可能非常有用。

    该插件的两种模式Tail模式与Read模式

    Tail模式

    在这种模式下,插件的目标是跟踪更改的文件,并在添加到每个文件时发出新的内容。在这种模式下,文件被视为一个永不结束的内容流,EOF没有特殊的意义。插件总是假设会有更多的内容。当文件被旋转时,检测到较小或为零的大小,当前位置被重置为零并继续流。必须先看到分隔符,然后才能将累积的字符发出一行。

    1. 在Tail模式下的文件

    无论文件是通过重命名还是复制操作旋转,都可以通过此输入检测和处理文件旋转。要支持在轮换发生后写入旋转文件一段时间的程序,请在文件名模式中包含原始文件名和轮换文件名(例如/ var / log / syslog和/var/log/syslog.1)观看(path选项)。对于一个重命名,索引节点将作为从已移动被检测 /var/log/syslog到/var/log/syslog.1因此“状态”也在内部移动,旧内容将不会被重读,但重命名文件中的任何新内容都将被读取。对于复制/截断复制的内容到新文件路径(如果发现),将被视为新发现并从头开始读取。因此,复制的文件路径不应该在要监视的文件名模式中(path选项)。将检测到截断并将“最后读取”位置更新为零。

    Read模式

    在这种模式下,插件将每个文件视为内容完整,即有限的行流,现在EOF非常重要。不需要最后一个分隔符,因为EOF意味着可以将累积的字符作为一行发出。此外,这里的EOF意味着可以关闭文件并将其置于“未监视”状态——这将自动释放活动窗口中的空间。这种模式还可以处理内容完整的压缩文件。读取模式还允许在完全处理文件之后执行操作。

    与Flume的区别:在过去尝试模拟读模式同时仍然假设无限流并不理想,专用读模式是一种改进。

    对监视文件读取的当前位置上

    该插件通过在一个名为sincedb的单独文件中记录当前位置来跟踪每个文件中的当前位置。这使得停止和重新启动Logstash成为可能,并让它在不丢失在停止Logstash时添加到文件中的行数的情况下,从停止的地方继续运行。

    默认情况下,sincedb文件被放置在Logstash的数据目录中,文件名基于所监视的文件名模式(即path选项)。因此,更改文件名模式将导致使用一个新的sincedb文件,并且将丢失任何现有的当前位置状态。如果您以任意频率更改模式,那么使用sincedb_path选项显式地选择一个sincedb路径可能是有意义的。

    通过标识符跟踪文件。该标识符由inode,主设备号和次设备号组成。在Windows中,从kernel32API调用中获取不同的标识符。
    Sincedb记录现在可以过期,这意味着在一段时间后不会记住旧文件的读取位置。文件系统可能需要重用新内容的inode。理想情况下,我们不会使用旧内容的读取位置,但我们没有可靠的方法来检测发生了inode重用。这与读取模式更相关,其中在sincedb中跟踪了大量文件。但请记住,如果记录已过期,将再次读取先前看到的文件。

    Sincedb文件是四列、五列或六列的文本文件:

    1. node编号(或等效的)。
    2. 文件系统的主要设备号(或同等设备)。
    3. 文件系统的次要设备号(或等效设备号)。
    4. 文件中的当前字节偏移量。
    5. 最后一个活动时间戳(浮点数)。
    6. 此记录匹配的最后一个已知路径(对于转换为新格式的旧sincedb记录,该路径为空)。

    从远程网络卷读取

    文件输入未在远程文件系统(如NFS,Samba,s3fs-fuse等)上进行全面测试,但偶尔会测试NFS。远程FS客户端给出的文件大小用于控制在任何给定时间读取的数据量,以防止读取已分配但尚未填充的内存。由于我们在标识符中使用设备major和minor来跟踪文件的“最后读取”位置,并且在重新装入设备主要和次要可以更改时,sincedb记录可能在重新安装时不匹配。读取模式可能不适用于远程文件系统,因为客户端发现时的文件大小可能与远程端的文件大小不同,这是由于远程客户端复制过程中的延迟。

    文件输入配置选项

    设置输入类型是否必须
    close_oldernumber or string_durationNO
    delimiterstringNO
    discover_intervalnumberNO
    excludearrayNO
    file_chunk_countnumberNO
    file_chunk_sizenumberNO
    file_completed_actionstring, one of [“delete”, “log”, “log_and_delete”]NO
    file_completed_log_pathstringNO
    file_sort_bystring, one of [“last_modified”, “path”]NO
    file_sort_directionstring, one of [“asc”, “desc”]NO
    ignore_oldernumber or string_durationNO
    max_open_filesnumberNO
    modestring, one of [“tail”, “read”]NO
    patharrayYes
    sincedb_clean_afternumber or string_durationNO
    sincedb_pathstringNO
    sincedb_write_intervalnumber or string_durationNO
    start_positionstring, one of [“beginning”, “end”]NO
    stat_intervalnumber or string_durationNO
    1. close_older
    • 值类型是number或string_duration
    • 默认值是“1 hour”

    文件输入将关闭上次读取指定持续时间的任何文件(如果指定了数字,则为秒)。这具有不同的含义,具体取决于文件是否被加尾或读取。如果拖尾,并且传入数据中存在大的时间间隔,则可以关闭文件(允许打开其他文件),但是在检测到新数据时将排队等待重新打开。如果读取,文件将在从最后一个字节被读取后的closed_older秒后关闭。

    1. delimiter
    • 值类型是字符串
    • 默认值是“\n”

    设置新行分隔符,默认为“\ n”。请注意,在读取压缩文件时,不使用此设置,而是使用标准的Windows或Unix行结尾。

    1. discover_interval
    • 值类型是数字
    • 默认值是15

    我们多长时间扩展path选项中的文件名模式以发现要观看的新文件。该值是倍数stat_interval,例如,如果stat_interval是“500 ms”,则可以每15 X 500毫秒 - 7.5秒发现新文件文件。在实践中,这将是最好的情况,因为需要考虑阅读新内容所花费的时间。

    1. exclude
    • 值类型是数组
    • 此设置没有默认值

    排除(与文件名匹配,而不是完整路径)。文件名模式在这里也是有效的。
    例如,如果你有path =>“/ var / log / *”

    在Tail模式下,您可能希望排除gzip压缩文件:
    exclude =>“* .gz”

    1. file_chunk_count
    • 值类型是数字
    • 默认值是4611686018427387903

    当与file_chunk_size组合时,该选项设置在移动到下一个活动文件之前从每个文件读取多少块(带或条纹)。例如,file_chunk_count为32和file_chunk_size 32KB将处理每个活动文件中的下一个1MB。由于默认值非常大,因此在移动到下一个活动文件之前,该文件被有效地读入EOF。

    1. file_chunk_size
    • 值类型是数字
    • 默认值为32768(32KB)

    以块或块的形式从磁盘读取文件内容,并从块中提取行。请参见file_chunk_count以了解为什么以及何时从默认设置更改此设置。

    1. file_completed_action
    • 值可以任何的:delete;log;log_and_delete
    • 默认是delete

    在read模式下,完成文件时应执行什么操作。如果删除指定那么该文件将被删除。如果指定了log,则文件的完整路径将记录到file_completed_log_path设置中指定的文件中 。如果log_and_delete指定,则执行上述两个操作。

    1. file_completed_log_path
    • 值类型是字符串
    • 此设置没有默认值

    应该将完全读取的文件路径添加到哪个文件中。只有当file_completed_action是log或log_and_delete时,才将此路径指定到文件。重要提示:此文件仅追加到-它可以变得非常大。你负责文件的轮换

    1. file_sort_by
    • 值可以是任何的:last_modified,path
    • 默认是last_modified

    应该使用“监视”文件的哪个属性对其进行排序。可以按修改日期或完整路径字母对文件进行排序。以前,已发现并因此“监视”的文件的处理顺序取决于操作系统。

    1. file_sort_direction
    • 值可以是任何的:asc;desc
    • 默认是asc

    在排序“监视”文件时,在升序和降序之间进行选择。如果最早的数据首先是重要的,那么默认值last_modified+ asc是好的。如果最新的数据首先更重要,那么选择last_modified+ desc。如果对文件完整路径使用特殊命名约定,则可能 path+ asc将有助于控制文件处理的顺序。

    1. ignore_older
    • 值类型是number或string_duration
    • 此设置没有默认值。

    当文件输入发现在指定持续时间之前最后修改的文件(如果指定了数字,则为秒),将忽略该文件。在发现之后,如果修改了被忽略的文件,则不再忽略它,并且读取任何新数据。默认情况下,禁用此选项。注意这个单位是几秒钟。

    1. max_open_files
    • 值类型是数字
    • 此设置没有默认值

    此输入在任何时候消耗的最大file_handles数是多少。如果需要处理的文件多于此数字,请使用close_older关闭某些文件。这不应该设置为OS可以执行的最大值,因为其他LS插件和OS进程需要文件句柄。内部设置默认值4095。

    1. mode
    • 值可以值Tail或者read
    • 默认值为tail

    您希望文件输入在什么模式下运行。删除几个文件或读取许多内容完整的文件。读取模式现在支持gzip文件处理。如果指定“read”,则忽略以下其他设置:

    • start_position (始终从头开始读取文件)
    • close_older(达到EOF时文件会自动关闭)
      如果指定“read”,则注意以下设置:
    • ignore_older (不处理旧文件)
    • file_completed_action (处理文件时应采取什么行动)
    • file_completed_log_path (应该将完成的文件路径记录到哪个文件)
    1. path
    • 这是必须设置
    • 值类型是数组
    • 此设置没有默认值

    要用作输入的文件的路径。您可以在这里使用文件名模式,例如/var/log/.log。
    如果您使用类似/var/log/**/
    .log的模式,将对所有*执行/var/log的递归搜索。日志文件。路径必须是绝对的,不能是相对的。

    您还可以配置多个路径。请参阅Logstash配置页面的示例。

    1. sincedb_clean_after
    • 值类型是number或string_duration
    • 此设置的默认值为“2 weeks”。
    • 如果指定了数字,则将其解释为天数,并且可以是十进制,例如0.5是12小时。

    sincedb记录现在有一个与之关联的最后一个活动时间戳。如果在过去N天内未在跟踪文件中检测到任何更改,则其sincedb跟踪记录将过期,并且不会保留。此选项有助于防止inode回收问题。

    1. sincedb_path
    • 值类型是字符串
    • 此设置没有默认值

    将写入磁盘的sincedb数据库文件的路径(跟踪受监视日志文件的当前位置)。默认情况下会将sincedb文件写入<path.data>/plugins/inputs/file 注意:它必须是文件路径而不是目录路径

    1. sincedb_write_interval
    • 值类型是number或string_duration
    • 默认值是“15 seconds”

    使用受监视日志文件的当前位置编写自动数据库的频率(以秒为单位)。

    1. start_position
    • 值可以是任何的:beginning,end
    • 默认值是“end”

    选择Logstash最初开始读取文件的位置:开头或结尾。默认行为将文件视为实时流,因此从最后开始。如果您要导入旧数据,请将其设置为开头。

    此选项仅修改文件是新的且之前未见过的“初次接触”情况,即Logstash读取的sincedb文件中没有记录当前位置的文件。如果之前已经看过文件,则此选项无效,并且将使用sincedb文件中记录的位置。

    1. stat_interval
    • 值类型是number或string_duration
    • 默认值是“1 second”

    我们统计文件的频率(以秒为单位)以查看它们是否已被修改。增加此间隔将减少我们进行的系统调用次数,但会增加检测新日志行的时间。

    注意:发现新文件并检查它们是否已经增长/缩小发生在循环中。此循环将stat_interval在再次循环之前休眠几秒钟。但是,如果文件增长,则会读取新内容并将行排队。在所有增长的文件中读取和排队可能需要一些时间,尤其是在管道拥挤的情况下。因此整个循环时间是stat_interval文件读取时间的组合 。

    展开全文
  • logstash 安装,下载最新版本的logstash:点击打开链接 我下载的是这个版本logstash-7-3-2下载 解压到磁盘根目录下:在logstash>bin 1、目录下打开:logstash-sample.conf 2、输入内容: ...

    最新在研究elastic stack (elk)  :

    logstash 安装,下载最新版本的logstash: 点击打开链接

    我下载的是这个版本logstash-7-3-2下载

    解压到磁盘根目录下:在logstash>bin 

    1、目录下打开:logstash-sample.conf

    2、输入内容:

    input {
        stdin{
        }
    } 
     
    output {
        stdout{
        }
    }

    3.进入cmd启动

    ./logstash.bat -f D:\ELK\windows\logstash-7.3.2\config\logstash-sample.conf

    启动成功

    展开全文
  • Logstash安装和基本使用

    万次阅读 2018-06-10 22:57:43
    logstash是做数据采集的,类似于flume。官网http://www.elastic.co/cn/products/logstash解压 tar -zxvf logstash-2.4.1.tar.gz修改文件夹名字mv logstash-2.4.1 logstash控制台采集数据,控制台输出数据cd /app/...
  • logstash入门篇之安装启动 本文包含内容如下: logstash简介、下载和安装、 启动和后台启动、 运行原理、 自动装载配置文件
  • Logstash安装及使用

    2021-07-20 00:20:45
    Logstash 是一款强大的数据处理工具,它可以实现数据传输,格式处理,格式化输出,还有强大的插件功能,常用于日志处理
  • 前言 官网:https://www.elastic.co/fr/downloads/logstash 步骤 在bin目录下创建文件logstash.conf 内容如下 input { stdin{ ...logstash -f logstash.conf 访问 http://localhost:9600 ...
  • LogstashLogstash 入门教程 (一)

    万次阅读 多人点赞 2020-05-07 16:41:06
    Logstash是一个功能强大的工具,可与各种部署集成。 它提供了大量插件,可帮助你解析,丰富,转换和缓冲来自各种来源的数据。 如果你的数据需要Beats中没有的其他处理,则需要将Logstash添加到部署中。 Logstash...
  • logstash安装 window版

    千次阅读 2020-01-09 11:54:09
    1.首先下载logstash window版 官网最新版本:https://artifacts.elastic.co/downloads/logstash/logstash-7.5.1.zip 2.解压 3.配置问价 新建一个my-link的文件夹 下载下面的驱动放到该目录下 链接:...
  • centos6.5安装elasticsearch+logstash详细教程,阿里云环境
  • logstash在windows系统下的安装与使用

    千次阅读 2020-12-25 09:52:40
    Logstash 是开源的服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到 Elasticsearch。 ES官网:https://www.elastic.co/products/logstash logstash下载地址:...
  • 安装Logstash 先下载logstash-6.4.3 链接:https://pan.baidu.com/s/1PirEKgby6OOIVJUwI4h6wg 提取码:xw4n logstash-6.4.3 解压后 添加以下文件 将mysql.conf放到根目录下 整合数据库 下载mysql-connector-java-8.0...
  • 1.Logstash简介 Logstash是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它可以从许多来源接收日志,这些来源包括 syslog、消息传递(例如 ...
  • logstash的使用教程

    千次阅读 2019-09-18 23:04:02
    cd logstash_HOME bin/logstash -e 'input { stdin { } } output { stdout {} }' 启动 Logstash 后,再键入 Hello hiekay,结果如下: 在生产环境中,Logstash 的管道要复杂很多,可能需要配置多个输入、过滤...
  • 2019年elaticsearch6.6.0的安装教程,kibana6.6.0安装教程logstash6.6.0安装教程,ik分词器,head插件,bigdesk等插件安装教程,x-pack使用等。
  • Logstash入门教程

    2018-06-05 16:53:12
    查看插件和安装插件 [3] https://blog.csdn.net/laoyang360/article/details/65448962 清除解析失败的数据 [4] https://blog.csdn.net/qq1032355091/article/details/52953837?locationNum=3&fps=1 [5] ...
  • logstash入门安装+官方教程

    千次阅读 2018-03-24 16:51:30
    以上为官网教程地址接下来的内容为官网翻译+自学过程全记录:ubuntu 16 ,使用aptget安装 下载并安装公共签名秘钥wget -qO - https://artifacts.elastic.co/GPG-KEY-elasti...
  • logstash-input-jdbc 安装教程

    千次阅读 2019-04-24 03:20:47
    logstash-input-jdbc 安装教程参考文档安装步骤安装 JRuby安装 logstash-input-jdbc 插件数据库同步测试 参考文档 https://github.com/logstash-plugins/logstash-input-jdbc 安装步骤 安装 JRuby 下载程序包:...
  • 安装 logstash

    2020-08-04 20:49:27
    安装 logstash 1、修改主机名 [root@localhost ~]# hostnamectl set-hostname logstash 2、同步时间 [root@logstash ~]# yum install -y chrony.x86_64 [root@logstash ~]# systemctl restart chronyd.service ...
  • 1.1 在线安装 jdk 1.1.1 是否安装 jdk Elasticsearch 的运行需要 jdk 环境,但是在 elasticsearch7 以上的版本中会自带 jdk(安装包由几十兆变成了几百兆就是这个原因),并且 elasticsearch7 以上的版本需要 jdk11 ...
  • Logstash安装配置

    2018-09-28 14:54:51
    什么是 LogstashLogstash是一个具有实时流水线功能的开源数据收集引擎。Logstash可以动态统一来自...安装 从官网下载对应的版本,上传到linxu服务自定义目录进行解压 https://www.elastic.co/downloads/logst...
  • LogstashLogstash 入门教程 (二)

    万次阅读 多人点赞 2020-05-08 11:01:37
    这是之前系列文章“LogstashLogstash 入门教程 (一)”的续集。在之前的文章中,我们详细地介绍了Logstash是什么?在今天的文章中,我们将详细介绍如果使用Logstash,并把Apache Web log导入到Elasticsearch中。...
  • logstash安装

    2019-07-01 12:13:55
    https://blog.csdn.net/weixin_44651989/article/details/93114458 注意环境变量别写错了
  • Logstash安装

    2019-04-03 15:49:00
    cd /data/clzx/test/pp_restar -xvf logstash-6.7.0.tar.gz mv logstash-6.7.0 /data/clzx/test/service cd /data/clzx/test/service cd /data/clzx/test/service/logstash-6.7.0/bin ---指定jdk目录logstash ....
  • logstash linux 安装使用

    2020-12-22 12:19:07
    logstash 教程:http://kibana.logstash.es/content/logstash/get_start/full_config.htmlhttps://wsgzao.github.io/post/elk/es配置教程:http://ju.outofmemory.cn/entry/214901一、安装OpenJDKyum install java-...
  • Logstash是一个完全开源的工具,它可以对你的日志进行收集、过滤、分析,支持大量的数据获取方法,并将其存储供以后使用(如搜索)。 教程:https://mp.csdn.net/mdeditor/88687853#
  • Logstash 简易教程

    千次阅读 2019-06-25 23:01:06
    建议在使用logstash之前先想清楚自己的需求是什么,从哪种数据源...output到现在(7.1)都没有jdbc的插件,然而你如果想使用output的jdbc插件就需要自己去安装热心人自己写的插件(logstash-output-jdbc),不幸的是,该...
  • Logstash在linux上安装和配置

    千次阅读 2019-03-18 11:12:33
    1 Logstash在Centos上安装 1.1 通过下载压缩包进行安装 下载地址: https://www.elastic.co/cn/downloads/logstash# 1.1.1 下载并解压缩Logstash 1.1.2 准备一个logsta .conf配置文件 1.1.3 运行 bin/logstash -f ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,628
精华内容 1,051
关键字:

logstash安装教程