精华内容
下载资源
问答
  • Kafka 安装

    2018-09-30 13:40:45
    Kafka 安装 kafka 版本:2.11-2.0.0 ubuntu 版本: 18.04LTS kafka官网下载地址 1、解压 tar -zvxf kafka_2.11-2.0.0.tgz -C /usr/local mv kafka_2.11-2.0.0 kafka 2、配置 打开kafka的config/server....

    Kafka 安装

    kafka 版本:2.11-2.0.0
    ubuntu 版本: 18.04LTS

    kafka官网下载地址

    1、解压

    tar -zvxf kafka_2.11-2.0.0.tgz -C /usr/local
    mv kafka_2.11-2.0.0 kafka

    2、配置

    打开kafka的config/server.properties 文件

    broker.id=1

    log.dirs=/usr/local/kafka/logs  (logs文件夹自己建)

    zookeeper.connect=localhost:2181

    3、测试

    1、 进入zookeeper安装目录,启动Zookeeper

    bin/zkServer.sh start

    2、进入kafka安装目录,启动 kafka

    bin/kafka-server-start.sh config/server.properties

    3、新建终端窗口,运行 producer

    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

    4、新建终端窗口,运行 consumer

    bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

    PS: --zookeeper已经不用,改用--bootstrap-server

    展开全文
  • kafka安装

    2017-07-05 22:03:40
    kafka安装下载路径:kafka下载链接解压解压tar -xzf kafka_2.11-0.11.0.0.tgz并进入目录cd kafka_2.11-0.11.0.0启动服务首先启动zookeeper,之后启动kafka的服务。您可以使用随kafka一起打包的便捷脚本来获取一个...

    kafka安装

    下载路径:kafka下载链接

    解压

    解压tar -xzf kafka_2.11-0.11.0.0.tgz并进入目录cd kafka_2.11-0.11.0.0

    启动服务

    首先启动zookeeper,之后启动kafka的服务。您可以使用随kafka一起打包的便捷脚本来获取一个快速而简单的单节点ZooKeeper实例。
    bin/zookeeper-server-start.sh config/zookeeper.properties
    bin/kafka-server-start.sh config/server.properties

    创建topic

    bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
    这个localhost:2181是zookeeper的地址,所以如果我们如果安装了zookeeper在其他的服务器,则修改config/zookeeper.properties的配置文件和config/server.properties的配置信息
    例如zookeeper.properties的配置文件
    comment
    server.properties的配置comment信息

    查看当前的topic

    bin/kafka-topics.sh --list --zookeeper localhost:2181,我们看到会有一个test
    当然我们也可以配置,在没有该topic的时候去手动创建。

    发送消息

    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
    This is a message
    This is another message

    Kafka附带一个命令行客户端,它将从文件或标准输入中获取输入,并将其作为消息发送到Kafka群集。 默认情况下,每行将作为单独的消息发送

    开启consumer

    这里我们开启consumer并且创建消息,把他读出来
    bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
    会看到如下消息
    This is a message
    This is another message
    如果你已经在其他的位置发送过该topic的消息,我们可以返回到上边的步骤,发送一些新的消息,看看这里能不能显示

    创建多节点

    有时候,为了新能,一台奇迹可能不能满足我们的需求,这个时候我们需要启动多个服务,这个时序,就需要多启动几个kafka的节点,首先,我们需要把broker的配置文件多复制几分。

    cp config/server.properties config/server-1.properties
    cp config/server.properties config/server-2.properties

    编辑配置文件

    config/server-1.properties:
        broker.id=1
        listeners=PLAINTEXT://:9093
        log.dir=/tmp/kafka-logs-1
    
    config/server-2.properties:
        broker.id=2
        listeners=PLAINTEXT://:9094
        log.dir=/tmp/kafka-logs-2

    broker.id是broker的唯一标识符,标识他在集群中的位置,编辑端口和日志路径是因为我们的服务都部署在一台机器上,如果是多台服务器,完全不用修改端口和文件路径,之前我们已经启动了我们的zookeeper和一个节点的kafka,现在我们把其他的两个节点也打开。

     bin/kafka-server-start.sh config/server-1.properties &
    
     bin/kafka-server-start.sh config/server-2.properties &

    现在我们创建一个复制因子是3的新的topic
    bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
    好的,现在我们有一个集群,我们怎么知道哪个经纪人在做什么呢?看到运行“describe topics”命令:

    > bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
    Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:
        Topic: my-replicated-topic  Partition: 0    Leader: 1   Replicas: 1,2,0 Isr: 1,2,0

    以下是输出的说明。第一行给出了所有分区的摘要,每个附加行提供有关一个分区的信息。因为这个主题只有一个分区,只有一行。
    - leader”是负责给定分区的所有读取和写入的节点。每个节点将成为随机选择的分区部分的引导者
    - “replicas”是复制此分区的日志的节点列表,无论它们是领先者还是现在还存在
    - isr”是一组“同步”副本。这是副本列表的子集,该列表目前正在生效并被领导者所追踪
    如果我们杀掉一个进程会有什么效果呢,我们把node杀掉

    > ps aux | grep server-1.properties
    7564 ttys002    0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.8/Home/bin/java...
    > kill -9 7564

    不过消息仍然可以消费,即使最初采取写作的leader也是如此:

    > bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic
    ...
    my test message 1
    my test message 2

    小结

    kafka的安装到这里就结束了,当然我们开发中发送消息不会用命令行发送,但是却可以很好的测试出我们的安装是否是正确的,当然这些在官网都可以看到,有兴趣的同学可以直接官网看了。

    展开全文
  • kafka 安装

    千次阅读 2020-10-29 10:44:26
    安装 Java 环境 在安装 Kafka 之前,先确保Linux 环境上是否有 Java 环境,使用java -version命令查看 Java 版本,推荐使用Jdk 1.8 ,如果没有安装 Java 环境的话,可以按照这篇文章进行安装...

    安装 Java 环境

    在安装 Kafka 之前,先确保Linux 环境上是否有 Java 环境,使用 java -version 命令查看 Java 版本,推荐使用Jdk 1.8 ,如果没有安装 Java 环境的话,可以按照这篇文章进行安装(https://www.jb51.net/article/169437.htm

    安装 Zookeeper 环境

    Kafka 的底层使用 Zookeeper 储存元数据,确保一致性,所以安装 Kafka 前需要先安装 Zookeeper,Kafka 的发行版自带了 Zookeeper ,可以直接使用脚本来启动

    Zookeeper 单机搭建

    Zookeeper 单机搭建比较简单,从 https://www.apache.org/dyn/closer.cgi/zookeeper/ 官网下载一个稳定版本的 Zookeeper ,如果下载的是一个 tar.gz 包的话,使用 tar -zxvf zookeeper-3.4.10.tar.gz解压。如果下载的是 zip 包的话,还要检查一下 Linux 中是否有 unzip 工具,如果没有的话,使用 yum install unzip 安装 zip 解压工具,完成后使用 unzip zookeeper-3.4.10.zip  解压。

    解压完成后

    cd /usr/local/zookeeper/zookeeper-3.4.10
    mkidr data
    cd conf
    mv zoo_sample.cfg zoo.cfg # 重命名操作
    
    # 编辑 zoo.cfg ,更改 dataDir = /usr/local/zookeeper/zookeeper-3.4.10/data
    
    cd bin
    ./zkServer.sh start # 启动服务输入命令,输出下面内容表示搭建成功

    关闭服务输入命令,./zkServer.sh stop

    使用 ./zkServer.sh status 可以查看状态信息。

    Zookeeper 集群搭建

    准备条件

    准备条件:需要三个服务器,在每个 /usr/local/ 下面新建 zookeeper 文件夹,把 zookeeper 的压缩包挪过来,解压,完成后会有 zookeeper-3.4.10 文件夹,进入到文件夹,新建两个文件夹,分别是 data 和 log 文件夹。

    设置集群

    新建完成后,需要编辑 conf/zoo.cfg 文件,三个文件的内容如下

    tickTime=2000
    initLimit=10
    syncLimit=5
    dataDir=/usr/local/zookeeper/zookeeper-3.4.10/data
    dataLogDir=/usr/local/zookeeper/zookeeper-3.4.10/log
    clientPort=12181
    server.1=192.168.1.7:12888:13888
    server.2=192.168.1.8:12888:13888
    server.3=192.168.1.9:12888:13888

    server.1 中的这个 1 表示的是服务器的标识也可以是其他数字,表示这是第几号服务器,这个标识要和下面我们配置的 myid 的标识一致可以。

    192.168.1.7:12888:13888 为集群中的 ip 地址,第一个端口表示的是 master 与 slave 之间的通信接口,默认是 2888,第二个端口是leader选举的端口,集群刚启动的时候选举或者leader挂掉之后进行新的选举的端口,默认是 3888

    配置文件

    • tickTime: 这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。
    • initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒
    • syncLimit: 这个配置项标识 Leader 与Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是5*2000=10秒
    • dataDir: 快照日志的存储路径
    • dataLogDir: 事务日志的存储路径,如果不配置这个那么事务日志会默认存储到dataDir指定的目录,这样会严重影响zk的性能,当zk吞吐量较大的时候,产生的事务日志、快照日志太多
    • clientPort: 这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

    创建 myid 文件

    在了解完其配置文件后,现在来创建每个集群节点的 myid ,我们上面说过,这个 myid 就是 server.1 的这个 1 ,类似的,需要为集群中的每个服务都指定标识,使用 echo 命令进行创建

    # server.1
    echo "1" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid
    # server.2
    echo "2" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid
    # server.3
    echo "3" > /usr/local/zookeeper/zookeeper-3.4.10/data/myid

    启动服务并测试(每台都需要执行)

    配置完成,为每个 zk 服务启动并测试,

    cd /usr/local/zookeeper/zookeeper-3.4.10/bin
    ./zkServer.sh start

    检查服务状态

    使用 ./zkServer.sh status 命令检查服务状态

    192.168.1.7  --- follower

    192.168.1.8  --- leader

    192.168.1.9  --- follower

    zk集群一般只有一个leader,多个follower,主一般是相应客户端的读写请求,而从主同步数据,当主挂掉之后就会从follower里投票选举一个leader出来。

    Kafka 集群搭建

    准备条件

    • 搭建好的 Zookeeper 集群

    • Kafka 压缩包 (https://www.apache.org/dyn/closer.cgi?path=/kafka/2.3.0/kafka_2.12-2.3.0.tgz)

    cd /usr/local 
    mkdir kafka # 新建 kafka 文件夹,然后把下载完成的 tar.gz 包移到 /usr/local/kafka 目录下
    tar -zxvf kafka_2.12-2.3.0.tgz # 解压
    cd kafka_2.12-2.3.0 # 解压完成后,进入到cd kafka_2.12-2.3.0目录下
    mkdir log  # 新建 log 文件夹
    cd config  # 进入config目录下

    进入到config目录下,我们可以看到有很多 properties 配置文件,这里主要关注 server.properties 这个文件。

    kafka 启动方式有两种,一种是使用 kafka 自带的 zookeeper 配置文件来启动(可以按照官网来进行启动,并使用单个服务多个节点来模拟集群http://kafka.apache.org/quickstart#quickstart_multibroker),一种是通过使用独立的zk集群来启动,这里推荐使用第二种方式,使用 zk 集群来启动

    修改配置项

    需要为每个服务都修改一下配置项,也就是server.properties, 需要更新和添加的内容有

    broker.id=0 # 初始是0,每个 server 的broker.id 都应该设置为不一样的,就和 myid 一样 我的三个服务分别设置的是 1,2,3
    log.dirs=/usr/local/kafka/kafka_2.12-2.3.0/log
    
    # 在log.retention.hours=168 下面新增下面三项
    message.max.byte=5242880
    default.replication.factor=2
    replica.fetch.max.bytes=5242880
    
    # 设置zookeeper的连接端口
    zookeeper.connect=192.168.1.7:2181,192.168.1.8:2181,192.168.1.9:2181

    配置项的含义

    • broker.id=0  #当前机器在集群中的唯一标识,和zookeeper的myid性质一样
    • port=9092   #当前kafka对外提供服务的端口默认是9092
    • host.name=192.168.1.7  #这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。
    • num.network.threads=3  #这个是borker进行网络处理的线程数
    • num.io.threads=8     #这个是borker进行I/O处理的线程数
    • log.dirs=/usr/local/kafka/kafka_2.12-2.3.0/log #消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个
    • socket.send.buffer.bytes=102400   #发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能
    • socket.receive.buffer.bytes=102400 #kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘
    • socket.request.max.bytes=104857600 #这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小
    • num.partitions=1      #默认的分区数,一个topic默认1个分区数
    • log.retention.hours=168 #默认消息的最大持久化时间,168小时,7天
    • message.max.byte=5242880 #消息保存的最大值5M
    • default.replication.factor=2    #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务
    • replica.fetch.max.bytes=5242880  #取消息的最大直接数
    • log.segment.bytes=1073741824    #这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件
    • log.retention.check.interval.ms=300000 #每隔300000毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除
    • log.cleaner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能
    • zookeeper.connect=192.168.1.7:2181,192.168.1.8:2181,192.168.1.9:2181 #设置zookeeper的连接端口

    启动 Kafka 集群并测试

    启动服务,进入到 /usr/local/kafka/kafka_2.12-2.3.0/bin 目录下

    # 启动后台进程
    ./kafka-server-start.sh -daemon ../config/server.properties

    检查服务是否启动

    # 执行命令 jps
    6201 QuorumPeerMain
    7035 Jps
    6972 Kafka

    kafka 已经启动,创建 Topic 来验证是否创建成功

    cd ..  # 往回退一层到 /usr/local/kafka/kafka_2.12-2.3.0 目录
    bin/kafka-topics.sh --create --zookeeper 192.168.1.7:2181 --replication-factor 2 --partitions 1 --topic cxuan  # --replication-factor 2  复制两份;--partitions 1 创建1个分区;--topic 创建主题

    查看我们的主题是否出创建成功

    bin/kafka-topics.sh --list --zookeeper 192.168.1.7:2181

    启动一个服务就能把集群启动起来

    在一台机器上创建一个发布者

    # 创建一个broker,发布者
    ./kafka-console-producer.sh --broker-list 192.168.1.7:9092 --topic cxuantopic

    在一台服务器上创建一个订阅者​​​​​​​

    # 创建一个consumer, 消费者
    bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --topic cxuantopic --from-beginning

    注意:这里使用 --zookeeper 的话可能出现 zookeeper is not a recognized option 的错误,这是因为 kafka 版本太高,需要使用 --bootstrap-server 指令

    测试结果

    发布

    消费

    其他命令

    # 显示 topic​​​​​​​
    bin/kafka-topics.sh --list --zookeeper 192.168.1.7:2181
    
    # 显示结果:
    cxuantopic
    
    # 查看 topic 状态​​​​​​​
    bin/kafka-topics.sh --describe --zookeeper 192.168.1.7:2181 --topic cxuantopic
    
    # 下面是显示的详细信息
    Topic:cxuantopic PartitionCount:1 ReplicationFactor:2 Configs:
    Topic: cxuantopic Partition: 0 Leader: 1 Replicas: 1,2 Isr: 1,2
    
    # 分区为为1  复制因子为2   主题 cxuantopic 的分区为0 
    # Replicas: 0,1   复制的为1,2

    Leader 负责给定分区的所有读取和写入的节点,每个节点都会通过随机选择成为 leader。

    Replicas 是为该分区复制日志的节点列表,无论它们是 Leader 还是当前处于活动状态。

    Isr 是同步副本的集合。它是副本列表的子集,当前仍处于活动状态并追随Leader。

    至此,kafka 集群搭建完毕。

    验证多节点接收数据

    刚刚我们都使用的是 相同的ip 服务,下面使用其他集群中的节点,验证是否能够接受到服务

    在另外两个节点上使用

    bin/kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --topic cxuantopic --from-beginning

    然后再使用 broker 进行消息发送,经测试三个节点都可以接受到消息。

    展开全文
  • kafKa 安装

    2018-05-24 10:17:02
    依赖于zookeeper环境,需要安装zookeeper 一、安装zookeeper (1)下载:http://archive.cloudera.com/cdh5/cdh/5/zookeeper-3.4.5-cdh5.7.0.tar.gz (2) 解压 zookeeper-3.4.6.tar.gz 到 /...


    依赖于zookeeper环境,需要安装zookeeper 
    一、安装zookeeper 
        (2) 解压 zookeeper-3.4.6.tar.gz 到 /www/instl/zookeeper/zookeeper-3.4.6.tar.gz ,解压后文件为 /www/instl/zookeeper/zookeeper-3.4.6
        (3)配置环境变量: vi /etc/profile

    export ZK_HOME=/www/instl/zookeeper/zookeeper-3.4.6
    export PATH=$PATH:$ZK_HOME/bin
                配置生效  source   /etc/profile
        (3)配置/www/instl/zookeeper/zookeeper-3.4.6/conf/zoo.cfg
             dataDir=/www/instl/zookeeper/tmp/zookeeper
        (4)启动服务:才到
        (5)查看服务启动情况:  jps 。显示如下则为启动成功
                

    二、KafKa单节点单Broker的安装

    (2) tar -xzf kafka_2.11-1.1.0.tgz 解压到  /www/instl/kafka/kafka_2.11-0.9.0.0
    (3)配置环境变量. vi /etc/profile

    export KAFKA_HOME=/www/instl/kafka/kafka_2.11-0.9.0.0
    export PATH=$PATH:$KAFKA_HOME/bin
    生效:  source /etc/profile

    (4)启动ZooKeeper服务器(Kafka使用ZooKeeper,因此如果还没有ZooKeeper服务器,需要首先启动ZooKeeper服务器。)
    (5)配置文件中的关注点 $KAFKA_HOME/config/server.properties

    #消息存放的地址ID
    broker.id=0   
    listeners=PLAINTEXT://hadoop000:9092
    #日志记录存放的文件。一定要修改
    log.dirs=/www/instl/kafka/tmp/kafka-logs
    #主机名
    host.name=hadoop000
    #zookeeper 的服务地址
    zookeeper.connect=hadoop000:2181

    (6)启动Kafka服务器: kafka-server-start.sh $KAFKA_HOME/config/server.properties
    (7)创建一个主题
    例如用一个分区和一个副本创建一个名为“test”的主题
             kafka-topics.sh --create --zookeeper hadoop000:2181 --replication-factor 1 --partitions 1 --topic test
    (8)查看主题
            kafka-topics.sh --list --zookeeper hadoop000:2181
    (9)生产者发送消息
             Kafka带有一个命令行客户端,它将从文件或标准输入中获取输入,并将其作为消息发送到Kafka集群。默认情况下,每行将作为单独的消息发送。
            运行生产者,然后在控制台中输入几条消息发送到服务器。        
                kafka-console-producer.sh --broker-list  hadoop000:9092 --topic test
            如发送:     This is a message
                This is another message
    (10)启动消费者(与生产者不为同一个终端)
            Kafka也有一个命令行消费者,将消息转储到标准输出。--from-beginning 该参数可以读取生产者生产的所有消息
            kafka-console-consumer.sh --zookeeper hadoop000:2181 --topic test --from-beginning
       
    如接收将会显示:     This is a message
                This is another message



    三、kafka单节点多Broker的安装

    假如要创造3个Broker点的KafKa实例,所以只需要在上面单节点单Broker步骤基础上再配置两个Broker即可:
    (1)首先我们为每个节点创建一个配置文件(使用该copy命令):

    cp  config/server.properties config/server-1.properties
    cp  config/server.properties config/server-2.properties
    (2) 编辑这些新配置文件并设置下列属性:


    文件:config/server-1.properties文件:config/server-2.properties

        broker.id=1
        listeners=PLAINTEXT://hadoop000:9093
        log.dir=/www/instl/kafka/tmp/kafka-logs-1
        
        broker.id=2
        listeners=PLAINTEXT://hadoop000:9094
        log.dir=/www/instl/kafka/tmp/kafka-logs-2

    broker.id属性是集群中每个节点的唯一且永久的名称。我们必须重写端口和日志目录,因为我们在同一台机器上运行这些端口和日志目录,并且我们希望让所有代理都试图在同一个端口上注册或覆盖彼此的数据。

    (3)启动KafKa
         因为已经有Zookeeper和我们的单节点了,所以在此基础上可以进行扩展,只需要启动两个新节点,使用以下命令:

            > kafka-server-start.sh -daemon  $KAFKA_HOME/config/server-1.properties &
            > kafka-server-start.sh -daemon  $KAFKA_HOME/config/server-2.properties &
    (4) 现在创建一个复本系数为3的新的topic:
        kafka-topics.sh --create --zookeeper hadoop000:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
    (5)查看主题属性

        kafka-topics.sh --describe --zookeeper hadoop000:2181 --topic my-replicated-topic
            
        输出解释。第一行给出了所有分区的摘要,每个附加行提供了有关一个分区的信息。由于我们只有一个分区,所以只有一行。
    • “Leader”是负责给定分区的所有读写操作的节点。每个节点将成为分区随机选择部分的领导者(这里Leader节点为0节点,只有一个Leader)。
    • “Replicas”是复本节点列表,无论他们是领导者还是他们现在都活着(这里复本节点列表为0,2,1)。
    • “Isr”这是存活的节点列表
    (6)生产者发送消息
           kafka-console-producer.sh --broker-list hadoop000:9092 hadoop000:9093,hadoop000:9094 --topic my-replicated-topic
          如发送:     This is a message
                This is another message
    (7)启动消费者(与生产者不为同一个终端)
            Kafka也有一个命令行消费者,将消息转储到标准输出。--from-beginning 该参数可以读取生产者生产的所有消息
            kafka-console-consumer.sh --zookeeper hadoop000:2181 --topic  my-replicated-topic --from-beginning
       
    如接收将会显示:     This is a message
                     This is another message







    展开全文
  • kafka安装教程

    2018-03-16 18:04:24
    kafka安装教程 kafka安装教程 kafka安装教程 kafka安装教程 kafka安装教程
  • kafka安装部署

    千次阅读 2017-03-16 07:32:16
    kafka安装
  • docker kafka安装

    2020-01-12 12:01:04
    docker kafka安装
  • Kafka 安装单机安装

    2019-02-20 17:17:53
    Kafka 安装 1 准备安装包 kafka安装包下载地址: https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.0.0/kafka_2.11-2.0.0.tgz 默认zookeeper已安装 2 解压安装包 terry@terry-VirtualBox:/opt/bigdata_platform...
  • kafka 安装 kafka-manager 安装 及python调用 docker-compose 文件 version: '3' services: zookeeper: image: wurstmeister/zookeeper ports: - "2181:2181" kafka: image: wurstmeister/kafka de...
  • Kafka安装配置

    2017-10-17 16:32:12
    Kafka安装配置,Kafka运行依赖 Zookeeper,如未安装Zookeeper请参考(Zookeeper安装使用)
  • win下kafka安装

    2020-09-27 14:16:18
    进入kafka安装目录的config目录,修改server.properties文件,如修改的地方如下:把log.dirs改成自己的目录,一般在kafka安装目录下新建文件夹来存放日志文件 Kafka会按照默认,在9092端口上运行,并连接zookeeper的...
  • Kafka安装部署

    2018-08-31 17:16:07
    本文只阐述Kafka的安装,不涉及其他的理论知识(后面的文章中会依次详解介绍Kafka的理论知识),并且是单机版Kafka安装。 一、Kafka的下载 网址:http://kafka.apache.org/downloads 在这里需要注意:下载的Kafka...
  • Kafka安装手册

    2018-08-08 08:20:01
    KafKa安装: kafka下载地址:http://kafka.apache.org/downloads.html 解压命令:tar zxvf kafka_2.10-0.9.0.1.tgz -C /usr/local 改名命令:mv kafka_2.10-0.9.0.1/ kafka 进入解压后的目录,修改server....
  • kafka安装-mac

    2019-07-02 18:24:00
    1.kafka安装(brew) brew install kafka 安装会依赖zookeeper。 注意:安装目录:/usr/local/Cellar/kafka/0.10.2.0 2.安装位置 /usr/local/etc/kafka/server.properties /usr/local/etc/kafka/...
  • kafka 安装 for mac

    千次阅读 多人点赞 2018-12-06 16:31:04
    环境要求 kafka2 mac(linux系统操作大同小异) 步骤 下载安装 Mac系统中可以使用brew工具,只需要...等待安装完成后可以看到kafka安装路径和kafka配置文件的路径: /usr/local/Cellar/kafka/2.1.0 /usr/local/...
  • kafka安装与测试

    2018-05-12 15:35:27
    kafka安装: 很简单 启动kafka服务器: 1.启动zookeeper: 使用kafka自带zookeeper 在kafka安装目录下运行命令: bin/zookeeper-server-start.sh config/zookeeper.properties (默认zookeeper绑定在2181端口上...
  • [Kafka] - Kafka 安装介绍

    2017-11-29 21:14:03
    [Kafka] - Kafka 安装介绍 Kafka是由LinkedIn公司开发的,之后贡献给Apache基金会,成为Apache的一个顶级项目,开发语言为Scala。提供了各种不同语言的API,具体参考Kafka的cwiki页面; Kafka安装...
  • Kafka安装部署教程

    2019-10-25 19:13:01
    Kafka安装部署教程环境准备创建目录下载安装zookeeper解压zookeeper移动修改配置启动zookeeper下载安装kafka解压移动启动kafka 环境准备 java 1.8 创建目录 mkdir /opt/zookeeper mkdir /opt/kafka_client 下载安装...
  • kafka安装 测试是否安装成功 zookeeper搭建成功

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 16,698
精华内容 6,679
关键字:

kafka安装