精华内容
下载资源
问答
  • 为什么使用 Kafka

    千次阅读 多人点赞 2021-07-04 22:20:54
    前言 本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏...副本:副本功能是任何分布式技术都需要使用的默认功能,也是 Kafka 的内置特性。 分区能力:同理,分区能力也是分布式架构天然需要的特性之一。 高速

    前言

    本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

    本专栏目录结构和参考文献请见1000个问题搞定大数据技术体系

    正文

    可扩展性

    能够高速处理大量数据。

    能实现每秒数百 MB 的处理速度,以及 TB 级的吞吐量。

    分布式

    Kafka 采用了分布式设计,具有如下分布式功能。

    1. 副本:副本功能是任何分布式技术都需要使用的默认功能,也是 Kafka 的内置特性。
    2. 分区能力:同理,分区能力也是分布式架构天然需要的特性之一。

    高速

    对这个特性的评价是相对主观的。

    一般来说,在市面上, Kafka 被认为是一款高性能的组件。

    能够支持各种消费者组件

    然而,由于消费者组件经常配置,需要执行大量处理工作,用户认为它们要慢一些。

    天然的缓冲能力

    为了适配各种消费者组件, Kafka 内置有缓冲能力。

    发布/订阅特性

    异步的发布/订阅集成模式。

    这是消息传输技术的关键特征之一。

    接近数据库的可靠性

    所有发送给 Kafka 的数据都是有序的,默认条件下是持久存储的。

    容错性

    基于分布式特性和副本, Kafka 内置有容错功能。

    展开全文
  • 最近看到了个重磅消息,即将发布的 Kafka 2.8 版本会移除 ZooKeepeer,这可是 Kafka 在架构上的重大升级。让一向“重量级”的 Kafka 从此变得简单了起来,轻量级的...

    最近看到了个重磅消息,即将发布的 Kafka 2.8 版本会移除 ZooKeepeer,这可是 Kafka 在架构上的重大升级。让一向“重量级”的 Kafka 从此变得简单了起来,轻量级的单进程部署可以作为 ActiveMQ 或 RabbitMQ 等的替代方案,并且同时也适合于边缘场景和使用轻量级硬件的场景。

     

    这下 Kafka 的粉丝肯定又多了,作为主流的 MQ 之一,Kafka 可以说是必学的消息系统了。我身边也有不少工程师,把 Kafka 加入到自己的学习列表。毕竟,我们仅需要学习一套框架,就能在实际业务系统中实现消息队列应用应用程序集成、分布式存储构建,甚至是流处理应用的开发与部署,可谓相当超值了。

     

    不过,想要学透 Kafka,没有想象中的那么简单,方法尤为重要。我的建议是:千万不要直接扎到具体的细节中,亦或是从一个很小的点开始学习。因为你无法建立全局的认知观,从而实现系统地学习。

     

    在我看来,针对不同的角色,Kafka 的学习路径是不一样的:

     

    如果你是软件开发工程师,可以先根据编程语言,寻找对应的 Kafka 客户端,然后去官网上学习代码示例,正确编译和运行样例。再尝试修改样例代码并使用其他的 API,之后观测你修改的结果。

     

    如果这些都没有难倒你,你可以自己编写一个小型项目来验证下学习成果,然后就是改善和提升客户端的可靠性和性能了。到了这一步,就熟读一遍 Kafka 文档吧,确保你理解了那些可能影响可靠性和性能的参数。最后是学习 Kafka 的高级功能,比如流处理应用开发。

     

    如果你是系统管理员或运维工程师,那么学习目标应该是如何根据实际业务需求评估、搭建生产 Kafka 线上环境。

     

    对生产环境的监控,Kafka 提供了超多的 JMX 监控指标,你可以选择任意你熟知的框架进行监控。有了监控数据,势必要观测真实业务负载下的 Kafka 集群表现。之后利用已有的监控指标来找出系统瓶颈,然后提升整个系统的吞吐量,这是最能体现你工作价值的地方。

     

    别看我现在说的头头是道,当年学习 Kafka 的时候,踩了不少坑。之后看了 Kafka 资深专家胡夕的书《Apache Kafka实战》,豆瓣评分 8.8 分,很有收获。所以后来听说他出了个《Kafka 核心技术与实战》的专栏,第一时间就买了,果然超出预期。

     

    在这先分享一张胡夕总结的 Kafka 学习框架,分为 Kafka 入门、Kafka 的基本使用、客户端详解、Kafka 原理介绍、Kafka 运维与监控以及高级 Kafka 应用,建议收藏。

    Kafka 学习框架

     

    这些内容,在他的《Kafka 核心技术与实战》专栏都有,最近 2 刷,又有新的心得和体会,毫不夸张的说,跟着学下来,能全面提升你的 Kafka 实战能力。现在已经将近 1.5W 人订阅了,口碑相当不错。

     

    我非常认可胡夕在文章中的一句话:“在实际工作中进行学习,往往是学得最快,掌握得也最扎实的学习方式”,专栏也是这个思路,把 Kafka 集群环境的监控和管理、内容原理剖析,以及一些消息系统常见疑难问题,都讲得清晰透彻。

    听说马上要涨价到 ¥199 了,现在只需 ¥89 ,有需要的朋友可以赶紧入手。

     

    秒杀 + 口令「 Kafka6666」

    到手仅¥89,即将涨至 ¥199

     

    说到胡夕,在 Kafka 领域,他相当有发言权了。

     

    作为 Apache Kafka 的一名活跃代码贡献者。在过去几年中,他经历了 Kafka 从最初的 0.8 版本逐步演进到 2.7 版本的完整过程,可以说对 Kafka 及其他开源流处理框架与技术有深刻理解。

     

    他主导过多个十亿级/天的消息引擎业务系统的设计与搭建,具有丰富的线上环境定位和诊断调优经验,也曾给多家大型公司提供企业级 Kafka 培训,所以在讲课方面也是经验丰富,能用最朴素的语言把晦涩的原理讲明白。

     

    他早年基于 Kafka 1.0 版本撰写的《Apache Kafka实战》,就好评如潮,说内容实战,看完上手即用,在工作中帮大家解决了问题。

     

    现在的《Kafka核心技术与实战》专栏,适用 Kafka 的最新版,而且不少读者反馈,比起书,专栏讲的更透彻,结合评论区胡夕的答疑,什么都清楚了。

     

    专栏整体来说分成六个部分:

     

    • Kafka 入门。介绍消息引擎这类系统的原理和用途,以及作为优秀的消息引擎代表,Kafka 是如何“脱颖而出”的。

     

    • Kafka 的基本使用。重点探讨 Kafka 如何用于生产环境,特别是线上环境的方案该如何制定。

     

    • 客户端实践及原理剖析。重点学习 Kafka 客户端的方方面面,既有生产者的实操讲解,也有消费者的原理剖析。

     

    • 深入 Kafka 内核。着重介绍 Kafka 最核心的设计原理,包括 Controller 的设计机制、请求处理的全流程等。

     

    • 管理与监控。这部分涵盖 Kafka 运维与监控的内容,将讨论如何高效运维 Kafka 集群,并分享有效监控 Kafka 的实战经验。

     

    • 高级 Kafka 应用之流处理。最后这一部分将会介绍 Kafka 流处理组件 Kafka Streams 的实战应用,并带你从头开发一个 demo 项目。

     

    我把目录也给你扒来给你看看????

     

     

    是不是内容很实用?反正我是觉得真的可。现在开发节奏这么快,站在大牛的肩膀上学习,能够少走“弯路”,就是“捷径”了。

     

    最后再和大家强调一下:

    秒杀 + 口令「Kafka6666」

    到手 ¥89,即将涨价至 ¥199

    现在相当于半价入手

     

    ????????????

    扫码免费试读

     

    想想我这些年在 Kafka 踩的坑,你就知道这花 2 杯奶茶的钱,就能获得领域顶尖大佬的心法,多么值得了。

    通过上面的海报购买,还可以返现 ¥20。领取方式:添加微信:hiddenpps,记得备注你的极客昵称。

     

    点击【阅读原文】最低 ¥89,拿下 Kafka 避坑指南。

    展开全文
  • 啥是Kafka? 其实 MQ 有很多。Apache 的 Active MQ ,Rabbit的 Rabbit MQ 、阿里开源的 Rocket MQ 、大数据霸主 Kafka ,其他的还有 NSQ、 Zero MQ 、 Beanstalkd 等等。 国内大厂除了阿里,也有大神自研过 MQ ,...

    这是彭文华的第179篇原创

    大家好,我是彭文华。最近写技术文章比较少了,再不写,都得被各位大数据架构师朋友骂了

    我有次跟朋友聊怎么建大数据体系,从数据采集开始,一般用 Flume 监控和收集,然后用 Kafka 传输和分发,一边到实时,一边到离线巴拉巴拉。

    朋友以前是搞 Java 的,他就问:“我不太会用 Kafka ,换成别的行么?”我楞了一下,我听说过几个 MQ 的名字,但是研究不深啊,只知道 Kafka 因为吞吐量巨高,所以用在大数据环境。

    但是其他 MQ 行不行,我没太深究,反正都是 MQ ,应该也行吧。当时我就“嗯”了一下,说“应该也行”。

    回来我就仔细研究了一下,这就把研究成果给各位唠一唠。文末有最强kafka资料包,可直接下载。

    MQ是啥?

    MQ,Message Queue,消息队列。啥意思呢,就是存储各种消息信息的一个队列。再通俗一些,就是一个专门把消息信息排好队,放在那里等着别人来读取的场景设计的工具。就像~~这个:

    左边一个个的黑点点,就是一条条的消息,在那里排好队。这就是消息队列了。消息队列中的消息最终的宿命就是被前面的应用(大嘴)消费掉(吃掉)。

    之所以要有消息队列,是因为前面生产信息的速度不一样,有快有慢。

    好比小时候,妈在那边剥瓜子仁儿,我们坐在这边吃。咱妈就是一个生产产品的角色,我们就是消费产品的角色。

    妈妈剥瓜子有些时候快,有些时候慢。我们也有些时候在那里干等着,也有些时候要出去玩。前后两个角色之间是脱节的。如果想要这边的瓜子刚剥出来就马上被吃掉,那就得两个角色钉在这边,这多费劲啊!

    妈妈多聪明啊,她可以趁我们不在,多剥一些瓜子,把仁儿放在碗里。我们玩累了回到家,就能一个一个吃了。

    但是这样有个弊端,就是早些时候剥的,就可能坏掉,或者味道就不够嘎嘣脆了。那咋办?那最好按顺序吃呗,先把最早剥好的吃掉,这样不就能最大程度防止各种问题么?

    咱把整个场景挪到信息系统里,这就是一个消息队列了。前面生产信息的角色,就是生产者,后面使用信息的就是消费者。中间按顺序排列着的,就是一条条信息。这上面所有的角色,就组成了消息队列的三要素:生产者、消费者和消息(服务)。

    消息队列能干啥?

    其实消息队列的作用在上面已经说清楚了。其实就是对生产者和消费者进行解耦。

    没有 MQ 的时候,生产者和消费者必须一对一,或者定期轮询。这样要么浪费资源,要么时效性不高。

    而有了 MQ 机制之后,有生产任务了,生产者再过来干活也不迟。消费者也不用老等着,或者过一会来看一次,而是在队列那头等着触发就行。来一个信息,就消费一个。

    这样同时满足了资源最小化和效率最大化。你看这些大牛的脑子就是灵光,聪明的不要不要的。用 MQ 这个机制,能把资源和效率这两个天生矛盾的事情同时满足。

    而且,MQ 还有一个作用:它不怕任务积压。妈妈剥了一堆瓜子,孩子吃的慢,那没关系,妈妈不用等孩子吃完再剥,可以先放到干净的桌子上摆好就是了。你感觉好像是很简单,理所应当的。但是没有 MQ 的时候就像是手递手搬东西,下家手上的东西没放下,你上家的东西就没法递出去。

    所以 MQ 还有一个能力,就是超高的信息传输能力,术语叫吞吐量。

    为啥是Kafka?

    其实 MQ 有很多。Apache 的 Active MQ ,Rabbit的 Rabbit MQ 、阿里开源的 Rocket MQ 、大数据霸主 Kafka ,其他的还有 NSQ、 Zero MQ 、 Beanstalkd 等等。

    国内大厂除了阿里,也有大神自研过 MQ ,也都还不错。美团基于 RabbitMQ ,弄了一个 MOS ,云消息队列,顿时就高大上了有没有?滴滴也基于 Rocket 弄了一个 DDMQ ,用的也挺好的。

    但是,不管别人怎么弄怎么搞,就是无法撼动 Kafka 在大数据领域的无敌姿态。啥地方都用它,接数据用,分发数据用,最后实时数仓还用 kafka 当“存储”。

    我估计 kafka 自己都有点蒙,我本来就是个 MQ ,最后咋还变成数据库了呢?

    这就得说到 Kafka 的核心特性了, Kafka 的绝招之一:数据传输速度超级快。前面说过,有一个指标来评判消息队列的效率,就是吞吐量 TPS Transaction per Second,每秒钟传输的事务数据量。

    Kafka 的 TPS 能到多少呢?1秒钟,百万级!不过这个没有对比就显示不出有多厉害。

    阿里的 Rocket MQ 的 TPS 多少呢?十万级。Apache 的 Acitive MQ 呢?万级。

    这是啥概念?碾压啊,有没有?量级的碾压!!!!无敌之姿!

    不过,这还不算完。Kafka 通过各种巧妙的设计,最大可能的提升他的可靠性,对大数据场景非常友善。比如:

    它有副本概念,可以开启多个副本,保证数据安全;

    用跳表思想,设计 Log 和 Index 文件,保证超高效率;

    用稀松索引,提升消费者端读取 Offset 时访问物理存储的超高效率;

    用零拷贝技术,减少数据在不同环节的数据来回复制,从而提升写入和读取的超快速度。

    总之一句话:kafka 就是为了性能而生的。就这个特性,牛不牛?

    不过,讲真, Kafka 也有一个不太友好的地方,就是它为了达到性能,需要付出丧失小部分高可靠的特性。

    如果选择高并发、高性能、高吞吐,那么 kafka 可能会有数据丢失、重复消费等风险。这种情况在 OLAP 分析场景无所谓了,反正根据大数原则,少几条数据根本不影响计算结果,尤其是百分比那种。

    但是,对于跟金额相关的任何场景,高可靠才是第一优先保证的。你不能说在某宝上下个订单,一亿单都成功了,只有1单莫名其妙丢失了,这是不能容忍的。唉,成也萧何,败也萧何!

    总结

    MQ:Message Queue,消息队列。一种解耦工具,用在数据/信息生产和消费上下游之间的解耦工具。

    市面上有很多 MQ , Rocket MQ 、 Acitve MQ 、Rabbit MQ 、 Kafka 等等。

    Kafka 由于其超越所有 MQ 的超高性能,占据大数据生态圈绝对霸主地位,无人可以撼动。其显著特征就是快!

    其核心设计思想有:顺序读写、跳表、稀松索引、零拷贝。

    Kafka 为了实现超高性能,必须要牺牲部分可靠性。因此只适合在可容忍(极小概率数据重复、丢失等)的场景。

    而交易等对可靠性非常高的场景,只能选择 Rocket MQ 等工具。

    扩展阅读:《史上最强Kafka资料包书+视频+面试题》下载方式:关注本公众号“大数据架构师”,后台回复“kafka”即可下载。也可以加我微信:shirenpengwh,咱私聊。

    本资源从网上下载,只限于研究使用,勿用于商业。如有不妥,请联系本号删除。

    配合以下文章享受更佳

    海量数据超快查询的秘密-跳表思想

    SparkStreaming实时任务处理的三种语义

    10亿用户量,连续7天登录的用户标签该怎么打?

    One ID中的核心技术ID-Mapping究竟是怎么实现的?

    架构师带你细细的捋一遍MapReduce全流程

    设计思想赏析-分布式id生成算法-雪花算法

    我需要你的转发,小小的满足一下我的虚荣心

    展开全文
  • PHP中使用kafka

    2021-04-08 10:13:20
    Kafka分布式高吞吐量系统设计的。Kafka可以很好地替代传统的消息队列。与其他消息传递系统相比,Kafka具有更好的吞吐量、内置的分区、复制和固有的容错性,这使它非常适合于大型消息处理应用程序。在PHP中使用...

    Kafka是为分布式高吞吐量系统设计的。Kafka可以很好地替代传统的消息队列。与其他消息传递系统相比,Kafka具有更好的吞吐量、内置的分区、复制和固有的容错性,这使它非常适合于大型消息处理应用程序。

    在PHP中使用Kafka首先需要安装php-kafka扩展,请参考这里进行安装。

    下面是PHP使用kakfa的Demo。

    $conf = new RdKafka\Conf();

    $conf->set('metadata.broker.list', 'localhost:9092');

    //If you need to produce exactly once and want to keep the original produce order, uncomment the line below

    //$conf->set('enable.idempotence', 'true');

    $producer = new RdKafka\Producer($conf);

    $topic = $producer->newTopic("test");

    for ($i = 0; $i < 10; $i++) {

    $topic->produce(RD_KAFKA_PARTITION_UA, 0, "Message $i");

    $producer->poll(0);

    }

    for ($flushRetries = 0; $flushRetries < 10; $flushRetries++) {

    $result = $producer->flush(10000);

    if (RD_KAFKA_RESP_ERR_NO_ERROR === $result) {

    break;

    }

    }

    if (RD_KAFKA_RESP_ERR_NO_ERROR !== $result) {

    throw new \RuntimeException('Was unable to flush, messages might be lost!');

    }

    ?>

    5.0

    03

    Post Views:

    876

    展开全文
  • 为什么kafka采用这种持久化的形式还能提供如此有竞争力的性能呢? 一、kafka对写操作的优化 首先kafka在同一个topic partition中的数据是有序的 ,kafka设计的时候,就只支持在文件末尾进行追加,而不支持修改操作...
  • 准备三台服务器或者三台虚拟机,使用虚拟机,强烈建议关闭防火墙,等配置完成后,再配置防火墙. 192.168.1.32 192.168.1.33 192.168.1.34 在每一台虚拟机上安装好JDK. 下载好kafka的压缩包. 一 在每一台虚拟机上,创建...
  • 使用Kafka UI管理Kafka

    2021-10-02 13:11:18
    使用Kafka进行开发时,有个可视化的管理界面有助于提高开发效率。目前已经有很多Kafka的管理界面实现。本文介绍的Kafka UI是一个新的实现。 该界面的GitHub地址是provectus/kafka-ui。GitHub - provectus/kafka-...
  • golang使用kafka

    2021-12-05 14:21:38
    本文主要介绍confluent-kafka-go的使用方法。confluent-kafka-go,简单易用,并且表现稳定,是kafka官网推荐的golang package。https://github.com/confluentinc/confluent-kafka-go 一.下载go client go get -v...
  • 前言:在我们了解kafka为什么依赖zookeeper之前,首先要先知道zookeeper自身的一个基础架构和作用 “所有一切的努力都是为了自己的名字” Zookeeper概念扫盲 基本概述 ZooKeeper是一个分布式协调服务,它的主要...
  • 问题背景 前段时间,遇到一个kafka集群部署... 当时不知道什么原因,只听同事说需要在kafka客户端对应的yaml文件中添加HostAliases字段然后重新部署kafka客户端所在的pod。 然后便可以访问了。 不明所以然的我,查了
  • 点击上方“服务端思维”,选择“设星标”回复”669“获取独家整理的精选资料集回复”加群“加入全国服务端高端社群「后端圈」无论 kafka 作为 MQ 也好,作为存储层也罢,无非就是两个...
  • kafka java使用

    2021-02-12 13:24:47
    首先添加maven依赖Kafkaorg.apache.kafkakafka_2.100.8.2.2Springorg.springframeworkspring-context4.1.4.RELEASEorg.springframeworkspring-beans4.1.4.RELEASEorg.springframeworkspring-core4.1.4.RELEASEKafka ...
  • 这段时间招聘季,后台收到不少关于 Kafka 的问题,确实 Kafka 近两年的行情,可谓是水涨船高了。根本原因是,是 Apache Kafka 作为一款开源的消息引擎系统。凭借高可靠、...
  • 使用Kafka做日志收集

    2021-01-01 03:29:33
    使用Kafka做日志收集 需求 需要收集的信息: 1、用户ID(user_id) 2、时间(act_time) 3、操作(action,可以是:点击:click,收藏:job_collect,投简历:cv_send,上传简历:cv_upload) 4、对方企业编码(job_...
  • Ubuntu系统使用kafka

    2021-04-29 14:05:39
    或者使用命令下载 wget https://mirror-hk.koddos.net/apache/kafka/2.8.0/kafka_2.13-2.8.0.tgz 1.2.安装 tar -zxvf kafka_2.13-2.8.0.tgz 2.修改Kafka的配置 2.1.修改文件的位置 vi ./kafka_2.13-2.8.0/config/...
  • # 使用kafka-log4j-appender实现日志采集### 背景kafka内核实现了log4j.AppenderSkeleton接口,通过配置log4j即可将日志生产到topic### 配置方法**step0:** 配置pom.xml```pomorg.apache.kafkakafka-clients2.4.0...
  • PHP使用Kafka

    2021-04-20 12:21:03
    what is kafkakafka是分布式发布订阅系统安装brew install kafka可能会提示brew cask install java中途会被安装zookeeper修改server.propertiesvim /usr/local/etc/kafka/server.properties增加一行配置listeners=...
  • kafka做存储层,为什么呢?一大堆可以做数据存储的 MySQL、MongoDB、HDFS…… 因为kafka数据是持久化磁盘的,还速度快;还可靠、支持分布式…… 啥!用了磁盘,还速度快!!! 没错,kafka就是速度无敌,本文将...
  • 最近,confluent社区发表了一篇文章,主要讲述了Kafka未来的2.8版本将要放弃Zookeeper,这对于Kafka用户来说,是一个重要的改进。之前部署Kafka就必须得部署Zo...
  • Linux下kafka使用

    2021-06-01 20:07:38
    1、启动 Zookeeper 服务,在 kafka 的根目录下使用命令 Kafka用到了Zookeeper,,先开启zookeeper,如下图所示: 下面用一个单实例的Zookkeeper服务,可以在命令结尾处加个&符号,这样就可以启动后离开控制台 ...
  • Kafka Connect使用教程

    千次阅读 2021-10-28 16:23:26
    Kafka Connect介绍
  • spring boot 使用kafka

    2021-03-09 15:58:32
    org.springframework.kafkaspring-kafkaspring-kafka version会使用spring boot 对应版本启用spring-kafka在spring boot 配置类上添加@EnableKafka配置kafka在application.properties中添加配置生产者#Kafka ...
  • Kafka为什么要抛弃ZooKeeper

    千次阅读 2021-05-03 22:40:15
    在上个月 30 号, confluent 发布了一篇文章,文章上说在 Kafka 2.8 版本上将支持内部的 quorum 服务来替换 ZooKeeper 的工作。 ZooKeeper 的作用 ZooKeeper 是一个开源的分布式协调服务框架,你也可以认为它...
  • Kafka简介及Kafka部署、原理和使用介绍 Kafka简介 定义 Kafka是一种消息队列,是一个分布式的基于发布/订阅模式的,主要用来处理大量数据状态下的消息队列,一般用来做日志的处理。既然是消息队列,那么Kafka也就...
  • kafka命令行使用

    千次阅读 2021-02-25 22:00:32
    kafka使用查看Kafka当前的主题列表创建一个主题查看主题信息修改分区信息删除一个主题生成者推送消息消费者接收查看分组信息查看特定consumer group 详情 基于Kafka 2.13版本的操作 查看Kafka当前的主题列表 ./...
  • 一、基于docker安装kafka进入虚拟机,需要安装kafka的目录下,如:cd /usr/local/docker/MQ/kafkavi docker-compose.ymldocker-compose 信息:version: '3'services:zookeeper:image: wurstmeister/zookeeperports:-...
  • 一、Kafka集群的安装请参考: 便捷高效的搭建Kafka集群和批量启动脚本 二、Kafka Eagle安装 cd /usr/local/src wget https://github.com/smartloli/kafka-eagle-bin/archive/v1.3.9.tar.gz # 多次解压缩后...
  • 解释Kafka的Zookeeper是什么?我们可以在没有Zookeeper的情况下使用Kafka吗? Zookeeper是一个开放源码的、高性能的协调服务,它用于Kafka的分布式应用。 不,不可能越过Zookeeper,直接联系Kafka broker。一旦...
  • 之前讲过了[Kafka基本概念及原理][1],这次我们来看看Kafka Client的...然后在项目中添加Kafka Client的依赖,在这里我们使用0.10.0.1版本:org.apache.kafkakafka-clients0.10.0.1Kafka有以下四个核心API:Producer...
  • 本文并没有kafka的安装教程,本文是针对已经安装kafka及其配置好kafka的php拓展并且使用laravel框架进行开发项目,配置一个可供laravel框架使用的生产及消费者类.以下代码修改自本站的YII框架关于kafka类的代码,经过...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 299,195
精华内容 119,678
关键字:

为什么使用kafka