博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Kafka简介
阅读量:5926 次
发布时间:2019-06-19

本文共 3824 字,大约阅读时间需要 12 分钟。

Kafka 起初是由 LinkedIn 公司采用 Scala 语言开发的一个分布式、多分区、多副本且基于 zookeeper 协调的分布式消息系统,现已捐献给 Apache 基金会。它是一种高吞吐量的分布式发布订阅消息系统,以可水平扩展和高吞吐率而被广泛使用。目前越来越多的开源分布式处理系统如 Cloudera、Apache Storm、Spark、Flink 等都支持与 Kafka 集成。

kafka目前支持多种客户端语言:java,python,c++,php等,跨语言的支持力度也可以从侧面反映出一个消息中间件的流行程度。

1. 创建背景

Kafka是一个消息系统,原本开发自LinkedIn,用作LinkedIn的活动流(Activity Stream)和运营数据处理管道(Pipeline)的基础。现在它已被多家作为多种类型的数据管道和消息系统使用。

  • 活动流数据:网站用户行为的相关数据,例如PV、UV等。这种数据通常的处理方式是先把各种活动以日志的形式写入某种文件,然后周期性地对这些文件进行统计分析。
  • 运营数据:服务器的性能数据(CPU、IO使用率、请求时间、服务日志等等数据)。运营数据的统计方法种类繁多。

以上这些数据的特点:
数据不可变
海量数据
需要实时处理

传统消息系统并不能很好的支持。

2. 设计目标

Kafka是一种分布式的,基于发布/订阅的消息系统。主要设计目标如下:

  • 以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间复杂度的访问性能。
  • 高吞吐率,即使在非常普通的商用机器上也能做到单机支持每秒100K条以上消息的传输
  • 支持Kafka Server间的消息分区,及分布式消费,同时保证每个Partition内的消息顺序传输
  • 支持离线数据处理和实时数据处理,推荐阅读:
  • 支持在线水平扩展

3. 为何使用消息系统

  • 解耦
    在项目启动之初来预测将来项目会碰到什么需求,是极其困难的。消息系统在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实现这一接口。这允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。
  • 冗余
    有些情况下,处理数据的过程会失败。除非数据被持久化,否则将造成丢失。消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的”插入-获取-删除”范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。
  • 扩展性
    因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可。不需要改变代码、不需要调节参数。扩展就像调大电力按钮一样简单。
  • 灵活性 & 峰值处理能力
    在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见;如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。
  • 可恢复性
    系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。
  • 顺序保证
    在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。Kafka保证一个Partition内的消息的有序性。
  • 缓冲
    在任何重要的系统中,都会有需要不同的处理时间的元素。例如,加载一张图片比应用过滤器花费更少的时间。消息队列通过一个缓冲层来帮助任务最高效率的执行———写入队列的处理会尽可能的快速。该缓冲有助于控制和优化数据流经过系统的速度。
  • 异步通信
    很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。

4. 常用MQ对比

Redis

Redis是一个基于Key-Value对的NoSQL数据库,开发维护很活跃。虽然它是一个Key-Value数据库存储系统,但它本身支持MQ功能,所以完全可以当做一个轻量级的队列服务来使用。

对于RabbitMQ和Redis的入队和出队操作,各执行100万次,每10万次记录一次执行时间。实验表明:

OP/MQ Redis RabbitMQ
入队(<10K)
出队

ActiveMQ

  • 点对点
    生产者发送一条消息到queue,只有一个消费者能收到。
    当没有消费者可用时,这个消息会被保存直到有 一个可用的消费者。
    一个queue可以有很多消费者,他们之间实现了负载均衡,
    所以Queue实现了一个可靠的负载均衡。

  • 发布/订阅
    发布者发送到topic的消息,只有订阅了topic的订阅者才会收到消息。
    和点对点方式不同,发布到topic的消息会被所有订阅者消费

  • 疑问
    发布订阅模式下,能否实现订阅者负载均衡消费呢?当发布者消息量很大时,显然单个订阅者的处理能力是不足的。
    实际上现实场景中是多个订阅者节点组成一个订阅组负载均衡消费topic消息即分组订阅,这样订阅者很容易实现消费能力线性扩展。

传统企业型消息队列ActiveMQ遵循了JMS(Java Message Service)规范,实现了点对点和发布订阅模型,但其他流行的消息队列RabbitMQ、Kafka并没有遵循老态龙钟的JMS规范,是通过什么方式实现消费负载均衡、多订阅呢?

RabbitMQ

RabbitMQ实现了AQMP协议,AQMP协议定义了消息路由规则和方式。生产端通过路由规则发送消息到不同queue,消费端根据queue名称消费消息。此外RabbitMQ是向消费端推送消息,订阅关系和消费状态保存在服务端。

  • 点对点:生产端发送一条消息通过路由投递到Queue,只有一个消费者能消费到。

  • 发布/订阅
    当RabbitMQ需要支持多订阅时,发布者发送的消息通过路由同时写到多个Queue,不同订阅组消费此消息。
    RabbitMQ既支持内存队列也支持持久化队列,消费端为推模型,消费状态和订阅关系由服务端负责维护,消息消费完后立即删除,不保留历史消息。所以支持多订阅时,消息会多个拷贝

Kafka

  • push/pull
    Kafka只支持消息持久化,消费端为拉模型,消费状态和订阅关系由客户端端负责维护,消息消费完后不会立即删除,会保留历史消息。因此支持多订阅时,消息只会存储一份就可以了。
    同一个订阅组会消费topic所有消息,每条消息只会被同一个订阅组的一个消费节点消费,同一个订阅组内不同消费节点会消费不同消息。

  • 特性

    快速持久化:可以在O(1)的系统开销下进行消息持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。

    高吞吐:在一台普通的服务器上既可以达到10W/s的吞吐速率。
    完全的分布式系统:Broker、Producer、Consumer都原生自动支持分布式,自动实现负载均衡。
    支持Hadoop数据并行加载:对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka通过Hadoop的并行加载机制统一了在线和离线的消息处理。

5. Kafka的使用场景

  • 消息

    kafka更好的替换传统的消息系统,消息系统被用于各种场景(解耦数据生产者,缓存未处理的消息等),与大多数消息系统比较,kafka有更好的吞吐量,内置分区,副本和故障转移,这有利于处理大规模的消息。
    根据我们的经验,消息往往用于较低的吞吐量,但需要低的端到端延迟,并需要提供强大的耐用性的保证。
    在这一领域的kafka比得上传统的消息系统,如ActiveMQ或RabbitMQ。

  • 网站活动追踪

    kafka原本的使用场景:用户的活动追踪,网站的活动(网页游览,搜索或其他用户的操作信息)发布到不同的话题中心,这些消息可实时处理,实时监测,也可加载到Hadoop或离线处理数据仓库。
    每个用户页面视图都会产生非常高的量。

  • 指标

    kafka也常常用于监测数据。分布式应用程序生成的统计数据集中聚合。

  • 日志聚合

    使用kafka代替一个日志聚合的解决方案。

  • 流处理

    kafka消息处理包含多个阶段。其中原始输入数据是从kafka主题消费的,然后汇总,丰富,或者以其他的方式处理转化为新主题,例如,一个推荐新闻文章,文章内容可能从“articles”主题获取;然后进一步处理内容,得到一个处理后的新内容,最后推荐给用户。这种处理是基于单个主题的实时数据流。从0.10.0.0开始,轻量,但功能强大的流处理,就进行这样的数据处理了。
    除了Kafka Streams,还有Apache Storm和Apache Samza可选择。

  • 事件采集

    事件采集是一种应用程序的设计风格,其中状态的变化根据时间的顺序记录下来,kafka支持这种非常大的存储日志数据的场景。

  • 提交日志

    kafka可以作为一种分布式的外部提交日志,日志帮助节点之间复制数据,并作为失败的节点来恢复数据重新同步,kafka的日志压缩功能很好的支持这种用法,这种用法类似于Apacha BookKeeper项目。

转载地址:http://tlavx.baihongyu.com/

你可能感兴趣的文章
2016 China Joy抢先看,文末有彩蛋!
查看>>
阿里云如何实现海量短视频的极速分发?答案在这里!
查看>>
Ubuntu系统备份工具大全(官方整理推荐)
查看>>
海尔联手软银机器人,进军服务机器人领域
查看>>
基于scikit-learn机器学习库的分类预测
查看>>
Ubuntu 16.04安装Chrome浏览器
查看>>
bugly中批量隐藏版本
查看>>
如何管理跨部门的沟通与协作?
查看>>
亿方云CEO程远:转型第一式:链接企业人与数据
查看>>
基于Redis的MQ中间件实现-目录
查看>>
手写数字识别
查看>>
SpringBoot整合RabbitMQ
查看>>
「深度」无人机实名制政策特稿|市场看好、资本关注,“反黑飞”正在崛起
查看>>
2018年SIAF 广州国际工业自动化技术及装备展览会下周隆重开幕
查看>>
协鑫集成“熄灯工厂”装上ET工业大脑,验证订单命中率可提高3.99%
查看>>
旧金山参议员提议发布“封杀令”,理由是马路不为机器人所服务
查看>>
xtrabackup对MySQL数据库的备份及恢复教程
查看>>
Spark官方调优文档翻译(转载)
查看>>
走出宣传,国产VR手机盒子到底哪家强?
查看>>
Android SQLite (一) 数据库简介
查看>>