it编程 > 编程语言 > Java

kafka事务的详解

39人参与 2024-07-28 Java

一 kafka事务的机制

1.1 幂等性

producer 的幂等性指的是当发送同一条消息时,数据在 server 端只会被持久化一次,数据不丟不重,kafka为了实现幂等性,底层设计架构中引入了producerid和sequencenumbe。

当producer发送消息(x2,y2)给broker时,broker接收到消息并将其追加到消息流中。此时,broker返回ack信号给producer时,发生异常导致producer接收ack信号失败。对于producer来说,会触发重试机制,将消息(x2,y2)再次发送,但是,由于引入了幂等性,在每条消息中附带了pid(producerid)和sequencenumber。相同的pid和sequencenumber发送给broker,而之前broker缓存过之前发送的相同的消息,那么在消息流中的消息就只有一条(x2,y2),不会出现重复发送的情况。

缺点:kafka 的 exactly once 幂等性只能保证单次会话内的精准一次性,不能解决跨会话和跨分区的问题;

1.2 kafka的事务机制

1.2.1 事务的作用

kafka的事务机制,是kafka实现端到端有且仅有一次语义的基础。kafka 的 exactly once 幂等性只能保证单次会话内的精准一次性,不能解决跨会话和跨分区的问题;

kafka的事务特性本质上是支持了kafka跨分区和topic的原子写操作。通过事务机制,kafka 可以实现对多个 topic 的多个 partition 的原子性的写入,即处于同一个事务内的所有消息,不管最终需要落地到哪个 topic 的哪个 partition, 最终结果都是要么全部写成功,要么全部写失败(atomic multi-partition writes);开启事务,必须开启幂等性,kafka的事务机制,在底层依赖于幂等生产者。

kafka的事务特性就是要确保跨分区的多个写操作的原子性。

具体的场景包括:producer多次发送消息可以封装成一个原子性操作,即同时成功,或者同时失败;(可以是跨多分区的写入)consumer-transform-producer模式下,因为消费者提交偏移量出现问题,导致在重复消费消息时,生产者重复生产消息。需要将这个模式下消费者提交偏移量操作和生成者一系列生成消息的操作封装成一个原子操作。

为支持事务机制,kafka 引入了两个新的组件:transaction coordinator 和 transaction log,其中 transaction coordinator 是运行在每个 kafka broker 上的一个模块,是 kafka broker 进程承载的新功能之一(不是一个独立的新的进程);而 transaction log 是 kakafa 的一个内部 topic;

1.2.2 事务的原子性

事务原子性是指 producer 将多条消息作为一个事务批量发送,要么全部成功要么全部失败。 引入了一个服务器端的模块,名为transaction coordinator,用于管理 producer 发送的消息的事务性。

该transaction coordinator维护transaction log,该 log 存于一个内部的 topic 内。由于 topic 数据具有持久性,因此事务的状态也具有持久性。

producer 并不直接读写transaction log,它与transaction coordinator通信,然后由transaction coordinator将该事务的状态插入相应的transaction log。

transaction log的设计与offset log用于保存 consumer 的 offset 类似。

kafka事务的回滚,并不是删除已写入的数据,而是将写入数据的事务标记为 rollback/abort 从而在读数据时过滤该数据。

1.2.3 拒绝僵尸实例

在分布式系统中,一个instance的宕机或失联,集群往往会自动启动一个新的实例来代替它的工作。此时若原实例恢复了,那么集群中就产生了两个具有相同职责的实例,此时前一个instance就被称为“僵尸实例(zombie instance)”。在kafka中,两个相同的producer同时处理消息并生产出重复的消息(read-process-write模式),这样就严重违反了exactly once processing的语义。这就是僵尸实例问题。

解决办法:

kafka事务特性通过transaction-id属性来解决僵尸实例问题。所有具有相同transaction-id的producer都会被分配相同的pid,同时每一个producer还会被分配一个递增的epoch。kafka收到事务提交请求时,如果检查当前事务提交者的epoch不是最新的,那么就会拒绝该producer的请求。从而达成拒绝僵尸实例的目标。

1.2.4 开启事务的生产者和消费者

1)生产者:开启了事务的生产者,生产的消息最终还是正常写到目标 topic 中,但同时也会通过 transaction coordinator 使用两阶段提交协议,将事务状态标记 transaction marker,也就是控制消息 controlbatch,写到目标 topic 中,控制消息共有两种类型 commit 和 abort,分别用来表征事务已经成功提交或已经被成功终止;

2)消费者:开启了事务的消费者,如果配置读隔离级别为 read-committed, 在内部会使用存储在目标 topic-partition 中的事务控制消息,来过滤掉没有提交的消息,包括回滚的消息和尚未提交的消息,从而确保只读到已提交的事务的 message;

开启了事务的消费者,过滤消息时,kafka consumer 不需要跟 transactional coordinator 进行 rpc 交互,因为 topic 中存储的消息,包括正常的数据消息和控制消息,包含了足够的元数据信息来支持消息过滤;

3)总结:当然 kakfa 的 producer 和 consumer 是解耦的,你也可以使用非 transactional consumer 来消费 transactional producer 生产的消息,此时目标 topic-partition 中的所有消息都会被返回,不会进行过滤,此时也就丢失了事务 acid 的支持;

1.3 事务的api

对于producer,需要设置transactional.id属性,这个属性的作用下文会提到。设置了transactional.id属性后,enable.idempotence属性会自动设置为true。

对于consumer,需要设置isolation.level = read_committed,这样consumer只会读取已经提交了事务的消息。另外,需要设置enable.auto.commit = false来关闭自动提交offset功能。

1.生产者

 /**
     * 初始化事务
     */
    public void inittransactions();
 
    /**
     * 开启事务
     */
    public void begintransaction() throws producerfencedexception ;
 
    /**
     * 在事务内提交已经消费的偏移量
     */
    public void sendoffsetstotransaction(map<topicpartition, offsetandmetadata> offsets, 
                                         string consumergroupid) throws producerfencedexception ;
 
    /**
     * 提交事务
     */
    public void committransaction() throws producerfencedexception;
 
    /**
     * 丢弃事务
     */
    public void aborttransaction() throws producerfencedexception ;

2.write-process-wirte

kafkaproducer producer = createkafkaproducer(
  "bootstrap.servers", "localhost:9092",
  "transactional.id”, “my-transactional-id");

producer.inittransactions();
producer.begintransaction();
producer.send("outputtopic", "message1");
producer.send("outputtopic", "message2");
producer.committransaction();

3.read-process-write

kafkaproducer producer = createkafkaproducer(
  "bootstrap.servers", "localhost:9092",
  "transactional.id", "my-transactional-id");

kafkaconsumer consumer = createkafkaconsumer(
  "bootstrap.servers", "localhost:9092",
  "group.id", "my-group-id",
  "isolation.level", "read_committed");

consumer.subscribe(singleton("inputtopic"));

producer.inittransactions();

while (true) {
  consumerrecords records = consumer.poll(long.max_value);
  producer.begintransaction();
  for (consumerrecord record : records)
    producer.send(producerrecord(“outputtopic”, record));
  producer.sendoffsetstotransaction(currentoffsets(consumer), group);  
  producer.committransaction();
}

1.4 事务的原理

图中的 transaction coordinator 运行在 kafka 服务端,下面简称 tc 服务。
__transaction_state 是 tc 服务持久化事务信息的 topic 名称,下面简称事务 topic。
producer 向 tc 服务发送的 commit 消息,下面简称事务提交消息。
tc 服务向分区发送的消息,下面简称事务结果消息。

一文读懂 kafka 的事务机制 - 知乎

kafka之事务_kafka 事务_你的boy_z的博客-csdn博客

kafka事务解析 - 知乎

https://www.cnblogs.com/xijiu/p/16917741.html

(0)

您想发表意见!!点此发布评论

推荐阅读

spring boot 使用 Kafka

07-28

kafka实现负载均衡的原理,OpenKruise v0(1)

07-28

(ROOT)KAFKA详解

07-28

Kafka Rebanlace次数过高问题

07-28

SpringBoot——集成Kafka详解

07-28

BAT面试必考Java面试题100+:Kafka+JVM+数据库+分布式(1)

07-28

猜你喜欢

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论