1,本文主要关注 KafkaTemplate的重点方法,并非全部方法;
2,KafkaTemplate 底层依赖于 DefaultKafkaProducerFactory , 关于 DefaultKafkaProducerFactory 的介绍,refer2
spring-kafka整合:DefaultKafkaProducerFactory默认kafka生产者工厂介绍_PacosonSWJTU的博客-CSDN博客【1】 类描述类描述:单例共享 Producer 实例的 ProducerFactory 实现。此实现将为每次 createProducer() 调用时提供的 Map 配置和可选的 Serializer 实现返回相同的 Producer 实例(如果未启用事务)。如果您使用的序列化器没有参数构造函数并且不需要设置,那么最简单的方法是在传递给 DefaultKafkaProducerFactory 构造函数的配置中针对 ProducerConfig.KEY_SERIALIZER_CLASS_Chttps://blog.csdn.net/PacosonSWJTU/article/details/121306370
【1】KafkaTemplate 类说明
用于执行高级操作的模板。 当与 DefaultKafkaProducerFactory 一起使用时,模板是线程安全的。 生产者工厂和 org.apache.kafka.clients.producer.KafkaProducer 确保这一点;
public class KafkaTemplateimplements KafkaOperations , ApplicationContextAware, BeanNameAware, ApplicationListener , DisposableBean {
【1.1】构造方法
使用提供的生产者工厂和 autoFlush 设置创建一个实例。
如果您已将生产者的 linger.ms 配置为非默认值并希望立即在此模板上发送操作,无论该设置如何, 又或者您希望阻塞直到服务器根据acs属性确认已收到消息, 需要把autoFlush设置为true。如果 configOverrides 不为 null 或不为空,则将使用合并的生产者属性创建一个新的 DefaultKafkaProducerFactory,这些属性在提供的工厂属性之后进行覆盖。
public KafkaTemplate(ProducerFactoryproducerFactory, boolean autoFlush, @Nullable Map configOverrides) { Assert.notNull(producerFactory, "'producerFactory' cannot be null"); this.autoFlush = autoFlush; this.micrometerEnabled = KafkaUtils.MICROMETER_PRESENT; // 是否自定义生产者工厂 this.customProducerFactory = configOverrides != null && configOverrides.size() > 0; if (this.customProducerFactory) { Map configs = new HashMap<>(producerFactory.getConfigurationProperties()); // 覆盖工厂属性 configs.putAll(configOverrides); // 创建新的 DefaultKafkaProducerFactory DefaultKafkaProducerFactory newFactory = new DefaultKafkaProducerFactory<>(configs, producerFactory.getKeySerializerSupplier(), producerFactory.getValueSerializerSupplier()); // 设置物理关闭生产者的超时时间 newFactory.setPhysicalCloseTimeout((int) producerFactory.getPhysicalCloseTimeout().getSeconds()); // 设置是否分区 newFactory.setProducerPerConsumerPartition( producerFactory.isProducerPerConsumerPartition()); // 设置是否 每个线程创建一个 生产者; newFactory.setProducerPerThread(producerFactory.isProducerPerThread()); // 新工厂赋值 this.producerFactory = newFactory; } else { this.producerFactory = producerFactory; } // 是否开启kafka事务 this.transactional = this.producerFactory.transactionCapable(); }
【1.2】发送消息方法(非常重要)
发送消息有很多方法,大致分为两类;
- send();
- doSend();
【1.2.1】send() 发送消息
有4个外观方法,使用的都是默认topic;
@Override public ListenableFuture> sendDefault(@Nullable V data) { return send(this.defaultTopic, data); } @Override public ListenableFuture > sendDefault(K key, @Nullable V data) { return send(this.defaultTopic, key, data); } @Override public ListenableFuture > sendDefault(Integer partition, K key, @Nullable V data) { return send(this.defaultTopic, partition, key, data); } @Override public ListenableFuture > sendDefault(Integer partition, Long timestamp, K key, @Nullable V data) { return send(this.defaultTopic, partition, timestamp, key, data); } @Override public ListenableFuture > send(String topic, K key, @Nullable V data) { ProducerRecord producerRecord = new ProducerRecord<>(topic, key, data); return doSend(producerRecord); }
可以看到,最后还是调用了 底层的 doSend() 方法;
【1.2.2】doSend() 方法
5个 doSend() 方法的外观方法 ,这5个方法对 topic ,分区, 消息key,时间戳,消息value 进行了重载
@Override public ListenableFuture> send(String topic, @Nullable V data) { ProducerRecord producerRecord = new ProducerRecord<>(topic, data); return doSend(producerRecord); } @Override public ListenableFuture > send(String topic, K key, @Nullable V data) { ProducerRecord producerRecord = new ProducerRecord<>(topic, key, data); return doSend(producerRecord); } @Override public ListenableFuture > send(String topic, Integer partition, K key, @Nullable V data) { ProducerRecord producerRecord = new ProducerRecord<>(topic, partition, key, data); return doSend(producerRecord); } @Override public ListenableFuture > send(String topic, Integer partition, Long timestamp, K key, @Nullable V data) { ProducerRecord producerRecord = new ProducerRecord<>(topic, partition, timestamp, key, data); return doSend(producerRecord); } @Override public ListenableFuture > send(ProducerRecord record) { Assert.notNull(record, "'record' cannot be null"); return doSend(record); }
底层 doSend() 定义如下:
protected ListenableFuture
doSend(final ProducerRecord
protected ListenableFuture> doSend(final ProducerRecord producerRecord) { // 获取生产者 final Producer producer = getTheProducer(producerRecord.topic()); this.logger.trace(() -> "Sending: " + producerRecord); final SettableListenableFuture > future = new SettableListenableFuture<>(); Object sample = null; if (this.micrometerEnabled && this.micrometerHolder == null) { this.micrometerHolder = obtainMicrometerHolder(); } if (this.micrometerHolder != null) { sample = this.micrometerHolder.start(); } // 发送消息 Future sendFuture = producer.send(producerRecord, buildCallback(producerRecord, producer, future, sample)); // May be an immediate failure (注意,这里可能马上失败,或有运行时异常抛出) if (sendFuture.isDone()) { try { sendFuture.get(); // 这里调用get会阻塞,如果发送没有完成的话 } catch (InterruptedException e) { Thread.currentThread().interrupt(); throw new KafkaException("Interrupted", e); } catch (ExecutionException e) { throw new KafkaException("Send failed", e.getCause()); // NOSONAR, stack trace } } if (this.autoFlush) { // 自动刷新 flush(); } this.logger.trace(() -> "Sent: " + producerRecord); return future; }
【代码解说】
step1, 调用了 getTheProducer() 获取生产者 ;
关于 DefaultKafkaProducerFactory.createProducer() 可以参见 以下博文,因篇幅,本文不再赘述;
spring-kafka整合:DefaultKafkaProducerFactory默认kafka生产者工厂介绍_PacosonSWJTU的博客-CSDN博客
step2,producer.send(producerRecord, buildCallback(producerRecord, producer, future, sample)) ; 调用了 buildCallback(...) 构建回调对象;
非事务模式,则关闭生产者;
由 DefaultKafkaProducerFactory 可知, 生产者是 CloseSafeProducer, 其包裹了 原生 kafka生产者; 所以 调用了 CloseSafeProducer.close() 方法;
step3,自动刷新缓存 flush();
如果 ProducerFactory 提供单例生产者(例如 DefaultKafkaProducerFactory),则调用此方法才有意义。
public void flush() {
Producer producer = getTheProducer();
try {
producer.flush();
}
finally {
closeProducer(producer, inTransaction());
}
}
protected void closeProducer(Producer producer, boolean inTx) {
if (!inTx) { // 非事务才关闭
producer.close(this.closeTimeout);
}
}
【2】KafkaTemplate 发送消息与生产者复用
我们再次 follow了 DefaultKafkaProducerFactory的 doCreateProducer() 方法;
第1次因为发送消息 新建了 producer;
第2次再发送消息时,因为producer 不为null;所以直接取走;
同时 synchronized同步块可以避免并发问题;
发送消息后,是否关闭生产者,可以参考 【小结】
【小结】
通过分析 KafkaTemplate.doSend() 消息发送分发, 我们可以看到,
每发送一条消息,如果抛出异常的话,则会关闭kafka生产者,否则不会关闭生产者;原因参见
spring-kafka整合:DefaultKafkaProducerFactory默认kafka生产者工厂介绍_PacosonSWJTU的博客-CSDN博客https://blog.csdn.net/PacosonSWJTU/article/details/121306370中的章节 【4.5.1】;



