Apache Kafka Это платформа распределенной потоковой обработки с высокой пропускной способностью и малой задержкой для создания конвейеров данных в реальном времени и потоковых приложений. существовать Kafka , потребитель несет ответственность за Kafka Чтение сообщений из кластера. В этой статье будет подробно продемонстрировано Kafka потребитель API Использование включает в себя настройку, потребление сообщений, обработку ошибок, оптимизацию производительности и т. д.
Прежде чем начать, убедитесь, что вы установили и настроили кластер Kafka. Если нет, обратитесь к официальной документации Kafka для установки и настройки.
Сначала создайте новый Maven проект и в pom.xml
Добавить в файл Kafka Клиентские зависимости:
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.example</groupId>
<artifactId>kafka-consumer-demo</artifactId>
<version>1.0-SNAPSHOT</version>
<dependencies>
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>3.0.0</version>
</dependency>
</dependencies>
</project>
Kafka Для правильной работы потребитель требует ряда параметров конфигурации. Эти параметры можно передать Properties
Объект установлен. Вот базовый пример конфигурации:
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.Collections;
import java.util.Properties;
public class SimpleConsumer {
public static void main(String[] args) {
Properties props = new Properties();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "my-group");
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
consumer.subscribe(Collections.singletonList("my-topic"));
try {
while (true) {
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
for (ConsumerRecord<String, String> record : records) {
System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
}
}
} finally {
consumer.close();
}
}
}
bootstrap.servers
:Kafka Список адресов кластера. Возможна конфигурация одного или нескольких Kafka broker。group.id
:потребитель Уникальный идентификатор группы。все принадлежат к одной группепотребитель Координационная работа,Обычно потребляют сообщения в темах.key.deserializer
и value.deserializer
:ключ сообщенияи Десериализатор значений。Kafka Предоставляются различные десериализаторы, такие как StringDeserializer
、IntegerDeserializer
ждать.auto.offset.reset
:определениепотребитель Как справиться с ситуацией, когда начальное смещение отсутствует или смещение не существует на сервере。earliest
Указывает потребление, начиная с самого раннего сообщения.потребитель подписывается на одну или несколько тем и периодически звонит им poll
метод из Kafka Извлекать сообщения из。poll
Метод возвращает сообщение, содержащее несколько ConsumerRecords
объект.
Следующий код показывает, как получать и обрабатывать сообщения, полученные из Kafka:
while (true) {
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
for (ConsumerRecord<String, String> record : records) {
System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
}
}
Kafka Положение каждого потребляемого товара в каждом разделе отслеживается по смещению. Управление Смещением является важным аспектом потребительского применения.
По умолчанию Кафка потребительвстреча Автоматически фиксировать смещения. Может быть установлен с помощью enable.auto.commit
Параметры для включения или отключения автофиксации:
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "true");
props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");
Ручное фиксирование смещений обеспечивает более точный контроль. Следующий код показывает, как вручную фиксировать смещения:
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
while (true) {
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
for (ConsumerRecord<String, String> record : records) {
System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
}
consumer.commitSync();
}
в производственной среде,потребитель может столкнуться с различными ошибками,Например, сбой сети, Кафка broker Недоступно и т. д. Обработка этих ошибок является ключом к обеспечению надежного использования сообщений.
try {
while (true) {
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
for (ConsumerRecord<String, String> record : records) {
System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
}
consumer.commitSync();
}
} catch (WakeupException e) {
// Игнорируйте это исключение, если мы завершаем работу
} catch (Exception e) {
e.printStackTrace();
} finally {
consumer.close();
}
Чтобы улучшить производительность потребителя, ее можно оптимизировать следующими способами:
увеличивать poll
Период ожидания метода может уменьшить потребность в Kafka количество запросов, тем самым улучшая производительность:
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(500));
Можно добавить, добавив fetch.min.bytes
и fetch.max.wait.ms
Параметры для уменьшения частоты получения сообщений, что повышает производительность:
props.put(ConsumerConfig.FETCH_MIN_BYTES_CONFIG, "50000"); // 50KB
props.put(ConsumerConfig.FETCH_MAX_WAIT_MS_CONFIG, "1000"); // 1 секунда
Ниже приведен полный Kafka потребитель Пример,Содержит все Конфигурация、Потребление сообщенийи Обработка ошибоклогика:
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.common.errors.WakeupException;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.Collections;
import java.util.Properties;
public class KafkaConsumerDemo {
public static void main(String[] args) {
Properties props = new Properties();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
props.put(ConsumerConfig.GROUP_ID_CONFIG, "my-group");
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
props.put(ConsumerConfig.FETCH_MIN_BYTES_CONFIG, "50000");
props.put(ConsumerConfig.FETCH_MAX_WAIT_MS_CONFIG, "1000");
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
consumer.subscribe(Collections.singletonList("my-topic"));
try {
while (true) {
ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(500));
for (ConsumerRecord<String, String> record : records) {
System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
}
consumer.commitSync();
}
} catch (WakeupException e) {
// Игнорируйте это исключение, если мы завершаем работу
} catch (Exception e) {
e.printStackTrace();
} finally {
consumer.close();
}
}
}
При запуске приведенного выше кода потребитель будет сгенерирован из Kafka в кластере my-topic
в теме Потребляйте новости. Ключ и значение каждого сообщения будут выведены на консоль. Если Потребление сообщений прошла успешно, консоль распечатает смещение и значение ключа сообщения.
В этой статье подробно описан Apache
Kafka потребитель API Использование,включать Конфигурация、Потребление сообщений、Управление смещением、Обработка ошибоки Оптимизация производительность. Понимая и применяя на практике это содержание, вы сможете лучше использовать Kafka потребитель для эффективного и надежного потребления данных.
Я надеюсь, что эта статья будет вам полезна. Если у вас есть какие-либо вопросы или предложения, оставьте сообщение для обсуждения.