open:consumer

Consumer

  • 토픽 파티션에서 레코드 조회

Properties prop = new Properties();
prop.put("bootstrap.servers", "localhost:9092");
prop.put("group.id", "group1");
prop.put("key.deserializer", 
"org.apache.kafka.common.serialization.StringDeserializer");
prop.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
 
KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(prop);
consumer.subscribe(Collections.singleton("simple"));  // 토픽 구동
 
while(조건){
  ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
  for (ConsumerRecord<String, String> record: records) {
    Systme.out.println(record.value() + ":" + record.topic() + ":" + record.partition() + ":" + record.offset());
  }
}
 
consumer.close();

ranpd7q.jpg

  • 처음 접근이거나 커밋한 오프셋이 없는 경우
  • auto.offset.reset 설정 사용
    • earliest : 맨 처음 오프셋 사용
    • latest : 가장 마지막 오프셋 사용 (기본값)
    • none : 컨슈머 그룹에 대한 이전 커밋이 없으면 익셉션 발생
  • 조회에 영향을 주는 주요 설정
    • fetch.min.bytes: 조회시 브로커가 전송할 최소 데이터 크기
      • 기본값: 1
      • 이 값이 크면 대기 시간은 늘지만 처리량이 증가
    • fetch.max.wait.ms: 데이터가 최소 크기가 될 때까지 기다릴 시간
      • 기본값: 500
      • 브로커가 리턴할 때까지 대기하는 시간으로 poll() 메서드의 대기 시간과 다름
    • max.partition.fetch.bytes: 파티션 당 서버가 리턴할 수 있는 최대 크기
      • 기본값: 1048576 (1MB)
  • enable.auto.commit 설정
    • true: 일정 주기로 컨슈머가 읽은 오프셋을 커밋 (기본값)
    • false: 수동으로 커밋 실행
  • auto.commit.interval.ms: 자동 커밋 주기
    • 기본값: 5000 (5초)
  • poll(), close() 메서드 호출시 자동 커밋 실행

ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));
for (ConsumerRecord<String, String> record: records) {
  ... 처리
}
try {
  consumer.commitSync();
} catch(Exception ex) {
  // 커밋 실패시 에러 발생
}

ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1));
for (ConsumerRecord<String, String> record: records) {
  ... 처리
}
consumer.commitAsync(); // commitAsync(OffsetCommitCallback callback)

  • 동일 메시지 조회 가능성
    • 일시적 커밋 실패, 리밸런스 등에 의해 발생
  • 컨슈머는 멱등성(idempotence)을 고려해야 함
    • 예: 아래 메시지를 재처리 할 경우
      • 조회수 1증가 → 좋아요 1증가 → 조회수 1증가
      • 단순 처리하면 조회수는 2가 아닌 4가 될 수 있음
  • 데이터 특성에 따라 타임스탬프, 일련 번호 등을 활용
  • 컨슈머는 하트비트를 전송해서 연결 유지
    • 브로커는 일정 시간 컨슈머로부터 하트비트가 없으면 컨슈머를 그룹에서 빼고 리밸런스 진행
    • 관련 설정
      • session.timeout.ms : 세션 타임 아웃 시간 (기본값 10초)
      • heartbeat.interval.ms : 하트비트 전송 주기 (기본값 3초)
        • session.timeout.ms의 1/3 이하 추천
  • max.poll.interval.ms : poll() 메서드의 최대 호출 간격
    • 이 시간이 지나도록 poll()하지 않으면 컨슈머를 그룹에서 빼고 리밸런스 진행
  • 다른 쓰레드에서 wakeup() 메서드 호출
    • poll() 메서드가 WakeupException 발생 → close() 메서드로 종료 처리

KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(prop);
consumer.subscribe(Collections.singleton("simple"));

try {
  while (true) {
    ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(1)); // wakeup() 호출시 익셉션 발생
    ... records 처리
    try {
      consumer.commitAsync();
    } catch (Exception e) {
      e.printStackTrace();
    }
  }
} catch (Exception ex) {
  ...
} finally {
  consumer.close();
}

  • KafkaConsumer는 쓰레드에 안전하지 않음
    • 여러 쓰레드에서 동시에 사용하지 말 것!
    • wakeup() 메서드는 예외
  • open/consumer.txt
  • 마지막으로 수정됨: 2022/01/09 12:02
  • 저자 127.0.0.1