카프카 커넥트 : 데이터 파이프라인 생성 시 반복 작업을 줄이고, 효율적인 전송을 위한 애플리케이션 파이프라인 구성 시, 매번 프로듀서, 컨슈머 애플리케이션을 개발하고 배포하는 것은 번거롭기 때문에 커넥트를 사용함 커넥터 (Connector) : 특정 작업 형태를 템플릿으로 만들어 둔 것. 커넥트는 커넥터를 실행함으로써 반복 작업을 줄임. 소스 커넥터 (Source Connector) : 일종의 프로듀서 역할. 특정 파일에서 데이터를 계속 읽어와 전송하거나, db에서 특정 스키마를 통해 지속적으로 읽어옴. 싱크 커넥터 (Sink Connector) : 일종의 컨슈머 역할. 특정 토픽에서 데이터를 가져와, 파일, db 등에 지속적으로 저장을 함. 미러메이커2 커넥터 (클러스터 간 토픽 미러링. S..
Processor API 는 Streams DSL보다는 구현할 내용이 많지만 Streams DSL에서 제공되지 않는 상세 로직 작성 시 필요하다. 아래는 메시지 value 중 길이가 5 이상인 것만 필터링하여 다른 토픽에 저장하는 애플리케이션 예시이다. FilterProcessor.javapackage org.example;import org.apache.kafka.streams.processor.ProcessorContext;import org.apache.kafka.streams.processor.Processor;// stream processor 생성하기 위해 Processor or Transformer 인터페이스 적용 필요public class FilterProcessor implements..
Streams DSL을 이용해 간단하게 스트림 프로세싱을 처리한다. stream_log 토픽의 데이터를 stream_log_copy 토픽으로 전달을 해본다. 특정 토픽을 KStream 객체로 가져오려면 stream() 메서드 (source 프로세서)를 사용하고, KStream 객체의 데이터를 특정 토픽에 저장하려면 to() 메서드 (sync 프로세서)를 사용한다. 그리고 실제 streams application 실행은 start() 메서드를 사용한다. 우선 stream_log 토픽을 생성하고, 임의로 데이터를 몇 개 넣는다. streams application을 실행하기 전, source 프로세서에서 사용하는 토픽은 미리 생성을 해야 한다. ./bin/kafka-topics.sh --create --..