O Apache Kafka é uma plataforma de streaming de dados de alto desempenho e distribuída. Ele permite a ingestão, armazenamento e processamento de grandes volumes de dados em tempo real. Com sua arquitetura escalável e tolerante a falhas, o Kafka pode ser implementado em clusters distribuídos, lidando com altas taxas de transferência e latência extremamente baixa. Ele oferece recursos avançados, como particionamento, replicação e retenção de mensagens, garantindo a durabilidade e confiabilidade dos dados. O Kafka é amplamente utilizado em casos de uso que requerem processamento de eventos em tempo real, ingestão de dados, log de registros e integração de sistemas. Empresas de diversos setores aproveitam o Kafka para lidar com suas necessidades de streaming de dados, aproveitando sua escalabilidade e capacidade de processar dados em tempo real.
Este webinar apresentará a história de um banco que usa um banco de dados Oracle para armazenar informações confidenciais de clientes e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito…
Usando o SMT, você pode modificar os dados e suas características à medida que passam pelo pipeline do Kafka Connect, sem precisar de processadores de fluxo adicionais