Link:
https://sched.co/XoNQ
Abstract:
Mettons ensemble les mains dans le cambouis d’Apache Kafka et Kafka Streams !
On entend parler de Kafka partout, et Confluent Inc fait de son mieux pour que le buzz ne s’arrête surtout pas. Il faut bien reconnaître que si Kafka, le log, s’impose comme élément incontournable des applications distribuées depuis 2011, ce n’est pas pour rien. D’ailleurs, les fonctionnalités plus récentes de Stream Processing et de base de données distribuée en font plus une solution “end to end” qu’un simple “building bloc”.
Pourtant nous même, qui l’utilisons en production depuis plus de 2 ans et avons déjà animé des ateliers sur le Stream Processing avec Kafka, nous sommes rendus compte que malgré les beaux schémas et les promesses, Kafka n’est pas si facile que ça à maîtriser. Et certains concepts qui nous semblaient clairs ont finalement nécessité que l’on se replonge dans le design de la bête.
Dans cet atelier nous proposons une présentation générale d’Apache Kafka et Kafka Streams en mettant l’accent sur les aspects qui peuvent sembler simple de prime abord mais dont les subtilités se cachent entre les lignes (assignation des partitions, transactions, etc.). Et bien sûr, ensuite, place à la pratique et à la résolution de problèmes pour prendre en main l’API Processor, le DSL, la gestion de l’état en mode tests unitaires ou sur un cluster standalone. Et pour les plus rapides : injection de failles pour voir comment la maintenance des garanties (“delivery semantics”) de Kafka (Streams) se manifeste.