Meetup zu Kafka & Strimzi

Ramon Spahr

Dies ist bereits der 2. Blogpost der neuen Tech up! Serie über Apache Kafka. Am 28. Februar fand bei Puzzle ITC in Bern das erste Messaging & Streaming Meetup zu den Themen Kafka und Strimzi statt. Angemeldet hatten sich mit 95 Personen überraschend viele und es machte an diesem Abend den Anschein, als wären auch tatsächlich fast alle gekommen.

Nach einer kurzen Begrüssung und Einführung von Ändu Odermatt, einem unserer Sale-Engineers bei Puzzle ITC und Co-Organisator dieses Meetups, startete Chris Eberle, Senior Solution Architect von RedHat, mit seinem Talk zu Strimzi.

Strimzi.io

Strimzi ist ein open Source Projekt (zur Zeit massgeblich von RedHat getrieben), welches es ermöglicht mit relativ wenig Aufwand ein Kafka- (und den dafür benötigten Zookeeper-) Cluster auf Kubernetes oder Openshift zu provisionieren. Eingesetzt wird dazu das Operator-Pattern. Mit der aktuellen Version können so die Cluster, Topics und User verwaltet werden. Strimzi ist aktuell in der Version 0.11 verfügbar und die von Chris präsentierte Roadmap zeigte, dass noch einige Erweiterungen zu erwarten sind (z.B. ein automatisches Version-Update für Kafka). Das Enterprise Pendant zu Strimzi von RedHat nennt sich übrigens ‚AMQ Streams‘ und wird u.A. von der SBB eingesetzt. Hier unterstützt Puzzle ITC die SBB tatkräftig im Engineering von Kafka.

Slides: Red Hat

helvetia 20.20

Nach Strimzi erwartete uns der zweite Talk der beiden Solution Architekten Johannes Mangold und Daniel Maier von der Helvetia Versicherung. Sie präsentierten uns das technische Lösungskonzept passend zur Digitalisierungs-Strategie der Helvetia (helvetia 20.20). Kurzgesagt: wie mit Apache Kafka performante und fehlertolerante Anwendungen realisiert werden können, welche auf die Bedürfnisse der Endkunden zugeschnitten sind. Der Talk wurde durch eine sehr gute und spannende Live-Demonstration unterstützt. Technische Stichworte daraus sind: Legacy-System mit temporaler Datenhaltung, Change-Data-Capture mit Kafka Connect, Stream-Processing mit Kafka Streams API, Mongo-DB, Vertx.io, Angular. Das Setup dahinter basiert auf AWS, OpenShift und Strimzi. Auch hier leistet Puzzle ITC Unterstützung im Engineering von OpenShift.

Slides: Helvetia

SPOUD Data-Market

Der Abschluss und dritte Talk war von Lukas Zaugg, CTO von SPOUD. Er präsentierte uns den SPOUD Data-Market und dessen Nutzen für die Schweizerische Mobiliar Versicherung. Die Mobiliar nutzt diesen, um ihre Microservice- und Daten-Landschaft zu verwalten. Im Kern des SPOUD Produktes wird Kafka und Flink eingesetzt. Lukas präsentierte uns die Kafka-Bedürfnishierarchie (angelehnt an die Maslowsche Bedürfnishierarchie), welche an den langjährigen Erfahrungen von SPOUD im Umgang mit Kafka aufbaut. Zudem zeigte er auf, wo SPOUD gerade steht (Basic, Health, Integration) und wo es noch hingeht (DataOps und Trusts). Puzzle ITC leistet übrigens auch bei der Mobiliar Unterstützung im Engineering von Kafka, jedoch ausserhalb des Umfelds vom SPOUD Data-Market.

Slides: Spoud 

Fazit

Mir hat das Meetup wirklich sehr gut gefallen. Es war top organisiert (hier auch ein Dankeschön an Ändu und unser Backoffice und insb. Carina), die Talks waren vom Fokus unterschiedlich aber allesamt sehr spannend und das anschliessende Apéro war spitzenklasse! Ich hatte Gelegenheit mit einigen alten wie auch neuen Bekannten zu sprechen und bei Food&Beer Anwendungsfälle und Erfahrungen im Umfeld von Kafka und Strimzi auszutauschen. Für mich war dieses 1. Meetup ein voller Erfolg. Das nächste findet ürbigens Ende Juni statt. Wir halten euch auf unserer Meetup-Seite auf dem Laufenden.

Kommentare sind geschlossen.