IoT Use Case Podcast

#074 | Warum Apache Kafka® und für welche IIoT Use Cases? - Confluent Cloud, Kafka und Eventstreaming einfach erklärt

August 03, 2022 Ing. Madeleine Mickeleit Season 1 Episode 74
IoT Use Case Podcast
#074 | Warum Apache Kafka® und für welche IIoT Use Cases? - Confluent Cloud, Kafka und Eventstreaming einfach erklärt
Show Notes

OPEN SOURCE | CLOUD-NATIVE | REAL-TIME | SHOPFLOOR | MANAGED SERVICES |  www.iotusecase.com | 

Daten zu verarbeiten kann richtig Geld kosten, wenn man das Thema ohne die passenden Technologien angeht - vor allem bei der Verarbeitung von Echtzeitdaten. Daher sprechen wir heute am Beispiel von BMW über Apache Kafka®, einen aufkommenden Standard im Schnittstellen-Handling und Streaming großer Datenpakete.  Themenschwerpunkte sind: Cloud-Native, Open Source und der Praxiseinsatz von OSS bei IoT/IIoT Anwendungsfällen.

Folge 74 auf einen Blick (und Klick): 

  • [09:18] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus 
  • [19:36] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien 
  • [33:55] Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen 


Confluent ist der IoT-Techpartner der heutigen Folge und hat den Standard Apache Kafka® mitentwickelt. Der Standard wird bereits von 100.000 Organisationen weltweit eingesetzt, um in Echtzeit große Datenmengen zu betreiben. „Fluent“ heißt „flüssig“ und so liegt das Ziel auf der Hand: Effizienter Datenfluss – die Daten sollen fließen und nicht in Datalakes geschoben werden! Wir sprechen über diese Datendrehscheibe, einen Werkzeugbaukasten, mit dem ich offen in alle Systeme Datenströme flexibel konsumieren und verarbeiten kann.

Data engineering kann auch einfach sein: In diesem Podcast erklärt Field CTO bei Confluent, Kai Waehner, im Detail aus der Praxis, wie Datenmengen gefiltert aufgenommen, verarbeitet und weiterverwendet werden. Außerdem angesprochen werden unter anderem folgende Themen: 

- Echtzeit-Daten-Handling 
- Der Business Impact hinter Data in Motion
- Data Streaming beim Kunden BMW
- Brownfields bei Kunden
- Funktionen der „Datendrehscheibe“
- Kopplung von Systemdaten mit IT-Daten (SAP)
- Datenanbindung an die Datendrehscheibe

Wusstet ihr schon? Ursprünglich wurde Apache Kafka von LinkedIn entwickelt. Seit 2012 ist es Teil der Apache Software Foundation. Im Jahr 2014 gründeten die Entwickler das Unternehmen Confluent aus LinkedIn heraus, welches die Weiterentwicklung von Apache Kafka fokussiert.

Gastgeberin Ing. Madeleine Mickeleit (https://www.linkedin.com/in/madeleine-mickeleit/)
Kai Waehner (https://www.kai-waehner.de/)