IoT Use Case Podcast
Ing. Madeleine Mickeleit erklärt das "Internet der Dinge" direkt aus der industriellen Praxis! Anhand von Anwendungsbeispielen und Projekten von Anwendern aus dem IoT Use Case Ökosystem. Der erste deutsche Podcast, der die Erfahrungen aus über 350 Projekten teilt und täglich den IIoT-Markt für euch versteht. Euer persönlicher Informationskanal inkl. Netzwerk. Fast täglich neue Use Cases – unter www.iotusecase.com. Der IoT Use Case Podcast ist bestrebt, anderen zum Erfolg zu verhelfen und die Welt über die Vorteile und die praktische Umsetzung der IIoT-Branche aufzuklären. Unsere Mission: Das industrielle Internet der Dinge vor allem für den deutschsprachigen Mittelstand zugänglicher zu machen. Der Begriff des industriellen Internet der Dinge (IIoT) beschreibt die industrielle Ausprägung des IoT und beruht auf dem gleichen Konzept. Im Rahmen der Industrie 4.0 ist das IIoT ein Schlüsselkonzept zur Vernetzung aller Maschinen, Geräte und Systeme in Echtzeit über Gateways und EDGE-Devices. Diese Vernetzung steigert die Effizienz industrieller Prozesse, senkt Produktionskosten und legt den Weg für neue Geschäftsmodellen. Um von diesem hohen Fluglevel einige Ebenen tiefer zu gehen, haben wir unterschiedliche Experten eingeladen, die aus der Praxis und ihren Erfahrungen berichten. Wir sprechen im Podcast mit Experten anhand konkreter IIoT Use Cases aus der Praxis mit unterschiedlichen Ausprägungen, um einfach und verständlich auch die komplextesten Technologien greifbar zu gestalten. Dabei geht es um Use Cases zur unternehmensinternen, prozessualen Kosteneinsparung entlang der Wertschöpfungskette und um neue Geschäftsmodelle. Auch Experten aus Interessensgruppen wie Banken, Versicherungen, Auditoren oder Instituten berichten über aktuelle Entwicklungen am Markt.Übersicht über die Themen: Ökosysteme, Arbeitskreise, Startups, Kooperationen, Geschäftsmodelle, Investitionen, ROI, Markplätze, Apps (SaaS), Sicherheit & Risiken, Lizenzmodelle, Vertrieb, Change Prozess: Transformation, Mitarbeiter, Skill-Set, Kultur, agile Methoden, Innovation, Technologien, EDGE-Computing, Retrofit, Cloud-Computing, KI, Konnektivität, Netzwerke, Protokolle, AR, Skalierbarkeit, Standardisierung, Komplexität, APIs - Wir liefern Insights zum Industriellen IoT Markt aus erster Hand und halten euch auf dem Laufenden mit neuesten Nachrichten, Marktentwicklungen und Trends.
IoT Use Case Podcast
#074 | Warum Apache Kafka® und für welche IIoT Use Cases? - Confluent Cloud, Kafka und Eventstreaming einfach erklärt
OPEN SOURCE | CLOUD-NATIVE | REAL-TIME | SHOPFLOOR | MANAGED SERVICES | www.iotusecase.com
Daten zu verarbeiten kann richtig Geld kosten, wenn man das Thema ohne die passenden Technologien angeht - vor allem bei der Verarbeitung von Echtzeitdaten. Daher sprechen wir heute am Beispiel von BMW über Apache Kafka®, einen aufkommenden Standard im Schnittstellen-Handling und Streaming großer Datenpakete. Themenschwerpunkte sind: Cloud-Native, Open Source und der Praxiseinsatz von OSS bei IoT/IIoT Anwendungsfällen.
Folge 74 auf einen Blick (und Klick):
- [09:18] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
- [19:36] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien
- [33:55] Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen
Confluent ist der IoT-Techpartner der heutigen Folge und hat den Standard Apache Kafka® mitentwickelt. Der Standard wird bereits von 100.000 Organisationen weltweit eingesetzt, um in Echtzeit große Datenmengen zu betreiben. „Fluent“ heißt „flüssig“ und so liegt das Ziel auf der Hand: Effizienter Datenfluss – die Daten sollen fließen und nicht in Datalakes geschoben werden! Wir sprechen über diese Datendrehscheibe, einen Werkzeugbaukasten, mit dem ich offen in alle Systeme Datenströme flexibel konsumieren und verarbeiten kann.
Data engineering kann auch einfach sein: In diesem Podcast erklärt Field CTO bei Confluent, Kai Waehner, im Detail aus der Praxis, wie Datenmengen gefiltert aufgenommen, verarbeitet und weiterverwendet werden. Außerdem angesprochen werden unter anderem folgende Themen:
- Echtzeit-Daten-Handling
- Der Business Impact hinter Data in Motion
- Data Streaming beim Kunden BMW
- Brownfields bei Kunden
- Funktionen der „Datendrehscheibe“
- Kopplung von Systemdaten mit IT-Daten (SAP)
- Datenanbindung an die Datendrehscheibe
Wusstet ihr schon? Ursprünglich wurde Apache Kafka von LinkedIn entwickelt. Seit 2012 ist es Teil der Apache Software Foundation. Im Jahr 2014 gründeten die Entwickler das Unternehmen Confluent aus LinkedIn heraus, welches die Weiterentwicklung von Apache Kafka fokussiert.
Gastgeberin Ing. Madeleine Mickeleit (https://www.linkedin.com/in/madeleine-mickeleit/)
Kai Waehner (https://www.kai-waehner.de/)