[Webinar] Kafka + Disaster Recovery: Schon bereit? | Jetzt registrieren

logo-GEP-Worldwide

GEP Boosts AI-Powered Supply Chain, Processing 1B Events per Month

Scaled from 500K to one billion events per month

0% data loss in streaming 1 billion events

Connected 500 microservices

GEP improved predictive performance by 1,400%

Watch the Video

“When we're using services like Confluent for data delivery, we don't need to think about it. It just gets delivered.”

Nithin Prasad

Senior Engineering Manager, GEP Worldwide

Als KI-First Unternehmen, das sich auf Lieferketten- und Beschaffungslösungen spezialisiert hat, stützt sich GEP auf Echtzeitdaten zur Steuerung seiner Abläufe. Zuvor verließ sich das Unternehmen auf eine vierteljährliche Batch-Verarbeitung, was das Reporting und die Entscheidungsfindung für seine Kunden verlangsamte. 

„Für ein Supply-Chain-Unternehmen wie GEP ist es keine Option, Insights mit einer Verzögerung von einem Tag zu liefern. Viele Entscheidungen müssen schnell getroffen werden, um eine rechtzeitige Datenlieferung zu gewährleisten“, sagt Nithin Prasad, Senior Engineering Manager bei GEP Worldwide.

Eine technische Lösung, die 5 zentrale Geschäftsanforderungen erfüllt 

Um Herausforderungen mit der Dateninfrastruktur zu lösen und die hohen Kosten verzögerter Verarbeitungszeiten zu eliminieren, suchte GEP eine Alternative zu den bestehenden Data-Delivery-Pipelines und der selbstverwalteten Apache Kafka® Umgebung. Das Team von Nithin Prasad entschied sich für die vollständig verwaltete, Cloud-native Streaming-Plattform von Confluent, um operative, analytische und KI-Systeme in seiner gesamten Datenarchitektur zu verbinden.

Bei der Umstellung auf Confluent standen fünf zentrale Geschäftsanforderungen im Vordergrund: Zuverlässigkeit, Skalierbarkeit, Pricing, Speicherkapazität und der menschliche Faktor beim Customer-Engagement. „Confluent ist für uns in allen fünf Punkten die beste Lösung“ sagt Nithin Prasad. „Zu jeder Interaktion gab es stets positives Feedback.“

Besonders interessant für Prasad waren die vorgefertigten, vollständig verwalteten Connectors von Confluent, die maßgeschneiderte Integrationen überflüssig machten. So konnte das Team von Nithin Prasad den Wildwuchs an Pipelines und Punkt-zu-Punkt-Verbindungen reduzieren, das Management der Daten-Pipelines vereinfachen und den Entwicklern die Zeit geben, sich auf die Entwicklung von Kernfunktionen zu konzentrieren, anstatt auf das Mikro-Management der Datenlogistik.

Die kontinuierliche Data-Delivery von Confluent ermöglichte es GEP außerdem, zuverlässige Daten-Pipelines aufzubauen, die alle ihre Systeme, einschließlich der wichtigsten Datenspeichersysteme, miteinander verbinden.

Nahtlose Skalierung und Integration über Systeme hinweg

GEP verarbeitete zuvor 500.000 Events in einem einzigen Cluster. Nach der Einführung von Confluent konnte das Unternehmen schnell eine Milliarde Events pro Monat in mehreren Clustern verarbeiten – alles ohne Datenverlust. Dieser Quantensprung in der Skalierbarkeit sorgte für einen reibungslosen Betrieb der 500 Microservices von GEP. „Alle Daten, die durch GEP fließen, strömen durch Confluent“, sagt Nithin Prasad.

Mit der Multi-Cloud-Unterstützung von Confluent konnte GEP Echtzeitdaten aus mehreren Systemen direkt in ihren KI-Stack integrieren, einschließlich SQL-Datenbanken, MongoDB und Elasticsearch. Diese Echtzeit-Datenströme ermöglichen es GEP Ausfälle 30 Minuten im Voraus vorherzusagen – 1.400 % früher als mit der vorherigen Vorlaufzeit von zwei Minuten. Dieser proaktive Ansatz zur Vermeidung von Ausfällen war der Schlüssel zur Minimierung von Downtime und zur Verbesserung des Datenzugriffs für Kunden, wodurch die Kundenzufriedenheitswerte (CSAT) von GEP gesteigert wurden.

Durch den Einsatz der vollständig verwalteten Daten-Streaming-Plattform von Confluent reduzierte GEP sowohl Wartungsaufwand als auch Kosten. Die Automatisierung von Aufgaben wie dem Infrastruktur-Monitoring ermöglichte es dem Unternehmen, sich auf die Entwicklung neuer Features zu konzentrieren und die Ressourcenverwaltung zu optimieren.

Förderung von GenAI-Innovation durch Echtzeit-Daten-Streaming

Nithin Prasad sagt, dass sich die AI-First-Lösungen von GEP auf Echtzeitdaten stützen: „Confluent fügt sich nahtlos in unseren Data-Stack ein. Es integriert nativ mit Azure Open AI Services und anderen GPT-Modellen.“

GEP hat KI erfolgreich in sein Tagesgeschäft integriert. Was als interne, KI-gesteuerte Initiativen von Teams und Führungskräften begann, hat sich nun zu einem generativen KI-Chatbot entwickelt, der Dokumentzusammenfassungen und Einblicke bietet und Kunden auf Risiken in der Beschaffung und in der Lieferkette hinweist.

GEP bietet seinen Kunden auch die Möglichkeit, ihre eigenen Tools mithilfe generativer KI zu erstellen, einfach durch Eingabe in natürlicher Sprache. Mit den Echtzeit-Daten-Streaming-Pipelines von Confluent kann GEP Echtzeit-Kontext in Modelle einspeisen, so dass diese auf die spezifischen, unmittelbaren Bedürfnisse der Benutzer eingehen und ihre individuellen Anforderungen erfüllen können. „Es ist ein großes Plus für die Kunden von GEP, da es die Benutzer- und Kundenerlebnisse und die CSAT-Werte erheblich verbessert.“, betont Nithin Prasad. 

Die richtigen Daten im richtigen Format zur richtigen Zeit zur Verfügung zu haben, ist entscheidend. Wie Nithin Prasad sagt: „Data-Delivery ist genauso wichtig wie maschinelles Lernen. Alles, was wir mit KI machen, ist nur möglich, wenn wir die richtigen Daten haben. Und hier hilft uns Confluent enorm.“ 

Wenn er andere Unternehmen bei der Auswahl einer Daten-Streaming-Plattform berät, empfiehlt Prasad, „einen Partner zu wählen, der einen über mehrere Jahre begleitet“, und betont, wie wichtig es ist, sich auf gemeinsame Grundwerte und das Customer-Engagement abzustimmen.

Durch die Transformation seiner Daten-Management-Fähigkeiten mit Confluent kann GEP seinen Kunden jetzt schnellere, zuverlässigere und skalierbare KI-gestützte Lösungen anbieten.

Mehr über GEP Worldwide erfahren

Jetzt mit Confluent loslegen

Jetzt bei neuer Registrierung Credits im Wert von 400 $ erhalten, die in den ersten 30 Tagen genutzt werden können.

Weitere Customer Stories

logo-Generali

Generali

Event-getriebene Architektur als Grundlage der Modernisierung und der digitalen Transformation bei Generali Schweiz.

Confluent Platform
Globe Group Logo (1)

Globe Group

Globe Group Slashes Infra Costs and Fuels Personalized Marketing with Confluent

Confluent Cloud
Confluent Platform
logo-Humana

Humana

Humana is at the forefront of an industry-wide effort to raise health outcomes and create the best possible patient experience while keeping costs in check through improved interoperability

Confluent Platform