Auf dem Red Hat Summit 2025 haben wir Ask Red Hat vorgestellt, eine dialogorientierte KI, die als intelligenter Zugang für unsere Kunden konzipiert wurde. Das Projekt begann als schnelle 12-wöchige Entwicklung, um zu beweisen, dass Open Source-KI das Support-Erlebnis transformieren kann.
Heute hat sich Ask Red Hat von einem Proof of Concept zu einer hochentwickelten Produktionslösung entwickelt. Bis Ende 2025 hat die Lösung über 50.000 Nutzende unterstützt und mehr als 450.000 Nachrichten verarbeitet. Es handelt sich nicht mehr nur um ein eigenständiges Tool, sondern um eine produktübergreifende Orchestrierungsschicht, die direkt in docs.redhat.com und in die Erstellung neuer Supportfälle im Red Hat Customer Portal integriert ist. Ask Red Hat erreicht das gesetzte Ziel: Wir helfen Kunden dabei, Probleme direkt bei deren Entstehen zu lösen.
Die technische Engine: Granite und die Leitplanken des Vertrauens
Während ein Großteil der Branche noch mit isolierten Modellen experimentiert, hat Red Hat die IBM Granite-Familie operationalisiert, um spezifische Kundenprobleme zu lösen. Unsere Führungsposition in diesem Bereich definiert sich darüber, wie wir Leistung mit Präzision in Einklang bringen:
- Das Modell: Wir setzen die Variante Granite-3.x 8B-Instruct aufgrund ihrer hohen Effizienz und Präzision bei RAG (Retrieval-Augmented Generation) ein und planen, in naher Zukunft auf Granite-4.x Small zu migrieren.
- Das Sicherheitsnetz: Wir haben eine robuste Sicherheitsarchitektur mit Granite Guardian-Modellen implementiert, die als „Leitplanken“ dienen. Diese bewerten sowohl Eingaben der Nutzenden als auch KI-Ausgaben in Echtzeit, um Jailbreaks zu verhindern und den Assistenten auf seine Aufgaben zu fokussieren.
- Präziser Abruf: Im Dezember 2025 haben wir eine Phase zur Optimierung des Abrufs gestartet, die zu einer Verbesserung des MRR (Mean Reciprocal Rank) um 45 % führte. So erhalten Kunden bei jeder Anfrage die passende Dokumentationsversion für Produkte.
Das Unsichtbare messen: Der Wert von KI und Ask Red Hat
Die wichtigste Frage für Unternehmen lautet heute: „Wie messen wir den Erfolg von KI?“ Als erster Schritt zu einem intelligenten Zugang wirkt sich Ask Red Hat auf die eine oder andere Weise auf fast jedes Team bei Red Hat aus. Unser ursprüngliches Ziel war es, Kunden dabei zu helfen, Probleme nach Möglichkeit selbst zu lösen.
Um dieses Ziel zu unterstreichen: Unser Lead Back End Engineer arbeitete zu Beginn seiner Karriere im technischen Support von Red Hat und sagte einmal: „Wenn ich ein Problem in fünf Minuten selbst lösen kann, erledige ich das lieber, als auf einen Rückruf vom Support zu warten, selbst wenn es nur eine Stunde dauert.“ Wenn wir Kunden helfen können, bevor sie einen Supportfall erstellen müssen, steigert dies die Zufriedenheit. Wir können diesen Erfolg als Kostenvermeidung im Red Hat Support messen.
Wir nutzen ein spezifisches internes Framework, um diesen Erfolg zu berechnen. Indem wir Instanzen messen, in denen Nutzende mit Ask Red Hat interagieren und danach kein Support-Ticket eröffnen, können wir die geschäftlichen Auswirkungen quantifizieren.
Die Kostenvermeidungsformel von Red Hat:
- Kostenvermeidung insgesamt = Anzahl der potenziellen Fälle, die Kunden erfolgreich durch Self Service mit Ask Red Hat gelöst haben x berechnete Kosten eines Support-Tickets*
*Obwohl spezifische interne Kosten vertraulich bleiben, ermöglicht diese Formel die Nachverfolgung der finanziellen Resilienz durch KI.
Allein im Jahr 2025 trug Ask Red Hat durch die Vermeidung von technischen Support-Tickets etwa 1,5 Mio. USD zur Kostenvermeidung bei. Jeder dieser Fälle steht für einen Zeitpunkt, an dem Kunden oder Partner ein Problem schneller selbst lösen konnten. Sie mussten nicht auf die schnellen Support-Reaktionszeiten von Red Hat warten, da Ask Red Hat die benötigten Informationen bereitstellte. Dies beweist, dass Unternehmens-KI nicht nur die Effizienz steigert. Es handelt sich um einen grundlegenden Wandel bei der Bereitstellung von Mehrwerten für das gesamte Kundenerlebnis: Wir verkürzen die Zeit bis zur Problemlösung und verringern gleichzeitig die Belastung der Support Engineers.
Ausblick: Die Roadmap für agentenbasierte KI
Wir entwickeln uns schnell von einem Assistenten, der lediglich antwortet, zu einem Agenten, der handelt. Unsere kommende Roadmap konzentriert sich darauf, das Kundenerlebnis noch einfacher zu gestalten:
- Orchestrierungsebene als Single Point of Entry: Wir bewegen uns auf ein Multi Agent-Erlebnis zu, bei dem Ask Red Hat verschiedene spezialisierte KI-Tools koordiniert, um komplexe, mehrstufige Probleme zu lösen.
- RAG nahezu in Echtzeit: Wir haben unsere Pipeline bereits so optimiert, dass Ask Red Hat Dokumentations-Updates in weniger als 4 Minuten übernimmt. So bleibt das KI-Tool konsistent an der neuesten Source of Truth ausgerichtet.
Indem Red Hat die KI-Strategie auf Open Source, transparentem ROI und strengen Sicherheitsrichtlinien aufbaut, hat das Unternehmen die experimentelle Phase der KI erfolgreich abgeschlossen und steuert auf eine Zukunft mit dokumentiertem Kundenerfolg zu.
Weitere Informationen zu den technischen Details von Ask Red Hat finden Sie auf der AI System Card sowie zur Ask Red Hat Solution Architecture im Red Hat Architecture Center.
Über den Autor
Matt Ruzicka is a Portfolio Content Strategist for Red Hat’s Intelligent Experience Delivery team with over a decade of experience at Red Hat—spanning AI solutions, customer success, and Technical Account Management. They focus on bridging the gap between complex technology and meaningful customer outcomes.
Ähnliche Einträge
AI optimization: 7 powerful techniques you can use today!
233% 3-year return on investment and 13 months to payback with Red Hat AI
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen