In den letzten 3 Jahren hat sich die KI-Branche vor allem auf die Skalierung konzentriert. Wir haben die Anzahl der Parameter bis in den Billionenbereich verfolgt, in der Überzeugung, dass „größer“ der einzige Weg zu „intelligenter“ sei. Doch während sich der Trubel legt, zeichnet sich für Unternehmen eine neue Realität ab: Nicht die Größe ist die entscheidende Metrik, sondern das Bereitstellen zuverlässiger, deterministischer Ergebnisse.
Wir bei Red Hat sind schon immer davon überzeugt, dass die leistungsstärksten Technologien diejenigen sind, die verteilt und offen sind sowie ihren Zweck erfüllen. Small Language Models (SLMs) repräsentieren genau diesen Wandel. Der Unterschied zwischen SLMs und Large Language Models (LLMs) ist weniger wichtig als die architektonische Rolle, die das Modell übernimmt. Was zählt, ist die funktionale Souveränität, die ein kleines Modell bietet.
Wir entfernen uns von der Welt der dialogorientierten KI – in der wir einem riesigen Black-Box-Modell eine Frage stellen – und treten in die Ära der agentischen KI ein, in der eine Flotte spezialisierter Modelle die eigentliche Arbeit des Unternehmens erledigt.
Die meisten Unternehmen werden KI-Agenten einsetzen
Wir stehen vor einem so grundlegenden Wandel wie dem Übergang zum Web.
Denken Sie an die Entwicklung der geschäftlichen Identität zurück. 1995 stellte die Branche die Frage: „Warum brauche ich eine E-Mail-Adresse?“ 2005 war es eine Website. 2015 eine Social Media-Präsenz. 2026 lautet die Frage: „Wie viele Agenten habe ich im Einsatz?“
Wir steuern auf eine Welt zu, in der es mehr KI-Agenten als Menschen geben wird. Die meisten Unternehmen werden eine Vielzahl davon besitzen:
- Kundenorientierte Agenten, die nicht nur Fragen beantworten, sondern auch komplexe Logistikprobleme lösen.
- Workflow-Agenten, die das unsichtbare Bindeglied zwischen Abteilungen automatisieren.
- Headless-Agenten, die im Hintergrund API-Aufrufe ausführen, um Bestände abzugleichen und Zahlungen zu verarbeiten.
Sie können jedoch keine nachhaltige, kosteneffiziente Agentenflotte auf den subventionierten Cloud-Token anderer Anbieter aufbauen. Hier wird das SLM zum obligatorischen Tool, um Use Cases in Unternehmen zu ermöglichen und zu skalieren.
Warum SLMs das agentische Backend beherrschen
Auch wenn Frontier-LLMs Meisterleistungen des Hochdurchsatz-Engineerings sind, erweisen sie sich für die Rolle von reflexiven digitalen Mitarbeitenden oft als zu schwerfällig. In einem agentischen Workflow benötigen wir nicht nur reine Leistung, sondern eine Ausführung mit niedriger Latenz. SLMs ermöglichen Reaktionszeiten unter 1 Sekunde und die deterministische Zuverlässigkeit, die geschäftskritische Automatisierung erfordert.
1. Die Vorteile der Spezialisierung (Effizienz > Skalierung)
Während nur wenige Organisationen ein Fine Tuning eines Modells mit 400B (400 Milliarden) Parametern in Betracht ziehen, bietet ein 3B- oder 7B-Modell einen verwaltbaren und hocheffektiven Einstiegspunkt. Hier beginnt die Architekturkontrolle. Research von Ende 2025 zeigt, dass selbst ein Modell mit 350 Millionen Parametern, das mit hochwertigen, synthetischen Daten optimiert wurde, die Leistung von allgemeineren Frontier-Modellen in spezifischen Bereichen von Tool-Aufrufen und API-Orchestrierung übertreffen kann. Bei einem robusten agentischen Backend ist das Ziel keine umfassende Sprachfähigkeit, sondern eine hochpräzise Spezialisierung.
2. Determinismus und die „Mathematik der Zuverlässigkeit“
Eine der größten Hürden für Unternehmens-KI ist der Nicht-Determinismus, also das Risiko, dass ein Agent eine Antwort einmal korrekt formatiert und beim nächsten Mal scheitert. Obwohl kein LLM eine perfekt deterministische mathematische Funktion ist, ermöglichen SLMs die Durchsetzung einer Architekturkontrolle, die früher viel schwieriger war. Mithilfe eingeschränkter Dekodierungstechniken wie JSON Schema oder kontextfreien Grammatiken (CFGs) können wir den Token-Suchbereich des Modells einschränken, sodass es für das Modell unmöglich ist, ein ungültiges nächstes Zeichen zu wählen. Dies verlagert den Schwerpunkt von unvorhersehbaren Ergebnissen hin zu schemabeschränkter Genauigkeit. In Kombination mit lokaler Ausführung und speziellem Fine Tuning können SLMs bei strukturierten Aufgaben eine Validität von über 98 % erreichen und bieten so die vorhersehbare Zuverlässigkeit, die für sensible agentische Workflows erforderlich ist.
3. Datensouveränität ist nicht optional
Ihre Daten sind Ihr wertvollstes Gut. In einer agentischen Welt übernehmen diese Modelle Ihr Customer Relationship Management (CRM), Ihren proprietären Code und Ihre interne Strategie. Es ist ein strategischer Fehler, diese Daten im Gegenzug für „Intelligence as a Service“ an einen externen Cloud-Anbieter weiterzugeben.
Wenn Sie SLMs On-Premise oder in Ihrer eigenen Hybrid Cloud-Umgebung ausführen, bleiben Sie Eigentümer Ihres geistigen Eigentums. Dies ermöglicht eine Zero Trust KI-Architektur, bei der sensible Daten Ihren Perimeter niemals verlassen, und erfüllt die strengen regulatorischen Anforderungen, die in Branchen wie dem Gesundheitswesen, dem Finanzwesen und bei Behörden üblich sind.
Zusammenfassung
Wir befinden uns im Übergang von einer Welt der generativen KI (gen KI), die Dialoge und Inhalte produziert, zu einer Welt, in der agentische KI in unserem Namen handelt. In dieser neuen Ära geht es nicht mehr darum, welches Modell das größte ist, sondern welche Infrastruktur am zuverlässigsten und am besten geschützt ist. Wenn Ihre Geschäftsabläufe von einer Flotte spezialisierter digitaler Agenten abhängen, reicht das Cloud-Modell „Black Box“ nicht mehr aus. Sie benötigen Souveränität, Geschwindigkeit und Präzision.
Wir bei Red Hat sind überzeugt, dass der Weg in die agentische Zukunft offen ist. Durch die Nutzung kuratierter SLMs, die mit dem Portfolio von Red Hat AI optimiert, bereitgestellt und orchestriert werden können, integrieren Unternehmen KI aus dem Labor in den Kern ihrer Geschäftslogik.
Die Entwicklung schreitet schnell voran, aber das Ziel ist klar: Hören Sie auf, den Giganten nachzujagen, und beginnen Sie mit dem Aufbau des Rückgrats. Die Zukunft der KI ist klein, schnell und basiert auf der Open Hybrid Cloud.
Mehr erfahren
Produkt
Red Hat AI
Über die Autoren
Catherine Weeks is an Engineering Director in Red Hat AI, where she leads the teams building software with the latest generative AI innovations.
With a background in software design, Catherine is a leader who excels at translating complex customer needs into practical engineering solutions. She is known for her ability to work at every level—from high-level strategy down to the hands-on work of getting it done. This approach helps her balance the fast-moving world of AI innovation with the need to build the reliable, high-quality products customers depend on, all while fostering a supportive team culture.
With over 20 years in the software industry, Catherine has a proven record of mentoring strong teams and has always been a champion for the end-user.
Ricardo is a Principal Software Engineer working at the Red Hat's Office of the CTO in the Emerging Technologies organization as Initiative lead. Ricardo is currently focused on the different kinds of architectures in the AI space like SLMs and multimodality. He has been part of the MicroShift and Edge Manager projects since its inception.
He is a former member of the Akraino Technical Steering Committee and Project Technical Lead of the Kubernetes-Native-Infrastructure blueprint family. He's been doing R&D related to OpenStack, as well as, contributing to OpenDaylight project and OPNFV. He is passionate about new technologies and everything related to the Open Source world. Ricardo holds a MSc Degree in Telecommunications from Technical University of Madrid (UPM). He loves music, photography and outdoor sports.
Ähnliche Einträge
When AI finds the bugs: Why defense in depth was always the answer
Control your AI agent traffic at scale: Model Context Protocol gateway for Red Hat OpenShift is now in technology preview
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen