Was ist eine KI-Plattform?

URL kopieren

Eine KI-Plattform (Künstliche Intelligenz) ist eine integrierte Sammlung von Technologien zum Entwickeln, Trainieren und Ausführen von ML-Modellen (Maschinelles Lernen). Dazu gehören in der Regel Automatisierungsfunktionen, MLOps (Machine Learning Operations), prädiktive Datenanalysen und mehr. Sie können sich die Plattform wie eine Werkbank vorstellen: Sie verfügt über sämtliche Tools oder Werkzeuge, mit denen Sie arbeiten müssen, und bietet Ihnen eine stabile Basis, auf der Sie aufbauen und die Sie anpassen können.

Bei der Auswahl einer passenden KI-Plattform steht Ihnen eine wachsende Zahl an Möglichkeiten zur Verfügung. Im Folgenden finden Sie wichtige Faktoren, auf die Sie achten sollten. 

Mehr zu den 5 besten Methoden zum erfolgreichen Einsatz von MLOps

Bei der Auswahl einer passenden KI-Plattform müssen Unternehmen zunächst entscheiden, ob sie eine vorkonfigurierte Plattform erwerben oder intern eine benutzerdefinierte Plattform entwickeln möchten. 

Eine KI-Plattform erwerben

Wenn Sie KI-Anwendungen, -Modelle und -Algorithmen schnell bereitstellen möchten, ist der Erwerb einer umfassenden, vorkonfigurierten KI-Plattform die beste Option. Solche Plattformen verfügen über Tools, Sprach-Repositories und APIs, die vorab auf Sicherheit und Performance getestet wurden. Einige Anbieter bieten außerdem vorab trainierte Basis- und generative KI-Modelle an. Dank Support und Onboarding-Ressourcen lassen sie sich reibungslos in Ihre bestehenden Umgebungen und Workflows integrieren.

Viele beliebte Cloud-Anbieter erweitern ihre Portfolios derzeit um KI-Plattformen, darunter Amazon Web Services (AWS) SageMaker, Google Cloud AI Platform, Microsoft Azure AI Platform und watsonx.ai™ AI Studio von IBM. Viele KI-Plattformen bieten auch Standalone-KI-Tools, die zusammen mit anderen KI-Lösungen genutzt oder in diese integriert werden können.

Eine KI-Plattform entwickeln

Manche Unternehmen müssen ihre eigene KI-Plattform vollständig anpassen und verwalten, um bestimmten Use Cases oder hohen Datenschutzanforderungen gerecht zu werden. Uber entwickelte beispielsweise eine benutzerdefinierte KI-Plattform, die auf Technologien wie NLP (Natural Language Processing) und maschinellem Sehen basiert und dem Unternehmen ein optimiertes GPS und bessere Unfallerkennungsfunktionen bietet. Syapse, ein datenorientiertes Unternehmen im Gesundheitswesen, hat mit Syapse Raydar® eine KI-gestützte Datenplattform entwickelt, die onkologische Daten in verwertbare Erkenntnisse umwandelt.

Wenn Sie eine eigene KI-Plattform entwickeln, haben Sie die vollständige Kontrolle über die Umgebung und können entsprechend Ihrer besonderen geschäftlichen Anforderungen iterieren. Dieser Ansatz erfordert jedoch mehr Vorarbeit, um die Plattform einsatzbereit zu machen. Außerdem können dabei Wartung, Support und Verwaltung nicht ausgelagert werden.

Open Source-Lösungen

Open Source Communities treiben den Fortschritt in den Bereichen künstliche Intelligenz und maschinelles Lernen voran. Mit einer Open Source-Softwarelösung als Basis für Ihre KI-Initiativen setzen Sie auf eine Community von Peers und KI-Fachkräften und können darauf vertrauen, dass die Frameworks und Tools, die Sie am meisten nutzen, kontinuierlich verbessert werden. Viele Organisationen beginnen mit Open Source-Tools und bauen darauf auf. Open Source-Plattformen wie TensorFlow und PyTorch bieten Libraries und Frameworks für die Entwicklung von KI-Anwendungen.

Wie sieht KI im Unternehmen aus?

Red Hat Ressourcen

MLOps

MLOps (Machine Learning Operations) besteht aus mehreren Workflow-Praktiken und hat zum Ziel, Deployment und Wartung von ML-Modellen zu optimieren. Eine KI-Plattform sollte MLOps-Phasen wie das Trainieren, Bereitstellen und Überwachen von Modellen unterstützen.

LLMOps (Large Language Model Operations) ist ein Teilbereich von MLOps, der sich auf die Praktiken, Techniken und Tools bezieht, die für das operative Management von großen Sprachmodellen in Produktivumgebungen eingesetzt werden. LLMs können Aufgaben wie das Generieren von Text, das Zusammenfassen von Inhalten und das Kategorisieren von Informationen ausführen. Dazu greifen sie jedoch auf ein bedeutendes Ausmaß an Computing-Ressourcen der GPUs zurück. Ihre KI-Plattform muss also über ausreichend Leistung verfügen, um LLM-Eingaben und -Ausgaben zu unterstützen.

Generative KI

Generative KI basiert auf neuronalen Netzwerken und Deep Learning-Modellen, die auf sehr großen Datensätzen trainiert werden, um neue Inhalte zu erstellen. Mit ausreichendem Training kann das Modell das Erlernte aus dem Training anwenden und auf reale Situationen übertragen, was als KI-Inferenz bezeichnet wird.

Generative KI umfasst viele Funktionen, die Endbenutzende mit künstlicher Intelligenz in Verbindung bringen, darunter Text- und Bilderzeugung, Datenerweiterung, dialogorientierte KI wie Chatbots und vieles mehr. Es ist wichtig, dass Ihre KI-Plattform die erforderliche Geschwindigkeit und Genauigkeit für generative KI-Funktionen ermöglicht und unterstützt. 

Generative KI im Vergleich zu prädiktiver KI

Skalierbarkeit

Modelle können auf Dauer nur dann erfolgreich sein, wenn sie skalierbar sind. Um skalieren zu können, brauchen Data Science-Teams eine zentrale Lösung, die das Entwickeln und Bereitstellen von KI-Modellen, Experimente und Fine Tuning sowie die Zusammenarbeit mit anderen Teams ermöglicht. Dafür sind riesige Datenmengen und eine enorme Rechenleistung erforderlich – und natürlich eine Plattform, die dies bewältigen kann.

Sobald Ihre Modelle erfolgreich sind, können Sie diese in unterschiedlichen Umgebungen reproduzieren: On-Premise, auf Public Cloud-Plattformen und am Edge. Eine skalierbare Lösung unterstützt Deployments in Ihrer gesamten Infrastruktur.

Automatisierung

Wenn Ihr Unternehmen nicht mehr nur einige wenige Modelle in der Produktion bereitstellen möchte, sondern mit der Zeit ein ganzes Dutzend oder mehr einsetzt, sollten Sie sich mit Automatisierung befassen. Mit automatisierten Data Science-Pipelines können Sie erfolgreiche Prozesse in wiederholbare Abläufe umwandeln. Dadurch beschleunigen Sie nicht nur Ihre Workflows, sondern sorgen auch für eine bessere Skalierbarkeit und ein optimiertes Benutzererlebnis mit einer höheren Vorhersagbarkeit. Sie beseitigen damit außerdem Routineaufgaben und entlasten so Ihre Data Scientists und Engineers, sodass ihnen mehr Zeit für Innovationen und zum Iterieren und Anpassen von Modellen bleibt. 

Was ist agentische KI und was hat sie mit Automatisierung zu tun?

Tools und Integrationen

Entwicklungsteams und Data Scientists sind beim Entwickeln und effizienten Bereitstellen von Anwendungen und Modellen auf Tools und Integrationen angewiesen. Ihre KI-Plattform muss daher die Tools, Sprachen und Repositories unterstützen, die Ihre Teams bereits nutzen, und gleichzeitig die Integration mit Ihrem gesamten Technologie-Stack sowie mit Partnerlösungen ermöglichen.

Sicherheit und Regulierung

Mindern Sie Risiken und schützen Sie Ihre Daten, indem Sie strenge Sicherheitspraktiken für Ihre KI-Plattform einführen. Bei den täglichen Trainings- und Entwicklungsabläufen ist das Scannen auf CVEs (Common Vulnerabilities and Exposures) von entscheidender Bedeutung. Außerdem sollten Sie mithilfe von Zugriffsverwaltung, Netzwerksegmentierung und Verschlüsselung für den operativen Schutz von Anwendungen und Daten sorgen.

Wie sieht KI-Sicherheit aus? 

Verantwortung und Governance

Ihre KI-Plattform sollte Ihnen die Möglichkeit bieten, Daten so zu nutzen und zu überwachen, dass ethische Standards gewahrt und Compliance-Verstöße vermieden werden. Für den Schutz sowohl von Unternehmensdaten als auch von Nutzerdaten ist es wichtig, dass die gewählte Plattform Transparenz, Nachverfolgung und Risikomanagementstrategien bietet – und zwar für den gesamten ML-Lifecycle. Die Plattform muss außerdem die bestehenden Compliance- und Sicherheitsstandards für Daten in Ihrem Unternehmen erfüllen.

Support

Einer der größten Vorteile einer vorkonfigurierten End-to-End-KI-Plattform ist der damit einhergehende Support. Die kontinuierliche Nachverfolgung von Bugs und die entsprechenden Behebungsmaßnahmen für sämtliche Deployments verbessern die Performance Ihrer Modelle. Einige Anbieter von KI-Plattformen stellen auch Onboarding- und Trainingsressourcen zur Verfügung, um Ihren Teams den Einstieg zu erleichtern. Für Unternehmen, die sich für das Entwickeln einer eigenen Plattform mit Open Source-Tools entscheiden, können Anbieter von Vorteil sein, die Support für ML-Funktionen und -Infrastrukturen bereitstellen. 

Wichtige Überlegungen beim Aufbau einer produktionsbereiten KI/ML-Umgebung

Es gibt viele verschiedene Faktoren, die den Erfolg von KI in großem Umfang beeinflussen können. Ein erfolgreiches Deployment Ihrer KI-Workloads in großem Umfang hängt hauptsächlich davon ab, wie effizient und effektiv die verschiedenen Komponenten zusammenarbeiten, damit Sie erfolgreich Inferenzen erzielen können. Insbesondere Inferenzserver, die größere KI-Modelle (wie LLMs) und ihre komplexeren Inferenzfunktionen unterstützen, sind für die Skalierung von KI-Workloads für Unternehmen unerlässlich.

Warum Sie sich mit KI-Inferenz befassen sollten

Mit diesen KI-Tools können Engineers Ressourcen effizienter nutzen und Inferenzen in großem Umfang erzielen: 

  • llm-d: LLM-Prompts können komplex und uneinheitlich sein. Sie benötigen in der Regel umfangreiche Rechenressourcen und Storage, um große Datenmengen zu verarbeiten. llm-d, ein Open Source-KI-Framework, verwendet gut strukturierte Abläufe, damit Entwicklungsteams Techniken wie verteilte Inferenz nutzen können, um die steigenden Anforderungen anspruchsvoller und größerer Reasoning-Modelle wie LLMs zu erfüllen.
  • Verteilte Inferenz: Verteilte Inferenz sorgt dafür, dass KI-Modelle Workloads effizienter verarbeiten können, indem die Inferenzarbeit innerhalb einer Gruppe miteinander verbundener Geräte verteilt wird. Stellen Sie sich dies als Äquivalent zum Sprichwort „Viele Hände machen ein schnelles Ende“ für den Softwarebereich vor.  
  • vLLM: vLLM steht für Virtual Large Language Model und ist eine Library von Open Source-Code, die von der vLLM Community verwaltet wird. Das Modell unterstützt Large Language Models (LLMs) dabei, Berechnungen effizienter und in großem Umfang durchzuführen.

Erfahren Sie, wie Unternehmen wie LinkedIn, Roblox und Amazon mit vLLM skalieren. 

3 Use Cases aus der Praxis 

Telekommunikation

Umfassende KI-Services können verschiedene Bereiche der Telekommunikationsbranche optimieren – von der Netzwerk-Performance bis hin zur Qualität von Produkten und Services. Typische Use Cases sind die Optimierung der Servicequalität, audiovisuelle Verbesserungen und Prävention von Kundenabwanderung.

Mehr über die auf Red Hat® OpenShift® und NVIDIA-GPUs basierende KI-Plattform von Turkcell erfahren

Gesundheitswesen

Eine robuste KI-Plattform kann für transformative Vorteile in vielen Bereichen des Gesundheitswesens sorgen, wie etwa schnellere Diagnosen, Fortschritte in der klinischen Forschung und erweiterter Zugriff auf Patientenservices. Dadurch werden auch die Ergebnisse für Patientinnen und Patienten verbessert, da ärztliches und anderes medizinisches Fachpersonal genauere Diagnosen stellen und besser abgestimmte Behandlungspläne entwickeln kann.

Mehr über KI im Gesundheitswesen erfahren

Fertigung

Intelligente, ML-gestützte Automatisierung transformiert die gesamte Lieferkette in der Fertigung. Industrieroboter und prädiktive Analysen entlasten Teams von repetitiven Aufgaben und implementieren effektivere Workflows in Echtzeit.

So automatisierte Guise AI die Qualitätskontrolle am Edge

Red Hat AI ist eine Plattform mit Produkten und Services, die Ihr Unternehmen bei den einzelnen Phasen der KI-Einführung unterstützen kann – unabhängig davon, ob Sie gerade erst beginnen oder schon skalierungsbereit sind. Die Lösungen können sowohl generative als auch prädiktive KI-Initiativen für die spezifischen Use Cases Ihres Unternehmens unterstützen.

Mit Red Hat AI erhalten Sie Zugriff auf Red Hat® AI Inference Server, mit dem Sie die Modellinferenz in der gesamten Hybrid Cloud optimieren und so schnellere und kosteneffiziente Deployments erzielen können. Der auf vLLM basierende Inferenzserver maximiert die GPU-Nutzung und ermöglicht schnellere Reaktionszeiten.

Mehr über Red Hat AI Inference Server erfahren

Red Hat AI Inference Server umfasst das Repository von Red Hat AI, eine Kollektion validierter und optimierter Drittanbietermodelle, die mehr Modellflexibilität und teamübergreifende Konsistenz ermöglicht. Durch den Zugriff auf das Repository von Drittanbietermodellen können Unternehmen die Markteinführungszeit verkürzen und finanzielle Hindernisse für eine erfolgreiche KI-Implementierung abbauen. 

Mehr über validierte Modelle von Red Hat AI erfahren

Der offizielle Red Hat Blog

Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

What are predictive analytics

Verbessern Sie Ihre IT-Performance durch prädiktive Analysen. Von neuronalen Netzwerken bis zum maschinellen Lernen – Daten zeigen Ihnen Trends und Chancen.

What is sovereign AI?

Beim Thema souveräne KI geht es darum, KI-Technologie selbst zu besitzen, Daten lokal zu speichern und sicherzustellen, dass Ihre Systeme Ihre individuellen Werte und rechtlichen Anforderungen widerspiegeln.

What is deep learning?

Deep Learning ist ein KI-Verfahren (Künstliche Intelligenz), das Computern beibringt, Daten mithilfe eines Algorithmus zu verarbeiten, der sich an die Funktionsweise des menschlichen Gehirns anlehnt.

Ressourcen zu KI/ML