Jump to section

Was ist generative KI?

URL kopieren

Generative KI ist eine Technologie der künstlichen Intelligenz (KI), die sich auf Deep Learning-Modelle stützt, welche auf großen Datensätzen trainiert werden, um neue Inhalte zu erstellen. Die zur Generierung neuer Daten verwendeten, generativen KI-Modelle stehen im Gegensatz zu diskriminativen KI-Modellen, die zur Sortierung von Daten auf Grundlage von Unterschieden verwendet werden. Viele Menschen nutzen mittlerweile generative KI-Anwendungen, um Texte, Bilder, Code und vieles mehr zu erstellen. Zu den üblichen Use Cases für generative KI gehören Chatbots, Erstellen und Bearbeiten von Bildern, Unterstützung bei Softwarecode und wissenschaftliche Forschung.

Generative KI wird im beruflichen Umfeld eingesetzt, um kreative Ideen schnell zu visualisieren und langweilige und zeitaufwendige Aufgaben effizient zu erledigen. In aufstrebenden Bereichen wie der medizinischen Forschung und dem Produktdesign könnte generative KI zukünftig Fachleuten bei der Verbesserung ihrer Arbeit helfen und die Lebensqualität erheblich steigern. KI bringt auch neue Risiken mit sich, die Nutzende kennen und abmildern sollten.

Zu den bekannten generativen KI-Anwendungen der letzten Jahre gehören ChatGPT und DALL-E von OpenAI, GitHub CoPilot, Bing Chat von Microsoft, Bard von Google, Midjourney, Stable Diffusion und Adobe Firefly. Red Hat und IBM entwickelten gemeinsam Red Hat® Ansible® Lightspeed mit IBM watsonx Code Assistant, einem generativen KI-Service, der Entwickler bei einer effizienteren Erstellung von Ansible-Inhalten unterstützt. Viele andere Unternehmen experimentieren mit ihren eigenen generativen KI-Systemen, um Routineaufgaben zu automatisieren und die Effizienz zu steigern.

Wenn Sie sich mit ChatGPT über eine überraschend kohärente Konversation amüsiert oder Midjourney dabei beobachtet haben, wie es ein realistisches Bild nach einer von Ihnen erfundenen Beschreibung gerendert hat, dann wissen Sie, dass sich generative KI wie Zauberei anfühlen kann. Was steckt dahinter?

Unter den KI-Apps, die Sie verwenden, stellen Deep-Learning-Modelle Muster nach, die sie aus einer riesigen Menge von Trainingsdaten gelernt haben. Dann arbeiten sie innerhalb der von Menschen geschaffenen Parameter, um auf der Basis des Gelernten etwas Neues zu schaffen.

Deep Learning-Modelle speichern keine Kopie ihrer Trainingsdaten, sondern eine kodierte Version davon, bei der ähnliche Datenpunkte dicht nebeneinander angeordnet sind. Diese Darstellung kann dann entschlüsselt werden, um neue, ursprüngliche Daten mit ähnlichen Merkmalen zu erstellen. 

Das Entwickeln einer benutzerdefinierten generativen KI-App erfordert ein Modell sowie Anpassungen, wie etwa eine von Menschen überwachte Feinabstimmung oder eine für einen Use Case spezifische Datenschicht.

Die meisten der derzeit beliebten generativen KI-Apps reagieren auf Prompts von Nutzenden. Sie beschreiben die gewünschten Informationen in natürlicher Sprache, und die App stellt das Gewünschte wie von Zauberhand her.

Der Durchbruch generativer KI in Schrift und Bild sorgt für Schlagzeilen und beschäftigt die Fantasie vieler Menschen. Im Folgenden sind einige der ersten Use Cases für diese sich schnell entwickelnde Technologie aufgeführt.

Texte Schon bevor ChatGPT für Schlagzeilen sorgte (und anfing, selbst welche zu schreiben), gelang es generativen KI-Systemen, von Menschen verfasste Texte zu imitieren. Programme zur Sprachübersetzung waren einer der ersten Use Cases für generative KI-Modelle. Aktuelle generative KI-Tools können auf Aufforderungen (Prompts) zum Erstellen hochwertiger Inhalte zu nahezu jedem Thema reagieren. Diese Tools können ihre Texte auch an unterschiedliche Textlängen und verschiedene Schreibstile anpassen

Bilderzeugung Generative KI-Image Tools können qualitativ hochwertige Bilder als Reaktion auf Prompts für unzählige Themen und Stile synthetisieren. Einige KI-Tools, wie beispielsweise die Generative Füllung in Adobe Photoshop, können neue Elemente zu bestehenden Werken hinzufügen.

Generation von Sprache und Musik Mithilfe von geschriebenem Text und Audiobeispielen der Stimme einer Person können KI-Stimmwerkzeuge Erzählungen oder Gesänge erstellen, die den Klang echter Menschen nachahmen. Mit anderen Tools kann künstliche Musik aus Prompts oder Samples erzeugt werden.

Generation von Videos Neue Services experimentieren mit verschiedenen generativen KI-Techniken zur Erstellung bewegter Grafiken. Einige davon sind in der Lage, ein Standbild mit Ton zu unterlegen und den Mund und den Gesichtsausdruck einer Person zum Sprechen zu bringen.

Codegenerierung und -vervollständigung Manche generative KI-Tools können einen schriftlichen Prompt entgegennehmen und auf Wunsch Computercode ausgeben, um Softwareentwicklungsteams zu unterstützen.

Data Augmentation Generative KI kann eine große Menge synthetischer Daten erzeugen, wenn die Verwendung echter Daten unmöglich oder nicht wünschenswert ist. Synthetische Daten können beispielsweise nützlich sein, wenn Sie ein Modell trainieren möchten, um Daten aus dem Gesundheitswesen zu interpretieren, ohne dabei personenbezogene Daten einzubeziehen. Damit können auch kleine oder unvollständige Datensätze zu einem größeren Satz synthetischer Daten für Trainings- oder Testzwecke erweitert werden.

Deep Learning, das die generative KI ermöglicht, ist eine maschinelle Lerntechnik zur Analyse und Interpretation großer Datenmengen. Auch bekannt unter den Begriffen „Deep Neural Learning“ oder „Deep Neural Networking“, lernen Computer, Wissen durch Beobachtung zu erwerben. Sie imitieren also die Art und Weise, wie wir Menschen uns Wissen aneignen. Deep Learning ist ein entscheidendes Konzept für das Anwenden von Computern beim Verstehen menschlicher Sprache oder bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP).

Wir können uns Deep Learning (DL) als eine Art Flussdiagramm vorstellen, das mit einer Eingabeschicht beginnt und mit einer Ausgabeschicht endet. Zwischen diesen beiden Schichten befinden sich sogenannte „verborgene Schichten“, die Informationen auf unterschiedlichen Ebenen verarbeiten und dabei ihr Verhalten mit dem Empfang neuer Daten kontinuierlich anpassen. DL-Modelle können Hunderte von verborgenen Schichten aufweisen, die beim Entdecken von Zusammenhängen und Mustern innerhalb des Datensatzes eine Rolle spielen. 

In der aus mehreren Knoten bestehenden Eingabeschicht werden Daten in das Modell eingeführt, kategorisiert und anschließend in die nächste Schicht verschoben. Der Weg der Daten durch die verschiedenen Schichten basiert dabei auf den Berechnungen, die für die einzelnen Knoten festgelegt wurden. Während die Daten so sämtliche Schichten durchlaufen, beziehen sie Beobachtungen mit ein, die schließlich die Ausgabe – die finale Analyse – der Daten bilden.

Eine Technologie, die den Fortschritt des Deep Learning beschleunigt hat, ist die GPU (Graphics Processing Unit). GPUs wurden ursprünglich entwickelt, um das Rendering von Videospielgrafiken zu beschleunigen. Als effiziente Methode für das parallele Ausführen von Berechnungen haben sich GPUs jedoch für DL-Workloads als sehr geeignet erwiesen.

Die Durchbrüche bei der Größe und Geschwindigkeit von DL-Modellen haben unmittelbar zu der aktuellen Welle bahnbrechender generativer KI-Anwendungen geführt.

Ein neuronales Netzwerk ist eine Art der Informationsverarbeitung, die biologische neuronale Systeme wie die Verbindungen in unserem eigenen Gehirn nachahmt. So kann die KI Verbindungen zwischen scheinbar nicht zusammenhängenden Informationsmengen herstellen. Das Konzept des neuronalen Netzwerks hängt eng mit Deep Learning zusammen.

Wie nutzt ein Deep Learning-Modell das Konzept des neuronalen Netzwerks, um Datenpunkte zu verbinden? Beginnen wir mit der Funktionsweise des menschlichen Gehirns. In unserem Gehirn finden sich viele miteinander vernetzte Neuronen, die als Boten für Informationen fungieren, wenn das Gehirn eingehende Daten verarbeitet. Neuronen nutzen elektrische Impulse und chemische Signale, um miteinander zu kommunizieren und Informationen zwischen den unterschiedlichen Bereichen des Gehirns zu übertragen. 

Ein künstliches neuronales Netz (Artificial Neural Network, ANN) basiert auf diesem biologischen Phänomen, besteht aber aus künstlichen Neuronen, die aus Softwaremodulen, den so genannten Knoten, zusammengesetzt sind. Anders als das Gehirn, das chemische Signale nutzt, kommunizieren und übermitteln diese Knoten Informationen mithilfe mathematischer Berechnungen. Dieses simulierte neuronale Netz (Simulated Neural Network, SNN) verarbeitet Daten, indem es Datenpunkte in Cluster gruppiert und Vorhersagen trifft.

Verschiedene neuronale Netztechniken eignen sich für unterschiedliche Arten von Daten. Ein rekurrentes neuronales Netz (Recurrent Neural Network, RNN) ist ein Modell, das sequentielle Daten verwendet, beispielsweise durch das Lernen von Wörtern in einer bestimmten Reihenfolge, um Sprache zu verarbeiten.

Basierend auf der Idee des RNN sind Transformer eine spezielle Art von neuronaler Netzwerkarchitektur, die Sprache schneller verarbeiten kann. Die Transformer erlernen die Beziehungen zwischen den Wörtern in einem Satz, was im Vergleich zu RNNs, die Wörter in sequenzieller Reihenfolge aufnehmen, ein effizienterer Prozess ist.

Ein großes Sprachmodell (Large Language Model, LLM)ist ein Deep Learning-Modell, das durch das Anwenden von Transformern auf einen großen Satz generalisierter Daten trainiert wird. LLMs ermöglichen viele der beliebten KI-Chat- und Text-Tools.

Eine weitere Deep Learning-Technik, das Diffusionsmodell, eignet sich nachweislich gut für die Bilderzeugung. Diffusionsmodelle lernen den Prozess, der ein natürliches Bild in ein unscharfes visuelles Raster verwandelt Generative Image Tools kehren diesen Prozess um: Sie beginnen mit einem zufälligen Rastermuster und verfeinern es, bis es einem realistischen Bild ähnelt.

Deep Learning-Modelle können durch Parameter beschrieben werden. Ein einfaches Kreditprognosemodell, das anhand von 10 Eingaben aus einem Kreditantragsformular trainiert wurde, hätte 10 Parameter. Im Gegensatz dazu kann ein LLM über Milliarden von Parametern verfügen. Der Generative Pre-trained Transformer 4 (GPT-4) von OpenAI, eines der Basismodelle für ChatGPT, hat Berichten zufolge 1 Billion Parameter.

Ein Basismodell ist ein Deep Learning-Modell, das mit einer großen Menge allgemeiner Daten trainiert wurde. Einmal trainiert, können Basismodelle für spezielle Use Cases weiterentwickelt werden. Wie der Name schon sagt, können diese Modelle die Basis für viele verschiedene Anwendungen bilden.

Das Entwickeln eines neuen Basismodells ist heutzutage ein umfangreiches Projekt. Für diesen Prozess sind enorme Mengen an Trainingsdaten erforderlich, die in der Regel aus dem Internet, digitalen Libraries mit Büchern, Datenbanken mit wissenschaftlichen Artikeln, Bildsammlungen oder anderen großen Datensätzen stammen. Das Trainieren eines Modells anhand dieser Datenmenge erfordert eine immense Infrastruktur, einschließlich des Aufbaus oder des Leasings einer GPU-Cloud. Die bisher größten Basismodelle sollen in ihrer Entwicklung Hunderte von Millionen Dollar gekostet haben.

Aufgrund des hohen Arbeitsaufwands, der für das Trainieren eines Basismodells von Grund auf erforderlich ist, ist es üblich, auf Modelle zurückzugreifen, die von Dritten trainiert wurden, und dann Anpassungen vorzunehmen. Dabei gibt es verschiedene Methoden, um ein Basismodell anzupassen. Dazu gehören die Feinabstimmung, die Formulierung eines Prompts und das Hinzufügen kunden- oder domain-spezifischer Daten.

Unter Fine Tuning (Feinabstimmung) versteht man die Weiterentwicklung eines Basismodells, um ein neues Modell zu erstellen, das für eine bestimmte Aufgabe oder eine bestimmte Domain besser geeignet ist. Ein Unternehmen kann Trainingsdaten hinzufügen, die auf den gewünschten Use Case abgestimmt sind, anstatt sich auf ein Universalmodell zu verlassen.

Für die Feinabstimmung werden in der Regel deutlich weniger Daten und Zeit benötigt als für das erste Training. Das Training eines Basismodells kann Wochen oder Monate dauern, während die Feinabstimmung nur wenige Stunden in Anspruch nehmen kann.

Wie hilft das Fine Tuning den Nutzenden? Wenn Sie ein Universalmodell verwenden, müssen Sie möglicherweise jedes Mal, wenn Sie der KI-Anwendung einen Prompt geben, spezifische Beispiele und Anweisungen eingeben, um das Gewünschte zu erhalten. Bei der Feinabstimmung ist die Arbeit des Antizipierens des gewünschten Ergebnisses bereits erledigt. Ihre Prompts können daher einfach sein, wodurch Sie Zeit sparen und weniger Ressourcen verbrauchen.

Die generative KI-Technologie hat sich in kurzer Zeit stark weiterentwickelt und einen großen Hype ausgelöst, sowohl in positiver als auch in negativer Hinsicht. Die Vor- und Nachteile dieser Technologie sind noch nicht vollständig bekannt. Im Folgenden werfen wir einen kurzen Blick auf einige wichtige Bedenken gegenüber generativer KI.

Befähigen von Schädigung Es besteht die unmittelbare und offensichtliche Gefahr, dass Kriminelle generative KI-Tools für böswillige Zwecke einsetzen, beispielsweise für groß angelegte Desinformationskampagnen in den sozialen Medien oder für unberechtigte Deepfake-Bilder, die auf echte Menschen abzielen.

Verstärken schädlicher gesellschaftlicher Vorurteile Es hat sich gezeigt, dass generative KI-Tools die in den Trainingsdaten enthaltenen menschlichen Vorurteile, einschließlich schädlicher Stereotypen und Hassreden, übernehmen und wiedergeben.

Produzieren von Falschinformationen Generative KI-Tools können erfundene und schlichtweg falsche Informationen und Szenen produzieren, die manchmal als „Halluzinationen“ bezeichnet werden. Manche Fehler in den generierten Inhalten sind harmlos, beispielsweise eine unsinnige Antwort auf eine Chat-Frage oder ein Bild einer menschlichen Hand mit zu vielen Fingern. Doch es ereigneten sich auch schwerwiegende Fälle, in denen KI versagte, wie etwa bei einem Chatbot, der Personen mit Fragen zu Essstörungen schädliche Ratschläge gab.

Sicherheit und rechtliche Risiken Generative KI-Systeme können Sicherheitsrisiken darstellen, unter anderem durch die Eingabe sensibler Daten durch Nutzende in Apps, die nicht entsprechend sicher konzipiert wurden. Generative KI-Antworten können rechtliche Risiken bergen, indem sie urheberrechtlich geschützte Inhalte reproduzieren oder sich die Stimme oder Identität einer realen Person ohne deren Zustimmung aneignen. Außerdem können einige generative KI-Tools Nutzungsbeschränkungen unterliegen.

Red Hat® OpenShift® AI, einschließlich OpenShift Data Science, bietet die gemeinsame Basis für Ihre Teams, um KI-Anwendungen und Modelle für maschinelles Lernen (ML) mit Transparenz und Kontrolle zu entwickeln und bereitzustellen. 

Red Hat OpenShift Data Science ist eine Plattform, die KI-Modelle für Ihren speziellen Use Case und mit Ihren eigenen Daten trainieren und bereitstellen kann und Prompt Tuning und Fine Tuning beinhaltet.

Für umfangreiche KI-Implementierungen bietet Red Hat OpenShift eine skalierbare Anwendungsplattform, die für KI-Workloads geeignet ist und Zugang zu gängigen Hardware-Beschleunigern bietet.

Red Hat nutzt auch unsere eigenen Red Hat OpenShift AI-Tools, um den Nutzen anderer Open Source Software zu verbessern, angefangen mit Ansible Lightspeed mit IBM watson Code Assistant. Dieser Service hilft den Automation-Teams, Ansible-Inhalte effizienter zu erlernen, erstellen und zu pflegen. Die Lösung erkennt Nutzereingaben und interagiert mit den Basismodellen von IBM watsonx, um Codeempfehlungen zu generieren, die dann zur Erstellung von Ansible Playbooks verwendet werden

Darüber hinaus bieten die Partnerintegrationen von Red Hat den Zugang zu einem Ökosystem zuverlässiger KI-Tools, die für die Zusammenarbeit mit Open Source-Plattformen entwickelt wurden.

Weiterlesen

ARTIKEL

Was ist Cloud-Management?

Lernen Sie die verschiedenen Facetten des Cloud-Managements kennen, und welche Vorteile eine Cloud-Management-Plattform für Ihr Unternehmen hat.

ARTIKEL

Was sind gemanagte IT-Services?

Mit gemanagten Services können allgemeine Aufgaben an Fachleute übergeben werden, um Kosten zu reduzieren, die Servicequalität zu verbessern oder internen Teams mehr Zeit für geschäftsspezifische Aufgaben zu verschaffen.

ARTIKEL

Was sind Cloud-Services?

Bei Cloud-Services handelt es sich um Infrastrukturen, Plattformen oder Software, die von einem Drittanbieter gehostet und Nutzern über das Internet zur Verfügung gestellt werden.

Mehr über Cloud Computing erfahren

Produkte

Eine Plattform, die Hardware virtualisiert und diese Ressourcen in Clouds organisiert.

Eine unternehmensfähige Kubernetes-Container-Plattform, auf der Operationen für den gesamten Stack automatisiert werden, um Hybrid Clouds, Multi-Clouds und Edge-Deployments noch einfacher verwalten zu können.

Interaktionen mit unseren strategischen Beratern, die sich ein Gesamtbild von Ihrem Unternehmen machen, Ihre Herausforderungen analysieren und Ihnen helfen, diese mit umfassenden, kosteneffektiven Lösungen zu meistern.

Ressourcen

Training

Kostenloser Trainingskurs

Red Hat OpenStack Technical Overview