Ein generatives KI-Modell, wie ChatGPT, wird mithilfe einer Vielzahl von Texten aus dem Internet trainiert. Künstliche Intelligenz (KI) verfügt jedoch nicht über spezifische Informationen bezüglich bestimmter Dokumente oder Quellen, die während des Trainings verwendet werden. Anstatt sich auf Einzelheiten zu konzentrieren, wird das Modell darauf trainiert, allgemein zu sein. So kann es kreative Antworten finden, komplexe Diskussionen führen und sogar einen Sinn für Humor zeigen. KI besitzt jedoch kein Verständnis, Einsicht oder Glauben. Die Antworten werden basierend auf Mustern generiert, die aus Trainingsdaten gelernt wurden.
KI-Systeme wie ChatGPT oder LLMs (Large Language Model) spiegeln das kollektive Wissen der Menschen in einer einzigen Oberfläche wider. Sie reorganisieren bestehende Inhalte aus dem Internet, „denken“ aber nicht. Sie sind nicht „intelligent“ im menschlichen Sinne, haben keine „allgemeine Intelligenz“ als allgemeine Problemlöser und sind sich dessen nicht „bewusst“, was sie finden.
Funktionsweise generativer KI: Was sind Token?
Die Funktionsweise dieser Modelle basiert auf dem Konzept der Token, bei denen es sich um seperate Spracheinheiten handelt, die von einzelnen Zeichen bis hin zu ganzen Wörtern reichen. Diese Modelle verarbeiten eine bestimmte Anzahl von Tokens gleichzeitig unter Verwendung komplexer mathematischer Berechnungen, um das wahrscheinlichste nächste Token in einer Sequenz vorherzusagen.
Modelle wie generative Pre-trained Transformers (GPTs, generative vortrainierte Transformer) generieren Text Token für Token. Nach dem Erzeugen jedes Tokens überprüft das Modell die gesamte Sequenz, die es bisher generiert hat, und verarbeitet sie erneut, um das nächste Token zu generieren. Dieser rekursive Prozess wird fortgesetzt, bis das letzte Token den generierten Text vervollständigt.
Dies bedeutet, dass die Qualität der Antwort der KI von dem Prompt oder Eingabeaufforderungen abhängt, die ein Nutzender gibt. Mit anderen Worten: Die Art und Weise, wie wir mit der KI interagieren und sie anweisen, hat einen großen Einfluss auf die Qualität der Antworten, die sie liefert.
Was ist Prompt Engineering?
Prompt Engineering bezieht sich auf den Entwurf und die Erstellung effektiver Prompts oder Anweisungen für KI-Modelle, um gewünschte Resultate zu erzielen. Bei Sprachmodellen wie GPT-3 umfasst das Prompt Engineering die Formulierung von Eingabetext, der dazu führt, dass das Modell genaue, relevante und kontextbezogene Antworten generiert.
Ein effektives Prompt Engineering ist von entscheidender Bedeutung, da Sprachmodelle wie GPT-3 kein echtes Verständnis und keine Argumentation mit gesundem Menschenverstand bieten. Sie generieren Antworten basierend auf Mustern, die aus Trainingsdaten gelernt wurden. Die Formulierung gut gestalteter Prompts kann dazu beitragen, dass das Modell genauere und aussagekräftigere Ausgaben generiert, während schlecht formulierte Prompts zu falschen oder unsinnigen Ergebnissen führen können.
Was ist Prompt Design?
Prompt Design ist die systematische Ausarbeitung von gut geeigneten Anweisungen für ein LLM wie ChatGPT, um ein spezifisches und klar definiertes Ziel zu erreichen. Dieses Verfahren kombiniert künstlerische und wissenschaftliche Elemente und beinhaltet:
- Verstehen des LLMs: Verschiedene LLMs reagieren unterschiedlich auf dieselbe Eingabeaufforderung. Darüber hinaus können bestimmte Sprachmodelle bestimmte Keywords oder Hinweise enthalten, die in ihren Antworten bestimmte Interpretationen auslösen.
- Domain-Expertise: Kenntnisse in dem relevanten Bereich sind für die Formulierung von Prompts entscheidend. Zum Beispiel erfordert das Erstellen eines Prompts zur Ableitung einer medizinischen Diagnose medizinisches Wissen.
- Iterativer Prozess und Bewertung der Qualität: Die Entwicklung des perfekten Prompts beinhaltet oft Versuche und Verbesserungen. Von entscheidender Bedeutung ist die Methode zur Bewertung der Qualität des generierten Outputs, die über die reine Subjektivität hinausgeht
Prompt: Größenbeschränkungen
Es ist entscheidend, die Bedeutung der Größenbeschränkung eines LLM zu erkennen, da sie die Menge und Art der Informationen, die wir bereitstellen können, direkt beeinflusst. Sprachmodelle sind nicht dafür ausgelegt, unendliche Datenmengen auf einmal zu verarbeiten. Stattdessen gibt es eine inhärente Einschränkung hinsichtlich der Größe des Prompts, den Sie erstellen und eingeben können. Diese Einschränkung hat tiefgreifende Auswirkungen darauf, wie Sie Prompts effektiv formulieren und nutzen.
Ein LLM hat eine maximale Tokenkapazität, die sowohl den Prompt als auch die nachfolgende Antwort umfasst. Folglich können längere Prompts die Länge der generierten Antwort einschränken. Es ist wichtig, dass die Prompts präzise sind, aber dennoch die notwendigen Informationen enthalten.
In praktischen Szenarien müssen Sie die Rolle eines Editors übernehmen und relevante Details für eine Aufgabe sorgfältig auswählen. Dieser Prozess spiegelt die Art und Weise wider, wie Sie das Schreiben einer Arbeit oder eines Artikels innerhalb einer bestimmten Wort- oder Seitenbegrenzung angehen. In solchen Fällen können Sie nicht einfach zufällige Fakten einwerfen. Stattdessen müssen Sie die Informationen, die für das Themengebiet relevant sind, sorgfältig auswählen und organisieren.
Prompt Design ist eine menschliche Fähigkeit, die genaue und gut strukturierte Inhalte sicherstellt. Tools können einem Autor helfen, produktiver zu sein, aber sie sind kein Ersatz für einen Autor. Gen KI benötigt die Unterstützung sachkundiger und erfahrener Autoren, Forschender und Redakteure. Um ein guter Prompt Designer zu sein, benötigen Sie die gleichen Fähigkeiten, die einen guten Autoren ausmachen.
Techniken für Prompt Design und Prompt Engineering
Welchen Prompt Sie in welcher Situation verwenden, liegt ganz bei Ihnen. Wenn Sie beispielsweise einen langen Artikel schreiben, ist Chain of Thought-Prompting hilfreich, um Informationen abschnittsweise zu generieren. Die folgende Liste ist nicht vollständig, enthält jedoch die häufigsten Prompt Design-Patterns und Muster, die momentan verwendet werden.
Persona Pattern
Das Persona Pattern ist eine Technik, mit der die KI angewiesen wird, von einer bestimmten Perspektive aus zu agieren, beispielsweise durch die Übernahme einer beruflichen Rolle oder die Verkörperung einer fiktiven Figur. Dieser Ansatz ermöglicht es dem Modell, Ergebnisse zu generieren, die auf die mit der jeweiligen Persona verbundenen Verantwortlichkeiten abgestimmt sind. Sie könnten die KI beispielsweise anweisen, bei der Auswertung des Codes die Rolle einer Cybersicherheitsfachkraft zu übernehmen. Diese Strategie ist besonders hilfreich, wenn Sie Anleitungen suchen, aber keine präzisen Spezifikationen für das gewünschte Ergebnis haben. Zum Beispiel:
Nutzende: Stellen Sie sich vor, Sie sind ein erfahrener Historiker, der sich auf den Peloponnesischen Konflikt spezialisiert hat. Erläutern Sie aus dieser Perspektive die entscheidenden Ereignisse und Faktoren, die zum Kriegsausbruch geführt haben. |
In diesem Szenario wird davon ausgegangen, dass die KI eine umfassende Untersuchung des Peloponnesischen Konflikts mit einem Fokus auf seine Ursachen liefert, wie Sie es aus historischer Sicht erwarten würden. Beachten Sie den gehobenen, akademischen Schreibstil und das im Prompt verwendete Vokabular. Die Antwort wird diesem Stil entsprechen. Mit anderen Worten: Ihr Schreibstil im Prompt beeinflusst den Stil des generierten Inhalts. Dies gilt für alle Prompt Strategien. Passen Sie also Ihren Schreibstil an den Kontext an, in dem Sie veröffentlichen.
Aus der Perspektive eines Marketingexperten können Sie Persona Patterns verwenden, um sich in die Köpfe Ihrer Kunden hineinzuversetzen. Ohne die Offenlegung vertraulicher Informationen können Sie die KI auffordern, die Persona Ihrer Zielgruppe anzunehmen und ihr dann Fragen zu stellen. Die KI antwortet aus der Perspektive eines theoretischen Kunden. Das ist natürlich nicht unfehlbar und ersetzt in keiner Weise gute Nutzerforschung und Marketingdaten. Sie kann Ihnen jedoch dabei helfen, verschiedene Textformen zu verfassen und Ideen zu generieren.
New Information Pattern
KI hat auch ihre Grenzen, darunter die Tatsache, dass sie keine Informationen jenseits des Punktes wahrnimmt, an dem ihre Trainingsdaten enden. KI kann keine aktuellen Events einbeziehen oder Aktualisierungen berücksichtigen, die nach dem Training stattgefunden haben. Sie können jedoch neue Informationen in das Wissen des Modells integrieren, indem Sie Ihre Prompts effektiv strukturieren. Betrachten Sie beispielsweise die folgende Situation:
Nutzende: Können Sie erklären, was phänomenales Bewusstsein ist? KI: Phänomenales Bewusstsein bezieht sich auf die subjektive, persönliche Erfahrung, wenn man sich etwas bewusst ist. Mit anderen Worten: Es sind die „rohen“ Empfindungen und Erfahrungen, die wir machen, wie etwa der Probieren von Schokolade, die Farbe Rot, das Gefühl des Glücks oder das Gefühl von Schmerz. |
Wenn Sie im Prompt etwas mehr Kontext angeben, können Sie eine leichter verständliche Erklärung formulieren:
Nutzende: Beschreiben Sie das Konzept des phänomenalen Bewusstseins in Bezug auf die Debatte darüber, ob Computer jemals ein Bewusstsein haben können. KI: Phänomenales Bewusstsein spielt eine zentrale Rolle in der anhaltenden Debatte darüber, ob Computer echtes Bewusstsein erreichen können. Diese Debatte dreht sich um die Vorstellung, dass Computer zwar bestimmte Aspekte der Intelligenz simulieren können, aber das Bewusstsein nicht auf die gleiche Weise erfahren können wie Menschen. Computer können verschiedene kognitive Funktionen simulieren und sogar Aufgaben ausführen, die intelligent erscheinen. Es stellt sich jedoch die Frage, ob diese Simulation einer echten bewussten Erfahrung entspricht. Skeptiker argumentieren damit, dass selbst dann, wenn sich ein Computer bewusst verhält, ihm möglicherweise die inneren, qualitativen Erfahrungen des Menschen fehlen. |
Question Refinement Pattern
KI kann dazu beitragen, die Qualität Ihrer Anfragen zu verbessern. Wenn Sie beispielsweise eine Frage stellen, kann die KI eine präzise formulierte Frage vorschlagen, die wahrscheinlich zu genaueren Ergebnissen führt.
Diese Fähigkeit ist im Question Refinement Pattern zusammengefasst. Dies erweist sich als besonders nützlich, wenn Ihnen das Fachwissen in einem bestimmten Bereich fehlt oder Sie sich nicht sicher sind, wie Sie Ihre Frage am besten formulieren sollen. Sehen Sie sich dieses Beispiel eines Prompts an:
Nutzende: Wenn ich mich zum Thema Data Science erkundige, schlagen Sie mir eine Frage vor, die sich mehr auf die Besonderheiten der statistischen Analyse konzentriert. Fragen Sie außerdem, ob ich mit der präzisierten Frage fortfahren möchte. |
In diesem Szenario wird erwartet, dass die KI Ihre allgemeinen Data Science-Abfragen verbessert, indem sie sie auf Fragen eingegrenzt, die speziell die Aspekte der statistischen Analyse berücksichtigen. Die KI fragt dann, ob der Nutzende mit der präzisierten Frage fortfahren möchte.
Cognitive Verifier Pattern
Das Cognitive Verifier Pattern beinhaltet eine Methode, bei der komplizierte Fragen in kleinere, leichter handhabbare Teilfragen zerlegt werden. Die Antworten auf diese kleineren Komponenten werden anschließend kombiniert, um eine umfassende Antwort auf die Hauptfrage zu generieren. Dieser Ansatz ist besonders sinnvoll, wenn die anfänglichen Fragen zu allgemein gehalten sind oder wenn für eine ausführliche Antwort zusätzliche Klarheit erforderlich ist. Sehen Sie sich dieses Beispiel an:
Nutzende: Falls ich eine Frage im Bezug auf das Search-Inference Framework of Problem Solving stelle, teilen Sie diese bitte in drei kleinere Fragen auf, die die Genauigkeit der Antwort verbessern würden. Kombinieren Sie die Antworten auf diese Teilfragen, um die endgültige Antwort zu präsentieren. |
In diesem Szenario zerlegt die KI die komplexe Frage bezüglich des Search-Inference Frameworks in drei Unterfragen. Wenn die Antworten für die einzelnen Teilfragen gesammelt wurden, werden sie zu einer umfassenden und genauen Antwort zusammengeführt.
Dieses Pattern beinhaltet die Erstellung mehrerer Anfragen, die letztendlich zu einer präziseren Antwort führen. Der Prozess beinhaltet sowohl die Überprüfung als auch die Konsolidierung der Informationen, um ein robustes und gründliches Ergebnis zu gewährleisten. Das ist vergleichbar mit der Ganzheitsmethode in der Bildungsstrategie.
Chain of Thought-Prompting
In einer kürzlich erschienenen Forschungsarbeit mit dem Titel Chain-of-Thought Prompting Elicits Reasoning in Large Language Models haben Jason Wei und sein Team versucht, logisches Denken innerhalb eines LLM nachzuahmen. Abweichend von der herkömmlichen Praxis der Verwendung direkter Prompts verwendet das Team eine Reihe von miteinander verbundenen Prompts, die eine sogenannte Chain of Thoughts (Gedankenkette) bilden.
Stellen Sie sich beispielsweise einen Nutzenden vor, der die möglichen Auswirkungen von künstlicher Intelligenz auf den Stellenmarkt untersuchen möchte:
Nutzende: Können Sie das Konzept der künstlichen Intelligenz kurz erläutern? KI: Bei der künstlichen Intelligenz (KI) handelt es sich um Maschinen, die intelligente menschliche Verhaltensweisen imitieren. Maschinen werden so entwickelt, dass sie ähnlich wie Menschen denken und lernen und Aufgaben wie das Übersetzen von Sprachen, das Treffen von Entscheidungen und das Lösen von Problemen übernehmen können. Nutzende: Wie wird der aktuelle Stellenmarkt von KI beeinflusst? KI: KI schafft sowohl neue Jobs und verändert die Art der bestehenden. Es automatisiert Routineaufgaben, was zur Verlagerung bestimmter Jobs in bestimmten Sektoren führt. Umgekehrt generiert sie eine Nachfrage nach Positionen, die es so bisher nicht gab, wie KI-Ethikbeauftragte, Datenanalysten sowie Machine Learning Engineers. Darüber hinaus kann KI die menschlichen Aufgaben verbessern und es Einzelpersonen ermöglichen, Aufgaben mit größerer Effizienz und Genauigkeit zu erledigen. |
Der Ansatz des Chain of Thought-Prompting impliziert eine Abfolge von verbundenen Prompts, die ein „Gespräch“ mit dem Sprachmodell herstellen. Dieser Ansatz führt das Modell zu präziseren und kontextgerechten Antworten und fördert so eine Abfolge von Ideen und Argumenten. Sie können die KI auch so trainieren, dass sie Ihren spezifischen Schreibstil nachahmt, solange Ihre Prompts im gleichen Ton, Stil, derselben Haltung und im gleichen Aufbau wie Ihre ideale Antwort verfasst sind.
Chain of Thought ist besonders beim Schreiben von Artikeln effektiv. Wenn Sie einen Artikel, einen Aufsatz oder ein Argument bereits skizziert haben, können Sie Ihre Chain of Prompts entlang dieses Ablaufs strukturieren. Da eine KI nur eine begrenzte Anzahl von Zeichen bereitstellen kann, kann Ihnen die Chain of Thoughts dabei helfen, Informationen für jeweils einen Abschnitt Ihres Artikels abzurufen, anstatt zu versuchen, die KI dazu zu bringen, einen ganzen Artikel auf einmal zu erstellen. So haben Sie mehr Kontrolle über die Informationen und erhalten genauere, detailliertere Antworten. Sie kontrollieren die Struktur, während die KI unter Ihrer Anleitung Teile des gesamten Teils generiert, ein Prompt nach dem anderen.
Research Assistant Pattern
Mit diesem Prompt fordern Sie Unterstützung bei der Suche nach Quellen für ein Forschungsprojekt an. KI reagiert mit drei relevanten Forschungsartikeln. Die Antwort enthält Angaben zu Titel, Autor und Veröffentlichung der Artikel sowie eine kurze Beschreibung des Inhalts. Die KI betont außerdem die Bedeutung von Querverweisen und der Bewertung der Glaubwürdigkeit der Quellen. Das Prompt Design nutzt die Fähigkeiten der KI effektiv zur Unterstützung der Recherche, indem es seriöse Quellen für weitere Studien vorschlägt. Zum Beispiel:
Nutzende: Ich arbeite an einem Forschungsprojekt über die Auswirkungen des Klimawandels auf küstennahe Ökosysteme. Helfen Sie mir dabei, relevante Quellen für meine Studie zu finden. KI: Natürlich! Als Unterstützung für Ihre Recherche zu den Auswirkungen des Klimawandels auf küstennahe Ökosysteme empfehlen wir, mit den folgenden Quellen zu beginnen: **Smith, JR, et al. (2020). „Impacts of Sea-Level Rise and Climate Change on Coastal Ecosystems: A Review.“ Journal of Coastal Research. **Garcia, S., et al. (2019). „Climate Change-Induced Shifts in Coastal Ecosystems: A Global Assessment.“ Environmental Science and Policy. **Johnson, L., et al. (2018). „Vulnerability of Coastal Ecosystems to to Climate Change: Implications for Adaptation Planning.“ Ecology and Society. Diese Artikel liefern wertvolle Einblicke in die Auswirkungen des Klimawandels auf küstennahe Ökosysteme. Denken Sie daran, Querverweise auf diese Quellen zu erstellen und ihre Glaubwürdigkeit für Ihre Studie zu bewerten. Wenn Sie weitere Quellen oder spezifische Informationen benötigen, wenden Sie sich bitte an uns! |
Entscheidend ist, dass Sie mit diesen Eingabeaufforderungen eine der größten Schwächen von KI und LLMs vermeiden können: Fehlinformationen. Indem die KI nach Quellen statt nach Inhalten fragt, kann sie die Zeit, die für die Recherche für Ihr Projekt erforderlich ist, drastisch reduzieren. Sie können aber trotzdem die Quellen bewerten und die Informationen daraus ziehen, die Sie benötigen.
Citation Generator Prompt
Wenn Sie KI damit beauftragen, Inhalte zu verfassen, können Sie von ihnen verlangen, dass sie ihre Quellen angeben und einen Abschnitt mit Referenzen bereitstellen. Geben Sie Ihren bevorzugten Zitatstil an, und die Benutzeroberfläche gibt dieses Format zurück. Sehen Sie sich dieses verkürzte Beispiel an:
Nutzende: Erläutern Sie das Konzept der Quantenverschränkung. Fügen Sie in Ihrer Antwort APA-Zertifizierungen in Klammern im Text sowie einen Abschnitt mit APA-Referenzen ein. KI: Quantenverschränkung ist ein grundlegendes Phänomen der Quantenmechanismen, bei dem zwei oder mehr Elementarteilchen so miteinander verbunden werden, dass ihre Eigenschaften wie Rotation oder Polung unabhängig vom Abstand zwischen ihnen korreliert werden (Griffiths, 2018). Dieser Zusammenhang besteht auch dann, wenn die Atome weit voneinander entfernt sind, was auf einen unmittelbaren Einfluss zwischen ihnen hindeutet, was unser klassisches Verständnis von Ursachen in Frage stellt (Einstein, Podolsky & Rosen, 1935). [...] Referenzen: Einstein, A., Podolsky, B., & Rosen, N. (1935). Kann die quantenmechanische Beschreibung der physischen Realität als vollständig betrachtet werden? Physical Review, 47(10), 777-780. Griffiths, ID (2018). Introduction to Quantum Mechanics (3. Aufl.). Harvard University, Inc. |
Wie immer sollten Sie als Editor fungieren und die Richtigkeit der Informationen überprüfen. Überprüfen Sie alle von der KI bereitgestellten Quellen und stellen Sie sicher, dass die Aussagen der KI über die Argumente einer Quelle richtig sind. Überprüfen Sie außerdem, ob der Abschnitt mit den Verweisen selbst die richtige APA-Formatierung aufweist.
Je nachdem, welchem Bereich Sie recherchieren, werden Sie wahrscheinlich einige der großen Namen im Abschnitt mit den Referenzen schnell erkennen können, was eine Kurzform ist, um die Richtigkeit zu überprüfen. Alain Aspect wurde beispielsweise im Jahr 2022 für seine jahrzehntelangen Arbeiten zur Quantenverschränkung mit dem Nobelpreis für Physik ausgezeichnet. Wenn sein Name also bei einer Umfrage zum Thema Quantenverschränkung ganz oben auf der Referenzliste steht, ist das ein vielversprechendes Zeichen dafür, dass die von der KI verwendete Quelle zuverlässig ist.
Diese Art von Prompts ist ein weiteres Beispiel dafür, warum menschliche Autoren, Redakteure und Forschende mit Fachkenntnissen in einem bestimmten Thema für den Prozess der Inhaltserstellung entscheidend sind. KI kann den Prozess beschleunigen, aber sie ersetzt keinen menschlichen Autor.
Die Aufforderung an die KI, ihre Quellen zu referenzieren, ist besonders wirkungsvoll, wenn sie mit dem Chain of Thought-Prompting kombiniert wird. Um die beiden zu kombinieren, folgen Sie der oben erläuterten Strategie für das Chain of Thought-Prompting. Bevor Sie jeden einzelnen Prompt eingeben, fragen Sie die KI, die Quellen im gewünschten Format anzugeben. Senden Sie dann die Anforderung.
Few-Shot Pattern
Few-Shot Prompting ist eine wirkungsvolle Methode, mit der KI-Modelle darauf trainiert werden, bestimmte Muster einzuhalten oder Aufgaben auszuführen. Die Grundidee besteht darin, dem Modell einige Beispiele zu liefern, bevor die eigentliche Frage gestellt wird. Diese Praxis hilft dabei, das gewünschte Verhalten zu definieren und die nachfolgenden Reaktionen des Modells zu steuern.
Stellen Sie sich eine Situation vor, in der Sie eine prägnante und interessante Marketingbotschaft für ein neues Tech-Gadget formulieren möchten:
Nutzende: Hier sind einige Beispiele für technische Marketingbotschaften: „Erleben Sie Musik wie nie zuvor mit unseren modernen kabellosen Kopfhörern.“ „Erfassen Sie die Welt in beeindruckendem 4K mit unserer unglaublich eleganten Action-Kamera.“ Erstellen Sie anhand dieser Beispiele eine Marketingbotschaft für unsere innovative KI-gestützte Smartwatch. KI: Bereichern Sie Ihren Alltag mit unserer KI-basierten Smartwatch, Ihrem Partner für Wellness, Konnektivität und Effizienz. |
Das Bemerkenswerte an diesem Few-Shot Konzept ist, dass es sich nicht auf detaillierte Verfahrensanweisungen, sondern auf Demonstrationen stützt. Dadurch ist es für verschiedene Anwendungen anpassbar. Diese Technik geht über den grundlegenden Input-Output Abgleich hinaus. Dadurch kann das Modell lernen, wie Zwischenschritte gehandhabt werden, um ein bestimmtes Ziel zu erreichen. Diese Methode ist ideal, wenn es darum geht, Iterationen von kurzen Texten wie Überschriften, kurzen Fließtext, Betreffzeilen, Social Media Anzeige, CTAs (Calls-to-Action) usw. zu entwickeln.
Nachdem Sie nun diese besonders hilfreichen Prompt Patterns kennen, sollten Sie sie im LLM Ihrer Wahl ausprobieren. Ich habe ChatGPT in meinen Beispielen verwendet.
Künstliche Intelligenz ermöglicht neue Entdeckungen und Erfahrungen in den unterschiedlichsten Bereichen und Branchen. Erfahren Sie mehr über die Plattformen von Red Hat, um KI-Modelle und -Anwendungen zu entwickeln, bereitzustellen, zu überwachen und einzusetzen, und profitieren Sie von der Geschwindigkeit, dem Vertrauen und der Transparenz der Open Source Community.
Über den Autor
Michael Santos has been with Red Hat since 2022. He works on learning paths, product trials and other technical learning content.
Mehr davon
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Original Shows
Interessantes von den Experten, die die Technologien in Unternehmen mitgestalten