Was ist Machine Learning?

URL kopieren

Machine Learning (ML) oder maschinelles Lernen ist eine Unterkategorie der künstlichen Intelligenz (KI). Dabei kommen Algorithmen zum Einsatz, um Muster in Datensätzen zu erkennen und Vorhersagen zu treffen. Diese Daten können aus Zahlen, Text oder sogar Fotos bestehen. Unter idealen Bedingungen ermöglicht Machine Learning dem Menschen eine schnellere und präzisere Interpretation von Daten, als es dem Menschen selbst je möglich wäre. Maschinelles Lernen wird von mathematischen Grundlagen abgeleitet, die es Algorithmen ermöglichen, aus Daten zu lernen, Vorhersagen zu treffen und Modelle zu optimieren.

Mehr über Red Hat AI erfahren

Künstliche Intelligenz entsteht, wenn Menschen Maschinen so programmieren, dass sie einen Eindruck menschenähnlicher Intelligenz vermitteln. Für Machine Learning bedeutet das, dass Maschinen so programmiert werden, dass sie bestimmte kognitive Funktionen nachahmen, über die der Mensch von Natur aus verfügt, wie etwa Wahrnehmung, Lernen und Problemlösung. 

Wie wird erreicht, dass eine Maschine „denkt“ wie ein Mensch? Sie wird so trainiert, dass sie ihr eigenes Vorhersagemodell erstellen kann. Dieses Vorhersagemodell dient als das Mittel, mit dessen Hilfe die Maschine Daten analysiert und letztendlich zu einer „lernenden“ Maschine wird. Dazu müssen Sie dem Computer Daten zur Verfügung stellen und ein Lernmodell auswählen, das der Maschine vorgibt, wie sie die Daten zu verarbeiten hat. 

Mehr über den Einsatz von KI in Unternehmen erfahren

Ein ML-Modell kann Daten letztlich für 3 Funktionen nutzen:

  • Beschreiben, was passiert ist
  • Vorhersagen, was passieren wird
  • Vorschlagen, welche Maßnahmen als nächstes zu ergreifen sind

Einführung von ML-Praktiken in Ihrem Unternehmen

Welches Lernmodell zum Trainieren der Maschine gewählt wird, hängt von der Komplexität der Aufgabe und dem gewünschten Ergebnis ab. Machine Learning wird in der Regel in 3 Lernmethoden unterteilt: Supervised Learning (überwachtes Lernen), Unsupervised Learning (unüberwachtes Lernen) und Reinforcement Learning (bestärkendes Lernen).

Supervised Learning-Modelle werden mit gekennzeichneten Datensätzen trainiert. Dieses Modell wird für Aufgaben wie Bilderkennung verwendet.

Unsupervised Learning-Modelle prüfen nicht gekennzeichnete Daten und suchen nach Gemeinsamkeiten, Mustern und Trends. Dieses Modell wird für Aufgaben wie Kundensegmentierung, Empfehlungssysteme und allgemeine Datenexploration verwendet.

Reinforcement Learning-Modelle trainieren nach dem Trial and Error-Prinzip innerhalb eines etablierten Belohnungssystems. Diese Art des Lernens wird beispielsweise verwendet, um einem Computer beizubringen, ein Spiel zu spielen, bei dem Aktionen zu einem Sieg oder einer Niederlage führen. 

Sobald der Computer mit der Art und Weise vertraut ist, wie er Daten interpretieren soll (dank des Lernmodells und der Trainingsdaten), kann er Vorhersagen treffen und Aufgaben ausführen, wenn ihm neue Daten vorgelegt werden. Nach und nach kann der Computer immer genauere Vorhersagen treffen, da er aus kontinuierlichen Datenstreams lernt und in der Lage ist, Aufgaben in kürzerer Zeit und mit größerer Genauigkeit auszuführen als ein Mensch.

Hybrid Cloud-Plattform für KI/ML-Workloads entwickeln

Red Hat Ressourcen

In der Trainingsphase des Machine Learnings lernt das Modell anhand eines bereitgestellten Datensatzes. In dieser Phase besteht das Ziel der Entwicklungsteams darin, die Parameter des Modells anzupassen und Fehler in der Ausgabe zu minimieren. Durch das Training von KI-Modellen lassen sich die Genauigkeit und Geschwindigkeit der KI-Inferenz verbessern.

Dies geschieht durch das Erstellen einer Pipeline, über die Daten durch das Modell geschickt und seine Vorhersagen bewertet werden. Anschließend wird das Modell anhand der Vorhersagen optimiert. Die Pipeline umfasst häufig die folgenden Schritte:

  1. Erfassen und Vorbereiten von Daten: Daten werden erfasst und anschließend vorbereitet, indem sie in Trainings- und Testdaten unterteilt, unerwünschte Daten entfernt und für eine gleichmäßige Verteilung zufällig angeordnet werden. Wenn die Anzahl der Eingabevariablen oder Features in einem Datensatz derart reduziert wird, wesentliche Informationen aber beibehalten werden, spricht man auch von einer Reduzierung der Dimensionalität.
  2. Auswählen des Modells: Data Scientists und Engineers haben verschiedene ML-Algorithmen für unterschiedliche Aufgaben wie Spracherkennung, Bildanalyse, Vorhersage und mehr entwickelt.
  3. Trainieren: Die vorbereiteten Eingabedaten werden durch das Modell gesendet, um Muster zu finden (Mustererkennung) und Vorhersagen zu treffen.
  4. Bewerten: Nach dem Training wird die Ausgabe eines Modells anhand eines bislang nicht genutzten Datensatzes bewertet.

Tuning: Entwicklungsteams stimmen die Parameter anschließend per Fine Tuning ab, um das Modell basierend auf den Erkenntnissen des vorherigen Bewertungsschritts noch weiter zu verbessern.

Häufige Herausforderungen bei Training und Bewertung

Bei einem Modell, das mit den Trainingsdaten gut funktioniert, aber bei einem Durchlauf mit den Testdaten schlecht abschneidet, liegt unter Umständen eine Überanpassung vor. Das bedeutet, es lernt zu viel vom als „Noise“ bezeichneten „Rauschen“ in den Trainingsdaten, also unerwünschten oder irrelevanten Information, die die Qualität beeinträchtigen. Bei einem Modell, das mit beiden Datensätzen schlecht abschneidet, besteht möglicherweise eine Unteranpassung – das Modell hat die zugrunde liegenden Muster nicht erlernt.

LoRA und QLoRA sind ressourceneffiziente Methoden zum Fine Tuning, mit denen Nutzende eine Überanpassung vermeiden können.

Um eine Überanpassung der Trainingsdaten zu vermeiden, kann ein separater Validierungsdatensatz verwendet werden. Die Ausgabe des Modells wird nach den einzelnen Iterationen anhand der Validierungsdaten bewertet. Anschließend werden Änderungen vorgenommen, um eine Überanpassung zu verhindern. Durch die hier angewendete Reduzierung der Dimensionalität werden also irrelevante Daten entfernt, die zu einer Überanpassung führen könnten. Bei einer solchen Reduzierung muss jedoch vorsichtig vorgegangen werden, da es sonst zu einer Unteranpassung kommen kann.

Eine Unteranpassung korrigieren die Entwicklungsteams, indem sie informativere Features hinzufügen. Dadurch kann die Fähigkeit des Modells, komplexe Beziehungen in den Daten zu erkennen, verbessert werden.

Datenlecks treten auf, wenn Informationen des Testdatensatzes versehentlich in den Trainingsdatensatz gelangen, was dem Modell einen unfairen Vorteil verschafft und eine überschätzte Performance zur Folge hat.

Tuning, neue Features und relevantere Daten können Fehler in zukünftigen Iterationen minimieren. 

Neuronale Netze beziehen sich auf einen Algorithmustyp, der im Machine Learning genutzt wird. Sie eignen sich besonders für Aufgaben, bei denen es um komplexe, nicht lineare Beziehungen in Daten geht. Deep Learning (DL) ist ein Teilbereich von Machine Learning, bei dem mehrschichtige neuronale Netze verwendet werden. Diese tiefen neuronalen Netze sind gut strukturiert, sodass sie hierarchische Darstellungen von Daten erlernen können. Das macht Deep Learning zu einer extrem leistungsstarken Lösung für Aufgaben wie Bilderkennung, Verarbeitung natürlicher Sprache und Spracherkennung.

Machine Learning und künstliche Intelligenz können eingesetzt werden, um das Benutzererlebnis zu verbessern, das Kundenverhalten zu antizipieren und Systeme zur Betrugserkennung zu überwachen. Sie können sogar Fachkräften im Gesundheitswesen helfen, lebensbedrohliche Erkrankungen frühzeitig zu erkennen. Die meisten von uns profitieren von Machine Learning und arbeiten täglich damit. Zu den gängigen Use Cases für Machine Learning gehören etwa:

  • Empfehlungsalgorithmen bei Ihren bevorzugten Streaming-Diensten
  • Automatische Hotlines und Chatbots
  • Gezielte Werbung
  • Automatisierte Angebote von Finanzinstituten

Prädiktive KI im Vergleich zu generativer KI

Generative KI, auf der mittlerweile viele KI-Tools basieren, wird durch Deep Learning ermöglicht, einer Maschine Learning-Technik zur Analyse und Interpretation großer Datenmengen. Large Language Models (LLMs), eine Untergruppe der generativen KI, stellen mit ihrer Fähigkeit zum Verstehen und Erzeugen menschlicher Sprache in einem noch nie dagewesenen Umfang eine entscheidende Anwendung von Machine Learning dar. 

Machine Learning wird für viele Unternehmen immer mehr zu einer selbstverständlichen Funktion, und in den Bereichen Gesundheitswesen , Finanzdienstleistungen, Telekommunikation, Behörden und anderen Branchen gibt es Use Cases für transformative KI/ML.

Use Cases für generative KI ansehen
Use Cases für prädiktive KI ansehen

Da ML-Modelle aus historischen Daten lernen, können sie Voreingenommenheit und Diskriminierung erlernen, die implizit in den Daten enthaltene menschliche Entscheidungen beeinflussen. Beispielsweise können Daten eine vorhandene rassistische, geschlechtsspezifische oder sozioökonomische Voreingenommenheit in einer Gesellschaft widerspiegeln. Werden die Trainingsdaten nicht von Bias bereinigt, kann das Modell solche Vorurteile aufrechterhalten und sogar verstärken.

Genauso können Entscheidungen von ML-Modellen, etwa bei Kreditgenehmigungen, Einstellungen oder strafrechtlichen Verurteilungen, Randgruppen überproportional betreffen. Fairness-Frameworks sollen gerechte Ergebnisse in den verschiedenen Gruppen sicherstellen.

Ein ML-Modell kann als „Black Box“ betrachtet werden, da seine internen Prozesse weder sichtbar noch nachvollziehbar sind. Durch fehlende Transparenz können Menschen nur schwer verstehen, wie ein Modell Entscheidungen fällt, was wiederum zu fehlendem Vertrauen führen kann.

Trifft ein ML-System eine falsche Entscheidung, die etwa auf Bias oder Diskriminierung basiert, stellt sich die schwierige Frage der Verantwortlichkeit. Liegt die Verantwortung für die Entscheidung eines ML-Modells bei einer Entwicklerin oder einem Entwickler, der Organisation, die das System nutzt, oder beim System selbst?

Machine Learning erfordert enorme Datenmengen, um effektive Modelle zu trainieren. Dies stellt einen Anreiz für Unternehmen dar, große Mengen an personenbezogenen Daten zu erfassen und zu speichern, was Bedenken hinsichtlich Datenschutz und eines möglichen Datenmissbrauchs aufwirft.

Außerdem erhöht das Speichern großer Datensätze mit persönlichen Informationen das Risiko von Datenpannen mit Auswirkungen auf Einzelpersonen, etwa durch Identitätsdiebstahl, Finanzbetrug oder Rufschädigung.

Red Hat bietet eine gemeinsame Basis für Ihre Teams, auf der sie KI-Anwendungen und ML-Modelle mit Transparenz und Kontrolle entwickeln und bereitstellen können.

Red Hat® OpenShift® AI ist eine Plattform, die KI-Modelle für Ihren besonderen Use Case und mit Ihren eigenen Daten trainieren, mit Prompt Tuning sowie Fine Tuning optimieren und bereitstellen kann.

Für umfangreiche KI-Implementierungen bietet Red Hat OpenShift eine skalierbare Anwendungsplattform, die für KI-Workloads geeignet ist und Zugang zu gängigen Hardwarebeschleunigern bietet.

Red Hat hat auch die ML-Technologie zur Entwicklung neuer Services angewendet, darunter Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant und Red Hat OpenShift Lightspeed, die IT-Fachleute bei der effizienteren Arbeit unterstützen.

Darüber hinaus bieten die Partnerintegrationen von Red Hat den Zugang zu einem Ökosystem zuverlässiger KI-Tools, die für die Zusammenarbeit mit Open Source-Plattformen entwickelt wurden.

Mehr über OpenShift AI erfahren

Erste Schritte mit KI für Unternehmen: Ein Guide für den Einstieger

In diesem Guide für den Einstieg erfahren Sie, wie Red Hat OpenShift AI und Red Hat Enterprise Linux AI die KI-Einführung beschleunigen können.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

Was ist generative KI? Künstliche Intelligenz im Einsatz

Entdecken Sie die Vorteile und Potenziale generativer KI für Ihr Unternehmen. Erfahren Sie mehr über die Funktionsweise von gen KI und Deep Learning (DL).

Was sind Large Language Models? Große Sprachmodelle für KI

Erfahren Sie, was ein Large Language Model (LLM) ist, wie es funktioniert, wofür es eingesetzt wird und welche Rolle es in modernen KI-Anwendungen spielt.

Was ist Unternehmens-KI? KI im Einsatz für Unternehmen

Erfahren Sie, was Enterprise AI ist und wie Unternehmen skalierbare KI-Lösungen von Red Hat nutzen und KI-Anwendungen im großen Umfang effizient bereitstellen.

Ressourcen zu KI/ML

Verwandte Artikel