Was sind Granite-Modelle?

URL kopieren

Bei Granite handelt es sich um Large Language Models (LLMs), die von IBM für Unternehmensanwendungen entwickelt wurden. Granite-Basismodelle können Use Cases für generative künstliche Intelligenz (gen KI) unterstützen, die Sprache und Code enthalten.

Modelle der Granite-Familie verfügen über eine Open Source Assurance unter der Apache 2.0-Lizenz, sodass Entwicklungsteams kostenlos mit Granite-Modellen experimentieren und diese sowohl modifizieren als auch weitergeben können. Aus diesem Grund sind Granite-Modelle eine gute Wahl für Unternehmen, die sensible Daten handhaben und daher ihr eigenes LLM ausführen möchten, statt sich auf einen externen Service zu verlassen.

So funktioniert Granite mit Red Hat

Die Basismodelle (Foundation Models) werden darauf trainiert, mit einem allgemeinen Verständnis von Mustern, Strukturen und Sprachabbildungen zu arbeiten. Durch dieses Basistraining lernt das Modell, wie es kommunizieren und diese Muster erkennen kann.

Die Granite-KI-Modelle von IBM verfügen über ein solches grundlegendes Wissen, das sich durch Fine Tuning weiter anpassen lässt, damit die Modelle bestimmte Aufgaben für nahezu alle Branchen ausführen können. Die Modelle der Granite-Familie werden anhand kuratierter Daten trainiert und bieten dabei Transparenz über die verwendeten Trainingsdaten.

LLMs nutzen gen KI, um neue Inhalte zu produzieren, die auf den Prompts der Nutzenden basieren. Heute wird gen KI oft zum Generieren von Texten, Bildern, Videos und Code verwendet. Unternehmen können mit LLM-Basismodellen verschiedene Aspekte ihrer betrieblichen Abläufe automatisieren, etwa Chatbots für den Kundensupport oder Code zum Testen von Software.

Weitere LLM-Basismodelle, die gen KI nutzen, sind LLaMa von Meta (beinhaltet LLaMa 2 und LLaMa 3), Gemini von Google, Claude von Anthropic, GPT von OpenAI (bekannt für ihren ChatGPT-Bot) sowie Mistral. Was die Granite-KI-Modelle von den anderen Basismodellen unterscheidet, ist die Offenlegung der Trainingsdaten. Dies sorgt dafür, dass das Vertrauen der Nutzenden wächst und die Modelle sich besser für Unternehmensumgebungen eignen.

Red Hat Ressourcen

Ja, einige Granite-KI-Modelle sind unter einer Open Source-Lizenz verfügbar. Entwicklungsteams können dadurch einfach auf das Modell zugreifen und lokal darauf aufbauen. Anschließend können sie das Modell per Fine Tuning für ihre speziellen Ziele anpassen. Nutzende haben sogar Zugriff auf den Großteil der Daten, mit denen das Modell trainiert wurde (PDF), und können so besser verstehen, wie es entwickelt wurde und wie es funktioniert.

In Bezug auf Granite-Modelle bedeutet Open Source einen gewissen Spielraum, innerhalb dessen Entwicklungsteams das Modell mit eigenen Daten anpassen und so nutzerspezifische Ausgaben generieren können. Dies bedeutet jedoch nicht, dass die gesamte Open Source Community auf die persönlichen Daten der Beteiligten zugreifen kann. Anders als bei Webservice-KI werden Granite-Modelle nicht kontinuierlich trainiert. Damit werden Dateneingaben bei den Modellen der Granite-Familie niemals mit Red Hat, IBM oder anderen Granite-Nutzenden geteilt.

Unternehmen vieler Branchen – vom Gesundheitswesen bis hin zum Bauwesen – können mit Granite ihre Abläufe auf verschiedene Weise in großem Umfang automatisieren. Granite-Modelle können für geschäftliche Aufgaben wie Zusammenfassen, Beantworten von Fragen und Klassifizieren trainiert werden. Hier finden Sie einige Beispiele:

  • Code generieren: Mit Granite-Codemodellen können Sie auf der Arbeit anderer Entwickelnder aufbauen oder deren Arbeit verbessern, um Prozesse effizienter zu gestalten. Beispielsweise können Entwicklungsteams die Vorteile von Autovervollständigung nutzen: Ähnlich der Autovervollständigungsfunktion auf Smartphones kann das Modell einen Satz im Code beenden, noch bevor die oder der Entwickelnde den Satz zu Ende getippt hat. 
  • Erkenntnisse gewinnen: Wenn Sie große Datensätze vereinfachen, zusammenfassen oder erklären müssen, kann Granite korrekte Muster und Erkenntnisse schnell identifizieren. Das erspart Ihnen den lästigen Aufwand, eine Unmenge an Daten selbst zu durchkämmen. 

Weitere Use Cases für KI ansehen

  • Flexible Architektur: Granite lässt sich in bestehende Systeme integrieren und sowohl On-Premise als auch in der Cloud bereitstellen. Die Schnittstellen sind darauf ausgelegt, Deployments zu vereinfachen. Die Granite-Familie umfasst Modelle verschiedener Größen, sodass Sie das Modell wählen können, das Ihren Anforderungen am besten entspricht und gleichzeitig Ihrem Computing-Budget gerecht wird.
  • Benutzerdefinierte Lösungen: Granite wird zwar als Basismodell verkauft, ist aber darauf ausgelegt, für geschäftsspezifisches Wissen trainiert zu werden. Nutzende profitieren von der Flexibilität, das Modell ihren geschäftlichen Anforderungen entsprechend skalieren und per Fine Tuning anpassen zu können. Wenn Ihr Unternehmen sich beispielsweise auf medizinische Geräte spezialisiert hat, können Sie dem Modell den Fachjargon des Gesundheitswesens beibringen. 
  • Geringe Latenz: Wenn Sie ein Granite-Modell in Ihrer eigenen Infrastruktur ausführen, können Sie es für schnellere Antworten optimieren. Das Modell kann Echtzeitdaten liefern und ist dadurch für wichtige Abläufe praktisch. Bei unserem Beispiel Gesundheitswesen ist der Zugriff auf Echtzeitdaten für die Remote-Zusammenarbeit des ärztlichen Fachpersonals mit Patientinnen und Patienten sowie für die zeitkritische Behandlung von enormer Bedeutung. 
  • Hohe Genauigkeit: Entwicklungsteams können die Granite-Reihe per Fine Tuning für branchenspezifische Aufgaben anpassen, um dem Modell Expertenwissen zu beliebigen Themen zu geben. Es kann zudem in mehreren Sprachen trainiert werden, um Genauigkeit und Zugänglichkeit in globalem Umfang zu erreichen. 
  • Transparente Modelle: Da Granite unter einer Open Source-Lizenz verfügbar ist, ist es für Entwicklungsteams ersichtlich, wie das KI-Modell entwickelt und trainiert wurde. Außerdem können sie dadurch mit einer Open Source Community zusammenarbeiten.

IBM hat mehrere Granite-Modelle veröffentlicht, um den Anforderungen von Unternehmensanwendungen gerecht zu werden, die zunehmend komplexer werden. Dabei gibt es verschiedene Kategorien und Namenskonventionen der Modellreihen innerhalb der Granite-Familie.

Die unterschiedlichen Reihen dienen jeweils einem konkreten Zweck:

  • Granite for Language: Diese Modelle liefern akkurates Natural Language Processing (NLP) in mehreren Sprachen bei geringer Latenz.
  • Granite for Code: Diese Modelle werden auf mehr als 100 verschiedenen Programmiersprachen trainiert, um unternehmensgerechte Softwareaufgaben zu unterstützen.
  • Granite for Time Series: Diese Modelle werden per Fine Tuning für die Prognose von Zeitreihen angepasst, einer Methode zum Vorhersagen zukünftiger Daten anhand von Daten aus der Vergangenheit.
  • Granite for GeoSpatial: Dieses von IBM und der NASA entwickelte Basismodell beobachtet die Erde und erfasst dabei Satellitendaten in großem Umfang, was das Nachverfolgen und Reagieren auf Umweltveränderungen ermöglicht.

Innerhalb dieser Reihen bietet Granite jeweils Modelle unterschiedlicher Größen und Fachgebiete. So umfasst Granite for Language beispielsweise Folgendes:

  • Granite-7b-base, ein allgemeines Sprachmodell für Unterhaltungen und Chats
  • Granite-7b-instruct, ein auf das Befolgen von Aufgabenanweisungen spezialisiertes Modell

Granite-Modelle auf Hugging Face entdecken

Unser KI-Produktportfolio Red Hat® AI basiert auf den vertrauenswürdigen Lösungen, die unsere Kunden bereits nutzen. Dank dieser Basis bleiben unsere Produkte auch weiterhin zuverlässig, flexibel und skalierbar.

Mit dem KI-Portfolio von Red Hat können Unternehmen:

  • KI schnell einführen und Innovationen schaffen
  • Die Komplexitäten beim Bereitstellen von KI-Lösungen umgehen
  • Anwendungen in vielen verschiedenen Umgebungen bereitstellen

Mit KI von Red Hat erhalten Sie Zugriff auf die LLMs der Granite-Familie und können gleichzeitig Funktionen zum Einsatz Ihrer eigenen Modelle nutzen. Zusätzlich dazu bieten unsere Consultants Ihnen praktischen Support für Ihre besonderen Use Cases auf Unternehmensniveau, wenn Sie gen KI-Anwendungen zusammen mit kritischen Workloads entwickeln und bereitstellen.

KI von Red Hat entdecken

 

Einfacher Zugriff auf LLMs der Granite-Familie

Red Hat Enterprise Linux® AI ist eine Basismodellplattform für das Entwickeln, Testen und Ausführen von LLMs der Granite-Familie. Der Open Source-Ansatz hält die Kosten niedrig und sorgt dafür, dass der Einstieg für eine große Bandbreite an Nutzenden möglich ist. Diese Plattform ermöglicht Ihnen, mit Ihren eigenen Daten zu experimentieren, wodurch Sie Schritt für Schritt und in Ihrem eigenen Tempo lernen können. Damit ist sie ein guter Ausgangspunkt, wenn Sie noch nicht genau wissen, wie die Use Cases Ihres Unternehmens genau aussehen. Red Hat Enterprise Linux® AI ist eine Basismodellplattform für das Entwickeln, Testen und Ausführen von LLMs der Granite-Familie. Der Open Source-Ansatz hält die Kosten niedrig und sorgt dafür, dass der Einstieg für eine große Bandbreite an Nutzenden möglich ist.

Mehr über Red Hat Enterprise Linux AI erfahren

 

Einstieg in InstructLab

Red Hat Enterprise Linux AI beinhaltet InstructLab, ein Projekt der Open Source Community zum Optimieren von LLMs. Dank der Features von InstructLab können Entwickelnde mit unterschiedlichen Kompetenzstufen und Ressourcen einfach zum Projekt beitragen. Dadurch ist das Projekt ein guter Ausgangspunkt, um mit dem Experimentieren mit KI-Modellen zu beginnen. So sind beispielsweise während des Modelltrainings weit weniger von Menschen generierte Informationen und Rechenressourcen erforderlich. Da InstructLab außerdem nicht modellspezifisch ist, können Sie damit das LLM Ihrer Wahl durch ein zusätzliches Fine Tuning weiter anpassen.

Video zum Trainieren von LLMs mit InstructLab ansehen

Hub

Der offizielle Red Hat Blog

Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

RAG im Vergleich zu Fine Tuning

Sowohl RAG als auch Fine Tuning dienen der Verbesserung von LLMs, verwenden allerdings unterschiedliche Methoden. RAG verzichtet auf Änderungen am Modell, während Fine Tuning Anpassungen seiner Parameter erfordert.

Was ist ein großes Sprachmodell (LLM)? Large Language Model

Große Sprachmodelle (LLMs) sind KI-Modelle, die Techniken des Machine Learnings (ML) nutzen, um natürliche Sprache zu verstehen und zu generieren.

KI in der Telekommunikation mit Red Hat

Erfahren Sie, wie die richtigen IT-Lösungen Ihrem Telekommunikationsunternehmen helfen können, KI effizient und kostengünstig zu nutzen, um allgemeine Herausforderungen zu überwinden.

Ressourcen zu KI/ML

Ausgewähltes Produkt

  • Red Hat Enterprise Linux AI

    Eine Plattform für Basismodelle, mit der Sie Unternehmensanwendungen mithilfe von großen Sprachmodellen (LLMs) der Granite-Familie nahtlos entwickeln, testen und bereitstellen können.

Verwandte Artikel