Was sind Granite-Modelle?

URL kopieren

Bei Granite handelt es sich um Large Language Models (LLMs), die von IBM für Unternehmensanwendungen entwickelt wurden. Granite-Basismodelle können Use Cases für generative künstliche Intelligenz (gen KI) unterstützen, die Sprache und Code enthalten.

Modelle der Granite-Familie verfügen über eine Open Source Assurance unter der Apache 2.0-Lizenz, sodass Entwicklungsteams kostenlos mit Granite-Modellen experimentieren und diese sowohl modifizieren als auch weitergeben können. Aus diesem Grund sind Granite-Modelle eine gute Wahl für Unternehmen, die sensible Daten handhaben und daher ihr eigenes LLM ausführen möchten, statt sich auf einen externen Service zu verlassen.

Mehr über Granite und Red Hat erfahren

Die Basismodelle werden darauf trainiert, mit einem allgemeinen Verständnis von Mustern, Strukturen und Sprachabbildungen zu arbeiten. Durch dieses Basistraining lernt das Modell, wie es kommunizieren und diese Muster erkennen kann. Dies wird als KI-Inferenz bezeichnet. KI-Inferenz bezeichnet die operative Phase der KI, in der das Modell das im Training Gelernte auf reale Situationen anwenden kann.

Die Granite-KI-Modelle von IBM verfügen über ein solches grundlegendes Wissen, das sich durch Fine Tuning weiter anpassen lässt, damit die Modelle bestimmte Aufgaben für nahezu alle Branchen ausführen können. Die Modelle der Granite-Familie werden anhand kuratierter Daten trainiert und bieten dabei Transparenz über die verwendeten Trainingsdaten.

LLMs nutzen gen KI, um neue Inhalte zu produzieren, die auf den Prompts der Nutzenden basieren. Heute wird gen KI oft zum Generieren von Texten, Bildern, Videos und Code verwendet. Unternehmen können mit LLM-Basismodellen verschiedene Aspekte ihrer betrieblichen Abläufe automatisieren, etwa Chatbots für den Kundensupport oder Code zum Testen von Software.

Weitere LLM-Basismodelle, die gen KI nutzen, sind LLaMa von Meta (beinhaltet LLaMa 2 und LLaMa 3), Gemini von Google, Claude von Anthropic, GPT von OpenAI (bekannt für ihren ChatGPT-Bot) sowie Mistral. Was die Granite-KI-Modelle von den anderen Basismodellen unterscheidet, ist die Offenlegung der Trainingsdaten. Dies sorgt dafür, dass das Vertrauen der Nutzenden wächst und die Modelle sich besser für Unternehmensumgebungen eignen.

Red Hat Ressourcen

Ja, einige Granite-KI-Modelle sind unter einer Open Source-Lizenz verfügbar. Entwicklungsteams können dadurch einfach auf das Modell zugreifen und lokal darauf aufbauen. Anschließend können sie das Modell per Fine Tuning für ihre speziellen Ziele anpassen. Nutzende haben sogar Zugriff auf den Großteil der Daten, mit denen das Modell trainiert wurde (PDF), und können so besser verstehen, wie es entwickelt wurde und funktioniert.

In Bezug auf Granite-Modelle bedeutet Open Source einen gewissen Spielraum, innerhalb dessen Entwicklungsteams das Modell mit eigenen Daten anpassen und so nutzerspezifische Ausgaben generieren können. Dies bedeutet jedoch nicht, dass die gesamte Open Source Community auf die persönlichen Daten der Beteiligten zugreifen kann. Anders als bei Webservice-KI werden Granite-Modelle nicht kontinuierlich trainiert. Damit werden Dateneingaben bei den Modellen der Granite-Familie niemals mit Red Hat, IBM oder anderen Granite-Nutzenden geteilt.

Unternehmen vieler Branchen – vom Gesundheits- bis hin zum Bauwesen – können mit Granite-Modellen ihre Abläufe auf verschiedene Weise in großem Umfang automatisieren. Granite-Modelle können für geschäftliche Aufgaben wie Zusammenfassen, Beantworten von Fragen und Klassifizieren trainiert werden. Hier finden Sie einige Beispiele:

  • Codegenerierung: Mit Granite-Codemodellen können Sie auf der Arbeit anderer Entwicklungsteams aufbauen oder deren Arbeit verbessern, um Prozesse effizienter zu gestalten. Beispielsweise können Entwicklungsteams die Vorteile von Autovervollständigung nutzen: Ähnlich der Autovervollständigungsfunktion auf Smartphones kann das Modell einen Satz im Code beenden, noch bevor die Entwicklerin oder der Entwickler den Satz zu Ende getippt hat.
  • Erkenntnisgewinnung: Wenn Sie große Datensätze vereinfachen, zusammenfassen oder erklären müssen, kann Granite korrekte Muster und Erkenntnisse schnell identifizieren. Das erspart Ihnen den lästigen Aufwand, eine Unmenge an Daten selbst zu durchkämmen. 
  • Flexible Architektur: Granite lässt sich in bestehende Systeme integrieren und sowohl On-Premise als auch in der Cloud bereitstellen. Die Schnittstellen sind darauf ausgelegt, Deployments zu vereinfachen. Die Granite-Familie umfasst Modelle verschiedener Größen, sodass Sie das Modell wählen können, das Ihren Anforderungen am besten entspricht und gleichzeitig Ihrem Computing-Budget gerecht wird.
  • Benutzerdefinierte Lösungen: Obwohl Granite als Basismodell verkauft wird, ist es so konzipiert, dass es für geschäftsspezifisches Wissen trainiert werden kann. Nutzende profitieren von der Flexibilität, das Modell ihren geschäftlichen Anforderungen entsprechend skalieren und per Fine Tuning anpassen zu können. Wenn Ihr Unternehmen sich beispielsweise auf medizinische Geräte spezialisiert hat, können Sie dem Modell den Fachjargon des Gesundheitswesens beibringen.
  • Geringe Latenz: Wenn Sie ein Granite-Modell in Ihrer eigenen Infrastruktur ausführen, können Sie es für schnellere Antworten optimieren. Das Modell kann Echtzeitdaten liefern und ist dadurch für wichtige Abläufe praktisch. Bei unserem Beispiel Gesundheitswesen ist der Zugriff auf Echtzeitdaten für die Remote-Zusammenarbeit des ärztlichen Fachpersonals mit Patientinnen und Patienten sowie für die zeitkritische Behandlung von enormer Bedeutung. 

    Durch Komprimieren des Granite-Modells lässt sich eine starke Performance mit weniger Ressourcen erzielen.

  • Hohe Genauigkeit: Entwicklungsteams können die Granite-Reihe per Fine Tuning für branchenspezifische Aufgaben anpassen, um dem Modell Expertenwissen zu beliebigen Themen zu geben. Es kann zudem in mehreren Sprachen trainiert werden, um Genauigkeit und Zugänglichkeit in globalem Umfang zu erreichen.
  • Transparente Modelle: Da Granite über eine Open Source-Lizenz verfügbar ist, ist es für Entwicklungsteams ersichtlich, wie das KI-Modell entwickelt und trainiert wurde. Außerdem können sie so mit einer Open Source Community zusammenarbeiten.

IBM hat mehrere Granite-Modelle veröffentlicht, um den Anforderungen von Unternehmensanwendungen gerecht zu werden, die zunehmend komplexer werden. Dabei gibt es verschiedene Kategorien und Namenskonventionen der Modellreihen innerhalb der Granite-Familie.

Die unterschiedlichen Reihen dienen jeweils einem konkreten Zweck:

  • Granite for Language: Diese Modelle liefern akkurates Natural Language Processing (NLP) in mehreren Sprachen bei geringer Latenz.

    Use Cases für generative KI ansehen

  • Granite for Code: Diese Modelle werden auf mehr als 100 verschiedenen Programmiersprachen trainiert, um unternehmensgerechte Softwareaufgaben zu unterstützen.
  • Granite for Time Series: Diese Modelle werden per Fine Tuning für die Prognose von Zeitreihen angepasst, einer Methode zum Vorhersagen zukünftiger Daten anhand von Daten aus der Vergangenheit.
  • Granite for GeoSpatial: Dieses von IBM und der NASA entwickelte Basismodell beobachtet die Erde und erfasst dabei Satellitendaten in großem Umfang, was das Nachverfolgen und Reagieren auf Umweltveränderungen ermöglicht.

    Use Cases für prädiktive KI ansehen

Innerhalb dieser Reihen bietet Granite jeweils Modelle unterschiedlicher Größen und Fachgebiete. So umfasst Granite for Language beispielsweise Folgendes:

  • Granite-7b-base, ein allgemeines Sprachmodell für Unterhaltungen und Chats
  • Granite-7b-instruct, ein auf das Befolgen von Aufgabenanweisungen spezialisiertes Modell

Mehr zu Granite-Modellen auf Hugging Face erfahren

Unser KI-Produktportfolio Red Hat® AI basiert auf den vertrauenswürdigen Lösungen, die unsere Kunden bereits nutzen. Dank dieser Basis bleiben unsere Produkte auch weiterhin zuverlässig, flexibel und skalierbar.

Mit dem KI-Portfolio von Red Hat können Unternehmen:

  • KI schnell einführen und Innovationen schaffen
  • Die Komplexitäten beim Bereitstellen von KI-Lösungen umgehen
  • In vielen verschiedenen Umgebungen bereitstellen

Mit Red Hat AI erhalten Sie Zugriff auf die LLMs der Granite-Familie und können gleichzeitig Funktionen zum Einsatz Ihrer eigenen Modelle nutzen. Zusätzlich dazu bieten unsere Consultants Ihnen praktischen Support für Ihre besonderen Use Cases auf Unternehmensniveau, wenn Sie gen KI-Anwendungen zusammen mit kritischen Workloads entwickeln und bereitstellen.

Mehr über Red Hat AI erfahren

Red Hat Enterprise Linux® AI ist eine Plattform zum Ausführen von LLMs in individuellen Serverumgebungen. Die Lösung umfasst Red Hat AI Inference Server, der schnelle und kostengünstige Inferenz in der gesamten Hybrid Cloud liefert, indem er den Durchsatz maximiert und die Latenz minimiert. Der Open Source-Ansatz hält die Kosten niedrig und sorgt dafür, dass der Einstieg für eine große Bandbreite an Nutzenden möglich ist. Diese Plattform ermöglicht Ihnen, mit Ihren eigenen Daten zu experimentieren, wodurch Sie Schritt für Schritt und in Ihrem eigenen Tempo lernen können. Damit ist sie ein guter Ausgangspunkt, wenn Sie noch nicht genau wissen, wie die Use Cases Ihres Unternehmens genau aussehen. Red Hat Enterprise Linux® AI ist eine Basismodellplattform für das Entwickeln, Testen und Ausführen von LLMs der Granite-Familie. Der Open Source-Ansatz hält die Kosten niedrig und sorgt dafür, dass der Einstieg für eine große Bandbreite an Nutzenden möglich ist.

Mehr über Red Hat Enterprise Linux AI lesen

Ressource

Erste Schritte mit KI für Unternehmen: Ein Guide für den Einsatz

In diesem Guide für den Einstieg erfahren Sie, wie Red Hat OpenShift AI und Red Hat Enterprise Linux AI die KI-Einführung beschleunigen können.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

RAG im Vergleich zu Fine Tuning: LLMs optimal anpassen

RAG (Retrieval-Augmented Generation) oder Fine Tuning? Erfahren Sie, welche LLM-Methode für die Anpassung an Ihre Unternehmensdaten am besten geeignet ist.

Was ist verteilte Inferenz?

Verteilte Inferenz sorgt dafür, dass KI-Modelle Workloads effizienter verarbeiten können, indem die Inferenzarbeit innerhalb einer Gruppe miteinander verbundener Geräte verteilt wird.

Was ist MCP (Model Context Protocol)?

Erfahren Sie, wie Sie mit MCP (Model Context Protocol) KI-Anwendungen mit externen Datenquellen verbinden und so intelligentere Workflows entwickeln können.

Ressourcen zu KI/ML

Verwandte Artikel