Open Source macht KI zugänglicher, nachhaltiger, sicherer und vertrauenswürdiger – und hilft Unternehmen, viele KI-bezogene Herausforderungen zu bewältigen.
Es ist eine Sache, die IT-Herausforderungen von heute zu meistern – auf dem Red Hat Summit und dem AnsibleFest haben wir unsere Ansätze dafür gezeigt, angefangen bei der Bereitstellung einer Plattform für KI-Basismodelle auf Open-Source-Basis bis hin zu Policy-as-Code. Doch das Heute ist flüchtig, und das Morgen kommt schneller, als man denkt. Wie können Unternehmen sich also auf technologische Herausforderungen vorbereiten, die sich noch gar nicht ergeben haben? Glücklicherweise gibt es bewährte Methoden, die bei der Planung und Gestaltung der KI-Zukunft helfen. Open-Source-Communities und Open-Source-Projekte zeigen, wie es geht.
Derzeit sehen viele Menschen KI und Machine Learning noch als Technologien der Zukunft an. In vielen Unternehmen stecken beide tatsächlich noch in den Kinderschuhen – es gibt mehr große Ideen, Strategien und Pläne als fertige Deployments und KI-Anwendungen im Produktiveinsatz. In der Open-Source-Welt ist man da schon weiter: Wir überlegen uns bereits jetzt, wie wir die nächste Welle von KI-bezogenen Herausforderungen lösen können.
Man könnte eine ganze Konferenz-Keynote damit füllen, was die Zukunft für KI wohl bereithält, doch ich möchte mich auf drei Bereiche konzentrieren, in denen Open-Source-Projekte schon sehr weit sind:
- Demokratisierung
- Nachhaltigkeit
- Vertrauen
Wenn sich Unternehmen um diese Themen kümmern oder zumindest damit beginnen, sich zu kümmern, kann sich der Rest einer KI-Strategie schnell ein bisschen weniger komplex und leichter erreichbar anfühlen.
Demokratisierung
Seien wir ehrlich: Geht es in der KI-Terminologie um „offene“ Modelle, darf man ruhig eine Augenbraue heben, wenn diese in Anführungszeichen stehen oder mit einer Fußnote versehen sind. Nicht, dass wir uns falsch verstehen: Diese Modelle sind wichtig für den KI-Bereich, doch sie sind nicht offen im Sinne von Open Source. Sie sind offen für die Nutzung, wenn auch häufig mit verschiedenen Einschränkungen und Vorgaben, aber nicht offen für Contributions, und auch die Trainingsdaten und Gewichtungen sind nicht offen.
Das ist eine Herausforderung, die wir gemeinsam mit IBM Research angegangen sind. Neben InstructLab stellt IBM Research seine Granite-Modelle für Sprache und Code unter quelloffene Apache-Lizenzen. Das ist von enormer Bedeutung – nicht nur, weil es einzigartig ist, ein Modell unter Open-Source-Lizenz zu haben, sondern auch weil über InstructLab jeder zu diesen Modellen beitragen und sie besser machen kann.
Mehr noch: Unternehmen können das KI-Modell tatsächlich zu ihrem KI-Modell machen. Soll ein Chatbot rund ums Angeln entwickelt werden? Nur zu. Unternehmen können alles Notwendige beisteuern und anpassen, um ChatGoFish zu erschaffen. Oder wird eher ein Troubleshooting-Bot für eine sehr spezifische Nischentechnologie benötigt? Lässt sich mit InstructLab umsetzen. Die Möglichkeiten sind nahezu grenzenlos, wenn man Open-Source-Prinzipien auf KI-Modelle anwendet – so wie wir das gemacht haben.
Nachhaltigkeit
Kommen wir direkt zum Punkt: Das Training der Modelle und das KI-Inferencing erfordern viel Strom. Die Internationale Energieagentur geht davon aus, dass sich der Strombedarf dedizierter KI-Rechenzentren bis 2026 verzehnfacht. Doch was bedeutet das abgesehen davon, dass die Miner von Kryptowährungen nun Konkurrenz im Strommarkt haben?
Es bedeutet, dass wir mit Software – Open-Source-Software – gegensteuern müssen, um diese Herausforderung zu lösen. Der Einstieg in KI wird fast immer energieaufwendig sein, aber man kann ihn smart angehen. Mit dem Kepler-Projekt, das Einblicke in den CO2-Fußabdruck und die Energieeffizienz von Cloud-nativen Anwendungen und Infrastrukturen liefert, haben wir in dieser Hinsicht bereits wichtige Schritte unternommen. Kepler ist derzeit als Technology Preview in Red Hat OpenShift 4.15 verfügbar.
Aber was wäre, wenn wir Kepler durch die Kraft offener Innovationen in ein Werkzeug verwandeln könnten, das auch den Stromverbrauch von GPUs überwacht – und nicht nur den von CPUs? Genau das tun wir, sodass Kepler den Verbrauch von Machine-Learning-Modellen sowohl beim Training als auch beim Inferencing ermitteln kann. Unternehmen erhalten einen vollständigen Überblick über den Stromverbrauch ihrer klassischen IT- und ihrer KI-Umgebung – dank Open Source.
Vertrauen
Wie bei jeder neuen aufregenden Technologie müssen wir auch bei KI in der Lage sein, die Workloads, Modelle und Plattformen effektiv zu schützen und Sicherheit durchzusetzen. Innovationen ohne Sicherheit sind schlicht ein Risiko, das sowohl Unternehmen als auch Open-Source-Communities minimieren wollen.
Im Falle von Software sind die Herkunft und Lieferkette der Schlüssel für Sicherheit. Man muss genau wissen, wo die Bits herkommen, wer sie kodiert hat und wer auf sie zugegriffen hat, bevor sie in den Produktivbetrieb kommen. Das von Red Hat geführte Projekt Sigstore hilft, die Integrität von Open-Source-Code in allen Phasen der Anwendungsentwicklung zu überprüfen.
Nun benötigen wir etwas ähnliches für KI-Modelle, weshalb Red Hat und die Open-Source-Community an einem „AI Bill of Materials“ arbeiten – einer Art Stückliste aller Komponenten, ihrer Herkunft und Beziehungen untereinander, die mehr Vertrauen bei der Nutzung der Modelle schafft. Hand in Hand damit geht das Vertrauen in die Entscheidungen der KI-Modelle, auf denen Unternehmen ihre Zukunft aufbauen. Hier kommt TrustyAI ins Spiel, mit dem Technologieteams die Ausrichtung von KI-Modellen besser verstehen und möglicherweise problematisches Verhalten erkennen können.
All diese Beispiele zeigen, wie Open Source KI für die Zukunft zugänglicher, nachhaltiger, sicherer und vertrauenswürdiger macht. Bei Red Hat sind wir stolz darauf, bei der Entwicklung dieser Technologien – die ohne die Zusammenarbeit der Open-Source-Community, die zu neuen Denkweisen anregt, nicht möglich wäre – ganz vorne mit dabei zu sein.
* Chris Wright ist Chief Technology Officer und Senior Vice President, Global Engineering, bei Red Hat. Er leitet das „Office of the CTO“, das für die Förderung aufstrebender Technologien und die Entwicklung zukunftsweisender Perspektiven für Innovationen verantwortlich ist, unter anderem in Bereichen wie Künstliche Intelligenz, Cloud Computing, Software-defined Networking und Network Functions Virtualization, Container, Automatisierung und Continuous Delivery sowie Distributed-Ledger-Technologie. In seinen mehr als 20 Jahren als Software-Ingenieur hat Wright in der TK-Branche an Hochverfügbarkeits- und verteilten Systemen gearbeitet und in der Linux-Branche an den Themen Sicherheit, Virtualisierung und Netzwerk. Er ist seit mehr als 15 Jahren Linux-Entwickler, wobei er die meiste Zeit damit verbracht hat, tief in den Linux-Kernel einzutauchen. Zudem setzt sich Wright leidenschaftliche für Open-Source-Software als Basis von IT-Systemen der nächsten Generation ein.
Über den Autor
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
Mehr davon
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Original Shows
Interessantes von den Experten, die die Technologien in Unternehmen mitgestalten
Produkte
- Red Hat Enterprise Linux
- Red Hat OpenShift
- Red Hat Ansible Automation Platform
- Cloud-Services
- Alle Produkte anzeigen
Tools
- Training & Zertifizierung
- Eigenes Konto
- Kundensupport
- Für Entwickler
- Partner finden
- Red Hat Ecosystem Catalog
- Mehrwert von Red Hat berechnen
- Dokumentation
Testen, kaufen und verkaufen
Kommunizieren
Über Red Hat
Als weltweit größter Anbieter von Open-Source-Software-Lösungen für Unternehmen stellen wir Linux-, Cloud-, Container- und Kubernetes-Technologien bereit. Wir bieten robuste Lösungen, die es Unternehmen erleichtern, plattform- und umgebungsübergreifend zu arbeiten – vom Rechenzentrum bis zum Netzwerkrand.
Wählen Sie eine Sprache
Red Hat legal and privacy links
- Über Red Hat
- Jobs bei Red Hat
- Veranstaltungen
- Standorte
- Red Hat kontaktieren
- Red Hat Blog
- Diversität, Gleichberechtigung und Inklusion
- Cool Stuff Store
- Red Hat Summit