Hinweis: Dieser Beitrag ist der erste einer Reihe, in der wir Einblicke in unsere KI-Projekte geben. Wir zeigen, wie wir unsere Engineers für das KI-Zeitalter vorbereiten, und beleuchten die rechtlichen und ethischen Rahmenbedingungen, mit denen wir uns bei Red Hat auseinandersetzen. Unser Ziel ist es, nicht nur unsere Praktiken hervorzuheben, sondern auch Diskussionen und Ideen für die Zukunft der Softwareentwicklung anzuregen.
Die Welt der Technologie befindet sich mitten in einem seismischen Wandel. Künstliche Intelligenz, insbesondere generative KI (gen KI), entwickelt sich schnell von einem Zukunftskonzept zu einem konkreten Tool mit dem Potenzial, die Softwareentwicklung neu zu definieren. Für diejenigen unter uns, die ihre Karriere auf den Open Source-Prinzipien der Softwareentwicklung aufgebaut haben, ist dieser Moment von entscheidender Bedeutung. Und auch ein bisschen beunruhigend. Wir bei Red Hat waren schon immer davon überzeugt, dass die wirkungsvollsten Innovationen aus Zusammenarbeit, Transparenz und dem gemeinsamen Engagement für die Lösung komplexer Probleme entstehen. Wir sind davon überzeugt, dass dieselben Prinzipien auf dem Weg ins KI-Zeitalter nicht nur relevant, sondern wesentlich sind.
Bei der Verwendung von KI in Open Source geht es nicht darum, Entwicklungsteams zu ersetzen, sondern darum, sie zu befähigen. Es geht darum, die Kreativität und den Einfallsreichtum zu fördern, die schon immer im Mittelpunkt von Open Source standen. Wir sehen KI als leistungsstarken neuen Partner in der Open Source Community – als Tool, mit dem wir die Softwareentwicklung skalieren, ehrgeizigere Projekte in Angriff nehmen und Innovationen für alle beschleunigen können. Wir bei Red Hat setzen uns voll und ganz für die Erschließung des Potenzials von KI ein, und wir beabsichtigen, dies in den Communities, denen wir angehören, zu nutzen.
KI als Partner bei der Open Source-Entwicklung
Seit Jahrzehnten verlassen sich Entwicklungsteams auf Tools, um ihre Arbeit effizienter zu gestalten, von Compilern und Debuggern bis hin zu anspruchsvollen IDEs. Die nächste Evolutionsstufe dieses Toolkits sind unserer Meinung nach gen KI und KI-gestützte Coding Assistenten. Das sind nicht nur Neuheiten. Sie sind praktische Tools, mit denen sich mühsame, zeitaufwändige Aufgaben erledigen lassen. Entwicklungsteams können sich so auf komplexe, kreative Problemlösungen konzentrieren, bei denen sie den größten Nutzen bringen – und ehrlich gesagt, wo viele die größte Zufriedenheit aus ihrer Arbeit ziehen.
Das Potenzial der KI-gestützten Entwicklung ermöglicht es Entwicklungsteams, ihre Lösungen schneller zu verwirklichen, die Standardprogrammierung zu reduzieren, die Testabdeckung zu erhöhen und eine bessere Dokumentation beizusteuern. Es geht darum, die Community zu erweitern und letztendlich bessere Software schneller zu entwickeln. Obwohl es heute eine gesunde Portion pragmatischer Skepsis gegenüber KI gibt, halten wir den Einsatz dieser Technologie für unvermeidlich. Aus diesem Grund konzentrieren wir uns darauf, angemessene Schutzmaßnahmen und Software-Sicherheitsmechanismen für ihren Einsatz zu gewährleisten.
Upstream, mit KI-Beteiligung
Unser Einstieg in die KI-gestützte Softwareentwicklung erfolgt nach der gleichen „Upstream first“-Philosophie, die Red Hat seit Jahrzehnten ausmacht. Wir setzen diese Tools nicht nur intern ein; wir ermutigen unsere Engineers, sie zu nutzen, wenn sie an den Upstream Communities teilnehmen, die für Open Source so lebenswichtig sind.
Wir erwarten von den Mitarbeitenden von Red Hat, dass sie aktive Mitglieder der Community sind, und die Verwendung der besten verfügbaren Technologie ist ein Teil davon. Die Verwendung von KI-Tools zum Coding, um Beiträge zu Upstream-Projekten zu leisten, ist eine natürliche Erweiterung unserer bisherigen Arbeitsweise. Wir bringen unseren Code, unsere Expertise und unsere Leidenschaft in die Projekte ein, an die wir glauben. Jetzt werden wir dies mit der zusätzlichen Geschwindigkeit tun, die KI bietet, und gleichzeitig die Standards und Praktiken der jeweiligen Community beibehalten.
Mit Offenheit und Vertrauen neue Wege gehen
Die Einführung dieser neuen Technologie bedeutet jedoch auch, sich neuen Herausforderungen zu stellen. Wie können wir die Herkunft und Identifizierung von KI-generiertem Code steuern? Wie können wir sicherstellen, dass er die Sicherheits- und Qualitätsstandards unserer Communities erfüllt? Ebenso entscheidend ist: Wege zu finden, wie Verantwortliche das gestiegene Beitragsaufkommen bewältigen und die minderwertigen KI-Inhalte steuern können, sei es durch den Einsatz von KI oder andere Mittel. Dies sind keine einfachen Fragen, und wir wissen, dass wir im Moment nicht alle Antworten haben.
Wir sind jedoch der festen Überzeugung, dass diese Herausforderungen offen bewältigt werden müssen. Die Lösungen müssen kollaborativ und mit der gleichen Transparenz und dem gleichen Peer-Review entwickelt werden wie Open Source. Die menschliche Aufsicht ist weiterhin von zentraler Bedeutung. Jede Codezeile, egal, ob sie von Menschen oder mit Unterstützung einer KI geschrieben wurde, muss einer strengen Prüfung, Tests und Validierung unterzogen werden.
In Zusammenarbeit mit unseren Communities entwickeln wir die Frameworks, etablieren Best Practices und definieren Standards für eine verantwortungsvolle Integration von KI in den Lifecycle der Entwicklung mit Open Source. Wenn wir mit unseren bestehenden Communities zusammenarbeiten und zukünftige Projekte für eine Teilnahme evaluieren, werden wir versuchen, jeder Community das nötige Verständnis und die entsprechenden Tools für die Skalierung mittels KI bereitzustellen.
Es liegt noch ein langer Weg vor uns, und es wird zweifellos Herausforderungen mit sich bringen. Aber wir sind optimistisch und engagiert. Wir sind davon überzeugt, dass wir durch Zusammenarbeit das Potenzial der KI nutzen können, um das Open Source-Modell zu fördern. In diesem Beitrag beschreiben wir unsere Prinzipien. In den kommenden Wochen und Monaten werden wir darüber hinaus eine Reihe von Beiträgen veröffentlichen, die unsere Vorgehensweisen detailliert beschreiben. Wir geben Ihnen Einblicke in unsere Projekte, zeigen Ihnen die Richtlinien, die wir unseren eigenen Engineers zur Verfügung stellen, und besprechen die rechtlichen und ethischen Rahmenbedingungen, die unserem Ansatz zugrunde liegen. Dies ist ein Gespräch, das wir mit Transparenz und Dringlichkeit führen möchten. Wir laden Sie ein, mit uns Tools zu entwickeln, Standards zu definieren und gemeinsam die Zukunft der Softwareentwicklung zu gestalten.
Blogbeitrag
Für beliebige Modelle, Beschleuniger und Clouds: Unternehmens-KI mit Open Source-Innovationen erschließen
Über den Autor
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
Ähnliche Einträge
Red Hat to acquire Chatterbox Labs: Frequently Asked Questions
Implementing best practices: Controlled network environment for Ray clusters in Red Hat OpenShift AI 3.0
Technically Speaking | Platform engineering for AI agents
Technically Speaking | Driving healthcare discoveries with AI
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen