En muchas comunidades open source, existe cierto escepticismo en torno al uso de herramientas de inteligencia artificial generativa para la contribución y el desarrollo. Existen motivos válidos para preocuparse. Nuestro objetivo en este artículo, y en la propia práctica de Red Hat, es abordar esas inquietudes directamente, no ignorarlas. Nuestras respuestas no son solo consejos para los demás, sino que también capacitan a nuestros propios ingenieros, la mayoría de los cuales también son colaboradores de open source.
Compartiremos las directrices que hemos establecido para los ingenieros de Red Hat, basándonos en nuestro uso práctico de los principios del open source. Pero antes, nos gustaría poner en contexto la actual ola de herramientas nuevas.
Un poco de contexto histórico
Durante las últimas cuatro décadas, hemos implementado periódicamente herramientas y procesos nuevos y mejorados para el desarrollo de software. De todo: Compiladores, sistemas de control de versiones, IDE (entornos de desarrollo integrados), máquinas virtuales (ambos tipos), instancias de nube, desarrollo ágil, contenedores, gestión de la configuración y pruebas automatizadas. Todos los conjuntos de herramientas fueron nuevos en su momento, y muchos de ellos generaron acaloradas discusiones sobre la autoría, la calidad y la legitimidad. Hubo un tiempo en que tanto los indicadores del compilador como la función de autocompletar en los IDE eran temas polémicos.
Las herramientas de desarrollo basadas en inteligencia artificial no son diferentes. Tampoco debería serlo. Con el tiempo, descubriremos que las herramientas de inteligencia artificial mejoran enormemente nuestro trabajo de desarrollo en algunas áreas, pero no en otras, y la adopción se producirá en consecuencia. En el open source, utilizamos herramientas para resolver problemas, y las herramientas nuevas nos ayudarán a resolver problemas antiguos, a la vez que descubrimos otros nuevos.
Si existe un problema central en el mundo del open source, puede expresarse como: "Demasiados proyectos, pocos mantenedores". Hoy en día, los líderes de proyectos deben hacer más que nunca: Lanzamientos más rápidos, actualizaciones de seguridad más rápidas, cadenas de suministro de software seguras, CI/CD (integración continua/entrega continua), cumplimiento normativo y gestión de colaboradores a gran escala. Estas expectativas no son sostenibles sin mejores herramientas que ayuden a los mantenedores a hacer más con menos esfuerzo. Red Hat considera que el uso de la inteligencia artificial basado en principios nos permite diseñar la próxima generación de herramientas para desarrolladores que permita superar este desafío.
Principios de la adopción de la inteligencia artificial en el open source
Para que las nuevas herramientas beneficien al open source, debemos adherirnos a la ética open source que ha construido Red Hat y a nuestro sector. En consecuencia, Red Hat ha desarrollado directrices para la contribución de nuestro personal al open source basado en la inteligencia artificial, las cuales se basan en tres principios:
- Innovar de forma responsable
- Ser transparente
- Respetar a la comunidad
Innovar de forma responsable
Independientemente de si utilizan una herramienta de inteligencia artificial, un IDE, el resultado de una sesión de programación en parejas o cualquier otro método para producir código y documentos, cada colaborador es totalmente responsable de sus contribuciones. El colaborador individual es la persona que garantiza la calidad, la seguridad y el cumplimiento normativo de la contribución. Los colaboradores deben entender el código asistido por inteligencia artificial como si lo hubieran escrito ellos mismos. También deben poder explicar lo que hace, cómo interactúa con otro código en el proyecto y por qué el cambio es necesario. No consideramos que la inteligencia artificial sea un sustituto de los desarrolladores. El objetivo es automatizar las tareas tediosas para que los desarrolladores puedan dedicarse a la resolución de problemas complejos y creativos. Creemos en un futuro en el que los desarrolladores se vean potenciados, no automatizados.
Nuestro principio de responsabilidad humana replantea la inteligencia artificial como un asistente y tutor eficaz, no como un sustituto. Un principiante puede utilizarla para comprender código repetitivo complejo y aprender las prácticas recomendadas, lo que le permite centrarse en la lógica principal de su contribución y cometer menos errores. Los colaboradores sénior pueden utilizar herramientas nuevas para llevar a cabo revisiones y pruebas más eficientes y exhaustivas. La responsabilidad sigue recayendo en las personas: los miembros sénior deben asesorar al colaborador, no solo al código, y los miembros más jóvenes deben rendir cuentas por lo que envían y demostrar su voluntad de aprender.
Ser transparente
La transparencia fomenta la confianza. Marcar las contribuciones importantes que utilizan la inteligencia artificial, por ejemplo, con una línea "assisted-by" en la confirmación, ayuda a las comunidades a desarrollar prácticas recomendadas en conjunto y permite realizar auditorías si surgen problemas. Esto también permite que los proyectos aprendan, con el tiempo, qué herramientas de inteligencia artificial son útiles para el desarrollo de sus proyectos y cuáles no lo son.
Marcar las contribuciones también ayuda a los revisores a evaluar las contribuciones nuevas de forma adecuada. Las contribuciones de baja calidad generadas por la inteligencia artificial son un problema grave para los proyectos. Red Hat seguirá trabajando en las prácticas y las herramientas que compartiremos con todo el ecosistema a medida que aprendamos a abordar mejor estos desafíos.
Respetar a la comunidad
La colaboración eficaz en el open source depende de que se respeten las normas sociales y las políticas de contribución establecidas para cada proyecto. Nuestra primera responsabilidad es comprender el proceso elegido por una comunidad para adoptar tecnologías nuevas como la inteligencia artificial e involucrarnos en él, o ayudar a iniciar un debate sobre la creación de un proceso de este tipo donde no exista. En otras palabras, contribuir al debate en lugar de intentar imponerlo.
Sabemos que algunos proyectos acogerán con satisfacción las nuevas herramientas, otros las prohibirán y otros adoptarán políticas específicas en torno al marcado y los usos aceptables. Siempre que sea posible, Red Hat ayudará a las comunidades a desarrollar y adoptar políticas que les permitan mantener sus valores comunitarios, su salud y sus estándares de calidad. La consideración clave es que los proyectos puedan utilizar las herramientas de inteligencia artificial de una forma que les resulte útil.
La innovación en acción en Red Hat
Nuestro uso de la automatización impulsada por inteligencia artificial para el mantenimiento de paquetes de Red Hat Enterprise Linux (RHEL) es un ejemplo real de innovación responsable. Como se detalla en esta entrada de blog de Laura Barcziová, la creación de un sistema de producción fiable requería una gran atención a la responsabilidad. El equipo de ingeniería incorporó medidas de seguridad esenciales, como los modos de prueba de ejecución y el rastreo detallado, para que una persona pueda comprender y auditar en todo momento las decisiones de la inteligencia artificial. Esta atención a la creación de fiabilidad y a la posibilidad de supervisión humana es clave para una innovación responsable.
El proceso de la política de contribuciones asistidas por inteligencia artificial del Proyecto Fedora es un claro ejemplo de transparencia y respeto por el gobierno de la comunidad. Desarrollado a través de un extenso debate público, exige responsabilidad y divulgación, y sirve como modelo de cómo los proyectos de open source pueden crear sus propias directrices claras y pragmáticas para la inteligencia artificial.
El open source se basa en una innovación con principios
Red Hat cree que la inteligencia artificial ofrece enormes oportunidades para los proyectos y colaboradores de open source. Nos comprometemos a desarrollar nuestro ecosistema de forma que se preserven los principios clave del open source. Este compromiso se basa en una verdad sencilla: toda nuestra cartera de productos se basa en la innovación que se produce en los proyectos de open source upstream. La salud, el dinamismo y la productividad de estas comunidades de colaboradores no son solo una prioridad, sino también la base misma de nuestro éxito.
Nuestra estrategia de productos refleja este compromiso: desde la entrega de una plataforma de inteligencia artificial de nivel empresarial con Red Hat AI, hasta la integración de capacidades de inteligencia artificial en toda nuestra cartera, pasando por el intercambio de nuestras propias innovaciones y descubrimientos de procesos que utilizamos para mejorar la calidad y la seguridad.
Se trata de un proceso de colaboración, y lo abordamos con transparencia. Estamos abordando problemas antiguos en el open source que son más grandes que Red Hat. Te invitamos a unirte a nosotros en este viaje mientras trabajamos con las comunidades upstream para diseñar las herramientas, definir los estándares y dar forma al futuro del desarrollo de software en conjunto.
Recurso
La empresa adaptable: Motivos por los que la preparación para la inteligencia artificial implica prepararse para los cambios drásticos
Sobre los autores
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
Más como éste
The subject matter expert advantage in the AI era
The Open Accelerator joins the Google for Startups Cloud Program to empower the next generation of innovators
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Virtualización
El futuro de la virtualización empresarial para tus cargas de trabajo locales o en la nube