El panorama de la IA evoluciona a un ritmo vertiginoso. Al igual que con cualquier salto tecnológico, surge esta pregunta: ¿cuál será el camino que mejor defina su futuro? Red Hat cree que la respuesta es clara:
El futuro de la IA es open source
No se trata de una mera postura filosófica. Es un enfoque que se centra en desplegar el verdadero valor de la IA y convertirla en algo mucho más accesible, democratizado y poderoso.
Siempre hemos creído en el poder del desarrollo open source para impulsar la innovación. Hemos visto cómo funciona con el auge de Linux, KVM, OpenStack, Kubernetes y muchos otros proyectos que han contribuido a definir el panorama tecnológico actual. Los modelos de desarrollo open source aceleran el ritmo del descubrimiento, fomentan la experimentación y democratizan el acceso a herramientas y tecnologías de vanguardia gracias a la colaboración, la transparencia y la innovación impulsadas por la comunidad. Esto trae aparejados un progreso más veloz, mayor innovación y ecosistemas dinámicos.
Con la IA ocurre lo mismo.
Todos —no solo los más adinerados o de mayores recursos— deberían poder participar de la IA, donde la confianza, la seguridad y la explicabilidad son factores primordiales. Red Hat se compromete a promover la innovación en IA de código abierto con miras a allanar el camino para que el futuro de esta tecnología se construya sobre una base de desarrollo impulsado por la comunidad, progreso compartido y libertad de elección.
Nuestra inversión en proyectos open source y tecnologías de IA es considerable. Colaboramos con partners de toda la industria y desarrollamos soluciones que permitan a las organizaciones implementar cargas de trabajo de IA de manera flexible donde sea que lo necesiten. Hoy, anunciamos que hemos firmado un acuerdo definitivo para adquirir Neural Magic. Creo que este importante hito permitirá acelerar nuestro progreso y concretar nuestra visión del futuro de la IA.
En Red Hat, creemos que el futuro de la IA es abierto y depende de varios pilares fundamentales:
Los modelos pequeños fomentan la adopción
La IA no se limita a modelos masivos que hacen un uso intensivo de recursos. Estamos ante un cambio hacia modelos más pequeños y especializados que generan un rendimiento excepcional con mayor eficiencia. Estos modelos no solo son más eficientes a la hora de entrenarlos e implementarlos, sino que además ofrecen ventajas significativas en términos de personalización y adaptabilidad.
A modo de ejemplo, tomemos IBM Granite 3.0, la tercera generación de LLM de la serie Granite, que pone énfasis en modelos de IA más pequeños y funcionales. El tamaño de estos modelos, que se lanzaron bajo la licencia permisiva Apache 2.0, varía desde 1000 millones hasta 8000 millones de parámetros, lo que les permite ejecutarse en cualquier lugar, desde una computadora portátil hasta servidores GPU estándar. Tal como ocurrió con Linux, esta facilidad de acceso fomenta la innovación y la adopción dentro de la empresa.
Además, más allá de un tamaño inicial más pequeño, la optimización de los modelos de IA mediante la dispersión y la cuantificación es otro factor multiplicador de fuerza que nos permite atender una demanda cada vez mayor con el mismo hardware. La dispersión elimina estratégicamente las conexiones innecesarias dentro de un modelo, lo cual reduce radicalmente su tamaño y los requerimientos de informática sin sacrificar la precisión ni el rendimiento. La cuantificación reduce aún más el tamaño del modelo para ejecutarlo en plataformas con requerimientos de memoria menores. Todo esto se traduce en menores costos, una inferencia más rápida y la capacidad de ejecutar cargas de trabajo de IA en una mayor variedad de hardware. Un enfoque similar para Linux lo hizo capaz de ejecutarse en prácticamente cualquier infraestructura del planeta, desde relojes hasta supercomputadoras. Con la incorporación de Neural Magic a Red Hat, tenemos la posibilidad de poner este mismo énfasis en el espacio de la IA.
El entrenamiento genera ventajas para la empresa
Por muy potentes que sean estos pequeños modelos de IA, se los entrena con datos de acceso público. Tienen un dominio increíble de los idiomas, entienden el ámbito empresarial y conocen la mayoría de los temas que se encuentran en Internet. Sin embargo, casi por definición, no conocen tu negocio. Si tus procesos de negocio y tu propiedad intelectual no son de dominio público, no los entenderá. Aun así, necesitas perfeccionar tus procesos de negocio, no el concepto genérico de uno solo. Entonces, para liberar realmente el potencial de tu empresa, necesitas incorporar tus conocimiento a estos modelos. Eso se entrena.
Red Hat contribuye a hacerlo realidad gracias a InstructLab, un proyecto open source que tiene por objeto facilitar el aporte y el ajuste fino de los LLM para aplicaciones de IA generativa, incluso por parte de usuarios que carecen de experiencia en ciencia de datos. InstructLab, presentado por Red Hat e IBM y provisto como parte de Red Hat AI, se basa en un proceso descripto en un trabajo de investigación publicado en abril de 2024 por miembros del MIT-IBM Watson AI Lab e IBM. Este proceso reduce la complejidad de entrenar un modelo de IA en función de tus necesidades y modera efectivamente algunos de los aspectos más costosos de la IA empresarial, haciendo que los LLM sean más fáciles de personalizar para propósitos específicos.
La libertad de elección promueve la innovación
La mayoría de las organizaciones tienen cargas de trabajo que abarcan tanto los centros de datos de las empresas como la infraestructura en la nube. La IA debería integrarse sin inconvenientes con la infraestructura existente a fin de permitir una implementación flexible y uniforme en diversos entornos, ya sea en las instalaciones, en la nube o en el edge. Deberías poder entrenar donde se encuentren tus datos y tus recursos y poder ejecutar tus modelos donde resulte más conveniente según el caso de uso del que se trate. Al igual que Red Hat Enterprise Linux (RHEL) permitió que las aplicaciones compiladas en él se ejecutaran en cualquier CPU sin realizar cambios en la aplicación, nuestra misión es asegurarnos de que los modelos entrenados con RHEL AI puedan ejecutarse en cualquier servidor GPU. Esta combinación de hardware flexible, modelos pequeños, entrenamiento simplificado y optimización aporta la flexibilidad necesaria que permitirá potenciar la innovación.
También creemos que el entrenamiento y la implementación de la IA a gran escala requerirán la misma disciplina que ha regido al software durante la última década. Red Hat OpenShift AI combina las capacidades de personalización de modelos, inferencia, monitoreo y ciclo de vida con las aplicaciones que las consumen en Red Hat OpenShift. Neural Magic comparte la misma pasión por permitir que la IA se ejecute en todas las plataformas híbridas y ha demostrado liderazgo en las comunidades open source dedicadas a impulsar la innovación en este ámbito.
Potenciar la misión de Neural Magic
Neural Magic surgió a partir de la convicción de que la IA debería poder ejecutarse en cualquier lugar, desde los dispositivos más pequeños hasta los centros de datos más grandes. La historia de sus comienzos se asemeja a lo que he observado en los equipos pequeños pero poderosos de Red Hat que innovan en IA, incluido nuestro equipo InstructLab, por lo que creo que vale la pena compartirla.
Nir Shavit, un reconocido profesor del MIT especializado en computación paralela, había estado explorando las complejidades de los algoritmos y el hardware durante décadas. Su trabajo ya había revolucionado áreas como las estructuras de datos concurrentes y la memoria transaccional. Alex Matveev, un antiguo investigador del MIT, aportó su experiencia en el aprendizaje automático y su profundo conocimiento de los desafíos que se plantean a la hora de implementar modelos de IA de manera eficiente.
Neural Magic nació cuando Nir y Alex se toparon con una dificultad crítica para el avance de la IA: la dependencia de GPU costosas y a menudo escasas. Esta dependencia creó un obstáculo para el acceso, lo que dificultó la adopción generalizada de la IA en diversos sectores y limitó su potencial para revolucionar la forma en que vivimos y trabajamos.
Fue entonces que se embarcaron en la misión de empoderar a cualquier persona, independientemente de sus recursos, para que aprovechara el poder de la IA. Su enfoque revolucionario involucraba el aprovechamiento de técnicas, como la reducción y la cuantificación, para optimizar los modelos de aprendizaje automático, y comenzó por permitir que los modelos de ML se ejecutaran de manera eficiente en CPU disponibles sin sacrificar el rendimiento. En definitiva, Neural Magic cambió su visión por la aceleración de GPU y aportó este mismo nivel de optimización y eficiencia a la IA generativa a través de vLLM. Este compromiso con la innovación prometía hacer que la IA fuera más accesible, asequible y fácil de implementar. Estoy muy entusiasmado no solo por la oportunidad que tenemos de ofrecer esas capacidades a nuestros clientes en Red Hat AI, sino porque nuestros equipos comparten una cultura de experimentación e invención afianzada en la superación de las actuales limitaciones que obstaculizan el progreso y la adopción de la IA.
A modo de ejemplo, en nuestra oficina de Boston se encuentra un grupo motivado de empleados e investigadores apasionados (casualmente del MIT) que trabajan en InstructLab para resolver la dificultad que plantea el aporte del entrenamiento en la adopción generalizada de la IA. Así como la tecnología de Neural Magic está democratizando el acceso a la IA, InstructLab busca hacer lo mismo con el modo en que entrenamos y ajustamos los modelos. Estoy ansioso por ver qué otros avances puede generar este equipo en conjunto.
Estoy muy entusiasmado con la perspectiva de que Neural Magic se sume a Red Hat y acelere nuestra misión con la comunidad open source de hacer realidad el futuro de la IA. En Red Hat, creemos que lo abierto libera el potencial del mundo. Nuestra misión con Neural Magic será acelerar esa liberación con IA. Creo que hacerlo de la mano de la comunidad open source generará el mejor resultado para el mundo.
Esto apenas comienza.
Sobre el autor
Matt Hicks was named President and Chief Executive Officer of Red Hat in July 2022. In his previous role, he was Executive Vice President of Products and Technologies where he was responsible for product engineering for much of the company’s portfolio, including Red Hat® OpenShift® and Red Hat Enterprise Linux®. He is one of the founding members of the OpenShift team and has been at the forefront of cloud computing ever since.
Prior to joining Red Hat 16 years ago, Hicks served in various roles spanning computer engineering, IT, and consulting. He has worked with Linux and open source for more than 25 years, and his breadth of experience has helped him solve customer and business problems across all areas of IT.
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Programas originales
Vea historias divertidas de creadores y líderes en tecnología empresarial