Una cosa es responder a los retos de la TI de hoy: tanto en el Red Hat Summit como en el AnsibleFest han visto nuestras respuestas a diversas demandas tecnológicas, desde la entrega de una plataforma de modelos fundacionales de código abierto para la IA hasta nuevas políticas de TI como código, entre muchas otras cosas. Pero el presente es fugaz y el mañana llega antes de que nos demos cuenta. Entonces, ¿cómo podemos resolver, ahora mismo, los enigmas tecnológicos que aún no se han materializado? Afortunadamente, contamos con un método probado que nos ayuda a planificar y crear el futuro: las comunidades y los proyectos de código abierto.
Hoy en día, son muchas las personas que ven la IA/ML como una tecnología del futuro. No hay duda de que es algo aún incipiente en muchas empresas, donde el protagonismo lo tienen las estrategias, la planificación y las grandes ideas, en lugar de las implementaciones y la producción. Pero, en el universo del código abierto, esto no es así. Ya estamos pensando en cómo responder a la próxima oleada de preguntas relacionadas con la IA.
Podríamos llenar una presentación entera con todo lo que el futuro le depara a la IA, pero quiero enfocarme en tres áreas distintas de las que ya se están ocupando proyectos de código abierto:
- Democratización
- Sostenibilidad
- Confianza
Si resolvemos o al menos empezamos a resolver estas cuestiones, es posible que el resto de una estrategia de IA comience a parecer un poco menos compleja y más al alcance de la mano.
Democratización
Cuando se trata de la terminología de la IA, debemos ser muy directos: es difícil no mostrarse escépticos ante los modelos “abiertos” entre comillas o que tal vez lleven un asterisco. No me malinterpreten: estos modelos son fundamentales para la IA, pero no son abiertos en el sentido del código abierto. Están abiertos para su uso, aunque muchos de ellos conlleven varias restricciones o normas, pero es posible que no puedan recibir colaboraciones ni tengan conjuntos de datos de entrenamiento o pesos abiertos.
Este es uno de los retos que hemos abordado hoy y que seguiremos abordando en colaboración con IBM Research. Actualmente, IBM Research, junto con InstructLab, está aplicando una licencia Apache de código abierto a los modelos de lenguaje y código Granite. Esto es sumamente importante, no porque tener un modelo regido por una licencia open source sea excepcional. Lo excepcional es que ahora cualquiera, a través de InstructLab, puede contribuir a estos modelos para mejorarlos.
Más aún, cada cual puede hacer que un modelo de IA sea SU propio modelo de IA. ¿Quieren construir un chatbot dedicado a la pesca? Háganlo, realicen sus aportes, creen ChatGoFish. ¿Quieren que un bot de resolución de problemas se centre en un nicho tecnológico realmente específico? Háganlo con InstructLab. Las posibilidades se vuelven infinitas cuando aplicamos realmente los principios del open source a los modelos de IA... Y estamos aquí para eso.
Sostenibilidad
No nos andemos con rodeos: el entrenamiento de modelos y la inferencia de IA requieren de mucha energía. La Agencia Internacional de la Energía prevé que, de aquí a 2026, la demanda de energía de la industria de la IA se decuplicará. Entonces, ¿qué significa esto aparte de que la industria energética pasará a rivalizar con la minería de monedas?
Significa que tenemos que utilizar software, específicamente software open source, para ayudar a resolver este desafío. Empezar a trabajar con IA casi siempre demandará mucha energía, pero podemos encararlo con inteligencia. Ya hemos avanzado en este sentido con una TI empresarial moderna a través del proyecto Kepler, que ayuda a brindar información sobre la huella de carbono y la eficiencia energética de las aplicaciones y la infraestructura nativas de la nube. Actualmente, está disponible como versión tecnológica preliminar en Red Hat OpenShift 4.15.
Pero, ¿qué pasaría si, gracias al poder de la innovación abierta, pudiéramos convertir Kepler en una herramienta capaz también de vigilar el consumo de energía de las GPU, no solo de las CPU?
Es exactamente lo que estamos haciendo: usando Kepler para medir el consumo de energía de los modelos de ML en el entrenamiento y la inferencia. Esto proporciona una visión completa del consumo de energía tanto de la TI tradicional como de la huella de IA. Una vez más, se lo debemos al código abierto.
Confianza
Al igual que ocurre con cualquier tecnología nueva y apasionante, debemos ser capaces de proteger y aplicar eficazmente las medidas de seguridad de las cargas de trabajo, los modelos y las plataformas de IA. La innovación sin seguridad es solo “riesgo”, algo que las empresas y las comunidades de código abierto anhelan minimizar.
En el caso del software, la cadena de suministro y la procedencia son fundamentales a la hora de ofrecer una experiencia más segura. Esto significa saber claramente de dónde proceden los bits, quién los codificó y quién accedió a ellos antes de llegar a producción. El proyecto sigstore, dirigido por Red Hat, ayuda a verificar la veracidad del código fuente abierto que se utiliza en todas las etapas de desarrollo de las aplicaciones.
Ahora bien, necesitamos aplicar este mismo grado de previsión, disciplina y rigor a los modelos de IA, que es lo que Red Hat y la comunidad open source están haciendo al trabajar para crear una Lista de materiales de IA, que ofrece mayores garantías en torno a la creación de modelos mediante el uso de nuestras herramientas de cadena de suministro segura.
El principio de confianza va íntimamente ligado a la seguridad: ¿cómo saben ustedes y sus empresas que pueden confiar en los modelos y en las cargas de trabajo de IA a los que apuestan el futuro? Aquí es donde entra en juego TrustyAI: ayuda al equipo tecnológico a comprender las justificaciones de los modelos de IA y a alertar sobre comportamientos potencialmente problemáticos.
A través de estos ejemplos, espero que puedan ver cómo el open source trabaja para dotar a la IA de mayor accesibilidad, sostenibilidad y una seguridad y una confianza reforzadas de cara al futuro. En Red Hat, estamos orgullosos de estar a la vanguardia a la hora de impulsar todas estas tecnologías, ninguna de las cuales sería posible sin la colaboración de la comunidad open source que incentiva nuevas formas de pensar.
Sobre el autor
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
Más similar
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Programas originales
Vea historias divertidas de creadores y líderes en tecnología empresarial
Productos
- Red Hat Enterprise Linux
- Red Hat OpenShift
- Red Hat Ansible Automation Platform
- Servicios de nube
- Ver todos los productos
Herramientas
- Training y Certificación
- Mi cuenta
- Soporte al cliente
- Recursos para desarrolladores
- Busque un partner
- Red Hat Ecosystem Catalog
- Calculador de valor Red Hat
- Documentación
Realice pruebas, compras y ventas
Comunicarse
- Comuníquese con la oficina de ventas
- Comuníquese con el servicio al cliente
- Comuníquese con Red Hat Training
- Redes sociales
Acerca de Red Hat
Somos el proveedor líder a nivel mundial de soluciones empresariales de código abierto, incluyendo Linux, cloud, contenedores y Kubernetes. Ofrecemos soluciones reforzadas, las cuales permiten que las empresas trabajen en distintas plataformas y entornos con facilidad, desde el centro de datos principal hasta el extremo de la red.
Seleccionar idioma
Red Hat legal and privacy links
- Acerca de Red Hat
- Oportunidades de empleo
- Eventos
- Sedes
- Póngase en contacto con Red Hat
- Blog de Red Hat
- Diversidad, igualdad e inclusión
- Cool Stuff Store
- Red Hat Summit