Inscreva-se no feed

O cenário da IA está evoluindo em um ritmo eletrizante. Assim como em qualquer salto tecnológico, surge a pergunta: qual caminho será melhor para moldar seu futuro? A Red Hat acredita que a resposta é clara:

O futuro da IA é open source.

Esta não é apenas uma postura filosófica; é uma abordagem focada em desbloquear o verdadeiro valor da IA e torná-la muito mais acessível, muito mais democratizada e muito mais poderosa.

Sempre acreditamos no poder do desenvolvimento open source para impulsionar a inovação. Vimos isso acontecer na ascensão do Linux, KVM, OpenStack, Kubernetes e muitos outros projetos que ajudaram a moldar o cenário técnico de hoje. Por meio da colaboração, transparência e inovação orientada pela comunidade, os modelos de desenvolvimento de código open source aceleram o ritmo da descoberta, incentivam a experimentação e democratizam o acesso a ferramentas e tecnologias de ponta. Isso leva a um progresso mais rápido, maior inovação e ecossistemas vibrantes.

Não é diferente com a IA.

Na IA, onde confiança, segurança e explicabilidade são primordiais, todos — não apenas aqueles com os maiores bolsos ou mais recursos — devem ser capazes de participar. A Red Hat se dedica a defender a inovação de IA open source, abrindo caminho para que o futuro dessa tecnologia seja construído sobre uma base de desenvolvimento orientada pela comunidade, progresso compartilhado e liberdade de escolha.

Estamos investindo pesadamente em projetos open source e tecnologias de IA, colaborando com parceiros em todo o setor e desenvolvendo soluções que capacitam as organizações a implantar cargas de trabalho de IA de forma flexível onde quer que precisem estar. Hoje, anunciamos que assinamos um acordo definitivo para adquirir a Neural Magic. Acredito que esse marco significativo nos permitirá acelerar nosso progresso e concretizar nossa visão para o futuro da IA.

Na Red Hat, acreditamos que o futuro da IA é open source e depende de vários pilares essenciais:

Modelos pequenos propiciam a adoção

A IA não se trata apenas de modelos massivos e intensivos em recursos. Estamos testemunhando uma mudança em direção a modelos menores e mais especializados que oferecem desempenho excepcional com maior eficiência. Esses modelos não são apenas mais eficientes para treinar e implementar, mas também oferecem vantagens significativas em termos de personalização e adaptabilidade.

Tomemos, por exemplo, o IBM Granite 3.0, a terceira geração dos LLMs da série Granite, que enfatizam modelos de IA menores e funcionais. Lançados sob a licença Apache 2.0, esses modelos variam em tamanho de 1 bi a 8 bi de parâmetros, permitindo que sejam executados em qualquer lugar, desde um laptop até servidores GPU padrão. Assim como vimos com o Linux, essa facilidade de acessibilidade leva à inovação e adoção dentro das empresas.

E além de apenas um tamanho inicial menor, otimizar modelos de IA por meio de esparsificação e quantização é outro multiplicador de força, permitindo-nos atender a uma demanda cada vez maior com o mesmo hardware. A esparsificação remove estrategicamente conexões desnecessárias dentro de um modelo, reduzindo drasticamente seu tamanho e requisitos computacionais sem sacrificar a precisão ou o desempenho. A quantização reduz ainda mais o tamanho do modelo para rodar em plataformas com requisitos de memória reduzidos. Tudo isso se traduz em custos mais baixos, inferência mais rápida e capacidade de rodar cargas de trabalho de IA em uma gama mais ampla de hardware. Um foco semelhante no Linux o tornou capaz de rodar em praticamente qualquer infraestrutura do planeta - de relógios a supercomputadores. Com a Neural Magic se juntando à Red Hat, podemos trazer essa mesma ênfase para o espaço de IA.

O treinamento possibilita a obtenção de vantagens comerciais

Por mais poderosos que esses pequenos modelos de IA sejam, eles ainda são treinados em dados acessíveis publicamente. Eles têm um comando incrível de idiomas, entendem de negócios, sabem sobre a maioria dos tópicos na internet. Mas, quase que por definição, não entendem seu negócio. Se seus processos comerciais e sua propriedade intelectual não forem de domínio público, eles não os entenderão. E ainda assim você precisa refinar seus processos comerciais, não o conceito genérico de um. Então, para realmente desbloquear seu potencial comercial, você precisa inserir seu conhecimento nesses modelos. E isso requer treinamento.

A Red Hat está ajudando a viabilizar isso com o InstructLab, um projeto open source criado para facilitar a contribuição e o ajuste fino de LLMs para aplicações de gen IA, mesmo por usuários que não têm experiência em ciência de dados. Lançado pela Red Hat e IBM e entregue como parte do Red Hat AI, o InstructLab é baseado em um processo descrito em um artigo científico publicado em abril de 2024 por membros do MIT-IBM Watson AI Lab e da IBM. Isso reduz a complexidade para treinar um modelo de IA para suas necessidades, mitigando decididamente alguns dos aspectos mais caros da IA empresarial e tornando os LLMs mais facilmente personalizáveis para propósitos específicos.

A liberdade de escolha possibilita a inovação

A maioria das organizações tem cargas de trabalho que abrangem data centers corporativos e infraestrutura de nuvem. A IA deve se integrar perfeitamente à infraestrutura existente para permitir uma implantação flexível e consistente em diversos ambientes, seja on premises, na nuvem ou na borda. Você precisa ser capaz de treinar onde seus dados e recursos estão. E você precisa executar seus modelos onde quer que seja melhor para seu caso de uso. Assim como o Red Hat Enterprise Linux (RHEL) permitiu que aplicações compiladas nele fossem executadas em qualquer CPU sem alterar a aplicação, nossa missão é garantir que os modelos treinados com RHEL AI possam ser executados em qualquer servidor GPU. Essa combinação de hardware flexível, modelos pequenos, treinamento simplificado e otimização fornece a flexibilidade que permitirá que a inovação prospere.

Também acreditamos que o treinamento e a implantação de IA em escala exigirão a mesma disciplina que estabelecemos em software na última década. O Red Hat OpenShift AI reúne os domínios de personalização de modelos, inferência, monitoramento e recursos de ciclo de vida com as aplicações que os consomem no Red Hat OpenShift. A Neural Magic compartilha a mesma paixão por permitir que a IA seja executada em plataformas híbridas e demonstrou liderança nas comunidades de código aberto focadas em impulsionar a inovação neste domínio.

Amplificando a missão da Neural Magic

A Neural Magic foi fundada na crença de que a IA deveria ser capaz de rodar em qualquer lugar, dos menores dispositivos aos maiores datacenters. Sua história de origem como empresa é paralela a algumas das que vi nas pequenas, porém poderosas, equipes da Red Hat que estão inovando em IA, incluindo nossa equipe InstructLab, então acho que vale a pena compartilhar aqui.

Nir Shavit, um renomado professor do MIT especializado em computação paralela, vinha explorando as complexidades de algoritmos e hardware por décadas. Seu trabalho já havia revolucionado áreas como estruturas de dados concorrentes e memória transacional. Alex Matveev, um ex-pesquisador do MIT, trouxe experiência em aprendizado de máquina e uma profunda compreensão dos desafios enfrentados na implantação eficiente de modelos de IA.

A centelha para a Neural Magic acendeu quando Nir e Alex reconheceram um gargalo crítico no avanço da IA: a dependência de GPUs caras e frequentemente escassas. Essa dependência criou uma barreira de entrada, dificultando a adoção generalizada da IA ​​em vários setores e limitando seu potencial de revolucionar a maneira como vivemos e trabalhamos.

Eles embarcaram em uma missão para capacitar qualquer pessoa, independentemente de seus recursos, a aproveitar o poder da IA. Sua abordagem inovadora envolveu o aproveitamento de técnicas como poda (pruning) e quantização para otimizar modelos de aprendizado de máquina, começando por permitir que modelos de ML rodassem eficientemente em CPUs prontamente disponíveis sem sacrificar o desempenho. Por fim, a Neural Magic mudou sua visão para aceleração de GPU e trouxe esse mesmo nível de otimização e eficiência para gen IA por meio do vLLM. Esse compromisso com a inovação prometia tornar a IA mais acessível e fácil de implantar. Estou animado com a oportunidade de levar esses recursos aos nossos clientes na Red Hat AI, mas estou igualmente empolgado para que nossas equipes compartilhem uma cultura de experimentação e invenção enraizada em romper as limitações atuais que impedem o progresso e a adoção da IA.

Em nosso escritório de Boston, por exemplo, você encontrará um grupo motivado de colaboradores e pesquisadores apaixonados — coincidentemente, do MIT — trabalhando no InstructLab para resolver o gargalo de contribuição de treinamento na adoção generalizada de IA. Assim como a tecnologia da Neural Magic está democratizando o acesso à IA, o InstructLab busca fazer o mesmo com a forma como treinamos e ajustamos modelos. Mal posso esperar para ver quais outras descobertas essa equipe pode fazer, todos juntos.

Estou muito animado com a perspectiva da Neural Magic se juntar à Red Hat e acelerar nossa missão com a comunidade open source para criar o futuro da IA. Na Red Hat, acreditamos que o open source desbloqueia o potencial do mundo. Nossa missão com a Neural Magic será acelerar esse desbloqueio com IA. Acredito que fazer isso com a comunidade open source proporcionará o melhor resultado para o mundo.

Só estamos começando.


Sobre o autor

Matt Hicks was named President and Chief Executive Officer of Red Hat in July 2022. In his previous role, he was Executive Vice President of Products and Technologies where he was responsible for product engineering for much of the company’s portfolio, including Red Hat® OpenShift® and Red Hat Enterprise Linux®. He is one of the founding members of the OpenShift team and has been at the forefront of cloud computing ever since.

Prior to joining Red Hat 16 years ago, Hicks served in various roles spanning computer engineering, IT, and consulting. He has worked with Linux and open source for more than 25 years, and his breadth of experience has helped him solve customer and business problems across all areas of IT.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Original series icon

Programas originais

Veja as histórias divertidas de criadores e líderes em tecnologia empresarial