Pense em algumas das tendências passadas em tecnologia e você começará a ver alguns padrões emergirem. Por exemplo, com a computação em nuvem, não há uma abordagem padrão para todos. Combinações de diferentes abordagens, como on-premises e diferentes provedores de nuvem, levaram as organizações a aproveitar os benefícios da infraestrutura híbrida na implantação de suas aplicações corporativas. Quando pensamos no futuro, uma estrutura semelhante será essencial para o consumo de inteligência artificial (IA) em diversas aplicações e ambientes de negócios. A flexibilidade será crucial, pois não existe uma única abordagem de IA que atenderá às necessidades de todas as organizações. E nenhum fornecedor de plataforma de IA pode atender a todas as necessidades. Em vez disso, uma combinação de modelos pré-projetados, soluções personalizadas e integração segura com dados proprietários impulsionará a adoção da IA. Graças a estruturas, software e infraestrutura abertos, empresas de todos os tamanhos agora podem acessar e personalizar modelos de IA generativa (gen AI), adaptando-os às suas necessidades específicas.
De onde vêm as vantagens da gen AI?
Para entender como a IA pode ser consumida em aplicações internas e externas, vamos ser específicos sobre como as organizações estão investindo na tecnologia. Compiladas pelo State of Generative AI in the Enterprise 2024 da Deloitte, as vantagens mais importantes de investir em gen AI não tem a ver com inovar em sua área de negócios, mas sim em focar na eficiência, produtividade e automação de tarefas repetitivas. É verdade que esses modelos são capazes de gerar novos conteúdos, mas, neste caso, o valor real vem de grandes modelos de linguagem (LLMs) que entendem e processam grandes quantidades de dados para reconhecer padrões. Quando aplicadas ao software tradicional, essas aplicações aprimoradas por IA se tornam conhecidas como aplicações inteligentes, aumentando e auxiliando um fluxo de trabalho humano.
Entendendo como as organizações estão focando no investimento da IA generativa nas empresas, ©Deloitte 2024
Ainda assim, a jornada para adotar a IA pode variar; as organizações normalmente progridem da automação de tarefas simples para a integração total da IA em fluxos de trabalho corporativos. Essa adoção gradual começa com o piloto de casos de uso não críticos e o aproveitamento de ferramentas prontas para uso, como assistentes de código automatizados, que liberam tempo de tarefas repetitivas. À medida que a confiança no valor da IA cresce, os desenvolvedores e as empresas começam a incorporá-la em processos e aplicações de negócios específicos. A etapa final é a personalização — desenvolver modelos de IA proprietários que são informados por dados organizacionais únicos, permitindo que a IA gere insights e decisões exclusivos.
Cada fase traz suas próprias vantagens e complexidades à medida que as empresas se tornam cada vez mais sofisticadas em seu uso de IA. Vamos analisar mais profundamente esses estágios, que revelam como a IA pode gradualmente se tornar uma parte crítica e consumível de qualquer operação.
Utilizando a IA: agilizando tarefas com ajuda da IA
Nos últimos anos, muitos de nós já interagimos com a gen AI para automatizar e aprimorar o trabalho de rotina, especificamente para desenvolvedores e engenheiros. Assistentes de código são um caso de uso comum para LLMs, pois simplificam tarefas repetitivas em várias linguagens de programação. Por exemplo, ferramentas como Red Hat Ansible Lightspeed com watsonx Code Assistant ou Red Hat OpenShift Lightspeed integram IA para acelerar tarefas de desenvolvimento de software ou remover bugs de ambiente de TI operacional. Na prática, isso permite ciclos de interação mais rápidos e elimina trabalho redundante, permitindo que os desenvolvedores se concentrem em resolver problemas e em tomar decisões críticas.
Para equipes de TI, esses modelos pré-construídos são fáceis de implementar, exigem ajustes mínimos e podem operar sem mudanças significativas de infraestrutura, o que os torna uma opção acessível para equipes que estão começando a usar IA. É por isso que uma abordagem comum para priorizar o consumo de IA lida com a utilização para tornar o local de trabalho mais eficiente.
Adotando IA: Integrando IA para fluxos de negócios
Uma vez que as empresas se familiarizam com essas ferramentas, elas geralmente passam a adotar modelos de IA em suas operações comerciais. Nesse estágio, a IA é incorporada em aplicações para aprimorar a interação do usuário ou dar suporte a tarefas que podem ser escaladas, como atendimento ao cliente automatizado. Um exemplo é nossa Experience Engineering (XE), que usou o modelo Mixtral-8x7b-Instruct para gerar mais de 130.000 resumos de soluções para casos de suporte, levando a um aumento de 20% em casos em que os próprios clientes solucionaram seus problemas. Em muitos setores, os desenvolvedores estão liderando o esforço para adotar sistemas de recomendação orientados por IA e ferramentas dinâmicas de engajamento com o cliente. No entanto, em alguns casos, esses sistemas exigem uma certa personalização, como treinamento em padrões de interação específicos ou comportamentos do usuário, para garantir que as respostas sejam relevantes e úteis.
No fim das contas, usar IA com aplicações modernas permite que elas tenham um contexto mais profundo sobre o que o usuário está tentando alcançar. Seja esse contexto de entendimento geral ou específico para uma empresa, a IA sabe o que é necessário e as etapas para atingir a meta sem treinamento detalhado de uma equipe de TI. Remover esse atrito entre as pessoas e o sistema é, em última análise, para onde estamos indo com a tecnologia de IA — aplicações que entendem as pessoas e diminuem o "esforço" do processo.
O Red Hat OpenShift AI é uma plataforma de IA que se integra a uma plataforma de aplicações nativa em nuvem para permitir que os desenvolvedores testem, implantem e iterem em modelos de IA de forma eficaz, criando aplicações em tempo real que respondem às necessidades do cliente. Ao combinar modelos de base com dados de negócios usando APIs e estruturas de orquestração de IA, como LangChain, muitas ações tradicionalmente complexas com IA agora são tratadas com chamadas de função em uma aplicação em si.
Customizando a IA: integrando dados proprietários para alinhamento da IA
Para aqueles que estiverem prontos para assumir o controle total de seus modelos de IA, o próximo passo é personalizá-los com dados proprietários, um processo conhecido como alinhamento de modelo. É aqui que o potencial da IA muda de utilidade genérica para uma ferramenta de negócios estratégica, alinhando estreitamente com o contexto operacional de uma empresa. No entanto, treinar e ajustar modelos com dados privados apresenta desafios técnicos, como gerenciar a confidencialidade dos dados, alocação de recursos e atualizações contínuas do modelo.
A personalização se torna mais acessível por meio de estruturas como geração aumentada de recuperação (RAG) e alinhamento em larga escala para chatBots (LAB) no InstructLab, que permite que as equipes alinhem a IA com conhecimento específico do setor e dados proprietários. O InstructLab permite que as empresas coloquem conhecimento específico da empresa ou modelem funcionalidades a partir de LLMs de base usando uma nova técnica de geração de dados sintéticos, permitindo que a IA responda a perguntas ou execute tarefas diretamente relevantes para a organização.
Lembre-se, não há uma abordagem padronizada para o caminho que as organizações percorrerão em sua jornada de IA. No entanto, ao tornar a IA mais consumível, lembre-se das três áreas a priorizar: a utilização, adoção e personalização da gen AI.
Para ler mais sobre as notícias da KubeCon NA 2024 da Red Hat, visite a sala de imprensa da Red Hat KubeCon.
Sobre os autores
Cedric Clyburn (@cedricclyburn), Senior Developer Advocate at Red Hat, is an enthusiastic software technologist with a background in Kubernetes, DevOps, and container tools. He has experience speaking and organizing conferences including DevNexus, WeAreDevelopers, The Linux Foundation, KCD NYC, and more. Cedric loves all things open-source, and works to make developer's lives easier! Based out of New York.
Frank La Vigne is a seasoned Data Scientist and the Principal Technical Marketing Manager for AI at Red Hat. He possesses an unwavering passion for harnessing the power of data to address pivotal challenges faced by individuals and organizations.
A trusted voice in the tech community, Frank co-hosts the renowned “Data Driven” podcast, a platform dedicated to exploring the dynamic domains of Data Science and Artificial Intelligence. Beyond his podcasting endeavors, he shares his insights and expertise through FranksWorld.com, a blog that serves as a testament to his dedication to the tech community. Always ahead of the curve, Frank engages with audiences through regular livestreams on LinkedIn, covering cutting-edge technological topics from quantum computing to the burgeoning metaverse.
Navegue por canal
Automação
Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes
Inteligência artificial
Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente
Nuvem híbrida aberta
Veja como construímos um futuro mais flexível com a nuvem híbrida
Segurança
Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias
Edge computing
Saiba quais são as atualizações nas plataformas que simplificam as operações na borda
Infraestrutura
Saiba o que há de mais recente na plataforma Linux empresarial líder mundial
Aplicações
Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações
Programas originais
Veja as histórias divertidas de criadores e líderes em tecnologia empresarial
Produtos
- Red Hat Enterprise Linux
- Red Hat OpenShift
- Red Hat Ansible Automation Platform
- Red Hat Cloud Services
- Veja todos os produtos
Ferramentas
- Treinamento e certificação
- Minha conta
- Suporte ao cliente
- Recursos para desenvolvedores
- Encontre um parceiro
- Red Hat Ecosystem Catalog
- Calculadora de valor Red Hat
- Documentação
Experimente, compre, venda
Comunicação
- Contate o setor de vendas
- Fale com o Atendimento ao Cliente
- Contate o setor de treinamento
- Redes sociais
Sobre a Red Hat
A Red Hat é a líder mundial em soluções empresariais open source como Linux, nuvem, containers e Kubernetes. Fornecemos soluções robustas que facilitam o trabalho em diversas plataformas e ambientes, do datacenter principal até a borda da rede.
Selecione um idioma
Red Hat legal and privacy links
- Sobre a Red Hat
- Oportunidades de emprego
- Eventos
- Escritórios
- Fale com a Red Hat
- Blog da Red Hat
- Diversidade, equidade e inclusão
- Cool Stuff Store
- Red Hat Summit