Inscreva-se no feed

Pense em algumas das tendências passadas em tecnologia e você começará a ver alguns padrões emergirem. Por exemplo, com a computação em nuvem, não há uma abordagem padrão para todos. Combinações de diferentes abordagens, como on-premises e diferentes provedores de nuvem, levaram as organizações a aproveitar os benefícios da infraestrutura híbrida na implantação de suas aplicações corporativas. Quando pensamos no futuro, uma estrutura semelhante será essencial para o consumo de inteligência artificial (IA) em diversas aplicações e ambientes de negócios. A flexibilidade será crucial, pois não existe uma única abordagem de IA que atenderá às necessidades de todas as organizações. E nenhum fornecedor de plataforma de IA pode atender a todas as necessidades. Em vez disso, uma combinação de modelos pré-projetados, soluções personalizadas e integração segura com dados proprietários impulsionará a adoção da IA. Graças a estruturas, software e infraestrutura abertos, empresas de todos os tamanhos agora podem acessar e personalizar modelos de IA generativa (gen AI), adaptando-os às suas necessidades específicas.

De onde vêm as vantagens da gen AI?

Para entender como a IA pode ser consumida em aplicações internas e externas, vamos ser específicos sobre como as organizações estão investindo na tecnologia. Compiladas pelo State of Generative AI in the Enterprise 2024 da Deloitte, as vantagens mais importantes de investir em gen AI não tem a ver com  inovar em sua área de negócios, mas sim em focar na eficiência, produtividade e automação de tarefas repetitivas. É verdade que esses modelos são capazes de gerar novos conteúdos, mas, neste caso, o valor real vem de grandes modelos de linguagem (LLMs) que entendem e processam grandes quantidades de dados para reconhecer padrões. Quando aplicadas ao software tradicional, essas aplicações aprimoradas por IA se tornam conhecidas como aplicações inteligentes, aumentando e auxiliando um fluxo de trabalho humano.

Entendendo como as organizações estão focando no investimento da IA generativa nas empresas, ©Deloitte 2024

Ainda assim, a jornada para adotar a IA pode variar; as organizações normalmente progridem da automação de tarefas simples para a integração total da IA ​​em fluxos de trabalho corporativos. Essa adoção gradual começa com o piloto de casos de uso não críticos e o aproveitamento de ferramentas prontas para uso, como assistentes de código automatizados, que liberam tempo de tarefas repetitivas. À medida que a confiança no valor da IA ​​cresce, os desenvolvedores e as empresas começam a incorporá-la em processos e aplicações de negócios específicos. A etapa final é a personalização — desenvolver modelos de IA proprietários que são informados por dados organizacionais únicos, permitindo que a IA gere insights e decisões exclusivos.

Cada fase traz suas próprias vantagens e complexidades à medida que as empresas se tornam cada vez mais sofisticadas em seu uso de IA. Vamos analisar mais profundamente esses estágios, que revelam como a IA pode gradualmente se tornar uma parte crítica e consumível de qualquer operação.

Utilizando a IA: agilizando tarefas com ajuda da IA

Nos últimos anos, muitos de nós já interagimos com a gen AI para automatizar e aprimorar o trabalho de rotina, especificamente para desenvolvedores e engenheiros. Assistentes de código são um caso de uso comum para LLMs, pois simplificam tarefas repetitivas em várias linguagens de programação. Por exemplo, ferramentas como Red Hat Ansible Lightspeed com watsonx Code Assistant ou Red Hat OpenShift Lightspeed integram IA para acelerar tarefas de desenvolvimento de software ou remover bugs de ambiente de TI operacional. Na prática, isso permite ciclos de interação mais rápidos e elimina trabalho redundante, permitindo que os desenvolvedores se concentrem em resolver problemas e em tomar decisões críticas.

Para equipes de TI, esses modelos pré-construídos são fáceis de implementar, exigem ajustes mínimos e podem operar sem mudanças significativas de infraestrutura, o que os torna uma opção acessível para equipes que estão começando a usar IA. É por isso que uma abordagem comum para priorizar o consumo de IA lida com a utilização para tornar o local de trabalho mais eficiente.

Adotando IA: Integrando IA para fluxos de negócios

Uma vez que as empresas se familiarizam com essas ferramentas, elas geralmente passam a adotar modelos de IA em suas operações comerciais. Nesse estágio, a IA é incorporada em aplicações para aprimorar a interação do usuário ou dar suporte a tarefas que podem ser escaladas, como atendimento ao cliente automatizado. Um exemplo é nossa Experience Engineering (XE), que usou o modelo Mixtral-8x7b-Instruct para gerar mais de 130.000 resumos de soluções para casos de suporte, levando a um aumento de 20% em casos em que os próprios clientes solucionaram seus problemas. Em muitos setores, os desenvolvedores estão liderando o esforço para adotar sistemas de recomendação orientados por IA e ferramentas dinâmicas de engajamento com o cliente. No entanto, em alguns casos, esses sistemas exigem uma certa personalização, como treinamento em padrões de interação específicos ou comportamentos do usuário, para garantir que as respostas sejam relevantes e úteis.

No fim das contas, usar IA com aplicações modernas permite que elas tenham um contexto mais profundo sobre o que o usuário está tentando alcançar. Seja esse contexto de entendimento geral ou específico para uma empresa, a IA sabe o que é necessário e as etapas para atingir a meta sem treinamento detalhado de uma equipe de TI. Remover esse atrito entre as pessoas e o sistema é, em última análise, para onde estamos indo com a tecnologia de IA — aplicações que entendem as pessoas e diminuem o "esforço" do processo.

Red Hat OpenShift AI é uma plataforma de IA que se integra a uma plataforma de aplicações nativa em nuvem para permitir que os desenvolvedores testem, implantem e iterem em modelos de IA de forma eficaz, criando aplicações em tempo real que respondem às necessidades do cliente. Ao combinar modelos de base com dados de negócios usando APIs e estruturas de orquestração de IA, como LangChain, muitas ações tradicionalmente complexas com IA agora são tratadas com chamadas de função em uma aplicação em si.

Customizando a IA: integrando dados proprietários para alinhamento da IA

Para aqueles que estiverem prontos para assumir o controle total de seus modelos de IA, o próximo passo é personalizá-los com dados proprietários, um processo conhecido como alinhamento de modelo. É aqui que o potencial da IA ​​muda de utilidade genérica para uma ferramenta de negócios estratégica, alinhando estreitamente com o contexto operacional de uma empresa. No entanto, treinar e ajustar modelos com dados privados apresenta desafios técnicos, como gerenciar a confidencialidade dos dados, alocação de recursos e atualizações contínuas do modelo.

A personalização se torna mais acessível por meio de estruturas como geração aumentada de recuperação (RAG)alinhamento em larga escala para chatBots (LAB) no InstructLab, que permite que as equipes alinhem a IA com conhecimento específico do setor e dados proprietários. O InstructLab permite que as empresas coloquem conhecimento específico da empresa ou modelem funcionalidades a partir de LLMs de base usando uma nova técnica de geração de dados sintéticos, permitindo que a IA responda a perguntas ou execute tarefas diretamente relevantes para a organização.

Lembre-se, não há uma abordagem padronizada para o caminho que as organizações percorrerão em sua jornada de IA. No entanto, ao tornar a IA mais consumível, lembre-se das três áreas a priorizar: a utilização, adoção e personalização da gen AI.

Para ler mais sobre as notícias da KubeCon NA 2024 da Red Hat, visite a sala de imprensa da Red Hat KubeCon.


Sobre os autores

Cedric Clyburn (@cedricclyburn), Senior Developer Advocate at Red Hat, is an enthusiastic software technologist with a background in Kubernetes, DevOps, and container tools. He has experience speaking and organizing conferences including DevNexus, WeAreDevelopers, The Linux Foundation, KCD NYC, and more. Cedric loves all things open-source, and works to make developer's lives easier! Based out of New York.

Read full bio

Frank La Vigne is a seasoned Data Scientist and the Principal Technical Marketing Manager for AI at Red Hat. He possesses an unwavering passion for harnessing the power of data to address pivotal challenges faced by individuals and organizations.
A trusted voice in the tech community, Frank co-hosts the renowned “Data Driven” podcast, a platform dedicated to exploring the dynamic domains of Data Science and Artificial Intelligence. Beyond his podcasting endeavors, he shares his insights and expertise through FranksWorld.com, a blog that serves as a testament to his dedication to the tech community. Always ahead of the curve, Frank engages with audiences through regular livestreams on LinkedIn, covering cutting-edge technological topics from quantum computing to the burgeoning metaverse.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Original series icon

Programas originais

Veja as histórias divertidas de criadores e líderes em tecnologia empresarial