Modelos de IA generativa (Gen AI), como o ChatGPT, são treinados usando uma variedade de textos da internet. No entanto, a inteligência artificial (IA) não tem informações específicas sobre os documentos ou fontes de referências usados em seu processo de treinamento. Em vez de focar nos detalhes, o modelo é treinado para ser geral, permitindo respostas criativas, conversas complexas e até mesmo tenha senso de humor. No entanto, a IA não possui compreensão, discernimento ou crença. Suas respostas são geradas com base em padrões aprendidos por meio dos dados de treinamento.
Sistemas de IA como o ChatGPT ou qualquer modelo de linguagem de larga escala (LLM) são reflexos do conhecimento coletivo da humanidade em uma única interface. Eles reorganizam o conteúdo existente da Internet, mas não "pensam", não são "inteligentes" no sentido humano, não têm "inteligência geral" como solucionadores de problemas gerais e não têm "consciência" do que encontram.
Como a IA generativa funciona: o que são tokens?
A forma como esses modelos operam é baseada no conceito de tokens, os quais são unidades discretas de linguagem que variam de caracteres individuais a palavras inteiras. Esses modelos processam um número específico de tokens por vez usando cálculos matemáticos complexos para prever o próximo token mais provável em uma sequência.
Modelos como os transformadores pré-treinados generativos (GPTs) geram um token de texto por vez. Após produzir cada token, o modelo revisa toda a sequência gerada até o momento e a processa novamente para gerar o próximo token. Esse processo recursivo continua até que o token final conclua o texto gerado.
Isso significa que a qualidade da resposta da IA depende do prompt ou da instrução fornecida pelo usuário. Em outras palavras, a maneira como interagimos e instruímos a IA influencia significativamente a qualidade das respostas que ela produz.
O que é engenharia de prompts?
Engenharia de prompts se refere à prática de projetar e criar prompts ou instruções eficazes para modelos de IA a fim de alcançar os resultados desejados. No contexto de modelos de linguagem como o GPT-3, a engenharia de prompts envolve a formulação de um texto de entrada que leva o modelo a gerar respostas precisas, relevantes e contextualmente adequadas.
Uma engenharia de prompt eficaz é crucial porque modelos de linguagem como o GPT-3 não possuem compreensão verdadeira ou raciocínio de senso comum. Eles geram respostas com base em padrões aprendidos com dados de treinamento. A elaboração de prompts bem projetados pode ajudar a orientar o modelo a produzir saídas mais precisas e significativas, enquanto prompts mal formulados podem levar a resultados incorretos ou sem sentido.
O que é design de prompts?
Design de prompt é a elaboração sistemática de instruções adequadas para um LLM como o ChatGPT, visando alcançar um objetivo específico e bem definido. Essa prática combina elementos artísticos e científicos e inclui:
- Compreensão do LLM: LLMs diferentes respondem de maneira diferente ao mesmo prompt. Além disso, certos modelos de linguagem podem ter palavras-chave ou dicas distintas que acionam interpretações específicas em suas respostas.
- Especialidade no domínio: proficiência no campo relevante é crucial para formular prompts. Por exemplo, criar um prompt para deduzir um diagnóstico médico exige conhecimento médico.
- Processo iterativo e avaliação da qualidade: desenvolver o prompt perfeito geralmente envolve tentativa e refinamento. É essencial ter um método para avaliar a qualidade da saída gerada que vá além do julgamento subjetivo.
Limitações de tamanho de prompt
Reconhecer a importância da restrição de tamanho de um LLM é crucial, por influenciar diretamente a quantidade e a natureza das informações que podemos oferecer. Os modelos de linguagem não são projetados para lidar com uma quantidade infinita de dados de uma só vez. Em vez disso, há uma restrição inerente ao tamanho do prompt que você pode construir e inserir. Essa limitação tem profundas implicações em como você formula e utiliza prompts com eficiência.
Os LLMs têm uma capacidade máxima de token que abrange o prompt e a resposta resultante. Consequentemente, prompts mais longos podem reduzir o comprimento da resposta gerada. É importante criar prompts concisos, mas que transmitam as informações necessárias.
Em cenários práticos, você deve adotar a função de editor, selecionando cuidadosamente os detalhes pertinentes para uma tarefa. Esse processo reflete a maneira como você aborda a escrita de um artigo ou artigo em um limite específico de palavras, ou páginas. Nesses casos, você não pode simplesmente despejar fatos aleatórios. Em vez disso, você deve escolher e organizar cuidadosamente as informações que são diretamente relevantes para o assunto.
Prompt design é uma habilidade humana que ajuda a garantir um conteúdo preciso e bem estruturado. As ferramentas podem ajudar um redator a ser mais produtivo, mas não substituem um redator. A Gen AI exige a assistência de um redator, pesquisador e editor conhecedor e experiente. Para ser um bom criador de prompts, você precisa das mesmas habilidades que um bom redator de conteúdo.
Técnicas para design e engenharia prompts
Você decide qual prompt usar em cada situação. Por exemplo, se você estiver escrevendo um artigo longo, o prompt de cadeia de pensamento é útil para gerar informações de uma seção por vez. A lista a seguir não engloba todas as estratégias de design de prompt que existem, mas contém alguns dos principais padrões em uso hoje em dia.
Padrão de persona
O Persona Pattern é uma técnica que direciona a IA para operar a partir de um ponto de vista específico, como adotar uma função profissional ou incorporar um personagem fictício. Essa abordagem capacita o modelo a gerar saídas alinhadas com as responsabilidades associadas a essa persona específica. Por exemplo, você pode instruir a IA a assumir a função de especialista em cibersegurança durante a avaliação do código. Essa estratégia se torna especialmente relevante quando você busca orientação, mas não tem especificações precisas para o resultado desejada. Veja alguns exemplos:
Usuário: Imagine que você é um especialista em história da Guerra do Peloponeso. Usando essa perspectiva, explique os eventos e fatores cruciais que levaram à eclosão da guerra. |
Nesse cenário, espera-se que a IA forneça uma visão abrangente da Guerra do Peloponeso com foco em suas causas, como seria de esperar do ponto de vista de um historiador. Observe o estilo de escrita e vocabulário acadêmico de alto nível usados no prompt. A resposta corresponderá a esse estilo. Em outras palavras, seu estilo de escrita no prompt determina o estilo do conteúdo gerado. Isso vale para todas as abordagens de prompts, então adapte a forma de redigir seus prompts ao contexto do meio onde o texto será publicado.
Do ponto de vista de um profissional de marketing, você pode usar o padrão Persona Pattern para pensar como seus clientes. Sem revelar nenhuma informação confidencial, você pode pedir à IA que assuma o papel do seu público-alvo e depois fazer perguntas. A IA responderá do ponto de vista teórico do cliente. É claro que isso não é infalível e de forma alguma substitui uma boa pesquisa e coleta de dados de marketing. No entanto, ele pode ajudar você a escrever diferentes formas de texto e gerar ideias.
Novo padrão de informações
A IA tem suas limitações e uma das mais significativas é não reconhecer informações além dos seus dados de treinamento. A IA não inclui eventos recentes ou considera atualizações que ocorreram após o treinamento. No entanto, você pode incorporar novas informações ao conhecimento do modelo estruturando seus prompts de maneira eficaz. Por exemplo, considere a seguinte interação:
Usuário: Você pode explicar o que é consciência fenomênica? IA: Consciência fenomênica se refere à experiência subjetiva e em primeira pessoa de como é estar ciente de algo. Em outras palavras, é a "sensação crua" de sentimentos e experiências que temos, como o gosto de chocolate, a cor vermelha, a sensação de alegria ou a sensação de dor. |
Ao fornecer um pouco mais de contexto no prompt, você pode criar uma explicação mais fidedigna:
Usuário: Descreva o conceito de consciência fenomênica em relação ao debate sobre se os computadores poderão algum dia ser conscientes. IA: A consciência fenomênica desempenha um papel fundamental no debate contínuo sobre se os computadores poderão alcançar a verdadeira consciência. Esse debate gira em torno da ideia de que, embora os computadores possam simular certos aspectos da inteligência, eles podem falhar quando se trata de experimentar a consciência da mesma forma como os humanos. Os computadores podem simular várias funções cognitivas e até mesmo realizar tarefas que parecem inteligentes. No entanto, a verdadeira questão é se essa simulação equivale a uma experiência consciente genuína ou não. Os céticos argumentam que, mesmo que um computador se comporte de maneira que pareça consciente, ele pode não ter as experiências internas e qualitativas que os humanos têm. |
Padrão de perguntas de refinamento
A IA consegue ajudar a melhorar a qualidade das suas consultas. Por exemplo, se você fizer uma pergunta, a IA pode propor uma pergunta formulada com precisão que provavelmente geraria resultados mais precisos.
Essa capacidade é encapsulada no padrão de perguntas refinadas. Isso é especialmente relevante quando você não tem experiência em um campo específico ou não tem certeza sobre a melhor maneira de formular sua pergunta. Considere este exemplo de prompt:
Usuário: Sempre que eu perguntar sobre ciência de dados, sugira uma pergunta mais focada nas especificidades da análise estatística. Além disso, pergunte se eu gostaria de prosseguir com a pergunta refinada. |
Nesse cenário, espera-se que a IA aprimore suas consultas sobre ciência de dados restringindo-as a perguntas que considerem especificamente os aspectos da análise estatística. A IA perguntará se o usuário deseja continuar com a pergunta refinada.
Padrão de verificador cognitivo
O padrão de verificador cognitivo envolve um método de desconstrução de perguntas complexas em subperguntas menores e mais gerenciáveis. As respostas a esses componentes menores são posteriormente integradas para gerar uma resposta abrangente à pergunta principal. Essa abordagem se torna especialmente relevante quando as perguntas iniciais são muito amplas ou quando mais clareza é necessária para fornecer uma resposta completa. Considere este exemplo:
Usuário: Nos casos em que eu fizer uma pergunta relacionada à estrutura de inferência de pesquisa da resolução de problemas, divida-a em três perguntas menores que aumentariam a precisão da sua resposta. Após obter as respostas para essas subperguntas, combine-as para apresentar a resposta final. |
Nesse cenário, a IA divide a pergunta complexa sobre a estrutura de inferência de pesquisa em três subperguntas. Depois de reunir as respostas para cada subpergunta, ele as agrupa para produzir uma resposta abrangente e precisa.
Esse padrão envolve a geração de várias consultas, levando a uma resposta final mais precisa. O processo envolve a verificação das informações e a consolidação delas para garantir uma saída robusta e completa. É semelhante ao método "todo-parte-todo" de aprendizado e instrução em estratégia educacional.
Prompt de cadeia de pensamento
Em uma pesquisa recente intitulada Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, Jason Wei e sua equipe queriam imitar as habilidades de raciocínio em um LLM. Diferentemente da prática convencional de usar prompts diretos, a equipe emprega uma série de prompts interconectados que formam o que chamam decadeia de pensamento.
Por exemplo, considere um usuário que deseja explorar o possível impacto da inteligência artificial no mercado de trabalho:
Usuário: Você poderia explicar brevemente sobre inteligência artificial? IA: A inteligência artificial, comumente chamada de IA, envolve máquinas que imitam comportamentos humanos inteligentes. As máquinas foram projetadas para pensar e aprender semelhantemente aos humanos, permitindo que eles realizem tarefas como traduzir idiomas, tomar decisões e resolver problemas. Usuário: Como a IA influencia o mercado de trabalho atual? IA: A IA está criando novos empregos e alterando a natureza dos existentes. Ele automatiza tarefas rotineiras, levando à substituição de certos trabalhos em setores específicos. Por outro lado, está gerando demanda para funções que antes não existiam, como agentes de ética de IA, analistas de dados e engenheiros de machine learning. Além disso, a IA pode aprimorar as funções humanas, permitindo que os indivíduos concluam tarefas com maior eficiência e precisão. |
A abordagem de prompts de cadeia de pensamento envolve uma sequência de prompts conectados que estabelecem uma "conversa" com o modelo de linguagem. Essa abordagem orienta o modelo em direção a respostas mais precisas e contextualmente adequadas, promovendo uma progressão de ideias e raciocínio. Ele também pode treinar a IA para imitar seu estilo de escrita específico, contanto que seus prompts sejam escritos no mesmo tom, estilo, atitude e construção que sua resposta ideal.
A cadeia de pensamento é especialmente eficaz para a redação de artigos. Se você tiver um artigo, um ensaio ou um argumento já delineado, poderá estruturar sua cadeia de prompts de acordo com esse fluxo. Como a IA tem um limite de quantos caracteres ela pode fornecer, a cadeia de pensamento pode ajudar você a solicitar informações para uma seção do seu artigo por vez, em vez de tentar fazer com que a IA gere um artigo inteiro de uma só vez. Isso permite que você tenha mais controle sobre as informações e obtenha respostas mais precisas e detalhadas. Você controla a estrutura enquanto a IA gera blocos inteiros, um prompt por vez, sob sua orientação.
Padrão do assistente de pesquisa
Nesse prompt, você solicita ajuda para encontrar fontes para um projeto de pesquisa. A AI responde recomendando três artigos de pesquisa relevantes. A IA fornece os títulos, autores e detalhes de publicação dos artigos, juntamente com breves descrições de seu conteúdo. A IA também enfatiza a importância de fazer referências cruzadas e avaliar a credibilidade das fontes. O design de prompt aproveita efetivamente os recursos da IA para ajudar na pesquisa, sugerindo fontes confiáveis para estudos mais aprofundados. Por exemplo:
Usuário: Estou trabalhando em um projeto de pesquisa sobre os efeitos das mudanças climáticas nos ecossistemas costeiros. Você pode me ajudar a encontrar fontes relevantes para o meu estudo? IA: claro! Para ajudar na sua pesquisa sobre os efeitos das mudanças climáticas nos ecossistemas costeiros, recomendo começar com as seguintes fontes: **Smith, J.R., et al. (2020). "'Impacts of Sea-Level Rise and Climate Change on Coastal Ecosystems: A Review.' Journal of Coastal Research." **Garcia, S., et al. (2019). "Climate Change-Induced Shifts in Costeira Ecosystems: A Global Assessment". Environmental Science and Policy." **Johnson, L., et al. (2018). "Vulnerability of Coastal Ecosystems to Climate Change: Implications for Adaptation Planning.' Ecology and Society." Esses artigos oferecem informações poderosas sobre os impactos das mudanças climáticas nos ecossistemas costeiros. Lembre-se de fazer referência cruzada e avaliar a credibilidade dessas fontes para seu estudo. Se precisar de mais fontes ou informações específicas, não hesite em perguntar! |
É crucial que esse prompt ajude a evitar um dos principais pontos fracos da IA e dos LLMs: a desinformação. Ao solicitar fontes em vez de conteúdo, a IA pode reduzir drasticamente o tempo necessário para pesquisar o seu projeto, mas você ainda avalia as fontes e extrai delas as informações necessárias.
Aprimoramento de prompt do gerador de citações
Da mesma forma, quando você pede à IA para escrever conteúdo, você pode solicitar que ela cite as fontes e forneça uma seção de referências. Declare qual estilo de citação você prefere, e a interface retornará esse formato. Por exemplo, considere este exemplo abreviado:
Usuário: explicar o conceito de emaranhamento quântico. Na sua resposta, inclua citações da APA entre parênteses no texto, bem como uma seção de referências da APA. IA: Emaranhamento quântico é um fenômeno fundamental na mecânica quântica em que duas ou mais partículas se tornam interconectadas de modo que suas propriedades, como rotação ou polarização, se tornam correlacionadas independentemente da distância entre elas (Griffiths, 2018). Essa conexão persiste mesmo quando as partículas estão separadas por grandes distâncias, sugerindo uma influência instantânea entre elas, o que desafia nossa compreensão clássica da causalidade (Einstein, Podolsky e Rosen, 1935). [...] Referências Einstein, A., Podolsky, B., e Rosen, N. (1935). A Descrição da Realidade Física pela Mecânica Quântica Pode Ser Considerada Completa? Physical Review, 47(10), 777-780. Griffiths, D. J. (2018). Introdução à Mecânica Quântica (3ª ed.). Imprensa da Universidade de Cambridge. |
Como sempre, você deve atuar como editor e verificar a precisão das informações. Examine cada uma das fontes fornecidas pela IA e garanta que as afirmações feitas pela IA sobre os argumentos de uma fonte sejam verdadeiras. Além disso, verifique se a seção de referências está formatada conforme as normas da ABNT.
Dependendo da sua área de pesquisa, você provavelmente será capaz de reconhecer rapidamente alguns dos grandes nomes na seção de referências, o que é uma forma abreviada de verificar a precisão. Por exemplo, Alain Aspect recebeu o Prêmio Nobel de física em 2022 por seu trabalho de décadas no campo de emaranhamento quântico. Portanto, quando seu nome está no topo da lista de referências de um prompt sobre emaranhamento quântico, é um sinal promissor de que a fonte usada pela IA é confiável.
Esse tipo de prompt é outro exemplo de por que redatores, editores e pesquisadores humanos com experiência em um determinado assunto são cruciais para o processo de redação de conteúdo. A IA pode acelerar o processo, mas não substitui o redator humano.
Pedir à ferramenta de IA que cite suas fontes é bastante eficaz quando combinado com os prompts de cadeia de pensamento. Para combinar os dois, siga a estratégia de prompts para cadeia de pensamento, conforme explicado acima. Antes de enviar cada prompt individual na cadeia, peça à IA para citar suas fontes no formato que você precisa. Em seguida, envie a solicitação.
Padrão de poucos disparos
Os prompts de poucos disparos são um método potente usado para treinar modelos de IA a aderir a padrões específicos ou executar tarefas. A ideia fundamental envolve fornecer ao modelo alguns exemplos antes de fazer a pergunta real. Essa prática auxilia na definição do comportamento desejado e na orientação das respostas subsequentes do modelo.
Imagine uma situação em que você queira criar uma mensagem de marketing sucinta e cativante para um novo dispositivo tecnológico:
Usuário: Veja alguns exemplos de mensagens de marketing de tecnologia: "Ouça sua música como nunca antes com nossos fones de ouvido sem fio de última geração." "Capture seu mundo em incríveis 4K com nossa câmera de ação incrivelmente sofisticada." Usando esses exemplos, crie uma mensagem de marketing para nosso smartwatch inovador com tecnologia de IA. IA: Melhore seu estilo de vida com nosso smartwatch com tecnologia de IA, seu parceiro para bem-estar, conectividade e eficiência. |
O aspecto notável do aprendizado em poucas sessões é que ele depende mais de demonstrações do que de instruções processuais detalhadas. Esse recurso o torna adaptável para várias aplicações. Essa técnica vai além da correspondência básica de entrada e saída. Ele permite que o modelo aprenda como lidar com etapas intermediárias para atingir uma meta específica. Esse método é ideal para ajudar os redatores de marketing a desenvolver iterações de textos curtos, como títulos, textos curtos, assunto, anúncios para redes sociais, calls-to-action (CTA) e assim por diante.
Agora que você conhece esses padrões de prompt especialmente úteis, experimente-os no LLM de sua escolha. Usei o ChatGPT nos meus exemplos.
A inteligência artificial está impulsionando novas descobertas e experiências em diversas áreas e indústrias. Se quiser saber mais, descubra como usar as plataformas da Red Hat para criar, implantar e monitorar modelos e aplicações de IA com a velocidade, confiança e transparência da comunidade open source.
Sobre o autor
Michael Santos has been with Red Hat since 2022. He works on learning paths, product trials and other technical learning content.
Mais como este
Navegue por canal
Automação
Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes
Inteligência artificial
Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente
Nuvem híbrida aberta
Veja como construímos um futuro mais flexível com a nuvem híbrida
Segurança
Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias
Edge computing
Saiba quais são as atualizações nas plataformas que simplificam as operações na borda
Infraestrutura
Saiba o que há de mais recente na plataforma Linux empresarial líder mundial
Aplicações
Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações
Programas originais
Veja as histórias divertidas de criadores e líderes em tecnologia empresarial