Un modelo de inteligencia artificial generativa (IA gen), como ChatGPT, se entrena con una variedad de texto del Internet. Sin embargo, la inteligencia artificial (IA) no tiene información específica sobre documentos o fuentes particulares usados durante su entrenamiento. En lugar de centrarse en los detalles, el modelo está diseñado para ser general, lo que le permite generar respuestas creativas, entablar conversaciones complejas e incluso tener sentido del humor. Sin embargo, la IA no comprende ni tiene creencias. Sus respuestas se generan en función de los patrones aprendidos de los datos de entrenamiento.
Los sistemas de inteligencia artificial, como ChatGPT o cualquier modelo de lenguaje de gran tamaño (LLM), reflejan el conocimiento colectivo de la humanidad en una sola interfaz. Reorganizan el contenido existente de Internet, pero no "piensan", no son "inteligentes" en el sentido humano, no tienen "inteligencia general" como solucionadores de problemas generales y no son "conscientes" de lo que encuentran.
Inteligencia artificial generativa: ¿qué son los tokens?
La forma en que funcionan estos modelos se basa en el concepto de tokens, que son unidades discretas de lenguaje que van desde caracteres individuales hasta palabras completas. Estos modelos procesan una cantidad específica de tokens a la vez mediante cálculos matemáticos complejos para predecir el próximo token más probable en una secuencia.
Los modelos como los transformadores preentrenados generativos (GPT) generan texto, un token a la vez. Después de producir cada token, el modelo revisa toda la secuencia que ha generado hasta el momento y la procesa nuevamente para generar el siguiente token. Este proceso repetitivo continúa hasta que el token final completa el texto generado.
Esto significa que la calidad de la respuesta de la inteligencia artificial depende de la solicitud o la instrucción que proporciona un usuario. En otras palabras, la forma en que interactuamos con la inteligencia artificial y le realizamos solicitudes influye significativamente en la calidad de las respuestas que produce.
¿Qué es la ingeniería de peticiones?
La ingeniería de peticionesse refiere a la práctica de diseñar y elaborar indicaciones o instrucciones efectivas para que los modelos de inteligencia artificial logren los resultados deseados. En el contexto de los modelos de lenguaje como GPT-3, la ingeniería de peticiones implica formular texto de entrada que lleva al modelo a generar respuestas precisas, relevantes y adecuadas al contexto.
La ingeniería de peticiones es fundamental porque los modelos de lenguaje como GPT-3 no poseen una comprensión verdadera o sentido común. Generan respuestas basadas en patrones aprendidos de los datos de entrenamiento. La elaboración de peticiones (prompts) bien diseñados puede ayudar a guiar el modelo para producir salidas más precisas y significativas, mientras que las peticiones (prompts) mal formuladas pueden generar resultados incorrectos o sin sentido.
¿Qué es el diseño de peticiones?
El diseño de peticiones es la elaboración sistemática de instrucciones adecuadas para un LLM como ChatGPT, con el objetivo de lograr un objetivo específico y bien definido. Esta práctica combina elementos artísticos y científicos e incluye:
- Comprensión del LLM: diferentes LLM responden de manera diferente a la misma petición (prompt). Además, ciertos modelos de lenguaje pueden tener distintas palabras clave que desencadenan interpretaciones específicas en sus respuestas.
- Experiencia en el dominio: la competencia en el campo relevante es fundamental al formular peticiones (prompts). Por ejemplo, la creación de una petición para deducir un diagnóstico médico requiere conocimientos médicos.
- Proceso iterativo y evaluación de la calidad: diseñar la petición (prompt) perfecta suele implicar pruebas y mejoras. Es esencial contar con un método para evaluar la calidad de la salida generada que vaya más allá del juicio subjetivo.
Limitaciones de tamaño de la petición (prompt)
Es fundamental reconocer la importancia de la restricción del tamaño de un LLM, ya que influye directamente en la cantidad y la naturaleza de la información que podemos proporcionar. Los modelos de lenguaje no están diseñados para manejar una cantidad infinita de datos a la vez. En cambio, hay una restricción inherente en el tamaño de la petición (prompt) que puede realizar e ingresar. Esta limitación tiene profundas implicaciones en la forma en que formula y utiliza las peticiones (prompts) de manera efectiva.
Un LLM tiene una capacidad máxima de token que abarca tanto la petición como la respuesta que le sigue. En consecuencia, las peticiones (prompts) más largas podrían reducir la longitud de la respuesta generada. Es importante diseñar peticiones (prompts) que sean concisas, pero que transmitan la información necesaria.
En escenarios prácticos, debe adoptar el rol de un editor, seleccionando cuidadosamente los detalles pertinentes para una tarea. Este proceso es similar a la manera en que aborda la escritura de un documento o artículo con un límite específico de palabras o páginas. En tales casos, no puede simplemente presentar datos aleatorios. En cambio, debe elegir y organizar cuidadosamente la información que sea directamente relevante para el tema.
El diseño de peticiones es una habilidad humana que garantiza que el contenido sea preciso y esté bien estructurado. Las herramientas pueden ayudar a un escritor a ser más productivo, pero no son un sustituto para un escritor. Gen AI requiere la asistencia de un escritor, investigador y editor con conocimientos y experiencia. Para ser un buen diseñador de peticiones (prompts), necesita las mismas habilidades que un buen redactor de contenido.
Técnicas para el diseño y la ingeniería de peticiones (prompts)
La petición (prompt) que decida usar en cada situación depende de usted. Por ejemplo, si está escribiendo un artículo largo, las peticiones para generar ideas de contenido son útiles para generar información sección por sección. La siguiente no es una lista exhaustiva de todas las estrategias de diseño de peticiones, pero son algunos de los principales patrones en uso en la actualidad.
Patrón de persona
El patrón de persona es una técnica que dirige a la inteligencia artificial para que opere desde un punto de vista específico, como adoptar un rol profesional o personificar a un personaje ficticio. Este enfoque permite que el modelo genere salidas alineadas con las responsabilidades asociadas con esa persona en particular. Por ejemplo, puede indicarle a la IA que asuma el papel de un experto en ciberseguridad mientras evalúa el código. Esta estrategia se vuelve particularmente valiosa cuando busca orientación, pero carece de especificaciones precisas para obtener el resultado deseado. Por ejemplo:
Usuario: Imagine que es un historiador especializado en la guerra del Peloponeso. Usando esa perspectiva, explique los eventos y factores cruciales que llevaron a la guerra. |
En este escenario, se anticipa que la IA proporcionará un examen integral de la Guerra del Peloponeso con un enfoque en sus causas, como se esperaría desde el punto de vista de un historiador. Tenga en cuenta el estilo de escritura académico elevado y el vocabulario usado en la petición (prompt). La respuesta coincidirá con ese estilo. En otras palabras, su estilo de escritura en la petición determina el estilo del contenido generado. Esto es cierto para todos los enfoques de peticiones, así que adapte su escritura de peticiones de acuerdo con el contexto en el que está publicando.
Desde la perspectiva de un especialista en marketing, puede usar el patrón de persona para llegar a la mente de sus clientes. Sin revelar información confidencial, puede pedirle a la IA que adopte la personalidad de su público objetivo y, luego, hacerle preguntas. La IA responderá desde la perspectiva teórica del cliente. Por supuesto, esto no es infalible y de ninguna manera reemplaza la buena investigación de los usuarios y los datos de marketing. Sin embargo, puede ayudarlo a escribir diferentes versiones y generar ideas.
Nuevo patrón de información
La IA tiene limitaciones, y una muy importante es que no está al tanto de la información más allá del punto donde terminan sus datos de entrenamiento. La IA no puede incluir eventos recientes ni considerar actualizaciones que se hayan producido después de su entrenamiento. Sin embargo, puede incorporar información nueva al conocimiento del modelo estructurando sus peticiones de manera efectiva. Por ejemplo, considere la siguiente interacción:
Usuario: ¿Puede explicar qué es la conciencia fenoménica? IA: la conciencia fenoménica se refiere a la experiencia subjetiva y en primera persona de lo que es ser consciente de algo. En otras palabras, es la "sensación en bruto" de las sensaciones y experiencias que tenemos, como el sabor del chocolate, el color rojo, la sensación de felicidad o la sensación de dolor. |
Al proporcionar un poco más de contexto en la petición (prompt), puede crear una explicación más identificable:
Usuario: Describa el concepto de conciencia fenoménica en relación con el debate sobre si las computadoras pueden ser conscientes. IA: La conciencia fenoménica desempeña un papel fundamental en el debate actual sobre si las computadoras pueden lograr una verdadera conciencia. Este debate gira en torno a la idea de que, si bien las computadoras pueden simular ciertos aspectos de la inteligencia, pueden fallar cuando se trata de experimentar la conciencia de la misma manera que los humanos. Las computadoras pueden simular varias funciones cognitivas e incluso realizar tareas que parecen inteligentes. Sin embargo, la pregunta es si esta simulación equivale a una experiencia consciente genuina. Los escépticos argumentan que incluso si una computadora se comporta de manera consciente, puede carecer de las experiencias internas y cualitativas que tenemos los humanos. |
Pulir el patrón de preguntas
La IA tiene la capacidad de ayudarlo a mejorar la calidad de sus consultas. Por ejemplo, si plantea una pregunta, la IA puede proponer una pregunta formulada con precisión que probablemente arrojará resultados más precisos.
Esta capacidad se encapsula en el patrón de preguntas de refinamiento. Resulta especialmente útil cuando no tiene experiencia en un campo en particular o no está seguro de cuál es la mejor manera de formular su pregunta. Considere esta petición (prompt) de ejemplo:
Usuario: Siempre que pregunte sobre la ciencia de datos, sugiera una pregunta que se centre más en los aspectos específicos del análisis estadístico. Además, pregunte si deseo continuar con la pregunta refinada. |
En este escenario, se espera que la IA mejore sus consultas generales de ciencia de datos al reducirlas a preguntas que consideren específicamente los aspectos del análisis estadístico. Luego, la IA preguntará si el usuario desea continuar con la pregunta refinada.
Patrón de verificador cognitivo
El patrón de verificador cognitivo implica un método para deconstruir preguntas complejas en subpreguntas más pequeñas y manejables. Las respuestas a estos elementos más pequeños se integran posteriormente para generar una respuesta integral a la pregunta principal. Este enfoque se vuelve particularmente valioso cuando las preguntas iniciales son demasiado amplias o cuando se requiere mayor claridad para ofrecer una respuesta completa. Considere este ejemplo:
Usuario: En los casos en los que plantee una pregunta relacionada con el marco de inferencia de búsqueda para la resolución de problemas, divídala en tres preguntas más pequeñas que mejorarían la precisión de su respuesta. Una vez que obtenga las respuestas a estas preguntas secundarias, combínelas para presentar la respuesta final. |
En este escenario, la IA analiza la pregunta compleja relacionada con el marco de inferencia de búsqueda en tres subpreguntas. Una vez que ha recopilado las respuestas para cada subpregunta, las fusiona para producir una respuesta integral y precisa.
Este patrón implica la generación de múltiples consultas, lo que lleva a una respuesta final más precisa. El proceso implica verificar la información y consolidarla para garantizar un resultado sólido y completo. Es similar al método de aprendizaje e instrucción de todo-parte-todo en la estrategia educativa.
Peticiones de ideas
En un artículo de investigación reciente tituladoChain-of-Thought Prompting Elicits Reasoning in Large Language Models, Jason Wei y su equipo intentaron imitar las habilidades de razonamiento dentro de un LLM. A diferencia de la práctica convencional de usar peticiones directas, el equipo emplea una serie de peticiones interconectadas que forman lo que denominan unacadena de pensamiento.
Por ejemplo, considere a un usuario que desea explorar el impacto potencial de la inteligencia artificial en los mercados laborales:
Usuario: ¿Podría darnos una breve explicación sobre la inteligencia artificial? IA: la inteligencia artificial, comúnmente conocida como IA, consiste en máquinas que imitan los comportamientos humanos inteligentes. Es el diseño de las máquinas para pensar y aprender de manera similar a los humanos, lo que les permite realizar tareas como traducir idiomas, tomar decisiones y resolver problemas. Usuario: ¿Cómo influye la IA en el mercado laboral actual? IA: la IA da forma a nuevos trabajos y altera la naturaleza de los actuales. Automatiza las tareas rutinarias, lo que lleva al desplazamiento de ciertos trabajos en sectores específicos. Por el contrario, genera demanda de puestos que antes no existían, como los encargados de ética de la IA, los analistas de datos y los ingenieros de machine learning. Además, la IA puede mejorar las funciones humanas, lo que permite que las personas completen las tareas con mayor eficiencia y precisión. |
El enfoque de petición de cadenas de pensamiento implica una secuencia de solicitudes conectadas que establecen una "conversación" con el modelo de lenguaje. Este enfoque guía el modelo hacia respuestas más precisas y contextuales, lo que fomenta una progresión de ideas y razonamiento. También puede entrenar a la IA para que imite su estilo de escritura específico, siempre que sus indicaciones estén escritas en el mismo tono, estilo, actitud y estructura que su respuesta ideal.
La cadena de pensamiento es especialmente efectiva para la redacción de artículos. Si ya tiene un artículo, un ensayo o un argumento, puede estructurar su cadena de indicaciones a lo largo de ese flujo. Debido a que una IA tiene un límite en la cantidad de caracteres que puede proporcionarle, la cadena de pensamiento puede ayudarlo a obtener información para una sección de su artículo a la vez, en lugar de intentar que la IA genere un artículo completo de una sola vez. . Esto le permite tener más control sobre la información y obtener respuestas más precisas y detalladas. Usted controla la estructura, mientras que la IA genera fragmentos de la pieza completa, una solicitud a la vez, bajo su guía.
Patrón del asistente de investigación
En esta petición, solicita ayuda para encontrar fuentes para un proyecto de investigación. AI responde recomendando tres artículos de investigación relevantes. Proporciona los títulos, los autores y los detalles de publicación de los artículos, junto con breves descripciones de su contenido. La IA también enfatiza la importancia de hacer referencias cruzadas y evaluar la credibilidad de las fuentes. El diseño de la petición aprovecha de manera efectiva las capacidades de la IA para ayudar en la investigación al sugerir fuentes confiables para un estudio más detallado. Por ejemplo:
Usuario: Estoy trabajando en un proyecto de investigación sobre los efectos del cambio climático en los ecosistemas costeros. ¿Me pueden ayudar a encontrar fuentes relevantes para mi estudio? AI: ¡Por supuesto! Para ayudarlo en su investigación sobre los efectos del cambio climático en los ecosistemas costeros, le recomiendo comenzar con las siguientes fuentes: **Smith, JR, et al. (2020). "Impactos del aumento del nivel del mar y el cambio climático en los ecosistemas costeros: una revisión". Journal of Coastal Research.' **García, S., et al. (2019). "Cambios inducidos por el cambio climático en los ecosistemas costeros: una evaluación global". Ciencias y políticas ambientales'. **Johnson, L., et al. (2018). "Vulnerabilidad de los ecosistemas costeros ante el cambio climático: implicaciones para la planificación de la adaptación". Ecología y sociedad'. Estos artículos brindan información valiosa sobre los impactos del cambio climático en los ecosistemas costeros. Recuerde realizar referencias cruzadas y evaluar la credibilidad de estas fuentes para su estudio. Si necesita más fuentes o información específica, no dude en preguntar. |
Este mensaje le ayudará a evitar uno de los principales puntos débiles de la IA y los LLM: la información errónea. Al solicitar fuentes en lugar de contenido, la IA puede reducir drásticamente el tiempo requerido para investigar su proyecto, pero aún así evalúa las fuentes y obtiene la información que necesita de ellas.
Mejora de la petición del generador de citas
De manera similar, cuando le pide a AI que escriba contenido, puede solicitar que cite sus fuentes y proporcione una sección de referencias. Declare qué estilo de cita prefiere y la interfaz devolverá ese formato. Por ejemplo, considere este ejemplo abreviado:
Usuario: Explique el concepto de entrelazamiento cuántico. En su respuesta, incluya citas de APA entre paréntesis en el texto, así como una sección de referencias de APA. IA: el entrelazamiento cuántico es un fenómeno fundamental en la mecánica cuántica en el que dos o más partículas se interconectan de tal manera que sus propiedades, como el espín o la polarización, se correlacionan independientemente de la distancia entre ellas (Griffiths, 2018). Esta conexión persiste incluso cuando las partículas están separadas por grandes distancias, lo que sugiere una influencia instantánea entre ellas, lo que desafía nuestra comprensión clásica de la causalidad (Einstein, Podolsky y Rosen, 1935). [...] Referencias Einstein, A., Podolsky, B. y Rosen, N. (1935). ¿Se puede considerar completa la descripción mecánica cuántica de la realidad física? Physical Review, 47(10), 777-780. Griffiths, DJ (2018). Introducción a la mecánica cuántica (3.ª ed.). Cambridge University Press. |
Como siempre, querrá actuar como editor y verificar la precisión de la información. Examine cada una de las fuentes proporcionadas por la IA y asegúrese de que las afirmaciones que hace sobre los argumentos de una fuente sean verdaderas. Además, verifique que la sección de referencias en sí tenga el formato APA correcto.
Según el campo que esté investigando, es probable que pueda reconocer rápidamente algunos de los nombres importantes en la sección de referencias, que es una forma abreviada de verificar la precisión. Por ejemplo, Alain Aspect recibió el Premio Nobel de Física de 2022 por su trabajo de décadas sobre el entrelazamiento cuántico, por lo que cuando su nombre encabeza la lista de referencias en un aviso sobre el entrelazamiento cuántico, es una señal prometedora de que la fuente que utilizó la IA es confiable.
Este tipo de petición es otro ejemplo de por qué los escritores, editores e investigadores humanos con experiencia en un tema determinado son cruciales para el proceso de redacción de contenido. La IA puede acelerar el proceso, pero no sustituye al escritor humano.
Pedirle a la IA que cite sus fuentes es especialmente eficaz cuando se combina con la cadena de ideas. Para combinar los dos, siga la estrategia de peticiones para la cadena de pensamiento, como se explicó anteriormente. Antes de enviar cada petición individual en la cadena, solicite a la IA que cite sus fuentes en el formato que necesita. A continuación, envíe la solicitud.
Patrón de pocos intentos
La petición de pocos intentos es un método potente que se usa para entrenar los modelos de IA para que se adhieran a patrones específicos o ejecuten tareas. La idea fundamental consiste en proporcionar al modelo algunos ejemplos antes de plantear la pregunta real. Esta práctica ayuda a definir el comportamiento deseado y a guiar las respuestas posteriores del modelo.
Imagine una situación en la que desea diseñar un mensaje de marketing breve y cautivador para un nuevo dispositivo tecnológico:
Usuario: Estos son algunos ejemplos de mensajes de marketing tecnológico: "Disfrute de la música como nunca antes con nuestros auriculares inalámbricos de última generación". "Captura tu mundo en 4K impresionante con nuestra cámara de acción increíblemente elegante". Con estos ejemplos, cree un mensaje de marketing para nuestro innovador reloj inteligente con tecnología de IA. IA: mejore su estilo de vida con nuestro reloj inteligente con IA, su socio para el bienestar, la conectividad y la eficiencia. |
El aspecto más destacable del aprendizaje en pocos intentos es que se basa en demostraciones en lugar de instrucciones detalladas de procedimientos. Esta característica lo hace adaptable para diversas aplicaciones. Esta técnica va más allá de la correlación básica de entradas y salidas. Permite que el modelo aprenda a manejar los pasos intermedios para lograr un objetivo en particular. Este método es ideal para ayudar a los redactores de marketing a desarrollar iteraciones de textos breves, como títulos, textos breves, líneas de asunto, anuncios en redes sociales, llamadas a la acción (CTA), etc.
Ahora que conoce estos patrones de petición especialmente útiles, pruébelos en el LLM de su elección. Usé ChatGPT en mis ejemplos.
La inteligencia artificial (IA) impulsa las experiencias y los avances nuevos en áreas y sectores diversos. Si desea obtener más información, descubra cómo utilizar las plataformas de Red Hat para diseñar, implementar, supervisar y utilizar los modelos y las aplicaciones de IA con la velocidad, la confianza y la transparencia de la comunidad open source.
Sobre el autor
Michael Santos has been with Red Hat since 2022. He works on learning paths, product trials and other technical learning content.
Navegar por canal
Automatización
Las últimas novedades en la automatización de la TI para los equipos, la tecnología y los entornos
Inteligencia artificial
Descubra las actualizaciones en las plataformas que permiten a los clientes ejecutar cargas de trabajo de inteligecia artificial en cualquier lugar
Nube híbrida abierta
Vea como construimos un futuro flexible con la nube híbrida
Seguridad
Vea las últimas novedades sobre cómo reducimos los riesgos en entornos y tecnologías
Edge computing
Conozca las actualizaciones en las plataformas que simplifican las operaciones en el edge
Infraestructura
Vea las últimas novedades sobre la plataforma Linux empresarial líder en el mundo
Aplicaciones
Conozca nuestras soluciones para abordar los desafíos más complejos de las aplicaciones
Programas originales
Vea historias divertidas de creadores y líderes en tecnología empresarial