生成式 AI(gen AI)模型,如 ChatGPT,使用来自互联网的各种文本进行训练。但是,人工智能(AI)没有关于训练期间使用的特定文档或来源的具体信息。该模型不是专注于细节,而是经过通用训练,使其能够提出创造性的答案,参与复杂的对话,甚至表现出幽默感。然而,人工智能并不具备理解力、理解力或信念。其响应是根据从训练数据中学到的模式生成的。
ChatGPT 等 AI 系统或任何大型语言模型(LLM)都是人类集体知识在单个界面中的反映。它们从互联网上重组现有的内容,但不会“思考”,不是人类意义上的“智能”,没有一般问题解决者的“一般智能”,也没有“意识到”他们发现的内容。
生成式 AI 的工作原理:什么是令牌?
这些模型的运行方式基于令牌的概念,令牌是离散的语言单元,范围从单个字符到整个单词。这些模型使用复杂的数学计算一次处理特定数量的令牌,以预测序列中最有可能的下一个令牌。
诸如生成式预训练 Transformer(GPT)之类的模型一次生成一个令牌的文本。在生成每个令牌后,模型会检查到目前为止生成的整个序列,并再次处理以生成下一个令牌。此递归过程将继续,直到最终令牌完成生成的文本。
这意味着 AI 响应的质量取决于用户提供的提示词或指令。换言之,我们与 AI 交互和指导 AI 的方式会显着影响 AI 生成答案的质量。
什么是快速工程?
提示词工程是指为 AI 模型设计和制作有效提示或指令以实现所需输出的实践。在 GPT-3 等语言模型的上下文中,提示词工程涉及制定输入文本,使模型生成准确、相关且适合上下文的回答。
有效的提示词工程至关重要,因为像 GPT-3 这样的语言模型不具备真正的理解力或常识性推理。它们根据从训练数据中学到的模式生成响应。精心设计的提示词有助于引导模型产生更准确、更有意义的输出,而设计不当的提示可能会导致不正确或无意义的结果。
什么是提示词设计?
提示词设计 是针对 ChatGPT 等 LLM 系统化地编写非常适合的指令,旨在实现明确的具体目标。这种实践结合了艺术和科学元素,包括:
- 了解 LLM:不同的 LLM 对相同的提示词有不同的响应。此外,某些语言模型可能具有不同的关键字或提示,在其响应中触发特定的解释
- 领域专业知识:在撰写提示时,精通相关领域至关重要。例如,创建提示词来推断医学诊断需要医学知识
- 迭代流程和评估质量:设计完美的提示词通常涉及尝试和改进。必须有一种超越主观判断的方法来评估所生成输出的质量
提示大小限制
认识到 LLM 规模限制的重要性至关重要,因为它直接影响我们可以提供的信息的数量和性质。语言模型无法同时处理无限量的数据。相反,您可以构建和输入的提示词的长度存在固有的限制。这种限制对您如何有效地制定和利用提示具有深远的影响。
LLM 具有最大令牌容量,其包含提示和随后的响应。因此,较长的提示可能会缩短生成的响应的长度。务必要制作简洁但能传达必要信息的提示。
在实际场景中,您必须扮演编辑的角色,为任务仔细选择相关的详细信息。这个过程反映了您在特定字数或页数限制内撰写论文或文章的方式。在这种情况下,您不能简单地转储随机事实。相反,您必须深思熟虑地选择和组织与主题直接相关的信息。
提示词设计是一项人类技能,有助于确保内容准确且结构合理。工具可以帮助作家提高工作效率,但不能取代作家。Gen AI 需要知识渊博、经验丰富的撰稿人、研究人员和编辑的协助。要成为一名优秀的提示词设计师,您需要具备成为一名优秀内容编写者所具备的技能。
提示词设计和提示词工程的方法
在哪种情况下使用哪种提示取决于您自己。例如,如果您正在撰写一篇长文章,链式思维提示可用于一次生成一个部分的信息。下文并未详尽列出所有提示符设计策略,而是列出了当今最常用的一些模式。
人物角色模式
人物角色模式是一种指导 AI 从特定角度运行的技术,例如采用专业角色或体现虚构人物。这种方法使模型能够生成与特定用户角色相关的职责相一致的输出。例如,您可以指示 AI 在评估代码时扮演网络安全专家的角色。当您寻求指导,但缺乏所需输出的精确规范时,此策略变得特别有价值。例如:
用户:假设您是一位专门研究伯罗奔尼撒战争的资深历史学家。从这个角度解释导致战争爆发的关键事件和因素。 |
在这个场景中,预计 AI 将对伯罗奔尼撒战争进行全面研究,重点关注其原因,就像您从历史学家的角度所期望的那样。注意提示中使用的高级学术写作风格和词汇。响应将与该样式匹配。换句话说,您在提示词中的书写风格决定了所生成内容的风格。所有提示方法都是如此,因此请根据您要发布的上下文来定制提示写作。
从营销人员的角度来看,您可以使用用户角色模式来了解客户的想法。在不透露任何机密信息的情况下,您可以让 AI 假设目标受众的用户角色,然后向它提问。AI 将从理论上的客户角度做出响应。当然,这并非万无一失,也不能取代良好的用户研究和营销数据。但是,它可以帮助您撰写不同形式的文案并激发灵感。
新信息模式
AI 也有局限性,一个非常重要的局限性是,它无法感知超出其训练数据结束点的信息。AI 无法包含最近发生的事件,也无法考虑训练后发生的更新。但是,您可以通过有效地构造提示,将新信息整合到模型的知识中。例如,考虑以下交互:
用户:您能解释一下什么是现象意识吗? AI:现象意识是指以第一人称的主观体验来感知某物。换句话说,它是我们所拥有的感觉和体验的“原始感觉”,例如巧克力的味道、红色、快乐的感觉或痛苦的感觉。 |
通过在提示词中提供更多上下文,您可以创建更具关联性的解释:
用户:描述现象意识的概念,因为它与关于计算机是否具有意识的争论有关。 AI:关于计算机能否实现真正的意识的持续争论中,现象意识发挥着关键作用。这场争论的核心理念是,虽然计算机可以模拟智能的某些方面,但在以与人类相同的方式体验意识方面,它们可能存在不足。 计算机可以模拟各种认知功能,甚至可以执行看似智能的任务。然而,问题在于这种模拟是否等同于真正的意识体验。怀疑论者认为,即使计算机的行为方式看起来像是有意识的,它也可能缺乏人类所拥有的内在的、定性的体验。 |
细化问题模式
AI 能够协助提高查询质量。例如,如果您提出问题,AI 可以提出一个精确表述的问题,这可能会产生更准确的结果。
此功能封装在提炼问题模式中。当您缺乏特定领域的专业知识或不确定如何最好地表达您的问题时,它特别有用。请考虑以下示例提示符:
用户:每当我询问有关数据科学的问题时,请提出一个更侧重于统计分析细节的问题。另外,询问我是否要继续改进问题。 |
在这种情况下,AI 有望通过将范围缩小到专门考虑统计分析方面的问题来增强您的一般数据科学查询。然后,AI 将询问用户是否希望继续回答优化后的问题。
认知验证者模式
认知验证者模式涉及一种将复杂问题分解为更小、更易于管理的子问题的方法。这些较小组成部分的答案随后被整合,以生成对主要问题的综合回答。当最初的问题过于宽泛,或者需要额外的清晰度来提供全面的答案时,这种方法就特别有价值。考虑以下示例:
用户:如果我提出的问题与解决问题的搜索推理框架相关,请将其分解为三个较小的问题,以提高您回答的准确性。获得这些子问题的答案后,将它们合并以呈现最终答案。 |
在这种情况下,AI 将与搜索推理框架相关的复杂问题分解为三个子问题。收集到每个子问题的答案后,它会将它们合并以生成全面且准确的答案。
这种模式需要生成多个查询,从而获得更精确的最终响应。该过程涉及验证信息和整合信息,以确保可靠而全面的输出。这类似于教育策略中“整体-部分-整体”的学习和教学方法。
思维链提示
在最近的一篇题为大型语言模型中的思想链提示引发推理的研究论文中,Jason Wei 和他的团队旨在模拟 LLM 中的推理能力。与使用直接提示的传统做法不同,该团队采用了一系列相互关联的提示,形成他们称为的思维链。
例如,某用户想要探索人工智能对就业市场的潜在影响:
用户:您能简单介绍一下人工智能吗? AI:人工智能,通常称为 AI,涉及模仿智能人类行为的机器。它是指让机器像人类一样思考和学习,从而执行诸如翻译语言、做出决策和解决问题等任务。 用户:AI 如何影响当前的就业市场? AI:AI 既塑造了新的工作岗位,也改变了现有工作岗位的性质。它实现了日常任务的自动化,导致特定部门的某些工作岗位被取代。相反,它催生了对以前不存在的岗位的需求,如人工智能道德官、数据分析师和机器学习工程师。此外,人工智能还可以增强人类的作用,使个人能够更高效、更准确地完成任务。 |
思维链式提示方法需要一系列相互关联的提示,与语言模型建立“对话”。这种方法可以引导模型做出更精确、更贴合语境的回答,促进想法和推理的进展。它还可以训练 AI 模仿您的特定写作风格,只要您的提示以与理想答案相同的语气、风格、态度和结构编写。
思维链对于文章写作尤其有效。如果您有一篇文章、一篇文章或一个论点已经概述,您可以按照该流程构建您的提示链。由于 AI 可以为您提供的字符数量有限,因此思维链可以帮助您一次提示文章的一个部分的信息,而不是试图让 AI 一次性生成整篇文章。这使您可以更好地控制信息,并获得更准确、更详细的答复。您可以控制结构,而 AI 会在您的指导下逐一提示生成整个片段的各个部分。
研究助理模式
在本提示中,您请求帮助以查找研究项目的来源。AI 会推荐三篇相关的研究文章作为回应。它提供了文章的标题、作者和出版详细信息,以及其内容的简短描述。AI 还强调了交叉引用和评估来源可信度的重要性。提示设计有效地利用了 AI 的功能,通过建议信誉良好的来源以供进一步研究来协助研究。例如:
用户:我正在参与一个关于气候变化对沿海生态系统影响的研究项目。您能帮我找到研究的相关资源吗? AI:当然!为了协助您研究气候变化对沿海生态系统的影响,我建议您从以下来源入手: **Smith, JR 等。 (2020 年)。 “海平面上升和气候变化对沿海生态系统的影响:回顾”,沿海研究杂志, **Garcia, S. 等(2019)。 “气候变化引起的沿海生态系统变化:全球评估”, 《环境科学与政策》, **Johnson, L. 等(2018)。 “气候变化对沿海生态系统的脆弱性:对适应规划的影响。” 《生态与社会》, 这些文章提供了有关气候变化对沿海生态系统影响的宝贵见解。记得在您的研究中交叉引用和评估这些来源的可信度。如果您需要更多来源或具体信息,请随时询问! |
至关重要的是,此提示可帮助您避免 AI 和 LLM 的一个主要弱点:错误信息。通过询问来源而不是内容,AI 可以大大减少项目研究所需的时间,但您仍然可以评估来源并从中提取所需的信息。
引文生成器提示增强
类似地,当您要求 AI 编写内容时,您可以要求它引用其来源并提供参考部分。声明您喜欢的引文样式,接口将返回该格式。例如,考虑以下简略示例:
用户:解释量子纠缠的概念。在您的回复中,请在正文中附上 APA 引文,以及 APA 参考资料部分。 AI:量子纠缠是量子力学中的一种基本现象,其中两个或多个粒子相互连接,使得它们的属性(如自旋或极化)变得相关,无论它们之间的距离如何(Griffiths,2018 年)。即使当粒子相距很远时,这种联系仍然存在,这表明它们之间存在瞬时影响,这挑战了我们对因果关系的经典理解(Einstein, Podolsky, & Rosen, 1935)。 [...] 参考资料: Einstein, A.、Podolsky, B. 和 Rosen, N.(1935 年)。物理现实的量子力学描述可以被认为是完整的吗?《物理评论》,47(10), 777-780。 Griffiths, DJ(2018 年)。量子力学导论(第 3 版)。剑桥大学出版社。 |
与往常一样,您需要充当编辑并检查信息的准确性。检查 AI 提供的每个来源,并确保 AI 对来源的论点做出的声明是真实的。此外,验证参考资料部分本身的 APA 格式是否正确。
根据您正在研究的领域,您可能能够快速识别参考资料部分中的一些知名人士,这是检查准确性的简写方式。例如,Alain Aspect 因其数十年来对量子纠缠的研究而获得了 2022 年诺奖物理学奖,因此,当他的名字在有关量子纠缠的提示中出现在参考文献列表的顶部时,这是一个有希望的迹象,表明 AI 使用的来源是可靠的。
这种类型的提示是另一个例子,说明了为什么在特定主题上具有专业知识的人类作家、编辑和研究人员对内容写作过程至关重要。人工智能可以加快这个过程,但它无法取代人类作家。
让 AI 引用其来源,再加上思维链提示,其效果尤其显着。要将两者结合起来,请遵循上面所述的思维链提示策略。在提交链中的每个提示之前,请让 AI 以您要求的格式引用其来源。然后提交请求。
少样本模式
少样本提示是一种有效的方法,可用于训练 AI 模型遵循特定模式或执行任务。其基本思想是在提出实际问题之前为模型提供少量示例。这种做法有助于定义所需的行为,并指导模型的后续响应。
想象一下这样一种情况:您想要为一款新科技产品制作简洁且引人入胜的营销信息:
用户:以下是技术营销信息的几个实例:“使用我们最先进的无线耳机体验前所未有的音乐。”“使用我们超时尚的运动相机,以令人惊叹的 4K 格式捕捉您的世界。”使用这些示例,为我们创新的 AI 智能手表创建营销信息。 AI:我们的 AI 驱动型智能手表是您健康、互联互通和效率的好伙伴,让您的生活方式更上一层楼。 |
少样本学习的显着之处在于它依赖于演示,而不是详细的程序指令。此功能使其适用于各种应用。这种技术超越了基本的输入输出匹配。它使模型能够学习如何处理中间步骤以实现特定目标。这种方法非常适合帮助营销文案撰写迭代的简短文案,如标题、正文、主题行、社交媒体广告、号召性用语(CTA)等。
现在您已经了解了这些特别有用的提示模式,请在您选择的 LLM 中尝试一下。我在示例中使用了 ChatGPT。
人工智能(AI)正在推动各个领域和行业的新发现和新体验。如果您已准备好了解更多信息,请探索如何使用红帽平台来构建、部署、监控和使用 AI 模型和应用,并借助开源社区的速度、信任和透明度来加速发展。
关于作者
Michael Santos has been with Red Hat since 2022. He works on learning paths, product trials and other technical learning content.
更多此类内容
产品
工具
试用购买与出售
沟通
关于红帽
我们是世界领先的企业开源解决方案供应商,提供包括 Linux、云、容器和 Kubernetes。我们致力于提供经过安全强化的解决方案,从核心数据中心到网络边缘,让企业能够更轻松地跨平台和环境运营。