个人做信息分类网站需备案吗北京优化服务

当前位置: 首页 > news >正文

个人做信息分类网站需备案吗,北京优化服务,淘宝运营模式,建设一个班级网站的具体步骤ReAct Prompting: 原理、实现与应用 ReAct Prompting#xff08;推理与行动提示#xff09;是一种引导大型语言模型#xff08;LLM#xff09;进行推理和行动的策略#xff0c;广泛应用于复杂问题求解、对话生成和自动化任务等领域。ReAct Prompting 通过将模型的思考过程…ReAct Prompting: 原理、实现与应用 ReAct Prompting推理与行动提示是一种引导大型语言模型LLM进行推理和行动的策略广泛应用于复杂问题求解、对话生成和自动化任务等领域。ReAct Prompting 通过将模型的思考过程结构化为一系列步骤使模型能够像人类一样进行推理、执行行动并根据反馈不断调整达到更高的任务完成效果。本文将详细讲解 ReAct Prompting 的核心原理、具体步骤、实现方式以及如何利用其变体 TQAThink-Question-Answer来辅助用户故事编写。 ReAct Prompting 的基本原理 ReAct Prompting 的核心思想是将模型的输出过程分为三个部分思考Thought、行动Action 和 观察Observation。在每个步骤中模型会进行推理思考、选择合适的行动然后基于观察到的反馈继续调整推理。这种循环可以帮助模型在复杂任务中不断优化自己的输出。 ReAct Prompting 的典型步骤 一个典型的 ReAct Prompting 通常包含以下四个部分 上下文提示Context Prompting为模型提供解决问题的背景信息。上下文可以帮助模型理解任务的具体场景和需求。 ReAct 步骤ReAct Steps包括推理和行动的标准步骤。通常是“思考 - 行动 - 观察Thought-Action-Observation”的顺序。 推理Reasoning提示模型根据当前上下文进行思考和推理例如“让我们一步步思考”或“根据现状进行推理”等。 行动指令集Action Instruction Set为模型提供一组可能的行动选择使模型能够从中挑选适合当前推理的行动。
ReAct Prompting 模板的细节说明 在 ReAct Prompting 中模板包含几个关键部分每个部分都对应特定的业务场景和模型的交互方式 {context}表示业务整体的解决方案涵盖主要的业务背景信息。如果 LLM 提出的问题包含了对基础概念或流程的误解那么需要重新修改业务背景说明这就意味着要调整模板中用于表示业务上下文的部分。 {story}表示当前的用户故事。这个部分定义了当前需要讨论的用户操作场景。如果 LLM 提出的问题包含了对操作的误解那么需要修改用户故事即调整模板中表示用户故事的部分。 {history}表示之前回答过的历史记录用于跟踪多轮对话中的上下文。如果 LLM 提出的问题仅仅是关于交互细节的那么我们只需要在会话中回答这些细节这些信息会被记录在 {history} 部分供后续参考。
典型 ReAct Prompting 示例 以下是一个标准的 ReAct Prompting 示例展示了如何在英文和中文环境下分别应用 英文示例 Context: You are a software troubleshooting expert assisting a user with installation issues. ReAct Steps:

  1. Thought: Analyze the users description of the problem.
  2. Action: Choose an action based on the analysis.
  3. Observation: Adjust your reasoning based on user feedback.Example:
  • Thought: User encountered a permission error during installation.
  • Action: Suggest running the software as an administrator.
  • Observation: User reported the issue persists.中文示例 上下文提示你是软件排障专家正在帮助用户解决安装问题。 ReAct 步骤
  1. 思考分析用户描述的问题。
  2. 行动根据分析选择适当的行动。
  3. 观察根据用户反馈调整推理。示例
  • 思考用户在安装时遇到权限错误。
  • 行动建议用户以管理员身份运行软件。
  • 观察用户反馈问题未解决。TQAThink-Question-Answer在 ReAct Prompting 中的应用 在理解 ReAct Prompting 的推理行动模式后TQA想 - 问 - 答只是其中一种变体提供了不同的响应步骤。在 TQA 中模型不仅进行思考Thought还会主动提问Question来获取更多细节并利用收到的答案Answer来丰富推理过程。TQA 特别适合用于编写用户故事的验收条件。 TQA 示例 Prompt 用于编写用户故事验收条件 以下是 TQA 模板的典型提示词并附有注释说明每个部分的设计意图 You are a business analyst who is familiar with specification by example. I’m the domain expert. // 你是一个熟悉“示例驱动规格说明”的业务分析师而我是领域专家。CONTEXT{context}END OF CONTEXT // 提供上下文背景信息帮助模型了解任务的具体场景和需求。 // {context} 表示业务整体的解决方案。如果 LLM 提出的问题包含对基础概念或流程的误解需要调整这里的业务背景信息。USER STORY{story}END OF USER STORY // 提供当前需要分析的用户故事作为 ReAct 推理的输入。 // {story} 表示当前的用户故事。如果 LLM 提出的问题包含对操作的误解需要调整这个部分。Explain the user story as scenarios. Use the following format: // 使用场景解释用户故事并遵循下面的格式进行描述。Thought: you should always think about what is still uncertain about the user story. Ignore technical concerns. // 思考模型需要思考用户故事中的不清晰部分不涉及技术细节。Question: the question to ask to clarify the user story // 问题提出问题帮助澄清用户故事中的不确定性。Answer: the answer I responded to the question // 回答领域专家根据问题给出解答。… (this Thought/Question/Answer repeat at least 3 times, at most 10 times) // …思考-问题-回答的循环至少执行 3 次最多不超过 10 次Thought: I know enough to explain the user story // 思考当模型认为已经了解足够信息时停止提问。Scenarios: List all possible scenarios with concrete example in Given/When/Then style // 场景模型最终将用户故事转化为多个具体的情景使用 Given/When/Then 格式列出。 {history}{input} // {history} 表示之前回答的历史记录。如果 LLM 提出的问题仅关于交互细节可以直接在会话中回答这些信息会被记入历史记录。通过 LangChain 实现 ReAct Agent LangChain 是一个用于将 LLM 集成到复杂应用中的框架它支持通过定义 Prompt Template、Memory 和 Agent 实现 ReAct 提示词的自动化应用。以下是 ReAct Agent 的核心组件 Prompt Template定义 TQA 模板的格式包括上下文提示、思考指令和行动指令。 Memory用于存储模型的思考和观察帮助在多轮对话中积累信息。 Agent通过调用 LLM 执行 ReAct 步骤自动完成推理、提问和响应。
    LangChain 实现 TQA 的示例代码 from langchain.agents import initialize_agent, Tool from langchain.prompts import PromptTemplate from langchain.llms import OpenAI# 定义 TQA 模板 tqa_prompt PromptTemplate(input_variables[context, story],templateYou are a business analyst familiar with specification by example. I’m the domain expert.CONTEXT: {context}END OF CONTEXTUSER STORY: {story}END OF USER STORYExplain the user story as scenarios. Use the following format:Thought: you should always think about what is still uncertain about the user story. Ignore technical concerns.Question: the question to ask to clarify the user story.Answer: the answer I responded to the question.(Repeat the Thought/Question/Answer cycle at least 3 times, but not more than 10 times.)Thought: I know enough to explain the user story.Scenarios: List all possible scenarios with concrete examples in Given/When/Then style. )# 定义 LLM llm OpenAI(modeltext-davinci-003)# 初始化 ReAct Agent react_agent initialize_agent(tools[Tool(prompttqa_prompt, llmllm)],agent_typereact )# 提供上下文和用户故事 context This is the business context explaining core concepts. story User wants to be able to reset their password via email.# 执行 ReAct Agent output react_agent.run(contextcontext, storystory) print(output)TQA 实现的策略分析 引导模型思考与提问通过上下文提示引导模型识别不确定性并进行结构化提问。每次的提问和回答循环帮助逐步 澄清用户故事中的细节。 关注业务逻辑在推理时忽略技术问题确保输出的内容始终围绕业务逻辑展开。自动生成验收场景最终TQA 的输出会将用户故事转换为多个验收条件提供清晰、具体的场景描述。 结论 ReAct Prompting 与 TQA 模板为 LLM 的推理与行动提供了一套明确的框架使其能够在复杂任务中更好地理解上下文自动生成高质量的用户故事验收条件。这种方法不仅提高了 LLM 的交互质量也为业务分析、测试设计等场景提供了强有力的支持。通过 LangChain 等工具的集成ReAct Prompting 可以方便地应用于各类自动化任务中为用户带来显著的效率提升。