在构建强大的 AI 系统,尤其是基于大语言模型(LLM)的智能代理(Agent)时,Prompt 设计的质量决定了系统的智能程度。传统 Prompt 通常是简单的问答或填空式指令,而高级任务需要更具结构性、策略性和思考性的 Prompt。
本文将结合 链式思维(Chain-of-Thought, CoT)、反思机制(Reflection) 和 代理执行机制(LLM Agents),分享如何高效构建具备"推理+行动+自检"的高级 Prompt,并结合 Python 代码示例展示如何在实践中使用。
###本文的案例使用三方API为Openrouter:“https://openrouter.ai”
🧠 背景知识回顾
技术 | 概述 |
---|---|
链式思维 (CoT) | 通过让 LLM 逐步推理,提升复杂任务的准确率和可解释性(如数学推理、规划)。 |
反思/自我反馈 (Reflection) | 模型对自己的回答进行分析与修正(如 ReAct、Reflexion)。 |
代理机制 (Agent) | LLM 执行有目标的任务,通过观察 → 思考 → 行动 → 再观察的闭环完成复杂目标。 |
🎯 构建高效 Prompt 的 4 个关键原则
1. 明确角色与任务(Position & Purpose)
指定 LLM 的身份与任务目标,提升上下文对齐效果:
你是一个项目管理专家,专注于软件交付效率优化。你的任务是分析以下项目状态,并输出关键改进建议。
Python 实现示例:
from openai import OpenAI
from dotenv import load_dotenv
import os# 加载环境变量
load_dotenv()# 初始化客户端
client = OpenAI()def create_expert_consultant(expertise, task_description):"""创建一个专家角色的 Prompt"""system_message = f"""你是一个{expertise}专家。你的任务是{task_description}。请基于你的专业知识提供深入、专业的分析和建议。"""return system_message# 使用示例
project_analysis_prompt = create_expert_consultant(expertise="项目管理",task_description="分析以下项目状态,找出延迟原因,并输出关键改进建议"
)# 向 API 发送请求
def get_expert_analysis(prompt, project_data):response = client.chat.completions.create(model="gpt-4",messages=[{"role": "system", "content": prompt},{"role": "user", "content": f"项目状态数据:\n{project_data}"}])return response.choices[0].message.content# 测试使用
project_data = """
项目名称: 电商平台重构
计划周期: 3个月
当前状态: 已延期1个月
团队规模: 5名开发, 2名测试
完成进度: 65%
主要问题:
- API文档不完整导致集成困难
- 前端组件复用率低
- 测试覆盖率不足
"""analysis = get_expert_analysis(project_analysis_prompt, project_data)
print(analysis)
2. 引导链式推理(Process)
设计多步骤的任务指令,引导 LLM 逐步完成推理与判断:
请按照以下步骤进行:
1. 分析输入信息中存在的问题;
2. 推测可能的原因;
3. 提出改进建议;
4. 总结为清晰的行动计划。
Python 实现示例:
from openai import OpenAI
from dotenv import load_dotenv
import os# 加载环境变量
load_dotenv()
# 初始化客户端
client = OpenAI()def chain_of_thought_prompt(task_description, steps):"""创建一个引导模型逐步思考的 Prompt"""steps_text = "\n".join([f"{i+1}. {step}" for i, step in enumerate(steps)])prompt = f"""任务:{task_description}请按照以下步骤逐一思考并输出结果:
{steps_text}请确保每个步骤都有明确的输出,并标注步骤编号。"""return prompt# 使用示例 - 解决一个数学问题
math_steps = ["理解问题,确定已知条件和求解目标","列出解决问题所需的方程或关系","逐步求解方程","检查答案的合理性","给出最终答案"
]math_cot_prompt = chain_of_thought_prompt("解决以下数学问题:一个水箱以每分钟5升的速度注水,同时以每分钟3升的速度漏水。如果水箱初始有10升水,那么多久后水箱会有25升水?",math_steps
)# 向 API 发送请求
response = client.chat.completions.create(model="qwen/qwen-2.5-72b-instruct",messages=[{"role": "system", "content": "你是一个擅长解决数学问题的助手,请一步步思考。"},{"role": "user", "content": math_cot_prompt}]
)print(response.choices[0].message.content)
3. 加入反思机制(Proofing)
鼓励 LLM 审查自己的输出、找出问题并修正:
请回顾你刚才的回答,思考是否存在逻辑漏洞或遗漏的关键点,并进行修正。输出最终版本的建议。
Python 实现示例:
from openai import OpenAI
from dotenv import load_dotenv
import os# 加载环境变量
load_dotenv()
# 初始化客户端
client = OpenAI()
def self_reflection_prompt(initial_task, response_to_evaluate):"""创建一个让模型自我反思的 Prompt"""reflection_prompt = f"""初始任务:{initial_task}你之前的回答:
{response_to_evaluate}请对你的回答进行自我评估,考虑以下几点:
1. 是否有逻辑漏洞或不一致的地方?
2. 是否遗漏了重要信息或关键点?
3. 推理过程是否足够严谨?
4. 结论是否合理且有力度支持?请指出存在的问题,并提供修正后的完整回答。标记为"最终版本"。"""return reflection_prompt# 使用示例 - 假设这是一个初始回答
initial_response = """
解决方案:实施微服务架构可以提高系统的可扩展性和灵活性。
步骤:
1. 将系统拆分为独立服务
2. 实施 API 网关
3. 部署到云环境
"""# 让模型反思并改进
reflection_prompt = self_reflection_prompt("设计一个高可用的电商系统架构",initial_response
)# 向 API 发送请求
response = client.chat.completions.create(model="qwen/qwen-2.5-72b-instruct",messages=[{"role": "system", "content": "你是一个系统架构专家,请对你的方案进行批判性思考和完善。"},{"role": "user", "content": reflection_prompt}]
)improved_response = response.choices[0].message.content
print(improved_response)
4. 增强行动能力(Agent-style Prompt)
设计具备感知、思考、行动、反思循环的 Prompt:
你将完成以下任务:
1. 读取输入数据(环境感知);
2. 分析目标需求(理解与推理);
3. 拆解任务并规划步骤(任务规划);
4. 输出每个步骤的操作建议;
5. 若任务未完成,则思考失败原因并重新规划(反思+重试)。请开始处理任务:{用户输入}
Python 实现示例:
from openai import OpenAI
import json
import os
from dotenv import load_dotenv# 加载环境变量
load_dotenv()
api_key = os.getenv("OPENAI_API_KEY")
base_url = os.getenv("OPENAI_BASE_URL")
client = OpenAI(api_key=api_key, base_url=base_url)class ReflectiveAgentQwen:"""适配 Qwen 模型的反思型智能代理"""def __init__(self, system_role):self.system_role = system_roleself.messages = [{"role": "system", "content": system_role}]self.tools = []def register_tool(self, name, description, function):self.tools.append({"name": name,"description": description,"function": function})def _get_tools_prompt(self):if not self.tools:return ""tool_list = "\n".join([f"{tool['name']}: {tool['description']}" for tool in self.tools])return f"\n你可以使用以下工具来辅助完成任务(请在需要时明确说明要调用哪个工具及输入内容):\n{tool_list}"def _call_tool_if_needed(self, response_content):for tool in self.tools:if f"调用工具 {tool['name']}" in response_content:# 提取输入input_start = response_content.find("输入:")if input_start != -1:input_text = response_content[input_start + 3:].strip().splitlines()[0]print(f"\n>>> 调用工具 {tool['name']},输入: {input_text}")return tool["function"](input_text)return Nonedef think_act_reflect(self, user_input, max_cycles=3):intro = self._get_tools_prompt()self.messages.append({"role": "user", "content": user_input + intro})for cycle in range(max_cycles):print(f"\n--- 循环 {cycle + 1}/{max_cycles} ---")# 🧠 思考阶段print("🧠 思考中...")response = client.chat.completions.create(model="qwen/qwen-2.5-72b-instruct",messages=self.messages,)message = response.choices[0].messagecontent = message.contentprint("🤖 输出:", content)self.messages.append({"role": "assistant", "content": content})# 🛠️ 行动阶段(判断是否调用工具)result = self._call_tool_if_needed(content)if result:self.messages.append({"role": "user","content": f"工具调用结果:{result}"})else:print("✅ 没有需要调用工具,任务可能已完成")break# 🔁 反思阶段print("🔍 反思中...")reflection_prompt = ("请反思你刚才的分析与工具使用是否合理,有无遗漏?""如果有改进建议,请继续执行。若任务完成,请明确标注“任务已完成”。")self.messages.append({"role": "user", "content": reflection_prompt})reflection_response = client.chat.completions.create(model="qwen/qwen-2.5-72b-instruct",messages=self.messages)reflection_message = reflection_response.choices[0].messageprint("🪞 反思输出:", reflection_message.content)self.messages.append({"role": "assistant", "content": reflection_message.content})if "任务已完成" in reflection_message.content:break# 📤 最终总结final = client.chat.completions.create(model="qwen/qwen-2.5-72b-instruct",messages=self.messages + [{"role": "user", "content": "请总结你的最终答案:"}])return final.choices[0].message.content# 示例用法
if __name__ == "__main__":agent = ReflectiveAgentQwen(system_role="你是一个研究型智能助手,能够理解任务、调用工具、反思并总结。")# 注册一个模拟搜索工具def web_search(query):if "人工智能" in query:return "人工智能是计算机科学的一个分支,致力于模拟人类智能。"elif "机器学习" in query:return "机器学习是 AI 的一个子领域,专注于让系统从数据中学习。"else:return "未找到相关信息。"agent.register_tool("web_search", "用于网络搜索信息", web_search)# 测试任务question = "请解释人工智能与机器学习的区别,并说明应用领域。"result = agent.think_act_reflect(question)print("\n✅ 最终回答:\n", result)
📦 示例:面向医疗场景的智能代理设计 Prompt
你是一个 AI 项目设计专家,请你帮助团队分析并设计一个面向医疗场景的 AI 代理。任务如下:
1. 任务目标:分析用户上传的电子病历,抽取关键信息,自动生成初步诊疗建议;
2. 输入格式:包含 PDF、图片、文本等混合文档;
3. 输出格式:结构化 JSON + 建议摘要。请你分步骤完成以下内容:
1. 明确关键需求与挑战;
2. 推理出合适的技术架构与模块;
3. 说明每个模块的功能与关键技术点;
4. 回顾整体设计并输出最终建议。输出后,请你反思是否有遗漏或逻辑漏洞,若有请修正,并标注"最终版本"。
Python 医疗AI代理示例实现:
from openai import OpenAI
import json
import os
from dotenv import load_dotenv
from typing import Dict, List, Any, Optional
import base64
from datetime import datetime# 加载环境变量
load_dotenv()# 初始化 OpenAI 客户端
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))class MedicalDocumentProcessor:"""处理各种格式的医疗文档"""def extract_text_from_image(self, image_path: str) -> str:"""从图片中提取文本(使用Vision模型)"""try:# 读取图片并转为base64with open(image_path, "rb") as image_file:base64_image = base64.b64encode(image_file.read()).decode('utf-8')# 调用OpenAI Vision模型response = client.chat.completions.create(model="gpt-4-vision-preview",messages=[{"role": "user","content": [{"type": "text", "text": "请从这个医疗文档图片中提取所有文本内容,保持原始格式。特别注意提取患者信息、诊断结果、用药情况等医疗关键信息。"},{"type": "image_url","image_url": {"url": f"data:image/jpeg;base64,{base64_image}"}}]}],max_tokens=1000)return response.choices[0].message.contentexcept Exception as e:print(f"图片处理错误: {e}")return "图片处理失败"def extract_text_from_pdf(self, pdf_path: str) -> str:"""从PDF中提取文本(实际应用中使用PyPDF2等库)"""# 这里是简化的示例,实际实现需要使用PDF处理库return f"从PDF {pdf_path} 中提取的文本内容"def process_document(self, document_path: str) -> str:"""处理各类文档并提取文本"""if document_path.lower().endswith(('.png', '.jpg', '.jpeg')):return self.extract_text_from_image(document_path)elif document_path.lower().endswith('.pdf'):return self.extract_text_from_pdf(document_path)elif document_path.lower().endswith(('.txt', '.doc', '.docx')):# 简化示例,实际应用中需使用专门的文本处理方法with open(document_path, 'r', encoding='utf-8') as file:return file.read()else:return "不支持的文档格式"class MedicalInformationExtractor:"""从医疗文本中提取结构化信息"""def extract_key_information(self, text: str) -> Dict[str, Any]:"""提取关键医疗信息并结构化"""# 构建提示词来指导模型提取结构化信息prompt = f"""请从以下医疗文档中提取关键信息,并整理为结构化JSON格式。需要提取的字段包括:- 患者基本信息(姓名、年龄、性别、ID)- 主诉- 现病史- 既往史- 检查结果- 诊断结果- 用药建议仅返回JSON格式,不要包含其他文字。医疗文档内容:{text}"""response = client.chat.completions.create(model="gpt-4",messages=[{"role": "system", "content": "你是一个专业的医疗信息提取工具,能够从医疗文档中准确提取结构化信息。"},{"role": "user", "content": prompt}],response_format={"type": "json_object"})# 尝试解析JSON结果try:return json.loads(response.choices[0].message.content)except json.JSONDecodeError:# 若解析失败,返回空结构return {"error": "无法提取结构化信息","raw_text": text}class MedicalDiagnosisAdvisor:"""生成初步诊疗建议"""def generate_advice(self, patient_info: Dict[str, Any]) -> Dict[str, Any]:"""基于提取的信息生成初步诊疗建议"""# 转换病人信息为JSON字符串patient_json = json.dumps(patient_info, ensure_ascii=False, indent=2)# 构建提示词prompt = f"""基于以下患者信息,生成初步诊疗建议。注意:这只是初步建议,最终诊疗方案应由专业医生确定。患者信息:{patient_json}请提供:1. 初步诊断分析2. 建议进一步检查项目3. 可能的治疗方向4. 生活方式建议返回JSON格式,包含上述四个方面的信息。"""# 调用API生成建议response = client.chat.completions.create(model="gpt-4",messages=[{"role": "system", "content": "你是一个医疗诊断辅助系统,能基于患者信息提供初步诊疗建议。你的建议应严格基于医学知识,同时明确标注这只是初步建议,不能替代专业医生的诊断。"},{"role": "user", "content": prompt}],response_format={"type": "json_object"})# 解析并返回建议try:advice = json.loads(response.choices[0].message.content)# 添加免责声明advice["disclaimer"] = "本建议由AI辅助生成,仅供参考,不构成医疗建议。请咨询专业医生进行正式诊疗。"return adviceexcept json.JSONDecodeError:return {"error": "无法生成诊疗建议","disclaimer": "请咨询专业医生进行诊疗。"}class MedicalAIAgent:"""医疗AI代理总控制器"""def __init__(self):self.document_processor = MedicalDocumentProcessor()self.info_extractor = MedicalInformationExtractor()self.advisor = MedicalDiagnosisAdvisor()def process_medical_documents(self, document_paths: List[str]) -> Dict[str, Any]:"""处理医疗文档并生成诊疗建议"""# 1. 处理所有文档并合并文本combined_text = ""for doc_path in document_paths:text = self.document_processor.process_document(doc_path)combined_text += text + "\n\n"# 2. 提取结构化信息structured_info = self.info_extractor.extract_key_information(combined_text)# 3. 生成诊疗建议diagnosis_advice = self.advisor.generate_advice(structured_info)# 4. 整合结果result = {"patient_info": structured_info,"diagnosis_advice": diagnosis_advice,"summary": self._generate_summary(structured_info, diagnosis_advice)}# 5. 反思和验证结果result = self._validate_and_reflect(result, combined_text)return resultdef _generate_summary(self, patient_info: Dict[str, Any], advice: Dict[str, Any]) -> str:"""生成易读的摘要"""# 构建提示词prompt = f"""基于以下患者信息和诊疗建议,生成一段简洁的摘要,用通俗易懂的语言概括关键信息和建议。患者信息: {json.dumps(patient_info, ensure_ascii=False)}诊疗建议:{json.dumps(advice, ensure_ascii=False)}请用200字左右生成摘要。"""response = client.chat.completions.create(model="gpt-4",messages=[{"role": "system", "content": "你是一个医疗信息总结专家,能将复杂的医疗信息转化为通俗易懂的语言。"},{"role": "user", "content": prompt}])return response.choices[0].message.contentdef _validate_and_reflect(self, result: Dict[str, Any], original_text: str) -> Dict[str, Any]:"""验证结果并进行反思改进"""# 构建验证提示词validation_prompt = f"""请验证以下从医疗文档中提取的信息是否准确、完整,并检查生成的诊疗建议是否合理。原始文档文本:{original_text[:1000]}... (已截断)提取的结构化信息:{json.dumps(result["patient_info"], ensure_ascii=False, indent=2)}生成的诊疗建议:{json.dumps(result["diagnosis_advice"], ensure_ascii=False, indent=2)}请检查:1. 是否有重要信息遗漏或错误?2. 诊疗建议是否与患者情况相符?3. 有无任何不合逻辑或不一致的地方?如有问题,请指出并建议如何修正。"""# 调用API进行验证response = client.chat.completions.create(model="gpt-4",messages=[{"role": "system", "content": "你是一个医疗信息验证专家,能够严格审查从医疗文档中提取的信息和生成的建议,确保其准确性和合理性。"},{"role": "user", "content": validation_prompt}])# 将验证结果添加到输出中result["validation"] = {"reflection": response.choices[0].message.content,"timestamp": "反思时间:" + str(datetime.now())}return result# 使用示例(模拟运行)
if __name__ == "__main__":# 创建医疗AI代理medical_agent = MedicalAIAgent()# 模拟文档路径(实际应用中需要真实路径)document_paths = ["patient_record.pdf","lab_results.jpg","prescription.txt"]print("开始处理医疗文档...")# 这里只是示例,实际运行需要真实文件# result = medical_agent.process_medical_documents(document_paths)# 模拟一个结果进行展示sample_result = {"patient_info": {"name": "张三","age": 45,"gender": "男","id": "P12345","chief_complaint": "胸闷、气短3天","history": "高血压病史5年,服用缬沙坦片控制","examinations": "血压145/95mmHg,心电图显示窦性心律不齐","diagnosis": "1. 高血压 2. 疑似冠心病"},"diagnosis_advice": {"analysis": "患者存在高血压控制不佳,伴有胸闷气短症状,需警惕冠心病可能。","further_examination": ["心脏彩超检查","心肌酶谱检测","冠状动脉CT血管造影","运动心电图"],"treatment_options": ["调整降压药物,控制血压在130/80mmHg以下","考虑加用β受体阻滞剂改善心律不齐","如确诊冠心病,可考虑抗血小板、他汀类药物治疗"],"lifestyle_suggestions": ["限制钠盐摄入(<5g/天)","适量有氧运动(如散步),避免剧烈运动","戒烟限酒","规律作息,避免情绪激动"],"disclaimer": "本建议由AI辅助生成,仅供参考,不构成医疗建议。请咨询专业医生进行正式诊疗。"},"summary": "张三先生,45岁,近期出现胸闷、气短症状,伴有高血压控制不佳(145/95mmHg)和心律不齐情况。建议进行心脏相关检查以排除冠心病可能,同时调整降压方案,注意限盐控制饮食,进行适量运动,保持良好作息。请务必在专业医生指导下进行治疗。","validation": {"reflection": "从提取的信息和建议来看,整体内容合理,符合医学临床实践。针对高血压伴胸闷症状的患者,冠心病的筛查是必要的。建议进一步完善生化检查如血脂、血糖等指标,这些是心血管疾病风险评估的重要参数,但在当前建议中未提及。同时,患者的用药史中提到缬沙坦,但未评估其依从性和剂量是否适当,这也是高血压控制不佳的可能原因之一。","timestamp": "反思时间:2023-08-15 10:23:45"}}print("\n最终结果:")print(json.dumps(sample_result, ensure_ascii=False, indent=2))
📝 结语:高级Prompt工程的未来展望
随着大语言模型能力的不断提升,构建具备推理与反思能力的高级Prompt已成为充分发挥LLM潜力的关键。本文介绍的四个关键原则—明确角色与任务、引导链式推理、加入反思机制和增强行动能力,为开发者提供了系统化的Prompt设计框架。
这些技术正在改变我们与AI系统的交互方式。未来的发展趋势包括:
- 多模态智能代理:结合图像、音频等多种输入形式,实现更全面的场景理解和决策
- 记忆增强代理:通过外部知识库和长期记忆机制,实现更连贯的对话和任务执行
- 自我完善系统:代理能够从经验中学习,自动优化自身的推理流程和反思能力
- 协作型智能网络:多个专业化代理协同工作,处理复杂任务流程
在实际应用中,高级Prompt设计需要注意以下几点:
- 平衡指导与自由:提供足够的框架引导模型思考,但也留出创新空间
- 迭代优化:通过分析模型输出,持续改进Prompt设计
- 注重反馈机制:让模型能够接收和整合外部反馈,动态调整其行为
希望本文介绍的技术和理念能够帮助开发者构建更智能、更可靠的AI系统,让大语言模型真正成为人类的得力助手,而不仅仅是简单的问答工具。