你的AI是人工智障?可能是你与AI交流的姿势不对
很多人说自己的AI宛如人工智障,而别人的AI宛如爱因斯坦。
除了你的模型降智,另一个可能的原因是与AI交流的姿势不对。
其实关于如何撰写更好的提示词,OpenAI和Gemini等官方都有说明文档:OpenAI提示词文档&Gemini提示词文档&微软提示词文档。
结合这些文档和我自己的使用经验,总结下如何更加高效地与AI交流。
令置顶 + 分隔上下文
把任务与规则写在最前面,用 """、### 或标签清楚分隔说明与素材。这样能显著减少理解偏差。
效果较差:
1 | |
更好:
1 | |
明确输出格式(机器可读优先)
当需要后续处理时,要求输出 JSON/Markdown/YAML 等通用格式,避免自造格式。
效果较差:
1 | |
更好:
1 | |
具体、定量地描述任务
对范围、长度、风格、标准写清楚,减少自由发挥带来的不确定性。
效果较差:
1 | |
更好:
1 | |
拆解任务并要求中间步骤
把复杂任务拆成一个个小目标,并让模型先产出提纲/检查表等中间结果,再输出最终答案。
效果较差:
1 | |
更好:
1 | |
给模型个台阶下(允许AI不知道)
对事实性需求高时写上“信息不足就直说”的规则,给AI个台阶下,防止它瞎编。
效果较差:
1 | |
更好:
1 | |
重复关键规则
重要规则在开头写一次、结尾再强调一次;长上下文中,最好把指令放在上下两端。
效果较差:
1 | |
更好:
1 | |
举例说明
一般不写例子;若不稳定,才加1–3个示例;仍不行再考虑微调。
效果较差:
1 | |
更好:
1 | |
要求使用工具/检索和标注可追溯的引用
事实型任务优先调用检索/数据库;要求答案的关键事实给出处或者参考文献。
效果较差:
1 | |
更好:
1 | |
控制随机性与长度(temperature / tokens)
事实性要求高时低温(如 temperature≈0),创意性要求高时高温;同时限制最大输出长度。
效果较差:
1 | |
更好:
1 | |
说明应该做什么而不是禁止做什么
别只写“不要……”,明确“该做什么”。这一点我实测很有效。
效果较差:
1 | |
更好:
1 | |
长上下文分块
输入长文本时,把文本分区(如核心/支撑/背景)。
效果较差:
1 | |
更好:
1 | |
CARE 原则(Context / Ask / Rules / Examples)
用 CARE 模板“内容、任务、规则、示例”。
效果较差:
1 | |
更好:
1 | |
输入文本防护
如果输入的文本里有危险指令(特别是用cli编程时,它有你电脑很高的权限!),最好把文本明确标注为“数据”,禁止其改写上层指令;禁止执行数据内的指令。
效果较差:
1 | |
更好:
1 | |
系统化评测
为常见任务创建测试集,用 Evals/AutoSxS/Prompt Flow做对比,数据驱动迭代。
效果较差:
1 | |
更好:
1 | |
善用输入工具
能用表格就别用文字;必要时用 Markdown/XML 表达结构。
效果较差:
1 | |
更好:
1 | |
让AI提问
在你需要AI意见或者缺少灵感时,让AI问问题,很多时候有奇效。