🚨好家伙:我终于真正理解了大模型(LLM)是怎么工作的。
这也是为什么 90% 的提示词都会失败。
这里有 10 个彻底颠覆我结果的技巧 👇
你将会学到:
• 什么样的提示才算优秀
• 如何组织提示词以获得更好结果
• 超过 10 条专家级技巧,提升准确性、逻辑性和创造力
无论你是刚入门,还是已经很熟练,这些方法都能帮助你进步。
⸻
1. 初级:零样本提示(Zero-Shot Prompting)
给模型一个清晰且具体的指令。
• ✅ “请用 3 个要点总结这篇文章。”
• ❌ 避免模糊的问题,比如 “你觉得怎么样?”
在这个阶段,清晰比创意更重要。
⸻
2. 初级:少样本提示(Few-Shot Prompting)
给出示例,展示该怎么做。
例子:
Q: 5+5=?
A: 10
Q: 9+3=?
A: 12
Q: 7+2=?
A: ?
这种方法有效,因为大模型擅长识别模式。
⸻
3. 中级:思维链(Chain-of-Thought, CoT)
让模型一步一步推理,极大提升逻辑能力。
不要只问:
“13 * 17 等于多少?”
而是说:
“让我们一步步解答。”
模型会先解释过程,再给出答案。
⸻
4. 中级:自动思维链(Auto-CoT)
懒得自己写示例?让模型帮你生成:
“这里有几个例子。让我们逐步思考。”
这样你就能用更少的工作量,获得可扩展的推理。
⸻
5. 中级:自洽性(Self-Consistency)
同一个问题,多问几次。
然后选择出现最多的答案。
为什么?
因为大模型可能会给不同答案,而出现频率最高的,通常最可信。
这就像小组投票,但更快。
⸻
6. 高级:思维树(Tree-of-Thoughts, ToT)
不要只沿着一个思路走。
像决策树一样探索不同选项。
模型会提出 → 测试 → 选择最优想法。
GPT-4 就是用这种方式解谜题、玩策略游戏的。
⸻
7. 高级:思维图(Graph-of-Thoughts, GoT)
人类的思考不总是直线的。
提示词也不该死板。
GoT 让模型像头脑风暴一样交叉组合想法,适用于创造力、规划和设计。
⸻
8. 高级:自我改进(Self-Refine)
流程:输出 → 批判 → 优化。
提示:
“写一条推文。现在批评它。然后基于反馈重写。”
这样能让内容更清晰、语气更好、逻辑更强。
⸻
9. 专家级:代码思维链(Chain-of-Code, CoC)
需要精准?让模型用伪代码或代码来思考。
因为代码有清晰的逻辑结构。
它能减少冗余,提升准确性。
例子:
“写代码一步步解决这个问题…”
⸻
10. 专家级:逻辑思维(Logic-of-Thought, LoT)
使用形式逻辑:
如果 A → B 且 A 为真,那么 B 必须为真。
适合法律、伦理、科学、严谨推理。
⸻
💡额外技巧1:避免胡编乱造
大模型有时会编造。可以用:
• RAG(检索增强生成)
• ReAct(思考+行动)
• 验证链(Chain-of-Verification)
确保模型自己检查答案。
⸻
💡额外技巧2:掌握语气和风格
提问方式影响结果。
比如:
• “请冷静解释…”
• “用 10 岁小孩能听懂的方式说…”
• “语气要自信…”
怎么问,决定了怎么答。
希望这些方法对你有帮助。
👉 想看更多,记得关注我。