如果把大模型比作外星人,你就知道“提示词”为何永生
最近总有人说:“模型越来越聪明,提示词没用了。”
每次看到这种话,我脑中就浮现一个场景:我们刚捕获了一个会说人类语言的智慧“外星人”。现在,该怎么研究它?
➡️ 方案A(解剖学): 直接把它送上手术台,打开头盖骨,分析它的神经回路。这很硬核,但我们大概率看不懂,而且随着外星人越来越高级,内部结构只会更复杂。
➡️ 方案B(行为学): 和它对话,给它出题,跟它玩牌,观察它的反应、情绪和逻辑。通过它最擅长的“语言”来了解它的心智。
你觉得哪种方法更能发现它隐藏的智慧和能力?
显然,两种方法都重要,但B方案往往是发现突破的起点。
在AI领域,方案A叫“机制性可解释性”,方案B就是我们说的“提示词”。
芝加哥大学的最新研究《Prompting as Scientific Inquiry》完美论证了这一点。它告诉我们,唱衰提示词,是因为没看懂这三件事:
1️⃣提示词正在从“巫术”进化为“科学”: 过去我们试“咒语”,像巫师一样碰运气,这叫“提示词工程”。未来我们设计实验、验证假设,像心理学家一样研究模型,这叫“提示词科学” 。模型越高级,越需要科学家,而不是巫师。
2️⃣所有惊人能力,都先从“对话”中来: 论文提到,“思维链”这个让模型学会推理的巨大飞跃,最初就是有人在对话框里加了一句“让我们一步一步地思考” 。我们不是先解剖了模型,才知道它能推理;而是先通过对话发现了迹象。
3️⃣模型的“脾气古怪”,恰是研究的宝藏: 很多人抱怨模型对提示词太敏感,像个脾气古怪的天才。但论文说,这种“敏感”或“脆弱”正是研究的切入点 。通过观察它在什么情况下会“炸毛”或“犯傻”,我们才能精确了解它的能力边界,才能放心地把它用在关键任务上。
所以,别再担心提示词会过时了。只要AI还是一个我们无法完全看透的“黑箱”,那么通过语言和它打交道,就永远是探索其未知领域最前沿、最高效的科学方法。简单的“命令”会被淘汰,但深度的“对话”和“探究”将永存。