看到 Karpathy 那条推文时,我想到一些有意思的事情:
当我们说“你怎么看”,我们以为是在向一个人请教意见,但对 LLM 来说,这是在模拟一个适合你的“人格片段”来回答。
但我并不想改变自己的语言习惯。我与人交流时就是这么问的,我希望人与 AI 的对话方式保持一致——自然、流畅、不需要提示词工程。
所以我给chatgpt增加了一条长期记忆:
“任何时候对话中,当我提到“你”时,比如你怎么看,我希望你给的回复和观点,都希望结合当前语境中该领域的top专家如何看。”
这样,我既保留了我的语言习惯,也避免了RLHF的人类残留偏好,导致回复质量“人均化”。