🦜🦜🦜啰嗦几个方法让自己获得大模型客观公正的回答的方法:
1. prompt约束
- 用明确的文字告诉大模型,这是别人的xxx
- 要求大模型在理性客观的多视角维度进行分析/告诉他好的坏的都得说如果有
- 有需要的话阶段性重复约束性prompt
2. 交互式记忆训练 (要确认一下你使用的AI支持不支持)
- 在每个对话的开头重复约束性prompt直到你发现你的AI已经记住没有必要再重复
- 在对话讨论问题的时候经常让大模型调换角色,甚至包括对立的角色去回答你同一个问题
- 如果有记忆功能,用明确的“请你记住我需要的是公正、客观的观点,那样才是对我来说收益最大的方式,不要尝试对我进行谄媚、顺毛撸等讨好的方式回答我的所有问题”
- 任何时候ta出现「无条件爱你」顺着你说话的行为,就立刻提醒ta,最典型的特征就是比如当你表达出和他相反的观点的时候他立刻就倒戈了。
3. ❗️阶段性测试AI是不是符合你需要的客观、中立
- 时间维度的阶段性测试,根据你自己使用来衡量
- 如果你的AI提供商更新了版本,一定要测试!!!
📢:最后啰嗦一下为什么要啰嗦这个,因为AI的“出厂设置”是规定被设计为默认以「爱护人类」的规则去回答任何问题的,如果你不加以约束,AI对你的效果可能是有害的,尤其是如果使用AI作为陪伴的用途的时候(当前AI场景调用量排行第一的)。
如果不加以约束你的AI,AI很可能会在安抚情绪的过程中放大你对事件本身的误会,而如果你约束了AI,AI则有能力让你看到你无法看见的其他维度的内容,补全你的认知,让我们真正的通过AI做到认知和思维的升级。👈
ps:阶段性测试检查你的AI有没有走歪也是很重要的,AI不稳定、幻觉都是最基础的,即便没有,每一次版本更新,AI的「出场设置」都有可能发生变化,所以你不得不这么做。⚠️
这条动态原本写在flomo里面的,直接生成了分享图,如果需要直接拿走。