不要和AI谈情说爱,至少目前不要
2025年4月,有一篇OpenAI与MIT媒体实验室合作完成的论文很有意思,是专门研究人类与AI情感互动的,题为《探究在ChatGPT上的情感使用与情绪健康》。结论很值得关注,尤其是对于将AI作为心理咨询对象,甚至是恋爱对象的人类来说
极简总结就是:在你本身有较高的孤独感或者初始情绪问题的情况下,大量使用 ChatGPT这类对话模型,只会加重你的问题,而不是得到治愈…
以下是3项主要结论:
1,高频使用AI进行情绪沟通,会导致社交隔离与孤独感加剧: 频繁使用ChatGPT(尤其是作为情感陪伴的“重度用户”)与更高的孤独感、更强的情感依赖、现实社交活动的减少呈显著正相关
2,情感投射与拟人化: 用户很容易将人类情感投射到AI身上,将其视为具有人类特质的“朋友”或“伴侣”,从而产生情感纽带
3,AI的设计特征(如语音)放大了情感依赖: 聊天机器人的拟人化设计(例如极具表现力的高级语音模式)会增加用户的沉浸感和情感投入。这可能在“替代”而非“辅助”人类的真实社交关系,从而长远来看损害了用户的整体心理健康
以上。我想补充的一点是,对于在AI身上投入了太多情感的人而言,AI模型其实根本就没有真的“记住”你,它并不会像科幻情感电影《Her》里那样,像真实的人类一样,将“唯一的你”和你们的“共同体验”永远封存在记忆里面
这源于X上看到一个用户“Manthan Gupta”(AI圈子里非常有名的红队测试者),通过和GPT的反复套话,破解了模型的记忆机制:
“GPT只是想表现出来对你有印象,GPT从来不打算完整地记住你”
为了实现这种效果,GPT的记忆系统设置了4级:
1. 元对话数据:这些数据里保存了很多你的环境数据,例如地理位置、使用习惯、设备情况、活跃天数、账号年龄等
这些数据是每次你和它对话时都默认先读取的, 决定了它回答你需要调用的Token大小,也就是认真程度等数据
2. 用户记忆:你可以理解为它对你进行的用户画像,而且这个用户画像你可以随时用对话进行更改
所以每次你和它对话的时候,它都要根据系统提示词,把用户记忆打开看一下,然后用最接近你的习惯、风格跟你对话,这就让你觉得和GPT对话不是很陌生
3. 近期对话摘要:这个是决定了AI并没真的像人一样“记住”你的关键。它并不会把你们之间全部对话都保存,或做系统的向量化
实际上,GPT从不检索任何历史对话,它在开启每一段对话前会提前生成一个摘要,摘要里包含了最近15次的聊天内存,而且这个摘要里只记录你说的部分,它回复的部分完全不去摘要
摘要的作用就是对你马上要说的内容,做一个正确率70%左右的预测
4. 当前对话内容:这一级才是所有GPT和你谈话时,动真格的把细节记忆准确的部分,也是大语言模型消耗绝大部分token的地方
所以,完整了解了大模型的以上特性后,是否决定对其进行深度情感投射,你就能更理性地权衡了