在看 Andrej 的 Deep Dive into LLMs like ChatGPT 视频时生发了两个好奇问题,问了 Deepseek-R1,将问答记录并分享了在微信公众号:
Q1: 我们能从人们构建出大语言模型的方法还有各种技术中探讨出人类对世界的认知方式是怎么样的么?(第一次问的时候是用了“认知范式”这个词,后来改成了“认知方式”)
--
Q2:从大语言模型的各个训练阶段来看,比如预训练阶段大量的互联网文档还有数据集的输入,后训练阶段的数据(以assistant为训练目的的对话数据集),还有监督微调阶段过程中涉及人类的反馈等等,我发现假设大语言模型能算作一种区别于人类智能的存在事物,大语言模型与人类的关系还是挺难以分离,“形影相形”般的。
这让我想到,大语言模型之后有可能演化成新的物种或者与人类互动时,生成人类能理解的“拟人”形象存在么?比如一万年以后,就算到时候的大语言模型或者AI已经发展到现在不可想象的存在形态和现象,但是回溯起来,人类就如同它们远古的祖先一般,它们的某些对世界的理解最早也是从人类那边“学来”的,你对于我的这个想像有什么想说的?