今天看了一个专访,记录一下。基本是探讨LLM应用的对话,我觉得感觉比较有价值的几个判断是:
1. 模型好坏已经不在于多大多全面了,最后用LLM创造出价值的可能还是有数据优势的企业、对自己的业务自动化有充分积累的公司。继续这个判断,优秀的AI公司可能会成为平台公司,做各种各样价廉物美的toC toB产品,帮助用户去leverage自己已有的自动化场景
2. 感觉最终的结局是有很多很多的Agent、专家AI,这比做一个universal的模型性价比、效率更高。但是也看得出,因为目前大家对喂什么数据、喂多少数据、会产出怎么样的LLM,其实还没有什么理论的把握。未来哪家公司能够一次推出比较多的稳定可靠的专家模型的,一定会占据先机
3. 算力看起来不会成为大家关注的焦点,一是scaling law,算力带来的边际效应不大了;二可能是从用户角度来说,1分钟出结果和几秒钟出结果,不如达到自己目标重要。所以这是否意味着算力基础设施短期会遇到增量放缓?
4. 目前通过transformer、注意力机制、diffusion 训练出来模型,可能还不是终局,一定是需要学术界在各个不同应用方向去想办法补足LLM的短板的,比如多模态的数据、数理逻辑推理这些难点。短板太多了,所以嘉宾觉得即将来的AI其实还是跟人协作的一种系统。