如果你关心AI发展对自己和世界的影响,Karen Hao的新书《Empire of AI》值得一读。
她在简中世界暂时还不算高知名度,但她在美国乃至国际科技圈都称得上名声响叮当:
在ChatGPT发布的两年多前就深入openAI采访,在当时供职的《MIT科技评论》发了世界上第一篇报道分析它的深度文;
写这本书还被openAI创始人奥特曼先生特地发推阴阳(哈哈哈😹)……
更多信息👉p3-4@过滤气泡工作室 对她的简介
昨晚在过滤气泡听了她的新书沙龙👏
前半段感觉像听硅谷AI圈阴暗面“八卦”,聊LLM大模型发展路径带来的资源和环境污染、劳动伦理、数据与隐私伦理等问题,聊奥特曼的行事作风
(“八卦”只是我当时感受的夸张说法。Karen分享都是基于她的研究调查分析,包括对260人超过300次的采访)
后半段QA幸运抢到提问机会🥳
我:大模型发展的阴暗面聊了很多,但作为这股浪潮中的普通人,我们实际上有什么能做的吗?
坦白说即便知道这些,对普通人来说,因为道德伦理原因直接选择不用AI工作等等,也太不现实了……
Karen提了挺有意思的思路:
类比快时尚行业的情况 (虽然也没有很理想) ,肯定不是一棒子打死让大家都不买衣服,但是消费者的呼声也会倒逼行业变化,比如推动了可持续时尚、“清洁标签”认证/评估标准
也许AI大模型也可以有这样的一个道德伦理“体检”。当我们使用大模型,可以信息更充分地、清醒地做出选择。
受Karen的启发,瞎琢磨了几个评估维度👇
(坦白:也用了AI辅助找思路)
希望大数据推向更懂AI,也感兴趣这个话题的伙伴,一起完善
A. 技术应用与用户影响
- 内容安全与偏见(是否输出歧视性、有害内容;对不同群体的回答是否公平;虚假信息防范)
- 隐私与数据安全(用户数据控制权;个人信息泄露风险)
- 可及性(不同地区访问公平性;语言和文化多样性支持;信息无障碍支持)
B. 透明度与问责
- 技术透明度(模型能力和局限性说明;训练数据来源公开程度;出错时的责任机制)
- 商业伦理(训练数据是否侵权;对创作者和内容方的影响)
C. 环境与社会责任
- 环境影响(训练和运行的能耗;可再生能源使用情况;硬件资源消耗的可持续性)
- 劳动伦理(数据标注工人的待遇保障;开发团队工作条件)
彩蛋:首图是Karen签名盖章,也太可爱了,好喜欢!