即刻App年轻人的同好社区
下载
App内打开

OpenAI人事变动

OpenAI CEO 3天换了3次,最新的人事变动和前沿分析都在这里,来即刻吃最全的瓜。

51人正在讨论,8570人浏览

动态

  • 大钟立刻出门
    2年前
    #OpenAI人事变动

    「无条件对人类的爱」
    00
  • 小宇宙App
    2年前
    #OpenAI人事变动

    💻最近大家一直在关注OpenAl的新闻,创始人 Sam Altman在5天多的时间里经历了被董事会免去CEO职务,带领员工加入微软,再到重返CEO职位,充满令人震惊的戏剧性。“吃瓜”之余,也好奇这场“宫斗”到底是怎么发生的,为何会经历这样的多重反转?

    小宇宙编辑部为大家整理了近期谈论这一风波的播客,节目内容从硅谷连续创业者、人工智能从业者和科技媒体人等不同视角出发,在帮助我们理清时间线的同时,剖析事件发展,以及对AI行业会产生的影响。

    指路👉 www.xiaoyuzhoufm.com
    54
  • Nagarjuna
    2年前
    “一起做投资人”

    熟悉的剧情(?)

    另,孙桑你..

    #AI的神奇用法
    #OpenAI人事变动
    00
  • 科技编辑
    2年前
    OpenAI三天换了三个CEO,以下为即刻站内#OpenAI人事变动 资讯动态汇总,戏剧般的转折还在继续…

    一、现状:
    OpenAI公司员工请愿开除现任董事会名单
    m.okjike.com

    Open AI新 CEO Emmett Shear的就职声明
    m.okjike.com

    二、回溯:
    OpenAI前CEO Sam Altman被罢免事件11月18日时间线
    m.okjike.com

    Open AI前总裁兼董事长Greg发表关于sam被开除的声明
    m.okjike.com

    OpenAI前CEO Sam Altman被罢免事件11月19日时间线
    m.okjike.com

    Openai周末解雇sam始末时间线梳理
    m.okjike.com

    三、关于微软
    微软后知后觉的知情权
    m.okjike.com

    对于微软来说这是不得已为之的避险举措
    m.okjike.com

    四、彩蛋
    openai几位创始人的有趣细节和资料
    m.okjike.com

    段子:截止今晚Open AI所有在岗员工的合影
    m.okjike.com

    ILYA其人
    m.okjike.com
    1679
  • 生命所不能承受之重
    2年前
    #OpenAI人事变动
    赶紧放出来,倒是挺期待的,😂😂😂
    00
  • livem
    2年前
    OpenAI is nothing without its people.

    Walter Isaacson 已经在写传记的路上了么
    Lex Firdman 开始录播客了么🤓

    #OpenAI人事变动
    00
  • Nagarjuna
    2年前
    虽然是@泓君Jane 播客本身火,但靠评论上首页,也勉强算上了一次首页吧~

    #小宇宙评论大赏 #播客笔记 #OpenAI人事变动
    00
  • 三分之一诸葛亮女
    2年前
    #OpenAI政变一周祭
    一句话总结 be an adult and hire adults
    送给所有初创公司
    #OpenAI人事变动
    00
  • Nagarjuna
    2年前
    关于大模型的迷思(1)

    很多人对大模型有误解,觉得虽然所谓“语言”大模型没有OpenAI厉害,但我们有矿山大模型啊,天气预测大模型啊(举个例子,切勿对号入座)。“我们不做诗,我们干实事。”

    声明:To B的工业AI工具必然是很有价值,也需要发展的,这里想说明的是,二者是不同的东西,就像《星球大战》里面的C3PO和交通机器人,直接比较对双方都不公平。

    这种片面狭隘乃至错误的理解,命名要负很大的责任。大语言模型,大不是关键,语言也不是关键。真正的目标,是通过大语言模型达到通用人工智能,通用,才是关键。

    为什么是语言模型?正如维特根斯坦所说,语言的边界就是思维的边界。语言是真实世界在文本上的一种投影,仅仅通过学习文字,也能建立起对真实世界的“有损”认知,就像通过三视图还原物体一样。这也引出了第二点,

    为什么要大?因为只有给足了数据,才能让模型建立起对真实世界比较有效的认知。早期的自然语言处理算法没有办法区分诸如“中国队大胜美国队” vs. “中国队大败美国队”这种句子。根本原因在于,我们的自然语言系统也不是完美的,光靠单词,语法,和句法的组合,没有办法完美地描述各种场景。我们之所以能理解这两句话,是因为我们还知道很多背景知识和关于使用场景的信息。所以,光靠基于逻辑变换的算法,是有很大的局限性的。机器不行,我们也不行。换句话说,你得让模型接触足够多的例子,这就是为什么模型一定要大。

    GPT是语言模型,但是它的训练数据中,大概率也是包含了矿山,天气,等很专业或者小众的知识的。(甚至核武器图纸这种,这也是人工智能安全很大的一类风险因素)

    再说说为什么一定得是语言模型,而不是视觉模型,图片也是世界的投影呀?因为语言是我们人类几乎唯一比较准确有效的信息传递方式,我们不是三体人可以在思维层面沟通,也没有神圣的卡拉将我们的意志相连。手语本质上也是一种将文本可视化的表达方式。所以就算超级人工智能摆在你面前,语言也大概率是你跟它唯一可行的沟通方式(如果马斯克的脑机接口实验成功,那么可能会有更直接的沟通方式)。所以,教会机器“说话”,是至关重要的一步!(你看,我也是通过文字在这里试图跟你传递我大脑中的信息)

    至于什么“1+2会算错”,这根本不是问题,因为一旦你可以教会机器说话,你就能教它使用工具,遇到1+2,它就知道调用计算器。我们从小也是这么被教的。如果你不信,你尝试算一下354 x 789,你也得用计算器。打草稿,就相当于chain of thoughts(CoT),把步骤写下来,节省推理的时候用到的大脑的计算资源。所以你看,这和人脑的工作模式是非常相似的。

    沿着这个思路,当模型的智能达到一定程度,又学会了语言,你就能引导它开始自我学习自我迭代了(目前还没有证据表明模型有自主意识,这可能是人类唯一的优势了吧),引导它去解决矿山安全问题,天气预测问题,常温超导问题,可控核聚变问题。

    总结一下,大语言模型,large language model,llm,是通向“通用”人工智能的一种尝试,目前展现出了很大的潜力,最终能不能达到真正的artificial general intelligence,AGI,还有待观察。有些专家,比如Meta的图灵奖得主Yann LeCun可能不同意此技术路线通向AGI的最终可能性(他也不觉得AGI有什么风险就是了),但不要再说什么我们语言大模型差一点,但我们有矿山大模型。光喂矿山数据能教会模型说话吗?

    以后有机会的话可能还打算聊聊next-word-prediction的合理性,大模型和通用人工智能的宗教哲学思想根源,我对多模态的不成熟的看法,基于历史数据的模型能不能产生新知识,人脑作为一种大模型,AGI的到来,等等。

    声明:此文纯手打,没有使用任何AI工具!

    #OpenAI人事变动
    411
  • O一.
    1年前
    据每日经济新闻援引外媒报道,OpenAI首席技术官米拉·穆拉蒂周三(9月25日)表示,她将在任职六年半后离开公司。 “经过深思熟虑,我做出了离开OpenAI这一艰难决定,”她在给公司的一份备忘录中写道。
    #OpenAI人事变动
    00
  • iamsteven
    2年前
    这个世界就是个巨大的草台班子。和大家聊聊 OpenAI 背后的瓜。OpenAI 的董事会以闪电速度开除了他们的 CEO 奥特曼,后来有人反悔,又想把奥特曼请回来,结果谈崩了。在这个过程中,奥特曼都是很懵的,刚开发一场非常成功的发布会,大家都觉得 OpenAI 会是一家一万美金的公司,然后自己就被开除了,还是被自己亲手搭建的董事会开除的。

    千万不要认为外国人不会玩公司政治,恰恰相反,硅谷的公司的公司政治玩的可比中国的互联网公司厉害的多。我们有两边都工作过的朋友说,在中国的互联网公司,人们把欲望写在脸上。而在硅谷,属于看起来人畜无害的人哪一天就发现这个人竟然是个高手,公司的资源莫名其妙就跑到他那去了。

    这次的幕后高手就是伊利亚,OpenAI的首席科学家。伊利亚在行业里其实地位非常高,是技术大牛,发表了很多篇论文,是OpenAI研究团队的灵魂人物。一般大家都会觉得搞技术的人哪有什么心眼子,错误!伊利亚就是在奥特曼毫无感知的情况下,突然搞定了董事会六个人中的四票,然后让一个董事和奥特曼开了个线上会议,告诉他:你被开除了。

    现在,OpenAI 的很多核心成员都表示支持奥特曼,一群人辞职,只要奥特曼再搞一家公司,OpenAI 铁定分裂了。

    看到这里,你会觉得这个伊利亚是坏人吧,怎么这么来阴的呢?未必。

    有人说,这个圈子里的很多技术人员、研究人员,往往都支持伊利亚,而产品经理和投资人往往都支持奥特曼。

    其实只是奥特曼平时面对公众的更多,伊利亚在背后同样为OpenAI 起到了很大的作用。两个人最大的分歧是,奥特曼希望更快推进 AI 技术的产品化和商业化,OpenAI 要更快成为一家上万亿美元的公司。但是,伊利亚特别担心这其中的安全问题,如果贸然让 AI 在没有安全和伦理监督的情况下过快发展,对人类社会意味着巨大的风险。

    而 OpenAI 之所以叫 Open,是因为这家公司最早诞生的目的就是公益性的,希望让 AI 为社会做贡献,希望更开放,避免某一家公司对 AI 的垄断。也因此特斯拉的CEO马斯克就是 OpenAI 最早的投资人之一,后来愤然退出,他自己讲是觉得味道变了。不纯粹了。而董事会的几个外部董事,职责就是确保 OpenAI 的公益性,要从人类利益的角度出发。聪这个角度来看,他们倒确实在履行职责。

    所以有人开玩笑说,可能是有未来的人穿越回来,在 AI 快失控之前,赶快阻止 OpenAI 的发展。

    你觉得呢?

    #OpenAI人事变动
    30
  • 望山WangShan
    2年前
    无论西方还是东方,这一波防止资本无序扩张的尝试都没真正成功。在西方,资本讲着顺应人性的故事,大概率还是终会成为动荡后的最大赢家;在东方,资本在不可抗力面前理性地放弃了扩张,反而向种种规划之下的简单要素退化。当然,每个实践着的主体各自面对的问题都从不抽象简单;在这样的历史节点面前,也没有人真正可以用或乐观主义或呜呼哀哉的“历史终结”来论断。但可以肯定的是,人类面对危与机的长远胜利从来只可能来自于人类对自身更深刻的理知和接纳。作为一个整体,在人类向内规训社会能量的能力与经验有结构性进展之前,无论打开的盒子是怎样的,我们都不会有真正好的未来。#OpenAI人事变动
    00
  • 蜀黍.
    2年前
    #OpenAI人事变动
    这篇少有的深度,看起来事情完全是另一个故事。

    真正想了解一个人一件事,请避免只截取只言片语,请像这篇文章一样,尽量追本溯源,至少追溯较长的时间发生的事。

    唯一的疑点:为什么这位科学家在赶走sam之后,又签署了95%以上员工汇签的跳槽要挟?

    关键的问题是,如果AGI/chatgpt5真的辣么强,是否有机器人三大定律的一样的基本前提来保护人类?是否在没有足够的“故障”安全程序来保护人类的前提下,任由资本的逐利和短视发挥后,会导致“我点燃了火,但我控制不了它”?

    另外,如果真的需要故障安全程序,作为制造业从业人员,仅有的行业敏感告诉我,请不要仅考虑软件程序,务必也需要考虑硬件防护!就像解决很强的电脑病毒,未必一定需要杀毒软件,也可以考虑搞一台新电脑+局域网

    OpenAI政变背后是科学家创始人的悲歌

    31
  • rosicky311_明浩
    2年前
    OPENAI年度大戏的剧名字定了……
    就叫《龙王归来》……

    狗头~
    #OpenAI人事变动
    82