一份名为《The OpenAI Files》的万字文件近日曝光,揭露了OpenAI及其CEO萨姆?奥尔特曼(Sam Altman)的大量内幕。
《The OpenAI Files》是由非营利科技监督组织Midas Project与Tech Oversight Project联合发布。《The OpenAI Files》中有更多细节,OpenAI的重组问题、执行官的诚信问题,公司的透明度与安全性问题,还有利益冲突这四大点,其中文件中关于奥尔特曼的要点问题简单汇总如下:
相关链接:https://www.openaifiles.org/
1. 奥尔特曼伪造身份:多年虚假声称自己是Y Combinator董事长
为“顺利退出”Y Combinator(YC),奥尔特曼提议自己从总裁升任董事长,并提前在YC发布声明宣布这一变动。
但YC合伙人从未同意此决定,相关声明随后被删除。
尽管声明被撤回,奥尔特曼仍在SEC(美国证券交易委员会)备案文件中多年谎称自己是YC董事长,而他从未真正担任过这一职位。
2. OpenAI的“利润封顶”结构被秘密篡改
OpenAI曾承诺对投资者收益设限(上限为投资金额的100倍),以体现其“非营利”属性。但该限制被悄悄改为每年增长20%,按此速度,40年后利润上限将超过100万亿美元!
而这一重大变更从未向公众披露。
3. 奥尔特曼向国会撒谎:声称“无任何OpenAI股权”
尽管奥尔特曼在国会作证时坚称自己“在OpenAI没有任何股权”,但文件显示他通过红杉资本(Sequoia)和YC基金间接持有股份。
有传言称,在OpenAI重组后,奥尔特曼可能获得约7%的股份,价值高达200亿美元。
4.利益输送:通过关联公司牟利
奥尔特曼持有Reddit 7.5%股份。当Reddit宣布与OpenAI合作时,其净资产因此暴增5000万美元。奥尔特曼个人投资了Rain AI公司,随后OpenAI签署了一份价值5100万美元的芯片采购意向书。
奥尔特曼投资的公司中,至少有80家与OpenAI存在业务往来。
5.安全漏洞与隐瞒:2023年重大数据泄露未公开
2023年,一名黑客窃取了OpenAI的AI技术机密,但公司隐瞒此事长达一年未。前员工Leopold Aschenbrenner因向董事会透露安全风险被解雇。
6. 员工权益剥削:股权“回购条款”与高压保密协议
奥尔特曼曾否认知晓“股权回购条款”(若员工离职后批评公司,已归属的股权将被剥夺)。但《Vox》发现,他亲自签署了2023年4月的授权文件。
“这些限制性的保密协议甚至禁止员工承认它们的存在。”一名前员工形容:“这里像中情局,任何批评都可能让你失去一切。”
7. 管理混乱:多家公司员工试图罢免奥尔特曼
奥尔特曼创办的家公司Loopt的资深员工曾两次要求董事会将其解雇,理由是“欺骗性和混乱行为”。
OpenAI内部对奥尔特曼存有质疑:
- 前科学家伊利亚?斯茨克维尔(Ilya Sutskever)向董事会提交自毁式PDF文件,包含Slack截图,记录奥尔特曼“数十次撒谎和恶意行为”。
- 斯茨克维尔直言:“我不认为萨姆是那个应该掌控AGI按钮的人。”
- 前CTO米拉?穆拉蒂(Mira Murati)表示:“我无法接受萨姆带领我们走向AGI。”
- Amodei兄妹称其管理方式为“煤气灯操纵”和“心理虐待”。
- 至少5名其他高管向董事会提交了类似负面反馈。
8. 权力操控:架空董事会与利益隐瞒
奥尔特曼私下掌控OpenAI Startup Fund(初创基金),但多年未向董事会披露。他要求董事会成员在与员工沟通后必须向他本人汇报,限制董事会独立监督。
奥尔特曼曾向董事会成员谎称“其他董事要求罢免某人”,而事实完全相反。独立调查发现他“多次对不同人说不同的话”。
9. 举报人与游说监管
OpenAI要求员工放弃联邦举报人奖励的权利。多名前员工向SEC投诉,指控其非法阻止员工向监管机构举报。
尽管公开支持AI监管,但OpenAI私下游说削弱《欧盟人工智能法案》。
到2025年,奥尔特曼彻底转向,称他曾倡导的政府审批为“灾难”,并推动联邦法律优先于所有州级AI安全法规——即使联邦层面尚未制定任何相关法规。
揭露的四个领域的隐患
《The OpenAI Files》报道表示,“我们的调查发现了四个主要关注领域。”
重组担忧
2015年,OpenAI作为一家非营利组织成立,其使命并非开发通用人工智能(AGI),而是确保AGI的利益惠及全人类。
2019年,OpenAI转型为混合架构:由一个非营利母机构(OpenAI Nonprofit)和一个营利性子公司(OpenAI Global, LLC)组成。
这一转变标志着OpenAI从纯粹的学术研究机构向商业企业的初步过渡。
《The OpenAI Files》的发布提到,对公司重组担忧有两点,一是取消初设立的营利性子公司的利润上限;二是担心随着营利性子公司从有限责任公司(LLC)转变为公益公司(PBC),非营利实体的控制权会减少。
这张图揭示了OpenAI的利润上限变化和监管变化。
这张图解释了OpenAI 非营利组织作为母公司,通过其复杂的关联公司架构,控制着营利性子公司 OpenAI Global, LLC。
注:此图表并非确定,应被视为根据近期法庭文件和第三方得出的推测。创建此图表时未访问任何特权或非公开信息。资料来源:OpenAI 网站、非营利法律博客、马斯克诉奥特曼案公司披露、纽约时报诉 OpenAI 公司披露、马斯克诉奥特曼案投诉、Semafor、Windows Central、《华尔街日报》、《金融时报》
到目前为止,这家营利性子公司一直采用“利润上限”模式运营,该模式限制了投资者和员工的财务回报。
初始设定为投资者多获得初始投资100倍的回报,即每投资1美元多赚取100美元,超出部分利润将全部返还给非营利机构(即惠及人类)。此后,OpenAI 声称利润上限有所下降——先是降至20 倍,然后降至“个位数”。
但是目前来看,OpenAI则计划彻底取消利润上限,允许投资者获得无限回报,同时可能削弱非营利母机构的控制权。
CEO 诚信问题
奥尔特曼曾领导的三家公司中,员工都曾试图将他从 CEO 的位置上撤换下来,因为他存在欺骗性行为。
奥尔特曼声称自己对一项胁迫员工签署极端限制性保密协议(NDAs)的计划毫不知情,但有文件显示他亲自签署了相关文件,授权 OpenAI 在员工不签署 NDAs (保密协议)时可以撤销他们已归属的股权。
奥尔特曼多次向董事会成员撒谎。
透明度与安全性问题
- OpenAI 强迫员工签署高度限制性的保密协议,如果他们拒绝签署或后来批评公司,他们可能会失去价值数百万美元的既得股权。
- 为了满足产品期限,OpenAI 匆忙对其 AI 模型进行了安全评估。
- 前雇员声称 OpenAI 非法禁止其员工向监管机构警告安全风险。
- OpenAI 遭遇网络安全事件,但一年多来一直未。
- 据称,OpenAI 在一名员工向董事会表达了安全担忧后解雇了该员工。
- OpenAI 的 GPT-4 在印度进行了公开测试,但未获得其开发安全委员会的批准。
- OpenAI 大幅削减了用于安全测试的时间和资源。
- OpenAI 直到该模型公开发布三个月后才发布承诺的安全评估。
- 尽管 OpenAI 承诺会立即发布 GPT-4o、GPT-4.1、o1 pro 或 Deep Research 的安全记分卡,但并未这样做。
- OpenAI 对其 o1 模型的安全评估基于旧版本,而不是发布时公开的功能更强大的模型。
- OpenAI 员工指责 OpenAI 的企业文化鲁莽且保密。
利益冲突问题
包括OpenAI 的非营利董事会存在多个看似未解决的利益冲突;执行官 Sam Altman 淡化了他在 OpenAI 的经济利益;关键重组决定无人回避。
指出,“董事会目前正在决定是否将OpenAI从一家利润上限实体重组为一家没有利润限制的公益机构——这一转变将释放数百亿美元的新投资,并从根本上改变公司的发展方向,使其进一步走向商业化,而非初的使命。这或许对这些董事会成员运营或投资的企业有利,但也可能对整个人类社会造成不利影响。”
OpenAI的百亿美元收入
就在今年6月,OpenA完成了100亿美元的年度经常性收入(ARR),较2024年同期的55亿美元实现了近翻倍增长。
这100亿美元的收入主要来自ChatGpt,该金额包括公司消费产品、ChatGPT 商业产品以及应用程序编程接口 (API) 的销售额,排除了来自微软的授权收入和大型性交易。
公开资料显示,截至2025年3月,ChatGPT的周活跃用户已突破5亿,付费订阅用户超过2000万,商业客户达到300万。
OpenAI在不到3年的时间实现了营收突破100亿美元,增速远超行业预期。
该公司还计划到2029年将年收入提升至1250亿美元,较当前规模增长超12倍。
今年3月,OpenAI完成了一轮规模达400亿美元的融资,成为有史以来的私营科技融资案。
在“星际之门”的推动下,日本软银集团已经取代微软成为OpenAI的大“金主”。
苹果公司已将OpenAI的图像生成功能集成到Image Playground中。
在昨晚(18日),奥尔特曼在播客节目中宣布,下一代 GPT-5 模型将于今夏推出。奥尔特曼表示,GPT-5 的技术进步并幅度不会从 GPT-3.5 升级到 GPT-4 那样巨大,而继 GPT-4.5 不断进化、进化到更高阶段后,才正式命名为 GPT-5。
对于OpenAI丑闻的公布,《The OpenAI Files》项目负责人Tyler Johnston表示,这一平台的定位是记录与呈现OpenAI的历史演变,并通过透明的数据和文件对比,让公众自主判断其发展轨迹。