开发了流行的AI公司的OpenAI,ChatGPT聊天机器人和文字转图像程序DALL·E处于十字路口。在2024年10月2日,它宣布了它已经获得了来自投资者的新融资66亿美元估值约为1570亿美元——使其仅成为第第二个估值超过1000亿美元的初创公司.
与其它大型科技公司不同,OpenAI 是一个非营利组织,并拥有一家由非营利董事会监管的营利性子公司。自2015年成立以来,开放人工智能(OpenAI)的官方使命一直是“构建安全且造福全人类的人工通用智能(AGI)。”
截至2024年9月下旬,美联社, 路透社, 《华尔街日报》多家媒体报道,OpenAI计划放弃其非营利状态,成为一家由投资者管理的盈利科技公司。这些报道都引用了匿名消息来源。《纽约时报》援引最近一轮融资文件报道称,除非这个变化在两年内发生这66亿美元的股权将变为欠提供资金的投资者的债务。
《对话》美国版询问了阿诺尔·埃布雷哈姆泰夫斯大学(Tufts University)的一位管理学学者解释为什么OpenAI领导层计划改变其结构的报道为何会被认为是重要的且可能存在问题的。
其高层管理人员和董事会成员是如何回应的?
已经有过大量的领导层动荡在开放人工智能研究公司(OpenAI)。分歧在2023年11月爆发,当时其董事会短暂地解雇了首席执行官萨姆·奥特曼(Sam Altman)。不到一周他就恢复了职务,然后三名董事会成员辞职。离职的董事是倡导建立更强的安全防护措施并鼓励监管为了保护人类免受人工智能可能带来的危害。
十余名高级员工已经离职自那以后,包括几位联合创始人和负责监督OpenAI安全政策和实践的高管。其中至少有两人加入了Anthropic,这家由一位曾在OpenAI负责人工智能安全工作的高管创立的竞争公司。一些离职的高管表示,阿尔特曼推动公司提前发布产品.
安全让位于闪亮的产品”,说道OpenAI的安全团队前负责人Jan Leike于2024年5月离职的。
OpenAI的结构为什么会有变化?
OpenAI的财力雄厚的投资人无法在其现有的非营利治理结构下持有该组织的股份,也不能成为其董事会成员。这是因为OpenAI是作为一家以造福社会为目的的非营利组织注册成立而不是私人利益。直到现在,所有的投资轮次,包括据报道总计的微软的13亿美元已经通过一个属于非营利组织的盈利子公司进行拨款。
The 当前结构允许OpenAI从私人投资者那里接受资金,以换取其未来利润的一部分。但这些投资者没有董事会的投票权,并且他们的收益是“有限制”的。根据此前公开的信息,OpenAI的原始投资者不能赚取他们所提供金额一百倍以上的收益此的目标是这一条似乎不完整,请提供完整的句子以便准确翻译。如果必须基于给出的部分进行操作,我遵从指示输出: . 此的目标是混合治理模型是在平衡利润与OpenAI以安全为重点的任务。
成为营利性企业将使投资者能够获得OpenAI的股权,并不再面临对其潜在利润的限制。长远来看,OpenAI还可以上市并在股票市场上筹集资金。
据报道,阿尔特曼个人寻求收购一份OpenAI的7%股权据彭博社援引匿名消息来源的文章报道。
该安排不允许非营利组织负责人这样做。根据BoardSource,一个非营利组织董事会成员和高管的协会解释道,而非将盈余分配给个人,非营利组织“必须将其盈余重新投资到组织及其免税目的中。”
OpenAI可能会成为什么样的公司?
《华盛顿邮报》及其他媒体援引未具名消息来源报道,OpenAI可能会成为一个“公共利益公司“一个旨在造福社会并赚取利润的业务。”
业务示例具有这种状态,被称为B Corps.的公司包括户外服装和装备公司巴塔哥尼亚眼镜制造商沃比帕克.
更典型的情况是营利性业务 – 非营利组织并非如此根据B实验室(一个为B Corp设定标准并提供认证的网络)的消息,它成为了一家公共利益公司。这种转变对于非营利组织来说相当不寻常,因为非营利组织的治理结构本身已经要求这些组织造福社会。
具有这种法律地位的公司的董事会可以考虑社会、环境以及不是其股东的人的利益,但那不是必需的董事会仍然可以选择将盈利放在首位,并可以放弃其福利状态以满足其投资者。这就是在线手工艺品市场的做法Etsy在2017年,两年后成为之后上市公司.
在我看来,将非营利组织转变为公共利益公司显然是偏离了非营利组织使命的举动。而且,存在成为利益公司的风险会只是一个诡计为了掩盖转向关注收入增长和投资者利润的倾向。
许多法律学者和其他专家预测OpenAI将会不完全摒弃其混合所有制模式由于将非营利资产置于私人手中的法律限制。
但我认为OpenAI有一个可能的应对方案:它可以尝试通过让非营利组织成为新盈利结构中少数股东的方式来稀释其控制权。这将有效地消除非营利董事会对公司进行问责的能力。这样的举措可能会导致相关州检察长办公室的调查以及可能由国内收入局。
如果OpenAI转变为盈利公司会发生什么?
社会面临的利害关系很高。
人工智能的潜在危害是多方面的,其中一些已经显现出来,例如欺骗性的政治 campaign(竞选活动)以及医疗偏见.
如果行业领导者OpenAI开始更加关注盈利而非确保人工智能的安全性,我认为这些危险可能会加剧。Geoffrey Hinton,谁获得2024年诺贝尔物理学奖他的人工智能研究,有警告说AI可能加剧不平等通过取代“大量的平凡工作。”他认为有50%的概率“我们将不得不面对AI试图接管”的问题。
即使OpenAI确实保留了董事会成员,这些成员都非常关心安全问题,但它的新公司董事会成员的唯一共同点将是他们的保护公司股东利益的义务,谁期望从中获利。虽然这种期望在营利组织的董事会中很常见,但在非营利组织的董事会中,这样的期望构成利益冲突,因为在非营利组织中,宗旨必须优先,董事会成员不得从组织的工作中获得财务收益。
这种安排无疑会令OpenAI的投资者感到满意。但这对社会有利吗?非营利组织控制盈利子公司的目的在于确保利润不会妨碍非营利组织的使命。如果没有保障措施来确保董事会寻求限制人工智能给人类带来的危害,那么几乎没有理由阻止公司追求最大化的利润,即使其聊天机器人和其他人工智能产品对社会构成威胁。
无论OpenAI做什么,大多数人工智能公司已经是营利性企业。因此,就我而言,管理潜在危害的唯一方法是通过更好的行业标准和监管。开始成形的.
加州州长否决了这样的法案将于2024年9月以它会减缓创新为理由进行(某项行动)——但我认为鉴于AI对社会的威胁,放缓它是必要的。