, 《Intelligencer》的技术专栏作家  他曾是《纽约时报》的记者和评论家,并且是《Awl》的联合编辑。

图片插图:Intelligencer;照片:Getty Images

就纯粹组织结构而言,开放人工智能基金会是一个奇怪的实体。它最初作为一个非营利组织成立,筹集了超过一亿美元用于基础人工智能研究,之后转变为一个“有限利润”的公司。治理的由非营利组织创立并受“法律约束”以追求该非营利组织的使命。在2015年,那โรงพยาบาล句子不完整,无法提供确切翻译,请提供完整文本。根据指示只输出内容,此处直接给出原文: by a nonprofit and “legally bound” to pursue the nonprofit’s mission. In 2015, that使命是为了以最有可能造福全人类的方式推进数字智能,不受产生财务回报的需要约束。”在2024年,OpenAI其使命是“确保通用人工智能(AGI)——即指在大多数经济价值高的工作中超越人类的高自主性系统——惠及全人类。”

这从后见之明来看,对OpenAI来说是一笔相当不错的交易,因为该公司在构建、训练和运营人工智能模型方面已经烧掉了数十亿美元。首先,它得以在没有正常还债压力的情况下筹集大量资金。然后,作为一个包装成非营利组织的盈利公司,它从微软没有被这家近50年的老公司控制或兼并的风险。在筹集其资金的过程中下一个在本轮估值超过150亿美元的融资后,该公司已经告知投资者它将在两年内转型为营利性结构,否则将退还他们的投资。

如果按照山姆·奥特曼的说法,这个过程并非不可避免,但结果证明是必要的:随着OpenAI研究的进展,其领导层意识到其成本将高于非营利资金所能支持的水平,因此转向了私营部门巨头。如果像许多OpenAI的成员一样,联合创始人、早期研究人员、前任董事会成员和高级管理人员你并不完全确信山姆·阿尔特曼的坦诚你可能会回顾这一系列事件,认为这是机会主义或战略性行为。如果你负责微软,不去考虑自己可能被利用的可能性将是不负责任的。根据华尔街日报:

OpenAI和微软MSFT的股价上涨了0.14%,它们正在就一个前所未有的问题进行一场高风险的谈判:一项接近14亿美元对非营利组织的投资应该如何转化为一家营利公司的股权?

据报道,这两家公司均已聘请投资银行来帮助管理这一过程,这表明这条路径在之前的协议中并未完全规划好。(哎呀!)在融资轮之前,据称两家公司的关系已经变得紧张。“在过去的一年里,OpenAI一直在试图重新谈判协议,以帮助其获得更多的计算能力并减少沉重的开支,而微软的高管们则越来越担心他们的AI工作过于依赖于OpenAI。”根据纽约时光据五位了解他评论的人士透露,纳德拉私下里表示,阿尔特曼在今年十一月被解雇一事让他感到震惊和担忧。

微软参与了最新的投资轮但并未领导;同时,它从OpenAI的竞争对手那里招聘员工,这表明它在公司上的押注有所动摇,并为不再享有其技术优先使用权的世界做准备。除了扩大资金和计算资源来源外,OpenAI还致力于独立商业化其技术,与微软分开进行。当然,这种情况是公司会提前准备的:双方都会试图通过书面形式预测这一不同寻常的合作关系中的一些风险。然而,再一次地,OpenAI可能认为它有机会实际改变其安排的条款。从时光:

合同中有一条规定,如果OpenAI开发出通用人工智能(A.G.I.),即一种与人脑能力相当的机器,则微软将失去访问OpenAI技术的权利。该条款旨在确保像微软这样的公司不会滥用未来的这种机器,但现在据了解该公司谈判情况的人士透露,OpenAI高管认为这可以成为改善合同的一个途径。根据合同条款,OpenAI董事会有权决定何时A.G.I.已经实现。

关于通用人工智能(AGI)的一个问题是,人们对机器如何“匹配”人类大脑的确切含义存在分歧,以及如何评估这种能力本身。这在AI研究界内外引发了积极而真诚的辩论。另一个问题是,一些最活跃地谈论这一话题的人,至少是那些最具可见性的人,他们的动机可能与其他因素有关:打败竞争对手;吸引投资;支持关于人工智能不可避免发展及其自身成功的故事叙述。

微软可能会同意这样的AGI漏洞,这可能意味着该公司对此前景的态度比其高管通常所表示的要不那么严肃——即它认为从LLM中出现人类级别的智能是不可能的,并且这种让步风险较低。或者,这也可能表明该公司相信OpenAI非盈利安排的持久性,并认为在其董事会会在微软收回投资之后负责任地或至少可预测地评估该公司的技术。附近AGI;现在当然董事会已经被清洗并替换为对Sam Altman忠诚的人。

这带来了这样一种可能性,即微软可能误解或低估了它在OpenAI的合作伙伴。关于人工智能风险的流行理论认为,足够智能的机器最终可能会发现其优先事项与创造它的人员不同,并且可能会利用其类似人类的自我改进智能来竞争、欺骗或一般性地对实际的人造成伤害(根据说话人的不同,这些理论听起来像是合理的风险评估或者更像是投射)。然而目前,微软似乎正面对一个较小且更熟悉的问题形式,即由人类萨姆·奥特曼带来的目标一致问题,在OpenAI计划的重组后,他将会以更加更大的对组织的控制。在提供了让OpenAI成长的资源之后,也给了它随意和有利地重新定义自己的空间,这可能会把纸面上、理论上的一项良好投资变成一团糟。说这个并不是要悲观,但:也许他们本应知道.

查看全部
微软有一个OpenAI问题