作者:PYMNTS
人工智能(AI)初创公司安全的超智能据报道,(SSI)已筹集了60亿美元的新资金。
正如《金融时报》(FT)周五(4月11日)报道的那一轮,对公司的价值为320亿美元,增长超过六倍从公司上次筹集资金。
即使该公司指出的那样,这是对AI公司持续热情的最新信号,即使该公司还没有产品。
该公司没有提供有关计划如何超越Openai和Anthropic,但联合创始人的信息伊利亚·萨斯克弗(Ilya Sutskever)去年告诉英国银行家,他和他的团队已经确定了一座新山,这与我以前从事的工作有所不同。
消息人士告诉新闻媒体,尽管该公司接近的三个消息来源表示,SSI正在研究建立和扩展AI模型的独特方法。
一个单独的报告从路透社起,还引用了不愿透露姓名的消息来源,说Google和Nvidia是本轮投资者之一。PYMNTS已联系SSI发表评论,但尚未得到答复。
SSI于去年由Openai Apple AI兽医Daniel Gross和AI研究人员的前首席科学家于去年推出丹尼尔·利维(Daniel Levy)。
在2023年秋天,萨斯克弗参与了失败的尝试驱逐Openai首席执行官Sam Altman的职位。Sutskever宣布他会离开该公司在5月,显然与Altman相处融洽。
PYMNTS去年写道,SSI尽管如此,SSI还是采取了不同的方法,仅关注开发安全的超智能而没有商业利益的压力。
这就是重新点燃了辩论该报告说,鉴于当前AI系统的局限性以及确保其安全性的挑战,一些专家质疑创建超智能AI的可行性的可能性。
对超智能目标的批评者指出了当前AI系统的局限性,尽管它们具有令人印象深刻的能力,但仍在需要常识推理和上下文理解的任务中挣扎。”
这些批评家认为,从狭窄的AI(在特定任务上都出色的AI)跳到了一般情报,超出人类的能力不仅需要增加计算能力或数据。
怀疑论者还认为,由于人类对AI和技术的局限性,创造安全超级智能所涉及的挑战可能是无法克服的。