全部新闻
我们应该如何测试人工智能的人类智能水平?OpenAI 的 o3 实现电气化探索
OpenAI最新的实验性聊天机器人模型o3在通用人工智能抽象与推理语料库(ARC-AGI)测试中得分为87.5%,超过了之前AI得分的55.5%。人工智能研究员 François Chollet 称这是一项突破,但他指出,虽然 o3 展示了推理能力和强大的泛化能力,但它并没有最终实现通用人工智能 (AGI)。研究人员对 o3 在各种测试中的表现印象深刻,但对 ARC-AGI 衡量真实人工智能推理的能力持谨慎态度。OpenAI 尚未透露 o3 如何运作的细节,尽管高分结果需要大量的计算成本。虽然 AGI 在技术上仍未定义,但我们仍在继续努力制定准确评估其进展的基准。
预测:这只高速增长的人工智能股票将在 2025 年结束时拥有全球最大的市值(提示:它不是 Nvidia)|杂七杂八的傻瓜
由于人工智能需求旺盛,英伟达在 2024 年短暂成为全球市值最大的公司,但由于市盈率较高且利润率高于历史平均水平,2025 年可能不是一个强有力的赌注。相比之下,亚马逊、尽管过去五年表现逊于标准普尔 500 指数,但由于其占主导地位的 AWS 云基础设施业务和不断扩大的零售利润,该公司有望在 2025 年加速增长。AWS的收入增长从12%加速到19%,到2025年可能达到1300亿美元,利润率达到35%。此外,北美零售利润率显着改善,预计将继续增长。如果亚马逊实现这些财务业绩,其市值可能会超过英伟达、苹果和微软等当前领先者,到 2025 年底达到近 4 万亿美元。
据报道,Elon's X 为 HPE AI 服务器下了 10 亿美元的订单
惠普企业 (HPE) 已获得一份价值超过 10 亿美元的合同,为埃隆·马斯克 (Elon Musk) 的 Twitter(现称为 X)提供人工智能加速服务器。这笔交易源于马斯克在人工智能领域的雄心,特别是他的 xAI 部门,该部门运行可通过 X 访问的 Grok 模型。 xAI 计划通过添加另外 100,000 个 GPU 来升级其 100,000 个 GPU 超级计算机,并计划最终将其扩展到 100 万个加速器。HPE 的 Cray 部门以建造一些世界上最强大的超级计算机而闻名,虽然 X 没有具体说明他们选择了 HPE 的哪些人工智能加速器,但马斯克的企业通常使用 Nvidia 硬件。xAI 的 Grok 模型的更广泛可用性需要额外的计算资源,这可能会推动对服务器技术的重大投资。
歌曲生成人工智能应用程序的首席执行官表示人们“不喜欢”用乐器创作音乐
人工智能音乐生成公司Suno AI的首席执行官声称,制作音乐并不令人愉快,需要太多的时间和练习。这种叙述旨在证明人工智能在音乐创作中的使用是合理的,以吸引那些可能喜欢更快、更简单的过程的人。批评者认为这种方法破坏了创造力中的人为因素,并质疑人工智能生成的音乐是否可以被视为艺术。Suno AI 因涉嫌未经许可使用受版权保护的材料训练其人工智能而面临版权诉讼,这使得有关人工智能生成内容的所有权和真实性的讨论进一步复杂化。
新的人工智能推理模型是否需要新的提示方法?
在 OpenAI 的 o1 及其竞争对手等模型的推动下,推理人工智能时代正在到来。这些模型使用“思维链”提示来提高复杂问题的性能,但成本较高。及时的工程技术,例如提供详细的简报而不是直接说明,可以释放这些模型的全部潜力,正如成功的案例研究所证明的那样,并得到了 OpenAI 领导层的认可。
[CES 2025] 个性化家电新时代:三星展示家庭人工智能创新
三星电子在 CES 2025 上展示了其家庭 AI 套件,该套件具有个性化语音控制智能设备,可以管理日程、根据食材新鲜度建议食谱,并在用户离开时自主处理家庭维护。该系统包括实时入侵检测等安全功能,并由 Samsung Knox 提供的强大数据保护提供支持。未来的更新将增强辅助功能设置同步并扩展监控服务。
什么是股市“七雄”?- 市场
由于过去两年股价飙升,七大巨头(Mag 7)——Alphabet、亚马逊、苹果、Meta、微软、英伟达和特斯拉——以超过标准普尔 500 指数总价值的三分之一占据主导地位。与 2000 年代初的互联网公司不同,这些科技巨头目前利润丰厚,并在人工智能领域进行了大量投资。他们的市场集中度是前所未有的,如果他们的人工智能赌注失败,可能会导致重大的经济影响。投资者相信人工智能将彻底改变行业,但专家警告说,技术变革通常需要比预期更长的时间。
人工智能取代岗位,华尔街失业人数可能超过20万
BI 的 Tomasz Noetzel 表示,任何涉及日常和重复性任务的工作都有被人工智能取代的风险。
如何避免 ChatGPT 依赖:我们是否过度依赖人工智能?
像 ChatGPT 这样的人工智能工具已经成为求职和创业的重要工具,它提供了效率和创新,但也引发了人们对认知卸载的担忧。Sham Singh 博士强调,虽然人工智能通过处理任务来减轻认知负荷,但它可能会削弱人类的创造力和决策能力。文章建议平衡人工智能的使用,以增强职业沟通和营销内容创作,但不要过度依赖。实际步骤包括批判性地评估人工智能生成的输出、将人工智能保留给重复性任务,以及不断发展与人工智能使用相关的技能。过度依赖可能会阻碍个人专业知识和在工作面试等关键互动中的表现。
研究人员警告称,人工智能制造的“垃圾科学”充斥着谷歌学者
布罗斯大学瑞典图书馆与信息科学学院的研究人员在谷歌学术搜索中发现了一百多篇疑似人工智能生成的科学文章,引发了人们对社会知识完整性和公众对科学信任的担忧。他们的研究发表在《哈佛大学肯尼迪学院错误信息评论》上,强调人工智能生成的虚假研究会带来重大风险,包括证据黑客攻击和破坏同行评审系统。此类文章的激增挑战了用户辨别可靠来源的能力,强调了提高信息素养的必要性。