英语轻松读发新版了,欢迎下载、更新

这12个大开眼的图揭示了2025年的AI状态

2025-04-07 10:02:43 英文原文

作者:Eliza Strickland

如果您阅读有关AI的新闻,您可能会感到矛盾的消息轰炸:AI蓬勃发展。人工智能是泡沫。当前的技术和架构将继续产生突破。AI处于不可持续的道路上,需要激进的新想法。人工智能将要找你的工作。AI主要适合将您的家庭照片变成Studio Ghibli风格的动画图像

削减混乱是2025 AI指数斯坦福大学大学以人工智能为中心的人工智能。400多页的页面报告塞满了有关研发,技术绩效,负责人AI,经济影响,科学和医学,政策,教育和舆论主题的图形和数据。作为IEEE光谱每年都会看到我们的报道2021,,,,2022,,,,2023, 和2024),我们阅读了整个内容,并摘下了我们认为现在AI的真实故事的图表。

1。美国公司领先

Graph showing notable AI models trend from 2003-2024: US 40, China 15, Europe 3 in 2024.

尽管有许多不同的方法可以衡量在AI种族中哪个国家 /地区(日记文章发表或引用,但专利授予等等),一个直接的指标是谁推出了重要的模型。研究学院时期AI有一个数据库有影响力和重要的AI模型从1950年延伸到现在,AI索引从中汲取了此图表中所示的信息。

去年,有40个著名模型来自美国, 尽管中国有15个,欧洲有3个(顺便说一句,全部来自法国)。另一个图表(在此未显示)表明,几乎所有2024款车型都来自行业,而不是学术界或政府。至于著名的下降从2023年发行的模型2024年,指数表明这可能是由于技术的复杂性日益增强和培训的不断增长成本。

2。谈到培训费用...

Bar graph showing AI training costs from 2017 to 2024, peaking at $191.9M for Gemini 1.0 Ultra.

Yowee,但这很昂贵!AI指数没有精确的数据,因为许多领先的AI公司已停止发布有关其培训的信息。但是,研究人员与Epoch AI合作,根据培训时间,类型和硬件等等的细节,估算至少某些模型的成本。他们能够估计成本的最昂贵的车型是Google的Gemini 1.0 Ultra,令人叹为观止的成本约为1.92亿美元。培训成本的一般规模与报告的其他发现相吻合:模型还在继续扩大参数计数,培训时间和培训数据量。

此图表中不包括中国的新贵DeepSeek,它在一月份震撼了金融市场,声称培训竞争性的大语言模式,仅为600万美元,声称某些行业专家有争议。AI索引指导委员会联合导演Yolanda Gil告诉IEEE光谱她发现DeepSeek非常令人印象深刻,并指出,计算机科学的历史充满了早期效率低下的技术的例子。她说,我不是唯一一个认为在某个时候会有更有效版本的LLM的人。”我们只是不知道谁会建造它,以及如何建造它。

3。但是使用AI的成本正在下降

Line chart showing decreasing inference prices for GPT-3.5 and GPT-4 across benchmarks from 2022-2024.

培训的不断增加的成本(大多数)AI模型可能会掩盖该报告的一些积极趋势:硬件成本降低,硬件性能不断增加,并且能源效率起来了。那意味着我杂音成本或查询训练有素的模型的费用正在急剧下降。该图表的比例比例很大,它显示了每美元的人工智能表现。该报告指出,蓝线从每百万个令牌下降到每百万个代币的0.07美元下降;粉红色线条在不到一年的时间内从15美元下降到0.12美元。

4碳足迹

Bar chart showing increasing carbon emissions from training AI models, 2012\u20132024.

虽然能源效率是一个积极的趋势,但让我们的鞭子回到负面:尽管效率提高,但总体功耗仍在增加,这意味着数据中心在AI繁荣的中心,具有巨大的碳足迹。AI指数估计碳排放基于培训硬件,云提供商和位置等因素的选择AI模型,并发现随着时间的流逝,训练前沿AI模型的碳排放量不断增加,而DeepSeek成为异常值。

此图表中包括的最坏的罪犯,骆驼3.1,估计有8,930吨CO2发射,相当于约496名美国人生活一年的美国人。这种巨大的环境影响解释了为什么AI公司成为拥抱核作为无碳功率的可靠来源。

5。性能差距狭窄

US vs China chatbot scores: US trend up from 1250 to 1385, China from 1150 to 1362, Jan 2024-Feb 2025.

美国可能仍在释放的许多著名模型上有指挥的领先优势,但是中国模型正在赶上质量。该图显示了聊天机器人基准上的狭窄性能差距。2024年1月美国顶级车型的表现优于最佳中国车型9.26%。到2025年2月,这一差距已缩小到仅1.70%。该报告在与推理,数学和编码有关的其他基准方面发现了类似的结果。

6。人类的最后考试

Bar graph showing accuracy rates of various AI models, with "o1" having the highest at 8.80%.

今年的报告强调了一个不可否认的事实,即我们用来衡量AI系统功能的许多基准是饱和的。它发生在许多领域中:一般知识,有关图像,数学,编码等的推理。吉尔(Gil)说,在基准逐渐变得无关紧要之后,她惊讶地看着基准。她说,我一直在想[表现]要达到高原,这将达到我们需要新技术或根本不同的建筑的地步。但是事实并非如此。

鉴于这种情况,坚定的研究人员一直在制定他们希望挑战AI系统的新基准。其中之一是人类的最后考试,其中包括由来自全球500个机构的主题专家提出的极具挑战性的问题。到目前为止,即使是最佳AI系统也很难:Openai的推理模型O1到目前为止的得分最高,有8.8%的正确答案。我们会看到持续多长时间。

7。对数据共享的威胁

Bar chart showing various robots.txt restriction categories in top web domains from 2016 to 2024.

今天生成的AI系统通过培训大量数据来获得智能互联网,导致人们经常认为数据是AI经济的新石油。随着AI公司不断推动他们可以向自己的模型提供多少数据的限制,人们开始担心峰值数据,以及我们何时耗尽这些内容。一个问题是网站是越来越限制机器人从爬网站并刮擦数据(也许是因为AI公司正在从网站数据中获利同时杀死其商业模式的问题)。网站在机器可读机器人.txt文件中说明了这些限制。

该图表显示,来自顶级Web域的48%的数据现在受到完全限制。但是吉尔说,AI内的新方法可能会结束对巨大的依赖数据集。她说,我希望在某个时候数据量不会那么重要。”

8。这是公司的钱

Bar chart: AI investment trends by activity (2013-2024). Highest: 2021 ($360.73B), lowest: 2013 ($14.57B).

在过去的五年中,企业界已经打开了AI资金的插头。尽管2024年全球全球投资与2021年的头晕高度不符,但值得注意的是,私人投资从未如此高。在2024年的1500亿美元私人投资中,该指数中的另一幅图表(此处未显示)表示,大约330亿美元用于生成AI的投资。

9。

AI use impact on cost and revenue by function (2024): highest cost decrease in service operations, highest revenue increase in marketing.

据推测,公司正在投资AI,因为他们预计投资回报率很高。这是人们以喘息的声音谈论人工智能的变革性质以及生产力前所未有的增长。但是,可以说公司尚未看到一种转变,从而带来了可观的节省或大量的新利润。该图表,来自麦肯锡调查显示,在报告成本降低的公司中,大多数节省的节省不到10%。在由于AI而增加收入的公司中,大多数据报道收益不到5%。这笔巨大的回报可能仍会到来,投资数字表明,许多公司都在押注。只是还不在这里。

10。AI博士很快就会见到您,也许

Box plot showing that GPT-4 alone scores highest in clinical diagnosis compared to physicians + GPT-4 and physicians alone.

科学和医学的AI是AI繁荣的迷你繁荣。该报告列出了各种新的基础模型已发布的目的是帮助领域的研究人员材料科学,,,,天气预报, 和量子计算。许多公司试图将AI的预测和生成力量变成盈利的药物发现Openai S O1推理模型最近在名为MEDQA的基准上获得了96%

但是总的来说,这似乎是另一个巨大潜力的领域,但也没有转化为重大的现实影响力,也许是因为人类仍然没有弄清楚如何使用该技术。该图显示了一项2024年研究的结果,该研究测试了医生是否使用的诊断是否会做出更准确的诊断GPT-4除了它们的典型资源。他们没有,这也不会使它们更快。同时,GPT-4自己的表现就超过了人类团队和人类。

11。美国政策行动转移到各州

Graph of AI-related proposed bills in the U.S. rising from 0 to 221, 2016-2024. Very few bills have passed, including only 4 in 2024.

在美国,这张图表显示,国会大厅里有很多关于AI的讨论,而行动很少。该报告指出,美国的行动已转移到州一级,在2024年通过131个法案。深击,禁止他们在选举或用于传播非自愿的亲密图像

在美国以外,欧洲确实通过了AI行为,这对制造被认为高风险的AI系统的公司施加了新的义务。但是,全球最大的趋势是各国聚集在一起,使人们对AI在世界上应该扮演的角色进行了详尽而无约束力的声明。因此,周围有很多谈话。

12。人是乐观主义者

Bar chart showing opinions on AI's impact on jobs, likely changing work habits more than replacing jobs.

无论您是股票摄影师,营销经理还是卡车司机,关于AI是否会出现工作或何时来工作的公众讨论。但是,在最近对AI态度的全球态度调查中,大多数人没有受到AI的威胁。尽管有32个国家的60%的受访者认为AI会改变他们的工作方式,但只有36%的受访者预计将被替换36%。吉尔说,这些调查结果真的让我感到惊讶。思考的是非常有能力,AI将改变我的工作,但我仍然会带来价值。''请继续关注,以了解我们是否都通过管理AI员工的渴望团队来带来价值。

关于《这12个大开眼的图揭示了2025年的AI状态》的评论


暂无评论

发表评论

摘要

上面的12个点总结了趋势和见解,突出了人工智能(AI)跨各个领域的当前状态和未来方向的几个关键方面:### 1。数据限制和峰值数据关注: - **问题:**增加网站对Web数据刮擦的限制,导致人们对“峰值数据”的担忧。 - **解决方案?:**新的AI方法的出现可能会减少对大规模数据集的依赖。### 2。企业投资激增: - **趋势:**私人投资对AI的大幅增加,重点是生成AI。 - **期望:**公司正在押注这些投资的大量回报,尽管立即收益是适度的。### 3。AI对生产率和投资回报率的影响: - **当前的现实:**尽管对通过人工智能提高生产率的希望很高,但实际的储蓄或收入增加仍有限。 - **未来的前景:**公司对未来收益很乐观,但尚未在降低成本或收入增长方面看到变革性结果。### 4。AI法规和政策: - **全球趋势:**国家一直在制定非约束力的国际协议,而不是执行严格的法规。- **我们。班次:**国家一级立法变得更加突出,特别是关于防止选举期间滥用并防止未经授权传播个人内容的技术。### 5。道德问题与公众的看法: - **态度:**来自世界各地的大多数人都不会受到AI的威胁,而是将其视为工作进化而不是替代的机会。 - **期望:**有一种感觉,尽管工作可能会因AI而改变,但人类价值仍然至关重要且必不可少。### 6。医学和科学应用: - **潜力:**使用AI进行药物发现,材料科学,量子计算,天气预报和医学诊断方面的重大进步。 - **当前的局限性:**尽管有希望的技术发展,但由于在有效整合人类专业知识与AI能力方面的挑战,实际实施尚未产生重大的现实影响。### 7。公司和公众参与: - **参与度:**关于AI在政策制定者和公众中在社会中的作用的高度讨论,并以越来越谨慎而谨慎的乐观情绪。 - **监管重点:**国家级政策解决道德问题,数据隐私问题和诸如Deepfake技术之类的特定风险。###摘要见解:1。**降低数据依赖性**:新的AI模型可能会减少对大型数据集的依赖,从而有可能克服“峰值数据”限制。2。** ROI的增量进度**:虽然公司正在大量投资,但立即回报却是适中的;希望是对未来的巨大收益。3。**人类相关性继续**:尽管担心工作流离失所,但大多数人还是将AI视为增强而不是取代人类角色的工具。4。**道德和监管框架:**更多地关注道德准则和州级法规,以解决诸如Deepfake技术之类的特定风险。这些趋势朝着AI继续迅速发展的未来,但面临数据访问,实际应用,法规合规性和社会接受度的持续挑战。随着技术进一步的进步,对利益相关者(企业,决策者,研究人员和公众)至关重要,即在道德上的考虑因素,可及性问题上密切合作,并确保AI真正增强了人类的能力,而不是完全取代他们。###关键建议: - **持续的研发**:投资新方法来减少数据依赖性。 - **战略投资计划**:公司应在管理短期期望的同时计划长期福利。 - **道德准则和法规**:开发解决道德问题并确保公平访问AI技术的综合框架。 - **公共教育与参与**:促进公众对AI潜力和局限性的理解,促进了平衡的观点,该观点承认其与人类机构并驾齐驱。