全部新闻
特朗普白宫发布了AI使用的指导,政府收购
白宫管理和预算办公室发布了两次备忘录,取代了拜登(Biden)对政府机构使用和购买人工智能的指南,同时维持了前任政府建立的一些结构。第一个备忘录侧重于联邦AI使用的创新,治理和公众信任,保留了诸如AI官员和高影响力风险管理程序之类的因素。第二封备忘录强调了竞争激烈的AI市场和美国制造的AI使用,为创建在线采购工具的在线存储库设定了200天的截止日期。这两项备忘录旨在符合特朗普政府的行政命令,就AI治理和收购指南保持一致。
可以信任AI系统做出公正的决定吗?科学家发现
一项新的研究表明,尽管AI在数学和逻辑方面具有效率,但在主观情况下仍可以表现出类似人类的偏见。研究人员通过18种经典偏见测试对Chatgpt进行了测试,发现它在近一半的情况下犯了类似于人类的错误,显示出过度自信和歧义的迹象。较新的GPT-4模型在判断场景中表现出更强的偏见。这表明,随着AI在某些领域的改善,它可能会出现类似于人类认知陷阱的缺陷。研究人员强调了对AI系统的问责制和道德准则的需求,以避免自动化有缺陷的思维。
AI数据刮刀是对Wikipedia的生存威胁
自2024年1月以来,Wikipedia的自动流量正在增加50%,主要来自AI开发人员,使用数据刮刀收集培训数据。这种激增导致非营利性维基梅迪亚基金会的成本增加。
Microsoft将Copilot Vision带到Windows和Mobile,以寻求现实世界中的AI帮助
Microsoft将其Copilot Vision功能扩展到Windows和移动设备,使AI助手可以从移动相机分析实时视频,并提供植物护理和家庭装饰的提示。该功能将在iOS和Android的Copilot应用程序中可用,很快就会针对Windows PC进行类似的更新。在Windows上,Copilot Vision将使AI能够通过其PC上的软件功能和网页分析来指导用户。这与Microsoft的召回功能不同,该功能会自动捕获快照。Windows Insiders下周将访问Copilot Vision,测试完成后,将进行更广泛的推出。此外,Copilot还将收到以记忆支持,个性化,基于Web的操作,播客创建和深入的研究功能的更新。
在Doge内部在退伍军人事务部的AI推力
根据本文提供的信息,有关Sam Lavingia在美国退伍军人事务部(VA)任职的几个关键问题和担忧:1。**缺乏与VA员工的交往**: - 将“ Twitter”更改为“ X”的建议而无需考虑可访问性指南,这反映出缺乏了解或参与现有政策。 - 人们认为,他的建议,例如将内容管理从Drupal转移到代码库,对于非技术人员而言是不切实际的,可能会导致重大破坏。2。**既定实践的破坏**: - 提出根本性的更改,例如消除使用CMS系统在VA设施更新的情况下,而无需考虑当前员工的功能或工作流程。 - 未经事先同意或政策批准的单方面记录会议,这可以在工作人员之间产生恐惧和不信任的文化。3。**对合同协议的影响**: - 决定不续签合同以维护CMS,这可能导致诸如设施定位器之类的关键服务故障。 - 单方面的行动影响运营连续性,而无需彻底考虑或与相关利益相关者进行磋商。4。**可访问性和合规性问题**: - 忽略第508节的规定要求在建议更改网站内容时,表明无视残疾用户的可访问性标准。5。**基于恐惧的文化**: - 弗吉尼亚州工作人员对埃隆·马斯克(Elon Musk)的支持的看法创造了一个环境,每个人都害怕对他的建议质疑或不同意。 - 缺乏围绕记录会议的既定政策以及在没有适当协议或讨论的情况下引入此类更改的方式。6。**继续外部工作**: - 在弗吉尼亚州,在弗吉尼亚州的Flexile(现在是反劳动)的继续工作是否符合有关政府工作人员外部就业的联邦准则,这是不确定性的。 - 鉴于此类活动可能需要代理商的许可,这种双重角色可能会带来利益冲突和道德问题。7。**硅谷心态**: - 文章表明,一些技术企业家的信念是,他们的创业经验使他们无需了解涉及的细微差别或挑战就可以破坏已建立的系统。 - 这种心态可以与大型政府机构等大型政府机构的官僚规范和运营现实冲突。本文的总体语气强调了对Lavingia的方法的重大关注,尤其是在影响VA,员工士气的日常运营以及遵守既定法规和最佳实践的方式上。
NVIDIA和Google支持的SandBoxaq筹集了4.5亿美元用于定量AI平台|pymnts.com
Sandboxaq筹集了超过4.5亿美元的E系列资金,以开发用于企业AI应用程序的大型定量模型。自2022年从Alphabet衍生以来,该公司已获得超过9.5亿美元的总投资。著名的新投资者包括NVIDIA,Google,BNP Paribas,Horizon Kinetics和Ray Dalio。SandBoxaq的平台用于生物制药,化学,材料科学,网络安全和金融服务。AI与量子计算的整合被认为对各个部门(尤其是财务)的创新至关重要。Sandboxaq
约翰·霍普金斯(Johns Hopkins)拆除AI建筑战争中的最新战斗
约翰·霍普金斯大学(Johns Hopkins University)计划在巴尔的摩校园里砍伐92棵树,以供一座AI建筑物,尽管承诺将种植数百种。邻居对温度升高和对碳中立的担忧感到不安。
人工智能成本崩溃正在改变可能的事情 - 对技术初创公司产生巨大影响
元首席执行官马克·扎克伯格(Mark Zuckerberg)去年夏天发布了Llama 3.1。Thiyagarajan(Rajan)Maruthavanan是Upekkha的执行合伙人,Upekkha是AI专注的加速器,并在印度US走廊上进行了基金投资,对这一开发项目提供了评论。
“黑色镜子”的创作者查理·布鲁克(Charlie Brooker)在“ USS Callister”续集上,向黑白电影致敬,并以“印象深刻的敬畏与恐怖恐怖”观看AI
Netflix将在Black Mirror的第4季中发行流行的“ USS Callister”情节的续集,标题为“ USS Callister:Infinity”。创作者查理·布鲁克(Charlie Brooker)透露,在2017年原著播出后不久开始进行后续行动。新剧集以杰西·普莱蒙斯(Jesse Plemons)和迈克尔·科尔(Michaela Coel)除外的大多数原始演员,将于4月10日结束《黑镜》第7季首映。布鲁克(Brooker)赞扬了重新审视心爱的角色并突出主题的机会,例如在新季节的七集中,包括人工智能,技术和“掩盖”,其中还包括一个星光熠熠的演员,包括保罗·吉亚特(Paul Giamatti),哈里埃特·沃尔特(Paul Giamatti),哈里埃特·沃尔特(Paul Giamatti),哈里特·沃尔特(Harriet Walter),伊萨(Harriet Walter),伊萨(Issa Rae),艾玛·雷(Emma Corrin),埃玛·柯林(Emma Corrin),彼得·卡帕尔迪(Peter Capaldi),彼得·卡帕尔迪(Peter Capaldi),拉希达·琼斯(Rashida Jones)和威尔·帕尔特(Will Will Poulter)。黑镜
这个男人出去证明AI仍然是多么愚蠢
本文讨论了通过FrançoisChollet的弧奖测试和随后的更新,AI在实现所谓的“流动智能”方面面临的挑战。这是要点:1。** arc-agi的最初成功:**-FrançoisChollet开发了一种名为Arc-Agi的测试,以测量AI模型的流体智能,这实际上是它解决以前从未见过的新问题的能力。 - 一些高级AI模型在此初始测试中得分很高,表明它们可以抽象和创造性地推理。2。**引入Arc-Agi-2:** - 为了进一步推动边界,Chollet引入了一个更具挑战性的版本,称为Arc-Agi-2,这一点更加困难。 - 新版本表明,即使是高级AI模型也很难在这些复杂的难题上实现类似人类的性能。3。**当前AI模型的效率低下:** - 尽管早期成功提出了某种形式的抽象推理,但较新的版本揭示了AIS如何解决问题的效率低下。 - 当前的模型可能使用蛮力和反复试验方法,而不是有效的逻辑推理,这在计算和财务上都是昂贵的。4。**行业反应和转变:** - OpenAI和其他公司正在将重点转移到实用实用指标上,而不是抽象的情报基准。 - 这涉及评估AI有效地浏览Web之类的任务的能力,这对于商业用途而言可以更直接。5。**对AGI测量缺乏共识:** - 没有商定的定义或测试,可以普遍捕获构成“通用人工智能”(AGI)的构成。 - 不同的测试和指标可能会强调认知能力的不同方面,但无法捕获整个类似人类的智力。6。**人类智能与AI能力:** - 人类认知多样性包括情绪智力,创造力和解决问题的方法,很复杂,很难人为地复制。 - 人类方法问题的多样性表明,即使在特定测试中获得高分也不等于真正的一般智力。7。**道德和实践考虑:** - 这篇文章提出了有关在人类认知能力仍然知之甚少时追求AGI的道德问题。 - 它也提出了实际挑战,例如AI模型在ARC-AGI-2等复杂测试上获得高分所需的成本和计算资源。8。**未来方向:** - Chollet正在努力开发新的基准测试(例如ARC-AGI-3),以突破当前AI可以实现的边界。 - 该行业可能会继续更多地关注实用性,而不是抽象的情报指标,将AI开发与现实世界的应用和经济价值保持一致。从本质上讲,尽管AI通过蛮力计算解决了复杂问题,但实现类似于人类认知的真实智能仍然难以捉摸。人类思维过程的复杂性以及缺乏通用的AGI指标,突出了定义和衡量人工通用智能的持续挑战。