英语轻松读发新版了,欢迎下载、更新

全部新闻

为什么 QwQ-32B-Preview 是值得关注的推理 AI
为什么 QwQ-32B-Preview 是值得关注的推理 AI
2024-12-06 09:19:46
阿里巴巴Qwen团队全新推理AI模型QwQ-32B-Preview拥有325亿个参数,在AIME、MATH等基准测试中表现优于OpenAI o1。它可以处理大量提示、提前计划、事实检查并避免常见的人工智能错误,但面临语言切换问题等限制。QwQ-32B-Preview 符合中国的监管指南,可通过许可在 Hugging Face 上下载。该模型代表了类似于人类推理的问题解决方面的进步,与 Meta 的 Llama 3.1 等生成模型不同。中国科技公司正在利用 DeepSeek 和上海人工智能实验室等公司的模型加剧人工智能领域的竞争,这表明中国在追赶美国科技巨头方面取得了快速进展。
人工智能 (AI) 公司正在走向核能:以下是您应该了解的 3 只能源股
人工智能 (AI) 公司正在走向核能:以下是您应该了解的 3 只能源股
2024-12-06 09:18:00
人工智能的兴起促使企业和国家重新考虑其能源战略并致力于减少碳排放。尽管可再生能源至关重要,但仅靠它们无法满足对清洁能源日益增长的需求。作为回应,一些国家承诺到 2050 年将核能容量增加两倍,并获得了美国银行和高盛等金融机构的支持。随着数据中心电力需求的增长,科技巨头现在正在与核能提供商合作。Constellation Energy 和 Cameco 等公司有望从不断增长的无碳核电需求中受益。
揭秘:用于检测英国福利欺诈的人工智能系统存在偏见
揭秘:用于检测英国福利欺诈的人工智能系统存在偏见
2024-12-06 09:14:00
根据内部评估,英国政府用于检测福利欺诈的人工智能系统存在基于年龄、残疾、婚姻状况和国籍的偏见。工作和养老金部 (DWP) 根据《信息自由法》披露了这种“统计上显着的结果差异”。尽管保证人工智能不会带来歧视问题,活动人士批评政府的做法是“先伤害,后解决”的政策,呼吁在评估影响边缘群体的潜在偏见时提高透明度。
“我们有这个魔法,而不是魔法”:研究人员的 p(厄运)量表记录了人工智能终结人类的可能性为 99.999999%,但萨姆·奥尔特曼声称人工智能将足够聪明,足以阻止人工智能造成存在的厄运
“我们有这个魔法,而不是魔法”:研究人员的 p(厄运)量表记录了人工智能终结人类的可能性为 99.999999%,但萨姆·奥尔特曼声称人工智能将足够聪明,足以阻止人工智能造成存在的厄运
2024-12-06 08:57:23
OpenAI 首席执行官山姆·奥尔特曼 (Sam Altman) 相信,尽管人们担心先进人工智能系统会带来生存威胁,但人工智能将变得足够聪明,能够减轻自身风险。他表示,研究人员正在研究技术问题以确保安全,并对在重大社会影响发生之前解决这些问题表示乐观。该公司面临着潜在的盈利转型以及与前联合创始人埃隆·马斯克的法律纠纷等挑战。尽管得到了微软等大型科技公司的资助,但人们越来越担心人工智能开发中缺乏治理政策。一项研究表明,一旦人工智能达到超级智能水平,它很可能会终结人类,这凸显了安全措施的迫切需要。
超越人在环:管理核指挥与控制中的人工智能风险 - 岩石上的战争
超越人在环:管理核指挥与控制中的人工智能风险 - 岩石上的战争
2024-12-06 08:30:40
本文讨论了通过在指挥和控制系统中使用人工智能 (AI) 来采取风险告知方法来防止意外或无意的核升级的重要性。它表明,虽然人类控制等规定性承诺很重要,但在将人工智能融入核行动时,它们可能不足以确保安全。这篇文章强调需要基于性能的标准和概率风险评估技术来量化和减轻与核指挥和控制系统中人工智能使用相关的风险。以下是关键点的细分:### 要点1. **基于绩效的标准**:- 需要基于绩效的标准,而不是仅仅依赖规定性的承诺,例如保持对决策过程的人为控制。- 重点应放在确保意外核发射的可能性保持在可量化阈值以下。2. **概率风险评估(PRA)**:- PRA 技术对于评估和量化与人工智能集成指挥控制系统相关的风险至关重要。- 这些技术可以帮助识别各种人工智能系统的故障模式并开发适当的安全性能评估框架。3. **纵深防御方法**:- 纵深防御原则,涉及分层冗余安全系统,不可能同时发生故障,应在人工智能核风险管理的背景下应用。- 然而,它必须随着时间的推移而发展,并纳入 PRA 技术的风险洞察。4. **协作努力**:- 美国和中国应带头研究人工智能核系统的PRA技术,并在不增加核战争风险的定性目标下就可量化的安全目标达成一致。- 其他核武器国家可以通过外交程序参与讨论,例如核不扩散条约(NPT)审查会议或专注于军事应用中负责任的人工智能的领域峰会。### 建议1. **可量化的安全目标**:- 美国和中国都应在人工智能的使用不会导致核战争风险增加的定性目标下达成一套可量化的安全目标。2. **风险评估研究**:- 启动研究以了解各种人工智能系统的故障模式,并为其在核指挥与控制应用中的风险制定适当的评估框架。3. **国际合作**:- 利用外交机会,例如 NPT 审查会议和军事领域负责任人工智能领域峰会,让更广泛的利益相关者参与风险管理讨论。4. **透明度和问责制**:- 确保努力揭示自信地量化风险并建立可接受安全水平的阈值是否可行。### 结论文章认为,在概率风险评估技术的指导下,超越规定性承诺,转向更严格的基于绩效的方法,对于管理人工智能与核指挥和控制系统的集成至关重要。这将涉及建立客观标准以确保这些系统的安全并促进国际合作以应对共同挑战。### 图片来源文章末尾提到的图片来自美国太空部队通过维基共享资源,可能描绘了与与核指挥和控制操作相交叉的天基军事或监视能力相关的元素。
威斯康星州的教授担心人工智能可能会取代他们
威斯康星州的教授担心人工智能可能会取代他们
2024-12-06 08:01:40
威斯康星大学(UW 系统)围绕拟议的版权政策变更的情况凸显了机构利益和教师权利之间的显着紧张关系。以下是需要考虑的要点:1. **法律背景**:- 根据美国版权法,员工在工作职责中准备的课程材料可以被视为“雇佣作品”,最初的版权所有权归雇主(大学)所有。- 然而,许多大学制定了政策,赋予教职员工对其所创造的知识产权更多的权利。2. **财务挑战**:- 由于入学人数下降和国家资金削减,威斯康星大学系统面临严重的预算限制。- 该机构正在探索节省成本的措施,包括扩大在线教育作为潜在的收入来源。3. **教师关注的问题**:- 教职员工担心,拟议的政策变化是更广泛战略的一部分,该战略旨在通过更便宜的人工智能辅助在线平台更容易地提供课程,从而贬低校园教育体验。- 鉴于最近削减多样性项目和裁员等行动,人们对华盛顿大学系统的意图和动机表示怀疑。4. **历史先例**:- 类似的争议也发生在其他机构,例如 2000 年的哥伦比亚大学,该大学的教职员工反对要求对知识产权拥有更多控制权的尝试。- 过去的这些事件常常导致保护教师权利和维护校园教育价值的妥协。5. **AAUP 指南**:- 美国大学教授协会 (AAUP) 指南建议,应保护学术成果免遭未经授权的使用,这与教师对拟议的威斯康星大学政策变化的担忧一致。- 然而,华盛顿大学系统认为这些指南并未准确反映当前的版权法。6. **信任与沟通**:- 威斯康辛大学系统的教职员工和管理人员之间存在“信任缺失”,导致人们普遍怀疑政策修订背后的真实意图。- 与教师的透明沟通和参与对于有效解决这些问题至关重要。### 建议:1. **参与对话**:华盛顿大学系统应促进与教师代表的公开对话,以了解他们的观点并直接解决恐惧。2. **澄清意图**:清楚地阐明为什么需要对版权政策进行更改,以及它们如何在不损害学术价值的情况下与更广泛的机构目标保持一致。3. **评估替代方案**:考虑不损害校园教育体验的质量或完整性的替代成本节约措施。4. **回顾历史先例**:研究过去的案例,例如哥伦比亚大学 2000 年的争​​议,以确定平衡机构需求和教师权利的有效策略。5. **实施透明的政策**:确保任何新政策都是透明、公平的,并与所有利益相关者进行良好沟通。通过解决这些问题,华盛顿大学系统可以努力找到既尊重财务约束又尊重学术诚信的平衡点。
人工智能监控如何减少马拉维一家诊所的死产和新生儿死亡
人工智能监控如何减少马拉维一家诊所的死产和新生儿死亡
2024-12-06 07:00:00
18岁的埃伦·卡帕姆滕戈(Ellen Kaphamtengo)第一次怀孕,在出现腹痛后被送往利隆圭的一家医院。25区卫生中心的医生发现她的孩子比预期的要小,存在窒息等风险。使用 PeriGen 与马拉维卫生部和德克萨斯儿童医院合作捐赠的人工智能胎儿监测软件,医生发现心率严重下降,并在 30 分钟内为紧急剖腹产做好了准备。自三年前实施以来,该技术已将医院的死产和新生儿死亡率减少了 82%。杰弗里·威尔金森强调人工智能监测在低收入国家至关重要,因为与传统方法相比,它的效率和准确性,有助于标准化护理和解决人员短缺问题。瓦
阿伦敦学校董事会在晚上的会议上讨论道德和人工智能
阿伦敦学校董事会在晚上的会议上讨论道德和人工智能
2024-12-06 06:19:00
在一次特别会议上,阿伦敦学区董事会批准了两项政策:一项是关于董事会成员和管理人员遵守国家法规的道德规范,另一项是关于该学区在教育中使用人工智能的政策。道德政策旨在防止可能影响资助的经济处罚。人工智能政策旨在标准化该地区整合人工智能技术的方法,重点关注数据安全、素养和公平。此外,董事会一致投票通过了有关债券和借款的政策,并讨论了学校财产使用的政策,同意进一步讨论该问题。
亚马逊停止 Inferentia 人工智能芯片开发,与 Nvidia 较量:Trainium 如何成为人工智能芯片战争中的新武器 - Apple (NASDAQ:AAPL)、Amazon.com (NASDAQ:AMZN)
亚马逊停止 Inferentia 人工智能芯片开发,与 Nvidia 较量:Trainium 如何成为人工智能芯片战争中的新武器 - Apple (NASDAQ:AAPL)、Amazon.com (NASDAQ:AMZN)
2024-12-06 05:11:21
亚马逊已决定停止开发其 Inferentia 人工智能芯片,将重点完全转移到用于推理和训练任务的 Trainium 芯片上。这一战略举措旨在优化人工智能模型训练的性价比。AWS 计算总监 Rahul Kulkarni 宣布,Trainium 现在将作为统一的产品线。该公司还公布了Trainium3计划,计划于2025年推出,采用3纳米芯片制造工艺,计算性能提高一倍,旨在挑战Nvidia在AI芯片市场的主导地位。
特朗普领导下的芯片大战将如何扭转
特朗普领导下的芯片大战将如何扭转
2024-12-06 05:00:17
《金融时报》提供各种订阅计划,包括《金融时报》数字版、标准数字版和高级数字版,具有不同的定价选项和优势,例如在任何设备上进行数字访问、专家分析和节省年度付款。