全部新闻
我帮助建立了 Facebook,却发现它出了问题。人工智能正朝着同样的方向发展|财富
社交媒体公司在利润动机的驱动下,通过诱导成瘾的策略来塑造用户行为。现在,人工智能(AI)在快速发展的过程中面临着类似的风险,可能会带来前所未有的好处或严重的负面后果,具体取决于它的治理方式。白宫最近提出建议让人工智能公司免于承担责任,但这种做法没有切中要害。相反,应该对人工智能进行公共控制,以确保其服务于社会利益。民意调查显示,民众强烈支持公民参与制定人工智能规则。“公共控制”的概念涉及公民集会,公民集会拥有真正的权力,可以为人工智能的发展设定具有约束力的目标和限制,确保民主监督并防止竞相部署具有潜在危险的技术。其他国家的现有先例表明了此类模式的有效性。由于人工智能有望创造大量财富,公共治理对于公平分配利益和解决失业问题至关重要。随着华盛顿朝相反的方向发展,对人工智能实施民主控制的窗口正在缩小。接受民主监督对于确保人工智能为人类服务而不是加剧社会分歧至关重要。
数字寡头的崛起
文章讨论了早期互联网政策对当今数字格局的变革性影响,强调了竞争和创新的承诺如何导致谷歌和 Facebook 等科技巨头掌握垄断权力。它追溯了从 1994 年信息高速公路会议(当时关键人物讨论了通信技术的未来)到当前以人工智能引起的监视、数据利用和经济破坏为特征的状态的演变。这篇文章批评了人工智能公司面临的道德困境,以及更广泛的社会从传统产业转向数字平台和技术主导的经济,质疑人类是否能够继续控制其创造物。
独家:Meta 测试牛油果 9B 和牛油果芒果剂
Meta 的下一代 AI 模型代号 Avocado,面临着延迟和内部挑战,将其发布时间从 2026 年 3 月推迟到至少 2026 年 5 月。内部测试显示其落后于 Google、OpenAI 和 Anthropic 模型。Meta 正在尝试多种 Avocado 变体,包括多模式版本和纯文本对话模型,同时通过 Google 的 Gemini 模型路由一些请求。关于暂时授权 Gemini 技术以弥合能力差距直到 Avocado 成熟的讨论已经出现。Meta 计划放弃 Avocado 的开源传统,该传统仍将为 Facebook、Instagram 和 WhatsApp 上的数百万用户提供对当前基于 Llama 的响应的改进。
Claude 的计划任务最终修复了 ChatGPT、Gemini 和所有其他人工智能工具的错误
Mahnoor Faisal 是一位报道 AI 和生产力工具的科技记者,他强调 Anthropic 在其 AI 工具 Claude 中实现的计划自动化比 OpenAI 和 Google 等公司之前的尝试有了重大改进。与其他 AI 工具不同,Claude 的 Scheduled Tasks 可以有效地自动执行重复性任务,而无需每次都需要用户干预,并提供用于本地文件系统访问的 Cowork 和基于云的任务调度等功能。Faisal 通过个人示例展示了这些计划任务的实用性,包括组织桌面文件和总结各种应用程序的每日待办事项列表,并强调这是第一个真正兑现自动化承诺的人工智能解决方案。
DNA 训练的人工智能基础模型如何改变植物生物学
人工智能正在向生物学领域取得重大进展,特别是随着传统工具难以解释的基因组数据的爆炸式增长。Living Models 是一家使用类似于大型语言模型的基于变压器的架构的公司,旨在为生物序列构建基础模型,最初专注于植物生物学,以增强作物发育和气候适应能力。与人类基因组学相比,该方法利用植物基因组学中的大量公共数据集来加速研究,而人类基因组学面临更严格的监管障碍和数据访问挑战。Living Models 的 BOTANIC 模型预测了历史训练分布之外的生物功能,这对于开发适应未来气候条件的作物至关重要。
顶尖领导力专家对人工智能世界末日敲响警钟:老板们选择技术而不是人 |财富
由于准备不足以及与员工的整合不足,大量投资人工智能工具的公司面临着严重的瓶颈。虽然 93% 的人工智能预算用于技术,但只有 7% 分配给人类与人工智能的协作工作。这种不平衡导致中层管理人员的抵制,他们必须协调工作流程变更,但缺乏必要的支持或培训。忽视劳动力发展风险会导致采用和运营问题失败,凸显了对“寻路”领导力的迫切需要,这种领导力能够适应不确定的未来,而不是遵循传统的寻路方法。错过这一转变的公司可能会在效率提升方面举步维艰,同时忽视良好部署的人工智能所带来的巨大收入增长机会。
一个人工智能泡沫已经破灭。经济学家警告说,下一种——“稀有”类型——仍在增长财富
凯投宏观 (Capital Economics) 首席市场经济学家约翰·希金斯 (John Higgins) 得出结论,根据估值指标,人工智能股票泡沫到 2025 年 10 月就会破裂。尽管人工智能估值飙升(498 家人工智能独角兽公司估值总计 2.7 万亿美元),但市盈率却跌至疫情期间的水平。“SaaS 末日”和地缘政治紧张局势等因素导致科技股大幅下跌,尤其是 SaaS 公司和半导体股。希金斯警告称,大型科技公司的盈利增长可能会出现另一个泡沫,并质疑其在经济不确定性和人工智能采用挑战中的可持续性。
人工智能现在导致首席执行官因恐惧而辞职
尽管面临经济挑战,许多首席执行官,包括可口可乐的詹姆斯·昆西和沃尔玛的道格·麦克米伦,都将人工智能作为辞职的原因。两位高管都表示,他们缺乏领导即将到来的人工智能革命的技能。然而,批评者质疑这种说法是否仅仅是在公司业绩不佳和更广泛的经济问题下方便退出的借口。
自认为可以保证人工智能安全的人
DeepMind 人工智能实验室联合创始人 Demis Hassabis 是一位非传统人物,致力于创造超级智能技术,同时深切关注其潜在风险。他对人工智能开发所需的道德影响和安全措施进行了广泛的讨论。当谷歌于 2014 年收购 DeepMind 时,哈萨比斯坚持对其技术进行严格控制,包括设立独立监督委员会和禁止军事应用。尽管面临挫折和内部冲突,哈萨比斯仍在继续推进塑造人工智能造福人类的目标,现在更多地关注个人影响力而不是治理结构。他的工作体现了开发先进人工智能系统时面临的复杂道德挑战。
我父亲帮助开创的人工智能技术现在已成为我在 AT&T 开发的工具的基础
Natalie Gilbert 是 AT&T 的 30 岁数据科学家,她受到父亲在贝尔实验室的神经网络研究的启发,构建了人工智能代理来提高员工效率。她强调随着传统编码方法的发展,创造力和分析技能在人工智能开发中的重要性。吉尔伯特回顾了童年时期观察父亲创新项目的经历,并讨论了当前的举措,例如使用自主人工智能代理改造 AT&T 内部的人力资源技术。她还强调了开发人员了解底层技术的必要性,尽管人工智能工具的进步有助于加快编码速度。