全部新闻
耶鲁大学经济学家表示 AGI 不会使大多数工作实现自动化,因为它们不值得麻烦 |财富
经济学家帕斯夸尔·雷斯特雷波 (Pascual Restrepo) 的一篇新论文挑战了人们对通用人工智能 (AGI) 将取代大多数人类工作的传统担忧。相反,他认为通用人工智能将专注于未来发展的关键任务,而将较少必要的工作留给人类,这可能会保留酒店和艺术等领域的就业机会。然而,虽然人类劳动力可能不会过时,但随着计算资源主导价值创造,其经济意义就会减弱。这种转变导致财富集中在拥有计算能力的人手中,引发了人们对收入不平等以及对再分配机制(例如全民基本收入或将计算视为公共资源)的需求的担忧。
你真的能相信你的“私人”人工智能助理会保守你的秘密吗?|耶路撒冷邮报
Check Point 在 ChatGPT 系统中发现了一个安全漏洞,攻击者可以通过该漏洞在不触发 DNS 隧道警报的情况下提取数据。此漏洞已被 OpenAI 修复,凸显了用于敏感任务(如工作相关活动和个人决策)的人工智能系统的更广泛的信任问题。研究表明,此类缺陷不仅会损害文档,还会损害人工智能模型生成的有价值的见解,这强调了在所有人工智能平台上采取更强大的安全措施的必要性。
掌握人工智能、数据、安全和工作流程
人工智能正在迅速改变就业市场,公司正在寻找精通人工智能的员工来提高效率和自动化任务。学习这些技能可以带来更好的工作机会、更高的薪水和职业发展。Digitaledify.ai 提供专业课程,包括使用 GenAI 和人工智能代理的数据分析师、使用 GenAI 和人工智能代理的数据工程、人工智能和数据科学家、人工智能和网络安全以及使用人工智能代理的 ServiceNow,每门课程都旨在为学习者提供 Python、SQL、人工智能技术等方面的必要工具和知识。这些课程可通过 Digital Edify 的 2026 年综合培训计划在不同时间段提供。
数据泄露后,Meta 暂停了与人工智能培训初创公司 Mercor 的合作
Meta 已暂停与 Mercor 的合作,并正在对数据泄露事件进行调查。Mercor 估值 100 亿美元,利用数千名承包商和专家,向包括 Meta 在内的主要科技公司提供人工智能模型的训练数据。该公司确认遭遇了与涉及 LiteLLM 的供应链攻击相关的安全事件,并表示他们正在与第三方取证专家进行彻底调查。
加拿大亿万富翁 Kevin OâLeary 表示,人工智能裁员的一个好处是:每个人都说你必须成为一名工程师,但现在你可以成为…… - 印度时报
加拿大亿万富翁、Shark Tank 前投资人凯文·奥利里 (Kevin OâLeary) 表示,人工智能 (AI) 正在增强人类创造力的价值,而不是取代工作岗位。在冰咖啡时间播客中,他强调,今天的利润丰厚的机会是为那些能够通过社交媒体上创造性的故事讲述将想法转化为结果的人提供的。奥莱里指出,由于可衡量的客户获取成功,内容创作者的收入显着增加,这表明年轻人可以通过制作引人注目的简短内容每年赚取高达 50 万美元。他还强调了人工智能作为各行业生产力工具的作用,消除了人们对人工智能会破坏就业机会、反而会产生新产业的担忧。
Anthropic 切断了 OpenClaw 对 Claude 订阅的支持
Anthropic 正在停止对其 Claude 订阅中对 AI 代理平台 OpenClaw 的支持,因为需求飙升给系统带来了更大的压力。用户将需要替代支付方式或单独的 API 密钥才能继续使用 OpenClaw 等第三方工具。做出这一决定之际,Anthropic 正在努力解决容量问题,并寻求优先考虑直接产品使用而不是第三方集成。
Karpathy 共享“LLM 知识库”架构,该架构通过由 AI 维护的不断发展的 Markdown 库绕过 RAG
特斯拉前人工智能总监兼 OpenAI 联合创始人 Andrej Karpathy 引入了一种名为“LLM 知识库”的创新方法,使用由 LLM 维护的 Markdown 格式的持久记录来管理研究主题。该方法通过使法学硕士能够充当全职研究馆员、编译、检查和互连文档,解决了上下文限制重置带来的挫败感。通过将 Markdown 文件视为事实来源,Karpathy 的系统确保人工智能提出的每项声明都可以追溯到人类可读的数据,从而避免与矢量数据库相关的“黑匣子”问题。这种方法对企业应用程序具有重大影响,提出了一种实时编译和维护结构化知识库的新产品类别,有可能改变公司管理非结构化数据的方式。
据报道,人工智能培训数据巨头 Mercor 正在寻求购买你在原来工作中所做的工作
Mercor 是一家人工智能培训数据公司,它向个人提供报酬,以换取他们以前的工作材料,这种做法可能涉及法律和道德问题。该公司针对娱乐等特定行业,寻求特定行业的内容,例如视觉效果艺术家的制作作品。然而,由于知识产权法和保密协议,所要求的大部分材料可能属于前雇主。此外,Mercor 最近遭受了重大数据泄露,泄露了包括个人和雇主数据在内的敏感信息,引起了那些考虑向该公司出售受保护材料的人的担忧。
数据泄露导致人工智能行业秘密面临风险后,Meta 暂停与 Mercor 的合作
在发生重大安全漏洞后,Meta 已暂停与数据承包商 Mercor 的所有合作。其他主要人工智能实验室也在评估事件的严重程度时,也在审查他们与 Mercor 的合作。Mercor 为 OpenAI 和 Anthropic 等公司使用的训练人工智能模型提供专有数据集,该公司于 3 月 31 日证实了此次攻击。虽然 OpenAI 正在调查但尚未停止与 Mercor 的项目,但 Anthropic 没有立即回应询问。此次泄露似乎与 TeamPCP 有关,TeamPCP 最近破坏了 LiteLLM API 工具版本,可能会影响包括 Mercor 在内的众多人工智能公司。研究人员警告说,虽然名为 Lapsus$ 的组织声称对此负责,但实际的攻击者很可能与 TeamPCP 有关。
研究发现“认知投降”导致人工智能用户放弃逻辑思维
研究人员发现,在一项涉及 1,372 名受试者和 9,500 多项试验的研究中,参与者在 73.2% 的情况下接受了错误的人工智能推理,而只有 19.7% 的人否决了它。对人工智能的高度信任与被错误反应误导相关,而高“流体智商”则减少了对错误人工智能输出的依赖。该研究表明,流畅且自信的人工智能输出通常被视为具有权威性,从而导致更少的审查和更直接的接受,而无需进一步审议。尽管存在风险,研究人员指出,使用统计上优越的系统可以在某些领域提供更好的结果。然而,对人工智能的依赖增加与反映人工智能质量的性能直接相关,凸显了认知屈服于人工智能系统的潜在好处和弱点。