OC

Knowledge OS
鹦鹉螺口语
微软表示 Copilot 仅用于娱乐目的,并非严肃用途——该公司大力向消费者和企业推广人工智能,告诉用户不要依赖它来获取重要建议
2026-04-03 13:30:02 · 英文原文

微软表示 Copilot 仅用于娱乐目的,并非严肃用途——该公司大力向消费者和企业推广人工智能,告诉用户不要依赖它来获取重要建议

作者:Jowi MoralesSocial Links NavigationContributing Writer

Microsoft Copilot logo on a laptop screen
(图片来源:Shutterstock)

微软过去常常将其人工智能服务推向其用户群,特别是随着 Copilot+ PC 的推出,但似乎连公司本身也不信任其创造。根据Microsoft Copilot 使用条款去年10月更新的AI大语言模型(LLM)仅供娱乐使用,用户不应将其用于重要建议。虽然这可能是一个样板免责声明,但考虑到该公司多么希望人们将 Copilot 用于商业用途并将其集成到 Windows 11 中,这相当具有讽刺意味。

– 副驾驶仅用于娱乐目的。它可能会犯错误,并且可能无法按预期工作。”该文件称。– 不要依赖副驾驶的重要建议。使用 Copilot 需要您自担风险。这也不仅限于 Copilot。其他人工智能法学硕士也有类似的免责声明。例如,xAI 说– 人工智能正在迅速发展,并且本质上是概率性的;因此,有时可能会:a) 导致输出包含“幻觉”,b) 具有冒犯性,c) 无法准确反映真实的人物、地点或事实,或 d) 令人反感、不恰当或不适合您的预期目的。

文章继续如下

虽然生成式人工智能是一个有用的工具,并且确实可以提高生产力,但它仍然只是一个对其可能犯的任何错误不承担任何责任的工具。正因为如此,使用它的人必须小心,始终怀疑它的输出并仔细检查它的结果。但即使你意识到当前人工智能技术的局限性,人类也容易受到自动化偏见的影响,我们倾向于偏爱机器产生的结果,而忽略可能与此相矛盾的数据。人工智能可能会使这种现象变得更加严重,特别是因为它可以产生乍一看似乎合理甚至真实的结果。

Google Preferred Source

关注Google 新闻上的 Tom's Hardware, 或将我们添加为首选来源,在您的源中获取我们的最新新闻、分析和评论。

将 Tom's Hardware 的最佳新闻和深入评论直接发送到您的收件箱。

Jowi Morales 是一位技术爱好者,拥有多年的行业工作经验。自 2021 年以来,他一直在多家科技出版物上撰文,对科技硬件和消费电子产品感兴趣。

关于《微软表示 Copilot 仅用于娱乐目的,并非严肃用途——该公司大力向消费者和企业推广人工智能,告诉用户不要依赖它来获取重要建议》的评论

暂无评论

发表评论