微软过去常常将其人工智能服务推向其用户群,特别是随着 Copilot+ PC 的推出,但似乎连公司本身也不信任其创造。根据Microsoft Copilot 使用条款去年10月更新的AI大语言模型(LLM)仅供娱乐使用,用户不应将其用于重要建议。虽然这可能是一个样板免责声明,但考虑到该公司多么希望人们将 Copilot 用于商业用途并将其集成到 Windows 11 中,这相当具有讽刺意味。
– 副驾驶仅用于娱乐目的。它可能会犯错误,并且可能无法按预期工作。”该文件称。– 不要依赖副驾驶的重要建议。使用 Copilot 需要您自担风险。这也不仅限于 Copilot。其他人工智能法学硕士也有类似的免责声明。例如,xAI 说– 人工智能正在迅速发展,并且本质上是概率性的;因此,有时可能会:a) 导致输出包含“幻觉”,b) 具有冒犯性,c) 无法准确反映真实的人物、地点或事实,或 d) 令人反感、不恰当或不适合您的预期目的。
文章继续如下
虽然生成式人工智能是一个有用的工具,并且确实可以提高生产力,但它仍然只是一个对其可能犯的任何错误不承担任何责任的工具。正因为如此,使用它的人必须小心,始终怀疑它的输出并仔细检查它的结果。但即使你意识到当前人工智能技术的局限性,人类也容易受到自动化偏见的影响,我们倾向于偏爱机器产生的结果,而忽略可能与此相矛盾的数据。人工智能可能会使这种现象变得更加严重,特别是因为它可以产生乍一看似乎合理甚至真实的结果。
关注Google 新闻上的 Tom's Hardware, 或将我们添加为首选来源,在您的源中获取我们的最新新闻、分析和评论。