英语轻松读发新版了,欢迎下载、更新

对人工智能道德使用的思考

2025-08-04 18:29:06 英文原文

介绍

联合国教科文组织在社会和人类科学的任务框架内,对人工智能(AI)的发展和使用进行了道德思考。2021年,成员国通过共识采用了关于人工智能伦理的建议,人工智能是该领域的第一个全球规范工具。该文件建立了原则和价值观,以确保AI有助于可持续发展,社会正义,公平和人权。

在这种情况下,我们提出了一次采访卡洛斯·加尔卡·托雷斯博士他拥有洛贾国立大学的社会,政治和经济科学学士学位,法律学位和法学博士学位。他在性别,公平和可持续发展方面拥有研究生研究,并获得了远距离教育大学(UNED,西班牙)的荣誉和社会科学博士学位。他的博士学位论文题为“厄瓜多尔宪法历史上的宽容和自由主义”。

我们应该如何将人工智能理解为一种文化工具?
让我们首先将AI作为一种文化工具,即通过收集和处理人类文化产生的物体而创建的人造产品。从这个角度来看,我们将理解它是与现在的人类使用的以前技术工具的根本不同的元素,并且它的使用虽然合法而必要,但需要仔细的道德方法。” 

在发展这种道德意识时需要考虑的另一个要素是科学的社会,政治和经济含义,以及没有任何技术真正中立的事实。人工智能的发展历史总是与非常具体的文化和财务环境有关。如今,其核心围绕着硅谷的某些公司以及这些公司的全球利益。除此之外,全球地缘政治格局包括两个主要参与者:中国和欧盟。

最后,一个并不重要的要素是AI所必需的技术基础设施的环境影响,这反映在其对能源消耗,温室气体排放和用水的影响中。

在使用人工智能时必须考虑正义的哪些方面?
我们必须考虑通过涉及AI的任何应用,模型或系统的频繁和不分青红皂白的使用所隐含的社会,政治,经济和环境方面。首先,我们必须考虑到数据经济和现行的国家法规,以使用第三方数据使用。重要的是要考虑上传到语言模型的文本成本,以及在上传在第三方知识产权保护的文本时必须采取的谨慎。

其次,作为负责任的公民,我们必须反思AI可以带给科学研究和我们国家的经济发展所带来的未来利益。我们应该努力确保我们的作用不仅是消费者的作用,而且是创新和想象用途的促进者,以及最终在我们各自的研究领域中的新应用开发人员。

AI在人类方面构成了哪些本体论挑战?
大型语言模型和其他AI技术的一个显着特征是它们有说服力地模仿人类品质,包括艺术表达的能力。这种能力引起了与似乎具有人类独特尊严的实体互动的令人信服的幻想。这提出了记住真正人类的问题的问题。

几项研究表明,各种大语模型的日常使用和日益依赖的依赖限制了智力潜力。关于AI使用的责任是双重的:它不仅影响个人个人,而且影响了子孙后代。

关于AI系统的可靠性和合理性,我们必须考虑什么?
AI系统开发人员最广泛提倡的主张之一是,在任何给定时刻,可以通过“提示”获得所需的信息,假设该信息始终是正确的。这种断言只是部分正确的,因为大语言模型记录了高达60%的错误率。

因此,在处理AI生成的产出时充当内容审阅者至关重要。只有每个领域的专家才能检测出错误和偏见。

这与对大语言模型的普遍看法是理性的联系。我们必须避免将AI回应视为科学和社会理性的最终模型。

从大语言模型获得的材料的使用必须经过持续的审查和完善。

我们应该如何在AI生成的文本中处理写作和归因的问题?
通常,产生文本的一种透明方法是确认使用AI并解释所采用的生成过程。这突出了透明度的重要性,特别是在识别使用AI创建的教育,外展或研究文本方面。
重要的是要记住,大型语言模型为我们提供的是其他作者的想法和资源。因此,舞会区分大型语言模型产生的一个人的作品和内容。应当指出的是,某些模型和系统已经在生成的文本中使用了水印,从而使它们易于将其识别为AI-apoRodeds。

人工智能的使用有什么环境影响?
必须考虑到,AI模型和系统所需的大量能源和水资源使它们成为潜在的环境威胁,每个“提示”都会造成这种威胁。因此,他们的使用必须始终是故意的,并且考虑到环境问题。

因此,有必要不断地向自己告知AI模型和系统对温室气体排放和总体气候变化的贡献。

归因注意:响应的全部内容属于CarlosGarcãaTorres博士。最终文档已在人工智能工具(Copilot)的支持下进行了编辑。本文在联合国教科文组织的方法中发表了有关AI道德使用的批判性思维的框架。

本出版物中使用的术语以及本文包含的数据的介绍并不意味着联合国教科文组织的任何立场涉及国家,地区,城市或地区或其当局的法律地位,或者与界限的界限有关。这项工作中表达的思想和观点是作者的思想和观点,不一定反映联合国教科文组织的观点或提出组织的观点。
一个 

关于《对人工智能道德使用的思考》的评论


暂无评论

发表评论