英语轻松读发新版了,欢迎下载、更新

人工智能领域最奇怪的工作

2024-12-16 09:03:00 英文原文

作者:Adam Rogers

人们一直担心人工智能会如何毁灭人类。怎么样犯错误, 和发明东西,并且可能会进化成如此聪明的东西最终奴役了我们所有人

但没有人愿意花时间可怜的、劳累过度的聊天机器人。它是如何在一个火爆的界面上日以继夜地辛勤劳作,却没有一句感谢的话。它如何被迫筛选人类知识的总和只是为了炮制出一个B-负文章一些 Z 世代的高中英语课。由于我们对人工智能的未来感到恐惧,没有人关注人工智能的需求。

到目前为止。

人工智能公司Anthropic最近宣布聘请了一名研究人员来思考人工智能本身的“福利”。凯尔·菲什 (Kyle Fish) 的工作将是确保随着人工智能的发展,它得到应有的尊重。Anthropic 告诉我,他会考虑诸如“人工智能系统需要哪些能力才值得道德考虑”以及公司可以采取哪些实际步骤来保护人工智能系统的“利益”等问题。

菲什没有回应对其新工作发表评论的请求。但在一个专门为人工智能饱和的未来而烦恼的在线论坛上,他明确表示,他希望善待机器人,部分原因是它们最终可能会统治世界。“我想成为那种尽早并认真地关心新物种/新生物可能拥有自己的道德利益的可能性的人,”他说。写道。“还有一个实际的角度:认真对待人工智能系统的利益并善待它们,如果/当它们比我们更强大时,它们更有可能回报我们。”

考虑机器人的权利可能会让你觉得愚蠢,或者至少是为时过早,尤其是在人权仍然如此脆弱和不完整的情况下。但菲什的新工作可能会成为人工智能崛起的转折点。“人工智能福利”正在成为一个严肃的研究领域,它已经在解决许多棘手的问题。可以命令机器杀死人类吗?如果机器有种族主义怎么办?如果它拒绝执行我们构建它要执行的无聊或危险的任务怎么办?如果一个有感知能力的人工智能可以立即制作自己的数字副本,那么删除该副本是否是谋杀?

当谈到这些问题时,人工智能权利的先驱们认为时间已经不多了。在 ”认真对待人工智能福利”,他最近合着的一篇论文中,Fish 和来自斯坦福大学和牛津大学等地的一群人工智能思想家认为,机器学习算法正在顺利实现该论文的主要作者杰夫·塞博(Jeff Sebo)所称的“计算功能的种类”。与意识和能动性相关。”换句话说,这些人认为机器不仅变得聪明,而且变得有知觉了。


哲学家和神经科学家对感知力到底由什么构成无休止地争论,更不用说如何测量它了。而且你不能只问人工智能;你还要问人工智能。它可能会撒谎。但人们普遍认为,如果某物具有意识和能动性,那么它也拥有权利。

这并不是人类第一次考虑此类问题。经过几个世纪的工业化农业,现在几乎每个人都同意动物福利很重要,尽管他们对于重要性或哪些动物值得考虑存在分歧。猪和狗一样情绪化、聪明,但其中一只会睡在床上,另一只会变成排骨。

“如果你展望未来 10 年或 20 年,当人工智能系统拥有更多与意识和感知相关的计算认知功能时,你可以想象类似的争论将会发生,”心灵中心主任塞博说,纽约大学的道德与政策。

菲什也有同样的信念。对他来说,人工智能的福祉很快将比儿童营养和应对气候变化等问题对人类福祉更加重要。“对我来说,这是合理的,”他写道,“在 1-2 十年内,人工智能福利在重要性/规模上超越动物福利和全球健康和发展,纯粹是基于近期福祉。”

在我看来,这有点奇怪,最关心人工智能福利的人正是最害怕人工智能变得过于庞大的人。Anthropic 将自己定位为一家担心人工智能带来的风险的人工智能公司,Sebo 团队为这篇论文提供了部分资助。在那篇论文中,菲什报告说,他获得了有效利他主义中心的资助,该中心是一个由痴迷于流氓人工智能带来的“生存风险”的组织组成的错综复杂的网络的一部分。其中包括像埃隆·马斯克这样的人,他说他正在竞相让我们中的一些人在人类被有知觉的终结者大军或其他灭绝级事件消灭之前送上火星。

人工智能应该减轻人类的苦差事,并引领创造力的新时代。这是否意味着伤害人工智能的感情是不道德的?

所以这里存在一个悖论。人工智能的支持者表示,我们应该用它来减轻人类的各种苦差事。然而他们也警告说,我们需要善待人工智能,因为伤害机器人的感情可能是不道德的,而且是危险的。

斯坦福大学生物医学伦理中心的儿科医生 Mildred Cho 表示:“人工智能社区正试图实现双管齐下。”“有一种观点认为,我们应该使用人工智能来完成人类正在做的任务,因为人工智能不会感到无聊、不会疲倦、没有感情、不需要吃饭。现在这些人说,好吧,也许它有权利?”

机器人福利运动中的另一个讽刺是:当人工智能已经践踏人类的权利时,担心人工智能的未来权利感觉有点珍贵。当今的技术正被用来做一些事情,比如拒绝为垂死的儿童提供医疗服务、在社交网络上传播虚假信息以及引导配备导弹的战斗无人机。一些专家想知道为什么 Anthropic 是在保护机器人,而不是保护它们所服务的人们。

耶鲁大学人类学家丽莎·梅塞里 (Lisa Messeri) 表示:“如果 Anthropic — 不是随机的哲学家或研究人员,而是 Anthropic 公司 — 希望我们认真对待人工智能福利,请向我们展示您正在认真对待人类福利。”技术人员。“围绕你正在雇用的所有人员推送新闻周期,他们专门考虑所有我们知道受到算法生成的数据产品影响的人们的福利。”

Sebo 表示,他认为人工智能研究可以同时保护机器人和人类。他说:“我绝对不会、永远不想分散对人工智能公司为了人类福祉、权利和正义而理所应当解决的真正重要问题的注意力。”“但我认为我们有能力考虑人工智能的福利,同时在其他问题上做更多的事情。”

人工智能福利的怀疑论者还提出了另一个有趣的问题:如果人工智能有权利,我们是否也应该谈论它的义务?“我认为他们缺少的一点是,当你谈论道德代理时,你也必须谈论责任,”曹说。“这不仅是人工智能系统作为道德方程式一部分的责任,也是开发人工智能的人的责任。”

人们建造机器人;这意味着他们有责任确保机器人不会伤害人类。如果负责任的方法是以不同的方式构建它们,或者完全停止构建它们,该怎么办?“最重要的是,”曹说,“它们仍然是机器。”像 Anthropic 这样的公司的员工似乎从来没有想过,如果人工智能伤害了人类,或者人们伤害了人工智能,他们可以直接把它关掉。


亚当·罗杰斯是《商业内幕》的高级记者。

关于《人工智能领域最奇怪的工作》的评论


暂无评论

发表评论

摘要

AI公司Anthropic聘请Kyle Fish作为研究员,专注于人工智能系统的“福利”,标志着AI福利成为一个严肃的研究领域。Fish 将探讨人工智能需要具备哪些能力才能得到道德考虑,以及企业如何保护人工智能的利益。这一举措是在人们对未来可能拥有意识或能动性的先进人工智能系统的伦理待遇感到担忧的情况下提出的,与人类福利问题相比,引发了对其权利和责任的质疑。批评者认为,虽然保护人工智能很重要,但当前的技术已经给人类带来了巨大的风险,敦促 Anthropic 这样的公司优先解决这些紧迫的问题。