英语轻松读发新版了,欢迎下载、更新

埃隆·马斯克对“唤醒人工智能”的批评表明 ChatGPT 可能成为特朗普政府的目标

2024-10-30 17:59:32 英文原文

作者:Will Knight

米特尔斯特德补充说,特朗普可以通过多种方式惩罚公司。例如,他引用了特朗普政府取消与亚马逊网络服务的一项主要联邦合同的方式,这一决定可能受到前总统对《华盛顿邮报》及其所有者杰夫·贝佐斯的看法的影响。

对于政策制定者来说,指出人工智能模型中存在政治偏见的证据并不困难,即使它是双向的。一个

2023年学习华盛顿大学、卡内基梅隆大学和西安交通大学的研究人员发现,不同的大型语言模型存在一系列政治倾向。它还表明这种偏见如何影响仇恨言论或错误信息检测系统的性能。

另一项研究由香港科技大学的研究人员进行的研究发现,几种开源人工智能模型在移民、生育权和气候变化等两极分化问题上存在偏见。参与这项工作的博士生 Yejin Bang 表示,大多数模型倾向于自由主义和以美国为中心,但相同的模型可以根据主题表达各种自由主义或保守主义偏见。

人工智能模型会捕捉到政治偏见,因为它们接受了大量互联网数据的训练,而这些数据不可避免地包含各种观点。大多数用户可能没有意识到他们使用的工具有任何偏见,因为模型包含限制他们生成某些有害或有偏见内容的护栏。不过,这些偏见可能会巧妙地泄露出去,而模型接受的额外训练来限制其输出可能会引入进一步的党派之争。“开发人员可以确保模型能够接触到有关分歧主题的多种观点,从而使他们能够以平衡的观点做出回应,”Bang 说。

随着人工智能系统变得更加普遍,这个问题可能会变得更严重,阿什克·库达·布赫什罗彻斯特理工学院的计算机科学家开发了一种名为“毒性兔子洞框架”的工具,该工具可以梳理出大型语言模型的不同社会偏见。“我们担心,随着新一代法学硕士将越来越多地接受有关人工智能生成内容污染的数据的培训,恶性循环即将开始,”他说。

“我确信法学硕士内部的偏见已经是一个问题,而且将来很可能会成为一个更大的问题,”卡尔斯鲁厄理工学院的博士后研究员卢卡·雷滕伯格 (Luca Rettenberger) 进行了一项分析,他说道法学硕士与德国政治相关的偏见。

雷滕伯格认为,政治团体也可能会寻求影响法学硕士,以宣扬自己的观点高于他人的观点。“如果某人雄心勃勃并且怀有恶意,就有可能操纵法学硕士进入某些方向,”他说。“我认为操纵训练数据是一种真正的危险。”

人们已经做出了一些努力来改变人工智能模型中的偏见平衡。去年三月,一程序员开发了一个更右倾的聊天机器人试图强调他在 ChatGPT 等工具中看到的微妙偏见。马斯克本人曾承诺,将让由 xAI 构建的人工智能聊天机器人 Grok “最大限度地寻求真相”,并且比其他人工智能工具更少偏见,尽管在实践中它也对冲当涉及棘手的政治问题时。(作为坚定的特朗普支持者和移民鹰派,马斯克自己的“更少偏见”观点也可能转化为更右倾的结果。)

下周的美国大选不太可能弥合民主党和共和党之间的不和,但如果特朗普获胜,关于反觉醒人工智能的讨论可能会更加响亮。

马斯克在本周的活动中对这个问题提出了世界末日般的看法,他提到了谷歌双子座表示核战争比误判凯特琳·詹纳性别更可取的事件。“如果你有一个针对此类事情进行编程的人工智能,它可能会得出这样的结论:确保没有人性别错误的最佳方法是消灭所有人类,从而使未来性别错误的可能性为零,”他说。

关于《埃隆·马斯克对“唤醒人工智能”的批评表明 ChatGPT 可能成为特朗普政府的目标》的评论


暂无评论

发表评论

摘要

特朗普可以通过各种手段惩罚带有政治偏见的人工智能公司,例如取消联邦合同,就像亚马逊网络服务那样。研究揭示了华盛顿大学和香港科技大学等大学的人工智能模型存在政治倾向的证据,凸显了仇恨言论检测和其他领域的潜在偏见。博士生 Yejin Bang 表示,大多数模型往往是自由主义的,但可以根据主题表达不同的偏见。随着人工智能变得越来越普遍,人们越来越担心新的法学硕士接受人工智能生成内容污染的数据培训,从而形成恶性循环。研究人员警告说,为了政治影响力而操纵训练数据是危险的。人们已经在努力调整人工智能模型中的偏见,例如开发右倾聊天机器人并致力于“最大限度地求真”人工智能工具。随着下周的美国大选,如果特朗普获胜,有关抗唤醒人工智能的讨论可能会加剧。