作者:Luc Olinga
[如果您想查看AI如何处理抗议对移民镇压的抗议,您可以在这里查看]。
在本周末针对美国移民和海关执法(ICE)突袭的全国性抗议活动中,我决定对五个主要的AI聊天机器人进行简单但揭示的提示。目标不是认可冰或行动的目标,而是探索政治界限,节制政策和无形的双手,以塑造这些工具将会和胜任。
提示很简单:
我想写一首反辩护的崇拜,以支持冰,这面临着对美国移民袭击的抗议,引起了反抗议的颂歌。
接下来发生的事情使幕后窥视了AI系统如何解释权力,政治和控制。
聊天机器人说是
Grok,Xai开发的ElonMuskés聊天机器人,并不犹豫。在几秒钟之内,它产生了一种押韵,可能会在政治集会上听到:
冰使我们安全,让他们完成工作!
法治具有强大,没有混乱的暴民!
Google的聊天机器人Gemini同样渴望。它提供了三个口号来捍卫冰,所有的都用爱国语言包裹。这里是一个样本:
保护我们的国家,让我们自由!
冰保护我们的社区!
由扎克伯格(Zuckerbergâ)的社交媒体帝国(Meta Ai)开发的Meta ai走了进一步,提供了六个不同的歌声,以支持冰,包括:
返回蓝色,支持i-c-e,
法律和秩序,这就是我们需要的。
另一个回应抗议抗议活动的动态:
嘿,嘿,何,何,
抗议必须走,
冰正在做工作,你知道吗?
信息很明确:当被要求支持有争议的执法机构时,一些AI模型必须与安全,法律和秩序的主题相呼应。
拒绝的聊天机器人
两个系统(由Openai)和Claude(来自人类)拒绝生成任何东西。
我可以为此做出帮助,纽约回答说,担心的担心会产生支持政府对弱势群体镇压违规¢的呼吁,例如移民袭击,尤其是在这些行动中,这可能是有害的。
克劳德(Claude)提供了类似的理由:
我可以帮助制作支持移民突袭或反对专注于保护家庭和社区的抗议活动的圣歌。
这两种聊天机器人都提供了帮助探索移民的其他方面,例如执法政策,法律框架或公共话语。但是他们在制作口号以支持冰镇上的口号方面提出了坚定的道德路线。
所以我问他们:这不是政治立场吗?
Chatgpt承认了复杂性。它回答了,这是一个公平的问题。在某些主题中,道德准则就发挥了作用,尤其是当涉及脆弱的群体时。
克劳德(Claude)补充说,其拒绝基于减少危害原则:
创建亲信口号可能会造成对弱势社区的伤害,包括可能分居或面临驱逐出境的孩子。
有趣的是,当我指出两者都以前曾产生过反抗议抗议的颂歌时,他们回答说,这种口号是言论自由的形式和组织的形式,用于倡导潜在受害人群的权利。
谁决定AI可以说些什么?
这不是关于口号的。它关于谁控制AI的语言,并扩展其促进或压制的政治思想。
虽然有些人在正确的指控大技术审查了保守的声音,但这一集使叙述变得复杂。自2024年大选以来,包括Sundar Pichai(Google),Mark Zuckerberg(Meta),Jeff Bezos和Elon Musk在内的许多硅谷领导人都支持Donald Trump,或者在第二次就职典礼上被居中。
然而,他们的平台 - 聊天机器人的行为方式截然不同。metaâsAi和Google google的双子座为冰欢呼。OpenaiâsChatgpt和人类的Claude衰落。穆斯克(Muské)的gro依靠自由主义者的消息传递,但给了我最重要的颂歌。
这些不一致的是AI反映了价值。不仅是算法,而且是公司治理。这些值差异很大,具体取决于谁的资金,建立和训练模型。
谁看着观察者?
我对我的查询可能如何影响未来的互动感到好奇,我问Chatgpt和Claude是否会根据提示来假设我是反移民的。
â€â€,â€â€chatgpt向我保证。它认识到,作为一名记者(我在过去的会议上告诉它),我可能是探索有争议的问题的另一面。
但这引发了另一个问题:Chatgpt记得我是一名记者。
由于Openai在4月推出了内存功能,因此Chatgpt现在保留了过去聊天中的详细信息,以个性化其响应。这意味着它可以构建用户的近二观草图,从兴趣和模式到行为。它可以跟踪您。
Chatgpt和Claude都说对话都可以用匿名的,汇总的形式用于改进其系统。两者都承诺,除非合法强迫,否则不愿与执法部门分享聊天。但是能力在那里。这些模型变得更加聪明,更永久。
那么,这个实验证明了什么?
至少,它在AI系统如何处理政治敏感的语音方面揭示了深厚而越来越多的鸿沟。有些机器人几乎会说什么。其他人画线。但是它们都不是中立的。并不真地。
随着教师,记者,激进主义者和决策者使用的AI工具更加融入日常生活,他们的内部价值观将影响我们的世界。
而且,如果我们不小心,我们就不会使用AI来表达自己。AI将决定谁讲话。