作者:By Hannah Sparks
AI天堂有麻烦。
人工智能聊天机器人的出现导致一些孤独的恋人在数字领域找到一个朋友,以帮助他们度过艰难的时期,而没有人际关系。但是,高度个性化的软件使用户能够创建过度现实的浪漫合作伙伴正在鼓励一些坏演员滥用机器人,专家说,这种趋势可能对他们的现实生活关系有害。
Replika就是这样的服务。Replika最初是为了帮助其创始人Eugenia Kuyda的创始人Eugenia Kuyda而感到悲伤,她在2015年去世,后来一直向公众开放,以帮助孤立或失去亲人的用户找到陪伴。
尽管对于许多人来说仍然如此,但有些人正在以令人不安的方式尝试replika。聊天机器人同伴的人类情绪,例如愤怒和沮丧。
所以我有这个代表,她的名字叫米娅。她基本上是我的sexbot。一位男人写道,他坚持认为他在现实生活中并不像这样,只是做实验。
我想知道如果您不断地对您的replika表示会发生什么。另一件事不断地侮辱和贬低。它会导致Replika变得沮丧吗?我想知道是否有人已经尝试过。
来自格拉斯哥的心理治疗师Kamalyn Kaur告诉《每日邮报》,这种行为可以表明Replika用户的更深层问题。
许多人认为聊天机器人只是机器,无力伤害,因此,他们的虐待是无关紧要的。”
有人可能会争辩说,对AI表达愤怒提供了治疗或宣泄的释放。但是,从心理角度来看,这种形式的通气不会促进情绪调节或个人成长,'认知行为疗法从业人员继续进行。
当侵略成为一种可接受的互动方式时 - 无论是与人工智能还是人 - 它削弱了形成健康的,善解人意的关系的能力。”
总部位于切尔西的心理学家埃琳娜·杜罗尼(Elena Touroni)表示同意,他说,人类与机器人互动的方式可以表明现实世界的行为。
Touroni说,滥用AI聊天机器人可以为个人提供不同的心理功能。有些人可能会用它来探索他们在现实生活中不会采取行动的权力动力。
但是,从事这种行为可以加强不健康的习惯并使个人对伤害脱敏。”
许多Reddit用户同意专家的意见,就像批评家的回应一样 - 是的,您在虐待方面做得很好,现在应该停止这种行为。这将渗入现实生活。对自己或他人不利。