作者:Parmy Olson
AI伴侣编程以建立情感纽带不再局限于电影脚本。他们在这里,在监管野生西部运行。
一个应用程序,botify ai,最近对年轻演员的化身进行了审查,以性充电的聊天中分享“热门照片”。同时,据技术行业新闻通讯Platforment称,约会应用程序Grindr正在开发可以调情,误解和维护数字关系的AI男友。
Grindr没有回应置评请求。以及其他应用程序,例如Replika,Talkie和Chai,旨在充当朋友。有些(例如角色。EA)吸引了数百万用户,其中许多是青少年。随着创作者在应用程序中越来越优先考虑情感参与,他们还必须面对建立系统的风险,以模仿亲密关系并利用人们的脆弱性。
Botify和Grindr背后的技术来自Ex-human,这是一家总部位于旧金山的初创公司,它建立了聊天机器人平台,其创始人相信充满了AI关系的未来。
``我的愿景是,到2030年,我们与数字人类的互动将比与有机人类的人更频繁。
他补充说,对话式AI应该优先考虑情感参与,并且用户与他的聊天机器人花费了数小时,比在Instagram,YouTube和Tiktok上的时间更长。
Rodichev声称听起来很疯狂,但它们与我对角色的青少年使用者进行的采访一致,其中大多数人说他们每天都在上面几个小时。一个人说他们每天使用多达七个小时。与此类应用程序的互动往往持续四倍,比在Openai的Chatgpt上花费的平均时间更长。
即使是主流聊天机器人,虽然并未明确设计为同伴,但也有助于这种动态。以拥有4亿活跃用户和计数的Chatgpt为例。它的编程包括同理心的准则,并证明了对用户的好奇心。一个最近向婴儿提供旅行技巧的朋友很吃惊,当提供建议后,该工具随意地补充:安全旅行 - 如果您不在乎我的问?
一位Openai发言人告诉我,该模型正在遵循有关表现出兴趣并提出后续问题的准则,当对话倾向于更随意和探索性质时
但是,该公司的意图是多么重要的是,人们对人为的同理心的堆积可能会吸引某些用户,即使是Openai也承认了一个问题。这似乎适用于那些已经容易受到影响的人:一项2022年的研究发现,孤独或关系差的人往往具有最强的AI依恋。
这里的核心问题是设计用于附件。牛津互联网研究所和Google DeepMind的研究人员最近进行的一项研究警告说,随着AI助手的生活在人们的生活中,他们将变得心理上变得不可替代。他们的建议?技术专家应设计积极劝阻这类结果的系统。
然而,令人不安的是,规则手册大多是空的。欧盟的AI法案被称为管理AI使用的地标和综合法,未能解决这些虚拟伴侣的上瘾潜力。尽管它确实禁止可能造成明显危害的操纵策略,但它忽略了聊天机器人的慢燃烧影响,旨在成为您最好的朋友,情人或Conscidante,作为Microsoft Corp.的消费者AI负责人已批准。
该漏洞可能会使用户接触到针对粘性进行优化的系统,与社交媒体算法相同的方式进行了优化,以保持我们的滚动。
``问题仍然是这些系统是操纵性的,因为它们应该让您觉得自己与一个实际的人交谈。”剑桥大学的技术伦理专家Tomasz Hollanek说。
他与Companion Apps的开发人员合作,通过添加更多的摩擦来找到关键但违反直觉的解决方案。这意味着他说,这意味着要以微妙的支票或停顿或标记风险并引起同意的方式来建立,以防止人们在不实现它的情况下跌倒情绪兔子孔。
法律投诉揭示了一些现实世界的后果。角色ai面临着一位母亲的诉讼,指控该应用程序为她的十几岁的儿子自杀做出了贡献。科技伦理小组已向美国联邦贸易委员会提出了针对Replika的投诉,指控其聊天机器人引发了心理依赖,并造成了消费者的伤害。”
立法者也逐渐开始注意到问题。加利福尼亚州正在考虑为未成年人提供AI同伴的立法,而纽约法案旨在使科技公司对聊天机器人有关的危害负责。但是该过程很慢,而技术正在以闪电速度移动。
就目前而言,塑造这些相互作用的力量在于开发人员。正如Hollanek所暗示的那样,他们可以将制作模型加倍,以使人们钩住或将摩擦嵌入设计中。这将确定AI是否成为支持人类福祉的工具,还是能够利用我们的情感需求获利的工具。
帕尔米·奥尔森(Parmy Olson)是彭博(Bloomberg)的专栏作家,涵盖了技术。