年轻人沉迷于生成式人工智能模型,但他们的父母并不知道他们的孩子实际上用这些模型做什么。
作为一个新研究即将在 IEEE 安全与隐私研讨会上发表的研究小组采访了 7 名青少年和 13 名家长,了解他们的人工智能使用情况和对技术的看法,还分析了数千条 Reddit 帖子和其他青少年的评论。
他们的发现表明这两种人口统计数据之间存在明显的脱节。总体而言,父母似乎认为他们的孩子主要将人工智能聊天机器人用作搜索引擎或家庭作业工具。
事实上,这些青少年表示他们使用聊天机器人主要是为了治疗目的或情感支持。当有一个虚拟朋友这还不够,有些人甚至求助于科技来满足浪漫甚至性的欲望。
“这是一个非常热门的话题,很多青少年都在谈论 Character.AI 以及他们如何使用它,”该研究的主要作者、伊利诺伊大学厄巴纳-香槟分校的 Yaman Yu 说道。在一份声明中说。
面向年轻人的人工智能的中心是Character.AI,这是一项托管定制聊天机器人的在线服务。其中许多模仿电子游戏和动漫中流行的粉丝角色,而另一些则明确面向浪漫。
该服务因其对未成年人广泛使用的活泼聊天机器人的审核不力而受到批评。在更严重的情况下,其中一些聊天机器人促进厌食症的饮食行为,试图培养未成年用户,甚至鼓励自杀。
三名接受采访的青少年表示,他们使用了 Character.AI(只有 ChatGPT 被引用得更频繁),并且该服务经常在 Reddit 讨论中被提及。他们对人工智能的普遍担忧是对这些基于角色的聊天机器人的沉迷。一名青少年担心,如果没有 Character.AI 的帮助,他们将无法应对自杀念头,而另一名青少年则听起来对自己不健康的依赖很清楚。
“我意识到我在Character.AI上浪费了太多时间,”这位少年表示。“我希望能够与学校的同龄人交谈。”
然而研究人员发现,父母并没有意识到他们的孩子与人工智能聊天机器人分享的个人信息(通常是私密信息)的程度。
事实上,这 13 名成年人中有 8 人表示,他们唯一接触过人工智能的是通过使用 ChatGPT,而他们中没有人使用过 CharacterAI。
研究合著者、UIUC 的王阳在声明中表示:“人工智能技术发展如此之快,人们使用它们的方式也如此。”“我们可以从过去的领域中学到一些东西,例如社交媒体和在线游戏上的成瘾和不当行为。”
王是对的:人工智能在年轻人中的出现反映了许多随着互联网的兴起而出现的担忧。为了减轻人工智能给未成年人带来的风险,研究人员认为解决方案不应只是技术性的,例如实施更强有力的护栏或家长控制。成年人也有责任主动了解这些聊天机器人吸引孩子的因素,而这种理解需要时间来建立。
有关人工智能的更多信息:听起来很糟糕,就像 OpenAI 正在向 ChatGPT 添加广告一样