梅加·莫汉BBC World Service 性别与身份记者

砂砾
南非人利奥诺拉·蒂玛 (Leonora Tima) 的家族中发生了一起可怕的杀戮事件,她因此受到启发,创建了一个数字平台,让人们(主要是女性)可以讨论和跟踪虐待行为。
2020 年,利奥诺拉的亲戚被杀时年仅 19 岁,怀孕九个月,她的尸体被扔在开普敦附近的高速公路边。
“我在发展部门工作,所以我见过暴力,”利奥诺拉说。“但对我来说最突出的是,我家人的暴力死亡在南非社会被视为如此正常。
“任何新闻媒体都没有报道她的死亡,因为我们国家此类案件的数量之多,不足以构成新闻。”
凶手从未被抓获,Leonora 所看到的对一名女性暴力死亡的默默接受成为了她的应用程序“科技中的性别权利”(Grit) 的催化剂,该应用程序具有一个名为 Zuzi 的聊天机器人。
这是非洲创作者为解决性别暴力问题而制作的首批免费人工智能工具之一。
“这是与非洲社区共同设计的非洲解决方案,”利奥诺拉说。
目的是提供支持并帮助收集证据,这些证据随后可用于针对虐待者的法律案件。
该倡议正在引起国际妇女权利活动人士的兴趣,尽管一些人警告说,不应使用聊天机器人来取代人类支持,并强调幸存者需要同情、理解和情感联系,而这些只有经过培训的专业人员才能提供。
利奥诺拉和她的小团队走访了她在开普敦的家周围的小镇社区,向居民讲述了他们遭受虐待的经历以及技术融入他们生活的方式。
他们询问了 800 多人如何使用手机和社交媒体谈论暴力,以及是什么阻止了他们寻求帮助。
利奥诺拉发现人们想谈论他们的虐待行为,但“他们对像警察这样的传统途径持谨慎态度”。
“一些女性会在脸书上发布相关信息,甚至给施虐者贴上标签,结果却收到诽谤文件,”她说。
她认为现有的系统两次让受害者失望,第一次是未能阻止暴力本身,第二次是当受害者试图发声时。
在 Mozilla、盖茨基金会和帕特里克·麦戈文基金会的财政和技术支持下,Leonora 和她的团队开始开发 Grit,这是一款移动应用程序,可以帮助人们记录、报告虐待行为并获得对发生的虐待行为的响应。
该应用程序可以免费使用,但需要移动数据才能下载。Leonora 的团队表示,该公司拥有 13,000 名用户,9 月份收到了大约 10,000 个帮助请求。
Grit 的核心是围绕三个关键功能构建的。
主屏幕上有一个大的圆形帮助按钮。按下后,它会自动开始录制 20 秒的音频,捕捉用户周围发生的事情。同时,它会向私人快速响应呼叫中心(专业响应公司在南非很常见)触发警报,训练有素的接线员会向用户致电。
如果呼叫者需要立即帮助,响应团队要么派人亲自前往现场,要么联系受害者当地可以提供援助的组织。
该应用程序的开发核心是虐待幸存者的需求,Leonora 说:“我们需要赢得人们的信任。这些是经常被忽视的社区。在共享数据方面,我们对人们提出了很多要求。”

砂砾
当被问及帮助功能是否被滥用时,她承认有一些好奇的压力 - 人们测试它是否真的有效 - 但她不会称之为滥用系统。
“人们很谨慎。他们在测试我们,就像我们在测试技术一样,”她说。
Grit 的第二个元素是“金库”,Leonora 说这是一个安全的数字空间,用户可以在其中存储滥用证据,注明日期并加密,以供以后在法律诉讼中使用。
照片、屏幕截图和录音都可以私下上传和保存,保护重要证据不被删除或篡改。
“有时,女性会拍摄受伤照片或保存威胁信息,但这些信息可能会丢失或删除,”利奥诺拉说。“金库意味着证据不仅仅存在于可能被拿走或销毁的手机上。”
本月,Grit 将再次扩展,推出第三个功能 - Zuzi,这是一个人工智能驱动的聊天机器人,旨在倾听、建议和引导用户获得当地社区的支持。
“我们问人们:‘应该是女性吗?应该是个男人吗?应该是机器人吗?听起来应该像律师、社会工作者、记者或其他权威人物吗?”Leonora 解释道。
人们告诉他们,他们希望祖兹成为“阿姨形象”——一个温暖、值得信赖的人,他们可以向她倾诉,而不用担心别人的评判。

砂砾
虽然 Zuzi 主要是为遭受虐待的女性设计的,但在测试阶段,寻求帮助的男性也使用了 Zuzi。
“有些对话来自肇事者,男性要求祖兹教他们如何获得帮助来解决愤怒问题,而他们通常是针对自己的伴侣,”利奥诺拉解释道。“也有一些男性是暴力受害者,他们通过 Zuzi 更公开地谈论他们的经历。
“人们喜欢与人工智能交谈,因为他们不会感到受到它的评判,”她补充道。“这不是人。”
联合国妇女署报告称,南非是世界上性别暴力 (GBV) 严重程度最高的国家之一,杀害女性的比率比全球平均水平高出五倍。据南非警方称,2015 年至 2020 年间,平均每天有 7 名女性被杀。
许多人,包括南非性别暴力专家丽莎·维滕(Lisa Vetten)都同意,技术不可避免地会在解决这一问题上发挥作用。
但她也警告说,在以创伤为中心的护理中使用人工智能时要谨慎。
“我称它们为大型语言模型,而不是人工智能,因为它们从事语言分析和预测 - 仅此而已,”她说。
她可以看到人工智能系统如何提供帮助,但也知道其他人工智能聊天机器人向女性提供错误建议的例子。
“当他们对女性的法律问题给出非常自信的答案时,我感到担心,”她说。“聊天机器人可以提供有用的信息,但它们无法处理复杂、多方面的困难。最重要的是,它们不能替代人类咨询。需要帮助受到伤害的人信任其他人并感到安全。”

@judith.Litvine/MEAE
坚毅的做法引起了国际关注。
10 月,Leonora 和她的团队在法国政府在巴黎主办的女权主义外交政策会议上展示了他们的应用程序,全球领导人在会上齐聚一堂,讨论如何利用技术和政策来建设一个更加性别平等的世界。在这次会议上,31个国家签署了一项承诺,将解决基于性别的暴力作为一项关键的政策优先事项。
女权主义外交政策合作组织的创始人兼负责人莱里克·汤普森表示,围绕人工智能的使用展开了热烈的讨论,“但当你试图将性别纳入对话中,以提高种族主义、性别歧视和仇外偏见的危险时,你的目光就会变得呆滞,谈话就会转移——很可能会转移到后走廊,那里没有任何讨厌的女性来提出这个问题”。
查塔姆研究所副研究员希瑟·赫尔伯特(Heather Hurlburt)专门研究人工智能及其在科技领域的应用,她同意人工智能“具有巨大的潜力,要么帮助识别和纠正性别歧视和基于性别的暴力,要么加深厌女症和不平等”,但他补充说,我们走哪条路“很大程度上取决于我们”。
莱奥诺拉很清楚,人工智能能否成功解决性别暴力问题不仅取决于工程技术,还取决于谁首先能够设计技术。
2018 年世界经济论坛的一份报告发现,全球人工智能专业人员中只有 22% 是女性,这一统计数据至今仍被经常引用。
“我们现在所知的人工智能是根据历史数据构建的,这些数据以男性,尤其是白人的声音为中心,”利奥诺拉说。
“答案不仅在于拥有更多的女性创作者。我们还需要有色人种女性创作者,更多来自南半球,更多来自社会经济背景较差的人。”
莱奥诺拉·蒂玛总结道,只有到那时,技术才能开始代表使用它的人的现实。
您可能还对:

盖蒂图片社/英国广播公司