作者:Dominic-Madori Davis
作为TechCrunch持续进行的女性与人工智能系列,旨在给予以女性为主的AI领域人士为了给学术界及其他人士应得的——且迟来的——关注时间,TechCrunch 对非营利组织的数据科学副总裁Rebecca Portnoff博士进行了采访。荆棘,该组织致力于开发技术以保护儿童免受性虐待。
她曾在普林斯顿大学学习,之后在加利福尼亚大学伯克利分校获得了计算机科学博士学位。自2016年以来,她在Thorn公司逐步晋升。她最初作为一名志愿研究科学家开始工作,现在八年过去了,她领导的团队可能是世界上唯一一个致力于利用机器学习和人工智能阻止、预防并保护儿童免受性虐待的团队。
“在我普林斯顿大学的最后一年,当我考虑毕业后该做什么时,我姐姐推荐我看尼古拉斯·克里索夫和雪莉·吴 Dunn 合著的《半边天》,这本书让我了解了儿童性虐待这一问题,”她在接受 TechCrunch 采访时说。这本书激发了她研究如何在这一领域有所作为的兴趣。她后来撰写了自己的博士论文,特别关注在这个领域使用机器学习和人工智能的方法。
在Thorn公司,Portnoff的团队帮助识别受害者、阻止二次伤害,并防止性虐待材料的病毒式传播。她去年领导了Thorn和All Tech Is Human共同发起的安全设计倡议,旨在防止人们利用生成型人工智能对儿童进行性侵害。
“这是一次巨大的努力,合作制定了原则和缓解措施,以防止生成模型产生滥用材料,使此类材料更可靠地被检测到,并阻止那些用于制作此类滥用材料的模型、服务和应用程序的传播,然后将行业领导者与这些标准联系起来。”她回忆道。她说,她遇到了许多致力于这一事业的人,“但我的白头发比刚开始时多了不少。”
使用AI创建未经同意的色情图像已成为一个大的讨论话题,尤其是随着AI生成色情内容的发展。变得更加复杂精妙,如前所述TechCrunch报道。目前尚无全面的联邦法律在保护或防止未经他人同意而创建的性生成人工智能图像的地方,尽管个别州,如佛罗里达州、路易斯安那州和新墨西哥州,已经通过了自己的立法,专门针对AI儿童虐待。
事实上,她说这是人工智能发展过程中面临的最紧迫的问题之一。“十分之一的未成年人报告说他们知道有同龄人生成了其他孩子的裸体图像。”她说道。
“我们不必生活在这样的现实中,而且已经让事情发展到这种地步是不可接受的。”她表示有一些措施可以实施以防止和减少这种滥用。例如,Thorn正在倡导科技公司采用其设计安全原则和缓解措施,并公开分享他们如何防止利用生成式人工智能技术及产品进一步进行儿童性虐待,与专业组织如电气和电子工程师协会(IEEE)和美国国家标准技术研究院(NIST)合作,支持为公司设立可用于审计进展的标准,同时与政策制定者互动以告知其这一问题的重要性。
“基于影响制定的立法将是使所有公司和利益相关者参与进来所必需的,”她说。
当她在构建AI的过程中晋升时,Portnoff 回忆起人们忽视她的建议,反而要求与具有技术背景的人交谈。“我的回答是:‘没问题,你正在和一个有技术背景的人说话,’”她说。
她说有几件事帮助她在这样一个男性主导的领域中工作:做好准备,自信行事,以及假设他人的好意。做好准备有助于她带着更多的信心进入房间,而自信则让她能够以好奇和大胆的态度应对挑战,“首先寻求理解然后争取被理解”,她继续说道。
“假设对方是善意的有助于我用善意而不是防御的心态去面对挑战,”她说。“如果那里真的没有善意,最终自然会显现出来。”
她给希望进入人工智能领域的女性的建议是始终相信自己的能力和价值。她说,很容易陷入让别人对你的期望定义你潜力的陷阱,但在这个当前的人工智能革命中,每个人的声音都是必不可少的。
“随着机器学习和人工智能越来越融入我们的社会系统,我们需要共同努力,确保它们的整合方式能够促进我们整体的繁荣,并优先考虑其中最脆弱的人群。”
Portnoff 表示,负责任的人工智能有很多方面,包括需要透明度、公平性、可靠性和安全性。“但它们有一个共同点,”她继续说道,“负责任地构建机器学习/人工智能需要与不仅仅是技术同行的更多利益相关者进行互动。”
这意味着更多的主动倾听和协作。“如果你在构建负责任的AI的过程中遵循某条路线图,却发现你没有与组织外部或工程团队以外的人交谈过,那么你可能走错了方向。”
并且,随着投资者继续倾倒数十亿美元波特诺夫建议,投资者可以在尽职调查阶段就开始关注责任问题,在投资之前审视公司的伦理承诺,然后要求达到一定的标准。这可以“防止伤害并促进积极增长。”
“还有很多工作需要去做,”她说,泛泛而谈。“你可以成为让它发生的人。”