人工智能正在改变我们创造、工作和学习的方式。许多人担心它甚至可能改变我们的思维方式。尽管人们对人工智能如何影响教育、艺术和商业做了很多讨论,但人工智能对慈善事业的影响更多的是重新思考。
人工智能声称可以将用户从单调的工作中解放出来。它的制造商认为“苦差事”是一个很大的卖点。事实上,它是许多“人工智能造福人类”计划的核心租户。开发人员将人工智能定位为非营利组织中实现权宜之计、自动化和公平的工具,而非营利组织通常在预算紧张和人员较少的情况下运作。许多慈善领袖将人工智能视为大型非营利组织的一项改变生活的投资,尤其是那些只是想生存的小型、以社区为导向的组织。
但我们也知道,社会正面临着护理危机,越来越多的人表示强烈的绝望和冷漠感。将无人化的数字自动化添加到我们为他人提供护理的方式之一中,是否会加剧日益增长的分离感?第二场战斗也正在进行:注意力危机,我们周围屏幕上快速移动的图像变得比创造它们的更慢、更坚韧的世界更有吸引力。人工智能是解决吸引公众注意力、让他们关心并维持对事业投资的问题的正确答案吗?
非营利组织正在寻求人工智能来填补历史空白,以帮助客户服务、缓解行政问题,并引起财力雄厚的人的注意。对于捐赠界的许多领导者来说,问题仍然是这些好处是否大于缺点。
5 月,Google 推出了搜索实验室的 AI 概述,这是一个你肯定见过但肯定忘记了名字的人工智能总结功能。这是一系列闪闪发光的人工智能功能中的一个支柱,旨在使信息搜索变得更加容易(谁还想滚动浏览多个页面?)。
概述出现在正常情况下自己的突出显示框中谷歌搜索栏,带有一个小锥形烧杯标志,旨在向搜索者表明结果仍在测试中。这很重要。早期推出的 Overviews 不仅表现平淡,而且还很糟糕。这令人担忧。结果是混乱的,通常是荒谬的,成为荒谬的模因和虚假屏幕截图的新载体;人们从他们身边滚过。Mashable 自己的测试发现了真正有用的答案和明显偏离人工智能幻觉的混合体。(该功能尚未全面推广到所有搜索。)
几周后,记者们发起了一场运动,反对因人工智能概述仍然有限而引发的一系列错误信息和盗用署名。一些出版商表示,该工具给内容可见性和在线流量带来了潜在的“灾难”,破坏了在新闻结果顶部出现的既定指标。不久之后,有传言称该功能将添加集成的创收广告。
但担心的不仅仅是新闻媒体,也不仅仅是利润。非营利评级网站 Charity Navigator 的首席开发官凯文·斯卡利 (Kevin Scally) 表示:“你在营利性部门看到的情况肯定会影响非营利性部门。”正如记者和创意人士对道德上可疑的结果敲响了警钟,用户指出了荒谬无益的回应一样,斯卡利和他的同事将简化的搜索摘要视为较少讨论的慈善世界的潜在问题。
这样这些倡导者警告说,人工智能技术可能会隐藏合法的非营利组织,转而提供模棱两可的摘要或完全错误的结果。其搜索摘要结果引发了算法偏差的问题,以及随后围绕资金或可见性的问题,这些问题已经困扰着该行业,但规模得到了综合增强。
如果我们弄错了,那不仅仅是一个有趣的屏幕截图问题。这可能是组织声誉和资金的问题。
人工智能在该领域并不新鲜,但时间已经加快了向上。非营利数据网站 Candid 的数据科学经理戴夫·霍兰德 (Dave Hollander) 解释说,该组织和其他人在过去几年中花费了时间和金钱为非营利组织建立发现和受众,探索人工智能如何帮助服务不足的人群获取在线资源。由于像 Charity Navigator 和 Candid 这样的资源主要处理大型、复杂的数据集,这些数据集是从联邦资源和非营利组织本身整理而来的,因此人工智能工具是减少行政负担的一个非常有用的选择。其他非营利组织可能会使用人工智能来填补员工的空白,例如网站客户服务机器人帮助捐赠者寻找资源和组织。
“这些人工智能工具的普遍可用性及其可访问性可能会帮助组织改善他们的搜索引擎优化,”Hollander 解释道,“在过去,这对他们来说是一项难以克服的任务,但即使在人工智能到来之前,通过搜索进行的可发现性一直是许多组织面临的问题。也加剧了这个问题。”
一个简单的例子:人工智能增强的搜索将如何在具有令人困惑的相似名称的组织之间进行选择?例如,2020 年,随着国际社会团结起来支持种族正义倡导者和警察废奴主义者的工作,数百万美元的捐款被输送给活动组织。不良行为者使用包含“黑人生命也是命”短语的搜索引擎优化游戏名称,成功地从善良的捐助者那里吸走了数千人的钱。
像这样的歧义消除已经是一个问题,是互联网过载的自然产物,没有足够的名字可供传播。由于相同的知名组织(例如比尔和梅琳达·盖茨基金会)反复推荐从事相同工作的小型本地化非营利组织,还出现了其他问题。慈善生态系统正在朝着不那么频繁、反动的捐赠方向发展。“[人工智能概述]存在的风险是,如果我们弄错了,这不仅仅是一个有趣的屏幕截图的问题,”斯卡利警告说。“这可能是组织声誉和资金的问题。然后你就可以向前推进。如果这种情况大规模发生,有关这些组织的信息被扭曲,就会对他们所服务的项目产生真正的影响。”
最近,Google 宣布了 AI 概览的新更新,试图消除出版商的担忧,包括优先考虑直接链接到来源,但它们仍在测试中。其他信息收集网站(例如 TikTok)在人工智能支持的搜索中也面临着类似的错误信息问题。
人工智能仅在给出提示的情况下擅长特异性,而受到所输入数据的限制。搜索概述总结填充的结果并优先考虑高排名链接。如果规模较小的非营利组织在网上并不活跃,并且尚未出现在 Google 结果中,那么它成为人工智能推荐点击的机会就很小。
首先需要解决的媒体和人工智能素养问题越来越长。在人工智能增强的未来,个人将如何学会在有或没有人工智能机器人的帮助下自行正确搜索、审查和协调他们的慈善机构?当我们停止寻找自己的“艰苦”工作时,我们会失去什么?
假设的解决方案是非营利组织向人工智能工具的开发人员提供更多数据——来自非营利组织的数据、来自组织的数据像慈善导航器,以及来自捐赠者(即互联网用户)的个性化行为数据,可以解决特异性问题。人工智能的支持者喜欢个性化。但这会引发更多问题。
“我认为这存在固有的风险。技术真的了解真实的我吗?让 Meta、Google 和 Microsoft 基本上为我建立个人资料有多舒服?”斯卡利说。
人工智能的数据饥渴让许多隐私倡导者和数据自治的支持者感到担忧,这一趋势也席卷了非营利组织的世界。利用人们的个人数据采取此类行动掩盖了世界上许多最有效的社会部门参与者的价值观,这些参与者避免与大型科技公司重叠工作,他们无法切实收集此类数据(或选择不在其社区中收集此类数据),尤其是那些他们试图将自己的工作从历史上的当权者手中解放出来。
随着慈善捐赠新观点的兴起,包括不受限制的、社区驱动的资助理念,这种资助有意避开可追踪的非营利数据,许多非营利组织已经这样做了人工智能安全承诺将阻碍更深层次的个性化。Candid 及其收购的 GuideStar 评级数据库不允许其数据用于训练第三方模型,并且仅将非营利组织的可公开访问的税务数据用于内部项目。
人工智能实施的问题在于它正在以超快的速度发生。这种速度,加上大型科技行业领导者为了简化人们的数字生活而设计的人工智能,并且在没有输入的情况下实施,很容易剥夺人们慈善捐赠的核心目的之一:人与人之间的联系。
根据 Giving USA 的最新数据,继 2021 年社会和公共卫生组织创下历史新高之后,美国的慈善捐赠在 2023 年下降了 2.1%。2023 年增长的是所谓的捐赠者建议基金是富裕精英中颇受争议的一种捐赠方式。捐助者建议的基金由公共慈善机构和非营利组织管理和赞助,将低税率的投资者资金汇集到高价值的慈善支出中。正如斯卡利所解释的那样,基金本质上是向组织提供赠款,但个人捐赠者不参与其中,而且可能在情感上没有投入。那么,付出者就不再做这项工作了。
富有同情心的人际关系需要工作和时间,人工智能的效率目标正在努力让这些事情成为过去。
Scally 认为这些趋势和人工智能概述等工具之间存在明显的联系:人类越来越脱离将金钱和资源交给最需要的人或事业的实际行为,通常有利于其他人(甚至是机器人)讲述他们该去哪里。尽管社会正在转向大规模社区捐赠,并且人们对互助概念重新产生了兴趣,但这种情况还是出现了。
“如果您正在进行搜索,通过人工智能概述找到该组织,然后制作一个通过您的捐赠者建议基金拨款 您与该组织有什么联系?”斯卡利问道。“当你感觉不到捐赠的温暖光芒时,你会投入多少资金来继续支持该组织?”
在投机小说作家和频繁的人工智能评论员特德·蒋 (Ted Jiang) 最近发表的《纽约客》文章中,成长尽管开发商试图占领创意领域,但对人工智能接管艺术的恐惧被认为具有误导性。“推广生成式人工智能项目的公司声称他们将释放创造力。本质上,他们是说艺术可以全是灵感,而不是汗水,但这些东西不能轻易分开,”蒋写道。作者认为,人工智能让人类摆脱的是自信,而不是苦差事。它贬低了人类注意力的努力和重要性,转而支持技术的处理能力。
当谈到对人类意图和创造力的需求时,艺术和慈善事业并没有那么不同,富有同情心的人与人之间的联系需要工作和时间,人工智能的效率目标正在努力使这些事情成为过去。正如蒋所言:“在艺术创作的选择上,把‘大尺度’等同于‘重要’是错误的;大尺度和小尺度之间的相互关系才是艺术性所在。”小规模的人性是慈善事业发挥最佳作用的地方。
个人非营利组织(甚至是他们的支持者,例如 Candid 和 Charity navigator))并没有完全放弃人工智能。事实上,斯卡利对邪恶的人工智能接管行为嗤之以鼻。“除了《终结者》、《黑客帝国》或《机械战警》场景之外,我们如何真正利用它来做好事,并与之取得良好的平衡?”
自 Hollander 开始以来,Candid 就一直在他们的工作中测试人工智能2015 年,该组织继续探索生成式人工智能,作为解决小型非营利组织面临的问题的解决方案,包括起草拨款提案和意向书等文件。
即使 Google 自己的人工智能技术受到批评,该组织该公司一直将资金重新投入到人工智能的社会部门福利中。4 月,该公司宣布向其最新的谷歌“AI for Good”加速器计划投资 2000 万美元。该计划将现金注入他们认为“高影响力”的非营利组织,如世界银行、Justicia Lab 和气候政策雷达,以加速人工智能在其工作中的整合。Google 最近扩大了该计划。
Charity Navigator 得到了 Google 的支持,探索自然语言处理,并正在内部测试为网站访问者提供人工智能支持的帮助。他们受到其他非营利组织之间成功整合的激励,例如 Trevor Project 的危机联系人模拟器(也得到了 Google 的支持)。
“我认为低估人工智能并说它永远无法实现是不公平的。以获得真正驾驭社会公益的微妙领域所需的情报,”斯卡利反思道。“我认为事情正在不断发展,六个月前的人工智能看起来与现在有很大不同。”斯卡利说,这归结于更多的数据、撒下更广的网、更好地消除偏见。
那么,社会部门的监护人可以与大型科技公司的人工智能投资形成某种共生关系,促进这些组织的工作,但保留向人类专业人员提出建议等内容。您已经看到了:让人工智能提供更多上下文、更多链接和更多信息,而不是用广告之类的东西淹没搜索概述。
不过,问题仍然存在。人工智能真的能缩小股权差距吗?它的普遍性能否让所有人更容易充分参与?答案还没有揭晓。但这并不是说我们不能随着计划的进展而制定更具同情心的计划。虽然我们寻求增加“人在循环中”,但人性意识必须保持在最前沿。