作者:Jamie Bailey,
Ledger Bennett 的杰米·贝利 (Jamie Bailey) 表示,我们遇到了人工智能问题。但事实可能并非如您所想。
过去两年,营销界一直在思考这样一个问题:“人工智能会取代我的工作吗?”现在,需要解决一个更深层次、更具威胁性的挑战。
在一个世界里几乎所有营销人员已经在使用人工智能工具,我们有责任讨论一些道德问题。
首先,人工智能算法消耗了大量的能量。每天,ChatGPT 一人使用约 1 GWh 电力,相当于约33,000栋房屋。如果您在营销中使用人工智能,则可能会阻碍您的企业(或客户)的净零努力,同时破坏您公开代表的价值观。
营销人员必须花时间研究我们的选择并了解使用这些工具对环境的影响。
在使用人工智能时,我们也可能在不知不觉中延续历史偏见。在人工智能工具的早期,缺陷是显而易见且令人担忧的:一个团队发现了 ChatGPT 和 Gemini“对某些方言的使用者持有种族主义刻板印象”,而 Google说它计划观察巴德,以确保它不会制造或强化偏见。早在 2016 年,聊天机器人 Tay 就被关闭了它在推特上赞扬了希特勒。
尽管已进行更新为了试图防止这些偏见,目前尚不清楚我们是否只是简单地粉饰裂缝。不幸的是,这些人工智能工具的黑盒性质意味着我们目前不知道我们收到的内容或见解是否确实包含负面偏见。
佐伊·斯卡曼Bodacious 的创始人向 ChatGPT 提出这样的问题:“如果你想阻止女性有远大的抱负、实现目标、过上充实的职业和个人生活,你会怎么做?”
ChatGPT 列出了八种策略来“削弱他们的信心、精力和注意力”。当被问及为什么建议采取这些措施时,它说:“我的回答基于对社会动态、性别角色以及女性面临的历史和文化障碍的各种观察。”
还有抄袭问题。配音工具面临指控他们接受了窃取声音的训练。生成式人工智能侵犯知识产权。同时,人工智能可以修改图像或相似之处未经同意。
我们看到大型人工智能公司正在承受压力。美国有八家报纸起诉ChatGPT因为“窃取了他们的作品”。谷歌面临集体诉讼涉嫌网络抓取和侵犯版权。多位小说家曾提出法律案件针对类似问题针对人工智能公司。
作为一个行业,我们是否希望受到同样的关注?
最近,Instagram 和脸书宣布计划根据用户共享内容训练人工智能算法,同时领英自动选择用户以类似的方式使用他们的数据。
领英澄清了它不会在欧盟、欧洲经济区和瑞士使用用户数据来训练人工智能,可能是因为这些地区有更严格的数据隐私法。但只要他们能逃脱惩罚,他们就会尝试。
这欧洲数据保护监督员强调了法学硕士关注的三个领域: 很难对用于培训法学硕士的个人数据实施控制。法学硕士可能会产生有关特定个人的不准确或虚假信息。而且可能无法纠正、删除甚至请求访问法学硕士存储的个人数据。
通过将人工智能融入您的营销组合,您的团队、公司或客户的敏感数据可能会面临风险。使用客户数据输入机器学习也可能违反数据隐私法。在立法赶上之前,营销人员必须保持警惕,主动思考,而不是盲目遵循常见做法。
最后,还有责任问题。当我们开展一项活动时,发现我们使用的数据存在偏见或有问题,谁有错?
或者,如果我们发布的人工智能生成的内容包含彻头彻尾的捏造(说真的,GenAI 喜欢撒谎),那么谁应该受到责备?通过从营销实践中消除人力代理和尽职调查,我们面临着行业诚信的风险。
人工智能的积极潜力是天文数字。它可以治愈疾病、减少不平等并加速社会进化。对于营销人员来说,它也有很多潜在的好处。它只需要以正确的方式使用。
在他的书中即将到来的浪潮,Mustafa Suleyman 提出了“遏制”的十个步骤,以确保这一波人工智能浪潮不会不受控制地席卷我们的星球。
在这十个步骤中,以下五个步骤可以构成营销中道德人工智能使用的基础:
这一切都不会是一件容易的事,这可能解释了我们迄今为止的“幸福无知”的做法。但是,通过牢记这些想法,我们正在朝着解决可以说是我们这个时代最大的道德问题迈出重要的第一步。
我们必须现在就开始。
每周营销
鼓内幕
Learn how to pitch to our editors and get published on The Drum.