弗雷德·里奇tin将近半个世纪都在思考摄影的未来。他在1982年担任图片编辑时就开始注意到这种媒介的变化。纽约时报杂志;1984年,他为杂志撰写了一篇文章《摄影的新法宝》,讨论了数字编辑技术在当代新闻摄影中的影响。自那以后的几十年里,他见证了从早期的数字照片编辑到人工智能图像生成的发展过程,在这个过程中,业余和专业用户都可以使用数字服务即时生成逼真的视觉效果。
随着AI生成的图像变得越来越普遍,Ritchin认为人们需要找到新的方法来确认他们所见的内容是可信的。当然,AI生成的图像并非凭空出现。Ritchin追溯了从当代关于AI最佳实践的讨论到Photoshop问世之前关于记者是否应该披露修改照片的做法的一条线索。在数字编辑初期,国家地理因为在1982年2月的封面图像中将吉萨的金字塔用数字手段移得更近而受到批评。今天国家地理摄影师必须使用RAW格式拍摄——这是一种生成未经处理、未压缩图像的设置——而且该杂志对照片修改有严格的禁止政策。
里奇特的观点是,编辑、出版商和摄影记者应该通过设定明确的标准来应对人工智能的挑战;媒体和相机公司已经开始开发自动在照片中嵌入元数据和加密水印的功能,以显示照片拍摄的时间以及是否经过数字编辑或人工智能修改。虽然里奇特没有呼吁完全拒绝使用人工智能,但他希望重新定义摄影在过去个人生活和政治生活中所具有的独特力量。
考虑尼克·乌特在1972年拍摄的一张照片,一名越南女孩赤身裸体地从一次凝固汽油弹袭击中奔跑出来。当时一张图片就能引起全世界的关注。“威廉·威斯特莫兰将军试图说那是一个烧烤炉事故;理查德·尼克松总统则想否认它,”里奇廷说。但“这张照片有助于更快结束战争,并且很多人的生命得以保全。这非常重要……但现在,你可能会看到这样的图片并认为,某个地方一个14岁的孩子在车库里就能拍出这种照片;这不会改变我的投票。”
在一段特别搞笑的时刻,最近的一项研究显示,许多人们依赖的一款最受欢迎的人工智能聊天机器人一直在分享不准确的编码和计算机编程建议。这是一个目前人工智能面临的大问题——这些不断发展的算法会产生幻觉,即当学习模型产生听起来合理但实际上完全是编造出来的陈述时所发生的情况。
这是因为像大型语言模型这样的生成式人工智能应用程序实际上是一个预测程序。当你提问时,AI会在其知识库中筛选出相关的信息。然后,利用这些信息,它会预测一串它认为是你问题所需回答的词语。接下来是另一个预测——另一组词语——它经过训练预计应该紧随其后,依此类推。
但卡内基梅隆大学机器学习部门和海因茨信息系统与公共政策学院的教授雷伊德·甘尼表示,这一过程更侧重于概率而非事实:大多数生成式人工智能模型都是基于从互联网上广泛的数据训练而成的,但是没有人检查过这些数据的准确性,AI本身也无法理解什么是有信誉的信息来源。这就是为什么例如谷歌的人工智能曾给出臭名昭著的建议,在披萨上涂胶水以防止奶酪滑落;这个建议依赖于一个多年前的Reddit恶作剧笑话。
当人类犯错误时,Ghani 说,我们很容易同情他们,因为我们认识到人并不是完美的生物。但是我们期望机器是正确的。比如,我们永远不会怀疑计算器的结果。这让我们在人工智能出错时很难原谅它。但同理心可以成为一种强大的调试工具:毕竟这些系统是由人类创造的。如果我们花时间不仅审查 AI 的过程,还审查训练它的数据集中存在的有缺陷的人类过程,我们可以使 AI 更好,并且希望我们能够反思我们的社会和文化偏见并努力消除它们。
AI存在一个水资源问题——实际上是能源问题。为人们日常个人和职业生活中使用的AI工具提供动力所需的大量能量会产生热量,这些热量会释放到数据中心中,而数据中心则需要提供计算支持和存储空间以使这些AI系统正常运行。正如加州大学河滨分校电气与计算机工程副教授Shaolei Ren迅速指出的那样,冷却这些数据中心需要大量的水资源,这相当于数万城市居民使用的水量。
“当你使用水淋浴时,例如,它可以被再利用,”任说,他的研究重点是如何使人工智能更具社会和环境责任感。“当水蒸发来冷却数据中心时,它就消失了。”随着立法者急于制定法规并要求公司对其能源和水资源的使用负责,任认为对于我们个人和社会来说,更好地理解像ChatGPT这样的应用程序问一个问题的真实成本将非常重要。
甚至在当前的人工智能热潮之前,数据中心的用水和能源需求就已经稳步增长。根据谷歌的数据,在2022年,其数据中心使用了超过50亿加仑的水,比2021年增加了20%;微软在2022年的公司整体用水量比2021年增加了34%。
AI只会加剧数据中心对全球能源电网造成的现有资源压力:国际能源机构表示,到2026年,数据中心的电力消耗将是2022年的两倍。虽然美国才刚刚开始关注数据中心的环境成本,但欧盟的能源委员会在三月份推动了一项旨在提高数据中心运营商透明度的法规,并最终减少对化石燃料的依赖和资源浪费。
“我用孩子能理解的方式解释,”任说。“如果你问ChatGPT一个问题,它消耗的能量相当于在家里开一小时的灯——我们家是四瓦的LED灯。如果你和一个像ChatGPT这样的AI进行对话,大约10到50个问题和回答,它会消耗约500毫升水,或者一瓶标准矿泉水那么多。”
当人工智能吸收了人类创造的所有数据时,它就成了一个反映刻板印象、种族主义和不平等的镜子,这些因素继续塑造着世界,Nyalleng Moorosi(分布式AI研究学院高级研究员)说。她解释说,这些偏见通常是因为构建AI系统和工具的人缺乏多样性,并且过于依赖于那些优先考虑西方关于什么是或不是有价值信息的数据集。
如今全球大多数人都知道被迫接受外来制度是什么感觉,这是殖民化的后果之一。莫罗西认为人工智能有潜力复制这些系统——优先考虑掌权者的观点和议程,同时边缘化土著知识和文化价值。
科技公司雇佣的团队通常会在他们的AI工具中不可避免地构建一些盲点。莫罗西认为,改变这一状况的关键在于将AI平民化:吸纳讲数百种语言和以千百种不同于欧洲中心思想方式思考的人的声音。这意味着要将AI开发从大科技公司的领域转移到地方层面,赋予开发者和工程师根据其社区的需求和经验定制工具的能力。莫罗西认为,由此产生的系统会更加尊重创造者的背景。总部位于南非的Lelapa AI于2022年成立,最近发布了一种语言学习模型,该模型现在是聊天机器人和其他旨在服务讲斯瓦希里语、约鲁巴语、科萨语、豪萨语或祖鲁语用户的创新产品的基础。
“我们必须绝对要审视权力的问题。我们不能期望谷歌或OpenAI的人能理解所有人。我们不能要求硅谷代表全球八百亿人。最好的办法是我们每个人都本地化地建立系统,”Moorosi说。“我的人工智能乌托邦是人们有能力也有胆量部署人工智能来解决他们自己的问题。”请注意,“八百亿人”应为“八十亿人”。