作者:By James Folta January 8, 2025, 11:02am
我从未上过商学院课程,但我必须想象他们教给你的第一件事就是“确保不要对你的客户说种族主义的话”,在你学会之后,““这条资金线应该上升”,而“监管=不好。”
但是《神鬼寓言》——一款专为书虫和追剧者打造的社交应用程序——在其 Spotify-Wrapped 风格的用户多年阅读总结开始吐出一些非常令人讨厌的东西时,对“不偏执”的公理大加赞赏。罪魁祸首似乎是对人工智能的过度自信;《神鬼寓言》使用 OpenAI 软件挤出了一两句关于用户阅读习惯的俏皮话,但结果却是灾难性的。
大型语言模型不再提供轻松有趣的摘要,而是开始提供以下内容:—您的旅程深入黑人叙事和变革故事的核心,让主流故事喘不过气来。别忘了偶尔为白人作者露面,好吗?”另一位用户被告知,他们的书籍选择“让我想知道你是否曾经想过从异性恋、顺性白人角度出发”。
而且这并不全是反醒的废话。一名用户“阅读了有关残疾人的书籍,并被告知他们的选择“可能会引起树懒的白眼”,而其他读者则报告说,人工智能会吐出与残疾和性取向相关的不当评论。
大多数人用这款应用程序来跟踪和分享他们正在阅读的内容、加入读书俱乐部、阅读 BookToker 和名人阅读列表,但很快就关闭了该功能,并承诺进行调查,根据给定的报价纽约时报。他们还承诺将删除所有使用人工智能的功能——很好!
这是一个完全非受迫性的错误,也是关于为什么聘请人类作家进行写作和人类编辑进行编辑的另一个很好的实例教训。无论人工智能营销人员告诉你什么,这项技术都不好!我的同事卡尔文最近雄辩地把这个Lit Hub 播客的最新一集: – 所提供的很多东西都是人工智能对现有事物的注释,因为人工智能根本无法做到的事情是即使是最糟糕的创意写作工作室中最糟糕的作家也能做到的事情,比如记住《电影》中主角的名字段落到段落。 –
这些法学硕士似乎唯一真正适应的就是制造可怕的头条新闻。有线关于《神鬼寓言》崩溃的文章指出了过去这些人工智能工具中出现的偏执的例子,比如OpenAI 的 Dall-E 不断生成当被要求描绘“囚犯”时,会出现非白人;当被要求描绘“首席执行官”时,会出现白人;或者说AI搜索引擎如何反复转发了可怕的种族主义内容关于白人的遗传优势;或如何面部识别技术似乎无法区分黑人。这样的例子不胜枚举。
然而像《神鬼寓言》这样的公司却一直在用这些东西冒险。再说一次,我不知道商学院的情况,但为什么要冒这个险呢?如果它真的像我们一直被告知的那样好,那就让他们在决定将其强加给公众之前证明这一点。我们不必这样生活!各位,要有一点自尊!