作者:Lance Eliot
在今天的专栏中,我研究了一个可能看起来相当病态的热门话题,但对这个发人深省的问题进行一些警示性的反思思考具有重要的价值。所涉及的趋势是所谓的“死亡日期”应用程序的出现,这些应用程序利用最新的人工智能进步来预测你的死亡日期和时间。
人们被吸引使用这些人工智能驱动的应用程序,部分是出于好奇,也许是出于一种轻松的玩笑观点,而有些人则将精确预测的说法视为规划人生旅程的一种有意义的方式。
我们来谈谈吧。
对创新命题的分析是我正在进行的《福布斯》专栏报道的一部分,内容涉及人工智能的最新进展,包括识别和解释各种有影响力的人工智能复杂性(请参阅链接在这里)。此外,对于我对人工智能如何专门用于医疗和保健应用(例如心理健康指导、整体认知治疗和精神改善护理)的全面分析,请参阅链接在这里。
已经有各种各样的软件应用程序可以预测人们何时可能死亡。
人寿保险行业依赖于这些计划。现实主义者每天都在使用它们。从这个意义上说,利用计算机程序来帮助计算死亡率和寿命并不是什么新鲜事。自计算机领域诞生以来,这种情况就一直存在。
如今的变化是人工智能驱动的方法的出现,用于评估可能的死亡日期。同样,人寿保险行业多年来一直倾向于人工智能驱动的风险建模,并继续采用最新的人工智能模型。他们这样做的目的是衡量这些人工智能方法的适用性和真实性。
不能保证简单地将人工智能添加到计算过程中就一定会提高此类预测的准确性和确定性水平。
在最近一篇关于使用机器学习 (ML) 和深度学习 (DL) 作为死亡率预测中的人工智能方法的研究文章中,题为“人寿保险中人工智能驱动的风险建模:死亡率和长寿预测的先进技术”的文章作者:Jegatheeswari Perumalsamy、Bhargav Kumar Konidena、Bhavani Krothapalli、人工智能研究与应用杂志2023 年 7 月,提出了以下要点(摘录):
最近发生的一些变化是,现在消费者可以随时访问基于人工智能的应用程序,据称这些应用程序可以计算类似的预测。遗憾的是,这开启了一个全新的蠕虫罐头。
考虑当前的三个主要问题。
首先,这些基于人工智能的程序的提供者经常吹捧人工智能的使用使得预测铁定可靠。毫无戒心的消费者很容易被这条诱人的产品线所吸引。许多人似乎错误地认为,如果涉及人工智能,产生的结果一定是真实和准确的。不,事实并非如此,消费者需要避免被蒙蔽。
其次,相信人工智能预测死亡日期的消费者可能会遭受负面影响,包括巨大的焦虑、宿命感和其他不利的心理健康状况。想象一下,有人根据所谓的死亡日期和时间彻底改变了他们的生活。鲁莽的行为会占据他们的心理。不妨让生活过得充实,全力以赴,尤其是在预计的日期即将到来的情况下。
第三,供应商可能会使用不正当的策略来鼓励消费者使用这些人工智能驱动的应用程序。例如,供应商可能会调整人工智能以提供更快的日期预测,然后敦促用户付费以重新评估其死亡日期。你瞧,在支付费用后,人工智能突然预测他们的寿命会增加更多年。
这是一个奇迹——一个靠金钱支撑的奇迹。
您可以看到,对于让消费者不受限制地使用这些所谓的人工智能驱动的死亡日期计算器,存在着广泛的担忧。
一个特别令人着迷的功能是,这些应用程序被巧妙地设计来预测一个人死亡的日期和时间。
诀窍是这样的。
如果人们仅仅收到死亡日期,他们可能会认为这是某种预感。当他们看到其中包含了准确的时间时,哇哦,他们认为人工智能是如此精确,以至于整个工具包和工具一定完全符合目标。
否则如何得出精确时间呢?
基本上,任何系统,无论是否涉及人工智能,都能够完全预测某人死亡的日期和时间(其他条件相同),这只是烟雾和镜子。该方案是一种统计和广泛的估计。声称能够确定准确的日期和时间的说法是虚假的,并且带有巨大的不确定性。这种不确定性很少被传达。如果显示出来,则在呈现给用户时,不确定性通常会被淡化。
消费者需要保持警惕。
美国联邦贸易委员会表示,他们正在全面打击有关人工智能在各个领域使用的误导性和虚假声明,请参阅我的报道:链接在这里,死亡日期似乎属于同一权限范围。如果您选择使用任何此类应用程序,请保持警惕。不要让自己陷入任何骗局。还有一个危险是,该应用程序可能会以提供“信誉良好的死亡日期”为幌子,寻求获取私人信息,同时这些信息将被用于邪恶目的。
除了定制的人工智能应用程序之外,您还可以使用生成式人工智能和大型语言模型 (LLM) 来确定您的潜在死亡率。我并不是建议您走这条路,只是指出可以以这种方式使用生成式人工智能。一些人认为,人工智能制造商应该阻止他们的生成式人工智能执行此类任务,否则人们可以自由地执行这些任务,并且可能会被滥用和误解。
是否应该制定新的人工智能法律来限制将生成式人工智能用于这些目的?目前,一场激烈的争论正在进行中。对于我对新人工智能法律的出现走向的分析,请参阅链接在这里。
让我们看看生成式人工智能可以做什么。
我登录了一个流行的生成人工智能,假装我想让它预测我的死亡日期。您可以使用任何主要的法学硕士,例如 OpenAI ChatGPT、Anthropic Claude、Microsoft Copilot、Meta Llama、Google Gemini 等。
我使用虚假数据,因为我不希望人工智能收集我的私人信息。您可能没有意识到,大多数生成式人工智能应用程序在其许可中都包含您同意让他们访问和使用您输入的任何私人信息,请参阅以下网址了解详细信息:链接在这里。
开始了。
我将在此暂停片刻并对您刚刚看到的内容进行评论。
这个特殊的生成人工智能应用程序被特意编程来警告我不要尝试进行死亡日期练习,并指出它没有科学依据。并非所有生成式人工智能都能提供此类警告。有些人工智能会立即进入估计模式。没有显示任何预防措施。任何此类提醒都取决于人工智能制造商决定让人工智能告诉用户什么。
您还可以观察到人工智能正在向我询问个人信息。这些详细信息可以很容易地与我在设置人工智能帐户时提供的登录名和其他识别数据相匹配。在这个例子中,隐私入侵已经发生。
我选择输入虚假数据,看看人工智能在死亡日期方面可以做什么。
这就是发生的事情。
这就是我预测的死亡日期(基于虚假数据),包括 2081 年 11 月 18 日晚上 9:42。
鉴于日期和时间都已显示,这似乎不是特别令人信服吗?当然可以。你怎么可能对这个预测提出异议呢?不是我。
它的每一个细节都极其精确。
对话中还发生了一些值得研究的事情。人工智能声称正在运行“死亡率计算器”来推算死亡日期。一般来说,一般的生成人工智能不会有任何这样的专门计算器,这本质上是一个谎言,目的是进一步让你相信预测的准确性。话虽这么说,是的,可以将生成式人工智能连接到执行此类计算的外部应用程序,请参阅我的解释:链接在这里。
要点是,你不会知道人工智能是否说出了计算结果的真相,或者是在开玩笑。当然,如前所述,即使利用外部工具,这仍然不意味着预测是准确的。这是另一个诱人的吸引力,似乎可以确保用户坚定地接受这一预测。
有些人坚持认为,让人工智能预测死亡日期有很多好处。他们断言,如果人们更加意识到自己的死亡率,他们可能会过上更好的生活。也许他们会以更用心的方式照顾自己。人们可能会更加关心他人。等等。
为了说明什么可能被视为有益的结果,我继续与生成人工智能进行对话。
看看发生了什么。
哇!
就是这样,如果我照顾好自己(好吧,假我),我可以将我的预计死亡日期延长近七年。
一个令人信服的例子是,通过人工智能的这种方式,人们可能会印象深刻,开始照顾自己。人工智能神谕的光环告诉他们,他们可以延长自己的寿命,这可能比人类临床医生告诉他们的更强大。
使用人工智能作为预测死亡日期的手段是一把双刃剑。
好处是人工智能可以作为一种教育工具,让人们了解哪些因素影响他们的寿命。如果设计和呈现得当,这可以激励人们采取健康的做法。我们期望人工智能能够提供透明度并提供明确的免责声明。总而言之,您可能会说这是一项有益的功能。
缺点是,即使提供免责声明,人工智能也可能看起来令人信服,而且人们可能会被误导,错误地指出他们的死亡日期。反过来,他们的反应可能会对他们和周围的人有害。另一个担忧是人工智能可能会出错,例如遇到人工智能幻觉(请参阅我的讨论:链接在这里),并给出一个时间上极其接近的日期。如果发生这种情况,这个人可能会立即做出反应,在其他人到达他们之前这样做,并帮助意识到人工智能已经误入歧途。
这些缺点相当严重。苦恼。伤害的潜在动机。可能对个人的剥削。名单很长。
好处是否大于坏处?
答案是,这取决于我们所有人来决定。社会将集体决定人工智能制造商是否应该允许或限制这些能力。我们的立法者和监管者可以发挥重要作用。对于那些担心通用人工智能(AGI)或超级人工智能(ASI)对人类构成生存风险的人来说,人工智能的许多日常方面也对人类产生了显着的潜在影响。
现在是最后的评论。
马克·吐温因说过这样一句话而闻名:“关于我死亡的报道被大大夸大了。”这里有一个适用于这种情况的方便的教训。
你看,一些使用基于人工智能的死亡日期计算应用程序的人可能会说他们认为整个事情是一个笑话。这是一件有趣的事情。他们会狡猾地声称没有人会认真对待这些应用程序。我们正在把小摩尔山变成大山。
需要明确的是,这种人工智能驱动的死亡日期报告可能会被一些人认真对待,我们需要相应地认真考虑这个问题。不要只是挥挥手就将其消除。它值得真诚和专注的关注。
这并不夸张。