OC

Knowledge OS
鹦鹉螺口语
Airbnb 的 9,000 美元损坏索赔看起来很完美,直到一位客人发现了一个不可能的人工智能细节
2026-02-18 12:00:00 · 英文原文

Airbnb 的 9,000 美元损坏索赔看起来很完美,直到一位客人发现了一个不可能的人工智能细节

作者:Evelyn Hart

事情始于一个裂纹在一个木质咖啡桌那拒绝保持静止。在提交给 Airbnb 争议解决中心的一张照片中,裂缝沿着纹理延伸得很深。在同一张桌子的第二张图像中,裂缝发生了移动,改变了形状和方向。

对于处理索赔的自动化系统和支持代理来说,这些图像最初被接受为充分的证据向客人索要数千美元。然而,对于数字取证的眼睛来说,它们代表了更令人不安的事情:裂缝很可能是由生成人工智能“产生幻觉”的。

涉及曼哈顿的事件超级房东此后,一位伦敦学者成为武器化方面的开创性案例研究合成媒体。它表明,用于创作艺术或编辑度假照片的工具可以轻松地用于制造从未发生过的事件的证据。

“幻觉”咖啡桌

此案的细节遵循了欺诈调查人员熟悉的模式。一名客人提前退房,因为她觉得该地区不安全。不久之后,房东通过 Airbnb 提出索赔空气罩保护计划,指控损失赔偿金 9,041 美元。报告者卫报表明被毁坏的物品清单非常广泛:一个沾满尿液的床垫、一个坏掉的机器人真空吸尘器,以及现在臭名昭著的破裂桌子。

主持人的失败不是这个主张本身,而是支持它的视觉证据。这位客人是一位学者,在离开时记录了公寓的状况,他注意到桌子的损坏在不同的照片中看起来不一致。

Picture Of The Allegedly ‘cracked Table’ In The New York Apartment
纽约公寓中据称“破裂的桌子”的照片。图片来源:卫报

数字取证专家指出,这是生成性绘画。当用户提示人工智能在物体上添加裂缝时,模型会生成统计上可能的损坏图像。如果用户以不同的角度再次运行提示,人工智能会生成新的裂缝,而不是从不同的角度渲染相同的物理对象。人工智能知道损坏的桌子是什么样子,但它不明白客体永久性

在这个具体案例中,记录显示 Airbnb 最初站在房东一边,要求房客支付近 5,314 英镑。分析自技术点证实,直到消费者事务记者介入并呈现视觉异常后,平台才改变决定,为客人退款,并删除了房东的差评。

算法盲点:当自动信任失败时

对于管理数百万预订的平台来说,争议解决严重依赖自动化。像 AirCover 这样的保险保护旨在无摩擦,通常会快速向房东付款以维持供应方的忠诚度。这种速度会产生一个漏洞综合证据的利用。

核心问题是2025年的标准图像验证系统主要是为了检测元数据操纵,例如更改日期或 GPS 标签,而不是像素级生成。完全由人工智能生成的“坏电视”的照片不包含 Photoshop 图层的证据,因为它从未经过传统意义上的编辑;它被完整地创造出来。

There Were Differences Between Two Photographs Of The Coffee Table
图片来源:卫报

案件发生后的数据表明,平台处理高价值索赔的方式正在发生转变。报告显示,有问题的主机是超级主机,这种状态历史上授予用户真实性推定。高保真人工智能工具的民主化实际上削弱了这种特权。如果超级房东能够在不购买葡萄酒或毁坏地毯的情况下生成令人信服的酒渍地毯照片,那么该平台声誉系统不再充当验证层。

关于缺乏初步审查,该客人表示:“如果对证据进行了基本的审查,那么这应该立即引发危险信号,并使房东的说法不可信,但 Airbnb 不仅未能识别出这种明显的操纵行为,而且他们完全无视我的解释和表明该材料是捏造的明确证据。”

法医反恐精英

行业面临的技术挑战是检测工具目前落后于生成工具。虽然像这样的标准C2PA(内容来源和真实性联盟)尝试嵌入防篡改数字营养标签到文件中,这些协议尚未被日常主人和客人使用的相机或软件普遍采用。

直到加密签名照片成为行业标准,举证责任已积极转向用户。旅游业的法律专家现在建议视频演练,在入住和退房时对财产进行连续的、未删减的记录,是针对合成索赔的唯一可靠的防御措施。与静态图像不同,视频目前需要耗费更多的资源,无法通过人工智能进行令人信服的伪造,尤其是在光照条件不断变化的复杂 3D 空间中移动时。

曼哈顿事件最终以退款和禁令结束,但这标志着非正式信任时代的结束。制造现实的能力不再是国家演员或特效工作室的领域;这是一个客户服务问题。此后,Airbnb 宣布对其调查协议进行内部审查,以应对以下挑战:人工智能生成的欺诈

关于《Airbnb 的 9,000 美元损坏索赔看起来很完美,直到一位客人发现了一个不可能的人工智能细节》的评论

暂无评论

发表评论

摘要

Airbnb 上的一场争议涉及曼哈顿一套公寓的损坏,凸显了生成式人工智能在创建合成证据方面的滥用。最初,一位主人使用经过处理的图像显示破裂的咖啡桌和其他损坏的物品,向一位客人索赔 9,000 多美元。由于不同照片之间的不一致,数字取证专家认为这些图像很可能是由人工智能生成的。Airbnb 最初支持房东的说法,但后来在新闻干预和图像篡改证据出现后改变了决定。该事件暴露了自动争议解决系统中的漏洞,并强调需要针对合成媒体欺诈采取更强大的验证方法,从而可能改变此类平台上的信任动态。

相关讨论