面对人工智能监控,我们需要去中心化的机密计算

2024-10-26 14:21:00 英文原文

作者:Yannik Schrade

In the face of AI-powered surveillance, we need decentralized confidential computing 面对人工智能监控,我们需要去中心化的机密计算 11 小时前 一个·3 分钟阅读

随着人工智能监控的扩展,DeCC 提供了一种去中心化的方法,以透明和问责的方式保护敏感信息。

3 分钟阅读

更新:2024 年 10 月 26 日世界标准时间下午 2:21

In the face of AI-powered surveillance, we need decentralized confidential computing

封面艺术/插图来自 CryptoSlate。图像包括组合内容,其中可能包括人工智能生成的内容。

Receive, Manage & Grow Your Crypto Investments With Brighty

以下为客座留言雅尼克·施拉德,Arcium 首席执行官兼联合创始人。

当 Oracle AI 首席技术官 Larry Ellison 分享了他对人工智能驱动的全球监控网络的愿景时,该网络将使公民能够随时了解自己的情况——最佳行为——评论家们很快将其与乔治·奥威尔的《1984》进行了比较,并将他的商业宣传描述为反乌托邦。大规模监控侵犯隐私负面心理影响,并恐吓人们参与抗议活动。一个 

但埃里森的未来愿景中最令人不安的是,人工智能驱动的大规模监控已经成为现实。今年夏季奥运会期间,法国政府承包了四家科技公司– Videtics、Orange Business、ChapsVision 和 Wintics – 在整个巴黎进行视频监控,使用人工智能分析来监控行为并发出安全警报。 

人工智能驱动的大规模监控的日益现实

这项有争议的政策之所以成为可能,是因为立法2023 年通过,允许新开发的人工智能软件分析公众数据。虽然法国是第一个欧盟国家为了使人工智能监控合法化,视频分析并不是什么新鲜事。

英国政府首次安装闭路电视从 2022 年到 2022 年,20 世纪 60 年代的城市179 个 OECD 国家中的 78 个将人工智能用于公共面部识别系统。随着人工智能的进步并实现更准确和更大规模的信息服务,对该技术的需求预计只会增长。

从历史上看,政府利用技术进步来升级大规模监控系统,通常会外包私营公司为他们做肮脏的工作。以巴黎奥运会为例,科技公司有权在大型公共活动中测试他们的人工智能训练模型,获得数百万人参加奥运会和日常生活的位置和行为信息城市生活。 

隐私与公共安全:人工智能监控的道德困境

像我这样的隐私倡导者会认为视频监控会阻碍人们自由、无焦虑地生活。采用这些策略的政策制定者可能会辩称,这些策略是以公共安全的名义使用的;监视还可以对当局进行检查,例如,要求警察佩戴随身摄像头。首先,科技公司是否应该访问公共数据是个问题,而且还有多少敏感信息可以在多方之间安全存储和传输。 

这给我们带来了我们这一代人面临的最大挑战之一:敏感信息的在线存储以及如何在不同各方之间管理这些数据。无论政府或公司通过人工智能监控收集私人数据的意图是什么,无论是为了公共安全还是智慧城市,需要有一个安全的数据分析环境。

去中心化保密计算:AI数据隐私解决方案

去中心化机密计算运动(德克)提供了如何解决这个问题的愿景。许多人工智能培训模型(Apple Intelligence 就是一个例子)都使用可信执行环境 (TEE),该环境依赖于从制造到认证过程中存在单点故障且需要第三方信任的供应链。DeCC 旨在消除这些单点故障,建立一个去中心化且无需信任的数据分析和处理系统。

此外,DeCC 可以在不解密敏感信息的情况下分析数据。理论上,基于 DeCC 网络构建的视频分析工具可以发出安全威胁警报,而不会向使用该工具进行监控的各方暴露已记录的个人敏感信息。 

目前有多种去中心化机密计算技术正在测试中,包括零知识证明(ZKP)、全同态加密(FHE)和多方计算(MPC)。所有这些方法本质上都在尝试做同样的事情——验证基本信息而不泄露任何一方的敏感信息。

MPC 已成为 DeCC 的领跑者,以最大的计算能力和效率实现透明结算和选择性披露。MPC 支持构建多方执行环境 (MXE)。虚拟的加密执行容器,其中任何计算机程序都可以以完全加密和保密的方式执行。

在这种情况下,这既可以对高度敏感和隔离的加密数据进行训练,也可以使用加密数据和加密模型进行推理。因此,在实践中,可以执行面部识别,同时对处理该信息的各方隐藏这些数据。

从这些数据收集的分析结果可以在不同的相关方(例如安全机构)之间共享。即使在基于监视的环境中,至少可以在执行的监视中引入透明度和问责制,同时保持大多数数据的机密性和保护。

虽然去中心化机密计算技术仍处于发展阶段,但它的出现揭示了与可信系统相关的风险,并提供了一种加密数据的替代方法。目前,机器学习正在融入几乎所有领域,从城市规划到医疗、娱乐等。

对于每个用例,训练模型都依赖于用户数据,而 DeCC 将成为确保个人隐私和数据保护的基础。为了避免反乌托邦的未来,我们需要分散人工智能。

ð¥ 顶级计算加密资产

查看全部
#姓名价格24小时%7D%30天%市值24小时成交量亚泰% ATH
Internet Computer

ICP 互联网电脑

$7.68495 -0.47% -3.82% -21.61%$3.64B4840 万美元$342.229-98%
Render

使成为 使成为

$4.77589 +1.48% -10.43% -28.43%$2.47B1.7412 亿美元$13.6297-65%
Arweave

增强现实 阿韦夫

$16.2137 +2.97% -13.41% -30.86%$1.06B4361 万美元$97.3175-83%
MultiversX

EGLD 多元X

$23.6775 +0.73% -11.17% -21.19%6.5096 亿美元$1337 万美元$541.042-96%
Mina

米娜 米娜

$0.51428 +1.03% -10.29% -6.62%6.0387 亿美元$1583 万美元$6.45649-92%
Akash Network

AKT 阿卡什网络

$2.25353 -1.36% -9.2% -24.9%5.5952 亿美元$662万$10.3499-78%
AIOZ Network

爱奥兹 艾奥兹网络

$0.41225 +1.28% -17.86% -23.71%4.6659 亿美元310 万美元$1.17828-65%
Golem

广义线性模型 魔像

$0.30324 +0.21% -13.16% -15.52%3.0324 亿美元592 万美元$1.25353-76%
aelf

极低频 埃尔夫

0.35000 美元 +0.76% -9.52% -14.13%$256.84百万336 万美元$2.76568-87%
Ravencoin

RVN 渡鸦币

$0.01725 -0.56% -2.19% -9.49%$248.88百万$1059 万美元$0.28489-94%

关于《面对人工智能监控,我们需要去中心化的机密计算》的评论


暂无评论

发表评论

摘要

随着人工智能监控的扩展,去中心化机密计算 (DeCC) 提供了一种去中心化的方法,以透明和问责的方式保护敏感信息。批评者认为大规模监视侵犯了隐私并产生负面的心理影响。法国最近在巴黎奥运会期间将人工智能驱动的公共安全监控合法化,引发了人们对数据管理和存储的道德担忧。DeCC 致力于通过使用零知识证明 (ZKP)、完全同态加密 (FHE) 和多方计算 (MPC) 等技术建立去信任系统,消除数据分析中的单点故障。尤其是 MPC,可以在不暴露敏感信息的情况下实现安全数据分析,为管理人工智能监控同时保护隐私提供了潜在的解决方案。