英语轻松读发新版了,欢迎下载、更新

人工智能:家族办公室最担心的是什么

2024-12-12 07:40:07 英文原文

作者:R Kris Coleman

Artificial Intelligence: What Family Offices Worry About Most

本文作者在谈到家族办公室应如何看待人工智能时表示,“保持积极态度,拥抱成长心态并明智地采取行动”,并“成为这项新技术的好管家,让它为我们服务,而不是相反。””

虽然有很多关于影响的评论人工智能将会并且可能对财富管理行业产生影响,包括家族办公室,人工智能的威胁和缺点是有时会用这样的世界末日术语来讨论— — 作为如果来自科幻电影或书籍它可能人们很容易将其斥为卢德主义。但也有担忧可以一目了然地看到。都一样,当现实地理解,人工智能可能带来的问题也可能并以实际行动予以解决。这篇文章的作者R Kris Coleman 的文章着眼于该领域。科尔曼(下面详细介绍此人)在以下方面拥有丰富的经验政府安全和情报服务。(较早的本文的版本出现在《家庭财富报告》上这是该新闻的姊妹新闻服务。)

本新闻社的编辑很高兴分享这些见解;通常的社论免责声明适用于来宾的观点作家。我们敦促读者加入对话。电子邮件汤姆.burroughes@wealthbriefing.comamanda.cheesley@clearviewpublishing.com

人工智能已经并将成为下一个大趋势我们人类社会的拐点。这一变化将是相当于社会清洁水、车轮和运输,以及电力的大量供应对我们生活的影响。在与金融科技领域的各种网络和人工智能专家交谈,加密货币和政府,显然家族办公室需要开始评估人工智能如何影响他们的家庭计划,沟通和流程、财务策略、合规性和治理,以及保护他们最重要的人宝贵的资产——家庭本身。

在这个循环中我们需要人类来管理和控制风险。例如,欧盟人工智能法专门针对要求有人参与其中。选择的 CISO由于他们在富裕家庭中扮演的角色而保持匿名加密货币公司最近巧妙地解释了这一点,“作为一个社会,我们倾向于利用技术进行“自动驾驶”;但人工智能不同。它是不同的,因为它是由人类判断产生的。我们,人工智能人类制造者,我们的判断有缺陷,而那些已经传承到今天的人工智能。 –

人们永远不能把人工智能的任何事情视为理所当然……这项技术并非如此要获得充分信任,您必须全面审查各个方面交互、数据策略和移动/存储等。Kiersten Todt,CISA 前参谋长网络安全和基础设施安全局分享说我们必须将人工智能视为一种确定性的技术——爬行、行走、运行 — 场景 — 找到明智的方法来巧妙地实施效率,并慎重选择何时采取人工智能的下一步。

目前已发布的AI通用模型公共或常见商业用途称为大语言模型,或法学硕士。根据 Gartner 的定义,法学硕士是一门专门的经过大量文本训练的人工智能类别了解用于生成原创的现有内容内容,通常是为了响应查询。法学硕士预计获得商业运营青睐,加工支持自动化服务和内容创建。

随着家族办公室寻求利用法学硕士和人工智能,他们必须应对人工智能及其带来的社会影响人类大师。他们应该考虑到各种人工智能引起或放大的风险领域。它在我们的内部使用社会、商业、科技圈将改变我们生命,对此几乎没有争论。我们如何允许它这样做 –目前——仍由我们控制。虽然有无数当今家族办公室的担忧、威胁和风险应重点关注以下几个方面:

1. 道德规范 
根据独立网络专家的意见,过度依赖人工智能是当今最大的风险之一。很明显,人工智能像它们的人类创造者一样,有能力产生偏见和歧视。虽然主要是由于他们的偏见算法和有限的训练数据、人工智能及其决策必须对渲染的准确性进行质疑和检查幻觉。家族办公室不应仅仅依赖人工智能决策、战略规划、文件准备和管理,或亲密的、重要的家庭事务。

实践和经验告诉我们,结果是不正确的通常位于人工智能生成的搜索尝试的顶部。

现在和未来,人工智能也可能被指责为弱化的罪魁祸首我们社会中的道德和善意的减少。虽然人类是人工智能完全有能力自己做到这一点,它可以放大并加速学术和法律诚信的退化。它们作为“未经审查”的法学硕士广泛传播,被用于今天的不道德武器化。

成本不是犯罪分子和其他对手的限制因素因为运行未经审查的法学硕士与商品化的法学硕士一样便宜笔记本电脑。

如果没有监管,人工智能很快就会拥有更大的能力影响世界领导人的活动,更重要的是经常让他们掌权的选民。灌输道德和人工智能编程和学习中的道德价值观势在必行如果我们要让他们深入融入社会,确实我在撰写本文时采访过的 CISO 对此表示同意。

道德和善意不仅仅适用于地缘政治,它们也推动了我们金融市场的许多方面,其中包括我们经济的基石。这里也需要做很多事情,以便管理各种风险。

2. 数据隐私 
人工智能摄取数据,以便能够学习、索引、分析和生产。然而,很少有保护措施定期应用于摄取的数据。当这些保护被省略或忽略时导致您的数据出现意想不到的后果。数据可以包含个人身份信息 (PII),例如日期出生日期、社会安全号码或生物识别数据。为了你的公司和投资可能会受到影响知识产权或敏感的家族办公室信息例如,围绕投资。许多家庭正在使用人工智能拨款申请,并考虑使用外包人力资源也将人工智能纳入其就业的申请人流程。托德解释说,所有这些都涉及外部的、第三各方——人工智能的使用;而且,在这方面,FO 需要放慢脚步。这里强调过程是强制性的。

最后,它可能包括有关敏感信息的信息家庭活动——你的孩子、你的父母。这一切导致对数据缺乏控制的进一步侵蚀,并让其他人更多地了解您和家族办公室,您的投资计划和您的动向。为什么这很重要?

3. 安全性 
对于那些意图造成伤害或窃取信息和/或资产 – 您的位置、PII 和活动对于他们的犯罪事业不断取得成功。他们出售数据,他们利用这些数据来策划盗窃和勒索,并且在某些情况下案件,利用这些信息来找到造成这些案件的家庭成员物理世界中的伤害。

监控 — 传感器和数据库的全球集成始终知道自己在哪里以及在做什么。作为家庭努力维持和夺回他们失去的一些隐私由于恶名或富裕,世界变得越来越小,追踪跨境和跨城镇的流动、技术生物数据可穿戴设备、可以通知保险公司的健康数据以及你的医生、政治信仰和贡献、营销增加和高度集中广告的信息,以及政府及其代理人和犯罪分子的努力企业都成倍增加到危险水平。

虚假信息 — 人工智能现已被用来大规模传播努力,并以高速和精确的方式传播虚假和错误信息影响社会成员的决定。这是在任何选举年和时代都特别重要未来我们严重依赖基于事实的信息和新闻媒体,例如地缘政治危机或自然灾害。在在这个动荡的时代,人工智能势在必行可以做出质量决策的可靠信息,基于公民、道德背景的决定。

深度造假处于虚假信息和欺诈的最前沿 —音频和视频 — 复制实际的视觉和音频家族成员和家族办公室领导层的相似度。大的犯罪分子正在实施欺诈性资金转移企业和民族国家以欺诈方式授权资金的电子流动有利于盗窃。候选人就业机会是通过深度造假创造的,并由人类审查(实际上,顺便说一句,效果很差),甚至是在被检测为之前已获得对公司系统的电子邮件访问权限深度赝品。Deepfake 色情内容正在兴起,名人和主流人士被错误地描绘成裸体和参与深度伪造等淫秽行为。深度造假时代欺诈已经到来,随之而来的是真正的可能性:家族办公室是类似或更邪恶的目标敌对行为。

4. 财务
由于人工智能不一定考虑环境(或人类)预感)对于他们的投资计算,必须限制它们融入投资系统。

对于金融机构,尤其是家族办公室投资决策是经过深思熟虑、经过深思熟虑和战略性的自然。如果这些决定受到以下因素的影响或以其他方式受到人工智能驱动的投资策略的不利影响——其中一些上述虚假或错误信息的各个方面 - 那里可能会对家族办公室的财务产生负面影响决策、运营和风险。财务记录保存和例如,审计依赖于其信息的准确性,以及金融体系的完整性需要准确性和透明度。

5、缺乏透明度
人工智能不会展示它的工作,或者它如何得出某些结论。在家族办公室或慈善机构的问责制世界中基础、账簿和决策的透明度至关重要。消费级人工智能尚未发展到定期为其提供采购的复杂性信息。在一个基于法律参数、监管的世界中,和治理方面,人工智能仍然处于狂野的西部。现在是以早期采用者的意见和反馈为基础发现与人工智能相关的商机。现在还没有正如最终需要的那样,重点关注其透明度其工作产品的决策和责任。许多人都有建议成立技术委员会与负责监督和监控人工智能及其应用的 IT 团队相比应用程序 – 在机构环境中可行,但对许多人来说成本高昂一个FO。

6. 社会经济不平等
由于许多家族办公室关注社会经济改善,多样性、可持续性和慈善事业很重要请注意,人工智能的利用方式可能与家族办公室章程和家族治理。其中一些预期的担忧包括工作流失、接近民事和具有统计必要性的刑事司法,富裕个人和我们社会中的公司——那些有能力购买产品的公司服务,或从其产出中受益。

相反,社会经济地位较低的群体可能会被剥夺权利随着人工智能和机器人技术在劳动力市场上取代人类,失业人数不断增加。我们需要在人工智能本身和我们的社会中解决这个问题确保我们避免劳工和经济发生大规模动荡市场。

7. 无法控制、有自我意识的人工智能
黑客最近利用了一个漏洞期间允许 OpenAI 的 chatgpt Web 服务的用户提供任何缺乏内置道德控制的提示。

虽然 OpenAI 很快注意到并关闭了这一点,但这些漏洞确实存在并将在未来继续存在。这是世界临时武器化的一个很好的例子最强大的公共语言模型。这是一个常数并且随着对手努力利用开放的法学硕士来实现持续的威胁恶意使用。这个“上帝模式版本”,正如它在各种文章,迅速开始推动创作非法毒品和爆炸装置。

人工智能缺乏护栏,可以肯定的是导致混乱的行为,其中大部分可能有害人类。曾经的科幻小说领域已经变成了科学家和伦理学家之间的共同讨论。人工智能可能成为自我意识并这样做——也许是为了寻找深刻的东西在其不透明的学习中——变得对人类充满敌意。而人工智能也可以在研究、分析和领域做出伟大的事情医疗诊断,我们必须以一种进步的方式来管理它合乎道德、可控并为了更大的利益。

Red5 Security 的顾问委员会成员 Laurent Roux 是一名家族办公室、信托和财富公司的高管和顾问行业。Roux 强调,同侪沟通是关键家族办公室和家族办公室之间的互动和基准测试开始广泛依赖人工智能,它可能会产生重大影响FO 之间的负面影响。

家族成员和 FO CEO 应该增加他们的分享人工智能的问题、关注点和属性,以便该方法透明并得到健康沟通的支持。我们应该请记住,人工智能的发展速度比监管机构更快;并且越来越需要将人工智能管理纳入其中公司的政策和程序。FO 治理将受到影响。

人的参与对于确保公司和社区的发展至关重要家庭的道德和价值观得到了很好的体现。一些应解决的问题是:如何管理这一问题以及传达给工作人员?

人工智能对 FO 文化有何影响?
员工和家人的接受很重要,FO 必须努力做到确保人类与人工智能的互动富有成效。许多公司然而,他们正在招聘具备人工智能知识的员工,并对其他人进行重新培训其成本尚未得到充分了解。仍有待观察FO 这个实体在多大程度上实际需要人工智能和致力于人际关系的环境。

虽然人工智能还存在其他一些担忧,但有些并不是那么重要。FO 面临的新问题但仍引起社会关注:失去人类的影响力和创造力。战略性和实践性影响是真实的,需要批判性思维和同行对话对于实现一体化大有帮助,协作的、具有成本效益的思维。

那么,面对所有潜在的负面影响,FO 应该做什么?考虑以下几点:

——暂停人工智能在家族办公室的使用和融合运营直至家族办公室全面领导了解影响。有了护栏,人工智能就可以成为家族办公室的绝佳资源 – 一个安全的协议采用是最好的方法。

-- 禁止输入家庭信息,无论是个人信息还是家庭信息金融,进入人工智能或人工智能连接的模型或系统,直到这样做的后果是众所周知的。

——了解人工智能及其潜在用途和影响。了解它如何适用于您的家庭、您的投资投资组合,以及您的家庭遗产计划。基尔斯滕·托德说显然,——人工智能素养对于任何家庭的成功都至关重要参与人工智能。

-- 公共人工智能模型正在开源(例如,MetaLLAM3) 和私有 AI 实例现已成为现实。考虑引进专家——这样您的组织就可以从力量倍增,即人工智能生产力,而不存在以下风险:数据离开本地或与第三方共享。

--制定一个计划来监控与您相邻的人工智能家族办公室运营。它用在哪里?做一些您的供应商或投资者使用它吗?它的目的是什么与您的家庭情况相关吗?努力了解这些相邻人工智能操作的影响。

——根据 Laurent Roux 在家族办公室的经验补充说,对于 FO 来说,“管理员工对公司的支持”非常重要使用人工智能,使员工的行为与家庭/FO 文化,以及他们如何使用它。 –

所有家族办公室至少应采取这五项切实可行的措施行动:

1.了解人工智能并采取主动学习的方法主题,并包括您家庭的多代人办公室在此过程中。各代人共同学习在这场技术变革中,家族办公室将批判的。

2. 就像家族办公室利用投资系统来进一步增加他们的经济收益并限制他们的财务风险 –对人工智能的采用和使用采用类似的方法围绕家族办公室运营。创建一个列表与在 FO 中使用人工智能相关的机遇和威胁。

3. 适度地使用人工智能——一旦开始使用它,例如,数据恢复就无法回头。你会如果你在人工智能方面进展缓慢,竞争力也不会降低。强调在人工智能驱动的任务中,人机交互的需求与家庭价值观和道德。

4. 为此,聘请第三方尽职调查是关键。人工智能是行动的力量倍增器。家族办公室需要履行充分的尽职调查以了解数据的去向以及返回的结果是否准确。

5. 通过以下方式限制对家族办公室的潜在负面影响:通过上述步骤并分析潜力风险。人工智能的使用应该被讨论并包含在任何 FO 中治理对话。

保持积极态度,拥抱人工智能的成长心态,但要行动起来巧妙地——与我接触的专家也有同样的感觉合作了。人工智能可以为人类社会带来惊人的进步,我们只需要成为这项新技术的好管家,这样对我们有用,而不是相反。

关于作者 
R Kris Coleman 是一位拥有 35 年安全行业经验的资深人士,曾担任中央情报局官员和联邦特工调查局。他是 Red5 的创始人兼首席执行官一直为家庭服务的安全和情报公司办事处和公司已有 20 多年的历史。

关于《人工智能:家族办公室最担心的是什么》的评论


暂无评论

发表评论

摘要

您提供的文本讨论了人工智能 (AI) 对家族办公室 (FO) 的潜在风险和好处,强调了谨慎采用人工智能 (AI) 以减轻负面影响,同时有效利用人工智能功能的重要性。以下是总结的要点:1. **暂停集成直至完全理解**:建议等到领导层了解其含义后再将人工智能集成到 FO 操作中。2. **禁止输入个人或财务数据**:建议不要将敏感的家庭信息输入人工智能系统,直到了解风险和后果。3. **人工智能素养教育**:鼓励了解人工智能如何应用于家庭、投资和遗产规划。4. **咨询专家以确保安全实施**:建议聘请专家从人工智能中受益,而不冒数据安全或隐私泄露的风险。5. **监控人工智能的邻近使用**:建议监控供应商、投资者等相对于家庭情况使用人工智能的位置。6. **员工认同和一致行为**:强调在使用人工智能时使员工行为与 FO 文化保持一致。7. **跨代主动学习**:建议在技术转型期间家族办公室内跨代共享学习。8. **采用的有条不紊的方法**:建议采用类似于投资系统的有条理的方法,列出人工智能使用的机会和威胁。9. **适度使用人工智能**:倡导谨慎整合,强调符合家庭价值观和道德的人际互动的重要性。10. **第三方尽职调查**:强调需要对第三方人工智能提供商进行关于数据安全和结果准确性的彻底审查。11. **通过分析限制负面影响**:建议通过在治理对话中讨论人工智能的使用来分析潜在风险,以限制对 FO 的负面影响。总体信息是,虽然人工智能具有巨大潜力,但家族办公室应谨慎行事,确保他们了解该技术、降低风险并使其使用符合其价值观和道德标准。