作者:Drew Robb
eWEEK 内容和产品推荐在编辑上是独立的。当您点击我们合作伙伴的链接时,我们可能会赚钱。了解更多。
德勤咨询最近进行了一项关于人工智能是否可信的研究,询问哪些新兴技术最有可能带来严重的道德风险。《技术道德与信任状况》报告发现,人工智能等认知技术得分最高,为 54%,远高于排名第二的数字现实(16%),40% 的受访者将数据隐私视为最关心的问题。生成式人工智能(GenAI)。
然而,46% 的受访者表示,认知技术也为社会公益提供了最大的潜力,突显了该技术自出现以来引发意见两极分化的能力。结果显示,自 2023 年以来,对人工智能的怀疑和道德担忧下降了 3%,而对人工智能最终证明是一股善良力量的希望则上升了 7%。
显然,随着业务和 IT 人员对 AI 和 GenAI 的熟悉程度不断提高,他们的舒适度也随之提高。但调查显示,目前尚无定论。GenAI 的加速采用似乎超出了组织管理技术以及维护道德和隐私标准的能力。
关于人工智能的任何讨论都离不开信任,数十年来小说家和编剧不断炮制出有关人工智能失控的故事。虽然德勤的研究表明道德问题依然存在,但也表明这种担忧可能正在开始扭转。推动公众认知朝着正确方向发展的一种方法是帮助建立信任。
“受访者对因滥用技术和不遵守道德标准而导致组织声誉受损表示担忧,”报告称。–人工智能是一个强大的工具,但它需要护栏。 –
添加的企业治理和合规护栏人工智能的使用有助于获得员工和客户的认可,并增强对技术的信任。
另一项研究对 GenAI 输出的准确性表示严重怀疑。虽然在人类认为具有挑战性的任务上准确性会下降,但令人惊讶的发现是 GenAI 在被视为非常简单的任务上缺乏 100% 的准确性。
研究合著者、西班牙巴伦西亚理工大学研究员 Lexin Zhou 表示,“放大模型往往会更频繁地给出明显合理但错误的答案”,包括在困难问题上的错误。人类主管经常忽视的问题。”
德勤建议任命首席道德官来监督人工智能,作为更大努力的一部分遵循技术的道德最佳实践。这些人将创建安全、准确使用人工智能的流程,同时加强合规性、推动对标准的遵守,并倡导道德使用的责任。例如,道德原则可以嵌入到软件代码、应用程序和工作流程中。
“在技术开发生命周期的早期和反复嵌入道德原则可以帮助展示对组织的更全面的信任承诺,并将道德置于员工优先事项和流程的首位,”首席技术官 Bill Briggs 说道在德勤咨询。
应制定适当的流程和防护措施,以确保 GenAI 用户可以信任输出的可靠性,并且不会无意中参与盗窃、剽窃或滥用知识产权 (IP) 的行为。此外,流程应该到位,这样人类就不会盲目地认为人工智能的结论和响应是 100% 正确的。
“GenAI 采用规模的不断扩大可能会增加新兴技术的道德风险,而未能管理这些风险的潜在危害可能包括声誉、组织、财务和人员损害。”德勤咨询高级经理 Lori Lewis说。