生成的AI越来越受欢迎,但是在我们的日常生活中继续接受这项技术可能会有一个重大障碍。我们仍然不信任它。或者,根据德勤的说法,我们不信任其背后的公司连接的消费者调查美国消费者的3500名。
虽然接受调查的人中有一半以上(53%)表示,他们要么在尝试或定期使用生成AI,但更多(69%)表示,他们担心创新的发生太快了,而且科技公司并没有给予足够的关注风险。
Deloitte副主席兼美国技术部门领导者Steve Fineberg告诉CNET:“消费者正在使用更多的人工智能,他们正在为此付出更多的代价,尽管如此,他们也越来越关注AI代的潜在滥用和危险。”
该调查显示,关于生成AI迅速上升的两个看似违反直觉的趋势。一方面,越来越多的人会更频繁地使用生成性AI每天的更多方式,但是越来越多的人 - 即使是那些经常使用的人 - 仍然有严重的担忧。人工智能正在变成平凡,出现在我们的手机中,我们的搜索引擎和我们的电视同时,它变得越来越强大。
另一方面,生成的AI加剧了 心理健康问题和成瘾,侵犯我们的隐私和弄错了事实一直以来。在大多数情况下,我们知道这些问题和危险。
不要错过我们公正的技术内容和基于实验室的评论。 添加CNET作为首选的Google来源。
人们正在为AI付费,并实际使用这些应用程序
仅仅因为人工智能到处并不意味着它总是自由的。尽管大多数AI开发人员都提供免费版本的服务,但仍有限制,包括降低功能或对您可以使用的功能的限制。德勤(Deloitte)调查的人中,大约有4个说他们支付生成AI产品。在那些不付款的人中,一半说这是因为免费工具足够好。一个
然后是一个使用问题,有65%的人通过独立移动应用程序使用AI - 想想OpenAI的ChatGpt应用程序或Google的Gemini应用程序 - 以及通过AI网站参与的份额(60%)。
在在线服务,社交媒体和消息传递应用程序或其他软件中使用AI引用的被调查者中的较小比例。然而,这些类别的总和代表了69%的受访者,这意味着大多数人即使不寻求AI也遇到了AI。
观看以下内容:Openai关于我们如何使用AI的研究,潜在的Tiktok销售,Spotify最终将提供无损音频|今天的技术
人们想要他们可以信任的技术
生成的AI结果可能是不准确的。尽管使用量增加了,但有一半以上的调查说,它们主要是通过检查可信赖的来源或他们自己的知识来验证他们从聊天机器人那里获得的信息。
最大的问题似乎是数据隐私。自上一年的调查以来,担心隐私和安全性的人的份额从60%增加到70%,几乎一半的受访者说他们至少发生了一个事件,例如黑客攻击,帐户泄露或被盗的身份,在过去的一年中。
这不仅仅是恶意的局外人。人们担心科技公司不会尊重其隐私和安全。德勤问消费者如何共享八种不同类型的个人数据,以换取更好的数字技术体验。在这些情况下,没有一个人“非常愿意分享”信息,而不是“根本不愿意”。
具体而言,大多数人根本不愿意共享生物识别,通信或财务数据。消费者似乎最愿意共享健身数据,这是有意义的健身追踪可穿戴设备,但即使那样,比非常愿意的人(22%),更多的人愿意分享信息(30%)。
Fineberg说:“我认为要做很多工作,以便能够在该地区移动针头。”
阅读更多: AI Essentials:29种方法,您可以使Gen Gen为您工作,我们的专家说
除了AI的可能危害之外,许多用户对技术的进步功能并没有留下深刻的印象。超过四分之三的人说,科技公司的专注于击败竞争对手,而不是解决真正的问题,而三分之二则表示,大多数新功能无法解决问题。”
德勤发现,消费者更愿意与信任的公司一起花钱。人们想要创新的科技公司和产品,但他们希望更多地保护其隐私和安全。
“这是一件长期的事情,”菲尔伯格说。“建立信任需要花费数年的时间,但您也可能会在几秒钟内失去信任。”