作者:Spencer Reed
我们发现自己正处于机器学习技术持续发展的不确定时期。人工智能及其应用在极短的时间内取得了长足的进步。目前来看,新兴人工智能市场对个人隐私的保护太少,科技公司只能为了商业隐私的利益而进行自我监管。
为了扭转局面,美国联邦政府和爱达荷州等州政府应重点保护公民隐私,并减少他们历来青睐的人工智能加速主义做法。
美国对人工智能的监管环境一直不够完善。与大多数技术监管措施一致,人工智能相对未受影响,反映出创新优先于用户隐私。因此,人工智能领域的最新发展也伴随着隐私问题。
例如,LinkedIn 最近因在未经明确许可的情况下访问其用户数据来训练人工智能模型而受到批评。LinkedIn 设置中有一个按钮允许用户选择退出,但执行此操作所需的步骤并不明显。通过要求用户选择加入来训练其模型并不符合 LinkedIn 的最佳利益,而且没有任何关于如何训练模型的规定,他们不必担心对自己以外的任何人负责。
在缺乏监管的情况下,大型科技公司成为新兴人工智能市场是非的唯一仲裁者。为了人工智能的持续加速发展,牺牲了个人隐私。
另一方面,科技公司正在利用企业隐私作为抵御潜在监管的盾牌。最近成立的国家人工智能咨询委员会的成员肯定会进一步推动这一进程。其中一些成员仍然担任人工智能领域主要科技公司的高管。这些成员包括 Equal AI 总裁兼首席执行官 Miriam Vogel;James Manyika,谷歌高级副总裁;亚马逊网络服务公司数据和机器学习服务副总裁 Swami Sivasubramanian 等等。
这并不是说专利和知识产权对促进创新没有重要作用,但我们必须愿意为了个人隐私和安全而牺牲一些企业保护。各国政府应确保人工智能培训和开发具有一定程度的透明度,以便我们能够预防新技术带来的任何重大安全或隐私问题。
联邦政府和爱达荷州等各州政府最好注意欧洲的监管模式。 这
一般数据保护条例是保护欧洲个人隐私的欧盟法律。该法规涵盖欧盟国家内发生的所有数据相关活动。
该规定的三个方面尤其需要强调。首先,组织需要获得个人的明确同意才能处理他们的数据,这解决了 LinkedIn 的问题。其次,组织必须在如何使用所收集的数据方面保持透明度。最后,处理个人数据的组织必须通过持续监督来确保合规性。
这是欧盟用来保护其公民免受掠夺性数据收集行为侵害的综合方法。随着我们不可避免地更加依赖人工智能的发展,此类法规将变得越来越重要。
获取早间头条新闻。
我们的故事可以在知识共享许可 CC BY-NC-ND 4.0 下在线重新发布或印刷。我们要求您仅针对样式或缩短内容进行编辑,提供正确的归属并链接到我们的网站。美联社和盖蒂图片不得重新发布。请查看我们的重新发布指南使用任何其他照片和图形。