英语轻松读发新版了,欢迎下载、更新

各州会领导AI法规吗?|TechCrunch

2025-01-25 21:37:14 英文原文

作者:Anthony Ha

去年是立法者的忙碌时期和游说者关注AI最著名的是加利福尼亚州的加文·纽瑟姆(Gavin Newsom)签名18新的AI法律同时也是否决备受瞩目的AI立法

而2025年可能会看到同样多的活动,尤其是在州一级的活动。马克·韦瑟福。用他的话来说,韦瑟福德在州和联邦一级看到了“政策和立法的制定”。他曾担任加利福尼亚州和科罗拉多州的首席信息安全官,以及总统巴拉克·奥巴马(Barack Obama)领导下的网络安全秘书副主席。

韦瑟福德说,近年来,他拥有不同的工作冠军,但他的角色通常归结为弄清楚我们如何提高围绕安全性和隐私的对话水平,以便我们可以帮助影响政策的制定方式。

去年秋天,他加入了合成数据公司Gretel作为政策与标准副总裁。因此,我很高兴与他谈论他认为接下来是AI法规的情况,以及为什么他认为各州可能会引导道路。

这次采访已被编辑,以进行长度和清晰度。

提高对话水平的目标可能会引起科技行业中的许多人的共鸣,他们可能看过国会关于社交媒体或相关话题的听证会,并抓住了他们的头脑,看到了一些当选官员的了解和不知道的事知道。您对立法者可以获得所需的背景来做出明智的法规决定有多乐观?

好吧,我非常有信心他们可以到达那里。我对到达那里的时间表不太自信。您知道,AI每天都在变化。让我震惊的是,我们一个月前谈论的问题已经演变成其他事情。因此,我相信政府会到达那里,但他们需要人们来指导他们,员工,教育他们。 

本周早些时候,美国众议院大约在一年前开始了一个工作队,一个人工智能工作队和他们发布了报告好吧,他们花了一年的时间才能做到这一点。这是一份长达230页的报告;我现在正在涉足它。[Weatherford和我在12月首次讲话。]

[关于]政策和立法的香肠制定,您有两个不同的党派组织,他们试图聚集在一起,创造出使每个人都开心的东西,这意味着一切都被淹没了一点。这只需要很长时间,现在,随着我们进入新的政府,一切都将在某些事情上得到多少关注。

听起来您的观点是,我们可能会在2025年对州一级的监管行动比联邦一级更多。那对吗?

我绝对相信。我的意思是,在加利福尼亚州,我认为在过去几个月内州长[Gavin] Newsom签署了12条与AI有关的立法。[再次,TechCrunch的计数是S 18

实际上,昨天我在萨克拉曼多举行了一场谈话在过去的12个月中,已经引入了州一级的不同立法。因此,那里发生了很多事情。

我认为,这是一般技术和网络安全方面的最大关注点之一,但是我们现在在人工智能方面看到了它,这是一个协调的要求。统一的是[拜登]白宫[国土安全部]和哈里·科克(Harry Coker)一直使用[参考]:我们如何协调围绕这些不同事物的所有这些规则和法规t每个人都在做自己的事情,这使公司发疯。因为那时他们必须弄清楚,他们如何遵守不同州的所有不同法律法规?

我确实认为,在州方面会有更多的活动,希望我们可以对这些活动进行协调一点,因此,公司必须遵守的这套非常多样化的规定。

我没有听说过这个词,但这将是我的下一个问题:我想大多数人都同意协调是一个好目标,但是是否有发生的机制?各州实际上必须确保他们的法律法规彼此一致的动力是什么?

老实说,除了我可以看到在不同状态中弹出的同样的语言之外,没有很多动机来协调法规 - 对我来说,这表明他们都在看彼此之间的看法。做 

但是,从纯粹的,就像让所有州中的战略计划方法中一样,这不会发生。我对此没有任何巨大的希望。

您是否认为其他州可能会遵循加利福尼亚的一般方法?

很多人不喜欢听到这一点,但是加利福尼亚确实推动了(技术立法)的信封,以帮助人们出现,因为他们做了所有繁重的举重。他们做了很多工作来完成一些立法的研究。

总督Newsom刚刚通过的12条法案遍布整个地图,从色情到使用数据来培训网站再到各种不同的事物。他们非常全面地向前倾斜。

尽管我的理解是,他们通过了更有针对性,具体的措施,然后是引起大多数关注的更大法规,但总督Newsom最终否决了它。 

我可以看到它的两面。最初是推动该法案的隐私部分,但是您必须考虑做这些事情的成本,以及它对人工智能公司征收创新的要求。因此,那里有平衡。

我完全期望[2025年]加利福尼亚将比[2024年]所做的事情要严格一些。

您的感觉是,在联邦一级,当然有兴趣,就像您提到的众议院报告一样,但这不一定是优先事项,或者我们将看到主要的立法[在2025年]?

好吧,我不知道。这取决于[新国会带来的重点。我认为我们会看到。我的意思是,您阅读了我阅读的内容,而我读到的是,将会强调较少的监管。但是,在许多方面,当然是关于隐私和网络安全的技术,这是一个两党的问题,对每个人都有好处。

我不是监管的忠实拥护者,有很多重复和许多浪费的资源,这些资源发生了很多不同的立法。但是,与此同时,当社会的安全和保障受到AI的威胁时,绝对是一个更加监管的地方。

您提到这是两党问题。我的感觉是,当有分裂时,并不总是可以预见的 - 这仅仅是共和党的投票,而不是所有民主投票。

这是一个很好的观点。地理很重要,无论我们是否喜欢承认这一点,这就是为什么像加利福尼亚这样的地方与其他一些州相比,像加利福尼亚这样的地方真正倾向于他们的某些立法。

显然,这是Gretel起作用的领域,但似乎您认为或公司认为,随着法规的更多监管,它将行业推向了更多合成数据的方向。

或许。我在这里的原因之一是,我认为合成数据是AI的未来。没有数据,就没有AI,并且数据质量越来越成为一个问题,因为数据池被用完或收缩。越来越需要对高质量的合成数据的需求,以确保隐私并消除偏见并照顾所有这些类型的非技术性,软问题。我们认为合成数据是答案。实际上,我100%相信它。 

我很想听到更多有关使您到达这个角度的原因的信息。我认为还有其他人认识到您在谈论的问题,但会考虑合成数据可能会扩大原始数据中的任何偏见或问题,而不是解决问题。

当然,这就是对话的技术部分。我们的客户觉得我们已经解决了这一问题,并且有一个数据生成飞轮的概念 - 如果您生成不良数据,它会变得越来越糟,更糟,但是在此飞轮中构建控件验证了数据是数据越来越糟糕的是,每次飞轮都会持续下去或越来越好。这就是Gretel解决的问题。

硅谷的许多特朗普一致的人物已经警告AI审查制度公司围绕生成AI创建的内容的各种权重和护栏。您认为这可能受到监管吗?应该吗?

关于对AI审查制度的担忧,政府有许多行政杠杆,当对社会有风险时,几乎可以肯定他们会采取行动。

但是,在合理的内容审核和限制性审查制度之间找到一个甜蜜的位置将是一个挑战。即将上任的政府已经很清楚,“更少的法规”将是作案手法,因此无论是通过正式立法或行政命令,还是[国家标准和技术研究所]指南和框架或框架或框架或较少的正式手段。通过机构间协调的共同陈述,我们应该期望一些指导。

我想回到这个问题,即AI法规的外观如何。人们如何谈论AI,就像它要么要拯救世界,要么要摧毁世界,这是最令人惊奇的技术,或者它被夸大了。关于该技术潜力及其风险有很多不同的看法。单个部分甚至多个AI法规如何涵盖这一点?

我认为我们必须非常谨慎地管理AI的蔓延。我们已经看到了深果和一些真正负面的方面,这是令人担忧的是,现在高中时的小孩甚至年轻的孩子正在产生使他们遇到法律困扰的深层效果。因此,我认为有一个立法的地方可以控制人们如何使用人工智能违反现有法律的人工智能 - 我们制定了一项新法律来加强现行法律,而只是将AI组件纳入它 

我认为我们 - 我们当中那些在技术领域中的人都必须记住,当我与家人和一些朋友交谈时,我们只是考虑第二天性的许多东西这不在技术上,他们实际上不知道我在大多数时候在谈论什么。我们不希望人们感到大政府过分监管,但是重要的是要在非技术学家可以理解的语言中谈论这些事情。

但是,另一方面,您可能可以从与我交谈中说出这一点,我对AI的未来感到头晕。我看到了很多好处。我确实认为,随着人们对此,我们将有几年的颠簸,并且更了解它,而立法将在那里占有一席之地,以使人们都能理解AI对他们的意义并在AI周围放一些护栏。


TechCrunch有一个以AI为重点的新闻通讯!在这里注册每个星期三将其放入收件箱中。


关于《各州会领导AI法规吗?|TechCrunch》的评论


暂无评论

发表评论

摘要

对话强调了调节人工智能(AI)的多方面性质,这是一种同时敬畏的技术,因为它的潜在利益和对风险的关注。基于讨论,以下是关于良好的AI法规可能是什么样子的一些关键点:1。**平衡隐私与安全**: - **综合数据**:由于数据集由于隐私问题而缩小或变得不那么可行,因此合成数据可以通过生成高质量,隐私保护数据来提供解决方案,从而避免在现实世界数据集中放大偏见。 - **偏置缓解**:有效的调节应确保AI系统的设计具有识别和减轻偏见的机制。2。**解决滥用**: - **内容审查与审查制度**:在不扼杀该技术的有益用途的情况下,需要仔细平衡AI(例如Deepfakes)产生的有害内容。 - **现有的法律和执法**:立法可以加强现有法律,重点是AI实现的滥用或非法活动,而不是造成过度广泛的限制。3。**公众理解**: - **语言清晰度**:应以非技术利益相关者可以访问的方式起草法规,以确保透明度和公众信任。 - **教育计划**:政策制定者需要与更广泛的公众互动,以解释以易于理解的方式解释AI的好处和风险。4。**鼓励创新**: - **指导和框架**:与NIST(国家标准技术研究所)所提出的框架相比,不如说是严格的法规,可以为道德发展和部署提供指南。 - **行业合作**:鼓励政府机构与行业领导人之间的合作制定最佳实践和标准。5。**管理蔓延**: - **特定用例**:立法最初可能专注于最明显的风险的特定用例,例如深击或AI生成的错误信息,而不是毯子方法。 - **跨学科方法**:监管工作应涉及包括伦理学家,法律专家和技术人员在内的各种利益相关者,以确保全面监督。6。**未来防止法规**: - **自适应框架**:随着AI迅速发展,法规必须具有足够的灵活性,以适应新的挑战和机遇而不会过时。 - **连续审查**:建立定期审查和更新与AI相关法律的机制,以跟上技术进步的步伐。总之,良好的AI法规应旨在保护隐私和安全,同时促进创新。它需要解决特定风险,例如滥用技术,但也向公众教育其收益和缺点。决策者必须与技术人员和利益相关者进行持续的对话,以开发自适应框架,以确保对AI负责和道德使用。