一项法律制定了韩国的AI政策,一个薄弱的联系可能会破坏它

2025-09-28 21:04:46 英文原文

作者:Sejin Kim, Hodan Omaar

内容

关键要点1

介绍 2

该行为的概述5

第1章:一般规定6

第2章:声音AI发展和信任的治理8

第3章:AI发展和行业促进的政策 9

第4章:AI伦理和可信赖13

第5章:补充规定17

第6章:处罚18

结论 18

附录:AI ACT摘要19

尾注23

韩国国民议会通过了《 AI框架法》 {Ibriount `°¶¼¼ ¢° °°° ì°± ± ê �°°ë²((¶Ib))}在2024年12月,这样做使韩国成为第一个将AI政策杠杆置于单一法规中的国家。[1]该法案立即是协调政府指导的战略,促进人工智能(AI)发展和采用的工业政策,以及管理风险的监管框架。

在任何国家,这三种AI政策杠杆战略,晋升和法规都是相互依存的:一个缺陷将不可避免地削弱其他人。但是,通过在一项法律中将它们绑在一起,韩国为整个系统的重量提供了单个工具。如果AI框架法案(以下简称ACT)成功,但这也会增加错误的成本,这会使上升空间更大。

该法案的前两个杠杆广泛正确,为国家战略奠定了基础,并将AI视为战略行业,但在其第三个行业中摇摇欲坠,在第三次中,Blunt的监管要求拖延其余的优势的风险。

它成功地制定了一项连贯的战略,正确地将AI视为需要集中愿景和协调投资的领域。它还通过支持数据,集群和采用来推动工业政策,尽管它对中小型企业(SME)(中小型企业)的偏见有可能扼杀全球竞争力所需的规模。但是在法规中,该行为危险地缩短了:它应用了广泛的定义,可以扫除普通工具,施加诸如标签和计算阈值之类的直率义务,并为公司带来了较重的报告,而不是基于绩效的监督。

该法律定于2026年1月生效,韩国科学和ICT部(MSIT)正在制定一项执行法令,详细介绍该法在实践中应如何适用。9月8日,MSIT发布了一项法令草案(AI�°°ë² 하위법령)预计将在2025年底完成并发行。[2]

鉴于该行为的单仪器设计,韩国不能在不锁定缺陷的情况下也无法锁定什么,除非现在固定了什么。为了实现其保护人权和尊严的目标,推动创新以提高生活质量,并增强民族竞争力,法律将需要在两个层面上进行有针对性的调整。国民议会应完善法规以修复结构性缺陷,例如广泛的定义,严格的研发(R&D)授权以及钝性监管触发器,这些触发因素有可能误导监督和约束创新。同时,MSIT必须确保最终执法法令将法律转化为平衡,实用的规则,以支持韩国的AI生态系统,而不会施加不适当的负担或扭曲竞争。

国民议会应对《 AI框架法》进行以下修正案:

- ª 修改了《 AI框架法》第2条(定义),以缩小AI系统的定义,以便以后在该法中使用该术语仅适用于构成新的治理挑战的系统。更精确的表述将是:人工智能系统(AI系统)是指基于提供商或用户未知的参数,它会渗透如何使用机器学习实现给定的目标,并产生系统生成的输出,例如内容(生成AI系统),例如,预测,建议,建议和决策,以及与现实的环境相互互动,并影响到现实或虚拟环境。

- ª 修改第7条第9条AI框架法案,涵盖国家AI战略委员会及其职能。保留委员会通过AI总体计划制定国家AI战略并在政府AI计划中分配资源的权力,但要删除其决定监管变更的权力。相反,监管设计和执法应保留在具有必要专业知识的部门部门。这将使战略统一的好处处于最高状态,同时确保医疗AI,财务AI和自动驾驶汽车的规则是由机构制定的,这些机构最能控制其特定风险。

- ª 修改第13条(支持AI技术开发和安全使用),以删除规定的研发优先级,而是使MSIT能够设计和更新灵活的国家AI R&D路线图。这一变化将使韩国的投资追踪全球突破,而不是被锁定在过时的任务中。

- ª 修改第17条(AI支持政策的中小企业优先级),以删除中小企业接受优先考虑的法定要求。法律应采用大小的语言,使政府能够根据其优势支持各种规模的公司允许初创企业和中小型企业专注于实验和扩散,同时为大型公司提供驱动资本密集型研发,规模和全球市场范围所需的支持。

- ª 修改第31条(确保AI透明度的义务)以消除强制性披露要求。水印和AI标签在技术上是脆弱的,并且在各个司法管辖区都不一致,并给出了错误的安全感,因为它们没有解决政策制定者所关心的特定危害,例如虚假信息,知识产权违规和深层诉讼。取而代之的是,法律应指导MSIT和其他部委促进自愿出处标准,例如内容出处和真实性联盟(C2PA),投资数字和人工智能素养计划,并针对特定危害(例如知识产权(IP)暴力,竞选,竞选,竞选透明度和在线骚扰和在线骚扰)采用针对性的规则。[3]

- ª 修改第32条(确保AI安全的义务),该条款现在触发了在计算阈值以上训练的系统的监督,以删除计算作为标准。计算使用不是可靠的风险预测指标。该法律应修改第12条,以授权AI安全研究所(AISI)对AI系统进行部署后评估。AISI应在高影响部门,监视失败和事件中测试已部署的模型,并发布调查结果,以便监督基于现实世界的绩效,而不是任意培训输入。

- ª 修改条款3335对高影响力AI施加了广泛的自我评估,文档和风险报告,以用基于绩效的要求代替这些繁重的过程。该法律应指示每个部门部门为其领域中的AI系统设定可衡量的结果,而韩国标准与科学研究所(KRISS)则应针对设计评估协议,以测试AI系统是否符合这些结果。这将使监督从挑剔的文书工作转变为有意义的性能标准。

- ª 修改第36条(国内代理商的指定),以消除收入和用户门槛,以触发对外国公司的严格监督。只有在将系统指定为高影响力时,才应触发监督,无论提供商是国内还是外国人。这将确保平等的治疗,消除实际风险而不是公司规模或位置的任意阈值和地面监管。

MSIT应根据《 AI框架法》使用其最终执法法令,以提供实施方面的清晰度和平衡。尤其:

- ª 对于第14条(AI技术的标准化),澄清标准应以行业为主导,政府仅担任召集人和协调员。政府应专注于将公司团结起来,支持参与国际论坛,并使机构保持一致,同时将技术标准发展留给行业财团。这将使韩国的方法与全球实践保持一致,并确保其公司在盟军市场中保持竞争力。

- ª 对于第18条(对AI初创企业的支持)和19条(AI收敛策略),澄清实施应该是中性的。通过培训,商业化帮助和采用计划,应继续支持初创企业和中小型企业,但是较大的公司还必须获得资源以扩大在关键行业中的AI使用并增强韩国的全球竞争力。资金计划,培训计划和采用激励措施不应自动偏爱中小型企业,而应增强整个AI生态系统。

- ª 对于第40条(要求数据和行为检查的授权),请制定明确的准则,介绍可能要求哪些数据,来自谁以及出于什么目的。请求应仅限于严格必要的信息,以验证遵守该法案例如风险管理措施或用户保护惯例的记录并且绝不能扩展到无关的业务数据。该法令还应要求有强大的保障措施来保护公司专有信息,并保留责任制而不创造不必要的合规成本。

- ª 对于第42条(处罚),根据违规的严重性和影响,制裁规模制裁。对于全身性或反复的违规,应增加罚款,但对于未成年或首次违规的罚款。法令中的明确指导将确保责任制,同时避免过度严厉的惩罚,以阻止该法案的参与或合作。

- ª 对于第43条(行政罚款),在施加处罚之前建立宽限期。在这个过渡阶段,没有新义务的公司应收到警告或纠正指导,而不是立即罚款。这将使国内和外国运营商有时间建立有效的合规系统,同时仍一旦政权完全实现,仍确保强大的执法。

《 AI框架法》在六个章节中展开。(有关文章章节摘要,请参见附录。)这些章节如下:

1。 一般规定(총칙,列出了诸如AI系统的目的,范围和关键定义,高影响AI,'和生成性AI。

2。 声音AI发展和信任的治理 ((Itribêeticousout ê±´ìí `°¶¼¼ ¢° °°° 조성을 위한 ¶§`§`²´ê招,这为国家AI战略建立了机械。它集中在总统委员会,一个经常出现的总体计划和支持机构(例如AI政策中心和AISI)上。

3。 AI技术发展和行业促进的政策(Ib)  °° °° °°… „!±,将重点关注研发,数据基础设施以及标准的创新政策与促进中小企业和初创企业,寄养集群和数据中心的工业发展措施以及支持公司的国际扩张相结合。

4。
人工智能道德和可信赖 ((¶Ib) °° “¢°± i,设定了监管方法。它结合了诸如伦理原则和志愿伦理委员会之类的软律措施,以及对生成和高影响力AI的透明度,安全性,监督和影响评估的牢固义务。

5。 补充规定(,这制定了资金和操作ACT计划的规则。

6。 处罚(,这对未能承担的关键合规义务(例如披露AI使用,指定国内代表或遵守纠正命令)设定了罚款和行政罚款。

本报告遵循了行为自己的结构:第1章研究了塑造其范围的基本定义;第2、3和第4章实现了制定国家人工智能战略,推进工业政策并分别制定监管方法来管理风险的三个核心目标;第5章和第6章介绍了运营框架和罚款。遵循遵循的部分依次评估每一章,强调了它们的正确程度,缺乏的位置以及政策制定者应修复哪些以使框架更有效。

该法的第1章从第1条到第5条运行,确定了为整个法案奠定了法律基础的基本原则和定义。下表1是该法第2条的关键定义的摘要。

表1:韩国AI框架法的关键定义摘要

学期

行为的定义

援引文章

人工智能 (Ibriount

人类智力能力的电子实施,例如学习,推理,感知,判断和语言理解。

这是整个法案中使用的基本术语,以指代所推广的核心技术。

AI系统(Ib)

一个基于AI的系统,该系统具有各种自主权和适应性级别的预测,建议和决策等输出。

主要在第32条(大规模AI系统的安全措施)中引用,并在High-Impact AI上为第33条35条提供了基础。

AI技术(Ib) 

AI实施所需的硬件,软件或应用技术。

第6条(政府对研发的支持)

第13条(AI技术和数据基础架构)

高影响AI(ê了 Ibriount

一种AI系统,有可能影响人类的生活,安全或基本权利。

第33条(高影响力AI的识别)

第34条(高影响AI操作员的责任)

第35条(AI影响评估)

生成的AI( Ibriount

通过模仿输入数据的结构和特征来生成新文本,声音,图像或其他输出的AI系统。

第31条(生成AI的透明义务)

人工智能行业(Ibrioutic…

使用AI或AI技术开发,生产,生产或分销产品或服务的行业。

第6条(政府对AI行业促进的支持)

AI业务运营商(ì管理

与AI行业有关的业务的法人,组织,个人或政府机构。转化为两个子类别:AI开发操作员和AI使用操作员。

第31条36(这是所有硬法规定的主要监管主题。)

用户(码©

接收AI产品或服务的人。

第32条(安全措施)

第34条(解释权)

第35条(影响评估。

受影响的人(영향받는 ì

AI产品或服务的生命,身体安全或基本权利的人。

第34条(针对受影响人员的保护和解释)

第35条(基本权利的影响评估)

AI社会(Ib)

通过AI在所有领域(行业,经济,社会,文化,行政等)中创造价值并推动进步的社会。

一个 

AI伦理(¶Ib)

基于对人类尊严的尊重,社会所有成员在AI的所有领域(发展,提供,利用等)都均可遵循道德标准,以实现一个安全可靠的AI社会,以保护人民的权利,生活和财产。

第27条30(这是所有软体法规的主要主题。)

分析:AI系统的定义太广泛

该法案一次实现三个不同目标的一个挑战是,它必须以非常不同的感官来调用AI,将AI称为广泛的技术,有时将AI称为AI作为一个行业,有时也称为人们实际使用的特定系统。这意味着法律必须在任何情况下都是精确的。在监管部分中,应该清楚地表明,所管理的是实践中的AI系统和工具,而不是广泛的技术本身。相比之下,在战略和工业政策部分中,更广泛地谈论支持AI作为研究和技术发展领域。

为了精确,适当地定义AI,并使法规对真正产生新型风险的系统有效,法律必须提取足够狭窄的界限,以避免在普通软件中扫描,这足以为开发人员和用户提供确定性,并且足够稳定,以使其与技术相关。它应该仅捕获那些提出新的治理挑战的技术特性,而不是诸如做出预测或建议之类的通用功能。[4]

韩国的定义是基于AI的系统,它渗透了诸如预测,建议和决策等各种自主权和适应能力的决定之类的,这在这三项方面都没有。首先,它太广泛了:许多传统软件程序会产生预测或建议,但它们并没有引入为监管辩护的新颖风险。其次,这是模糊的:诸如基于AI的自主权,“和适应性”之类的术语缺乏明确的技术意义,使范围敞开了解释和不断扩展。第三,它是不稳定的:通过将法规与通用功能联系起来,它有可能在昨天的工具(例如,电子表格中的统计模型)和明天的创新中扫描,迫使无限的修正案,而不是提供持久的技术中性基础。

推荐

- ª 国民议会应修改《 AI框架法》第2条(定义),以缩小AI系统的定义,以便以后在该法中使用该术语仅适用于构成新的治理挑战的系统。一个更精确的配方将是人工智能系统(AI系统)是指一个系统,该系统基于提供商或用户未知的参数,它会渗透如何使用机器学习实现给定的目标,并生成系统生成的输出,例如内容(生成AI系统),例如预测,建议,建议和决策,与真实的环境相互互动,以影响实际或虚拟环境。

该法第2章从第6条到第12条,建立了国家AI战略,并建立了机构机制以赋予它武力。

第6条要求MSIT建立和实施全面的AI总体计划,该计划每三年作为所有政府部门的AI政策的国家级战略路线图。[5]该计划通过概述了人才发展,AI道德,投资优先事项以及对AI带来的社会变革的国家水平反应,从而为国家的指导奠定了基础。

为了赋予计划政治权重和权威,第7条第9条成立了总统的国家AI委员会,有权考虑批准总体规划以及研发策略,投资以及确定和改善AI法规等关键事项的决定。该法律为其他政府机构做出明确的任务,以便委员会的决定采取行动。根据第8条,当委员会发出建议或对要更改的法律或制度的意见发表意见时,相关的国家机构(例如,事工)必须制定计划以实施改进。2025年9月,政府发布了一项正式扩大和重命名国家AI委员会的总统法令(êµê°¶Ib))作为国家AI战略委员会(®人工智能`)。[6]它被提升到AI上的最高跨部队决策器官,并带有新的秘书处。在2025年9月的首届会议上,该战略委员会采用了四个议程项目:韩国AI行动计划作为政府的总体总体规划(委员会主导),这是建立国家AI计算中心(MSIT-LED)的路线图,在AI Framework Act下的执法法令草案(MSIT-LED)草案(委员会)和委员会的委员会(委员会)和委员会(委员会),并在委员会中列出了规则(细致的经营规则)。

第10条允许委员会建立小组委员会,特别委员会和专家咨询小组。这种机制为解决专业问题提供了灵活性。截至2025年9月,有八个小组委员会(ë¶ê³¼图)在以下领域:技术创新和基础设施;数据;全球合作;社会;科学和才华;国防与安全;工业应用和生态系统;和公共部门的应用。[7]每个小组委员会将在审查和对齐2026年的10万亿韩元的AI预算中发挥作用,比2025年的3.3万亿韩元增长了三倍以上。[8]

第11条授权指定一个AI政策中心,其任务是为基本计划和相关政策提供技术支持,分析AI的社会,经济和文化影响,预测未来的趋势和法律需求,以及根据法律或国家机构分配的项目。其指定和操作的详细信息由总统法令设定。

最后,第12条在MSIT下建立了AISI。该研究所被控分析风险,制定安全评估标准和技术,并在国际安全上进行国际合作,以确保公民保护和信任仍然是韩国AI生态系统的支柱。

分析:保留总体规划,丢失主监管机构

韩国模式正确地识别了像AI这样变革性的技术,统一的民族愿景至关重要。该行为明智地集中了有效AI策略的两个关键组成部分:愿景和资源分配。通过建立一个主席委员会,并有权建立一个雄心勃勃的愿景,政府可以确保从研发到公共部门申请的所有AI努力都符合加强创新,增强竞争力并改善AI个人生活的共同目标。这种集中的方法还使政府可以有效地将资本和人才引导到其认为对这些目标最重要的领域,从而阻止资源分散在不协调的项目中。这种集中级是一个战略优势。

但是,该法通过委员会的巩固监管机构而进行得太遥远。通过给出这个单一的非部门特定机构来决定对政府部门的监管变化的力量,第8条有效地创建了事实上的主管。但是,一个尸体甚至由专家小组委员会支持的一个机构都无法与个人各部委的深厚专业知识相匹配。卫生部了解医疗AI的独特风险;金融服务委员会掌握了算法交易的复杂性;运输部最适合解决自动驾驶汽车。当一个具有广泛但肤浅的专业知识的中央监管机构决定了此类不同部门的规则时,结果几乎不可避免地会过于僵化,以至于无法进行安全的创新,而危险地无法实现高风险,安全关键的临界应用。

推荐

- ª 国民议会应修改第7条9保留国家人工智能战略委员会通过AI总体规划制定国家AI战略并在政府AI计划中分配资源的权力,但要删除其决定法规变更的权力。监管设计和执法应保留在具有必要专业知识的部门部。这将使战略统一的好处处于最高状态,同时确保医疗AI,财务AI和自动驾驶汽车的规则是由机构制定的,这些机构最能控制其特定风险。

该法案的第3章构成了两个部分,侧重于AI行业的投入和产出。第一部分解决了工业的基础构建基础,而第二部分则针对其商业化和活力。

支持韩国人工智能行业的创新政策

本章的第一部分,AI行业基金会建筑(Ibrioutic… °°° ì°±)涵盖第13条第15条的最佳特征是创新政策。它着重于强大的AI部门出现所需的基本投入和基础设施。

第13条授权政府资助其认为将有助于AI行业发展的项目,包括跟踪国际技术趋势和支持合作和商业化的举措,以及一系列针对安全功能,隐私保护,社会影响评估以及其他权利和尊严保障措施的研发项目。该法令提出了针对这些项目的标准,例如要求它们与国家AI政策保持一致,有助于构建和使用培训数据,支持行业的增长和就业,从而产生经济利益,并且在实用和技术上是可行的。

第14条授权政府通过创建,修改和传播标准本身,并支持私营部门提高标准化的努力来促进AI技术标准的发展。它还要求政府加强与国际标准设定机构的合作。

第15条要求MSIT负责扩大AI培训数据的生产,收集和使用的政策。它授权政府为建立和提供数据集的项目提供资金,并特别要求MSIT操作一个集中的平台,该平台称为集成的供应系统,该系统在一个地方管理这些数据集。该法律说,应为私营部门免费使用该系统,但它还授权政府在某些情况下收取费用,并在以后由总统令以后确定的详细信息。该法令将详细信息添加到第15条中,并提出该平台应允许用户在一个地方搜索数据集,清楚地组织和跟踪它们,并与其他系统联系,并包括质量的检查。该法令还提出了收取费用的法律依据,允许MSIT根据数据的类型和使用来收取不同的费率,同时要求公共,非营利和教育用户豁免,并通过部长条例制定了完整的规定。

分析:韩国的规范创新政策可能会扼杀AI

韩国是正确的,认识到政府应该在AI的创新政策中发挥积极作用。建立强大的AI领域研发,数据基础设施,标准和技能所需的投入是经典的案例,因为市场投资市场投资不足,因为收益的溢出远远超出了任何一家公司。私人演员独自留下,不会建立允许行业蓬勃发展的共同基础。如果韩国希望在AI中保持竞争力,那么重要的是确定优先事项,资助早期研究以及确保可以使用诸如数据集之类的共同资源的强大公众。这些规定的目的似乎正确地建立在Lee s'Ai Highway倡议基础上,该计划已经涵盖了基础设施,通过添加其他核心投入来维持韩国作为AI领导人的崛起所需的其他核心投入。[9]

但是该行为执行此角色需要调整的方式,因为它有可能扼杀其试图加油的创新。根据《国家研发创新法》,MSIT已经负责国家研发的法律和管理框架(�°°°°°°°)2020年,但是研发本身的指导策略现在由第13条的《新AI基本法案》决定。[10]通过锁定与道德和安全有关的特定研发优先级,法律有效地预定了政府支持的研究应重点关注的。这种方法有可能对韩国创新生态系统最紧迫或最有前途的领域进行转向投资,并使韩国与全球AI发展的发展脱离。

标准出现了类似的问题。第14条正确地强调了标准化的重要性,并认识到私营部门努力的作用,同时也旨在增加参与国际标准的环境。这些是重要的步骤,可以帮助韩国公司在全球范围内保持竞争力。但是文本也令人困惑地表明,政府本身应该建立标准。技术标准的实际发展最好留给行业,通过公认的标准机构,政府扮演着支持的角色召集,保持一致,并确保韩国公司活跃和影响力。如果政府从支持直接制定标准,它会冒着制定落后于行业实践且未能在国际上获得吸引力的规则的规则的风险。[11]

建议

- ª 国民议会应修改《 AI框架法》第13条(支持AI技术开发和安全使用),以删除规定的研发优先级,而是使MSIT能够设计和更新灵活的国家AI R&D Roadmap。这一变化将使韩国的投资追踪全球突破,而不是被锁定在过时的任务中。

- ª MSIT应确保第14条的执法法令(AI技术的标准化)明确指出,标准必须保持行业领导,政府担任召集人和协调员。该部应专注于将公司团结在一起,支持参与国际论坛,并使机构保持一致,同时将技术标准发展留给行业财团保持韩国的态度与全球实践及其在盟军市场中有竞争力的公司一致。

支持韩国人工智能行业的工业政策

第二部分是AI技术开发和AI行业的活力(Ib)  °° °° Ibrioutic… ±涵盖第16条第26条的)被更好地描述为工业政策。它超越了基础投入,以专注于支持AI的行业的积极商业化和增长。

第16条授权州和地方政府支持企业和公共机构对AI技术的引入和使用。这可以采取帮助开发和传播AI产品和服务,提供咨询和培训的形式(尤其是针对中小型企业,风险投资公司和小型企业),并提供经济援助以支付采用成本。执法法令提出了具体的支持措施。

第17条和第18条优先考虑韩国AI生态系统的较小玩家。第17条要求政府在执行与AI相关的支持政策时优先考虑中小企业,而第18条授权项目支持初创创始人,提供培训,协助商业化和融资,以及培养机构,以支持AI企业家。

第19条指示政府制定鼓励不同部门的政策,以采用并将AI技术整合到其运营中。它还授权政府优先考虑与该国民党在国家研发框架内的AI融合有关的研发项目,这意味着当它决定哪些研究项目资助时,它可以专门选择涉及将AI技术与特定行业相结合的研究。

第20条要求政府改善现有系统以及法律和监管框架,以支持韩国AI行业的发展,并授权支持研究和公众咨询以指导这些改革。

第21条对MSIT承担责任,以培养国内AI专业人士并授权吸引海外人才的政策。其中包括监视全球AI专业知识,建立国际网络,为韩国的外国专家就业提供支持,并促进与外国机构和国际组织的合作。

第22条要求政府追踪全球AI趋势并促进合作。它授权对寻求通过信息共享,联合研发,国际标准,外国投资吸引力,海外营销和与道德相关的合作进行国外扩展的公司的支持。公共或私人机构可能要执行此支持,并提供政府补贴。

第21和22条介绍人才和国际化。第21条与培养国内AI专业人员并吸引海外专家的任务MSIT,而第22条要求政府追踪全球AI趋势并促进国际合作。这包括支持通过联合研发进入海外市场的支持,参与标准设置,投资吸引力和营销援助。

第23至25条专注于促进工业聚类,共享测试床和计算能力。第23条授权国家和地方政府指定AI集群将公司和机构汇集在一起​​,并提供财务,行政和技术支持。第24条授权他们建立示范基础,公司可以在其中测试,认证和验证新技术。第25条指示政府宣传AI数据中心,支持其建立和使用,尤其是中小企业和研究机构,并鼓励平衡的区域发展。该执行法令提出了指定AI集群,选择运行机构的机构的规则,并定义向公司打开测试床的条件。

最后,第26条创建了韩国人工智能促进协会,该协会是一家非营利性公司,促进AI开发,进行调查和统计,运营联合用途设施,支持国际扩张,并开展教育和意识运动,并提供政府补贴的工作。该法令提出了建立协会及其公司章程标准的要求。

分析:工业政策措施应是中立的

韩国的方法变得很正确,因为它将AI视为需要积极的工业政策的战略行业,而不仅仅是一般支持。通过鼓励AI在整个经济中的融合,投资人才,建造集群,测试台和数据中心,该法案将竞争力纳入了多个政策领域。这是面临全球竞争的国家需要的一种广泛的,横切的策略,它不认为单独的市场将交付,而是故意加强了基于长期工业优势的参与者,基础设施和生态系统。[12]

但是,本节中的几篇文章过于特殊的中小企业和初创企业。尽管对于韩国来说,确保中小企业和初创企业在AI经济中有机会是有意义的,因为作为经济合作与发展组织(OECD)在2023年对韩国创新政策的评论中所指出的,中小企业是创造就业机会的关键引擎,并是整个经济中数字技术扩散的关键渠道。[13]但是,该法案通过在工业政策措施中给予优先处理的优先待遇而进行得太遥远。

良好的创新和工业战略应该是尺寸中立的,支持他们坚强的小公司(灵活,实验),但也使大型企业能够做到最好的事情(资本密集型研发,规模,全球范围)。通过将中小型企业锁定在优先考虑的考虑方面,韩国有可能将资源丢弃,而这些资源实际上实际上具有大部分AI投资和全球竞争力。初创企业可以开发新的创新,但是如果没有较大公司的规模和出口能力,他们的创新可能永远不会进入全球市场。换句话说,特权中小型企业可能看起来很支持,但它可能会扼杀韩国建立全球竞争性AI冠军的长期能力。[14]

建议

- ª 国民议会应修改《 AI框架法》第17条(AI支持政策中的中小企业优先事项),以删除SME接受优先考虑的法定要求。”法律应采用大小不利的语言,使政府能够根据其优势支持各种规模的公司,从而使初创企业和中小型企业专注于实验和扩散,同时为大型公司提供了驱动资本密集型研发,扩展和全球市场所需的支持。

- ª MSIT应以平衡小型和大型公司之间的支持方式实施第18条(对AI初创企业的支持)和19条(AI融合政策)。这意味着继续为初创企业和中小型企业提供培训,商业化帮助以及早期采用计划,并确保较大的企业获得资源以扩大在关键行业中的AI使用并领导韩国的国际竞争力。MSIT应该设计资金计划,培训计划和采用激励措施,以免自动偏爱中小型企业,而是增强整个AI生态系统。

Chapter 4 (articles 27–36) of the Act is the cornerstone for managing the risks associated with AI.It does this in a dual approach: by setting out soft-law, ethics-oriented measures (articles 27–30) and imposing hard-law, regulatory obligations (articles 31–36).

Soft-Law, AI Safety-Oriented Measures

The Act takes an ethics-first approach, guiding AI development through a combination of nonbinding principles and voluntary compliance.Article 27 empowers MSIT to establish and publicly announce a set of broad ethical principles covering safety, reliability, and accessibility.While not legally binding, these principles would establish a foundational framework for the entire AI ecosystem.To promote adherence to this framework, article 28 authorizes companies, universities, and research institutes to form voluntary Private Autonomous AI Ethics Committees, which can verify compliance, investigate human rights concerns, and provide internal ethics education.Additionally, article 29 provides the legal basis for MSIT to establish an AISI, which is tasked with conducting research and development to protect citizens from potential risks posed by AI.Finally, article 30 supports voluntary verification and certification systems by directing the minister to provide relevant information, administrative assistance, and even financial aid to help SMEs meet these standards.

Hard-Law, Regulatory Obligations for AI

The Act’s hard-law regulations are found from article 31 to 36 and establish a set of legally binding obligations for AI business operators:

â–ªArticle 31 requires AI business operators to (1) notify users when a product or service is operated by AI, (2) indicate when outputs are generated by generative AI, and (3) clearly disclose when synthetic content such as sound, images, or video has been AI-generated so users can recognize it as such.The Enforcement Decree proposes specifying that operators have to meet these obligations using flexible notice.[15]

â–ªArticle 32 requires AI business operators that develop or provide an AI system trained above a computation threshold (set by Presidential Decree) to establish a life cycle risk management plan, document it, and submit the results to MSIT.The Enforcement Decree proposes that this computation threshold be 1026floating-point operations (FLOPs).

â–ªArticle 33 requires AI business operators to conduct a self-assessment to determine whether their system qualifies as high impact.The draft Enforcement Decree establishes a formal process for operators to request confirmation from MSIT, with a 30-day response deadline (extendable in complex cases) and the possibility of appeal through a re-confirmation request.However, the law and Decree do not specify whether such reviews must occur regularly (e.g., annually), after significant system updates, or only upon initial deployment, leaving the frequency and triggers for review largely undefined.

â–ªArticle 34 requires AI business operators of high-impact AI systems to ensure safety and reliability by establishing a risk management plan, providing user protection and explanations of results where feasible, putting in place human oversight, and maintaining thorough documentation of these measures.The Enforcement Decree proposes that operators publicly post the core elements of their risk management and user-protection measures (excluding trade secrets) and retain documentation for five years.

â–ªArticle 35 requires AI business operators of high-impact AI systems to conduct impact assessments to evaluate potential effects on fundamental human rights.The Enforcement Decree proposes these cover groups affected, rights at risk, impacts, and mitigation plans, and allows assessments to be done in-house or by a third party.

â–ªArticle 36 requires that foreign companies that provide AI services to South Korean users and meet certain criteria (e.g., user or revenue thresholds) designate a domestic representative to handle compliance with the Act.The Enforcement Decree proposes that the criteria for firms be that they fit one of the following conditions: annual revenue over 1 trillion won, revenue from AI service alone of over 10 billion won, an average of more than one million daily domestic users during the most recent three-month period, or they have been ordered to take corrective action following a serious safety incident.[16]

Analysis: A Light-Touch Vision for AI Governance Undone by Heavy-Handed Rules

It seems clear that the intention of South Korean policymakers is to lead with voluntary, ethics-based measures and industry self-regulation.However, the regulatory obligations that follow in articles 31 through 36 undercut that approach.Instead of reinforcing the Act’s emphasis on flexibility and innovation, these provisions lean on blunt, one-size-fits-all mandates—mandatory labeling, compute thresholds, and process-heavy reporting—that misdiagnose the risks of AI and misdirect oversight.The result is the Act’s most promising elements are let down by regulatory tools that look tough on paper but will prove ineffective in practice.

First, as the Center for Data Innovation explained in its report “Why AI-Generated Content Labeling Mandates Fall Short,” mandatory AI labeling such as that required by article 31 falls short for several reasons.[17]Watermarks and other marks are technically fragile and easily stripped, meaning bad actors can still spread unmarked content.Because South Korea’s law applies extraterritorially, foreign providers offering AI services in South Korea must comply, but the moment South Korean users step outside that jurisdictional bubble, they will encounter unlabeled content on foreign-hosted platforms.Instead of reducing confusion, the law risks creating a patchwork of “AI-labeled here, not labeled there” that misleads users into thinking labels are a reliable indicator of trustworthiness.Most importantly, labeling does not address the underlying concerns that motivate it—disinformation, IP theft, or harmful deepfakes—which demand targeted, problem-specific solutions rather than one-size-fits-all disclosure rules.

The Enforcement Decree proposes adding flexibility to the disclosure requirements, such as by allowing nonvisible watermarking and multiple notice methods, but regulators should avoid leaning too heavily on labeling as a core compliance tool.Instead, policymakers should pivot toward building trust in digital content more broadly.That means adopting voluntary provenance standards for all content by promoting tools that embed cryptographically secure metadata so users can verify the source and history of both AI- and human-generated content.It also means investing in digital, AI, and media literacy to equip users to judge the trustworthiness of content themselves, rather than relying on labels that can be misleading or incomplete.Finally, regulators should create targeted rules for specific harms, including address disinformation, IP violations, and deepfakes, directly with problem-specific solutions (e.g., campaign disclosure rules, IP enforcement, antiharassment laws) rather than broad labeling requirements.

Second, using a compute threshold to determine which AI systems should be subject to heightened scrutiny, as article 32 does, is deeply problematic.Compute only measures the amount of resources spent to train a model, not the downstream impact of how that model is deployed.As researchers at Stanford University have explained, compute does not translate into reliable predictions of real-world capabilities, emergent behaviors, or risks.[18]Compute thresholds are also clumsy in practice.不同类型的人工智能使用大量的计算:捕获大型语言模型的水平可能会错过强大的视觉模型,而较低的级别将在许多无害的系统中扫荡。而且重要的是,可以以显着增加影响的方式更改模型,而没有太多的额外计算,例如在微调过程中进行微调或通过人为反馈进行培训。Finally, as chips get faster and algorithms more efficient, today’s compute thresholds quickly become outdated.简而言之,计算看起来像是一个简单的快捷方式,但是用作调节AI的主要测试太钝和不可靠。

Instead of relying on blunt compute thresholds, South Korea should adopt a system of post-deployment evaluations.[19]这些是部署AI系统后进行的评估,重点是它在现实世界中的实际表现,而不是使用多少计算来训练它。他们可以揭示前部署测试错过的风险和失败,因为AI行为通常会根据使用的上下文而变化。例如,在实验室中看起来很安全的模型在医疗保健,金融或教育中应用时的性能可能非常不同。

韩国已经根据该法第12条建立了AISI,它是领导这项工作的合适机构。It should test deployed models in high-impact areas, collect and track incidents or failures as they arise, and publish clear findings on how models are functioning in practice.[20]除了技术准确性外,这些评估还应研究用户是否可以理解输出,是否会产生意外风险,甚至是其能源成本。That way, policymakers and the public can see how AI is really working on the ground, and South Korea’s oversight can stay flexible and targeted—something static compute thresholds will never achieve.

第三,假设详尽的报告,风险文档和评估将转化为有意义的问责制,第33、34和35条依靠过程的透明度。But paperwork alone doesn’t ensure progress.这看起来是全面的,但实际上,它有可能成为一项挑衅的练习。程序规则衡量是否遵循正确的步骤,而不是系统在现实世界中是否实际执行公平,安全或可靠地执行。对于AI,风险从上下文和使用中出现,文书工作无法代替性能。危险是公司将生成报告和合规性文件而不改善结果,监管机构可能缺乏测试基础系统的资源或专业知识。

South Korea should regulate performance, not process, meaning policymakers should set performance-based requirements instead of mandating procedural checklists.[21]监管机构应专注于AI系统是否符合一旦部署后的可衡量的安全性,公平性和可靠性标准。基于绩效的法规确保公司实现实际成果,而不是简单地按照合规措施检查框。

最后,第36条通过挑出外国公司而朝错误的方向发展。如果某些使用AI对用户或社会构成风险,那么无论谁提供服务,这些风险都会触发监督。只有外国公司更严格的规则会给国内公司带来漏洞,破坏公平性并削弱保护措施。风险应该是触发因素,而不是公司所在的位置。

建议

第4章中的监管条款风险破坏该法案的其余部分。These provisions should be revisited through legislative amendment to bring them in line with the Act’s broader vision—promoting innovation, supporting competitiveness, and safeguarding citizens.

国民议会应对《 AI框架法》进行以下修正案:

â–ª Amend Article 31 (Obligation to Ensure AI Transparency) to remove mandatory disclosure requirements.水印和AI标签在技术上是脆弱的,并且在各个司法管辖区都不一致,并给出了错误的安全感,因为它们没有解决政策制定者所关心的特定危害,例如虚假信息,知识产权侵犯和深层诉讼。取而代之的是,法律应指导MSIT和其他部委促进自愿出处标准,例如C2PA,投资数字和AI扫盲计划,并针对IP违规,竞选透明度和在线骚扰等特定危害采用有针对性的规则。[22]

â–ª Amend Article 32 (Obligation to Ensure AI Safety), which now triggers oversight for systems trained above a compute threshold, to remove compute as the criterion.计算使用不是可靠的风险预测指标。取而代之的是,法律应修改第12条,以授权AISI对AI系统进行动态后评估。AISI应在高影响部门,监视失败和事件中测试已部署的模型,并发布调查结果,以便监督基于现实世界的绩效,而不是任意培训输入。

â–ª Amend Articles 33–35, which impose extensive self-assessments, documentation, and risk reporting for high-impact AI, to replace these process-heavy mandates with performance-based requirements.法律应指示每个部门部为其域中的AI系统设置可衡量的结果,而Kriss应指示设计评估协议,以测试AI系统是否符合这些结果。这将使监督从挑剔的文书工作转变为有意义的性能标准。

â–ª Amend Article 36 (Designation of Domestic Agent) to remove revenue and user thresholds as triggers for stricter oversight of foreign firms.无论提供商是国内还是外国,只有在将系统指定为高影响力的情况下,才应触发监督。这将确保平等的治疗,消除实际风险而不是公司规模或位置的任意阈值和地面监管。

该法第5章提供了法律的运营细节,涵盖了政府将如何资助,监控和执行其规定。

第37条要求政府确保财政资源以支持AI行业,以确保R&D,基础设施和其他计划得到充分的资金。

第38条规定了定期调查和统计报告,因此政策仍然是基于证据的。该法令草案(第29条)进一步指定了这些调查的范围,需要覆盖行业规模,公司收入,劳动力供应和需求,设施,技术趋势,全球政策发展和投资流量。它还允许通过现场工作,文献,调查和电子方法收集数据。

第39条授权将职责委派给专业机构,以实施更有效的实施。第30条草案扩大了此权限,使MSIT能够委托公共机构或与支持AI融合项目,数据中心利用,行业调查和统计数据,甚至专家委员会的运营等任务。

第40条授权MSIT在怀疑违规时要求数据,进行调查和现场检查,并在确认不遵守规定时发出纠正命令。第31条草案提供了有限的例外,如果已经有足够的证据,或者认为投诉是轻率或旨在妨碍官方职责的,则允许MSIT不进行调查。

最后,第41条将公共官方问责制标准应用于所有委员会成员和委托行为者,从而增强了执行的透明度和诚信。

分析:广泛的数据需要风险调节性过度

赋予MSIT广泛的权力要求数据和进行检查风险过高。如果没有明确的限制,它可能会对公司施加沉重的负担,阻止创新,并引起人们对如何处理敏感业务数据的担忧。

推荐

â–ª MSIT should use the Enforcement Decree for article 40 (Authority to Demand Data and Conduct Inspections) of the AI Framework Act to set clear guidelines on what data can be requested from AI business operators, for what oversight purposes, and under what conditions.请求应仅限于严格验证符合该法案的信息,例如风险管理措施或用户保护惯例的文件,并且永远不要扩展到无关的业务数据。该法令还应要求强大的保障措施以确保保护敏感的商业信息。This approach would preserve accountability while avoiding unnecessary compliance costs and protecting firms’ proprietary data.

第6章建立了惩罚以执行遵守该法案的惩罚。Article 42 imposes a penalty of up to three years in prison or a fine of up to 30 million won for any individual who leaks a business’s confidential information they obtained while performing duties under the Act.第43条针对三项特定违规行为施加了高达3000万韩元的行政罚款:一家未能指定国内代表的外国公司,一家未能通知用户的公司正在与生成或高影响力的AI系统进行互动,或者一家公司未能遵守政府发出的纠正措施。

分析:处罚应与风险和危害成比例

第42条和第43条没有区分小违规和全身危害。对待所有违规行为,就好像它们构成了相同的风险可能会阻止实验,使案件低水平的监管机构压倒了监管机构,并将重点稀释远离严重威胁公民或人工智能生态系统的严重违规行为。有效的操作框架应与损害的规模和性质保持一致,以确保责任制而不会扼杀创新。

建议

â–ª MSIT should use the Enforcement Decree for article 42 (Penalties) of the AI Framework Act to scale sanctions according to the severity and impact of violations.对于全身性或反复的违规,应增加罚款,但对于未成年或首次违规的罚款。该法令中的明确指导将确保责任制,同时避免过度严厉的惩罚,以阻止该法案中的参与或合作。

â–ª MSIT should use the Enforcement Decree for article 43 (Administrative Fines) to establish a grace period before fines are imposed.在这个过渡阶段,没有新义务的公司应收到警告或纠正指导,而不是立即处罚。这将使国内和外国运营商有时间建立有效的合规系统,同时仍确保一旦政权完全实现强大的执法生效。

The AI Framework Act will set the course for South Korea’s AI trajectory for the next decade.它已经在战略和行业发展中奠定了坚实的基础,但是直率的一定程度的规则可能会剥夺这些收益。前进的道路是决定性和实用性的:收紧法规以修复结构缺陷,并使用最终的执法法令来实施平衡,基于风险的,以性能为中心的规则。如果韩国这样做,该法案将保护权利,催化改善日常生活的创新,并锁定全球竞争力的持久优势。

Chapter 1: General Provisions (총칙

▪ Article 1 (Purpose):The purpose of the law: to both promote the sound development and establish a foundation of trust for AI, thereby protecting citizens’ rights and dignity, improving their quality of life, and strengthening national competitiveness

â–ª Article 2 (Definitions):The key definitions, covered in table 1

▪ Article 3 (Basic Principles and Responsibilities of the State):The principles: safety, reliability, right to explanation for affected persons, respect for operators’ creativity, and policies for societal adaptation

â–ª Article 4 (Scope of Application):The scope including extraterritorial application and exceptions for national defense/security

â–ª Article 5 (Relationship with Other Laws):The precedence of the law and the requirement for consistency with it when creating or amending other laws

Chapter 2: Promotion System for the Sound Development and Trust-Based Foundation of AI (인공지능의 건전한 발전과 신뢰 기반 조성을 위한 추진체계

â–ª Article 6 (Establishment of the AI Master Plan):The establishment of the master plan by MSIT, its purpose, required contents, and its relationship with other laws

â–ª Article 7 (National AI Committee):The details of the National AI Committee, its purpose, composition, role of the president as chairman, terms of members, confidentiality requirements, and its limited duration

â–ª Article 8 (Functions of the Committee):The specific functions of the committee, including deliberation on the master plan, policy, R&D strategy, and regulation.注意其提出建议的能力

â–ª Article 9 (Exclusion, Recusal, and Avoidance of Members):The rules for avoiding conflicts of interest

â–ª Article 10 (Subcommittees, etc.):The provisions for establishing subcommittees, special committees, and advisory groups

â–ª Article 11 (AI Policy Center):The role of the AI Policy Center in developing AI policy and international norms

▪ Article 12 (AI Safety Research Institute):The establishment and functions of the AISI to ensure “AI safety” and protect the public

Chapter 3: AI Technology Development and Industry Promotion (인공지능기술 개발 및 산업 육성

Part 1: Foundation Building for the AI Industry (인공지능산업 기반 조성

â–ª Article 13 (Support for AI Technology Development and Safe Use):Government support for R&D, commercialization, and safe use of AI technology

â–ª Article 14 (Standardization of AI Technology):Government efforts in standardizing AI technology, training data, and safety

â–ª Article 15 (Establishment of Policies Related to AI Training Data):The creation of policies and systems for the production, collection, management, and distribution of AI training data

Part 2: AI Technology Development and AI Industry Revitalization (인공지능기술 개발 및 인공지능산업 활성화

â–ª Article 16 (Support for AI Technology Introduction and Utilization):Support for businesses and public institutions to adopt and utilize AI

â–ª Article 17 (Special Support for Small and Medium Enterprises, etc.):The principle of prioritizing support for SMEs

â–ª Article 18 (Revitalization of Startups):Support for AI-related start-ups

â–ª Article 19 (Promotion of AI Convergence):Policies to promote the integration of AI with other industries

▪ Article 20 (Institutional Improvement, etc.):The government’s responsibility to improve laws and regulations

â–ª Article 21 (Securing Professional Personnel):Policies for fostering and securing domestic and foreign AI talent

â–ª Article 22 (Support for International Cooperation and Overseas Market Entry):Support for international collaboration and for businesses to enter foreign markets

â–ª Article 23 (Designation of AI Clusters, etc.):The establishment and support for AI clusters

â–ª Article 24 (Creation of AI Verification Infrastructure, etc.):The creation of facilities and equipment for verifying and testing AI technologies

â–ª Article 25 (Promotion of Policies Related to AI Data Centers, etc.):The policies for establishing and operating AI data centers

â–ª Article 26 (Establishment of the Korea AI Promotion Association):The details of establishing a private association for AI promotion

Chapter 4: AI Ethics and Trustworthiness (인공지능윤리 및 신뢰성 확보

â–ª Article 27 (AI Ethical Principles, etc.):The creation and dissemination of AI ethical principles and implementation plans

â–ª Article 28 (Establishment of Private Autonomous AI Ethics Committee):The optional establishment of private ethics committees and their functions

â–ª Article 29 (Establishment of Policies to Foster AI Trustworthiness):Government policies to minimize risks and build a foundation of trust

â–ª Article 30 (Support for AI Safety and Trustworthiness Verification, Certification, etc.):Support for voluntary verification and certification activities, especially for SMEs.Note the obligation for high-impact AI

â–ª Article 31 (Obligation to Ensure AI Transparency):The transparency obligations for AI operators, including pre-notification for high-impact and generative AI and clear labeling of AI-generated content

â–ª Article 32 (Obligation to Ensure AI Safety):The safety obligations for AI systems that meet a certain computational threshold

â–ª Article 33 (Verification of High-Impact AI):The requirement for AI operators to verify if their AI is high impact, and the process for requesting government confirmation

â–ª Article 34 (Obligations of Operators related to High-Impact AI):The specific measures that operators must take for high-impact AI, including risk management, explainability, user protection, and human oversight

â–ª Article 35 (High-Impact AI Impact Assessment):The effort-based requirement for operators to conduct human rights impact assessments

â–ª Article 36 (Designation of Domestic Agent):The requirement for foreign AI operators to designate a domestic agent

Chapter 5: Supplementary Provisions (ë³´ì¹™

▪ Article 37 (Expansion of Financial Resources for AI Industry Promotion, etc.):The government’s responsibility to secure funding for AI promotion

▪ Article 38 (Fact-Finding Surveys, Statistics, and Indicators):The government’s obligation to conduct surveys and compile statistics

â–ª Article 39 (Delegation of Authority and Entrustment of Duties):The provisions for delegating and entrusting authority to other government bodies or organizations

▪ Article 40 (Fact-Finding Investigation, etc.):The government’s right to investigate AI operators for violations

â–ª Article 41 (Deemed Public Officials for Application of Penal Provisions):The provision that nonpublic committee members and entrusted employees are considered public officials for penal purposes

Chapter 6: Penalties (벌칙

â–ª Article 42 (Penal Provisions):The penalty for leaking confidential information

â–ª Article 43 (Administrative Fines):The administrative fines for specific violations (failure to notify, designate a domestic agent, or comply with a corrective order)

Addenda (부칙

â–ªThe effective date, preparatory acts, and a special provision regarding a pre-existing entity

致谢

The authors would like to thank Robert D. Atkinson, president of the Information Technology and Innovation Foundation, and Erica Schaffer, senior digital communications manager at ITIF.

The authors would also like to thank Randolph Court for his editorial assistance.

Any errors or omissions are the authors’ responsibility alone.

关于作者

Sejin Kim is a tech policy analyst specializing in AI, blockchain, space, and emerging tech for ITIF’s Center for Korean Innovation and Competitiveness.Drawing on technology journalism experience bridging South Korean and U.S. tech ecosystems, she brings cross-cultural insights into national competitiveness and policy dynamics.Notable publications include “On the Recent Development of Central Bank Digital Currency (CBDC)” (December 2020, listed in Reuters Refinitiv), “WeMix, Web3 Gaming and Ethics” (January 2023), and “2025 Global Tech Trends: 17 of The Trend Revolution is Coming” (November 2024).

Hodan Omaar is a senior policy manager focusing on AI policy at ITIF’s Center for Data Innovation.Previously, she worked as a senior consultant on technology and risk management in London and as a crypto-economist in Berlin.She has an M.A. in economics and mathematics from the University of Edinburgh.

About ITIF

The Information Technology and Innovation Foundation (ITIF) is an independent 501(c)(3) nonprofit, nonpartisan research and educational institute that has been recognized repeatedly as the world’s leading think tank for science and technology policy.Its mission is to formulate, evaluate, and promote policy solutions that accelerate innovation and boost productivity to spur growth, opportunity, and progress.有关更多信息,请访问itif.org/about。[3]

.    Coalition for Content Provenance and Authenticity (C2PA), “Technical Standard for Content Provenance and Authenticity,” accessed September 15, 2025,https://c2pa.org[10]

.  National R&D Innovation Act (2020): Establishes MSIT’s role in planning, coordinating, and managing national R&D programs and investments,https://elaw.klri.re.kr/eng_service/lawView.do?hseq=62484&lang=ENG;MSIT, Mid- and Long-Term National R&D Investment Strategy (2023–2027): Confirms MSIT’s central role in setting R&D priorities.MSIT新闻稿;AI Framework Act,第13条(2024):授权政府在国际趋势跟踪,合作和商业化等领域的项目以及重点介绍安全,隐私,社会影响和权利保护方面的研发。English translation,https://cset.georgetown.edu/wp-content/uploads/t0625_south_korea_ai_law_EN.pdf。[15]

.  Draft Enforcement Decree Article 22 specifies that such notice may be provided through multiple channels—contracts, manuals, or terms of service;屏幕或设备显示;物理贴在提供的位置;或MSIT批准的其他方法。对于生成AI,可以将输出标记为人类或机器可读形式,并具有不可访问的水印(例如出处标准)被认为是可接受的选择。该法令还要求披露易于感知且适合主要用户组。当AI基础已经不言而喻,仅用于内部业务目的或部长通过通知指定其他案件时,适用例外情况。과학기술정보통신부(MSIT), AI기본법 하위법령 제정방향,2025年ë…„9ì›”8일

[16].  执法法令草案第28条进一步澄清说,根据上一年的平均汇率(或公司案件中上一个财政年度),必须在韩国赢得第1款和第2款规定的收入门槛。과학기술정보통신부(MSIT), AI기본법 하위법령 제정방향,2025年ë…„9ì›”8일

[22].  Coalition for Content Provenance and Authenticity (C2PA), “Technical Standard for Content Provenance and Authenticity,” accessed September 15, 2025,https://c2pa.org。.

关于《一项法律制定了韩国的AI政策,一个薄弱的联系可能会破坏它》的评论


暂无评论

发表评论

摘要

###提出增强《韩国AI框架法》的建议《韩国人工智能框架法》旨在促进人工智能的发展,同时确保道德标准和可信赖性。但是,在几个领域,该法案可以得到改进,以更好地与现代AI实践保持一致并应对新兴的挑战。#### 1。**增强透明义务** - **当前问题**:第31条中的当前规定着重于对AI生成的内容的高影响力和生成AI系统的通知以及标记要求。 - **建议**:将透明度义务扩展到包括模型架构,培训数据源和算法决策过程的详细文档。这将使更好的监督和问责制。#### 2。**从计算阈值转向基于风险的分类** - **当前问题**:第32条根据计算阈值施加安全义务,这是一种过时的方法。 - **建议**:用基于风险的分类系统替换计算阈值,该系统评估AI系统对社会和个人的潜在影响。这将确保高风险应用程序受到更严格的审查。#### 3。**流线高影响AI验证过程** - **当前问题**:第33和34条需要广泛的验证过程,以确认其AI是否具有高影响力。 - **建议**:通过利用现有的第三方认证框架,例如内容出处和真实性联盟(C2PA)或其他公认的行业标准来简化该过程。这将减轻行政负担,同时保持严格的监督。#### 4。**改进数据隐私保护** - **当前问题**:该法强调数据标准化和利用率,但缺乏强大的隐私保护。 - **建议**:纳入更强大的数据保护措施,包括对数据收集和使用,加密标准的明确同意要求以及不符合数据保护法规的罚款。#### 5。**增强对国际合作的支持** - **当前问题**:虽然第26条建立了私人AI促进协会,但对国际合作的关注有限。 - **建议**:通过支持参与全球AI计划并与国外领先的研究机构建立伙伴关系,加强与国际合作有关的规定。#### 6。**促进AI的道德使用** - **当前问题**:第27条概述了AI道德原则的创建,但实施仍然含糊。 - **建议**:在包括医疗保健,财务和治理在内的各个部门的道德AI使用方面使用明确的指南。建立定期审核以确保符合这些准则。#### 7。**澄清外国运营商的责任** - **当前问题**:第36条要求外国运营商指定国内代理,但缺乏详细的执法机制。 - **建议**:为不遵守规定指定明确的处罚,并建立一个独立的监督机构来监视指定代理的活动。这将确保问责制和遵守当地法规。#### 8。**促进AI人才发展** - **当前问题**:第21条的重点是培养国内和外国人才,但没有解决保留策略。 - **建议**:实施计划,以保留竞争性薪水,研究补助金和职业发展机会等高级人工智能人才。#### 9。**增强事实调查和统计** - **当前问题**:第38条规定了事实调查,但没有指定频率或方法。 - **建议**:建立一个标准化框架,以进行定期调查以跟踪AI采用率,行业趋势和公共情绪。这些数据将为政策决策和资源分配提供信息。#### 结论通过解决这些领域,韩国可以创造一个更健壮和适应性的监管环境,在促进创新和国际合作的同时,支持道德AI的发展。这些建议旨在确保《 AI框架法》在浏览人工智能技术不断发展的景观方面仍然有效。