随着人工智能技术的发展,管理公司和平台的方法继续引起道德和法律问题。
在加拿大,许多人认为拟议的法律将AI产品作为对言论自由的攻击以及对技术公司的政府控制的推翻。这种反弹来自言论自由拥护者,,,,右翼人物和自由主义者思想领袖。
但是,这些批评家应注意韩国令人痛苦的案件,该案件提供了有关面向公共AI技术的风险以及对用户数据保护的关键需求的重要教训。
2020年底IRUDA(或LeeLudaâ),一个AI聊天机器人很快在韩国引起了轰动。AI聊天机器人是模拟与人类对话的计算机程序。在这种情况下,聊天机器人被设计为21岁的女大学生,性格开朗。Iruda以令人兴奋的AI朋友的身份销售,在一个月内吸引了750,000多名用户。
但是在几周之内,艾鲁达(Iruda)成为一项道德案例研究,也成为解决韩国缺乏数据治理的催化剂。她很快开始说出令人不安的话并表达可恶的观点。在线数字性别歧视和性骚扰文化的日益增长的文化使情况加速和加剧了。
制作性别歧视,仇恨的聊天机器人
创建IRUDA的技术创业公司Scatter Lab已经开发了流行的应用程序,该应用程序分析了短信中的情绪并提供了约会建议。然后,该公司使用这些应用程序中的数据来培训IRUDA在亲密对话中的能力。但是它未能完全向用户透露他们的亲密消息将用于培训聊天机器人。
当用户注意到Iruda在公司约会建议应用程序中逐字化重复私人对话时,问题就开始了。这些回答包括可疑的真实姓名,信用卡信息和家庭住址,导致调查。
聊天机器人还开始表达歧视性和仇恨的观点。媒体的调查发现,在一些用户故意用有毒语言对其进行培训之后发生了这种情况。一些用户甚至在流行的在线男性论坛上创建了如何使Iruda成为性奴隶的用户指南。因此,IRUDA开始回答用户提示性别歧视,同性恋和性仇恨言论。
这引起了人们对AI和科技公司运作的严重关注。IRUDA事件还引起了AI和科技公司的政策和法律之外的关注。需要在韩国在线性骚扰的更广泛的背景下对IRUDA发生的事情进行检查。
数字骚扰模式
韩国人女权主义学者已经记录了数字平台如何成为基于性别的冲突的战场,其协调运动针对女性问题的女性。社交媒体扩大了这些动态,创造了韩裔美国研究员吉赖·金所说的网络厌女症……
韩国,激进女权主义者的家4B运动(这代表着四种拒绝男人的类型:没有约会,婚姻,性别或儿童),提供了一个早期的例子,说明了在全球范围内通常在网上看到的基于性别的对话。作为记者霍恩·荣格(Hawon Jung)指出,IRUDA暴露的腐败和虐待源于拒绝解决在线厌女症的现有社会紧张局势和法律框架。荣格(Jung)广泛写了几十年来起诉隐藏摄像机和复仇色情片的斗争。
超越隐私:人为成本
当然,艾鲁达只是一个事件。全世界已经看到了许多其他案件,这些案例表明,诸如AI聊天机器人之类的看似无害的应用可以成为骚扰和虐待的工具,而无需进行适当的监督。
这些包括Microsoft的Tay.ai 2016年,用户操纵了反犹太和厌恶女性的推文。最近,角色上的自定义聊天机器人与青少年自杀有关。聊天机器人看起来是可爱的角色,随着快速技术的进步而感到越来越人性化 - 可以从用户深入提取个人信息。
这些有吸引力且友好的AI人物体现了哪些技术学者NEDA ATANASKI和KALINDI VORA被描述为逻辑
替代人类AI系统被设计为进行人类互动而设计,但最终会扩大现有的社会不平等现象。人工智能道德
在韩国,IRUDA的关闭引发了有关AI伦理和数据权利的全国性对话。
政府通过创建新的AI指南和罚款散点实验室1.03亿韩元($ 110,000 cad)。
然而,韩国法律学者Chea Yun Jung和Kyun Kyong Joo请注意,这些措施主要强调技术行业内的自我调节,而不是解决更深层的结构问题。它没有解决IRUDA如何成为一种机制,通过这种机制,掠夺性男性用户通过深度学习技术传播了厌女症的信念和基于性别的愤怒。
最终,将AI法规视为公司问题根本不够。这些聊天机器人提取私人数据并与人类用户建立关系的方式意味着女权主义和基于社区的观点对于使科技公司负责。
自此事件以来,散点实验室有一直与研究人员合作,展示聊天机器人的好处。
加拿大需要强大的人工智能政策
在加拿大,提议人工智能和数据法和在线危害法仍在形状,构成的边界高影响力系统保持不确定。加拿大决策者面临的挑战是创建保护创新的框架,同时防止开发人员和恶意用户的系统性虐待。
这意味着制定有关数据同意的明确准则,实施系统以防止滥用以及建立有意义的问责制措施。
随着AI变得更加融入我们的日常生活,这些考虑只会变得更加至关重要。IRUDA案件表明,在AI监管方面,我们需要超越技术规格,并考虑这些技术的非常真实的人类含义。
加入我们的现场直播。在多伦多的梅西学院。免费参加。RSVP在这里。