自从她发行以来,您可以与人类般的人工智能助手的想法在许多人的想象中都充满活力。一个名叫Samantha的Siri Like AI。在电影的整个过程中,主角努力应对萨曼莎(Samantha)的真实方式,不是,也永远不会是人类。
十二年来,这不再是科幻小说的东西。诸如Chatgpt和Apple Siri和Amazon的Alexa等数字助手之类的生成性AI工具可帮助人们获取行车路线,制作杂货清单以及其他大量。但是,就像萨曼莎(Samantha)一样,自动语音识别系统仍然无法做到人类听众所能做的一切。
您可能有令人沮丧的经历,可以打电话给您的银行或公用事业公司,并需要重复自己,以便数字客户服务另一行上的机器人可以理解您。也许您在手机上指示了一张笔记,只是花时间编辑乱码的单词。
语言学和计算机科学研究人员表明,这些系统对某些人来说比其他人更糟糕。如果您有一个,他们往往会犯更多的错误非本地或a区域口音,是黑色的, 说话在非裔美国人的白话英语,,,,代码开关,如果你是一个女士, 是老的,也是年轻的或有一个言语障碍。
锡耳
与您或我不同,自动语音识别系统并不是研究人员所说的“同情听众”。而不是试图通过接受其他有用的线索(例如语调或面部手势)来了解您,而只是放弃。或者他们采取概率猜测,有时可能导致错误的举动。
随着公司和公共机构越来越多地采用自动语音识别工具来削减成本,人们别无选择,只能与他们互动。但是这些系统在关键领域使用的越多,从紧急情况等第一响应者和卫生保健到教育和法律 执法,当他们无法认识到人们说的话时,就会产生严重的后果。
想象一下,在不久的将来的某个时候,您会在车祸中受伤。您可以拨打911寻求帮助,但是您没有与人类调度员连接,而是旨在淘汰非紧急呼叫的机器人。它需要您几轮才能理解,浪费时间并在最糟糕的时刻提高您的焦虑水平。
是什么导致这种错误发生?这些系统造成的一些不平等现象被烘烤到语言数据开发人员用来构建大型语言模型。开发人员通过喂食大量包含人类语音的文本和音频文件来培训人工智能系统来理解和模仿人类语言。但是他们在喂谁的演讲呢?
如果系统在30年代中期与富裕的白人美国人交谈时,系统得分很高,那么可以合理地猜测它是使用适合此个人资料的人的大量录音来训练的。
随着来自各种来源的严格数据收集,AI开发人员可以减少这些错误。但是建立可以理解人类言语中无限差异的AI系统,例如性别,,,,年龄,,,,种族,,,,第一语言与第二语言,,,,社会经济地位,,,,能力还有很多其他,需要大量的资源和时间。
适当的英语
对于不说英语的人来说,这是世界各地的大多数人 - 挑战更大。世界上大多数最大的生成AI系统都是用英语建造的,它们的英语工作效果要比任何其他语言要好得多。在纸上,AI有很多公民潜力为了翻译和增加人们对不同语言的信息的访问,但就目前而言,大多数语言都有较小的数字足迹,使他们很难为大型语言模型提供动力。
即使在大型语言模型良好的语言中,英语和西班牙语,您的经验取决于您所说的语言的哪种方言。
目前,大多数语音识别系统和生成AI聊天机器人反映了语言偏见他们接受了培训的数据集。他们回应了规定,有时偏见的观念言语中的正确性。
实际上,已证明AI已被证明扁平语言多样性。现在有AI初创公司提供擦除口音在他们的用户中,假设他们的主要客户将是印度或菲律宾等国外呼叫中心的客户服务提供商。产品持续了这样的观念,即某些口音的有效性不如其他口音。
人际关系
人工智能大概会在处理语言上变得更好,考虑到重音,代码转换等变量。在美国,根据联邦法律有义务保证公共服务公平访问无论一个人说什么语言,服务。但是,尚不清楚仅凭这一点是否足以使科技行业朝着消除语言不平等的方向发展。
在询问有关账单或医疗问题的问题时,许多人可能更喜欢与真实的人交谈,或者至少有能力在寻求关键服务时选择与自动化系统进行互动。这并不是说在人际交流中沟通障碍永远不会发生,但是当您与真实的人说话时,他们会成为一个同情的听众。
至少有了AI,它要么有效,要么不起作用。如果系统可以处理您说的话,那么您就可以了。如果不能,那就是让您理解自己的责任。