作者:by University of Birmingham
为生成人工智能(AI)提供动力的语言“引擎”受到一系列可能损害社会的问题的困扰,最明显的是通过错误信息和歧视性内容的传播,包括种族主义和性别歧视的刻板印象。
总的来说,ChatGPT 等流行人工智能系统的这些失败是由于训练它们的语言数据库的缺陷造成的。
为了解决这些问题,伯明翰大学的研究人员开发了一种新颖的框架,通过整合社会语言学(语言变异和变化的研究)的原理来更好地理解大语言模型(LLM)。
发表他们的研究人工智能前沿,专家们认为,通过准确地表示不同的“语言种类”,人工智能系统的性能可以得到显着提高——解决人工智能中的关键挑战,包括社会偏见、错误信息、领域适应以及与社会价值观的一致性。
研究人员强调了利用社会语言学原理来培训法学硕士的重要性,以更好地代表任何语言的不同方言、语域和时期——为开发更准确、更可靠、更道德的人工智能系统开辟了新途径和社会意识。
主要作者 Jack Grieve 教授表示:“当出现提示时,ChatGPT 等生成式人工智能可能更有可能对某些种族和性别产生负面描述,但我们的研究为如何以更有原则的方式培训法学硕士以减轻社会偏见提供了解决方案。。
“这些类型的问题通常可以追溯到法学硕士接受培训的数据。如果培训语料库中相对频繁地表达有关某些社会群体的有害或不准确的想法,法学硕士将不可避免地重现这些偏见,从而导致潜在的种族主义或种族歧视。”性别歧视内容。”
该研究表明,对旨在代表目标语言多样性的数据集进行微调法学硕士(正如数十年的社会语言学研究所详细描述的那样)通常可以增强这些人工智能系统的社会价值。
研究人员还认为,通过平衡不同来源的训练数据社会团体和上下文,可以解决围绕训练这些系统所需的数据量的问题。
格里夫教授补充道:“我们认为,增加训练数据的社会语言多样性远比仅仅扩大其规模重要得多。”“由于所有这些原因,我们因此认为法学硕士设计和评估中明确且迫切需要社会语言学洞察力。
“理解社会结构,以及这种结构如何反映在社会模式中语言法学硕士的使用对于最大限度地发挥法学硕士为法学硕士越来越多地融入的社会的利益至关重要。更一般地说,融合人文学科和社会科学的见解对于开发更好地服务人类的人工智能系统至关重要。”
更多信息:语言建模的社会语言学基础,人工智能前沿(2025)。
引文:人工智能中的偏见和歧视:为什么社会语言学是获得更好的法学硕士和更公平的世界的关键(2025 年,1 月 13 日)检索日期:2025 年 1 月 13 日来自 https://techxplore.com/news/2025-01-bias-discrimination-ai-sociolinguistics-key.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。