人权专员在内部劳动辩论中就如何应对新兴技术做出反应,在澳大利亚的种族主义和性别歧视中加入了种族主义和性别歧视的风险。
洛林·芬利(Lorraine Finlay)表示,如果技术不适当监管,则不应以歧视为代价来追求AI的生产力提高。
芬利的评论跟随工党参议员米歇尔·阿南达·拉贾(Michelle Ananda-Rajah)打破队伍,要求所有澳大利亚数据释放给科技公司,以防止AI延续海外偏见并反映澳大利亚的生活和文化。
阿南达·拉贾(Ananda-Rajah)反对一项专门的AI法案,但认为内容创作者应该为他们的工作付费。
下周将在联邦政府的经济峰会上讨论AI的生产力提高,因为工会和行业机构引起了人们对版权和隐私保护。
媒体和艺术团体警告知识产权的盗窃如果大型科技公司可以接受其内容培训AI模型。
Finlay说,在哪些数据集AI工具正在培训的数据集中缺乏透明度,因此很难识别可能包含哪些偏见。
她说:'算法偏见意味着偏见和不公平是我们使用的工具中所内置的,因此结果将反映出这种偏见的决定。”

当您将算法偏见与自动化偏见结合在一起时,这是人类更有可能依靠机器的决策并几乎取代自己的思想的地方 - 真正的风险是,我们实际上所产生的是以一种歧视和偏见,以这种形式如此,我们甚至不知道,我们也不知道它发生了。
人权委员会一直倡导AI法案,加强现有立法,包括《隐私法》,并对AI工具中的偏见进行严格的测试。芬利说,政府应紧急建立新的立法护栏。
她说:'偏见测试和审计,确保人类的适当监督审查,您需要采取各种不同的措施。”
越来越多的证据表明,澳大利亚的AI工具和海外,在医学和招聘工作等领域。
澳大利亚研究5月份出版的发现,候选人接受了AI招聘人员的采访,如果他们以口音交谈或生活在残疾人的情况下,他们可能会受到歧视。
Ananda-Rajah, 谁是 在进入议会之前,AI的一名医生和研究人员说,对AI工具进行培训,以培训澳大利亚数据或冒着延续海外偏见的风险。
尽管政府强调需要保护知识产权,但她警告说,不开放国内数据意味着澳大利亚将永远租用来自海外技术巨头的[AI]模型,而没有对其模型或平台的监督或洞察力。
Ananda-Rajah说,必须对AI进行尽可能多的数据进行培训,或者它将扩大偏见,并可能损害其本应服务的人的培训。” Ananda-Rajah说。
我们需要释放自己的数据才能训练模型,以便它们更好地代表我们。
新闻通讯促销之后
``我渴望在释放数据时货币化的创建者。我认为我们可以为海外的掠夺和掠夺提供替代方案。
阿南达·拉贾(Ananda-Rajah)举起皮肤癌筛查以AI为例,已证明用于测试的工具具有算法偏差。阿南达·拉贾(Ananda-Rajah)说,克服对某些患者的任何偏见或歧视的方式将是培训这些模型,以尽可能多地从澳大利亚的数据上进行培训,并为敏感数据提供适当的保护。
Finlay说,任何发布澳大利亚数据都应以公平的方式完成,但她认为重点应该放在监管上。
她说,拥有多样化和代表性的数据绝对是一件好事 - 但这只是解决方案的一部分。”
``我们需要确保以对每个人公平的方式进行这项技术,并实际上认识到人类正在做出的工作和贡献。”
La Trobe University的AI专家和AI公司的前数据研究员Judith Bishop说,释放更多澳大利亚数据可以帮助更适当地培训AI工具,而警告AI使用国际数据的AI工具可能无法反映澳大利亚人的需求,但这是解决方案的一小部分。
BiShop说:“我们必须谨慎的是,最初在其他情况下开发的系统实际上适用于[澳大利亚]人群,我们不依赖于接受过美国数据培训的US模型。”
ESAFETY专员Julie Inman Grant也关心数据AI工具使用的数据。
她在一份声明中说,科技公司应该对其培训数据,开发报告工具并必须在其产品中使用多样,准确和代表性的数据透明。
伊曼·格兰特(Inman Grant)说,生成的AI开发和部署的不透明性是有问题的。”``这就提出了有关LLM(大型语言模型)在多大程度上扩大甚至加速,有害偏见的重要性问题,包括狭窄或有害的性别规范和种族偏见。
•这些系统的发展集中在少数公司的手中,存在某些证据,声音和观点的风险,可能会被掩盖或在生成产出中掩盖或偏见。”