一项新的竞赛承诺,任何能够在线跟踪仇恨图像的人都会获得 10,000 美元的奖金。
Humane Intelligence 是一家专注于评估人工智能系统的组织,它正在发起一项挑战赛开发人员创建一个计算机视觉模型,可以跟踪基于仇恨图像的在线宣传。该赏金计划是与北欧反恐组织 Revontulet 合作组织的,于 9 月 26 日开始。该计划向任何想要参加比赛的 18 岁或以上的人开放,并承诺为获胜者提供 10,000 美元的奖金。
这是这是 Humane Intelligence 计划中的 10 个算法偏差赏金计划中的第二个。Humane Intelligence 是一家非营利组织,致力于调查人工智能的社会影响,由著名人工智能研究员 Rumman Chowdhury 于 2022 年发起。该系列得到了 Google 慈善机构 Google.org 的支持。乔杜里说,我们赏金计划的目标第一是教人们如何进行算法评估,第二是真正解决该领域的紧迫问题。
它的第一个挑战要求参与者评估样本数据集中的差距,这些差距可用于训练模型,这些差距可能会产生实际上不准确、有偏见或误导性的输出。
第二个挑战涉及跟踪网上的仇恨图像是一个极其复杂的问题。生成式人工智能使得此类内容激增,并且人工智能还被用来操纵内容,使其不会从社交媒体中删除。例如,极端主义团体可能会使用人工智能稍微改变平台已经禁止的图像,快速创建数百个不同的副本,这些副本无法轻易被自动检测系统标记。极端主义网络还可以使用人工智能将图案嵌入到图像中,这种图案肉眼无法察觉,但会迷惑和逃避检测系统。它本质上在极端主义团体和在线平台之间创造了一场猫捉老鼠的游戏。
这项挑战需要两种不同的模型。第一个任务是针对具有中等技能的人的任务,即识别仇恨图像;第二个被认为是高级挑战,是一个试图愚弄第一个挑战的模型。乔杜里说,这实际上模仿了现实世界的运作方式。行善者采取一种方法,然后坏人采取一种方法。目标是让机器学习研究人员参与减轻极端主义的主题,这可能会导致创建可以有效筛选仇恨图像的新模型。
该项目的核心挑战是仇恨-基于的宣传可能很大程度上取决于其背景。对某些符号或符号没有深入了解的人可能无法分辨什么才是白人民族主义团体的宣传。
如果[模型]从未见过仇恨图像的例子与赏金计划无关的滑铁卢大学计算机科学教授吉米·林 (Jimmy Lin) 表示,如果来自世界某个地方,那么它就无法很好地检测到它。
这种效应在世界范围内被放大,因为许多模型并不具备丰富的文化背景知识。这就是人道情报部门决定与非美国组织合作应对这一特殊挑战的原因。乔杜里说,这些模型中的大多数通常都针对美国的例子进行了微调,这就是为什么与北欧反恐组织合作很重要。
林警告说,解决这些问题可能需要的不仅仅是算法的变化。我们有生成虚假内容的模型。那么,我们可以开发其他可以检测虚假生成内容的模型吗?是的,这当然是一种方法,他说。但我认为总体而言,从长远来看,培训、扫盲和教育工作实际上会更有益,并产生更持久的影响。因为你不会陷入这场猫捉老鼠的游戏。
挑战将持续到 2024 年 11 月 7 日。将选出两名获胜者,一名为中级挑战,另一名为高级挑战;他们将分别获得 4,000 美元和 6,000 美元。参与者还将接受 Revontulet 审查他们的模型,Revontulet 可能会决定将其添加到其当前的打击极端主义工具套件中。
到目前为止,LLM 的大部分进展都是语言驱动的。这个新模型进入了复杂推理领域,对物理、编码等都有影响。
支持语音的机器人今天,聊天机器人将向一小群人开放,并在秋季面向所有 ChatGPT Plus 用户开放。
It即使您没有任何设计技能,也可以轻松在平台上构建新的游戏环境。
提出的系统来自麻省理工学院、OpenAI、微软和其他公司的研究人员可以通过利用技术弱点来遏制欺骗性人工智能的使用。
发现特别优惠、头条新闻、即将举办的活动等。