尽管关于AI的负面讨论很多,包括关于它占领世界的可能性,但公众也受到轰炸积极的信息关于技术,以及它可以做什么。
这个好神话是一个关键工具使用科技公司促进他们的产品。但是有证据表明消费者是警惕某些产品中的AI。这意味着AI的积极促进可能给人们施加不必要的压力,要求人们接受AI在生活中的使用。
人工智能变得如此普遍,以至于人们可能失去了对使用它的拒绝的能力。它在智能手机,智能电视,诸如Alexa之类的智能扬声器以及Siri等虚拟助手中。我们经常告诉我们,我们的隐私将受到保护。但是,凭借AI在这些设备中访问的数据的个人性质,我们可以负担信任这样的保证吗?
一些政客也传播了良好的诺言有巨大的信念,反映来自科技公司的消息。
从实际专家那里获取您的新闻,直接进入收件箱。 注册我们的每日新闻通讯从政治和商业到艺术和科学,英国最新的新闻和研究介绍了所有对话。
我目前的研究在一本名为The The的新书中得到了解释好AI的神话。这项研究表明,供养我们的AI系统的数据是有偏见的,因为它经常过于占人口和主流态度的特权部分。
这意味着任何不包含边缘人或少数族裔的数据的AI产品都可能会歧视它们。这解释了为什么AI系统继续与种族主义例如,年龄歧视和各种形式的性别歧视。
这项技术影响我们日常生活的速度使得很难正确评估后果。对AI的工作方式更为批评的AI方法并不能为科技公司提供良好的营销。
电力结构
目前,关于AI及其能力的积极思想正在主导AI创新的各个方面。这部分由国家利益和科技公司的利润率。
这些与技术多数人所持有的权力结构有关,在某些地方对政府的影响。关系尽管唐纳德·特朗普(Donald Trump)和埃隆·马斯克(Elon Musk)最近发生了酸味,但它是一种生动的体现。
因此,公众处于一个明显的分层自上而下系统的接收端,从大型科技公司及其政府支持者到用户。这样,我们就可以消费,对技术的使用方式几乎没有影响。因此,这种积极的AI意识形态主要是关于金钱和力量。
就目前而言,没有一个具有统一宣言的全球运动,可以将社会汇集在一起,以利用人工智能为人们的受益,或维护我们的隐私权。这``一个独自一人的权利在美国宪法和国际人权法中编纂,是我论点的核心支柱。这也几乎完全没有大型科技公司对AI的保证。
但是,该技术的一些风险已经很明显。一个数据库汇编了世界各地律师使用AI的案件,确定了157个案件,其中虚假的AI生成的信息称为幻觉。
某些形式的AI也可以操纵勒索和勒索,或创建蓝图谋杀和恐怖主义。
科技公司需要使用代表所有人,而不仅仅是特权的数据来对算法进行编程,以减少歧视。这样,公众就不会被迫达成共识,即在没有社会的适当监督的情况下,AI将解决我们许多问题。创造性,道德和直觉上思考的能力之间的这种区别可能是人与机器之间最根本的断层线。
由普通百姓质疑好AI神话。AI的关键方法应该有助于创建更具社会相关和负责任的技术,这是一种技术已经试用了在酷刑场景中,正如本书所讨论的那样。
AI系统在每项任务中都会超越我们的地步将是十年左右的时间。同时,需要对我们对隐私权的这种攻击有抵抗力,并更加认识到AI的运作方式。