根据AI从业者和思想家(包括爵士)的公开信,如果技术不负责任地开发技术,能够受到感情或自我意识的人工智能系统有受到伤害的风险斯蒂芬·弗莱。
超过100位专家提出了五项对AI意识进行负责任研究的原则,因为快速进步引起关注这样的系统可以被视为有意义的。
原则包括优先考虑理解和评估AIS的意识的研究防止虐待和痛苦。
其他原则是:设定开发有意识的AI系统的约束;采取分阶段的方法来开发此类系统;与公众分享发现;避免对创建有意识的AI产生误导或过度自信的陈述。
这封信的签署者包括伦敦大学的安东尼·芬克斯坦爵士,以及亚马逊和广告集团WPP等公司的AI专业人士。
它已与新研究论文概述了原则。该论文认为,有意识的AI系统可以在不久的将来建立,或者至少会给到有意识的印象。
研究人员说,可能是可以创建大量有意识的系统并造成痛苦的情况。”他补充说,如果强大的AI系统能够重现自己大量的新生物应得到道德考虑。
该论文由牛津大学的帕特里克·巴林(Patrick Butlin)和雅典经济学大学的西奥多罗斯·拉帕斯(Theodoros Lappas)撰写,并补充说,即使不打算创建有意识的系统的公司也需要指导,以防无意中创造有意识的实体。
它承认,与定义AI系统中的意识以及是否可能存在明显的不确定性和分歧,这是否有可能,但说这是一个我们不能忽略的问题。
本文提出的其他问题集中在AI系统中,如果将其定义为一个道德患者,那么它本身就在道德上,就其本身而言是重要的。。在这种情况下,它质疑销毁AI是否可以与杀死动物相提并论。
该论文发表在《人工智能研究杂志》上,还警告说,错误地认为,随着误导性的努力来促进其福利,AI系统已经有意识可能会导致政治能量浪费。
该论文和信件是由WPP部分资助的研究组织Couscium组织的,由WPP首席AI官Daniel Hulme共同创立。
去年高级学者小组认为到2035年,某些AI系统将具有意识和道德意义的现实可能性。
2023年,Google的AI计划的负责人,诺贝尔奖获得者Demis Hassabis爵士说,AI Systems肯定不是目前的感觉,而是将来可能是。
哲学家尚无对意识的定义定义,但是如果我们的意思是有点自我意识,这些事情,我认为有一天可能有可能。”接受美国广播公司CBS的采访。