现金MACANAYA/UNSPLASH
政治家是否应该确保AI帮助我们殖民银河系,或者保护人们免受大型技术的过度侵害?前者听起来更有趣,但这并不是优先事项。
在硅谷集合中,超级智能AI被视为一种快速接近的必然性,技术首席执行官承诺2030年代将有一个黄金时代的进步。这种态度已经到达了威斯敏斯特和华盛顿,智囊团告诉政客准备利用AI和特朗普政府支持的力量Openai的5000亿新元超能AI数据中心的倡议。
这听起来都令人兴奋,但是作为超级智能的伟大和良好梦想,我们称之为愚蠢的情报正在在这里和现在造成问题。人工智能行业面临的问题之一是,是否介绍了大量互联网 - 培训AI的必要部分是版权侵权。
双方都有合理的论点。支持者说,就像你侵犯你一样新科学家仅通过阅读这些单词,就应该对其进行相同的对待。同时,批评者现在包括娱乐巨头迪斯尼和环球公司起诉AI公司Midjourney从达斯·维达(Darth Vader)到奴才的所有图像。只有立法才能解决此事。
我们正朝着一个世界上可以用小人类的监督杀死的世界
乌克兰战场构成了另一个棘手的人工智能问题。虽然Openai的Sam Altman表示,他担心有一天的超级智能AI可能会杀死我们所有人,但致命的愚蠢情报已经在这里。俄罗斯 - 乌克兰战争正在驱使我们走向一个很快的世界机器可以用小人的监督杀死。
政客们完全未能应对这种威胁。联合国在2014年举行了第一次有关规范“杀手机器人”的会议。十年后,我们没有更接近限制其使用。如果我们的领导人付出时间的时间,希望超级智能最终能解决他们的问题,那么他们会误会。
主题: