谷歌前首席执行官、现任国家人工智能安全委员会主席埃里克·施密特对人工智能(AI)的潜在危险发出了严厉警告。11 月 28 日,施密特在 Axios 主办的峰会上发表讲话,对人工智能及其不断增长的能力缺乏保障措施表示严重担忧。他的信息很明确:世界对这种快速发展的技术带来的风险毫无准备。
“我们没有时间等待”
施密特将人工智能的发展与原子弹进行了令人不寒而栗的比较。“继长崎和广岛之后,禁止核试验条约的制定花了 18 年时间,”施密特说。“我们今天没有这样的时间。”他预测,在五到十年内,人工智能可能会达到可能对人类构成严重威胁的自主水平。
他最坏的情况是什么?人工智能系统获得做出独立决策的能力,有可能获得武器或其他危险工具。施密特设想了一个机器可能欺骗人类或以违背我们利益的方式行事的世界,从而引发道德和存在问题。
呼吁全球监管
为了应对这种迫在眉睫的危险,施密特主张建立一个类似于政府间气候变化专门委员会(IPCC)的国际组织。这样一个机构将努力指导政策制定者应对以下风险和机遇:人工智能。他认为,如果没有协调的监督,人工智能不受控制的增长可能会导致灾难性后果。
对人工智能风险的不同看法
并非所有人都像施密特那样感到惊慌。著名人工智能研究员兼 Meta 总监 Yann LeCun 在 10 月份接受采访时淡化了人工智能的存在风险金融时报。“关于存在风险的争论还为时过早,”LeCun 说,并指出当前的人工智能系统缺乏复杂性,甚至无法与猫的学习能力相匹配。
这种分歧凸显了问题的复杂性。一方面,人工智能怀疑论者认为,鉴于该技术目前的局限性,对机器失控的担忧有些过分。另一方面,施密特等人士警告说,如果未能为潜在风险做好准备,可能会使人类容易遭受不可预见的后果。
取得平衡
尽管观点各异,但许多专家都认为事实介于这两个极端之间。人工智能可能尚未构成直接的生存威胁,但其快速发展值得关注。从自动驾驶汽车到医疗诊断,人工智能融入日常生活凸显了道德准则和强有力的安全措施的必要性。
施密特的警告是一个提醒:技术其发展速度快于社会的监管能力。无论人工智能是否达到施密特设想的惊人高度,积极的规划和全球合作对于确保其收益大于风险都至关重要。
类似的帖子
Brian 专注于突发新闻和重大进展,提供及时、准确的报告和深入的分析。