作者:Fatima Kemelova
编者注:《阿斯塔纳时报》继续推出读者文章专题版块。作为一个重视多元化观点和有意义对话的平台,我们相信这个新版块将为读者提供空间,让他们就对他们和 AT 受众重要的各种主题分享他们的想法和见解。
人工智能(AI)是否会成为人类生存威胁的问题仍然悬而未决。尽管没有明确的答案,但越来越多的专家和科学家对智能机器开发相关的潜在风险表示担忧。
一些人认为,人工智能并不像最初看起来那样构成重大的生存威胁。例如,ChatGPT 等大型语言模型基于经过训练的算法和指令进行操作。他们没有能力独立开发新技能,并且是受控、可预测和安全的系统。这种观点提供了乐观的前景。
然而,人工智能系统的快速发展加剧了之前的担忧。如果管理不当,人工智能可能会自主进化,超越人类智能,并可能对人类产生敌意。在最坏的情况下,人工智能可能会将人类视为有害物种并试图消灭我们。这是较为悲观的观点。
科技领导者也在努力解决这个问题:“人工智能是真正的威胁吗?”他们的答案各不相同。人工智能对人类构成威胁的想法正在减缓其开发和使用,这延迟了寻找需要迅速采取行动的重要问题的解决方案。随着人工智能模型变得越来越复杂,它们开始应对当前不可预测的挑战。
有人担心大型人工智能模型可能会获得思考和规划等新能力,从而对人类构成威胁。然而,对现有人工智能模型的彻底检查表明,它们只能在特定领域内充当有用的助手。他们无法超越工程师提供的指示,也无法在没有外部输入的情况下独立学习新技能。换句话说,他们没有能力独立发现和掌握超出其狭隘专业领域的新知识。
9月29日,人工智能技术发展的领导者西方三大司法管辖区签署了一项监管人工智能系统的协议。签署该公约的国家承诺遵守其所有要求。企业也支持采用该协议,因为不同国家的知识产权法律对该技术的发展构成了障碍。
该公约由美国、欧盟和英国签署,在监管公共和私营部门的人工智能系统时优先考虑人权和民主价值观。该协议由加拿大、以色列、日本和澳大利亚等 50 多个国家历时两年制定,规定了签署国对人工智能系统造成的任何有害或歧视性结果的责任要求。它要求人工智能系统尊重平等和隐私权。
这是同类协议中第一个具有法律约束力的协议,将各国聚集在一起,表明国际社会正在为应对人工智能带来的挑战做好准备。此次大会体现了国际社会对人工智能技术发展的共同愿景。联合创新需要尊重普世价值,促进人权、民主和法治。
然而,监管人工智能并不总是那么简单。欧盟拟议的人工智能法规于上个月生效,在科技界引发了相当大的争议。例如,Meta 等公司拒绝在欧盟市场发布其最新产品 Llama。
尽管面临挑战,人工智能的潜在危害仍不容忽视。如果被滥用,它产生假新闻、自动化网络攻击甚至扰乱就业市场的能力就会带来真正的威胁。自主武器和人工智能驱动的监视系统可能会导致重大的道德问题,而随着人工智能收集和分析大量个人数据,侵犯隐私的可能性也变得更大。如果不加以控制,人工智能还可能做出人类无法理解的决定,引发人们对公平性和问责制的怀疑。
这些风险清楚地表明,严格的监管至关重要——不仅是为了防止机器本身受到损害,而且是为了防止创建和操作机器的个人滥用。人工智能本身并不是危险。真正的威胁在于它可能被人类不负责任或恶意地使用。
关于人工智能风险的持续争论不应阻碍其发展。相反,它应该推动我们走向更智能、更道德的创新。谨慎与进步之间的平衡对于确保人工智能充分发挥潜力而不将人类置于危险之中至关重要。
作者是纳扎尔巴耶夫大学公共政策研究生院研究生贝吉姆·库特姆(Begim Kutym)。
免责声明:本文中表达的观点和意见仅代表作者的观点,并不一定反映《阿斯塔纳时报》的立场。