作者:Lee Chong Ming
今年,我聆听并采访了 50 多位科技领袖,从经营价值数万亿美元公司的高管到将未来押注于人工智能的年轻创始人。
在董事会、会议和播客采访中,构建人工智能未来的人们不断回归同样的四个主题:
这是我最常听到的一句话。英伟达首席执行官黄仁勋今年已经说过很多次了。
“每项工作都会立即受到影响。这是毫无疑问的。你不会因为人工智能而失去工作,但你会因为使用人工智能的人而失去工作,”他在 5 月份的米尔肯研究所全球会议上说道。
其他科技领袖也赞同他的观点,一些人表示,年轻员工实际上可能具有优势,因为他们已经习惯使用人工智能工具。
OpenAI 首席执行官山姆·奥尔特曼8 月份,Cleo Abram 在 YouTube 的“Huge Conversations”节目中表示,虽然人工智能将不可避免地消灭一些角色,但大学毕业生更有能力适应。
奥尔特曼说:“如果我现在 22 岁,大学毕业,我会觉得自己是历史上最幸运的孩子。”他补充说,他更担心的是,随着人工智能重塑工作方式,年长的工人将如何应对。
李飞飞这位被称为“人工智能教母”的斯坦福大学教授在本月早些时候发表的《蒂姆·费里斯秀》采访中表示,对人工智能的抵制是一个破坏性的因素。她表示,她不会在她的初创公司 World Labs 中雇用拒绝使用人工智能工具的工程师。
这种转变已经体现在日常角色中。一位会计师和一位人力资源专业人士告诉我,他们使用人工智能工具,包括氛围编码,以提高他们的技能并保持相关性。
我在技术领导者中听到的另一个共识是,人工智能使软技能更有价值。
Salesforce 首席期货官,彼得·施瓦茨,在五月份的一次采访中告诉我,“最重要的技能是同理心,与他人合作”,而不是编码知识。
“父母问我我的孩子应该学习什么,他们应该成为程序员吗?我说,‘学习如何与他人合作,’”他说。
LinkedIn 亚太区首席经济学家 Chua Pei Ying 在 7 月份也告诉我,她认为软技能对于经验丰富的工人和应届毕业生来说,沟通和协作变得越来越重要。
随着人工智能使我们的部分工作实现自动化并使团队变得更加精简,工作中的人力部分开始变得更加重要。
随着时间的推移,人工智能未来的风险开始变得更大、更真实。科技领袖越来越多地谈论追逐通用人工智能(AGI),并最终实现超级智能。
AGI是指在一系列任务中可以与人类智能相匹配的人工智能系统,而超级智能则描述了超越人类能力的系统。
Altman 在 9 月份表示,社会需要为超级智能做好准备,超级智能可能会在 2030 年到来。马克·扎克伯格 (Mark Zuckerberg) 在 6 月份建立了 Meta 的超级智能实验室,并表示该公司正在推动超级智能的发展。
这些领导者不想错过人工智能时刻。扎克伯格在 9 月份强调了这一紧迫性,称他宁愿冒“浪费数千亿美元”的风险,也不愿被超级智能迟到。
Databricks 首席执行官 Ali Ghodsi 等一些技术领袖认为,该行业已经实现了 AGI。其他人则更加谨慎。谷歌 DeepMind 联合创始人 Demis Hassabis 在 4 月份表示,AGI 可能“在未来 5 到 10 年内”到来。
即使技术领导者在时间表上存在分歧,他们也倾向于在一件事上达成一致:人工智能的进步正在加速。
作为一名用户,我从外部看到了这种加速。新工具正在以令人眼花缭乱的速度推出 – ChatGPT 补充道购物功能和图像生成到中国的“AGI相机。”
一月份感觉神奇的事情现在感觉很正常。
许多领导人还回到了人工智能加速发展过程中对人类控制的需求。
微软人工智能负责人穆斯塔法·苏莱曼表示,超级智能必须支持人类能动性,而不是凌驾于人类能动性之上。他在11月出版的《硅谷女孩播客》一集中说道 那个 他的团队正在“试图建立一个人文主义的超级智能”,并警告说,比人类更聪明的系统将难以遏制或符合人类的利益。
Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 直言不讳地谈到了人工智能如果被滥用所带来的风险。
阿莫迪在《纽约时报》二月份发表的“硬分叉”一集中表示,虽然先进的人工智能可以降低知识工作的障碍,但风险与回报一起扩大。
“如果你看看我们负责任的扩展政策,就会发现它只不过是人工智能、自主性和 CBRN——化学、生物、放射性、核能,”阿莫迪说。
“这是人工智能自主性的严重滥用,可能对数百万人的生命构成威胁,”他补充道。
经常被称为“人工智能教父”的杰弗里·辛顿 (Geoffrey Hinton) 在 8 月份表示,随着人工智能系统超越人类智能,保护人类成为核心挑战。
辛顿在拉斯维加斯举行的 Ai4 会议上表示:“我们必须做到这一点,以便当他们比我们更强大、比我们更聪明时,他们仍然关心我们。”