作者:Bhaskar Chakravorti
在最初100天的任何美国总统为执行订单(EOS)的新记录中创下了新的记录,您可能会因为缺少EO 14277而被原谅。推进美国青年的人工智能教育,这是在EO恢复美国海鲜竞争力之后的。在特朗普总统的大洪水中,14277年的命令距离旨在关闭教育部的命令距离命令34个命令。幸运的是,学生可能已经熟练了关于如何使用AI工具。可能需要更深入的教育是建立对AI如何为捍卫人类尊严,正义和劳动构成新挑战的认识在他的担忧中注意到。
为了减轻即将到来的教育部门,以减轻有关AIS新挑战的巨大教学负担,“我已经制定了一个10分的课程计划,每个点都有一个潜在的补救措施。
世界的尽头比您想象的要近:直到2023年3月,世界上许多最高的AI专家都在呼吁暂停AI开发。他们的担心与对社会和人类的严重风险有关。 最大的调查在AI和机器学习专家中,有48%的人认为自己是AI网络的乐观主义者,因为AI的风险不可接受,因此人类灭绝的可能性为5%。尽管人们可以避免夸张的烦恼,但不良结果的几率现在变得更糟:尽管没有客观证明AI已经变得更加安全,但从2023年3月开始,AI DOMERS却大多自欺欺人。实际上,随着新兴的创新(例如可以做出独立决策,也许是自主触发对抗的AI代理),它可能变得更加危险。在特朗普政府下,AI安全法规的希望减少了,因为它优先考虑以最小的摩擦加速AI;美国的言论反对其与AI相关的主要反对者中国,变得更加猛烈。
因此,现在是时候按照2024年5月在首尔承诺的界限来建立杀死开关作为行业范围的标准。自愿参加â€驱散AI远离自动攻击,并允许系统在灾难时自动驶下。
为持续的AI信托差距做准备:尽管AI模型和工具变得更好,但用户对AI公司的信任堕落,创建一个乐观差距在开发人员和普通用户之间。不信任源于许多原因。
首先,大型语言模型经常“幻觉”并以虚假的(通常是奇异的信息)返回。主要AI模型的幻觉率从0.7至29.9%根据幻觉排行榜,4月29日。变得更糟当AI使用推理系统时。
其次,AI容易加强先前存在的偏见:图像发生器会播放种族和性别刻板印象,预测算法可能会给那些已经处于不利地位的人带来障碍。
第三,关于算法的开发,培训数据的来源和质量或开发团队的构成,AI模型均透明。医学成像显示了一个令人信服的难题,因为这是黑盒子的特征:虽然神经网络擅长检测患者扫描中的疾病标志物,但它们可能无法提供明确的推理。
第四,AI的黑匣子自然也加剧了人们对个人数据保护,隐私以及是否有道德框架的担忧。ai aided面部识别技术和电子监视,或数字监狱,破坏了人权。
一种补救措施是AI开发人员可以投资于改善其产品可信度的技术,例如数据增强技术, 建筑反馈循环,并使用指标来测试培训数据集中的偏差,例如 不同的影响<衡量群体或群体之间的结果差异 均衡的几率确保模型的预测在不同受保护的群体中同样准确。
预期采用不均匀:虽然Chatgpt著名地打破了采用技术的历史记录,但收养已有不均匀尽管嗡嗡作响和明显的好处。公司费用管理公司RAMP,成立尽管AI支出增长,但只有大约三分之一的公司为AI工具付费。与互联网或社交媒体(以换取数据和广告曝光)的自由使用不同,AI工具的定价可能会有所不同,并且会导致不同级别的访问级别。AI信托差距的持久性将增强使用和能力不均匀,可能导致AI Haves和Nots。
为了解决这个问题,雇主可以火车工人可以检测不可靠的AI生成的信息并成为该技术的更好用户,从而提高了使用它的舒适度。
不假定生产力革命:根据麦肯锡在2040年,生成的AI每年可以将劳动力生产率增长提高0.1英寸0.6%。将其与所有其他技术相结合,每年可能增加0.5级3.4个百分点,以增长生产率的增长。要考虑这些预测如何进行,很自然地查看AI的前辈互联网和相关的数字技术进行比较。不幸的是,这个不建议生产力革命即将到来。当引入早期数字技术时,美国工人的生产率增长下降。
更糟糕的是,牛津学者让·保罗·卡瓦略(Jean-Paul Carvalho)认为,将各种认知任务外包给人工智能破坏人类的生产力。美国青少年调查,十分之七的人使用了生成的AI工具,53%的人将其用于家庭作业帮助,这使老师担心批判性思维下降和一个认知技能的恶化。
教师可以通过积极使用AI来建立好奇心和批判性思维来将技术整合到他们的教学法中。一个世界银行研究在尼日利亚的一项课后课程中,教师指导的GPT-4导师发现,使用相当于1.5至2年的AI辅导员,商务与统一的学校。”
AI发动机的气体较低:互联网本身可能太小了,无法提供维持大型语言模型需求所需的数据:即使使用了所有可用的高质量语言和图像数据,至少也可能有短缺10万亿至20万亿代币培训下一代GPT,因为培训数据供应已经用完。即使有当前使用的数据,也有关于知识产权的未决问题和诉讼。
但是,有新来源和培训过程例如,该模型可以转向AI生成的合成数据,这些数据集潜入深奥主题,并更深入地探索专业文献,例如,重新培养和自我反射现有数据集。必须谨慎地应用这样的技术:例如,当模型在AI本身生成的数据上重新训练时,它们必须注意避免模型崩溃,在每种培训的每次迭代都依赖于早期版本的情况下,信息质量降低了。
人工智能行业有被破坏的风险:该技术开发的投资水平是前所未有的,估计在2024年为2,300亿美元,更今年。同时,专有的AI模型都花在了大部分钱上风险未分化。同时,资源少得多的挑战者(例如DeepSeek)也取得了类似的性能,触发了多个破坏周期在该行业中,较低的成本竞争对手以足够良好的绩效稳步接管了市场,并使现有资产拥有滞留的资产,包括基础设施和颠覆商业模式的过度投资。
正如我在早期文章为了对外政策,至少有一个主要参与者可以停止升级和部署足够好的技术。也就是说,它的目的不是要解决它可以解决的最困难的数字问题问题,而是可以解决最大数量的问题的广度。
期望零散的AI:AI开发的地理已经散布在美国AI和中国人工智能之间的差异。在拜登政府衰落的日子里,所有其他国家都分为三层,限制他们可以使用最先进的美国AI芯片。当特朗普政府计划废除分层的出口控件时,猜测层次将被与各个国家的双边谈判所取代,这将产生更大的分散。同时,各国正在推动主权AI计划促进他们的国家竞争力和安全目标。
尽管多边主义总是在更广泛的问题上传达,但在新兴的多用途技术(例如AI)的背景下,追求它仍然至关重要。这欧洲委员会的框架公约关于AI和人权,民主和2024年5月通过的法治是第一项具有法律约束力的国际AI条约。它旨在建立AI治理的共同标准,并可能是进一步全球协调的起点。
期望更多的收入不平等:毫无疑问,AI会影响将来的工作。大约60%发达国家的就业机会分别暴露于AI,新兴市场和低收入国家的40%和26%。虽然并非所有暴露的工作都会流离失所,但毫无疑问,许多雇主将AI视为一种方法 修剪他们的员工。根据诺贝尔奖获得者和达伦·阿克莫格(Daron Acemoglu)教授的说法5%在接下来的十年中,AI执行的所有任务中,该技术将迎来新的新任务收入不平等。分析师预计收入更高的工人将是AI的最大受益者,并将经历工资的上升,而从事更多常规知识角色的人将遭受收入的损失。
Acemoglu的马萨诸塞州技术研究所David Autor建议AI可以收入差距狭窄通过向较少报酬的人提供技能和新能力。等组织 AI4ALL和 AI技能联盟,它为各种用户提供了AI工具的动手经验,以及GoogleSâsâs AI机会基金,微软 非营利组织的AI技能收集和万事达卡 比赛和奖项,可以帮助AI在某些领域使用更具包容性和狭窄的收入差距。
提防环境权衡:人工智能加速正在推动能源消耗,导致全球能源贫困,并带来负面的气候影响。数据中心的能耗预计将从35增长128%到2026年,即使有了预期的新能源基础设施投资,需求仍将继续提高供应。数据中心也是水密集型的,在十大耗水美国的商业行业。尽管AI本身可以通过告知有效的能源利用来提供帮助,但由于较贫穷的人群中的能源消耗数据很少,因此这些好处均匀分布。
持续的创新仍然希望。人工智能开发和使用变得越来越能节能:NVIDIA正在发展更有效的GPU在使用少25倍的能源的同时,这种性能的能量减少了30倍,而Google的DeepMind AI可以减少数据中心的冷却费用40%。
当我们等待人工通用情报时,仍有立即部署人工智能的机会:人工智能中最先进的研发是人工通用智能(AGI),AI在所有认知领域都能实现并超过人类水平的能力。AI公司的领导人期望Agi在这里两年三年或者五十年,而外部分析师更多怀疑时间表。
同时,AI有直接的申请,尤其是在发展中国家和低生产率部门,例如农业,医疗保健,教育和金融,这对大多数人的生活都有最大的影响。在这里,即使是少量可用的AI信息,也可以引入大量的效率和附加值。这样的小ai已经在这里AI辅助医疗保健墨西哥或森林监测系统例如,在巴西。我们不需要等待改变游戏规则的发现的缺失是全球关注和针对基本AI可以满足许多未满足需求的资源。