马克·扎克伯格的最近的决定从 Meta 平台(包括 Facebook、Instagram 和 Threads)删除事实核查程序的举措引发了激烈讨论辩论。批评人士认为,这可能会破坏抗击疫情的努力误传并保持社交媒体平台上的可信度。
然而,尽管这一举措备受关注,但一个更为深刻的挑战正在迫近。处理和生成类人语言的人工智能 (AI) 以及旨在读懂人脑,不仅有可能重塑在线话语,而且有可能重塑我们对真理和沟通的基本理解。
事实核查人员长期以来在遏制各种平台上的错误信息方面发挥着重要作用,特别是在政治、公共卫生和气候变化等话题上。通过验证声明并提供背景信息,他们帮助平台保持了一定程度的问责制。
因此,Meta 采取行动将其替换为社区驱动的笔记与埃隆·马斯克在 X(以前的 Twitter)上的做法类似,引起了人们的担忧,这是可以理解的。许多专家认为取消事实核查员的决定是后退一步,认为将内容审核委托给用户可能会放大回声室并导致未经检查的虚假信息的传播。
阅读更多:Meta 正在放弃事实核查——这对于打击错误信息来说并不是一个好兆头
数十亿人每个月全世界都有人使用 Meta 的各种平台,因此它们具有巨大的影响力。放松保障措施可能会加剧社会两极分化并破坏对数字通信的信任。
尽管关于事实核查的争论占据了头条新闻,但还有更广阔的前景。OpenAI 的 ChatGPT 或 Google 的 Gemini 等先进人工智能模型代表了自然语言理解方面的重大进步。这些系统可以生成连贯的、上下文相关的文本并回答复杂的问题。他们甚至可以进行细致入微的对话。这种令人信服地复制人类交流的能力带来了前所未有的挑战。
人工智能生成的内容模糊了人类和机器作者之间的界限。这引发了有关作者身份、原创性和责任感的道德问题。推动有用创新的工具也可以被武器化,以产生复杂的虚假信息活动或操纵公众舆论。
其他新兴技术加剧了这些风险。受人类认知的启发,神经网络模仿大脑处理语言的方式。AI 和人工智能之间的这种交集神经技术强调了理解和利用人类思想的潜力。
影响
神经技术是一种读取大脑并与大脑互动的工具。其目标是了解我们的思维方式。与人工智能一样,它突破了机器的能力极限。这两个领域以强有力的方式重叠。
例如,加州初创公司 REMspace构建一个工具记录梦境的。它使用脑机接口,让人们通过清醒梦进行交流。虽然这听起来令人兴奋,但它也引发了关于心理隐私和对我们自己思想的控制的问题。
同时,Meta 的投资神经技术及其人工智能企业也令人担忧。其他几家全球性公司探索神经技术也。但是如何使用来自大脑活动或语言模式的数据呢?哪些保障措施可以防止滥用?
阅读更多:大脑是宇宙中最复杂的物体。这是科学家寻求解码并解读人们思想的故事
如果人工智能系统可以通过语言来预测或模拟人类的思想,那么外部交流和内部认知之间的界限就开始变得模糊。这些进步可能会削弱信任,使人们遭受剥削,并重塑我们对沟通和隐私的看法。
研究还表明尽管此类技术可以增强学习能力,但也可能会扼杀创造力和自律性,尤其是儿童的创造力和自律性。
Meta 取消事实核查员的决定值得仔细审查,但这只是更大挑战的一部分。人工智能和神经技术正在迫使我们重新思考如何使用语言、表达思想甚至理解周围的世界。我们如何确保这些工具为人类服务而不是对其进行利用?
缺乏管理这些工具的规则令人震惊。为了保护基本人权,我们需要强有力的立法以及不同行业和政府之间的合作。实现这种平衡至关重要。沟通中真相和信任的未来取决于我们以警惕和远见应对这些挑战的能力。