在 Google 搜索中使用脏话可以阻止烦人的人工智能概述弹出。有些应用程序可以让你关闭它们的人工智能。
您可以选择不使用 ChatGPT、避免使用人工智能软件、拒绝与聊天机器人交谈。你可以忽略唐纳德·特朗普发布深度伪造品,并躲避任何东西AI演员蒂莉在其中。
但你应该吗?你能完全避免人工智能吗?
随着人工智能应用的广泛传播,人们对其危险性的担忧以及对其无处不在的抵制也随之增加。
人工智能管理和治理专家 Kobi Leins 博士在医生想要使用人工智能时选择退出。
她告诉专家,她不想在孩子的预约中使用人工智能转录软件,但被告知这是必要的,因为专家“时间不够”,如果她不想使用它,她就需要去其他地方。
– 你无法单独抵抗。此外还存在系统性阻力。业界强烈要求在合理范围之外使用这些工具,”她说。
人工智能在哪里?
人工智能正在通过数字系统无情地传播。
它嵌入在 ChatGPT、Google 的 AI 概述以及埃隆·马斯克 (Elon Musk) 的创作 Grok 等应用程序中,超级纳粹聊天机器人。智能手机、社交媒体和导航设备都在使用它。
它还渗透到客户服务、财务系统、在线约会应用程序中,并被用于评估简历和工作申请、租赁申请,甚至法律案件。
越来越多医疗保健系统的一部分,减轻医生的行政负担并帮助识别疾病。
一个墨尔本大学全球研究4 月份发布的调查显示,一半的澳大利亚人定期或半定期使用人工智能,但只有 36% 的人信任它。
阳光海岸大学人为因素和社会技术系统中心副主任保罗·萨蒙教授表示,这种情况越来越难以避免。
“在工作环境中,常常面临着参与其中的压力,”他说。
“你要么感觉自己被抛在了后面,要么被告知你被抛在了后面。”
我应该避免使用人工智能吗?
隐私泄露、歧视、虚假或误导性信息、诈骗和欺诈中的恶意使用、人力丧失、缺乏透明度等等只是麻省理工学院 1,600 种风险中的一部分人工智能风险数据库。
它警告人工智能存在“追求与人类目标或价值观相冲突的自身目标”以及“拥有危险能力”的风险。
Good Ancestors 慈善机构的首席执行官兼澳大利亚人人工智能安全协调员格雷格·萨德勒 (Greg Sadler) 表示,他经常提到该数据库,虽然人工智能可能很有用,但“当你不信任人工智能的输出,或者担心它拥有信息时,你绝对不想使用人工智能”。
除了所有这些风险之外,人工智能还存在能源成本。Google 的排放量上涨超过51%至少部分归功于支撑其人工智能的数据中心的电力消耗。
国际能源署估计,到 2026 年,数据中心的电力消耗可能会比 2022 年的水平翻一番,而分析显示,到 2030 年,数据中心的用电量将占全球发电量的 4.5%。
如何避免使用人工智能?
人工智能概述有一个“脏话触发器”。如果你问谷歌“什么是人工智能?”,它的 Gemini AI 界面会给你一个固定的(有时是不准确的)答案。它的功能是“答案引擎”,而不是“搜索引擎”。
但如果你问“人工智能到底是什么?”,你将得到直接的搜索结果,链接到其他页面。
有多种浏览器扩展可以阻止人工智能网站、图像和内容。
如果您反复说 – 则可以绕过某些聊天机器人并与人交谈与人交谈– 使用“紧急”和“紧急”一词,或者根据本报告, –布朗克芒日– – 一种风靡欧洲的甜点。James Jin Kang,越南皇家墨尔本理工大学计算机科学高级讲师,
在对话中写道完全没有它的生活意味着“远离现代生活的大部分”。“为什么不直接添加一个终止开关呢?”他问道。
他说,问题在于它已经深深地融入了我们的生活,以至于“不再是我们可以简单关闭的东西”。
——因此,随着人工智能进一步蔓延到我们生活的各个角落,我们必须迫切地问:我们还有拒绝的自由吗?
“问题不在于我们能否与人工智能共存,而在于我们是否仍然有权在没有人工智能的情况下生活,以免为时已晚。”
人工智能的未来是什么?
包括澳大利亚在内的世界各国政府都在努力跟上人工智能的发展步伐,了解它的含义、它的承诺以及如何管理它。
随着大型科技公司寻求获取新闻和书籍等材料来训练人工智能模型,联邦政府处于压力之下揭示其计划如何监管该技术。
对话有询问五位专家人工智能的发展方向。
五分之三的人表示人工智能不会构成生存风险。
在那些认为不会的人中,昆士兰科技大学的 Aaron J Snoswell 表示,这是“变革性的”,风险不是人工智能变得太聪明,而是“人类在如何构建和部署这些工具方面做出了错误的选择”。
CSIRO 的 Sarah Vivienne Bentley 同意,它的好坏取决于它的用户,而墨尔本大学的 Simon Coghlan 表示,尽管存在担忧和炒作,但“几乎没有证据表明能够造成全球破坏的超级人工智能很快就会出现”。
澳大利亚天主教大学的纽莎·沙菲亚巴迪 (Niusha Shafiabady) 则更为严肃。她说,今天的系统容量有限,但它们正在获得能力,使滥用更有可能大规模发生,并构成生存威胁。
澳大利亚托伦斯大学的人工智能教授 Seyedali Mirjalili 表示,他“更担心人类会利用人工智能(通过军事化)摧毁文明,而不是人工智能通过接管来自主地摧毁文明”。
莱因斯说,她在有意义的地方使用人工智能工具,但不是到处都是。
– 我知道它对环境有何影响,而且我喜欢写作。我有博士学位,我通过写作来思考,”她说。
– 这是关于什么是基于证据且有意义的。它不会陷入炒作,也不会陷入厄运。
“我认为我们足够复杂和聪明,可以同时持有这两种想法——这些工具可以是积极的,也可以是消极的。”