诚实,无付费新闻很少见。请支持我们大胆的独立新闻业捐赠任何大小。
只要对AI进行了研究,就有AI炒作。在最常见的关于研究领域发展的叙述中,数学家约翰·麦卡锡(John McCarthy)和计算机科学家马文·明斯基(Marvin Minsky)于1956年在新罕布什尔州汉诺威市的达特茅斯学院(Dartmouth College)组织了一个夏季的研讨会,讨论了围绕思想机器的一组方法。人工智能一词归因于麦卡锡(McCarthy),他试图找到一个适合涉及各种现有知识社区的研讨会的名字。他还试图找到一种方法来排除诺伯特·维纳(Norbert Wiener)的先锋,即控制论控制学的先驱,该领域与由于个人差异而与机器的沟通和控制有关。
讲述起源的故事的方式是,明斯基和麦卡锡召集了达特茅斯的两个月工作组,由十名数学家,物理学家和工程师组成,这将在这一研究领域中取得重大进步。就像今天一样,人工智能一词没有太多连贯性。它确实包括类似于当今的神经网络(在这些早期文档中也称为神经元网或神经网),但也涵盖了包括自动计算机和人类计算机语言界面(我们今天认为是编程语言)的主题。
从根本上讲,这个新领域的先驱与将功率和控制动力转化为机器可读配方有关。麦卡锡(McCarthy),明斯基(Minsky),赫伯特·西蒙(Herbert Simon)(政治科学家,经济学家,计算机科学家和最终的诺贝尔奖获得者)和弗兰克·罗森布拉特(Frank Rosenblatt)(神经网络隐喻的创始人之一)关注开发可以用于行政指导的工具,并最终使用。在一个在冷战中为美国至高无上的战斗的环境,在各方面都在军事,技术,工程和意识形态上进行 - 这些人试图在国防机构的眼中获得青睐和资助,试图淘汰苏联。他们依靠巨大的主张,几乎没有经验支持,不良的引用实践以及移动门柱来证明其项目是合理的,这些项目在美国冷战中发现了购买。这些是我们从当今的AI助推器中看到的一系列实践,尽管除了政府国防合同外,它们现在主要在追求市场估值。
不要错过一个节拍
获取最新新闻和发人深省的分析真相。
原始AI炒作剧本中的第一步是与苏联战斗。第二个是说,计算机很可能与人类的能力相匹配,认为人类并不是那么复杂。1956年,明斯基在一篇有影响力的论文中声称,[h] uman Beings是某些非常复杂的机器的实例。
在1960年代后期,马萨诸塞州理工学院教授的德国人约瑟夫·韦森鲍姆(Joseph Weizenbaum)和明斯基(Minsky)的当代人对人们归因于自动化系统的速度感到震惊。Weizenbaum开发了一个名为Eliza的聊天机器人,以乔治·伯纳德·肖(George Bernard Shaw)的佩格马利翁(George Bernard Shaw)的工人阶级角色命名,他学会了模仿高年级的演讲。伊丽莎(Eliza)旨在以罗杰(Rogerian)心理治疗师的风格进行对话。也就是说,该程序主要重复其用户所说的话,将他们的想法重新归结为问题。Weizenbaum将这种表格用于Eliza,不是因为他认为它作为治疗师很有用,而是因为它是聊天机器人的方便设置:这种心理治疗是少数几个机器是否可以访问其他数据的对话情况之一。
尽管有严重的局限性,但计算机科学家还是利用Eliza来庆祝如何彻底取代人工劳动力,并预示了进入人工智能时代的进入。一个震惊的Weizenbaum一生都在批评AI的余生中,并指出人类不是肉机器,而Minsky继续找到了MIT的AI实验室,并从五角大楼的资金中赚钱。

那时,通过不受约束的武器制造业的模糊,不道德的资金网络,随着爆炸性投机性风险投资投资的增加,现在AI左右一直持续到今天。人脑和机器的计算能力之间的虚假等价图也是如此。声称这样的虚假等价激发了敬畏的灵感,事实证明,这可以用来从投资者那里投入大量资金,从而陷入了Fomo Frenzy。
当我们说船上负载时,请想想Megayachts:2023年1月,微软宣布打算向Openai投资100亿美元。这是在Mustafa Suleyman(DeepMind的前首席执行官,20024年3月Microsoft AI的首席执行官)和LinkedIn联合创始人Reid Hoffman在Microsoft和Chipmaker Nvidia的13亿美元中获得了一笔凉爽的$ 13亿美元,并在他们的年轻初创公司Afflection.ai中获得了融资。Openai Alums共同创立了Anthropic,这是一家专注于创建生成AI工具的公司,并在Crypto-Scammer Sam Bankman Fried的投资回合中获得了5.8亿美元的收入。这些初创公司以及其他许多初创公司一直在追逐风险资本家和大型科技公司的投资金矿,经常没有任何明确的货币化途径。到2024年的第二季度,风险投资将271亿美元或季度投资的近一半投入到AI和机器学习公司。
乘坐AI Hype火车的激励措施清晰,并广泛地打扮成AI和投资流动。但是,这些技术和周围的炒作都在这里和现在造成伤害。
炒作和伤害
机器学习的应用经过了良好的范围,测试良好,涉及适当的培训数据,以便它们在我们定期使用的工具中占有一席之地。其中包括诸如拼写检查器(不再简单的词典查找,但能够不正确地标记真实单词)等日常工作)以及其他更专业的技术,例如放射线医生使用的图像处理来确定扫描或X射线的哪些部分需要进行最多的审查。但是,在营销和创业时间的刺激性中,这些明智的用例被可以有效地发挥魔术的机器的承诺所淹没,导致用户依靠它们来获得信息,决策或节省成本,这通常会损害其损害或损害他人。
随着投资者的兴趣将AI炒作推向新的高度,技术助推器几乎在人类活动的每个领域都促进了AI解决方案。我们告诉我们,人工智能可以在社会服务中占据线索,为那些幸运的人提供医疗保健和治疗,以便能够良好的医疗保健,对那些不住在富裕学区的人提供教育,以及为能够负担得起持牌律师的人提供的法律服务。我们告诉我们,AI将提供所有这些内容的个性化版本,从而灵活地满足用户需求。我们告诉我们,AI将通过允许任何人成为艺术家来民主化创意活动。我们告诉我们,AI即将为我们进行科学,最终为我们提供了从医疗突破(发现癌症治愈!)到气候危机(发现全球变暖的解决方案!)的紧急问题的答案。而且自动驾驶汽车永远在拐角处(注意:这意味着他们即将遇到您)。但是,正如您可能从我们的狡猾的语气中推测的那样,这些解决方案总的来说是AI炒作。在无数案件中,已经提出了AI解决方案,但未达到其明确的目标。
2017年,一名巴勒斯坦男子在一篇Facebook帖子上被以色列当局逮捕,在该帖子中,他在推土机旁边带有标题(阿拉伯语)的标题(阿拉伯语)。在其他关键情况下,例如在处理庇护案件中,机器翻译也已成为薄弱的停止。在这里,要解决的问题是交流之一,逃离祖国的暴力与移民官员之间的沟通之一。机器翻译系统可以很好地工作,例如翻译以少数主要语言的标准品种编写的报纸,可能会在翻译庇护所索赔或以少数语言或方言的方式翻译庇护所。
2020年8月,由于19日大流行,成千上万的英国学生无法参加A级考试,他们获得了根据算法计算出的成绩,该算法将其视为投入,除其他外,其他学生在学校往年获得的其他成绩。在大规模的公众强烈抗议之后,数百名学生聚集在伦敦唐宁街10号的总理住所外面,高呼 - 他妈的算法!这些成绩被撤回,并根据教师评估学生的工作来取代成绩。2023年5月,德克萨斯A&M大学的教授贾里德·穆姆(Jared Mumm)怀疑他的学生通过使用chatgpt撰写他们的最后一篇论文来作弊,因此他将论文输入了chatgpt,并问它是否写了他们。在阅读了Chatgpt的肯定成果之后,他分配了整个班级不完整的成绩,一些老年人(暂时)否认了他们的文凭。
在我们的道路上,自动驾驶汽车的承诺导致死亡和破坏。特斯拉的一名员工在他的特斯拉模型3中与所谓的完整自动驾驶模式互动后死亡,该模型将汽车驶离了道路。(我们之所以知道这是因为他的乘客幸免于难。)几个月后,在2022年感恩节那天,特斯拉首席执行官埃隆·马斯克(Elon Musk)宣布了特斯拉的完整自动驾驶模式。几个小时后,它参与了旧金山奥克兰湾大桥上的八辆堆积。
2023年,律师史蒂文·施瓦茨(Steven A. Schwartz)代表原告针对航空公司的诉讼,他提出了法律摘要,理由是他通过查询Chatgpt发现的法律先例。当辩护航空公司的律师说,他们无法找到一些被提及的案件,法官要求施瓦茨提交他们时,他提交了摘录,而不是传统的完整意见。最终,施瓦茨不得不拥有信任Chatgpt的产出是准确的,而他和他的椰子被法院批准和罚款。
2022年11月,梅塔(Meta)发布了一个大型语言模型,该模型在科学文本上训练,并能够总结学术论文,解决数学问题,生成数学问题,撰写Wiki文章,编写Wiki代码,进行科学代码,注释分子和蛋白质等等。输出有毒内容以学术外观的散文传达。
所有这些故事的共同点是,有人超越了自动化系统,人们根据被告知可以做的事情使用它,然后他们或其他人受伤。并不是所有的AI炒作故事都适合这种模具,而是对于那些不适合的模具,在很大程度上,危害是弥漫或无证的情况。有时,人们能够抵抗AI炒作,通过可能的危害思考并选择不同的道路。这使我们以书面形式达到了目标这本书:防止AI炒作的伤害。当人们发现AI炒作时,他们就可以更好地决定如何以及何时使用自动化,并且可以更好地提倡限制他人使用自动化的政策。
媒体自由受到攻击
当特朗普收紧他对言论自由的独裁抓地力时,独立媒体越来越有必要。
TruthOut会产生报告,您将在主流:在加沙地面上的新闻:对基层运动领袖的采访,高质量的法律分析等等。
由于读者的支持,我们的工作是可能的。帮助Truthout催化变革和社会正义 - 今天每月或一次性捐赠。