AI现在是我们日常生活的一部分。从巨大的受欢迎程度chatgpt向Google塞满AI摘要在搜索结果的顶部,AI完全接管了Internet。使用AI,您几乎可以立即得到任何问题的答案。感觉就像与拥有博士学位的人交谈。在一切中
但是AI聊天机器人的这一方面只是AI景观的一部分。当然,有chatgpt帮助做作业或让Midjourney创建基于原产国的机甲的迷人图像很酷,但是生成AI的潜力可以完全重塑经济体。可能值得每年给全球经济4.4万亿美元根据麦肯锡全球研究所的说法,这就是为什么您应该期望听到越来越多的有关人工智能的原因。”
它出现在一系列令人眼花and乱的产品中 - 简短的简短列表包括Google的双子座,微软的副驾驶,人类克劳德, 这困惑您可以阅读我们对这些和其他产品的评论和动手评估,以及我们的新闻,解释器和操作方法帖子AI地图集枢纽。
随着人们变得越来越习惯与AI交织在一起的世界,各处都会出现新术语。因此
该词汇表定期更新。
人工通用情报或AGI:这个概念暗示了AI的先进版本比我们今天所知道的,它可以比人类执行的任务要好得多,同时还可以教授和推进自己的能力。”
代理:展示具有自主采取行动以实现目标的系统或模型。在AI的背景下,代理模型可以在没有持续监督的情况下行动,例如高级自动驾驶汽车。与背景中的“代理”框架不同,代理框架不在前面,专注于用户体验。
AI伦理:旨在防止AI伤害人类的原则,通过确定AI系统应如何收集数据或处理BIA来实现。”
AI安全:一个跨学科的领域,涉及AI的长期影响,以及它如何突然发展成为可能对人类敌对的超级智力。”
算法:一系列指令允许计算机程序以特定方式学习和分析数据,例如识别模式,然后从中学习并自行完成任务。
结盟:调整AI以更好地产生预期的结果。这可以涉及从调节内容到维持对人类的积极互动的任何内容。
拟人化:当人类倾向于给出非人类的物体时,人类的特征。在AI中,这可以包括相信聊天机器人比实际意识到的更具人性化和意识,就像相信它是幸福,悲伤甚至有意识的一样。”
人工智能或人工智能:在计算机程序或机器人技术中使用技术模拟人类智能。计算机科学领域,旨在构建可以执行人类任务的系统。
自主代理:具有完成特定任务的功能,编程和其他工具的AI模型。例如,自动驾驶汽车是一种自主剂,因为它具有感官输入,GPS和驱动算法,可以自行车道。斯坦福大学研究人员已经表明,自主代理可以发展自己的文化,传统和共享语言。
偏见:关于大型语言模型,培训数据引起的错误。这可能导致基于刻板印象错误地将某些特征归因于某些种族或群体。
聊天机器人:通过模拟人类语言与人类进行交流的程序。
chatgpt:AI聊天机器人开发的Openai使用大型语言模型技术。
认知计算:人工智能的另一个术语。
数据增强:重新混合现有数据或添加更多样化的数据来培训AI。
数据集:用于训练,测试和验证AI模型的数字信息集合。
深度学习:AI的方法和机器学习的子字段,该方法使用多个参数来识别图片,声音和文本中的复杂模式。该过程受人脑的启发,并使用人工神经网络来创建模式。
扩散:一种机器学习的方法,该方法像照片一样获取现有数据,并添加随机噪声。扩散模型训练他们的网络以重新设计或恢复该照片。
紧急行为:当AI模型表现出意外的能力时。
端到端学习或E2E:一个深度学习过程,其中指示模型从头到尾执行任务。它没有经过序幕完成任务的训练,而是从输入中学习并立即解决所有任务。
道德考虑:意识到AI的道德意义以及与隐私,数据使用,公平,滥用和其他安全问题有关的问题。”
福姆:也称为快速起飞或艰苦的起飞。如果某人建立一个AGI,那可能已经太晚了,拯救人类可能为时已晚。
生成对抗网络或gans:由两个神经网络组成的生成AI模型,用于生成新数据:生成器和歧视器。发电机创建新内容,歧视器检查是否是真实的。
生成的AI:一项使用AI创建文本,视频,计算机代码或图像的内容生成的技术。AI被喂养大量的训练数据,发现模式以产生自己的新颖响应,有时可能与原始材料相似。
Google Gemini:Google的AI聊天机器人的功能类似于ChatGpt,但从当前网络中汲取信息,而ChatGpt仅限于数据直到2021年,并且没有连接到Internet。
护栏:对AI模型的策略和限制,以确保负责任地处理数据,并且该模型不会创建令人不安的内容。
幻觉:AI的不正确响应。可以包括生成的AI产生不正确但自信地陈述的答案。造成这种情况的原因并不完全为人所知。例如,问一个AI聊天机器人时,“莱昂纳多·达·芬奇何时给蒙娜丽莎画?”它可能会以不正确的声明做出回应说:“莱昂纳多·达·芬奇(Leonardo da Vinci)在1815年画了蒙娜丽莎(Mona Lisa
推理:AI模型用于生成有关新数据的文本,图像和其他内容的过程推断从他们的培训数据中。
大型语言模型或LLM:AI模型对大量文本数据进行了培训,以了解语言并以类似人类的语言生成新颖的内容。
潜伏期:AI系统接收输入或提示并产生输出的时间延迟。
机器学习或ML:AI中的一个组件,允许计算机在不明确编程的情况下学习和做出更好的预测结果。可以与培训集结合起来生成新内容。
Microsoft Bing:Microsoft的搜索引擎现在可以使用技术供电Chatgpt提供AI驱动的搜索结果。与Google Gemini相似,在连接到互联网时。
多模式AI:可以处理多种输入的一种AI,包括文本,图像,视频和语音。
自然语言处理:使用机器学习和深度学习的AI分支,使计算机经常使用学习算法,统计模型和语言规则,使计算机能够理解人类语言。
神经网络:一种类似于人类大脑结构并旨在识别数据模式的计算模型。由可以识别模式并随着时间学习的互连节点或神经元组成。
过度拟合:机器学习中的错误与培训数据的功能过于紧密,并且可能只能识别上述数据中的特定示例,而不是新数据中的示例。
纸卷:哲学家创造的纸袋最大化理论 尼克·博斯特兰在牛津大学,是一个假设的情况,AI系统将创建尽可能多的文字纸卷。为了生产最大纸卷的目标,AI系统将假设消耗或转换所有材料以实现其目标。这可能包括拆卸其他机械以生产更多的纸卷,这可能对人类有益的机械。该AI系统的意外后果是,制作纸卷可能会破坏人类的目标。
参数:赋予LLMS结构和行为的数值值,使其能够做出预测。
困惑:Chleplexity AI拥有的AI驱动聊天机器人和搜索引擎的名称。它使用大型语言模型,就像其他AI聊天机器人中的模型一样,用新颖的答案回答问题。它与开放式互联网的连接还使其能够提供最新的信息并从网络周围吸引结果。Cllexity Pro是该服务的付费层,也可以使用其他型号,包括GPT-4O,Claude 3 Opus,Misstral Gim,开源美洲驼3和其自己的Sonar 32K。Pro用户可以另外上传文档以进行分析,生成图像和解释代码。
迅速的:您进入AI聊天机器人以获取回应的建议或问题。
及时链接:人工智能使用以前互动中的信息对未来的响应进行着色的能力。
量化:通过将其精确度从较高的格式降低到较低的格式,使AI大型学习模型变得更小,更高效(尽管精确略有)的过程。考虑这一点的一种好方法是将16百万像素的图像与8百万像素图像进行比较。两者仍然很清晰且可见,但是当您放大时,更高的分辨率图像将具有更多的细节。
随机鹦鹉:LLM的类比说明该软件对语言或周围世界背后的意义没有更大的了解,而不管输出的声音如何说服。该短语是指鹦鹉如何模仿人类的单词而不理解其背后的含义。
样式转移:将一个图像的样式适应另一个图像的内容的能力,允许AI解释一个图像的视觉属性并将其在另一个图像上使用。例如,以露天的方式以毕加索的风格重新创造了自画像。
温度:参数设置以控制语言模型的输出的随机性。温度较高意味着该模型需要更多的风险。
文本到图像生成:基于文本描述创建图像。
令牌:AI语言模型的一小部分书面文本可以制定其对您提示的响应。令牌等同于四个字符,或大约四分之三的单词。
培训数据:用于帮助AI模型学习的数据集,包括文本,图像,代码或数据。
变压器模型:神经网络体系结构和深度学习模型,通过跟踪数据中的关系(例如句子或图像的一部分)来学习上下文。因此,它可以查看整个句子并理解上下文,而不是一次分析一个句子。
图灵测试:它以著名的数学家和计算机科学家艾伦·图灵(Alan Turing)的名字命名,它测试了机器像人类一样的行为能力。如果人类无法将机器的响应与另一个人区分开,则该机器会通过。
无监督的学习:一种机器学习形式,该形式未向模型提供标记的培训数据,而模型必须单独识别数据中的模式。
弱AI,又名狭窄的AI:专注于特定任务并且无法超越其技能的AI。当今的大多数AI都是弱的AI。
零击学习:模型必须完成任务的测试,而无需获得必要的培训数据。一个例子是在只接受老虎训练的同时认出狮子。