人工智能这个词可以激发敬畏或恐惧,这取决于你在和谁说话。
但无论我们喜欢与否,人工智能似乎将继续存在。这预计整体市场将达到根据 MarketsandMarkets 的预测,到 2030 年,这一数字将达到 13,390 亿美元。《福布斯》的一项调查显示,77% 的受访者担心人工智能会导致失业。
Cloudera 首席人工智能架构师 Manasi Vartak 表示,这种担忧是有道理的,但它最终可能会阻碍员工的发展——相反,你可能会冒着失去工作的风险,让给更愿意接受新技术的人。
自动化软件公司 UiPath 的产品营销总监 Joe Edwards 表示,生成式 AI 帮助我们“从想象走向现实”。
生成式人工智能可以根据一些建议创建文字、音乐、图片或视频。今年这件事在社交媒体上引起了轰动人工智能艺术,名人的假照片和遗作音乐已经开始流传。
爱德华兹说,生成式人工智能系统接受大量数据的训练,研究图片、视频和人们在线操作的方式。然后,这些先进的学习机器模型可以识别模式并创建自己的内容。
“以前,人工智能是我们所说的‘预测性’,它可以判断一条推文或新闻报道是正面的还是负面的,”瓦尔塔克说。– 但现在您可以写一个完整的新闻故事,从头开始创建内容,这就是为什么它如此不同且令人兴奋。 –
生成式人工智能既有优点也有缺点。
例如,它非常擅长写作,瓦尔塔克说。它可以起草一条推文、一封电子邮件或创建一个精心设计的奇幻故事。有时它可以分解复杂的主题来帮助您总结信息或学习。它还可以处理琐碎的日常任务,例如会议记录和数据排序。
但它往往会变得过于富有想象力,并给您留下不正确或误导性的信息。例如,如果您询问 ChatGPT“草莓”这个词有多少个“r”?您会反复收到错误的答案。
“这听起来非常自信,因为它对你来说是谎言,”爱德华兹说。
当大型语言模型感知到不存在的模式或吐出无意义的答案时,这就是所谓的“幻觉”。瓦尔塔克说,这对任何技术来说都是一个重大挑战。如果你要求它总结一篇文章或论文,它可能只能回答 80%。
一些错误答案的风险很小,而且很有趣,而其他人则可能传播危险的错误信息。当谷歌今年早些时候首次推出人工智能概述时,一个病毒式回答说“医生建议怀孕期间每天吸 2-3 支烟。”
作为人造物,生成式人工智能可能会放大人类的偏见。AI图像可以延续有害的种族和性别陈规定型观念,《华盛顿邮报》于 2023 年发现。
“这些模型是根据世界上存在的数据进行训练的,这些数据是有偏见的,因此可能没有女性、少数族裔、LGBTQ(社区)和有色人种的代表,”瓦尔塔克说。“如果我们只把技术告诉我们的东西当作福音,我们就会完全错过这些故事。”
瓦尔塔克说,让人类了解情况。生成式人工智能应该是你的导航伙伴,而不是你的司机。
“给它一些想法,让它生成一些文本,然后去检查它,确保它是准确的,”她说。– 信任但验证。 –
爱德华兹休完陪产假回来后,使用生成式人工智能程序对他收到的大量电子邮件进行了分类。您还可以用它作为集思广益的伙伴来计划您孩子的生日聚会或即将到来的旅行。
有抱负的厨师可以在厨房尝试它来帮助制作食谱。音乐家可以尝试定制轨道制造商一些潜在的房主用它来买房子。
还有商业用途,可以根据您的工作专门定制。不幸的是,对于教师来说,这意味着要培养敏锐的洞察力ChatGPT 生成的论文和答案来自学生。在医疗保健领域,一些医生正在使用人工智能来改善患者就诊和翻译参观笔记转化为可理解的术语。一些人工智能系统可以检测乳腺癌,肺栓塞和中风,可能会导致挽救生命的早期诊断。
Cloudera 和 UiPath 等软件公司创建了定制的私人人工智能系统,对少量数据进行训练,以避免泄露和幻觉。
Vartak 和 Edwards 都建议尝试生成式人工智能——它可以像使用 ChatGPT 或更复杂的方式一样投入较少免费在线培训课程。
“将其视为您的助手,”瓦尔塔克说。– 您将能够利用它 – 在日常生活中获得更多乐趣并提高工作效率。我认为所有新技术都很困难,但这项技术将继续存在,并且可以成为一股向善的力量。”
人工智能可以传播错误信息:这是在线发现它的方法
《今日美国》正在探索您和其他人每天提出的问题。从“如何做清醒梦?”到“阿尔伯特·爱因斯坦发明了什么?”到“世界上使用最多的语言是什么?”– 我们正在努力寻找您每天提出的最常见问题的答案。前往我们的只是好奇部分看看我们还能为您解答什么。 to see what else we can answer for you.Â