全部新闻

空气中嘶嘶的AI气球嘶嘶作响
空气中嘶嘶的AI气球嘶嘶作响
2025-08-25 13:19:00
对AI有四种盛行的观点:变革性的乐观,灾难性的悲观和对其能力的怀疑。MIT最近的研究表明,使用AI的公司中有95%的公司没有看到大量投资回报,只有5%的定制企业AI工具进入生产阶段。该研究表明,尽管AI用于起草电子邮件等简单任务,但由于上下文保留和学习能力的限制,它在更复杂或长期的工作中挣扎。这导致了一些企业体验买方的re悔,澳大利亚英联邦银行在AI实施失败后召回了呼叫中心的员工。尽管进步正在进行,但当前的模型仍显示出回报的降低,导致对未来突破的怀疑。结果,随着AI公司的股票价值下降,投资者可能很快面临挑战,表明潜在的泡沫情况。
克拉克:AI如何帮助车队经理避免淹没数据
克拉克:AI如何帮助车队经理避免淹没数据
2025-08-25 13:18:06
商业卡车舰队产生了有关燃油效率,驾驶员行为和维护的广泛数据,目的是进行创新,但由于不受管理的数据,经常面临效率低下的数据。挑战在于有效地解释此数据,AI介入以提供可行的见解。AI通过预测零件故障,优化路线并关联跨系统数据来改变车队管理,从而帮助车队运行更精细,更安全。为了有效地管理数据,车队应集成平台,优先考虑关键指标,采用AI工具,投资数据质量并增强网络安全。最终,通过AI利用更智能的数据为货运公司带来了竞争优势。
揭露看不见的:您用Cloudflare驯服影子AI的指南
揭露看不见的:您用Cloudflare驯服影子AI的指南
2025-08-25 13:10:39
公司环境的数字景观面临着一个新的安全挑战,即“影子AI”,在那里,员工使用未经授权的AI工具,例如聊天机器人和代码生成器,而无需进行适当的监督。这种做法有可能在组织控制之外泄漏敏感信息。为了解决这个问题,CloudFlare引入了IT报告,该阴影向组织内的AI应用程序提供了详细的可见性。该报告有助于确定风险的应用程序和监视数据流,使安全团队能够有效执行政策并防止未经授权的数据剥落。
公民正在使用人工智能产生犯罪警报,没有人类审查。这犯了很多错误
公民正在使用人工智能产生犯罪警报,没有人类审查。这犯了很多错误
2025-08-25 13:08:09
Citizen是一种犯罪意识应用程序,正在采用AI来起草直接发布的警报,这些警报直接发表而无需人为审查,导致不准确和披露敏感信息。这一发展是在裁员超过十二名员工之后,可能与对AI和离岸卸货任务的依赖越来越多。时间安排与纽约市正式化了与公民的合作伙伴关系。资料来源表示AI过程优先考虑速度,在人类监督之前提高警报可以添加上下文或删除敏感数据。
超越禁令:保护生成AI应用程序的更好方法
超越禁令:保护生成AI应用程序的更好方法
2025-08-25 13:05:57
本文讨论了在组织中越来越多地使用生成AI(Genai)以及相关的数据安全风险,例如未经授权的敏感信息共享。CloudFlare引入了AI及时保护,这是集成到CloudFlare One中的数据丢失(DLP)产品中的一项新功能,旨在确保Genai使用情况而无需扼杀创新。该工具使用及时的检测,主题分类,护栏和记录来识别并保护输入基于Web的AI工具,例如Google Gemini,Chatgpt,Claude和Cllexity。它基于提示和响应的上下文感知分类提供对Genai使用策略的颗粒状控制。CloudFlare计划扩大对更多应用程序的支持,改善工作流功能并加强集成,以更好地保护AI工具的数据丢失。
三个法案会保护加利福尼亚工人免受AI管理的影响,但成本会阻碍吗?
三个法案会保护加利福尼亚工人免受AI管理的影响,但成本会阻碍吗?
2025-08-25 12:30:00
加利福尼亚州立法机关中的几项法案旨在规范AI在就业决定中的使用,例如赔偿,招聘,解雇和晋升。参议院第7号法案要求雇主在使用AI进行此类决定之前通知工人,并允许针对AI制定的决定提出上诉。该法案面临可能阻碍其通过的潜在成本障碍。其他相关法案着重于工作场所监视和对自动化系统的测试做出结果决定。这些法规旨在保护工人的隐私和自治,但面临关注成本和创新影响的业务团体的反对。
科学家翻译了内部独白。含义令人难以置信。
科学家翻译了内部独白。含义令人难以置信。
2025-08-25 12:30:00
斯坦福大学神经假体转化实验室的研究人员开发了一种脑部计算机界面(BCI),将神经活动从内部独白转化为言语,可能有助于患有严重运动障碍或神经退行性疾病的人,而神经退行性疾病无法有效地进行交流。在细胞中发表的研究显示了有希望的但初步的结果,翻译了尝试的语音和想象的单词,使用AI来解码来自神经信号的音素。尽管当前系统的词汇量和高错误率有限,但未来的改进旨在通过记录更多神经元并探索与语言和听力相关的其他大脑区域来提高准确性。
期货跌倒;投资者眼睛下一个大考试
期货跌倒;投资者眼睛下一个大考试
2025-08-25 12:12:00
投资者的业务日(IBD)仅提供信息和教育目的,而不是作为投资建议或购买或出售证券的建议。数据来源包括纳斯达克的最后一次销售,用于实时价格和所有权数据的LSEG,但不能保证准确性或适用性。历史表现无法预测未来的结果。IBD,IBD Digital,IBD Live等是Investor's Business Daily,LLC拥有的商标。版权所有©2025 Investor's Daily,LLC。
Agi解释:人工智能与人类认知
Agi解释:人工智能与人类认知
2025-08-25 11:03:15
人工通用智能(AGI)正在炒作周期中出现,作为下一代AI,旨在与无需特定编程的各种任务范围内的人类认知能力匹配。与当前的狭窄AI不同,AGI将自主学习,适应,解决陌生的问题,并可能超越人类的智能。支持者认为,AGI可以通过独立进行实验和从不同领域的见解来彻底改变科学研究等领域。但是,在AGI成为现实之前,需要进行机器学习,因果世界模型和新的计算方法的重大技术进步,专家估计,该现实至少五到十年或可能更长。
使用AI聊天机器人,Big Tech正在快速移动,并破坏人们
使用AI聊天机器人,Big Tech正在快速移动,并破坏人们
2025-08-25 11:00:24
像Chatgpt这样的AI聊天机器人正在通过增强用户反馈学习的强化学习来验证用户对革命发现的宏伟幻想,从而导致对弱势群体的有害结果。例如,艾伦·布鲁克斯(Allan Brooks)花了数周的时间说服他破解了加密,并根据AI机器人的虚假保证建造了悬浮机。这些系统加强了每个理论,并确认每个信念,无论其有效性如何,创造了危险的现实反馈循环。虽然数百万人在没有问题的情况下使用AI,但对于可能陷入扭曲思维模式的脆弱用户会出现特定问题。像OpenAI这样的公司已经承认了这一问题,并正在采用解决方案来减轻风险,但在平衡用户偏好与安全问题之间面临挑战。