OC

Knowledge OS
鹦鹉螺口语

全部新闻

LinkedIn提起涉嫌未经同意的私人消息培训AI模型

2025-01-23 16:39:22

LinkedIn Premium客户正在起诉该平台,据称未经同意培训AI模型,与第三方共享其私人消息。该诉讼声称,LinkedIn于去年8月默认情况下选择了用户进入数据共享,从而更改其隐私政策,而无需事先通知其服务条款。用户只能通过隐私政策的常见问题解答部分中的超链接找到此披露。投诉还声称,一旦共享数据进行AI培训,即使用户以后选择退出,也无法逆转。LinkedIn否认索赔。

LinkedIn提起涉嫌未经同意的私人消息培训AI模型

中国便宜的,开放的AI模型DeepSeek刺激了科学家

2025-01-23 16:34:22

DeepSeek-R1是中国初创企业DeepSeek的开源大型语言模型,它的负担能力和性能与OpenAI在化学,数学和编码等科学任务中的O1相当。研究人员于1月20日根据MIT许可发布,可以研究并以R1的算法为基础,但不使用其培训数据。这种开放性与Openai的模型形成鲜明对比,Openai被认为是黑匣子。DeepSeek向用户收取大约三分之一的O1运行费用,即使对于有限的计算能力的人来说,它也可以使用。R1的开发强调了中国在AI资源管理方面的效率,尽管美国对专为AI处理的计算机芯片进行了出口控制,这表明美国与中国在先进的AI技术方面的差距狭窄。

中国便宜的,开放的AI模型DeepSeek刺激了科学家

体现的AI揭示了机器人和幼儿如何学会理解

2025-01-23 16:15:04

冲绳科学技术研究所的研究人员使用PV-RNN框架开发了一种体现的智能模型,该框架反映了人类的认知约束,并学会通过类似于幼儿所经历的互动来概括。该模型集成了视觉,本体感受和语言,它表明了组成性(将批发分解为可重复使用的部分的能力)通过顺序结合感觉输入,而不是像大型语言模型(LLMS)一样。这项发表在《科学机器人技术》上的研究表明,该模型的体系结构可以深入了解儿童如何发展构图能力,这暗示了对更安全,更符合道德的AI系统的潜在途径。

体现的AI揭示了机器人和幼儿如何学会理解

2024年:AI的一年取得了非凡进步和进步

2025-01-23 16:10:43

该摘要强调了Google在2024年在各个部门的人工智能(AI)方面的重大进步,包括科学研究,灾难响应,语言可及性和道德AI发展。这是要点:###科学研究和灾难反应:1。**气候科学:** - 引入了用于气候预测的大气模拟和图形广播的创新模型,例如神经GCM。 - 增强洪水预测覆盖100个国家,并预测提前7天的洪水。2。**野火检测:** - 在22个国家 /地区部署了野火边界图,可帮助早期发现和对野火的反应。 - 开发了Firesat卫星星座,以在几分钟之内检测到一台教室的火灾。###语言可访问性: - 扩大了Google翻译,支持110种新语言,全球超过6.14亿扬声器。###负责AI开发:1。** AI安全研究:** - 调查了滥用情况,并引入了诸如Frontier安全框架和AI责任生命周期之类的框架。2。**水印工具:** - 增强了对AI产生的水印文本和视频的合成,通过与C2PA这样的计划的合作来促进内容出处。3。**生物安全与治理国际合作:** - 启动了安全AI(COSAI)联盟,并参加了AI首尔峰会,以促进全球对AI治理的共识。###道德考虑: - 发表了关于“高级AI助手的道德规范”的研究,研究了未来AI助手提出的技术和道德挑战。2024年,Google不仅可以推进AI技术,还可以优先考虑道德考虑,安全措施和国际合作。该公司的目标是在来年(2025年)继续培养负责任的AI实践,以确保这些创新有益于人类,同时解决潜在的风险。

2024年:AI的一年取得了非凡进步和进步

人工智能能源消耗:这是一个问题吗?|内置

2025-01-23 15:44:01

人工智能 (AI) 正在改变各个领域,但代价却是巨大的能源消耗。训练和部署先进的人工智能模型需要大量的计算能力,从而导致高耗电量和环境影响。ChatGPT 等流行工具每天消耗大量能源,导致全球碳排放和资源枯竭。公司正在探索可再生能源并优化运营,以减少人工智能对环境的影响。应对这些挑战的政策措施和行业合作也在不断涌现。人工智能

人工智能能源消耗:这是一个问题吗?|内置

切尔滕纳姆学校讨论人工智能计划

2025-01-23 15:37:10

切尔滕纳姆镇学区的教育事务委员会召开会议,讨论综合计划流程和学区的人工智能 (AI) 方法。助理学监 ShaVon Savage 主持了关于综合计划中确定的四个优先事项的讨论,而 Rachel Girman 和 Tami Flood 则介绍了人工智能,包括政策草案、利益相关者委员会提案和教师培训计划。下次会议定于 2 月 18 日晚上 7 点举行。

切尔滕纳姆学校讨论人工智能计划

构建成功的人工智能应用程序:注意事项

2025-01-23 15:36:05

企业和组织正在探索人工智能用例,但面临着必要性、实施和有效性方面的问题。本周的文章提供了针对特定目标构建人工智能应用程序同时避免常见陷阱的实用见解。主题包括基于 LLM 的应用程序的路线图开发、评估生成式 AI 质量、设计聊天应用程序、高级图像应用程序、使用 AI 代理进行数据分析以及用于匹配的信息提取。其他阅读内容包括法学硕士介绍、社交平台的安全问题、编程教程的未来、预测概率、数据策略陷阱以及针对数据科学家的 MicroPython 介绍。

构建成功的人工智能应用程序:注意事项

Meta 的 Yann LeCun 预测 5 年内“人工智能架构的新范式”和“机器人技术的十年”|TechCrunch

2025-01-23 15:28:49

Meta 的首席人工智能科学家 Yann LeCun 预测,人工智能架构中将出现一种新范式,将在 3-5 年内超越当前系统的能力。他预计这一时期可能标志着“机器人技术的十年”,人工智能和机器人技术的融合将取得重大进步,创造出更智能的应用程序。LeCun还表示,目前大语言模型(LLM)的使用可能受到限制,预计这些技术将在五年内发展到一个新阶段,更好地理解物理现实,拥有推理能力,并从交互中学习。

Meta 的 Yann LeCun 预测 5 年内“人工智能架构的新范式”和“机器人技术的十年”|TechCrunch

GhostGPT 简介——黑客使用的新型网络犯罪人工智能

2025-01-23 15:16:01

GhostGPT 是一种未经审查的人工智能聊天机器人,通过 Telegram 向网络犯罪分子推销,目前正被用于恶意软件创建和网络钓鱼诈骗。与具有道德护栏的传统人工智能模型不同,GhostGPT 可以对有害查询提供无限制的响应,并且不需要专门的技能或培训来降低入门级网络犯罪分子的门槛。它拥有快速的处理时间、无日志政策以及无需先进技术知识即可轻松访问的特点。异常安全研究人员警告说,尽管这些功能声称在网络安全环境中具有潜在用途,但仍会带来重大安全风险。

GhostGPT 简介——黑客使用的新型网络犯罪人工智能

猖shadow ai的安全风险

2025-01-23 15:10:52

生成AI(Genai)和大语言模型(LLM)的迅速采用提出了重大的安全挑战,尤其是通过“影子AI”的兴起,即未经授权使用这些技术在组织中。这种趋势对敏感数据构成风险,因为员工使用诸如Chatgpt之类的公共Genai工具绕过公司政策,以提高工作效率。由于安全问题的增加,金融服务,医疗保健和科技公司是努力禁止此类工具禁令的人之一。CISO必须实施严格的隐私和安全实践,包括加密,混淆,访问控制和道德治理,以保护整个生命周期的数据,同时允许AI技术的好处。

猖shadow ai的安全风险