全部新闻
放射学人工智能公司Harrison.ai筹集了1.12亿美元,开设了美国办公室
澳大利亚放射学AI公司Harrison.AI筹集了1.12亿美元的C系列资金,由Aware Super和ECP领导。该公司将利用这笔资金进行美国扩张和全球增长,并计划开设波士顿办事处。Harrison.ai的Annalize Enterprise CXR全球1000多个医疗机构使用,每年影响600万患者。该公司已筹集了2.4亿美元的总资金,并获得了12种解决方案的FDA许可。联合创始人Dimitry和Aengus Tran的目标是使诊断护理在全球范围内更负担得起。
Telefónica将5G和人工智能应用于眼科和肿瘤学方面的解决方案
Telefónica将在巴塞罗那MWC介绍两种创新的医疗解决方案:“ Cateye”,用于使用AI和5G检测白内障,以及“ 5G智能血液监测”,以监测Leuko Pointcheck技术的癌症患者的白细胞水平,可通过5G和Edge Computing增强。这些举措旨在改善医疗保健系统中的患者护理和资源优化。
马克·扎克伯格(Mark Zuckerberg)刚刚做出了3个惊人的AI预测。您应该在元股票实现之前购买元股吗?
元平台(META)将社交媒体以外的多元化为人工智能(AI)。首席执行官马克·扎克伯格(Mark Zuckerberg)计划今年为AI基础设施投资高达650亿美元重要的是支持这些事态发展,并有可能通过像美洲驼这样的开源项目来建立行业标准。尽管这些投资具有长期的性质,但分析师认为,元对高潜力AI市场的增长含量很好。
DeepSeek创始人跳过巴黎峰会,因为中国拥护其AI
DeepSeek的创始人尽管受到邀请,但仍跳过了巴黎的人工智能行动峰会。峰会上的中国学者通过诸如DeepSeek的开源模型之类的进步强调了中国对全球AI进步的贡献。来自Tsinghua大学的Andrew Yao Chih强调了这些开源模型如何通过促进协作技术进步来使全球社区受益。各个部门的本地公司迅速采用了DeepSeek的成本效益和高性能AI模型,但该公司对其未来计划保持沉默。DeepSeek
军事研究计划的行业简报,用于人工智能的网络安全(AI)
美国军事研究人员将在2025年3月12日通过DARPA SABER计划评估AI支持军事系统的漏洞进行网络攻击的项目简要介绍。其目的是建立一个具有反AI技术和工具的AI研究小组。简报将通过Zoom供政府举行,并实际上是在下午向美国公民开放的。公司可以在2025年2月25日之前在线注册。
Docker Bake是烘焙的,桌面4.38预览AI代理•DevClass
Docker通常发布了其烘焙功能,并将其包括在Docker Desktop 4.38中,该功能还提供了AI代理(代号Gordon)的预览。烘烤使用HCL,YAML或JSON格式中的配置文件简化复杂的Docker映像,从而使维护和共享更加容易。AI代理可供所有签名用户使用,但由于对后端发送的数据的隐私问题,因此默认情况下已关闭。该代理商旨在协助Docker使用,优化和故障排除,尽管建议准确性验证。
YouTube通过AI扩展播客功能并增强创建器工具
YouTube通过计划增强播客,创建工具和全球扩展的计划庆祝其成立20周年。该平台已成为美国最常用的播客聆听服务,计划新的支持工具和播客的货币化改进。YouTube还成功地将视频集成到了播客中,并将在今年的合作伙伴计划中将AI诸如Auto-Rubbing之类的AI功能扩展到播客中。
哈佛禁止在虚拟会议上使用AI助手|新闻|哈佛深红色
哈佛大学由于法律,数据安全问题以及对公开对话的潜在窒息影响而禁止在会议上使用AI会议助手。该禁令旨在防止会议数据向第三方曝光或培训未来AI模型的公司未经授权的使用。对大学有合同协议的AI助手的例外。正在进行一项试点计划,以评估Zoom的AI同伴。建议哈佛大学分支机构避免在敏感会议中使用AI,并在必要时审查/纠正/删除成绩单。
双子座如何为我们的I/O 2025添加了一个新维度,保存日期难题
Google I/O 2025将于5月20日至21日在海岸线露天剧场举行。今年的“保存日期”难题涉及通过量子计算概念启发的棱镜和镜子来操纵光束。由双子座API提供支持的侧面任务包括解决时解锁奖励世界的谜语,以引人入胜的方式展示了AI的潜力。该活动旨在激发开发人员探索双子座的能力,并对I/O 2025产生兴奋。
内部律师人工智能的五个基础,第1部分|JD Supra
将AI集成到业务运营中既带来了重大的机遇和重大风险,尤其是在数据安全,知识产权和法律遵守方面。以下是研讨会的关键见解,内容涉及内部律师如何应对这些挑战:### 1。**最小化对AI工具的访问** - **战略访问控制:**限制对AI工具的访问对于缓解风险至关重要。组织中的不同角色应根据其职责和所处理数据的敏感性具有不同级别的访问权限。 - **策略和培训:**实施严格的策略,这些策略指定谁可以使用AI工具,这些系统中允许哪些类型的数据以及应如何处理数据后处理。为员工提供培训以了解使用AI的含义至关重要。### 2。**数据安全和隐私** - **内部监控:**确保由AI驱动的人力资源决策,例如招聘,终止,薪金调整和工作场所监控,并遵守法律标准。该组织的问责制仍然存在。 - **访问控制:**通过限制可以访问AI工具的人,减少数据泄露或滥用的风险来最大程度地减少对敏感数据的接触。### 3。**知识产权(IP)和版权** - **所有权问题:**澄清有关通过AI生成的IP的所有权。由于当前的实践没有为机器生成的内容分配版权,因此清楚地记录过程非常重要。 - **商业秘密保护:**对AI系统中如何处理商业秘密要谨慎。当使用AI工具进行汇总或分析时,员工可能会无意间披露专有信息。### 4。**合同注意事项** - ** AI用法条款:**将有关AI使用的特定条款纳入合同中,尤其是在与营销机构等第三方服务提供商打交道时。 - ** IP和责任规定:**确保合同解决数据所有权,滥用或违规责任以及遵守法律标准等问题。### 5。**网络保险和风险管理** - **覆盖范围审查:**验证网络保险政策是否涵盖了与AI相关的事件,包括该技术引起的数据泄露。 - **战略规划:**制定全面的风险管理策略,该策略考虑内部(员工访问控制)和外部(第三方合同)风险。### 6。**法律合规性和监管监督** - **监管意识:**请了解有关AI使用不断发展的法规,特别是在数据隐私(GDPR,CCPA),IP法和就业实践等领域。 - **内部审核:**定期审核AI系统和用法,以确保遵守法律标准和组织政策。### 7。**员工培训和意识** - **定期更新:**为员工提供有关适当使用AI工具的持续培训,数据安全的重要性以及与滥用相关的潜在风险。 - **文化转变:**培养一种优先级优先于便利性的文化,强调需要严格的访问控制和负责任的使用。### 8。**道德考虑** - **偏见和歧视:**监视AI驱动的决定,以防止偏见或歧视性实践。实施保障措施以确保人力资源过程中的公平性。 - **透明度:**对组织中的AI使用方式透明,并主动解决任何道德问题。通过实施这些策略,内部律师可以帮助其组织利用AI的福利,同时减轻风险并确保遵守法律标准。