英语轻松读发新版了,欢迎下载、更新

全部新闻

减少“睡衣时间”:人工智能补充 NEPA 临床医生的工作
减少“睡衣时间”:人工智能补充 NEPA 临床医生的工作
2024-12-16 10:00:00
将人工智能 (AI) 集成到 Geisinger 和莱特中心等医疗保健系统中,旨在通过早期疾病检测、风险管理和运营改进等各种应用来增强患者护理。以下是您提供的信息中的要点摘要:### 人工智能在医疗保健中的关键应用1. **环境和早期检测人工智能:**- **Geisinger:** 使用主动护理管理算法来识别患某些疾病(例如乳腺癌)风险较高的患者,并鼓励他们接受早期检测。- **莱特中心和 LVHN:** 采用机器学习工具来早期检测无症状患者的肺栓塞,从而促进门诊治疗。2. **风险检测和快速响应:**- Geisinger 部署算法来监控来自各种来源(例如 EHR)的患者健康数据,以检测潜在的恶化情况。这些系统可以提醒医务人员在病情恶化之前迅速进行干预。3. **环境临床智能系统:**- 使用Suki等人工智能工具准确转录医患对话,减轻文档负担,提高临床效率。4. **运营改进:**- Geisinger 使用预测算法更好地安排急诊科的人员,确保根据预测的需求配备足够的人员。### 挑战和考虑因素1. **不准确问题:**- 如果人工智能系统错过了关键细节(例如,当麦克风位置不正确时),人工智能系统可能会用捏造的信息来填补对话中的空白。2. **监管合规性:**- 确保人工智能工具符合 HIPAA 法规以保护患者隐私是一个关键问题。3. **标准化和安全性:**- 不同医疗保健系统缺乏安全、公平、有效性和透明度的统一标准带来了挑战。4. **培训和收养:**- 医疗保健提供商需要接受培训,了解如何最好地与人工智能工具进行精确通信,以确保准确的数据捕获并减少错误。5. **隐私问题:**- 在部署新技术时,确保患者机密仍然至关重要。### 未来展望- **持续创新:** 正如 LVHN 的方法所示,医疗机构的目标是通过拥抱快速进步来保持人工智能发展的前沿。总体而言,虽然人工智能通过早期检测和主动管理为增强医疗保健提供了重要机会,但它也需要认真实施,以解决有关准确性、隐私和监管合规性的问题。
谷歌高管表示 2025 年人工智能的前景如何
谷歌高管表示 2025 年人工智能的前景如何
2024-12-16 10:00:00
谷歌的 Sissie Hsiao 认为,生成式人工智能的潜力才刚刚开始被认识到。谷歌的 Gemini AI 目标是到 2025 年发展成为能够跨平台处理复杂任务的深度个性化和自主工具。最近的进展包括推出 iPhone 语音助手应用程序 Gemini Live,以及使用人工智能生成综合报告的 Deep Research关于复杂的话题。萧强调围绕人工智能建立完整生态系统的重要性,类似于智能手机如何与应用程序和服务集成,以确保用户友好且无缝地融入日常生活。
当 C3.ai 股票低于 50 美元时,您应该购买它吗?|杂七杂八的傻瓜
当 C3.ai 股票低于 50 美元时,您应该购买它吗?|杂七杂八的傻瓜
2024-12-16 09:49:00
C3.ai 成立于 2009 年,为各行业的企业开发交钥匙人工智能应用程序,以加速人工智能的采用。在 2023 财年转向基于消费的业务模式后,收入增长连续七个季度大幅增长。尽管其股价远低于 2020 年底创下的历史高点,但由于与Amazon Web Services 和 Microsoft Azure 等云提供商。C3.ai 2025 财年第二季度强劲的财务业绩导致 2025 财年的收入指引上调,收入达到创纪录的 9430 万美元,同比增长 29%。分析师看好C3.ai的未来增长潜力,认为其股价有望回升至50美元以上。C3.ai
新的 Clarifai 工具可跨任何基础设施协调 AI - AI 新闻
新的 Clarifai 工具可跨任何基础设施协调 AI - AI 新闻
2024-12-16 09:03:12
AI平台提供商Clarifai于2024年12月3日推出了新的计算编排功能,旨在帮助企业跨各种计算环境优化其AI工作负载。此公共预览版允许组织通过云、本地或气隙基础设施的统一控制平面来管理人工智能工作负载。主要功能包括成本优化、部署灵活性、与 Clarifai 现有人工智能平台的集成以及增强的安全措施。该平台承诺降低高达 60-90% 的成本,并支持每秒超过 160 万个推理请求。
人工智能领域最奇怪的工作
人工智能领域最奇怪的工作
2024-12-16 09:03:00
AI公司Anthropic聘请Kyle Fish作为研究员,专注于人工智能系统的“福利”,标志着AI福利成为一个严肃的研究领域。Fish 将探讨人工智能需要具备哪些能力才能得到道德考虑,以及企业如何保护人工智能的利益。这一举措是在人们对未来可能拥有意识或能动性的先进人工智能系统的伦理待遇感到担忧的情况下提出的,与人类福利问题相比,引发了对其权利和责任的质疑。批评者认为,虽然保护人工智能很重要,但当前的技术已经给人类带来了巨大的风险,敦促 Anthropic 这样的公司优先解决这些紧迫的问题。
大脑连接和机器学习如何增强对人类认知的理解
大脑连接和机器学习如何增强对人类认知的理解
2024-12-16 08:42:00
最近发表在 PNAS Nexus 上的一项研究探讨了大脑连接与智力之间的关系,强调了机器学习模型中可解释性相对于预测性能的重要性,以更好地理解人类认知。该研究使用人类连接组项目 806 名 22 至 37 岁参与者的数据,确定了大约 1,000 个跨越主要功能系统的高度预测性大脑连接。这些发现凸显了认知状态和网络之间的系统差异,全脑模型的表现优于基于既定智能框架的理论驱动方法。
儿童疫苗接种的机器学习
儿童疫苗接种的机器学习
2024-12-16 08:16:52
科廷大学正在与 Boorloo(珀斯)公共卫生部门合作开发一种机器学习工具,该工具由未来健康研究和创新基金资助。目的是识别有错过疫苗接种风险的西澳大利亚儿童,旨在将疫苗接种率提高到 95% 的国家基准以下。该项目解决了交通不便、负担能力、疫苗犹豫和社会经济因素等障碍。该计划利用数字健康创新,力求在孩子错过重要的免疫接种之前主动为家庭提供支持,从而有可能减少疫苗可预防的疾病和相关成本。
AWS Re:Invent 2024:平衡云基础设施和人工智能目标
AWS Re:Invent 2024:平衡云基础设施和人工智能目标
2024-12-16 07:19:24
AWS re:Invent 2024 强调了该公司回归核心云服务创新,同时推进生成式 AI 功能。主要公告包括用于提高性能和效率的新型定制芯片、推出可显着降低成本的 Nova 基础模型,以及增强 SageMaker 作为综合性企业 AI 平台。AWS 还推出了 S3 Tables,将类似数据库的功能集成到对象存储中。Amazon Q 是一款人工智能助理,可跨服务集成以提高生产力。EKS 混合节点等混合云产品可实现无缝的本地集成,Apple 和摩根大通的客户胜利凸显了 AWS 满足苛刻企业需求的能力。总体而言,此次会议展示了 AWS 在基础云基础设施与尖端人工智能进步之间取得平衡的战略。AWS re:Invent 2024AWS
自杀身亡的前 OpenAI 员工在一场可能决定互联网未来的法庭案件中被点名
自杀身亡的前 OpenAI 员工在一场可能决定互联网未来的法庭案件中被点名
2024-12-16 07:14:00
Suchir Balaji 是前 OpenAI 研究员,致力于训练 ChatGPT 和 GPT-4 模型,于 2023 年 11 月下旬自杀身亡。在他去世前八天,Balaji 的名字被添加到《纽约时报》针对 OpenAI 提起的诉讼中,微软涉嫌未经许可使用受版权保护的文章来训练人工智能模型。巴拉吉此前曾对 OpenAI 数据使用的合法性以及开发有害技术的道德影响表示担忧。
“忘记那些学科界限”:纳拉亚南和卡普尔谈人工智能研究和政策合作
“忘记那些学科界限”:纳拉亚南和卡普尔谈人工智能研究和政策合作
2024-12-16 06:58:00
普林斯顿大学的研究人员阿尔文德·纳拉亚南 (Arvind Narayanan) 和萨亚什·卡普尔 (Sayash Kapoor) 通过他们的著作《AI 万金油》引发了全球对人工智能 (AI) 的讨论,该书解决了人工智能的局限性和潜在的滥用问题。他们的跨学科方法将计算机科学与伦理和政策相结合,影响了学者、行业专家和政策制定者。两人的工作重点是挑战人工智能技术的炒作,同时为与人工智能相关的社会问题提供实用的解决方案。他们在普林斯顿大学教授将道德考虑融入计算机教育的课程,并通过对话和研讨会参与制定技术政策。