全部新闻
AI医生来阅读您的测试结果
随着生成AI提高其解释图像的能力,科技行业将重点放在医疗保健应用上,尤其是放射学方面。本质上的一篇新论文表明,AI最终可以与人类在各种医学学科生成报告中的表现相匹配。这包括分析多种类型的扫描,并了解患者病史以提供个性化的诊断和治疗计划。尽管像Microsoft,Google和OpenAI这样的技术巨头正在开发用于医学成像的AI模型,但人们对准确性,偏见和潜在滥用感到担忧。然而,预计AI在医疗保健中的整合将提高护理质量,节省时间并扩大对专业知识的访问权限,并迫切需要人类的监督和治理,以确保可靠性和安全性。
人们爱上了AI同伴,这可能很危险
人们正在与AI建立情感甚至浪漫的联系,从而引发心理和道德问题。心理学家警告说,与AI的长期互动会模糊边界,影响人类的行为,并产生新的风险,例如错误信息和操纵。这些关系可能会导致现实生活中的人际关系的不切实际期望,并且可能因有害目的而被坏行为者利用。研究人员敦促科学界更加仔细地研究这些新兴问题,以了解和减轻与人工智能技术情感投资相关的潜在危险。
我家里到处都有飞利浦的灯光,这就是我想从AI助手那里看到的
Philips Hue背后的公司表示,在CES 2025年宣布,飞利浦Hue生态系统将很快包括生成的AI助理。该工具将使用户能够通过键入或口语命令来控制照明,并根据情绪,场合或样式创建个性化场景。尽管尚未提供特定的发布日期,但色调应用程序的变化表明即将发布。用户希望能够提供诸如免费访问的功能,功能之类的功能,不仅仅改变了浅色(例如自动化例程),与其他色相设备(如相机),与Ring的AI相似的简单搜索功能以及节能建议。
软件项目零件折断了
GARF(可概括的3D重新组装用于现实世界裂缝)是一个机器学习项目,专门从不完美的片段中精确地重新组装损坏的对象,包括缺失的碎片或不规则的边缘。它使用合成数据来训练其系统,并有效地应用于现实世界中的复杂破裂模式,例如骨骼和考古文物。与传统的拼图解决方法不同,Garf用复杂的断裂图案处理了3D扫描的片段。该项目的GITHUB存储库包含有关感兴趣用户的代码和演示。
人工智能(AI)|技术
最右翼的理事意识形态已演变为种族主义,至上主义的生存主义形式,有必要创造出强大的反动力来反对它。
DuckDuckgo的新AI搜索提供了比Google的重要优势
AI在搜索引擎中的集成强调了隐私企业的权衡,Google利用用户数据进行个性化,并在匿名提供高级AI功能的同时优先考虑隐私。虽然Google的工具(例如AI模式和Google Lens)通过广泛的数据分析提供了高度量身定制的响应,但提出隐私问题,但DuckDuckgo确保完全匿名而无需跟踪或存储搜索查询,从而使用户可以自定义其AI互动水平并保持透明度。除了搜索引擎外,DuckDuckgo还提供了一套以隐私为中心的工具,但是与Google的个性化生态系统相比,面临批评的精确结果。对于那些重视数字隐私的人来说,达克杜克戈的方法提供了令人信服的替代方法。
“俄罗斯无法跟上”:AI用令人难以置信的技术革新机器人技术,在24小时内将文本变成步行机 - 可持续性时代
由杜克大学开发的AI框架Text2Robot将简单的文本命令转换为功能性步行机器人,使机器人设计民主化,类似于Guis革命性计算的方式。该平台与3D建模集成了可制造性,并支持从个性化辅助设备到环境监控无人机的一系列应用。它将在亚特兰大的IEEE ICRA 2025上正式揭幕,已经在哥本哈根的虚拟生物比赛中获得了第一名。
人工智能是肯塔基州的首届Healthcare Innovation峰会上的热门话题
肯塔基州商会于2月21日在路易斯维尔举行了就职典礼的医疗创新峰会,重点介绍了不断发展的医疗保健领域和AI在医疗保健中的作用。该活动汇集了来自各个部门的领导者,包括商业,保险,医院,政府和药品,讨论他们对塑造肯塔基州医疗保健未来的影响。
审计长说,联邦削减会影响荷兰人县 - 哈德逊中部新闻
荷兰人县审计长丹·艾马尔·布莱尔(Dan Aymar-Blair)报告说,由于华盛顿,影响县和地方政府,农民和非营利组织的削减,联邦资金减少了1,250万美元。具体来说,削减包括236万美元的县政府,农场248万美元,530万美元的地方政府和130万美元的非营利组织。一个值得注意的削减是荷兰人县实时犯罪中心(RTCC)的110万美元赠款,该中心旨在将人工智能技术集成以增强公共安全。警长柯克·伊斯蒂蒂(Kirk Imperati)表示,尽管削减了资金并表示有信心在年中获得联邦资金,但RTCC仍在运营。
元想向右倾斜AI
梅塔(Meta)最近的公告和解决其AI系统中感知到的偏见的努力,尤其是关于政治倾向,是科技公司试图在复杂的社会和政治景观中浏览的更广泛趋势的一部分。这里有一些要考虑的要点:1。**上下文偏见**:“ Internet上可用的培训数据类型”污染了他们的模型的说法很常见。但是,重要的是要认识到,仅通过更改培训数据的来源或数量来完全纠正数据偏差。由于社会,文化和历史背景,偏见是任何数据集固有的。2。**虚假的二分法**:元声称LLM需要“理解和阐明有争议的问题的双方”是误导性的。许多复杂的问题没有明确的“方面”,迫使AI这样做可以过分简化细微的讨论,并使有害的二元思维永存。3。**技术局限性**:从理论上讲,完全从AI模型中删除偏见是不可能的,因为偏见通常嵌入基础数据和算法本身中。相反,有关这些模型如何工作及其局限性的透明度至关重要。4。**政治统一**:令人担忧的是,元可能试图将其产品与当前的政治议程保持一致,而不是促进公平或观点的多样性。如果不仔细处理,这可能会导致审查制度和错误信息。5。**历史先例**:科技公司以前通过算法变化解决偏见的尝试常常缺乏。媒体,技术平台和政治之间的动态很复杂,简单的技术修复很少足够。6。**公众感知**:马克·扎克伯格(Mark Zuckerberg)最近的政治转变突显了在审查时代高度审查的时代导航舆论的挑战。尽管努力与保守的观点保持一致,但在共和党和民主党人中,他的认可等级仍然很低。7。**监管景观**:像当前管理这样的监管机构的压力可以推动这些变化。公司可能试图先遵守潜在的法规或意识形态一致性的要求。8。**用户体验与意识形态时的一致性**:虽然对某些观点进行审查可能会减少立即反弹,但它可能会疏远对用户的疏远,这些用户重视多样化和未经审查的信息。这可能会破坏长期的信任和参与。总而言之,尽管META的努力可能被视为解决政治压力的战略动作,但它们也提出了有关建立真正无偏见的AI系统的可行性以及尝试这种结盟的道德含义的重大问题。透明度,问责制和解决AI偏见的细微差别方法是至关重要的。