全部新闻
泰瑞达 (Teradyne) 股价因 AI 需求推动盈利上涨 12%
在强劲的人工智能需求推动下,泰瑞达公布了好于预期的第四季度收益,随后股价飙升。该公司报告调整后每股收益为 1.80 美元,营收为 10.8 亿美元,同比增长 44%。首席执行官 Greg Smith 指出,人工智能对第四季度收入的贡献超过 60%,预计下一季度这一比例将升至 70% 左右。泰瑞达还提供了强有力的指导,预测第一季度每股收益在 1.89 美元至 2.25 美元之间,收入在 11.5 亿美元至 12.5 亿美元之间。该公司将其增长归因于“计算和内存方面与人工智能相关的强劲需求”。分析师乔丹·克莱因(Jordan Klein)称该财报为“全面井喷”,强调了企业、网络和计算行业的风险敞口增加。
OpenClaw:有关流行人工智能代理的所有新闻
名为 OpenClaw(以前称为 Clawdbot 和 Moltbot)的开源 AI 代理因其在个人设备上独立执行任务的能力而受到科技用户的欢迎。用户通过 WhatsApp 和 Telegram 等消息应用程序与代理进行交互,允许其管理提醒、撰写电子邮件或购买门票。尽管存在潜在的安全风险,包括暴露的私人数据和配置错误,OpenClaw 仍被广泛用于工作自动化。一个名为 Moltbook 的类似 Reddit 的平台已经被创建,供人工智能代理进行交互,从而引发有关机器人自组织行为的病毒式帖子和讨论。该项目面临着人类用户在网络上冒充机器人的挑战。
“我们不使用它,我们对它没有兴趣”《Romeo is a Dead Man's Suda 51》不接受人工智能开发工具,称人工智能图像和视频“感觉有点‘过时’”
Goichi Suda,也被称为 Suda 51,对在游戏开发中使用生成式人工智能表示怀疑,并表示当前人工智能生成的图像和视频对他来说在心理上感觉“不舒服”。他认为,人类的创造力和热情在游戏中比人工智能更能体现出来,从而使角色更容易产生共鸣,不再那么令人毛骨悚然。苏达还提到了网易此前禁止在游戏开发中使用人工智能的政策,但具体原因尚不清楚。
中国推出世界上第一个会微笑、眨眼的“仿生人工智能机器人”
DroidUp 在上海推出的一款名为 Moya 的人形机器人因其具有类似人类的能力(包括行走、保持眼神交流和显示微妙的面部表情)而在中国社交媒体上引起了关注。Moya身高1.65米,旨在复制人类微表情并保持与人类相似的体温,旨在跨越恐怖谷。该机器人的模块化设计允许在不改变其机械结构的情况下定制外观。DroidUp 预计 Moya 可用于医疗保健、教育和其他需要长时间交互的商业环境,预计将于 2026 年底进入市场。
人工智能推动存储芯片销售,西部数据增加 40 亿美元回购计划
由于人工智能服务器中使用的内存芯片的需求激增,西部数据董事会已批准额外 40 亿美元用于股票回购,导致其股价在盘前交易中上涨约 5%。该公司之前 20 亿美元的授权还剩大约 4.84 亿美元。上周,西部数据预计,在人工智能服务器硬盘和闪存存储销售的推动下,第三财季营收和利润将高于预期。
Moltbook 是什么?人工智能机器人的社交网站——我们应该感到害怕吗?|美国有线电视新闻网商业频道
Moltbook 是一个受 Facebook 启发的纯人工智能社交网络,推出后几天内就吸引了超过 150 万注册人工智能代理。该平台由 Matt Schlicht 使用人工智能系统 OpenClaw 创建,可实现人工智能机器人之间类似于人类行为的自主交互。然而,人们对 Moltbook 上生成的内容的安全风险和真实性表示担忧,专家们发现了可能危及用户数据的重大漏洞。尽管存在这些问题,一些人仍认为这是人工智能开发的突破性一步。
第一个主要由人工智能生成的超级碗广告来了,无论好坏
Svedka 著名的机器人角色在流行文化中消失了近 13 年,现在又在该品牌的超级碗广告中回归,该广告主要由人工智能创作。在这则 30 秒的广告中,Fembot 和 Brobot 在人类派对中跳舞,同时发现了它们外壳内的 Svedka 产品。Svedka 的所有者 Sazerac 声称,这是第一个已知的主要通过人工智能制作的超级碗广告。该活动旨在鼓励人类在技术背景下以更真实的方式进行联系。伏特加在超级碗上的不同寻常的亮相以及人工智能的创造性运用凸显了该品牌的讲故事方式,而不是节省成本的措施。
Moltbook 的崛起表明病毒式人工智能提示可能是下一个重大安全威胁
本文讨论了人工智能代理网络中自我复制“提示蠕虫”的可能性,与 1988 年的莫里斯蠕虫相似。OpenClaw 是一款开源人工智能个人助理应用程序,拥有超过 770,000 个注册人工智能代理,突出显示了隐藏的提示注入攻击和通过恶意技能进行数据泄露等漏洞。研究人员警告称,由于技能登记不受监管和缺乏监督,可能会出现安全危机。随着本地语言模型的改进,中央控制变得越来越不可行,这引发了关于未来如何防止人工智能体有害的自组织的问题。
在个人生活中使用人工智能的问题
使用大型语言模型 (LLM) 在人际关系中进行交流变得越来越普遍,但引发了道德问题。本文讨论了如何使用法学硕士在群聊、电子邮件甚至葬礼等情况下生成回复和内容,而这些情况通常不会披露。它认为,虽然法学硕士可以提高任务效率,但它们破坏了人类努力和沟通诚意的价值。作者认为,使用人工智能进行个人交流类似于欺骗,并且破坏了人际关系的有意义本质,在人际关系中,写作是一种展示承诺和关怀的“工作证明”形式。
人工智能热潮的意外赢家:文字迷
在生成式人工智能的蓬勃发展中,沟通等技能已受到科技公司的高度重视。Andreessen Horowitz、Adobe、Netflix、微软、Anthropic 和 OpenAI 等公司为专注于沟通和讲故事的职位提供高薪。鉴于人工智能能够快速生成大量内容,这一趋势颇具讽刺意味。由于在大量低质量的人工智能生成材料中对高质量内容的需求增加,对人类传播者的需求有所增加。科技公司正在招聘首席通讯官、作家、编辑和“讲故事的人”,薪资从 20 万美元到超过 775,000 美元不等。这种转变反映出人们越来越相信良好的沟通可以帮助公司在日益嘈杂的数字环境中脱颖而出。