作者:PYMNTS
研究人员说他们有证明了这是一种通过捕获计算机电磁信号来提取人工智能 (AI) 模型的潜在方法,据称准确率超过 99%。
这一发现可能会给商业人工智能开发带来挑战,OpenAI、Anthropic 和谷歌等公司在专有模型上投入了大量资金。不过,专家表示认为现实世界的影响和针对此类技术的防御仍不清楚。
“人工智能盗窃不仅仅是丢失模型,”拉尔斯·尼曼,首席营销官CUDO计算,告诉皮姆茨。——这是潜在的级联损害,即竞争对手利用多年的研发成果、监管机构调查敏感知识产权处理不当的情况、客户突然意识到你的人工智能“独特性”并不那么独特而提起诉讼。如果说有什么不同的话,那就是这种防盗保险趋势可能会为标准化审核(类似于 SOC 2 或 ISO 认证)铺平道路,从而将安全参与者与鲁莽参与者区分开来。
随着企业依靠人工智能来获得竞争优势,针对人工智能模型的黑客对商业构成了越来越大的威胁。最近的报告显示数千个恶意文件已被上传到抱脸,人工智能工具的关键存储库,危及零售、物流和金融等行业使用的模型。
国家安全专家警告说,薄弱的安全措施可能导致专有系统被盗,正如OpenAI 漏洞。被盗的人工智能模型可以被逆向工程或出售,从而削弱企业的投资并侵蚀信任,同时使竞争对手能够实现跨越式创新。
人工智能模型是一种数学系统,经过数据训练来识别模式并做出决策,就像告诉计算机如何完成特定任务(例如识别照片中的对象或编写文本)的菜谱一样。
北卡罗来纳州立大学的研究人员显示一种通过从处理硬件捕获电磁信号来提取人工智能模型的新方法,准确率高达 99.91%。通过将探头放置在靠近Google 边缘张量处理单元(TPU),他们可以分析揭示模型结构关键信息的信号。
据推测,该攻击不需要直接访问系统,从而对人工智能知识产权构成安全风险。研究结果强调,随着人工智能技术在商业和关键系统中的使用,需要改进保障措施。
“人工智能模型很有价值,我们不希望人们窃取它们,”艾丁·艾苏一篇关于这项工作的论文的合著者、北卡罗来纳州立大学电气和计算机工程副教授在一篇文章中说博客文章。– 构建模型成本高昂,并且需要大量计算资源。但同样重要的是,当模型被泄露或被盗时,该模型也变得更容易受到攻击,因为第三方可以研究该模型并识别任何弱点。
技术顾问表示,人工智能模型对攻击的敏感性可能会迫使企业重新考虑使用某些设备进行人工智能处理苏里尔·阿雷拉诺告诉皮姆茨。
“公司可能会转向更加集中和安全的计算,或者考虑不易被盗的替代技术,”他补充道。——这是一种潜在的情况。但更有可能的结果是,从人工智能中获得显着收益并在公共环境中工作的公司将大力投资于提高安全性。”
尽管存在盗窃风险,人工智能也帮助增加安全性。作为皮姆茨 之前报道人工智能正在通过模式识别和数据分析实现自动威胁检测和简化事件响应,从而加强网络安全。联想首席技术官 Timothy E. Bates 表示,人工智能驱动的安全工具既可以识别潜在威胁,又可以从每次遭遇中学习,他强调了机器学习系统如何帮助团队预测和应对新出现的攻击。