在一段奇怪的视频中,人工智能音乐生成器似乎像人类一样哭泣,这让发布该视频的 Reddit 用户感到惊讶。
u/BloodMossHunter 在 r/SunoAI(一个致力于同名音乐生成软件的 Reddit 子版块)上发布了一段 24 秒的剪辑,显示 AI 听起来像是在哭泣,这似乎并不是用户的提示。
嗯,我的苏诺最后开始哭了。歌声停了下来,只剩下抽泣。还有人遇到过奇怪的事情吗?
byu/BloodMossHunter inSunoAI
正如其他用户指出的那样,在这些人工智能生成的歌曲末尾随机出现的情感爆发和其他令人毛骨悚然的音频片段似乎很可怕,也许这取决于您对软件的普遍现象的看法。
例如,在一条评论中,一位用户分享了一首由 Suno 制作的歌曲,该歌曲已在 Spotify 上发布,歌曲结尾包含可怕的回音尖叫声“不!”。
在另一篇文章中,u/SkyDemonAirPirates 分享了一首名为“Ignorance Was Bliss”的歌曲,他们将其发布到 Suno 的网站上,其中有一个毛茸茸的女声询问听众是否“还活着”,然后疯狂地大笑。
“我猜是机器里的鬼魂,”另一位用户回应道。“哎呀。”
在另一个令人毛骨悚然的轶事中,u/SkyDemonAirPirates 表示他们生成了另一首曲目,其中包括随机的“请帮助我”的呼喊声。该用户声称他们向 Suno 报告了这首歌,后者随后“对它进行了攻击”,这至少表明该公司意识到其软件中反复出现的这个问题。
在讨论问题的潜在根源时,用户提出了一个极其简单的理论:由于人类创作的一些歌曲具有以对话为特色的“随机结尾”,人工智能可能会试图模仿该功能。如果用户输入“情绪化”等提示标签,Suno 可能会依次插入哭泣。
事实上,正如 u/BloodMossHunter 指出的那样,他们对这首歌的最终标签是“psyche”,Suno 可能误解了这一点。
我们已经联系了 Suno,询问他们到底发生了什么,但前面提到的用户理论似乎确实与其他生成人工智能错误相同,这些错误表明了这项技术是多么可怕。
有关人工智能音乐的更多信息:男子因使用人工智能创建假乐队而被捕,然后通过使用机器人聆听他们的歌曲赚取 1000 万美元
分享这篇文章