作者:#author.fullName}
大脑计算机界面使一个瘫痪的男人能够进行实时对话,而没有通常的语音延迟
一个瘫痪的男子连接到脑计算机界面系统
Lisa E Howard/Maitreyee Wairagkar等。2025
一个失去讲话能力的人现在可以进行实时对话,甚至可以通过脑控制的合成声音唱歌。
大脑计算机界面通过植入的电极读取人类的神经活动脑然后瞬间产生的语音反映了他的预期音调,语调和重点。这是瞬时声音综合的第一个此类,在25毫秒内。
Sergey Stavisky在加利福尼亚大学戴维斯分校。需要改进该技术以使演讲更容易理解。
Maitreyee Wairagkar,也在加州大学戴维斯分校。但是,据Wairagkar说,这个男人因肌萎缩性的侧面硬化而失去了交谈的能力,但仍然说这让他很开心,并且感觉就像他的真实声音。
使用使用脑部计算机界面的语音神经预测已经存在,但是通常需要几秒钟才能将大脑活动转化为声音。Stavisky说,这使自然对话很难,因为人们可以实时中断,澄清或做出反应。这就像与连接不良的电话交谈一样。
为了更现实地综合语音,Wairagkar,Stavisky及其同事将256个电极植入了人类大脑的部分,这些电极有助于控制用于说话的面部肌肉。然后,在多次会议上,研究人员向他展示了数千句话,并要求他尝试大声说出它们,有时还要大声说明他的大脑活动。
例如,您可以说,您今天好吗?今天Stavisky说,这改变了句子的语义。与以前的系统相比
接下来,团队将数据馈送到人工智能经过训练的模型将神经活动的特定模式与该人试图表达的单词和变形的模型相关联。然后,该机器根据大脑信号产生了语音,产生了一种反映他打算说的话以及他想如何说的声音。
研究人员甚至使用语音缩写技术使合成的声音听起来像他自己的声音,甚至在人类状况进展之前就训练了AI的语音录音。
在实验的另一部分中,研究人员让他尝试使用不同的音调唱简单的旋律。他们的模型实时解码了他的预定音调,然后调整了它产生的歌声。
Wairagkar说,他还使用该系统说话而不会被提示并产生诸如“ hmm”之类的声音。
团队成员说,他是一个非常清晰聪明的人。大卫·布兰德曼(David Brandman),也在加州大学戴维斯分校。``他从瘫痪而无法说话继续全职工作并进行有意义的对话。
主题: