跳至内容
CSS3 Dot TOP
用户工具
登录
站点工具
搜索
工具
显示页面
修订记录
反向链接
最近更改
媒体管理器
网站地图
登录
>
最近更改
媒体管理器
网站地图
您的足迹:
音频:识别:资料
编辑本页后请点击“保存”。请参阅
syntax
了解维基语法。只有在您能
改进
该页面的前提下才编辑它。如果您想尝试一些东西,请先到
playground
热身。
媒体文件
====== 可选方法: ====== 针对音乐的识别与针对语言的识别算法上并无太大差异 ^ ^ 生成模型(如HMM) ^ 识别模型(如CRF、RNN) ^ | 优点 | 包含语言模型𝑝(𝐒) | 学习、识别过程简洁 | | |(理论上)可以进行半监督、无监督学习 | 准确率比较好 | | 局限 | 可选的模型有限 | 难以整合语言模型 | | | 表达能力有限,准确率较低 | 只能进行有监督学习,性能受制于数据量 | ===== 生成模型 ===== ==== 基于HMM的语音识别 ==== === 参考资料 === [[https://blog.csdn.net/qq_23660243/article/details/80821617|基于HMM的语音识别(一)]] \\ [[https://blog.csdn.net/qq_23660243/article/details/80835308|基于HMM的语音识别(二)]] \\ [[https://github.com/drbinliang/Speech_Recognition|Speech_Recognition]] \\ ------------ 为什么在生成模型中不能用深度神经网络? (为什么识别任务中无法使用深度生成模型?) > 生成模型中很难将**输入**的序列与**输出**的序列配对。所以,深度学习模型一般是用在另外一个思路上,也就是识别型的模型 一个可能的解决方法: 可借鉴[[https://www.microsoft.com/en-us/research/publication/songmass-automatic-song-writing-with-pre-training-and-alignment-constraint/|SongMASS]]中的对齐方法
保存
预览
取消
编辑摘要
当您选择开始编辑本页,即寓示你同意将你贡献的内容按下列许可协议发布:
GNU Free Documentation License 1.3
音频/识别/资料.txt
· 最后更改: 2021/10/28 11:14 由
cgoxopx
页面工具
显示页面
修订记录
反向链接
回到顶部