学位论文 > 优秀研究生学位论文题录展示
语音信号增强与分离算法研究
作 者: 王恬
导 师: 赵淑清
学 校: 北京化工大学
专 业: 计算机应用技术
关键词: 语音增强 语音分离 听觉场景分析 盲信号分离
分类号: TN912.3
类 型: 硕士论文
年 份: 2005年
下 载: 236次
引 用: 1次
阅 读: 论文下载
内容摘要
近年来,一些语音信号处理技术例如语音编码、语音合成、语音识别等已经实现了商品化,但是噪声问题在一定程度上阻碍了这些技术在实际生活中更广泛的应用。这就使得语音增强与分离问题应运而生。 本文主要针对语音分离问题进行研究。目前常用的语音分离方法主要有听觉场景分析法和盲信号分离法。本课题的研究以这两种方法为基础,在对两种方法进行仿真的同时提出了周期延迟法和时域、频域相结合的盲信号分离算法。周期延迟算法有错周期相加和错周期相减两种实现方式。它利用基音周期信息,在频域对各频率成分的归属进行判断,将属于目标语音的部分分离出来合成最终的输出语音,这一点与听觉场景分析方法相似。盲信号分离算法有时域处理和频域处理两种实现方式,但是时域处理方法运算量较大,频域处理方法分离效果相对较差。而时域、频域相结合的方法有效利用原有处理方法的优点,改进其缺点,达到了更好的处理效果。实验证明,周期延迟法和时域频域相结合的盲信号分离算法与两种常用方法相比,运算量更小,运算时间更短,同时算法的分离效果相当。因此,本文中所提出的两种方法更符合实际应用的需要。但是,目前各种方法通常都是对分离两种语音的混叠较为有效,而在嘈杂环境中的应用效果较差,这一问题还有待进一步的研究。
|
全文目录
第1章 绪论 6-14 1.1 语音信号处理的发展概况 6-7 1.2 语音增强技术的发展概况 7-12 1.3 课题研究内容及论文结构 12-14 第2章 听觉场景分析算法 14-19 2.1 听觉计算模型 14-15 2.2 利用听觉场景分析方法分离混叠语音 15-17 2.3 实验 17-19 第3章 周期延迟算法 19-29 3.1 利用周期延迟算法实现混叠语音的分离 19-24 3.1.1 基音周期的提取 19-21 3.1.2 错周期相加(减) 21-23 3.1.3 峰值归属的判断 23-24 3.2 实验 24-26 3.3 算法比较 26-29 第4章 盲信号分离法 29-41 4.1 盲信号分离法 29-32 4.1.1 盲信号分离法的统一形式 29-30 4.1.2 LMS算法 30-31 4.1.3 最大熵法(ME)及增强的最大熵法 31-32 4.2 利用盲信号分离方法实现混叠语音的分离 32-34 4.2.1 时域处理方法 32-33 4.2.2 频域处理方法 33-34 4.2.3 时、频域处理相结合的方法 34 4.3 实验 34-41 第5章 音频处理软件中的幅度处理模块 41-51 5.1 基本操作及压扩部分 41-43 5.1.1 基本操作--复制、剪切和粘贴 41-42 5.1.2 压扩部分 42-43 5.2 语谱图 43-44 5.3 混响 44-48 5.4 变调 48-51 结论 51-52 参考文献 52-55 致谢 55-56 学术论文目录 56
|
相似论文
- 基于听觉掩蔽效应的数字助听器关键技术的研究,TN912.3
- 数字助听器中语音增强技术的研究,TN912.35
- 单通道语音增强算法的研究,TN912.35
- 多管阵列定向语音增强系统的研制,TN912.35
- 基于听觉侧抑制的滤波算法研究,TN911.72
- 嘈杂环境下的麦克风阵列语音增强技术研究,TN912.35
- 复杂环境下语音增强方法研究,TN912.35
- 基于计算听觉场景分析的混合语音分离研究,TP391.42
- MELPe语音编码关键技术研究,TN912.3
- 基于盲信号分离的齿轮系统故障诊断研究,TH165.3
- 基于Gabor变换和盲信号分离的信号降噪技术及应用,TH165.3
- 基于子空间的语音增强算法研究,TN912.35
- 低信噪比下的语音增强方法研究,TN912.35
- 基于DM6446嵌入式平台的语音增强算法实现与优化,TN912.35
- 基于ARM的嵌入式语音识别的研究,TN912.34
- 非平稳环境下的语音增强算法研究,TN912.35
- 麦克风阵列语音增强技术研究,TN912.35
- 基于小波变换的语音增强及DSP实现,TN912.35
- 基于自适应谱估计的语音增强算法研究及应用,TN912.35
- 基于空域滤波的语音分离研究,TN912.3
- 移动机器人听觉导航系统中语音分离技术研究,TN912.3
中图分类: > 工业技术 > 无线电电子学、电信技术 > 通信 > 电声技术和语音信号处理 > 语音信号处理
© 2012 www.xueweilunwen.com
|