Audio-based snore detection using deep neural networks解读

0 摘要

Background and Objective: 打鼾是一种普遍现象。 它可能是良性的,但也可能是阻塞性睡眠呼吸暂停 (OSA) 一种普遍存在的睡眠障碍的症状。 准确检测打鼾可能有助于筛查和诊断 OSA。
Methods: 我们介绍了一种基于卷积神经网络 (CNN) 和循环神经网络 (RNN) 组合的打鼾检测算法。 我们获得了转诊到临床中心进行睡眠研究的 38 名受试者的录音。 所有受试者都由放置在床周围关键位置的总共 5 个麦克风记录。 CNN 用于从声音频谱图中提取特征,而 RNN 用于处理连续的 CNN 输出并将音频事件分类为打鼾和非打鼾事件。 我们还解决了麦克风放置对算法性能的影响。
Results: 该算法在我们的数据集(包括 18412 个声音事件)的鼾声检测中对所有麦克风实现了 95.3 ± 0.5% 的准确度、92.2 ± 0.9% 的灵敏度和 97.7 ± 0.4% 的特异性。 从放置在受试者头部上方约 70 cm 处的麦克风观察到的最佳准确度 (95.9%),从放置在受试者头部上方约 130 cm 处的麦克风观察到的最差 (94.4%)。
Conclusion: 我们的结果表明,我们的方法可以高精度地从录音中检测打鼾事件,并且麦克风的放置对检测性能没有重大影响。
keywords: Snore detection, Convolutional neural network, Recurrent neural network, Audio signal processing, Constant Q transformation, Body-position in sleep

1 引言

Motivation: 尽管上述几项研究产生了相对准确或至少有希望的结果,但它们涉及手动特征提取,这不仅需要特定领域和信号处理知识,还需要大量人力。
Methods: 作者引入了一种使用音频信号进行打鼾检测的深度学习方法。 网络架构主要由三个卷积神经网络 (CNN) 层和一个循环神经网络 (RNN) 层组成。 (1)CNN 层用于从音频数据的二维 (2D) 表示中自动提取特征(无需人工进行特征工程)[16,17]。(2)由于其在低频范围内具有更高的频谱分辨率,类似于梅尔标度,因此选择了恒定 Q 变换 (Constant-Q transformation, CQT) 来将音频信号转换为其相关的 2D 表示。 它已由 Youngberg 和 Boll [18] 以及后来的 Brown [19] 提出,并已用于音乐处理 [20-22]。(3) RNN 层用于探索音频数据的序列特征,已广泛应用于其它基于音频的应用,如语音识别 [23,24] 和自然语言处理 [25-27]。
此外,在以前的研究中,麦克风几乎总是放置在一个固定位置,这似乎是临时的,并且因研究而异(见表 6)。 打鼾记录技术缺乏一致性和建议 [7,28,29]。 有限数量的研究调查了麦克风放置对打鼾记录的影响。 吴等人 [30] 评估了嘴到麦克风的距离对打鼾信号质量和患者舒适度的影响。 该研究建议最佳嘴到麦克风距离为 0.3 m。 赫尔佐格等人 [31] 研究了麦克风放置与鼾声频率分析结果之间的关系。 他们观察到空气耦合麦克风比身体接触麦克风具有更宽的频率范围。 然而,他们的研究并不清楚麦克风的放置如何影响打鼾检测性能。

2 数据和方法

2.1 数据

数据集: 使用的数据集是大型 SOMNIA 数据库 [32] 的一个子集。 根据录音的可用性,包括 38 名受试者。
2017 年 6 月至 2017 年 11 月期间,所有受试者在荷兰 Heeze 的 Kempenhaeghe 睡眠医学中心的睡眠实验室接受了常规 PSG 监测。
在性别、体重指数 (BMI) 和 AHI 方面没有强加特定的选择要求。 年龄小于 18 岁和接受持续气道正压通气治疗的受试者被排除在外。 表 1 总结了这些受试者的人口统计学和诊断信息。
在这里插入图片描述
SOMNIA 研究由 Maxima 医疗中心(荷兰埃因霍温。文件编号:N16.074 和 W17.128)的医学伦理委员会审查。 所有参与者都提供了书面知情同意书。 所有研究均符合赫尔辛基宣言的伦理原则、良好临床实践指南和现行法律要求。 本数据分析研究的方案得到了 Kempenhaeghe 睡眠医学中心审查委员会和飞利浦机构审查委员会(生物医学实验内部委员会)的批准。

2.2 数据标注

声音事件的手动检测是一个劳动密集型过程。 为了加快速度,我们使用了由Arsenali 等人 [14]描述的声音间隔的自动选择。然后是打鼾、非打鼾、可能打鼾和可能非打鼾事件的手动注释,由经验丰富的睡眠技术人员完成。
Arenai 等人的自动检测方法[14]有四个步骤。 首先,原始信号由 A 加权滤波器处理,该滤波器考虑人耳感知的相对响度。 其次,使用持续时间为 0.1 秒和步长为 1 个样本的滚动窗口来估计滤波信号的功率。 第三,双阈值用于从过滤信号的估计功率中检测声音事件。 检测阈值(即,低和高)是为每个记录手动选择的,以考虑由例如空调系统引起的本底噪声的变化。 最后,持续时间小于 0.2 秒的声音事件被排除在进一步分析之外。 此过程导致每个受试者平均 4756 个声音事件(最小值和最大值分别为 1793 和 8509)。
接下来,图形用户界面促进了手动注释,该界面可以对自动检测到的声音事件进行视听检查,并使用其周围环境来加快注释过程。每个事件都由一名注释者标记为以下标签之一:打鼾、非打鼾、可能打鼾和可能非打鼾。这两个标签用于指示既不属于清除打鼾也不属于清除非打鼾的事件(即,它们用于标记不确定事件)。注释者被指示专注于反复出现的打鼾模式。这样做有两个原因。首先,这些模式通常包含相似数量的打鼾和非打鼾声音事件,这会产生一个平衡良好的数据集。其次,在打鼾序列内进行注释时,注释过程通常比在此模式之外进行注释时更快。上述过程共产生了 20225 个带注释的声音事件,包括 7936 个(39.2%)打鼾事件(每个受试者的范围从 25 到 439 个)、10476 个(51.8%)非打鼾事件和 1813 个(9%)不确定事件(注释为可能打鼾和可能不打鼾)。本研究排除了不确定事件,因为尚不清楚这些事件是打鼾还是呼吸急促。

2.3 数据预处理及表示

图2. Pre-processing flowchart for snore detection.

图 2 显示了主要的数据处理步骤。 对于每个声音事件,将截止频率为 50 Hz 且阶数为 3 的低通滤波器应用于其相关的音频信号,以去除电源噪声。 为了确保 CNN 层的所有输入具有相同的长度,我们截断了超过 3.5 秒的声音事件,并在处理之前对较短的事件使用零填充。 3.5 s 的长度是通过检查所有带注释的声音事件的持续时间来决定的。

图3. Histogram of all sound event lengths.

图 3 显示了所有声音事件的时间长度分布,从中我们可以看出大多数声音事件(> 99%)短于 3.5 s,平均持续时间为 1.3 s。 因此,选择 3.5 s 以减少不必要的计算并保留尽可能多的信息。
将事件切割为 3.5 秒后,信号通过 CQT,产生其 2D 频谱图表示。 这种表示同时显示了时域和频域,并实现了输入数据的简化。 在 CQT 中,Q 代表 Q 因子,它是中心频率与带宽的比值。 所有频率仓的 Q 因子都相等。 这里我们简要介绍 CQT 的数学计算,更多细节可以在 [18,19]找到。
Q 因子可以表示为
Q=fkΔfk(1)Q = \frac{f_k}{\Delta f_k} \tag1Q=Δfkfk(1)
其中Δfk\Delta f_kΔfk是带宽,fkf_kfk 是第kkk 个 bin 的中心频率。fkf_kfk值可以由下式来获取:
fk=f12k−1B(2)f_k = f_1 2^{\frac{k-1}{B}} \tag2fk=f12Bk1(2)
其中f1f_1f1是最低频率仓的中心频率,B 表示每倍频程的仓数。
基于这两个方程,CQT频谱图在低频范围内具有较高的频率分辨率,在高频范围内具有较高的时间分辨率。 这一重要特性使得 CQT 比线性频率尺度上的短时傅立叶变换更适合于打鼾信号处理,因为打鼾声音在低频段比在高频段具有更多的成分 [28]。 此外,CQT 的频率尺度接近人类听觉系统 [20],这类似于众所周知的 Mel 频率尺度,但在低频段具有更多细节。
对于离散时域信号x(n)x(n)x(n),其 CQT X(k,n)X(k, n)X(k,n) 定义为:
X(k,n)=∑j=n−⌊Nk/2⌋j=n+⌊Nk/2⌋x(j)ak∗(j−n+Nk/2)(3)X(k,n) = \sum_{j = n - \lfloor N_k/2 \rfloor}^{j = n + \lfloor N_k/2 \rfloor} x(j) a_k^*(j-n+N_k/2) \tag3X(k,n)=j=nNk/2j=n+Nk/2x(j)ak(jn+Nk/2)(3)
其中⌊∙⌋\lfloor \bullet \rfloor表示向负无穷大舍入,ak∗(n)a_k^*(n)ak(n)ak(n)a_k(n)ak(n)的复共轭。基函数 ak(n)a_k(n)ak(n) 是复值波形,定义为
ak(n)=1Nkw(nNk)exp[−i2πnfkfs](4)a_k(n) = \frac{1}{N_k}w(\frac{n}{N_k})exp[-i 2\pi n \frac{f_k}{f_s}] \tag4ak(n)=Nk1w(Nkn)exp[i2πnfsfk](4)
其中 fsf_sfs 是采样频率,w(t)w(t)w(t) 是一个连续的窗函数(本工作中的 Hanning), Nk∈RN_k \in RNkR 在公式(3)-(4)处表示采样窗口长度。
CQT 计算基于 Python 库 LibROSA (https://librosa.github.io/librosa) 使用 Youngberg 和 Boll [18] 提出的递归子采样方法实现的。 在计算 CQT 能量时,选择了 512 个样本的跳跃长度和 84 个 bin 数(每倍频程 12 个 bin)。 然后用对数标度(以分贝为单位)转换计算出的光谱能量,以应对大范围的能量强度。 包括 7 个鼾声事件和相应 CQT 频谱图的音频信号的示例如图 4 所示。可以观察到,鼾声事件的主频率分量主要分布在低频范围内,CQT 频谱图提供了准确的表示。

图4. Example of an audio signal containing 7 snore events. The bottom part of the figure shows an example of raw signal after applying a Butterworth HP filter, where the red parts are snore events. The top part of the figure depicts the spectrogram based on CQT.包含 7 个鼾声事件的音频信号示例。 该图的底部显示了应用巴特沃斯 HP 滤波器后的原始信号示例,其中红色部分是打鼾事件。 该图的顶部描绘了基于 CQT 的频谱图。

之后,将光谱能量归一化为具有零均值和单位标准偏差,并应用零填充以确保长度为 3.5 s。 这确定了提交给分类神经网络的输入样本。

2.4 深度神经网络体系

如前所述,我们的深度神经网络架构主要由三个 CNN 层和一个 RNN 层构成,如图 5 所示。该架构是基于对训练损失和准确性的实验设计的。

图5. The proposed deep neural network architecture for snore detection.

CNN 层用于从 CQT 频谱图中自动提取时频域特征,而不会沿时间轴改变输入的形状。 CNN 中经常使用的方形滤波器被更改为矩形滤波器,以从频域中获取更多特征 [33]。 这些滤波器沿频率轴 2 和时间轴具有 8 个数据点(像素)的长度。 对于每个 CNN 层,使用“ReLU”作为激活函数,然后是一个 2D 最大池化层和一个丢弃率为 0.5 的丢弃层,以减少过度拟合。
关于 RNN,在我们的架构中选择了长短期记忆 (LSTM) 模型,因为它旨在表征具有长期依赖关系的序列数据,并且它比传统 RNN 模型更有效地用于声学相关应用 [34] . 使用动态 LSTM 层来处理可变序列长度。 从 CNN 获得的特征和沿时间轴的声音事件的频谱图长度一起输入到具有 64 个隐藏单元的动态 LSTM 层。 之后,连接具有“softmax”激活函数的全连接层以生成模型输出(即检测打鼾事件)。
在训练过程中,使用学习率为 0.001 的自适应矩估计算法(Adam)作为优化器,使用交叉熵作为损失函数。 批量大小和纪元数(batch size and epoch number)根据经验分别设置为 64 和 100。 这些超参数是通过实验确定的。

2.5 验证

我们使用 5 折交叉验证来迭代训练和测试我们的算法。 38 名受试者被分为五组,三组 8 名受试者和两组 7 名受试者。在每一轮交叉验证中,四组用于训练,剩下的一组用于测试。这种方法可确保“独立于主题”的建模和评估,其中来自同一主题的数据不会同时出现在训练和测试组中。运行交叉验证后,我们得到了五组检测输出。我们对这些输出应用了 0.5 的分类阈值以获得打鼾/非打鼾分类。然后我们评估了每个科目的表现。之后,将所有这些结果集汇总在一起以评估算法的整体性能。分类结果由混淆矩阵、阳性预测值 (PPV)、阴性预测值 (NPV)、敏感性、特异性和准确性表示。为了公平比较,分别训练和验证不同麦克风记录的音频数据。

2.6 麦克风放置分析

为了研究麦克风放置对打鼾检测精度的影响,从 PSG 数据中提取所有打鼾事件的身体位置信息。 总共有4种不同的体位:

  1. 睡在右肩上(身体面向 M3),
  2. 仰卧(仰卧,身体面向M1和M2),
  3. 睡在左肩(身体面向 M4),
  4. 趴着睡觉(俯卧)。

监测和分析每个麦克风每个身体位置的鼾声事件检测率,以评估麦克风放置对分类性能的影响。 为了确保一个麦克风只有一个面向它的体位,当M5在床的左侧时,我们将M5的体位左右切换,因为M5没有固定在一个位置(右27,左11) . 此后,M5在右侧体位的检出率即为身体面向M5时的检出率。

图1. 睡眠实验室设置的麦克风设置,其中麦克风位置(M1-M5)以黄色表示。 床的高度在65厘米到85厘米之间,可以由受试者稍微调整。 床头柜的高度与床相似。 M3、M4与地板之间的距离为102厘米。 话筒 M5放在床头柜上,距离受试者头部约 100 厘米(在少数情况下,这张桌子可能被受试者移动),床头柜的位置取决于具体的房间设置,可以在左侧或在 对象的右侧(左侧 27 个,右侧 11 个)。

3 结果

打鼾和非打鼾分类的混淆矩阵是从所有 38 名受试者可用的声音注释上的每个麦克风数据流中获得的。表 2 中给出了 5 个混淆矩阵,从中计算了分类器的主要性能指标,包括阳性预测值 (PPV)、阴性预测值 (NPV)、敏感性、特异性和准确性。表 3 将每个麦克风条件的这些值以百分比形式报告为汇总值(整体性能)。汇集的准确度值在 94.4% 和 95.9% 之间的范围内,虽然相似,但它们在麦克风之间显示出有趣的差异。当使用位于受试者 (M1) 上方 70 cm 处的麦克风时,我们的方法在 PPV (97.6%)、特异性 (98.3%) 和准确性 (95.9%) 方面实现了最佳的整体性能。使用 M3 和 M4 获得第二好的结果,它们以固定距离放置在对象的左侧或右侧。 M5 放置在床头柜上更远的地方,而 M2 位于对象上方 130 厘米处,导致大多数指标的表现最差。通过将汇总的灵敏度和特异性值分别解释为打鼾和非打鼾声音的检测率,可以观察到非打鼾事件比打鼾事件更容易识别,平均差异为 5.5%,最大值为 6.9% M2 和 M4 最低 4.2%。
在这里插入图片描述
在这里插入图片描述
在表 3 中,除了整体合并性能外,我们还指出了所有麦克风的每个主题的中值和四分位距 (IQR)。通过这种方式,可以在个体层面评估分类器的性能。所有中值均高于合并值,PPV 在 97.1% 到 98.2% 之间,NPV 在 97.0% 到 98.7% 之间,敏感性在 95.4% 到 97.7% 之间,特异性在 95.4% 到 97.7% 之间,准确度在 96.3 之间% 和 97.8%。它们显示出与整体性能相似的趋势,M1 的性能更好,而 M2 和 M5 的性能更差。除了灵敏度,几乎所有的 IQR 都在 5% 左右。尽管中位数灵敏度远高于汇总灵敏度,但高 IQR(约 10%)表明,相当多的受试者误检了许多打鼾事件。使用 Wilcoxon 秩和检验来测试 M1 和其他麦克风之间差异的显着性,我们发现只有使用 M2 的特异性显着低于使用 M1(p < 0.05)。

4 讨论

我们基于深度神经网络模型从音频录音中开发了一种自动打鼾检测算法。 目前的算法是在 38 名受试者中开发和验证的。 对来自所有麦克风的录音进行 5 倍交叉验证的总体准确度高于 94%。 对于每个受试者的准确性,M1、M3、M4 和 M5 之间没有发现显着差异,表明该算法对麦克风放置和受试者之间的差异具有鲁棒性。 尽管总体准确度很高,但仍有 4.2% 至 6.9% 的打鼾事件被遗漏,并且一些受试者的准确度和灵敏度低于平均水平(图 6)。 为了找出原因,我们分析了BMI、AHI、性别和年龄,发现它们与性能之间没有统计关联。 为了进一步解释错过的打鼾检测,我们对所有错过的事件进行了彻底的监听,直观地分析了 CQT 频谱图,并确定了导致大多数误检测的四个主要因素:

  1. 呼气时(而不是吸气时)产生的鼾声。
  2. 对应于弱响度事件的低水平声能。
  3. 由于咽部收缩的不同位置,鼾声的变化。
  4. 打鼾和非打鼾事件的手动注释不一致。
    对于第一个因素,有一小部分呼气打鼾声音与主要的主要吸气打鼾声音具有不同的声音特征 [35]。它们的小流行使算法难以学习呼气打鼾的特征,从而导致对这些打鼾事件的误检测。 Dafna 等人之前已经发现并解决了这个问题 [11]。关于第二个因素,低水平声能的打鼾事件具有较小的信噪比和较不清晰的频谱图。因此,我们的算法很容易错过这些事件。当谈到第三个因素时,鼾声的特征可能非常多样化,因为它们对应于上呼吸道的不同部分收缩位置 [36]。一个例子如图 7 所示,从中我们可以清楚地看到来自不同受试者的两个打鼾事件的 CQT 谱图。不同的光谱图。如果一种鼾声在训练集中没有很好地代表,则在测试过程中可能会遗漏它。这导致某些特定主题的准确性较低。最后一个因素涉及注释的准确性。注释由一个人完成,没有进一步验证或重新确认。因此,存在与注释相关的主观因素,根据定义,无法保证 100% 准确,这可能会导致错误率。 Dafna 等人也提到了这个因素。 [11] 并且已经通过涉及同一数据集的三个注释者并在没有完全同意的情况下对事件应用多数票来解决。
图7. Two different snore events. The left view shows a snore example of palatal vibrations (low F0 ~ 75 Hz), the right one is probably due to tongue or pharyngeal wall vibrations (F0 ~1 KHz).

除了 CQT 谱图外,语音识别中经常使用的 Mel-scale 谱图也使用相同的神经网络模型进行训练和测试。 Huzaifah [37] 已经证明,使用 CNN 进行环境声音分类时,梅尔尺度频谱图的性能始终优于短时傅立叶变换 (STFT) 和 CQT 频谱图。 使用 M1 数据的 Melscaled 频谱图的准确率为 95.3%,中位数为 96.9%,IQR 为 6.7%。 这个性能比 CQT 谱图略差。 然而,得出结论认为 CQT 频谱图在打鼾检测方面始终优于 Mel 标度频谱图是危险的,因为我们只试验了一个数据集,而 CQT 频谱图和 Mel 标度频谱图都可以在一定程度上提供低频范围内的更多细节 . 为了找到音频数据的最佳二维表示,应该测试具有大数据集的其他时频表示(例如 STFT、小波变换)。
为了将我们的研究与之前的工作进行比较,我们在表 6 中总结了之前的研究。 从该表中,我们可以看到大多数方法需要从音频信号中提取多个特征,这需要特定的特征提取和选择算法知识.相比之下,我们的深度 NN 方法算法可以使用 CNN 层自动获取特征,这是本研究的主要新颖之处。虽然孙等人。 [13] 使用原始音频信号,PPV 比我们的低得多。此外,除了 Dafna 等人的研究外,我们的算法优于大多数先前的研究。 [11] 和 Shin 和 Cho [15]。但是 Dafna 等人的方法的一个缺点。 [11] 是它需要 127 个特征。对于 Shin 和 Cho [15],他们只考虑简单的打鼾者。 Ar senali 等。 [14] 在本研究中使用了相同数据的一个子集,并在 6 个受试者上评估了他们的算法,打鼾检测准确率为 95.4%,对于相同的受试者,我们的分类器达到了 97.5% 的准确率。
在这里插入图片描述
本研究的另一个贡献涉及麦克风放置对打鼾检测准确性的影响。已发表的探索不同麦克风类型和位置的研究并不总是解决这一问题,如表 6 所示。从表 5 中,我们可以观察到,当麦克风面向对象时,检测率略高,而当麦克风面向对象时,检测率略低。麦克风面向对象的背部进行横向位置。在仰卧位时,考虑到当受试者仰卧时,他的头部仍然可以向左或向右转动,面向其他麦克风,因此很难详细说明。尽管如此,我们注意到仰卧位的检出率低于其他位置的检出率。在检查错误分类的事件后,我们发现在我们的数据集中,具有低声能的弱鼾声的受试者在仰卧位时过多。这是出乎意料的,因为经常观察到在仰卧位打鼾特别响亮,这是由于上咽部分减少引起的帆板或后舌的机械振动 [38]。这可能是由于选择了仅在每晚的一部分采样并且不代表整个睡眠时段的带注释的声音。这需要进一步调查证实。
即使不同麦克风在不同位置的检测率不同,M1、M3 和 M4 的整体性能也相似(表 2)。 因此,我们可以得出结论,在安静的外部条件(卧室的低背景噪音)下评估麦克风放置对检测性能没有重大影响。 从表 2 中我们可以进一步观察到 M2 的整体性能最差。 由于 M2 与对象的距离最大(约 130 厘米),这表明距离可能是比麦克风放置在鼾声检测性能方面更重要的因素。 在这项研究中,我们建议将麦克风紧贴在睡眠者的头顶上方,因为 M1 具有最佳的整体性能。
尽管我们的算法在打鼾检测方面取得了良好的性能,但也存在局限性。 第一个是主体的可变性。 这些特征在年龄、BMI 和 AHI 方面差异很大,再加上样本量有限,很难比较这种方法在不同群体上的表现。 此外,只有少数打鼾事件发生在呼吸暂停附近,这可能是我们找不到这些与检测性能之间相关性的原因。 第二个因素是我们只使用了整夜录音的部分内容。 如果没有对全夜录音进行测试,就很难知道该方法将如何推广到现实世界应用中全夜录音存在的问题。 最后一个限制是安静的背景。 由于该数据集的噪音水平较低,因此不清楚在使用噪音水平较高的录音时性能如何。

5 结论和未来的工作

我们提出了一种深度神经网络模型,可以从音频信号中对打鼾和非打鼾音频事件进行分类。设计的深度学习模型不使用任何人工设计的功能,而是对来自不同位置的 5 个麦克风的 38 个对象的音频数据进行了训练和测试。我们在所有麦克风位置都获得了稳健的性能。该方法优于以往研究中的大多数方法。此外,我们分析了麦克风放置对这种方法性能的影响,发现距离比位置更重要。
未来的工作可以沿着不同的方向进行。第一个可能是进一步提高当前打鼾检测算法的准确性。这可以通过将呼气与吸气鼾声分离、添加更多来自不同对象的事件以提高训练样本的多样性、使用降噪技术提高信噪比、组合来自不同麦克风的信号以增加高质量覆盖范围来实现。信号并进一步检查注释的有效性。另一个方向可能是探索打鼾检测如何帮助 OSA 检测任务。这项研究可能是 OSA 检测的第一步,因为进一步分析打鼾的声学特性可能会产生诊断该病症的特征 [39]。除了声学特性外,打鼾的其他特性(例如睡眠期间打鼾的时间百分比)也可能是呼吸暂停分析的指标。此外,一些研究表明呼吸暂停后立即产生的打鼾与其他打鼾事件之间存在差异 [40,41]。因此,我们可以扩展当前的算法来分离这些鼾声,以潜在地帮助估计 AHI(例如,[42])

参考文献

[1] Chamara V. Senaratna, Jennifer L. Perret, Caroline J. Lodge, Adrian J. Lowe, Brittany E. Campbell, Melanie C. Matheson, Garun S. Hamilton, Shyamali C. Dharmage, Prevalence of obstructive sleep apnea in the general population: a systematic review, Sleep medicine reviews 34 (2017) 70–81.
[2] Terry Young, Paul E. Peppard, Daniel J. Gottlieb, Epidemiology of obstructive sleep apnea: a population health perspective, American journal of respiratory and critical care medicine 165 (9) (2002) 1217–1239.
[3] Fabio Mendonca, Sheikh Shanawaz Mostafa, Antonio G. Ravelo-García, Fernando Morgado-Dias, Thomas Penzel, A review of obstructive sleep apnea detection approaches, IEEE journal of biomedical and health informatics 23 (2) (2018) 825–837.
[4] Asela S. Karunajeewa, Udantha R. Abeyratne, Craig Hukins, Silence-breathing–snore classification from snore-related sounds, Physiological Measurement 29 (2) (2008) 227.
[5] Negar Ahmadi, Gilla K. Shapiro, Sharon A. Chung, Colin M. Shapiro, Clinical diagnosis of sleep apnea based on single night of polysomnography vs. two
nights of polysomnography, Sleep and Breathing 13 (3) (2009) 221–226.
[6] Nimrod Maimon, Patrick J. Hanly, Does snoring intensity correlate with the severity of obstructive sleep apnea? Journal of clinical sleep medicine 6 (05)
(2010) 475–478.
[7] Victor. Hoffstein, Snoring, Chest 109 (1) (1996) 201–223.
[8] W.D. Duckitt, S.K. Tuomi, T.R. Niesler, Automatic detection, segmentation and assessment of snoring from ambient acoustic data, Physiological measurement 27 (10) (2006) 1047.
[9] M. Cavusoglu, M. Kamasak, O. Erogul, T.O.L.G.A. Ciloglu, Y.E. ¸S. ˙I. M. Serinagaoglu, T. Akcam, An efficient method for snore/nonsnore classification of sleep sounds, Physiological measurement 28 (8) (2007) 841.
[10] Ali Azarbarzin, Zahra MK Moussavi, Automatic and unsupervised snore sound extraction from respiratory sound signals, IEEE Transactions on Biomedical Engineering 58 (5) (2011) 1156–1162.
[11] Eliran Dafna, Ariel Tarasiuk, Yaniv Zigel, Automatic detection of whole night snoring events using non-contact microphone, PloS one 8 (12) (2013).
[12] Vinayak R. Swarnkar, Udantha R. Abeyratne, Roneel V. Sharan, Automatic picking of snore events from overnight breath sound recordings, 2017 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), pp. 2822-2825. IEEE, 2017.
[13] Jingpeng Sun, Xiyuan Hu, Yingying Zhao, Shuchen Sun, Chen Chen, Silong Peng, SnoreNet: Detecting Snore Events from Raw Sound Recordings, 2019 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), pp. 4977-4981. IEEE„ 2019.
[14] Bruno Arsenali, Johannes van Dijk, Okke Ouweltjes, Bert den Brinker, Dirk Pevernagie, Roy Krijn, Merel van Gilst, Sebastiaan Overeem, Recurrent neural network for classification of snoring and non-snoring sound events, 2018 40th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), pp. 328-331. IEEE, 2018.
[15] Hangsik Shin, Jaegeol Cho, Unconstrained snoring detection using a smart-phone during ordinary sleep, Biomedical engineering online 13 (1) (2014) 116.
[16] Tom LH Li, Antoni B. Chan, Andy HW Chun, Automatic musical pattern feature extraction using convolutional neural network, Genre 10 (2010) 1x1.
[17] Minkyu Lim, Donghyun Lee, Hosung Park, Yoseb Kang, Junseok Oh, Jeong-Sik Park, Gil-Jin Jang, Ji-Hwan Kim, Convolutional Neural Network based Audio Event Classification, KSII Transactions on Internet & Information Systems 12 (6) (2018).
[18] James Youngberg, Steven Boll, Constant-Q signal analysis and synthesis, In ICASSP’78. IEEE International Conference on Acoustics, Speech, and Signal Processing, vol. 3, pp. 375-378. IEEE, 1978.
[19] Judith C. Brown, Calculation of a constant Q spectral transform, The Journal of the Acoustical Society of America 89 (1) (1991) 425–434.
[20] Christian Schörkhuber, Anssi Klapuri, Constant-Q transform toolbox for music processing, 7th Sound and Music Computing Conference, Barcelona, Spain, pp.3-64., 2010.
[21] Robert Alexandru Dobre, Negrescu Cristian, “Automatic music transcription software based on constant Q transform.”, 2016 8th International Conference on Electronics, Computers and Artificial Intelligence (ECAI), pp. 1-4. IEEE, 2016.
[22] Chun-Ta Chen, Jyh-Shing Roger Jang, Wen-Shan Liu, Chi-Yao Weng, An efficient method for polyphonic audio-to-score alignment using onset detection and constant Q transform, 2016 IEEE International Conference on Acoustics, Speech And Signal Processing (ICASSP), pp. 2802-2806. IEEE, 2016.
[23] Alex Graves, Abdel-rahman Mohamed, Geoffrey Hinton, Speech recognition with deep recurrent neural networks, 2013 IEEE international conference on acoustics, speech and signal processing, pp. 6645-6649. IEEE, 2013.
[24] Sak, Ha ¸sim, Andrew Senior, Kanishka Rao, and Françoise Beaufays. “Fast and accurate recurrent neural network acoustic models for speech recognition.” arXiv preprint arXiv:1507.06947 (2015).
[25] Tomáš Mikolov, Martin Karafiát, Lukáš Burget, Jan ˇ Cernocký, Sanjeev Khudanpur, Recurrent neural network based language model, Eleventh annual conference of the international speech communication association (2010).
[26] Tomáš Mikolov, Stefan Kombrink, Lukáš Burget, Jan ˇCernocký, Sanjeev Khudanpur, Extensions of recurrent neural network language model, 2011 IEEE international conference on acoustics, speech and signal processing (ICASSP), pp.5528-5531. IEEE„ 2011.
[27] Tomas Mikolov, Geoffrey Zweig, Context dependent recurrent neural network language model, 2012 IEEE Spoken Language Technology Workshop (SLT), pp.234-239. IEEE, 2012.
[28] Dirk Pevernagie, Ronald M. Aarts, Micheline De Meyer, The acoustics of snoring, Sleep medicine reviews 14 (2) (2010) 131–144.
[29] Carolina Beatriz Gonzalez de Oliveira, Diego Greatti Vaz da Silva, Henrique Takachi Moriya, Robert Skomro, Adriano Mesquita Alencar, Geraldo Lorenzi-Filho, Snoring: the silent signal in sleep medicine, Sleep Science 4 (1) (2011) 21–27.
[30] Andrew Keong Ng, Zhi Jie Ho, Tong San Koh, Effects of microphone position on snore signal quality and patient comfort, 2008 9th International Conference on
Signal Processing, pp. 2130-2133. IEEE, 2008.
[31] Michael Herzog, Thomas Kühnel, Thomas Bremert, Beatrice Herzog, Werner Hosemann, Holger Kaftan, The impact of the microphone position on the frequency analysis of snoring sounds, European archives of oto-rhino-laryngology 266 (8) (2009) 1315–1322.
[32] Merel M. van Gilst, Johannes P.van Dijk, Roy Krijn, Bertram Hoondert, Pedro Fonseca, Ruud JG van Sloun, Bruno Arsenali, et al., Protocol of the SOMNIA project: an observational study to create a neurophysiological database for advanced clinical sleep monitoring, BMJ open 9 (11) (2019).
[33] Jordi Pons, Thomas Lidy, Xavier Serra, Experimenting with musically motivated convolutional neural networks, 2016 14th international workshop on content-based multimedia indexing (CBMI), pp. 1-6. IEEE, 2016.
[34] Sak, Hasim, Andrew W. Senior, and Françoise Beaufays. “Long short-term memory recurrent neural network architectures for large scale acoustic modeling.” (2014).
[35] W. Whitelaw, Characteristics of the snoring noise in patients with and without occlusive sleep apnea, Am Rev Respir Dis 147 (1993) 635–644.
[36] Yoshiaki Miyazaki, Kazuo Itasaka, Kiyoshi Ishikawa, Soichiro Togawa, Acoustic analysis of snoring and the site of airway obstruction in sleep related respiratory disorders, Acta Oto-Laryngologica 118 (537) (1998) 47–51.
[37] Huzaifah, Muhammad. “Comparison of time-frequency representations for environmental sound classification using convolutional neural networks.” arXiv preprint arXiv:1706.07156 (2017).
[38] Hiroshi Nakano, Togo Ikeda, Makito Hayashi, Etsuko Ohshima, Akihiro Onizuka, Effects of body position on snoring in apneic and nonapneic snorers, Sleep 26(2) (2003) 169–172.
[39] Hui Jin, Li-Ang Lee, Lijuan Song, Yanmei Li, Jianxin Peng, Nanshan Zhong, Hsueh-Yu Li, Xiaowen Zhang, Acoustic analysis of snoring in the diagnosis of obstructive sleep apnea syndrome: a call for more rigorous studies, Journal of Clinical Sleep Medicine 11 (7) (2015) 765–771.
[40] W. Whitelaw, Characteristics of the snoring noise in patients with and without occlusive sleep apnea, Am Rev Respir Dis 147 (1993) 635–644.
[41] J.A. Fiz, J. Abad, R. Jane, M. Riera, M.A. Mananas, P. Caminal, D. Rodenstein, J. Morera, Acoustic analysis of snoring sound in patients with simple snoring and obstructive sleep apnoea, European Respiratory Journal 9 (11) (1996) 2365–2370.
[42] Nir Ben-Israel, Ariel Tarasiuk, Yaniv Zigel, Obstructive apnea hypopnea index estimation by analysis of nocturnal snoring signals in adults, Sleep 35 (9) (2012) 1299–1305.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/507620.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2018计算机专业考研报名人数,2018年全国考研报考人数、各省市考研报考人数、历年考研录取率、全日制及非全日制硕士研究生比例及考研动机分析【图】...

一、考研报考人数、录取率及报录比分析从上世纪末开始&#xff0c;研究生和本科生招生数量一样在逐步增多。本科扩招的同时&#xff0c;研究生也在扩招。1999年&#xff0c;全国报考研究生人数31.9万&#xff0c;录取人数7.3万&#xff0c;录取率22.8%。2008年&#xff0c;报考…

用计算机怎样搜wifi网,笔记本电脑搜索不到无线网络(Wifi)怎么办

在使用Windows 10工作时会遇到形形色色的问题&#xff0c;比如笔记本电脑搜索不到无线网络。那么如何排除故障呢&#xff1f;下面小编与你分享具体步骤和方法。工具/材料Windows 10操作系统操作方法第1&#xff1a;启动Windows 10操作系统&#xff0c;如图所示。点击任务栏&quo…

怎么用计算机杀毒,电脑怎样查杀病毒

病毒往往会利用计算机操作系统的弱点进行传播&#xff0c;那么大家知道电脑怎样查杀病毒吗?接下来大家跟着学习啦小编一起来了解一下电脑查杀病毒的解决方法吧。电脑查杀病毒方法一一、使用杀毒软件进行杀毒1、首先进入“安全模式”2、进入方法&#xff1a;开机在进入Windows系…

将文件中所有数读到一个数组中_「数据结构与算法」将5个文件中的一千万年龄合并到一个新文件中...

现在有5个文件&#xff0c;文件里面分别存储着1千万个用户年龄&#xff0c;并且每个文件中的年龄都是有序的&#xff08;从小到大&#xff09;&#xff0c;现在需要将这5个文件整合到一个文件中&#xff0c;新文件的内容依然要保持有序&#xff08;从小到大&#xff09;。初始化…

二维码编码规范解读

1 QR码符号的结构 QR 码符号的结构如下&#xff1a; 1.1 定位图案 Position Detection Pattern是定位图案&#xff0c;用于标记二维码的矩形大小。这三个定位图案有白边叫Separators for Postion Detection Patterns。之所以三个而不是四个意思就是三个就可以标识一个矩形了…

二维码的纠错码原理及如何纠错(1)

本文将通过例子来说明两个方面的内容&#xff1a; &#xff08;1&#xff09;如何构建纠错码&#xff1f; &#xff08;2&#xff09;有了纠错码之后如何纠错&#xff1f; 1 如何构建纠错码&#xff1f; 直接上例子&#xff0c;“hello world” 利用二维码的编码原理&#xf…

利用自己构建的网络进行鼾声识别

1 目前的工作 1.1 数据 5692条3s且采集率为8000hz的鼾声与6824条3s且采集率为8000hz的其他类音频。通过FFT频谱转换为300个(30,513,1)的矩阵。训练集与测试集的比例为9&#xff1a;1。数据集来源为google开源的数据集。 1.2 模型 图1. The proposed deep neural network arc…

企业微信加密消息体_用企业微信小程序发送消息

在企业开发中&#xff0c;经常会碰到一些消息要及时推送到企业员工的手中。so 下面来说怎么向企业微信中的员工发消息。本人只是记录下开发过程&#xff0c;详细参考https://work.weixin.qq.com/api/1.准备注册企业微信公司获取企业ID新开企业微信应用获取应用的Agentid&#x…

二维码的纠错码原理及如何纠错(2)

下面进一步介绍二维码纠错相关的编码矩阵 1 范德蒙德&#xff08;Vandermonde&#xff09;矩阵 1.1 定义及特性 法国数学家 Alexandre-Thophile Vandermonde 在十八世纪提出了行列式的概念, 用来解决线性方程组问题, 其中一个关键是范德蒙德(Vandermonde) 矩阵, Vandermonde…

NCCIP会议笔记

华南理工大学蔡毅&#xff1a;多智能体通信&#xff0c;识别边界。是否可以用于鼾声识别 天津大学张鹏教授 哈尔滨工业大学 HFUT&#xff1a;俞奎 张长青

计算机创新课,计算机教学课程模式与创新论文

计算机教学课程模式与创新论文摘要&#xff1a;作为大学生通识教育的重要组成部分&#xff0c;计算机基础课程是提高学生信息素养的关键途径。随着互联网技术的不断发展&#xff0c;大学计算机课程教学面临诸多新的挑战&#xff0c;因此需要创新、改革目前的教学模式&#xff0…

New directions in automated traffic analysis论文解读

1 论文主要idea 完整性&#xff1a;没有进行特征提取&#xff0c;保留原始数据包&#xff1b;固定大小&#xff1a;对不同类型的数据包进行统一格式编码&#xff0c;使得编码后的向量大小一致&#xff08;见图3&#xff09;将一些与目标任务不一致的字段去掉&#xff0c;如操作…

计算机找不到wf连接,笔记本wifi功能消失了 电脑wifi连接没了 电脑的wifi不见了...

笔记本wifi功能消失了 电脑wifi连接没了 电脑的wifi不见了2019-11-08 11:14:40 来源&#xff1a;网络扫码可以&#xff1a;1.在手机上浏览2.分享给微信好友或朋友圈解决方法&#xff1a;1、鼠标右键单击电脑桌面右下方的文件夹图标。2、进入文件夹后&#xff0c;在左边列表里&…

计算机二级考试都怎么考,计算机二级都考什么 怎么考

满意答案luluthe...2013.08.26采纳率&#xff1a;45% 等级&#xff1a;11已帮助&#xff1a;8894人关于二级考试科目&#xff1a;与去年相同&#xff0c;二级一共七个科目。二级科目分成两类&#xff0c;一类是语 言程序设计(C、C、Java、Visual Basic、Delphi)&#xff0c;…

计算机c盘丢失,电脑C盘丢失的视频文件怎么恢复?方法讲解,轻松搞定

电脑C盘丢失的视频文件怎么恢复&#xff1f;在日常的工作以及生活当中&#xff0c;有很多的传统媒体文件充斥着。例如&#xff1a;闲暇时&#xff0c;会找一些直播视频来放松自己。工作中&#xff0c;会找一些网络课程来提升自己。但是&#xff0c;在此过程中也会因为一些失误&…

人脸识别研究任务及开源项目调研

0 任务 人脸识别流程包括人脸检测、人脸对齐、人脸识别等子任务。 图1 一些部分遮挡的人脸样本。(a) LFW数据库中部分遮挡的人脸样本。(b)AR数据库部分遮挡的人脸样本。人脸识别具有重要的学术价值&#xff0c;人脸是一类相当复杂的细节变化的自然结构目标&#xff0c;此类目…

双路服务器单路运行,单路还是双路?看需求选择_机箱电源评测-中关村在线

电源的介绍里面&#xff0c;经常会看到“单路12V输出”或者“双路12V输出”的字样。那么单路12V输出和双路12V输出有什么区别呢&#xff1f;单路12V输出有着什么样的优势&#xff0c;而双路12V又有着什么样的优势呢&#xff1f;接下来简单分析一下。单路输出电源的12V输出主要是…

计算机常用控温算法,常用温度控制方法原理 -解决方案-华强电子网

常用PID调节器/温控仪控制算法包括常规PID、模糊控制、神经网络、Fuzzy-PID、神经网络PID、模糊神经网络、遗传PID及广义预测等算法。常规PID控制易于建立线性温度控制系统被控对象模型&#xff1b;模糊控制基于规则库&#xff0c;并以绝对或增量形式给出控制决策&#xff1b;神…

我的世界服务器修改数据,我的世界常用指令大全,轻松调整服务器数值状态

在我的世界服务器中能够经过输送指令来微调服务器的一些数值状态&#xff0c;此次就为各位提供我的世界常用指令大全&#xff0c;毕竟我的世界作为一款出色的沙盒游戏&#xff0c;不止是因为原版内容和mod的增光填色&#xff0c;也离不开指令的辅助。/say [语句]让服务器发每段…

二维码的目标定位

1 总体思路 第一步&#xff0c;寻找二维码的三个角的定位角点&#xff0c;需要对图片进行平滑滤波&#xff0c;二值化&#xff0c;寻找轮廓&#xff0c;筛选轮廓中有两个子轮廓的特征&#xff0c;从筛选后的轮廓中找到面积最接近的3个即是二维码的定位角点。 第二步&#xff1…