伟峰 仲
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
中国科学院苏州生物医学工程技术研究所(江苏苏州 215163),
Suzhou Institute of Biomedical Engineering and Technology, Chinese Academy of Sciences, Suzhou, Jiangsu 215163, P.R.China
志 李
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
中国科学院苏州生物医学工程技术研究所(江苏苏州 215163),
Suzhou Institute of Biomedical Engineering and Technology, Chinese Academy of Sciences, Suzhou, Jiangsu 215163, P.R.China
燕 刘
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
晨晨 程
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
中国科学院苏州生物医学工程技术研究所(江苏苏州 215163),
Suzhou Institute of Biomedical Engineering and Technology, Chinese Academy of Sciences, Suzhou, Jiangsu 215163, P.R.China
悦 王
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
丽 张
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
淑兰 徐
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
旭 蒋
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
骏 朱
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
亚康 戴
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
哈尔滨理工大学 自动化学院(哈尔滨 150080),
School of Automation, Harbin University of Science and Technology, Harbin 150080, P.R.China
中国科学院苏州生物医学工程技术研究所(江苏苏州 215163),
Suzhou Institute of Biomedical Engineering and Technology, Chinese Academy of Sciences, Suzhou, Jiangsu 215163, P.R.China
哈尔滨理工大学 机械动力工程学院(哈尔滨 150080),
School of Mechanical and Power Engineering, Harbin University of Science and Technology, Harbin 150080, P.R.China
济南国科医工科技发展有限公司(济南 250102),
Jinan Guoke Medical Engineering Technology Development Co., LTD, Jinan 250102, P.R.China
南京医科大学附属脑科医院(南京 210029),
Nanjing Brain Hospital Affiliated to Nanjing Medical University, Nanjing 210029, P.R.China
黑龙江省复杂智能系统与集成重点实验室(哈尔滨 150080),
Heilongjiang Provincial Key Laboratory of Complex Intelligent System and Integration, Harbin 150080, P.R.China
Corresponding author.
戴亚康,Email:
nc.ca.tebis@kyiad
式中,
w
(
t
)是汉宁窗,随着
τ
的移动,对汉宁窗内的脑电信号使用傅里叶变换。
每个时间窗数据经过STFT得到6个导联的时频谱图
,再将
按照导联顺序F3、F4、C3、C4、O1和O2拼成单位时间窗的时频谱图
,由此每例被试的脑电数据将生成80幅时频谱图。
1.3.2. 深度网络模型
卷积神经网络是深度学习的代表算法,其主要功能在于深层架构可以从高度抽象的数据中提取有区分度的特征。二维(two-dimensional,2D)网络被用于图像和音频时频谱图的处理
[
31
]
。VGGNet是一种经典的CNN架构,在图像分类任务中表现出良好的性能
[
32
]
。本文基于VGGNet搭建时频深度网络,并对其进行优化。深度网络主体由13个卷积层和3个完全连接层组成的深度网络,每个卷积块包含两个或三个卷积层,在卷积块后接入ReLU激活函数,再建立池化层。深度网络模型示意图见
,网络模型输入图像尺寸为224 × 224,通道数为3;卷积层采用3 × 3的卷积核,步长为1,填充为1;池化层采用2 × 2的最大池化,步长为2;输出使用SoftMax函数输出分类标签。
过拟合是深度神经网络普遍存在的问题,根本原因是训练数据量不足以支撑复杂度高的模型,导致训练次数过多,模型过分关注图像的局部特征。在训练数据量固定的情况下,本文使用三种方法优化深度网络模型,分别为批量标准化、Dropout方法和L2正则化
[
33
-
35
]
。这三种方法的应用不仅可提高模型对过拟合的抑制能力,还可提升模型的运算效率和模型鲁棒性。
1.4. 后处理
时频深度网络的输出是基于时间窗的分类结果,本文通过后处理,对每例被试者全部时间窗的分类结果进行综合决策,实现基于被试者的PD + RBD和PD-RBD的分类。
后处理以被试者为对象,统计该被试者的全部时间窗的分类结果。设置阈值0.5,当模型判定为1的样本数与该被试者总样本数的比值大于设定阈值,判断该被试者属于1类,否则属于0类,即被试对象的诊断结果由该被试对象的大多数时间窗样本的分类结果决定。后处理的决策过程为
式中,
Y
j
表示被试者
j
的分类结果,
N
j
为被试者
j
的时间窗总数,
和
分别表示被试者
j
预测为0和1的时间窗数。
1.5. 对比分析的分类算法
本文使用了五种基准分类算法及其标准实现,并将其性能与本文所提出的时频深度网络进行比较。以下基准算法的相关参数均为网络搜索技术确定的最优参数。
1.5.1. 多层感知机
多层感知机(multilayer perceptron,MLP)是一种前馈人工神经网络,比单层感知机学习能力更强,且能实现非线性分类问题。MLP由输入层、输出层和隐藏层三部分组成,层与层之间完全连接,并引入激活函数完成数据传递,其工作原理为将输入的多个数据映射到单一的输出上。本研究使用含15个隐藏层的MLP,每层间接入ReLU激活函数,正则化系数为0.2。训练网络时采用L-BFGS优化器和平方损失函数,学习速率为1 × 10
−3
。
1.5.2. 支持向量机
支持向量机(support vector machine,SVM)的工作原理为应用径向基核函数将原样本空间映射到高维特征空间,在特征空间内寻求最大分割超平面,通过对样本特征空间的分割,实现对输入样本的分类。SVM分类算法有两个主要的参数,径向基函数参数
γ
和最优化问题的惩罚参数
C
,本研究中
γ
和
C
分别取0.005和100。
1.5.3. 最邻近算法
最邻近算法(
k
nearest neighbor,KNN)在分类决策上依据特征空间中最邻近的训练样本的类别决定待分类样本所属的类别。实验中使用曼哈顿距离决定待分类样本的
k
个最近邻样本,待分类样本的预测类别为邻近样本的大多数的类别标签。本研究中KNN的邻近样本数
k
的取值为12。
1.5.4. 随机森林
随机森林(random forest,RF)是一种基于Bagging方法的集成学习算法,包含多个互相不关联的决策树分类器。随机森林通过统计每个决策树的预测结果,选择投票最多的结果作为样本的最终分类结果。本研究中的RF集成100个决策树分类器。
1.5.5. 极限梯度提升
极限梯度提升(extreme gradient boosting,XGB)是一种基于Boost方法的集成学习算法,使用分类回归树作为基分类器
[
36
]
。XGB分类思想是使用贪婪算法不断地添加树,拟合模型上次的预测残差。根据测试样本的特征,每棵树会对应一个叶子节点,最后所有树对应叶子节点的分数加和就是该样本的分类结果。本研究XGB集成500个最大深度为10的树,学习速率为1 × 10
−2
。
1.5.6. 递归神经网络
本文重新构建了Ruffini等
[
37
]
处理特发性RBD患者的预诊断问题时提出的深层递归神经网络(recurrent neural network,RNN)模型,该模型由3个长短期记忆(long short-term memory,LSTM)细胞构成,每个细胞的隐藏层单元数为32,并使用Dropout方法调整LSTM细胞,最后通过全连接层和SoftMax函数输出分类结果。在训练Ruffini模型是使用RMSprop优化器和交叉熵代价函数,学习速率设置为1 × 10
−4
。
1.6. 模型评价标准
为了评估模型的分类性能,以及评价辅助诊断结果的可信度,本文引入准确率(accuracy,Acc)、敏感度(sensitivity,Sen)、特异性(specificity,Spc)和被试者工作特征曲线(receiver operating characteristic curve,ROC)四个评价指标。其中,准确率、敏感度和特异性的计算过程如下:
式中真正类(true positive,TP)表示正样本被正确预测为正样本的数量;假负类(false negative,FN)表示正样本被错误预测为负样本的数量;真负类(false negative,TN)表示负样本被正确预测为负样本的数量;假正类(false positive,FP)表示负样本被错误预测为正样本的数量。ROC的
y
轴为真正率(true positive rate,TPR),
x
轴为假正率(false positive rate,FPR),根据分类模型输出的样本概率由高到低设置多个阈值,样本概率大于阈值判定正类,反之判定为负类,根据不同阈值的FPR和TPR绘制ROC曲线。ROC曲线下面积(area under curve,AUC)越大,表示分类器性能越好。