Andrew Y. Ng式ResNet在MIT-BIH上的Inter-Patient分类实现(2)
作者:互联网
数据处理
目前大部分的文章均是基于心拍的分类。这样做在理论上本身没什么问题,因为数据库中的标签就是针对每个心拍给出的。但是在具体操作中,心拍的定位要么直接使用了数据库中的人工位置标记,这样在实际应用中等同于加入人工干预,自动化程度不够;要么使用一些经典的QRS波检测算法,如Pan-Tompkins算法,而这样的定位方式依赖于QRS检测算法的准确度。鉴于目前QRS波检测算法动辄99%以上的准确率,这个准确度依赖乍一听似乎也不是大问题。但根据我个人的经验,不同的QRS波算法在同等准确度情况下的定位结果会存在一定的差异,例如有的QRS定位点偏左,有的则偏右,这就导致哪怕是处理相同的数据,最终的定位结果会存在明显的偏差,截取心拍的波形表现也会有不同,这也就进一步导致后面网络的学习过程对QRS定位算法也会产生依赖,两个模块间会产生一定程度的耦合。
因此这里采用直接信号切片的方式,每个片段长5s。难道说这种方式就没有缺点了吗?非也。倘若一个切片中出现多种类型心拍的话,那标签应该怎么打呢?这一点就值得商榷了。这里我们采取这样的一种规则来缓解一下这个问题:
- 一个切片中所有心拍为正常时,该切片为正常;
- 一个切片中同时存在正常和异常心拍,该切片为异常;
- 一个切片中同时存在多类异常心拍,以切片中最多的异常类型为该切片类型;
- 一个切片中的存在多类且相同数目的异常心拍,以最先出现的异常类型为该切片类型。
这只是一种可能的解决方案,并非黄金规则。总体来看,个人还是认为切片方式利大于弊,截取的信息更完整,且不依赖于特定QRS检测算法,流程上也变得简单和一般化。
数据集划分方面,在MIT-BIH数据库中采用了如下的划分方式:
训练集DS1:
101,106,108,109,112,114,115,116,118,119,122,124,201,203,205,207,208,209,215,220,223,230.
测试集DS2:
100,103,105,111,113,117,121,123,200,202,210,212,213,214,219,221,222,228,231,232,233,234.
这种方式是在论文中应用最广泛的inter-patient划分方式。所谓inter-patient,就是训练集和测试集来自不同的个体,个体差异性被充分考虑,是最贴近现实的一种评估方式,不清楚的可参考我之前的博客:https://blog.csdn.net/qq_15746879/article/details/80487543。类别划分遵循AAMI标准,共5类,N,V(VEB),S(SVEB),F,Q。这5大类是由各种小类集合而成,具体可参见下图:
数据集上的基本设定就说完了。接下来摆在面前的问题就是数据集本身的严重类别不平衡,尤其是训练集的不平衡极有可能会导致网络学习无效甚至不收敛,这一点是机器学习领域中的常识。根据我们以上的设定,在训练集中5类样本数分别为N:5907,V:1633,S:344,F:54,Q:4。得益于我们上述的切片方式,这里可以通过片段间的互相重叠来缓解类别不平衡所带来的影响,即样本量少的类别相邻切片间多重叠一些,能采集的样本就多一些。相比简单的过采样得到完全一致的新样本,这样的方式得到的新样本与原样本之间还能存在一定差异,理论上质量更好。以不重叠情况下最多的类别为基准,其余类别切片重叠长度可由以下公式估算:
其中,ol表示要重叠的长度,round表示四舍五入,L表示每个切片的长度,n表示当前类别的样本数目,N表示数目最多类别的样本数。需要注意的是,这样计算出来的重叠长度仅供参考,有时候并不能给出一个很好的结果。例如,完全按照这个公式的结果在DS1中处理过后,V,S,F类基本达到了与N类的平衡,但Q类的数目达到了8000多,重叠有些偏大;将计算出来的ol减去1,这样Q类数目也有3000+,又有些偏小。不过这里还是采取后面的方式。DS2作为测试集不做重叠处理。
以上过程均在Matlab中实现,代码可见github项目中的check_nums_overlaps.m,get_category_segs.m,get_segs.m。由于下一步要转移到Python平台进行网络的搭建,所以将以上代码保存下的.mat文件转化为.npy文件,代码可见mat2npy.py。
对于截取好的切片,还要再进行小波变换滤波[Martis R J, Acharya U R, Min L C. ECG beat classification using PCA, LDA, ICA and discrete wavelet transform [J].Biomedical Signal Processing and Control, 2013, 8(5): 437-448]和z-score标准化。另外,网络中存在多次的2倍下采样,而我们的5s片段在数据库360 Hz采样率的情况下长为1800,3次下采样后便不能整除,因此这里将所有片段再次重采样为1280点,等效256 Hz采样率。这个采样率也是足够的,原文中所采用的信号采样率也只有200 Hz。这些过程的函数代码实现可见github工程的mit_utils.py。
现成的截取好的数据也可以直接下载:
.npy文件 链接:https://pan.baidu.com/s/1Rz9hmauG8tWg_dtdYXKDuQ 提取码:5qjh
.mat文件 链接:https://pan.baidu.com/s/1NFJtTMl5my3wUrCp_eoO-w 提取码:m199
解压后可使用,注意路径。
下一部分讲网络。
Github:https://github.com/Aiwiscal/MIT_Scheme
喜欢请点赞和github给star哦~~~~
标签:Patient,BIH,心拍,Ng,切片,算法,QRS,类别,重叠 来源: https://blog.csdn.net/qq_15746879/article/details/88698720