联合注意力和Transformer的视网膜血管分割网络*

蒋 芸,刘文欢,梁 菁

(西北师范大学计算机科学与工程学院,甘肃 兰州 730070)

医学图像分割是发展医疗诊断和治疗系统的重要前提之一。青光眼、糖尿病视网膜病变、老年性黄斑变性和眼底视网膜病变等均是眼科领域的常见疾病,其中糖尿病视网膜病变是致盲的主要诱因[1]。将患者眼底图像的血管和背景像素准确分割对眼部疾病的初步筛选、后续诊断和治疗具有重要作用。视网膜血管又是血液循环系统中唯一可以直接和无创地观察的深层微血管,其具有极其丰富的血管特征信息[2]。由此,研究人员常通过分割视网膜血管获得视网膜血管的相关形态学信息。但是,观察图1所示的视网膜图像发现,图1a中有视神经、黄斑和血管等;
图1b视网膜上有出血和渗出物;
图1c的视盘和视杯中间的神经视网膜边缘带比较窄;
图1d垂直杯直径与垂直盘直径的比值比较小。可见,视网膜血管结构相当复杂,血管薄厚不一且血管之间连接紧密。此外,视网膜血管分割还受到眼底图像低照明度、噪声干扰及眼底图像血管区域和背景之间的差异不突出等问题的影响。随着近年来深度学习的进步,自动分割技术逐渐成为视网膜血管分割的主流技术,通过视网膜血管的自动分割技术协助眼科医生检测眼部疾病对于眼科疾病的临床诊断和治疗具有相当重要的意义。关于视网膜血管自动分割的任务流程如图2所示。

Figure 1 Retinal images图1 视网膜图像

Figure 2 Flow chart of retinal vascular segmentation图2 视网膜血管分割流程图

近年来,已有大量的视网膜血管分割方法被提出,它们大致可分为无监督方法和有监督方法。现有的无监督方法主要包括静脉跟踪[3]、匹配滤波[4]、形态学特征[5]、多尺度分析[6]和基于模型的算法等。研究人员大多使用B-COSFIRE滤波器[7]、Gabor小波[8]和高斯滤波器[9]响应进行视网膜血管分割。然而,这些方法的实现需要研究人员仔细调整算法的超参数,很大程度上限制了这些方法在临床实践中的便捷性。研究人员还提出了一些其它方法用于视网膜图像的分割,比如区域增长算法、最大熵期望最大化算法[10]和混合主动轮廓模型[11]等,但对于精确分割视网膜血管,其效果还需进一步改进。

随着近年来深度学习的进步,基于深度卷积神经网络CNN(Convolutional Neural Network)的方法已成功地打破传统手工提取特征方法的瓶颈,特别是全卷积神经网络FCN(Fully Convolutional Network)[12]、U-Net[13]以及U-Net的变体。Alom等人[14]提出基于U-Net的递归卷积神经网络RCNN(Recurrent Convolutional Neural Network)以及基于U-Net的递归残差卷积神经网络RRCNN(Recurrent Residual Convolutional Neural Network)模型实现视网膜血管分割、皮肤癌分割和肺部病变分割。Jin等人[15]提出了可变形的U-Net DUNet(Deformable U-Net),在网络结构中引入可变形卷积并且感受野根据血管的变化自适应地调节。Wang等人[16]设计了3个解码器组成的硬注意力网络模型HANet(Hard Attention Net),1个解码器旨在动态分析图像的“硬”和“易”区域,另外2个解码器负责分割“硬”和“易”区域中的视网膜血管。Atli等人[17]提出先应用上采样捕获薄型血管特征,再利用下采样捕获厚型血管特征的模型Sine-Net。Huang等人[2]提出了改进的U-Net网络,由23个卷积层、4个池化层、4个上采样层、2个dropout层及SE(Squeeze和Excitation)块组成。

上述方法进展都不错,但基于FCN的U形网络框架存在分辨率低的问题。除此之外,由于眼底图像的结构复杂以及成像环境要求较高,图像中存在不同规模的噪声、不平衡的照明、低对比度和空间分辨率,大多数方法选择采用CNN卷积核有限的感受野关注局部特征,以很好地弥补血管分割中精细的空间细节。设计用于序列到序列预测的Transformer[17]也缓解了这一局限性,其不仅对全局信息的提取能力很强大,且在大规模的预训练下对下游任务表现出了卓越的可转移性[18]。Transformer的特性有利于U形架构上采样阶段恢复图像的全局特征[19],这大大提高了网络捕获眼底图像局部细小血管和全局上下文特征的能力。综上所述,本文提出了联合注意力和Transformer的视网膜血管分割网络,称为JAT-Net(Joint Attention and Transformer Network)。本文的主要工作如下:

(1)提出JAT-Net用于视网膜血管自动分割。JAT-Net通过跳过连接将编码阶段精细的高分辨率空间信息和底部Transformer编码的全局上下文信息送至解码阶段,减少了网络不同层间的特征冗余。

(2)在编码阶段,JAT-Net采用联合注意力模块增强编码过程中感兴趣的目标表示,为缓解连续下采样造成的位置信息损失,将特征的位置信息和通道信息进行联合关注,提高了网络对血管特征的敏感度。

(3)JAT-Net通过Transformer将编码器输出的特征图进行序列化处理,以此缓解编码阶段和解码阶段在建模长期依赖方面表现出的局限性,实现了更高的视网膜血管分割精度。

Figure 3 Structure of joint attention and Transformer network图3 联合注意力和Transformer的视网膜血管分割网络

本文针对视网膜血管分割任务设计了一种联合注意力和Transformer的视网膜血管分割网络JAT-Net。首先,JAT-Net使用侧输入来构建图像金字塔,其融合了不同层次的图像特征,提高了编码器提取特征信息的能力。然后,将48×48,24×24,12×12,6×6和3×3像素的视网膜血管特征图依次输入到5个侧输入分支中,每个分支与上一分支的特征相加,逐步融合生成5个不同分辨率的特征图。图3是本文的JAT-Net架构,它主要包含编码器路径和解码器路径。在JAT-Net的底部加入Transformer用于提取特征图的全局上下文信息。最后,经过卷积操作和Softmax运算得到视网膜血管分割结果。

2.1 编码器和解码器网络结构

在网络结构中引入恒等映射捷径使深层网络更容易优化且不会产生更高的训练错误率,甚至还能降低分割错误率[20]。由此,在编码阶段利用恒等映射捷径的思想将原始输入特征图与经过2个串行3×3卷积、批规范化BN(Batch Normalization)层和ReLU激活的特征相加,然后将编码器输出的特征图送至联合注意力模块,以更好地关注局部血管特征的细节。最后,对联合注意力模块输出的特征图进行最大池化操作,并将池化后的特征送至下一层编码器。

在解码阶段,为最大程度地还原眼底图像的全局上下文信息,将JAT-Net底部Transformer的输出特征图作为解码器的输入。每个解码阶段使用步长为2,卷积核为 2×2的反卷积恢复特征尺寸。与编码器模块一样,解码器模块也是采用2个串行3×3卷积、批规范化和ReLU激活对特征信息进行解码。编码器和解码器的结构如图4所示。

Figure 4 Structure of encoder and decoder图4 编码器和解码器结构

2.2 联合注意力网络结构

为了提取到高质量的血管特征,不仅要对特征图的通道间信息进行编码,而且还不能忽略特征的位置信息。联合注意力模块受到SENet(Squeeze-and-Excitation Networks)[21]提出的SE模块的启发,其联合关注了特征图通道和位置维度的特征信息。为了做到既捕获特征的空间信息又保留位置信息,联合注意力利用平均池化操作将输入特征图(维度为C×H×W)分别从垂直和水平方向构建了2个新的位置特征图(维度为C×H×1和C×1×W),具体操作如式(1)所示:

(1)

(2)

其中,c为通道,h为高度,w为宽度,xc代表输入特征图。然后,通过1×1的卷积和BN+ReLU层将拼接后的2个位置特征图(维度为C′×1×(W+H))重新编码生成2个像素注意力掩码(维度为C×H×1和C×1×W),其过程如式(3)~式(5)所示:

F=σ(fBN(Conv1×1(fh,fw)))

(3)

Gh=σ(fBN(Conv1×1(Fh)))

(4)

Gw=σ(fBN(Conv1×1(Fw)))

(5)

Figure 5 Structure of the joint attention module图5 联合注意力模块结构

其中,F表示拼接后的特征图,Gh表示水平方向特征图,Gw表示垂直方向特征图,σ代表ReLU激活函数,fBN(·)表示批规范化操作,Conv1×1(·)表示1×1卷积。最后,将生成的注意力图与输入特征图相加,再经过1×1卷积、批规范化和ReLU,与输入特征图相乘,以进一步增强特征图的表示能力,具体实现如式(6)所示:

yc=σ(Conv1×1(xc+σ((fBN[Gh,Gw]))))×xc

(6)

其中,yc表示联合注意力最终输出,+表示像素逐元素相加,×表示像素逐元素相乘。联合注意力模块的结构如图5所示。在JAT-Net的编码阶段,将联合注意力模块的输出作为下一层编码器模块的输入。

2.3 Transformer网络结构

由于U型架构对提取全局信息存在局限性,因此本文在JAT-Net中引入Transformer,Transformer的结构如图6所示。具体来讲,Transformer利用JAT-Net底层语义特征之间的全局相互作用,对特征图所有位置的值进行加权求和,由此编码特征信息获得整个特征图的上下文信息,从而在JAT-Net解码器中实现精细的空间恢复。

Figure 6 Structure of Transformer图6 Transformer网络结构

首先,Transformer对输入的图像进行图像序列化处理,获得切片x=[x1,x2,…,xN]∈RN×(P×P)×C,其中,切片的数量N=HW/P2,每个切片大小为P×P,C是通道数。然后,通过可训练线性映射将向量化的切片xN映射到潜在的D维嵌入空间,产生对应的切片嵌入投影Epatch∈R(P×P×C)×D。通过编码切片空间信息,学习特定的位置并保留位置信息,将切片的位置嵌入到Epos∈RN×D相加,输出相应像素级的标签特征图,具体操作如式(7)所示:

z0=[x1Epatch,…,xNEpatch]+Epos

(7)

其中,z0表示第0层像素级的标签特征图,Epatch为切片嵌入投影,Epos为位置嵌入投影。随后,将嵌入切片输入到由L层多头自注意力MSA(Multi-headed Self-Attention)和多层感知机块MLP(Multi Layer Perception)组成的Transformer模块,在每个模块之前应用归一化层,在每个模块之后添加残差连接。Transformer第l层的输出计算如式(8)和式(9)所示:

z′l=MSA(LN(zl-1))+z

(8)

zl=MLP(LN(z′l))+z

(9)

其中,z′l是第l层MSA模块切片的输出,zl是第l层切片图像的表示,MSA(·)表示多头自注意力,LN(·)表示归一化操作,MLP(·)表示多层感知机块。为了防止过拟合,Transformer中的MSA模块集成多个独立的注意力机制,注意力函数由3个点对点(Q,K,V)的线性层组成,每个注意力机制函数只负责最终输出序列中一个子空间,而且互相独立。MSA表示如式(10)所示:

(10)

其中,WQ∈RN×d,WK∈RN×d,WV∈RN×d,d为输出维度。最后,通过MLP对MSA的输出进行转化,并通过残差连接将MLP的输出与输入相加得到Transformer最终的输出。

3.1 数据集

本节在用于血管提取的数字视网膜图像数据集DRIVE[22]和CHASE(CHASE_DB1)[23]眼底数据集上验证本文所提方法的有效性。

DRIVE 数据集来自荷兰的糖尿病视网膜病变筛查计划,由40幅视网膜眼底血管图像、对应的真实标记图像及相应的masks图像组成,每幅图像的大小为565×584。详细信息请参考http://www.isi.uu.nl/Research/Databases/DRIVE/。

CHASE数据集由14名学生的左眼和右眼视网膜图像、对应的真实标记图像及相应的masks图像组成,每幅图像的分辨率为1280×960。详细信息请参考https://blogs.kingston.ac.uk/retinal/chasedb1/。

基于Retinex理论的多尺度Retinex颜色恢复MSRCR(MultiScale Retinex with Color Restoration)方法[24]对眼底图像中的视神经盘、眼底血管及病灶等整体信息进行增强。该方法在几个测试场景和一百多幅图像上对多尺度视网膜进行广泛的测试,以适度稀释色彩一致性为代价,解决了灰度级图像的缺陷。第1步,通过MSRCR方法对眼底图像整体进行增强,接下来关注眼底图像中最重要的血管结构。鉴于单通道灰度图像比RGB图像能更好地显示血管与背景之间的对比度,所以第2步将MSRCR方法处理过的RGB眼底图像转换成单通道灰度图像。将眼底图像进行适当的预处理,利用增强后的三通道灰度图像作为网络训练的输入。

3.2 实验细节

JAT-Net的实验环境为基于深度学习开源框架PyTorch[25],Linux操作系统,Intel(R) Xeon(R) Gold 5218 2.30 GHz CPU和NVIDIA Quardro RTX 6000 24 GB GPU,运行内存为187 GB。在训练阶段,使用Adam[26]函数作为网络优化器,参数默认设置为β1=0.9,β2=0.999和ε=1e-8。通过Plateau方法对学习率进行衰减,学习率lr初始化设为0.001,权重衰减系数为0.000 5。为了规避过拟合风险,同时提升模型性能,对DRIVE和CHASE数据集的训练图像和标签图像采取随机动态提取小批量补丁训练网络,动态提取的补丁数量为10 480,补丁大小为48像素,批量初始化为32,训练周期为200。动态提取补丁主要通过随机生成补丁的中心点位置,围绕中心点从训练集和标签中截取尺寸大小为48的补丁图像和标签补丁图像,最后将提取到的补丁图像输入到训练好的模型中得到最终补丁图像的分割结果。由于2个数据集的图像大小不同,因此对原图进行补丁切片处理时需要用黑色像素补充,以确保从每幅图像中都能提取到整数倍个补丁。本文模型使用交叉熵损失函数,如式(11)所示:

L(pi,qi)=

(11)

其中,pi表示真实标签值,qi表示预测值。

在训练过程中,DRIVE数据集的20幅图像用于训练,20幅图像用于测试;CHASE数据集的20幅图像用于训练,8幅图像用于测试[27]。

3.3 实验性能评价指标

为评估本文方法和现有其他方法对视网膜血管分割的有效性,本文通过5个常用的指标来客观地评估视网膜血管分割的性能,包括准确率(Accuracy)、敏感性(Sensitivity)、特异性(Specificity)、ROC曲线面积(AUC)和F1分数(F1-score),各指标计算如式(12)~式(17)所示:

(12)

(13)

(14)

(15)

(16)

(17)

其中,TP是正确分割的血管像素数量,FP是血管像素错误地被分割为背景像素的数量,TN是正确分割的背景像素数量,FN是背景像素错误地被分割为血管像素的数量。

3.4 评估模型改进前后的性能

为验证JAT-Net中联合注意力模块和Transformer对视网膜血管分割任务的有效性,在相同的实验环境下,以U型网络为基线分别在DRIVE和CHASE数据集上进行视网膜血管分割实验。实验结果如表1和表2所示,表中Basic表示U型网络模型,Basic+JAM表示在基线网络的基础上添加联合注意力模型,Basic+Transformer表示引入Transformer的模型,JAT-Net表示本文提出的视网膜血管分割网络。表中结果是由数据集中所有测试图像的实验指标数据和除以测试图像个数获得的平均值。

从表1可以看出,首先,以U型网络作为整个实验的基础,加入联合注意力模块后,所有指标结果都高于Basic模型的,其中F1分数提高了3.44%,敏感性提高了4.99%;从敏感性指标来看,加入联合注意力后网络捕获血管特征的能力明显提高,证明其具有帮助网络提升分割效果的作用;
加入Transformer后的模块比Basic有更高的敏感性和F1分数,其中F1分数提高了3.31%,敏感性提高了5.6%,这得益于Transformer能有效地将编码器阶段的全局眼底图像特征传递给解码器,并且缓解连续下采样造成血管信息损失的问题;
最后,JAT-Net与Basic进行对比,其敏感性提高了5.9%,F1分数提高了3.78%。

Table 1 Experimental results of the improved models on DRIVE dataset表1 DRIVE数据集上模型改进的实验结果对比

在CHASE数据集的实验上,首先采用MSRCR方法增强CHASE的原始图像缓解了图像中大范围动脉狭窄和对比度低的问题,为血管分割创造了良好的前提条件。从表2可以看出,加入联合注意力后的模型比Basic的实验结果更优;
JAT-Net比单一的引入联合注意力或Transformer的分割结果更好;
与基线网络相比,JAT-Net的敏感性提高了4.18%,F1分数提高了6.85%。通过对DRIVE和CHASE数据集进行同样的消融实验发现,JAT-Net的评估指标相比基线网络的都有很大的提高,这也进一步说明了JAT-Net对视网膜血管分割的有效性。

Table 2 Experimental results of the improved models on CHASE dataset表2 CHASE数据集上模型改进的实验结果对比

图7是消融实验在DRIVE和CHASE数据集上的分割结果的可视化比较。图8中第1列是原始视网膜图像,第2列是人工分割的标注图,第3~6列分别是Basic、Basic+JAM、Basic+Transformer和JAT-Net的分割结果。总的来说,在消融实验结果对比中,模型分割结果的准确性逐渐提高,噪声明显降低,血管的边界部分和毛细血管部分都被分割得更加精确和清晰,图中标注的区域对比尤为明显。

Figure 7 Segmentation results of ablation experiments图7 消融实验的分割结果

Figure 8 ROC and PR curves of ablation experiments图8 消融实验的ROC曲线和PR曲线

本文还通过计算并可视化展示了消融实验结果的ROC曲线和PR曲线,如图8所示。图8中的ROC曲线反映了假阳性样本和真阳性样本之间的关系。当真阳性样本与假阳性样本的比例较大时,PR曲线能更好地反映分类的真实性能。在DRIVE数据集和CHASE数据集上,JAT-Net网络模型的ROC曲线和PR曲线下的面积都是最大的,说明该模型在视网膜血管分割任务中比其他消融实验模型的性能更好。

3.5 评估不同视网膜血管分割方法的性能

本节与现有的部分无监督和有监督视网膜血管分割方法进行对比实验,同时将对比实验的视网膜血管分割结果进行可视化。表3和表4分别显示了DRIVE和CHASE数据集上不同方法的视网膜血管分割结果,可以看出,JAT-Net分割视网膜血管的准确率更高。

图9是不同无监督方法的可视化血管分割结果。从图9可以看出,大部分无监督方法的可视化结果存在噪声且血管分割不完整。文献[4]方法利用二维高斯核的匹配滤波器比文献[9]利用高斯低通滤波器和高斯高通滤波器的分割效果更佳。文献[10]采用无监督方法中最大熵期望最大化算法提取视网膜血管,其分割结果的敏感性在DRIVE数据集上达到了最优,从可视化方面看出其比前2种方法分割的血管轮廓更完整,但该方法分割的血管存在严重的断裂且分割结果伴随大量噪声。与无监督方法的血管分割结果对比,JAT-Net去除掉了大部分噪声对分割造成的干扰且对细小血管的分割也更完整。

Table 3 Comparison of the proposed methods and other methods on DRIVE dataset

Table 4 Comparison of the proposed method and other methods on CHASE dataset

Figure 9 Visualization comparison of results of unsupervised retinal vessel segmentations on DRIVE dataset图9 DRIVE数据集上无监督方法视网膜血管分割结果可视化对比

图10是不同有监督方法的可视化实验结果。与U-Net相比,Sine-Net采取先上采样的方式提取血管特征。除此之外,HAnet和文献[2]方法同样是改进的U形网络,不同的是HAnet设计多个解码器关注不同区域的特征。虽然HAnet不如文献[2]方法的分割准确性高,但其分割的血管连续性比后者更强,且更多关注细小血管的特征,其特异性达到了最优值0.984 9。与其他方法相比,JAT-Net基于联合注意力从局部角度关注血管的特征且利用Transformer建立特征的长依赖关系,提升了网络对眼底图像中血管主干和末端以及毛细血管的提取能力。JAT-Net在DRIVE数据集上分割的准确率达到了0.970 6,F1分数达到了0.843 3。从可视化的角度来看,JAT-Net在修复血管分割断裂方面也有明显改善且减少了一些细节错分割情况,尽可能地避免了以上情况的发生,对一些眼科疾病的诊断也是有益的。

在CHASE数据集上,文献[6]方法基于现有的移位滤波器组合 COSFIRE(Combination Of Shifted FIlter REsponse)增加了选择性响应操作,由于其选择性是在一个自动配置过程中从血管原始模样中确定的,这使得该方法存在一定的限制性。文献[8]方法利用不同的滤波器获得对应的低频和高频图像,用于后续对应特征的提取,从表4的评估指标也能发现,该方法相比文献[6]方法在准确性方面有较大的提高,对血管的敏感性也更强。通过比较无监督和有监督视网膜血管分割方法的分割效果,观察CHASE数据集上视网膜血管分割可视化结果(如图11所示)可以看出,对于同一幅视网膜血管图像,利用有监督方法HAnet和JAT-Net明显比无监督方法文献的分割更精准,一些毛细血管的连续性也更完整,其F1分数达到最高值0.819 1。

图12是CHASE数据集上各有监督方法分割结果的可视化,R2U-Net和DUNet在细小血管的分割效果上优于U-Net。但是,R2U-Net 和DUNet在实现更高准确性的同时也引入了噪声,并存在将背景区域分割为血管的情况。上述问题同样出现在了Sine-Net的分割结果中,其分割图像中的噪声更加严重,不利于眼科专家诊断疾病。为了有效地使用来自不同训练阶段的特征信息,FANet[28]利用每个训练周期的特征来修剪后续过程的预测特征图,但仍未达到最佳效果。从可视化效果来看,JAT-Net没有其他方法分割产生的噪声多且对细小血管末端的处理更干净,分割的主要血管主干也没有受到过多背景因素的影响。JAT-Net在CHASE数据集上的准确率、敏感性、特异性指标都有所提高,其中,准确率和特异性分别达到了0.977 4和0.988 6。通过在DRIVE和CHASE数据集上对本文方法进行消融实验以及与现有视网膜血管方法进行对比实验,表明本文方法可以实现精准有效的视网膜血管分割。

Figure 10 Visualization comparison of results of supervised retinal vessel segmentation on DRIVE dataset图10 DRIVE数据集上有监督视网膜血管分割结果可视化对比

Figure 12 Visualization comparison of results of supervised retinal vessel segmentation on CHASE dataset图12 CHASE数据集上有监督方法视网膜血管分割结果可视化对比

Figure 11 Visualization comparison of retinal vessel segmentation results on CHASE dataset图11 CHASE数据集上视网膜血管分割结果可视化对比

3.6 当前工作的局限性和未来研究的方向

致力于提高视网膜血管分割网络的分割精度,同时本文工作还有以下不足之处:(1) 为了提高网络的分割精度,利用Transformer以更多的时间和存储交换模型的高准确性,这使得网络模型对硬件要求很高,各模型具体的参数和时间复杂度如表5所示。(2) 所有实验使用的数据集仍限于DRIVE和CHASE 2个公共数据集,没有在更多更大的数据集上进行实验,所以后续将尝试在更多的数据集上验证本文方法的优越性能。(3) 尽管某些结果优于目前的一些方法,但在强噪声的数据集上,使用噪声较小的数据集和焦点区域得到的训练模型的分割结果还不如预期。

Table 5 Number of parameters and time costs of different models表5 不同模型的参数数量和时间成本

基于以上不足之处,未来的工作方向有:首先,通过优化网络结构,提高网络模型的分割速度,以及优化网络模型的泛化能力,使其有可能用于生产和临床应用;
其次,现有公开的眼底图像数据集的数量有限,对模型的训练有很大的制约,在后续的研究工作中,可以利用合适数量的Ground truth图像来监督网络训练,以解决由于数据量小而导致模型训练不足的情况;最后,由于采集设备的不同,临床诊断中使用的视网膜血管图像往往存在差异,利用新的预处理方法解决由光照等引起的差异,建立具有更强泛化能力的网络模型,在临床应用中具有重要意义。

视网膜血管的准确分割对于帮助医生筛查和诊断眼部疾病具有重要的实际意义。本文提出了融入联合注意力和Transformer的网络模型(JAT-Net)进行视网膜血管分割。JAT-Net不仅利用联合注意力有效地关注局部血管特征,而且通过Transformer将图像特征视为序列来编码强大的全局眼底图像特征。JAT-Net在DRIVE和CHASE眼底图像数据集上的视网膜血管分割结果表明,JAT-Net对于视网膜血管分割是有效的,且JAT-Net的性能优于目前最先进的现有其它方法,如DUNet、Sine-Net和FANet。未来的研究将致力于JAT-Net在三维网络中的应用以及利用JAT-Net完成其他医学图像视觉任务,如CT或MRI图像。

猜你喜欢 集上视网膜注意力 深度学习在糖尿病视网膜病变诊疗中的应用现代仪器与医疗(2022年2期)2022-08-11如何防治裂孔性视网膜脱离老友(2022年4期)2022-05-18让注意力“飞”回来小雪花·成长指南(2022年1期)2022-04-09关于短文本匹配的泛化性和迁移性的研究分析计算机研究与发展(2022年1期)2022-01-192型糖尿病脑灌注及糖尿病视网膜氧张量的相关性昆明医科大学学报(2021年10期)2021-12-02基于互信息的多级特征选择算法计算机应用(2020年12期)2020-12-31如何培养一年级学生的注意力甘肃教育(2020年22期)2020-04-13视网膜脱离能治好吗保健与生活(2019年12期)2019-07-31A Beautiful Way Of Looking At Things第二课堂(课外活动版)(2016年2期)2016-10-21师如明灯,清凉温润文苑(2015年9期)2015-09-10

推荐访问:视网膜 分割 注意力