小罗碎碎念
从本期推文开始,小罗将开始进行一项长期的工作——从头开始梳理人工智能在病理组学中的应用。
我会先从机器学习的进展开始讲,随后过渡到深度学习,再进一步阐述数据的处理分析方法,最后介绍人工智能在精准医疗以及病理组学中的应用。
每一部分内容都会穿插最新发表的文献作为补充,也会适当的加入项目复现的教程作为辅助讲解,初步的框架如下,后期若有修改,也会在推文中说明。
内容概述
首先,小罗会带大家回顾计算机和编程的起源,解释从最初的电子计算器到现代计算机的发展历程,以及高级编程语言如何简化计算机指令的编写。
其次,本期推文会深入探讨机器学习的不同类型,包括深度学习、神经网络和其他学习算法,以及它们如何被应用于解决实际问题,特别是在病理学领域。
最后,小罗会列举一些AI技术当前面临的挑战,包括算法的单一任务限制、对大量数据集的需求以及计算过程中的能源效率问题……。
一、引言
最初设计的计算机仅用于快速执行复杂的计算。
尽管计算机的概念起源于19世纪,其理论基础的建立是在20世纪初,但直到ENIAC(电子数值积分计算器)的建成,才能说第一台实用的计算机真正存在。
ENIAC占据了20×40英尺的房间,包含超过18,000个真空管。从那时起直到20世纪中叶,ENIAC的后代所运行的程序都是基于规则的,即机器根据数学、逻辑和/或概率公式处理数据。
电子计算器和计算机的区别在于,计算机不仅编码数字数据,还编码处理这些数据的规则(作为数字序列)。
计算机有三个基本部分:
核心存储器
,用于存储程序和数据;中央处理单元
,执行指令并将计算结果输出到存储器以供进一步使用;- 用于数据
输入和输出
的设备。
高级编程语言将程序语句作为输入,并翻译成计算机可以理解的(数字)信息。
此外,每种编程语言都有三个基本概念:
- 赋值
- 条件
- 循环
赋值
在计算机中,x=5
不是一个关于平等的陈述。相反,这意味着将值5赋给x。在这个背景下,X=X+2
虽然在数学上不可能,但完全有意义。我们将2加到X中的任何值(在本例中为5),新的值(7)现在替换了X中的旧值(5)。我们可以将等号视为表示左边的量被右边的量替换。
条件
现在,我们让计算机进行一个有两个可能结果的测试。如果一个结果成立,计算机将执行一个操作。如果不成立,它将执行另一个操作。
这通常是一个IF-THEN
语句。如果你穿着一套绿底黄色圆点的西装,打印“你的品味真差!”如果没穿,打印“你的服装品味还有救。”
循环
循环使计算机能够执行一个或一组指令指定的次数。从这些简单的构建块中,我们可以创建指令来对任何输入执行极其复杂的计算任务。
传统的计算方法
传统的计算方法涉及根据数学结构、逻辑推理和数据结构中已知关系对问题进行编码。
从某种意义上说,计算机正在用有限的数据集测试你的假设,但并没有使用这些数据来通知或修改算法本身。正确的结果提供了计算机模型的测试,然后可以用来处理更大、更复杂的数据集。
这种基于规则的方法类似于科学中的假设检验。相比之下,机器学习类似于假设生成的科学。本质上,机器被赋予大量数据,然后建模其内部状态,使其对数据的预测越来越准确。计算机从数据中创建自己的规则集,而不是由程序员临时给定规则。
简而言之,机器学习使用标准的计算机架构构建一组指令,这些指令不是根据一组规则对输入的数据进行直接计算,而是使用大量已知的示例来推导出当呈现未知输入时的期望输出。
二、基于规则与机器学习的深入比较
2-1:区分正方形、长方形和圆形
FIGURE 1.1 描述的是一个几何概念,涉及圆与其内切和外接多边形之间的关系。
-
几何构造:图中展示了一个圆,它被两个正多边形所限制:一个是内切于圆内的多边形(内切多边形),另一个是外接于圆的多边形(外接多边形)。这两个多边形共享相同的中心点。
-
面积关系:圆的面积被这两个多边形的面积所包围。内切多边形的面积小于圆的面积,而外接多边形的面积大于圆的面积。这是因为随着多边形边数的增加,它们的形状越来越接近圆形,从而它们的面积也越来越接近圆的实际面积。
-
逼近圆周率:这种构造是古代数学家用来估计圆周率(π)的一种方法。通过计算内切和外接多边形的面积,可以得到圆周率的一个近似值。例如,阿基米德在公元前250年左右使用这种方法,通过计算内切和外接多边形的面积来估计圆周率的值。
-
逼近精度:随着多边形边数的增加,这些多边形的面积会越来越接近圆的面积,从而提供了圆周率越来越精确的估计。这是因为边数越多,多边形的曲率就越接近圆的曲率,其面积就越接近圆的实际面积。
-
数学意义:这个图示也展示了数学中逼近和极限的概念。通过不断细分多边形,可以得到无限接近圆的多边形,这是一种无限逼近圆周率的方法。
总的来说,FIGURE 1.1 通过几何图形展示了如何利用多边形逼近圆,并借此来理解和计算圆周率。这是一种古老但有效的数学方法,它体现了数学中通过逼近来解决问题的思想。
由于圆的实际面积介于内切和外接多边形的面积之间,这些多边形可计算的面积为圆的面积设定了上下界限。
在没有计算机的情况下,阿基米德证明了π的值介于3.1408和3.1428之间。使用计算机,我们现在可以对具有非常多边的多边形进行这种计算,以达到我们所需的π的近似值的小数位数。
对于更“现代”的方法,我们可以使用计算机求和一个非常大的无限级数的项,该级数收敛于π。这样的级数有很多,第一个在14世纪就被描述了。
2-2:基于规则的程序
现在如果我们有一个半径为1的圆的四分之一部分嵌入到一个边长为1单位的正方形靶板中,并且向靶板投掷飞镖,使飞镖随机落在板上的某个位置,飞镖落在圆弧内的概率是该圆弧面积与整个正方形面积的比例。
根据简单的几何学,这个比例是π/4。我们可以通过计算机模拟这个实验,通过让计算机选择一对随机数(每个都在零到一之间)并使用这些数作为X-Y坐标来计算模拟命中的位置。计算机可以跟踪落在圆弧内的命中次数与板上任何位置的命中总次数的比例,这个比例等于π/4。
FIGURE 1.2 描述的是一个模拟随机投掷飞镖的实验,用来估计圆周率(π)。
-
实验设置:图中展示了一个包含圆的正方形目标板,这个圆的一个象限被用来进行模拟投掷。正方形的边长为1单位,圆的半径也是1单位。
-
随机投掷:模拟中,飞镖随机投掷到正方形目标板上,落在圆内或圆外。实验中总共投掷了6次,其中5次落在了圆的象限内。
-
概率与面积比:根据几何学,圆内投掷点的概率等于圆的面积与正方形面积的比例。由于圆的半径是1,圆的面积是π乘以半径的平方,即π * 1² = π。正方形的面积是边长的平方,即1² = 1。因此,圆内投掷点的概率是π/4。
-
模拟结果:在这个模拟中,落在圆内的次数与总投掷次数的比率可以用来估计π/4的值。由于5次落在圆内,6次为总投掷数,所以比率大约是5/6,这给出了π/4的一个近似值为0.833…,进而π的近似值为4乘以0.833…,大约是3.333。
-
蒙特卡洛方法:这种通过随机抽样来估计数值的方法被称为蒙特卡洛模拟。它是一种统计方法,通过大量的随机样本来近似复杂问题的解。
-
实验的局限性:由于投掷次数较少,模拟结果的准确性有限。增加投掷次数可以提高估计的精度。
-
教育意义:这个模拟实验是一个很好的教学工具,它展示了如何使用概率和统计方法来解决几何问题,同时也说明了蒙特卡洛方法的基本原理。
总的来说,FIGURE 1.2 通过一个简单的模拟实验,展示了如何利用随机性来估计圆周率,同时也介绍了蒙特卡洛方法这一强大的数值计算技术。
2-3:机器学习
对于机器学习,我们需要做的是呈现大量已知的正方形和圆形,每个都标有其正确的身份。
计算机从这些标注数据中创建自己的规则集,这些规则不是由程序员给出的。机器使用其积累的经验最终正确分类未知图像。程序员无需明确定义使形状成为圆形或正方形的参数。有许多不同的机器学习策略可以做到这一点。
在最为复杂的机器学习形式,如神经网络(深度学习)中,计算机用于分类的内部表示对于程序员来说不是直接可观察或可理解的。随着程序获得越来越多的标注样本,它在区分新数据中的“圆润度”或“方度”方面变得越来越好。
它使用先前经验来提高其区分能力,而且数据本身不需要严格限制。在这个例子中,程序可以独立于大小、颜色甚至形状的规则性来做出决策。我们称之为人工智能(AI),因为它似乎比传统计算更类似于人类的行为。
三、机器学习的多样性
机器学习的时代实际上始于像Marvin Minsky和Frank Rosenblatt这样的先驱的工作,他们描述了最早的神经网络。
然而,由于多种原因,包括缺乏能够泛化到大多数现实世界问题的算法、输入存储和计算的原始性质,这种方法曾一度陷入停滞。
推动该领域向前发展的主要概念创新是反向传播和卷积,我们将在后面的推文中详细讨论这些内容。同时,其他正在开发的学习算法也超越了简单的基于规则的计算,涉及从大量数据中进行的推理。这些算法都解决了如何根据算法先前用已知数据集的训练来对未知实例进行分类的问题。
分类可以基于在抽象多维空间中数据点的聚类(支持向量机)、概率考虑(贝叶斯算法)或通过决策树和随机森林中的顺序搜索对数据进行分层。
除了神经网络之外,所有这些后来被统称为“机器学习”。然而,近年来,由于神经网络几乎普遍适用并且能够从输入数据中创建高级抽象,它们已经主导了该领域。基于神经网络的程序通常被定义为“深度学习”。
与普遍看法相反,这并不是因为这种网络中的学习复杂性,而是由于神经网络的多层结构,如下文将讨论的。为了简单起见,在接下来的推文中,我会将其他类型的机器学习称为“浅层学习”。
四、机器学习的一般方面
在国际象棋的不同机器学习方法中,规则型模型与人工智能(AI)模型之间的差异提供了很好的例子。
为了编写一个会下国际象棋的计算机程序,我们可以给它游戏的规则,一些基本战略信息,例如“占据中心位置是好的”,以及关于典型国际象棋开局的数据。
我们还可以定义评估棋盘上每个位置每一步的规则。然后,机器可以计算从给定位置出发的所有可能走法,并选择那些导致某种优势的走法。它还可以计算对手的所有可能回应。这种暴力方法评估了数十亿可能的走法,但成功地击败了专家级别的棋手。
早期的机器学习模型仅用了72小时的游戏时间就匹配了世界上最好的基于规则的象棋程序。这些网络学习在不显式输入判断中要调用的规则的情况下做出判断。
大多数机器学习程序共同需要的是大量的已知示例作为训练它们的数据。
从抽象意义上讲,程序使用数据创建一个内部模型或表示,该模型或表示封装了这些数据的属性。
当它接收到一个未知样本时,它确定该样本是否符合该模型以“训练”它们。神经网络是生成此类内部模型的最佳方法之一,但从某种意义上说,每个机器学习算法都是这样做的。
例如,一个程序可能被设计用来区分猫和狗。训练集由许多猫和狗的例子组成。本质上,程序从猜测开始,并通过多个已知示例来改进这些猜测。在某个时刻,程序可以将一个未知示例正确地分类为猫或狗。它已经生成了“猫性”和“狗性”的内部模型。
由已知示例组成的数据集被称为“训练集”。在将此模型用于未标记、未知的示例之前,必须测试程序以查看其效果如何。为此,需要一个由已知示例组成的集合,这些示例不用于训练,而是用于测试机器是否学会识别它从未见过的示例。分析算法的能力,以刻画这个“测试集”。
尽管许多论文用准确度来量化这个测试的结果,但这是一种不完整的衡量方法,如果需要区分的两个类别之间不平衡,它就完全无用。
例如,在2011年至2015年期间,总体癌症发病率每10万人中不到500例。我可以创建一个简单的算法来预测一个随机个体是否患有癌症,简单地让算法报告所有人都是阴性。这个模型将错误不到500次,所以它的准确度大约是99.5%!然而,这个模型显然是无用的,因为它不会识别任何癌症患者。
这个例子表明,我们不仅要考虑模型的准确度,还要考虑其错误性质。
模型的输出结果有四种可能:
- 真阳性(TP)
- 假阳性(FP)
- 真阴性(TN)
- 假阴性(FN)
有简单的公式来确定算法的阳性预测值和敏感性——分别被称为“精确度
”(Pr)和“召回率
”(Re)。在部分论文中,我们还会接触到F1值
,这是Pr和Re的谐波平均值。
衡量指标
在机器学习中,精确度和召回率(Precision and Recall)是用于评估二元分类模型性能的两个重要指标。
精确度
是指在所有被预测为正类的样本中,真正属于正类的比例。召回率
则是指在所有真正的正类样本中,被正确预测为正类的比例。
这两个指标通常用于评估分类模型的性能,特别是在医疗诊断、金融欺诈检测等领域,其中漏诊(召回率低)和误诊(精确度低)都可能导致严重的后果。
除了精确度和召回率,还有一些其他指标可以用于评估机器学习模型的输出结果,这些指标有助于从不同的角度全面评估模型的性能:
- F1分数:是精确度和召回率的调和平均数,用于衡量分类模型的整体性能。F1分数越高,说明模型性能越好。
- 准确率(Accuracy):是指模型正确预测正负类样本的比例。虽然这个指标直观易懂,但它不能很好地反映模型对少数类的预测能力。
- AUC(Area Under the Receiver Operating Characteristic Curve):用于评估模型在ROC曲线下的面积,反映了模型区分正负类的能力。AUC值越接近1,模型性能越好。
- ROC曲线:是召回率和假正率(False Positive Rate)的曲线图,用于可视化模型的性能。ROC曲线越接近左上角,模型的性能越好。
- 混淆矩阵:是一个四格矩阵,用于展示模型对正负类样本的预测结果。它包括真阳性、假阳性、真阴性和假阴性等四种情况。
- 特异度(Specificity):是指在所有被预测为负类的样本中,真正属于负类的比例。
- 灵敏度(Sensitivity)或召回率(Recall):是指在所有真正的正类样本中,被正确预测为正类的比例。
- 假阳性率(False Positive Rate)或误报率(False Discovery Rate):是指在所有负类样本中,被错误预测为正类的比例。
- 假阴性率(False Negative Rate)或漏报率(False Omission Rate):是指在所有正类样本中,被错误预测为负类的比例。
- 阳性预测值(Positive Predictive Value)和阴性预测值(Negative Predictive Value):分别表示模型预测为正类和负类的样本中真正属于该类的比例。
在评估机器学习模型时,通常需要根据具体应用场景和需求,选择合适的指标来全面评估模型的性能。
五、深度学习和神经网络
5-1:特征
我们在从事机器学习相关的研究时,经常会提到一个概念——特征提取。那么所谓的特征,可以包括诸如重量、大小、颜色、温度或任何可以用定量、半定量或相对术语描述的参数。
AI可以从WSI中提取的特征
深度学习模型可以从病理切片(histopathology slides)中提取的特征多种多样,取决于模型的设计、训练数据集和应用目的。以下是一些深度学习模型可以从病理切片中提取的特征的示例:
- 细胞特征:
- 细胞核的形状、大小、密度、染色质结构、核仁的形态和大小。
- 细胞质的特点,如颗粒度、异质性、边缘的清晰度。
- 细胞内结构,如线粒体、内质网、溶酶体、糖原颗粒。
- 组织结构特征:
- 组织的层次结构,包括上皮层、基底层、间质层。
- 组织间的空间关系,如浸润、坏死、纤维化。
- 组织内血管的结构和分布。
- 病变特征:
- 肿瘤的类型、分级、侵袭性。
- 炎症反应的类型和程度。
- 代谢活跃区域的分布和特征。
- 分子特征:
- 基于基因表达数据的特征,如免疫标记物、细胞周期调控因子、信号通路活性。
- 蛋白质组学数据中的特征,如蛋白质的丰度、磷酸化状态、亚细胞定位。
- 图像纹理特征:
- 图像的局部强度分布模式,如边缘、角点、纹理。
- 图像的灰度共生矩阵特征,用于描述图像的局部纹理结构。
- 上下文特征:
- 切片内不同区域的特征,如正常组织、病变区域、炎症区域。
- 切片间的特征,用于比较不同切片或不同病例。
深度学习模型,特别是卷积神经网络(CNNs),能够通过其多层结构自动学习从输入数据中提取这些特征。通过训练模型识别和区分不同类型的病理切片,模型可以学习到与特定疾病状态相关的特征。这些特征可以帮助病理学家更准确地进行诊断和预后判断,或者用于开发新的诊断工具。
5-2:特征工程
创建特征向量的过程通常被称为特征工程。
有些事物具有太多特征,无法直接进行这种处理。例如,一张图片在像素级别可能有数兆字节的数据。
在机器学习之前,图像分析是基于特定的规则和测量来定义特征,基于边缘、纹理、形状和强度等模式来识别诸如细胞核、细胞质、有丝分裂、坏死等对象,但这些解释取决于人类病理学家。
在神经网络之前,机器学习也需要人类来定义特征,这项任务通常被称为“特征工程”。这些更强大的网络可以对整个图像进行特定的分类和预测。
5-3:人与AI的不可解释性
由模拟神经元组成的神经网络走得更远——这些算法的大部分力量在于网络可以自己从输入数据中抽象出高级特征。
这些是基于初始数据输入的组合,通常被称为数据的表示。这些表示的维度远低于原始特征向量。表示是在输入和输出之间的网络层中形成的,这些层被称为隐藏层
。训练细化这些表示,程序使用它们来基于这些表示生成自己的决策规则。因此,神经网络通过从数据中创建隐藏变量来学习规则。
在神经网络的内部层中,导致表示的抽象过程是基于一种迭代模型,通常由随机变量发起,因此对于人类观察者来说部分不可解释(这就是为什么将这些内部层称为“隐藏”层)。
这种不可解释性让一些研究人员感到不安。然而,如果你问一个有经验的病理学家,他是如何根据活检切片检查得出诊断的,他们会发现很难解释得出这一判断的认知过程,尽管在追问下,他们可以定义一组与诊断一致的特征。因此,神经网络和人类都基于不可解释的过程做出决策。
5-4:神经网络架构
大多数神经网络包含多个模拟神经元的层,每一层的“神经元”都连接到下一层的所有神经元。这些层通常由一个基于大脑视觉皮层架构的卷积层预先处理,将输入数据转换为可以被后续全连接层处理的形式。
并非所有机器学习程序都基于这些深度学习概念:
- 有些程序依赖于模拟神经元之间的不同连接,例如所谓的受限玻尔兹曼网络。
- 脉冲神经网络,利用更像生物大脑工作的架构。
尽管这些代表了AI当前的前沿技术,但基本的完全连接和卷积框架更易于训练,计算效率更高,因此我们会发现CNN出现在论文中的频率非常高。
六、AI在病理学中的作用
6-1:研究趋势
据估计,临床记录表的大约70%由实验室数据组成,因此病理学家在剩余30%的临床情况下对这些数据的解释至关重要。
即使在分子分析的时代,病理学家在组织水平进行诊断时对基于图像数据的解释仍然具有重大意义。但是,这份工作并不是所有人都能胜任——因为诊断预后非常复杂,并且需要整合基因、基因表达和免疫学特征等分子数据的视觉相关性,此外还需要比较回顾大量的档案材料。
因此,在解剖病理学以及临床病理学的持续实施中,AI的研究和实施正在以指数级的速度进行。其实,从我推文的关注度也可以看出这个趋势,只要内容是病理相关的,基本上都很受欢迎。
另外,我昨天还在交流群里看见一个群友转发的链接,“空间多维组学引航下一代分子病理诊断革新”居然入选了2024十大工程技术难题,看来国家层面也是很重视这一方面的研究。
6-2:与影像组学的关联
在许多方面,放射学家的经验正在帮助我们指导病理学的演变,因为放射学家正在迅速采用AI——也就是小罗一直说的多模态和多组学——影像组学+病理组学。
人工智能(AI)在病理组学和影像组学中的应用是医学成像和病理学领域的一个新兴方向。这两个领域都依赖于对大量生物医学图像和数据进行准确分析,而AI提供了一种强大的工具来处理这些复杂的数据集。
病理组学
在病理组学中,AI的应用主要集中在以下几个方面:
- 图像分析:AI可以自动分析病理切片,识别和量化特定的细胞和组织结构,如肿瘤的边界、细胞核的数量和形态、免疫标记物的分布等。
- 数据挖掘:AI可以处理大量的病理组学数据,如基因表达数据、蛋白质组学数据等,以发现疾病相关的生物标志物和分子特征。
- 决策支持系统:AI可以开发用于辅助病理学家诊断的决策支持系统,通过分析病理切片图像和相关的组学数据,提供对疾病状态的预测和解释。
影像组学
影像组学(Imaging Omics)是指利用AI技术对医学影像数据进行高通量分析,以发现疾病的生物标志物和特征。
在影像组学中,AI的应用主要包括:
- 图像分割:AI可以自动分割医学影像中的不同结构,如肿瘤、器官、血管等,以便于进一步分析。
- 特征提取:AI可以从医学影像中提取大量的特征,如形状、纹理、大小等,用于疾病诊断和预后评估。
- 模型训练和验证:AI可以基于大量的医学影像数据,训练和验证疾病诊断和预后预测的模型,以提高诊断的准确性和效率。
发展进程
- 早期研究:在20世纪90年代和21世纪初,AI在医学成像中的应用主要集中在图像识别和图像分割。这些研究通常使用传统的机器学习方法,如支持向量机和决策树。
- 深度学习的发展:随着深度学习技术的兴起,尤其是卷积神经网络(CNNs)的出现,AI在医学成像中的应用得到了极大的推动。深度学习模型能够自动学习从医学影像中提取复杂的特征。
- 实际应用:近年来,AI在病理组学和影像组学中的应用逐渐从实验室走向临床实践。例如,一些AI系统已经被用于辅助病理学家进行疾病诊断,以及预测疾病的发展和预后。
- 挑战和未来方向:尽管AI在病理组学和影像组学中取得了显著进展,但仍面临许多挑战,如数据隐私、算法的可解释性、模型的泛化能力等。未来的研究方向包括开发更高效的AI算法,提高模型的可解释性,以及整合不同类型的数据(如影像数据和组学数据)以获得更全面的疾病信息。
随着技术的不断进步和医学数据的积累,AI在病理组学和影像组学中的应用将更加广泛和深入,为疾病的诊断、预后评估和个性化治疗提供有力支持。
七、AI的局限性
模型的泛化性不够
目前很多算法都是一次性的,只能执行它们被训练执行的特定任务,对新问题的应用能力有限。(所以我在琢磨一些泛癌分析相关的课题,例如病理基础模型)
提到泛化性,另一个概念又绕不开了——迁移学习。在计算机上进行所谓的迁移学习是可能的,但它仍然远离人类所具有的通用智能。
其次,训练一个算法需要大量数据集,通常以数千个示例为单位。相比之下,人类可以从非常少量的数据中学习。
计算效率
在医学图像分析中,深度学习模型的计算效率是一个关键因素,它直接影响模型的应用范围和性能。
计算效率通常指的是单位时间内能够处理的图像数量,这对于大规模的数据分析至关重要。然而,深度学习模型在医学图像分析中存在一些局限性,这些局限性部分是由于硬件计算效率的限制。
- 计算资源需求:深度学习模型,尤其是复杂的神经网络,需要大量的计算资源来训练和推断。对于医学图像分析,这通常意味着需要强大的GPU(图形处理单元)或其他专用硬件。然而,这些硬件的成本较高,且在某些情况下可能难以获得。
- 处理时间:深度学习模型的训练和推断过程可能需要很长时间。对于实时应用,如手术辅助或急诊情况,处理时间的长短直接影响到模型的实用性。如果模型需要数分钟或更长时间来处理一幅图像,那么它可能不适合这些时间敏感的应用场景。
- 可扩展性:在大规模数据集上进行深度学习模型的训练和推断时,硬件的计算效率决定了模型的可扩展性。如果计算资源有限,模型可能无法有效地处理大量的数据,这限制了模型的适用性和实用性。
- 资源优化:深度学习模型的设计和实现需要考虑资源优化,以提高计算效率。这可能包括使用更高效的算法、减少模型的大小、优化模型结构等。然而,这些优化措施可能会影响模型的性能和准确性。
- 硬件限制:尽管深度学习模型的性能可以通过优化算法和模型结构来提高,但硬件的限制可能会成为瓶颈。例如,某些硬件可能无法支持大规模的模型或无法提供足够的计算资源。
为了克服这些局限性,研究人员和开发者正在探索多种方法,包括使用更高效的硬件(如TPUs)、开发更轻量级的模型、优化算法和模型结构、使用分布式计算和云计算等。通过这些方法,可以提高深度学习模型在医学图像分析中的计算效率,从而使其更广泛地应用于实际场景。