CN117809839A - 一种预测高血压视网膜病变与相关因素关联分析方法 - Google Patents
一种预测高血压视网膜病变与相关因素关联分析方法 Download PDFInfo
- Publication number
- CN117809839A CN117809839A CN202410003020.8A CN202410003020A CN117809839A CN 117809839 A CN117809839 A CN 117809839A CN 202410003020 A CN202410003020 A CN 202410003020A CN 117809839 A CN117809839 A CN 117809839A
- Authority
- CN
- China
- Prior art keywords
- branch
- image
- vessel
- capillary
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/27—Regression, e.g. linear or logistic regression
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computing Systems (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本申请提供一种预测高血压视网膜病变与相关因素关联分析方法,包括:通过MedSAM进行血管切割与构建多个血管网的mask,对mask进行单独学习,得到多网格遮挡mask;将生成的多网格遮挡mask作为提示输入MedSAM,识别并输出动脉第三分支区;使用几何形态学测量提取的动脉第三分支的分支角度;使用微小成像技术获取毛细血管局部范围的动态高清图像;应用多贝西小波变换算法检测分支区的血流动力学变化,包括剪切应力、回流指数;建立基于张量表示的动态毛细血管评估网络,评估毛细血管壁结构和形态变化;构建关联回归模型,分析分支角度变化与毛细血管特征变化的动态和相互影响关系。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种预测高血压视网膜病变与相关因素关联分析方法。
背景技术
高血压视网膜病变是高血压疾病中一种常见的并发症,其病理改变通常涉及视网膜血管,包括动脉硬化、微动脉狭窄、动脉和静脉之间的交叉征象,这些变化对病人的视力甚至整体健康状况具有重要影响。然而,目前在预测和分析这些病变方面仍面临着诸多技术挑战。首先,传统的视网膜检查方法主要依赖于医生的主观判断,这不仅容易受到医生经验水平的影响,而且在病变初期,微小的血管改变往往难以被及时发现,因此,如何客观、准确地识别和量化高血压视网膜病变的早期征象,一直是一个难题。其次,虽然眼底摄影技术为视网膜病变的检测提供了有力工具,但目前的图像分析方法在处理高复杂性和多变异性的眼底图像时仍存在局限性,尤其是在分辨率、对比度和光照条件不理想的情况下,准确地识别和分析微小的血管改变变得更加困难。再者,尽管近年来深度学习技术在医学影像分析中取得了突破,但如何有效地将这些技术应用于高血压视网膜病变的具体场景,尤其是在处理动脉第三分支等微小结构时,仍然是一个技术挑战,目前的算法往往难以在保证高准确性的同时,兼顾算法的运算效率和通用性。最后,视网膜血管的微循环状态对于病变的早期预测至关重要,目前缺乏一种有效的方法来全面评估微循环状态,特别是在动脉分支特征变化与微动脉、毛细血管之间的相互作用和影响方面。因此,需要一种新的方法,能够克服现有技术的局限性,有效地识别和分析高血压视网膜病变的早期征象,同时考虑各种相关因素,为临床提供更准确的诊断依据。
发明内容
本发明提供了一种预测高血压视网膜病变与相关因素关联分析方法,主要包括:
使用SAM获取视网膜血管图像的多网格遮挡mask,将生成的不同分辨率的mask作为提示输入SAM,得到改进的SAM;通过MedSAM进行血管切割与构建多个血管网的mask,对mask进行单独学习,得到多网格遮挡mask;将生成的多网格遮挡mask作为提示输入MedSAM,识别并输出动脉第三分支区;使用几何形态学测量提取的动脉第三分支的分支角度;使用微小成像技术获取毛细血管局部范围的动态高清图像;应用多贝西小波变换算法检测分支区的血流动力学变化,包括剪切应力、回流指数;建立基于张量表示的动态毛细血管评估网络,评估毛细血管壁结构和形态变化;构建关联回归模型,分析分支角度变化与毛细血管特征变化的动态和相互影响关系;综合分支区和毛细血管的指标,构建眼底微循环评估体系框架,生成眼底微循环的整体状态评估,并对病情严重程度进行分级。
在一种实施方式中,所述使用SAM获取视网膜血管图像的多网格遮挡mask,将生成的不同分辨率的mask作为提示输入SAM,得到改进的SAM,包括:
配置SAM系统,使用SAM对视网膜血管图像进行切割,提取血管的形态特征,基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域;使用形态学运算,从视网膜血管图像中生成多网格遮挡mask,每个mask对应于血管网络的不同视觉细节和结构层次;所述形态学运算包括膨胀、侵蚀;将生成的视网膜血管多网格mask作为提示输入到SAM,视网膜血管多网格mask引导SAM专注于血管区域,生成改进的SAM,专注视网膜血管图像,识别视网膜血管的特征,并提供分析结果,将改进的SAM命名为MedSAM模型;使用已有的医学数据来验证MedSAM模型的准确性和可靠性,根据验证结果,调整SAM系统和mask生成策略,提高MedSAM模型的性能。
在一种实施方式中,所述通过MedSAM进行血管切割与构建多个血管网的mask,对mask进行单独学习,得到多网格遮挡mask,包括:
应用MedSAM对视网膜血管图像进行切割,提取血管的形态特征,基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域;利用空间金字塔场景解析网络进行血管的三维重建,同时对遮挡区域进行分割;使用MedSAM的高级功能建立遮挡语义约束,提高遮挡区域的分析精度,针对每个mask,特别是遮挡区域,使用SAM提取遮挡语义特征,确保特征符合遮挡语义约束;对每个mask进行单独学习和优化,关注遮挡区域的处理和识别能力,提高mask在处理复杂血管网络和遮挡问题上的性能;利用MedSAM和语义变化驱动,跟踪和分析每个mask在三维血管网中的动态变化,获取mask运动序列,获取血管网遮挡的语义特征;将语义特征序列转换为多个血管网mask,确保每个mask都有对应的遮挡语义特征,且对应血管网络的不同视觉细节和结构层次;对mask进行质量检验,确认是否成功获取多网格遮挡mask。
在一种实施方式中,所述将生成的多网格遮挡mask作为提示输入MedSAM,识别并输出动脉第三分支区,包括:
配置MedSAM,将生成的多网格遮挡mask作为提示输入到MedSAM系统,使用mask来引导系统关注血管区域,特别是动脉第三分支区;所述动脉第三分支区为动脉第三分支角所在区域;MedSAM系统分析输入的多网格遮挡mask,使用MedSAM的高级图像识别和分析功能识别出眼底图像中的动脉第三分支区并输出动脉第三分支区图像;将输出的动脉第三分支区图像,以专业医生的手动识别结果或医学数据作为基准进行比较,对MedSAM系统识别出的动脉第三分支区进行验证;根据验证结果,调整MedSAM的参数和处理流程;获取医生和患者的反馈,根据反馈优化MedSAM。
在一种实施方式中,所述使用几何形态学测量提取的动脉第三分支的分支角度,包括:
获取动脉第三分支区图像,使用Canny算法识别血管边缘,结合形态学运算,包括膨胀、侵蚀增加血管边缘的连续性。对提取的动脉分支进行几何形态学分析,测量分支角度,使用Zhang-Suen算法将血管分支缩减为动脉分支的骨架表示,识别分支点和连接点,将分割结果转换为二值图像。从二值图像中骨架化的血管网络上,识别动脉第三分支的连接点,提取第三分支的两个方向向量,通过vectorangle函数,使用公式计算两个向量间的角度,其中u、v为两个分支的方向向量,得到分支的精确交角。将测量的角度数据保存到数据库或数据文件中,进行统计分析,计算角度的平均值、标准差。对比专业人员的手动测量结果,调整和优化Zhang-Suen算法参数,迭代调整预处理和分支识别,提高整体精度;还包括:通过统计分析分支角度值的均值和标准差,判断动脉第三分支区血管是否存在形态改变。
所述通过统计分析分支角度值的均值和标准差,判断动脉第三分支区血管是否存在形态改变,具体包括:
在动脉第三分支区获取血管序列图像,对每张图像进行预处理,包括对比度增强、去噪,提高血管边缘的可识别性。对每组数据中的每张图像,检测分支管腔的交角,提取含角度值的向量。对每个角度向量计算均值μ和标准差σ,描述整体分布。均值计算公式为其中n为元素数量,x为角度值,依据3-sigma原则,确定正常角度变化范围。使用Kolmogorov-Smirnov检验分析每组角度向量与正态分布的拟合程度。当新时相数据出现时,检测新时相数据的角度向量,若新数据的均值和标准差与历史数据相比差异超出±3-sigma,则判定形态发生改变。
在一种实施方式中,所述使用微小成像技术获取毛细血管局部范围的动态高清图像,包括:
所述微小成像技术包括多种不同的成像方法和仪器,主要包括光学显微镜、电子显微镜;将多焦光学显微镜对接高速度微血管成像设备,根据成像视场和范围要求设置所需的光学参数,包括光源强度、曝光时间、扫描速度;导入眼底待检测区域图像,锁定感兴趣的毛细血管作为检测目标,获取检测目标位置坐标;根据坐标,控制成像设备进行局部范围锁定跟踪,获得毛细血管局部区域的动态图像序列;对序列图像,使用引导滤波器,提升细微纹理的清晰度;根据获取的图像数据,使用形态学重建算法进行三维重建,获得毛细血管信息;使用三维重建后的毛细血管信息,合成超分辨率毛细血管图像,得到的高清动态成像。
在一种实施方式中,所述应用多贝西小波变换算法检测分支区的血流动力学变化,包括剪切应力、回流指数,包括:
采集分支区血管的动态图像序列,对图像进行去噪、对比度调整预处理,确保血管特征的清晰度。对预处理后的图像序列应用多贝西小波,分离不同频率的信号成分,提取血流的时间和空间特征,从小波变换结果中提取血流速度信息。速度特征提取公式Vf(x,y,t)=∑W(x,y,t)·F(x,y,t),其中Vf是提取的速度特征,W是小波变换函数,F是图像序列中的原始像素值。血管中的剪切应力其中μ是血液的动态粘度,Vmax是最大血流速度,D是血管直径,Vmax由速度特征得出。计算回流指数的自定义公式其中Tback是血流逆向的时间,Ttotal是总观察时间。分析计算得到的剪切应力和回流指数,监测剪切应力和回流指数随时间的变化,设定正常值范围,用于检测血流异常。
在一种实施方式中,所述建立基于张量表示的动态毛细血管评估网络,评估毛细血管壁结构和形态变化,包括:
获取眼底图像序列,获取图像覆盖范围,判断是否包含目标毛细血管区域,检测图像序列帧数,判断帧数是否大于预设帧数,捕捉血管的动态变化;对采集的眼底图像序列进行预处理,包括去噪、对比度增强;应用U-Net网络对预处理后的图像进行分割,提取毛细血管区域,生成四维分割结果张量,包括空间坐标(x,y,z)和时间维度(t);基于ResNet架构,构建三维卷积网络处理四维张量,通过多个时空卷积块提取毛细血管的形态和纹理变化特征;利用三维卷积网络分析毛细血管壁结构和形态变化,提取的特征包括血管直径变化、血流速度和血管壁的结构变化;基于提取的特征,建立一个动态毛细血管评估网络,动态毛细血管评估网络使用提取的张量表示对毛细血管的健康状况进行评估,输出毛细血管的健康评估报告,包括结构和形态的变化;使用标注好的训练数据集对动态毛细血管评估网络进行训练,通过交叉验证优化动态毛细血管评估网络的性能;在临床环境中测试解决方案的有效性,获取医生和患者的反馈,进一步调整和优化动态毛细血管评估网络。
在一种实施方式中,所述构建关联回归模型,分析分支角度变化与毛细血管特征变化的动态和相互影响关系,包括:
获取目标区域的眼底图像序列,包括分支区管腔和毛细血管,对图像进行预处理,包括去噪、对比度增强,提高图像质量和特征的可识别性;使用边缘检测提取分支区管腔和毛细血管的角度、形态特征,记录特征的时序状态,获取特征随时间的变化;使用随机森林处理和整合异构数据,获取特征之间的潜在关联;基于获取的数据和特征之间的潜在关联,使用线性回归来量化特征之间的相互影响,构建关联回归模型,用于分析分支角度变化与毛细血管特征变化之间的动态关系;获取眼底图像,并通过专业医护人员对图像分支角度变化与毛细血管特征变化进行标注,得到标注数据;使用已有的标注数据训练关联回归模型,通过交叉验证方法优化关联回归模型,提高关联回归模型的泛化能力;利用训练好的关联回归模型分析分支角度的变化对毛细血管特征的变化的影响,识别关联模式或趋势。
在一种实施方式中,所述综合分支区和毛细血管的指标,构建眼底微循环评估体系框架,生成眼底微循环的整体状态评估,并对病情严重程度进行分级,包括:
获取眼底图像并提取关键特征,包括血管直径、血流速度、血管弯曲度,对特征数据进行预处理,标准化数据。定义综合指标公式来结合分支区和毛细血管的数据,根据分支区和毛细血管的指标构建眼底微循环评估体系框架,将多源异构数据融合,生成综合评估指标。综合评估指标Iintegrated+α·Ibranch+β·Icapillary,其中Iintegrated是综合指标,Ibranch和Icapillary分别代表分支区和毛细血管的指标,α和β是调整权重。根据综合指标的结果,定义病情严重程度分级公式其中S表示病情严重程度,a和b是根据临床数据确定的系数。使用临床数据训练和验证公式和模型,调整权重系数和系数,提高预测的准确性和可靠性。根据模型的输出,生成评估报告,包括微循环的整体状态和病情严重程度;还包括:根据眼底特征数据的时间序列,分析病变的状态演变规律。
所述根据眼底特征数据的时间序列,分析病变的状态演变规律,具体包括:
获取病人眼底图像,根据眼底图像的时间顺序对眼底图像进行排序,对图像进行预处理,包括图像增强、去噪和标准化处理。从眼底图像中提取特征,包括血管形态、颜色变化、血管直径,将提取的特征构建成时间序列数据。使用量化特征,构建量化特征的变化趋势模型,量化趋势其中T(t)表示特征在时间点t的量化趋势,F(t)是时间点t的特征值,是特征值的变化率,α和β是调节参数。使用时间序列数据构建ARIMA模型,分析特征变化的规律,识别病变的演变模式和潜在的周期性。结合量化特征的变化趋势和ARIMA模型分析结果,获取病变状态的演变规律,识别关键时刻和阶段,包括病变加速、减缓或稳定的时期。使用历史诊断数据来训练和验证量化特征的变化趋势模型,调整量化特征的变化趋势模型参数,提高预测准确性和可靠性。生成病变状态演变的评估报告,包括关键时间点和病变趋势。
本发明实施例提供的技术方案可以包括以下有益效果:
本发明公开了一种预测高血压视网膜病变与相关因素关联分析的方法。该方法通过精确识别和分析眼底血管结构,尤其在处理复杂或遮挡区域的血管时表现出色,能够有效地捕捉到微小的血管变化。此外,该方法还包括获取毛细血管局部范围的高清动态图像,从而提供关于血流状态和血管变化的详细观察。通过评估动脉分支的角度和监测血管中的动力学变化,本发明能够为评估血管健康状况提供关键信息。最后,该方法通过综合分析眼底微循环的多个关键指标,建立了全面的评估体系,能够对病情严重程度进行准确分级。
附图说明
图1为本发明的一种预测高血压视网膜病变与相关因素关联分析方法的流程图。
图2为本发明的一种预测高血压视网膜病变与相关因素关联分析方法的示意图。
图3为本发明的一种预测高血压视网膜病变与相关因素关联分析方法的又一示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本实施例一种预测高血压视网膜病变与相关因素关联分析方法具体可以包括:
步骤S101,使用SAM获取视网膜血管图像的多网格遮挡mask,将生成的不同分辨率的mask作为提示输入SAM,得到改进的SAM。
配置SAM系统,使用SAM对视网膜血管图像进行切割,提取血管的形态特征,基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域。使用形态学运算,从视网膜血管图像中生成多网格遮挡mask,每个mask对应于血管网络的不同视觉细节和结构层次。所述形态学运算包括膨胀、侵蚀。将生成的视网膜血管多网格mask作为提示输入到SAM,视网膜血管多网格mask引导SAM专注于血管区域,生成改进的SAM,专注视网膜血管图像,识别视网膜血管的特征,并提供分析结果,将改进的SAM命名为MedSAM模型。使用已有的医学数据来验证MedSAM模型的准确性和可靠性,根据验证结果,调整SAM系统和mask生成策略,提高MedSAM模型的性能。
例如,配置SAM系统处理视网膜血管图像,使用SAM系统对一系列视网膜血管图像进行切割,提取血管的形态特征,包括血管的宽度、弯曲度。在一张2048x2048像素的眼底图像中,SAM成功识别并切割出主要血管网络。使用形态学运算从视网膜血管图像中生成多网格遮挡mask,创建了三个不同分辨率的mask,对应于大血管膨胀5像素、中等血管膨胀3像素和微血管膨胀1像素。将生成的多网格mask作为提示输入到SAM,SAM系统根据mask识别出视网膜血管的关键特征,特定区域的血管狭窄或异常扩张。使用已有的医学数据来验证MedSAM模型的准确性和可靠性,与医生手动分析的结果进行比较,发现MedSAM模型在识别血管狭窄方面的准确率达到了90%。根据验证结果,调整SAM系统的参数和mask生成策略,调整mask的尺寸以更好地捕捉微血管的细节。
步骤S102,通过MedSAM进行血管切割与构建多个血管网的mask,对mask进行单独学习,得到多网格遮挡mask。
应用MedSAM对视网膜血管图像进行切割,提取血管的形态特征,基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域。利用空间金字塔场景解析网络进行血管的三维重建,同时对遮挡区域进行分割。使用MedSAM的高级功能建立遮挡语义约束,提高遮挡区域的分析精度,针对每个mask,特别是遮挡区域,使用SAM提取遮挡语义特征,确保特征符合遮挡语义约束。对每个mask进行单独学习和优化,关注遮挡区域的处理和识别能力,提高mask在处理复杂血管网络和遮挡问题上的性能。利用MedSAM和语义变化驱动,跟踪和分析每个mask在三维血管网中的动态变化,获取mask运动序列,获取血管网遮挡的语义特征。将语义特征序列转换为多个血管网mask,确保每个mask都有对应的遮挡语义特征,且对应血管网络的不同视觉细节和结构层次。对mask进行质量检验,确认是否成功获取多网格遮挡mask。
例如,利用MedSAM在一幅视网膜图像中切割出血管区域,得到血管的二值化mask。基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域,根据血管的位置和形态特征,生成多个血管网的mask,得到了3个血管网的mask,分别用A、B、C表示。使用空间金字塔场景解析网络对血管网A进行三维重建,得到血管网A的三维模型,并对遮挡区域进行精确分割。对血管网A中的遮挡区域,使用MedSAM提取遮挡语义特征,并与遮挡语义约束进行匹配。对血管网A的mask进行学习和优化,重点关注遮挡区域的处理和识别能力。跟踪血管网A的mask在时间序列中的变化,并分析其遮挡的语义特征。根据血管网A的遮挡语义特征序列,生成多网格遮挡mask,包括多个分辨率的血管网A的遮挡mask,每个mask对应于血管网络的不同视觉细节和结构层次。对血管网A的遮挡mask进行质量检验,评估其准确性和可靠性。在血管网A的遮挡区域中,成功识别出了80%的遮挡语义特征,说明该遮挡mask的质量较高。
步骤S103,将生成的多网格遮挡mask作为提示输入MedSAM,识别并输出动脉第三分支区。
配置MedSAM,将生成的多网格遮挡mask作为提示输入到MedSAM系统,使用mask来引导系统关注血管区域,特别是动脉第三分支区。所述动脉第三分支区为动脉第三分支角所在区域。MedSAM系统分析输入的多网格遮挡mask,使用MedSAM的高级图像识别和分析功能识别出眼底图像中的动脉第三分支区并输出动脉第三分支区图像。将输出的动脉第三分支区图像,以专业医生的手动识别结果或医学数据作为基准进行比较,对MedSAM系统识别出的动脉第三分支区进行验证。根据验证结果,调整MedSAM的参数和处理流程。获取医生和患者的反馈,根据反馈优化MedSAM。
例如,配置MedSAM系统以处理多分辨率mask,将生成的mask作为提示输入到MedSAM系统,重点关注动脉第三分支区。MedSAM系统分析输入的mask,并识别出眼底图像中的动脉第三分支区,从一张2048x2048像素的眼底图像中成功识别出动脉第三分支区,该区域位于图像中心,大约占据了200x200像素的区域。将MedSAM系统输出的动脉第三分支区图像与专业医生的手动识别结果进行比较,医生手动识别的结果显示该区域为190x190像素,表明MedSAM系统的识别结果与专业识别相近。获取医生和患者的反馈,根据反馈进一步优化MedSAM系统的性能和用户体验。
步骤S104,使用几何形态学测量提取的动脉第三分支的分支角度。
获取动脉第三分支区图像,使用Canny算法识别血管边缘,结合形态学运算,包括膨胀、侵蚀增加血管边缘的连续性。对提取的动脉分支进行几何形态学分析,测量分支角度,使用Zhang-Suen算法将血管分支缩减为动脉分支的骨架表示,识别分支点和连接点,将分割结果转换为二值图像。从二值图像中骨架化的血管网络上,识别动脉第三分支的连接点,提取第三分支的两个方向向量,通过vectorangle函数,使用公式计算两个向量间的角度,其中u、v为两个分支的方向向量,得到分支的精确交角。将测量的角度数据保存到数据库或数据文件中,进行统计分析,计算角度的平均值、标准差。对比专业人员的手动测量结果,调整和优化Zhang-Suen算法参数,迭代调整预处理和分支识别,提高整体精度。
例如,获取患者眼底的动脉第三分支区图像,使用Canny算法识别血管边缘,并应用形态学运算膨胀和侵蚀来增加血管边缘的连续性。对图像中的动脉分支进行几何形态学分析,使用Zhang-Suen算法将血管分支缩减为其骨架表示,以识别分支点和连接点。将处理后的图像转换为二值图像,在二值图像中的骨架化血管网络上,识别动脉第三分支的连接点。识别到的两个方向向量分别为u=(1,2)和v=(2,3)。使用公式计算两个向量间的角度,计算得到的分支角度为约29°。将测量的角度数据保存到数据库中,对角度数据进行统计分析,平均值为30°,标准差为5°。与专业医护人员手动测量的结果进行对比,若发现测量结果有较大偏差,调整和优化Zhang-Suen算法的参数,迭代调整预处理和分支识别步骤,提高整体精度。
通过统计分析分支角度值的均值和标准差,判断动脉第三分支区血管是否存在形态改变。
在动脉第三分支区获取血管序列图像,对每张图像进行预处理,包括对比度增强、去噪,提高血管边缘的可识别性。对每组数据中的每张图像,检测分支管腔的交角,提取含角度值的向量。对每个角度向量计算均值μ和标准差σ,描述整体分布。均值计算公式为其中n为元素数量,x为角度值,依据3-sigma原则,确定正常角度变化范围。使用Kolmogorov-Smirnov检验分析每组角度向量与正态分布的拟合程度。当新时相数据出现时,检测新时相数据的角度向量,若新数据的均值和标准差与历史数据相比差异超出±3-sigma,则判定形态发生改变。
例如,正在研究一名患者的动脉第三分支区血管状态。经过患者授权同意后,获取连续10天的动脉第三分支区的血管图像,每天一张。对每张图像进行预处理,包括对比度增强和去噪处理,以提高血管边缘的可识别性。对每张图像检测分支管腔的交角,在第一天的图像中,检测到的角度值为46°,第二天为48°第三天为50°。对每个角度向量46°,48°,50°计算均值和标准差。角度向量的均值μ计算为/3=48°。计算得到的均值为48°,标准差σ为2°。依据3-sigma原则,确定正常角度变化范围。正常范围为μ±3×σ=48±3×2,即[42°,54°]。使用Kolmogorov-Smirnov检验分析角度向量与正态分布的拟合程度。测试结果显示,角度向量与正态分布拟合良好。当新时相的数据出现,第11天的角度为55°,检测该组数据的角度向量,与历史数据比较,发现新数据的均值超出了正常范围。因此,判定动脉第三分支区血管的形态发生了改变。
步骤S105,使用微小成像技术获取毛细血管局部范围的动态高清图像。
所述微小成像技术包括多种不同的成像方法和仪器,主要包括光学显微镜、电子显微镜。将多焦光学显微镜对接高速度微血管成像设备,根据成像视场和范围要求设置所需的光学参数,包括光源强度、曝光时间、扫描速度。导入眼底待检测区域图像,锁定感兴趣的毛细血管作为检测目标,获取检测目标位置坐标。根据坐标,控制成像设备进行局部范围锁定跟踪,获得毛细血管局部区域的动态图像序列。对序列图像,使用引导滤波器,提升细微纹理的清晰度。根据获取的图像数据,使用形态学重建算法进行三维重建,获得毛细血管信息。使用三维重建后的毛细血管信息,合成超分辨率毛细血管图像,得到的高清动态成像。
例如,将多焦光学显微镜对接高速度微血管成像设备,根据成像视场和范围要求设置所需的光学参数,设置光源强度为800流明,曝光时间为2毫秒,扫描速度为每秒100帧。导入患者眼底待检测区域的图像,使用图像处理软件锁定感兴趣的毛细血管区域,坐标为(200,300)的毛细血管。根据毛细血管的位置坐标,控制成像设备进行精准的局部范围跟踪。获取毛细血管局部区域的动态图像序列,持续时间为5分钟。对所获取的序列图像使用引导滤波器,使用锐化滤波器增强细微纹理的清晰度。每帧图像的分辨率为1024x1024像素。使用形态学重建算法对序列图像进行三维重建,重建的三维模型包含1,000,000个体素,每个体素代表1微米立方的体积。使用三维重建后的毛细血管信息,合成超分辨率毛细血管图像,获得的高清动态成像具有2048x2048像素的分辨率。
步骤S106,应用多贝西小波变换算法检测分支区的血流动力学变化,包括剪切应力、回流指数。
采集分支区血管的动态图像序列,对图像进行去噪、对比度调整预处理,确保血管特征的清晰度。对预处理后的图像序列应用多贝西小波,分离不同频率的信号成分,提取血流的时间和空间特征,从小波变换结果中提取血流速度信息。速度特征提取公式Vf(x,y,t)=∑W(x,y,t)·F(x,y,t),其中Vf是提取的速度特征,W是小波变换函数,F是图像序列中的原始像素值。血管中的剪切应力其中μ是血液的动态粘度,Vmax是最大血流速度,D是血管直径,Vmax由速度特征得出。计算回流指数的自定义公式其中Tback是血流逆向的时间,Ttotal是总观察时间。分析计算得到的剪切应力和回流指数,监测剪切应力和回流指数随时间的变化,设定正常值范围,用于检测血流异常。
例如,经过患者授权同意后,获取患者连续7天每天的眼底血管动态图像序列,每天20帧。对每帧图像进行去噪和对比度调整,使用高斯滤波去除噪声,并通过直方图均衡化增强对比度。对预处理后的图像序列应用使用多贝西小波进行变换,分离不同频率的信号成分。应用公式Vf(x,y,t)=∑W(x,y,t)·F(x,y,t),提取血流速度特征,在某一区域和时间点,提取到的速度特征为1.2mm/s。根据公式计算剪切应力,血液的动态粘度μ为3.5cp,血管直径D为0.2mm,提取的最大速度Vmax为1.2mm/s,剪切应力计算为τ=4×3.5×(1.2/0.2)=84dyne/cm2。使用公式计算回流指数。在观察期间,有2小时的逆流时间Tback和总观察时间24小时Ttotal。分析计算得到的剪切应力和回流指数。发现剪切应力的平均值为84dyne/cm2,回流指数的平均值为0.1。设置正常值范围,剪切应力正常范围为20-60dyne/cm2,回流指数正常范围为0.05-0.2来检测血流异常。剪切应力超出正常范围,提示血流异常。
步骤S107,建立基于张量表示的动态毛细血管评估网络,评估毛细血管壁结构和形态变化。
获取眼底图像序列,获取图像覆盖范围,判断是否包含目标毛细血管区域,检测图像序列帧数,判断帧数是否大于预设帧数,捕捉血管的动态变化。对采集的眼底图像序列进行预处理,包括去噪、对比度增强。应用U-Net网络对预处理后的图像进行分割,提取毛细血管区域,生成四维分割结果张量,包括空间坐标(x,y,z)和时间维度(t)。基于ResNet架构,构建三维卷积网络处理四维张量,通过多个时空卷积块提取毛细血管的形态和纹理变化特征。利用三维卷积网络分析毛细血管壁结构和形态变化,提取的特征包括血管直径变化、血流速度和血管壁的结构变化。基于提取的特征,建立一个动态毛细血管评估网络,动态毛细血管评估网络使用提取的张量表示对毛细血管的健康状况进行评估,输出毛细血管的健康评估报告,包括结构和形态的变化。使用标注好的训练数据集对动态毛细血管评估网络进行训练,通过交叉验证优化动态毛细血管评估网络的性能。在临床环境中测试解决方案的有效性,获取医生和患者的反馈,进一步调整和优化动态毛细血管评估网络。
例如,研究一名患者的眼底健康状况,经过患者授权同意后,获取了一系列的眼底图像。获取了连续30天每天一次的眼底图像,共30帧,大于预设帧数24帧,每张图像都包含目标毛细血管区域。对每张图像进行去噪和对比度增强处理,以提高血管的可视性,使用高斯滤波去除噪声,通过直方图均衡化提升对比度。使用U-Net对预处理后的图像进行分割,准确地提取毛细血管区域,每张图像生成的分割结果是一个四维张量,包括空间坐标和时间维度。基于ResNet架构构建三维卷积网络处理四维张量,三维卷积网络通过时空卷积块来提取毛细血管的形态和纹理变化特征。使用三维卷积网络深入分析毛细血管壁结构和形态变化,发现某个区域的血管直径从第1天的0.02mm减少到第30天的0.015mm,血流速度从1.5mm/s减慢到1.2mm/s。基于提取的特征,建立一个动态毛细血管评估网络,动态毛细血管评估网络分析了血管直径和血流速度的变化,并生成健康评估报告。使用标注的历史数据对动态毛细血管评估网络进行训练,采用交叉验证方法优化动态毛细血管评估网络性能,调整网络参数以提高评估的准确性。在临床环境中测试解决方案的有效性,获取医生和患者的反馈,根据反馈进一步调整动态毛细血管评估网络参数。
步骤S108,构建关联回归模型,分析分支角度变化与毛细血管特征变化的动态和相互影响关系。
获取目标区域的眼底图像序列,包括分支区管腔和毛细血管,对图像进行预处理,包括去噪、对比度增强,提高图像质量和特征的可识别性。使用边缘检测提取分支区管腔和毛细血管的角度、形态特征,记录特征的时序状态,获取特征随时间的变化。使用随机森林处理和整合异构数据,获取特征之间的潜在关联。基于获取的数据和特征之间的潜在关联,使用线性回归来量化特征之间的相互影响,构建关联回归模型,用于分析分支角度变化与毛细血管特征变化之间的动态关系。获取眼底图像,并通过专业医护人员对图像分支角度变化与毛细血管特征变化进行标注,得到标注数据。使用已有的标注数据训练关联回归模型,通过交叉验证方法优化关联回归模型,提高关联回归模型的泛化能力。利用训练好的关联回归模型分析分支角度的变化对毛细血管特征的变化的影响,识别关联模式或趋势。
例如,使用眼底图像序列来分析糖尿病视网膜病变的发展过程。选择了目标区域,在预处理阶段,先对图像进行去噪处理,以消除图像中的噪声干扰。对图像进行对比度增强处理,以提高图像的清晰度和特征的可识别性。使用边缘检测算法来提取分支区管腔和毛细血管的角度和形态特征,计算分支区管腔的平均角度和长度,以及毛细血管的密度和直径,通过记录特征的时序状态,获取这些特征随时间的变化趋势。为了处理和整合异构数据,采用随机森林算法来进行特征之间的关联分析,分析分支角度和毛细血管密度之间的相关性,并通过随机森林得到特征之间的潜在关联程度。使用线性回归来量化特征之间的相互影响,并构建一个关联回归模型来分析分支角度变化与毛细血管特征变化之间的动态关系,通过线性回归计算出每单位分支角度变化对于毛细血管密度变化的影响程度。获取眼底图像,并通过专业医护人员对图像分支角度变化与毛细血管特征变化进行标注,得到标注数据。为了优化关联回归模型并提高其泛化能力,使用已有的标注数据进行训练,并采用交叉验证方法进行关联回归模型评估和调优。通过交叉验证,可以选择最佳的关联回归模型参数,以及评估关联回归模型在未标注数据上的性能。利用训练好的关联回归模型,分析分支角度的变化对毛细血管特征的变化的影响,发现随着分支角度的增加,毛细血管密度逐渐减少的趋势。
步骤S109,综合分支区和毛细血管的指标,构建眼底微循环评估体系框架,生成眼底微循环的整体状态评估,并对病情严重程度进行分级。
获取眼底图像并提取关键特征,包括血管直径、血流速度、血管弯曲度,对特征数据进行预处理,标准化数据。定义综合指标公式来结合分支区和毛细血管的数据,根据分支区和毛细血管的指标构建眼底微循环评估体系框架,将多源异构数据融合,生成综合评估指标。综合评估指标Iintegrated=α·Ibranch+β·Icapillary,其中Iintegrated是综合指标,Ibranch和Icapillary分别代表分支区和毛细血管的指标,α和β是调整权重。根据综合指标的结果,定义病情严重程度分级公式其中S表示病情严重程度,a和b是根据临床数据确定的系数。使用临床数据训练和验证公式和模型,调整权重系数和系数,提高预测的准确性和可靠性。根据模型的输出,生成评估报告,包括微循环的整体状态和病情严重程度。
例如,研究一名患者的眼底微循环状况,并在得到患者授权同意后,获取其眼底图像。获取的眼底图像显示,患者的某个分支区血管直径为0.2mm,血流速度为3.0mm/s,血管弯曲度为45度。在相应的毛细血管区域,血管直径为0.05mm,血流速度为2.5mm/s,血管弯曲度为60度。对上述特征数据进行标准化处理,确保数据在同一量级和格式。综合评估指标公式为Iintegrated+α·Ibranch+β·Icapillary。设定权重α=0.6和β=0.4,根据实际情况,基于血管直径、血流速度和弯曲度设定分支区指Ibranch为0.7,毛细血管指标Icapillary为0.5。计算得到Iintegrated=0.6×0.7+0.4×0.5=0.62。病情严重程度分级公式为根据历史临床数据,设定a=2和b=1.5。计算得到病情严重程度分级为S=2×0.62^1.5≈0.98。使用临床数据集来训练和验证上述公式和模型,根据训练结果,调整α、β、a和b的值以优化模型。根据模型的输出,生成一份评估报告,报告指出患者的眼底微循环整体状态评分为0.62,病情严重程度为中等偏上,分级为1.55。
根据眼底特征数据的时间序列,分析病变的状态演变规律。
获取病人眼底图像,根据眼底图像的时间顺序对眼底图像进行排序,对图像进行预处理,包括图像增强、去噪和标准化处理。从眼底图像中提取特征,包括血管形态、颜色变化、血管直径,将提取的特征构建成时间序列数据。使用量化特征,构建量化特征的变化趋势模型,量化趋势其中T(t)表示特征在时间点t的量化趋势,F(t)是时间点t的特征值,是特征值的变化率,α和β是调节参数。使用时间序列数据构建ARIMA模型,分析特征变化的规律,识别病变的演变模式和潜在的周期性。结合量化特征的变化趋势和ARIMA模型分析结果,获取病变状态的演变规律,识别关键时刻和阶段,包括病变加速、减缓或稳定的时期。使用历史诊断数据来训练和验证量化特征的变化趋势模型,调整量化特征的变化趋势模型参数,提高预测准确性和可靠性。生成病变状态演变的评估报告,包括关键时间点和病变趋势。
例如,正在研究一名患者的眼底病变情况,经过患者授权同意后,获取了一年内每月一次的眼底图像共12张。获取12张眼底图像,每张图像对应一个月份,对每张图像进行预处理,图像增强使血管更清晰,去噪以消除拍摄不清的影响,标准化处理以确保图像间的一致性。在6月的图像中,发现血管直径为0.15mm,到了12月,血管直径变为0.12mm。记录其他特征,包括血管形态的变化和颜色的深浅变化。使用量化特征,构建量化特征的变化趋势模型,α=2和β=1,且F(t)在6月和12月分别为0.15mm和0.12mm。血管直径每月减少0.005mm,则/月。将提取的血管形态、颜色变化、血管直径特征整合成多维特征向量,对每个月的特征向量构建时间序列,形成一年的多维时间序列数据。基于整合的时间序列数据,构建ARIMA模型,在ARIMA模型中,每个特征的当前值被预测为基于其过去值的函数,使用ARIMA模型,基于过去三个月的数据来预测当前月的特征值。应用ARIMA模型分析血管直径的变化趋势,发现病变有渐进性缩小的趋势,未发现明显的周期性变化。结合量化特征的变化趋势和ARIMA模型分析结果,确定病变呈现逐渐加重的趋势,血管直径减小速度在10月开始加快。使用类似病例的历史诊断数据训练量化特征的变化趋势模型,调整α和β的值以更好地反映病变演变。生成的报告显示从6月到12月血管直径逐渐减小,且减小速度在10月有所加快,报告中包括图表显示血管直径随时间的变化和关键时间点的标注。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种预测高血压视网膜病变与相关因素关联分析方法,其特征在于,所述方法包括:
使用SAM获取视网膜血管图像的多网格遮挡mask,将生成的不同分辨率的mask作为提示输入SAM,得到改进的SAM;
通过MedSAM进行血管切割与构建多个血管网的mask,对mask进行单独学习,得到多网格遮挡mask;
将生成的多网格遮挡mask作为提示输入MedSAM,识别并输出动脉第三分支区;
使用几何形态学测量提取的所述动脉第三分支的分支角度;
使用微小成像技术获取毛细血管局部范围的动态高清图像;
应用多贝西小波变换算法检测分支区的血流动力学变化,包括剪切应力、回流指数;
建立基于张量表示的动态毛细血管评估网络,评估毛细血管壁结构和形态变化;
构建关联回归模型,分析分支角度变化与毛细血管特征变化的动态和相互影响关系;
综合分支区和毛细血管的指标,构建眼底微循环评估体系框架,生成眼底微循环的整体状态评估,并对病情严重程度进行分级。
2.根据权利要求1所述的方法,其中,所述使用SAM获取视网膜血管图像的多网格遮挡
mask,将生成的不同分辨率的mask作为提示输入SAM,得到改进的SAM,包括:
配置SAM系统,使用SAM对视网膜血管图像进行切割,提取血管的形态特征,基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域;使用形态学运算,从视网膜血管图像中生成多网格遮挡mask,每个mask对应于血管网络的不同视觉细节和结构层次;所述形态学运算包括膨胀和侵蚀;将生成的视网膜血管多网格mask作为提示输入到SAM,视网膜血管多网格mask引导SAM专注于血管区域,生成改进的SAM,专注视网膜血管图像,识别视网膜血管的特征,并提供分析结果,将改进的SAM命名为MedSAM模型;使用已有的医学数据来验证MedSAM模型的准确性和可靠性,根据验证结果,调整SAM系统和mask生成策略,提高MedSAM模型的性能。
3.根据权利要求1所述的方法,其中,所述通过MedSAM进行血管切割与构建多个血管网的mask,对mask进行单独学习,得到多网格遮挡mask,包括:
应用MedSAM对视网膜血管图像进行切割,提取血管的形态特征,基于切割结果,构建多个血管网的mask,重点处理和识别遮挡区域;利用空间金字塔场景解析网络进行血管的三维重建,同时对遮挡区域进行分割;使用MedSAM的高级功能建立遮挡语义约束,提高遮挡区域的分析精度,针对每个mask,特别是遮挡区域,使用SAM提取遮挡语义特征,确保特征符合遮挡语义约束;对每个mask进行单独学习和优化,关注遮挡区域的处理和识别能力,提高mask在处理复杂血管网络和遮挡问题上的性能;利用MedSAM和语义变化驱动,跟踪和分析每个mask在三维血管网中的动态变化,获取mask运动序列,获取血管网遮挡的语义特征;将语义特征序列转换为多个血管网mask,确保每个mask都有对应的遮挡语义特
征,且对应血管网络的不同视觉细节和结构层次;对mask进行质量检验,确认是否成功获取多网格遮挡mask。
4.根据权利要求1所述的方法,其中,所述将生成的多网格遮挡mask作为提示输入
MedSAM,识别并输出动脉第三分支区,包括:
配置MedSAM,将生成的多网格遮挡mask作为提示输入到MedSAM系统,使用mask来引导系统关注血管区域,特别是动脉第三分支区;所述动脉第三分支区为动脉第三分支角所在区域;MedSAM系统分析输入的多网格遮挡mask,使用MedSAM的高级图像识别和分析功能识别出眼底图像中的动脉第三分支区并输出动脉第三分支区图像;将输出的动脉第三分支区图像,以专业医生的手动识别结果或医学数据作为基准进行比较,对MedSAM系统识别出的动脉第三分支区进行验证;根据验证结果,调整MedSAM的参数和处理流程;获取医生和患者的反馈,根据反馈优化MedSAM。
5.根据权利要求1所述的方法,其中,所述使用几何形态学测量提取的所述动脉第三分支的分支角度,包括:
获取动脉第三分支区图像,使用Canny算法识别血管边缘,结合形态学运算,包括膨胀、侵蚀增加血管边缘的连续性;对提取的动脉分支进行几何形态学分析,测量分支角度,使用Zhang-Suen算法将血管分支缩减为动脉分支的骨架表示,识别分支点和连接点,将分割结果转换为二值图像;从二值图像中骨架化的血管网络上,识别动脉第三分支的连接点,提取第三分支的两个方向向量,通过vectorangle函数,使用公式计算两个向量间的角度,其中u、v为两个分支的方向向量,得到分支的精确交角;将测量的角度数据保存到数据库或数据文件中,进行统计分析,计算角度的平均值、标准差;对比专业人员的手动测量结果,调整和优化Zhang-Suen算法参数,迭代调整预处理和分支识别,提高整体精度;还包括:通过统计分析分支角度值的均值和标准差,判断动脉第三分支区血管是否存在形态改变;
所述通过统计分析分支角度值的均值和标准差,判断动脉第三分支区血管是否存在形态改变,具体包括:在动脉第三分支区获取血管序列图像,对每张图像进行预处理,包括对比度增强、去噪,提高血管边缘的可识别性;对每组数据中的每张图像,检测分支管腔的交角,提取含角度值的向量;对每个角度向量计算均值μ和标准差σ,描述整体分布;均值计算公式为其中n为元素数量,x为角度值,依据3-sigma原则,确定正常角度变化范围;使用Kolmogorov-Smirnov检验分析每组角度向量与正态分布的拟合程度;当新时相数据出现时,检测新时相数据的角度向量,若新数据的均值和标准差与历史数据相比差异超出±3-sigma,则判定形态发生改变。
6.根据权利要求1所述的方法,其中,所述使用微小成像技术获取毛细血管局部范围的动态高清图像,包括:
所述微小成像技术包括多种不同的成像方法和仪器,主要包括光学显微镜和电子显微镜;将多焦光学显微镜对接高速度微血管成像设备,根据成像视场和范围要求设置所需的光学参数,包括光源强度、曝光时间和扫描速度;导入眼底待检测区域图像,锁定感兴趣的毛细血管作为检测目标,获取检测目标位置坐标;根据坐标,控制成像设备进行局部范围锁定跟踪,获得毛细血管局部区域的动态图像序列;对序列图像,使用引导滤波器,提升细微纹理的清晰度;根据获取的图像数据,使用形态学重建算法进行三维重建,获得毛细血管信息;使用三维重建后的毛细血管信息,合成超分辨率毛细血管图像,得到的高清动态成像。
7.根据权利要求1所述的方法,其中,所述应用多贝西小波变换算法检测分支区的血流动力学变化,包括剪切应力、回流指数,包括:
采集分支区血管的动态图像序列,对图像进行去噪、对比度调整预处理,确保血管特征的清晰度;对预处理后的图像序列应用多贝西小波,分离不同频率的信号成分,提取血流的时间和空间特征,从小波变换结果中提取血流速度信息;速度特征提取公式Vf(x,y,t)=∑W(x,y,t)·F(x,y,t),其中Vf是提取的速度特征,W是小波变换函数,F是图像序列中的原始像素值;血管中的剪切应力其中μ是血液的动态粘度,Vmax是最大血流速度,D是血管直径,Vmax由速度特征得出;计算回流指数的自定义公式其中Tback是血流逆向的时间,Ttotal是总观察时间;分析计算得到的剪切应力和回流指数,监测剪切应力和回流指数随时间的变化,设定正常值范围,用于检测血流异常。
8.根据权利要求1所述的方法,其中,所述建立基于张量表示的动态毛细血管评估网络,评估毛细血管壁结构和形态变化,包括:
获取眼底图像序列,获取图像覆盖范围,判断是否包含目标毛细血管区域,检测图像序列帧数,判断帧数是否大于预设帧数,捕捉血管的动态变化;对采集的眼底图像序列进行预处理,包括去噪和对比度增强;应用U-Net网络对预处理后的图像进行分割,提取毛细血管区域,生成四维分割结果张量,包括空间坐标(x,y,z)和时间维度(t);基于ResNet架构,构建三维卷积网络处理四维张量,通过多个时空卷积块提取毛细血管的形态和纹理变化特征;利用三维卷积网络分析毛细血管壁结构和形态变化,提取的特征包括血管直径变化、血流速度和血管壁的结构变化;基于提取的特征,建立一个动态毛细血管评估网络,动态毛细血管评估网络使用提取的张量表示对毛细血管的健康状况进行评估,输出毛细血管的健康评估报告,包括结构和形态的变化;使用标注好的训练数据集对动态毛细血管评估网络进行训练,通过交叉验证优化动态毛细血管评估网络的性能;在临床环境中测试解决方案的有效性,获取医生和患者的反馈,进一步调整和优化动态毛细血管评估网络。
9.根据权利要求1所述的方法,其中,所述构建关联回归模型,分析分支角度变化与毛细血管特征变化的动态和相互影响关系,包括:
获取目标区域的眼底图像序列,包括分支区管腔和毛细血管,对图像进行预处理,包括去噪和对比度增强,提高图像质量和特征的可识别性;使用边缘检测提取分支区管腔和毛细血管的角度和形态特征,记录特征的时序状态,获取特征随时间的变化;使用随机森林处理和整合异构数据,获取特征之间的潜在关联;基于获取的数据和特征之间的潜在关联,使用线性回归来量化特征之间的相互影响,构建关联回归模型,用于分析分支角度变化与毛细血管特征变化之间的动态关系;获取眼底图像,并通过专业医护人员对图像分支角度变化与毛细血管特征变化进行标注,得到标注数据;使用已有的标注数据训练关联回归模型,通过交叉验证方法优化关联回归模型,提高关联回归模型的泛化能力;利用训练好的关联回归模型分析分支角度的变化对毛细血管特征的变化的影响,识别关联模式或趋势。
10.根据权利要求1所述的方法,其中,所述综合分支区和毛细血管的指标,构建眼底微循环评估体系框架,生成眼底微循环的整体状态评估,并对病情严重程度进行分级,包括:
获取眼底图像并提取关键特征,包括血管直径、血流速度、血管弯曲度,对特征数据进行预处理,标准化数据;定义综合指标公式来结合分支区和毛细血管的数据,根据分支区和毛细血管的指标构建眼底微循环评估体系框架,将多源异构数据融合,生成综合评估指标;综合评估指标Iintegrated=α·Ibranch+β·Icapillary,其中Iintegrated是综合指标,Ibranch和Icapillary分别代表分支区和毛细血管的指标,α和β是调整权重;根据综合指标的结果,定义病情严重程度分级公式其中S表示病情严重程度,a和b是根据临床数据确定的系数;使用临床数据训练和验证公式和模型,调整权重系数和系数,提高预测的准确性和可靠性;根据模型的输出,生成评估报告,包括微循环的整体状态和病情严重程度;还包括:根据眼底特征数据的时间序列,分析病变的状态演变规律;
所述根据眼底特征数据的时间序列,分析病变的状态演变规律,具体包括:获取病人眼底图像,根据眼底图像的时间顺序对眼底图像进行排序,对图像进行预处理,包括图像增强、去噪和标准化处理;从眼底图像中提取特征,包括血管形态、颜色变化、血管直径,将提取的特征构建成时间序列数据;使用量化特征,构建量化特征的变化趋势模型,量化趋势其中T(t)表示特征在时间点t的量化趋势,F(t)是时间点t的特征值,是特征值的变化率,α和β是调节参数;使用时间序列数据构建ARIMA模型,分析特征变化的规律,识别病变的演变模式和潜在的周期性;结合量化特征的变化趋势和ARIMA模型分析结果,获取病变状态的演变规律,识别关键时刻和阶段,包括病变加速、减缓或稳定的时期;使用历史诊断数据来训练和验证量化特征的变化趋势模型,调整量化特征的变化趋势模型参数,提高预测准确性和可靠性;生成病变状态演变的评估报告,包括关键时间点和病变趋势。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410003020.8A CN117809839B (zh) | 2024-01-02 | 2024-01-02 | 一种预测高血压视网膜病变与相关因素关联分析方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410003020.8A CN117809839B (zh) | 2024-01-02 | 2024-01-02 | 一种预测高血压视网膜病变与相关因素关联分析方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN117809839A true CN117809839A (zh) | 2024-04-02 |
| CN117809839B CN117809839B (zh) | 2024-05-14 |
Family
ID=90431872
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202410003020.8A Active CN117809839B (zh) | 2024-01-02 | 2024-01-02 | 一种预测高血压视网膜病变与相关因素关联分析方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN117809839B (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119296796A (zh) * | 2024-12-12 | 2025-01-10 | 山东大学 | 基于视网膜血氧饱和度的毛细血管分级方法及系统 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112233789A (zh) * | 2020-10-12 | 2021-01-15 | 辽宁工程技术大学 | 一种区域特征融合的高血压视网膜病变分类方法 |
| CN113689954A (zh) * | 2021-08-24 | 2021-11-23 | 平安科技(深圳)有限公司 | 高血压风险预测方法、装置、设备及介质 |
| CN117058676A (zh) * | 2023-10-12 | 2023-11-14 | 首都医科大学附属北京同仁医院 | 一种基于眼底检查影像的血管分割方法、装置和系统 |
-
2024
- 2024-01-02 CN CN202410003020.8A patent/CN117809839B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112233789A (zh) * | 2020-10-12 | 2021-01-15 | 辽宁工程技术大学 | 一种区域特征融合的高血压视网膜病变分类方法 |
| CN113689954A (zh) * | 2021-08-24 | 2021-11-23 | 平安科技(深圳)有限公司 | 高血压风险预测方法、装置、设备及介质 |
| CN117058676A (zh) * | 2023-10-12 | 2023-11-14 | 首都医科大学附属北京同仁医院 | 一种基于眼底检查影像的血管分割方法、装置和系统 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119296796A (zh) * | 2024-12-12 | 2025-01-10 | 山东大学 | 基于视网膜血氧饱和度的毛细血管分级方法及系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN117809839B (zh) | 2024-05-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114782398B (zh) | 用于医学图像分析的学习网络的训练方法和训练系统 | |
| US20250209629A1 (en) | Computerised tomography image processing | |
| Costa et al. | Towards adversarial retinal image synthesis | |
| Rajee et al. | Gender classification on digital dental x-ray images using deep convolutional neural network | |
| Du et al. | Convolutional networks for the segmentation of intravascular ultrasound images: evaluation on a multicenter dataset | |
| CN118918106B (zh) | 一种医疗影像病变检测系统 | |
| Szarski et al. | Improved real-time segmentation of intravascular ultrasound images using coordinate-aware fully convolutional networks | |
| CN102247144A (zh) | 基于时间强度特征的乳腺病灶良恶性诊断计算机辅助方法 | |
| CN119399207B (zh) | 一种心血管影像分析系统及方法 | |
| CN118212411A (zh) | 一种基于深度学习的肺栓塞分割方法 | |
| CN118447241B (zh) | 基于SFAG-DeepLabv3+的冠状动脉造影图像自动分割方法 | |
| CN117809839B (zh) | 一种预测高血压视网膜病变与相关因素关联分析方法 | |
| CN117916766A (zh) | 医学图像中的纤维化帽检测 | |
| CN118299006A (zh) | 一种基于qfr、ofr的多模态冠脉功能评估方法 | |
| Liu et al. | Two new stenosis detection methods of coronary angiograms | |
| Avram et al. | CathAI: fully automated interpretation of coronary angiograms using neural networks | |
| CN120471940A (zh) | 基于拉普拉斯金字塔与动态Transformer的医学图像分割方法 | |
| CN120976639A (zh) | 多模态医学影像融合技术的颞骨疾病分类方法及系统 | |
| Sivaranjani et al. | Metaverse-based deep learning framework for coronary artery stenosis classification using Monte Carlo Dropout-based ResNet-152 | |
| Ilyasova et al. | Systems for recognition and intelligent analysis of biomedical images | |
| CN117274272B (zh) | 一种基于深度学习的冠状动脉造影图分割的优化方法 | |
| Mohamed et al. | Advancing cardiac image processing: An innovative model utilizing canny edge detection for enhanced diagnostics | |
| Song et al. | Spatial-frequency fusion for retinal vessel segmentation | |
| CN117392458A (zh) | 血管狭窄分级方法、装置、设备及存储介质 | |
| Zhao et al. | Deep Learning-Based Segmentation and Localization in CT Angiography for Coronary Heart Disease Diagnosis |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |