ES2950033T3 - Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad - Google Patents
Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad Download PDFInfo
- Publication number
- ES2950033T3 ES2950033T3 ES19783840T ES19783840T ES2950033T3 ES 2950033 T3 ES2950033 T3 ES 2950033T3 ES 19783840 T ES19783840 T ES 19783840T ES 19783840 T ES19783840 T ES 19783840T ES 2950033 T3 ES2950033 T3 ES 2950033T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- images
- synthesized
- density
- portions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/025—Tomosynthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/502—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
- A61B6/5241—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
-
- G06T12/30—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3904—Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
- A61B2090/3908—Soft tissue, e.g. breast tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/43—Detecting, measuring or recording for evaluating the reproductive systems
- A61B5/4306—Detecting, measuring or recording for evaluating the reproductive systems for evaluating the female reproductive systems, e.g. gynaecological evaluations
- A61B5/4312—Breast evaluation or disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0825—Clinical applications for diagnosis of the breast, e.g. mammography
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- High Energy & Nuclear Physics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
Abstract
Un método y sistema de imágenes de mama para procesar datos de imágenes de tejido mamario incluye alimentar datos de imágenes de imágenes de mama a un procesador de imágenes, identificar porciones de imágenes que representan tejido mamario y elementos de alta densidad y ejecutar diferentes métodos de procesamiento en imágenes de entrada. Un primer método de procesamiento de imágenes implica la mejora del tejido mamario y la supresión de elementos de alta densidad, mientras que el segundo método de procesamiento de imágenes implica la mejora de elementos de alta densidad. Se pueden generar respectivos conjuntos tridimensionales de cortes de imágenes mediante respectivos métodos de procesamiento de imágenes, y las respectivas imágenes sintetizadas bidimensionales se generan y combinan para formar una imagen sintetizada compuesta bidimensional que se presenta a través de una pantalla del sistema de imágenes de mama. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad
CAMPO
Las invenciones descritas actualmente se refieren en general a técnicas de formación de imágenes mamarias tales como tomosíntesis y, más específicamente, a sistemas y métodos para procesar imágenes mamarias que incluyen elementos molestos de alta densidad.
ANTECEDENTES
La mamografía se ha utilizado durante mucho tiempo para detectar el cáncer de mama y otras anomalías. Tradicionalmente, las mamografías se han formado en una película de rayos X. Más recientemente, se han introducido reproductores de imágenes digitales de panel plano que adquieren una mamografía en forma digital y, por lo tanto, facilitan el análisis y el almacenamiento de los datos de imagen adquiridos y también proporcionan otros beneficios. Además, se ha dedicado una atención y un desarrollo tecnológico considerables a la obtención de imágenes tridimensionales (3D) de la mama utilizando métodos tales como la tomosíntesis de mama. A diferencia de las imágenes bidimensionales (2D) generadas por los sistemas de mamografía heredados, los sistemas de tomosíntesis mamaria construyen o generan un volumen de imagen en 3D a partir de una serie de imágenes de proyección en 2D, cada imagen de proyección obtenida a un desplazamiento angular diferente de una fuente de rayos X relativa al detector de imágenes a medida que la fuente de rayos X se escanea sobre el detector. El volumen o pila de imágenes en 3D construido se presenta típicamente como una pluralidad de cortes de datos de imagen, reconstruyéndose matemáticamente los cortes en planos típicamente paralelos al detector de formación de imágenes. Los cortes de tomosíntesis reconstruidos reducen o eliminan los problemas causados por la superposición de tejidos y el ruido estructural presente en las imágenes de mamografía en 2D, al permitir que un usuario, como un radiólogo u otro profesional médico, se desplace por los cortes de imágenes para ver solo las estructuras en ese corte.
Recientemente se han desarrollado sistemas de formación de imágenes como los sistemas de tomosíntesis para la detección y el diagnóstico del cáncer de mama. En particular, Hologic, Inc. ha desarrollado un sistema de mamografía/tomosíntesis multimodo fusionado que adquiere uno o ambos tipos de imágenes de mamografía y tomosíntesis, ya sea mientras la mama permanece inmovilizada o en diferentes compresiones de la mama. Otras empresas han introducido sistemas que incluyen imágenes de tomosíntesis; por ejemplo, que no incluyen la capacidad de adquirir también una mamografía en la misma compresión.
Ejemplos de sistemas y métodos que aprovechan la experiencia médica existente para facilitar, opcionalmente, la transición a la tecnología de tomosíntesis se describen en la patente US 7.760.924. En particular, la patente US 7.760.924 describe un método para generar una imagen en 2D sintetizada, que puede mostrarse opcionalmente junto con proyección de tomosíntesis o imágenes reconstruidas, para ayudar en la detección y el diagnóstico.
El documento US2018211421A1 divulga un dispositivo y un método de formación de imágenes mamarias en el que las visualizaciones de las regiones altamente absorbentes pueden eliminarse de los datos de la imagen por medio de una o más operaciones morfológicas.
La imagen sintetizada en 2D está diseñada para simular una mamografía en 2D tradicional sin perder información relevante de los cortes de tomosíntesis que pueden no ser fácilmente visibles en una mamografía en 2D tradicional. La imagen sintetizada en 2D incluye cualquier información clínicamente importante y significativa, como lesiones anormales y estructuras mamarias normales, mientras representa una parte relevante de una imagen en 2D tradicional. Hay muchos tipos diferentes de lesiones y estructuras mamarias que pueden definirse como diferentes tipos de objetos de imagen que tienen diferentes características. Para cualquier objeto de imagen visible en los datos de volumen en 3D, es importante mantener y mejorar las características de la imagen (por ejemplo, microcalcificaciones, distorsiones arquitectónicas, etc.) tanto como sea posible en la imagen sintetizada en 2D. Para lograr la mejora del objeto de imagen objetivo, es importante identificar y representar con precisión el objeto de imagen presente en los datos de tomosíntesis en 3D.
También es importante generar volúmenes en 3D de cortes de imágenes de reconstrucción e imágenes sintetizadas en 2D que representen los cortes de imágenes de reconstrucción en 3D que muestren claramente las estructuras de interés dentro del tejido mamario mientras se reducen o eliminan objetos de imagen no deseados y objetos que pueden bloquear u oscurecer objetos de interés y clínicamente información importante. Por ejemplo, los marcadores de biopsia metálicos a menudo se insertan en la mama de una paciente para que un radiólogo pueda identificar fácilmente la ubicación de la biopsia anterior durante la revisión posterior o durante los exámenes de seguimiento. Ciertos marcadores de biopsia conocidos están hechos de materiales metálicos biocompatibles, tal como acero inoxidable, titanio o níquel titanio, y pueden tener varias formas, incluyendo una estructura similar a una red o malla expandible, cuerpos cilíndricos y alambres retorcidos, según la aplicación y los atributos de la biopsia, tal como tamaño, orientación y ubicación. Ejemplos de marcadores de biopsia incluyen marcadores de sitio de biopsia TUMARK, SECURMARK, TRIMARK y CELEROMARK disponibles por parte de Hologic, Inc., Marlborough, MA.
Sin embargo, en el proceso de generar cortes de reconstrucción en 3D y la generación posterior de una imagen sintetizada en 2D, los objetos de alta densidad, tal como los marcadores de biopsia metálicos o los clips, pueden oscurecer el tejido mamario de interés, y las sombras generadas al obtener imágenes de estos marcadores de biopsia metálicos también pueden extenderse o penetrar en el tejido mamario para oscurecer las porciones de imagen del tejido mamario en varias direcciones como resultado de la formación de imágenes alrededor de la mama. Los marcadores o clips de biopsia de imágenes y los marcadores de piel externos de diferentes formas y tamaños pueden introducir diferentes formas, tamaños y números de sombras u objetos de imágenes en diferentes partes de una pila de imágenes en 3D y la imagen sintetizada en 2D resultante. Estos objetos de sombra pueden ser difíciles de evitar y es posible que no sea posible ver un área de interés particular del tejido mamario. Estas áreas molestas reducen la calidad de las imágenes sintetizadas en 2D y pueden reducir la precisión de las evaluaciones en base a las mismas, ya que las estructuras de interés pueden quedar bloqueadas u oscurecidas por objetos de alta densidad y/o sombras resultantes (y posiblemente reflejos de objetos metálicos según el tipo de material marcador de biopsia y sistema de imagen utilizado).
SUMARIO
Realizaciones de las invenciones divulgadas proporcionan métodos y sistemas de visualización y generación de imágenes computarizados para eliminar o reducir objetos de formación de imágenes tales como sombras generadas por formación de imágenes de objetos radiopacos o de alta densidad en o sobre tejido mamario. Un objeto de alta densidad, tal como una sombra, se suprime en una imagen sintetizada para proporcionar una imagen más clara y precisa del tejido mamario, a la vez que proporciona una generación de imágenes y una revisión radiológica más precisas y eficientes.
Realizaciones de las invenciones divulgadas también proporcionan procesamiento de imágenes de flujo múltiple o diferencial en imágenes mamarias de entrada para que las imágenes de entrada se procesen de diferentes maneras para generar diferentes imágenes resultantes que se combinan o fusionan para generar una imagen compuesta sintetizada. La imagen compuesta sintetizada resultante tiene objetos de sombra reducidos o nulos resultantes de la formación de imágenes de objetos radiopacos o de alta densidad en o sobre tejido mamario, mientras que otros elementos o aspectos de las imágenes se mantienen o mejoran.
Las realizaciones también proporcionan la generación de imágenes sintetizadas en base a entradas de imágenes de diferentes formatos dimensionales. Por ejemplo, en una realización, un conjunto de imágenes en 3D que muestran colectivamente tejido mamario en base a datos de imágenes generados por un sistema de formación de imágenes mamarias y que muestran un objeto de alta densidad en o sobre tejido mamario se procesa de diferentes maneras para generar diferentes conjuntos de imágenes intermedias. Un objeto de alta densidad se suprime en un primer conjunto de imágenes intermedias y se mejora en un segundo conjunto de imágenes intermedias. Una imagen sintetizada compuesta bidimensional (2D) que está libre del objeto de alta densidad en base al menos en parte al primer conjunto de imágenes intermedias y el segundo conjunto de imágenes intermedias y presentada a través de una pantalla del sistema de formación de imágenes mamarias. En otra realización, un conjunto de imágenes de proyección en 2D en lugar de un conjunto de imágenes en 3D construido en base al conjunto de imágenes de proyección en 2D es la entrada al procesador de imágenes y se procesa de diferentes maneras para la supresión de elementos de alta densidad y la mejora de la mama en un solo flujo procesamiento de imágenes y para la mejora de elementos de alta densidad en otro flujo de procesamiento de imágenes. Una imagen sintetizada compuesta bidimensional (2D) que está libre del objeto de alta densidad en base al menos en parte al primer conjunto de imágenes intermedias y el segundo conjunto de imágenes intermedias y presentada a través de una pantalla del sistema de imágenes de mama.
Otra realización para el procesamiento de datos de imágenes de tejido mamario comprende generar un primer conjunto de imágenes que muestran colectivamente tejido mamario en base a datos de imagen generados por un sistema de formación de imágenes mamarias, el primer conjunto de imágenes muestra un objeto de alta densidad y procesa el primer conjunto de imágenes de diferentes maneras para generar un segundo conjunto de imágenes en el que se suprime el objeto de alta densidad y se mejora el tejido mamario y para generar un tercer conjunto de imágenes en el que se mejora el objeto de alta densidad. El segundo conjunto de imágenes se procesa para generar un cuarto conjunto de imágenes en el que se suprime el objeto de alta densidad, y el tercer conjunto de imágenes se procesa para generar un quinto conjunto de imágenes en el que se mejora el objeto de alta densidad. Se genera una imagen sintetizada compuesta y libre del objeto de alta densidad en base al menos en parte al cuarto conjunto de imágenes y el quinto conjunto de imágenes y se presenta a través de una pantalla del sistema de formación de imágenes de la mama.
En una realización de las invenciones divulgadas, un conjunto en 3D o una pila de cortes de imágenes (por ejemplo, generados mediante la reconstrucción de imágenes de proyección en 2D adquiridas por un dispositivo de imágenes de rayos X de un sistema de formación de imágenes mamarias) muestra colectivamente el tejido mamario y se alimenta como entrada a un procesador de imágenes de flujo múltiple del sistema de formación de imágenes mamarias. El conjunto de cortes de imagen en 3D de entrada se procesa de diferentes maneras para generar un primer conjunto de cortes de imagen en 3D en el que se suprimen los objetos de alta densidad y se mejora el tejido
mamario y un segundo conjunto de cortes de imagen en 3D en el que se realzan los objetos de alta densidad. Se genera una primera imagen sintetizada en 2D o una primera imagen intermedia en base al menos en parte a o incorporando porciones de imagen de tejido mejorado del primer conjunto en 3D, y se genera una segunda imagen sintetizada en 2D o una segunda imagen intermedia en base al menos en parte a o incorporando porciones de imagen de objetos de alta densidad del segundo conjunto en 3D. La primera y segunda imágenes sintetizadas en 2D se combinan o fusionan para generar una imagen sintetizada compuesta en 2D que se presenta a un radiólogo a través de una pantalla del sistema de generación y visualización de imágenes.
De acuerdo con otra realización, el procesamiento de imágenes de flujo múltiple o diferencial que implica la supresión de elementos de alta densidad se aplica a imágenes de proyección o adquiridas en 2D en lugar de a una pila de cortes de imágenes en 3D. En otras palabras, la entrada a un procesador de imágenes puede ser datos de imágenes de diferentes formatos dimensionales y el procesamiento de imágenes de múltiples flujos puede ejecutarse antes o después de la reconstrucción de la imagen. Por lo tanto, el procesamiento de imágenes de flujo múltiple o diferencial que involucra la supresión de elementos de alta densidad puede ejecutarse antes de la reconstrucción de la imagen y antes de que se haya generado una pila en 3D de cortes de imagen o después de la reconstrucción de la imagen y después de que se haya generado una pila en 3D de cortes de imagen, y un procesador de imágenes puede recibir diferentes tipos y/o combinaciones de imágenes, que pueden o no implicar reconstrucción e imágenes Tr.
En una realización, un método de procesamiento de imágenes mamarias implica adquirir una pluralidad de imágenes en 2D que muestran tejido mamario mediante un componente de adquisición de imágenes, por ejemplo, utilizando una fuente de radiación y un detector colocados en diferentes ángulos mientras la mama está entre la fuente y el detector. Las imágenes en 2D adquiridas se alimentan como entrada al procesador de imágenes de flujo múltiple de un sistema de formación de imágenes mamarias. El procesador de imágenes ejecuta un primer método o flujo de procesamiento de imágenes para generar un primer conjunto procesado de imágenes en 2D en el que se mejoran partes del primer conjunto procesado de imágenes en 2D que muestran tejido mamario y otras partes del primer conjunto procesado de imágenes en 2D que muestran un alto elemento de densidad se suprimen. El procesador de imágenes también ejecuta un segundo método de procesamiento de imágenes diferente del primer método de procesamiento de imágenes para generar un segundo conjunto procesado de imágenes en 2D en las que se mejoran partes del segundo conjunto que muestran elementos de alta densidad sin mejorar el tejido mamario. Para este fin, los módulos de mejora de objetos que se utilizan en el primer método o flujo de procesamiento de imágenes no se ejecutan ni desactivan en el segundo método o flujo de procesamiento de imágenes. Después del procesamiento de imágenes de flujo múltiple en imágenes en 2D para generar nuevos conjuntos de imágenes en 2D intermedias, las imágenes sintetizadas pueden generarse y fusionarse o combinarse para generar una imagen sintetizada compuesta en 2D, que se presenta a través de una pantalla del sistema de visualización y generación de imágenes. Las imágenes sintetizadas en 2D pueden generarse a partir de los nuevos conjuntos de imágenes en 2D o de pilas en 3D generadas de cortes de imagen generados por reconstrucción. En estas realizaciones, un primer conjunto en 3D intermedio de cortes de imagen que muestran colectivamente tejido mamario en base al menos en parte al primer conjunto procesado de imágenes en 2D y un segundo conjunto en 3D intermedio de cortes de imagen que muestran colectivamente tejido mamario en base al menos en parte al segundo se construye un conjunto procesado de imágenes en 2D. Estos conjuntos 3D se utilizan para generar los respectivos primeros y segundos sintetizados en 2D en base al menos en parte a los respectivos primeros y segundos conjuntos de cortes de imagen en 3D. Por lo tanto, aunque ciertas realizaciones se describen con referencia a conjuntos en 3D o pilas de cortes de imagen utilizados para generar imágenes sintetizadas en 2D, las realizaciones no están tan limitadas, y un sintetizador de imágenes puede usar diferentes tipos y combinaciones de imágenes, incluidas diferentes combinaciones de Tr (imágenes de reconstrucción de tomosíntesis), Tp (imágenes de proyección de tomosíntesis) y Mp (imágenes de proyección de mamografía). Además, las imágenes Mp se pueden fusionar en una imagen sintetizada en 2D, ya que las imágenes Mp proporcionan una mejor representación de ciertos elementos de la imagen, tal como las calcificaciones. Por consiguiente, un procesador de imágenes que incluye sintetizadores de supresión de metal y de mejora de metal puede usar una o más combinaciones diferentes de imágenes de reconstrucción de tomosíntesis Tr, imágenes de proyección de tomosíntesis Tp e imágenes de proyección de mamografía Mp.
Por lo tanto, las realizaciones pueden implicar diferentes formatos de imagen dimensional, conversiones de un formato dimensional a otro, diferentes tipos y cantidades de conjuntos de imágenes intermedias generadas antes de la generación de una imagen compuesta sintetizada en 2D y el procesamiento de imágenes ejecutado en imágenes de diferentes formatos dimensionales y secuencias de procesamiento de imágenes particulares que implican diferentes formatos dimensionales. Las realizaciones pueden implicar que el procesador de imágenes de flujo múltiple se ejecute en conjuntos en 3D construidos de cortes de imagen de manera que el procesamiento de imágenes de flujo múltiple no se puede ejecutar en imágenes de proyección o adquiridas en 2D. Las realizaciones pueden implicar que el procesador de imágenes de flujo múltiple se ejecute en imágenes en 2D adquiridas o de proyección, de modo que el procesamiento de imágenes flujo múltiple no se pueda ejecutar en pilas en 3D reconstruidas de cortes de imágenes. Además, la generación de imágenes sintetizadas en 2D puede basarse en una pila intermedia o en 3D de cortes de imagen construidos a partir de imágenes de proyección en 2D, o generadas a partir de una imagen en 2D sin generar una pila en 3D. Además, la supresión selectiva en el primer flujo de procesamiento de imágenes se puede aplicar a un elemento de alta densidad en forma de un objeto radiopaco o de alta densidad en sí mismo y/o un elemento de alta densidad en forma de un objeto de imagen o sombra generada por la imagen de un objeto de alta densidad. objeto de densidad
Otras realizaciones más pueden implicar procesamiento de imágenes diferenciales o de flujo múltiple, incluida la supresión de elementos de alta densidad ejecutada en imágenes en 2D adquiridas o de proyección, y luego procesamiento diferencial o de flujo múltiple, incluida la supresión de elementos de alta densidad, ejecutada en conjuntos en 3D construidos de cortes de imágenes. Por lo tanto, la supresión y la mejora de elementos de alta densidad se pueden realizar tanto antes como después de la reconstrucción para generar una pila en 3D de cortes de imagen para proporcionar una imagen sintetizada compuesta en 2D mejorada.
Una realización de un método implementado por ordenador para procesar imágenes de tejido mamario incluye alimentar datos de imagen de una pluralidad de imágenes de la mama de una paciente como entrada a un procesador de imágenes de flujo múltiple de un sistema de visualización y generación de imágenes. El procesador de imágenes identifica porciones de imagen de tejido mamario que muestran tejido mamario y porciones de imagen que muestran elementos de alta densidad generados al obtener imágenes de un objeto de alta densidad en o sobre la mama de la paciente (por ejemplo, usando radiación generada por una fuente de radiación que impacta en un detector de radiación dispuesto en lados opuestos del tejido de una paciente). El método comprende además que el procesador de imágenes ejecuta diferentes métodos de procesamiento de imágenes que pueden ejecutarse en paralelo y en la misma entrada de datos de imagen. Un primer método de procesamiento de imágenes mejora las porciones de imagen que muestran el tejido mamario mientras suprime las porciones de imagen que muestran un elemento de alta densidad. Por ejemplo, un elemento de alta densidad, tal como un objeto de metal radiopaco o la sombra generada por el mismo, puede identificarse dentro de una imagen como un elemento de alta densidad utilizando un filtro predeterminado o criterios en base a uno o más de contraste y brillo medidos u otro criterio o filtro de imagen, que también puede ser indicativo de la radiopacidad del elemento de alta densidad. Las porciones de elementos de alta densidad pueden detectarse, segmentarse y suprimirse rellenando o reemplazando con otros datos de fondo de imagen, por ejemplo, mediante interoperación o muestreo y duplicación de fondo. De esta manera, los elementos de alta densidad o radiopacos se eliminan o modifican esencialmente y no son perceptibles visualmente en las imágenes procesadas. Una primera pila en 3D de cortes de imágenes incluye porciones de imagen mejoradas que muestran tejido mamario y porciones de imagen suprimidas que muestran elementos de alta densidad. Por ejemplo, un primer conjunto en 3D de cortes de imagen puede tener la forma de un conjunto reconstruido de cortes de imagen en el que cada imagen representa un corte de la mama tal como aparecería en una imagen de ese corte en cualquier ángulo deseado. El primer método de procesamiento de imágenes comprende además generar una primera imagen en 2D sintetizada o “artificial” en base al menos en parte al primer conjunto en 3D de cortes de imágenes. El segundo método de procesamiento de imágenes es diferente del primer método de procesamiento de imágenes e implica realzar, en lugar de suprimir, porciones de imagen que muestran elementos de alta densidad, y esto se puede realizar sin realzar o enfatizar tejido mamario o lesiones u objetos de interés del mismo. Los elementos radiopacos o de alta densidad identificados pueden mejorarse usando uno o más algoritmos de filtrado/procesamiento de imágenes que están diseñados para resaltar objetos con un contraste nítido, ejemplos de los cuales incluyen algoritmos para mejora de bordes, mejora de contraste y proyección de intensidad (por ejemplo, proyección de intensidad máxima/media). Se genera un segundo conjunto en 3D de cortes de imagen que incorporan porciones de imagen mejoradas que muestran elementos de alta densidad, y se genera una segunda imagen sintetizada en 2D en base al menos en parte al segundo conjunto en 3D de cortes de imagen. El procesador de imágenes combina o fusiona las imágenes en 2d sintetizadas primera y segunda generadas por los flujos de procesamiento de imágenes primero y segundo respectivos para generar una imagen en 2D compuesta, que se muestra a un usuario del sistema.
En realizaciones únicas o múltiples, se activa un componente de adquisición, tal como un componente de adquisición de imágenes de rayos X del sistema de generación y visualización de imágenes, para adquirir la pluralidad de imágenes de la mama de la paciente. Las imágenes adquiridas, tal como las imágenes de proyección en 2D, se pueden adquirir usando una fuente de radiación y un detector que se colocan en diferentes ángulos mientras la mama está entre la fuente y el detector.
En realizaciones únicas o múltiples, los datos de imagen que se alimentan al procesador de imágenes y en los que se ejecutan el primer y segundo flujos de procesamiento de imágenes son datos de imagen de imágenes de proyección en 2D. Por lo tanto, en estas realizaciones, la supresión de elementos radiopacos o de alta densidad del primer flujo de procesamiento de imágenes se ejecuta antes de la reconstrucción de la imagen y, por lo tanto, antes de la generación de una pila en 3D de cortes de imagen, y la supresión de elementos radiopacos o de alta densidad no se ejecuta en la pila en 3D de cortes de imagen.
En realizaciones únicas o múltiples, los datos de imagen alimentados al procesador de imágenes y en los que se ejecutan los flujos de procesamiento primero y segundo primero y segundo son un conjunto o pila en 3D de cortes de imagen. Por lo tanto, en estas realizaciones, la supresión de elementos de alta densidad del primer flujo de procesamiento de imágenes se ejecuta después de la reconstrucción de la imagen y, por lo tanto, después de la generación de una pila en 3D de cortes de imagen. La supresión de elementos de alta densidad no se ejecuta en imágenes de proyección en 2D.
En realizaciones únicas o múltiples, la supresión de metal del primer flujo de procesamiento de imágenes y la mejora de metal del segundo flujo de procesamiento de imágenes se ejecutan directamente en las mismas imágenes de entrada, tal como imágenes de proyección en 2D. En otras realizaciones, la supresión de metal del primer método de
procesamiento de imágenes y la mejora de metal del segundo método de procesamiento de imágenes se ejecutan en conjuntos intermedios de cortes de imágenes reconstruidas en 3D, pero no en imágenes de proyección en 2D.
En realizaciones únicas o múltiples, las porciones de imagen de elementos de alta densidad que se suprimen incluyen un objeto metálico o radiopaco en sí mismo y/o la sombra generada por ello. El elemento de alta densidad puede extenderse a través de múltiples cortes del conjunto de entrada de cortes de imagen en 3D. El objeto metálico puede ser un objeto extraño que se inserta en el tejido mamario, tal como un marcador de biopsia metálico o un clip. El elemento de alta densidad también puede ser una sombra generada por la formación de imágenes del marcador de biopsia metálico u otro objeto extraño. Las realizaciones de las invenciones también se pueden usar cuando se procesan imágenes que incluyen un objeto radiopaco o de alta densidad en forma de un método de procesamiento de imágenes de calcificación. Por lo tanto, los elementos de alta densidad o radiopacos pueden ser objetos extraños o elementos que se originan dentro del tejido mamario. Además, aunque se hace referencia a objetos de tan alta densidad que pueden ser radiopacos, se entenderá que dichos objetos pueden ser radiopacos o solo hasta cierto punto para no ser completamente radiopacos, pero aún oscureciendo el tejido mamario y generando objetos de sombra al obtener imágenes, un objeto metálico puede no ser radiopaco. En consecuencia, un “elemento de alta densidad” se interpreta y define para incluir objetos metálicos tales como un marcador de biopsia o un marcador de piel, materiales u objetos radiopacos y sombras u objetos de sombra generados por imágenes de los mismos, y las realizaciones pueden ejecutarse para suprimir algunos o todos los elementos de alta densidad en una imagen, por ejemplo, suprimir sombras, pero no un marcador de biopsia.
Con realizaciones, el primer método de procesamiento de imágenes suprime las porciones de imagen identificadas que muestran el elemento de alta densidad de manera que el elemento de alta densidad no es visible en el primer conjunto en 3D de cortes de imagen o en la imagen sintetizada en 2D finalmente generada. En realizaciones únicas o múltiples, la primera imagen sintetizada en 2D está libre de elementos de alta densidad y/o elementos de sombra generados por la formación de imágenes de un elemento de alta densidad.
En realizaciones únicas o múltiples, el método de procesamiento de imágenes puede implicar una máscara de segmentación que se usa para generar la segunda imagen sintetizada en 2D en la que se mejora el elemento de alta densidad, y puede implicar una operación morfológica que se ejecuta en la segunda imagen sintetizada en 2D para dilatar o erosionar los bordes de la imagen de las porciones de imagen mejoradas que muestran elementos de alta densidad para aumentar la nitidez de las mismas. Por ejemplo, el segundo método de procesamiento de imágenes puede implicar la segmentación de porciones de imagen identificadas como elementos de alta densidad para determinar los datos o valores de píxeles respectivos de las porciones de imagen segmentadas, y generar una máscara de elementos de alta densidad en base a los valores o datos de píxeles respectivos. La máscara puede ser una máscara de nivel de píxel binario: “1” para píxeles de elementos de alta densidad y “0” para otros píxeles. La máscara puede ser utilizada posteriormente por el procesador de imágenes para determinar qué porciones de la segunda imagen sintetizada en 2D incluir en la imagen sintetizada en 2D al fusionar o combinar la primera imagen sintetizada bidimensional y la segunda imagen sintetizada bidimensional, por ejemplo, mediante combinación modulada de la primera imagen sintetizada en 2D y la segunda imagen sintetizada en 2D utilizando la máscara de elementos de alta densidad.
En realizaciones únicas o múltiples, la supresión de elementos de alta densidad del primer método de procesamiento de imágenes se ejecuta mediante interpolación sobre las porciones de imagen que muestran el elemento de alta densidad, reemplazando los píxeles del elemento de alta densidad con tejido mamario muestreado o píxeles de fondo que no están mejorados.
BREVE DESCRIPCIÓN DE LAS FIGURAS
Los dibujos ilustran el diseño y la utilidad de las realizaciones de las invenciones descritas, en las que se hace referencia a elementos similares mediante números de referencia comunes. Estos dibujos no están necesariamente dibujados a escala. Con el fin de apreciar mejor cómo se obtienen las ventajas y los objetos mencionados anteriormente y otros, se hará una descripción más particular de las realizaciones, que se ilustran en los dibujos adjuntos. Estos dibujos muestran solo realizaciones típicas de las invenciones descritas y, por lo tanto, no deben considerarse limitantes de su alcance.
La figura 1 es un diagrama de bloques que ilustra el flujo de datos a través de un sistema de ejemplo de adquisición y procesamiento de imágenes mamarias de acuerdo con realizaciones de las invenciones divulgadas;
La figura 2 es un diagrama de bloques que ilustra el flujo de datos a través de un sintetizador en 2D que utiliza múltiples módulos de reconocimiento/mejora de objetos objetivo para identificar objetos respectivos en una pila de imágenes de acuerdo con realizaciones de las invenciones divulgadas;
La figura 3 ilustra una realización de la aplicación de módulos de reconocimiento/mejora de objetos objetivo en una pila de imágenes para reconocer objetos respectivos y reducir los objetos a la imagen sintetizada en 2D;
La figura 4 ilustra un flujo de datos cuando se aplica un único módulo de reconocimiento/mejora de objetos objetivo
en una pila de imágenes;
La figura 5 ilustra un flujo de datos cuando se aplican múltiples módulos de reconocimiento/mejora de objetos objetivo en una pila de imágenes;
Las figuras 6A y 6B ilustran una técnica de combinación secuencial para combinar datos de múltiples módulos de síntesis de objetos objetivo;
Las figuras 7A y 7B ilustran una técnica de combinación en paralelo para combinar datos de múltiples módulos de síntesis de objetos objetivo; y
Las figuras 8A y 8B ilustran dos diagramas de flujo de ejemplo de la generación de imágenes sintetizadas en 2D usando las técnicas de combinación secuencial y combinación paralela, respectivamente.
La figura 9 muestra una pila en 3D de cortes de imágenes y cómo un elemento de alta densidad, como las sombras generadas al obtener imágenes de objetos metálicos en el tejido mamario, puede oscurecer el tejido mamario e información clínicamente importante;
La figura 10 es un diagrama de bloques que ilustra el flujo de datos a través de un sistema ejemplar de adquisición y procesamiento de imágenes mamarias de acuerdo con realizaciones de las invenciones descritas que implican la supresión selectiva y la mejora de elementos de alta densidad en imágenes mamarias;
La figura 11 ilustra un diagrama de flujo del procesamiento de imágenes diferenciales o de múltiples flujos ejecutado para generar una imagen compuesta sintetizada en 2D de acuerdo con una realización;
La figura 12 ilustra un diagrama de flujo de la mejora del tejido mamario y la supresión de alta densidad de un primer flujo de procesamiento de imágenes ejecutado en las imágenes de entrada;
La figura 13 ilustra un diagrama de flujo de mejora de elementos de alta densidad de un segundo flujo de procesamiento de imágenes ejecutado en imágenes de entrada;
La figura 14 ilustra un diagrama de flujo de procesamiento de imágenes de flujo múltiple o diferencial que se ejecuta directamente en una pila en 3D de entrada de cortes de imagen;
La figura 15 ilustra un diagrama de flujo de imágenes que ilustra una realización del procesamiento de imágenes de flujo múltiple o diferencial de la figura 14 en el que un procesador de imágenes de flujo múltiple recibe entradas de cortes de imagen en 3D;
La figura 16 ilustra un diagrama de flujo de imágenes de la mejora del tejido mamario y la supresión de alta densidad de un primer flujo de procesamiento de imágenes en el que se suprimen los elementos de alta densidad y se realzan los elementos del tejido mamario;
La figura 17 ilustra un diagrama de flujo de imágenes de la mejora de elementos de alta densidad de un segundo flujo de procesamiento de imágenes en el que se mejoran los elementos de alta densidad;
La figura 18 ilustra un diagrama de flujo de imágenes de un sintetizador de imágenes en 2D utilizado en un segundo flujo de procesamiento de imágenes en el que se mejoran los elementos de alta densidad;
La figura 19 ilustra un diagrama de flujo de imágenes de la combinación de múltiples imágenes sintetizadas en 2D para generar una imagen sintetizada compuesta en 2D;
La figura 20A muestra una imagen sintetizada en 2D que muestra cómo las sombras generadas por un marcador de biopsia metálico oscurecen el tejido mamario y la información clínicamente importante, y la figura 20B muestra una imagen compuesta sintetizada en 2D generada de acuerdo con las realizaciones y muestra cómo las sombras de la figura 20A se suprimen o eliminan para proporcionar para una visión más clara y sin obstrucciones del tejido mamario e información clínicamente importante;
La figura 21 ilustra un diagrama de flujo de procesamiento de imágenes diferenciales o de múltiples flujos que se ejecuta directamente en imágenes en 2D de entrada;
La figura 22 ilustra un diagrama de flujo de imágenes que ilustra una realización del procesamiento de imágenes de flujo múltiple o diferencial de la figura 21 en el que un procesador de imágenes de flujo múltiple recibe entradas de imágenes en 2D;
La figura 23 ilustra un diagrama de flujo de imágenes de la mejora del tejido mamario y la supresión de alta densidad de un primer flujo de procesamiento de imágenes ejecutado por un procesador de imágenes de flujo múltiple que se
ejecuta en entradas de imágenes en 2D y durante el cual se suprimen los elementos de alta densidad y se realzan los elementos del tejido mamario ; y
La figura 24 ilustra un diagrama de flujo de imágenes de mejora de elementos de alta densidad de un segundo flujo de procesamiento de imágenes de un procesador de imágenes multietapa que se ejecuta en entradas de imágenes en 2D y durante el cual se mejoran elementos de alta densidad.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES ILUSTRADAS
Se supone que todos los valores numéricos en el presente documento están modificados por los términos “alrededor de” o “aproximadamente”, ya sea que se indique explícitamente o no, en donde los términos “alrededor de” y “aproximadamente” generalmente se refieren a un intervalo de números. En algunos casos, los términos “alrededor de” y “aproximadamente” pueden incluir números que se redondean a la cifra significativa más cercana. La recitación de intervalos numéricos por puntos finales incluye todos los números dentro de ese intervalo (por ejemplo, 1 a 5 incluye 1, 1,5, 2, 2,75, 3, 3,80, 4 y 5).
Tal como se utiliza en esta memoria descriptiva y en las reivindicaciones adjuntas, las formas singulares “un”, “una” y “el”, “la” incluyen los referentes plurales a menos que el contenido indique claramente lo contrario. Tal como se utiliza en esta memoria descriptiva y en las reivindicaciones adjuntas, el término “o” se emplea generalmente en su sentido que incluye “y/o” a menos que el contenido indique claramente lo contrario. Al describir las realizaciones mostradas de las invenciones divulgadas ilustradas en las figuras adjuntas, se emplea terminología específica en aras de la claridad y facilidad de la descripción. Sin embargo, la descripción de esta memoria descriptiva de patente no pretende limitarse a la terminología específica así seleccionada. Debe entenderse además que los diversos elementos y/o características de diferentes realizaciones ilustrativas pueden combinarse entre sí y/o sustituirse entre sí siempre que sea posible.
A continuación, se describen diversas realizaciones de las invenciones descritas con referencia a las figuras. Cabe señalar que las figuras no están dibujadas a escala y que los elementos de estructuras o funciones similares están representados por números de referencia similares en todas las figuras. También debe señalarse que las figuras solo pretenden facilitar la descripción de las realizaciones. No pretenden ser una descripción exhaustiva de la invención ni una limitación del alcance de las invenciones divulgadas, que se define únicamente en las reivindicaciones adjuntas. Además, no es necesario que una realización ilustrada de las invenciones descritas tenga todos los aspectos o ventajas que se muestran. Por ejemplo, un aspecto o una ventaja descrita junto con una realización particular de las invenciones divulgadas no se limita necesariamente a esa realización y se puede poner en práctica en cualquier otra realización incluso si no se ilustra así.
Para los siguientes términos y abreviaturas definidos, estas definiciones se aplicarán a lo largo de esta memoria descriptiva de patente y las reivindicaciones adjuntas, a menos que se proporcione una definición diferente en las reivindicaciones o en otra parte de esta memoria descriptiva:
Una “ imagen adquirida” se refiere a una imagen generada mientras se visualiza el tejido de una paciente. Las imágenes adquiridas pueden generarse mediante la radiación de una fuente de radiación que incide sobre un detector de radiación dispuesto en lados opuestos del tejido de una paciente, como en una mamografía convencional.
Una “ imagen reconstruida” se refiere a una imagen generada a partir de datos derivados de una pluralidad de imágenes adquiridas. Una imagen reconstruida simula una imagen adquirida no incluida en la pluralidad de imágenes adquiridas.
Una “imagen sintetizada” se refiere a una imagen artificial generada a partir de datos derivados de una pluralidad de imágenes adquiridas y/o reconstruidas. Una imagen sintetizada incluye elementos (por ejemplo, objetos y regiones) de las imágenes adquiridas y/o reconstruidas, pero no corresponde necesariamente a una imagen que pueda adquirirse durante la visualización. Las imágenes sintetizadas son herramientas de análisis construidas.
Una imagen “Mp” es una mamografía convencional o una mamografía mejorada con contraste, que son imágenes de proyección bidimensional (2D) de una mama, y abarca tanto una imagen digital adquirida por un detector de panel plano u otro dispositivo de imágenes, tal como la imagen después de procesamiento convencional para prepararlo para exhibición (por ejemplo, a un profesional de la salud), almacenamiento (por ejemplo, en el sistema PACS de un hospital) y/u otro uso.
Una imagen “Tp” es una imagen que es similarmente bidimensional (2D), pero se adquiere en un ángulo de tomosíntesis respectivo entre la mama y el origen de los rayos X de la imagen (típicamente el punto focal de un tubo de rayos X), y abarca la imagen adquirida, así como los datos de la imagen después de ser procesados para su visualización, almacenamiento y/u otro uso.
Una imagen “Tr” es un tipo (o subconjunto) de una imagen reconstruida que se reconstruye a partir de imágenes de proyección de tomosíntesis Tp, por ejemplo, de la manera descrita en uno o más de las patentes US 7.577.282, US 7.606.801, US 7.760.924, y US 8.571.289, en el que una imagen Tr representa un corte de la mama tal como
aparecería en una imagen de proyección de rayos X de ese corte en cualquier ángulo deseado, no solo en un ángulo utilizado para adquirir imágenes Tp o Mp.
Una imagen “Ms” es un tipo (o subconjunto) de una imagen sintetizada, en particular, una imagen de proyección en 2D sintetizada que simula imágenes de mamografía, tal como imágenes craneocaudales (CC) u oblicuas mediolaterales (MLO), y se construye mediante imágenes de proyección por tomosíntesis Tp, imágenes reconstruidas por tomosíntesis Tr, o una combinación de las mismas. Se pueden proporcionar más imágenes para mostrarlas a un profesional de la salud o para almacenarlas en el sistema PACS de un hospital u otra institución. Ejemplos de métodos que se pueden usar para generar imágenes Ms se describen en los documento incorporados anteriormente patentes Us 7.760.924 y US 8.571.289 y también en la solicitud US 15/120.911, publicada como publicación US 2016/0367120 del 22 de diciembre de 2016 y titulada Sistema y método para generar y mostrar placas de imágenes de tomosíntesis, la solicitud PCT PCT/US2018/024911, presentada el 28 de marzo de 2018 y titulada Sistema y método para la síntesis y representación jerárquica de imágenes de características de varios niveles, la solicitud PCT PCT/US2018/024912, presentada el 28 de marzo de 2018, y titulada Sistema y método para sintetizar datos de imágenes de baja dimensión a partir de datos de imágenes de alta dimensión utilizando una mejora de red de objetos, y la solicitud PCT PCT/US018/0249132, presentada el 28 de marzo de 2018, y titulada Sistema y método de mejora selectiva de objetos para generar imágenes sintetizadas de tejido mamario, cuyo contenido se incorpora en su totalidad en el presente documento como referencia tal como se establece en su totalidad.
Debe apreciarse que los datos de imagen Tp, Tr, Ms y Mp abarcan información, en cualquier forma, que es suficiente para describir la imagen respectiva para visualización, procesamiento adicional o almacenamiento. Las imágenes respectivas de Mp, Ms. Tp y Tr, incluidas aquellas sujetas a la supresión y mejora de elementos de alta densidad, generalmente se proporcionan en forma digital antes de mostrarse, y cada imagen se define mediante información que identifica las propiedades de cada píxel en una matriz de dos dimensiones de píxeles. Los valores de píxel generalmente se relacionan con las respectivas respuestas medidas, estimadas o calculadas a rayos X de volúmenes correspondientes en la mama, es decir, vóxeles o columnas de tejido. En una realización preferida, la geometría de las imágenes de tomosíntesis (Tr y Tp) y las imágenes de mamografía (Ms y Mp) se combinan con un sistema de coordenadas común, como se describe en la patente US 7.702.142. A menos que se especifique lo contrario, se supone que dicha coincidencia del sistema de coordenadas se implementa con respecto a las realizaciones descritas en la siguiente descripción detallada de esta memoria descriptiva de patente.
Los términos “generar una imagen” y “transmitir una imagen”, respectivamente, se refieren a generar y transmitir información que es suficiente para describir la imagen para su visualización. La información generada y transmitida es típicamente información digital.
El término “elemento de alta densidad” se define como un elemento, cuando se toman imágenes con tejido mamario, oscurece parcial o completamente el tejido mamario fotografiado o información clínicamente importante del tejido mamario, como masa mamaria maligna, tumores, etc. Se puede detectar un elemento de alta densidad en base a criterios predeterminados o filtros que involucran uno o más de contraste, brillo, radiopacidad u otro atributo. Un elemento de alta densidad puede ser un objeto extraño o estar presente de forma natural en el tejido mamario y puede ser parcial o completamente radiopaco. Por ejemplo, un tipo de elemento de alta densidad es un objeto metálico tal como un marcador de biopsia metálico insertado en tejido mamario. Dichos marcadores están diseñados para ser radiopacos de modo que sean claramente visibles cuando se usan rayos X. Otro ejemplo de un elemento de alta densidad es una calcificación dentro del tejido mamario. Un elemento de alta densidad también puede ser un elemento no metálico o no calcificado, tal como un objeto de sombra generado por la formación de imágenes de un marcador metálico, y que puede no considerarse radiopaco. En consecuencia, un “elemento de alta densidad” se define para incluir objetos metálicos tales como un marcador de biopsia o un marcador de piel, materiales u objetos radiopacos y sombras u objetos de sombra generados por formación de imágenes de los mismos.
Los términos procesamiento de imágenes “diferencial” o “flujo múltiple” se definen para hacer referencia a las imágenes de entrada que se procesan de diferentes maneras para generar diferentes resultados de imagen y se define para incluir un flujo que implica la supresión de un elemento de alta densidad reflejado y que implica la mejora de un elemento de imagen de alta densidad. Se pueden ejecutar diferentes flujos de procesamiento de imágenes en paralelo y simultáneamente, y las imágenes de entrada a los procesadores de imágenes de las realizaciones pueden tener diferentes formatos dimensionales.
Para garantizar que una imagen en 2D sintetizada que se muestra a un revisor o usuario final (por ejemplo, una imagen Ms) incluye la información clínicamente más relevante, es necesario detectar e identificar objetos en 3D, como masa mamaria maligna, tumores, etc., dentro del tejido mamario. Con este fin, de acuerdo con las realizaciones de las invenciones actualmente descritas, los objetos en 3D pueden identificarse utilizando múltiples módulos de síntesis/reconocimiento de objetos objetivo, donde cada módulo de síntesis/reconocimiento de objetivos puede configurarse para identificar y reconstruir un tipo particular de objeto. Estos módulos de síntesis de objetivos múltiples pueden trabajar juntos en la combinación de información perteneciente a los objetos respectivos durante el proceso de reconstrucción de generar una o más imágenes en 2D sintetizadas, asegurando que cada objeto se represente con precisión y preservando información clínicamente significativa en las imágenes sintetizadas en 2D que se muestran al usuario final.
La imagen en 2D sintetizada que se muestra a un usuario final también debe ser clara, de modo que la información y los objetos clínicamente relevantes no queden oscurecidos por elementos u objetos de imagen no deseados, que pueden incluir un elemento de alta densidad, tal como un marcador de biopsia y/o una sombra generada por imágenes de la misma durante la obtención de imágenes mamarias. Con este fin, de acuerdo con las realizaciones de las invenciones actualmente descritas, se utiliza un procesador de imágenes de flujo múltiple para generar una imagen sintetizada en 2D mediante la supresión de elementos de alta densidad en un método de procesamiento de imágenes y la mejora de elementos de alta densidad en otro método de procesamiento de imágenes de manera que cuando se combinan diferentes imágenes en 2D sintetizadas generadas por diferentes flujos de procesamiento de imágenes, los elementos de alta densidad, como las sombras, se reducen o eliminan, lo que da como resultado una imagen compuesta en 2D sintetizada que es más clara y muestra con mayor precisión el tejido mamario y los objetos de tejido mamario al tiempo que proporciona una imagen más precisa y revisión eficiente del radiólogo.
Las realizaciones diseñadas para generar una imagen sintetizada en 2D que mantiene y mejora las características clínicamente interesantes se describen con referencia a las figuras 1-8B, y las realizaciones que utilizan un método de procesamiento de imágenes de flujo múltiple para reducir elementos de alta densidad como sombras y generar una imagen sintetizada compuesta en 2d más clara se describen con referencia a las figuras 9-24.
La figura 1 ilustra el flujo de datos en un sistema 100 de generación y visualización de imágenes de ejemplo, que incorpora cada una de las tecnologías de generación de imágenes sintetizadas, identificación de objetos y visualización. Debe entenderse que, si bien la figura 1 ilustra una realización particular de un diagrama de flujo con ciertos procesos que tienen lugar en un orden en serie particular o en paralelo, las reivindicaciones y otras realizaciones descritas en este documento no se limitan a la realización de las etapas de procesamiento de imágenes en un orden particular, a menos que así se especifique.
Más particularmente, el sistema 100 de visualización y generación de imágenes incluye un sistema 101 de adquisición de imágenes que adquiere datos de imágenes de tomosíntesis para generar imágenes Tp de las mamas de una paciente, opcionalmente usando los respectivos métodos de adquisición en 3D y/o tomosíntesis de cualquiera de los sistemas actualmente disponibles. Si el sistema de adquisición es un sistema combinado de tomosíntesis/mamografía, también se pueden generar imágenes Mp. Algunos sistemas dedicados de tomosíntesis o sistemas combinados de tomosíntesis/mamografía pueden adaptarse para aceptar y almacenar imágenes de mamografía heredadas (indicadas por una línea discontinua y la leyenda “Mplegado” en la figura 1) en un dispositivo 102 de almacenamiento, que es preferiblemente un dispositivo de almacenamiento del sistema de archivo y comunicación de imágenes (PACS) compatible con DICOM. Después de la adquisición, las imágenes de proyección de tomosíntesis Tp también pueden transmitirse al dispositivo 102 de almacenamiento (como se muestra en la figura 1). El dispositivo 102 de almacenamiento puede almacenar además una biblioteca de objetos en 3D conocidos que pueden usarse para identificar patrones de imágenes en 3D significativos para el usuario final. En otras realizaciones, se puede usar un dispositivo de almacenamiento dedicado separado (no mostrado) para almacenar la biblioteca de objetos en 3D conocidos con los que identificar patrones u objetos de imagen en 3D.
Las imágenes Tp se transmiten desde el sistema 101 de adquisición, o desde el dispositivo 102 de almacenamiento, o desde ambos, a un sistema informático configurado como un motor 103 de reconstrucción que reconstruye las imágenes Tp en “cortes” de imágenes reconstruidas Tr, que muestran cortes de mama de espesor seleccionado y en orientaciones seleccionadas, como se describe en las patentes y solicitudes incorporadas anteriormente.
Unos filtros 107 de modo están dispuestos entre la adquisición de imágenes y la visualización de imágenes. Los filtros 107 pueden incluir adicionalmente filtros personalizados para cada tipo de imagen (es decir, imágenes Tp, Mp y Tr) dispuestos para identificar y resaltar o mejorar ciertos aspectos de los tipos de imagen respectivos. De esta manera, cada modo de imagen se puede ajustar o configurar de manera óptima para un propósito específico. Por ejemplo, se pueden aplicar filtros programados para reconocer objetos a través de varios cortes de imagen en 2D para detectar patrones de imagen que pueden pertenecer a objetos particulares de alta dimensión. El ajuste o configuración puede ser automático, en función del tipo de imagen, o puede definirse mediante entrada manual, por ejemplo, a través de una interfaz de usuario acoplada a una pantalla. En la realización ilustrada de la figura 1, los filtros 107 de modo se seleccionan para resaltar características particulares de las imágenes que se visualizan mejor en los modos de imagen respectivos, por ejemplo, orientados a identificar objetos, resaltar masas o calcificaciones, identificar ciertos patrones de imagen que pueden ser construido en un objeto en 3D, o para crear imágenes sintetizadas en 2D (descrito a continuación). Aunque la figura 1 ilustra solo un filtro 107 de modo, debe apreciarse que se puede utilizar cualquier número de filtros de modo para identificar estructuras de interés en el tejido mamario.
El sistema 100 de imágenes y visualización incluye además un sintetizador 104 de imágenes en 2D que funciona sustancialmente en paralelo con el motor 103 de reconstrucción para generar imágenes sintetizadas en 2D utilizando una combinación de una o más entradas Tp (proyección de tomosíntesis), Mp (proyección de mamografía) y/o o imágenes Tr (reconstrucción por tomosíntesis). El sintetizador 104 de imágenes en 2D consume un conjunto de imágenes de entrada, determina un conjunto de características más relevantes de cada una de las imágenes de entrada y genera una o más imágenes en 2D sintetizadas. La imagen en 2D sintetizada representa una imagen sintetizada consolidada que condensa porciones significativas de varios cortes en una sola imagen. Esto proporciona
al usuario final (por ejemplo, personal médico, radiólogo, etc.) los datos de imagen más relevantes desde el punto de vista clínico de manera eficiente y reduce el tiempo dedicado a otras imágenes que pueden no tener datos significativos.
Un tipo de datos de imagen relevantes para resaltar en las imágenes en 2D sintetizadas serían los objetos relevantes que se encuentran en una o más imágenes Mp, Tr y/o Tp. En lugar de simplemente evaluar los patrones de imagen de interés en cada uno de los cortes de imagen en 2D, puede ser útil determinar si alguno de los patrones de imagen en 2D de interés pertenece a una estructura de alta dimensión más grande y, de ser así, combinar la imagen en 2D identificada patrones en una estructura de dimensiones superiores. Este enfoque tiene varias ventajas, pero en particular, al identificar estructuras de gran dimensión en varios cortes/profundidades del tejido mamario, el usuario final puede estar mejor informado sobre la presencia de una estructura potencialmente significativa que puede no ser fácilmente visible en varios cortes en 2D de la mama.
Además, en lugar de identificar patrones de imagen similares en dos cortes en 2D (que quizás sean adyacentes entre sí) y determinar si resaltar o no los datos de imagen de uno o ambos cortes en 2D, identificando ambos patrones de imagen como pertenecientes a la misma estructura alta dimensional puede permitir que el sistema haga una evaluación más precisa relacionada con la naturaleza de la estructura y, en consecuencia, proporcione información significativamente más valiosa para el usuario final. Además, al identificar la estructura de alta dimensión, la estructura se puede mostrar con mayor precisión en la imagen en 2D sintetizada. Otra ventaja más de identificar estructuras de alta dimensión dentro de los diversos cortes en 2D capturados del tejido mamario se relaciona con la identificación de un posible tamaño/alcance de la estructura de mayor dimensión identificada. Por ejemplo, una vez que se ha identificado una estructura, los patrones de imagen que antes no eran notables y que están algo próximos a la estructura de alta dimensión ahora pueden identificarse como pertenecientes a la misma estructura. Esto puede proporcionar al usuario final una indicación de que la estructura de gran dimensión está aumentando en tamaño/alcance.
Con este fin, el sintetizador 104 de imágenes en 2D emplea una pluralidad de módulos de reconocimiento/mejora de objetos objetivo (también denominados módulos de síntesis de objetos objetivo) que están configurados para identificar y reconstruir diferentes tipos de objetos. Cada módulo de síntesis/reconocimiento de imagen objetivo se puede aplicar (o “ejecutar”) en una pila (por ejemplo, una pila de imágenes de tomosíntesis) de cortes de imágenes en 2D del tejido mamario de una paciente, y trabajar para identificar tipos particulares de objetos que pueden estar en el tejido mamario y asegurarse de que dichos objetos se representen de una manera clínicamente significativa en la imagen sintetizada en 2D resultante que se presenta al usuario final. Por ejemplo, se puede configurar un primer módulo de síntesis de imágenes objetivo para identificar calcificaciones en el tejido mamario. Se puede configurar otro módulo de síntesis de imágenes objetivo para identificar y reconstruir lesiones espiculadas en el tejido mamario. Se puede configurar otro módulo de síntesis de imágenes objetivo para identificar y reconstruir masas esféricas en el tejido mamario. En una o más realizaciones, los múltiples módulos de síntesis de imágenes objetivo procesan los datos de corte de la imagen y llenan los objetos respectivos en una cuadrícula de alta dimensión (por ejemplo, una rejilla en 3D) que comprende estructuras respectivas de alta dimensión (por ejemplo, objetos en 3D) presentes en el tejido mamario. Esta rejilla de alta dimensión se puede utilizar para mostrar con precisión las diversas estructuras en la imagen sintetizada en 2D.
Un objeto de alta dimensión puede referirse a cualquier objeto que comprenda al menos tres o más dimensiones, por ejemplo, un objeto en 3D o superior, o un objeto en 3D o superior y dimensión temporal, etc. Los ejemplos de tales objetos o estructuras incluyen, entre otros, calcificaciones, lesiones espiculadas, tumores benignos, masas irregulares, objetos densos, etc. Un objeto de imagen puede definirse como un determinado tipo de patrón de imagen que existe en los datos de imagen. El objeto puede ser un objeto redondo simple en un espacio en 3D y un objeto redondo plano correspondiente en un espacio en 2D. Puede ser un objeto con patrones complejos y formas complejas, y puede ser de cualquier tamaño o dimensión. El concepto de un objeto puede extenderse más allá de un objeto geométrico limitado localmente. Más bien, el objeto de la imagen puede referirse a un patrón o estructura abstracta que puede existir en cualquier forma dimensional. Debe apreciarse que las invenciones descritas en este documento no se limitan a objetos y/o estructuras en 3D, y pueden incluir estructuras de mayor dimensión. Debe apreciarse que cada uno de los módulos de síntesis de imágenes objetivo está configurado para identificar y reconstruir tipos respectivos de objetos. Estos “objetos” pueden referirse a formas en 2D, patrones de imagen en 2d , objetos en 3D o cualquier otro objeto de gran dimensión, pero, en cualquier caso, todos se denominarán “objetos” u “objetos en 3D” en este documento por simplicidad, pero este ilustrativo el uso no debe interpretarse como una limitación del alcance de las reivindicaciones.
En la realización ilustrada, el sintetizador 104 en 2D comprende una pluralidad de módulos de mejora/reconocimiento de objetos objetivo (por ejemplo, 110a, 110b... 110n), cada uno configurado para reconocer y mejorar un tipo particular de objeto. Cada uno de los módulos 110 de reconocimiento/mejora de objetos objetivo puede ejecutarse en una pila de imágenes en 2D (por ejemplo, una pila de imágenes Tr) y está configurado para identificar el objeto respectivo (si hay alguno presente) en el mismo. Al identificar el objeto asignado en la pila de imágenes en 2D, cada módulo 110 de reconocimiento/mejora de objetos objetivo funciona para garantizar que el objeto respectivo se conserve y muestre con precisión en la imagen sintetizada en 2D resultante presentada al usuario final.
En algunas realizaciones, se puede utilizar un modelo jerárquico para determinar qué objetos enfatizar o quitar énfasis en la imagen sintetizada en 2D en función de una ponderación o prioridad asignado al módulo de reconocimiento/mejora de objetos objetivo. En otras realizaciones, todos los objetos pueden tratarse por igual, y diferentes objetos pueden fusionarse si hay una superposición en la dirección z, como se discutirá con mayor detalle a continuación. Estas técnicas de reconstrucción permiten la creación de imágenes sintetizadas en 2D que comprenden información clínicamente significativa, al mismo tiempo que eliminan o reducen la información innecesaria o visualmente confusa.
Las imágenes en 2D sintetizadas se pueden ver en un sistema 105 de visualización. El motor 103 de reconstrucción y el sintetizador 104 de imágenes en 2d están preferentemente conectados a un sistema 105 de visualización a través de un enlace de transmisión rápida. El sistema 105 de visualización puede ser parte de una estación de trabajo de adquisición estándar (por ejemplo, del sistema 101 de adquisición) o de una estación de revisión estándar (multipantalla) (no mostrada) que está físicamente alejada del sistema 101 de adquisición. En algunas realizaciones, se puede utilizar una pantalla conectada a través de una red de comunicación, por ejemplo, una pantalla de un ordenador personal o de una denominada tableta, teléfono inteligente u otro dispositivo portátil. En cualquier caso, la pantalla 105 del sistema es preferiblemente capaz de mostrar imágenes Ms, Mp, Tr y/o Tp respectivas al mismo tiempo, por ejemplo, en monitores separados uno al lado del otro de una estación de trabajo de revisión, aunque la invención aún puede ser implementado con un solo monitor de visualización, alternando entre imágenes.
Por lo tanto, el sistema 100 de imágenes y visualización, que se describe con fines ilustrativos y no limitativos, es capaz de recibir y mostrar de forma selectiva imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía (incluyendo mamografía de contraste) Mp, o cualquier combinación o subcombinación de estos tipos de imágenes. El sistema 100 emplea software para convertir (es decir, reconstruir) imágenes de tomosíntesis Tp en imágenes Tr, software para sintetizar imágenes de mamograma Ms, software para descomponer objetos en 3D, software para crear mapas de características y mapas de objetos. Un objeto de interés o característica en una imagen de origen puede considerarse una característica 'más relevante' para su inclusión en una imagen sintetizada en 2D en función de la aplicación de los mapas de objetos junto con uno o más algoritmos y/o heurísticas, donde los algoritmos asignan valores numéricos, ponderaciones o umbrales, a píxeles o regiones de las respectivas imágenes de origen en función de objetos y características de interés identificados/detectados dentro de la región respectiva o entre características. Los objetos y características de interés pueden incluir, por ejemplo, lesiones espiculadas, calcificaciones y similares.
La figura 2 ilustra el sintetizador 104 de imágenes en 2D con mayor detalle. Como se discutió anteriormente, varios cortes 218 de imágenes de un conjunto de datos de tomosíntesis en 3D o “pila” 202 (por ejemplo, imágenes Tr y/o Tp filtradas y/o no filtradas del tejido mamario de una paciente) se ingresan en el sintetizador 104 de imágenes en 2D, y luego procesado para determinar porciones de las imágenes para resaltar en una imagen en 2D sintetizada que se mostrará en la pantalla 105. Los cortes 218 de imagen pueden ser secciones transversales capturadas consecutivamente del tejido mamario de una paciente. O bien, los cortes 218 de imagen pueden ser imágenes transversales del tejido mamario de la paciente capturadas a intervalos conocidos. La pila 202 de tomosíntesis en 3D que comprende los cortes 218 de imagen puede enviarse al sintetizador 104 de imágenes en 2D, que evalúa cada una de las imágenes de origen para (1) identificar varios tipos de objetos (Tr) para su posible inclusión en una o más imágenes sintetizadas en 2D, y/o (2) identificar regiones de píxeles respectivas en las imágenes que contienen los objetos identificados.
Como se muestra en la realización ilustrada, la pila 202 de tomosíntesis en 3D comprende una pluralidad de imágenes 218 tomadas a varias profundidades/secciones transversales del tejido mamario de la paciente. Algunas de las imágenes 218 en la pila 202 de tomosíntesis en 3D comprenden patrones de imágenes en 2D. Por tanto, la pila 202 de tomosíntesis comprende un gran número de imágenes de entrada que contienen varios patrones de imagen dentro de las imágenes de la pila.
Más particularmente, como se muestra en la figura 2, tres módulos 210a, 210b y 210c de reconocimiento/mejora de objetos objetivo están configurados para ejecutarse en la pila 202 de tomosíntesis en 3D, donde cada uno de los módulos 210 de reconocimiento y mejora de objetos objetivo corresponde a un conjunto respectivo de programas/reglas y parámetros que definen un objeto particular, y cómo identificar ese objeto particular entre otros objetos que pueden existir en el tejido mamario mostrado por la pila 202 de tomosíntesis en 3D. Por ejemplo, las técnicas de filtrado/reconocimiento de imágenes y varios algoritmos/heurísticas pueden ejecutarse en la pila 202 de tomosíntesis en 3D para identificar el objeto asignado al módulo 210 de reconocimiento/mejora de objeto específico. Se apreciará que hay muchas formas de reconocer objetos utilizando una combinación de técnicas de manipulación/filtración de imágenes.
Con fines de ilustración, se supondrá que cada uno de los módulos 210 de reconocimiento/mejora de objetos objetivo identifica al menos un objeto respectivo, pero debe apreciarse que en muchos casos no se identificará ningún objeto. Sin embargo, incluso el tejido mamario sano puede tener uno o más objetos o estructuras sospechosas, y los módulos de reconocimiento/mejora de objetos objetivo pueden identificar inadvertidamente un objeto de fondo mamario. Por ejemplo, todo el tejido mamario lineal y las estructuras de tejido de densidad se pueden mostrar como el objeto de fondo mamario. En otras realizaciones, los objetos “saludables”, como formas esféricas, formas ovaladas, etc., pueden
identificarse simplemente mediante uno o más de los módulos 210 de reconocimiento/mejora de objetos objetivo. Los objetos en 3D identificados pueden entonces visualizarse en la imagen 206 sintetizada en 2D; por supuesto, de todos los objetos en 2D identificados, se pueden priorizar/mejorar más objetos clínicamente significativos cuando se muestran los objetos respectivos en la imagen sintetizada en 2D, como se discutirá con más detalle a continuación.
En la realización ilustrada, un primer módulo 210a de reconocimiento/mejora de objetos objetivo está configurado para reconocer formas circulares y/o esféricas en las imágenes 218 de la pila 202 de tomosíntesis en 3D (por ejemplo, T r, Tp, etc.). Un segundo módulo 210b de síntesis de objetos objetivo está configurado para reconocer formas lobuladas. Un tercer módulo 210c de síntesis de objetos objetivo está configurado para reconocer patrones de calcificación. En particular, cada uno de los módulos 210a, 210b y 210c de síntesis de objetos objetivo se ejecuta en la pila 202 de imágenes Tr, en la que los respectivos módulos de síntesis de objetos objetivo reconocen un conjunto de características/objetos.
Por ejemplo, el módulo 210a de reconocimiento/mejora de objetos objetivo puede reconocer una o más formas circulares y almacenarlas como “objetos reconocidos” 220a. Se apreciará que múltiples cortes 218 de imagen de la pila 202 de tomosíntesis en 3D pueden contener formas circulares, y que estas formas pueden estar asociadas con el mismo objeto esférico, o pueden pertenecer a diferentes objetos esféricos. En la realización ilustrada, al menos dos objetos circulares distintos son reconocidos por el módulo 210a de reconocimiento/mejora de objetos objetivo.
De manera similar, el módulo 210b de reconocimiento/mejora de objetos objetivo puede reconocer una o más formas lobuladas y almacenarlas como objetos 220b reconocidos. En la realización ilustrada, un objeto lobulado ha sido reconocido en la pila 202 de tomosíntesis en 3D por el módulo 210b de reconocimiento/mejora de objetos objetivo. Como se puede ver, dos cortes 218 de imagen diferentes en la pila 202 de tomosíntesis en 3D muestran partes del objeto lobulado, pero el módulo 210b de reconocimiento/mejora reconoce las partes respectivas como pertenecientes a un solo objeto lobulado, y se almacenan como un solo objeto 220b reconocido.
Finalmente, el módulo 210c de reconocimiento/mejora de objetos objetivo puede reconocer una o más formas de calcificación y almacenarlas como objetos 220c reconocidos. En la realización ilustrada, un grupo de calcificación (único) ha sido reconocido por el módulo 210c de reconocimiento/mejora de objetos objetivo y almacenado como un objeto 220c reconocido. Los objetos 220a, 220b y 220c reconocidos pueden almacenarse en instalaciones de almacenamiento correspondientes a los respectivos módulos 210a, 210b y 210c de reconocimiento/mejora de objetos objetivo, o alternativamente en una instalación de almacenamiento separada (es decir, única) a la que puede acceder cada uno de los módulos de reconocimiento/mejora de objetos objetivo.
Con referencia ahora a la figura 3, cada uno de los módulos 210 de reconocimiento/mejora de objetos objetivo puede configurarse para identificar y sintetizar (por ejemplo, reducir a 2D) un objeto en 3D respectivo para visualizarlo en una o más imágenes sintetizadas en 2D. En otras palabras, una vez que los objetos en 3D son reconocidos por el respectivo módulo 210a, 210b o 210c de reconocimiento/mejora de objetos objetivo, el módulo de reconocimiento/mejora de objetos objetivo convierte el objeto en 3D reconocido a un formato en 2D para que el objeto reconocido pueda visualizarse. en la imagen sintetizada en 2D. En la realización ilustrada, los módulos 210a, 21b y 210c de reconocimiento/mejora de objetos objetivo reconocen los objetos respectivos y convierten los objetos reconocidos en formatos en 2D respectivos. Como parte del proceso de conversión, algunos de los objetos reconocidos pueden mejorarse en mayor o menor grado para la imagen visualizada, como se discutirá con mayor detalle a continuación. Suponiendo que los tres módulos 210a, 210b y 210c de reconocimiento/mejora de objetos objetivo se consideren igualmente importantes para el sintetizador 104 de imágenes en 2D, los formatos 2D respectivos de todos los objetos reconocidos (por ejemplo, dos objetos esféricos, un objeto lobular y una masa de calcificación) mostrados en la imagen 302 en 2D sintetizada.
La figura 4 ilustra cómo un único módulo 210 de reconocimiento/mejora de objetos objetivo puede ejecutarse en una pila de tomosíntesis en 3D para generar una parte de la imagen sintetizada en 2D. En la realización ilustrada, los cortes 402 de imagen de la pila de tomosíntesis en 3D se alimentan a través de un único módulo 404 de reconocimiento/mejora de objetos objetivo, que está configurado para reconocer objetos en forma de estrella en la pila 402 de imágenes. Como resultado, el módulo de síntesis de un único objeto objetivo reduce la información relativa a la forma de estrella reconocida obtenida a partir de varias profundidades de los cortes de imagen en una única imagen 406 sintetizada en 2D.
La figura 5 ilustra una realización de ejemplo para tener múltiples módulos de reconocimiento/mejora de objetos objetivo trabajando juntos para producir la imagen sintetizada en 2D. En la realización ilustrada, los cortes 502 de imagen (de una pila de tomosíntesis en 3D respectiva) se alimentan a través de un primer módulo 504a de reconocimiento/mejora de objetos objetivo configurado para reconocer y reconstruir formas circulares y/o esféricas, un segundo módulo 504b de reconocimiento/mejora de objetos objetivo configurado para reconocer y reconstruir formas similares a estrellas, y un tercer módulo 504c de reconocimiento/mejora de objetos objetivo configurado para reconocer y reconstruir estructuras de calcificación. Debe apreciarse que se puede programar cualquier número de módulos de reconocimiento/mejora de objetos objetivo para cualquier número de tipos de objetos.
Cada uno de los módulos 504a, 504b y 504c de reconocimiento/mejora de objetos objetivo corresponde a algoritmos
respectivos que están configurados con varias reglas y atributos predeterminados que permiten que estos programas reconozcan con éxito los objetos respectivos y reduzcan los objetos reconocidos a un formato en 2D. Al aplicar los tres módulos 504a, 504b y 504c de síntesis/reconocimiento de objetos objetivo a los cortes 502 de imagen, se genera una imagen 506 sintetizada en 2D. En particular, en lugar de simplemente mostrar un solo tipo de objeto, la imagen en 2D sintetizada 506 comprende los tres tipos de objetos que son reconocidos y sintetizados por los tres módulos 504a, 504b y 504c de reconocimiento/mejora de objetos objetivo, siendo cada uno de los objetos reconocidos igualmente enfatizado. Si bien esto puede ser deseable si todos los tipos de objetos tienen la misma importancia, puede ser útil mejorar/enfatizar diferentes tipos de objetos en diversos grados según su ponderación/prioridad. Esta técnica puede ser más efectiva para alertar al usuario final sobre un objeto potencialmente importante, al mismo tiempo que quita énfasis a los objetos de menor importancia.
Con referencia ahora a la figura 6A, se ilustra un enfoque secuencial jerárquico para combinar datos de los múltiples módulos de reconocimiento/mejora de objetos objetivo. En particular, se puede aplicar una técnica de combinación secuencial si los diversos tipos de objetos tienen una jerarquía claramente definida asociada con ellos. Por ejemplo, un tipo de objeto (por ejemplo, lesiones espiculadas) puede considerarse clínicamente más significativo que otro tipo de objeto (por ejemplo, una masa esférica en tejido mamario). A este tipo de objeto (y al correspondiente módulo de objeto objetivo) se le puede asignar una ponderación/prioridad alta particular. En tal caso, si dos objetos compiten por el espacio en la imagen sintetizada en 2D, el tipo de objeto asociado con la prioridad más alta se puede resaltar/mostrar en la imagen sintetizada en 2D, y el otro tipo de objeto se puede quitar el énfasis, o no mostrado en absoluto. De manera similar, en tal enfoque, a cada uno de los módulos de reconocimiento/mejora de objetos objetivo se le pueden asignar ponderaciones respectivas en base a la importancia respectiva.
En la realización ilustrada, los cortes 602 de imagen de la pila de tomosíntesis en 3D se alimentan secuencialmente a través de tres módulos (604, 606 y 608) diferentes de reconocimiento/mejora de objetos objetivo para generar la imagen 610 sintetizada en 2D, en la que cada uno de los módulos de síntesis de objetos objetivo es configurado para reconocer y reconstruir un tipo particular de objeto. El primer módulo 604 de reconocimiento/mejora de objetos objetivo (asociado con un objeto de forma cuadrada) se ejecuta primero en los cortes 602 de imagen de reconstrucción, seguido por el segundo módulo 606 de reconocimiento/mejora de objetos objetivo (asociado con un objeto en forma de diamante), y luego seguido por el tercer módulo 608 de reconocimiento/mejora de objetos objetivo (asociado con un objeto de forma circular). Debe apreciarse que dado que los módulos de reconocimiento/mejora de objetos objetivo se aplican (o “ejecutan”) secuencialmente, el segundo módulo 606 de reconocimiento/mejora de objetos objetivo puede considerarse un objeto de mayor prioridad en comparación con el primer módulo 604 de reconocimiento/mejora de objetos objetivo, y el tercer módulo 608 de reconocimiento/mejora de objetos objetivo puede considerarse que tiene una prioridad más alta en comparación con el segundo módulo 606 de reconocimiento/mejora de objetos objetivo. Por lo tanto, el tercer tipo de objeto puede anular (o resaltar) el segundo tipo de objeto, y el segundo tipo de objeto puede anular (o resaltar) el primer tipo de objeto.
La figura 6B ilustra este enfoque jerárquico para combinar secuencialmente varios tipos de objetos. En particular, la pila de imágenes de tomosíntesis en 3D 652 incluye objetos 656, 658 y 660 que pueden reconocerse en varios cortes de imagen. Como se ilustra, los objetos 658 y 660 se superponen un poco en la dirección z, lo que significa que es probable que compitan por la representación en la imagen 654 sintetizada en 2D. Cuando se usa el enfoque secuencial de la figura 6A para combinar datos de los múltiples módulos 604, 606 y 608 de reconocimiento/mejora de objetos objetivo, se conserva la jerarquía programada. Por lo tanto, dado que el módulo 608 de reconocimiento/mejora de objetos objetivo configurado para reconocer y reconstruir objetos de forma circular tiene mayor prioridad en comparación con el módulo 604 de reconocimiento/mejora de objetos objetivo configurado para reconocer y reconstruir objetos de forma cuadrada, en caso de superposición entre los dos objetos (como es el caso en la figura 6B), el objeto 658 de forma circular anula el objeto 660 de forma cuadrada en la imagen 654 sintetizada en 2D. Por supuesto, debe apreciarse que, dado que el objeto 656 con forma de diamante no se superpone en la dirección z con los otros dos objetos, el objeto 656 con forma de diamante también se muestra en la imagen 654 sintetizada en 2D. En otras realizaciones, en lugar de completar la anulación del objeto de menor prioridad, el objeto de alta prioridad puede enfatizarse en relación con el objeto de menor prioridad (en lugar de omitirse de la visualización).
En la figura 7A se ilustra otro enfoque para ejecutar múltiples módulos de síntesis de objetos objetivo en un conjunto de cortes de imagen. Como puede verse, en lugar de ejecutar los múltiples módulos de reconocimiento/mejora de objetos objetivo secuencialmente con el último módulo de síntesis de objetos objetivo que tiene la prioridad más alta, todos los módulos de reconocimiento/mejora de objetos objetivo pueden aplicarse en paralelo. En particular, se pueden utilizar uno o más módulos 712 de mejora o fusión para garantizar que los diversos objetos se combinen adecuadamente en la imagen sintetizada en 2D. Este enfoque puede no seguir un enfoque jerárquico y todos los objetos pueden tener la misma ponderación.
Los cortes 702 de imagen se alimentan a través de tres módulos 704, 706 y 708 diferentes de reconocimiento/mejora de objetos objetivo, en paralelo. El primer módulo 604 de reconocimiento/mejora de objetos objetivo (asociado con el objeto de forma cuadrada), el segundo módulo 606 de reconocimiento/mejora de objetos objetivo (asociado con el objeto en forma de diamante) y el tercer módulo 608 de reconocimiento/mejora de objetos objetivo (asociado con el objeto de forma circular) se ejecutan en paralelo en los cortes 702 de imagen. En algunas realizaciones, se puede utilizar un módulo 712 de mejora y fusión para garantizar que los diferentes objetos se fusionen adecuadamente en
caso de superposición entre múltiples objetos. Los módulos 704, 706 y 708 de reconocimiento/mejora de objetos objetivo, ejecutados en paralelo pueden generar la imagen 710 sintetizada en 2D.
Este enfoque para combinar varios tipos de objetos en paralelo se ilustra en la figura 7B. En particular, la pila 752 de tomosíntesis muestra los mismos objetos que la figura 6B (por ejemplo, los objetos 756, 758 y 760) en varios cortes de imagen. Como se ilustra, los objetos 758 y 760 se superponen un poco en la dirección z, lo que significa que es probable que compitan por la representación y/o se superpongan en la imagen 754 sintetizada en 2D. Aquí, debido a que los múltiples módulos de reconocimiento/mejora de objetos objetivo se ejecutan en paralelo, en lugar de que un tipo de objeto anule otro tipo de objeto, como fue el caso en la figura 6B, tanto el objeto 760 cuadrado como el objeto 758 circular se fusionan en la imagen 754 sintetizada en 2D. Por lo tanto, este enfoque no asume una prioridad/jerarquía innata entre los objetos y todos los objetos pueden fusionarse adecuadamente en la imagen 754 sintetizada en 2D.
La figura 8A muestra un diagrama de flujo 800 que ilustra etapas de ejemplo que se pueden realizar en un proceso de combinación de imágenes llevado a cabo de acuerdo con el enfoque de combinación secuencial descrito anteriormente junto con las figuras 6A y 6B. En la etapa 802, se adquiere un conjunto de datos de imagen. El conjunto de datos de imagen se puede adquirir mediante un sistema de adquisición de tomosíntesis, un sistema combinado de tomosíntesis/mamografía, o mediante la recuperación de datos de imágenes preexistentes de un dispositivo de almacenamiento, ya sea ubicado local o remotamente en relación con un dispositivo de visualización de imágenes, por ejemplo, a través de una red de comunicación. En las etapas 804 y 806, para un intervalo de imágenes en 2D (por ejemplo, pila Tr), se ejecuta un primer módulo de reconocimiento/mejora de objetos objetivo para reconocer un primer objeto asociado con el primer módulo de reconocimiento/mejora de objetos objetivo. Cualquier objeto reconocido puede almacenarse en un módulo de almacenamiento asociado con el primer módulo de reconocimiento/mejora de objetos objetivo. En la etapa 808, se ejecuta un segundo módulo de reconocimiento/mejora de objetos objetivo para reconocer un segundo objeto asociado con el segundo módulo de reconocimiento/mejora de objetos objetivo. En la etapa 810, puede determinarse si el primer objeto reconocido y el segundo objeto reconocido se superponen entre sí en la dirección z. Si se determina que los dos objetos se superponen, solo se puede mostrar el segundo objeto (o enfatizar de otro modo sobre el primer objeto) en la imagen sintetizada en 2D en la etapa 812. Si, por otro lado, se determina que los dos objetos no se superponen, ambos objetos se muestran en la imagen sintetizada en 2D en la etapa 814.
La figura 8B muestra un diagrama 850 de flujo que ilustra etapas de ejemplo que se pueden realizar en un proceso de síntesis de imágenes llevado a cabo de acuerdo con el enfoque de combinación paralela descrito anteriormente junto con las figuras 7A y 7B. En la etapa 852, se adquiere un conjunto de datos de imagen. El conjunto de datos de imagen se puede adquirir mediante un sistema de adquisición de tomosíntesis, un sistema combinado de tomosíntesis/mamografía, o mediante la recuperación de datos de imágenes preexistentes de un dispositivo de almacenamiento, ya sea ubicado local o remotamente en relación con un dispositivo de visualización de imágenes. En las etapas 854 y 856, para un intervalo de imágenes en 2D (por ejemplo, pila Tr), todos los módulos de reconocimiento/mejora de objetos objetivo programados se ejecutan para reconocer objetos respectivos en la pila de imágenes Tr. En la etapa 858, también se pueden ejecutar uno o más módulos de mejora para determinar si es necesario que ocurra un proceso de fusión. En la etapa 860, se puede determinar si algún objeto reconocido se superpone en la dirección z. Si se determina que dos (o más) objetos cualesquiera se superponen, los objetos superpuestos se pueden fusionar, en la etapa 862. Si, por otro lado, se determina que ningún objeto se superpone, todos los objetos se muestran tal como están en la imagen sintetizada en 2D en la etapa 814.
Habiendo descrito cómo una pila en 3D de cortes de imagen es generada y procesada por un sintetizador 2D que comprende módulos de reconocimiento/mejora de objetos objetivo para garantizar que una imagen en 2D sintetizada que se muestra a un revisor o usuario final incluye la información clínicamente más relevante, las realizaciones relacionadas para generar imágenes sintetizadas en 2D más claras, con menos sombras o sin sombras se describen con referencia a las figuras 9-24. Las realizaciones descritas con referencia a las figuras 9-24 eliminan o reducen los elementos de alta densidad tales como porciones de imagen que muestran objetos metálicos y/o sombras generadas por formación de imágenes de los mismos dentro de imágenes en 2D adquiridas o proyectadas y/o conjuntos o pilas de cortes en 3D reconstruidos en base a imágenes de proyección en 2D. Con las realizaciones, los elementos de alta densidad, como las sombras, se eliminan o reducen, lo que da como resultado una imagen sintetizada en 2D más clara que muestra con mayor precisión el tejido mamario que se analiza y permite un examen del radiólogo más preciso y eficiente, ya que la información clínicamente relevante no está bloqueada ni oscurecida por las sombras dentro de la imagen sintetizada en 2D.
Haciendo referencia a la figura 9, y haciendo referencia nuevamente a las figuras 1-2, las imágenes reconstruidas Tr forman una pila 902 de tomosíntesis en 3D de cortes 918 de imagen. Como ejemplo no limitativo, una pila 902 de tomosíntesis en 3D puede incluir de 30 a 120 cortes de imagen Tr (por ejemplo, ~60 diapositivas de imagen Tr) derivadas o construidas en base a unas 15 o más imágenes de proyección en 2D Tp adquiridas mediante un componente 101 de adquisición de imágenes de rayos X, tal como una fuente de rayos X y un detector, giran colectivamente alrededor de la paciente o de la mama que se está analizando. La figura 9 muestra una pila 902 de tomosíntesis en 3D que incluye cortes 918 de imagen, por ejemplo, similar a la pila 202 ilustrada en la figura 2. La figura 9 ilustra además un elemento 920 de alta densidad en el tejido 910 mamario y que se extiende a través de
múltiples cortes 918 de imagen. La figura 9 ilustra el elemento 920 de alta densidad extendiéndose a través de dos cortes 918, pero se entenderá que el elemento de alta densidad puede extenderse a varias profundidades.
Un ejemplo de un elemento 920 de alta densidad es un marcador de biopsia o clip metálico, que puede estar hecho de acero inoxidable o titanio u otro material radiopaco o denso. Otro ejemplo de un elemento 920 de alta densidad es un marcador de piel externo. Un elemento 920 de alta densidad también puede ser un componente biológico o tisular dentro del tejido 910 mamario, como una calcificación u otra estructura densa biológica o tisular que oculta otra información u objetos de interés clínicamente relevantes en el tejido 910 mamario. Un elemento 920 de alta densidad también se define para incluir objetos de imagen generados de ese modo que incluyen sombras 922 generadas por formación de imágenes o radiación de un elemento 900 de alta densidad durante la formación de imágenes mamarias. Por lo tanto, un “elemento de alta densidad” puede ser un objeto “extraño” o “externo” que se inserta en el tejido 910 mamario o se une a una superficie 910 externa de la mama o puede ser un material o componente natural del tejido 910 mamario que tiene una densidad suficiente para oscurecer otro tejido mamario que sea información clínicamente relevante del tejido 910 mamario. Para facilitar la explicación y no la limitación, se hace referencia a un elemento 920 de alta densidad y un ejemplo específico de un marcador de biopsia metálico y una sombra 922 generada por la formación de imágenes del marcador 920 de biopsia metálico, pero se entenderá que las realizaciones no son tan limitadas.
El elemento 920 de alta densidad se ilustra extendiéndose a lo largo de múltiples cortes 918 de imagen. Como se ilustra en general en la figura 9, el elemento 920 de alta densidad es más denso que el tejido 910 mamario, de modo que cuando se toman imágenes, se genera una sombra 922, y la sombra 922 (así como el marcador 920 de biopsia metálico) oscurece la mama subyacente y/o el tejido 910 mamario adyacente e información clínicamente relevante sobre el mismo.
En el ejemplo generalmente ilustrado en la figura 9, la sombra 922 generada por la formación de imágenes del marcador 920 de biopsia metálico es una sombra “completa”, “circunferencial” o “global”, ya que la sombra 922 rodea el marcador 920 de biopsia metálico. Las sombras pueden deberse a varios aspectos de la adquisición de imágenes. Por ejemplo, el tipo de sombra 922 generalmente mostrado en la figura 9 puede resultar de uno o más del ángulo limitado de adquisición y reconstrucción de tomosíntesis, también conocido como objeto de reconstrucción, y procesamiento y mejora de imágenes, también conocido como objeto de mejora. La sombra 922 ilustrativa mostrada en la figura 9 se superpone u oscurece 924 objetos de interés o información clínicamente relevante del tejido 910 mamario, tal como lesiones y espiculaciones. La profundidad y las dimensiones de las sombras 922 mostradas en la pila 902 de tomosíntesis en 3d (o en las imágenes de proyección en 2D Tp) resultantes de la formación de imágenes del elemento 920 de alta densidad pueden variar en función de una imagen y/o atributos del material, incluidos los ángulos de la fuente de rayos X utilizada y el número de imágenes de proyección Tp adquiridas, el material del marcador 920 de biopsia metálico y el tamaño, forma y orientación del marcador 920 de biopsia metálico de la que se forman imágenes. Por lo tanto, la figura 9 se proporciona con fines de ilustración general, no de limitación, para ilustrar que un elemento de alta densidad en forma de marcador 920 de biopsia metálico y/o sombra 922 mostrada en una o más imágenes puede oscurecer información clínicamente relevante. Además, la figura 9 ilustra un solo elemento 920 de alta densidad en una pila 902 de tomosíntesis en 3D, pero puede haber múltiples elementos 920 de alta densidad, cada uno de los cuales puede generar su propia sombra 922, y que pueden ser distintos e independientes entre sí o superponerse con otras sombras 922. Por lo tanto, múltiples marcadores 920 y sombras 922 pueden complicar aún más la generación y revisión de imágenes sintetizadas ya que pueden oscurecer información relevante desde múltiples puntos de vista.
Con referencia a la figura 10, las realizaciones de las invenciones proporcionan sistemas 100 de adquisición y procesamiento de imágenes mamarias y métodos 1000 de procesamiento de imágenes de flujo múltiple que abordan las complicaciones con la formación de imágenes de elementos 920 de alta densidad dentro de las imágenes mamarias como se discutió anteriormente con referencia a la figura 9 y proporcionan imágenes más claras y precisas, que han reducido o no tienen sombras para una revisión del radiólogo más precisa y eficiente. La figura 10 ilustra un sistema 100s de visualización y generación de imágenes mamarias (“s” se refiere a un sistema de visualización y generación de imágenes mamarias que “suprime” elementos de alta densidad) construido según una realización y configurado para ejecutar un método 1000 de procesamiento de imágenes diferencial o de flujo múltiple para supresión selectiva de elementos de alta densidad y mejora de alta densidad en imágenes mamarias. Los detalles de varios componentes del sistema 100s y su interoperabilidad, como un sistema 101 de adquisición, un sistema 102 de almacenamiento, un motor 103 de reconstrucción, un sintetizador 104 de imágenes en 2D y una pantalla 105, se analizan anteriormente con referencia a las figuras 1-8B y no se repiten. Diferentes imágenes generadas o procesadas de este modo, incluyendo imágenes adquiridas, imágenes reconstruidas, imágenes sintetizadas, imágenes Tp (una imagen en 2D adquirida en ángulos de tomosíntesis respectivos), imágenes Tr (tipo (o subconjunto) de una imagen reconstruida que se reconstruye a partir de imágenes de proyección de tomosíntesis Tp) y las imágenes Ms (tipo (o subconjunto) de una imagen sintetizada, en particular, una imagen de proyección en 2D sintetizada que simula imágenes de mamografía) también se describen anteriormente con referencia a las figuras 1-8B. Para facilitar la explicación, las realizaciones de las invenciones se describen con referencia a imágenes en 2D adquiridas tales como imágenes de proyección en 2D (por ejemplo, Tp), imágenes reconstruidas (por ejemplo, Tr) o una pila 902 en 3D de cortes 918 de imagen e imágenes en 2D sintetizadas.
En la realización ilustrada, el sistema 100s de visualización y generación de imágenes mamarias incluye un procesador 1000 de imágenes de flujo múltiple que está en comunicación con el motor 103 de reconstrucción y la pantalla 105. El procesador 1000 de imágenes recibe imágenes de entrada o datos 1001 de imágenes digitales de uno o más tipos de imágenes. Los datos 1001 de imagen de entrada (generalmente, los datos 1001 de entrada) pueden ser para imágenes de diferentes formatos dimensionales, tal como imágenes de proyección en 2D y/o una pila 902 de tomosíntesis en 3D de cortes 218 Tp de imagen. Los datos 1001 de entrada se procesan de acuerdo con un primer flujo de procesamiento de imágenes o método 1010, y los mismos datos 1001 de entrada se procesan con un segundo flujo de procesamiento de imágenes o método 1020 diferente del primer flujo de procesamiento o método 1010. La imagen sintetizada en 2D resultante se basa, al menos en parte, en la supresión de elementos de alta densidad y se basa, al menos en parte, en la mejora de elementos de alta densidad, y un elemento 1030 de fusión o combinación de imágenes combina las imágenes sintetizadas en 2D generadas por los flujos o métodos 1010 y 1020 de procesamiento de imágenes respectivos para generar una nueva imagen 1032 compuesta en 2D, que se comunica a la pantalla 105.
Por lo tanto, con el sistema 100 de visualización y generación de imágenes mamarias, los mismos datos 1001 de entrada se procesan de diferentes maneras de acuerdo con diferentes flujos de procesamiento de imágenes para generar diferentes imágenes sintetizadas en 2D, que se fusionan para generar una sola imagen 1034 compuesta sintetizada en 2D.
En la realización ilustrada, el procesador 1000 de imágenes de flujo múltiple procesa los mismos datos 1001 de entrada de diferentes maneras, lo que puede realizarse mediante flujos de procesamiento de imágenes paralelos y simultáneos. En una realización, los datos 1001 de entrada son datos de imágenes de proyección en 2D (Tp). En otra realización, los datos 1001 de entrada son datos de imágenes en 3D de una pila 902 de cortes 908 de imágenes. Los diferentes métodos de procesamiento de imágenes ejecutados en función del tipo de datos de entrada recibidos se describen con mayor detalle a continuación.
Los datos 1001 de entrada recibidos por el procesador de imágenes primero se procesan de diferentes maneras, comenzando con uno o más detectores 1011, 1021 de imágenes. Dos detectores 1011, 1021 de imágenes se ilustran como el comienzo del respectivo primer y segundo flujos 1010, 1020 de procesamiento de imágenes. El detector 1011 de imágenes identifica y diferencia elementos 920 de alta densidad y otros elementos como tejido 910 mamario/fondo. El detector 1021 de imágenes identifica los elementos 920 de alta densidad.
Los detectores 1011, 1021 de imágenes pueden funcionar para distinguir un elemento 920 de alta densidad del tejido 910 mamario u otras porciones de imagen basándose en filtros o criterios predeterminados que implican, por ejemplo, uno o más atributos de contraste, brillo y radiopacidad de la imagen. Por ejemplo, el elemento 920 de alta densidad puede asociarse con atributos de alto contraste y brillo en comparación con el tejido mamario o el fondo 910 y, por lo tanto, identificarse como un elemento de alta densidad. Los criterios de detección pueden implicar un grupo de píxeles o píxeles adyacentes que tengan características comunes, por ejemplo, contraste o brillo dentro de un cierto intervalo, de modo que el grupo se identifique como un elemento de alta densidad. Los detectores de imágenes también pueden distinguir un elemento 920 de alta densidad del mejor tejido basándose en datos de forma, orientación y/o ubicación. Por ejemplo, el procesador 1000 de imágenes puede estar provisto de especificaciones de marcadores de biopsia metálicos conocidos. Estos datos se pueden usar junto con datos de imágenes o píxeles de modo que las porciones de imagen que tienen propiedades similares también forman una forma similar a una forma conocida de un marcador de biopsia, esos píxeles se identifican como que muestran un elemento 920 de alta densidad. Como otro ejemplo, otro factor que se puede utilizar para diferenciar un elemento 920 de alta densidad es que los marcadores de piel normalmente se unen a una superficie exterior de la mama en lugar de insertarse en el tejido de la mama. Por lo tanto, los píxeles que tienen propiedades similares y que están ubicados en una superficie exterior indicativa de un marcador de piel externo se identifican como un elemento 920 de alta densidad. Los datos de ubicación también pueden ser un factor, por ejemplo, si se inserta un determinado marcador en una región particular del tejido mamario. En consecuencia, se entenderá que las porciones de imagen correspondientes a elementos de alta densidad y las porciones de imagen correspondientes al tejido mamario o al fondo 910 pueden diferenciarse o detectarse de varias formas usando varios filtros, criterios y/o algoritmos más sofisticados, como algoritmos de aprendizaje automático en base a características, o algoritmo de red neuronal convolucional profundo.
El detector 1011 de imágenes está en comunicación con un módulo 1012 de supresión de elementos de alta densidad, y el detector 1012 de imágenes está en comunicación con un módulo 1024 de mejora de alta densidad, de modo que los respectivos resultados de detección se proporcionan a los respectivos módulos 1012, 1022 de supresión y mejora. Las salidas respectivas de los respectivos módulos 1012, 1022 de mejora y supresión de elementos de alta densidad se proporcionan como entradas a los respectivos sintetizadores 1014, 1024 de imágenes en 2D.
De acuerdo con una realización, el sintetizador 1014 de imágenes en 2D utilizado en el primer flujo 1010 de procesamiento de imágenes y que se ejecuta en porciones de imagen suprimidas de elementos de alta densidad funciona de la misma manera que el sintetizador 104 de imágenes en 2D que ejecuta módulos 110a-n de mejora y reconocimiento de objetos como se discutió anteriormente con referencia a las figuras 1-8B, excepto que el sintetizador 1014 de imágenes en 2D recibe datos de imágenes suprimidas de alta densidad. El sintetizador de imágenes en 2D del primer flujo de procesamiento de imágenes 1010 se denomina así sintetizador 104sup de imágenes en 2D (“sup” se refiere al elemento de alta densidad “suprimido”). Por lo tanto, el sintetizador 1014 de imágenes en 2D está
configurado para procesar datos suprimidos de elementos de alta densidad mientras proporciona mejora y reconocimiento de objetos de tejido mamario a través de los módulos 1, 10a-n.
Por el contrario, el sintetizador 1024 de imágenes en 2D no implica supresión de elementos de alta densidad o datos suprimidos de elementos de alta densidad, y en su lugar procesa datos de imágenes mejoradas de elementos de alta densidad sin mejorar el tejido mamario. De esta manera, el enfoque del sintetizador 1024 de imágenes en 2D es el elemento 920 de alta densidad de datos de imagen mejorada en lugar de la mejora del tejido 910 mamario, de modo que el sintetizador 1024 de imágenes en 2D también puede denominarse sintetizador 104mej de imágenes en 2D (“mej” se refiere al elemento de alta densidad “mejorado”). Para este propósito, el sintetizador 1024 de imágenes en 2D puede no incluir módulos de mejora y reconocimiento de objetos 110a-n o estos módulos 110a-n de mejora y reconocimiento de objetos pueden estar desactivados. Por lo tanto, el sintetizador 1024 de imágenes en 2D está configurado para procesar datos mejorados de elementos de alta densidad mientras que el tejido mamario no está mejorado.
El sintetizador 1014/104sup de imágenes en 2D genera una imagen 1016 sintetizada en 2D que incorpora datos de mejora de tejido mamario y supresión de elementos de alta densidad, y el sintetizador 1024/104mej de imágenes en 2D genera una imagen 1026 sintetizada en 2D diferente que incorpora datos de mejora de elementos de alta densidad. Estas diferentes imágenes 1016, 1026 sintetizadas en 2D se proporcionan como entradas a un elemento 1030 de fusión o combinación de imágenes, que combina o fusiona las imágenes 1014, 1024 sintetizadas en 2D para generar una imagen 1032 sintetizada compuesta en 2D que incorpora elementos de ambas imágenes 1014, 1024 sintetizadas en 2D. Los métodos de procesamiento de imágenes de flujo múltiple que involucran diferentes tipos de datos 1001 de entrada e imagen intermedia y el procesamiento asociado que involucra diferentes formatos dimensionales y configuraciones de imágenes o cortes se describen con mayor detalle con referencia a las figuras 11-24.
Haciendo referencia a la figura 11, en un método 1100 de procesamiento de imágenes de flujo múltiple ejecutado por el sistema 100s de adquisición y procesamiento de imágenes mamarias según una realización, en 1102, los datos 1001 de entrada digital de una o más imágenes de tejido mamario se alimentan como entrada a un procesador 1000 de imágenes diferenciales o de flujo múltiple del sistema 100s de generación y visualización de imágenes, tal como un sistema de tomosíntesis. En 1104, se identifican o detectan porciones de imagen que muestran tejido 910 mamario y porciones de imagen que muestran elementos 920 de alta densidad. Un primer flujo 1010 de procesamiento de imágenes se ejecuta en los datos de entrada para generar la primera imagen 1016 sintetizada en 2D.
Con referencia a la figura 12, el primer flujo 1010 de procesamiento de imágenes o método, o flujo de supresión de metal, incluye porciones de imagen mejoradas que muestran tejido 910 mamario en 1202, mientras que porciones de imagen que muestran un elemento 920 de alta densidad, tal como un marcador 920 de biopsia metálico y/o una sombra 922 se suprimen, reemplazan o eliminan en 1204. En 1206, se construye un primer conjunto o pila de cortes de imagen en 3D (por ejemplo, cortes Tr) que incorporan tejido mamario mejorado y porciones de imagen de elementos de alta densidad suprimidas, y en 1208, se genera una primera imagen 1016 sintetizada en 2D en base al menos en parte a primera pila de cortes de imagen en 3D.
Con referencia a la figura 13, el segundo método 1020 de procesamiento de imágenes es diferente del primer método 1010 de procesamiento de imágenes y se ejecuta en los mismos datos 1001 de entrada. El segundo método 1020 de procesamiento de imágenes genera una segunda imagen 1026 sintetizada en 2D diferente. En 1302, se enfatizan las porciones de imagen que muestran elementos 920 de alta densidad (sin realce del tejido mamario, o quitando énfasis al tejido mamario), en 1304, se genera un segundo conjunto de cortes de imagen en 3D en base al menos en parte a porciones de imagen mejoradas que muestran elementos de alta densidad. En 1306, la segunda imagen 1026 sintetizada en 2D se genera en base al menos en parte al segundo conjunto de cortes de imágenes en 3D.
Haciendo referencia de nuevo a la figura 11, en 1110, la primera y segunda imágenes 1016, 1026 sintetizadas en 2D se combinan o fusionan para generar una imagen 1032 sintetizada compuesta, y en 1112, la imagen 1032 sintetizada compuesta se presenta a través de la pantalla 105 del sistema 100 de generación y visualización de imágenes a un radiólogo o usuario final.
Con referencia a la figura 14 y con referencia adicional a la figura 15, se describe una realización de un método 1400 para procesar imágenes mamarias utilizando la configuración del sistema 100s que se muestra en la figura 10 y como se describe con referencia a las figuras 11-13. En el método 1400, el método 1000 de procesamiento de imágenes de flujo múltiple se ejecuta en una entrada de una pila en 3D reconstruida de cortes de imagen en los que el tejido 910 mamario y los elementos 920 de alta densidad son visibles. Por lo tanto, en esta realización, se proporciona una pila 1506 de cortes de imagen en 3D en lugar de imágenes 1502 de proyección en 2D como una entrada 1501 al procesador 1500 de imágenes de modo que el método 1500 de procesamiento de imágenes de flujo múltiple no se ejecuta en imágenes 1502 de proyección en 2D.
En 1402, se activa el componente 101 de adquisición de imágenes (por ejemplo, el dispositivo de rayos X del sistema de tomosíntesis digital) y en 1404, se adquiere una pluralidad de imágenes 1502 en 2d de la mama de la paciente. Por ejemplo, en un sistema de tomosíntesis, se pueden adquirir aproximadamente 15 imágenes 1502 de proyección en 2D Tp en ángulos respectivos entre la mama y el detector de fuente de rayos X. Se entenderá que se proporcionan
15 imágenes de proyección en 2D como ejemplo de cuántas imágenes de proyección se pueden adquirir, y también se pueden utilizar otros números, mayores y menores que 15. En 1406, si es necesario, las imágenes 1502 adquiridas o proyectadas son almacenadas por el componente 101 de adquisición en un almacén 102 de datos para su recuperación posterior, que puede ser desde un almacén 102 de datos que es remoto en relación con el procesador 1000 de imágenes y a través de una red de comunicación.
En 1408, se ejecuta la reconstrucción 1504 de imagen de proyección en 2D para generar una pila 15083D de cortes 1506 de imagen Tr (por ejemplo, ~60 cortes de imagen en el ejemplo ilustrativo). En 1410, el primer detector 1511 del primer flujo 1510 de procesamiento de imágenes identifica porciones de cortes 1506 de imagen en 3D de entrada que muestran tejido 910 mamario y porciones de cortes 1506 de imagen que muestran elementos 920 de alta densidad (por ejemplo, objeto metálico o calcificación, o sombra) generados por elemento 920 de imagen de alta densidad en o sobre la mama. Un segundo detector 1521 identifica un elemento 920 de alta densidad. Para estos fines, el procesador 1500 de imágenes puede utilizar uno o más criterios o filtros como se describe anteriormente para identificar y diferenciar el tejido mamario o el fondo 910 y las porciones de imagen de elementos 920 de alta densidad en la pila 1506 en 3D.
Continuando con la referencia a las figuras 14-15, en 1412, el primer flujo 1510 de procesamiento de imágenes implica la supresión de elementos 1512 de alta densidad de la pila 1508 de entrada, cuyo resultado es la generación de una primera pila 1513 en 3D procesada en la que un elemento 920 de alta densidad es suprimido o eliminado.
La figura 16 ilustra con mayor detalle una manera en la que se puede ejecutar la supresión 1512 de elementos de alta densidad en la pila 1508 en 3D de entrada y también cómo se puede generar una máscara opcional para su uso posterior en la generación de una imagen 1032 compuesta sintetizada en 2D. En la realización ilustrada, el primer flujo 1510 de procesamiento de imágenes en la entrada 1501 de los cortes 1506 de imagen en 3D implica la detección de porciones de cortes 1506 de imagen que muestran un elemento 920 de alta densidad, como un marcador de biopsia metálico en 1602, la segmentación o la identificación de píxeles de la imagen detectada. porciones de elementos 920 de alta densidad en 1604, y en 1606, se puede generar una máscara de segmentación en base a los resultados de la segmentación. La máscara se puede utilizar posteriormente al generar una imagen 1032 compuesta sintetizada en 2D. En 1608, las porciones segmentadas se suprimen o eliminan de los cortes de imagen de la pila en 3D para la supresión de elementos de alta densidad. Esto se puede hacer por interpolación o reemplazando porciones segmentadas con otras porciones muestreadas del fondo del corte de imagen. La supresión del elemento de alta densidad da como resultado la eliminación de porciones de imagen del elemento 920 de alta densidad de la pila 1508 en 3D de cortes de imagen, de modo que el elemento 920 de alta densidad no sería perceptible visualmente para un radiólogo, o perceptible visualmente o en menor grado. Por lo tanto, el resultado 1610 final del proceso de supresión es una pila 1610 en 3D procesada de cortes de imágenes de reconstrucción, o cortes de tejido mamario suprimido con metal, en el que las porciones de imagen de tejido 910 mamario se mantienen mientras se suprimen o eliminan porciones de imagen de elementos 920 de alta densidad, mientras generando también una “máscara de alta densidad” separada.
La figura 17 ilustra con mayor detalle una manera en la que se puede ejecutar la mejora de elementos 1522 de alta densidad dentro de la pila 1508 en 3D de entrada y también cómo se puede generar una segmentación opcional o máscara de píxeles para su uso posterior en la generación de una imagen 1032 compuesta sintetizada en 2d . En la realización ilustrada, el segundo flujo 1520 de procesamiento de imágenes en los cortes 1501 de imagen en 3D de entrada implica la detección de porciones de cortes de imagen que muestran un elemento 920 de alta densidad, como un marcador de biopsia metálico en 1702, la segmentación de las porciones de elementos de alta densidad detectadas en 1704, y en 1706, se puede generar una máscara de segmentación y se puede utilizar posteriormente al generar una imagen 1032 compuesta sintetizada en 2D. La información de segmentación 1704 de metal se puede registrar como una máscara 1706 de segmentación de metal, y las máscaras de diferentes cortes se pueden combinar en una única máscara de metal 2D, que es una salida lateral del módulo 1524 de sintetizador de metal. Como ejemplo, en el caso de usar una máscara binaria, dentro de esta imagen de máscara de metal 2D, las regiones de elementos de alta densidad se marcan con 1 y las regiones de tejido mamario o de fondo se marcan con 0. También se pueden utilizar diferentes configuraciones o diseños de máscara para estos fines utilizando otras o múltiples etiquetas en lugar de solo etiquetas binarias “0” y “1”. En 1708, las porciones segmentadas se aíslan y enfatizan o mejoran en porciones de imagen de la pila en 3D. La mejora 1708 de elementos de alta densidad puede ejecutarse usando, por ejemplo, proyección de máxima intensidad o “MIP”. El resultado 1710 final generado por el módulo de mejora de metal es una pila 1523 de cortes de imagen de reconstrucción 3D en la que las porciones 910 de imagen de tejido mamario no se procesan o no se mejoran, y los elementos 920 de alta densidad se mejoran o enfatizan.
Con referencia nuevamente a las figuras 10 y 14-15, en 1414, el procesador 1000 de imágenes de flujo múltiple ejecuta el primer sintetizador 1514 de imágenes en 2D que recibe la pila 1513 procesada o suprimida de metal de cortes de imágenes en 3D como entrada. El primer sintetizador 1514 de imágenes en 2D genera una imagen 1515 sintetizada en 2D en base a las porciones de imagen de alta densidad suprimidas de la pila en 3D suprimida de metal mientras mejora o enfatiza porciones de imagen de tejido mamario mediante el uso de los módulos de reconocimiento/mejora de objetos objetivo (por ejemplo, 110a, 110b ... 110n), cada uno configurado para reconocer y mejorar un tipo particular de objeto. El primer sintetizador 1514 de imágenes en 2D puede operar de la misma manera que el sintetizador 104 de imágenes en 2D discutido anteriormente, excepto que el sintetizador de imágenes en 2D recibe datos de imágenes
resultantes de la supresión de elementos 1512 de alta densidad. Como se discutió anteriormente con referencia a las figuras 1-8B, los módulos 110a-n de reconocimiento/mejora de objetos objetivo están configurados para identificar el objeto respectivo (si hay alguno presente) en ellos de modo que las imágenes sintetizadas en 2D resultantes incluyan información clínicamente significativa.
Continuando con la referencia a las figuras 14-15 y con referencia adicional a la figura 18, el procesador 1000 de imágenes de flujo múltiple ejecuta el segundo sintetizador 1524/1801 de imágenes en 2D que recibe la pila 1523 procesada o mejorada con metal de cortes de imágenes en 3D como entrada para generar una imagen 1525/1802 en 2D sintetizada en base a las porciones de imagen de alta densidad mejoradas de la pila en 3D mejorada de metal mientras que otras porciones de tejido mamario o de fondo se mantienen o no se mejoran, o incluso se reducen, por ejemplo, reduciendo el brillo de las mismas. Para este propósito, el segundo sintetizador 1524 de imágenes en 2D no incluye, o desactiva, módulos de reconocimiento/mejora de objetos objetivo (por ejemplo, 110a, 110b... 110n) de manera que estos análisis y mejoras del tejido mamario no se realizan y no son necesarios en vista de una estructura del elemento 920 de alta densidad. Por ejemplo, un marcador de biopsia metálico puede tener una forma geométrica menos compleja (por ejemplo, un cilindro) o suele ser menos complejo que el tejido mamario. Por ejemplo, en lugar de emplear un reconocimiento/mejora 110a-n de objeto objetivo más complicado, el segundo flujo de procesamiento de imágenes en el que se mejoran los elementos 920 de alta densidad puede implementar algoritmos de procesamiento de imágenes simples como la proyección de intensidad media o la proyección de intensidad máxima como base. método para combinar una pila en 3D de cortes de objetos metálicos en una imagen sintetizada en 2D de un solo objeto 1810 metálico, que puede almacenarse en una memoria intermedia. El resultado generado por el segundo sintetizador 1524/1801 en 2D generalmente se ilustra mediante el objeto de alta densidad que aparece como un “punto” en la imagen 15251802 sintetizada en 2D en la figura 18.
La figura 18 también ilustra la imagen 1802 sintetizada en 2D que incluye varios objetos 1810 resultantes de imperfecciones en los procesos de segmentación y detección de metales. Las operaciones 1803 morfológicas (por ejemplo, dilatación y/o erosión de píxeles) se pueden ejecutar en la imagen 1802 sintetizada 2D para limpiar estos objetos 1810 suavizando el límite del objeto de alta densidad para hacer que el límite en la imagen 1525/1804 en 2D resultante sea más preciso y visualmente más atractivo.
Con referencia nuevamente a las figuras 14-15, habiendo generado una primera imagen 1515 sintetizada en 2D en base al menos en parte a la primera pila de cortes de imagen en 3D y una segunda imagen 1525 sintetizada en 2D en base al menos en parte a la segunda pila de cortes de imagen en 3D, en 1420 , estas primeras y segundas imágenes 1515, 1525 intermedias sintetizadas en 2D, generadas por los respectivos primer y segundo flujos 1510, 1520 de procesamiento de imágenes se fusionan o combinan 1530 para generar una imagen 1532 sintetizada final o compuesta en 2D, que se presenta a un radiólogo o usuario final a través de la pantalla 105 en 1422. Según una realización, la combinación 1530 de imágenes puede implicar seleccionar las mejores señales de datos de imágenes sintetizadas 2D de cada memoria intermedia de imágenes sintetizadas y garantizar que la transición entre el tejido 910 mamario y el elemento 920 de alta densidad sea perfecta. La imagen 1532 sintetizada compuesta en 2d está visualmente libre de objetos de sombras 920, de modo que los objetos de sombras no deseados no oscurecen información clínicamente importante mientras que también incluyen tejido mamario mejorado o fondo y delimitaciones nítidas entre tejido 910 mamario y elementos 920 de alta densidad.
Con referencia a la figura 19, de acuerdo con una realización de combinar 1030 la primera y la segunda imágenes 1515, 1525 en 2D sintetizadas, la máscara 1900 de metal 2D generada por segmentación como se discutió anteriormente puede utilizarse para la combinación 1902 modulada o proyección de máxima intensidad o combinación “MIP” de las primeras y segundas imágenes 1515, 1525 intermedias sintetizadas en 2D para generar la imagen 1532 sintetizada compuesta en 2D. Esta realización extrae esencialmente las señales o porciones de imagen de cada memoria intermedia de imagen 1515, 1525 sintetizada en 2D para una transición perfecta entre el tejido 910 mamario y los elementos 920 de alta densidad, de modo que la imagen 1032 compuesta en 2D resultante sea visualmente nítida, libre de elementos de sombra de alta densidad mientras proporciona un fondo óptimo de tejido mamario.
Las figuras 20A-B ilustran un ejemplo de cómo se pueden ejecutar realizaciones de procesamiento de imágenes de flujo múltiple para generar una imagen 1032 compuesta sintetizada en 2D que es visualmente nítida y clara con objetos de sombra 922 reducidos o eliminados. La figura 21B ilustra una imagen 1032 sintetizada en 2D que se construye de acuerdo con el procesamiento de imágenes de flujo múltiple de realizaciones que elimina los objetos de sombra 922 que oscurecen en comparación con la figura 21A, que incluye varios objetos de sombra 922 alrededor del marcador 920 de biopsia metálico. El resultado final de una imagen 1032 compuesta de síntesis 2D generada de acuerdo con las realizaciones es nítido y libre de sombras 922 mientras que el tejido mamario o el fondo 910 también se mejora.
Ciertas realizaciones descritas anteriormente con referencia a las figuras 10-20B implican que el procesador 1500 de imágenes de flujo múltiple reciba imágenes reconstruidas o generadas o una pila 1508 en 3D de cortes 1506 de imagen (por ejemplo, ~60 cortes reconstruidos) como una entrada 1001 tal que el procesamiento de imágenes de flujo múltiple se ejecuta en la misma pila 1508 en 3D. La pila 1508 en 3D se genera en base a imágenes 1502 de proyección en 2D adquiridas, que no se proporcionan como entrada 1001 al procesador 1000 de imágenes en estas realizaciones. Por lo tanto, el procesamiento de imágenes de múltiples flujos no se ejecuta en las imágenes 1502 de proyección en 2D en estas realizaciones. En otras palabras, el procesamiento de imágenes de flujo múltiple se ejecuta directamente
en la pila 1508 de cortes de imagen en 3D, pero no en las imágenes 1502 de proyección en 2D en las que se basa la pila 1508 de cortes de imagen en 3D, y se ejecuta el procesamiento de imágenes de flujo múltiple después de la reconstrucción 1504. Otras realizaciones pueden implicar que el procesador 1000 de imágenes reciba entradas de diferentes tipos de imágenes y formatos dimensionales.
Por ejemplo, en otras realizaciones, el procesador de imágenes de flujo múltiple recibe una entrada de imágenes de proyección en 2D de manera que el procesamiento de imágenes de flujo múltiple se ejecuta directamente en las imágenes de proyección en 2D en lugar de la pila en 3D de cortes de imagen que finalmente se genera después de la reconstrucción. Se proporcionan diferentes pilas en 3D de cortes de imágenes como entradas respectivas a los respectivos sintetizadores de imágenes en 2D después de que se haya ejecutado el procesamiento de supresión y mejora en las imágenes de proyección en 2D. Por lo tanto, en ciertas realizaciones, la supresión y mejora de elementos de alta densidad ocurren después de la reconstrucción 1504 de una pila 1508 en 3D de cortes 1506 de imagen, mientras que, en otras realizaciones, la supresión y mejora de elementos de alta densidad ocurren antes de la reconstrucción de una pila en 3D de cortes de imagen. Con referencia a las figuras 21-24 se describen realizaciones alternativas de procesamiento de imágenes de múltiples flujos que implican la ejecución de realizaciones de procesamiento de imágenes usando imágenes de proyección en 2D como entrada al procesador de imágenes. Los componentes del sistema y su interoperabilidad descritos anteriormente no se repiten.
Haciendo referencia a las figuras 21-22, en un método 2100 de procesamiento de imágenes según otra realización, en 2102, se activa el componente 101 de adquisición de imágenes (por ejemplo, un dispositivo de rayos X) del sistema 100s de generación y visualización de imágenes, y en 2104, una pluralidad de imágenes en 2D de la mama 2201 de la paciente (por ejemplo, ~15 imágenes de proyección en ángulos respectivos entre la mama y el detector de fuente de rayos X). En 2106, las imágenes 2201 de proyección en 2D se almacenan en un almacén 102 de datos, y en 2108, los datos de imágenes digitales de las imágenes 2201 de proyección en 2D se reciben del almacén 102 de datos y se proporcionan como entrada al procesador 2200 de imágenes de flujo múltiple del sistema 100s de generación y visualización de imágenes. En 2210, un primer módulo 2211 de detección identifica porciones de imagen 2201 de proyección en 2D individuales que muestran tejido 910 mamario y porciones de imagen 2201 de proyección en 2D individuales que muestran elementos 920 de alta densidad (por ejemplo, marcador de biopsia metálico o sombra) generados al formar imágenes del marcador de biopsia metálico, y un segundo módulo 2221 de detección identifica porciones de imagen 2201 de proyección en 2D individuales que muestran elementos 920 de alta densidad (por ejemplo, objeto metálico o sombra) generados al formar imágenes de objetos de alta densidad en o sobre la mama.
En 2212, el primer método 2210 de procesamiento de imágenes o flujo que incluye la supresión de elementos 2212 de alta densidad se ejecuta en las imágenes 2201 de proyección en 2D de entrada para generar imágenes de proyección en 2D procesadas/elementos 2213 de alta densidad suprimidos, y en 2214, el segundo método 2220 de procesamiento de imágenes o flujo que incluye la mejora de elementos 2222 de alta densidad se ejecuta en las imágenes 2201 de proyección en 2D de entrada para generar imágenes de proyección en 2D procesadas/mejoradas de elementos 2223 de alta densidad.
En ciertas realizaciones, todas las imágenes 2201 de proyección en 2D de entrada se suprimen de alguna manera, mientras que, en otras realizaciones, solo ciertas imágenes 2201 de proyección en 2D de entrada están sujetas a supresión 2212 de alta densidad, por ejemplo, solo aquellas determinadas para incluir al menos una parte de un elemento 920 de alta densidad. Por lo tanto, en ciertas realizaciones, la supresión 2212 de alta densidad y la mejora 2222 de alta densidad se ejecutan antes de cualquier reconstrucción de imagen en una pila en 3D de cortes de imagen. Además, en una realización, cada imagen 2201 de proyección en 2D de entrada se procesa de manera que el conjunto de imágenes 2213, 2223 de proyección en 2D procesadas es el mismo que el número de imágenes 2201 de proyección en 2D de entrada, pero se entenderá que las realizaciones no son tan limitadas. Por ejemplo, la cantidad 2201 de imágenes de proyección en 2D de entrada que están sujetas a la supresión 2212 de elementos de alta densidad y la mejora 2213 puede ser menor que la cantidad de imágenes 2201 de proyección en 2D de entrada si solo aquellas imágenes 2201 de proyección en 2D de entrada que se determina que incluyen un elemento 920 de alta densidad se procesan. Así, por ejemplo, la adquisición de imágenes puede dar como resultado 15 imágenes 2201 de proyección en 2D de entrada, solo ocho de las cuales contienen al menos una parte de un elemento 920 de alta densidad, en cuyo caso solo esas ocho imágenes 2201 de proyección en 2D de entrada se procesan para la supresión 2212 y la mejora 2222 del elemento de alta densidad. Las siete imágenes 2201 de proyección en 2D de entrada restantes pueden volver a unirse con las ocho que se procesaron para un conjunto de 15 imágenes de proyección antes de la reconstrucción y generación de una pila en 3D.
En consecuencia, la supresión 2212 y la mejora 2222 de elementos de alta densidad pueden ejecutarse antes de cualquier reconstrucción de imagen en 3D, en todas las imágenes 2201 de proyección en 2D del conjunto de entrada, o en imágenes 2201 de proyección en 2D seleccionadas del conjunto de entrada, por ejemplo, aquellas determinadas para contener elementos 2211 de alta densidad por el detector, ya que un objeto metálico o una sombra 920 generada de ese modo puede no estar presente en ciertas imágenes dependiendo del tamaño, la ubicación y la orientación y la posición del elemento de alta densidad en relación con una fuente de radiación y un detector utilizados para la formación de imágenes. Además, el número de imágenes 2213, 2223 de proyección en 2D procesadas después de la supresión 2212 y la mejora 2222 puede ser el mismo que el número de imágenes 2201 de proyección en 2D de entrada, incluso si solo algunas de las imágenes 2201 de proyección en 2D de entrada se procesan, ya que las
imágenes 2201 de proyección en 2D de entrada sin procesar pueden agregarse al conjunto procesado.
Continuando con la referencia a las figuras 21-22, habiendo generado el conjunto de imágenes 2213, 2223 de proyección en 2D procesadas, en 2216, se genera una primera pila 2214 de cortes de imagen en 3D (por ejemplo, ~60 cortes de imagen) en base al menos en parte al primer conjunto de imágenes 2213 de proyección en 2D procesadas (por ejemplo, ~15 imágenes) que implican la supresión de elementos 2212 de alta densidad, y en 2218, se genera una segunda pila 2224 de cortes de imágenes en 3D en base al menos en parte al segundo conjunto de imágenes 2223 de proyección en 2D procesadas que implica la mejora de elementos 2222 de alta densidad.
Habiendo construido la primera y segunda pilas 2214, 2224 de imágenes en 3D, estas pilas son luego procesadas en 2120, 2122 por los respectivos sintetizadores 2215, 2225 de imágenes en 2D para generar respectivas primeras y segundas imágenes 2216, 2226 en 2D sintetizadas en base al menos en parte a las respectivas primera y segunda pilas 2214, 2224. En 2124, las operaciones morfológicas pueden ejecutarse en la segunda imagen 2226 sintetizada en 2D según sea necesario para dilatar o erosionar los bordes de la imagen de las porciones de imagen mejorada que muestran elementos de alta densidad según sea necesario, y en 2226, la primera y segunda imágenes 2216, 2226 sintetizadas en 2D se fusionan o combinan 2230 para generar una imagen compuesta en 2D en 2232, que se presenta al radiólogo o al usuario final a través de una pantalla 105.
Las figuras 23-24 ilustran adicionalmente cómo se ejecutan los respectivos procesamientos de supresión 2212 y mejora 2222, y son similares al procesamiento descrito con referencia a las figuras 15-17 anteriores, excepto que la detección, segmentación y supresión (figura 16) y la supresión (figura 17) se basan en entradas de imágenes 1502 de proyección en 2D de entrada individual en lugar de en una pila en 3D de entrada de cortes de imagen, las máscaras 2306, 2406 resultantes generadas por segmentación son una máscara para una imagen individual como se muestra en las figuras 23-24 en lugar de una pila de cortes de imagen en 3D como se muestra en las figuras 15-17, y el resultado o salida del procesamiento de supresión y mejora es una imagen de proyección en 2D procesada suprimida o mejorada como se muestra en la figura 22 en lugar de una salida de una pila en 3D suprimida de elementos de alta densidad.
Habiendo descrito realizaciones ejemplares, se puede apreciar que los ejemplos descritos anteriormente y mostrados en las figuras adjuntas son solo ilustrativos, y que otras realizaciones y ejemplos también están incluidos dentro del alcance de las reivindicaciones adjuntas. Por ejemplo, aunque los diagramas de flujo proporcionados en las figuras adjuntas son ilustrativos de pasos ejemplares; el proceso global de combinación de imágenes se puede lograr de diversas maneras usando otros métodos de combinación de datos conocidos en la técnica. Los diagramas de bloques del sistema son únicamente representativos de manera similar, e ilustran delineaciones funcionales que no deben verse como requisitos limitantes de las invenciones divulgadas. También será evidente para los expertos en la técnica que se pueden realizar varios cambios y modificaciones en las realizaciones mostradas y/o descritas (por ejemplo, las dimensiones de varias partes), sin apartarse del alcance de las invenciones divulgadas, que es para definirse únicamente por las siguientes reivindicaciones y sus equivalentes. La memoria descriptiva y los dibujos, en consecuencia, deben considerarse con carácter ilustrativo y no en sentido restrictivo.
Claims (15)
1. Método (1100) implementado por ordenador para procesar imágenes de tejido mamario, comprendiendo el método implementado por ordenador:
alimentar (1102) datos de imagen de una pluralidad de imágenes de una mama como una entrada a un procesador de imágenes de un sistema de visualización y generación de imágenes;
identificar (1104), mediante el procesador de imágenes, porciones de imagen que muestran tejido mamario y porciones de imagen que muestran un elemento de alta densidad generado mediante la formación de imágenes del objeto de alta densidad junto con tejido mamario;
ejecutar (1106), mediante el procesador de imágenes, un primer método de procesamiento de imágenes que comprende: mejorar las porciones de imagen identificadas que muestran el tejido mamario, suprimir las porciones de imagen identificadas que muestran el elemento de alta densidad y generar una primera imagen sintetizada bidimensional (2D) en base al menos en parte a porciones de imagen de tejido mamario mejoradas y porciones de imagen de elementos de alta densidad suprimidas;
ejecutar (1108), mediante el procesador de imágenes, un segundo método de procesamiento de imágenes que comprende: mejorar porciones de imagen identificadas que muestran el elemento de alta densidad y generar una segunda imagen sintetizada en 2D en base al menos en parte a porciones de elementos de alta densidad mejoradas;
combinar (1110), mediante el procesador de imágenes, la primera imagen sintetizada en 2D generada por el primer método de procesamiento de imágenes y la segunda imagen sintetizada en 2D generada por el segundo método de procesamiento de imágenes para generar una imagen sintetizada compuesta en 2D; y presentar (1112) la imagen sintetizada compuesta en 2D a través de una pantalla del sistema de generación y visualización de imágenes.
2. Método implementado por ordenador según la reivindicación 1, que comprende además, antes de generar la primera imagen sintetizada en 2D y generar la segunda imagen sintetizada en 2D:
generar, mediante el procesador de imágenes, un primer conjunto tridimensional (3D) de cortes de imágenes en base al menos en parte a imágenes de tejido mamario mejoradas y porciones de imagen de elementos de alta densidad suprimidas, y generar un segundo conjunto en 3D de cortes de imágenes en base al menos en parte a porciones de imagen de elementos de alta densidad mejoradas,
en el que la primera imagen en 2D sintetizada se genera en base al menos en parte al primer conjunto en 3D de cortes de imagen, y la segunda imagen en 2D sintetizada se genera en base al menos en parte al segundo conjunto en 3D de cortes de imagen.
3. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, que comprende además:
activar, por parte del sistema de generación y visualización de imágenes, un componente de adquisición de imágenes de rayos X;
adquirir, mediante el componente de adquisición de imágenes de rayos X, la pluralidad de imágenes mamarias
en el que preferiblemente los datos de imagen de la pluralidad de imágenes adquiridas mediante el componente de adquisición de imágenes de rayos X se alimentan como entrada al procesador de imágenes o que comprende además el componente de adquisición de imágenes de rayos X que almacena los datos de imagen en un almacén de datos, en el que el procesador de imágenes recibe los datos de imagen del almacén de datos, más preferiblemente, en el que el procesador de imágenes recibe los datos de imagen del almacén de datos a través de una red de comunicación.
4. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, en el que la entrada al procesador de imágenes comprende datos de imagen de una pluralidad de imágenes de proyección en 2D adquiridas mediante un componente de adquisición de rayos X del sistema de generación y visualización de imágenes en ángulos respectivos entre la mama y el componente de adquisición de imágenes de rayos X, en el que el primer método de procesamiento de imágenes y el segundo método de procesamiento de imágenes se ejecutan en datos de imagen de las imágenes de proyección en 2D,
preferiblemente que comprende además generar, mediante el procesador de imágenes, un primer conjunto
en 3D de cortes de imagen en base a imágenes de proyección en 2D procesadas por el primer método de procesamiento de imágenes, y generar un segundo conjunto en 3D de cortes de imagen en base a imágenes de proyección en 2D procesadas por el segundo método de procesamiento de imágenes, en el que la primera imagen sintetizada en 2D se genera en base al menos en parte al primer conjunto en 3D de cortes de imagen, y la segunda imagen sintetizada en 2D se genera en base al menos en parte al segundo conjunto en 3D de cortes de imagen, incluso más específicamente, en el que más preferiblemente la supresión de metal del primer método de procesamiento de imágenes y la mejora de metal del segundo método de procesamiento de imágenes no se ejecutan en el primer conjunto en 3d de cortes de imagen o el segundo conjunto en 3D de cortes de imagen.
5. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, que comprende además:
activar, por parte del sistema de visualización y generación de imágenes, un componente de adquisición de imágenes de rayos X y adquirir, mediante el componente de adquisición de imágenes de rayos X, una pluralidad de imágenes de proyección en 2D adquiridas en ángulos respectivos entre la mama y un componente de adquisición de imágenes de rayos X;
generar una pila en 3D de entrada de cortes de imagen en base a la pluralidad de imágenes de proyección en 2D, mostrando la pila en 3D de entrada de cortes de imagen colectivamente la mama, en el que la entrada al procesador de imágenes es la pila en 3D de entrada de cortes de imagen;
en el que preferiblemente la supresión de elementos de alta densidad del primer método de procesamiento de imágenes y la mejora de elementos de alta densidad del segundo método de procesamiento de imágenes no se ejecutan en la pluralidad de imágenes de proyección en 2D adquiridas por el componente de adquisición de imágenes de rayos X; en el que más preferiblemente el primer método de procesamiento de imágenes se ejecuta en la pila de entrada de cortes de imagen en 3D para generar una primera pila en 3D de cortes de imagen, y el segundo método de procesamiento de imágenes se ejecuta en la pila de entrada de cortes de imagen en 3D para generar una segunda pila de cortes de imagen en 3D, y la primera imagen sintetizada en 2D se genera en base al menos en parte al primer conjunto de cortes de imagen en 3D, y la segunda imagen sintetizada en 2D se genera en base al menos en parte al segundo conjunto de cortes de imagen en 3D; y/o en el que el elemento de alta densidad se muestra como si se extendiera a través de múltiples cortes de la pila de entrada de cortes de imagen en 3D, más específicamente, en el que la supresión de metal del primer método de procesamiento de imágenes y la mejora de metal del segundo método de procesamiento de imágenes no se ejecutan en la pluralidad de imágenes de proyección en 2D; y/o en el que el primer método de procesamiento de imágenes suprime las porciones de imagen identificadas que muestran el elemento de alta densidad de manera que el elemento de alta densidad no es visible en la primera pila en 3D de cortes de imagen.
6. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, que identifica porciones de imagen que muestran el elemento de alta densidad que comprende identificar porciones de imagen que muestran un objeto metálico en el tejido mamario, en el que las porciones de imagen que muestran el objeto metálico son suprimidas por el primer método de procesamiento de imágenes y mejoradas por el segundo método de procesamiento de imágenes,
en el que preferiblemente identificar el objeto metálico comprende identificar porciones de imagen que muestran un marcador de biopsia metálico o un clip colocado en tejido mamario o que comprende además identificar porciones de imagen que muestran una sombra proyectada por el objeto metálico como resultado de la formación de imágenes del objeto metálico.
7. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, que identifica porciones de imagen que muestran el elemento de alta densidad que comprende identificar porciones de imagen que muestran una calcificación en el tejido mamario, en el que las porciones de imagen que muestran la calcificación son suprimidas por el primer método de procesamiento de imágenes y mejoradas por el segundo método de procesamiento de imágenes,
en el que preferiblemente identificar porciones de imagen que muestran el elemento de alta densidad comprende identificar porciones de imagen que muestran una sombra proyectada por la calcificación como resultado de la formación de imágenes de la calcificación, en el que las porciones de imagen que muestran la sombra son suprimidas por el primer método de procesamiento de imágenes y mejoradas por el segundo método de procesamiento de imágenes.
8. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, que identifica
porciones de imagen que identifican el elemento de alta densidad que comprende identificar porciones de imagen que identifican un objeto radiopaco en el tejido mamario
y/o
en el que el primer método de procesamiento de imágenes y el segundo método de procesamiento de imágenes se ejecutan simultáneamente en paralelo y/o el procesador de imágenes recibe la entrada que comprende recibir datos de imagen que comprenden datos de píxeles de la pluralidad de imágenes y/o
recibir por parte del procesador de imágenes la entrada que comprende recibir datos de imagen que comprenden datos de píxeles de la pluralidad de imágenes
y/o
en el que las porciones de imagen respectivas de las imágenes respectivas se identifican como que muestran el elemento de alta densidad utilizando al menos uno de un filtro de contraste y un filtro de brillo y/o
en el que el segundo método de procesamiento de imágenes mejora las porciones de imagen que muestran el elemento de alta densidad sin mejorar las porciones de imagen que muestran tejido mamario o lesiones dentro del tejido mamario
y/o
que comprende además, antes de generar la imagen sintetizada compuesta en 2D, que el procesador de imágenes ejecute una operación morfológica en la segunda imagen sintetizada en 2D para dilatar o erosionar los bordes de la imagen de las porciones de imagen mejoradas que muestran al menos una parte del elemento de alta densidad
y/o
ejecutar el primer método de procesamiento de imágenes y el segundo método de procesamiento de imágenes mediante un sistema de tomosíntesis
y/o
en el que la segunda imagen sintetizada en 2D está libre de porciones de imagen que muestran tejido mamario y/o
identificar porciones de imagen que muestran el elemento de alta densidad que comprende identificar porciones de imagen que muestran una sombra proyectada por un objeto metálico como resultado de la formación de imágenes del objeto metálico, en el que las porciones de imagen que muestran la sombra son suprimidas por el primer método de procesamiento de imágenes y mejoradas por el segundo método de procesamiento de imágenes.
9. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, en el que la imagen sintetizada compuesta en 2D se genera ejecutando una proyección de intensidad que involucra la primera imagen sintetizada en 2D y la segunda imagen sintetizada en 2D, más específicamente, en el que la proyección de intensidad es una proyección de intensidad media o proyección de intensidad máxima.
10. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, en el que las porciones de imagen que muestran el elemento de alta densidad se suprimen por interpolación sobre las porciones de imagen que muestran el elemento de alta densidad
y/o
en el que las porciones de imagen que muestran el elemento de alta densidad se suprimen reemplazando las porciones de imagen que muestran el elemento de alta densidad con datos de imagen de fondo que no están mejorados y/o
en el que la primera imagen sintetizada en 2D está libre de porciones de imagen que muestran el elemento de alta densidad, más específicamente, en el que la primera imagen sintetizada en 2d está libre de porciones de imagen que muestran el elemento de alta densidad y libre de porciones de imagen que muestran una sombra generada por la formación de imágenes del elemento de alta densidad con el tejido mamario.
11. Método implementado por ordenador según cualquiera de las reivindicaciones anteriores, comprendiendo el segundo método de procesamiento de imágenes:
segmentar porciones de imagen identificadas como que muestran el elemento de alta densidad para determinar los valores de píxel respectivos de las porciones de imagen segmentadas, y
generar una máscara de elementos de alta densidad en base a los respectivos valores de píxeles, en el que la máscara de elementos de alta densidad es utilizada por el procesador de imágenes para determinar qué porciones de la segunda imagen sintetizada en 2D se incluirán en la imagen compuesta en 2D al combinar la primera imagen sintetizada en 2D y la segunda imagen sintetizada en 2D,
en el que preferiblemente la máscara de elementos de alta densidad que comprende una máscara de nivel de píxel binaria o que combina la primera imagen sintetizada en 2D y la segunda imagen sintetizada en 2D que comprende el procesador de imágenes ejecuta una combinación modulada de la primera imagen sintetizada en 2D y la segunda imagen sintetizada en 2D con la máscara del elemento de alta densidad.
12. Método implementado por ordenador para el procesamiento de datos de imágenes de tejido mamario, comprendiendo el método implementado por ordenador:
generar un conjunto de imágenes bidimensionales (2D) o tridimensionales (3D) que muestran colectivamente el tejido mamario en base a los datos de imagen generados por un sistema de formación de imágenes mamarias, mostrando el conjunto de imágenes en 2D o 3D un objeto de alta densidad en o sobre el tejido mamario;
procesar el conjunto de imágenes en 2D o 3D de diferentes formas para generar diferentes conjuntos de imágenes intermedias, en el que el objeto de alta densidad es suprimido en un primer conjunto de imágenes intermedias y mejorado en un segundo conjunto de imágenes intermedias;
generar una imagen sintetizada compuesta bidimensional (2D) que está libre del objeto de alta densidad en base al menos en parte al primer conjunto de imágenes intermedias y el segundo conjunto de imágenes intermedias; y
presentar la imagen sintetizada compuesta en 2D a través de una pantalla del sistema de formación de imágenes mamarias.
13. Método implementado por ordenador para el procesamiento de datos de imágenes de tejido mamario, comprendiendo el método implementado por ordenador:
generar un primer conjunto tridimensional (3D) de imágenes que muestran colectivamente tejido mamario en base a datos de imagen generados por un sistema de formación de imágenes mamarias;
procesar el primer conjunto de imágenes en 3D de diferentes maneras para generar un segundo conjunto de imágenes en 3D en el que se suprime un objeto de alta densidad y se mejora el tejido mamario, y un tercer conjunto de imágenes en 3D en el que se mejora el objeto de alta densidad;
generar una primera imagen sintetizada bidimensional (2D) en base al menos en parte al segundo conjunto de imágenes en 3D en el que se suprime el objeto de alta densidad, y generar una segunda imagen sintetizada en 2D en base al menos en parte al tercer conjunto en 3D de imágenes en las que se mejora el objeto de alta densidad;
generar una imagen sintetizada compuesta en 2D que está libre del objeto de alta densidad e incorpore porciones de la primera imagen sintetizada en 2D y la segunda imagen sintetizada en 2D; y
presentar la imagen sintetizada compuesta en 2D a través de una pantalla del sistema informático.
14. Método implementado por ordenador para el procesamiento de datos de imágenes de tejido mamario, comprendiendo el método implementado por ordenador:
generar un primer conjunto de imágenes que muestran colectivamente tejido mamario en base a datos de imagen generados por un sistema de formación de imágenes mamarias, mostrando el primer conjunto de imágenes un objeto de alta densidad;
procesar el primer conjunto de imágenes de diferentes maneras para generar un segundo conjunto de imágenes en el que se suprime el objeto de alta densidad y se mejora el tejido mamario y para generar un tercer conjunto de imágenes en el que se mejora el objeto de alta densidad;
procesar el segundo conjunto de imágenes para generar un cuarto conjunto de imágenes en el que se suprime el objeto de alta densidad;
procesar el tercer conjunto de imágenes para generar un quinto conjunto de imágenes en el que se mejora el objeto de alta densidad;
generar una imagen sintetizada compuesta que está libre del objeto de alta densidad en base al menos en parte al cuarto conjunto de imágenes y el quinto conjunto de imágenes; y
presentar la imagen sintetizada compuesta a través de una pantalla del sistema de formación de imágenes mamarias.
15. Método implementado por ordenador según la reivindicación 14, en el que el primer conjunto de imágenes, el segundo conjunto de imágenes y el tercer conjunto de imágenes están en un primer formato dimensional, y el cuarto conjunto de imágenes, el quinto conjunto de imágenes y la imagen sintetizada compuesta están en un segundo formato dimensional diferente del primer formato dimensional.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862738244P | 2018-09-28 | 2018-09-28 | |
| PCT/US2019/052621 WO2020068767A1 (en) | 2018-09-28 | 2019-09-24 | System and method for synthetic breast tissue image generation by high density element suppression |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2950033T3 true ES2950033T3 (es) | 2023-10-04 |
Family
ID=68165781
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19783840T Active ES2950033T3 (es) | 2018-09-28 | 2019-09-24 | Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad |
Country Status (7)
| Country | Link |
|---|---|
| US (3) | US11857358B2 (es) |
| EP (1) | EP3856033B1 (es) |
| JP (2) | JP7482860B2 (es) |
| CN (1) | CN112770674B (es) |
| AU (1) | AU2019346527B2 (es) |
| ES (1) | ES2950033T3 (es) |
| WO (1) | WO2020068767A1 (es) |
Families Citing this family (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11083426B2 (en) | 2016-11-04 | 2021-08-10 | Hologic, Inc. | Specimen radiography system comprising cabinet and a specimen drawer positionable by a controller in the cabinet |
| WO2019051496A1 (en) | 2017-09-11 | 2019-03-14 | Faxitron Bioptics, Llc | IMAGING SYSTEM WITH ADAPTIVE OBJECT MAGNIFICATION |
| ES2950033T3 (es) | 2018-09-28 | 2023-10-04 | Hologic Inc | Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad |
| EP3657442B1 (de) * | 2018-11-23 | 2022-10-26 | Siemens Healthcare GmbH | Synthetisches mammogramm mit aufgeprägtem bildeindruck |
| KR20210095137A (ko) | 2018-11-25 | 2021-07-30 | 홀로직, 인크. | 다중 모달리티 행잉 프로토콜 |
| CN113574609A (zh) | 2019-03-29 | 2021-10-29 | 豪洛捷公司 | 剪切触发的数字图像报告生成 |
| US12499535B2 (en) * | 2020-01-24 | 2025-12-16 | The Regents Of The University Of California | Retinal disease biomarker prediction by stacking slices of 3D OCT image to reshape into 2D image and applying trained feature extractor and CNN |
| JP7513697B2 (ja) * | 2020-03-13 | 2024-07-09 | 富士フイルム株式会社 | 画像生成装置およびプログラム、学習装置およびプログラム、並びに画像処理装置およびプログラム |
| JP7625618B2 (ja) * | 2020-04-30 | 2025-02-03 | ホロジック, インコーポレイテッド | 組織試料のx線画像を選択的に修正するためのシステム、方法、およびコンピュータプログラム製品。 |
| US12396693B2 (en) | 2020-09-16 | 2025-08-26 | Hologic, Inc. | Systems and methods for confirming tissue specimens removed using contrast-enhanced x-ray imaging |
| JP7451748B2 (ja) * | 2020-09-29 | 2024-03-18 | 富士フイルム株式会社 | 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム |
| JP7607489B2 (ja) | 2021-03-29 | 2024-12-27 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
| JP7785494B2 (ja) * | 2021-09-30 | 2025-12-15 | 富士フイルム株式会社 | 学習装置、画像生成装置、学習方法、画像生成方法、学習プログラム、及び画像生成プログラム |
| JP7710950B2 (ja) * | 2021-09-30 | 2025-07-22 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
| US12186119B2 (en) | 2021-10-05 | 2025-01-07 | Hologic, Inc. | Interactive model interface for image selection in medical imaging systems |
| US12444063B2 (en) * | 2021-10-16 | 2025-10-14 | Leavitt Medical, Inc. | Systems and methods for aligning digital slide images |
| CN115170737A (zh) * | 2022-07-07 | 2022-10-11 | 深圳康桥软件技术有限公司 | 乳腺三维断层摄影的图像处理方法、装置及系统 |
| WO2024049826A1 (en) * | 2022-08-29 | 2024-03-07 | University Of Wyoming | Methods and devices for enhancement of porous media images |
| US12505538B2 (en) * | 2022-12-08 | 2025-12-23 | GE Precision Healthcare LLC | System and method for projection enhancement for synthetic 2D image generation |
| JP2025040874A (ja) * | 2023-09-12 | 2025-03-25 | 富士フイルム株式会社 | 画像処理装置、放射線画像撮影システム及びプログラム |
Family Cites Families (224)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4054402B2 (ja) | 1997-04-25 | 2008-02-27 | 株式会社東芝 | X線断層撮影装置 |
| US3502878A (en) | 1967-09-22 | 1970-03-24 | Us Health Education & Welfare | Automatic x-ray apparatus for limiting the field size of a projected x-ray beam in response to film size and to source-to-film distance |
| US3863073A (en) | 1973-04-26 | 1975-01-28 | Machlett Lab Inc | Automatic system for precise collimation of radiation |
| US3971950A (en) | 1975-04-14 | 1976-07-27 | Xerox Corporation | Independent compression and positioning device for use in mammography |
| US4160906A (en) | 1977-06-23 | 1979-07-10 | General Electric Company | Anatomically coordinated user dominated programmer for diagnostic x-ray apparatus |
| DE2838901C2 (de) | 1978-09-06 | 1986-11-06 | Siemens AG, 1000 Berlin und 8000 München | Katapultrasterlade |
| FR2512024A1 (fr) | 1981-08-27 | 1983-03-04 | Adir | Ethers tricycliques, leur preparation et les compositions pharmaceutiques les contenant |
| FR2549248B1 (fr) | 1983-06-24 | 1986-01-31 | Thomson Csf | Porte-cassette escamotable pour appareil d'examen radiologique et radiographique |
| DE3339775A1 (de) | 1983-11-03 | 1985-05-15 | Siemens AG, 1000 Berlin und 8000 München | Roentgendiagnostikgeraet mit strahlenfiltern |
| JPS60129034A (ja) | 1983-12-16 | 1985-07-10 | 横河メディカルシステム株式会社 | X線断層撮像装置の操作卓 |
| US4706269A (en) | 1985-03-11 | 1987-11-10 | Reina Leo J | Anti-scatter grid structure |
| US4773087A (en) | 1986-04-14 | 1988-09-20 | University Of Rochester | Quality of shadowgraphic x-ray images |
| USRE33634E (en) | 1986-09-23 | 1991-07-09 | Method and structure for optimizing radiographic quality by controlling X-ray tube voltage, current focal spot size and exposure time | |
| US4821727A (en) | 1986-10-30 | 1989-04-18 | Elscint Ltd. | Mammographic biopsy needle holder system |
| US4819258A (en) | 1986-11-28 | 1989-04-04 | Bennett X-Ray Corp. | Auto-setting of KV in an x-ray machine after selection of technic factors |
| US5051904A (en) | 1988-03-24 | 1991-09-24 | Olganix Corporation | Computerized dynamic tomography system |
| DK654488A (da) | 1988-11-23 | 1990-05-24 | Nordisk Roentgen Tech App | Roentgenapparat |
| FR2645006A1 (fr) | 1989-03-29 | 1990-10-05 | Gen Electric Cgr | Mammographe equipe d'un dispositif de vue stereotaxiques integre et procede d'utilisation d'un tel mammographe |
| FR2646340A1 (fr) | 1989-04-28 | 1990-11-02 | Gen Electric Cgr | Porte-cassette adaptable en dimension et en position pour mammographie |
| DE58908415D1 (de) | 1989-07-03 | 1994-10-27 | Siemens Ag | Röntgendiagnostikgerät für Mammographieaufnahmen. |
| CA2014918A1 (en) | 1989-09-06 | 1991-03-06 | James A. Mcfaul | Scanning mammography system with improved skin line viewing |
| US4969174A (en) | 1989-09-06 | 1990-11-06 | General Electric Company | Scanning mammography system with reduced scatter radiation |
| US5240011A (en) | 1991-11-27 | 1993-08-31 | Fischer Imaging Corporation | Motorized biopsy needle positioner |
| US5078142A (en) | 1989-11-21 | 1992-01-07 | Fischer Imaging Corporation | Precision mammographic needle biopsy system |
| US5415169A (en) | 1989-11-21 | 1995-05-16 | Fischer Imaging Corporation | Motorized mammographic biopsy apparatus |
| US5199056A (en) | 1989-11-28 | 1993-03-30 | Darrah Carol J | Mammography compression paddle |
| US5481623A (en) | 1990-04-19 | 1996-01-02 | Fuji Photo Film Co., Ltd. | Apparatus for determining an image position on imaging media |
| US5163075A (en) | 1991-08-08 | 1992-11-10 | Eastman Kodak Company | Contrast enhancement of electrographic imaging |
| US5594769A (en) | 1991-11-27 | 1997-01-14 | Thermotrex Corporation | Method and apparatus for obtaining stereotactic mammographic guided needle breast biopsies |
| US5289520A (en) | 1991-11-27 | 1994-02-22 | Lorad Corporation | Stereotactic mammography imaging system with prone position examination table and CCD camera |
| JPH05233141A (ja) | 1992-02-25 | 1993-09-10 | Mitsubishi Electric Corp | ポインティングデバイス |
| US5359637A (en) | 1992-04-28 | 1994-10-25 | Wake Forest University | Self-calibrated tomosynthetic, radiographic-imaging system, method, and device |
| US5596200A (en) | 1992-10-14 | 1997-01-21 | Primex | Low dose mammography system |
| FR2703237B1 (fr) | 1993-03-29 | 1995-05-19 | Ge Medical Syst Sa | Mammographe équipé d'un dispositif de prises en vues stéréotaxiques à détecteur numérique et procédé d'utilisation d'un tel mammographe . |
| US5365562A (en) | 1993-09-20 | 1994-11-15 | Fischer Imaging Corporation | Digital imaging apparatus |
| US6075879A (en) | 1993-09-29 | 2000-06-13 | R2 Technology, Inc. | Method and system for computer-aided lesion detection using information from multiple images |
| US5526394A (en) | 1993-11-26 | 1996-06-11 | Fischer Imaging Corporation | Digital scan mammography apparatus |
| US5452367A (en) | 1993-11-29 | 1995-09-19 | Arch Development Corporation | Automated method and system for the segmentation of medical images |
| CA2113752C (en) | 1994-01-19 | 1999-03-02 | Stephen Michael Rooks | Inspection system for cross-sectional imaging |
| DE4414689C2 (de) | 1994-04-26 | 1996-08-29 | Siemens Ag | Röntgendiagnostikeinrichtung |
| US5553111A (en) | 1994-10-26 | 1996-09-03 | The General Hospital Corporation | Apparatus and method for improved tissue imaging |
| US5506877A (en) | 1994-11-23 | 1996-04-09 | The General Hospital Corporation | Mammography breast compression device and method |
| US5657362A (en) | 1995-02-24 | 1997-08-12 | Arch Development Corporation | Automated method and system for computerized detection of masses and parenchymal distortions in medical images |
| US6216540B1 (en) | 1995-06-06 | 2001-04-17 | Robert S. Nelson | High resolution device and method for imaging concealed objects within an obscuring medium |
| US5818898A (en) | 1995-11-07 | 1998-10-06 | Kabushiki Kaisha Toshiba | X-ray imaging apparatus using X-ray planar detector |
| US5627869A (en) | 1995-11-22 | 1997-05-06 | Thermotrex Corporation | Mammography apparatus with proportional collimation |
| FI955636A0 (fi) | 1995-11-23 | 1995-11-23 | Planmed Oy | Foerfarande och system foer styrning av funktionerna av en mammografiaanordning |
| US5769086A (en) | 1995-12-06 | 1998-06-23 | Biopsys Medical, Inc. | Control system and method for automated biopsy device |
| DE19619913C2 (de) | 1996-05-17 | 2001-03-15 | Sirona Dental Systems Gmbh | Röntgendiagnostikgerät für Tomosynthese |
| DE19619925C2 (de) | 1996-05-17 | 1999-09-09 | Sirona Dental Systems Gmbh | Röntgendiagnostikgerät für Tomosynthese |
| DE19619915A1 (de) | 1996-05-17 | 1997-11-20 | Siemens Ag | Verfahren zur Erstellung von Tomosyntheseaufnahmen |
| DE19619924A1 (de) | 1996-05-17 | 1997-11-20 | Siemens Ag | Verfahren zur Erstellung von Tomosyntheseaufnahmen |
| US5872828A (en) | 1996-07-23 | 1999-02-16 | The General Hospital Corporation | Tomosynthesis system for breast imaging |
| US6459925B1 (en) | 1998-11-25 | 2002-10-01 | Fischer Imaging Corporation | User interface system for mammographic imager |
| US5986662A (en) | 1996-10-16 | 1999-11-16 | Vital Images, Inc. | Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging |
| US6137527A (en) | 1996-12-23 | 2000-10-24 | General Electric Company | System and method for prompt-radiology image screening service via satellite |
| US5999639A (en) | 1997-09-04 | 1999-12-07 | Qualia Computing, Inc. | Method and system for automated detection of clustered microcalcifications from digital mammograms |
| US6442288B1 (en) | 1997-12-17 | 2002-08-27 | Siemens Aktiengesellschaft | Method for reconstructing a three-dimensional image of an object scanned in the context of a tomosynthesis, and apparatus for tomosynthesis |
| JP3554172B2 (ja) | 1998-01-09 | 2004-08-18 | キヤノン株式会社 | 放射線撮影装置 |
| US6175117B1 (en) | 1998-01-23 | 2001-01-16 | Quanta Vision, Inc. | Tissue analysis apparatus |
| US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
| EP1004957A4 (en) | 1998-03-05 | 2002-08-21 | Mitsubishi Electric Corp | PORTABLE TERMINAL |
| US6289235B1 (en) | 1998-03-05 | 2001-09-11 | Wake Forest University | Method and system for creating three-dimensional images using tomosynthetic computed tomography |
| US6081577A (en) | 1998-07-24 | 2000-06-27 | Wake Forest University | Method and system for creating task-dependent three-dimensional images |
| US6375352B1 (en) | 1999-10-01 | 2002-04-23 | General Electric Company | Apparatus and method for obtaining x-ray tomosynthesis data for mammography |
| US6141398A (en) | 1998-08-25 | 2000-10-31 | General Electric Company | Protocol driven image reconstruction, display, and processing in a multislice imaging system |
| US6751780B1 (en) | 1998-10-01 | 2004-06-15 | Hewlett-Packard Development Company, L.P. | User interface for initiating the export of an optimized scanned document using drag and drop |
| FR2786388B1 (fr) | 1998-11-27 | 2001-02-16 | Ge Medical Syst Sa | Procede de detection d'un tissu de nature determinee en radiologie numerique et son utilisation pour le reglage des parametres d'exposition |
| US6149301A (en) | 1998-12-30 | 2000-11-21 | General Electric Company | X-ray target centering apparatus for radiographic imaging system |
| US6233473B1 (en) | 1999-02-16 | 2001-05-15 | Hologic, Inc. | Determining body composition using fan beam dual-energy x-ray absorptiometry |
| US6272207B1 (en) | 1999-02-18 | 2001-08-07 | Creatv Microtech, Inc. | Method and apparatus for obtaining high-resolution digital X-ray and gamma ray images |
| US6256370B1 (en) | 2000-01-24 | 2001-07-03 | General Electric Company | Method and apparatus for performing tomosynthesis |
| US6689142B1 (en) | 1999-04-26 | 2004-02-10 | Scimed Life Systems, Inc. | Apparatus and methods for guiding a needle |
| US6292530B1 (en) | 1999-04-29 | 2001-09-18 | General Electric Company | Method and apparatus for reconstructing image data acquired by a tomosynthesis x-ray imaging system |
| JP3742529B2 (ja) | 1999-05-10 | 2006-02-08 | アルプス電気株式会社 | 座標入力装置 |
| DE19922346C2 (de) | 1999-05-14 | 2003-06-18 | Siemens Ag | Röntgendiagnostikeinrichtung für Tomosynthese oder Schichtung |
| US6243441B1 (en) | 1999-07-13 | 2001-06-05 | Edge Medical Devices | Active matrix detector for X-ray imaging |
| US6633674B1 (en) | 1999-11-24 | 2003-10-14 | General Electric Company | Picture archiving and communication system employing improved data compression |
| US6645520B2 (en) | 1999-12-16 | 2003-11-11 | Dermatrends, Inc. | Transdermal administration of nonsteroidal anti-inflammatory drugs using hydroxide-releasing agents as permeation enhancers |
| FR2803069B1 (fr) | 1999-12-28 | 2002-12-13 | Ge Medical Syst Sa | Procede et systeme de compensation de l'epaisseur d'un organe |
| US6411836B1 (en) | 1999-12-30 | 2002-06-25 | General Electric Company | Method and apparatus for user preferences configuring in an image handling system |
| US6744848B2 (en) | 2000-02-11 | 2004-06-01 | Brandeis University | Method and system for low-dose three-dimensional imaging of a scene |
| GB0006598D0 (en) | 2000-03-17 | 2000-05-10 | Isis Innovation | Three-dimensional reconstructions from images |
| US6515685B1 (en) | 2000-03-22 | 2003-02-04 | International Business Machines Corporation | Method and apparatus for dynamically changing hot spots on a draggable windows control |
| US6327336B1 (en) | 2000-06-05 | 2001-12-04 | Direct Radiography Corp. | Radiogram showing location of automatic exposure control sensor |
| JP2002052018A (ja) | 2000-08-11 | 2002-02-19 | Canon Inc | 画像表示装置、画像表示方法および記憶媒体 |
| EP1267722A1 (en) | 2000-10-20 | 2003-01-02 | Koninklijke Philips Electronics N.V. | Tomosynthesis in a limited angular range |
| JP4064243B2 (ja) | 2000-11-06 | 2008-03-19 | スルーズ サージカル システムズ、インク | 生体組織検査装置 |
| US6758824B1 (en) | 2000-11-06 | 2004-07-06 | Suros Surgical Systems, Inc. | Biopsy apparatus |
| US6501819B2 (en) | 2000-12-18 | 2002-12-31 | Ge Medical Systems Global Technology Company, Llc | Medical diagnostic method and apparatus to control dual energy exposure techniques based on image information |
| WO2002052507A1 (en) | 2000-12-22 | 2002-07-04 | Koninklijke Philips Electronics N.V. | Stereoscopic viewing of a region between clipping planes |
| US6620111B2 (en) | 2001-04-20 | 2003-09-16 | Ethicon Endo-Surgery, Inc. | Surgical biopsy device having automatic rotation of the probe for taking multiple samples |
| US7079110B2 (en) | 2001-04-30 | 2006-07-18 | Microsoft Corporation | Input device including a wheel assembly for scrolling an image in multiple directions |
| US6712535B2 (en) | 2001-04-30 | 2004-03-30 | Microsoft Corporation | Keyboard with improved lateral region |
| US6954667B2 (en) | 2001-06-28 | 2005-10-11 | Chemimage Corporation | Method for Raman chemical imaging and characterization of calcification in tissue |
| US6611575B1 (en) | 2001-07-27 | 2003-08-26 | General Electric Company | Method and system for high resolution 3D visualization of mammography images |
| WO2003020114A2 (en) | 2001-08-31 | 2003-03-13 | Analogic Corporation | Image positioning method and system for tomosynthesis in a digital x-ray radiography system |
| US7443949B2 (en) | 2001-10-19 | 2008-10-28 | Hologic, Inc. | Mammography system and method employing offset compression paddles, automatic collimation, and retractable anti-scatter grid |
| US6626849B2 (en) | 2001-11-01 | 2003-09-30 | Ethicon Endo-Surgery, Inc. | MRI compatible surgical biopsy device |
| US6751285B2 (en) | 2001-11-21 | 2004-06-15 | General Electric Company | Dose management system for mammographic tomosynthesis |
| US6978040B2 (en) | 2001-12-19 | 2005-12-20 | Canon Kabushiki Kaisha | Optical recovery of radiographic geometry |
| US6647092B2 (en) | 2002-01-18 | 2003-11-11 | General Electric Company | Radiation imaging system and method of collimation |
| US20030149364A1 (en) | 2002-02-01 | 2003-08-07 | Ajay Kapur | Methods, system and apparatus for digital imaging |
| SE524458C2 (sv) | 2002-03-01 | 2004-08-10 | Mamea Imaging Ab | Skyddsanordning vid en röntgenapparat |
| US6878115B2 (en) | 2002-03-28 | 2005-04-12 | Ultrasound Detection Systems, Llc | Three-dimensional ultrasound computed tomography imaging system |
| US6882700B2 (en) | 2002-04-15 | 2005-04-19 | General Electric Company | Tomosynthesis X-ray mammogram system and method with automatic drive system |
| US7218766B2 (en) | 2002-04-15 | 2007-05-15 | General Electric Company | Computer aided detection (CAD) for 3D digital mammography |
| US7783089B2 (en) | 2002-04-15 | 2010-08-24 | General Electric Company | Method and apparatus for providing mammographic image metrics to a clinician |
| US20030194050A1 (en) | 2002-04-15 | 2003-10-16 | General Electric Company | Multi modality X-ray and nuclear medicine mammography imaging system and method |
| US7139000B2 (en) | 2002-05-13 | 2006-11-21 | Ge Medical Systems Global Technology Company, Llc | Method, system and computer product for displaying axial images |
| US7295691B2 (en) | 2002-05-15 | 2007-11-13 | Ge Medical Systems Global Technology Company, Llc | Computer aided diagnosis of an image set |
| US20040001094A1 (en) | 2002-06-28 | 2004-01-01 | Johannes Unnewehr | Automatic identification of drop zones |
| US6748044B2 (en) | 2002-09-13 | 2004-06-08 | Ge Medical Systems Global Technology Company, Llc | Computer assisted analysis of tomographic mammography data |
| US6940943B2 (en) | 2002-10-07 | 2005-09-06 | General Electric Company | Continuous scan tomosynthesis system and method |
| US6970531B2 (en) | 2002-10-07 | 2005-11-29 | General Electric Company | Continuous scan RAD tomosynthesis system and method |
| US7616801B2 (en) | 2002-11-27 | 2009-11-10 | Hologic, Inc. | Image handling and display in x-ray mammography and tomosynthesis |
| US8571289B2 (en) | 2002-11-27 | 2013-10-29 | Hologic, Inc. | System and method for generating a 2D image from a tomosynthesis data set |
| US6597762B1 (en) | 2002-11-27 | 2003-07-22 | Ge Medical Systems Global Technology Co., Llc | Method and apparatus of lesion detection and validation based on multiple reviews of a CT image |
| US7831296B2 (en) | 2002-11-27 | 2010-11-09 | Hologic, Inc. | X-ray mammography with tomosynthesis |
| WO2006058160A2 (en) | 2004-11-26 | 2006-06-01 | Hologic, Inc. | Integrated multi-mode mammography/tomosynthesis x-ray system and method |
| US7577282B2 (en) | 2002-11-27 | 2009-08-18 | Hologic, Inc. | Image handling and display in X-ray mammography and tomosynthesis |
| US7760924B2 (en) | 2002-11-27 | 2010-07-20 | Hologic, Inc. | System and method for generating a 2D image from a tomosynthesis data set |
| US7123684B2 (en) | 2002-11-27 | 2006-10-17 | Hologic, Inc. | Full field mammography with tissue exposure control, tomosynthesis, and dynamic field of view processing |
| US7110490B2 (en) | 2002-12-10 | 2006-09-19 | General Electric Company | Full field digital tomosynthesis method and apparatus |
| US7840905B1 (en) | 2003-01-06 | 2010-11-23 | Apple Inc. | Creating a theme used by an authoring application to produce a multimedia presentation |
| US7356113B2 (en) | 2003-02-12 | 2008-04-08 | Brandeis University | Tomosynthesis imaging system and method |
| JP4497837B2 (ja) | 2003-05-12 | 2010-07-07 | キヤノン株式会社 | 放射線画像撮影装置 |
| JP2004357789A (ja) | 2003-06-02 | 2004-12-24 | Olympus Corp | 被検体観察システム及び被検体観察システムの制御方法 |
| US6885724B2 (en) | 2003-08-22 | 2005-04-26 | Ge Medical Systems Global Technology Company, Llc | Radiographic tomosynthesis image acquisition utilizing asymmetric geometry |
| US20050089205A1 (en) | 2003-10-23 | 2005-04-28 | Ajay Kapur | Systems and methods for viewing an abnormality in different kinds of images |
| DE10353611B4 (de) | 2003-11-17 | 2013-01-17 | Siemens Aktiengesellschaft | Röntgendiagnostikgerät für Mammographieuntersuchungen |
| US8768026B2 (en) | 2003-11-26 | 2014-07-01 | Hologic, Inc. | X-ray imaging with x-ray markers that provide adjunct information but preserve image quality |
| CN1985258B (zh) | 2003-11-26 | 2015-05-27 | 皇家飞利浦电子股份有限公司 | 高处理量成像环境的工作流优化 |
| US7653229B2 (en) | 2003-12-23 | 2010-01-26 | General Electric Company | Methods and apparatus for reconstruction of volume data from projection data |
| US20050135555A1 (en) | 2003-12-23 | 2005-06-23 | Claus Bernhard Erich H. | Method and system for simultaneously viewing rendered volumes |
| US7142633B2 (en) | 2004-03-31 | 2006-11-28 | General Electric Company | Enhanced X-ray imaging system and method |
| CN1953708B (zh) | 2004-05-14 | 2010-06-16 | 皇家飞利浦电子股份有限公司 | 用于诊断乳腺癌的系统和方法 |
| GB0411402D0 (en) | 2004-05-21 | 2004-06-23 | Tissuomics Ltd | Penetrating radiation measurements |
| US8160314B2 (en) | 2004-06-18 | 2012-04-17 | Siemens Aktiengesellschaft | System and method for linking VOIs across timepoints for analysis of disease progression or response to therapy |
| US7323692B2 (en) | 2004-08-10 | 2008-01-29 | Research Foundation Of State University Of New York | Flat-panel detector with avalanche gain |
| US7725153B2 (en) | 2004-10-04 | 2010-05-25 | Hologic, Inc. | Estimating visceral fat by dual-energy x-ray absorptiometry |
| WO2006055830A2 (en) | 2004-11-15 | 2006-05-26 | Hologic, Inc. | Matching geometry generation and display of mammograms and tomosynthesis images |
| US10492749B2 (en) * | 2005-05-03 | 2019-12-03 | The Regents Of The University Of California | Biopsy systems for breast computed tomography |
| US7606801B2 (en) | 2005-06-07 | 2009-10-20 | Varonis Inc. | Automatic management of storage access control |
| JP4876466B2 (ja) * | 2005-07-25 | 2012-02-15 | コニカミノルタエムジー株式会社 | 乳房放射線撮影システム |
| US7245694B2 (en) | 2005-08-15 | 2007-07-17 | Hologic, Inc. | X-ray mammography/tomosynthesis of patient's breast |
| DE202005013910U1 (de) | 2005-09-02 | 2005-11-24 | Siemens Ag | Mammographiegerät mit Gesichtsschild |
| US8532745B2 (en) | 2006-02-15 | 2013-09-10 | Hologic, Inc. | Breast biopsy and needle localization using tomosynthesis systems |
| US20070223651A1 (en) | 2006-03-21 | 2007-09-27 | Wagenaar Douglas J | Dual modality mammography device |
| US7489761B2 (en) | 2006-03-27 | 2009-02-10 | Hologic, Inc. | Breast compression for digital mammography, tomosynthesis and other modalities |
| JP4820680B2 (ja) | 2006-04-12 | 2011-11-24 | 株式会社東芝 | 医用画像表示装置 |
| JP4906404B2 (ja) | 2006-06-13 | 2012-03-28 | 富士フイルム株式会社 | 診断支援方法、診断支援装置、診断支援システム、及び診断支援プログラム |
| US10387612B2 (en) | 2006-06-14 | 2019-08-20 | Koninklijke Philips N.V. | Multi-modality medical image layout editor |
| US20080021877A1 (en) | 2006-07-20 | 2008-01-24 | Terarecon, Inc. | Medical image processing system in a wide-area network environment |
| US20090080602A1 (en) | 2006-08-03 | 2009-03-26 | Kenneth Brooks | Dedicated breast radiation imaging/therapy system |
| JP5179738B2 (ja) | 2006-09-25 | 2013-04-10 | 株式会社東芝 | 超音波診断装置、それに用いるプログラム、及び超音波診断システム |
| JP5060097B2 (ja) | 2006-10-03 | 2012-10-31 | 株式会社東芝 | 医用レポート作成システム、医用レポート作成方法 |
| US8645853B2 (en) | 2006-11-03 | 2014-02-04 | Business Objects Software Ltd. | Displaying visualizations linked to one or more data source queries |
| JP2008199293A (ja) | 2007-02-13 | 2008-08-28 | Funai Electric Co Ltd | リモコン装置及び画像処理装置 |
| US20080267467A1 (en) | 2007-04-30 | 2008-10-30 | General Electric Company | Method and system for automatic adjustment of a diagnostic imaging display |
| US9442584B2 (en) | 2007-07-30 | 2016-09-13 | Qualcomm Incorporated | Electronic device with reconfigurable keypad |
| US7630533B2 (en) | 2007-09-20 | 2009-12-08 | Hologic, Inc. | Breast tomosynthesis with display of highlighted suspected calcifications |
| US20090174663A1 (en) | 2008-01-03 | 2009-07-09 | Electronic Data Systems Corporation | Dynamically configurable keyboard for computer |
| US7991106B2 (en) | 2008-08-29 | 2011-08-02 | Hologic, Inc. | Multi-mode tomosynthesis/mammography gain calibration and image correction using gain map information from selected projection angles |
| JP5362307B2 (ja) | 2008-09-30 | 2013-12-11 | 富士フイルム株式会社 | ドラッグアンドドロップ制御装置、方法、及びプログラム、並びにコンピュータ端末 |
| US9146663B2 (en) * | 2008-12-08 | 2015-09-29 | Hologic, Inc. | Displaying computer-aided detection information with associated breast tomosynthesis image information |
| US8482520B2 (en) | 2009-01-30 | 2013-07-09 | Research In Motion Limited | Method for tap detection and for interacting with and a handheld electronic device, and a handheld electronic device configured therefor |
| US8170320B2 (en) | 2009-03-03 | 2012-05-01 | Hologic, Inc. | Mammography/tomosynthesis systems and methods automatically deriving breast characteristics from breast x-ray images and automatically adjusting image processing parameters accordingly |
| TWI386188B (zh) | 2009-06-23 | 2013-02-21 | Univ Yuan Ze | 一種臨床12-導程心電圖暨影像遠距諮詢資訊系統 |
| JP2011044295A (ja) | 2009-08-20 | 2011-03-03 | Jeol Ltd | 走査電子顕微鏡及び走査電子顕微鏡の制御方法 |
| EP2535829A3 (en) * | 2009-10-07 | 2013-07-10 | Hologic, Inc. | Processing and displaying computer-aided detection information associated with breast x-ray images |
| US8799013B2 (en) | 2009-11-24 | 2014-08-05 | Penrad Technologies, Inc. | Mammography information system |
| WO2011066486A2 (en) | 2009-11-25 | 2011-06-03 | The Board Of Regents Of The University Of Texas System | Advanced multimedia structured reporting |
| US20110270358A1 (en) | 2010-04-30 | 2011-11-03 | Medtronic, Inc. | Implantable medical device programming using gesture-based control |
| US20110282686A1 (en) | 2010-05-12 | 2011-11-17 | General Electric Company | Medical conferencing systems and methods |
| US8248373B2 (en) | 2010-06-18 | 2012-08-21 | Microsoft Corporation | Contextual control of dynamic input device |
| US8571174B2 (en) | 2010-09-09 | 2013-10-29 | Hologic, Inc. | Methods and systems for detecting possible error in patient position |
| US9262444B2 (en) | 2010-11-24 | 2016-02-16 | General Electric Company | Systems and methods for applying series level operations and comparing images using a thumbnail navigator |
| WO2012071429A1 (en) | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
| US8797350B2 (en) | 2010-12-20 | 2014-08-05 | Dr Systems, Inc. | Dynamic customizable human-computer interaction behavior |
| JP5308509B2 (ja) | 2011-04-15 | 2013-10-09 | シャープ株式会社 | メニュー画面の表示制御方法 |
| DE102011017710B4 (de) * | 2011-04-28 | 2021-03-04 | Siemens Healthcare Gmbh | Verfahren zum Bereitstellen eines 3D-Röntgenbilddatensatzes zu einem sich bewegenden Objekt mit stark absorbierendem Material |
| JP6170935B2 (ja) | 2011-11-14 | 2017-07-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | X線画像化システムのためのポジショニング距離制御 |
| US20130239031A1 (en) | 2012-03-06 | 2013-09-12 | Apple Inc. | Application for viewing images |
| US8842806B2 (en) | 2012-04-03 | 2014-09-23 | Carestream Health, Inc. | Apparatus and method for breast imaging |
| JP2014012040A (ja) | 2012-07-03 | 2014-01-23 | Sony Corp | 入力装置および情報処理システム |
| JP2014068874A (ja) | 2012-09-28 | 2014-04-21 | Fujifilm Corp | 画像表示システム、放射線画像撮影システム、画像表示制御プログラム、及び画像表示制御方法。 |
| FR2998160A1 (fr) | 2012-11-19 | 2014-05-23 | Gen Electric | Procede de traitement d'images radiologiques en double energie |
| US20140143710A1 (en) | 2012-11-21 | 2014-05-22 | Qi Zhao | Systems and methods to capture and save criteria for changing a display configuration |
| JP5935216B2 (ja) | 2012-11-27 | 2016-06-15 | 株式会社 日立産業制御ソリューションズ | 医療情報表示装置および医療情報表示プログラム |
| JP2014168571A (ja) | 2013-03-04 | 2014-09-18 | Toshiba Corp | X線診断装置 |
| US9639666B2 (en) | 2013-03-15 | 2017-05-02 | Covidien Lp | Pathway planning system and method |
| JP2014188082A (ja) | 2013-03-26 | 2014-10-06 | Fujifilm Corp | 携帯型コンソール端末 |
| EP2995255B1 (en) * | 2013-05-10 | 2017-04-19 | Shimadzu Corporation | Image processing device |
| CA2912440A1 (en) | 2013-05-15 | 2014-11-20 | Jessie Leanne Preston MACALPINE | Non-selective, pre-emergence herbicide |
| US10124185B2 (en) | 2013-09-27 | 2018-11-13 | Zoll Medical Corporation | Portable defibrillator used for display, hardcopy, and control for other devices |
| KR102402887B1 (ko) | 2014-02-28 | 2022-05-27 | 홀로직, 인크. | 단층합성 영상 슬래브를 발생시키고 디스플레이하기 위한 시스템 및 방법 |
| KR20150102589A (ko) | 2014-02-28 | 2015-09-07 | 삼성메디슨 주식회사 | 의료 영상 처리 장치, 의료 영상 처리 방법, 및 컴퓨터 판독가능 기록매체 |
| US9952301B2 (en) | 2014-03-11 | 2018-04-24 | Hologic, Inc. | System and method for selecting and modifying a hanging protocol for displaying MRI information |
| JP5810251B1 (ja) | 2014-04-09 | 2015-11-11 | パナソニック株式会社 | 情報端末の制御方法及びプログラム |
| KR101570096B1 (ko) | 2014-06-03 | 2015-11-18 | 엘지전자 주식회사 | 핸들에 부착되는 입력 장치 및 이를 구비한 차량 |
| KR102321642B1 (ko) | 2014-12-08 | 2021-11-05 | 삼성메디슨 주식회사 | 입력 장치 및 이를 포함하는 의료 영상 장치 |
| KR20160071938A (ko) | 2014-12-12 | 2016-06-22 | 삼성전자주식회사 | 엑스선 영상 장치 |
| DE102015202911A1 (de) | 2015-02-18 | 2016-09-01 | Siemens Healthcare Gmbh | Dynamische Speicherung von Medizingerätepositionen |
| DE102015206158B4 (de) | 2015-04-07 | 2021-12-16 | Siemens Healthcare Gmbh | Mobiles C-Bogensystem |
| US10417326B2 (en) | 2015-06-11 | 2019-09-17 | Fujifilm Medical Systems U.S.A., Inc. | Methods and apparatus for obtaining a snapshot of a medical imaging display |
| JP2017000664A (ja) | 2015-06-16 | 2017-01-05 | コニカミノルタ株式会社 | 画像処理装置、断層画像生成システム及びプログラム |
| US20160367120A1 (en) | 2015-06-19 | 2016-12-22 | Children's Medical Center Corporation | Optically Guided Surgical Devices |
| JP6632248B2 (ja) | 2015-08-07 | 2020-01-22 | キヤノン株式会社 | 医用画像表示装置、医用画像表示システム、医用画像表示方法、およびプログラム |
| EP3135205A1 (en) * | 2015-08-28 | 2017-03-01 | ETH Zurich | Hand-held medical ultrasound apparatus |
| GB2541899B (en) | 2015-09-02 | 2019-11-06 | Jaguar Land Rover Ltd | Vehicle imaging system and method |
| JP7232759B2 (ja) | 2016-11-25 | 2023-03-03 | ホロジック, インコーポレイテッド | 保健医療情報の操作および可視化コントローラ |
| DE102017200930A1 (de) * | 2017-01-20 | 2018-07-26 | Siemens Healthcare Gmbh | Verfahren zur Ermittlung eines dreidimensionalen Bilddatensatzes |
| JP7174710B2 (ja) | 2017-03-30 | 2022-11-17 | ホロジック, インコーポレイテッド | 合成乳房組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法 |
| US11455754B2 (en) | 2017-03-30 | 2022-09-27 | Hologic, Inc. | System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement |
| JP7277053B2 (ja) | 2017-03-30 | 2023-05-18 | ホロジック, インコーポレイテッド | 階層式マルチレベル特徴画像合成および提示のためのシステムおよび方法 |
| EP3665620A4 (en) * | 2017-08-07 | 2021-04-21 | Imago Systems, Inc. | SYSTEM AND PROCESS FOR VISUALIZATION AND CHARACTERIZATION OF OBJECTS IN PICTURES |
| US20190196662A1 (en) | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Graphical control of grid views |
| US10922897B2 (en) | 2018-01-15 | 2021-02-16 | Canon Medical Systems Corporation | Medical information processing apparatus, X-ray diagnostic system, and medical information processing method |
| ES2950033T3 (es) | 2018-09-28 | 2023-10-04 | Hologic Inc | Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad |
| KR20210095137A (ko) | 2018-11-25 | 2021-07-30 | 홀로직, 인크. | 다중 모달리티 행잉 프로토콜 |
| CN113574609A (zh) | 2019-03-29 | 2021-10-29 | 豪洛捷公司 | 剪切触发的数字图像报告生成 |
| WO2020236847A1 (en) | 2019-05-22 | 2020-11-26 | Theseus Al, Inc. | Method and system for analysis of spine anatomy and spine disease |
| US12186119B2 (en) | 2021-10-05 | 2025-01-07 | Hologic, Inc. | Interactive model interface for image selection in medical imaging systems |
-
2019
- 2019-09-24 ES ES19783840T patent/ES2950033T3/es active Active
- 2019-09-24 WO PCT/US2019/052621 patent/WO2020068767A1/en not_active Ceased
- 2019-09-24 EP EP19783840.2A patent/EP3856033B1/en active Active
- 2019-09-24 JP JP2021517228A patent/JP7482860B2/ja active Active
- 2019-09-24 US US17/280,866 patent/US11857358B2/en active Active
- 2019-09-24 CN CN201980063586.7A patent/CN112770674B/zh active Active
- 2019-09-24 AU AU2019346527A patent/AU2019346527B2/en active Active
-
2023
- 2023-11-15 US US18/509,550 patent/US12207963B2/en active Active
-
2024
- 2024-02-26 JP JP2024026500A patent/JP2024051051A/ja not_active Withdrawn
- 2024-12-16 US US18/982,311 patent/US20250228515A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022502177A (ja) | 2022-01-11 |
| EP3856033A1 (en) | 2021-08-04 |
| US20240260923A1 (en) | 2024-08-08 |
| AU2019346527A1 (en) | 2021-04-08 |
| AU2019346527B2 (en) | 2025-03-06 |
| WO2020068767A1 (en) | 2020-04-02 |
| CN112770674B (zh) | 2024-08-06 |
| US12207963B2 (en) | 2025-01-28 |
| US20250228515A1 (en) | 2025-07-17 |
| JP2024051051A (ja) | 2024-04-10 |
| US11857358B2 (en) | 2024-01-02 |
| JP7482860B2 (ja) | 2024-05-14 |
| CN112770674A (zh) | 2021-05-07 |
| EP3856033B1 (en) | 2023-06-07 |
| US20220015731A1 (en) | 2022-01-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2950033T3 (es) | Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad | |
| US11983799B2 (en) | System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement | |
| JP7607015B2 (ja) | 合成乳房組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法 | |
| ES2943561T3 (es) | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis | |
| ES2641456T3 (es) | Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas | |
| US8983156B2 (en) | System and method for improving workflow efficiences in reading tomosynthesis medical image data | |
| US11158045B2 (en) | Method and apparatus for performing 3D imaging examinations of a structure under differing configurations and analyzing morphologic changes |