[go: up one dir, main page]

WO2025224080A1 - Method for generating an augmented image using a medical visualisation system, medical visualisation system, and computer program product - Google Patents

Method for generating an augmented image using a medical visualisation system, medical visualisation system, and computer program product

Info

Publication number
WO2025224080A1
WO2025224080A1 PCT/EP2025/060887 EP2025060887W WO2025224080A1 WO 2025224080 A1 WO2025224080 A1 WO 2025224080A1 EP 2025060887 W EP2025060887 W EP 2025060887W WO 2025224080 A1 WO2025224080 A1 WO 2025224080A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
information
foreground
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/EP2025/060887
Other languages
German (de)
French (fr)
Inventor
Markus Philipp
Fang You
Enrico Geissler
Anna ALPEROVICH
Tommaso Giannantonio
Steffen Urban
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Publication of WO2025224080A1 publication Critical patent/WO2025224080A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Definitions

  • the invention relates to a method for generating an augmented image using a medical visualization system, a medical visualization system and a computer program product.
  • Surgical microscopes are used, among other things, to prepare for and perform medical operations on a patient.
  • Such surgical microscopes are used by a user, e.g., a surgeon or an assistant, during a procedure to provide a magnified view of an area of examination, particularly in or on the patient's surgical site.
  • a surgical microscope may include an objective lens or lens system to produce a true optical image of the area of examination.
  • the objective lens may include optical elements for beam guidance, shaping, and/or direction.
  • An optical element may, in particular, be a lens.
  • Surgical microscopes are used in medical facilities, as well as in laboratories and industrial applications. Examples of medical applications include neurosurgery, ophthalmic surgery, otolaryngology (ENT), plastic or reconstructive surgery, and orthopedic surgery. This list is not exhaustive. Generally, they are used in all areas of surgery where a magnified, high-resolution view of the surgical field is required to perform precise procedures.
  • medical applications include neurosurgery, ophthalmic surgery, otolaryngology (ENT), plastic or reconstructive surgery, and orthopedic surgery. This list is not exhaustive. Generally, they are used in all areas of surgery where a magnified, high-resolution view of the surgical field is required to perform precise procedures.
  • analog surgical microscopes do not capture images that are then displayed, for example, on a screen to magnify the examination area. Instead, they offer the user a directly visual magnification of the examination area.
  • radiation reflected or scattered from the area of application passes through the objective lens into at least one beam path and to at least one output section, through or into which the user looks to visually perceive the radiation and thus also the typically magnified representation of the examination area.
  • An exemplary embodiment of a The output section is a so-called eyepiece into or through which the user looks in order to optically perceive the examination area with at least one eye.
  • Digital surgical microscopes comprise at least one image acquisition device for microscopic imaging, which captures radiation in a beam path of the surgical microscope to generate a magnified image. This image can be displayed to the user or multiple users on one or more display devices, thus enabling high-resolution visualization.
  • the image can be generated as a transmittable image signal that encodes or represents the image. Purely digital surgical microscopes, unlike analog surgical microscopes, do not have an output section for visually detectable radiation, specifically no eyepiece.
  • the image signal can then be transmitted as a data signal, either wired or wirelessly.
  • Digital surgical microscopes allow for the recording, storage, and further processing of images and videos. By applying image processing techniques, contrast, brightness, and other parameters can be adjusted to optimize the image quality of the generated images.
  • Hybrid surgical microscopes can include at least one image acquisition device as well as at least one output section.
  • the radiation guided in a beam path of the operating microscope can be split with a beam splitter, whereby a first portion is directed to the output section and another portion is captured by the at least one image acquisition device.
  • Stereoscopic surgical microscopes are also well-known. These typically include two separate beam paths for beam guidance and provide the user with a depth perception of the examination area. The beams guided in the two beam paths can be visually detected by the user via output sections. Digital surgical microscopes alternatively or additionally include two image acquisition units, each capturing the beams in one of the beam paths to generate an image. Based on these two images, which can also be referred to as corresponding images, a three-dimensional image is then provided to the user via a suitable display device.
  • the image acquisition units are components of a stereo (camera) system.
  • the operating microscope can form a medical visualization system, or the medical visualization system can include the operating microscope.
  • the components of the medical visualization system described below may be components of the operating microscope or components designed differently from the operating microscope.
  • An augmented representation can, in particular, be a representation of the real examination area that is enhanced by computer, especially by adding or overlaying at least one virtual object and/or other additional information onto the representation of the real examination area.
  • the augmented representation can be displayed to a user as an augmented image on a display device or provided in a visually perceptible manner via an output section.
  • Additional information can be provided in the form of data that represents or encodes a geometric description of a space, particularly a three-dimensional space, especially one containing objects arranged within it. Additional information can also be information generated from such data, for example, information produced by rendering.
  • Rendering, or image synthesis is the process of computer-implemented generation of a photorealistic or non-photorealistic image from a 2D or 3D model.
  • Multiple models can be defined in a scene file, which contains objects in a defined language or data structure.
  • the scene file can contain geometry, viewpoint, texture, lighting, and shading information that describes the virtual scene.
  • the data contained in the scene file is then passed to a rendering program, which processes it and outputs it to a digital image or raster graphics file.
  • a software application or component that performs the rendering is called a rendering engine, rendering system, graphics engine, or simply a renderer.
  • An important requirement for augmentation is that the viewer of the augmented image, especially a surgeon, is not disturbed or distracted by the augmentation during their work.
  • a surgeon can operate ergonomically even when viewing an area of examination with superimposed augmentation. Therefore, it is especially important that a An object, such as a tumor, that lies spatially behind a surface of the examination area along a particular line of sight or viewing direction, must also be represented in an augmented image in such a way that it does not mistakenly superimpose objects located spatially in front of the surface, as this can impair the viewer's spatial perception.
  • This can also distort the stereoscopic depth impression when viewed through a stereoscopic operating microscope. This can be particularly true if augmented objects are superimposed in a stereoscopically perceptible manner, as the resulting three-dimensional perception can be confusing for the viewer.
  • augmentation can be problematic if it obscures the representation of these objects. This can disrupt the viewer's perception of information regarding the relative position of the object and the area under examination. Furthermore, it can be problematic if augmentation covers areas where tissue is depicted, as the viewer, especially the aforementioned surgeon, needs to clearly see the depicted tissue in order to perform surgical procedures.
  • US2010/295931 A1 relates to the technical field of medical navigation image output.
  • Medical navigation is used in image-guided surgery and assists the surgeon in the optimal positioning of their instruments, for example, by referencing previously acquired image data of the patient.
  • the treating physician thus has access to an image output, such as a monitor, on which they can see where their instrument or its functional component is located in relation to specific body regions of the patient.
  • US Patent 2015/221105 A1 discloses imaging systems, imaging devices, and imaging methods that merge portions of a multidimensional reconstructed image with multidimensional visualizations of at least a portion of a surgical site.
  • the imaging systems can generate multidimensional reconstructed images based on preoperative image data.
  • the imaging systems can display a portion of the multidimensional reconstructed image.
  • the document M. Allan et al., 2017 Robotic Instrument Segmentation Challenge, https://arxiv.org/abs/1902.06426, 2019 reveals a semantic segmentation.
  • the technical problem therefore arises of creating a method for generating an augmented image using a medical visualization system, a medical visualization system, and a computer program product that increase the display quality of the augmented image to improve the perception of a depicted examination area during augmentation and thus overcome at least one of the disadvantages explained above.
  • a method for generating an augmented image using a medical visualization system includes, in particular, an operating microscope or can be generated by the operating microscope itself.
  • a surgical microscope can be, in particular, a stereo microscope. It can also be designed as an endoscope.
  • An operating microscope can comprise a microscope body.
  • the objective lens described above can be integrated into or attached to the microscope body, particularly in a detachable manner.
  • the objective lens can be fixed in position relative to the microscope body.
  • the microscope body can also have or incorporate at least one beam path for microscopic imaging and/or other optical elements for beam guidance, shaping, and/or deflection.
  • the microscope body can include at least one mounting interface for attaching an output element, such as an eyepiece, in particular in a detachable manner.
  • the microscope body can comprise or form a housing, or be arranged within a housing. Components of the operating microscope, such as an image acquisition device for microscopic imaging, are also included. The illustration shows that the parts can be located in or on the housing.
  • the medical visualization system can include a stand for mounting the operating microscope.
  • the operating microscope in particular the microscope body, can be mechanically attached to the stand.
  • the stand is designed to allow movement of the operating microscope in space, in particular with at least one degree of freedom, preferably with six degrees of freedom, where one degree of freedom can be translational or rotational.
  • the stand can include at least one drive unit for moving the operating microscope.
  • Such a drive unit can, for example, be a servo motor.
  • the stand can also include means for transmitting force/torque, e.g., gear units.
  • the at least one drive unit in such a way that the operating microscope performs a desired movement and thus a desired change of position in space, or assumes a desired position and/or orientation in space.
  • the at least one drive unit can be controlled in such a way that an optical axis of an objective lens of the operating microscope assumes a desired orientation.
  • the at least one drive unit can be controlled such that a reference point of the operating microscope, e.g., a focal point, is positioned at a desired position in space.
  • a target position can be specified by a user or another higher-level system.
  • the medical visualization system can include one or more display devices for showing the images.
  • the display device can be used to show two- or three-dimensional images.
  • a three-dimensional image can, in particular, be or comprise a stereo image pair, wherein the images of this image pair are stereoscopic images.
  • Typical display devices are screens, especially 3D screens, head-mounted displays (HMDs), or digital eyepieces, which can also be referred to as booms.
  • the medical visualization system in particular the
  • At least one beam filter to provide excitation radiation with wavelengths from a broader spectrum, e.g. the spectrum of the white light illumination device
  • At least one filter device for filtering radiation from a broader spectrum e.g. for detection by an image acquisition device for microscopic imaging
  • At least one position detection device for determining a pose, i.e. a position and/or orientation, at least of the operating microscope
  • At least one device for determining depth information in particular with regard to the elements arranged in the detection range of the operating microscope, which may be designed, for example, as a distance sensor,
  • At least one storage device for storing signals and/or information, especially in a retrievable manner.
  • An image acquisition device may, in particular, include a CMOS or CCD sensor.
  • the detection range of the ambient camera may fully or at least partially encompass the detection range of the surgical microscope.
  • the detection range of the surgical microscope may fully or at least partially encompass the detection range of the ambient camera.
  • a fluorescence visualization mode a filter device can be inserted into an observation beam path, providing the viewer with a filtered representation of the examination area. This radiation can be captured by the at least one image acquisition device for microscopic imaging. Alternatively, fluorescence radiation can also be captured by a separate acquisition device, such as a spectral camera.
  • the fluorescence mode advantageously enables intraoperative tissue differentiation. Tumor tissue, in particular, can be visualized using fluorescence-based images. Nerve tissue, in particular, can be visualized using polarization-contrast-based images.
  • Medical visualization systems can be operated, for example, by manually controlling a component, particularly the operating microscope, or a corresponding input device; by voice control; by gesture control; by eye-tracking; by image-based control; or by other operating methods.
  • the medical visualization system or the operating microscope may include the necessary components.
  • Image-based control may, in particular, include the generation of operating or control signals by evaluating at least one image produced by an image acquisition device for microscopic imaging or by an image acquisition device of an optical position detection system.
  • Adjustable operating parameters of the medical visualization system or the surgical microscope can be formed by one or more of the following parameters:
  • the proposed method comprises the following steps: a) Receiving at least one image signal, which is generated by at least one
  • the image acquisition device of the operating microscope was generated, and which is a The image represents a section of the area being examined.
  • the image signal can be received via an interface of the medical visualization system. Specifically, the image signal can represent a two-dimensional image.
  • the area being examined can be a region of a patient's body during surgery or a diagnostic examination.
  • the received image signal can preferably represent a white light image (VIS image) generated with visible radiation, i.e., radiation from a wavelength range between 360 nm and 830 nm. It is also conceivable that the image is provided as a fluorescence contrast image, generated by radiation with predetermined fluorescence-specific wavelengths or wavelength ranges, for example, wavelengths of 400 nm or 560 nm. The image can also be provided as a polarization contrast image, generated by radiation with a predetermined polarization.
  • the image acquisition device of the surgical microscope can therefore be an image acquisition device for microscopic, i.e., magnified, imaging of the examination area, or it can be one of several different image acquisition devices.
  • Foreground elements include, for example, instruments, especially surgical instruments, hands, or fingers, or sections thereof.
  • the background contains elements, also referred to as background elements, which can be overlaid by augmentation. Background elements include, in particular, tissue. However, background elements can also be instruments.
  • hybrid elements can exist, which can be either background or foreground elements depending on the scenario.
  • An example of a hybrid element could be a swab, which is classified as a background element. This is particularly true when the swab is statically and/or unactuated within the area of investigation.
  • the swab can also be classified as a foreground element, especially if it moves more than a predetermined amount and/or is actuated by a user.
  • foreground elements are not limited to instruments. Furthermore, no object recognition is performed for the detection of foreground elements.
  • both parts of the image in which tissue is depicted and parts of the image in which an instrument is depicted can be classified as parts of the background area.
  • the division can be achieved, in particular, by creating an image mask that represents information about the foreground and background. Such an image mask will be explained in more detail below.
  • the image mask can be represented or encoded by a transmittable signal.
  • information about the division can also be provided in other ways.
  • the additional information signal represents a, in particular, two-dimensional image of the The examination area is provided based on information generated preoperatively or intraoperatively.
  • the additional information signal can be generated by another component of the medical visualization system, such as another image acquisition device or a sensor.
  • the additional information signal can also be retrieved from a storage device of the medical visualization system. It is also conceivable that the additional information signal is retrieved from a higher-level system, such as a network.
  • the additional information signal represents or encodes information that is to be superimposed on the image of the examination area. d) Generating the augmented image by: i. Superimposing the background area or a part thereof with the additional information. This can also be referred to as background overlay.
  • the overlay with additional information is performed exclusively in the background area or in a part of the background area.
  • Both options i. and ii. have in common that the overlay does not occur across the entire image, but rather involves separate or different treatment or overlay of the background and foreground areas. In particular, the background and foreground areas are treated differently for augmentation.
  • the generated augmented image can then be transmitted, in particular as an image signal, to a display device, which is then controlled to display the to output an image in a visually perceptible manner.
  • a virtual (3D) image or an augmented (3D) image can contain visible and/or hidden objects or elements, which can then be represented in a visually perceptible way.
  • image signals generated by the two image acquisition units of the stereo system representing corresponding images of the examination area
  • Each of these corresponding images can then be divided into a foreground and a background area.
  • augmented images can be generated by superimposing the additional information in the background area onto each of the images.
  • image-specific additional information signal for augmentation for each of the corresponding images, which is then used to generate the augmented image.
  • virtual image acquisition units can be used to generate an additional information signal representing a virtual image created from or by the additional information.
  • the virtual image acquisition units can be optical models of the image acquisition units of the stereo system. This advantageously results in perspective-correct augmentation, particularly in a three-dimensional and consistent manner.
  • a virtual image can encode a texture, especially with coloring and/or transparency information.
  • the additional information can be introduced into the beam path, for example, by reflection.
  • This information can be projected onto a projection element, such as a radiolucent disc, positioned in the beam path using a projection device of the operating microscope.
  • the augmented image can then be generated by creating an image based on the beams into which the additional information has been introduced as described.
  • the radiation representing the augmented image can also be provided by an output section for visual perception by a viewer.
  • an augmented image can be generated by computer-aided enhancement of an image of the real examination area, particularly through image processing. In this process, additional information can be superimposed onto the image of the real examination area. With a stereoscopic operating microscope, it is possible to provide the user with two augmented representations.
  • corresponding additional information can be introduced into each of the two beam paths of a stereoscopic operating microscope.
  • augmented images can be generated from the images produced by both image acquisition units.
  • an augmented image with depth information that is, an augmented three-dimensional representation—can be provided to the user on a suitable display device or via an output section.
  • Additional information displayed to a user through augmentation can include, in particular, preoperatively generated information, such as preoperatively generated data, which can also be used for surgical planning.
  • preoperatively generated data can be, in particular, volumetric data.
  • Volumetric data can be provided as a point cloud, a voxel-based representation, or a mesh-based representation.
  • the additional information can also be provided, in particular, as a transmittable signal.
  • Preoperative data can be generated, for example, using computed tomography (CT) or magnetic resonance imaging (MRI).
  • CT computed tomography
  • MRI magnetic resonance imaging
  • Other imaging techniques particularly ultrasound, X-ray, fluorescence, SPECT (single-photon emission computed tomography), or PET (positron emission tomography), can also be used.
  • Such augmentation allows, for example, a tumor object or its contours, generated based on preoperative information, to be superimposed onto a white light image.
  • Preoperative data generated using magnetic resonance imaging (MRI) can identify various tissue types, such as adipose tissue, muscle tissue, tumor tissue, as well as blood vessels and nerve pathways.
  • Preoperative data generated using a computed tomography-based method can be used to visualize bony structures in particular.
  • intraoperative information that is, information acquired or generated during treatment—can be used as supplementary information for generating the augmented image.
  • information can be collected and stored during surgery and then subsequently used to generate an augmented image. This is particularly advantageous when different visualization modalities are activated at different times.
  • fluorescence information can be displayed in a fluorescence visualization modality or superimposed on a white light image.
  • the additional information can be assigned a reference coordinate system, which means that the additional information can also include spatial information.
  • This reference coordinate system can also be called a world coordinate system.
  • Augmentation typically requires registration between the reference coordinate system of the additional information and a reference coordinate system of the medical visualization system, particularly the operating microscope or its image acquisition unit. This registration can be performed prior to augmentation.
  • the registration establishes a spatial relationship between both the additional information and the image to a common reference coordinate system, especially for the information in the image generated by the operating microscope's image acquisition unit.
  • This common reference coordinate system hereinafter also referred to as the reference coordinate system, can be, in particular, the reference coordinate system of the additional information, the reference coordinate system of the medical visualization system, or a different reference coordinate system altogether.
  • Various methods can be used for registration, for example, model-based registration.
  • features can be detected in an image that correspond to previously known features, e.g., geometric features.
  • Features in the supplementary information correspond to the registration, which can then be determined based on these corresponding features.
  • the registration can, for example, be determined in the form of a transformation matrix that includes a rotation and/or translation component.
  • An exemplary model-based registration can be edge-based, where the corresponding features are formed, for example, by a property of at least one, preferably several, edges in both the image and the supplementary information.
  • Topography-based registration is also possible, particularly if a topography can be determined, e.g., with a stereo system of an operating microscope. Topographic information can thus be determined in the at least one image, and corresponding features, points, or sections can then be detected in both the supplementary information and this topographic information, which can then be used to determine the registration.
  • the additional information can therefore be registered information.
  • the property "registered" can mean that a spatial reference to the reference coordinate system is known, in particular in the form of a transformation matrix.
  • a registered device can generate signals whose spatial reference to the reference coordinate system is known.
  • the additional information can be generated primarily through rendering, a process already described in the introduction.
  • a virtual image can be created through rendering, which can then be used for augmentation and, for example, superimposed on a live-recorded image of the real-world area under investigation.
  • the virtual image can also be provided as an image signal that encodes or represents the virtual image.
  • the virtual image can be generated using a virtual image acquisition device, which can be a mathematical or physical, and in particular computer-aided, optical model of an image acquisition device. Specifically, a computer-implemented calculation of the pixels of the virtual image can be performed.
  • This virtual image depends, among other things, on parameters of the (modeled) image acquisition device.
  • the virtual image can be used for microscopic imaging depending on the intrinsic parameters of the image acquisition device. can be generated, especially with these parameters. If corresponding images of a virtual stereo system are generated, these can additionally be generated for microscopic imaging depending on the extrinsic parameters of the two image acquisition devices, especially with these parameters.
  • the parameters of the operating microscope's image acquisition device(s) used for microscopic imaging can be taken into account. This makes it possible to generate virtual images under the same conditions as real images.
  • the virtual image can also be generated depending on the pose, i.e., the position and/or orientation, of the (modeled) image acquisition device of the operating microscope.
  • the pose of the operating microscope's image acquisition device(s) used for microscopic imaging can be taken into account, utilizing the registration information described above.
  • the registration information it is possible, for example, to determine which pose of the virtual image acquisition device in the reference coordinate system of the additional information, which can also be referred to as the render coordinate system, corresponds to the actual pose of the (modeled) image acquisition device of the operating microscope, and this information can be used for the rendering process.
  • a pose of at least one virtual image acquisition device can be identical to the pose of the modeled image acquisition device in the reference coordinate system.
  • an image of a tumor object to be superimposed can be generated by rendering and then transmitted as an image or video signal and used for augmentation.
  • the current pose of the operating microscope particularly the image acquisition unit.
  • This pose can be determined using a position detection unit. Registration allows a relationship to be established between the reference coordinate system of the position detection unit and the previously described reference coordinate systems, especially the reference coordinate system of the additional information. This enables the pose of the
  • the position of an operating microscope within a desired reference coordinate system, particularly the reference coordinate system can be determined.
  • the position of the objective's optical axis or the position of a focal point can be determined. If the operating microscope is mounted on a stand with at least one joint, its position can also be determined based on the joint position, which can be detected, for example, by a sensing device or sensor.
  • the position of the operating microscope and the additional information can define a previously described scene, i.e., a virtual spatial model that defines objects and their material properties, light sources, and the position and viewing direction of an observer, here the operating microscope.
  • the position detection device or another position detection device, to also detect the pose of at least one other subject or object, or a part thereof.
  • a subject can be, in particular, a user of the medical visualization system, such as someone observing the examination area or a display device.
  • An object can be, in particular, another component of the medical visualization system, especially a display device.
  • an object can also be an item that is not part of the medical visualization system, such as a piece of equipment like an operating table or a medical instrument. This makes it possible to determine the pose of the other subject or object within a desired reference coordinate system.
  • a position detection device can also be called a tracking system.
  • a tracking system can be optical, electromagnetic, or operate in some other way.
  • the tracking system can be marker-based, detecting active or passive markers. Markers can be attached to objects or subjects whose pose is to be detected by the tracking system.
  • An optical tracking system can, in particular, include optically detectable markers. This is a system for monoscopic position detection.
  • the pose of an object can be determined by evaluating a two-dimensional image, specifically a single two-dimensional image.
  • the position can be determined by evaluating the intensity values of pixels (picture elements) of the two-dimensional image.
  • the medical visualization system includes at least one image acquisition device of an optical position detection device, which may in particular be a component of the operating microscope. This can also be referred to as a peripheral camera and serves in particular for monoscopic position detection.
  • a tracking system can also be part of an input device, where, for example, gesture control or gaze direction control is performed depending on information generated by the tracking system.
  • additional information can be superimposed according to a predefined overlay modality.
  • the additional information can be generated with a predefined rendering style.
  • rendering styles from which the predefined rendering style can be selected, include, for example, transparent rendering, in particular alpha-blending-based rendering, animation-based rendering, texture-based rendering, or Fresnel-effect-based rendering.
  • Another rendering style can be a wireframe rendering style, which only displays the edges or edge lines of an object. In such a rendering, no filled areas or textures are displayed.
  • a rendering style can also be a style that sets at least one, preferably several or even all of the following effects: color, texture, transparency, animation, or Fresnel effect.
  • background overlay the overlay with additional information can be applied exclusively to the background area or to a portion of the background area.
  • the additional information is overlaid in a domain-specific manner.
  • the overlay in the background area can be with background-specific additional information according to a background-specific overlay modality
  • the overlay in the foreground area with Foreground-specific additional information is displayed according to a foreground-specific overlay modality.
  • This area-specific overlay ensures that additional information in the background is displayed differently in the augmented image than in the foreground.
  • area-specific overlay can create an augmented image in which background-specific additional information is displayed according to a first visualization modality and foreground-specific additional information is displayed according to a second visualization modality that differs from the first.
  • a visualization modality refers to the way in which an image is displayed for visual perception and/or what information is displayed in the image.
  • a visualization modality can be used to display the image with predetermined color properties and/or predetermined transparency properties. It can also be used to display only modality-specific areas, properties, or features of a (virtual) object, such as only surfaces and/or borders and/or edges.
  • background-specific and foreground-specific additional information can also be generated using different rendering styles. These different rendering styles can vary in the number of effects, their specific parameters, and/or the combination of effects.
  • the additional information mentioned can also be generated using the same rendering style, although this is executed differently for generating background-specific additional information than for generating foreground-specific additional information, in particular with different (render) parameters.
  • the elements, especially pixels, of an image mask, each representing a pixel's position in the foreground or background can also be assigned information about the background-specific overlay modality or the foreground-specific overlay modality.
  • the pixels of the image mask representing a background position can be assigned a first degree of transparency.
  • a further transparency level for the overlay is assigned, whereby the further transparency level does not represent complete transparency but a higher transparency than the first transparency level.
  • a transition region can include pixels whose distance to the nearest pixel in the foreground region and distance to the nearest pixel in the background region is less than a predetermined distance threshold.
  • the edge- or transition region-specific overlay modality can change, especially depending on the distance to an edge/transition. For example, the degree of transparency can change, increasing especially towards the edge/transition.
  • the additional overlay information in a transition region can be generated using a predetermined rendering style, such as the wireframe rendering style.
  • the method according to the invention advantageously enables improved display quality of an area of investigation represented by an augmented image, since, according to the background overlay, the overlay being applied exclusively in the background area reliably prevents contradictory perceptions of information by the viewer. This is particularly important because additional information, which, as explained above, lies behind a surface of the area of investigation, is not erroneously displayed in the foreground. In other words, this occlusion-correct display ensures correct 3D depth perception of augmented additional information.
  • the combined overlay also results in improved display quality, as the selection of different overlay qualities ensures that a viewer can perceive an image with correct depth perception and still receive information about augmented additional information even in a foreground area.
  • the proposed method offers the advantage of increasing the information content of the augmented image, since the assignment to foreground or background is not based on object recognition. Instead, it allows an object to be assigned to the foreground or background depending on the scenario.
  • At least two image signals are received, generated sequentially by the at least one image acquisition device of the operating microscope, each representing an image of the examination area. Furthermore, information about temporal changes in the image information as a function of these at least two images is determined, and the division of the image, in particular the image generated earlier or later, into foreground and background regions is performed based on this information.
  • the change in the image information can be determined, in particular, as a function of the change itself or as the change between the at least two images, e.g., as the difference between the images or dependent on this difference.
  • Information about temporal changes in image information can preferably be information about the optical flow, which can be determined based on at least two images.
  • the optical flow information represents motion information, specifically the apparent movement of brightness patterns in an image sequence.
  • the optical flow of the described image sequence can, for example, be defined as a vector field representing the velocity of visible points in object space projected onto the image plane, particularly within the coordinate system of the image acquisition device.
  • each pixel of the image can be assigned a quantity representing the optical flow. In this case, a pixel can be assigned to the foreground if its assigned quantity is greater than a predetermined threshold. If the assigned quantity is less than or equal to the predetermined threshold, the pixel can be assigned to the background.
  • the motion field provides motion information, particularly 3D motion, for each pixel of an image.
  • the motion field can represent the true, especially three-dimensional, motion at each point that is mapped onto the 2D image.
  • depth information is determined for at least one image of the examination area, with the division depending on this depth information.
  • Depth information can, for example, represent the distance of the element imaged at a pixel from a reference point, a reference line, or a reference surface. This distance can be determined along a reference direction. In particular, the distance can be determined within the reference coordinate system.
  • the reference surface can be oriented perpendicular to the optical axis of the operating microscope, with the reference direction being parallel to the optical axis.
  • the reference surface can, for example, include an intersection point between the optical axis and an end lens of the operating microscope.
  • Depth information can be determined using the described device for determining depth information, for example, a distance sensor.
  • a distance sensor could be, for example, an OCT distance sensor, a lidar sensor, a time-of-flight sensor, or a triangulation sensor such as a fringe projection sensor.
  • OCT distance sensor OCT distance sensor
  • lidar sensor OCT sensor
  • time-of-flight sensor a triangulation sensor
  • triangulation sensor such as a fringe projection sensor.
  • distance sensors that generate distance information according to other physical principles can also be used.
  • the device for determining depth information can be registered, meaning the depth information can be registered information.
  • a depth map can be generated for the image of the area under investigation, assigning depth information to each pixel.
  • a pixel can then be assigned to the foreground if its depth information is greater than a predetermined minimum threshold and/or less than a predetermined maximum threshold. Otherwise, the pixel can be assigned to the background.
  • additional semantic information is determined for the image of the area under investigation, or at least a sub-area thereof, with the division being carried out depending on this additional semantic information.
  • the additional semantic information can be information that is taken into account during the division in addition to other information, e.g., in addition to the previously described information about a temporal change in the image information and/or the depth information.
  • semantic information can be assigned to the image, especially to a pixel or a set of pixels.
  • Semantic information can be, in particular, descriptive information about the type of depicted element, its relationship to other depicted elements, or to the environment.
  • This information can be determined image-based, for example, using a semantic segmentation method. Additional semantic information can therefore be information about or derived from a semantic segmentation of a depicted scene, where the segmented scene can be divided into image areas, each assigned a class from a set of predefined classes.
  • the set of predefined classes could, for example, include the class "fabric,” the class “instrument,” the class “cloth,” the class “swab,” and/or another class.
  • Semantic supplementary information can include, in particular, information that can be evaluated for the described division, i.e., division-relevant information.
  • each pixel of the image can be classified as containing either a background or a foreground element.
  • the semantic supplementary information can differ from the information required for the visually perceptible representation of the image. Considering semantic supplementary information advantageously results in a very reliable division into foreground and background areas, which in turn improves the image quality.
  • contextual information is determined for the image of the area under investigation, or at least a sub-area thereof, with the division depending on this contextual information.
  • Contextual information can, in particular, be information about a temporal or spatial context. Contextual information can also include information about the type of current user activity, the type of current operational phase, or the type of operation. In particular, the contextual information can differ from the information required for the visually perceptible representation of the image.
  • the division is carried out using a model generated by machine learning.
  • machine learning This encompasses or refers to methods for determining the model based on training data.
  • the model can be determined using supervised learning methods, where the training data (i.e., a training dataset) comprises input data and output data.
  • Input data can consist of images representing the area under investigation or the corresponding image signals, while output data consists of the division of the respective image into foreground and background regions.
  • input and output data for such training data can be generated by having a user manually select the foreground and background areas in the images. This allows the model to learn the relationship between images and their division into foreground and background.
  • unsupervised learning methods could be used to determine the model.
  • Suitable mathematical algorithms for machine learning include: Decision tree-based methods, Ensemble methods (e.g., boosting, random forest)-based methods, Regression-based methods, Bayesian methods (e.g., Bayesian belief networks)-based methods, Kernel methods (e.g., support vector machines)-based methods, Instance (e.g., k-nearest neighbor)-based methods, Association rule learning-based methods, Boltzmann machine-based methods, Artificial neural networks (e.g., perceptron)-based methods, Deep learning (e.g., convolutional neural networks, stacked autoencoders)-based methods, Transformer-based methods, Dimensionality reduction-based methods, and Regularization methods-based methods.
  • Decision tree-based methods Ensemble methods (e.g., boosting, random forest)-based methods, Regression-based methods, Bayesian methods (e.g., Bayesian belief networks)-based methods, Kernel methods (e.g., support vector machines)-based methods, Instance (e.g.,
  • the parameterized model can be used in the so-called inference phase to generate the foreground and background partitioning from images. This results in a reliable and high-quality partitioning.
  • the model can be trained once, preferably with a sufficiently large dataset (training phase), and then used as a model (inference phase).
  • the partitioning is carried out using a neural network.
  • the neural network can be an autoencoder, a convolutional neural network (CNN), a recurrent neural network (RNN), a long short-term memory network (LSTM), a neural transformer network, or a combination of at least two of the aforementioned networks.
  • CNN convolutional neural network
  • RNN recurrent neural network
  • LSTM long short-term memory network
  • a neural transformer network or a combination of at least two of the aforementioned networks.
  • Such a neural network particularly one configured as an autoencoder, can be trained using the training data described above, after which the partitioning can be performed.
  • the advantage of using an autoencoder for the neural network is that the computational effort required for the partitioning is low, allowing it to be performed reliably and quickly, especially by embedded systems.
  • Training a CNN advantageously reduces network complexity, making it suitable for devices with limited computing power. This applies to both the training and inference phases. Furthermore, the training time required for CNNs is short, particularly compared to LSTM networks, which also require comparatively higher computing power. However, LSTM network training is especially well-suited for time series analysis because its architecture incorporates temporal dependencies. This results in a high-quality partitioning.
  • input variables for the model-based partitioning include, in addition to the at least one image of the examination area or the corresponding image signal, at least one of the following pieces of information: a) depth information for the at least one image of the examination area, b) at least one image of the examination area generated temporally prior to the image of the examination area, c) an image corresponding to the image of the examination area, which was generated by another image acquisition device of the operating microscope, d) information for classifying imaged objects, e) information for classifying a user activity, f) information for classifying a surgical phase, g) information for classifying a surgical type.
  • the operating microscope includes a stereo system with two image acquisition devices and the image of the examination area was generated by one of the image acquisition devices, then the corresponding function described above can be used.
  • the image is generated by the remaining image acquisition unit of the stereo system.
  • the information according to points d) and e) can constitute semantic (additional) information.
  • the information according to points f) and g) can constitute contextual information.
  • input variables for the model-based partitioning can be image information, e.g., in the form of a microscopic white-light image and, if applicable, an image according to point b) or c), and/or image processing information, e.g., information about a temporal change in the image information and/or information according to point a), and/or semantic (additional) information and/or contextual information.
  • Information for classifying depicted objects can be information about a class to which a depicted object is assigned.
  • An example class could be "fabric” or "instrument”.
  • Information for classifying user activity can be information about a class of user activity, for example, the class "cutting”, “suction”, “ablating”, “coagulating”, “retracting” or "swabbing".
  • information for the classification of an operational phase can be information about the class of the current operational phase, for example the class "opening”, “exploration”, “resection”, “reconstruction”, “wound closure”, “wound healing”, “planning of opening”, “exposure”.
  • the information regarding the classification of the surgical type can be a class of surgical type, for example, "neurosurgical surgery,” “orthopedic surgery,” or “ophthalmic surgery.”
  • Neurosurgical surgeries can also be classified into classes such as “tumor surgery,” “vascular surgery,” or “spinal surgery.”
  • Ophthalmic surgeries can also be classified into “anterior segment surgery” and “posterior segment surgery,” with anterior segment surgery including procedures such as cataract treatment or Descemet membrane endothelial keratoplasty.
  • Posterior segment surgery includes procedures such as (membrane) peeling or vitrectomy.
  • the depth information can be determined as previously explained.
  • the classification information can be determined by a classification system, with the classification being particularly image-based, i.e., through evaluation.
  • the classification information can be generated from at least one image, in particular from the image acquisition device of the operating microscope or from a different image acquisition device.
  • the classification information can also be predetermined. It is also possible that the classification information is determined based on control signals generated for or within the medical visualization system. Such information can also be generated by operating an input device.
  • a prediction of image positions in the foreground and/or background area, or a sub-area thereof, is performed, with the division occurring depending on a predicted image position.
  • the division into foreground and background areas for the image generated at the current time can be predicted from images generated at earlier times and then taken into account when generating the augmented image at the current time.
  • the division into foreground and background areas can also be predicted for a future image (i.e., a subsequent image) and then taken into account when generating the augmented image at that future time. Such a prediction of the division in a subsequent image can also consider the image generated at the current time.
  • prediction can be used to forecast the spatial division of an image into foreground and background areas.
  • prediction can take into account the movement of an imaged element.
  • prediction is preferably used to forecast the foreground or a part thereof, especially when it contains a moving foreground element such as an instrument, a glove, a finger, a suction cup, etc.
  • prediction can be used to forecast and/or take into account where the moving foreground object is moving or will move.
  • it can also be used to predict the division of a subsequent image or sequence of subsequent images into foreground and background areas.
  • predicting the position of the foreground image can also predict the position of the background image, and vice versa, namely as the remaining portion of the image.
  • the sub-area(s) of a subsequent image can be identified that need to be considered in the prediction, particularly for determining motion information.
  • Sub-areas of an image or subsequent image generated at the current time cannot be analyzed for prediction, for example because no representation of moving elements is expected there.
  • Information about the image positions of the (partial) area was determined.
  • This information can be stored in a retrievable format. It can include, in particular, information about the (image) position and/or the shape and/or size of the foreground and/or background area (or the selected sub-areas). This information can be determined, for example, based on the image masks that were defined for images generated at earlier times.
  • a prediction method can be used to forecast the image positions of a (sub)area in the image generated at the current time or in a subsequent image, for example, in the form of an image mask.
  • motion information for a (sub)area can be determined.
  • This motion information can be information about a motion trajectory, such as the motion trajectory of a reference point (e.g., the geometric center of the (sub)area or a pixel), and/or information about motion parameters such as velocity.
  • the image position in the current image and/or in a subsequent image i.e., an image generated at a future time
  • information about changes in shape and/or size can be determined.
  • the set of partitioning information that can be fused can include the aforementioned prediction information, depth information, additional semantic information, contextual information, and information about temporal changes.
  • the prediction is based on the image masks, whereby, depending on image masks that were created at earlier times, i.e. before the time of the creation of an image mask for the current image, information about the coordinates of image points representing membership in the foreground area and/or of image points representing membership in the background area is determined in the image mask for the current image.
  • confidence information is determined when splitting the image, with the splitting and/or superimposition being confidence-dependent.
  • the respective confidence information can, in particular, represent the confidence level in assigning a pixel or image area to one of the areas foreground or background. In other words, this information can represent how accurate the corresponding assignment is, or with what certainty the assignment is determined. If the division is performed using a machine learning model (MLM), the confidence level can be (co-)determined during processing by the MLM.
  • MLM machine learning model
  • the confidence information can be provided as a confidence value, which can take values from a predetermined range between a first limit representing maximum confidence and another limit representing minimum confidence.
  • confidence-based partitioning can be achieved by assigning a pixel/image area to one of the areas only if the corresponding confidence value exceeds or falls below a predetermined confidence threshold. Otherwise, it can be assigned to the remaining area, or alternative methods can be used to assign these pixels/image areas to one of the areas.
  • pixels/image areas assigned to the background with a low confidence value can be reassigned to the foreground based on confidence, for example, if the confidence value for the background assignment is lower than a predetermined confidence threshold.
  • This allows the foreground area to be enlarged based on confidence. This reduces the risk of additional information being erroneously superimposed in an area identified as the background with low confidence. This can advantageously improve the display quality.
  • pixels/image areas assigned to the foreground or background with a low confidence value may be assigned to a different area depending on the confidence level.
  • a transition region can be assigned, for example, if a confidence value of the assignment represents a lower confidence level than a predetermined confidence threshold.
  • This confidence-dependent assignment to the transition region preferably only occurs if at least one additional assignment criterion is met, for example, if the distance of the pixel/image area to the nearest foreground region, in particular to the nearest foreground pixel, is less than a predetermined distance threshold, and/or if the distance of the pixel/image area to the nearest background region, in particular to the nearest background pixel, is less than a predetermined distance threshold. If at least one of these additional criteria is not met, the assignment to the foreground region described above can still be made.
  • the predetermined confidence thresholds for assigning a result to the foreground region and the transition region can be the same or different.
  • the predetermined confidence threshold for assigning a result to the foreground region is lower than the threshold for assigning it to the transition region.
  • confidence-based overlaying can be achieved by applying a confidence-based overlay modality. Overlaying according to various overlay modalities has already been explained. In particular, coloring and/or transparency properties can be set based on confidence. For example, the lower the confidence level, the higher the transparency, especially for pixels/image areas in the background. In other words, the additional information can be displayed in the relevant areas using a confidence-based visualization modality. Confidence-based rendering styles can also be applied to display the additional information. This allows viewers to easily assess the reliability of the overlay with additional information, which in turn improves the overall display quality.
  • Confidence values representing low confidence can be generated particularly when assigning pixels in blurred images or in blurred image areas, which can occur during image acquisition by the operating microscope, especially in cases of defocusing. This ensures good image quality even in such scenarios.
  • Confidence-based overlay can improve image quality, particularly in border areas and/or transitions between foreground and background. If it is assumed that the assignment of pixels to one of the areas tends to occur with low confidence in border areas/transitions, a viewer can easily perceive such border areas/transitions and the reliability of the overlay there with additional information, which in turn also improves image quality.
  • the size of the foreground area is changed, particularly at least with respect to a sub-area of the foreground.
  • the size of the foreground area can be enlarged or reduced, in particular by assigning pixels from the background area surrounding a sub-area of the foreground area to the foreground, or by assigning pixels from a sub-area of the foreground area to the background. If the foreground area is enlarged, the background area is reduced. If the foreground area is reduced, the background area is enlarged accordingly.
  • the change can be geometric; for example, a circular, ellipsoidal, rectangular, or square enlargement or reduction can be performed, whereby, for example, all pixels arranged in a geometric shape around a reference point of the sub-area are assigned to the foreground.
  • Properties of the change such as its geometric shape and/or the magnitude of the change, can be predetermined.
  • the size of the background area is changed, in particular at least with respect to a sub-area of the background area, especially by being enlarged or reduced.
  • the explanations given for changing the foreground area apply accordingly.
  • Such a subsequent change in the size of the foreground and/or background area advantageously results in a further improved image quality for the augmented image, particularly in certain application-dependent scenarios.
  • an image area containing a part in contact with the tissue e.g., the tip of an instrument
  • the area shown, classified as the foreground is enlarged to allow the user to perceive the contacted tissue without augmentation. It is also possible to reduce the size of foreground sections containing little information. This further improves the display quality of the provided augmented image.
  • a sub-area of the foreground or background to be modified is determined by an object detection method.
  • the sub-area to be modified can designate a sub-area of the foreground or background with respect to which the size of the foreground or background is changed.
  • the sub-area to be modified can also designate a sub-area whose size is changed.
  • the size of the foreground area can be increased or decreased, in particular by assigning pixels from the background area in a section adjacent to, or at least partially surrounding, a portion of the foreground area to the foreground, or by assigning pixels from a portion of the foreground area to the background.
  • the size of the background area can be increased or decreased, in particular by assigning pixels from the foreground area in a section adjacent to, or at least partially surrounding, a portion of the background area to the background, or by assigning pixels from a portion of the background area to the foreground.
  • the object recognition method can, in particular, be an image-based method, which assigns at least one pixel to an object by evaluating at least one image.
  • image-based method assigns at least one pixel to an object by evaluating at least one image.
  • Such methods are known to those skilled in the art. For example, it is possible to identify specific sections, such as the tip of an instrument, in the image using an object recognition method. The size of the foreground area can then be increased with respect to this section.
  • the properties of the change can be object-dependent, with predetermined properties of the change being assigned to an object. This advantageously results in a reliable identification of a section, which in turn improves the previously described image quality.
  • a sub-area to be modified is determined as a function of at least one optical parameter of the operating microscope.
  • Optical parameters can be, in particular, the operating parameters described above.
  • an image area depicting foreground elements that are not arranged within a predetermined interval around a set working distance of the operating microscope can be defined as the sub-area of the foreground to be reduced in size.
  • foreground elements are rendered blurry by the microscope, i.e., with insufficient image quality, where image quality can, in particular, represent image sharpness.
  • image quality can, in particular, represent image sharpness.
  • image quality can, in particular, represent image sharpness.
  • an image area with insufficient image quality can be enlarged or reduced, where the image quality can, for example, depend on the degree of blurriness of the elements depicted in the image area.
  • an additional image area can be created for augmentation, but this additional image area only includes areas in which image information such as tissue or instruments are depicted with insufficient image quality.
  • Enlarging such a (foreground) area can prevent augmentation with sufficient image quality from occurring next to an area of insufficient image quality, for example, by creating a sharp image area next to a blurry one.
  • This type of representation can advantageously reduce viewer confusion.
  • Such enlargement can be particularly useful when the image quality is below a predetermined level.
  • augmented information particularly in the vicinity of an image area with insufficient image quality, could be displayed with the same insufficient image quality.
  • Such a display of augmented information is particularly possible if the image quality is better than or equal to a predetermined level. This also allows for the advantageous and reliable identification of sub-areas that need to be changed, which in turn improves the previously explained presentation quality.
  • the change is carried out depending on a) a distance of the object or element depicted in the sub-area from a surface of the investigation area, b) sub-area-specific image information.
  • a property of the change can be chosen to depend on at least one of the aforementioned quantities.
  • the magnitude of the change can be positively or negatively correlated with the distance.
  • the distance can be determined, in particular, depending on the depth information explained above. Of course, other methods of determining the distance are also conceivable.
  • Image information can be a property of the image and can be determined image-based. It can be, in particular, blur information, shadow information, or contrast information. Sub-area-specific image information can also be determined by a suitable device. In particular, this information can be determined image-based. For example, it is possible to perform a blur classification procedure, a shadow classification procedure, and/or a contrast classification procedure to identify image areas, especially in the foreground, that are blurred and/or shadowed by more than a predetermined degree and/or lack sufficient contrast. Such areas can then be reduced in size, or even completely removed from the foreground. It is also conceivable that such areas could be enlarged.
  • Image quality in an image area can also be determined depending on the image information, e.g., blur information, shadow information, and/or contrast information, whereby the magnification and/or the Reduction in size can then be done depending on the image quality.
  • image information e.g., blur information, shadow information, and/or contrast information
  • This has the advantageous effect of allowing even parts of the foreground to be used for augmentation, areas that would otherwise provide little information to the user. This, in turn, improves the display quality and increases the information content of the augmented image.
  • a sub-area to be modified and/or the change in size is determined by means of a model generated through machine learning, in particular by means of a neural network.
  • the input data for a training dataset can consist of images and the division of these images into foreground and background areas, or the corresponding image signals.
  • the output data can be information about selected sub-areas and/or the changed division into foreground and background areas.
  • input and output data for such training data can be generated by a user manually selecting the sub-areas and/or the changes to the foreground and background areas.
  • the model can learn the relationship between images and their division into foreground and background areas, as well as the subsequently changed division. This results in a reliable and high-quality determination of the sub-area to be modified and/or the change in size.
  • input variables for determining the sub-area to be modified and/or the change in size include at least one of the previously described pieces of information a) to g) for the model-based partitioning. This advantageously improves the reliability and accuracy of determining the sub-area to be modified and/or the change in size, which in turn improves the user's perception of the augmented image.
  • a medical visualization system is further proposed, in particular comprising or consisting of an operating microscope which includes at least one
  • the medical visualization system comprises an interface for receiving an image signal from an image acquisition device for generating an image of an examination area and at least one evaluation unit.
  • the medical visualization system in particular the evaluation unit, is configured to perform a method according to one of the embodiments described in this disclosure.
  • the medical visualization system may, in particular, further comprise at least one of the following: a device for determining information for classifying imaged objects and/or user activity and/or a surgical phase and/or a surgical type; a device for determining the distance of an imaged object from a surface of the examination area; and a device for determining area-specific blur and/or shadowing information.
  • the evaluation unit can be configured as a computing unit or include one.
  • a computing unit in turn, can include at least one microcontroller and/or at least one integrated circuit, or be configured as such.
  • the computing unit can, in particular, generate the virtual image. It is possible that the evaluation unit includes at least one graphics processing unit (GPU) for this purpose.
  • GPU graphics processing unit
  • a further proposal is a computer program product comprising a computer program, wherein the computer program includes software means for executing several or all steps, in particular steps b. and c., of the method according to one of the embodiments described in this disclosure, when the computer program is executed by or in a computer or an automation system.
  • the computer or automation system may include the evaluation device described above.
  • the computer program product may, in particular, include means for performing the rendering, i.e., a rendering engine.
  • the computer program product advantageously enables the Implementation of a method according to one of the embodiments described in this disclosure, with the advantages already explained.
  • Fig. 1a shows an exemplary representation of a superimposition without a division into foreground and background areas according to the invention
  • Fig. 1b shows another exemplary representation of an augmented image without a division into foreground and background areas according to the invention
  • Fig. 2 shows a schematic flowchart of a method according to the invention
  • Fig. 3 shows an exemplary representation of an augmented image produced using the method according to the invention.
  • Fig. 4a shows a schematic representation of an examination area and an instrument
  • Fig. 4b is a schematic representation of an image of the scene depicted in Fig. 4a
  • Fig. 4c is a schematic representation of information on optical flow
  • Fig. 4d a schematic representation of an image mask
  • Fig. 5a shows a schematic representation of an investigation area and a
  • Fig. 5b is a schematic representation of an image of the scene depicted in Fig. 5a
  • Fig. 5c shows a schematic representation of depth information
  • Fig. 5d a schematic representation of an image mask
  • Fig. 6 shows a schematic flowchart of a method according to the invention in a further embodiment
  • Fig. 7 shows a schematic flowchart of a method according to the invention in a further embodiment
  • Fig. 8a shows a schematic representation of an image mask
  • Fig. 8b shows an augmented image generated on the basis of the image mask shown in Fig. 8a
  • Fig. 9a shows a schematic image mask with a locally enlarged foreground area
  • Fig. 9b shows an augmented image generated on the basis of the image mask shown in Fig. 9a
  • Fig. 10a a schematic representation of an operation scene
  • Fig. 10b shows a schematic representation of the additional information to be augmented
  • Fig. 10c shows an exemplary image mask
  • Fig. 10d shows an augmented image generated on the basis of the image mask shown in Fig. 10c
  • Fig. 10e shows another exemplary image mask
  • Fig. 10f shows an augmented image generated on the basis of the image mask shown in Fig. 10e
  • Fig. 10g shows another exemplary image mask
  • Fig. 10h shows an augmented image generated on the basis of the image mask shown in Fig. 10g
  • Fig. 11 shows a schematic block diagram of a medical visualization system according to the invention
  • Fig. 12 shows an exemplary representation of an augmented image produced using the inventive method in a further embodiment.
  • Fig. 1a shows an exemplary white-light image of an examination area 1 with instruments 2.
  • a virtual object 3, for example a tumor object 3 is superimposed onto the image. This superimposition is done without considering areas in the image that are suitable for augmentation. It can be seen that the tumor object 3 obscures parts of an instrument 2 and the tissue.
  • Fig. 1b shows the same scene as Fig. 1a, except that the tumor object 3 is depicted as more transparent than in Fig. 1a, in particular as semi-transparent.
  • the perception of the tissue areas and instrument sections obscured by the tumor object 3 is nevertheless impaired.
  • the spatial impression arises that the tumor object 3 is hovering above the tissue, which makes a spatially accurate perception of the scene difficult for the viewer.
  • Fig. 2 shows a schematic flowchart of a method according to the invention for generating an augmented image AA using a medical visualization system 4 (see Fig. 11).
  • a receive step ES1 an image signal is received which was generated by at least one image acquisition device 5 for microscopic imaging (see, for example, Fig. 11) and which represents an image of an examination area 1.
  • This image A1 is divided in a partitioning step AS into a foreground area V and a background area H (see, for example, Fig. 4d). Exemplary partitioning possibilities are explained below.
  • at least one signal comprising additional information ZI for augmentation also referred to as the additional information signal, is received.
  • Figure 2 shows that the additional information signal is stored in a retrievable manner in a storage device 6, which can be part of the medical visualization system 4.
  • the additional information ZI can be acquired intraoperatively and/or retrieved from a network via a suitable interface.
  • the additional information signal can also represent an image, preferably an image of the same size as the image A1 generated by the image acquisition device 5.
  • the image represented by the additional information signal can, in particular, be a virtual image generated from preoperatively generated additional information ZI. As already explained at the outset, such a virtual image can be generated with a virtual image acquisition device, which is an optical model of the image acquisition device 5.
  • a generation step GS the augmented image AA is then created by overlaying the additional information ZI onto the image A1 in the background area H or a part thereof.
  • an image mask M can be generated that encodes or represents information about the foreground region V and the background region H.
  • the image mask M can be provided, in particular, as an image, especially a two-dimensional image, where the image size of the image mask M can correspond to the image size of the image A1.
  • Each pixel of the image mask M can be classified as either a foreground region V or a background region H.
  • the image mask M can, for example, be a binary image, where foreground region pixels are assigned the value 1 or 0, and background region pixels are assigned the remaining value.
  • the overlay of the additional information ZI can only occur for pixels of image A1 whose corresponding pixels are classified as background area pixels in the image mask M.
  • a corresponding pixel can have the same pixel coordinates, which can refer to the same image coordinate systems.
  • the overlay can be opaque or with a predetermined degree of transparency, especially semi-transparent.
  • an alpha blending method can be used for overlay.
  • each background pixel of the image mask can be assigned an alpha value between 0 (inclusive) and 1 (inclusive), where the value 0 or 1 represents, for example, complete transparency and the value 1 or 0 represents complete opacity.
  • a background pixel in the image mask M is assigned an alpha value representing complete opacity
  • the corresponding pixel in the image A1 can be completely overlaid by additional information. If a background pixel in the image mask M is assigned an alpha value that represents neither complete transparency nor complete opacity, the corresponding pixel in the image A1 will not be completely overlaid by additional information. If an alpha value representing complete transparency is assigned to a background area pixel in the image mask M, the corresponding pixel in the image A1 cannot be overlaid with additional information.
  • At least one, but preferably several, foreground pixel(s) of the image mask are assigned an alpha value that does not represent complete transparency, where the minimum transparency level of all foreground pixels is greater than the maximum transparency level of all background pixels.
  • an augmented image can be created in which an overlay in a foreground area is displayed more transparently than an overlay in a background area. In this way, a viewer can also perceive additional information in the foreground area; however, this information is less distracting due to the higher transparency.
  • the augmented image AA can then be transmitted to a display device 20 (see Fig. 11), in particular as an image signal, to present it to a viewer in a visually perceptible manner.
  • Fig. 3 shows an exemplary augmented image AA, generated using the method described in Fig. 2.
  • the additional information ZI represents the tumor object 3.
  • the tumor object 3 does not obscure the instruments 2.
  • the instruments 2 are depicted in the foreground area V of image A1
  • tissue areas of the examination area 1 are depicted in the background area H.
  • the augmented image AA shown in Fig. 3 allows the viewer an improved perception of the scene and therefore offers a higher image quality.
  • Fig. 4a shows an exemplary representation of an instrument 2 and an examination area 1, in particular a surgical surface. Also shown is an image acquisition device 5 of an operating microscope.
  • Fig. 4b shows an image A1 generated by the image acquisition device 5.
  • the instrument 2 and the examination area 1 are depicted therein, with the instrument 2 obscuring parts of the examination area 1.
  • Fig. 4c shows, by way of example and indicated by arrows, information on the optical flow in the image A1.
  • This information on the optical flow can be generated by receiving at least two image signals, which were generated sequentially by the image acquisition device 5 and each represent an image A1 of the examination area 1. Methods for determining this information from the sequence of these images A1 are known to those skilled in the art.
  • a quantity representing the optical flow is assigned to a sub-region of the image A1, into which the instrument 2 is imaged.
  • Fig. 4d shows an exemplary representation of an instrument 2 and an examination area 1, in particular a surgical surface. Also shown is an image acquisition device 5 of an operating microscope.
  • Fig. 5b shows an image A1 generated by the image acquisition device 5.
  • the instrument 2 and the examination area 1 are depicted therein, with the instrument 2 obscuring parts of the examination area 1.
  • Fig. 5c shows an example of depth information in image A1.
  • This information can be generated, for example, with a distance sensor that detects the distance of the instrument and the uncovered part of the examination area from, for example, a reference plane oriented perpendicular to an optical axis of the operating microscope and in which an intersection of the optical axis with an end glass of the operating microscope is located, along an optical axis of the operating microscope.
  • distance information is assigned to a sub-area of image A1, in which instrument 2 is depicted, representing a distance that is smaller than the distance assigned to the sub-area of image A1 that depicts the unobstructed part of the examination area.
  • this smaller distance is smaller than a predetermined distance.
  • the pixels of this instrument sub-area can then be classified as foreground area V, i.e., as foreground area pixels, while the remaining pixels of image A1 are classified as background area H, i.e., as background area pixels.
  • the resulting image mask M consisting of foreground area pixels and background area pixels, is shown in Fig. 5d.
  • Fig. 6 shows a schematic flowchart of a further embodiment of a method according to the invention.
  • further information I is taken into account.
  • Such further information I can be, in particular, additional semantic information or contextual information.
  • such semantic or contextual information can be the depth information for image A1 explained in relation to Fig. 5c.
  • the information I can also include information about a device related to the image.
  • A1 represents a corresponding image generated by another image acquisition device 5b (see Fig. 11).
  • the information I can represent at least one image of the investigation area 1 generated prior to image A1.
  • the information I also includes information about a classification of objects depicted in image A1.
  • Object recognition can be performed for this purpose, whereby the recognized objects are then classified using a classification procedure.
  • this classification does not provide a classification in the foreground and background areas V and H; in particular, for at least one object class from the set of all object classes, there is no unambiguous assignment to the foreground area V or background area H.
  • objects of the class "cloths" or "swabs” can be assigned to the background area, especially if they are statically arranged, e.g., fixed in position relative to the surgical site or lying on the tissue of the surgical site.
  • Such objects of the class "cloths” or “swabs” can also be assigned to the foreground area, especially if they are not statically arranged, particularly because they are held or even moved by an instrument.
  • An object or area of the class “Fabric” can also be assigned to the background area, particularly if there is no object or area of the class “Instrument” in that fabric area or in a predetermined area around it.
  • an object or area of the class “Fabric” can also be assigned to the foreground area, particularly if there is an object or area of the class "Instrument” in that fabric area or in a predetermined area around it. In the latter case, it can be avoided that an augmentation would disturb a viewer when viewing areas with which an instrument is currently interacting.
  • the information can also include information about the classification of a user activity, an operation phase, or an operation type. These have already been explained previously.
  • the partitioning step AS is performed with or by evaluating a model generated by machine learning, in particular by evaluating a neural network.
  • An input variable of the The model can be at least one image A1 of the investigation area 1. Another input variable can be the information I explained above.
  • An output variable of the model can be the image mask M explained previously.
  • Fig. 7 shows a schematic flowchart of a further embodiment of a method according to the invention.
  • a modification step VS is performed after the partitioning step for generating the image mask M.
  • a size of the foreground area V is changed, at least with respect to a sub-area of the foreground area V.
  • a modified image mask MV is provided. This corresponds to the image mask M, but includes more or fewer foreground pixels and thus correspondingly fewer or more background pixels compared to the image mask M.
  • the dashed lines indicate that the partitioning step AS and/or the modification step VS can optionally be performed depending on the additional information I explained above.
  • Fig. 8a shows a schematic image mask M with three foreground elements, which correspond, for example, to image sections of the image A1, into which instruments 2 (see Fig. 3) are depicted.
  • Fig. 8b shows the augmented image AA, which is generated based on this image mask M. It can be seen that an augmented tumor object 3 does not cover the depicted instruments 2.
  • Fig. 9a shows an exemplary modified or altered image mask MV.
  • the foreground area V has been enlarged in the region of a tip or free end of the instruments 2.
  • the enlargement of the foreground area V was achieved by defining a circular area with a predetermined diameter around a reference point of the sub-area, in this case, for example, around the geometric center of an image mask section classified as an instrument tip, and classifying all image points of the modified image mask MV within this circular area as foreground image points.
  • Fig. 9b shows the augmented image generated based on the modified image mask MV.
  • a portion of the tissue around the instrument tips is not augmented by the tumor object 3. This allows the viewer to perceive the tissue actuated by the instruments without augmentation.
  • Fig. 10a shows an exemplary image A1, which was generated by an image acquisition device 5 of a medical visualization system 4 (see Fig. 11).
  • Fig. 10b shows an exemplary representation of a tumor object 3, which is represented by an additional information signal.
  • Fig. 10c shows an exemplary image mask M with foreground area V and background area H, which was created without the modification step VS shown in Fig. 7.
  • Fig. 10d shows the augmented image AA generated on the basis of this image mask M.
  • Fig. 10e shows an image mask MV modified compared to the image mask M shown in Fig. 10c, with a modified foreground and background area V, H.
  • shadowed image areas vB of image A1 were detected, whereby the foreground area V of the image mask M shown in Fig. 10c was reduced by the image areas that are shadowed.
  • Such shadowed image areas vB can be determined, for example, using shadow classification methods.
  • One exemplary classification method compares the color values of pixels in image A1 with predetermined threshold values and classifies a pixel as a shadowed pixel depending on the comparison result.
  • Fig. 10f shows an augmented image AA, which was generated based on the modified image mask shown in Fig. 10e. It is evident that additional information ZI can also be superimposed on image A1 in the shaded image area vB.
  • Fig. 10g shows an image mask MV that has been modified in comparison to the image mask M shown in Fig. 10c, with a changed foreground and background area in terms of size.
  • a modification step VS in addition to the shadowed image areas vB, blurred image sections uB of image A1 were detected, whereby the foreground area V of the image mask M shown in Fig. 10c was reduced by image areas that are blurred.
  • Such blurred image areas uB can be determined, for example, using blur classification methods.
  • An exemplary classification method for detecting blurred areas can include the application of Laplacian operators, in particular the application of Laplacian pyramids, and threshold operators.
  • Fig. 10h shows an augmented image AA, which was generated based on the modified image mask shown in Fig. 10g. It is evident that additional information ZI can also be superimposed on image A1 in the out-of-focus image area uB.
  • Fig. 11 shows a schematic block diagram of a medical visualization system 4 and an examination area 1. Also shown are an instrument 2 and a tumor object 3, which are arranged within the detection range of an operating microscope 10 of the medical visualization system 4.
  • the tumor object 3 can be a hidden object.
  • the medical visualization system 4 comprises at least one image acquisition device 5 for microscopic imaging of the examination area 1.
  • the image acquisition device 5 can be part of the operating microscope 10, which can include an objective 19 with a lens.
  • This operating microscope 10, in turn, can be configured as a stereo operating microscope, comprising a further image acquisition device 5b for microscopic imaging of the examination area 1, and the image acquisition devices 5 and 5b forming a stereo system.
  • a storage device 6, in which additional information ZI can be stored, is also shown.
  • the medical visualization system 4 further comprises an evaluation device 7, which can receive and evaluate an image A1 generated by the image acquisition device 5, wherein the image A1 can be transmitted as an image signal via an interface 21 to the evaluation device 7.
  • the evaluation device 7 can, in particular, perform the division step AS and the generation step GS.
  • the medical visualization system 4 can include a device 8 for determining depth information. This device can, for example, be designed as a distance sensor or include one. Also shown is an interface 9 of the medical visualization system 4 for data transmission with other, especially higher-level, systems.
  • the medical visualization system can include 4:
  • the elements of the medical visualization system 4 can be connected via data and/or signal technology.
  • beam filters for providing excitation radiation with wavelengths from a broader spectrum, e.g. the spectrum of the white light illumination device, or for filtering radiation from a broader spectrum.
  • the environmental camera 15 can be part of a further tracking system, which serves in particular for the optical determination of the pose of instruments within the detection range of the environmental camera 15.
  • the pose determination can be monoscopic. In particular, the determination can also be marker-based. Images from the environmental camera 15 can be evaluated, in particular, for object recognition in order to identify a sub-area with respect to which the size of the foreground area V and/or background area H is then changed.
  • Fig. 12 shows an exemplary augmented image AA, which was generated essentially like the augmented image AA shown in Fig. 3. However, unlike the augmented image AA shown in Fig. 3, the superimposition of image A1 with the tumor object 3 occurs in both the foreground region V and the background region H (see Fig. 4d).
  • the superimposition of the background region H with the tumor object 3 occurs according to a first superimposition modality, represented by line hatching, and the superimposition of the foreground region V with the tumor object 3 occurs according to a further superimposition modality, represented by dotted hatching.
  • the superimposition modalities are thus different from each other.
  • the tumor object 3 overlays the instruments 2, which are shown in the foreground area V, differently than tissue areas which are shown in the background area H.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method for generating an augmented image (AA) using a medical visualisation system (4), comprising the following steps: a. receiving at least one image signal which has been generated by at least one image capturing device (5) of a surgical microscope (10) and which represents an image (A1) of an examination region (1); b. dividing the image (A1) into a foreground region (V) and a background region (H); c. receiving at least one signal which represents or encodes supplementary information (ZI) for augmentation; d. generating the augmented image (AA) by i. superimposing the background region (H) of the image of the examination region (1), or a portion thereof, with the supplementary information (ZI), or ii. superimposing the image (A1) of the examination region (1), or a portion thereof, with the supplementary information (ZI), wherein the superimposition in the background region (H) and in the foreground region (V) is carried out according to superimposition modalities that are different from one another. The invention also relates to a medical visualisation system (4) and to a computer program product.

Description

Verfahren zur Erzeugung eines augmentierten Abbilds durch ein medizinischesMethod for generating an augmented image using a medical device

Visualisierungssystem, medizinisches Visualisierungssystem undVisualization system, medical visualization system and

Computerprogrammprodukt Computer program product

Die Erfindung betrifft ein Verfahren zur Erzeugung eines augmentierten Abbilds durch ein medizinisches Visualisierungssystem, ein medizinisches Visualisierungssystem und ein Computerprogrammprodukt. The invention relates to a method for generating an augmented image using a medical visualization system, a medical visualization system and a computer program product.

Zur Vorbereitung und Durchführung von insbesondere medizinischen Operationen an einem Patienten werden unter anderem Operationsmikroskope verwendet. Solche Operationsmikroskope werden von einem Nutzer, z.B. einem Chirurgen oder einem Assistenten, während einer Behandlung genutzt, um eine insbesondere vergrößerte Darstellung eines Untersuchungsbereiches, insbesondere in oder auf dem Situs des Patienten, bereitzustellen. Hierzu kann ein Operationsmikroskop ein Objektiv oder ein Objektivsystem umfassen, um eine reelle optische Abbildung des Untersuchungsbereichs zu erzeugen. Das Objektiv kann optische Elemente zur Strahlführung und/oder -formung und/oder -lenkung umfassen. Ein optisches Element kann insbesondere eine Linse sein. Surgical microscopes are used, among other things, to prepare for and perform medical operations on a patient. Such surgical microscopes are used by a user, e.g., a surgeon or an assistant, during a procedure to provide a magnified view of an area of examination, particularly in or on the patient's surgical site. For this purpose, a surgical microscope may include an objective lens or lens system to produce a true optical image of the area of examination. The objective lens may include optical elements for beam guidance, shaping, and/or direction. An optical element may, in particular, be a lens.

Operationsmikroskope finden Anwendung in medizinischen Einrichtungen, aber auch in Laboren oder bei industriellen Anwendungen. Beispielhafte medizinische Anwendungsgebiete sind die Neurochirurgie, die Augenchirurgie, die Hals-Nasen-Ohren- Chirurgie, die plastische oder rekonstruktive Chirurgie und die orthopädische Chirurgie. Diese Aufzählung ist nicht abschließend. Generell werden sie in allen Bereichen der Chirurgie eingesetzt, in denen eine vergrößerte und hochauflösende Sicht auf das Operationsfeld erforderlich ist, um präzise Eingriffe durchzuführen. Surgical microscopes are used in medical facilities, as well as in laboratories and industrial applications. Examples of medical applications include neurosurgery, ophthalmic surgery, otolaryngology (ENT), plastic or reconstructive surgery, and orthopedic surgery. This list is not exhaustive. Generally, they are used in all areas of surgery where a magnified, high-resolution view of the surgical field is required to perform precise procedures.

Unterschieden werden kann zwischen analogen und digitalen Operationsmikroskopen. Im Gegensatz zu digitalen Operationsmikroskopen erfassen analoge Operationsmikroskope keine Abbilder, die dann z.B. auf einem Bildschirm zur vergrößerten Darstellung des Untersuchungsbereichs angezeigt werden, sondern bieten eine direkt visuell erfassbare Vergrößerung des Untersuchungsbereiches für den Nutzer. Hierbei gelangt vom Anwendungsbereich reflektierte oder gestreute Strahlung durch das Objektiv in zumindest einen Strahlengang und zu zumindest einem Ausgabeabschnitt, durch oder in den der Nutzer schaut, um die Strahlung und somit auch die in der Regel vergrößerte Darstellung des Untersuchungsbereichs visuell zu erfassen. Eine beispielhafte Ausführungsform eines Ausgabeabschnitts ist ein so genanntes Okular in oder durch das der Nutzer blickt, um den Untersuchungsbereich mit zumindest einem Auge optisch zu erfassen. A distinction can be made between analog and digital surgical microscopes. Unlike digital surgical microscopes, analog surgical microscopes do not capture images that are then displayed, for example, on a screen to magnify the examination area. Instead, they offer the user a directly visual magnification of the examination area. Here, radiation reflected or scattered from the area of application passes through the objective lens into at least one beam path and to at least one output section, through or into which the user looks to visually perceive the radiation and thus also the typically magnified representation of the examination area. An exemplary embodiment of a The output section is a so-called eyepiece into or through which the user looks in order to optically perceive the examination area with at least one eye.

Digitale Operationsmikroskope umfassen genau oder zumindest eine Bilderfassungseinrichtung zur mikroskopischen Abbildung, die Strahlung in einem Strahlengang des Operationsmikroskops erfasst, um ein insbesondere vergrößertes Abbild zu erzeugen, wobei dieses Abbild dem Nutzer oder auch mehreren Nutzern auf einer oder mehreren Anzeigeeinrichtung(en) angezeigt werden kann. Somit kann eine hoch-aufgelöste Visualisierung ermöglicht werden. Das Abbild kann in Form eines insbesondere übertragbaren Bildsignals erzeugt werden, welches das Abbild kodiert bzw. repräsentiert. Rein digitale Operationsmikroskope verfügen im Unterschied zu analogen Operationsmikroskopen über keinen Ausgabeabschnitt für visuell erfassbare Strahlung, insbesondere also kein Okular. Ein Bildsignal kann dann in Form von einem Datensignal übertragen werden, insbesondere in drahtgebundener oder in drahtloser Art und Weise. Digitale Operationsmikroskope ermöglichen, Abbilder und Videos aufzunehmen, diese zu speichern und weiterzuverarbeiten. Durch Anwendung von Verfahren der Bildverarbeitung können insbesondere Kontrast, Helligkeit und andere Parameter angepasst werden, um eine Bildqualität der erzeugten Abbilder zu optimieren. Hybride Operationsmikroskope können sowohl zumindest eine Bilderfassungseinrichtung als auch zumindest einen Ausgabeabschnitt. Beispielsweise kann die in einem Strahlengang des Operationsmikroskops geführte Strahlung mit einem Strahlteiler aufgeteilt werden, wobei ein erster Anteil zum Ausgabeabschnitt geleitet und ein weiterer Anteil von der zumindest einen Bilderfassungseinrichtung erfasst wird. Digital surgical microscopes comprise at least one image acquisition device for microscopic imaging, which captures radiation in a beam path of the surgical microscope to generate a magnified image. This image can be displayed to the user or multiple users on one or more display devices, thus enabling high-resolution visualization. The image can be generated as a transmittable image signal that encodes or represents the image. Purely digital surgical microscopes, unlike analog surgical microscopes, do not have an output section for visually detectable radiation, specifically no eyepiece. The image signal can then be transmitted as a data signal, either wired or wirelessly. Digital surgical microscopes allow for the recording, storage, and further processing of images and videos. By applying image processing techniques, contrast, brightness, and other parameters can be adjusted to optimize the image quality of the generated images. Hybrid surgical microscopes can include at least one image acquisition device as well as at least one output section. For example, the radiation guided in a beam path of the operating microscope can be split with a beam splitter, whereby a first portion is directed to the output section and another portion is captured by the at least one image acquisition device.

Weiter bekannt sind Stereooperationsmikroskope, die in der Regel zwei getrennte Strahlengänge zur Strahlführung umfassen und dem Nutzer einen Tiefeneindruck von dem Untersuchungsbereich bereitstellen. Hierzu können die in den beiden Strahlengängen geführten Strahlen über Ausgabeabschnitte visuell durch den Nutzer erfasst werden. Digitale Operationsmikroskope umfassen alternativ oder zusätzlich zwei Bilderfassungseinrichtungen, die jeweils die Strahlen in einem der Strahlengänge erfassen, um ein Abbild zu erzeugen, wobei dann basierend auf den beiden Abbildern, die auch als korrespondierende Abbilder bezeichnet werden können, dem Nutzer über eine geeignete Anzeigeeinrichtung eine dreidimensionale Abbildung bereitgestellt wird. Die Bilderfassungseinrichtungen bilden hierbei Teile eines Stereo(kamera)systems. Stereoscopic surgical microscopes are also well-known. These typically include two separate beam paths for beam guidance and provide the user with a depth perception of the examination area. The beams guided in the two beam paths can be visually detected by the user via output sections. Digital surgical microscopes alternatively or additionally include two image acquisition units, each capturing the beams in one of the beam paths to generate an image. Based on these two images, which can also be referred to as corresponding images, a three-dimensional image is then provided to the user via a suitable display device. The image acquisition units are components of a stereo (camera) system.

Das Operationsmikroskop kann ein medizinisches Visualisierungssystem bilden oder das medizinische Visualisierungssystem kann das Operationsmikroskop umfassen. Nachfolgend erläuterte Bestandteile des medizinischen Visualisierungssystems können Bestandteile des Operationsmikroskops sein oder verschieden vom Operationsmikroskop ausgebildete Bestandteile. The operating microscope can form a medical visualization system, or the medical visualization system can include the operating microscope. The components of the medical visualization system described below may be components of the operating microscope or components designed differently from the operating microscope.

Weiter bekannt ist die Bereitstellung einer augmentierten Darstellung des Untersuchungsbereichs für einen Nutzer. Eine augmentierte Darstellung kann insbesondere eine Darstellung des realen Untersuchungsbereichs sein, welche computergestützt erweitert wird, insbesondere indem als Zusatzinformation mindestens ein virtuelles Objekt und/oder eine andere Zusatzinformation in die Darstellung des realen Untersuchungsbereichs eingeblendet oder dieser überlagert wird. Die augmentierte Darstellung kann einem Nutzer in Form eines augmentierten Abbilds auf einer Anzeigeeinrichtung angezeigt oder über einen Ausgabeabschnitt in visuell erfassbarer Weise bereitgestellt werden. Another known method is the provision of an augmented representation of the examination area to a user. An augmented representation can, in particular, be a representation of the real examination area that is enhanced by computer, especially by adding or overlaying at least one virtual object and/or other additional information onto the representation of the real examination area. The augmented representation can be displayed to a user as an augmented image on a display device or provided in a visually perceptible manner via an output section.

Zusatzinformation können in Form von Daten bereitgestellt sein, die eine geometrische Beschreibung eines insbesondere dreidimensionalen Raums, insbesondere mit darin angeordneten Objekten repräsentieren oder kodieren. Zusatzinformationen können auch aus solchen Daten erzeugte Informationen sein, beispielsweise durch ein Rendern erzeugte Informationen. Unter Rendering oder Bildsynthese versteht man den Prozess der computerimplementierten Erzeugung eines fotorealistischen oder nicht fotorealistischen Bildes aus einem 2D- oder 3D-Modell. Mehrere Modelle können in einer Szenendatei definiert werden, die Objekte in einer definierten Sprache oder Datenstruktur enthält. Die Szenendatei kann Geometrie-, Blickpunkt-, Textur-, Beleuchtungs- und Schattierungsinformationen enthalten, die die virtuelle Szene beschreiben. Die in der Szenendatei enthaltenen Daten werden dann an ein Rendering-Programm weitergeleitet, das sie verarbeitet und in eine digitale Bild- oder Rastergrafikdatei ausgibt. Eine Softwareanwendung oder Komponente, die das Rendering durchführt, wird als Rendering-Engine, Rendering-Engine, Rendering-System, Grafik-Engine oder einfach als Renderer bezeichnet. Additional information can be provided in the form of data that represents or encodes a geometric description of a space, particularly a three-dimensional space, especially one containing objects arranged within it. Additional information can also be information generated from such data, for example, information produced by rendering. Rendering, or image synthesis, is the process of computer-implemented generation of a photorealistic or non-photorealistic image from a 2D or 3D model. Multiple models can be defined in a scene file, which contains objects in a defined language or data structure. The scene file can contain geometry, viewpoint, texture, lighting, and shading information that describes the virtual scene. The data contained in the scene file is then passed to a rendering program, which processes it and outputs it to a digital image or raster graphics file. A software application or component that performs the rendering is called a rendering engine, rendering system, graphics engine, or simply a renderer.

Eine wichtige Anforderung bei einer Augmentierung ist, dass ein Betrachter des augmentierten Abbilds, insbesondere ein Chirurg, durch die Augmentierung bei seiner Tätigkeit nicht gestört oder abgelenkt wird. Insbesondere ist es wünschenswert, dass ein Chirurg auch dann ergonomisch operieren kann, wenn er einen Untersuchungsbereich mit einer überlagerten Augmentierung betrachtet. So ist es insbesondere wichtig, dass ein Objekt, wie z.B. ein Tumor, der entlang einer Blick- oder Betrachtungsrichtung räumlich hinter einer Oberfläche des Untersuchungsbereiches liegt, auch in einem augmentierten Abbild derart dargestellt wird, dass er nicht fälschlicherweise räumlich vor der Oberfläche angeordnete Objekte überlagert, da dies die räumliche Wahrnehmung des Betrachters erschweren kann. Auch kann hierdurch ein Stereo-Tiefeneindruck bei einer Betrachtung durch ein Stereooperationsmikroskop verfälscht werden. Dies kann insbesondere dann der Fall sein, wenn auch augmentierte Objekte in stereoskopisch wahrnehmbarer weise überlagert werden, da die entsprechende dreidimensionale Wahrnehmung für den Betrachter verwirrend sein kann. An important requirement for augmentation is that the viewer of the augmented image, especially a surgeon, is not disturbed or distracted by the augmentation during their work. In particular, it is desirable that a surgeon can operate ergonomically even when viewing an area of examination with superimposed augmentation. Therefore, it is especially important that a An object, such as a tumor, that lies spatially behind a surface of the examination area along a particular line of sight or viewing direction, must also be represented in an augmented image in such a way that it does not mistakenly superimpose objects located spatially in front of the surface, as this can impair the viewer's spatial perception. This can also distort the stereoscopic depth impression when viewed through a stereoscopic operating microscope. This can be particularly true if augmented objects are superimposed in a stereoscopically perceptible manner, as the resulting three-dimensional perception can be confusing for the viewer.

Befinden sich weitere Objekte, wie z.B. chirurgische Instrumente, in einem Blickfeld des medizinischen Visualisierungssystems, so kann die Augmentierung problematisch sein, wenn hierdurch die Darstellung der Objekte überlagert wird, da ein Betrachter somit in der Wahrnehmung von Informationen über eine Relativlage zwischen dem Objekt und dem Untersuchungsbereich gestört werden kann. Ferner kann es problematisch sein, wenn eine Augmentierung Bereiche überdeckt, in die Gewebe abgebildet ist, da ein Betrachter, insbesondere der bereits erwähnte Chirurg, das abgebildete Gewebe klar sehen möchte, um z.B. operative Schritte durchzuführen. If other objects, such as surgical instruments, are within the field of view of the medical visualization system, augmentation can be problematic if it obscures the representation of these objects. This can disrupt the viewer's perception of information regarding the relative position of the object and the area under examination. Furthermore, it can be problematic if augmentation covers areas where tissue is depicted, as the viewer, especially the aforementioned surgeon, needs to clearly see the depicted tissue in order to perform surgical procedures.

Die US2010/295931 A1 bezieht sich auf das technische Gebiet der medizinischen Navigationsbildausgabe. Die medizinische Navigation wird im Rahmen der bildgesteuerten Chirurgie eingesetzt und unterstützt den Chirurgen bei der optimalen Positionierung seiner Instrumente, wobei z.B. auf zuvor erfasste Bilddaten des Patienten Bezug genommen wird. Dem behandelnden Arzt steht somit eine Bildausgabe, z. B. ein Monitor, zur Verfügung, auf dem er erkennen kann, wo sich sein Instrument bzw. dessen Funktionsteil in Bezug auf bestimmte Körperregionen des Patienten befindet. US2010/295931 A1 relates to the technical field of medical navigation image output. Medical navigation is used in image-guided surgery and assists the surgeon in the optimal positioning of their instruments, for example, by referencing previously acquired image data of the patient. The treating physician thus has access to an image output, such as a monitor, on which they can see where their instrument or its functional component is located in relation to specific body regions of the patient.

Die US 2015/221105 A1 offenbart Bildgebungssysteme, Bildgebungsvorrichtungen und Bildgebungsverfahren, die Teile eines mehrdimensionalen rekonstruierten Bildes mit mehrdimensionalen Visualisierungen von mindestens einem Teil einer Operationsstelle verschmelzen. Die Bildgebungssysteme können mehrdimensionale rekonstruierte Bilder auf der Grundlage präoperativer Bilddaten erzeugen. In einem ausgewählten Abschnitt der Visualisierung können die Bildgebungssysteme einen Teil des mehrdimensionalen rekonstruierten Bildes anzeigen. Das Dokument M. Allan et. al., 2017 Robotic Instrument Segmentation Challenge, https://arxiv.org/abs/1902.06426, 2019 offenbart eine semantische Segmentierung. US Patent 2015/221105 A1 discloses imaging systems, imaging devices, and imaging methods that merge portions of a multidimensional reconstructed image with multidimensional visualizations of at least a portion of a surgical site. The imaging systems can generate multidimensional reconstructed images based on preoperative image data. In a selected section of the visualization, the imaging systems can display a portion of the multidimensional reconstructed image. The document M. Allan et al., 2017 Robotic Instrument Segmentation Challenge, https://arxiv.org/abs/1902.06426, 2019 reveals a semantic segmentation.

Es stellt sich somit das technische Problem, ein Verfahren zur Erzeugung eines augmentierten Abbilds durch ein medizinisches Visualisierungssystem, ein medizinisches Visualisierungssystem sowie ein Computerprogrammprodukt zu schaffen, die eine Darstellungsqualität des augmentierten Abbilds zur verbesserten Wahrnehmung eines abgebildeten Untersuchungsbereichs bei einer Augmentierung erhöhen und somit zumindest einen der vorhergehend erläuterten Nachteile überwinden. The technical problem therefore arises of creating a method for generating an augmented image using a medical visualization system, a medical visualization system, and a computer program product that increase the display quality of the augmented image to improve the perception of a depicted examination area during augmentation and thus overcome at least one of the disadvantages explained above.

Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der unabhängigen Ansprüche. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich durch die Unteransprüche. The solution to the technical problem is provided by the articles with the features of the independent claims. Further advantageous embodiments of the invention are described in the dependent claims.

Vorgeschlagen wird ein Verfahren zur Erzeugung eines augmentierten Abbilds durch ein medizinisches Visualisierungssystem. Dieses umfasst insbesondere ein Operationsmikroskop oder kann durch das Operationsmikroskop gebildet sein. A method for generating an augmented image using a medical visualization system is proposed. This system includes, in particular, an operating microscope or can be generated by the operating microscope itself.

Operationsmikroskope und ihre technischen Merkmale wurden eingangs bereits kurz erläutert. Das Operationsmikroskop kann insbesondere ein Stereo-Mikroskop sein. Auch kann das Operationsmikroskop als Endoskop ausgebildet sein. Surgical microscopes and their technical features were briefly explained earlier. A surgical microscope can be, in particular, a stereo microscope. It can also be designed as an endoscope.

Ein Operationsmikroskop kann einen Mikroskopkörper umfassen. Das eingangs erläuterte Objektiv kann in den Mikroskopkörper integriert oder an diesem befestigt sein, insbesondere lösbar. Hierbei kann das Objektiv ortsfest relativ zum Mikroskopkörper angeordnet sein. Neben dem Objektiv kann der Mikroskopkörper ebenfalls mindestens einen Strahlengang für die mikroskopische Abbildung und/oder weitere optische Elemente zur Strahlführung und/oder -formung und/oder -ablenkung aufweisen oder ausbilden. Bei analogen und hybriden Operationsmikroskopen kann der Mikroskopkörper mindestens eine Befestigungsschnittstelle zur insbesondere lösbaren Befestigung eines Ausgabeelements, z.B. eines Okulars, umfassen. Der Mikroskopkörper kann ein Gehäuse umfassen oder ausbilden oder in einem Gehäuse angeordnet sein. Bestandteile des Operationsmikroskops, wie z.B. eine Bilderfassungseinrichtung zur mikroskopischen Abbildung, können in oder an dem Gehäuse angeordnet sein. An operating microscope can comprise a microscope body. The objective lens described above can be integrated into or attached to the microscope body, particularly in a detachable manner. The objective lens can be fixed in position relative to the microscope body. In addition to the objective lens, the microscope body can also have or incorporate at least one beam path for microscopic imaging and/or other optical elements for beam guidance, shaping, and/or deflection. In analog and hybrid operating microscopes, the microscope body can include at least one mounting interface for attaching an output element, such as an eyepiece, in particular in a detachable manner. The microscope body can comprise or form a housing, or be arranged within a housing. Components of the operating microscope, such as an image acquisition device for microscopic imaging, are also included. The illustration shows that the parts can be located in or on the housing.

Das medizinische Visualisierungssystem kann neben dem Operationsmikroskop ein Stativ zur Halterung des Operationsmikroskops umfassen. Das Operationsmikroskop, insbesondere der Mikroskopkörper, kann an dem Stativ mechanisch befestigt sein. Das Stativ ist hierbei derart ausgebildet, dass es eine Bewegung des Operationsmikroskops im Raum ermöglicht, insbesondere mit mindestens einem Freiheitsgrad, vorzugsweise mit sechs Freiheitsgraden, wobei ein Freiheitsgrad ein Translations- oder ein Rotationsfreiheitsgrad sein kann. Weiter kann das Stativ mindestens eine Antriebseinrichtung zur Bewegung des Operationsmikroskops umfassen. Eine solche Antriebseinrichtung kann beispielsweise ein Servomotor sein. Selbstverständlich kann das Stativ auch Mittel zur Kraft-/ Momentenübertragung, z.B. Getriebeeinheiten, umfassen. Insbesondere ist es möglich, die mindestens eine Antriebseinrichtung derart anzusteuern, dass das Operationsmikroskop eine gewünschte Bewegung und somit eine gewünschte Lageänderung im Raum ausführt oder eine gewünschte Lage, also eine Position und/oder Orientierung, im Raum einnimmt. Beispielsweise kann die mindestens eine Antriebseinrichtung derart angesteuert werden, dass eine optische Achse eines Objektivs des Operationsmikroskops eine gewünschte Orientierung einnimmt. Weiter kann die mindestens eine Antriebseinrichtung derart angesteuert werden, dass ein Referenzpunkt des Operationsmikroskops, z.B. ein Fokuspunkt, an einer gewünschten Position im Raum positioniert wird. Eine Soll-Lage kann von einem Nutzer oder einem anderen übergeordneten System vorgegeben werden. Verfahren zur Steuerung der mindestens einen Antriebseinrichtung in Abhängigkeit einer Soll-Lage und einer kinematischen Struktur des Stativs sind hierbei dem Fachmann bekannt. The medical visualization system can include a stand for mounting the operating microscope. The operating microscope, in particular the microscope body, can be mechanically attached to the stand. The stand is designed to allow movement of the operating microscope in space, in particular with at least one degree of freedom, preferably with six degrees of freedom, where one degree of freedom can be translational or rotational. Furthermore, the stand can include at least one drive unit for moving the operating microscope. Such a drive unit can, for example, be a servo motor. Naturally, the stand can also include means for transmitting force/torque, e.g., gear units. In particular, it is possible to control the at least one drive unit in such a way that the operating microscope performs a desired movement and thus a desired change of position in space, or assumes a desired position and/or orientation in space. For example, the at least one drive unit can be controlled in such a way that an optical axis of an objective lens of the operating microscope assumes a desired orientation. Furthermore, the at least one drive unit can be controlled such that a reference point of the operating microscope, e.g., a focal point, is positioned at a desired position in space. A target position can be specified by a user or another higher-level system. Methods for controlling the at least one drive unit as a function of a target position and a kinematic structure of the stand are known to those skilled in the art.

Weiter kann das medizinische Visualisierungssystem eine oder sogar mehrere Anzeigeeinrichtung(en) zur Anzeige der Abbilder umfassen. Die Anzeigeeinrichtung kann zur Darstellung von zwei- oder dreidimensionalen Abbildern dienen. Ein dreidimensionales Abbild kann insbesondere ein Stereo-Bildpaar sein oder umfassen, wobei die Abbilder dieses Bildpaares stereoskopische Abbilder sind. Typische Anzeigeeinrichtungen sind Bildschirme, insbesondere 3D-Bildschirme, Head-Mounted- Displays (HMD) oder digitale Okulare, die auch als so genannte Booms bezeichnet werden können. Weiter kann das medizinische Visualisierungssystem, insbesondere dasFurthermore, the medical visualization system can include one or more display devices for showing the images. The display device can be used to show two- or three-dimensional images. A three-dimensional image can, in particular, be or comprise a stereo image pair, wherein the images of this image pair are stereoscopic images. Typical display devices are screens, especially 3D screens, head-mounted displays (HMDs), or digital eyepieces, which can also be referred to as booms. Furthermore, the medical visualization system, in particular the

Operationsmikroskop, einen oder mehrere der folgend angeführten Elemente umfassen: Operating microscope, including one or more of the following elements:

• mindestens eine Weißlicht-Beleuchtungseinrichtung, • at least one white light lighting device,

• mindestens eine Infrarot-Beleuchtungseinrichtung, • at least one infrared lighting device,

• mindestens eine Fluoreszenz-Beleuchtungseinrichtung zur Anregung von Fluoreszenzstrahlung, • at least one fluorescence illumination device for exciting fluorescence radiation,

• mindestens einen Strahlfilter zur Bereitstellung von Anregungsstrahlung mit Wellenlängen aus einem breiteren Spektrum, z.B. dem Spektrum der Weißlicht- Beleuchtungseinrichtung, • at least one beam filter to provide excitation radiation with wavelengths from a broader spectrum, e.g. the spectrum of the white light illumination device,

• mindestens eine Fluoreszenzerfassungseinrichtung zum Erfassen von Fluoreszenzstrahlung, • at least one fluorescence detection device for detecting fluorescence radiation,

• mindestens eine Filtereinrichtung zum Filtern von Strahlung aus einem breiteren Spektrum, z.B. zur Erfassung durch eine Bilderfassungseinrichtung zur mikroskopischen Abbildung, • at least one filter device for filtering radiation from a broader spectrum, e.g. for detection by an image acquisition device for microscopic imaging,

• mindestens eine Bilderfassungseinrichtung einer optischen Lageerfassungseinrichtung, die auch als Umfeldkamera bezeichnet werden kann,• at least one image acquisition device of an optical position detection device, which can also be referred to as a surrounding camera,

• mindestens eine Einrichtung zur Blickrichtungserkennung, • at least one gaze direction detection device,

• mindestens eine Lageerfassungseinrichtung zur Bestimmung einer Pose, also einer Position und/oder Orientierung, zumindest des Operationsmikroskops • at least one position detection device for determining a pose, i.e. a position and/or orientation, at least of the operating microscope

• mindestens eine Eingabeeinrichtung zur Bedienung, • at least one input device for operation,

• mindestens eine Schnittstelle zur Datenübertragung zu oder von einem weiteren System oder einer weiteren Einrichtung, • at least one interface for data transmission to or from another system or facility,

• mindestens eine Einrichtung zur Bestimmung von Tiefeninformationen, insbesondere bezüglich der im Erfassungsbereich des Operationsmikroskops angeordneten Elemente, die z.B. als Abstandssensor ausgebildet sein kann,• at least one device for determining depth information, in particular with regard to the elements arranged in the detection range of the operating microscope, which may be designed, for example, as a distance sensor,

• mindestens eine Speichereinrichtung zur Speicherung von Signalen und/oder Informationen insbesondere in abrufbarer Weise. • at least one storage device for storing signals and/or information, especially in a retrievable manner.

Eine Bilderfassungseinrichtung kann insbesondere einen CMOS- oder CCD-Sensor umfassen. Ein Erfassungsbereich der Umfeldkamera kann den Erfassungsbereich des Operationsmikroskops vollständig oder zumindest teilweise umfassen. Alternativ kann ein Erfassungsbereich des Operationsmikroskops den Erfassungsbereich der Umfeldkamera vollständig oder zumindest teilweise umfassen. In einem Fluoreszenz-Visualisierungsmodus kann eine Filtereinrichtung in einen Beobachtungsstrahlengang eingebracht werden, wodurch einem Betrachter eine durch die Filtereinrichtung gefilterte Darstellung des Untersuchungsbereichs bereitgestellt. Diese Strahlung kann durch die mindestens eine Bilderfassungseinrichtung zur mikroskopischen Abbildung erfasst werden. Alternativ kann Fluoreszenzstrahlung auch von einer Erfassungseinrichtung erfasst werden, die von der Bilderfassungseinrichtung zur mikroskopischen Abbildung verschieden ist, z.B. von einer Spektralkamera. Der Fluoreszenz-Modus ermöglicht in vorteilhafter Weise eine intraoperative Gewebedifferenzierung. Mit fluoreszenzbasierten Abbildern kann insbesondere Tumorgewebe visualisiert werden. Mit polarisationskontrastbasierten Abbildern kann insbesondere Nervengewebe visualisiert werden. An image acquisition device may, in particular, include a CMOS or CCD sensor. The detection range of the ambient camera may fully or at least partially encompass the detection range of the surgical microscope. Alternatively, the detection range of the surgical microscope may fully or at least partially encompass the detection range of the ambient camera. In a fluorescence visualization mode, a filter device can be inserted into an observation beam path, providing the viewer with a filtered representation of the examination area. This radiation can be captured by the at least one image acquisition device for microscopic imaging. Alternatively, fluorescence radiation can also be captured by a separate acquisition device, such as a spectral camera. The fluorescence mode advantageously enables intraoperative tissue differentiation. Tumor tissue, in particular, can be visualized using fluorescence-based images. Nerve tissue, in particular, can be visualized using polarization-contrast-based images.

Die Bedienung von medizinischen Visualisierungssystemen kann z.B. über eine manuelle Betätigung eines Bestandteils, insbesondere des Operationsmikroskops, oder einer entsprechenden Eingabeeinrichtung, über eine Sprachsteuerung, eine Gestensteuerung, eine Blicksteuerung, eine bildbasierte Steuerung oder andere Bedienverfahren erfolgen. Das medizinische Visualisierungssystem oder das Operationsmikroskop kann die hierzu erforderlichen Einrichtungen umfassen. Eine bildbasierte Steuerung kann insbesondere die Erzeugung von Bedien- oder Steuersignalen durch Auswertung von mindestens einem Abbild umfassen, die von einer Bilderfassungseinrichtung zur mikroskopischen Abbildung oder einer Bilderfassungseinrichtung einer optischen Lageerfassungseinrichtung erzeugt wurden. Medical visualization systems can be operated, for example, by manually controlling a component, particularly the operating microscope, or a corresponding input device; by voice control; by gesture control; by eye-tracking; by image-based control; or by other operating methods. The medical visualization system or the operating microscope may include the necessary components. Image-based control may, in particular, include the generation of operating or control signals by evaluating at least one image produced by an image acquisition device for microscopic imaging or by an image acquisition device of an optical position detection system.

Einstellbare Betriebsparameter des medizinische Visualisierungssystems oder des Operationsmikroskops können durch einen oder mehrere der folgend angeführten Parameter gebildet sein: Adjustable operating parameters of the medical visualization system or the surgical microscope can be formed by one or more of the following parameters:

• Vergrößerungsfaktor oder Zoom-Faktor, • Magnification factor or zoom factor,

• Arbeitsabstand bzw. Fokuslage, • Working distance or focus position,

• Erfassungsbereich • Detection range

• Beleuchtungsintensität, • Light intensity,

• Beleuchtungsspektrum. • Illumination spectrum.

Das vorgeschlagene Verfahren umfasst folgende Schritte: a) Empfangen zumindest eines Bildsignals, welches von mindestens einerThe proposed method comprises the following steps: a) Receiving at least one image signal, which is generated by at least one

Bilderfassungseinrichtung des Operationsmikroskops erzeugt wurde und welches ein Abbild eines Untersuchungsbereichs repräsentiert. Das Bildsignal kann hierbei über eine Schnittstelle des medizinischen Visualisierungssystems empfangen werden. Insbesondere kann das Bildsignal ein zweidimensionales Abbild repräsentieren. Der Untersuchungsbereich kann ein Bereich des Situs eines Patienten während einer Operation oder während einer diagnostischen Untersuchung sein. The image acquisition device of the operating microscope was generated, and which is a The image represents a section of the area being examined. The image signal can be received via an interface of the medical visualization system. Specifically, the image signal can represent a two-dimensional image. The area being examined can be a region of a patient's body during surgery or a diagnostic examination.

Das empfangene Bildsignal kann hierbei vorzugsweise ein Weißlicht-Abbild (VIS- Abbild) repräsentieren, das mit sichtbarer Strahlung, also Strahlung aus einem Wellenlängenbereich zwischen 360 nm und 830 nm, erzeugt wurde. Auch ist vorstellbar, dass das Abbild als Fluoreszenzkontrast-Abbild bereitgestellt wird, welches durch Strahlung mit vorbestimmten fluoreszenzspezifischen Wellenlängen oder Wellenlängenbereichen erzeugt wurde, beispielsweise mit Wellenlängen von 400 nm oder 560 nm. Auch kann das Abbild als Polarisationskontrast-Abbild bereitgestellt werden, welches durch Strahlung mit einer vorbestimmten Polarisation erzeugt wurde. Die Bilderfassungseinrichtung des Operationsmikroskops kann folglich eine Bilderfassungseinrichtung zur mikroskopischen, also vergrößerten, Abbildung des Untersuchungsbereichs sein oder eine davon verschiedene Bilderfassungseinrichtung sein. b) Aufteilen des Abbilds in einen Vordergrundbereich und in einen Hintergrundbereich. Diese Aufteilung kann auch als Segmentierung bezeichnet werden. Insbesondere werden Bildpunkte oder Bildbereiche des Abbilds entweder dem Vordergrundbereich oder dem Hintergrundbereich zugeordnet bzw. entweder als Vordergrund oder als Hintergrund klassifiziert. Das Aufteilen kann insbesondere derart erfolgen, dass in den Vordergrundbereich Elemente wie z.B. Objekte oder Strukturen abgebildet sind, die nicht durch eine Augmentierung überlagert werden sollen, wobei diese Elemente als Vordergrundelemente bezeichnet werden können. Vordergrundelemente umfassen z.B. Instrumente, insbesondere chirurgische Instrumente, Hände oder Finger bzw. Abschnitte davon. Entsprechend sind im Hintergrundbereich Elemente, die auch als Hintergrundelemente bezeichnet werden, abgebildet, die durch eine Augmentierung überlagert werden können. Hintergrundelemente umfassen insbesondere Gewebe. Hintergrundelemente können jedoch ebenfalls Instrumente sein. Insbesondere können sogenannte hybride Elemente existieren, die je nach Szenario Hintergrund- oder Vordergrundelemente sein können. Ein beispielhaftes hybrides Element kann z.B. ein Tupfer sein, der als Hintergrundelement klassifiziert wird, insbesondere wenn er statisch und/oder unbetätigt im Untersuchungsbereich angeordnet ist. Der Tupfer kann aber auch als Vordergrundelement klassifiziert werden, insbesondere wenn er sich um mehr als ein vorbestimmtes Maß bewegt und/oder von einem Nutzer betätigt wird. Im Sinne dieser Erfindung sind Vordergrundelemente nicht auf Instrumente beschränkt. Ferner wird zur Detektion von Vordergrundelementen keine Objekterkennung durchgeführt. The received image signal can preferably represent a white light image (VIS image) generated with visible radiation, i.e., radiation from a wavelength range between 360 nm and 830 nm. It is also conceivable that the image is provided as a fluorescence contrast image, generated by radiation with predetermined fluorescence-specific wavelengths or wavelength ranges, for example, wavelengths of 400 nm or 560 nm. The image can also be provided as a polarization contrast image, generated by radiation with a predetermined polarization. The image acquisition device of the surgical microscope can therefore be an image acquisition device for microscopic, i.e., magnified, imaging of the examination area, or it can be one of several different image acquisition devices. b) Dividing the image into a foreground and a background area. This division can also be referred to as segmentation. In particular, pixels or image areas of the image are assigned to either the foreground or the background area, or classified as either foreground or background. The division can be achieved, in particular, by depicting elements such as objects or structures in the foreground that are not intended to be overlaid by augmentation. These elements can be referred to as foreground elements. Foreground elements include, for example, instruments, especially surgical instruments, hands, or fingers, or sections thereof. Similarly, the background contains elements, also referred to as background elements, which can be overlaid by augmentation. Background elements include, in particular, tissue. However, background elements can also be instruments. In particular, so-called hybrid elements can exist, which can be either background or foreground elements depending on the scenario. An example of a hybrid element could be a swab, which is classified as a background element. This is particularly true when the swab is statically and/or unactuated within the area of investigation. However, the swab can also be classified as a foreground element, especially if it moves more than a predetermined amount and/or is actuated by a user. For the purposes of this invention, foreground elements are not limited to instruments. Furthermore, no object recognition is performed for the detection of foreground elements.

Insbesondere können sowohl Teilbereiche des Abbilds, in denen Gewebe abgebildet ist, als auch Teilbereiche des Abbilds, in die ein Instrument abgebildet ist, als Teile des Hintergrundbereichs klassifiziert werden. In particular, both parts of the image in which tissue is depicted and parts of the image in which an instrument is depicted can be classified as parts of the background area.

Die Aufteilung kann insbesondere erfolgen, indem eine Bildmaske erzeugt wird, die Informationen über Vorder- und Hintergrundbereich repräsentiert. Eine solche Bildmaske wird nachfolgend noch erläutert. Die Bildmaske kann durch ein übertragbares Signal repräsentiert bzw. kodiert werden. Selbstverständlich können Informationen über die Aufteilung auch in anderer Weise bereitgestellt werden. The division can be achieved, in particular, by creating an image mask that represents information about the foreground and background. Such an image mask will be explained in more detail below. The image mask can be represented or encoded by a transmittable signal. Of course, information about the division can also be provided in other ways.

Es ist insbesondere möglich, dass in einem Abbild Vordergrundelemente identifiziert werden, wobei die Bildpunkte, in den die Vordergrundelemente abgebildet sind, dem Vordergrundbereich zugeordnet werden. Die verbleibenden Teilbereiche können dann dem Hintergrundbereich zugeordnet werden. Alternativ ist es möglich, dass in einem Abbild Hintergrundelemente identifiziert werden, wobei die Bildpunkte, in den die Hintergrundelemente abgebildet sind, dem Hintergrundbereich zugeordnet werden. Die verbleibenden Teilbereiche können dann dem Vordergrundbereich zugeordnet werden. Auch können in entsprechender Weise sowohl Hinter- als auch Vordergrundelemente identifiziert werden. Bildpunkte, die weder ein Vorder- noch ein Hintergrund abbilden, können dann einem der Bereiche zugeordnet werden, vorzugsweise dem Vordergrundbereich. c) Empfangen zumindest eines Signals umfassend Zusatzinformationen zur Augmentierung. Dieses Signal, welches nachfolgend als Zusatzinformationssignal bezeichnet wird, kann über eine Schnittstelle des medizinischen Visualisierungssystems empfangen werden. Beispielhafte Zusatzinformationen wurden eingangs bereits erläutert. Vorzugsweise repräsentiert das Zusatzinformationssignal ein insbesondere zweidimensionales Abbild des Untersuchungsbereichs, welches basierend auf präoperativ oder intraoperativ erzeugten Informationen bereitgestellt wird. Das Zusatzinformationssignal kann hierbei von einer weiteren Einrichtung des medizinischen Visualisierungssystems erzeugt werden, beispielsweise einer weiteren Bilderfassungseinrichtung oder einem Sensor. Auch kann das Zusatzinformationssignal aus einer Speichereinrichtung des medizinischen Visualisierungssystems abgerufen werden. Ebenfalls ist vorstellbar, dass das Zusatzinformationssignal aus einem übergeordneten System, beispielsweise einem Netzwerk, abgerufen wird. Das Zusatzinformationssignal repräsentiert oder codiert Informationen, die dem Abbild des Untersuchungsbereichs überlagert werden sollen. d) Erzeugen des augmentierten Abbilds durch i. Überlagerung des Hintergrundbereichs oder eines Teils davon mit den Zusatzinformationen. Dies kann auch als Hintergrundüberlagerung bezeichnet werden. Mit anderen Worten wird die Überlagerung mit Zusatzinformationen ausschließlich im Hintergrundbereich oder in einem Teil des Hintergrundbereichs vorgenommen. ii. Überlagerung des Abbilds des Untersuchungsbereichs oder eines Teils davon mit den Zusatzinformationen, wobei die Überlagerung im Hintergrundbereich und im Vordergrundbereich gemäß voneinander verschiedener Überlagerungsmodalitäten erfolgt. Dies kann auch als kombinierte Überlagerung bezeichnet werden. It is particularly possible to identify foreground elements in an image, with the pixels in which the foreground elements are mapped being assigned to the foreground area. The remaining sub-areas can then be assigned to the background area. Alternatively, it is possible to identify background elements in an image, with the pixels in which the background elements are mapped being assigned to the background area. The remaining sub-areas can then be assigned to the foreground area. Similarly, both background and foreground elements can be identified. Pixels that represent neither a foreground nor a background can then be assigned to one of the areas, preferably the foreground area. c) Receiving at least one signal comprising additional information for augmentation. This signal, which is hereinafter referred to as the additional information signal, can be received via an interface of the medical visualization system. Exemplary additional information has already been explained at the outset. Preferably, the additional information signal represents a, in particular, two-dimensional image of the The examination area is provided based on information generated preoperatively or intraoperatively. The additional information signal can be generated by another component of the medical visualization system, such as another image acquisition device or a sensor. The additional information signal can also be retrieved from a storage device of the medical visualization system. It is also conceivable that the additional information signal is retrieved from a higher-level system, such as a network. The additional information signal represents or encodes information that is to be superimposed on the image of the examination area. d) Generating the augmented image by: i. Superimposing the background area or a part thereof with the additional information. This can also be referred to as background overlay. In other words, the overlay with additional information is performed exclusively in the background area or in a part of the background area. ii. Superimposing the image of the examination area or a part thereof with the additional information, whereby the overlay in the background and foreground areas is performed according to different overlay modalities. This can also be referred to as combined overlay.

Beiden Optionen i. und ii. ist gemeinsam, dass die Überlagerung nicht über das gesamte Abbild erfolgt, sondern eine getrennte bzw. verschiedenartige Behandlung bzw. Überlagerung von Hintergrund- und Vordergrundbereich erfolgt. Insbesondere werden für die Augmentierung der Hintergrundbereich und der Vordergrundbereich verschiedenartig behandelt. Both options i. and ii. have in common that the overlay does not occur across the entire image, but rather involves separate or different treatment or overlay of the background and foreground areas. In particular, the background and foreground areas are treated differently for augmentation.

Die Ausführungen in dieser Offenbarung können hierbei, soweit nicht anders angegeben, sowohl für die Hintergrundüberlagerung als auch für die kombinierte Überlagerung gelten. Das erzeugte augmentierte Abbild kann dann, insbesondere als Bildsignal, an eine Anzeigeeinrichtung übertragen werden, wobei diese dann angesteuert wird, um das Abbild in visuell erfassbarer Weise auszugeben. Insbesondere in einem virtuellen (3D- )Abbild oder einem augmentierten (3D-)Abbild können sichtbare und/oder verdeckte Objekte bzw. Elemente abgebildet sein, womit diese dann auch in visuell erfassbarer Weise dargestellt werden können. Unless otherwise stated, the descriptions in this disclosure apply to both background overlay and combined overlay. The generated augmented image can then be transmitted, in particular as an image signal, to a display device, which is then controlled to display the to output an image in a visually perceptible manner. In particular, a virtual (3D) image or an augmented (3D) image can contain visible and/or hidden objects or elements, which can then be represented in a visually perceptible way.

Im Falle eines Stereo-Operationsmikroskops können Bildsignale, welche die von den beiden Bilderfassungseinrichtungen des Stereosystems erzeugt wurden und welche korrespondierende Abbilder des Untersuchungsbereichs repräsentieren, empfangen werden. Jedes dieser korrespondierenden Abbilder kann dann in den Vordergrundbereich und in den Hintergrundbereich aufgeteilt werden. Ferner können nach Empfangen des zumindest einen Signals umfassend Zusatzinformationen (korrespondierende) augmentierte Abbilder erzeugt werden, indem jedem der Abbilder die Zusatzinformationen im Hintergrundbereich überlagert werden. Es ist auch möglich, dass für jedes der korrespondierenden Abbilder ein abbildspezifisches Zusatzinformationssignal zur Augmentierung empfangen wird, welches dann zum Erzeugen des augmentierten Abbilds genutzt wird. Beispielsweise kann mit virtuellen Bilderfassungseinrichtungen jeweils ein Zusatzinformationssignal erzeugt werden, welches ein virtuelles Abbild repräsentiert, das aus bzw. von den Zusatzinformationen erzeugt wird. Die virtuellen Bilderfassungseinrichtungen können optische Modelle der Bilderfassungseinrichtungen des Stereosystems sein. Somit wird in vorteilhafter weise eine perspektivisch korrekte Augmentierung erzeugt, insbesondere in einer dreidimensionalen und konsistenten Weise. Ein virtuelles Abbild kann eine Textur kodieren, insbesondere mit Färb- und/oder T ransparenzinformationen. In the case of a stereo operating microscope, image signals generated by the two image acquisition units of the stereo system, representing corresponding images of the examination area, can be received. Each of these corresponding images can then be divided into a foreground and a background area. Furthermore, after receiving at least one signal containing additional information, augmented images (corresponding) can be generated by superimposing the additional information in the background area onto each of the images. It is also possible to receive an image-specific additional information signal for augmentation for each of the corresponding images, which is then used to generate the augmented image. For example, virtual image acquisition units can be used to generate an additional information signal representing a virtual image created from or by the additional information. The virtual image acquisition units can be optical models of the image acquisition units of the stereo system. This advantageously results in perspective-correct augmentation, particularly in a three-dimensional and consistent manner. A virtual image can encode a texture, especially with coloring and/or transparency information.

Zum Erzeugen des augmentieren Abbilds können die Zusatzinformationen in den Strahlengang eingebracht, z.B. eingespiegelt, werden. Z.B. können diese mittels einer Projektionseinrichtung des Operationsmikroskops auf ein Projektionselement, z.B. eine insbesondere strahlungsdurchlässige Scheibe projiziert werden, welches im Strahlengang angeordnet ist. Das augmentierte Abbild kann dann erzeugt werden, indem ein Abbild auf Basis der Strahlen erzeugt wird, in die die Zusatzinformation wie erläutert eingebracht wurde. Alternativ oder kumulativ kann die das augmentierte Abbild repräsentierende Strahlung auch durch einen Ausgabeabschnitt zur visuellen Erfassung durch einen Betrachter bereitgestellt werden. Alternativ kann ein augmentiertes Abbild erzeugt werden, in dem ein Abbild des realen Untersuchungsbereichs computergestützt erweitert wird, insbesondere durch eine Bildverarbeitung. Hierbei können dem Abbild des realen Untersuchungsbereichs die Zusatzinformationen überlagert werden. Bei einem Stereooperationsmikroskop ist es möglich, dass dem Nutzer zwei augmentierte Darstellungen bereitgestellt werden. Generell können hierzu in jeden der beiden Strahlengänge eines Stereooperationsmikroskops (zueinander korrespondierende) Zusatzinformationen eingebracht werden. Bei digitalen Stereooperationsmikroskopen können z.B. aus den von beiden Bilderfassungseinrichtungen erzeugten Abbildern jeweils augmentierte Abbilder erzeugt werden. Somit kann einem Nutzer auch auf einer entsprechenden Anzeigeeinrichtung oder durch einen Ausgabeabschnitt ein augmentiertes Abbild mit Tiefeninformationen, also eine augmentierte dreidimensionale Darstellung, bereitgestellt werden. To generate the augmented image, the additional information can be introduced into the beam path, for example, by reflection. This information can be projected onto a projection element, such as a radiolucent disc, positioned in the beam path using a projection device of the operating microscope. The augmented image can then be generated by creating an image based on the beams into which the additional information has been introduced as described. Alternatively or additionally, the radiation representing the augmented image can also be provided by an output section for visual perception by a viewer. Alternatively, an augmented image can be generated by computer-aided enhancement of an image of the real examination area, particularly through image processing. In this process, additional information can be superimposed onto the image of the real examination area. With a stereoscopic operating microscope, it is possible to provide the user with two augmented representations. Generally, corresponding additional information can be introduced into each of the two beam paths of a stereoscopic operating microscope. For example, with digital stereoscopic operating microscopes, augmented images can be generated from the images produced by both image acquisition units. Thus, an augmented image with depth information—that is, an augmented three-dimensional representation—can be provided to the user on a suitable display device or via an output section.

Zusatzinformationen, die einem Nutzer durch Augmentierung dargestellt werden, können insbesondere präoperativ erzeugte Informationen sein, die z.B. in Form von präoperativ erzeugten Daten bereitgestellt werden, wobei diese auch zur Planung eines Eingriffs dienen können. Solche präoperativ erzeugten Daten können insbesondere Volumendaten sein. Volumendaten können in Form einer Punktwolke, in Form einer voxelbasierten Repräsentation oder in Form einer Mesh-basierten Repräsentation bereitgestellt sein. Die Zusatzinformationen können insbesondere auch in Form eines insbesondere übertragbaren Signals bereitgestellt sein. Additional information displayed to a user through augmentation can include, in particular, preoperatively generated information, such as preoperatively generated data, which can also be used for surgical planning. Such preoperatively generated data can be, in particular, volumetric data. Volumetric data can be provided as a point cloud, a voxel-based representation, or a mesh-based representation. The additional information can also be provided, in particular, as a transmittable signal.

Präoperative Daten können z.B. durch computertomografiebasierten oder magnetresonanztomografiebasierten Verfahren erzeugt werden. Auch können andere, insbesondere bildgebende, Verfahren wie z.B. Ultraschall-basierte, röntgenbasierte, fluoreszenzbasierte, SPECT (Single-Photon-Emissionscomputertomographie)-basierte oder PET (Positron-Emissions-Tomographie)-basierte Verfahren zur Erzeugung genutzt werden. Durch eine solche Augmentierung kann z.B. ein Tumor-Objekt oder seine Konturen, die auf Basis von präoperativen Informationen erzeugt wurden, einem Weißlichtbild überlagert werden. Preoperative data can be generated, for example, using computed tomography (CT) or magnetic resonance imaging (MRI). Other imaging techniques, particularly ultrasound, X-ray, fluorescence, SPECT (single-photon emission computed tomography), or PET (positron emission tomography), can also be used. Such augmentation allows, for example, a tumor object or its contours, generated based on preoperative information, to be superimposed onto a white light image.

In präoperativen Daten, die mit einem magnetresonanztomografiebasierten Verfahren erzeugt werden, können verschiedene Gewebearten wie z.B. Fettgewebe, Muskelgewebe, Tumorgewebe aber auch Blutgefäße und Nervenbahnen identifiziert werden. In präoperativen Daten, die mit einem computertomografiebasierten Verfahren erzeugt werden, können insbesondere knöcherne Strukturen dargestellt werden. Preoperative data generated using magnetic resonance imaging (MRI) can identify various tissue types, such as adipose tissue, muscle tissue, tumor tissue, as well as blood vessels and nerve pathways. Preoperative data generated using a computed tomography-based method can be used to visualize bony structures in particular.

Alternativ oder zusätzlich zur Verwendung von präoperativ erzeugten Informationen zur Bereitstellung des augmentierten Abbilds ist es möglich, dass intraoperative, also während einer Behandlung aufgenommene oder erzeugte, Informationen als Zusatzinformationen zur Erzeugung des augmentierten Abbilds Verwendung finden. So können zum Beispiel während einer Operation Informationen gesammelt und gespeichert werden, die dann im Anschluss zum Erzeugen eines augmentierten Abbilds verwendet werden können. Dies ist insbesondere dann von Vorteil, wenn es unterschiedliche Visualisierungsmodalitäten gibt, die zu unterschiedlichen Zeitpunkten aktiviert werden. So können zum Beispiel in einer Fluoreszenz-Visualisierungsmodalität Fluoreszenz- Informationen dargestellt oder einem Weißlicht-Abbild überlagert werden. Alternatively or additionally to using preoperatively generated information to provide the augmented image, intraoperative information—that is, information acquired or generated during treatment—can be used as supplementary information for generating the augmented image. For example, information can be collected and stored during surgery and then subsequently used to generate an augmented image. This is particularly advantageous when different visualization modalities are activated at different times. For instance, fluorescence information can be displayed in a fluorescence visualization modality or superimposed on a white light image.

Den Zusatzinformationen kann ein Bezugskoordinatensystem zugeordnet sein, wodurch die Zusatzinformationen auch räumliche Informationen umfassen können. Dieses Bezugskoordinatensystem kann auch als Welt-Koordinatensystem bezeichnet werden. The additional information can be assigned a reference coordinate system, which means that the additional information can also include spatial information. This reference coordinate system can also be called a world coordinate system.

Zur Augmentierung ist es in der Regel notwendig, eine Registrierung zwischen dem Bezugskoordinatensystem der Zusatzinformationen und einem Bezugskoordinatensystem des medizinischen Visualisierungssystems, insbesondere der Operationsmikroskops oder einer Bilderfassungseinrichtung des Operationsmikroskops, durchzuführen. Diese Registrierung kann vor der Augmentierung durchgeführt werden. Durch die Registrierung wird ein räumlicher Bezug sowohl der Zusatzinformationen als auch des Abbilds zu einem gemeinsamen Bezugskoordinatensystem bestimmt, insbesondere auch für die Informationen in dem von der Bilderfassungseinrichtung des Operationsmikroskops erzeugten Abbild. Dieses gemeinsame Bezugskoordinatensystem, das nachfolgend auch als Referenzkoordinatensystem bezeichnet wird, kann insbesondere das Bezugskoordinatensystem der Zusatzinformationen, das Bezugskoordinatensystem des medizinischen Visualisierungssystems aber auch ein davon verschiedenes Bezugskoordinatensystem sein. Augmentation typically requires registration between the reference coordinate system of the additional information and a reference coordinate system of the medical visualization system, particularly the operating microscope or its image acquisition unit. This registration can be performed prior to augmentation. The registration establishes a spatial relationship between both the additional information and the image to a common reference coordinate system, especially for the information in the image generated by the operating microscope's image acquisition unit. This common reference coordinate system, hereinafter also referred to as the reference coordinate system, can be, in particular, the reference coordinate system of the additional information, the reference coordinate system of the medical visualization system, or a different reference coordinate system altogether.

Zur Registrierung können verschiedene Verfahren, zum Beispiel Verfahren einer modellbasierten Registrierung, durchgeführt werden. Hierbei können in einem Abbild Merkmale detektiert werden, die zu vorbekannten Merkmalen, z.B. zu geometrischen Merkmalen in den Zusatzinformationen korrespondieren, wobei dann die Registrierung in Abhängigkeit dieser korrespondierenden Merkmale bestimmt werden kann. Die Registrierung kann beispielsweise in Form einer Transformationsmatrix, die einen Rotations- und/oder Translationsanteil umfasst, bestimmt werden. Eine beispielhafte, modellbasierte Registrierung kann eine kantenbasierte Registrierung sein, wobei die korrespondierenden Merkmale beispielsweise durch eine Eigenschaft mindestens einer, vorzugsweise mehrerer Kanten sowohl im Abbild als auch in den Zusatzinformationen gebildet werden. Auch kann eine topografiebasierte Registrierung erfolgen, insbesondere wenn eine Topografie bestimmt werden kann, z.B. mit einem Stereosystem eines Operationsmikroskops. So können in dem mindestens einen Abbild topografische Informationen bestimmt werden, wobei dann sowohl in den Zusatzinformationen als auch in diesen topografischen Informationen korrespondierende Merkmale bzw. Punkte oder Abschnitte detektiert werden, die dann zur Bestimmung der Registrierung verwendet werden können. Various methods can be used for registration, for example, model-based registration. In this process, features can be detected in an image that correspond to previously known features, e.g., geometric features. Features in the supplementary information correspond to the registration, which can then be determined based on these corresponding features. The registration can, for example, be determined in the form of a transformation matrix that includes a rotation and/or translation component. An exemplary model-based registration can be edge-based, where the corresponding features are formed, for example, by a property of at least one, preferably several, edges in both the image and the supplementary information. Topography-based registration is also possible, particularly if a topography can be determined, e.g., with a stereo system of an operating microscope. Topographic information can thus be determined in the at least one image, and corresponding features, points, or sections can then be detected in both the supplementary information and this topographic information, which can then be used to determine the registration.

Die Zusatzinformationen können also registrierte Informationen sein. Im Sinne dieser Erfindung kann die Eigenschaft „registriert“ bedeuten, dass ein räumlicher Bezug zu dem Referenzkoordinatensystem bekannt ist, insbesondere in Form einer Transformationsmatrix. Eine registrierte Einrichtung kann Signale erzeugen, deren räumlicher Bezug zu dem Referenzkoordinatensystem bekannt ist. The additional information can therefore be registered information. For the purposes of this invention, the property "registered" can mean that a spatial reference to the reference coordinate system is known, in particular in the form of a transformation matrix. A registered device can generate signals whose spatial reference to the reference coordinate system is known.

Die Zusatzinformationen können insbesondere durch Rendern erzeugt werden, wobei das Rendern einleitend bereits beschrieben wurde. So kann ein virtuelles Abbild durch Rendern erzeugt werden, welches dann zur Augmentierung genutzt und z.B. einem insbesondere live aufgenommenen Abbild des realen Untersuchungsbereichs überlagert wird. Das virtuelle Abbild kann ebenfalls als Bildsignal bereitgestellt werden, welches das virtuelle Abbild kodiert bzw. repräsentiert. The additional information can be generated primarily through rendering, a process already described in the introduction. A virtual image can be created through rendering, which can then be used for augmentation and, for example, superimposed on a live-recorded image of the real-world area under investigation. The virtual image can also be provided as an image signal that encodes or represents the virtual image.

Das virtuelle Abbild kann mit einer virtuellen Bilderfassungseinrichtung erzeugt werden, wobei diese ein mathematisches bzw. physikalisches und insbesondere computergestützt auswertbares optisches Modell einer Bilderfassungseinrichtung sein kann. Insbesondere kann eine computerimplementierte Berechnung der Bildpunkte des virtuellen Abbilds erfolgen. Dieses virtuelle Abbild ist u.a. abhängig von Parametern der (modellierten) Bilderfassungseinrichtung. Insbesondere kann das virtuelle Abbild in Abhängigkeit der intrinsischen Parameter der Bilderfassungseinrichtung zur mikroskopischen Abbildung erzeugt werden, insbesondere mit diesen Parametern. Werden korrespondierende Abbilder eines virtuellen Stereosystems erzeugt, so können diese zusätzlich auch in Abhängigkeit der extrinsischen Parameter der beiden Bilderfassungseinrichtungen zur mikroskopischen Abbildung erzeugt werden, insbesondere mit diesen Parametern. The virtual image can be generated using a virtual image acquisition device, which can be a mathematical or physical, and in particular computer-aided, optical model of an image acquisition device. Specifically, a computer-implemented calculation of the pixels of the virtual image can be performed. This virtual image depends, among other things, on parameters of the (modeled) image acquisition device. In particular, the virtual image can be used for microscopic imaging depending on the intrinsic parameters of the image acquisition device. can be generated, especially with these parameters. If corresponding images of a virtual stereo system are generated, these can additionally be generated for microscopic imaging depending on the extrinsic parameters of the two image acquisition devices, especially with these parameters.

Mit anderen Worten können bei der Auswertung des Modells zur Erzeugung der virtuellen Abbilder die Parameter der Bilderfassungseinrichtung(en) des Operationsmikroskops berücksichtigt werden, die zur mikroskopischen Abbildung dienen. Das ermöglicht es, virtuelle Abbilder unter den gleichen Bedingungen zu erzeugen wie reale Abbilder. In other words, when evaluating the model to generate virtual images, the parameters of the operating microscope's image acquisition device(s) used for microscopic imaging can be taken into account. This makes it possible to generate virtual images under the same conditions as real images.

Ebenfalls kann das virtuelle Abbild in Abhängigkeit einer Pose, also einer Position und/oder Orientierung, der (modellierten) Bilderfassungseinrichtung des Operationsmikroskops erzeugt werden. Insbesondere kann bei der Auswertung des Modells zur Erzeugung der virtuellen Abbilder die Pose der Bilderfassungseinrichtung(en) des Operationsmikroskops berücksichtigt werden, die zur mikroskopischen Abbildung dienen, wobei die erläuterten Registrierungsinformationen genutzt werden können. Unter Berücksichtigung der Registrierungsinformationen kann z.B. bestimmt werden, welche Pose der virtuellen Bilderfassungseinrichtung im Bezugskoordinatensystem der Zusatzinformationen, welches auch als Render-Koordinatensystem bezeichnet werden kann, der realen Pose der (modellierten) Bilderfassungseinrichtung des Operationsmikroskops entspricht und diese Information für den Rendervorgang genutzt werden. Mit anderen Worten kann eine Pose der mindestens einen virtuellen Bilderfassungseinrichtung gleich der Pose der modellierten Bilderfassungseinrichtung im Referenzkoordinatensystem sein. Somit ist es möglich, ein virtuelles Abbild zu erzeugen, das einem von der modellierten Bilderfassungseinrichtung sowohl von den Parametern als auch von der Aufnahmepose her entspricht. Z.B. kann ein zu überlagerndes Abbild eines Tumor-Objekts durch ein Rendern erzeugt werden und dann als Bild- oder Videosignal übertragen und zur Augmentierung genutzt werden. The virtual image can also be generated depending on the pose, i.e., the position and/or orientation, of the (modeled) image acquisition device of the operating microscope. In particular, when evaluating the model to generate the virtual images, the pose of the operating microscope's image acquisition device(s) used for microscopic imaging can be taken into account, utilizing the registration information described above. By considering the registration information, it is possible, for example, to determine which pose of the virtual image acquisition device in the reference coordinate system of the additional information, which can also be referred to as the render coordinate system, corresponds to the actual pose of the (modeled) image acquisition device of the operating microscope, and this information can be used for the rendering process. In other words, a pose of at least one virtual image acquisition device can be identical to the pose of the modeled image acquisition device in the reference coordinate system. Thus, it is possible to generate a virtual image that corresponds to the modeled image acquisition device in terms of both parameters and acquisition pose. For example, an image of a tumor object to be superimposed can be generated by rendering and then transmitted as an image or video signal and used for augmentation.

So kann es für die Bereitstellung von virtuellen Abbildern erforderlich sein, eine aktuelle Pose des Operationsmikroskops, insbesondere der Bilderfassungseinrichtung, zu bestimmen. Diese Pose kann mit einer Lageerfassungseinrichtung bestimmt werden. Durch eine Registrierung kann ein Bezug zwischen dem Bezugskoordinatensystem der Lageerfassungseinrichtung und den vorhergehend erläuterten Bezugskoordinatensystemen, insbesondere dem Bezugskoordinatensystem der Zusatzinformationen, bestimmt werden. Somit wird ermöglicht, die Pose des Operationsmikroskops in einem gewünschten Bezugskoordinatensystem, insbesondere dem Referenzkoordinatensystem, zu bestimmen. In Abhängigkeit der Pose des Operationsmikroskops kann wiederum eine Pose der optischen Achse des Objektivs oder eine Position eines Fokuspunkts bestimmt werden. Ist das Operationsmikroskop an einem Stativ mit mindestens einem Gelenk befestigt, so kann die Pose des Operationsmikroskops auch in Abhängigkeit einer Gelenkstellung bestimmt werden, wobei die Gelenkstellung z.B. durch eine Erfassungseinrichtung bzw. einen Sensor erfasst werden kann. For the provision of virtual images, it may be necessary to determine the current pose of the operating microscope, particularly the image acquisition unit. This pose can be determined using a position detection unit. Registration allows a relationship to be established between the reference coordinate system of the position detection unit and the previously described reference coordinate systems, especially the reference coordinate system of the additional information. This enables the pose of the The position of an operating microscope within a desired reference coordinate system, particularly the reference coordinate system, can be determined. Depending on the position of the operating microscope, the position of the objective's optical axis or the position of a focal point can be determined. If the operating microscope is mounted on a stand with at least one joint, its position can also be determined based on the joint position, which can be detected, for example, by a sensing device or sensor.

Die Position des Operationsmikroskops und die Zusatzinformationen können eine vorhergehend beschriebene Szene definieren, d. h. ein virtuelles räumliches Modell, das Objekte und ihre Materialeigenschaften, Lichtquellen sowie die Position und Blickrichtung eines Beobachters, hier des Operationsmikroskops, definiert. The position of the operating microscope and the additional information can define a previously described scene, i.e., a virtual spatial model that defines objects and their material properties, light sources, and the position and viewing direction of an observer, here the operating microscope.

Selbstverständlich ist es möglich, dass mit der Lageerfassungseinrichtung oder einer weiteren Lageerfassungseinrichtung auch die Pose von mindestens einem weiteren Subjekt oder Objekt oder einem Teil davon erfasst wird. Ein Subjekt kann insbesondere ein Nutzer des medizinischen Visualisierungssystems sein, z.B. ein Betrachter des Untersuchungsbereichs oder einer Anzeigeeinrichtung. So ist es beispielsweise vorstellbar, eine Pose eines Körperteils eines solchen Nutzers, z.B. einer Hand, eines Arms oder eines Kopfes, zu bestimmen. Ein Objekt kann insbesondere ein weiterer Bestandteil des medizinischen Visualisierungssystems, insbesondere eine Anzeigeeinrichtung, sein. Ein Objekt kann jedoch auch Gegenstand sein, der nicht Teil des medizinischen Visualisierungssystems ist, z.B. ein Einrichtungsgegenstand wie ein Operationstisch oder ein medizinisches Instrument. Somit wird ermöglicht, die Pose des weiteren Subjekts oder Objekts in einem gewünschten Bezugskoordinatensystem zu bestimmen. Naturally, it is possible for the position detection device, or another position detection device, to also detect the pose of at least one other subject or object, or a part thereof. A subject can be, in particular, a user of the medical visualization system, such as someone observing the examination area or a display device. For example, it is conceivable to determine the pose of a body part of such a user, such as a hand, arm, or head. An object can be, in particular, another component of the medical visualization system, especially a display device. However, an object can also be an item that is not part of the medical visualization system, such as a piece of equipment like an operating table or a medical instrument. This makes it possible to determine the pose of the other subject or object within a desired reference coordinate system.

Eine solche Lageerfassungseinrichtung kann auch als Trackingsystem bezeichnet werden. Ein Trackingsystem kann ein optisches, ein elektromagnetisches oder ein in anderer Weise arbeitendes Trackingsystem sein. Das Trackingsystem kann ein markerbasiertes Trackingsystem sein, welches aktive oder passive Marker erfasst. Marker können an Objekten oder Subjekten angeordnet sein, deren Pose durch das Trackingsystem erfasst werden soll. Ein optisches Trackingsystem kann insbesondere optisch erfassbare Marker umfassen. Ein optisches Trackingsystem kann insbesondere ein System zur monoskopischen Lageerfassung sein. Hierbei kann die Pose eines Objekts durch Auswertung eines zweidimensionalen Abbilds, insbesondere genau eines zweidimensionalen Abbilds, bestimmt werden. Insbesondere kann zur Bestimmung der Lage eine Auswertung von Intensitätswerten von Pixeln (Bildpunkten) des zweidimensionalen Abbilds durchgeführt werden. Such a position detection device can also be called a tracking system. A tracking system can be optical, electromagnetic, or operate in some other way. The tracking system can be marker-based, detecting active or passive markers. Markers can be attached to objects or subjects whose pose is to be detected by the tracking system. An optical tracking system can, in particular, include optically detectable markers. This is a system for monoscopic position detection. Here, the pose of an object can be determined by evaluating a two-dimensional image, specifically a single two-dimensional image. In particular, the position can be determined by evaluating the intensity values of pixels (picture elements) of the two-dimensional image.

Es ist weiter vorstellbar, dass das medizinische Visualisierungssystem mindestens eine Bilderfassungseinrichtung einer optischen Lageerfassungseinrichtung umfasst, die insbesondere Bestandteil des Operationsmikroskops sein kann. Diese kann auch als Umfeldkamera bezeichnet werden und insbesondere zur monoskopischen Lageerfassung dienen. It is further conceivable that the medical visualization system includes at least one image acquisition device of an optical position detection device, which may in particular be a component of the operating microscope. This can also be referred to as a peripheral camera and serves in particular for monoscopic position detection.

Ein Trackingsystem kann auch Teil einer Eingabeeinrichtung sein, wobei z.B. eine Gestensteuerung oder eine Blickrichtungssteuerung in Abhängigkeit von Informationen, die vom Trackingsystem erzeugt werden, erfolgt. A tracking system can also be part of an input device, where, for example, gesture control or gaze direction control is performed depending on information generated by the tracking system.

Bei der Hintergrundüberlagerung können die Zusatzinformationen gemäß einer vorbestimmten Überlagerungsmodalität überlagert werden. Insbesondere können die Zusatzinformationen mit einem vorbestimmten Renderingstil erzeugt werden. In background overlay, additional information can be superimposed according to a predefined overlay modality. In particular, the additional information can be generated with a predefined rendering style.

Verschiedene Renderingstile, aus denen der vorbestimmte Renderingstil ausgewählt sein kann, umfassen z.B. transparentes Rendering, insbesondere ein auf Alpha-Blending basierendes Rendering, animationsbasiertes Rendering, texturbasiertes Rendering oder Fresnel-Effekt-basiertes Rendering. Ein weiterer Rendering-Stil kann ein Wireframe- Renderingstil sein mit dem nur Kanten bzw. Kantenlinie eines Objekts dargestellt werden. Bei einer solchen Darstellung werden also keine gefüllten Flächen oder Texturen dargestellt. Ein Rendering-Stil kann auch ein Stil sein, mit dem mindestens einer, vorzugsweise mehrere oder sogar alle der folgenden Effekte eingestellt werden: Farbe, Textur, Transparenz, Animation, Fresnel-Effekt. Bei der Hintergrundüberlagerung kann die Überlagerung mit Zusatzinformationen ausschließlich im Hintergrundbereich oder in einem Teil des Hintergrundbereichs vorgenommen werden. Various rendering styles, from which the predefined rendering style can be selected, include, for example, transparent rendering, in particular alpha-blending-based rendering, animation-based rendering, texture-based rendering, or Fresnel-effect-based rendering. Another rendering style can be a wireframe rendering style, which only displays the edges or edge lines of an object. In such a rendering, no filled areas or textures are displayed. A rendering style can also be a style that sets at least one, preferably several or even all of the following effects: color, texture, transparency, animation, or Fresnel effect. With background overlay, the overlay with additional information can be applied exclusively to the background area or to a portion of the background area.

Bei der kombinierten Überlagerung erfolgt die Überlagerung mit den Zusatzinformationen in bereichspezifischer Weise. So kann die Überlagerung im Hintergrundbereich mit hintergrundspezifische Zusatzinformationen gemäß einer hintergrundspezifischen Überlagerungsmodalität und die Überlagerung im Vordergrundbereich mit vordergrundspezifischen Zusatzinformationen gemäß einer vordergrundspezifischen Überlagerungsmodalität erfolgen. Diese bereichsspezifische Überlagerung dient dazu, dass im augmentierten Abbild Zusatzinformationen im Hintergrundbereich in anderer Art und Weise dargestellt werden als im Vordergrundbereich. Mit anderen Worten kann die bereichsspezifische Überlagerung zur Erzeugung eines augmentierten Abbilds führen, in dem hintergrundspezifische Zusatzinformation gemäß einer ersten Visualisierungsmodalität und vordergrundspezifische Zusatzinformationen gemäß einer weiteren Visualisierungsmodalität dargestellt werden, die von der ersten Visualisierungsmodalität verschieden ist. Eine Visualisierungsmodalität bezeichnet die Art und Weise, wie ein Abbild zur visuellen Erfassung dargestellt wird und/oder welche Informationen in dem Abbild dargestellt werden. Entsprechend einer Visualisierungsmodalität kann insbesondere eine Darstellung mit vorbestimmten Farbeigenschaften und/oder vorbestimmten Transparenzeigenschaften erfolgen. Auch können entsprechend einer Visualisierungsmodalität nur modalitätsspezifische Bereiche, Eigenschaften oder Merkmale eines (virtuellen) Objekts dargestellt werden, z.B. nur Oberflächen und/oder Ränder und/oder Kanten. In combined overlay, the additional information is overlaid in a domain-specific manner. For example, the overlay in the background area can be with background-specific additional information according to a background-specific overlay modality, and the overlay in the foreground area with Foreground-specific additional information is displayed according to a foreground-specific overlay modality. This area-specific overlay ensures that additional information in the background is displayed differently in the augmented image than in the foreground. In other words, area-specific overlay can create an augmented image in which background-specific additional information is displayed according to a first visualization modality and foreground-specific additional information is displayed according to a second visualization modality that differs from the first. A visualization modality refers to the way in which an image is displayed for visual perception and/or what information is displayed in the image. In particular, a visualization modality can be used to display the image with predetermined color properties and/or predetermined transparency properties. It can also be used to display only modality-specific areas, properties, or features of a (virtual) object, such as only surfaces and/or borders and/or edges.

Für die bereichsspezifische Überlagerung können auch hintergrundspezifische Zusatzinformationen und vordergrundspezifische Zusatzinformationen mit voneinander verschiedenen Renderingstilen erzeugt werden. Verschiedene Rendering-Stile können sich durch die Anzahl der Effekte und/oder die effektspezifischen Parameter und/oder die Kombination von Effekten unterscheiden. For area-specific overlays, background-specific and foreground-specific additional information can also be generated using different rendering styles. These different rendering styles can vary in the number of effects, their specific parameters, and/or the combination of effects.

Auch können die genannten Zusatzinformationen mit dem gleichen Renderstil erzeugt werden, wobei dieser jedoch für die Erzeugung von hintergrundspezifischen Zusatzinformationen in anderer Weise als für die Erzeugung von vordergrundspezifischen Zusatzinformationen ausgeführt wird, insbesondere mit verschiedenen (Render)Parametern. The additional information mentioned can also be generated using the same rendering style, although this is executed differently for generating background-specific additional information than for generating foreground-specific additional information, in particular with different (render) parameters.

Bei der kombinierten Überlagerung können den Elementen, insbesondere Bildpunkten, einer Bildmaske, die jeweils die Zugehörigkeit eines Bildpunkts des Abbilds zum Vorderoder Hintergrundbereich repräsentieren, jeweils auch Informationen über die hintergrundspezifische Überlagerungsmodalität bzw. die vordergrundspezifische Überlagerungsmodalität zugeordnet sein. Z.B. kann den Bildpunkten der Bildmaske, die eine Zugehörigkeit zum Hintergrundbereich repräsentieren, ein erster Transparenzgrad für die Überlagerung und den Bildpunkten der Bildmaske, die eine Zugehörigkeit zum Vordergrundbereich repräsentieren, ein weiterer Transparenzgrad für die Überlagerung zugeordnet sein, wobei der weitere T ransparenzgrad nicht völlige T ransparenz aber eine höhere Transparenz als der erste Transparenzgrad repräsentiert. In combined overlay, the elements, especially pixels, of an image mask, each representing a pixel's position in the foreground or background, can also be assigned information about the background-specific overlay modality or the foreground-specific overlay modality. For example, the pixels of the image mask representing a background position can be assigned a first degree of transparency. For the overlay, and the pixels of the image mask that represent membership in the foreground area, a further transparency level for the overlay is assigned, whereby the further transparency level does not represent complete transparency but a higher transparency than the first transparency level.

Sowohl bei der Hintergrundüberlagerung als auch bei der kombinierten Überlagerung ist es möglich, dass eine Überlagerungsmodalität in Randbereichen eines Vordergrundbereichs oder eines Hintergrundbereichs und/oder ein einem Übergangsbereich zwischen einem Vordergrundbereich und einem Hintergrundbereich verschiedenen von einer Überlagerungsmodalität in den verbleibenden Teilbereichen des Vordergrund- oder Hintergrundbereichs eingestellt wird. Verschiedene Überlagerungsmodalitäten und deren Bereitstellung wurden vorhergehend erläutert. Beispielsweise kann ein Übergangsbereich Bildpunkte umfassen, deren Abstand zum nächstliegenden Bildpunkt des Vordergrundbereichs und Abstand zum nächstliegenden Bildpunkt des Hintergrundbereichs kleiner als ein vorbestimmter Abstandsschwellwert ist. Insbesondere kann die rand- oder übergangsbereichsspezifische Überlagerungsmodalität sich verändern, insbesondere in Abhängigkeit von einer Distanz zu einem Rand/Übergang. Z.B. kann sich ein Transparenzgrad verändern, insbesondere hin zum Rand/Übergang zunehmen. Auch können die Zusatzinformationen zur Überlagerung in einem Übergangsbereich mit einem vorbestimmten Renderingstil erzeugt werden, z.B. dem Wireframe-Renderingstil. In both background overlay and combined overlay, it is possible for an overlay modality in the edge regions of a foreground or background region, and/or in a transition region between a foreground and a background region, to differ from an overlay modality in the remaining portions of the foreground or background region. Various overlay modalities and their provision have been explained previously. For example, a transition region can include pixels whose distance to the nearest pixel in the foreground region and distance to the nearest pixel in the background region is less than a predetermined distance threshold. In particular, the edge- or transition region-specific overlay modality can change, especially depending on the distance to an edge/transition. For example, the degree of transparency can change, increasing especially towards the edge/transition. Furthermore, the additional overlay information in a transition region can be generated using a predetermined rendering style, such as the wireframe rendering style.

Das erfindungsgemäße Verfahren ermöglicht in vorteilhafter Weise eine verbesserte Darstellungsqualität eines Untersuchungsbereichs, der durch ein augmentiertes Abbild repräsentiert wird, da gemäß der Hintergrundüberlagerung durch die Überlagerung ausschließlich im Hintergrundbereich in zuverlässiger Weise eine widersprüchliche Wahrnehmung von Informationen durch einen Betrachter vermieden wird, insbesondere da Zusatzinformationen, die wie vorhergehend erläutert hinter einer Oberfläche des Untersuchungsbereichs liegen, nicht fälschlicherweise im Vordergrund dargestellt werden. Mit anderen Worten sorgt diese okklusionskorrekte Darstellung für eine korrekte 3D- Wahrnehmung der Tiefe von augmentierten Zusatzinformationen. Bei der kombinierten Überlagerung ergibt sich ebenfalls eine verbesserte Darstellungsqualität, da die Wahl verschiedener Überlagerungsqualitäten sicherstellt, dass ein Betrachter ein Abbild mit korrekter Tiefenwahrnehmung erfassen kann und trotzdem Informationen über augmentierte Zusatzinformationen auch in einem Vordergrundbereich erhält. Im Unterschied zu einer reinen Objekterkennung zur Detektion von Vordergrundelementen bietet das vorgeschlagene Verfahren den Vorteil, dass ein Informationsgehalt des augmentierten Abbilds erhöht werden kann, da die Zuordnung zu Vorder- oder Hintergrundbereich nicht objekterkennungsbasiert erfolgt. Vielmehr wird ermöglicht, dass ein Objekt je nach Szenario dem Vorder- oder Hintergrundbereich zugeordnet werden kann. The method according to the invention advantageously enables improved display quality of an area of investigation represented by an augmented image, since, according to the background overlay, the overlay being applied exclusively in the background area reliably prevents contradictory perceptions of information by the viewer. This is particularly important because additional information, which, as explained above, lies behind a surface of the area of investigation, is not erroneously displayed in the foreground. In other words, this occlusion-correct display ensures correct 3D depth perception of augmented additional information. The combined overlay also results in improved display quality, as the selection of different overlay qualities ensures that a viewer can perceive an image with correct depth perception and still receive information about augmented additional information even in a foreground area. Unlike pure object recognition for detecting foreground elements, the proposed method offers the advantage of increasing the information content of the augmented image, since the assignment to foreground or background is not based on object recognition. Instead, it allows an object to be assigned to the foreground or background depending on the scenario.

In einer weiteren Ausführungsform werden zumindest zwei Bildsignale empfangen, die zeitlich nacheinander von der mindestens einen Bilderfassungseinrichtung des Operationsmikroskops erzeugt wurden und die jeweils ein Abbild des Untersuchungsbereichs repräsentieren. Weiter wird eine Information über eine zeitliche Veränderung der Bildinformation in Abhängigkeit dieser zumindest zwei Abbilder bestimmt und die Aufteilung des Abbilds, insbesondere des zeitlich früher oder zeitlich später erzeugten Abbilds in den Vorder- und Hintergrundbereich, erfolgt in Abhängigkeit dieser Information. Die Veränderung der Bildinformation kann insbesondere abhängig von der Veränderung oder als die Veränderung zwischen den zumindest zwei Abbildern bestimmt werden, z.B. als Differenz der Abbilder oder abhängig davon. In a further embodiment, at least two image signals are received, generated sequentially by the at least one image acquisition device of the operating microscope, each representing an image of the examination area. Furthermore, information about temporal changes in the image information as a function of these at least two images is determined, and the division of the image, in particular the image generated earlier or later, into foreground and background regions is performed based on this information. The change in the image information can be determined, in particular, as a function of the change itself or as the change between the at least two images, e.g., as the difference between the images or dependent on this difference.

Die Information über eine zeitliche Veränderung der Bildinformation kann vorzugsweise eine Information zum optischen Fluss sein, die in Abhängigkeit dieser zumindest zwei Abbilder bestimmbar ist. Die Informationen zum optischen Fluss bilden eine Repräsentation von Bewegungsinformationen, wobei die Informationen insbesondere eine scheinbare Bewegung von Helligkeitsmustern in einer Bildsequenz repräsentieren. Der optische Fluss der erläuterten Bildsequenz kann z.B. als ein Vektorfeld der in die Bildebene projizierten Geschwindigkeit von sichtbaren Punkten des Objektraums, insbesondere im Koordinatensystem der Bilderfassungseinrichtung, bestimmt werden. Insbesondere kann jedem Bildpunkt des Abbilds eine den optischen Fluss repräsentierende Größe zugeordnet werden. In diesem Fall kann ein Bildpunkt dem Vordergrundbereich zugeordnet werden, falls die ihm zugeordnete Größe größer als ein vorbestimmter Schwellwert ist. Ist die dem Bildpunkt zugeordnete Größe kleiner als der oder gleich dem vorbestimmten Schwellwert, so kann der Bildpunkt dem Hintergrundbereich zugeordnet werden. Hierdurch ergibt sich in vorteilhafter Weise eine einfach implementierbare und zuverlässige Aufteilung in den Vorder- und Hintergrundbereich, welche eine gute Darstellungsqualität des augmentierten Abbilds ermöglicht. Alternativ zur Bestimmung der Informationen zum optischen Fluss können auch andere Verfahren zur Bestimmung der Information über eine zeitliche Veränderung der Bildinformation angewendet werden, z.B. Verfahren zur Bestimmung eines Bewegungsfelds (motion field). Das Bewegungsfeld gibt für jeden Bildpunkt eines Abbilds Bewegungsinformationen, insbesondere einer 3D-Bewegung, an. Insbesondere kann Bewegungsfeld die wahre, insbesondere dreidimensionale, Bewegung an jedem Punkt repräsentieren, die auf das 2D-Bild abgebildet wird. Information about temporal changes in image information can preferably be information about the optical flow, which can be determined based on at least two images. The optical flow information represents motion information, specifically the apparent movement of brightness patterns in an image sequence. The optical flow of the described image sequence can, for example, be defined as a vector field representing the velocity of visible points in object space projected onto the image plane, particularly within the coordinate system of the image acquisition device. Specifically, each pixel of the image can be assigned a quantity representing the optical flow. In this case, a pixel can be assigned to the foreground if its assigned quantity is greater than a predetermined threshold. If the assigned quantity is less than or equal to the predetermined threshold, the pixel can be assigned to the background. This advantageously results in a simple and reliable division into foreground and background regions, enabling good image quality of the augmented image. As an alternative to determining information about optical flow, other methods can be used to determine information about temporal changes in image information, e.g., methods for determining a motion field. The motion field provides motion information, particularly 3D motion, for each pixel of an image. Specifically, the motion field can represent the true, especially three-dimensional, motion at each point that is mapped onto the 2D image.

In einer weiteren Ausführungsform werden Tiefeninformationen für das zumindest eine Abbild des Untersuchungsbereichs bestimmt, wobei die Aufteilung in Abhängigkeit dieser Tiefeninformation erfolgt. Eine Tiefeninformation kann beispielsweise einen Abstand des in einen Bildpunkt abgebildeten Elements von einem Referenzpunkt, einer Referenzlinie oder einer Referenzfläche repräsentieren. Dieser Abstand kann entlang einer Referenzrichtung bestimmt werden. Der Abstand kann insbesondere in dem Referenzkoordinatensystem bestimmt werden. Beispielsweise kann die Referenzfläche senkrecht zur optischen Achse des Operationsmikroskops orientiert sein, wobei die Referenzrichtung parallel zur optischen Achse orientiert ist. In der Referenzfläche kann beispielsweise einen Schnittpunkt zwischen optischer Achse und einem Abschlussglas des Operationsmikroskops angeordnet sein. In a further embodiment, depth information is determined for at least one image of the examination area, with the division depending on this depth information. Depth information can, for example, represent the distance of the element imaged at a pixel from a reference point, a reference line, or a reference surface. This distance can be determined along a reference direction. In particular, the distance can be determined within the reference coordinate system. For example, the reference surface can be oriented perpendicular to the optical axis of the operating microscope, with the reference direction being parallel to the optical axis. The reference surface can, for example, include an intersection point between the optical axis and an end lens of the operating microscope.

Die Tiefeninformation kann mit der erläuterten Einrichtung zur Bestimmung der Tiefeninformation bestimmt werden, beispielsweise einem Abstandssensor. Ein solcher Abstandssensor kann beispielsweise ein OCT-Abstandssensor, ein Lidar-Sensor, ein Time-of-Flight-Sensor oder ein Triangulationssensor wie beispielsweise ein Streifenprojektionssensor sein. Selbstverständlich können auch Abstandssensoren verwendet werden, die gemäß anderer physikalischer Wirkprinzipien Abstandsinformationen erzeugen. Depth information can be determined using the described device for determining depth information, for example, a distance sensor. Such a distance sensor could be, for example, an OCT distance sensor, a lidar sensor, a time-of-flight sensor, or a triangulation sensor such as a fringe projection sensor. Of course, distance sensors that generate distance information according to other physical principles can also be used.

Die Einrichtung zur Bestimmung der Tiefeninformation kann registriert sein, wobei die Tiefeninformationen also registrierte Informationen sein können. The device for determining depth information can be registered, meaning the depth information can be registered information.

Es ist auch möglich, aus insbesondere korrespondierenden Abbildern eines Stereosystems insbesondere registrierte Rekonstruktionsinformationen zu bestimmen, die eine dreidimensionale Rekonstruktion des Erfassungsbereichs repräsentieren, wobei die Tiefeninformationen in Abhängigkeit dieser Rekonstruktionsinformationen bestimmt werden. Beispielsweise ist es möglich, in der dreidimensionalen Rekonstruktion eine Oberfläche des Untersuchungsbereichs zu detektieren und dann den Abstand von dem/der vorhergehend erläuterten Referenzpunkt-, -linie oder -fläche zu bestimmen. Weiter ist es möglich, Tiefeninformationen aus präoperativ erzeugten Informationen zu bestimmen. So kann beispielsweise eine Schädeloberfläche oder eine Duraoberfläche in präoperativen Informationen detektiert werden, wobei dann, wie vorhergehend erläutert, ebenfalls ein Abstand von dem/der vorhergehend erläuterten Referenzpunkt-, -linie oder - fläche bestimmt werden kann. It is also possible to determine, in particular, registered reconstruction information from corresponding images of a stereo system, which represents a three-dimensional reconstruction of the detection area, wherein the Depth information can be determined based on this reconstruction information. For example, it is possible to detect a surface of the examination area in the three-dimensional reconstruction and then determine the distance from the previously described reference point, line, or surface. Furthermore, it is possible to determine depth information from preoperatively generated data. For instance, a skull surface or a dural surface can be detected in preoperative data, and then, as previously described, a distance from the previously described reference point, line, or surface can also be determined.

Insbesondere kann eine Tiefenkarte für das Abbild des Untersuchungsbereichs erzeugt werden, welche jedem Bildpunkt des Abbilds eine Tiefeninformation zuordnet. Dann kann ein Bildpunkt dem Vordergrundbereich zugeordnet werden, dessen Tiefeninformation größer als ein vorbestimmter minimaler Schwellwert und/oder kleiner als ein vorbestimmter maximaler Schwellwert ist. Andernfalls kann der Bildpunkt dem Hintergrundbereich zugeordnet werden. Auch ist es möglich, einen statistischen Parameter der derart erzeugten Tiefeninformationen zu bestimmen, beispielsweise einen Mittelwert oder Median aller den Bildpunkten zugeordneten Tiefeninformationen. Ist die einem Bildpunkt zugeordnete Tiefeninformation größer als oder kleiner als der Median oder der Mittelwert, kann dieser Bildpunkt dem Vordergrundbereich zugeordnet werden, andernfalls wird er dem Hintergrundbereich zugeordnet. Auch hierdurch ergibt sich in vorteilhafter Weise eine einfach implementierbare und zuverlässige Aufteilung in den Vorder- und Hintergrundbereich, welche eine gute Darstellungsqualität des augmentierten Abbilds ermöglicht In particular, a depth map can be generated for the image of the area under investigation, assigning depth information to each pixel. A pixel can then be assigned to the foreground if its depth information is greater than a predetermined minimum threshold and/or less than a predetermined maximum threshold. Otherwise, the pixel can be assigned to the background. It is also possible to determine a statistical parameter for the depth information generated in this way, such as a mean or median of all depth information assigned to the pixels. If the depth information assigned to a pixel is greater than or less than the median or mean, this pixel can be assigned to the foreground; otherwise, it is assigned to the background. This also advantageously results in a simple and reliable division into foreground and background regions, which enables good image quality of the augmented image.

In einer weiteren Ausführungsform werden für das Abbild des Untersuchungsbereichs oder zumindest einen Teilbereich davon semantische Zusatzinformationen bestimmt, wobei die Aufteilung in Abhängigkeit dieser semantischen Zusatzinformationen erfolgt. Die semantischen Zusatzinformationen können Informationen sein, die zusätzlich zu davon verschiedenen Informationen, z.B. zusätzlich zu den vorhergehend erläuterten Informationen über eine zeitliche Veränderung der Bildinformation und/oder den Tiefeninformationen, bei der Aufteilung berücksichtigt werden. Insbesondere können dem Abbild, insbesondere einem Bildpunkt oder einer Menge von Bildpunkten, neben einer zur visuellen erfassbaren Darstellung benötigten Information, wie beispielsweise einer Farb- und/oder einer Transparenzinformation, eine Bedeutungsinformation zugeordnet werden. Die Bedeutungsinformation kann insbesondere eine beschreibende Information über die Art des abgebildeten Elements, seine Beziehung zu anderen abgebildeten Elementen oder zur Umgebung sein. Diese Information können insbesondere bildbasiert bestimmt werden, z.B. mit einem Verfahren zur semantischen Segmentierung. Semantische Zusatzinformationen können also Informationen über bzw. aus eine(r) semantische(n) Segmentierung einer abgebildeten Szene sein, wobei die segmentierte Szene z.B. in Bildbereiche eingeteilt sein kann, denen jeweils eine Klasse aus einer Menge vorbestimmter Klassen zugeordnet ist. Die Menge vorbestimmter Klassen kann beispielsweise die Klasse „Gewebe“, die Klasse „Instrument“, die Klasse „Tuch“, die Klasse „Tupfer“ und/oder eine weitere Klasse umfassen. In a further embodiment, additional semantic information is determined for the image of the area under investigation, or at least a sub-area thereof, with the division being carried out depending on this additional semantic information. The additional semantic information can be information that is taken into account during the division in addition to other information, e.g., in addition to the previously described information about a temporal change in the image information and/or the depth information. In particular, in addition to information required for visually perceivable representation, such as color and/or transparency information, semantic information can be assigned to the image, especially to a pixel or a set of pixels. Semantic information can be, in particular, descriptive information about the type of depicted element, its relationship to other depicted elements, or to the environment. This information can be determined image-based, for example, using a semantic segmentation method. Additional semantic information can therefore be information about or derived from a semantic segmentation of a depicted scene, where the segmented scene can be divided into image areas, each assigned a class from a set of predefined classes. The set of predefined classes could, for example, include the class "fabric," the class "instrument," the class "cloth," the class "swab," and/or another class.

Semantische Zusatzinformationen können insbesondere Informationen sein, die zur erläuterten Aufteilung ausgewertet werden können, also aufteilungsrelevante Informationen. Durch die Auswertung von semantischen Zusatzinformationen kann insbesondere jeder Bildpunkt des Abbilds als Bildpunkt klassifiziert werden, in den ein Hintergrundelement oder ein Vordergrundelement abgebildet ist. Insbesondere kann die semantische Zusatzinformation von der zur visuell erfassbaren Darstellung des Abbilds benötigten Information verschieden sein. Durch die Berücksichtigung von semantischen Zusatzinformationen ergibt sich in vorteilhafter Weise eine sehr zuverlässige Aufteilung in Vorder- und Hintergrundbereich, was wiederum die Darstellungsqualität verbessert. Semantic supplementary information can include, in particular, information that can be evaluated for the described division, i.e., division-relevant information. By evaluating semantic supplementary information, each pixel of the image can be classified as containing either a background or a foreground element. Specifically, the semantic supplementary information can differ from the information required for the visually perceptible representation of the image. Considering semantic supplementary information advantageously results in a very reliable division into foreground and background areas, which in turn improves the image quality.

In einerweiteren Ausführungsform werden für das Abbild des Untersuchungsbereichs oder zumindest einen Teilbereich davon Kontextinformationen bestimmt, wobei die Aufteilung in Abhängigkeit dieser Kontextinformationen erfolgt. Kontextinformationen können insbesondere Informationen über einen zeitlichen oder einen räumlichen Kontext sein. Auch kann eine Kontextinformation eine Information über eine Art einer aktuellen Nutzeraktivität, über einen Typ einer aktuellen Operationsphase oder über einen Operationstyp umfassen. Insbesondere können die Kontextinformationen von den zur visuell erfassbaren Darstellung des Abbilds benötigten Informationen verschieden sein. Durch die Berücksichtigung von Kontextinformationen ergibt sich in vorteilhafter weise eine sehr zuverlässige Aufteilung in Vorder- und Hintergrundbereich, was wiederum die Darstellungsqualität verbessert. In a further embodiment, contextual information is determined for the image of the area under investigation, or at least a sub-area thereof, with the division depending on this contextual information. Contextual information can, in particular, be information about a temporal or spatial context. Contextual information can also include information about the type of current user activity, the type of current operational phase, or the type of operation. In particular, the contextual information can differ from the information required for the visually perceptible representation of the image. By taking contextual information into account, a very reliable division into foreground and background areas is advantageously achieved, which in turn improves the image quality.

In einer weiteren Ausführungsform wird die Aufteilung mittels eines Modells durchgeführt, welches durch maschinelles Lernen erzeugt wurde. Der Begriff maschinelles Lernen umfasst oder bezeichnet hierbei Verfahren zur Bestimmung des Modells basierend auf Trainingsdaten. So ist es möglich, das Modell durch Verfahren zum überwachten Lernen zu bestimmen, wobei hierzu die Trainingsdaten, also ein Trainingsdatensatz, Eingabedaten und Ausgabedaten umfassen. Als Eingabedaten können hierbei Abbilder, die den Untersuchungsbereich repräsentieren, bzw. die entsprechenden Bildsignale bereitgestellt werden, wobei als Ausgabedaten die Aufteilung des jeweiligen Abbilds in Vorder- und Hintergrundbereich bereitgestellt werden. In another embodiment, the division is carried out using a model generated by machine learning. The term machine learning This encompasses or refers to methods for determining the model based on training data. For example, the model can be determined using supervised learning methods, where the training data (i.e., a training dataset) comprises input data and output data. Input data can consist of images representing the area under investigation or the corresponding image signals, while output data consists of the division of the respective image into foreground and background regions.

Z.B. können Ein- und Ausgabedaten solcher Trainingsdaten erzeugt werden, indem ein Nutzer in den Abbildern die Vorder- und Hintergrundbereich manuell auswählt. So kann das Modell den Zusammenhang zwischen Abbildern und deren Aufteilung in Vorder- und Hintergrundbereich lernen. Es ist aber auch vorstellbar, dass zur Bestimmung des Modells Verfahren des unüberwachten Lernens angewendet werden. For example, input and output data for such training data can be generated by having a user manually select the foreground and background areas in the images. This allows the model to learn the relationship between images and their division into foreground and background. However, it is also conceivable that unsupervised learning methods could be used to determine the model.

Geeignete mathematische Algorithmen für das maschinelle Lernen umfassen: Decision Tree-basierte Verfahren, Ensemble Methods (z.B. Boosting, Random Forrest) -basierte Verfahren, Regression-basierte Verfahren, Bayes'sche Methoden (z.B. Bayesian Belief Networks)-basierte Verfahren, Kernel Methoden (z.B. Support Vector Machines)-basierte Verfahren, Instance- (z.B. k-Nearest Neighbour)-basierte Verfahren, Association Rule Learning-basierte Verfahren, Boltzmann Maschine-basierte Verfahren, Artificial Neural Networks (z.B. Perceptron) -basierte Verfahren, Deep Learning (z.B. Convolutional Neural Networks, Stacked Autoencoders) -basierte Verfahren, Transformer-basierte Verfahren, Dimensionality Reduction-basierte Verfahren, Regularization Methods-basierte Verfahren. Suitable mathematical algorithms for machine learning include: Decision tree-based methods, Ensemble methods (e.g., boosting, random forest)-based methods, Regression-based methods, Bayesian methods (e.g., Bayesian belief networks)-based methods, Kernel methods (e.g., support vector machines)-based methods, Instance (e.g., k-nearest neighbor)-based methods, Association rule learning-based methods, Boltzmann machine-based methods, Artificial neural networks (e.g., perceptron)-based methods, Deep learning (e.g., convolutional neural networks, stacked autoencoders)-based methods, Transformer-based methods, Dimensionality reduction-based methods, and Regularization methods-based methods.

Nach der Erstellung des Modells, also nach der Trainingsphase, kann das derart parametrisierte Modell in der so genannten Inferenzphase verwendet werden, um aus Abbildern dann die Aufteilung in Vorder- und Hintergrundbereich zu erzeugen. Hierdurch ergibt sich eine zuverlässige und qualitativ hochwertige Aufteilung. Das Modell kann insbesondere einmalig, vorzugsweise mit einem geeignet großen Datensatz, trainiert (Trainingsphase) und danach als Modell eingesetzt (Inferenzphase) werden. After the model has been created, i.e., after the training phase, the parameterized model can be used in the so-called inference phase to generate the foreground and background partitioning from images. This results in a reliable and high-quality partitioning. The model can be trained once, preferably with a sufficiently large dataset (training phase), and then used as a model (inference phase).

In einer weiteren Ausführungsform wird die Aufteilung mittels eines neuronalen Netzes durchgeführt. Beispielsweise kann das neuronale Netz als Autoencoder oder als faltendes neuronales Netz (Convolutional Neural Network, CNN) oder als RNN (Recurrent Neural Network) oder als LSTM-Netz (long short-term memory network) oder als neuronales Transformer-Netz oder als eine Kombination aus mindestens zwei der erwähnten Netze ausgebildet sein. Ein solches neuronales Netz, insbesondere das als Autoencoder ausgebildete neuronale Netz, kann hierbei mittels der vorhergehend erläuterten Trainingsdaten trainiert werden, wobei dann nach dem Training die Aufteilung durchgeführt werden kann. Hierbei ermöglicht die Ausbildung des neuronalen Netzes als Autoencoder in vorteilhafter Weise, dass der für die Aufteilung benötigte Rechenaufwand gering ist, wodurch die Aufteilung in einfacher Weise insbesondere durch eingebettete Systeme zuverlässig und zeitlich schnell durchgeführt werden kann. In another embodiment, the partitioning is carried out using a neural network. For example, the neural network can be an autoencoder, a convolutional neural network (CNN), a recurrent neural network (RNN), a long short-term memory network (LSTM), a neural transformer network, or a combination of at least two of the aforementioned networks. Such a neural network, particularly one configured as an autoencoder, can be trained using the training data described above, after which the partitioning can be performed. The advantage of using an autoencoder for the neural network is that the computational effort required for the partitioning is low, allowing it to be performed reliably and quickly, especially by embedded systems.

Die Ausbildung als CNN erlaubt in vorteilhafter Weise eine Reduktion der Komplexität des Netzes und ist damit geeignet für Geräte mit geringer Rechenleistung. Dies betrifft sowohl die Trainingsphase als auch die Inferenzphase. Auch ergibt sich in vorteilhafter Weise, dass die zum Training benötigte Zeitdauer bei CNN kurz ist, insbesondere kürzer als bei LSTM-Netzen, die ebenfalls im Vergleich höhere Rechenleistungen benötigen. Die Ausbildung als LSTM-Netz weist jedoch eine besonders gute Eignung für die Analyse von Zeitreihen auf, da ihre Architektur den Bezug zu zeitlichen Abhängigkeiten berücksichtigt. Somit ergibt sich in vorteilhafter Weise eine hohe Qualität der Aufteilung. Training a CNN advantageously reduces network complexity, making it suitable for devices with limited computing power. This applies to both the training and inference phases. Furthermore, the training time required for CNNs is short, particularly compared to LSTM networks, which also require comparatively higher computing power. However, LSTM network training is especially well-suited for time series analysis because its architecture incorporates temporal dependencies. This results in a high-quality partitioning.

In einer weiteren Ausführungsform umfassen Eingangsgrößen für die modellbasierte Aufteilung zusätzlich zu dem mindestens einen Abbild des Untersuchungsbereichs bzw. zu dem entsprechenden Bildsignal zumindest eine der folgenden Informationen: a) Tiefeninformationen für das zumindest eine Abbild des Untersuchungsbereichs, b) zumindest ein zeitlich vor dem Abbild des Untersuchungsbereichs erzeugtes Abbild des Untersuchungsbereichs, c) ein zu dem Abbild des Untersuchungsbereichs korrespondierendes Abbild, welches von einer weiteren Bilderfassungseinrichtung des Operationsmikroskops erzeugt wurde, d) Informationen zur Klassifikation von abgebildeten Objekten, e) Informationen zur Klassifikation einer Nutzeraktivität, f) Informationen zur Klassifikation einer Operationsphase, g) Informationen zur Klassifikation eines Operationstyps. In a further embodiment, input variables for the model-based partitioning include, in addition to the at least one image of the examination area or the corresponding image signal, at least one of the following pieces of information: a) depth information for the at least one image of the examination area, b) at least one image of the examination area generated temporally prior to the image of the examination area, c) an image corresponding to the image of the examination area, which was generated by another image acquisition device of the operating microscope, d) information for classifying imaged objects, e) information for classifying a user activity, f) information for classifying a surgical phase, g) information for classifying a surgical type.

Umfasst das Operationsmikroskop ein Stereosystem mit zwei Bilderfassungseinrichtungen und wurde das Abbild des Untersuchungsbereichs durch eine der Bilderfassungseinrichtungen erzeugt, so kann das erläuterte korrespondierende Abbild durch die verbleibende Bilderfassungseinrichtung des Stereosystems erzeugt werden. Die Informationen gemäß der Punkt d) und e) können semantische (Zusatz) Informationen bilden. Die Informationen gemäß der Punkte f) und g) können Kontextinformationen bilden. Somit können Eingangsgrößen für die modellbasierte Aufteilung Bildinformationen, z.B. in Form eines mikroskopischen Weißlicht-Abbilds und gegebenenfalls eines Abbilds gemäß Punkt b) oder c), und/oder Bildverarbeitungsinformationen, z.B. eine Information über eine zeitliche Veränderung der Bildinformation und/oder eine Information gemäß Punkt a), und/oder semantische (Zusatz) Informationen und/oder Kontextinformationen sein. If the operating microscope includes a stereo system with two image acquisition devices and the image of the examination area was generated by one of the image acquisition devices, then the corresponding function described above can be used. The image is generated by the remaining image acquisition unit of the stereo system. The information according to points d) and e) can constitute semantic (additional) information. The information according to points f) and g) can constitute contextual information. Thus, input variables for the model-based partitioning can be image information, e.g., in the form of a microscopic white-light image and, if applicable, an image according to point b) or c), and/or image processing information, e.g., information about a temporal change in the image information and/or information according to point a), and/or semantic (additional) information and/or contextual information.

Die Information zur Klassifikation von abgebildeten Objekten kann eine Information über eine Klasse sein, der ein abgebildetes Objekt zugeordnet ist. Eine beispielhafte Klasse kann die Klasse „Gewebe“ oder die Klasse „Instrument“ sein. Information for classifying depicted objects can be information about a class to which a depicted object is assigned. An example class could be "fabric" or "instrument".

Eine Information zur Klassifikation der Nutzeraktivität kann eine Information über eine Klasse der Nutzeraktivität sein, beispielsweise über die Klasse „Schneiden“, „Saugen“, „Ablatieren“, „Koagulieren“, „Retraktieren“ oder „Tupfen“. Information for classifying user activity can be information about a class of user activity, for example, the class "cutting", "suction", "ablating", "coagulating", "retracting" or "swabbing".

Entsprechend kann eine Information zur Klassifikation einer Operationsphase eine Information über die Klasse der aktuellen Operationsphase sein, beispielsweise die Klasse „Eröffnung“, „Exploration“, „Resektion“, „Rekonstruktion“, „Wundverschluss“, „Wundheilung“, „Planung der Eröffnung“, „Freilegung“. Accordingly, information for the classification of an operational phase can be information about the class of the current operational phase, for example the class "opening", "exploration", "resection", "reconstruction", "wound closure", "wound healing", "planning of opening", "exposure".

Die Information zur Klassifikation des Operationstyps kann eine Klasse des Operationstyps sein, beispielsweise die Klasse „neurochirurgische Operation“, „orthopädische Operation“, “ophthalmologische Operation“. Neurochirurgische Operationen können auch in die Klassen z.B. „Tumoreingriffe", „vaskuläre Eingriffe" oder "spinale Eingriffe" eingeteilt sein. Ophthalmologische Operationen können auch in die Klassen „Vorderabschnittschirurgie“, „Hinterabschnittschirurgie“ eingeteilt sein, wobei die Vorderabschnittschirurgie z.B. Eingriffe zur Behandlung eines Katarakts oder zur Descemetmembran-Endotheliale-Keratoplastik umfasst. Die Hinterabschnittschirurgie umfasst z.B. ein (Membran)Peeling oder eine Vitrektomie. The information regarding the classification of the surgical type can be a class of surgical type, for example, "neurosurgical surgery," "orthopedic surgery," or "ophthalmic surgery." Neurosurgical surgeries can also be classified into classes such as "tumor surgery," "vascular surgery," or "spinal surgery." Ophthalmic surgeries can also be classified into "anterior segment surgery" and "posterior segment surgery," with anterior segment surgery including procedures such as cataract treatment or Descemet membrane endothelial keratoplasty. Posterior segment surgery includes procedures such as (membrane) peeling or vitrectomy.

Die Tiefeninformationen können wie vorhergehend erläutert bestimmt werden. Die Informationen zur Klassifikation können durch eine Klassifikationseinrichtung bestimmt werden, wobei die Klassifikation insbesondere bildbasiert, also durch Auswertung zumindest eines Abbilds, insbesondere der Bilderfassungseinrichtung des Operationsmikroskops oder einer davon verschiedenen Bilderfassungseinrichtung, erfolgen kann. Auch können die Informationen zur Klassifikation vorbestimmte Informationen sein. Auch ist es möglich, dass die Informationen zur Klassifikation in Abhängigkeit von Steuersignalen bestimmt werden, die für das oder in dem medizinischen Visualisierungssystem erzeugt werden. Auch können solche Informationen durch die Bedienung einer Eingabeeinrichtung erzeugt werden. The depth information can be determined as previously explained. The classification information can be determined by a classification system, with the classification being particularly image-based, i.e., through evaluation. The classification information can be generated from at least one image, in particular from the image acquisition device of the operating microscope or from a different image acquisition device. The classification information can also be predetermined. It is also possible that the classification information is determined based on control signals generated for or within the medical visualization system. Such information can also be generated by operating an input device.

Durch die Berücksichtigung einer, mehrerer oder aller der genannten Informationen zusätzlich zu dem mindestens einen Abbild des Untersuchungsbereichs ergibt sich in vorteilhafter Weise, dass die Zuverlässigkeit und die Genauigkeit der Aufteilung in Vorder- und Hintergrundbereich verbessert werden kann, was wiederum die Wahrnehmbarkeit des augmentierten Abbilds durch den Nutzer verbessert. By taking into account one, several or all of the aforementioned information in addition to the at least one image of the area under investigation, it advantageously results in the reliability and accuracy of the division into foreground and background areas being improved, which in turn improves the user's perception of the augmented image.

In einer weiteren Ausführungsform wird eine Prädiktion von Bildpositionen des Vordergrundbereichs und/oder des Hintergrundbereichs oder eines Teilbereichs hiervon durchgeführt, wobei das Aufteilen in Abhängigkeit einer prädizierten Bildposition erfolgt. Durch die Prädiktion kann aus Abbildern, die zu früheren Zeitpunkten erzeugt wurden, die Aufteilung in Vorder- und Hintergrundbereich für das zum aktuellen Zeitpunkt erzeugte Abbild vorhergesagt und dann bei der Erzeugung des augmentierten Abbilds zum aktuellen Zeitpunkt berücksichtigt werden. In a further embodiment, a prediction of image positions in the foreground and/or background area, or a sub-area thereof, is performed, with the division occurring depending on a predicted image position. Through this prediction, the division into foreground and background areas for the image generated at the current time can be predicted from images generated at earlier times and then taken into account when generating the augmented image at the current time.

Auch kann die Aufteilung in ein Vorder- und Hintergrundbereich für ein zu einem zukünftigen Zeitpunkt zu erzeugenden Abbild, also einem Folgebild, vorhergesagt werden und dann bei der Erzeugung des augmentierten Abbilds zu dem entsprechenden (zukünftigen) Zeitpunkt berücksichtigt werden. Bei einer solchen Vorhersage einer Aufteilung in einem Folgebild kann auch das zum aktuellen Zeitpunkt erzeugte Abbild berücksichtigt werden. The division into foreground and background areas can also be predicted for a future image (i.e., a subsequent image) and then taken into account when generating the augmented image at that future time. Such a prediction of the division in a subsequent image can also consider the image generated at the current time.

Mit anderen Worten kann mittels der Prädiktion eine räumliche Aufteilung eines Abbilds in Vordergrundbereich und Hintergrundbereich vorhergesagt werden. Insbesondere kann durch die Prädiktion eine Bewegung eines abgebildeten Elements berücksichtigt werden. So erfolgt die Prädiktion bevorzugt zur Vorhersage des Vordergrundbereichs oder eines Teilbereichs davon, insbesondere wenn darin ein sich bewegendes Vordergrundelement wie z.B. ein Instrument, ein Handschuh, ein Finger, ein Sauger etc. abgebildet ist. Beispielsweise kann mittels der Prädiktion vorhergesagt und/oder berücksichtigt werden, wohin sich das bewegende Vordergrundobjekt bewegt bzw. bewegen wird. Es kann also insbesondere auch eine Vorhersage bezüglich Bildaufteilungen eines Folgebilds oder einer Sequenz von Folgebildern in Vordergrundbereich und Hintergrundbereich erfolgen. Gemäß den vorhergehenden Erläuterungen kann über die Prädiktion einer Bildposition des Vordergrundbereichs auch eine Bildposition des Hintergrundbereichs und umgekehrt prädiziert werden, nämlich als verbleibender Teilbereich des Abbilds. In other words, prediction can be used to forecast the spatial division of an image into foreground and background areas. In particular, prediction can take into account the movement of an imaged element. Thus, prediction is preferably used to forecast the foreground or a part thereof, especially when it contains a moving foreground element such as an instrument, a glove, a finger, a suction cup, etc. For example, prediction can be used to forecast and/or take into account where the moving foreground object is moving or will move. In particular, it can also be used to predict the division of a subsequent image or sequence of subsequent images into foreground and background areas. As explained above, predicting the position of the foreground image can also predict the position of the background image, and vice versa, namely as the remaining portion of the image.

Dies ermöglicht in vorteilhafter Weise eine weiter verbesserte Darstellungsqualität. Insbesondere können so Latenzen bei der Überlagerung, die z.B. durch das Durchführen der Aufteilung erzeugt werden, vermieden oder reduziert werden, und es kann insbesondere eine Überlagerung in Echtzeit oder Fast-Echtzeit erfolgen. Eine solche Latenz kann insbesondere entstehen, wenn die Aufteilung, z.B. in Form einer Segmentierung, Rechenzeit benötigt. So kann z.B. auch bei sich bewegenden Vordergrundelementen, die nicht oder in anderer Weise augmentiert werden sollen, eine hohe Darstellungsqualität gewährleistet werden. This advantageously enables further improved display quality. In particular, latencies during overlaying, such as those caused by segmentation, can be avoided or reduced, and real-time or near-real-time overlaying is possible. Such latency can arise especially when segmentation requires processing time. This ensures high display quality even with moving foreground elements that are not to be augmented or are to be augmented in a different way.

Es ist auch möglich, dass auf Basis der Aufteilung eines Abbilds, das zu einem früheren Zeitpunkt erzeugt wurde, in Vorder- und Hintergrundbereich der oder die Teilbereich(e) eines Folgebilds identifiziert wird/werden, die bei der Vorhersage, insbesondere zur Bestimmung von Bewegungsinformationen, zu berücksichtigen sind. Mit anderen Worten kann aus bereits bestimmten Aufteilungsergebnissen, die z.B. in Form von bereits erzeugten Bildmasken vorliegen, bestimmt werden, welche It is also possible that, based on the division of an image generated at an earlier time into foreground and background areas, the sub-area(s) of a subsequent image can be identified that need to be considered in the prediction, particularly for determining motion information. In other words, it is possible to determine from previously determined division results, which are available, for example, in the form of already generated image masks, which

• Teilbereiche eines zum aktuellen Zeitpunkt erzeugten Abbilds oder Folgebilds für die Prädiktion zu analysieren sind, beispielsweise weil dort die Abbildung von sich bewegenden Elementen erwartet wird, und/oder • To analyze sub-areas of an image or subsequent image generated at the current time for prediction purposes, for example because the representation of moving elements is expected there, and/or

• Teilbereiche eines zum aktuellen Zeitpunkt erzeugten Abbilds oder Folgebilds für die Prädiktion nicht zu analysieren sind, beispielsweise weil dort keine Abbildung von sich bewegenden Elementen erwartet wird. • Sub-areas of an image or subsequent image generated at the current time cannot be analyzed for prediction, for example because no representation of moving elements is expected there.

Hierdurch kann in vorteilhafter weise ein Bildverarbeitungsaufwand bei der Prädiktion verringert werden. This can advantageously reduce the image processing effort required for prediction.

Für die Prädiktion/Vorhersage können in mehreren Abbildern, die zu früherenFor prediction, several images relating to previous [data/data] can be used.

Zeitpunkten, also vor dem Zeitpunkt der Erzeugung eines aktuellen Abbilds, erzeugt wurden, Informationen über Bildpositionen des (Teil)Bereichs bestimmt werden. Diese Informationen können in abrufbarer Weise gespeichert werden. Sie können insbesondere Informationen über eine (Bild)Lage und/oder eine Form und/oder eine Größe des Vordergrundbereichs und/oder des Hintergrundbereichs (bzw. der ausgewählten Teilbereiche) sein. Diese Informationen können z.B. auf Basis der Bildmasken bestimmt werden, die für die zu früheren Zeitpunkten erzeugten Abbildern bestimmt wurden. at points in time, i.e. before the point in time when a current image is created, Information about the image positions of the (partial) area was determined. This information can be stored in a retrievable format. It can include, in particular, information about the (image) position and/or the shape and/or size of the foreground and/or background area (or the selected sub-areas). This information can be determined, for example, based on the image masks that were defined for images generated at earlier times.

Dann können in Abhängigkeit dieser Informationen mit einem Prädiktionsverfahren Bildpositionen eines (Teil)Bereichs in dem zum aktuellen Zeitpunkt erzeugten Abbild oder in einem Folgebild vorhergesagt werden, beispielsweise in Form einer Bildmaske. So kann z.B. in Abhängigkeit der Informationen eine Bewegungsinformationen eines des (Teil)Bereichs bestimmt werden. Eine Bewegungsinformation kann eine Information über eine Bewegungstrajektorie, die z.B. die Bewegungstrajektorie eines Referenzpunktes, z.B. des geometrischen Mittelpunkts, des (Teil)Bereichs, eines Bildpunkts, und/oder eine Information über Bewegungsparameter wie z.B. eine Geschwindigkeit, sein. Dann kann in Abhängigkeit der Bewegungsinformation die Bildposition im aktuellen Abbild und/oder in einem Folgeabbild, also in einem zu einem zukünftigen Zeitpunkt erzeugten Abbild, vorhergesagt werden, z.B. über ein Extrapolationsverfahren. In analoger Weise können Informationen über eine Form- und/oder Größenänderung bestimmt werden. Then, based on this information, a prediction method can be used to forecast the image positions of a (sub)area in the image generated at the current time or in a subsequent image, for example, in the form of an image mask. For instance, based on the information, motion information for a (sub)area can be determined. This motion information can be information about a motion trajectory, such as the motion trajectory of a reference point (e.g., the geometric center of the (sub)area or a pixel), and/or information about motion parameters such as velocity. Then, based on this motion information, the image position in the current image and/or in a subsequent image (i.e., an image generated at a future time) can be predicted, for example, using an extrapolation method. Similarly, information about changes in shape and/or size can be determined.

Es ist möglich, dass die Aufteilung gemäß der prädizierten Bildposition der (Teil)Bereiche erfolgt. It is possible that the division is carried out according to the predicted image position of the (sub)areas.

Generell ist es aber auch möglich, dass mehrere Aufteilungsinformationen fusioniert werden, um die resultierende Aufteilung zu bestimmen. Die Menge an fusionierbaren Aufteilungsinformationen kann hierbei die erläuterten Prädiktionsinformationen, Tiefeninformationen, semantischen Zusatzinformationen, Kontextinformationen, Informationen über eine zeitliche Veränderung umfassen. In general, it is also possible to fuse multiple pieces of partitioning information to determine the resulting partition. The set of partitioning information that can be fused can include the aforementioned prediction information, depth information, additional semantic information, contextual information, and information about temporal changes.

Es ist z.B. möglich, dass die Prädiktion auf Basis der Bildmasken erfolgt, wobei in Abhängigkeit von Bildmasken, die zu früheren Zeitpunkten, also vor dem Zeitpunkt der Erzeugung einer Bildmaske für das aktuellen Abbild, erzeugt wurden, Informationen über Koordinaten von Bildpunkten, die die Zugehörigkeit zum Vordergrundbereich repräsentieren, und/oder von Bildpunkten, die die Zugehörigkeit zum Hintergrundbereich repräsentieren, in der Bildmaske für das aktuelle Abbild bestimmt werden. In einer weiteren Ausführungsform werden bei dem Aufteilen des Abbilds Konfidenzinformationen bestimmt, wobei das Aufteilen und/oder das Überlagern konfidenzabhängig erfolgt. For example, it is possible that the prediction is based on the image masks, whereby, depending on image masks that were created at earlier times, i.e. before the time of the creation of an image mask for the current image, information about the coordinates of image points representing membership in the foreground area and/or of image points representing membership in the background area is determined in the image mask for the current image. In another embodiment, confidence information is determined when splitting the image, with the splitting and/or superimposition being confidence-dependent.

Die jeweilige Konfidenzinformation kann insbesondere eine Konfidenz bei der Zuordnung eines Bildpunkts oder Bildbereichs zu einem der Bereiche Vordergrundbereich, Hintergrundbereich repräsentieren. Mit anderen Worten kann diese Information repräsentieren, wie zutreffend die entsprechende Zuordnung bzw. mit welcher Sicherheit die Zuordnung bestimmt ist. Wird die Aufteilung mittels eines maschinell erlernten Modells (MLM) durchgeführt, so kann die Konfidenz bei der Verarbeitung durch das MLM (mit)bestimmt werden. The respective confidence information can, in particular, represent the confidence level in assigning a pixel or image area to one of the areas foreground or background. In other words, this information can represent how accurate the corresponding assignment is, or with what certainty the assignment is determined. If the division is performed using a machine learning model (MLM), the confidence level can be (co-)determined during processing by the MLM.

Die Konfidenzinformation kann als Konfidenzwert bereitgestellt sein, der Werte aus einem vorbestimmten Wertebereich zwischen einem ersten Grenzwert, der maximale Konfidenz repräsentiert, und einem weiteren Grenzwert, der minimale Konfidenz repräsentiert, annehmen kann. The confidence information can be provided as a confidence value, which can take values from a predetermined range between a first limit representing maximum confidence and another limit representing minimum confidence.

Z.B. kann ein konfidenzabhängiges Aufteilen erfolgen, indem ein Bildpunkt/Bildbereich einem der Bereiche nur dann zugeordnet wird, wenn der entsprechende Konfidenzwert einen vorbestimmten Konfidenzschwellwert über- bzw. unterschreitet. Andernfalls kann er dem verbleibenden Bereich zugeordnet werden oder es werden alternative Verfahren angewendet, um diese Bildpunkte/Bildbereiche einem der Bereiche zuzuordnen. For example, confidence-based partitioning can be achieved by assigning a pixel/image area to one of the areas only if the corresponding confidence value exceeds or falls below a predetermined confidence threshold. Otherwise, it can be assigned to the remaining area, or alternative methods can be used to assign these pixels/image areas to one of the areas.

Insbesondere können Bildpunkte/Bildbereiche, die mit einem niedrigen Konfidenzwert dem Hintergrundbereich zugeordnet werden, konfidenzabhängig dem Vordergrundbereich zugeordnet werden, z.B. wenn ein Konfidenzwert der Zuordnung zum Hintergrundbereich eine geringere Konfidenz als ein vorbestimmter Konfidenzschwellwert repräsentiert. Somit kann der Vordergrundbereich konfidenzabhängig vergrößert werden. Hiermit wird das Risiko verringert, dass Zusatzinformationen fälschlicherweise in einem Bereich überlagert werden, der nur mit geringer Sicherheit als Hintergrundbereich identifiziert wurde. Hierdurch kann in vorteilhafter Weise eine Darstellungsqualität verbessert werden. In particular, pixels/image areas assigned to the background with a low confidence value can be reassigned to the foreground based on confidence, for example, if the confidence value for the background assignment is lower than a predetermined confidence threshold. This allows the foreground area to be enlarged based on confidence. This reduces the risk of additional information being erroneously superimposed in an area identified as the background with low confidence. This can advantageously improve the display quality.

Es ist auch möglich, dass Bildpunkte/Bildbereiche, die mit einem niedrigen Konfidenzwert dem Vorder- oder dem Hintergrundbereich zugeordnet werden, konfidenzabhängig einem Übergangsbereich zugeordnet werden, z.B. wenn ein Konfidenzwert der Zuordnung eine geringere Konfidenz als ein vorbestimmter Konfidenzschwellwert repräsentiert. Diese konfidenzabhängige Zuordnung zum Übergangsbereich erfolgt vorzugsweise aber nur dann, wenn zusätzlich mindestens ein weiteres Zuordnungskriterium erfüllt ist, z.B. wenn ein Abstand des Bildpunkts/Bildbereichs zum nächstliegenden Vordergrundbereich, insbesondere zum nächstliegenden Vordergrundbereichsbildpunkt, kleiner als ein vorbestimmter Abstandsschwellwert ist und/oder wenn ein Abstand des Bildpunkts/Bildbereichs zum nächstliegenden Hintergrundbereich, insbesondere zum nächstliegenden Hintergrundbereichsbildpunkt, kleiner als ein vorbestimmter Abstandsschwellwert ist. Ist das mindestens eine Zusatzkriterium nicht erfüllt, so kann die erläuterte Zuordnung zum Vordergrundbereich erfolgen. It is also possible that pixels/image areas assigned to the foreground or background with a low confidence value may be assigned to a different area depending on the confidence level. A transition region can be assigned, for example, if a confidence value of the assignment represents a lower confidence level than a predetermined confidence threshold. This confidence-dependent assignment to the transition region preferably only occurs if at least one additional assignment criterion is met, for example, if the distance of the pixel/image area to the nearest foreground region, in particular to the nearest foreground pixel, is less than a predetermined distance threshold, and/or if the distance of the pixel/image area to the nearest background region, in particular to the nearest background pixel, is less than a predetermined distance threshold. If at least one of these additional criteria is not met, the assignment to the foreground region described above can still be made.

Die vorbestimmten Konfidenzschwellwerte zur Zuordnung zum Vordergrundbereich und zur Zuordnung zum Übergangsbereich können gleich oder verschieden voneinander sein. Vorzugsweise ist der vorbestimmte Konfidenzschwellwert zur Zuordnung zum Vordergrundbereich niedriger als zur Zuordnung zum Übergangsbereich. The predetermined confidence thresholds for assigning a result to the foreground region and the transition region can be the same or different. Preferably, the predetermined confidence threshold for assigning a result to the foreground region is lower than the threshold for assigning it to the transition region.

Z.B. kann ein konfidenzabhängiges Überlagern erfolgen, indem das Überlagern gemäß einer konfidenzabhängigen Überlagerungsmodalität erfolgt. Die Überlagerung gemäß verschiedener Überlagerungsmodalitäten wurde vorhergehend bereits erläutert. Insbesondere können Färb- und/oder Transparenzeigenschaften konfidenzabhängig eingestellt werden. Z.B. kann eine umso höhere Transparenz eingestellt werden, je geringer die Konfidenz ist, insbesondere bei Bildpunkten/Bildbereichen im Hintergrundbereich. Mit anderen Worten können die Zusatzinformationen mit einer konfidenzabhängigen Visualisierungsmodalität in den entsprechenden Bereichen dargestellt werden. Auch können konfidenzabhängige Renderingstile zur Darstellung der Zusatzinformationen angewendet werden. Hiermit wird erreicht, dass ein Betrachter in einfacher Weise erfassen kann, wie gut die Verlässlichkeit der Überlagerung mit Zusatzinformationen ist, was wiederum ebenfalls die Darstellungsqualität verbessert. For example, confidence-based overlaying can be achieved by applying a confidence-based overlay modality. Overlaying according to various overlay modalities has already been explained. In particular, coloring and/or transparency properties can be set based on confidence. For example, the lower the confidence level, the higher the transparency, especially for pixels/image areas in the background. In other words, the additional information can be displayed in the relevant areas using a confidence-based visualization modality. Confidence-based rendering styles can also be applied to display the additional information. This allows viewers to easily assess the reliability of the overlay with additional information, which in turn improves the overall display quality.

Konfidenzwerte, die eine niedrige Konfidenz repräsentieren, können insbesondere bei der Zuordnung von Bildpunkten in unscharfen Abbildern oder in unscharfen Bildbereichen erzeugt werden, die bei einer Bilderzeugung durch das Operationsmikroskop, insbesondere bei einer Defokussierung, auftreten können. Somit kann eine gute Darstellungsqualität auch in solchen Szenarien gewährleistet werden. Die konfidenzabhängige Überlagerung kann insbesondere auch in Randbereichen und/oder bei Übergängen zwischen Vordergrund- und Hintergrundbereich die Darstellungsqualität verbessern. Wird angenommen, dass in Randbereichen/Übergängen die Zuordnung von Bildpunkten zu einem der Bereiche tendenziell mit einer niedrigen Konfidenz erfolgt, so kann ein Betrachter solche Randbereiche/Übergänge sowie die dort vorhandene Verlässlichkeit der Überlagerung mit Zusatzinformationen in einfacher Weise erfassen, was wiederum ebenfalls die Darstellungsqualität verbessert. Confidence values representing low confidence can be generated particularly when assigning pixels in blurred images or in blurred image areas, which can occur during image acquisition by the operating microscope, especially in cases of defocusing. This ensures good image quality even in such scenarios. Confidence-based overlay can improve image quality, particularly in border areas and/or transitions between foreground and background. If it is assumed that the assignment of pixels to one of the areas tends to occur with low confidence in border areas/transitions, a viewer can easily perceive such border areas/transitions and the reliability of the overlay there with additional information, which in turn also improves image quality.

In einer weiteren Ausführungsform wird nach der Aufteilung des Abbilds des Untersuchungsbereichs in den Vorder- und den Hintergrundbereich, jedoch vor der Überlagerung, eine Größe des Vordergrundbereichs verändert, insbesondere zumindest in Bezug auf einen Teilbereich des Vordergrundbereichs. So kann die Größe des Vordergrundbereichs vergrößert oder verkleinert werden, insbesondere indem Bildpunkte des Hintergrundbereichs um einen Teilbereich des Vordergrundbereichs herum dem Vordergrundbereich zugewiesen werden oder Bildpunkte eines Teilbereichs des Vordergrundbereichs dem Hintergrundbereich zugewiesen werden. Wird der Vordergrundbereich vergrößert, so wird der Hintergrundbereich verkleinert. Wird der Vordergrundbereich verkleinert, so wird der Hintergrundbereich entsprechend vergrößert. Eine Veränderung kann entsprechend einer geometrischen Form erfolgen, beispielsweise kann eine kreisförmige, eine ellipsoidförmige, eine rechteckförmige oder eine quadratische Vergrößerung bzw. Verkleinerung erfolgen, wobei z.B. alle Bildpunkte, die in einer geometrischen Form um einen Referenzpunkt des Teilbereichs herum angeordnet sind, dem Vordergrundbereich zugeordnet werden. Eigenschaften der Veränderung, beispielsweise eine geometrische Form und/oder die Größe der Veränderung, können hierbei vorbestimmt sein. In a further embodiment, after the image of the area under investigation has been divided into foreground and background areas, but before the superimposition, the size of the foreground area is changed, particularly at least with respect to a sub-area of the foreground. The size of the foreground area can be enlarged or reduced, in particular by assigning pixels from the background area surrounding a sub-area of the foreground area to the foreground, or by assigning pixels from a sub-area of the foreground area to the background. If the foreground area is enlarged, the background area is reduced. If the foreground area is reduced, the background area is enlarged accordingly. The change can be geometric; for example, a circular, ellipsoidal, rectangular, or square enlargement or reduction can be performed, whereby, for example, all pixels arranged in a geometric shape around a reference point of the sub-area are assigned to the foreground. Properties of the change, such as its geometric shape and/or the magnitude of the change, can be predetermined.

Alternativ oder kumulativ wird eine Größe des Hintergrundbereichs verändert, insbesondere zumindest in Bezug auf einen Teilbereich des Hintergrundbereichs, insbesondere vergrößert oder verkleinert. Hierfür gelten die für die Veränderung des Vordergrundbereichs getätigten Erläuterungen in entsprechender Weise. Alternatively or cumulatively, the size of the background area is changed, in particular at least with respect to a sub-area of the background area, especially by being enlarged or reduced. The explanations given for changing the foreground area apply accordingly.

Durch eine derart nachträgliche Veränderung der Größe des Vorder- und/oder des Hintergrundbereichs ergibt sich in vorteilhafter weise, dass insbesondere in bestimmten anwendungsabhängigen Szenarien eine weiter verbesserte Darstellungsqualität für das augmentierte Abbild ermöglicht wird. So kann beispielsweise erreicht werden, dass ein Bildbereich, der ein das Gewebe kontaktierenden Teil, z.B. die Spitze eines Instruments zeigt und der als Vordergrundbereich klassifiziert ist, vergrößert wird, um einem Nutzer eine nicht durch Augmentierung beeinflusste Wahrnehmung des kontaktierten Gewebes zu ermöglichen. Ebenfalls kann ermöglicht werden, dass wenig Informationsgehalt beinhaltende Vordergrundabschnitte verkleinert werden. Hierdurch kann die Darstellungsqualität des bereitgestellten augmentierten Abbilds weiter verbessert werden. Such a subsequent change in the size of the foreground and/or background area advantageously results in a further improved image quality for the augmented image, particularly in certain application-dependent scenarios. For example, it can be achieved that an image area containing a part in contact with the tissue, e.g., the tip of an instrument, is rendered more accurately. The area shown, classified as the foreground, is enlarged to allow the user to perceive the contacted tissue without augmentation. It is also possible to reduce the size of foreground sections containing little information. This further improves the display quality of the provided augmented image.

In einer weiteren Ausführungsform wird ein zu verändernder Teilbereich des Vorder- oder Hintergrundbereichs durch ein Verfahren zur Objekterkennung bestimmt. Der zu verändernde Teilbereich kann einen Teilbereich des Vorder- oder Hintergrundbereichs bezeichnen in Bezug auf welchen die Größe des Vorder- oder des Hintergrundbereichs verändert wird. Alternativ kann der zu verändernde Teilbereich auch einen Teilbereich bezeichnen, dessen Größe verändert wird. In a further embodiment, a sub-area of the foreground or background to be modified is determined by an object detection method. The sub-area to be modified can designate a sub-area of the foreground or background with respect to which the size of the foreground or background is changed. Alternatively, the sub-area to be modified can also designate a sub-area whose size is changed.

Wie vorhergehend erläutert kann z.B. die Größe des Vordergrundbereichs vergrößert oder verkleinert werden, insbesondere indem Bildpunkte des Hintergrundbereichs in einem Abschnitt neben einem oder zumindest teilweise um einen Teilbereich des Vordergrundbereichs herum dem Vordergrundbereich zugewiesen werden oder Bildpunkte eines Teilbereichs des Vordergrundbereichs dem Hintergrundbereich zugewiesen werden. Entsprechend kann die Größe des Hintergrundbereichs vergrößert oder verkleinert werden, insbesondere indem Bildpunkte des Vordergrundbereichs in einem Abschnitt neben einem oder zumindest teilweise um einen Teilbereich des Hintergrundbereichs herum dem Hintergrundbereich zugewiesen werden oder Bildpunkte eines Teilbereichs des Hintergrundbereichs dem Vordergrundbereich zugewiesen werden. As explained above, the size of the foreground area can be increased or decreased, in particular by assigning pixels from the background area in a section adjacent to, or at least partially surrounding, a portion of the foreground area to the foreground, or by assigning pixels from a portion of the foreground area to the background. Similarly, the size of the background area can be increased or decreased, in particular by assigning pixels from the foreground area in a section adjacent to, or at least partially surrounding, a portion of the background area to the background, or by assigning pixels from a portion of the background area to the foreground.

Das Verfahren zur Objekterkennung kann insbesondere ein bildbasiertes Verfahren sein, welches also durch Auswertung des mindestens einen Abbilds mindestens einen Bildpunkt einem Objekt zuordnet. Derartige Verfahren sind dem Fachmann bekannt. So ist es beispielsweise möglich, bestimmte Teilabschnitte, z.B. eine Spitze eines Instruments, durch ein Verfahren zur Objekterkennung im Abbild zu bestimmen. Dann kann die Größe des Vordergrundbereichs in Bezug auf diesen Teilbereich vergrößert werden. In diesem Fall können Eigenschaften der Veränderung objektabhängig sein, wobei einem Objekt vorbestimmte Eigenschaften der Veränderung zugeordnet sein können. Hierdurch ergibt sich in vorteilhafter weise eine zuverlässige Identifizierung eines Teilbereichs, was wiederum die vorhergehend erläuterte Darstellungsqualität verbessert. In einer weiteren Ausführungsform wird ein zu verändernder Teilbereich in Abhängigkeit von mindestens einem optischen Parameter des Operationsmikroskops bestimmt. Optische Parameter können insbesondere die vorhergehend erläuterten Betriebsparameter sein. So kann z.B. ein Bildbereich, der Vordergrund-Elemente abbildet, die nicht in einem vorbestimmten Intervall um einen eingestellten Arbeitsabstand des Operationsmikroskops herum angeordnet sind, als zu verkleinernden Teilbereich des Vordergrundbereichs bestimmt werden. Hierbei kann davon ausgegangen werden, dass solche Vordergrund-Elemente vom Mikroskop unscharf, also mit nicht ausreichender Bildqualität, abgebildet werden, wobei die Bildqualität insbesondere eine Bildschärfe repräsentieren kann. Es kann sinnvoll sein, solche Vordergrundteilbereiche mit nicht ausreichender Bildqualität zu vergrößern oder auch verkleinern. Mit anderen Worten kann ein Bildbereich mit nicht ausreichender Bildqualität vergrößert oder verkleinert werden, wobei die Bildqualität z.B. von einem Maß der Unschärfe der in den Bildbereich abgebildeten Element abhängen kann. The object recognition method can, in particular, be an image-based method, which assigns at least one pixel to an object by evaluating at least one image. Such methods are known to those skilled in the art. For example, it is possible to identify specific sections, such as the tip of an instrument, in the image using an object recognition method. The size of the foreground area can then be increased with respect to this section. In this case, the properties of the change can be object-dependent, with predetermined properties of the change being assigned to an object. This advantageously results in a reliable identification of a section, which in turn improves the previously described image quality. In a further embodiment, a sub-area to be modified is determined as a function of at least one optical parameter of the operating microscope. Optical parameters can be, in particular, the operating parameters described above. For example, an image area depicting foreground elements that are not arranged within a predetermined interval around a set working distance of the operating microscope can be defined as the sub-area of the foreground to be reduced in size. It can be assumed that such foreground elements are rendered blurry by the microscope, i.e., with insufficient image quality, where image quality can, in particular, represent image sharpness. It can be advantageous to enlarge or reduce such foreground sub-areas with insufficient image quality. In other words, an image area with insufficient image quality can be enlarged or reduced, where the image quality can, for example, depend on the degree of blurriness of the elements depicted in the image area.

Durch eine Verkleinerung eines solchen (Vordergrundteil)Bereichs kann ein zusätzlicher Bildbereich für eine Augmentierung geschaffen werden, wobei dieser zusätzliche Bildbereich aber nur einen solchen Bereich umfasst, in denen Bildinformationen wie z.B. Gewebe oder Instrumente mit nicht ausreichender Bildqualität abgebildet sind. By reducing the size of such a (foreground) area, an additional image area can be created for augmentation, but this additional image area only includes areas in which image information such as tissue or instruments are depicted with insufficient image quality.

Durch ein Vergrößern eines solchen (Vordergrundteil)Bereichs kann verhindert werden, dass in Nachbarschaft zu einem Bildbereich mit nicht ausreichender Bildqualität, eine Augmentierung mit ausreichender Bildqualität erfolgt, z.B. indem neben einem unscharfen Bildbereich ein scharfer Bildbereich durch Augmentierung erzeugt wird. Durch diese Art der Darstellung kann in vorteilhafter Weise erreicht werden, dass ein Betrachter weniger verwirrt wird. Ein solches Vergrößern kann insbesondere erfolgen, wenn die Bildqualität schlechter als ein vorbestimmtes Maß ist. Enlarging such a (foreground) area can prevent augmentation with sufficient image quality from occurring next to an area of insufficient image quality, for example, by creating a sharp image area next to a blurry one. This type of representation can advantageously reduce viewer confusion. Such enlargement can be particularly useful when the image quality is below a predetermined level.

Auch denkbar wäre, dass die Darstellung von augmentierten Informationen, insbesondere in Nachbarschaft zu einem Bildbereich mit nicht ausreichender Bildqualität, mit der gleichen nicht ausreichenden Bildqualität erfolgt. Eine solche Darstellung von augmentierten Informationen kann insbesondere dann erfolgen, wenn die Bildqualität besser als ein oder gleich einem vorbestimmtes/n Maß ist. Hierdurch kann in vorteilhafter Weise ebenfalls eine zuverlässige Identifizierung von zu verändernden Teilbereichen erfolgen, was wiederum die vorhergehend erläuterte Darstellungsqualität verbessert. It is also conceivable that augmented information, particularly in the vicinity of an image area with insufficient image quality, could be displayed with the same insufficient image quality. Such a display of augmented information is particularly possible if the image quality is better than or equal to a predetermined level. This also allows for the advantageous and reliable identification of sub-areas that need to be changed, which in turn improves the previously explained presentation quality.

In einer weiteren Ausführungsform wird die Veränderung abhängig von a) einem Abstand des in den Teilbereich abgebildeten Objekts bzw. Elements von einer Oberfläche des Untersuchungsbereichs, b) einer teilbereichsspezifischen Bildinformation durchgeführt. In another embodiment, the change is carried out depending on a) a distance of the object or element depicted in the sub-area from a surface of the investigation area, b) sub-area-specific image information.

Insbesondere kann eine Eigenschaft der Veränderung abhängig von mindestens einer der genannten Größen gewählt werden. So kann beispielsweise die Größe der Veränderung zu dem Abstand positiv oder negativ korrelierend sein. Der Abstand kann insbesondere in Abhängigkeit der vorhergehend erläuterten Tiefeninformationen bestimmt werden. Selbstverständlich sind auch andere Arten der Bestimmung des Abstands vorstellbar. In particular, a property of the change can be chosen to depend on at least one of the aforementioned quantities. For example, the magnitude of the change can be positively or negatively correlated with the distance. The distance can be determined, in particular, depending on the depth information explained above. Of course, other methods of determining the distance are also conceivable.

Die Bildinformation kann eine Eigenschaft des Abbilds sein und bildbasiert bestimmt werden. Sie kann insbesondere eine Unschärfeinformation, eine Verschattungsinformation oder eine Kontrastinformation sein. Die teilbereichsspezifische Bildinformation kann ebenfalls durch eine entsprechende Einrichtung bestimmt werden. Insbesondere kann eine bildbasierte Bestimmung dieser Information(en) erfolgen. So ist es beispielsweise möglich, ein Verfahren zur Unschärfeklassifikation und/oder ein Verfahren zur Schattenklassifikation und/oder ein Verfahren zur Kontrastklassifikation durchzuführen, um Bildbereiche, insbesondere des Vordergrundbereichs, zu bestimmen, die mehr als ein vorbestimmtes Maß unscharf und/oder mehr als ein vorbestimmtes Maß verschattet sind und/oder nicht ausreichend Kontrast aufweisen. Derartige Bereiche können dann verkleinert werden, insbesondere auch vollständig vom Vordergrundbereich entfernt werden. Auch vorstellbar ist, dass solche Bereiche vergrößert werden. Image information can be a property of the image and can be determined image-based. It can be, in particular, blur information, shadow information, or contrast information. Sub-area-specific image information can also be determined by a suitable device. In particular, this information can be determined image-based. For example, it is possible to perform a blur classification procedure, a shadow classification procedure, and/or a contrast classification procedure to identify image areas, especially in the foreground, that are blurred and/or shadowed by more than a predetermined degree and/or lack sufficient contrast. Such areas can then be reduced in size, or even completely removed from the foreground. It is also conceivable that such areas could be enlarged.

Auch kann die Bildqualität in einem Bildbereich in Abhängigkeit der Bildinformation, also z.B. der Unschärfeinformation und/oder der Verschattungsinformation und/oder der Kontrastinformation, bestimmt werden, wobei die Vergrößerung und/oder die Verkleinerung dann in Abhängigkeit der Bildqualität erfolgen kann. Hierzu kann auf die vorhergehenden Ausführungen verwiesen werden. Image quality in an image area can also be determined depending on the image information, e.g., blur information, shadow information, and/or contrast information, whereby the magnification and/or the Reduction in size can then be done depending on the image quality. Reference can be made to the preceding explanations in this regard.

Hierdurch ergibt sich in vorteilhafter Weise, dass auch Teilbereiche des Vordergrundbereichs zur Augmentierung genutzt werden, die ansonsten wenig Informationsgehalt für einen Nutzer bereitstellen würden. Dies verbessert wiederum die Darstellungsqualität und erhöht den Informationsgehalt des augmentierten Abbilds. This has the advantageous effect of allowing even parts of the foreground to be used for augmentation, areas that would otherwise provide little information to the user. This, in turn, improves the display quality and increases the information content of the augmented image.

In einer weiteren Ausführungsform wird ein zu verändernder Teilbereich und/oder die Veränderung der Größe mittels eines Modells bestimmt, welches durch maschinelles Lernen erzeugt wurde, insbesondere mittels eines neuronalen Netzes. Hierzu kann auf die diesbezüglichen vorhergehenden Ausführungen bezüglich der Aufteilung des Abbilds in einen Vordergrundbereich und in einen Hintergrundbereich mittels eines Modell verwiesen werden. Als Eingabedaten eines Trainingsdatensatzes können hierbei Abbilder und die diesen Abbildern zugeordnete Aufteilung in Vorder- und Hintergrundbereiche bzw. die entsprechenden Bildsignale bereitgestellt werden. Als Ausgabedaten kann eine Information über ausgewählte Teilbereiche und/oder die veränderte Aufteilung in Vorder- und Hintergrundbereich bereitgestellt werden. Z.B. können Ein- und Ausgabedaten solcher Trainingsdaten erzeugt werden, indem ein Nutzer die Teilbereiche und/oder die Veränderungen des Vorder- und Hintergrundbereichs manuell auswählt. So kann das Modell den Zusammenhang zwischen Abbildern und deren Aufteilung in Vorder- und Hintergrundbereich sowie der nachträglich veränderten Aufteilung lernen. Hierdurch ergibt sich eine zuverlässige und qualitativ hochwertige Bestimmung des zu verändernden Teilbereichs und/oder der Veränderung der Größe. In a further embodiment, a sub-area to be modified and/or the change in size is determined by means of a model generated through machine learning, in particular by means of a neural network. Reference can be made to the preceding explanations regarding the division of the image into a foreground and a background area using a model. The input data for a training dataset can consist of images and the division of these images into foreground and background areas, or the corresponding image signals. The output data can be information about selected sub-areas and/or the changed division into foreground and background areas. For example, input and output data for such training data can be generated by a user manually selecting the sub-areas and/or the changes to the foreground and background areas. In this way, the model can learn the relationship between images and their division into foreground and background areas, as well as the subsequently changed division. This results in a reliable and high-quality determination of the sub-area to be modified and/or the change in size.

In einer weiteren Ausführungsform umfassen Eingangsgrößen für die Bestimmung des zu verändernden Teilbereichs und/oder der Veränderung der Größe zumindest eine der vorhergehend erläuterten Informationen a) bis g) für die modellbasierte Aufteilung. Hierdurch ergibt sich in vorteilhafter Weise, dass die Zuverlässigkeit und die Genauigkeit der Bestimmung des zu verändernden Teilbereichs und/oder der Veränderung der Größe verbessert werden kann, was wiederum die Wahrnehmbarkeit des augmentierten Abbilds durch den Nutzer verbessert. In a further embodiment, input variables for determining the sub-area to be modified and/or the change in size include at least one of the previously described pieces of information a) to g) for the model-based partitioning. This advantageously improves the reliability and accuracy of determining the sub-area to be modified and/or the change in size, which in turn improves the user's perception of the augmented image.

Weiter vorgeschlagen wird ein medizinisches Visualisierungssystem, insbesondere umfassend oder bestehend aus einem Operationsmikroskop, welches mindestens eine Schnittstelle zum Empfang eines Bildsignals einer Bilderfassungseinrichtung zum Erzeugen eines Abbilds eines Untersuchungsbereichs und mindestens eine Auswerteeinrichtung umfasst. Das medizinische Visualisierungssystem, insbesondere die Auswerteeinrichtung, ist konfiguriert, ein Verfahren gemäß einer der in dieser Offenbarung beschriebenen Ausführungsformen durchzuführen. Wie vorhergehend erläutert kann das medizinische Visualisierungssystem insbesondere noch mindestens eine der folgenden Einrichtungen umfassen: eine Einrichtung zur Bestimmung von Informationen zur Klassifikation von abgebildeten Objekten und/oder einer Nutzeraktivität und/oder einer Operationsphase und/oder eines Operationstyps, eine Einrichtung zur Bestimmung eines Abstands eines abgebildeten Objekts von einer Oberfläche des Untersuchungsbereichs, eine Einrichtung zur Bestimmung einer teilbereichsspezifischen Unschärfe- und/oder Verschattungsinformation. A medical visualization system is further proposed, in particular comprising or consisting of an operating microscope which includes at least one The medical visualization system comprises an interface for receiving an image signal from an image acquisition device for generating an image of an examination area and at least one evaluation unit. The medical visualization system, in particular the evaluation unit, is configured to perform a method according to one of the embodiments described in this disclosure. As explained above, the medical visualization system may, in particular, further comprise at least one of the following: a device for determining information for classifying imaged objects and/or user activity and/or a surgical phase and/or a surgical type; a device for determining the distance of an imaged object from a surface of the examination area; and a device for determining area-specific blur and/or shadowing information.

Die Auswerteinrichtung kann als Recheneinrichtung ausgebildet sein oder eine solche umfassen. Eine Recheneinrichtung wiederum kann mindestens einen Mikrocontroller und/oder mindestens eine integrierte Schaltung umfassen oder als solche(r) ausgebildet sein. Die Recheneinrichtung kann insbesondere das virtuelle Bild erzeugen. Es ist möglich, dass das Auswertegerät hierzu mindestens eine Grafikverarbeitungseinheit (GPU) umfasst. Das medizinische Visualisierungssystem ermöglicht in vorteilhafter weise die Ausführung eines Verfahrens gemäß einer der in dieser Offenbarung beschriebenen Ausführungsformen mit den bereits erläuterten Vorteilen. The evaluation unit can be configured as a computing unit or include one. A computing unit, in turn, can include at least one microcontroller and/or at least one integrated circuit, or be configured as such. The computing unit can, in particular, generate the virtual image. It is possible that the evaluation unit includes at least one graphics processing unit (GPU) for this purpose. The medical visualization system advantageously enables the execution of a method according to one of the embodiments described in this disclosure, with the advantages already explained.

Weiter vorgeschlagen wird ein Computerprogrammprodukt mit einem Computerprogramm, wobei das Computerprogramm Softwaremittel zur Ausführung mehrerer oder aller Schritte, insbesondere der Schritte b. und c., des Verfahrens gemäß einer der in dieser Offenbarung beschriebenen Ausführungsformen umfasst, wenn das Computerprogramm von oder in einem Computer oder einem Automatisierungssystem ausgeführt wird. Der Computer oder das Automatisierungssystem kann die vorhergehend erläuterte Auswerteeinrichtung umfassen. Das Computerprogrammprodukt kann insbesondere Mittel zur Durchführung des Renderings, d. h. eine Rendering-Engine, umfassen. Das Computerprogrammprodukt ermöglicht in vorteilhafter Weise die Ausführung eines Verfahrens gemäß einer der in dieser Offenbarung beschriebenen Ausführungsformen mit den bereits erläuterten Vorteilen. A further proposal is a computer program product comprising a computer program, wherein the computer program includes software means for executing several or all steps, in particular steps b. and c., of the method according to one of the embodiments described in this disclosure, when the computer program is executed by or in a computer or an automation system. The computer or automation system may include the evaluation device described above. The computer program product may, in particular, include means for performing the rendering, i.e., a rendering engine. The computer program product advantageously enables the Implementation of a method according to one of the embodiments described in this disclosure, with the advantages already explained.

Die Erfindung wird anhand von Ausführungsbeispielen näher erläutert. Die Figuren zeigen: The invention is explained in more detail using exemplary embodiments. The figures show:

Fig. 1a eine exemplarische Darstellung einer Überlagerung ohne eine erfindungsgemäße Aufteilung in Vorder- und Hintergrundbereich, Fig. 1a shows an exemplary representation of a superimposition without a division into foreground and background areas according to the invention,

Fig. 1b eine weitere exemplarische Darstellung eines augmentierten Abbilds ohne eine erfindungsgemäße Aufteilung in Vorder- und Hintergrundbereich, Fig. 1b shows another exemplary representation of an augmented image without a division into foreground and background areas according to the invention,

Fig. 2 ein schematisches Flussdiagramm eines erfindungsgemäßen Verfahrens, Fig. 2 shows a schematic flowchart of a method according to the invention,

Fig. 3 eine exemplarische Darstellung eines augmentierten Abbilds, das mit dem erfindungsgemäßen Verfahren erzeugt wurde, Fig. 3 shows an exemplary representation of an augmented image produced using the method according to the invention.

Fig. 4a eine schematische Darstellung eines Untersuchungsbereichs und eines Instruments, Fig. 4a shows a schematic representation of an examination area and an instrument,

Fig. 4b eine schematische Darstellung eines Abbilds der in Fig. 4a dargestellten Szene, Fig. 4b is a schematic representation of an image of the scene depicted in Fig. 4a,

Fig. 4c eine schematische Darstellung von Informationen zum optischen Fluss, Fig. 4c is a schematic representation of information on optical flow,

Fig. 4d eine schematische Darstellung einer Bildmaske, Fig. 4d a schematic representation of an image mask,

Fig. 5a eine schematische Darstellung eines Untersuchungsbereichs und einesFig. 5a shows a schematic representation of an investigation area and a

Instruments, Instruments,

Fig. 5b eine schematische Darstellung eines Abbilds der in Fig. 5a dargestellten Szene, Fig. 5b is a schematic representation of an image of the scene depicted in Fig. 5a,

Fig. 5c eine schematische Darstellung von Tiefeninformationen, Fig. 5d eine schematische Darstellung einer Bildmaske, Fig. 5c shows a schematic representation of depth information, Fig. 5d a schematic representation of an image mask,

Fig. 6 ein schematisches Flussdiagramm eines erfindungsgemäßen Verfahrens in einer weiteren Ausführungsform, Fig. 6 shows a schematic flowchart of a method according to the invention in a further embodiment,

Fig. 7 ein schematisches Flussdiagramm eines erfindungsgemäßen Verfahrens in einer weiteren Ausführungsform, Fig. 7 shows a schematic flowchart of a method according to the invention in a further embodiment,

Fig. 8a eine schematische Darstellung einer Bildmaske, Fig. 8a shows a schematic representation of an image mask,

Fig. 8b ein auf Basis der in Fig. 8a dargestellten Bildmaske erzeugtes augmentiertes Abbild, Fig. 8b shows an augmented image generated on the basis of the image mask shown in Fig. 8a,

Fig. 9a eine schematische Bildmaske mit lokal vergrößertem Vordergrundbereich, Fig. 9a shows a schematic image mask with a locally enlarged foreground area,

Fig. 9b ein auf Basis der in Fig. 9a dargestellten Bildaske erzeugtes augmentiertes Abbild, Fig. 9b shows an augmented image generated on the basis of the image mask shown in Fig. 9a,

Fig. 10a eine schematische Darstellung einer Operationsszene, Fig. 10a a schematic representation of an operation scene,

Fig. 10b eine schematische Darstellung von zu augmentierenden Zusatzinformationen, Fig. 10b shows a schematic representation of the additional information to be augmented,

Fig. 10c eine exemplarische Bildmaske, Fig. 10c shows an exemplary image mask,

Fig. 10d ein auf Basis der in Fig. 10c dargestellten Bildmaske erzeugtes augmentiertes Abbild, Fig. 10d shows an augmented image generated on the basis of the image mask shown in Fig. 10c,

Fig. 10e eine weitere exemplarische Bildmaske, Fig. 10e shows another exemplary image mask,

Fig. 10f ein auf Basis der in Fig. 10e dargestellten Bildmaske erzeugtes augmentiertes Abbild, Fig. 10f shows an augmented image generated on the basis of the image mask shown in Fig. 10e,

Fig. 10g eine weitere exemplarische Bildmaske, Fig. 10g shows another exemplary image mask,

Fig. 10h ein auf Basis der in Fig. 10g dargestellten Bildmaske erzeugtes augmentiertes Abbild, Fig. 11 ein schematisches Blockdiagramm eines erfindungsgemäßen medizinischen Visualisierungssystems und Fig. 10h shows an augmented image generated on the basis of the image mask shown in Fig. 10g, Fig. 11 shows a schematic block diagram of a medical visualization system according to the invention and

Fig. 12 eine exemplarische Darstellung eines augmentierten Abbilds, das mit dem erfindungsgemäßen Verfahren in einer weiteren Ausführungsform erzeugt wurde. Fig. 12 shows an exemplary representation of an augmented image produced using the inventive method in a further embodiment.

Nachfolgend bezeichnen gleiche Bezugszeichen Elemente mit gleichen oder ähnlichen technischen Merkmalen. In the following, identical reference symbols denote elements with the same or similar technical characteristics.

Fig. 1a zeigt ein exemplarisches Weißlicht-Abbild eines Untersuchungsbereichs 1 mit Instrumenten 2. Dem Abbild ist ein virtuelles Objekt 3, beispielsweise ein Tumorobjekt 3, deckend überlagert. Diese Überlagerung erfolgt ohne Berücksichtigung von Bereichen im Abbild, die zur Augmentierung geeignet sind. Erkennbar ist, dass durch das Tumorobjekt 3 Teile eines Instruments 2 und des Gewebes verdeckt werden. Fig. 1a shows an exemplary white-light image of an examination area 1 with instruments 2. A virtual object 3, for example a tumor object 3, is superimposed onto the image. This superimposition is done without considering areas in the image that are suitable for augmentation. It can be seen that the tumor object 3 obscures parts of an instrument 2 and the tissue.

Fig. 1b zeigt die gleiche Szene wie Fig. 1a, wobei das Tumorobjekt 3 transparenter als in Fig. 1a, insbesondere halbtransparent, dargestellt ist. Trotz der nunmehr ermöglichten Wahrnehmbarkeit von in Fig. 1a durch das Tumorobjekt 3 verdeckten Teilbereichen des Instruments 2 ist dennoch die Wahrnehmbarkeit der vom Tumorobjekt 3 verdeckten Gewebebereiche und Instrumentenabschnitte erschwert. Ebenfalls entsteht der räumliche Eindruck, dass das Tumorobjekt 3 über dem Gewebe schwebt, was eine räumlich korrekte Wahrnehmung der Szene für einen Betrachter erschwert. Fig. 1b shows the same scene as Fig. 1a, except that the tumor object 3 is depicted as more transparent than in Fig. 1a, in particular as semi-transparent. Despite the now possible visibility of parts of the instrument 2 that were obscured by the tumor object 3 in Fig. 1a, the perception of the tissue areas and instrument sections obscured by the tumor object 3 is nevertheless impaired. Furthermore, the spatial impression arises that the tumor object 3 is hovering above the tissue, which makes a spatially accurate perception of the scene difficult for the viewer.

Fig. 2 zeigt ein schematisches Flussdiagramm eines erfindungsgemäßen Verfahrens zur Erzeugung eines augmentierten Abbilds AA durch ein medizinisches Visualisierungssystem 4 (siehe Fig. 11). In einem Empfangsschritt ES1 wird ein Bildsignal empfangen, welches von mindestens einer Bilderfassungseinrichtung 5 zur mikroskopischen Abbildung (siehe z.B. Fig. 11) erzeugt wurde und welches ein Abbild eines Untersuchungsbereichs 1 repräsentiert. Dieses Abbild A1 wird in einem Aufteilungsschritt AS in einen Vordergrundbereich V und in einen Hintergrundbereich H (siehe z.B. Fig. 4d) aufgeteilt. Beispielhafte Möglichkeiten zur Aufteilung werden nachfolgend noch erläutert. In einem weiteren Empfangsschritt ES2 wird mindestens ein Signal umfassend Zusatzinformationen ZI zur Augmentierung, welches auch als Zusatzinformationssignal bezeichnet wird, empfangen. In Fig. 2 dargestellt ist, dass das Zusatzinformationssignal in abrufbarer Weise in einer Speichereinrichtung 6 gespeichert ist, die Teil des medizinischen Visualisierungssystems 4 sein kann. Allerdings ist es auch möglich, dass die Zusatzinformationen ZI intraoperativ erfasst werden und/oder über eine geeignete Schnittstelle aus einem Netzwerk abgerufen werden. Das Zusatzinformationssignal kann insbesondere ebenfalls ein Abbild repräsentieren, vorzugsweise ein Abbild mit der gleichen Größe wie das von der Bilderfassungseinrichtung 5 erzeugte Abbild A1. Das vom Zusatzinformationssignal repräsentierte Abbild kann insbesondere ein virtuelles Abbild sein, welches aus präoperativ erzeugten Zusatzinformationen ZI erzeugt wird. Wie eingangs bereits erläutert, kann ein solches virtuelles Abbild mit einer virtuellen Bilderfassungseinrichtung erzeugt werden, welche ein optisches Modell der Bilderfassungseinrichtung 5 ist. Fig. 2 shows a schematic flowchart of a method according to the invention for generating an augmented image AA using a medical visualization system 4 (see Fig. 11). In a receive step ES1, an image signal is received which was generated by at least one image acquisition device 5 for microscopic imaging (see, for example, Fig. 11) and which represents an image of an examination area 1. This image A1 is divided in a partitioning step AS into a foreground area V and a background area H (see, for example, Fig. 4d). Exemplary partitioning possibilities are explained below. In a further reception step ES2, at least one signal comprising additional information ZI for augmentation, also referred to as the additional information signal, is received. Figure 2 shows that the additional information signal is stored in a retrievable manner in a storage device 6, which can be part of the medical visualization system 4. However, it is also possible for the additional information ZI to be acquired intraoperatively and/or retrieved from a network via a suitable interface. In particular, the additional information signal can also represent an image, preferably an image of the same size as the image A1 generated by the image acquisition device 5. The image represented by the additional information signal can, in particular, be a virtual image generated from preoperatively generated additional information ZI. As already explained at the outset, such a virtual image can be generated with a virtual image acquisition device, which is an optical model of the image acquisition device 5.

In einem Erzeugungsschritt GS wird dann das augmentierte Abbild AA erzeugt, indem die Zusatzinformationen ZI dem Abbild A1 im Hintergrundbereich H oder einem Teil davon überlagert werden. In a generation step GS, the augmented image AA is then created by overlaying the additional information ZI onto the image A1 in the background area H or a part thereof.

Im Aufteilungsschritt AS kann eine Bildmaske M erzeugt werden, die Informationen über den Vordergrundbereich V und den Hintergrundbereich H kodiert bzw. repräsentiert. Die Bildmaske M kann insbesondere als Abbild, insbesondere zweidimensionales Abbild, bereitgestellt werden, wobei eine Bildgröße der Bildmaske M einer Bildgröße des Abbilds A1 entsprechen kann. Jeder Bildpunkt der Bildmaske M kann hierbei als Vordergrundbereich V oder als Hintergrundbereich H klassifiziert sein. Die Bildmaske M kann beispielsweise ein binäres Abbild sein, wobei Vordergrundbereich-Bildpunkte mit dem Wert 1 oder 0 und Hintergrundbereich-Bildpunkte mit dem jeweils verbleibenden Wert belegt sind. In the partitioning step AS, an image mask M can be generated that encodes or represents information about the foreground region V and the background region H. The image mask M can be provided, in particular, as an image, especially a two-dimensional image, where the image size of the image mask M can correspond to the image size of the image A1. Each pixel of the image mask M can be classified as either a foreground region V or a background region H. The image mask M can, for example, be a binary image, where foreground region pixels are assigned the value 1 or 0, and background region pixels are assigned the remaining value.

In diesem Fall kann die Überlagerung der Zusatzinformationen ZI nur bei Bildpunkten des Abbilds A1 erfolgen, deren korrespondierende Bildpunkte in der Bildmaske M als Hintergrundbereich-Bildpunkte klassifiziert sind. Ein korrespondierender Bildpunkt kann die gleichen Bildpunktkoordinaten aufweisen, die sich auf gleiche Bildkoordinatensysteme beziehen können. Insbesondere kann die Überlagerung deckend oder mit einem vorbestimmten Transparenzgrad, insbesondere halbtransparent, erfolgen. Zur Überlagerung können beispielsweise ein Alpha-Blending-Verfahren genutzt werden. In diesem Fall kann jedem Hintergrundbereich-Bildpunkt der Bildmaske ein Alpha-Wert zwischen 0 (einschließlich) und 1 (einschließlich) zugeordnet werden, wobei der Wert 0 oder 1 beispielsweise völlige Transparenz und der Wert von 1 oder 0 völlige Lichtundurchlässigkeit repräsentiert. Ist einem Hintergrundbereich-Bildpunkt in der Bildmaske M ein Alpha-Wert, der völlige Lichtundurchlässigkeit repräsentiert, zugeordnet, so kann der korrespondierende Bildpunkt im Abbild A1 völlig, also deckend, durch Zusatzinformationen überlagert werden. Ist einem Hintergrundbereich-Bildpunkt der Bildmaske M ein Alpha-Wert, der weder die völlige Transparenz noch die völlige Lichtundurchlässigkeit repräsentiert, zugeordnet, so wird der korrespondierende Bildpunkt im Abbild A1 nicht vollständig deckend durch Zusatzinformationen überlagert. Ist einem Hintergrundbereich-Bildpunkt in der Bildmaske M ein Alpha-Wert, der völlige Transparenz repräsentiert, zugeordnet, so kann der korrespondierende Bildpunkt im Abbild A1 nicht durch Zusatzinformationen überlagert werden. In this case, the overlay of the additional information ZI can only occur for pixels of image A1 whose corresponding pixels are classified as background area pixels in the image mask M. A corresponding pixel can have the same pixel coordinates, which can refer to the same image coordinate systems. In particular, the overlay can be opaque or with a predetermined degree of transparency, especially semi-transparent. For example, an alpha blending method can be used for overlay. In this case, each background pixel of the image mask can be assigned an alpha value between 0 (inclusive) and 1 (inclusive), where the value 0 or 1 represents, for example, complete transparency and the value 1 or 0 represents complete opacity. If a background pixel in the image mask M is assigned an alpha value representing complete opacity, the corresponding pixel in the image A1 can be completely overlaid by additional information. If a background pixel in the image mask M is assigned an alpha value that represents neither complete transparency nor complete opacity, the corresponding pixel in the image A1 will not be completely overlaid by additional information. If an alpha value representing complete transparency is assigned to a background area pixel in the image mask M, the corresponding pixel in the image A1 cannot be overlaid with additional information.

Es ist auch vorstellbar, dass zumindest einem, vorzugsweise jedoch mehreren, Vordergrundbereich-Bildpunkt(en) der Bildmaske ein Alpha-Wert zugeordnet wird, der nicht die völlige Transparenz repräsentiert, wobei ein minimaler Transparenzgrad aller Vordergrundbereich-Bildpunkte größer ist als ein maximaler Transparenzgrad aller Hintergrundbereich-Bildpunkte. Somit kann ein augmentiertes Abbild erzeugt werden in dem eine Überlagerung in einem Vordergrundbereich im Vergleich transparenter dargestellt wird als eine Überlagerung in einem Hintergrundbereich. Auf diese Weise kann ein Betrachter auch im Bereich des Vordergrunds Zusatzinformationen wahrnehmen; die die Wahrnehmung des Vordergrundbereichs aufgrund der höheren Transparenz aber weniger stören. It is also conceivable that at least one, but preferably several, foreground pixel(s) of the image mask are assigned an alpha value that does not represent complete transparency, where the minimum transparency level of all foreground pixels is greater than the maximum transparency level of all background pixels. Thus, an augmented image can be created in which an overlay in a foreground area is displayed more transparently than an overlay in a background area. In this way, a viewer can also perceive additional information in the foreground area; however, this information is less distracting due to the higher transparency.

Es ist möglich, allen Hintergrundbereich-Bildpunkten Alpha-Werte zwischen dem Maß für vollständige Transparenz (ausschließlich) und dem Maß für vollständige Lichtundurchlässigkeit (einschließlich) zuzuordnen, wobei den Vordergrundbereich- Bildpunkten ein Alpha-Wert mit dem Maß der vollständigen T ransparenz zugeordnet wird. It is possible to assign alpha values between the measure of complete transparency (exclusive) and the measure of complete opacity (inclusive) to all background area pixels, while foreground area pixels are assigned an alpha value with the measure of complete transparency.

Das augmentierte Abbild AA kann dann an eine Anzeigeeinrichtung 20 (siehe Fig. 11) übertragen werden, insbesondere als Bildsignal, um es für einen Betrachter in visuell erfassbarer Weise darzustellen. Fig. 3 zeigt ein exemplarisches augmentiertes Abbild AA, das mit dem in Fig. 2 dargestellten Verfahren erzeugt wurde. Bei der in Fig. 3 dargestellten Szene repräsentieren die Zusatzinformationen ZI das Tumorobjekt 3. Erkennbar ist, dass das Tumorobjekt 3 im Unterschied zu den in Fig. 1a und Fig. 1b dargestellten Abbildern die Instrumente 2 nicht verdeckt. Hierbei sind also die Instrumente 2 in dem Vordergrundbereich V des Abbilds A1 abgebildet, während Gewebebereiche des Untersuchungsbereichs 1 in dem Hintergrundbereich H abgebildet sind. Das in Fig. 3 dargestellte augmentierte Abbild AA ermöglicht einem Betrachter eine verbesserte Wahrnehmung der Szene und bietet somit eine höhere Darstellungsqualität. The augmented image AA can then be transmitted to a display device 20 (see Fig. 11), in particular as an image signal, to present it to a viewer in a visually perceptible manner. Fig. 3 shows an exemplary augmented image AA, generated using the method described in Fig. 2. In the scene shown in Fig. 3, the additional information ZI represents the tumor object 3. It can be seen that, unlike the images shown in Fig. 1a and Fig. 1b, the tumor object 3 does not obscure the instruments 2. Thus, the instruments 2 are depicted in the foreground area V of image A1, while tissue areas of the examination area 1 are depicted in the background area H. The augmented image AA shown in Fig. 3 allows the viewer an improved perception of the scene and therefore offers a higher image quality.

Fig. 4a zeigt eine exemplarische Darstellung eines Instruments 2 und eines Untersuchungsbereichs 1 , insbesondere einer Situs-Oberfläche. Ebenfalls dargestellt ist eine Bilderfassungseinrichtung 5 eines Operationsmikroskops. Fig. 4a shows an exemplary representation of an instrument 2 and an examination area 1, in particular a surgical surface. Also shown is an image acquisition device 5 of an operating microscope.

Fig. 4b zeigt ein von der Bilderfassungseinrichtung 5 erzeugtes Abbild A1. Darin abgebildet sind das Instrument 2 und der Untersuchungsbereich 1 , wobei das Instrument 2 Teile des Untersuchungsbereichs 1 verdeckt. Fig. 4b shows an image A1 generated by the image acquisition device 5. The instrument 2 and the examination area 1 are depicted therein, with the instrument 2 obscuring parts of the examination area 1.

Fig. 4c zeigt exemplarisch und durch Pfeile angedeutete Informationen zum optischen Fluss im Abbild A1. Diese Informationen zum optischen Fluss können erzeugt werden, indem zumindest zwei Bildsignale empfangen werden, die zeitlich nacheinander von der Bilderfassungseinrichtung 5 erzeugt wurden und jeweils ein Abbild A1 des Untersuchungsbereichs 1 repräsentieren. Verfahren zur Bestimmung dieser Informationen aus der Sequenz dieser Abbilder A1 sind dem Fachmann bekannt. Durch Pfeile angedeutet ist, dass einem Teilbereich des Abbilds A1 , in den das Instrument 2 abgebildet ist, eine den optischen Fluss repräsentierende Größe zugeordnet ist, die größer als ein vorbestimmter Schwellwert sind. Die Bildpunkte dieses Abschnitts können dann als Vordergrundbereich V klassifiziert werden, also als Vordergrundbereich- Bildpunkte, während die verbleibenden Bildpunkte des Abbilds A1 als Hintergrundbereich H, also als Hintergrundbereich-Bildpunkte, klassifiziert werden. Die resultierende aus Vordergrundbereich-Bildpunkten und Hintergrundbereich-Bildpunkten bestehende Bildmaske M ist in Fig. 4d dargestellt. Fig. 5a zeigt eine exemplarische Darstellung eines Instruments 2 und eines Untersuchungsbereichs 1 , insbesondere einer Situs-Oberfläche. Ebenfalls dargestellt ist eine Bilderfassungseinrichtung 5 eines Operationsmikroskops. Fig. 4c shows, by way of example and indicated by arrows, information on the optical flow in the image A1. This information on the optical flow can be generated by receiving at least two image signals, which were generated sequentially by the image acquisition device 5 and each represent an image A1 of the examination area 1. Methods for determining this information from the sequence of these images A1 are known to those skilled in the art. As indicated by arrows, a quantity representing the optical flow, which is greater than a predetermined threshold, is assigned to a sub-region of the image A1, into which the instrument 2 is imaged. The pixels of this sub-region can then be classified as the foreground region V, i.e., as foreground pixels, while the remaining pixels of the image A1 are classified as the background region H, i.e., as background pixels. The resulting image mask M, consisting of foreground pixels and background pixels, is shown in Fig. 4d. Fig. 5a shows an exemplary representation of an instrument 2 and an examination area 1, in particular a surgical surface. Also shown is an image acquisition device 5 of an operating microscope.

Fig. 5b zeigt ein von der Bilderfassungseinrichtung 5 erzeugtes Abbild A1. Darin abgebildet sind das Instrument 2 und der Untersuchungsbereich 1 , wobei das Instrument 2 Teile des Untersuchungsbereichs 1 verdeckt. Fig. 5b shows an image A1 generated by the image acquisition device 5. The instrument 2 and the examination area 1 are depicted therein, with the instrument 2 obscuring parts of the examination area 1.

Fig. 5c zeigt exemplarisch Tiefeninformationen im Abbild A1. Diese Informationen können z.B. mit einem Abstandssensor erzeugt werden, der einen Abstand des Instruments und des nicht verdeckten Teils des Untersuchungsbereichs z.B. von einer Referenzebene, die senkrecht zu einer optischen Achse des Operationsmikroskops orientiert ist und in der ein Schnittpunkt der optischen Achse mit einem Abschlussglas des Operationsmikroskops angeordnet ist, entlang einer optischen Achse des Operationsmikroskops, erfasst. Fig. 5c shows an example of depth information in image A1. This information can be generated, for example, with a distance sensor that detects the distance of the instrument and the uncovered part of the examination area from, for example, a reference plane oriented perpendicular to an optical axis of the operating microscope and in which an intersection of the optical axis with an end glass of the operating microscope is located, along an optical axis of the operating microscope.

Erkennbar ist, dass einem Teilbereich des Abbilds A1, in dem das Instrument 2 abgebildet ist, Abstandsinformationen zugeordnet sind, die einen Abstand repräsentieren, der geringer ist als der Abstand, der dem Teilbereich des Abbilds A1 zugeordnet ist, der den nicht verdeckten Teil des Untersuchungsbereichs abbildet. Insbesondere ist dieser geringere Abstand kleiner als ein vorbestimmter Abstand. It is evident that distance information is assigned to a sub-area of image A1, in which instrument 2 is depicted, representing a distance that is smaller than the distance assigned to the sub-area of image A1 that depicts the unobstructed part of the examination area. In particular, this smaller distance is smaller than a predetermined distance.

Die Bildpunkte dieses Instrumenten-Teilbereichs können dann als Vordergrundbereich V klassifiziert werden, also als Vordergrundbereich-Bildpunkte, während die verbleibenden Bildpunkte des Abbilds A1 als Hintergrundbereich H, also als Hintergrundbereich- Bildpunkte, klassifiziert werden. Die resultierende aus Vordergrundbereich-Bildpunkten und Hintergrundbereich-Bildpunkten bestehende Bildmaske M ist in Fig. 5d dargestellt. The pixels of this instrument sub-area can then be classified as foreground area V, i.e., as foreground area pixels, while the remaining pixels of image A1 are classified as background area H, i.e., as background area pixels. The resulting image mask M, consisting of foreground area pixels and background area pixels, is shown in Fig. 5d.

Fig. 6 zeigt ein schematisches Flussdiagramm eines erfindungsgemäßen Verfahrens in einer weiteren Ausführungsform. Im Unterschied zu der in Fig. 2 dargestellten Ausführungsform werden für den Aufteilungsschritt AS neben den zur visuell erfassbaren Darstellung des Abbilds A1 notwendigen Informationen, insbesondere Farbinformationen, weitere Informationen I berücksichtigt. Solche weiteren Informationen I können insbesondere semantische Zusatzinformationen oder Kontextinformationen sein. Fig. 6 shows a schematic flowchart of a further embodiment of a method according to the invention. In contrast to the embodiment shown in Fig. 2, for the division step AS, in addition to the information necessary for the visually perceptible representation of the image A1, in particular color information, further information I is taken into account. Such further information I can be, in particular, additional semantic information or contextual information.

Insbesondere können solche semantischen Informationen oder Kontextinformationen die in Bezug auf Fig. 5c erläuterten Tiefeninformationen für das Abbild A1 sein. Ist die Bilderfassungseinrichtung 5, mit der das Abbild A1 erzeugt wurde, Teil eines Stereosystems, so können die Informationen I auch Informationen über ein zu dem Abbild A1 korrespondierendes Abbild repräsentieren, welches von einerweiteren Bilderfassungseinrichtung 5b (siehe Fig. 11) erzeugt wurde. Auch können die Informationen I zumindest ein zeitlich vor dem Abbild A1 erzeugtes Abbild des Untersuchungsbereichs 1 repräsentieren. In particular, such semantic or contextual information can be the depth information for image A1 explained in relation to Fig. 5c. If the image acquisition device 5 with which image A1 was generated is part of a stereo system, the information I can also include information about a device related to the image. A1 represents a corresponding image generated by another image acquisition device 5b (see Fig. 11). Alternatively, the information I can represent at least one image of the investigation area 1 generated prior to image A1.

Vorzugsweise umfassen die Informationen I auch Informationen über eine Klassifikation von Objekten, die im Abbild A1 abgebildet sind. Hierzu kann eine Objekterkennung durchgeführt werden, wobei dann erkannte Objekte mit einem Klassifikationsverfahren klassifiziert werden. Durch diese Klassifikation wird aber keine Klassifikation im Vorder- und Hintergrundbereich V, H bereitgestellt, insbesondere existiert für zumindest eine Objektklasse der Menge aller Objektklassen keine eindeutige Zuordnung zu Vordergrundbereich V oder Hintergrundbereich H. So können z.B. Objekte der Klasse „Tücher“ oder „Tupfer“ dem Hintergrundbereich zugewiesen werden, insbesondere wenn diese statisch, z.B. ortsfest relativ zum Situs bzw. auf dem Gewebe des Situs liegend, angeordnet sind. Solche Objekte der Klasse „Tücher“ oder „Tupfer“ können aber auch dem Vordergrundbereich zugewiesen werden, insbesondere wenn diese nicht statisch angeordnet sind, insbesondere weil sie von einem Instrument gehalten oder sogar bewegt werden. Auch ein Objekt oder Bereich der Klasse „Gewebe“ kann dem Hintergrundbereich zugewiesen werden, insbesondere wenn sich in diesem Gewebebereich oder in einem vorbestimmten Bereich um diesen Gewebebereich herum kein Objekt oder Bereich der Klasse „Instrument“ befindet. Alternativ kann ein Objekt oder Bereich der Klasse „Gewebe“ aber auch dem Vordergrundbereich zugewiesen werden, insbesondere wenn sich in diesem Gewebebereich oder in einem vorbestimmten Bereich um diesen Gewebebereich herum ein Objekt oder Bereich der Klasse „Instrument“ befindet. Im letzteren Fall kann vermieden werden, dass eine Augmentierung einen Betrachter beim Betrachten von Bereichen stören würde, mit denen ein Instrument aktuell interagiert. Preferably, the information I also includes information about a classification of objects depicted in image A1. Object recognition can be performed for this purpose, whereby the recognized objects are then classified using a classification procedure. However, this classification does not provide a classification in the foreground and background areas V and H; in particular, for at least one object class from the set of all object classes, there is no unambiguous assignment to the foreground area V or background area H. For example, objects of the class "cloths" or "swabs" can be assigned to the background area, especially if they are statically arranged, e.g., fixed in position relative to the surgical site or lying on the tissue of the surgical site. However, such objects of the class "cloths" or "swabs" can also be assigned to the foreground area, especially if they are not statically arranged, particularly because they are held or even moved by an instrument. An object or area of the class "Fabric" can also be assigned to the background area, particularly if there is no object or area of the class "Instrument" in that fabric area or in a predetermined area around it. Alternatively, an object or area of the class "Fabric" can also be assigned to the foreground area, particularly if there is an object or area of the class "Instrument" in that fabric area or in a predetermined area around it. In the latter case, it can be avoided that an augmentation would disturb a viewer when viewing areas with which an instrument is currently interacting.

Ebenfalls können die Informationen I Informationen über eine Klassifikation einer Nutzeraktivität, einer Operationsphase oder eines Operationstyps sein. Diese wurden vorhergehend bereits erläutert. The information can also include information about the classification of a user activity, an operation phase, or an operation type. These have already been explained previously.

Es ist möglich, dass der Aufteilungsschritt AS mit einem Modell bzw. durch Auswertung eines Modells durchgeführt wird, welches durch maschinelles Lernen erzeugt wurde, insbesondere durch Auswertung eines neuronalen Netzes. Eine Eingangsgröße des Modells kann das zumindest eine Abbild A1 des Untersuchungsbereichs 1 sein. Eine weitere Eingangsgröße können die erläuterten Informationen I sein. Eine Ausgangsgröße des Modells kann die vorhergehend erläuterte Bildmaske M sein. It is possible that the partitioning step AS is performed with or by evaluating a model generated by machine learning, in particular by evaluating a neural network. An input variable of the The model can be at least one image A1 of the investigation area 1. Another input variable can be the information I explained above. An output variable of the model can be the image mask M explained previously.

Fig. 7 zeigt ein schematisches Flussdiagramm eines erfindungsgemäßen Verfahrens in einer weiteren Ausführungsform. Im Unterschied zu der in Fig. 6 dargestellten Ausführungsform wird nach dem Aufteilungsschritt zur Erzeugung der Bildmaske M ein Veränderungsschritt VS ausgeführt. In dem Veränderungsschritt wird eine Größe des Vordergrundbereichs V zumindest in Bezug auf einen Teilbereich des Vordergrundbereichs V verändert. Als Ergebnis des Veränderungsschritts VS wird eine modifizierte Bildmaske MV bereitgestellt. Diese entspricht der Bildmaske M, umfasst jedoch im Vergleich zur Bildmaske M mehr oder weniger Vordergrundbereich-Bildpunkte und somit auch entsprechend weniger oder mehr Hintergrundbereich-Bildpunkte. Durch Strichlinien gekennzeichnet ist, dass optional der Aufteilungsschritt AS und/oder der Veränderungsschritt VS in Abhängigkeit der vorhergehend erläuterten weiteren Informationen I durchgeführt werden können. Fig. 7 shows a schematic flowchart of a further embodiment of a method according to the invention. In contrast to the embodiment shown in Fig. 6, a modification step VS is performed after the partitioning step for generating the image mask M. In the modification step, a size of the foreground area V is changed, at least with respect to a sub-area of the foreground area V. As a result of the modification step VS, a modified image mask MV is provided. This corresponds to the image mask M, but includes more or fewer foreground pixels and thus correspondingly fewer or more background pixels compared to the image mask M. The dashed lines indicate that the partitioning step AS and/or the modification step VS can optionally be performed depending on the additional information I explained above.

Fig. 8a zeigt eine schematische Bildmaske M mit drei Vordergrundbereich-Elementen, die z.B. zu Bildabschnitten des Abbilds A1 korrespondieren, in welche Instrumente 2 (siehe Fig. 3) abgebildet sind. Fig. 8a shows a schematic image mask M with three foreground elements, which correspond, for example, to image sections of the image A1, into which instruments 2 (see Fig. 3) are depicted.

Fig. 8b stellt das augmentierte Abbild AA dar, welches auf Basis dieser Bildmaske M erzeugt wird. Erkennbar ist, dass ein augmentiertes Tumorobjekt 3 die abgebildeten Instrumente 2 nicht überdeckt. Fig. 8b shows the augmented image AA, which is generated based on this image mask M. It can be seen that an augmented tumor object 3 does not cover the depicted instruments 2.

Fig. 9a zeigt eine exemplarische modifizierte oder veränderte Bildmaske MV. Im Unterschied zu der in Fig. 8a dargestellten Bildmaske M ist ersichtlich, dass der Vordergrundbereich V im Bereich einer Spitze bzw. eines freien Endes der Instrumente 2 vergrößert wurde. Insbesondere ist die Vergrößerung des Vordergrundbereichs V erfolgt, indem um einen Referenzpunkt des Teilbereichs, in diesem Fall z.B. um einen geometrischen Mittelpunkt eines als Instrumentenspitze klassifizierten Bildmaskenabschnitts, eine Kreisfläche mit einem vorbestimmten Durchmesser definiert wird und alle Bildpunkte der veränderten Bildmaske MV in dieser Kreisfläche als Vordergrundbereich-Bildpunkte klassifiziert werden. Fig. 9b zeigt das auf Basis der veränderten Bildmaske MV erzeugte augmentierte Abbild. Im Unterschied zu dem in Fig. 8b dargestellten augmentierten Abbild AA ist erkennbar, dass ein Teil des Gewebes um die Instrumentenspitzen herum nicht durch das Tumorobjekt 3 augmentiert ist. Hierdurch wird einem Betrachter die Möglichkeit gegeben, das von den Instrumenten betätigte Gewebe ohne Augmentierung wahrzunehmen. Fig. 9a shows an exemplary modified or altered image mask MV. In contrast to the image mask M shown in Fig. 8a, it is evident that the foreground area V has been enlarged in the region of a tip or free end of the instruments 2. In particular, the enlargement of the foreground area V was achieved by defining a circular area with a predetermined diameter around a reference point of the sub-area, in this case, for example, around the geometric center of an image mask section classified as an instrument tip, and classifying all image points of the modified image mask MV within this circular area as foreground image points. Fig. 9b shows the augmented image generated based on the modified image mask MV. In contrast to the augmented image AA shown in Fig. 8b, it is evident that a portion of the tissue around the instrument tips is not augmented by the tumor object 3. This allows the viewer to perceive the tissue actuated by the instruments without augmentation.

Fig. 10a zeigt ein exemplarisches Abbild A1 , welches von einer Bilderfassungseinrichtung 5 eines medizinischen Visualisierungssystems 4 (siehe Fig. 11) erzeugt wurde. Fig. 10a shows an exemplary image A1, which was generated by an image acquisition device 5 of a medical visualization system 4 (see Fig. 11).

Fig. 10b zeigt eine exemplarische Darstellung eines Tumorobjekts 3, welches von einem Zusatzinformationssignal repräsentiert wird. Fig. 10b shows an exemplary representation of a tumor object 3, which is represented by an additional information signal.

Fig. 10c zeigt eine exemplarische Bildmaske M mit Vordergrundbereich V und Hintergrundbereich H, welche ohne den in Fig. 7 dargestellten Veränderungsschritt VS erzeugt wurde. Fig. 10c shows an exemplary image mask M with foreground area V and background area H, which was created without the modification step VS shown in Fig. 7.

Fig. 10d zeigt das auf Basis dieser Bildmaske M erzeugte augmentierte Abbild AA. Fig. 10d shows the augmented image AA generated on the basis of this image mask M.

Fig. 10e zeigt eine im Vergleich mit der in Fig. 10c dargestellten Bildmaske M veränderte Bildmaske MV mit einem in der Größe veränderten Vordergrund und Hintergrundbereich V, H. In dem entsprechenden Veränderungsschritt VS (siehe Fig. 7) wurden verschattete Bildabschnitte vB des Abbilds A1 detektiert, wobei der Vordergrundbereich V der in Fig. 10c dargestellten Bildmaske M um Bildbereiche verringert wurde, die verschattet sind. Solche verschatteten Bildbereiche vB können beispielsweise mit Schattenklassifikationsverfahren bestimmt werden. Ein beispielhaftes Klassifikationsverfahren vergleicht Farbwerte von Bildpunkten des Abbilds A1 mit vorbestimmten Schwellwerten und klassifiziert in Abhängigkeit des Vergleichsergebnisses einen Bildpunkt als verschatteten Bildpunkt. Fig. 10e shows an image mask MV modified compared to the image mask M shown in Fig. 10c, with a modified foreground and background area V, H. In the corresponding modification step VS (see Fig. 7), shadowed image areas vB of image A1 were detected, whereby the foreground area V of the image mask M shown in Fig. 10c was reduced by the image areas that are shadowed. Such shadowed image areas vB can be determined, for example, using shadow classification methods. One exemplary classification method compares the color values of pixels in image A1 with predetermined threshold values and classifies a pixel as a shadowed pixel depending on the comparison result.

Fig. 10f zeigt ein augmentiertes Abbild AA, welches auf Basis der in Fig. 10e dargestellten veränderten Bildmaske erzeugt wurde. Ersichtlich ist, dass dem Abbild A1 auch im verschatteten Bildbereich vB Zusatzinformationen ZI überlagert werden können. Fig. 10f shows an augmented image AA, which was generated based on the modified image mask shown in Fig. 10e. It is evident that additional information ZI can also be superimposed on image A1 in the shaded image area vB.

Fig. 10g zeigt eine im Vergleich mit der in Fig. 10c dargestellten Bildmaske M veränderte Bildmaske MV mit einem in der Größe veränderten Vordergrund und Hintergrundbereich V, H. In dem entsprechenden Veränderungsschritt VS (siehe Fig. 7) wurden zusätzlich zu den verschatteten Bildbereichen vB unscharfe Bildabschnitte uB des Abbilds A1 detektiert, wobei der Vordergrundbereich V der in Fig. 10c dargestellten Bildmaske M um Bildbereiche verringert wurde, die unscharf sind. Solche unscharfen Bildbereiche uB können beispielsweise mit Unschärfeklassifikationsverfahren bestimmt werden. Ein beispielhaftes Klassifikationsverfahren zur Detektion von unscharfen Bereichen kann die Anwendung von Laplace-Operatoren, insbesondere die Anwendung von Laplace- Pyramiden, und Schwellwertoperatoren umfassen. Fig. 10g shows an image mask MV that has been modified in comparison to the image mask M shown in Fig. 10c, with a changed foreground and background area in terms of size. In the corresponding modification step VS (see Fig. 7), in addition to the shadowed image areas vB, blurred image sections uB of image A1 were detected, whereby the foreground area V of the image mask M shown in Fig. 10c was reduced by image areas that are blurred. Such blurred image areas uB can be determined, for example, using blur classification methods. An exemplary classification method for detecting blurred areas can include the application of Laplacian operators, in particular the application of Laplacian pyramids, and threshold operators.

Fig. 10h zeigt ein augmentiertes Abbild AA, welches auf Basis der in Fig. 10g dargestellten veränderten Bildmaske erzeugt wurde. Ersichtlich ist, dass dem Abbild A1 auch im unscharfen Bildbereich uB Zusatzinformationen ZI überlagert werden können. Fig. 10h shows an augmented image AA, which was generated based on the modified image mask shown in Fig. 10g. It is evident that additional information ZI can also be superimposed on image A1 in the out-of-focus image area uB.

Fig. 11 zeigt ein schematisches Blockschaltbild eines medizinischen Visualisierungssystems 4 sowie einen Untersuchungsbereich 1. Ebenfalls dargestellt sind ein Instrument 2 und ein Tumorobjekt 3, welche in einem Erfassungsbereich eines Operationsmikroskops 10 des medizinischen Visualisierungssystems 4 angeordnet sind. Das Tumorobjekt 3 kann ein verdecktes Objekt sein. Fig. 11 shows a schematic block diagram of a medical visualization system 4 and an examination area 1. Also shown are an instrument 2 and a tumor object 3, which are arranged within the detection range of an operating microscope 10 of the medical visualization system 4. The tumor object 3 can be a hidden object.

Optionale Elemente des medizinischen Visualisierungssystems 4 sind hierbei gestrichelt dargestellt. Das medizinische Visualisierungssystem 4 umfasst mindestens eine Bilderfassungseinrichtung 5 zur mikroskopischen Abbildung des Untersuchungsbereichs 1. Die Bilderfassungseinrichtung 5 kann Teil des Operationsmikroskops 10 sein, welches ein Objektiv 19 mit einem Abschlussglas umfassen kann. Dieses Operationsmikroskop 10 wiederum kann als Stereo-Operationsmikroskop ausgebildet sein, wobei dieses eine weitere Bilderfassungseinrichtung 5b zur mikroskopischen Abbildung des Untersuchungsbereichs 1 umfasst und die Bilderfassungseinrichtungen 5, 5b ein Stereosystem bilden. Ebenfalls dargestellt ist eine Speichereinrichtung 6, in der Zusatzinformationen ZI gespeichert sein können. Das medizinische Visualisierungssystem 4 umfasst weiter eine Auswerteeinrichtung 7, die ein von der Bilderfassungseinrichtung 5 erzeugtes Abbild A1 empfangen und auswerten kann, wobei das Abbild A1 als Bildsignal über eine Schnittstelle 21 an die Auswerteeinrichtung 7 übertragen werden kann. Mit der Auswerteeinrichtung 7 kann insbesondere der Aufteilungsschritt AS und der Erzeugungsschritt GS durchgeführt werden. Weiter dargestellt ist, dass das medizinische Visualisierungssystem 4 eine Einrichtung 8 zur Bestimmung von Tiefeninformationen umfassen kann. Diese kann z.B. als Abstandssensor ausgebildet sein oder einen solchen umfassen. Ebenfalls dargestellt ist eine Schnittstelle 9 des medizinischen Visualisierungssystems 4 zur Datenübertragung mit weiteren, insbesondere übergeordneten, Systemen. Optional elements of the medical visualization system 4 are shown here with dashed lines. The medical visualization system 4 comprises at least one image acquisition device 5 for microscopic imaging of the examination area 1. The image acquisition device 5 can be part of the operating microscope 10, which can include an objective 19 with a lens. This operating microscope 10, in turn, can be configured as a stereo operating microscope, comprising a further image acquisition device 5b for microscopic imaging of the examination area 1, and the image acquisition devices 5 and 5b forming a stereo system. A storage device 6, in which additional information ZI can be stored, is also shown. The medical visualization system 4 further comprises an evaluation device 7, which can receive and evaluate an image A1 generated by the image acquisition device 5, wherein the image A1 can be transmitted as an image signal via an interface 21 to the evaluation device 7. The evaluation device 7 can, in particular, perform the division step AS and the generation step GS. The figure further shows that the medical visualization system 4 can include a device 8 for determining depth information. This device can, for example, be designed as a distance sensor or include one. Also shown is an interface 9 of the medical visualization system 4 for data transmission with other, especially higher-level, systems.

Weiter kann das medizinische Visualisierungssystem 4 umfassen: Furthermore, the medical visualization system can include 4:

• mindestens eine Weißlicht-Beleuchtungseinrichtung 11 , • at least one white light lighting device 11 ,

• mindestens eine Infrarot-Beleuchtungseinrichtung 12, • at least one infrared lighting device 12,

• mindestens eine Fluoreszenz-Beleuchtungseinrichtung 13 zur Anregung von Fluoreszenzstrahlung, • at least one fluorescence illumination device 13 for excitation of fluorescence radiation,

• mindestens eine Fluoreszenzerfassungseinrichtung 14 zum Erfassen von Fluoreszenzstrahlung, • at least one fluorescence detection device 14 for detecting fluorescence radiation,

• mindestens eine Umfeldkamera 15, • at least one surround-view camera 15,

• mindestens eine Einrichtung 16 zur Blickrichtungserkennung eines Betrachters,• at least one device 16 for detecting the gaze direction of a viewer,

• mindestens ein Trackingsystem 17, • at least one tracking system 17,

• mindestens eine Eingabeeinrichtung 18 zur Bedienung bzw. Steuerung des medizinischen Visualisierungssystems, • at least one input device 18 for operating or controlling the medical visualization system,

• mindestens eine Anzeigeeinrichtung 20. • at least one display device 20.

Die Elemente des medizinischen Visualisierungssystems 4 können hierbei daten- und/oder signaltechnisch verbunden sein. The elements of the medical visualization system 4 can be connected via data and/or signal technology.

Nicht dargestellt sind Strahlfilter zur Bereitstellung von Anregungsstrahlung mit Wellenlängen aus einem breiteren Spektrum, z.B. dem Spektrum der Weißlicht- Beleuchtungseinrichtung oder zum Filtern von Strahlung aus einem breiteren Spektrum. Not shown are beam filters for providing excitation radiation with wavelengths from a broader spectrum, e.g. the spectrum of the white light illumination device, or for filtering radiation from a broader spectrum.

Die Umfeldkamera 15 kann Bestandteil eines weiteren Trackingsystems sein, welches insbesondere zur optischen Bestimmung einer Pose von Instrumenten im Erfassungsbereich der Umfeldkamera 15 dient. Die Bestimmung der Pose kann eine monoskopische Bestimmung sein. Insbesondere kann die Bestimmung auch eine markerbasierte Bestimmung sein. Abbilder der Umfeldkamera 15 können insbesondere zur Objekterkennung ausgewertet werden, um einen Teilbereich zu identifizieren in Bezug auf welchen dann die Größe des Vordergrundbereichs V und/oder Hintergrundbereichs H verändert wird. Fig. 12 zeigt ein exemplarisches augmentiertes Abbild AA, das im Wesentlichen wie das in Fig. 3 dargestellte augmentierte Abbild AA erzeugt wurde. Im Unterschied zu dem in Fig. 3 dargestellten augmentierten Abbild AA erfolgt jedoch die Überlagerung des Abbilds A1 mit dem Tumorobjekt 3 sowohl im Vordergrundbereich V als auch im Hintergrundbereich H (siehe Fig. 4d), wobei die Überlagerung des Hintergrundbereichs H mit dem Tumorobjekt 3 gemäß einer ersten Überlagerungsmodalität, die durch eine Linienschraffur repräsentiert ist, und die Überlagerung des Vordergrundbereichs V mit dem Tumorobjekt 3 gemäß einer weiteren Überlagerungsmodalität, die durch eine gepunktete Schraffur repräsentiert ist, erfolgt. Die Überlagerungsmodalitäten sind hierbei voneinander verschieden. The environmental camera 15 can be part of a further tracking system, which serves in particular for the optical determination of the pose of instruments within the detection range of the environmental camera 15. The pose determination can be monoscopic. In particular, the determination can also be marker-based. Images from the environmental camera 15 can be evaluated, in particular, for object recognition in order to identify a sub-area with respect to which the size of the foreground area V and/or background area H is then changed. Fig. 12 shows an exemplary augmented image AA, which was generated essentially like the augmented image AA shown in Fig. 3. However, unlike the augmented image AA shown in Fig. 3, the superimposition of image A1 with the tumor object 3 occurs in both the foreground region V and the background region H (see Fig. 4d). The superimposition of the background region H with the tumor object 3 occurs according to a first superimposition modality, represented by line hatching, and the superimposition of the foreground region V with the tumor object 3 occurs according to a further superimposition modality, represented by dotted hatching. The superimposition modalities are thus different from each other.

Erkennbar ist, dass das Tumorobjekt 3 im Unterschied insbesondere zu dem in Fig. 3 dargestellten Abbild die Instrumente 2, die in dem Vordergrundbereich V abgebildet sind, anders überlagert als Gewebebereiche, die in dem Hintergrundbereich H abgebildet sind. It can be seen that, in contrast to the image shown in Fig. 3, the tumor object 3 overlays the instruments 2, which are shown in the foreground area V, differently than tissue areas which are shown in the background area H.

Bezugszeichenliste Reference symbol list

1 Untersuchungsbereich 1 examination area

2 Instrument 2 Instrument

3 Tumorobjekt 3 Tumor object

4 medizinisches Visualisierungssystem 4 medical visualization system

5 Bilderfassungseinrichtung eines Operationsmikroskops5 Image acquisition device of an operating microscope

5b weitere Bilderfassungseinrichtung des Operationsmikroskops5b further image acquisition device of the operating microscope

6 Speichereinrichtung 6 Storage setup

7 Auswerteeinrichtung 7 Evaluation unit

8 Einrichtung zur Bestimmung von Tiefeninformationen8 Device for determining depth information

9 Schnittstelle 9 Interface

10 Operationsmikroskop 10 Operating microscope

11 Weißlicht-Beleuchtungseinrichtung 11 White light lighting device

12 Infrarot-Beleuchtungseinrichtung 12 Infrared lighting device

13 Fluoreszenz-Beleuchtungseinrichtung 13 Fluorescence lighting device

14 Fluoreszenzerfassungseinrichtung 14 Fluorescence detection device

15 Umfeldkamera 15 Surround camera

16 Einrichtung zur Blickrichtungserkennung 16 Device for gaze direction detection

17 Trackingsystem 17 Tracking system

18 Eingabeeinrichtung 18 Input device

19 Objektiv 19 Lens

20 Anzeigeeinrichtung 20 Display device

21 Schnittstelle 21 Interface

A1 Abbild A1 image

M Bildmaske M Image mask

MV veränderte Bildmaske MV modified image mask

I Information I Information

ZI Zusatzinformationen ZI Additional Information

V Vordergrundbereich V Foreground area

H Hintergrundbereich H Background area

AA augmentiertes Abbild AA augmented image

ES1 Empfangsschritt ES1 receive step

AS Aufteilungsschritt AS division step

ES2 Empfangsschritt GS ErzeugungsschrittES2 receive step GS production step

VS Veränderungsschritt VS Change Step

Claims

Patentansprüche Patent claims 1. Verfahren zur Erzeugung eines augmentierten Abbilds (AA) durch ein medizinisches Visualisierungssystem (4), umfassend die Schritte: a. Empfangen zumindest eines Bildsignals, welches von mindestens einer Bilderfassungseinrichtung (5) eines Operationsmikroskops (10) erzeugt wurde und welches ein Abbild (A1) eines Untersuchungsbereichs (1) repräsentiert, b. Aufteilen des Abbilds (A1) in einen Vordergrundbereich (V) und in einen Hintergrundbereich (H), c. Empfangen zumindest eines Signals, welches Zusatzinformationen (ZI) zur Augmentierung repräsentiert oder kodiert, d. Erzeugen des augmentierten Abbilds (AA) durch i. Überlagerung des Hintergrundbereichs (H) des Abbilds (A1) des Untersuchungsbereichs (1) oder eines Teils davon mit den Zusatzinformationen (ZI) oder ii. Überlagerung des Abbilds (A1) des Untersuchungsbereichs (1) oder eines Teils davon mit den Zusatzinformationen (ZI), wobei die Überlagerung im Hintergrundbereich (H) und im Vordergrundbereich (V) gemäß voneinander verschiedener Überlagerungsmodalitäten erfolgt. 1. Method for generating an augmented image (AA) by a medical visualization system (4), comprising the steps of: a. Receiving at least one image signal generated by at least one image acquisition device (5) of a surgical microscope (10) and representing an image (A1) of an examination area (1), b. Splitting the image (A1) into a foreground area (V) and a background area (H), c. Receiving at least one signal representing or encoding additional information (SI) for augmentation, d. Generating the augmented image (AA) by i. superimposing the background area (H) of the image (A1) of the examination area (1) or a part thereof with the additional information (SI), or ii. Overlaying the image (A1) of the investigation area (1) or a part thereof with the additional information (ZI), wherein the overlay in the background area (H) and in the foreground area (V) is carried out according to different overlay modalities. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Überlagerung mit Zusatzinformationen (ZI) ausschließlich im Hintergrundbereich (H) oder in einem Teil des Hintergrundbereichs (H) vorgenommen wird. 2. Method according to claim 1, characterized in that the overlay with additional information (ZI) is carried out exclusively in the background area (H) or in a part of the background area (H). 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zumindest zwei Bildsignale empfangen werden, die zeitlich nacheinander von der mindestens einen Bilderfassungseinrichtung (5) des Operationsmikroskops (10) erzeugt wurden und welche jeweils ein Abbild (A1) des Untersuchungsbereichs (1) repräsentieren, wobei eine Information über eine zeitliche Veränderung der Bildinformation in Abhängigkeit dieser zumindest zwei Abbilder (A1) bestimmt wird und die Aufteilung des Abbilds (A1) in Abhängigkeit dieser Information erfolgt. 3. Method according to claim 1 or 2, characterized in that at least two image signals are received which were generated successively by the at least one image acquisition device (5) of the operating microscope (10) and which each represent an image (A1) of the examination area (1), wherein information about a temporal change of the image information depending on these at least two images (A1) is determined and the division of the image (A1) takes place depending on this information. 4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Information über eine zeitliche Veränderung der Bildinformation eine Information zum optischen Fluss ist. 4. Method according to claim 3, characterized in that the information about a temporal change in the image information is information about the optical flow. is. 5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Tiefeninformationen für das zumindest eine Abbild (A1) des Untersuchungsbereichs (1) bestimmt werden und die Aufteilung in Abhängigkeit dieser Tiefeninformation erfolgt. 5. Method according to one of the preceding claims, characterized in that depth information is determined for the at least one image (A1) of the investigation area (1) and the division is carried out depending on this depth information. 6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass für das Abbild (A1) des Untersuchungsbereichs (1) oder zumindest einen Teilbereich davon semantische Zusatzinformationen bestimmt werden, wobei die Aufteilung in Abhängigkeit dieser semantischen Zusatzinformationen erfolgt. 6. Method according to one of the preceding claims, characterized in that additional semantic information is determined for the image (A1) of the investigation area (1) or at least a sub-area thereof, wherein the division is carried out depending on this additional semantic information. 7. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass für das Abbild (A1) des Untersuchungsbereichs (1) oder zumindest einen Teilbereich davon Kontextinformationen bestimmt werden, wobei die Aufteilung in Abhängigkeit dieser Kontextinformationen erfolgt. 7. Method according to one of the preceding claims, characterized in that context information is determined for the image (A1) of the investigation area (1) or at least a sub-area thereof, wherein the division is carried out depending on this context information. 8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Aufteilung mittels eines Modells durchgeführt wird, welches durch maschinelles Lernen erzeugt wurde, vorzugsweise mittels eines neuralen Netzes. 8. Method according to one of the preceding claims, characterized in that the division is carried out using a model generated by machine learning, preferably using a neural network. 9. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass Eingangsgrößen für die modellbasierte Aufteilung zusätzlich zu dem mindestens einen Abbild (A1) des Untersuchungsbereichs (1) zumindest eine der folgende Informationen umfassen: a. Tiefeninformationen für das zumindest eine Abbild des Untersuchungsbereichs, b. zumindest ein zeitlich vor dem Abbild des Untersuchungsbereichs erzeugtes9. Method according to claim 6, characterized in that input variables for the model-based partitioning, in addition to the at least one image (A1) of the investigation area (1), comprise at least one of the following information: a. depth information for the at least one image of the investigation area, b. at least one temporally prior image of the investigation area. Abbild des Untersuchungsbereichs, c. ein zu dem Abbild des Untersuchungsbereichs korrespondierendes Abbild, welches von einer weiteren Bilderfassungseinrichtung (5b) des Operationsmikroskops (10) erzeugt wurde, d. Informationen zur Klassifikation von abgebildeten Objekten, e. Informationen zur Klassifikation einer Nutzeraktivität, f. Informationen zur Klassifikation einer Operationsphase, g. Informationen zur Klassifikation eines Operationstyps. Image of the examination area, c. an image corresponding to the image of the examination area, which was generated by another image acquisition device (5b) of the operating microscope (10), d. information for the classification of imaged objects, e. information for the classification of a user activity, f. information for the classification of an operation phase, g. information for the classification of an operation type. 10. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine Prädiktion von Bildpositionen des Vordergrundbereichs (V) und/oder des Hintergrundbereichs (H) durchgeführt wird, wobei das Aufteilen in Abhängigkeit einer prädizierten Bildposition erfolgt. 10. Method according to one of the preceding claims, characterized in that a prediction of image positions of the foreground area (V) and/or the background area (H) is carried out, wherein the division is performed depending on a predicted image position. 11. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass bei dem Aufteilen des Abbilds (A1) Konfidenzinformationen bestimmt werden, wobei das Aufteilen und/oder die Überlagerung konfidenzabhängig erfolgt. 11. Method according to one of the preceding claims, characterized in that confidence information is determined when splitting the image (A1), wherein the splitting and/or superimposition is confidence-dependent. 12. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass nach der Aufteilung des Abbilds (A1) des Untersuchungsbereichs (1) in den Vordergrundbereich (V) und den Hintergrundbereich (H) a. eine Größe des Vordergrundbereichs (V) und/oder b. eine Größe des Hintergrundbereichs (H) verändert wird. 12. Method according to one of the preceding claims, characterized in that after the division of the image (A1) of the investigation area (1) into the foreground area (V) and the background area (H) a. a size of the foreground area (V) and/or b. a size of the background area (H) is changed. 13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass ein zu verändernder Teilbereich des Vordergrundbereichs (V) und/oder des Hintergrundbereichs (H) durch ein Verfahren zur Objekterkennung bestimmt wird. 13. Method according to claim 12, characterized in that a partial area of the foreground area (V) and/or the background area (H) to be changed is determined by a method for object recognition. 14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass ein zu verändernder Teilbereich in Abhängigkeit von optischen Parametern des Operationsmikroskops (10) bestimmt wird. 14. Method according to claim 12 or 13, characterized in that a partial area to be modified is determined depending on optical parameters of the operating microscope (10). 15. Verfahren nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass die Veränderung abhängig von a. einem Abstand des in den Teilbereich abgebildeten Objekts von einer Oberfläche des Untersuchungsbereichs (1), b. einer teilbereichsspezifischen Bildinformation. durchgeführt wird. 15. Method according to one of claims 12 to 14, characterized in that the change is carried out depending on a. a distance of the object depicted in the sub-area from a surface of the investigation area (1), b. a sub-area-specific image information. 16. Verfahren nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass ein zu verändernder Teilbereich und/oder die Veränderung der Größe mittels eines Modells bestimmt wird, welches durch maschinelles Lernen erzeugt wurde. 16. Method according to one of claims 12 to 15, characterized in that a sub-area to be changed and/or the change in size is determined by means of a model which was generated by machine learning. 17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass Eingangsgrößen für eine modellbasierte Bestimmung des zu verändernden Teilbereichs und/oder der Veränderung der Größe zumindest eine der folgenden Informationen umfassen: a. Tiefeninformationen für das zumindest eine Abbild des Untersuchungsbereichs, b. zumindest ein zeitlich vor dem Abbild des Untersuchungsbereichs erzeugtes Abbild des Untersuchungsbereichs, c. ein zu dem Abbild des Untersuchungsbereichs korrespondierendes Abbild, welches von einer weiteren Bilderfassungseinrichtung (5b) des Operationsmikroskops (10) erzeugt wurde, d. Informationen zur Klassifikation von abgebildeten Objekten, e. Informationen zur Klassifikation einer Nutzeraktivität, f. Informationen zur Klassifikation einer Operationsphase, g. Informationen zur Klassifikation eines Operationstyps. 17. Method according to claim 16, characterized in that input variables for a model-based determination of the sub-area to be changed and/or the change in size comprise at least one of the following information: a. Depth information for the at least one image of the area under investigation, b. At least one image of the area under investigation generated prior to the image of the area under investigation, c. An image corresponding to the image of the area under investigation, which was generated by a further image acquisition device (5b) of the operating microscope (10), d. Information for classifying imaged objects, e. Information for classifying a user activity, f. Information for classifying a surgical phase, g. Information for classifying a surgical type. 18. Medizinisches Visualisierungssystem (4), umfassend mindestens eine Schnittstelle (20) zum Empfang eines Bildsignals einer Bilderfassungseinrichtung (5) zum Erzeugen eines Abbilds (A1) eines Untersuchungsbereichs (1) und mindestens eine Auswerteeinrichtung (7), wobei das medizinische Visualisierungssystem (4) konfiguriert ist, ein Verfahren mit den Schritten gemäß einem der Ansprüche 1 bis 17 durchzuführen. 18. Medical visualization system (4) comprising at least one interface (20) for receiving an image signal from an image acquisition device (5) for generating an image (A1) of an examination area (1) and at least one evaluation device (7), wherein the medical visualization system (4) is configured to perform a method comprising the steps according to any one of claims 1 to 17. 19. Computerprogrammprodukt mit einem Computerprogramm, wobei das Computerprogramm Softwaremittel zur Ausführung mehrerer oder aller Schritte des Verfahrens nach einem der Ansprüche 1 bis 17 umfasst, wenn das Computerprogramm von oder in einem Computer oder einem Automatisierungssystem ausgeführt wird. 19. A computer program product comprising a computer program, wherein the computer program includes software means for performing several or all steps of the method according to any one of claims 1 to 17, when the computer program is executed by or in a computer or an automation system. ...
PCT/EP2025/060887 2024-04-22 2025-04-22 Method for generating an augmented image using a medical visualisation system, medical visualisation system, and computer program product Pending WO2025224080A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102024203742.7A DE102024203742B4 (en) 2024-04-22 2024-04-22 Method for generating an augmented image using a medical visualization system, medical visualization system and computer program product
DE102024203742.7 2024-04-22

Publications (1)

Publication Number Publication Date
WO2025224080A1 true WO2025224080A1 (en) 2025-10-30

Family

ID=95519038

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2025/060887 Pending WO2025224080A1 (en) 2024-04-22 2025-04-22 Method for generating an augmented image using a medical visualisation system, medical visualisation system, and computer program product

Country Status (2)

Country Link
DE (1) DE102024203742B4 (en)
WO (1) WO2025224080A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100295931A1 (en) 2009-03-31 2010-11-25 Robert Schmidt Medical navigation image output comprising virtual primary images and actual secondary images
US20150221105A1 (en) 2012-08-30 2015-08-06 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100295931A1 (en) 2009-03-31 2010-11-25 Robert Schmidt Medical navigation image output comprising virtual primary images and actual secondary images
US20150221105A1 (en) 2012-08-30 2015-08-06 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HUSSAIN RAABID ET AL: "Video-based augmented reality combining CT-scan and instrument position data to microscope view in middle ear surgery", SCIENTIFIC REPORTS, vol. 10, no. 1, 21 April 2020 (2020-04-21), US, XP093278551, ISSN: 2045-2322, Retrieved from the Internet <URL:https://www.nature.com/articles/s41598-020-63839-2> [retrieved on 20250519], DOI: 10.1038/s41598-020-63839-2 *
JASPER HOFMAN ET AL: "First-in-human real-time AI-assisted instrument deocclusion during augmented reality robotic surgery", HEALTHCARE TECHNOLOGY LETTERS, JOHN WILEY & SONS, INC, HOBOKEN, USA, vol. 11, 2 December 2023 (2023-12-02), pages 33 - 39, XP006121433, ISSN: 2053-3713, DOI: 10.1049/HTL2.12056 *
M. ALLAN, ROBOTIC INSTRUMENT SEGMENTATION CHALLENGE, vol. 2017, 2019, Retrieved from the Internet <URL:https://arxiv.org/abs/1902.06426>
MA LING ET AL: "Comprehensive review of surgical microscopes: technology development and medical applications", JOURNAL OF BIOMEDICAL OPTICS, vol. 26, no. 01, 4 January 2021 (2021-01-04), 1000 20th St. Bellingham WA 98225-6705 USA, XP093226508, ISSN: 1083-3668, DOI: 10.1117/1.JBO.26.1.010901 *

Also Published As

Publication number Publication date
DE102024203742B4 (en) 2025-11-20
DE102024203742A1 (en) 2025-10-23

Similar Documents

Publication Publication Date Title
DE19955690A1 (en) System for selection of volume regions in a graphics display based upon segmentation to allow specific features to be observed
DE102017108551B4 (en) Head-mounted display device, method for operating the same and medical optical observation system
DE102009035441B4 (en) Method and image processing system for generating a volume view image from inside a body
DE102014206004A1 (en) Triangulation-based depth and surface visualization
DE102013206911A1 (en) Method and apparatus for the stereoscopic display of image data
DE102014007909A1 (en) Surgical microscope
EP3598948B1 (en) Imaging system and method for generating a stereoscopic representation, computer program and data memory
DE102018106651A1 (en) Visualization system and method for generating holographic representations from optical signals
DE102014102425B4 (en) Microscope system and microscopy method using digital markers
WO2009062492A2 (en) Method for representing image objects in a virtual three-dimensional image space
DE102012009257B4 (en) Method for execution when operating a microscope and microscope
Weiss et al. Processing-aware real-time rendering for optimized tissue visualization in intraoperative 4D OCT
Sadeghi et al. Hands-free interactive image segmentation using eyegaze
DE102022126824A1 (en) Method for superimposing overlay recording information with a live image and a corresponding device
DE102024203742B4 (en) Method for generating an augmented image using a medical visualization system, medical visualization system and computer program product
WO2022161930A1 (en) Tool-type agnostic assistance functionality for surgical operations
DE102020215559B4 (en) Method for operating a visualization system in a surgical application and visualization system for a surgical application
US20250082406A1 (en) Method for surgical planning
DE19542605A1 (en) Interactive display system for showing internal organs of patient structures during medical operations
DE102022132628B3 (en) System for visualizing OCT signals
EP4645244A1 (en) Method for generating at least one augmented image, medical visualization system and computer program product
DE102024203805A1 (en) Method for providing different stereo image output signals by a medical visualization system, medical visualization system and computer program product
DE102023127251B4 (en) System for visualizing OCT signals with reflection on a virtual surface
EP4641283A1 (en) Surgical microscope and method of operating a surgical microscope
DE102020205976A1 (en) Adapting an augmented and / or artificial reality

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25721211

Country of ref document: EP

Kind code of ref document: A1