JP2017016347A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2017016347A JP2017016347A JP2015131682A JP2015131682A JP2017016347A JP 2017016347 A JP2017016347 A JP 2017016347A JP 2015131682 A JP2015131682 A JP 2015131682A JP 2015131682 A JP2015131682 A JP 2015131682A JP 2017016347 A JP2017016347 A JP 2017016347A
- Authority
- JP
- Japan
- Prior art keywords
- patient
- specifying
- information
- display
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、医療現場の電子化の普及により、患者に関する画像や文書等の大量な情報をPC等のデバイスを使って管理できるようになった。例えば、診察室に設置されたディスプレイに患者の情報を表示し、医師は、表示を確認した上で、視線を再び患者に戻して処置にあたるといった、患者の情報の利用が考えられる。このとき、医師が視線を動かすモーションが発生し、さらに表示された情報と患者を対応付ける作業が発生する等の問題がある。これに対し、特許文献1には、医師が装着型ディスプレイを装着し、医師の視界に含まれていない機器の情報を装着型ディスプレイに表示する技術が開示されている。これにより、医師は視界を患者から逸らすことなく、その場では見えない機器の情報を見ることができる。 Conventionally, with the spread of computerization in the medical field, it has become possible to manage a large amount of information such as images and documents related to patients using a device such as a PC. For example, it is possible to use patient information such as displaying patient information on a display installed in an examination room, and a doctor confirming the display and returning the line of sight to the patient again for treatment. At this time, there is a problem that a motion of the doctor moving his / her line of sight occurs and an operation of associating the displayed information with the patient occurs. On the other hand, Patent Document 1 discloses a technique in which a doctor wears a wearable display and displays information on devices that are not included in the view of the doctor on the wearable display. This allows the doctor to see information about the device that is not visible on the spot without diverting the field of view from the patient.
しかしながら、特許文献1の技術では、患者と同時に機器の情報を見ることができるが、機器に表示されている情報以外は表示することができないといった問題がある。また、例えば、同一の空間に複数の患者と測定機器が存在している場合、医師が担当する患者以外の患者について測定された情報が表示され得るといった問題がある。 However, in the technique of Patent Document 1, information on the device can be viewed simultaneously with the patient, but there is a problem that information other than the information displayed on the device cannot be displayed. In addition, for example, when there are a plurality of patients and measuring devices in the same space, there is a problem that information measured for patients other than the patient in charge of the doctor can be displayed.
本発明はこのような問題点に鑑みなされたもので、医師等のユーザが必要な情報を適切に表示することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to appropriately display information necessary for a user such as a doctor.
そこで、本発明は、撮影手段により撮影された、患者の撮影画像に基づいて、前記患者の部位を特定する部位特定手段と、前記部位の現実空間における部位位置を特定する位置特定手段と、前記部位特定手段により特定された部位に関する患者情報を、前記表示手段と前記撮影手段の位置関係に基づいて、前記現実空間の前記部位位置に対応する表示手段の位置に関連付けて、前記表示手段に表示する表示処理手段とを有することを特徴とする。 Therefore, the present invention provides a part specifying means for specifying a part of the patient based on a photographed image of the patient photographed by the photographing means, a position specifying means for specifying a part position of the part in the real space, Patient information related to the part specified by the part specifying means is displayed on the display means in association with the position of the display means corresponding to the part position in the real space based on the positional relationship between the display means and the imaging means. Display processing means.
本発明によれば、医師等のユーザが必要な情報を適切に表示することができる。 According to the present invention, it is possible to appropriately display information necessary for a user such as a doctor.
(第1の実施形態)
以下、本発明の実施形態について図面に基づいて説明する。図1は、第1の実施形態に係る情報処理システムとしての医療システムを示す図である。医療システムは、情報処理装置100と、サーバ装置110とを備えている。情報処理装置100及びサーバ装置110は、ネットワーク120を介して接続している。情報処理装置100は、透過型の表示部を有する装着型の装置であり、装着者である医師等のユーザ(以下、単にユーザという場合がある)に、現実空間に情報を重畳した拡張現実を提供する装置である。なお、以下の実施形態においてはユーザが医師である場合を例に説明を行うが、ユーザは医師に限定されるものではなく、医療従事者であってもよい。情報処理装置100としては、例えば眼鏡型の装置や、ヘッドマウントディスプレイのような頭部装着型の装置が挙げられる。ユーザは、表示部を透過して、表示部に表示された情報が現実空間に重畳された拡張現実を視認することができる。本実施形態においては、情報処理装置100は、表示部に、診察中の患者に関する診療内容や検査結果等の患者情報を表示する。サーバ装置110は、患者情報を記憶、管理する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a medical system as an information processing system according to the first embodiment. The medical system includes an information processing device 100 and a server device 110. The information processing apparatus 100 and the server apparatus 110 are connected via a network 120. The information processing apparatus 100 is a wearable apparatus having a transmissive display unit, and displays augmented reality in which information is superimposed on a real space to a user such as a doctor who is a wearer (hereinafter simply referred to as a user). It is a device to provide. In the following embodiment, a case where the user is a doctor will be described as an example. However, the user is not limited to a doctor and may be a medical worker. As the information processing apparatus 100, for example, a glasses-type apparatus or a head-mounted apparatus such as a head-mounted display can be used. The user can visually recognize the augmented reality in which the information displayed on the display unit is superimposed on the real space through the display unit. In the present embodiment, the information processing apparatus 100 displays patient information such as medical treatment contents and examination results regarding the patient under examination on the display unit. The server device 110 stores and manages patient information.
なお、本実施形態においては、患者情報は、サーバ装置110に記憶されており、情報処理装置100は、サーバ装置110から適宜患者情報を受信し、これを表示するものとする。ただし、患者情報は、医療システムのいずれかの装置が記憶していればよく、患者情報を記憶する装置は、サーバ装置110に限定されるものではない。他の例としては、情報処理装置100が患者情報を記憶、管理していてもよい。また、他の例としては、医療システムは、患者情報の記憶、管理を複数の装置に分散してもよい。 In the present embodiment, patient information is stored in the server device 110, and the information processing device 100 receives patient information from the server device 110 as appropriate and displays it. However, the patient information may be stored in any device of the medical system, and the device that stores the patient information is not limited to the server device 110. As another example, the information processing apparatus 100 may store and manage patient information. As another example, the medical system may distribute storage and management of patient information to a plurality of devices.
情報処理装置100は、CPU101と、メモリ102と、記憶装置103と、表示装置105と、撮影部106と、マイク107と、通信I/F部108とを有している。これら各部は、バス109により相互に接続されている。CPU101は、記憶装置103に記憶されているプログラム104を実行することにより、後述する各種機能を実行する。メモリ102は、CPU101が記憶装置103から読み出したプログラムやデータを一時的に記憶する。また、メモリ102は、CPU101が各種のプログラムを実行するための領域としても利用される。 The information processing apparatus 100 includes a CPU 101, a memory 102, a storage device 103, a display device 105, a photographing unit 106, a microphone 107, and a communication I / F unit 108. These units are connected to each other by a bus 109. The CPU 101 executes various functions to be described later by executing a program 104 stored in the storage device 103. The memory 102 temporarily stores programs and data read by the CPU 101 from the storage device 103. The memory 102 is also used as an area for the CPU 101 to execute various programs.
記憶装置103は、オペレーティングシステム(OS)や各種プログラムや制御プログラム、データ等を記憶する。なお、制御用のプログラム104は記憶装置103の一部データとして格納されている。プログラムとしては、各種認識処理や患者情報の表示に係るプログラム等が挙げられる。データとしては、患者に関する画像や文書等が挙げられる。後述する情報処理装置100の機能や処理は、CPU101が記憶装置103に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。表示装置105は、各種情報を表示する。表示装置105は、シースルー型の視界を妨げない透過型の表示装置であるものとする。撮影部106は、画像を撮影する。マイク107は、音声を集音する。 The storage device 103 stores an operating system (OS), various programs, control programs, data, and the like. Note that the control program 104 is stored as part of the data in the storage device 103. Examples of the program include programs related to various recognition processes and display of patient information. Examples of data include images and documents related to patients. Functions and processes of the information processing apparatus 100 described later are realized by the CPU 101 reading out a program stored in the storage device 103 and executing the program. The display device 105 displays various information. The display device 105 is a transmissive display device that does not interfere with the see-through view. The imaging unit 106 captures an image. The microphone 107 collects sound.
情報処理装置100は、撮影部106及びマイク107を介して、ユーザからの指示を受け付ける。すなわち、撮影部106及びマイク107は、入力部として機能する。具体的には、ユーザは、所定のジェスチャや発話により情報処理装置100への指示入力を行う。これに対し、情報処理装置100は、撮影部106により撮影された画像に基づいて、ジェスチャ認識により指示を受け付け、また、マイク107により集音された音声に対する音声認識により指示を受け付ける。なお、情報処理装置100は、撮影部106及びマイク107以外にも、物理的なボタン等の入力装置を備えてもよい。 The information processing apparatus 100 receives an instruction from the user via the photographing unit 106 and the microphone 107. That is, the photographing unit 106 and the microphone 107 function as an input unit. Specifically, the user inputs an instruction to the information processing apparatus 100 by a predetermined gesture or utterance. On the other hand, the information processing apparatus 100 accepts an instruction by gesture recognition based on an image photographed by the photographing unit 106 and accepts an instruction by voice recognition for the sound collected by the microphone 107. Note that the information processing apparatus 100 may include an input device such as a physical button in addition to the photographing unit 106 and the microphone 107.
次に、情報処理装置100が、現実空間に存在するオブジェクトに情報を重畳して表示するための構成及び処理について説明する。撮影部106は、情報処理装置100を装着するユーザが、表示装置105を透過して現実空間を見る際の視線の方向と、撮影方向とが略一致するような、位置及び向きに設けられているものとする。これにより、撮影部106は、ユーザが見ている現実空間の画像を撮影することができる。なお、他の例としては、撮影部106は、撮影方向と装着者の視線方向とが一定の関係になるように設置されていてもよい。そして、撮影部106はオブジェクトを含む画像を撮影し、CPU101は、撮影画像におけるオブジェクトの位置、情報処理装置100の位置や情報処理装置100の向き(ユーザの視線方向)に基づいて、オブジェクトの現実空間における位置を特定する。そして、CPU101は、現実空間におけるオブジェクトの位置に基づいて、現実空間のオブジェクトの位置に対応する表示装置105上の位置を特定し、特定した表示装置105上の位置に情報が配置された表示情報を生成し、これを表示装置105に表示する。 Next, a configuration and processing for the information processing apparatus 100 to display information superimposed on an object existing in the real space will be described. The imaging unit 106 is provided in a position and orientation such that the direction of the line of sight when the user who wears the information processing apparatus 100 sees the real space through the display device 105 substantially matches the imaging direction. It shall be. Thereby, the imaging | photography part 106 can image | photograph the image of the real space which the user is seeing. As another example, the photographing unit 106 may be installed such that the photographing direction and the wearer's line-of-sight direction have a certain relationship. The photographing unit 106 captures an image including the object, and the CPU 101 detects the reality of the object based on the position of the object in the captured image, the position of the information processing apparatus 100, and the orientation of the information processing apparatus 100 (the line of sight of the user). Specify a position in space. Then, the CPU 101 specifies a position on the display device 105 corresponding to the position of the object in the real space based on the position of the object in the real space, and the display information in which information is arranged at the specified position on the display device 105. Is generated and displayed on the display device 105.
図2は、情報処理装置100による表示処理を示すフローチャートである。図3は、情報処理装置100の利用形態の説明図である。図3に示すように、医師Aは、患者Bの診察時、情報処理装置100を装着する。そして、情報処理装置100の表示装置105越しに、患者Bを見る。このとき、表示装置105には、患者Bの患者情報が表示される。したがって、医師Aは、表示装置105越しに患者Bを見るのと同時に、患者Bの患者情報を確認することができる。以下、この時の情報処理装置100の処理について説明する。 FIG. 2 is a flowchart showing display processing by the information processing apparatus 100. FIG. 3 is an explanatory diagram of a usage pattern of the information processing apparatus 100. As shown in FIG. 3, the doctor A wears the information processing apparatus 100 when the patient B is examined. Then, the patient B is seen through the display device 105 of the information processing apparatus 100. At this time, the patient information of the patient B is displayed on the display device 105. Therefore, the doctor A can check the patient information of the patient B at the same time as viewing the patient B through the display device 105. Hereinafter, processing of the information processing apparatus 100 at this time will be described.
S200において、情報処理装置100のCPU101は、ユーザである医師が担当する診療領域を特定する(診療領域特定処理)。ここで、診療領域とは、医師が診察可能な診療科を示す情報である。なお、診療領域は、診療内容を特定する情報であればよくその分類方法は実施形態に限定されるものではない。例えば内科のうち特定の部位、特定の疾病、といったように、診療領域をさらに細分化してもよい。CPU101は、具体的には、ユーザの発話から診療領域の入力指示を受け付け、入力指示に従い、診療領域を特定する。また、他の例としては、記憶装置103が予めユーザの識別情報に対応付けて診療領域を記憶しており、CPU101は、生体認証等に基づいて、ユーザを識別し、識別したユーザに対応付けられている診療領域を特定してもよい。 In S <b> 200, the CPU 101 of the information processing apparatus 100 specifies a medical treatment area handled by a doctor who is a user (medical treatment area specifying process). Here, the medical treatment area is information indicating medical departments that can be examined by a doctor. In addition, the medical treatment area | region should just be information which specifies the medical treatment content, and the classification method is not limited to embodiment. For example, the medical treatment area may be further subdivided such as a specific part of the internal medicine or a specific disease. Specifically, the CPU 101 receives an instruction to input a medical area from the user's utterance, and specifies the medical area according to the input instruction. As another example, the storage device 103 stores a medical treatment area in advance in association with user identification information, and the CPU 101 identifies a user based on biometric authentication or the like, and associates the identified user with the identified user. A medical treatment area may be specified.
次に、S201において、CPU101は、患者の存在を確認し、かつ患者を識別するまで待機する。そして、CPU101は、患者の存在を確認し、かつ患者を識別すると(S201でYES)、処理をS202へ進める。CPU101は、具体的には、入力部を介して患者の識別情報(患者ID)を受け付けた場合に(受付処理)、患者の存在を確認し、かつ患者を識別したと判断することとする。なお、他の例としては、CPU101は、撮影部106により撮影された撮影画像における画像認識処理により、患者の存在を確認し、かつ画像特徴量等から患者を識別してもよい。ここで、S201の処理は、患者確認処理の一例である。 Next, in S201, the CPU 101 waits until the presence of the patient is confirmed and the patient is identified. When the CPU 101 confirms the presence of the patient and identifies the patient (YES in S201), the process proceeds to S202. Specifically, when the CPU 101 receives patient identification information (patient ID) via the input unit (acceptance process), the CPU 101 confirms the presence of the patient and determines that the patient has been identified. As another example, the CPU 101 may confirm the presence of the patient and identify the patient from the image feature amount or the like by the image recognition process on the captured image captured by the capturing unit 106. Here, the process of S201 is an example of a patient confirmation process.
S202において、CPU101は、サーバ装置110に記憶されている患者情報のうち、S201において識別された患者に対応する患者情報で、かつS200において特定された診療領域に関する患者情報を優先的に抽出(抽出処理)、受信する。次に、S203において、CPU101は、撮影画像に対する画像認識処理により患者の部位を特定する(部位特定処理)。本実施形態においては、CPU101は、頭部、上半身、下半身の3つの部位を特定することとするが、特定対象の部位は、これに限定されるものではない。他の例としては、CPU101は、腕、首といったように、さらに細かい単位で部位を特定してもよい。 In S <b> 202, the CPU 101 preferentially extracts (extracts) patient information corresponding to the patient identified in S <b> 201 and patient information related to the medical treatment area specified in S <b> 200 from the patient information stored in the server device 110. Processing), receive. Next, in S203, the CPU 101 specifies a patient's part by image recognition processing on the captured image (part specifying process). In the present embodiment, the CPU 101 specifies three parts of the head, upper body, and lower body, but the part to be specified is not limited to this. As another example, the CPU 101 may specify a part in a finer unit such as an arm or a neck.
次に、S204において、CPU101は、撮影画像において、部位が特定された部位位置に基づいて、現実空間における部位位置を特定する(位置特定処理)。なお、CPU101は、撮影方向、視線方向及び情報処理装置100の位置等の情報から、撮影画像上の位置と、現実空間上の位置との対応関係に基づいて、撮影画像上の部位位置を、現実空間における部位位置に変換するものとする。例えば、CPU101は、撮影方向の一例である撮影部106の位置と情報処理装置100の位置の一例である表示装置105の位置との関係に基づいて、現実空間における部位位置を特定する。より具体的には、CPU101は、撮影部106の位置と表示装置105の位置との関係に基づいて、現実空間における表示装置105上での部位位置を特定する。 Next, in S204, the CPU 101 specifies a part position in the real space based on the part position where the part is specified in the captured image (position specifying process). Note that the CPU 101 determines the position of the part on the photographed image based on the correspondence between the position on the photographed image and the position on the real space from information such as the photographing direction, the line-of-sight direction, and the position of the information processing apparatus 100. It is assumed that the position is converted into a part position in the real space. For example, the CPU 101 identifies the position of the part in the real space based on the relationship between the position of the photographing unit 106 that is an example of the photographing direction and the position of the display device 105 that is an example of the position of the information processing apparatus 100. More specifically, the CPU 101 specifies a part position on the display device 105 in the real space based on the relationship between the position of the imaging unit 106 and the position of the display device 105.
次に、S205において、CPU101は、S202において抽出された各患者情報が、いずれの部位に対応するものかを特定する。なお、患者情報は、部位を示す情報を含んでおり、CPU101は、部位を示す情報から、患者情報がいずれの部位に関する情報であるかを特定することとする。なお、患者情報が含む部位の単位はS203において特定される部位の単位と一致しない場合もある。この場合も、CPU101は、予め定められた対応関係に従い、例えば肺に関する患者情報であれば、部位として上半身を特定する。 Next, in S205, the CPU 101 specifies to which part each patient information extracted in S202 corresponds. The patient information includes information indicating a part, and the CPU 101 specifies which part the patient information is related to from the information indicating the part. The unit of the part included in the patient information may not match the unit of the part specified in S203. Also in this case, the CPU 101 specifies the upper body as a part according to a predetermined correspondence, for example, if it is patient information related to the lung.
そして、CPU101は、各患者情報を、現実空間における部位位置に対応する表示装置105の位置に関連付けて表示する(表示処理)。なお、CPU101は、表示装置105に表示する患者情報と、現実空間に存在する患者の部位との位置合わせには、表示装置105と撮影部106との間の位置関係を利用することができる。また、CPU101は、いずれの部位とも関連しない患者情報については、部位に関連付けない形式で表示する。このように、CPU101は、患者の存在を確認し、かつ患者を識別したことを条件とし、条件に合致したタイミングで、患者情報を現実空間に重畳して表示する。なお、撮影部106により動画が撮影される場合には、ステップS203−205が繰返し行われることとしてもよい。 Then, the CPU 101 displays each patient information in association with the position of the display device 105 corresponding to the position of the part in the real space (display process). Note that the CPU 101 can use the positional relationship between the display device 105 and the imaging unit 106 to align patient information displayed on the display device 105 with the patient's part existing in the real space. Further, the CPU 101 displays patient information that is not associated with any part in a form that is not associated with any part. As described above, the CPU 101 confirms the presence of the patient and identifies the patient, and displays the patient information superimposed on the real space at a timing that matches the condition. When a moving image is shot by the shooting unit 106, steps S203 to 205 may be repeated.
図4は、表示装置105を介してユーザが視認する拡張現実の表示例を示す図である。表示装置105には、ユーザが表示装置105越しに視認する患者Bの各部位の部位位置に対応する表示装置105上の位置を基準に、吹き出し400a,400bが表示されている。さらに、各吹き出し400a,400bの中には、部位に対応する患者情報401a,401bが示されている。例えば、吹き出し400aは、患者Bの頭部の部位位置に対応する表示装置105上の位置を基点として表示されており、この吹き出し400aに示される患者情報401aは、頭部に関する患者情報である。また、吹き出し400bは、患者Bの上半身の部位位置に対応する表示装置105上の位置を基点として表示されており、この吹き出し400bに示される患者情報401bは、例えば肺のレントゲン写真等、上半身に関する患者情報である。なお、吹き出し400a,400bは、患者情報と部位位置とを関連付ける関連情報の一例である。 FIG. 4 is a diagram illustrating a display example of augmented reality visually recognized by the user via the display device 105. Balloons 400 a and 400 b are displayed on the display device 105 with reference to positions on the display device 105 corresponding to the position of each part of the patient B visually recognized by the user through the display device 105. Further, in each of the balloons 400a and 400b, patient information 401a and 401b corresponding to the part is shown. For example, the balloon 400a is displayed with the position on the display device 105 corresponding to the position of the head of the patient B as a base point, and the patient information 401a shown in the balloon 400a is patient information regarding the head. The balloon 400b is displayed with the position on the display device 105 corresponding to the position of the upper body part of the patient B as a base point. The patient information 401b shown in the balloon 400b is related to the upper body such as a lung radiograph. Patient information. The balloons 400a and 400b are an example of related information that associates patient information with a part position.
また、枠402には、いずれの部位にも対応しない患者情報403が表示されている。このように、CPU101は、いずれの部位にも対応しない患者情報については、吹き出し400a,400bと表示態様の異なる枠402に表示する。すなわち、CPU101は、部位特定処理(S203)において特定された部位に関する患者情報以外の患者情報については、部位位置に関連付けない形式で表示する。これにより、ユーザは、枠402に表示されている内容は、部位に関連しない情報であることを把握することができる。 In the frame 402, patient information 403 that does not correspond to any part is displayed. As described above, the CPU 101 displays patient information that does not correspond to any part in the frame 402 having a different display mode from the balloons 400a and 400b. That is, the CPU 101 displays the patient information other than the patient information related to the part specified in the part specifying process (S203) in a format not associated with the part position. Thereby, the user can grasp that the content displayed in the frame 402 is information not related to the part.
なお、CPU101は、いずれの患者情報も、現実空間に存在する患者Bに重ならない位置に配置して表示することとする。すなわち、CPU101は、現実空間における患者Bに対応する表示装置105の位置には重ならないように患者情報を表示する。また、CPU101は、部位に関する患者情報については、対応する部位位置に対応する表示装置105の位置にできるだけ近い位置に配置することとする。すなわち、CPU101は、部位位置を基準として定まる位置に、対応する患者情報を表示する。 The CPU 101 arranges and displays any patient information at a position that does not overlap the patient B existing in the real space. That is, the CPU 101 displays patient information so as not to overlap the position of the display device 105 corresponding to the patient B in the real space. Further, the CPU 101 arranges patient information related to a part at a position as close as possible to the position of the display device 105 corresponding to the corresponding part position. That is, the CPU 101 displays the corresponding patient information at a position determined based on the part position.
以上のように、本実施形態に係る情報処理装置100は、部位に関する患者情報を、患者の部位位置に関連付けて表示する。したがって、ユーザは、患者情報と、現実空間に存在する、診療対象の患者の部位との関係を容易に把握することができる。また、情報処理装置100は、ユーザとしての医師の診療領域に基づいて、表示対象の患者情報を絞り込むことにより、ユーザが必要な情報を適切に表示することができる。例えば、整形外科を担当の診療領域とする医師にとって、歯科に関する患者情報は不要である。これに対し、情報処理装置100は上述のように絞り込みにより歯科の情報を除き、整形外科の情報を優先的に表示することができる。 As described above, the information processing apparatus 100 according to the present embodiment displays the patient information related to the part in association with the part position of the patient. Therefore, the user can easily grasp the relationship between the patient information and the part of the patient to be treated that exists in the real space. Further, the information processing apparatus 100 can appropriately display information necessary for the user by narrowing down the patient information to be displayed based on the medical treatment area of the doctor as the user. For example, patient information regarding dentistry is unnecessary for a doctor who is in charge of orthopedic surgery. On the other hand, the information processing apparatus 100 can preferentially display orthopedic information except for dental information by narrowing down as described above.
第1の実施形態の第1の変更例としては、情報処理装置100は、拡張現実を提供する装置であり、ユーザの視界をすべて覆うような非透過型の表示部を有するものであってもよい。この場合には、情報処理装置100は、表示装置105に撮影部106により撮影された撮影画像を表示する。そして、情報処理装置100は、この撮影画像上において、患者の部位に関連付けて、対応する患者情報を表示する。この場合、情報処理装置100は、撮影画像において、部位位置を特定し、この部位位置に関連付けて、患者情報を撮影画像上に重畳して表示すればよい。 As a first modification of the first embodiment, the information processing apparatus 100 is an apparatus that provides augmented reality, and may include a non-transmissive display unit that covers the entire user's field of view. Good. In this case, the information processing apparatus 100 displays the captured image captured by the imaging unit 106 on the display device 105. Then, the information processing apparatus 100 displays corresponding patient information in association with the patient's part on the captured image. In this case, the information processing apparatus 100 may identify a part position in the photographed image and display the patient information superimposed on the photographed image in association with the part position.
第2の変更例としては、情報処理装置100は、拡張現実を提供する装置に限定されるものではない。例えば、情報処理装置100は、図5に示すように、患者と同程度のサイズの表示装置105を有してもよい。この場合、表示装置105は、診察時に患者が座る位置に隣接する位置、座る位置の後方の位置等、予め定められた位置に設置されるものとする。また、撮影部106は、患者の座る位置を含む領域を撮影できる位置に設置されているものとする。さらに、撮影部106と表示装置105の位置関係は既知であるものとする。そして、CPU101は、この位置関係に応じて、撮影部106により撮影された患者の撮影画像から特定された、現実空間における部位位置に関連付けるように、表示装置105に患者情報を表示する。 As a second modification, the information processing apparatus 100 is not limited to an apparatus that provides augmented reality. For example, as illustrated in FIG. 5, the information processing apparatus 100 may include a display device 105 having a size similar to that of a patient. In this case, it is assumed that the display device 105 is installed at a predetermined position such as a position adjacent to a position where the patient sits at the time of medical examination, a position behind the sitting position, or the like. In addition, the imaging unit 106 is installed at a position where an area including the position where the patient sits can be imaged. Furthermore, it is assumed that the positional relationship between the imaging unit 106 and the display device 105 is known. And according to this positional relationship, CPU101 displays patient information on the display apparatus 105 so that it may relate with the site | part position in the real space specified from the patient's picked-up image image | photographed by the imaging | photography part 106. FIG.
第3の変更例としては、情報処理装置100は、さらに、医師が患者を診る際に顔を動かして患部を注視すると、その時の動きを検知する検知装置をさらに有してもよい。この場合、CPU101は、上方向の動きを検知した場合には、表示対象の部位を頭部、下方向への動きを検知した場合には、表示対象の部位を下半身に絞り込んでもよい。そして、CPU101は、絞り込んだ部位についての患者情報を表示することとしてもよい。 As a third modified example, the information processing apparatus 100 may further include a detection device that detects a movement at the time when the doctor moves his / her face when he / she examines the patient and gazes at the affected part. In this case, when detecting an upward movement, the CPU 101 may narrow down the display target part to the head, and if the downward movement is detected, the display target part may be narrowed down to the lower body. And CPU101 is good also as displaying the patient information about the site | part narrowed down.
(第2の実施形態)
第2の実施形態に係る医療システムにおいては、情報処理装置100は、患者の存在を確認しただけでなく、患者と共に、特定の機器の存在を確認した場合に、患者情報を表示する。以下、第2の実施形態に係る医療システムの、第1の実施形態に係る医療システムと異なる点について説明する。
(Second Embodiment)
In the medical system according to the second embodiment, the information processing apparatus 100 not only confirms the presence of a patient but also displays patient information when confirming the presence of a specific device with the patient. Hereinafter, differences of the medical system according to the second embodiment from the medical system according to the first embodiment will be described.
図6は、第2の実施形態に係る情報処理装置100による表示処理を示すフローチャートである。なお、図6に示す各処理のうち、図2を参照しつつ説明した第1の実施形態に係る表示処理の各処理と同一の処理には、同一の番号を付している。第2の実施形態においては、CPU101は、S200の処理の後、処理をS600へ進める。S600において、CPU101は、撮影画像に基づいて、患者の存在を確認し、患者を識別し、さらに患者と共に予め定められた特定の機材を認識するまで待機する(機材確認処理)。ここで、特定の機材としては、診察の際に利用される椅子やベッド等の診察台が挙げられる。 FIG. 6 is a flowchart showing display processing by the information processing apparatus 100 according to the second embodiment. Of the processes shown in FIG. 6, the same processes as the processes of the display process according to the first embodiment described with reference to FIG. In the second embodiment, the CPU 101 advances the process to S600 after the process of S200. In S <b> 600, the CPU 101 confirms the presence of the patient based on the captured image, identifies the patient, and waits until a predetermined specific device is recognized together with the patient (device confirmation process). Here, as the specific equipment, an examination table such as a chair or a bed used for the examination can be cited.
そして、CPU101は、患者と共に機材の存在を認識した場合には(S600でYES)、処理をS202へ進める。このように、本実施形態に係る情報処理装置100は、患者が確認され、かつ機材が確認されたことを、患者情報表示の条件とし、この条件に合致したタイミングにおいて、患者情報を表示することができる。すなわち、情報処理装置100は、ユーザにとってより適切なタイミングにおいて、患者情報を表示することができる。 If the CPU 101 recognizes the presence of the equipment together with the patient (YES in S600), the process proceeds to S202. As described above, the information processing apparatus 100 according to this embodiment displays the patient information at a timing that matches the condition, with the patient being confirmed and the equipment being confirmed as a condition for displaying the patient information. Can do. That is, the information processing apparatus 100 can display patient information at a more appropriate timing for the user.
図7は、機器と患者の関係を示す図である。診察時には、患者は、図7(a)のように椅子700に座っているか、または図7(b)に示すように、ベッド701に横たわっている場合が多い。そこで、情報処理装置100の患者情報の表示タイミングを、このような機器と同時に患者が確認された場合に限定することにより、不要なタイミングにおいて患者情報が表示されるのを防ぎつつ、診察時に患者情報を表示することができる。なお、第2の実施形態に係る医療システムのこれ以外の構成及び処理は、第1の実施形態に係る医療システムの構成及び処理と同様である。 FIG. 7 is a diagram illustrating the relationship between the device and the patient. At the time of medical examination, the patient often sits on a chair 700 as shown in FIG. 7A or lies on a bed 701 as shown in FIG. 7B. Therefore, by limiting the display timing of the patient information of the information processing apparatus 100 to a case where the patient is confirmed at the same time as such a device, it is possible to prevent the patient information from being displayed at an unnecessary timing, and at the time of the examination Information can be displayed. The remaining configuration and processing of the medical system according to the second embodiment are the same as the configuration and processing of the medical system according to the first embodiment.
第2の実施形態の第1の変更例としては、サーバ装置110は、例えば、心電図に係る患者情報に機器「ベッド」を対応付けるなど、患者情報と関連する機器情報とを対応付けて記憶していてもよい。この場合、情報処理装置100は、S600において確認された機材に基づいて、S202において抽出する患者情報を絞り込んでもよい。これにより、機材に対応する患者情報を優先的に表示することができる。 As a first modification of the second embodiment, the server device 110 stores patient information and related device information in association with each other, for example, associating a device “bed” with patient information related to an electrocardiogram. May be. In this case, the information processing apparatus 100 may narrow down the patient information extracted in S202 based on the equipment confirmed in S600. Thereby, patient information corresponding to the equipment can be preferentially displayed.
また、第2の変更例としては、情報処理装置100は、患者の部位を画像認識する際に、例えば、椅子の位置の上部に頭部が認識される、といった部位と機材との位置関係を利用してもよい。これにより、より高精度に部位を特定することができる。 As a second modification, the information processing apparatus 100 determines the positional relationship between the part and the equipment such that the head is recognized above the position of the chair, for example, when recognizing the patient's part. May be used. Thereby, a part can be specified with higher accuracy.
(第3の実施形態)
第3の実施形態に係る医用システムにおいては、情報処理装置100は、患者を確認し、かつ予め定められたキーワードを認識した場合に、患者情報を表示する。以下、第3の実施形態に係る医療システムの、第1の実施形態に係る医療システムと異なる点について説明する。図8は、第3の実施形態に係る情報処理装置100による表示処理を示すフローチャートである。なお、図8に示す各処理のうち、図2を参照しつつ説明した第1の実施形態に係る表示処理の各処理と同一の処理には、同一の番号を付している。第3の実施形態においては、CPU101は、S201において、患者の存在を確認し、かつ患者を識別すると(S201でYES)、処理をS800へ進める。
(Third embodiment)
In the medical system according to the third embodiment, the information processing apparatus 100 displays patient information when confirming a patient and recognizing a predetermined keyword. Hereinafter, differences of the medical system according to the third embodiment from the medical system according to the first embodiment will be described. FIG. 8 is a flowchart showing display processing by the information processing apparatus 100 according to the third embodiment. Of the processes shown in FIG. 8, the same processes as the processes of the display process according to the first embodiment described with reference to FIG. In the third embodiment, when the CPU 101 confirms the presence of the patient and identifies the patient in S201 (YES in S201), the process proceeds to S800.
S800において、CPU101は、患者の音声から、診療領域に関連するキーワードを認識するまで待機する(キーワード認識処理)。なお、キーワードは、診療領域毎に、記憶装置103に予め設定されているものとする。例えば、診療領域「内科」に対しては、「肺」、「胃」等がキーワードとして設定されている。また、他の例としては、患者情報に含まれる単語をキーワードとしてもよい。CPU101は、キーワードを認識した場合には(S800でYES)、処理をS202へ進める。CPU101は、キーワードを認識できなかった場合には(S800でNO)、処理をS201へ進める。このように、本実施形態に係る情報処理装置100は、患者が確認され、かつキーワードが認識されたことを患者情報表示の条件とし、この条件に合致したタイミングにおいて、患者情報を表示することができる。すなわち、情報処理装置100は、ユーザにとってより適切なタイミングにおいて、患者情報を表示することができる。なお、第3の実施形態に係る医療システムのこれ以外の構成及び処理は、他の実施形態に係る医療システムの構成及び処理と同様である。 In S800, the CPU 101 stands by until a keyword related to the medical treatment area is recognized from the patient's voice (keyword recognition process). Note that the keyword is set in advance in the storage device 103 for each medical treatment area. For example, “lung”, “stomach”, and the like are set as keywords for the medical treatment area “internal medicine”. As another example, a word included in patient information may be used as a keyword. If the CPU 101 recognizes the keyword (YES in S800), the process proceeds to S202. If the keyword has not been recognized (NO in S800), the CPU 101 advances the process to S201. As described above, the information processing apparatus 100 according to the present embodiment can display the patient information at a timing that matches the condition, with the condition that the patient is confirmed and the keyword is recognized as a condition for displaying the patient information. it can. That is, the information processing apparatus 100 can display patient information at a more appropriate timing for the user. Note that other configurations and processes of the medical system according to the third embodiment are the same as the configurations and processes of the medical system according to the other embodiments.
第3の実施形態の変更例としては、CPU101は、S202において、S700において認識したキーワードに基づいて、抽出する患者情報を絞り込んでもよい。例えば、CPU101は、診療領域として内科が特定され、かつ「肺が・・・」という患者の発話から「内科」に関連するキーワード「肺」を認識したとする。この場合、患者情報のうち、肺に関する患者情報を抽出し、これを優先的に表示する。これにより、不要な情報をさらに除外することができる。 As a modification of the third embodiment, the CPU 101 may narrow down patient information to be extracted based on the keyword recognized in S700 in S202. For example, it is assumed that the CPU 101 recognizes the keyword “lung” related to “internal medicine” from the patient's utterance “lung is... In this case, patient information related to the lung is extracted from the patient information and displayed preferentially. Thereby, unnecessary information can be further excluded.
以上、上述した各実施形態によれば、医師等のユーザが必要な情報を適切に表示することができる。 As described above, according to each embodiment described above, information necessary for a user such as a doctor can be appropriately displayed.
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、Webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a Web application, etc.), or may be applied to a device composed of a single device. good.
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
100 情報処理装置
101 CPU
105 表示装置
110 サーバ装置
100 Information processing apparatus 101 CPU
105 display device 110 server device
Claims (19)
前記部位の現実空間における部位位置を特定する位置特定手段と、
前記部位特定手段により特定された部位に関する患者情報を、前記表示手段と前記撮影手段の位置関係に基づいて、前記現実空間の前記部位位置に対応する表示手段の位置に関連付けて、前記表示手段に表示する表示処理手段と
を有することを特徴とする情報処理装置。 A part specifying means for specifying the part of the patient based on a photographed image of the patient taken by the photographing means;
Position specifying means for specifying a part position in the real space of the part;
Patient information related to the part specified by the part specifying means is associated with the position of the display means corresponding to the part position in the real space based on the positional relationship between the display means and the imaging means, and is displayed on the display means. An information processing apparatus comprising display processing means for displaying.
前記表示処理手段は、前記患者情報を、前記表示手段を透過してユーザにより視認される前記現実空間の前記部位位置に関連付けて前記表示手段に表示することを特徴とする請求項1に記載の情報処理装置。 The display means is a transmissive type,
2. The display processing unit according to claim 1, wherein the display processing unit displays the patient information on the display unit in association with the position of the part of the real space that is visible by the user through the display unit. Information processing device.
前記患者の患者情報の中から、前記診療領域に関する患者情報を抽出する抽出手段と
をさらに有し、
前記表示処理手段は、前記抽出手段により抽出された前記患者情報を表示することを特徴とする請求項1乃至6何れか1項に記載の情報処理装置。 A medical area specifying means for specifying a medical area of a doctor;
Extracting means for extracting patient information related to the medical treatment area from patient information of the patient;
The information processing apparatus according to claim 1, wherein the display processing unit displays the patient information extracted by the extraction unit.
前記表示処理手段は、前記患者が確認されたことを条件として、前記患者情報を表示することを特徴とする請求項1乃至7何れか1項に記載の情報処理装置。 Patient confirmation means for confirming the presence of the patient and identifying the patient;
The information processing apparatus according to claim 1, wherein the display processing unit displays the patient information on condition that the patient is confirmed.
前記患者確認手段は、前記識別情報に基づいて、前記患者の存在を確認し、かつ前記患者を識別することを特徴とする請求項8に記載の情報処理装置。 Further comprising a receiving means for receiving patient identification information from the user;
The information processing apparatus according to claim 8, wherein the patient confirmation unit confirms the presence of the patient and identifies the patient based on the identification information.
前記表示処理手段は、前記患者が確認され、かつ前記機材が確認されたことを条件として、前記患者情報を表示することを特徴とする請求項8乃至10何れか1項に記載の情報処理装置。 It further has equipment confirmation means for confirming the presence of predetermined equipment together with the patient,
The information processing apparatus according to any one of claims 8 to 10, wherein the display processing unit displays the patient information on the condition that the patient is confirmed and the equipment is confirmed. .
前記表示処理手段は、前記キーワードが認識されたことを条件として、前記患者情報を表示することを特徴とする請求項1乃至7何れか1項に記載の情報処理装置。 It further has a keyword recognition means for recognizing a predetermined keyword,
The information processing apparatus according to claim 1, wherein the display processing unit displays the patient information on condition that the keyword is recognized.
前記部位の撮影画像における部位位置を特定する位置特定手段と、
前記部位特定手段により特定された部位に関する患者情報を、前記撮影画像上の前記部位位置に関連付けて、前記撮影画像上に重畳して表示手段に表示する表示処理手段と
を有することを特徴とする情報処理装置。 Based on the patient's image captured by the imaging means, a part specifying means for specifying the patient's part;
Position specifying means for specifying a part position in a captured image of the part;
And display processing means for displaying on the display means the patient information related to the part specified by the part specifying means in association with the position of the part on the photographed image and superimposed on the photographed image. Information processing device.
前記部位の現実空間における部位位置を特定する位置特定手段と、
前記部位特定手段により特定された部位に関する患者情報を、前記表示手段と前記撮影手段の位置関係に基づいて、前記現実空間の前記部位位置に対応する表示手段の位置に関連付けて、前記表示手段に表示する表示処理手段と
を有することを特徴とする情報処理システム。 A part specifying means for specifying the part of the patient based on a photographed image of the patient taken by the photographing means;
Position specifying means for specifying a part position in the real space of the part;
Patient information related to the part specified by the part specifying means is associated with the position of the display means corresponding to the part position in the real space based on the positional relationship between the display means and the imaging means, and is displayed on the display means. An information processing system comprising display processing means for displaying.
前記部位の撮影画像における部位位置を特定する位置特定手段と、
前記部位特定手段により特定された部位に関する患者情報を、前記撮影画像上の前記部位位置に関連付けて、前記撮影画像上に重畳して表示手段に表示する表示処理手段と
を有することを特徴とする情報処理システム。 Based on the patient's image captured by the imaging means, a part specifying means for specifying the patient's part;
Position specifying means for specifying a part position in a captured image of the part;
And display processing means for displaying on the display means the patient information related to the part specified by the part specifying means in association with the position of the part on the photographed image and superimposed on the photographed image. Information processing system.
撮影手段により撮影された、患者の撮影画像に基づいて、前記患者の部位を特定する部位特定ステップと、
前記部位の現実空間における部位位置を特定する位置特定ステップと、
前記部位特定ステップにおいて特定された部位に関する患者情報を、前記表示手段と前記撮影手段の位置関係に基づいて、前記現実空間の前記部位位置に対応する表示手段の位置に関連付けて、前記表示手段に表示する表示処理ステップと
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
A part specifying step for specifying a part of the patient based on a photographed image of the patient photographed by the photographing means;
A position specifying step of specifying a position of the part in the real space;
Patient information related to the part specified in the part specifying step is associated with the position of the display unit corresponding to the part position in the real space based on the positional relationship between the display unit and the imaging unit, and is displayed on the display unit. A display processing step of displaying the information processing method.
撮影手段により撮影された患者の撮影画像に基づいて、前記患者の部位を特定する部位特定ステップと、
前記部位の撮影画像における部位位置を特定する位置特定ステップと、
前記部位特定ステップにおいて特定された部位に関する患者情報を、前記撮影画像上の前記部位位置に関連付けて、前記撮影画像上に重畳して表示手段に表示する表示処理ステップと
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
A part specifying step for specifying a part of the patient based on a photographed image of the patient photographed by the photographing means;
A position specifying step for specifying the position of the part in the captured image of the part;
A display processing step of displaying on the display means the patient information related to the part specified in the part specifying step in association with the part position on the captured image and superimposed on the captured image. Information processing method.
撮影手段により撮影された、患者の撮影画像に基づいて、前記患者の部位を特定する部位特定手段と、
前記部位の現実空間における部位位置を特定する位置特定手段と、
前記部位特定手段により特定された部位に関する患者情報を、前記表示手段と前記撮影手段の位置関係に基づいて、前記現実空間の前記部位位置に対応する表示手段の位置に関連付けて、前記表示手段に表示する表示処理手段と
として機能させるためのプログラム。 Computer
A part specifying means for specifying the part of the patient based on a photographed image of the patient taken by the photographing means;
Position specifying means for specifying a part position in the real space of the part;
Patient information related to the part specified by the part specifying means is associated with the position of the display means corresponding to the part position in the real space based on the positional relationship between the display means and the imaging means, and is displayed on the display means. A program for functioning as display processing means for displaying.
撮影手段により撮影された患者の撮影画像に基づいて、前記患者の部位を特定する部位特定手段と、
前記部位の撮影画像における部位位置を特定する位置特定手段と、
前記部位特定手段により特定された部位に関する患者情報を、前記撮影画像上の前記部位位置に関連付けて、前記撮影画像上に重畳して表示手段に表示する表示処理手段と
として機能させるためのプログラム。 Computer
Based on the patient's image captured by the imaging means, a part specifying means for specifying the patient's part;
Position specifying means for specifying a part position in a captured image of the part;
A program for functioning as display processing means for displaying patient information on a part specified by the part specifying means in association with the position of the part on the photographed image and superimposed on the photographed image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015131682A JP2017016347A (en) | 2015-06-30 | 2015-06-30 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015131682A JP2017016347A (en) | 2015-06-30 | 2015-06-30 | Information processing device, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017016347A true JP2017016347A (en) | 2017-01-19 |
Family
ID=57830729
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015131682A Pending JP2017016347A (en) | 2015-06-30 | 2015-06-30 | Information processing device, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017016347A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018136834A (en) * | 2017-02-23 | 2018-08-30 | キヤノンメディカルシステムズ株式会社 | Hospital information system and program thereof |
| JP2021520551A (en) * | 2018-04-27 | 2021-08-19 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Presentation of augmented reality associated with the patient's medical condition and / or treatment |
-
2015
- 2015-06-30 JP JP2015131682A patent/JP2017016347A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018136834A (en) * | 2017-02-23 | 2018-08-30 | キヤノンメディカルシステムズ株式会社 | Hospital information system and program thereof |
| JP2021520551A (en) * | 2018-04-27 | 2021-08-19 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Presentation of augmented reality associated with the patient's medical condition and / or treatment |
| JP7300802B2 (en) | 2018-04-27 | 2023-06-30 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Augmented reality presentations associated with patient medical conditions and/or treatments |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11004554B2 (en) | Method and apparatus for identification | |
| US10839956B2 (en) | Universal device and method to integrate diagnostic testing into treatment in real-time | |
| JP7292878B2 (en) | Medical record system using patient avatars | |
| US8194956B2 (en) | Medical imaging system and related methods | |
| US10810758B2 (en) | Method and system using augmentated reality for positioning of ECG electrodes | |
| EP4025131B1 (en) | X-ray imaging system | |
| JP5698293B2 (en) | Portable medical image display terminal and operating method thereof | |
| JP6195336B2 (en) | Imaging apparatus, authentication method, and program | |
| JP2009045131A (en) | Medical information processing system, medical information processing method, and program | |
| JP2017016347A (en) | Information processing device, information processing method, and program | |
| US11670013B2 (en) | Methods, systems, and computing platforms for photograph overlaying utilizing anatomic body mapping | |
| CN113811954A (en) | Storing and presenting audio and/or visual content of a user | |
| CN114996764B (en) | Information sharing method and device based on desensitization data | |
| WO2014104357A1 (en) | Motion information processing system, motion information processing device and medical image diagnosis device | |
| JP2012200292A (en) | Medical information management system | |
| JP4736040B2 (en) | Human body internal information projection system | |
| JP6411041B2 (en) | MEDICAL IMAGE DIAGNOSIS DEVICE, MEDICAL INFORMATION PROVIDING METHOD, AND MEDICAL INFORMATION PROVIDING SYSTEM | |
| JP7159001B2 (en) | Medical information processing device and medical information processing system | |
| JP2015138457A (en) | Information processing apparatus, information processing method, and program | |
| CN120077442A (en) | Method, computer readable medium and computer program for assisting a first user in capturing a digital image of a transparent wound dressing and for assisting a second user in viewing the digital image of the transparent wound dressing | |
| CN121370142A (en) | Body position identification method, system and equipment | |
| JP2015198785A (en) | Diagnosis support device, diagnosis support method and program | |
| JP2015039615A (en) | Medical image processor and medical image display system | |
| TW201220106A (en) | Projection apparatus applicable to electronic patient record and method thereof | |
| CN105354340A (en) | Method for retrieving medical images |