JP6661110B2 - Auscultation system - Google Patents
Auscultation system Download PDFInfo
- Publication number
- JP6661110B2 JP6661110B2 JP2016020021A JP2016020021A JP6661110B2 JP 6661110 B2 JP6661110 B2 JP 6661110B2 JP 2016020021 A JP2016020021 A JP 2016020021A JP 2016020021 A JP2016020021 A JP 2016020021A JP 6661110 B2 JP6661110 B2 JP 6661110B2
- Authority
- JP
- Japan
- Prior art keywords
- stethoscope
- data
- auscultation
- camera
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002555 auscultation Methods 0.000 title claims description 121
- 238000012545 processing Methods 0.000 claims description 64
- 238000005259 measurement Methods 0.000 claims description 28
- 208000037656 Respiratory Sounds Diseases 0.000 claims description 5
- 230000003187 abdominal effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 17
- 201000010099 disease Diseases 0.000 description 14
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003434 inspiratory effect Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000000241 respiratory effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 208000023504 respiratory system disease Diseases 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、例えば聴診のトレーニングの際に利用される聴診システムに関する。 The present invention relates to an auscultation system used for auscultation training, for example.
医師を目指す医学生、看護師を目指す看護学生などの実習生は、聴診のスキルを修得しなければならない。そのための技術として、マネキン、教育用聴診システムなどが開発されている(例えば特許文献1乃至5)。
Apprentices, such as medical students who become doctors and nursing students who become nurses, must acquire auscultation skills. Mannequins, educational auscultation systems, and the like have been developed as techniques for that purpose (for example,
特許文献1は聴診教育用装置を開示ており、その聴診教育用装置では、人体の上半身を模して形成された人体モデルと、人体モデルに対して模擬的に聴診動作を行うための模擬聴診器と、模擬聴診器による聴診動作を検知する聴診検知センサと、模擬聴診器及び聴診検知センサとそれぞれ接続された制御部とを備えており、制御部が聴診動作を検知した聴診検知センサから送出される検知シグナルを受け付け、模擬聴診器の耳管部に設けられた生体音再生部から、検知シグナルに対応する聴診位置の心音及び呼吸音などの生体音を再生させている。
特許文献2では、ウェットスーツタイプの装着具本体3の全面に面接触型圧力センサを埋設しておき、各面接触型圧力センサが接触位置及び接触圧力を検出することで、センサ信号を出力し、聴診動作を認識及び把握を可能にしている。
In
特許文献3は聴診訓練装置を開示しており、その聴診訓練装置では、マネキンに対して聴診装置の位置を検出するための手段を含む医療用訓練マネキンと、相対的な位置を検出するための手段と電子的な通信状態にある制御器と、制御器と電子的な通信状態にある聴診訓練音データベースと、そのデータベースから伝えられる音ファイルを音波信号に変換する音発生装置と、その音発生装置からの音波信号を人間の耳に送信するように適合された耳ピースを有する聴診装置と、を備えている。医療用訓練マネキンにおいて聴診装置の位置を検出するための手段としては、マネキンに近接した聴診装置の相対的な位置を求めるように適合された近接スイッチを少なくとも一つ配列した形態、聴診装置に配列された少なくとも一つの送信器ビーコンとマネキン上に配置された少なくとも二つ以上の受信器を含む三角測量システムを用いる形態が開示されている。 Patent Document 3 discloses an auscultation training device, in which a medical training mannequin including means for detecting the position of the auscultation device with respect to the mannequin, and a device for detecting a relative position. A controller in electronic communication with the means, an auscultation training sound database in electronic communication with the controller, a sound generator for converting a sound file transmitted from the database to a sound signal, and the sound generation An auscultation device having an earpiece adapted to transmit sound wave signals from the device to a human ear. Means for detecting the position of the auscultation device in a medical training manikin include a configuration in which at least one proximity switch adapted to determine the relative position of the auscultation device proximate to the manikin is arranged; An embodiment is disclosed using a triangulation system that includes at least one transmitter beacon configured and at least two or more receivers located on a mannequin.
特許文献4は聴覚トレーニングシステムを開示しており、そのシステムでは、実習生が模擬的に聴診動作を行うために使用する模擬聴診器と、模擬聴診器の採音部の位置を検出する位置検知手段と、模擬患者に対して呼吸タイミングを提示する呼吸タイミング提示手段と、生体音データベースを内蔵し、模擬聴診器の位置に応じて適切な生体音を生成する制御手段と、制御手段で生成した生体音を無線通信により送信する送信部を備えて構成されている。ここで、採音部は、機械的スイッチを配した当接検知手段と、採音部の上面である聴診面の裏面に取着され採音部が体表に当接した時に赤外線光を発する位置表示手段と有して構成する。一方、位置検知手段は、位置表示手段の位置を検知するために、赤外線記録が可能な二次元CCDカメラが利用される。このような構成により、当接検知手段は、採音部の模擬患者体表に対する当接状態を検知し、採音部が模擬患者の体表へ当接している状態でのみ発光するので、位置検知手段がその発光を検知する。 Patent Literature 4 discloses an auditory training system. In this system, a simulated stethoscope used by a trainee to perform a simulated auscultation operation, and position detection for detecting a position of a sound collecting unit of the simulated stethoscope are disclosed. Means, a respiratory timing presenting means for presenting respiratory timing to the simulated patient, a control means for incorporating a body sound database, and generating an appropriate body sound according to the position of the simulated stethoscope, and a control means It is configured to include a transmission unit that transmits body sounds by wireless communication. Here, the sound pickup unit emits infrared light when the sound pickup unit is attached to the back surface of the auscultation surface, which is the upper surface of the sound pickup unit, and is in contact with the body surface, and a contact detection unit provided with a mechanical switch. It comprises a position display means. On the other hand, as the position detecting means, a two-dimensional CCD camera capable of infrared recording is used to detect the position of the position displaying means. With such a configuration, the contact detection unit detects the contact state of the sound pickup unit with the simulated patient body surface, and emits light only when the sound pickup unit is in contact with the simulated patient body surface. The detecting means detects the light emission.
特許文献5では、医学的容態をシミュレートして医学トレーニングを容易に実現するシステムについて開示されており、そのシステムでは、移動式であるように形成されたローミングデバイスと、ローミングデバイスの位置情報を決定するように構成されたポジショニングデバイスと、位置情報を受け取り位置情報の領域の既定セットと比較しかつ位置情報が領域の既定セットと一致する場合に医学的様態を示す情報を送信するように構成されたコンピューティングデバイスを備えている。ローミングデバイスの位置はポジショニングデバイスにより決定され、そのために磁気追跡システム、光学的追跡システム、センサデバイスの何れかが使用される。 Patent Literature 5 discloses a system that simulates a medical condition and facilitates medical training. In the system, a roaming device that is formed to be mobile and position information of the roaming device are disclosed. A positioning device configured to determine and configured to receive the location information, compare the location information with a predefined set of regions of location information, and transmit information indicative of a medical condition when the location information matches the predefined set of regions. Computing device. The position of the roaming device is determined by the positioning device, for which a magnetic tracking system, an optical tracking system or a sensor device is used.
特許文献1乃至4のように、聴診スキルを修得するために利用されるマネキンや疑似聴診器はセンサを装着しており、実習生がそのセンサに接触して、その場所を特定しているので、正確な接触位置を求めることができる。しかしながら、そのようなマネキンや疑似聴診器の類は高価であるのみならず、体型の違いによる聴診器を当てる位置の変更に対応できない。特許文献5では、ローミングデバイスの位置を三次元的に取得し、デバイスと被験者の接触を位置情報から判定するように設計されているが、接触の判定を位置情報から判定することが極めて精度が求められ誤判定が多発するという課題があると、特許文献4では述べている。また、特許文献1乃至5のいずれも、呼吸に伴う体動の変化に応じて呼気音と排気音を発生することは出来ない。
As in
そこで、本発明は、出来るだけ安価で聴診スキルを取得できるような聴診システムを提供することを目的とする。 Therefore, an object of the present invention is to provide an auscultation system capable of acquiring auscultation skills at as low a cost as possible.
本発明のコンセプトは以下のとおりである。
[1] 聴診器を用いて聴診される人物に向けて配置されるカメラと、
前記カメラにより作成された人物の像に関する画像データから、当該人物の骨格フレームを推定し、当該聴診器が当てられるべき位置を推定すると共に、前記カメラにより作成された聴診器を含む像に関する画像データから前記聴診器の位置を追跡し、該聴診器が身体の表面に当てられたか否かを判断する処理部と、
を備える、聴診システム。
[2] 前記処理部は、前記聴診器の位置を追跡し、前記カメラの位置を原点として、前記骨格フレームのうちの両肩及び両腰の座標データと前記聴診器の座標データとを求め、前記聴診器が両肩及び両腰の位置から一定の範囲内にあるか否かにより前記聴診器が身体の表面に当てられたか否かを判断する、前記[1]に記載の聴診システム。
[3] 前記処理部は、前記聴診器の位置を追跡し、前記骨格フレームのうちの両肩及び両腰の前記カメラの位置からの距離データと前記聴診器の前記カメラの位置からの距離データとの差が一定の範囲内に入っているか否かにより前記聴診器が身体の表面に当てられたか否かを判断する、前記[1]又は[2]に記載の聴診システム。
[4] 前記処理部は、前記聴診器の位置を追跡し、前記聴診器周りの一又は複数のポイントの前記カメラからの距離データと前記聴診器の前記カメラからの距離データとを求め、その求めた距離データを比較することにより、前記聴診器が身体の表面に当てられたか否かを判断する、前記[1]乃至[3]の何れかに記載の聴診システム。
[5] 前記処理部は、前記聴診器の位置を追跡し、前記カメラを原点として、前記聴診器周りの一又は複数のポイントの座標データと前記聴診器の座標データとを求め、その求めた座標データを比較することにより、前記聴診器が身体の表面に当てられたか否かを判断する、前記[1]乃至[4]の何れかに記載の聴診システム。
[6] 前記処理部は、前記聴診器が身体の表面に当てられた時間を測定する、前記[1]乃至[5]の何れかに記載の聴診システム。
[7] 前記処理部は、前記骨格フレームの任意の関節の座標データから体表面上の一又は複数の計測ポイントを設定し、各々の前記計測ポイントの前記カメラを原点とする座標データ、若しくは各々の前記計測ポイントの前記カメラからの距離データの時間経過に伴う変化、前記骨格フレームの両肩の座標データから両肩の上下方向への時間経過に伴う変化又は前記変化の組合せに基づき、空気を吸っているか又は空気を吐いているかを判断する、前記[1]乃至[6]の何れかに記載の聴診システム。
[8] 前記処理部は、吸気と呼気の繰り返しを1サイクル以上にわたって前記聴診器が身体に当てられたか否か判断する、前記[7]に記載の聴診システム。
[9] 呼吸音、心音、腹部音の少なくとも何れかの音を記憶した記憶部をさらに備え、
前記処理部は、骨格フレームに対する聴診器の位置に応じて前記記憶部中の音を選択して出力する、前記[1]乃至[8]の何れかに記載の聴診システム。
[10] 前記処理部は、前記記憶部に記憶した呼吸音から、空気を吸っている期間は吸気音を、空気を吐いている期間は呼気音を再生する、前記[9]に記載の聴診システム。
[11] 前記カメラが作成した画像データと前記記憶部から選択した音とを関連付けて、聴診の状況を記憶するトレーニー状況記憶部を、さらに備える、前記[9]又は[10]に記載の聴診システム。
[12] 前記処理部は、前記カメラが撮影した人物の像の上に聴診する位置を表示する、前記[1]乃至[11]の何れかに記載の聴診システム。
[13] 前記処理部は、前記聴診器が当てられるべき位置を、前記カメラの位置を原点とする骨格フレームのうちの両肩及び両腰の座標データから決定する、前記[1]乃至[12]の何れかに記載の聴診システム。
[14] 基準となる人物の両肩の位置データと両腰の位置データと当該人物に対する聴診位置に関するデータとを、聴診の順番の情報を特定して格納する参照データ部を備えた、前記[1]乃至[13]の何れかに記載の聴診システム。
[15] 前記処理部は、骨格フレームに対して聴診器の位置が一定時間上下左右に変化しないと判断すると、前記参照データ部と照合し、聴診の位置及び順番が正しいか否かを判断する、前記[14]に記載の聴診システム。
[16] 前記処理部は、前記参照データ部に格納された両肩の位置データ及び両腰の位置データと、人物の両肩の位置データ及び両腰の位置データとを比較して、前記参照データ部に格納された聴診位置に関するデータを校正する、前記[14]又は[15]に記載の聴診システム。
The concept of the present invention is as follows.
[1] a camera arranged toward a person to be auscultated using a stethoscope;
From the image data on the image of the person created by the camera, estimate the skeleton frame of the person, estimate the position to which the stethoscope should be applied , and image data on the image including the stethoscope created by the camera A processing unit that tracks the position of the stethoscope from and determines whether the stethoscope has been applied to the surface of the body,
A stethoscope system comprising:
[2] The processing unit tracks the position of the stethoscope, obtains coordinate data of both shoulders and both hips of the skeletal frame and coordinate data of the stethoscope, using the position of the camera as an origin, The stethoscope according to [1], wherein it is determined whether or not the stethoscope has been applied to the surface of the body based on whether or not the stethoscope is within a certain range from the positions of both shoulders and both hips.
[3] The processing unit tracks the position of the stethoscope, and distance data from the camera position of both shoulders and both hips of the skeletal frame and distance data of the stethoscope from the camera position. The auscultation system according to [1] or [2], wherein it is determined whether or not the stethoscope has been applied to the surface of the body based on whether or not the difference between the stethoscope and the stethoscope falls within a predetermined range.
[4] The processing unit tracks the position of the stethoscope, obtains distance data from the camera of one or more points around the stethoscope and distance data from the camera of the stethoscope, The auscultation system according to any of [1] to [3], wherein it is determined whether or not the stethoscope has been applied to the surface of the body by comparing the obtained distance data.
[5] The processing unit tracks the position of the stethoscope, obtains coordinate data of one or more points around the stethoscope and coordinate data of the stethoscope using the camera as the origin, and obtains the coordinate data. The auscultation system according to any of [1] to [4], wherein it is determined whether the stethoscope has been applied to the surface of the body by comparing coordinate data.
[6] The auscultation system according to any one of [1] to [5], wherein the processing unit measures a time when the stethoscope is applied to a surface of a body.
[7] The processing unit sets one or a plurality of measurement points on the body surface from the coordinate data of an arbitrary joint of the skeletal frame, and sets coordinate data of each of the measurement points with the camera as an origin, or The change over time of the distance data from the camera of the measurement point, the change over time in the vertical direction of both shoulders from the coordinate data of both shoulders of the skeletal frame, or a combination of the changes, The auscultation system according to any one of [1] to [6], wherein it is determined whether the person is inhaling or exhaling air.
[8] The stethoscope system according to [7], wherein the processing unit determines whether or not the stethoscope has been applied to the body for at least one cycle of repetition of inhalation and expiration.
[9] a storage unit that stores at least one of breath sounds, heart sounds, and abdominal sounds;
The stethoscope system according to any one of [1] to [8], wherein the processing unit selects and outputs a sound in the storage unit according to a position of the stethoscope with respect to a skeleton frame.
[10] The auscultation according to [9], wherein the processing unit reproduces, from the breath sounds stored in the storage unit, an inhalation sound during a period of inhaling air and an expiration sound during a period of exhaling air. system.
[11] The auscultation according to [9] or [10], further comprising a trainee status storage unit that stores the status of the auscultation by associating the image data created by the camera with a sound selected from the storage unit. system.
[12] The auscultation system according to any of [1] to [11], wherein the processing unit displays an auscultation position on an image of a person photographed by the camera.
[13] The processing unit determines the position to which the stethoscope should be applied from coordinate data of both shoulders and both hips of a skeleton frame whose origin is the position of the camera. ] The auscultation system according to any one of the above.
[14] The reference data section, wherein the reference data section that specifies information on the order of auscultation and stores the data on the positions of the shoulders and both hips of the reference person and the data on the auscultation position with respect to the person is stored. The auscultation system according to any one of [1] to [13].
[15] When the processing unit determines that the position of the stethoscope does not change vertically and horizontally with respect to the skeleton frame for a certain period of time, the processing unit compares the stethoscope with the reference data unit and determines whether the position and order of the auscultation are correct. Auscultation system according to [14].
[16] The processing section compares the position data of both shoulders and both hips stored in the reference data section with the position data of both shoulders and both hips of the person, The auscultation system according to [14] or [15], wherein the data relating to the auscultation position stored in the data unit is calibrated.
本発明によれば、処理部が、カメラにより作成された人物を含む像に関する画像データに基いて、当該人物の任意の部位、例えば肩、腰などを推定し、聴診器が当てられるべき位置を推定する。よって、聴診器の位置を、別途、認識又は追跡し、聴診器が当てられるべき位置と聴診器の位置とを比較し、当該人物に聴診器が適切な位置に当たっているか否かを判断することができる。従って、専用のマネキンを使用しないで、例えば学生同士、先輩後輩同士で訓練をすることができ、出来るだけ安価で聴診スキルを修得可能な聴診システムを提供することができる。 According to the present invention, the processing unit estimates an arbitrary part of the person, for example, a shoulder, a waist, etc., based on the image data on the image including the person created by the camera, and determines a position to which a stethoscope should be applied. presume. Therefore, it is possible to separately recognize or track the position of the stethoscope, compare the position where the stethoscope should be applied with the position of the stethoscope, and determine whether or not the stethoscope has hit the appropriate position for the person. it can. Therefore, without using a dedicated mannequin, for example, it is possible to train between students and seniors and juniors, and it is possible to provide an auscultation system in which auscultation skills can be acquired as inexpensively as possible.
以下、本発明を実施するための形態について詳細に説明するが、本発明の実施形態に係る聴診システムは、図面を参照して説明するものに限られることなく、ICT(Information Communication Technology)に関する技術進歩や、適用される社会や制度に応じて適宜変更されるものも含まれる。 Hereinafter, embodiments for carrying out the present invention will be described in detail. However, the auscultation system according to the embodiments of the present invention is not limited to the one described with reference to the drawings, and may be a technology relating to ICT (Information Communication Technology). It also includes those that change as appropriate depending on progress and applicable societies and institutions.
(聴診システムの構成)
図1は本発明の実施形態に係る聴診システムの構成図である。聴診システム10は、カメラ11と、処理部12と、記憶部13とを含んで構成される。
(Configuration of auscultation system)
FIG. 1 is a configuration diagram of an auscultation system according to an embodiment of the present invention. The
図2は、図1に示す聴診システムの具体的な構成を示す図である。カメラ11は、疑似患者1に対して向けられて配置される。カメラ11は、一つでも複数設けても構わない。
FIG. 2 is a diagram showing a specific configuration of the auscultation system shown in FIG. The
カメラ11は、カメラセンサとも呼ばれ、位置距離センサ14とカラーセンサ18を備えている。カラーセンサ18は、例えばRGBカラーカメラであり、通常のビデオカメラに相当し、動画像信号を画像データとして出力する。位置距離センサ14は、3D深度カメラなどの位置計測センサに相当し、画像データの指定したポイントに対する位置距離センサ14からの位置情報を出力する。位置距離センサ14は、対象に光を照射する照射部15と、対象からの反射光を受ける受光部16と、照射部15及び受光部16に接続され、照射、受光及び外部へのデータ出力に関する制御を行う制御部17と、を含んで構成される。照射部15は、赤外線レーザから発振した光を単一の照射パターンに変換し、対象物に照射する。照射パターンとしては、ランダムなドットが散りばめられた四角形などのパターンなどがある。照射パターンは対象物体に当たると歪んで、照射部からの距離が長くなると歪みが大きく広がる。受光部16は、照射部15から異なる距離の複数の照射パターンを複眼で検出する。検出した信号が制御部17に入力されて統計処理されることにより、対象物との距離、つまり深度を検出することができる。
The
位置距離センサ14は、受光部16におけるビデオの画像領域を例えば640ドット×480ドットに分解し、ドット毎に深度カメラからそのドットに対応した画像までの距離を出力する。ビデオカメラにおける画素としてのドットと位置計測センサのドットの位置関係を対応付けることによって、疑似患者1の各部位と聴診器2に対し、それぞれの位置と深度カメラからの距離とが求まる。
The
本発明の実施形態において、位置計測の手法はこれらに限定されることなく、次のような手法でもよい。すなわち、赤外線を発射し、戻ってくるまでの遅延時間から位置計測センサと任意の部位との間の距離や位置計測センサを起点とする指定位置の座標を求める方法であってもよい。 In the embodiment of the present invention, the position measurement method is not limited to these, and the following method may be used. That is, a method may be used in which the distance between the position measurement sensor and an arbitrary part or the coordinates of the designated position starting from the position measurement sensor is obtained from the delay time from when the infrared light is emitted and when the infrared light returns.
処理部12は、カメラ11により作成された人物の像に関する画像データから、当該人物の骨格フレームを推定し、聴診器2が当てられるべき位置を推定する。聴診器2が当てられるべき位置、すなわち聴診されるべき位置として、一又は複数の位置を推定する。カメラ11により作成された像は、距離データを含む画像データであることから、カメラ11の基準位置(原点)に対する疑似患者1の位置座標データと、基準位置からの距離データを有する。
The
ここで、画像データからどのように聴診器2が当てられるべき位置を推定するかについて、詳細に説明する。処理部12は、図3に示すような骨格フレームに関するデータを有している。図3は、骨格フレームについて説明するための図である。聴診は、主に人物の胸に聴診器を当てることでなされることから、骨格フレームは両肩、両腰を含むように構成される。骨格フレームの各部については、個人差があることから、少なくとも両肩と両腰の位置を特定し、両肩同士の距離、両腰同士の距離、肩と腰と距離を規定することで、当該疑似患者の骨格フレームを定めることができる。このように、個人差を吸収して正規化することができる。そのため、処理部12は、個人毎に、骨格フレームをデータとして保有する必要がなく、汎用性に富む。
Here, how to estimate the position where the
聴診器2が当てられるべき位置を推定する手法としては次のようにしてもよい。処理部12は、先ず、カメラ11からの画像データから疑似患者の体形のアウトラインを求め、関節の位置を統計的に特定する。関節の位置を統計的に特定するために、多数の人物の各姿勢パターンについての実写及び/又はコンピュータグラフィックス(CG)のデータから、距離画像群を入力して学習したRandom Decision Forestsを用い、入力される画像データの各フレームにおいて、各画素がどのパーツに属するかを識別する。その結果、パーツのうち関節のパーツに属する画素を抽出し、関節の位置を特定する。これにより、聴診器2を当てるべき位置を骨格フレーム上で推定することができる。このように推定した位置であって、聴診器2が当てられるべき位置は、カメラ11の位置を原点とし、骨格フレームのうち両肩及び両腰の座標データから定める。
A method for estimating the position where the
聴診の実習生は聴診器を疑似患者1の胸部などの各部位に当てる。処理部12は、疑似患者1と聴診器2を含む像に関する画像データから、聴診器2の位置を推定する。聴診器2の輪郭に対応した形状を含む画素群や聴診器2の色に対応した色を含む画素群を判定し、色や形状の追跡により、聴診器2の位置を推定する。当該位置は、カメラ11の位置を原点とした座標データ、その原点からの距離として求めることができる。聴診器2の位置推定には、聴診器2に付されている色に基いて色追跡の手法により、特定することができる。カラーセンサ18による像による画素で聴診器2の色や輪郭を特定しておき、聴診器2の色に適合するピクセルを選択する等の手法を用いればよい。
An auscultation trainee applies a stethoscope to each part such as the chest of the
このようにして、カメラ11で作成された画像データから骨格フレームを特定し、聴診器2が当てられるべき位置を推定し、その位置の座標データ、カメラ11からの距離データが求められる。また、カメラ11で作成された画像データから聴診器2を推定し、その位置の座標データ、カメラ11からの距離データがそれぞれ求められる。処理部12は所定の時間間隔で推定を繰り返し行い、聴診器2を追跡し、認識する。
In this way, the skeleton frame is specified from the image data created by the
その後、処理部12は、骨格フレームと聴診器2の相対的な位置及び相対的な距離を求める。これにより、処理部12は、聴診器2が一定の範囲にあるか否かを判定することができる。その一定の範囲は、聴診器2が疑似患者1に接している状態において、疑似患者1又は骨格フレームと聴診器2との相対的な位置及び距離を求め、それらの値に基いて定めておけばよい。
Thereafter, the
なお、処理部12は、聴診器2を追跡し、骨格フレームのうち、例えば両肩及び両腰の座標データと、聴診器2の座標データとを求め、聴診器が両肩及び両腰の位置から一定範囲にあるか否かにより聴診器2が身体の表面に当てられたか否かを判断してもよい。
Note that the
処理部12は、骨格フレームと聴診器2との相対的な位置及び相対的な距離データを求める際に、例えば、骨格フレームのうち両肩及び両腰の位置座標データ及び距離データと聴診器2の位置データと距離データを用いても良い。聴診器2の原点からの距離データが両肩及び両腰の原点からの距離データに対して一定の範囲(以下、「判定基準範囲」と呼ぶ。)内に入っていれば、聴診器2が身体の表面に当てられたか否か、おおよそ判断できる。ここで、判定基準範囲は多くの疑似患者に対する実験データを基に決定される。
When calculating the relative position and relative distance data between the skeletal frame and the
このように、処理部12は、聴診器2を追跡し、カメラ11の位置を原点として、骨格フレームのうちの両肩及び両腰の座標データと聴診器2の座標データとを求め、聴診器2が両肩及び両腰の位置から一定の範囲内にあるか否かにより聴診器2が身体の表面に当てられたか否かを判断する。または、処理部12は、聴診器2を追跡し、骨格フレームのうちの両肩及び両腰のカメラ11の位置からの距離データと聴診器2のカメラ11の位置からの距離データとの差が一定の範囲内に入っているか否かにより、聴診器2が身体の表面に当てられたか否かを判断する。
As described above, the
これらの方法では、両肩及び両腰の深度に対して聴診ポイントや深度は人によって異なることから、聴診器2が当たったことの判定が甘くなる。更に聴診器2が身体に当たったことをより厳密に判定する方法として、骨格フレームのうち両肩及び両腰の原点からの距離データと、聴診器2の原点からの距離データに加えて、図4及び図5に示すように、聴診器2が存在している周りに、骨格フレーム上の点を含め、測定ポイントPmeasureを設定する。聴診器2と測定ポイントの原点からの各距離データを比較する。聴診器2の距離データが両肩及び両腰の距離データに対して、上述の判定基準範囲内にあり、図4及び図5における各測定ポイントPmeasureの原点からの距離データL1から聴診器2の距離データL2を減算した値が、一定の範囲、つまり聴診器2の厚みと許容値との合計の範囲内にあれば、身体に当たっていると判断する。この方法では、聴診器2の厚みに加えたマージンが判定誤差になるだけであることから、より厳密に聴診器が身体に当たっているか否かを判断することができる。
In these methods, since the auscultation point and the depth differ for each shoulder with respect to the depth of both shoulders and both hips, the judgment that the
このように、処理部12は、聴診器2を追跡し、聴診器2の周りの一又は複数のポイントのカメラ11からの距離データと、聴診器2のカメラ11からの距離データとを求め、その求めた距離データを比較することにより、聴診器2が身体の表面に当てられたか否かを判定する。
As described above, the
以上の説明では、距離データを比較したが、カメラ11を原点として設定した座標で、疑似患者側にZ座標の正の方向を向けて三次元座標を設定し、そのZ座標同士を比較しても良い。具体的に説明すると、先ず、聴診器2が存在している周りに、骨格フレーム上の点を含め、測定ポイントPmeasureを設定する。そして、測定ポイントPmeasureの座標データと聴診器2の座標データを求める。次に、聴診器2周りのそれらのポイントの座標データと聴診器2の座標データとを比べる。その座標データのうち特にZ座標同士を比較し、ポイントのZ座標と聴診器のZ座標との差分が、聴診器の厚みとマージンとの和よりも小さければ、聴診器2が当たっていると判断する。座標データ同士を比較する際には、聴診器2周りのポイントのうち、手や腕で覆われたポイントの座標データを除いた測定ポイントの座標データと、聴診器2の座標データとを比べても良い。
In the above description, the distance data was compared. However, three-dimensional coordinates were set with the coordinates set with the
このように、処理部12は、聴診器2を追跡し、カメラ11を原点として、聴診器2周りの一又は複数のポイントの座標データと、聴診器2の座標データとを求め、その求めた座標データを比較することにより、聴診器2が身体の表面に当てられたか否かを判断する。
As described above, the
聴診器2が身体の表面に当たっているか否かを判定する方法は、上述した一つに限らず、複数を兼用してもよい。また、この判定を非常に短い所定の間隔で繰り返すことにより、聴診器3が身体の表面に当たっている時点が分かるので、当たっている時点が連続している場合には、処理部12は、聴診器2が身体の表面に当てられた時間を測定することができる。
The method of determining whether or not the
このように、距離データを生成できるカメラ11と処理部12とを用いて、疑似患者1の骨格フレームを推定し、聴診器2と骨格フレームとの相対的な位置及び深さ(距離)を求めることで、どのような聴診器2であっても、疑似患者1に聴診器2を当てているか否かを求めることができ、汎用性の高い聴診システム10を提供することができる。
As described above, the skeleton frame of the
処理部12は、図5に示すように、両肩に加えて胸部及び腹部に一又は複数の計測ポイント(「測定ポイント」と呼んでもよい。)を設定し、それぞれについて位置データ及び距離データを測定し、両肩の上下方向への変化及び新たに設定した計測ポイントの距離データ(「深度データ」と呼んでもよい。)の変化から空気を吸っている状態(吸気)か吐いているか状態(呼気)を判定する。
As shown in FIG. 5, the
具体的には、処理部12は、骨格フレームの任意の関節の座標データから体表面上の一又は複数の計測ポイントを設定し、各々の計測ポイントのカメラ11を原点とする座標データの時間経過に伴う変化、各々の計測ポイントのカメラ11からの距離データの時間経過に伴う変化、骨格フレームの両肩の座標データから両肩の上下方向への時間経過に伴う変化、の何れか一つ以上を求める。空気を吸っている場合と、空気を吐いている場合には、体表のポイントの動きは逆になるので、これらの何れかの変化又はこれらの変化の組合せに基いて、吸気の状態か呼気の何れの状態であるかを判断することができる。
Specifically, the
図7は、聴診のトレーニング状況を説明するための説明図である。図7に示すように、疑似患者1が着座していることで、処理部12はカメラ11からの画像データを処理することによって、左肩L1、右肩R1、左腰L2、右腰R2の位置を推定し、図3に示す骨格フレームを推定することができる。そして、図5に示すように、疑似患者1と聴診器2との位置関係を深さ方向に推定することができ、聴診器2が疑似患者1に当接しているか否かを判断することができる。
FIG. 7 is an explanatory diagram for explaining the training status of auscultation. As shown in FIG. 7, when the
聴診器2が疑似患者1に当接しているか否かの判断は、次のようにしてもよい。骨格フレームと聴診器2との相対的な位置及び相対的な距離データを求める際に、例えば、骨格フレームのうち両肩及び両腰の位置座標データ及び距離データと聴診器2の位置データと距離データを用いても良い。聴診器2の原点からの距離データが、両肩及び両腰の原点からの距離データに対して、判定基準範囲内に入っていれば、聴診器2が身体の表面に当てられたか否か、おおよそ判断できる。
The determination as to whether the
また、骨格フレームのうち両肩及び両腰の原点からの距離データと、聴診器2の原点からの距離データと、骨格フレームのち聴診器2が存在している周りに設定した測定ポイントの距離データと、を比較する。つまり、聴診器2と測定ポイントの各距離データを比較する。聴診器2の距離データが両肩及び両腰の距離データに対して、上述の判定基準範囲内であって、かつ図5に示す各測定ポイントの原点からの距離データから聴診器2の距離データを減算した値が、聴診器2の厚みと許容との合計の範囲内にあれば、身体に当たっていると判断する。
In addition, distance data from the origin of both shoulders and both hips of the skeletal frame, distance data from the origin of the
このような聴診システム10は、更に、付加価値を持たせるために、次の手段を設けておいても良い。
処理部12は、疑似患者1に聴診器2が当たっているか否かを判定する際、一定の時間聴診器2がその位置に留まっているか否かを判断するようにしてもよい。これは、聴診器2が疑似患者1に当たっている際には、疑似患者1の呼吸によって胸のふくらみが変化しても、聴診器2は上下左右に変化し難いからである。
When determining whether or not the
聴診システム10は、呼吸音、心音、腹部音の少なくとも何れか又は複数の音を記憶した記憶部13を備える。記憶部13は、聴診器2が骨格フレームに対してどの位置にあれば、聴診器2によって採音することができるのかについて関係付けて記憶しておく。これに対応し、処理部12は、聴診器2が疑似患者1のどの部位に接触しているかに応じて、疑似音を出力することができる。
The
聴診システム10では、処理部12が、両肩、胸部及び腹部に、一又は複数の計測ポイントを設定しておき、各計測ポイントについての原点からの位置データ及び距離データを測定し、両肩の上下方向への変化および新たに設定した測定ポイントの距離データの変化から空気を吸っている状態(吸気)か吐いているか状態(呼気)を判定する。すると、処理部12は、聴診システム10の記憶部13から選択した呼吸音を用いて、検出した吸気タイミングで吸気音を、呼気タイミングで呼気音を出力する。これにより、疑似患者1の呼吸の状態に応じて吸気音と排気音を再生でき、よりリアリティある実習が可能となる。その際、吸気と呼気の繰り返しを1サイクル以上にわたって聴診器2が身体に当てられたか否か判断すると好適である。
In the
聴診システム10は、実習生にトレーニング状況を知らせるために、スピーカー19と、モニターなどの表示部20とを備える。処理部12は、カメラ11のカラーセンサ18からの画像データを表示部20に出力表示する。処理部12は、カメラ11が撮影した人物の像の上に、聴診する位置を表示しながら、疑似患者1に対して聴診器2が当たっていて、採音されるべき音を記憶部13から選択してスピーカー19により音声出力することができる。これにより、よりリアルな聴診トレーニングを提供することができる。
The
聴診システム10はトレーニー状況記憶部21を備えており、トレーニー状況記憶部21は、カメラ11が作成した画像データと記憶部13から選択した音とを関連付けて、聴診のトレーニング状況を記憶する。これにより、実習生がどの程度のトレーニングを行って、スキルを取得したかの履歴データを記録することができる。この記録は、他の実習生のトレーニングプログラムを立てる際にも役立てることができる。
The
聴診システム10は参照データ部22を備えており、参照データ部22が、基準となる人物の両肩の位置データと、両腰の位置データと、当該人物に対する適切な聴診位置に関するデータと、聴診の順番に関する情報を格納している。よって、処理部12は、骨格フレームに対して聴診器が一定時間上下左右に変化しないと判断すると、参照データ部22のデータと照合し、聴診の位置及び順番が正しいか否かを判断する。判断結果は表示部20に表示される。これにより、より適切なトレーニングをすることができる。
The
聴診システム10において、処理部12が、疑似患者の画像上に、参照データ部22から基準となる人物の両肩及び両腰の位置データを取り出し、疑似患者の両肩及び両腰の位置データを比較することで、基準となる人物に対して設計した標準聴診ポイントの位置データを校正し、疑似患者の画像上に表示する。表示された各点に聴診器を当てることで、患者の体格に関係なく適切なポイントにおける疾患別の音を聞くことができる。
In the
聴診システム10は、処理部12において、アクセスを受ける際に入力された個人認証データと聴診の位置及び順番が正しいか否かを判断したデータを、学習データとして、個人別に処理する。このことについて、図1に示す聴診システム10の使用方法を説明しながら説明する。
In the
事前準備として、基準となる人物を男女別に選択し、それぞれについて、図7に示すように、両肩L1,R1の位置データと両腰L2,R2の位置データと適切な聴診ポイントの位置を参照データ部22に記憶させる。また、記憶部13に聴診ポイント別に疾患音を記憶させる。
As advance preparation, a reference person is selected for each man and woman, and for each, as shown in FIG. 7, reference is made to the position data of both shoulders L1 and R1, the position data of both hips L2 and R2, and the appropriate auscultation point position. The data is stored in the
(聴診システムを利用した学習その1:学習)
聴診システム10を利用して、疾患別に各聴診ポイントの音を学習する態様について説明する。
(Learning using auscultation system Part 1: Learning)
An aspect in which the sound of each auscultation point is learned for each disease using the
先ず、実習生は、図示しない入力部から、IDとパスワードを入力するなどして聴診システム10にログインする(Step1)。
First, the trainee logs in to the
次に、聴診システム10において、図示しない入力部から、学習モードの選択をし、正常を含めた疾患の中から学習したい疾患を選択する(Step2)。疑似患者1の横に配置された図示しないディスプレイ上に、処理部12からの制御で表示された疑似患者上の聴診ポイントを1から順に聴診器2を当てていく(Step3)。すると、処理部12はカメラ11からの画像データを処理し、聴診器2が疑似患者1の体表に当たっているか否かを判別し、当たっていると判断すると、処理部12は記憶部13に記録されている音を疾患別かつポイント別に再生する(Step4)。
Next, in the
呼吸に関する疾患の場合、聴診システム10は疑似患者1の吸気状態と呼気状態を判断し、各状態に対して吸気音又は呼気音を再生する。
In the case of a disease relating to respiration, the
次に、実習生は、学習したい別の疾患を選択し、Step3以降を繰り返す。
実習生は、実習が終了すると、ログアウトする。
Next, the trainee selects another disease to be learned, and repeats Step 3 and subsequent steps.
The apprentice logs out after the apprenticeship is completed.
(聴診システムを利用した学習その2:テスト)
実習生は上記学習その1で学習した後に、実習生が聴診スキルを修得したか否かを確認することができる。
先ず、実習生は、図示しない入力部から、IDとパスワードを入力するなどして聴診システム10にログインする(Step11)。
次に、実習生は、テストモードを選択する(Step12)。それに伴い、聴診システム10は、ランダムに疾患を選択し、聴診器2が当てられたポイントに近い適正ポイントの音を再生する(Step13)。
実習生は、学習モードで学習したポイントに聴診器2を順次当てていく(Step14)。全て当て終えたら、聴診システム10の入力部に対して完了の指示を入力し、回答の指示を入力する(Step15)。すると、プルダウン形式で表示された疾患の中から正しいと思われる疾患を選択する(Step16)。
その後、聴診システム10はStep13に戻り、疾患を変更して、テストを繰り返す。
実習生は、テストを終了するときは入力部の学習終了ボタンを押す。
(Learning using auscultation system part 2: test)
After learning in the first learning, the trainee can confirm whether the trainee has acquired auscultation skills.
First, the trainee logs in to the
Next, the trainee selects a test mode (Step 12). Accordingly, the
The trainee sequentially applies the
Thereafter, the
The trainee presses the learning end button on the input unit to end the test.
(聴診システムを利用した学習その3:学習ログの返却)
学習終了ボタンが押されたら、聴診システム10は、疾患に関する回答と正解、聴診の順序の正誤を、表形式に編集し、例えば紙媒体に印刷するなどして渡す。表形式に編集する際には、呼吸器系疾患を想定している場合には吸気と呼気の1周期以上に渡って聴診器2を当てていたか否かの結果が分かるようにする。その後、実習生は聴診システム10からログアウトする。
(Study using auscultation system 3: Return of study log)
When the learning end button is pressed, the
(教員へのレポート)
教員は、聴診システム10にログインし、聴診システム10は、教員が選択した実習生別に、学習完了した疾患、正誤ログを、表示する。その際、表形式で実習生の一覧で表示してもよい。
(Report to faculty members)
The instructor logs in to the
聴診システム10はこのように使用されることにより、実習生は、同僚、学生同士、先輩後輩同士で、聴診のトレーニングをすることができる。また、教員も指導可能となる。
By using the
1:疑似患者
2:聴診器
10:聴診システム
11:カメラ
12:処理部
13:記憶部
14:位置距離センサ
15:照射部
16:受光部
17:制御部
18:カラーセンサ
19:スピーカー
20:表示部
21:トレーニー状況記憶部
22:参照データ部
1: pseudo patient 2: stethoscope 10: auscultation system 11: camera 12: processing unit 13: storage unit 14: position distance sensor 15: irradiation unit 16: light receiving unit 17: control unit 18: color sensor 19: speaker 20: display Unit 21: trainee status storage unit 22: reference data unit
Claims (16)
前記カメラにより作成された人物の像に関する画像データから、当該人物の骨格フレームを推定し、当該聴診器が当てられるべき位置を推定すると共に、前記カメラにより作成された前記聴診器を含む像に関する画像データから前記聴診器の位置を追跡し、該聴診器が身体の表面に当てられたか否かを判断する処理部と、
を備える、聴診システム。 A camera placed toward the person to be auscultated using a stethoscope,
From the image data on the image of the person created by the camera, estimate the skeletal frame of the person, estimate the position to which the stethoscope should be applied , and an image on the image including the stethoscope created by the camera A processing unit that tracks the position of the stethoscope from data and determines whether the stethoscope has been applied to the surface of the body;
A stethoscope system comprising:
前記処理部は、骨格フレームに対する聴診器の位置に応じて前記記憶部中の音を選択して出力する、請求項1乃至8の何れかに記載の聴診システム。 A breathing sound, a heart sound, a storage unit that stores at least one of abdominal sounds,
The stethoscope system according to claim 1, wherein the processing unit selects and outputs a sound in the storage unit according to a position of the stethoscope with respect to a skeleton frame.
空気を吐いている期間は呼気音を再生する、請求項9に記載の聴診システム。 The processing unit, from the breathing sound stored in the storage unit, the inhalation sound during the period of inhaling air,
The auscultation system according to claim 9, wherein a breath sound is reproduced during a period in which the air is exhaled.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016020021A JP6661110B2 (en) | 2016-02-04 | 2016-02-04 | Auscultation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016020021A JP6661110B2 (en) | 2016-02-04 | 2016-02-04 | Auscultation system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017136248A JP2017136248A (en) | 2017-08-10 |
| JP6661110B2 true JP6661110B2 (en) | 2020-03-11 |
Family
ID=59564501
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016020021A Active JP6661110B2 (en) | 2016-02-04 | 2016-02-04 | Auscultation system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6661110B2 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102519991B1 (en) * | 2020-12-17 | 2023-04-11 | (주)스마트큐브 | Apparatus for enhancing human organs and corresponding auscultation sound, and method therefor |
| WO2023074823A1 (en) * | 2021-10-28 | 2023-05-04 | テルモ株式会社 | Heart sound acquisition device, heart sound acquisition system, heart sound acquisition method, and program |
| JP7655575B2 (en) * | 2023-03-15 | 2025-04-02 | 株式会社テレメディカ | Auscultation evaluation system and auscultation training evaluation method |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7052467B2 (en) * | 2002-10-04 | 2006-05-30 | Shawn D. Johnson | Stethoscopic systems and methods |
| JP3829197B2 (en) * | 2003-08-28 | 2006-10-04 | 国立大学法人岐阜大学 | Auscultation education equipment |
| WO2006047400A2 (en) * | 2004-10-25 | 2006-05-04 | Eastern Virginia Medical School | System, method and medium for simulating normal and abnormal medical conditions |
| US9067080B2 (en) * | 2009-03-16 | 2015-06-30 | Gilad Einy | Method and apparatus of remotely-operated automated external defribrallator incorporated into a handheld device |
| JP5754708B2 (en) * | 2011-05-26 | 2015-07-29 | 国立大学法人 千葉大学 | Auscultation training system and simulated stethoscope |
| US9180288B2 (en) * | 2011-09-01 | 2015-11-10 | Zoll Medical Corporation | Medical equipment electrodes |
| US20150230751A1 (en) * | 2011-12-13 | 2015-08-20 | Sharp Kabushiki Kaisha | Information management apparatus, information management method, information management system, stethoscope, information management program, measurement system, control program, and recording medium |
| JP2014008096A (en) * | 2012-06-27 | 2014-01-20 | Sharp Corp | Electronic stethoscope, electronic auscultation system, information processing method, control program, and recording medium |
| WO2014042121A1 (en) * | 2012-09-12 | 2014-03-20 | 独立行政法人産業技術総合研究所 | Movement evaluation device and program therefor |
| JP6162517B2 (en) * | 2013-07-18 | 2017-07-12 | 東芝メディカルシステムズ株式会社 | Position determination support apparatus and medical image diagnostic apparatus |
-
2016
- 2016-02-04 JP JP2016020021A patent/JP6661110B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2017136248A (en) | 2017-08-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5754708B2 (en) | Auscultation training system and simulated stethoscope | |
| US8282481B2 (en) | System and method for cyber training of martial art on network | |
| TWI508034B (en) | Cpr teaching system and method | |
| EP2451339B1 (en) | Performance testing and/or training | |
| CA2586736C (en) | System, method and medium for simulating normal and abnormal medical conditions | |
| JP6124308B2 (en) | Operation evaluation apparatus and program thereof | |
| CN103099602A (en) | Constitution detecting method and constitution detecting system based on optical identification | |
| KR102191027B1 (en) | Cardiopulmonary resuscitation training system based on virtual reality | |
| CN111539245B (en) | CPR (CPR) technology training evaluation method based on virtual environment | |
| JP6661110B2 (en) | Auscultation system | |
| JP2020174910A (en) | Exercise support system | |
| WO2020084667A1 (en) | Recognition method, recognition program, recognition device, learning method, learning program, and learning device | |
| US20100166269A1 (en) | Automatic body silhouette matching for remote auscultation | |
| CN114821016A (en) | Unmanned automatic intelligent body measurement equipment and intelligent body measurement method thereof | |
| CN116153510B (en) | Correction mirror control method, device, equipment, storage medium and intelligent correction mirror | |
| CN109308822A (en) | A dance teaching interactive experience method and system | |
| CN116510271A (en) | Intelligent auxiliary training and assessment system for Taiji boxing | |
| KR20180097343A (en) | System for training of CPR(cardiopulmonary resuscitation) | |
| Beacon et al. | Assessing the suitability of Kinect for measuring the impact of a week-long Feldenkrais method workshop on pianists’ posture and movement | |
| TW200939137A (en) | System and method for human motion learning and feed back | |
| KR20180097334A (en) | Simulation method for training of CPR(cardiopulmonary resuscitation) | |
| US20220406206A1 (en) | Recording medium recorded with cardiopulmonary resuscitation training program, cardiopulmonary resuscitation training method, apparatus, and system | |
| Fasko et al. | Towards human activity recognition and objective performance assessment in human patient simulation: A case study | |
| CN117959140A (en) | Motion guiding method, controller, training device, program product and medium | |
| KR20140013662A (en) | Device and method for calibration |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190201 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190522 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190729 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191211 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200121 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6661110 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |