JP2016170362A - 手術トレーニングプログラム及び手術トレーニングシステム - Google Patents
手術トレーニングプログラム及び手術トレーニングシステム Download PDFInfo
- Publication number
- JP2016170362A JP2016170362A JP2015051522A JP2015051522A JP2016170362A JP 2016170362 A JP2016170362 A JP 2016170362A JP 2015051522 A JP2015051522 A JP 2015051522A JP 2015051522 A JP2015051522 A JP 2015051522A JP 2016170362 A JP2016170362 A JP 2016170362A
- Authority
- JP
- Japan
- Prior art keywords
- skill
- surgical
- surgical instrument
- procedure
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
前記表示手順において、前記複数の技量指標とともに技量指標の目標値をレーダーチャートに表示させると好ましい。
術者が操作する術具に関する情報を含む入力画像情報に基づいて術具の位置に関する術具位置情報を算出する術具位置算出手順と、術具位置算出手順により算出した術具位置に基づいて技量指標を算出する技量指標算出手順と、前記技量指標算出手順により算出した技量指標に基づいて各術者の技量の類似度を算出するクラスタリング手順と、クラスタリング手順により算出した各術者の技量の類似度に関する情報を表示装置に表示させる手順とを実行させるものとした。
本実施例で提案するトレーニングシステムを図1に示す。本トレーニング環境はトレーニングパッド、術具を挿入するためのポート、術具(持針器)、内視鏡の代用となるビデオカメラ、ビデオカメラの映像を表示するモニタ、手技を定量評価するための映像を取得するUSBカメラ、計算機用のPCにより構成される。ビデオカメラはHD撮影が可能であるため、トレーニングにおいて内視鏡の代わりを十分に果たせると考えられる。訓練者の好みのフォーカスや位置にカメラ視点を定めることで任意のトレーニング環境が自由に整えられるよう、訓練者のモニタリング用のカメラと解析用のカメラを別々に用意した。また、動作が広範になる糸の牽引動作を撮影するために図1のようにモニタ用のビデオカメラとUSBカメラはタスク対象をはさんで対抗する形で設置した。解析用カメラについては、撮影条件を一定に保つために固定する。このUSBカメラから得られた映像を解析用PCへ転送し、映像から術具先端の運動情報を算出し、運動情報を基に技量の定量評価・可視化を行う。次項にUSBカメラで撮影された映像から画像処理により術具のみを検出する手法について述べる。
ここではUSBカメラ(15fps:640×480pixel)から取得される映像から画像処理による術具検出手法について説明する。トレーニング手技において術具は動体であり、直線物体であるということから動体検出手法と直線検出手法が有効であると考えられる。しかし、実際のトレーニング環境には術具のほかに針、糸、トレーニングパッドなどの検出対象外の物体もUSBカメラにより撮影されており、針や糸は術具動作に伴い運動しており、トレーニングパッドには直線形状が非常に多く含まれている。そのため術具のみを検出するには、検出対象外の物体を避けて検出を行わなければならない。そこで本実施例では既存の動体検出手法と直線検出手法に着目し、さらに、これら手法の術具検出時に生じる特徴を実験的に理解・把握し、応用することで術具のみの検出が可能であるかを検討した。
動体検出とは動いている物体を検出する手法である。動体検出法の代表的なものには背景差分処理、オプティカルフロー、テンプレートマッチング法がある。オプティカルフローとは物体の輝度が不変であるという仮定に基づいて、画像間での画素の移動量を推定するものである。物体のトラッキングには、画像中から検出された特徴点をベースにトラッキングを行うことが多い。テンプレートマッチングとは事前に用意したテンプレート画像と最も似ている領域を検出する手法である。内視鏡下手術トレーニングでは術具が2本存在し、術具同士での遮蔽が生じる。トレーニング中には動体が多く存在し、トレーニング環境には特徴点になりうる箇所が多く存在する。特にトレーニングパッドや糸は他の領域とは明らかに画素が異なるため特徴点となりやすい。そのため、オプティカルフローでは、本来術具輪郭上にあるべき特徴点がトラッキング中にトレーニングパッド上へ引き寄せられ、術具を動体として検出できなくなることがある。実際にトラッキング対象の特徴点がより特徴の強い点へと引き寄せられ、正しくトラッキングできないことがある。テンプレートマッチングでは術具同士での遮蔽が生じたときや術具姿勢が大きく変わったときにテンプレートと状態が大きく異なってしまい、動体として術具を正しく検出することが難しくなる。それに対し、背景差分処理では画像間の差分という非常に単純な処理のため、術具が動作すればそれを動体として高確率に検出することができる。そのため、本研究では、確実に術具を動体として検出できる背景差分処理を動体検出法として利用する。
直線検出手法の代表的なものとしてハフ線変換、直線形状を含んだ画像を事前に学習させて直線を検出する方法がある。形状の学習を用いる場合、本実施例のタスクでは術具の映りかたの違い(画像中に見えている術具の長さの違いや術具が交差している状況など)を学習する必要がある。この学習を用いた方法は事前準備に非常に時間がかかる、実験環境が変われば再度学習を行う必要があるなど時間的拘束が非常に大きい。一方、ハフ線変換ではそのような事前準備を必要としなく、術具のエッジ画像さえ取得できれば、そのエッジ画像から術具が有する直線を検出することができる。そのため、本実施例ではハフ線変換を直線検出法として使用する。ハフ線変換の基本的な理論として、2値画像内の点はどの点でも何かしらの直線の一部である可能性があるという概念を利用している。たとえば、それぞれの線が傾きaと切片bでパラメータ化される場合、元画像内の1点は(a、b)平面内の点の軌跡に変換され、これは元画像内でその点を通る全ての線に対応する。このとき元画像のエッジ検出画像を入力画像(2値画像)とすると、エッジ上の点を一次関数で結ぶことになるので直線の検出が可能となる。そのため本研究における術具検出に有効に働く可能性があると考えられる。しかしある点を通る線全てを表現する場合、傾き-切片形式は実際には最良の方法とはいえない。そこで各線を極座標(ρ、θ)の点として表す。このパラメータが示す線は、支持された点をとおり、原点からその点を結ぶ直線に垂直な線である(図4)。このような線の方程式は以下のようになる。
(x0, y0)は異なるρとθ(パネルb)でパラメータ化され、たくさんの線を示す。すなわち、これらの線はそれぞれ(ρ, θ)平面内の点を示す。これらの集合が、特徴的な形状(パネルc)の曲線を形成する。
11.2.2項で述べたように、ハフ線変換単独ではトレーニングパッドの形状が大きく影響することが確認できた。そこで、トレーニングパッドの形状に影響されないロバストなハフ線変換とするために、トレーニング実施直前のエッジ画像を数秒間取得する。この画像中には術具は存在しないためトレーニングパッドのみのエッジが取得される。これを本研究では背景エッジ画像と呼ぶ。これを実際に術具動作時に取得されるエッジ画像から減算したものを本研究では差分エッジ画像と呼ぶ(図6)。ここで得られた差分エッジ画像を用いてハフ線変換を行い取得される画像を本研究では差分ハフ線変換画像と呼ぶ。実際のトレーニング画像において差分ハフ線変換を用いた結果は図7となった。
ここまで動体検出手法や直線検出手法で得られる出力画像からわかる検出特徴をのべてきた。これら手法にはそれぞれ一長一短が確認された。そこで本実施例ではこれら手法を組み合わせることで図8のような術具検出に特化した画像処理アルゴリズムを開発した。
(1)タスク実施直前の数秒間で背景エッジ画像Ibeを取得
(2)0入力画像Iiから得られるエッジ画像Ieから背景エッジ画像Ibeを減算し差分エッジ画像Iseを取得
(3)差分エッジ画像Iseに対し差分ハフ線変換を行い、直線検出画像Ihoを取得
(4)入力画像Iiに対し統計的背景差分処理を行い、動体検出画像Isoを取得
(5)直線検出画像Ihoと動体検出画像Isoの論理積を求め出力画像I0を取得
縫合の手技では術具を両手に所持しており、左右で個別に運動情報を取得することができれば片手だけの技量指標だけではなく、両手の関連した技量指標も算出することができる。より多角的に手技を評価するためには両手の協調性などを反映する技量指標を算出することは重要である。そこで本研究では両手を区別した術具運動情報を取得し、片手での技量指標と両手の関連した技量指標を算出する。本研究では術具の検出に画像処理を用いているが、両手の術具運動情報を別々に算出するにはフレームごとに術具に対して同一術具であるというラベル付けを行い、両手術具を区別して軌跡を算出する必要がある。映像の取得に際しては、USBカメラがビデオカメラと反対側に設置されているためミラーイメージになっている。そこで訓練者側からの視点に変更するため、撮影した画像に左右反転処理を加えている(反転後は左上方から挿入されている術具が左手術具、右上方から挿入されている術具を右手術具となる(図10)。以下に術具を左右判別しながら軌跡を算出する方法を示す。
差分ハフ線変換による術具の検出の際、画像内における術具エッジの始点座標
、(x1、y1)終点座標を(x2、y2)とする。このとき始点座標のy2と終点座標のy1の関係性はy2 > y1とする。このとき傾きmは、
連続する画像間で同一術具の術具先端位置座標を対応付けることで、術具の軌跡を導出する。ただこのとき、図11のように術具形状が途中で途切れていている、ノイズが発生しているなど左手術具として検出された点が複数あるとき、適切な検出点を選択しなければならない。以降左手術具を例にして説明する。
65ピクセルとなるときのみ、(xj、yj)をフレームn+1での適切な検出点として決定する。この作業を右手についても同様に行うことで、左右個別に術具軌跡を算出することが可能となる。
手技の定量評価に使用する技量指標に求められる条件はその指標が、手技がどのように行われていたかを定量値として表現できるということである。その条件を満たす技量指標を多数用いることで訓練者の技量を多角的に評価できる。これまでの研究で使用されている技量指標の種類は多角的であり、それぞれの指標が持つ意味も明確である。そこで、以下にこれまでの研究で使用されている技量指標及び本実施例で追加する技量指標について述べ、それらを用いた技量の定量評価と可視化手法について述べる。
これまでの研究では手技の定量評価に作業時間、手術ナビゲーションから取得される術具のログデータを基にした術具先端移動速度と加速度、術具ログ分布の近似楕円面積の大きさと重畳率、分布密度を技量指標に使用している。 まずこれまでの研究で手技の定量評価に用いている技量指標についての詳細を述べる。
この指標は手技開始から終了までに要した時間となり、多くの臨床やトレーニングの作業評価の研究においてよく使用されている。この指標では作業達成の速さを計測することができる。しかし、この指標のみではあくまで手技がどれくらい素早く行うことができたかしかわからない。作業時間が短ければ優れた作業が出来ているとも限らず、作業は早いが術具操作は雑であることや、作業は遅くても術具操作が丁寧であるというケースも存在する。
術具先端移動速度は内視鏡外科医の術具操作が直接的に反映されるパラメータであり、内視鏡下手術の手術手技の評価指標の一つとして利用されている。術具先端の移動速度を定量化することで作業の特徴をつかむことができる。また加速度を求めることで術具操作の滑らかさも読み取ることができる。3次元位置計測装置やジャイロセンサなどの高精度センサ類を用いた技量評価研究では時系列に取得される術具先端位置座標を時刻ごとに差分することで速度を算出し、その速度をさらに時刻ごとに差分することで加速度を算出することが多い。このようなセンサは位置計測を阻害する外的要因が存在しなければ非常に高精度な位置計測が可能であるため、このような単純処理でも高精度な速度、加速度を指標として算出することが可能である。
内視鏡下手術のように視野および作業空間に制限のある手術においては、作業領域の範囲・大きさは作業効率や体内臓器への損傷に関わる重要な要素であると考えられる。これまでの研究で対象としている術式は胆嚢摘出術であり、また手技の動作の多くは肝臓の裏側に張り付いた胆嚢を摘出するために肝臓との接着部分を剥離する作業である。作業領域は胆嚢と肝臓の接着面に平行な方向に広がると予想されるため作業領域を近似楕円で定義する。これまでの研究では作業領域を近似楕円として求める際に以下のような処理を行っている。
手術ナビゲーションから得られる術具先端ログデータ(3次元座標)を肝臓への接着面となる2次元平面へと投影し2次元分布へと変換する(図10、STEP1)。
投影したログデータの分布が2次元正規分布であると仮定して確率密度関数を導入し、密度関数の局面等高線を算出し、任意の設定により一つの等高線に絞り、それを近似楕円として定義する(図10、STEP2)。
これまでの研究では先ほどまでに述べた技量指標を基に多角的な手技の定量評価を行っていた。そこで、本実施例でもこれらの技量指標を応用する。しかし、これまでの研究では両手での術具操作に関する技量指標がない。本実施例では、両手術具の運動情報を取得が可能であるため両手の術具操作に関する技量指標の算出が可能である。そこで本実施例では両手での作業に関する技量指標を新たに追加し、より多角的な手技の定量評価を行う。具体的にはこれまでの研究で用いられた作業時間、術具先端移動速度・加速度、作業面積・重畳率、分布密度に加え、術具交差時間、左右術具の相対速度を検討する。これら技量指標の検討と算出法について詳しく述べる。
術具の移動速度や加速度は訓練者の手技の特徴を表現でき、トレーニングや臨床での手技評価の際に多々利用される重要なパラメータである。多くの研究では術具に高精度でロバストなセンサを用いて具先端の速度・加速度を算出している。しかし本実施例では画像処理で術具を検出しているため、検出のばらつきが大きい。そこで本実施例では術具先端の速度・加速度を算出する際に補正を施す必要がある。あるフレームnでの術具先端位置座標を(xn、yn)とし、この点を中心フレームの点として5フレーム間の移動平均フィルターを施す。移動平均フィルター処理後の点を(Xn、Yn)とすると、
と表現できる。この補正後の検出点を用いて速度を算出する。本実施例ではフレームnでの速度vnを
これまでの研究では治療の対象となる部位が楕円形であり、作業領域を楕円で定義していた。しかし、本研究ではトレーニングパッドの形状は図2のように直線形状が多く、縫合運針を行う際には傷口を縫い合わせる手技を想定しているため直線的に運針を行っていく。そのため本研究では作業領域を楕円のみではなく矩形でも定義する。例えば図13のように術具先端位置が分布していると仮定する。また術具先端位置の座標は左右別に取得されるため、左右それぞれの作業領域を個別に算出する。以下に作業領域矩形面積の算出のステップを示す。
50×50pixelの矩形を初期矩形として定義する。
術具運動情報を算出する際に、全術具先端位置座標ログの70%以上が含まれている場合、その位置に矩形を描画する。
矩形のサイズを拡大し、再び矩形を走査し、矩形内部に全術具先端位置座標ログの70%以上が含まれている場合この位置に現サイズの矩形を描画。これを矩形のサイズが250×250pixelとなるまで繰り返す。
全矩形が描画された後、最も面積の小さい矩形のみを抽出し、抽出された矩形を包括する矩形を算出する。これを最終的な作業領域として定義する。
最終的に定義された矩形のx軸方向の長さをXsize[pixel]、y軸方向の長さをYsize[pixel]とすると、作業領域の面積Sは
図14に本実施例の頂上率算出方法を示す。これまでの研究において、作業の集中度合いを評価する術具先端位置座標ログ分布密度は胆嚢の血管の切離やクリッピングなど局所に短時間にアクセスする作業ではもともと分布が急峻であり、術者・症例ごとの差異を評価することが困難であることが分かった。本実施例で扱う縫合運針タスクも糸の牽引や結紮の動作が多く、胆嚢の剥離に比べ分布が急峻になることが予想される。そのため、本実施例では全体としての分布密度を見るのではなく、トレーニングパッドの縫合対象箇所周辺にどれだけ作業が集中しているかを算出する。これを本実施例では作業密度と呼ぶことにする。作業密度の算出方法だが、手動で画像中から選択した縫合対象箇所の中心点(以下作業中心点)を基準とした円の内側にどれだけ作業が集中しているかを算出し、縫合箇所への作業集中度合いを求める。作業密度の算出方法は次のとおりである。正しい術具先端位置として検出された全検出点を
、作業中心点から50ピクセル以内の距離に存在する検出点をnとすると、作業密度ρは、
内視鏡下手術において両手を協調的に動かすことは重要である。例えば、強調的な動作として縫合を行う際に糸の長さを整えるために左手で糸を引き、右手で糸を逆に引く左右で逆方向に術具を動作させる技術や、針を刺すときにカウンタートラクションを掛けて適度にタスクに緊張を掛けるなどの動作がある。このように協調動作は両手を互いに逆方向に動かす動作が多いため、片手が止まってしまっている独立した動作に比べて相対速度が速くなることが予想され、相対速度は作業の特徴を反映できる可能性がある。そこで本実施例では左右術具の相対速度を技量指標として用いる。左右術具の相対速度の算出方法は次のとおりである。 あるフレームnでの左右の術具先端位置座標を(xln、yln)、(xrn、yrn)とする。この点を中心とする5フレーム間での移動平均フィルターを速度算出のときと同様に施す。すると術具移動前の先端位置座標をそれぞれ、現在の術具先端位置座標を(Xln、Yln)と表すことができ、変位(dXln、dYln)、(dXrn、dYrn)は、
となる。
内視鏡下手術に特有のスキルとして奥行き知覚能力や両手の協調性がある。3次元の術空間に対し、術者が実際に視認しているのは2次元のモニタから得られる情報である。そのため術具が交差すると術具同士が接触して結紮点や組織に余計な緊張がかかってしまう。そのため術具を交差させて手技を行うことはよくない作業として考えられている。熟練度が高くなればなるほど術具が交差する時間は短くなると予想される。本実施例における術具検出システムにおいて、左右別に時系列に術具先端位置座標を算出することができる。左手の術具先端位置座標を(xl、yl)とし、右手の術具先端位置座標を(xr、yr)と仮定し、xl>xr(図15)となる回数をNとすると交差時間Tは次式により算出される。
主観的な判断による手技の評価は、観察者による個人差が発生することや、まだ技術を習熟していない訓練者が単独で行うことができないという問題点がある。訓練者が単独で手技を評価するには、先ほどまでに述べた作業内容を定量化できる技量指標を用いて手技を定量評価することが有効であると考えられる。しかし、訓練者が行った手技を数値化して、その手技の良し悪しを評価することは、同一の手術において上手いやり方というのは一つに定まらないという点で難しいことであると考えられる。そこで、これまでの研究では、熟練者と非熟練者での作業傾向の差異をこれまでに述べてきた技量指標を用いて算出することで、訓練者が自身熟練者の技量差異を把握できる定量評価・可視化システムを構築した。さらに、本実施例では経験年数の長い医師が十分な技量を有していると仮定し、経験年数が長い医師と短い医師の間で差異が生じる多次元の技量指標を低次元に統合した値を熟練度として定量化する。これを可視化することで訓練者が自身の熟練度を把握できるシステムを構築する。そこで本実施例では術者の熟練度を定量的に計測するために、まず熟練者と非熟練者間で差が生じる技量指標を選定する。そのために、経験年数で2グループ(熟練群と非熟練群)に分割し、2グループ間で有意差の生じる指標を調査する。有意差が生じた指標については経験年数により作業傾向が変化していると考えることができ、これは広義的には熟練者と非熟練者間での作業差異であると考えられる。
ここまで手技の評価方法について検討したが、トレーニングシステムにおける重要な機能の一つはその評価結果を訓練者にフィードバックする機能である。なぜなら、内視鏡下手術のトレーニングを目標や自身の技量がわからないまま漠然とこなしていくのは生産的ではないからである。そのためトレーニングの評価結果のフィードバックには、熟練者のレベルとなる目標値を定め、自身との差異を定量的に評価し、その差を可視化することが重要であると考えられる。これまでの研究では一人の技術認定医の技量指標をエキスパートとしての基準値とし、その訓練者とどの程度手技が似ているかで技量レベルを算出した。しかし、実際には多数いる被験者のなかにもやり方は異なるが主観的には上手いと称される訓練者も存在するため、必ずしも一人の技術認定医の技量指標値が目標値として適切であるとはかぎならない。そこで本研究では熟練グループの技量指標の平均値を利用する。複数の医師の技量指標から得られる平均値を用いることでより普遍的な目標値を設定できると考えられる。そこで目標値及び訓練者の技量値の算出には偏差値を用いる。全被験者の各技量指標の平均値をA、全被験者の各技量指標の標準偏差をSとする。さらに熟練グループの各技量指標の平均値をAEとして、目標値Gを
となり、目標値との差はG-Vとなり、G-V>0ならば目標値に到達しておらず、G-V<0ならば目標値に到達しているということになる。これを全技量指標について行うわけであるが、より視覚的に捉えやすいように、本研究では目標値を青色の点線、被験者の値を赤色の実線でレーダーチャートに表示する(図17)。このレーダーチャートの例では、上段が熟練者で下段が非熟練者である。上段のレーダーチャートのほうが目標値のレーダーチャートの大きさに近くなる。下段の非熟練者同士を比較すると、右の訓練者のほうが目標値にレーダーチャートの大きさが近いため、右の訓練者のほうが左の訓練者に比べ技術を習熟しているといえる。このように、レーダーチャートは技量を定量的かつ客観的に把握するのに有効である可能性がある。
本実施例では内視鏡下手術の縫合トレーニングにおける手技の定量評価・可視化を行う。手技を定量評価・可視化するためには技量指標が必要となるが、この技量指標の信憑性が低ければ、そこから導き出される解析結果の意味についての信憑性も損なわれる。そこでまず、本研究では、USBカメラから取得される映像から術具先端位置を検出する精度、検出された術具先端位置情報を基に算出される技量指標の精度についての評価実験を行う。次に、本研究で手技の定量評価に用いる指標を選定する実験を行う。最後にこれらの選定された指標を基に手技の定量評価・可視化し、本システムで手技の定量評価が正しく行われているかの評価を行う。
トレーニング環境下での提案アルゴリズムによる術具検出精度・技量指標算出精度の評価実験を実施し、技量指標が問題なく使用可能か検証する。以下にその実験環境等の設定と評価項目について述べる。
図20に本実施例の実験環境を示す。解析用映像を取得するためのUSBカメラ、訓練者がモニタリングするためのビデオカメラとその映像を表示するモニタ、術具挿入部、トレーニングパッド(トレパッド渦巻き、株式会社寿技研)を設置し、トレーニング環境を構築した。使用したトレーニングパッドパッドはトレーニング用に市販・利用されているものである。
本実施例で用いている術具検出手法では画像処理を用いているため、画像中に術具が1本のときでは誤検出が生じなくても2本のときで互いの術具が接近、交差したとき精度に差が生じる可能性があるため、術具を1本使用時と2本使用時で精度検証を行った。
実験1:x軸方向に術具を移動
実験2:y軸方向に術具を移動
実験3:x軸・y軸方向の移動を含む斜め方向に術具を移動
実験1:互いの術具を逆方向に移動
実験2:互いの術具を同一方向に移動
術具1本時のとき3種類、術具2本時のとき2種類の条件を用意し、これらを各3回ずつ実施した。術具1本時のときは両手術具の相対速度の算出ができないため術具2本時のみ平均相対速度を検証項目に加える。またこれらの実験から取得される技量指標の真値だが、手動で画像中から抽出した術具の先端位置座標を用いる。またこの抽出した先端座標をつなぎ合わせることで真値となる軌跡を算出した。これらの真値と提案アルゴリズムにより検出された術具先端位置を基に算出される軌跡、速度、加速度、相対速度を比較することで精度の検証を行った。
訓練者の各技量指標や各技量指標から統合して算出する熟練度で、熟練者と非熟練者に明確な差を確認できるようにするために、経験年数に応じた作業傾向の差異を検出し、その差異を反映する技量指標の選定実験を実施する。その後に、選定された技量指標が技量指標・熟練度の定量評価・可視化に有用であるかの検証実験を実施した。実験環境は2.1項に示したものと同一にした。
本実施例では先行実験として医師15名が縫合運針タスクを実施し、その実験データから使用する技量指標の選定を行う。技量指標の選定にはまず、熟練群と非熟練群間で有意差の生じる技量指標を抽出し、抽出された技量指標から多重共線性を取り除いた技量指標の組み合わせを求める。次に、求められた技量指標を変数として主成分分析を行い、熟練度を算出し、この熟練度を用いて医師のクラスタリングを行う。このクラスタリング結果から、選ばれた技量指標が熟練度を反映しているかどうかを調査し、技量指標が手技の定量評価に利用できるかを評価する。さらに、これらの技量指標を用いて各技量指標で技量目標値を算出し、熟練群の被験者と非熟練群の被験者でレーダーチャートの比較、技量目標値への到達度合いの可視化検証を行った。先行実験に参加した医師を表1に示す。被験者1〜6の医師を熟練群とし、7〜15を非熟練群として定義した。また、本研究で実施したタスクについて以下に述べる。
本研究では、基礎的な縫合技術を計測するために、単発的なタスクではなく連続的なタスクを実施した。また実施タスクは医師と相談の下決定した。本実施例で実施したタスクの手順は、はじめにCループ法により始端結紮を行い、3回連続運針を行い、スリーレッグス法による終端結紮を行う手順となっている。図23がタスク完成図となっている。
本実験では、選定された技量指標から主成分分析を用いて算出される熟練度を用いて被験者30名(先行実験の15名含む)のクラスタリングを行う。このとき特に経験年数が短い被験者が熟練群となるクラスタに分類されているかどうかに注目する。これは経験年数が短くても技術習熟が早く、すでに十分な技術を有しているということを意味している可能性があるからである。非熟練群の医師で十分な技術を有しているという判断は撮影された動画を観察し判断する。このとき、特に手技中にミスが発生していたかなどに注目する。実施タスクは技量指標選定実験と同一である。さらに縫合において重要となる技量指標を調べるために技量指標を説明変数、経験年数を目的変数として重回帰分析を行い、各技量指標と経験年数の関係性を調べた。
本章では、本研究で提案した術具検出アルゴリズムの術具先端位置検出精度及び検出された先端位置情報を基に算出した技量指標の評価を実施した。続いて内視鏡下手術縫合トレーニング手技の定量評価・可視化に使用する技量指標の選定実験を実施し、選定された技量指標を用いて各技量指標の個別的定量評価・可視化、総合的定量評価・可視化、各技量指標と経験年数の関係性の評価を行った。これら実験により導き出された結果について個別に考察も行った。
本実施例では精度検証実験として、術具が1本のときの術具先端平均速度・加速度、軌跡の精度検証と術具が2本のときの術具平均速度・加速度・相対速度、軌跡の検証を行い、本研究で用意した技量指標が手技の定量評価に利用可能であるかを評価した。以下に各実験の結果と考察を述べる。
実際に得られた術具軌跡を図24に示す。またこのとき得られた速度と加速度について表2、表3に示す。表2の真値avr_TVと計測値avr_MVは時系列情報となる真値速度TViと計測値速度MVi(i=1〜N;Nはフレーム数)の平均値、表3の真値avr_TAと計測値avr_MAは真値加速度TAi、計測値加速度MAiの平均値となっている。また、速度についての平均誤差avr_EVは|avr_TV-avr_MV|、加速度についての平均誤差avr_EAは|avr_TV-avr_MV|である。速度の最大誤差max_EVは|TVi-MVi|の最大値、加速度の最大誤差max_EAは|TAi-MAi|の最大値である。まず術具軌跡についてだが、図24の線241が真値となる軌跡で線242が実際に算出された軌跡となる。X軸方向への移動実験、y軸方向への移動実験、斜め方向への移動実験を各3回ずつの計9回実験を行っているが、実験1では真値より若干上方向に軌跡が算出されており、実験2では若干右方向に、実験3では若干上方向に算出されていることが確認できる。しかし、軌跡に細かなゆれは少し残っているものの、全実験において軌跡の形状は概ね一致しており、術具先端位置の分布を利用している作業面積、作業密度、術具が交差した時間は精度に問題を抱えることなく使用できると考えられる。次に速度と加速度について述べる。表2、表3において、計9回の実験でavr_EVは小さく、avr_EAは大きくなった。このことから術具がどのような方向へ動作しても平均速度avr_MVは本来の特徴を損なわずに本手法で算出することが可能である一方で平均加速度avr_MAは本来の特徴を損なってしまっている。さらに平均加速度の場合、全実験において計測値avr_MAが真値avr_TAよりも低くなっている。実験1〜3で誤差を平均した値を比較してみると、平均速度は0.343[pixel/frame]、平均加速度が0.774[pixel/frame^2]と平均加速度の誤差が小さく見えるが、真値の値が速度に比べ低いことを考えると誤差は大きい。これは速度算出や軌跡算出の際にフィルター処理を施し、速度や軌跡の曲線を滑らかにすることで、速度の微分である加速度が低くなってしまったことが原因であると考えられる。加速度は術具動作の滑らかさを表す技量指標であるため、本研究のような画像処理を用いた手法から算出するとどうしても検出にばらつきが生じてしまう以上、平均加速度avr_MAは技量指標として利用することは難しいと考えられる。速度と加速度の最大誤差max_EV、max_EAは非常に大きな値となってしまった。このことから、現在の速度・加速度算出手法では時系列の情報MVi、MAiを使用することは難しいと考えられる。次に、術具が2本のときでも軌跡、速度・加速度が正しく算出されるか検証し、また平均相対速度の算出精度評価も行う。
速度と加速度の誤差(平均誤差、最大誤差)については前項と同一方法で算出し、表記も同一である。時系列情報としての相対速度の真値と計測値はTRVi、MRVi(i=1〜N;Nはフレーム数)として定義し、平均相対速度の真値avr_TRVと計測値avr_MRVはそれぞれTRVi、MRViの平均値である。相対速度の平均誤差avr_ERVは|avr_TRV-avr_MRV|である。平均相対速度の最大誤差max_ERVは|TRVi-MRVi|の最大値である。実際に得られた術具軌跡を図25に示す。またこのとき得られた速度、加速度、相対速度について表4、表5、表6に示す。術具一本での実験のときと同様、検出された軌跡が若干上方向にずれている。しかし、先ほどの考察のように、軌跡の細かなゆれは少し残ってはいるが概ね軌跡の形状は一致しているため、術具が2本になっても術具先端位置分布に関する技量指標を利用することは可能であると考えられる。表4、表5に示した速度、加速度、相対速度だが、平均速度は術具1本時のときと同様、平均誤差avr_EVが小さく、平均相対速度も実験1.3、2.2を除いて平均誤差avr_ERVは小さい。実験1.2で誤差を平均すると平均速度が0.422[pixel/frame]、平均相対速度が0.978[pixel/frame]となり、これら2つの術具動作に関する指標は技量指標として利用できる可能性がある。特に実験1と実験2では術具動作方向が異なり、前者での実験のほうで相対速度が大きくなることが事前に予想することができるが、実験結果でもその予想と同じ結果が得られており、この点からも相対速度は本来の特徴を損なっていないと考えられ、本実施例の技量指標として利用できると考えられる。加速度については、術具1本時の実験のときと同様、ほとんどの実験で真値avr_TAよりも計測値avr_MAは値が低く算出され、平均誤差avr_EAが非常に大きく、本システムにおいて加速度は本来の特徴を損ねてしまっている。原因は術具1本時のときと同様であると考えられる。実験1、2で誤差を平均すると0.798[pixel/frame^2]と一見低く見えるが、真値の値が低いことから、平均速度や平均相対速度に比べ非常に誤差は大きい。以上のことから、平均加速度avr_MAを技量指標として利用することは難しいと考えられる。加速度を技量指標として利用できるようにするためには、術具検出の精度向上、特に検出のばらつきが生じにくい新たな処理を加える、もしくは加速度の特徴を維持できるフィルター処理が必要であると考えられる。平均速度・加速度・相対速度の最大誤差max_EV、max_EA、max_ERVはいずれも非常に大きな値を示していることから、時系列情報となるMVi、MAi、MRViを使用することは現状のシステムでは難しいと考えられる。
本実験で選定された技量指標について述べる。表7に選定実験により得られた各技量指標の数値、表7に熟練群と非熟練群の平均値の比較、有意差の検証結果を示す。表7のGroup1が熟練群でGroup2が非熟練群を表している。表7の1番目から6番目で示されている部分が熟練群で、7番目から15番目で示されている部分が非熟練群である。本項では時間に関する指標である作業時間・術具交差時間、術具先端位置分布に関する指標である作業面積・密度、速度に関する指標である平均速度・平均加速度・平均相対速度の3グループに分けて詳細を確認する。さらに、これら技量指標を用いて算出される熟練度の定量評価・可視化、各技量指標の技量値の可視化が有用であるかの検証を行う。
・作業時間・術具交差時間
熟練群と非熟練群の平均値を比較すると熟練群にいる医師のほうが作業時間・術具交差時間がいずれも約2倍近く短いことが確認され、さらに有意差も確認された。しかし、熟練群のなかで詳しく数値を確認すると、経験年数が長いほど作業時間・術具交差時間が短いということにはならなかった。一方で、非熟練群のなかでは経験年数が長いほうが作業時間・術具交差時間が短くなる傾向があることが確認された。
熟練群のほうが作業面積・密度ともに平均値が高くなった。作業密度については左手と右手の両方で有意差が確認されたものの、作業面積で有意差を確認することは出来なかった。全被験者の作業密度に着目すると、左手密度のほうが右手密度よりも大きくなる傾向があることが確認された。
これら全ての指標において熟練群のほうが非熟練群よりも数値が高くなっていることが確認できた。これら指標の中で左手加速度以外に有意差が確認された。これらの技量指標でも2群のなかで顕著な傾向は確認できなかった。
本項では選定された技量指標が技量値や熟練度の算出に有用であるかを検証し、さらに技量値と熟練度を可視化したときに熟練医と非熟練医の差異が十分に把握することができるかを検証した。
熟練群と非熟練群で有意差が確認された指標は時間、術具交差時間、密度、平均速度、右手平均加速度、平均相対速度となった。しかし、加速度については精度実験の際に本来の特徴を損ねている可能性が示唆されたため、本研究で使用する技量指標から除外する。次にこれらの指標を用いて多重共線性を評価した結果、平均相対速度でのみ多重共線性が確認された(表8)。これは相対速度の算出に速度を利用していることが影響している。よってこれら指標の多重共線性を排除した際の指標の組み合わせは作業時間、術具交差時間、密度、平均速度の計6指標となった。
技量指標として選定された作業時間、術具交差時間、作業密度、平均速度は表10の技量値とそれを可視化した図27、図28のレーダーチャートから確認できるように、熟練者と非熟練者間で明確な差が表れているため、手技の定量評価に有用な指標であると考えられる。 また、技量目標値の設定については、熟練群の医師のレーダーチャートが技量目標値のレーダーチャートと同程度かそれ以上を示しており、それに対し非熟練群の医師は技量目標値よりも小さくなっていることから、適切な設定であったと考えられる。
3.3.1 被験者情報
本実験では計30名の被験者が縫合運針タスクを実施した。被験者情報と得られた技量指標値を表11に示す。技量指標値については上位20%となる6名は緑色で示し、下位20%となる6名は赤色で示した。被験者1〜15は技量指標選定実験に参加した被験者である。経験年数が10年以上の医師はA群、5年から10年未満はB群、0年から5年未満をC群として定義した。
表11の技量指標を用いて主成分分析を行った結果、第1主成分の固有値は3.65、累積寄与率は60.93%、第2主成分の固有値は1.05、累積寄与率は78.45%となった。主成分をいくつ使うかの選択をするには、3.6.4項にも述べたように、固有値が1以上もしくは累積寄与率が70〜80%に達するところまでの主成分を解析に使用する主成分として採用することが多い。そこで熟練度には第2主成分までを採用する。表12、表13、表14に算出された熟練度を示す。この熟練度を用いてクラスタリングを行った結果を図29に示す。
3.3.3 技量値の算出とレーダーチャートによる技量値の可視化結果・考察
表15に技量値を示す。技量目標値は技量指標選定実験時に算出されたときの値を利用する。またこの技量指標値と技量目標値を先ほどのクラスタリング結果で熟練群と判定された医師4名、非熟練群と判定された4名を例としてレーダーチャートに示す(図33、図34)。
熟練群と非熟練群間でそれぞれ重回帰分析を行い、経験年数と各技量指標がどのような関係にあるかを検証した結果を図32に示す。このとき、経験年数を目的変数とし、各技量指標を説明変数とした。
熟練群と非熟練群間でそれぞれ重回帰分析を行い、経験年数と各技量指標がどのような関係にあるかを検証した結果を図35に示す。このとき、経験年数を目的変数とし、各技量指標を説明変数とした。
本実施例によれば、差分画像情報及び動体検出画像情報とに基づいて術具の位置に関する情報を算出することにより、術具位置の検出精度を高めることができた。
242 算出された術具軌跡
Claims (7)
- コンピュータに、
術者が操作する術具に関する画像情報を含む入力画像情報から手術トレーニング前の背景画像情報を減算して差分画像情報を取得する差分情報取得手順と、
術者が操作する術具に関する画像情報を含む入力画像情報に対し背景差分処理を行い動体検出画像情報を取得する動体検出画像取得手順と、
前記差分情報取得手順により取得した差分画像情報及び前記動体検出画像取得手順により取得された前記動体検出画像情報とに基づいて術具の位置に関する情報を算出する術具位置算出手順とを実行させるための手術トレーニングプログラム。 - コンピュータに、
術者が操作する術具に関する情報を含む入力画像情報に基づいて術具の位置に関する術具位置情報を算出する術具位置算出手順と、
前記術具位置算出手順により算出した術具位置情報に基づいて術具の交差時間を算出する交差手段算出手順と、
前記交差時間算出手順により算出した術具の交差時間を表示装置に表示させる技量指標表示手順とを実行させるための手術トレーニングプログラム。 - コンピュータに、
術者が操作する術具に関する情報を含む入力画像情報に基づいて術具の位置に関する術具位置情報を算出する術具位置算出手順と、
前記術具位置算出手順により算出した術具位置情報に基づいて複数種類の技量指標を算出する技量指標算出手順と、
前記技量指標算出手順により算出した複数種類の技量指標を表示装置にレーダーチャートにより表示させる表示手順とを実行させるための手術トレーニングプログラム。 - 前記技量指標算出手順により算出する技量指標が、術者の作業時間に関する情報、作業密度に関する情報、術具の交差時間に関する情報、術具の平均速度に関する情報の少なくともいずれか一つを含むことを特徴とする請求項3に記載の手術トレーニングプログラム。
- 前記表示手順において、前記複数の技量指標とともに技量指標の目標値をレーダーチャートに表示させることを特徴とする請求項3に記載の手術トレーニングプログラム。
- コンピュータに、
術者が操作する術具に関する情報を含む入力画像情報に基づいて術具の位置に関する術具位置情報を算出する術具位置算出手順と、
前記術具位置算出手順により算出した術具位置情報に基づいて技量指標を算出する技量指標算出手順と、
前記技量指標算出手順により算出した技量指標に基づいて各術者の技量の類似度を算出するクラスタリング手順と、
前記クラスタリング手順により算出した各術者の技量の類似度に関する情報を表示装置に表示させる手順とを実行させるための手術トレーニングプログラム。 - 術者が操作する術具を撮影するカメラと、
前記カメラが撮影した情報に基づいて術具の位置に関する術具位置情報を算出する術具位置情報算出手段と、
前記術具位置情報算出手段により算出した術具位置情報に基づいて複数種類の技量指標を算出する技量指標算出手段と、
前記技量指標算出手段により算出された複数種類の技量指標をレーダーチャートにより表示する表示装置とを備える手術トレーニングシステム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015051522A JP6647703B2 (ja) | 2015-03-14 | 2015-03-14 | 手術トレーニングプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015051522A JP6647703B2 (ja) | 2015-03-14 | 2015-03-14 | 手術トレーニングプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016170362A true JP2016170362A (ja) | 2016-09-23 |
| JP6647703B2 JP6647703B2 (ja) | 2020-02-14 |
Family
ID=56982456
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015051522A Expired - Fee Related JP6647703B2 (ja) | 2015-03-14 | 2015-03-14 | 手術トレーニングプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6647703B2 (ja) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018143560A (ja) * | 2017-01-03 | 2018-09-20 | 上銀科技股▲フン▼有限公司 | 内視鏡を操縦するシステム及び方法 |
| JP2019113749A (ja) * | 2017-12-25 | 2019-07-11 | 三菱プレシジョン株式会社 | 手術操作具の操作の評価方法及び評価装置 |
| US20220003656A1 (en) * | 2018-11-16 | 2022-01-06 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
| JP7082384B1 (ja) | 2021-05-28 | 2022-06-08 | 浩平 田仲 | 学習システム及び学習方法 |
| CN115670684A (zh) * | 2021-07-29 | 2023-02-03 | 游戏橘子数位科技股份有限公司 | 远程手术装置产生强制反馈的方法 |
| CN118248019A (zh) * | 2024-05-20 | 2024-06-25 | 慧医谷中医药科技(天津)股份有限公司 | 一种基于ai视觉的中医刮痧走罐沉浸式实训方法及系统 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008171142A (ja) * | 2007-01-10 | 2008-07-24 | Seiko Epson Corp | シミ欠陥検出方法及び装置 |
| JP2009199396A (ja) * | 2008-02-22 | 2009-09-03 | Fun Team Co Ltd | 実務的能力診断システム |
| JP2009236963A (ja) * | 2008-03-25 | 2009-10-15 | Panasonic Electric Works Co Ltd | 内視鏡手術用トレーニング装置、内視鏡手術用技能評価方法 |
| JP2010096961A (ja) * | 2008-10-16 | 2010-04-30 | Advanced Telecommunication Research Institute International | 能力評価方法、および能力評価システムのサーバ |
| US20140180074A1 (en) * | 2012-01-30 | 2014-06-26 | Inneroptic Technology, Inc. | Multiple medical device guidance |
| JP2014147541A (ja) * | 2013-01-31 | 2014-08-21 | Chiba Univ | 手術工程解析プログラム |
-
2015
- 2015-03-14 JP JP2015051522A patent/JP6647703B2/ja not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008171142A (ja) * | 2007-01-10 | 2008-07-24 | Seiko Epson Corp | シミ欠陥検出方法及び装置 |
| JP2009199396A (ja) * | 2008-02-22 | 2009-09-03 | Fun Team Co Ltd | 実務的能力診断システム |
| JP2009236963A (ja) * | 2008-03-25 | 2009-10-15 | Panasonic Electric Works Co Ltd | 内視鏡手術用トレーニング装置、内視鏡手術用技能評価方法 |
| JP2010096961A (ja) * | 2008-10-16 | 2010-04-30 | Advanced Telecommunication Research Institute International | 能力評価方法、および能力評価システムのサーバ |
| US20140180074A1 (en) * | 2012-01-30 | 2014-06-26 | Inneroptic Technology, Inc. | Multiple medical device guidance |
| JP2014147541A (ja) * | 2013-01-31 | 2014-08-21 | Chiba Univ | 手術工程解析プログラム |
Non-Patent Citations (1)
| Title |
|---|
| 鈴木啓太,外: "内視鏡下手術トレーニングの定量評価に向けたビデオ映像による鉗子動線解析", 日本生体医工学会大会プログラム・論文集(CD−ROM), JPN7018004330, 2014, ISSN: 0004079851 * |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018143560A (ja) * | 2017-01-03 | 2018-09-20 | 上銀科技股▲フン▼有限公司 | 内視鏡を操縦するシステム及び方法 |
| JP2019113749A (ja) * | 2017-12-25 | 2019-07-11 | 三菱プレシジョン株式会社 | 手術操作具の操作の評価方法及び評価装置 |
| US20220003656A1 (en) * | 2018-11-16 | 2022-01-06 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
| JP7082384B1 (ja) | 2021-05-28 | 2022-06-08 | 浩平 田仲 | 学習システム及び学習方法 |
| JP2022182673A (ja) * | 2021-05-28 | 2022-12-08 | 浩平 田仲 | 学習システム及び学習方法 |
| CN115670684A (zh) * | 2021-07-29 | 2023-02-03 | 游戏橘子数位科技股份有限公司 | 远程手术装置产生强制反馈的方法 |
| CN118248019A (zh) * | 2024-05-20 | 2024-06-25 | 慧医谷中医药科技(天津)股份有限公司 | 一种基于ai视觉的中医刮痧走罐沉浸式实训方法及系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6647703B2 (ja) | 2020-02-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6647703B2 (ja) | 手術トレーニングプログラム | |
| US10169641B2 (en) | Apparatus and method for visualization of region of interest | |
| CN112784672B (zh) | 基于计算机视觉的手术场景评估 | |
| US9805469B2 (en) | Marking and tracking an area of interest during endoscopy | |
| Davids et al. | Automated vision-based microsurgical skill analysis in neurosurgery using deep learning: development and preclinical validation | |
| WO2010052929A1 (en) | Image processing apparatus, image processing method, program, and program recording medium | |
| Koskinen et al. | Automated tool detection with deep learning for monitoring kinematics and eye-hand coordination in microsurgery | |
| WO2018216617A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
| James et al. | Eye-gaze driven surgical workflow segmentation | |
| JP7323647B2 (ja) | 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム | |
| JP6445784B2 (ja) | 画像診断支援装置、その処理方法及びプログラム | |
| US20250143806A1 (en) | Detecting and distinguishing critical structures in surgical procedures using machine learning | |
| CN104507392A (zh) | 图像处理装置及图像处理方法 | |
| CN112885435B (zh) | 图像目标区域的确定方法、装置和系统 | |
| Jayawardena et al. | Automated filtering of eye gaze metrics from dynamic areas of interest | |
| US20190289202A1 (en) | Image sensor | |
| Khairnar et al. | Machine learning-based automated assessment of intracorporeal suturing in laparoscopic fundoplication | |
| Nicolaou et al. | A Study of saccade transition for attention segregation and task strategy in laparoscopic surgery | |
| JP2012187139A (ja) | 画像処理装置 | |
| Kumar et al. | Surgical tool attributes from monocular video | |
| Kottayil et al. | Investigation of gaze patterns in multi view laparoscopic surgery | |
| CN116687407B (zh) | 基于共同关注能力的心理状态筛查分类方法及系统 | |
| Weede et al. | Movement analysis for surgical skill assessment and measurement of ergonomic conditions | |
| Baby et al. | Neuro-endo-activity-tracker: An automatic activity detection application for neuro-endo-trainer: Neuro-endo-activity-tracker | |
| Snaineh et al. | Minimally invasive surgery skills assessment using multiple synchronized sensors |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20150410 |
|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20170913 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180126 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181228 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190205 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190722 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190726 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200107 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6647703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |