[go: up one dir, main page]

JP5898199B2 - 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム - Google Patents

姿勢推定装置、姿勢推定方法、および姿勢推定プログラム Download PDF

Info

Publication number
JP5898199B2
JP5898199B2 JP2013524590A JP2013524590A JP5898199B2 JP 5898199 B2 JP5898199 B2 JP 5898199B2 JP 2013524590 A JP2013524590 A JP 2013524590A JP 2013524590 A JP2013524590 A JP 2013524590A JP 5898199 B2 JP5898199 B2 JP 5898199B2
Authority
JP
Japan
Prior art keywords
foot
sole
posture
unit
posture estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013524590A
Other languages
English (en)
Other versions
JPWO2013011644A1 (ja
Inventor
川口 京子
京子 川口
健士 野上
健士 野上
雅基 田靡
雅基 田靡
雄二 里
雄二 里
岩井 和彦
和彦 岩井
光子 藤田
光子 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2013524590A priority Critical patent/JP5898199B2/ja
Publication of JPWO2013011644A1 publication Critical patent/JPWO2013011644A1/ja
Application granted granted Critical
Publication of JP5898199B2 publication Critical patent/JP5898199B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Manipulator (AREA)

Description

本発明は、人体あるいは人型ロボットなどの人型多関節物体の姿勢を推定する、姿勢推定装置、姿勢推定方法、および姿勢推定プログラムに関する。
近年、撮影された動画像の画像データに基づく人の姿勢推定に関する研究が、盛んに行われている。姿勢推定装置は、動画像から人の行動をコンピュータ解析により判定することができ、人手に頼らずに行動解析を行うことができる。行動解析としては、例えば、街頭での異常行動検知、店舗での購買行動分析、工場における作業効率化支援、およびスポーツにおけるフォーム指導がある。
人の姿勢としては、例えば、体幹(肩から腰までの部分)の向き(以下、適宜「身体向き」という)を推定可能であることが望まれる。人の身体向きを推定することができれば、その人が興味を向けた物体の場所の判定、あるいは、直後に歩き出す方向の推定などが可能となるからである。
このような推定は、人に方位センサなどの装置を取り付けることなく行えることが望ましい。人に装置を取り付ける推定手法は、不特定の人を推定対象とすることが困難であり、推定対象が多数の場合にはコストが掛かるからである。
そこで、人を撮影した映像に基づいて、当該人の身体向きを推定する技術が、例えば特許文献1に記載されている。
特許文献1に記載の技術(以下、「従来技術1」という)は、撮影映像から人の肩および胴体を検出し、検出した肩および胴体の移動軌跡を解析し、解析した移動軌跡から人の身体向きを判定する。この技術によれば、人に方位センサなどの装置を取り付けることなく、人の身体向きを推定することができる。
また、人を撮影した画像に基づいて、当該人の顔の向きを推定する技術が、例えば特許文献2に記載されている。
特許文献2に記載の技術(以下、「従来技術2」という)は、撮影した画像から人の顔領域を検出し、予め学習しておいたパターンと照合することにより、人の顔の向きを推定する。この技術を用いれば、顔が身体の正面を向いている場合、つまり、顔の向きが身体向きと一致している場合には、人に方位センサなどの装置を取り付けることなく、身体向きを推定することができる。
特開2003−101999号公報 特開2004−94491号公報
しかしながら、従来技術1および従来技術2は、撮影条件によっては、身体向きを高精度に推定することができないという課題を有する。なぜなら、従来技術1は、人が一旦停止してその場で回転した場合、あるいは、人が後ろ歩き若しくは横歩きをした場合、身体向きを誤って推定することになるからである。また、従来技術2は、顔が身体の正面を向いていない間、身体向きを誤って推定することになるからである。
また、人型ロボットなど、体幹を有し2足歩行を行う多関節物体を、姿勢推定の対象とすることが考えられるが、従来技術1および従来技術2では、同様の問題が起こり得る。
本発明の目的は、人型多関節物体の姿勢を高精度に推定することである。
本発明の一態様に係る姿勢推定装置は、人を含む画像の画像情報から、前記人の頭の位置を推定する頭推定部と、前記画像情報から、前記人の、足底が床面に対して平行な足の位置を推定する足推定部と、推定された前記頭の位置と推定された前記足の位置との相対的な位置関係に基づいて、前記人の姿勢を推定する姿勢推定部とを有する。
本発明の一態様に係る姿勢推定方法は、人を含む画像の画像情報から、前記人の頭の位置と、前記人の、足底が床面に対して平行な足の位置とを推定するステップと、
推定された前記頭の位置と推定された前記足の位置との相対的な位置関係に基づいて、前記人の姿勢を推定するステップと、を有する、
本発明の一態様に係る姿勢推定プログラムは、人を含む画像を入力あるいは生成する装置のコンピュータに、前記画像の画像情報から、前記人の頭の位置と、前記人の、足底が床面に対して平行な足の位置とを推定する処理と、推定された前記頭の位置と推定された前記足の位置との相対的な位置関係に基づいて、前記人の姿勢を推定する処理とを実行させる。
本発明によれば、人型多関節物体の姿勢を高精度に推定することができる。
本発明の実施の形態1に係る姿勢推定装置の構成の一例を示すブロック図 本発明の実施の形態2に係る姿勢推定システムの構成の一例を示すシステム構成図 本発明の実施の形態2における身体モデルの一例を示す図 本発明の実施の形態2における身体向きの定義を説明するための図 本発明の実施の形態2に係る姿勢推定装置の構成の一例を示すブロック図 本発明の実施の形態2に係る姿勢推定装置の動作の一例を示すフローチャート 本発明の実施の形態2における背景差分画像の一例を示す図 本発明の実施の形態2における足底領域推定処理の一例を示すフローチャート 本発明の実施の形態2における部分的な背景差分画像の一例を示す図 本発明の実施の形態2における足底候補領域を示す図 本発明の実施の形態2における足底領域抽出処理の一例を示すフローチャート 本発明の実施の形態2における足底角度の定義を説明するための図 本発明の実施の形態2における足底角度推定処理の一例を示すフローチャート 本発明の実施の形態2における基準点抽出処理を説明するための図 本発明の実施の形態2における姿勢推定処理の一例を示すフローチャート 本発明の実施の形態2における頭重心位置および足重心位置の一例を示す図 本発明の実施の形態2における姿勢推定処理の他の例を示すフローチャート 本発明の実施の形態2における時差画像について説明するための第1の図 本発明の実施の形態2における時差画像について説明するための第2の図 本発明の実施の形態2における時差画像について説明するための第3の図 本発明の実施の形態3に係る姿勢推定装置の構成の一例を示すブロック図 本発明の実施の形態3に係る姿勢推定装置の動作の一例を示すフローチャート 本発明の実施の形態3における上半身姿勢推定処理の一例を示すフローチャート 本発明の実施の形態4に係る姿勢推定装置の構成の一例を示すブロック図 本発明の実施の形態5における向きの定義を説明するための図 本発明の実施の形態5に係る姿勢推定装置の構成の一例を示すブロック図 本発明の実施の形態5に係る足向き検出部の構成の一例を示すブロック図 本発明の実施の形態5に係る安定度算出部の構成の一例を示すブロック図 本発明の実施の形態5に係る姿勢推定部の構成の一例を示すブロック図 本発明の実施の形態5に係る姿勢推定装置の動作の一例を示すフローチャート 本発明の実施の形態5における足向き算出処理の一例を示すフローチャート 本発明の実施の形態5における足背矩形の候補の決定手法を説明するための図 本発明の実施の形態5における安定度算出処理の一例を示すフローチャート 本発明の実施の形態5における姿勢推定処理の一例を示すフローチャート 実験における左足向きおよび右足向きの検出結果を示すグラフ 実験における左右平均向きの算出結果を示すグラフ 実験における本発明の実施の形態5による安定度の算出結果を示すグラフ 実験における本発明の実施の形態5による身体向きの推定結果を示すグラフ 足向きを量子化した場合の実験における左足向きおよび右足向きの検出結果を示すグラフ 足向きを量子化した場合の実験における左右平均向きの算出結果を示すグラフ 足向きを量子化した場合の実験における本発明の実施の形態5による安定度の算出結果を示すグラフ 足向きを量子化した場合の実験における本発明の実施の形態5による身体向きの推定結果を示すグラフ
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する姿勢推定装置100は、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)などの記憶媒体、およびRAM(Random Access Memory)などの作業用メモリをそれぞれ有してもよい。この場合、以下に説明する各構成部の機能は、CPUが制御プログラムを実行することにより実現してもよい。
(実施の形態1)
本発明の実施の形態1は、本発明の基本的態様の一例である。
図1は、本実施の形態に係る姿勢推定装置の構成の一例を示すブロック図である。
図1において、姿勢推定装置100は、頭推定部120、足推定部130、および姿勢推定部140を有する。
頭推定部120は、人を含む画像の画像情報から、人の頭の位置を推定する。
足推定部130は、画像情報から、人の、足底が床面に対して平行な足の位置を推定する。
姿勢推定部140は、推定された頭の位置と推定された足の位置との相対的な位置関係に基づいて、人の姿勢を推定する。
なお、ここで、「人」は、人体あるいはロボットなどの多関節物体を含む人型多関節物体を意味する。また、「人の姿勢」は、人型多関節物体の、正面の向き、あるいは、当該向きに対応した形態を意味する。
このような姿勢推定装置100は、頭の位置と足の位置との相対的な位置関係に基づいて、人の姿勢を推定することができる。
背筋を伸ばして歩く通常の歩行において、通常、床面に対して平行に近い角度の足底部分は、体幹の正面方向(以下、「正面方向」という)に向かって、頭よりも前に位置する。これは、人の身体には、人の足は踵から体幹の正面方向に伸びており、膝下との角度が垂直から一直線程度しか曲がらず、かつ、膝は後ろ方向にしか曲がらない、という制約があるからである。
まず、人が直立しているとき、足は踵から前方に伸びている。そして、人の足の大きさは、頭の直径よりも大きい。このため、床面に対して平行に近い角度の(以下、適宜、「床面に対して平行な」という)足底部分は、頭よりも前方に位置する。次に、人は膝を曲げ伸ばして足を交互に動かし移動するが、後方の足の踵を床面に接触したままにすると、足首の角度が鋭角となり不自然な姿勢となる。このため、後方にある足は、踵を上げたほうが自然な姿勢となる。
つまり、後方の足の足底の角度は、床面に対して平行に近い角度から、床面に対して垂直の角度側へと変化する。一方、前方の足は踵を床面に接触したままにしても、足首の可動範囲となり不自然にはならない。このため、前方の足底の角度は、後方にある足よりも、床面に対して平行により近い状態となっている場合が多いことになる。ここで、背筋を伸ばして歩く通常の歩行とは、停止しての回転、後ろ歩き、および横歩きを含むものとする。
したがって、足底が床面に対して平行な足と頭との相対的な位置関係を用いることにより、人が、停止しての回転、後ろ歩き、および横歩きなどを行っていても、および、顔が身体の正面を向いていなくても、姿勢を推定することができる。すなわち、姿勢推定装置100は、人型多関節物体の姿勢を高精度に推定することができる。なお、床面が水平である場合、床面に対して平行であることと、水平であることとは、同義である。
(実施の形態2)
本発明の実施の形態2は、本発明を、撮影画像を入力して撮影画像に含まれる人の姿勢を推定する装置に適用した場合の、本発明の具体的態様の一例である。
まず、本実施の形態に係る姿勢推定装置を含む姿勢推定システムの概要について説明する。
図2は、本実施の形態における姿勢推定システムの構成の一例を示すシステム構成図である。図2において、姿勢推定システム200は、監視エリア310を撮影する監視カメラ320と、監視カメラ320と通信可能に接続された姿勢推定装置100とを有する。
監視カメラ320は、例えばデジタルビデオカメラであり、監視エリア310を斜め上方から撮影する。すなわち、監視カメラ320が撮影する画像は、人340および水平な床面330を含む実空間を撮影して得られた画像である。そして、監視カメラ320は、撮影映像の映像データを、姿勢推定装置100へ送信する。ここでは、監視エリア310の床面330を、姿勢推定の対象となる人340が歩行しているものとする。
姿勢推定装置100は、例えばパーソナルコンピュータであり、監視カメラ320から受信した映像データに基づいて、人340の姿勢を推定する。
以上で、姿勢推定システム200の概要についての説明を終える。
次に、本実施の形態において推定の対象となる人340の姿勢について説明する。
図3は、人340の身体の構成モデル(以下「身体モデル」という)410の一例を示す図である。身体モデル410は、姿勢推定に用いられる身体の各部位の位置関係を、模式的に示したものである。身体モデル410は、胴411、左大腿412、左下腿413、左足414、右大腿415、右下腿416、右足417、および頭418を少なくとも含む。
これらの各部位は、関節で接続されている。このため、各部位の可動域は、他の部位により制約を受ける。例えば、左足414は、左下腿413との接続点を中心とする所定の角度範囲でのみ動くことができる。本実施の形態では、姿勢推定装置100は、各部位の可動域の制約を用いて、身体モデル410における各部位の領域を画像情報から抽出するものとする。なお、姿勢推定装置100が用いる身体モデルは、図3に示す例に限定されるものではない。
本実施の形態において、人340は、床面330上を直立あるいは歩行するものとする。そして、推定の対象となる姿勢とは、人340の体幹(胴411)の正面の向きの水平線方向成分(以下「身体向き」という)とする。したがって、以下の説明において、垂直成分の方向については考慮しない。
図4は、本実施の形態における身体向きの定義を説明するための図である。図4に示すように、身体向き421は、人340の左肩と右肩とを結んだ線分422に対して3次元空間上で直交する線分の、左足および右足が向いている方の向きである。
例えば、身体向きを推定する手法としては、左足の向き423と、右足の向き424とを平均した向きである平均足向き425を用いることができる。平均足向き425は、人340が両足を着地した状態で自然な姿勢をとる場合、身体上の制約から、身体向き421に近似する。したがって、姿勢推定を行うためには、左右の足の向きを抽出し、その平均値をとればよい。
ところが、人340の服装の形状または色によって、画像情報から各部位を抽出できない場合がある。そのような場合には、足の向き検出が困難となる。
また、上述の従来技術を適用して姿勢推定を行うことが考えられる。しかしながら、上述の通り、従来技術は、人340が後ろ歩きを行っている場合、あるいは、顔を横に向けているような場合、姿勢を推定することができない。
そこで、本実施の形態に係る姿勢推定装置100は、後述するが、頭の位置と足の位置との相対的な位置関係に基づいて、人の姿勢を推定する。これにより、姿勢推定装置100は、より確実に(つまり高精度に)、人340の姿勢を推定することが可能となる。
以上で、推定の対象となる人340の姿勢についての説明を終える。
次に、姿勢推定装置100の構成について説明する。
図5は、姿勢推定装置100の構成の一例を示すブロック図である。図5において、姿勢推定装置100は、画像入力部110、頭推定部120、足底領域推定部131、足底重心推定部132、姿勢推定部140、推定結果出力部150を有する。なお、足底領域推定部131および足底重心推定部132は、実施の形態1の足推定部130に対応するものである。
画像入力部110は、人340および床面330を含む画像を入力する。
具体的には、画像入力部110は、監視カメラ320が撮影した映像の画像データを受信する。そして、画像入力部110は、当該映像を構成する単位となる静止画像(以下「フレーム」という)の画像データを、順次、頭推定部120および足底領域推定部131へ出力する。
頭推定部120は、画像の画像情報から、人340の頭の位置を推定する。
具体的には、頭推定部120は、入力された画像データから、画像における頭の領域を推定し、推定した頭の領域の重心位置(以下「頭重心位置」という)を、人340の頭の位置とする。そして、頭推定部120は、推定した頭重心位置の、画像上の水平線方向の位置を示す情報(以下「頭位置情報」という)を、姿勢推定部140へ出力する。
足底領域推定部131は、画像の画像情報から、画像における人340の足底の領域(以下「足底領域」という)を推定する。
具体的には、足底領域推定部131は、入力された画像データから、画像における人340の足と背景との境界線(以下「足底境界線」という)を推定し、推定した足底境界線に基づいて足底領域を推定する。また、足底領域推定部131は、推定した足底境界線の足底角度を推定する。足底角度とは、足底境界線が、基準方向である水平線方向と成す角の角度である。
そして、足底領域推定部131は、足底角度情報と足位置情報とを、互いに対応付けた状態で、足底重心推定部132へ出力する。ここで、足底角度情報とは、推定された足底角度を示す情報である。また、足位置情報とは、推定された足底領域の画像上における位置を示す情報である。
なお、足底境界線および足底領域の推定手法の詳細については、後述する。また、ここで、足底領域とは、足底の画像の領域ではなく、足底の位置(範囲)に対応する領域であるものとする。
足底重心推定部132は、推定された足底領域から、足底領域のうち水平に近い角度の(以下、単に「水平な」という)領域の重心位置(以下「足重心位置」という)を推定し、推定した足重心位置を、上述の足の位置とする。
具体的には、足底重心推定部132は、入力された足底角度情報および足位置情報から、足重心位置を推定する。そして、足底重心推定部132は、推定した足重心位置の、画像上の水平線方向の位置を示す情報(以下「足重心位置情報」という)を、姿勢推定部140へ出力する。
姿勢推定部140は、推定された頭の位置と推定された足の位置との相対的な位置関係に基づいて、人340の姿勢を推定する。
具体的には、姿勢推定部140は、入力された頭位置情報および足重心位置情報から、上記実空間の水平線方向における、頭重心位置に対して足重心位置が位置する側を判定する。そして、姿勢推定部140は、実空間の水平線方向(左右方向)のうち判定した側を、人340の正面側と推定する。
推定結果出力部150は、姿勢推定部140による姿勢の推定の結果を出力する。
具体的には、姿勢推定部140は、例えば液晶ディスプレイなどの表示装置を含む。姿勢推定部140は、姿勢が推定された場合にはその姿勢を示す情報を、姿勢が推定されなかった場合にはその旨を示す情報を、文字または画像の表示によってユーザに通知する。
このような姿勢推定装置100は、映像の各フレームから、人340の頭重心位置および足重心位置を推定し、推定したこれらの相対的な位置関係に基づいて、人340の姿勢を推定することができる。そして、これにより、姿勢推定装置100は、上述の通り、人340の姿勢を高精度に推定することができる。
なお、人340の両足の足底領域のうち水平に近い部分の足底境界線は、画像の水平線に近似した角度の部分が多くなる。言い換えると、人340の水平に近い角度の方の足や、足底のうち水平に近い部分に対応する足底境界線の方向(以下「境界線方向」という)は、水平線方向に近似する。これは、本実施の形態では、床面330が水平であるからである。この場合、人340がカメラに対して真横を向いていない場合にも、同一人物の足底の角度の相対関係は保たれる。
また、水平に近い角度の領域は、水平に近くない角度の領域よりも、床面330との角度がより近い。
したがって、水平線方向に近似する境界線方向の成分が多い足底領域を用いると、床面330の角度と近い角度の足底領域から、足重心位置を決定することができる。これは、姿勢推定の精度の向上に繋がる。
そこで、本実施の形態において、足底重心推定部132は、推定された片足ごとの足底領域のうち、水平線方向に近似する境界線方向の成分が多い足底領域のみを用いて、足重心位置を推定する。
以上で、姿勢推定装置100の構成についての説明を終える。
次に、姿勢推定装置100の動作について説明する。図6は、姿勢推定装置100の動作の一例を示すフローチャートである。
まず、ステップS1000において、画像入力部110は、1フレーム分の画像データを入力する。
そして、ステップS2000において、頭推定部120は、頭推定処理を行う。頭推定処理は、上述の頭位置情報を生成する処理である。
ここで、頭領域の抽出手法および頭重心位置の推定手法の一例について説明する。
まず、頭推定部120は、入力された画像データから、背景差分画像を生成して、人340と推定される領域(以下「人候補領域」という)を抽出する。ここで、背景差分画像とは、例えば、人340がいない状態で撮影された背景画像と、新たに入力された画像との差分を示す画像である。
図7は、背景差分画像の一例である。
図7に示すように、背景差分画像510は、例えば、入力画像と背景画像との画素値が異なる画素を白で表現し、入力画像と背景画像との画素値が同じ画素を黒で表現する。すなわち、背景差分画像510は、人340が存在する領域を、白の領域511で表現し、人340が存在しない領域を、黒の領域512で表現する。
人340の服装の形状または色によっては、図7に示すように、右太腿415、右下腿416、左太腿412、および左下腿413(図3参照)の領域が的確に抽出されない場合がある。また、靴の形状あるいは色によっては、右足417、左足414(図3参照)の形状も多様となり、特に足の甲の形状が多様となる。
しかし、図7からも分かるように、背景差分画像510は、頭部および足底(つまり靴の底側の部分)については、比較的安定してその形状を表現する。
なお、頭推定部120は、例えば、背景画像を予め保持し、背景画像と入力画像との差分を演算することにより背景差分画像510を生成する。あるいは、頭推定部120は、移動物体の領域を抽出することにより、背景差分画像510を生成してもよい。移動物体の領域の抽出は、例えば、1つ前のフレームと今回のフレームとの差分から、静止物体と移動物体との識別をすることにより行われる。
頭推定部120は、白の領域511を人候補領域として抽出し、そのうち、上部の領域を、頭候補領域として抽出する。上部の領域は、例えば、人候補領域(白の領域511)のうち上端から下方に向かって所定の比率(例えば、30%)の部分を含む領域として、予め定められている。
そして、頭推定部120は、抽出した頭候補領域から、ハフ変換などを用いて頭領域を抽出する。ハフ変換は公知の技術であり、エッジ情報から円の中心(X座標、Y座標)と半径を表す三つのパラメータを求めることができる。そして、頭推定部120は、この円の中心を、頭重心位置として算出する。
なお、頭推定部120は、ステップS2000の処理を、必ずしも後述のステップS3000の前に行う必要はなく、ステップS4000の処理の開始までに行えばよい。
図6のステップS3000において、足底領域推定部131は、足底領域推定処理を行う。足底境界線推定処理は、入力された画像データから、画像データに含まれる人340の、上述の足底角度情報および足位置情報を生成する処理である。
図8は、足底領域推定処理(図6のステップS3000)の一例を示すフローチャートである。
まず、ステップS3100において、足底領域推定部131は、入力された画像データから、人候補領域を抽出する。
具体的には、足底領域推定部131は、例えば、図7で説明した抽出手法により、人候補領域を抽出する。なお、頭推定部120と足底領域推定部131との間で、人候補領域の抽出結果を共用してもよい。
そして、ステップS3200において、足底領域推定部131は、抽出した人候補領域のうち、下部の領域を、足底候補領域として抽出する。足底候補領域とは、足底領域の全体を含むと推定される領域である。下部の領域は、例えば、人候補領域の下端から上方に向かって所定の比率(例えば、25%)の部分を含む領域として、予め定められている。
図9は、背景差分画像から足底候補領域以外を無視したときの一例を示す図である。また、図10は、図9に示す背景差分画像のうち足底候補領域を拡大した図である。
図10に示すように、足底候補領域520の大きさは、例えば、水平線方向にa、水平線に対して垂直な方向にbである。すなわち、aは、足底候補領域520のX座標の最大値であり、bは、Y座標の最大値である。
ここでは、足底候補領域520の左下の角を原点とし、水平線方向をX軸とし、垂直方向をY軸とする。この場合、足底候補領域520上の各画素の位置は、X座標値xとY座標値yとの組(x,y)により表現される。なお、0<=x<=a, 0<=y<=bである。
また、以下の説明では、X軸方向は、画像の水平線方向に一致しているものとする。
また、ここでは、足底候補領域520のローカル座標系を用いて足底候補領域520の各画素の位置を表現する例を説明するが、入力画像などのグローバル座標系を用いて画素位置を表現してもよい。座標値は、ローカル座標の原点のグローバル座標系での位置を用いることにより、ローカル座標系とグローバル座標系との間で変換することが可能である。
そして、図8のステップS3300において、足底領域推定部131は、足底境界線抽出処理を行う。足底境界線抽出処理とは、足底候補領域から、足底境界線を構成する画素(以下「足底境界画素」という)を抽出し、足底境界画素の位置を示す情報(以下「足底位置情報」という)を生成する処理である。
人340の足底は、靴または足の甲などの裏側となっているが、その外形のうち少なくとも下側の部分は、靴を含めた足の外形と同視できる。これは、通常、人の歩行時などは、足底は地面側を向くためである。そして、足底候補領域は、背景差分画像の一部であり、足底候補領域における人候補領域(図10における白い画素の領域)の外形は、靴を含めた足の外形と同視できる。
そこで、足底領域推定部131は、足底候補領域から人候補領域(図10における白い画素の領域)の外形のうち下側の部分を、上記足底境界線として抽出する。
図10に示すローカル座標系において、1つの足底領域に含まれる画素において、同じX座標値を持つ画素のうち、最もY座標値が小さい画素が、足底境界画素といえる。1つの足底領域に含まれる足底境界画素のY座標値は、そのX座標値から一意に定まる。
図11は、足底領域抽出処理(図8のステップS3300)の一例を示すフローチャートである。
なお、以下の説明において、足底領域に含まれるか否かの判断の対象となっている画素は、「判断対象画素」という。判断対象画素は、その座標が(x、y)である場合、G(x,y)と表す。また、入力画像のうち、人候補領域の画素(図10における白い画素)の値は、Tと表し、人候補領域以外の画素(図10における黒い画素)の値は、Fと表す。すなわち、例えば、座標(2、3)の判断対象画素が人候補領域に属する場合、当該判断対象画素は、G(2,3)=Tと表される。
また、X座標値xの位置に足底境界画素が存在するとき、当該足底境界画素のY座標値(以下「境界垂直位置」という)は、AG(x)と表す。すなわち、例えば、X座標値が3である足底境界画素のY座標値が、7であるとき、境界垂直位置は、AG(3)=7と表現される。
また、1つの足底候補領域から複数の足底領域が推定される場合もある。通常、人は2本の足で歩行するためである。n番目に抽出される足底領域の足底境界は、A(n)と表す。そして、n番目の足底領域にX座標値xの足底境界画素が含まれるとき、足底境界画素は、A(n)=AG(x)と表現される。
すなわち、例えば、1番目に抽出された足底領域に、X座標値が6の足底境界画素、X座標値が7の足底境界画素、およびX座標値が8の足底境界画素が含まれていたとする。この場合、1番目の足底領域の足底位置情報は、A(1)={AG(6),AG(7),AG(8)}と表現される。また、足底領域が複数存在する場合、足底領域は、A={A(1),A(2)}と表現される。
まず、ステップS3301において、足底領域推定部131は、判断対象画素の初期位置を決める。例えば、足底領域推定部131は、図10に示すように、足底候補領域520の左下隅(0,0)を、判断対象画素の初期位置とする。
また、足底領域推定部131は、1番目(n=1)の第1の足底領域(1)=0を新規に定義する。すなわち、足底領域推定部131は、x=0,y=0,n=1と設定する。ここで、第1の足底領域(1)=0とは、足底境界領域が1つも取得されていない状態を表す。
そして、ステップS3302において、足底領域推定部131は、現在の判断対象画素が、人候補領域に含まれるか否かを判断する。
具体的には、足底領域推定部131は、例えば、判断対象画素が白の場合(G(0,0)=T)、当該判断対象画素は足底領域に含まれると判断する。また、足底領域推定部131は、判断対象画素が黒の場合(G(0,0)=F)、当該判断対象画素は足底領域に含まれないと判断する。
足底領域推定部131は、判断対象画素が足底領域に含まれると判断した場合(S3302:YES)、ステップS3303へ進む。また、足底領域推定部131は、足底領域に含まれないと判断した場合(S3302:NO)、ステップS3304へ進む。
ステップS3303において、足底領域推定部131は、判断対象画素G(x,y)を足底境界画素として保持して、後述のステップS3306へ進む。
ステップS3304において、足底領域推定部131は、判断対象画素のY座標値が、足底候補領域のY座標の最大値bより小さい(y<b)か否かを判断する。
足底領域推定部131は、判断対象画素のyがbよりも小さい場合(S3304:YES)、ステップS3305へ進む。また、足底領域推定部131は、判断対象画素のyがbよりも小さくない場合(S3304:NO)、後述のステップS3308へ進む。
ステップS3305において、足底領域推定部131は、判断対象画素のY座標値を1増加(y=y+1)させて、ステップS3302の処理へ戻る。すなわち、足底領域推定部131は、判断対象画素G(x,y)をY軸方向に1つ移動させる。
ステップS3306において、足底領域推定部131は、X軸方向のうち原点側の方向に隣接する画素列に足底境界画素が存在しているか否かを判断する。そして、足底領域推定部131は、該当する足底境界画素が存在している場合、現在の判断対象画素が隣の画素列の足底境界画素と同一の足底境界線を構成し得るか否かを判断する。
具体的には、足底領域推定部131は、現在の判断対象画素G(x,y)の境界垂直位置AG(x)と、隣の画素列の境界垂直位置AG(x−1)との差の絶対値が、所定の閾値D以下であるか否かを判断する。
足底領域推定部131は、境界垂直位置AG(x)、AG(x−1)との差の絶対値が、閾値D以下である場合(|AG(x)−AG(x−1)|≦a)(S3306:YES)、ステップS3307へ進む。なお、足底領域推定部131は、隣接する画素列に足底境界画素が存在していいない場合(つまり、境界垂直画素位置AG(x−1)が存在しない場合)も、ステップS3307へ進む。また、足底領域推定部131は、境界垂直位置AG(x)、AG(x−1)との差の絶対値が、閾値Dを超える場合(|AG(x)−AG(x−1)|>a)(S3306:NO)、ステップS3308へ進む。
ステップS3307において、足底領域推定部131は、現在保持している足底位置情報A(n)に足底境界画素AG(x)を追加更新して、後述のステップS3309へ進む。これは、境界垂直位置AG(x)の画素とAG(x−1)の画素とが、同一の足底境界線を構成する可能性が高いためである。
ステップS3308において、足底領域推定部131は、現在保持している足底位置情報A(n)を保存し、次のn番目の足底位置情報A(n)を新規に定義して、ステップS3309へ進む。すなわち、足底領域推定部131は、nを1増加(n+1)させる。これは、境界垂直位置AG(x)の画素とAG(x−1)の画素とが、同一の足底境界線を構成する可能性が低いためである。
なお、足底領域推定部131は、新たに足底位置情報を定義する前に、直前に保持した足底位置情報に対して、足裏の境界線を示す情報としての信頼性を判別するための判別処理を行ってもよい。足底境界画素として検出された画素が、ノイズに起因するものであって、実際には足底の境界線を構成しない可能性があるからである。
かかる判別処理として、足底領域推定部131は、例えば、直前に保持した足底位置情報に含まれる足底境界画素のX座標の最大値と最小値との差分が、所定の値よりも大きいか否かを判断する。そして、足底領域推定部131は、かかる差分が所定の値よりも小さい場合、検出された足底境界画素がノイズによるものである可能性が高いとして、直前に保持した足底位置情報を削除する。これにより、足底領域推定部131は、足底領域の推定精度を向上させることができる。
そして、ステップS3309において、足底領域推定部131は、判断対象画素のX座標値xが、足底候補領域のX座標の最大値aよりも小さい(x<a)か否かを判断する。
足底領域推定部131は、判断対象画素のxがaよりも小さい場合(S3309:YES)、ステップS3310へ進む。また、足底領域推定部131は、判断対象画素のxがaよりも小さくない場合(S3304:NO)、図8の処理へ戻る。
ステップS3310において、足底領域推定部131は、判断対象画素のX座標値を1増加(x=x+1)させ、判断対象画素のY座標値を0に設定(y=0)して、ステップS3302の処理へ戻る。すなわち、足底領域推定部131は、判断対象画素G(x,y)を、X軸方向に1つ移動させつつ、Y軸方向の原点に戻す。
このようにして、足底領域推定部131は、足底候補領域から、足底領域ごとに(つまり片足ごとに)、足底位置情報を生成することができる。
なお、足底境界線の位置(つまり足底境界画素の位置)が分かれば、足底候補領域のうち、その上方に位置する人候補領域(図10の白い画素の領域)は、足底領域であることが分かる。
すなわち、足底領域推定部131は、足底境界線の位置の推定を介して、足底領域の位置を推定しているといえる。したがって、姿勢推定装置100は、推定した足底領域の位置に基づいて、姿勢推定を行うことが可能である。
ところが、図9および図10からも分かるように、足底領域の位置のみからでは、踵の方向と爪先の方向とを判断するのは困難である。
そこで、上述の通り、姿勢推定装置100は、頭の位置と足底が床面に対して平行な足(例えば、床面に接触している足)の位置との相対的な位置関係に基づいて、人の姿勢を推定する。姿勢推定装置100は、足底が床面に対して平行な足の位置として、水平線方向に近似する境界線方向の成分が多い足底領域の重心位置を、取得する。言い換えると、姿勢推定装置100は、境界線方向が水平線方向に近い足底領域(つまり足底角度が0に近い足底領域)に対して高い重みが付けられるように、足底領域全体に対して重み付けを行った上で、足底領域の重心を推定する。
そのために、足底領域推定部131は、推定された足底領域ごとに、足底角度を推定する。
図8のステップS3400において、足底領域推定部131は、足底角度推定処理を行う。足底角度推定処理は、推定された足底領域ごとに足底角度を抽出する処理である。
ここで、本実施の形態における足底角度の定義について説明する。
図12は、本実施の形態における足底角度の定義を説明するための図である。
図12に示すように、2次元画像である足底候補領域600から、第1の足底境界線611を有する第1の足底領域612と、第2の足底境界線621を有する第2の足底領域622とが抽出されたとする。なお、各足底領域は、楕円形で模式的に表現している。
姿勢推定装置100は、足底候補領域600上に、画像における水平線方向に相当する基準方向630を設定する。基準方向630は、例えば、監視カメラ310(図あ2参照)の設置角度などのカメラパラメータにより予め設定することができる。
そして、姿勢推定装置100は、第1の足底境界線611の方向である第1の方向613と基準方向630との間の角度である第1の第1の角度θ1により、第1の足底領域612(第1の足底境界線611)のの足底角度を定義する。また、姿勢推定装置100は、第2の足底境界線621の方向である第2の方向623と基準方向630との間の角度である第2の角度θ2により、第2の足底領域622(第2の足底境界線621)の足底角度を定義する。
なお、本実施の形態において、足底角度は、2次元画像である入力画像上での角度であるものとする。したがって、足底角度により推定される身体向きは、入力画像上で2次元的に定義される。但し、このように2次元的に定義される身体向きは、監視カメラ320の設置パラメータなどに基づいて、3次元の実空間での身体向きに変換することが可能である。
図13は、足底角度推定処理(図8のステップS3400)の一例を示すフローチャートである。
ここでは、1つの足底領域について足底角度を求める場合の処理を説明する。足底領域が複数存在する場合には、足底領域推定部131は、足底領域ごとに処理を繰り返す。すなわち、複数の足底領域が抽出された場合、足底領域推定部131は、以下に説明する処理を繰り返すことにより、それぞれの第足底領域(n)について足底角度θ(n)を抽出する。
まず、ステップS3401において、足底領域推定部131は、基準点抽出処理を行う。基準点抽出処理とは、足底境界線から、角度推定のために用いる後述の矩形を回転させる基準となる回転基準点を抽出する処理である。
図14は、基準点抽出処理を説明するための図である。ここで、黒い画素は、足底境界線を構成する足底境界画素を示し、白い画素は、足底境界画素以外の画素を示す。
図14に示すように、例えば、右下がりの足底境界線651が抽出されたとする。この場合、足底領域推定部131は、足底境界線651を構成する足底境界画素のうち、Y座標値が最も小さい右端の画素652を、回転基準点として選択する。そして、足底領域推定部131は、回転基準点である画素652に基準として、足底角度を推定するための矩形653を設定する。
具体的には、足底領域推定部131は、所定の大きさの矩形653を、その頂点の1つを回転基準点に一致させて配置する。足底領域推定部131は、矩形653の大きさを、予め設定された固定の大きさとしてもよいし、人候補領域の大きさに応じて変化させてもよい。
足底領域推定部131は、後述するが、矩形653を、回転基準点を中心として回転させる。矩形653の角度は、矩形653の長辺のうち回転基準点と接する長辺が伸びる方向である矩形基線654と、水平線方向に対応する基準方向655との間の角度656で定義される。
そして、図13のステップS3402において、足底領域推定部131は、矩形653を所定の角度刻みで回転させ、回転角度ごとに、矩形653に含まれる足底境界画素の数をカウントする。例えば、10度刻みに矩形653を回転させる場合、1回転は360度であるため、36回分のカウント値が得られる。足底領域推定部131は、足底領域ごとに、回転角度と当該回転角度における足底境界画素のカウント値とのペアをリスト化して保持する。
そして、ステップS3403において、足底領域推定部131は、上記ペアのリストに基づいて、足底角度θ(n)を選択する。そして、選択した足底角度θ(n)を示す足底角度情報を生成して、図8の処理へ戻る。
具体的には、例えば、足底領域推定部131は、最も大きいカウント値が得られた回転角度を、足底領域(足底境界線)の足底角度とする。最も大きいカウント値が得られた回転角度が複数存在する場合、足底領域推定部131は、それら複数の回転角度の平均の角度を、足底角度としてもよい。また、足底領域推定部131は、各回転角度に対してカウント値に応じた重み付けを行って得られる平均の角度を、足底角度としてもよい。
そして、姿勢推定装置100は、図6の処理へ戻る。
そして、図6のステップS4000において、足底重心推定部132は、足底重心推定処理を行う。足底重心推定処理とは、足底位置情報および足底角度情報(A(n),θ(n))に基づいて、足重心位置を推定し、足重心位置情報を生成する処理である。
具体的には、例えば、足底重心推定部132は、境界線方向がより水平線方向の角度に近い方の足底領域の足底境界画素の重心を、足重心位置Cとする。これは、2つの足底領域が存在するとき、これら2つの足底領域のうち足底角度が水平に近い方に体重の重心が掛かっている可能性が高いためである。
足底重心推定部132は、例えば、以下の式(1)を用いて、境界線方向がより水平線方向の角度に近い方の足底領域の足重心位置Cを算出する。ここで、kは、足底境界画素の数を表し、AG(m)は、m番目の足底境界画素の境界垂直位置を表し、AGK(m)は、m番目の足底境界画素のX座標値を表す。
図10に示す例では、第2の角度θ2の方が、第1の角度θ1よりも0度に近い。すなわち、第2の足底領域622(第1の足底境界線621)の境界線方向のほうが、第1の足底領域612(第1の足底境界線611)の境界線方向よりも、水平線方向に近い。したがって、この場合、足底重心推定部132は、第2の足底領域622に体重の重心が掛かっているものとして、当該領域の重心を、足重心位置とする。
このようにして、足底領域推定部131は、推定された足底領域から、足底領域のうち床面に平行な領域の重心位置である足重心位置を推定することができる。
なお、2つの足底領域の足底角度が等しい場合、足底重心推定部132は、これら2つの足底領域全体の重心位置を、足重心位置としてもよい。
また、足底領域が3つ以上(n>2)抽出された場合、足底領域推定部131は、これら3対上の足底領域の中から、所定の条件を満たす足底領域を2つ抽出するようにしてもよい。所定の条件は、例えば、所定の位置にあること、所定の大きさ以上の大きさであること、あるいは、面積が最も大きい上位2つに含まれることである。このように複数の条件を設定して抽出することで、足底領域推定部131は、入力された画像データの品質に応じて精度よく足底領域を抽出することができる。
また、足底領域推定部131は、入力された画像データと推定結果とを、関連付けて保持するようにしてもよい。
そして、ステップS5000において、姿勢推定部140は、姿勢推定処理を行う。姿勢推定処理とは、ステップS2000で生成された頭位置情報と、ステップS4000で生成された足重心位置情報とに基づいて、姿勢推定処理を行う処理である。
図15は、姿勢推定処理(図6のステップS5000)の一例を示すフローチャートである。
まず、ステップS5100において、姿勢推定部140は、重心位置比較処理を行う。重心位置比較処理とは、頭重心位置と足重心位置との相対的な位置関係を判定する処理である。
具体的には、姿勢推定部140は、頭重心位置のX軸座標値と、足重心位置のX軸座標値とを比較し、頭重心位置から足重心位置へと向かう方向(以下「足重心方向」という)が、X軸のプラス側方向かマイナス側方向かを判定する。
そして、ステップS5200において、姿勢推定部140は、身体向き推定処理を行う。身体向き推定処理とは、頭重心位置と足底重心位置との相対的な位置関係と、予め設定したルールとに基づいて、人340の身体向きを推定する処理である。
具体的には、姿勢推定部140は、人340の姿勢を、判定した足重心方向に正面方向が向いている姿勢であると推定する。
例えば、姿勢推定部140は、水平線方向のうち頭重心位置から足重心位置へと向かう方向が、人340の身体向きであるというルール(if H<S then R, otherwise L)設定している。すなわち、姿勢推定部140は、頭重心位置のX軸座標値(H)よりも、足重心位置のX軸座標値(S)が大きい場合(H<S)、人340の正面方向は、X軸のプラス側に向いていると(身体向きがRであると)判定する。また、姿勢推定部140は、頭重心位置のX軸座標値(H)よりも、足重心位置のX軸座標値(S)が小さい場合、人340の正面方向は、X軸のマイナス側に向いていると(身体向きがLであると)判定する。
図16は、図7の背景差分画像から抽出される頭重心位置および足重心位置の一例を示す図である。
図16に示すように、頭重心位置671のX軸座標値672(H)は、足重心位置673のX軸座標値674(S)よりも小さい(H<S)。このような場合、姿勢推定部140は、人340の正面方向は、X軸のプラス側(紙面向かって右側、R)に向いていると判定する。
頭重心位置671のX軸座標値672(H)と足重心位置673のX軸座標値674(S)とが一致する場合(H=S)、姿勢推定部140は、1フレーム前の推定結果を転用するようにしてもよい。これは、1フレーム間隔といった短い時間では人340の姿勢が大きく変化することが少ないためである。あるいは、姿勢推定部140は、例えば、人340の正面方向が、監視カメラ320側またはその逆側に向いていると判定してもよい。
これにより、姿勢推定部140は、人340の進行方向にかかわらず、2次元画像における人340の身体向きをロバストに推定することができる。
そして、図6のS6000において、推定結果出力部150は、推定結果出力処理を行う。推定結果出力処理は、S5000で推定された身体向きを示す情報を出力する処理である。
例えば、推定結果出力部150、フレームごとに、入力画像に重畳して、推定した身体向きを示す矢印を、液晶ディスプレイに表示する。
そして、図6のS7000において、画像入力部150は、予め設定された所定の処理終了条件が満たされているか否かを判断する。所定の処理終了条件は、例えば、ユーザ操作により姿勢推定処理の終了を指示されることである。
画像入力部150は、所定の処理終了条件が満たされていない場合(S7000:NO)、ステップS1000へ戻って処理を繰り返す。また、画像入力部150は、所定の処理終了条件が満たされている場合(S7000:YES)、一連の処理を終了する。
このような動作により、姿勢推定装置100は、映像の各フレームから、人340の頭重心位置および足重心位置を推定し、推定したこれらの相対的な位置関係に基づいて、人340の姿勢を推定することができる。
以上で、姿勢推定装置100の動作についての説明を終える。
以上のように、本実施の形態に係る姿勢推定装置100は、入力画像から、人の、頭重心位置と、床面に平行な足底領域の重心位置である足重心位置とを推定する。そして、姿勢推定装置100は、推定した頭重心位置と足重心位置との相対的な位置関係に基づいて、人の姿勢(身体向き)を推定する。これにより、姿勢推定装置100は、人の姿勢を、高精度に推定することができる。
なお、上述の通り、人の姿勢は、短い時間では大きく変化することが少なく、特に、体重を掛けている足底領域の位置はほとんど変化しない。逆にいえば、人候補領域のうち、足底候補領域において撮影時刻が異なるフレームの間で変化していない領域は、体重を掛けている足底領域(つまり床面に接触しており、床面に平行となっている足底領域)である可能性が非常に高い。
そこで、姿勢推定装置100は、人候補領域のうち、足底候補領域において複数のフレーム間で重複している領域(以下「重複領域」という)を、足底領域と推定するようにしてもよい。
図17は、姿勢推定処理(図6のステップS5000)の他の例を示すフローチャートである。図17に示すフローチャートは、図15に示すフローチャートに、ステップS5001a〜ステップS5004aの処理を追加したものとなっている。図15と同一部分には、同一のステップ番号を付し、これについての説明を省略する。
まず、ステップS5001aにおいて、姿勢推定部140は、頭重心位置と足重心位置との水平線方向における差分(絶対値)が、予め定められた所定の閾値以上であるか否かを判断する。
姿勢推定部140は、上記差分が閾値以上の場合(S5001a:YES)、ステップS5100へ進む。また、姿勢推定部140は、上記差分が閾値未満である場合(S5001a:NO)、ステップS5002aへ進む。この際、姿勢推定部140は、上記差分が閾値未満であるために後述の時差足底境界画素に基づく重心位置推定が必要である旨を、足底重心推定部132に通知する。
ステップS5002aにおいて、足底重心推定部132は、足底領域推定部131から、現フレームの画像データと前フレームの画像データとを取得して、時差画像生成処理を行う。時差画像生成処理は、現フレームと前フレームとの間の各画素の画素値の一致不一致を表す、時差画像を生成する処理である。
ここで、現フレームとは、撮影時刻tに撮影された最新のフレームであり、前フレームとは、時刻tよりも所定の時間dだけ前の時刻t−dに撮影された過去のフレームである。所定の時間dは、例えば、fフレーム間隔(fは自然数)であり、人の歩行速度との関係で予め定められる時間長さである。
図18〜図20は、時差画像について説明するための図である。
図18は、現フレームの画像データから生成された背景差分画像の一例である。具体的には、図18は、X軸のマイナス方向に前向きに歩いている人を、左足を後方から前方へ移動させているときに撮影したときの背景差分画像の一例である。
図19は、前フレームの画像データから生成された背景差分画像の一例である。
図20は、図18に示す背景差分画像と図19に示す背景差分画像とから生成される、時差画像の一例である。
図18に示す、現フレームの人候補領域(白い領域)691は、2つの足底領域の足底角度が近似しており、頭重心位置と足重心位置の水平位置の差が小さい。このような場合、図15で説明した処理のみでは、姿勢推定を行うことが困難である。
また、図19に示す、前フレームの人候補領域(白い領域)692は、人の歩行により、現フレームの人候補領域691とは異なった位置および形状となっている。
現フレームは、左足を後方から前方へ移動させているときに撮影されたものである。この場合、体重の重心は右足に掛かり、右足の足底領域の位置はほとんど変化しない。したがって、右足の足底領域は、図20に示すように、前フレームの人候補領域692と現フレームの人候補領域691との重複領域(白い領域)693として表れる。このような重複領域693は、体重の重心が掛けられて床面と接触している足底領域である可能性が非常に高い。
そして、図17において、ステップS5003aにおいて、足底重心推定部132は、時差足底境界画素抽出処理を行う。時差足底境界画素抽出処理とは、生成した時差画像と、足底領域推定部131が生成した境界線位置情報とから、時差足底境界画素を抽出する処理である。ここで、時差足底境界画素とは、時差画像に含まれる足底境界画素である。
具体的には、足底重心推定部132は、足底境界画素と重複領域との間で重複する画素を、時差足底境界画素として抽出する。
そして、ステップS5004aにおいて、足底重心推定部132は、重複領域と時差足底境界画素の位置情報とを用いて、足重心位置を推定する。
具体的には、足底重心推定部132は、上述の足底重心推定処理と同様の処理を、足底領域を重複領域に置き換え、足底境界線を差足底境界画素に置き換えて行う。
このように、姿勢推定装置100は、映像データ(画像の時系列データ)を用いて求めた足重心位置を用いて、姿勢推定を行ってもよい。これにより、姿勢推定装置100は、1フレームからのみでは判断が難しい場合にも、人340の進行方向にかかわらず、人340の身体向きをロバストに推定することができる。
(実施の形態3)
本発明の実施の形態3は、人が通常の歩行をしていない場合を考慮した例である。
上述の実施の形態2で説明した姿勢推定は、人が、背筋を伸ばして歩く通常の歩行を行っていることを前提としている。ところが、実際には、人がこのような通常の歩行を行っているとは限らず、例えば、前屈みになって床に落ちたものを拾っているといった姿勢をしていることも有り得る。このような場合には、足重心位置が頭重心位置よりも正面方向側に位置しないことも多い。したがって、通常の歩行を行っていないにもかかわらず頭重心位置と足重心位置との相対的な位置関係に基づく姿勢推定を行うと、誤った推定結果になる可能性がある。
そこで、本実施の形態に係る姿勢推定装置は、人が通常の歩行をしているか否かを、人の上半身の角度に基づいて推定する。そして、本実施の形態に係る姿勢推定装置は、人が通常の歩行をしていないと推定されることを条件として、上述の位置関係に基づく姿勢推定を行うようにする。
図21は、本実施の形態に係る姿勢推定装置の構成の一例を示すブロック図であり、実施の形態2の図5に対応するものである。図5と同一部分には同一符号を付し、これについての説明を省略する。
図21において、姿勢推定装置100bは、図5の構成に加えて上半身姿勢推定部160bを有する。
上半身姿勢推定部160bは、画像情報から、人の上半身の角度を推定する。
具体的には、上半身姿勢推定部160bは、画像入力部110から、撮影画像の画像データを入力し、入力した画像データから、人の頭418の位置および胴411(図3参照)の位置を推定する。そして、上半身姿勢推定部160bは、頭位置と胴位置との相対的な位置関係から、画像に含まれる人の上半身角度を推定する。
ここで、頭位置とは、推定された頭418の位置であり、例えば、頭推定部120と同様にして推定される頭重心位置である。胴位置とは、推定された胴411の位置である。また、上半身角度とは、人の上半身の向きを示す情報であり、例えば、実空間における垂直方向に対する上半身の傾きの角度である。
そして、上半身姿勢推定部160bは、推定された上半身角度が、予め定められた所定の範囲内にあるか否かを判断する。所定の範囲とは、人が通常の歩行を行っているときの上半身角度の範囲である。上半身姿勢推定部160bは、上半身角度が所定の範囲内にあるか否かを示す情報を、足底領域推定部131および頭推定部120へ出力する。
なお、本実施の形態において、頭推定部120および足底領域推定部131は、推定された上半身の角度が所定の範囲内にある場合にのみ、実施の形態2で説明した処理を行うものとする。すなわち、本実施の形態では、推定結果出力部150は、推定された上半身の角度が所定の範囲内にあることを条件として、姿勢の推定の結果を出力する。
また、本実施の形態において、推定結果出力部150は、頭推定部120および足底領域推定部131が処理を行わない結果、姿勢推定を行うことができなかった場合、エラーメッセージを出力するようにしてもよい。
図22は、姿勢推定装置の動作の一例を示すフローチャートである。図22に示すフローチャートは、実施の形態2の図6に示すフローチャートに、ステップS1100b、S1200bの処理を追加したものとなっている。図6と同一部分には、同一のステップ番号を付し、これについての説明を省略する。
ステップS1100bにおいて、上半身姿勢推定部160bは、上半身姿勢推定処理を行う。胴領域推定処理とは、画像に含まれる人340の上半身角度を推定する処理である。
図23は、上半身姿勢推定処理(図22の実施のS1100b)の一例を示すフローチャートである。
まず、ステップS1101bにおいて、上半身姿勢推定部160bは、胴領域推定処理を行う。胴領域推定処理とは、画像に含まれる人340の胴領域を推定する処理である。
具体的には、上半身姿勢推定部160bは、例えば、実施の形態2で説明した頭領域の推定の手法と同様の手法を用いて、胴領域を求める。なお、この際、上半身姿勢推定部160bは、ハフ変換を用いて楕円で胴領域を近似すればよい。ハフ変換は、公知の技術であり、エッジ情報から楕円の中心(X座標、Y座標)、長軸、短軸、傾きを表す5つのパラメータを求めることができる。上半身姿勢推定部160bは、この楕円の中心位置を、胴の重心位置(以下「胴重心位置」という)として算出する。
そして、ステップS1102bにおいて、上半身姿勢推定部160bは、傾き推定処理を行って、図22の処理へ戻る。傾き推定処理とは、頭重心位置と胴重心位置との相対的な位置関係から、人の上半身の傾きを推定する処理である。
具体的には、上半身姿勢推定部160bは、頭重心位置および胴重心位置を通る直線と、上記実空間の垂直方向(水平線方向と直交する方向)とが成す角の角度を、上半身角度として推定する。
なお、上半身姿勢推定部160bは、胴領域の長手方向(例えば、楕円の長軸方向)など、他の情報に基づいて、上半身角度を推定してもよい。
そして、図22のステップS1200bにおいて、上半身姿勢推定部160bは、推定した上半身角度から、人の上半身が垂直であるか否かを判断する。
具体的には、上半身姿勢推定部160bは、上半身角度が上述の所定の範囲内にあるか否かの判断を、上半身が垂直であるか否かの判断として行う。
上半身姿勢推定部160bは、上半身が垂直である場合(S1200b:YES)、ステップS2000へ進む。また、上半身姿勢推定部160bは、上半身が垂直ではない場合(S1200b:NO)、ステップS6000へ進む。すなわち、姿勢推定装置100bは、上半身が垂直ではない場合、姿勢推定を行わない。
このように、本実施の形態に係る姿勢推定装置100bは、上半身角度を推定する。そして、姿勢推定装置100bは、上半身角度が予め定められた所定の範囲内にあることを条件として、上述の頭重心位置と足重心位置との相対位置関係に基づく姿勢推定の結果を出力する。
これにより、姿勢推定装置100bは、かかる姿勢推定の前提条件に当てはまらない画像に対する姿勢推定結果の出力を事前に省くことができるため、出力する姿勢推定結果の精度を向上させることができる。
なお、以上説明した、本発明の実施の形態2および実施の形態3では、背景差分画像から足底領域を推定する処理について説明したが、これに限定されない。例えば、姿勢推定装置は、公知技術であるメディアンフィルタを用いて背景差分画像からノイズを除去した画像を用いてもよい。また、姿勢推定装置100は、背景差分画像とエッジ画像とを重畳して得られる画像を用いてもよい。
また、姿勢推定装置は、画素ごとに、人の足の太さに対応する幅の平行線が存在する確率を記述した足底尤度マップを用いて、足底領域を推定してもよい。これにより、ノイズが除去されたり、欠損した情報が補完されたりするため、姿勢推定装置100は、より正確に足底領域を推定することができる。
また、図8のステップS3400の足底角度抽出処理に関して、姿勢推定装置は、矩形の回転以外の手法を用いて足底角度を推定してもよい。例えば、姿勢推定装置は、公知技術である最小二乗法を足底境界画素に適用して近似直線を算出し、近似直線と水平線方向とが成す角から足底角度を推定してもよい。
また、姿勢推定装置は、1つの足底領域を複数の領域に分割し、分割領域ごとに、足底角度を推定してもよい。また、この場合、姿勢推定装置は、公知の技術である最小二乗法を用いて、足底境界画素についての多項式近似曲線を求め、係数を出力してもよい。このように、足底領域を複数に分割して足底角度を細かく推定することにより、姿勢推定装置は、図6のステップS3000の足底重心推定処理において、境界線方向がより水平線方向に近い部分の足底境界画素の情報のみを用いることが可能となる。すなわち、姿勢推定装置は、足重心位置の推定精度を向上させることができる。
また、図6のステップS3000の足底重心推定処理に関して、姿勢推定装置は、境界線方向が水平線方向により近い方の足底領域の足底境界画素のうち、最もY座標値が小さい画素を、足重心位置として出力してもよい。これにより、姿勢推定装置は、ヒールが高い靴などの、靴底の平面の部分が少ない靴を人が履いている場合に、足底領域のうち床面に対して平行な領域に対応する足重心位置を、精度よく求めることが可能となる。
また、1つの足底領域が、複数の領域とそれぞれの足底角度とで表現されている場合、姿勢推定装置は、足底領域ごとに、境界線方向が最も0度でより水平に近い領域の足底境界画素の重心を、足重心位置とするようにしてもよい。これにより、姿勢推定装置100は、足底が柔軟な靴を人340が履いている場合に、足底領域のうち床面に対して平行な領域に対応する足重心位置を、精度よく求めることが可能となる。
また、足底境界画素が多項式近似曲線で近似されている場合、姿勢推定装置は、各足底境界画素に対して、当該曲線の傾き情報に応じて重み付けを行い、足重心位置を推定してもよい。
すなわち、姿勢推定装置は、足底重心推定部において、推定された足底領域のうち、水平線方向により近似する方向の足底境界線に対応する部分に対して、より高い重みが付けられるように、足底領域に対して重み付けを行ってもよい。そして、姿勢推定装置は、得られた重みの重心位置を、足重心位置としてもよい。
具体的には、姿勢推定装置は、足底領域の多項式近似曲線の傾きが0(水平)に近いほど、足重心位置に対して影響が大きくなるように、各足底境界画素に対して重み付けを行う。逆にいえば、姿勢推定装置は、足底領域の多項式近似曲線の傾きが大きいほど、足重心位置に対して影響が小さくなるように、各足底境界画素に対して重み付けを行う。そして、姿勢推定装置は、重み付けを行った後に、足重心位置を求める。
例えば、姿勢推定装置は、以下の式(2)を用いて、足重心位置Cを算出する。ここで、g(m)は、m番目の足底境界画素に対して決定された重みを表す。但し、g(m)は、以下の式(3)を満たすものとする。

これにより、姿勢推定装置は、足底角度の変化点の足底境界画素の角度を、より適切に足重心位置に反映することができ、足重心位置の推定精度を向上させることができる。
また、姿勢推定装置は、単眼カメラの撮影映像からではなく、距離画像カメラまたはステレオカメラにより得られた映像あるいは画像など、単眼カメラの画像以外の画像から、上述の姿勢推定を行ってもよい。
また、姿勢推定装置は、エッジ画像、または各部位が位置することの確からしさの分布を示す尤度マップなど、他の画像情報から、足底領域を推定してもよい。
また、姿勢推定装置は、足底が水平な足裏領域を、境界線方向以外の情報に基づいて推定してもよい。例えば、床面に接触センサが備えられている場合には、姿勢推定装置は、足裏領域のうち接触センサーにより接触が検出された領域と一致する足裏領域を、床面と接触しており足底が平行な足裏領域である、と推定してもよい。すなわち、足推定部は、床面に接触している足の位置を、足底が床面に対して平行な足の位置としてもよい。
また、姿勢推定装置は、人の、頭の位置および足底が床面に対して平行な足の位置として、実施の形態2および実施の形態3で説明した重心位置以外の位置を採用してもよい。例えば、姿勢推定装置は、人候補領域のうち、Y軸座標値が最も大きい画素の位置を、頭の位置とし、Y軸座標値が最も小さい画素の位置を、足底が床面に対して平行な足の位置としてもよい。
また、本発明に係る姿勢推定装置は、人ではなく、人型ロボットあるいは2足歩行を行う動物など、他の各種人型多関節物体に対して、同様に、その体幹の向きの推定を行ってもよい。
また、本発明は、人型多関節物体以外にも、頭の位置と足底が床面に対して平行な足の位置との相対的な位置関係と、姿勢との間に関連性が認められる、各種の多関節物体(3足以上のものを含む)に対して適用することが可能である。
(実施の形態4)
本発明の実施の形態4は、本発明の基本的態様の一例である。
図24は、本実施の形態に係る姿勢推定装置の構成の一例を示すブロック図である。
図24において、姿勢推定装置100cは、人体を含む人型多関節物体の姿勢を推定する装置であり、足向き検出部170、安定度算出部180、および姿勢推定部140を有する。
足向き検出部170は、実施の形態1から3のいずれかの構成を用いて、人型多関節物体の左足向きと、人型多関節物体の右足向きとを検出する。
安定度算出部180は、左足向きの安定度である左足安定度と、右足向きの安定度である右足安定度とを算出する。
姿勢推定部140は、左足安定度、左足向き、右足安定度、および右足向きから、人型多関節物体の姿勢として、人型多関節物体の体幹の向きを推定する。
このような姿勢推定装置100cは、左足向きおよび右足向きから、人型多関節物体の姿勢として、身体向きを推定する。ところが、着地している方の足の足背(つまり足の甲、足の表)の向きは、安定して精度良く体幹の向きに対応するのに対し、着地していない方の足の足背の向きは、安定しておらず体幹の向きに対して多少のばらつきがある。そこで、姿勢推定装置100cは、左足向きおよび右足向きだけでなく、それぞれの足背向きの安定度に基づいて、身体向きを推定する。これにより、姿勢推定装置100cは、人型多関節物体の姿勢を高精度に推定することができる。
(実施の形態5)
本実施の形態は、本発明を、人を撮影した映像から、当該人の体幹の向きを推定する姿勢推定装置に適用した場合の具体的態様の一例である。
まず、本実施の形態に係る姿勢推定システムは、図2を用いて説明したものと同じであるので、ここでの詳細な説明は省略する。ただし、図2において、姿勢推定装置100は、本実施の形態に係る姿勢推定装置100cに置き換わる。
また、本実施の形態において推定の対象となる人340の姿勢については、図3を用いて説明した通りである。よって、その詳細な説明は省略する。
図4は、本実施の形態における身体向き推定の原理を説明するための図である。
図4に示すように、身体向き421は、人340の左肩と右肩とを結んだ線分(以下「肩ライン」という)422に3次元空間上で直交する向きのうち、左足背および右足背(以下、適宜「足背」と総称する)が向いている方の向きである。
ここで、左足の足背の向き(以下「左足向き」という)423と、右足の足背の向き(以下「右足向き」という)424とを平均した向きである平均足向き425を考える。この平均足向き425は、人340が両足を着地した状態で自然な姿勢をとる場合、身体上の制約から、身体向き421と略等しくなる。したがって、姿勢推定を行うためには、左右の足背の向きを抽出し、その平均値をとればよいことが分かる。
ところが、人340が歩行中などで片足を着地していない場合、その足背の向きの自由度が高くなり、平均足向き425が身体向き421に一致する精度が低くなる。
一方で、着地している方の足は、バランスを取るための軸足となり、その足背の向きは安定し、身体向き421との相関は高い。そして、人が身体向きを変える場合、軸足を切り替える動作を繰り返し、いずれか一方は軸足となっている状態となる。
そこで、姿勢推定装置100cは、左右それぞれの足背向きの安定度を算出し、算出した安定度を考慮して、身体向きを推定する。具体的には、姿勢推定装置100cは、左足背向きの安定度(以下「左足安定度」という)および右足背向きの安定度(以下「右足安定度」という)に基づく重み付けを行って、左足向き423と右足向き424とを合成する。そして、姿勢推定装置100cは、この重み付き合成により得られた向きを、人340の身体向きとする。
これにより、姿勢推定装置100cは、身体向きとの相関が高い軸足のほうの足背の向きの重みを常に高くした状態で、身体向きを推定することができる。
なお、本実施の形態において、安定度とは、足向き(足背の向き)の変動が小さい状態が継続している時間が長いほど、より高くなる値とする。言い換えると、本実施の形態において、安定度とは、足背の向きが連続的に同一方向を向いている時間の長さを示す指標である。
人体を含む人型多関節物体は、身体向きの変化に関連しない動きの場合、足背の向きが変わり易いという特性を有する。身体向きの変化に関連しない動きとは、たとえば、空中で足をぶらぶらさせるといった動きである。したがって、逆に、足背の向きが長く同じ状態に留まっている場合、その足背の向きは物体の身体向きとの関連性が高いといえる。したがって、安定度は、足背の向きと身体向きとの相関の高さの度合いを示す指標といえる。安定度の求め方の詳細については、後述する。
また、本実施の形態では、姿勢推定装置100cは、3次元の実空間での向きではなく、2次元の映像面上での向きを、左足背向き、右足背向き、および身体向きとして取得するものとする。
図25は、本実施の形態における向きの定義を説明するための図である。
図25に示すように、姿勢推定装置100cは、映像面431に、基準向き(例えば、水平右向き)432を予め設定する。そして、姿勢推定装置100cは、左足向き423が基準向き432と成す時計回りの角度433により、左足向き423を定義し、右足向き424が基準向き432と成す時計回りの角度434により、右足向き424を定義する。また、姿勢推定装置100cは、身体向き435を、基準向き432と成す時計回りの角度436により定義する。
なお、このようにして定義される身体向き435は、監視カメラ320の設置パラメータおよび標準的な身体の長さ情報から、3次元の実空間での向きに変換することが可能である。
以上で、姿勢推定システム200の概要についての説明を終える。
次に、姿勢推定装置100cの構成について説明する。図26は、姿勢推定装置100cの構成の一例を示すブロック図である。
図26において、姿勢推定装置100cは、画像入力部110、足向き検出部170、足向き履歴保持部190、安定度算出部180、安定度履歴保持部210、姿勢推定部140、姿勢履歴保持部220、および推定結果出力部150を有する。
画像入力部110は、監視カメラ320が撮影した映像の映像データを受信し、当該映像を構成する単位となる静止画像(以下「フレーム」という)の画像データを、順次、足向き検出部170へ出力する。
足向き検出部170は、入力された画像データの画像(映像、以下適宜「画像データ」という)から、撮影映像に含まれる人の左足向きおよび右足向きを検出する。そして、足向き検出部170は、検出した左足向きおよび右足向きを、安定度算出部180および足向き履歴保持部190へ出力する。
足向き検出部170の構成の一例としては、実施の形態1の構成を示す図1、実施の形態2の構成を示す図5、または実施の形態3の構成を示す図21を用いて、左足向きと右足向きを取得するようにしてもよい。
具体的には、足推定部130(図1)または、足底領域推定部131(図5または図21)で足底領域ごと推定した足底角度と、姿勢推定部140(図1、図5または図21)で推定した正面向きの情報から、各足の踵から爪先の向きを算出する。
図27は、足向き検出部170の別の構成の一例を示すブロック図である。
図27において、足向き検出部170は、下腿抽出部171、足背抽出部172、および足背向き推定部173を含む。
下腿抽出部171は、画像入力部110から入力された画像データから、人の左下腿が位置すると推定される矩形領域を、左下腿矩形として抽出する。また、下腿抽出部171は、画像データから、人の右下腿が位置すると推定される矩形領域を、右下腿矩形として抽出する。そして、下腿抽出部171は、抽出した左下腿矩形および右下腿矩形(以下、適宜「下腿矩形」と総称する)と画像データとを、足背抽出部172へ出力する。
足背抽出部172は、入力された画像データおよび左下腿矩形から、左足背が位置すると推定される矩形領域を、左足背矩形として抽出する。また、足背抽出部172は、画像データおよび右下腿矩形から、右足背が位置すると推定される矩形領域を、右足背矩形として抽出する。そして、足背抽出部172は、抽出した左足背矩形および右足背矩形(以下、適宜「足背矩形」と総称する)と画像データとを、足背向き推定部173へ出力する。
足背向き推定部173は、入力された上記画像データおよび左足背矩形から、左足向きを推定する。また、足背向き推定部173は、画像データおよび右足背矩形から、右足向きを推定する。そして、足背向き推定部173は、推定した左足向きおよび右足向き(以下、適宜「足向き」と総称する)を、足向き履歴保持部190および安定度算出部180へ出力する。また、足背向き推定部173は、画像データを、推定結果出力部150へ出力する。
なお、足背向き推定部173は、画像データにノイズが生じた場合など、画像データおよび左足背矩形からのみでは左足向きを推定することができない場合が有り得る。この場合、足背向き推定部173は、例えば、足向き履歴保持部190に保持された、前回のフレームで推定された左足向きを、今回のフレームの左足向きとして取得する。
同様に、足背向き推定部173は、画像データおよび右足背矩形からのみでは右足向きを推定することができない場合がある。この場合、足背向き推定部173は、足向き履歴保持部190に保持された、前回のフレームで推定された右足向きを、今回のフレームの右足向きとして取得する。
図26の足向き履歴保持部190は、今回のフレームで入力された(以下、単に「今回の」という)左足向きおよび右足向きと、前回のフレームで入力された(以下、単に「前回の」という)左足向きおよび右足向きとを、保持する。
安定度算出部180は、入力された今回の左足向きと、足向き履歴保持部190に保持された前回の左足向きとから、左足安定度を算出する。また、安定度算出部180は、入力された今回の右足向きと、足向き履歴保持部190に保持された前回の右足向きとから、右足安定度を算出する。そして、安定度算出部180は、算出した左足安定度および右足安定度を、安定度履歴保持部210および姿勢推定部140へ出力する。
図28は、安定度算出部の構成の一例を示すブロック図である。
図28において、安定度算出部180は、差分演算部181および安定度演算部182を有する。
差分演算部181は、足向き検出部170から入力された今回の左足向きと、足向き履歴保持部190に保持された前回の左足向きとの差分を、左足差分として算出する。また、差分演算部181は、足向き検出部170から入力された今回の右足向きと、足向き履歴保持部190に保持された前回の右足向きとの差分を、右足差分として算出する。そして、差分演算部181は、算出した左足差分および右足差分(以下、適宜「差分」と総称する)を、安定度演算部182へ出力する。
安定度演算部182は、入力された左足差分を所定の閾値と比較し、左足向きの変動が小さい状態が継続している時間が長いほど、左足安定度がより高い値となるように、安定度を算出する。この際、安定度演算部182は、入力された左足差分を用い、更に、安定度履歴保持部210に前回のフレームで算出された(以下、単に「前回の」という)左足安定度が保持されている場合、その保持された前回の左足安定度を用いる。また、安定度演算部182は、入力された右足差分を所定の閾値と比較し、右足向きの変動が小さい状態が継続している時間が長いほど、右足安定度がより高い値となるように、右足安定度を算出する。この際、安定度演算部182は、入力された右足差分を用い、更に、安定度履歴保持部210に前回の右足安定度が保持されている場合、その保持された前回の右足安定度を用いる。そして、安定度演算部182は、算出した左足安定度および右足安定度を、安定度履歴保持部210および姿勢推定部140へ出力する。
図26の安定度履歴保持部210は、安定度演算部182から入力された前回の左足安定度および右足安定度を、保持する。
姿勢推定部140は、入力された左足安定度および右足安定度と、足向き履歴保持部190に保持された今回の左足向きおよび右足向きとから、撮影映像に含まれる人(ここでは人340)の身体向きを推定する。そして、姿勢推定部140は、推定結果を、姿勢履歴保持部220および推定結果出力部150へ出力する。
より具体的には、姿勢推定部140は、左足安定度および右足安定度に基づく重み付けを行って、左足向きと右足向きとを合成することにより、身体向きを推定する。
図29は、姿勢推定部140の構成の一例を示すブロック図である。
図29において、姿勢推定部140は、バランス度算出部141および姿勢推定記録部142を有する。
バランス度算出部141は、安定度算出部180から入力された左足安定度および右足安定から、左バランス度および右バランス度を算出する。より具体的には、バランス度算出部141は、左足安定度が高いほど左バランス度が相対的により高い値となるように、かつ、右足安定度が高いほど右バランス度が相対的により高い値となるように、左バランス度および右バランス度を算出する。左バランス度は、後段の姿勢推定記録部142で左足向きと右足向きとを合成する際に用いられる、左足向きに対する重みである。右バランス度は、後段の姿勢推定記録部142で左足向きと右足向きとを合成する際に用いられる、右足向きに対する重みである。そして、バランス度算出部141は、算出した左バランス度および右バランス度を、姿勢推定記録部142へ出力する。
姿勢推定記録部142は、入力された左バランス度および右バランス度による重み付けを行って、足向き履歴保持部190に保持された今回の左足向きと、足向き履歴保持部190に保持された今回の右足向きとを合成する。そして、姿勢推定記録部142は、合成により得られた向きを、身体向きとして、姿勢履歴保持部220および推定結果出力部150へ出力する。
なお、姿勢推定記録部142は、姿勢履歴保持部220に、前回のフレームにおける(以下、単に「前回の」という)推定結果が保持されている場合には、前回の推定結果を更に用いて、身体向きを推定する。すなわち、姿勢推定記録部142は、重み付けがされた左足向きおよび右足向きと、前回の身体向きとを合成して、身体向きの推定値を算出する。
図26の姿勢履歴保持部220は、姿勢推定記録部142から入力された前回の推定結果(推定された身体向き)を、保持する。
推定結果出力部150は、入力された推定結果を出力する。例えば、推定結果出力部150は、足向き検出部170から入力された画像データに、姿勢推定部140から入力された身体向きを示す矢印画像を重畳して得られる画像を、液晶ディスプレイ(図示せず)に表示する。
このような姿勢推定装置100cは、左足向きおよび右足向きから、それぞれの安定度を考慮しつつ、人の身体向きを推定することができる。すなわち、姿勢推定装置100cは、足が動くことによる、足背の向きのばらつきの影響を軽減した状態で、姿勢推定を行うことができる。これにより、姿勢推定装置100cは、人型多関節物体の姿勢を高精度に推定することができる。
以上で、姿勢推定装置100cの構成についての説明を終える。
次に、姿勢推定装置100cの動作について説明する。図30は、姿勢推定装置の動作の一例を示すフローチャートである。
まず、ステップS1000において、画像入力部110は、1フレーム分の画像情報(撮影映像、画像データ)を入力する。
そして、ステップS2500において、足向き検出部170は、左足向きおよび右足向きを検出する足向き検出処理を行う。足向き検出処理は、検出された人領域に、予め用意した下腿矩形および足背矩形を複数の異なる位置(および向き)で配置したときに、そのマッチングスコアが一番高い位置(および向き)を下腿および足背の位置(および向き)とする処理である。
図31は、足向き算出処理(図30のステップS2500)の一例を示すフローチャートである。
まず、ステップS2510において、下腿抽出部171は、入力された画像データから、人が位置する領域(以下「人領域」という)を抽出する。人領域の抽出は、例えば、予め撮影され保持された背景のみの画像と、入力された画像データの画像との差分を抽出することにより、行うことができる。また、人領域の抽出は、1つ前のフレームの画像と、現在のフレームの画像との差分から、静止体と移動物体との識別をすることにより、行うことができる。
そして、ステップS2520において、下腿抽出部171は、抽出した人領域から、1つまたは複数の左下腿矩形の候補を、決定する。左下腿矩形の候補は、例えば、人領域のうち、下端から所定の比率(例えば、25%)の範囲を、左下腿および右下腿として扱い、顔領域検出などにより顔の方向を検出して左右を特定することにより、行うことができる。
そして、ステップS2530において、下腿抽出部171は、左下腿矩形の候補の1つを選択する。
そして、ステップS2540において、下腿抽出部171は、選択中の左下腿矩形の候補の内部において、人領域に含まれる画素の画素数をカウントする。そして、下腿抽出部171は、カウント値が第1の閾値以上であるか否かを判断する。下腿抽出部171は、カウント値が第1の閾値以上である場合(S2540:YES)、その左下腿矩形の候補を足背抽出部172へ出力して、ステップS2550へ進む。また、下腿抽出部171は、カウント値が第1の閾値未満である場合(S2540:NO)、ステップS2560へ進む。
ステップS2550において、足背抽出部172は、画像入力部110から入力された画像データから、下腿抽出部171から入力された左下腿矩形の候補に基づいて、複数の左足背矩形の候補を決定する。
図32は、足背矩形の候補の決定手法を説明するための図である。
図32に示すように、例えば、足背抽出部172は、まず、左下腿矩形440から、左下腿413の左足背441との接続点(以下「下腿側接続点」という)442を、左下腿矩形440の底面の中心とする。また、足背抽出部172は、足背側接続点444を、左足背矩形445の一方の短辺の中心とする。
そして、足背抽出部172は、決定した左下腿矩形440の候補ごとに、その下腿側接続点442を中心とする近傍の所定の範囲443を決定する。そして、足背抽出部172は、決定した範囲443において、左足背441の左下腿413との接続点(以下「足背側接続点」という)444の候補を、複数決定する(図32では、1つのみ図示)。足背抽出部172は、例えば、下腿側接続点442を中心とする30画素以内の範囲に、5画素の間隔で、足背側接続点444の候補を決定する。下腿側接続点442と足背側接続点444との位置関係は、身体制約の1つである。
更に、足背抽出部172は、決定した足背側接続点444の候補ごとに、その点を中心として所定の大きさの矩形を回転させる形で、左足背矩形445の候補を複数決定する(図32では、1つのみ図示)。足背抽出部172は、例えば、1度の間隔で、左足背矩形445の候補を決定する。
例えば、20個の足背側接続点444の候補が存在し、1度の間隔で左足背矩形445の候補を決定したとする。この場合、左足背矩形445の候補の数は、20×360=7200となる。なお、下腿側接続点442の候補および足背側接続点444の候補の決定の手法(範囲および間隔)や、左足背矩形445の候補の決定の手法(回転の間隔)は、上述の例に限定されない。
そして、図31のステップS2570において、足背抽出部172は、左足背矩形の候補の1つを選択する。
そして、ステップS2580において、足背抽出部172は、選択中の左足背矩形の候補の内部において、人領域であると推定される画素の画素数をカウントする。そして、足背抽出部172は、カウント値が第2の閾値以上であるか否かを判断する。足背抽出部172は、カウント値が第2の閾値以上である場合(S2580:YES)、ステップS2590へ進む。また、足背抽出部172は、カウント値が第2の閾値未満である場合(S2580:NO)、ステップS2600へ進む。
ステップS2590において、足背抽出部172は、選択中の左下腿矩形および左足背矩形の組に対応付けて、それらのカウント値の合計値を、記憶する。
そして、ステップS2600において、足背抽出部172は、全ての左足背矩形の候補を処理したか否かを判断する。足背抽出部172は、未処理の左足背矩形の候補が残っている場合(S2600:NO)、ステップS2570へ戻り、未処理の候補を選択して処理を行う。また、足背抽出部172は、全ての左足背矩形の候補を処理した場合(S2600:YES)、ステップS2560へ進む。
ステップS2570において、足背抽出部172は、選択中の左下腿矩形候補に関して、全ての左足背矩形の候補を処理したか否かを判断する。足背抽出部172は、未処理の左足背矩形の候補が残っている場合(S2600:NO)、ステップS2570へ戻り、未処理の候補を選択して処理を行う。また、足背抽出部172は、全ての左足背矩形の候補を処理した場合(S2600:YES)、ステップS2560へ進む。
ステップS2560において、下腿抽出部171は、全ての左下腿矩形の候補を処理したか否かを判断する。下腿抽出部171は、未処理の左下腿矩形の候補が残っている場合(S2560:NO)、ステップS2540へ戻り、未処理の候補を選択して処理を行う。また、下腿抽出部171は、全ての左下腿矩形の候補を処理した場合(S2560:YES)、ステップS2510へ進む。
ステップS2510において、足背抽出部172は、いずれもカウント値が閾値以上となった左下腿矩形の候補および左足背矩形の候補の組を得られたか否かを判断する。足背抽出部172は、該当する組を得られなかった場合(S2510:NO)、ステップS2520へ進む。また、足背抽出部172は、該当する組を得られた場合(S2510:YES)、ステップS2530へ進む。
ステップS2530において、足背抽出部172は、カウント値の合計が最も大きい組の左足背矩形の候補を、最終的な左足背矩形として選択し、足背向き推定部173へ出力する。
そして、ステップS2540において、足背向き推定部173は、入力された左足背矩形と、画像入力部110から入力された画像データとから、左足向きを推定する。そして、足背向き推定部173は、推定結果を、足向き履歴保持部190および安定度算出部180へ出力する。なお、足背向き推定部173は、画像データを用いずに、例えば、足背側接続点に対する左足背矩形の長手方向の向きから、左足向きを推定してもよい。
また、ステップS2520において、足背抽出部172は、最終的な左足背矩形を選択することができない旨を、足背向き推定部173へ出力する。これを受けて、足背向き推定部173は、足向き履歴保持部190に保持された前回の左足向きを、今回の左足向きとして取得する。なお、足背向き推定部173は、最終的な左足背矩形を選択することができない場合や、前回の左足向きが保持されていない場合に、ユーザに対してエラーを通知するようにしてもよい。
そして、ステップS2550において、足向き検出部170は、ステップS2510〜S2540と同様の処理を右下腿矩形の候補に対して実行し、右足向きの推定および出力を行い、図30の処理へ戻る。なお、足向き検出部170は、右足向きの推定を先に行ってもよい。
なお、ここでは、人の領域を用いて足向きを推定する方法を説明したが、足向き検出部170は、エッジ情報を用いて足向きを推定するようにしてもよい。例えば、下腿部および足背の画像は、主に平行線で構成されている。したがって、足向き検出部170は、は、人領域に存在するエッジから、所定の間隔の複数の平行線を抽出し、平行線が抽出された領域と下腿矩形および足背矩形とをマッチングするようにしてもよい。
また、ここでは、矩形を用いて足向きを推定する処理について説明したが、足向き検出部170は、あらかじめ、足背の画像を向きとともに学習して足背の識別器を作成しておき、足背を検出し、その向きを推定する方法を用いても良い。
なお、ステップS2520において、左下腿および右下腿がそれぞれ抽出されることは必要であるが、最終的に求める姿勢に前後の区別が問われない場合、どちらの領域が左または右の下腿なのかを厳密に求める必要はない。
図30のステップS3500において、安定度算出部180は、左足安定度および右足安定度を算出する安定度算出処理を行う。
図33は、安定度算出処理(図30のステップS3500)の一例を示すフローチャートである。
まず、ステップS3510において、差分演算部181は、前回の左足向きを、足向き履歴保持部190から取得する。なお、差分演算部181は、前回、足向き検出部170から入力された左足向きを保持しておいてもよい。
そして、ステップS3520において、差分演算部181は、今回の左足向きと前回の左足向きとの差分(左足差分)が第3の閾値以下であるか否かを判断する。差分演算部181は、左足差分が第3の閾値以下である場合(S3520:YES)、その旨を安定度演算部182に通知して、ステップS3530へ進む。また、差分演算部181は、左足差分が第3の閾値を超える場合(S3520:NO)、その旨を安定度演算部182に通知して、ステップS3540へ進む。
ステップS3530において、安定度演算部182は、安定度履歴保持部210に保持された左足安定度を取得し、取得した値を1増加させる。左足安定度は、予め用意したパラメータであり、その初期値は、ここではゼロであるものとする。
一方、ステップS3540において、安定度演算部182は、安定度履歴保持部210に保持された左足安定度を取得し、取得した値をゼロに初期化する。
そして、ステップS3550において、差分演算部181は、前回の右足向きを、足向き履歴保持部190から取得する。なお、差分演算部181は、前回、足向き検出部170から入力された右足向きを保持しておいてもよい。
そして、ステップS3560において、差分演算部181は、今回の右足向きと前回の右足向きとの差分(右足差分)が第3の閾値以下であるか否かを判断する。差分演算部181は、右足差分が第3の閾値以下である場合(S3560:YES)、その旨を安定度演算部182に通知して、ステップS3570へ進む。また、差分演算部181は、右足差分が第3の閾値を超える場合(S3560:NO)、その旨を安定度演算部182に通知して、ステップS3580へ進む。
ステップS3570において、安定度演算部182は、安定度履歴保持部210に保持された右足安定度を取得し、取得した値を1増加させる。左足安定度は、予め用意したパラメータであり、その初期値は、ここではゼロであるものとする。
一方、ステップS3580において、安定度演算部182は、安定度履歴保持部210に保持された右足安定度を取得し、取得した値をゼロに初期化する。
そして、ステップS3590において、安定度演算部182は、現在の左足安定度および右足安定度を、安定度履歴保持部210および姿勢推定部140へ出力して、図30の処理へ戻る。
図30のステップS5500において、姿勢推定部140は、左足安定度、右足安定度、左足向き、および右足向きから身体向きを推定する姿勢推定処理を行う。
図34は、姿勢推定処理(図30のステップS5500)の一例を示すフローチャートである。
まず、ステップS5510において、バランス度算出部141は、安定度算出部180から入力された左足安定度および右足安定度に基づいて、上述の左バランス度および右バランス度を算出する。そして、バランス度算出部141は、算出した左バランス度および右バランス度を、姿勢推定記録部142へ出力する。
具体的には、バランス度算出部141は、例えば、以下の式(4)および式(5)を用いて、左バランス度および右バランス度を算出する。なお、以下の式(4)および式(5)を用いた場合、左バランス度と右バランス度との和は1となる。
左バランス度 = (左足安定度)/{(左足安定度)+(右足安定度)}
・・・・・・(4)
右バランス度 = (右足安定度)/{(左足安定度)+(右足安定度)}
・・・・・・(5)
そして、ステップS5520において、姿勢推定記録部142は、足向き履歴保持部190に保持された今回の左足向きおよび右足向きと、姿勢履歴保持部220に保持された前回の身体向きとを取得する。姿勢推定記録部142は、取得した左足向き、右足向き、および前回の身体向きと、入力された左バランス度および右バランス度とに基づいて、今回の身体向きを算出する。そして、姿勢推定記録部142は、算出結果を、姿勢履歴保持部220および推定結果出力部150へ出力して、図30の処理へ戻る。
具体的には、姿勢推定記録部142は、左バランス度と右バランス度との和が1である場合、例えば、以下の式(6)を用いて、今回の身体向きを算出する。
今回の身体向き = {(左バランス度)×(左足向き)
+(右バランス度)×(右足向き)
+(前回の身体向き)}/2 ・・・・・・(6)
身体向きは、通常、短い時間で大きく変化することはない。一方で、左足向きや右足向きには検出誤りが生じている場合や、両方の足向きが安定していない場合もあり得る。このような場合、今回の左足向きおよび右足向きのみから身体向きを算出すると、誤差が大きくなる可能性がある。したがって、姿勢推定記録部142は、前回の身体向きを含めて平均化することにより、このような誤差による影響を低減し、推定精度が低下するのを防ぐことができる。
なお、最初のフレームなど、前回の身体向きが存在しない場合や、人の動きが安定しているような場合、姿勢推定記録部142は、以下の式(74)を用いて、今回の身体向きを算出してもよい。
今回の身体向き = {(左バランス度)×(左足向き)
+(右バランス度)×(右足向き)} ・・・・・・(7)
また、姿勢推定記録部142は、以下の条件式群(8)を用いて、今回の身体向きを算出してもよい。この場合、演算処理を高速化することができる。
左足安定度と右足安定度とが等しい場合: 左バランス度=右バランス度=0.5
左足安定度と右足安定度とが等しくない場合:安定度が高い方のバランス度=1
安定度が低い方のバランス度=0
・・・・・・(8)
なお、本実施の形態では、左足安定度と右足安定度とが等しいとは、厳密に値が等しいことのみを意味してもよいし、値の差分が所定の範囲内にあることを含んでもよい。左足安定度と右足安定度とが等しいことが所定の範囲を持つ場合、この所定の範囲は、状況に応じて変更されてもよい。
図30のステップS7000において、画像入力部110は、ユーザ操作などにより処理の終了が指示されたか否かを判断する。画像入力部110は、処理の終了が指示されていない場合(S7000:NO)、ステップS1000へ戻り、次のフレームの処理へ移る。また、画像入力部110は、処理の終了が指示された場合(S7000:YES)、一連の処理を終了する。
このような処理により、姿勢推定装置100cは、フレームごとに、左足向きおよび右足向きを取得し、左足安定度および右足安定度を算出し、これらに基づいて身体向きを推定することができる。
以上で、姿勢推定装置100cの動作についての説明を終える。
以下、姿勢推定装置100cの効果について、実験結果を参照して説明する。
ここでは、人が直進して右折する動作を実際に行ったときの、実験結果を示す。実験において、姿勢推定装置100cは、モーションキャプチャシステムを採用した。そして、姿勢推定装置100cは、左足背、および右足背の3次元位置情報を取得し、それぞれの位置を映像面上に射影することにより、実際の左足向き、右足向き、および身体向きを、身体向きの推定結果と併せて取得するようにした。ここで、実際の身体向きとは、例えば、取得した画像からオペレータが判断して設定した、推定されるべき身体向きである。
なお、以下の各図において、横軸は、フレーム番号による時間軸を示し、縦軸は、角度による向き(図25参照)、または、安定度の値を示す。また、以下の図35〜図38の間で同一部分については同一符号を付し、これについての説明を省略する。
図35は、本実験における左足向きおよび右足向きの検出結果を示すグラフである。
図35において、点線521は左足向きを示し、実線522は右足向きを示し、極太線523は実際の身体向きを示す。図35に示すように、左足向きと右足向きとはほとんど一致しておらず、それぞれ不規則に変化している。また、左足向きおよび右足向きは、いずれも、身体向きとの一致度が低い。これは、人の動きが、完全に左右対称ではなく、また、正弦波のように完全に規則的に推移するものではないためである。
図36は、本実験における左右平均向きの算出結果を示すグラフである。
図36において、破線524は、左足向きと右足向きとを平均した平均足向きを示す。図36に示すように、平均足向きは、左足向きおよび右足向きのそれぞれ単独の場合に比べて、実際の身体向き(極太線523)との一致度は高くなる。ところが、最大で約45度の差が生じており、単に平均化しただけでは、身体向きを精度良く推定することができないことが分かる。
図37は、本実験における姿勢推定装置100cによる安定度の算出結果を示すグラフである。図37は、図35のグラフと時間軸を揃えた状態で、その上側に、左足安定度および右足安定度を示している。
図37において、上側の点線525は左足安定度の算出結果を示し、上側の実線526は右足安定度の算出結果を示す。図37に示すように、左足安定度は、左足向きの変動が少ない区間(同じ向きが保持されている区間)が長いほど高くなり、右足安定度は、右足向きの変動が少ない区間が長いほど高くなる。また、左足安定度は、左足向きの変動が多い区間(小刻みに足背の向きが変化する区間)が長いほどゼロに近い値を維持し、右足安定度は、右足向きの変動が多い区間が長いほどゼロに近い値を維持する。
例えば、フレーム1〜60の付近では、右足安定度が相対的に高く、フレーム160〜240の付近では、左足安定度が相対的に高くなっている。
図38は、本実験における姿勢推定装置100cによる身体向きの推定結果を示すグラフである。なお、ここでは、上述の式(8)により身体向きを算出した場合の推定結果を示す。
図38において、一点鎖線527は、姿勢推定装置100cによる身体向きの推定結果、つまり、安定度を考慮した重み付きの左右平均向きを示す。図38の図35との比較から分かるように、姿勢推定装置100cによる身体向きは、左足向きと右足向きとの単純な平均足向きに比べて、多少の遅れは生じているもものの、実際の身体向き(極太線523)との一致度が大幅に向上している。
このように、実験結果から、姿勢推定装置100cは、直進後に90度右に曲がるといった身体向きの大きな変化においても、高い精度で身体向きを検出できることが分かった。
以上で、実験結果に基づく姿勢推定装置100cの効果についての説明を終える。
以上のように、本実施の形態に係る姿勢推定装置100cは、左足向きおよび右足向きと、左足安定度および右足安定度とから、身体向きを推定する。これにより、姿勢推定装置100cは、人型多関節物体の姿勢を高精度に推定することができる。
なお、以上の説明では、左足向きおよび右足向きの検出を、1度間隔などできめ細かく行う場合について説明した。
しかし、特に式(8)を用いて身体向きの推定を行う場合には、姿勢推定装置100cは、左足向きおよび右足向きの検出を、15度間隔や22.5度間隔など、より大まかに行うようにしてもよい。すなわち、足向き検出部170は、大きめの所定の間隔を有する複数の向きに量子化(離散化、デジタイズ)して、左足向きおよび右足向きを検出してもよい。この場合、式(8)の判断処理が容易となり、処理負荷を軽減し、推定結果をより高速に得ることが可能となる。
このような量子化は、例えば、足背抽出部172が、人領域とのマッチングの際の足背矩形の向きの間隔を、22.5度などとすることにより、簡単に実現することができる。この場合、マッチング候補の数が削減され、処理速度が更に向上する。
以下、図35〜図38と同一の推定対象について、足向きの検出結果を22.5度の間隔で量子化した場合における、姿勢推定装置100cの効果について、実験結果を参照して説明する。なお、以下の図39〜図42の間で同一部分については同一符号を付し、これについての説明を省略する。また、実際の身体向きについても、同様に22.5度の間隔で量子化した状態で示す。
図39は、足向きを量子化した場合における、左足向きおよび右足向きの検出結果を示すグラフであり、図35に対応するものである。
図39において、点線631は量子化された左足向きを示し、実線632は量子化された右足向きを示し、極太線633は量子化された実際の身体向きを示す。図39に示すように、量子化した場合も、左足向きおよび右足向きは、身体向きとの一致度が低い。
図40は、足向きを量子化した場合における、平均足向きの算出結果を示すグラフであり、図36に対応するものである。
図40において、破線634は、量子化された左足向きと量子化された右足向きとを平均した、量子化平均足向きを示す。図40に示すように、量子化平均足向きも、実際の身体向き(極太線633)との一致度はあまり高くない。
図41は、足向きを量子化した場合における、安定度の算出結果を示すグラフであり、図37に対応するものである。
図41において、上側の点線635は左足安定度の算出結果を示し、上側の実線636は右足安定度の算出結果を示す。図41に示すように、量子化した場合の左足安定度および右足安定度は、量子化しない場合(図37参照)とほとんど変わらない。
図42は、足向きを量子化した場合における、身体向きの推定結果を示すグラフであり、図38に対応するものである。
図42において、太線637は、量子化した場合の姿勢推定装置100cによる身体向きの推定結果を示す。図42の図39との比較から分かるように、量子化した場合でも、姿勢推定装置100cによる身体向きは、左足向きと右足向きとの単純な平均足向きに比べて、実際の身体向き(極太線633)との一致度が大幅に向上している。
また、図42と図39との比較からも分かるように、姿勢推定装置100cによる身体向きの推定精度は、量子化の有無にほとんど影響されない。
このように、実験結果から、姿勢推定装置100cは、足背向きの検出の量子化により、高い精度を維持しながら、少ない演算処理負荷で身体向きを推定可能であることが分かった。
なお、足向き検出部170は、左足向きの履歴および右足向きの履歴に応じて、量子化における向きの間隔を変化させるようにしてもよい。例えば、足向き検出部170は、所定の一定時間内において、足背の向きの変化量が所定の値より小さく推移している場合は、量子化の単位(間隔)を細かくする。そして、足向き検出部170は、足背の向きの変化量が所定の値より大きい場合には、量子化の単位(間隔)を大きくする。これにより、姿勢推定装置100cは、細かいノイズに対してロバストでありながら、処理負荷を軽減した、身体向き推定が可能となる。
なお、以上の説明では、画像中の人領域のスケールのばらつきについて言及していないが、姿勢推定装置は、画像中の人領域のスケールを考慮して、姿勢推定を行うことが望ましい。
この場合、足向き検出部は、例えば、人領域のサイズから、または、人領域の位置から推定されるカメラから人までの距離から、人領域のスケールを算出する。そして、足向き検出部は、人領域のスケールが小さいほど、画像マッチングの足背矩形をより小さくし、カウント値の閾値(第1の閾値および第2の閾値)をより小さくする。また、安定度算出部は、人領域のスケールが小さいほど、足向きの差分の閾値(第3の閾値)をより大きくする。
これにより、姿勢推定装置は、人領域のスケールが変化する場合でも、人の姿勢を高精度に推定することができる。なお、足向き検出部は、カメラから各下腿までの距離を取得し、それぞれの距離から下腿(または足背)の画像領域のスケールを算出して、足ごとに上記閾値の変更を行ってもよい。
また、左足向きおよび右足向きの抽出手法は、上述の例に限定されない。また、姿勢推定装置は、モーションキャプチャシステムにより得られた、人の関節の位置に基づいて、左足向きおよび右足向きを算出してもよい。また、姿勢推定装置は、人の身体の各部位が位置することの確からしさの分布を示す尤度マップに基づいて、左足向きおよび右足向きの抽出を行ってもよい。
また、姿勢推定装置は、単眼カメラの撮影映像からではなく、距離画像カメラやステレオカメラにより得られた映像または画像から、左足向きおよび右足向きを抽出してもよい。
また、左足安定度および右足安定度の算出手法は、上述の例に限定されない。例えば、姿勢推定装置は、足背の向きが所定の閾値以上変化した場合、安定度をゼロに初期化するのではなく、1など、所定の値だけ減らすようにしてもよい。
また、姿勢推定装置は、前回の足背の向きあるいは身体向きの推定結果だけでなく、更に過去の足背の向きあるいは身体向きの推定結果を用いて、身体向きの推定を行ってもよい。
また、姿勢推定装置は、人ではなく、人型ロボットや2足歩行を行う動物など、他の各種人型多関節物体に対して、同様に、その体幹の向きの推定を行ってもよい。
2011年7月15日出願の特願2011−156809および2012年2月3日出願の特願2012−022283の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明は、人型多関節物体の姿勢を高精度に推定することができる、姿勢推定装置、姿勢推定方法、および姿勢推定プログラムとして有用である。
100、100b、100c 姿勢推定装置
110 画像入力部
120 頭推定部
130 足推定部
131 足底領域推定部
132 足底重心推定部
140 姿勢推定部
141 バランス度算出部
142 姿勢推定記録部
150 推定結果出力部
160b 上半身姿勢推定部
170 足向き検出部
171 下腿抽出部
172 足背抽出部
173 足背向き推定部
180 安定度算出部
181 差分演算部
182 安定度演算部
190 足向き履歴保持部
200 姿勢推定システム
220 姿勢履歴保持部
310 監視エリア
320 監視カメラ
330 床面
340 人

Claims (20)

  1. 人を含む画像の画像情報から、前記人の頭の位置を推定する頭推定部と、
    前記画像情報から、前記人の、足底が床面に対して平行な足の位置を推定する足推定部と、
    推定された前記頭の位置と推定された前記足の位置との相対的な位置関係に基づいて、前記人の姿勢を推定する姿勢推定部と、を有する、
    姿勢推定装置。
  2. 前記姿勢推定部は、
    前記頭の位置に対して前記足の位置が位置する側を、前記人の正面側と推定する、
    請求項1記載の姿勢推定装置。
  3. 前記画像情報は、前記人および前記床面を含む画像の画像情報であり、
    前記足推定部は、
    前記床面に接触している足の位置を、前記足底が床面に対して平行な足の位置とする、
    請求項2記載の姿勢推定装置。
  4. 前記頭推定部は、
    前記画像情報から前記画像における前記頭の領域を推定し、推定した前記頭の領域の重心位置である頭重心位置を、前記頭の位置とし、
    前記足推定部は、
    前記画像情報から、前記画像における前記人の足底の領域を推定する足底推定部と、
    推定された前記足底領域から、前記足底領域のうち床面に対して平行な領域の重心位置である足重心位置を推定し、推定した前記足重心位置を、前記足の位置とする足底重心推定部と、を有する、
    請求項2記載の姿勢推定装置。
  5. 前記画像は、前記人および前記床面を含む実空間を撮影して得られた画像であり、
    前記床面は、水平であり、
    前記足底推定部は、
    前記画像情報から、前記画像における前記足と背景との境界線を推定し、推定した境界線に基づいて前記足底の領域を推定し、
    前記足底重心推定部は、
    推定された前記境界線の方向と、前記実空間における水平線方向との比較に基づいて、前記足重心位置を推定する、
    請求項4記載の姿勢推定装置。
  6. 前記足底推定部は、
    前記人の片足ごとに、前記足底の領域を推定し、
    前記足底重心推定部は、
    推定された前記片足ごとの前記足底の領域のうち、前記水平線方向に近似する前記境界線の方向の成分が多い前記足底の領域のみを用いて、前記足重心位置を推定する、
    請求項5記載の姿勢推定装置。
  7. 前記足底重心推定部は、
    推定された前記足底の領域のうち、前記水平線方向により近似する方向の前記境界線に対応する部分に対して、より高い重みが付けられるように、前記前記足底の領域に対して重み付けを行い、得られた重みの重心位置を、前記足重心位置とする、
    請求項5記載の姿勢推定装置。
  8. 前記画像は、前記実空間を断続的に撮影して得られた複数の画像を構成する画像であり、
    前記足底重心推定部は、
    推定された前記足底領域のうち、第1の時刻に撮影された前記画像と、前記第1の時刻から所定の時間後の第2の時刻に撮影された前記画像との間の両方において前記足底の領域と推定された領域である重複領域から、前記足重心位置を推定する、
    請求項4記載の姿勢推定装置。
  9. 前記画像情報から、前記人の上半身の角度を推定する上半身姿勢推定部と、
    前記姿勢推定部による前記姿勢の推定の結果を出力する推定結果出力部と、を更に有し、
    前記推定結果出力部は、
    推定された前記上半身の角度が所定の範囲内にあることを条件として、前記姿勢の推定の結果を出力する、
    請求項4記載の姿勢推定装置。
  10. 人体を含む人型多関節物体の左足向きと、前記物体の右足向きと、を検出する足向き検出部と、
    前記左足向きの安定度である左足安定度と、前記右足向きの安定度である右足安定度と、を算出する安定度算出部と、
    前記左足安定度、前記左足向き、前記右足安定度、および前記右足向きから、前記姿勢として、前記物体の体幹の向きを推定する姿勢推定部と、を更に有する、
    請求項1記載の姿勢推定装置。
  11. 前記姿勢推定部は、
    前記左足安定度および前記右足安定度に基づく重み付けを行って、前記左足向きと前記右足向きとを合成することにより、前記姿勢として、前記体幹の向きを推定する、
    請求項10記載の姿勢推定装置。
  12. 検出された前記左足向きおよび前記右足向きを記憶する足向き履歴保持部、を更に有し、
    前記安定度算出部は、
    前記左足向きの履歴から前記左足安定度を算出し、前記右足向きの履歴から前記右足安定度を算出する、
    請求項11記載の姿勢推定装置。
  13. 前記安定度算出部は、
    前記左足向きの変動が小さい状態が継続している時間が長いほど、前記左足安定度をより高い値に算出し、前記右足向きの変動が小さい状態が継続している時間が長いほど、前記右足安定度をより高い値に算出し、
    前記姿勢推定部は、
    前記左足安定度が高いほど、前記左足向きに対する重みをより高い値に算出し、前記右足安定度が高いほど、前記右足向きに対する重みをより高い値に算出する、
    請求項12記載の姿勢推定装置。
  14. 推定された前記体幹の向きを記憶する姿勢履歴保持部、を更に有し、
    前記姿勢推定部は、
    前記左足安定度、前記左足向き、前記右足安定度、前記右足向き、および前回推定された前記体幹の向きから、前記体幹の向きを推定する、
    請求項13記載の姿勢推定装置。
  15. 検出された前記左足向きおよび前記右足向きを記憶する足向き履歴保持部、を更に有し、
    前記足向き検出部は、
    前記左足向きが検出できないとき、前回検出された前記左足向きを今回検出された前記左足向きとして取得し、前記右足向きが検出できないとき、前回検出された前記右足向きを今回検出された前記右足向きとして取得する、
    請求項10記載の姿勢推定装置。
  16. 前記物体を撮影した映像を入力する画像入力部、を更に有し、
    前記足向き検出部は、
    前記映像から、前記物体の左下腿および右下腿を抽出する下腿検出部と、
    前記映像および検出された前記左下腿から、左足背を抽出し、前記映像および検出された前記右下腿から、右足背を抽出する足背抽出部と、
    抽出された前記左足背から、前記左足向きを推定し、抽出された前記右足背から、前記右足向きを推定する足向き推定部と、を有する、
    請求項10記載の姿勢推定装置。
  17. 前記足向き検出部は、
    所定の間隔を有する複数の向きに量子化して、前記左足向きおよび前記右足向きを検出し、
    前記安定度算出部は、
    前記左足向きが変動しない状態が継続している時間が長いほど、前記左足安定度をより高い値に算出し、前記右足向きが変動しない状態が継続している時間が長いほど、前記右足安定度をより高い値に算出する、
    請求項10記載の姿勢推定装置。
  18. 検出された前記左足向きおよび前記右足向きを記憶する足向き履歴保持部、を更に有し、
    前記足向き検出部は、
    前記左足向きの履歴および前記右足向きの履歴に応じて、前記量子化における前記向きの間隔を変化させる、
    請求項17記載の姿勢推定装置。
  19. 人を含む画像の画像情報から、前記人の頭の位置と、前記人の、足底が床面に対して平行な足の位置と、を推定するステップと、
    推定された前記頭の位置と推定された前記足の位置との相対的な位置関係に基づいて、前記人の姿勢を推定するステップと、を有する、
    姿勢推定方法。
  20. 人を含む画像を入力あるいは生成する装置のコンピュータに、
    前記画像の画像情報から、前記人の頭の位置と、前記人の、足底が床面に対して平行な足の位置と、を推定する処理と、
    推定された前記頭の位置と推定された前記足の位置との相対的な位置関係に基づいて、前記人の姿勢を推定する処理と、を実行させる、
    姿勢推定プログラム。
JP2013524590A 2011-07-15 2012-07-02 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム Expired - Fee Related JP5898199B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013524590A JP5898199B2 (ja) 2011-07-15 2012-07-02 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011156809 2011-07-15
JP2011156809 2011-07-15
JP2012022283 2012-02-03
JP2012022283 2012-02-03
PCT/JP2012/004278 WO2013011644A1 (ja) 2011-07-15 2012-07-02 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP2013524590A JP5898199B2 (ja) 2011-07-15 2012-07-02 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム

Publications (2)

Publication Number Publication Date
JPWO2013011644A1 JPWO2013011644A1 (ja) 2015-02-23
JP5898199B2 true JP5898199B2 (ja) 2016-04-06

Family

ID=47557847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013524590A Expired - Fee Related JP5898199B2 (ja) 2011-07-15 2012-07-02 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム

Country Status (3)

Country Link
US (1) US9412010B2 (ja)
JP (1) JP5898199B2 (ja)
WO (1) WO2013011644A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5898199B2 (ja) * 2011-07-15 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP6075221B2 (ja) * 2013-06-13 2017-02-08 富士ゼロックス株式会社 画像処理装置、利用者検出制御プログラム
US9259838B1 (en) * 2014-07-24 2016-02-16 Google Inc. Systems and methods for ground plane estimation
US20180174320A1 (en) * 2015-03-06 2018-06-21 Konica Minolta, Inc. Posture Detection Device and Posture Detection Method
JP6481960B2 (ja) * 2015-03-23 2019-03-13 日本電気株式会社 足元の位置を検出する情報処理システム、情報処理方法及びプログラム
US20160278683A1 (en) * 2015-03-24 2016-09-29 Fuji Xerox Co., Ltd. Standing position evaluation apparatus, standing position evaluation method, and non-transitory computer readable medium
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture
IL255249A0 (en) * 2017-10-24 2017-12-31 Pointgrab Ltd Method and system for identifying a person in an image based on location in the image
CN108038469B (zh) * 2017-12-27 2019-10-25 百度在线网络技术(北京)有限公司 用于检测人体的方法和装置
US10709374B2 (en) * 2018-03-12 2020-07-14 Physimax Technologies Ltd. Systems and methods for assessment of a musculoskeletal profile of a target individual
JP2019168394A (ja) * 2018-03-26 2019-10-03 株式会社エクォス・リサーチ 身体向推定装置および身体向推定プログラム
JP7210890B2 (ja) * 2018-03-29 2023-01-24 株式会社リコー 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
JP7020263B2 (ja) * 2018-04-17 2022-02-16 富士通株式会社 体向き推定プログラム、体向き推定装置、及び体向き推定方法
SG10201809572RA (en) * 2018-10-29 2020-05-28 Nec Asia Pacific Pte Ltd Methods and apparatus to cluster and collect head-toe lines for automatic camera calibration
CN109634100B (zh) * 2018-12-30 2021-11-02 深圳市优必选科技有限公司 仿人机器人行走加速度补偿方法、装置及仿人机器人
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US20230215038A1 (en) * 2020-06-11 2023-07-06 Sony Group Corporation Image processing apparatus, image processing method, and recording medium
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
JP7464512B2 (ja) * 2020-12-10 2024-04-09 Kddi株式会社 三次元人物姿勢推定装置、方法およびプログラム
KR20220082567A (ko) * 2020-12-10 2022-06-17 주식회사 코너스 Cctv 영상의 객체 정보와 3차원 공간 좌표를 매칭한 상황인지 기반 실시간 공간 지능 정보안내 시스템 및 그 방법
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US12164741B2 (en) 2022-04-11 2024-12-10 Meta Platforms Technologies, Llc Activating a snap point in an artificial reality environment
CN115116140A (zh) * 2022-07-18 2022-09-27 上海集成电路制造创新中心有限公司 一种姿态状态的检测方法、系统、设备及介质
GB2635332A (en) * 2023-11-07 2025-05-14 Nokia Technologies Oy Viewing direction
CN119360437B (zh) * 2024-09-27 2025-10-24 同济大学 一种基于动态质心模型的恐慌行人加速奔跑行为识别方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197463A (ja) 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 挙動検出装置および挙動検出システム
JP2003101999A (ja) 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp 監視カメラシステム
DE60336992D1 (de) * 2002-03-18 2011-06-16 Sony Corp Robotereinrichtung mit steuerverfahren
JP4238542B2 (ja) 2002-08-30 2009-03-18 日本電気株式会社 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP3599244B2 (ja) * 2002-11-06 2004-12-08 ソニー株式会社 ロボット装置、ロボット装置の運動制御装置並びに運動制御方法
US7072740B2 (en) * 2002-12-16 2006-07-04 Sony Corporation Legged mobile robot
EP1607195B1 (en) * 2003-03-27 2011-01-05 Sony Corporation Robot device and method of controlling the same
JP4501601B2 (ja) * 2004-09-03 2010-07-14 トヨタ自動車株式会社 脚式ロボットとその制御方法ならびに歩容データの作成装置と作成方法
JP4417300B2 (ja) * 2005-07-13 2010-02-17 本田技研工業株式会社 歩行補助装置
US8135209B2 (en) * 2005-07-19 2012-03-13 Nec Corporation Articulated object position and posture estimation device, method and program
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US8023726B2 (en) * 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
US8152744B2 (en) * 2008-03-25 2012-04-10 Comfort Lab. Inc. Shoe or insole fitting navigation system
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
WO2010079509A2 (en) * 2008-12-05 2010-07-15 Pata V Murali Krishna Perfect gait shoe
JP2010176380A (ja) * 2009-01-29 2010-08-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
KR101650799B1 (ko) * 2009-05-11 2016-08-24 게스티곤 게엠베하 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법
US9041521B2 (en) * 2009-06-04 2015-05-26 The Royal Institution For The Advancement Of Learning/Mcgill University Floor-based haptic communication system
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
KR101626065B1 (ko) * 2009-10-13 2016-05-31 삼성전자주식회사 마커리스 모션 캡쳐링 장치 및 방법
EP2407102A1 (en) * 2010-07-15 2012-01-18 Tanita Corporation Respiration characteristic analysis apparatus and respiration characteristic analysis system
FR2964055B1 (fr) * 2010-08-27 2012-08-17 Aldebaran Robotics S A Robot humanoide dote de capacites de gestion de chutes et methode de gestion desdites chutes
US8437506B2 (en) * 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
WO2012098609A1 (ja) * 2011-01-17 2012-07-26 パナソニック株式会社 安全装置および予備動作判定方法
JP5715833B2 (ja) * 2011-01-24 2015-05-13 パナソニック株式会社 姿勢状態推定装置および姿勢状態推定方法
WO2012109244A1 (en) * 2011-02-07 2012-08-16 New Balance Athletic Shoe, Inc. Systems and methods for monitoring athletic performance
US8861870B2 (en) * 2011-02-25 2014-10-14 Microsoft Corporation Image labeling with global parameters
JP5771413B2 (ja) * 2011-03-02 2015-08-26 パナソニック株式会社 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP5812665B2 (ja) * 2011-04-22 2015-11-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
US9259643B2 (en) * 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8504208B2 (en) * 2011-05-25 2013-08-06 Honda Motor Co., Ltd. Mobile object controller and floor surface estimator
JP5898199B2 (ja) * 2011-07-15 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
EP2750589A4 (en) * 2011-08-31 2015-05-20 Univ Missouri HYDRAULIC BED SENSOR AND SYSTEM FOR NON-INVASIVE MONITORING OF PHYSIOLOGICAL DATA
US8457357B2 (en) * 2011-11-09 2013-06-04 Disney Enterprises, Inc. Relative pose estimation of non-overlapping cameras using the motion of subjects in the camera fields of view
US8805584B2 (en) * 2011-11-22 2014-08-12 Disney Enterprises, Inc Kinematic and dynamic calibration methods for legged robots with force-controlled joints
US10033979B2 (en) * 2012-03-23 2018-07-24 Avigilon Fortress Corporation Video surveillance systems, devices and methods with improved 3D human pose and shape modeling
JP5801237B2 (ja) * 2012-03-29 2015-10-28 パナソニック株式会社 部位推定装置、部位推定方法、および部位推定プログラム
EP2846631A4 (en) * 2012-05-10 2017-02-15 President and Fellows of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
JP5898014B2 (ja) * 2012-07-26 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP5909748B2 (ja) * 2012-09-18 2016-04-27 国立研究開発法人産業技術総合研究所 糖尿病性末梢神経障害の評価装置、およびその方法
US9081436B1 (en) * 2013-01-19 2015-07-14 Bertec Corporation Force and/or motion measurement system and a method of testing a subject using the same
US10078096B2 (en) * 2013-08-19 2018-09-18 Fitzsimmons and Associates Computer assisted ergonomic workstation designs and methods
JP5962679B2 (ja) * 2014-01-20 2016-08-03 トヨタ自動車株式会社 2足歩行ロボット制御方法及び2足歩行ロボット制御システム

Also Published As

Publication number Publication date
US20140140596A1 (en) 2014-05-22
US9412010B2 (en) 2016-08-09
WO2013011644A1 (ja) 2013-01-24
JPWO2013011644A1 (ja) 2015-02-23

Similar Documents

Publication Publication Date Title
JP5898199B2 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
US9330470B2 (en) Method and system for modeling subjects from a depth map
US9235753B2 (en) Extraction of skeletons from 3D maps
JP5873442B2 (ja) 物体検出装置および物体検出方法
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
EP3437557B1 (en) Gait analyzing device, gait analyzing method, and computer-readable recording medium
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
KR20040055310A (ko) 고속 마커프리 모션 캡쳐 장치 및 방법
JP6834590B2 (ja) 3次元データ取得装置及び方法
CN104850219A (zh) 估计附着物体的人体姿势的设备和方法
CN108885087B (zh) 测量装置、测量方法和计算机可读记录介质
WO2016031313A1 (ja) 体調検出装置、体調検出方法及び体調検出プログラム
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
JP5868426B2 (ja) 停立人物の向き推定方法
Nouredanesh et al. Chasing feet in the wild: a proposed egocentric motion-aware gait assessment tool
KR102866156B1 (ko) 무인 순찰 로봇 및 이의 사람 자세 분석 방법
CN110910426A (zh) 动作过程和动作趋势识别方法、存储介质和电子装置
WO2020013021A1 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
US20200226787A1 (en) Information processing apparatus, information processing method, and program
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
Ben Abdeljelil et al. Fusion-Based Approach to Enhance Markerless Motion Capture Accuracy for On-Site Analysis
EP4383194A1 (en) Computer vision-assisted analysis of motion of a person
WO2025107029A1 (en) Systems, methods and devices for monitoring gait
RU2771745C1 (ru) Способ отслеживания (трекинга) в реальном времени анатомических ориентиров объекта

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160303

R151 Written notification of patent or utility model registration

Ref document number: 5898199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees