JP2008282110A - 対象物の関節構造の取得方法及び装置 - Google Patents
対象物の関節構造の取得方法及び装置 Download PDFInfo
- Publication number
- JP2008282110A JP2008282110A JP2007124023A JP2007124023A JP2008282110A JP 2008282110 A JP2008282110 A JP 2008282110A JP 2007124023 A JP2007124023 A JP 2007124023A JP 2007124023 A JP2007124023 A JP 2007124023A JP 2008282110 A JP2008282110 A JP 2008282110A
- Authority
- JP
- Japan
- Prior art keywords
- joint
- virtual
- acquiring
- joints
- joint structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得するステップと、リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得するステップと、対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定するステップと、実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得するステップと、からなる。
【選択図】図4
Description
W.N.Martin and J.K. Aggarwal. Volumetric Descriptions of Objects from MultipleViews. IEEE Trans. on Pattern Analysis and MachineIntelligence, Vol. 5, No. 2, 1983. Masaaki Iiyama, Yoshinari Kameda, and Michihiko Mino. 4π measurement system: acomplete volume reconstruction system for freely-moving objects. MultisensorFusion and Integration for Intelligent Systems, MFI2003. Proceedings of IEEEInternational Conference on, pp. 119.124, 2003. Chi-Wei Chu, Odest Chadwicke Jenkins, and Maja J Mataric. Markerless KinematicModel and Motion Capture from Volume Sequences. In Proceedings of IEEE ComputerVision and Pattern Recognition (CVPR 2003), June 2003. G.Reeb. On thesingular Points of a Completely Integrable Pfaff Form or of a NumericalFunction. Comptes Randus Acad. Sciences Paris, Vol. 222, pp. 847.849, 1946. Masaki Hilaga,Yoshihisa Shinagawa, Taku Kohmura, and Tosiyuki L. Kunii. Topology Matching forFully Automatic Similarity Estimation of 3D Shapes. SIGGRAPH 2001 ConferenceProceedings L.A., CA, U.S.A., pp. 203.212, August 2001. T. TUNG and F.SCHMITT. THE AUGMENTED MULTIRESOLUTION REEB GRAPH APPROACH FOR CONTENT-BASEDRETRIEVAL OF 3D SHAPES. International Journal of Shape Modeling, Vol. 11, No.1, pp. 91.120, 2005. 宮本新, 鷲見和彦, 松山隆司. 骨格線モデルと円筒多関節モデルを併用した人体の姿勢推定. 情報処理学会研究報告(CVIM), Vol. 2006, No. 51, 2006.
本発明の実施形態に係る対象物の関節構造の取得装置は、視体積交差法を用いて、複数台のカメラから得られた画像から、ポリゴンメッシュからなる対象物の3次元形状を取得する手段と、リーブグラフを用いて、得られたポリゴンの表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線の重心に関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得する手段と、対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定する手段と、実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得する手段と、からなる。そして、対象物の関節構造の取得装置のハードウエアは、被験者を撮影する複数のカメラと、一つ又は複数のコンピュータ装置と、から構成される。コンピュータ装置は、演算処理部、入力部、出力部、表示部、記憶部を備えており、所定のコンピュータプログラムに従ってコンピュータの機能が実行される。具体的には、本発明における計算には、画像処理、視体積ポリゴン交差処理、μの計算、関節角の計算、ローカル座標系の設定、テクスチャの設定等があるが、これらの計算はコンピュータによって実行され得る。
step 1:複数台のカラーカメラを用い対象物の画像をキャプチャする;
step 2:画像中の対象物を抽出する;
step 3:画像中の対象物領域とカメラの外部・内部パラメータを用いて、対象物が存在し得る3次元の領域(視体積ポリゴンメッシュ)を求める;
step 4:視体積ポリゴンメッシュを凸ポリゴンメッシュに分割する;
step 5:各カメラから得られた視体積ポリゴンメッシュの交差(積)を取り3次元形状を得る;
step 6:3次元形状にテクスチャ情報を与える;
step 7:得られた凸ポリゴンメッシュを結合し、ポリゴンの連結情報を得る;
step 8:3次元形状上のポリゴンの関数μを求める;
step 9:μに基づくリーブグラフによるトポロジーの計算;
step 10:μの値の等高線を取り、リーブグラフのノードに対応する仮想関節を、等高線の重心に置く;
step 11:仮想関節のローカル座標系を求める;
step 12:複数の仮想関節モデルを比較することで不要な仮想関節を除去して対象物の関節モデルを取得する;
からなる。
以下に、本発明の実施形態について詳細に説明する。
視体積交差法とは、カメラ画像の物体領域を3次元に変換した視体積を求め,複数カメラの視体積の交差部分を求め3次元形状を得る手法である。以下の手順で3次元形状を取得する。まず、カメラ画像から対象物体の投影領域を取得する。カメラのレンズの中心と投影領域上の任意の点を結ぶ半直線の集合からなる錐体状の開空間を視体積と呼ぶ。換言すると、対象物視体積とは、カメラ画像中の対象物領域を3次元空間に変換したもので、カメラ位置を頂点とした多角形錘となる。対象物体は必ずこの視体積に内接して存在する。視体積はカメラ毎に存在し、全てのカメラの視体積の交差(積)を取ることにより対象物体の3次元表面形状を得る。
図5に示すように、対象物領域の抽出方法は、背景差分と特徴色抽出を二重に行うことで、物体領域を抽出する。まず、対象物体が含まれない背景画像を用意する。対象物体を含む画像と背景画像の対応するピクセルに注目し、値の差がある閾値を超えたら、そのピクセルは対象物体の一部であると判断する。ただし、上記の様な方法では物体の影まで抽出してしまう。そこで、背景差分に加え、対象物の色情報を利用して物体領域を抽出する。最後に、上記の方法で得られた領域の輪郭を取り、多角形近似を行う。尚、画像中の対象物体領域の抽出については、画像処理において用いられる他の手段を採用し得ることは当業者に理解される。
カメラのキャリブレーションを行うことにより、カメラの位置、姿勢の外部パラメータと焦点距離、ひずみ係数等の内部パラメータを求める。これらの値を用いることによって、画像中の1点からその点が存在し得る3次元上の半直線を求めることが出来る。ただし、半直線の始点はカメラの絶対位置となっている。
まず、視体積のポリゴンメッシュを凸ポリゴンメッシュに分割する。凸ポリゴンメッシュとは、隣接する二つポリゴンのなす角が180度以下であるポリゴンのみで構成されるポリゴンメッシュである。次に凸ポリゴン同士の積演算を行い、結果の集合が視体積の積となる。視体積A とB の交差の場合、式(1)のようになる。ただし、ai,bj はA をB を構成する凸ポリゴンメッシュである。
最後に、得られた3次元形状データにテクスチャを貼る。ポリゴンの法線方向に最も近いカメラの画素値を用いて、それぞれのポリゴンにテクスチャを貼る。ただし、上記の方法で求めた際、カメラとポリゴンの間に他のポリゴンが存在する場合は別のカメラの画像を用いる。
リーブグラフとは3次元形状の表面に関数μを定義し、そのμ値から求めた3次元形状の位相情報のことである。リーブグラフを用いることで、物体表面上で定義される連続関数μの値によって物体をいくつかに区切り、各部の接続関係をグラフで表すことができる。本手法ではリーブグラフを用いて3次元形状の関節位置を推定する。リーブグラフは狭義には得られたグラフを指すと考えられるが、本明細書においては、リーブグラフは、μ値からそのグラフを得る方法を含んだ広義で用いる。リーブグラフは、ポリゴン上のμ値の分布からトポロジーを得る際に用いる。仮想関節の配置のステップは、より具体的には、μの計算;リーブグラフによるトポロジーの計算;μの等高線に基づく仮想関節の配置;の3ステップからなる。リーブグラフは、複数のノードとノードを連結するエッジから形成されており、計算されたμ値からリーブグラフを取得すること自体は公知であって、例えば、非特許文献6に記載されている。リーブグラフにおけるノードはトポロジーを表現するだけの抽象的なものであり、物理的な点ではない。これに対して、本発明における仮想関節は、リーグラフのノードに対応するものであるが、μの等高線に基づく位置の属性を備えている点において、「仮想関節モデル」と「リーブグラフ」は等価ではない。リーブグラフを用いた仮想関節配置の手順は以下のとおりである。まず、平均測地距離μを定義する。次に、μを連続関数へと変換する。次に、μの値の等高線を取得し、リーブグラフのノードに対応する仮想関節を、等高線の重心に配置する。
関数μはポリゴンTの関数である。μを式(2)のように定義する。ただし、Tiはポリゴン、a(Tj)はポリゴンTjの面積、g(Ti,Tj)はポリゴンTiからポリゴンTjまで連結情報に従って表面を辿ったときの最短距離(最短測地距離)である。gはダイキストラ法により計算することができる。
次に、μの等高線を取得する。等高線は、μの値が等しい点を結んだものとなり、必ず閉じた曲線になる。ここで、次の二つの条件を満たす等高線CPを、等高線Cの親等高線とする。一つ目はCの任意の一点からCpの任意の一点まで表面上を辿った際に、他の等高線を横切らない経路が存在することである。二つ目はμ(C)=μ(Cp)+dとなることである。ただし、dは等高線間隔である。そして、等高線の重心に仮想関節を配置する。また、等高線の親子関係を仮想関節の親子関係とする。dは、適当な数の仮想関節が設定されるように予め決定される値であり、具体的なdの値は、当業者において適宜設定され得る。
次に、仮想関節のローカル座標系の設定方法について説明する。仮想関節のローカル座標系を、等高線を構成する点を主成分分析することにより求める。主成分分析の結果として3つの固有ベクトルが求まるが、その3つの軸を仮想関節のローカル座標系として用いる。
体の一部が他の部分に触れていたりすると、リーブグラフにより実際とは異なった位相情報が得られる。対象物の位相情報が既知である場合は、情報を与えることにより位相情報の修正を行うことが可能であり、推定精度を向上させることが出来る。逆に、位相情報が未知の場合は、フレーム間での仮想関節の対応付けが難しい場合がある。
全てのフレームでの位相情報がそろったら、不要な仮想関節を除去し、関節構造を求める。
人間を対象物として、関節構造推定を行った。実験条件は次のとおりである。被験者は、人間である。図13に示すように、背景と区別するために赤の衣服を着衣、また、テクスチャ情報(テクスチャ軸)を利用するために両腕、両脚、胴に青のラインを付けた。図14に示すように、カメラは、8台のカラーカメラ(解像度1628pixel×1236pixel)である。図14において、カメラ横の数字はカメラの高さを示している。
Claims (40)
- 視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得するステップと、
リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得するステップと、
対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定するステップと、
実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得するステップと、
からなる、対象物の関節構造の取得方法。 - 前記3次元形状を取得するステップにおいて、前記対象物の3次元形状はポリゴンメッシュとして表現され、
前記仮想関節モデルを取得するステップにおいて、ポリゴンの表面上に平均測地距離μを定義する、
請求項1に記載の対象物の関節構造の取得方法。 - 前記3次元形状を取得するステップは、
対象物視体積をポリゴンメッシュで表現するステップと、
視体積ポリゴンメッシュを凸ポリゴンメッシュに変換するステップと、
各カメラから得られた凸ポリゴンメッシュ同士の交差処理を行うステップと、
を備えている、請求項2に記載の対象物の関節構造の取得方法。 - 前記交差処理ステップは、交差処理ステップにおける凸ポリゴンメッシュのポリゴンの切り取り時にポリゴンを再構築してポリゴン数を減らすことを含む、請求項3に記載の対象物の関節構造の取得方法。
- 前記交差処理ステップは、全ての交差処理が終わった後、あるいは、さらにそれに加えて、1回の交差処理が終わった後毎に、凸ポリゴンメッシュの結合を行うことを含む請求項3,4いずれかに記載の対象物の関節構造の取得方法。
- 前記仮想関節モデルを取得するステップにおいて、各等高線の重心に関節の候補となる仮想関節を配置する、請求項1乃至5いずれかに記載の対象物の関節構造の取得方法。
- 前記仮想関節モデルを取得するステップは、得られた仮想関節モデルを、当該対象物の既知の関節の位相構造に基づいて修正するステップを備えている、請求項1乃至6いずれかに記載の対象物の関節構造の取得方法。
- 前記仮想関節モデルを修正するステップは、関節構造におけるループを構成する枝のいずれかを切り離すことを含む、請求項7に記載の対象物の関節構造の取得方法。
- 動きの多い仮想関節を実際の関節と推定するステップは、それぞれの仮想関節に関して、各仮想関節モデル間での関節の動きの分散を求め、得られた分散に基づいて動きが多い仮想関節を決定する、請求項1乃至8いずれかに記載の対象物の関節構造の取得方法。
- 前記関節の動きの分散は、仮想関節の関節角の分散である、請求項9に記載の対象物の関節構造の取得方法。
- 前記関節角は、仮想関節を接続する隣り合う2本の線分間の角度である、請求項10に記載の対象物の関節構造の取得方法。
- 前記関節の動きの分散は、仮想関節を接続する隣り合う2本の線分の内積の分散である、請求項9に記載の対象物の関節構造の取得方法。
- 分散が閾値を越えた仮想関節を実際の関節であると推定する、請求項9乃至12いずれかに記載の対象物の関節構造の取得方法。
- 実際の関節の個数Nが与えられた場合に、分散の大きい順にN個の仮想関節を選択して実際の関節であると推定する、請求項9乃至12いずれかに記載の対象物の関節構造の取得方法。
- 前記仮想関節モデルは、ノードを構成する仮想関節と、仮想関節を接続するエッジと、からなるグラフ構造を備えている、請求項1乃至14いずれかに記載の対象物の関節構造の取得方法。
- 仮想関節から実際の関節を推定する前あるいは後において、3軸を備えた仮想関節のローカル座標系を設定する、請求項1乃至15いずれかに記載の対象物の関節構造の取得方法。
- 前記仮想関節のローカル座標系の設定は、等高線の座標を主成分分析し、得られた3つの固有ベクトルを仮想関節のローカル座標とする、請求項16に記載の対象物の関節構造の取得方法。
- 仮想関節のローカル座標系を設定する時に、対象物のテクスチャ情報を用いる、請求項16、17いずれかに記載の対象物の関節構造の取得方法。
- 対象物のテクスチャ情報を用いて、等高線の重心からテクスチャ情報に向かう一つの軸をテクスチャ軸として特定し、当該テクスチャ軸を等高線平面内の一つの軸に置き換えて用いる、請求項18に記載の対象物の関節構造の取得方法。
- 前記3次元状の表面に対象物のテクスチャ情報を与えるステップを含む、請求項1乃至19いずれかに記載の対象物の関節構造の推定方法。
- 視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得する手段と、
リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得する手段と、
対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定する手段と、
実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得する手段と、
からなる、対象物の関節構造の取得装置。 - 前記3次元形状を取得する手段において、前記対象物の3次元形状はポリゴンメッシュとして表現され、
前記仮想関節モデルを取得する手段において、ポリゴンの表面上に平均測地距離μを定義する、
請求項21に記載の対象物の関節構造の取得装置。 - 前記3次元形状を取得する手段は、
対象物視体積をポリゴンメッシュで表現する手段と、
視体積ポリゴンメッシュを凸ポリゴンメッシュに変換する手段と、
各カメラから得られた凸ポリゴンメッシュ同士の交差処理を行う手段と、
を備えている、請求項22に記載の対象物の関節構造の取得装置。 - 前記交差処理手段は、交差処理における凸ポリゴンメッシュのポリゴンの切り取り時にポリゴンを再構築してポリゴン数を減らすことを含む、請求項23に記載の対象物の関節構造の取得方法。
- 前記交差処理手段は、全ての交差処理が終わった後、あるいは、さらにそれに加えて、1回の交差処理が終わった後毎に、凸ポリゴンメッシュの結合を行うことを含む請求項23,24いずれかに記載の対象物の関節構造の取得装置。
- 前記仮想関節モデルを取得する手段において、各等高線の重心に関節の候補となる仮想関節を配置する、請求項21乃至25いずれかに記載の対象物の関節構造の取得装置。
- 前記仮想関節モデルを取得する手段は、得られた仮想関節モデルを、当該対象物の既知の関節の位相構造に基づいて修正する手段を備えている、請求項21乃至26いずれかに記載の対象物の関節構造の取得装置。
- 前記仮想関節モデルを修正する手段は、関節構造におけるループを構成する枝のいずれかを切り離すことを含む、請求項27に記載の対象物の関節構造の取得装置。
- 動きの多い仮想関節を実際の関節と推定する手段は、それぞれの仮想関節に関して、各仮想関節モデル間での関節の動きの分散を求め、得られた分散に基づいて動きが多い仮想関節を決定する、請求項21乃至28いずれかに記載の対象物の関節構造の取得装置。
- 前記関節の動きの分散は、仮想関節の関節角の分散である、請求項29に記載の対象物の関節構造の取得装置。
- 前記関節角は、仮想関節を接続する隣り合う2本の線分間の角度である、請求項30に記載の対象物の関節構造の取得装置。
- 前記関節の動きの分散は、仮想関節を接続する隣り合う2本の線分の内積の分散である、請求項30に記載の対象物の関節構造の取得装置。
- 分散が閾値を越えた仮想関節を実際の関節であると推定する、請求項30乃至32いずれかに記載の対象物の関節構造の取得装置。
- 実際の関節の個数Nが与えられた場合に、分散の大きい順にN個の仮想関節を選択して実際の関節であると推定する、請求項30乃至32いずれかに記載の対象物の関節構造の取得装置。
- 前記仮想関節モデルは、ノードを構成する仮想関節と、仮想関節を接続するエッジと、からなるグラフ構造を備えている、請求項21乃至34いずれかに記載の対象物の関節構造の取得装置。
- 3軸を備えた仮想関節のローカル座標系を設定する手段を備えている、請求項21乃至35いずれかに記載の対象物の関節構造の取得装置。
- 前記仮想関節のローカル座標系の設定手段は、等高線の座標を主成分分析し、得られた3つの固有ベクトルを仮想関節のローカル座標とする、請求項36に記載の対象物の関節構造の取得装置。
- 仮想関節のローカル座標系の設定手段は、対象物のテクスチャ情報を用いる、請求項36,37いずれかに記載の対象物の関節構造の取得装置。
- 仮想関節のローカル座標系の設定手段は、対象物のテクスチャ情報を用いて、等高線の重心からテクスチャ情報に向かう一つの軸をテクスチャ軸として特定し、当該テクスチャ軸を等高線平面内の一つの軸に置き換えて用いる、請求項39に記載の対象物の関節構造の取得装置。
- 前記3次元状の表面に対象物のテクスチャ情報を与える手段を含む、請求項21乃至39いずれかに記載の対象物の関節構造の推定装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007124023A JP4878330B2 (ja) | 2007-05-09 | 2007-05-09 | 対象物の関節構造の取得方法及び装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007124023A JP4878330B2 (ja) | 2007-05-09 | 2007-05-09 | 対象物の関節構造の取得方法及び装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008282110A true JP2008282110A (ja) | 2008-11-20 |
| JP4878330B2 JP4878330B2 (ja) | 2012-02-15 |
Family
ID=40142893
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007124023A Expired - Fee Related JP4878330B2 (ja) | 2007-05-09 | 2007-05-09 | 対象物の関節構造の取得方法及び装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4878330B2 (ja) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011080923A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 関節状領域検出装置およびその方法 |
| CN102426709A (zh) * | 2011-08-19 | 2012-04-25 | 北京航空航天大学 | 一种基于快速逆向运动学的实时运动合成方法 |
| JP2014068714A (ja) * | 2012-09-28 | 2014-04-21 | Kitasato Institute | 関節角度測定システム |
| US9137512B2 (en) | 2008-12-04 | 2015-09-15 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video |
| KR101555863B1 (ko) | 2014-02-27 | 2015-09-30 | 계명대학교 산학협력단 | 태권도 품새 판독 및 교육 장치 및 그 방법 |
| KR101591779B1 (ko) | 2009-03-17 | 2016-02-05 | 삼성전자주식회사 | 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법 |
| KR101620556B1 (ko) | 2014-02-27 | 2016-05-12 | 주식회사 에스원 | 생체 인식 방법 |
| JP2020076647A (ja) * | 2018-11-08 | 2020-05-21 | 日本電信電話株式会社 | 重心位置推定装置、重心位置推定方法、プログラム |
| JP2020204890A (ja) * | 2019-06-17 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットシステム |
| JP7067709B1 (ja) | 2022-02-28 | 2022-05-16 | 株式会社ワコール | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
| JP7141610B1 (ja) | 2022-01-31 | 2022-09-26 | 株式会社ワコール | スキンモデルから骨格に基づく姿勢を統計的に分析するプログラム、装置及び方法 |
| CN119795246A (zh) * | 2025-01-02 | 2025-04-11 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种关节空间均布的机器人位形采样方法 |
-
2007
- 2007-05-09 JP JP2007124023A patent/JP4878330B2/ja not_active Expired - Fee Related
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9137512B2 (en) | 2008-12-04 | 2015-09-15 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video |
| KR101591779B1 (ko) | 2009-03-17 | 2016-02-05 | 삼성전자주식회사 | 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법 |
| JP4763863B1 (ja) * | 2009-12-28 | 2011-08-31 | パナソニック株式会社 | 関節状領域検出装置およびその方法 |
| CN102378992A (zh) * | 2009-12-28 | 2012-03-14 | 松下电器产业株式会社 | 关节状区域检测装置及其方法 |
| US8401243B2 (en) | 2009-12-28 | 2013-03-19 | Panasonic Corporation | Articulated object region detection apparatus and method of the same |
| CN102378992B (zh) * | 2009-12-28 | 2014-12-24 | 松下电器产业株式会社 | 关节状区域检测装置及其方法 |
| WO2011080923A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 関節状領域検出装置およびその方法 |
| CN102426709A (zh) * | 2011-08-19 | 2012-04-25 | 北京航空航天大学 | 一种基于快速逆向运动学的实时运动合成方法 |
| JP2014068714A (ja) * | 2012-09-28 | 2014-04-21 | Kitasato Institute | 関節角度測定システム |
| KR101620556B1 (ko) | 2014-02-27 | 2016-05-12 | 주식회사 에스원 | 생체 인식 방법 |
| KR101555863B1 (ko) | 2014-02-27 | 2015-09-30 | 계명대학교 산학협력단 | 태권도 품새 판독 및 교육 장치 및 그 방법 |
| JP2020076647A (ja) * | 2018-11-08 | 2020-05-21 | 日本電信電話株式会社 | 重心位置推定装置、重心位置推定方法、プログラム |
| JP7089238B2 (ja) | 2018-11-08 | 2022-06-22 | 日本電信電話株式会社 | 重心位置推定装置、重心位置推定方法、プログラム |
| JP2020204890A (ja) * | 2019-06-17 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットシステム |
| JP7382743B2 (ja) | 2019-06-17 | 2023-11-17 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットシステム |
| JP7141610B1 (ja) | 2022-01-31 | 2022-09-26 | 株式会社ワコール | スキンモデルから骨格に基づく姿勢を統計的に分析するプログラム、装置及び方法 |
| JP2023111654A (ja) * | 2022-01-31 | 2023-08-10 | 株式会社ワコール | スキンモデルから骨格に基づく姿勢を統計的に分析するプログラム、装置及び方法 |
| JP7067709B1 (ja) | 2022-02-28 | 2022-05-16 | 株式会社ワコール | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
| JP2023125703A (ja) * | 2022-02-28 | 2023-09-07 | 株式会社ワコール | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
| CN119795246A (zh) * | 2025-01-02 | 2025-04-11 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种关节空间均布的机器人位形采样方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4878330B2 (ja) | 2012-02-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4878330B2 (ja) | 対象物の関節構造の取得方法及び装置 | |
| CN109427007B (zh) | 基于多视角的虚拟试衣方法 | |
| Stoll et al. | Fast articulated motion tracking using a sums of gaussians body model | |
| CN103733227B (zh) | 三维对象建模拟合与跟踪 | |
| JP6302132B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
| CN104680582B (zh) | 一种面向对象定制的三维人体模型创建方法 | |
| CN108475439B (zh) | 三维模型生成系统、三维模型生成方法和记录介质 | |
| JP6290153B2 (ja) | 対象の3次元モデルを生成する方法とシステム | |
| Bang et al. | Estimating garment patterns from static scan data | |
| KR101744079B1 (ko) | 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법 | |
| CN104794722A (zh) | 利用单个Kinect计算着装人体三维净体模型的方法 | |
| WO2007102537A1 (ja) | 姿勢推定装置および方法 | |
| JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
| JP2015505089A (ja) | 姿勢を推定する方法及び装置 | |
| CN1954340A (zh) | 使用三维可变形网格模型对物体的三维树状管形表面自动分段的图像处理系统 | |
| CN115471632B (zh) | 基于3d扫描的真实人体模型重建方法、装置、设备及介质 | |
| Buxton et al. | Reconstruction and interpretation of 3D whole body surface images | |
| Pan et al. | Automatic rigging for animation characters with 3D silhouette | |
| CN110291560A (zh) | 用于创建人的三维虚拟表示的方法 | |
| JP2010211732A (ja) | 物体認識装置および方法 | |
| CN108846892A (zh) | 人体模型的确定方法及装置 | |
| CN111260765A (zh) | 一种显微手术术野的动态三维重建方法 | |
| JP6545847B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| CN118922857A (zh) | 用于映射皮肤的系统和方法 | |
| CN119941974A (zh) | 一种数字对象的网格重建方法、装置及电子设备 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090121 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100413 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111118 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111125 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |