[go: up one dir, main page]

WO2018207388A1 - Program, device and method relating to motion capture - Google Patents

Program, device and method relating to motion capture Download PDF

Info

Publication number
WO2018207388A1
WO2018207388A1 PCT/JP2017/040810 JP2017040810W WO2018207388A1 WO 2018207388 A1 WO2018207388 A1 WO 2018207388A1 JP 2017040810 W JP2017040810 W JP 2017040810W WO 2018207388 A1 WO2018207388 A1 WO 2018207388A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
dimensional object
joint
object model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/040810
Other languages
French (fr)
Japanese (ja)
Inventor
聡一郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brain Co Ltd
Original Assignee
Brain Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brain Co Ltd filed Critical Brain Co Ltd
Priority to JP2019516884A priority Critical patent/JPWO2018207388A1/en
Publication of WO2018207388A1 publication Critical patent/WO2018207388A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/18Training appliances or apparatus for special sports for skiing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to a motion capture technique, and more particularly to a motion capture program, apparatus, and method for creating a 3D moving image by converting a 2D moving image related to the operation of an object such as a person into 3D data.
  • FIG. 15 shows the same posture of the ski player during the right turn as seen from the front, left front and right front, but as shown in FIGS. 15 (a) and 15 (b), The posture is originally a letter C. However, as shown in FIG. 15C, when viewed from the right front, the posture of the crus seems to be parallel to the left and right.
  • the posture and motion during the competition may be erroneously grasped only by the two-dimensional moving image taken from one direction. Therefore, if a three-dimensional video of a sports player who is actually competing can be acquired, it is possible to analyze and examine the viewing direction as appropriate, and the utility value is extremely high.
  • the present invention has been made to solve the above-described problems, and can create a three-dimensional moving image related to the object based on a two-dimensional moving image obtained by photographing an action of an object such as a person. It is an object to provide a motion capture program, a motion capture device, and a motion capture method.
  • the motion capture device and the motion capture program according to the present invention provide a two-dimensional moving image obtained by photographing the motion of the object in order to solve the problem of creating a three-dimensional moving image related to the object from the two-dimensional moving image obtained by photographing the motion of the object.
  • a motion capture device and a motion capture program for creating a three-dimensional moving image relating to the object using a three-dimensional object model comprising a plurality of parts constituting the object and joints connecting the parts,
  • a frame image acquisition unit for acquiring a predetermined frame image from among a plurality of frame images constituting a three-dimensional moving image, and each part constituting the three-dimensional object model for a two-dimensional object in the frame image
  • a two-dimensional part specifying unit for specifying a corresponding part
  • a two-dimensional joint position specifying unit for specifying a joint position of the two-dimensional object
  • a scale of the three-dimensional object model according to the size of the two-dimensional object.
  • a scale determining unit to be determined and a predetermined part of the two-dimensional object specified by the two-dimensional part specifying unit are overlapped with a reference part of the three-dimensional object model to match the position and direction of the reference part.
  • a joint position for matching the position of the joint in the three-dimensional object model after aligning the reference part with the joint of the reference part matching unit and the joint of the two-dimensional object specified by the two-dimensional joint position specifying unit A matching unit and the reference in the two-dimensional object Parts that align the position and direction of parts other than the reference part in the three-dimensional object model after matching the reference part with each part other than the part corresponding to the part according to the degree of freedom of the joint And a matching portion.
  • the basics related to the operation of the object A model acquisition unit that acquires a 3D object model to be matched with the 2D object in the frame image from a 3D object model storage unit in which a plurality of 3D object models set as postures are stored; Also good.
  • the object in order to solve the problem of shortening the time for matching a three-dimensional object model to a two-dimensional object in a frame image and improving the accuracy of matching, the object is a person or an animal.
  • the head of the three-dimensional object model may be set as the reference part in the reference part matching unit.
  • the object in order to solve the problem of shortening the time for matching the three-dimensional object model to the two-dimensional object in the frame image and improving the accuracy of the matching, the object is equipped with a tool.
  • the tool of the three-dimensional object model may be set as a reference part.
  • the object in order to solve the problem of shortening the time for matching the three-dimensional object model with the two-dimensional object in the frame image and improving the accuracy of the matching, the object is equipped with a tool.
  • the scale determining unit may determine the scale according to the size of the tool.
  • the motion capture method according to the present invention is based on the two-dimensional moving image obtained by photographing the motion of the object.
  • the predetermined part of the two-dimensional object is specified by the reference part aligning step in which the reference part of the three-dimensional object model is overlapped and the position and direction of the reference part are aligned and specified by the two-dimensional joint position specifying step.
  • the present invention it is possible to create a three-dimensional moving image related to the object based on the two-dimensional moving image obtained by photographing the motion of the object.
  • the motion capture device 1 of the present embodiment is a device for creating a three-dimensional moving image related to the object based on a two-dimensional moving image obtained by photographing the motion of the object.
  • the motion capture program 1a is mainly used.
  • storage means 2 for storing various data
  • arithmetic processing means 3 for acquiring various data from the storage means 2 and executing arithmetic processing. Details of each component will be described below.
  • the storage means 2 is composed of a ROM, a RAM, a hard disk, a flash memory, etc., and stores various data and functions as a working area when the arithmetic processing means 3 executes arithmetic operations.
  • the storage means 2 in this embodiment mainly includes a program storage unit 21 that stores a motion capture program 1a, and a two-dimensional moving image storage unit 22 that stores a two-dimensional moving image obtained by photographing the motion of an object.
  • a three-dimensional object model storage unit 23 for storing a plurality of three-dimensional object models set as basic postures related to the motion of the object, and a three-dimensional object model matched with a two-dimensional moving image are created in time series.
  • a three-dimensional moving image storage unit 24 that stores the three-dimensional moving image.
  • the motion capture program 1a of this embodiment is installed in the program storage unit 21.
  • the arithmetic processing unit 3 executes the motion capture program 1a and functions as each component of the arithmetic processing unit 3 described later, thereby causing the computer to function as the motion capture device 1.
  • the usage form of the motion capture program 1a is not limited to the above configuration.
  • the motion capture program 1a may be stored in a computer-readable non-transitory recording medium such as a CD-ROM or a USB memory, and read directly from the recording medium and executed.
  • the two-dimensional moving image storage unit 22 stores a two-dimensional moving image obtained by photographing the motion of the object.
  • a plurality of frame images constituting the two-dimensional moving image are stored.
  • a frame image of 30 frames per second is stored for a two-dimensional video image of a ski competition.
  • the frame image includes a two-dimensional object obtained by photographing the object.
  • the two-dimensional object is an object for creating a three-dimensional moving image in the frame image.
  • objects include various objects such as a person, an animal, a robot, a character, and a tool.
  • the ski player in the frame image and the part of the ski that the ski player wears correspond to the two-dimensional object in the frame image.
  • the three-dimensional object model storage unit 23 stores a three-dimensional object model for matching with a two-dimensional object in the frame image.
  • a plurality of sets set as basic postures related to the motion of the object are stored.
  • a three-dimensional object model is stored.
  • the three-dimensional object model is a three-dimensional model for matching with a two-dimensional object in the frame image.
  • This three-dimensional object model is created by CAD software, rigid body modeling software used for computer graphics, or the like.
  • the 3D object model of the present embodiment is attached to the ski player model and the ski player as shown in FIG. 3 in order to match the ski player and the ski in the frame image of the 2D video of the ski competition. And a ski model.
  • the ski player model has a head, torso, pelvis, left upper arm, left forearm, left hand, right upper arm, right forearm, right hand, left thigh, left lower leg, left foot, right according to the main composition of the person. It consists of a total of 15 parts including the thigh, right lower leg, and right foot.
  • the length ratio of each part in the ski player model is as shown in FIG. , “Body Segment Parameters, Art Part II”, Artificial Limbs 16, (1972), pp. 1-19.).
  • the length of each part and its ratio may be set based on the data of the object, for example, in the case of a ski player, the actual body shape of the player.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

[Problem] To provide a motion-capture-related program, device and method capable of creating a three-dimensional video on the basis of a two-dimensional video in which the motion of an object, such as a human, has been captured. [Solution] The present invention includes: a frame image acquisition unit 31 that acquires a prescribed frame image constituting a two-dimensional video; a two-dimensional part identification unit 32 that identifies a part within the frame image; a two-dimensional joint position identification unit 33 that identifies the position of a joint within the frame image; a scale determination unit 34 that determines the scale of a three-dimensional object model; a reference part matching unit 36 that matches the position and direction of a reference part of the three-dimensional object model; a joint position matching unit 37 that matches the joint position in the three-dimensional object model; and a part matching unit 38 that matches, in accordance with the degree of freedom of the joint, the position and direction of a part other than the reference part in the three-dimensional object model.

Description

モーションキャプチャに関するプログラム、装置および方法Program, apparatus and method for motion capture

 本発明は、モーションキャプチャの技術に関し、特に人物等のオブジェクトの動作に係る2次元動画を3次元データ化して3次元動画を作成するモーションキャプチャに係るプログラム、装置および方法に関するものである。 The present invention relates to a motion capture technique, and more particularly to a motion capture program, apparatus, and method for creating a 3D moving image by converting a 2D moving image related to the operation of an object such as a person into 3D data.

 モーションキャプチャ技術は、オブジェクトの動作を3次元データ化して記録するものであり、スポーツ分野、医療分野およびエンターテイメント分野等において広く利用されている。例えば、スポーツ分野では、スポーツ選手の動作を3次元データ化して動作を詳細に解析し、技術の向上や怪我の防止などに用いられている。また、医療分野では、身体的なリハビリテーションにおいて、リハビリテーション前後の動作を3次元データ化することで、効果的なリハビリ方法の選択や快復への進捗状況の確認などに用いられている。さらに、エンターテイメント分野では、映画やゲームにおいて、実際の人間が演じた動作を3次元データ化し、その3次元データにコンピュータグラフィックによって作成したキャラクターを当てはめることで、前記キャラクターに人間のようなスムーズな動作をさせるために用いられている。 Motion capture technology is to record the movement of an object as three-dimensional data, and is widely used in the sports field, medical field, entertainment field, and the like. For example, in the sports field, movements of athletes are converted into three-dimensional data, and the movements are analyzed in detail, and used for improving technology and preventing injuries. In the medical field, in physical rehabilitation, the movement before and after rehabilitation is converted into three-dimensional data, which is used for selecting an effective rehabilitation method and confirming the progress to rehabilitation. Furthermore, in the entertainment field, the action performed by an actual human being in a movie or a game is converted into three-dimensional data, and a character created by computer graphics is applied to the three-dimensional data, so that the character operates smoothly like a human. It is used to make it.

 このようなモーションキャプチャ技術に関するものとして、例えば、特開2017-53739号公報では、マーカーを装着したオブジェクトと、角度の異なる位置に配置し、前記マーカーの動きを三角測量の原理で計測して時系列的に撮影する複数のカメラと、複数のカメラの撮影情報よりマーカーの3次元時系列位置情報を得る画像処理装置とを備えたモーションキャプチャシステムが提案されている(特許文献1)。この他にも、ジャイロセンサや加速度計等の各種センサをオブジェクトに装着させ、前記各種センサにより計測された数値から動作をデータ化する方法等がある。 As for such motion capture technology, for example, in Japanese Patent Application Laid-Open No. 2017-53739, the object is placed at a different angle from the object on which the marker is mounted, and the movement of the marker is measured by the principle of triangulation. There has been proposed a motion capture system including a plurality of cameras that shoot in series and an image processing device that obtains three-dimensional time-series position information of markers from shooting information of the plurality of cameras (Patent Document 1). In addition to this, there is a method of attaching various sensors such as a gyro sensor and an accelerometer to an object and converting the operation into data from numerical values measured by the various sensors.

特開2017-53739号公報JP 2017-53739 A

 しかしながら、特許文献1に記載された発明など、従来のモーションキャプチャ技術や方法では、オブジェクトに対してマーカーや各種センサーを装着しなければならない。このため競技中のスポーツ選手に装着させることはコンマ数秒の世界における繊細な動作を争う競技においては実質的に不可能である。また、特許文献1に記載された発明のように複数台のカメラを使用する方法では、撮影可能な範囲が限られるため、スキー競技などの屋外競技に利用する場合には莫大な費用が必要となる。したがって、従来のモーションキャプチャ技術では、オブジェクトの動作が制限されており、マーカーの動きが取得しやすい条件下での動作しか3次元データ化できておらず、競技中の動作を3次元データ化することができない。 However, in the conventional motion capture technology and method such as the invention described in Patent Document 1, markers and various sensors must be attached to the object. For this reason, it is practically impossible to attach to athletes during competitions in competitions for delicate movements in the world of a few seconds of commas. In addition, in the method of using a plurality of cameras as in the invention described in Patent Document 1, the range that can be photographed is limited, and therefore enormous costs are required for use in outdoor competitions such as ski competitions. Become. Therefore, in the conventional motion capture technology, the movement of the object is limited, and the movement under the condition that the movement of the marker can be easily obtained can be converted into the three-dimensional data, and the movement during the competition is converted into the three-dimensional data. I can't.

 ところで、スポーツ分野では、ビデオカメラなどにより2次元動画を撮影し、その動画をチェックしながら技術の分析や技術指導などが行われている。しかし、一台のビデオカメラでは1方向から撮影した情報しか得られず、同じ姿勢であっても撮影される方向によって異なる姿勢に見えるため、錯覚することがある。例えば、図15はスキー選手の右ターン中の同じ姿勢を正面、左前方および右前方から見たものであるが、図15(a)および図15(b)に示すように、下腿部の姿勢は本来ハの字である。しかし、図15(c)に示すように、右前方から見た場合、下腿部の姿勢は左右平行のように見える。このように、一方向から撮影された2次元動画だけでは、競技中の姿勢および動作を誤って把握することがある。よって、実際に競技を行っているスポーツ選手の3次元の動画が取得できれば、適宜、見る方向を変えながら分析や検討することが可能となり、利用価値は極めて高い。 By the way, in the sports field, a two-dimensional video is shot with a video camera or the like, and technical analysis and technical guidance are performed while checking the video. However, a single video camera can only obtain information taken from one direction, and even if it is the same posture, it may appear as a different posture depending on the direction in which it is photographed. For example, FIG. 15 shows the same posture of the ski player during the right turn as seen from the front, left front and right front, but as shown in FIGS. 15 (a) and 15 (b), The posture is originally a letter C. However, as shown in FIG. 15C, when viewed from the right front, the posture of the crus seems to be parallel to the left and right. As described above, the posture and motion during the competition may be erroneously grasped only by the two-dimensional moving image taken from one direction. Therefore, if a three-dimensional video of a sports player who is actually competing can be acquired, it is possible to analyze and examine the viewing direction as appropriate, and the utility value is extremely high.

 本発明は、以上のような問題点を解決するためになされたものであって、人物等のオブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトに関する3次元動画を作成することができる、モーションキャプチャプログラム、モーションキャプチャ装置およびモーションキャプチャ方法を提供することを目的としている。 The present invention has been made to solve the above-described problems, and can create a three-dimensional moving image related to the object based on a two-dimensional moving image obtained by photographing an action of an object such as a person. It is an object to provide a motion capture program, a motion capture device, and a motion capture method.

 本発明に係るモーションキャプチャ装置およびモーションキャプチャプログラムは、オブジェクトの動作を撮影した2次元動画から前記オブジェクトに関する3次元動画を作成するという課題を解決するために、オブジェクトの動作を撮影した2次元動画に基づいて、前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ装置およびモーションキャプチャプログラムであって、前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得部と、前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定部と、前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定部と、前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定部と、前記2次元パーツ特定部により特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合部と、前記2次元ジョイント位置特定部により特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部と、前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合部とを有する。 The motion capture device and the motion capture program according to the present invention provide a two-dimensional moving image obtained by photographing the motion of the object in order to solve the problem of creating a three-dimensional moving image related to the object from the two-dimensional moving image obtained by photographing the motion of the object. A motion capture device and a motion capture program for creating a three-dimensional moving image relating to the object using a three-dimensional object model comprising a plurality of parts constituting the object and joints connecting the parts, A frame image acquisition unit for acquiring a predetermined frame image from among a plurality of frame images constituting a three-dimensional moving image, and each part constituting the three-dimensional object model for a two-dimensional object in the frame image A two-dimensional part specifying unit for specifying a corresponding part, a two-dimensional joint position specifying unit for specifying a joint position of the two-dimensional object, and a scale of the three-dimensional object model according to the size of the two-dimensional object. A scale determining unit to be determined and a predetermined part of the two-dimensional object specified by the two-dimensional part specifying unit are overlapped with a reference part of the three-dimensional object model to match the position and direction of the reference part. A joint position for matching the position of the joint in the three-dimensional object model after aligning the reference part with the joint of the reference part matching unit and the joint of the two-dimensional object specified by the two-dimensional joint position specifying unit A matching unit and the reference in the two-dimensional object Parts that align the position and direction of parts other than the reference part in the three-dimensional object model after matching the reference part with each part other than the part corresponding to the part according to the degree of freedom of the joint And a matching portion.

 また、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている3次元オブジェクトモデル記憶部から前記フレーム画像内の前記2次元オブジェクトに整合させる3次元オブジェクトモデルを取得するモデル取得部を有するようにしてもよい。 Further, as one aspect of the present invention, in order to solve the problem of shortening the time for matching a three-dimensional object model to a two-dimensional object in a frame image and improving the accuracy of matching, the basics related to the operation of the object A model acquisition unit that acquires a 3D object model to be matched with the 2D object in the frame image from a 3D object model storage unit in which a plurality of 3D object models set as postures are stored; Also good.

 さらに、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの骨盤を前記基準パーツとして設定されていてもよい。 Furthermore, as one aspect of the present invention, in order to solve the problem of shortening the time for matching the three-dimensional object model to the two-dimensional object in the frame image and improving the accuracy of the matching, the object is a person or an animal. In this case, in the reference part matching unit, the pelvis of the three-dimensional object model may be set as the reference part.

 また、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの頭部を前記基準パーツとして設定されていてもよい。 Further, as one aspect of the present invention, in order to solve the problem of shortening the time for matching a three-dimensional object model to a two-dimensional object in a frame image and improving the accuracy of matching, the object is a person or an animal. In this case, the head of the three-dimensional object model may be set as the reference part in the reference part matching unit.

 さらに、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが用具を装着している場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの前記用具を基準パーツとして設定されていてもよい。 Furthermore, as one aspect of the present invention, in order to solve the problem of shortening the time for matching the three-dimensional object model to the two-dimensional object in the frame image and improving the accuracy of the matching, the object is equipped with a tool. In this case, in the reference part matching unit, the tool of the three-dimensional object model may be set as a reference part.

 また、本発明の一態様として、フレーム画像内の2次元オブジェクトに3次元オブジェクトモデルを整合させる時間の短縮を図るとともに整合の精度を向上させるという課題を解決するために、前記オブジェクトが用具を装着している場合、前記縮尺決定部では、前記用具の大きさに合わせて縮尺を決定するようにしてもよい。 Further, as one aspect of the present invention, in order to solve the problem of shortening the time for matching the three-dimensional object model with the two-dimensional object in the frame image and improving the accuracy of the matching, the object is equipped with a tool. In this case, the scale determining unit may determine the scale according to the size of the tool.

 本発明に係るモーションキャプチャ方法は、オブジェクトの動作を撮影した2次元動画から前記オブジェクトに関する3次元動画を作成するという課題を解決するために、オブジェクトの動作を撮影した2次元動画に基づいて、前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ方法であって、前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得ステップと、前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定ステップと、前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定ステップと、前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定ステップと、前記2次元パーツ特定ステップにより特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合ステップと、前記2次元ジョイント位置特定ステップにより特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合ステップと、前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合ステップとを有する。 In order to solve the problem of creating a three-dimensional moving image related to the object from a two-dimensional moving image obtained by photographing the motion of the object, the motion capture method according to the present invention is based on the two-dimensional moving image obtained by photographing the motion of the object. A motion capture method for creating a three-dimensional video concerning the object using a three-dimensional object model comprising a plurality of parts constituting an object and joints connecting the parts, and a plurality of frames constituting the two-dimensional video A frame image acquisition step of acquiring a predetermined frame image of the image, and a two-dimensional part specifying step of specifying a part corresponding to each part constituting the three-dimensional object model for the two-dimensional object in the frame image And the two-dimensional object Two-dimensional joint position specifying step for specifying the joint position of the project, a scale determining step for determining the scale of the three-dimensional object model in accordance with the size of the two-dimensional object, and the two-dimensional part specifying step. Further, the predetermined part of the two-dimensional object is specified by the reference part aligning step in which the reference part of the three-dimensional object model is overlapped and the position and direction of the reference part are aligned and specified by the two-dimensional joint position specifying step. A joint position matching step for matching the position of the joint in the three-dimensional object model after aligning the reference part with the joint of the two-dimensional object, and a part corresponding to the reference part in the two-dimensional object Less than For each part of, and a part matching step of matching in accordance with the position and orientation of the part other than the reference part in the three-dimensional object model after matching the reference part to the flexibility of the joint.

 本発明によれば、オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトに関する3次元動画を作成することができる。 According to the present invention, it is possible to create a three-dimensional moving image related to the object based on the two-dimensional moving image obtained by photographing the motion of the object.

本発明に係るモーションキャプチャ装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the motion capture apparatus which concerns on this invention. 本実施形態において2次元動画を構成する一フレーム画像内の2次元オブジェクトを示す画像である。It is an image which shows the two-dimensional object in one frame image which comprises a two-dimensional moving image in this embodiment. 本実施形態における3次元オブジェクトモデルおよびこれを構成する各パーツの名称の一例を示すコンピュータグラフィック図である。It is a computer graphic figure which shows an example of the name of the three-dimensional object model in this embodiment, and each part which comprises this. 本実施形態においてスキー選手モデルの各パーツの長さ比率を設定するために使用した欧米人の身体データの統計値を示す模式図である。It is a schematic diagram which shows the statistical value of the Western body data used in order to set the length ratio of each part of a ski player model in this embodiment. 本実施形態における3次元オブジェクトモデルの各ジョイントの名称を示すコンピュータグラフィック図である。It is a computer graphic figure which shows the name of each joint of the three-dimensional object model in this embodiment. スキー競技の1つのターンにおける基本的な姿勢を示す模式図である。It is a mimetic diagram showing a basic posture in one turn of ski competition. 本実施形態における左ターン中の基本姿勢として設定された様々な3次元オブジェクトモデルの一例を示す図である。It is a figure which shows an example of the various three-dimensional object models set as a basic posture in the left turn in this embodiment. 本実施形態における右ターン中の基本姿勢として設定された様々な3次元オブジェクトモデルの一例を示す図である。It is a figure which shows an example of the various three-dimensional object model set as a basic posture in the right turn in this embodiment. 本実施形態のモーションキャプチャ方法の処理工程を示すフローチャートである。It is a flowchart which shows the process process of the motion capture method of this embodiment. 本実施形態における直立姿勢の3次元オブジェクトモデルとその基準パーツを示す斜視図である。It is a perspective view which shows the three-dimensional object model of the upright posture in this embodiment, and its reference | standard part. 本実施形態における3次元オブジェクトモデルの基準パーツ(骨盤)をフレーム画像内の2次元オブジェクトに重ね合わせた状態を示す画像である。It is an image which shows the state which overlap | superposed the reference | standard part (pelvis) of the three-dimensional object model in this embodiment on the two-dimensional object in a frame image. 本実施形態における3次元オブジェクトモデルの大腿をフレーム画像内の2次元オブジェクトに重ね合わせた状態を示す画像である。It is an image which shows the state which piled up the thigh of the three-dimensional object model in this embodiment on the two-dimensional object in a frame image. 本実施形態における3次元オブジェクトモデルの全てのパーツをフレーム画像内の2次元オブジェクトに重ね合わせた状態およびその3次元オブジェクトモデルの姿勢を示す画像である。It is an image which shows the state which all the parts of the three-dimensional object model in this embodiment overlapped with the two-dimensional object in a frame image, and the attitude | position of the three-dimensional object model. 本実施形態における整合された3次元オブジェクトモデルを背後から見た状態を時系列に並べた3次元動画の例を示す画像である。It is an image which shows the example of the three-dimensional moving image which arranged the state which looked at the matched three-dimensional object model in this embodiment from the back in time series. スキー選手の右ターン中の同じ姿勢を(a)正面、(b)左前方および(c)右前方から見た状態を示す模式図である。It is a schematic diagram which shows the state which looked at the same attitude | position in the right turn of a ski player from (a) front, (b) left front, and (c) right front.

 以下、本発明に係るモーションキャプチャプログラム、モーションキャプチャ装置およびモーションキャプチャ方法の一実施形態について図面を用いて説明する。 Hereinafter, an embodiment of a motion capture program, a motion capture device, and a motion capture method according to the present invention will be described with reference to the drawings.

 本実施形態のモーションキャプチャ装置1は、オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトに関する3次元動画を作成するための装置であり、図1に示すように、主として、モーションキャプチャプログラム1aおよび各種データを記憶する記憶手段2と、この記憶手段2から各種データを取得して演算処理を実行する演算処理手段3とを有する。以下、各構成の詳細について説明する。 The motion capture device 1 of the present embodiment is a device for creating a three-dimensional moving image related to the object based on a two-dimensional moving image obtained by photographing the motion of the object. As shown in FIG. 1, the motion capture program 1a is mainly used. And storage means 2 for storing various data, and arithmetic processing means 3 for acquiring various data from the storage means 2 and executing arithmetic processing. Details of each component will be described below.

 記憶手段2は、ROM、RAM、ハードディスク、フラッシュメモリ等によって構成されており、各種のデータを記憶するとともに、演算処理手段3が演算を実行する際のワーキングエリアとして機能するものである。図1に示すように、本実施形態における記憶手段2は、主に、モーションキャプチャプログラム1aを記憶するプログラム記憶部21と、オブジェクトの動作を撮影した2次元動画を記憶する2次元動画記憶部22と、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルを記憶させる3次元オブジェクトモデル記憶部23と、2次元動画と整合させた3次元オブジェクトモデルを時系列で並べて作成される3次元動画を記憶する3次元動画記憶部24とを有する。 The storage means 2 is composed of a ROM, a RAM, a hard disk, a flash memory, etc., and stores various data and functions as a working area when the arithmetic processing means 3 executes arithmetic operations. As shown in FIG. 1, the storage means 2 in this embodiment mainly includes a program storage unit 21 that stores a motion capture program 1a, and a two-dimensional moving image storage unit 22 that stores a two-dimensional moving image obtained by photographing the motion of an object. And a three-dimensional object model storage unit 23 for storing a plurality of three-dimensional object models set as basic postures related to the motion of the object, and a three-dimensional object model matched with a two-dimensional moving image are created in time series. And a three-dimensional moving image storage unit 24 that stores the three-dimensional moving image.

 プログラム記憶部21には、本実施形態のモーションキャプチャプログラム1aがインストールされている。そして、演算処理手段3が、前記モーションキャプチャプログラム1aを実行し、後述する演算処理手段3の各構成部として機能させることにより、コンピュータをモーションキャプチャ装置1として機能させるようになっている。 The motion capture program 1a of this embodiment is installed in the program storage unit 21. The arithmetic processing unit 3 executes the motion capture program 1a and functions as each component of the arithmetic processing unit 3 described later, thereby causing the computer to function as the motion capture device 1.

 なお、モーションキャプチャプログラム1aの利用形態は、上記構成に限られるものではない。例えば、CD-ROMやUSBメモリ等のように、コンピュータで読み取り可能な非一時的な記録媒体にモーションキャプチャプログラム1aを記憶させておき、この記録媒体から直接読み出して実行してもよい。また、外部サーバ等からクラウドコンピューティング方式やASP(application service provider)方式等で利用してもよい。 Note that the usage form of the motion capture program 1a is not limited to the above configuration. For example, the motion capture program 1a may be stored in a computer-readable non-transitory recording medium such as a CD-ROM or a USB memory, and read directly from the recording medium and executed. Moreover, you may utilize from an external server etc. by a cloud computing system, ASP (application | service | provider) system, etc.

 2次元動画記憶部22には、オブジェクトの動作を撮影した2次元動画が記憶されており、本実施形態では、前記2次元動画を構成する複数のフレーム画像が記憶されている。具体的には、例えばスキー競技を撮影した2次元動画に関して、1秒当たり30コマのフレーム画像が記憶されている。また、フレーム画像内にはオブジェクトを撮影することで得られる2次元オブジェクトを備えている。ここで2次元オブジェクトとは、フレーム画像内において3次元動画を作成する対象物である。オブジェクトの例としては、人物、動物、ロボット、キャラクター、用具等の各種のものが挙げられる。本実施形態では、図2に示すように、フレーム画像内のスキー選手およびこのスキー選手が装着するスキー板の部分がフレーム画像内の2次元オブジェクトに該当する。 The two-dimensional moving image storage unit 22 stores a two-dimensional moving image obtained by photographing the motion of the object. In this embodiment, a plurality of frame images constituting the two-dimensional moving image are stored. Specifically, for example, a frame image of 30 frames per second is stored for a two-dimensional video image of a ski competition. The frame image includes a two-dimensional object obtained by photographing the object. Here, the two-dimensional object is an object for creating a three-dimensional moving image in the frame image. Examples of objects include various objects such as a person, an animal, a robot, a character, and a tool. In the present embodiment, as shown in FIG. 2, the ski player in the frame image and the part of the ski that the ski player wears correspond to the two-dimensional object in the frame image.

 3次元オブジェクトモデル記憶部23には、フレーム画像内の2次元オブジェクトに整合させるための3次元オブジェクトモデルが記憶されており、本実施形態では、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている。 The three-dimensional object model storage unit 23 stores a three-dimensional object model for matching with a two-dimensional object in the frame image. In this embodiment, a plurality of sets set as basic postures related to the motion of the object are stored. A three-dimensional object model is stored.

 ここで、3次元オブジェクトモデルについて説明する。3次元オブジェクトモデルは、フレーム画像内の2次元オブジェクトに整合させるための3次元モデルである。この3次元オブジェクトモデルはCADソフトやコンピュータグラフィックに用いられる剛体モデリングソフト等によって作成される。本実施形態の3次元オブジェクトモデルは、スキー競技を撮影した2次元動画のフレーム画像内のスキー選手およびスキー板に整合させるため、図3に示すように、スキー選手モデルと、当該スキー選手が装着しているスキー板モデルとから構成されている。 Here, the 3D object model will be described. The three-dimensional object model is a three-dimensional model for matching with a two-dimensional object in the frame image. This three-dimensional object model is created by CAD software, rigid body modeling software used for computer graphics, or the like. The 3D object model of the present embodiment is attached to the ski player model and the ski player as shown in FIG. 3 in order to match the ski player and the ski in the frame image of the 2D video of the ski competition. And a ski model.

 スキー選手モデルは、人物の主な構成に合わせて、頭部、胴部、骨盤、左上腕、左前腕、左手部、右上腕、右前腕、右手部、左大腿、左下腿、左足部、右大腿、右下腿および右足部の合計15個のパーツから構成されている。 The ski player model has a head, torso, pelvis, left upper arm, left forearm, left hand, right upper arm, right forearm, right hand, left thigh, left lower leg, left foot, right according to the main composition of the person. It consists of a total of 15 parts including the thigh, right lower leg, and right foot.

 本実施形態では、複数のスキー選手の2次元動画に整合させるため、スキー選手モデルにおける各パーツの長さ比率は、図4に示すように、欧米人の身体データの統計値(R.Contini著、"Body Segment Parameters, PartII"、Artificial Limbs 16, (1972), pp.1-19.)に基づき設定している。なお、各パーツの長さやその比率は、整合させる対象が特定されている場合は、その対象のデータ、例えばスキー選手の場合はその選手の実際の体型に基づいて設定してもよい。 In this embodiment, in order to match the two-dimensional video of a plurality of ski players, the length ratio of each part in the ski player model is as shown in FIG. , “Body Segment Parameters, Art Part II”, Artificial Limbs 16, (1972), pp. 1-19.). In addition, when the object to match is specified, the length of each part and its ratio may be set based on the data of the object, for example, in the case of a ski player, the actual body shape of the player.

 また、3次元オブジェクトモデルは、各パーツがジョイントによって連結されており、各ジョイントには曲がる方向を示す自由度が設定されている。例えばスキー選手モデルでは、図5に示すように、頭部と胴部とを連結する首関節、胴部と左右の上腕とを連結する肩関節、上腕と前腕とを連結する肘関節、前腕と手部とを連結する手関節、胴部と左右の大腿とを連結する股関節、大腿と下腿とを連結する膝関節、および、下腿と足部とを連結する足関節を有する。 Also, in the 3D object model, each part is connected by a joint, and each joint has a degree of freedom indicating the direction of bending. For example, in a ski player model, as shown in FIG. 5, a neck joint that connects the head and the torso, a shoulder joint that connects the torso and the left and right upper arms, an elbow joint that connects the upper arm and the forearm, A wrist joint that connects the hand part, a hip joint that connects the torso and the left and right thighs, a knee joint that connects the thigh and the lower leg, and an ankle joint that connects the lower leg and the foot part.

 また、各ジョイントの自由度は、人間の関節の自由度に基づいて設定されている。具体的には、表1に示すように、首関節には自由度3が設定されており、前後方向、左右方向および回転方向にジョイントが動かせるようになっている。また、肩関節、股関節も同様に、前後方向、左右方向および回転方向に動かせるように自由度3が設定されている。手関節は、手首関節の自由度2と、前腕の回内・回外の自由度1とを合わせて自由度3が設定されている。さらに、肘関節および膝関節は、曲げ伸ばしのみの動きであるため自由度1が設定されている。一方、人間の足関節は前後方向および左右方向に動かせるため、その自由度は2であるが、スキー選手は足関節がスキーブーツで覆われることにより左右方向への移動が制限されており、前後方向の曲げ伸ばしに限定される。よって、本実施形態におけるスキー選手モデルの足関節の自由度は、自由度1に設定している。このように、ジョイントの自由度は、オブジェクトが装着する用具やオブジェクトの動作の制約等に合わせて自由に設定可能である。 Also, the degree of freedom of each joint is set based on the degree of freedom of human joints. Specifically, as shown in Table 1, a degree of freedom 3 is set for the neck joint, and the joint can be moved in the front-rear direction, the left-right direction, and the rotation direction. Similarly, the degree of freedom 3 is set so that the shoulder joint and the hip joint can be moved in the front-rear direction, the left-right direction, and the rotation direction. The wrist joint is set to have a degree of freedom of 3 by combining the degree of freedom of the wrist joint of 2 and the degree of freedom of pronation / extraction of the forearm. Furthermore, since the elbow joint and the knee joint are only bent and stretched, a degree of freedom of 1 is set. On the other hand, since the human ankle joint can be moved in the front-rear direction and the left-right direction, the degree of freedom is 2, but ski players are restricted from moving in the left-right direction because the ankle joint is covered with ski boots. Limited to direction bending. Therefore, the degree of freedom of the ankle joint of the ski player model in this embodiment is set to 1 degree of freedom. As described above, the degree of freedom of the joint can be freely set in accordance with a tool worn by the object, restrictions on the movement of the object, and the like.

[表1]

Figure JPOXMLDOC01-appb-I000001
[Table 1]
Figure JPOXMLDOC01-appb-I000001

 また、スキー板モデルは、図3に示すように、長さ方向に対して分割された8個のパーツとビンディングプレートに係る1個のパーツとして構成されており、左右一対であることから合計18個のパーツから構成されている。また、スキー板モデルの長さは、複数のスキー選手の2次元動画に対して整合させるため、FIS(国際スキー連盟)のアルペンスキー用具規格に基づき設定されている。なお、スキー板モデル等、オブジェクトが装着している用具の長さは、規格に基づいて設定されるものに限定されず、その対象のデータ、例えば、スキー選手が装着している実際のスキーの長さ寸法に基づいて設定してもよい。 Further, as shown in FIG. 3, the ski model is composed of eight parts divided in the length direction and one part related to the binding plate, and a total of 18 parts from the left and right pairs. It consists of individual parts. The length of the ski model is set based on the FIS (International Ski Federation) alpine ski equipment standard in order to match the two-dimensional moving images of a plurality of ski players. Note that the length of the equipment worn by the object, such as a ski model, is not limited to that set based on the standard, but the target data, for example, the actual ski equipment worn by the ski player. You may set based on a length dimension.

 また、スキー板モデルの各パーツはジョイントで連結されており、スキー板の先端側または後端側が上下方向に反り返るたわみを表現できるように、その反る方向に対して自由度1が設定されている。 In addition, each part of the ski model is connected by a joint, and a degree of freedom 1 is set for the direction of warping so that the front side or rear end side of the ski can bend up and down. Yes.

 さらに、スキー板モデルのスキー板部分とビンディングプレート、ビンディングプレートとスキー選手モデルの足部とは、2次元モデルにおいてそれぞれ固定されているため、3次元オブジェクトモデルにおけるこれらのジョイントの自由度は、自由度0に設定されている。 Furthermore, since the ski part of the ski model and the binding plate, and the binding plate and the foot part of the ski player model are fixed in the two-dimensional model, the degree of freedom of these joints in the three-dimensional object model is free. The degree is set to zero.

 また、本実施形態における3次元オブジェクトモデル記憶部23には、前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている。スキー競技の場合、1つのターンにおいて、図6に示すように、主に、ターンの切り換え時であるニュートラル姿勢、斜面に対してスキーのエッジを立てるエッジングといわれる動作を開始するエッジング開始姿勢、前記エッジを立てる角度や体をターン方向に傾斜させる角度が最も大きくなるターンマキシマム姿勢、前記エッジングを終了するエッチング終了姿勢がある。そこで、本実施形態では、これらのターン時の姿勢を基本姿勢として、図7および図8に示すように、各種の3次元オブジェクトモデルを設定している。なお、図7および図8に示す複数の3次元オブジェクトモデルの基本姿勢は一例であり、各基本姿勢同士の間にはその中間姿勢となる複数の基本姿勢が設定されている。 Further, in the three-dimensional object model storage unit 23 in the present embodiment, a plurality of three-dimensional object models set as basic postures related to the movement of the object are stored. In the case of ski competition, in one turn, as shown in FIG. 6, a neutral posture at the time of switching the turn, an edging start posture for starting an operation called edging that raises the edge of the ski on the slope, There are a turn-maximum posture in which the angle at which the edge is raised and the angle at which the body is inclined in the turn direction is the largest, and an etching end posture in which the edging is finished. Therefore, in the present embodiment, various three-dimensional object models are set as shown in FIGS. 7 and 8 with these turn postures as basic postures. Note that the basic postures of the plurality of three-dimensional object models shown in FIGS. 7 and 8 are examples, and a plurality of basic postures that are intermediate postures are set between the basic postures.

 3次元動画記憶部24は、フレーム画像ごとに整合された3次元オブジェクトモデルをフレーム画像と同じ時系列順で表示可能なデータとして作成された3次元動画を記憶するものである。本実施形態における3次元動画記憶部24は、3次元動画とともに、3次元オブジェクトモデルにおける所定のジョイントの角度を、フレーム画像の順と同じ時系列で記憶するようになっている。 The 3D moving image storage unit 24 stores a 3D moving image created as data capable of displaying a 3D object model matched for each frame image in the same time series order as the frame image. The three-dimensional moving image storage unit 24 in the present embodiment stores a predetermined joint angle in the three-dimensional object model in the same time series as the order of the frame images together with the three-dimensional moving image.

 つぎに、演算処理手段3について説明する。演算処理手段3は、CPU(Central Processing Unit)等から構成されており、記憶手段2にインストールされたモーションキャプチャプログラム1aを実行させることにより、図1に示すように、モーションキャプチャ装置1としてのコンピュータを、フレーム画像取得部31、2次元パーツ特定部32、2次元ジョイント位置特定部33、モデル取得部34、縮尺決定部35、基準パーツ整合部36、ジョイント位置整合部37、パーツ整合部38および3次元動画作成部39として機能させるようになっている。 Next, the arithmetic processing means 3 will be described. The arithmetic processing means 3 is composed of a CPU (Central Processing Unit) and the like, and by executing a motion capture program 1a installed in the storage means 2, as shown in FIG. Frame image acquisition unit 31, 2D part specification unit 32, 2D joint position specification unit 33, model acquisition unit 34, scale determination unit 35, reference part alignment unit 36, joint position alignment unit 37, part alignment unit 38, and It is made to function as the three-dimensional moving image creation unit 39.

 フレーム画像取得部31は、2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するものであり、本実施形態では、2次元動画記憶部22に記憶されているフレーム画像を2次元動画の時系列にしたがって取得するようになっている。 The frame image acquisition unit 31 acquires a predetermined frame image from among a plurality of frame images constituting a two-dimensional moving image. In this embodiment, the frame image acquisition unit 31 stores two frame images stored in the two-dimensional moving image storage unit 22. Acquired according to the time series of dimensional animation.

 2次元パーツ特定部32は、フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定するものである。本実施形態では、フレーム画像内のどの部分が頭部、胴部、骨盤、左上腕、左前腕、左手部、右上腕、右前腕、右手部、左大腿、左下腿、左足部、右大腿、右下腿、右脚部およびスキー部分に相当するかを識別して特定するようになっている。本実施形態における2次元パーツ特定部32は、ディープラーニングによる画像認識技術や顔認証に用いられる画像認識技術等を用いて、各パーツを特定するとともに、特定された各パーツに係る部分(範囲)を示すフレーム画像内における位置座標を取得するようになっている。これにより、各パーツのフレーム画像内における位置および大きさに関するデータを得ることができる。 The two-dimensional part specifying unit 32 specifies a part corresponding to each part constituting the three-dimensional object model for a two-dimensional object in the frame image. In this embodiment, which part in the frame image is the head, torso, pelvis, left upper arm, left forearm, left hand, right upper arm, right forearm, right hand, left thigh, left lower leg, left foot, right thigh, The right lower leg, the right leg, and the ski part are identified and identified. The two-dimensional part specifying unit 32 in the present embodiment specifies each part using an image recognition technique using deep learning, an image recognition technique used for face authentication, and the like, and a part (range) related to each specified part. The position coordinates in the frame image showing are obtained. Thereby, the data regarding the position and magnitude | size in the frame image of each part can be obtained.

 2次元ジョイント位置特定部33は、フレーム画像内の2次元オブジェクトのジョイントの位置を特定するものである。本実施形態における2次元ジョイント位置特定部33は、2次元パーツ特定部32と同様、ディープラーニングによる画像認識技術や顔認証に用いられる画像認識技術等を用いて2次元オブジェクトのジョイントの位置座標を取得するようになっている。なお、ジョイント位置を特定する方法は、画像認識技術に限定されるものではなく、例えば、2次元パーツ特定部32により特定された各パーツの境界をジョイント位置として特定してもよい。 The two-dimensional joint position specifying unit 33 specifies the position of the joint of the two-dimensional object in the frame image. The two-dimensional joint position specifying unit 33 in the present embodiment, like the two-dimensional part specifying unit 32, uses the image recognition technology by deep learning, the image recognition technology used for face authentication, or the like to calculate the position coordinates of the joint of the two-dimensional object. To get. The method for specifying the joint position is not limited to the image recognition technique, and for example, the boundary of each part specified by the two-dimensional part specifying unit 32 may be specified as the joint position.

 モデル取得部34は、3次元オブジェクトモデル記憶部23から、フレーム画像内の2次元オブジェクトに整合させる3次元オブジェクトモデルを取得するものである。また、本実施形態におけるモデル取得部34は、整合時間の短縮や整合精度を向上させるため、図7および図8に示すように、オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルからフレーム画像内の2次元オブジェクトに対する整合に適した3次元オブジェクトモデルを等を用いて判別し、取得するようになっている。この際、解析的に求まらない最適解を試行錯誤的に収束解として獲得する進化的アルゴリズム(Evolutionary Algorithm:EA)に基づくAI(人工知能)技術等を利用する。前記進化的アルゴリズムは、特別な理論的背景なしで、人間が手作業でマッチさせる作業と同様のプロセスで自動的に各パーツのマッチングを行うことができるアルゴリズムの一つであり、遺伝的アルゴリズム(Genetic Algorithm、:GA)、遺伝的プログラミング(Genetic Programming:GP)、進化戦略(Evolution Strategy:ES)、進化的プログラミング(Evolutionary Programming:EP)等が利用可能である。 The model acquisition unit 34 acquires a 3D object model to be matched with the 2D object in the frame image from the 3D object model storage unit 23. In addition, the model acquisition unit 34 according to the present embodiment has a plurality of three-dimensional object models set as basic postures related to the movement of the object, as shown in FIGS. 7 and 8, in order to shorten the matching time and improve the matching accuracy. Thus, a three-dimensional object model suitable for matching with a two-dimensional object in a frame image is discriminated using, for example, and acquired. At this time, AI (artificial intelligence) technology based on an evolutionary algorithm (Evolutionary Algorithm: EA) that acquires an optimal solution that cannot be obtained analytically as a converged solution by trial and error is used. The evolutionary algorithm is one of algorithms that can automatically match each part in the same process as a human manual matching without any special theoretical background. Genetic Algorithm (GA), Genetic Programming (GP), Evolution Strategy (ES), Evolutionary Programming (EP), etc. are available.

 2次元オブジェクトに対する整合に最も適しているか否かの判別方法は、特に限定されるものではないが、例えば、フレーム画像内から2次元オブジェクト部分とその他の部分とを2値化し、前記2次元オブジェクト部分から算出された面積値と、3次元オブジェクトモデルの所定の方向から投影された面積値とを比較して差分値の小さいものを適していると判別してもよい。あるいは2次元オブジェクトにおける所定のパーツ同士の距離と3次元オブジェクトモデルの対応するパーツ同士の距離との差分値から判別してもよい。または、取得された3次元オブジェクトモデルをフレーム画像の2次元オブジェクトを整合させる際に、前記3次元オブジェクトモデルにおける所定のパーツの移動量や移動角度が所定値以上になった場合に、異なる3次元オブジェクトモデルを再取得するようにしてもよい。さらに、直前の整合に用いられた3次元オブジェクトモデルをそのまま用いてもよい。また、前記3次元オブジェクトモデルを用いた場合の整合に係る処理時間が所定の時間よりも長くなった場合には、予め定めておいた順に従って次の基本姿勢に係る3次元オブジェクトモデルを取得するようにしてもよい。 A method for determining whether or not the two-dimensional object is most suitable for matching is not particularly limited. For example, the two-dimensional object portion and other portions are binarized from the frame image, and the two-dimensional object is obtained. The area value calculated from the part and the area value projected from the predetermined direction of the three-dimensional object model may be compared to determine that the one having a small difference value is suitable. Or you may discriminate | determine from the difference value of the distance of the predetermined parts in a two-dimensional object, and the distance of the corresponding parts of a three-dimensional object model. Alternatively, when the obtained three-dimensional object model is matched with the two-dimensional object of the frame image, if the movement amount or movement angle of a predetermined part in the three-dimensional object model exceeds a predetermined value, a different three-dimensional The object model may be reacquired. Further, the three-dimensional object model used for the previous matching may be used as it is. In addition, when the processing time related to the matching when the three-dimensional object model is used becomes longer than a predetermined time, the three-dimensional object model related to the next basic posture is acquired according to a predetermined order. You may do it.

 縮尺決定部35は、2次元オブジェクトの全体の大きさまたは任意に選択されたパーツの大きさに合わせて3次元オブジェクトモデルの縮尺を決定するものである。本実施形態では、オブジェクトが人物に係るスキー選手であるため、2次元パーツ特定部32により特定された骨盤部分に係る位置座標から当該骨盤の大きさを算出し、3次元オブジェクトモデルの骨盤をその大きさに合わせることで3次元オブジェクトモデルの縮尺を決定するようになっている。 The scale determining unit 35 determines the scale of the 3D object model according to the overall size of the 2D object or the size of an arbitrarily selected part. In this embodiment, since the object is a ski player related to a person, the size of the pelvis is calculated from the position coordinates related to the pelvis part specified by the two-dimensional part specifying unit 32, and the pelvis of the three-dimensional object model is The scale of the three-dimensional object model is determined according to the size.

 なお、3次元オブジェクトモデルの縮尺を決定する基準となるパーツは、骨盤などの人物または動物の一部のパーツに限定されるものではなく、適宜、オブジェクトの特徴に応じて選択してよい。例えば、オブジェクトが用具を装着している場合には、その用具の大きさに合わせて縮尺を決定してもよい。本実施形態では、上述のとおり、スキー選手が足部にスキーを装着しており、当該スキーの寸法はFISの規格に基づきほぼ一定の寸法を有しているため、フレーム画像内のスキー部分の大きさを基準にすることにより縮尺の精度向上が期待される。また、2次元オブジェクトの全体の大きさに合わせる場合には、フレーム画像内から2次元オブジェクト部分とその他の部分とを2値化し、2値化した前記2次元オブジェクト全体の大きさに合わせて3次元オブジェクトモデルの縮尺を決定してもよい。 It should be noted that the reference parts for determining the scale of the three-dimensional object model are not limited to a part of a person such as a pelvis or an animal, and may be appropriately selected according to the characteristics of the object. For example, when the object is wearing a tool, the scale may be determined according to the size of the tool. In the present embodiment, as described above, the ski player wears the ski on the foot, and the size of the ski has a substantially constant size based on the FIS standard. By using the size as a reference, it is expected to improve the accuracy of the scale. In addition, in order to match the entire size of the two-dimensional object, the two-dimensional object portion and other portions are binarized from the frame image, and the binarized three-dimensional object is adjusted to the entire size. The scale of the dimensional object model may be determined.

 基準パーツ整合部36は進化的アルゴリズムに基づくAI技術等を用いることにより、2次元パーツ特定部32によって特定された2次元オブジェクトの所定のパーツに対して、3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させるものである。本実施形態では、基準パーツとして3次元オブジェクトモデルの骨盤を採用している。骨盤は人物または動物の動作の中心となる部分であり、かつ体の中心位置にあって画像認識技術において特定し易く、他のパーツに比べて捻りや傾き等が少ないため、位置および方向を整合し易く、整合時間の短縮や整合精度の向上が期待できる。 The reference part matching unit 36 superimposes the reference part of the three-dimensional object model on the predetermined part of the two-dimensional object specified by the two-dimensional part specifying unit 32 by using AI technology or the like based on an evolutionary algorithm. This aligns the position and direction of the reference part. In this embodiment, a pelvis of a three-dimensional object model is adopted as a reference part. The pelvis is the central part of human or animal movement, and is located at the center of the body, easy to identify in image recognition technology, and has less twisting and tilting than other parts. Therefore, it is possible to reduce the matching time and improve the matching accuracy.

 なお、基準パーツは、骨盤に限定されるものではなく、パーツの特徴やオブジェクトの動作の特徴に応じて適宜選択してもよい。例えば、頭部は、人物の各パーツにおいて特徴的な球状パーツであるため、他のパーツに比べて画像認識技術によって特定し易い。また、頭部は目、鼻、口等があるため方向も合わせ易い。よって、基準パーツとして頭部を採用しても整合時間の短縮や整合精度の向上が期待できる。また、オブジェクトが用具を装着している場合には、前記用具を基準パーツとしてもよい。用具は、色や形などから人物等と区別が容易であって画像認識技術により特定し易いからである。また、スキー板やゴルフクラブ等の長尺状の用具やテニスラケット等の打撃面がある用具は、傾斜角度や傾斜面の方向が判別し易い。よって、用具を基準パーツとする場合も、整合時間の短縮や整合精度の向上が期待できる。 Note that the reference part is not limited to the pelvis, and may be appropriately selected according to the feature of the part or the feature of the operation of the object. For example, since the head is a spherical part that is characteristic in each part of a person, it is easier to identify by the image recognition technique than other parts. Also, since the head has eyes, nose, mouth and the like, the direction can be easily adjusted. Therefore, shortening the alignment time and improving the alignment accuracy can be expected even if the head is used as the reference part. Further, when the object is equipped with a tool, the tool may be used as a reference part. This is because the tool can be easily distinguished from a person or the like by color or shape, and can be easily specified by an image recognition technique. Further, a long tool such as a ski board or a golf club or a tool having a striking surface such as a tennis racket can easily determine the inclination angle and the direction of the inclined surface. Therefore, shortening the alignment time and improving the alignment accuracy can be expected even when the tool is used as a reference part.

 ジョイント位置整合部37は、2次元ジョイント位置特定部33により特定された2次元オブジェクトの各ジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるものである。本実施形態におけるジョイント位置整合部37は、前記2次元オブジェクトのジョイント位置座標に対して、3次元オブジェクトモデルを構成する各ジョイント位置を整合させるようになっている。 The joint position matching unit 37 matches the position of the joint in the three-dimensional object model after matching the reference part with each joint of the two-dimensional object specified by the two-dimensional joint position specifying unit 33. is there. The joint position matching unit 37 according to the present embodiment is configured to match each joint position constituting the three-dimensional object model with respect to the joint position coordinates of the two-dimensional object.

 パーツ整合部38は、進化的アルゴリズムに基づくAI技術等を用いて、2次元オブジェクトに対して、基準パーツを整合させた後の3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向をジョイントの自由度に応じて整合させるものである。本実施形態におけるパーツ整合部38は、基準パーツ整合部36またはパーツ整合部38により位置および方向が整合されたパーツに連結されている他のパーツを、それらを連結するジョイントにおける自由度に応じて屈曲させて、前記パーツの位置および方向を整合させるようになっている。つまり、パーツ整合部38では、各パーツの位置および方向をジョイントの自由度の条件下で整合させるため、3次元オブジェクトモデルが現実のオブジェクトではあり得ない姿勢になるのを防ぐことができる。 The part aligning unit 38 uses the AI technique based on an evolutionary algorithm or the like to set the position and direction of parts other than the reference part in the 3D object model after aligning the reference part to the 2D object. Matching according to the degree of freedom. In the present embodiment, the part aligning unit 38 is a reference part aligning unit 36 or another part connected to a part whose position and direction are aligned by the part aligning unit 38 according to the degree of freedom in the joint that connects them. The position and direction of the parts are aligned by bending. In other words, since the part alignment unit 38 aligns the position and direction of each part under the condition of the degree of freedom of the joint, it is possible to prevent the 3D object model from taking a posture that cannot be a real object.

 3次元動画作成部39は、フレーム画像ごとに整合された3次元オブジェクトモデルをフレーム画像の順と同じ時系列で連続的に表示可能なデータとして3次元動画を作成するものである。本実施形態における3次元動画作成部39は、3次元オブジェクトモデルに対する視点を任意に設定することで、当該視点に基づく3次元オブジェクトモデルの動画を作成し、3次元動画記憶部24に記憶するようになっている。また、3次元動画作成部39は、3次元オブジェクトモデルにおける所定のジョイントの角度について、フレーム画像の順と同じ時系列で取得し、前記3次元動画記憶部24に記憶するようになっている。 The 3D video creation unit 39 creates a 3D video as data that can be continuously displayed in the same time series as the order of the frame images of the 3D object model matched for each frame image. The 3D video creation unit 39 in this embodiment creates a video of the 3D object model based on the viewpoint by arbitrarily setting the viewpoint for the 3D object model, and stores it in the 3D video storage unit 24. It has become. Further, the three-dimensional moving image creation unit 39 acquires the predetermined joint angles in the three-dimensional object model in the same time series as the order of the frame images, and stores them in the three-dimensional moving image storage unit 24.

 つぎに、本実施形態のモーションキャプチャプログラム1aおよびモーションキャプチャ装置1における各構成の作用について、モーションキャプチャ方法とともに説明する。 Next, the operation of each component in the motion capture program 1a and the motion capture device 1 according to this embodiment will be described together with a motion capture method.

 本実施形態のモーションキャプチャ方法では、図9に示すように、2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得する(フレーム画像取得ステップS1)。本実施形態では、フレーム画像取得部31が、2次元動画記憶部22に記憶されている複数のフレーム画像を適切な間隔で時系列順に取得する。 In the motion capture method of this embodiment, as shown in FIG. 9, a predetermined frame image is acquired from a plurality of frame images constituting a two-dimensional moving image (frame image acquisition step S1). In the present embodiment, the frame image acquisition unit 31 acquires a plurality of frame images stored in the two-dimensional moving image storage unit 22 in chronological order at appropriate intervals.

 そして、取得したフレーム画像内の2次元オブジェクトに対して、3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する(2次元パーツ特定ステップS2)。本実施形態では、2次元パーツ特定部32が、ディープラーニングなどによる画像認識技術等によってフレーム画像のいずれの部分(範囲)が3次元オブジェクトモデルを構成する各パーツのいずれのパーツに相当するかを特定し、その部分の位置座標を取得する。 Then, a part corresponding to each part constituting the three-dimensional object model is specified for the two-dimensional object in the acquired frame image (two-dimensional part specifying step S2). In the present embodiment, the two-dimensional part specifying unit 32 determines which part (range) of the frame image corresponds to which part of each part constituting the three-dimensional object model by image recognition technology such as deep learning. Identify and get the position coordinates of that part.

 そして、取得したフレーム画像内の2次元オブジェクトに対して、2次元オブジェクトのジョイントの位置を特定する(2次元ジョイント位置特定ステップS3)。本実施形態では、2次元ジョイント位置特定部33が、ディープラーニングなどによる画像認識技術等によってフレーム画像のいずれの部分がジョイントの位置に相当するかを特定し、その位置の位置座標を取得する。 Then, the position of the joint of the two-dimensional object is specified for the two-dimensional object in the acquired frame image (two-dimensional joint position specifying step S3). In the present embodiment, the two-dimensional joint position specifying unit 33 specifies which part of the frame image corresponds to the position of the joint by an image recognition technique using deep learning or the like, and acquires the position coordinates of the position.

 つぎに、取得されたフレーム画像に対して3次元オブジェクトモデルを整合させる。具体的には、フレーム画像内の前記2次元オブジェクトに整合させる3次元オブジェクトモデルを取得する(モデル取得ステップS4)。本実施形態では、モデル取得部34が、2値化された2次元オブジェクトと3次元オブジェクトモデルの所定の方向からの投影面積との差分値等に基づき、3次元オブジェクトモデル記憶部23に記憶されている複数の3次元オブジェクトモデルから、フレーム画像内の2次元オブジェクトに対する整合に最も適した基本姿勢として設定された3次元オブジェクトモデルを取得する。このように、フレーム画像内の2次元オブジェクトの姿勢に近い3次元オブジェクトモデルを用いることで、整合に係る時間の短縮および整合精度の向上を図ることができる。 Next, the 3D object model is matched with the acquired frame image. Specifically, a three-dimensional object model to be matched with the two-dimensional object in the frame image is acquired (model acquisition step S4). In the present embodiment, the model acquisition unit 34 is stored in the three-dimensional object model storage unit 23 based on a difference value between the binarized two-dimensional object and the projected area of the three-dimensional object model from a predetermined direction. A three-dimensional object model set as a basic posture most suitable for matching with a two-dimensional object in a frame image is acquired from the plurality of three-dimensional object models. In this way, by using a three-dimensional object model that is close to the posture of the two-dimensional object in the frame image, it is possible to shorten the time for matching and improve the matching accuracy.

 なお、以下において、整合前と整合後の3次元オブジェクトモデルの各パーツの変化をわかり易くするため、2次元オブジェクトに対する整合に最も適している3次元オブジェクトモデルが、図10に示すように、直立した姿勢の3次元オブジェクトモデルであった場合を例に説明する。 In the following, in order to make it easy to understand the change of each part of the 3D object model before and after the alignment, the 3D object model most suitable for alignment with the 2D object is upright as shown in FIG. A case where the posture is a three-dimensional object model will be described as an example.

 まずは2次元オブジェクトの大きさに合わせて3次元オブジェクトモデルの縮尺を決定する(縮尺決定ステップS5)。本実施形態では、縮尺決定部35が、2次元パーツ特定部32によって骨盤と特定されたフレーム画像内の所定の部分の位置座標からフレーム画面上における骨盤の大きさを算出し、3次元オブジェクトモデルの骨盤を前記算出された骨盤の大きさに合わせることで縮尺を決定する。 First, the scale of the 3D object model is determined in accordance with the size of the 2D object (scale determination step S5). In the present embodiment, the scale determining unit 35 calculates the size of the pelvis on the frame screen from the position coordinates of a predetermined portion in the frame image identified as the pelvis by the two-dimensional part identifying unit 32, and calculates the three-dimensional object model. The scale of the pelvis is determined by matching the size of the pelvis with the calculated size of the pelvis.

 つぎに、2次元オブジェクトに対して、3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる(基準パーツ整合ステップS6)。本実施形態では、図10に示すように、3次元オブジェクトモデルの骨盤を基準パーツとしている。よって、基準パーツ整合部36は、進化的アルゴリズムに基づくAI技術等を用いて、図11に示すように、3次元オブジェクトモデルの骨盤を2次元パーツ特定部32が骨盤として特定した部分に重ね合わせることでその位置および方向を整合させる。骨盤は、画像認識技術等において特定し易く、他のパーツに比べて捻りや傾き等が少ないため、整合に係る時間の短縮を図ることができるとともに整合の精度を向上させることができる。 Next, the reference part of the three-dimensional object model is overlapped with the two-dimensional object to align the position and direction of the reference part (reference part alignment step S6). In this embodiment, as shown in FIG. 10, the pelvis of the three-dimensional object model is used as a reference part. Therefore, the reference part matching unit 36 uses the AI technique based on the evolutionary algorithm to superimpose the pelvis of the three-dimensional object model on the part specified by the two-dimensional part specifying unit 32 as the pelvis as shown in FIG. To align the position and direction. The pelvis is easy to identify in image recognition technology and the like, and is less twisted and tilted than other parts, so that the time required for alignment can be shortened and the accuracy of alignment can be improved.

 基準パーツの整合処理が終了すると、その後、2次元オブジェクトの特定された各ジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させる(ジョイント位置整合ステップS7)。本実施形態では、ジョイント位置整合部37が、例えば、2次元ジョイント位置特定部33により特定された膝関節の位置座標に合わせて、基準パーツに連結された大腿の膝関節の位置を整合させる。 When the alignment process of the reference parts is completed, the positions of the joints in the 3D object model after the alignment of the reference parts are then aligned with each identified joint of the 2D object (joint position alignment step S7). ). In the present embodiment, the joint position matching unit 37 matches the position of the knee joint of the thigh connected to the reference part, for example, in accordance with the position coordinate of the knee joint specified by the two-dimensional joint position specifying unit 33.

 そして、2次元オブジェクトの特定された各パーツに対して、基準パーツを整合させた後の3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させる(パーツ整合ステップS8)。本実施形態では、パーツ整合部38が、進化的アルゴリズムに基づくAI技術等を用いて、図12に示すように、基準パーツ整合部36により位置および方向が整合された骨盤に連結されている大腿を、それらを連結する股関節における自由度3の条件下で屈曲させて、前記大腿の位置および方向を整合させる。ここで大腿は、股関節の自由度の条件下で屈曲されるため、実際の関節の動きでは取り得ない姿勢になることはない。 Then, for each identified part of the two-dimensional object, the position and direction of parts other than the reference part in the three-dimensional object model after matching the reference part are matched according to the degree of freedom of the joint (parts). Matching step S8). In the present embodiment, the part aligning unit 38 is connected to the pelvis whose position and direction are aligned by the reference part aligning unit 36, as shown in FIG. 12, using AI technology or the like based on an evolutionary algorithm. Are bent under conditions of 3 degrees of freedom at the hip joint connecting them to align the position and orientation of the thighs. Here, since the thigh is bent under the condition of the degree of freedom of the hip joint, it does not assume a posture that cannot be taken by actual joint movement.

 そして、パーツ整合部38が、全てのパーツの整合処理が終了したか否かを判別する(パーツ整合終了判別ステップS9)。ここで、全てのパーツの整合処理が終了していない場合は(S9:NO)、ジョイント位置整合ステップS6に戻って、全てのパーツの整合処理が終了するまで各処理を繰り返す。そして、全てのパーツの整合処理が終了した場合は(S9:YES)、1つのフレーム画像に対する整合処理が終了する。これにより、図13に示すように、取得したフレーム画像の2次元オブジェクトに対する3次元オブジェクトモデルの姿勢が決定する。 Then, the parts matching unit 38 determines whether or not all parts matching processing has been completed (parts matching end determination step S9). Here, when the alignment process for all parts is not completed (S9: NO), the process returns to the joint position alignment step S6, and the processes are repeated until the alignment process for all parts is completed. When the alignment process for all parts is completed (S9: YES), the alignment process for one frame image is completed. Thereby, as shown in FIG. 13, the attitude | position of the three-dimensional object model with respect to the two-dimensional object of the acquired frame image is determined.

 つぎに、フレーム画像取得部31が、全てのフレーム画像の整合処理が終了したか否かを判別する(全フレーム整合終了判別ステップS10)。ここで、全てのフレーム画像の整合処理が終了していない場合は(S10:NO)、フレーム画像取得ステップS1に戻って、全てのフレーム画像の整合が終了するまで処理を繰り返す。そして、全てのフレーム画像の整合処理が終了した場合は(S10:YES)、当該2次元動画に対する整合処理を終了する。 Next, the frame image acquisition unit 31 determines whether or not the alignment process for all the frame images has been completed (all frame alignment end determination step S10). Here, when the matching process of all the frame images is not completed (S10: NO), the process returns to the frame image acquisition step S1, and the process is repeated until the matching of all the frame images is completed. If all the frame images have been matched (S10: YES), the matching process for the two-dimensional moving image is finished.

 2次元動画に対する全てのフレーム画像の整合処理が終了すると、3次元動画作成部39が、各フレーム画像ごとに整合された3次元オブジェクトモデルを時系列に並べることにより表示可能な3次元動画を作成し、3次元動画記憶部24に記憶する(3次元動画作成ステップS11)。例えば、3次元動画の視点をスキー選手の背後から見た状態に設定すれば、図14に示すように、ニュートラル姿勢から左ターンを行い再びニュートラル姿勢から右ターンを行う一連の動作を真後ろから追いかけるような動画として見ることができる。よって、模範的な動作を行う選手の背面から見た3次元動画を作成できれば、そのターン姿勢を参考にしつつ自らの姿勢の良否をチェックすることも可能になり、有用なトレーニングの一つとなり得る。 When the matching processing of all the frame images with respect to the 2D video is completed, the 3D video creation unit 39 creates a 3D video that can be displayed by arranging the 3D object models matched for each frame image in time series. And it memorize | stores in the three-dimensional moving image memory | storage part 24 (three-dimensional moving image creation step S11). For example, if the viewpoint of the three-dimensional video is set as seen from the back of the ski player, as shown in FIG. 14, a series of actions of making a left turn from the neutral posture and then making a right turn from the neutral posture is followed from behind. Can be viewed as a video. Therefore, if you can create a 3D video viewed from the back of a player who performs exemplary actions, it will be possible to check the quality of one's posture while referring to the turn posture, which can be one of useful training .

 最後に、3次元動画作成部39が、3次元オブジェクトモデルにおける所定のジョイントの角度について、フレーム画像の順と同じ時系列で取得し、3次元動画記憶部24に記憶する(ジョイント角度取得ステップS12)。例えば、3次元オブジェクトモデルの股関節や膝関節の角度についての時系列データを取得する。これにより選手の全体的な姿勢のみならず、大腿および下腿からなる下肢部分の屈伸にかかる角度変化量や仕事量等を算出することができる。よって、模範的な動作を行う選手の所定のジョイントの角度についての時系列データを取得できれば、当該ジョイントの屈伸に必要とされるスキルの分析が可能となり、当該分析に基づき計画された筋力トレーニングや持久力トレーニング等を実施することで、選手のスキルを効率的にアップさせることができる。 Finally, the three-dimensional video creation unit 39 acquires the predetermined joint angles in the three-dimensional object model in the same time series as the order of the frame images, and stores them in the three-dimensional video storage unit 24 (joint angle acquisition step S12). ). For example, time-series data regarding the hip joint and knee joint angles of the three-dimensional object model is acquired. This makes it possible to calculate not only the overall posture of the player, but also the amount of change in angle, the amount of work, etc., required for bending and stretching the lower limbs composed of the thighs and lower legs. Therefore, if time series data about the angle of a predetermined joint of a player who performs an exemplary motion can be acquired, it becomes possible to analyze the skill required for bending and stretching the joint, and strength training planned based on the analysis By carrying out endurance training, etc., it is possible to efficiently improve the skills of the players.

 以上のような本実施形態によれば、以下の効果を奏することができる。
1.オブジェクトの動作を撮影した2次元動画を構成する各フレーム画像に対して3次元オブジェクトモデルを重ね合わせることにより、前記オブジェクトの姿勢を特定することができ、これに基づいて前記オブジェクトに関する3次元動画を作成することができる。
2.フレーム画像内の2次元オブジェクトに対して3次元オブジェクトモデルを整合させる際に、各ジョイントがオブジェクトに応じた適切な自由度に設定されているため、3次元オブジェクトモデルが当該オブジェクトにとって実際にはあり得ない姿勢になるのを防ぐことができる。
3.オブジェクトの動作に関する基本姿勢として設定された各種の3次元オブジェクトモデルを備えることにより、フレーム画像内の2次元オブジェクトに対して3次元オブジェクトモデルを整合させる時間を短縮することができる。
4.3次元オブジェクトモデルを整合させる際に使用する基準パーツについて、パーツの特徴やオブジェクトの動作の特徴に合わせて適宜設定することにより、整合時間を短縮し、整合精度も向上させることができる。
According to the present embodiment as described above, the following effects can be obtained.
1. By superimposing a three-dimensional object model on each frame image constituting a two-dimensional moving image in which the motion of the object is photographed, the posture of the object can be specified, and based on this, a three-dimensional moving image related to the object can be specified. Can be created.
2. When aligning a 3D object model to a 2D object in a frame image, each joint is set to an appropriate degree of freedom depending on the object, so there is actually a 3D object model for that object. It is possible to prevent a posture that cannot be obtained.
3. By providing various three-dimensional object models set as basic postures related to the motion of the object, it is possible to shorten the time for matching the three-dimensional object model with the two-dimensional object in the frame image.
4. By appropriately setting the reference parts used when aligning the three-dimensional object model according to the characteristics of the parts and the characteristics of the operation of the object, the alignment time can be shortened and the alignment accuracy can be improved.

 なお、本発明に係るモーションキャプチャプログラム、モーションキャプチャ装置およびモーションキャプチャ方法は、前述した実施形態に限定されるものではなく、適宜変更することができる。例えば、本実施形態では、スポーツ分野のスキー競技を対象としているが、本発明の対象はスポーツ分野に限られるものではなく、医療分野およびエンターテイメント分野等を対象としてもよい。 Note that the motion capture program, the motion capture device, and the motion capture method according to the present invention are not limited to the above-described embodiments, and can be changed as appropriate. For example, in the present embodiment, a ski competition in the sports field is targeted, but the object of the present invention is not limited to the sports field, and may be targeted in the medical field, the entertainment field, and the like.

 1 モーションキャプチャ装置
 1a モーションキャプチャプログラム
 2 記憶手段
 3 演算処理手段
 21 プログラム記憶部
 22 2次元動画記憶部
 23 3次元オブジェクトモデル記憶部
 24 3次元動画記憶部
 31 フレーム画像取得部
 32 2次元パーツ特定部
 33 2次元ジョイント位置特定部
 34 モデル取得部
 35 縮尺決定部
 36 基準パーツ整合部
 37 ジョイント位置整合部
 38 パーツ整合部
 39 3次元動画作成部
DESCRIPTION OF SYMBOLS 1 Motion capture apparatus 1a Motion capture program 2 Memory | storage means 3 Operation processing means 21 Program memory | storage part 22 2D moving image memory | storage part 23 3D object model memory | storage part 24 3D moving image memory | storage part 31 Frame image acquisition part 32 2D part specification part 33 2D joint position specifying unit 34 Model acquisition unit 35 Scale determining unit 36 Reference parts alignment unit 37 Joint position alignment unit 38 Parts alignment unit 39 3D animation generation unit

Claims (8)

 オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャプログラムであって、
 前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得部と、
 前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定部と、
 前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定部と、
 前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定部と、
 前記2次元パーツ特定部により特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合部と、
 前記2次元ジョイント位置特定部により特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部と、
 前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合部
 としてコンピュータを機能させる、前記モーションキャプチャプログラム。
A motion capture program for creating a three-dimensional moving image related to an object using a three-dimensional object model composed of a plurality of parts constituting the object and a joint connecting the parts based on a two-dimensional moving image obtained by photographing the movement of the object. There,
A frame image acquisition unit that acquires a predetermined frame image among a plurality of frame images constituting the two-dimensional moving image;
A two-dimensional part specifying unit for specifying a part corresponding to each part constituting the three-dimensional object model for the two-dimensional object in the frame image;
A two-dimensional joint position specifying unit for specifying the position of the joint of the two-dimensional object;
A scale determining unit that determines the scale of the three-dimensional object model according to the size of the two-dimensional object;
A reference part matching unit that superimposes a reference part of the three-dimensional object model on the predetermined part of the two-dimensional object specified by the two-dimensional part specifying unit and aligns the position and direction of the reference part;
A joint position matching unit for matching the position of the joint in the three-dimensional object model after matching the reference part with the joint of the two-dimensional object specified by the two-dimensional joint position specifying unit;
For each part other than the part corresponding to the reference part in the two-dimensional object, the position and direction of the part other than the reference part in the three-dimensional object model after aligning the reference part is the degree of freedom of the joint. The motion capture program for causing a computer to function as a part aligning unit that performs matching according to the above.
 前記オブジェクトの動作に関する基本姿勢として設定された複数の3次元オブジェクトモデルが記憶されている3次元オブジェクトモデル記憶部から前記フレーム画像内の前記2次元オブジェクトに整合させる3次元オブジェクトモデルを取得するモデル取得部としてコンピュータを機能させる、請求項1に記載のモーションキャプチャプログラム。 Model acquisition for acquiring a three-dimensional object model to be matched with the two-dimensional object in the frame image from a three-dimensional object model storage unit in which a plurality of three-dimensional object models set as basic postures related to the motion of the object are stored The motion capture program according to claim 1, which causes a computer to function as a unit.  前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの骨盤を前記基準パーツとして設定されている、請求項1または請求項2に記載のモーションキャプチャプログラム。 3. The motion capture program according to claim 1, wherein, when the object is a person or an animal, the pelvis of the three-dimensional object model is set as the reference part in the reference part matching unit.  前記オブジェクトが人物または動物の場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの頭部を前記基準パーツとして設定されている、請求項1または請求項2に記載のモーションキャプチャプログラム。 3. The motion capture program according to claim 1, wherein when the object is a person or an animal, the reference part matching unit sets a head of the three-dimensional object model as the reference part.  前記オブジェクトが用具を装着している場合、前記基準パーツ整合部では、前記3次元オブジェクトモデルの前記用具を基準パーツとして設定されている、請求項1または請求項2に記載のモーションキャプチャプログラム。 3. The motion capture program according to claim 1, wherein when the object is equipped with a tool, the reference part matching unit sets the tool of the three-dimensional object model as a reference part.  前記オブジェクトが用具を装着している場合、前記縮尺決定部では、前記用具の大きさに合わせて縮尺を決定する、請求項1から請求項5のいずれかに記載のモーションキャプチャプログラム。 The motion capture program according to any one of claims 1 to 5, wherein when the object is equipped with a tool, the scale determining unit determines the scale according to the size of the tool.  オブジェクトの動作を撮影した2次元動画に基づいて、前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ方法であって、
 前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得ステップと、
 前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定ステップと、
 前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定ステップと、
 前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定ステップと、
 前記2次元パーツ特定ステップにより特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合ステップと、
 前記2次元ジョイント位置特定ステップにより特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合ステップと、
 前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合ステップと
 を有する、前記モーションキャプチャ方法
A motion capture method for creating a three-dimensional video concerning the object using a three-dimensional object model comprising a plurality of parts constituting the object and a joint connecting the parts based on a two-dimensional video obtained by photographing the motion of the object Because
A frame image acquisition step of acquiring a predetermined frame image among a plurality of frame images constituting the two-dimensional moving image;
A two-dimensional part specifying step for specifying a part corresponding to each part constituting the three-dimensional object model for the two-dimensional object in the frame image;
A two-dimensional joint position specifying step of specifying a joint position of the two-dimensional object;
A scale determining step for determining a scale of the three-dimensional object model in accordance with the size of the two-dimensional object;
A reference part alignment step of aligning a reference part of the three-dimensional object model with a predetermined part of the two-dimensional object specified by the two-dimensional part specification step and aligning the position and direction of the reference part;
A joint position matching step of matching the position of the joint in the three-dimensional object model after matching the reference part with the joint of the two-dimensional object specified by the two-dimensional joint position specifying step;
For each part other than the part corresponding to the reference part in the two-dimensional object, the position and direction of the part other than the reference part in the three-dimensional object model after aligning the reference part is the degree of freedom of the joint. And a part aligning step for aligning according to
 オブジェクトの動作を撮影した2次元動画に基づいて前記オブジェクトを構成する複数のパーツおよび各パーツ同士を連結するジョイントからなる3次元オブジェクトモデルを使って前記オブジェクトに関する3次元動画を作成するモーションキャプチャ装置であって、
 前記2次元動画を構成する複数のフレーム画像のうち所定のフレーム画像を取得するフレーム画像取得部と、
 前記フレーム画像内の2次元オブジェクトに対して、前記3次元オブジェクトモデルを構成する各パーツに対応するパーツを特定する2次元パーツ特定部と、
 前記2次元オブジェクトのジョイントの位置を特定する2次元ジョイント位置特定部と、
 前記2次元オブジェクトの大きさに合わせて前記3次元オブジェクトモデルの縮尺を決定する縮尺決定部と、
 前記2次元パーツ特定部により特定された前記2次元オブジェクトの所定のパーツに対して、前記3次元オブジェクトモデルの基準パーツを重ね合わせて当該基準パーツの位置および方向を整合させる基準パーツ整合部と、
 前記2次元ジョイント位置特定部により特定された前記2次元オブジェクトのジョイントに対して、前記基準パーツを整合させた後の3次元オブジェクトモデルにおけるジョイントの位置を整合させるジョイント位置整合部と、
 前記2次元オブジェクトにおける前記基準パーツに対応するパーツ以外の各パーツに対して、前記基準パーツを整合させた後の前記3次元オブジェクトモデルにおける基準パーツ以外のパーツの位置および方向を前記ジョイントの自由度に応じて整合させるパーツ整合部と
 を有する、前記モーションキャプチャ装置。
A motion capture device that creates a three-dimensional moving image related to an object using a three-dimensional object model composed of a plurality of parts constituting the object and a joint connecting the parts based on a two-dimensional moving image obtained by photographing the movement of the object. There,
A frame image acquisition unit that acquires a predetermined frame image among a plurality of frame images constituting the two-dimensional moving image;
A two-dimensional part specifying unit for specifying a part corresponding to each part constituting the three-dimensional object model for the two-dimensional object in the frame image;
A two-dimensional joint position specifying unit for specifying the position of the joint of the two-dimensional object;
A scale determining unit that determines the scale of the three-dimensional object model according to the size of the two-dimensional object;
A reference part matching unit that superimposes a reference part of the three-dimensional object model on the predetermined part of the two-dimensional object specified by the two-dimensional part specifying unit and aligns the position and direction of the reference part;
A joint position matching unit for matching the position of the joint in the three-dimensional object model after matching the reference part with the joint of the two-dimensional object specified by the two-dimensional joint position specifying unit;
For each part other than the part corresponding to the reference part in the two-dimensional object, the position and direction of the part other than the reference part in the three-dimensional object model after aligning the reference part is the degree of freedom of the joint. The motion capture device comprising: a part aligning unit that aligns according to
PCT/JP2017/040810 2017-05-12 2017-11-13 Program, device and method relating to motion capture Ceased WO2018207388A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019516884A JPWO2018207388A1 (en) 2017-05-12 2017-11-13 Program, apparatus and method for motion capture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-095520 2017-05-12
JP2017095520 2017-05-12

Publications (1)

Publication Number Publication Date
WO2018207388A1 true WO2018207388A1 (en) 2018-11-15

Family

ID=64105172

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040810 Ceased WO2018207388A1 (en) 2017-05-12 2017-11-13 Program, device and method relating to motion capture

Country Status (2)

Country Link
JP (1) JPWO2018207388A1 (en)
WO (1) WO2018207388A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501732A (en) * 2019-01-18 2022-01-06 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. Image processing methods and devices, image devices and storage media
US11468612B2 (en) 2019-01-18 2022-10-11 Beijing Sensetime Technology Development Co., Ltd. Controlling display of a model based on captured images and determined information
KR20240013950A (en) * 2022-07-21 2024-01-31 상명대학교산학협력단 Apparatus and method for automatically measuring the number of arm strokes in speed skating based on the human joint positon extrction
WO2025138534A1 (en) * 2023-12-27 2025-07-03 王铁军 Power generation device and method, and communication system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150977A (en) * 2001-11-15 2003-05-23 Japan Science & Technology Corp 3D human moving image generation system
JP2015102913A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Attitude estimation apparatus and attitude estimation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150977A (en) * 2001-11-15 2003-05-23 Japan Science & Technology Corp 3D human moving image generation system
JP2015102913A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Attitude estimation apparatus and attitude estimation method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501732A (en) * 2019-01-18 2022-01-06 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. Image processing methods and devices, image devices and storage media
US11468612B2 (en) 2019-01-18 2022-10-11 Beijing Sensetime Technology Development Co., Ltd. Controlling display of a model based on captured images and determined information
US11538207B2 (en) 2019-01-18 2022-12-27 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, image device, and storage medium
US11741629B2 (en) 2019-01-18 2023-08-29 Beijing Sensetime Technology Development Co., Ltd. Controlling display of model derived from captured image
KR20240013950A (en) * 2022-07-21 2024-01-31 상명대학교산학협력단 Apparatus and method for automatically measuring the number of arm strokes in speed skating based on the human joint positon extrction
KR102745446B1 (en) * 2022-07-21 2024-12-23 상명대학교산학협력단 Apparatus and method for automatically measuring the number of arm strokes in speed skating based on the human joint positon extrction
WO2025138534A1 (en) * 2023-12-27 2025-07-03 王铁军 Power generation device and method, and communication system

Also Published As

Publication number Publication date
JPWO2018207388A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
Colyer et al. A review of the evolution of vision-based motion analysis and the integration of advanced computer vision methods towards developing a markerless system
US8175326B2 (en) Automated scoring system for athletics
US8565476B2 (en) Visual target tracking
US9842405B2 (en) Visual target tracking
US8577084B2 (en) Visual target tracking
US12067660B2 (en) Personalized avatar for movement analysis and coaching
US7974443B2 (en) Visual target tracking using model fitting and exemplar
US8682028B2 (en) Visual target tracking
US8577085B2 (en) Visual target tracking
US8565477B2 (en) Visual target tracking
WO2019049216A1 (en) Grading method, grading program and grading device
CN108537284A (en) Pose assessment scoring method and system based on computer vision deep learning algorithm
JP6369811B2 (en) Gait analysis system and gait analysis program
JP7008342B2 (en) Exercise evaluation system
JP6943294B2 (en) Technique recognition program, technique recognition method and technique recognition system
WO2018207388A1 (en) Program, device and method relating to motion capture
JP6796197B2 (en) Information processing equipment, information processing methods and programs
Kaichi et al. Estimation of center of mass for sports scene using weighted visual hull
CN113902845A (en) Motion video generation method and device, electronic equipment and readable storage medium
JP2020099541A (en) Golf swing evaluation system and golf swing evaluation method
JP6993866B2 (en) Golf swing evaluation system and golf swing evaluation method
JP7017921B2 (en) Golf swing evaluation system and golf swing evaluation method
KR102342760B1 (en) The golf image learning apparatus based on the artificial intelligence, and the method thereof and recording medium
CN115861381A (en) Method and system for detecting standardization of diving save action in coordinated ball movement
JP7442258B2 (en) Evaluation method and evaluation system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17909318

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019516884

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17909318

Country of ref document: EP

Kind code of ref document: A1