[go: up one dir, main page]

JP2013169013A - Image processor, control method, and program - Google Patents

Image processor, control method, and program Download PDF

Info

Publication number
JP2013169013A
JP2013169013A JP2013108880A JP2013108880A JP2013169013A JP 2013169013 A JP2013169013 A JP 2013169013A JP 2013108880 A JP2013108880 A JP 2013108880A JP 2013108880 A JP2013108880 A JP 2013108880A JP 2013169013 A JP2013169013 A JP 2013169013A
Authority
JP
Japan
Prior art keywords
image
still image
still
swing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013108880A
Other languages
Japanese (ja)
Other versions
JP5790710B2 (en
Inventor
Takao Sato
隆雄 佐藤
Keiichi Tanioka
恵一 谷岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013108880A priority Critical patent/JP5790710B2/en
Publication of JP2013169013A publication Critical patent/JP2013169013A/en
Application granted granted Critical
Publication of JP5790710B2 publication Critical patent/JP5790710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】複数のカメラによりそれぞれ異なる角度から撮像された画像を良好に同期させる。
【解決手段】画像処理装置10は、画像フレームを選択するための入力装置15と、被写体H及びゴルフボールを複数の撮影方向から互いに非同期で撮影して得られた複数グループの非同期画像を前記各複数グループ単位の静止画像像に変換し、「正面静止画像」と画像送りゲージ30とからなるスイング対象抽出画面を表示装置16に表示させ、スイング対象抽出画面に基づいて入力装置15を介して選択された「正面静止画像」の「インパクト瞬間」と、「後方静止画像」、「ボール静止画像」と画像送りゲージ40、50とからなるスイング画像同期画面を表示手段に表示させ、「正面静止画像」のインパクト瞬間とスイング画像同期画面で選択された「後方静止画像」、「ボール静止画像」とを同期した静止画像として対応付けるCPU11と、を備える。
【選択図】図12
An image captured by a plurality of cameras from different angles is well synchronized.
An image processing apparatus includes: an input device for selecting an image frame; and a plurality of groups of asynchronous images obtained by shooting a subject and a golf ball asynchronously from each other in a plurality of shooting directions. The image is converted into a plurality of groups of still images, and a swing target extraction screen composed of the “front still image” and the image feed gauge 30 is displayed on the display device 16 and selected via the input device 15 based on the swing target extraction screen. The swing image synchronization screen composed of “impact moment” of the “front still image”, “rear still image”, “ball still image” and image feed gauges 40 and 50 is displayed on the display means, and “front still image” is displayed. ”And the“ backward still image ”and“ ball still image ”selected on the swing image synchronization screen are associated as synchronized still images. Includes a U11, the.
[Selection] Figure 12

Description

本発明は、画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program.

ゴルフボールを打つためにゴルフクラブを振る動作(以下、ゴルフスイングと記載する)を行うヒトを静止画像又は動画等の画像として撮像してゴルフスイング中の姿勢やゴルフクラブのヘッドの位置等を確認可能とするゴルフスイングの解析システムが知られている。従来のゴルフスイングの解析システムとして、例えば動画上において動作する複数のポイントを数値化して所定の数値データと比較することでゴルフスイングを分析する構成(例えば特許文献1)、マイクを設けてゴルフクラブのヘッドがゴルフボールを打つ瞬間(インパクト瞬間)に生ずる音をマイクが取得したタイミングをインパクト瞬間と判断してゴルフスイングの分析を行う構成(例えば特許文献2)、ゴルフスイングの画像と分析結果を一画面上で対比して表示する構成(例えば特許文献3)等がある。これらのゴルフスイングの解析システムの中には、複数のカメラを用いてそれぞれ異なる角度からゴルフスイングを行うヒト(被写体)を撮像するものもある。   A person performing a motion of swinging a golf club to hit a golf ball (hereinafter referred to as a golf swing) is captured as an image such as a still image or a moving image, and the posture during the golf swing, the position of the golf club head, and the like are confirmed. A golf swing analysis system that enables this is known. As a conventional golf swing analysis system, for example, a configuration in which a golf swing is analyzed by digitizing a plurality of points operating on a moving image and comparing them with predetermined numerical data (for example, Patent Document 1), and a golf club provided with a microphone The configuration in which the golf swing is analyzed by judging the timing at which the microphone acquires the sound generated at the moment when the head hits the golf ball (impact moment) as the impact moment (for example, Patent Document 2), and the golf swing image and the analysis result There is a configuration (for example, Patent Document 3) that displays in contrast on one screen. Some of these golf swing analysis systems image a person (subject) performing a golf swing from different angles using a plurality of cameras.

特許第2794018号公報Japanese Patent No. 2794018 特開2006−263169号公報JP 2006-263169 A 特許2003−088604号公報Japanese Patent No. 2003-088604

ところで、複数のカメラを用いて被写体を撮像するゴルフスイングの解析システムにおいては、それぞれのカメラにより撮像された画像を同期させたいという需要がある。なぜなら、同一のタイミングにおける複数の異なる視点からの画像を確認することで、ゴルフスイング中の被写体の姿勢等をより正確に把握することができるからである。また、ゴルフスイング中の被写体に加えて、ゴルフボールを載置するピン付近を拡大撮像することでインパクト瞬間におけるゴルフボールとゴルフクラブのヘッドの位置関係を把握する機能も有するゴルフスイングの解析システムもあるが、このようなシステムではインパクト瞬間の被写体の姿勢を撮影した画像と、インパクト瞬間におけるゴルフボールとゴルフクラブのヘッドの位置関係を拡大撮影した画像とを同期させたいという需要がある。ゴルフスイング中の被写体の姿勢とゴルフボールとゴルフクラブのヘッドの位置関係とを連動させることで、より正確にゴルフスイングの状態を把握できるからである。   By the way, in a golf swing analysis system that images a subject using a plurality of cameras, there is a demand for synchronizing images captured by the respective cameras. This is because by confirming images from a plurality of different viewpoints at the same timing, the posture of the subject during the golf swing can be grasped more accurately. There is also a golf swing analysis system that has the function of grasping the positional relationship between the golf ball and the golf club head at the moment of impact by enlarging the vicinity of the pin on which the golf ball is placed in addition to the subject during the golf swing. However, in such a system, there is a demand for synchronizing an image obtained by photographing the posture of a subject at the moment of impact with an image obtained by enlarging the positional relationship between the golf ball and the head of the golf club at the moment of impact. This is because the state of the golf swing can be grasped more accurately by linking the posture of the subject during the golf swing and the positional relationship between the golf ball and the head of the golf club.

しかしながら、従来のゴルフスイングの解析システムでは、複数のカメラにより撮像された複数の画像を同期させる場合、複雑な構成を要するため、容易に導入できるものではなかった。
例えば、音によりインパクト瞬間を取得して画像を同期させる場合、各カメラがマイクを備える必要が生じる上、画像と音声とを時系列に沿って同期させながら継続して記録しなければならないため、高度な性能を有するカメラ及び記録装置が必要となり、コスト高となる。加えて、カメラの位置関係によってはインパクト瞬間に伴う音の到達タイミングがずれ、同期が不完全となる場合がある。
一方、各カメラが撮像した画像を専用のアルゴリズムで解析し、その解析結果に基づき複数のカメラの画像を同期させる方法があるが、このようなシステムの場合、解析を行うための画像中のポイント等があらかじめ定められている都合上、各カメラのアングルはほぼ固定されるため自由度が低い。加えて、被写体の身長やゴルフスイングのモーション、その他の条件によっては解析結果に基づく同期が不正確となる可能性があり、信頼性に欠ける。さらに、専用のアルゴリズムによる処理を行うためのソフトウェア開発によりシステムが高コストとなる。
However, in the conventional golf swing analysis system, in order to synchronize a plurality of images captured by a plurality of cameras, a complicated configuration is required, so that it cannot be easily introduced.
For example, when acquiring the impact moment by sound and synchronizing the image, each camera needs to be equipped with a microphone, and since it is necessary to continuously record the image and sound in time series, A high-performance camera and recording apparatus are required, resulting in high costs. In addition, depending on the positional relationship of the cameras, the arrival timing of the sound accompanying the impact moment may be shifted and synchronization may be incomplete.
On the other hand, there is a method to analyze images taken by each camera with a dedicated algorithm and synchronize the images of multiple cameras based on the analysis results. In such a system, the point in the image for analysis is Since the angle of each camera is almost fixed, the degree of freedom is low. In addition, depending on the height of the subject, the motion of the golf swing, and other conditions, synchronization based on the analysis result may be inaccurate, and reliability is lacking. In addition, the development of software for processing with a dedicated algorithm increases the cost of the system.

複数の画像を同期させるシステムにおける従来技術の問題点は、ゴルフスイングの解析システムに限らず、動体の移動軌跡を複数のカメラによりそれぞれ異なる角度から撮像する構成において生ずる普遍的な問題である。   A problem of the prior art in a system that synchronizes a plurality of images is not limited to a golf swing analysis system, but is a universal problem that occurs in a configuration in which a moving locus of a moving object is imaged from different angles by a plurality of cameras.

本発明の課題は、複数のカメラによりそれぞれ異なる角度から撮像された画像を良好に同期させることである。   An object of the present invention is to satisfactorily synchronize images taken from different angles by a plurality of cameras.

上記課題を解決するため、請求項1記載の発明による画像処理装置は、画像フレームを選択するための操作入力手段と、
撮影対象を複数の撮影方向から撮影して得られた複数グループの非同期動画像から前記各複数グループ単位の静止画像を得て、少なくとも一の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第1操作画面を表示手段に表示させ、前記第1操作画面に基づいて前記操作入力手段を介して選択された基準動作シーンと当該基準動作シーンに対応する他の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第2操作画面を表示手段に表示させ、前記基準動作シーンと前記第2操作画面で選択された一の静止画像とを同期した静止画像として対応付ける制御手段と、を備えることを特徴とする。
In order to solve the above-described problem, an image processing apparatus according to the invention described in claim 1 includes operation input means for selecting an image frame,
Obtaining a still image of each of the plurality of groups from a plurality of groups of asynchronous moving images obtained by photographing a subject to be photographed from a plurality of photographing directions; and at least one still image operation scene and an adjustment frame for image frame feeding; A first operation screen comprising: a reference operation scene displayed on the display means, and a reference operation scene selected via the operation input means based on the first operation screen; and an operation scene of another still image corresponding to the reference operation scene; A control means for displaying on the display means a second operation screen comprising an adjustment gauge for image frame feeding, and associating the reference motion scene and the one still image selected on the second operation screen as a synchronized still image; It is characterized by providing.

請求項2記載の発明は、請求項1に記載の画像処理装置において、前記制御手段は、前記同期した静止画像に基づいて複数グループの画像を同期させて再生することを特徴とする。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the control unit reproduces a plurality of groups of images in synchronization based on the synchronized still images.

請求項3記載の発明は、請求項1又は2に記載の画像処理装置において、前記第1操作画面は、複数の動作シーンについてそれぞれ一の静止画像を選択可能であり、
前記基準動作シーンは、前記第1操作画面で選択された複数の静止画像のいずれか一であることを特徴とする。
The invention according to claim 3 is the image processing apparatus according to claim 1 or 2, wherein the first operation screen can select one still image for each of a plurality of operation scenes,
The reference motion scene is any one of a plurality of still images selected on the first operation screen.

請求項4記載の発明は、請求項3に記載の画像処理装置において、前記第1操作画面で選択された複数の静止画像のうち最も過去の動作シーンを撮像した静止画像から最近の動作シーンを撮像した静止画像までの複数の静止画像を抽出する抽出手段を備えることを特徴とする。   According to a fourth aspect of the present invention, in the image processing device according to the third aspect, the latest motion scene is obtained from a still image obtained by capturing the most recent motion scene among the plurality of still images selected on the first operation screen. An extraction means for extracting a plurality of still images up to the captured still image is provided.

請求項5記載の発明は、請求項4に記載の画像処理装置において、各グループの静止画像は、撮像の時系列に従って連続した番号を付され、前記制御手段は、前記第2操作画面で選択された一の静止画像の番号、前記基準動作シーンの静止画像の番号ならびに前記第1操作画面で選択された複数静止画像のうち最も過去の動作シーンを撮像した静止画像の番号及び最近の動作シーンを撮像した静止画像の番号に基づき、前記第2操作画面で選択された静止画像と同グループの静止画像のうち、前記抽出手段によって抽出された複数の静止画像と同一の動作シーンを撮像した複数の静止画像を抽出することを特徴とする。   According to a fifth aspect of the present invention, in the image processing device according to the fourth aspect, the still images of each group are assigned consecutive numbers according to the time series of imaging, and the control means is selected on the second operation screen. The number of the one still image, the number of the still image of the reference operation scene, the number of the still image obtained by capturing the most recent operation scene among the plurality of still images selected on the first operation screen, and the latest operation scene A plurality of images of the same operation scene as the plurality of still images extracted by the extraction unit among the still images selected in the second operation screen and the same group as the still images selected on the second operation screen. The still image is extracted.

請求項6記載の発明によるプログラムは、コンピュータを、
画像フレームを選択するための操作入力手段と、撮影対象を複数の撮影方向から撮影して得られた複数グループの非同期動画像から前記各複数グループ単位の静止画像を得て、少なくとも一の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第1操作画面を表示手段に表示させ、前記第1操作画面に基づいて前記操作入力手段を介して選択された基準動作シーンと当該基準動作シーンに対応する他の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第2操作画面を表示手段に表示させ、前記基準動作シーンと前記第2操作画面で選択された一の静止画像とを同期した静止画像として対応付ける制御手段、として機能させることを特徴とする。
The program according to the invention described in claim 6 is a computer,
At least one still image is obtained by obtaining an operation input means for selecting an image frame and a plurality of groups of asynchronous moving images obtained by photographing a subject to be photographed from a plurality of photographing directions. A first operation screen composed of an operation scene and an adjustment gauge for image frame sending is displayed on the display means, and a reference operation scene selected via the operation input means based on the first operation screen and the reference operation A second operation screen including an operation scene of another still image corresponding to the scene and an adjustment gauge for image frame feeding is displayed on the display means, and one still image selected on the reference operation scene and the second operation screen is displayed. It is characterized by functioning as control means for associating an image with a synchronized still image.

本発明によれば、複数のカメラによりそれぞれ異なる角度から撮像された画像を良好に同期させることができる。   According to the present invention, it is possible to satisfactorily synchronize images taken from different angles by a plurality of cameras.

本発明の一実施形態である画像処理装置を用いたゴルフスイング解析システムを示す図である。It is a figure which shows the golf swing analysis system using the image processing apparatus which is one Embodiment of this invention. 画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. 画像処理装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of an image processing apparatus. 同期動画作成により作成された動画ファイルの再生画面D1の一例を示す。An example of the reproduction screen D1 of the moving image file created by the synchronous moving image creation is shown. 記憶装置の記憶内容を示すブロック図である。It is a block diagram which shows the memory content of a memory | storage device. 基準位置情報テーブルの一例を示す図であり。図6(a)は初期化された基準位置情報テーブルの一例を示す図であり、図6(b)はスイング対象抽出後の基準位置情報テーブルの一例を示す図であり、図6(c)はスイング画像同期後の基準位置情報テーブルの一例を示す図である。It is a figure which shows an example of a reference | standard position information table. FIG. 6A is a diagram illustrating an example of the initialized reference position information table, and FIG. 6B is a diagram illustrating an example of the reference position information table after extraction of the swing target, and FIG. FIG. 5 is a diagram showing an example of a reference position information table after swing image synchronization. 第1の座標データ及び第2の座標データの一例を示す図である。図7(a)は第1の座標データの一例を示す図であり、図7(b)は第2の座標データの一例を示す図である。It is a figure which shows an example of 1st coordinate data and 2nd coordinate data. FIG. 7A is a diagram illustrating an example of the first coordinate data, and FIG. 7B is a diagram illustrating an example of the second coordinate data. 「正面静止画像」におけるゴルフクラブのヘッド及びゴルフボールの移動軌跡を描画した画面の一例を示す図である。It is a figure which shows an example of the screen which drawn the movement locus | trajectory of the golf club head and the golf ball in the “front still image”. 「後方静止画像」におけるゴルフクラブのヘッド及びゴルフボールの移動軌跡を描画した画面の一例を示す図である。It is a figure which shows an example of the screen which drew the movement locus | trajectory of the golf club head and the golf ball in the “rear still image”. 「ボール静止画像」におけるゴルフクラブのヘッド及びゴルフボールの移動軌跡を描画した画面の一例を示す図である。It is a figure which shows an example of the screen which drew the movement locus | trajectory of the golf club head and the golf ball in the “ball still image”. スイング対象抽出画面の表示内容及びその遷移の一例を示す図である。図11(a)は初期表示内容を示す図であり、図11(b)は「テークバック開始」の静止画像選択時を示す図であり、図11(c)は「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像選択後を示す図である。It is a figure which shows an example of the display content of a swing object extraction screen, and its transition. FIG. 11A is a diagram showing the initial display contents, FIG. 11B is a diagram showing the selection of the “takeback start” still image, and FIG. 11C is the “takeback start” and “down”. It is a figure which shows after still image selection of "start", "impact moment", and "follow-through end". スイング画像同期画面の一例を示す図である。It is a figure which shows an example of a swing image synchronous screen. スイング対象抽出の処理内容のうち、ステップS21からステップS31までの処理内容を示すフローチャートである。It is a flowchart which shows the processing content from step S21 to step S31 among the processing content of swing object extraction. スイング対象抽出の処理内容のうち、ステップS32からステップS44までの処理内容を示すフローチャートである。It is a flowchart which shows the processing content from step S32 to step S44 among the processing content of swing object extraction. スイング画像同期の処理内容のうち、ステップS51からステップS60までの処理内容を示すフローチャートである。It is a flowchart which shows the processing content from step S51 to step S60 among the processing content of swing image synchronization. スイング画像同期の処理内容のうち、ステップS61からステップS73までの処理内容を示すフローチャートである。It is a flowchart which shows the processing content from step S61 to step S73 among the processing content of swing image synchronization.

以下、図を参照して本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に、本発明の一実施形態である画像処理装置を用いたゴルフスイング解析システム1を示す。ゴルフスイング解析システム1は、3台のカメラ2、3、4と、HUB5と、画像処理装置10と、プリンタ6と、ディスクライタ7と、を備える。   FIG. 1 shows a golf swing analysis system 1 using an image processing apparatus according to an embodiment of the present invention. The golf swing analysis system 1 includes three cameras 2, 3, 4, a HUB 5, an image processing device 10, a printer 6, and a disc writer 7.

カメラ2、3、4は、ゴルフスイングを行う被写体H又はゴルフボールを載置するピンP及びその付近をそれぞれ異なる角度から撮像する。以下の説明において、ゴルフボールが飛翔する方向を前方、その反対側を後方とし、被写体Hから見てゴルフボールが載置される側を正面とする。本実施形態において、カメラ2,3,4は、1200[fps]のハイスピード動画撮影が可能なハイスピードデジタルカメラである。
カメラ2はゴルフスイングを行うヒトである被写体Hの正面側から被写体Hを撮像し、カメラ3は同被写体Hの後方から被写体Hを撮像する。カメラ4は被写体Hの正面側からピンP及びその付近を撮像することで、ゴルフボール及びゴルフボールを打つゴルフクラブのヘッドを撮像する。画像編集の際に表示される撮像画像は静止画像であるが、カメラ2、3、4は撮像画像を動画として出力する。
カメラ2、3、4はバッファメモリ(図示略)を有し、各カメラは撮像画像をバッファメモリに格納し、後に外部へ転送出力する。
The cameras 2, 3, and 4 capture images of the subject H performing a golf swing or the pin P on which a golf ball is placed and the vicinity thereof from different angles. In the following description, the direction in which the golf ball flies is the front, the opposite side is the rear, and the side on which the golf ball is placed as viewed from the subject H is the front. In this embodiment, the cameras 2, 3, and 4 are high-speed digital cameras capable of shooting a high-speed moving image of 1200 [fps].
The camera 2 images the subject H from the front side of the subject H who is a person performing a golf swing, and the camera 3 images the subject H from behind the subject H. The camera 4 images the pin P and its vicinity from the front side of the subject H, thereby imaging the golf ball and the head of the golf club hitting the golf ball. The captured image displayed during image editing is a still image, but the cameras 2, 3, and 4 output the captured image as a moving image.
The cameras 2, 3, and 4 have a buffer memory (not shown), and each camera stores a captured image in the buffer memory and later transfers and outputs it to the outside.

カメラ2、3、4は、動画撮像時の秒間撮像フレーム数(frame per second、以降fpsと記載)を300〜1200[fps]に設定することができる。本実施形態において、カメラ2、3は300[fps]、カメラ4は1200[fps]で撮像を行う。   The cameras 2, 3, and 4 can set the number of frames captured per second (frame per second, hereinafter referred to as fps) at the time of moving image capturing to 300 to 1200 [fps]. In this embodiment, the cameras 2 and 3 perform imaging at 300 [fps], and the camera 4 performs imaging at 1200 [fps].

HUB5は、3台のカメラ2、3、4と画像処理装置10との間に介在する集線装置であり、3台のカメラ2、3、4と画像処理装置10とを接続する。   The HUB 5 is a line concentrator interposed between the three cameras 2, 3, 4 and the image processing apparatus 10, and connects the three cameras 2, 3, 4 and the image processing apparatus 10.

画像処理装置10は、スイング解析を行う。スイング解析は、3台のカメラ2、3、4による撮像動画の記憶と、当該撮像動画をもとにした各種の処理を指す。スイング解析の詳細については後述する。   The image processing apparatus 10 performs swing analysis. Swing analysis refers to storage of captured moving images by the three cameras 2, 3, and 4 and various processes based on the captured moving images. Details of the swing analysis will be described later.

プリンタ6は、画像処理装置10が行う印刷処理により、印刷媒体(例えば紙等)に対して印刷を施す機器である。プリンタ6は、例えばページプリンタ等の印刷装置により構成される。
ディスクライタ7は、画像処理装置10の制御によりデジタルデータをDVDメディアに書き込む機器である。
The printer 6 is a device that performs printing on a print medium (for example, paper or the like) by printing processing performed by the image processing apparatus 10. The printer 6 is configured by a printing device such as a page printer.
The disc writer 7 is a device that writes digital data to a DVD medium under the control of the image processing apparatus 10.

次に、画像処理装置10の構成について説明する。図2は、画像処理装置10の構成を示すブロック図である。
画像処理装置10は、CPU11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、表示装置16と、インターフェース17、18、19と、これらの各構成を相互接続するバス20と、を有する。
本実施形態において、画像印刷装置10は、例えば、パーソナルコンピュータ、デスクトップコンピュータ等の情報処理装置により構成される。
Next, the configuration of the image processing apparatus 10 will be described. FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus 10.
The image processing apparatus 10 includes a CPU 11, a RAM 12, a ROM 13, a storage device 14, an input device 15, a display device 16, interfaces 17, 18, and 19, and a bus 20 that interconnects these components, Have
In the present embodiment, the image printing apparatus 10 is configured by an information processing apparatus such as a personal computer or a desktop computer.

CPU11は、ROM13や記憶装置14からプログラム、データ等を読み込んで実行処理すると共に、画像処理装置10の各部や画像処理装置10に接続されている各構成の動作制御を行う。CPU11が読み込んだプログラム、データ等及びCPU11の処理において一時的に生じたパラメータ等はRAM12に格納される。   The CPU 11 reads a program, data, and the like from the ROM 13 and the storage device 14 and executes them, and controls the operation of each unit of the image processing apparatus 10 and each component connected to the image processing apparatus 10. A program, data, and the like read by the CPU 11 and parameters temporarily generated in the processing of the CPU 11 are stored in the RAM 12.

ROM13は、例えばROMチップ等であり、プログラム、データ等を書き換え不可能に記憶する。
記憶装置14は、例えばハードディスクドライブやフラッシュメモリ等であり、プログラム、データ等を書き換え可能に記憶することができる。
The ROM 13 is, for example, a ROM chip or the like, and stores programs, data, and the like so as not to be rewritten.
The storage device 14 is, for example, a hard disk drive or a flash memory, and can store a program, data, and the like in a rewritable manner.

入力装置15は、例えばキーボードやマウス等であり、オペレータの手動による画像処理装置10に対する入力処理を可能とする。   The input device 15 is, for example, a keyboard or a mouse, and enables input processing to the image processing device 10 by an operator manually.

表示装置16は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等により構成され、画像処理装置10の画面出力処理に応じた内容を表示する。   The display device 16 is configured by, for example, an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, or the like, and displays contents according to the screen output processing of the image processing device 10.

インターフェース17、18、19は、例えばUSB(Universal Serial Bus)等のバスインターフェースであり、画像処理装置10と外部機器との接続を可能にする。カメラ2、3、4はHUB5を介してインターフェース17に接続され、プリンタ6はインターフェース18に接続され、ディスクライタ7はインターフェース19に接続される。   The interfaces 17, 18, and 19 are bus interfaces such as USB (Universal Serial Bus), for example, and enable connection between the image processing apparatus 10 and an external device. The cameras 2, 3, 4 are connected to the interface 17 via the HUB 5, the printer 6 is connected to the interface 18, and the discwriter 7 is connected to the interface 19.

次に、スイング解析の処理内容について説明する。図3は、スイング解析の処理内容を示すフローチャートである。   Next, the content of the swing analysis process will be described. FIG. 3 is a flowchart showing the contents of the swing analysis process.

まず、3つのカメラ2、3、4による3方向からの撮影を行う(ステップS1)。撮影は、オペレータによる所定の入力操作により、画像入力装置10が3台のカメラ2、3、4を動作させて被写体Hを撮像する処理である。3台のカメラ2、3、4による撮像動画は、画像処理装置10に転送され、画像処理装置10は転送された撮像動画を記憶装置14に記憶する。   First, photographing is performed from three directions by the three cameras 2, 3, 4 (step S1). Shooting is a process in which the image input apparatus 10 operates the three cameras 2, 3, and 4 to image the subject H by a predetermined input operation by an operator. The moving images captured by the three cameras 2, 3, and 4 are transferred to the image processing device 10, and the image processing device 10 stores the transferred captured moving images in the storage device 14.

次に、画像処理装置10は静止画像生成を行う(ステップS2)。静止画像生成は、記憶装置14に記憶された各撮像動画から静止画像を生成する処理である。生成された静止画像は記憶装置14に記憶される。   Next, the image processing apparatus 10 generates a still image (step S2). Still image generation is processing for generating a still image from each captured moving image stored in the storage device 14. The generated still image is stored in the storage device 14.

次に、オペレータの入力内容に基づき画像処理装置10はスイング対象抽出を行う(ステップS3)。スイング対象抽出は、静止画像に分割された画像のうち、カメラ2が撮像した画像についてゴルフスイング中を撮像した画像の範囲(スイング対象)を決定する処理である。これは、カメラ2、3、4による動画撮像時にゴルフスイング中でない撮像画像が含まれることがあるために行われる処理である。ゴルフスイング中でない撮像画像として、例えば被写体Hが姿勢を整える動作を行っている最中や、被写体Hがその他の動作(例えば煙草を吸う等)を行っている最中の撮像画像等が挙げられる。カメラ3、4が撮像した画像についてはスイング対象抽出を行わないが、後述するスイング画像同期によってスイング対象が決定される。   Next, the image processing apparatus 10 performs swing target extraction based on the input contents of the operator (step S3). Swing target extraction is a process of determining a range (swing target) of an image captured during a golf swing for an image captured by the camera 2 among images divided into still images. This is a process that is performed because a captured image that is not in a golf swing may be included during moving image capturing by the cameras 2, 3, and 4. Examples of the captured image that is not during the golf swing include a captured image in which the subject H is performing an operation of adjusting the posture, and a subject H is performing other operations (for example, smoking a cigarette). . Swing target extraction is not performed on images captured by the cameras 3 and 4, but the swing target is determined by swing image synchronization described later.

次に、オペレータの入力内容に基づき画像処理装置10はスイング画像同期を行う(ステップS4)。スイング画像同期は、3方向からの静止画像を同期させる処理であり、カメラ2、3、4がそれぞれ撮像した画像の静止画像について、同じタイミングを撮像した静止画像を対応付ける。   Next, the image processing apparatus 10 performs swing image synchronization based on the input contents of the operator (step S4). Swing image synchronization is processing for synchronizing still images from three directions, and associates still images captured at the same timing with still images captured by the cameras 2, 3, and 4.

次に、オペレータの入力内容に基づき画像処理装置10は移動状態プロットを行う(ステップS5〜7)。移動状態プロットは、3方向からの画像のそれぞれについて、所定の間引き数に基づきピックアップされた各静止画像におけるゴルフクラブのヘッドの位置を座標データとして記憶する処理である。インパクト位置以降の静止画像のうち、ゴルフボールが写っている静止画像についてはゴルフボールの位置についても座標データとして記憶する。ゴルフクラブのヘッドの位置及びゴルフボールの位置の入力はオペレータの手動入力による。移動状態プロットは、カメラ2、3、4の撮像した画像の静止画像それぞれに対して個別に行われる。   Next, the image processing apparatus 10 performs a movement state plot based on the input contents of the operator (steps S5 to S7). The movement state plot is a process of storing, as coordinate data, the position of the head of the golf club in each still image picked up based on a predetermined thinning number for each of the images from the three directions. Among the still images after the impact position, the position of the golf ball is stored as coordinate data for the still image in which the golf ball is reflected. The golf club head position and the golf ball position are input manually by the operator. The movement state plot is individually performed for each of the still images captured by the cameras 2, 3, and 4.

次に、画像処理装置10はスイングスピード解析を行う(ステップS8)。スイングスピード解析は、ゴルフスイング中のゴルフクラブのヘッドの移動速度の算出処理である。スイングスピード解析は、移動状態プロットによって入力されたゴルフクラブのヘッド位置に基づき行われる。   Next, the image processing apparatus 10 performs swing speed analysis (step S8). The swing speed analysis is a calculation process of the moving speed of the head of the golf club during the golf swing. The swing speed analysis is performed based on the golf club head position input by the moving state plot.

次に、画像処理装置10はスイングフォーム印刷を行う(ステップS9)。スイングフォーム印刷は、ゴルフスイング中の画像を所定のルールに基づきピックアップして印刷する処理である。   Next, the image processing apparatus 10 performs swing form printing (step S9). Swing form printing is a process of picking up and printing an image during a golf swing based on a predetermined rule.

稼動状態プロット、スイング解析及びスイングフォーム印刷と並行して、又はこれらと別工程で、画像処理装置10は同期動画作成を行うことができる(ステップS10)。同期動画作成は、スイング画像同期が終了した静止画像を合成して一つの動画に変換し、その一つの動画ファイルの再生によって3つのカメラ2、3、4による撮像動画が同期して再生される動画ファイルを作成する処理である。CPU11は、同期動画作成により作成された動画ファイルを再生することで、ステップS4のスイング画像同期を経て同期した静止画像に基づいて複数グループの画像を同期させて再生する。
図4に、同期動画作成により作成された動画ファイルの再生画面D1の一例を示す。図4に示すように、同期動画作成により作成された動画ファイルの再生画面D1には、カメラ2、3、4によって撮影された3つの画像(正面の動画像、側面の動画像及びボールの動画像)が一画面上で同期した状態で再生される。
In parallel with the operation state plot, swing analysis, and swing form printing, or in a separate process, the image processing apparatus 10 can create a synchronized moving image (step S10). Synchronized video creation is a combination of still images for which the swing image synchronization has been completed, converted into a single video, and the video captured by the three cameras 2, 3, and 4 is played back synchronously by playing back that single video file. This is a process for creating a video file. CPU11 reproduces | regenerates the moving image file produced by synchronous animation production, and synchronizes and reproduces the image of a several group based on the still image synchronized through the swing image synchronization of step S4.
FIG. 4 shows an example of a playback screen D1 of a moving image file created by creating a synchronized moving image. As shown in FIG. 4, on the playback screen D1 of the moving image file created by the synchronous moving image creation, three images (front moving image, side moving image and ball moving image) taken by the cameras 2, 3, 4 are displayed. Image) is reproduced in a synchronized state on one screen.

画像処理装置10による処理は、CPU11がスイング解析アプリケーション21を実行処理することで行われる。スイング解析アプリケーション21は記憶装置14に記憶され、CPU11によって読み出され、解釈処理される。   Processing by the image processing apparatus 10 is performed by the CPU 11 executing the swing analysis application 21. The swing analysis application 21 is stored in the storage device 14, read out by the CPU 11, and interpreted.

図5は、記憶装置14の記憶内容を示すブロック図である。記憶装置14は少なくとも、スイング解析アプリケーション21を記憶する。スイング解析アプリケーションは、撮影指示プログラム21a、スイング対象抽出プログラム21b、スイング画像同期プログラム21c、移動状態プロットプログラム21d、スイングスピード解析プログラム21e、スイングフォーム印刷プログラム21f、同期動画作成プログラム21g等の各種プログラム部品を含む。
ステップS1の撮影の処理内容は撮像支持プログラム21aに含まれる。ステップS2の静止画像生成及びステップS3スイング対象抽出の処理内容はスイング対象抽出プログラムに含まれる。ステップS4のスイング画像同期の処理内容はスイング画像同期プログラムに含まれる。ステップS5〜S7の移動状態プロットの処理内容は移動状態プロットプログラム21dに含まれる。ステップS8のスイングスピード解析の処理内容はスイングスピード解析プログラム21eに含まれる。ステップS9のスイングフォーム印刷の処理内容は、スイングフォーム印刷プログラム21fに含まれる。ステップS10の同期動画作成の処理内容は同期動画作成プログラム21gに含まれる。
FIG. 5 is a block diagram showing the contents stored in the storage device 14. The storage device 14 stores at least the swing analysis application 21. The swing analysis application includes various program components such as a shooting instruction program 21a, a swing target extraction program 21b, a swing image synchronization program 21c, a movement state plot program 21d, a swing speed analysis program 21e, a swing form printing program 21f, and a synchronized video creation program 21g. including.
The processing content of the shooting in step S1 is included in the imaging support program 21a. The processing contents of the still image generation in step S2 and the swing target extraction in step S3 are included in the swing target extraction program. The processing content of the swing image synchronization in step S4 is included in the swing image synchronization program. The processing contents of the movement state plot in steps S5 to S7 are included in the movement state plot program 21d. The processing content of the swing speed analysis in step S8 is included in the swing speed analysis program 21e. The processing content of the swing form printing in step S9 is included in the swing form printing program 21f. The processing content of the synchronized moving image creation in step S10 is included in the synchronized moving image creating program 21g.

図示しないが、記憶装置14は、3つの動画ファイル(ファイルFR、ファイルBK及びファイルBL)、生成される複数の静止画像、後述する基準位置情報テーブル、第1の座標データ、第2の座標データ、各動画のfps等を記憶するための記憶領域を有する。   Although not shown, the storage device 14 includes three moving image files (file FR, file BK, and file BL), a plurality of still images to be generated, a reference position information table to be described later, first coordinate data, and second coordinate data. And a storage area for storing the fps of each moving image.

ここで、画像処理装置10が行う各処理において処理対象となるデータ(ファイル)及び処理結果となるデータ(ファイル)又は印刷物等のメディアについて説明する。   Here, data (file) to be processed in each process performed by the image processing apparatus 10, data (file) to be processed, or a medium such as a printed material will be described.

ステップS1の撮影によって3つの動画ファイルが記憶装置14に記憶される。以降の説明において、カメラ2の撮像による動画ファイルをファイルFR、カメラ3の撮像による動画ファイルをファイルBK、カメラ4の撮像による動画ファイルをファイルBLとする。   Three moving image files are stored in the storage device 14 by photographing in step S1. In the following description, a movie file captured by the camera 2 is referred to as a file FR, a movie file captured by the camera 3 as a file BK, and a movie file captured by the camera 4 as a file BL.

ステップS2によって各動画ファイルから静止画像が生成される。つまり、各動画を元とする3つのグループの静止画像が生成され、各グループには同じ動画から生成された静止画像が複数含まれる。このとき、各静止画像ファイルには元となった動画ファイルの名称の末尾に番号を付したファイル名が付与される。番号は、初期値1の連番であり、各動画の最初のフレームに1が付与され、以降継続するフレームの番号は順次増加する。ファイルFRから生成された静止画像を例に挙げると、「FR0000001」、「FR0000002」…のように、7桁の連番による番号が元の動画ファイル名の末尾に付されたファイル名が付与される。
ファイルBK、ファイルBLを元に生成された静止画像についても同様である。以降の説明において、各静止画像に付与される元となった動画ファイルのファイル名の末尾に続く番号部分を「静止画像の番号」と記載し、元となった動画が「FR」の静止画像を「正面静止画像」と記載し、元となった動画が「BK」の静止画像を「後方静止画像」と記載し、元となった動画が「BL」の静止画像を「ボール静止画像」と記載する。
In step S2, a still image is generated from each moving image file. That is, three groups of still images based on each moving image are generated, and each group includes a plurality of still images generated from the same moving image. At this time, each still image file is given a file name with a number added to the end of the name of the original moving image file. The number is a serial number with an initial value of 1, and 1 is assigned to the first frame of each moving image, and the number of frames that continue thereafter increases sequentially. Taking a still image generated from the file FR as an example, a file name with a 7-digit serial number appended to the end of the original movie file name, such as “FR0000001”, “FR0000002”, etc., is given. The
The same applies to still images generated based on the file BK and the file BL. In the following description, the number part following the end of the file name of the original moving image file assigned to each still image is described as “still image number”, and the original moving image is “FR”. Is described as “front still image”, the original video of “BK” is described as “rear still image”, and the original video of “BL” is referred to as “ball still image”. It describes.

生成される静止画像の枚数は、各動画のfpsに応じる。例えば、300[fps]の動画を静止画像にした場合、1秒間の撮像動画に対応した静止画像は300[枚]生成される。つまり、一の静止画像は、元の動画における一の画像フレームに対応する。
画像処理装置10は、各カメラのfpsを変数で管理、記憶する。具体的には、カメラ2のfpsを変数FRfpsの値とし、カメラ3のfpsを変数BKfpsの値とし、カメラ4のfpsを変数BLfpsの値として記憶装置14に記憶する。CPU11は、FRfpsの値に応じた枚数の静止画像をファイルFRから生成し、BKfpsの値に応じた枚数の静止画像をファイルBKから生成し、BLfpsの値に応じた枚数の静止画像をファイルBLから生成する。
The number of still images generated depends on the fps of each moving image. For example, when a moving image of 300 [fps] is used as a still image, 300 [still images] corresponding to a captured moving image for one second are generated. That is, one still image corresponds to one image frame in the original moving image.
The image processing apparatus 10 manages and stores the fps of each camera as a variable. Specifically, the fps of the camera 2 is set as the value of the variable FRfps, the fps of the camera 3 is set as the value of the variable BKfps, and the fps of the camera 4 is stored in the storage device 14 as the value of the variable BLfps. The CPU 11 generates a number of still images corresponding to the FRfps value from the file FR, generates a number of still images corresponding to the BKfps value from the file BK, and generates a number of still images corresponding to the BLfps value to the file BL. Generate from.

ステップS3のスイング対象抽出によって、基準位置情報テーブル情報が生成、更新される。
図6に基準位置情報テーブルの一例を示す。図6(a)は初期化された基準位置情報テーブルを示し、図6(b)はスイング対象抽出後の基準位置情報テーブルを示し、図6(c)はスイング画像同期後の基準位置情報テーブルを示す。
The reference position information table information is generated and updated by the swing target extraction in step S3.
FIG. 6 shows an example of the reference position information table. 6A shows the initialized reference position information table, FIG. 6B shows the reference position information table after extraction of the swing object, and FIG. 6C shows the reference position information table after synchronization of the swing image. Indicates.

基準位置情報テーブルは、ゴルフスイング中の被写体Hの体勢のうち、「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」に対応する静止画像の番号を記憶するテーブルである。
「テークバック開始」は、被写体Hがゴルフボールを打つ前の動作としてゴルフクラブを後方経由で振り上げる動作(テークバック)を開始する動作シーンである。「振り下ろし開始」は、被写体Hがゴルフボールを打つため、テークバック後にゴルフクラブを振り下ろす動作を開始する動作シーンである。「インパクト瞬間」は、ゴルフクラブのヘッドがゴルフボールを打つ動作シーンである。「フォロースルー終了」は、ゴルフボールを打った後、被写体Hがゴルフクラブを前方へ振りぬく動作を終了する動作シーンである。
The reference position information table is a table that stores still image numbers corresponding to “start takeback”, “start swinging down”, “impact moment”, and “end follow-through” among the postures of the subject H during the golf swing. is there.
“Takeback start” is an operation scene in which an operation (takeback) of swinging up the golf club via the rear as an operation before the subject H hits the golf ball is started. “Start swinging down” is an operation scene in which the subject H starts to swing down the golf club after takeback because the subject H hits the golf ball. The “impact moment” is an operation scene in which the golf club head hits a golf ball. “End follow-through” is an operation scene where the subject H finishes swinging the golf club forward after hitting the golf ball.

図6(a)、(b)、(c)に示すように、基準位置情報テーブルは、「正面静止画像」、「後方静止画像」及び「ボール静止画像」のそれぞれについて「テークバック開始」位置、「振り下ろし開始」位置、「インパクト瞬間」位置、「フォロースルー終了」位置に対応する静止画像の番号を記憶する。基準位置情報テーブルは記憶装置14に記憶される。   As shown in FIGS. 6A, 6 </ b> B, and 6 </ b> C, the reference position information table includes a “takeback start” position for each of the “front still image”, “rear still image”, and “ball still image”, The number of the still image corresponding to the “starting to swing down” position, the “impact moment” position, and the “follow-through end” position is stored. The reference position information table is stored in the storage device 14.

ステップS3のスイング対象抽出では、「正面静止画像」について、「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」に対応する静止画像を手動で指定する。このとき、「テークバック開始」に対応する静止画像、「フォロースルー終了」に対応する静止画像及びその間の静止画像がスイング対象となる。   In the swing target extraction in step S3, the still image corresponding to “takeback start”, “downward start”, “impact moment”, and “follow-through end” is manually designated for the “front still image”. At this time, a still image corresponding to “takeback start”, a still image corresponding to “follow-through end”, and a still image therebetween are subject to swing.

ステップS4のスイング画像同期によって、図6(c)に示すように、「正面静止画像」、「後方静止画像」及び「ボール静止画像」のそれぞれについて、「テークバック開始」位置、「振り下ろし開始」位置、「インパクト瞬間」位置、「フォロースルー終了」位置に対応する静止画像の番号が記憶される。これに伴い、「後方静止画像」及び「ボール静止画像」のスイング対象も決定する。   As shown in FIG. 6C, the “takeback start” position and the “swing down start” for each of the “front still image”, “rear still image”, and “ball still image” are obtained by the swing image synchronization in step S4. The number of the still image corresponding to the position, the “impact instant” position, and the “follow-through end” position is stored. Accordingly, the swing target of the “rear still image” and the “ball still image” is also determined.

ステップS5〜S7の移動状態プロットによって、各静止画像像に写ったゴルフクラブのヘッド位置及びゴルフボールの第1の座標データが記憶される。
図7に、座標データの一例を示す。図7(a)はヘッド位置及びボール位置の座標データ(第1の座標データ)、図7(b)はラインの座標データ(第2の座標データ)である。
The golf club head position and the first coordinate data of the golf ball shown in each still image are stored by the movement state plots in steps S5 to S7.
FIG. 7 shows an example of coordinate data. FIG. 7A shows the coordinate data (first coordinate data) of the head position and the ball position, and FIG. 7B shows the coordinate data of the line (second coordinate data).

図7(a)に示すように、第1の座標データはファイル名ならびにヘッド位置及びボール位置のX座標及びY座標を示すパラメータを有するテーブルデータである。ヘッド位置はゴルフクラブのヘッドの位置を示し、ボール位置はゴルフボールの位置を示す。第1の座標データはX座標及びY座標によって表される。X座標及びY座標によりヘッド位置及びボール位置を特定するための原点は、あらかじめ静止画像の所定位置(例えば矩形の画像データの左下角の座標)に定められている。第1の座標データのヘッド位置及びボール位置のX座標及びY座標は全ての静止画像に対して記憶されるのではなく、前述のように所定の間引き数に基づいてピックアップされた各静止画像について記憶される。   As shown in FIG. 7A, the first coordinate data is table data having a file name and parameters indicating the X and Y coordinates of the head position and the ball position. The head position indicates the position of the head of the golf club, and the ball position indicates the position of the golf ball. The first coordinate data is represented by an X coordinate and a Y coordinate. The origin for specifying the head position and the ball position by the X coordinate and the Y coordinate is determined in advance at a predetermined position of the still image (for example, the coordinates of the lower left corner of the rectangular image data). The X coordinate and Y coordinate of the head position and the ball position of the first coordinate data are not stored for all still images, but for each still image picked up based on a predetermined thinning number as described above. Remembered.

図7(a)に示す第1の座標データは、「正面静止画像」の第1の座標データであるが、「後方静止画像」及び「ボール静止画像」についても同様の仕組みで第1の座標データが記憶される。   The first coordinate data shown in FIG. 7A is the first coordinate data of the “front still image”, but the “rear still image” and the “ball still image” also have the same coordinates for the first coordinate data. Data is stored.

また、各静止画像の座標位置データを一画面上に表示することでゴルフクラブのヘッドの移動軌跡及びゴルフボールの移動軌跡を描画することができる。
図8及至図10に、ゴルフスイング中のゴルフクラブのヘッド及びゴルフボールの移動軌跡を描画した画面の一例を示す。図8は「正面静止画像」における移動軌跡を示し、図9は「後方静止画像」における移動軌跡を示し、図10は「ボール静止画像」における移動軌跡を示す。以降の説明及び図において、各静止画像の表示内容に含まれるゴルフクラブのヘッドに符号Wを付する。
Further, by displaying the coordinate position data of each still image on one screen, it is possible to draw the movement locus of the golf club head and the movement locus of the golf ball.
FIG. 8 to FIG. 10 show an example of a screen on which the golf club head and the movement trajectory of the golf ball are drawn during the golf swing. 8 shows the movement locus in the “front still image”, FIG. 9 shows the movement locus in the “rear still image”, and FIG. 10 shows the movement locus in the “ball still image”. In the following description and drawings, the reference numeral W is attached to the head of the golf club included in the display content of each still image.

ステップS5の移動状態プロット(正面)によって、「正面静止画像」におけるゴルフクラブのヘッドW及びゴルフボールの第1の座標データが記憶される。第1の座標でーたによって、図8に示すように「正面静止画像」におけるゴルフクラブのヘッドWの座標(プロットQ)及びゴルフボールの座標(プロットS)を描画することができ、プロットQからゴルフクラブのヘッドの移動軌跡Rを、プロットSからゴルフボールの移動軌跡Tを得ることができる。同様に、ステップS6の移動状態プロット(後方)によって「後方静止画像」の第1の座標データ及び移動軌跡が得られ、ステップS7の移動状態プロット(ボール)によって「ボール静止画像」の第1の座標データ及び移動軌跡が得られる。
図8〜10において、プロットQを白丸、移動軌跡Rを破線、プロットSを黒丸、移動軌跡Tを実線で示す。プロットQは移動軌跡R上のひとつの白丸にのみ付されているが、移動軌跡R上の白丸はいずれもプロットQである。プロットSは移動軌跡T上のひとつの黒丸にのみ付されているが、移動軌跡T上の黒丸はいずれもプロットSである。
The golf club head W and the first coordinate data of the golf ball in the “front still image” are stored by the movement state plot (front) in step S5. As shown in FIG. 8, the coordinates of the golf club head W (plot Q) and the coordinates of the golf ball (plot S) in the “front still image” can be drawn as shown in FIG. Thus, the movement trajectory R of the golf club head and the movement trajectory T of the golf ball can be obtained from the plot S. Similarly, the first coordinate data and movement trajectory of the “rear still image” are obtained by the movement state plot (backward) in step S6, and the first “ball still image” of the “ball still image” is obtained by the movement state plot (ball) in step S7. Coordinate data and movement trajectory are obtained.
8 to 10, the plot Q is indicated by a white circle, the movement locus R is indicated by a broken line, the plot S is indicated by a black circle, and the movement locus T is indicated by a solid line. The plot Q is attached to only one white circle on the movement locus R, but all the white circles on the movement locus R are the plot Q. Although the plot S is attached to only one black circle on the movement locus T, the black circles on the movement locus T are all plots S.

図8及び図9に示すゴルフスイング中のゴルフクラブのヘッド及びゴルフボールの移動軌跡を描画した画面において、ラインLを描画することができる。ラインLは直線であり、ラインの一端側を開始位置、他端側を終了位置とし、開始位置及び終了位置を静止画像に対するX座標、Y座標として図7(b)に示す第2の座標データに記憶する。   A line L can be drawn on the screen on which the golf club head and the golf ball moving locus during the golf swing shown in FIGS. 8 and 9 are drawn. The line L is a straight line, and the second coordinate data shown in FIG. 7B is shown with the one end side of the line as the start position, the other end side as the end position, and the start position and end position as the X coordinate and Y coordinate for the still image. To remember.

図7(b)に示すように、第2の座標データはライン種類と、開始位置及び終了位置のX座標、Y座標とを対応付けるテーブル形式のデータである。ライン種類は、ラインLが垂直のラインLであるか斜めのラインLであるかを示すパラメータであり、垂直のラインLは図8に示すように正面静止画像に対して施され、斜めのラインLは図9に示すように後方静止画像に施される。図8に示すように一つの種類の静止画像に複数のラインLが施される場合、その開始位置及び終了位置の各座標は個別に第2の座標データに記憶される。   As shown in FIG. 7B, the second coordinate data is data in a table format that associates the line type with the X and Y coordinates of the start position and the end position. The line type is a parameter indicating whether the line L is a vertical line L or an oblique line L. The vertical line L is applied to the front still image as shown in FIG. L is applied to the rear still image as shown in FIG. As shown in FIG. 8, when a plurality of lines L are applied to one type of still image, the coordinates of the start position and the end position are individually stored in the second coordinate data.

図7(a)、(b)に示す各座標データのX座標、Y座標にはそれぞれX又はYのアルファベット一文字と3桁の数値で表されたパラメータが記載されているが、実際の座標データはX座標、Y座標を示す値を記憶する。   The X coordinate and Y coordinate of each coordinate data shown in FIGS. 7 (a) and 7 (b) describe parameters represented by a single letter of X or Y and a three-digit numerical value, respectively. Stores values indicating X and Y coordinates.

ステップS8のスイングスピード解析によって、ゴルフクラブのヘッドの移動速度が得られる。スイングスピード解析で得られるゴルフクラブのヘッドの移動速度は、ゴルフスイング中全般に渡るゴルフクラブのヘッドの移動速度の平均である。   The moving speed of the golf club head is obtained by the swing speed analysis in step S8. The moving speed of the golf club head obtained by the swing speed analysis is an average of the moving speed of the golf club head throughout the golf swing.

ステップS9のスイングフォーム印刷によって、所定のルールに基づきピックアップされた静止画像を印刷することができる。印刷は、「正面静止画像」、「後方静止画像」及び「ボール静止画像」のそれぞれについて個別に行うことができる。   By the swing form printing in step S9, a still image picked up based on a predetermined rule can be printed. Printing can be performed individually for each of the “front still image”, “rear still image”, and “ball still image”.

ステップS10の同期動画作成によって、3つのカメラ2、3、4による撮像動画が同期して再生される一つの動画ファイルが生成される。同期動画作成によって得られた一つの動画ファイルは、ディスクライタ7を用いてDVDビデオディスクのデータとしてDVDメディアに記録する等の外部出力やその他の活用が可能である。   By creating a synchronized moving image in step S10, one moving image file is generated in which the captured moving images from the three cameras 2, 3, and 4 are reproduced in synchronization. One moving image file obtained by the creation of the synchronized moving image can be used for external output such as recording on a DVD medium as data of a DVD video disk using the disc writer 7 or for other utilization.

次に、スイング対象抽出の詳細について説明する。
スイング対象抽出の開始時、画像処理装置10のCPU11は、基準位置情報テーブルを初期化状態で生成する。初期化状態の基準位置情報テーブルは、図6(a)に示すように、「正面静止画像」、「後方静止画像」及び「ボール静止画像」の全ての「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像の番号について最小の番号(0000001)を記憶している。
Next, details of the swing target extraction will be described.
At the start of swing target extraction, the CPU 11 of the image processing apparatus 10 generates a reference position information table in an initialized state. As shown in FIG. 6A, the reference position information table in the initialization state includes all “takeback start” and “downward start” of the “front still image”, “rear still image”, and “ball still image”. The smallest number (0000001) is stored for the still image numbers of “impact moment” and “follow-through end”.

そして、CPU11は表示装置16に「第1操作画面」としてのスイング対象抽出画面を表示させる。
図11に、スイング対象抽出画面の表示内容及びその遷移の一例を示す。図11(a)は初期表示内容を示し、図11(b)は「テークバック開始」の静止画像選択時を示し、図11(c)は「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像選択後を示す。
図11(a)〜(c)に示すように、スイング対象抽出画面は、4枚の静止画像と、画像送りゲージ30とを表示する。4枚の静止画像は横方向(1行)に並ぶよう表示され、左側から順に「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像と対応する。画像送りゲージ30は、表示される静止画像を変更するためのインターフェースである。
Then, the CPU 11 causes the display device 16 to display a swing target extraction screen as a “first operation screen”.
FIG. 11 shows an example of the display contents of the swing target extraction screen and its transition. FIG. 11A shows the initial display contents, FIG. 11B shows the time of selecting a “takeback start” still image, and FIG. 11C shows “takeback start”, “down swing start”, and “impact moment”. ”And“ Follow-through end ”after still image selection.
As shown in FIGS. 11A to 11C, the swing target extraction screen displays four still images and an image feed gauge 30. FIG. The four still images are displayed side by side in the horizontal direction (one line), and correspond to still images of “takeback start”, “downward start”, “impact moment”, and “follow-through end” in order from the left side. The image feed gauge 30 is an interface for changing the displayed still image.

スイング対象抽出画面に表示される静止画像は「正面静止画像」であり、その静止画像の番号は基準位置情報テーブルに対応する。つまり、基準位置情報テーブルが初期化状態のとき、スイング対象抽出画面に表示される静止画像の番号は4枚全てについて「0000001」である。スイング対象抽出画面の表示処理が行われるとき、基準位置情報テーブルは初期化状態である。   The still image displayed on the swing target extraction screen is a “front still image”, and the number of the still image corresponds to the reference position information table. That is, when the reference position information table is in the initialized state, the number of still images displayed on the swing target extraction screen is “0000001” for all four images. When the swing target extraction screen display process is performed, the reference position information table is in an initialized state.

その後、オペレータは4つの静止画像それぞれについて別の静止画像を選択する操作を行う。具体的には、オペレータは4つの静止画像のうちいずれか一つをクリック操作する。CPU11はクリック操作された静止画像にフォーカスを当てる処理を行う。図11(b)では、フォーカスの当たった静止画像を破線で囲うことで示す。
その後、オペレータは画像送りゲージ30を操作してフォーカスの当たっている静止画像を変更する。画像送りゲージ30の操作は、矢印ボタン32、32の操作又はゲージの空白部分33に対するクリック操作のいずれか一方によって行うことができる。
Thereafter, the operator performs an operation of selecting another still image for each of the four still images. Specifically, the operator clicks one of four still images. The CPU 11 performs a process of focusing on the clicked still image. In FIG. 11B, the focused still image is shown by surrounding it with a broken line.
Thereafter, the operator operates the image feed gauge 30 to change the focused still image. The operation of the image feed gauge 30 can be performed by either the operation of the arrow buttons 32 and 32 or the click operation on the blank portion 33 of the gauge.

オペレータが矢印ボタン32、32をクリックすると、フォーカスの当たっている静止画像の表示内容が、それまで表示されていた静止画像の番号より1大きい又は1小さい静止画像の番号を有する静止画像に更新される。このとき、画像送りゲージ30の右端に位置する矢印ボタン32をクリック操作すると静止画像の番号が1大きい静止画像に更新され、画像送りゲージ30の左端に位置する矢印ボタン31をクリックすると静止画像の番号が1小さい静止画像に更新される。それまで表示されていた静止画像の番号が既に最大である場合、右端の矢印ボタン31をクリックしても静止画像の表示内容は更新されない。それまで表示されていた静止画像の番号が既に最小である場合、左端の矢印ボタン32をクリックしても静止画像の表示内容は更新されない。   When the operator clicks the arrow buttons 32 and 32, the display content of the focused still image is updated to a still image having a still image number one larger or one smaller than the still image number displayed so far. The At this time, when the arrow button 32 positioned at the right end of the image feed gauge 30 is clicked, the still image number is updated to a larger still image, and when the arrow button 31 positioned at the left end of the image feed gauge 30 is clicked, The number is updated to a still image that is one smaller. If the number of the still image displayed so far is already the maximum, the display content of the still image is not updated even if the arrow button 31 at the right end is clicked. If the number of still images displayed so far is already the smallest, even if the leftmost arrow button 32 is clicked, the display content of the still image is not updated.

オペレータがゲージの空白部分33をクリックすると、フォーカスの当たっている静止画像の表示内容が、それまで表示されていた静止画像の番号より所定のスキップ量大きい又は所定のスキップ量小さい静止画像の番号を有する静止画像に更新される。このとき、画像送りゲージ30のスクロールゲージ34の右側の空白部分33をクリックすると静止画像の番号が所定のスキップ量大きい静止画像に更新され、スクロールゲージ34の左側の空白部分33をクリックすると静止画像の番号が所定のスキップ量小さい静止画像に更新される。スクロールゲージ34の右側の空白部分33をクリックしたとき、スクロールゲージ34の表示されている静止画像と静止画像の番号が最大の静止画像との間の静止画像の番号の差が所定のスキップ量に満たない場合、フォーカスの当たっている静止画像の表示内容は更新されない。スクロールゲージ34の左側の空白部分33をクリックしたとき、スクロールゲージ34の表示されている静止画像と静止画像の番号が最小の静止画像との間の静止画像の番号の差が所定のスキップ量に満たない場合、フォーカスの当たっている静止画像の表示内容は更新されない。   When the operator clicks on the blank portion 33 of the gauge, the displayed content of the focused still image is set to a still image number that is larger by a predetermined skip amount or smaller than the previously displayed still image number. The still image is updated. At this time, when the blank portion 33 on the right side of the scroll gauge 34 of the image feed gauge 30 is clicked, the still image number is updated to a still image having a predetermined skip amount, and when the blank portion 33 on the left side of the scroll gauge 34 is clicked, the still image is clicked. Is updated to a still image with a predetermined skip amount smaller. When the blank portion 33 on the right side of the scroll gauge 34 is clicked, the difference in the still image number between the still image displayed on the scroll gauge 34 and the still image with the largest still image number becomes a predetermined skip amount. Otherwise, the display content of the still image that is in focus is not updated. When the left blank portion 33 of the scroll gauge 34 is clicked, the difference in the still image number between the still image displayed on the scroll gauge 34 and the still image with the smallest still image number becomes a predetermined skip amount. Otherwise, the display content of the still image that is in focus is not updated.

所定のスキップ量は、任意に定めることができる。本実施形態では、スキップ量を決定するための変数(例えば変数SKIP)を記憶装置14に記憶させて管理し、CPU11が当該変数に設定された値を読み込んでスキップ量を制御する。   The predetermined skip amount can be arbitrarily determined. In this embodiment, a variable (for example, variable SKIP) for determining the skip amount is stored and managed in the storage device 14, and the CPU 11 reads the value set in the variable and controls the skip amount.

スキップ対象抽出において、オペレータは、4つの静止画像について、フォーカスを当てる静止画像の選択と画像送りゲージ30に対するクリック操作とを行うことによって、それぞれ「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の瞬間を撮像した静止画像を選択する。   In skip target extraction, the operator selects a still image to be focused on and clicks on the image feed gauge 30 for the four still images, thereby performing “takeback start”, “swing down start”, and “impact moment”, respectively. ”And“ Follow-through end ”are selected.

オペレータによる画像送りゲージ30の矢印ボタン又はゲージの空白部分33に対するクリック操作に応じて、CPU11はスイング対象抽出画面において上述のようにフォーカスの当たっている静止画像の表示内容を更新すると共に、基準位置情報テーブルに記憶された静止画像の番号のうち表示内容を更新した静止画像に対応する静止画像の番号を更新する。例えば、CPU11は「テークバック開始」の静止画像について表示の更新を行った場合、基準情報位置テーブルのうち「正面静止画像」の「テークバック位置」の静止画像の番号を更新後の静止画像の番号に置き換える。同様の仕組みにより、スキップ対象抽出において、「正面静止画像」の「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号が更新される。   In response to a click operation on the arrow button of the image feed gauge 30 or the blank portion 33 of the gauge by the operator, the CPU 11 updates the display content of the still image focused on the swing target extraction screen as described above, and the reference position Of the still image numbers stored in the information table, the still image number corresponding to the still image whose display contents are updated is updated. For example, when the display of the still image “start takeback” is updated, the CPU 11 sets the still image number of “takeback position” of “front still image” in the reference information position table to the updated still image number. replace. With the same mechanism, in the skip target extraction, the still image numbers “starting to swing down”, “impact moment”, and “ending follow-through” of the “front still image” are updated.

スイング対象抽出画面には、スイング対象抽出を終了することを入力指示するキーが併せて表示されている(例えば画面右上の×ボタン)。スイング対象抽出を終了することを入力指示するキーがクリックされると、CPU11はスイング対象抽出画面の表示を終了する。このとき、表示を終了する直前のスイング対象抽出画面に表示された「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像に対応する静止画像の番号が基準位置情報テーブルの「正面静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」にそれぞれ記憶されている。   On the swing target extraction screen, a key for inputting an instruction to end the swing target extraction is also displayed (for example, a x button on the upper right of the screen). When the key for instructing to end the swing target extraction is clicked, the CPU 11 ends the display of the swing target extraction screen. At this time, the number of the still image corresponding to the still image of “takeback start”, “downward start”, “impact moment”, and “follow-through end” displayed on the swing target extraction screen immediately before the display ends is a reference. In the position information table, “take back position”, “start swinging down”, “impact moment”, and “follow-through end” are stored respectively.

CPU11は、スイング対象抽出画面の表示を終了する処理と共に、基準位置情報テーブルの「後方静止画像」及び「ボール静止画像」の静止画像の番号を更新する処理を行う。
具体的には、CPU11は基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を、「正面静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号と同一とする処理を行う。
The CPU 11 performs a process of updating the still image numbers of the “rear still image” and the “ball still image” in the reference position information table together with the process of ending the display of the swing target extraction screen.
Specifically, the CPU 11 assigns the numbers of the still images of “take back position”, “start to swing down”, “impact of impact”, and “end of follow-through” of the “rear still image” of the reference position information table to the “front still image”. , “Takeback position”, “starting to swing down”, “impact instant”, and “follow-through end” are set to the same number as the still image number.

そして、CPU11は、「正面静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号に基づき、「ボール静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を算出する処理を行う。算出は、以下の式(1)〜(4)による。以降記載する各式において、Y1は「ボール静止画像」の「テークバック位置」の静止画像の番号を、Y2は「ボール静止画像」の「振り下ろし開始」の静止画像の番号を、Y3は「ボール静止画像」の「インパクト瞬間」の静止画像の番号を、Y4は「ボール静止画像」の「フォロースルー終了」の静止画像の番号を示す。さらに、「ボール静止画像」の最大の静止画像の番号に対する70%(端数切り捨て又は切り上げのいずれか一方)をXとし、「正面静止画像」の「テークバック位置」の静止画像の番号をX1とし、「正面静止画像」の「振り下ろし開始」の静止画像の番号をX2とし、「正面静止画像」の「インパクト瞬間」の静止画像の番号をX3とし、「正面静止画像」の「フォロースルー終了」の静止画像の番号をX4とする。
Y1=X−(X3−X1)×BLfps/FRfps……(1)
Y2=X−(X3−X2)×BLfps/FRfps……(2)
Y3=X……(3)
Y4=X+(X4−X3)×BLfps/FRfps……(4)
Then, the CPU 11 determines the “take back position” of the “ball still image” based on the still image numbers of “take back position”, “start swinging down”, “impact moment”, and “follow-through end” of the “front still image”. , Processing to calculate the still image numbers of “starting to swing down”, “impact moment”, and “ending follow-through”. Calculation is based on the following formulas (1) to (4). In the following formulas, Y1 is the number of the still image of “Takeback position” of “Ball still image”, Y2 is the number of the still image of “Start swinging down” of “Ball still image”, Y3 is “Ball The number of the still image of “Impact instant” of “Still image”, and the number of the still image of “Follow-through end” of “Ball still image” of Y4. Furthermore, 70% of the largest still image number of the “ball still image” (either one of rounded down or rounded up) is X, and the still image number of the “take back position” of the “front still image” is X1, The number of the still image of “Starting to swing down” of “Front still image” is X2, the number of the still image of “Impact instant” of “Front still image” is X3, and “Follow-through end” of “Front still image” The number of the still image is X4.
Y1 = X- (X3-X1) × BLfps / FRfps (1)
Y2 = X- (X3-X2) × BLfps / FRfps (2)
Y3 = X (3)
Y4 = X + (X4-X3) × BLfps / FRfps (4)

「ボール静止画像」の「テークバック開始」の静止画像の番号を求めるとき、式(1)に示すように、「正面静止画像」の「インパクト瞬間」の静止画像の番号と「テークバック開始」の静止画像の番号との差にBLfpsをFRfpsで除算した結果を乗算して得られた値をXから減算する。このとき、「正面静止画像」の「インパクト瞬間」の静止画像の番号と「テークバック開始」の静止画像の番号との差は、「正面静止画像」の「インパクト瞬間」と「テークバック開始」との間にある静止画像の枚数に対応する。そして、BLfpsをFRfpsで除算した結果は、同一時間中を撮像した「正面静止画像」の枚数に対する「ボール静止画像」の枚数の比率に対応する。つまり、式(1)によって求められる「ボール静止画像」の「テークバック開始」の静止画像の番号は、「正面静止画像」の「インパクト瞬間」と「テークバック開始」との間にある静止画像の枚数及び同一時間中を撮像した「正面静止画像」の枚数に対する「ボール静止画像」の枚数の比率に対応する。式(2)によって求められる「ボール静止画像」の「振り下ろし開始」の静止画像の番号及び式(4)によって求められる「ボール静止画像」の「フォロースルー終了」の静止画像の番号も、それぞれ「正面静止画像」の「インパクト瞬間」の静止画像の番号に対する「振り下ろし開始」又は「フォロースルー終了」の静止画像の番号の関係と、同一時間中を撮像した「正面静止画像」の枚数に対する「ボール静止画像」の枚数の比率に対応する。   When obtaining the number of the “takeback start” still image number of the “ball still image”, as shown in Expression (1), the “impact moment” still image number of the “front still image” and the “takeback start” stillness The value obtained by multiplying the difference from the image number by the result of dividing BLfps by FRfps is subtracted from X. At this time, the difference between the still image number of “impact moment” in “front still image” and the still image number of “start takeback” is the difference between “impact moment” and “takeback start” in “front still image”. Corresponds to the number of still images in between. The result of dividing BLfps by FRfps corresponds to the ratio of the number of “ball still images” to the number of “front still images” captured during the same time period. In other words, the “takeback start” still image number of the “ball still image” obtained by the equation (1) is the number of still images between the “impact moment” and the “takeback start” of the “front still image”. And the ratio of the number of “ball still images” to the number of “front still images” taken during the same time. The number of the still image of “starting to swing down” of the “ball still image” obtained by the equation (2) and the number of the still image of “follow-through end” of the “ball still image” obtained by the equation (4) are also respectively shown. The relationship between the number of the still image of “Starting to swing down” or “End of follow-through” and the number of “Front still images” taken during the same time with the number of the still image of “Impact instant” of “Front still image” This corresponds to the ratio of the number of “ball still images”.

CPU11は、算出されたY1〜Y4をそれぞれ、基準位置情報テーブルの「ボール静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号として記憶する。   The CPU 11 uses the calculated Y1 to Y4 as the still image numbers of “takeback position”, “starting to swing down”, “impact moment”, and “followthrough end” of the “ball still image” in the reference position information table, respectively. Remember.

次に、スイング画像同期の詳細について説明する。
スイング画像同期において、CPU11は表示装置16に「第2操作画面」としてのスイング画像同期画面を表示させる。
図12に、スイング画像同期画面の一例を示す。図12において、ゴルフボールに符号Gを付して記載する。
スイング画像同期画面は、4つの静止画像を横方向(1行)に配した2行と、6つの静止画像を横方向(1行)に配した1行の計3行の表示内容を含む。各行に表示されている静止画像は、上の行から、「正面静止画像」、「後方静止画像」、「ボール静止画像」である。「正面静止画像」及び「後方静止画像」を表示する行は、左側から「テークバック開始」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の瞬間に対応する静止画像を表示する。即ち、基準位置情報テーブルにおいて「正面静止画像」及び「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号に対応する静止画像が1、2行目に表示される。
Next, details of swing image synchronization will be described.
In the swing image synchronization, the CPU 11 causes the display device 16 to display a swing image synchronization screen as a “second operation screen”.
FIG. 12 shows an example of the swing image synchronization screen. In FIG. 12, the golf ball is described with a reference symbol G.
The swing image synchronization screen includes display contents of a total of three lines: two lines in which four still images are arranged in the horizontal direction (one line) and one line in which six still images are arranged in the horizontal direction (one line). The still images displayed in each row are “front still image”, “rear still image”, and “ball still image” from the upper row. The row displaying “front still image” and “rear still image” displays still images corresponding to the moments of “start takeback”, “start swinging down”, “impact moment” and “end follow-through” from the left side. . That is, in the reference position information table, the still image corresponding to the still image number of “take back position”, “starting to swing down”, “impact moment”, and “follow-through end” of “front still image” and “rear still image” Is displayed in the first and second lines.

3行目は、左から順に、基準位置情報テーブルにおける「ボール静止画像」の「インパクト瞬間」の静止画像の番号に対して−3、−2、−1、0、+1、+2を加算した6枚の静止画像の番号を有する「ボール静止画像」を表示する。つまり、左から4番目の静止画像が基準位置情報テーブルにおける「ボール静止画像」の「インパクト瞬間」の静止画像の番号と対応する。   The third line is obtained by adding -3, -2, -1, 0, +1, +2 to the still image number of "impact moment" of "ball still image" in the reference position information table in order from the left 6 A “ball still image” having the number of still images is displayed. That is, the fourth still image from the left corresponds to the still image number of “impact instant” of “ball still image” in the reference position information table.

オペレータは、スイング画像同期画面に表示された「後方静止画像」及び「ボール静止画像」について、「インパクト瞬間」に対応する静止画像を選択する操作を行う。
図12に示すように、2行目の右から3番目(以後、2行目−3番目と記載)の静止画像即ち「後方静止画像」の「インパクト瞬間」の静止画像及び3行目−4番目の静止画像即ち「ボール静止画像」の「インパクト瞬間」の静止画像の下方にそれぞれ画像送りゲージ40、50が表示される。オペレータは、2行目−3番目の静止画像の下方に表示された画像送りゲージ40を操作することで「後方静止画像」の「インパクト瞬間」に対応する静止画像を選択し、3行目−4番目の静止画像の下方に表示された画像送りゲージ50を操作することで「ボール静止画像」の「インパクト瞬間」に対応する静止画像を選択する。スイング画像同期画面に表示される画像送りゲージ40、50の操作方法は、スイング対象抽出画面における画像送りゲージ30と同様である。
The operator performs an operation of selecting a still image corresponding to the “impact moment” for the “rear still image” and “ball still image” displayed on the swing image synchronization screen.
As shown in FIG. 12, the third still image from the right of the second row (hereinafter referred to as the second row and the third), that is, the “impact moment” still image of the “rear still image” and the third row −4 Image feed gauges 40 and 50 are displayed below the still image of the “impact moment” of the second still image, that is, the “ball still image”. The operator selects the still image corresponding to the “impact moment” of the “rear still image” by operating the image feed gauge 40 displayed below the second row—the third still image, and the third row— A still image corresponding to the “impact moment” of the “ball still image” is selected by operating the image feed gauge 50 displayed below the fourth still image. The operation method of the image feed gauges 40 and 50 displayed on the swing image synchronization screen is the same as that of the image feed gauge 30 on the swing target extraction screen.

オペレータにより2行目−3番目の画像送りゲージ40が操作されると、CPU11は2行目に表示されている各静止画像の表示内容を更新する。具体的には、CPU11は、2行面−3番目の画像送りゲージ40に対する操作に応じて、スイング対象抽出画面における表示内容の更新と同様の仕組みで2行目−3番目の静止画像の表示内容を更新する。   When the operator operates the second-third image feed gauge 40 by the operator, the CPU 11 updates the display content of each still image displayed on the second line. Specifically, the CPU 11 displays the second and third still images by the same mechanism as the update of the display content on the swing target extraction screen in response to an operation on the second and third image feed gauges 40. Update the contents.

CPU11は、2行目−3番目の画像送りゲージ40の操作による2行目−3番目の静止画像の更新処理と共に、2行目−3番目の画像送りゲージ40の操作内容に応じて基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像の番号を置き換える。具体的には、CPU11は、2行目−3番目の静止画像の下方の画像送りゲージ40の操作に応じた静止画像の番号の遷移量に応じた加減算を基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像の番号のそれぞれに行い、その算出結果により基準位置情報テーブルを更新する。例えば、2行目−3番目の画像送りゲージ40の右端の矢印ボタンがクリック操作された場合、CPU11は2行目−3番目の静止画像の番号をそれまでより1大きい静止画像の番号を有する静止画像に更新すると共に、基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像の番号にそれぞれ1を加算する。   The CPU 11 updates the second line and the third image feed gauge 40 by operating the second line and the third image feed gauge 40 together with the reference position according to the operation content of the second line and the third image feed gauge 40. Replace the numbers of the still images of “Takeback position”, “Start swinging down”, “Impact of impact” and “End of follow-through” of “Backward still image” in the information table. Specifically, the CPU 11 performs addition / subtraction according to the transition amount of the still image number in accordance with the operation of the image feed gauge 40 below the second row to the third still image in the “rear still image” of the reference position information table. "Take back position", "start swinging down", "impact moment" and "follow-through end" of the still image number, and update the reference position information table based on the calculation result. For example, when the arrow button at the right end of the second line to the third image feed gauge 40 is clicked, the CPU 11 has the still image number which is 1 greater than the second line to the third still image number. In addition to updating to a still image, 1 is added to each of the still image numbers of “take back position”, “starting to swing down”, “impact instant”, and “follow-through end” of “rear still image” in the reference position information table. .

さらに、CPU11は、2行目の他の静止画像の表示内容を更新後の基準位置情報テーブルの静止画像の番号に対応させる。つまり、2行目−3番目の画像送りゲージ40の操作により、2行目に表示された4つの静止画像に対して同時に画像送りが行われることとなる。例えば、2行目−3番目の画像送りゲージ40の右端の矢印ボタンがクリック操作された場合、2行目の4つの静止画像の表示内容はそれぞれ、それまで表示されていた静止画像の番号よりも1大きい静止画像の番号を有する静止画像に更新される。即ち、CPU11は、スイング画像同期画面の2行目に表示されている4つの静止画像が有する静止画像の番号と、基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号とが同一となるよう制御する。   Further, the CPU 11 associates the display content of the other still image in the second row with the number of the still image in the updated reference position information table. That is, the image feed is simultaneously performed on the four still images displayed on the second line by the operation of the second-third image feed gauge 40. For example, when the arrow button at the right end of the second line to the third image feed gauge 40 is clicked, the display contents of the four still images in the second line are respectively determined from the still image numbers displayed so far. Is also updated to a still image having a still image number one larger. That is, the CPU 11 determines the number of the still image included in the four still images displayed on the second line of the swing image synchronization screen, the “take back position” of the “rear still image” in the reference position information table, and “starts to swing down”. ”,“ Impact moment ”, and“ follow-through end ”still image numbers are controlled to be the same.

オペレータにより3行目−4番目の画像送りゲージ50が操作されると、CPU11は前述の2行目の4枚の静止画像の更新と同様の仕組みで3行目−4番目の静止画像の表示内容を更新する。   When the operator operates the third-fourth image feed gauge 50, the CPU 11 displays the third-fourth still image by the same mechanism as the update of the four still images in the second row. Update the contents.

CPU11は、3行目−4番目の静止画像の更新処理と共に、3行目−4番目の画像送りゲージ50の操作内容に応じて基準位置情報テーブルの「ボール静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」及び「フォロースルー終了」の静止画像の番号を算出して更新する。CPU11は、以下の式(5)〜(8)により、「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を算出する。式(5)〜(8)において、Zはスイング画像同期画面に表示されている3行目−4番目の静止画像が有する静止画像の番号を示す。
Y1=Z−(X3−X1)×BLfps/FRfps……(5)
Y2=Z−(X3−X2)×BLfps/FRfps……(6)
Y3=Z……(7)
Y4=Z+(X4−X3)×BLfps/FRfps……(8)
The CPU 11 updates the third line to the fourth still image, along with the “takeback position” of the “ball still image” in the reference position information table according to the operation content of the third to fourth image feed gauge 50, Calculate and update the number of still images of “Start swinging down”, “Impact moment” and “End follow-through”. The CPU 11 calculates the number of still images of “takeback position”, “starting to swing down”, “impact moment”, and “end of follow-through” by the following formulas (5) to (8). In Expressions (5) to (8), Z indicates the number of a still image included in the third row-fourth still image displayed on the swing image synchronization screen.
Y1 = Z- (X3-X1) × BLfps / FRfps (5)
Y2 = Z- (X3-X2) × BLfps / FRfps (6)
Y3 = Z (7)
Y4 = Z + (X4-X3) × BLfps / FRfps (8)

つまり、CPU11は、3行目−4番目に表示された静止画像の番号を「ボール静止画像」の「インパクト瞬間」に対応する静止画像の番号とし、その番号に基づき「ボール静止画像」の「テークバック位置」、「振り下ろし開始」及び「フォロースルー終了」の静止画像の番号を算出する。式(5)、(6)、(8)による「ボール静止画像」の「テークバック位置」、「振り下ろし開始」及び「フォロースルー終了」の静止画像の番号の算出結果は、前述の式(1)〜(4)と同様、「正面静止画像」の「インパクト瞬間」と「テークバック開始」との間にある静止画像の枚数及び同一時間中を撮像した「正面静止画像」の枚数に対する「ボール静止画像」の枚数の比率に対応する。   That is, the CPU 11 sets the still image number displayed in the third line to the fourth line as the still image number corresponding to the “impact moment” of the “ball still image”, and the “ball still image” “ The numbers of still images of “takeback position”, “starting to swing down” and “ending follow-through” are calculated. The calculation results of the still image numbers of “take back position”, “starting to swing down”, and “end of follow-through” of the “ball still image” according to the equations (5), (6), and (8) are the above-described equations (1) ) To (4), the “ball stillness” with respect to the number of still images between the “impact moment” of the “front still image” and “start takeback” and the number of “front still images” taken during the same time period. This corresponds to the ratio of the number of “images”.

さらに、CPU11は、3行目の他の静止画像の表示内容を更新する。このとき、3行目の6枚の静止画像は、3行目−4番目の静止画像が有する静止画像の番号を基準として、−3、−2、−1、0、+1、+2を加算した静止画像の番号を有する「ボール静止画像」が左から順に並ぶよう制御される。つまり、3行目−4番目の静止画像の番号の遷移量に応じた分だけ3行目の他の静止画像の番号も遷移する。   Further, the CPU 11 updates the display content of another still image in the third row. At this time, the six still images in the third row are added with -3, -2, -1, 0, +1, +2 with reference to the still image number of the third row-the fourth still image. Control is performed so that “ball still images” having still image numbers are arranged in order from the left. That is, the numbers of the other still images in the third row are also changed by an amount corresponding to the transition amount of the numbers in the third row to the fourth still image.

以上により、スイング画像同期画面において、オペレータが2行目−3番目の「後方静止画像」が「インパクト瞬間」の静止画像を撮像した静止画像となるよう操作を行うと、2行目の4枚の静止画像は、左から順に、「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の瞬間に対応する静止画像となる。つまり、1行目の4つの静止画像と、2行目の4つの静止画像とは同期する関係となる。そして、基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号がスイング画像同期画面の2行目に表示された各静止画像と対応するよう置き換えられることにより、基準位置情報テーブルに記憶された「正面静止画像」の各静止画像の番号に対応した静止画像と、「後方静止画像」の各静止画像の番号に対応した静止画像とは同期する関係となる。   As described above, when the operator performs an operation on the swing image synchronization screen so that the second line-third “rear still image” becomes a still image obtained by capturing a still image of “impact moment”, four images in the second line From the left, the still images are still images corresponding to “takeback position”, “starting to swing down”, “impact moment”, and “follow-through end” moments of “backward still image”. That is, the four still images in the first row and the four still images in the second row are in a synchronized relationship. In the reference position information table, “take back position”, “starting to swing down”, “impact moment”, and “follow-through end” still image numbers are displayed on the second line of the swing image synchronization screen. By replacing the corresponding still image with the corresponding still image, the still image corresponding to the still image number of the “front still image” stored in the reference position information table and the still image of the “rear still image” are stored. The still image corresponding to the number is synchronized with the still image.

同様に、スイング画像同期画面において、オペレータが3行目−4番目の「ボール静止画像」が「インパクト瞬間」の静止画像を撮像した静止画像となるよう操作を行うと、3行目−4番目の静止画像は1行目−3番目の静止画像即ち「正面静止画像」の「インパクト瞬間」と同期する関係となる。そして、基準位置情報テーブルの「ボール静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号が式(5)〜(8)の算出結果による静止画像の番号に更新されることにより、基準位置情報テーブルに記憶された「正面静止画像」の各静止画像の番号に対応した静止画像と、「ボール静止画像」の各静止画像の番号に対応した静止画像とは同期する関係となる。   Similarly, on the swing image synchronization screen, when the operator performs an operation so that the third-fourth “ball still image” becomes a still image obtained by capturing a still image of “impact moment”, the third-fourth row The still image is synchronized with the “impact instant” of the first-third still image, that is, the “front still image”. Then, the numbers of the still images of “take back position”, “starting to swing down”, “impact moment”, and “end of follow-through” of the “ball still image” in the reference position information table are calculated according to equations (5) to (8). The number of the still image corresponding to the number of each still image of the “front still image” and the number of each still image of the “ball still image” stored in the reference position information table by being updated to the number of the still image according to the result It is in a synchronized relationship with a still image corresponding to.

「正面静止画像」と「後方静止画像」とが同期し、「正面静止画像」と「ボール静止画像」とが同期することで、「後方静止画像」と「ボール静止画像」も同期する。   The “front still image” and the “back still image” are synchronized, and the “front still image” and the “ball still image” are synchronized, so that the “rear still image” and the “ball still image” are also synchronized.

スイング画像同期画面では、2行目−3番目の静止画像又は3行目−4番目の静止画像に対してのみフォーカスを当てることができ、その静止画像を変更することができる。他の静止画像に対して個別にフォーカスを当て、個別に静止画像を変更することはできない。つまり、3つの静止画像の同期処理は、「正面静止画像」、「後方静止画像」及び「ボール静止画像」の同期は「インパクト瞬間」の静止画像の対応付けと、「正面静止画像」の「インパクト瞬間」の静止画像の番号と「テークバック開始」、「振り下ろし開始」及び「フォロースルー終了」の静止画像の番号との差と、「正面静止画像」の元になった動画ファイルFRのfpsに対する各静止画像の元になった動画ファイルのfpsの比率と、各静止画像における「インパクト瞬間」の静止画像が有する静止画像の番号とによって行われる。   On the swing image synchronization screen, it is possible to focus only on the second-third still image or the third-fourth still image, and the still image can be changed. It is not possible to focus on other still images individually and change the still images individually. In other words, the synchronization processing of the three still images is performed by synchronizing the “front still image”, the “rear still image”, and the “ball still image” with each other by associating the still image of “impact moment” with the “front still image” “ The difference between the number of the still image of “Impact moment” and the number of the still image of “Start takeback”, “Start swing down” and “End of follow-through”, and the fps of the video file FR that is the origin of the “Front still image” This is performed according to the ratio of the fps of the moving image file that is the basis of each still image and the number of the still image included in the “impact instant” still image in each still image.

スイング画像同期画面には、スイング画像同期を終了することを入力指示するキーが併せて表示されている(例えば画面右上の×ボタン)。スイング画像同期を終了することを入力指示するキーがクリックされると、CPU11はスイング画像同期画面の表示を終了する。このとき、表示を終了する直前のスイング画像同期画面に表示された2行目の4枚の静止画像の番号が基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」にそれぞれ記憶され、3行目−4番目の静止画像の番号に基づいて式(5)〜(8)により算出される静止画像の番号が基準位置情報テーブルの「ボール静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」にそれぞれ記憶されている。   On the swing image synchronization screen, a key for instructing to end the swing image synchronization is also displayed (for example, an x button on the upper right of the screen). When the key for instructing to end the swing image synchronization is clicked, the CPU 11 ends the display of the swing image synchronization screen. At this time, the numbers of the four still images in the second row displayed on the swing image synchronization screen immediately before the display ends are “take back position” and “start to swing down” of “rear still image” in the reference position information table. , “Impact moment” and “follow-through end” are stored respectively, and the still image number calculated by the formulas (5) to (8) based on the number of the still image in the third line to the fourth line is the reference position information. Stored in “Takeback position”, “Start swinging down”, “Impact moment”, and “Follow-through end” of the “Ball still image” of the table.

次に、画像処理装置10の処理の流れについて、図13及至図16のフローを用いて説明する。
まず、スイング対象抽出における画像処理装置10の処理の流れについて説明する。
図13及び図14に、スイング対象抽出の処理内容を示すフローチャートを示す。図13はスイング対象抽出の処理内容のうち、ステップS21からステップS31までの処理内容を示すフローチャートである。図14はスイング対象抽出の処理内容のうち、ステップS32からステップS44までの処理内容を示すフローチャートである。
Next, the flow of processing of the image processing apparatus 10 will be described using the flow of FIG. 13 to FIG.
First, the process flow of the image processing apparatus 10 in the swing target extraction will be described.
FIG. 13 and FIG. 14 are flowcharts showing the processing contents of the swing target extraction. FIG. 13 is a flowchart showing the processing contents from step S21 to step S31 among the processing contents of the swing target extraction. FIG. 14 is a flowchart showing the processing contents from step S32 to step S44 among the processing contents of the swing target extraction.

CPU11は、カメラ2、3、4によって撮像された動画ファイルのうちいずれか一つを記憶装置14から読み込み(ステップS21)、当該動画ファイルから静止画像を生成して(ステップS22)生成した静止画像を個別のファイルとして動画ファイルの名前に連番を付して記憶装置14に保存する(ステップS23)。ステップS2の処理において、CPU11は静止画像を生成する元となる動画ファイルのfpsを取得してそのfpsに応じた秒間枚数の静止画像を生成する。そして、CPU11はステップS2の処理において取得した動画ファイルのfpsを記憶装置14に記憶する(ステップS24)。   The CPU 11 reads any one of the moving image files captured by the cameras 2, 3, and 4 from the storage device 14 (step S21), generates a still image from the moving image file (step S22), and generates the still image. Are stored in the storage device 14 with serial numbers attached to the names of the moving image files as individual files (step S23). In the process of step S2, the CPU 11 acquires fps of a moving image file that is a source for generating a still image, and generates still images for the number of seconds corresponding to the fps. And CPU11 memorize | stores the fps of the moving image file acquired in the process of step S2 in the memory | storage device 14 (step S24).

ステップS24の後、CPU11はカメラ2、3、4によって撮像された3つの動画の全てについて静止画像の生成及びfpsの記憶がなされたか判定する(ステップS25)。3つの動画ファイルのうち、まだ静止画像が生成されていない動画ファイルがある場合(ステップS25:NO)、CPU11は静止画像が生成されていない動画ファイルを指定して(ステップS26)ステップS1以降の処理を行う。3つの動画ファイル全てについて静止画像の生成及びfpsの記憶がなされている場合(ステップS25:YES)、CPU11は静止画像の番号が最小の「正面静止画像」を読み込み(ステップS27)、基準位置情報テーブルを初期化状態で生成して記憶装置14に記憶し(ステップS28)、スイング対象抽出画面を表示装置16に表示させる(ステップS29)。ステップS29で表示されたスイング対象抽出画面には、ステップS27で読み込んだ「正面静止画像」が4つ並んで表示されている。   After step S24, the CPU 11 determines whether still images are generated and fps are stored for all three moving images captured by the cameras 2, 3, 4 (step S25). When there is a moving image file in which a still image has not yet been generated among the three moving image files (step S25: NO), the CPU 11 designates a moving image file in which a still image has not been generated (step S26). Process. When still images are generated and fps are stored for all three moving image files (step S25: YES), the CPU 11 reads the “front still image” with the smallest still image number (step S27), and the reference position information. A table is generated in an initialized state and stored in the storage device 14 (step S28), and a swing target extraction screen is displayed on the display device 16 (step S29). On the swing target extraction screen displayed in step S29, four “front still images” read in step S27 are displayed side by side.

その後、CPUはスイング対象抽出画面のいずれかの静止画像に対するクリック操作が行われるまで待機する(ステップS30:NO)。いずれかの静止画像に対してクリック操作が行われると(ステップS30:YES)、CPU11は、その画像にフォーカスが当たっていることを示す表示を行う(ステップS31)。そして、CPU11は、画像送りゲージ30に対するクリック操作(ステップS32、ステップS37)、他の静止画像がクリック操作(ステップS39)又はスイング対象抽出を終了する入力指示(ステップS40)のいずれかが行われるまで待機する。   Thereafter, the CPU waits until a click operation is performed on any one of the still images on the swing target extraction screen (step S30: NO). When a click operation is performed on any one of the still images (step S30: YES), the CPU 11 performs a display indicating that the image is focused (step S31). Then, the CPU 11 performs either a click operation on the image feed gauge 30 (Step S32, Step S37), a click operation on another still image (Step S39), or an input instruction (Step S40) to end the swing target extraction. Wait until.

画像送りゲージ30の矢印ボタン32、32のいずれか一方がクリック操作されると(ステップS32:YES)、CPU11はそのときフォーカスが当たっている静止画像が有する静止画像の番号から更新後に表示する静止画像の番号を算出し(ステップS33)、ステップS33で算出された静止画像の番号を有する「正面静止画像」が存在するかどうか判定する(ステップS34)。ステップS33で算出された静止画像の番号を有する「正面静止画像」が存在する場合(ステップS34:YES)、CPU11はフォーカスが当たっている静止画像の表示内容をステップS33で算出された静止画像の番号を有する静止画像に置き換えて更新し(ステップS35)、基準位置情報テーブルのうちフォーカスが当たっている静止画像に対応する静止画像の番号をステップS33で算出された静止画像の番号に置き換えて更新する(ステップS36)。ステップS34において、ステップS33で算出された静止画像の番号を有する「正面静止画像」が存在しない場合(ステップS34:NO)、ステップS32の判定に戻る。   When either one of the arrow buttons 32 and 32 of the image feed gauge 30 is clicked (step S32: YES), the CPU 11 displays the still image displayed after the update from the still image number of the still image focused at that time. An image number is calculated (step S33), and it is determined whether or not a “front still image” having the still image number calculated in step S33 exists (step S34). If there is a “front still image” having the still image number calculated in step S33 (step S34: YES), the CPU 11 displays the display content of the focused still image in the still image calculated in step S33. The still image having the number is replaced and updated (step S35), and the still image number corresponding to the focused still image in the reference position information table is replaced with the still image number calculated in step S33. (Step S36). If there is no “front still image” having the still image number calculated in step S33 in step S34 (step S34: NO), the process returns to the determination in step S32.

画像送りゲージ30の矢印ボタン32、32のいずれか一方がクリック操作されず(ステップS32:NO)、画像送りゲージ30の空白部分33がクリック操作されると(ステップS37:YES)、CPU11はあらかじめ記憶装置14に記憶されている変数SKIPの値、即ち所定の間引き量を読み出す(ステップS38)。その後、CPU11はステップS38で得た間引き量に基づき前述のステップS33以降の処理を行う。   When either one of the arrow buttons 32 and 32 of the image feed gauge 30 is not clicked (step S32: NO) and the blank portion 33 of the image feed gauge 30 is clicked (step S37: YES), the CPU 11 pre- The value of the variable SKIP stored in the storage device 14, that is, a predetermined thinning amount is read (step S38). Thereafter, the CPU 11 performs the processing from step S33 onward based on the thinning amount obtained in step S38.

画像送りゲージ30の空白部分33がクリック操作されず(ステップS37:NO)、そのときフォーカスが当たっている静止画像とは別の静止画像がクリックされると(ステップS39:YES)、ステップS31の処理に戻る。   If the blank portion 33 of the image feed gauge 30 is not clicked (step S37: NO), and if a still image different from the focused still image is clicked (step S39: YES), the process proceeds to step S31. Return to processing.

そのときフォーカスが当たっている静止画像とは別の静止画像がクリックされず(ステップS39:NO)、スイング対象抽出を終了する入力指示が行われると(ステップS40:YES)、CPU11は表示装置16によるスイング対象抽出画面の表示を終了させる(ステップS41)。   At that time, if a still image different from the focused still image is not clicked (step S39: NO) and an input instruction to end the swing target extraction is issued (step S40: YES), the CPU 11 displays the display device 16. The display of the swing target extraction screen is terminated (step S41).

ステップS41の後、CPU11は、基準位置情報テーブルの「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を、「正面静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号と同一とするよう基準位置情報テーブルを更新する(ステップS42)。
そして、CPU11は、「正面静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号に基づき、式(1)〜(4)により「ボール静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を算出し(ステップS43)、ステップS44の算出結果を基準位置情報テーブルに反映、更新する(ステップS44)。以上でスイング対象抽出は終了する。
After step S41, the CPU 11 assigns the numbers of the still images of “take back position”, “start to swing down”, “impact moment”, and “follow-through end” of “rear still image” in the reference position information table to “front stationary image”. The reference position information table is updated so as to be the same as the still image numbers of “takeback position”, “starting to swing down”, “impact moment”, and “followthrough end” of “image” (step S42).
Then, based on the still image numbers of “take back position”, “starting to swing down”, “impact moment”, and “end of follow-through” of the “front still image”, the CPU 11 calculates “ The numbers of the still images of “Takeback position”, “Start swinging down”, “Impact of impact”, “End of follow-through” of “Ball still image” are calculated (step S43), and the calculation result of step S44 is stored in the reference position information table. Reflect and update (step S44). This completes the swing target extraction.

次に、スイング画像同期における画像処理装置10の処理の流れについて説明する。
図15及び図16に、スイング画像同期の処理内容を示すフローチャートを示す。図15はスイング画像同期の処理内容のうち、ステップS51からステップS60までの処理内容を示すフローチャートである。図16はスイング対象抽出の処理内容のうち、ステップS61からステップS73までの処理内容を示すフローチャートである。
CPU11は、基準位置情報テーブルを読み込む(ステップS51)。次に、CPU11は、スイング画像同期画面を表示する(ステップS52)。ステップS52では、スイング画像同期画面は枠組みが表示されるのみであり、1〜3行目の各静止画像はまだ表示されていない。
Next, a processing flow of the image processing apparatus 10 in swing image synchronization will be described.
15 and 16 are flowcharts showing the processing contents of the swing image synchronization. FIG. 15 is a flowchart showing the processing contents from step S51 to step S60 among the processing contents of the swing image synchronization. FIG. 16 is a flowchart showing the processing contents from step S61 to step S73 among the processing contents of the swing target extraction.
The CPU 11 reads the reference position information table (step S51). Next, the CPU 11 displays a swing image synchronization screen (step S52). In step S52, only the framework is displayed on the swing image synchronization screen, and the still images in the first to third rows are not yet displayed.

ステップS52の後、CPU11は、ステップS51で読み込んだ「正面静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を有する静止画像を順次読み込んで表示する(ステップS53)。ステップS53の処理は、4つの「正面静止画像」の表示が完了するまで繰り返し行われる(ステップS54:NO)。   After step S52, the CPU 11 reads still images having the still image numbers of “take back position”, “start to swing down”, “impact moment”, and “follow-through end” of the “front still image” read in step S51. The data are sequentially read and displayed (step S53). The process of step S53 is repeated until the display of the four “front still images” is completed (step S54: NO).

4つの「正面静止画像」の表示が完了すると(ステップS54:YES)、CPU11は、ステップS51で読み込んだ「後方静止画像」の「テークバック位置」、「振り下ろし開始」、「インパクト瞬間」、「フォロースルー終了」の静止画像の番号を有する静止画像を順次読み込んで表示する(ステップS55)。ステップS55の処理は、4つの「後方静止画像」の表示が完了するまで繰り返し行われる(ステップS56:NO)。   When the display of the four “front still images” is completed (step S54: YES), the CPU 11 “take back position”, “start swinging down”, “impact moment”, “impact moment”, “ Still images having still image numbers of “follow-through end” are sequentially read and displayed (step S55). The process in step S55 is repeated until the display of the four “rear still images” is completed (step S56: NO).

4つの「後方静止画像」の表示が完了すると(ステップS56:YES)、CPU11は、ステップS51で読み込んだ「ボール静止画像」の「インパクト瞬間」の静止画像の番号を有する静止画像とその前後の静止画像(「ボール静止画像」の「インパクト瞬間」の静止画像の番号を基準として−3、−2、−1、±0、+1、+2である静止画像の番号を有する静止画像を順次読み込んで表示する(ステップS57)。ステップS57の処理は、6つの「ボール静止画像」の表示が完了するまで繰り返し行われる(ステップS58:NO)。   When the display of the four “rear still images” is completed (step S56: YES), the CPU 11 has the still image number “impact moment” of the “ball still image” read in step S51 and the front and rear Still images (still images having still image numbers of −3, −2, −1, ± 0, +1, +2 are read sequentially with reference to the still image number of “impact moment” of “ball still image”. (Step S57) The process of step S57 is repeated until the display of the six “ball still images” is completed (step S58: NO).

ステップS57の後、CPU11は2行目−3番目の静止画像又は3行目−4番目の静止画像のいずれか一方に対するクリック操作、即ち「後方静止画像」又は「ボール静止画像」の「インパクト瞬間」に対応する静止画像に対するクリック操作が行われるまで待機する(ステップS59:NO)。2行目−3番目の静止画像又は3行目−4番目の静止画像のいずれか一方に対するクリック操作が行われると(ステップS59:YES)、CPU11はクリックされた静止画像にフォーカスが当たったことを示す表示を行う(ステップS60)。そして、CPU11は、フォーカスが当たった静止画像の下方に表示された画像送りゲージ40、50のいずれか一方に対するクリック操作(ステップS61、ステップS69)、他方の静止画像に対するクリック操作(ステップS71)又はスイング画像同期を終了する入力指示(ステップS72)のいずれかが行われるまで待機する。   After step S57, the CPU 11 performs a click operation on one of the second row and the third still image or the third row and the fourth still image, that is, the “impact moment” of the “back still image” or the “ball still image”. It waits until a click operation is performed on the still image corresponding to "" (step S59: NO). When a click operation is performed on either the second or third still image or the third or fourth still image (step S59: YES), the CPU 11 has focused on the clicked still image. Is displayed (step S60). Then, the CPU 11 performs a click operation (Step S61, Step S69) on one of the image feed gauges 40 and 50 displayed below the focused still image, a click operation (Step S71) on the other still image, or It waits until any input instruction (step S72) for ending the swing image synchronization is performed.

画像送りゲージ40、50のいずれか一方の矢印ボタンのいずれか一方がクリック操作されると(ステップS61:YES)、CPU11はそのときフォーカスが当たっている静止画像が有する静止画像の番号から更新後に表示する静止画像の番号を算出し(ステップS62)、ステップS62で算出された静止画像の番号を有する「正面静止画像」が存在するかどうか判定する(ステップS63)。ステップS62で算出された静止画像の番号を有する「正面静止画像」が存在する場合(ステップS63:YES)、CPU11はフォーカスが当たっている静止画像の表示内容をステップS62で算出された静止画像の番号を有する静止画像に置き換えて更新する(ステップS64)。そして、CPU11は基準位置情報テーブルのうちフォーカスが当たっている静止画像の種類(「後方静止画像」又は「ボール静止画像」)に対応する「インパクト瞬間」の静止画像の番号をステップS62で算出された静止画像の番号に置き換えて更新すると共に、フォーカスの当たっている静止画像の種類の「テークバック開始」、「振り下ろし開始」及び「フォロースルー終了」の静止画像の番号を算出して基準位置情報テーブルを更新する(ステップS65)。   When either one of the arrow buttons of the image feed gauges 40 and 50 is clicked (step S61: YES), the CPU 11 updates the number from the still image of the still image that is in focus at that time. The number of the still image to be displayed is calculated (step S62), and it is determined whether there is a “front still image” having the still image number calculated in step S62 (step S63). When there is a “front still image” having the still image number calculated in step S62 (step S63: YES), the CPU 11 displays the display content of the focused still image in the still image calculated in step S62. The still image having the number is replaced and updated (step S64). Then, the CPU 11 calculates the number of the still image of “impact moment” corresponding to the type of still image in focus (“backward still image” or “ball still image”) in the reference position information table in step S62. The reference position information is calculated by replacing the still image number with the updated still image number and calculating the still image number of the “takeback start”, “downward start” and “follow-through end” of the type of the still image that is in focus. The table is updated (step S65).

ステップS65の後、CPU11は、フォーカスが当たっている静止画像が「後方静止画像」であるかどうか判定する(ステップS66)。「後方静止画像」の場合(ステップS66:YES)、ステップS62で算出した更新後の静止画像の番号に応じて、スイング画像同期画面の2行目に表示された「後方静止画像」の「テークバック開始」、「振り下ろし開始」及び「フォロースルー終了」に対応する3枚の静止画像の表示内容を更新する(ステップS67)。ステップS66において、フォーカスが当たっている静止画像が「ボール静止画像」の場合(ステップS66:NO)、ステップS62で算出した更新後の静止画像の番号に応じて、スイング画像同期画面の3行目に表示された「インパクト瞬間」以外の5枚の静止画像の表示内容を更新する(ステップS68)。   After step S65, the CPU 11 determines whether or not the focused still image is a “rear still image” (step S66). In the case of “rear still image” (step S66: YES), “take back” of “rear still image” displayed on the second line of the swing image synchronization screen according to the updated still image number calculated in step S62. The display contents of the three still images corresponding to “Start”, “Start swinging down”, and “Follow-through end” are updated (step S67). In step S66, if the focused still image is a “ball still image” (step S66: NO), the third row of the swing image synchronization screen is displayed according to the updated still image number calculated in step S62. The display contents of the five still images other than the “impact moment” displayed on the screen are updated (step S68).

ステップS63において、ステップS62で算出された静止画像の番号を有する静止画像が存在しない場合(ステップS63:NO)、ステップS61の判定に戻る。   In step S63, if there is no still image having the still image number calculated in step S62 (step S63: NO), the process returns to the determination in step S61.

画像送りゲージ40、50のいずれか一方の矢印ボタンのいずれか一方がクリック操作されず(ステップS61:NO)、画像送りゲージ40、50の空白部分がクリック操作されると(ステップS69:YES)、CPU11はあらかじめ記憶装置14に記憶されている変数SKIPの値、即ち所定の間引き量を読み出す(ステップS70)。その後、CPU11はステップS70で得た間引き量に基づき前述のステップS62以降の処理を行う。   When either one of the arrow buttons of the image feed gauges 40 and 50 is not clicked (step S61: NO), and a blank portion of the image feed gauges 40 and 50 is clicked (step S69: YES). The CPU 11 reads the value of the variable SKIP stored in the storage device 14 in advance, that is, the predetermined thinning amount (step S70). Thereafter, the CPU 11 performs the processing after step S62 described above based on the thinning amount obtained in step S70.

画像送りゲージ40、50の空白部分がクリック操作されず(ステップS69:NO)、そのときフォーカスが当たっている「インパクト瞬間」の静止画像とは異なる静止画像、即ち他方の「インパクト瞬間」の静止画像がクリックされると(ステップS71:YES)、ステップS60の処理に戻る。   A blank portion of the image feed gauges 40 and 50 is not click-operated (step S69: NO), and a still image different from the still image of the “impact moment” that is focused at that time, that is, the still image of the other “impact moment” When the image is clicked (step S71: YES), the process returns to step S60.

他方の「インパクト瞬間」の静止画像がクリックされず(ステップS71:NO)、スイング対象抽出を終了する入力指示が行われると(ステップS72:YES)、CPU11は表示装置16によるスイング対象抽出画面の表示を終了させる(ステップS73)。以上でスイング画像同期は終了する。   If the other “impact moment” still image is not clicked (step S71: NO) and an input instruction to end the swing target extraction is given (step S72: YES), the CPU 11 displays the swing target extraction screen on the display device 16. The display is terminated (step S73). This completes the swing image synchronization.

本実施形態によれば、スイング画像同期画面において「正面静止画像」の「インパクト瞬間」の静止画像と同一のタイミングを撮像した「後方静止画像」及び「ボール静止画像」の静止画像を、画像送りゲージに対する入力を介して手動で選択することができ、CPU11は、スイング画像同期画面において選択された「後方静止画像」及び「ボール静止画像」の静止画像の番号を「インパクト瞬間」の静止画像の番号として「正面静止画像」の「インパクト瞬間」の静止画像の番号と対応付けて基準位置情報テーブルに記憶させる。これによって、複数のカメラ2、3、4によってそれぞれ異なる角度から撮像された複数の動画から生成された静止画像同士を良好に同期させることができる。この同期処理においては、音声の取得による同期処理のための構成や、画像を解析するための専用のアルゴリズム等を必要としないので、低コストで同期処理を行うことができる。
加えて、手動による同期処理であるので、カメラのアングルの変更等、各種条件に変更が生じても、オペレータの判断により同一のタイミングを撮像した静止画像同士の判別を良好に行うことができ、極めて柔軟性の高い同期処理を実現することができる。
さらに、スイング対象抽出画面において「正面静止画像」の「インパクト瞬間」の静止画像を選択することができる。これによって、オペレータは各動画から生成された静止画像を同期させるための基準となる静止画像を任意に選択することができる。
According to this embodiment, on the swing image synchronization screen, the still image of the “rear still image” and the “ball still image” captured at the same timing as the “impact moment” still image of the “front still image” The CPU 11 can manually select via the input to the gauge, and the CPU 11 sets the number of the still image of the “rear still image” and “ball still image” selected on the swing image synchronization screen of the still image of “impact moment”. The number is stored in the reference position information table in association with the still image number of “impact moment” of “front still image”. Thereby, it is possible to satisfactorily synchronize still images generated from a plurality of moving images taken from different angles by the plurality of cameras 2, 3, 4. This synchronization process does not require a configuration for the synchronization process by acquiring the sound, a dedicated algorithm for analyzing the image, and the like, and therefore the synchronization process can be performed at a low cost.
In addition, since it is a manual synchronization process, even if various conditions such as a camera angle change occur, it is possible to satisfactorily discriminate between still images captured at the same timing by the operator's judgment, An extremely flexible synchronization process can be realized.
Furthermore, the “impact moment” still image of the “front still image” can be selected on the swing target extraction screen. Thus, the operator can arbitrarily select a still image as a reference for synchronizing still images generated from the moving images.

さらに、CPU11は、同期動画作成により作成された動画ファイルを再生することで、ステップS4のスイング画像同期を経て同期した静止画像に基づいて複数グループの画像を同期させて再生する。これによって、複数の撮影方向から撮影された複数グループのゴルフスイングの画像を同期させた状態で確認することができ、ゴルフスイング中の被写体Hの姿勢やゴルフクラブのヘッド位置の移動軌跡、ゴルフボールの移動軌跡等を良好に把握することができる。   Further, the CPU 11 reproduces the moving image file created by creating the synchronized moving image, thereby reproducing the images of the plurality of groups in synchronization based on the still images synchronized through the swing image synchronization in step S4. As a result, it is possible to confirm a plurality of groups of golf swing images photographed from a plurality of photographing directions in a synchronized state, and the posture of the subject H during the golf swing, the movement locus of the golf club head position, the golf ball It is possible to satisfactorily grasp the movement trajectory and the like.

さらに、スイング対象抽出画面において「正面静止画像」の「テークバック開始」、「振り下ろし開始」及び「フォロースルー終了」の静止画像を選択することができる。   Further, on the swing target extraction screen, it is possible to select “take back start”, “start swinging down”, and “follow-through end” still images of the “front still image”.

さらに、スイング対象抽出画面において「正面静止画像」の「テークバック開始」及び「フォロースルー終了」の静止画像を選択することで、ゴルフスイング中を撮像している複数の静止画像を抽出することができる。これによって、スイング解析の対象とならない他の複数の静止画像を処理対象から外すことができ、処理の負荷を大幅に軽減することができる上、スイング画像同期の処理により多くのマシンパワーリソースを割り振ることができるので、軽快な同期処理を実現することができる。   Furthermore, by selecting the “takeback start” and “followthrough end” still images of the “front still image” on the swing target extraction screen, a plurality of still images captured during the golf swing can be extracted. . This makes it possible to remove other still images that are not subject to swing analysis from the processing target, greatly reducing the processing load, and allocating more machine power resources for the swing image synchronization processing. Therefore, a light synchronization process can be realized.

さらに、各動画から生成された静止画像には時系列に従って連続した番号が付され、CPU11は、各動画から生成された静止画像の「インパクト瞬間」に対応するそれぞれの静止画像の番号と、「正面静止画像」の「インパクト瞬間」の静止画像の番号に対する「テークバック開始」、「振り下ろし開始」及び「フォロースルー終了」の静止画像の番号の差と、各静止画像の元となった動画のfpsの比率とに基づいて「後方静止画像」及び「ボール静止画像」の「テークバック開始」、「振り下ろし開始」及び「フォロースルー終了」の静止画像の番号を求め、基準位置情報テーブルに記憶させる。つまり、CPU11は、「正面静止画像」と他の2種類の静止画像の同期処理を行うと共に、他の2種類の静止画像のスイング対象抽出を行う。これによって、一種類の静止画像に対するスイング対象抽出さえ行えば、他の種類の静止画像についてもスイング解析の対象となる複数の静止画像を特定でき、スイング解析の対象とならない他の複数の静止画像を処理対象から外すことができるので、一層処理の負荷を大幅に軽減することができる上、スイング画像同期の処理により多くのマシンパワーリソースを割り振ることができるので、軽快な同期処理を実現することができる。   Furthermore, the still image generated from each moving image is assigned a continuous number according to the time series, and the CPU 11 assigns the number of each still image corresponding to the “impact moment” of the still image generated from each moving image, and “ The difference between the still image number of “takeback start”, “downward start” and “follow-through end” with respect to the still image number of “impact moment” in the “front still image” and the video that is the source of each still image Based on the ratio of fps, the number of the still image of “takeback start”, “downward start” and “follow-through end” of “backward still image” and “ball still image” is obtained and stored in the reference position information table . That is, the CPU 11 performs a synchronization process between the “front still image” and the other two types of still images, and performs swing target extraction of the other two types of still images. As a result, as long as the swing target is extracted from one type of still image, a plurality of still images that are subject to swing analysis can be specified for other types of still images, and a plurality of other still images that are not subject to swing analysis. Can be removed from the processing target, so the processing load can be greatly reduced, and more machine power resources can be allocated for the swing image synchronization processing, thus realizing light synchronization processing. Can do.

なお、ゴルフスイング中の被写体Hを撮像する場合、300[fps]以上の高いfps設定で撮像することにより、ゴルフクラブのヘッドがゴルフボールを打つ瞬間(「インパクト瞬間」)の撮像画像を好適に得ることができる。つまり、300[fps]以上の高いfpsでゴルフスイング中の被写体Hを撮像することにより、その撮像動画をfpsに応じた数の静止画像に変換した場合、「インパクト瞬間」を撮像した静止画像が極めて高い確率で含まれている。
仮に、300[fps]未満でゴルフスイング中の被写体Hを撮像した場合、その撮像動画を静止画像に変換した場合に「インパクト瞬間」の静止画像を得られない確率が飛躍的に高まる。
When imaging the subject H during a golf swing, an image captured at a moment when the golf club head hits the golf ball (“impact moment”) is preferably obtained by imaging at a high fps setting of 300 [fps] or more. Can be obtained. That is, when the subject H during a golf swing is imaged at a high fps of 300 [fps] or more and the captured video is converted into a number of still images corresponding to fps, a still image obtained by capturing the “impact moment” It is included with extremely high probability.
If the subject H during a golf swing is imaged at less than 300 [fps], the probability that a “impact moment” still image cannot be obtained when the captured moving image is converted into a still image increases dramatically.

前述の実施形態における記述は、本発明の一例を示すものであり、これに限定しない。
例えば、本発明で扱う動画はゴルフスイングを撮影したものに限らず、動体の移動軌跡を撮像した動画ならば適用可能である。
例えば、野球のバットのスイングの移動軌跡とボールの移動軌跡を撮影したり、テニスのラケットスイングの移動軌跡とボールの移動軌跡を撮影したり、卓球のラケットスイングの移動軌跡とボールの移動軌跡を撮影したり、アイスホッケーのラケットスイングの移動軌跡とパッド(ボール)の移動軌跡を撮影したりするものに適用可能である。
The description in the above embodiment shows an example of the present invention, and the present invention is not limited to this.
For example, the moving image handled in the present invention is not limited to a moving image obtained by shooting a golf swing, and any moving image that captures a moving locus of a moving object is applicable.
For example, baseball bat swing movement trajectory and ball movement trajectory, tennis racket swing movement trajectory and ball movement trajectory, table tennis racket swing movement trajectory and ball movement trajectory, etc. The present invention can be applied to an object that shoots or shoots a movement trajectory of an ice hockey racket swing and a movement trajectory of a pad (ball).

画像処理装置10は、CPU11が処理内容に応じたソフトウェアを読み出して実行処理するソフトウェア処理により画像処理装置10の各機能を実現しているが、機能毎に専用の構成を設けてもよい。   The image processing apparatus 10 realizes each function of the image processing apparatus 10 by software processing in which the CPU 11 reads and executes software corresponding to the processing content, but a dedicated configuration may be provided for each function.

カメラは3台に限らず、2台又は4台以上でもよい。同期させたい動画の数に応じた静止画像を同期させるためのスイング画像同期画面等の同期静止画像選択画面が表示され、基準位置情報テーブル等の対応付け情報も動画の数に合わせて情報量の拡張又は縮小が行われる。   The number of cameras is not limited to three, but may be two or four or more. A synchronized still image selection screen such as a swing image synchronization screen for synchronizing still images according to the number of moving images to be synchronized is displayed, and the correspondence information such as the reference position information table also has an information amount corresponding to the number of moving images. Expansion or reduction is performed.

スイング対象抽出画面等のタイミング選択画面で選択可能な所定のタイミングは4つに限らず、任意の数のタイミングを設けることができる。タイミングの数に応じて、基準位置情報テーブル等の対応付け情報も情報量の拡張又は縮小が行われる。   The predetermined timing that can be selected on the timing selection screen such as the swing target extraction screen is not limited to four, and an arbitrary number of timings can be provided. Corresponding information such as a reference position information table is also expanded or reduced in information amount according to the number of timings.

その他、前述の実施形態で記載した数値、式等はあくまで一例であり、同期させる静止画像の元となる動画の数やfpsその他の各種条件に応じた最適な条件とすることを想定している。
例えば、前述の実施形態における「正面静止画像」と「後方静止画像」の元となる動画のfpsは同一であるため、「正面静止画像」の静止画像の番号を基準とした「後方静止画像」の静止画像の番号の算出に式による算出を伴わないが、両者の元となる動画のfpsが異なる場合には、「正面静止画像」と「ボール静止画像」との関係と同様、fps比率を考慮した式による静止画像の番号の算出を行う。
また、同期させた画像の再生は、同期動画作成による動画ファイルの再生に限らない。例えば、スイング画像同期によって同期した静止画像として対応付けられた静止画像の番号に基づいて複数グループの静止画像を同期させて並列に連続表示させるようにしてもよいし、同期した静止画像として対応付けられた静止画像に対応する元の動画における画像フレームの位置に基づいて各動画を同期させた状態で並列して再生するようにしてもよい。
In addition, the numerical values, formulas, and the like described in the above-described embodiment are merely examples, and it is assumed that optimum conditions are set according to the number of moving images that are the source of the still image to be synchronized, fps, and other various conditions. .
For example, since the fps of the movie that is the source of the “front still image” and the “rear still image” in the above embodiment are the same, the “rear still image” based on the still image number of the “front still image” If the fps of the video that is the source of the two images are different, the fps ratio is set as in the relationship between the “front still image” and the “ball still image”. The still image number is calculated according to a formula that takes into account.
The reproduction of the synchronized image is not limited to the reproduction of the moving image file by creating the synchronized moving image. For example, a plurality of groups of still images may be synchronized and displayed continuously in parallel based on the number of still images associated as synchronized still images by swing image synchronization, or may be associated as synchronized still images. The moving images may be reproduced in parallel in a synchronized state based on the position of the image frame in the original moving image corresponding to the still image.

2、3、4カメラ
5 HUB
6 プリンタ
7 ディスクライタ
10 画像処理装置
11 CPU
12 RAM
14 記憶装置
15 入力装置
16 表示装置
17、18、19 インターフェース
20 バス
H 被写体
P ピン
2, 3, 4 cameras 5 HUB
6 Printer 7 Discwriter 10 Image Processing Device 11 CPU
12 RAM
14 storage device 15 input device 16 display device 17, 18, 19 interface 20 bus H subject P pin

本発明は、画像処理装置、制御方法及びプログラムに関する。 The present invention relates to an image processing apparatus , a control method, and a program.

上記課題を解決するため、請求項1記載の発明による画像処理装置は、被写体の体勢が一連の動作の中で複数の体勢を経て変化する特定動作を撮影した動画像を複数取得する取得手段と、前記特定動作における複数の体勢のうちの1つを選択する選択手段と、前記取得手段により取得した複数の動画像の各々について、前記選択手段により選択した姿勢に対応する画像フレームの位置を特定する特定手段と、前記特定手段により特定された画像フレームの位置情報に基づいて、前記選択手段により選択した姿勢に対応するフレームを再生するタイミングが前記複数の動画像で同じになるように、前記複数の動画像の再生タイミングを同期させる同期手段と、を備えることを特徴とする。 In order to solve the above-described problem, an image processing apparatus according to the first aspect of the present invention includes an acquisition unit that acquires a plurality of moving images obtained by capturing a specific action in which the posture of a subject changes through a plurality of postures in a series of actions. Selecting a position of an image frame corresponding to the posture selected by the selection unit for each of a plurality of moving images acquired by the acquisition unit and a selection unit that selects one of a plurality of postures in the specific operation Based on the position information of the image frame specified by the specifying means and the specifying means, the timing for reproducing the frame corresponding to the posture selected by the selecting means is the same for the plurality of moving images. Synchronization means for synchronizing the reproduction timings of a plurality of moving images .

請求項2記載の発明は、更に、前記選択手段は、前記特定動作における複数の体勢のうちの複数を選択し、前記特定手段は、前記取得手段により取得した複数の動画像の各々について、前記選択手段により選択した複数の姿勢の各々に対応する画像フレームの位置を特定し、前記同期手段は、前記特定手段により特定された画像フレームの位置情報に基づいて、前記選択手段により選択した複数の姿勢の各々に対応するフレームを再生するタイミングが前記複数の動画像で同じになるように、前記複数の動画像の再生タイミングを同期させることを特徴とする。 According to a second aspect of the present invention, the selecting unit further selects a plurality of postures in the specific action, and the specifying unit is configured to select the plurality of moving images acquired by the acquiring unit. The position of the image frame corresponding to each of the plurality of postures selected by the selection unit is specified, and the synchronization unit is configured to select a plurality of images selected by the selection unit based on the position information of the image frame specified by the specification unit. The timings for reproducing the plurality of moving images are synchronized so that the timings for reproducing the frames corresponding to the respective postures are the same for the plurality of moving images .

請求項3記載の発明は、更に、前記取得手段により取得した複数の動画像の各々について、前記特定動作の開始タイミングから終了タイミングまでの間の複数の画像フレームを抽出する抽出手段と、前記特定手段は、前記抽出手段により抽出された複数の画像フレームの中から、前記選択手段により選択した姿勢に対応する画像フレームを特定することを特徴とする。 The invention according to claim 3 further includes an extracting unit that extracts a plurality of image frames from a start timing to an end timing of the specific operation for each of the plurality of moving images acquired by the acquiring unit, and the specifying The means is characterized in that an image frame corresponding to the posture selected by the selection means is specified from a plurality of image frames extracted by the extraction means .

請求項4記載の発明は、更に、前記取得手段により取得した複数の動画像は、前記特定動作の期間内に撮影された画像フレームの数が各々異なっており、前記抽出手段は、各動画像における前記特定動作の期間内に撮影された画像フレームの数の違いに応じて、各動画像から異なる数の画像フレームを抽出することを特徴とする。According to a fourth aspect of the present invention, the plurality of moving images acquired by the acquiring unit are different from each other in the number of image frames captured during the specific operation period, and the extracting unit A different number of image frames are extracted from each moving image in accordance with a difference in the number of image frames photographed during the specific operation period.
請求項5記載の発明は、更に、前記特定手段は、前記取得手段により取得した複数の動画像のうちの第1の動画像について、ユーザーに指定させた画像フレームの位置を、前記選択手段により選択した姿勢に対応する画像フレームの位置として特定し、前記第1の動画像とは異なる第2の動画像については、前記第1の動画像に対してユーザーが指定した画像フレームの位置に基づいて前記選択手段により選択した姿勢に対応する画像フレームの位置を自動的に特定することを特徴とする。According to a fifth aspect of the present invention, the specifying means uses the selecting means to determine the position of the image frame specified by the user for the first moving image of the plurality of moving images acquired by the acquiring means. The second moving image that is specified as the position of the image frame corresponding to the selected posture and is different from the first moving image is based on the position of the image frame specified by the user with respect to the first moving image. The position of the image frame corresponding to the posture selected by the selection means is automatically specified.
請求項6記載の発明は、更に、前記取得手段により取得した複数の動画像は、単位時間毎に撮影された画像フレームの数が各々異なっており、前記特定手段は、各動画像における前記単位時間毎に撮影された画像フレームの数の違いと、前記第1の動画像に対してユーザーが指定した画像フレームの位置とに基づいて、前記第2の動画像における前記選択手段により選択した姿勢に対応する画像フレームの位置を自動的に特定することを特徴とする。The invention according to claim 6 further includes that the plurality of moving images acquired by the acquiring unit differ in the number of image frames photographed per unit time, and the specifying unit includes the unit in each moving image. The posture selected by the selection means in the second moving image based on the difference in the number of image frames taken every time and the position of the image frame designated by the user with respect to the first moving image The position of the image frame corresponding to is automatically specified.
請求項7記載の発明は、更に、前記特定手段は、前記第1の動画像と前記第2の動画像における前記単位時間毎に撮影された画像フレームの数の比に応じて、前記第1の動画像に対してユーザーが指定した画像フレームの位置に対応する前記第2の動画像の画像フレームの位置を算出することを特徴とする。According to a seventh aspect of the present invention, the specifying means further includes the first moving image according to a ratio of the number of image frames taken per unit time in the first moving image and the second moving image. The position of the image frame of the second moving image corresponding to the position of the image frame designated by the user with respect to the moving image is calculated.
請求項8記載の発明は、更に、前記特定手段は、前記取得手段により取得した複数の動画像のうちの第1の動画像について、前記選択手段により選択した複数の姿勢の各々に対応する画像フレームの位置を特定した後、前記第1の動画像内の第1の姿勢に対応する画像フレームの位置に対応する前記第2の動画像内の前記第1の姿勢に対応する画像フレームの位置がユーザーにより指定されると、前記第1の動画像内の前記第1の姿勢とは異なる第2の姿勢に対応する画像フレームの位置に対応する前記第2の動画像内の前記第2の姿勢に対応する画像フレームの位置を自動的に特定することを特徴とする。According to an eighth aspect of the present invention, the specifying unit further includes an image corresponding to each of a plurality of postures selected by the selecting unit with respect to a first moving image of the plurality of moving images acquired by the acquiring unit. After specifying the position of the frame, the position of the image frame corresponding to the first posture in the second moving image corresponding to the position of the image frame corresponding to the first posture in the first moving image. Is specified by the user, the second in the second moving image corresponding to the position of the image frame corresponding to the second posture different from the first posture in the first moving image. The image frame position corresponding to the posture is automatically specified.
請求項9記載の発明は、更に、前記取得手段は、前記特定動作を行う被写体を複数の異なる撮影方向から撮影して得られた複数の動画像を取得することを特徴とする。The invention according to claim 9 is characterized in that the acquisition means acquires a plurality of moving images obtained by photographing the subject performing the specific operation from a plurality of different photographing directions.
請求項10記載の発明は、更に、画像フレームを選択するための操作入力手段を更に備え、前記特定手段は、少なくとも一の動画像に含まれる画像フレーム送り用の調整ゲージを有する第1操作画面を表示させ、この第1操作画面に基づいて前記操作入力手段を介して画像フレームを指定する第1の指定手段と、前記第1の指定手段により指定された画像フレームと、当該画像フレームに対応する他の動画像に含まれる画像フレーム送り用の調整ゲージとからなる第2操作画面を表示させ、この第2操作画面に基づいて前記操作入力手段を介して画像フレームを指定する第2の指定手段と、前記第1の指定手段により指定された画像フレームと、前記第2の指定手段により指定された画像フレームとを、前記選択手段により選択した姿勢に対応する各々の動画像の画像フレームとして特定することを特徴とする。The invention according to claim 10 further includes operation input means for selecting an image frame, and the specifying means has a first operation screen having an adjustment gauge for image frame feeding included in at least one moving image. The first designation means for designating an image frame via the operation input means based on the first operation screen, the image frame designated by the first designation means, and the image frame A second operation screen including an adjustment gauge for feeding an image frame included in another moving image to be displayed, and a second designation for designating an image frame via the operation input unit based on the second operation screen Means, an image frame specified by the first specifying means, and an image frame specified by the second specifying means in a posture selected by the selecting means. And identifies as an image frame of each of the moving image to be.

請求項11記載の発明による制御方法は、画像処理装置による動画像の再生を制御する制御方法であって、被写体の体勢が一連の動作の中で複数の体勢を経て変化する特定動作を撮影した動画像を複数取得する取得処理と、前記特定動作における複数の体勢のうちの1つを選択する選択処理と、前記取得処理により取得した複数の動画像の各々について、前記選択処理により選択した姿勢に対応する画像フレームの位置を特定する特定処理と、前記特定処理により特定された画像フレームの位置情報に基づいて、前記選択処理により選択した姿勢に対応するフレームを再生するタイミングが前記複数の動画像で同じになるように、前記複数の動画像の再生タイミングを同期させる同期処理と、を含むことを特徴とする。A control method according to an eleventh aspect of the present invention is a control method for controlling reproduction of a moving image by an image processing apparatus, wherein a specific motion in which the posture of a subject changes through a plurality of postures in a series of motions is photographed. An acquisition process for acquiring a plurality of moving images, a selection process for selecting one of a plurality of postures in the specific action, and a posture selected by the selection process for each of the plurality of moving images acquired by the acquisition process And a timing for reproducing a frame corresponding to the posture selected by the selection process based on the position information of the image frame specified by the specifying process and the position information of the image frame specified by the specifying process. And synchronization processing for synchronizing the reproduction timings of the plurality of moving images so that the images are the same.

請求項12記載の発明によるプログラムは、コンピュータを、被写体の体勢が一連の動作の中で複数の体勢を経て変化する特定動作を撮影した動画像を複数取得する取得手段と、前記特定動作における複数の体勢のうちの1つを選択する選択手段と、前記取得手段により取得した複数の動画像の各々について、前記選択手段により選択した姿勢に対応する画像フレームの位置を特定する特定手段と、前記特定手段により特定された画像フレームの位置情報に基づいて、前記選択手段により選択した姿勢に対応するフレームを再生するタイミングが前記複数の動画像で同じになるように、前記複数の動画像の再生タイミングを同期させる同期手段と、として機能させることを特徴とする。According to a twelfth aspect of the present invention, there is provided a program for acquiring a plurality of moving images obtained by photographing a specific motion in which a subject's posture changes through a plurality of postures in a series of motions; Selecting means for selecting one of the postures; specifying means for specifying the position of an image frame corresponding to the posture selected by the selecting means for each of the plurality of moving images acquired by the acquiring means; Based on the position information of the image frame specified by the specifying unit, the playback of the plurality of moving images is performed so that the timing for playing back the frame corresponding to the posture selected by the selecting unit is the same for the plurality of moving images. It is characterized by functioning as synchronization means for synchronizing timing.

Claims (6)

画像フレームを選択するための操作入力手段と、
撮影対象を複数の撮影方向から撮影して得られた複数グループの非同期動画像から前記各複数グループ単位の静止画像を得て、少なくとも一の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第1操作画面を表示手段に表示させ、前記第1操作画面に基づいて前記操作入力手段を介して選択された基準動作シーンと当該基準動作シーンに対応する他の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第2操作画面を表示手段に表示させ、前記基準動作シーンと前記第2操作画面で選択された一の静止画像とを同期した静止画像として対応付ける制御手段と、を備えることを特徴とする画像処理装置。
Operation input means for selecting an image frame;
Obtaining a still image of each of the plurality of groups from a plurality of groups of asynchronous moving images obtained by photographing a subject to be photographed from a plurality of photographing directions; and at least one still image operation scene and an adjustment frame for image frame feeding; A first operation screen comprising: a reference operation scene displayed on the display means, and a reference operation scene selected via the operation input means based on the first operation screen; and an operation scene of another still image corresponding to the reference operation scene; A control means for displaying on the display means a second operation screen comprising an adjustment gauge for image frame feeding, and associating the reference motion scene and the one still image selected on the second operation screen as a synchronized still image; An image processing apparatus comprising:
前記制御手段は、前記同期した静止画像に基づいて複数グループの画像を同期させて再生することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit reproduces images of a plurality of groups in synchronization based on the synchronized still images. 前記第1操作画面は、複数の動作シーンについてそれぞれ一の静止画像を選択可能であり、
前記基準動作シーンは、前記第1操作画面で選択された複数の静止画像のいずれか一であることを特徴とする請求項1又は2に記載の画像処理装置。
The first operation screen can select one still image for each of a plurality of operation scenes,
The image processing apparatus according to claim 1, wherein the reference motion scene is any one of a plurality of still images selected on the first operation screen.
前記第1操作画面で選択された複数の静止画像のうち最も過去の動作シーンを撮像した静止画像から最近の動作シーンを撮像した静止画像までの複数の静止画像を抽出する抽出手段を備えることを特徴とする請求項3に記載の画像処理装置。   An extraction unit configured to extract a plurality of still images from a still image obtained by capturing the most recent operation scene to a still image obtained by capturing a recent operation scene among the plurality of still images selected on the first operation screen; The image processing apparatus according to claim 3. 各グループの静止画像は、撮像の時系列に従って連続した番号を付され、
前記制御手段は、前記第2操作画面で選択された一の静止画像の番号、前記基準動作シーンの静止画像の番号ならびに前記第1操作画面で選択された複数の静止画像のうち最も過去の動作シーンを撮像した静止画像の番号及び最近の動作シーンを撮像した静止画像の番号に基づき、前記第2操作画面で選択された静止画像と同グループの静止画像のうち、前記抽出手段によって抽出された複数の静止画像と同一の動作シーンを撮像した複数の静止画像を抽出することを特徴とする請求項4に記載の画像処理装置。
The still images in each group are numbered consecutively according to the time series of imaging,
The control means includes the number of the one still image selected on the second operation screen, the number of the still image of the reference operation scene, and the past operation of the plurality of still images selected on the first operation screen. Based on the number of the still image capturing the scene and the number of the still image capturing the recent operation scene, the still image selected in the same group as the still image selected on the second operation screen is extracted by the extraction unit. The image processing apparatus according to claim 4, wherein a plurality of still images obtained by capturing the same operation scene as the plurality of still images are extracted.
コンピュータを、
画像フレームを選択するための操作入力手段と、
撮影対象を複数の撮影方向から撮影して得られた複数グループの非同期動画像から前記各複数グループ単位の静止画像を得て、少なくとも一の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第1操作画面を表示手段に表示させ、前記第1操作画面に基づいて前記操作入力手段を介して選択された基準動作シーンと当該基準動作シーンに対応する他の静止画像の動作シーンと画像フレーム送り用の調整ゲージとからなる第2操作画面を表示手段に表示させ、前記基準動作シーンと前記第2操作画面で選択された一の静止画像とを同期した静止画像として対応付ける制御手段、
として機能させることを特徴とするプログラム。
Computer
Operation input means for selecting an image frame;
Obtaining a still image of each of the plurality of groups from a plurality of groups of asynchronous moving images obtained by photographing a subject to be photographed from a plurality of photographing directions; and at least one still image operation scene and an adjustment frame for image frame feeding; A first operation screen comprising: a reference operation scene displayed on the display means, and a reference operation scene selected via the operation input means based on the first operation screen; and an operation scene of another still image corresponding to the reference operation scene; A control means for displaying on the display means a second operation screen comprising an adjustment gauge for image frame feeding, and associating the reference motion scene and the one still image selected on the second operation screen as a synchronized still image;
A program characterized by functioning as
JP2013108880A 2013-05-23 2013-05-23 Image processing apparatus, control method, and program Active JP5790710B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108880A JP5790710B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108880A JP5790710B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008299708A Division JP2010130084A (en) 2008-11-25 2008-11-25 Image processor and program

Publications (2)

Publication Number Publication Date
JP2013169013A true JP2013169013A (en) 2013-08-29
JP5790710B2 JP5790710B2 (en) 2015-10-07

Family

ID=49179007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108880A Active JP5790710B2 (en) 2013-05-23 2013-05-23 Image processing apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP5790710B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716109B1 (en) * 2015-11-25 2017-03-15 충북대학교 산학협력단 Method for time synchronization of a plurality of images and system displaying multi-images

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162736A (en) * 1992-11-18 1994-06-10 Pioneer Electron Corp Image recording and reproducing device
JPH10304299A (en) * 1997-02-27 1998-11-13 Yamaha Corp Picture recording and reproducing device, and medium for storing picture recording and reproduction program
JP2001036867A (en) * 1999-07-23 2001-02-09 Gen Tec:Kk Multi-channel video synchronous display
JP2002032978A (en) * 2000-07-13 2002-01-31 Sony Corp Imaging device, video data processing device, and non-linear editing device
JP2004304407A (en) * 2003-03-31 2004-10-28 Casio Comput Co Ltd Distribution system, playback device, and playback program
JP2005270508A (en) * 2004-03-26 2005-10-06 Sri Sports Ltd Diagnostic system for golf swing
JP2008141608A (en) * 2006-12-04 2008-06-19 Canon Inc Image display processing device and processing method of image display processing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162736A (en) * 1992-11-18 1994-06-10 Pioneer Electron Corp Image recording and reproducing device
JPH10304299A (en) * 1997-02-27 1998-11-13 Yamaha Corp Picture recording and reproducing device, and medium for storing picture recording and reproduction program
JP2001036867A (en) * 1999-07-23 2001-02-09 Gen Tec:Kk Multi-channel video synchronous display
JP2002032978A (en) * 2000-07-13 2002-01-31 Sony Corp Imaging device, video data processing device, and non-linear editing device
JP2004304407A (en) * 2003-03-31 2004-10-28 Casio Comput Co Ltd Distribution system, playback device, and playback program
JP2005270508A (en) * 2004-03-26 2005-10-06 Sri Sports Ltd Diagnostic system for golf swing
JP2008141608A (en) * 2006-12-04 2008-06-19 Canon Inc Image display processing device and processing method of image display processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716109B1 (en) * 2015-11-25 2017-03-15 충북대학교 산학협력단 Method for time synchronization of a plurality of images and system displaying multi-images

Also Published As

Publication number Publication date
JP5790710B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP4905474B2 (en) Video processing apparatus, video processing method, and program
US9324158B2 (en) Image processing device for performing image processing on moving image
JP2010130084A (en) Image processor and program
US10382704B2 (en) Image processing device that generates a composite image
CN104065875B (en) Display control unit, display control method and recording medium
JP5321012B2 (en) Image processing apparatus and program
JP2003117045A (en) Swing form diagnosing device
JP4110560B2 (en) Image processing method and apparatus
US20170278288A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2006230630A (en) Practical skill analysis system and program
JP2010127639A (en) Image processing device, image processing method, and program
JP2013121097A (en) Imaging apparatus, imaging method, image generating apparatus, image generating method and program
JP5790710B2 (en) Image processing apparatus, control method, and program
JP5633106B2 (en) Image processing apparatus and program
JP5821236B2 (en) Image processing apparatus, synchronization method, and program
JP5957838B2 (en) Image processing apparatus, image processing method, and program
JP2010068193A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5664714B2 (en) Image processing apparatus and program
JP5786271B2 (en) Image printing apparatus, image printing method, and program
KR20250145652A (en) Video playback devices, programs, and video playback methods
JP6115656B2 (en) Image processing apparatus, image processing method, and program
JP2024161749A (en) Image processing device, control method, and program
JP6350587B2 (en) Image processing apparatus, image processing method, and program
KR20220130936A (en) Apparatus, method and computer program for generating time slice video
JP2014175716A (en) Image processing device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R150 Certificate of patent or registration of utility model

Ref document number: 5790710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150