[go: up one dir, main page]

JP2012128578A - Portable terminal and image processing method - Google Patents

Portable terminal and image processing method Download PDF

Info

Publication number
JP2012128578A
JP2012128578A JP2010278337A JP2010278337A JP2012128578A JP 2012128578 A JP2012128578 A JP 2012128578A JP 2010278337 A JP2010278337 A JP 2010278337A JP 2010278337 A JP2010278337 A JP 2010278337A JP 2012128578 A JP2012128578 A JP 2012128578A
Authority
JP
Japan
Prior art keywords
marker
shooting
smoothing
sensor value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010278337A
Other languages
Japanese (ja)
Inventor
Manabu Ota
学 太田
Yasuo Morinaga
康夫 森永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010278337A priority Critical patent/JP2012128578A/en
Publication of JP2012128578A publication Critical patent/JP2012128578A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 外乱などのより、マーカの大きさや歪みを正しく認識することができない場合でも、適切な傾き関係で仮想オブジェクトを合成すること。
【解決手段】 画像解析部103が撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方でセンサ部104は端末の姿勢を示すセンサ値を検出する。そして、平滑化処理部107は、マーカの撮影方向と、センサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、平滑化処理部107により平滑化されたセンサ値に基づいた撮影方向を用いて仮想オブジェクトの傾きを補正し、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成する。ディスプレイ部102は、仮想オブジェクトが合成された撮影データを表示する。
【選択図】 図1
PROBLEM TO BE SOLVED: To synthesize a virtual object with an appropriate inclination relation even when the size and distortion of a marker cannot be correctly recognized due to disturbance or the like.
An image analysis unit 103 analyzes a marker in shooting data and recognizes a shooting direction with respect to the marker, and a sensor unit 104 detects a sensor value indicating a posture of the terminal. Then, the smoothing processing unit 107 performs a smoothing process on the shooting direction based on the sensor value based on the shooting direction of the marker and the shooting direction based on the sensor value. The virtual object position determination unit 109 corrects the inclination of the virtual object using the shooting direction based on the sensor value smoothed by the smoothing processing unit 107, and matches the virtual object whose inclination is corrected to the position of the marker. Composite to shooting data. The display unit 102 displays shooting data in which virtual objects are combined.
[Selection] Figure 1

Description

本発明は、撮影した撮影データに仮想オブジェクト等の画像データを合成して表示する携帯端末および画像処理方法に関する。   The present invention relates to a portable terminal and an image processing method for combining and displaying image data such as a virtual object on captured image data.

近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、カメラにより取得した画像中のマーカなどの対象物に対応付けられた付加情報を取得し、取得した付加情報を当該対象物に合成して表示する技術が知られている。この技術では、いわゆる仮想オブジェクトと称される付加情報は、各ユーザの移動端末において、マーカなどの対象物と対応付けて記憶されている。このような技術に共通する技術として、手のひら(肌色部分)を検出して、その部分にキャラクタなどの画像データを合成する技術が知られている(例えば、特許文献1参照)。   In recent years, services using AR (Augmented Reality) technology have been developed and provided. For example, a technique is known in which additional information associated with an object such as a marker in an image acquired by a camera is acquired, and the acquired additional information is combined with the object and displayed. In this technique, additional information called a so-called virtual object is stored in association with an object such as a marker in each user's mobile terminal. As a technique common to such a technique, a technique of detecting a palm (skin color part) and synthesizing image data such as a character in the part is known (see, for example, Patent Document 1).

特開2006−262980号公報JP 2006-262980 A

しかしながら、マーカが平面的に構成されている場合、その撮影方向によっては、ゆがんで見えたり、傾いて見えたりするものである。そうした場合、携帯端末は、マーカをある傾き方をもって撮影したものと判断することができ、仮想オブジェクトもその傾きにあわせて傾きをもたせるよう加工処理し、加工された仮想オブジェクトをマーカの位置にあわせて合成する。   However, when the marker is configured in a plane, it may appear distorted or tilted depending on the shooting direction. In such a case, the mobile terminal can determine that the marker was taken with a certain tilt method, and the virtual object is processed so as to have a tilt according to the tilt, and the processed virtual object is aligned with the marker position. To synthesize.

例えば、図13においてマーカの例を示す。図13(a)では、マーカが外光を受けた場合の例を示しており、黒枠にDと記されたマーカの一部が外光により欠けた状態が示されている。この場合、マーカは斜め方向から撮影されたものと判断される場合がある。   For example, an example of a marker is shown in FIG. FIG. 13A shows an example in which the marker receives external light, and shows a state in which a part of the marker marked D in the black frame is missing due to external light. In this case, it may be determined that the marker is taken from an oblique direction.

また、図13(b)では、マーカが紙などの柔らかい部材で形成された場合において、風などによりマーカの一部がめくれてしまった場合の例を示している。この例でも、マーカの一部が欠けたものとなる。この場合も同様にマーカは斜め方向から撮影されたものと判断される場合がある。   FIG. 13B shows an example in which a part of the marker is turned up by wind or the like when the marker is formed of a soft member such as paper. Even in this example, a part of the marker is missing. In this case as well, it may be determined that the marker was taken from an oblique direction.

また、図13(c)では、マーカは手振れにより左右にずれた場合の例を示す。この場合もやはりマーカが歪んでみえ、またはそのサイズを誤認する場合があり、その歪みやサイズ誤認の度合いによっては、斜め方向から撮影されたものと判断されたり、近くから(または遠くから)撮影されたものである場合がある。   FIG. 13C shows an example in which the marker is shifted left and right due to camera shake. In this case as well, the marker may be distorted or its size may be mistaken. Depending on the degree of distortion and size misrecognition, it may be determined that the marker was taken from an oblique direction or taken from near (or far away). May have been.

このようにマーカが斜めから撮影されたと判断されると、図14に示されるとおり、仮想オブジェクトは、そのマーカの傾きに応じて加工されて、合成処理される。図14(a)では、マーカと仮想オブジェクトが正しい傾き関係で合成された例を示す。図14(b)では、例えば外光によりマーカの一部が欠けてしまった場合、仮想オブジェクトの傾きがずれて合成処理される例を示す。   When it is determined that the marker is photographed from an oblique direction as described above, the virtual object is processed according to the inclination of the marker and synthesized as shown in FIG. FIG. 14A shows an example in which a marker and a virtual object are synthesized with a correct inclination relationship. FIG. 14B shows an example in which, when a part of the marker is missing due to, for example, external light, the composition processing is performed with the inclination of the virtual object shifted.

このようにして、手振れや、外乱(外光や、画像解析対処物の振動など)の影響を受けた結果、マーカの大きさや歪みを正しく認識することができない、という問題が生じる。その結果、正しく仮想オブジェクトを、マーカにあわせて合成することができないという問題がある。   In this way, there is a problem that the size and distortion of the marker cannot be recognized correctly as a result of the influence of camera shake and disturbance (external light, vibration of the image analysis object). As a result, there is a problem that a virtual object cannot be correctly combined with a marker.

そこで、本発明においては、上述の課題を解決するために、外乱などのより、マーカの大きさや歪みを正しく認識することができない場合でも、適切な傾き関係で仮想オブジェクトを合成することができる携帯端末および画像処理方法を提供することを目的とする。   Therefore, in the present invention, in order to solve the above-described problem, even if the size and distortion of the marker cannot be correctly recognized due to disturbance or the like, the portable object can synthesize a virtual object with an appropriate inclination relationship. It is an object to provide a terminal and an image processing method.

上述の課題を解決するために、本発明の携帯端末は、撮影データを取り込む撮影手段と、前記撮影手段により取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識手段と、端末の姿勢を示すセンサ値を検出するセンサ値検出手段と、前記認識手段により検出された撮影方向と、前記センサ値検出手段のセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、前記平滑化手段により平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、を備えている。   In order to solve the above-described problem, a portable terminal of the present invention includes a photographing unit that captures photographing data, and a recognition unit that analyzes a marker in the photographing data captured by the photographing unit and recognizes a photographing direction with respect to the marker. And a sensor value detecting means for detecting a sensor value indicating the attitude of the terminal, a photographing direction detected by the recognizing means, and a photographing direction based on the sensor value of the sensor value detecting means. A smoothing unit that performs a smoothing process on the shooting direction, a correction unit that corrects the tilt of the object using the shooting direction based on the sensor value smoothed by the smoothing unit, and a tilt that is corrected by the correction unit. Combining means for combining the corrected object with the shooting data according to the position of the marker, and shooting data in which the object is combined by the combining means And a display means for displaying.

また、本発明の画像処理方法は、撮影データを取り込む撮影ステップと、前記撮影ステップにおいて取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識ステップと、端末の姿勢を示すセンサ値を検出するセンサ値検出ステップと、前記認識ステップにおいて検出された撮影方向と、前記センサ値検出ステップにおいて検出されたセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、前記平滑化ステップにより平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、を備えている。   Further, the image processing method of the present invention includes a photographing step for capturing photographing data, a recognition step for analyzing a marker in the photographing data captured in the photographing step, recognizing a photographing direction with respect to the marker, and a posture of the terminal. In the imaging direction of the marker, based on the sensor value detection step for detecting the sensor value indicated, the imaging direction detected in the recognition step, and the imaging direction based on the sensor value detected in the sensor value detection step A smoothing step for performing a smoothing process, a correction step for correcting the tilt of the object using a shooting direction based on the sensor value smoothed by the smoothing step, and the tilt is corrected in the correction step. A synthesis step of synthesizing the object with the shooting data according to the position of the marker; and Object comprises a display step of displaying the captured data synthesized, the in formation step.

この発明によれば、撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方で端末の姿勢を示すセンサ値を検出し、認識されたマーカの撮影方向と、センサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。そして、平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正し、傾きが補正されたオブジェクトをマーカの位置に合わせて撮影データに合成し、オブジェクトが合成された撮影データを表示する。これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となるオブジェクトの傾きを決定して、合成することができる。   According to the present invention, the marker in the shooting data is analyzed, the shooting direction with respect to the marker is recognized, and the sensor value indicating the attitude of the terminal is detected, and the recognized shooting direction of the marker and the sensor value are detected. The smoothing process is performed on the shooting direction based on the sensor value based on the shooting direction. Then, the inclination of the object is corrected using the shooting direction based on the smoothed sensor value, the object whose inclination is corrected is combined with the shooting data in accordance with the position of the marker, and the shooting data in which the object is combined is obtained. indicate. Accordingly, even when the inclination of the marker cannot be correctly recognized due to external light or the like, the inclination of the object to be combined can be determined according to the inclination of the marker and can be combined.

また、本発明の携帯端末において、前記平滑化手段は、前記認識手段により認識されたマーカの撮影方向、および前記センサ値検出手段のセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて、平滑化処理を行うことが好ましい。   Further, in the portable terminal of the present invention, the smoothing means changes to a transition state in each detection history of the shooting direction of the marker recognized by the recognition means and the shooting direction based on the sensor value of the sensor value detection means. Based on this, it is preferable to perform a smoothing process.

この発明によれば、マーカの撮影方向、およびセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて平滑化処理を行うことで、精度よく平滑化処理を行うことができる。   According to the present invention, the smoothing process can be performed with high accuracy by performing the smoothing process based on the transition state in each detection history of the shooting direction of the marker and the shooting direction based on the sensor value.

また、本発明の携帯端末において、前記平滑化手段は、前記センサ値検出手段により検出されたセンサ値の検出履歴における変遷状態が、前記認識手段により認識されたマーカの撮影方向の検出履歴における変遷状態と一致していない場合、平滑化処理を行うことが好ましい。   In the portable terminal of the present invention, the smoothing means may change the transition state in the detection history of the sensor value detected by the sensor value detection means in the detection history of the shooting direction of the marker recognized by the recognition means. If they do not match the state, it is preferable to perform a smoothing process.

この発明によれば、センサ値の検出履歴における変遷状態が、マーカ認識に基づいた撮影方向の検出履歴における変遷状態と一致していない場合、平滑化処理を行う。これにより、マーカ認識に誤認識があったと判断することができ、平滑化処理により、その誤差を小さいものとし、オブジェクトの傾き補正に反映させることができる。   According to the present invention, when the transition state in the sensor value detection history does not match the transition state in the shooting direction detection history based on marker recognition, smoothing processing is performed. As a result, it can be determined that there is an erroneous recognition in the marker recognition, and the error can be reduced by the smoothing process and reflected in the inclination correction of the object.

また、本発明の携帯端末において、前記センサ値検出手段により検出されたセンサ値に基づいた撮影方向と、前記認識手段の解析結果に基づいた撮影方向との差分が大きいほど、大きくなる平滑化パラメータを用いて平滑化処理を行うことが好ましい。   Further, in the mobile terminal of the present invention, the smoothing parameter that increases as the difference between the shooting direction based on the sensor value detected by the sensor value detection unit and the shooting direction based on the analysis result of the recognition unit increases. It is preferable to perform a smoothing process using.

この発明によれば、検出されたセンサ値に基づいた撮影方向と、解析結果に基づいた撮影方向との差分が大きいほど、大きくなる平滑化パラメータを用いて平滑化処理を行うことで、適切な平滑化処理を行うことができ、マーカの認識誤差による傾き誤差をより適切に修正することができる。   According to the present invention, the smoothing process is performed using the smoothing parameter that increases as the difference between the shooting direction based on the detected sensor value and the shooting direction based on the analysis result increases. Smoothing processing can be performed, and the tilt error due to the marker recognition error can be corrected more appropriately.

また、本発明の携帯端末は、撮影データを取り込む撮影手段と、前記撮影手段により取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識手段と、前記認識手段により認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、前記平滑化手段により平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、を備えている。   In addition, the mobile terminal of the present invention analyzes an imaging unit that captures imaging data, a marker in the imaging data captured by the imaging unit, and an analysis object larger than the marker, and the marker and the analysis object Recognizing means for recognizing the photographing direction with respect to each, smoothing means for performing a smoothing process on the photographing direction of the marker based on each of the marker recognized by the recognizing means and the photographing direction of the analysis object; A correction unit that corrects the inclination of an object using a shooting direction based on the marker smoothed by the smoothing unit, and an object whose inclination is corrected by the correction unit is combined with shooting data according to the position of the marker. Synthesizing means, and display means for displaying photographing data in which the object is synthesized by the synthesizing means. .

また、本発明の画像処理方法は、撮影データを取り込む撮影ステップと、前記撮影ステップにおいて取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識ステップと、前記認識ステップにおいて認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、前記平滑化ステップにおいて平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、を備えている。   Further, the image processing method of the present invention includes a photographing step for capturing photographing data, a marker in the photographing data captured in the photographing step and an analysis object larger than the marker, and the marker and the analysis object A recognition step for recognizing the shooting direction with respect to each of the above, a smoothing step for performing a smoothing process on the shooting direction of the marker based on each of the marker recognized in the recognition step and the shooting direction of the analysis object, and A correction step of correcting the tilt of the object using the shooting direction based on the marker smoothed in the smoothing step, and the object whose tilt is corrected in the correction step according to the position of the marker in the shooting data A synthesis step to synthesize, and an object in the synthesis step It comprises a display step of displaying the combined shot data.

この発明によれば、撮影データ中のマーカおよびマーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識し、認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行い、平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する。そして、傾きが補正されたオブジェクトをマーカの位置に合わせて撮影データに合成して、オブジェクトが合成された撮影データを表示することができる。   According to the present invention, the marker in the imaging data and the analysis object larger than the marker are analyzed, the imaging direction with respect to each of the marker and the analysis object is recognized, and the recognized marker and the imaging direction of the analysis object are recognized. Based on each of the above, smoothing processing is performed on the shooting direction of the marker, and the tilt of the object is corrected using the shooting direction based on the smoothed marker. Then, the object whose inclination is corrected can be combined with the shooting data in accordance with the position of the marker, and the shooting data with the object combined can be displayed.

これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となるオブジェクトの傾きを決定して、合成することができる。さらに、センサなどデバイスを備える必要が無く、その構成を簡易なものとすることができる。   Accordingly, even when the inclination of the marker cannot be correctly recognized due to external light or the like, the inclination of the object to be combined can be determined according to the inclination of the marker and can be combined. Furthermore, it is not necessary to provide a device such as a sensor, and the configuration can be simplified.

本発明によれば、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となるオブジェクトの傾きを決定して、合成することができる。   According to the present invention, even when the inclination of the marker cannot be correctly recognized due to external light or the like, the inclination of the object to be combined can be determined according to the inclination of the marker and can be combined.

本実施形態の携帯端末100の機能を示すブロック図である。It is a block diagram which shows the function of the portable terminal 100 of this embodiment. 携帯端末100のハードウェア構成図である。2 is a hardware configuration diagram of the mobile terminal 100. FIG. 誤認識する場合のパターンを示す説明図である。It is explanatory drawing which shows the pattern in the case of misrecognizing. 、画像解析部103により解析されたマーカの解析結果を示すグラフである。10 is a graph showing the analysis result of the marker analyzed by the image analysis unit 103. センサ部104により検出された撮影方向の所定時間単位における変遷を示すグラフである。6 is a graph showing a transition in a predetermined time unit of an imaging direction detected by a sensor unit 104. 比較部105における比較処理の具体例を示す説明図である。6 is an explanatory diagram illustrating a specific example of comparison processing in a comparison unit 105. FIG. 比較部105の処理を示すフローチャートである。5 is a flowchart showing processing of a comparison unit 105. 平滑化パラメータDB部106のデータベースを示す図である。It is a figure which shows the database of the smoothing parameter DB part. 仮想オブジェクトを記憶する管理テーブルを示す図である。It is a figure which shows the management table which memorize | stores a virtual object. マーカの認識結果に応じた仮想オブジェクトの傾きで合成された様子を模式的に示した説明図である。It is explanatory drawing which showed typically a mode that it combined with the inclination of the virtual object according to the recognition result of a marker. 携帯端末100の処理を示すフローチャートである。5 is a flowchart showing processing of the mobile terminal 100. 変形例における撮影データを示した説明図である。It is explanatory drawing which showed the imaging | photography data in the modification. マーカの認識事例を示す説明図である。It is explanatory drawing which shows the recognition example of a marker. マーカと仮想オブジェクトとの合成処理を模式的に表した模式図である。It is the schematic diagram which represented typically the synthetic | combination process of a marker and a virtual object.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態の携帯端末100の機能を示すブロック図である。図1に示すとおり、携帯端末100は、撮影部101(撮影手段)、ディスプレイ部102(表示手段)、画像解析部103(認識手段)、センサ部104(センサ値検出手段)、比較部105、平滑化パラメータDB部106、平滑化処理部107(平滑化手段)、仮想オブジェクト格納部108、および仮想オブジェクト位置決定部109(補正手段、合成手段)を含んで構成されている。この携帯端末100は、図2に示すハードウェアにより構成されている。   FIG. 1 is a block diagram illustrating functions of the mobile terminal 100 according to the present embodiment. As shown in FIG. 1, the mobile terminal 100 includes an imaging unit 101 (imaging unit), a display unit 102 (display unit), an image analysis unit 103 (recognition unit), a sensor unit 104 (sensor value detection unit), a comparison unit 105, A smoothing parameter DB unit 106, a smoothing processing unit 107 (smoothing unit), a virtual object storage unit 108, and a virtual object position determination unit 109 (correction unit, synthesis unit) are included. The portable terminal 100 is configured by hardware shown in FIG.

図2は、携帯端末100のハードウェア構成図である。図1に示される携帯端末100は、物理的には、図2に示すように、CPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、ハードディスク等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図1において説明した各機能は、図2に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図2に示す機能ブロックに基づいて、各機能ブロックを説明する。   FIG. 2 is a hardware configuration diagram of the mobile terminal 100. As shown in FIG. 2, the portable terminal 100 shown in FIG. 1 physically includes a CPU 11, a RAM 12 and a ROM 13 that are main storage devices, an input device 14 such as a keyboard and a mouse that are input devices, and an output such as a display. The computer 15 includes a device 15, a communication module 16 that is a data transmission / reception device such as a network card, an auxiliary storage device 17 such as a hard disk, and the like. Each function described in FIG. 1 has an input device 14, an output device 15, and a communication module 16 under the control of the CPU 11 by reading predetermined computer software on hardware such as the CPU 11 and the RAM 12 shown in FIG. 2. This is realized by reading and writing data in the RAM 12 and the auxiliary storage device 17. Hereinafter, each functional block will be described based on the functional blocks shown in FIG.

撮影部101は、カメラなどにより撮影された撮影データを取り込む部分である。   The photographing unit 101 is a part that captures photographing data photographed by a camera or the like.

ディスプレイ部102は、撮影部101により取り込まれた撮影データを表示する部分である。   The display unit 102 is a part that displays the shooting data captured by the shooting unit 101.

画像解析部103は、撮影部101により取り込まれた撮影データを画像解析する部分である。具体的には、画像解析部103は、撮影データの中にマーカの有無を認識し、認識したマーカの大きさ、歪みの量を解析する。この解析対象となるマーカの大きさや、マーカの外観(正面から見た場合の概観)などを示した情報は、予め記憶部(図示せず)に記憶されている。これら情報を利用することにより、画像解析部103は、マーカまでの距離や、マーカの歪みの度合いなどを把握することができ、どの方向からマーカは撮影されたのか把握することができる。この画像解析の方法は、一般的な技術的手法を用いたものである。そして、後述する仮想オブジェクト位置決定部109は、マーカの撮影方向および撮影距離に基づいて、仮想オブジェクトのサイズ・傾き(姿勢)を決定することができる。   The image analysis unit 103 is a part that performs image analysis on the shooting data captured by the shooting unit 101. Specifically, the image analysis unit 103 recognizes the presence or absence of a marker in the captured data, and analyzes the recognized marker size and distortion amount. Information indicating the size of the marker to be analyzed, the appearance of the marker (an overview when viewed from the front), and the like are stored in advance in a storage unit (not shown). By using these pieces of information, the image analysis unit 103 can grasp the distance to the marker, the degree of distortion of the marker, and the like, and can grasp from which direction the marker was photographed. This image analysis method uses a general technical method. A virtual object position determination unit 109, which will be described later, can determine the size / tilt (posture) of the virtual object based on the shooting direction and shooting distance of the marker.

さらに、画像解析部103は、マーカを正しく認識することができない場合がある。例えば、外光や、手ぶれなどによりマーカの歪み・大きさを誤認識する場合がある。図3に、誤認識する場合のパターンを示す。図3に示されるように、外光などによりマーカの一部が白くなる(いわゆる白ボケ)状態がある。例えば、図3(a)に示されるように、マーカの左上の一部が白くなっている場合には、画像解析部103は、マーカを斜め右15度ぐらいの方向からみていると誤認識してしまう場合がある。すなわち、図3(b)で示されるようにマーカを誤認識してしまう。   Further, the image analysis unit 103 may not be able to correctly recognize the marker. For example, marker distortion and size may be erroneously recognized due to external light or camera shake. FIG. 3 shows a pattern for erroneous recognition. As shown in FIG. 3, there is a state in which a part of the marker becomes white (so-called white blur) due to external light or the like. For example, as shown in FIG. 3A, when a part of the upper left corner of the marker is white, the image analysis unit 103 erroneously recognizes that the marker is viewed obliquely from about 15 degrees to the right. May end up. That is, the marker is erroneously recognized as shown in FIG.

また、図3(b)に示されるように、マーカの左側の大部分が白くなってしまっている場合には、画像解析部103は、マーカを斜め左20度ぐらいの方向からみていると誤認識してしまう場合がある。すなわち、図3(d)で示されるようにマーカを誤認識してしまう。   In addition, as shown in FIG. 3B, when most of the left side of the marker is white, the image analysis unit 103 mistakenly assumes that the marker is viewed obliquely from about 20 degrees to the left. It may be recognized. That is, the marker is erroneously recognized as shown in FIG.

これを防止するために、画像解析部103では、平滑化処理のための情報として、図4に示されるように、解析結果の情報を所定時間単位に記憶しておく。図4は、画像解析部103により解析されたマーカの解析結果(撮影方向)を示すグラフである。図4に示される例では、携帯端末100がマーカを正面の上方45度の角度で撮影した場合の解析結果である。図4に示されるように、撮影データにおけるマーカを画像解析することにより、おおむね45度の角度から撮影されたことが分かるため、撮影方向として45度と認識することができる。そして、この撮影方向を所定時間単位で記憶する。図4では、手ぶれなどが原因で、45度を中心に上下にぶれている様子を示している。ここで記憶される撮影方向は、後述する比較部105において、平滑化処理の要否を判断するための情報として利用される。なお、図4では、解析結果として撮影方向として撮影角度を用いているが、これに限るものではなく、撮影方位またはマーカまでに距離などを用いてもよいし、またこれらを組み合わせたものとしてもよい。これにより、精度のよい解析結果とすることができる。   In order to prevent this, the image analysis unit 103 stores analysis result information in units of a predetermined time as information for smoothing processing as shown in FIG. FIG. 4 is a graph showing the analysis result (imaging direction) of the marker analyzed by the image analysis unit 103. In the example illustrated in FIG. 4, the analysis result is obtained when the mobile terminal 100 images the marker at an angle of 45 degrees above the front. As shown in FIG. 4, by analyzing the image of the marker in the shooting data, it can be recognized that the shooting was performed from an angle of approximately 45 degrees, and thus the shooting direction can be recognized as 45 degrees. Then, this shooting direction is stored in predetermined time units. FIG. 4 shows a state of shaking up and down around 45 degrees due to camera shake and the like. The photographing direction stored here is used as information for determining whether or not smoothing processing is necessary in the comparison unit 105 described later. In FIG. 4, the shooting angle is used as the shooting direction as the analysis result. However, the present invention is not limited to this, and the shooting direction or the distance to the marker may be used, or a combination of these may be used. Good. Thereby, it can be set as a highly accurate analysis result.

センサ部104は、角度センサ、ジャイロセンサ、加速度センサ、地磁気センサ、および位置センサ(GPSモジュール)などから構成される部分であり、撮影部101のマーカに対する撮影方向を把握するための情報として、センサ値を所定時間ごとに取得して、そのセンサ値に基づいて撮影方向を算出して、この撮影方向を時系列で記憶する部分である。図5は、センサ部104により検出された撮影方向の所定時間単位における変遷を示すグラフである。このようにして、所定時間ごとにセンサ値は順次取得され、記憶されることになる。ここで記憶された撮影方向は、後述する比較部105において、平滑化処理の要否を判断するための情報として利用される。なお、センサ部104は、撮影方向として、撮影角度のほかに、撮影方位を検出し、時系列で記憶するようにしてもよい。   The sensor unit 104 includes an angle sensor, a gyro sensor, an acceleration sensor, a geomagnetic sensor, a position sensor (GPS module), and the like. As information for grasping the shooting direction with respect to the marker of the shooting unit 101, a sensor is used. A value is acquired every predetermined time, a shooting direction is calculated based on the sensor value, and this shooting direction is stored in time series. FIG. 5 is a graph showing the transition of the shooting direction detected by the sensor unit 104 in a predetermined time unit. In this manner, sensor values are sequentially acquired and stored every predetermined time. The photographing direction stored here is used as information for determining whether or not smoothing processing is necessary in the comparison unit 105 described later. The sensor unit 104 may detect the shooting direction as the shooting direction in addition to the shooting angle, and store it in time series.

比較部105は、画像解析部103において取得され、記憶された解析結果(撮影方向)と、センサ部104において取得され記憶されたセンサ値に基づいて算出された撮影方向とを比較する部分である。この比較部105において、同一時間帯における、画像解析部103の解析結果とセンサ部104のセンサ値との比較を行い、両者が一致している場合には、画像解析結果は正しいと判断し、一致していない場合には、画像解析結果は誤っていると判断する。   The comparison unit 105 is a part that compares the analysis result (shooting direction) acquired and stored in the image analysis unit 103 with the shooting direction calculated based on the sensor value acquired and stored in the sensor unit 104. . In this comparison unit 105, the analysis result of the image analysis unit 103 and the sensor value of the sensor unit 104 are compared in the same time zone, and if both match, it is determined that the image analysis result is correct, If they do not match, it is determined that the image analysis result is incorrect.

図6は、比較部105における比較処理の具体例を示す説明図である。図6(a)は、画像解析部103の解析結果のグラフを示し、図6(b)は、センサ部104のセンサ値のグラフを示す。図6(a)における符号X1で示す部分と、図6(b)における符号X2で示す部分とは、ほぼ一致していると、比較部105においては判断することができる。よって、この部分(時間帯)については、解析結果は正しいと判断することができる。また、図6(a)における符号Y1で示す部分と、図6(b)における符号Y2で示す部分とは、一致していない。よって、この部分(時間帯)については、解析結果は正しくないと判断することができる。なお、本実施形態では、ある程度幅を持った時間帯における複数の撮影方向を利用したが、ある時間における一の撮影方向を利用してもよい。   FIG. 6 is an explanatory diagram illustrating a specific example of comparison processing in the comparison unit 105. 6A shows a graph of the analysis result of the image analysis unit 103, and FIG. 6B shows a graph of the sensor value of the sensor unit 104. The comparison unit 105 can determine that the portion indicated by the reference symbol X1 in FIG. 6A and the portion indicated by the reference symbol X2 in FIG. Therefore, it can be determined that the analysis result is correct for this portion (time zone). Moreover, the part shown with the code | symbol Y1 in Fig.6 (a) and the part shown with the code | symbol Y2 in FIG.6 (b) do not correspond. Therefore, it can be determined that the analysis result is not correct for this portion (time zone). In this embodiment, a plurality of shooting directions in a time zone having a certain width are used, but one shooting direction in a certain time may be used.

この比較部105の処理の詳細についてさらに説明する。図7は、比較部105の処理を示すフローチャートである。まず、比較部105により、画像解析部103の解析結果が取得される(S101)。そして、画像解析部103の解析結果において、前回の結果から変化の有無が判断される(S102)。すなわち直近に取得された解析結果に基づいた撮影方向と、現に取得した解析結果に基づいた撮影方向とに変化があったか判断される。なお、ある時間における一の撮影方向を比較してもよいし、ある時間帯における複数の撮影方向を比較してもよい。   Details of the processing of the comparison unit 105 will be further described. FIG. 7 is a flowchart showing the processing of the comparison unit 105. First, the analysis result of the image analysis unit 103 is acquired by the comparison unit 105 (S101). Then, in the analysis result of the image analysis unit 103, it is determined whether or not there is a change from the previous result (S102). That is, it is determined whether or not there has been a change in the shooting direction based on the recently acquired analysis result and the shooting direction based on the currently acquired analysis result. Note that one shooting direction in a certain time may be compared, or a plurality of shooting directions in a certain time zone may be compared.

そして、ここで変化があると判断されると、同一時間帯(または同一時間)における、センサ部104のセンサ値に基づいた撮影方向と、画像解析部103の解析結果に基づいた撮影方向とが比較される(S103)。ここで、撮影方向が一致すると判断されると、比較結果パターン(1)と判断される(S105)。また、撮影方向が不一致であると判断されると、比較結果パターン(2)と判断される(S106)。   Then, when it is determined that there is a change, the shooting direction based on the sensor value of the sensor unit 104 and the shooting direction based on the analysis result of the image analysis unit 103 in the same time zone (or the same time) are obtained. They are compared (S103). Here, if it is determined that the shooting directions match, it is determined as a comparison result pattern (1) (S105). If it is determined that the shooting directions do not match, it is determined as a comparison result pattern (2) (S106).

また、S102において、撮影方向に変化がないと判断されると、同一時間における、センサ部104のセンサ値に基づいた撮影方向と、画像解析部103の解析結果に基づいた撮影方向とが比較される(S104)。ここで撮影方向が一致すると判断されると、比較結果パターン(3)と判断される(S107)。また、撮影方向が不一致であると判断されると、比較結果パターン(4)と判断される(S108)。   If it is determined in S102 that there is no change in the shooting direction, the shooting direction based on the sensor value of the sensor unit 104 and the shooting direction based on the analysis result of the image analysis unit 103 at the same time are compared. (S104). If it is determined that the shooting directions coincide with each other, the comparison result pattern (3) is determined (S107). If it is determined that the shooting directions do not match, it is determined as a comparison result pattern (4) (S108).

このようにして、比較部105は、比較結果パターンを得ることができ、平滑化処理部107は、比較結果パターンに基づいて予め定められた平滑化パラメータを用いて、平滑化処理を行う。   In this way, the comparison unit 105 can obtain a comparison result pattern, and the smoothing processing unit 107 performs a smoothing process using a smoothing parameter determined in advance based on the comparison result pattern.

平滑化パラメータDB部106は、比較結果パターンごとに対応づけられた平滑化パラメータを記憶する部分であり、例えば、図8に示されるデータベースを記憶する。図8は、平滑化パラメータDB部106のデータベースを示す図である。   The smoothing parameter DB unit 106 is a part that stores the smoothing parameter associated with each comparison result pattern, and stores, for example, the database shown in FIG. FIG. 8 is a diagram illustrating a database of the smoothing parameter DB unit 106.

図8に示されるように、比較結果パターンごとに、重み付け係数A(t)および遡り値Nが記憶されている。重み付け係数A(t)および遡り地Nについては、後述する。なお、パターン(4)においては、以下の理由により平滑化処理しないことが好ましい。すなわち、パターン(4)となるケースとして、以下の場合がある。まず、一つ目のケースは、携帯端末100をマーカに対して固定して保持する。その結果、画像解析により算出された値(撮影方向)には変化はないが、センサ部が外乱による影響によって誤差が発生する場合があり得る。よって、画像解析による算出結果に変化はないが、センサ部104により得られた結果が不一致となる。   As shown in FIG. 8, the weighting coefficient A (t) and the retroactive value N are stored for each comparison result pattern. The weighting coefficient A (t) and the retroactive place N will be described later. In the pattern (4), it is preferable not to perform the smoothing process for the following reason. That is, there are the following cases as pattern (4). First, in the first case, the portable terminal 100 is fixed and held with respect to the marker. As a result, there is no change in the value (imaging direction) calculated by image analysis, but an error may occur in the sensor unit due to the influence of disturbance. Accordingly, there is no change in the calculation result by the image analysis, but the result obtained by the sensor unit 104 is inconsistent.

また、二つ目のケースとして、携帯端末100をマーカに対して動かす。本来、画像解析結果によって得られる値は変化することになるが、そのマーカの動きと同時に照明などの影響を受ける場合がある。その場合、結果的に、画像解析によって得られる値の変化がない、場合があり得る。一方、携帯端末100は動かしているのでセンサの値は変化する。よって、画像解析による算出結果に変化はないが、センサ部104により得られた結果が不一致となる。   As a second case, the mobile terminal 100 is moved with respect to the marker. Originally, the value obtained by the image analysis result changes, but it may be affected by illumination or the like simultaneously with the movement of the marker. In that case, as a result, there may be a case where there is no change in the value obtained by the image analysis. On the other hand, since the mobile terminal 100 is moving, the value of the sensor changes. Accordingly, there is no change in the calculation result by the image analysis, but the result obtained by the sensor unit 104 is inconsistent.

これらケース考えると、照明などの外乱などによって、画像解析結果に変化がない場合は著しく無いと判断できる。よって、携帯端末100にマーカを固定するケースしか、現実的にはあり得ず、センサ部104が誤差を起していると判断することができる。よって、平滑化処理不要という結論になる。   Considering these cases, it can be determined that there is no significant change in the image analysis result due to disturbance such as illumination. Therefore, only the case where the marker is fixed to the mobile terminal 100 is practically possible, and it can be determined that the sensor unit 104 has an error. Therefore, it is concluded that smoothing processing is unnecessary.

また、センサ部104のセンサ値に基づいた撮影方向と、画像解析部103の解析結果に基づいた撮影方向との差分に応じて平滑化のパラメータの大きさを変えるようにしてもよい。すなわち、その差分が大きいほど、画像解析結果により算出された撮影方向の信頼性は低い(誤差が大きい)と判断できる。よって、その誤差を小さくするため、重み係数A(t)および遡り値Nを大きく設定することにより、過去に得た撮影方向の影響を大きくする。   Further, the magnitude of the smoothing parameter may be changed according to the difference between the shooting direction based on the sensor value of the sensor unit 104 and the shooting direction based on the analysis result of the image analysis unit 103. That is, as the difference is larger, it can be determined that the reliability of the shooting direction calculated from the image analysis result is lower (the error is larger). Therefore, in order to reduce the error, the influence of the shooting direction obtained in the past is increased by setting the weighting coefficient A (t) and the retroactive value N large.

平滑化処理部107は、比較部105において比較された結果に基づいて定められた平滑化パラメータ(重み係数A(t)および遡り値N)を用いて、画像解析部103の解析結果に基づいた撮影方向に対して平滑化処理を行う部分である。具体的には、以下の式(1)の演算処理を行う。

Figure 2012128578

ここでは、ある時間tの撮影方向をf(t)とし、ある時間tの平滑化した撮影方向をF(t)とする。また、どこまで遡ってセンサ値を利用するかを示す値をnとする。例えば、ある時間tに、前回の撮影方向を利用する場合はn=1となる。遡った撮影方向に対する重み付け係数をa(n)とする。iは、tを基準にして、遡った過去の撮影方向を示す。そして、F(t)の値から仮想オブジェクトをディスプレイ部102に表示するための傾き(姿勢)をX(t)とする。 The smoothing processing unit 107 uses the smoothing parameters (the weighting coefficient A (t) and the retroactive value N) determined based on the comparison result in the comparison unit 105, and based on the analysis result of the image analysis unit 103. This is the part that performs the smoothing process in the shooting direction. Specifically, the following arithmetic processing (1) is performed.
Figure 2012128578

Here, the shooting direction at a certain time t is f (t), and the smoothed shooting direction at a certain time t is F (t). A value indicating how far the sensor value is used is assumed to be n. For example, when using the previous shooting direction at a certain time t, n = 1. The weighting coefficient for the retrospective shooting direction is a (n). i indicates a past shooting direction retroactive with reference to t. Then, the inclination (posture) for displaying the virtual object on the display unit 102 from the value of F (t) is assumed to be X (t).

図8における平滑化パラメータDB部106では、パターン(2)には、重み係数A(t)として0.2、遡り値Nとして1が設定されている。そして、これを上式(1)に当てはめると、
F(t)=f(t)+a(t-1)*f(t-1) =f(t)+0.2*f(t-1)
となる。
In the smoothing parameter DB unit 106 in FIG. 8, 0.2 is set as the weighting coefficient A (t) and 1 is set as the retroactive value N in the pattern (2). And if this is applied to the above formula (1),
F (t) = f (t) + a (t-1) * f (t-1) = f (t) + 0.2 * f (t-1)
It becomes.

仮想オブジェクト格納部108は、仮想オブジェクトを記憶する部分である。図9に仮想オブジェクトを記憶する管理テーブルを示す。この管理テーブルでは、仮想オブジェクトのイメージデータのファイル名と、目印となるマーカの情報を対応付けて記憶している。この管理テーブルに基づいて、どのマーカの近傍に仮想オブジェクトを合成させるかを、仮想オブジェクト位置決定部109は判断することができる。   The virtual object storage unit 108 is a part that stores virtual objects. FIG. 9 shows a management table for storing virtual objects. In this management table, the file name of the image data of the virtual object is stored in association with the marker information as a mark. Based on this management table, the virtual object position determination unit 109 can determine which marker the virtual object is to be synthesized in.

仮想オブジェクト位置決定部109は、撮影データ中に含まれているマーカに対応する仮想オブジェクトを仮想オブジェクト格納部108から読み出し、当該マーカの近傍の位置、若しくはマーカに基づいて予め定められた位置を決定して、当該位置に仮想オブジェクトを配置するように、仮想オブジェクトと撮影データとを合成する部分である。この合成処理に際して、マーカの撮影方向に応じて、仮想オブジェクトの傾き(姿勢)を補正する。その具体例について、マーカの認識結果に応じた仮想オブジェクトの傾きで合成された様子を模式的に示した図10を用いて説明する。図10(a)は、マーカのほぼ正面の斜め45度の上方から撮影した場合の、仮想オブジェクトの傾きを示す。このように、画像解析部103において解析された解析結果(角度情報)にあわせて仮想オブジェクトの傾きをほぼ正面の斜め45度の上方から見たとおりの仮想オブジェクトを表すことができる。   The virtual object position determination unit 109 reads a virtual object corresponding to the marker included in the shooting data from the virtual object storage unit 108 and determines a position near the marker or a predetermined position based on the marker. Thus, the virtual object and the shooting data are combined so that the virtual object is arranged at the position. In this combining process, the inclination (posture) of the virtual object is corrected according to the shooting direction of the marker. A specific example will be described with reference to FIG. 10 schematically showing a state in which the object is synthesized with the inclination of the virtual object according to the marker recognition result. FIG. 10A shows the inclination of the virtual object when the image is taken from 45 degrees above the front of the marker. In this manner, the virtual object can be represented as viewed from above the front at an angle of 45 degrees in front of the virtual object according to the analysis result (angle information) analyzed by the image analysis unit 103.

同様に、図10(b)は、マーカのほぼ正面の斜め20度の上方から撮影した場合の、仮想オブジェクトの傾きを示す。この場合も同様に、マーカの傾きにあわせて、仮想オブジェクトの傾きを補正することができる。   Similarly, FIG. 10B shows the inclination of the virtual object when the image is taken from an angle of 20 degrees above the front of the marker. In this case as well, the inclination of the virtual object can be corrected in accordance with the inclination of the marker.

図10(c)においては、マーカの斜め左方向で、かつ斜め45度の上方から撮影した場合の、仮想オブジェクトの傾きを示す。この場合も同様に、マーカの傾きにあわせて、仮想オブジェクトの傾きを補正することができる。   FIG. 10C shows the inclination of the virtual object when the image is taken from the diagonal left direction of the marker and obliquely above 45 degrees. In this case as well, the inclination of the virtual object can be corrected in accordance with the inclination of the marker.

さらに、仮想オブジェクト位置決定部109は、平滑化処理部107により平滑化処理された認識結果に基づいて、すなわちマーカの歪み度合いに応じて、仮想オブジェクトの傾き(姿勢)を補正し、その補正した状態の仮想オブジェクトを撮影データに合成する。   Furthermore, the virtual object position determination unit 109 corrects the inclination (posture) of the virtual object based on the recognition result smoothed by the smoothing processing unit 107, that is, according to the degree of marker distortion, and corrects the correction. The virtual object in the state is combined with the shooting data.

このように補正された仮想オブジェクトが撮影データに合成されてディスプレイ部102に表示される。   The virtual object corrected in this way is combined with the shooting data and displayed on the display unit 102.

このように構成された携帯端末100は、撮影データ中に含まれているマーカに基づいて仮想オブジェクトの傾き等を補正して、撮影データに合成して表示することができる。   The mobile terminal 100 configured as described above can correct the inclination of the virtual object based on the marker included in the shooting data, and can display the combined image with the shooting data.

つぎに、上述のとおり構成された携帯端末100の処理について説明する。図11は、携帯端末100の処理を示すフローチャートである。   Next, processing of the mobile terminal 100 configured as described above will be described. FIG. 11 is a flowchart showing processing of the mobile terminal 100.

まず、撮影部101が起動され、撮影データが取り込まれる(S201)。そして、撮影データに含まれているマーカが、画像解析部103により解析されて、マーカの大きさ・歪みなどの解析結果に基づいて撮影方向が計算される(S202)。また、センサ部104により、センサ値が取得される(S203)。   First, the photographing unit 101 is activated and photographing data is captured (S201). Then, the marker included in the shooting data is analyzed by the image analysis unit 103, and the shooting direction is calculated based on the analysis result such as the size / distortion of the marker (S202). Further, a sensor value is acquired by the sensor unit 104 (S203).

そして、画像解析部103の解析結果と、センサ部104のセンサ値とが、比較部105により比較される(S205)。この比較の結果、パターン(2)であると判断されると(S205:パターン(2))、平滑化パラメータDB部106から、平滑化パラメータである重み係数A(t)および遡り値Nが読み出される(S206)。   Then, the analysis result of the image analysis unit 103 and the sensor value of the sensor unit 104 are compared by the comparison unit 105 (S205). As a result of this comparison, when it is determined that the pattern is (2) (S205: Pattern (2)), the smoothing parameter DB unit 106 reads the weighting coefficient A (t) and the retroactive value N that are smoothing parameters. (S206).

そして、平滑化処理部107により、重み係数A(t)および遡り値Nを用いて、画像解析部103から得られた解析結果に対する平滑化処理が行われる(S207)。平滑化処理された解析結果に基づいて、仮想オブジェクト位置決定部109により、仮想オブジェクトの傾き(姿勢)が補正され、対応するマーカの近傍に仮想オブジェクトが配置されるように、撮影データに対する合成処理が行われる。そして、ディスプレイ部102に、適正な姿勢の仮想オブジェクトが合成された撮影データが表示される(S208)。   Then, the smoothing processing unit 107 performs a smoothing process on the analysis result obtained from the image analysis unit 103 using the weighting coefficient A (t) and the retroactive value N (S207). Based on the smoothed analysis result, the virtual object position determination unit 109 corrects the inclination (posture) of the virtual object and synthesizes the captured data so that the virtual object is arranged in the vicinity of the corresponding marker. Is done. Then, shooting data in which a virtual object having an appropriate posture is combined is displayed on the display unit 102 (S208).

なお、パターンによって、仮想オブジェクトの合成位置を構成するタイミングを変えるようにすると、消費電力を低減させる上では、好適である。   Note that it is preferable to reduce the power consumption if the timing of composing the virtual object composition position is changed depending on the pattern.

例えば、比較結果のパターンとして、パターン(3)及びパターン(4)であると判断される場合には、画像解析部103の解析結果において、前回の結果から変化がないため、ディスプレイ部102に合成される仮想オブジェクトの合成位置の変化は小さい。このため、パターン(3)及びパターン(4)と判断される場合には、ディスプレイ部102に仮想オブジェクトの合成位置を更新する時間間隔は長くしてもよい。   For example, when it is determined that the comparison result pattern is the pattern (3) and the pattern (4), the analysis result of the image analysis unit 103 is not changed from the previous result, and is thus combined with the display unit 102. The change in the synthesized position of the virtual object to be performed is small. For this reason, when it is determined as the pattern (3) and the pattern (4), the time interval for updating the composite position of the virtual object on the display unit 102 may be increased.

すなわち、所定の基準値T1を定めておき、S205において比較結果のパターンとしてパターン(3)または(4)であると判断されると、比較部105は、S208に移行する前に前回更新した時間から所定の基準値T1で定める時間が経過したかを判断し、経過した場合には、S208における合成処理が行われる。経過していない場合には、合成処理は行われない。   That is, a predetermined reference value T1 is set, and if it is determined in S205 that the pattern of the comparison result is the pattern (3) or (4), the comparison unit 105 sets the time updated last time before moving to S208. It is determined whether the time determined by the predetermined reference value T1 has elapsed, and if it has elapsed, the composition processing in S208 is performed. If it has not elapsed, the composition process is not performed.

一方、比較結果のパターンとして、パターン(1)及びパターン(2)と判断される場合は、画像解析部103の解析結果において、前回の結果から変化があるため、ディスプレイ部102に合成される仮想オブジェクトの合成位置の変化は大きい。このため、パターン(1)またはパターン(2)と判断される場合には、ディスプレイ部102に仮想オブジェクトの合成位置を更新する時間間隔は短くしてもよい。例えば、所定の基準値T2(<T1)を定めておき、S205において比較結果のパターンとしてパターン(1)であると判断されると、S208に移行する前に前回更新した時間から所定の基準値T2で定める時間が経過したかを判断し、経過した場合には、S208における合成処理を行う。経過していない場合には、合成処理は行わない。   On the other hand, when the comparison result pattern is determined to be the pattern (1) and the pattern (2), the analysis result of the image analysis unit 103 is changed from the previous result, so that the virtual combined with the display unit 102 The change in the composition position of the object is large. For this reason, when it is determined as the pattern (1) or the pattern (2), the time interval for updating the composite position of the virtual object on the display unit 102 may be shortened. For example, if a predetermined reference value T2 (<T1) is set and it is determined in S205 that the pattern of the comparison result is pattern (1), the predetermined reference value is calculated from the time last updated before proceeding to S208. It is determined whether the time set in T2 has elapsed. If the time has elapsed, the composition processing in S208 is performed. If it has not elapsed, the composition process is not performed.

同様に、S205において、比較結果のパターンとしてパターン(2)であると判断されると、S206の処理の前に、比較部105は、前回更新した時間から所定の基準値T2で定める時間が経過したかを判断し、経過した場合には、S206における抽出処理、その後のS207における平滑化処理が行われる。経過していない場合には、これら抽出処理、平滑化処理は行われない。   Similarly, if it is determined in S205 that the pattern of the comparison result is the pattern (2), before the process of S206, the comparison unit 105 elapses the time determined by the predetermined reference value T2 from the previously updated time. If it has elapsed, the extraction process in S206 and the subsequent smoothing process in S207 are performed. If it has not elapsed, the extraction process and the smoothing process are not performed.

このように、仮想オブジェクトの合成位置を更新する時間間隔を変化させることにより、消費電力を低減させることも可能となる。なお、合成位置の更新する時間は、仮想オブジェクト位置決定部109において記憶されてもよいし、比較部105において、比較処理をした時間として記憶されてもよい。   In this way, it is possible to reduce power consumption by changing the time interval for updating the composite position of the virtual object. Note that the time for updating the composite position may be stored in the virtual object position determination unit 109 or may be stored in the comparison unit 105 as the time for comparison processing.

このようにして、平滑化処理されることにより、マーカに対する認識誤りがあったとしても、適正な傾きをもった仮想オブジェクトを撮影データに合成処理することができる。   By performing the smoothing process in this way, a virtual object having an appropriate inclination can be combined with the shooting data even if there is a recognition error for the marker.

つぎに、本実施形態の携帯端末100の変形例について図12を用いて説明する。上述本実施形態の携帯端末100では、マーカの傾きに応じて、仮想オブジェクトの傾きを補正する際に、センサ部104のセンサ値を利用した。しかしながら、センサ部104のセンサ値を利用することに限定するものではない。図12は、マーカよりはるかに大きい机などの対象物を認識した場合の撮影データの様子を示した説明図である。図12に示されるとおり、机などの解析対象物を認識するともにその傾きを算出し、算出された解析対象物の傾きを用いて、仮想オブジェクトの傾きを補正する。この対象物である机に対する傾きなどは、予め机を登録しておいてもよいし、机全体や、机のエッジ部分を認識することにより、机に対する撮影方向を認識することができる。これは対象物を認識するための画像処理の一般的な手法を用いればよい。   Next, a modified example of the mobile terminal 100 of the present embodiment will be described with reference to FIG. In the portable terminal 100 of the above-described embodiment, the sensor value of the sensor unit 104 is used when correcting the inclination of the virtual object according to the inclination of the marker. However, it is not limited to using the sensor value of the sensor unit 104. FIG. 12 is an explanatory diagram showing the state of the shooting data when an object such as a desk much larger than the marker is recognized. As shown in FIG. 12, an object to be analyzed such as a desk is recognized and its inclination is calculated, and the inclination of the virtual object is corrected using the calculated inclination of the object to be analyzed. The inclination with respect to the desk which is the object may be registered in advance, or the imaging direction with respect to the desk can be recognized by recognizing the entire desk or the edge of the desk. For this, a general method of image processing for recognizing an object may be used.

そして、この対象物に対する撮影方向と、マーカに対する撮影方向とを比較することにより、マーカに対する解析結果の正誤を判断し、その判断によって、平滑化処理の要否を判断することができる。これにより、センサ部104を不要とし、簡易な構成となる。   Then, by comparing the shooting direction with respect to the object and the shooting direction with respect to the marker, it is possible to determine whether the analysis result with respect to the marker is correct or not, and based on the determination, it is possible to determine whether smoothing processing is necessary. As a result, the sensor unit 104 is not required and the configuration is simple.

つぎに、本実施形態の携帯端末100の作用効果について説明する。本実施形態の携帯端末100において、画像解析部103が撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識し、一方でセンサ部104は端末の姿勢を示すセンサ値を検出する。そして、平滑化処理部107は、画像解析部103において認識されたマーカの撮影方向と、センサ部104において検出されたセンサ値に基づいた撮影方向とに基づいて、センサ値に基づいた撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、仮想オブジェクト格納部108から仮想オブジェクトを読み出し、平滑化処理部107により平滑化されたセンサ値に基づいた撮影方向を用いて仮想オブジェクトの傾きを補正し、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成する。ディスプレイ部102は、仮想オブジェクトが合成された撮影データを表示する。これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となる仮想オブジェクトの傾きを決定して、合成することができる。なお、ここでは撮影方向を例に説明したが、これに限るものではなく、撮影方向やマーカまでの撮影距離などを組み合わせたものとしてもよい。   Next, functions and effects of the mobile terminal 100 of the present embodiment will be described. In the portable terminal 100 of the present embodiment, the image analysis unit 103 analyzes a marker in the shooting data and recognizes the shooting direction with respect to the marker, while the sensor unit 104 detects a sensor value indicating the attitude of the terminal. Then, the smoothing processing unit 107 sets the imaging direction based on the sensor value based on the imaging direction of the marker recognized by the image analysis unit 103 and the imaging direction based on the sensor value detected by the sensor unit 104. A smoothing process is performed on the image. The virtual object position determination unit 109 reads the virtual object from the virtual object storage unit 108, corrects the inclination of the virtual object using the shooting direction based on the sensor value smoothed by the smoothing processing unit 107, and corrects the inclination. The obtained virtual object is combined with the shooting data according to the position of the marker. The display unit 102 displays shooting data in which virtual objects are combined. Thereby, even when the inclination of the marker cannot be correctly recognized due to external light or the like, the inclination of the virtual object to be combined can be determined according to the inclination of the marker and can be combined. Note that although the shooting direction has been described here as an example, the present invention is not limited to this, and the shooting direction and the shooting distance to the marker may be combined.

また、本実施形態の携帯端末100において、画像解析部103は、認識したマーカの撮影方向を時系列で記憶しておき、センサ部104は、検出したセンサ値に基づいて算出された撮影方向を時系列で記憶しておく。そして、平滑化処理部107は、マーカの撮影方向、およびセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて平滑化処理を行うことで、精度よく平滑化処理を行うことができる。   In the mobile terminal 100 of the present embodiment, the image analysis unit 103 stores the shooting direction of the recognized marker in time series, and the sensor unit 104 displays the shooting direction calculated based on the detected sensor value. Remember in time series. And the smoothing process part 107 can perform a smoothing process accurately by performing a smoothing process based on the transition state in each detection history of the imaging | photography direction of a marker and the imaging | photography direction based on a sensor value. it can.

また、この携帯端末100において、画像解析部103により認識されたマーカの撮影方向と、センサ値に基づいた撮影方向との差分が大きいほど、大きい平滑化パラメータ(例えば、重み係数A(t)および遡り値N)を用いて、平滑化処理部107は、平滑化処理を行うことができる。よって、仮想オブジェクトの傾きをマーカの現実の傾きにあったものとすることができる。   In this portable terminal 100, the larger the difference between the imaging direction of the marker recognized by the image analysis unit 103 and the imaging direction based on the sensor value, the larger the smoothing parameter (for example, the weighting factor A (t) and Using the retroactive value N), the smoothing processor 107 can perform a smoothing process. Therefore, the inclination of the virtual object can be set to the actual inclination of the marker.

また、この携帯端末100において、平滑化処理部107は、センサ部104により検出されたセンサ値の検出履歴における変遷状態の変化量に応じて、大きくなる平滑化パラメータを用いて平滑化処理を行うことで、適切な平滑化処理を行うことができ、マーカの認識誤差による傾き誤差をより適切に修正することができる。   Further, in the mobile terminal 100, the smoothing processing unit 107 performs a smoothing process using a smoothing parameter that increases in accordance with the amount of change in the transition state in the detection history of the sensor value detected by the sensor unit 104. Thus, an appropriate smoothing process can be performed, and a tilt error due to a marker recognition error can be corrected more appropriately.

また、変形例における携帯端末100において、画像解析部103は、撮影データ中のマーカおよびマーカより大なる解析対象物(例えば、机など)を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する。そして、平滑化処理部107は、画像解析部103により認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、マーカの撮影方向に対して平滑化処理を行う。仮想オブジェクト位置決定部109は、仮想オブジェクトを仮想オブジェクト格納部108から読み出し、平滑化されたマーカの撮影方向を用いて仮想オブジェクトの傾きを補正する。そして、傾きが補正された仮想オブジェクトをマーカの位置に合わせて撮影データに合成して、仮想オブジェクトが合成された撮影データを表示することができる。   Further, in the mobile terminal 100 according to the modification, the image analysis unit 103 analyzes a marker and an analysis target (for example, a desk) larger than the marker in the shooting data, and shoots each of the marker and the analysis target. Recognize direction. Then, the smoothing processing unit 107 performs a smoothing process on the shooting direction of the marker based on each of the marker recognized by the image analysis unit 103 and the shooting direction of the analysis target. The virtual object position determination unit 109 reads the virtual object from the virtual object storage unit 108 and corrects the inclination of the virtual object using the smoothed shooting direction of the marker. Then, the virtual object whose inclination is corrected can be combined with the shooting data in accordance with the position of the marker, and the shooting data with the combined virtual object can be displayed.

これにより、外光などによりマーカの傾きを正しく認識することができない場合でも、マーカの傾きに応じて合成対象となる仮想オブジェクトの傾きを決定して、合成することができる。さらに、センサなどデバイスを備える必要が無く、その構成を簡易なものとすることができる。   Thereby, even when the inclination of the marker cannot be correctly recognized due to external light or the like, the inclination of the virtual object to be combined can be determined according to the inclination of the marker and can be combined. Furthermore, it is not necessary to provide a device such as a sensor, and the configuration can be simplified.

100…携帯端末、101…撮影部、102…ディスプレイ部、103…画像解析部、104…センサ部、105…比較部、106…平滑化パラメータDB部、107…平滑化処理部、108…仮想オブジェクト格納部、109…仮想オブジェクト位置決定部。
DESCRIPTION OF SYMBOLS 100 ... Portable terminal, 101 ... Imaging | photography part, 102 ... Display part, 103 ... Image analysis part, 104 ... Sensor part, 105 ... Comparison part, 106 ... Smoothing parameter DB part, 107 ... Smoothing process part, 108 ... Virtual object Storage unit 109... Virtual object position determination unit.

Claims (7)

撮影データを取り込む撮影手段と、
前記撮影手段により取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識手段と、
端末の姿勢を示すセンサ値を検出するセンサ値検出手段と、
前記認識手段により検出された撮影方向と、前記センサ値検出手段のセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、
前記平滑化手段により平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、
前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、
前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、
を備える携帯端末。
Photographing means for capturing photographing data;
Recognizing means for analyzing a marker in photographing data captured by the photographing means and recognizing a photographing direction with respect to the marker;
Sensor value detection means for detecting a sensor value indicating the attitude of the terminal;
Smoothing means for performing a smoothing process on the shooting direction of the marker based on the shooting direction detected by the recognition means and the shooting direction based on the sensor value of the sensor value detection means;
Correction means for correcting the inclination of the object using the shooting direction based on the sensor value smoothed by the smoothing means;
A synthesizing unit that synthesizes the object whose inclination is corrected by the correcting unit with the shooting data according to the position of the marker;
Display means for displaying shooting data in which the object is synthesized by the synthesis means;
A mobile terminal comprising:
前記平滑化手段は、
前記認識手段により認識されたマーカの撮影方向、および前記センサ値検出手段のセンサ値に基づいた撮影方向のそれぞれの検出履歴における変遷状態に基づいて、平滑化処理を行う
ことを特徴とする請求項1に記載の携帯端末。
The smoothing means includes
The smoothing process is performed based on a transition state in each detection history of the imaging direction of the marker recognized by the recognition unit and the imaging direction based on the sensor value of the sensor value detection unit. The mobile terminal according to 1.
前記平滑化手段は、
前記センサ値検出手段により検出されたセンサ値の検出履歴における変遷状態が、前記認識手段により認識されたマーカの撮影方向の検出履歴における変遷状態と一致していない場合、平滑化処理を行うことを特徴とする請求項1から3のいずれか一項に記載の携帯端末。
The smoothing means includes
When the transition state in the detection history of the sensor value detected by the sensor value detection means does not match the transition state in the detection history of the shooting direction of the marker recognized by the recognition means, smoothing processing is performed. The portable terminal according to any one of claims 1 to 3, wherein
前記センサ値検出手段により検出されたセンサ値に基づいた撮影方向と、前記認識手段の解析結果に基づいた撮影方向との差分が大きいほど、大きくなる平滑化パラメータを用いて平滑化処理を行うことを特徴とする請求項1から3のいずれか一項に記載の携帯端末。   Smoothing processing is performed using a smoothing parameter that increases as the difference between the shooting direction based on the sensor value detected by the sensor value detection unit and the shooting direction based on the analysis result of the recognition unit increases. The portable terminal according to any one of claims 1 to 3, wherein 撮影データを取り込む撮影手段と、
前記撮影手段により取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識手段と、
前記認識手段により認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化手段と、
前記平滑化手段により平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正手段と、
前記補正手段により傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成手段と、
前記合成手段によりオブジェクトが合成された撮影データを表示する表示手段と、
を備える携帯端末。
Photographing means for capturing photographing data;
Recognizing means for analyzing a marker in the photographing data captured by the photographing means and an analysis object larger than the marker, and recognizing a photographing direction for each of the marker and the analysis object;
Smoothing means for performing a smoothing process on the imaging direction of the marker based on each of the imaging direction of the marker and the analysis object recognized by the recognition means;
Correction means for correcting the tilt of the object using the shooting direction based on the marker smoothed by the smoothing means;
A synthesizing unit that synthesizes the object whose inclination is corrected by the correcting unit with the shooting data according to the position of the marker;
Display means for displaying shooting data in which the object is synthesized by the synthesis means;
A mobile terminal comprising:
撮影データを取り込む撮影ステップと、
前記撮影ステップにおいて取り込まれた撮影データ中のマーカを解析し、当該マーカに対する撮影方向を認識する認識ステップと、
端末の姿勢を示すセンサ値を検出するセンサ値検出ステップと、
前記認識ステップにおいて検出された撮影方向と、前記センサ値検出ステップにおいて検出されたセンサ値に基づいた撮影方向とに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、
前記平滑化ステップにより平滑化されたセンサ値に基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、
前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、
前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、
を備える画像処理方法。
Shooting steps to capture shooting data,
Recognizing a marker in the shooting data captured in the shooting step and recognizing a shooting direction with respect to the marker;
A sensor value detection step for detecting a sensor value indicating the attitude of the terminal;
A smoothing step of performing a smoothing process on the shooting direction of the marker based on the shooting direction detected in the recognition step and the shooting direction based on the sensor value detected in the sensor value detection step;
A correction step of correcting the inclination of the object using a shooting direction based on the sensor value smoothed by the smoothing step;
A synthesis step of synthesizing the object whose inclination is corrected in the correction step with the shooting data according to the position of the marker;
A display step for displaying shooting data in which the object is combined in the combining step;
An image processing method comprising:
撮影データを取り込む撮影ステップと、
前記撮影ステップにおいて取り込まれた撮影データ中のマーカおよび前記マーカより大なる解析対象物を解析し、当該マーカおよび当該解析対象物のそれぞれに対する撮影方向を認識する認識ステップと、
前記認識ステップにおいて認識されたマーカおよび解析対象物の撮影方向のそれぞれに基づいて、前記マーカの撮影方向に対して平滑化処理を行う平滑化ステップと、
前記平滑化ステップにおいて平滑化されたマーカに基づいた撮影方向を用いてオブジェクトの傾きを補正する補正ステップと、
前記補正ステップにおいて傾きが補正されたオブジェクトを前記マーカの位置に合わせて撮影データに合成する合成ステップと、
前記合成ステップにおいてオブジェクトが合成された撮影データを表示する表示ステップと、
を備える画像処理方法。
Shooting steps to capture shooting data,
A recognition step of analyzing a marker in the shooting data captured in the shooting step and an analysis object larger than the marker, and recognizing a shooting direction with respect to each of the marker and the analysis target;
A smoothing step of performing a smoothing process on the imaging direction of the marker based on each of the marker recognized in the recognition step and the imaging direction of the analysis object;
A correction step of correcting the inclination of the object using a shooting direction based on the marker smoothed in the smoothing step;
A synthesis step of synthesizing the object whose inclination is corrected in the correction step with the shooting data according to the position of the marker;
A display step for displaying shooting data in which the object is combined in the combining step;
An image processing method comprising:
JP2010278337A 2010-12-14 2010-12-14 Portable terminal and image processing method Pending JP2012128578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278337A JP2012128578A (en) 2010-12-14 2010-12-14 Portable terminal and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278337A JP2012128578A (en) 2010-12-14 2010-12-14 Portable terminal and image processing method

Publications (1)

Publication Number Publication Date
JP2012128578A true JP2012128578A (en) 2012-07-05

Family

ID=46645544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278337A Pending JP2012128578A (en) 2010-12-14 2010-12-14 Portable terminal and image processing method

Country Status (1)

Country Link
JP (1) JP2012128578A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148957A (en) * 2014-02-06 2015-08-20 富士通株式会社 Terminal apparatus, information processing apparatus, display control method, and display control program
JP2020177347A (en) * 2019-04-16 2020-10-29 日産自動車株式会社 Information processing device and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259992A (en) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc Image processor and its method as well as program code and storage medium
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Position and orientation correction apparatus and position and orientation correction method
JP2005010998A (en) * 2003-06-18 2005-01-13 Olympus Corp Information presentation device and information presentation method
JP2008065807A (en) * 2006-08-11 2008-03-21 Canon Inc Index arrangement information measuring apparatus and method
JP2010273839A (en) * 2009-05-28 2010-12-09 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259992A (en) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc Image processor and its method as well as program code and storage medium
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Position and orientation correction apparatus and position and orientation correction method
JP2005010998A (en) * 2003-06-18 2005-01-13 Olympus Corp Information presentation device and information presentation method
JP2008065807A (en) * 2006-08-11 2008-03-21 Canon Inc Index arrangement information measuring apparatus and method
JP2010273839A (en) * 2009-05-28 2010-12-09 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSND200900673007; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 画像ラボ 第20巻, 第10号, 20091010, p.42-49, 日本工業出版株式会社 *
CSNG200800584008; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 日本バーチャルリアリティ学会論文誌 第13巻, 第2号, 20080630, p.195-205, 特定非営利活動法人日本バーチャルリアリティ学会 *
CSNJ201310039208; 関山友輝, 外3名: '"拡張現実感のためのハイブリッドトラッキング手法のシミュレーション評価"' ヒューマンインタフェースシンポジウム2004 論文集 「あいだ」を「つなぐ」インタフェース [CD- , 20041006, p.977-982 *
JPN6014024253; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 日本バーチャルリアリティ学会論文誌 第13巻, 第2号, 20080630, p.195-205, 特定非営利活動法人日本バーチャルリアリティ学会 *
JPN6014024254; 遠藤隆明, 外3名: '"複合現実感におけるカメラ位置姿勢推定の安定化とその考察"' 画像ラボ 第20巻, 第10号, 20091010, p.42-49, 日本工業出版株式会社 *
JPN6014024255; 関山友輝, 外3名: '"拡張現実感のためのハイブリッドトラッキング手法のシミュレーション評価"' ヒューマンインタフェースシンポジウム2004 論文集 「あいだ」を「つなぐ」インタフェース [CD- , 20041006, p.977-982 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148957A (en) * 2014-02-06 2015-08-20 富士通株式会社 Terminal apparatus, information processing apparatus, display control method, and display control program
JP2020177347A (en) * 2019-04-16 2020-10-29 日産自動車株式会社 Information processing device and information processing method
JP7214548B2 (en) 2019-04-16 2023-01-30 日産自動車株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
JP5480777B2 (en) Object display device and object display method
US9049397B2 (en) Image processing device and image processing method
CN107124543B (en) A shooting method and mobile terminal
JP7102103B2 (en) Portable information processing equipment and methods and programs using the information processing equipment
CN103154972A (en) Text-based 3D augmented reality
JP6208094B2 (en) Information processing apparatus, information processing system, information processing method, and program thereof
JP7028729B2 (en) Object tracking device, object tracking system, and object tracking method
JP6455186B2 (en) Fingertip position estimation device, fingertip position estimation method, and program
JP6107372B2 (en) Image processing apparatus, image processing method, and image processing program
US20180120934A1 (en) Non-transitory computer-readable storage medium, calibration device, and calibration method
JP2017120455A (en) Information processing device, program and control method
JP2002207963A (en) Image processing device
JP2012128578A (en) Portable terminal and image processing method
WO2022111461A1 (en) Recognition method and apparatus, and electronic device
JP4321251B2 (en) Apparatus and method for generating and displaying composite image
JP6217225B2 (en) Image collation device, image collation method and program
JP5662787B2 (en) Mobile terminal and image processing method
JP2014049023A (en) Input device
JP5223739B2 (en) Portable character recognition device, character recognition program, and character recognition method
WO2022024835A1 (en) Image processing system, image processing method, image processing program, image processing server, and learning model
US9697419B2 (en) Information processing apparatus, non-transitory storage medium encoded with computer readable information processing program, information processing system, and information processing method
JP6933125B2 (en) Information processing device, shooting guide display program, shooting guide display method
JP2007304733A (en) Image detection apparatus and image detection method
JP5636966B2 (en) Error detection apparatus and error detection program
KR20170026999A (en) Method for pre-processing image data, computer readable medium including set of commands for performing the same and optical object recognition appratus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141014