[go: up one dir, main page]

JPH11144024A - Image combining apparatus, image combining method, and medium - Google Patents

Image combining apparatus, image combining method, and medium

Info

Publication number
JPH11144024A
JPH11144024A JP30125497A JP30125497A JPH11144024A JP H11144024 A JPH11144024 A JP H11144024A JP 30125497 A JP30125497 A JP 30125497A JP 30125497 A JP30125497 A JP 30125497A JP H11144024 A JPH11144024 A JP H11144024A
Authority
JP
Japan
Prior art keywords
image
unit
information
display
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30125497A
Other languages
Japanese (ja)
Inventor
Shoichi Araki
昭一 荒木
Takeshi Imanaka
今中  武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP30125497A priority Critical patent/JPH11144024A/en
Publication of JPH11144024A publication Critical patent/JPH11144024A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【課題】あらかじめ記憶させられた現実物と仮想物体の
組み合わせでしか合成画像が生成できないという課題。 【解決手段】情報が記された書類を撮像するカメラ1
と、ペン等による書類上の指示位置を検出する指示位置
検出部2と、その指示位置に記されている指示情報の特
徴量を検出する指示情報検出部3と、指示情報の特徴量
に基づき指示情報を装飾する画像を生成する付加画像生
成部4と,生成された付加画像を記憶する付加画像生成
部5と,その指示位置に応じて情報の付加方法を決定す
る指示位置別情報付加方法決定部6と,カメラ1の映像
と付加画像を合成する画像合成部7を備えた画像構成装
置により、ペン等による指示位置,指示領域および指示
情報の特徴量に応じて適切な付加画像を生成し,表示部
8に合成・表示する。
(57) [Summary] [Problem] A problem that a composite image can be generated only by a combination of a real object and a virtual object stored in advance. A camera for imaging a document on which information is written.
A pointing position detecting unit 2 for detecting a pointing position on a document by a pen or the like, a pointing information detecting unit 3 for detecting a characteristic amount of pointing information written at the pointing position, and a characteristic amount of the pointing information. Additional image generation unit 4 for generating an image to decorate the instruction information, additional image generation unit 5 for storing the generated additional image, and information position-specific information addition method for determining the information addition method according to the indicated position An appropriate additional image is generated in accordance with the position indicated by the pen or the like, the indicated area, and the characteristic amount of the indicated information, by the image forming apparatus including the determining unit 6 and the image synthesizing unit 7 for synthesizing the image of the camera 1 and the additional image. Then, it is synthesized and displayed on the display unit 8.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、現実の物体とコン
ピュータ内の仮想物体との合成画像の作成装置に利用可
能な、画像合成装置、画像合成方法及び媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image synthesizing apparatus, an image synthesizing method, and a medium which can be used for an apparatus for creating a synthetic image of a real object and a virtual object in a computer.

【0002】[0002]

【従来の技術】従来、カメラで撮影している現実物を、
その現実物に付加されたカラーコードで識別し、その現
実物に関連した情報をカメラの映像にスーパーインポー
ズで合成するシステムとして、情報処理方法およびその
装置が提案されている。
2. Description of the Related Art Conventionally, a real object photographed by a camera is
An information processing method and apparatus have been proposed as a system that identifies information by a color code added to the real object and superimposes information related to the real object on a camera image in a superimposed manner.

【0003】例えば、この様な装置をモニター一体型ビ
デオカメラに搭載し、カラーコードが付加された絵画を
写せば、その絵画に関する説明がモニター上に表示され
るといった情報提供システムが実現できる。
For example, an information providing system can be realized in which such a device is mounted on a monitor-integrated video camera and a picture to which a color code is added is displayed on the monitor.

【0004】また、仮想物体と現実物とのインタラクシ
ョンを行うシステムとして、Proceedings of UIST'91,
ACM, pp.27-33 および Communications of the ACM,vol
36, no.7, pp.86-96,1993記載の「Digital Desk」が知
られている。
As a system for performing interaction between a virtual object and a real object, Proceedings of UIST '91,
ACM, pp.27-33 and Communications of the ACM, vol
36, no. 7, pp. 86-96, 1993, "Digital Desk" is known.

【0005】このシステムでは、机の上方にカメラとプ
ロジェクタが備えれている。そして、例えば、机の上の
紙(現実物)に書かれた情報の中から、オペレータが画
像として抽出したいと思う、例えば、数値列や絵等の範
囲を指やペンで指定すると、その数値列等の画像が自動
的に抽出される。一方、予め、システムが記憶している
別の絵の画像(仮想物体)として、例えば、卓上の小型
計算機の画像等がプロジェクタにより机の上の別の紙
(現実物)に投影されている。そして、この卓上の小型
計算機の画像と、上述の抽出された数値列の画像とが合
成されて、同じ紙面上に投影される。この投影画像は、
あたかも、投影されている卓上の小型計算機のキーを操
作して、上記数値列を入力して、その数値列が表示され
たかのような状態を表す合成画像である。このように、
このシステムは、現実の物体の画像と仮想物体の画像と
の画像合成装置として使用できる。
In this system, a camera and a projector are provided above a desk. Then, for example, from the information written on the paper (real object) on the desk, the operator wants to extract as an image. For example, when a range of a numerical value sequence or a picture is designated by a finger or a pen, the numerical value is obtained. Images such as columns are automatically extracted. On the other hand, as an image of another picture (virtual object) stored in advance by the system, for example, an image of a small computer on a desk is projected on another paper (real object) on a desk by a projector. Then, the image of the small computer on the desk and the image of the extracted numerical value sequence are synthesized and projected on the same paper. This projected image is
It is a composite image that represents a state as if the numerical sequence was input by operating the keys of the small computer on the desk being projected, and the numerical sequence was displayed. in this way,
This system can be used as an image combining device for combining an image of a real object and an image of a virtual object.

【0006】また、Proceedings of CHI'92, ACM, pp.5
87-592では,指よりも高精度な指示を行うために机の一
部にタブレットを搭載することを開示している。
[0006] Proceedings of CHI'92, ACM, pp.5
87-592 discloses that a tablet is mounted on a part of the desk in order to give a more accurate instruction than a finger.

【0007】[0007]

【発明が解決しようとする課題】しかし、上記の従来の
情報処理方法およびその装置では、カラーコードを用い
て現実物を識別して、それに関する情報の画像をスーパ
ーインポーズで表示することは開示されているが、実際
の書類などの現実の物に対して、オペレータが指定した
位置から所望の情報の画像を自動的にとりだし、それを
仮想物体の画像とともに加工して表示することは出来な
いという課題があった。
However, in the above-described conventional information processing method and apparatus, it is disclosed that a real object is identified using a color code and an image of information related thereto is displayed in a superimposed manner. However, it is not possible to automatically extract an image of desired information from a position specified by an operator with respect to a real object such as an actual document, process the image with a virtual object image, and display the processed image. There was a problem that.

【0008】即ち、上記従来のシステムでは、オペレー
タが所望する情報の画像を現実物から自動的に抽出する
ことができないので、あらかじめ記憶させられた現実物
と仮想物体の組み合わせでしか合成画像が生成できない
という課題が有った。
That is, in the above-described conventional system, an image of information desired by an operator cannot be automatically extracted from a real object, so that a composite image is generated only by a combination of a real object and a virtual object stored in advance. There was a problem that could not be done.

【0009】一方、従来のシステムでは、例えば、指や
ペン入力により、画像として抽出したい対象物につい
て、その物体や情報の数だけ概略の領域を指定しなけれ
ば複数の物体の画像をそれぞれ独立して抽出できなかっ
た。そのため、対象物の数や処理する画像の枚数が多い
場合、画像として抽出したい対象物の指定処理が、装置
のオペレータにとって多大なる負担になるという課題を
有していた。
[0009] On the other hand, in a conventional system, for a target object to be extracted as an image, for example, by inputting a finger or a pen, the image of a plurality of objects is independently obtained unless a rough area is specified by the number of the objects and information. Could not be extracted. For this reason, when the number of objects and the number of images to be processed are large, there is a problem that the process of designating the objects to be extracted as an image places a heavy burden on the operator of the apparatus.

【0010】本発明は、上記従来の装置の課題を考慮
し、例えば、オーバーヘッドカメラを用いたプレゼンテ
ーション等に応用出来る、現実物と仮想物体との画像合
成装置として、例えば、書類に記された情報の中で、強
調したい情報の一部を指示棒等で指示すれば、オペレー
タが強調したい情報の領域や、その強調したい情報が文
字であるのか、あるいは写真であるのかといったその情
報の特徴を自動的に検出し、下線や網掛けなどの、その
情報の特徴にあった装飾処理が自動的に行うことが出来
る画像合成装置、画像合成方法及び媒体を提供すること
を目的とする。
The present invention takes into account the problems of the above-described conventional apparatus, and is an image synthesizing apparatus for combining a real object and a virtual object, which can be applied to, for example, a presentation using an overhead camera. If a part of the information to be emphasized is pointed out by a pointing stick or the like, the operator can automatically identify the area of the information to be emphasized and whether the information to be emphasized is text or a photograph. It is an object of the present invention to provide an image synthesizing apparatus, an image synthesizing method, and a medium which can automatically detect and automatically perform decoration processing such as underlining or shading according to the characteristics of the information.

【0011】また、本発明は、上記従来のシステムのこ
のような課題を考慮し、例えば、抽出したい複数物体を
ディスプレイ上に置き、それらすべてを包含するような
閉曲線を1つ与えるだけで、それぞれの物体の画像を独
立に抽出できる輪郭抽出機能を備えた画像合成装置、画
像合成方法及び媒体を提供することを目的とする。
Further, the present invention takes into consideration such problems of the above-mentioned conventional system. For example, by placing a plurality of objects to be extracted on a display and giving only one closed curve including all of them, It is an object of the present invention to provide an image synthesizing apparatus, an image synthesizing method, and a medium having a contour extracting function capable of independently extracting an image of an object.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の本発明は、所定の撮像手段と、情報
が表された面に与えられる指示情報の位置を、前記撮像
手段により撮像された画像から検出する指示位置検出手
段と、前記指示位置検出手段により検出された指示位置
に対応して前記面上に表されている指示対象の情報の領
域及び/又はその指示対象の情報の特徴量を検出する指
示対象情報検出手段と、前記領域及び/又は前記特徴量
に基づき前記指示対象情報の画像に付加する付加画像を
生成する付加画像生成手段と、前記撮像手段により得ら
れた前記指示対象情報の画像と、前記生成された付加画
像とを合成する画像合成手段とを備えた画像合成装置で
ある。
In order to achieve the above object, according to the present invention, there is provided the present invention, wherein a predetermined image pickup means and a position of instruction information given on a surface on which information is displayed are stored in the image pickup means. Pointing position detecting means for detecting from the image captured by the pointing device, and the area of the pointing target information and / or the pointing target information displayed on the surface corresponding to the pointing position detected by the pointing position detecting means. Pointing target information detecting means for detecting a characteristic amount of information; additional image generating means for generating an additional image to be added to the image of the pointing target information based on the area and / or the characteristic amount; An image synthesizing apparatus comprising an image synthesizing means for synthesizing the image of the instruction target information and the generated additional image.

【0013】又、請求項15記載の本発明は、所定の撮
像手段と、前記撮像手段により撮像された、所定の面に
表された情報及び/又は複数の物体の内、画像抽出の対
象の候補となるべき複数の抽出対象候補を取り囲む閉曲
線情報を検出する閉曲線情報検出手段と、前記検出され
た閉曲線情報と前記抽出対象候補の画像の情報とに基づ
いて、前記取り囲まれた複数の抽出対象候補の画像か
ら、それぞれの抽出対象候補の画像を個別的に抽出する
個別抽出手段と、前記個別的に抽出された画像を利用し
て画像合成を行う画像合成手段とを備えた画像合成装置
である。
According to a fifteenth aspect of the present invention, there is provided a photographing apparatus, comprising: a predetermined image pickup means; and information and / or a plurality of objects which are picked up by the image pickup means and which are displayed on a predetermined surface. Closed curve information detecting means for detecting closed curve information surrounding a plurality of extraction target candidates to be candidates; and the plurality of extraction targets enclosed based on the detected closed curve information and information on the image of the extraction target candidate. An image synthesizing apparatus comprising: an individual extracting unit that individually extracts an image of each extraction target candidate from a candidate image; and an image synthesizing unit that synthesizes an image using the individually extracted image. is there.

【0014】又、請求項16記載の本発明は、所定の撮
像手段と、前記撮像手段により撮像された情報の内、指
示対象となるべき複数の指示対象情報を取り囲む閉曲線
情報を検出する閉曲線情報検出手段と、前記検出された
閉曲線情報と前記指示対象情報の画像情報とに基づい
て、前記取り囲まれた複数の指示対象情報の画像から、
それぞれの指示対象情報の画像を個別的に抽出する個別
抽出手段と、前記個別的に抽出された画像の領域及び/
又はその画像の特徴量を検出する指示情報検出部と、前
記検出された前記画像の領域及び/又は前記画像の特徴
量に基づき、前記指示対象情報の画像に付加する付加画
像を生成する付加画像生成部と、前記撮像手段により得
られた前記指示対象情報の画像と、前記生成された付加
画像とを合成する画像合成手段とを備えた画像合成装置
である。
The present invention as defined in claim 16, wherein the closed curve information for detecting closed curve information surrounding a plurality of pieces of pointing target information to be pointed out of the information captured by the predetermined imaging means and the imaging means. Detecting means, based on the detected closed curve information and the image information of the pointing target information, from the image of the surrounded plurality of pointing target information,
An individual extracting unit for individually extracting an image of each piece of instruction target information; and an area and / or an area of the individually extracted image.
Or an instruction information detecting unit for detecting a characteristic amount of the image, and an additional image for generating an additional image to be added to the image of the instruction target information based on the detected area of the image and / or the characteristic amount of the image. An image synthesizing apparatus comprising: a generating unit; and an image synthesizing unit that synthesizes the image of the instruction target information obtained by the imaging unit and the generated additional image.

【0015】又、請求項17記載の本発明は、入力表示
一体型ディスプレイと、前記ディスプレイの表示部の少
なくとも一部を撮像する撮像手段と、前記ディスプレイ
上に置かれた複数の現実の物体の内、画像抽出の対象の
候補となるべき複数の物体を取り囲む閉曲線情報を検出
する閉曲線情報検出手段と、前記検出された閉曲線情報
と、前記撮像手段により撮像された前記取り囲まれた複
数の物体の画像の情報とに基づいて、前記取り囲まれた
複数の物体の画像から、それぞれの物体の画像を個別的
に抽出する個別抽出手段と、前記個別的に抽出された画
像を用いて、前記ディスプレイに表示する付加画像を生
成する付加画像生成部と、前記生成された付加画像のデ
ィスプレイへの表示方法を選択する表示方法選択部と、
前記選択された表示方法に基づき前記付加画像と前記現
実の物体の画像とを合成する画像合成手段とを備えた画
像合成装置である。
Further, according to the present invention, an input display integrated type display, an image pickup means for picking up an image of at least a part of a display section of the display, and a plurality of real objects placed on the display are provided. Among them, closed curve information detection means for detecting closed curve information surrounding a plurality of objects to be candidates for image extraction, the detected closed curve information, and the plurality of enclosed objects imaged by the imaging means Based on the information of the image, from the images of the plurality of enclosed objects, individual extraction means for individually extracting an image of each object, and using the individually extracted images, An additional image generation unit that generates an additional image to be displayed, and a display method selection unit that selects a display method of the generated additional image on a display.
An image synthesizing apparatus comprising: an image synthesizing unit that synthesizes the additional image and the image of the real object based on the selected display method.

【0016】請求項18記載の本発明は、入力表示一体
型ディスプレイと、前記ディスプレイの表示部の少なく
とも一部を撮像するカメラと、前記ディスプレイ上に置
かれた複数の現実の物体の内、画像抽出の対象の候補と
なるべき複数の物体を取り囲む閉曲線情報を検出する閉
曲線情報検出手段と、前記検出された閉曲線情報と、前
記撮像手段により撮像された前記取り囲まれた複数の物
体の画像の情報とに基づいて、前記取り囲まれた複数の
物体の画像から、それぞれの物体の画像を個別的に抽出
する個別抽出手段と、前記個別的に抽出された画像を用
いて、前記ディスプレイに表示する付加画像を生成する
付加画像生成部と、前記生成された付加画像のディスプ
レイへの表示方法を選択する表示方法選択部と、前記選
択された表示方法に基づき前記ディスプレイ上に表示さ
れた前記付加画像と、前記ディスプレイ上に置かれた現
実の物体とを前記カメラに撮像させる制御部とを備えた
画像合成装置である。
According to the present invention, there is provided an input / output integrated display, a camera for capturing at least a part of a display section of the display, and an image of a plurality of real objects placed on the display. Closed curve information detecting means for detecting closed curve information surrounding a plurality of objects to be candidates for extraction, information on the detected closed curve information, and information on images of the plurality of enclosed objects imaged by the imaging means Individual extracting means for individually extracting an image of each object from the plurality of images of the enclosed object based on An additional image generation unit that generates an image, a display method selection unit that selects a method of displaying the generated additional image on a display, and the selected display method And the additional image displayed on said display based, it is a body of reality placed on the display an image synthesis apparatus and a control unit for imaging in the camera.

【0017】又、請求項19記載の本発明は、入力表示
一体型ディスプレイと、前記ディスプレイの表示部の少
なくとも一部を撮像する撮像手段と、前記ディスプレイ
上に置かれた現実の物体を指示するための指示位置情報
を検出する指示位置検出部と、前記検出された指示位置
情報に基づいて、前記撮像手段により撮像された画像か
ら、前記現実の物体の画像を抽出する現実物抽出手段
と、前記抽出された画像を用いて、前記ディスプレイに
表示する付加画像を生成する付加画像生成部と、前記生
成された付加画像のディスプレイへの表示方法を選択す
る表示方法選択部と、前記選択された表示方法に基づき
前記付加画像と前記現実の物体の画像とを合成する画像
合成手段とを備えた画像合成装置である。
According to a nineteenth aspect of the present invention, an input / display integrated display, imaging means for imaging at least a part of a display section of the display, and a real object placed on the display are indicated. A pointing position detecting unit for detecting pointing position information for, based on the detected pointing position information, a real object extracting unit that extracts an image of the real object from an image captured by the imaging unit, An additional image generation unit that generates an additional image to be displayed on the display using the extracted image; a display method selection unit that selects a display method of the generated additional image on a display; An image synthesizing apparatus comprising: an image synthesizing unit that synthesizes the additional image and the image of the real object based on a display method.

【0018】又、請求項25記載の本発明は、情報が表
された面の所定の位置を指示情報により指示し、前記面
に表された前記情報と、前記指示情報とを撮像し、その
撮像結果から前記指示情報により指示された指示位置を
検出し、前記指示位置に対応して前記面上に表されてい
る指示対象の情報の領域及び/又は特徴量を検出し、前
記指示対象情報の領域及び/又は特徴量に基づき、前記
指示対象情報の画像に付加する付加画像を生成し、前記
指示対象情報の画像と前記生成された付加画像とを合成
する画像合成方法である。
According to a twenty-fifth aspect of the present invention, a predetermined position of a surface on which information is indicated is indicated by instruction information, and the information represented on the surface and the instruction information are imaged. Detecting a pointing position indicated by the pointing information from an imaging result; detecting a region and / or a feature amount of the pointing target information displayed on the surface corresponding to the pointing position; And generating an additional image to be added to the image of the instruction target information based on the region and / or the feature amount of the instruction target information, and synthesizing the image of the instruction target information and the generated additional image.

【0019】又、請求項27記載の本発明は、所定の面
に表された情報及び/又は複数の物体を撮像し、前記撮
像された前記情報及び/又は前記複数の物体の内、画像
抽出の対象の候補となるべき複数の抽出対象候補を取り
囲む閉曲線を与え、前記与えられた閉曲線情報を検出
し、前記検出された閉曲線情報と前記抽出対象候補の画
像の情報とに基づいて、前記取り囲まれた複数の抽出対
象候補の画像から、それぞれの抽出対象候補の画像を個
別的に抽出し、前記個別的に抽出された画像を利用して
画像合成を行う画像合成方法である。
According to a twenty-seventh aspect of the present invention, an image and / or a plurality of objects represented on a predetermined surface are imaged, and an image is extracted from the imaged information and / or the plurality of objects. Providing a closed curve surrounding a plurality of extraction target candidates to be candidates for the target, detecting the given closed curve information, and performing the enclosing based on the detected closed curve information and information on the image of the extraction target candidate. An image synthesis method for individually extracting images of the respective extraction target candidates from the plurality of extracted extraction target candidate images, and performing image synthesis using the individually extracted images.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。 (実施の形態1)図1は、本発明の画像合成装置にかか
る第1の実施の形態を示す構成図である。
Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) FIG. 1 is a block diagram showing a first embodiment of the image synthesizing apparatus of the present invention.

【0021】図1において、1は情報が記された書類を
撮像するカメラで好ましくはカラーのCCDカメラ、2
はカメラ1によりペン100による書類上の指示位置を
検出する指示位置検出部である。3は前記指示位置に記
されている指示情報の領域および特徴量を検出する指示
情報検出部、4は検出された指示情報の特徴量に応じた
付加画像を生成する付加画像生成部である。5は付加画
像生成部5により生成された付加画像を記憶する付加画
像記憶部、6は前記検出された指示位置により前記付加
画像の合成・表示方法を決定する指示位置別の付加方法
決定部である。7はカメラ1の映像と前記付加画像を合
成する画像合成部、8は画像合成部7で合成された画像
を表示する表示部で好ましくはプロジェクターやディス
プレイである。また、ペン100には、好ましくは、指
示位置の検出を容易にするための所定のRGB値を持つ
マーカー100aおよび指示位置検出開始スイッチ100bを持
たせる。1000は通常ROMやRAMなどのメモリと
CPUから構成される制御部で、1〜8の各部と接続さ
れ、各部の動作および各部間のデータのやりとりを制御
する。ここで、ペン100、マーカー100a等は、本発
明の指示手段に対応しており、指示情報検出部3は、本
発明の指示対象情報検出手段に対応している。 次に本
実施の形態の動作について説明しながら、本発明の画像
合成方法の一実施の形態を同時に述べる。
In FIG. 1, reference numeral 1 denotes a camera for capturing a document on which information is written, preferably a color CCD camera;
Reference numeral denotes an indicated position detection unit that detects an indicated position on a document by the pen 100 using the camera 1. Reference numeral 3 denotes an instruction information detection unit that detects the area and characteristic amount of the instruction information described in the instruction position, and reference numeral 4 denotes an additional image generation unit that generates an additional image according to the characteristic amount of the detected instruction information. Reference numeral 5 denotes an additional image storage unit that stores the additional image generated by the additional image generation unit 5, and 6 denotes an additional method determination unit that determines the method of combining and displaying the additional image based on the detected specified position. is there. Reference numeral 7 denotes an image synthesizing unit for synthesizing the video of the camera 1 and the additional image, and reference numeral 8 denotes a display unit for displaying the image synthesized by the image synthesizing unit 7, preferably a projector or a display. Further, the pen 100 preferably has a marker 100a having a predetermined RGB value and a designated position detection start switch 100b for facilitating detection of the designated position. Reference numeral 1000 denotes a control unit which generally includes a memory such as a ROM or a RAM and a CPU, and is connected to each of the units 1 to 8, and controls the operation of each unit and the exchange of data between the units. Here, the pen 100, the marker 100a, and the like correspond to the pointing means of the present invention, and the pointing information detecting unit 3 corresponds to the pointing target information detecting means of the present invention. Next, an embodiment of the image synthesizing method of the present invention will be described at the same time, while describing the operation of the present embodiment.

【0022】図2は本実施の形態の画像合成装置の動作
を示すフローチャートである。
FIG. 2 is a flowchart showing the operation of the image synthesizing apparatus according to the present embodiment.

【0023】本実施の形態の動作をより分かりやすく説
明するために、ここでは、オーバーヘッドカメラに本発
明を搭載した例で説明する。オーバーヘッドカメラは、
通常、大学等での講義やプレゼンテーションに用いられ
ている。その際、図3に示すように、紙や書類に文字を
書いたり、写真や現実の立体物を提示したりする。これ
は、カメラ1で撮影した映像をそのままモニター等の表
示部8に表示する場合に相当する。
In order to explain the operation of the present embodiment more easily, an example in which the present invention is mounted on an overhead camera will be described here. Overhead camera
It is usually used for lectures and presentations at universities and the like. At this time, as shown in FIG. 3, characters are written on a paper or a document, or a photograph or a real three-dimensional object is presented. This corresponds to a case where the image captured by the camera 1 is displayed on the display unit 8 such as a monitor as it is.

【0024】本実施の形態は、このように、例えば、講
義等を支援するものとして利用可能であり、講義におい
て強調したいところなどを、ペンによる指示位置や指示
対象が有する指示対象情報(本明細書では、これを単
に、指示情報とも呼ぶ)の領域や特徴に応じて、様々な
付加画像(仮想物体)を生成して、その付加画像とカメ
ラの映像とを合成し、書類に装飾等を施すものである。
As described above, the present embodiment can be used, for example, to support a lecture or the like. In this document, this is also simply referred to as instruction information), various additional images (virtual objects) are generated in accordance with the regions and characteristics, and the additional images are combined with the image of the camera to decorate the document with decorations. It is something to give.

【0025】本実施の形態では、白い紙に黒い字を書く
という最も一般的な使い方において、強調したい記入部
分の一部をペン100で指示することにより、その記入
部分の領域が検出される。更に、その記入部分の情報の
特徴量を検出して、その記入部分が文字であるのか、あ
るいは写真であるのかという記入部分の情報の特徴を判
定し、その特徴に適した装飾を、その記入部分の画像に
施すという例、および、ペン100による指示位置に応
じた付加画像の制御についても述べながら、本実施の形
態の動作手順を以下で説明する。 [STEP1a] 画像の取り込み:カメラ1により、図3に示
すような書類と指示棒100を画像I(x,y)として撮影す
る。 [STEP2a] 指示位置検出開始スイッチの状態検出:指示
位置検出開始スイッチ100bがOFFならば、後述す
るSTEP8aにより取込んだ画像を表示部8に表示する。ス
イッチ100bがONならばSTEP3aへ進む。 [STEP3a] ペン用マーカー100aによる指示位置の検
出:指示位置検出部2により、画像I(x,y)から所定の色
(マーカー100aが持つ所定の範囲のRGB値)をもつ所
定の大きさの領域を指示位置として検出する。
In the present embodiment, in the most common use of writing black characters on white paper, by pointing a part of the entry portion to be emphasized with the pen 100, the area of the entry portion is detected. Further, the characteristic amount of the information of the entry portion is detected, the characteristic of the information of the entry portion whether the entry portion is a character or a photograph is determined, and a decoration suitable for the feature is determined. The operation procedure of the present embodiment will be described below with reference to an example in which the image is applied to a partial image and the control of the additional image according to the position indicated by the pen 100. [STEP 1a] Image capture: The camera 1 captures a document and a pointing stick 100 as shown in FIG. 3 as an image I (x, y). [STEP 2a] Detecting the state of the designated position detection start switch: If the designated position detection start switch 100b is OFF, an image captured in STEP 8a described later is displayed on the display unit 8. If the switch 100b is ON, the process proceeds to STEP3a. [STEP 3a] Detection of a designated position by the pen marker 100a: The designated position detection unit 2 uses the designated position detecting unit 2 to determine a predetermined color (RGB value in a predetermined range of the marker 100a) from the image I (x, y). The area is detected as the designated position.

【0026】例えば、各画素I(x,y)について、マーカー
の色を表す所定の範囲のRGB値(マーカー100aが赤っ
ぽい色の場合、例えば、180<R<255かつ120<G<140かつ60
<B<120)であるかを順に調べ、マーカーの色であれば、
その画素を中心とした所定の大きさの領域について、マ
ーカーの色を表す所定の範囲のRGB値をもつ画素を抽
出する。抽出された画素をすべて包含する外接長方形を
求め、その長方形が所定の大きさであればマーカーであ
ると判定し、指示位置はマーカー中心(mx,my)とする。
マーカーが検出されなかった場合は、STEP7aへ進む。 [STEP4a] 指示位置による情報付加方法の決定:ここで
は、画像の端付近を指示しているかどうかを判定し、指
示位置が画像(書類)の端である場合、例えば、画像サ
イズが縦×横:480×640のとき、マーカー中心(mx,my)
がmx<30,my<30,610<mx,450<myのいずれかを満たすと
き、STEP4a_1で枠画像を選択する。 [STEP4a_1]枠画像の選択:付加画像記憶部5は、プレ
ゼンテーションをしている人の所属や講演日時を含んだ
枠画像を少なくとも1つ記憶しており、書類の端が指示
されたとき、図4に示すように、画像合成部7により、
カメラ1の映像に枠画像をスーパーインポーズして表示
部8に表示する。枠画像が複数記憶されている場合に
は、書類の端が指示されるごとに異なる画像を選択す
る。これにより、通常OHPシートの作成時に付与する
所属や日時や枠を、プレゼンテーションしながら通常の
なにも書いていない紙にその場で付与することができ
る。 [STEP5a] 指示位置による情報付加方法の決定:ここで
は、未装飾の情報が指示されたかどうかを判定し、指示
されておれば、指示情報検出部3により、マーカー中心
の近傍の黒画素の有無を調べる。黒画素が存在する場
合、文字などの情報が記されているとし、STEP5a_1でそ
の特徴量を算出し、STEP5a_2でその特徴量に応じた装飾
画像を生成・記憶する。 [STEP5a_1] 指示対象情報の領域及び特徴量の算出:指
示情報検出部3により、まず、指示対象情報の領域を求
める。マーカー中心(mx,my)から、所定の範囲内にある
黒画素にラベルをつける。ラベルがつけられた各黒画素
について再帰的にラベルをつけていく。ラベルをつける
黒画素がなくなればラベル付けを終了する。
For example, for each pixel I (x, y), an RGB value within a predetermined range representing the color of the marker (for example, when the marker 100a is reddish, 180 <R <255 and 120 <G <140 And 60
<B <120), and if it ’s the color of the marker,
For an area of a predetermined size centered on the pixel, pixels having RGB values in a predetermined range representing the color of the marker are extracted. A circumscribed rectangle that includes all the extracted pixels is obtained, and if the rectangle is a predetermined size, it is determined that the rectangle is a marker, and the designated position is the marker center (mx, my).
If no marker has been detected, proceed to STEP7a. [STEP4a] Determination of information addition method based on designated position: Here, it is determined whether or not the image is near the edge of the image. If the designated position is at the edge of the image (document), for example, the image size is vertical x horizontal : Marker center (mx, my) when 480 x 640
When satisfies mx <30, my <30, 610 <mx, 450 <my, a frame image is selected in STEP4a_1. [STEP4a_1] Selection of a frame image: The additional image storage unit 5 stores at least one frame image including the affiliation of the person giving the presentation and the date and time of the lecture. As shown in FIG.
The frame image is superimposed on the image of the camera 1 and displayed on the display unit 8. When a plurality of frame images are stored, a different image is selected each time the edge of the document is specified. In this way, the affiliation, date and time, and the frame to be given when the normal OHP sheet is created can be given on the spot to a sheet of paper on which normal nothing is written during presentation. [STEP 5a] Determination of information addition method based on designated position: Here, it is determined whether or not undecorated information has been designated, and if so, the presence / absence of a black pixel near the marker center is determined by the designated information detecting unit 3. Find out. When there is a black pixel, it is assumed that information such as characters is described, and the feature amount is calculated in STEP5a_1, and a decorative image corresponding to the feature amount is generated and stored in STEP5a_2. [STEP 5a_1] Calculation of the area and the characteristic amount of the instruction target information: First, the area of the instruction target information is obtained by the instruction information detecting unit 3. Label black pixels within a predetermined range from the marker center (mx, my). Labeling is performed recursively for each labeled black pixel. When there are no more black pixels to be labeled, labeling ends.

【0027】図5に示すように、例えば、文字列がx軸
に平行に表されている場合、ラベルのついた画素のx座
標y座標のそれぞれ最小値、最大値をxl,yl,xr,yrとすれ
ば、長方形(xl,yl)-(xr,yr)が指示対象情報の領域とな
る。
As shown in FIG. 5, for example, when a character string is expressed in parallel to the x-axis, the minimum and maximum values of the x- and y-coordinates of the labeled pixels are xl, yl, xr, If it is yr, the rectangle (xl, yl)-(xr, yr) is the area of the instruction target information.

【0028】次に、文字列であるか、あるいは写真であ
るかを識別する特徴量としては、例えば、指示領域の全
画素中の白色(所定の範囲のRGB値)をもつ画素の割合
を算出する。指示領域が写真の場合、白色の画素は比較
的少ない。これに対し、文字列の場合は、黒色の画素と
白色の画素が比較的交互に現れるので、写真の領域に比
べて白色の画素の割合が多い。そのため、所定のしきい
値により白色の画素の割合が小さければ写真の領域であ
り、大きければ文字列の領域であると判定できる。 [STEP5a_2] 装飾画像の生成・記憶:付加画像生成部4
によりSTEP5a_1で算出された領域とその特徴量に基づ
き、装飾用の付加画像を生成する。
Next, as a feature amount for identifying whether a character string or a photograph, for example, a ratio of pixels having white (RGB values in a predetermined range) among all pixels in the designated area is calculated. I do. When the designated area is a photograph, there are relatively few white pixels. On the other hand, in the case of a character string, black pixels and white pixels appear relatively alternately, so that the ratio of white pixels is larger than that in a photograph area. Therefore, if the ratio of white pixels is small according to the predetermined threshold value, it can be determined that the region is a photograph region, and if the ratio is large, it can be determined that the region is a character string region. [STEP5a_2] Generation and storage of decorative image: additional image generation unit 4
Thus, an additional image for decoration is generated based on the region calculated in STEP5a_1 and its feature amount.

【0029】例えば、写真の領域は網掛けで強調すると
見にくくなるので、縁取りにし、文字列は網掛けで強調
する。網掛け画像は、STEP5a_1で検出された指示領域に
ついて、黒色以外の画素のRGB値を所定の色のRGB
値に置き換えることで生成できる。指示領域の白画素の
割合が15%以下であるときを写真、それ以上の時を文
字列としたときの装飾結果を図6に示す。また、装飾さ
れた領域は既存の装飾領域として記憶しておく。 [STEP6a] 指示位置による情報付加方法の決定:ペン1
00による指示位置が、STEP5a_2で記憶された既存の装
飾領域内にあるかどうかを判定し、既存の装飾情報を指
示していると判定した場合、STEP7aにより、その位置に
応じて装飾の表示方法を変更する。それ以外はSTEP1aへ
進む。 [STEP7a]既存装飾領域の表示方法の変更:指示位置別
の情報付加方法決定部6は、図7に示すように、既存の
装飾領域700を複数領域に分割し(図7では、前部分
701と、後部分702の2つの領域)、例えば前部分
701が指示されていればその装飾を消去し、後部分7
02が指示されていれば装飾を点滅させるというように
表示方法を変更し、カメラ1の映像に合成して表示部8
に表示する。
For example, if a photograph area is emphasized by shading, it becomes difficult to see. Therefore, it is bordered and a character string is emphasized by shading. The hatched image indicates that, for the designated area detected in STEP 5a_1, the RGB values of the pixels other than black are changed to RGB of a predetermined color.
It can be generated by replacing it with a value. FIG. 6 shows the decoration result when the ratio of white pixels in the designated area is 15% or less as a photograph, and when the ratio is more than 15% as a character string. The decorated area is stored as an existing decoration area. [STEP6a] Determining information addition method by pointing position: Pen 1
It is determined whether the position designated by 00 is within the existing decoration area stored in STEP 5a_2, and if it is determined that the existing decoration information is indicated, STEP 7a displays the decoration in accordance with the position. To change. Otherwise, proceed to STEP1a. [STEP 7a] Changing the display method of the existing decoration area: The information addition method determination unit 6 for each designated position divides the existing decoration area 700 into a plurality of areas as shown in FIG. 7 (the front part 701 in FIG. 7). And two parts of the rear part 702), for example, if the front part 701 is designated, the decoration is erased and the rear part 702 is deleted.
02 is indicated, the display method is changed such that the decoration is blinked, and the display unit 8 is synthesized with the image of the camera 1.
To be displayed.

【0030】また、上述した通り、STEP3aにおいてマー
カー100aが検出されなかった場合は、STEP7aに進む
ので、この場合、すべての付加画像の表示を停止する。
これにより、違う紙にあらためて文字を書き始める前
に、カメラの視野外でペン100のスイッチ100bを押す
ことで、すべての付加画像を一度に消去することができ
る。 [STEP8a] 画像の合成・表示:画像合成部7により、カ
メラ1の映像と、付加画像記憶部5で生成された装飾用
画像とを、例えば、スーパーインポーズ等で合成し表示
部8に表示する。
As described above, if the marker 100a is not detected in STEP 3a, the process proceeds to STEP 7a. In this case, the display of all additional images is stopped.
Thus, by pressing the switch 100b of the pen 100 outside the field of view of the camera before starting writing characters on a different paper, all the additional images can be erased at once. [STEP 8a] Image composition / display: The image composition unit 7 combines the image of the camera 1 and the decoration image generated in the additional image storage unit 5 by, for example, superimposing and displays the image on the display unit 8. I do.

【0031】以上、[STEP1a]〜[STEP8a]で説明した手順
により、第1の実施の形態によれば、プレゼンテーショ
ンしている人は、自分の書いた情報の強調したい部分を
指示棒で指示するだけで、その部分の特徴を自動抽出し
て適切な装飾用の画像がスーパーインポーズされる。
According to the first embodiment, according to the procedure described in [STEP1a] to [STEP8a], the presenter specifies the part of the information that he / she wrote by using the wand. Just then, the features of that part are automatically extracted and the appropriate decorative image is superimposed.

【0032】従って、いろんな色のペンを持ち替えて使
い分けるなどの必要がない。また、ペン等による指示位
置により、装飾方法を簡単に変更でき、例えば、書類の
端のあたりを指示すれば自動的に枠や所属、日時等を付
与したり、既に装飾されている情報部分については、そ
の指示位置により装飾を消したり、点滅させることがで
きるので、プレゼンテーション用の資料をあらかじめ作
成しなくとも、その場で効果的なプレゼンテーションが
可能となる。
Therefore, there is no need to switch between pens of various colors and use them properly. In addition, the decoration method can be easily changed depending on the position indicated by a pen or the like. For example, if the user touches the edge of the document, a frame, affiliation, date and time, etc. are automatically added, and the information part already decorated is Can be turned off or blinked depending on the designated position, so that an effective presentation can be made on the spot without preparing presentation materials in advance.

【0033】なお、上記の手順においては、ペン等によ
る指示位置にある指示対象の領域や特徴量に応じて付加
画像を生成したが、単に、ペン等による指示位置にあら
かじめ記憶されている「矢印」等の画像をスーパーイン
ポーズ等で合成表示してもよい。これは、例えば、英語
の授業等で、教科書をオーバーヘッドカメラの上に置い
て、英単語のアクセントの位置を指示したり、テレビ会
議やパソコン会議において、手元の資料や模型等の現実
のモノの注目してもらいたい個所や今説明している部分
を指示する場合等に有効である。
In the above procedure, the additional image is generated in accordance with the region of the pointing object and the characteristic amount at the position indicated by the pen or the like. May be superimposed and displayed by superimposition or the like. This can be done, for example, by placing a textbook on an overhead camera in an English lesson or the like to indicate the position of accents of English words, or in a video conference or personal computer conference, by using real objects such as materials at hand or models. This is effective when the user wants to pay attention to a part or the part that is just described.

【0034】また、上記の手順においては、画像I(x,y)
は、常にデジタル化されている例で説明したが、指示位
置検出スイッチ100bがONしたときのみデジタル化
してもよい。 (実施の形態2)次に本発明の画像合成装置に係る第2
の実施の形態について説明する。
In the above procedure, the image I (x, y)
Has been described in the example of being always digitized, but may be digitized only when the pointing position detection switch 100b is turned on. (Embodiment 2) Next, a second embodiment of the image synthesizing apparatus according to the present invention will be described.
An embodiment will be described.

【0035】第1の実施の形態では、文字列と写真の装
飾方法はそれぞれ1種類であったが、第2の実施の形態
は、より簡単に複数種類の装飾方法を使えるように考慮
したものである。
In the first embodiment, there is only one type of decoration method for a character string and a photograph. However, in the second embodiment, consideration is given so that a plurality of types of decoration methods can be used more easily. It is.

【0036】図8は第2の実施の形態の構成図であり、
図1に示した第1の実施の形態と同じ構成部分には同一
の番号を付して詳細な説明は省略する。
FIG. 8 is a block diagram of the second embodiment.
The same components as those in the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0037】第2の実施の形態と第1の実施の形態の主
な相違点は、指示位置検出部2を、ペン等に付与した複
数マーカーの種類を識別するマーカー種類・指示位置判
定部9で、付加画像生成部4を、マーカーの種類に応じ
て異なる付加画像を生成する異種マーカー対応付加画像
生成部10で置き換えたことである。ここで、マーカー
種類・指示位置判定部9は、本発明の指示位置検出手段
に対応し、また、異種マーカー対応付加画像生成部10
は、本発明の付加画像生成手段に対応する。
The main difference between the second embodiment and the first embodiment is that the designated position detecting unit 2 is a marker type / designated position determining unit 9 for identifying the type of a plurality of markers attached to a pen or the like. Thus, the additional image generation unit 4 is replaced with a different marker-compatible additional image generation unit 10 that generates a different additional image according to the type of marker. Here, the marker type / pointed position determination unit 9 corresponds to the pointed position detection unit of the present invention, and the heterogeneous marker corresponding additional image generation unit 10
Corresponds to the additional image generation means of the present invention.

【0038】以上のように構成された第2の実施の形態
の画像合成装置の動作を、図9のフローチャートを用い
て説明する。ただし、第1の実施の形態の動作を表す図
2のフローチャートに新たな手順を追加したものである
から、その相違点である[STEP3b]、[STEP5b]、[STEP
7b_2]のみを説明する。
The operation of the image synthesizing apparatus according to the second embodiment configured as described above will be described with reference to the flowchart of FIG. However, since a new procedure is added to the flowchart of FIG. 2 representing the operation of the first embodiment, the differences [STEP 3b], [STEP 5b], [STEP 3]
7b_2] alone will be described.

【0039】本実施の形態においては、図10に示すよ
うに、100a−1、〜100a−4の4種のマーカー
を指示棒の先端部に付与し、100a−1〜100a−
4の内、いずれのマーカーで書類が指示されているか
を、カメラ1による映像から識別することにより複数の
装飾方法を簡単に使えるようにした例を示して説明す
る。 [STEP3b] マーカー色の判定:マーカー種類・指示位置
判定部9により、ペン100に付与された、カメラ1の
方を向いているマーカー色を判定する。
In the present embodiment, as shown in FIG. 10, four types of markers 100a-1 and 100a-4 are provided on the tip of the pointing rod, and 100a-1 to 100a-
4, an example in which a plurality of decoration methods can be easily used by identifying which marker indicates a document from an image captured by the camera 1 will be described. [STEP 3b] Determination of marker color: The marker type / pointed position determination unit 9 determines the marker color assigned to the pen 100 and facing the camera 1.

【0040】具体的には、画像I(x,y)において、所定の
色(本実施の形態では、図10に示したマーカーが持つ
赤色と青色)ごとに画素の数を数え、多い方の色をカメ
ラ1に向いているペン用のマーカー色と認識する。例え
ば、ここでは、赤色の画素の数と青色の画素の数を調
べ、それら画素数の大小を比較することになる。これに
より、ペン100が多少傾いていて、2種類の色が同時
に検出されたとしても、画素数が多いと判定された方の
色を、指示に使用されたマーカーの色と判定することに
より、より柔軟に間違いの無い判定が出来る。[STEP5b]
マーカー種類の判定:マーカー種類・指示位置判定部
9により、網掛け用マーカー(100a−1,100a
−2)かアンダーライン用マーカー(100a−3,1
00a−4)かを判定する。
More specifically, in the image I (x, y), the number of pixels is counted for each predetermined color (in this embodiment, the red and blue colors of the marker shown in FIG. 10), and The color is recognized as the pen marker color facing the camera 1. For example, here, the number of red pixels and the number of blue pixels are checked, and the numbers of these pixels are compared. Thereby, even if the pen 100 is slightly inclined and two types of colors are detected at the same time, the color determined to have a larger number of pixels is determined as the color of the marker used for the instruction. More flexible and error-free judgment can be made. [STEP5b]
Determination of marker type: The marker type / pointed position determination unit 9 uses the shading markers (100a-1, 100a).
-2) or underline marker (100a-3, 1)
00a-4).

【0041】具体的には、STEP4bで検出されたペン10
0上のマーカー領域が有する所定の色の画素の数を数え
る。網掛け用のマーカーの方が、アンダーライン用マー
カーに比べて所定の色の画素数が少ないので、所定のし
きい値により何れのマーカーであるかが識別出来る。
尚、マーカー領域が有する所定の色の画素の数は、STEP
3bで識別された所定の色の画素の数である。 [STEP7b_2] マーカーの種類に基づく装飾画像の生
成:異種マーカー対応付加画像生成部10は、STEP5bで
識別されたマーカーの種類、およびSTEP7b_1で得られた
特徴量に基づき、装飾画像を生成する。例えば図11
は、指示対象情報が文字列の場合の、赤色の網掛け(図
11中では、マーカー100a−1)および青色のアン
ダーライン(図11中では、マーカー100a−4)の
装飾画像の例を示している。また、指示対象情報が写真
の場合は、縁取りの色のみを変更する。
More specifically, the pen 10 detected in STEP 4b
The number of pixels of a predetermined color included in the marker area on 0 is counted. The shaded marker has a smaller number of pixels of a predetermined color than the underline marker, so that it is possible to identify which marker is a predetermined threshold.
Note that the number of pixels of a predetermined color included in the marker area is determined in STEP.
It is the number of pixels of a predetermined color identified in 3b. [STEP7b_2] Generation of decorative image based on marker type: The different-marker-corresponding additional image generation unit 10 generates a decorative image based on the marker type identified in STEP5b and the feature amount obtained in STEP7b_1. For example, FIG.
Shows an example of a decoration image of red shading (marker 100a-1 in FIG. 11) and blue underline (marker 100a-4 in FIG. 11) when the instruction target information is a character string. ing. If the instruction target information is a photograph, only the color of the border is changed.

【0042】以上、第3の実施の形態によれば、ペン1
00等に付与した複数種類のマーカーを識別することに
より装飾方法を切り替えられるので、複数種類の色のペ
ンを持ち替えて記入するなどの手間が省け、プレゼンテ
ーションを円滑に進めることが可能となる。 (実施の形態3)次に本発明の画像合成装置に係る第3
の実施の形態について説明する。
As described above, according to the third embodiment, the pen 1
Since the decoration method can be switched by identifying a plurality of types of markers assigned to 00 or the like, it is possible to save the trouble of holding and writing with a plurality of types of color pens, and to facilitate the presentation. (Embodiment 3) Next, a third embodiment of the image synthesizing apparatus according to the present invention will be described.
An embodiment will be described.

【0043】第3の実施の形態では、第1、2の実施の
形態に対してさらに、これまでに生成した既存の装飾用
画像をコピー等再利用できるように考慮したものであ
る。
The third embodiment is different from the first and second embodiments in that the existing decoration image generated so far can be reused by copying or the like.

【0044】図12は第3の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。
FIG. 12 is a block diagram of the third embodiment. The same components as those of the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description is omitted.

【0045】第3の実施の形態と第1の実施の形態の主
な相違点は、さらに、付加画像記憶部5に記憶されてい
る既存の装飾画像の一覧表をカメラ1の映像と合成して
表示し、それらをペン100等により選択し、書類上の
別の指示位置に合成して表示する既存付加画像複写部1
1付加したことである。
The main difference between the third embodiment and the first embodiment is that a list of existing decorative images stored in the additional image storage unit 5 is combined with the video of the camera 1. Existing additional image copying unit 1 for displaying the selected image with a pen 100 or the like, and combining and displaying the selected image at another designated position on the document.
That is, 1 is added.

【0046】以上のように構成された第3の実施の形態
の画像合成装置の動作を、図13のフローチャートを用
いて説明する。
The operation of the image synthesizing apparatus according to the third embodiment configured as described above will be described with reference to the flowchart of FIG.

【0047】第3の実施の形態の動作手順は、図13に
示す通り、第1の実施の形態の動作手順[STEP3a]と[S
TEP4a]の間に[STEP1c]〜[STEP3c]を挿入したもの
であるから、その部分のみ説明する。 [STEP1c] 既存装飾画像一覧表の表示:まず、これまで
に付加画像生成部4により装飾用の画像が1つでも生成
されていれば、図14に示した図中の左上に示すよう
に、「一覧表」という見出しのついた画像をカメラ1の
映像にスーパーインポーズで表示する。
As shown in FIG. 13, the operation procedure of the third embodiment is similar to the operation procedure [STEP3a] and [S3] of the first embodiment.
Since [STEP1c] to [STEP3c] are inserted between [TEP4a], only that portion will be described. [STEP1c] Display of existing decoration image list: First, if at least one decoration image has been generated by the additional image generation unit 4 so far, as shown in the upper left of FIG. An image with the heading “List” is displayed in superimposition on the video of the camera 1.

【0048】次に、第1の実施例のSTEP3aと同様にして
検出された指示位置が、この領域内にあれば、例えば図
14に示すように、網掛けされた「3.分裂型輪郭モデ
ルによる現実物の抽出」の画像と、アンダーラインが引
かれた「4.プロトタイプシステムの機能」の画像と
を、カメラ1の映像に対してスーパーインポーズにより
表示する。 [STEP2c] 既存装飾画像の選択:図15に示すように、
STEP1cで一覧表示された既存の装飾画像を、第1の実施
例のSTEP3aと同様にしてペン100による指示位置を検
出し、その指示位置にある既存画像を選択する。 [STEP3c] 既存装飾画像の複写:図16に示すように、
STEP2cで選択した画像を、第1の実施例のSTEP3aと同様
にして検出したペン100による指示位置にスーパーイ
ンポーズで表示する。
Next, if the designated position detected in the same manner as in STEP 3a of the first embodiment is within this area, for example, as shown in FIG. The image of the camera 1 is superimposed on the image of the camera 1 and the image of the “extraction of a real object” and the underlined image of “4. [STEP2c] Selection of existing decoration image: As shown in FIG.
The existing decoration images listed in STEP 1c are detected by the pen 100 in the same manner as in STEP 3a of the first embodiment, and the existing image at the specified position is selected. [STEP3c] Copy of existing decoration image: As shown in FIG.
The image selected in STEP 2c is superimposed and displayed at the position indicated by the pen 100 detected in the same manner as in STEP 3a of the first embodiment.

【0049】以上説明した手順により、第3の実施の形
態によれば、既存の装飾画像をスーパーインポーズで一
覧表示し、それらをペン等で指示してコピーできるの
で、書類を複数枚使う場合でも、同じ文字列を何度も書
類に書く必要がなく、プレゼンテーションをさらに円滑
に進めることが可能となる。 (実施の形態4)次に本発明の画像合成装置に係る第4
の実施の形態について説明する。
According to the third embodiment, according to the above-described procedure, a list of existing decorative images can be displayed in a superimposed manner, and these can be copied by designating them with a pen or the like. However, it is not necessary to write the same character string many times on documents, and the presentation can be further smoothly performed. (Embodiment 4) Next, the fourth embodiment according to the image synthesizing apparatus of the present invention will be described.
An embodiment will be described.

【0050】第1〜3の実施の形態では、書類はカメラ
に対して固定されているものとして説明したが、第4の
実施の形態は、書類に字を書き込む際等に書類が、元の
位置からずれて移動してしまう様な場合にも、既存の装
飾画像が、書類の上記移動にあわせて、正しい位置にス
ーパーインポーズされるように考慮したものである。
In the first to third embodiments, the description has been made assuming that the document is fixed to the camera. However, in the fourth embodiment, when writing characters on the document, the document is replaced with the original. Even in a case where the decoration image is shifted from the position, the existing decoration image is considered so as to be superimposed at a correct position in accordance with the movement of the document.

【0051】図17は第4の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。
FIG. 17 is a configuration diagram of the fourth embodiment. The same components as those of the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description is omitted.

【0052】第4の実施の形態と第1の実施の形態の主
な相違点は、さらに、書類の移動位置を推定する移動パ
ラメータ推定部12と、推定された移動パラメータによ
り既存の装飾画像を変形する付加画像変形部13を付加
したことである。ここで、以上のように構成された第4
の実施の形態の画像合成装置の動作を図18のフローチ
ャートを用いて説明する。第4の実施の形態の動作は、
第1の実施の形態の動作のSTEP1aとSTEP2aの間に、以下
のSTEP1d〜STEP4dを挿入したものである。 [STEP1d] 既存の装飾領域の有無:移動パラメータ推定
部12は、付加画像生成部5を参照し、既存の装飾画像
がある場合には、STEP2dへ進み、既存の装飾画像が無
ければSTEP2aを実行する。[STEP2d] 既存装飾画像から
の部分画像の選択:任意の既存装飾画像から、時間的に
連続する2枚の画像間でテンプレートマッチングを行う
ため、図19に示すような小領域をテンプレートとして
選択する。
The main difference between the fourth embodiment and the first embodiment is that a moving parameter estimating unit 12 for estimating a moving position of a document and an existing decoration image are also estimated based on the estimated moving parameters. That is, an additional image deforming unit 13 to be deformed is added. Here, the fourth configured as described above
The operation of the image synthesizing apparatus according to this embodiment will be described with reference to the flowchart in FIG. The operation of the fourth embodiment is as follows.
The following STEP1d to STEP4d are inserted between STEP1a and STEP2a in the operation of the first embodiment. [STEP1d] Presence or absence of existing decoration area: The movement parameter estimation unit 12 refers to the additional image generation unit 5, and proceeds to STEP2d if there is an existing decoration image, and executes STEP2a if there is no existing decoration image. I do. [STEP2d] Selection of partial image from existing decorative image: From an arbitrary existing decorative image, a small area as shown in FIG. 19 is selected as a template to perform template matching between two temporally consecutive images. .

【0053】尚、上述した時間的に連続する2枚の画像
は、上述した書類の移動の前後の時点における画像であ
り、カメラ1により撮像されたものである。 [STEP3d] 部分画像のマッチング:時間的に連続する2枚
の画像間で、テンプレートマッチングを行い、移動パラ
メータを求める。この場合書類の移動は、主に平行移動
(xd,yd)と回転移動θからなるので、例えば、テンプレ
ートを0<θ<360°、(xd,yd)∈R(所定の探索範囲R:
図19参照)の間で動かし、輝度値の差の2乗和が最小
となるθ、(xd,yd)を移動パラメータとする。 [STEP4d] 装飾画像の変形:STEP3dで求めた移動パラメ
ータにより、付加画像生成部5に記憶されているすべて
の画像を変形する。
The two temporally continuous images are images before and after the movement of the document, and are images taken by the camera 1. [STEP3d] Matching of partial images: template matching is performed between two temporally consecutive images to obtain a movement parameter. In this case, the movement of documents is mainly parallel movement
Since (xd, yd) and the rotational movement θ are included, for example, the template is set to 0 <θ <360 °, (xd, yd) ∈R (predetermined search range R:
(See FIG. 19), and θ, (xd, yd) at which the sum of squares of the difference between the luminance values is minimized is set as a movement parameter. [STEP 4d] Deformation of decorative image: All images stored in the additional image generation unit 5 are deformed by the movement parameters obtained in STEP 3d.

【0054】以上、第4の実施の形態によれば、装飾画
像の一部を用いて連続するフレーム間でテンプレートマ
ッチングすることで書類の移動パラメータを求めて、装
飾画像を変形するので、プレゼンテーション中に書類が
移動した場合でも、強調したい部分を正しく装飾するこ
とができる。 (実施の形態5)次に本発明の画像合成装置に係る第5
の実施の形態について説明する。
As described above, according to the fourth embodiment, the decoration image is deformed by obtaining the movement parameter of the document by performing template matching between consecutive frames using a part of the decoration image. Even if the document is moved, the part to be emphasized can be correctly decorated. (Embodiment 5) Next, a fifth embodiment according to the image synthesizing apparatus of the present invention will be described.
An embodiment will be described.

【0055】第1の実施の形態では、ペン等により1個
所ずつ強調したい部分を指定し、その装飾を消すには、
装飾を施す場合と同様にその部分を指示するというもの
であった。第5の実施の形態は、複数個所の強調やその
消去を、より簡単かつ直感的に行えるように考慮したも
のである。
In the first embodiment, a part to be emphasized one by one with a pen or the like is specified, and the decoration is erased.
In that case, the part was pointed in the same way as in the case of decoration. The fifth embodiment is designed so that emphasis and erasure of a plurality of locations can be performed more easily and intuitively.

【0056】図20は第5の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。
FIG. 20 is a configuration diagram of the fifth embodiment. The same components as those of the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description is omitted.

【0057】第5の実施の形態と第1の実施の形態の主
な相違点は、ペン100等のペン型指示手段に加えて、
書類上に置くことにより装飾したい部分を指示する設置
用指示手段200を用いた点と、指示位置検出部2を、
異なる複数の指示手段を検出する異種複数指示手段指示
位置検出部14で置き換えた点と、指示情報検出部3
を、指示手段により指示された情報の領域や特徴量を、
その指示手段の種類に応じて検出する異種複数指示手段
対応指示情報検出部15で置き換えた点と、更に付加画
像生成部4を、指示手段の種類に応じて異なる付加画像
を生成する異種複数指示手段対応付加画像生成部16で
置き換えた点である。ここで、本発明の指示手段は、ペ
ン100等のペン型指示手段と設置用指示手段200を
含む手段である。また、ペン100等のペン型指示手段
や、設置用指示手段200は、それぞれ本発明の指示部
材に対応するものである。また、異種複数指示手段指示
位置検出部14は、本発明の指示位置検出手段に対応
し、異種複数指示手段対応指示情報検出部15は、本発
明の指示対象情報検出手段に対応する。また、異種複数
指示手段対応付加画像生成部16は、本発明の付加画像
生成手段に対応する。
The main difference between the fifth embodiment and the first embodiment is that, in addition to the pen type indicating means such as the pen 100,
A point using the installation instruction means 200 for indicating a part to be decorated by placing it on a document, and a pointing position detection unit 2
The point that it is replaced by a different type plural pointing means pointing position detecting unit 14 for detecting a plurality of different pointing means, and that the pointing information detecting unit 3
To the area or feature amount of the information specified by the specifying means,
The point that it is replaced by the instruction information detecting unit 15 corresponding to the different type plural instruction means that detects according to the type of the instruction means, and further, the additional image generation unit 4 is replaced by the different type plural instruction that generates a different additional image according to the type of the instruction means. This is the point of replacement in the means corresponding additional image generation unit 16. Here, the indicating means of the present invention is a means including a pen-type indicating means such as the pen 100 and an installation indicating means 200. The pen-type indicating means such as the pen 100 and the installation instruction means 200 correspond to the indicating member of the present invention. In addition, the different type plural pointing means pointing position detecting unit 14 corresponds to the pointing position detecting means of the present invention, and the different type plural pointing means corresponding indicating information detecting unit 15 corresponds to the pointing target information detecting means of the present invention. Further, the additional image generation unit 16 corresponding to different types of plural instruction means corresponds to the additional image generation means of the present invention.

【0058】以上のように構成された第5の実施の形態
の画像合成装置の動作を図21のフローチャートを用い
て説明する。ここでは、第1の実施の形態の動作と異な
るSTEP2e、STEP2e_1、STEP2e_2、STEP8eのみ説明する。
ここでは、設置用指示手段200として、先の第1、2
の実施の形態で説明したペン100の持つマーカーとは
異なる黄色のマーカーを用いる例で説明する。図22に
示すように、ここでも、第2の実施の形態で示したよう
に、設置用指示手段として、網掛け用のマーカー200
aと、アンダーライン用のマーカー200bの2種類の
マーカーを用いる例で説明する。ここで、これら2種類
のマーカー200a,200bは、例えば、ガラスやプ
ラスッチック材料等で形成された、コインあるいはボタ
ンの様な丸い形状のものの表面に、図22に示すような
異なる模様を印刷等することにより簡単に実現出来る。
また、これとは別に裏面が粘着面となっており、表面
に、図22に示すような異なる模様が印刷されたシール
部材でも簡単に実現出来る。また、上記ボタン形状のも
のの無地の表面に、上記シール部材を貼ってもよい。 [STEP2e] 設置用指示手段の検出:異種複数指示手段指
示位置検出部14により、第1の実施の形態のSTEP1aで
取り込まれた画像I(x,y)から、STEP3a同様にして、所定
の設置用マーカーの色(所定の範囲のRGB値で、ここ
では、例えば黄色180<R<255かつ180<G<255かつ60<B<12
0)をもつ所定の大きさの領域を設置用マーカーとして
検出する。ただし、設置用マーカーは、通常複数設置さ
れるので、所定の色を持つ所定の大きさの領域をすべて
抽出する。
The operation of the image synthesizing apparatus according to the fifth embodiment configured as described above will be described with reference to the flowchart of FIG. Here, only the steps STEP2e, STEP2e_1, STEP2e_2, and STEP8e which are different from the operation of the first embodiment will be described.
Here, as the installation instruction means 200, the first, second,
An example using a yellow marker different from the marker of the pen 100 described in the embodiment will be described. As shown in FIG. 22, here, as shown in the second embodiment, a shading marker 200 is used as the installation instruction means.
An example will be described in which two types of markers, ie, a and an underline marker 200b are used. Here, these two types of markers 200a and 200b are formed by printing different patterns as shown in FIG. 22 on the surface of a round shape such as a coin or a button formed of, for example, glass or plastic material. This can be easily realized.
Further, separately from this, the back surface is an adhesive surface, and a seal member having a different pattern printed on the front surface as shown in FIG. 22 can be easily realized. Further, the seal member may be attached to a plain surface of the button-shaped member. [STEP2e] Detection of the installation instruction means: The different installation instruction means indicated position detection unit 14 performs the predetermined installation from the image I (x, y) captured in STEP1a of the first embodiment in the same manner as in STEP3a. Color of the marker for use (RGB values in a predetermined range, here, for example, yellow 180 <R <255 and 180 <G <255 and 60 <B <12
An area of a predetermined size having 0) is detected as an installation marker. However, since a plurality of installation markers are usually installed, all areas of a predetermined size having a predetermined color are extracted.

【0059】設置用マーカーの位置は、その外接長方形
の左上(xl(i),yl(i))および右下(xr(i),yr(i))の頂点の
組(xl(i),yl(i))-(xr(i),yr(i))として記憶する。ただ
し、iはマーカーの数を表す。また、領域に含まれる所
定の色の画素の数により、網掛け用と、アンダーライン
用の2種類のマーカー200a,200bを識別する。 [STEP2e_1] 設置用指示手段に基づく指示領域・特徴量
の算出:異種複数指示手段対応指示情報検出部16によ
り、図22に示すように、マーカーが検出された位置に
隣接する長方形の領域(xr(i),yl(i))-(画像の幅,yr(i))
中で最大のx座標を持つ黒色画素を探索し、そのx座標
をx_max(i)とする。このとき、各y座標ごとにx軸方向
へ探索を行うが、所定の長さの間黒色が検出されない場
合は探索をうち切る。これにより書類の汚れや強調した
い記入部分のあとに離れて情報があってもそれらを誤抽
出することがない。ここでは、長方形(xr(i),yl(i))-(x
_max(i),yr(i))が指示された領域となる。
The position of the installation marker is determined by the set of vertices (xl (i), xl (i), yr (i)) at the upper left (xl (i), yl (i)) and lower right (xr (i), yr (i)) of the circumscribed rectangle. yl (i))-(xr (i), yr (i)). Here, i represents the number of markers. Further, two types of markers 200a and 200b for shading and for underlining are identified based on the number of pixels of a predetermined color included in the area. [STEP2e_1] Calculation of designated area / feature quantity based on installation instruction means: As shown in FIG. 22, the rectangular area (xr (i), yl (i))-(image width, yr (i))
A black pixel having the largest x coordinate is searched for, and the x coordinate is set to x_max (i). At this time, the search is performed in the x-axis direction for each y coordinate, but if no black color is detected for a predetermined length, the search is stopped. This prevents erroneous extraction of information even if there is information after the stain on the document or the part to be emphasized. Here, the rectangle (xr (i), yl (i))-(x
_max (i), yr (i)) is the designated area.

【0060】次に、第1の実施の形態のSTEP5a_1と同様
にして、指示領域が文字であるのか、あるいは写真であ
るのかを識別する。 [STEP2e_2] 設置用指示手段用付加画像の生成:第1の
実施の形態のSTEP5a_2と同様にして、STEP1e_1で算出さ
れた領域・特徴量に基づき、網掛け用やアンダーライン
用に用いる付加画像を生成する。 [STEP8e]:画像合成部7は、STEP1eにおいて画像I(x,y)
が所定の時間間隔で取込まれるため、表示部8への画像
の表示を更新する。その際、設置用マーカーの位置に応
じて付加画像を再合成する。これにより、図23に示す
ように設置用マーカーが取り去られれば、付加画像が再
合成されないため、装飾が消える。
Next, as in STEP 5a_1 of the first embodiment, whether the designated area is a character or a photograph is identified. [STEP2e_2] Generation of additional image for installation instruction means: Similar to STEP5a_2 of the first embodiment, based on the region / feature calculated in STEP1e_1, an additional image used for shading or underlining is generated. Generate. [STEP8e]: The image synthesizing unit 7 determines the image I (x, y) in STEP1e.
Is acquired at predetermined time intervals, the display of the image on the display unit 8 is updated. At this time, the additional image is re-synthesized according to the position of the installation marker. Thus, if the installation marker is removed as shown in FIG. 23, the additional image is not re-synthesized, and the decoration disappears.

【0061】以上、第5の実施の形態によれば、設置用
マーカーを所定の時間間隔で検出するので、マーカーを
置けば装飾、取れば消えるという直感的にわかりやすい
操作方法を提供できる。 (実施の形態6)次に本発明の画像合成装置に係る第6
の実施の形態について説明する。
As described above, according to the fifth embodiment, an installation marker is detected at a predetermined time interval, so that an intuitive and easy-to-understand operation method can be provided in which the marker is placed and the decoration is removed, and the marker is removed and removed. (Embodiment 6) Next, a sixth embodiment according to the image synthesizing apparatus of the present invention will be described.
An embodiment will be described.

【0062】第4の実施の形態では、ペン型指示手段に
よる既存の指示領域が、書類に字を書き込む際等に書類
がずれて、元の位置から移動する場合にも、書類の移動
にあわせて正しい位置にスーパーインポーズされること
を説明した。
In the fourth embodiment, the existing pointing area by the pen-shaped pointing means is displaced when writing characters on the document and moves from the original position. Explained that they were superimposed in the correct position.

【0063】これに対して、第6の実施の形態では、第
5の実施の形態で用いる設置用指示手段を利用している
場合に、書類が移動する場合を考慮したものである。
On the other hand, in the sixth embodiment, the case where the document moves when the installation instruction means used in the fifth embodiment is used is considered.

【0064】図24は第6の実施の形態の構成図であ
り、図17に示した第4の実施の形態および図20に示
した第5の実施の形態と同じ構成部分には同一番号を付
して詳細な説明は省略する。
FIG. 24 is a block diagram of the sixth embodiment. The same components as those of the fourth embodiment shown in FIG. 17 and the fifth embodiment shown in FIG. The detailed description is omitted.

【0065】第6の実施の形態と第4、第5の実施の形
態の主な相違点は、移動パラメータ推定部12を、書類
の移動パラメータのうち、回転移動、すなわち傾き角を
設置用マーカーの指示部分の傾きから算出する設置用マ
ーカー利用移動パラメータ推定部17で置き換えたこと
である。これにより、ペン型指示手段による指示情報と
設置用マーカーによる指示情報が平行して記入されてい
れば、テンプレートマッチング用の部分画像を、設置用
マーカーによる指示情報の傾きを書類の傾きとみなして
回転させ、それを用いて書類の平行移動のパラメータが
算出できる。ここで、設置用マーカー利用移動パラメー
タ推定部17は、本発明の移動パラメータ算出部に対応
する。
The main difference between the sixth embodiment and the fourth and fifth embodiments is that the movement parameter estimating unit 12 determines the rotation movement, that is, the inclination angle, of the document movement parameters. Is replaced by the installation marker use movement parameter estimating unit 17 which is calculated from the inclination of the indicated portion. Thereby, if the instruction information by the pen-type instruction means and the instruction information by the installation marker are written in parallel, the partial image for template matching is regarded as the inclination of the instruction information by the installation marker as the inclination of the document. It can be rotated and used to calculate the parameters of the translation of the document. Here, the installation marker-based movement parameter estimation unit 17 corresponds to the movement parameter calculation unit of the present invention.

【0066】以上のように構成された第6の実施の形態
の画像合成装置の動作を図25のフローチャートを用い
て説明する。第6の実施の形態の動作は、第5の実施の
形態の動作のSTEP1eとSTEP3eの間に、以下のSTEP1f〜ST
EP6fを挿入したものである。 [STEP1f] 設置用マーカーによる指示情報傾斜角の算
出:複数指示手段対応指示情報検出部15により、図2
6に示すように、まず、マーカーが検出された位置に隣
接する長方形の領域(xr(i),yl(i))-(画像の幅,yr(i))中
で、各y座標の値y(k)ごとに最大のx座標を持つ黒色画
素を探索し、そのx座標をx_max(k)とする。このとき、
各y座標ごとのx軸方向へ探索において、所定の長さの
間黒色が検出されない場合は探索をうち切る。これによ
り、図26の例では、傾いている指示情報の上部のみの
候補点が検出される。次に、記入部分の上部の候補点に
関して最小2乗近似直線Aを求める。この直線とカメラ
座標系のx軸がなす角を指示情報の傾きθとする。な
お、y(k)は必ずしも1ずつ増加させる必要はなく、記入
部分の上部の候補点が少なくとも2点得られればよい。 [STEP2f] 設置用マーカーによる傾斜補正指示領域検
出:STEP1fで求めた最小2乗直線Aとカメラ座標系のx
軸がなす角が記入部分の傾きであるから、この直線Aを
原点から遠ざかる方向、及び近づく方向へ平行移動させ
て、直線A上に黒画素が1点も存在しない状態になった
ときの直線を、それぞれ直線B,B’とする。これら直
線B,B’と、直線x=xr(i),x=(画像の幅)で囲まれる領
域内部で最大のx座標x_max(i)を持つ黒色の画素を探索
する。直線Aの傾きθが正の場合、直線Bとx=xr(i)の
交点B1、その交点B1から直線B’への垂線の足の座
標位置B2、x=x_max(i)と直線Bの交点B3、その交点
B3から直線B’への垂線の足の座標位置B4の4点で
囲まれた領域が指示情報の領域となる。ここで、カメラ
1におけるカメラ座標系(x−y座標系)を基準とし
て、図26に示す様に、右回転方向に傾きθが生じてい
る場合、この傾きθは、正であるとする。 [STEP3f] ペン型指示手段による既存の装飾領域の有
無:設置用マーカー利用移動パラメータ推定部17は、
付加画像生成部5を参照し、ペン型指示手段による既存
の装飾画像がある場合にはSTEP4fを実行し、無ければST
EP3eを実行する。 [STEP4f] 部分画像の傾斜角による変形:設置用マーカ
ー利用移動パラメータ算出部17は、既存の装飾画像を
書類の移動に応じて変形するため、第4の実施の形態ST
EP2dで説明したテンプレートマッチング用の部分画像を
選び、その画像をSTEP1fで求めた書類の傾斜角で回転変
形する。 [STEP5f] 部分画像のマッチングによる平行移動パラメ
ータの算出:STEP4fで作成したテンプレートを用いて、
上述した様に、時間的に連続する2枚の画像間でマッチ
ングを行い移動パラメータを求める。書類の回転移動の
パラメータθによりテンプレートを回転移動させている
ので、求める移動パラメータは平行移動(xd,yd)のみと
なる。 [STEP6f] 装飾画像の変形:STEP5fで求めた移動パラメ
ータにより、付加画像生成部5に記憶されているすべて
の画像を変形する。
The operation of the image synthesizing apparatus according to the sixth embodiment configured as described above will be described with reference to the flowchart of FIG. The operation according to the sixth embodiment is performed between STEP1e and STEP3e of the operation according to the fifth embodiment.
EP6f is inserted. [STEP1f] Calculation of Instruction Information Inclination Angle Using Installation Marker: FIG.
As shown in FIG. 6, first, the value of each y coordinate in the rectangular area (xr (i), yl (i))-(image width, yr (i)) adjacent to the position where the marker is detected A black pixel having the maximum x coordinate is searched for every y (k), and the x coordinate is set to x_max (k). At this time,
In the search in the x-axis direction for each y coordinate, if black is not detected for a predetermined length, the search is stopped. Thereby, in the example of FIG. 26, only the candidate point above the tilted instruction information is detected. Next, a least-squares approximate straight line A is obtained for the candidate point above the entry portion. The angle between this straight line and the x-axis of the camera coordinate system is defined as the inclination θ of the instruction information. It should be noted that y (k) does not necessarily need to be incremented by one as long as at least two candidate points at the top of the entry portion can be obtained. [STEP2f] Detection of tilt correction instruction area using installation marker: least square line A obtained in STEP1f and x in the camera coordinate system
Since the angle formed by the axes is the inclination of the written portion, this straight line A is translated in a direction away from the origin and in a direction approaching the origin, and a straight line when no black pixel exists on the straight line A Are defined as straight lines B and B ′, respectively. A black pixel having the maximum x coordinate x_max (i) is searched for in an area surrounded by the straight lines B and B ′ and the straight lines x = xr (i) and x = (width of image). When the inclination θ of the straight line A is positive, the intersection B1 of the straight line B and x = xr (i), the coordinate position B2 of the perpendicular foot from the intersection B1 to the straight line B ′, x = x_max (i) and the straight line B The area surrounded by the four points of the intersection B3 and the coordinate position B4 of the foot of the perpendicular from the intersection B3 to the straight line B 'is the area of the instruction information. Here, as shown in FIG. 26, when a tilt θ occurs in the clockwise direction with respect to the camera coordinate system (xy coordinate system) of the camera 1, it is assumed that the tilt θ is positive. [STEP3f] Presence or absence of existing decoration area by pen-type indicating means:
With reference to the additional image generation unit 5, if there is an existing decoration image by the pen-type indicating means, STEP4f is executed; otherwise, ST4 is executed.
Execute EP3e. [STEP4f] Deformation of partial image by inclination angle: The installation marker-based movement parameter calculation unit 17 deforms an existing decoration image according to the movement of a document.
A partial image for template matching described in EP2d is selected, and the image is rotationally deformed at the inclination angle of the document obtained in STEP1f. [STEP5f] Calculation of translation parameters by matching partial images: Using the template created in STEP4f,
As described above, matching is performed between two temporally continuous images to obtain a movement parameter. Since the template is rotated by the rotation parameter θ of the document, the required movement parameter is only translation (xd, yd). [STEP 6f] Deformation of the decoration image: All the images stored in the additional image generation unit 5 are deformed by the movement parameters obtained in STEP 5f.

【0067】以上、第6の実施の形態によれば、設置用
マーカーを用いている場合に、書類が移動しても、指示
情報の傾きとその領域を検出し、また、ペン型指示手段
による既存の装飾画像があっても、その移動パラメータ
を求めて既存装飾画像を変形して合成するため、設置用
マーカーを用いたプレゼンテーションの最中に書類が移
動した場合でも、強調したい部分を正しく装飾すること
ができる。 (実施の形態7)次に本発明の画像合成装置に係る第7
の実施の形態について説明する。
As described above, according to the sixth embodiment, even when a document is moved when the installation marker is used, the inclination of the instruction information and its area are detected. Even if there is an existing decoration image, the existing decoration image is transformed and synthesized by calculating the movement parameter, so even if the document moves during the presentation using the installation marker, the emphasis part is correctly decorated. can do. (Embodiment 7) Next, the seventh embodiment according to the image synthesizing apparatus of the present invention will be described.
An embodiment will be described.

【0068】第5の実施の形態では、設置用マーカーを
置いたり取り去ったりするだけで、指示情報の装飾が簡
単にできることを説明した。第7の実施の形態は、設置
用マーカーによる装飾とともに効果音を導入し、操作の
確認を簡単にするとともに、よりプレゼンテーション効
果を高めるように考慮したものである。
In the fifth embodiment, it has been described that the decoration of the instruction information can be easily performed simply by placing or removing the installation marker. In the seventh embodiment, sound effects are introduced together with the decoration by the installation markers to make it easier to confirm the operation and to further enhance the presentation effect.

【0069】図27は第7の実施の形態の構成図であ
り、図20に示した第5の実施の形態と同じ構成部分に
は同一番号を付して詳細な説明は省略する。
FIG. 27 is a diagram showing the configuration of the seventh embodiment. The same components as those of the fifth embodiment shown in FIG. 20 are denoted by the same reference numerals, and detailed description is omitted.

【0070】第7の実施の形態と第5の実施の形態の主
な相違点は、所定の時間間隔で検出される設置用マーカ
ーの数の増減により所定の音声データを選択する設置用
指示手段数増減検出部18を付加したことである。ま
た、19は音声データを記憶する音声データ記憶部、2
0は選択された音声データを再生するスピーカーであ
る。ここで、設置用指示手段数増減検出部18は、本発
明の設置用指示部材増減検出手段に対応している。
The main difference between the seventh embodiment and the fifth embodiment is that an installation instruction means for selecting predetermined audio data by increasing or decreasing the number of installation markers detected at predetermined time intervals. That is, a number increase / decrease detection unit 18 is added. Reference numeral 19 denotes an audio data storage unit for storing audio data;
A speaker 0 reproduces the selected audio data. Here, the installation instruction member number increase / decrease detection unit 18 corresponds to the installation instruction member increase / decrease detection unit of the present invention.

【0071】以上のように構成された第7の実施の形態
の画像合成装置の動作を、図28のフローチャートを用
いて説明する。
The operation of the image synthesizing apparatus according to the seventh embodiment configured as described above will be described with reference to the flowchart of FIG.

【0072】第7の実施の形態の動作は、第5の実施の
形態の動作のSTEP8eとSTEP9eの間に、以下のSTEP1g〜ST
EP4gを挿入したものである。 [STEP1g] フレーム間での設置用マーカー数の比較:設
置用指示手段数増減検出部18により、検出された設置
用マーカーの数をフレーム間で比較し、増加の場合STEP
2g、減少の場合STEP3g、変わらない場合STEP9eを実行す
る。 [STEP2g] 増加用音声データの選択:増加用音声データ
を選択しSTEP4gへ進む。 [STEP3g] 減少用音声データの選択:減少用音声データ
を選択しSTEP4gへ進む。 [STEP4g] 効果音の出力:制御部1000は、STEP2gあ
るいはSTEP3gで選択された音声データを、スピーカー2
0より出力する。
The operation of the seventh embodiment is the same as the operation of the fifth embodiment except that the following STEPs 1g to 1ST are set between STEP8e and STEP9e.
EP4g is inserted. [STEP1g] Comparison of the number of installation markers between frames: The number of installation markers detected by the installation instruction means increase / decrease detection unit 18 is compared between the frames.
Execute 2g, STEP3g in case of decrease, and STEP9e in case of no change. [STEP2g] Selection of audio data for increase: Select audio data for increase, and proceed to STEP4g. [STEP3g] Selection of audio data for reduction: Select audio data for reduction, and proceed to STEP4g. [STEP4g] Output of sound effect: The control unit 1000 transmits the audio data selected in STEP2g or STEP3g to the speaker 2
Output from 0.

【0073】以上の手続きにより、設置用マーカーの数
の変化を調べるだけで、マーカーが新たに書類上に置か
れたとき、あるいは取り去られたときに、指示情報の装
飾に併せて同時に効果音を出力できる。
According to the above procedure, only by examining the change in the number of installation markers, when a marker is newly placed on a document or removed, the sound effect is simultaneously added to the decoration of the instruction information. Can be output.

【0074】以上、第7の実施の形態によれば、マーカ
ーが書類上に加えられた場合や取り除かれた場合をマー
カー数の増減により識別し、それに応じた効果音を付加
できるので、操作の確認を容易にするだけでなく、より
効果的なプレゼンテーションが可能になる。 (実施の形態8)次に本発明の画像合成装置に係る第8
の実施の形態について説明する。
As described above, according to the seventh embodiment, the case where a marker is added or removed from a document can be identified by increasing or decreasing the number of markers, and a sound effect corresponding to the marker can be added. In addition to facilitating confirmation, a more effective presentation is possible. (Eighth Embodiment) Next, an eighth embodiment according to the image synthesizing apparatus of the present invention will be described.
An embodiment will be described.

【0075】第1〜7の実施の形態では、箇条書きや写
真からなる比較的単純な書類から指示部分を検出し装飾
する例を説明した。第8の実施の形態ではさらに、複数
の指示手段の形状と対応づけを認識することにより、文
字や図が混在する書類を装飾できるように考慮したもの
である。
In the first to seventh embodiments, examples have been described in which a designated portion is detected and decorated from a relatively simple document including bullet points and photographs. In the eighth embodiment, furthermore, by recognizing the shapes and associations of a plurality of indicating means, it is considered that a document in which characters and figures are mixed can be decorated.

【0076】図29は第8の実施の形態の構成図であ
り、図20に示した第5の実施の形態と同じ構成部分に
は同一番号を付して詳細な説明は省略する。
FIG. 29 is a block diagram of the eighth embodiment. The same components as those of the fifth embodiment shown in FIG. 20 are denoted by the same reference numerals, and detailed description is omitted.

【0077】第8の実施の形態と第5の実施の形態の主
な相違点は、指示手段の形状を少なくとも2種類認識す
る指示手段形状認識部21と、指示手段形状認識部21
により認識された指示手段の形状から所定の組み合わせ
の指示手段の対応づけを決定する指示手段対応決定部2
2と付加したことである。ここで、指示手段形状認識部
21は、本発明の指示部材形状認識手段に対応し、ま
た、指示手段対応決定部22は、本発明の指示部材対応
決定手段に対応する。
The main difference between the eighth embodiment and the fifth embodiment is that the pointing means shape recognizing section 21 for recognizing at least two kinds of shapes of the pointing means, and the pointing means shape recognizing section 21
Instruction unit correspondence determining unit 2 that determines the association of the instruction units of a predetermined combination from the shape of the instruction unit recognized by
2 is added. Here, the pointing means shape recognition unit 21 corresponds to the pointing member shape recognition means of the present invention, and the pointing means correspondence determining unit 22 corresponds to the pointing member correspondence determining means of the present invention.

【0078】以上のように構成された第8の実施の形態
の画像合成装置の動作を、図30のフローチャートを用
いて説明する。本実施の形態の動作をより分かりやすく
説明するために、図31に示すような文字列と図形が混
在する書類を、2種類のカギ形状のマーカーを用い、カ
ギ形状を認識して対応付けた領域を装飾する例で説明す
る。このようなマーカーは、例えば学校の先生が授業の
予習として、教科書の話すところにあらかじめマークし
ておけばよい。マーカーによる指示は、シールのような
ものを貼るのでもよいし、書類に蛍光ペン等で描いても
よい。
The operation of the image synthesizing apparatus according to the eighth embodiment thus configured will be described with reference to the flowchart of FIG. In order to explain the operation of the present embodiment more easily, a document in which a character string and a graphic are mixed as shown in FIG. 31 is associated by recognizing the key shape using two types of key-shaped markers. An example of decorating an area will be described. Such a marker may be marked in advance in a textbook, for example, by a school teacher as a preparation for a lesson. The indication by the marker may be affixed with a sticker or the like, or may be drawn on a document with a highlighter pen or the like.

【0079】以下、第8の実施の形態の動作手順を説明
する。第8の実施の形態の動作は、第5の実施の形態の
動作のSTEP1eとSTEP2eの間に、以下のSTEP1h〜STEP5hを
挿入したものである。 [STEP1h] カギ形状マーカーの検出:異種複数指示手段
指示位置検出部14により、画像からカギ形状マーカー
を表す所定の色(所定の範囲のRGB値)をもつ所定の
大きさの領域をマーカーとして検出する。 [STEP2h] マーカー形状の認識:指示手段形状認識部2
1により検出されたマーカーの種類を認識する。ここで
は図32に示すような開始マーカーと終了マーカーを認
識する。具体的には、検出されたマーカーの領域を図3
2に示すように4等分し、領域0と3についてマーカー
を表す所定の色(RGB値)を持つ画素の数を数え、そ
の数が領域0の方が多ければ開始マーカー、その逆であ
れば終了マーカーと認識する。 [STEP3h] マーカーの対応づけによる記入部分の検出:
指示手段対応決定部22により、どの開始マーカーがど
の終了マーカーと対応し領域が指定されているかを決定
する。まず、全開始マーカーについて、自分より右下に
あるすべての終了マーカーとの距離を計算する。次に、
距離が最小のマーカーから対応づける。 [STEP4h] 指示情報の特徴量検出:異種複数指示手段対
応指示情報検出部15により、指示情報の特徴量とし
て、例えば指示領域の白画素の割合を求める。一般に、
指示領域の白画素の割合は、(図面)<(文字列)<
(写真)となるので、適当なしきい値によりそれらは識
別できる。 [STEP5h] 記入部分の装飾:異種複数指示手段対応付加
画像生成部16により、STEP3aで検出された指示情報の
領域について、黒色以外の画素のRGB値を所定の色の
RGB値に置き換えた画像を付加画像として、付加画像
生成部5に記憶する。
The operation procedure of the eighth embodiment will be described below. The operation of the eighth embodiment is such that the following STEP1h to STEP5h are inserted between STEP1e and STEP2e of the operation of the fifth embodiment. [STEP1h] Detection of a key-shaped marker: A region of a predetermined size having a predetermined color (RGB value in a predetermined range) representing a key-shaped marker is detected as a marker from the image by the different-type plural-pointing unit pointing position detection unit 14. I do. [STEP2h] Recognition of marker shape: pointing means shape recognition unit 2
The type of the marker detected by step 1 is recognized. Here, the start marker and the end marker as shown in FIG. 32 are recognized. Specifically, the region of the detected marker is shown in FIG.
2, the number of pixels having a predetermined color (RGB value) representing a marker is counted for regions 0 and 3, and if the number is larger in region 0, the start marker is used, and vice versa. If it is, it recognizes it as an end marker. [STEP3h] Marked part detection by mapping markers:
The instruction means correspondence determination unit 22 determines which start marker corresponds to which end marker and a region is designated. First, for all the start markers, the distances to all the end markers at the lower right of the user are calculated. next,
Correspond from the marker with the smallest distance. [STEP4h] Detection of characteristic amount of instruction information: The instruction information detecting unit 15 corresponding to different plural instruction means obtains, for example, a ratio of white pixels in an instruction area as a characteristic amount of instruction information. In general,
The ratio of white pixels in the designated area is (drawing) <(character string) <
(Photos) so that they can be identified by an appropriate threshold. [STEP5h] Decoration of entry portion: An image obtained by replacing the RGB values of pixels other than black with RGB values of a predetermined color in the area of the instruction information detected in STEP3a by the additional image generation unit 16 corresponding to different plural instruction means. It is stored in the additional image generation unit 5 as an additional image.

【0080】以上の手順により、カギ形状のマーカーが
正しく対応づけられ、図33に示すように指定された領
域が装飾される。
According to the above procedure, the key-shaped markers are correctly associated with each other, and the designated area is decorated as shown in FIG.

【0081】以上、第8の実施の形態によれば、箇条書
きの文字列だけでなく、文字や図形が混在した図を含む
より複雑な書類に対しても装飾が可能となる。 (実施の形態9)次に本発明の画像合成装置に係る第9
の実施の形態について説明する。
As described above, according to the eighth embodiment, it is possible to decorate not only a bulleted character string but also a more complicated document including a figure in which characters and figures are mixed. (Embodiment 9) Next, a ninth embodiment according to the image synthesizing apparatus of the present invention will be described.
An embodiment will be described.

【0082】第1〜8の実施の形態に対して、第9の実
施の形態では、さらにカメラをズームさせた場合にも、
強調した部分が正しく表示されるよう考慮したものであ
る。
In contrast to the first to eighth embodiments, in the ninth embodiment, even when the camera is further zoomed,
The emphasis was placed on the correct display.

【0083】図34は第9の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。
FIG. 34 is a block diagram of the ninth embodiment. The same components as those of the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description is omitted.

【0084】第9の実施の形態と第1の実施の形態の主
な相違点は、さらに、カメラ1のズーム倍率を検出する
ズーム倍率検出部23と、検出されたズーム倍率に基づ
き装飾画像を拡大・縮小する装飾画像拡大・縮小部24
を付加したことである。
The main difference between the ninth embodiment and the first embodiment is that a zoom magnification detecting section 23 for detecting the zoom magnification of the camera 1 and a decorative image based on the detected zoom magnification are further provided. Decorative image enlargement / reduction unit 24 for enlargement / reduction
Is added.

【0085】以上のように構成された第9の実施の形態
の画像合成装置の動作を図35のフローチャートを用い
て説明する。第9の実施の形態の動作は、第1の実施の
形態の動作のSTEP1aとSTEP2aの間に、以下のSTEP1i〜ST
EP3iを挿入したものである。 [STEP1i] 既存の装飾領域の有無:付加画像拡大・縮小
部24は、付加画像生成部5を参照し、既存の付加画像
がある場合には、STEP2iへ進み、無ければSTEP2aを実行
する。 [STEP2i] ズーム倍率の検出:ズーム倍率検出部23に
より、カメラ1のズーム信号を制御部1000を介して
検出し、付加画像拡大・縮小部24へ送る。 [STEP3i] 装飾画像の拡大・縮小:STEP2iで検出したズー
ム倍率により、付加画像生成部5に記憶されているすべ
ての画像を拡大または縮小する。
The operation of the image synthesizing apparatus according to the ninth embodiment configured as described above will be described with reference to the flowchart of FIG. The operation of the ninth embodiment includes the following steps STEP1i to ST1 between STEP1a and STEP2a of the operation of the first embodiment.
EP3i is inserted. [STEP1i] Presence or absence of existing decoration area: The additional image enlarging / reducing unit 24 refers to the additional image generation unit 5, and if there is an existing additional image, proceeds to STEP2i, and if not, executes STEP2a. [STEP 2i] Detection of zoom magnification: The zoom magnification detection unit 23 detects the zoom signal of the camera 1 via the control unit 1000 and sends it to the additional image enlargement / reduction unit 24. [STEP3i] Enlargement / reduction of decorative image: All images stored in the additional image generation unit 5 are enlarged or reduced by the zoom magnification detected in STEP2i.

【0086】以上の手順により、第9の実施の形態によ
れば、カメラをズームさせた場合にも付加画像をズーム
倍率にあわせて拡大・縮小するので、強調したい部分を
正しく装飾できるので、よりプレゼンテーションの幅を
広げることができる。 (実施の形態10)次に本発明の画像合成装置に係る第
10の実施の形態について説明する。
According to the above-described procedure, according to the ninth embodiment, even when the camera is zoomed, the additional image is enlarged or reduced in accordance with the zoom magnification, so that the portion to be emphasized can be correctly decorated. You can expand the range of your presentation. (Embodiment 10) Next, a tenth embodiment according to the image synthesizing apparatus of the present invention will be described.

【0087】第1〜9の実施の形態では、ペン、設置用
マーカー等の複数指示手段で指定した領域を色や下線に
より装飾する例を示した。第10の実施の形態ではさら
に、所定の色で着色した指定領域を表示させなくするこ
とを考慮したものである。
In the first to ninth embodiments, an example has been described in which an area designated by a plurality of pointing means such as a pen and an installation marker is decorated with a color or an underline. The tenth embodiment further considers that a designated area colored with a predetermined color is not displayed.

【0088】図36は第10の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。
FIG. 36 is a block diagram of the tenth embodiment. The same components as those of the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description is omitted.

【0089】第10の実施の形態と第1の実施の形態の
主な相違点は、所定の色で着色あるいは包含された領域
を検出し、その領域の情報の表示を消す着色指定領域消
去部25を付加したことである。
The main difference between the tenth embodiment and the first embodiment is that a colored designated area erasing unit which detects an area colored or included in a predetermined color and erases the display of the information of the area. 25 is added.

【0090】以上のように構成された第10の実施の形
態の画像合成装置の動作を説明する。
The operation of the image synthesizing apparatus according to the tenth embodiment configured as described above will be described.

【0091】指定着色領域消去部25は、画像をラスタ
ー走査し、所定のRGB値を持つ近接する(たとえば8
近傍)画素を同一の指定領域であるとして同一のラベル
をつける。次に、同一のラベルがつけられた所定の数以
上の画素のグループに対して、所定の色(RGB値)で
ラベルがつけられた同一グループの画素の色をすべて置
き換える。
The designated colored area erasing section 25 raster-scans the image, and approaches the area having a predetermined RGB value (for example, 8
(Nearby) Pixels are assigned the same label as the same designated area. Next, for a group of a predetermined number or more of pixels having the same label, all colors of pixels of the same group labeled with a predetermined color (RGB value) are replaced.

【0092】以上の手順により、第10の実施の形態に
よれば、所定の色で着色指定した領域の情報は、表示部
には表示されないため、例えば、先生が教科書にメモし
ている問題の答えやコメント部分を所定の色で塗ってお
けば、聞き手に不必要な情報を見せないようにできる。 (実施の形態11)次に本発明の画像合成装置に係る第
11の実施の形態について説明する。
According to the tenth embodiment, the information of the area designated by the predetermined color is not displayed on the display unit according to the above procedure. By painting the answer and comment part in a predetermined color, it is possible to prevent unnecessary information from being shown to the listener. (Eleventh Embodiment) Next, an eleventh embodiment according to the image synthesizing apparatus of the present invention will be described.

【0093】第1〜10の実施の形態では、書類等を所
定の指示手段で指示するだけで、その指示部分を装飾ま
たは強調する画像を生成し合成表示するので、簡単に効
果的なプレゼンテーションができることを説明したが、
第11の実施の形態ではさらに、効率のよい教育用シス
テムとして拡張することを考慮したものである。
In the first to tenth embodiments, an image that embellishes or emphasizes a designated portion is generated and synthesized and displayed by simply pointing a document or the like by a predetermined pointing device. I explained what you can do,
The eleventh embodiment further considers expansion as an efficient educational system.

【0094】図37は第11の実施の形態の構成図であ
り、図1に示した第1の実施の形態と同じ構成部分には
同一番号を付して詳細な説明は省略する。
FIG. 37 is a block diagram of the eleventh embodiment. The same components as those of the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description is omitted.

【0095】第11の実施の形態と第1の実施の形態の
主な相違点は、さらに、画像合成部5により合成された
画像をインターネットのブラウザで表示可能な形式で保
存するブラウザ対応ファイル作成・更新部26を付加し
たことである。また、27はホームページが管理されて
いるサーバーで複数の端末にネットワーク等で接続され
ている。
A major difference between the eleventh embodiment and the first embodiment is that a browser-compatible file for storing an image synthesized by the image synthesizing unit 5 in a format that can be displayed on an Internet browser is further provided. That is, the updating unit 26 is added. Reference numeral 27 denotes a server which manages a home page and is connected to a plurality of terminals via a network or the like.

【0096】以上のように構成された第11の実施の形
態の画像合成装置の動作を説明する。
The operation of the image synthesizing apparatus according to the eleventh embodiment configured as described above will be described.

【0097】例えば、学校の先生が本実施の形態である
画像合成装置を授業で用いる場合を例として説明する。
制御部1000は画像を保存するためのメモリを搭載
し、例えば制御部1000に接続されたキーボードの所
定のキーを押すことにより、画像合成部5で合成された
画像が保存される。あるいは、第3の実施の形態と同様
に、例えばカメラ1の映像に、「画像の保存」という画
像をスーパーインポーズし、それをペン等で指示する方
式をとることもできる。これにより先生は、授業で作成
した画像のうち生徒にとって有用であると思う画像をシ
ステムに保存できる。次に、ブラウザ対応ファイル作成
・更新部26は、保存された画像をGIFやJPEG形
式に変換し、サーバー27に対して、それを参照できる
例えばHTMLファイルを作成あるいは更新する。これ
により、生徒は学外等からこの講義資料を閲覧できるよ
うになる。
For example, a case where a school teacher uses the image synthesizing apparatus according to the present embodiment in a class will be described as an example.
The control unit 1000 includes a memory for storing an image. For example, by pressing a predetermined key of a keyboard connected to the control unit 1000, the image synthesized by the image synthesis unit 5 is stored. Alternatively, as in the third embodiment, for example, a method of superimposing an image “save image” on a video of the camera 1 and instructing the superimposition with a pen or the like can be adopted. This allows the teacher to save, to the system, images that are useful to the students among the images created in the lesson. Next, the browser-compatible file creating / updating unit 26 converts the saved image into a GIF or JPEG format, and creates or updates, for example, an HTML file capable of referring to the server 27. As a result, students can view the lecture materials from off-campus or the like.

【0098】以上の手順により、第11の実施の形態に
よれば、作成した合成画像をインターネットのホームペ
ージに登録できるので、大学等の学校の授業に、端末を
介して学外から参加できたり、講義資料を再利用した
り、また先生はレポート課題を与えるなどの効率のよい
教育サポートシステムの実現が可能となる。 (実施の形態12)次に本発明の画像合成装置に係る第
12の実施の形態について説明する。
According to the above-described procedure, according to the eleventh embodiment, the created composite image can be registered on the Internet homepage, so that it is possible to participate in a class at a school such as a university from outside the university via a terminal or to give a lecture. It is possible to realize an efficient educational support system such as reusing materials and giving teachers assignments for reports. (Twelfth Embodiment) Next, a twelfth embodiment according to the image synthesizing apparatus of the present invention will be described.

【0099】第1〜11の実施の形態では、書類等に記
載されている現実の情報をペン等で指示するだけで、そ
の特徴に応じて合成した付加画像をスーパーインポーズ
を表示することにより、効果的なプレゼンテーションシ
ステムが実現できることを示したが、第12の実施の形
態では、合成に用いるための付加画像として、複数の現
実物を簡単に取込んで加工し、合成した画像をFAXや
TV等に送信できるよう考慮したものである。
In the first to eleventh embodiments, the superimposition of the additional image synthesized according to the feature is displayed by simply pointing the actual information described in the document or the like with a pen or the like. Although it was shown that an effective presentation system can be realized, in the twelfth embodiment, as an additional image to be used for synthesis, a plurality of real objects are easily captured and processed, and the synthesized image is transmitted by FAX or FAX. This is designed to allow transmission to a TV or the like.

【0100】図38は、第12の実施の形態を示す構成
図であり、図1に示した第1の実施の形態と同じ構成部
分には同一番号を付して詳細な説明は省略する。
FIG. 38 is a block diagram showing the twelfth embodiment. The same components as those in the first embodiment shown in FIG. 1 are denoted by the same reference numerals and detailed description thereof will be omitted.

【0101】第12の実施の形態と第1の実施の形態の
主な相違点は、表示部8を入力表示一体型ディスプレイ
28で置き換え、前記ディスプレイ28への入力位置を
検出する入力位置検出部29、ディスプレイ28の表示
部の少なくとも一部分を撮像するようにカメラ1を設置
し、ディスプレイ28の表示部の上に置かれた現実物の
輪郭を抽出する現実物抽出部30、現実物抽出部30に
より抽出された物体の画像を加工することにより、装飾
や強調用としてディスプレイに表示する付加画像を生成
する装飾画像生成部31と、生成された付加画像を記憶
する付加画像記憶部32,生成された付加画像のディス
プレイへの表示方法を選択する装飾機能選択部33,お
よび、ディスプレイ28上の現実物と前記ディスプレイ
28の表示画像とを画像合成部7により合成した画像を
FAXやテレビに送信または受信する画像送受信部34
を備えたことである。また、制御部1000は、ROM
やRAMなどのメモリとCPUから構成されており、そ
のメモリには、前記ディスプレイ26からの入力に対応
した処理が記憶されている。
The main difference between the twelfth embodiment and the first embodiment is that the display unit 8 is replaced with an input display integrated type display 28, and an input position detection unit for detecting the input position to the display 28. 29, the camera 1 is installed so as to capture at least a part of the display unit of the display 28, and a real object extracting unit 30 and a real object extracting unit 30 for extracting a contour of a real object placed on the display unit of the display 28 A decoration image generation unit 31 that generates an additional image to be displayed on a display for decoration or emphasis by processing the image of the object extracted by the processing, and an additional image storage unit 32 that stores the generated additional image. A decoration function selection unit 33 for selecting a display method of the added image on the display, and a real object on the display 28 and a display image on the display 28. Image receiving unit 34 for transmitting or receiving an image synthesized by the image synthesizing unit 7 to the FAX and TV
It is to have. Further, the control unit 1000 includes a ROM
And a memory such as a RAM and a CPU, in which processing corresponding to the input from the display 26 is stored.

【0102】次に本実施の形態の動作について説明す
る。
Next, the operation of this embodiment will be described.

【0103】図39は第12の実施の形態の画像合成装
置の動作を示すフローチャートである。図40は、本実
施の形態における入力表示一体型ディスプレイとカメラ
による撮像範囲の一例である。本実施の形態の動作をよ
り分かりやすく説明するために、ここでは、入社祝いに
時計をもらった人へのお礼のメッセージ画像を合成して
FAXに送信する場合を例として説明する。
FIG. 39 is a flowchart showing the operation of the image synthesizing apparatus according to the twelfth embodiment. FIG. 40 shows an example of an imaging range of the input display-integrated display and the camera according to the present embodiment. In order to explain the operation of the present embodiment more clearly, a case will be described here as an example in which a message image of thanks to a person who has received a clock for joining the company is combined and transmitted to a FAX.

【0104】以下に本実施の形態の動作手順を示す。 [STEP1j] 現実物の設置:入力表示一体型ディスプレイ
28の上方に配置されたカメラ1による撮像領域内に、
メッセージに使用したい現実物を設置する。ここでは、
図40のように、メッセージを送信しようとする相手か
らもらった時計と、入社して配属が決まり会社からもら
った名札をディスプレイ28上に置いた例で説明する。
ここで、ディスプレイ28の入力面として超音波表面弾
性波方式や電磁誘導式の物を利用すれば、時計などの硬
い物体を載せても、ディスプレイ28に入力があったと
は誤判定されない。また、感圧式や抵抗膜方式の物で
も、軽いものであれば同様に誤判定されない。ディスプ
レイ26への入力の有無は制御部1000が管理してい
る。 [STEP2j] 現実物の抽出:図41に示すように、装飾機
能選択部33で選択できる機能は、好ましくはディスプ
レイ28にアイコンとして表示されている。現実物の抽
出アイコン401を押せば、取込みたい現実物を選択す
るモードとなる。抽出したい現実物(ここでは時計と名
札)をペン入力により1つの閉曲線で囲む。制御部10
00はペン入力の終了信号を受けて、まずカメラ1によ
り撮影領域の画像を取り込み、次に現実物抽出部30を
起動して取り込んだ画像をもとに現実物を抽出する。こ
こで、ペン入力の開始と、終了は、ペン入力アイコン4
11を押すことにより行う。現実物抽出部30は、図4
2に示すように1つの閉曲線を物体の数にだけ自動的に
分裂させ(ここでは2つ)、時計と名札をそれぞれ独立
に抽出する。この方法については後に詳細に説明する。
なお、ペン入力は、超音波表面弾性波方式であれば指や
ゴムなどの柔らかいもの、感圧式や抵抗膜方式の物は普
通のボールペンのキャップのような硬いものでも指でも
入力できる。 [STEP3j] 装飾モードの選択:制御部1000は、装飾
画像生成部31を起動して、抽出した現実物の画像の色
や形を変化させ、装飾用の画像を生成し、装飾画像記憶
部32に記憶する。これには種々の方法があるが、ここ
では、縮小を例として説明する。制御部1000は、装
飾画像生成部31により生成された装飾画像(図42で
は、抽出した現実物の縮小画像422として表示)と装
飾モードボタン421とを図42に示すようにディスプ
レイ28に表示する。ここで、装飾画像と装飾モードの
選択はディスプレイ28に表示されている画像やボタン
のアイコンをペン等により触れることにより行う。これ
らの入力指示は、入力位置検出部29により処理され
る。
The operation procedure of this embodiment will be described below. [STEP1j] Installation of a real object: In the imaging area of the camera 1 arranged above the input display integrated display 28,
Set up the real thing you want to use for the message. here,
As shown in FIG. 40, an example will be described in which a clock received from a partner who intends to transmit a message and a name tag obtained by joining the company and assigned to the company are provided on the display 28.
Here, if an ultrasonic surface acoustic wave type or electromagnetic induction type object is used as the input surface of the display 28, it is not erroneously determined that an input has been made on the display 28 even when a hard object such as a watch is placed. In addition, even a pressure-sensitive type or a resistive type is not erroneously determined as long as it is light. The control unit 1000 manages the presence or absence of an input to the display 26. [STEP2j] Extraction of a real object: As shown in FIG. 41, functions that can be selected by the decoration function selection unit 33 are preferably displayed as icons on the display 28. If the user presses the extraction icon 401 of a real thing, a mode for selecting a real thing to be captured is set. A real object (clock and name tag in this case) to be extracted is surrounded by one closed curve by pen input. Control unit 10
00 receives a pen input end signal, first captures an image of a shooting area by the camera 1, and then activates the real thing extraction unit 30 to extract a real thing based on the captured image. Here, the start and end of pen input are determined by the pen input icon 4
This is done by pressing 11. The real thing extraction unit 30 is configured as shown in FIG.
As shown in FIG. 2, one closed curve is automatically divided into only the number of objects (here, two), and a clock and a name tag are independently extracted. This method will be described later in detail.
Note that pen input can be made with a soft finger or rubber if it is an ultrasonic surface acoustic wave method, and it can be input with a finger as well as a hard one such as a normal ball-point pen cap if it is a pressure-sensitive type or a resistive type. [STEP3j] Selection of decoration mode: The control unit 1000 activates the decoration image generation unit 31, changes the color and shape of the extracted real image, generates a decoration image, and displays the decoration image storage unit 32 To memorize. There are various methods for this. Here, reduction will be described as an example. The control unit 1000 displays the decoration image generated by the decoration image generation unit 31 (displayed as the extracted reduced image 422 of the real object in FIG. 42) and the decoration mode button 421 on the display 28 as shown in FIG. . Here, the selection of the decoration image and the decoration mode is performed by touching an image or a button icon displayed on the display 28 with a pen or the like. These input instructions are processed by the input position detector 29.

【0105】装飾モードも種々のものが考えられるが、
ここでは、「背景」、「縁」、「自由」の3モードとし
て説明する。「背景」モードはディスプレイ28の表示
領域全体に、「縁」モードは前記表示領域の内側に沿っ
て、「自由」モードはペン等でディスプレイ28に触れ
た任意の場所にそれぞれ装飾画像を表示する。図43
は、装飾画像として、抽出した現実物の縮小画像422
の中から時計の画像を選択し、「縁」のモードに対応す
るボタン421−aをペン等で選択した結果であるが、
制御部1000は「縁」のモードに対応し、ディスプレ
イ28の表示領域の内側の縁に沿って縮小された時計の
画像422を表示する。 [STEP4j] メッセージ入力:ペン入力により相手に伝え
たいメッセージを入力する。例えば、図44に示すよう
なメッセージを入力する。ペン入力は、ペンで入力面に
触れた位置のディスプレイの表示を所定の色(例えば
黒)に変更することにより行われる。 [STEP5j] 合成画像の送信:図44に示すように、ディ
スプレイ28に表示されている「送信」ボタン402を
押すと、制御部1000は、まず画像合成部7を起動
し、カメラ1により捉えているディスプレイ28上の現
実物の画像データと、ディスプレイ28に表示されてい
る装飾画像のデータやメッセージデータとを合成画像と
して、例えばビットマップ形式などで保存する。次に保
存した画像を画像送受信部34により送信する機器に応
じたデータフォーマットに変換し、合成画像を送信す
る。例えばFAXに送信する場合は画像をランレングス
形式に変換すればよい。
Various decoration modes can be considered.
Here, the description will be made as three modes of “background”, “edge”, and “free”. The "background" mode displays the decorative image on the entire display area of the display 28, the "rim" mode displays the decorative image along the inside of the display area, and the "free" mode displays the decorative image at an arbitrary place touching the display 28 with a pen or the like. . FIG.
Is a reduced image 422 of the extracted real object as a decoration image
Is the result of selecting a clock image from among the above and selecting the button 421-a corresponding to the mode of “edge” with a pen or the like.
The control unit 1000 corresponds to the “edge” mode, and displays the clock image 422 reduced along the inner edge of the display area of the display 28. [STEP4j] Message input: Enter the message you want to convey to the other party by pen input. For example, a message as shown in FIG. 44 is input. Pen input is performed by changing the display on the display at the position touching the input surface with the pen to a predetermined color (for example, black). [STEP 5j] Transmission of synthesized image: As shown in FIG. 44, when a “Send” button 402 displayed on the display 28 is pressed, the control unit 1000 first activates the image synthesis unit 7 and captures the image by the camera 1. The image data of the real object on the display 28 and the data of the decoration image and the message data displayed on the display 28 are stored as a composite image in, for example, a bitmap format. Next, the stored image is converted into a data format corresponding to the device to be transmitted by the image transmitting / receiving unit 34, and the composite image is transmitted. For example, when transmitting an image to a facsimile, the image may be converted to a run-length format.

【0106】尚、上述したカメラ1により捉えているデ
ィスプレイ28上の現実物の画像データは、現実物抽出
部30で処理された後、画像合成部7へ送られて、装飾
画像記憶部32から出力されてくる上述した装飾画像の
データなどと共に画像合成部7において合成される。
The image data of the real object on the display 28 captured by the camera 1 described above is processed by the real object extracting unit 30, sent to the image synthesizing unit 7, and sent from the decorative image storage unit 32. The image is synthesized in the image synthesizing section 7 together with the output data of the decorative image and the like.

【0107】また、上記以外の合成のやり方として、次
のようにしてもよい。
Further, as another combining method other than the above, the following method may be adopted.

【0108】即ち、ディスプレイ28上の現実物と、デ
ィスプレイ28に表示されている装飾画像やメッセージ
とを、そのままカメラ1により撮像する方法である。こ
の場合、カメラ1からの合成画像を画像送受信部34へ
直接送ることも可能である。また、この場合は、上記の
合成方法と異なり、ディスプレイ28に表示されている
装飾画像やメッセージ等の画像の品質が低下することに
なる。
That is, the real object on the display 28 and the decorative image or message displayed on the display 28 are imaged by the camera 1 as they are. In this case, the composite image from the camera 1 can be directly sent to the image transmitting / receiving unit 34. Also, in this case, unlike the above-described combining method, the quality of an image such as a decorative image or a message displayed on the display 28 is degraded.

【0109】それでは、上記[STEP2j]における現実物抽
出部30によるディスプレイ上の現実物の抽出方法につ
いて詳細に説明する。
Now, a method of extracting a real object on the display by the real object extracting unit 30 in [STEP2j] will be described in detail.

【0110】図45は、現実物抽出部30の詳細な構成
図である。図45において、35はカメラ1で撮像した
画像を記憶する画像記憶部、36はディスプレイ28に
入力された閉曲線を画像記憶部35に記憶されている画
像中の対象物の輪郭候補点として離散化し記憶する輪郭
モデル記憶部、37は輪郭モデル記憶部36に記憶され
ている輪郭候補点を所定の規則により移動させる輪郭モ
デル変形部、38は輪郭候補点をあらかじめ定められた
組み合わせで結んだ閉曲線の交差の有無を判定する輪郭
モデル交差判定部、39は交差判定部38により交差が
検知された場合に輪郭候補点を複数の組に分類する輪郭
モデル分裂部、40は交差判定部38により交差なしと
判定された場合に輪郭候補点を新たに追加あるいは消滅
させる輪郭候補点生成・消滅部、41は輪郭抽出の完了
を判定する抽出完了判定部である。
FIG. 45 is a detailed block diagram of the real thing extracting unit 30. In FIG. 45, reference numeral 35 denotes an image storage unit that stores an image captured by the camera 1; and 36, a closed curve input to the display 28 is discretized as a candidate contour point of an object in the image stored in the image storage unit 35. An outline model storage unit 37 for storing the outline model, and an outline model transformation unit 37 for moving the outline candidate points stored in the outline model storage unit 36 in accordance with a predetermined rule. 38 is a closed curve connecting the outline candidate points in a predetermined combination. A contour model intersection judging unit 39 for judging the presence / absence of intersection, 39 is a contour model splitting unit for classifying contour candidate points into a plurality of sets when an intersection is detected by the intersection judging unit 38, and 40 is no intersection by the intersection judging unit 38 A contour candidate point generation / deletion unit 41 for newly adding or deleting a contour candidate point when it is determined that the extraction is completed. That.

【0111】以上のように構成された現実物抽出部30
の動作を、図46のフローチャートを参照しながら説明
する。画像記憶部35は通常RAMで構成されており、
カメラ1で撮像された画像がデジタル化され記憶され
る。デジタル化された画像の画素データは、例えば、そ
の輝度を8ビットで表すなどして記憶される。以下に現
実物抽出部30の動作手順を示す。 [STEP2j_1] 輪郭候補点の初期配置:先に説明した[STE
P2j]でディスプレイ1にペン入力された閉曲線(輪郭モ
デル)を構成するn個の点を、初期の輪郭候補点vi(xi
(0),yi(0))(i=1,2,…,n)として輪郭モデル記憶部36に
記憶する。iは輪郭候補点を連結した閉曲線(輪郭モデ
ル)を構成するための輪郭候補点の連結順序を表す。こ
の輪郭モデル記憶部36は通常RAMで構成されてい
る。 [STEP2j_2] 輪郭モデルの変形:輪郭モデル変形部37
により、すべての輪郭候補点の位置を1回移動させる。
これにより輪郭候補点を連結した閉曲線が変形する。
尚、この閉曲線は、輪郭候補点を定められた連結順序に
したがい連結したものである。輪郭モデルの変形は、あ
らかじめ輪郭モデルについて定義したエネルギーEsnake
(vi)を最小にするような方向に各輪郭候補点を移動させ
ることにより行う。この定義したエネルギーについて
は、後述する。
[0111] The real object extraction unit 30 configured as described above.
Will be described with reference to the flowchart of FIG. The image storage unit 35 is usually constituted by a RAM,
An image captured by the camera 1 is digitized and stored. The pixel data of the digitized image is stored, for example, by expressing its luminance in 8 bits. The operation procedure of the real thing extraction unit 30 will be described below. [STEP2j_1] Initial placement of contour candidate points: [STE
P2j], the n points constituting the closed curve (contour model) input to the display 1 with a pen are converted into initial contour candidate points vi (xi
(0), yi (0)) (i = 1, 2,..., N) are stored in the contour model storage unit 36. i represents the connection order of the contour candidate points for forming a closed curve (contour model) connecting the contour candidate points. The contour model storage unit 36 is usually constituted by a RAM. [STEP2j_2] Deformation of contour model: contour model transformation unit 37
Moves the positions of all the contour candidate points once.
Thereby, the closed curve connecting the contour candidate points is deformed.
The closed curve is obtained by connecting the contour candidate points according to a predetermined connection order. The deformation of the contour model is based on the energy Esnake
This is performed by moving each contour candidate point in a direction that minimizes (vi). This defined energy will be described later.

【0112】例えば、各輪郭候補点を所定の範囲で仮に
移動させてみたときにEsnake(vi)が最小になる位置へ移
動させてもよいし、
For example, when each contour candidate point is temporarily moved within a predetermined range, it may be moved to a position where Esnake (vi) is minimized.

【0113】[0113]

【数10】 (Equation 10)

【0114】上記の数10で示したEsnake(vi)の最急降
下ベクトルを、輪郭候補点vi(xi,yi)(i=1,2,…,n)ごと
に求め、次式により移動させてもよい。
The steepest descent vector of Esnake (vi) expressed by the above equation (10) is obtained for each contour candidate point vi (xi, yi) (i = 1, 2,..., N), and is moved by the following equation. Is also good.

【0115】[0115]

【数1】 (Equation 1)

【0116】ただし、t(i=0,1,…)は各点の移動回数を
表す。また、Kx>0,Ky>0は輪郭候補点の移動量を制御す
る定数である。数1による各輪郭候補点の移動は、輪郭
に沿って逐次的、あるいは各点ごとに独立して並列に行
えばよい。ただし、移動によりエネルギーEsnake(vi)が
増加する場合には移動させない。このとき、移動の有無
をフラグF(vi)(i=1,2,…,n)に記憶する。移動した輪郭
候補点ではF(vi)=1、移動のない輪郭候補点ではF(vi)=0
とする。輪郭モデルのエネルギーEsnake(vi)としては、
例えば、以下の式で表される各エネルギー項の和を用い
ればよい。なお、エネルギーは、対象物の特徴に応じて
種々のものが考えられる。 (1)輪郭モデルの滑らかさを表すEspline:
Here, t (i = 0, 1,...) Represents the number of movements of each point. Kx> 0 and Ky> 0 are constants for controlling the movement amount of the contour candidate point. The movement of each contour candidate point according to Equation 1 may be performed sequentially along the contour or independently in parallel for each point. However, if the energy Esnake (vi) increases due to the movement, the energy is not moved. At this time, the presence or absence of the movement is stored in a flag F (vi) (i = 1, 2,..., N). F (vi) = 1 for moved contour candidate points, F (vi) = 0 for contour candidate points that have not moved
And As energy Esnake (vi) of the contour model,
For example, the sum of the respective energy terms represented by the following equations may be used. Note that various types of energy can be considered according to the characteristics of the target object. (1) Espline representing the smoothness of the contour model:

【0117】[0117]

【数2】 (Equation 2)

【0118】数2を最小にするような輪郭候補点の移動
方向は、輪郭モデルが収縮するような方向である。ここ
で、vi、vi-1、vi+1におけるi、i-1、i+1は、それぞれ
vの添え字である。以下に示した数式においても同様で
ある。 (2)輪郭モデルの囲む閉領域の面積に相当するEare
a:
The moving direction of the contour candidate point that minimizes Equation 2 is a direction in which the contour model contracts. Here, i, i-1, and i + 1 in vi, vi-1, and vi + 1 are subscripts of v, respectively. The same applies to the following mathematical expressions. (2) Eare equivalent to the area of the closed area surrounded by the contour model
a:

【0119】[0119]

【数3】 (Equation 3)

【0120】ただし、xn+1=x1,yn+1=y1とする。数3を
最小にするような輪郭候補点の移動方向は、輪郭モデル
に対して垂直な方向である。Eareaを用いれば、くぼん
だ形状の対象物の輪郭が抽出できる。ここで、xi、xi
+1におけるi、i+1は、それぞれxの添え字であり、ま
た、yi、yi+1におけるi、i+1は、それぞれyの添え
字である。以下に示した数式においても同様である。 (3)輪郭候補点間の距離を平均化するEdist:
Here, it is assumed that xn + 1 = x1, yn + 1 = y1. The moving direction of the contour candidate point that minimizes Equation 3 is a direction perpendicular to the contour model. If Earea is used, the contour of a concave-shaped object can be extracted. Where xi, xi
I and i + 1 in +1 are subscripts of x, and i and i + 1 in yi and yi + 1 are subscripts of y. The same applies to the following mathematical expressions. (3) Edist for averaging the distance between contour candidate points:

【0121】[0121]

【数4】 (Equation 4)

【0122】ただし、davは輪郭候補点間の平均距離で
ある。 (4)画像の輝度I(vi)の勾配の大きさEedge:
Here, dav is the average distance between the contour candidate points. (4) The magnitude Eedge of the gradient of the image luminance I (vi):

【0123】[0123]

【数5】 (Equation 5)

【0124】数5を最小にするような輪郭候補点の移動
方向は、輝度勾配の大きくなる方向、すなわち対象物の
輪郭部分へ向かう方向である。 (5)画像の輝度値Eintens:
The moving direction of the contour candidate point that minimizes Equation 5 is the direction in which the luminance gradient increases, that is, the direction toward the contour portion of the object. (5) Image luminance value Eintens:

【0125】[0125]

【数6】 (Equation 6)

【0126】数6を最小にするような輪郭候補点の移動
方向は、Wntens>0のとき輝度の小さくなる(暗い)方
向、Wintens>0のとき輝度の大きくなる(明るい)方向
である。また、数2〜6のWsp1,Wsp2,Warea,Wdist,Wedg
e,Wintens>0は、それぞれ各エネルギー項の重み係数で
ある。
The moving direction of the contour candidate point that minimizes Equation 6 is a direction in which the luminance decreases (dark) when Wntens> 0, and a direction in which the luminance increases (bright) when Wintens> 0. Also, Wsp1, Wsp2, Warea, Wdist, Wedg
e, Wintens> 0 are weighting factors of each energy term, respectively.

【0127】数2〜6のエネルギー項の和を最小化する
ように輪郭モデルを変形すれば、初期輪郭は始め収縮す
るが、対象物の輪郭部分で各エネルギー項による輪郭候
補点を移動させるベクトルがつりあって停止する。この
ときの輪郭候補点を定められた順序で連結された多角形
を対象物の輪郭として抽出することになる。 [STEP2j_3] 輪郭モデルの交差判定:輪郭モデル交差判
定部38により、輪郭候補点を定められた連結順序で連
結した閉曲線(多角形)について、異なる2辺すべての
組み合わせについて交差の有無を判定する。ただし、連
結している2辺は除く。交差の判定は、例えば次のよう
にすればよい。線分vivi+1と線分vjvj+1が交点を持つな
らば、次式を満たす実数p(0≦p≦1),q(0≦q≦1)が存在
する。
If the contour model is deformed so as to minimize the sum of the energy terms of Equations (2) to (6), the initial contour contracts at first, but the vector for moving the contour candidate point by each energy term in the contour part of the object. It stops because it is balanced. At this time, a polygon in which the contour candidate points are connected in a predetermined order is extracted as the contour of the object. [STEP2j_3] Intersection determination of contour model: The contour model intersection determination unit 38 determines the presence / absence of intersection for all combinations of two different sides with respect to a closed curve (polygon) in which contour candidate points are connected in a predetermined connection order. However, two connected sides are excluded. The intersection may be determined, for example, as follows. If the line segment vivi + 1 and the line segment vjvj + 1 have an intersection, there are real numbers p (0 ≦ p ≦ 1) and q (0 ≦ q ≦ 1) that satisfy the following expression.

【0128】[0128]

【数7】p(vi+1-vi) + vi = q(vj+1-vj) + vj 数7は、p,qに関する連立方程式であり、次式で計算さ
れる行列式detが0でないとき解を持ち、このとき線分vi
vi+1と線分vjvj+1は、ただ1点で交差する。(ただし、d
et=0のとき、線分vivi+1と線分vjvj+1が一致する場合が
あり、この場合の交差は、行列式の計算前に輪郭候補点
の一致により判定しておく。)
[Mathematical formula-see original document] p (vi + 1-vi) + vi = q (vj + 1-vj) + vj Equation 7 is a simultaneous equation relating to p and q, and the determinant det calculated by the following equation is not 0 Have a solution, then a line segment vi
vi + 1 and the line segment vjvj + 1 intersect at only one point. (However, d
When et = 0, the line segment vivi + 1 may coincide with the line segment vjvj + 1, and the intersection in this case is determined by matching the contour candidate points before calculating the determinant. )

【0129】[0129]

【数8】det = (xi - xi+1)(yj+1 - yj) - (xj+1 - xj)
(yi - yi+1) したがって、det≠0のとき次式により算出されるp,q
が、0≦p≦1,0≦q≦1を満たすとき、輪郭候補点を定め
られた連結順序で連結した多角形(輪郭モデル)が交差
したと判定しSTEP4aを実行、それ以外はSTEP5aを実行す
る。
[Equation 8] det = (xi-xi + 1) (yj + 1-yj)-(xj + 1-xj)
(yi-yi + 1) Therefore, when det ≠ 0, p, q calculated by the following equation
However, when 0 ≦ p ≦ 1, 0 ≦ q ≦ 1, it is determined that polygons (contour models) in which the contour candidate points are connected in a predetermined connection order intersect, and STEP4a is executed. Otherwise, STEP5a is executed. Execute.

【0130】[0130]

【数9】p = ( (yj+1 - yj)(xi - xj) + (xj - xj+1)(y
i - yj) ) / det q = ( (yi+1 - yi)(xi - xj) + (xi - xi+1)(yi - yj)
) / det [STEP2j_4] 輪郭モデルの分裂:輪郭モデル分裂部39
により輪郭モデルを複数に分裂させ、STEP2aへ戻る。輪
郭モデルは、交点を持つ線分を構成する輪郭候補点で分
裂させる。輪郭モデルのエネルギーとしてEareaを用い
た場合に起こる典型的な交差の例を図47に示す。Eare
aは正または負の値をとるが、その符号が変わらないよ
うに、この例では輪郭候補点viとvj+1、vjとvi+1とをそ
れぞれ連結することにより、輪郭モデルを2つに分裂さ
せる。すなわち、連結順序が{v1,…,vi,vj+1,…,vn}と
{vi+1,…,vj}である輪郭候補点の組を、それぞれ新たに
分裂し独立した輪郭モデルとする。交差は複数箇所で同
時に起こりうるが、2つに分裂させる手続きを再帰的に
繰り返すことにより、複数個の輪郭モデルに分裂させれ
ばよい。 [STEP2j_5] 輪郭候補点の生成・消滅判定:輪郭候補点
生成・消滅部40により、新たな輪郭候補点の生成・消
滅を行う。例えば、次のような場合に輪郭候補点の生成
・消滅を行えばよい。隣接する輪郭候補点間の距離が|v
i+1-vi|>DTHを満たすとき、2点vi,vi+1間に新たに離散
点を生成する。ただし、DTHはあらかじめ定めておく輪
郭候補点間の最大距離である。生成された離散点があれ
ばGflag=1、なければGflag=0とする。また、cosθ>θTH
(θはvivi-1とvivi+1のなす角)を満たす離散点viを消
滅させる。ただし、θTHはあらかじめ定められた輪郭モ
デルの尖りを判定する閾値である。消滅した離散点があ
ればDflag=1、なければDflag=0とする。輪郭候補点の追
加生成により、分裂により減少する対象物1つあたりの
輪郭候補点の数を補って、複数対象物の輪郭を正しく抽
出できる。また消滅手順によれば、対象物の輪郭以外の
位置で停止している輪郭候補点が削除され、誤った輪郭
抽出を避けることができる。 [STEP2j_6] 抽出完了判定:抽出完了判定部41によ
り、全輪郭候補点に移動がなく(∀i;F(vi)=0)、か
つ、新たな輪郭候補点の生成・消滅がないとき(Gflag=
0かつDflag=0)、輪郭の抽出を終了する。それ以外はST
EP2aへ戻る。
## EQU9 ## p = ((yj + 1-yj) (xi-xj) + (xj-xj + 1) (y
i-yj)) / det q = ((yi + 1-yi) (xi-xj) + (xi-xi + 1) (yi-yj)
) / det [STEP2j_4] Division of contour model: contour model division unit 39
Divides the contour model into multiple parts, and returns to STEP2a. The contour model is split at contour candidate points forming a line segment having an intersection. FIG. 47 shows an example of a typical intersection that occurs when Earea is used as the energy of the contour model. Eare
a takes a positive or negative value, but in this example, the contour model is divided into two by connecting the contour candidate points vi and vj + 1 and vj and vi + 1, respectively, so that the sign does not change. Break up. That is, the connection order is {v1, ..., vi, vj + 1, ..., vn}
A set of contour candidate points of {vi + 1,..., vj} is newly split into independent contour models. The intersection can occur at a plurality of places at the same time, but the procedure of splitting into two may be recursively repeated to split into a plurality of contour models. [STEP2j_5] Generation / deletion determination of contour candidate points: The contour candidate point generation / deletion unit 40 generates and deletes new contour candidate points. For example, contour candidate points may be generated and deleted in the following cases. The distance between adjacent contour candidate points is | v
When i + 1-vi |> DTH is satisfied, a new discrete point is generated between two points vi and vi + 1. Here, DTH is a predetermined maximum distance between contour candidate points. If there are generated discrete points, Gflag = 1; otherwise, Gflag = 0. Also, cosθ> θTH
(Θ is an angle between vivi-1 and vivi + 1). Here, θTH is a predetermined threshold for determining the sharpness of the contour model. If there are discrete points that have disappeared, Dflag = 1; otherwise, Dflag = 0. By additionally generating the contour candidate points, the number of contour candidate points per one object reduced by division can be compensated, and the contours of a plurality of objects can be correctly extracted. Further, according to the disappearing procedure, the contour candidate points stopped at positions other than the contour of the target object are deleted, and erroneous contour extraction can be avoided. [STEP2j_6] Extraction completion determination: When all the outline candidate points have not moved (∀i; F (vi) = 0) and no new outline candidate point has been generated or deleted by the extraction completion determination unit 41 (Gflag =
0 and Dflag = 0), and the extraction of the contour ends. Otherwise ST
Return to EP2a.

【0131】以上、[STEP1]〜[STEP5]および[STEP2j_1]
〜[STEP2j_6]で説明した手順により、第12の実施の形
態によれば、合成したい複数の現実物をディスプレイ上
に置き、それらを包含するような閉曲線を1つ与えるだ
けで、閉曲線の変形に伴う自己交差を検知して複数に分
裂させることにより、それらを独立して抽出することが
できるので、簡単に現実物と仮想物体の合成画像を作成
することができる。また、作成する合成画像が多い場合
でも、ユーザの現実物の抽出における負担を軽減するこ
とができる。
As described above, [STEP1] to [STEP5] and [STEP2j_1]
According to the twelfth embodiment, the procedure described in [STEP2j_6] places a plurality of real objects to be combined on a display and gives one closed curve that includes them to reduce the deformation of the closed curve. By detecting the accompanying self-intersection and dividing it into a plurality of pieces, they can be extracted independently, so that a composite image of a real object and a virtual object can be easily created. Further, even when there are many synthesized images to be created, it is possible to reduce the burden on the user in extracting a real object.

【0132】なお、上記[STEP1j]〜[STEP4j]は必ずしも
この順序で行わなければならないものではなく、例え
ば、先に[STEP4j]のメッセージを入力を行ってから[STE
P1j]〜[STEP3j]により現実物をコンピュータ内に取り込
んで装飾画像を生成するというように任意の組み合せで
画像を合成できる。また、上記[STEP1j]〜[STEP4j]を任
意の順に繰り返し実行して画像を合成できることも言う
までもない。ただし、装飾画像やペン入力によるメッセ
ージをディスプレイに表示後、その上に新しく置かれた
現実物を抽出する場合には、ペンによる閉曲線入力に連
動して、カメラ1により画像を取り込む間だけ、ペン入
力された閉曲線を含むディスプレイ28の表示領域中の
部分領域を所定の色(例えば、白や黒)に変更する。こ
れにより仮想物体に影響されず現実物のみを抽出するこ
とができる。
Note that the above [STEP1j] to [STEP4j] are not necessarily performed in this order. For example, after the [STEP4j] message is input first,
P1j] to [STEP3j] can combine images in any combination, such as taking in a real object into a computer and generating a decoration image. It goes without saying that images can be synthesized by repeatedly executing the above [STEP1j] to [STEP4j] in an arbitrary order. However, when displaying a decorative image or a message by pen input on the display and then extracting a new real object placed on the display, the pen 1 is used only while the image is captured by the camera 1 in conjunction with the closed curve input by the pen. The partial area in the display area of the display 28 including the input closed curve is changed to a predetermined color (for example, white or black). As a result, only the real object can be extracted without being affected by the virtual object.

【0133】さらにまた、本発明の実施の形態は、デジ
タルカメラと接続することによりスナップ写真と合成し
たり、マイクと接続することにより音声メッセージを付
加したりという拡張が容易にできるということは言うま
でもない。 (実施の形態13)次に本発明の画像合成装置に係る第
13の実施の形態について説明する。
Further, it goes without saying that the embodiment of the present invention can be easily extended to combine with a snapshot by connecting to a digital camera, or to add a voice message by connecting to a microphone. No. (Thirteenth Embodiment) Next, a thirteenth embodiment according to the image synthesizing apparatus of the present invention will be described.

【0134】第12の実施の形態では、例えばペンでメ
ッセージを入力する場合には、「ペン」というボタンを
押すことにより、メッセージの入力なのか、現実物を選
択するための閉曲線の入力なのかを区別するコマンド
を、システムにユーザが入力するという形式で説明し
た。第13の実施の形態は、このようなシステムへの入
力負担をさらに軽減するとともに、選択ボタンをユーザ
が押すのではなく、普段使用している現実のペンや消し
ゴム、あるいはFAXなどのミニチュアモデルを、直感
的にその機能を理解できる立体アイコンとして使用する
インタフェースを提供し、より簡単に画像を合成できる
ように考慮したものである。その際、仮想物体がディス
プレイ28に表示され、識別すべき複数の現実物と同じ
色を含んでいる場合にも、どの現実物であるかを安定し
て識別できるように考慮したものである。
In the twelfth embodiment, for example, when inputting a message with a pen, pressing a “pen” button determines whether the input is a message or a closed curve for selecting a real object. The command that distinguishes the above is described in a form in which the user inputs to the system. The thirteenth embodiment further reduces the input burden on such a system and uses a miniature model such as a real pen, eraser, or FAX that is usually used instead of the user pressing the selection button. The present invention provides an interface used as a three-dimensional icon for intuitively understanding its function, and is designed to make it easier to compose an image. At this time, even when the virtual object is displayed on the display 28 and includes the same color as a plurality of real objects to be identified, the virtual object is considered so as to be able to stably identify which physical object it is.

【0135】図48は第13の実施の形態の構成図であ
り、図38に示した第12の実施の形態と同じ構成部分
には同一番号を付して詳細な説明は省略する。
FIG. 48 is a block diagram of the thirteenth embodiment. The same components as those of the twelfth embodiment shown in FIG. 38 are denoted by the same reference numerals, and detailed description is omitted.

【0136】第13の実施の形態と第12の実施の形態
の主な相違点は、第12の実施の形態に、システムへの
入力に用いるペンなどの現実物や立体アイコンを登録す
る立体アイコン登録部42と、ディスプレイ1に入力が
あったとき、それが何による入力なのかを識別する立体
アイコン識別部43とを付加したことである。
The main difference between the thirteenth embodiment and the twelfth embodiment is that the twelfth embodiment differs from the twelfth embodiment in that a real object such as a pen used for input to the system or a three-dimensional icon for registering a three-dimensional icon is registered. That is, a registration unit 42 and a three-dimensional icon identification unit 43 for identifying what the input is when the input is made on the display 1 are added.

【0137】以上のように構成された第13の実施の形
態の画像合成装置の動作を、第12の実施の形態と異な
る構成部分のみ説明する。
The operation of the image synthesizing apparatus according to the thirteenth embodiment configured as described above will be described only for components different from those in the twelfth embodiment.

【0138】まず、立体アイコン登録部42の動作を説
明する。立体アイコン登録部43は、画像を合成する前
に装飾機能選択部33によりディスプレイ28に表示さ
れているアイコンを押すことでユーザにより起動され
る。立体アイコン登録部42が起動されると、「文字入
力」や「消去」などのシステムが持つ機能の一覧表がデ
ィスプレイ1に表示する。ユーザは普段使っているボー
ルペンや消しゴムなどの現実物をカメラ1で撮影してこ
の一覧表にその特徴量を登録する。一覧表は、例えばテ
キスト形式でファイルとして保存しておき、立体アイコ
ン登録部42が起動されるとき、ディスプレイ28にそ
の情報を表示すればよい。特徴量としては、例えば、R
GB値それぞれの度数分布を記憶しておく。なお、カメ
ラで撮像するときは、実際にそのものを使用する状態で
撮影しておくことが望ましい。また、メーカーは出荷時
に専用のペンや消しゴム、さらにFAX立体アイコンな
どを付属させ、その色と対応する機能を記憶させてお
き、必ずしもユーザに設定させなくても良い。
First, the operation of the three-dimensional icon registration unit 42 will be described. The three-dimensional icon registration unit 43 is activated by the user by pressing an icon displayed on the display 28 by the decoration function selection unit 33 before combining images. When the three-dimensional icon registration unit 42 is activated, a list of functions of the system such as “character input” and “delete” is displayed on the display 1. The user shoots a real object such as a ball-point pen and an eraser that he or she normally uses with the camera 1 and registers the feature amount in this list. The list may be saved as a file in a text format, for example, and the information may be displayed on the display 28 when the three-dimensional icon registration unit 42 is activated. As the feature amount, for example, R
The frequency distribution of each GB value is stored. When taking an image with a camera, it is desirable to take a picture in a state where the camera itself is actually used. In addition, the manufacturer attaches a dedicated pen, an eraser, a facsimile three-dimensional icon, or the like at the time of shipment, stores the function corresponding to the color, and does not necessarily have to be set by the user.

【0139】次に、立体アイコン識別部43の動作を説
明する。立体アイコン識別部43は、ディスプレイ28
への入力があるごとに起動される。ディスプレイ28へ
の入力の有無とその位置座標は、制御部1000が管理
している。立体アイコン識別部43は、まず、制御部1
000からディスプレイ28への入力位置座標を受け取
り、その位置に立体アイコンの大きさに応じた所定の色
(例えば白)と大きさ(例えば120画素四方の正方
形)の領域を表示し、カメラ1により画像を取り込む。
次に、取り込んだ画像について先の領域のみについて各
画素のRGB値を調べて度数分布を作成し、立体アイコ
ン登録部42に登録されている度数分布と最も類似度が
高いものの立体アイコンが使用されていると判定する。
類似度としては、例えば度数分布の各クラスの差の絶対
値の総和を用いる。その結果、ペンと識別されたなら
ば、文字入力としてペンの移動した軌跡をディスプレイ
28に表示し、消しゴムと識別されたならば、消しゴム
の移動した軌跡の部分を消去する。また、FAXのミニ
チュアアイコンならば、合成画像を送信する。ただし、
FAXのアイコンなどを用いる場合は、カメラの視野角
を画像の合成領域よりも広げ、その部分に置くことによ
り合成画像に影響を与えないようにする。
Next, the operation of the three-dimensional icon identification section 43 will be described. The three-dimensional icon identification section 43
Fired every time there is input to The control unit 1000 manages the presence / absence of input to the display 28 and the position coordinates. First, the three-dimensional icon identification unit 43
000, the coordinates of an input position to the display 28 are received from the camera 1 and an area of a predetermined color (for example, white) and size (for example, a square of 120 pixels) corresponding to the size of the three-dimensional icon is displayed at that position. Import images.
Next, a frequency distribution is created by examining the RGB values of each pixel only in the previous region of the captured image, and a three-dimensional icon having the highest similarity to the frequency distribution registered in the three-dimensional icon registration unit 42 is used. Is determined to be
As the similarity, for example, the sum of the absolute values of the differences between the classes of the frequency distribution is used. As a result, if it is identified as a pen, the locus of movement of the pen is displayed on the display 28 as a character input, and if it is identified as an eraser, the portion of the locus of movement of the eraser is erased. In the case of a FAX miniature icon, a composite image is transmitted. However,
When a facsimile icon or the like is used, the viewing angle of the camera is set wider than the image synthesis area, and the camera is placed in that area so as not to affect the synthesized image.

【0140】以上の手順により、現実物の特徴量のみを
調べることにより、表示画像の影響を受けず、どの立体
アイコンであるかを正しく識別できるため、安定して登
録した立体アイコンを使用でき、より直感的な操作で画
像を合成できる。
By examining only the feature amount of the real object by the above procedure, it is possible to correctly identify the three-dimensional icon without being affected by the display image, so that the three-dimensional icon registered stably can be used. Images can be combined with more intuitive operations.

【0141】以上、第13の実施の形態によれば、ディ
スプレイへの入力位置に、所定の色と大きさの領域を表
示した後に画像を取り込み、その領域のみについて色を
調べるので、表示画像に影響されず現実物の特徴量のみ
を調べることができ、ディスプレイに表示された仮想物
体が、識別すべき複数の現実物と同じ色を含んでいる場
合にも、どの現実物であるかを正しく識別できるため、
安定して登録した立体アイコンを使用することができ、
より直感的な操作で画像を合成することができる。 (実施の形態14)次に本発明の画像合成装置に係る第
14の実施の形態について説明する。
As described above, according to the thirteenth embodiment, after displaying an area of a predetermined color and size at the input position on the display, the image is taken in and the color is examined only in that area. Only the features of the real object can be examined without being affected, and even if the virtual object displayed on the display contains the same color as multiple real objects to be identified, it is possible to correctly identify the real object. Can be identified,
You can use three-dimensional icons that have been stably registered,
Images can be synthesized with a more intuitive operation. (Embodiment 14) Next, a fourteenth embodiment according to the image synthesizing apparatus of the present invention will be described.

【0142】第12の実施の形態では、ペンでメッセー
ジを入力する場合には、文字の色は黒として説明した。
一般にペン入力システムの場合、ユーザが好みの色をメ
ニュー等により選択する形式をとっている。例えば、合
成画像の送信先がモノクロのFAXの場合、明るめの画
像に文字を入力する場合にはペンの色は黒に、暗めの画
像のときは白にする方が見やすい画像となる。第14の
実施の形態は、表示画像の明るさに応じてペンの色を自
動的に変更し、システムへのモード変更入力負担をさら
に軽減するとともに、より見やすい画像を合成できるよ
うに考慮したものである。
In the twelfth embodiment, when a message is input with a pen, the character color is described as black.
Generally, in the case of the pen input system, the user selects a desired color from a menu or the like. For example, if the destination of the synthesized image is a monochrome FAX, it is easier to see the pen color black when entering characters into a bright image and white when a dark image is input. The fourteenth embodiment is designed to automatically change the color of the pen according to the brightness of the display image, to further reduce the mode change input load on the system, and to make it possible to synthesize a more easily viewable image. It is.

【0143】図49は第14の実施の形態の構成図であ
り、図38に示した第12の実施の形態と同じ構成部分
には同一番号を付して詳細な説明は省略する。第14の
実施の形態と第12の実施の形態の主な相違点は、第1
2の実施の形態に、表示画像の明るさを算出する表示画
像明るさ算出部44と、表示画像明るさ算出部44によ
り算出された明るさに応じてペン入力の色を変更するペ
ン入力色変更部45とを付加したことである。
FIG. 49 is a block diagram of the fourteenth embodiment. The same components as those of the twelfth embodiment shown in FIG. 38 are denoted by the same reference numerals, and detailed description is omitted. The main difference between the fourteenth embodiment and the twelfth embodiment is that
In the second embodiment, a display image brightness calculation unit 44 that calculates the brightness of a display image, and a pen input color that changes the color of the pen input according to the brightness calculated by the display image brightness calculation unit 44 That is, a change unit 45 is added.

【0144】以上のように構成された第14の実施の形
態の画像合成装置の動作を、第12の実施の形態と異な
る表示画像明るさ算出部44とペン入力色変更部45に
ついてのみ説明する。
The operation of the image synthesizing apparatus according to the fourteenth embodiment configured as described above will be described only for the display image brightness calculation unit 44 and pen input color changing unit 45 different from the twelfth embodiment. .

【0145】表示画像明るさ判定部44は、ディスプレ
イ28に対してペン入力があるごとに起動され、表示画
像全体の平均輝度を算出する。ペン入力か否かの判定
は、第13の実施の形態の方法による。ペン入力色変更
部45は、表示画像明るさ算出部44が算出した平均輝
度を参照し、例えば、平均輝度が256階調の180以
上ならペン入力の色を黒、それ以外は白と決定する。こ
れにより、明るめの画像に文字を入力する場合にはペン
の色は黒に、暗めの画像のときは白に自動的に変更さ
れ、ユーザにペン入力色の選択モードを意識させずに、
文字の見やすい画像を合成することができる。
The display image brightness judging section 44 is activated every time there is a pen input to the display 28, and calculates the average luminance of the entire display image. The determination as to whether or not a pen input is performed is based on the method of the thirteenth embodiment. The pen input color changing unit 45 refers to the average brightness calculated by the display image brightness calculation unit 44, and determines, for example, that the pen input color is black if the average brightness is 180 or more of 256 gradations, and white otherwise. . As a result, the pen color is automatically changed to black when characters are input in a bright image, and white in a dark image, without making the user aware of the pen input color selection mode.
An image in which characters are easy to see can be synthesized.

【0146】以上、第14の実施の形態によれば、表示
画像の明るさに応じてペン入力の色を変化させるので、
より入力文字が見やすい画像を合成することができる。 (実施の形態15)次に本発明の画像合成装置に係る第
15の実施の形態について説明する。
As described above, according to the fourteenth embodiment, the color of the pen input is changed according to the brightness of the display image.
It is possible to compose an image in which the input characters are easier to see. (Embodiment 15) Next, a fifteenth embodiment according to the image synthesizing apparatus of the present invention will be described.

【0147】第12の実施の形態では、抽出した画像の
大きさや色を変換した装飾画像を表示した。また、第1
4の実施の形態では、表示画像の明るさに応じてペン入
力の色を変更し、文字情報の見やすい画像を合成した。
第15の実施の形態ではさらに、ディスプレイ1上に置
かれた現実物の色や明るさに応じて表示画像の色や明る
さを変化させることにより、より見やすい画像を合成す
るように考慮したものである。
In the twelfth embodiment, the decoration image in which the size and the color of the extracted image are converted is displayed. Also, the first
In the fourth embodiment, the color of the pen input is changed according to the brightness of the display image, and an image in which the character information is easy to see is synthesized.
In the fifteenth embodiment, further consideration is given to changing the color and brightness of a display image according to the color and brightness of a real object placed on the display 1 so as to synthesize a more easily viewable image. It is.

【0148】図50は第15の実施の形態の構成図であ
り、図38に示した第12の実施の形態と同じ構成部分
には同一番号を付して詳細な説明は省略する。
FIG. 50 is a block diagram of the fifteenth embodiment. The same components as those of the twelfth embodiment shown in FIG. 38 are denoted by the same reference numerals, and detailed description is omitted.

【0149】第15の実施の形態と第12の実施の形態
の主な相違点は、第12の実施の形態に、現実物の明る
さや色に応じて表示画像の明るさや色を変化させる表示
画像補正部46を付加したことである。
The main difference between the fifteenth embodiment and the twelfth embodiment is that the twelfth embodiment differs from the twelfth embodiment in that the brightness and color of the display image are changed according to the brightness and color of the real object. That is, an image correction unit 46 is added.

【0150】以上のように構成された第5の実施の形態
の画像合成装置の動作を第12の実施の形態と異なる表
示画像補正部46についてのみ説明する。
The operation of the image synthesizing apparatus of the fifth embodiment configured as described above will be described only for the display image correcting section 46 different from that of the twelfth embodiment.

【0151】表示画像補正部46は、例えば、画像の合
成が終了し、送信ボタンが押された時に起動する。ま
ず、表示画像補正部46は、現実物抽出部30を起動
し、カメラ1の撮像領域と同じ大きさの長方形を初期の
輪郭モデルとすることにより、ディスプレイ上の現実物
をすべて抽出する。次に、表示画像補正部46は、抽出
された物体すべての平均輝度を算出する。最後にこの平
均輝度の値に応じて、ディスプレイ28の表示画像の輝
度を変化させる。例えば、現実物が明るい場合(例え
ば、平均輝度)以上には、表示画像も明るくする(例え
ば、各画素値の輝度を20%上げる)ことにより全体と
して見やすい合成画像となる。
The display image correction section 46 is activated, for example, when the synthesis of the images is completed and the transmission button is pressed. First, the display image correction unit 46 activates the real object extraction unit 30 and extracts all the real objects on the display by setting a rectangle having the same size as the imaging area of the camera 1 as an initial contour model. Next, the display image correction unit 46 calculates the average luminance of all the extracted objects. Finally, the luminance of the display image on the display 28 is changed according to the value of the average luminance. For example, when the real object is bright (for example, average luminance) or more, the display image is also brightened (for example, the luminance of each pixel value is increased by 20%), so that a combined image that is easy to see as a whole is obtained.

【0152】以上、第15の実施の形態によれば、ディ
スプレイ上の現実物の色や明るさに応じて表示画像の色
や明るさを変化させるので、より見やすい画像を合成す
ることができる。
As described above, according to the fifteenth embodiment, since the color and brightness of the displayed image are changed according to the color and brightness of the real object on the display, it is possible to synthesize a more easily viewable image.

【0153】ところで、上述した各実施の形態の何れか
一つに記載の各ステップ(又は、各手段)の全部又は一
部のステップ(又は、処理動作)をコンピュータに実行
させるためのプログラムを記録した磁気記録媒体や光記
録媒体などを作成し、その記録媒体を利用して、上記と
同様の動作を実現させてもよい。
A program for causing a computer to execute all or some of the steps (or processing operations) of each step (or each means) described in any one of the above embodiments is recorded. A magnetic recording medium, an optical recording medium, or the like may be created, and the same operation as described above may be realized using the recording medium.

【0154】尚、本発明の個別抽出手段は、以上述べた
実施の形態では現実物抽出部であり、入力表示一体型デ
ィスプレイに応用した場合について述べたが、これに限
らず例えば、次の様な画像合成装置でも良い。
The individual extracting means of the present invention is a real thing extracting unit in the above-described embodiment, and the case where the individual extracting means is applied to an input display integrated display has been described. However, the present invention is not limited to this. A simple image synthesizing device may be used.

【0155】即ち、この場合の画像合成装置は、写真や
イラストなど複数の情報が表された書類などの面、及び
/又は物体を撮像するカメラなどの撮像手段と、前記撮
像手段により撮像された複数の写真やイラストなどの情
報又は複数の物体の内、画像抽出の対象の候補となるべ
き複数のイラストなどの抽出対象候補を取り囲む閉曲線
情報を検出する閉曲線情報検出手段と、前記検出された
閉曲線情報と前記イラストなどの抽出対象候補の画像の
情報とに基づいて、前記取り囲まれた複数のイラストな
どの抽出対象候補の画像から、それらイラストなどの画
像を個別的に抽出する個別抽出手段と、前記個別的に抽
出されたイラストなどの画像を利用して、メッセージな
どの別の画像との画像合成を行う画像合成手段とを備え
たものである。これにより、所定の面に表された情報及
び/又は複数の物体を撮像し、前記撮像された前記情報
及び/又は前記複数の物体の内、画像抽出の対象の候補
となるべき複数の抽出対象候補を取り囲む閉曲線を与
え、前記与えられた閉曲線情報を検出し、前記検出され
た閉曲線情報と前記抽出対象候補の画像の情報とに基づ
いて、前記取り囲まれた複数の抽出対象候補の画像か
ら、それぞれの抽出対象候補の画像を個別的に抽出し、
前記個別的に抽出された画像を利用して画像合成を行う
ことが出来る。
In other words, the image synthesizing apparatus in this case has an image pickup means such as a camera for picking up an image of a surface such as a document on which a plurality of pieces of information such as a photograph and an illustration are represented and / or an object, and the image pickup means. Closed curve information detecting means for detecting closed curve information surrounding extraction target candidates, such as a plurality of illustrations to be image extraction candidates, among information such as a plurality of photographs or illustrations or a plurality of objects, and the detected closed curve Individual extraction means for individually extracting images such as illustrations from the images of the extraction target candidates such as the plurality of enclosed illustrations based on the information and the information of the image of the extraction target candidate such as the illustration, An image synthesizing means for synthesizing an image with another image such as a message using the image such as the illustration extracted individually. Thereby, information represented on a predetermined surface and / or a plurality of objects are imaged, and a plurality of extraction targets to be candidates for image extraction among the imaged information and / or the plurality of objects are extracted. Providing a closed curve surrounding the candidate, detecting the given closed curve information, based on the detected closed curve information and the information of the image of the extraction target candidate, from the image of the plurality of extraction target candidates surrounded, Each candidate image is extracted individually,
Image synthesis can be performed using the individually extracted images.

【0156】この構成により、上記の場合と同様に、画
像抽出の対象が複数ある場合でも、それら抽出対象を指
示するための作業の負担が従来に比べてより一層軽くな
るという効果を発揮する。即ち、指示領域の指定が従来
に比べてより一層容易に行える。
With this configuration, as in the case described above, even when there are a plurality of image extraction targets, the effect of reducing the work load for designating those extraction targets is reduced as compared with the related art. That is, the designation of the designated area can be performed more easily than in the past.

【0157】あるいは、次の様な画像合成装置でも良
い。
Alternatively, the following image synthesizing apparatus may be used.

【0158】即ち、この場合の画像合成装置は、写真、
イラスト、文字列などの情報が表された面を撮像する撮
像手段と、前記撮像手段により撮像された複数の前記情
報の内、指示対象となるべき複数の指示対象情報を取り
囲む閉曲線情報を検出する閉曲線情報検出手段と、前記
検出された閉曲線情報と前記指示対象情報の画像情報と
に基づいて、前記取り囲まれた複数の指示対象情報の画
像から、それぞれの指示対象情報の画像を個別的に抽出
する個別抽出手段と、前記個別的に抽出された画像の領
域及び/又はその画像の特徴量を検出する指示情報検出
部と、前記検出された前記画像の領域及び/又は前記画
像の特徴量に基づき、前記指示対象情報の画像に付加す
る付加画像を生成する付加画像生成部と、前記生成され
た付加画像を記憶する付加画像記憶部と、前記撮像手段
により得られた前記指示対象情報の画像と、前記生成さ
れた付加画像とを合成する画像合成部とを備えた構成で
ある。この構成は、例えば、実施の形態8で述べた画像
合成装置の変形例としてとらえても良い。即ち、図31
に示すように、抽出対象が多角形の図形の集合と、写真
の2つであった場合、実施の形態8で述べたように、そ
れぞれの対象について、個別に指示するのではなく、双
方の対象を取り囲むような一つの閉曲線を与えるのであ
る。個別抽出手段の構成は、上述したものと同様であ
る。
That is, the image synthesizing device in this case is
An imaging unit that captures a surface on which information such as an illustration and a character string is displayed, and, among the plurality of pieces of information captured by the imaging unit, detect closed curve information that surrounds a plurality of pieces of pointing target information to be pointing targets. Closed curve information detecting means, and individually extracting an image of each indicated target information from the surrounded plurality of indicated target information images based on the detected closed curve information and the image information of the indicated target information. An instruction extracting unit that detects an area of the individually extracted image and / or a feature amount of the image, and an instruction information detecting unit that detects the area of the image and / or the feature amount of the image. An additional image generation unit that generates an additional image to be added to the image of the instruction target information, an additional image storage unit that stores the generated additional image, and an image obtained by the imaging unit. An image referents information, a configuration in which an image combining unit for combining the additional image that is generated. This configuration may be considered, for example, as a modification of the image synthesizing apparatus described in the eighth embodiment. That is, FIG.
As shown in FIG. 8, when two extraction targets are a set of polygonal figures and a photograph, as described in the eighth embodiment, instead of individually instructing each object, both of them are designated. It gives a closed curve that surrounds the object. The configuration of the individual extraction means is the same as that described above.

【0159】この構成により、上記の場合と同様に、画
像抽出の対象が複数ある場合でも、それら抽出対象を指
示するための作業の負担が従来に比べてより一層軽くな
るという効果を発揮する。
With this configuration, as in the case described above, even when there are a plurality of image extraction targets, the effect of designating those extraction targets can be further reduced as compared with the related art.

【0160】また、本発明の画像合成装置は、上記実施
の形態では、現実物抽出部を有する入力表示一体型ディ
スプレイに応用した場合について述べたが、これに限ら
ず例えば、次の様な画像合成装置でも良い。
Further, in the above embodiment, the image synthesizing apparatus of the present invention has been described as applied to an input display integrated type display having a real object extracting unit. However, the present invention is not limited to this. A synthesizer may be used.

【0161】即ち、この画像合成装置は、入力表示一体
型ディスプレイと、前記ディスプレイの表示部の少なく
とも一部を撮像する撮像手段と、前記ディスプレイ上に
置かれた現実の物体を指示するための指示位置情報を検
出する指示位置検出部と、前記検出された指示位置情報
に基づいて、前記撮像手段により撮像された画像から、
前記現実の物体の画像を抽出する現実物抽出手段と、前
記抽出された画像を用いて、前記ディスプレイに表示す
る付加画像を生成する付加画像生成部と、前記生成され
た付加画像を記憶する付加画像記憶部と、前記生成され
た付加画像のディスプレイへの表示方法を選択する表示
方法選択部と、前記選択された表示方法に基づき前記付
加画像と前記現実の物体の画像とを合成する画像合成部
とを備えた構成である。これにより、従来にないやり方
で、簡単に現実物と仮想物体の合成画像を作成すること
ができるという効果を発揮する。
That is, the image synthesizing apparatus comprises an input-display integrated display, an image pickup means for picking up an image of at least a part of a display section of the display, and an instruction for indicating a real object placed on the display. A pointing position detecting unit that detects position information, and based on the detected pointing position information, an image captured by the imaging unit,
A real object extracting unit for extracting an image of the real object, an additional image generating unit for generating an additional image to be displayed on the display using the extracted image, and an additional unit for storing the generated additional image An image storage unit, a display method selection unit that selects a display method of the generated additional image on a display, and an image synthesis unit that synthesizes the additional image and the image of the real object based on the selected display method. And a unit. As a result, there is an effect that a composite image of a real object and a virtual object can be easily created in an unconventional manner.

【0162】以上のように、第1の実施の形態によれ
ば、プレゼンテーションしている人は、自分の書いた情
報の強調したい部分を指示棒で指示するだけで、その部
分の領域や特徴を自動抽出して適切な装飾用の画像がス
ーパーインポーズされるので、いろんな色のペンを持ち
替えて使い分けるなどの必要がない。さらに、ペン等に
よる指示位置により、装飾方法を簡単に変更でき、例え
ば、書類の端のあたりを指示すれば自動的に枠や所属、
日時等を付与したり、既に装飾されている情報部分につ
いては、その指示位置により装飾を消したり、点滅させ
ることができるので、プレゼンテーション用のOHPシ
ートをあらかじめ作成しなくとも、その場で効果的なプ
レゼンテーションが可能となる。
As described above, according to the first embodiment, the presenter can specify the area or feature of the part by simply pointing the part to be emphasized of the information he wrote with the wand. Since the image for decoration is automatically superimposed and superimposed, there is no need to switch and use different colored pens. Furthermore, the decoration method can be easily changed according to the position indicated by the pen or the like.
It is possible to add the date and time, etc., or to erase or blink the information part that has already been decorated according to the designated position, so that it is effective on the spot without creating an OHP sheet for presentation in advance. Presentation is possible.

【0163】即ち、画像の領域や特徴量等に基づいた装
飾又は強調等の処理がより一層容易に行えると言う長所
を有する。
That is, there is an advantage that processing such as decoration or emphasis based on the image area, feature amount, and the like can be performed more easily.

【0164】また、第2の実施の形態によれば、ペン等
に付与した複数種類のマーカーを識別することにより装
飾方法を切り替えられるので、複数種類の色のペンを持
ち替えて記入するなどの手間が省け、プレゼンテーショ
ンを円滑に進めることが可能となる。
Further, according to the second embodiment, the decoration method can be switched by identifying a plurality of types of markers attached to pens or the like, so that it is troublesome to switch between pens of a plurality of colors and write. Can be omitted, and the presentation can proceed smoothly.

【0165】第3の実施の形態によれば、既存の装飾画
像をスーパーインポーズで一覧表示し、それらを指示棒
で指示してコピーできるので、書類を複数枚使う場合で
も、同じ文字列を何度も書類に書く必要がなく、プレゼ
ンテーションを円滑に進めることが可能となる。
According to the third embodiment, existing decoration images are displayed in a superimposed list and can be copied by designating them with the pointing stick. Therefore, even when a plurality of documents are used, the same character string can be used. There is no need to write on the document many times, and the presentation can proceed smoothly.

【0166】第4の実施の形態によれば、装飾画像の一
部をテンプレートとして連続するフレーム間でテンプレ
ートマッチングすることで書類の移動パラメータを求め
て装飾画像を変形するので、プレゼンテーション中に書
類が移動した場合でも、強調したい部分を正しく装飾す
ることができ、ユーザは書類の移動を気にせずプレゼン
テーションを行うことができる。
According to the fourth embodiment, the decoration image is transformed by obtaining template movement parameters by performing template matching between successive frames using a part of the decoration image as a template. Even if it moves, the part to be emphasized can be correctly decorated, and the user can give a presentation without worrying about the movement of the document.

【0167】第5の実施の形態によれば、マーカーを置
けば装飾、取り去れば消去という直感的にわかりやすい
操作ができるので、誰でも簡単に効果的なプレゼンテー
ションができる。
According to the fifth embodiment, an intuitive operation such as decorating by placing a marker and erasing by removing a marker can be performed intuitively, so that anybody can easily give an effective presentation.

【0168】第6の実施の形態によれば、設置用マーカ
ーを用いて記入部分や書類の傾きを検出するので、推定
すべき書類の移動パラメータの数を減らすことができ、
より高速に書類の移動に対応した付加画像が合成できる
ので、合成画像の提示遅れによる違和感を低減できる。
According to the sixth embodiment, since the entry portion and the inclination of the document are detected by using the installation markers, the number of the movement parameters of the document to be estimated can be reduced.
Since the additional image corresponding to the movement of the document can be synthesized at a higher speed, it is possible to reduce a sense of discomfort due to a delay in displaying the synthesized image.

【0169】第7の実施の形態によれば、マーカー数の
増減を検知することにより、マーカーが置かれた場合と
取り去られた場合を識別し、それに応じた効果音をなら
すことにより、より効果的なプレゼンテーションができ
る。
According to the seventh embodiment, by detecting an increase or decrease in the number of markers, it is possible to discriminate between a case where a marker is placed and a case where it is removed, and to level a sound effect in accordance with that. You can give an effective presentation.

【0170】第8の実施の形態によれば、複数のマーカ
ー形状を認識し、それらを対応づけることにより図形や
文字が混在する複雑な書類も装飾することができ、より
プレゼンテーション効果が高まる。
According to the eighth embodiment, by recognizing a plurality of marker shapes and associating them, it is possible to decorate a complicated document in which graphics and characters are mixed, and the presentation effect is further enhanced.

【0171】第9の実施の形態によれば、カメラのズー
ム倍率にあわせて装飾画像を拡大・縮小するので、カメ
ラをズームさせた場合についても正しく強調した部分を
装飾でき、よりプレゼンテーションの幅を広げることが
できる。
According to the ninth embodiment, the decorative image is enlarged or reduced in accordance with the zoom magnification of the camera. Therefore, even when the camera is zoomed, the correctly emphasized portion can be decorated, and the width of the presentation can be further increased. Can be spread.

【0172】第10の実施の形態によれば、蛍光ペン等
で表示したくない部分を着色しておくだけで、その着色
部分を画像から消去するので、聞き手に見せたくない部
分を隠すことができる。
According to the tenth embodiment, only the part that is not desired to be displayed is colored with a highlighter or the like, and the colored part is erased from the image. Therefore, the part that the user does not want to show to the listener can be hidden. it can.

【0173】第11の実施の形態によれば、作成した合
成画像をインターネットのホームページに登録できるの
で、大学等の学校の授業に、端末を介して学外から参加
できたり、講義メモを再利用したり、また先生はレポー
ト課題を与えたりといった、効率のよい教育サポートシ
ステムの実現が可能となる。
According to the eleventh embodiment, the created composite image can be registered on the Internet homepage, so that it is possible to participate in a class at a school such as a university from outside the university via a terminal, or to reuse a lecture memo. And the teacher can provide an efficient educational support system, such as giving a report assignment.

【0174】第12の実施の形態によれば、合成したい
複数の現実物をディスプレイ上に置き、それらを包含す
るような閉曲線を1つ与えるだけで、閉曲線の変形に伴
う自己交差を検知して複数に分裂させることにより、そ
れらを独立して抽出することができるので、簡単に現実
物と仮想物体の合成画像を作成することができる。
According to the twelfth embodiment, a plurality of real objects to be synthesized are placed on a display, and only one closed curve including them is provided, and the self-intersection accompanying the deformation of the closed curve is detected. By dividing the image into a plurality of objects, they can be extracted independently, so that a composite image of a real object and a virtual object can be easily created.

【0175】第13の実施の形態によれば、ディスプレ
イへの入力位置に対応した所定の領域でのみ立体アイコ
ンの識別用の色を調べるので、表示画像に影響されず、
どの立体アイコンであるかを正しく識別できるため、安
定して登録した立体アイコンを使用することができ、よ
り直感的な操作で画像を合成することができる。
According to the thirteenth embodiment, since the color for identifying a three-dimensional icon is checked only in a predetermined area corresponding to the input position on the display, the display image is not affected.
Since the three-dimensional icon can be correctly identified, the three-dimensional icon registered stably can be used, and the image can be synthesized by a more intuitive operation.

【0176】第14の実施の形態によれば、表示画像の
明るさに応じてペン入力の色を変化させるので、より入
力文字が見やすい画像を合成することができる。
According to the fourteenth embodiment, the color of the pen input is changed according to the brightness of the displayed image, so that an image in which the input characters are more easily viewable can be synthesized.

【0177】第15の実施の形態によれば、ディスプレ
イ上の現実物の色や明るさに応じて表示画像の色や明る
さを変化させるので、より見やすい画像を合成できる。
According to the fifteenth embodiment, since the color and brightness of the display image are changed according to the color and brightness of the real object on the display, a more easily viewable image can be synthesized.

【0178】[0178]

【発明の効果】以上述べたところから明らかなように本
発明は、合成画像を作成する上での制限が従来に比べて
少ないという長所を有する。
As is apparent from the above description, the present invention has an advantage that the restriction on creating a composite image is smaller than that of the related art.

【0179】又、本発明は、現実物と仮想物の合成画像
をより簡単に作成することができるという長所を有す
る。
Also, the present invention has an advantage that a composite image of a real object and a virtual object can be created more easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態のブロック図FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】本発明の第1の実施の形態の動作手順を示すフ
ローチャート
FIG. 2 is a flowchart showing an operation procedure according to the first embodiment of the present invention;

【図3】本実施の形態における書類の一例を示す図FIG. 3 illustrates an example of a document according to the present embodiment.

【図4】本実施の形態における枠画像による装飾の一例
を示す図
FIG. 4 is a diagram illustrating an example of decoration by a frame image according to the present embodiment;

【図5】本実施の形態のペン型指示手段による指示位置
および指示領域検出の一例を示す図
FIG. 5 is a diagram illustrating an example of detection of a pointing position and a pointing region by a pen-type pointing device according to the present embodiment;

【図6】本実施の形態のペン型指示手段による文字領域
および写真領域の装飾の一例を示す図
FIG. 6 is a diagram illustrating an example of decoration of a character area and a photograph area by the pen-type pointing device according to the embodiment;

【図7】本実施の形態のペン型指示手段による既存装飾
領域の表示変更方法の一例を示す図
FIG. 7 is a diagram showing an example of a method of changing the display of an existing decorative area by the pen-type indicating means according to the embodiment;

【図8】本発明の第2の実施の形態のブロック図FIG. 8 is a block diagram of a second embodiment of the present invention.

【図9】本発明の第2の実施の形態の動作手順を示すフ
ローチャート
FIG. 9 is a flowchart showing an operation procedure according to the second embodiment of the present invention;

【図10】本実施の形態のペン型指示手段に取り付ける
複数マーカーと取り付け方法の一例を示す図
FIG. 10 is a diagram showing an example of a plurality of markers attached to the pen-type indicating means of the embodiment and an attaching method.

【図11】本実施の形態のマーカー種類の認識による装
飾の一例を示す図
FIG. 11 is a diagram illustrating an example of decoration by recognition of a marker type according to the present embodiment;

【図12】本発明の第3の実施の形態のブロック図FIG. 12 is a block diagram of a third embodiment of the present invention.

【図13】本発明の第3の実施の形態の動作手順を示す
フローチャート
FIG. 13 is a flowchart showing an operation procedure according to the third embodiment of the present invention.

【図14】本実施の形態の既存装飾画像の表示方法の一
例を示す図
FIG. 14 is a diagram illustrating an example of a method for displaying an existing decoration image according to the present embodiment;

【図15】本実施の形態の既存装飾画像の選択方法の一
例を示す図
FIG. 15 is a diagram showing an example of a method for selecting an existing decoration image according to the embodiment;

【図16】本実施の形態の既存装飾画像の複写方法の一
例を示す図
FIG. 16 is a diagram illustrating an example of a method for copying an existing decorative image according to the present embodiment;

【図17】本発明の第4の実施の形態のブロック図FIG. 17 is a block diagram of a fourth embodiment of the present invention.

【図18】本発明の第4の実施の形態の動作手順を示す
フローチャート
FIG. 18 is a flowchart illustrating an operation procedure according to the fourth embodiment of the present invention.

【図19】本実施の形態のテンプレートマッチングによ
る書類移動パラメータ推定の一例を示す図
FIG. 19 is a diagram illustrating an example of estimating document movement parameters by template matching according to the present embodiment;

【図20】本発明の第5の実施の形態のブロック図FIG. 20 is a block diagram of a fifth embodiment of the present invention.

【図21】本発明の第5の実施の形態の動作手順を示す
フローチャート
FIG. 21 is a flowchart showing an operation procedure according to the fifth embodiment of the present invention.

【図22】本実施の形態の設置用マーカーによる装飾の
一例を示す図
FIG. 22 is a diagram showing an example of decoration by the installation marker of the present embodiment.

【図23】本実施の形態の設置用マーカーの除去による
装飾画像の消去の一例を示す図
FIG. 23 is a diagram showing an example of erasing a decorative image by removing an installation marker according to the present embodiment.

【図24】本発明の第6の実施の形態のブロック図FIG. 24 is a block diagram of a sixth embodiment of the present invention.

【図25】本発明の第6の実施の形態の動作手順を示す
フローチャート
FIG. 25 is a flowchart showing an operation procedure according to the sixth embodiment of the present invention.

【図26】本実施の形態の設置用指示手段を用いた書類
の傾斜を補正した指示情報領域の検出の一例を示す図
FIG. 26 is a diagram illustrating an example of detection of an instruction information area in which the inclination of a document has been corrected using the installation instruction means according to the present embodiment;

【図27】本発明の第7の実施の形態のブロック図FIG. 27 is a block diagram of a seventh embodiment of the present invention.

【図28】本発明の第7の実施の形態の動作手順を示す
フローチャート
FIG. 28 is a flowchart showing an operation procedure according to the seventh embodiment of the present invention;

【図29】本発明の第8の実施の形態のブロック図FIG. 29 is a block diagram of an eighth embodiment of the present invention.

【図30】本発明の第8の実施の形態の動作手順を示す
フローチャート
FIG. 30 is a flowchart showing an operation procedure according to the eighth embodiment of the present invention.

【図31】本実施の形態のカギ形状指示手段による装飾
領域指定方法の一例を示す図
FIG. 31 is a diagram showing an example of a decoration area designating method by the key shape designating means of the present embodiment.

【図32】本実施の形態のカギ形状指示手段の一例を示
す図
FIG. 32 is a diagram illustrating an example of a key shape indicating unit according to the present embodiment.

【図33】本実施の形態のカギ形状指示手段による装飾
結果の一例を示す図
FIG. 33 is a diagram showing an example of a decoration result by the key shape indicating means of the present embodiment.

【図34】本発明の第9の実施の形態のブロック図FIG. 34 is a block diagram of a ninth embodiment of the present invention.

【図35】本発明の第9の実施の形態の動作手順を示す
フローチャート
FIG. 35 is a flowchart showing an operation procedure according to the ninth embodiment of the present invention;

【図36】本発明の第10の実施の形態のブロック図FIG. 36 is a block diagram of a tenth embodiment of the present invention.

【図37】本発明の第11の実施の形態のブロック図FIG. 37 is a block diagram of an eleventh embodiment of the present invention.

【図38】本発明の第12の実施の形態のブロック図FIG. 38 is a block diagram of a twelfth embodiment of the present invention.

【図39】本発明の第12の実施の形態の動作手順を示
すフローチャート
FIG. 39 is a flowchart showing an operation procedure according to the twelfth embodiment of the present invention;

【図40】本実施の形態のディスプレイ上への現実物の
設置の一例を示す図
FIG. 40 is a diagram showing an example of installation of a real object on a display according to the present embodiment.

【図41】本実施の形態のペン入力による現実物の選択
の一例を示す図
FIG. 41 is a diagram illustrating an example of selection of a real object by pen input according to the present embodiment;

【図42】本実施の形態の現実物抽出結果の一例を示す
FIG. 42 is a diagram showing an example of a real object extraction result according to the present embodiment;

【図43】本実施の形態の取り込んだ現実物による装飾
の一例を示す図
FIG. 43 is a view showing an example of decoration by a real object taken in the present embodiment;

【図44】本実施の形態のペン入力によるメッセージ記
入の一例を示す図
FIG. 44 is a diagram showing an example of message entry by pen input according to the present embodiment;

【図45】本実施の形態の現実物抽出部30の詳細な構
成を示すブロック図
FIG. 45 is a block diagram showing a detailed configuration of the real thing extracting unit 30 of the present embodiment.

【図46】本実施の形態の現実物抽出手順を示すフロー
チャート
FIG. 46 is a flowchart showing a physical object extraction procedure according to the embodiment.

【図47】本実施の形態の輪郭モデルの交差の一例を示
す図
FIG. 47 is a diagram showing an example of intersection of a contour model according to the present embodiment;

【図48】本発明の第13の実施の形態のブロック図FIG. 48 is a block diagram of a thirteenth embodiment of the present invention.

【図49】本発明の第14の実施の形態のブロック図FIG. 49 is a block diagram of a fourteenth embodiment of the present invention.

【図50】本発明の第15の実施の形態のブロック図FIG. 50 is a block diagram of a fifteenth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 2 指示位置検出部 3 指示情報検出部 4 付加画像生成部 5 付加画像記憶部 6 指示位置別情報付加方法決定部 7 画像合成部 8 表示部 9 マーカー種類、指示位置判定部 10 異種マーカー対応付加画像生成部 11 既存付加画像複写部 12 移動パラメータ推定部 13 付加画像変形部 14 異種複数指示手段指示位置検出部 15 異種複数指示手段対応指示情報検出部 16 異種複数指示手段対応付加画像生成部 17 設置用マーカー利用移動パラメータ算出部 18 設置用指示手段数増減検出部 19 音声データ記憶部 20 スピーカー 21 指示手段形状認識部 22 指示手段対応決定部 23 ズーム倍率検出部 24 付加画像拡大・縮小部 25 着色指定領域消去部 26 HTMLファイル作成・更新部 27 サーバーおよび端末 28 入力表示一体型ディスプレイ 30 現実物抽出部 32 装飾画像記憶部 33 装飾機能選択部 34 画像送受信部 36 輪郭モデル記憶部 37 輪郭モデル変形部 38 輪郭モデル交差判定部 39 輪郭モデル分裂部 40 輪郭候補点生成消滅部 41 抽出完了判定部 42 立体アイコン登録部 43 立体アイコン識別部 44 表示画像明るさ算出部 45 ペン入力色変更部 46 表示画像補正部 100 ペン、指示棒 100a マーカー 100b 指示位置検出開始スイッチ 200 設置用指示手段 300 カギ形状指示手段 1000 制御部 REFERENCE SIGNS LIST 1 camera 2 pointing position detecting unit 3 pointing information detecting unit 4 additional image generating unit 5 additional image storage unit 6 pointing position information adding method determining unit 7 image synthesizing unit 8 display unit 9 marker type, pointing position determining unit Additional image generating unit 11 Existing additional image copying unit 12 Moving parameter estimating unit 13 Additional image deforming unit 14 Heterogeneous plural instruction means indicating position detecting unit 15 Heterogeneous plural instruction means corresponding instruction information detecting unit 16 Heterogeneous plural instruction means corresponding additional image generating unit 17 Installation marker use movement parameter calculation unit 18 Installation instruction means number increase / decrease detection unit 19 Voice data storage unit 20 Speaker 21 Instruction unit shape recognition unit 22 Instruction unit correspondence determination unit 23 Zoom magnification detection unit 24 Additional image enlargement / reduction unit 25 Coloring Designated area deletion unit 26 HTML file creation / update unit 27 Server and terminal 8 Input display integrated display 30 Real thing extraction unit 32 Decoration image storage unit 33 Decoration function selection unit 34 Image transmission / reception unit 36 Outline model storage unit 37 Outline model deformation unit 38 Outline model intersection determination unit 39 Outline model splitting unit 40 Outline candidate point Generation / disappearance unit 41 Extraction completion determination unit 42 3D icon registration unit 43 3D icon identification unit 44 Display image brightness calculation unit 45 Pen input color change unit 46 Display image correction unit 100 Pen, pointing rod 100a Marker 100b Pointed position detection start switch 200 Installation instruction means 300 Key shape instruction means 1000 Control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/66 470A 特許法第64条第2項ただし書の規定により図面第4図, 5図,6図,7図,11図,14図,15図,16図の一部は不 掲載とした。──────────────────────────────────────────────────の Continuation of the front page (51) Int.Cl. 6 Identification code FIG06F 15/66 470A According to the proviso of Article 64, Paragraph 2 of the Patent Act Figures 4, 5, 6, 7, Some of Figures 11, 14, 15, and 16 are not shown.

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】 所定の撮像手段と、 情報が表された面に与えられる指示情報の位置を、前記
撮像手段により撮像された画像から検出する指示位置検
出手段と、 前記指示位置検出手段により検出された指示位置に対応
して前記面上に表されている指示対象の情報の領域及び
/又はその指示対象の情報の特徴量を検出する指示対象
情報検出手段と、 前記領域及び/又は前記特徴量に基づき前記指示対象情
報の画像に付加する付加画像を生成する付加画像生成手
段と、 前記撮像手段により得られた前記指示対象情報の画像
と、前記生成された付加画像とを合成する画像合成手段
と、を備えたことを特徴とする画像合成装置。
1. A predetermined image pickup means, an instruction position detection means for detecting a position of instruction information given to a surface on which information is displayed, from an image taken by the image pickup means, and a detection by the indication position detection means Pointing target information detecting means for detecting a region of the pointing target information and / or a feature amount of the pointing target information displayed on the surface corresponding to the specified pointing position; and the region and / or the feature. Additional image generation means for generating an additional image to be added to the image of the instruction target information based on the amount; image synthesis for synthesizing the image of the instruction target information obtained by the imaging means and the generated additional image Means for synthesizing an image.
【請求項2】 前記検出された前記指示位置に基づき、
前記付加画像の合成方法及び/又は表示方法を決定する
指示位置別の情報付加方法決定部を備え、 前記画像合成手段は、前記合成の際に、前記情報付加方
法決定部による決定結果を利用することを特徴とする請
求項1記載の画像合成装置。
2. Based on the detected indicated position,
An information adding method determining unit for each designated position that determines a method of combining and / or displaying the additional image, wherein the image combining unit uses a determination result by the information adding method determining unit at the time of the combining; 2. The image synthesizing apparatus according to claim 1, wherein:
【請求項3】 前記付加画像は、前記指示対象情報の画
像を装飾及び/又は強調する画像であることを特徴とす
る請求項1記載の画像合成装置。
3. The apparatus according to claim 1, wherein the additional image is an image for decorating and / or enhancing the image of the pointing target information.
【請求項4】 単数又は複数種類の前記指示情報を有す
る、前記指示対象を指示する指示手段を有し、 前記指示位置検出手段が、更に、前記撮像手段により撮
像された前記画像から得られた前記指示情報を利用し
て、その指示情報の種類を判定し、 前記付加画像生成手段が、前記判定された指示情報の種
類をも加味して、前記付加画像の生成を行うことを特徴
とする請求項1記載の画像合成装置。
4. An apparatus according to claim 1, further comprising: an instruction unit having one or a plurality of types of instruction information, the instruction unit indicating the instruction target, wherein the instruction position detecting unit is further obtained from the image captured by the imaging unit. The type of the instruction information is determined using the instruction information, and the additional image generation unit generates the additional image in consideration of the type of the determined instruction information. The image synthesizing device according to claim 1.
【請求項5】 前記生成された付加画像を記憶する付加
画像記憶部と、 前記付加画像記憶部に記憶されている前記付加画像を前
記撮像手段により得られた画像と合成して一覧表示し、
その一覧表示から選択された前記付加画像を前記指示位
置に合成して表示する既存付加画像複写部と、を備えた
ことを特徴とする請求項1〜4の何れか一つに記載の画
像合成装置。
5. An additional image storage unit for storing the generated additional image, and an additional image stored in the additional image storage unit is combined with an image obtained by the imaging unit to display a list.
The image compositing device according to claim 1, further comprising: an existing additional image copying unit that composites and displays the additional image selected from the list display at the designated position. apparatus.
【請求項6】 前記情報が表された面の移動後の位置を
推定する移動パラメータ推定部と、 前記推定された移動パラメータに基づいて、前記付加画
像を変形させる付加画像変形部と、を備えたことを特徴
とする請求項1〜5の何れか一つに記載の画像合成装
置.
6. A moving parameter estimating unit for estimating a position of the surface on which the information is displayed after the movement, and an additional image deforming unit for deforming the additional image based on the estimated moving parameter. The image synthesizing apparatus according to claim 1, wherein:
【請求項7】 前記指示手段は、複数の指示部材を有
し、 前記指示位置検出手段は、前記複数の指示部材ごとに前
記指示位置を検出するものであり、 前記指示対象情報検出部は、前記複数の指示部材ごとに
前記検出を行い、 また、前記付加画像生成手段は、前記複数の指示部材ご
とに前記生成を行うことを特徴とする請求項1〜6の何
れか一つに記載の画像合成装置。
7. The pointing means has a plurality of pointing members, the pointing position detecting means detects the pointing position for each of the plurality of pointing members, and the pointing target information detecting section comprises: The detection according to any one of claims 1 to 6, wherein the detection is performed for each of the plurality of pointing members, and the additional image generation unit performs the generation for each of the plurality of pointing members. Image synthesis device.
【請求項8】 前記複数の指示部材の内、少なくとも一
つの指示部材は、前記情報が表された面上に設置するこ
とにより前記指示対象を指示する設置用指示部材である
ことを特徴とする請求項7記載の画像合成装置。
8. At least one of the plurality of instruction members is an installation instruction member that indicates the instruction target by being installed on a surface on which the information is displayed. The image synthesizing device according to claim 7.
【請求項9】 前記指示対象情報検出手段は、前記設置
用指示部材の設置位置に基づき、前記指示対象情報の領
域の、前記撮像手段の座標系に対する傾斜角度を推定
し、その推定した傾斜角度を利用して、前記指示対象情
報の領域及び/又は前記指示対象情報の特徴量を算出す
るものであり、 前記推定された傾斜角度を用いて前記情報が表された面
の平行移動パラメータを推定する移動パラメータ算出部
が設けられていることを特徴とする請求項8記載の画像
合成装置。
9. The pointing target information detecting means estimates a tilt angle of a region of the pointing target information with respect to a coordinate system of the image pickup means based on a setting position of the setting indicating member, and the estimated tilt angle Calculating a feature amount of the pointing target information and / or a region of the pointing target information, and using the estimated inclination angle to estimate a translation parameter of a plane on which the information is expressed. 9. The image synthesizing apparatus according to claim 8, further comprising: a movement parameter calculating unit that performs a moving parameter calculation.
【請求項10】 前記情報が表された面上に配置された
前記設置用指示部材の数の増減を検出する設置用指示部
材増減検出手段と、 前記設置用指示部材の数の増減に対応した音声データを
記憶する音声データ記憶部と、 前記音声データ記憶部の音声データを前記設置用指示部
材の数の増減にあわせて出力するスピーカーと、 を備えたことを特徴とする請求項7、8又は9記載の画
像合成装置。
10. An installation instruction member increase / decrease detection means for detecting an increase / decrease in the number of said installation instruction members arranged on a surface on which said information is displayed, and corresponding to an increase / decrease in the number of said installation instruction members. 9. An audio data storage unit for storing audio data, and a speaker for outputting audio data of the audio data storage unit in accordance with an increase or decrease in the number of the installation instruction members. Or the image synthesizing device according to 9.
【請求項11】 前記指示手段は、異なる形状の指示部
材を有し、 前記異なる形状の指示部材を識別する指示部材形状認識
手段と、 所定の組み合わせ基準に基づいて、前記異なる形状の指
示部材同士を対応づける指示部材対応決定手段と、を備
えたことを特徴とする請求項7〜10の何れか一つに記
載の画像合成装置。
11. The pointing means has pointing members of different shapes, the pointing member shape recognizing means for identifying the pointing members of different shapes, and the pointing members of different shapes based on a predetermined combination criterion. 11. The image synthesizing apparatus according to claim 7, further comprising: an instruction member correspondence determining unit that associates the two.
【請求項12】 前記撮像手段はカメラであり、 そのカメラのズーム倍率を検出するズーム倍率検出部
と、 前記検出されたズーム倍率に基づき、前記付加画像を拡
大・縮小する付加画像拡大・縮小部と,を備えたことを
特徴とする請求項1〜11の何れか一つに記載の画像合
成装置。
12. The image pickup means is a camera, a zoom magnification detection unit for detecting a zoom magnification of the camera, and an additional image enlargement / reduction unit for enlarging / reducing the additional image based on the detected zoom magnification. The image synthesizing apparatus according to any one of claims 1 to 11, further comprising:
【請求項13】 前記情報が表された面上の所定の色の
領域を,前記所定の色とは異なる色で置き換える着色指
定領域消去部を備えたことを特徴とする請求項1〜12
の何れか一つに記載の画像合成装置。
13. A color designation area erasing section for replacing a predetermined color area on a surface on which the information is displayed with a color different from the predetermined color.
The image synthesizing device according to any one of the above.
【請求項14】 前記画像合成手段により合成された画
像をインターネットのブラウザで表示可能な形式により
保存するブラウザ対応ファイル作成・更新部を備えたこ
とを特徴とする請求項1〜13の何れか一つに記載の画
像合成装置。
14. A browser-compatible file creating / updating unit for saving an image synthesized by the image synthesizing unit in a format that can be displayed on an Internet browser. The image synthesizing apparatus according to any one of the above.
【請求項15】 所定の撮像手段と、 前記撮像手段により撮像された、所定の面に表された情
報及び/又は複数の物体の内、画像抽出の対象の候補と
なるべき複数の抽出対象候補を取り囲む閉曲線情報を検
出する閉曲線情報検出手段と、 前記検出された閉曲線情報と前記抽出対象候補の画像の
情報とに基づいて、前記取り囲まれた複数の抽出対象候
補の画像から、それぞれの抽出対象候補の画像を個別的
に抽出する個別抽出手段と、 前記個別的に抽出された画像を利用して画像合成を行う
画像合成手段と、を備えたことを特徴とする画像合成装
置。
15. A predetermined imaging unit, and a plurality of extraction target candidates to be image extraction targets among information and / or a plurality of objects which are imaged by the imaging unit and are displayed on a predetermined surface. A closed curve information detecting means for detecting closed curve information surrounding the plurality of extraction target candidates based on the detected closed curve information and the information of the image of the extraction target candidate. An image synthesizing apparatus, comprising: an individual extracting unit that individually extracts a candidate image; and an image synthesizing unit that performs image synthesizing by using the individually extracted image.
【請求項16】 所定の撮像手段と、 前記撮像手段により撮像された情報の内、指示対象とな
るべき複数の指示対象情報を取り囲む閉曲線情報を検出
する閉曲線情報検出手段と、 前記検出された閉曲線情報と前記指示対象情報の画像情
報とに基づいて、前記取り囲まれた複数の指示対象情報
の画像から、それぞれの指示対象情報の画像を個別的に
抽出する個別抽出手段と、 前記個別的に抽出された画像の領域及び/又はその画像
の特徴量を検出する指示情報検出部と、 前記検出された前記画像の領域及び/又は前記画像の特
徴量に基づき、前記指示対象情報の画像に付加する付加
画像を生成する付加画像生成部と、 前記撮像手段により得られた前記指示対象情報の画像
と、前記生成された付加画像とを合成する画像合成手段
と、を備えたことを特徴とする画像合成装置。
16. Predetermined imaging means, closed-curve information detection means for detecting closed-curve information surrounding a plurality of pieces of pointing target information to be specified from information captured by the imaging means, and the detected closed curve An individual extraction unit for individually extracting an image of each piece of instruction target information from the surrounded plurality of pieces of instruction target information based on information and the image information of the instruction target information; An instruction information detecting unit that detects a region of the detected image and / or a characteristic amount of the image, and adds the instruction target information to the image based on the detected region of the image and / or a characteristic amount of the image. An additional image generating unit that generates an additional image; and an image synthesizing unit that synthesizes the image of the instruction target information obtained by the imaging unit and the generated additional image. Image synthesizing apparatus according to claim.
【請求項17】 入力表示一体型ディスプレイと、 前記ディスプレイの表示部の少なくとも一部を撮像する
撮像手段と、 前記ディスプレイ上に置かれた複数の現実の物体の内、
画像抽出の対象の候補となるべき複数の物体を取り囲む
閉曲線情報を検出する閉曲線情報検出手段と、 前記検出された閉曲線情報と、前記撮像手段により撮像
された前記取り囲まれた複数の物体の画像の情報とに基
づいて、前記取り囲まれた複数の物体の画像から、それ
ぞれの物体の画像を個別的に抽出する個別抽出手段と、 前記個別的に抽出された画像を用いて、前記ディスプレ
イに表示する付加画像を生成する付加画像生成部と、 前記生成された付加画像のディスプレイへの表示方法を
選択する表示方法選択部と、 前記選択された表示方法に基づき前記付加画像と前記現
実の物体の画像とを合成する画像合成手段と、を備えた
ことを特徴とする画像合成装置。
17. An input display-integrated display, imaging means for capturing at least a part of a display unit of the display, and a plurality of real objects placed on the display.
Closed-curve information detection means for detecting closed-curve information surrounding a plurality of objects to be candidates for image extraction, and the detected closed-curve information and images of the plurality of enclosed objects imaged by the imaging means An individual extraction unit for individually extracting an image of each of the objects from the images of the plurality of enclosed objects based on the information; and displaying the images on the display using the individually extracted images. An additional image generation unit that generates an additional image; a display method selection unit that selects a display method of the generated additional image on a display; and an image of the additional image and the real object based on the selected display method. An image synthesizing apparatus, comprising:
【請求項18】 入力表示一体型ディスプレイと、 前記ディスプレイの表示部の少なくとも一部を撮像する
カメラと、 前記ディスプレイ上に置かれた複数の現実の物体の内、
画像抽出の対象の候補となるべき複数の物体を取り囲む
閉曲線情報を検出する閉曲線情報検出手段と、 前記検出された閉曲線情報と、前記撮像手段により撮像
された前記取り囲まれた複数の物体の画像の情報とに基
づいて、前記取り囲まれた複数の物体の画像から、それ
ぞれの物体の画像を個別的に抽出する個別抽出手段と、 前記個別的に抽出された画像を用いて、前記ディスプレ
イに表示する付加画像を生成する付加画像生成部と、 前記生成された付加画像のディスプレイへの表示方法を
選択する表示方法選択部と、 前記選択された表示方法に基づき前記ディスプレイ上に
表示された前記付加画像と、前記ディスプレイ上に置か
れた現実の物体とを前記カメラに撮像させる制御部と、
を備えたことを特徴とする画像合成装置。
18. An input display-integrated display, a camera for capturing at least a part of a display unit of the display, and a plurality of real objects placed on the display.
Closed-curve information detection means for detecting closed-curve information surrounding a plurality of objects to be candidates for image extraction, and the detected closed-curve information and images of the plurality of enclosed objects imaged by the imaging means An individual extraction unit for individually extracting an image of each of the objects from the images of the plurality of enclosed objects based on the information; and displaying the images on the display using the individually extracted images. An additional image generation unit that generates an additional image; a display method selection unit that selects a display method of the generated additional image on a display; and the additional image displayed on the display based on the selected display method. And a control unit that causes the camera to image a real object placed on the display,
An image synthesizing apparatus comprising:
【請求項19】 入力表示一体型ディスプレイと、 前記ディスプレイの表示部の少なくとも一部を撮像する
撮像手段と、 前記ディスプレイ上に置かれた現実の物体を指示するた
めの指示位置情報を検出する指示位置検出部と、 前記検出された指示位置情報に基づいて、前記撮像手段
により撮像された画像から、前記現実の物体の画像を抽
出する現実物抽出手段と、 前記抽出された画像を用いて、前記ディスプレイに表示
する付加画像を生成する付加画像生成部と、 前記生成された付加画像のディスプレイへの表示方法を
選択する表示方法選択部と、 前記選択された表示方法に基づき前記付加画像と前記現
実の物体の画像とを合成する画像合成手段と、を備えた
ことを特徴とする画像合成装置。
19. An input display integrated type display, an image pickup means for picking up an image of at least a part of a display section of the display, and an instruction for detecting indicated position information for indicating a real object placed on the display. A position detection unit, based on the detected indicated position information, a real object extraction unit that extracts an image of the real object from an image captured by the imaging unit, using the extracted image, An additional image generation unit that generates an additional image to be displayed on the display, a display method selection unit that selects a display method of the generated additional image on a display, and the additional image based on the selected display method. An image synthesizing device, comprising: image synthesizing means for synthesizing an image of a real object.
【請求項20】 前記個別抽出手段は、前記撮像手段に
より撮像された画像を記憶する画像記憶部と、 前記閉曲線情報を候補輪郭として記憶する輪郭モデル記
憶部と、 前記輪郭モデル記憶部に記憶されている候補輪郭を所定
の規則により変形する輪郭モデル変形部と、 前記候補輪郭の交差の有無を検知する輪郭モデル交差検
知部と、 前記交差検知部により交差有りと判定された場合に、前
記輪郭モデル記憶部に記憶されている候補輪郭を複数に
分裂させる輪郭モデル分裂部と、 前記分裂結果に基づいて、輪郭抽出の完了を判定する抽
出完了判定部と、を備え、 前記輪郭抽出の完了した後、前記分裂により生成された
輪郭に囲まれた画像を抽出することを特徴とする請求項
15〜17の何れか一つに記載の画像合成装置。
20. An image storage unit that stores an image captured by the imaging unit, an outline model storage unit that stores the closed curve information as a candidate outline, and an individual extraction unit that is stored in the outline model storage unit. A contour model deforming unit that deforms the candidate contour according to a predetermined rule; a contour model intersection detecting unit that detects the presence / absence of intersection of the candidate contour; and a contour when the intersection detecting unit determines that there is an intersection. A contour model splitting unit that splits the candidate contour stored in the model storage unit into a plurality of pieces, and an extraction completion determining unit that determines the completion of the contour extraction based on the splitting result. 18. The image synthesizing apparatus according to claim 15, wherein an image surrounded by the outline generated by the division is extracted.
【請求項21】 前記ディスプレイへの入力に用いる現
実物の特徴量とその機能を登録する立体アイコン登録部
と、 前記ディスプレイに入力があったとき、その入力に用い
ている現実物をその特徴量により識別する立体アイコン
識別部と、を備えたことを特徴とする請求項17、18
又は19記載の画像合成装置。
21. A three-dimensional icon registration unit for registering a feature amount and a function of a real object used for input to the display, and a real object used for the input when the input is made on the display. 19. A three-dimensional icon identification unit for identifying a three-dimensional icon according to
Or the image synthesizing device according to 19.
【請求項22】 前記ディスプレイの表示画像の明るさ
を算出する表示画像明るさ算出部と、 前記表示画像明るさ算出部により算出された明るさに応
じてペン入力の色を変更するペン入力色変更部と、備え
たことを特徴とする請求項17、18又は19記載の画
像合成装置。
22. A display image brightness calculation unit for calculating brightness of a display image on the display, and a pen input color for changing a pen input color according to the brightness calculated by the display image brightness calculation unit 20. The image synthesizing device according to claim 17, further comprising a changing unit.
【請求項23】 前記ディスプレイ上に置かれた現実物
の明るさや色に応じて表示画像の明るさや色を変化させ
る表示画像補正部を付加したことを特徴とする請求項1
7、18又は19記載の画像合成装置。
23. A display device according to claim 1, further comprising a display image correction unit for changing the brightness and color of a display image according to the brightness and color of a real object placed on said display.
20. The image synthesizing device according to 7, 18 or 19.
【請求項24】 請求項1〜23のいずれか1つの請求
項に記載の各手段の全部又は一部を手段の機能をコンピ
ュータに実行させるためのプログラムを記録したことを
特徴とする媒体。
24. A medium having recorded thereon a program for causing a computer to execute the functions of all or part of each of the means described in any one of claims 1 to 23.
【請求項25】 情報が表された面の所定の位置を指示
情報により指示し、 前記面に表された前記情報と、前記指示情報とを撮像
し、 その撮像結果から前記指示情報により指示された指示位
置を検出し,前記指示位置に対応して前記面上に表され
ている指示対象の情報の領域及び/又は特徴量を検出
し、 前記指示対象情報の領域及び/又は特徴量に基づき、前
記指示対象情報の画像に付加する付加画像を生成し、 前記指示対象情報の画像と前記生成された付加画像とを
合成することを特徴とする画像合成方法。
25. A predetermined position of a surface on which information is represented is indicated by instruction information, the information represented on the surface and the instruction information are imaged, and an instruction is given by the instruction information from the imaging result. Detecting the indicated position corresponding to the indicated position, detecting an area and / or characteristic amount of the information of the indicated object corresponding to the indicated position, and And generating an additional image to be added to the image of the instruction target information, and synthesizing the image of the instruction target information and the generated additional image.
【請求項26】 前記画像を合成する場合、前記指示位
置に基づいて前記付加画像の合成方法及び/又は表示方
法を決定し、その決定結果を利用して前記合成を行うこ
とを特徴とする請求項25記載の画像合成方法。
26. The method according to claim 26, wherein when synthesizing the images, a method of synthesizing and / or displaying the additional image is determined based on the designated position, and the synthesis is performed using a result of the determination. Item 30. The image synthesizing method according to Item 25.
【請求項27】 所定の面に表された情報及び/又は複
数の物体を撮像し、 前記撮像された前記情報及び/又は前記複数の物体の
内、画像抽出の対象の候補となるべき複数の抽出対象候
補を取り囲む閉曲線を与え、 前記与えられた閉曲線情報を検出し、 前記検出された閉曲線情報と前記抽出対象候補の画像の
情報とに基づいて、前記取り囲まれた複数の抽出対象候
補の画像から、それぞれの抽出対象候補の画像を個別的
に抽出し、 前記個別的に抽出された画像を利用して画像合成を行う
ことを特徴とする画像合成方法。
27. An image of information and / or a plurality of objects represented on a predetermined surface, and a plurality of images and / or a plurality of objects to be candidates for an image extraction target among the imaged information and / or the plurality of objects. Providing a closed curve surrounding the extraction target candidate, detecting the given closed curve information, and, based on the detected closed curve information and information on the image of the extraction target candidate, images of the plurality of extraction target candidates surrounded A method for individually extracting images of the respective extraction target candidates from the above, and performing image synthesis using the individually extracted images.
【請求項28】 請求項25〜27の何れか一つに記載
の各ステップの全部又は一部のステップをコンピュータ
に実行させるためのプログラムを記録したことを特徴と
する媒体。
28. A medium having recorded thereon a program for causing a computer to execute all or some of the steps according to claim 25.
JP30125497A 1996-11-01 1997-10-31 Image combining apparatus, image combining method, and medium Pending JPH11144024A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30125497A JPH11144024A (en) 1996-11-01 1997-10-31 Image combining apparatus, image combining method, and medium

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP29143696 1996-11-01
JP21103997 1997-08-05
JP9-236992 1997-09-02
JP8-291436 1997-09-02
JP9-211039 1997-09-02
JP23699297 1997-09-02
JP30125497A JPH11144024A (en) 1996-11-01 1997-10-31 Image combining apparatus, image combining method, and medium

Publications (1)

Publication Number Publication Date
JPH11144024A true JPH11144024A (en) 1999-05-28

Family

ID=27476525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30125497A Pending JPH11144024A (en) 1996-11-01 1997-10-31 Image combining apparatus, image combining method, and medium

Country Status (1)

Country Link
JP (1) JPH11144024A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175374A (en) * 1999-12-21 2001-06-29 Sony Corp Information input/output system and information input/ output method
JP2006065754A (en) * 2004-08-30 2006-03-09 Toshiba Corp Information processor, information processing method, and program
JP2007011276A (en) * 2005-06-03 2007-01-18 Ricoh Co Ltd Image display device, image display method, and command input method
JP2008027080A (en) * 2006-07-19 2008-02-07 Casio Comput Co Ltd Presentation system
JP2011204059A (en) * 2010-03-26 2011-10-13 Seiko Epson Corp Information input system and information input apparatus
JP2012098766A (en) * 2010-10-29 2012-05-24 Konami Digital Entertainment Co Ltd Detection system, electronic blackboard device applying the same, control method thereof and computer program
CN102693592A (en) * 2011-03-25 2012-09-26 王明海 Library book registration apparatus
JP2012212448A (en) * 2012-06-01 2012-11-01 Toshiba Corp Information processing device and program
US8957876B2 (en) 2011-02-28 2015-02-17 Kabushiki Kaisha Toshiba Information processing apparatus and computer-readable storage medium
JPWO2014073346A1 (en) * 2012-11-09 2016-09-08 ソニー株式会社 Information processing apparatus, information processing method, and computer-readable recording medium
US9881402B2 (en) 2013-04-09 2018-01-30 Sony Corporation Image processor and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175374A (en) * 1999-12-21 2001-06-29 Sony Corp Information input/output system and information input/ output method
US8402365B2 (en) 2004-08-30 2013-03-19 Kabushiki Kaisha Toshiba Information processing method and apparatus
JP2006065754A (en) * 2004-08-30 2006-03-09 Toshiba Corp Information processor, information processing method, and program
JP2007011276A (en) * 2005-06-03 2007-01-18 Ricoh Co Ltd Image display device, image display method, and command input method
JP2008027080A (en) * 2006-07-19 2008-02-07 Casio Comput Co Ltd Presentation system
JP2011204059A (en) * 2010-03-26 2011-10-13 Seiko Epson Corp Information input system and information input apparatus
JP2012098766A (en) * 2010-10-29 2012-05-24 Konami Digital Entertainment Co Ltd Detection system, electronic blackboard device applying the same, control method thereof and computer program
US8957876B2 (en) 2011-02-28 2015-02-17 Kabushiki Kaisha Toshiba Information processing apparatus and computer-readable storage medium
CN102693592A (en) * 2011-03-25 2012-09-26 王明海 Library book registration apparatus
JP2012212448A (en) * 2012-06-01 2012-11-01 Toshiba Corp Information processing device and program
JPWO2014073346A1 (en) * 2012-11-09 2016-09-08 ソニー株式会社 Information processing apparatus, information processing method, and computer-readable recording medium
US11132063B2 (en) 2012-11-09 2021-09-28 Sony Corporation Information processing apparatus for interactively performing work based on input content in extended work space
US9881402B2 (en) 2013-04-09 2018-01-30 Sony Corporation Image processor and storage medium

Similar Documents

Publication Publication Date Title
JP4991154B2 (en) Image display device, image display method, and command input method
US5511148A (en) Interactive copying system
JP3746378B2 (en) Electronic memo processing device, electronic memo processing method, and computer-readable recording medium recording electronic memo processing program
US7355583B2 (en) Motion-based text input
US6774889B1 (en) System and method for transforming an ordinary computer monitor screen into a touch screen
US20010030668A1 (en) Method and system for interacting with a display
JP2001282456A (en) Man-machine interface system
WO2016121401A1 (en) Information processing apparatus and program
JP2009020614A (en) Marker unit used in mixed reality system, mixed reality system, marker unit creation support system, and marker unit creation support program
TW201535233A (en) Note capture and recognition with manual assist
JPH11144024A (en) Image combining apparatus, image combining method, and medium
JP4021249B2 (en) Information processing apparatus and information processing method
US11514696B2 (en) Display device, display method, and computer-readable recording medium
JP2000259338A (en) Input system, display system, presentation system, and information storage medium
JP2008117083A (en) Coordinate indicating device, electronic device, coordinate indicating method, coordinate indicating program, and recording medium recording coordinate indicating program
JP3860560B2 (en) Display interface method and apparatus
WO2023024536A1 (en) Drawing method and apparatus, and computer device and storage medium
JP2005165864A (en) Command input method, image display method, and image display apparatus
JP4703744B2 (en) Content expression control device, content expression control system, reference object for content expression control, and content expression control program
JP4266076B2 (en) Electronic blackboard system
JP2003099196A (en) Image projection device for supporting meetings
JP2862080B1 (en) Image processing apparatus and image processing method
KR19980042016A (en) Image synthesizing apparatus, image synthesizing method and medium
US20210031014A1 (en) Touch and Virtual Application for Art, Designs and Tattoos
JP4330637B2 (en) Portable device