[go: up one dir, main page]

JP5541679B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5541679B2
JP5541679B2 JP2010000491A JP2010000491A JP5541679B2 JP 5541679 B2 JP5541679 B2 JP 5541679B2 JP 2010000491 A JP2010000491 A JP 2010000491A JP 2010000491 A JP2010000491 A JP 2010000491A JP 5541679 B2 JP5541679 B2 JP 5541679B2
Authority
JP
Japan
Prior art keywords
projection
distortion correction
handwritten
distortion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010000491A
Other languages
Japanese (ja)
Other versions
JP2011141600A (en
JP2011141600A5 (en
Inventor
誠 榎本
知俊 金津
妙子 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010000491A priority Critical patent/JP5541679B2/en
Publication of JP2011141600A publication Critical patent/JP2011141600A/en
Publication of JP2011141600A5 publication Critical patent/JP2011141600A5/ja
Application granted granted Critical
Publication of JP5541679B2 publication Critical patent/JP5541679B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、撮影装置により撮影して得られた画像データを保存することに関する。より詳細には、投影装置によって画像が投影されている投影板(ホワイトボード)に手書き加筆されている状態においてカメラで撮影して得た画像データについて形状及び位置を補正して保存することに関する。   The present invention relates to storing image data obtained by photographing with a photographing device. More specifically, the present invention relates to correcting and storing the shape and position of image data obtained by photographing with a camera in a state where the image is projected by a handwriting on a projection board (whiteboard) on which an image is projected by a projection apparatus.

近年、ネットワークの普及により、文書が電子的に配布される機会が増え、会議を行う場合に、ホワイトボードを投影板として用いて電子データを資料として投影し、更にホワイトボード上に水性ペンなどで手書き記入することも多い。そこで、プロジェクターにより画像データを投影した状態の投影板(ホワイトボード)に手書き情報を加えた状態をデジタルカメラなどで撮影し、議事録として電子配布可能なデータとするための技術が考えられている。   In recent years, with the spread of networks, the opportunity to distribute documents electronically has increased, and when a meeting is held, electronic data is projected as a document using a whiteboard as a projection board, and further with a water-based pen etc. on the whiteboard Often handwritten. In view of this, a technique for photographing a state in which handwritten information is added to a projection board (whiteboard) in a state where image data is projected by a projector with a digital camera or the like, and making it as electronically distributable data as minutes is considered. .

また、投影板などの平面に正対しない状態で撮影した画像から既知の矩形枠を取得することで歪パラメータを発見し、正対した状態の画像に補正する技術があった(特許文献1)。この技術を用いれば、投影内容中の既知の矩形枠、例えば投影領域の外枠や投影板自体の枠などに対応する枠を検出し、当該検出した枠の歪みに基づいて、歪みパラメータを求めることができる。そして、算出した歪パラメータを用いた補正により、投影板に正対しない状態で撮影した画像から歪みのない画像が得られる。   Also, there is a technique for finding a distortion parameter by acquiring a known rectangular frame from an image photographed in a state where it is not directly facing a plane such as a projection plate, and correcting the image to a directly facing image (Patent Document 1). . If this technique is used, a known rectangular frame in the projection content, for example, a frame corresponding to the outer frame of the projection area or the frame of the projection plate itself, is detected, and distortion parameters are obtained based on the detected distortion of the frame. be able to. Then, with the correction using the calculated distortion parameter, an image without distortion can be obtained from an image captured without facing the projection plate.

また、外枠画像を投影して撮影することで投影画像の外枠を検出し、投影板に記入された筆記画像の位置とサイズを当該検出した外枠に合わせて補正し、補正後の筆記画像を、投影されていた元の画像データにずれなく合成する技術があった(特許文献2)。   In addition, the outer frame of the projected image is detected by projecting and shooting the outer frame image, the position and size of the handwritten image written on the projection plate are corrected according to the detected outer frame, and the corrected writing There has been a technique of synthesizing an image with the original image data that has been projected (Patent Document 2).

特開平03−094383号公報Japanese Patent Laid-Open No. 03-094383 特開2007−017543号公報JP 2007-017543 A 特開2003−288588号公報JP 2003-288588 A 特許第3026592号明細書Japanese Patent No. 3026592

実際に非固定の可搬プロジェクターを用いる際は、投影板とプロジェクターが正確に正対しない状態で運用する場合も多い。このような状態においてデジタルカメラなどで撮影された画像は投影板と撮影位置との位置関係による歪みを含む他、投影装置と投影板の位置関係による歪みも含む。すなわち、撮影画像において、投影装置により投影された画像の部分は、両方の歪みが複合したものとなる。一方、ユーザーは投影版(ホワイトボード)に正対して文字などの書き込みを行うので、書き込み部分(筆記画像)は、投影装置と投影版の位置関係による歪みは含まず、投影板と撮影位置との位置関係による歪みの影響だけを含む。したがって、投影領域の外枠を基準として撮影画像を補正すると手書き部分の形状に歪が生じる問題があった。   When an unfixed portable projector is actually used, it is often operated in a state where the projection plate and the projector do not face each other accurately. In such a state, an image captured by a digital camera or the like includes distortion due to the positional relationship between the projection plate and the imaging position, and also includes distortion due to the positional relationship between the projection apparatus and the projection plate. That is, in the captured image, the portion of the image projected by the projection device is a combination of both distortions. On the other hand, since the user writes characters and the like directly on the projection plate (whiteboard), the writing portion (written image) does not include distortion due to the positional relationship between the projection device and the projection plate, and the projection plate and the shooting position. Only the influence of distortion due to the positional relationship of Therefore, there is a problem in that the shape of the handwritten part is distorted when the captured image is corrected with the outer frame of the projection area as a reference.

上記課題を解決するために案出された本発明に係る画像処理装置は、投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェクトが手書きされた板を撮影して得た画像データを入力する入力手段、前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠を抽出する枠抽出手段、前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得手段、前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出手段、前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正手段前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力手段、を備える。 An image processing apparatus according to the present invention devised to solve the above problem is an input for inputting image data obtained by photographing a board on which a projection object is projected by a projection apparatus and a handwritten object is handwritten by a user. means and the input image data or al, the first frame and a frame extracting means for extracting a second frame constituting the four sides of the projection area to be projected by the projection device constituting the four sides of the plate If, to obtain a first distortion correction value based on the first frame, a correction value acquisition means for acquiring a second distortion correction value based on the second frame, from the input image data and object extracting means for extracting said handwriting object and the projection object, wherein for the extracted handwritten object performs distortion correction using the first distortion correction value, Distortion serial For extracted projection object using a distortion correction means for performing distortion seen correction using the second distortion correction value, the distortion-corrected handwriting objects and said distortion corrected projection object and an output means for generating the corrected image data, the.

投影装置による投影データに傾きが在る状態で撮影装置により投影画像及び手書きによる画像を撮影した場合であっても、手書きの記入物の画像を本来の記述形状と同じ形状に補正した上で、投影データ上の適切な位置に重ね合わせた画像データを生成することができる。   Even when the projection image and the handwritten image are photographed by the photographing device in a state where the projection data by the projection device is inclined, after correcting the image of the handwritten entry to the same shape as the original description shape, Image data superimposed at an appropriate position on the projection data can be generated.

実施形態1の入力画像取得環境の例を示す図である。It is a figure which shows the example of the input image acquisition environment of Embodiment 1. FIG. 実施形態1における入力画像の例を示す図である。6 is a diagram illustrating an example of an input image according to Embodiment 1. FIG. 実施形態1の構成例を示す図である。2 is a diagram illustrating a configuration example of Embodiment 1. FIG. 実施形態1の動作を示すブロック図である。FIG. 3 is a block diagram illustrating an operation of the first embodiment. 実施形態1における画像処理のフローチャートである。3 is a flowchart of image processing in the first embodiment. 実施形態1における枠抽出処理の例を示す図である。It is a figure which shows the example of the frame extraction process in Embodiment 1. FIG. 実施形態1におけるオブジェクト分割処理結果の例を示す図である。It is a figure which shows the example of the object division | segmentation process result in Embodiment 1. FIG. 実施形態1におけるオブジェクト補正処理結果の例を示す図である。It is a figure which shows the example of the object correction process result in Embodiment 1. FIG. 実施形態1における出力画像の例を示す図である。6 is a diagram illustrating an example of an output image according to Embodiment 1. FIG. 実施形態2における画像処理のフローチャートである。10 is a flowchart of image processing in the second embodiment. 実施形態2における入力画像の例を示す図である。FIG. 10 is a diagram illustrating an example of an input image in the second embodiment. 実施形態2における手書き部分抽出の例を示す図である。It is a figure which shows the example of the handwritten part extraction in Embodiment 2. FIG. 実施形態2における出力画像の例を示す図である。10 is a diagram illustrating an example of an output image in Embodiment 2. FIG.

〔実施形態1〕
以下、図面を参照して本発明の好適な実施形態を詳細に説明する。
Embodiment 1
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態の画像処理装置へと入力される画像が取得される環境を示す図である。   FIG. 1 is a diagram illustrating an environment in which an image input to an image processing apparatus according to an embodiment of the present invention is acquired.

四辺形形状を有する白板(ホワイトボード)101は投影板と記入板を兼ねている。白板101へ記入を行うためにペン102が用いられる。投影装置(プロジェクター)103から白板101へ画像を投影する。該投影画像はPC104などのコンピューターから投影装置103へ入力される。白板101は、投影画像及び手書き画像の背景となる。投影領域を包含する白板101を撮影するために撮影装置(デジタルカメラ)105が用いられる。上記環境において、投影装置103より白板101上つまり背景上へ、撮影装置105で撮影した画像の投影データ110が投影される。投影画像が投影されている白板上に手書き加筆されることで、投影画像及び手書き画像は同時に存在し得る。   A white board 101 having a quadrilateral shape serves both as a projection board and an entry board. A pen 102 is used to fill in the white board 101. An image is projected from the projection device (projector) 103 onto the white plate 101. The projection image is input to the projection apparatus 103 from a computer such as the PC 104. The white board 101 serves as a background for the projected image and the handwritten image. A photographing device (digital camera) 105 is used to photograph the white plate 101 including the projection area. In the above environment, the projection data 110 of the image captured by the imaging device 105 is projected from the projection device 103 onto the white plate 101, that is, the background. The projected image and the handwritten image can exist simultaneously by handwriting on the white plate on which the projected image is projected.

図2は本発明の画像処理装置に入力される入力画像の例を説明するための図である。   FIG. 2 is a diagram for explaining an example of an input image input to the image processing apparatus of the present invention.

撮影装置105により撮影された入力画像200は、四辺からなる白板領域枠201と、四辺からなる投影領域枠202と、投影された画像のオブジェクト203、ペン102により記入された手書きオブジェクト204を含む。投影装置203が白板101の斜め方向から投影すると、投影領域は白板に対して歪みが生じる。また、撮影位置と対象物の位置関係から傾き、すなわち線形歪みが生じる。したがって、撮影した画像200において、特に、投影領域枠202、投影画像オブジェクト203は、投影装置103と白板101の位置関係によって、白板101の白板領域枠201の歪みとは別の歪みを持っている。   The input image 200 photographed by the photographing device 105 includes a white board region frame 201 composed of four sides, a projection region frame 202 composed of four sides, an object 203 of the projected image, and a handwritten object 204 entered with the pen 102. When the projection device 203 projects from the oblique direction of the white plate 101, the projection area is distorted with respect to the white plate. In addition, an inclination, that is, linear distortion occurs from the positional relationship between the photographing position and the object. Therefore, in the photographed image 200, in particular, the projection area frame 202 and the projection image object 203 have a distortion different from the distortion of the white board area frame 201 of the white board 101 depending on the positional relationship between the projection device 103 and the white board 101. .

図3は本発明を実施する画像処理装置の構成例を示すブロック図である。   FIG. 3 is a block diagram illustrating a configuration example of an image processing apparatus that implements the present invention.

画像処理装置300は、外部記憶媒体I/F301とCPU302とメモリ303とハードディスク304を含んで構成される。撮影した画像データの入力を外部記憶媒体I/F301から行ない、画像データに本発明の処理を施すための画像処理プログラムをCPU302が実行する。メモリ303は、該プログラムを実行する際のワークメモリやデータの一時保存などに用いられ、ハードディスク304は、該プログラムやデータを格納するために用いられる。   The image processing apparatus 300 includes an external storage medium I / F 301, a CPU 302, a memory 303, and a hard disk 304. The photographed image data is input from the external storage medium I / F 301, and the CPU 302 executes an image processing program for applying the processing of the present invention to the image data. The memory 303 is used for temporary storage of work memory and data when the program is executed, and the hard disk 304 is used for storing the program and data.

図3に示した画像処理装置300の構成は一例であり、本発明の画像処理をPC104により実行しても、或いは撮影装置105の電子回路またはASIC上で実行してもよい。   The configuration of the image processing apparatus 300 shown in FIG. 3 is an example, and the image processing of the present invention may be executed by the PC 104 or may be executed on the electronic circuit or ASIC of the photographing apparatus 105.

図4は本実施形態の画像処理を説明するブロックダイアグラムである。   FIG. 4 is a block diagram illustrating image processing according to the present embodiment.

撮影装置105で撮影された画像が、外部記憶媒体I/F301からの入力画像400として枠抽出処理部401およびオブジェクト分割処理部407に入力される。   An image photographed by the photographing device 105 is input to the frame extraction processing unit 401 and the object division processing unit 407 as an input image 400 from the external storage medium I / F 301.

枠抽出処理部401は、入力画像400から4つの直線で構成された枠を抽出し、白板領域の輪郭に相当する白板領域枠形状402および投影領域の輪郭に相当する投影領域枠形状403を、歪み補正値抽出処理部404へ提供する。歪み補正値抽出処理部404は、白板領域枠形状402、投影領域枠形状403からそれぞれの歪みを数値化する処理を行い、白板領域枠形状402から白板歪み補正値405を算出し、投影領域枠形状403から投影歪み補正値406を算出する。   The frame extraction processing unit 401 extracts a frame composed of four straight lines from the input image 400, and obtains a white board area frame shape 402 corresponding to the outline of the white board area and a projection area frame shape 403 corresponding to the outline of the projection area. This is provided to the distortion correction value extraction processing unit 404. The distortion correction value extraction processing unit 404 performs a process of quantifying each distortion from the white board area frame shape 402 and the projection area frame shape 403, calculates a white board distortion correction value 405 from the white board area frame shape 402, and calculates the projection area frame. A projection distortion correction value 406 is calculated from the shape 403.

一方、オブジェクト分割処理部407は、入力画像400から、活字や記号、手書き文字などのオブジェクトを分割して得た各オブジェクトデータ408を、オブジェクト補正処理部409へ提供する。オブジェクト補正処理部409は、該オブジェクトデータについて白板歪み補正値405および投影歪み補正値406をもとに補正をし、補正されたオブジェクトデータの集合により形成される出力画像410を出力する。   On the other hand, the object division processing unit 407 provides the object correction processing unit 409 with each object data 408 obtained by dividing an object such as a type, symbol, or handwritten character from the input image 400. The object correction processing unit 409 corrects the object data based on the white plate distortion correction value 405 and the projection distortion correction value 406, and outputs an output image 410 formed by a set of corrected object data.

図5は、図4のブロックダイアグラムに従った本実施形態の処理手順を説明するための詳細フローチャートである。以下、図2の画像200を入力画像400として用いた場合に、幅w、高さhの出力画像410を生成する例を、同フローチャートにより説明する。   FIG. 5 is a detailed flowchart for explaining the processing procedure of this embodiment according to the block diagram of FIG. Hereinafter, an example of generating an output image 410 having a width w and a height h when the image 200 of FIG. 2 is used as the input image 400 will be described with reference to the flowchart.

ステップS501では、枠抽出処理部401が入力画像400中から投影領域の枠に相当する四角形を抽出する。   In step S <b> 501, the frame extraction processing unit 401 extracts a quadrangle corresponding to the frame of the projection area from the input image 400.

枠に相当する四角形の抽出は、公知の手法を用いて次のように行うことができる。SobelやLaplacianフィルタなどを用いたエッジ強調手法により、入力画像中の白板領域の境界部分や投影領域の境界部分に該当する画素を極立たせる。この強調画像に対しハフ変換や最小近似法などの公知の直線抽出手法を用いることで、四角形を構成する十分に長い4辺を抽出する。   Extraction of a rectangle corresponding to a frame can be performed as follows using a known method. The edge enhancement method using Sobel, Laplacian filter, etc. makes the pixels corresponding to the boundary part of the white plate area and the boundary part of the projection area in the input image stand out. By using a known straight line extraction method such as a Hough transform or a minimum approximation method for this enhanced image, four sufficiently long sides constituting a quadrangle are extracted.

図2の入力画像200に対してエッジ強調を行った画像の例を図6に示す。四角形601が、投影領域の枠に相当する。なお、図6が示すように、エッジ強調された画像からは投影領域の枠601の外側に、後述する白板領域の枠602が抽出される。ステップS501では抽出された2つの枠のうち内側のものを投影領域の枠として選択することとする。   An example of an image obtained by performing edge enhancement on the input image 200 of FIG. 2 is shown in FIG. A square 601 corresponds to the frame of the projection area. As shown in FIG. 6, a white plate region frame 602 described later is extracted from the edge-enhanced image outside the projection region frame 601. In step S501, the inner one of the two extracted frames is selected as the frame of the projection area.

ステップS502では、枠抽出手段が入力画像中から白板領域の枠に相当する不等辺四角形を抽出する。本処理は、ステップS501の処理に付随して行い、入力画像をエッジ強調した画像から抽出される2つの枠のうち、外側の枠を白板領域の枠として選択すればよい。もし枠が1つしか見つからない場合は、2つの枠が検出されるようにエッジ強調のパラメータや直線検出方法を変更して再度ステップS501〜S502の処理を行うようにしてもよい。また、白板の種類によっては角が丸まっているものもあるが、そのような場合は、エッジ強調された画像から、白板の上辺・下辺・左辺・右辺を構成する各直線を検出し、当該直線の位置を基準にして四角形の位置を得るように構成してもよい。   In step S502, the frame extraction unit extracts an unequal square corresponding to the frame of the white board area from the input image. This process is performed in association with the process of step S501, and the outer frame of the two frames extracted from the image obtained by edge-enhancing the input image may be selected as the white plate area frame. If only one frame is found, the edge enhancement parameters and the straight line detection method may be changed so that two frames are detected, and the processes in steps S501 to S502 may be performed again. Some types of white boards have rounded corners. In such a case, the straight lines that form the top, bottom, left, and right sides of the white board are detected from the edge-enhanced image. You may comprise so that a square position may be obtained on the basis of this position.

ステップS503では、補正値取得手段が、入力画像中の歪みについて投影領域を基準にして補正するための投影歪み補正値を抽出し取得する。   In step S503, the correction value acquisition unit extracts and acquires a projection distortion correction value for correcting the distortion in the input image with reference to the projection region.

ここで投影歪み補正値とは、矩形領域を3次元的な角度をもって2次元平面に投影した場合に生成される不等辺四角形領域を、元の矩形領域へと補正する演算、いわゆる逆透視変換演算で用いられる変換行列のパラメータである。例えば特許文献3に開示されているように、逆透視変換の演算式に変換前の4頂点の座標と変換後の4頂点の座標をそれぞれ代入し、得られる連立方程式を解くことにより変換行列のパラメータが抽出される。   Here, the projection distortion correction value is an operation for correcting an unequal-sided rectangular area generated when a rectangular area is projected onto a two-dimensional plane with a three-dimensional angle, so-called reverse perspective transformation calculation. Is a parameter of the transformation matrix used in. For example, as disclosed in Patent Document 3, by substituting the coordinates of the four vertices before conversion and the coordinates of the four vertices after conversion into an arithmetic expression for inverse perspective transformation, and solving the obtained simultaneous equations, Parameters are extracted.

ステップS503の処理の場合、上記変換前の4頂点の座標は、ステップS501で抽出された投影領域枠の4頂点の座標に相当する。変換後の4頂点の座標は、予めユーザーによって指定された、投影領域部分に対する出力サイズw×hの画像領域の4隅、すなわち(0,0),(w,0),(w,h),(0,h)の4点である。両座標を用いて作られた連立方程式を解いて得られた行列の各パラメータは、投影歪み補正値として記憶される。   In the case of the process in step S503, the coordinates of the four vertices before the conversion correspond to the coordinates of the four vertices of the projection area frame extracted in step S501. The coordinates of the four vertices after conversion are the four corners of the image area of the output size w × h with respect to the projection area portion specified by the user in advance, that is, (0, 0), (w, 0), (w, h). , (0, h). Each parameter of the matrix obtained by solving the simultaneous equations created using both coordinates is stored as a projection distortion correction value.

ステップS504では、補正値取得手段が、入力画像中の歪みについて白板領域枠を基準にして補正するための白板歪み補正値405を抽出し取得する。   In step S504, the correction value acquisition unit extracts and acquires a white plate distortion correction value 405 for correcting the distortion in the input image with reference to the white plate region frame.

白板歪み補正値405を求める処理は、ステップS503と同様に行うことができる。ここで変換前の4頂点の座標として代入するのは、ステップS502で抽出された白板領域枠の4頂点である。変換後の4頂点の座標は、予めユーザーが指定した白板のアスペクト比a(横/縦)、投影領域部分に対する出力サイズw×h、および入力画像中の投影領域に対する白板領域の高さ比rから次のように求められる。   The processing for obtaining the white plate distortion correction value 405 can be performed in the same manner as in step S503. Here, the four vertices of the white board region frame extracted in step S502 are substituted as the coordinates of the four vertices before conversion. The coordinates of the four vertices after conversion are the white plate aspect ratio a (horizontal / vertical) specified in advance by the user, the output size w × h for the projection area portion, and the height ratio r of the white board area to the projection area in the input image. Is obtained as follows.

(0,0),(W,0),(W,H),(0,H) 但し、H=h×r、W=a×H
図6における白板領域枠602の上辺の中点Aと下辺の中点Bを結ぶ線分ABが投影領域枠601の上辺と交差する点をC、下辺と交差する点をDとする。このとき、上記のrは、線分ABの長さL1と線分CDの長さL2の比L1/L2で求められる。
(0,0), (W, 0), (W, H), (0, H) where H = h × r, W = a × H
A point where the line segment AB connecting the midpoint A of the upper side of the white plate area frame 602 and the midpoint B of the lower side of FIG. At this time, the above r is obtained by the ratio L1 / L2 of the length L1 of the line segment AB and the length L2 of the line segment CD.

ステップS505では、オブジェクト分割出手段により、入力画像中の白板に記入された記入物、および投影された投影物を個別のオブジェクトに分割し抽出する。分割された抽出オブジェクトは形状と位置を持ったデータとして記憶される。   In step S505, the object divided out means divides and extracts the entry written on the white board in the input image and the projected projection into individual objects. The divided extracted object is stored as data having a shape and a position.

オブジェクト分割の処理は次のように行う。まずオブジェクト画素が黒、背景画素が白となるように入力画像を二値画像に変換する。例えば多値画像の輝度ヒストグラムを取得し、それらのピークから適応的に求めた閾値を用いて二値化画像に変換する手法を用いることができる。次に公知の手法によりラベリング画像を生成する。例えば以下のような手法を用いることができる。二値画像を形成する各ラインの画素をスキャンし、黒画素が連続する区間について、スタート位置と終了位置をテーブルに格納する。全ラインについてこの処理を終えると、ライン間で接している区間に同じラベルを与え、黒画素領域を形成することでラベリング画像を生成する。生成したラベリング画像内で同一ラベルを持つ画素塊をそれぞれオブジェクトとみなす。   The object division process is performed as follows. First, the input image is converted into a binary image so that the object pixel is black and the background pixel is white. For example, a technique can be used in which a luminance histogram of a multi-valued image is acquired and converted into a binarized image using a threshold value obtained adaptively from those peaks. Next, a labeling image is generated by a known method. For example, the following method can be used. The pixels of each line forming the binary image are scanned, and the start position and the end position are stored in a table for a section in which black pixels are continuous. When this process is completed for all lines, a labeling image is generated by giving the same label to the section in contact between the lines and forming a black pixel region. Each pixel block having the same label in the generated labeling image is regarded as an object.

ステップS505では、オブジェクトデータに記憶される形状情報および位置情報の初期値を与える。形状情報とは、同オブジェクトが特定可能なラベリング画像を指し示す情報、および同画像上で対応する画素のラベル値である。位置情報とは、同ラベリング画像上で対応するラベル画素集合に外接する矩形の左下の座標である。   In step S505, initial values of shape information and position information stored in the object data are given. The shape information is information indicating a labeling image that can be specified by the object, and a label value of a corresponding pixel on the image. The position information is the lower left coordinates of a rectangle circumscribing the corresponding label pixel set on the labeling image.

図7は入力画像200に対してオブジェクト分割処理を行った結果を表す。   FIG. 7 shows the result of object division processing performed on the input image 200.

連続する黒画素にラベリングした結果、入力画像200の投影画像203について、外接矩形で示した12個のオブジェクト7301〜7312に分割される。入力画像200の手書き記入物204について、外接矩形で示した13個のオブジェクト7401〜7413に分割される。   As a result of labeling the continuous black pixels, the projection image 203 of the input image 200 is divided into 12 objects 7301 to 7312 indicated by circumscribed rectangles. The handwritten entry 204 of the input image 200 is divided into 13 objects 7401 to 7413 indicated by circumscribed rectangles.

ステップS506は、ステップS505で抽出されたオブジェクトそれぞれに対し、以降繰り返し終端ステップS512までの繰り返し処理を制御するステップである。つまり本実施形態では、25個のオブジェクト7301〜7312および7401〜7413に対して処理を繰り返すように制御が行われる。   Step S506 is a step for controlling repetitive processing up to the repetitive termination step S512 for each of the objects extracted in step S505. That is, in the present embodiment, control is performed so that the processing is repeated for the 25 objects 7301 to 7312 and 7401 to 7413.

まずはオブジェクト7301を処理対象としてステップS507へ進み、オブジェクト選別手段が、対象となるオブジェクトが手書き記入物のオブジェクトか投影物のオブジェクトであるかの判定を行う。手書きオブジェクトであれば選別してステップS508に進み、その他のオブジェクトであればステップS509に進む。   First, the process proceeds to step S507 with the object 7301 as a processing target, and the object selection means determines whether the target object is a handwritten entry object or a projection object. If the object is a handwritten object, the process proceeds to step S508, and if it is another object, the process proceeds to step S509.

手書きオブジェクトか投影物オブジェクトかの判定は、例えば、予め投影物と手書き記入物が異なる色になるように定めておき、入力画像から取得した各オブジェクトの色を用いて判断すればよい。或いは、線の揺れ度合の大きさや濃淡の不均一性などで手書き性を評価して判断することもできる。或いは、各オブジェクトについて投影歪みを用いて一度補正したうえで、オブジェクト内の線分が水平・垂直であるものを投影物と判断することもできる。或いは、近傍オブジェクトの判定結果を利用して、例えば位置、大きさの揃った投影物のオブジェクトが近くに存在する場合、対象を投影物と判断することもできる。或いは、予め手書き記入物の色を指定し、対象オブジェクトの色情報と手書き記入物の指定色情報とを比較して、別の色であると判断された場合は、投影オブジェクトと判断することができる。或いは、入力画像の撮影時に、手書き記入物判断のために投影装置による投影を停止して手書き記入物だけの状態を撮影して判断することもできる。このようにして得られた分類結果(判定結果)は各オブジェクトのデータに付随して保持される。   The determination as to whether the object is a handwritten object or a projected object may be made, for example, by determining in advance that the projected object and the handwritten entry have different colors and using the color of each object acquired from the input image. Alternatively, it can be judged by evaluating handwriting based on the degree of fluctuation of the line or non-uniformity of shading. Alternatively, after correcting each object once using the projection distortion, it is possible to determine that the line segment in the object is horizontal / vertical as a projection. Alternatively, by using the determination result of the nearby object, for example, when there is an object of a projection with a uniform position and size, the target can be determined as the projection. Alternatively, the color of the handwritten entry is designated in advance, the color information of the target object is compared with the designated color information of the handwritten entry, and if it is determined that the color is different, it can be determined as a projection object. it can. Or at the time of imaging | photography of an input image, the projection by a projection device can be stopped and the state of only a handwritten entry can be image | photographed and judged for handwritten entry judgment. The classification result (judgment result) obtained in this way is held accompanying the data of each object.

ここで、オブジェクト7301は手書きオブジェクト以外であると判断されるためステップS509へ進み、歪み補正手段が対象オブジェクト形状を投影歪み補正値で補正する。   Here, since it is determined that the object 7301 is other than the handwritten object, the process proceeds to step S509, and the distortion correction unit corrects the target object shape with the projection distortion correction value.

この補正処理では、白板歪み補正値405を用いた逆透視変換により、ステップS505で生成されたラベリング画像の各画素を配置し直した、白板歪み補正済みラベリング画像を生成する。そして、対象オブジェクトデータの形状情報において、参照先となるラベリング画像がこの白板歪み補正済みラベリング画像になるように書き換える。   In this correction processing, a white plate distortion corrected labeling image is generated by rearranging the pixels of the labeling image generated in step S505 by inverse perspective transformation using the white plate distortion correction value 405. Then, the shape information of the target object data is rewritten so that the labeling image to be referred to becomes the whiteboard distortion corrected labeling image.

ステップS510では、歪み補正手段が対象オブジェクトの位置情報である左下の座標を投影歪み補正値で補正する。この補正処理は、変換行列に投影歪み補正値のパラメータを設定し、補正前の左下座標を逆透視変換演算することで行われる。   In step S510, the distortion correction unit corrects the lower left coordinate, which is the position information of the target object, with the projection distortion correction value. This correction process is performed by setting a projection distortion correction parameter in the transformation matrix and performing a reverse perspective transformation calculation on the lower left coordinates before correction.

手書きオブジェクト以外と判断されるオブジェクト7301の様に、ステップS509において投影歪みで形状補正されたオブジェクトについては、位置についても同じ投影歪み値を用いれば良い。   Like the object 7301 determined to be other than the handwritten object, the same projection distortion value may be used for the position of the object whose shape is corrected by the projection distortion in step S509.

ステップS511では、オブジェクトのデータに関連付けられた補正済ラベリング画像と、同画像内で対応する画素のラベル値情報から、補正済のオブジェクト画素形状を抽出し、オブジェクトの補正済み位置情報に従って出力画像上に配置する。これは単に、補正済ラベリング画像上での対象ラベル付き画素を出力画像内にコピーしてもよい。或いは出力画像内で独立したオブジェクトとして配置してもよい。例えば対象ラベル付き画素がオブジェクト色となり、それ以外が透明になるような部分画像データを生成し、出力画像内の指定位置に描画されるようなグラフィック記述データを構成してもよい。或いはこの部分画像の線部分の輪郭や芯線などを公知のベクトル変換技術によりベクトルパスデータに変換したデータを用いて構成してもよい。   In step S511, a corrected object pixel shape is extracted from the corrected labeling image associated with the object data and the label value information of the corresponding pixel in the image, and the output image is displayed according to the corrected position information of the object. To place. This may simply copy the target labeled pixels on the corrected labeling image into the output image. Or you may arrange | position as an independent object in an output image. For example, partial image data in which a pixel with a target label becomes an object color and the others are transparent may be generated, and graphic description data that is drawn at a specified position in the output image may be configured. Or you may comprise using the data which converted the outline, core line, etc. of the line part of this partial image into vector path data by the well-known vector conversion technique.

例えば特許文献4が開示する技術では、画像をラスタ走査しながら注目画素とその近傍画素の状態に基づいて水平及び垂直方向の画素間ベクトルを検出する。次に、これら画素間ベクトル同士の接続状態を基に画像データの輪郭を抽出することで、アウトラインベクトルと呼ばれる連結画素データの周回を画素間ベクトルの集合で記述する情報を生成する。   For example, in the technique disclosed in Patent Document 4, horizontal and vertical inter-pixel vectors are detected based on the state of a target pixel and its neighboring pixels while raster scanning an image. Next, by extracting the contour of the image data based on the connection state between these inter-pixel vectors, information describing the circulation of connected pixel data called an outline vector as a set of inter-pixel vectors is generated.

ステップS512では、未処理オブジェクトがあればステップS506に戻って処理を繰り返し、未処理オブジェクトが無ければ繰り返さず終了する。ここでは未処理オブジェクトが24個残っているため、ステップS506に戻ってオブジェクト7302を処理対象として、処理を繰り返す。オブジェクト7302〜7312はオブジェクト7301と同様にステップ507で手書きオブジェクトではないと判断されるため、説明を省略する。   In step S512, if there is an unprocessed object, the process returns to step S506 to repeat the process, and if there is no unprocessed object, the process ends without repeating. Here, since 24 unprocessed objects remain, the process returns to step S506 and the process is repeated with the object 7302 as a processing target. Since the objects 7302 to 7312 are determined not to be handwritten objects in step 507 in the same manner as the object 7301, description thereof will be omitted.

オブジェクト7312の処理に続いてオブジェクト7401が処理対象とされ、ステップS507ではオブジェクト7401が手書きオブジェクトであると判断されるので、ステップS508へ進む。   Subsequent to the processing of the object 7312, the object 7401 is set as a processing target. In step S507, it is determined that the object 7401 is a handwritten object, and thus the process proceeds to step S508.

ステップS508では、手書きと判定されたオブジェクトに対し、歪み補正手段が対象オブジェクトの形状を白板歪補正値で補正する。この補正処理は、パラメータに投影歪み補正値ではなく白板歪み補正値405を用いる点でステップS509の補正処理と異なり、その他は同一である。続いてステップS510〜S512の処理を行う。   In step S508, the distortion correction unit corrects the shape of the target object with the whiteboard distortion correction value for the object determined to be handwritten. This correction process is the same as the correction process in step S509 except that the white plate distortion correction value 405 is used as a parameter instead of the projection distortion correction value. Subsequently, steps S510 to S512 are performed.

手書き部分の歪みをなくすために白板の枠を基準にして補正すると、手書き部分と投影画像部分の補正量が異なるので、補正後の手書き部分画像をそのまま投影画像データに合成すると位置ずれが生じる恐れがある。一方、本発明では、手書きオブジェクトに対して、形状補正をする際は白板歪み補正値で補正し、且つ、位置補正をする際は投影歪み補正値を用いることで、形状の歪みを補正しつつ、手書きオブジェクトと投影オブジェクトの位置ずれを極力減らすことができる。   If correction is made based on the white frame to eliminate distortion of the handwritten part, the correction amount of the handwritten part and the projected image part will be different, so if the corrected handwritten part image is directly combined with the projected image data, there is a risk of displacement. There is. On the other hand, in the present invention, while correcting the shape of a handwritten object, the white plate distortion correction value is used for shape correction, and the projection distortion correction value is used for position correction while correcting the shape distortion. Thus, the positional deviation between the handwritten object and the projection object can be reduced as much as possible.

オブジェクト7402〜7413についても、ステップS507で手書きオブジェクトと判断され、オブジェクト7401と同様に、ステップS508,S510〜S512の処理が行われ、未処理オブジェクトがなくなると本フローチャートの処理を終了する。   The objects 7402 to 7413 are also determined as handwritten objects in step S507, and the processing in steps S508 and S510 to S512 is performed in the same manner as the object 7401. When there are no unprocessed objects, the processing of this flowchart is ended.

図8は図5のフローチャートの各処理の過程を説明する図である。   FIG. 8 is a diagram for explaining the process of each process in the flowchart of FIG.

手書きオブジェクトではない投影オブジェクト7301〜7312についてステップS509の形状補正、ステップS510の位置補正を行った結果、つまり投影領域枠202の歪みで逆透視変換処理をした結果、補正後画像801が得られる(図8(A))。手書きオブジェクト7401〜7413についてステップS508の形状補正を行った結果、つまり白板領域枠201の歪みで逆透視変換処理をした結果、補正後画像802が得られる(図8(B))。両画像のサイズについては、ステップS504で求めた投影領域に対する白板領域の高さ比rに基づいて示してある。   As a result of performing the shape correction in step S509 and the position correction in step S510 for the projection objects 7301 to 7312 that are not handwritten objects, that is, as a result of the reverse perspective transformation processing with the distortion of the projection area frame 202, a corrected image 801 is obtained ( FIG. 8 (A)). As a result of performing the shape correction in step S508 on the handwritten objects 7401 to 7413, that is, as a result of performing the reverse perspective transformation process with the distortion of the white board region frame 201, a corrected image 802 is obtained (FIG. 8B). The sizes of both images are shown based on the height ratio r of the white plate area to the projection area obtained in step S504.

オブジェクト7401〜7413の位置情報、つまり矩形左下座標について、ステップS510に従い投影領域枠位置補正をした結果、補正後の13個のオブジェクト左下座標の位置803が得られる(図8(C))。同座標位置803は、説明のためにドットで示してある。破線804は、投影オブジェクトの位置を参考のため示している。   As a result of correcting the projection area frame position according to step S510 for the position information of the objects 7401 to 7413, that is, the rectangular lower left coordinates, the corrected 13 object lower left coordinate positions 803 are obtained (FIG. 8C). The coordinate position 803 is indicated by dots for the sake of explanation. A broken line 804 indicates the position of the projection object for reference.

図9は、本実施形態による出力画像を従来技術の例と比較して示す図である。   FIG. 9 is a diagram showing an output image according to the present embodiment in comparison with an example of the prior art.

2つの歪み補正値を用いた本実施形態の出力画像901(図9(A))は、位置及び形状補正した投影オブジェクトを図8(A)の通りに、図8(B)に示した補正形状の手書きオブジェクトを同(C)に示した補正位置に配置している。   The output image 901 of this embodiment using two distortion correction values (FIG. 9A) is obtained by correcting the position and shape corrected projection object as shown in FIG. 8A and the correction shown in FIG. 8B. A handwritten object having a shape is arranged at the correction position shown in FIG.

従来技術による出力画像902は、投影歪み補正値のみを用いて全オブジェクトを補正したため、記入者が手書きしたオブジェクトの形状が元と異なり歪んだ形状となっているが(図9(B))、出力画像901は手書きオブジェクトの形状が歪むことがない。   In the output image 902 according to the conventional technique, since all the objects are corrected using only the projection distortion correction value, the shape of the object handwritten by the writer is different from the original shape (FIG. 9B). In the output image 901, the shape of the handwritten object is not distorted.

以上説明したように本実施形態によれば、画像を投影し手書きで情報を追記した白板を撮影した画像を、見易い形状に補正して合成した画像とすることができる。   As described above, according to the present embodiment, an image obtained by photographing a white board in which an image is projected and information is added by handwriting can be corrected to a shape that is easy to see and combined.

〔実施形態2〕
実施形態1では、単純に撮影画像から補正処理を行ったが、PC104から投影装置へ入力する画像データが特定・取得できる状態なら、該画像データに追記する形で補正してもよい。また、手書きオブジェクトの種類によって、適用する補正値の判断をしてもよい。
[Embodiment 2]
In the first embodiment, correction processing is simply performed from a captured image. However, if image data input from the PC 104 to the projection apparatus can be identified and acquired, the correction may be performed by adding to the image data. Further, the correction value to be applied may be determined depending on the type of the handwritten object.

図10は、本実施形態の画像処理方法の処理手順を説明するためのフローチャートである。以下、入力画像400として図11の画像1100を用い、投影された画像データに追記し重ね合わせる形で出力画像410を生成する場合の処理を、同フローチャートに従って説明する。画像1100は、投影画像に手書きで下線が付されたものである。   FIG. 10 is a flowchart for explaining the processing procedure of the image processing method of the present embodiment. In the following, processing when the output image 410 is generated using the image 1100 shown in FIG. 11 as the input image 400 and added to and projected on the projected image data will be described with reference to the flowchart. The image 1100 is an image obtained by underlining a projected image by handwriting.

ステップS1001では、データ特定手段が、撮影装置105が入力画像1100を撮影した際に投影装置103が投影していた電子データを特定する。このデータ特定は、PC104内に対象ファイルが保存されていることを前提にして、文字列を用いた全文検索などの検索技術により行える。検索の為のキー情報は、入力画像1100の投影領域枠内を投影歪で補正した画像やそのOCR結果の文字列から得られる。或いは、ユーザーに対応する電子データのファイル名を入力するように促し、入力された結果を用いて特定するようにしても良い。或いは、画像処理装置300と投影装置103へ画像を入力するPC104で通信することにより投影データを送信しても良い。   In step S <b> 1001, the data specifying unit specifies the electronic data projected by the projection apparatus 103 when the imaging apparatus 105 captures the input image 1100. This data specification can be performed by a search technique such as a full text search using a character string on the assumption that the target file is stored in the PC 104. The key information for the search is obtained from an image obtained by correcting the projection area frame of the input image 1100 with projection distortion and a character string of the OCR result. Alternatively, the user may be prompted to input a file name of electronic data corresponding to the user, and may be specified using the input result. Alternatively, the projection data may be transmitted by communicating with the image processing apparatus 300 and the PC 104 that inputs an image to the projection apparatus 103.

続いてステップS1002〜S1005では、ステップS501〜S504(図5)と同様の処理を行う。ステップS1004における逆透視変換による変換後の4頂点の座標値には、ステップS1001により特定された投影データの持つ幅wと高さhから求めた座標値(0,0),(w,0),(w,h),(0,h)を用いる。   Subsequently, in steps S1002 to S1005, processing similar to that in steps S501 to S504 (FIG. 5) is performed. The coordinate values of the four vertices after conversion by the reverse perspective transformation in step S1004 are coordinate values (0, 0) and (w, 0) obtained from the width w and height h of the projection data specified in step S1001. , (W, h), (0, h) are used.

上記各ステップの処理により投影領域枠と白板領域枠についてそれぞれ投影歪補正値と白板歪補正値を抽出するとステップS1006に進み、特定された投影データの内容を、出力画像内に配置する。例えば、投影データをレンダリングした画像を、出力画像の大きさにリサイズしたものを貼り付ければよい。或いは、投影データを背景および前景の各オブジェクトに分離し、オブジェクト毎に対応する位置に配置してもよい。   When the projection distortion correction value and the white board distortion correction value are extracted for the projection area frame and the white board area frame by the processing of each step, the process proceeds to step S1006, and the contents of the specified projection data are arranged in the output image. For example, an image obtained by rendering the projection data and resized to the size of the output image may be pasted. Alternatively, the projection data may be separated into background and foreground objects and arranged at positions corresponding to each object.

続いてステップS1007でステップS505(図5)と同様にオブジェクト分割をした後、ステップS1008では、分割すなわち抽出されたオブジェクト毎にステップS1009〜S1014を繰り返す処理を制御する。   Subsequently, in step S1007, the object is divided in the same manner as in step S505 (FIG. 5), and then in step S1008, a process of repeating steps S1009 to S1014 for each divided or extracted object is controlled.

ステップS1009では、投影データ内に対象オブジェクトと一致するオブジェクトが存在するか否かを判定する。一致、不一致の判断は、該当オブジェクトに対して投影歪み補正値を適用し補正した結果と、ステップS1005で特定した投影データの画素の重なりによって行える。或いは、投影データのオブジェクトの位置情報から推測するなどの方法を用いることもできる。   In step S1009, it is determined whether there is an object that matches the target object in the projection data. The determination of coincidence or non-coincidence can be made based on the result of applying and correcting the projection distortion correction value for the object and the overlap of the projection data pixels identified in step S1005. Alternatively, a method of inferring from the position information of the object of the projection data can be used.

図12は投影データと一致するオブジェクトの検出例を示す。画像1201は入力画像1100を投影歪み補正値で補正したもの、画像1202は投影データの色を反転したものである。画像1203は画像1201と画像1202の色情報を加算したもの、つまり画像1201から投影データの色情報を減算することで、投影データとの差分をとったものである。   FIG. 12 shows an example of detecting an object that matches the projection data. An image 1201 is obtained by correcting the input image 1100 with a projection distortion correction value, and an image 1202 is obtained by inverting the color of projection data. An image 1203 is obtained by adding the color information of the image 1201 and the image 1202, that is, by subtracting the color information of the projection data from the image 1201 to obtain a difference from the projection data.

ステップS1009において一致すると判断した場合はステップS1006で出力画像上へ配置済みであるため繰り返し終端のステップS1015に進む。一方、一致しない場と判断した合は手書きのオブジェクトとみなしてステップS1010に進み、オブジェクトが投影画像に対して記入された下線や囲みなどのマークオブジェクトであるかどうかを判定する。マークオブジェクトであるか否かの判断は、例えば投影オブジェクトに近接しているオブジェクトで文字以外がマークオブジェクトであるとすればよい。具体的には大きさ一定以下で、縦横比が1に近い物を文字とし、或いは直線や、楕円状などといった形状のものをマークオブジェクトと判断するようにしてもよい。   If it is determined in step S1009 that they match, since it has already been arranged on the output image in step S1006, the process proceeds to step S1015, which is a repeated termination. On the other hand, if it is determined that they do not coincide with each other, it is regarded as a handwritten object and the process proceeds to step S1010 to determine whether or not the object is a mark object such as an underline or a box written on the projected image. The determination as to whether or not the object is a mark object may be, for example, an object that is close to the projection object and that other than characters are mark objects. Specifically, an object having a size equal to or less than a constant and an aspect ratio close to 1 may be determined as a character, or a shape such as a straight line or an ellipse may be determined as a mark object.

マークオブジェクトと判定された場合はステップS1012に進み、それ以外の手書きの記号などの場合はステップS1011に進む。画像1101(図11)はマークオブジェクトであると判断される。   If it is determined that the object is a mark object, the process proceeds to step S1012, and if it is any other handwritten symbol, the process proceeds to step S1011. The image 1101 (FIG. 11) is determined to be a mark object.

ステップS1011〜S1014ではステップS508〜S511と同様の処理を行ない、未処理オブジェクトがあればステップS1008に戻って処理を繰り返し、未処理オブジェクトが無ければ繰り返さずに終了する。   In steps S1011 to S1014, processing similar to that in steps S508 to S511 is performed. If there is an unprocessed object, the process returns to step S1008 to repeat the processing, and if there is no unprocessed object, the processing ends without repeating.

図13は、本実施形態による出力画像を従来技術の例と比較して示す図である。   FIG. 13 is a diagram showing an output image according to the present embodiment in comparison with an example of the prior art.

本実施形態による出力画像1301(図13(A))は、投影データ部分に関して投影装置103へ入力した画像データを用いているため、投影データ部分に関し劣化の無い状態で再現することができる。   Since the output image 1301 (FIG. 13A) according to the present embodiment uses the image data input to the projection apparatus 103 with respect to the projection data portion, it can be reproduced without deterioration with respect to the projection data portion.

従来技術による出力画像1302(図13(B))は、マークオブジェクト1101に対しても文字部分同様に、白板歪み値で形状補正した結果の出力画像例である。出力画像1302では、手書きマークオブジェクト1101が投影データ部分に重なってしまう。   An output image 1302 (FIG. 13B) according to the conventional technique is an example of an output image as a result of correcting the shape of the mark object 1101 with the white plate distortion value, similarly to the character portion. In the output image 1302, the handwritten mark object 1101 overlaps the projection data portion.

以上説明したように、本実施形態によれば、投影データが特定できる場面においては、投影データ部分の画質の劣化がない。また、手書きの下線、囲みに対する補正値の判定処理を加えることで、手書きで追記した下線、囲みを見易い形で付加することができる。   As described above, according to the present embodiment, there is no deterioration in the image quality of the projection data portion in a scene where the projection data can be specified. Also, by adding correction value determination processing for handwritten underlines and boxes, it is possible to add underline and boxes added by handwriting in an easy-to-see manner.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェクトが手書きされた板を撮影して得た画像データを入力する入力手段
前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠を抽出する枠抽出手段
前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得手段
前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出手段
前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正手段
前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力手段
を備えることを特徴とする画像処理装置。
Input means for inputting image data projected object obtained by photographing the plate handwritten object is handwritten by the projected and the user by the projection device,
The inputted image data or, et al., A first frame constituting the four sides of the plate, a frame extracting means for extracting a second frame constituting the four sides of the projection area to be projected by the projection device,
To obtain a first distortion correction value based on the first frame, a correction value acquisition means for acquiring a second distortion correction value based on said second frame,
Wherein the input image data, an object extraction means for extracting said handwriting object and the projection object,
Performs distortion seen correction using the second distortion correction values with respect to the projection object performs distortion correction, which is the extraction with the first distortion correction values to the extracted handwritten objects and distortion correction means,
And output means for generating image data distortion correction using said distortion-corrected handwriting object and the distortion correction projection object,
An image processing apparatus comprising:
前記歪み補正手段は、更に、前記手書きオブジェクトが前記投影オブジェクトに付されたマークオブジェクトであるか否か判定し、当該手書きオブジェクトがマークオブジェクトであると判定した場合は前記第2の歪み補正値を用いて当該手書きオブジェクトの形状を補正し、一方、当該手書きオブジェクトがマークオブジェクトでないと判定した場合は前記第1の歪み補正値を用いて当該手書きオブジェクトの形状を補正することを特徴とする請求項1に記載の画像処理装置。 The distortion correcting unit may further the handwritten object is determined whether or not the mark object attached to the projection object, if the handwritten object is determined as the mark object the second distortion correction value claim using the shape of the handwritten object is corrected, on the other hand, if the handwritten object is determined not to mark objects and corrects the shape of the handwritten object using the first distortion correction value The image processing apparatus according to 1. 前記歪み補正手段は、前記第2の歪み補正値を用いて、前記手書きオブジェクトと前記投影オブジェクトの位置の補正を行うことを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the distortion correction unit corrects the positions of the handwritten object and the projection object using the second distortion correction value. 前記オブジェクト抽出手段は、前記入力された画像データに含まれる各オブジェクトの色、各オブジェクトの線の揺れ、濃淡の不均一性の少なくともいずれかを用いて、前記手書きオブジェクトと前記投影オブジェクトとを選別して抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The object extraction means selects the handwritten object and the projection object using at least one of the color of each object, the fluctuation of the line of each object, and the unevenness of shading included in the input image data. The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus extracts the data. 前記オブジェクト抽出手段は、前記入力された画像データに含まれる各オブジェクトの近傍に存在するオブジェクトの位置と大きさとに基づいて、前記手書きオブジェクトと前記投影オブジェクトとを選別して抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The object extracting means selects and extracts the handwritten object and the projected object based on the position and size of an object existing in the vicinity of each object included in the input image data. The image processing apparatus according to any one of claims 1 to 3. 前記オブジェクト抽出手段は、前記投影装置によって投影された前記投影オブジェクトの電子データを特定し、
該特定した電子データとの比較により、前記入力された画像データから前記電子データに存在しない手書きオブジェクトを抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The object extraction means specifies electronic data of the projection object projected by the projection device;
4. The image processing apparatus according to claim 1, wherein a handwritten object that does not exist in the electronic data is extracted from the input image data by comparison with the specified electronic data.
前記出力手段は、前記歪み補正手段により歪み補正された手書きオブジェクトと前記特定した電子データを合成した画像データを生成し出力することを特徴とする請求項6に記載の画像処理装置。 And the output means, the image processing apparatus according to claim 6, characterized in that said distortion correcting means by generating the image data obtained by combining the distortion corrected electronic data and handwritten objects and the identified were output. 投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェクトが手書きされた板を撮影して得た画像データを入力する入力ステップ
前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠を抽出する枠抽出ステップ
前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得ステップ
前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出ステップ
前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正ステップ
前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力ステップ
を有することを特徴とする画像処理方法。
An input step of inputting image data projected object obtained by photographing the plate handwritten object is handwritten by the projected and the user by the projection device,
The inputted image data or, et al., A first frame constituting the four sides of the plate, and a frame extraction step of extracting a second frame constituting the four sides of the projection area to be projected by the projection device,
To obtain a first distortion correction value based on the first frame, a correction value acquisition step of acquiring second distortion correction value based on said second frame,
Wherein the input image data, an object extraction step of extracting said handwriting object and the projection object,
Performs distortion seen correction using the second distortion correction values with respect to the projection object performs distortion correction, which is the extraction with the first distortion correction values to the extracted handwritten objects and distortion correction step,
An output step of generating image data distortion correction using said distortion-corrected handwriting object and the distortion correction projection object,
An image processing method comprising:
コンピューターを、
投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェク
トが手書きされた板を撮影して得た画像データを入力する入力手段、
前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠を抽出する枠抽出手段、
前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得手段、
前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出手段、
前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正手段、
前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力手段、
として機能させることを特徴とするプログラム。
Computer
Input means for inputting image data obtained by photographing a board on which a projection object is projected by a projection device and a handwritten object is handwritten by a user;
The inputted image data or al, the first frame and a frame extracting means for extracting a second frame constituting the four sides of the projection area to be projected by the projection device constituting the four sides of the plate,
The first the first distortion correction values obtained based on the frame, the correction value acquisition means for acquiring a second distortion correction value based on said second frame,
Object extraction means for extracting the projection object and the handwritten object from the input image data;
Performs distortion seen correction using the second distortion correction values with respect to the projection object performs distortion correction, which is the extraction with the first distortion correction values to the extracted handwritten objects Distortion correction means,
Output means for generating image data distortion correction using said distortion-corrected handwriting object and the distortion correction projection object,
A program characterized by functioning as
JP2010000491A 2010-01-05 2010-01-05 Image processing apparatus and method, and program Expired - Fee Related JP5541679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010000491A JP5541679B2 (en) 2010-01-05 2010-01-05 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010000491A JP5541679B2 (en) 2010-01-05 2010-01-05 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2011141600A JP2011141600A (en) 2011-07-21
JP2011141600A5 JP2011141600A5 (en) 2013-02-21
JP5541679B2 true JP5541679B2 (en) 2014-07-09

Family

ID=44457422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010000491A Expired - Fee Related JP5541679B2 (en) 2010-01-05 2010-01-05 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5541679B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12395612B2 (en) 2020-07-30 2025-08-19 Samsung Electronics Co., Ltd. Projector and control method therefor

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5618719B2 (en) * 2010-09-09 2014-11-05 キヤノン株式会社 Image processing apparatus, method and program thereof
JP2013137368A (en) * 2011-12-28 2013-07-11 Hitachi Consumer Electronics Co Ltd Projector and method for controlling image display of the same
WO2013136427A1 (en) 2012-03-13 2013-09-19 Necディスプレイソリューションズ株式会社 Projection type display device and method for producing recorded images
JP6399764B2 (en) * 2014-02-26 2018-10-03 キヤノン株式会社 Projection apparatus, image processing apparatus, control method therefor, and program
WO2017169725A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Image processing device and method
JP7037875B2 (en) * 2016-06-20 2022-03-17 日本電信電話株式会社 Image normalization equipment, methods, and computer-readable recording media
CN115409980B (en) * 2022-09-02 2023-12-22 重庆众仁科技有限公司 Correction method and system for distorted images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004109246A (en) * 2002-09-13 2004-04-08 Minolta Co Ltd Projection system
JP2005064667A (en) * 2003-08-08 2005-03-10 Nec Viewtechnology Ltd Projection apparatus and method
US7496229B2 (en) * 2004-02-17 2009-02-24 Microsoft Corp. System and method for visual echo cancellation in a projector-camera-whiteboard system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12395612B2 (en) 2020-07-30 2025-08-19 Samsung Electronics Co., Ltd. Projector and control method therefor

Also Published As

Publication number Publication date
JP2011141600A (en) 2011-07-21

Similar Documents

Publication Publication Date Title
JP5541679B2 (en) Image processing apparatus and method, and program
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
AU2007224085B2 (en) Model- based dewarping method and apparatus
US8457403B2 (en) Method of detecting and correcting digital images of books in the book spine area
US9497355B2 (en) Image processing apparatus and recording medium for correcting a captured image
CN102484724A (en) Projection image area detecting device
CN108965646B (en) Image processing apparatus, image processing method, and program
JP4556813B2 (en) Image processing apparatus and program
CN101151639B (en) Image processing apparatus and image processing method
CN119540050A (en) Image stitching processing method and device
JP2005275447A (en) Image processing apparatus, image processing method, and program
JP5618719B2 (en) Image processing apparatus, method and program thereof
JP7030425B2 (en) Image processing device, image processing method, program
JP4363154B2 (en) Imaging apparatus, image processing method thereof, and program
CN112997217A (en) Document detection from video images
JP2004102819A (en) Image processing method and apparatus
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP5563390B2 (en) Image processing apparatus, control method therefor, and program
JP5208043B2 (en) Image processing apparatus, image processing method, and program
JP2006107018A (en) Method and apparatus for image analysis, method and system for image processing, and operation program therefor
JP2008269131A (en) Image processor and image processing program
JP4696239B2 (en) Method and apparatus for correcting inclination of character string
JP2005122319A (en) Imaging apparatus, image processing method thereof, and program
JP2005196659A (en) Program, recording medium and apparatus for processing image
JP2008135857A (en) Image processor and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

R151 Written notification of patent or utility model registration

Ref document number: 5541679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees