JP5541679B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP5541679B2 JP5541679B2 JP2010000491A JP2010000491A JP5541679B2 JP 5541679 B2 JP5541679 B2 JP 5541679B2 JP 2010000491 A JP2010000491 A JP 2010000491A JP 2010000491 A JP2010000491 A JP 2010000491A JP 5541679 B2 JP5541679 B2 JP 5541679B2
- Authority
- JP
- Japan
- Prior art keywords
- projection
- distortion correction
- handwritten
- distortion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Video Image Reproduction Devices For Color Tv Systems (AREA)
- Editing Of Facsimile Originals (AREA)
- Projection Apparatus (AREA)
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
本発明は、撮影装置により撮影して得られた画像データを保存することに関する。より詳細には、投影装置によって画像が投影されている投影板(ホワイトボード)に手書き加筆されている状態においてカメラで撮影して得た画像データについて形状及び位置を補正して保存することに関する。 The present invention relates to storing image data obtained by photographing with a photographing device. More specifically, the present invention relates to correcting and storing the shape and position of image data obtained by photographing with a camera in a state where the image is projected by a handwriting on a projection board (whiteboard) on which an image is projected by a projection apparatus.
近年、ネットワークの普及により、文書が電子的に配布される機会が増え、会議を行う場合に、ホワイトボードを投影板として用いて電子データを資料として投影し、更にホワイトボード上に水性ペンなどで手書き記入することも多い。そこで、プロジェクターにより画像データを投影した状態の投影板(ホワイトボード)に手書き情報を加えた状態をデジタルカメラなどで撮影し、議事録として電子配布可能なデータとするための技術が考えられている。 In recent years, with the spread of networks, the opportunity to distribute documents electronically has increased, and when a meeting is held, electronic data is projected as a document using a whiteboard as a projection board, and further with a water-based pen etc. on the whiteboard Often handwritten. In view of this, a technique for photographing a state in which handwritten information is added to a projection board (whiteboard) in a state where image data is projected by a projector with a digital camera or the like, and making it as electronically distributable data as minutes is considered. .
また、投影板などの平面に正対しない状態で撮影した画像から既知の矩形枠を取得することで歪パラメータを発見し、正対した状態の画像に補正する技術があった(特許文献1)。この技術を用いれば、投影内容中の既知の矩形枠、例えば投影領域の外枠や投影板自体の枠などに対応する枠を検出し、当該検出した枠の歪みに基づいて、歪みパラメータを求めることができる。そして、算出した歪パラメータを用いた補正により、投影板に正対しない状態で撮影した画像から歪みのない画像が得られる。 Also, there is a technique for finding a distortion parameter by acquiring a known rectangular frame from an image photographed in a state where it is not directly facing a plane such as a projection plate, and correcting the image to a directly facing image (Patent Document 1). . If this technique is used, a known rectangular frame in the projection content, for example, a frame corresponding to the outer frame of the projection area or the frame of the projection plate itself, is detected, and distortion parameters are obtained based on the detected distortion of the frame. be able to. Then, with the correction using the calculated distortion parameter, an image without distortion can be obtained from an image captured without facing the projection plate.
また、外枠画像を投影して撮影することで投影画像の外枠を検出し、投影板に記入された筆記画像の位置とサイズを当該検出した外枠に合わせて補正し、補正後の筆記画像を、投影されていた元の画像データにずれなく合成する技術があった(特許文献2)。 In addition, the outer frame of the projected image is detected by projecting and shooting the outer frame image, the position and size of the handwritten image written on the projection plate are corrected according to the detected outer frame, and the corrected writing There has been a technique of synthesizing an image with the original image data that has been projected (Patent Document 2).
実際に非固定の可搬プロジェクターを用いる際は、投影板とプロジェクターが正確に正対しない状態で運用する場合も多い。このような状態においてデジタルカメラなどで撮影された画像は投影板と撮影位置との位置関係による歪みを含む他、投影装置と投影板の位置関係による歪みも含む。すなわち、撮影画像において、投影装置により投影された画像の部分は、両方の歪みが複合したものとなる。一方、ユーザーは投影版(ホワイトボード)に正対して文字などの書き込みを行うので、書き込み部分(筆記画像)は、投影装置と投影版の位置関係による歪みは含まず、投影板と撮影位置との位置関係による歪みの影響だけを含む。したがって、投影領域の外枠を基準として撮影画像を補正すると手書き部分の形状に歪が生じる問題があった。 When an unfixed portable projector is actually used, it is often operated in a state where the projection plate and the projector do not face each other accurately. In such a state, an image captured by a digital camera or the like includes distortion due to the positional relationship between the projection plate and the imaging position, and also includes distortion due to the positional relationship between the projection apparatus and the projection plate. That is, in the captured image, the portion of the image projected by the projection device is a combination of both distortions. On the other hand, since the user writes characters and the like directly on the projection plate (whiteboard), the writing portion (written image) does not include distortion due to the positional relationship between the projection device and the projection plate, and the projection plate and the shooting position. Only the influence of distortion due to the positional relationship of Therefore, there is a problem in that the shape of the handwritten part is distorted when the captured image is corrected with the outer frame of the projection area as a reference.
上記課題を解決するために案出された本発明に係る画像処理装置は、投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェクトが手書きされた板を撮影して得た画像データを入力する入力手段と、前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠とを抽出する枠抽出手段と、前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得手段と、前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出手段と、前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正手段と、前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力手段と、を備える。 An image processing apparatus according to the present invention devised to solve the above problem is an input for inputting image data obtained by photographing a board on which a projection object is projected by a projection apparatus and a handwritten object is handwritten by a user. means and the input image data or al, the first frame and a frame extracting means for extracting a second frame constituting the four sides of the projection area to be projected by the projection device constituting the four sides of the plate If, to obtain a first distortion correction value based on the first frame, a correction value acquisition means for acquiring a second distortion correction value based on the second frame, from the input image data and object extracting means for extracting said handwriting object and the projection object, wherein for the extracted handwritten object performs distortion correction using the first distortion correction value, Distortion serial For extracted projection object using a distortion correction means for performing distortion seen correction using the second distortion correction value, the distortion-corrected handwriting objects and said distortion corrected projection object and an output means for generating the corrected image data, the.
投影装置による投影データに傾きが在る状態で撮影装置により投影画像及び手書きによる画像を撮影した場合であっても、手書きの記入物の画像を本来の記述形状と同じ形状に補正した上で、投影データ上の適切な位置に重ね合わせた画像データを生成することができる。 Even when the projection image and the handwritten image are photographed by the photographing device in a state where the projection data by the projection device is inclined, after correcting the image of the handwritten entry to the same shape as the original description shape, Image data superimposed at an appropriate position on the projection data can be generated.
〔実施形態1〕
以下、図面を参照して本発明の好適な実施形態を詳細に説明する。
Embodiment 1
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施形態の画像処理装置へと入力される画像が取得される環境を示す図である。 FIG. 1 is a diagram illustrating an environment in which an image input to an image processing apparatus according to an embodiment of the present invention is acquired.
四辺形形状を有する白板(ホワイトボード)101は投影板と記入板を兼ねている。白板101へ記入を行うためにペン102が用いられる。投影装置(プロジェクター)103から白板101へ画像を投影する。該投影画像はPC104などのコンピューターから投影装置103へ入力される。白板101は、投影画像及び手書き画像の背景となる。投影領域を包含する白板101を撮影するために撮影装置(デジタルカメラ)105が用いられる。上記環境において、投影装置103より白板101上つまり背景上へ、撮影装置105で撮影した画像の投影データ110が投影される。投影画像が投影されている白板上に手書き加筆されることで、投影画像及び手書き画像は同時に存在し得る。
A
図2は本発明の画像処理装置に入力される入力画像の例を説明するための図である。 FIG. 2 is a diagram for explaining an example of an input image input to the image processing apparatus of the present invention.
撮影装置105により撮影された入力画像200は、四辺からなる白板領域枠201と、四辺からなる投影領域枠202と、投影された画像のオブジェクト203、ペン102により記入された手書きオブジェクト204を含む。投影装置203が白板101の斜め方向から投影すると、投影領域は白板に対して歪みが生じる。また、撮影位置と対象物の位置関係から傾き、すなわち線形歪みが生じる。したがって、撮影した画像200において、特に、投影領域枠202、投影画像オブジェクト203は、投影装置103と白板101の位置関係によって、白板101の白板領域枠201の歪みとは別の歪みを持っている。
The
図3は本発明を実施する画像処理装置の構成例を示すブロック図である。 FIG. 3 is a block diagram illustrating a configuration example of an image processing apparatus that implements the present invention.
画像処理装置300は、外部記憶媒体I/F301とCPU302とメモリ303とハードディスク304を含んで構成される。撮影した画像データの入力を外部記憶媒体I/F301から行ない、画像データに本発明の処理を施すための画像処理プログラムをCPU302が実行する。メモリ303は、該プログラムを実行する際のワークメモリやデータの一時保存などに用いられ、ハードディスク304は、該プログラムやデータを格納するために用いられる。
The
図3に示した画像処理装置300の構成は一例であり、本発明の画像処理をPC104により実行しても、或いは撮影装置105の電子回路またはASIC上で実行してもよい。
The configuration of the
図4は本実施形態の画像処理を説明するブロックダイアグラムである。 FIG. 4 is a block diagram illustrating image processing according to the present embodiment.
撮影装置105で撮影された画像が、外部記憶媒体I/F301からの入力画像400として枠抽出処理部401およびオブジェクト分割処理部407に入力される。
An image photographed by the
枠抽出処理部401は、入力画像400から4つの直線で構成された枠を抽出し、白板領域の輪郭に相当する白板領域枠形状402および投影領域の輪郭に相当する投影領域枠形状403を、歪み補正値抽出処理部404へ提供する。歪み補正値抽出処理部404は、白板領域枠形状402、投影領域枠形状403からそれぞれの歪みを数値化する処理を行い、白板領域枠形状402から白板歪み補正値405を算出し、投影領域枠形状403から投影歪み補正値406を算出する。
The frame
一方、オブジェクト分割処理部407は、入力画像400から、活字や記号、手書き文字などのオブジェクトを分割して得た各オブジェクトデータ408を、オブジェクト補正処理部409へ提供する。オブジェクト補正処理部409は、該オブジェクトデータについて白板歪み補正値405および投影歪み補正値406をもとに補正をし、補正されたオブジェクトデータの集合により形成される出力画像410を出力する。
On the other hand, the object
図5は、図4のブロックダイアグラムに従った本実施形態の処理手順を説明するための詳細フローチャートである。以下、図2の画像200を入力画像400として用いた場合に、幅w、高さhの出力画像410を生成する例を、同フローチャートにより説明する。
FIG. 5 is a detailed flowchart for explaining the processing procedure of this embodiment according to the block diagram of FIG. Hereinafter, an example of generating an
ステップS501では、枠抽出処理部401が入力画像400中から投影領域の枠に相当する四角形を抽出する。
In step S <b> 501, the frame
枠に相当する四角形の抽出は、公知の手法を用いて次のように行うことができる。SobelやLaplacianフィルタなどを用いたエッジ強調手法により、入力画像中の白板領域の境界部分や投影領域の境界部分に該当する画素を極立たせる。この強調画像に対しハフ変換や最小近似法などの公知の直線抽出手法を用いることで、四角形を構成する十分に長い4辺を抽出する。 Extraction of a rectangle corresponding to a frame can be performed as follows using a known method. The edge enhancement method using Sobel, Laplacian filter, etc. makes the pixels corresponding to the boundary part of the white plate area and the boundary part of the projection area in the input image stand out. By using a known straight line extraction method such as a Hough transform or a minimum approximation method for this enhanced image, four sufficiently long sides constituting a quadrangle are extracted.
図2の入力画像200に対してエッジ強調を行った画像の例を図6に示す。四角形601が、投影領域の枠に相当する。なお、図6が示すように、エッジ強調された画像からは投影領域の枠601の外側に、後述する白板領域の枠602が抽出される。ステップS501では抽出された2つの枠のうち内側のものを投影領域の枠として選択することとする。
An example of an image obtained by performing edge enhancement on the
ステップS502では、枠抽出手段が入力画像中から白板領域の枠に相当する不等辺四角形を抽出する。本処理は、ステップS501の処理に付随して行い、入力画像をエッジ強調した画像から抽出される2つの枠のうち、外側の枠を白板領域の枠として選択すればよい。もし枠が1つしか見つからない場合は、2つの枠が検出されるようにエッジ強調のパラメータや直線検出方法を変更して再度ステップS501〜S502の処理を行うようにしてもよい。また、白板の種類によっては角が丸まっているものもあるが、そのような場合は、エッジ強調された画像から、白板の上辺・下辺・左辺・右辺を構成する各直線を検出し、当該直線の位置を基準にして四角形の位置を得るように構成してもよい。 In step S502, the frame extraction unit extracts an unequal square corresponding to the frame of the white board area from the input image. This process is performed in association with the process of step S501, and the outer frame of the two frames extracted from the image obtained by edge-enhancing the input image may be selected as the white plate area frame. If only one frame is found, the edge enhancement parameters and the straight line detection method may be changed so that two frames are detected, and the processes in steps S501 to S502 may be performed again. Some types of white boards have rounded corners. In such a case, the straight lines that form the top, bottom, left, and right sides of the white board are detected from the edge-enhanced image. You may comprise so that a square position may be obtained on the basis of this position.
ステップS503では、補正値取得手段が、入力画像中の歪みについて投影領域を基準にして補正するための投影歪み補正値を抽出し取得する。 In step S503, the correction value acquisition unit extracts and acquires a projection distortion correction value for correcting the distortion in the input image with reference to the projection region.
ここで投影歪み補正値とは、矩形領域を3次元的な角度をもって2次元平面に投影した場合に生成される不等辺四角形領域を、元の矩形領域へと補正する演算、いわゆる逆透視変換演算で用いられる変換行列のパラメータである。例えば特許文献3に開示されているように、逆透視変換の演算式に変換前の4頂点の座標と変換後の4頂点の座標をそれぞれ代入し、得られる連立方程式を解くことにより変換行列のパラメータが抽出される。 Here, the projection distortion correction value is an operation for correcting an unequal-sided rectangular area generated when a rectangular area is projected onto a two-dimensional plane with a three-dimensional angle, so-called reverse perspective transformation calculation. Is a parameter of the transformation matrix used in. For example, as disclosed in Patent Document 3, by substituting the coordinates of the four vertices before conversion and the coordinates of the four vertices after conversion into an arithmetic expression for inverse perspective transformation, and solving the obtained simultaneous equations, Parameters are extracted.
ステップS503の処理の場合、上記変換前の4頂点の座標は、ステップS501で抽出された投影領域枠の4頂点の座標に相当する。変換後の4頂点の座標は、予めユーザーによって指定された、投影領域部分に対する出力サイズw×hの画像領域の4隅、すなわち(0,0),(w,0),(w,h),(0,h)の4点である。両座標を用いて作られた連立方程式を解いて得られた行列の各パラメータは、投影歪み補正値として記憶される。 In the case of the process in step S503, the coordinates of the four vertices before the conversion correspond to the coordinates of the four vertices of the projection area frame extracted in step S501. The coordinates of the four vertices after conversion are the four corners of the image area of the output size w × h with respect to the projection area portion specified by the user in advance, that is, (0, 0), (w, 0), (w, h). , (0, h). Each parameter of the matrix obtained by solving the simultaneous equations created using both coordinates is stored as a projection distortion correction value.
ステップS504では、補正値取得手段が、入力画像中の歪みについて白板領域枠を基準にして補正するための白板歪み補正値405を抽出し取得する。
In step S504, the correction value acquisition unit extracts and acquires a white plate
白板歪み補正値405を求める処理は、ステップS503と同様に行うことができる。ここで変換前の4頂点の座標として代入するのは、ステップS502で抽出された白板領域枠の4頂点である。変換後の4頂点の座標は、予めユーザーが指定した白板のアスペクト比a(横/縦)、投影領域部分に対する出力サイズw×h、および入力画像中の投影領域に対する白板領域の高さ比rから次のように求められる。
The processing for obtaining the white plate
(0,0),(W,0),(W,H),(0,H) 但し、H=h×r、W=a×H
図6における白板領域枠602の上辺の中点Aと下辺の中点Bを結ぶ線分ABが投影領域枠601の上辺と交差する点をC、下辺と交差する点をDとする。このとき、上記のrは、線分ABの長さL1と線分CDの長さL2の比L1/L2で求められる。
(0,0), (W, 0), (W, H), (0, H) where H = h × r, W = a × H
A point where the line segment AB connecting the midpoint A of the upper side of the white
ステップS505では、オブジェクト分割出手段により、入力画像中の白板に記入された記入物、および投影された投影物を個別のオブジェクトに分割し抽出する。分割された抽出オブジェクトは形状と位置を持ったデータとして記憶される。 In step S505, the object divided out means divides and extracts the entry written on the white board in the input image and the projected projection into individual objects. The divided extracted object is stored as data having a shape and a position.
オブジェクト分割の処理は次のように行う。まずオブジェクト画素が黒、背景画素が白となるように入力画像を二値画像に変換する。例えば多値画像の輝度ヒストグラムを取得し、それらのピークから適応的に求めた閾値を用いて二値化画像に変換する手法を用いることができる。次に公知の手法によりラベリング画像を生成する。例えば以下のような手法を用いることができる。二値画像を形成する各ラインの画素をスキャンし、黒画素が連続する区間について、スタート位置と終了位置をテーブルに格納する。全ラインについてこの処理を終えると、ライン間で接している区間に同じラベルを与え、黒画素領域を形成することでラベリング画像を生成する。生成したラベリング画像内で同一ラベルを持つ画素塊をそれぞれオブジェクトとみなす。 The object division process is performed as follows. First, the input image is converted into a binary image so that the object pixel is black and the background pixel is white. For example, a technique can be used in which a luminance histogram of a multi-valued image is acquired and converted into a binarized image using a threshold value obtained adaptively from those peaks. Next, a labeling image is generated by a known method. For example, the following method can be used. The pixels of each line forming the binary image are scanned, and the start position and the end position are stored in a table for a section in which black pixels are continuous. When this process is completed for all lines, a labeling image is generated by giving the same label to the section in contact between the lines and forming a black pixel region. Each pixel block having the same label in the generated labeling image is regarded as an object.
ステップS505では、オブジェクトデータに記憶される形状情報および位置情報の初期値を与える。形状情報とは、同オブジェクトが特定可能なラベリング画像を指し示す情報、および同画像上で対応する画素のラベル値である。位置情報とは、同ラベリング画像上で対応するラベル画素集合に外接する矩形の左下の座標である。 In step S505, initial values of shape information and position information stored in the object data are given. The shape information is information indicating a labeling image that can be specified by the object, and a label value of a corresponding pixel on the image. The position information is the lower left coordinates of a rectangle circumscribing the corresponding label pixel set on the labeling image.
図7は入力画像200に対してオブジェクト分割処理を行った結果を表す。
FIG. 7 shows the result of object division processing performed on the
連続する黒画素にラベリングした結果、入力画像200の投影画像203について、外接矩形で示した12個のオブジェクト7301〜7312に分割される。入力画像200の手書き記入物204について、外接矩形で示した13個のオブジェクト7401〜7413に分割される。
As a result of labeling the continuous black pixels, the
ステップS506は、ステップS505で抽出されたオブジェクトそれぞれに対し、以降繰り返し終端ステップS512までの繰り返し処理を制御するステップである。つまり本実施形態では、25個のオブジェクト7301〜7312および7401〜7413に対して処理を繰り返すように制御が行われる。
Step S506 is a step for controlling repetitive processing up to the repetitive termination step S512 for each of the objects extracted in step S505. That is, in the present embodiment, control is performed so that the processing is repeated for the 25
まずはオブジェクト7301を処理対象としてステップS507へ進み、オブジェクト選別手段が、対象となるオブジェクトが手書き記入物のオブジェクトか投影物のオブジェクトであるかの判定を行う。手書きオブジェクトであれば選別してステップS508に進み、その他のオブジェクトであればステップS509に進む。
First, the process proceeds to step S507 with the
手書きオブジェクトか投影物オブジェクトかの判定は、例えば、予め投影物と手書き記入物が異なる色になるように定めておき、入力画像から取得した各オブジェクトの色を用いて判断すればよい。或いは、線の揺れ度合の大きさや濃淡の不均一性などで手書き性を評価して判断することもできる。或いは、各オブジェクトについて投影歪みを用いて一度補正したうえで、オブジェクト内の線分が水平・垂直であるものを投影物と判断することもできる。或いは、近傍オブジェクトの判定結果を利用して、例えば位置、大きさの揃った投影物のオブジェクトが近くに存在する場合、対象を投影物と判断することもできる。或いは、予め手書き記入物の色を指定し、対象オブジェクトの色情報と手書き記入物の指定色情報とを比較して、別の色であると判断された場合は、投影オブジェクトと判断することができる。或いは、入力画像の撮影時に、手書き記入物判断のために投影装置による投影を停止して手書き記入物だけの状態を撮影して判断することもできる。このようにして得られた分類結果(判定結果)は各オブジェクトのデータに付随して保持される。 The determination as to whether the object is a handwritten object or a projected object may be made, for example, by determining in advance that the projected object and the handwritten entry have different colors and using the color of each object acquired from the input image. Alternatively, it can be judged by evaluating handwriting based on the degree of fluctuation of the line or non-uniformity of shading. Alternatively, after correcting each object once using the projection distortion, it is possible to determine that the line segment in the object is horizontal / vertical as a projection. Alternatively, by using the determination result of the nearby object, for example, when there is an object of a projection with a uniform position and size, the target can be determined as the projection. Alternatively, the color of the handwritten entry is designated in advance, the color information of the target object is compared with the designated color information of the handwritten entry, and if it is determined that the color is different, it can be determined as a projection object. it can. Or at the time of imaging | photography of an input image, the projection by a projection device can be stopped and the state of only a handwritten entry can be image | photographed and judged for handwritten entry judgment. The classification result (judgment result) obtained in this way is held accompanying the data of each object.
ここで、オブジェクト7301は手書きオブジェクト以外であると判断されるためステップS509へ進み、歪み補正手段が対象オブジェクト形状を投影歪み補正値で補正する。
Here, since it is determined that the
この補正処理では、白板歪み補正値405を用いた逆透視変換により、ステップS505で生成されたラベリング画像の各画素を配置し直した、白板歪み補正済みラベリング画像を生成する。そして、対象オブジェクトデータの形状情報において、参照先となるラベリング画像がこの白板歪み補正済みラベリング画像になるように書き換える。
In this correction processing, a white plate distortion corrected labeling image is generated by rearranging the pixels of the labeling image generated in step S505 by inverse perspective transformation using the white plate
ステップS510では、歪み補正手段が対象オブジェクトの位置情報である左下の座標を投影歪み補正値で補正する。この補正処理は、変換行列に投影歪み補正値のパラメータを設定し、補正前の左下座標を逆透視変換演算することで行われる。 In step S510, the distortion correction unit corrects the lower left coordinate, which is the position information of the target object, with the projection distortion correction value. This correction process is performed by setting a projection distortion correction parameter in the transformation matrix and performing a reverse perspective transformation calculation on the lower left coordinates before correction.
手書きオブジェクト以外と判断されるオブジェクト7301の様に、ステップS509において投影歪みで形状補正されたオブジェクトについては、位置についても同じ投影歪み値を用いれば良い。
Like the
ステップS511では、オブジェクトのデータに関連付けられた補正済ラベリング画像と、同画像内で対応する画素のラベル値情報から、補正済のオブジェクト画素形状を抽出し、オブジェクトの補正済み位置情報に従って出力画像上に配置する。これは単に、補正済ラベリング画像上での対象ラベル付き画素を出力画像内にコピーしてもよい。或いは出力画像内で独立したオブジェクトとして配置してもよい。例えば対象ラベル付き画素がオブジェクト色となり、それ以外が透明になるような部分画像データを生成し、出力画像内の指定位置に描画されるようなグラフィック記述データを構成してもよい。或いはこの部分画像の線部分の輪郭や芯線などを公知のベクトル変換技術によりベクトルパスデータに変換したデータを用いて構成してもよい。 In step S511, a corrected object pixel shape is extracted from the corrected labeling image associated with the object data and the label value information of the corresponding pixel in the image, and the output image is displayed according to the corrected position information of the object. To place. This may simply copy the target labeled pixels on the corrected labeling image into the output image. Or you may arrange | position as an independent object in an output image. For example, partial image data in which a pixel with a target label becomes an object color and the others are transparent may be generated, and graphic description data that is drawn at a specified position in the output image may be configured. Or you may comprise using the data which converted the outline, core line, etc. of the line part of this partial image into vector path data by the well-known vector conversion technique.
例えば特許文献4が開示する技術では、画像をラスタ走査しながら注目画素とその近傍画素の状態に基づいて水平及び垂直方向の画素間ベクトルを検出する。次に、これら画素間ベクトル同士の接続状態を基に画像データの輪郭を抽出することで、アウトラインベクトルと呼ばれる連結画素データの周回を画素間ベクトルの集合で記述する情報を生成する。 For example, in the technique disclosed in Patent Document 4, horizontal and vertical inter-pixel vectors are detected based on the state of a target pixel and its neighboring pixels while raster scanning an image. Next, by extracting the contour of the image data based on the connection state between these inter-pixel vectors, information describing the circulation of connected pixel data called an outline vector as a set of inter-pixel vectors is generated.
ステップS512では、未処理オブジェクトがあればステップS506に戻って処理を繰り返し、未処理オブジェクトが無ければ繰り返さず終了する。ここでは未処理オブジェクトが24個残っているため、ステップS506に戻ってオブジェクト7302を処理対象として、処理を繰り返す。オブジェクト7302〜7312はオブジェクト7301と同様にステップ507で手書きオブジェクトではないと判断されるため、説明を省略する。
In step S512, if there is an unprocessed object, the process returns to step S506 to repeat the process, and if there is no unprocessed object, the process ends without repeating. Here, since 24 unprocessed objects remain, the process returns to step S506 and the process is repeated with the
オブジェクト7312の処理に続いてオブジェクト7401が処理対象とされ、ステップS507ではオブジェクト7401が手書きオブジェクトであると判断されるので、ステップS508へ進む。
Subsequent to the processing of the
ステップS508では、手書きと判定されたオブジェクトに対し、歪み補正手段が対象オブジェクトの形状を白板歪補正値で補正する。この補正処理は、パラメータに投影歪み補正値ではなく白板歪み補正値405を用いる点でステップS509の補正処理と異なり、その他は同一である。続いてステップS510〜S512の処理を行う。
In step S508, the distortion correction unit corrects the shape of the target object with the whiteboard distortion correction value for the object determined to be handwritten. This correction process is the same as the correction process in step S509 except that the white plate
手書き部分の歪みをなくすために白板の枠を基準にして補正すると、手書き部分と投影画像部分の補正量が異なるので、補正後の手書き部分画像をそのまま投影画像データに合成すると位置ずれが生じる恐れがある。一方、本発明では、手書きオブジェクトに対して、形状補正をする際は白板歪み補正値で補正し、且つ、位置補正をする際は投影歪み補正値を用いることで、形状の歪みを補正しつつ、手書きオブジェクトと投影オブジェクトの位置ずれを極力減らすことができる。 If correction is made based on the white frame to eliminate distortion of the handwritten part, the correction amount of the handwritten part and the projected image part will be different, so if the corrected handwritten part image is directly combined with the projected image data, there is a risk of displacement. There is. On the other hand, in the present invention, while correcting the shape of a handwritten object, the white plate distortion correction value is used for shape correction, and the projection distortion correction value is used for position correction while correcting the shape distortion. Thus, the positional deviation between the handwritten object and the projection object can be reduced as much as possible.
オブジェクト7402〜7413についても、ステップS507で手書きオブジェクトと判断され、オブジェクト7401と同様に、ステップS508,S510〜S512の処理が行われ、未処理オブジェクトがなくなると本フローチャートの処理を終了する。
The
図8は図5のフローチャートの各処理の過程を説明する図である。 FIG. 8 is a diagram for explaining the process of each process in the flowchart of FIG.
手書きオブジェクトではない投影オブジェクト7301〜7312についてステップS509の形状補正、ステップS510の位置補正を行った結果、つまり投影領域枠202の歪みで逆透視変換処理をした結果、補正後画像801が得られる(図8(A))。手書きオブジェクト7401〜7413についてステップS508の形状補正を行った結果、つまり白板領域枠201の歪みで逆透視変換処理をした結果、補正後画像802が得られる(図8(B))。両画像のサイズについては、ステップS504で求めた投影領域に対する白板領域の高さ比rに基づいて示してある。
As a result of performing the shape correction in step S509 and the position correction in step S510 for the projection objects 7301 to 7312 that are not handwritten objects, that is, as a result of the reverse perspective transformation processing with the distortion of the
オブジェクト7401〜7413の位置情報、つまり矩形左下座標について、ステップS510に従い投影領域枠位置補正をした結果、補正後の13個のオブジェクト左下座標の位置803が得られる(図8(C))。同座標位置803は、説明のためにドットで示してある。破線804は、投影オブジェクトの位置を参考のため示している。
As a result of correcting the projection area frame position according to step S510 for the position information of the
図9は、本実施形態による出力画像を従来技術の例と比較して示す図である。 FIG. 9 is a diagram showing an output image according to the present embodiment in comparison with an example of the prior art.
2つの歪み補正値を用いた本実施形態の出力画像901(図9(A))は、位置及び形状補正した投影オブジェクトを図8(A)の通りに、図8(B)に示した補正形状の手書きオブジェクトを同(C)に示した補正位置に配置している。
The
従来技術による出力画像902は、投影歪み補正値のみを用いて全オブジェクトを補正したため、記入者が手書きしたオブジェクトの形状が元と異なり歪んだ形状となっているが(図9(B))、出力画像901は手書きオブジェクトの形状が歪むことがない。
In the
以上説明したように本実施形態によれば、画像を投影し手書きで情報を追記した白板を撮影した画像を、見易い形状に補正して合成した画像とすることができる。 As described above, according to the present embodiment, an image obtained by photographing a white board in which an image is projected and information is added by handwriting can be corrected to a shape that is easy to see and combined.
〔実施形態2〕
実施形態1では、単純に撮影画像から補正処理を行ったが、PC104から投影装置へ入力する画像データが特定・取得できる状態なら、該画像データに追記する形で補正してもよい。また、手書きオブジェクトの種類によって、適用する補正値の判断をしてもよい。
[Embodiment 2]
In the first embodiment, correction processing is simply performed from a captured image. However, if image data input from the
図10は、本実施形態の画像処理方法の処理手順を説明するためのフローチャートである。以下、入力画像400として図11の画像1100を用い、投影された画像データに追記し重ね合わせる形で出力画像410を生成する場合の処理を、同フローチャートに従って説明する。画像1100は、投影画像に手書きで下線が付されたものである。
FIG. 10 is a flowchart for explaining the processing procedure of the image processing method of the present embodiment. In the following, processing when the
ステップS1001では、データ特定手段が、撮影装置105が入力画像1100を撮影した際に投影装置103が投影していた電子データを特定する。このデータ特定は、PC104内に対象ファイルが保存されていることを前提にして、文字列を用いた全文検索などの検索技術により行える。検索の為のキー情報は、入力画像1100の投影領域枠内を投影歪で補正した画像やそのOCR結果の文字列から得られる。或いは、ユーザーに対応する電子データのファイル名を入力するように促し、入力された結果を用いて特定するようにしても良い。或いは、画像処理装置300と投影装置103へ画像を入力するPC104で通信することにより投影データを送信しても良い。
In step S <b> 1001, the data specifying unit specifies the electronic data projected by the
続いてステップS1002〜S1005では、ステップS501〜S504(図5)と同様の処理を行う。ステップS1004における逆透視変換による変換後の4頂点の座標値には、ステップS1001により特定された投影データの持つ幅wと高さhから求めた座標値(0,0),(w,0),(w,h),(0,h)を用いる。 Subsequently, in steps S1002 to S1005, processing similar to that in steps S501 to S504 (FIG. 5) is performed. The coordinate values of the four vertices after conversion by the reverse perspective transformation in step S1004 are coordinate values (0, 0) and (w, 0) obtained from the width w and height h of the projection data specified in step S1001. , (W, h), (0, h) are used.
上記各ステップの処理により投影領域枠と白板領域枠についてそれぞれ投影歪補正値と白板歪補正値を抽出するとステップS1006に進み、特定された投影データの内容を、出力画像内に配置する。例えば、投影データをレンダリングした画像を、出力画像の大きさにリサイズしたものを貼り付ければよい。或いは、投影データを背景および前景の各オブジェクトに分離し、オブジェクト毎に対応する位置に配置してもよい。 When the projection distortion correction value and the white board distortion correction value are extracted for the projection area frame and the white board area frame by the processing of each step, the process proceeds to step S1006, and the contents of the specified projection data are arranged in the output image. For example, an image obtained by rendering the projection data and resized to the size of the output image may be pasted. Alternatively, the projection data may be separated into background and foreground objects and arranged at positions corresponding to each object.
続いてステップS1007でステップS505(図5)と同様にオブジェクト分割をした後、ステップS1008では、分割すなわち抽出されたオブジェクト毎にステップS1009〜S1014を繰り返す処理を制御する。 Subsequently, in step S1007, the object is divided in the same manner as in step S505 (FIG. 5), and then in step S1008, a process of repeating steps S1009 to S1014 for each divided or extracted object is controlled.
ステップS1009では、投影データ内に対象オブジェクトと一致するオブジェクトが存在するか否かを判定する。一致、不一致の判断は、該当オブジェクトに対して投影歪み補正値を適用し補正した結果と、ステップS1005で特定した投影データの画素の重なりによって行える。或いは、投影データのオブジェクトの位置情報から推測するなどの方法を用いることもできる。 In step S1009, it is determined whether there is an object that matches the target object in the projection data. The determination of coincidence or non-coincidence can be made based on the result of applying and correcting the projection distortion correction value for the object and the overlap of the projection data pixels identified in step S1005. Alternatively, a method of inferring from the position information of the object of the projection data can be used.
図12は投影データと一致するオブジェクトの検出例を示す。画像1201は入力画像1100を投影歪み補正値で補正したもの、画像1202は投影データの色を反転したものである。画像1203は画像1201と画像1202の色情報を加算したもの、つまり画像1201から投影データの色情報を減算することで、投影データとの差分をとったものである。
FIG. 12 shows an example of detecting an object that matches the projection data. An
ステップS1009において一致すると判断した場合はステップS1006で出力画像上へ配置済みであるため繰り返し終端のステップS1015に進む。一方、一致しない場と判断した合は手書きのオブジェクトとみなしてステップS1010に進み、オブジェクトが投影画像に対して記入された下線や囲みなどのマークオブジェクトであるかどうかを判定する。マークオブジェクトであるか否かの判断は、例えば投影オブジェクトに近接しているオブジェクトで文字以外がマークオブジェクトであるとすればよい。具体的には大きさ一定以下で、縦横比が1に近い物を文字とし、或いは直線や、楕円状などといった形状のものをマークオブジェクトと判断するようにしてもよい。 If it is determined in step S1009 that they match, since it has already been arranged on the output image in step S1006, the process proceeds to step S1015, which is a repeated termination. On the other hand, if it is determined that they do not coincide with each other, it is regarded as a handwritten object and the process proceeds to step S1010 to determine whether or not the object is a mark object such as an underline or a box written on the projected image. The determination as to whether or not the object is a mark object may be, for example, an object that is close to the projection object and that other than characters are mark objects. Specifically, an object having a size equal to or less than a constant and an aspect ratio close to 1 may be determined as a character, or a shape such as a straight line or an ellipse may be determined as a mark object.
マークオブジェクトと判定された場合はステップS1012に進み、それ以外の手書きの記号などの場合はステップS1011に進む。画像1101(図11)はマークオブジェクトであると判断される。 If it is determined that the object is a mark object, the process proceeds to step S1012, and if it is any other handwritten symbol, the process proceeds to step S1011. The image 1101 (FIG. 11) is determined to be a mark object.
ステップS1011〜S1014ではステップS508〜S511と同様の処理を行ない、未処理オブジェクトがあればステップS1008に戻って処理を繰り返し、未処理オブジェクトが無ければ繰り返さずに終了する。 In steps S1011 to S1014, processing similar to that in steps S508 to S511 is performed. If there is an unprocessed object, the process returns to step S1008 to repeat the processing, and if there is no unprocessed object, the processing ends without repeating.
図13は、本実施形態による出力画像を従来技術の例と比較して示す図である。 FIG. 13 is a diagram showing an output image according to the present embodiment in comparison with an example of the prior art.
本実施形態による出力画像1301(図13(A))は、投影データ部分に関して投影装置103へ入力した画像データを用いているため、投影データ部分に関し劣化の無い状態で再現することができる。
Since the output image 1301 (FIG. 13A) according to the present embodiment uses the image data input to the
従来技術による出力画像1302(図13(B))は、マークオブジェクト1101に対しても文字部分同様に、白板歪み値で形状補正した結果の出力画像例である。出力画像1302では、手書きマークオブジェクト1101が投影データ部分に重なってしまう。
An output image 1302 (FIG. 13B) according to the conventional technique is an example of an output image as a result of correcting the shape of the
以上説明したように、本実施形態によれば、投影データが特定できる場面においては、投影データ部分の画質の劣化がない。また、手書きの下線、囲みに対する補正値の判定処理を加えることで、手書きで追記した下線、囲みを見易い形で付加することができる。 As described above, according to the present embodiment, there is no deterioration in the image quality of the projection data portion in a scene where the projection data can be specified. Also, by adding correction value determination processing for handwritten underlines and boxes, it is possible to add underline and boxes added by handwriting in an easy-to-see manner.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (9)
前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠とを抽出する枠抽出手段と、
前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得手段と、
前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出手段と、
前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正手段と、
前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力手段と、
を備えることを特徴とする画像処理装置。 Input means for inputting image data projected object obtained by photographing the plate handwritten object is handwritten by the projected and the user by the projection device,
The inputted image data or, et al., A first frame constituting the four sides of the plate, a frame extracting means for extracting a second frame constituting the four sides of the projection area to be projected by the projection device,
To obtain a first distortion correction value based on the first frame, a correction value acquisition means for acquiring a second distortion correction value based on said second frame,
Wherein the input image data, an object extraction means for extracting said handwriting object and the projection object,
Performs distortion seen correction using the second distortion correction values with respect to the projection object performs distortion correction, which is the extraction with the first distortion correction values to the extracted handwritten objects and distortion correction means,
And output means for generating image data distortion correction using said distortion-corrected handwriting object and the distortion correction projection object,
An image processing apparatus comprising:
該特定した電子データとの比較により、前記入力された画像データから前記電子データに存在しない手書きオブジェクトを抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The object extraction means specifies electronic data of the projection object projected by the projection device;
4. The image processing apparatus according to claim 1, wherein a handwritten object that does not exist in the electronic data is extracted from the input image data by comparison with the specified electronic data.
前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠とを抽出する枠抽出ステップと、
前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得ステップと、
前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出ステップと、
前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正ステップと、
前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力ステップと、
を有することを特徴とする画像処理方法。 An input step of inputting image data projected object obtained by photographing the plate handwritten object is handwritten by the projected and the user by the projection device,
The inputted image data or, et al., A first frame constituting the four sides of the plate, and a frame extraction step of extracting a second frame constituting the four sides of the projection area to be projected by the projection device,
To obtain a first distortion correction value based on the first frame, a correction value acquisition step of acquiring second distortion correction value based on said second frame,
Wherein the input image data, an object extraction step of extracting said handwriting object and the projection object,
Performs distortion seen correction using the second distortion correction values with respect to the projection object performs distortion correction, which is the extraction with the first distortion correction values to the extracted handwritten objects and distortion correction step,
An output step of generating image data distortion correction using said distortion-corrected handwriting object and the distortion correction projection object,
An image processing method comprising:
投影装置によって投影オブジェクトが投影され且つユーザーによって手書きオブジェク
トが手書きされた板を撮影して得た画像データを入力する入力手段、
前記入力された画像データから、前記板の四辺を構成する第1の枠と、前記投影装置によって投影される投影領域の四辺を構成する第2の枠とを抽出する枠抽出手段、
前記第1の枠に基づいて第1の歪み補正値を取得し、前記第2の枠に基づいて第2の歪み補正値を取得する補正値取得手段、
前記入力された画像データから、前記投影オブジェクトと前記手書きオブジェクトとを抽出するオブジェクト抽出手段、
前記抽出された手書きオブジェクトに対しては前記第1の歪み補正値を用いて歪み補正を行い、前記抽出された投影オブジェクトに対しては前記第2の歪み補正値を用いて歪み補正を行う歪み補正手段、
前記歪み補正された手書きオブジェクトと前記歪み補正された投影オブジェクトとを用いて歪み補正された画像データを生成する出力手段、
として機能させることを特徴とするプログラム。 Computer
Input means for inputting image data obtained by photographing a board on which a projection object is projected by a projection device and a handwritten object is handwritten by a user;
The inputted image data or al, the first frame and a frame extracting means for extracting a second frame constituting the four sides of the projection area to be projected by the projection device constituting the four sides of the plate,
The first the first distortion correction values obtained based on the frame, the correction value acquisition means for acquiring a second distortion correction value based on said second frame,
Object extraction means for extracting the projection object and the handwritten object from the input image data;
Performs distortion seen correction using the second distortion correction values with respect to the projection object performs distortion correction, which is the extraction with the first distortion correction values to the extracted handwritten objects Distortion correction means,
Output means for generating image data distortion correction using said distortion-corrected handwriting object and the distortion correction projection object,
A program characterized by functioning as
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010000491A JP5541679B2 (en) | 2010-01-05 | 2010-01-05 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010000491A JP5541679B2 (en) | 2010-01-05 | 2010-01-05 | Image processing apparatus and method, and program |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2011141600A JP2011141600A (en) | 2011-07-21 |
| JP2011141600A5 JP2011141600A5 (en) | 2013-02-21 |
| JP5541679B2 true JP5541679B2 (en) | 2014-07-09 |
Family
ID=44457422
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010000491A Expired - Fee Related JP5541679B2 (en) | 2010-01-05 | 2010-01-05 | Image processing apparatus and method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5541679B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12395612B2 (en) | 2020-07-30 | 2025-08-19 | Samsung Electronics Co., Ltd. | Projector and control method therefor |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5618719B2 (en) * | 2010-09-09 | 2014-11-05 | キヤノン株式会社 | Image processing apparatus, method and program thereof |
| JP2013137368A (en) * | 2011-12-28 | 2013-07-11 | Hitachi Consumer Electronics Co Ltd | Projector and method for controlling image display of the same |
| WO2013136427A1 (en) | 2012-03-13 | 2013-09-19 | Necディスプレイソリューションズ株式会社 | Projection type display device and method for producing recorded images |
| JP6399764B2 (en) * | 2014-02-26 | 2018-10-03 | キヤノン株式会社 | Projection apparatus, image processing apparatus, control method therefor, and program |
| WO2017169725A1 (en) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | Image processing device and method |
| JP7037875B2 (en) * | 2016-06-20 | 2022-03-17 | 日本電信電話株式会社 | Image normalization equipment, methods, and computer-readable recording media |
| CN115409980B (en) * | 2022-09-02 | 2023-12-22 | 重庆众仁科技有限公司 | Correction method and system for distorted images |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004109246A (en) * | 2002-09-13 | 2004-04-08 | Minolta Co Ltd | Projection system |
| JP2005064667A (en) * | 2003-08-08 | 2005-03-10 | Nec Viewtechnology Ltd | Projection apparatus and method |
| US7496229B2 (en) * | 2004-02-17 | 2009-02-24 | Microsoft Corp. | System and method for visual echo cancellation in a projector-camera-whiteboard system |
-
2010
- 2010-01-05 JP JP2010000491A patent/JP5541679B2/en not_active Expired - Fee Related
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12395612B2 (en) | 2020-07-30 | 2025-08-19 | Samsung Electronics Co., Ltd. | Projector and control method therefor |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2011141600A (en) | 2011-07-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5541679B2 (en) | Image processing apparatus and method, and program | |
| JP4363151B2 (en) | Imaging apparatus, image processing method thereof, and program | |
| AU2007224085B2 (en) | Model- based dewarping method and apparatus | |
| US8457403B2 (en) | Method of detecting and correcting digital images of books in the book spine area | |
| US9497355B2 (en) | Image processing apparatus and recording medium for correcting a captured image | |
| CN102484724A (en) | Projection image area detecting device | |
| CN108965646B (en) | Image processing apparatus, image processing method, and program | |
| JP4556813B2 (en) | Image processing apparatus and program | |
| CN101151639B (en) | Image processing apparatus and image processing method | |
| CN119540050A (en) | Image stitching processing method and device | |
| JP2005275447A (en) | Image processing apparatus, image processing method, and program | |
| JP5618719B2 (en) | Image processing apparatus, method and program thereof | |
| JP7030425B2 (en) | Image processing device, image processing method, program | |
| JP4363154B2 (en) | Imaging apparatus, image processing method thereof, and program | |
| CN112997217A (en) | Document detection from video images | |
| JP2004102819A (en) | Image processing method and apparatus | |
| JP4363153B2 (en) | Imaging apparatus, image processing method thereof, and program | |
| JP5563390B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP5208043B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2006107018A (en) | Method and apparatus for image analysis, method and system for image processing, and operation program therefor | |
| JP2008269131A (en) | Image processor and image processing program | |
| JP4696239B2 (en) | Method and apparatus for correcting inclination of character string | |
| JP2005122319A (en) | Imaging apparatus, image processing method thereof, and program | |
| JP2005196659A (en) | Program, recording medium and apparatus for processing image | |
| JP2008135857A (en) | Image processor and image processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121228 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121228 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130930 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131008 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131209 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140408 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140430 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5541679 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |