JP2000175025A - Image processing method and apparatus - Google Patents
Image processing method and apparatusInfo
- Publication number
- JP2000175025A JP2000175025A JP10350556A JP35055698A JP2000175025A JP 2000175025 A JP2000175025 A JP 2000175025A JP 10350556 A JP10350556 A JP 10350556A JP 35055698 A JP35055698 A JP 35055698A JP 2000175025 A JP2000175025 A JP 2000175025A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- area
- signal
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Input (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
(57)【要約】
【課題】 原稿画像を読み取った画像データの内、境界
線とその境界線により囲まれた領域を指定する画像部分
のデータを圧縮して記憶し、その圧縮して記憶されたデ
ータを伸長してその境界線の内部に含まれる編集対象領
域を示す画像データ部分を抽出する。
【解決手段】 入力した画像信号に含まれる境界線部分
を抽出する境界線データ検出部102と、画像信号に含
まれ、境界線部分により区分けされた編集領域を指定す
るための画像部分を抽出するマーカデータ検出部101
と、その画像部分及び境界線部分を表わすデータを圧縮
するデータ圧縮部103と、圧縮されたデータを格納す
る領域用メモリ104と、領域用メモリ104に記憶さ
れた、圧縮されたデータに基づいて、圧縮された編集領
域データを生成する描画用IC111と、圧縮された編
集領域データを伸長すると共に、その伸長した編集領域
データと境界線データBI信号とに基づいて編集対象領
域データを発生する領域抽出処理部106とを有し、こ
の編集対象領域データに対して色選択部109で選択さ
れた色を付与して出力する。
(57) [Summary] [PROBLEMS] To compress and store data of an image part designating a boundary line and an area surrounded by the boundary line in image data obtained by reading a document image, and store the compressed data. The extracted data is expanded to extract an image data portion indicating an edit target area included inside the boundary line. SOLUTION: A boundary data detection unit 102 extracts a boundary part included in an input image signal, and extracts an image part included in the image signal for specifying an editing area divided by the boundary part. Marker data detection unit 101
A data compression unit 103 for compressing data representing the image portion and the boundary line portion; an area memory 104 for storing the compressed data; and a compressed data stored in the area memory 104 based on the compressed data. A drawing IC 111 for generating compressed edit area data, an area for expanding the compressed edit area data, and generating edit target area data based on the expanded edit area data and the boundary line data BI signal. And an extraction processing unit 106 for adding the color selected by the color selection unit 109 to the edit target area data and outputting the data.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力した画像信号
において、指定された編集領域に対応する信号を発生す
る画像処理方法及び装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for generating a signal corresponding to a specified editing area in an input image signal.
【0002】[0002]
【従来の技術】複写機において、原稿画像の領域を指定
し、その指定した編集領域に対してユーザが所望の画像
処理を指示できる装置が知られている。このような編集
領域を指定する方法としては、例えばディジタイザのよ
うなポインティングデバイスを用いて指定する方法、或
は原稿上の境界線で囲まれた領域内をマーカ等により指
定することによって、その編集領域を指定する方法など
が一般的である。2. Description of the Related Art In a copying machine, there is known an apparatus capable of designating a region of a document image and instructing a user to perform desired image processing on the designated editing region. As a method of specifying such an editing area, for example, a method of specifying using a pointing device such as a digitizer, or a method of specifying an area surrounded by a boundary line on a manuscript with a marker or the like, thereby A common method is to specify an area.
【0003】このようにして、ポインティングデバイス
及びマーカ等により指定された点の情報は、CCD等の
画像読み取り装置により読み込まれて画像メモリに書き
込まれ、又は、複写機を制御しているCPUに直接、そ
の指定された原稿上の点の位置に対応するメモリアドレ
スにデータを書込むことによりメモリに格納される。そ
の後、例えば描画用IC等を用いて、その境界線で囲ま
れた編集領域を編集対象領域として設定している。In this way, information on a point designated by a pointing device, a marker, or the like is read by an image reading device such as a CCD and written into an image memory, or directly sent to a CPU controlling a copying machine. Then, the data is stored in the memory by writing data to a memory address corresponding to the position of the designated point on the document. After that, using a drawing IC or the like, the editing area surrounded by the boundary line is set as the editing target area.
【0004】図10(A)及び(B)は、その様子を表
したものである。図10(A)は、境界線1001で囲
まれた領域内をマーカ1002により指示することによ
り、その境界線1001で囲まれる領域を編集対象領域
に設定する場合を示し、図10(B)は同じく境界線1
001で囲まれる領域内の、1003で示す点をポイン
ティングデバイス等により指示することにより、その境
界線1001で囲まれる領域を編集対象領域に設定する
場合を示している。FIGS. 10A and 10B show the state. FIG. 10A shows a case where the area surrounded by the boundary line 1001 is designated by the marker 1002 to set the area surrounded by the boundary line 1001 as the editing target area. Same boundary line 1
A case is shown in which a point indicated by 1003 in an area surrounded by 001 is designated by a pointing device or the like, and an area surrounded by the boundary 1001 is set as an edit target area.
【0005】[0005]
【発明が解決しようとする課題】この様にして指定され
た編集領域を記憶するためには、原稿画像を示す画像デ
ータと、マーカ或はディジタイザ等で指定された画像部
分の画像データとをメモリに格納する必要がある。しか
し、原稿画像の全データを格納するためには大容量のメ
モリが必要になりコストが増加するといった問題があ
る。In order to store the editing area specified in this way, image data indicating a document image and image data of an image portion specified by a marker or a digitizer are stored in a memory. Must be stored in However, there is a problem that a large-capacity memory is required to store all data of the document image, and the cost increases.
【0006】本発明は上記従来例に鑑みてなされたもの
で、原稿画像を読み取った画像データの内、境界線とそ
の境界線により囲まれた領域を指定する画像部分のデー
タを圧縮して記憶し、その圧縮して記憶されたデータを
伸長してその境界線の内部に含まれる編集対象領域を示
す画像データ部分を抽出する画像処理方法及び装置を提
供することを目的とする。The present invention has been made in view of the above conventional example, and compresses and stores, in image data obtained by reading a document image, data of an image portion designating a boundary line and an area surrounded by the boundary line. It is another object of the present invention to provide an image processing method and apparatus for decompressing the compressed and stored data and extracting an image data portion indicating an editing target area included inside the boundary line.
【0007】また本発明の目的は、少ないメモリ容量
で、指定された領域情報を記憶し、かつ簡単な構成で、
その領域情報を伸長して編集対象領域を示す情報を抽出
できる画像処理方法及び装置を提供することにある。Another object of the present invention is to store designated area information with a small memory capacity and to have a simple configuration.
It is an object of the present invention to provide an image processing method and apparatus capable of extracting information indicating a region to be edited by expanding the region information.
【0008】[0008]
【課題を解決するための手段】上記目的を達成するため
に本発明の画像処理装置は以下のような構成を備える。
即ち、入力した画像信号に含まれる境界線部分を抽出す
る境界線抽出手段と、前記画像信号に含まれ、前記境界
線部分により区分けされた編集領域を指定するための画
像部分を抽出する抽出手段と、前記画像部分及び前記境
界線部分を表わすデータを圧縮する圧縮手段と、前記圧
縮手段により圧縮されたデータを格納する記憶手段と、
前記記憶手段に記憶された前記圧縮されたデータに基づ
いて、圧縮された編集領域データを生成する生成手段
と、前記生成手段により生成された前記編集領域データ
を伸長すると共に、前記伸長した編集領域データと前記
境界線抽出手段により抽出された境界線部分とに基づい
て編集対象領域データを発生する編集対象領域データ生
成手段とを有することを特徴とする。In order to achieve the above object, an image processing apparatus according to the present invention has the following arrangement.
That is, a boundary line extraction unit for extracting a boundary line portion included in the input image signal, and an extraction unit for extracting an image portion included in the image signal and specifying an editing area partitioned by the boundary line portion Compression means for compressing data representing the image portion and the boundary portion; storage means for storing data compressed by the compression means;
Generating means for generating compressed editing area data based on the compressed data stored in the storage means; and expanding the editing area data generated by the generating means; An editing target area data generating means for generating editing target area data based on the data and the boundary part extracted by the boundary extracting means.
【0009】上記目的を達成するために本発明の画像処
理方法は以下のような工程を備える。即ち、入力した画
像信号に含まれる境界線部分を抽出する境界線抽出工程
と、前記画像信号に含まれ、前記境界線部分により区分
けされた編集領域を指定するための画像部分を抽出する
抽出工程と、前記画像部分及び前記境界線部分を表わす
データを圧縮する圧縮工程と、前記圧縮工程で圧縮され
たデータをメモリに格納する記憶工程と、前記メモリに
記憶された前記圧縮されたデータに基づいて、圧縮され
た編集領域データを生成する生成工程と、前記生成工程
で生成された前記編集領域データを伸長すると共に、前
記伸長した編集領域データと前記境界線抽出工程で抽出
された境界線部分とに基づいて編集対象領域データを発
生する編集対象領域データ生成工程とを有することを特
徴とする。In order to achieve the above object, the image processing method of the present invention comprises the following steps. That is, a boundary line extraction step of extracting a boundary line part included in the input image signal, and an extraction step of extracting an image part included in the image signal and specifying an editing area divided by the boundary line part A compression step of compressing the data representing the image portion and the boundary line portion, a storage step of storing the data compressed in the compression step in a memory, and a step of storing the compressed data stored in the memory. Generating a compressed edit area data, expanding the edit area data generated in the generation step, and extracting the expanded edit area data and the boundary line portion extracted in the boundary line extraction step. And an edit target area data generating step of generating edit target area data based on the above.
【0010】[0010]
【発明の実施の形態】[実施の形態1]図1は、本発明
の実施の形態に係る画像編集装置(例えば複写機等)の
画像処理部の機能構成を示すブロック図である。[First Embodiment] FIG. 1 is a block diagram showing a functional configuration of an image processing unit of an image editing apparatus (for example, a copying machine) according to an embodiment of the present invention.
【0011】図1において、101はマーカデータ検出
部で、CCD等の画像入力部から入力されたRGB信号
を基に、例えば原稿上のマーカ等によって指定された部
分を検出してマーカ信号を出力する。本実施の形態では
それぞれ赤、緑、青のマーカ信号を検出して、それぞれ
各色に対応したマーカ信号MK−R,MK−G,MK−
Bを出力している。In FIG. 1, reference numeral 101 denotes a marker data detection unit which detects a portion designated by a marker or the like on a document and outputs a marker signal based on RGB signals input from an image input unit such as a CCD. I do. In the present embodiment, red, green, and blue marker signals are detected, respectively, and marker signals MK-R, MK-G, and MK- corresponding to each color are detected.
B is output.
【0012】図2は、本実施の形態のマーカ検出部10
1の構成を示すブロック図である。図2において、40
1は入力されたR(赤)G(緑)B(青)のデータをR
GB→HSL変換して、H(色相)S(彩度)L(明
度)データを出力するRGB→HSL変換部である。FIG. 2 shows a marker detecting unit 10 according to the present embodiment.
1 is a block diagram showing a configuration of FIG. In FIG. 2, 40
1 represents the input R (red), G (green), and B (blue) data as R
This is an RGB → HSL conversion unit that performs GB → HSL conversion and outputs H (hue) S (saturation) L (brightness) data.
【0013】402は比較回路で、RGB→HSL変換
部401から出力されたH信号と、レジスタ値「RH
H」の値とを比較し、比較回路403はRGB→HSL
変換部401から出力されたH信号と、レジスタ値「R
HL」の値とを比較している。比較回路402はH信号
<RHHの時に“1”を出力し、H信号≧RHHの時に
“0”を出力する。また、比較回路403はH信号>R
HLの時に“1”を出力し、H信号≦RHLの時に
“0”を出力する。AND回路404は、比較回路40
2,403の出力同士の論理積を取っており、これによ
りAND回路404は、 RHL < H信号 < RHH で“1”を出力し、それ以外の場合に“0”を出力す
る。即ち、AND回路404は、Hデータの値が小さい
ほうの閾値「RHL」と大きい方の閾値「RHH」の値
の間に位置している時に“1”を出力し、それ以外の時
には“0”を出力する。Reference numeral 402 denotes a comparison circuit, which outputs an H signal output from the RGB → HSL conversion unit 401 and a register value “RH”.
H ”, and the comparison circuit 403 compares the RGB → HSL
The H signal output from the conversion unit 401 and the register value “R
HL ”. The comparison circuit 402 outputs “1” when H signal <RHH, and outputs “0” when H signal ≧ RHH. Further, the comparison circuit 403 determines that the H signal> R
It outputs "1" when HL, and outputs "0" when H signal ≤ RHL. The AND circuit 404 is connected to the comparison circuit 40
The AND circuit 404 outputs a logical AND between the outputs of the AND circuit 403, whereby the AND circuit 404 outputs “1” when RHL <H signal <RHH, and outputs “0” otherwise. That is, the AND circuit 404 outputs “1” when the value of the H data is located between the smaller threshold “RHL” and the larger threshold “RHH”, and outputs “0” otherwise. Is output.
【0014】同様に、比較回路405,406及びAN
D回路407により、 RSL < S信号 < RSH のときに“1”を、それ以外の場合に“0”を出力して
おり、また比較回路408,409、AND回路410
により、 RLL < L信号 < RLH の時に“1”を、それ以外の場合に“0”を出力してい
る。Similarly, comparison circuits 405, 406 and AN
The D circuit 407 outputs “1” when RSL <S signal <RSH, and outputs “0” otherwise. The comparison circuits 408 and 409 and the AND circuit 410
Accordingly, "1" is output when RLL <L signal <RLH, and "0" is output in other cases.
【0015】これによりAND回路411は、AND回
路404,407,410の出力を入力して、それらの
論理積を取っており、以上の説明より、 RHL < H信号 < RHH RSL < S信号 < RSH RLL < L信号 < RLH の場合に“1”を、それ以外の場合に“0”を出力す
る。As a result, the AND circuit 411 receives the outputs of the AND circuits 404, 407, and 410 and takes the logical product of them. From the above description, RHL <H signal <RHH RSL <S signal <RSH "1" is output when RLL <L signal <RLH, and "0" is output otherwise.
【0016】ここで、上記レジスタ値「RHH」,「R
SH」,「RLH」のそれぞれに、赤のマーカと判定さ
れる各H,S,Lの上限値を、レジスタ値「RHL」,
「RSL」,「RHL」のそれぞれには、各H,S,L
の下限値を設定することにより、AND回路411から
赤のマーカ部分では“1”を出力し、それ以外の他の部
分では“0”を出力する。これによって赤のマーカ信号
を示す信号MK−Rが出力される。Here, the register values "RHH", "R
SH ”and“ RLH ”, the upper limit of each of H, S, and L determined to be a red marker is set to a register value“ RHL ”,
Each of “RSL” and “RHL” is H, S, L
, The AND circuit 411 outputs “1” for the red marker portion and outputs “0” for the other portions. As a result, a signal MK-R indicating the red marker signal is output.
【0017】以上、赤のマーカ信号MK−Rについて説
明したが、同様にしてレジスタ値「GHH」,「GH
L」,「GSH」,「GSL」,「GLH」,「GL
L」のそれぞれ緑のマーカと判定される信号の各H,
S,Lの上限及び下限値を設定し、比較回路412,4
13,415,416,418,419及びAND回路
414,417,420及びAND回路421により、
緑のマーカ部分を示す信号MK−Gを出力する。同様に
して、レジスタ値「BHH」,「BHL」,「BS
H」,「BSL」,「BLH」,「BLL」に青のマー
カを判定するための各値を設定し、比較回路422,4
23,425,426,428,429及びAND回路
424,427,430,431により、青のマーカを
示す信号MK−Bを出力する。The red marker signal MK-R has been described above, but the register values "GHH" and "GH
L "," GSH "," GSL "," GLH "," GL
L, H of each signal determined to be a green marker,
The upper and lower limits of S and L are set, and the comparison circuits 412, 4
13, 415, 416, 418, 419 and AND circuits 414, 417, 420 and AND circuit 421,
A signal MK-G indicating a green marker portion is output. Similarly, register values “BHH”, “BHL”, “BS
H, “BSL”, “BLH”, and “BLL” are set with respective values for determining the blue marker, and the comparison circuits 422 and 4 are set.
23, 425, 426, 428, 429 and AND circuits 424, 427, 430, 431 output a signal MK-B indicating a blue marker.
【0018】102は境界線データ検出部で、入力され
たRGBデータを参照することにより、マーカ編集の境
界線となる原稿データ(黒データ)を検出し、その結果
をBI信号として出力する。本実施の形態の境界線デー
タ検出部102では、RGBデータと所定のレジスタ値
THを用いて、 (R+G+B)/3 < TH の場合にBI信号を“1”とし、それ以外の場合はBI
信号を“0”にして出力している。Reference numeral 102 denotes a boundary data detection unit which detects original data (black data) serving as a boundary for marker editing by referring to the input RGB data, and outputs the result as a BI signal. The boundary line data detection unit 102 of the present embodiment sets the BI signal to “1” when (R + G + B) / 3 <TH using the RGB data and a predetermined register value TH, and otherwise sets the BI signal to “1”.
The signal is output as "0".
【0019】103はデータ圧縮部で、マーカデータ検
出部101及び境界線データ検出部102から出力され
たデータを、領域用メモリ104に格納する前にデータ
圧縮を行っている。本実施の形態のデータ圧縮部では、
入力された400dpiのデータを、例えばCCDによ
る画素並び方向(以下、主走査方向)及びその垂直方向
(以下、副走査方向)のそれぞれの4画素を1画素に圧
縮することにより、1/16のデータ圧縮を行ってい
る。このデータ圧縮部103に入力されたMK−R,M
K−G,MK−B及びBI信号は、データ圧縮された
後、MK−R’,MK−G’,MK−B’及びBI’信
号として出力される。Reference numeral 103 denotes a data compression unit which compresses data output from the marker data detection unit 101 and the boundary data detection unit 102 before storing the data in the area memory 104. In the data compression unit of the present embodiment,
By compressing the input 400 dpi data into, for example, four pixels in a pixel arrangement direction (hereinafter, main scanning direction) and its vertical direction (hereinafter, sub-scanning direction) by a CCD to 1/16, Data compression is being performed. MK-R, M input to data compression section 103
The KG, MK-B, and BI signals are output as MK-R ', MK-G', MK-B ', and BI' signals after data compression.
【0020】図3は、本実施の形態のデータ圧縮部の1
03の構成を示すブロック図である。FIG. 3 shows one of the data compression units according to the present embodiment.
FIG. 3 is a block diagram showing a configuration of the third embodiment.
【0021】このデータ圧縮部103には、マーカデー
タ検出部101から出力されたマーカ信号MK−R,M
K−G,MK−Bと、境界線データ検出部102から出
力されたBI信号が入力される。501はラインメモリ
で、5120画素分のデータを記憶でき(以下、FIF
O)、端子Dから入力されたマーカ信号及びBI信号は
FIFO501により1ライン分遅延された後、端子Q
から出力される。502はフリップフロップ(以下F/
F)、AND回路及びセレクタ502aを有する孤立点
除去回路で、このデータ圧縮部103に入力された信号
の主走査方向に対して1画素の孤立点の除去を行う。こ
こで、図示されたRG_MBTR<3..0>は、この
画像編集装置の制御部(CPU)により設定されるレジ
スタ値であり、セレクタ502aのセレクト信号を操作
することにより、各信号ごとに孤立点の除去をするか
(セレクタ502aのB入力端子選択)、或はしないか
(セレクタ502aのA入力端子選択)の設定を行うこ
とが可能となっている。The data compression section 103 includes the marker signals MK-R and MK output from the marker data detection section 101.
KG, MK-B and the BI signal output from the boundary data detection unit 102 are input. Reference numeral 501 denotes a line memory capable of storing data for 5120 pixels (hereinafter, referred to as FIF).
O), the marker signal and the BI signal input from the terminal D are delayed by one line by the FIFO 501,
Output from 502 is a flip-flop (hereinafter F /
F), an isolated point removing circuit having an AND circuit and a selector 502a removes an isolated point of one pixel in the main scanning direction of the signal input to the data compression unit 103. Here, the illustrated RG_MBTR <3. . 0> is a register value set by a control unit (CPU) of the image editing apparatus. By operating a select signal of the selector 502a, whether to remove an isolated point for each signal (B of the selector 502a) It is possible to set whether or not (input terminal selection) or not (selection of the A input terminal of the selector 502a).
【0022】孤立点除去回路503も502と同様に、
FIFO501の端子Qから出力されたデータの1画素
の孤立点の除去を行う回路であり、RG_MBTR<
7..4>の4ビットを用いて、各信号ごとに孤立点の
除去をするかしないかの設定を行っている。The isolated point removing circuit 503 also has
This is a circuit for removing an isolated point of one pixel of data output from the terminal Q of the FIFO 501, and RG_MBTR <
7. . Using the 4 bits of 4>, whether or not to remove isolated points is set for each signal.
【0023】孤立点除去回路502と、1ライン分遅延
された信号に基づく孤立点除去回路503の出力は、A
ND回路504に入力されて副走査方向の孤立点を検出
している。セレクタ505は、RG_MBTR<1
1..8>の4ビットを用いて、各信号毎に副走査方向
の孤立点の除去をするか(AND回路504の出力を選
択)、或はしないか(孤立点除去回路502の出力を選
択)の設定を行っている。The outputs of the isolated point removing circuit 502 and the isolated point removing circuit 503 based on the signal delayed by one line are A
The signal is input to the ND circuit 504 to detect an isolated point in the sub-scanning direction. The selector 505 determines that RG_MBTR <1
1. . 8>, whether to remove isolated points in the sub-scanning direction for each signal (select output of AND circuit 504) or not (select output of isolated point removal circuit 502) for each signal Settings are being made.
【0024】論理和回路506は、主走査方向の4画素
分の信号の論理和をとる回路で、3個のF/Fと1つの
OR回路を備えている。この論理和回路506の出力は
OR回路507に入力され、このOR回路507の出力
は、フリップフロップ510及びラインメモリ509に
入力されている。AND回路508は、ラインメモリ
(FIFO)509の出力を信号V4Sによりマスクし
ている。ラインメモリ509は、OR回路507から出
力されたデータを1ライン分遅延するためのFIFOで
ある。ここで信号V4Sを4ラインの内の最初のライン
で“0”とし、残りの3ライン分で“1”にしてAND
回路508に入力する。これにより、論理和回路506
が2ライン目を処理しているときはOR回路507から
は1ライン目と2ライン目との論理和を取ったデータが
出力され、その結果がラインメモリ509に格納され
る。こうしてラインメモリ509、AND回路508及
びOR回路507により4ライン分のデータの論理和が
取られてOR回路507から出力される。510はイネ
ーブル入力付きのF/Fであり、イネーブル入力端子E
Nには4画素ごとに1画素だけ“1”が入力されてい
る。これにより主走査方向の4画素毎に1画素が出力さ
れる。The logical sum circuit 506 is a circuit for calculating the logical sum of signals for four pixels in the main scanning direction, and includes three F / Fs and one OR circuit. The output of the OR circuit 506 is input to the OR circuit 507, and the output of the OR circuit 507 is input to the flip-flop 510 and the line memory 509. The AND circuit 508 masks the output of the line memory (FIFO) 509 with the signal V4S. The line memory 509 is a FIFO for delaying the data output from the OR circuit 507 by one line. Here, the signal V4S is set to "0" for the first line of the four lines, and set to "1" for the remaining three lines, and AND
Input to the circuit 508. Thereby, the OR circuit 506
Is processing the second line, the OR circuit 507 outputs data of the logical sum of the first line and the second line, and the result is stored in the line memory 509. In this way, the logical sum of the data of four lines is obtained by the line memory 509, the AND circuit 508, and the OR circuit 507, and is output from the OR circuit 507. Reference numeral 510 denotes an F / F with an enable input, and an enable input terminal E
For N, "1" is input for only one pixel every four pixels. As a result, one pixel is output for every four pixels in the main scanning direction.
【0025】以上の構成により、データ圧縮部103
は、入力された400dpiのマーカデータ及びBI信
号に対して、主走査方向と副走査方向に孤立点除去を行
った後、主走査方向の4画素と副走査方向の4ライン分
のデータの論理和を求め、16画素分の画像信号の論理
和出力(100dpiデータ)として信号MK−R’,
MK−G’,MK−B’,BI’を出力する。With the above configuration, the data compression unit 103
Is used to remove the isolated points in the main scanning direction and the sub-scanning direction from the input 400 dpi marker data and the BI signal, and then perform the logical operation of the data of four pixels in the main scanning direction and four lines in the sub-scanning direction. The sum is obtained, and as a logical sum output (100 dpi data) of the image signals for 16 pixels, the signals MK-R ′,
MK-G ', MK-B', and BI 'are output.
【0026】104は領域用メモリで、データ圧縮部1
03から出力されたデータを格納し、編集領域信号を生
成している。111は描画用ICで、領域用メモリ10
4に対して様々な演算を行うことができる。本実施の形
態では、描画用IC111は領域用メモリ104のメモ
リ領域を任意のブロックに分割し、これら分割した各ブ
ロックに対してデータをセット(“1”をライトする)
/リセット(“0”をライト)、データの反転、複数の
ブロックのデータに対してはAND(論理積)/OR
(論理和)等の演算が可能である。また、指定したデー
タの検出(検索)、指定した位置から境界となるデータ
が現れるまでの領域を設定したデータで満たす(塗り潰
し)、といった演算も行うことができる。Reference numeral 104 denotes an area memory, which is a data compression unit 1
03 is stored, and an edit area signal is generated. Reference numeral 111 denotes a drawing IC, and the area memory 10
4 can perform various operations. In this embodiment, the drawing IC 111 divides the memory area of the area memory 104 into arbitrary blocks, and sets data (writes “1”) to each of the divided blocks.
/ Reset (write "0"), invert data, AND (logical product) / OR for data in multiple blocks
An operation such as (logical sum) can be performed. In addition, calculations such as detection (search) of specified data, and filling (filling) of an area from a specified position to the appearance of boundary data with the set data can be performed.
【0027】図4は、領域用メモリ104に格納された
マーカ信号MK−R’,MK−G’,MK−B’及び境
界線信号BI’を用いて、描画用IC111が編集領域
信号AREA−R’〜−B’を生成するための演算処理
を説明する図である。FIG. 4 shows that the drawing IC 111 uses the marker signals MK-R ', MK-G', MK-B 'and the boundary signal BI' stored in the area memory 104 to cause the editing area signal AREA- FIG. 9 is a diagram for explaining an arithmetic process for generating R ′ to −B ′.
【0028】図4において、領域用メモリ104は、そ
のメモリ領域が8つのブロックPL0〜PL7に分割さ
れ、これらブロックの内、ブロックPL0〜PL3のそ
れぞれには、各MK−R’,MK−G’,MK−B’,
BI’が格納されている。ここで各ブロックは、データ
圧縮部103で圧縮されたデータを、A3判に相当する
データ量だけ格納できる容量を有している。Referring to FIG. 4, the area memory 104 has its memory area divided into eight blocks PL0 to PL7. Of these blocks, each of the blocks PL0 to PL3 has its own MK-R ', MK-G. ', MK-B',
BI ′ is stored. Here, each block has a capacity capable of storing data compressed by the data compression unit 103 by a data amount corresponding to A3 size.
【0029】440はPL0に格納されたMK−R’を
示し、441はPL3に格納された境界線データBI’
を示している。以下、PL0とPL3のデータを用いて
編集飯域信号を生成する方法を説明する。Reference numeral 440 denotes MK-R 'stored in PL0, and 441 denotes boundary line data BI' stored in PL3.
Is shown. Hereinafter, a method of generating an edited rice area signal using the data of PL0 and PL3 will be described.
【0030】まずSTEP1において、PL0に記憶さ
れている赤マーカ信号MK−R’に対して、データが
“1”(原稿上にマーカが塗られていた部分)である部
分を検出し、その検出された“1”である部分を、順次
PL7に書き込む。次にSTEP2において、PL4を
クリアする(“0”を書込む)。次にSTEP3におい
て、STEP1で検出してPL7に書込まれたデータ位
置を開始点として、PL3=1(境界線データが
“1”)でかつPL4=0となるまでPL4を“1”で
塗りつぶす(図4の442)。次にSTEP4で、ST
EP1で検出した位置を開始点として、PL3=0かつ
PL4=0となるまでPL4を“1”で塗りつぶす(図
4の443)。First, in STEP 1, a portion where the data is "1" (the portion where the marker is painted on the document) is detected with respect to the red marker signal MK-R 'stored in PL0, and the detection is performed. The part which is "1" is sequentially written to PL7. Next, in STEP2, PL4 is cleared ("0" is written). Next, in STEP3, with the data position detected in STEP1 and written in PL7 as a start point, PL4 is filled with "1" until PL3 = 1 (boundary data is "1") and PL4 = 0. (442 in FIG. 4). Next, in STEP 4, ST
With the position detected in EP1 as a start point, PL4 is painted with “1” until PL3 = 0 and PL4 = 0 (443 in FIG. 4).
【0031】以上の操作により、領域用メモリ104の
PL4には、赤マーカで指定された編集領域信号ARE
A−R’が生成される。By the above operation, the edit area signal ARE designated by the red marker is stored in PL4 of the area memory 104.
AR ′ is generated.
【0032】同様にして、PL0の代わりにPL1を、
PL4の代わりにPL5を用いて同様の操作を行うこと
により、緑マーカで指定された編集領域信号AREA−
G’が領域用メモリ104のPL5に生成され、またP
L2及びPL6を用いることにより、青マーカで指定さ
れた編集領域信号AREA−B’が領域用メモリ104
のPL6に生成される(図4の444)。Similarly, instead of PL0, PL1 is replaced by
By performing the same operation using PL5 instead of PL4, the edit area signal AREA-
G ′ is generated in PL5 of the area memory 104, and P ′
By using L2 and PL6, the edit area signal AREA-B 'specified by the blue marker is stored in the area memory 104.
(See 444 in FIG. 4).
【0033】なお、ここで生成された編集領域信号は、
境界線部分も含む編集領域信号である。The editing area signal generated here is:
This is an editing area signal including a boundary portion.
【0034】105は境界線用メモリで、境界線データ
検出部102で検出された境界線データBI信号が格納
される。なお、この境界線用メモリ105は、400d
piの2値データをA3判のサイズ分格納できる容量を
持つ。A boundary line memory 105 stores the boundary line data BI signal detected by the boundary line data detection section 102. The boundary memory 105 has a capacity of 400 d.
It has a capacity to store binary data of pi for the size of A3 size.
【0035】106は領域抽出処理部で、領域用メモリ
104から出力された100dpiの編集領域信号に対
して、境界線用メモリ105に格納された400dpi
の境界線データBIを用い、編集領域信号を400dp
iの信号に変換し、その変換したデータから境界線内部
に含まれる編集対象領域のデータを抽出している。Reference numeral 106 denotes an area extraction processing unit which responds to a 100 dpi edit area signal output from the area memory 104 by 400 dpi stored in the boundary memory 105.
Of the edit area using the boundary line data BI of 400 dp
i, and the data of the edit target area included inside the boundary line is extracted from the converted data.
【0036】図5は、本実施の形態における領域抽出処
理部106の構成を示すブロック図である。但し、図5
は信号AREA−Rに対する補問処理に関連した部分の
みを示している。尚、この信号AREA−Rは、主走査
方向の4画素及び副走査方向の4ラインに一度だけ出力
され、他の3ラインの間そのまま保持される信号ARE
A−R’に対応している。FIG. 5 is a block diagram showing a configuration of the area extraction processing unit 106 in the present embodiment. However, FIG.
Shows only a portion related to the interpolating process for the signal AREA-R. The signal AREA-R is output only once for four pixels in the main scanning direction and four lines in the sub-scanning direction, and is held as it is during the other three lines.
Corresponding to AR ′.
【0037】図5において、301,302はFIFO
であり、FIFO301は後述する演算部により生成さ
れた編集領域信号が端子Dに入力されており、1ライン
分遅延して端子Qから出力している。同様に、FIFO
302では、境界線用メモリ105から出力されたBI
信号が端子Dに入力されており、このBI信号が1ライ
ン分遅延された後、端子Qから出力される。なお、FI
FO301,302は400dpiでA3判の横幅分の
データを保持するだけの容量を有している。In FIG. 5, reference numerals 301 and 302 denote FIFOs.
In the FIFO 301, an editing area signal generated by a calculation unit described later is input to a terminal D, and is output from a terminal Q with a delay of one line. Similarly, FIFO
At 302, the BI output from the boundary memory 105 is output.
A signal is input to a terminal D, and this BI signal is output from a terminal Q after being delayed by one line. In addition, FI
The FOs 301 and 302 have a capacity of 400 dpi to hold data of A3 size width.
【0038】フリップフロップ303〜310は、演算
部311に対して所定のデータを出力している。例え
ば、BI信号及びAREA−R信号としてjライン目、
(i+1)番目の画素データが入力されると、同じタイ
ミングでF/F305から、jライン目、i番目のBI
信号が、F/F306からはjライン目、(i−1)番
目の画素のBI信号が出力される。また、FIFO30
2、F/F303,304からはそれぞれ1ライン前の
データである(j−1)ライン目、(i+1)、i、
(i−1)番目の画素データが出力される。The flip-flops 303 to 310 output predetermined data to the arithmetic unit 311. For example, a j-th line as a BI signal and an AREA-R signal,
When the (i + 1) th pixel data is input, the j-th line and the i-th BI from the F / F 305 at the same timing.
From the F / F 306, a BI signal of the (i-1) th pixel on the j-th line is output. In addition, FIFO30
2. From the F / Fs 303 and 304, the (j-1) th line, (i + 1), i,
The (i-1) th pixel data is output.
【0039】同様に、F/F310からjラインi画素
目に対応するAREA−R信号が出力されると共に、F
IFO301、F/F307,308からはそれぞれ
(j−1)ライン目、(i+1)、i、(i−1)番目
の画素に対応する後の編集領域信号AREAが、更にF
/F309から、jライン目、(i−1)番目の画素に
対応する補間後の編集領域信号AREAが出力される。
因みに、演算部311に上述した信号が入力されると、
演算部311ではjライン目、i番目の画素に対する演
算を行って端子Yから出力する。Similarly, the F / F 310 outputs an AREA-R signal corresponding to the i-th pixel on the j-th line,
From the IFO 301 and the F / Fs 307 and 308, the subsequent edit area signal AREA corresponding to the (j-1) th line, the (i + 1), i, and (i-1) th pixels is further outputted by F
/ F309 outputs the interpolated edit area signal AREA corresponding to the (i-1) -th pixel in the j-th line.
Incidentally, when the above-described signal is input to the arithmetic unit 311,
The operation unit 311 performs an operation on the i-th pixel on the j-th line and outputs the result from the terminal Y.
【0040】演算部311は、対象画素の周辺画素デー
タを用いて、元の画像データに変換するための演算処理
(伸長処理)を行う。前述のように、端子S0からはj
ライン目、(i−1)番目の画素のBI信号、端子S
1,S2,S3からはそれぞれ(j−1)ライン目、
(i−1)、i、(i+1)番目の画素のBI信号が入
力される。また、端子D0からjライン目、(i−1)
番目の画素の編集領域信号AREAを入力し、端子D
1,D2,D3からそれぞれ(j−1)ライン目、(i
−1)、i、(i+1)番目の画素の編集領域信号AR
EAを入力し、端子D4からjライン目、i番目の画素
のAREA−R信号を入力することにより、jライン
目、i番目の画素の演算を行っている。The calculation unit 311 performs a calculation process (decompression process) for converting the image data into the original image data using the peripheral pixel data of the target pixel. As described above, the terminal S0 outputs j
Line, BI signal of (i-1) th pixel, terminal S
From (1, S2, S3) the (j-1) th line,
The BI signal of the (i−1), i, (i + 1) th pixel is input. Also, the j-th line from the terminal D0, (i-1)
Input the edit area signal AREA of the pixel
(J-1) th line from (1, D2, D3), (i
-1), i, edit region signal AR of (i + 1) th pixel
EA is input, and the AREA-R signal of the j-th line and the i-th pixel is input from the terminal D4, whereby the calculation of the j-th line and the i-th pixel is performed.
【0041】また以上の構成により、(j−1)ライン
目、(i−1)番目の画素のBI信号は端子S0に入力
され、編集領域信号AREAは端子D0に入力される。
同様にして、端子S1とD1、端子S2とD2、端子S
3とD3はそれぞれ同じ画素のBI信号と編集領域信号
AREAを入力している。With the above arrangement, the BI signal of the (j-1) th line and the (i-1) th pixel is input to the terminal S0, and the edit area signal AREA is input to the terminal D0.
Similarly, terminals S1 and D1, terminals S2 and D2, terminal S
3 and D3 receive the BI signal and the edit area signal AREA of the same pixel, respectively.
【0042】図6は、演算部311に入力されるデータ
に対する入力と出力との対応を説明する図である。尚、
この図6では、前述した演算器311の各端子に入力さ
れる信号名を、その端子の名称で表している。FIG. 6 is a diagram for explaining the correspondence between the input and output for the data input to the arithmetic unit 311. still,
In FIG. 6, the names of the signals input to the terminals of the arithmetic unit 311 are represented by the names of the terminals.
【0043】図6において、S0=S1=S2=S3=
0が入力されると、出力端子Yからは、D0,D1,D
2,D3の論理積の結果が出力される。即ち、D0,D
1,D2,D3の入力信号が全て“1”の場合にのみ端
子Yから“1”(編集領域であることを表す)が出力さ
れ、それ以外の場合では“0”(編集領域でないことを
表す)が出力される。In FIG. 6, S0 = S1 = S2 = S3 =
When 0 is input, D0, D1, D
The result of the AND of D2 and D3 is output. That is, D0, D
Only when all of the input signals of D1, D2, and D3 are "1", "1" (indicating that the area is an edit area) is output from the terminal Y. In other cases, "0" (which indicates that the area is not an edit area). Is output.
【0044】またS0=1,S1=S2=S3=0が入
力されると、D0を除くD1,D2,D3の論理積の結
果を出力する。以下同様にして、演算部311の出力端
子Yから、図6に示すようにBI信号が“1”でない画
素に対応する編集領域信号AREAが出力される。但
し、S0=S1=S2=S3=1の場合は、端子D4か
ら入力されたAREA−R信号をそのまま出力する。When S0 = 1, S1 = S2 = S3 = 0 are input, the result of the logical product of D1, D2 and D3 excluding D0 is output. In the same manner, an editing area signal AREA corresponding to a pixel whose BI signal is not "1" is output from the output terminal Y of the arithmetic unit 311 as shown in FIG. However, when S0 = S1 = S2 = S3 = 1, the AREA-R signal input from the terminal D4 is output as it is.
【0045】再び図5に戻り、313はNOT回路で、
演算部311からjライン目、i番目の画素の演算結果
が出力されると、jライン目、i番目の画素のBI信号
が入力される。312はAND回路であり、演算部31
1により行われたjライン目、i番目の画素の演算結果
とNOT回路313の出力(jライン目、i番目の画素
のBI信号の反転)の論理積を出力する。これにより、
jライン目、i番目の画素のBI信号が“1”、即ち、
境界線である場合は、演算部311の演算結果はAND
回路312によりマスクされ、編集領域信号AREAと
して“0”、即ち、編集領域外であることを表す信号が
出力される。また、jライン目、i番目の画素のBI信
号が“0”、即ち、境界線でない場合は、演算部311
の演算結果を編集領域信号AREAとして出力する。Returning to FIG. 5, reference numeral 313 denotes a NOT circuit.
When the calculation result of the j-th line and the i-th pixel is output from the calculation unit 311, the BI signal of the j-th line and the i-th pixel is input. Reference numeral 312 denotes an AND circuit.
The logical product of the calculation result of the i-th pixel on the j-th line and the output of the NOT circuit 313 (inversion of the BI signal of the i-th pixel on the j-th line) is output. This allows
The BI signal of the i-th pixel on the j-th line is “1”, that is,
If it is a boundary line, the operation result of the operation unit 311 is AND
Masked by the circuit 312, the editing area signal AREA outputs "0", that is, a signal indicating that the area is outside the editing area. If the BI signal of the i-th pixel on the j-th line is “0”, that is, if the BI signal is not a boundary line, the arithmetic unit 311
Is output as the edit area signal AREA.
【0046】なお、ここで生成された編集領域信号AR
EAは、FIFO301及びF/F309に入力され、
これ以降、演算部311が演算を行うための参照データ
として使用される。The editing area signal AR generated here
The EA is input to the FIFO 301 and the F / F 309,
Thereafter, the calculation unit 311 is used as reference data for performing the calculation.
【0047】再び図1に戻り、107は光量−濃度変換
部(LOG変換部)で、入力したR,G,Bの光量信号
を対数変換によりシアン(C),マゼンタ(M),イエ
ロー(Y)の濃度信号に変換している。108は出力マ
スキング部で、既知のUCR処理(下色除去処理)によ
り、C,M,Y3色の濃度信号からブラックの濃度信号
を抽出するとともに、各濃度信号に対応した現像剤の色
濁りを除去する既知のマスキング演算を施している。1
09は色選択部で、出力マスキング部108により生成
されたM,C,Y,Kの各濃度信号の内から、使用する
現像剤に対応した色の信号を選択している。これにより
記録を行う色のデータを選択して以降のブロックに出力
する。Returning to FIG. 1, reference numeral 107 denotes a light-density converter (LOG converter) which converts the input R, G, and B light signal by logarithmic conversion into cyan (C), magenta (M), and yellow (Y). ) Is converted to a density signal. An output masking unit 108 extracts black density signals from the density signals of the three colors C, M, and Y by a known UCR process (under color removal process), and removes the color turbidity of the developer corresponding to each density signal. A known masking operation for removal is performed. 1
A color selection unit 09 selects a color signal corresponding to the developer to be used from among the M, C, Y, and K density signals generated by the output masking unit 108. Thereby, the data of the color to be recorded is selected and output to the subsequent blocks.
【0048】110は編集処理部で、色選択部109か
ら送られてきたデータに対して、領域抽出処理部106
から出力された編集領域信号AREAに従って、ペイン
トや色付けなどの所望の編集処理を行っている。Reference numeral 110 denotes an editing processing unit which performs an area extraction processing unit 106 on the data sent from the color selection unit 109.
In accordance with the editing area signal AREA output from, desired editing processing such as painting and coloring is performed.
【0049】図7は、マーカにより編集位置が指定され
た原稿を読み込んだときの、編集領域信号が生成される
までの各データの様子を示した図である。以下、本実施
の形態の動作の順に説明を行う。FIG. 7 is a diagram showing a state of each data until an editing area signal is generated when a document whose editing position is designated by a marker is read. The operation will be described below in the order of the operation of the present embodiment.
【0050】始めに、図7(a)は、読み込まれる原稿
データの例である。この図では説明を簡単にするため
に、400dpiのデータであって、主走査方向に24
画素、副走査方向に24ラインのデータを読み込む場合
の動作について説明する。First, FIG. 7A shows an example of original data to be read. In this figure, for simplicity of explanation, data of 400 dpi and 24
The operation for reading data of 24 lines in the pixel and sub-scanning directions will be described.
【0051】図7(a)において、各々の四角は、入力
された画像データの1画素を表しており、ここでは40
0dpiのデータである。また黒で示した部分701は
黒く塗られており、また斜線で示した部分702には赤
マーカが塗られているものとする。In FIG. 7A, each square represents one pixel of the input image data.
This is 0 dpi data. Further, it is assumed that a portion 701 shown in black is painted black, and a portion 702 shown in oblique lines is painted red marker.
【0052】いま、この原稿を読み取った画像データが
入力されると、マーカデータ検出部101により赤マー
カの部分が検出され、その部分に対応するMK−R信号
が、例えば図7(b)に示すように出力される。また、
境界線データ検出部102によって境界線が検出され、
その結果がBI信号として図7(c)に示すように出力
される。Now, when image data obtained by reading the original is input, a marker portion is detected by the marker data detecting section 101, and an MK-R signal corresponding to the portion is, for example, shown in FIG. Output as shown. Also,
A boundary line is detected by the boundary line data detection unit 102,
The result is output as a BI signal as shown in FIG.
【0053】このマーカデータ検出部101から出力さ
れたMK−R信号、及び境界線データ検出部102から
出力されたBI信号は、データ圧縮部103によりデー
タ圧縮された後、領域用メモリ104に書込まれる。図
7(d)(e)はそれぞれ、図3に示したデータ圧縮部
103により400dpiから100dpiにデータ圧
縮され、領域用メモリ104に格納されたMK−R’信
号及びBI’信号を示している。なお、データ圧縮部1
03では前述したように、主走査方向に4画素、副走査
方向に4ラインの計16画素の論理和を取っており、こ
こでは図3の孤立点除去回路502,503による孤立
点除去は行っていない。The MK-R signal output from the marker data detecting section 101 and the BI signal output from the boundary data detecting section 102 are compressed by the data compressing section 103 and then written to the area memory 104. Be included. FIGS. 7D and 7E respectively show the MK-R ′ signal and the BI ′ signal that have been compressed from 400 dpi to 100 dpi by the data compression unit 103 shown in FIG. 3 and stored in the area memory 104. . The data compression unit 1
At 03, as described above, the logical sum of a total of 16 pixels of 4 pixels in the main scanning direction and 4 lines in the sub-scanning direction is obtained. Here, isolated point removal by the isolated point removing circuits 502 and 503 in FIG. Not.
【0054】また、BI信号は、そのまま境界線用メモ
リ105に格納される。その様子を図7(f)に示す。The BI signal is stored in the boundary memory 105 as it is. This is shown in FIG.
【0055】領域用メモリ104は、描画用IC111
を用いて、図7(d),(e)に示すデータに対して編
集領域信号AREAを生成する。この描画用IC111
により、図4に示す演算を行った結果、生成された編集
領域信号AREAを図7(g)に示す。The area memory 104 includes a drawing IC 111.
Is used to generate an edit area signal AREA for the data shown in FIGS. 7 (d) and 7 (e). This drawing IC 111
FIG. 7 (g) shows the edit area signal AREA generated as a result of the calculation shown in FIG.
【0056】この描画用IC111による編集領域信号
AREAの生成が終了すると、領域用メモリ104から
図7(g)に示すデータが読み出され、また境界線用メ
モリ105から図7(f)に示すデータが、同期して領
域抽出処理部106に入力される。図7(h)は、領域
用メモリ104から出力される編集領域信号AREAを
400dpiの画素に対応させた形で表示したものであ
る。When the generation of the editing area signal AREA by the drawing IC 111 is completed, the data shown in FIG. 7G is read from the area memory 104, and the data shown in FIG. Data is input to the region extraction processing unit 106 in synchronization. FIG. 7H shows the edit area signal AREA output from the area memory 104 in a form corresponding to pixels of 400 dpi.
【0057】領域抽出処理部106では、図7(h)に
示すように、飯域用メモリ104から出力された編集領
域信号AREAに対して、境界線用メモリ105から出
力されたBI信号(図7(f))を用いて領域抽出処理
を行っている。その様子を図7(i),(j)に示す。As shown in FIG. 7 (h), the area extraction processing unit 106 responds to the BI area signal output from the boundary memory 105 in response to the edit area signal AREA output from the rice area memory 104. 7 (f)). This is shown in FIGS. 7 (i) and (j).
【0058】図7(i)は、図5に示す領域抽出処理部
106を用いたときの演算部311の出力を示してい
る。図7(i)において、ハッチングで示した部分は領
域用メモリ104から入力された編集領域信号AREA
において、“1”(編集領域であることを表す)であっ
た画素に対して、演算部311による演算において
“0”(編集領域でないことを表す)に置き換わった部
分を示している。この演算により、編集領域はBI信号
で指示される境界線より外側にある編集領域信号ARE
Aを削除し、黒で示すように境界線上及び境界線の内側
の画素位置に対応する領域となっている。FIG. 7 (i) shows the output of the calculation unit 311 when the area extraction processing unit 106 shown in FIG. 5 is used. In FIG. 7I, a hatched portion indicates an edit area signal AREA input from the area memory 104.
In FIG. 7, a portion of a pixel that was "1" (representing an edit area) has been replaced by "0" (representing that it is not an edit area) in the computation performed by the computation unit 311. By this operation, the editing area is set to the editing area signal ARE outside the boundary line indicated by the BI signal.
A is deleted, and the area corresponds to the pixel position on the boundary line and inside the boundary line as shown in black.
【0059】図7(j)は、図5におけるAND回路3
12の出力、つまり領域抽出処理部106の出力を示し
ている。FIG. 7 (j) shows the AND circuit 3 in FIG.
12 indicates the output of the area extraction processing unit 106.
【0060】図7(j)において、ハッチングで示した
部分は演算部311から出力された編集領域信号ARE
Aに対しBI信号を用いてAND回路312により、境
界線上の編集領域信号AREAをマスクした部分を示し
ている。In FIG. 7 (j), the hatched portion indicates the edit area signal ARE output from the arithmetic unit 311.
A portion where the editing area signal AREA on the boundary line is masked by the AND circuit 312 using the BI signal for A is shown.
【0061】以上の構成から、領域抽出処理部106か
ら出力される編集領域信号は図7(k)に示すように、
入力された原稿画像データに対して、その境界線より内
側の全ての画素に対して編集領域信号を出力する。With the above configuration, the edit area signal output from the area extraction processing unit 106 is, as shown in FIG.
With respect to the input document image data, an edit area signal is output to all pixels inside the boundary line.
【0062】なお、本実施の形態1では、赤マーカによ
り指定されたAREA−R信号の編集領域に対する領域
抽出処理について説明してきたが、緑色で指定されたマ
ーカ、或は青色で指定されたマーカの場合についても同
様にして、AREA−G,AREA−B信号に基づいて
同様の領域抽出処理を行うことが可能である。In the first embodiment, the area extraction processing for the editing area of the AREA-R signal specified by the red marker has been described. However, the marker specified in green or the marker specified in blue In the same way, the same region extraction processing can be performed based on the AREA-G and AREA-B signals.
【0063】また本実施の形態1では、マーカによって
編集領域の指定を行った場合を例に説明してきたが、デ
ィジタイザなどのポインティングデバイスを用いて編集
領域の位置を指定する場合も、領域用メモリ104から
出力された編集領域信号に対して同様の領域抽出処理を
行うことにより、境界線より内側の全ての画素に対して
編集領域信号を出力することができる。但し、このとき
は、マーカデータ検出部101によるマーカデータの検
出は行わずに、制御部(CPU)などにより指定された
位置データを領域用メモリ104のPL7に直接書き込
むことにより編集位置を指定する。In the first embodiment, the case where the editing area is specified by the marker has been described as an example. However, when the position of the editing area is specified by using a pointing device such as a digitizer, the area memory is also used. By performing the same region extraction processing on the edit region signal output from 104, the edit region signal can be output to all pixels inside the boundary line. However, at this time, the marker data is not detected by the marker data detection unit 101, and the editing position is specified by directly writing the position data specified by the control unit (CPU) to the PL7 of the area memory 104. .
【0064】更に本実施の形態1では、領域抽出処理部
106に対して領域抽出処理用の400dpiの境界線
データとして境界線用メモリの出力を使用していたが、
領域用メモリ104から出力される編集領域信号に同期
させて、再度、画像信号を入力し、境界線データ検出部
102により生成した境界線を示すBI信号を使用する
ことにより、境界線用メモリ105を省略することも可
能である。Further, in the first embodiment, the output of the boundary memory is used as the 400 dpi boundary data for the area extraction processing unit 106.
The image signal is input again in synchronization with the editing area signal output from the area memory 104, and the BI signal indicating the boundary generated by the boundary data detection unit 102 is used. May be omitted.
【0065】[実施の形態2]上述の実施の形態1で
は、画像データに含まれる全ての画素に対して領域抽出
処理を行ったが、このような領域抽出処理は編集領域の
境界部分だけで行うだけでもよい。そこで本実施の形態
2では、編集領域の境界部分を検知し、その検知した部
分に対してのみ領域抽出処理を行うようにしている。そ
の場合の領域抽出処理部106構成を図8に示す。但
し、この図8は、赤色のマーカを示すAREA−R信号
に対する領域抽出処理のみを示しており、前述の図5と
共通する部分は同じ番号で示している。[Second Embodiment] In the first embodiment, the area extraction processing is performed on all the pixels included in the image data. However, such an area extraction processing is performed only at the boundary of the editing area. Just do it. Therefore, in the second embodiment, the boundary portion of the editing region is detected, and the region extraction processing is performed only on the detected portion. FIG. 8 shows the configuration of the region extraction processing unit 106 in that case. However, FIG. 8 shows only the area extraction processing for the AREA-R signal indicating the red marker, and the parts common to FIG. 5 described above are indicated by the same numbers.
【0066】フリップフロップ701は、領域用メモリ
104から入力された100dpiの境界線データであ
るBI’信号と、他の入力信号との同期を取るためのF
/Fである。702はAND回路で、BI’信号とAR
EA−R信号との論理積をとって出力する。ここでB
I’信号は領域用メモリ104により編集用の領域を生
成するための境界線を示す信号であり、原稿画像におい
て黒データである部分を“1”、それ以外を“0”で表
している。また、AREA−R信号は、境界線も含めた
編集領域を示しており、編集領域を“1”、それ以外を
“0”で表している。従って、AND回路702からは
BI’信号が“1”で、かつAREA−R信号が“1”
である部分で“1”となる信号が出力される。即ち、A
REA−R信号の境界部分で“1”、それ以外の部分で
“0”となる出力がAND回路702からされる。The flip-flop 701 is used to synchronize the BI ′ signal, which is 100 dpi boundary data input from the area memory 104, with another input signal.
/ F. 702 is an AND circuit, which outputs a BI ′ signal and an AR signal.
The logical product with the EA-R signal is output. Where B
The I ′ signal is a signal indicating a boundary line for generating an area for editing by the area memory 104. In the document image, a portion which is black data is represented by “1”, and other portions are represented by “0”. The AREA-R signal indicates an editing area including a boundary line, and the editing area is represented by "1", and the other areas are represented by "0". Accordingly, the BI 'signal is "1" and the AREA-R signal is "1" from the AND circuit 702.
A signal which becomes "1" is output at the portion where. That is, A
The AND circuit 702 outputs "1" at the boundary of the REA-R signal and "0" at other portions.
【0067】セレクタ703は、AND回路702の出
力が“1”のときはAND回路312から出力される領
域抽出処理の結果を選択して出力し、AND回路702
の出力が“0”のときはフリップフロップ310から出
力されるAREA−R信号を選択して出力する。When the output of the AND circuit 702 is “1”, the selector 703 selects and outputs the result of the region extraction processing output from the AND circuit 312, and outputs the result.
Is "0", the AREA-R signal output from the flip-flop 310 is selected and output.
【0068】以上の構成から、AND回路702から
“1”が出力されるAREA−R信号の境界部分では、
演算部311及びAND回路312による領域抽出処理
結果が出力され、それ以外の部分ではAREA−R信号
がそのまま出力される。From the above configuration, at the boundary of the AREA-R signal at which "1" is output from the AND circuit 702,
The result of the region extraction processing by the arithmetic unit 311 and the AND circuit 312 is output, and in other parts, the AREA-R signal is output as it is.
【0069】図9は、本実施の形態の画像編集装置の一
例を示す複写装置80の構成図である。FIG. 9 is a configuration diagram of a copying apparatus 80 showing an example of the image editing apparatus according to the present embodiment.
【0070】この複写装置80は、リーダ部100とプ
リンタ部200を有し、前述した図1の画像処理部は画
像処理ブロック88に含まれている。The copying apparatus 80 has a reader unit 100 and a printer unit 200, and the image processing unit of FIG. 1 is included in the image processing block 88.
【0071】83は原稿走査ユニットであって、原稿台
上の原稿84の画像を読み取るべく矢印Aの方向に移動
走査すると同時に、原稿走査ユニット83内の露光ラン
プ85を点灯する。原稿からの反射光は、集束性ロッド
レンズアレイ86に導かれて、密着型カラーCCDセン
サ87に集光される。密着型カラーCCDセンサ87
は、62.5μm(1/16mm)を1画素として10
24画素のチップが千鳥状に5チップで配列されてお
り、各画素は15.5μm×62.5μmに3分割さ
れ、各々にC,G,Yの色フイルタが貼りつけられてい
る。An original scanning unit 83 moves and scans in the direction of arrow A to read the image of the original 84 on the original table, and simultaneously turns on an exposure lamp 85 in the original scanning unit 83. The light reflected from the document is guided to the converging rod lens array 86 and collected on the contact type color CCD sensor 87. Contact type color CCD sensor 87
Corresponds to 62.5 μm (1/16 mm) as one pixel.
Twenty-four pixel chips are arranged in a staggered pattern with five chips. Each pixel is divided into three parts of 15.5 μm × 62.5 μm, and C, G, and Y color filters are attached to each of them.
【0072】密着型カラーCCDセンサ87に集光され
た光学像は、各色毎に電気信号に変換される。これら電
気信号は画像処理ブロック88によって、前述した処理
が行われる。画像処理ブロック88によって形成された
色分解画像電気信号は、プリンタ部200へ送信されて
印刷される。The optical image collected on the contact type color CCD sensor 87 is converted into an electric signal for each color. These electric signals are processed by the image processing block 88 as described above. The color separation image electric signal formed by the image processing block 88 is transmitted to the printer unit 200 and printed.
【0073】リーダ部100よりのカラー画像データ
は、PWM処理等が施されて、最終的にレーザを駆動す
る。画像データに対応して変調されたレーザ光は、高速
回転するポリゴンミラー89により高速走査し、ミラー
90に反射されて感光ドラム91の表面に画像に対応し
たドット露光を行う。レーザ光の1水平走査は、画像の
1水平走査に対応し、本実施の形態では1/16mmの
幅である。一方、感光ドラム91は矢印方向に定速回転
しているので、主走査方向には前述のレーザ光走査、副
走査方向には感光ドラム91の定速回転により、逐次平
面画像が露光される。感光ドラム91は露光に先立っ
て、帯電器97による一様帯電がなされており、帯電さ
れた感光体に露光されることによって潜像を形成する。
所定の色信号による潜像に対して、所定の色に対応した
現像器92〜95によって顕像化される。The color image data from the reader unit 100 is subjected to PWM processing and the like, and finally drives the laser. The laser light modulated according to the image data is scanned at high speed by a polygon mirror 89 rotating at high speed, and is reflected by the mirror 90 to perform dot exposure corresponding to the image on the surface of the photosensitive drum 91. One horizontal scan of a laser beam corresponds to one horizontal scan of an image, and has a width of 1/16 mm in this embodiment. On the other hand, since the photosensitive drum 91 is rotating at a constant speed in the direction of the arrow, the plane image is successively exposed by the laser beam scanning in the main scanning direction and the constant rotation of the photosensitive drum 91 in the sub-scanning direction. The photosensitive drum 91 is uniformly charged by the charger 97 prior to exposure, and forms a latent image by exposing the charged photoconductor to light.
A latent image based on a predetermined color signal is visualized by developing units 92 to 95 corresponding to a predetermined color.
【0074】例えば、カラーリーダーにおける第1回目
の原稿露光走査に対応して考えると、まず感光ドラム9
1上に原稿のイエロー成分のドットイメージが露光さ
れ、イエローの現像器92により現像される。次に、こ
のイエローのイメージは転写ドラム96上に巻回された
用紙上に感光ドラム91と転写ドラム96との接点に
て、転写帯電器98によりイエローのトナー画像が転写
形成される。これと同一過程をM(マゼンタ)、C(シ
アン)、BK(ブラック)について繰返し、用紙上に各
画像を重ね合わせることにより、4色トナーによるカラ
ー画像が形成される。For example, considering the first document exposure scanning in the color reader, first, the photosensitive drum 9 is scanned.
A dot image of a yellow component of the document is exposed on the surface 1 and is developed by a yellow developing unit 92. Next, a yellow toner image is transferred and formed on the paper wound on the transfer drum 96 by a transfer charger 98 at a contact point between the photosensitive drum 91 and the transfer drum 96. The same process is repeated for M (magenta), C (cyan), and BK (black), and each image is superimposed on a sheet to form a color image using four color toners.
【0075】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine, a facsimile, etc.) Device).
【0076】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(又はCPUや
MPU)が記憶媒体に格納されたプログラムコードを読
出し実行することによっても達成される。Another object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU or MPU) of the system or the apparatus. Is also achieved by reading and executing the program code stored in the storage medium.
【0077】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
【0078】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク、ハードディス
ク、光ディスク、光磁気ディスク、CD−ROM、CD
−R、磁気テープ、不揮発性のメモリカード、ROMな
どを用いることができる。As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
【0079】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部又は全部
を行い、その処理によって前述した実施形態の機能が実
現される場合も含まれる。When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) Performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0080】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部又は全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれる。Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, The case where the CPU of the function expansion board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is also included.
【0081】以上説明したように本実施の形態によれ
ば、画像信号に含まれる境界線データ及びその編集対象
領域を指定するための画像データ部分を識別し、その識
別したデータを圧縮してメモリに記憶するので、領域デ
ータを記憶するメモリの容量を少なくできる。As described above, according to the present embodiment, the boundary data included in the image signal and the image data portion for specifying the region to be edited are identified, and the identified data is compressed and stored in the memory. , The capacity of the memory for storing the area data can be reduced.
【0082】また、そのメモリ記憶されたデータを伸長
して読み出し、その読み出したデータから元の境界線で
囲まれた部分のデータを、簡単な回路構成で適正に取り
出すことができる。Further, the data stored in the memory can be expanded and read, and the data of the portion surrounded by the original boundary line can be properly extracted from the read data with a simple circuit configuration.
【0083】[0083]
【発明の効果】以上説明したように本発明によれば、原
稿画像を読み取った画像データの内、境界線とその境界
線により囲まれた領域を指定する画像部分のデータを圧
縮して記憶し、その圧縮して記憶されたデータを伸長し
てその境界線の内部に含まれる編集対象領域を示す画像
データ部分を抽出することができる。As described above, according to the present invention, of image data obtained by reading a document image, data of an image portion for designating a boundary line and an area surrounded by the boundary line is compressed and stored. The compressed and stored data can be decompressed to extract an image data portion indicating an editing target area included inside the boundary line.
【0084】また本発明によれば、少ないメモリ容量
で、指定された領域情報を記憶し、かつ簡単な構成で、
その領域情報を伸長して編集対象領域を示す情報を抽出
できるという効果がある。Further, according to the present invention, the designated area information is stored with a small memory capacity, and with a simple configuration,
There is an effect that the information indicating the editing target area can be extracted by expanding the area information.
【図1】本発明の実施の形態の画像編集装置の画像処理
部の機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of an image processing unit of an image editing device according to an embodiment of the present invention.
【図2】本実施の形態のマーカデータ検出部の構成を示
すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a marker data detection unit according to the present embodiment.
【図3】本実施の形態1のデータ圧縮部の構成を示すブ
ロック図である。FIG. 3 is a block diagram illustrating a configuration of a data compression unit according to the first embodiment.
【図4】本実施の形態1の描画用ICによる演算手順を
説明する図である。FIG. 4 is a diagram illustrating a calculation procedure by the drawing IC according to the first embodiment;
【図5】本実施の形態1の領域抽出処理部の構成を示す
ブロック図である。FIG. 5 is a block diagram illustrating a configuration of an area extraction processing unit according to the first embodiment.
【図6】実施の形態の演算部における入出力対応を説明
する図である。FIG. 6 is a diagram illustrating input / output correspondence in a calculation unit according to the embodiment.
【図7】本実施の形態の領域抽出処理部による処理の過
程を説明する図である。FIG. 7 is a diagram illustrating a process of a process performed by an area extraction processing unit according to the embodiment.
【図8】本発明の実施の形態2の領域抽出処理部の構成
を示すブロック図である。FIG. 8 is a block diagram illustrating a configuration of an area extraction processing unit according to a second embodiment of the present invention.
【図9】本実施の形態の画像編集装置の一例を示す複写
装置の構成図である。FIG. 9 is a configuration diagram of a copying apparatus illustrating an example of an image editing apparatus according to the present embodiment.
【図10】原稿画像における編集対象領域の指定処理を
説明する図である。FIG. 10 is a diagram illustrating a process of specifying an edit target area in a document image.
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B047 AA01 AB04 CA14 CB09 CB22 5B050 BA06 BA10 DA04 DA06 DA08 EA03 EA06 EA09 EA10 5B057 AA11 CC03 CE09 CG01 CH11 DA08 DB02 DB06 DC16 5C076 AA01 AA33 AA36 BA03 BA04 BA09 CA07 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B047 AA01 AB04 CA14 CB09 CB22 5B050 BA06 BA10 DA04 DA06 DA08 EA03 EA06 EA09 EA10 5B057 AA11 CC03 CE09 CG01 CH11 DA08 DB02 DB06 DC16 5C076 AA01 AA33 AA07 BA03
Claims (14)
を抽出する境界線抽出手段と、 前記画像信号に含まれ、前記境界線部分により区分けさ
れた編集領域を指定するための画像部分を抽出する抽出
手段と、 前記画像部分及び前記境界線部分を表わすデータを圧縮
する圧縮手段と、 前記圧縮手段により圧縮されたデータを格納する記憶手
段と、 前記記憶手段に記憶された前記圧縮されたデータに基づ
いて、圧縮された編集領域データを生成する生成手段
と、 前記生成手段により生成された前記編集領域データを伸
長すると共に、前記伸長した編集領域データと前記境界
線抽出手段により抽出された境界線部分とに基づいて編
集対象領域データを発生する編集対象領域データ生成手
段と、を有することを特徴とする画像処理装置。1. A boundary line extracting means for extracting a boundary line portion included in an input image signal, and extracting an image portion included in the image signal and specifying an editing area divided by the boundary line portion. Extraction means for performing compression; compression means for compressing the data representing the image portion and the boundary line portion; storage means for storing data compressed by the compression means; and the compressed data stored in the storage means. Generating means for generating compressed editing area data based on the above, and expanding the editing area data generated by the generating means; and extracting the expanded editing area data and the boundary extracted by the boundary line extracting means. An edit target area data generating unit that generates edit target area data based on the line portion.
記伸長した編集領域データの内、前記境界線抽出手段に
より抽出された境界線部分により囲まれ、かつ前記境界
線部分を含まないデータを前記編集対象領域データとす
ることを特徴とする請求項1に記載の画像処理装置。2. The editing target area data generating means converts the data, which is surrounded by the boundary part extracted by the boundary extracting part and does not include the boundary part, from the expanded editing area data. The image processing apparatus according to claim 1, wherein the data is edit target area data.
用いて記されたマーカに対応する画像部分で、前記抽出
手段は、赤、青及び緑のいずれかの色が所定の色である
ときに、当該色に対応する画像部分を示す信号を発生す
ることを特徴とする請求項1に記載の画像処理装置。3. The image portion is an image portion corresponding to a marker marked using a red, blue or green color, and the extracting means determines whether any one of red, blue and green is a predetermined color. The image processing apparatus according to claim 1, wherein when the color is a color, a signal indicating an image portion corresponding to the color is generated.
向及び副走査方向のそれぞれを1/N(Nは2以上の整
数)に圧縮することを特徴とする請求項1に記載の画像
処理装置。4. The image processing apparatus according to claim 1, wherein the compression unit compresses the data in each of a main scanning direction and a sub-scanning direction to 1 / N (N is an integer of 2 or more). apparatus.
発生された前記編集対象領域データに対して所定の画像
処理を行う処理手段を更に有することを特徴とする請求
項1乃至4のいずれか1項に記載の画像処理装置。5. The image processing apparatus according to claim 1, further comprising a processing unit configured to perform predetermined image processing on the edit target area data generated by the edit target area data generating unit. An image processing apparatus according to claim 1.
像信号であり、前記マーカは前記原稿画像に記されたマ
ーカであることを特徴とする請求項3に記載の画像処理
装置。6. The apparatus according to claim 3, wherein the image signal is an image signal obtained by reading a document image, and the marker is a marker written on the document image.
線部分を含むことを特徴とする請求項1に記載の画像処
理装置。7. The image processing apparatus according to claim 1, wherein the editing area data includes a compressed boundary portion.
を抽出する境界線抽出工程と、 前記画像信号に含まれ、前記境界線部分により区分けさ
れた編集領域を指定するための画像部分を抽出する抽出
工程と、 前記画像部分及び前記境界線部分を表わすデータを圧縮
する圧縮工程と、 前記圧縮工程で圧縮されたデータをメモリに格納する記
憶工程と、 前記メモリに記憶された前記圧縮されたデータに基づい
て、圧縮された編集領域データを生成する生成工程と、 前記生成工程で生成された前記編集領域データを伸長す
ると共に、前記伸長した編集領域データと前記境界線抽
出工程で抽出された境界線部分とに基づいて編集対象領
域データを発生する編集対象領域データ生成工程と、を
有することを特徴とする画像処理方法。8. A boundary line extracting step of extracting a boundary line portion included in the input image signal, and extracting an image portion included in the image signal and specifying an editing area divided by the boundary line portion. An extracting step, a compressing step of compressing the data representing the image portion and the boundary line portion, a storing step of storing the data compressed in the compressing step in a memory, and the compressed stored in the memory. A generating step of generating compressed editing area data based on the data, and expanding the editing area data generated in the generating step, and extracting the expanded editing area data and the boundary line extracting step. An edit target area data generating step of generating edit target area data based on the boundary portion.
前記伸長した編集領域データの内、前記境界線抽出工程
で抽出された境界線部分により囲まれ、かつ前記境界線
部分を含まないデータを前記編集対象領域データとする
ことを特徴とする請求項8に記載の画像処理方法。9. In the editing target area data generating step,
9. The data of the expanded edit area data, which is surrounded by the boundary part extracted in the boundary extraction step and does not include the boundary part, is set as the edit target area data. The image processing method according to 1.
を用いて記されたマーカに対応する画像部分で、前記抽
出工程では、赤、青及び緑のいずれかの色が所定の色で
あるときに、当該色に対応する画像部分を示す信号を発
生することを特徴とする請求項8に記載の画像処理方
法。10. The image portion is an image portion corresponding to a marker marked using red, blue, or green color, and in the extraction step, any one of red, blue, and green colors is specified. 9. The image processing method according to claim 8, wherein when the color is a color, a signal indicating an image portion corresponding to the color is generated.
査方向及び副走査方向のそれぞれを1/N(Nは2以上
の整数)に圧縮することを特徴とする請求項8に記載の
画像処理方法。11. The image processing apparatus according to claim 8, wherein in the compression step, the data is compressed to 1 / N (N is an integer of 2 or more) in each of a main scanning direction and a sub-scanning direction. Method.
生された前記編集対象領域データに対して所定の画像処
理を行う処理工程を更に有することを特徴とする請求項
8乃至11のいずれか1項に記載の画像処理方法。12. The apparatus according to claim 8, further comprising a processing step of performing predetermined image processing on the edit target area data generated in the edit target area data generation step. The image processing method according to 1.
画像信号であり、前記マーカは前記原稿画像に記された
マーカであることを特徴とする請求項10に記載の画像
処理方法。13. The image processing method according to claim 10, wherein the image signal is an image signal obtained by reading a document image, and the marker is a marker written on the document image.
界線部分を含むことを特徴とする請求項8に記載の画像
処理方法。14. The image processing method according to claim 8, wherein the edit area data includes a compressed boundary portion.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10350556A JP2000175025A (en) | 1998-12-09 | 1998-12-09 | Image processing method and apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10350556A JP2000175025A (en) | 1998-12-09 | 1998-12-09 | Image processing method and apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000175025A true JP2000175025A (en) | 2000-06-23 |
Family
ID=18411301
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10350556A Withdrawn JP2000175025A (en) | 1998-12-09 | 1998-12-09 | Image processing method and apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000175025A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN100461820C (en) * | 2005-03-14 | 2009-02-11 | 株式会社其恩斯 | Image processing device and log data generation method in image processing |
| JP2010114503A (en) * | 2008-11-04 | 2010-05-20 | Ricoh Co Ltd | Apparatus, method, program for processing image and recording medium |
| JP2013143594A (en) * | 2012-01-06 | 2013-07-22 | Fuji Xerox Co Ltd | Image processing device, designation mark estimation device, and program |
| JP2013175851A (en) * | 2012-02-24 | 2013-09-05 | Kyocera Document Solutions Inc | Image formation apparatus |
-
1998
- 1998-12-09 JP JP10350556A patent/JP2000175025A/en not_active Withdrawn
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN100461820C (en) * | 2005-03-14 | 2009-02-11 | 株式会社其恩斯 | Image processing device and log data generation method in image processing |
| JP2010114503A (en) * | 2008-11-04 | 2010-05-20 | Ricoh Co Ltd | Apparatus, method, program for processing image and recording medium |
| JP2013143594A (en) * | 2012-01-06 | 2013-07-22 | Fuji Xerox Co Ltd | Image processing device, designation mark estimation device, and program |
| CN103218801A (en) * | 2012-01-06 | 2013-07-24 | 富士施乐株式会社 | Image processing apparatus and method, specifying mark estimating apparatus and method |
| JP2013175851A (en) * | 2012-02-24 | 2013-09-05 | Kyocera Document Solutions Inc | Image formation apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH0410765A (en) | Image processing device | |
| US6366685B1 (en) | Image processing apparatus and method and storing medium | |
| JPH04261265A (en) | Picture processor | |
| US5777750A (en) | Image processing method and apparatus which includes a color reversing function for a two-color image | |
| JP2000175025A (en) | Image processing method and apparatus | |
| US6995862B1 (en) | Image processing apparatus and method and computer program product | |
| US7072060B2 (en) | Print control apparatus, print control method, and memory medium | |
| JPH08275007A (en) | Color correction device | |
| JP2003259140A (en) | Image processing system, image processing apparatus, processing method thereof, program, and recording medium | |
| JP2001218037A (en) | Image forming apparatus and control method thereof | |
| JP2557480B2 (en) | Color image processor | |
| JP4500393B2 (en) | Image forming system, information processing apparatus, and image processing apparatus control method | |
| JP3128872B2 (en) | Image editing device | |
| JP3684018B2 (en) | Image processing method and apparatus, program, and storage medium | |
| JP3787378B2 (en) | Image processing apparatus and method | |
| JP2001144943A (en) | Image processing method and image processing apparatus | |
| JP3010639B2 (en) | Image processing device | |
| JP2721347B2 (en) | Image processing device | |
| JP2557481B2 (en) | Color image processor | |
| JP3123133B2 (en) | Image editing device | |
| JP3822464B2 (en) | Image extraction method, image processing apparatus, and recording medium recording program | |
| JP2003037739A (en) | Data transfer control device, control method thereof, and control program | |
| JPH0512397A (en) | Image forming device | |
| JP2000069275A (en) | Image processing apparatus and image processing method | |
| JP2002354257A (en) | Image processing apparatus, image processing method, recording medium, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060307 |