[go: up one dir, main page]

JP2005269442A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2005269442A
JP2005269442A JP2004081515A JP2004081515A JP2005269442A JP 2005269442 A JP2005269442 A JP 2005269442A JP 2004081515 A JP2004081515 A JP 2004081515A JP 2004081515 A JP2004081515 A JP 2004081515A JP 2005269442 A JP2005269442 A JP 2005269442A
Authority
JP
Japan
Prior art keywords
image
image data
unit
data
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004081515A
Other languages
Japanese (ja)
Inventor
Kenji Mori
賢次 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004081515A priority Critical patent/JP2005269442A/en
Publication of JP2005269442A publication Critical patent/JP2005269442A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract


【課題】 枠画像を含んだ画像データにおいて、メモリサイズ及び計算量を増やすことなく、自然画像のみに対して適切に画像補正することが可能な画像処理装置を提供する。
【解決手段】 画像処理装置は、画像形成部と画像処理部と画像表示部を供える。画像形成部は、枠画像と自然画像を形成する。画像形成部は、枠画像をあらかじめ画像処理部に送信し、自然画像は画像上の枠を配置する部分(マスク部分)にマスク処理を施してから画像処理部に送信する。画像処理部はマスク部分を検出して非マスク部分のみに画像補正処理を行い、マスク部分は枠画像を用いて無補正で表示する。これにより、表示される枠画像の色が元のものと変わったり、逆に枠画像の影響で自然画像の色が変わったりすることはない。また、フレームごとに枠画像と自然画像の合成を行ってから転送する必要がないため、処理時間が短縮され、データの転送量も削減される。
【選択図】 図1

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of appropriately correcting only a natural image without increasing a memory size and a calculation amount in image data including a frame image.
An image processing apparatus includes an image forming unit, an image processing unit, and an image display unit. The image forming unit forms a frame image and a natural image. The image forming unit transmits the frame image to the image processing unit in advance, and the natural image is transmitted to the image processing unit after performing mask processing on a portion (mask portion) where the frame on the image is arranged. The image processing unit detects the mask portion, performs image correction processing only on the non-mask portion, and displays the mask portion without correction using a frame image. As a result, the color of the displayed frame image does not change from the original one, and conversely, the color of the natural image does not change due to the influence of the frame image. Further, since it is not necessary to transfer the frame image and the natural image after each frame is combined, the processing time is shortened and the data transfer amount is also reduced.
[Selection] Figure 1

Description

本発明は、枠画像を含んだ画像データを画像処理する画像処理装置に関する。   The present invention relates to an image processing apparatus that performs image processing on image data including a frame image.

イメージデータなどの自然画像に対して、枠、文字、下地などのグラフィックデータ画像(以下、単に「枠」又は「枠画像」とも呼ぶ)が重ねられた画像データを表示する画像処理装置などが知られている。このような枠画像が含まれた画像データを画像補正(例えば、コントラスト補正や彩度補正など)する際に、自然画像データだけでなく枠画像データをそのまま含めて画像補正すると、枠の色の影響で自然画像の補正が正しく行われなかったり、枠自身が画素毎に変化してしまったりすることが生じる。   Image processing apparatuses that display image data in which graphic data images (hereinafter simply referred to as “frames” or “frame images”) such as frames, characters, and backgrounds are superimposed on natural images such as image data are known. It has been. When image data including such a frame image is subjected to image correction (for example, contrast correction or saturation correction), if the image correction is performed including not only the natural image data but also the frame image data as it is, the color of the frame is changed. As a result, the natural image may not be corrected correctly, or the frame itself may change for each pixel.

更に、静止画でなく動画に枠画像が付いた場合、動画各フレームの特徴量により時間的に補正量が変化するような補正を枠画像を含めた画像に対して行うと、上記の問題に加え、本来時間的に変化すべきでない枠画像の色が、動画の変化に伴って時間的に変化してしまう。以上のような理由から、枠画像を除いた自然画像のみの情報を用いて、自然画像のみに対して補正処理を行い、枠画像の色は変化させないことが好適である。   In addition, when a frame image is attached to a moving image instead of a still image, if the correction including the frame image including the frame image is performed so that the correction amount changes temporally depending on the feature amount of each frame of the moving image, the above-described problem occurs. In addition, the color of the frame image that should not change with time changes with time as the moving image changes. For the reasons described above, it is preferable that correction processing is performed only on the natural image using only the natural image information excluding the frame image, and the color of the frame image is not changed.

枠画像が含まれた画像データへの画像処理方法として、画像形成側で各フレームの自然画像データに補正処理を行ってから枠画像と重ねて送信、表示するというものがある。この場合、画像形成側で処理を行っているため、補正処理と重ね合わせ処理にかなりの時間を要してしまう。一方、自然画像のみでなく枠画像も各フレームで一緒に画像処理側に転送し、画像処理側で補正処理を行ってから枠と重ねて表示するという画像処理方法もある。この場合は、変化しない枠データも毎フレーム送るため、転送量が増え、消費電力も増えてしまう。   As an image processing method for image data including a frame image, there is a method of performing correction processing on natural image data of each frame on the image forming side, and then transmitting and displaying the correction data superimposed on the frame image. In this case, since processing is performed on the image forming side, considerable time is required for correction processing and overlay processing. On the other hand, there is an image processing method in which not only a natural image but also a frame image is transferred to the image processing side together in each frame, and after correction processing is performed on the image processing side, the frame image is displayed superimposed on the frame. In this case, since the frame data that does not change is also sent every frame, the transfer amount increases and the power consumption also increases.

そこで、特許文献1及び2に記載された画像処理装置では、特定色(色数限定)の枠画像データであることを前提として、画像処理側で輝度分布や彩度分布などにより枠画像を判断し、枠以外を補正するという方法を用いている。また、特許文献3には、自然画像と枠画像は独立に画像処理側に送り、画像処理側で自然画像に対して画像処理を行ってメモリに保存し、枠画像は別のメモリに保存し、両メモリを読み出して自然画像と枠画像を重ねて表示するという画像処理方法が記載されている。   Therefore, in the image processing apparatuses described in Patent Documents 1 and 2, a frame image is determined on the image processing side based on a luminance distribution, a saturation distribution, or the like on the assumption that the frame image data has a specific color (number of colors limited). However, a method of correcting other than the frame is used. In Patent Document 3, a natural image and a frame image are independently sent to the image processing side, the image processing side performs image processing on the natural image and saves it in a memory, and the frame image is saved in another memory. In addition, an image processing method is described in which both memories are read and a natural image and a frame image are superimposed and displayed.

しかしながら、上記の特許文献1及び2に記載された技術では、枠画像自身が豊富な色数と分布を持った画像である場合は正確な枠画素の判断ができないという問題があった。一方、特許文献3に記載された技術では、自然画像と枠画像の全データを保存する必要があるため、使用メモリ量が増えてしまうという問題があった。   However, the techniques described in Patent Documents 1 and 2 have a problem that frame pixels cannot be accurately determined when the frame image itself is an image having an abundant number of colors and distribution. On the other hand, the technique described in Patent Document 3 has a problem in that the amount of memory used increases because it is necessary to save all data of a natural image and a frame image.

特開平10−208034号公報JP-A-10-208034 特開2000−13623号公報JP 2000-13623 A 特開2003−233366号公報JP 2003-233366 A

本発明は以上の点に鑑みてなされたものであり、枠画像を含んだ画像データにおいて、メモリサイズ及び計算量を増やすことなく、自然画像のみに対して適切に画像補正することが可能な画像処理装置を提供することを課題とする。   The present invention has been made in view of the above points, and in image data including a frame image, an image that can be appropriately corrected for only a natural image without increasing the memory size and the calculation amount. It is an object to provide a processing apparatus.

本発明の1つの観点では、画像処理装置は、画像形成部と画像処理部を備える画像処理装置は、前記画像形成部は、第1の画像データと第2の画像データを形成する画像形成処理手段と、前記第1の画像データと前記第2の画像データとが重なる部分を識別可能にするためのマスク処理を、前記第1の画像データに対して行うマスク処理手段と、前記マスク処理された第1の画像データと前記第2の画像データを、前記画像処理部に別々に転送する転送手段と、を備え、前記画像処理部は、前記転送された第1の画像データにおいて、前記重なる部分を検出するマスク検出手段と、前記第1の画像データ、又は前記重なる部分以外の第1の画像データを画像補正する画像補正手段と、前記マスク検出結果に基づいて、前記画像補正された第1の画像データと前記第2の画像データとを重ね合わせる手段と、を備えている。   In one aspect of the present invention, an image processing apparatus includes an image forming unit and an image processing unit, and the image forming unit forms first image data and second image data. And a mask processing means for performing a mask process on the first image data so that a portion where the first image data and the second image data overlap can be identified. Transfer means for separately transferring the first image data and the second image data to the image processing section, wherein the image processing section overlaps the transferred first image data in the overlapping manner. A mask detecting means for detecting a portion, an image correcting means for correcting the first image data or the first image data other than the overlapping portion, and the image corrected first based on the mask detection result. 1 It comprises a means for superimposing the image data and the second image data.

また、同様の観点では、画像形成部と画像処理部を備える画像処理装置において実行される画像処理方法は、第1の画像データと第2の画像データを形成する画像形成処理工程と、前記第1の画像データと前記第2の画像データとが重なる部分を識別可能にするためのマスク処理を、前記第1の画像データに対して行うマスク処理工程と、前記マスク処理された第1の画像データと前記第2の画像データを、前記画像形成部から前記画像処理部に別々に転送する転送工程と、を備え、前記転送された第1の画像データにおいて、前記重なる部分を検出するマスク検出工程と、前記第1の画像データ、又は前記重なる部分以外の第1の画像データを画像補正する画像補正工程と、前記マスク検出結果に基づいて、前記画像補正された第1の画像データと前記第2の画像データとを重ね合わせる工程と、を備えている。   From the same viewpoint, an image processing method executed in an image processing apparatus including an image forming unit and an image processing unit includes: an image forming processing step for forming first image data and second image data; A mask processing step for performing a mask process on the first image data so that a portion where one image data and the second image data overlap can be identified; and the first image subjected to the mask process And a transfer step of separately transferring the data and the second image data from the image forming unit to the image processing unit, and detecting the overlapping portion in the transferred first image data An image correction step of correcting the first image data or the first image data other than the overlapping portion, and the image corrected first image based on the mask detection result Includes a step of superimposing said the over data a second image data.

上記の画像処理装置は、画像形成部と画像処理部を備えている。画像形成部は、例えばCPU、RAM、ROM、制御ソフトェアなどを備えるホストコンピュータシステムである。画像処理部は、例えばLCD(Liquid Crystal Display)ドライバやLCDコントローラなどのハードウェア、及びその制御フォームウェアを備えている。画像形成部の画像形成手段は、例えば自然画像(イメージデータ)などの第1の画像データを形成し、例えば枠画像(グラフィックデータ)などの第2の画像データを形成する。マスク処理手段は、第1の画像データと第2の画像データとが重なる部分(以下、「マスク部分」とも呼ぶ)を識別可能にするためのマスク処理を、第1の画像データに行う。こうして、画像形成部は、マスク処理後の第1の画像データと第2の画像データを別々に画像処理部に転送する。   The image processing apparatus includes an image forming unit and an image processing unit. The image forming unit is a host computer system including, for example, a CPU, RAM, ROM, control software, and the like. The image processing unit includes hardware such as an LCD (Liquid Crystal Display) driver and an LCD controller, and control formware thereof. The image forming unit of the image forming unit forms first image data such as a natural image (image data), for example, and forms second image data such as a frame image (graphic data). The mask processing means performs a mask process on the first image data so that a portion where the first image data and the second image data overlap (hereinafter also referred to as “mask portion”) can be identified. In this way, the image forming unit separately transfers the first image data and the second image data after the mask processing to the image processing unit.

画像処理部のマスク検出手段は、マスク部分が識別可能なようにマスク処理された第1の画像データにおけるマスク部分を検出する。そして、画像補正手段は、第1の画像データ、又はマスク部分以外の第1の画像データ(以下、「非マスク部分」とも呼ぶ)に対して画像補正を行う。重ね合わせ手段は、画像補正された第1の画像データと画像補正されていない第2の画像データを、マスク検出結果に基づいて重ね合わせる。これにより、画像補正された第1の画像データ(非マスク部分の画像のみ)と画像補正されていない第2の画像データが作成される。よって、上記の画像処理装置及び画像処理方法では、この作成された画像データが表示される場合、表示される第2の画像データの色が元のものと変わったり、逆に第2の画像データの影響で表示される第1の画像データの色が変わったりすることはない。また、画像形成部はフレームごとに第2の画像データと第1の画像データの合成を行ってから転送する必要がないため、処理時間が短縮され、データの転送量も削減される。   The mask detection means of the image processing unit detects the mask portion in the first image data masked so that the mask portion can be identified. Then, the image correction means performs image correction on the first image data or first image data other than the mask portion (hereinafter also referred to as “non-mask portion”). The superimposing means superimposes the image-corrected first image data and the non-image-corrected second image data based on the mask detection result. As a result, first image data that has undergone image correction (only the image of the non-mask portion) and second image data that has not undergone image correction are created. Therefore, in the above-described image processing apparatus and image processing method, when the created image data is displayed, the color of the displayed second image data changes from the original one, and conversely, the second image data The color of the first image data displayed does not change due to the influence of. In addition, since the image forming unit does not need to transfer the second image data and the first image data after each frame is combined, the processing time is shortened and the data transfer amount is also reduced.

本発明の一態様では、画像処理装置は、前記マスク処理手段は、前記第1の画像データの特定ビットに前記重なる部分を識別するためのデータを付加し、前記マスク検出手段は、前記特定ビットの値に基づいて前記重なる部分を検出する。この態様では、第1の画像データの特定ビットに、マスク部分と非マスク部分の画像データとで異なるデータが付加される。   In one aspect of the present invention, in the image processing apparatus, the mask processing unit adds data for identifying the overlapping portion to the specific bit of the first image data, and the mask detection unit includes the specific bit. The overlapping portion is detected based on the value of. In this aspect, different data is added to the specific bits of the first image data between the image data of the mask portion and the non-mask portion.

本発明の他の一態様では、画像処理装置は、前記マスク処理手段は、前記重なる部分の画像データを固有値にし、前記マスク検出手段は、前記転送された第1の画像データが固有値であれば、当該画像データを前記重なる部分であると決定する。この態様では、マスク部分の画像データを、非マスク部分の画像データが有し得ないデータ(固有値)にする。これにより、非マスク部分とマスク部分の画像データが識別可能になる。   In another aspect of the present invention, in the image processing apparatus, the mask processing unit sets the overlapping portion of the image data to a unique value, and the mask detection unit determines that the transferred first image data is a unique value. The image data is determined to be the overlapping portion. In this aspect, the image data of the mask portion is made data (eigenvalue) that cannot be possessed by the image data of the non-mask portion. Thereby, the image data of the non-mask portion and the mask portion can be identified.

本発明の別の一態様によれば、画像処理装置は、前記マスク処理手段は、前記重なる部分の画像データのビット数及び色形式を変換し、前記マスク検出手段は、前記転送された第1の画像データの所定ビットのデータに基づいて、前記重なる部分を検出する。この態様では、マスク部分の画像データをビット数及び色形式を変換することで、マスク部分の画像データ所定ビットのデータが、非マスク部分の画像データが有し得ない値となり、両者が識別可能になる。   According to another aspect of the present invention, in the image processing apparatus, the mask processing unit converts a bit number and a color format of the image data of the overlapping portion, and the mask detection unit is configured to transfer the transferred first data. The overlapping portion is detected based on predetermined bit data of the image data. In this mode, by converting the number of bits and the color format of the image data of the mask part, the data of the predetermined part of the image data of the mask part becomes a value that the image data of the non-mask part cannot have, and both can be identified become.

本発明の他の観点では、画像形成部と画像処理部を備える画像処理装置は、前記画像形成部は、第1の画像データと第2の画像データを形成する画像形成処理手段と、前記第1の画像データ又は前記第2の画像データの色形式を変換し、当該第1の画像データと当該第2の画像データを合成する合成手段と、前記合成された画像データを前記画像処理部に転送する転送手段と、を備え、前記画像処理部は、前記転送された画像データを、前記第1の画像データと前記第2の画像データに分離する分離手段と、前記分離された第1の画像データを画像補正する画像補正手段と、前記画像補正された第1の画像データと、前記分離された第2の画像データとを重ね合わせる手段と、を備えている。   In another aspect of the present invention, in an image processing apparatus including an image forming unit and an image processing unit, the image forming unit includes image forming processing means for forming first image data and second image data; Converting the color format of the first image data or the second image data, and combining the first image data and the second image data; and combining the combined image data to the image processing unit. A transfer means for transferring, wherein the image processing unit separates the transferred image data into the first image data and the second image data, and the separated first Image correction means for correcting image data, and means for superimposing the image-corrected first image data and the separated second image data.

また、同様の観点では、画像形成部と画像処理部を備える画像処理装置において実行される画像処理方法は、第1の画像データと第2の画像データを形成する画像形成処理工程と、前記第1の画像データ又は前記第2の画像データの色形式を変換し、当該第1の画像データと当該第2の画像データを合成する合成工程と、前記合成された画像データを、前記画像形成部から前記画像処理部に転送する転送工程と、を備え、前記転送された画像データを、前記第1の画像データと前記第2の画像データに分離する分離工程と、前記分離された第1の画像データを画像補正する画像補正工程と、前記画像補正された第1の画像データと、前記分離された第2の画像データとを重ね合わせる工程と、を備えている。   From the same viewpoint, an image processing method executed in an image processing apparatus including an image forming unit and an image processing unit includes: an image forming processing step for forming first image data and second image data; The image forming unit converts the color format of the first image data or the second image data, combines the first image data and the second image data, and combines the combined image data with the image forming unit. A transfer step of transferring the transferred image data to the first image data and the second image data, and a transfer step of transferring the transferred image data to the image processing unit. An image correction step of correcting the image data; and a step of superimposing the image-corrected first image data and the separated second image data.

上記の画像処理装置及び画像処理方法によっても、画像補正された第1の画像と画像補正されていない第2の画像データを適切に表示することができる。したがって、表示される第2の画像データの色が元のものと変わったり、逆に第2の画像データの影響で表示される第1の画像データの色が変わったりすることはない。さらに、上記の画像処理装置及び画像処理方法では、画像形成部から画像処理部へ第1の画像データデータと第2の画像データデータを同時に転送している。即ち、第1の画像データデータと第2の画像データデータを合成した1つの画像データを転送している。これにより、第1の画像データ及び第2の画像データが動画である場合でも転送量は増加しない。また、画像処理部にフレームメモリなどがなく、第2の画像データと第1の画像データを別々に転送して重ねることができない場合にも、適切に画像処理を行うことができる。   Also by the image processing apparatus and the image processing method described above, the first image that has been subjected to image correction and the second image data that has not been subjected to image correction can be appropriately displayed. Therefore, the color of the displayed second image data does not change from the original one, and conversely, the color of the first image data displayed does not change due to the influence of the second image data. Further, in the above image processing apparatus and image processing method, the first image data data and the second image data data are simultaneously transferred from the image forming unit to the image processing unit. That is, one image data obtained by combining the first image data data and the second image data data is transferred. As a result, the transfer amount does not increase even when the first image data and the second image data are moving images. Further, even when the image processing unit does not have a frame memory or the like and the second image data and the first image data cannot be transferred separately and superimposed, the image processing can be appropriately performed.

好適には、前記合成手段は、前記第1の画像データ又は前記第2の画像データのビット数及び色形式を変換し、前記分離手段は、前記転送された画像データの所定ビットのデータに基づいて分離する。この場合、第2の画像データをビット数及び色形式を変換することで、第2の画像データと第1の所定ビットの画像データが異なるものとなり、分離可能になる。   Preferably, the synthesizing unit converts the number of bits and the color format of the first image data or the second image data, and the separation unit is based on predetermined bit data of the transferred image data. To separate. In this case, by converting the number of bits and the color format of the second image data, the second image data and the image data of the first predetermined bit become different and can be separated.

更に、好適には、前記画像形成処理手段は、前記第1の画像データよりもビット数が少ない第2の画像データを形成し、前記合成手段は、前記第2の画像データの不足するビット数に所定値を付加し、当該第2の画像データを並べ替え、前記分離手段は、前記転送された画像データの所定ビットのデータに基づいて分離する。この場合、第2の画像データの不足するビット領域に付加された所定値を見ることで、第1の画像データと第2の画像データが分離される。第2の画像データの階調数は必ずしも多くを必要としない場合があり、上記の画像処理装置は、第2の画像データの階調数が少ないことを利用して有効に画像処理を行うことができる。   Further preferably, the image forming processing unit forms second image data having a smaller number of bits than the first image data, and the synthesizing unit sets the number of bits that the second image data is insufficient. A predetermined value is added to the second image data, and the second image data is rearranged, and the separation unit separates the second image data based on predetermined bit data of the transferred image data. In this case, the first image data and the second image data are separated by looking at the predetermined value added to the bit area where the second image data is insufficient. The number of gradations of the second image data may not necessarily be large, and the above image processing apparatus performs image processing effectively by utilizing the small number of gradations of the second image data. Can do.

以下、図面を参照して本発明の好適な実施形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
(画像表示装置の構成)
まず、本発明の第1実施形態に係る画像処理部を含む画像表示装置について、図1を用いて説明する。図1には、第1実施形態に係る画像表示装置101の概略構成を示す。
[First Embodiment]
(Configuration of image display device)
First, an image display apparatus including an image processing unit according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 shows a schematic configuration of an image display apparatus 101 according to the first embodiment.

画像表示装置101は、主に、画像形成部1と、画像処理部2と、画像表示部3とから構成される。画像表示装置101においては、画像形成部1で形成された画像を画像処理部2が画像処理し、処理後の画像が画像表示部3に表示される。画像形成部1と画像処理部2は、前述した画像処理装置として機能する。   The image display apparatus 101 mainly includes an image forming unit 1, an image processing unit 2, and an image display unit 3. In the image display device 101, the image processing unit 2 performs image processing on the image formed by the image forming unit 1, and the processed image is displayed on the image display unit 3. The image forming unit 1 and the image processing unit 2 function as the above-described image processing apparatus.

画像形成部1は、画像形成処理部5、7と、合成情報形成部6と、マスク処理部8と、画像メモリ9、10とを備える。画像形成部1は、例えばCPU、RAM、ROM、通信装置、描画装置、ディスクドライブ装置、制御ソフトウェアなどを備えるホストコンピュータシステムとすることができる。   The image forming unit 1 includes image forming processing units 5 and 7, a composite information forming unit 6, a mask processing unit 8, and image memories 9 and 10. The image forming unit 1 can be a host computer system including a CPU, RAM, ROM, communication device, drawing device, disk drive device, control software, and the like.

画像形成処理部5は、動画や静止画の自然画像(イメージデータ)を形成する。この自然画像は、例えばRGB各“8”ビット、計“24”ビットの画像データである。また、画像形成処理部5は、自然画像を人間の視覚特性に合わせて輝度・色差(YUV)を示す色形式に変換してもよい。画像処理形成部5は、形成した自然画像に対応する信号S1をマスク処理部8に供給する。画像処理形成部5は、前述した第1の画像データを形成する。   The image forming processor 5 forms a natural image (image data) such as a moving image or a still image. This natural image is, for example, image data of “8” bits for each of RGB, for a total of “24” bits. Further, the image formation processing unit 5 may convert the natural image into a color format indicating luminance / color difference (YUV) in accordance with human visual characteristics. The image processing forming unit 5 supplies a signal S 1 corresponding to the formed natural image to the mask processing unit 8. The image processing forming unit 5 forms the first image data described above.

画像形成処理部7は、上記のような自然画像に重ね合わせる枠、文字、図形などの画像データ(即ち、「枠画像」)を形成する。枠画像は、グラフィックデータであり、例えばRGB形式の画像データである。画像処理形成部7は、形成した枠画像に対応する信号S4を画像メモリ10に書き込む。なお、枠画像が静止画である場合は、フレーム毎に枠画像は変化しないためフレームごとに送る必要はない。画像処理形成部7は、前述した第2の画像データを形成する。以上のように画像形成処理部5、7は、画像形成部1において画像形成処理手段として機能する。   The image formation processing unit 7 forms image data such as a frame, a character, and a figure to be superimposed on the natural image as described above (that is, “frame image”). The frame image is graphic data, for example, image data in RGB format. The image processing forming unit 7 writes a signal S4 corresponding to the formed frame image in the image memory 10. If the frame image is a still image, the frame image does not change from frame to frame, so there is no need to send it every frame. The image processing forming unit 7 forms the second image data described above. As described above, the image forming processing units 5 and 7 function as image forming processing means in the image forming unit 1.

合成情報形成部6は、自然画像と枠画像を重ね合わせる条件など(以下、「合成情報」と呼ぶ)を形成する。この合成情報は、例えば各画素において自然画像と枠画像のどちらを優先的に表示させるかなどの情報を示す。合成情報形成部6は、形成した合成情報に対応する信号S2をマスク処理部8に供給する。なお、上記の枠画像が静止画である場合は、フレーム毎に枠画像は変化しないため、フレームごとに合成情報を送る必要はない。   The composite information forming unit 6 forms conditions for superimposing the natural image and the frame image (hereinafter referred to as “composite information”). This combination information indicates information such as which one of the natural image and the frame image is preferentially displayed in each pixel, for example. The combined information forming unit 6 supplies a signal S2 corresponding to the formed combined information to the mask processing unit 8. If the frame image is a still image, the frame image does not change for each frame, so that it is not necessary to send composite information for each frame.

マスク処理部8は、取得した自然画像データS1を合成情報S2に基づいて、マスク処理する。マスク処理は、自然画像データと枠画像データとが重なる部分が識別できるようにするために、自然画像データS1に対して処理を行う。以下では、自然画像と枠画像とが重なる部分を「マスク部分」と呼び、自然画像と枠画像と重ならない部分を「非マスク部分」と呼ぶ。マスク処理部8は、画像形成部1において、前述したマスク処理手段として機能する。マスク処理部8は、マスク処理した画像データに対応する信号S3を画像メモリ9に書き込む。なお、具体的なマスク処理については、詳細は後述する。   The mask processing unit 8 performs mask processing on the acquired natural image data S1 based on the synthesis information S2. In the mask process, the natural image data S1 is processed so that a portion where the natural image data and the frame image data overlap can be identified. Hereinafter, a portion where the natural image and the frame image overlap is referred to as a “mask portion”, and a portion which does not overlap the natural image and the frame image is referred to as a “non-mask portion”. The mask processing unit 8 functions as the above-described mask processing unit in the image forming unit 1. The mask processing unit 8 writes a signal S3 corresponding to the masked image data in the image memory 9. The specific mask processing will be described later in detail.

画像メモリ9は、マスク処理された自然画像データS3が書き込まれ、これを記憶するメモリである。また、画像メモリ10は、画像形成処理部7より書き込まれた枠画像データS4を記憶するメモリである。   The image memory 9 is a memory in which the masked natural image data S3 is written and stored. The image memory 10 is a memory for storing frame image data S4 written by the image forming processing unit 7.

画像メモリ5からは自然画像データS5が画像処理部2へ転送される。また、画像メモリ10からは枠画像データS6が画像処理部2へ転送される。ここで、自然画像データS5の転送と枠画像データS6の転送は同時に行われるのではなく、同一の信号線を経由して時間的に別々に行われる。   The natural image data S5 is transferred from the image memory 5 to the image processing unit 2. Further, the frame image data S 6 is transferred from the image memory 10 to the image processing unit 2. Here, the transfer of the natural image data S5 and the transfer of the frame image data S6 are not performed simultaneously, but are performed separately in time via the same signal line.

画像処理部2は、マスク検出部11と、画像補正部12と、メモリ書き込み制御部13と、フレームメモリ14とを備える。画像処理部2は、例えばLCD(Liquid Crystal Display)ドライバやLCコントローラなどのハードウェア、及びその制御ファームウェアを備える。   The image processing unit 2 includes a mask detection unit 11, an image correction unit 12, a memory write control unit 13, and a frame memory 14. The image processing unit 2 includes hardware such as an LCD (Liquid Crystal Display) driver and an LC controller, and control firmware thereof.

マスク検出部11は、画像メモリ9より自然画像データS5を読み出して、マスク検出を行う。マスク検出部11は、取得した自然画像データS5におけるマスク部分の画像データを検出する。そして、マスク検出部11は、自然画像データの非マスク部分の画像データS7を画像補正部12に供給する。また、マスク検出部11は、マスク部分の画像データに関する情報(以下、「マスク指示情報」と呼ぶ)S8をメモリ書き込み制御部13に供給する。マスク指示情報は、マスク処理部8が取得する合成情報などに基づいて作成される。この場合、マスク検出部11は、マスク指示情報S8を画像補正部12での処理における所要クロック数と同じだけディレイさせる。以上のように、マスク検出部11は、画像処理部2において前述したマスク検出手段として機能する。   The mask detection unit 11 reads the natural image data S5 from the image memory 9 and performs mask detection. The mask detection unit 11 detects the image data of the mask portion in the acquired natural image data S5. Then, the mask detection unit 11 supplies the image correction unit 12 with the image data S7 of the non-mask portion of the natural image data. Further, the mask detection unit 11 supplies information (hereinafter referred to as “mask instruction information”) S <b> 8 regarding the image data of the mask portion to the memory write control unit 13. The mask instruction information is created based on the synthesis information acquired by the mask processing unit 8. In this case, the mask detection unit 11 delays the mask instruction information S8 by the same number as the required number of clocks in the processing in the image correction unit 12. As described above, the mask detection unit 11 functions as the mask detection unit described above in the image processing unit 2.

画像補正部12は、マスク検出部11より供給される非マスク部分の画像データS7に対して画像補正処理を行う。画像補正としては、例えば明度の調整や、コントラストの補正や、彩度の補正など公知のものが行われる。そして、画像補正部12は、画像補正後の画像データS9をメモリ書き込み制御部13に供給する。以上より、画像補正部12は、画像処理部2において画像補正手段として機能する。   The image correction unit 12 performs image correction processing on the image data S7 of the non-mask portion supplied from the mask detection unit 11. As the image correction, known methods such as brightness adjustment, contrast correction, and saturation correction are performed. Then, the image correction unit 12 supplies the image data S9 after the image correction to the memory write control unit 13. As described above, the image correction unit 12 functions as an image correction unit in the image processing unit 2.

メモリ書き込み制御部13は、取得した画像補正された非マスク部分の画像データS9と枠画像に対応する信号S6を、フレームメモリ14に書き込むための制御を行う。この場合、メモリ書き込み制御部13は、マスク検出部11より取得するマスク指示信号S8に基づいて書き込み制御を行う。即ち、メモリ書き込み制御部13は、自然画像データS9の非マスク部分のデータのみと、枠画像データS6のうちマスク部分に当たるデータとがフレームメモリ14に書き込まれるようにする。これにより、フレームメモリ14には、画像補正された自然画像データ(枠画像と重なる部分を除く画像)と画像補正されていない枠画像(以下、これらを合わせて「合成画像」と呼ぶ)とが記憶される。以上のように、メモリ書き込み制御部13は、前述した重ね合わせる手段として機能する。   The memory writing control unit 13 performs control for writing the acquired image corrected image data S9 of the non-masked portion and the signal S6 corresponding to the frame image to the frame memory 14. In this case, the memory write control unit 13 performs write control based on the mask instruction signal S8 acquired from the mask detection unit 11. That is, the memory write control unit 13 writes only the data of the non-masked portion of the natural image data S9 and the data corresponding to the masked portion of the frame image data S6 into the frame memory 14. As a result, the frame memory 14 includes image-corrected natural image data (images excluding a portion overlapping the frame image) and image-corrected frame images (hereinafter collectively referred to as “composite images”). Remembered. As described above, the memory write control unit 13 functions as the superimposing means described above.

フレームメモリ14は、メモリ書き込み制御部13による書き込み信号S10に基づいて合成画像データを記憶する。フレームメモリ14に記憶された合成画像データは、画像表示部3に読み出される。   The frame memory 14 stores the composite image data based on the write signal S10 from the memory write control unit 13. The composite image data stored in the frame memory 14 is read out to the image display unit 3.

画像表示部3は、フレームメモリ14に記憶された合成画像データS11を読み出して、これを表示する。画像表示部3は、LCDなどの表示デバイスを備える。画像表示部3は、RGB形式の画像データを表示し、合計“24”ビット(RGB各“8”ビット)又は“18”ビット(RGB各“6”ビット)の画像データを表示することができる。   The image display unit 3 reads the composite image data S11 stored in the frame memory 14 and displays it. The image display unit 3 includes a display device such as an LCD. The image display unit 3 displays RGB format image data, and can display a total of “24” bits (“8” bits for each RGB) or “18” bits (“6” bits for each RGB). .

以上のように、本実施形態に係る画像表示装置101では、画像補正された自然画像(非マスク部分の画像のみ)と画像補正されていない枠画像とが適切に画像表示部3に表示される。即ち、枠画像は画像補正されていないので、表示される枠画像の色が元のものと変わったり、逆に枠画像の影響で表示される自然画像の色が変わったりすることはない。また、本実施形態に係る画像表示装置101では、自然画像が動画であっても、画像形成部1はフレームごとに枠画像と自然画像の合成を行ってから転送する必要がないため、処理時間が短縮され、データの転送量も削減される。更に、画像形成部1は枠画像と自然画像を別々に画像処理部2に転送しているが、フレームメモリは1フレーム分だけでいいのでメモリコストが増加することもない。   As described above, in the image display apparatus 101 according to the present embodiment, the natural image that has been image-corrected (only the image of the non-mask portion) and the frame image that has not been image-corrected are appropriately displayed on the image display unit 3. . That is, since the frame image is not image-corrected, the color of the displayed frame image does not change from the original one, and conversely, the color of the natural image displayed by the influence of the frame image does not change. Further, in the image display apparatus 101 according to the present embodiment, even if the natural image is a moving image, the image forming unit 1 does not need to transfer the frame image and the natural image for each frame, so that the processing time And the amount of data transferred is also reduced. Further, the image forming unit 1 transfers the frame image and the natural image separately to the image processing unit 2, but the frame memory is only required for one frame, so that the memory cost does not increase.

(画像処理手順)
以下では、第1実施形態に係る画像処理手順を、図2を用いて具体的に説明する。
(Image processing procedure)
Hereinafter, the image processing procedure according to the first embodiment will be specifically described with reference to FIG.

まず、画像形成部1での処理手順について説明する。画像形成処理部5は自然画像A1を形成し、画像形成処理部7は枠画像B1を形成する。マスク処理部8は、自然画像A1に対してマスク処理する。第1実施形態では、マスク処理部8は、マスク部分と非マスク部分を識別可能にするために、自然画像データの特定ビットに所定値を付加する。具体的には、マスク処理部8は、マスク部分A2aは特定ビット値を「0」にし、非マスク部分A2bは特定ビット値を「1」にする。以上のようにマスク処理された自然画像A2は画像メモリ9に記憶され、画像処理部2のマスク検出部11により読み出される。   First, a processing procedure in the image forming unit 1 will be described. The image formation processing unit 5 forms a natural image A1, and the image formation processing unit 7 forms a frame image B1. The mask processing unit 8 performs mask processing on the natural image A1. In the first embodiment, the mask processing unit 8 adds a predetermined value to a specific bit of the natural image data so that the mask portion and the non-mask portion can be identified. Specifically, the mask processing unit 8 sets the specific bit value to “0” for the mask portion A2a, and sets the specific bit value to “1” for the non-mask portion A2b. The natural image A2 masked as described above is stored in the image memory 9 and read by the mask detection unit 11 of the image processing unit 2.

次に、画像処理部2での処理手順について説明する。マスク検出部11では、読み出した自然画像データS5に対してマスク検出を行う。具体的には、マスク検出部11は、自然画像データの特定ビット値に基づいて、マスク部分を検出する。即ち、マスク検出部11は、この特定ビット値が「0」であれば非マスク部分であると判断し、特定ビット値が「1」であればマスク部分であると判断する。こうしてマスク検出された自然画像A3(非マスク部分の画像データ)は画像保持されて、画像補正部12に供給される。一方、マスク検出の結果は、例えば1ビットのマスク指示情報S8として(即ち、特定ビットの情報)、画像補正に要する所定クロック数と同じだけディレイされてメモリ書き込み制御部13に供給される。   Next, a processing procedure in the image processing unit 2 will be described. The mask detection unit 11 performs mask detection on the read natural image data S5. Specifically, the mask detection unit 11 detects a mask portion based on a specific bit value of natural image data. That is, the mask detection unit 11 determines that the specific bit value is “0” and is a non-mask portion, and determines that the specific bit value is “1” and is the mask portion. The natural image A <b> 3 (image data of the non-mask part) detected in this way is held and supplied to the image correction unit 12. On the other hand, the result of mask detection is supplied to the memory write control unit 13 after being delayed by the same number of clocks required for image correction, for example, as 1-bit mask instruction information S8 (that is, specific bit information).

画像保持された自然画像データA3は、画像補正部12にて画像補正される。画像補正された自然画像データS9と、画像補正されていない枠画像データS6は、メモリ書き込み制御部13にてフレームメモリ14への書き込み制御が行われる。メモリ書き込み制御部13は、まず、まず枠画像データS6をフレームメモリ14に書き込むようにする。次に、メモリ書き込み制御部13は、マスク検出部11によるマスク指示情報S8に基づいて、自然画像データS9の非マスク部分のデータのみをフレームメモリ14に書き込むようにする。以上により、フレームメモリ14には、合成画像データが記憶される。そして、フレームメモリ14に記憶された合成画像データに対応する信号S11は、画像表示部3に読み出される。画像表示部3は、フレームメモリ14に記憶された合成画像C1を表示する。   The natural image data A3 having the image held is subjected to image correction by the image correction unit 12. The natural image data S9 subjected to image correction and the frame image data S6 not subjected to image correction are controlled to be written to the frame memory 14 by the memory write control unit 13. First, the memory writing control unit 13 writes the frame image data S6 into the frame memory 14. Next, the memory write control unit 13 writes only the data of the non-masked portion of the natural image data S9 into the frame memory 14 based on the mask instruction information S8 from the mask detection unit 11. As described above, the composite image data is stored in the frame memory 14. Then, the signal S11 corresponding to the composite image data stored in the frame memory 14 is read out to the image display unit 3. The image display unit 3 displays the composite image C1 stored in the frame memory 14.

[第2実施形態]
次に、本発明の第2実施形態について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

第2実施形態に係る画像表示装置の構成は、第1実施形態で示した画像表示装置101と同様であるため説明を省略する。ここでは、第2実施形態に係る画像処理手順について説明する。   Since the configuration of the image display apparatus according to the second embodiment is the same as that of the image display apparatus 101 shown in the first embodiment, the description thereof is omitted. Here, an image processing procedure according to the second embodiment will be described.

図3は、第2実施形態における画像処理手順について示す図である。第2実施形態における画像処理は、マスク処理方法及びマスク検出方法に関して第1実施形態で示したものとは異なる。以下では、第2実施形態に係るマスク処理方法及びマスク検出方法のみについて詳細に説明する。   FIG. 3 is a diagram illustrating an image processing procedure in the second embodiment. The image processing in the second embodiment is different from that shown in the first embodiment with respect to the mask processing method and the mask detection method. Hereinafter, only the mask processing method and the mask detection method according to the second embodiment will be described in detail.

画像形成部1のマスク処理部8では、画像形成処理部5で形成されたRGB形式の自然画像データを、以下の式(1)〜(3)に従ってYUV形式のデータに変換する(以下、「YUV変換」と呼ぶ)。RGB及びYUVの階調数は、「0<=RGB<=255」で、「0<=YUV<=255」であるものとする。   The mask processing unit 8 of the image forming unit 1 converts the RGB format natural image data formed by the image forming processing unit 5 into YUV format data according to the following equations (1) to (3) (hereinafter, “ Called YUV conversion). The gradation numbers of RGB and YUV are “0 <= RGB <= 255” and “0 <= YUV <= 255”.

Y = + 0.299 R + 0.587 G + 0.114 B 式(1)
U = - 0.168 R - 0.332 G + 0.500 B + 128 式(2)
V = + 0.500 R - 0.419 G - 0.081 B + 128 式(3)
このとき、マスク処理部8は、自然画像のマスク部分のデータを固有値に変換する。例えば、マスク処理部8は、自然画像のマスク部分のデータをY=U=V=0に変換する。Y=U=V=0は、上式から明らかなように自然画像データをYUV変換した場合に存在し得ない値であるため、マスク部分と非マスク部分のデータを識別することが可能となる。
Y = + 0.299 R + 0.587 G + 0.114 B Formula (1)
U =-0.168 R-0.332 G + 0.500 B + 128 Formula (2)
V = + 0.500 R-0.419 G-0.081 B + 128 Formula (3)
At this time, the mask processing unit 8 converts the data of the mask portion of the natural image into eigenvalues. For example, the mask processing unit 8 converts the data of the mask portion of the natural image into Y = U = V = 0. Y = U = V = 0 is a value that cannot exist when natural image data is subjected to YUV conversion, as is apparent from the above equation, so that it is possible to identify the data of the mask portion and the non-mask portion. .

こうして、YUV形式となった自然画像データは、マスク検出部11に供給される。マスク検出部11は、取得した画像データが固有値(例えば、Y=U=V=0)であればマスク部分であると識別し、固有値でなければ非マスク部分であると識別する。マスク検出以降の処理は、前述のものと同様であるため、説明を省略する。   Thus, the natural image data in the YUV format is supplied to the mask detection unit 11. The mask detection unit 11 identifies a mask portion if the acquired image data is a unique value (for example, Y = U = V = 0), and identifies a non-mask portion if it is not a unique value. Since the processing after mask detection is the same as that described above, description thereof is omitted.

以上のように、第2実施形態における画像処理方法でも、画像補正された自然画像(非マスク部分の画像データのみ)と画像補正されていない枠画像が、適切に画像表示部3に表示される。第2実施形態では、第1実施形態と異なり自然画像と枠画像の識別のために専用のビットを設けていない。よって、画像データの階調値を減らす必要がないため(第1実施形態におけるマスク処理では、特定ビットの確保のために、階調値を示すビット数を減らす場合があるため)、表示される画像の質は低下しない。   As described above, even in the image processing method according to the second embodiment, a natural image that has been subjected to image correction (only image data of a non-masked portion) and a frame image that has not been subjected to image correction are appropriately displayed on the image display unit 3. . In the second embodiment, unlike the first embodiment, no dedicated bit is provided for identifying the natural image and the frame image. Therefore, it is not necessary to reduce the gradation value of the image data (since the mask processing in the first embodiment may reduce the number of bits indicating the gradation value in order to secure a specific bit), it is displayed. The image quality is not degraded.

なお、上記では、非マスク部分のデータをY=U=V=0とするマスク処理について示したが、これには限定はしない。例えば、自然画像データをYUV変換せず(RGB形式のデータのまま)、マスク部分のデータをR=G=B=0へと変換する。この場合は、非マスク部分のデータが元からR=G=B=0であれば、マスク部分の画像データと重ならないようにR=G=B=1へとずらすようにする。これにより厳密には画像データの階調値が変化するが、黒レベルを1階調変化させるのみであるので、視覚的にほとんど問題とならない。   In the above description, the mask processing in which the data of the non-masked portion is Y = U = V = 0 has been described, but the present invention is not limited to this. For example, the natural image data is not subjected to YUV conversion (as it is in RGB format data), and the mask portion data is converted to R = G = B = 0. In this case, if the data of the non-mask part is originally R = G = B = 0, the data is shifted to R = G = B = 1 so as not to overlap with the image data of the mask part. Strictly speaking, this changes the gradation value of the image data. However, since only the black level is changed by one gradation, there is almost no problem visually.

その他に、自然画像がYUV形式で、ITU-R BT.601等の“8”ビットフルレンジでないYUVフォーマット(16<=Y<=235、16<=UV<=240)など、存在し得る値が限定されるようなフォーマットを採用すれば、マスク部分のデータをY=0にするだけでマスク部分との識別が可能になる。   In addition, there are possible values such as YUV format (16 <= Y <= 235, 16 <= UV <= 240) such as ITU-R BT.601, etc., where the natural image is in YUV format and not a full range. If a limited format is employed, the mask portion can be identified only by setting the data of the mask portion to Y = 0.

[第3実施形態]
以下では、本発明の第3実施形態について説明する。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described.

(画像表示装置の構成)
図4に、第3実施形態に係る画像表示装置102の概略構成を示す。画像表示装置102も、画像形成部1と、画像処理部2と、画像表示部3とを備える。
(Configuration of image display device)
FIG. 4 shows a schematic configuration of the image display apparatus 102 according to the third embodiment. The image display device 102 also includes an image forming unit 1, an image processing unit 2, and an image display unit 3.

画像形成部1の構成は、第1実施形態及び第2実施形態で示したものと同様である。第3実施形態に係る画像形成部1では、マスク処理部8での処理が上記のものと異なる。マスク処理部8は、まず、取得した非マスク部分の画像データとマスク部分の画像データとが異なる色形式となるように、非マスク部分又はマスク部分の画像データを色変換する。例えば、元の自然画像データの色形式がRGB形式であった場合、マスク処理部8は、非マスク部分のデータはRGB形式のままにし、マスク部分のデータはYUV形式のデータに変換する。更に、マスク処理部8は、マスク部分の画像データを非マスク部分の画像データとは異なるビット数に変換する。この場合、マスク処理部8は、色形式の変換時に、色形式とビット数の変換を同時に行うこともできる。以上により、マスク部分と非マスク部分のデータが識別可能になる。   The configuration of the image forming unit 1 is the same as that shown in the first embodiment and the second embodiment. In the image forming unit 1 according to the third embodiment, the processing in the mask processing unit 8 is different from the above. First, the mask processing unit 8 performs color conversion on the image data of the non-mask portion or the mask portion so that the acquired image data of the non-mask portion and the image data of the mask portion have different color formats. For example, when the color format of the original natural image data is the RGB format, the mask processing unit 8 converts the data of the mask portion into YUV format data while keeping the data of the non-mask portion in the RGB format. Further, the mask processing unit 8 converts the image data of the mask portion into a bit number different from that of the image data of the non-mask portion. In this case, the mask processing unit 8 can simultaneously convert the color format and the number of bits when converting the color format. As described above, the data of the mask portion and the non-mask portion can be identified.

次に、画像処理部2の処理について説明する。マスク処理された自然画像データは画像メモリ9に記憶されて、マスク分離部15により読み出される。マスク分離部15は、取得した自然画像データS5に対してマスク検出(マスク分離部15が行うマスク検出を、以下では「マスク分離」と呼ぶ)を行い、更に色変換を行う。まず、マスク分離部15は、自然画像データの所定ビットのデータを見て、マスク部分と非マスク部分を分離する。そして、マスク分離部15は、非マスク部分とマスク部分の画像データの色形式が同一のものとなるように、非マスク部分又はマスク部分の画像データを色変換する。マスク分離部15は、同一の色形式となった自然画像データ(マスク部分と非マスク部分の画像データを含む)S12を画像補正部12に供給すると共に、マスク指示情報S14をメモリ書き込み制御部13に供給する。なお、このマスク指示情報S14は、以下で示す画像補正及び色変換の所要クロック数と同じだけディレイさせる。   Next, processing of the image processing unit 2 will be described. The masked natural image data is stored in the image memory 9 and read by the mask separation unit 15. The mask separation unit 15 performs mask detection on the acquired natural image data S5 (mask detection performed by the mask separation unit 15 is hereinafter referred to as “mask separation”), and further performs color conversion. First, the mask separation unit 15 separates a mask portion and a non-mask portion by looking at predetermined bit data of natural image data. Then, the mask separation unit 15 performs color conversion on the image data of the non-mask portion or the mask portion so that the color formats of the image data of the non-mask portion and the mask portion are the same. The mask separation unit 15 supplies natural image data S12 (including image data of a mask portion and a non-mask portion) S12 having the same color format to the image correction unit 12, and also sends mask instruction information S14 to the memory write control unit 13. To supply. The mask instruction information S14 is delayed by the same number of clocks required for image correction and color conversion described below.

画像補正部12は、取得した自然画像データS12に対して前述したような画像補正を行う。画像補正された自然画像データS13は、色変換部16に供給される。色変換部16は、取得した自然画像データS13の色形式を変換する。こうするのは、画像を表示する画像表示部3にて扱うことが可能な色形式のデータに変換するためである。そして、色変換部16は、第1の色形式の自然画像データS15を書き込み制御部13に供給する。   The image correction unit 12 performs image correction as described above on the acquired natural image data S12. The image-corrected natural image data S13 is supplied to the color conversion unit 16. The color conversion unit 16 converts the color format of the acquired natural image data S13. This is to convert the data into color format data that can be handled by the image display unit 3 that displays the image. Then, the color conversion unit 16 supplies the natural color image data S15 in the first color format to the writing control unit 13.

メモリ書き込み制御部13は、取得した自然画像データS15と、枠画像データS6とを、フレームメモリ14に書き込むための制御を行う。この場合、メモリ書き込み制御部13は、マスク分離部15より取得するマスク指示信号S14に基づいて書き込み制御を行う。これにより、メモリ書き込み制御部13による書き込み信号S10に基づいて、フレームメモリ14には前述した合成画像データが記憶される。そして、フレームメモリ14に記憶された合成画像データS11は、画像表示部3に読み出されて表示される。   The memory write control unit 13 performs control for writing the acquired natural image data S15 and frame image data S6 into the frame memory 14. In this case, the memory write control unit 13 performs write control based on the mask instruction signal S14 acquired from the mask separation unit 15. Thus, the above-described composite image data is stored in the frame memory 14 based on the write signal S10 from the memory write control unit 13. The composite image data S11 stored in the frame memory 14 is read out and displayed on the image display unit 3.

以上のように、本発明の第3実施形態に係る画像表示装置102では、マスク部分の画像データを含みながらも転送量を増やすことなく、マスク部分の画像データを含めた自然画像データに対して画像補正を行う。更に、マスク部分の画像データがない元画像での補正結果と同等な補正を、マスク部分の画像データを含めた自然画像データに対しても行うことができる。したがって、画像補正された自然画像(非マスク部分の画像データのみ)と画像補正されていない枠画像が、適切に画像表示部3に表示される。即ち、表示される枠画像の色が元のものと変わったり、逆に枠画像の影響で表示される自然画像の色が変わったりすることはない。   As described above, in the image display device 102 according to the third embodiment of the present invention, natural image data including the image data of the mask portion is included without increasing the transfer amount while including the image data of the mask portion. Perform image correction. Furthermore, correction equivalent to the correction result of the original image without the image data of the mask portion can be performed on the natural image data including the image data of the mask portion. Therefore, a natural image that has been image-corrected (only image data of a non-mask portion) and a frame image that has not been image-corrected are appropriately displayed on the image display unit 3. That is, the color of the displayed frame image does not change from the original one, and conversely, the color of the natural image displayed by the influence of the frame image does not change.

(画像処理手順)
以下では、第3実施形態における具体的な画像処理手順を、図5を用いて説明する。
(Image processing procedure)
Hereinafter, a specific image processing procedure in the third embodiment will be described with reference to FIG.

まず、画像形成部1での処理手順について説明する。画像形成処理部5は、RGB形式(この色形式を、「第1の色形式」とする)の自然画像データD11を形成する。図5では、自然画像D11がRGB各“8”ビット、合計“24”ビットであるものを示す。マスク処理部8は、自然画像データD11に対してマスク処理及び色変換する。第3実施形態では、マスク処理部8は、自然画像D11のマスク部分をYUV4:2:2フォーマットにてYUV形式(この色形式を、「第2の色形式」とする)に色変換する。具体的には、画像データにおいて水平方向の2画素を基準として考え、Yは1画素ごとに“8”ビット、UVは2画素ごとに平均して“8”ビットでサンプリングする。変換後のマスク部分の画像データは、1画素“16”ビットのデータ量となるため、残りの“8”ビット(例えば、上位“8”ビット)を「0」にする。これにより、図5に示すようにマスク部分の画像データは符号D21で示すものに変換される。   First, a processing procedure in the image forming unit 1 will be described. The image formation processing unit 5 forms natural image data D11 in the RGB format (this color format is referred to as “first color format”). FIG. 5 shows that the natural image D11 has “8” bits for each of RGB and a total of “24” bits. The mask processing unit 8 performs mask processing and color conversion on the natural image data D11. In the third embodiment, the mask processing unit 8 color-converts the mask portion of the natural image D11 into the YUV format (this color format is referred to as “second color format”) in the YUV 4: 2: 2 format. Specifically, in the image data, two pixels in the horizontal direction are considered as a reference, Y is sampled by “8” bits for each pixel, and UV is sampled by “8” bits on average every two pixels. Since the image data of the mask portion after conversion has a data amount of “16” bits per pixel, the remaining “8” bits (for example, upper “8” bits) are set to “0”. As a result, as shown in FIG. 5, the image data of the mask portion is converted into that indicated by reference numeral D21.

一方、自然画像D11の非マスク部分の画像データは、RGB形式のデータのままであるが、0〜255の256階調ではなく1〜255の255階調に変換する。この場合、例えばリニアな変換、又は単に「0」の画素を「1」に変換する。こうするのは、非マスク部分のデータが「0」を有してしまうと、マスク部分のデータと識別できなくなってしまうからである。このような処理により、非マスク部分の画像データは符号D31で示すものに変換される。以上のようにマスク処理された自然画像D12は画像メモリ9に記憶され、画像処理部2のマスク分離部15により読み出される。   On the other hand, the image data of the non-masked portion of the natural image D11 is still RGB format data, but is converted to 255 gradations from 1 to 255 instead of 256 gradations from 0 to 255. In this case, for example, linear conversion or simply “0” pixels are converted to “1”. This is because if the data in the non-mask portion has “0”, it cannot be identified from the data in the mask portion. By such processing, the image data of the non-masked part is converted into the data indicated by the symbol D31. The natural image D12 masked as described above is stored in the image memory 9, and is read by the mask separation unit 15 of the image processing unit 2.

次に、画像処理部2での処理手順について説明する。マスク分離部15では、読み出した自然画像データD12に対してマスク分離と色変換を行う。まず、マスク分離部15は、YUV形式のデータにて用いていない“8”ビット(例えば、上位“8”ビット)の値を見て、その値が「0」の場合はマスク部分であると判断し、「0」でなければ非マスク部分であると判断する。そして、マスク分離部15は、分離した非マスク部分の画像データをYUV変換する。マスク分離部15は、YUV変換した非マスク部分のデータD32及びマスク部分のデータD22からなる自然画像データD13を、画像補正部12に供給する。   Next, a processing procedure in the image processing unit 2 will be described. The mask separation unit 15 performs mask separation and color conversion on the read natural image data D12. First, the mask separation unit 15 looks at the value of “8” bits (for example, the upper “8” bits) that are not used in the YUV format data, and if the value is “0”, it is a mask portion. If it is not “0”, it is determined that it is a non-mask portion. Then, the mask separation unit 15 performs YUV conversion on the image data of the separated non-mask portion. The mask separation unit 15 supplies the image correction unit 12 with natural image data D13 including the non-mask portion data D32 and the mask portion data D22 which have been YUV converted.

更に、マスク分離部15は、マスク部分に関するマスク指示情報S14を、画像補正の所要クロック数、及び色変換の所要クロック数と同じだけディレイさせて、メモリ書き込み制御部13に供給する。   Further, the mask separation unit 15 delays the mask instruction information S14 related to the mask portion by the same number as the required number of clocks for image correction and the required number of clocks for color conversion, and supplies them to the memory writing control unit 13.

画像補正部12は、取得した自然画像データS12を画像補正する。そして、色変換部16は、画像補正された自然画像データS13を取得し、色変換を行う。色変換部16は、YUV形式の自然画像データ(非マスク部分とマスク部分の画像データを含む)をRGB形式のデータに変換する(以下、「RGB変換」と呼ぶ)。これにより、非マスク部分の画像データD33とマスク部分の画像データD23から成るRGB形式の自然画像データD14が生成される。色変換部16は、このRGB形式の自然画像データD14をメモリ読み込み制御部13に供給する。   The image correction unit 12 corrects the acquired natural image data S12. Then, the color conversion unit 16 acquires the natural image data S13 whose image has been corrected, and performs color conversion. The color converter 16 converts natural image data in YUV format (including image data of a non-mask portion and a mask portion) into RGB format data (hereinafter referred to as “RGB conversion”). As a result, natural image data D14 in the RGB format including the image data D33 of the non-mask portion and the image data D23 of the mask portion is generated. The color conversion unit 16 supplies the RGB natural image data D14 to the memory read control unit 13.

メモリ書き込み制御部13は、まず、まず枠画像データS6をフレームメモリ14に書き込むようにする。次に、メモリ書き込み制御部13は、マスク分離部15によるマスク指示情報S14に基づいて、自然画像データS15の非マスク部分のデータのみをフレームメモリ14に書き込むようにする。以上により、フレームメモリ14には、合成画像データが記憶される。こうして、フレームメモリ14には、合成画像データが記憶される。そして、フレームメモリ14に記憶された合成画像データS11は、画像表示部3に読み出されて表示される。   First, the memory writing control unit 13 writes the frame image data S6 into the frame memory 14. Next, the memory writing control unit 13 writes only the data of the non-masked portion of the natural image data S15 into the frame memory 14 based on the mask instruction information S14 from the mask separating unit 15. As described above, the composite image data is stored in the frame memory 14. Thus, the composite image data is stored in the frame memory 14. The composite image data S11 stored in the frame memory 14 is read out and displayed on the image display unit 3.

なお、上記では、第1の色形式をRGB形式とし、第2の色形式をYUV形式として画像処理を行っていくものについて示したが、これに限定はされない。例えば、第1の色形式をYUV形式とし、第2の色形式をRGB形式としてもよい。即ち、各処理部での画像データの色形式をRGBとYUVを逆にする。その他に、第1の色形式をYUV4:2:2(計“16”ビット)にし、第2の色形式をYUV4:4:4(計“24”ビット)にしてもよい。   In the above description, the first color format is the RGB format and the second color format is the YUV format. However, the present invention is not limited to this. For example, the first color format may be the YUV format and the second color format may be the RGB format. That is, the color format of the image data in each processing unit is reversed between RGB and YUV. In addition, the first color format may be YUV 4: 2: 2 (total “16” bits), and the second color format may be YUV 4: 4: 4 (total “24” bits).

(変形例)
次に、第3実施例の変形例について説明する。本変形例は、上記したものとは非マスク部分の画像データとマスク部分の画像データの色形式及び各処理部における色変換などが異なる。
(Modification)
Next, a modification of the third embodiment will be described. This modification differs from the above in the color format of the image data of the non-mask portion and the image data of the mask portion, color conversion in each processing unit, and the like.

図6は、変形例に係る画像処理手順を示す図である。   FIG. 6 is a diagram illustrating an image processing procedure according to the modification.

まず、画像形成部1での処理手順について説明する。画像形成処理部5は、YUV形式の自然画像データE11を形成する。図6においては、自然画像E11がYUV各“8”ビット、合計“24”ビットであるものを示す。マスク処理部8は、自然画像データE11に対してマスク処理及び色変換する。変形例では、マスク処理部8は、YUV形式のマスク部分の画像データをYS形式(S彩度)の画像特徴量データに変換する(以下、「YS変換」と呼ぶ)。具体的には、YSを“16”ビットにし、残りの“8”ビット(例えば、下位“8”ビット)を「0」にする。これにより、図6に示すようにマスク部分の画像データは符号E21で示すものに変換される。一方、自然画像E11の非マスク部分の画像データは、YUV形式のデータのままであるが、0〜255の256階調ではなく1〜255の255階調に変換する。これより、非マスク部分の画像データは符号E31で示すものに変換される。以上のようにマスク処理された自然画像E12は画像メモリ9に記憶され、画像処理部2のマスク分離部15に読み出される。   First, a processing procedure in the image forming unit 1 will be described. The image formation processing unit 5 forms natural image data E11 in YUV format. In FIG. 6, the natural image E <b> 11 has YUV “8” bits and a total of “24” bits. The mask processing unit 8 performs mask processing and color conversion on the natural image data E11. In the modification, the mask processing unit 8 converts the image data of the mask portion in the YUV format into image feature amount data in the YS format (S saturation) (hereinafter referred to as “YS conversion”). Specifically, YS is set to “16” bits, and the remaining “8” bits (for example, lower “8” bits) are set to “0”. As a result, as shown in FIG. 6, the image data of the mask portion is converted into that indicated by reference numeral E21. On the other hand, the image data of the non-masked portion of the natural image E11 remains YUV format data, but is converted to 255 gradations from 1 to 255 instead of 256 gradations from 0 to 255. As a result, the image data of the non-masked portion is converted into the data indicated by the symbol E31. The natural image E12 masked as described above is stored in the image memory 9 and read out to the mask separation unit 15 of the image processing unit 2.

次に、画像処理部2での処理手順について説明する。マスク分離部15では、読み出した自然画像データE12に対してマスク分離と色変換を行う。まず、マスク分離部15は、YS形式のデータにて用いていない“8”ビット(例えば、下位“8”ビット)の値を見て、その値が「0」の場合はマスク部分であると判断し、「0」でなければ非マスク部分であると判断する。そして、マスク分離部15は、分離した非マスク部分の画像データを同様にYS変換する。こうして、YS変換した非マスク部分のデータE32及びマスク部分のデータE22からなる画像特徴量データE13が生成される。マスク分離部15は、画像特徴量データE13に対応する信号S12と、元のYUV形式の非マスク部分の画像データS21を画像補正部12に供給する。   Next, a processing procedure in the image processing unit 2 will be described. The mask separation unit 15 performs mask separation and color conversion on the read natural image data E12. First, the mask separation unit 15 looks at the value of “8” bits (for example, the lower “8” bits) that are not used in the YS format data, and if the value is “0”, it is a mask portion. If it is not “0”, it is determined that it is a non-mask portion. Then, the mask separation unit 15 similarly performs YS conversion on the image data of the separated non-mask portion. In this way, image feature amount data E13 including the YS converted non-mask portion data E32 and the mask portion data E22 is generated. The mask separation unit 15 supplies the image correction unit 12 with the signal S12 corresponding to the image feature data E13 and the image data S21 of the original non-mask portion in the YUV format.

更に、マスク分離部15は、自然画像データのマスク部分に関するマスク指示情報S14を、画像補正の所要クロック数、及びRGB変換の所要クロック数と同じだけディレイさせて、メモリ書き込み制御部13に供給する。   Further, the mask separation unit 15 delays the mask instruction information S14 related to the mask portion of the natural image data by the same number as the required number of clocks for image correction and the required number of clocks for RGB conversion, and supplies them to the memory write control unit 13. .

画像補正部12は、自然画像データS21をYS形式の画像特徴量データS12に基づいて画像分析し、画像補正を行う。ここでの画像分析は、例えば、特徴量として彩度Sが小さければ、鮮やかさが足りないので色差UVを強調する、といった処理を行う。なお、このような処理は、図5に示した画像処理手順においては、画像補正部12(即ち、S12とS13の間)で行っている。以上により画像補正部12は、画像補正したYUV形式の画像データS22を色変換部16に供給する。   The image correction unit 12 analyzes the natural image data S21 based on the image feature amount data S12 in the YS format, and performs image correction. In this image analysis, for example, if the saturation S is small as the feature amount, the vividness is insufficient and the color difference UV is enhanced. Such processing is performed by the image correction unit 12 (that is, between S12 and S13) in the image processing procedure shown in FIG. As described above, the image correction unit 12 supplies the image data S22 in the YUV format subjected to the image correction to the color conversion unit 16.

色変換部16は、YUV形式の自然画像データ(非マスク部分のみ)をRGB変換する。この場合、マスク部分は、最初のマスク処理(YS変換)の時点で画像データとしては消え去っているので、マスク部分は画像表示されず、画像特徴量のみ取り出せればいいので問題ない。これにより、色変換部16は、非マスク部分の画像データE33を生成する。色変換部16は、このRGB形式の画像データE33をメモリ読み込み制御部13に供給する。   The color conversion unit 16 performs RGB conversion on natural image data in YUV format (only the non-mask portion). In this case, since the mask portion disappears as image data at the time of the first mask processing (YS conversion), there is no problem because the mask portion is not displayed and only the image feature amount can be extracted. As a result, the color conversion unit 16 generates image data E33 of a non-mask portion. The color conversion unit 16 supplies the RGB image data E33 to the memory read control unit 13.

メモリ書き込み制御部13は、まず、まず枠画像データS6をフレームメモリ14に書き込むようにする。次に、メモリ書き込み制御部13は、マスク分離部15によるマスク指示情報S14に基づいて、自然画像データS15の非マスク部分のデータのみをフレームメモリ14に書き込むようにする。以上により、フレームメモリ14には、合成画像データが記憶される。そして、このフレームメモリ14に記憶された合成画像データS11は、画像表示部3に読み出されて表示される。   First, the memory writing control unit 13 writes the frame image data S6 into the frame memory 14. Next, the memory writing control unit 13 writes only the data of the non-masked portion of the natural image data S15 into the frame memory 14 based on the mask instruction information S14 from the mask separating unit 15. As described above, the composite image data is stored in the frame memory 14. The composite image data S11 stored in the frame memory 14 is read out and displayed on the image display unit 3.

[第4実施形態]
次に、本発明の第4実施形態について説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described.

(画像表示装置の構成)
図7に、第4実施形態に係る画像表示装置103の概略構成を示す。画像表示装置103も、画像形成部1と、画像処理部2と、画像表示部3とを備える。
(Configuration of image display device)
FIG. 7 shows a schematic configuration of the image display apparatus 103 according to the fourth embodiment. The image display device 103 also includes an image forming unit 1, an image processing unit 2, and an image display unit 3.

画像形成部1は、画像形成処理部5、7と、合成情報形成部6と、合成処理部8と、画像メモリ21とを備える。画像形成処理部5は自然画像データを形成し、自然画像データに対応する信号S31を合成処理部8に供給する。画像形成処理部7は枠画像データを形成し、枠画像データに対応する信号S32を合成処理部8に供給する。合成情報形成部6は、前述したものと同様の合成情報を形成し、合成情報に対応するデータS33を合成処理部20に供給する。   The image forming unit 1 includes image forming processing units 5 and 7, a composite information forming unit 6, a composite processing unit 8, and an image memory 21. The image formation processing unit 5 forms natural image data, and supplies a signal S31 corresponding to the natural image data to the synthesis processing unit 8. The image formation processing unit 7 forms frame image data, and supplies a signal S32 corresponding to the frame image data to the synthesis processing unit 8. The composite information forming unit 6 forms composite information similar to that described above, and supplies data S33 corresponding to the composite information to the composite processing unit 20.

合成処理部20は、まず取得した自然画像と枠画像とが異なる色形式となるように、自然画像又は枠画像を色変換する。例えば、元の画像データの色形式がRGB形式であった場合、合成処理部20は、自然画像データはRGB形式のままにし、枠画像のデータはYUV形式のデータに変換する。更に、合成処理部20は、枠画像データを自然画像データとは異なるビット数に変換する。この場合、合成処理部8は、色形式の変換時に、色形式とビット数の変換を同時に行うこともできる。これにより、自然画像データと枠画像データが識別可能になる。更に、合成処理部20は、上記の自然画像データと枠画像データを合成する。合成処理部20は、合成した画像データS35を画像メモリ21に記憶させる。以上のように、合成処理部20は、画像形成部1において前述した合成手段として機能する。   First, the composition processing unit 20 performs color conversion on the natural image or the frame image so that the acquired natural image and the frame image have different color formats. For example, when the color format of the original image data is the RGB format, the composition processing unit 20 converts the natural image data to the RGB format and converts the frame image data to the YUV format data. Further, the composition processing unit 20 converts the frame image data into a bit number different from that of the natural image data. In this case, the composition processing unit 8 can simultaneously convert the color format and the number of bits when converting the color format. Thereby, natural image data and frame image data can be identified. Furthermore, the composition processing unit 20 synthesizes the natural image data and the frame image data. The composition processing unit 20 stores the synthesized image data S35 in the image memory 21. As described above, the composition processing unit 20 functions as the composition unit described above in the image forming unit 1.

第4実施形態では、画像形成部1で形成された画像データを画像処理部2に一度に転送する点で前述の実施形態で示したものと大きく異なる。画像形成部1で形成された画像データS36は、画像処理部2の画像分離部22に供給される。画像分離部22は、取得した自然画像データS36に基づいて、自然画像と枠画像を画像分離する。画像分離部22は、取得した画像データの所定ビット数のデータに基づいて自然画像と枠画像を分離する。そして、画像分離部22は、自然画像と枠画像の色形式が同一のものとなるように、自然画像又は枠画像を色変換する。   The fourth embodiment is greatly different from that shown in the above-described embodiment in that the image data formed by the image forming unit 1 is transferred to the image processing unit 2 at a time. The image data S36 formed by the image forming unit 1 is supplied to the image separation unit 22 of the image processing unit 2. The image separation unit 22 separates the natural image and the frame image based on the acquired natural image data S36. The image separation unit 22 separates the natural image and the frame image based on the predetermined number of bits of the acquired image data. Then, the image separation unit 22 performs color conversion on the natural image or the frame image so that the color formats of the natural image and the frame image are the same.

更に、画像分離部22は、自然画像データS37を画像補正部12に供給すると共に、枠画像データS39を合成処理部23に供給する。更に、画像分離部22は、自然画像と枠画像の分離に関する情報(前述した合成情報と同様の情報であり、以下「分離情報」と呼ぶ)S41も、合成処理部23に供給する。なお、枠画像データS39及び分離情報S41は、自然画像データに対して行う画像補正及び色変換の所要クロック数と同じだけディレイさせる。以上のように、画像分離部22は、画像処理部2において前述した分離手段として機能する。   Further, the image separation unit 22 supplies the natural image data S37 to the image correction unit 12, and also supplies the frame image data S39 to the composition processing unit 23. Furthermore, the image separation unit 22 also supplies information (separated information described above, hereinafter referred to as “separation information”) S41 relating to the separation of the natural image and the frame image to the synthesis processing unit 23. Note that the frame image data S39 and the separation information S41 are delayed by the same number of clocks as required for image correction and color conversion performed on natural image data. As described above, the image separation unit 22 functions as the above-described separation unit in the image processing unit 2.

画像補正部12は、取得した自然画像データS37に対して画像補正を行う。そして、画像補正後の自然画像データS38は、合成処理部23に供給される。合成処理部23は、まず、取得した自然画像データS38に色変換を行う。こうするのは、画像を表示する画像表示部3が扱う色形式のデータに変換するためである。そして、合成処理部23は、色変換後の自然画像データと枠画像データを、分離情報S41に基づいて合成する。即ち、合成処理部23は、合成画像データを作成する。作成された合成画像データS40は、画像表示部3に供給される。そして、画像表示部3は、合成画像データS40を読み出して表示する。   The image correction unit 12 performs image correction on the acquired natural image data S37. Then, the natural image data S38 after the image correction is supplied to the synthesis processing unit 23. First, the composition processing unit 23 performs color conversion on the acquired natural image data S38. This is because the data is converted into data in a color format handled by the image display unit 3 that displays an image. Then, the composition processing unit 23 synthesizes the natural image data and the frame image data after color conversion based on the separation information S41. That is, the composition processing unit 23 creates composite image data. The generated composite image data S40 is supplied to the image display unit 3. Then, the image display unit 3 reads out and displays the composite image data S40.

以上のように、第4実施形態に係る画像表示装置103でも、画像補正された自然画像と画像補正されていない枠画像が、適切に画像表示部3に表示される。よって、表示される枠画像の色が元のものと変わったり、逆に枠画像の影響で表示される自然画像の色が変わったりすることはない。ここで、第4実施形態に係る画像処理では、第1実施形態〜第3実施形態にて示したものと異なり、画像形成部1から画像処理部2へ自然画像データと枠画像データを同時に転送している。即ち、自然画像データと枠画像データを合成した1つの画像データを転送している。これにより、自然画像及び枠画像が動画である場合でも転送量は増加しない。更に、画像処理部2にフレームメモリなどがなく、枠画像と自然画像を別々に転送して重ねることができない場合にも、第4実施形態に係る画像処理方法は適切に対処することができる。   As described above, also in the image display device 103 according to the fourth embodiment, the natural image subjected to the image correction and the frame image not subjected to the image correction are appropriately displayed on the image display unit 3. Therefore, the color of the displayed frame image does not change from the original one, and conversely, the color of the natural image displayed by the influence of the frame image does not change. Here, in the image processing according to the fourth embodiment, unlike the first to third embodiments, natural image data and frame image data are simultaneously transferred from the image forming unit 1 to the image processing unit 2. doing. That is, one image data obtained by combining natural image data and frame image data is transferred. Thereby, even when the natural image and the frame image are moving images, the transfer amount does not increase. Furthermore, the image processing method according to the fourth embodiment can appropriately cope with the case where the image processing unit 2 does not have a frame memory or the like and the frame image and the natural image cannot be separately transferred and superimposed.

(画像処理方法)
以下では、第4実施形態における具体的な画像処理手順を、図8を用いて説明する。
(Image processing method)
Hereinafter, a specific image processing procedure in the fourth embodiment will be described with reference to FIG.

まず、画像形成部1での処理手順について説明する。画像形成処理部5は、RGB形式(この色形式を、「第1の色形式」とする)の自然画像データF11を形成する。画像形成処理部7は、RGB形式の枠画像データF21を形成する。図8では、自然画像F11及び枠画像F21がRGB各“8”ビット、合計“24”ビットであるものを示す。合成処理部20は、自然画像データF11に対して、RGB形式のデータのままであるが、前述と同様の理由から0〜255の256階調ではなく1〜255の255階調に変換する。また、合成処理部20は、枠画像F21をYUV4:2:2フォーマットにてYUV形式(この色形式を、「第2の色形式」とする)に色変換する。そして、変換後の枠画像データは1画素“16”ビットのデータ量となるため、合成処理部20は残りの“8”ビット(例えば、上位“8”ビット)を「0」にする。以上のように変換が行われた自然画像データF13と枠画像データF23は、合成されて符号F31で示す画像データとなる。以上のように合成された画像データF31は画像メモリ21に記憶され、画像処理部2の画像分離部22に読み出される。   First, a processing procedure in the image forming unit 1 will be described. The image formation processing unit 5 forms natural image data F11 in the RGB format (this color format is referred to as “first color format”). The image forming processor 7 forms frame image data F21 in RGB format. FIG. 8 shows that the natural image F11 and the frame image F21 are “8” bits for each of RGB, and the total is “24” bits. For the natural image data F11, the composition processing unit 20 is still in RGB format data, but for the same reason as described above, the composition processing unit 20 converts the natural image data F11 to 255 gradations of 1 to 255 instead of 256 gradations of 0 to 255. In addition, the composition processing unit 20 performs color conversion on the frame image F21 in the YUV 4: 2: 2 format to the YUV format (this color format is referred to as “second color format”). Since the converted frame image data has a data amount of “16” bits per pixel, the composition processing unit 20 sets the remaining “8” bits (for example, upper “8” bits) to “0”. The natural image data F13 and the frame image data F23 that have been converted as described above are combined into image data indicated by reference numeral F31. The image data F31 synthesized as described above is stored in the image memory 21 and read out to the image separation unit 22 of the image processing unit 2.

次に、画像処理部2での処理手順について説明する。画像分離部22では、読み出した画像データF31に対して画像分離と色変換を行う。まず、画像分離部22は、YUV形式のデータにて用いていない“8”ビットの値を見て、その値が「0」の場合は枠画像であると判断し、「0」でなければ自然画像であると判断する。そして、画像分離部22は、分離した自然画像データをYUV変換する。画像分離部22は、YUV変換した自然画像データF14を画像補正部12に供給する。また、画像分離部22は、枠画像データS39と分離情報S41を合成処理部23に供給する。なお、枠画像データS39と分離情報S41は、自然画像データに対して行う画像補正及び色変換の所要クロック数と同じだけディレイされる。   Next, a processing procedure in the image processing unit 2 will be described. The image separation unit 22 performs image separation and color conversion on the read image data F31. First, the image separation unit 22 looks at the value of “8” bits that are not used in the YUV format data. If the value is “0”, the image separation unit 22 determines that the frame image is not “0”. Judged as a natural image. Then, the image separation unit 22 performs YUV conversion on the separated natural image data. The image separation unit 22 supplies the natural image data F14 subjected to YUV conversion to the image correction unit 12. Further, the image separation unit 22 supplies the frame image data S39 and the separation information S41 to the synthesis processing unit 23. The frame image data S39 and the separation information S41 are delayed by the same number of clocks as required for image correction and color conversion performed on natural image data.

画像補正部12は、取得した自然画像データS37を画像補正する。そして、画像補正部12は、画像補正後の自然画像データS38を合成処理部23に供給する。合成処理部23は、まず取得した自然画像データS38に対して色変換を行う。即ち、合成処理部23は、YUV形式の自然画像データS38をRGB形式のデータに変換する。そして、合成処理部23は、取得した分離情報S41に基づいて枠画像データS39と色変換後の自然画像データを合成する。これにより、自然画像データF15と枠画像データF25からなる合成画像データF32が作成される。画像表示部3は、この合成画像データF32に対応する信号S40を読み出して、表示する。   The image correction unit 12 corrects the acquired natural image data S37. Then, the image correction unit 12 supplies the natural image data S38 after the image correction to the synthesis processing unit 23. The composition processing unit 23 first performs color conversion on the acquired natural image data S38. That is, the composition processing unit 23 converts the natural image data S38 in the YUV format into RGB format data. Then, the composition processing unit 23 synthesizes the frame image data S39 and the natural image data after color conversion based on the acquired separation information S41. As a result, composite image data F32 including the natural image data F15 and the frame image data F25 is created. The image display unit 3 reads and displays the signal S40 corresponding to the composite image data F32.

なお、上記では、第1の色形式をRGB形式とし、第2の色形式をYUV形式として示したがこれに限定はされない。例えば、第1の色形式をYUV形式とし、第2の色形式をRGB形式としても良い。即ち、各処理部での画像データの色形式をRGBとYUVを逆にする。その他に、第1の色形式をYUV4:2:2(計“16”ビット)にし、第2の色形式をYUV4:4:4(計“24”ビット)にしてもよい。   In the above description, the first color format is the RGB format and the second color format is the YUV format. However, the present invention is not limited to this. For example, the first color format may be the YUV format and the second color format may be the RGB format. That is, the color format of the image data in each processing unit is reversed between RGB and YUV. In addition, the first color format may be YUV 4: 2: 2 (total “16” bits), and the second color format may be YUV 4: 4: 4 (total “24” bits).

[第5実施形態]
次に、本発明の第5実施形態について説明する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described.

第5実施形態に係る画像表示装置の構成は、第4実施形態で示した画像表示装置103と同様である。即ち、画像形成部1から画像処理部2へ自然画像データと枠画像データを同時に転送する。以下では、第5実施形態に係る画像処理手順について説明する。   The configuration of the image display device according to the fifth embodiment is the same as that of the image display device 103 shown in the fourth embodiment. That is, natural image data and frame image data are simultaneously transferred from the image forming unit 1 to the image processing unit 2. Hereinafter, an image processing procedure according to the fifth embodiment will be described.

図9に、第5実施形態における具体的な画像処理手順を示す。   FIG. 9 shows a specific image processing procedure in the fifth embodiment.

まず、画像形成部1での処理手順について説明する。画像形成処理部5は、RGB形式の自然画像データG11を形成する。自然画像データG11は、RGB各“8”ビットの計“24”ビットのデータである。第5実施形態では、画像形成処理部7はRGB形式の計kビットの枠画像データG21を形成する(16<=k<24)。図9では、k=“18”ビットである例について示している。第5実施形態に係る画像処理は、自然画像と枠画像のビット数が異なる点で第4実施形態にて示したものとは異なる。   First, a processing procedure in the image forming unit 1 will be described. The image forming processor 5 forms natural image data G11 in RGB format. The natural image data G11 is data of “24” bits in total of “8” bits for each of RGB. In the fifth embodiment, the image formation processing unit 7 forms a total of k-bit frame image data G21 in RGB format (16 <= k <24). FIG. 9 shows an example in which k = “18” bits. The image processing according to the fifth embodiment differs from that shown in the fourth embodiment in that the number of bits of the natural image and the frame image are different.

合成処理部20は、まず自然画像データG21をYUV変換する。このとき、合成処理部20は、Uへの変換を0〜255(“8”ビットの場合)の256階調でなく、階調値m〜255階調値255の(256−m)階調に変換する(YとVは通常のままである)。ここで、m=2(k−16)であり、図9で示す例ではm=「4」である。以上により、自然画像データは符号G12で示すデータになる。なお、自然画像データG21に対して行うYUV変換は、例えば以下の式(4)〜(6)に示すようなものを用いることができる。 First, the composition processing unit 20 performs YUV conversion on the natural image data G21. At this time, the composition processing unit 20 converts the conversion to U not with 256 gradations of 0 to 255 (in the case of “8” bits), but with (256-m) gradations of gradation values m to 255 gradation values 255. (Y and V remain normal). Here, m = 2 (k−16) , and m = “4” in the example shown in FIG. As described above, the natural image data becomes data indicated by the symbol G12. For the YUV conversion performed on the natural image data G21, for example, the following equations (4) to (6) can be used.

Y = + 0.299 R + 0.587 G + 0.114 B 式(4)
U = (255-m)/255×(- 0.168 R - 0.332 G + 0.500 B + 128) + m 式(5)
V = + 0.500 R - 0.419 G - 0.081 B + 128 式(6)
一方、合成処理部20は、枠画像データG21に対して、YUVのうちの「Y」、「V」の計“16”ビットと「U」の下位(k−16)ビットの範囲を用いて合計“k”ビットのRGB形式の並び方に変換する。そして、枠画像データG21の「U」の上位(24−k)ビットは「0」とする。これにより、枠画像データは符号G22で示すデータになる。以上のように変換が行われた自然画像データG13と枠画像データG23は、合成されて符号G31で示す画像データとなる。このように合成された画像データG31は画像メモリ21に記憶され、画像処理部2の画像分離部22に読み出される。
Y = +0.299 R + 0.587 G + 0.114 B Formula (4)
U = (255−m) / 255 × (−0.168 R−0.332 G + 0.500 B + 128) + m Formula (5)
V = +0.500 R-0.419 G-0.081 B + 128 Formula (6)
On the other hand, the composition processing unit 20 uses a total of “16” bits of “Y” and “V” of YUV and a lower (k−16) bit range of “U” for the frame image data G21. It is converted into an RGB format arrangement with a total of “k” bits. The upper (24-k) bits of “U” in the frame image data G21 are set to “0”. As a result, the frame image data becomes data indicated by the symbol G22. The natural image data G13 and the frame image data G23 that have been converted as described above are combined into image data indicated by reference numeral G31. The image data G31 synthesized in this way is stored in the image memory 21 and read out to the image separation unit 22 of the image processing unit 2.

次に、画像処理部2での処理手順について説明する。画像分離部22では、読み出した画像データF31に対して画像分離を行う。画像分離部22は、「U」の上位(24−k)ビットが「0」のときは枠画像と判断し、「0」でないときは自然画像と判断する。そして、画像分離部22は、画像分離した自然画像データS37を画像補正部12に供給する。更に、画像分離部22は、画像分離した枠画像データS39と分離情報S41を合成処理部23に供給する。このとき、枠画像データS39及び分離情報S41は、自然画像データに対して行う画像補正及び色変換の所要クロック数と同じだけディレイさせる。   Next, a processing procedure in the image processing unit 2 will be described. The image separation unit 22 performs image separation on the read image data F31. The image separation unit 22 determines that the frame is a frame image when the upper (24-k) bits of “U” are “0”, and determines that the image is a natural image when it is not “0”. Then, the image separation unit 22 supplies the natural image data S37 subjected to the image separation to the image correction unit 12. Further, the image separation unit 22 supplies the frame image data S39 and the separation information S41 obtained by the image separation to the synthesis processing unit 23. At this time, the frame image data S39 and the separation information S41 are delayed by the same number of clocks required for image correction and color conversion performed on natural image data.

画像補正部12は、取得した自然画像データS37を画像補正する。そして、画像補正部12は、画像補正後の自然画像データS38を合成処理部23に供給する。合成処理部23は、まず取得した自然画像データS38に対して色変換を行う。合成処理部23は、YUV形式の自然画像データS38をRGB形式のデータに変換する。このとき、合成処理部23は、元の自然画像データG11と同様の256階調(0〜255)に引き伸ばすRGB変換を行う。例えば、合成処理部23は、以下の式(7)〜(10)に従ってRGB変換する。   The image correction unit 12 corrects the acquired natural image data S37. Then, the image correction unit 12 supplies the natural image data S38 after the image correction to the synthesis processing unit 23. The composition processing unit 23 first performs color conversion on the acquired natural image data S38. The composition processing unit 23 converts the natural image data S38 in the YUV format into RGB format data. At this time, the composition processing unit 23 performs RGB conversion that expands to 256 gradations (0 to 255) similar to the original natural image data G11. For example, the composition processing unit 23 performs RGB conversion according to the following formulas (7) to (10).

U’ = 255/(255-m)×(U-m) 式(7)
R = Y + 1.402 (V-128) 式(8)
G = Y - 0.344 (U'-128) - 0.714 (V-128) 式(9)
B = Y + 1.772 (U'-128) - 0.001 (V-128) 式(10)
合成処理部23は、取得した分離情報S41に基づいて、枠画像データS39と色変換後の自然画像データを合成する。これにより、自然画像データG14と枠画像データG24からなる合成画像データG32が作成される。そして、画像表示部3は、この合成画像データG32に対応する信号S40を読み出して表示する。
U ′ = 255 / (255−m) × (U−m) Equation (7)
R = Y + 1.402 (V-128) Formula (8)
G = Y-0.344 (U'-128)-0.714 (V-128) Equation (9)
B = Y + 1.772 (U'-128)-0.001 (V-128) Formula (10)
The synthesis processing unit 23 synthesizes the frame image data S39 and the natural image data after color conversion based on the acquired separation information S41. As a result, composite image data G32 composed of the natural image data G14 and the frame image data G24 is created. Then, the image display unit 3 reads and displays the signal S40 corresponding to the composite image data G32.

以上のように、第5実施形態に係る画像処理方法は、枠画像が少ない階調数である場合に対しても、画像補正された自然画像と画像補正されていない枠画像を適切に画像表示部3に表示することができる。枠画像の階調数は必ずしも多くを必要としないため、第5実施形態に係る画像処理方法は、枠画像の階調数が少ないことを利用して有効に画像処理を行っている。   As described above, the image processing method according to the fifth embodiment appropriately displays an image-corrected natural image and a non-image-corrected frame image even when the frame image has a small number of gradations. Part 3 can be displayed. Since the number of gradations of the frame image does not necessarily need to be large, the image processing method according to the fifth embodiment effectively performs image processing using the fact that the number of gradations of the frame image is small.

なお、U=0からU=(m−1)までの“m”階調が最初から存在しないならば、階調圧縮の必要はないので、画像データに行ったYUV変換(式(4)〜(6))及びRGB変換(式(7)〜(10))は通常の変換式を用いて行ってよい。例えば、ITU−R BT.601等の“8”ビットのフルレンジでないYUVフォーマット(16<=Y<=235、16<=UV<=240)の場合、自然画像データを階調圧縮する必要はないため、この範囲外の区間を枠画像に用いることができる。例えば、U=0〜15が存在しない(即ち、Uの上位4ビットは必ず「0001」〜「1111」のいずれかである)ことがわかっている場合、Uの上位4ビット=「0000」であるデータを枠画像として使うことができる(即ち、前述のk=20に相当する)。   Note that if there is no “m” gradation from U = 0 to U = (m−1) from the beginning, there is no need for gradation compression, so YUV conversion performed on the image data (formulas (4) to (4)). (6)) and RGB conversion (formulas (7) to (10)) may be performed using ordinary conversion formulas. For example, in the case of a YUV format (16 <= Y <= 235, 16 <= UV <= 240) that is not the full range of "8" bits, such as ITU-R BT.601, it is not necessary to perform gradation compression on natural image data. Therefore, a section outside this range can be used for the frame image. For example, if it is known that U = 0 to 15 does not exist (that is, the upper 4 bits of U are always “0001” to “1111”), the upper 4 bits of U = “0000”. Certain data can be used as a frame image (ie, corresponding to the above-mentioned k = 20).

更に、自然画像データの階調値が0側や255側でなく中間調を有している場合、枠画像のビット数=“k”ビット(16<=k<24)のとき、自然画像の2(k−24)階調の空き階調域があれば、そこを枠画像の領域として用いることもできる。例えば、k=18のときは「U」(「Y」でも「V」でもよい)に2ビットを配するが、この場合には2=4階調の空きが必要となる。よって、以下のような自然画像データであるとき、上位“6”ビット=「101101」のときは枠画像とし、それ以外は自然画像とすることができる。これにより、自然画像を階調圧縮することなく枠画像を配することができる。よって、自然画像の復元(階調伸縮)を行わないため、誤差も発生しない。 Further, when the gradation value of the natural image data is not 0 side or 255 side but has a halftone, when the number of bits of the frame image = “k” bits (16 <= k <24), the natural image data If there is an empty gradation area of 2 (k-24) gradations, it can also be used as a frame image area. For example, when k = 18, 2 bits are allocated to “U” (which may be “Y” or “V”), but in this case, 2 2 = 4 gradations are required. Therefore, in the case of natural image data as described below, when the upper “6” bit = “101101”, it can be a frame image, and other than that can be a natural image. Thereby, a frame image can be arranged without gradation-compressing a natural image. Therefore, no natural image restoration (gradation expansion / contraction) is performed, and no error occurs.

「1011 0011」;この階調値の画素が存在する
「1011 0100」;この階調値の画素が存在しないので下位2ビットを枠に使う
「1011 0101」;この階調値の画素が存在しないので下位2ビットを枠に使う
「1011 0110」;この階調値の画素が存在しないので下位2ビットを枠に使う
「1011 0111」;この階調値の画素が存在しないので下位2ビットを枠に使う
「1011 1000」;この階調値の画素が存在する
また、連続する4階調以外でも、上位をデコードすることで上記と同様のことを行うことができる。例えば、以下のように枠画像を配することができる。具体的には、上位7ビットがすべて「0」ならば、「0」と最下位ビットを合わせて「00」または「01」を枠画像用に用いる。上位7ビットがすべて「1」ならば、「1」と最下位ビットを合わせて「10」または「11」を枠画像用に用いる。
「0000 0000」;上位7ビットが「0」、枠画像用の2ビット=「00」
「0000 0001」;上位7ビットが「0」、枠画像用の2ビット=「01」
「0000 0010」;自然画像
・・・
「1111 1101」;自然画像
「1111 1110」;上位7ビットが「1」、枠画像用の2ビット=「10」
「1111 1111」;上位7ビットが「1」、枠画像用の2ビット=「11」
“1011 0011”; a pixel with this gradation value exists “1011 0100”; since there is no pixel with this gradation value, the lower 2 bits are used for the frame “1011 0101”; there is no pixel with this gradation value Therefore, the lower 2 bits are used for the frame “1011 0110”; since there is no pixel of this gradation value, the lower 2 bits are used for the frame “1011 0111”; since the pixel of this gradation value does not exist, the lower 2 bits are framed “1011 1000” used for the pixel having the gradation value exists. In addition, the same thing as described above can be performed by decoding the higher-order pixels other than the continuous four gradations. For example, a frame image can be arranged as follows. Specifically, if the upper 7 bits are all “0”, “0” and the least significant bit are combined and “00” or “01” is used for the frame image. If all the upper 7 bits are “1”, “10” or “11” is used for the frame image by combining “1” and the least significant bit.
“0000 0000”; upper 7 bits are “0”, 2 bits for frame image = “00”
“0000 0001”; upper 7 bits are “0”, 2 bits for frame image = “01”
“0000 0010”; natural image
“1111 1101”; natural image “1111 1110”; upper 7 bits are “1”, 2 bits for frame image = “10”
“1111 1111”; upper 7 bits are “1”, 2 bits for frame image = “11”

本発明の第1実施形態に係る画像表示装置の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image display device according to a first embodiment of the present invention. 本発明の第1実施形態に係る画像処理手順を示す図である。It is a figure which shows the image processing procedure which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る画像処理手順を示す図である。It is a figure which shows the image processing procedure which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る画像表示装置の概略構成を示す図である。It is a figure which shows schematic structure of the image display apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る画像処理手順を示す図である。It is a figure which shows the image processing procedure which concerns on 3rd Embodiment of this invention. 第3実施形態の変形例に係る画像処理手順を示す図である。It is a figure which shows the image processing procedure which concerns on the modification of 3rd Embodiment. 本発明の第4実施形態に係る画像表示装置の概略構成を示す図である。It is a figure which shows schematic structure of the image display apparatus which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る画像処理手順を示す図である。It is a figure which shows the image processing procedure which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る画像処理手順を示す図である。It is a figure which shows the image processing procedure which concerns on 5th Embodiment of this invention.

符号の説明Explanation of symbols

1 画像形成部、 2 画像処理部、 3 画像表示部、 5、7 画像形成処理部、 8 マスク処理部、 11 マスク検出部、 12 画像補正部、 13 メモリ書き込み制御部、 14 フレームメモリ、 101、102、103 画像表示装置
DESCRIPTION OF SYMBOLS 1 Image formation part, 2 Image processing part, 3 Image display part, 5, 7 Image formation process part, 8 Mask processing part, 11 Mask detection part, 12 Image correction part, 13 Memory write control part, 14 Frame memory, 101, 102, 103 Image display device

Claims (9)

画像形成部と画像処理部を備える画像処理装置であって、
前記画像形成部は、
第1の画像データと第2の画像データを形成する画像形成処理手段と、
前記第1の画像データと前記第2の画像データとが重なる部分を識別可能にするためのマスク処理を、前記第1の画像データに対して行うマスク処理手段と、
前記マスク処理された第1の画像データと前記第2の画像データを、前記画像処理部に別々に転送する転送手段と、を備え、
前記画像処理部は、
前記転送された第1の画像データにおいて、前記重なる部分を検出するマスク検出手段と、
前記第1の画像データ、又は前記重なる部分以外の第1の画像データを画像補正する画像補正手段と、
前記マスク検出結果に基づいて、前記画像補正された第1の画像データと前記第2の画像データとを重ね合わせる手段と、を備えていることを特徴とする画像処理装置。
An image processing apparatus including an image forming unit and an image processing unit,
The image forming unit includes:
Image forming processing means for forming first image data and second image data;
Mask processing means for performing mask processing on the first image data so that a portion where the first image data and the second image data overlap can be identified;
Transfer means for separately transferring the masked first image data and the second image data to the image processing unit,
The image processing unit
Mask detection means for detecting the overlapping portion in the transferred first image data;
Image correcting means for correcting the first image data or the first image data other than the overlapping portion;
An image processing apparatus comprising: means for superimposing the image-corrected first image data and the second image data based on the mask detection result.
前記マスク処理手段は、前記第1の画像データの特定ビットに前記重なる部分を識別するためのデータを付加し、
前記マスク検出手段は、前記特定ビットの値に基づいて前記重なる部分を検出することを特徴とする請求項1に記載の画像処理装置。
The mask processing means adds data for identifying the overlapping portion to a specific bit of the first image data,
The image processing apparatus according to claim 1, wherein the mask detection unit detects the overlapping portion based on a value of the specific bit.
前記マスク処理手段は、前記重なる部分の画像データを固有値にし、
前記マスク検出手段は、前記転送された第1の画像データが固有値であれば、当該画像データを前記重なる部分であると決定することを特徴とする請求項1に記載の画像処理装置。
The mask processing means makes the image data of the overlapping portion a unique value,
2. The image processing apparatus according to claim 1, wherein if the transferred first image data is an eigenvalue, the mask detection unit determines that the image data is the overlapping portion.
前記マスク処理手段は、前記重なる部分の画像データのビット数及び色形式を変換し、
前記マスク検出手段は、前記転送された第1の画像データの所定ビットのデータに基づいて、前記重なる部分を検出することを特徴とする請求項1に記載の画像処理装置。
The mask processing means converts the number of bits and color format of the image data of the overlapping portion,
The image processing apparatus according to claim 1, wherein the mask detection unit detects the overlapping portion based on predetermined bit data of the transferred first image data.
画像形成部と画像処理部を備える画像処理装置であって、
前記画像形成部は、
第1の画像データと第2の画像データを形成する画像形成処理手段と、
前記第1の画像データ又は前記第2の画像データの色形式を変換し、当該第1の画像データと当該第2の画像データを合成する合成手段と、
前記合成された画像データを前記画像処理部に転送する転送手段と、を備え、
前記画像処理部は、
前記転送された画像データを、前記第1の画像データと前記第2の画像データに分離する分離手段と、
前記分離された第1の画像データを画像補正する画像補正手段と、
前記画像補正された第1の画像データと、前記分離された第2の画像データとを重ね合わせる手段と、を備えていることを特徴とする画像処理装置。
An image processing apparatus including an image forming unit and an image processing unit,
The image forming unit includes:
Image forming processing means for forming first image data and second image data;
A combining unit that converts a color format of the first image data or the second image data and combines the first image data and the second image data;
Transfer means for transferring the combined image data to the image processing unit,
The image processing unit
Separating means for separating the transferred image data into the first image data and the second image data;
Image correction means for correcting the image of the separated first image data;
An image processing apparatus comprising: means for superimposing the image-corrected first image data and the separated second image data.
前記合成手段は、前記第1の画像データ又は前記第2の画像データのビット数及び色形式を変換し、
前記分離手段は、前記転送された画像データの所定ビットのデータに基づいて分離することを特徴とする請求項5に記載の画像処理装置。
The synthesizing unit converts the number of bits and the color format of the first image data or the second image data,
6. The image processing apparatus according to claim 5, wherein the separation unit separates the transferred image data based on predetermined bit data.
前記画像形成処理手段は、前記第1の画像データよりもビット数が少ない第2の画像データを形成し、
前記合成手段は、前記第2の画像データの不足するビット数に所定値を付加し、当該第2の画像データを並べ替え、
前記分離手段は、前記転送された画像データの所定ビットのデータに基づいて分離することを特徴とする請求項5に記載の画像処理装置。
The image forming processing unit forms second image data having a smaller number of bits than the first image data;
The synthesizing unit adds a predetermined value to the insufficient number of bits of the second image data, and rearranges the second image data;
6. The image processing apparatus according to claim 5, wherein the separation unit separates the transferred image data based on predetermined bit data.
画像形成部と画像処理部を備える画像処理装置において実行される画像処理方法であって、
第1の画像データと第2の画像データを形成する画像形成処理工程と、
前記第1の画像データと前記第2の画像データとが重なる部分を識別可能にするためのマスク処理を、前記第1の画像データに対して行うマスク処理工程と、
前記マスク処理された第1の画像データと前記第2の画像データを、前記画像形成部から前記画像処理部に別々に転送する転送工程と、を備え、
前記転送された第1の画像データにおいて、前記重なる部分を検出するマスク検出工程と、
前記第1の画像データ、又は前記重なる部分以外の第1の画像データを画像補正する画像補正工程と、
前記マスク検出結果に基づいて、前記画像補正された第1の画像データと前記第2の画像データとを重ね合わせる工程と、を備えていることを特徴とする画像処理方法。
An image processing method executed in an image processing apparatus including an image forming unit and an image processing unit,
An image forming process for forming the first image data and the second image data;
A mask processing step for performing mask processing on the first image data so that a portion where the first image data and the second image data overlap can be identified;
A transfer step of separately transferring the masked first image data and the second image data from the image forming unit to the image processing unit,
A mask detection step for detecting the overlapping portion in the transferred first image data;
An image correction step of performing image correction on the first image data or the first image data other than the overlapping portion;
An image processing method comprising: superimposing the image-corrected first image data and the second image data on the basis of the mask detection result.
画像形成部と画像処理部を備える画像処理装置において実行される画像処理方法であって、
第1の画像データと第2の画像データを形成する画像形成処理工程と、
前記第1の画像データ又は前記第2の画像データの色形式を変換し、当該第1の画像データと当該第2の画像データを合成する合成工程と、
前記合成された画像データを、前記画像形成部から前記画像処理部に転送する転送工程と、を備え、
前記転送された画像データを、前記第1の画像データと前記第2の画像データに分離する分離工程と、
前記分離された第1の画像データを画像補正する画像補正工程と、
前記画像補正された第1の画像データと、前記分離された第2の画像データとを重ね合わせる工程と、を備えていることを特徴とする画像処理方法。
An image processing method executed in an image processing apparatus including an image forming unit and an image processing unit,
An image forming process for forming the first image data and the second image data;
Converting a color format of the first image data or the second image data, and combining the first image data and the second image data;
A transfer step of transferring the combined image data from the image forming unit to the image processing unit,
A separation step of separating the transferred image data into the first image data and the second image data;
An image correction step of performing image correction on the separated first image data;
An image processing method comprising: superimposing the image-corrected first image data and the separated second image data.
JP2004081515A 2004-03-19 2004-03-19 Image processing apparatus and image processing method Withdrawn JP2005269442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004081515A JP2005269442A (en) 2004-03-19 2004-03-19 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004081515A JP2005269442A (en) 2004-03-19 2004-03-19 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2005269442A true JP2005269442A (en) 2005-09-29

Family

ID=35093476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004081515A Withdrawn JP2005269442A (en) 2004-03-19 2004-03-19 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2005269442A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Imaging device
JP2008035009A (en) * 2006-07-27 2008-02-14 Fujifilm Corp Data correction method, apparatus and program
JP2009017338A (en) * 2007-07-06 2009-01-22 Canon Inc Image processing apparatus and printing apparatus
JP2009301293A (en) * 2008-06-12 2009-12-24 Canon Inc Image processor and control method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Imaging device
JP2008035009A (en) * 2006-07-27 2008-02-14 Fujifilm Corp Data correction method, apparatus and program
JP2009017338A (en) * 2007-07-06 2009-01-22 Canon Inc Image processing apparatus and printing apparatus
JP2009301293A (en) * 2008-06-12 2009-12-24 Canon Inc Image processor and control method thereof

Similar Documents

Publication Publication Date Title
JP4108723B2 (en) Display device driving method, display device driving device, program and recording medium thereof, and display device
JP5127121B2 (en) Display device and display method
JP4451057B2 (en) Display device driving method, display device, and program thereof
US20080186328A1 (en) Color conversion device, color conversion method, color conversion program, recording medium recording color conversion program, image processing device, and image display device
JP2009047775A (en) Display device
JP2005269442A (en) Image processing apparatus and image processing method
JP2013152338A (en) Image processing apparatus, image displaying system, and image displaying method
JP2007311889A (en) Image correction circuit, image correction method, and image display apparatus
JP5207832B2 (en) Display device
JP4626534B2 (en) Image processing apparatus and method, program, and recording medium
JP2007333770A (en) Electro-optical device, driving circuit for electro-optical device, driving method of electro-optical device, and electronic apparatus
JP6661339B2 (en) Display control device, multi-display system, and display method of multi-display system
US20080112024A1 (en) Image processing apparatus, image processing method, image processing program, recording medium storing image processing program, and image display apparatus
JP2003066924A (en) Image processing method for making defects of liquid crystal panel inconspicuous, and image display device using the same
JP4998145B2 (en) Image processing apparatus, image processing method, image processing program, recording medium storing image processing program, and image display apparatus
US11187931B2 (en) Polymer network liquid crystal display device and liquid crystal display method
JP4626533B2 (en) Image processing apparatus and method, program, and recording medium
JP2008131349A (en) Color conversion apparatus, color conversion method, color conversion program, recording medium recording color conversion program, image processing apparatus, and image display apparatus
JP2008294569A (en) Video processing apparatus and video display apparatus
JP4470587B2 (en) Image display device
JP3819322B2 (en) Image display system, processing apparatus, computer program, and recording medium
JP4503669B2 (en) Display device driving method, display device, and program thereof
JP2005339144A (en) Image processing circuit and liquid crystal display device
US8212929B2 (en) Image processing method and computer readable medium
JP2006126528A (en) Display image quality control method and display device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605