[go: up one dir, main page]

JP2004194050A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2004194050A
JP2004194050A JP2002360591A JP2002360591A JP2004194050A JP 2004194050 A JP2004194050 A JP 2004194050A JP 2002360591 A JP2002360591 A JP 2002360591A JP 2002360591 A JP2002360591 A JP 2002360591A JP 2004194050 A JP2004194050 A JP 2004194050A
Authority
JP
Japan
Prior art keywords
processing
image
enlargement
color space
reduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002360591A
Other languages
Japanese (ja)
Inventor
Takashi Nagao
隆 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2002360591A priority Critical patent/JP2004194050A/en
Publication of JP2004194050A publication Critical patent/JP2004194050A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of scaling processing and color space conversion processing in response to a demand for image quality and a processing speed. <P>SOLUTION: A controller 5 controls a scaling processor 3 and a color conversion processor 4 to perform processing at a shorter processing time sequence between a case of performing the color space conversion processing by the color conversion processor 4 posterior to the scaling processing by the scaling processor 3, and a case of performing the scaling processing by the scaling processor 3 posterior to the color space conversion processing by the color conversion processor 4. Further, when a plurality of scaling methods are provided in the scaling processor 3, the controller 5 controls to select a scaling method for the scaling processing. By this, the scaling processing and the color space conversion processing can be performed in a shortened processing time to the maximum extent, while using a scaling method for obtaining the image quality designated from a designation input section 6. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル化された画像を処理する技術に関するものであり、例えば画像表示機能を持つ表示装置やプリンタ等、デジタル画像を取り扱う様々なシステムにおいて利用される技術に関するものである。特に、画像の拡大縮小や色空間の変換処理などを含む画像処理技術に関するものである。
【0002】
【従来の技術】
近年、デジタルカメラや携帯電話に付属のデジタル画像撮影機能や、インターネット上のホームページなど、様々なデジタル画像の入手手段が登場してきた。さらに、高画質なプリンタの家庭への普及やプリントショップ、コンビニエンスストアに設置された多機能カラー印刷システムなどの登場により、ユーザがこれらの環境を使ってデジタル画像を表示/編集加工/印刷などの処理を行う機会が飛躍的に増大している。
【0003】
このような環境では、これまでと異なり、様々な色空間や画像サイズ/解像度を持った画像が流通する。これらの画像を表示/印刷するためには、例えば拡大・縮小、回転、色空間変換、フィルタ、合成などの各種の画像処理が必要となる。中でも拡大・縮小と色空間変換は、デジタルカメラで撮影した画像を表示/印刷する場合や、インターネット上のホームページを印刷する場合など、一般的なユーザの要求においても必須な機能である。特に拡大機能は、前述したようにデジタル画像の入手手段が多様化するにつれて、10万画素〜100万画素程度の小さなサイズの画像や、インターネットからの表示を高速化するために表示解像度やそれ以下の低い解像度の画像が使われる場合が増えてきたため、これらの低解像度画像を良好に印刷するために重要となってきた。
【0004】
このような低解像度画像を高解像度のプリンタなどで印刷する場合を想定すると、最も一般的に用いられている最近傍法を用いて拡大処理を行うと、画素が単純に拡大されるために平坦部では同じ画素値からなるブロックの境界が目立ってゴツゴツとした感じになる。またエッジ部では、直線的なエッジが階段状になってジャギーとして視認されるために、非常に画質の悪いものとなってしまう。
【0005】
そこで、これら低解像度画像を最近傍法よりも良好な画質で拡大する手段として、例えば、より高次な補間を行う方法(例えば線形補間や双3次補間、キュービックコンボリューション法など)がある。そのほかにも、例えば特許文献1に記載されているように、周波数空間上で繰り返し補間を行って失われている情報を推定する方法がある。また、例えば特許文献2に記載されているように、フラクタルを用いてそれらしい拡大画像を生成する方法もある。さらに、特願2002−76896号に記載されているように、多値のパターンマッチングを用いて角度推定を行って良好なエッジを得る方法や、特願2002−79388号に記載されているように、近傍から縮小類似ブロックを探索して置き換えを行う事で良好な画質を得る方法もある。このように、拡大処理手法としては、多種多様な方式が提案されている。
【0006】
これまで述べたような、低解像度画像の高画質拡大を目的とした各種の手法は、高画質である反面、最近傍法などの単純な方式と比べて処理にかなりの時間がかかるという欠点がある。そのため、表示/印刷処理全体のパフォーマンスが著しく低下してしまい、結果的にユーザの生産性を落とすことになってしまう。
【0007】
高画質を望むかぎりは、処理が複雑になり速度が低下するのを避けることはできないが、その低下度合いを抑える工夫はある。もちろん、前述した各高画質拡大手法はそれぞれに画質に対して速度が異なり、例えば特願2002−76896号や特願2002−79388号に記載された手法は高画質を維持しながら速度低下を最低限に抑える工夫がなされている。このような拡大手法そのものの改善とは別に、拡大手法の適用方法を変更することにより、処理速度を高速化する発明も存在する。その一例として、特許文献3や特許文献4などに記載された手法がある。
【0008】
特許文献3,4に記載されている手法は、カラー画像において各色成分に対して人間の視覚的な検知能力が異なることを利用している。例えば入力画像がRGB色空間の場合には、最も視覚的に感度の高いG成分に対しては高画質かつ低速な拡大手法を用い、次に感度の高いR成分には中画質かつ中速な手法を用い、最も感度の低いB成分には低画質かつ高速な手法を用いることで、視覚的にあまり画質を落とすことなく拡大処理全体としての処理速度を向上させることを狙っている。
【0009】
一方、上述のように各種の供給源から画像データを取得し、各種の出力先へ画像データを出力することを考えると、画像データの色空間についても変換処理が必要となる。例えば入力される画像データとしてはRGB色空間やJPEG−DCT方式により圧縮が施されている場合にはYCbCr色空間などが用いられる。また出力先が受け取る色空間としては、例えばディスプレイ等の表示装置の多くはRGB色空間が用いられ、プリンタではCMYK色空間が用いられることが多い。このように種々の色空間から種々の色空間への色空間の変換処理が必要となる。
【0010】
このとき、変換前の色空間と変換先の色空間における色成分の数を考えると、RGB色空間やYCbCr色空間では色成分の数は3であるが、CMYK色空間では色成分の数は4となる。後段において画像処理を施す場合を考えると、色成分の数が少ない方が高速に処理を行うことができる可能性が高い。逆に、色空間の変換処理の前に画素数が増加するような処理(例えば上述の拡大処理など)を行った場合、色空間の変換処理に要する時間は増大してしまう。
【0011】
このように、それぞれの画像処理において画像データのデータ量が変化する場合、それぞれの処理における処理時間が変化する。そのため、処理の順序を変更するだけでも処理時間を短縮して高速処理が可能である。しかし、従来の画像処理装置においては、入出力される画像データの色空間などを特定していることもあり、処理の順序が固定されている。そのため、種々の画像データに対して任意の倍率による拡大縮小処理及び色空間変換処理を行わせる場合でも、高速化を図ることができないかった。
【0012】
また、例えば上述のJPEG−DCT方式で圧縮が施されている場合、色成分によっては解像度を低下させている場合があるが、低下させた解像度のままでも可能な処理においてはそのまま処理を行った方が、解像度を戻してから処理を行うよりも処理時間を短縮できる。しかし、従来はこのような関係については考慮されていなかった。さらに、出力デバイスの画質再現能力についても考慮されていないため、無駄に高画質な拡大を行ってしまうといった欠点があった。
【0013】
【特許文献1】
特開平3−204268号公報
【特許文献2】
特許第2968582号公報
【特許文献3】
特開2000−151989号公報
【特許文献4】
特開2000−182022号公報
【0014】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、画像データに応じて高速に拡大縮小処理及び色空間変換処理が可能な画像処理装置を提供することを目的とするものである。さらに、画質や処理速度の要求、例えば操作者の指示や出力デバイスの画質再現能力などに応じた画像処理が可能な画像処理装置を提供することを目的とするものである。
【0015】
【課題を解決するための手段】
本発明は、画像処理装置において、画像データに対して拡大縮小処理を行うことが可能な画像拡縮手段と、画像データに対して色空間の変換処理を行うことが可能な色空間変換手段と、入力された画像データに対して前記画像拡縮手段による拡大縮小処理後に前記色空間変換手段による色空間の変換処理を行った場合と前記色空間変換手段による色空間の変換処理後に前記画像拡縮手段による拡大縮小処理を行った場合で処理時間が短い処理順序により処理が行われるように前記画像拡縮手段及び前記色空間変換手段を制御する制御手段を有することを特徴とするものである。このように処理時間が短くなる順序で処理を行うことによって、高速に画像処理が可能な画像処理装置を提供することができる。
【0016】
制御手段が処理時間に従って処理順序の制御を行う際には、画像拡縮処理手段における拡縮倍率や、色空間変換手段による変換処理前後の色空間の色成分数を考慮することができる。また、画像データがJPEG−DCT形式で圧縮されている場合には、圧縮時の色空間のままの伸長手段で伸長した画像データを圧縮時の色空間を考慮して前記処理順序の制御を行うことができる。このとき、圧縮時に特定の色成分について間引きされているときには、色成分別に異なる解像度のまま、画像データの色成分毎の解像度を考慮して前記処理順序の制御を行うことができる。これによって、色成分によっては低解像度のまま処理を行い、処理時間を短縮することが可能となる。
【0017】
また、画像拡縮手段として処理負荷及び処理画質が異なる複数の拡縮手法による拡大縮小処理が可能な構成とすることができる。この場合、制御手段は画像拡縮手段において用いる拡縮手法と前記処理順序の制御を行うことになる。このとき、例えば出力画像として所望される画質あるいは処理速度に基づいて前記拡縮手法と前記処理順序の制御を行うように構成することができる。例えば、画像データの色成分の視覚特性に基づいて、それぞれの色成分毎に前記拡縮手法を選択することができる。あるいは、処理順序あるいはさらに拡縮手法の組み合わせによる処理時間と処理後の画質について目安となる情報を情報提示手段により提示し、操作者が指示手段により指示した処理順序あるいはさらに拡縮手法に従って処理順序の制御あるいはさらに拡縮手法の選択を行うように構成することができる。または、処理後の画像データを出力する画像出力手段の画質再現能力や出力サイズ/解像度に応じて処理順序の制御あるいはさらに拡縮手法の選択を行うことができる。このようにして、所望の画質、速度、画像出力手段の画質再現能力などに応じて最適な画像処理を行うことができる。
【0018】
【発明の実施の形態】
図1は、本発明の画像処理装置の第1の実施の形態を示すブロック図である。図中、1は画像記憶部、2は画像入力部、3は拡縮処理部、4は色変換処理部、5は制御部、6は指示入力部である。画像記憶部1は、処理対象であるデジタル化された画像データを保持する。保持される画像データは非圧縮形式でも良いし、またはJPEG−DCT形式を含む様々な形式で圧縮されていても良い。
【0019】
画像入力部2は、画像記憶部1に保持された画像データの読み出し処理を行う。その際、圧縮されている画像データについては伸長処理を行いながら読み出しが可能であり、伸長手段としての機能を有している。また、JPEG−DCT形式のように色成分によって間引かれている場合には、間引かれたまま色成分により異なる解像度での読み出しも可能である。
【0020】
拡縮処理部3は、画質や処理速度(処理負荷)の異なる1ないし複数の拡縮手法による画像データの拡大縮小処理を行うことができる。なお、いくつかの拡縮手法の具体例については後述する。
【0021】
色変換処理部4は、入力される画像データについて想定される色空間(例えばRGB,YCbCr,CMYKなど)を、出力として要求される色空間(例えばRGB,CMYKなど)に変換する機能を持つ。この機能は、マトリックス演算とルックアップテーブル処理の組み合わせや、補間付き3次元ダイレクトルックアップテーブル処理など、種々の方法によって実現される。これらの処理内容については各種の色処理に関する文献に詳しく記載されているので、ここでは詳細な説明は省略する。
【0022】
制御部5は、各部の処理を制御する。特に、処理対象の画像データに対して、拡縮処理部3による拡大縮小処理後に色変換処理部4による色空間の変換処理を行った場合と、色変換処理部4による色空間の変換処理後に拡縮処理部3による拡大縮小処理を行った場合とで、処理時間が短くなる処理順序により処理が行われるように、拡縮処理部3及び色変換処理部4を制御する。また、拡縮処理部3において拡縮処理を行う拡縮手法の選択も制御する。処理時間の比較の際には、拡縮倍率や色成分数、JPEG−DCT方式によって圧縮されている場合などでは色成分毎の解像度などを考慮して行う。
【0023】
指示入力部6は、操作者が出力画像の画質あるいは処理時間に関する複数の選択肢から選択した指示を入力し、その指示を制御部5に伝える。
【0024】
次に、拡縮処理部3において実行可能な拡縮手法について、幾つかを例として概要を説明する。なお、以下の説明では画像の拡大を行うものとして説明するが、いくつかの手法ではそのまま縮小処理を行うことが可能であるし、別途、縮小手法を設けてもよい。
【0025】
図2は、最近傍法による拡大処理の説明図である。最近傍法は、図2に示したように、図2(A)に示す出力画像の画素値Poutは、その中心点を入力画像上に逆写像した点(図2(B)において黒丸で示す)に最も近い入力画像上の画素値Pinとする手法である。具体的には入力画像の画素値Pinと横/縦方向の倍率(rx,ry)から以下の式1で求められる。なお、floor(a)はaの小数以下を切り捨てた整数値を求める関数である。
Pout(X,Y)=Pin(floor((X+0.5)/rx),floor((Y+0.5)/ry)) ・・・(式1)
この式1のように処理を行うと、出力画像は入力画像を倍率(rx,ry)で最近傍拡大処理したものを得ることができる。
【0026】
なお、式1では出力の1点ごとに計算を行っているが、実際にはDDA(デジタル差分解析器)と呼ばれる手法を使って、X,Yのそれぞれ1点前の値をもとに加算のみで計算を行うことで処理を高速化できる(式2)。
cx=(X+0.5)/rx
cy=(Y+0.5)/rx
dx=1/rx
dy=1/ry
Pout(X+1,Y+1)=Pin(floor(cx+dx),floor(cy+dy)) ・・・(式2)
【0027】
図3は、線形補間法による拡大処理の説明図である。線形補間法では、図3に示したように、出力画像の画素値Poutは、Poutの中心点を入力画像上に逆写像した点の近傍4点の画素値を、各軸毎に線形補間した画素値となる。逆写像点の計算は、最近傍拡大法と同じくDDAを使って加算のみで求めることができる。例えば入力画像を線形補間法を用いて2倍に拡大する場合、出力画像上の(4,2)を上述の式1に従って入力画像上に逆写像すると、(2.25,1.25)となる。この場合、入力画像の画素位置をX方向及びY方向とも3:1に内分する点であるので、X方向に補間処理を行うと
P’=(Pin1+3・Pin3)/4
P”=(Pin2+3・Pin4)/4
であり、これらを用いてY方向に補間処理を行うと、
P’out=(P’+3・P”)/4
となる。ここでは近傍の4点を用いて補間処理を行ったが、さらに多くの近傍の点を用いて補間処理を行う場合もある。
【0028】
図4は、マルチエッジパターン法による拡大処理の説明図である。このマルチエッジパターン法は、例えば特願2002−76896号において提案された高画質拡大方式である。詳細は特願2002−76896号に詳しいのでここでは概略を述べるに留める。図4に示したように、まずS11において、注目画素ブロック及び周辺画素を含む小画像ブロックを切り出す。S12において、注目画素ブロックと周辺画素を含む領域ブロックからそれぞれエッジ角度を推定する。S13において、S12で推定したエッジ角度に対応して予め用意されている拡大パターンを選択し、その拡大パターンをもとにS14において拡大ブロック領域を生成して置き換える。これによって、シャープなエッジを保った高画質の拡大画像を得ることができる。
【0029】
このマルチエッジパターン法では、周辺画素参照やエッジ角度推定、パターン選択、拡大ブロック生成、置き換え処理など複雑な工程を伴う。そのため、上述の最近傍法や線形補間法などと比べ、高画質ではあるが多くの処理時間を必要とする手法である。
【0030】
その他の拡縮手法としては、例えば前述の特許文献1や、特許文献2、特願2002−79388号で提案された手法など、多くの手法を設けておくことができる。以下では説明を簡単にするために、前記の最近傍法、線形補間法、マルチエッジパターン法の3つの拡縮手法が設けられているものとし、最近傍法を方式1、線形補間法を方式2、マルチエッジパターン法を方式3と記載することとする。
【0031】
次に、制御部5の動作の概要について説明する。上述のように、制御部5は、処理対象の画像データに対して、拡縮処理部3による拡大縮小処理後に色変換処理部4による色空間の変換処理を行った場合と、色変換処理部4による色空間の変換処理後に拡縮処理部3による拡大縮小処理を行った場合とで、処理時間が短くなる処理順序により処理が行われるように、拡縮処理部3及び色変換処理部4を制御する。このような制御を説明する前に、拡大処理格納部3及び色変換処理部4における処理時間の関係を説明しておく。
【0032】
図5は、拡大処理格納部3及び色変換処理部4における処理時間の関係の説明図である。図5(A)には拡縮処理部3による拡大縮小処理時の倍率と処理時間の関係を示し、また図5(B)には色変換処理部4における画素数と処理時間の関係を示している。拡縮処理部3における拡大縮小処理では、上述のような拡縮手法によってそれぞれ違いはあるものの、一般的には倍率が大きく、生成する画像のサイズが大きいほど処理時間を要する。そのため、図5(A)に示すように右上がりのグラフとなる。また、多くの場合には色成分ごとに拡大後の画素の値を決定するため、処理時間は色成分数にも関係する。例えば画像データの色空間がRGBやYCbCrなどのように色成分数が3の場合と、CMYKなどのように色成分数が4の場合とでは、図5(A)中に示すように色成分数が多い方が処理時間は長くなる。
【0033】
一方、色変換処理部4における色空間の変換処理では、それぞれの画素ごとに処理を行うため、一般に処理時間は画素数に依存する。そのため、図5(B)に示すように画素数の増加とともに処理時間も長くなる。
【0034】
これらの関係をもとに、拡縮処理部3による拡大縮小処理後に色変換処理部4による色空間の変換処理を行った場合と、色変換処理部4による色空間の変換処理後に拡縮処理部3による拡大縮小処理を行った場合とで、いずれの処理時間が短くなるかを調べればよい。例えば図5に示した例では、倍率をαとし、倍率αによる拡縮処理によって画素数がβからγに増加するものとする。また、色空間変換処理によって色成分数が3から4に増加するものとする。この場合、先に拡大縮小処理を行うと画像データの色成分数が3であるので処理時間はt3であり、その後の色変換処理部4による色空間の変換処理では拡大縮小処理後であるので画素数がγであり、処理時間はtγだけ必要となる。逆に先に色変換処理部4による色空間変換処理を行うと、画素数がβであり、処理時間はtβとなる。その後、拡大縮小処理を行うと、色空間変換処理によって色成分数は4となっているので、処理時間はt4だけ必要となる。従って、単純にはt3+tγとtβ+t4を比較して処理時間の短くなる方を選択すればよいことが分かる。
【0035】
実際にはこのほかにも、例えば拡縮手法による処理時間の相違や、JPEG−DCT方式によって圧縮されている場合などでは色成分毎の解像度、また色成分ごとに拡縮手法を変更するのであれば用いるそれぞれの拡縮手法における処理時間など、種々の要因を考慮して、処理時間の予測及び比較を行えばよい。なお、処理時間は、上述の拡縮方式1から3のように画像に依存しない拡縮方式や色変換処理の場合には、入力画像データのサイズと倍率から、かなり正確な予測値を求めることができる。
【0036】
図6は、制御部5における拡縮処理部3及び色変換処理部4に対する動作制御の具体例の説明図である。ここでは、制御部5には、画像入力部2から処理対象画像の属性情報(画像サイズや色空間情報など)が入力されるとともに、指示入力部6から画質/処理時間に関する選択指示情報が伝えられるものとする。この選択指示情報は、例えば「高画質/低速」、「標準画質」、「低画質/高速」をそれぞれ「0」、「1」、「2」に割り振ったようなもので良いし、拡縮手法の数によってはもっと多くの選択情報に分かれていても良い。図6では、説明を簡単にするために選択指示情報が「0」、「1」、「2」のいずれかであるものとして説明を行う。また、ここでは仮に入出力色空間としてRGB,YCbCr,CMYKを処理できるものとし、拡縮後の画像サイズ(または拡縮倍率)や出力色空間は予め制御部5に格納または指示入力部6や図示していない何らかの手段により指示されているものとする。また、拡縮倍率は1より大きく、すなわち拡大処理を行うものとする。
【0037】
制御部5に指示入力部6から選択指示情報として「0」が指示された場合(モード「0」)、制御部5は次のように動作する。まず画像記憶部1に格納された入力画像の属性情報(画像サイズ、色空間など)を画像入力部2を使って取得する。その結果、入力画像の色空間と要求されている出力色空間とが等しい場合には、拡縮処理部3に設けられている複数の拡縮方式の中から最も高画質かつ処理時間のかかる方式3を一つだけ選択して倍率設定を行い、画像入力部2で画像記憶部1中の画像データを読み出しながら、拡縮処理部3により拡大処理を行う。この時、画像データが圧縮されている場合には、伸長処理を行いながら読み出しを行い、また色成分によって間引きされ解像度が異なる場合には拡大後の画像サイズが各色成分で等しくなるように倍率の設定を行う。なお、この場合には色変換処理部4による色空間の変換処理は不要である。
【0038】
入力色空間と出力色空間とが等しくない場合には、RGBからYCbCrやその逆のように3成分画像を同じ3成分の異なる色空間に変換する場合や、CMYKからRGBやYCbCrのように4成分から3成分の色空間に変換する場合には、3成分の色空間の画像データに対して拡大縮小処理を行った方が有利である。また、拡大処理によって画素数が増加する前に色空間の変換処理を行った方が有利である。そのため、画像入力部2から入力された画像に対して先に色変換処理部4を動作させて画像データの色空間を変換する。この時、例えばCb,Cr成分がY成分に対して間引かれているなどの場合には、間引かれた画素に隣接した画素値を使って処理を行う。その後に、上記と同様に拡縮処理部3に格納された複数の拡縮方式の中から最も高画質かつ処理時間のかかる方式3を一つだけ選択して倍率設定を行い、拡大処理を行って出力画像を得る。制御部5は、この処理結果を例えば図示されていないシステム外部のディスプレイ装置やプリンタ装置などに対して出力する。
【0039】
入力色空間がRGBやYCbCrのように3成分で、出力色空間がCMYKのように4成分の場合には、ここではまず画像入力部2から入力された画像に対して拡縮処理部3に設けられている複数の拡縮方式の中から方式3を一つだけ選択して倍率設定を行って拡大処理し、その拡大された画像に対して色変換処理部4を動作させて画像の色空間を変換して出力画像を得る。ここで色空間の変換処理よりも拡大縮小処理を先に行ったのは、制御部5が、方式3を使った4成分画像と3成分画像の拡大処理時間の差が拡大前後の色変換処理時間の差より大きいと判断したからである。上述のように拡大縮小処理時間及び色空間変換処理時間は、倍率(画素数)にも依存するので、倍率によっては色変換処理を先に行うと判断される場合もある。その判断は制御部5が行う。
【0040】
また先程述べたように、JPEG−DCT圧縮でYCbCrやLabなどの色空間で圧縮されている場合には、圧縮条件によってはCb,Cr成分やa,b成分が間引かれてYやLより低い解像度になっている場合がある。その場合には、色成分によって異なる倍率の拡大処理になることによる処理時間の違いを考慮して制御部5が色変換と拡大の順序を決定する。
【0041】
なお、各色に対して同じ方式3を用いて拡大を行ったのは、拡大を異なる手法で行った場合に、異なる色の境界部分などに発生する拡大方式の違いによる色にじみを抑えて、より高画質な拡大を行うためである。もちろん、高画質な拡大処理を行う拡縮手法を用いた分だけ処理時間がかかるため、低速となる。
【0042】
次に制御部5に指示入力部6から選択指示情報として「1」が指示された場合(モード「1」)について、同様に説明する。まず画像記憶部1に格納された入力画像の属性情報(画像サイズ、色空間など)を画像入力部2から取得する。その結果、入力画像の色空間と要求されている出力色空間とが等しい場合には、以下の様に処理を行う。
1)RGBの場合
RGBではG>R>Bの順に視覚に対する影響が大きい。そこでGは方式3で、Rは方式2で、Bは方式1で、それぞれ拡大処理を行う。
2)YCbCrの場合
YCbCrでは、視覚に対する影響はY>>Cb,Crである。そこでYは方式3で、Cb,Crは方式2(または方式1)で処理を行う。
3)CMYKの場合
CMYKではK>C,M>Yのように視覚に対する影響が大きい。そこでKは方式3で、C,Mは方式2で、Yは方式1で処理を行う。
【0043】
この時、入力画像が圧縮されている場合には、伸長処理を行いながら読み出しを行い、また色成分によって間引きにより解像度が異なる場合には、拡大後の画像サイズが各色成分で等しくなるように倍率の設定を行う。なお、色変換処理部4による色空間変換処理は行わない。
【0044】
入力色空間と出力色空間とが等しくない場合には、RGBからYCbCrやその逆のように3成分画像を同じ3成分の異なる色空間に変換する場合や、CMYKからRGBやYCbCrのように4成分から3成分の色空間に変換する場合には、上述のモード0の場合と同様に、画像入力部2から入力された画像に対して先に色変換処理部4により画像データの色空間を変換し、その後の色空間をもとに上記1)〜3)と同じ拡大処理を行う。制御部5は、この処理結果を例えば図示されていないシステム外部のディスプレイ装置やプリンタ装置などに対して出力する。
【0045】
入力色空間がRGBやYCbCrのように3成分で、出力色空間がCMYKのように4成分の場合には、まず画像入力部2から入力された画像に対して、その色空間に応じて上記1)〜3)と同じ拡大処理を行い、その拡大された画像に対して色変換処理部4による画像データの色空間を変換して出力画像を得る。ここで色変換処理よりも拡大縮小処理を先に行ったのは、上述のモード「0」の場合と同じく、制御部5が、方式3を用いた場合の4成分画像と3成分画像の拡大処理時間の差が拡大前後の色変換処理時間の差より大きいと判断したからである。上述のように拡大縮小処理時間と色空間変換処理時間は倍率にも依存するので、倍率によっては色変換処理を先に行うと判断される場合もある。その判断はモード「0」の場合と同じく制御部5が行う。
【0046】
この処理では、モード「0」が指定された場合と比べて、拡大縮小処理と色空間変換処理の処理順は変わっていないが、拡大処理がより高速な方式2や方式1との混合方式になっているため、全体の処理時間はモード「0」の場合と比べて高速になる。しかしながら画質については、視覚的に重要な成分がシャープに拡大されるのに対して、それ以外の成分はややぼけ気味に拡大されたりブロック状に拡大されたりするため、異なる色の境界部分では色にじみなどの現象が発生して画質はやや低下する。
【0047】
次に制御部5に指示入力部6から選択指示情報として「2」が指示された場合(モード「2」)について、同様に説明する。まず画像記憶部1に格納された入力画像の属性情報(画像サイズ、色空間など)を画像入力部2から取得する。その結果、入力画像の色空間と要求されている出力色空間とが等しい場合には、拡縮処理部3に設けられている複数の拡縮手法の中から最も高速かつ画質の低い方式1を一つだけ選択して倍率設定を行い、画像入力部2で画像記憶部1中の入力画像を読み出しながら、選択した方式1の拡縮手法により拡大処理を行う。この時、入力画像が圧縮されている場合には、伸長処理を行いながら読み出しを行い、また色成分によって間引きされ解像度が異なる場合には拡大後の画像サイズが各色成分で等しくなるように倍率の設定を行う。
【0048】
入力色空間と出力色空間とが等しくない場合には、上述のモード「0」やモード「1」の場合とは異なり、どの色空間への変換の場合でも色変換処理を拡大よりも先に行う。具体的には、画像入力部2から入力された画像データに対して色変換処理部4により色空間の変換処理を行い、色空間変換処理後の画像データに対して拡縮処理部3に設けられている複数の拡縮手法の中から最も高速かつ画質の低い方式1を一つだけ選択して倍率設定を行い、拡大処理を行う。次に制御部5は、この処理結果を例えば図示されていないシステム外部のプリンタなどに対して出力する。
【0049】
ここでモード「0」、「1」と異なり、色変換処理が必要な場合に常に拡大処理より先に処理を行ったのは、高速な拡縮手法である方式1を用いたことによって、制御部5が、方式1を用いたときの4成分画像と3成分画像の拡大処理時間の差が拡大前後の色変換処理時間の差より小さいと判断したからである。画質については、低画質/高速な方式1を用いているため、モード「0」、「1」と比較して低下したものとなる。上述のように拡大縮小処理時間及び色空間変換処理時間は倍率にも依存するので、倍率によっては色変換処理を後に行うと判断される場合もある。その判断はモード「0」、「1」の場合と同じく制御部5が行う。
【0050】
以上述べたように、画質/処理時間の選択に応じて、拡縮手法の選択や、色空間変換処理と拡大縮小処理の処理順の変更を行うことにより、ユーザの要求に応じた処理を実行することができる。もちろん上述の図6は制御部5による判断の一例であり、処理順序及びそれぞれの色成分に対して施す拡縮手法はこの例に限られない。
【0051】
なお、ここでは説明を簡単にするために選択指示情報を「0」、「1」、「2」の3通りに絞って説明したが、例えばモード「1」において拡大方式として方式2のかわりに方式1を使うことで画質と処理時間が「1」と「2」の中間となるモードを設けることが可能である。また、拡縮処理部3にもっと多くの拡大処理モジュールを用意すれば、さらに細かい単位で画質と処理時間の兼ね合いを制御することが可能である。また、上述の説明では拡縮処理部3において主に拡大処理を行う場合について説明しているが、縮小処理を行う場合についても同様である。
【0052】
さらに、制御部5が画像データに対する処理を行う前に拡大縮小処理時間及び色空間変換処理時間を予測演算するほか、例えば図6に示すようなテーブルを1つあるいはある程度の倍率範囲毎に予め設けておき、そのテーブルを参照することによって処理順序あるいはさらに拡縮手法の選択を行うように構成することもできる。
【0053】
図7は、本発明の画像処理装置の第2の実施の形態を示すブロック図である。図中、図1と同様の部分には同じ符号を付して説明を省略する。7は情報提示部である。情報提示部7は、操作者に情報を提示するものであり、この情報提示部7に提示された情報を参照しながら、操作者は指示入力部6から指示を行うことができる。特にこの実施の形態では、制御部5からの制御に従い、拡大縮小処理と色空間変換処理の処理順序や、拡縮処理部3に設けられている拡縮手法の選択との組み合わせによる処理時間と処理後の画質について、目安となる情報を提示する。処理時間及び画質は、入力画像サイズや拡大倍率、入出力色空間情報をもとに予測することができる。特に上述の拡縮手法の方式1から3のように画像の内容に依存しない拡縮手法の場合には、入力画像サイズと倍率からかなり正確に処理時間の予測値を求めることができる。また画質については、予め主観評価実験などにより各選択による出力画質のレベル付けをしておけば、そのレベル値を提示することが可能である。
【0054】
このようなそれぞれのモードにおける処理時間及び画質などの情報の提示によって、操作者による指示入力部6からの指示を補助することができる。操作者は、提示された情報をもとに、指示入力部6から処理順序や拡縮手法の選択(モードの選択など)を行えばよい。
【0055】
上述の第1の実施の形態において説明した例のようにモードが3つ程度と少ない場合には、操作者はモードを容易に選択することができる。しかし、モードが増えてゆくと、操作者にとって逆に選択に迷うケースも考えられる。このような場合には、この第2の実施の形態のように、それぞれのモードによってどの程度の処理時間でどの程度の画質が得られるかといった情報を、情報提示部7により操作者に提示することによって、操作者の選択を補助することができる。
【0056】
図8は、本発明の画像処理装置の第3の実施の形態を示すブロック図である。図中、図1及び図7と同様の部分には同じ符号を付して説明を省略する。8はディスプレイ装置、9はプリンタ装置である。この第3の実施の形態では、出力デバイスとしてディスプレイ装置8及びプリンタ装置9を明示している。これらの出力デバイスの画質再現能力や解像度などの情報を制御部5において保持すれば、視覚的に再現できない無駄な高画質拡大処理を行わずに、より高速に処理を行うことが可能である。
【0057】
例えば、ディスプレイ装置8は多値表示が可能であり、かつ、低解像度である。そのため、操作者が高倍率で見ることを意図した場合には画質差が視認されやすいので、例えば図6に示した例においてモード「1」が指示され、色空間がYCbCrの画像データに対して拡大縮小処理を施す場合には、その指示に従ってY成分は方式3で、Cb,Cr成分は方式2で処理を行う。しかしプリンタ装置9については、スクリーン処理され、かつ、高解像度であるため詳細に見ることが少ない。従って、例えばY成分は方式3で、Cb,Cr成分は方式1で処理を行うことができる。このように、操作者には視認できない画質低下の範囲で、より高速な手法に自動的に切り替えることが可能である。
【0058】
図9は、本発明の画像処理装置の機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体の一例の説明図である。図中、21はプログラム、22はコンピュータ、31は光磁気ディスク、32は光ディスク、33は磁気ディスク、34はメモリ、41は光磁気ディスク装置、42は光ディスク装置、43は磁気ディスク装置である。
【0059】
上述の本発明の各実施の形態で説明した画像入力部2や拡縮処理部3の各拡縮手法や色変換処理部4や制御部5や指示入力部6の機能の一部または全部は、コンピュータにより実行可能なプログラム21によっても実現することが可能である。その場合、そのプログラム21およびそのプログラムが用いるデータなどは、コンピュータが読み取り可能な記憶媒体に記憶することも可能である。記憶媒体とは、コンピュータのハードウェア資源に備えられている読取装置に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読取装置にプログラムの記述内容を伝達できるものである。例えば、光磁気ディスク31,光ディスク32(CDやDVDなどを含む)、磁気ディスク33,メモリ34(ICカード、メモリカードなどを含む)等である。もちろんこれらの記憶媒体は、可搬型に限られるものではない。
【0060】
これらの記憶媒体にプログラム21を格納しておき、例えばコンピュータ22の光磁気ディスク装置41,光ディスク装置42,磁気ディスク装置43,あるいは図示しないメモリスロットにこれらの記憶媒体を装着することによって、コンピュータからプログラム21を読み出し、本発明の画像処理装置の機能または画像処理方法を実行することができる。あるいは、予め記憶媒体をコンピュータ22に装着しておき、例えばネットワークなどを介してプログラム21をコンピュータ22に転送し、記憶媒体にプログラム21を格納して実行させてもよい。なお、画像データ格納部2は、コンピュータ22内のメモリあるいは付属の磁気ディスク装置やその他の記憶媒体を適用することができる。
【0061】
もちろん、本発明の一部の機能についてハードウェアによって構成することもできるし、あるいは、すべてをハードウェアで構成してもよい。また、図9に示したように1台のコンピュータによって実現するほか、例えばLANやインターネットなどを介して複数台のコンピュータに機能を分散して配置し、複数台のコンピュータが協働して本発明の画像処理装置の機能を実現するような構成であってもよい。
【0062】
【発明の効果】
以上の説明から明らかなように、本発明によれば、拡大縮小処理と色空間変換処理の処理順序を適切に制御し、またさらに複数の拡縮手法から適切な手法を選択して用いることによって、高速な処理が可能な画像処理装置を提供することができる。また、画質/処理時間に対する要求に応じた拡大縮小処理及び色空間変換処理を行うことができる。さらに、出力先の性能により過剰な高画質化処理を行うことなく、高速に処理を行うことが可能な画像処理を実現することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の画像処理装置の第1の実施の形態を示すブロック図である。
【図2】最近傍法による拡大処理の説明図である。
【図3】線形補間法による拡大処理の説明図である。
【図4】マルチエッジパターン法による拡大処理の説明図である。
【図5】拡大処理格納部3及び色変換処理部4における処理時間の関係の説明図である。
【図6】制御部5における拡縮処理部3及び色変換処理部4に対する動作制御の具体例の説明図である。
【図7】本発明の画像処理装置の第2の実施の形態を示すブロック図である。
【図8】本発明の画像処理装置の第3の実施の形態を示すブロック図である。
【図9】本発明の画像処理装置の機能をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体の一例の説明図である。
【符号の説明】
1…画像記憶部、2…画像入力部、3…拡縮処理部、4…色変換処理部、5…制御部、6…指示入力部、7…情報提示部、8…ディスプレイ装置、9…プリンタ装置、21…プログラム、22…コンピュータ、31…光磁気ディスク、32…光ディスク、33…磁気ディスク、34…メモリ、41…光磁気ディスク装置、42…光ディスク装置、43…磁気ディスク装置。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for processing digitized images, and for example, to a technology used in various systems that handle digital images, such as a display device or a printer having an image display function. In particular, the present invention relates to an image processing technique including an image scaling process and a color space conversion process.
[0002]
[Prior art]
2. Description of the Related Art In recent years, various digital image obtaining means such as a digital image capturing function attached to a digital camera or a mobile phone and a homepage on the Internet have appeared. Furthermore, with the spread of high-quality printers at home and the emergence of multifunctional color printing systems installed in print shops and convenience stores, users can use these environments to display, edit, and print digital images. Opportunities for processing are increasing dramatically.
[0003]
In such an environment, unlike before, images having various color spaces and image sizes / resolutions are distributed. In order to display / print these images, various types of image processing such as enlargement / reduction, rotation, color space conversion, filtering, and synthesis are required. Above all, enlargement / reduction and color space conversion are essential functions for general user requests, such as displaying / printing an image taken by a digital camera and printing a homepage on the Internet. In particular, as described above, as the digital image obtaining means has diversified, the enlargement function has a small image size of about 100,000 pixels to 1,000,000 pixels, and a display resolution of less than 100,000 pixels. Because low-resolution images are often used, it has become important to print these low-resolution images well.
[0004]
Assuming that such a low-resolution image is printed by a high-resolution printer or the like, if the enlargement processing is performed using the most commonly used nearest neighbor method, the pixels are simply enlarged because the pixels are simply enlarged. In the portion, the boundaries between blocks having the same pixel value are noticeable and rugged. Further, in the edge portion, since the linear edge becomes stair-like and is visually recognized as a jaggy, the image quality is extremely poor.
[0005]
Therefore, as means for enlarging these low-resolution images with better image quality than the nearest neighbor method, there is a method of performing higher-order interpolation (for example, linear interpolation, bicubic interpolation, cubic convolution method, etc.). In addition, there is a method of estimating missing information by repeatedly performing interpolation in a frequency space as described in Patent Document 1, for example. Further, as described in Patent Document 2, for example, there is a method of generating a suitable enlarged image using fractals. Furthermore, as described in Japanese Patent Application No. 2002-76896, a method of obtaining a good edge by performing angle estimation using multi-value pattern matching, or as described in Japanese Patent Application No. 2002-79388. There is also a method of obtaining good image quality by searching for a reduced similar block from the vicinity and performing replacement. As described above, various methods have been proposed as enlargement processing methods.
[0006]
As described above, various methods aimed at enlarging low-resolution images with high image quality have high image quality, but have the disadvantage that they take much longer to process than simple methods such as the nearest neighbor method. is there. As a result, the performance of the entire display / print processing is significantly reduced, and as a result, the productivity of the user is reduced.
[0007]
As long as high image quality is desired, it is unavoidable that the processing becomes complicated and the speed is reduced, but there is a device to suppress the degree of the reduction. Of course, each of the above-described high image quality enlarging methods has a different speed with respect to image quality. For example, the methods described in Japanese Patent Application Nos. 2002-76896 and 2002-79388 minimize the speed reduction while maintaining high image quality. It is designed to keep it to a minimum. Apart from the improvement of the enlargement method itself, there is also an invention in which the processing speed is increased by changing the application method of the enlargement method. As an example, there is a method described in Patent Document 3 or Patent Document 4.
[0008]
The techniques described in Patent Literatures 3 and 4 utilize the fact that the human visual detection ability differs for each color component in a color image. For example, if the input image is in the RGB color space, a high-quality and low-speed enlargement method is used for the most visually sensitive G component, and a medium-quality and medium-speed By using a technique and using a low-quality and high-speed technique for the B component with the lowest sensitivity, the aim is to improve the processing speed of the entire enlargement processing without visually lowering the image quality very much.
[0009]
On the other hand, in consideration of acquiring image data from various sources and outputting image data to various output destinations as described above, a conversion process is also required for the color space of the image data. For example, an RGB color space or a YCbCr color space is used as input image data when compression is performed according to the JPEG-DCT method. As a color space received by an output destination, for example, many display devices such as a display use an RGB color space, and a printer often uses a CMYK color space. Thus, a conversion process of the color space from various color spaces to various color spaces is required.
[0010]
At this time, considering the number of color components in the color space before conversion and the color space of the conversion destination, the number of color components is 3 in the RGB color space and the YCbCr color space, but the number of color components in the CMYK color space is It becomes 4. Considering the case where image processing is performed in a later stage, it is more likely that processing with a smaller number of color components can be performed at a higher speed. Conversely, if a process that increases the number of pixels (for example, the above-described enlargement process) is performed before the color space conversion process, the time required for the color space conversion process increases.
[0011]
As described above, when the data amount of the image data changes in each image processing, the processing time in each processing changes. Therefore, high-speed processing is possible by shortening the processing time only by changing the processing order. However, in the conventional image processing apparatus, the color space of image data to be input and output may be specified, and the order of processing is fixed. Therefore, even when various image data are subjected to enlargement / reduction processing and color space conversion processing at an arbitrary magnification, it has not been possible to increase the speed.
[0012]
In addition, for example, when the compression is performed by the above-described JPEG-DCT method, the resolution may be reduced depending on the color component, but the processing is performed as it is in the processing that can be performed with the reduced resolution. The processing time can be shortened more than performing the processing after returning the resolution. However, conventionally, such a relationship has not been considered. Furthermore, since the image quality reproducibility of the output device is not taken into consideration, there is a disadvantage that high-quality enlargement is uselessly performed.
[0013]
[Patent Document 1]
JP-A-3-204268
[Patent Document 2]
Japanese Patent No. 2968582
[Patent Document 3]
JP-A-2000-151989
[Patent Document 4]
JP 2000-182022 A
[0014]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances, and has as its object to provide an image processing apparatus capable of performing high-speed scaling processing and color space conversion processing in accordance with image data. Still another object of the present invention is to provide an image processing apparatus capable of performing image processing in accordance with a request for image quality or processing speed, for example, an instruction from an operator or image output capability of an output device.
[0015]
[Means for Solving the Problems]
The present invention provides, in an image processing apparatus, an image enlargement / reduction unit capable of performing an enlargement / reduction process on image data, a color space conversion unit capable of performing a color space conversion process on image data, When the input / output image data is subjected to the color space conversion processing by the color space conversion means after the enlargement / reduction processing by the image enlargement / reduction means, and after the color space conversion processing by the color space conversion means, The image processing apparatus further includes a control unit that controls the image enlargement / reduction unit and the color space conversion unit so that the processing is performed in a processing order in which the processing time is short when the enlargement / reduction processing is performed. By performing the processing in the order in which the processing time is shortened in this way, it is possible to provide an image processing apparatus capable of performing image processing at high speed.
[0016]
When the control unit controls the processing order according to the processing time, it is possible to take into account the enlargement / reduction ratio in the image enlargement / reduction processing unit and the number of color components in the color space before and after the conversion processing by the color space conversion unit. When the image data is compressed in the JPEG-DCT format, the processing order is controlled in consideration of the color space at the time of compression of the image data decompressed by the decompression means while maintaining the color space at the time of compression. be able to. At this time, when a specific color component is thinned out at the time of compression, the processing order can be controlled in consideration of the resolution of each color component of the image data while keeping the resolution different for each color component. Thus, depending on the color components, the processing is performed with the low resolution, and the processing time can be reduced.
[0017]
Further, the image enlargement / reduction unit may be configured to be capable of performing enlargement / reduction processing by a plurality of enlargement / reduction methods having different processing loads and processing image qualities. In this case, the control means controls the scaling method used in the image scaling means and the processing order. At this time, for example, the enlargement / reduction technique and the processing order can be controlled based on the image quality or processing speed desired as an output image. For example, the scaling method can be selected for each color component based on the visual characteristics of the color components of the image data. Alternatively, the information presenting means presents guide information about the processing time and the image quality after processing by a combination of the processing order or the further scaling method, and controls the processing order according to the processing order instructed by the operator or the further scaling method. Alternatively, it can be configured to further select a scaling method. Alternatively, it is possible to control the processing order or select a scaling method in accordance with the image quality reproducibility and the output size / resolution of the image output means for outputting the processed image data. In this way, optimal image processing can be performed according to the desired image quality, speed, image quality reproduction capability of the image output means, and the like.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram showing a first embodiment of the image processing apparatus of the present invention. In the figure, 1 is an image storage unit, 2 is an image input unit, 3 is an enlargement / reduction processing unit, 4 is a color conversion processing unit, 5 is a control unit, and 6 is an instruction input unit. The image storage unit 1 stores digitized image data to be processed. The retained image data may be in an uncompressed format, or may be compressed in various formats, including the JPEG-DCT format.
[0019]
The image input unit 2 reads out image data stored in the image storage unit 1. At this time, the compressed image data can be read out while performing decompression processing, and has a function as decompression means. Further, when thinning is performed by color components as in the JPEG-DCT format, reading at a different resolution depending on the color components can be performed while the thinning is performed.
[0020]
The enlargement / reduction processing unit 3 can perform enlargement / reduction processing of image data by one or more enlargement / reduction methods having different image quality and processing speed (processing load). Specific examples of some scaling methods will be described later.
[0021]
The color conversion processing unit 4 has a function of converting a color space (for example, RGB, YCbCr, CMYK, etc.) assumed for input image data into a color space (for example, RGB, CMYK, etc.) required as an output. This function is realized by various methods such as a combination of a matrix operation and a lookup table process, and a three-dimensional direct lookup table process with interpolation. Since the details of these processes are described in detail in documents relating to various color processes, detailed descriptions thereof are omitted here.
[0022]
The control unit 5 controls processing of each unit. In particular, the case where the color space conversion processing is performed by the color conversion processing unit 4 after the enlargement / reduction processing by the enlargement / reduction processing unit 3 for the image data to be processed and the case where the color space conversion processing by the color conversion processing unit 4 is performed The enlargement / reduction processing unit 3 and the color conversion processing unit 4 are controlled so that the processing is performed in the processing order in which the processing time becomes shorter when the enlargement / reduction processing is performed by the processing unit 3. In addition, the enlargement / reduction processing unit 3 controls selection of an enlargement / reduction technique for performing enlargement / reduction processing. The processing time is compared in consideration of the enlargement / reduction ratio, the number of color components, and the resolution of each color component in the case of being compressed by the JPEG-DCT method.
[0023]
The instruction input unit 6 inputs an instruction selected from a plurality of options relating to image quality or processing time of an output image by an operator, and transmits the instruction to the control unit 5.
[0024]
Next, an outline of a scaling method that can be executed by the scaling processing unit 3 will be described with some examples. In the following description, it is assumed that the image is enlarged. However, in some methods, the reduction processing can be performed as it is, or a separate reduction method may be provided.
[0025]
FIG. 2 is an explanatory diagram of the enlargement process by the nearest neighbor method. According to the nearest neighbor method, as shown in FIG. 2, the pixel value Pout of the output image shown in FIG. 2A is a point obtained by inversely mapping the center point on the input image (shown by a black circle in FIG. 2B). ) Is a method of setting the pixel value Pin on the input image closest to (). Specifically, it is obtained from the pixel value Pin of the input image and the magnification (rx, ry) in the horizontal / vertical directions by the following equation (1). Note that floor (a) is a function for obtaining an integer value obtained by truncating a decimal part of a.
Pout (X, Y) = Pin (floor ((X + 0.5) / rx), floor ((Y + 0.5) / ry)) (Equation 1)
When processing is performed as in Expression 1, an output image can be obtained by subjecting an input image to a nearest-neighbor enlargement process at a magnification (rx, ry).
[0026]
In Equation 1, the calculation is performed for each point of the output. However, in practice, a method called DDA (Digital Difference Analyzer) is used to add values based on the values one point before each of X and Y. Processing can be speeded up by performing calculations using only (Expression 2).
cx = (X + 0.5) / rx
cy = (Y + 0.5) / rx
dx = 1 / rx
dy = 1 / ry
Pout (X + 1, Y + 1) = Pin (floor (cx + dx), floor (cy + dy)) (Equation 2)
[0027]
FIG. 3 is an explanatory diagram of the enlarging process by the linear interpolation method. In the linear interpolation method, as shown in FIG. 3, the pixel value Pout of the output image is obtained by linearly interpolating the pixel values of four points near the point where the center point of Pout is inversely mapped on the input image for each axis. It becomes a pixel value. The inverse mapping point can be calculated only by addition using DDA as in the nearest neighbor enlarging method. For example, when the input image is enlarged twice by using the linear interpolation method, when (4, 2) on the output image is inversely mapped on the input image according to the above-described equation 1, (2.25, 1.25) is obtained. Become. In this case, since the pixel position of the input image is internally divided into 3: 1 in both the X direction and the Y direction, when the interpolation process is performed in the X direction,
P '= (Pin1 + 3 · Pin3) / 4
P ″ = (Pin2 + 3 · Pin4) / 4
When interpolation processing is performed in the Y direction using these,
P′out = (P ′ + 3 · P ″) / 4
It becomes. Here, the interpolation processing is performed using four neighboring points, but the interpolation processing may be performed using more neighboring points.
[0028]
FIG. 4 is an explanatory diagram of the enlargement processing by the multi-edge pattern method. The multi-edge pattern method is, for example, a high-quality enlargement method proposed in Japanese Patent Application No. 2002-76896. The details are described in Japanese Patent Application No. 2002-76896, and will be briefly described here. As shown in FIG. 4, first, in S11, a small image block including a target pixel block and peripheral pixels is cut out. In S12, the edge angle is estimated from each of the target pixel block and the area block including the peripheral pixels. In S13, an enlarged pattern prepared in advance corresponding to the edge angle estimated in S12 is selected, and an enlarged block area is generated and replaced in S14 based on the enlarged pattern. As a result, a high-quality enlarged image with sharp edges can be obtained.
[0029]
The multi-edge pattern method involves complicated steps such as peripheral pixel reference, edge angle estimation, pattern selection, enlarged block generation, and replacement processing. Therefore, compared to the above-described nearest neighbor method, linear interpolation method, and the like, this method has high image quality but requires much processing time.
[0030]
As other enlargement / reduction methods, for example, many methods such as the methods proposed in the above-mentioned Patent Document 1, Patent Document 2, and Japanese Patent Application No. 2002-79388 can be provided. In the following, in order to simplify the description, it is assumed that three scaling methods of the above-described nearest neighbor method, linear interpolation method, and multi-edge pattern method are provided, and the nearest neighbor method is method 1 and the linear interpolation method is method 2 , The multi-edge pattern method is referred to as method 3.
[0031]
Next, an outline of the operation of the control unit 5 will be described. As described above, the control unit 5 determines whether the color space conversion processing by the color conversion processing unit 4 is performed after the scaling processing by the scaling processing unit 3 on the image data to be processed, When the enlargement / reduction processing by the enlargement / reduction processing unit 3 is performed after the conversion processing of the color space by the processing, the enlargement / reduction processing unit 3 and the color conversion processing unit 4 are controlled so that the processing is performed in the processing order in which the processing time is shortened. . Before describing such control, the relationship between the processing times in the enlargement processing storage unit 3 and the color conversion processing unit 4 will be described.
[0032]
FIG. 5 is an explanatory diagram of a relationship between processing times in the enlargement processing storage unit 3 and the color conversion processing unit 4. FIG. 5A shows the relationship between the magnification and the processing time in the scaling processing by the scaling processing unit 3, and FIG. 5B shows the relationship between the number of pixels and the processing time in the color conversion processing unit 4. I have. In the enlargement / reduction processing performed by the enlargement / reduction processing unit 3, although there are differences depending on the above-described enlargement / reduction methods, generally, the magnification is large and the processing time is required as the size of the image to be generated is large. Therefore, the graph becomes ascending to the right as shown in FIG. In many cases, the value of the pixel after the enlargement is determined for each color component, and thus the processing time is related to the number of color components. For example, when the color space of the image data has three color components such as RGB and YCbCr, and when the color space has four color components such as CMYK, as shown in FIG. The larger the number, the longer the processing time.
[0033]
On the other hand, in the color space conversion processing performed by the color conversion processing unit 4, since processing is performed for each pixel, the processing time generally depends on the number of pixels. Therefore, as shown in FIG. 5B, the processing time becomes longer as the number of pixels increases.
[0034]
Based on these relationships, a case where the color space conversion processing is performed by the color conversion processing unit 4 after the enlargement / reduction processing by the enlargement / reduction processing unit 3 and a case where the enlargement / reduction processing unit 3 is performed after the color space conversion processing by the color conversion processing unit 4 are performed. It is sufficient to check which processing time is shorter when the enlargement / reduction processing is performed. For example, in the example shown in FIG. 5, it is assumed that the magnification is α, and the number of pixels increases from β to γ by scaling processing with the magnification α. It is also assumed that the number of color components increases from three to four by the color space conversion process. In this case, if the enlargement / reduction processing is performed first, the number of color components of the image data is 3, so the processing time is t3, and the subsequent color space conversion processing by the color conversion processing unit 4 is after the enlargement / reduction processing. The number of pixels is γ, and the processing time is required by tγ. Conversely, when the color space conversion processing is first performed by the color conversion processing unit 4, the number of pixels is β and the processing time is tβ. After that, when the enlargement / reduction processing is performed, the number of color components becomes 4 by the color space conversion processing, so that the processing time is required only by t4. Therefore, it can be seen that it is sufficient to simply compare t3 + tγ and tβ + t4 and select the one with a shorter processing time.
[0035]
Actually, in addition to this, if the processing time is different depending on the enlargement / reduction method, or if the compression method is changed by the JPEG-DCT method, the resolution for each color component or the enlargement / reduction method for each color component is changed. The processing time may be predicted and compared in consideration of various factors such as the processing time in each scaling method. In the case of a scaling method or a color conversion process that does not depend on an image as in the above-described scaling methods 1 to 3, a considerably accurate prediction value can be obtained from the size and magnification of the input image data. .
[0036]
FIG. 6 is an explanatory diagram of a specific example of operation control on the scaling processing unit 3 and the color conversion processing unit 4 in the control unit 5. Here, the control unit 5 receives attribute information (image size, color space information, and the like) of the processing target image from the image input unit 2 and transmits selection instruction information regarding image quality / processing time from the instruction input unit 6. Shall be The selection instruction information may be, for example, such that “high image quality / low speed”, “standard image quality”, and “low image quality / high speed” are assigned to “0”, “1”, and “2”, respectively. Depending on the number, more pieces of selection information may be divided. In FIG. 6, for simplicity, the description will be made assuming that the selection instruction information is any one of "0", "1", and "2". Here, it is assumed that RGB, YCbCr, CMYK can be processed as the input / output color space, and the image size (or magnification ratio) after scaling and the output color space are stored in the control unit 5 in advance or the instruction input unit 6 or It has been instructed by some means that has not been done. The enlargement / reduction ratio is larger than 1, that is, the enlargement process is performed.
[0037]
When “0” is instructed to the control unit 5 from the instruction input unit 6 as the selection instruction information (mode “0”), the control unit 5 operates as follows. First, the attribute information (image size, color space, etc.) of the input image stored in the image storage unit 1 is obtained using the image input unit 2. As a result, when the color space of the input image is equal to the required output color space, the method 3 that requires the highest image quality and processing time among the plurality of scaling methods provided in the scaling processing unit 3 is used. The magnification is set by selecting only one, and the image input unit 2 reads out the image data in the image storage unit 1 while performing the enlargement processing by the enlargement / reduction processing unit 3. At this time, when the image data is compressed, the image data is read out while performing the decompression process. When the resolution is different due to thinning out by the color component, the magnification is adjusted so that the image size after the enlargement becomes equal for each color component. Make settings. In this case, the color conversion processing by the color conversion processing unit 4 is unnecessary.
[0038]
When the input color space and the output color space are not equal, a three-component image is converted to the same three-component different color space from RGB to YCbCr or vice versa, or a four-color image is converted from CMYK to RGB or YCbCr. When converting a component into a three-component color space, it is more advantageous to perform scaling processing on image data in the three-component color space. It is more advantageous to perform the color space conversion process before the number of pixels is increased by the enlargement process. Therefore, the color space of the image data is converted by operating the color conversion processing unit 4 on the image input from the image input unit 2 first. At this time, for example, when the Cb and Cr components are thinned out from the Y component, the processing is performed using the pixel values adjacent to the thinned pixels. After that, in the same manner as described above, only one of the plurality of enlargement / reduction methods stored in the enlargement / reduction processing unit 3 which has the highest image quality and the longest processing time is selected, the magnification is set, the enlargement processing is performed, and the output is performed. Get an image. The control unit 5 outputs the processing result to, for example, a display device or a printer device (not shown) outside the system.
[0039]
In the case where the input color space is composed of three components such as RGB and YCbCr and the output color space is composed of four components such as CMYK, first, the image input from the image input unit 2 is provided in the scaling unit 3. A single method 3 is selected from a plurality of enlargement / reduction methods, a magnification is set, an enlargement process is performed, and the color conversion processing unit 4 is operated on the enlarged image to change the color space of the image. Convert to obtain an output image. Here, the reason why the enlargement / reduction processing was performed prior to the color space conversion processing is that the difference in the enlargement processing time between the four-component image and the three-component image using the method 3 is based on the color conversion processing before and after the enlargement. This is because it is determined that the difference is larger than the time difference. As described above, since the enlargement / reduction processing time and the color space conversion processing time also depend on the magnification (the number of pixels), it may be determined that the color conversion processing is performed first depending on the magnification. The determination is made by the control unit 5.
[0040]
Further, as described above, when the image data is compressed in a color space such as YCbCr or Lab by the JPEG-DCT compression, the Cb and Cr components and the a and b components are thinned out depending on the compression conditions, and the Y and L components are thinned out. The resolution may be lower. In this case, the control unit 5 determines the order of the color conversion and the enlargement in consideration of the difference in the processing time due to the enlargement process of different magnification depending on the color component.
[0041]
The reason why the enlargement was performed using the same method 3 for each color is that when the enlargement is performed by a different method, the color bleeding caused by the difference in the enlargement method that occurs at a boundary portion of a different color is suppressed. This is for performing high-quality enlargement. Of course, the processing time is increased by the use of the enlargement / reduction technique for performing the high-quality enlargement processing, so that the processing speed is reduced.
[0042]
Next, the case where “1” is instructed to the control unit 5 from the instruction input unit 6 as the selection instruction information (mode “1”) will be described similarly. First, attribute information (image size, color space, etc.) of an input image stored in the image storage unit 1 is acquired from the image input unit 2. As a result, if the color space of the input image is equal to the required output color space, the following processing is performed.
1) In the case of RGB
In RGB, G>R> B has a large influence on vision in the order of G>R> B. Therefore, G is the method 3, R is the method 2, and B is the method 1, and enlargement processing is performed.
2) For YCbCr
In YCbCr, the effect on vision is Y >> Cb, Cr. Therefore, Y performs processing in method 3, and Cb and Cr perform processing in method 2 (or method 1).
3) For CMYK
CMYK has a large effect on vision as K> C and M> Y. Therefore, K performs processing according to method 3, C and M perform processing according to method 2, and Y performs processing according to method 1.
[0043]
At this time, if the input image is compressed, read it out while performing decompression processing. If the resolution differs due to thinning out depending on the color component, the magnification is set so that the image size after expansion becomes equal for each color component. Make the settings for Note that the color space conversion processing by the color conversion processing unit 4 is not performed.
[0044]
When the input color space and the output color space are not equal, a three-component image is converted to the same three-component different color space from RGB to YCbCr or vice versa, or a four-color image is converted from CMYK to RGB or YCbCr. In the case where the color space is converted from the components into a three-component color space, the color space of the image data is first converted by the color conversion processing unit 4 for the image input from the image input unit 2 in the same manner as in the mode 0 described above. After the conversion, the same enlargement processing as in the above 1) to 3) is performed based on the subsequent color space. The control unit 5 outputs the processing result to, for example, a display device or a printer device (not shown) outside the system.
[0045]
When the input color space is composed of three components such as RGB and YCbCr and the output color space is composed of four components such as CMYK, first, the image input from the image input unit 2 is processed according to the color space. The same enlargement processing as in 1) to 3) is performed, and the color conversion processing unit 4 converts the color space of the image data to the enlarged image to obtain an output image. Here, the reason why the enlargement / reduction processing is performed before the color conversion processing is that the control unit 5 performs the enlargement of the four-component image and the three-component image when the method 3 is used, as in the case of the mode “0” described above. This is because it is determined that the difference between the processing times is larger than the difference between the color conversion processing times before and after the enlargement. As described above, since the enlargement / reduction processing time and the color space conversion processing time also depend on the magnification, it may be determined that the color conversion processing is performed first depending on the magnification. The determination is made by the control unit 5 as in the case of the mode “0”.
[0046]
In this processing, the processing order of the enlargement / reduction processing and the color space conversion processing is not changed as compared with the case where the mode “0” is designated, but the enlargement processing is performed in a mixed method with the method 2 or the method 1 which is faster. Therefore, the overall processing time is faster than in the case of the mode “0”. However, regarding image quality, visually important components are sharply expanded, while other components are slightly blurred or block-shaped, so color boundaries are different at different color boundaries. A phenomenon such as bleeding occurs and the image quality is slightly reduced.
[0047]
Next, the case where “2” is instructed to the control unit 5 from the instruction input unit 6 as the selection instruction information (mode “2”) will be described similarly. First, attribute information (image size, color space, etc.) of an input image stored in the image storage unit 1 is acquired from the image input unit 2. As a result, when the color space of the input image is equal to the required output color space, one of the methods 1 having the highest speed and the lowest image quality is selected from among the plurality of scaling methods provided in the scaling unit 3. Is selected, the magnification is set, and the image input unit 2 reads the input image from the image storage unit 1 while performing the enlargement processing by the selected enlargement / reduction method of the method 1. At this time, when the input image is compressed, readout is performed while performing decompression processing. When the resolution is different due to thinning out by color components, the magnification is adjusted so that the image size after expansion becomes equal for each color component. Make settings.
[0048]
When the input color space and the output color space are not equal, unlike the above-described modes “0” and “1”, the conversion to any color space requires the color conversion processing to be performed before the enlargement. Do. Specifically, the color conversion processing unit 4 performs a color space conversion process on the image data input from the image input unit 2, and the image data after the color space conversion process is provided in the scaling processing unit 3. Only one of the fastest and lowest image quality methods 1 is selected from the plurality of enlargement / reduction methods described above, the magnification is set, and the enlargement processing is performed. Next, the control unit 5 outputs the processing result to, for example, a printer (not shown) outside the system.
[0049]
Here, unlike the modes “0” and “1”, the reason why the processing is always performed prior to the enlarging processing when the color conversion processing is necessary is that the control unit uses the method 1 which is a high-speed enlarging / reducing method. This is because No. 5 determined that the difference between the enlargement processing times of the four-component image and the three-component image when the method 1 was used was smaller than the difference between the color conversion processing times before and after the enlargement. The image quality is lower than that of the modes “0” and “1” because the low-image-quality / high-speed system 1 is used. As described above, since the enlargement / reduction processing time and the color space conversion processing time also depend on the magnification, it may be determined that the color conversion processing is performed later depending on the magnification. The determination is made by the control unit 5 as in the case of the modes “0” and “1”.
[0050]
As described above, the processing according to the user's request is executed by selecting the scaling method and changing the processing order of the color space conversion processing and the scaling processing according to the selection of the image quality / processing time. be able to. Of course, FIG. 6 described above is an example of the determination by the control unit 5, and the processing order and the scaling method applied to each color component are not limited to this example.
[0051]
Here, for simplicity of explanation, the selection instruction information is described as being narrowed down to three types of “0”, “1”, and “2”. However, for example, in mode “1”, instead of method 2 as the enlargement method, By using the method 1, it is possible to provide a mode in which the image quality and the processing time are intermediate between “1” and “2”. If more enlargement processing modules are prepared in the enlargement / reduction processing unit 3, it is possible to control the balance between image quality and processing time in smaller units. Further, in the above description, the case where the enlargement / reduction processing unit 3 mainly performs the enlargement processing is described, but the same applies to the case where the reduction processing is performed.
[0052]
Further, the control unit 5 predicts and calculates the enlargement / reduction processing time and the color space conversion processing time before performing the processing on the image data. In addition, for example, a table as shown in FIG. In addition, it is also possible to adopt a configuration in which the processing order or the enlargement / reduction technique is selected by referring to the table.
[0053]
FIG. 7 is a block diagram showing a second embodiment of the image processing apparatus of the present invention. In the figure, the same parts as those in FIG. Reference numeral 7 denotes an information presentation unit. The information presenting unit 7 presents information to the operator, and the operator can give an instruction from the instruction input unit 6 while referring to the information presented on the information presenting unit 7. In particular, in this embodiment, according to the control from the control unit 5, the processing time and the post-processing time in combination with the processing order of the scaling process and the color space conversion process and the selection of the scaling method provided in the scaling process unit 3 Information about the image quality is presented. The processing time and image quality can be predicted based on the input image size, enlargement magnification, and input / output color space information. In particular, in the case of the scaling method that does not depend on the content of the image as in the above-described methods 1 to 3, the predicted value of the processing time can be obtained fairly accurately from the input image size and the magnification. As for the image quality, if a level of the output image quality is selected in advance by a subjective evaluation experiment or the like, the level value can be presented.
[0054]
By presenting information such as the processing time and image quality in each of these modes, an instruction from the instruction input unit 6 by the operator can be assisted. The operator may select a processing order or a scaling method (such as mode selection) from the instruction input unit 6 based on the presented information.
[0055]
When the number of modes is as small as three as in the example described in the first embodiment, the operator can easily select the mode. However, as the number of modes increases, there may be a case where the operator loses the selection. In such a case, as in the second embodiment, information indicating how much processing time and image quality can be obtained in each mode is presented to the operator by the information presenting unit 7. This can assist the operator's selection.
[0056]
FIG. 8 is a block diagram showing a third embodiment of the image processing device of the present invention. In the figure, the same parts as those in FIGS. Reference numeral 8 denotes a display device, and 9 denotes a printer device. In the third embodiment, the display device 8 and the printer device 9 are explicitly shown as output devices. If information such as the image quality reproducibility and resolution of these output devices is held in the control unit 5, it is possible to perform processing at higher speed without performing useless high image quality enlarging processing that cannot be reproduced visually.
[0057]
For example, the display device 8 is capable of multi-value display and has a low resolution. For this reason, if the operator intends to view at high magnification, the image quality difference is likely to be visually recognized. For example, the mode “1” is designated in the example shown in FIG. 6 and the color space is set to YCbCr image data. When performing the scaling process, the Y component is processed by the method 3 and the Cb and Cr components are processed by the method 2 according to the instruction. However, the printer 9 is screen-processed and has a high resolution, so that it is rarely seen in detail. Therefore, for example, the Y component can be processed by method 3, and the Cb and Cr components can be processed by method 1. In this way, it is possible to automatically switch to a faster method within a range of image quality deterioration that cannot be visually recognized by the operator.
[0058]
FIG. 9 is an explanatory diagram of an example of a computer program and a storage medium storing the computer program when the functions of the image processing apparatus of the present invention are realized by the computer program. In the figure, 21 is a program, 22 is a computer, 31 is a magneto-optical disk, 32 is an optical disk, 33 is a magnetic disk, 34 is a memory, 41 is a magneto-optical disk device, 42 is an optical disk device, and 43 is a magnetic disk device.
[0059]
Some or all of the functions of the image input unit 2 and the enlargement / reduction processing unit 3 and the functions of the color conversion processing unit 4, the control unit 5, and the instruction input unit 6 described in each of the embodiments of the present invention described above are implemented by a computer. It can also be realized by a program 21 that can be executed. In this case, the program 21 and data used by the program can be stored in a computer-readable storage medium. A storage medium is a type of signal corresponding to a change in energy such as magnetism, light, electricity, etc., caused to a reading device provided in a hardware resource of a computer in accordance with a description content of a program. Thus, the program description can be transmitted to the reading device. For example, there are a magneto-optical disk 31, an optical disk 32 (including a CD and a DVD), a magnetic disk 33, a memory 34 (including an IC card, a memory card, and the like). Of course, these storage media are not limited to portable types.
[0060]
The programs 21 are stored in these storage media, and these storage media are mounted in, for example, the magneto-optical disk device 41, the optical disk device 42, the magnetic disk device 43, or a memory slot (not shown) of the computer 22, so that the computer 21 The program 21 can be read to execute the functions of the image processing apparatus of the present invention or the image processing method. Alternatively, a storage medium may be mounted on the computer 22 in advance, the program 21 may be transferred to the computer 22 via, for example, a network, and the program 21 may be stored in the storage medium and executed. The image data storage unit 2 can use a memory in the computer 22, an attached magnetic disk device, or another storage medium.
[0061]
Of course, some of the functions of the present invention may be configured by hardware, or all functions may be configured by hardware. In addition to being realized by one computer as shown in FIG. 9, the present invention can be implemented by distributing functions to a plurality of computers via, for example, a LAN, the Internet, or the like. A configuration that realizes the function of the image processing apparatus described above may be used.
[0062]
【The invention's effect】
As is apparent from the above description, according to the present invention, by appropriately controlling the processing order of the scaling process and the color space conversion process, and by selecting and using an appropriate method from a plurality of scaling methods, An image processing device capable of high-speed processing can be provided. In addition, it is possible to perform a scaling process and a color space conversion process according to a request for image quality / processing time. Further, there is an effect that image processing capable of performing high-speed processing can be realized without performing excessive image quality improvement processing due to the performance of the output destination.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a first embodiment of an image processing apparatus according to the present invention.
FIG. 2 is an explanatory diagram of an enlarging process by the nearest neighbor method.
FIG. 3 is an explanatory diagram of an enlarging process by a linear interpolation method.
FIG. 4 is an explanatory diagram of an enlargement process by a multi-edge pattern method.
FIG. 5 is an explanatory diagram of a relationship between processing times in an enlargement processing storage unit 3 and a color conversion processing unit 4;
FIG. 6 is an explanatory diagram of a specific example of operation control for the enlargement / reduction processing unit 3 and the color conversion processing unit 4 in the control unit 5;
FIG. 7 is a block diagram illustrating a second embodiment of the image processing apparatus according to the present invention.
FIG. 8 is a block diagram illustrating a third embodiment of the image processing apparatus according to the present invention.
FIG. 9 is an explanatory diagram of an example of a computer program when the functions of the image processing apparatus of the present invention are implemented by the computer program, and an example of a storage medium storing the computer program.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image memory part, 2 ... Image input part, 3 ... Enlargement / reduction processing part, 4 ... Color conversion processing part, 5 ... Control part, 6 ... Instruction input part, 7 ... Information presentation part, 8 ... Display device, 9 ... Printer Apparatus, 21 program, 22 computer, 31 magneto-optical disk, 32 optical disk, 33 magnetic disk, 34 memory, 41 magneto-optical disk apparatus, 42 optical disk apparatus, 43 magnetic disk apparatus.

Claims (10)

画像データに対して拡大縮小処理を行うことが可能な画像拡縮手段と、画像データに対して色空間の変換処理を行うことが可能な色空間変換手段と、入力された画像データに対して前記画像拡縮手段による拡大縮小処理後に前記色空間変換手段による色空間の変換処理を行った場合と前記色空間変換手段による色空間の変換処理後に前記画像拡縮手段による拡大縮小処理を行った場合で処理時間が短い処理順序により処理が行われるように前記画像拡縮手段及び前記色空間変換手段を制御する制御手段を有することを特徴とする画像処理装置。Image enlargement / reduction means capable of performing enlargement / reduction processing on image data, color space conversion means capable of performing color space conversion processing on image data, and The processing is performed in the case where the color space conversion processing is performed by the color space conversion means after the enlargement / reduction processing by the image enlargement / reduction means, and when the enlargement / reduction processing by the image enlargement / reduction means is performed after the color space conversion processing by the color space conversion means. An image processing apparatus comprising: a control unit that controls the image enlargement / reduction unit and the color space conversion unit so that processing is performed in a processing order in which time is short. 前記制御手段は、拡縮倍率を考慮した前記処理時間に従って処理順序の制御を行うことを特徴とする請求項1に記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the control unit controls a processing order according to the processing time in consideration of a scaling factor. 前記制御手段は、前記色空間変換手段による変換処理前後の色空間の色成分数を考慮した前記処理時間に従って処理順序の制御を行うことを特徴とする請求項1または請求項2のいずれか1項に記載の画像処理装置。3. The control unit according to claim 1, wherein the control unit controls the processing order according to the processing time in consideration of the number of color components in a color space before and after the conversion process by the color space conversion unit. An image processing apparatus according to the item. さらに、圧縮された画像データを伸長する伸長手段を有し、該伸長手段は、画像データがJPEG−DCT形式で圧縮されている場合には、圧縮時の色空間のままの伸長した画像データを出力可能であり、前記制御手段は、前記画像データの色空間として前記圧縮時の色空間を考慮して前記処理順序の制御を行うことを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像処理装置。Further, the image processing apparatus further comprises a decompression means for decompressing the compressed image data. The decompression means, when the image data is compressed in the JPEG-DCT format, converts the decompressed image data in the color space at the time of compression. 4. The image processing apparatus according to claim 1, wherein the control unit controls the processing order in consideration of a color space at the time of compression as a color space of the image data. 5. An image processing apparatus according to the item. さらに、圧縮された画像データを伸長する伸長手段を有し、該伸長手段は、画像データがJPEG−DCT形式で圧縮されている場合には、圧縮時に特定の色成分について間引きされているときには色成分別に異なる解像度のまま出力可能であり、前記制御手段は、前記画像データの色成分毎の解像度を考慮して前記処理順序の制御を行うことを特徴とする請求項1ないし請求項4のいずれか1項に記載の画像処理装置。Further, the image processing apparatus further comprises a decompression means for decompressing the compressed image data. The decompression means, when the image data is compressed in the JPEG-DCT format, when a specific color component is thinned out during compression, 5. The image processing apparatus according to claim 1, wherein the control unit controls the processing order in consideration of a resolution for each color component of the image data. The image processing apparatus according to claim 1. 前記画像拡縮手段は、処理負荷及び処理画質が異なる複数の拡縮手法による拡大縮小処理が可能であり、前記制御手段は、前記画像拡縮手段において用いる拡縮手法と前記処理順序の制御を行うことを特徴とする請求項1ないし請求項5のいずれか1項に記載の画像処理装置。The image enlargement / reduction unit can perform enlargement / reduction processing using a plurality of enlargement / reduction methods having different processing loads and processing image quality, and the control unit controls the enlargement / reduction method used in the image enlargement / reduction unit and the processing order. The image processing apparatus according to any one of claims 1 to 5, wherein 前記制御手段は、出力画像として所望される画質あるいは処理速度に基づいて前記拡縮手法と前記処理順序の制御を行うことを特徴とする請求項6に記載の画像処理装置。The image processing apparatus according to claim 6, wherein the control unit controls the scaling method and the processing order based on a desired image quality or processing speed as an output image. 前記制御手段は、前記画像拡縮手段において拡大縮小処理を施す画像データの色成分の視覚特性に基づいて、それぞれの色成分毎に前記拡縮手法を選択することを特徴とする請求項6または請求項7に記載の画像処理装置。7. The method according to claim 6, wherein the control unit selects the scaling method for each color component based on a visual characteristic of a color component of the image data to be scaled by the image scaling unit. 8. The image processing device according to 7. 操作者に情報を提示する情報提示手段と、操作者が指示を行う指示手段を有し、前記制御手段は、前記処理順序あるいはさらに拡縮手法の組み合わせによる処理時間と処理後の画質について目安となる情報を前記情報提示手段により提示し、操作者が前記指示手段により指示した処理順序あるいはさらに拡縮手法に従って処理順序の制御あるいはさらに拡縮手法の選択を行うことを特徴とする請求項1ないし請求項8のいずれか1項に記載の画像処理装置。An information presenting means for presenting information to the operator, and an instruction means for instructing the operator are provided, and the control means serves as a guide for the processing time and the image quality after processing by the combination of the processing order or the scaling method. 9. The method according to claim 1, wherein information is presented by said information presenting means, and control of a processing order or selection of a further enlargement / reduction technique is performed in accordance with a processing order designated by said instruction means or a further enlargement / reduction technique. The image processing device according to any one of the preceding claims. 前記制御手段は、処理後の画像データを出力する画像出力手段の画質再現能力や出力サイズ/解像度に応じて、前記処理順序の制御あるいはさらに拡縮手法の選択を行うことを特徴とする請求項1ないし請求項8のいずれか1項に記載の画像処理装置。2. The control unit according to claim 1, wherein the control unit controls the processing order or further selects an enlargement / reduction method according to an image quality reproducing capability and an output size / resolution of an image output unit that outputs the processed image data. An image processing apparatus according to claim 8.
JP2002360591A 2002-12-12 2002-12-12 Image processing apparatus Pending JP2004194050A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002360591A JP2004194050A (en) 2002-12-12 2002-12-12 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002360591A JP2004194050A (en) 2002-12-12 2002-12-12 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2004194050A true JP2004194050A (en) 2004-07-08

Family

ID=32759629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002360591A Pending JP2004194050A (en) 2002-12-12 2002-12-12 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2004194050A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085233A (en) * 2004-09-14 2006-03-30 Noritsu Koki Co Ltd Image processing apparatus and image processing method
JP2006319682A (en) * 2005-05-12 2006-11-24 Ricoh Co Ltd Image processing apparatus, image processing method, and computer-readable recording medium
JP2007006398A (en) * 2005-06-27 2007-01-11 Fuji Xerox Co Ltd Image data composing apparatus
KR101296452B1 (en) 2009-04-10 2013-08-13 디아이씨 가부시끼가이샤 Photocurable resin and photocurable resin composition
KR20140042944A (en) * 2012-09-25 2014-04-08 삼성전자주식회사 Apparatus and method for video decoding for video quality enhancement of moving picture

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085233A (en) * 2004-09-14 2006-03-30 Noritsu Koki Co Ltd Image processing apparatus and image processing method
JP2006319682A (en) * 2005-05-12 2006-11-24 Ricoh Co Ltd Image processing apparatus, image processing method, and computer-readable recording medium
JP2007006398A (en) * 2005-06-27 2007-01-11 Fuji Xerox Co Ltd Image data composing apparatus
KR101296452B1 (en) 2009-04-10 2013-08-13 디아이씨 가부시끼가이샤 Photocurable resin and photocurable resin composition
KR20140042944A (en) * 2012-09-25 2014-04-08 삼성전자주식회사 Apparatus and method for video decoding for video quality enhancement of moving picture
KR101974367B1 (en) * 2012-09-25 2019-05-02 삼성전자주식회사 Apparatus and method for video decoding for video quality enhancement of moving picture

Similar Documents

Publication Publication Date Title
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
US20040125387A1 (en) Image processing apparatus, image processing method and program therefor
JP5213687B2 (en) Image processing apparatus and control method thereof
JP2003283811A (en) Image processing apparatus and program
JP2000115539A (en) Method and device for processing image and recording medium
EP0949585A2 (en) Apparatus and method for image data interpolation
JP2011203814A (en) Image processing apparatus and method and program
KR100852658B1 (en) Image processing apparatus and image processing method, storage medium
CN100477720C (en) Image processing device and image processing method
JP4112187B2 (en) Image processing method, apparatus, and program
EP1107176A1 (en) Monotone converting device, monotone converting method, and medium on which monotone converting program is recorded
JP2011081573A (en) Image processing apparatus and method of controlling the same
EP0998121B1 (en) Image processing device and image processing method
JP2001292311A (en) Image resizing device and its method
JP2004194050A (en) Image processing apparatus
JP3491829B2 (en) Image processing apparatus and image processing method
JP3491830B2 (en) Image processing apparatus and image processing method
JP2009124576A (en) Image processing apparatus and control method thereof
JP2008245024A (en) Create lookup table
JP2002197455A (en) Image processing apparatus and image processing method
US7667876B2 (en) Generating a normalized image from an original image
JP4599216B2 (en) Image processing apparatus, image processing method, program thereof, and recording medium
JP2007166562A (en) Color conversion apparatus and method, color conversion program, and storage medium
JP2000105820A (en) Monoton conversion device, monoton conversion method, and medium recording monoton conversion program
JP4612870B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071212