[go: up one dir, main page]

JP2014059691A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2014059691A
JP2014059691A JP2012203963A JP2012203963A JP2014059691A JP 2014059691 A JP2014059691 A JP 2014059691A JP 2012203963 A JP2012203963 A JP 2012203963A JP 2012203963 A JP2012203963 A JP 2012203963A JP 2014059691 A JP2014059691 A JP 2014059691A
Authority
JP
Japan
Prior art keywords
edge
region
luminance value
image
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012203963A
Other languages
English (en)
Inventor
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012203963A priority Critical patent/JP2014059691A/ja
Priority to US13/960,081 priority patent/US9824429B2/en
Publication of JP2014059691A publication Critical patent/JP2014059691A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T11/10
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】画像上の被写体を、被写体そのものとして鑑賞させつつ、鑑賞者に被写体の動きを知覚させることができるようにする。
【解決手段】エッジ検出部は、供給された入力画像の動被写体領域内から、動被写体領域の動かしたい方向と直交するエッジを検出する。輝度変化判定部は、検出されたエッジについて、動被写体領域の動かしたい方向に沿って、エッジ近傍の領域で輝度値が増加しているかまたは減少しているかを判定する。輪郭線追加部は、入力画像のエッジ部分を、輝度変化判定部による判定結果に応じて時間方向に変化する輝度値の輪郭線で上書きし、出力画像とする。これにより、輪郭部分の輝度変化によって錯視が生じ、動被写体領域が動いているように知覚させる出力画像を得ることができる。本技術は、画像処理装置に適用することができる。
【選択図】図6

Description

本技術は画像処理装置および方法、並びにプログラムに関し、特に、画像上の被写体を、被写体そのものとして鑑賞させつつ、鑑賞者に被写体の動きを知覚させることができるようにした画像処理装置および方法、並びにプログラムに関する。
従来、錯視を利用して動きを表現する画像処理が知られている(例えば、非特許文献1参照)。非特許文献1では、絵画などの入力画像を解析して、エッジの流れる方向を求め、その方向に対して鑑賞者がOptimized Fraser-Wilcox Illusionを引き起こすように模様を作成する手法が記載されている。
また、画像上の被写体を強調するための技術として、画像上のエッジを検出し、そのエッジ部分に輪郭データを付加する技術も提案されている(例えば、特許文献1参照)。
Ming-Te Chi, et. al. 「Self-Animating Images: Illusory Motion Using Repeated Asymmetric Patterns」 ACM Transaction on Graphics (Proceedings of SIGGRAPH 2008), 27, No.3.
特開平5−314273号公報
しかしながら、上述した技術では、撮影者により撮影された風景等の被写体を、被写体そのものとして鑑賞者に鑑賞させつつ、かつ錯視を利用して、撮影者が撮影した被写体の動きを鑑賞者に知覚させることはできなかった。
例えば、非特許文献1に記載の技術では、入力画像を加工して得られる出力画像は、入力画像とはかけ離れた模様からなる画像となる。そのため、被写体を撮影して得られた画像に対して非特許文献1の技術を適用すると、得られる出力画像は、撮影者が撮影した風景等の被写体をそのまま鑑賞する画像としては不適切な画像となってしまう。
本技術は、このような状況に鑑みてなされたものであり、画像上の被写体を、被写体そのものとして鑑賞させつつ、鑑賞者に被写体の動きを知覚させることができるようにするものである。
本技術の一側面の画像処理装置は、入力画像上の被写体のエッジを検出するエッジ検出部と、前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかを判定する輝度変化判定部と、前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線を付加する輪郭線追加部とを備える。
前記所定方向を、前記エッジと直交する方向とすることができる。
前記輪郭線追加部には、第1の期間において前記輪郭線の輝度値が所定の輝度値から増加または減少し、前記第1の期間よりも長い第2の期間において、前記輪郭線の輝度値が前記所定の輝度値へと変化するように、前記輪郭線の輝度値を定めさせることができる。
前記輝度変化判定部には、前記入力画像上の第1の領域内の前記エッジについて、前記エッジ近傍の輝度値の前記所定方向への変化を判定させ、前記入力画像上の前記第1の領域以外の第2の領域内の前記エッジについて、前記エッジ近傍の輝度値の前記所定方向とは反対の方向への変化を判定させることができる。
前記輪郭線追加部には、前記第1の領域内の前記エッジに付加される前記輪郭線の前記第1の期間と、前記第2の領域内の前記エッジに付加される前記輪郭線の前記第1の期間とが異なる時刻の期間となるように、前記輪郭線の輝度値を定めさせることができる。
画像処理装置には、前記入力画像における前記エッジの前記所定方向とは反対方向側の領域に効果線を付加する効果線追加部をさらに設けることができる。
前記効果線追加部には、前記所定方向とは反対方向に輝度値が変化する模様であり、前記模様が時間とともに前記反対方向に進行する前記効果線を前記エッジに付加させることができる。
本技術の一側面の画像処理方法またはプログラムは、入力画像上の被写体のエッジを検出し、前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかを判定し、前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線を付加するステップを含む。
本技術の一側面においては、入力画像上の被写体のエッジが検出され、前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかが判定され、前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線が付加される。
本技術の一側面によれば、画像上の被写体を、被写体そのものとして鑑賞させつつ、鑑賞者に被写体の動きを知覚させることができる。
錯視効果について説明する図である。 エッジ部分への輪郭線上書きにより生じる錯視について説明する図である。 エッジ部分への輪郭線上書きにより生じる錯視について説明する図である。 エッジ部分への輪郭線上書きにより生じる錯視について説明する図である。 情報処理装置の構成例を示す図である。 画像処理装置の構成例を示す図である。 画像生成処理を説明するフローチャートである。 輪郭線の輝度値の時間変化の一例を示す図である。 輪郭線の輝度値の時間変化の一例を示す図である。 輪郭線の輝度値の時間変化の一例を示す図である。 輪郭線の輝度値の時間変化の一例を示す図である。 入力画像と動被写体領域の一例を示す図である。 入力画像と動被写体領域の一例を示す図である。 入力画像から検出されるエッジを示す図である。 出力画像の一例を示す図である。 輪郭線の輝度値の時間変化の一例を示す図である。 輪郭線の輝度値の時間変化の一例を示す図である。 画像処理装置の他の構成例を示す図である。 画像生成処理を説明するフローチャートである。 効果線追加領域について説明する図である。 効果線追加領域に上書きされる効果線の一例を示す図である。 効果線追加領域について説明する図である。 効果線追加領域に上書きされる効果線の一例を示す図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[錯視効果について]
まず、本技術で利用される動きの錯視効果(Motion Illusion)について説明する。
例えば「A. Kitaoka, “Configurational coincidence among six phenomena: A comment on van Lier and Csatho (2006),” Perception, 35, pp. 799-806.」には、各領域の輝度を変化させることによって、その領域に隣接する領域があたかも動いたように知覚(perception)されることが記載されている。
具体的には、図1の左側に示すように、ユーザ(鑑賞者)が単一の輝度値を有する帯状の領域RE11乃至領域RE13からなる画像を観察しているとする。なお、図1において、各領域の図中、上側に示す実線および点線の縦方向の矢印はその領域の輝度値の変化を表しており、実線および点線の横方向の矢印は、縦方向の矢印に示す輝度変化により生じる錯視効果における、各領域の動きの方向を示している。つまり、実線の横方向の矢印は、実線の縦方向の矢印に対応する輝度変化による動きの方向を示しており、点線の横方向の矢印は、点線の縦方向の矢印に対応する輝度変化による動きの方向を示している。
ここで、領域RE11乃至領域RE13のそれぞれは、輝度値が同じである画素からなる領域であり、互いに異なる明るさを有している。この例では、領域RE11が最も明るい領域であり、領域RE12が最も暗い領域となっている。そして、領域RE13は、領域RE11と領域RE12の明るさの中間の明るさ(輝度)を有する領域となっている。
このような状態から、領域RE11の輝度値を時間とともにさらに明るくしていくと、ユーザには、中央の領域RE12が右に動いたように知覚される。
逆に、図中、左上に示す状態から、領域RE11の輝度値を時間とともに暗くしていくと、ユーザには、中央の領域RE12が左に動いたように知覚される。
また、図中、左上に示す状態から、領域RE12の輝度値を時間とともに明るくしていくと、ユーザには、中央の領域RE12が右に動いたように知覚される。逆に、図中、左上に示す状態から、領域RE12の輝度値を時間とともに暗くしていくと、ユーザには、中央の領域RE12が左に動いたように知覚される。
さらに、図中、左上に示す状態から、領域RE13の輝度値を時間とともに暗くしていくと、ユーザには、中央の領域RE12が右に動いたように知覚される。逆に、図中、左上に示す状態から、領域RE13の輝度値を時間とともに明るくしていくと、ユーザには、中央の領域RE12が左に動いたように知覚される。
同様に、図中、中央に示すようにユーザが単一の輝度値を有する帯状の領域RE14乃至領域RE16からなる画像を観察しているとする。ここで、領域RE15が最も明るい領域であり、領域RE16が最も暗い領域であり、領域RE14は、領域RE15と領域RE16の中間の明るさ(輝度)を有する領域となっている。
この状態から、領域RE14の輝度値を時間とともに明るくしていくと、ユーザには、中央の領域RE15が左に動いたように知覚され、領域RE14の輝度値を時間とともに暗くしていくと、ユーザには、領域RE15が右に動いたように知覚される。
また、図中、中央に示す状態から、領域RE15の輝度値を時間とともに暗くしていくと、ユーザには領域RE15が左に動いたように知覚され、領域RE15の輝度値を時間とともに明るくしていくと、ユーザには領域RE15が右に動いたように知覚される。
さらに、図中、中央に示す状態から領域RE16の輝度値を時間とともに暗くしていくと、ユーザには領域RE15が左に動いたように知覚され、領域RE16の輝度値を時間とともに明るくしていくと、ユーザには領域RE15が右に動いたように知覚される。
さらに、図中、右側に示すようにユーザが単一の輝度値を有する帯状の領域RE17乃至領域RE19からなる画像を観察しているとする。ここで、領域RE17が最も明るい領域であり、領域RE19が最も暗い領域であり、領域RE18は、領域RE17と領域RE19の中間の明るさ(輝度)を有する領域となっている。
この状態から、領域RE17の輝度値を時間とともに明るくしていくと、ユーザには中央の領域RE18が左に動いたように知覚され、領域RE17の輝度値を時間とともに暗くしていくと、ユーザには領域RE18が右に動いたように知覚される。
また、図中、右側に示す状態から、領域RE18の輝度値を時間とともに暗くしていくと、ユーザには領域RE18が左に動いたように知覚され、領域RE18の輝度値を時間とともに明るくしていくと、ユーザには領域RE18が右に動いたように知覚される。
さらに、図中、右側に示す状態から領域RE19の輝度値を時間とともに明るくしていくと、ユーザには領域RE18が左に動いたように知覚され、領域RE19の輝度値を時間とともに暗くしていくと、ユーザには領域RE18が右に動いたように知覚される。
[本技術について]
以下では、図1を参照して説明した現象を踏まえて、本技術について説明をしていく。
本技術では、図1を参照して説明した現象を、一般の風景画像等の入力画像のエッジ部分に対して適用し、入力画像内の被写体があたかも動いているような錯覚を誘因させている。図1の説明から分かるように、従来から知られている錯視に関する研究は、一般の風景画像等の撮影により得られた画像ではない、模様からなる画像に対して、その模様の輝度値が変化すると、模様がどのように動いたと知覚されるかという事項に限定されていた。
本技術においては、この現象を、一般の風景画像等の入力画像のエッジ部分に対して適用して、被写体の動きの錯視を行なう点が、従来にない新規な事項である。
画像処理の観点からみると、本技術の主な処理は以下に示す処理である。
処理(1)
入力画像において、動かしたい被写体(物体)の領域と、その被写体を動かしたい方向の指定を受け付ける。なお、以下、動かしたい被写体の領域を動被写体領域とも称し、その動被写体領域を動かしたい方向を移動方向とも称することとする。
処理(2)
入力画像において、動かしたい方向、つまり動被写体領域の移動方向と直交するエッジを、動被写体領域内で検出する。
処理(3)
移動方向に沿って、処理(2)により検出されたエッジ近傍の領域の輝度値の変化を調べる。
処理(4−1)
処理(3)で特定された輝度値の変化が、移動方向に輝度値が減少していくという変化である場合、動被写体領域内のエッジ上に黒色の帯状の輪郭線を追加(付加)し、この輪郭線の輝度を時間の経過とともに上げていく。
処理(4−2)
処理(3)で特定された輝度値の変化が、移動方向に輝度値が増加していくという変化である場合、動被写体領域内のエッジ上に白色の帯状の輪郭線を追加(付加)し、この輪郭線の輝度を時間の経過とともに下げていく。
以上の処理(1)乃至処理(4−2)によって、動被写体領域があたかも移動方向に動いているように鑑賞者に知覚させることができる。
例えば、図2の左側に示すように、処理対象の入力画像IP11の図中、左側の領域が動かしたい被写体の領域である動被写体領域MR11として指定され、その動被写体領域MR11を動かしたい方向として、図中、右方向が指定されたとする。
この例では、入力画像IP11には、動被写体領域MR11と、動被写体領域として指定されなかった領域SR11とが含まれている。
このような入力画像IP11について、処理(1)により動被写体領域MR11と移動方向が指定されると、処理(2)において、指定された移動方向と直交するエッジが動被写体領域MR11内において検出される。ここでは、動被写体領域MR11の右側の輪郭部分がエッジED11として検出されている。
さらに、処理(3)では、エッジED11近傍の領域CR11において、移動方向である右方向に沿って各画素の輝度値がどのように変化するかが調べられる。この例では、領域CR11内の図中、右側にいくにしたがって、画素の輝度値が減少している。つまり、移動方向側の画素ほど相対的に暗くなっている。
そのため、処理(3)に続いて処理(4−1)が行なわれる。具体的には、図中、中央に示すようにエッジED11上に、黒色の帯状の輪郭線OU11が付加される。なお、輪郭線OU11の輝度値は、輝度値として取り得る値の最小値に限らず、例えば領域SR11の平均的な輝度値よりも低い輝度値などとされてもよい。
さらに、図中、右側に示すように動被写体領域MR11に対して付加された輪郭線OU11の輝度値が、時間の経過とともに増加するように、輪郭線OU11の明るさが制御される。これにより、錯視が生じ、動被写体領域MR11があたかも右方向に移動しているように知覚される。これは、動被写体領域MR11、輪郭線OU11、および領域SR11を、例えば、それぞれ図1の領域RE11乃至領域RE13に対応させ、領域RE12の輝度を増加させる場合について考えれば明らかである。動被写体領域の輪郭部分が動いているように知覚されるのであるから、その動被写体領域自体も動いているように知覚されるはずである。
また、例えば図3の左側に示すように、処理対象の入力画像IP11の図中、左側の領域が動被写体領域MR11として指定され、その動被写体領域MR11を動かしたい方向として、図中、左方向が指定されたとする。なお、図3において、図2における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
この例では、処理(1)により動被写体領域MR11と移動方向としての左方向が指定されると、処理(2)においてエッジED11が検出される。そして、処理(3)では、エッジED11近傍の領域CR11において、移動方向である左方向に沿って各画素の輝度値がどのように変化するかが調べられる。この例では、領域CR11内の図中、左側にいくにしたがって、画素の輝度値が増加している。つまり、移動方向側の画素ほど相対的に明るくなっている。
そのため、処理(3)に続いて処理(4−2)が行なわれる。具体的には、図中、中央に示すようにエッジED11上に、白色の帯状の輪郭線OU21が付加される。なお、輪郭線OU21の輝度値は、輝度値として取り得る値の最大値に限らず、例えば動被写体領域MR11の平均的な輝度値よりも高い輝度値などとされてもよい。
さらに、図中、右側に示すように動被写体領域MR11に対して付加された輪郭線OU21の輝度値が、時間の経過とともに減少するように、輪郭線OU21の明るさが制御される。これにより、錯視が生じ、動被写体領域MR11があたかも左方向に移動しているように知覚される。これは、動被写体領域MR11、輪郭線OU21、および領域SR11を、例えば、それぞれ図1の領域RE14乃至領域RE16に対応させ、領域RE15の輝度を減少させる場合について考えれば明らかである。
ところで、図2の中央に示す状態から図2中、右側に示す状態や、図3の中央に示す状態から図3中、右側に示す状態への遷移時間、つまり動被写体領域に付加された輪郭線の輝度を変化させる時間は、0.25秒程度とされるのが望ましい。すなわち、0.25秒程度で遷移させると、錯視が顕著に引き起こされることが本出願人による実験において確認されている。
上述したように、図2の中央に示す状態、または図3の中央に示す状態から、0.25秒かけて図2の右側に示す状態、または図3の右側に示す状態へと入力画像IP11を変化させていくと、動被写体領域MR11が移動方向に動いたような錯視が引き起こされる。
しかしながら、このような状態遷移では、提示される入力画像IP11は0.25秒間の長さの一過性の動画像となってしまう。つまり、入力画像IP11が図2の右側に示す状態、または図3の右側に示す状態となると、入力画像IP11での錯視の状態が終了してしまう。これでは、ユーザ(鑑賞者)は0.25秒間しか入力画像IP11上の被写体の動きを鑑賞することができなくなってしまう。
具体的には、例えば図4の上側に示すように、再生時間0秒目の時刻に図2の中央に示した入力画像IP11を表示させ、その後、0.25秒かけて図2中、右側に示す状態となるように、入力画像IP11に付加した輪郭線OU11の輝度値を明るくしていくとする。なお、図4において、図2における場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、図4において、横方向は時間を示している。
図4の上側に示す例では、再生時間が0秒目から0.25秒目までの期間T11の間、輪郭線OU11の輝度値が時間の経過とともに明るくなるように、入力画像IP11の表示が制御される。この期間T11では、動被写体領域MR11が左側から右側へと動いているような錯視が生じるが、入力画像IP11の再生(表示)を開始してから0.25秒後には、再生が終了することになる。
そこで、本技術では、入力画像IP11をエンドレス動画像(ループ動画像)として再生することができるように、以下に示す処理が追加される。
すなわち、図4中、下側に示すように、再生時間が0秒目から0.25秒目までの期間T11の間は、上述した場合と同様に0.25秒かけてエッジ部分に追加された輪郭線OU11の輝度値が時間とともに大きくなるようにされる。例えば、輪郭線OU11が黒い領域から白い領域へと変化する。
そして、その後、3.75秒かけて、輪郭線OU11の輝度値が時間とともに小さくなるようにされる。例えば、輪郭線OU11が白い領域から黒い領域へと変化する。図4の下側に示す例では、再生時間が0.25秒から4.0秒までの期間T12の間に、輪郭線OU11の輝度値が、再生時間0秒の時点の輪郭線OU11の輝度値に戻るように、輪郭線OU11の輝度値が下げられていく。
このような処理を行なえば、再生時間0秒目、つまり期間T11の開始時刻における入力画像IP11と、再生時間4.0秒目、つまり期間T12の終了時刻における入力画像IP11とが同じ画像となる。したがって、期間T11と期間T12からなる4秒間の入力画像IP11を繰り返し再生すると、4秒目と0秒目で提示される画像が違和感なくつながり、入力画像IP11をエンドレス動画像として再生することができる。
この例では、0秒目から0.25秒目までの期間T11では、ユーザは動被写体領域MR11が左側から右側へと動いているような錯視を感じることになる。
そして、続く0.25秒目から4秒目までの期間T12では、エッジ部分の輪郭線OU11の輝度値が時間とともに下がっているので、図3の中央に示した入力画像IP11から、図3の右側に示した入力画像IP11への変化と同様の変化が生じる。
但し、図4の例では、入力画像IP11の期間T12の開始時刻における状態から、期間T12の終了時刻における状態まで、3.75秒という長い時間をかけてゆっくりと輪郭線OU11の輝度が変化する。そのため、入力画像IP11を観察しているユーザは、輪郭線OU11の輝度の変化に気付かず、ユーザには図3の例のように動被写体領域MR11が右側から左側へと動いているような錯視は感じられない。つまり、期間T12では錯視は生じない。
以上のことから、図4の下側に示す例では、0秒目から0.25秒目までは動被写体領域MR11が左側から右側へと動いているような錯視が感じられ、0.25秒目から4秒目までは、動被写体領域MR11が静止しているように感じられる。このような4秒間の動画像を繰り返し再生することで、ユーザは動被写体領域が止まったり動いたりする錯視を感じることになり、その動被写体領域の移動方向は図中、左から右方向となる。
なお、0.25秒程度で輪郭線の輝度状態を遷移させると、錯視が顕著に引き起こされると説明した。この事実以外に、3.75秒程度で輪郭線の輝度状態を遷移させると、その遷移はゆっくりであるため観察者はその変化に気付かず、錯視は生じないことも本出願人による実験において確認されている。
また、図3に示した例でも、図4における場合と同様の処理を行なうことで、動被写体領域が動いたり静止したりするエンドレス動画像を得ることができる。以下では、このようなエンドレス動画像を出力動画像とも称することとし、出力動画像を構成する各時刻の画像、つまり各時刻に提示される1つの画像を出力画像とも称することとする。換言すれば、各時刻の出力画像からなる画像群が出力動画像である。
さらに、以上においては、説明を分かり易くするため、錯視を生じさせる期間T11を0.25秒間とし、輝度値をもとの値まで変化させる期間T12を3.75秒として説明したが、本技術では、それらの期間は0.25秒や3.75秒に限定されるわけではない。また、以下においても説明を分かり易くするため、錯視を生じさせる期間を0.25秒間とし、輝度値をもとの値まで変化させる期間を3.75秒として説明を続けることとする。
[情報処理装置の構成例]
次に、本技術を適用した具体的な実施の形態について説明する。
図5は、本技術を適用した情報処理装置の一実施の形態の構成例を示す図である。
図5の情報処理装置11は、画像の撮像や、その撮像で得られた画像データに対する画像処理などの各種の情報処理を実行する装置である。
情報処理装置11は、撮像部21、制御部22、表示部23、入出力インターフェース24、画像データ記憶部25、ユーザインターフェース26、バス27、および画像処理装置28から構成される。
また、撮像部21乃至ユーザインターフェース26、および画像処理装置28は、バス27により相互に接続されており、特に画像処理装置28は、信号線31および信号線32によりバス27に接続されている。
撮像部21は、移動体などの被写体を撮像して画像データを生成する。撮像により得られた画像データは、例えば撮像部21からバス27を介して、画像データ記憶部25に供給され、記憶される。
制御部22は、情報処理装置11全体の動作を制御する。例えば、制御部22は、ユーザインターフェース26を介してユーザから入力画像の撮像指示を受けて、その指示に応じて撮像部21に入力画像を撮像させたり、画像データに対する画像処理を画像処理装置28に実行させたりする。
表示部23は、バス27を介して供給された画像データに基づいて、画像を表示する。入出力インターフェース24は、情報処理装置11の外部の装置へのデータの出力と、外部の装置からのデータの入力とを行なう。例えば、入出力インターフェース24によって、画像データなどの各種のデータの外部の装置との授受が行なわれる。
画像データ記憶部25は、バス27を介して供給された画像データを記憶する。ユーザインターフェース26は、ユーザからの指示を受け付けて、その指示に応じた信号をバス27を介して制御部22等に供給する。バス27は、撮像部21乃至ユーザインターフェース26、および画像処理装置28がデータを送受信するための共通の経路である。
画像処理装置28は、画像データ記憶部25から供給された画像データに対して、所定の画像処理を実行する。
例えば画像処理装置28は、信号線31およびバス27を介して、画像データ記憶部25から、入力画像の画像データ(以下、入力画像データとも称する)を読み出す。さらに、ユーザインターフェース26を介して、ユーザが入力画像における動被写体領域と移動方向を指定すると、ユーザの操作に応じた信号がユーザインターフェース26から、バス27および信号線31を介して画像処理装置28に供給される。
画像処理装置28は、ユーザインターフェース26から供給された動被写体領域と移動方向を示す情報に基づいて、入力画像データに対して画像処理を施し、例えば図4を参照して説明した4秒間分の画像データを出力動画像の出力画像データとして生成する。そして、画像処理装置28は、得られた出力画像データを、信号線32およびバス27を介して表示部23などに出力する。
[画像処理装置の構成例]
また、図5に示した画像処理装置28は、より詳細には例えば図6に示すように構成される。すなわち、図6に示す画像処理装置28は、エッジ検出部61および輪郭線追加部62から構成される。
エッジ検出部61は、信号線31を介してユーザインターフェース26から供給された動被写体領域と移動方向を示す情報(以下、指定情報とも称する)に基づいて、信号線31を介して供給された入力画像から、移動方向に直交するエッジを検出する。エッジ検出部61は、エッジ検出により得られたエッジに関する情報をエッジ情報として輪郭線追加部62に供給する。エッジ検出部61により行なわれる処理は、上述した処理(2)に対応する。
輪郭線追加部62は、エッジ検出部61からのエッジ情報と、信号線31を介して供給された指定情報および入力画像の画像データとに基づいて、出力画像データを生成し、信号線32を介して表示部23等に出力する。
輪郭線追加部62は、輝度変化判定部71を備えている。輝度変化判定部71は、エッジ情報により示される各エッジについて、移動方向に沿ってエッジ近傍の各画素(位置)の輝度値が増加しているか、または減少しているかを判定する。輪郭線追加部62は、輝度変化判定部71の判定結果に基づいて、その判定結果に応じた輝度値の輪郭線を入力画像のエッジ部分に上書きして出力画像とすることで、出力動画像を生成する。このようにして得られた出力動画像は、例えば再生すると4秒間の長さのデータとなる。
[画像生成処理の説明]
上述したように、ユーザがユーザインターフェース26に対する操作を行なって、入力画像上の動かしたい被写体の領域を動被写体領域として指定し、動被写体領域の動かしたい方向を移動方向として指定すると、動被写体領域と移動方向を示す指定情報が画像処理装置28に供給される。また、指定情報とともに、画像データ記憶部25から画像処理装置28に入力画像データが供給されると、画像処理装置28は、画像生成処理を行って出力画像データを生成する。以下、図7のフローチャートを参照して、画像処理装置28による画像生成処理について説明する。
ステップS11において、エッジ検出部61は、ユーザインターフェース26から供給された指定情報に基づいて、画像データ記憶部25から供給された入力画像上の動被写体領域から、動被写体領域の移動方向と直交するエッジを検出する。
例えば、エッジ検出部61は、入力画像とガボールフィルタ(Gabor Filter)との畳み込み演算により、指定情報により示される動被写体領域内から移動方向に直交するエッジを検出する。ガボールフィルタでは、パラメータとして角度が与えられるが、この角度として動被写体領域を動かしたい方向、つまり移動方向の角度と同じ角度が設定される。これにより、移動方向と直交するエッジが検出される。
エッジ検出部61は、検出した各エッジを示す情報をエッジ情報とし、エッジ情報を輪郭線追加部62に供給する。
ステップS12において、輪郭線追加部62は、画像データ記憶部25から供給された入力画像を、これから生成しようとする出力動画像を構成する各時刻の出力画像とする。
例えば、再生時間が4秒間である出力動画像が生成されるとし、各再生時刻の出力画像がD(t)であるとする。ここで、tは時刻を示しており、0.0≦t≦4.0である。このとき、輪郭線追加部62は、入力画像をそのまま4秒間分の枚数の各時刻の出力画像D(t)としてセットする。なお、ここでセットされた出力画像D(t)は仮の出力画像であり、以降の処理においてこれらの出力画像が加工され、最終的な出力画像とされる。
ステップS13において、輪郭線追加部62は、エッジ検出部61から供給されたエッジ情報に基づいて、入力画像上の動被写体領域内で検出されたエッジのうち、まだ未処理であるエッジを1つ選択し、注目エッジとする。
ステップS14において、輝度変化判定部71は、入力画像上の注目エッジ近傍の領域における、指定情報により示される移動方向への各画素の輝度値の変化を特定する。すなわち、輝度変化判定部71は、注目エッジ近傍の領域内の画素の輝度値が、移動方向に沿って減少していくか、または増加していくかを特定する。
具体的には、例えば輝度変化判定部71は、移動方向に沿って並ぶ注目エッジ近傍の画素について、注目エッジの移動先側に位置する各画素の輝度値の平均値と、注目エッジの移動元側に位置する各画素の輝度値の平均値とを比較することで、画素の輝度変化を特定する。このとき、注目エッジに対して移動方向の移動先側の領域の画素の輝度値の平均値が、注目エッジに対して移動方向の移動元側の領域の画素の輝度値の平均値よりも大きい場合には、輝度値が増加していくと判定される。
ステップS15において、輝度変化判定部71は、ステップS14の処理における特定結果に基づいて、注目エッジ近傍において、移動方向に沿って画素の輝度値が減少しているか否かを判定する。
ステップS15において、輝度値が減少していると判定された場合、処理はステップS16へと進む。
ステップS16において、輪郭線追加部62は、出力画像の注目エッジ部分の輝度が時間方向に増加した後、もとの輝度に戻るように、各時刻の出力画像の注目エッジ部分を所定輝度の輪郭線で上書きする。
例えば、輪郭線追加部62は、所定の時刻t(但し、0.0≦t≦4.0)における出力画像D(t)について、輪郭線の輝度値L(t)を定める。具体的には、輝度値L(t)は、例えば図8に示す折れ線LM11により定まる輝度値とされる。なお、図8において、横軸は時間を示しており、縦軸は輝度値を示している。
この例では、画像上の画素の輝度値として取り得る値の最大値と最小値が、それぞれ最高輝度値Lmaxおよび最低輝度値Lminとして定められている。例えば、最高輝度値Lmaxは白い領域の輝度であり、最低輝度値Lminは黒い領域の輝度である。
図8では、輪郭線の領域の輝度値L(t)は、時刻t=0.0において輝度値L(t)=Lminとされ、その後、時刻tが大きくなるにつれて直線的に大きくなり、時刻t=0.25において輝度値L(t)=Lmaxとされる。さらにその後、輪郭線の領域の輝度値L(t)は、時刻tが大きくなるにつれて直線的に小さくなり、時刻t=4.0において輝度値L(t)=Lminとされる。このように、折れ線LM11により示される時刻tの輝度値が、その時刻tの輪郭線の領域の輝度値L(t)とされる。
輪郭線追加部62は、時刻tの輝度値L(t)を定めると、出力画像D(t)の動被写体領域内における注目エッジの領域を、輝度値L(t)を有する画素からなる輪郭線で上書きする。すなわち、出力画像D(t)の動被写体領域内における注目エッジの領域の各画素の輝度値が、現時点における輝度値から輝度値L(t)へと変更される。
これにより、各時刻の出力画像D(t)からなる動画像を再生させた場合、出力画像の注目エッジの部分の輝度値は図8の折れ線LM11に示すように変化する。
すなわち、輪郭線追加部62は、注目エッジ部分の輝度値を、再生開始後、0.25秒かけて増加させることで錯視を引き起こし、指定情報により示される移動方向への動被写体領域の動きを実現する。そして、輪郭線追加部62は、残りの3.75秒かけて注目エッジ部分の輝度値を減少させることで、錯視を引き起こすことなく、注目エッジ部分の輝度値を再生開始直後(時刻t=0.0)のもとの輝度値に戻す。
このようにして輪郭線追加部62が出力画像の注目エッジ部分を輝度値L(t)の輪郭線で上書きすると、処理はステップS18に進む。なお、ステップS16において行なわれる画像処理は、上述した処理(4−1)に対応する。
これに対して、ステップS15において、輝度値が減少していない、つまり輝度値が増加していると判定された場合、処理はステップS17へと進む。
ステップS17において、輪郭線追加部62は、出力画像の注目エッジ部分の輝度が時間方向に減少した後、もとの輝度に戻るように、各時刻の出力画像の注目エッジ部分を所定輝度の輪郭線で上書きする。
例えば、輪郭線追加部62は、所定の時刻t(但し、0.0≦t≦4.0)における出力画像D(t)について、図9に示す折れ線LM12により定まる輝度値を、輪郭線の輝度値L(t)として定める。なお、図9において、横軸は時間を示しており、縦軸は輝度値を示している。
この例では、画像上の画素の輝度値として取り得る値の最大値と最小値が、それぞれ最高輝度値Lmaxおよび最低輝度値Lminとして定められている。
図9では、輪郭線の領域の輝度値L(t)は、時刻t=0.0において輝度値L(t)=Lmaxとされ、その後、時刻tが大きくなるにつれて直線的に小さくなり、時刻t=0.25において輝度値L(t)=Lminとされる。さらにその後、輪郭線の領域の輝度値L(t)は、時刻tが大きくなるにつれて直線的に大きくなり、時刻t=4.0において輝度値L(t)=Lmaxとされる。このように、折れ線LM12により示される時刻tの輝度値が、その時刻tの輪郭線の領域の輝度値L(t)とされる。
輪郭線追加部62は、時刻tの輝度値L(t)を定めると、出力画像D(t)の動被写体領域内における注目エッジの領域を、輝度値L(t)を有する画素からなる輪郭線で上書きする。これにより、各時刻の出力画像D(t)からなる動画像を再生させた場合、出力画像の注目エッジの部分の輝度値は図9の折れ線LM12に示すように変化する。
すなわち、輪郭線追加部62は、注目エッジ部分の輝度値を、再生開始後、0.25秒かけて減少させることで錯視を引き起こし、指定情報により示される移動方向への動被写体領域の動きを実現する。そして、輪郭線追加部62は、残りの3.75秒かけて注目エッジ部分の輝度値を増加させることで、錯視を引き起こすことなく、注目エッジ部分の輝度値を再生開始直後(時刻t=0.0)のもとの輝度値に戻す。
このようにして輪郭線追加部62が出力画像の注目エッジ部分を輝度値L(t)の輪郭線で上書きすると、処理はステップS18に進む。なお、ステップS17において行なわれる画像処理は、上述した処理(4−2)に対応する。
ステップS16またはステップS17において、注目エッジ部分の領域が所定輝度の輪郭線で上書きされると、ステップS18において、輪郭線追加部62は、エッジ情報により示される全てのエッジを注目エッジとして処理したか否かを判定する。
ステップS18において、まだ全てのエッジを注目エッジとして処理していないと判定された場合、処理はステップS13に戻り、上述した処理が繰り返し行なわれる。すなわち、まだ未処理のエッジが次の注目エッジとして選択され、その注目エッジの部分の領域が、所定輝度の輪郭線で上書きされる。
これに対して、ステップS18において、全てのエッジを注目エッジとして処理したと判定された場合、処理はステップS19に進む。この場合、各時刻の出力画像において、動被写体領域内で検出された全てのエッジが、輝度値L(t)の輪郭線に置き換えられたことになる。つまり、最終的な出力画像からなる出力動画像が得られたことになる。
ステップS19において、輪郭線追加部62は、各時刻の出力画像からなる出力動画像を信号線32を介して出力し、画像生成処理は終了する。
以上のようにして、画像処理装置28は、入力画像の動被写体領域内から移動方向と直交するエッジを検出し、そのエッジの領域を、エッジ近傍の画素の輝度変化に応じた輝度値を有する輪郭線で上書きすることで、各時刻の出力画像からなる出力動画像を生成する。
このように、エッジ部分の輝度値を変化させて各時刻の出力画像を生成することで、得られた出力動画像を再生させれば、画像上の被写体を被写体そのものとしてユーザに鑑賞させつつ、ユーザに被写体の動きを錯視により知覚させることができる。
[各時刻の輪郭線の輝度について]
なお、さらにユーザによるユーザインターフェース26に対する操作によって、ユーザが動被写体領域の動き量の強弱を入力できるようにしてもよい。
そのような場合、例えば動き量として「強」が入力されたときには、図7のステップS16およびステップS17において、それぞれ図8の折れ線LM11および図9の折れ線LM12に示す輝度値の輪郭線で注目エッジ部分の領域が上書きされる。
そして、動き量として「弱」が入力された場合、図7のステップS16およびステップS17において、それぞれ図10の折れ線LM21および図11の折れ線LM22に示す輝度値の輪郭線で注目エッジ部分の領域が上書きされる。なお、図10および図11において、横軸は時間を示しており、縦軸は輝度値を示している。
具体的には、動き量として「弱」が入力された場合、ステップS16において、輪郭線追加部62は、所定の時刻t(但し、0.0≦t≦4.0)における出力画像D(t)について、図10に示す折れ線LM21により定まる輝度値を、輪郭線の輝度値L(t)として定める。
図10の例では、輪郭線の領域の輝度値として取り得る値の最大値と最小値が、それぞれ輝度値L1および輝度値L2として定められている。ここで、輝度値L1は最高輝度値Lmaxよりも所定の値だけ小さい輝度値であり、輝度値L2は最低輝度値Lminよりも所定の値だけ大きい輝度値である。つまり、この場合、輪郭線の領域の輝度値として取り得る値の範囲が、図8の場合よりも狭い範囲となる。
図10では、輪郭線の領域の輝度値L(t)は、時刻t=0.0において輝度値L(t)=L2とされ、その後、時刻tが大きくなるにつれて直線的に大きくなり、時刻t=0.25において輝度値L(t)=L1とされる。さらにその後、輪郭線の領域の輝度値L(t)は、時刻tが大きくなるにつれて直線的に小さくなり、時刻t=4.0において輝度値L(t)=L2とされる。このように、折れ線LM21により示される時刻tの輝度値が、その時刻tの輪郭線の領域の輝度値L(t)とされる。
輪郭線追加部62は、時刻tの輝度値L(t)を定めると、出力画像D(t)の動被写体領域内における注目エッジの領域を、輝度値L(t)を有する画素からなる輪郭線で上書きする。
また、動き量として「弱」が入力された場合、ステップS17において、輪郭線追加部62は、所定の時刻t(但し、0.0≦t≦4.0)における出力画像D(t)について、図11に示す折れ線LM22により定まる輝度値を、輪郭線の輝度値L(t)として定める。
図11の例では、輪郭線の領域の輝度値として取り得る値の最大値と最小値が、それぞれ輝度値L1および輝度値L2として定められている。ここで、輝度値L1と輝度値L2は図10における場合と同じである。
図11では、輪郭線の領域の輝度値L(t)は、時刻t=0.0において輝度値L(t)=L1とされ、その後、時刻tが大きくなるにつれて直線的に小さくなり、時刻t=0.25において輝度値L(t)=L2とされる。さらにその後、輪郭線の領域の輝度値L(t)は、時刻tが大きくなるにつれて直線的に大きくなり、時刻t=4.0において輝度値L(t)=L1とされる。このように、折れ線LM22により示される時刻tの輝度値が、その時刻tの輪郭線の領域の輝度値L(t)とされる。輪郭線追加部62は、時刻tの輝度値L(t)を定めると、出力画像D(t)の動被写体領域内における注目エッジの領域を、輝度値L(t)を有する画素からなる輪郭線で上書きする。
図10や図11に示した例では、図8や図9における場合と比較して、輝度値の変化が小さくなるので、より動きの少ない錯視が感じられるようになる。
[動被写体領域とは異なる領域での錯視について]
また、以上においては、動被写体領域が動いているような錯視を引き起こす画像処理を入力画像に対して施す例について説明した。さらにこれに加え、ユーザが入力画像上の動被写体領域以外の領域、つまり背景領域をさらに他の動被写体領域として指定するとともに、他の動被写体領域の移動方向として、先に指定した動被写体領域の移動方向と反対方向を指定してもよい。
そのような場合、他の動被写体領域として指定された背景領域が、動被写体領域の移動方向とは逆方向に動いているような錯視を引き起こす画像処理が入力画像に対して施されることになる。
例えば、図12の矢印Q11に示す入力画像IP31が画像データ記憶部25から画像処理装置28に供給されたとする。この入力画像IP31の領域MR31には、被写体として自動車が写っている。
このような入力画像IP31について、ユーザがユーザインターフェース26に対する操作を行なって、矢印Q12に示すように自動車の領域MR31を動かしたい被写体の領域、つまり動被写体領域として指定したとする。
なお、ユーザが指定する動被写体領域を、動かしたい被写体が実際に投影されている領域よりもひとまわり大きい領域としておくと、自動車の外郭部分のエッジもエッジ検出部61で検出されるようになるので望ましい。
また、ユーザは、領域MR31を動被写体領域として指定すると同時に、ユーザインターフェース26に対する操作を行なって、動被写体領域の移動方向も指定する。例えば、ここでは、領域MR31を図中、左から右方向に動かしたいという情報が入力されたとする。
さて、最終的に得たい4秒間の出力動画像は、錯視により領域MR31の自動車が左から右に動いているかのように感知される動画像である。これは、逆にいえば、入力画像IP31の自動車以外の部分(背景部分)が右から左方向に動いているかのように感知される動画像であってもよい。さらには、これらの2つの錯視が感知される動画像でもよい。すなわち、領域MR31の自動車が左から右に動いているかのように感知され、自動車以外の背景部分が右から左方向に動いているかのように感知される動画像であってもよい。
そこで、矢印Q13に示すように、領域MR31だけでなく、入力画像IP31の領域MR31以外の背景部分の領域SR31も動被写体領域として指定することで、自動車の領域と背景領域とが動いているかのような動画像を出力動画像として得ることができる。この場合、動被写体領域として指定された領域SR31の移動方向として、右から左方向が指定されることになる。
このように、入力画像において、複数の動被写体領域と、それらの動被写体領域の移動方向とが指定されるようにしてもよい。
続いて、そのような場合における画像処理装置28の処理について説明する。なお、図12に示す入力画像IP31は、絵柄が複雑な画像であるので、以下では、図13を参照して、図12の入力画像IP31を模式化した例について説明する。
図13の矢印Q21に示すように、図12の入力画像IP31に対応する入力画像IP41が処理対象となったとする。
入力画像IP41では図中、上側に位置する領域SR41に写っている縞模様の被写体が、入力画像IP31の背景の木や家などの被写体に相当し、図中、下側に位置する領域MR41に写っている縞模様の被写体が、入力画像IP31の自動車部分に相当する。
ここで、入力画像IP41における領域CR41および領域CR42は、後述するエッジ近傍の輝度変化の特定のための領域である。
ユーザは、矢印Q22に示すように、入力画像IP41の領域MR41を動かしたい領域、つまり動被写体領域として指定するとともに、領域MR41の移動方向として、左から右方向を指定する。
また、ユーザは、領域MR41に対して、背景の領域を領域MR41の移動方向と逆方向に動かしたいので、矢印Q23に示すように、入力画像IP41の領域MR41以外の領域SR42を動かしたい他の領域、つまり2つ目の動被写体領域として指定する。さらに、ユーザは、領域SR42の移動方向として右から左方向を指定する。
なお、ここでは動かしたい領域である領域MR41、およびその移動方向だけでなく、背景領域である領域SR42およびその移動方向もユーザにより指定される場合について説明するが、領域SR42とその移動方向は画像処理装置28により定められるようにしてもよい。
すなわち、そのような場合、ユーザにより領域MR41と、その移動方向が指定されると、画像処理装置28は、入力画像IP41における領域MR41以外の領域である領域SR42を他の動被写体領域とする。また、画像処理装置28は、領域SR42の移動方向を、ユーザにより指定された領域MR41の移動方向とは反対の方向とする。
さらに、図13において、入力画像IP41の下辺には各被写体の位置関係を分かり易くするため、目盛りが付加されているが、この目盛りは実際には入力画像IP41には存在しないものである。また、以降において説明する図14および図15においても同様の目盛りが付されている。
以上のように、複数の動被写体領域が指定された場合には、図7を参照して説明した画像生成処理のステップS11において、動被写体領域ごとにエッジ検出が行なわれる。
例えば、動被写体領域として指定された領域MR41は、左から右方向に動かしたい領域であるので、左から右方向、つまり横方向に直交する方向のエッジが検出される。また、他の動被写体領域として指定された領域SR42は、右から左方向に動かしたい領域であるので、右から左方向、つまり横方向に直交する方向のエッジが検出される。
これにより、図14に示す結果が得られる。図14に示す入力画像IP41において、縦方向の直線は、図7のステップS11の処理において、エッジ検出部61により検出されたエッジを表している。
例えば、エッジED41およびエッジED42は、それぞれ図13に示した領域MR41および領域SR41における縦縞の境界部分となっている。
各動被写体領域からエッジが検出されると、検出された各エッジについて、エッジ近傍の領域の輝度値の変化が特定される。
例えば、エッジED41について輝度値の変化が調べられる場合、エッジED41近傍の領域である図13の領域CR41内の各画素の輝度値が領域MR41の移動方向に沿って、どのように変化しているかが特定される。この場合、領域MR41の移動方向は、左から右方向であるので、領域CR41では移動方向に沿って輝度値が増加していくことが分かる。したがって、エッジED41については、図7の画像生成処理においてステップS17の処理が行なわれることになる。
同様に、図14のエッジED42について輝度値の変化が調べられる場合には、エッジED42近傍の領域である図13の領域CR42内の各画素の輝度値が領域SR42の移動方向に沿って、どのように変化しているかが特定される。この場合、領域SR42の移動方向は、右から左方向であるので、領域CR42では移動方向に沿って輝度値が減少していくことが分かる。したがって、エッジED42については、図7の画像生成処理においてステップS16の処理が行なわれることになる。
図14に示した他のエッジについても、エッジED41やエッジED42と同様にして処理が行なわれる。
このようにして各エッジについて、ステップS16またはステップS17の処理が行なわれると、最終的に各時刻の出力画像D(t)を得ることができる。例えば、出力画像D(t)として、図15に示す出力画像D(t=0.0)や出力画像D(t=0.25)が得られる。なお、図15において、図13における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
出力画像D(t=0.0)は、再生時刻が0秒目である出力画像D(t)であり、出力画像D(t=0.25)は、再生時刻が0.25秒目である出力画像D(t)である。この例では、出力画像D(t=0.0)上の黒い輪郭線の領域は、出力画像D(t=0.25)では白くなり、出力画像D(t=0.0)上の白い輪郭線の領域は、出力画像D(t=0.25)では黒くなっている。
各時刻の出力画像D(t)を4秒間の動画像として再生してみると、0秒目から0.25秒目に、領域MR41については左から右方向に移動しているような錯視を鑑賞者に感じさせ、領域SR42については右から左方向に移動しているような錯視を鑑賞者に感じさせる。そして、0.25秒目から4秒目までは、鑑賞者は各被写体が静止しているように感じる。
さて、さらに複数の動被写体領域と移動方向の組について、それぞれ錯視を引き起こす時間的タイミングを変えるようにしてもよい。
すなわち、例えば図13の領域MR41についてはオフセットなしで、上述の通りステップS13乃至ステップS17の処理が行なわれる。そして、図13の領域SR42については、例えば2秒というオフセットを設けて、ステップS13乃至ステップS17の処理が行なわれる。つまり、領域SR42については、ステップS16およびステップS17において、図8および図9に示した各時刻の輝度値に代えて、図16および図17に示す各時刻の輝度値を有する輪郭線で、エッジ部分が上書きされる。
なお、図16および図17において、横軸は時間を示しており、縦軸は輝度値を示している。
例えば、領域SR42内で検出された注目エッジについて、ステップS16の処理が行なわれる場合、注目エッジが図16の折れ線LM31に示される輝度値L(t)の輪郭線で上書きされる。
図16では、輪郭線の領域の輝度値L(t)は、時刻t=0.0において最高輝度値と最低輝度値の中間の値の輝度値(以下、中間輝度値と称する)とされる。その後、輝度値L(t)は時刻tが大きくなるにつれて直線的に小さくなり、時刻t=2.0において輝度値L(t)=Lminとされる。
さらにその後、輪郭線の領域の輝度値L(t)は、時刻t=2.0から、時刻tが大きくなるにつれて直線的に大きくなり、時刻t=2.25において輝度値L(t)=Lmaxとされた後、時刻tが大きくなるにつれて直線的に小さくなり、時刻t=4.0において中間輝度値となる。
このように、時刻tの輝度値L(t)が定められると、出力画像D(t)の動被写体領域内における注目エッジの領域が、輝度値L(t)を有する画素からなる輪郭線で上書きされる。その結果、各時刻の出力画像D(t)からなる動画像を再生させた場合、出力画像の注目エッジの部分の輝度値は図16の折れ線LM31に示すように変化する。
また、図13の領域SR42内で検出された注目エッジについて、ステップS17の処理が行なわれる場合、注目エッジが図17の折れ線LM32に示される輝度値L(t)の輪郭線で上書きされる。
図17では、輪郭線の領域の輝度値L(t)は、時刻t=0.0において中間輝度値とされ、その後、時刻tが大きくなるにつれて輝度値L(t)は直線的に大きくなり、時刻t=2.0において輝度値L(t)=Lmaxとされる。
さらにその後、輪郭線の領域の輝度値L(t)は、時刻t=2.0から、時刻tが大きくなるにつれて直線的に小さくなり、時刻t=2.25において輝度値L(t)=Lminとされた後、時刻tが大きくなるにつれて直線的に大きくなり、時刻t=4.0において中間輝度値となる。
このように、時刻tの輝度値L(t)が定められると、出力画像D(t)の動被写体領域内における注目エッジの領域が、輝度値L(t)を有する画素からなる輪郭線で上書きされる。その結果、各時刻の出力画像D(t)からなる動画像を再生させた場合、出力画像の注目エッジの部分の輝度値は図17の折れ線LM32に示すように変化する。
各出力画像において、領域SR42については、図16または図17に示した輝度値の輪郭線で上書きを行い、得られた各時刻の出力画像D(t)を4秒間の動画像として再生してみると、次のようになる。
すなわち、0秒目から0.25秒目では、鑑賞者には領域MR41が左から右方向に移動しているように感じられ、0.25秒目から4.0秒目までは領域MR41が静止しているように感じられる。また、2.0秒目から2.25秒目までは、鑑賞者には領域SR42が右から左方向に移動しているように感じられ、2.25秒目から4.0秒目までと、0秒目から2.0秒目までは領域SR42が静止しているように感じられる。
したがって、4秒間のなかで、0秒目から0.25秒目までと、2.0秒目から2.25秒目までとの2つの期間において、鑑賞者に対して錯視を感じさせることができるようになる。
以上のように、画像処理装置28によれば、入力画像のなかに投影されている被写体が、あたかも動いているかのような4秒間の出力動画像を得ることができる。
なお、以上においては、動かしたい被写体の領域と、その被写体を動かしたい方向とをユーザが指定すると説明したが、画像処理装置28や情報処理装置11において、実際の動被写体領域と移動方向を検出するようにしてもよい。
例えば、撮像部21が複数枚の入力画像を連写すれば、得られた入力画像の差分から、実際に動いている被写体と、その移動方向を求めることができる。そこで、求められた動被写体領域や移動方向を指定情報により示される動被写体領域と移動方向とすればよい。なお、複数の画像の差分から動被写体と移動方向を求める手法は、オプティカルフロー算出問題と呼ばれており、そのような方法として既知の手法が多く知られているので、その説明は省略する。
〈第2の実施の形態〉
[画像処理装置の構成例]
また、以上においては、出力画像のエッジ部分の輝度値を変化させることで、動被写体領域に動きをもたせると説明したが、さらに動被写体領域に効果線を付加することで、動被写体領域の動きを表現するようにしてもよい。
ここで、効果線とは、漫画等において、物体の動作を表現するために、その物体の移動方向に沿って描かれる線である。出力画像上の動被写体領域に効果線を付加することにより、より躍動感のある動きを鑑賞者に感じさせることができる。
動被写体領域に効果線が付加される場合、画像処理装置28は、例えば図18に示すように構成される。なお、図18において、図6における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図18に示す画像処理装置28は、エッジ検出部61、輪郭線追加部62、および効果線追加部131から構成される。すなわち、図18の画像処理装置28は、図6の画像処理装置28に、さらに効果線追加部131が設けられた構成とされている。
効果線追加部131には、信号線31を介して指定情報が供給される。また、効果線追加部131には、エッジ検出部61からエッジ情報が供給されるとともに、輪郭線追加部62から輪郭線が付加された出力画像が供給される。
効果線追加部131は、輪郭線追加部62から供給された各時刻の出力画像について、出力画像上の動被写体領域のエッジ部分に、移動方向に沿った効果線を付加し、最終的な出力画像とする。効果線追加部131は、得られた出力画像を信号線32を介して表示部23等に出力する。
[画像生成処理の説明]
次に、図19のフローチャートを参照して、画像処理装置28が図18に示される構成とされる場合に行なわれる画像生成処理について説明する。なお、ステップS61乃至ステップS68の処理は、図7のステップS11乃至ステップS18の処理と同様であるので、その説明は省略する。
ステップS68において、全てのエッジを注目エッジとして処理したと判定された場合、輪郭線追加部62は、各時刻の出力画像D(t)を効果線追加部131に供給し、処理はステップS69に進む。ここで、効果線追加部131に供給される各時刻の出力画像D(t)は、図7のステップS19の処理で出力される出力画像と同じものとなっている。
ステップS69において、効果線追加部131は、エッジ検出部61から供給されたエッジ情報に基づいて、入力画像上の動被写体領域内で検出されたエッジのうち、まだ効果線を追加する処理を行なっていないエッジを1つ選択し、注目エッジとする。
ステップS70において、効果線追加部131は、効果線が付加される領域である効果線追加領域を指定する。
例えば、効果線追加部131は、各出力画像について、出力画像の注目エッジ上から、動被写体領域の移動方向とは反対方向に20画素の長さで、幅2画素の領域を、効果線追加領域として指定する。このとき効果線追加部131は、注目エッジに対して複数の効果線追加領域を設け、各効果線追加領域は注目エッジの方向に2画素間隔で並ぶようにする。
これにより、例えば図20に示す効果線追加領域EF11−1乃至効果線追加領域EF11−Nが設けられる。
図20の例では、出力画像D(t)上のエッジED51が注目エッジとされており、エッジED51を含む動被写体領域の移動方向は、図中、左から右方向とされている。したがって、効果線追加領域EF11−1乃至効果線追加領域EF11−Nは、エッジED51の移動方向とは反対方向側、つまり図中、左側に設けられている。
そして、効果線追加領域EF11−1乃至効果線追加領域EF11−Nは、図中、縦方向の幅が2画素で、横方向の長さが20画素の領域となっており、図中、縦方向に隣接する効果線追加領域は、互いに2画素だけ離れて配置されている。なお、以下、効果線追加領域EF11−1乃至効果線追加領域EF11−Nを特に区別する必要のない場合、単に効果線追加領域EF11と称することとする。
また、ここでは、効果線追加領域EF11は2画素×20画素の領域であると説明したが、効果線追加領域EF11の幅や長さはこの値に限られるわけではなく、どのような値とされてもよい。
さらに、ユーザがユーザインターフェース26に対する操作を行なって、動被写体領域の動く量の強弱を入力できるようにしてもよい。そのような場合、例えば動く量として「強」が入力されたときには、効果線追加領域EF11は20画素よりも長い長さとされ、動く量として「弱」が入力されたときには、効果線追加領域EF11は20画素よりも短い長さとされる。
図19のフローチャートの説明に戻り、ステップS70において効果線追加領域が指定されると、その後、処理はステップS71へと進む。
ステップS71において、効果線追加部131は、各出力画像D(t)の効果線追加領域を、所定の輝度値の効果線で上書きする。
具体的には、効果線追加部131は、動被写体領域の移動方向とは反対方向に進む波、すなわち輝度値が三角関数となる波によって各領域の輝度値が定まる効果線で、効果線追加領域を上書きする。
これにより、例えば図21に示すように各時刻の効果線追加領域が上書きされる。なお、図21において、図20における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図21では、時刻t=0.0,0.5,1.0,1.5,2.0,2.5,3.0,3.5,4.0秒目の各時刻の出力画像D(t)について、効果線で上書きされた効果線追加領域EF11が示されており、各効果線追加領域EF11の図中、左側にはその出力画像D(t)の時刻が記されている。ここで、同じ時刻の出力画像D(t)の注目エッジに設けられたN個の効果線追加領域EF11には、同じ模様の効果線が上書きされる。
例えば、図中、一番上側の効果線追加領域EF11は、時刻t=0.0の出力画像D(t)上の効果線追加領域EF11を示している。この例では、効果線追加領域EF11に上書きされた効果線の各領域の輝度が、図中、左方向に進むにつれて連続的に高くなったり低くなったりして周期的に変化している。
具体的には、効果線追加領域EF11の左右の端側は黒い領域で輝度が低く、中央の領域は白い領域で輝度が高くなっており、効果線追加領域EF11全体が白(高輝度)と黒(低輝度)の周期的な波模様となっている。そして、その波は動被写体領域の移動方向とは反対方向に進む波となっている。この場合、移動方向は左から右方向であるので、効果線追加領域EF11上の白い領域は、時間の経過とともに右から左方向に移動している。
なお、この例では、出力動画像の再生時間は4秒間であるので、効果線追加領域EF11に上書きされる効果線の輝度の波の周期も4秒とされている。これにより、時刻t=0.0秒の効果線と、時刻t=4.0秒の効果線とは同じ模様の効果線となり、4秒間の出力動画像を繰り返し再生したときに、破綻なく再生することが可能となる。
また、図21では、t=0.0,0.5,1.0,1.5,2.0,2.5,3.0,3.5,4.0秒の各時刻の効果線のみを示したが、他の時刻の効果線も同様に右から左へと進む波の模様とされる。
図19のフローチャートの説明に戻り、注目エッジについて、各時刻の出力画像の効果線追加領域を、各領域の輝度が移動方向と反対方向に周期的に変化する効果線で上書きすると、処理はステップS71からステップS72へと進む。
ステップS72において、効果線追加部131は、全てのエッジについて効果線を追加する処理を行なったか否かを判定する。例えば、全てのエッジが注目エッジとされて、注目エッジに対して設けられた効果線追加領域に効果線が上書きされると、全てのエッジについて処理を行なったと判定される。
ステップS72において、まだ全てのエッジについて効果線を追加する処理を行なっていないと判定された場合、処理はステップS69に戻り、上述した処理が繰り返される。
これに対して、ステップS72において、全てのエッジについて効果線を追加する処理を行なったと判定された場合、処理はステップS73に進む。この場合、各時刻の出力画像において、動被写体領域内で検出された全てのエッジに効果線が付加され、最終的な出力画像からなる出力動画像が得られたことになる。
図19の画像生成処理では、エッジに対して2画素間隔で効果線追加領域が指定される。そのため、効果線追加領域として指定されなかったエッジ部分の領域では、上書きされた輪郭線により錯視が引き起こされ、効果線追加領域として指定されたエッジ部分の領域では、効果線による動きが表現された出力画像が得られることになる。
ステップS73において、効果線追加部131は、各時刻の出力画像からなる出力動画像を信号線32を介して出力し、画像生成処理は終了する。
以上のようにして、画像処理装置28は、入力画像の動被写体領域内から移動方向と直交するエッジを検出し、そのエッジの領域を時間とともに変化する輝度の輪郭線で上書きするとともに、エッジ部分に効果線を付加し、出力動画像を生成する。
このように、エッジ部分に空間方向および時間方向に周期的に輝度が変化する効果線を付加することで、出力動画像を鑑賞しているユーザに対して、より躍動感のある動きを感じさせることができるようになる。
なお、以上においては、エッジに対して2画素間隔で効果線追加領域が指定され、その効果線追加領域に効果線を上書きする例について説明したが、効果線の付加方法はどのような方法であってもよい。
例えば、図8および図9で示した輝度変化で輪郭線を付加する場合、出力画像D(t)の0秒目から0.25秒目までは錯視による動きが表現されているが、0.25秒目から4秒目までは錯視は起こらず、鑑賞者には被写体が静止して見える。
そこで、0秒目から0.25秒目までの出力画像D(t)については効果線を付加せず、0.25秒目から4秒目までの出力画像D(t)についてのみ効果線が付加されるようにしてもよい。これにより、出力動画像を再生すると、0秒目から0.25秒目までは錯視により被写体が動いてみえ、0.25秒目から4秒目までは、効果線により動きが表現されるようになる。
このような出力動画像を得るには、例えば以下のようにすればよい。
すなわち、効果線追加領域として、例えば図22に示すように、出力画像D(t)で検出されたエッジED61上から、動被写体領域の移動方向とは反対方向に20画素の長さの領域が指定される。これにより、エッジED61と同じ幅で、図中、横方向の長さが20画素である効果線追加領域EF21が指定されることになる。
この例では、出力画像D(t)上のエッジED61を含む動被写体領域の移動方向は、図中、左から右方向とされている。したがって、効果線追加領域EF21は、エッジED61の移動方向とは反対方向側、つまり図中、左側に設けられている。そして、効果線追加領域EF21の図中、縦方向の幅はエッジED61の幅となっている。
このように効果線追加領域EF21が指定されると、エッジED61部分に輪郭線が上書きされた出力画像に対して、効果線追加領域EF21に、図23に示す効果線が上書きされる。但し、0秒目から0.25秒目までの出力画像については、効果線の上書きは行なわれず、0.25秒目から4秒目までの出力画像についてのみ、効果線の上書きが行なわれる。
図23では、時刻t=0.25,1.0,2.0,3.0,4.0秒目の各時刻の出力画像D(t)について、効果線が上書きされた効果線追加領域EF21が示されており、各効果線追加領域EF21の図中、左側にはその出力画像D(t)の時刻が記されている。なお、図23において、図22における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
例えば、図中、一番上側の効果線追加領域EF21は、時刻t=0.25の出力画像D(t)上の効果線追加領域EF21を示している。この例では、効果線追加領域EF21に上書きされた効果線では、その効果線の輝度が図中、左方向に周期的に変化しており、効果線の輝度は時間方向にも周期的に変化する。
つまり、効果線追加領域EF21には、動被写体領域の移動方向とは逆方向に進む輝度の波の模様の効果線が上書きされる。換言すれば、効果線追加領域EF21に上書きされる効果線は、動被写体領域の移動方向とは逆方向に輝度値が変化していく模様(波模様)であり、この模様は、効果線追加領域EF21内において、時間とともに動被写体領域の移動方向とは逆方向に進行していく。
なお、図23では、t=0.25,1.0,2.0,3.0,4.0秒の各時刻の効果線のみを示したが、他の時刻の効果線も同様に右から左へと進む波の模様とされる。
以上の処理により、得られた出力動画像を再生すると、0秒目から0.25秒目までは錯視により被写体が動いてみえ、0.25秒目から4秒目までは、効果線により動きが表現されるようになる。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインターフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記憶して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
[1]
入力画像上の被写体のエッジを検出するエッジ検出部と、
前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかを判定する輝度変化判定部と、
前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線を付加する輪郭線追加部と
を備える画像処理装置。
[2]
前記所定方向は、前記エッジと直交する方向である
[1]に記載の画像処理装置。
[3]
前記輪郭線追加部は、第1の期間において前記輪郭線の輝度値が所定の輝度値から増加または減少し、前記第1の期間よりも長い第2の期間において、前記輪郭線の輝度値が前記所定の輝度値へと変化するように、前記輪郭線の輝度値を定める
[1]または[2]に記載の画像処理装置。
[4]
前記輝度変化判定部は、前記入力画像上の第1の領域内の前記エッジについて、前記エッジ近傍の輝度値の前記所定方向への変化を判定し、前記入力画像上の前記第1の領域以外の第2の領域内の前記エッジについて、前記エッジ近傍の輝度値の前記所定方向とは反対の方向への変化を判定する
[3]に記載の画像処理装置。
[5]
前記輪郭線追加部は、前記第1の領域内の前記エッジに付加される前記輪郭線の前記第1の期間と、前記第2の領域内の前記エッジに付加される前記輪郭線の前記第1の期間とが異なる時刻の期間となるように、前記輪郭線の輝度値を定める
[4]に記載の画像処理装置。
[6]
前記入力画像における前記エッジの前記所定方向とは反対方向側の領域に効果線を付加する効果線追加部をさらに備える
[1]乃至[5]の何れかに記載の画像処理装置。
[7]
前記効果線追加部は、前記所定方向とは反対方向に輝度値が変化する模様であり、前記模様が時間とともに前記反対方向に進行する前記効果線を前記エッジに付加する
[6]に記載の画像処理装置。
11 情報処理装置, 26 ユーザインターフェース, 28 画像処理装置, 61 エッジ検出部, 62 輪郭線追加部, 71 輝度変化判定部, 131 効果線追加部

Claims (9)

  1. 入力画像上の被写体のエッジを検出するエッジ検出部と、
    前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかを判定する輝度変化判定部と、
    前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線を付加する輪郭線追加部と
    を備える画像処理装置。
  2. 前記所定方向は、前記エッジと直交する方向である
    請求項1に記載の画像処理装置。
  3. 前記輪郭線追加部は、第1の期間において前記輪郭線の輝度値が所定の輝度値から増加または減少し、前記第1の期間よりも長い第2の期間において、前記輪郭線の輝度値が前記所定の輝度値へと変化するように、前記輪郭線の輝度値を定める
    請求項2に記載の画像処理装置。
  4. 前記輝度変化判定部は、前記入力画像上の第1の領域内の前記エッジについて、前記エッジ近傍の輝度値の前記所定方向への変化を判定し、前記入力画像上の前記第1の領域以外の第2の領域内の前記エッジについて、前記エッジ近傍の輝度値の前記所定方向とは反対の方向への変化を判定する
    請求項3に記載の画像処理装置。
  5. 前記輪郭線追加部は、前記第1の領域内の前記エッジに付加される前記輪郭線の前記第1の期間と、前記第2の領域内の前記エッジに付加される前記輪郭線の前記第1の期間とが異なる時刻の期間となるように、前記輪郭線の輝度値を定める
    請求項4に記載の画像処理装置。
  6. 前記入力画像における前記エッジの前記所定方向とは反対方向側の領域に効果線を付加する効果線追加部をさらに備える
    請求項5に記載の画像処理装置。
  7. 前記効果線追加部は、前記所定方向とは反対方向に輝度値が変化する模様であり、前記模様が時間とともに前記反対方向に進行する前記効果線を前記エッジに付加する
    請求項6に記載の画像処理装置。
  8. 入力画像上の被写体のエッジを検出し、
    前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかを判定し、
    前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線を付加する
    ステップを含む画像処理方法。
  9. 入力画像上の被写体のエッジを検出し、
    前記入力画像における前記エッジ近傍の輝度値が、所定方向に対して増加しているか、または減少しているかを判定し、
    前記入力画像の前記エッジに、前記判定の結果に応じて時間方向に輝度値が変化する輪郭線を付加する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2012203963A 2012-09-18 2012-09-18 画像処理装置および方法、並びにプログラム Pending JP2014059691A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012203963A JP2014059691A (ja) 2012-09-18 2012-09-18 画像処理装置および方法、並びにプログラム
US13/960,081 US9824429B2 (en) 2012-09-18 2013-08-06 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012203963A JP2014059691A (ja) 2012-09-18 2012-09-18 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2014059691A true JP2014059691A (ja) 2014-04-03

Family

ID=50274006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012203963A Pending JP2014059691A (ja) 2012-09-18 2012-09-18 画像処理装置および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US9824429B2 (ja)
JP (1) JP2014059691A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180753A (ja) * 2017-04-07 2018-11-15 日本電信電話株式会社 映像生成装置、映像提示装置、それらの方法、データ構造、およびプログラム
JP2019145174A (ja) * 2014-06-03 2019-08-29 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
JP2019192011A (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 錯覚装置、画像生成装置、オブジェクト生成装置、オブジェクトセット、オブジェクト、錯覚方法、画像生成方法、および、プログラム
WO2020066676A1 (ja) * 2018-09-27 2020-04-02 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
WO2021079402A1 (ja) * 2019-10-21 2021-04-29 日本電信電話株式会社 映像処理装置、表示システム、映像処理方法、およびプログラム
JPWO2021199395A1 (ja) * 2020-04-02 2021-10-07
JP2024161093A (ja) * 2014-04-22 2024-11-15 日本電信電話株式会社 装置、方法、プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218281A (ja) * 2012-03-16 2013-10-24 Seiko Epson Corp 表示システム、表示プログラム及び表示方法
CN106886380B (zh) * 2015-12-16 2020-01-14 上海和辉光电有限公司 显示装置、图像数据处理装置及方法
CN110248108B (zh) * 2019-06-14 2020-11-06 浙江大华技术股份有限公司 宽动态下的曝光调整及动态范围确定方法和相关装置
JP7351525B2 (ja) * 2020-07-08 2023-09-27 tonari株式会社 システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314273A (ja) 1992-05-08 1993-11-26 Sony Corp 画像データ処理方法と画像データ処理装置
CA2657762C (en) * 2006-07-25 2015-07-21 Novavision, Inc. Dynamic stimuli for visual field testing and therapy
US20110043537A1 (en) * 2009-08-20 2011-02-24 University Of Washington Visual distortion in a virtual environment to alter or guide path movement
US20130250246A1 (en) * 2012-02-23 2013-09-26 American University Directional illusions and uses thereof

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024161093A (ja) * 2014-04-22 2024-11-15 日本電信電話株式会社 装置、方法、プログラム
JP7798142B2 (ja) 2014-04-22 2026-01-14 Ntt株式会社 装置、方法、プログラム
JP2019145174A (ja) * 2014-06-03 2019-08-29 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
JP2021051783A (ja) * 2014-06-03 2021-04-01 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
US12361700B2 (en) 2014-06-03 2025-07-15 Nec Corporation Image processing and object detecting system, image processing and object detecting method, and program storage medium
US11003961B2 (en) 2014-06-03 2021-05-11 Nec Corporation Image processing system, image processing method, and program storage medium
US12340575B2 (en) 2014-06-03 2025-06-24 Nec Corporation Vehicle detecting system, vehicle detecting method, and program storage medium
JP2018180753A (ja) * 2017-04-07 2018-11-15 日本電信電話株式会社 映像生成装置、映像提示装置、それらの方法、データ構造、およびプログラム
JP2019192011A (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 錯覚装置、画像生成装置、オブジェクト生成装置、オブジェクトセット、オブジェクト、錯覚方法、画像生成方法、および、プログラム
WO2019208194A1 (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 錯覚装置、画像生成装置、オブジェクト生成装置、オブジェクトセット、オブジェクト、錯覚方法、画像生成方法、および、プログラム
WO2020066676A1 (ja) * 2018-09-27 2020-04-02 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
JP7035936B2 (ja) 2018-09-27 2022-03-15 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
JP2020052741A (ja) * 2018-09-27 2020-04-02 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
WO2021079402A1 (ja) * 2019-10-21 2021-04-29 日本電信電話株式会社 映像処理装置、表示システム、映像処理方法、およびプログラム
JP7332035B2 (ja) 2020-04-02 2023-08-23 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム
WO2021199395A1 (ja) * 2020-04-02 2021-10-07 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム
JPWO2021199395A1 (ja) * 2020-04-02 2021-10-07

Also Published As

Publication number Publication date
US20140078170A1 (en) 2014-03-20
US9824429B2 (en) 2017-11-21

Similar Documents

Publication Publication Date Title
JP2014059691A (ja) 画像処理装置および方法、並びにプログラム
JP7333467B2 (ja) 学習に基づくレンズフレア除去
US11978225B2 (en) Depth determination for images captured with a moving camera and representing moving features
JP6639877B2 (ja) 映像処理装置及び方法
US9591237B2 (en) Automated generation of panning shots
US10368031B2 (en) Systems and methods to control judder visibility
RU2562759C2 (ru) Морфологическое сглаживание (мс) при повторном проецировании двухмерного изображения
CN103718540B (zh) 用于生成全景图像的方法、用户终端和计算机可读记录介质
CN104702928B (zh) 修正图像交叠区的方法、记录介质以及执行装置
US9041773B2 (en) Conversion of 2-dimensional image data into 3-dimensional image data
JP4266233B2 (ja) テクスチャ処理装置
JP2016018560A (ja) 視覚効果を有するオブジェクトを表示する装置及び方法
TWI852053B (zh) 使用深度圖的視像合成系統和方法
CN105472434A (zh) 植入内容到视频演示中的方法和系统
JP5175065B2 (ja) 効率的にモーションブラー効果を提供する3次元グラフィックスレンダリング方法及び装置
JP2015043573A (ja) 映像重合領域の補正方法、記録媒体、及び起動装置
TW201841139A (zh) 用於處理影像性質圖的方法及裝置
TW201806378A (zh) 資訊處理裝置、資訊處理方法及程式
JP2008276410A (ja) 画像処理装置及び方法
US8619094B2 (en) Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
US11127141B2 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
JP2009246917A (ja) 映像表示装置及び映像処理装置
US20230343025A1 (en) Method and device for light estimation
CN115698870B (zh) 信息处理装置、信息处理方法、程序和全息图显示系统
KR101425321B1 (ko) 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법