JP2014042160A - 表示端末、動体検知の対象領域の設定方法及びプログラム - Google Patents
表示端末、動体検知の対象領域の設定方法及びプログラム Download PDFInfo
- Publication number
- JP2014042160A JP2014042160A JP2012183493A JP2012183493A JP2014042160A JP 2014042160 A JP2014042160 A JP 2014042160A JP 2012183493 A JP2012183493 A JP 2012183493A JP 2012183493 A JP2012183493 A JP 2012183493A JP 2014042160 A JP2014042160 A JP 2014042160A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target area
- display
- display terminal
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
【課題】画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らす。
【解決手段】表示端末は、魚眼カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する。表示端末は、撮影画像の一部を拡大した部分画像110,120を表示させる場合、部分画像の拡大率が高いほど画像歪みを少なくするように歪み補正を行う((a),(b))。表示端末は、歪み補正により画像歪みを最少にした部分画像120を表示させると、部分画像120をメッシュ状に区分して部分画像120aを表示させる(c)。表示端末は、部分画像120aのメッシュ領域Mから動体検知の対象領域の選択操作を受け付けて、選択された対象領域を明示した部分画像120b,120cを表示させる((d)、(e))。表示端末は、上記の手順で選択された対象領域の動体検知を撮影データに基づいて行う。
【選択図】図9
【解決手段】表示端末は、魚眼カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する。表示端末は、撮影画像の一部を拡大した部分画像110,120を表示させる場合、部分画像の拡大率が高いほど画像歪みを少なくするように歪み補正を行う((a),(b))。表示端末は、歪み補正により画像歪みを最少にした部分画像120を表示させると、部分画像120をメッシュ状に区分して部分画像120aを表示させる(c)。表示端末は、部分画像120aのメッシュ領域Mから動体検知の対象領域の選択操作を受け付けて、選択された対象領域を明示した部分画像120b,120cを表示させる((d)、(e))。表示端末は、上記の手順で選択された対象領域の動体検知を撮影データに基づいて行う。
【選択図】図9
Description
本発明は、動体検知の対象領域を設定する技術に関する。
魚眼レンズなどを撮影レンズとして用いた全方位カメラを備えた監視システムが、例えば特許文献1から3に開示されている。特許文献1は、魚眼レンズを用いて撮影した歪曲円形画像を時系列順に相互に比較して動体検出処理を行い、検出動体を切り出して表示することを開示している。特許文献2は、魚眼レンズを用いて得た全方位画像を動画像メモリに時系列順に格納するとともに、動画像メモリに記録された全方位画像から、指定された記録時刻且つ指定座標の画像を切り出して、平面視展開して表示することを開示している。特許文献3は、全方位カメラで得た全方位画像を同心円状及び放射状に分割して、分割した各領域を明示するとともに、領域単位でズームカメラをズーム駆動することを開示している。
特許文献1から3に記載の発明では、全方位カメラの撮影範囲全体、つまり、全方位画像の画像領域全体を対象として、動体の有無などを監視する。この種の監視システムでは、監視場所や監視目的などによって、撮影範囲の一部の領域(例えば、ドアや窓)を対象として監視したい場合がある。しかしながら、全方位画像などの撮影レンズに起因した画像歪みを含む撮影画像をユーザが視認して、このユーザが監視対象領域を指定する操作を行おうとしても、撮影画像中の監視場所の見え方と実際の監視場所の見え方とが相違し、所望する監視対象領域をユーザが的確に指定することは難しい。
そこで、本発明の目的は、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことである。
そこで、本発明の目的は、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことである。
上述した課題を解決するため、本発明の表示端末は、表示面に画像を表示する表示部と、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得部と、前記取得部が取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正部と、前記補正部により前記歪み補正が行われた画像を、前記表示面に表示させる表示制御部と、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する第1操作を受け付ける第1受付部と、前記第1受付部が受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定部とを備える。
本発明の表示端末において、前記撮影画像の一部を拡大した部分画像の表示を指示する第2操作を受け付ける第2受付部を備え、前記表示制御部は、前記第2操作が受け付けられると、前記歪み補正後の前記部分画像を複数領域に区分して前記表示面に表示させ、前記第1受付部は、前記複数領域から前記対象領域を選択する操作を前記第1操作として受け付けるようにしてもよい。
この表示端末において、前記補正部は、前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、前記表示制御部は、前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分するようにしてもよい。
この表示端末において、前記補正部は、前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、前記表示制御部は、前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分するようにしてもよい。
また、本発明の表示端末において、前記設定部は、前記対象領域毎に設定した検知感度に従って前記動体検知を行うようにしてもよい。
この表示端末において、前記設定部は、前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定するようにしてもよい。
この表示端末において、前記設定部は、前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定するようにしてもよい。
また、本発明の表示端末において、前記表示制御部は、前記第1受付部が前記第1操作を受け付けた後、前記対象領域を明示した前記撮影画像を表示させるようにしてもよい。
また、本発明の表示端末において、前記表示制御部は、前記対象領域が前記表示面の予め決められた位置に表示されるように、当該対象領域を明示した前記撮影画像を表示させるようにしてもよい。
また、本発明の表示端末において、前記第1受付部は、前記対象領域と、当該対象領域の動体検知を行う時刻とを指定する前記第1操作を受け付け、前記設定部は、前記第1操作により指定された前記対象領域の動体検知を、当該第1操作により指定された時刻に行うよう設定するようにしてもよい。
本発明の動体検知の対象領域の設定方法は、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、画像を表示する表示面に、前記補正ステップで前記歪み補正が行われた画像を表示させる表示制御ステップと、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップとを有する。
本発明のプログラムは、表示面に画像を表示する表示端末のコンピュータに、動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、前記補正ステップで前記歪み補正が行われた画像を、前記表示面に表示させる表示制御ステップと、前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップ設定ステップとを実行させるためのプログラムである。
本発明によれば、画像歪みを含む撮影画像を用いて動体検知を行う場合に、動体検知の対象領域をユーザが的確に指定するための操作負担を減らすことができる。
以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、表示端末10及び魚眼カメラ20の外観の構成を示す図である。
図1に示すように、表示端末10は、画像を表示する表示面141と、ユーザが指やスタイラスペンなどの指示体を表示面141に接触させて行う接触操作を検出するためのタッチセンサとを備える表示端末である。表示端末10は、ここではスマートフォンであるが、携帯電話端末やタブレット型コンピュータ、パーソナルコンピュータ、PDA(Personal Digital Assistant)などの他の表示端末であってもよい。魚眼カメラ20は、魚眼レンズ241を用いて被写体を撮影する撮影装置である。魚眼カメラ20は、撮影範囲の視野角がほぼ360度である全方位カメラなどと呼ばれ、魚眼レンズ241の向きを撮影方向として動画を撮影する動画カメラである。また、魚眼カメラ20は、魚眼レンズ241を用いて撮影した撮影画像に基づいて、動体の存在の有無を検知する動体検知を行う。
図1は、表示端末10及び魚眼カメラ20の外観の構成を示す図である。
図1に示すように、表示端末10は、画像を表示する表示面141と、ユーザが指やスタイラスペンなどの指示体を表示面141に接触させて行う接触操作を検出するためのタッチセンサとを備える表示端末である。表示端末10は、ここではスマートフォンであるが、携帯電話端末やタブレット型コンピュータ、パーソナルコンピュータ、PDA(Personal Digital Assistant)などの他の表示端末であってもよい。魚眼カメラ20は、魚眼レンズ241を用いて被写体を撮影する撮影装置である。魚眼カメラ20は、撮影範囲の視野角がほぼ360度である全方位カメラなどと呼ばれ、魚眼レンズ241の向きを撮影方向として動画を撮影する動画カメラである。また、魚眼カメラ20は、魚眼レンズ241を用いて撮影した撮影画像に基づいて、動体の存在の有無を検知する動体検知を行う。
表示端末10と魚眼カメラ20との間に無線通信路を確立して、表示端末10と魚眼カメラ20とがこの通信路を用いて相互にデータを送受信することが可能である。これ以外にも、表示端末10と魚眼カメラ20との間に通信ケーブルなどを用いて有線の通信路を確立して、相互にデータを送受信することも可能である。
なお、表示端末10及び魚眼カメラ20は、それぞれユーザが容易に携帯することができる程度のサイズや重さである。また、表示端末10と魚眼カメラ20とは、所定のサーバ経由で相互にデータをやり取りしてもよい。
なお、表示端末10及び魚眼カメラ20は、それぞれユーザが容易に携帯することができる程度のサイズや重さである。また、表示端末10と魚眼カメラ20とは、所定のサーバ経由で相互にデータをやり取りしてもよい。
図2は、魚眼カメラ20のハードウェア構成を示すブロック図である。図2に示すように、魚眼カメラ20は、制御部21と、操作部22と、通信部23と、撮影部24と、記憶部25とを備える。
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROMや記憶部25に記憶されたプログラムをRAMに読み出して実行することにより、魚眼カメラ20の各部を制御する。操作部22は、ユーザに操作される操作ボタンを有し、ユーザにより行われた操作を示す操作信号を制御部21に出力する。通信部23は、無線通信路又は有線通信路を用いて表示端末10と通信するためのインタフェースである。通信部23は、例えば、撮影部24により生成された撮影データを表示端末10に宛てて送信する。
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROMや記憶部25に記憶されたプログラムをRAMに読み出して実行することにより、魚眼カメラ20の各部を制御する。操作部22は、ユーザに操作される操作ボタンを有し、ユーザにより行われた操作を示す操作信号を制御部21に出力する。通信部23は、無線通信路又は有線通信路を用いて表示端末10と通信するためのインタフェースである。通信部23は、例えば、撮影部24により生成された撮影データを表示端末10に宛てて送信する。
撮影部24は、魚眼レンズ241、撮像素子及び信号処理回路を備え、撮影画像を示す撮影データを生成して制御部21に出力する。具体的に、撮影部24は、魚眼レンズ241を用いて撮像素子の位置に結像する。撮像素子は、例えばCCD(Charge Coupled Device)を有し、結像された光を受光して、その光に応じた画像信号を生成する。撮像素子は、例えば、R(レッド)、G(グリーン)、B(ブルー)の3色にて撮像する撮像素子であり、R、G及びBの3色にて被写体像を表すアナログ形式の画像信号を生成する。信号処理回路は、撮像素子により生成された画像信号に対してA(アナログ)/D(デジタル)変換などの信号処理を施して、撮影データを生成する。
なお、本実施形態において、撮影部24が生成する撮影データに含まれる色成分や各色成分の階調数などはいかようであってもよい。
なお、本実施形態において、撮影部24が生成する撮影データに含まれる色成分や各色成分の階調数などはいかようであってもよい。
記憶部25は、EEPROM(Electronically Erasable and Programmable ROM)で例示される内部記憶装置を備え、制御部21により実行されるプログラムや撮影部24により撮影された撮影画像を示す撮影データなどを記憶する。記憶部25は、制御部21により実行されるプログラムのひとつとして、撮影部24により生成された撮影データに基づいて動体検知を行うためのプログラムを記憶する。記憶部25は、魚眼カメラ20に着脱可能なSDカードなどの外部記憶装置を含むこともあり、この外部記憶装置に撮影データなどのデータを記憶することも可能である。
図3は、魚眼カメラ20が住宅の部屋Rに設置されたときの設置態様を説明する図である。図3(a)は、部屋Rを上方から見た様子を表す図である。図3(a)に示すように、部屋Rの中央付近にはテーブルTが設置され、テーブルTをそれぞれ異なる方向から囲むように、ソファーSF1〜SF3が設置されている。また、部屋RのソファーSF1,SF2付近には植物Pが置かれている。そして、部屋Rの壁部には、窓W1〜W3やドアDが設けられている。図3(b)に示すように、部屋Rの天井Cには、魚眼レンズ241を鉛直下方向に向けて魚眼カメラ20が設置されている。魚眼カメラ20は、例えば、部屋Rの窓W1〜W3やドアDを含めた室空間全体を撮影範囲に収めて、撮影することができる。魚眼カメラ20は、魚眼カメラ20に設けられた固定具によりその姿勢や設置位置が固定されていてもよいし、別途用意した固定具により固定されていてもよい。
魚眼カメラ20が魚眼レンズ241を用いて撮影することにより、標準レンズなどを撮影レンズとして用いた場合に比べて、撮影範囲を広範囲にすることができる。その一方で、魚眼カメラ20の撮影画像では、魚眼レンズ241を用いたことによる画像歪みが撮影範囲に含まれる。これにより、ユーザが部屋Rを直に見た場合と、魚眼カメラ20で撮影した撮影画像中の部屋Rを見た場合とでは、部屋Rの見え方が大きく異なる。
魚眼カメラ20が魚眼レンズ241を用いて撮影することにより、標準レンズなどを撮影レンズとして用いた場合に比べて、撮影範囲を広範囲にすることができる。その一方で、魚眼カメラ20の撮影画像では、魚眼レンズ241を用いたことによる画像歪みが撮影範囲に含まれる。これにより、ユーザが部屋Rを直に見た場合と、魚眼カメラ20で撮影した撮影画像中の部屋Rを見た場合とでは、部屋Rの見え方が大きく異なる。
図4は、魚眼カメラ20の撮影画像100を表示端末10の表示面141に表示した様子を例示する図である。図4に示す各符号や範囲V11,V12を示す楕円は画像として表示面141に表示されているわけではない。このことは他の図面でも同様である。
図4を見ても分かるように、魚眼カメラ20は、楕円形の撮影範囲で撮影して、楕円形の撮影画像100を示す撮影データを生成する。図4に示すように、撮影画像100は、部屋Rを上方から俯瞰した様子を表す楕円形の撮影画像を示す。撮影画像100では、中心において比較的魚眼レンズ241に起因する画像歪みが少ないが、外縁に近づくほど魚眼レンズ241に起因する画像歪みが大きくなる傾向にある。例えば、撮影画像100において中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向と短径方向との被写体の寸法の比率は、この被写体の実際の比率に近い。一方で、撮影画像100において外縁寄りに位置する被写体ほど、画像歪みの程度が大きい。例えば、撮影画像100の長径方向には画像歪みによって大きなサイズで撮影される一方、短径方向には画像歪みによって小さなサイズで撮影されることとなる。よって、このような被写体は、撮影画像100の長径方向と短径方向との寸法の比率が、実際の比率とは大きく異なる。
図4を見ても分かるように、魚眼カメラ20は、楕円形の撮影範囲で撮影して、楕円形の撮影画像100を示す撮影データを生成する。図4に示すように、撮影画像100は、部屋Rを上方から俯瞰した様子を表す楕円形の撮影画像を示す。撮影画像100では、中心において比較的魚眼レンズ241に起因する画像歪みが少ないが、外縁に近づくほど魚眼レンズ241に起因する画像歪みが大きくなる傾向にある。例えば、撮影画像100において中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向と短径方向との被写体の寸法の比率は、この被写体の実際の比率に近い。一方で、撮影画像100において外縁寄りに位置する被写体ほど、画像歪みの程度が大きい。例えば、撮影画像100の長径方向には画像歪みによって大きなサイズで撮影される一方、短径方向には画像歪みによって小さなサイズで撮影されることとなる。よって、このような被写体は、撮影画像100の長径方向と短径方向との寸法の比率が、実際の比率とは大きく異なる。
図5は、表示端末10のハードウェア構成を示すブロック図である。図5に示すように、表示端末10は、制御部11と、操作部12と、通信部13と、表示部14と、記憶部15とを備える。
制御部11は、CPU、ROM、及びRAMを有するマイクロコンピュータを備える。CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示端末10の各部を制御する。操作部12は、表示部14の表示面141に重ねて設けられたタッチセンサやハードボタンを有し、表示端末10のユーザにより行われた操作を示す操作信号を制御部11に出力する。通信部13は、無線通信路又は有線通信路を用いて魚眼カメラ20と通信するためのインタフェースである。通信部13は、例えば、魚眼カメラ20によって送信された撮影データを受信する。表示部14は、複数画素を配置した表示面141を有し、表示面141に画像を表示する。記憶部15は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリなどの記憶装置を備え、制御部11により実行されるプログラムを記憶する。記憶部15は、これ以外にも、撮影データ151と参照テーブル152とを記憶する。
制御部11は、CPU、ROM、及びRAMを有するマイクロコンピュータを備える。CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示端末10の各部を制御する。操作部12は、表示部14の表示面141に重ねて設けられたタッチセンサやハードボタンを有し、表示端末10のユーザにより行われた操作を示す操作信号を制御部11に出力する。通信部13は、無線通信路又は有線通信路を用いて魚眼カメラ20と通信するためのインタフェースである。通信部13は、例えば、魚眼カメラ20によって送信された撮影データを受信する。表示部14は、複数画素を配置した表示面141を有し、表示面141に画像を表示する。記憶部15は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリなどの記憶装置を備え、制御部11により実行されるプログラムを記憶する。記憶部15は、これ以外にも、撮影データ151と参照テーブル152とを記憶する。
撮影データ151は、魚眼カメラ20の撮影画像の録画データに相当し、魚眼カメラ20によって撮影された撮影画像(動画)を示すデータである。撮影データ151は、魚眼レンズ241に起因した画像歪みを含んだ撮影画像を示す(図4参照)。参照テーブル152は、表示端末10が魚眼カメラ20に行わせる動体検知の設定内容が書き込まれるデータテーブルである。
図6は、参照テーブル152のデータ構造を示す図である。図6に示すように、参照テーブル152は、「対象領域」と「検知感度」という各情報を対応付けたデータテーブルである。「対象領域」は、撮影画像100のうち、動体検知の対象領域として指定された領域を示すデータである。対象領域のデータは、例えば、撮影画像100における対象領域の位置を示す情報(後述するメッシュ領域を示す情報)を含む。検知感度は、動体検知の感度を示すデータである。表示端末10が行う動体検知においては、検知感度が高いほど、僅かな被写体の動き(つまり、撮像画像における画像の動き)があった場合にも、動体(例えば、侵入者)の存在が検知される。
図6に示す例では、参照テーブル152において、対象領域として「ST1」と、検知感度として「高」とが対応付けられている。また、参照テーブル152においては、対象領域として「ST2」と、検知感度として「低」とが対応付けられている。参照テーブル152へのデータの書き込みに関する表示端末10の動作については後述するが、動体検知の開始前などにおいては、参照テーブル152の各フィールドはブランクである。
なお、表示端末10が行う動体検知の検知感度を、本実施形態では「高」及び「低」の2段階とするが、検知感度は3段階以上であってもよいし、一定であってもよい。また、表示端末10と魚眼カメラ20がサーバを介してデータをやり取りする場合には、このサーバに撮影データ151及び参照テーブル152が蓄積されていてもよい。この場合、表示端末10は、このサーバから撮影データ151を取得したり、このサーバに記憶された参照テーブル152を参照したりするとよい。
なお、表示端末10が行う動体検知の検知感度を、本実施形態では「高」及び「低」の2段階とするが、検知感度は3段階以上であってもよいし、一定であってもよい。また、表示端末10と魚眼カメラ20がサーバを介してデータをやり取りする場合には、このサーバに撮影データ151及び参照テーブル152が蓄積されていてもよい。この場合、表示端末10は、このサーバから撮影データ151を取得したり、このサーバに記憶された参照テーブル152を参照したりするとよい。
図7は、表示端末10の制御部11の機能構成を示す機能ブロック図である。図7に示すように、表示端末10の制御部11は、取得部111と、補正部112と、表示制御部113と、第1受付部114と、第2受付部115と、設定部116とに相当する機能を実現する。
取得部111は、通信部13により魚眼カメラ20と通信して、魚眼カメラ20の撮影画像を示す撮影データを取得する。取得部111は、例えば、ライブ動画である撮影画像を示す撮影データを取得して補正部112に供給したり、録画データとしての撮影データ151を記憶部15に記憶させたりする。
取得部111は、通信部13により魚眼カメラ20と通信して、魚眼カメラ20の撮影画像を示す撮影データを取得する。取得部111は、例えば、ライブ動画である撮影画像を示す撮影データを取得して補正部112に供給したり、録画データとしての撮影データ151を記憶部15に記憶させたりする。
補正部112は、取得部111が取得した撮影データに基づいて、画像歪みを減じる歪み補正を行う。補正部112は、ここでは、リアルタイムで撮影データに基づいて歪み補正を行って、この歪み補正後の撮影データを表示制御部113に供給する。
表示制御部113は、表示部14における画像の表示制御を司る。表示制御部113は、例えば、取得部111が取得した撮影データ又は記憶部15に記憶された撮影データ151が示す撮影画像や、補正部112により歪み補正が行われた画像を表示面141に表示させる。また、表示制御部113は、第1受付部114や第2受付部115が受け付けた操作に応じて、表示面141に画像を表示させる。
第2受付部115は、撮影画像の一部を拡大した部分画像の表示を指示する操作(第2操作)を受け付ける。第2受付部115は、操作部12から操作信号を取得することにより、操作部12に対してユーザに行われた操作(例えば、接触操作)を受け付ける。表示制御部113は、部分画像の表示を指示する操作を第2受付部115が受け付けると、歪み補正後の部分画像を表示面141に表示させる。その際、補正部112は、部分画像の拡大率が高くなるほど画像歪みが少なくなるように歪み補正を行って、歪み補正後の画像データを表示制御部113に供給する。また、表示制御部113は、拡大率又は歪み補正の補正度合いが閾値レベルを超えた部分画像を表示させたときは、この部分画像をメッシュ状に区分して表示面141に表示させる。
第1受付部114は、表示面141に表示された歪み補正後の画像を用いて、動体検知の対象領域を指定する操作(第1操作)を受け付ける。第1受付部114は、例えば、メッシュ状に区分された部分画像の領域(以下、「メッシュ領域」という。)から、動体検知の対象領域を選択する操作と、この対象領域についての検知感度を指定する操作とをそれぞれ受け付ける。第1受付部114は、操作部12から操作信号を取得することにより、操作部12に対してユーザに行われた操作(例えば、接触操作)を受け付ける。表示制御部113は、第1受付部114が受け付けた操作により対象領域が指定されると、指定された対象領域と検知感度とを明示した撮影画像を表示面141に表示させる。
設定部116は、第1受付部114が受け付けた操作で指定された対象領域と検知感度とに応じて参照テーブル152を更新することにより、魚眼カメラ20で行われる動体検知の設定を行う。また、設定部116は、参照テーブル152で対応付けられた対象領域と検知感度とに基づいて動体検知を行うよう、通信部13により魚眼カメラ20に指示する。魚眼カメラ20は、設定部116からの指示に応じた動体検知を行う。そして、魚眼カメラ20は撮影画像における対象領域から動体の存在を検知した場合には、動体の検知結果に応じた特定の処理を実行する。
図8は、表示端末10が動体検知の設定を行うときの手順を示すフローチャートである。図8に示す動作の前において、参照テーブル152はブランクであるものとする。
魚眼カメラ20を用いて動体検知を行おうとするユーザは、予め動体検知を行いたい空間が撮影範囲に含まるように魚眼カメラ20を設置する。ここではユーザが、図3(b)に示すように、部屋Rの天井Cに撮影方向を下向きして魚眼カメラ20を設置し、部屋R全体が撮影範囲に収まるようにしたものとする。
魚眼カメラ20を用いて動体検知を行おうとするユーザは、予め動体検知を行いたい空間が撮影範囲に含まるように魚眼カメラ20を設置する。ここではユーザが、図3(b)に示すように、部屋Rの天井Cに撮影方向を下向きして魚眼カメラ20を設置し、部屋R全体が撮影範囲に収まるようにしたものとする。
表示端末10の制御部11は、操作部12の操作により動体検知の設定を行うことがユーザに指示されると、まず、魚眼カメラ20から通信部13により取得した撮影データが示す撮影画像(ここでは、撮影範囲全体を示す全体画像)を、表示面141に表示させる(ステップS1)。ここでは、制御部11は、図4に示す撮影画像100を表示面141に表示させる。
なお、制御部11は、撮影データに基づいて動画を表示させてもよいし、撮影データに基づいてフレーム処理を行って静止画データを生成して、静止画である撮影画像を表示させてもよい。
なお、制御部11は、撮影データに基づいて動画を表示させてもよいし、撮影データに基づいてフレーム処理を行って静止画データを生成して、静止画である撮影画像を表示させてもよい。
次に、制御部11は、操作部12の操作により、撮影画像100の表示変更操作を受け付けたか否かを判断する(ステップS2)。ここでは、制御部11は、表示面141上で指を払う接触操作などにより、撮影画像100のうち表示面141に表示させる画像領域を変更する操作を受け付けたか否かを判断したり、いわゆるピンチイン操作やピンチアウト操作などにより、撮影画像100の表示倍率を変更する操作を受け付けたか否かを判断したりする。
制御部11は、表示変更操作を受け付けるまで待機し(ステップS2;NO)、表示変更操作を受け付けると(ステップS2;YES)、受け付けた表示変更操作に応じて、表示面141に撮影画像を表示させる。制御部11は、撮影画像の一部を拡大した部分画像を表示する表示変更操作を受け付けた場合には、その拡大率が高いほど画像歪みを少なくする歪み補正を撮影データに基づいて行い、表示面141に部分画像を表示させる(ステップS3)。制御部11は、画像歪みを減じるための周知の変換アルゴリズムに従って、撮影画像の画像歪みを減じるための画像処理を行う。図4に示すドアD付近の範囲V11を拡大表示する表示変更操作がユーザに行われていた場合、制御部11は、図9(a)に示す部分画像110を表示面141に表示させる。部分画像110は、撮影画像100に比べると画像歪みが少ない部分画像である。
次に、制御部11は、表示面141の部分画像を最高の拡大率で表示させているか否かを判断する(ステップS4)。ここでは、制御部11は、このステップS4の処理では「NO」と判断し、ステップS2の処理に戻る。
次に、ステップS2の処理で、制御部11は、部分画像110をさらに拡大表示する表示変更操作を受け付けると(ステップS2;YES)、図9(b)に示す部分画像120を表示面141に表示させる(ステップS3)。部分画像120は、部分画像110に含まれていた画像歪みを更に減じる歪み補正が行われた画像である。また、部分画像120は、最高の拡大率の部分画像である。
以上のステップS2からS4の処理ステップからも分かるように、制御部11は、撮影画像を徐々に拡大する表示変更操作が行われると、部分画像を拡大するとともに、部分画像を徐々に平面画像に近づけるように歪み補正を行うこととなる。
次に、ステップS2の処理で、制御部11は、部分画像110をさらに拡大表示する表示変更操作を受け付けると(ステップS2;YES)、図9(b)に示す部分画像120を表示面141に表示させる(ステップS3)。部分画像120は、部分画像110に含まれていた画像歪みを更に減じる歪み補正が行われた画像である。また、部分画像120は、最高の拡大率の部分画像である。
以上のステップS2からS4の処理ステップからも分かるように、制御部11は、撮影画像を徐々に拡大する表示変更操作が行われると、部分画像を拡大するとともに、部分画像を徐々に平面画像に近づけるように歪み補正を行うこととなる。
そして、制御部11は、ステップS4の処理で表示面141の部分画像を最高の拡大率で表示させていると判断し(ステップS4;YES)、ステップS5の処理に進む。次に、制御部11は、表示面141に表示中の部分画像をメッシュ状に複数領域に区分して、表示面141に表示させる(ステップS5)。ここでは、制御部11は、図9(c)に示すように、部分画像120を10×10(計100個)の正方形のメッシュ領域Mに区分して、表示面141に部分画像120aを表示させる。メッシュ領域Mは、動体検知の対象領域をユーザが指定するために、ユーザが操作部12への操作(例えば接触操作)により選択可能な領域である。すなわち、ユーザは、メッシュ領域M単位で、動体検知の対象領域を指定可能である。図9及び他の図面において、メッシュ領域M同士の境界を実線で示しているが、制御部11が表示面141にこの境界を意味する線を表示させることで、ユーザはメッシュ領域Mに位置や範囲を把握することができる。
なお、部分画像を区分するメッシュ領域の数はあくまで一例であり、制御部11はメッシュ領域の区分数を10×10以外にしてもよい。
なお、部分画像を区分するメッシュ領域の数はあくまで一例であり、制御部11はメッシュ領域の区分数を10×10以外にしてもよい。
次に、制御部11は、メッシュ領域Mから対象領域を選択する選択操作を、操作部12により受け付けたか否かを判断する(ステップS6)。ここで制御部11は、図9(d)に示すように、メッシュ領域Mに指Fを触れさせることでいずれかのメッシュ領域Mの選択操作を受け付けると、このメッシュ領域Mを対象領域ST1とする。そして、制御部11は、この対象領域ST1を明示した部分画像120bを表示面141に表示させる(ステップS7)。ここでは、制御部11は、対象領域ST1について、元画像に所定の色(例えば、薄い青色)のマスクを施すなどして、ユーザが他のメッシュ領域Mとの見分けがつくように対象領域ST1を明示する。そして、制御部11は、ユーザに指定された対象領域ST1に応じて参照テーブル152を更新することにより、動体検知の設定を行う(ステップS8)。その際、ユーザは予め検知感度を指定してメッシュ領域Mから対象領域を選択しているものとし、ここでは検知感度として「高」が指定されていたものとする。この場合、制御部11は、対象領域として「ST1」と、検知感度として「高」とを対応付けて参照テーブル152に書き込む。
なお、図9及びその他の図面で、検知感度が「高」の対象領域を格子模様で塗り潰して表す。
なお、図9及びその他の図面で、検知感度が「高」の対象領域を格子模様で塗り潰して表す。
次に、制御部11は、対象領域の指定を終了するか否かを判断する(ステップS9)。ここでは、制御部11は、現時点の参照テーブル152に設定された内容で動体検知を行うことを確定する操作がユーザに行われたか否かを判断する。制御部11は、対象領域の指定が終了していないと判断すると(ステップS9;NO)、ステップS2で説明したような表示変更操作を、操作部12により受け付けたか否かを判断する(ステップS10)。ここで、制御部11は、表示変更操作を受け付けていないと判断すると(ステップS10;NO)、ステップS6の処理に戻る。そして、制御部11は、メッシュ領域Mを対象領域として選択する選択操作を操作部12により受け付けたか否かを判断する。
以降も、制御部11は、ステップS6からS10の処理ステップを実行して、動体検知の対象領域の選択操作を受け付けるとともに(ステップS6)、受け付けた操作に応じて、対象領域を明示するとともに、参照テーブル152を更新して動体検知の設定を行う(ステップS7,S8)。ここで、ドアD及びドアD付近が対象領域としてユーザに指定されたとすると、制御部11は、図9(e)に示すように対象領域ST1を明示した部分画像120cを表示面141に表示させる。
次に、制御部11が、対象領域の指定が終了していないと判断し(ステップS9;NO)、表示変更操作を操作部12により受け付けたと判断すると(ステップS10;YES)、ステップS3の処理に戻る。そして、上記ステップS3の処理と同様に、制御部11は、部分画像を表示するための表示変更操作を受け付けると、その拡大率が高いほど画像歪みを少なくする歪み補正を行って、表示面141に部分画像を表示させる(ステップS2,S3)。ここで、図5に示す窓W3付近の範囲V12を表示させることがユーザに指示されたとする。この場合、制御部11は、図10(a)に示す部分画像130を表示面141に表示させる。部分画像130は、最高の拡大率の部分画像であり、画像歪みが最も少ない部分画像である。
この場合、制御部11は、ステップS4の処理で「YES」と判断し、上記同様にステップS5からS10の処理ステップを実行する。ここで、制御部11が、部分画像130を用いて、窓W3の一部を対象領域として指定する操作を操作部12により受け付けたとする。この場合、制御部11は、図10(b)に示す部分画像130aを表示させて、対象領域ST2を明示するとともに、参照テーブル152を更新する。ここでは、窓W3の全体が部分画像130(130a)に収まらない。この場合、ユーザは、撮影画像100のうち表示面141での表示領域を操作部12の操作により変更する表示変更操作を行う。制御部11は、この表示変更操作に応じて表示領域を変更しつつ、メッシュ領域Mから対象領域を選択する選択操作を操作部12により受け付ける。ここでは、制御部11は、図10(c)に示す部分画像130bや、図10(d)に示す部分画像130cを、ユーザの表示変更操作及び対象領域ST2の選択操作に応じて、表示面141に表示させることとなる。
なお、対象領域ST2の検知感度は、ユーザにより「低」と指定されたとする。図10及びその他の図面で、検知感度が低い対象領域を右上がりの斜線で塗り潰して表す。
また、ユーザは、窓W3については異常がなくとも屋外の明るさによって画像に変化が現れやすいので、誤検知を抑えるために検知感度を「低」と指定したものとする。一方、ドアDについては明るさによって画像に変化が現れることは少ないので、検知感度を「高」と指定したものとする。
以上のように表示端末10が動体検知の設定を行うことにより、参照テーブル152は図6に示す内容となる。本実施形態では、表示端末10は、連続したメッシュ領域Mで構成され、且つ、同一の検知感度が指定された対象領域を、1つの対象領域として参照テーブル152でデータを管理している。ただし、表示端末10は、メッシュ領域Mごとに異なる対象領域としてデータを管理してもよく、参照テーブル152でのデータの管理方法には種々の変形が可能である。
また、ユーザは、窓W3については異常がなくとも屋外の明るさによって画像に変化が現れやすいので、誤検知を抑えるために検知感度を「低」と指定したものとする。一方、ドアDについては明るさによって画像に変化が現れることは少ないので、検知感度を「高」と指定したものとする。
以上のように表示端末10が動体検知の設定を行うことにより、参照テーブル152は図6に示す内容となる。本実施形態では、表示端末10は、連続したメッシュ領域Mで構成され、且つ、同一の検知感度が指定された対象領域を、1つの対象領域として参照テーブル152でデータを管理している。ただし、表示端末10は、メッシュ領域Mごとに異なる対象領域としてデータを管理してもよく、参照テーブル152でのデータの管理方法には種々の変形が可能である。
そして、制御部11は、ステップS9の処理で、対象領域の指定が終了したと判断したとすると(ステップS9;YES)、ステップS11の処理に進む。そして、制御部11は、ユーザにより指定された対象領域を明示した撮影画像100aを、撮影データに基づいて表示面141に表示させる。ここでは制御部11は、図11に示すように、ステップS1の処理で表示させた撮影画像に所定のマスクを施すなどして対象領域ST1,ST2を明示した撮影画像100aを、表示面141に表示させる。撮影画像100aを視認したユーザは、撮影範囲全体を俯瞰した内容の撮影画像から、自身が指定した対象領域ST1,ST2の位置が撮影範囲におけるどの位置かを直ちに把握することができる。
そして、制御部11は、動体検知を開始することが操作部12によりユーザに指示されると、参照テーブル152に書き込まれたデータに従って動体検知を行うよう、通信部13により魚眼カメラ20に指示して、魚眼カメラ20に動体検知を開始させる(ステップS12)。この動体検知の開始指示に応じて、魚眼カメラ20の制御部21は、表示端末10による設定に従って動体検知を行う。ここでは、制御部21は、撮影部24から取得した撮影データに基づき、対象領域として「ST1」については、検知感度を「高」として動体検知を行い、対象領域として「ST2」については、検知感度を「低」として動体検知を行う。制御部21は、例えば、フレーム間差分法や背景差分法などの所定の動体検知アルゴリズムに従って、動体検知を行う。具体的に、制御部21は、例えば、撮影データに対しフレーム処理を行って得た撮影画像を時系列順に比較して動体検知を行う。その際、制御部21、検知感度に応じて、例えば、検知感度が高いほどフレーム処理により得る画像の数を増やしたり、動体が存在すると判断する画像変化(例えば輝度変化)の閾値を低くしたりして、検知感度に応じた動体検知を行うとよい。そして、制御部21は、動体検知の検知結果を、通信部23により表示端末10に通知する。表示端末10の制御部11は、通信部13により魚眼カメラ20から動体検知の検知結果を受信すると、表示面141への表示や音声により検知結果をユーザに報知したり、検知結果を示すデータを記憶部15に書き込んだりする。
以上説明した実施形態のとおり、表示端末10は、魚眼カメラ20の撮影画像から対象領域を指定する操作をユーザに行わせる場合に、画像歪みを減らす歪み補正を行った部分画像を表示面141に表示させる。これにより、ユーザにしてみれば、撮影画像中の監視場所(ここでは部屋R)の見え方と、実際の監視場所の見え方との乖離が小さくなるので、所望する対象領域を的確に指定するための操作負担が減る。
また、表示端末10は、部分画像を表示させるときにその拡大率が高いほど、部分画像を平面画像に近づけるように歪み補正を行い、最高の拡大率で部分画像を表示させたときに、この部分画像を複数のメッシュ領域Mに区分する。これにより、ユーザは、最高の拡大率まで拡大表示された部分画像を見て、対象領域を細部まで詳細に指定することができる。また、ユーザは、メッシュ領域Mの選択操作により、表示端末10に対し対象領域を指定することができるので、ユーザが行うべき操作は簡単である。よって、表示端末10によれば、所望する対象領域を的確に指定するための操作負担が更に減る。
また、表示端末10によれば、ユーザは対象領域(メッシュ領域M)ごとに検知感度を指定することができるので、監視場所や監視目的に適した検知感度を指定するためのユーザの操作負担も少ない。
また、表示端末10は、部分画像を表示させるときにその拡大率が高いほど、部分画像を平面画像に近づけるように歪み補正を行い、最高の拡大率で部分画像を表示させたときに、この部分画像を複数のメッシュ領域Mに区分する。これにより、ユーザは、最高の拡大率まで拡大表示された部分画像を見て、対象領域を細部まで詳細に指定することができる。また、ユーザは、メッシュ領域Mの選択操作により、表示端末10に対し対象領域を指定することができるので、ユーザが行うべき操作は簡単である。よって、表示端末10によれば、所望する対象領域を的確に指定するための操作負担が更に減る。
また、表示端末10によれば、ユーザは対象領域(メッシュ領域M)ごとに検知感度を指定することができるので、監視場所や監視目的に適した検知感度を指定するためのユーザの操作負担も少ない。
[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
表示端末10は、対象領域とともに、対象領域について動体検知を行う時間帯を指定する操作を受け付けて、指定された時間帯を設定して、魚眼カメラ20に動体検知を行わせてもよい。この場合、表示端末10は、上述した実施形態で説明した参照テーブル152に代えて、参照テーブル152aを参照して魚眼カメラ20に動体検知を行わせる。
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
表示端末10は、対象領域とともに、対象領域について動体検知を行う時間帯を指定する操作を受け付けて、指定された時間帯を設定して、魚眼カメラ20に動体検知を行わせてもよい。この場合、表示端末10は、上述した実施形態で説明した参照テーブル152に代えて、参照テーブル152aを参照して魚眼カメラ20に動体検知を行わせる。
図12は、参照テーブル152aのデータ構造を示す図である。図12に示すように、参照テーブル152aは、「対象領域」と「検知感度」と「検知時間帯」いう各情報を対応付けたデータテーブルである。「対象領域」と「検知感度」とは、上述した実施形態と同じ情報であり、ここではその説明を省略する。「検知時間帯」は、動体検知を行う時刻を示す情報であり、ユーザによって指定される。図12に示す例では、ドアD付近に位置する対象領域ST1については、ユーザが部屋Rを不在にする時間帯である「9:00〜20:00」が検知時間帯として指定されている。一方で、窓W3に位置する対象領域ST1については、検知時間帯が指定されておらず、参照テーブル152aではブランクである。
この変形例の表示端末10の動作は、基本的には図8と同じ手順で動作すればよく、実施形態との相違点をここでは説明する。
ステップS6の処理では、表示端末10は、対象領域及び検知感度とともに、この対象領域の導体検知を行う時刻(検知時間帯)を指定する操作も受け付ける。
ステップS11の処理で、表示端末10は、対象領域を明示した撮影画像を表示させるときには、各時刻において検知対象となる対象領域を明示した撮影画像を表示させる。例えば、ユーザにより、9:00〜20:00の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(a)に示すように対象領域ST1及びST2を明示した撮影画像100aを表示面141に表示させる。一方で、ユーザにより、9:00〜20:00以外の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(b)に示すように対象領域ST2を明示した撮影画像100bを表示面141に表示させる。
ステップS6の処理では、表示端末10は、対象領域及び検知感度とともに、この対象領域の導体検知を行う時刻(検知時間帯)を指定する操作も受け付ける。
ステップS11の処理で、表示端末10は、対象領域を明示した撮影画像を表示させるときには、各時刻において検知対象となる対象領域を明示した撮影画像を表示させる。例えば、ユーザにより、9:00〜20:00の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(a)に示すように対象領域ST1及びST2を明示した撮影画像100aを表示面141に表示させる。一方で、ユーザにより、9:00〜20:00以外の時刻を指定して対象領域を明示することが指示されると、表示端末10は、図13(b)に示すように対象領域ST2を明示した撮影画像100bを表示面141に表示させる。
ステップS12の処理では、表示端末10は、参照テーブル152aに基づいて、検知時間帯が指定されている場合には、現在時刻が検知時間帯に含まれる期間においてのみ動体検知を行うよう魚眼カメラ20に指示する。ここでは、表示端末10は、9:00〜20:00の間の時刻では、対象領域ST1及びST2について動体検知を行うよう指示する。一方で、9:00〜20:00以外の時刻では対象領域ST1については動体検知を行わず、対象領域ST2についての動体検知を行うよう指示する。
この変形例の表示端末10によれば、動体検知の対象領域をユーザが的確に指定しやすくなるだけでなく、ユーザは動体検知を行う時刻を対象領域ごとに指定することができる。よって、同じ監視場所に、検知時間帯がそれぞれ異なる複数の対象領域があった場合にも、表示端末10によれば、対象領域ごとに検知時間帯を設定することができる。例えば、オフォスや会議室などでは勤務時間帯においては動体検知せずに、勤務時間外においては動体検知を行うといったことも考えられるが、ユーザが表示端末10に対して動体検知の設定を事前に行っておけば、表示端末10は対象領域ごとに適切な時刻に動体検知を行うよう設定することができる。
(変形例2)
上述した実施形態では、表示端末10は、ユーザに検知感度を指定させていたが、撮影画像における対象領域の位置に応じて、表示端末10が検知感度を自動設定してもよい。前述したように、魚眼カメラ20の撮影画像では、中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向及び短径方向のそれぞれにおいて比較的大きなサイズで撮影される。一方で、撮影画像100の外縁寄りに位置する被写体ほど、撮影範囲の長径方向には歪みによって大きなサイズで撮影される一方、短径方向には歪みによって小さなサイズで撮影されることとなる。
上述した実施形態では、表示端末10は、ユーザに検知感度を指定させていたが、撮影画像における対象領域の位置に応じて、表示端末10が検知感度を自動設定してもよい。前述したように、魚眼カメラ20の撮影画像では、中心寄りに位置する被写体ほど画像歪みが少なく、撮影画像100の長径方向及び短径方向のそれぞれにおいて比較的大きなサイズで撮影される。一方で、撮影画像100の外縁寄りに位置する被写体ほど、撮影範囲の長径方向には歪みによって大きなサイズで撮影される一方、短径方向には歪みによって小さなサイズで撮影されることとなる。
そこで、表示端末10は、図14(a)に示すように、画像歪みの発生度合いが小さい中心寄りに位置する楕円状の範囲A1では、検知感度を「高」に設定する。外縁寄りに位置する範囲A2,A3では、長径方向には画像歪みによって大きなサイズで被写体が撮影されることから、僅かな画像の動きでも検知が容易になるので、表示端末10は検知感度を「低」に設定する。そして、外縁寄りに位置する範囲A4,A5では、長径方向に対して被写体のサイズが縮小されるものの、短径方向に対しては被写体のサイズがある程度確保されるので、表示端末10は検知感度を「高」と「低」との中間である「中」に設定する。これ以外にも、表示端末10は、図14(b)に示すように、画像歪みの発生度合いが小さい中心寄りに位置する楕円状の範囲A6の検知感度を「高」に設定し、それ以外のドーナツ状の範囲A7の検知感度を「低」に設定してもよい。
このように表示端末10は、魚眼カメラ20から取得した撮影データが示す元の撮影画像において、画像歪みの発生による被写体のサイズ拡大の度合いが大きい領域ほど検知感度を低くする。反対に、表示端末10は、元の撮影画像において、画像歪みの発生による被写体のサイズの拡大の度合いが少ない領域ほど検知感度を高くする。一例として、表示端末10は、魚眼カメラ20から取得した撮影データが示す撮影画像において、元の撮影画像でのサイズ(例えば、面積や所定方向の長さ)の方が平面画像でのサイズよりも大きい領域では、検知感度を低く設定し、平面画像でのサイズの方が元の撮影画像でのサイズよりも大きい領域については、検知感度をそれよりも高く設定する。
また、表示端末10は、ユーザが事前に検知感度を指定した場合に、元の撮影画像における画像歪みの発生度合いに応じた検知感度を自動設定してもよい。例えば、表示端末10は、検知感度を複数段階から指定可能である場合に、画像歪みの発生による被写体のサイズ拡大の度合いが大きい領域では、ユーザが指定した検知感度を低くする方向に補正する。また、例えば、表示端末10は、画像歪みの発生による被写体のサイズ拡大の度合いが小さい領域では、ユーザが指定した検知感度を高くする方向に補正する。
この変形例の表示端末10によれば、ユーザによる検知感度の指定の仕方によらないで、撮影画像における画像歪みの発生度合いに応じて適切な検知感度を設定することが可能である。また、表示端末10における前述した検知感度の自動設定の方法は、あくまで一例であり、撮影レンズの種類や撮影画像に含まれる画像歪みの発生度合いに応じて適切に設定されればよい。
この変形例の表示端末10によれば、ユーザによる検知感度の指定の仕方によらないで、撮影画像における画像歪みの発生度合いに応じて適切な検知感度を設定することが可能である。また、表示端末10における前述した検知感度の自動設定の方法は、あくまで一例であり、撮影レンズの種類や撮影画像に含まれる画像歪みの発生度合いに応じて適切に設定されればよい。
(変形例3)
上述した実施形態においては、魚眼カメラ20は魚眼レンズ241を用いて楕円形の撮影範囲を撮影していたが、この撮影範囲は円形などの他の形状であってもよい。これにより、魚眼カメラ20の撮影画像も、画像領域が楕円形でなく円形などの他の形状であってもよい。
上述した実施形態においては、魚眼カメラ20は魚眼レンズ241を用いて楕円形の撮影範囲を撮影していたが、この撮影範囲は円形などの他の形状であってもよい。これにより、魚眼カメラ20の撮影画像も、画像領域が楕円形でなく円形などの他の形状であってもよい。
(変形例4)
表示端末10は、ステップS10の処理において、対象領域が表示面141の予め決められた位置に表示されるように、対象領域を明示した撮影画像を表示させてもよい。ユーザが対象領域の位置を確認したい場合に、表示面141上の特定位置に対象領域が表示されていれば、対象領域の位置の把握がユーザにとって容易になるからである。
例えば、図15(a)に示すように、撮影画像100aの上側の領域に対象領域STが指定されたのに対し、撮影画像の下側の領域に対象領域を表示させることが表示端末10に指定されていたとする。この場合、表示端末10は、撮影画像100aを180度回転させた撮影画像100cを表示面141に表示させて、撮影画像の下側の領域に対象領域STを表示させてもよい。また、対象領域が他の位置に表示された場合でも、表示端末10は、撮影画像の回転処理などを用いて、対象領域を表示面141上の特定位置に表示させてもよい。また、変形例3で説明したように撮影範囲が円形の魚眼カメラを用いた場合に、図15(b)に示すように撮影画像200が円形であるときには、制御部11は対象領域STが特定位置に表示されるように(ここでは撮影画像の下側の領域)、撮影画像200を所定の角度だけ回転させて、撮影画像200bを表示させるとよい。
表示端末10は、ステップS10の処理において、対象領域が表示面141の予め決められた位置に表示されるように、対象領域を明示した撮影画像を表示させてもよい。ユーザが対象領域の位置を確認したい場合に、表示面141上の特定位置に対象領域が表示されていれば、対象領域の位置の把握がユーザにとって容易になるからである。
例えば、図15(a)に示すように、撮影画像100aの上側の領域に対象領域STが指定されたのに対し、撮影画像の下側の領域に対象領域を表示させることが表示端末10に指定されていたとする。この場合、表示端末10は、撮影画像100aを180度回転させた撮影画像100cを表示面141に表示させて、撮影画像の下側の領域に対象領域STを表示させてもよい。また、対象領域が他の位置に表示された場合でも、表示端末10は、撮影画像の回転処理などを用いて、対象領域を表示面141上の特定位置に表示させてもよい。また、変形例3で説明したように撮影範囲が円形の魚眼カメラを用いた場合に、図15(b)に示すように撮影画像200が円形であるときには、制御部11は対象領域STが特定位置に表示されるように(ここでは撮影画像の下側の領域)、撮影画像200を所定の角度だけ回転させて、撮影画像200bを表示させるとよい。
(変形例5)
上述した実施形態では、表示端末10は、最高の拡大率で部分画像を表示させるときには、画像歪みを最少とした部分画像を表示させていた。これに対し、表示端末10は、最高の拡大率未満でも、画像歪みを一定レベル未満まで小さくすることができるのであれば、最高の拡大率未満のときに表示させた部分画像をメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。また、表示端末10は、画像歪みを最少とした部分画像の表示時にメッシュ領域Mに区分するのではなく、画像歪みがそれよりも大きい撮影画像を複数のメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。すなわち、表示端末10は、元の撮影画像よりも画像歪みを少なくした部分画像を表示するときに、拡大率又は歪み補正の補正度合いが閾値レベルを超えたことを条件として、この部分画像をメッシュ領域Mに区分して表示させればよい。この表示端末10によれば、元の撮影画像をそのまま用いてユーザが対象領域を指定する場合に比べて、ユーザの対象領域の指定に係る操作負担を減らすことができる。
上述した実施形態では、表示端末10は、最高の拡大率で部分画像を表示させるときには、画像歪みを最少とした部分画像を表示させていた。これに対し、表示端末10は、最高の拡大率未満でも、画像歪みを一定レベル未満まで小さくすることができるのであれば、最高の拡大率未満のときに表示させた部分画像をメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。また、表示端末10は、画像歪みを最少とした部分画像の表示時にメッシュ領域Mに区分するのではなく、画像歪みがそれよりも大きい撮影画像を複数のメッシュ領域Mに区分して、対象領域を指定可能にしてもよい。すなわち、表示端末10は、元の撮影画像よりも画像歪みを少なくした部分画像を表示するときに、拡大率又は歪み補正の補正度合いが閾値レベルを超えたことを条件として、この部分画像をメッシュ領域Mに区分して表示させればよい。この表示端末10によれば、元の撮影画像をそのまま用いてユーザが対象領域を指定する場合に比べて、ユーザの対象領域の指定に係る操作負担を減らすことができる。
(変形例6)
また、表示端末10は、対象領域を所定の色のマスクにより明示する代わりに、対象領域の位置に「対象領域」などの特定の文字列を付してもよいし、マークなどの所定の画像を対象領域の位置に付してもよい。ユーザが対象領域を把握できるのであれば、表示端末10が行う対象領域の明示方法は特に問わない。
また、表示端末10は、対象領域を所定の色のマスクにより明示する代わりに、対象領域の位置に「対象領域」などの特定の文字列を付してもよいし、マークなどの所定の画像を対象領域の位置に付してもよい。ユーザが対象領域を把握できるのであれば、表示端末10が行う対象領域の明示方法は特に問わない。
(変形例7)
上述した実施形態において、表示端末10は、メッシュ領域Mが正方形になるように部分画像を区分していたが、部分画像の区分の仕方はこれに限らない。表示端末10は、例えば、メッシュ領域を矩形や円形、他の多角形など、他の形状となるように区分してもよい。
また、表示端末10は、部分画像をメッシュ領域Mに区分する構成を有していなくてもよい。表示端末10は、例えば、画像歪みを減らすように歪み補正した撮影データを画像解析して、窓やドアといったオブジェクトを抽出し、抽出したオブジェクト単位でユーザが対象領域を指定できるようにしてもよい。この構成であれば、表示端末10は、部分画像を表示させなくとも、対象領域の指定に関してユーザの操作負担を減らすことができると考えられる。
上述した実施形態において、表示端末10は、メッシュ領域Mが正方形になるように部分画像を区分していたが、部分画像の区分の仕方はこれに限らない。表示端末10は、例えば、メッシュ領域を矩形や円形、他の多角形など、他の形状となるように区分してもよい。
また、表示端末10は、部分画像をメッシュ領域Mに区分する構成を有していなくてもよい。表示端末10は、例えば、画像歪みを減らすように歪み補正した撮影データを画像解析して、窓やドアといったオブジェクトを抽出し、抽出したオブジェクト単位でユーザが対象領域を指定できるようにしてもよい。この構成であれば、表示端末10は、部分画像を表示させなくとも、対象領域の指定に関してユーザの操作負担を減らすことができると考えられる。
(変形例8)
また、表示端末10が受け付ける操作は、タッチセンサにより検出可能な接触操作でなくてもよい。表示端末10は、例えば、近接操作により検出可能な近接操作を受け付けてもよいし、カーソル操作を受け付けてもよい。
また、表示端末10が受け付ける操作は、タッチセンサにより検出可能な接触操作でなくてもよい。表示端末10は、例えば、近接操作により検出可能な近接操作を受け付けてもよいし、カーソル操作を受け付けてもよい。
(変形例9)
上述した実施形態においては、撮影装置として魚眼カメラ20を用いていたが、表示端末10は、撮影レンズに起因する画像歪みが発生する撮影装置(動画カメラ)の撮影データを用いればよく、撮影レンズの種類は特に問わない。また、魚眼カメラ20が有する魚眼レンズ241の射影方式についても、等距離射影方式や等立体角射影方式などどのような射影方式であってもよい。
魚眼カメラ20がリアルタイムで動体検知を行う代わりに、録画データに基づいて動体検知を行ってもよい。また、表示端末10は、参照テーブル152又は152aに従って、撮影データ151を用いて動体検知を行ってもよい。
また、魚眼カメラ20が設置される場所は、住宅の部屋に限らず、例えばオフィスやその会議室、店舗などの商業施設の室空間であってもよいし、魚眼カメラ20が屋外に設置されてもよい。このように魚眼カメラ20が撮影範囲とする場所はどこであってもよい。
上述した実施形態においては、撮影装置として魚眼カメラ20を用いていたが、表示端末10は、撮影レンズに起因する画像歪みが発生する撮影装置(動画カメラ)の撮影データを用いればよく、撮影レンズの種類は特に問わない。また、魚眼カメラ20が有する魚眼レンズ241の射影方式についても、等距離射影方式や等立体角射影方式などどのような射影方式であってもよい。
魚眼カメラ20がリアルタイムで動体検知を行う代わりに、録画データに基づいて動体検知を行ってもよい。また、表示端末10は、参照テーブル152又は152aに従って、撮影データ151を用いて動体検知を行ってもよい。
また、魚眼カメラ20が設置される場所は、住宅の部屋に限らず、例えばオフィスやその会議室、店舗などの商業施設の室空間であってもよいし、魚眼カメラ20が屋外に設置されてもよい。このように魚眼カメラ20が撮影範囲とする場所はどこであってもよい。
(変形例10)
上述した実施形態において、表示端末10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の協働によって実現されうる。
また、本発明の表示端末は、コンピュータや制御部11が実行するプログラムや動体検知の対象領域の設定方法として把握することも可能である。
上述した実施形態において、表示端末10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の協働によって実現されうる。
また、本発明の表示端末は、コンピュータや制御部11が実行するプログラムや動体検知の対象領域の設定方法として把握することも可能である。
10…表示端末、11…制御部、111…取得部、112…補正部、113…表示制御部、114…第1受付部、115…第2受付部、116…設定部、12…操作部、13…通信部、14…表示部、141…表示面、15…記憶部、151…撮影データ、152,152a…参照テーブル、20…魚眼カメラ、21…制御部、22…操作部、23…通信部、24…撮影部、241…魚眼レンズ、25…記憶部
Claims (10)
- 表示面に画像を表示する表示部と、
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得部と、
前記取得部が取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正部と、
前記補正部により前記歪み補正が行われた画像を、前記表示面に表示させる表示制御部と、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する第1操作を受け付ける第1受付部と、
前記第1受付部が受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定部と
を備える表示端末。 - 前記撮影画像の一部を拡大した部分画像の表示を指示する第2操作を受け付ける第2受付部を備え、
前記表示制御部は、
前記第2操作が受け付けられると、前記歪み補正後の前記部分画像を複数領域に区分して前記表示面に表示させ、
前記第1受付部は、
前記複数領域から前記対象領域を選択する操作を前記第1操作として受け付ける
請求項1に記載の表示端末。 - 前記補正部は、
前記部分画像の拡大率が高いほど前記画像歪みを少なくするように前記歪み補正を行い、
前記表示制御部は、
前記拡大率又は前記歪み補正の補正度合いが閾値レベルを超えたときに前記部分画像を前記複数領域に区分する
請求項2に記載の表示端末。 - 前記設定部は、
前記対象領域毎に設定した検知感度に従って前記動体検知を行う
請求項1から3のいずれか1項に記載の表示端末。 - 前記設定部は、
前記撮影画像における前記対象領域の位置又は前記画像歪みの大きさに応じて、当該対象領域の前記検知感度を設定する
請求項4に記載の表示端末。 - 前記表示制御部は、
前記第1受付部が前記第1操作を受け付けた後、前記対象領域を明示した前記撮影画像を表示させる
請求項1から5のいずれか1項に記載の表示端末。 - 前記表示制御部は、
前記対象領域が前記表示面の予め決められた位置に表示されるように、当該対象領域を明示した前記撮影画像を表示させる
請求項6に記載の表示端末。 - 前記第1受付部は、
前記対象領域と、当該対象領域の動体検知を行う時刻とを指定する前記第1操作を受け付け、
前記設定部は、
前記第1操作により指定された前記対象領域の動体検知を、当該第1操作により指定された時刻に行うよう設定する
請求項1から7のいずれか1項に記載の表示端末。 - 動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、
前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、
画像を表示する表示面に、前記補正ステップで前記歪み補正が行われた画像を表示させる表示制御ステップと、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、
前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップと
を有する動体検知の対象領域の設定方法。 - 表示面に画像を表示する表示端末のコンピュータに、
動画カメラから、当該動画カメラの撮影レンズに起因する画像歪みを含む撮影画像を示す撮影データを取得する取得ステップと、
前記取得ステップで取得した撮影データに基づいて、前記画像歪みを減じる歪み補正を行う補正ステップと、
前記補正ステップで前記歪み補正が行われた画像を、前記表示面に表示させる表示制御ステップと、
前記表示面に表示された前記歪み補正が行われた画像を用いて、動体検知の対象領域を指定する操作を受け付ける受付ステップと、
前記取得ステップで取得した撮影データに基づいて前記受付ステップで受け付けた操作により指定された前記対象領域の動体検知を行うよう、前記動体検知の設定を行う設定ステップと
を実行させるためのプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012183493A JP2014042160A (ja) | 2012-08-22 | 2012-08-22 | 表示端末、動体検知の対象領域の設定方法及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012183493A JP2014042160A (ja) | 2012-08-22 | 2012-08-22 | 表示端末、動体検知の対象領域の設定方法及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014042160A true JP2014042160A (ja) | 2014-03-06 |
Family
ID=50394088
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012183493A Pending JP2014042160A (ja) | 2012-08-22 | 2012-08-22 | 表示端末、動体検知の対象領域の設定方法及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014042160A (ja) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016039539A (ja) * | 2014-08-08 | 2016-03-22 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
| JP2016187162A (ja) * | 2015-03-27 | 2016-10-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2016208321A (ja) * | 2015-04-23 | 2016-12-08 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及び、プログラム |
| CN107122770A (zh) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | 多目相机系统、智能驾驶系统、汽车、方法和存储介质 |
| US11042970B2 (en) | 2016-08-24 | 2021-06-22 | Hanwha Techwin Co., Ltd. | Image providing device, method, and computer program |
| CN113516071A (zh) * | 2021-07-08 | 2021-10-19 | 深圳喜为智慧科技有限公司 | 一种猪只估重方法 |
| US11190747B2 (en) | 2017-05-25 | 2021-11-30 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and storage medium |
| JP2022075745A (ja) * | 2017-08-29 | 2022-05-18 | パナソニックIpマネジメント株式会社 | 物体検出システム、プログラム及び物体検出方法 |
| US20220172374A1 (en) * | 2019-03-11 | 2022-06-02 | Omron Corporation | Object tracking device and object tracking method |
| CN117593532A (zh) * | 2022-08-15 | 2024-02-23 | 安讯士有限公司 | 用于在具有失真线条的图像中定义区域轮廓的方法和系统 |
| JP7599254B1 (ja) * | 2024-06-28 | 2024-12-13 | 日昌電気制御株式会社 | 動体検知装置、動体検知方法、プログラム、およびシステム。 |
| JP7685301B1 (ja) * | 2024-11-25 | 2025-05-29 | 日昌電気制御株式会社 | 動体検知方法、プログラム、動体検知装置、及び動体検知システム |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004064535A (ja) * | 2002-07-30 | 2004-02-26 | Mitsumi Electric Co Ltd | カメラモジュール、携帯端末、撮影方法、撮影プログラム |
| US7366359B1 (en) * | 2004-07-08 | 2008-04-29 | Grandeye, Ltd. | Image processing of regions in a wide angle video camera |
| JP2010219581A (ja) * | 2009-03-13 | 2010-09-30 | Panasonic Corp | 画像通信システム |
-
2012
- 2012-08-22 JP JP2012183493A patent/JP2014042160A/ja active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004064535A (ja) * | 2002-07-30 | 2004-02-26 | Mitsumi Electric Co Ltd | カメラモジュール、携帯端末、撮影方法、撮影プログラム |
| US7366359B1 (en) * | 2004-07-08 | 2008-04-29 | Grandeye, Ltd. | Image processing of regions in a wide angle video camera |
| JP2010219581A (ja) * | 2009-03-13 | 2010-09-30 | Panasonic Corp | 画像通信システム |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016039539A (ja) * | 2014-08-08 | 2016-03-22 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
| JP2016187162A (ja) * | 2015-03-27 | 2016-10-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2016208321A (ja) * | 2015-04-23 | 2016-12-08 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及び、プログラム |
| US11042970B2 (en) | 2016-08-24 | 2021-06-22 | Hanwha Techwin Co., Ltd. | Image providing device, method, and computer program |
| US11190747B2 (en) | 2017-05-25 | 2021-11-30 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and storage medium |
| CN107122770A (zh) * | 2017-06-13 | 2017-09-01 | 驭势(上海)汽车科技有限公司 | 多目相机系统、智能驾驶系统、汽车、方法和存储介质 |
| CN107122770B (zh) * | 2017-06-13 | 2023-06-27 | 驭势(上海)汽车科技有限公司 | 多目相机系统、智能驾驶系统、汽车、方法和存储介质 |
| JP2022075745A (ja) * | 2017-08-29 | 2022-05-18 | パナソニックIpマネジメント株式会社 | 物体検出システム、プログラム及び物体検出方法 |
| US20220172374A1 (en) * | 2019-03-11 | 2022-06-02 | Omron Corporation | Object tracking device and object tracking method |
| US11869199B2 (en) * | 2019-03-11 | 2024-01-09 | Omron Corporation | Object tracking device and object tracking method |
| CN113516071A (zh) * | 2021-07-08 | 2021-10-19 | 深圳喜为智慧科技有限公司 | 一种猪只估重方法 |
| CN117593532A (zh) * | 2022-08-15 | 2024-02-23 | 安讯士有限公司 | 用于在具有失真线条的图像中定义区域轮廓的方法和系统 |
| JP2024026043A (ja) * | 2022-08-15 | 2024-02-28 | アクシス アーベー | 歪んだ線を有する画像における領域の輪郭を規定するための方法およびシステム |
| JP7598982B2 (ja) | 2022-08-15 | 2024-12-12 | アクシス アーベー | 歪んだ線を有する画像における領域の輪郭を規定するための方法およびシステム |
| US12205235B2 (en) | 2022-08-15 | 2025-01-21 | Axis Ab | Method and system for defining an outline of a region in an image having distorted lines |
| JP7599254B1 (ja) * | 2024-06-28 | 2024-12-13 | 日昌電気制御株式会社 | 動体検知装置、動体検知方法、プログラム、およびシステム。 |
| WO2026004187A1 (ja) * | 2024-06-28 | 2026-01-02 | 日昌電気制御株式会社 | 動体検知装置、動体検知方法、プログラム、およびシステム。 |
| JP7685301B1 (ja) * | 2024-11-25 | 2025-05-29 | 日昌電気制御株式会社 | 動体検知方法、プログラム、動体検知装置、及び動体検知システム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2014042160A (ja) | 表示端末、動体検知の対象領域の設定方法及びプログラム | |
| CN108419023B (zh) | 一种生成高动态范围图像的方法以及相关设备 | |
| CN111107276B (zh) | 信息处理设备及其控制方法、存储介质以及摄像系统 | |
| US20130258126A1 (en) | Information processing apparatus and control method therefor | |
| JP7000050B2 (ja) | 撮像制御装置及びその制御方法 | |
| US12163806B2 (en) | Information processing apparatus | |
| JP2015115839A5 (ja) | ||
| JP6497965B2 (ja) | 画像処理装置及び画像処理方法 | |
| KR20180129667A (ko) | 표시 제어 장치, 표시 제어 방법 및 저장 매체 | |
| JP2017168882A (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP6720966B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| JP6544996B2 (ja) | 制御装置及び制御方法 | |
| JP6374535B2 (ja) | 操作装置、追尾システム、操作方法、及びプログラム | |
| JP7353864B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム、撮像システム | |
| JP5872415B2 (ja) | 表示端末、操作受付方法及びプログラム | |
| JP2013162287A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| CN104994288B (zh) | 一种拍照方法及用户终端 | |
| JP2019032448A (ja) | 制御装置、制御方法、及びプログラム | |
| JP6483661B2 (ja) | 撮像制御装置、撮像制御方法およびプログラム | |
| JP2018005091A (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
| CN105094614B (zh) | 图像显示方法及装置 | |
| KR102252662B1 (ko) | 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법 | |
| US12445700B2 (en) | Electronic device, control method of an electronic device, and non-transitory computer readable medium | |
| US9883103B2 (en) | Imaging control apparatus and method for generating a display image, and storage medium | |
| EP4412191A1 (en) | Information processing apparatus, information processing system, and information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151209 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160412 |