[go: up one dir, main page]

JP2013033321A - Movie presentation device - Google Patents

Movie presentation device Download PDF

Info

Publication number
JP2013033321A
JP2013033321A JP2011168080A JP2011168080A JP2013033321A JP 2013033321 A JP2013033321 A JP 2013033321A JP 2011168080 A JP2011168080 A JP 2011168080A JP 2011168080 A JP2011168080 A JP 2011168080A JP 2013033321 A JP2013033321 A JP 2013033321A
Authority
JP
Japan
Prior art keywords
image
color
pixel
tracking
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011168080A
Other languages
Japanese (ja)
Other versions
JP5733088B2 (en
Inventor
Takahiro Matsubara
孝博 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011168080A priority Critical patent/JP5733088B2/en
Publication of JP2013033321A publication Critical patent/JP2013033321A/en
Application granted granted Critical
Publication of JP5733088B2 publication Critical patent/JP5733088B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically track an arbitrary tracking object on a distorted wide-angle image.SOLUTION: A distorted wide-angle image S obtained by fisheye-photographing is input by frame units in a memory 130. An image in an m size is segmented from the position of a point P of the distorted image S in a direction shown by φ on the basis of segmentation conditions in a storage part 170, and converted into a regular image T by a conversion part 150, and stored in a memory 140. When a tracking start instruction including a tracking start point Q is given, a flag is turned on by a flag setting part 220 so that the point Q can be updated as a new point P. The neighboring color of the new point P is extracted as a reference color α by a reference color extraction part 200, and stored in a reference color storage part 190. The neighboring block of the point P is extracted by a neighboring block extraction part 160, and the block in which the number of pixels approximating to the reference color α is made maximum is selected by a block selection part 180. The central point of a candidate area having a color which fits the most the reference color α in the selected block is updated as the new point P by an automatic changing part 210.

Description

本発明は、動画提示装置に関し、特に、広角撮影により得られた動画の各フレームを構成する歪曲広角画像の一部分を切り出して、平面正則画像に変換し、これを順次出力して動画の提示を行う動画提示装置に関する。   The present invention relates to a moving image presentation device, and in particular, a part of a distorted wide-angle image constituting each frame of a moving image obtained by wide-angle shooting is cut out and converted into a planar regular image, which is sequentially output to present the moving image. The present invention relates to a moving picture presentation apparatus.

魚眼レンズなどの光学系を備えた広角撮影装置を用いて撮影を行うと、極めて広い視野をもった画像が得られる。ただ、このような広角撮影により得られる画像は、本来は曲面に投影されるべき像になるため、平面的なディスプレイ画面上に表示すると歪んだ画像になる。そこで、通常は、魚眼レンズなどを用いた撮影により得られた歪曲広角画像の一部分を切り出して、歪みの少ない平面正則画像に変換する画像処理を施し、これをディスプレイ画面上に表示する方法が採られる。   When photographing is performed using a wide-angle photographing device equipped with an optical system such as a fisheye lens, an image having an extremely wide field of view can be obtained. However, since an image obtained by such wide-angle imaging is originally an image that should be projected onto a curved surface, it becomes a distorted image when displayed on a flat display screen. Therefore, usually, a method is adopted in which a part of a distorted wide-angle image obtained by photographing using a fisheye lens is cut out, converted into a planar regular image with little distortion, and displayed on a display screen. .

たとえば、下記の特許文献1〜3には、魚眼レンズを用いて撮影した歪曲広角画像の一部分を、コンピュータを利用して平面正則画像に変換する技術が開示されている。また、特許文献4には、全方位ミラーを用いて撮影した歪曲広角画像の一部分を平面正則画像に変換する技術が開示されており、特許文献5には、自動車に搭載した超広角カメラによって撮影された歪曲広角画像に対してリアルタイムで歪み補正を施す技術が開示されている。   For example, the following Patent Documents 1 to 3 disclose a technique for converting a part of a distorted wide-angle image captured using a fisheye lens into a planar regular image using a computer. Patent Document 4 discloses a technique for converting a part of a distorted wide-angle image photographed using an omnidirectional mirror into a planar regular image, and Patent Document 5 photographed using a super-wide-angle camera mounted on an automobile. A technique for performing distortion correction on a distorted wide-angle image in real time is disclosed.

最近は、セキュリティ確保のため、建物の天井や壁面に設置した防犯カメラで撮影した画像をモニタ画面上に表示し、周囲の監視に役立てるシステムが普及している。このような監視システム用のカメラには、魚眼レンズが用いられることが多く、上述の変換技術を利用すれば、魚眼レンズ付きビデオカメラで撮影した歪曲広角画像からなる動画を、平面正則画像からなる動画としてリアルタイムで観察することが可能になり、180°の画角をもった監視システムが構築できる。   Recently, in order to ensure security, an image taken by a security camera installed on the ceiling or wall of a building is displayed on a monitor screen to help monitor the surroundings. A camera for such a surveillance system often uses a fisheye lens. If the above-described conversion technique is used, a moving image composed of a distorted wide-angle image captured by a video camera equipped with a fisheye lens is converted into a moving image composed of a planar regular image. It becomes possible to observe in real time, and a monitoring system having an angle of view of 180 ° can be constructed.

このような監視システムの産業分野では、古くから動体追跡の技術が研究されてきている。これはフレーム単位で時系列的に得られる撮影画像を、コンピュータによって解析し、カメラの視野内に存在する特定の追跡対象物を自動的に認識して追尾する技術である。このような動体追跡の技術を、魚眼監視システムに導入する試みも提案されている。たとえば、下記の特許文献6および7には、魚眼レンズによって撮影された歪曲広角画像を解析して動体を認識し、当該動体を含む部分を切り出して平面正則画像に変換した上でモニタ画面に表示する技術が開示されている。   In the industrial field of such a monitoring system, a moving body tracking technique has been studied for a long time. This is a technique for analyzing a captured image obtained in time series in units of frames by a computer, and automatically recognizing and tracking a specific tracking target existing in the field of view of the camera. Attempts have also been made to introduce such moving body tracking technology into fisheye monitoring systems. For example, in Patent Documents 6 and 7 below, a distorted wide-angle image captured by a fisheye lens is analyzed to recognize a moving object, and a portion including the moving object is cut out and converted into a planar regular image and displayed on a monitor screen. Technology is disclosed.

一方、広角撮影装置を用いた撮影画像は、再生時に視線方向を任意に設定できるという利点があるため、このような利点を生かした視聴装置も提案されている。たとえば、下記の特許文献8には、広角撮影装置によって得られた歪曲広角画像に基づいて、視聴者が指定した任意の視線方向の平面正則画像をヘッドアップディスプレイ上に提示する技術が開示されている。上記利点を生かして、今後は、様々な景色や室内の様子を魚眼レンズなどを用いて広角撮影することにより、視聴者が視線方向を自由に変更できる映像コンテンツが普及してゆくものと期待される。   On the other hand, a captured image using a wide-angle imaging device has an advantage that the line-of-sight direction can be arbitrarily set at the time of reproduction. Therefore, a viewing device that takes advantage of such advantages has been proposed. For example, Patent Document 8 below discloses a technique for presenting a planar regular image in an arbitrary line-of-sight direction designated by a viewer on a head-up display based on a distorted wide-angle image obtained by a wide-angle imaging device. Yes. Taking advantage of the above advantages, it is expected that in the future, video content that allows viewers to freely change the viewing direction will be widespread by shooting a wide range of scenes and indoor situations using fisheye lenses. .

特許第3012142号公報Japanese Patent No. 3012142 特許第3051173号公報Japanese Patent No. 3051173 特開2009−176273号公報JP 2009-176273 A 特開2010−140292号公報JP 2010-140292 A 特開2006−240383号公報JP 2006-240383 A 特開2002−329207号公報JP 2002-329207 A 特開2011−061511号公報JP 2011-061511 A 特開平8−336128号公報JP-A-8-336128

上述したとおり、これまでにも、広角撮影装置によって得られた歪曲広角画像に対して、動体追跡の技術を導入する提案がなされている。しかしながら、従来提案されている方法は、十分に正確な追跡を行うことができなかったり、複雑なプロセスが必要になったりと、いずれも実用上の問題を抱えている。   As described above, there have been proposals for introducing a moving body tracking technique on a distorted wide-angle image obtained by a wide-angle imaging device. However, the methods proposed heretofore have practical problems, such as being unable to perform sufficiently accurate tracking and requiring a complicated process.

その根本的な原因は、歪曲広角画像上では追跡対象物に歪みが生じるという点にある。通常の撮影装置によって得られた平面正則画像上では、追跡対象物は移動によってその位置や大きさが変化することはあるが、全体的な形状には大きな変化は生じない。これに対して、歪曲広角画像は、部分ごとに画像の歪み具合が異なるため、追跡対象物が移動すると、位置や大きさが変化するだけではなく、全体的な形状も大きく変化することになる。このため、従来の一般的な動体認識の技術を、そのまま歪曲広角画像に対して適用することは困難である。   The fundamental cause is that the tracking target is distorted on the distorted wide-angle image. On the planar regular image obtained by a normal photographing apparatus, the position and size of the tracking object may change due to movement, but the overall shape does not change greatly. In contrast, a distorted wide-angle image differs in the degree of image distortion from part to part. Therefore, when the tracking target moves, not only the position and size change, but also the overall shape changes greatly. . For this reason, it is difficult to apply a conventional general moving object recognition technique to a distorted wide-angle image as it is.

前述したとおり、任意の追跡対象物を自動的に追跡する技術は、魚眼カメラを用いた監視システムや、視線方向を自由に変更できる映像コンテンツの再生システムなど、今後、様々な分野で需要が高まってゆく技術である。   As mentioned above, technologies for automatically tracking arbitrary tracking objects will be in demand in various fields in the future, such as surveillance systems using fisheye cameras and video content playback systems that can freely change the direction of the line of sight. This is a growing technology.

そこで本発明は、広角撮影により得られた歪曲広角画像からなる動画について、その一部分を切り出して再生を行う際に、任意の追跡対象物を自動的に追跡する処理を、より単純なプロセスで正確に実行することが可能な動画提示装置を提供することを目的とする。   In view of this, the present invention provides a simpler process for accurately tracking an arbitrary tracking object when a part of a moving image composed of a distorted wide-angle image obtained by wide-angle shooting is cut out and reproduced. It is an object of the present invention to provide a moving picture presentation apparatus that can be executed in a simple manner.

(1) 本発明の第1の態様は、広角撮影により得られた動画の各フレームを構成する歪曲広角画像の一部分を切り出して、平面正則画像に変換し、これを順次出力して動画の提示を行う動画提示装置において、
二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成される歪曲広角画像を格納する歪曲広角画像用メモリと、
フレーム単位の時系列データとして順次与えられる第i番目(iは、時系列で順次増加する整数)のフレームの歪曲広角画像を、歪曲広角画像用メモリに順次格納する画像入力部と、
二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、
平面正則画像用メモリに格納されている平面正則画像を読み出して出力する画像出力部と、
歪曲広角画像の一部から平面正則画像を切り出すための条件として、歪曲広角画像上の1点である切出中心点Pと、画像の切り出し向きを示すパラメータφと、所定の倍率mと、を含む切出条件を格納する切出条件格納部と、
切出条件格納部に格納されている切出条件に基づいて、歪曲広角画像用メモリに格納されている第i番目のフレームの歪曲広角画像の切出中心点Pで示される切り出し位置から、パラメータφで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して第i番目のフレームの平面正則画像として平面正則画像用メモリに格納する画像切出変換部と、
視聴者からの指示を入力する指示入力部と、
指示入力部が、切出条件を変更する切出条件変更指示を入力したときに、当該指示に基づいて、切出条件格納部に格納されている切出条件を変更する切出条件手動変更部と、
指示入力部が、特定の平面正則画像上の追跡開始点Qの位置を含む追跡開始指示を入力したときに、自動追跡フラグをONに切り替えるとともに、追跡開始点Qに対応する二次元XY座標系上の点を新たな切出中心点Pとして、切出条件格納部に格納されている切出中心点Pを更新する自動追跡開始処理を実行し、指示入力部が、追跡終了指示を入力したときに、自動追跡フラグをOFFに切り替える自動追跡終了処理を実行する自動追跡フラグ設定部と、
自動追跡フラグがONの場合に、平面正則画像用メモリに格納されている第i番目のフレームの平面正則画像もしくは歪曲広角画像用メモリに格納されている第i番目のフレームの歪曲広角画像に基づいて、切出条件格納部に格納されている第i番目のフレームについての切出中心点Pに位置する追跡対象物の色を代表する第i番目のフレームの基準色αを、iが更新するごとに逐次抽出する基準色抽出部と、
基準色抽出部によって抽出された最新の基準色を格納する基準色格納部と、
自動追跡フラグがONの場合に、歪曲広角画像用メモリに格納されている第(i+1)番目のフレームの歪曲広角画像を複数のブロックに分割し、切出条件格納部に格納されている第i番目のフレームについての切出中心点Pの近隣の複数のブロックを近隣ブロックとして抽出する近隣ブロック抽出部と、
自動追跡フラグがONの場合に、複数の近隣ブロックのそれぞれについて、ブロック内に含まれる個々の画素のうち、基準色格納部に格納されている第i番目のフレームの基準色αに対して所定の近似範囲に入る色をもつ画素の数を示す近似色画素数を求め、この近似色画素数が最大となるブロックを選択するブロック選択部と、
自動追跡フラグがONの場合に、ブロック選択部が選択したブロック内に互いに位置が異なる複数の候補領域を定義し、これら複数の候補領域の中から、基準色格納部に格納されている第i番目の基準色αに最も適合する色をもつ候補領域を最適候補領域として選択し、選択した最適候補領域の中心点を第(i+1)番目のフレームについての切出中心点Pとして、切出条件格納部に格納されている切出中心点Pを示す情報を更新する切出条件自動変更部と、
を設けるようにしたものである。
(1) In the first aspect of the present invention, a part of a distorted wide-angle image constituting each frame of a moving image obtained by wide-angle shooting is cut out and converted into a planar regular image, which is sequentially output to present a moving image. In the video presentation device that performs
A distorted wide-angle image memory for storing a distorted wide-angle image configured by an aggregate of a large number of pixels arranged at a position indicated by coordinates (x, y) on a two-dimensional XY coordinate system;
An image input unit for sequentially storing a distorted wide-angle image of an i-th frame (i is an integer that sequentially increases in time series) sequentially given as time-series data in units of frames;
A planar regular image memory for storing a planar regular image composed of a collection of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system;
An image output unit that reads and outputs a planar regular image stored in the planar regular image memory;
As a condition for cutting out a planar regular image from a part of a distorted wide-angle image, a cutting center point P that is one point on the distorted wide-angle image, a parameter φ indicating the cutting direction of the image, and a predetermined magnification m are: A cutting condition storage unit for storing cutting conditions including,
Based on the cutting conditions stored in the cutting condition storage unit, parameters are determined from the cutting position indicated by the cutting center point P of the distorted wide-angle image of the i-th frame stored in the distorted wide-angle image memory. Cut out an image with a cut-out size indicated by the magnification m in the cut-out direction indicated by φ, convert it to a flat regular image, and store it in the planar regular image memory as a planar regular image of the i-th frame A conversion unit;
An instruction input unit for inputting instructions from the viewer;
When the instruction input unit inputs a cutting condition change instruction to change the cutting condition, a cutting condition manual changing unit that changes the cutting condition stored in the cutting condition storage unit based on the instruction When,
When the instruction input unit inputs a tracking start instruction including the position of the tracking start point Q on a specific planar regular image, the automatic tracking flag is turned ON, and the two-dimensional XY coordinate system corresponding to the tracking start point Q The automatic tracking start process for updating the cutting center point P stored in the cutting condition storage unit is executed with the upper point as the new cutting center point P, and the instruction input unit inputs the tracking end instruction An automatic tracking flag setting unit for executing an automatic tracking end process for switching the automatic tracking flag to OFF,
When the automatic tracking flag is ON, based on the plane regular image of the i-th frame stored in the plane regular image memory or the distorted wide-angle image of the i-th frame stored in the distorted wide-angle image memory. Then, i updates the reference color α of the i-th frame representing the color of the tracking object located at the extraction center point P for the i-th frame stored in the extraction condition storage unit. A reference color extraction unit that sequentially extracts each time,
A reference color storage unit that stores the latest reference color extracted by the reference color extraction unit;
When the automatic tracking flag is ON, the distorted wide-angle image of the (i + 1) th frame stored in the distorted wide-angle image memory is divided into a plurality of blocks, and the i-th stored in the extraction condition storage unit. A neighboring block extraction unit that extracts a plurality of blocks in the vicinity of the cut-out center point P for the th frame as neighboring blocks;
When the automatic tracking flag is ON, for each of a plurality of neighboring blocks, a predetermined value is set for the reference color α of the i-th frame stored in the reference color storage unit among the individual pixels included in the block. A block selection unit for obtaining an approximate color pixel number indicating the number of pixels having a color falling within the approximate range, and selecting a block having the maximum approximate color pixel number;
When the automatic tracking flag is ON, a plurality of candidate regions whose positions are different from each other are defined in the block selected by the block selection unit, and the i th stored in the reference color storage unit is selected from the plurality of candidate regions. A candidate area having a color that most closely matches the reference color α is selected as an optimal candidate area, and the center point of the selected optimal candidate area is set as a cut center point P for the (i + 1) th frame. A cutting condition automatic changing unit for updating information indicating the cutting center point P stored in the storage unit;
Is provided.

(2) 本発明の第2の態様は、上述した第1の態様に係る動画提示装置において、
基準色抽出部が、切出中心点Pを含む1画素の色を基準色αとして抽出するようにしたものである。
(2) According to a second aspect of the present invention, in the video presentation device according to the first aspect described above,
The reference color extraction unit extracts the color of one pixel including the cut center point P as the reference color α.

(3) 本発明の第3の態様は、上述した第1の態様に係る動画提示装置において、
基準色抽出部が、切出中心点Pを含む中心画素およびその周囲の周辺画素からなる近傍領域を定義し、この近傍領域内の画素の色の平均値を基準色αとして抽出するようにしたものである。
(3) According to a third aspect of the present invention, in the video presentation device according to the first aspect described above,
The reference color extraction unit defines a neighborhood area composed of the center pixel including the cut-out center point P and surrounding pixels around it, and extracts the average value of the colors of the pixels in the neighborhood area as the reference color α. Is.

(4) 本発明の第4の態様は、上述した第1の態様に係る動画提示装置において、
基準色抽出部が、切出中心点Pを含む中心画素およびその周囲の周辺画素からなる近傍領域を定義し、この近傍領域内の画素のうち、中心画素の色に対して所定の近似範囲に入る色をもつ画素を参照画素として、この参照画素の色の平均値を基準色αとして抽出するようにしたものである。
(4) According to a fourth aspect of the present invention, in the video presentation device according to the first aspect described above,
The reference color extraction unit defines a neighborhood area composed of the center pixel including the cut-out center point P and surrounding pixels around the center pixel, and out of the pixels in the neighborhood area, the reference color extraction unit has a predetermined approximate range with respect to the color of the center pixel. A pixel having an input color is used as a reference pixel, and an average value of colors of the reference pixel is extracted as a standard color α.

(5) 本発明の第5の態様は、上述した第3または第4の態様に係る動画提示装置において、
基準色抽出部が、切出中心点Pを含む中心画素を中心とするn行n列の正方画素配列を近傍領域と定義するようにしたものである。
(5) According to a fifth aspect of the present invention, in the video presentation device according to the third or fourth aspect described above,
The reference color extraction unit defines a square pixel array of n rows and n columns centering on a central pixel including the cut-out center point P as a neighboring region.

(6) 本発明の第6の態様は、上述した第1〜第5の態様に係る動画提示装置において、
近隣ブロック抽出部が、歪曲広角画像を、縦横に整列して配置された複数の矩形状のブロックに分割し、切出中心点Pを含むブロックを中心ブロックとして、この中心ブロックおよびその上下左右および斜め四方に位置する隣接ブロックを含めた合計9ブロック(但し、該当位置に存在しないブロックは除く)を近隣ブロックとして抽出するようにしたものである。
(6) According to a sixth aspect of the present invention, in the video presentation device according to the first to fifth aspects described above,
The neighboring block extraction unit divides the distorted wide-angle image into a plurality of rectangular blocks arranged in vertical and horizontal directions, and uses the block including the cut-out center point P as a central block, and the central block and its upper, lower, left, and right A total of nine blocks including adjacent blocks located in four diagonal directions (excluding blocks that do not exist in the corresponding position) are extracted as neighboring blocks.

(7) 本発明の第7の態様は、上述した第1〜第6の態様に係る動画提示装置において、
切出条件自動変更部が、所定サイズの画素配列を定義し、当該画素配列の枠をブロック内の所定位置に配置した場合の当該枠内の領域を候補領域とし、画素配列の枠の配置を縦横にそれぞれ1画素ずつずらすことにより、互いに位置が異なる複数の候補領域を定義するようにしたものである。
(7) According to a seventh aspect of the present invention, in the video presentation device according to the first to sixth aspects described above,
When the cutting condition automatic changing unit defines a pixel array of a predetermined size and arranges the frame of the pixel array at a predetermined position in the block, the area in the frame is set as a candidate area, and the arrangement of the frame of the pixel array is determined. A plurality of candidate areas whose positions are different from each other are defined by shifting each pixel vertically and horizontally.

(8) 本発明の第8の態様は、上述した第7の態様に係る動画提示装置において、
切出条件自動変更部が、候補領域内の画素の色の平均値が基準色αに最も近い候補領域を最適候補領域として選択するようにしたものである。
(8) According to an eighth aspect of the present invention, in the video presentation device according to the seventh aspect described above,
The automatic cutting condition changing unit is configured to select a candidate area whose pixel color average value in the candidate area is closest to the reference color α as the optimum candidate area.

(9) 本発明の第9の態様は、上述した第7の態様に係る動画提示装置において、
切出条件自動変更部が、候補領域内の画素のうち、基準色αに対して所定の近似範囲に入る色をもつ画素を参照画素として、この参照画素の色の平均値が基準色αに最も近い候補領域を最適候補領域として選択するようにしたものである。
(9) According to a ninth aspect of the present invention, in the video presentation device according to the seventh aspect described above,
The cutting condition automatic changing unit uses, as a reference pixel, a pixel having a color that falls within a predetermined approximate range with respect to the reference color α among the pixels in the candidate region, and the average value of the color of the reference pixel is set as the reference color α. The closest candidate area is selected as the optimum candidate area.

(10) 本発明の第10の態様は、上述した第1〜第9の態様に係る動画提示装置において、
ブロック選択部が、予め近似色画素数の最低基準値を設定し、近似色画素数が最低基準値以上となるブロックが存在しない場合には、ブロックの選択を行わずに自動追跡フラグ設定部に対して自動追跡失敗信号を与え、
自動追跡フラグ設定部が、自動追跡失敗信号が与えられたときに、自動追跡フラグをOFFに切り替えるようにしたものである。
(10) According to a tenth aspect of the present invention, in the video presentation device according to the first to ninth aspects described above,
If the block selection unit sets the minimum reference value of the approximate color pixel number in advance and there is no block with the approximate color pixel number equal to or greater than the minimum reference value, the block selection unit does not select the block and the automatic tracking flag setting unit Give an automatic tracking failure signal to
The automatic tracking flag setting unit switches the automatic tracking flag to OFF when an automatic tracking failure signal is given.

(11) 本発明の第11の態様は、上述した第1〜第10の態様に係る動画提示装置において、
切出条件自動変更部が、予め基準色αに対する最低適合基準を設定し、適合の程度が最低適合基準以上となる候補領域が存在しない場合には、最適候補領域の選択および切出中心点Pを示す情報の更新を行わずに自動追跡フラグ設定部に対して自動追跡失敗信号を与え、
自動追跡フラグ設定部が、自動追跡失敗信号が与えられたときに、自動追跡フラグをOFFに切り替えるようにしたものである。
(11) According to an eleventh aspect of the present invention, in the video presentation device according to the first to tenth aspects described above,
The cutting condition automatic changing unit sets a minimum matching criterion for the reference color α in advance, and when there is no candidate region whose degree of matching is equal to or greater than the minimum matching criterion, selection of the optimal candidate region and the cutting center point P An automatic tracking failure signal is given to the automatic tracking flag setting unit without updating the information indicating
The automatic tracking flag setting unit switches the automatic tracking flag to OFF when an automatic tracking failure signal is given.

(12) 本発明の第12の態様は、上述した第1、第4、第9の態様に係る動画提示装置において、
第1の画素の色の所定の近似範囲に第2の画素の色が入るための条件として、各画素の画素値をHSV表色系で表現して色相Hの値を0〜360°の角度で表した場合に、「第1の画素の色の色相Hを表す角度と第2の画素の色の色相Hを表す角度との角度差が所定の許容角θ以下である」との条件を用いるようにしたものである。
(12) According to a twelfth aspect of the present invention, in the video presentation device according to the first, fourth, and ninth aspects described above,
As a condition for the color of the second pixel to fall within a predetermined approximate range of the color of the first pixel, the pixel value of each pixel is expressed in the HSV color system, and the value of hue H is an angle of 0 to 360 °. The condition that “the angle difference between the angle representing the hue H of the color of the first pixel and the angle representing the hue H of the color of the second pixel is equal to or less than a predetermined allowable angle θ” It is intended to be used.

(13) 本発明の第13の態様は、上述した第1、第4、第9の態様に係る動画提示装置において、
第1の画素の色の所定の近似範囲に第2の画素の色が入るための条件として、各画素の画素値をRGB表色系で表現し、個々の画素の色を三次元RGB座標系で示される色空間上に座標点としてプロットした場合に、「2つの画素の座標点間のユークリッド距離が所定値以下である」との条件を用いるようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the video presentation device according to the first, fourth, and ninth aspects described above,
As a condition for the color of the second pixel to fall within a predetermined approximate range of the color of the first pixel, the pixel value of each pixel is expressed in the RGB color system, and the color of each pixel is represented in the three-dimensional RGB coordinate system. When plotting as coordinate points on the color space indicated by the above, the condition that “the Euclidean distance between the coordinate points of two pixels is equal to or less than a predetermined value” is used.

(14) 本発明の第14の態様は、上述した第3、第4、第8、第9の態様に係る動画提示装置において、
複数の画素の色の平均値を算出する際に、個々の画素の画素値をRGB表色系で表現し、画素値Rの平均値Rav、画素値Gの平均値Gav、画素値Bの平均値Bavを求め、これら画素値(Rav,Gav,Bav)によって示される色を当該複数の画素の色の平均値とするようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the video presentation device according to the third, fourth, eighth, and ninth aspects described above,
When calculating the average value of the colors of a plurality of pixels, the pixel value of each pixel is expressed in the RGB color system, the average value Rav of the pixel value R, the average value Gav of the pixel value G, and the average of the pixel value B The value Bav is obtained, and the color indicated by these pixel values (Rav, Gav, Bav) is set as the average value of the colors of the plurality of pixels.

(15) 本発明の第15の態様は、上述した第1〜第14の態様に係る動画提示装置において、
指示入力部が、
上下左右に配置された4個のカーソル移動ボタンと、追跡開始指示ボタンと、を有するコントローラ装置と、
4個のカーソル移動ボタンの操作に基づいて上下左右に移動するカーソルの位置を画像出力部に対して指示するカーソル位置指示手段と、
を有し、
画像出力部が、平面正則画像上のカーソル位置指示手段によって指示された位置に、カーソルを重畳した画像を出力し、
自動追跡フラグ設定部が、追跡開始指示ボタンが押された場合に、その時点のカーソルの位置を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行するようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the video presentation device according to the first to fourteenth aspects described above,
The instruction input unit
A controller device having four cursor movement buttons arranged vertically and horizontally and a tracking start instruction button;
Cursor position indicating means for instructing the image output unit of the position of the cursor that moves up, down, left, and right based on the operation of the four cursor movement buttons;
Have
The image output unit outputs an image in which the cursor is superimposed at the position indicated by the cursor position instruction means on the planar regular image,
When the tracking start instruction button is pressed, the automatic tracking flag setting unit executes the automatic tracking start process on the assumption that a tracking start instruction having the tracking start point Q as the position of the cursor at that time is input. It is a thing.

(16) 本発明の第16の態様は、上述した第1〜第14の態様に係る動画提示装置において、
指示入力部が、上下左右に配置された4個の画面移動ボタンと、追跡開始指示ボタンと、を有するコントローラ装置を備え、
切出条件手動変更部が、4個の画面移動ボタンの操作に基づいて、平面正則画像上での切り出し位置が上下左右に移動するように、切出条件格納部に格納されている切出中心点Pを変更する機能を有し、
自動追跡フラグ設定部が、追跡開始指示ボタンが押された場合に、その時点の切出中心点Pの位置を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行するようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the video presentation device according to the first to fourteenth aspects described above,
The instruction input unit includes a controller device having four screen movement buttons arranged vertically and horizontally, and a tracking start instruction button,
The extraction condition manual change unit stores the extraction center stored in the extraction condition storage unit so that the extraction position on the planar regular image moves up, down, left, and right based on the operation of the four screen movement buttons. A function to change the point P;
When the tracking start instruction button is pressed, the automatic tracking flag setting unit assumes that the tracking start instruction with the position of the cut-out center point P at that time as the tracking start point Q is input, and performs automatic tracking start processing. It is something to be executed.

(17) 本発明の第17の態様は、上述した第15または第16の態様に係る動画提示装置において、
自動追跡フラグ設定部が、コントローラ装置に設けられた追跡終了指示ボタンが押された場合、もしくは、自動追跡フラグがONのときに追跡開始指示ボタンが押された場合に、追跡終了指示が入力されたものとして、自動追跡終了処理を実行するようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the video presentation device according to the fifteenth or sixteenth aspect described above,
When the tracking end instruction button provided in the controller device is pressed by the automatic tracking flag setting unit, or when the tracking start instruction button is pressed when the automatic tracking flag is ON, the tracking end instruction is input. As an example, an automatic tracking end process is executed.

(18) 本発明の第18の態様は、上述した第15〜第17の態様に係る動画提示装置において、
コントローラ装置が、倍率mを増減する倍率変更ボタンと、画像の切り出し向きを示すパラメータφを増減する向き変更ボタンと、を更に備え、
切出条件手動変更部が、倍率変更ボタンもしくは向き変更ボタンが押された場合に、切出条件変更指示が入力されたものとして、切出条件格納部に格納されている倍率mもしくはパラメータφを変更するようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the video presentation device according to the fifteenth to seventeenth aspects described above,
The controller device further includes a magnification change button for increasing / decreasing the magnification m, and a direction changing button for increasing / decreasing a parameter φ indicating the image cutting direction,
When the cutting condition manual changing unit has pressed the magnification changing button or the direction changing button, it is assumed that the cutting condition changing instruction is input, and the magnification m or parameter φ stored in the cutting condition storing unit is set. It is something to change.

(19) 本発明の第19の態様は、上述した第1〜第18の態様に係る動画提示装置において、
画像入力部が、魚眼レンズを用いた撮影により得られた円形の歪曲広角画像を入力して、これを歪曲広角画像用メモリに格納し、
近隣ブロック抽出部が、円形の歪曲広角画像を、複数の矩形状のブロックに分割し、円形の歪曲広角画像の輪郭線から一部でも食み出すブロックについては、近隣ブロックとしての抽出を行わないようにしたものである。
(19) According to a nineteenth aspect of the present invention, in the video presentation device according to the first to eighteenth aspects described above,
The image input unit inputs a circular distorted wide-angle image obtained by photographing using a fisheye lens, stores this in a distorted wide-angle image memory,
The neighboring block extraction unit divides a circular distorted wide-angle image into a plurality of rectangular blocks, and does not extract a block that partially protrudes from the outline of the circular distorted wide-angle image as a neighboring block. It is what I did.

(20) 本発明の第20の態様は、上述した第1〜第19の態様に係る動画提示装置を、コンピュータにプログラムを組み込むことにより構成したものである。   (20) In a twentieth aspect of the present invention, the moving picture presentation apparatus according to the first to nineteenth aspects described above is configured by incorporating a program into a computer.

本発明に係る動画提示装置では、前のフレームの画像上で追跡対象物を代表する基準色αを抽出し、この基準色αを手掛かりに、次のフレームの画像上で追跡対象物の位置を推定する追跡方法が採られる。このため、追跡対象物の形状に関する解析は不要になり、歪曲広角画像上で追跡対象物の形状変化が生じても正確な追跡が可能になる。また、次のフレームの画像上で追跡対象物の位置を推定する際に、当該次のフレームの画像を複数のブロックに分割し、前のフレームにおける追跡対象物の位置の近傍にあるブロックを近隣ブロックとして抽出し、その中から基準色αに近似する画素数が最大となるブロックを選択し、この選択ブロック内の基準色αに最も適合する色をもつ候補領域の位置を追跡対象物の位置とする方法を採るため、遠くのブロック内の類似色をもつ領域を追跡対象物と誤検出することを防ぐことができ、しかも演算負担の少ない比較的単純なプロセスにより、正確な追跡処理が可能になる。   In the moving image presentation apparatus according to the present invention, the reference color α representing the tracking object is extracted from the image of the previous frame, and the position of the tracking object is determined on the image of the next frame using the reference color α as a clue. The estimated tracking method is taken. This eliminates the need for analysis regarding the shape of the tracking object, and enables accurate tracking even when the shape of the tracking object changes on the distorted wide-angle image. Also, when estimating the position of the tracking object on the image of the next frame, the image of the next frame is divided into a plurality of blocks, and blocks near the position of the tracking object in the previous frame are adjacent. The block that is extracted as a block, the block with the maximum number of pixels approximated to the reference color α is selected, and the position of the candidate area having the color that best matches the reference color α in the selected block is the position of the tracking target Therefore, it is possible to prevent erroneous detection of a region with similar colors in a distant block as a tracking target, and it is possible to perform accurate tracking processing by a relatively simple process with less computational burden. become.

正射影方式の魚眼レンズを用いた撮影により歪曲広角画像Sを形成する基本モデルを示す斜視図である。It is a perspective view which shows the basic model which forms the distortion wide angle image S by imaging | photography using the fisheye lens of an orthogonal projection system. 魚眼レンズを用いた撮影によって得られた歪曲広角画像Sの一例を示す平面図である(歪曲広角画像Sの一般的なイメージを示すものであり、正確な画像を示すものではない)。It is a top view which shows an example of the distortion wide-angle image S obtained by imaging | photography using a fisheye lens (It shows the general image of the distortion wide-angle image S, and does not show an exact image.). 歪曲広角画像Sの切出中心点Pで示される切り出し位置から、パラメータφで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出す例を示す平面図である。It is a top view which shows the example which cuts out the image of the cutting size shown by the magnification m from the cutting position shown by the cutting center point P of the distortion wide angle image S to the cutting direction shown by the parameter (phi). 図2に示す歪曲広角画像Sの一部分を切り出すことにより、二次元UV直交座標系上に得られた平面正則画像Tの一例を示す平面図である。FIG. 3 is a plan view showing an example of a planar regular image T obtained on a two-dimensional UV orthogonal coordinate system by cutting out a part of the distorted wide-angle image S shown in FIG. 2. 図2に示す歪曲広角画像Sの一部分を切り出すことにより、二次元UV直交座標系上に得られた平面正則画像Tの別な一例を示す平面図である。It is a top view which shows another example of the planar regular image T obtained on the two-dimensional UV orthogonal coordinate system by cutting out a part of the distortion wide-angle image S shown in FIG. 魚眼レンズ付ビデオカメラ40により、屋外の風景を撮影する状態を示す側面図である。It is a side view which shows the state which image | photographs outdoor scenery with the video camera 40 with a fisheye lens. 図6に示す魚眼レンズ付ビデオカメラ40を用いた撮影によって得られる歪曲広角画像Sの一例を示す平面図である。It is a top view which shows an example of the distortion wide angle image S obtained by imaging | photography using the video camera 40 with a fisheye lens shown in FIG. 図7に示す歪曲広角画像S上に、2通りの切出領域E1,E2を設定した例を示す平面図である。FIG. 8 is a plan view showing an example in which two types of cutout regions E1 and E2 are set on the distorted wide-angle image S shown in FIG. 図8に示す2通りの切出領域E1,E2に対応して得られる平面正則画像T1,T2を示す平面図である。It is a top view which shows the plane regular image T1, T2 obtained corresponding to two kinds of cutting area E1, E2 shown in FIG. 図6に示す魚眼レンズ付ビデオカメラ40を用いた撮影によって得られる歪曲広角画像Sに存在する追跡対象物60の一例を示す平面図である。It is a top view which shows an example of the tracking target object 60 which exists in the distortion wide angle image S obtained by imaging | photography using the video camera 40 with a fisheye lens shown in FIG. 図10に示す歪曲広角画像S上で、追跡対象物60が移動した状態を示す平面図である。It is a top view which shows the state which the tracking target object 60 moved on the distortion wide angle image S shown in FIG. 図10および図11に示す歪曲広角画像Sについて、追跡対象物60を追跡することにより得られる平面正則画像を示す平面図である。12 is a plan view showing a planar regular image obtained by tracking a tracking target object 60 with respect to the distorted wide-angle image S shown in FIGS. 10 and 11. FIG. 本発明の基本的実施形態に係る動画提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image presentation apparatus which concerns on fundamental embodiment of this invention. 図13に示す指示入力部240のハードウエア構成部分となるコントローラ装置の正面図である。It is a front view of the controller apparatus used as the hardware component of the instruction | indication input part 240 shown in FIG. 図13に示す画像切出変換部150による第i番目のフレームについての画像切出処理を示す平面図である。It is a top view which shows the image cutting-out process about the i-th flame | frame by the image cutting-out conversion part 150 shown in FIG. 図15に示す画像切出処理によって得られた平面正則画像の一例を示す平面図である。FIG. 16 is a plan view illustrating an example of a planar regular image obtained by the image cutting process illustrated in FIG. 15. 図16に示す平面正則画像上に十字カーソルCを表示させた状態を示す平面図である。It is a top view which shows the state which displayed the cross cursor C on the plane regular image shown in FIG. 図17に示す十字カーソルCを、追跡対象物60上に移動させた状態を示す平面図である。FIG. 18 is a plan view showing a state in which the cross cursor C shown in FIG. 図18に示すように、十字カーソルCを追跡対象物60上に移動させた状態で追跡開始指示を与えたときに得られる第(i+1)番目のフレームの平面正則画像T(i+1)を示す平面図である。As shown in FIG. 18, a plane showing a planar regular image T (i + 1) of the (i + 1) th frame obtained when a tracking start instruction is given in a state where the cross cursor C is moved onto the tracking target 60. FIG. 十字カーソルCを追跡対象物60上に移動させて追跡開始指示を与えたときの第i番目のフレームの歪曲広角画像S(i)と平面正則画像T(i)との関係を示す平面図である。It is a top view which shows the relationship between the distortion wide-angle image S (i) of the i-th frame when the crosshair cursor C is moved on the tracking target object 60, and the tracking start instruction | indication is given, and the planar regular image T (i). is there. 図20に示す状態で追跡開始指示が与えられたときの第(i+1)番目のフレームの歪曲広角画像S(i+1)と平面正則画像T(i+1)との関係を示す平面図である。FIG. 21 is a plan view showing a relationship between a distorted wide-angle image S (i + 1) and a planar regular image T (i + 1) of the (i + 1) -th frame when a tracking start instruction is given in the state shown in FIG. 図20に示す状態で追跡開始指示が与えられたときの基準色抽出処理の実例を示す平面図である。FIG. 21 is a plan view showing an example of reference color extraction processing when a tracking start instruction is given in the state shown in FIG. 20. 図22の近傍領域Nの周辺の拡大図である。It is an enlarged view of the periphery of the vicinity area | region N of FIG. 図23に示す近傍領域N内の画素についての表色系の変換処理を示す図である。It is a figure which shows the color system conversion process about the pixel in the vicinity area | region N shown in FIG. HSV表色系における色相Hの近似条件の設定例を示す図である。It is a figure which shows the example of a setting of the approximate condition of the hue H in a HSV color system. 図13に示す近隣ブロック抽出部160によって行われる近隣ブロック抽出処理の一例を示す平面図である。It is a top view which shows an example of the neighboring block extraction process performed by the neighboring block extraction part 160 shown in FIG. 図26に示す近隣ブロックB1〜B9の中から、1つのブロックを選択する処理を示す図である。It is a figure which shows the process which selects one block from the neighboring blocks B1-B9 shown in FIG. 図13に示す切出条件自動変更部210によって行われる最適候補領域の選択処理の一例を示す平面図である。It is a top view which shows an example of the selection process of the optimal candidate area | region performed by the cutting condition automatic change part 210 shown in FIG. 図28に示す第k番目の候補領域A(k)について、基準色αとの近似度を調べる処理手順を示す図である。It is a figure which shows the process sequence which investigates the approximation degree with reference | standard color (alpha) about the kth candidate area | region A (k) shown in FIG. 第(i+2)番目のフレームの歪曲広角画像S(i+2)から、近隣ブロックが抽出される状態を示す平面図である。It is a top view which shows the state from which a neighboring block is extracted from the distortion wide angle image S (i + 2) of the (i + 2) th frame. 第(i+1)番目のフレームの平面正則画像T(i+1)上で行われる基準色抽出処理の実例を示す平面図である。It is a top view which shows the actual example of the reference | standard color extraction process performed on the planar regular image T (i + 1) of the (i + 1) th frame. 一般的なRGB色空間を示す斜視図である。It is a perspective view which shows a general RGB color space. 図32に示すユークリッド距離dを求める演算式を示す図である。It is a figure which shows the computing equation which calculates | requires the Euclidean distance d shown in FIG.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1. 歪曲広角画像と平面正則画像との関係 >>>
本発明は、広角撮影により得られた動画の各フレームを構成する歪曲広角画像の一部分を切り出して、平面正則画像に変換し、これを順次出力して動画の提示を行う動画提示装置に係るものである。ここでは、まず、広角撮影により得られる歪曲広角画像とこれを変換して得られる平面正則画像との関係を簡単に説明しておく。広角撮影装置として最も普及している装置は、魚眼レンズを装着したビデオカメラである。そこで、以下、魚眼レンズを用いた撮影により得られた歪曲広角画像を例にとって、平面正則画像との関係を説明する。
<<< §1. Relationship between distorted wide-angle image and planar regular image >>>
The present invention relates to a moving picture presentation apparatus that cuts out a part of a distorted wide-angle image constituting each frame of a moving picture obtained by wide-angle shooting, converts it into a planar regular image, and sequentially outputs this to present a moving picture. It is. Here, first, the relationship between a distorted wide-angle image obtained by wide-angle imaging and a planar regular image obtained by converting the image will be briefly described. The most popular device as a wide-angle photographing device is a video camera equipped with a fisheye lens. Therefore, the relationship with a planar regular image will be described below by taking a distorted wide-angle image obtained by photographing using a fisheye lens as an example.

魚眼レンズを用いると、半球状の視野をもって外界の景色を撮影することができる。ただ、得られる撮影画像は、歪曲した円形の広角画像になるため、通常のディスプレイ画面上に表示するには、この歪曲広角画像を、歪みの少ない平面正則画像に変換する処理を行う必要がある。以下、魚眼レンズを用いた撮影により得られた歪曲広角画像の一般的な特徴と、その一部分を切り出して、平面正則画像に変換する処理の基本原理を説明する。   By using a fisheye lens, it is possible to take a scene of the outside world with a hemispherical field of view. However, since the obtained captured image is a distorted circular wide-angle image, in order to display it on a normal display screen, it is necessary to perform processing for converting the distorted wide-angle image into a planar regular image with less distortion. . Hereinafter, a general characteristic of a distorted wide-angle image obtained by photographing using a fisheye lens and a basic principle of processing for cutting out a part of the image and converting it into a planar regular image will be described.

図1は、正射影方式の魚眼レンズを用いた撮影により歪曲広角画像Sを形成する基本モデルを示す斜視図である。一般に、魚眼レンズは、その投影方式によって複数の種類に分けられるが、この図1に示すモデルは、正射影方式の魚眼レンズについてのものである。図1には、三次元XYZ直交座標系におけるXY平面上に歪曲広角画像Sが形成された例が示されている。ここでは、図示のとおり、Z軸を図の上方にとり、Z軸の正の領域側にドーム状の仮想球面H(半球)を定義した例を示すことにする。   FIG. 1 is a perspective view showing a basic model for forming a distorted wide-angle image S by photographing using an orthographic fisheye lens. In general, fish-eye lenses are classified into a plurality of types according to the projection method, but the model shown in FIG. 1 is for a fish-eye lens of an orthographic projection method. FIG. 1 shows an example in which a distorted wide-angle image S is formed on an XY plane in a three-dimensional XYZ orthogonal coordinate system. Here, as shown in the figure, an example is shown in which the Z axis is taken upward in the figure and a dome-like virtual spherical surface H (hemisphere) is defined on the positive region side of the Z axis.

XY平面上に形成された歪曲広角画像Sは、座標系の原点Oを中心とした半径rの円を構成する画像であり、Z軸の正の領域側における180°の画角をもった領域に存在する像を歪ませて記録したものに相当する。図2は、魚眼レンズを用いた撮影によって得られた歪曲広角画像Sの一例を示す平面図である。このように、歪曲広角画像Sには、Z軸の正の領域側に存在するすべての像が記録されることになるが、その中心部分と周囲部分とでは、像の縮尺倍率が異なっており、記録された像の形状は歪んだものになる。なお、図2に示す歪曲広角画像Sは、魚眼レンズを用いた撮影により得られた歪曲広角画像の一般的なイメージを示すものであり、実際の魚眼レンズを用いて得られる正確な画像を示すものではない。   The distorted wide-angle image S formed on the XY plane is an image that forms a circle with a radius r centered on the origin O of the coordinate system, and is an area having an angle of view of 180 ° on the positive area side of the Z axis. Is equivalent to the image recorded with distortion. FIG. 2 is a plan view showing an example of a distorted wide-angle image S obtained by photographing using a fisheye lens. As described above, in the distorted wide-angle image S, all the images existing on the positive region side of the Z axis are recorded, but the scale scale of the image is different between the central portion and the peripheral portion. The shape of the recorded image is distorted. Note that the distorted wide-angle image S shown in FIG. 2 shows a general image of a distorted wide-angle image obtained by shooting using a fisheye lens, and does not show an accurate image obtained using an actual fisheye lens. Absent.

実際の魚眼レンズは、複数の凸レンズや凹レンズを組み合わせた光学系によって構成されるが、その光学的な特性は、図1に示すような仮想球面Hによってモデル化できる。すなわち、歪曲広角画像Sの上面に、半径rをもったドーム状の仮想球面H(半球)を配置したモデルを考えれば、正射影方式の魚眼レンズの光学的特性は、仮想球面H上の任意の点H(x,y,z)に対して法線方向から入射する入射光線L1は、Z軸に平行な入射光線L2として、XY平面上の点S(x,y)へ向かう振る舞いをする、と考えてよい。逆言すれば、図2において歪曲広角画像S上の点S(x,y)に位置する画素は、図1に示す入射光線L1の延長線上に存在する物体上の1点を示していることになる。いわば、歪曲広角画像Sは、半球状のドームHの内面に描かれた画像をXY平面上に正射影投影した投影像と言うことができる。   An actual fisheye lens is constituted by an optical system that combines a plurality of convex lenses and concave lenses, and its optical characteristics can be modeled by a virtual spherical surface H as shown in FIG. That is, considering a model in which a dome-shaped virtual spherical surface H (hemisphere) having a radius r is arranged on the upper surface of the distorted wide-angle image S, the optical characteristics of the orthographic fish-eye lens are arbitrary on the virtual spherical surface H. The incident light beam L1 incident from the normal direction to the point H (x, y, z) behaves toward the point S (x, y) on the XY plane as an incident light beam L2 parallel to the Z axis. You may think. In other words, the pixel located at the point S (x, y) on the distorted wide-angle image S in FIG. 2 indicates one point on the object existing on the extension line of the incident light beam L1 shown in FIG. become. In other words, the distorted wide-angle image S can be said to be a projection image obtained by orthogonally projecting an image drawn on the inner surface of the hemispherical dome H onto the XY plane.

もちろん、実際の魚眼レンズで生じている光学的現象は、複数の凸レンズや凹レンズによる屈折により、撮像対象となる物体の特定の点が、XY平面上の特定の点S(x,y)上に結像する現象ということになるが、画像変換処理などを行う上では、図1に示すような仮想球面Hを用いたモデルに置き換えた議論を行っても何ら支障はない。したがって、前掲の特許文献に開示されている画像変換処理でも、このようなモデルを前提とした手法が示されており、本発明における以下の説明においても、このようなモデルを前提とした説明を行うことにする。   Of course, an optical phenomenon occurring in an actual fisheye lens is that a specific point of an object to be imaged is connected to a specific point S (x, y) on the XY plane due to refraction by a plurality of convex lenses and concave lenses. Although this is an image phenomenon, there is no problem in performing an image conversion process or the like even if the argument is replaced with a model using a virtual spherical surface H as shown in FIG. Therefore, even in the image conversion processing disclosed in the above-mentioned patent document, a technique based on such a model is shown. In the following description of the present invention, description based on such a model is also given. To do.

本発明に係る装置では、歪曲広角画像S上の一部分を切り出して、平面正則画像に変換する処理が必要になる。たとえば、図2に示す歪曲広角画像Sを見た視聴者が、その左下に描かれている女性の画像を、歪みのない正しい画像で観察したいと考えたとしよう。このような場合、視聴者は、歪曲広角画像Sのどの部分を切り出して変換を行うべきかを指定する必要がある。図3は、図2に示す歪曲広角画像Sの一部分を切り出す処理の一例を示す平面図である。この例では、扇形をした切出領域Eが描かれており、この切出領域Eから歪曲広角画像Sの一部分が切り出され、平面正則画像に変換されることになる。   In the apparatus according to the present invention, it is necessary to cut out a part of the distorted wide-angle image S and convert it into a planar regular image. For example, suppose that a viewer who has viewed the distorted wide-angle image S shown in FIG. 2 wants to observe the image of the woman drawn in the lower left of the image with a correct image without distortion. In such a case, the viewer needs to specify which part of the distorted wide-angle image S should be cut out and converted. FIG. 3 is a plan view showing an example of processing for cutting out a part of the distorted wide-angle image S shown in FIG. In this example, a fan-shaped cutout area E is drawn, and a part of the distorted wide-angle image S is cut out from the cutout area E and converted into a planar regular image.

図4は、図3に示す歪曲広角画像Sの切出領域E内の部分画像に対して変換処理を施すことにより得られた平面正則画像Tを示す平面図である。ここでは、歪曲広角画像Sが、図3に示すとおり、二次元XY直交座標系上に定義された円形の画像であり、平面正則画像Tが、図4に示すとおり、二次元UV直交座標系上に定義された矩形の画像であるものとする。図2の実写例に示されているとおり、歪曲広角画像S上での女性の画像は歪みを生じているが、図4の実写例に示されているとおり、変換後の平面正則画像T上では歪みが修正されている。したがって、平面正則画像Tをディスプレイ画面上に表示すれば、視聴者に対して違和感のない画像提示が可能になる。   FIG. 4 is a plan view showing a planar regular image T obtained by performing conversion processing on the partial image in the cutout region E of the distorted wide-angle image S shown in FIG. Here, the distorted wide-angle image S is a circular image defined on a two-dimensional XY orthogonal coordinate system as shown in FIG. 3, and the planar regular image T is a two-dimensional UV orthogonal coordinate system as shown in FIG. Assume that it is a rectangular image defined above. As shown in the live-action example in FIG. 2, the female image on the distorted wide-angle image S is distorted. However, as shown in the real-shot example in FIG. So the distortion has been corrected. Therefore, if the planar regular image T is displayed on the display screen, it is possible to present an image with no discomfort to the viewer.

もちろん、視聴者の要望に応じて、図2に示す歪曲広角画像Sの任意の一部分を平面正則画像Tに変換することが可能であり、女性の画像の代わりに、樹木の画像や建物の画像についての平面正則画像Tを得ることもできる。結局、特定の平面正則画像Tを得るためには、歪曲広角画像Sのどの位置から、どの向きに、どの程度の大きさの部分画像を切り出すか、という切出条件を決めてやればよい。幾何学的には、この切出条件は、切出中心点P、切り出し向きを示すパラメータφ、倍率mという3つの条件によって構成される。   Of course, it is possible to convert any part of the distorted wide-angle image S shown in FIG. 2 into a planar regular image T according to the viewer's request, and instead of a female image, an image of a tree or an image of a building It is also possible to obtain a planar regular image T for. Eventually, in order to obtain a specific planar regular image T, it is only necessary to determine a cutting condition such as from which position of the distorted wide-angle image S to which direction and how large the partial image is cut out. Geometrically, this cutting condition is constituted by three conditions: a cutting center point P, a parameter φ indicating the cutting direction, and a magnification m.

図3に示す例の場合、点P(xp,yp)が切出中心点Pということになる。この切出中心点P(xp,yp)は、XY座標系上の座標値(xp,yp)によって定義することができる。図4に示すとおり、切出中心点Pは、平面正則画像T上では画像の中心点となり、UV座標系上では座標値(0,0)をもつ原点位置を占める。   In the example shown in FIG. 3, the point P (xp, yp) is the cut center point P. This cut-out center point P (xp, yp) can be defined by a coordinate value (xp, yp) on the XY coordinate system. As shown in FIG. 4, the cut-out center point P is an image center point on the planar regular image T, and occupies an origin position having a coordinate value (0, 0) on the UV coordinate system.

一方、パラメータφは、一般に「平面傾斜角」と呼ばれている角度を決めるパラメータであり、図3に示すとおり、切出方向線DとY軸(あるいはX軸)とのなす角度として定義される。この角度φは、平面正則画像Tの向きを決定するパラメータであり、図3の点Pの位置における切出方向線Dの微分方向が、図4の点Pの位置におけるU軸の方向に一致する。角度φの値を変えて、たとえば、切出方向線Dが点Pから原点Oに向かう方向を向くように設定すると、得られる平面正則画像Tは、図5に示すように、女性が横向きの画像になる。図4の画像も図5の画像も、同じ切出中心点P(xp,yp)を指定して得られる画像であるから、いずれも点Pを中心点とする画像であるが、切出向きを示すパラメータφが異なるため、女性の向きが異なる結果となっている。   On the other hand, the parameter φ is a parameter for determining an angle generally called a “planar inclination angle”, and is defined as an angle formed by the cutting direction line D and the Y axis (or X axis) as shown in FIG. The This angle φ is a parameter for determining the orientation of the planar regular image T, and the differential direction of the cut-out direction line D at the position of the point P in FIG. 3 coincides with the direction of the U axis at the position of the point P in FIG. To do. When the value of the angle φ is changed and, for example, the cutting direction line D is set so as to face the direction from the point P toward the origin O, the obtained planar regular image T is obtained as shown in FIG. Become an image. 4 and 5 are images obtained by designating the same cut-out center point P (xp, yp), so both are images having the point P as the center point, but the cut-out direction is determined. Since the parameter φ shown is different, the female orientation is different.

倍率mは、変換時のスケーリングファクターを決めるパラメータであり、上例の場合、mを大きくすれば、平面正則画像T上の女性の画像は拡大され、mを小さくすれば、平面正則画像T上の女性の画像は縮小される。別言すれば、倍率mは、図3に示す切出領域Eのサイズを決定するパラメータであり、mを大きくすると、切出領域Eの面積は小さくなり、mを小さくすると、切出領域Eの面積は大きくなる。図4に示す画像と図5に示す画像とを比べると、後者の方が女性の画像が拡大されていることがわかる。したがって、両者は、切出向きを示すパラメータφが異なるだけでなく、倍率mも異なっている(後者の方が倍率mが大きく設定されており、切出領域Eの面積は小さくなる)。   The magnification m is a parameter that determines a scaling factor at the time of conversion. In the above example, if m is increased, the image of a woman on the planar regular image T is enlarged, and if m is decreased, the image on the planar regular image T is increased. Women's images are reduced. In other words, the magnification m is a parameter for determining the size of the cutout area E shown in FIG. 3. When m is increased, the area of the cutout area E is reduced, and when m is reduced, the cutout area E is reduced. The area of becomes larger. Comparing the image shown in FIG. 4 with the image shown in FIG. 5, it can be seen that the image of the woman is enlarged in the latter case. Therefore, both have not only different parameters φ indicating the cutting direction but also different magnifications m (the latter has a larger magnification m and the area of the cutting region E is smaller).

平面正則画像Tを表示するディスプレイ装置の画面サイズは、通常、一定であるから、図4に示す画像Tも図5に示す画像Tも、横方向寸法a(水平方向の画素数)および縦方向寸法b(垂直方向の画素数)は同じになる。したがって、倍率mの設定によって、切出領域E内の画素の解像度に比べて、平面正則画像Tの解像度が高くなったり低くなったりする。前者の場合は、変換時に画素の補間が行われ、後者の場合は、変換時に画素の間引きが行われることになる。   Since the screen size of the display device that displays the planar regular image T is usually constant, both the image T shown in FIG. 4 and the image T shown in FIG. 5 have the horizontal dimension a (the number of pixels in the horizontal direction) and the vertical direction. The dimension b (number of pixels in the vertical direction) is the same. Therefore, the resolution of the planar regular image T becomes higher or lower than the resolution of the pixels in the cutout region E depending on the setting of the magnification m. In the former case, pixel interpolation is performed during conversion, and in the latter case, pixel thinning is performed during conversion.

以上の説明により、歪曲広角画像Sから特定の平面正則画像Tを得るためには、切出中心点P、切出向きを示すパラメータφ、倍率mという3つの切出条件を設定すればよいことがわかる。この3つの切出条件が定まると、幾何学的には、図3に示すXY平面上に定義された歪曲広角画像S上の点Si(xi,yi)に対して、図4に示すUV平面上に定義された平面正則画像T上の点Ti(ui,vi)が1対1に対応することになる。すなわち、互いに対応するXY座標系上の点Si(xi,yi)とUV座標系上の点Ti(ui,vi)との間の座標変換式が定義できる。   As described above, in order to obtain a specific planar regular image T from the distorted wide-angle image S, it is only necessary to set three cutting conditions, that is, the cutting center point P, the parameter φ indicating the cutting direction, and the magnification m. Recognize. When these three cut-out conditions are determined, geometrically, the UV plane shown in FIG. 4 with respect to the point Si (xi, yi) on the distorted wide-angle image S defined on the XY plane shown in FIG. The points Ti (ui, vi) on the planar regular image T defined above correspond one-to-one. That is, a coordinate conversion formula between the point Si (xi, yi) on the XY coordinate system and the point Ti (ui, vi) on the UV coordinate system can be defined.

歪曲広角画像Sから平面正則画像Tへの変換処理は、このような座標変換式に基づく演算処理ということになる。実際には、図4に示す平面正則画像Tを構成するa×b個の画素のそれぞれについて、その中心位置を示す座標(u,v)に対応するXY平面上での対応座標(x,y)を、上記座標変換式に基づいて求め、歪曲広角画像S上の対応座標(x,y)の位置にある画素を対応画素として、この対応画素の画素値を、平面正則画像T上の画素の画素値とする(必要に応じて、補間処理を行う)処理を行えばよい。図3に示す切出領域Eは、上記処理において対応画素となった画素群の分布領域として定まることになる(図では、便宜上、切出領域Eを扇型で示してあるが、実際には、より複雑な形状になる)。   The conversion process from the distorted wide-angle image S to the planar regular image T is an arithmetic process based on such a coordinate conversion formula. Actually, the corresponding coordinates (x, y) on the XY plane corresponding to the coordinates (u, v) indicating the center position of each of the a × b pixels constituting the planar regular image T shown in FIG. ) On the basis of the above coordinate conversion formula, the pixel at the position of the corresponding coordinate (x, y) on the distorted wide-angle image S is taken as the corresponding pixel, and the pixel value of this corresponding pixel is determined as the pixel on the planar regular image T. It is sufficient to perform a process of setting the pixel value to (if necessary, an interpolation process is performed). The cutout area E shown in FIG. 3 is determined as the distribution area of the pixel group that has become the corresponding pixel in the above processing (in the figure, for convenience, the cutout area E is shown in a fan shape, but in practice, , Become more complex shapes).

なお、図2に示す実写例は、図1に示すモデルにおけるXY平面が水平面に一致するようにカメラを配置して、街頭の景色を撮影したものであるが、もちろん、XY平面が鉛直面に一致するようにカメラを配置して撮影することも可能である。図6は、路面10、樹木20、ガードレール30からなる屋外の風景を、ビデオカメラ40に魚眼レンズ50を装着した撮影装置で撮影する状態を示す側面図であり、図7は、このような撮影によって得られた歪曲広角画像Sを示す平面図である。魚眼レンズ50のXY平面が鉛直面となっているため、原点Oに位置する被写体に着目すると、X軸が水平線方向、Y軸が鉛直線方向になっている。しかしながら、原点Oから離れるほど、画像の歪みは激しくなる。   In the actual shooting example shown in FIG. 2, the camera is arranged so that the XY plane in the model shown in FIG. 1 coincides with the horizontal plane and the street scene is photographed. Of course, the XY plane is on a vertical plane. It is also possible to shoot by arranging the cameras so that they match. FIG. 6 is a side view showing a state in which an outdoor landscape composed of the road surface 10, the tree 20, and the guard rail 30 is photographed with a photographing device in which a fisheye lens 50 is attached to the video camera 40. FIG. It is a top view which shows the obtained distortion wide angle image S. FIG. Since the XY plane of the fisheye lens 50 is a vertical plane, focusing on the subject located at the origin O, the X axis is in the horizontal direction and the Y axis is in the vertical direction. However, the further away from the origin O, the more severe the distortion of the image.

図1に示すXY平面をどのような向きに配置して撮影したとしても、幾何学的な光学現象に変わりはないので、この図7に示す歪曲広角画像Sについても、上述した方法と同様に、一部分を切り出して平面正則画像に変換することができる。図8は、図7に示す歪曲広角画像S上に、2通りの切出領域E1,E2を設定した例を示す平面図であり、図9は、この2通りの切出領域E1,E2に対応して得られる平面正則画像T1,T2を示す平面図である。図示のとおり、平面正則画像T1は、樹木20の部分の画像になり、平面正則画像T2は、ガードレール30の部分の画像になっている。   No matter what direction the XY plane shown in FIG. 1 is arranged and photographed, there is no change in the geometric optical phenomenon, so the distorted wide-angle image S shown in FIG. A part can be cut out and converted into a planar regular image. FIG. 8 is a plan view showing an example in which two cutout areas E1 and E2 are set on the distorted wide-angle image S shown in FIG. 7, and FIG. 9 shows the two cutout areas E1 and E2. It is a top view which shows the plane regular image T1, T2 obtained correspondingly. As illustrated, the planar regular image T1 is an image of the portion of the tree 20, and the planar regular image T2 is an image of the portion of the guardrail 30.

前述したとおり、実際には、切出領域E1,E2は、3つの切出条件を設定することにより定まる。すなわち、図8に示す切出領域E1は、切出中心点P1の座標と、切出向きφ1(図示の例では、切出方向線Dが右に向く方向)と、倍率m1とを指定することにより一義的に定まり、切出領域E2は、切出中心点P2の座標と、切出向きφ2(図示の例では、切出方向線Dが右やや斜め上に向く方向)と、倍率m2とを指定することにより一義的に定まる。この例の場合、倍率m2>m1であるため、切出領域E2の面積はE1の面積より小さくなっている。なお、切出領域E1,E2の形状は、実際には、曲線の輪郭で囲まれた複雑な形状になるが、図8では、便宜上、四角形の領域として示している。本願では、以後、説明の便宜上、個々の切出領域を四角形の領域として図示することにする。   As described above, in practice, the cutout areas E1 and E2 are determined by setting three cutout conditions. That is, the cutout area E1 shown in FIG. 8 specifies the coordinates of the cutout center point P1, the cutout direction φ1 (in the illustrated example, the direction in which the cutout direction line D faces right), and the magnification m1. The cut-out area E2 is determined by the coordinates of the cut-out center point P2, the cut-out direction φ2 (in the illustrated example, the direction in which the cut-off direction line D faces slightly upward to the right), and the magnification m2. It is uniquely determined by specifying. In the case of this example, since the magnification m2> m1, the area of the cutout region E2 is smaller than the area of E1. Note that the shape of the cutout areas E1 and E2 is actually a complicated shape surrounded by a curved outline, but in FIG. 8, for convenience, it is shown as a rectangular area. In the present application, hereinafter, for convenience of explanation, each cutout region is illustrated as a rectangular region.

これまで、1枚の静止画像としての歪曲広角画像Sと、その一部分を切り出して得られた平面正則画像Tとの関係を説明したが、これらの静止画像を時系列で順次提示すれば、動画の提示が可能になる。たとえば、魚眼レンズを装着したビデオカメラを用いて、1秒間に30フレームのレートで動画撮影を行えば、図7に示すような歪曲広角画像Sが1秒間に30枚分得られることになる。これら30枚の歪曲広角画像Sから、それぞれ平面正則画像Tを切り出して順次提示すれば、平面正則画像からなる1秒間の動画提示が可能になる。   So far, the relationship between the distorted wide-angle image S as one still image and the planar regular image T obtained by cutting out a part of the image has been described. If these still images are presented sequentially in time series, Can be presented. For example, if a video camera equipped with a fisheye lens is used to shoot moving images at a rate of 30 frames per second, 30 distorted wide-angle images S as shown in FIG. 7 can be obtained per second. If a plane regular image T is cut out from each of the 30 distorted wide-angle images S and presented sequentially, a moving image can be presented for 1 second composed of the plane regular image.

しかも、動画を再生中に、途中で切出条件を変更することも可能なので、同一の歪曲広角画像Sからなる動画データを用いたとしても、再生時に視聴者が自由に設定した切出条件によって、ディスプレイ画面に提示される平面正則画像からなる動画の内容は変わってくる。たとえば、動画の前半部分は、切出中心点P1を指定することにより、図9(a) に示すように、樹木20を表示させ、後半部分は、切出中心点P2を指定することにより、図9(b) に示すように、ガードレール30を表示させる、という動画の提示態様が可能になる。   In addition, since it is possible to change the cutting conditions during the reproduction of the moving image, even if the moving image data consisting of the same distorted wide-angle image S is used, the cutting conditions freely set by the viewer at the time of reproduction are used. The content of a moving image consisting of a planar regular image presented on the display screen changes. For example, in the first half of the video, by specifying the cut-out center point P1, as shown in FIG. 9A, the tree 20 is displayed, and in the second half, the cut-out center point P2 is specified. As shown in FIG. 9 (b), a moving image presentation mode in which the guardrail 30 is displayed becomes possible.

本発明の目的は、歪曲広角画像からなる動画について、その一部分を切り出して再生を行う際に、任意の追跡対象物を自動的に追跡する処理を行うことにある。たとえば、図10に示すように、ある時点t1において、歪曲広角画像S(1)に猫60が現れたとしよう。この場合、図示のとおり、猫60の上に切出中心点P(1)を設定し、切出向きφおよび倍率mを適当に設定すれば、猫60を含む切出領域E(1)を定めることができる。そして、続く時点t2,t3,... ,t9で猫が左方に移動し、時点t9において、図11に示すような歪曲広角画像S(9)が得られたものとしよう。この場合も、図示のとおり、猫60の上に切出中心点P(9)を設定し、切出向きφおよび倍率mを適当に設定すれば、猫60を含む切出領域E(9)を定めることができる。   An object of the present invention is to perform processing for automatically tracking an arbitrary tracking target when a part of a moving image composed of a distorted wide-angle image is cut out and reproduced. For example, assume that a cat 60 appears in the distorted wide-angle image S (1) at a certain time t1 as shown in FIG. In this case, as shown in the drawing, if the cut center point P (1) is set on the cat 60 and the cut direction φ and the magnification m are appropriately set, the cut region E (1) including the cat 60 is determined. be able to. Then, it is assumed that the cat moves to the left at the subsequent time points t2, t3,..., T9, and at the time point t9, a distorted wide-angle image S (9) as shown in FIG. Also in this case, as shown in the figure, if the cutting center point P (9) is set on the cat 60 and the cutting direction φ and the magnification m are appropriately set, the cutting region E (9) including the cat 60 is set. Can be determined.

図12(a) ,(b) は、このような切出条件に基づいて得られた平面正則画像T(1),T(9)を示す平面図である。平面正則画像T(1)は、図10に示す時点t1における歪曲広角画像S(1)内の切出領域E(1)に対応する画像であり、平面正則画像T(9)は、図11に示す時点t9における歪曲広角画像S(9)内の切出領域E(9)に対応する画像である。いずれの画像も、猫60を画面内に含む画像になっている。   FIGS. 12A and 12B are plan views showing the planar regular images T (1) and T (9) obtained based on such a cutting condition. The planar regular image T (1) is an image corresponding to the cutout region E (1) in the distorted wide-angle image S (1) at the time point t1 shown in FIG. 10, and the planar regular image T (9) is illustrated in FIG. Is an image corresponding to the cutout region E (9) in the distorted wide-angle image S (9) at the time point t9 shown in FIG. All the images are images including the cat 60 in the screen.

視聴者は、動画を再生しながら、切出中心点Pの位置を逐次変更する指示を与えるようにすれば、猫60が常に平面正則画像T内に表示されるような手動追跡操作を行うことができる。たとえば、時点t1において、図12(a) に示すような平面正則画像T(1)が得られるような切出条件を設定したものとしよう。この場合、切出条件が一定のままだと、時点t2,t3と時間が経過するにしたがって、猫60は画面の左側へと姿を消してゆくことになる。そこで、視聴者は、平面正則画像T上で切出中心点Pを左方向に移動させるような指示操作を行えば、画面枠により猫60を追っかけることができる。   If the viewer gives an instruction to sequentially change the position of the cut-out center point P while playing back a moving image, the viewer performs a manual tracking operation so that the cat 60 is always displayed in the planar regular image T. Can do. For example, assume that a cutting condition is set such that a planar regular image T (1) as shown in FIG. In this case, if the cutting condition remains constant, the cat 60 disappears to the left side of the screen as time elapses at time points t2 and t3. Therefore, if the viewer performs an instruction operation on the planar regular image T to move the cut center point P to the left, the viewer can follow the cat 60 with the screen frame.

しかしながら、猫60の行き先を正確に予測することは困難なため、このような手動による追跡操作は不正確であり、また、視聴者の労力負担も大きくならざるを得ない。本発明は、このような場合に、猫60を自動追跡することが可能な効率的な方法を提案するものである。本発明に係る動画提示装置を用いると、たとえば時点t1において、図10に示す猫60を追跡対象物として指定して追跡開始指示を与えると、時点t2,t3,... ,t9と経過するにしたがって、切出中心点の位置が、自動的にP(2),P(3),... ,P(9)と更新され、平面正則画像T上に追跡対象物である猫60が表示され続けることになる。以下、その具体的な仕組みを説明する。   However, since it is difficult to accurately predict the destination of the cat 60, such a manual tracking operation is inaccurate, and the burden on the viewer must be increased. The present invention proposes an efficient method capable of automatically tracking the cat 60 in such a case. When the moving picture presentation device according to the present invention is used, for example, when a cat 60 shown in FIG. 10 is designated as a tracking target and a tracking start instruction is given at time t1, time t2, t3,. Accordingly, the position of the cut-out center point is automatically updated to P (2), P (3),..., P (9), and the cat 60 that is the tracking object is displayed on the planar regular image T. It will continue to be displayed. The specific mechanism will be described below.

<<< §2. 本発明に係る動画提示装置の基本構成および動作 >>>
図13は、本発明の基本的実施形態に係る動画提示装置の構成を示すブロック図である。図において、画像入力部110は、魚眼レンズを装着したビデオカメラなどの広角撮影装置で撮影した動画画像を入力する構成要素である。前述したとおり、このような動画の画像は、時系列で与えられる複数の歪曲広角画像Sによって構成される。一方、画像出力部120は、入力した歪曲広角画像Sの一部分から切り出されて変換された平面正則画像Tを出力する構成要素である。この動画提示装置の根本的な機能は、画像入力部110によって入力した歪曲広角画像Sに基づいて、平面正則画像Tを作成し、これを出力することである。
<<< §2. Basic configuration and operation of moving picture presentation apparatus according to the present invention >>
FIG. 13 is a block diagram showing the configuration of the video presentation device according to the basic embodiment of the present invention. In the figure, an image input unit 110 is a component that inputs a moving image captured by a wide-angle imaging device such as a video camera equipped with a fisheye lens. As described above, such a moving image is composed of a plurality of distorted wide-angle images S given in time series. On the other hand, the image output unit 120 is a component that outputs a planar regular image T that is cut out from a part of the input distorted wide-angle image S and converted. The fundamental function of this moving picture presentation apparatus is to create a planar regular image T based on the distorted wide-angle image S input by the image input unit 110 and output it.

歪曲広角画像用メモリ130は、画像入力部110によって入力された歪曲広角画像Sを格納する構成要素である。§1で述べたとおり、この歪曲広角画像Sは、二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成される画像であり、魚眼レンズを用いた撮影を行った場合、円形の画像になる。一方、平面正則画像用メモリ140は、変換により得られた平面正則画像Tを格納する構成要素である。§1で述べたとおり、この平面正則画像Tは、二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される画像であり、ここに示す例の場合、通常のディスプレイ画面に表示するのに適した矩形の画像である。   The distorted wide-angle image memory 130 is a component that stores the distorted wide-angle image S input by the image input unit 110. As described in §1, the distorted wide-angle image S is an image composed of a collection of a large number of pixels arranged at the position indicated by the coordinates (x, y) on the two-dimensional XY coordinate system. When shooting using is performed, a circular image is obtained. On the other hand, the planar regular image memory 140 is a component that stores the planar regular image T obtained by the conversion. As described in §1, the planar regular image T is an image constituted by an aggregate of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system, In the case of the example shown in (2), it is a rectangular image suitable for displaying on a normal display screen.

ここでは、画像入力部110によって、1秒間に30フレームのレートで撮影された動画を構成する歪曲広角画像Sが入力された場合を例にとって、以下の説明を行うことにする。この場合、画像入力部110は、第1番目のフレーム、第2番目のフレーム、第3番目のフレーム、... というように、フレーム単位の時系列データとして順次与えられる第i番目(iは、時系列で順次増加する整数)のフレームの歪曲広角画像を、歪曲広角画像用メモリ130に順次格納する処理を行うことになる。   Here, the following description will be given by taking as an example a case where the image input unit 110 inputs a distorted wide-angle image S constituting a moving image shot at a rate of 30 frames per second. In this case, the image input unit 110 receives the i-th (i is the first frame, the second frame, the third frame,... In other words, the distorted wide-angle images of the integers that increase sequentially in time series are sequentially stored in the distorted wide-angle image memory 130.

歪曲広角画像用メモリ130は、画像入力部110から順次与えられるフレーム単位の歪曲広角画像Sを少なくとも1フレーム分だけ格納する機能を有している。歪曲広角画像用メモリ130に格納された歪曲広角画像Sは、処理が完了した後は消去することができる。同様に、平面正則画像用メモリ140は、変換後のフレーム単位の平面正則画像Tを少なくとも1フレーム分だけ格納する機能を有している。この平面正則画像用メモリ140に格納されている平面正則画像Tは、画像出力部120によって読み出され、外部の装置(ディスプレイ装置など)へと出力される。この平面正則画像用メモリ140に格納された平面正則画像Tも、処理が完了した後は消去することができる。   The distorted wide-angle image memory 130 has a function of storing at least one frame of the distorted wide-angle image S sequentially given from the image input unit 110 in units of frames. The distorted wide-angle image S stored in the distorted wide-angle image memory 130 can be deleted after the processing is completed. Similarly, the planar regular image memory 140 has a function of storing the planar regular image T in units of frames after conversion for at least one frame. The planar regular image T stored in the planar regular image memory 140 is read by the image output unit 120 and output to an external device (such as a display device). The planar regular image T stored in the planar regular image memory 140 can also be deleted after the processing is completed.

画像切出変換部150は、歪曲広角画像用メモリ130に格納されている第i番目のフレームの歪曲広角画像S(i)の一部分を切り出して、平面正則画像に変換し、これを第i番目のフレームの平面正則画像T(i)として平面正則画像用メモリ140に格納する処理を行う。§1で述べたとおり、歪曲広角画像Sの一部から平面正則画像Tを切り出す処理を行うためには、歪曲広角画像S上の1点である切出中心点Pと、画像の切り出し向きを示すパラメータφと、所定の倍率mとを含む切出条件を決定すればよい。   The image cutout conversion unit 150 cuts out a part of the distorted wide-angle image S (i) of the i-th frame stored in the distorted wide-angle image memory 130, converts it into a planar regular image, and converts this to the i-th frame. A process of storing the frame regular image T (i) in the plane regular image memory 140 is performed. As described in §1, in order to perform the process of cutting out the planar regular image T from a part of the distorted wide-angle image S, the cut-out center point P that is one point on the distorted wide-angle image S and the cut-out direction of the image are set. What is necessary is just to determine the cutting condition containing the parameter (phi) shown and the predetermined magnification m.

切出条件格納部170は、これら3つの切出条件P,φ,mを格納する構成要素である。画像切出変換部150は、この切出条件格納部170に格納されている切出条件に基づいて、歪曲広角画像用メモリ130に格納されている第i番目のフレームの歪曲広角画像S(i)の切出中心点Pで示される切り出し位置から、パラメータφで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して第i番目のフレームの平面正則画像T(i)として平面正則画像用メモリ140に格納する処理を行うことになる。   The cutting condition storage unit 170 is a component that stores these three cutting conditions P, φ, and m. The image cut-out conversion unit 150, based on the cut-out conditions stored in the cut-out condition storage unit 170, the distorted wide-angle image S (i) of the i-th frame stored in the distorted wide-angle image memory 130. ) From the cut-out position indicated by the cut-out central point P in the cut-out direction indicated by the parameter φ, cut out an image of the cut-out size indicated by the magnification m, and converts this to a planar regular image to convert the i-th frame. A process of storing the planar regular image T (i) in the planar regular image memory 140 is performed.

§1で述べたとおり、画像切出変換部150によって実行される歪曲広角画像Sから平面正則画像Tへの変換処理は、実際には、平面正則画像Tを構成する個々の画素のそれぞれについて、歪曲広角画像用メモリ130に格納されている歪曲広角画像S内の対応画素の画素値を与える処理ということができる。   As described in §1, the conversion process from the distorted wide-angle image S to the planar regular image T executed by the image cutout conversion unit 150 is actually performed for each individual pixel constituting the planar regular image T. It can be said that the pixel value of the corresponding pixel in the distorted wide-angle image S stored in the distorted wide-angle image memory 130 is given.

たとえば、平面正則画像Tを構成する特定の画素の画素値を得るには、当該特定の画素の中心位置を示す座標(u,v)を求め、当該座標(u,v)に対応するXY平面上での対応座標(x,y)を、所定の座標変換式に基づいて求める。そして、広角画像用メモリ130に格納されている歪曲広角画像S上の対応座標(x,y)の位置にある画素を対応画素として、この対応画素の画素値を得ればよい。画像切出変換部150は、平面正則画像用メモリ140内の当該特定の画素について、得られた画素値を書き込む処理を行うことになる。   For example, in order to obtain the pixel value of a specific pixel constituting the planar regular image T, coordinates (u, v) indicating the center position of the specific pixel are obtained, and the XY plane corresponding to the coordinates (u, v) is obtained. The corresponding coordinates (x, y) above are obtained based on a predetermined coordinate conversion formula. Then, the pixel value of the corresponding pixel may be obtained by setting the pixel at the position of the corresponding coordinate (x, y) on the distorted wide-angle image S stored in the wide-angle image memory 130 as the corresponding pixel. The image cut-out conversion unit 150 performs a process of writing the obtained pixel value for the specific pixel in the planar regular image memory 140.

もちろん、必要に応じて、対応座標(x,y)の近傍にある複数の対応画素を定め、これら複数の対応画素の画素値についての補間演算を行って、最終的な画素値を決定するようにすれば、より正確な画像変換を行うことができる。なお、UV平面上の任意の座標(u,v)から、これに対応するXY平面上の座標(x,y)を求める座標変換式は、前掲の各特許文献にも掲載されているとおり公知の式であり、ここでは詳細な説明は省略する。   Of course, if necessary, a plurality of corresponding pixels in the vicinity of the corresponding coordinates (x, y) are determined, and an interpolation operation is performed on the pixel values of the plurality of corresponding pixels to determine a final pixel value. By doing so, more accurate image conversion can be performed. Note that coordinate conversion formulas for obtaining coordinates (x, y) on the XY plane corresponding to arbitrary coordinates (u, v) on the UV plane are known as described in the above-mentioned patent documents. The detailed description is omitted here.

上述したとおり、画像切出変換部150は、切出条件格納部170に格納されている3つの切出条件P,φ,mに基づいて歪曲広角画像Sの一部分を切り出し、平面正則画像Tに変換する処理を行うことになるが、この3つの切出条件P,φ,mは、動画の提示を受ける視聴者の操作によって変更することができる。すなわち、視聴者が、指示入力部240に対して、切出条件を変更する切出条件変更指示を入力すると、切出条件手動変更部230は、当該指示に基づいて、切出条件格納部170に格納されている切出条件P,φ,mを変更する処理を行う。   As described above, the image cut-out conversion unit 150 cuts out a part of the distorted wide-angle image S based on the three cut-out conditions P, φ, and m stored in the cut-out condition storage unit 170 to form a planar regular image T. Although the process to convert is performed, these three extraction conditions P, (phi), m can be changed by operation of the viewer who receives presentation of a moving image. That is, when the viewer inputs a cutting condition change instruction for changing the cutting condition to the instruction input unit 240, the cutting condition manual changing unit 230, based on the instruction, the cutting condition storage unit 170. The process of changing the cutting conditions P, φ, m stored in is performed.

切出条件P,φ,mを変更する指示の具体的な入力方法については後述するが、視聴者は、切出中心点Pを変更することにより、歪曲広角画像S内に撮影されている任意の対象物を中心とする平面正則画像Tを表示させることができ、切り出し向きを示すパラメータφを変更することにより、当該平面正則画像Tを任意の向きに表示させることができ、倍率mを変更することにより、当該平面正則画像Tを任意の拡大率で表示させることができる。   Although a specific method for inputting an instruction to change the cutting conditions P, φ, m will be described later, the viewer can change the cutting center point P to change the arbitrary image captured in the distorted wide-angle image S. The plane regular image T centered on the target object can be displayed, and by changing the parameter φ indicating the cutout direction, the plane regular image T can be displayed in an arbitrary direction, and the magnification m is changed. By doing so, the planar regular image T can be displayed at an arbitrary magnification.

以上述べた各構成要素は、この動画提示装置の基本機能を実行する構成要素であり、広角撮影によって得られた動画を提示する機能をもった従来の一般的な動画提示装置が備えている公知の構成要素である。本発明の特徴は、このような公知の動画提示装置に、後述するいくつかの新たな構成要素を付加することにより、視聴者が指定した任意の追跡対象物についての自動追跡機能を実現した点にある。   Each component described above is a component that executes the basic function of this moving image presentation device, and is known in a conventional general moving image presentation device having a function of presenting a moving image obtained by wide-angle shooting. Is a component of The feature of the present invention is that an automatic tracking function for an arbitrary tracking target designated by the viewer is realized by adding some new components described later to such a known video presentation device. It is in.

すなわち、本発明に係る動画提示装置には、更に、近隣ブロック抽出部160、ブロック選択部180、基準色格納部190、基準色抽出部200、切出条件自動変更部210、自動追跡フラグ設定部220が付加されており、これらの構成要素により自動追跡機能が実現されることになる。   That is, the moving picture presentation device according to the present invention further includes a neighboring block extraction unit 160, a block selection unit 180, a reference color storage unit 190, a reference color extraction unit 200, an extraction condition automatic change unit 210, and an automatic tracking flag setting unit. 220 is added, and an automatic tracking function is realized by these components.

これら新たな構成要素の機能についての説明を行う前に、ここでは、指示入力部240のハードウエア構成部分となるコントローラ装置を説明しておく。図14は、このコントローラ装置300の一例を示す正面図である。実用上は、このコントローラ装置300は、パソコンやゲーム専用機などに接続して用いる汎用のゲーム用コントローラ装置をそのまま流用することが可能である。図示の接続ケーブル350は、パソコンやゲーム専用機などに接続するためのケーブルである。指示入力部240のソフトウエア構成部分となるプログラムに、当該ゲーム用コントローラ装置からの入力を受け付けるための専用インターフェイスを用意しておけば、視聴者は、当該ゲーム用コントローラ装置を用いて、この動画提示装置に対して所望の指示入力を行うことができる。   Before describing the functions of these new components, here, a controller device that is a hardware component of the instruction input unit 240 will be described. FIG. 14 is a front view showing an example of the controller device 300. In practice, the controller device 300 can be used as it is as a general-purpose game controller device that is used by being connected to a personal computer or a dedicated game machine. The illustrated connection cable 350 is a cable for connecting to a personal computer, a game dedicated machine, or the like. If a dedicated interface for accepting an input from the game controller device is prepared in a program that is a software component of the instruction input unit 240, the viewer can use the game controller device to use the moving image. A desired instruction can be input to the presentation device.

図示のとおり、このコントローラ装置300の正面に設けられた操作パネル部310には、多数のボタンが配置されている。画面移動ボタン320は、上述した切出中心点Pを変更する切出条件変更指示を入力するために用いるボタンである。図示の例では、画面移動ボタン320は、1枚の円形操作盤によって構成されているが、当該操作盤は、操作パネル部310上で上下左右に傾斜し、実質的に上下左右に配置された4個の画面移動ボタンとして機能する。すなわち、この円形操作盤の上部を押し込んで傾斜させると上方の画面移動ボタンが押されたものと認識され、下部を押し込んで傾斜させると下方の画面移動ボタンが押されたものと認識され、左部を押し込んで傾斜させると左方の画面移動ボタンが押されたものと認識され、右部を押し込んで傾斜させると右方の画面移動ボタンが押されたものと認識される。   As illustrated, a number of buttons are arranged on the operation panel unit 310 provided in front of the controller device 300. The screen movement button 320 is a button used to input a cutting condition change instruction for changing the above-described cutting center point P. In the illustrated example, the screen movement button 320 is configured by a single circular operation panel, but the operation panel is inclined vertically and horizontally on the operation panel unit 310 and is substantially vertically and horizontally disposed. Functions as four screen movement buttons. That is, when the upper part of the circular operation panel is pushed in and tilted, it is recognized that the upper screen movement button is pressed, and when the lower part is pushed and tilted, it is recognized that the lower screen movement button is pressed, When the part is pushed and tilted, it is recognized that the left screen movement button is pressed, and when the right part is pushed and tilted, it is recognized that the right screen movement button is pressed.

切出条件手動変更部230は、この4個の画面移動ボタンの操作に基づいて、平面正則画像T上での切り出し位置が上下左右に移動するように、切出条件格納部170に格納されている切出中心点Pを変更する処理を行う(具体的には、切出中心点Pの座標値xp,ypを変更する処理を行う)。   The cutting condition manual changing unit 230 is stored in the cutting condition storage unit 170 so that the cutting position on the planar regular image T moves up and down and left and right based on the operation of the four screen movement buttons. A process of changing the cut center point P is performed (specifically, a process of changing the coordinate values xp and yp of the cut center point P is performed).

ここでは、図15に示すように、第i番目のフレームの歪曲広角画像S(i)から、第i番目のフレームの平面正則画像T(i)が切り出された状態を考えてみよう。このような切出処理は、切出条件格納部170に格納されている切出条件P(i),φ(i),m(i)に基づいて行われる。すなわち、画像切出変換部150は、歪曲広角画像S(i)の切出中心点P(i)で示される切り出し位置から、パラメータφ(i)で示される切り出し向きに、倍率m(i)で示される切り出しサイズの画像を切り出し、これを平面正則画像T(i)に変換する処理を行う。こうして得られた平面正則画像T(i)の原点Gは、切出中心点P(i)に対応した点になる。   Here, as shown in FIG. 15, let us consider a state in which a planar regular image T (i) of the i-th frame is cut out from the distorted wide-angle image S (i) of the i-th frame. Such a cutting process is performed based on the cutting conditions P (i), φ (i), and m (i) stored in the cutting condition storage unit 170. That is, the image cut-out conversion unit 150 performs magnification m (i) from the cut-out position indicated by the cut-out center point P (i) of the distorted wide-angle image S (i) in the cut-out direction indicated by the parameter φ (i). The image of the cut-out size indicated by is cut out and converted into a planar regular image T (i). The origin G of the planar regular image T (i) obtained in this way is a point corresponding to the cut-out center point P (i).

図16は、このような切出処理によって得られた第i番目のフレームの平面正則画像T(i)の平面図である。いま、画像出力部120から、このような平面正則画像T(i)が出力され、ディスプレイ画面上に表示されている状態において、視聴者が、円形操作盤320を操作した場合を考えてみる。たとえば、視聴者が、円形操作盤320の上部を押し込むと、図16の上方空間が視野に入るように、切り出し位置がこの画面の上方に移動することになる。すなわち、第(i+1)番目のフレームの切り出しに用いられる切出中心点P(i+1)が、図15に示すXY平面上で原点Oの方向に移動した点になるように、切出条件格納部170に対する書き換えが行われる。   FIG. 16 is a plan view of a planar regular image T (i) of the i-th frame obtained by such a cutting process. Consider a case where the viewer operates the circular operation panel 320 in a state where such a planar regular image T (i) is output from the image output unit 120 and displayed on the display screen. For example, when the viewer pushes in on the upper part of the circular operation panel 320, the cutout position moves upward on this screen so that the upper space in FIG. That is, the extraction condition storage unit so that the extraction center point P (i + 1) used for the extraction of the (i + 1) th frame becomes a point moved in the direction of the origin O on the XY plane shown in FIG. 170 is rewritten.

同様に、図16に示すような平面正則画像T(i)が表示されている状態において、視聴者が、円形操作盤320の右部を押し込むと、図16の右方空間が視野に入るように、切り出し位置がこの画面の右方に移動することになる。すなわち、第(i+1)番目のフレームの切り出しに用いられる切出中心点P(i+1)が、図15に示す切出中心点P(i)の位置から、円周方向に沿って反時計回りに移動した点になるように、切出条件格納部170に対する書き換えが行われる。その結果、第(i+1)番目のフレームの平面正則画像T(i+1)では、猫60がより画面の中央寄りの位置にくる。   Similarly, in the state where the planar regular image T (i) as shown in FIG. 16 is displayed, when the viewer pushes in the right part of the circular operation panel 320, the right space of FIG. In addition, the cutout position moves to the right side of this screen. That is, the cutting center point P (i + 1) used for cutting out the (i + 1) th frame is counterclockwise along the circumferential direction from the position of the cutting center point P (i) shown in FIG. The clipping condition storage unit 170 is rewritten so as to be the moved point. As a result, in the planar regular image T (i + 1) of the (i + 1) th frame, the cat 60 is positioned closer to the center of the screen.

このように、視聴者は、ディスプレイ画面上に表示されている平面正則画像Tからなる動画を見ながら、画面移動ボタン320を上下左右に傾斜させることにより、視線方向を所望の方向に移動させる操作(切出中心点Pを手動で変更する操作)を行うことができる。したがって、§1で述べたとおり、常に猫60がディスプレイ画面に表示されるように、手動による追跡操作を行うことができる。   In this way, the viewer can move the line-of-sight direction in a desired direction by tilting the screen movement button 320 up, down, left, and right while watching the moving image composed of the planar regular image T displayed on the display screen. (Operation for manually changing the cutting center point P) can be performed. Therefore, as described in §1, a manual tracking operation can be performed so that the cat 60 is always displayed on the display screen.

また、視聴者は、倍率向き変更ボタン330を操作することにより、ディスプレイ画面に表示される平面正則画像Tの倍率および向きを変更することができる。具体的には、倍率向き変更ボタン330は、図示のとおり4つの個別ボタンから構成されている。ここで、倍率変更ボタン331は、倍率mを増加させるためのボタンであり、当該ボタンを押し続けると、切出条件手動変更部230は、切出条件格納部170に格納されている倍率mを徐々に増加させる処理を行う。また、倍率変更ボタン332は、倍率mを減少させるためのボタンであり、当該ボタンを押し続けると、切出条件手動変更部230は、切出条件格納部170に格納されている倍率mを徐々に減少させる処理を行う。これらのボタンにより、視聴者は、ディスプレイ画面に表示される平面正則画像Tに対して、ズームインおよびズームアウトの操作を行うことができる。   Further, the viewer can change the magnification and direction of the planar regular image T displayed on the display screen by operating the magnification direction change button 330. Specifically, the magnification direction change button 330 is composed of four individual buttons as illustrated. Here, the magnification change button 331 is a button for increasing the magnification m. When the button is continuously pressed, the extraction condition manual change unit 230 sets the magnification m stored in the extraction condition storage unit 170. A process of gradually increasing is performed. The magnification change button 332 is a button for decreasing the magnification m. When the button is continuously pressed, the cutting condition manual changing unit 230 gradually increases the magnification m stored in the cutting condition storage unit 170. The process to decrease is performed. With these buttons, the viewer can perform zoom-in and zoom-out operations on the planar regular image T displayed on the display screen.

一方、向き変更ボタン333および334は、画像の切り出し向きを示すパラメータφを増減するためのボタンであり、これらのボタンを押し続けると、パラメータφの値が徐々に増加もしくは減少する。これらのボタンにより、視聴者は、ディスプレイ画面に表示される平面正則画像Tを時計回りもしくは反時計回りに回転させる操作を行うことができる。   On the other hand, the direction change buttons 333 and 334 are buttons for increasing or decreasing the parameter φ indicating the image cut-out direction. When these buttons are kept pressed, the value of the parameter φ gradually increases or decreases. With these buttons, the viewer can perform an operation of rotating the planar regular image T displayed on the display screen clockwise or counterclockwise.

要するに、切出条件手動変更部230は、倍率変更ボタン331,332もしくは向き変更ボタン333,334が押された場合に、切出条件変更指示が入力されたものとして、切出条件格納部170に格納されている倍率mもしくはパラメータφを変更する処理を行うことになる。   In short, the cutting condition manual changing unit 230 assumes that the cutting condition changing instruction has been input when the magnification changing buttons 331 and 332 or the direction changing buttons 333 and 334 are pressed, and the cutting condition storing unit 170 Processing to change the stored magnification m or parameter φ is performed.

これに対して、図14における操作パネル部310の右方に配置されたカーソル移動ボタン340は、本発明の特徴となる自動追跡機能を利用するためのボタンである。図示のとおり、このカーソル移動ボタン340は、上方向移動ボタン341、下方向移動ボタン342、左方向移動ボタン343、右方向移動ボタン344、そして追跡開始指示ボタン345という5つの個別ボタンによって構成されている。ここに示す実施形態では、これら5つの個別ボタンのいずれかを押すと、図17に示すように、ディスプレイの表示画面上の中央に十字カーソルCが表示される構成になっている。この十字カーソルCは、追跡対象物を指定するために利用される。   On the other hand, a cursor movement button 340 arranged on the right side of the operation panel unit 310 in FIG. 14 is a button for using the automatic tracking function that is a feature of the present invention. As shown in the figure, this cursor movement button 340 is composed of five individual buttons: an upward movement button 341, a downward movement button 342, a leftward movement button 343, a rightward movement button 344, and a tracking start instruction button 345. Yes. In the embodiment shown here, when one of these five individual buttons is pressed, a cross cursor C is displayed at the center on the display screen of the display as shown in FIG. The crosshair cursor C is used to specify a tracking target.

視聴者は、上下左右に配置された個別のカーソル移動ボタン341〜344を押すことにより、この十字カーソルCを上下左右に移動させることができ、ディスプレイ画面上の動画を見ながら、任意の対象物の上にカーソルCを移動させることができる。具体的には、指示入力部240のソフトウエア構成部分として、この4個のカーソル移動ボタン341〜344の操作に基づいて上下左右に移動するカーソルの位置を画像出力部120に対して指示するカーソル位置指示手段として機能するプログラムを用意しておき、画像出力部120に、平面正則画像T上のカーソル位置指示手段によって指示された位置に、十字カーソルCを重畳した画像を出力する機能をもたせておけばよい。   The viewer can move the cross cursor C up, down, left, and right by pressing individual cursor movement buttons 341 to 344 arranged in the up, down, left, and right directions. The cursor C can be moved on the top. Specifically, as a software component part of the instruction input unit 240, a cursor that instructs the image output unit 120 on the position of the cursor that moves up, down, left, and right based on the operation of the four cursor movement buttons 341-344. A program that functions as a position instruction unit is prepared, and the image output unit 120 is provided with a function of outputting an image in which the cross cursor C is superimposed on the position specified by the cursor position instruction unit on the planar regular image T. Just keep it.

ここでは、視聴者が、画面上に現れた猫60に興味をもち、画面枠がこの猫60を自動的に追跡し、常に画面上に猫が表示されるようにしたいと考えたものとしよう。この場合、視聴者は、猫60を追跡対象物として指定して、追跡開始指示を与える操作を行えばよい。ここに示す実施形態の場合、カーソル移動ボタン341〜344を押しながら、十字カーソルCを追跡対象物となる猫60の上にもってゆき、追跡開始指示ボタン345を押す操作を行えばよい。   Here, it is assumed that the viewer is interested in the cat 60 appearing on the screen, and the screen frame automatically tracks the cat 60 so that the cat is always displayed on the screen. . In this case, the viewer may specify the cat 60 as the tracking target and perform an operation for giving a tracking start instruction. In the case of the embodiment shown here, an operation of pressing the tracking start instruction button 345 by moving the cross cursor C onto the cat 60 as the tracking target while pressing the cursor movement buttons 341 to 344 may be performed.

図18は、図17に示す十字カーソルCを、追跡対象物となる猫60上に移動させた状態を示す平面図である。視聴者が、この状態で、追跡開始指示ボタン345を押すと、自動追跡処理が開始する。ここでは、この追跡開始指示ボタン345が押された時点の十字カーソルCの位置を、追跡開始点Qと呼ぶことにする。また、追跡開始指示ボタン345が押されたときに表示されていた画像(図18の画像)が、第i番目のフレームの平面正則画像T(i)であったものとしよう。この場合、指示入力部240は、特定の平面正則画像T(i)上の追跡開始点Qの位置を含む追跡開始指示を入力したことになる。   FIG. 18 is a plan view showing a state in which the cross cursor C shown in FIG. 17 is moved onto the cat 60 to be tracked. When the viewer presses the tracking start instruction button 345 in this state, the automatic tracking process starts. Here, the position of the cross cursor C when the tracking start instruction button 345 is pressed is referred to as a tracking start point Q. Also, assume that the image (image in FIG. 18) displayed when the tracking start instruction button 345 is pressed is the planar regular image T (i) of the i-th frame. In this case, the instruction input unit 240 has input a tracking start instruction including the position of the tracking start point Q on the specific planar regular image T (i).

図13に示す動画提示装置は、このような追跡開始指示の入力を受けた後、第(i+1)番目のフレームの歪曲広角画像S(i+1)が到来すると、切出条件格納部170内に格納されていた切出中心点P(i)を、新たな切出中心点P(i+1)に更新する処理を行う機能を有している。その結果、第(i+1)番目のフレームの歪曲広角画像S(i+1)に対する切出処理は、新たな切出中心点P(i+1)に基づいて行われることになり、図19に示すように、猫60が画面の中心に位置する第(i+1)番目のフレームの平面正則画像T(i+1)が得られることになる。   When the moving image presentation apparatus shown in FIG. 13 receives such a tracking start instruction, when the distorted wide-angle image S (i + 1) of the (i + 1) th frame arrives, it is stored in the extraction condition storage unit 170. It has a function of performing a process of updating the cut-out center point P (i) that has been performed to a new cut-out center point P (i + 1). As a result, the extraction process for the distorted wide-angle image S (i + 1) of the (i + 1) th frame is performed based on the new extraction center point P (i + 1), as shown in FIG. A planar regular image T (i + 1) of the (i + 1) th frame in which the cat 60 is located at the center of the screen is obtained.

以後、視聴者が追跡終了指示を入力するまで(あるいは、後述するように、自動追跡処理に失敗するまで)、自動追跡モードが維持され、常に、追跡対象物たる猫60が画面の中心にくるように、切出中心点Pが自動的に更新されることになる。すなわち、第(i+2)番目のフレームの歪曲広角画像S(i+2)に対する切出処理が、新たな切出中心点P(i+2)に基づいて行われ、平面正則画像T(i+2)が得られ、続いて、第(i+3)番目のフレームの歪曲広角画像S(i+3)に対する切出処理が、新たな切出中心点P(i+3)に基づいて行われ、平面正則画像T(i+3)が得られ、... といった具合である。   Thereafter, until the viewer inputs a tracking end instruction (or until the automatic tracking process fails as described later), the automatic tracking mode is maintained, and the cat 60 as the tracking target is always at the center of the screen. Thus, the cutting center point P is automatically updated. That is, the cutting process for the distorted wide-angle image S (i + 2) of the (i + 2) th frame is performed based on the new cutting center point P (i + 2), and the planar regular image T (i + 2) is obtained. Subsequently, the cutting process for the distorted wide-angle image S (i + 3) of the (i + 3) th frame is performed based on the new cutting center point P (i + 3), and the planar regular image T (i + 3) is obtained. , ... and so on.

図13に示す動画提示装置における自動追跡フラグ設定部220は、この自動追跡モードのON/OFF状態を切り替える機能を果たす。すなわち、自動追跡フラグ設定部220は、ON/OFF状態を示すフラグを内蔵しており、指示入力部240が、特定の平面正則画像上の追跡開始点Qの位置を含む追跡開始指示を入力したときに、自動追跡フラグをONに切り替える自動追跡開始処理を実行し、指示入力部240が、追跡終了指示を入力したときに、自動追跡フラグをOFFに切り替える自動追跡終了処理を実行する。   The automatic tracking flag setting unit 220 in the video presentation device shown in FIG. 13 has a function of switching the ON / OFF state of this automatic tracking mode. That is, the automatic tracking flag setting unit 220 has a built-in flag indicating the ON / OFF state, and the instruction input unit 240 has input a tracking start instruction including the position of the tracking start point Q on a specific planar regular image. Sometimes, an automatic tracking start process for switching the automatic tracking flag to ON is executed, and when the instruction input unit 240 inputs a tracking end instruction, an automatic tracking end process for switching the automatic tracking flag to OFF is executed.

指示入力部240のハードウエア構成部分として、図14に示すコントローラ装置300を利用した場合、自動追跡フラグ設定部220は、追跡開始指示ボタン345が押されたときに、その時点の十字カーソルCの位置を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行することになる。   When the controller device 300 shown in FIG. 14 is used as a hardware component of the instruction input unit 240, when the tracking start instruction button 345 is pressed, the automatic tracking flag setting unit 220 displays the crosshair cursor C at that time. Assuming that a tracking start instruction having the position as the tracking start point Q is input, the automatic tracking start process is executed.

なお、自動追跡フラグ設定部220が、追跡開始指示を入力したときに実行する自動追跡開始処理には、自動追跡フラグをONに切り替える処理とともに、もう1つ重要な処理が含まれている。すなわち、自動追跡フラグ設定部220は、特定の平面正則画像上の追跡開始点Qの位置を含む追跡開始指示を入力したときに、自動追跡フラグをONに切り替えるとともに、当該追跡開始点Qに対応する二次元XY座標系上の点を新たな切出中心点Pとして、切出条件格納部170に格納されている切出中心点Pを更新する処理を実行する。   Note that the automatic tracking start process executed when the automatic tracking flag setting unit 220 inputs a tracking start instruction includes another important process in addition to the process of switching the automatic tracking flag to ON. In other words, when the tracking start instruction including the position of the tracking start point Q on the specific planar regular image is input, the automatic tracking flag setting unit 220 switches the automatic tracking flag to ON and corresponds to the tracking start point Q. The process of updating the cutting center point P stored in the cutting condition storage unit 170 is executed with the point on the two-dimensional XY coordinate system to be set as a new cutting center point P.

たとえば、図18に示す例のように、猫30の上の追跡開始点Qを指定した追跡開始指示が入力された場合、自動追跡フラグ設定部220は、自動追跡フラグをONに切り替えるとともに、この追跡開始点Qに対応する二次元XY座標系上の点を新たな切出中心点P(i)newとして、切出条件格納部170に格納されている切出中心点(ここでは、P(i)oldと呼ぶ)を更新する処理を実行する(すなわち、P(i)oldは、P(i)newに書き換えられる)。図13に示すブロック図において、自動追跡フラグ設定部220から切出条件格納部170に向かう、文字Pが付された矢印は、このような切出中心点Pの更新処理を示している。なお、上記P(i)newは、図19に示すP(i+1)とは異なる点である。   For example, as in the example shown in FIG. 18, when a tracking start instruction specifying the tracking start point Q on the cat 30 is input, the automatic tracking flag setting unit 220 switches the automatic tracking flag to ON, A point on the two-dimensional XY coordinate system corresponding to the tracking start point Q is set as a new cut center point P (i) new, and the cut center point (here, P ( i) (referred to as old) is updated (that is, P (i) old is rewritten to P (i) new). In the block diagram shown in FIG. 13, an arrow with a letter P directed from the automatic tracking flag setting unit 220 to the extraction condition storage unit 170 indicates such update processing of the extraction center point P. Note that P (i) new is different from P (i + 1) shown in FIG.

ここでは、理解を容易にするために、P(i)old、P(i)new、P(i+1)の相違を、図20および図21を参照しながら簡単に説明しておく。いま、画像入力部110によって入力された第i番目のフレームの歪曲広角画像S(i)が歪曲広角画像用メモリ130に格納されている状態において、画像切出変換部150による切出処理が行われ、第i番目のフレームの平面正則画像T(i)が得られたものとしよう。図20の左右に示す2つの画像は、このような第i番目のフレームについての歪曲広角画像S(i)および平面正則画像T(i)を示している。このとき、切出条件格納部170に格納されている切出条件は、図示のとおり、P(i)old,φ(i),m(i)である。もっとも、P(i)oldの記号「old」の部分は、後に生成されるP(i)newと区別するために付したものであり、切出処理の実行時には、単にP(i)と表しておいてもかまわない。   Here, in order to facilitate understanding, differences between P (i) old, P (i) new, and P (i + 1) will be briefly described with reference to FIGS. Now, in a state where the distorted wide-angle image S (i) of the i-th frame input by the image input unit 110 is stored in the distorted wide-angle image memory 130, the clipping process by the image clipping conversion unit 150 is performed. Suppose that the i-th frame regular image T (i) is obtained. The two images shown on the left and right in FIG. 20 show the distorted wide-angle image S (i) and the planar regular image T (i) for the i-th frame. At this time, the cutting conditions stored in the cutting condition storage unit 170 are P (i) old, φ (i), and m (i) as illustrated. However, the part of the symbol “old” of P (i) old is given to distinguish it from P (i) new that is generated later, and is simply represented as P (i) when the cutting process is executed. You can leave it.

図20に示す切出領域E(i)は、歪曲広角画像S(i)内の切出中心点P(i)oldで示される切り出し位置から、パラメータφ(i)で示される切り出し向きに、倍率m(i)で示されるサイズの画像を切り出すための領域であり、この切出領域E(i)から切り出した画像を変換することにより、平面正則画像T(i)が得られることになる。そして、この平面正則画像T(i)の中心点(UV座標系の原点G)は、歪曲広角画像S(i)上の切出中心点P(i)oldに対応する。   The cut-out area E (i) shown in FIG. 20 extends from the cut-out position indicated by the cut-out center point P (i) old in the distorted wide-angle image S (i) to the cut-out direction indicated by the parameter φ (i). This is an area for cutting out an image having a size indicated by the magnification m (i), and a plane regular image T (i) is obtained by converting the image cut out from the cut-out area E (i). . The center point (the origin G of the UV coordinate system) of the planar regular image T (i) corresponds to the cut center point P (i) old on the distorted wide-angle image S (i).

ここで、視聴者が、この平面正則画像T(i)上の追跡開始点Qを指定して、追跡開始指示を入力したものとしよう(具体的には、図18に示すように、十字カーソルCを追跡開始点Qの位置へもってゆき、追跡開始指示ボタン345を押す操作を行えばよい)。すると、自動追跡フラグ設定部220は、自動追跡フラグをONに切り替えるとともに、追跡開始点Qに対応する二次元XY座標系上の点を新たな切出中心点P(i)newとする更新処理を実行する。すなわち、図20に示す平面正則画像T(i)上では、P(i)new(追跡開始点Q)は、P(i)old(原点G)の右下に位置する点であり、歪曲広角画像S(i)上でも、P(i)newは、P(i)oldより若干ずれた点(猫60が居る位置)になる。   Here, it is assumed that the viewer designates the tracking start point Q on the planar regular image T (i) and inputs a tracking start instruction (specifically, as shown in FIG. 18, a cross cursor It is only necessary to move C to the position of the tracking start point Q and press the tracking start instruction button 345). Then, the automatic tracking flag setting unit 220 switches the automatic tracking flag to ON and updates the point on the two-dimensional XY coordinate system corresponding to the tracking start point Q as a new cut-out center point P (i) new. Execute. That is, on the planar regular image T (i) shown in FIG. 20, P (i) new (tracking start point Q) is a point located at the lower right of P (i) old (origin G), and has a distorted wide angle. Also on the image S (i), P (i) new is a point slightly shifted from P (i) old (position where the cat 60 is present).

図20のT(i)と図21のT(i+1)とを比べてみると、第(i+1)番目のフレームの切出条件である切出中心点P(i+1)の位置を、P(i)newと同じ位置に設定してもよいように思えるかもしれないが、実際には、猫が静止していない限り、歪曲広角画像S(i)上の猫の位置と、歪曲広角画像S(i+1)上の猫の位置とは異なるので、P(i)newの位置をそのまま切出中心点P(i+1)の位置とすることは好ましくない。第(i+1)番目のフレームにとっては、P(i)newは、猫の過去の位置(1フレーム前の位置)を示す座標にすぎない。   Comparing T (i) in FIG. 20 with T (i + 1) in FIG. 21, the position of the cutting center point P (i + 1), which is the cutting condition of the (i + 1) th frame, is represented by P (i ) It may seem that it may be set at the same position as new, but actually, unless the cat is stationary, the position of the cat on the distorted wide-angle image S (i) and the distorted wide-angle image S ( Since it is different from the position of the cat on i + 1), it is not preferable to set the position of P (i) new as the position of the cut center point P (i + 1) as it is. For the (i + 1) th frame, P (i) new is only a coordinate indicating the past position of the cat (position one frame before).

そこで、本発明では、P(i)newと、平面正則画像T(i)とを利用して、第(i+1)番目のフレームの歪曲広角画像S(i+1)上での猫の新しい位置P(i+1)を予測し、これを切出条件格納部170内の新たな切出中心点Pとして更新する処理を行うのである。なお、本発明では、切出向きを示すパラメータφおよび倍率mについての自動変更は行わないので、これらについては、前述した手動変更操作が行われない限り、変更は行われない。すなわち、手動変更操作が行われない限り、パラメータφ(i+1)はφ(i)と同じであり、倍率m(i+1)はm(i)と同じである。図21に示す切出条件格納部170内の切出条件P(i+1),φ(i+1),m(i+1)は、このようにして決定されたものである。もちろん、必要に応じて、φやmも自動更新する運用を採用してもかまわない。たとえば、パラメータφに関しては、常に景色の水平面がU軸に平行となるように自動調整するようにしてもよい。   Therefore, in the present invention, by using P (i) new and the planar regular image T (i), a new position P (of the cat on the distorted wide-angle image S (i + 1) of the (i + 1) th frame is used. i + 1) is predicted, and this is updated as a new cutting center point P in the cutting condition storage unit 170. In the present invention, since the parameter φ indicating the cutting direction and the magnification m are not automatically changed, these are not changed unless the manual change operation described above is performed. That is, unless a manual change operation is performed, the parameter φ (i + 1) is the same as φ (i), and the magnification m (i + 1) is the same as m (i). The cutting conditions P (i + 1), φ (i + 1), m (i + 1) in the cutting condition storage unit 170 shown in FIG. 21 are determined in this way. Of course, if necessary, an operation of automatically updating φ and m may be adopted. For example, the parameter φ may be automatically adjusted so that the landscape horizontal plane is always parallel to the U axis.

画像切出変換部150が、第(i+1)番目のフレームに関する切出処理を行う際には、これら切出条件P(i+1),φ(i+1),m(i+1)を用いることになる。図21の左右に示す2つの画像は、このような第(i+1)番目のフレームについての歪曲広角画像S(i+1)および平面正則画像T(i+1)を示している。ここで、切出領域E(i+1)は、歪曲広角画像S(i+1)内の切出中心点P(i+1)で示される切り出し位置から、パラメータφ(i+1)で示される切り出し向きに、倍率m(i+1)で示されるサイズの画像を切り出すための領域であり、この切出領域E(i+1)から切り出した画像を変換することにより、平面正則画像T(i+1)が得られることになる。この平面正則画像T(i+1)の中心点(UV座標系の原点G)は、歪曲広角画像S(i+1)上の切出中心点P(i+1)に対応する。   When the image cropping conversion unit 150 performs the cropping process on the (i + 1) th frame, these cropping conditions P (i + 1), φ (i + 1), and m (i + 1) are used. The two images shown on the left and right in FIG. 21 show the distorted wide-angle image S (i + 1) and the planar regular image T (i + 1) for the (i + 1) th frame. Here, the cut-out area E (i + 1) has a magnification m from the cut-out position indicated by the cut-out center point P (i + 1) in the distorted wide-angle image S (i + 1) to the cut-out direction indicated by the parameter φ (i + 1). This is an area for cutting out an image of the size indicated by (i + 1), and a plane regular image T (i + 1) is obtained by converting the image cut out from this cutout area E (i + 1). The center point (origin point G of the UV coordinate system) of the planar regular image T (i + 1) corresponds to the cut center point P (i + 1) on the distorted wide-angle image S (i + 1).

図21に破線で示す切出領域E(i)は、図20に示す第i番目のフレームについての切出領域である。新たな切出中心点P(i+1)が正しい位置、すなわち、歪曲広角画像S(i+1)上の正しい猫の位置を示していれば、図示のとおり、猫が中心に表示された平面正則画像T(i+1)が得られることになる。   A cutout area E (i) indicated by a broken line in FIG. 21 is a cutout area for the i-th frame shown in FIG. If the new cut-out center point P (i + 1) indicates the correct position, that is, the correct cat position on the distorted wide-angle image S (i + 1), as shown in the drawing, the planar regular image T displayed with the cat at the center. (I + 1) is obtained.

図13に示す近隣ブロック抽出部160、ブロック選択部180、基準色格納部190、基準色抽出部200、切出条件自動変更部210は、自動追跡フラグ設定部220内の自動追跡フラグがONの場合(すなわち、自動追跡モードがONになっている場合)に機能する構成要素であり、第i番目のフレームについてのP(i)newと、T(i)とを利用して、第(i+1)番目のフレームについての切出中心点P(i+1)を求める処理を実行するための構成要素である。図13において、自動追跡フラグ設定部220から他のブロックへ向かう、文字ONが付された矢印は、自動追跡フラグがONであることを示す信号を示している。以下、これら各構成要素の基本機能を説明する。   In the neighboring block extraction unit 160, the block selection unit 180, the reference color storage unit 190, the reference color extraction unit 200, and the extraction condition automatic change unit 210 illustrated in FIG. 13, the automatic tracking flag in the automatic tracking flag setting unit 220 is ON. (I + 1) by using P (i) new and T (i) for the i-th frame. ) A component for executing a process for obtaining a cut-out center point P (i + 1) for the second frame. In FIG. 13, an arrow with a character ON from the automatic tracking flag setting unit 220 to another block indicates a signal indicating that the automatic tracking flag is ON. Hereinafter, basic functions of these components will be described.

まず、基準色抽出部200は、自動追跡フラグがONの場合に、平面正則画像用メモリ140に格納されている第i番目のフレームの平面正則画像T(i)に基づいて、切出条件格納部170に格納されている「第i番目のフレームについての切出中心点P」に位置する追跡対象物の色を代表する第i番目のフレームの基準色α(i)を、iが更新するごとに逐次抽出する処理を行う。   First, when the automatic tracking flag is ON, the reference color extraction unit 200 stores the extraction condition based on the planar regular image T (i) of the i-th frame stored in the planar regular image memory 140. I updates the reference color α (i) of the i-th frame representing the color of the tracking object located at “the cut-out center point P for the i-th frame” stored in the unit 170. A sequential extraction process is performed every time.

たとえば、図20に示すように、第i番目のフレームの平面正則画像T(i)上で、視聴者が追跡対象物となる猫の上に追跡開始点Qを指定して追跡開始指示を入力した場合を考える。この追跡開始指示を受けた自動追跡フラグ設定部220は、自動追跡フラグをONに設定するとともに、追跡開始点Qを新たな切出中心点P(i)newとする書き換え処理を、切出条件格納部170に対して行う。また、自動追跡フラグがONであることを示す信号を基準色抽出部200に伝達する。   For example, as shown in FIG. 20, on the planar regular image T (i) of the i-th frame, the viewer designates the tracking start point Q on the cat to be tracked and inputs the tracking start instruction. Consider the case. Upon receiving this tracking start instruction, the automatic tracking flag setting unit 220 sets the automatic tracking flag to ON and performs a rewriting process with the tracking start point Q as a new cutting center point P (i) new. This is performed for the storage unit 170. In addition, a signal indicating that the automatic tracking flag is ON is transmitted to the reference color extraction unit 200.

これを受けた基準色抽出部200は、切出条件格納部170に格納されている書き換え後の切出中心点P(i)newを読み出し、平面正則画像用メモリ140に格納されている第i番目のフレームの平面正則画像T(i)について、切出中心点P(i)newに位置する追跡対象物(この例の場合は、猫)の色を代表する代表色を、第i番目のフレームの基準色α(i)として抽出する処理を行うことになる。基準色αは、たとえば、RGB表色系で表現した場合に、(R,G,B)という三原色の画素値の組み合わせになり、1つの原色を8ビットの画素値で表した場合、基準色αは、24ビットのデータによって構成される。   Receiving this, the reference color extraction unit 200 reads the rewritten cut center point P (i) new stored in the cut condition storage unit 170, and stores the i th stored in the planar regular image memory 140. For the planar regular image T (i) of the th frame, a representative color representative of the color of the tracking object (in this example, cat) located at the cut-out center point P (i) new is set to the i th A process of extracting the frame as the reference color α (i) is performed. The reference color α is, for example, a combination of pixel values of three primary colors (R, G, B) when expressed in the RGB color system. When one primary color is expressed by an 8-bit pixel value, the reference color α is composed of 24-bit data.

なお、追跡対象物の代表色を決定するアルゴリズムは、切出中心点P(i)newの近傍の画素の画素値に基づいて、切出中心点P(i)newの近傍を代表する色を決定できるアルゴリズムであれば、どのようなアルゴリズムを用いてもかまわない。具体的な処理アルゴリズムの例については、§3で詳述する。   Note that the algorithm for determining the representative color of the tracking object is based on the pixel values of the pixels in the vicinity of the cut center point P (i) new, and the colors representing the vicinity of the cut center point P (i) new are selected. Any algorithm that can be determined may be used. A specific example of the processing algorithm will be described in detail in §3.

基準色格納部190は、基準色抽出部200によって抽出された最新の基準色を格納する機能をもった構成要素である。上述したとおり、基準色抽出部200は、自動追跡フラグがONの場合に、フレーム番号iが更新するごとに基準色を逐次抽出する処理を行うことになる。したがって、基準色格納部190には、α(i),α(i+1),α(i+2),... とフレームが更新するたびに(ここに示す例の場合、1/30秒おきに)新たな基準色αが与えられることになるが、基準色格納部190は、常に最新の基準色αを格納してゆけばよい。   The reference color storage unit 190 is a component having a function of storing the latest reference color extracted by the reference color extraction unit 200. As described above, when the automatic tracking flag is ON, the reference color extraction unit 200 performs a process of sequentially extracting the reference color every time the frame number i is updated. Therefore, the reference color storage unit 190 stores α (i), α (i + 1), α (i + 2),... And the frame every time (in the example shown here, every 1/30 seconds). Although a new reference color α is given, the reference color storage unit 190 may always store the latest reference color α.

このように、追跡対象物の色を代表する基準色αを、フレーム単位で更新する理由は、同一の物理的対象物であっても、撮影画像上では、色が変化する可能性があるためである。たとえば、「茶色の毛並みの猫」を追跡対象物とした場合、当該猫の実際の色は短時間で変化するものではないが、背景の照明環境は時間とともに変化してゆく可能性がある。また、撮影に用いたビデオカメラにホワイトバランスを自動調整する機能が備わっていた場合、背景の色相が変わると、撮影画像上では、猫の色も変化することになる。このような事情から、本発明では、追跡対象物の代表色を示す基準色αの値も、フレームごとに逐次更新させるようにしている。   As described above, the reason why the reference color α representing the color of the tracked object is updated in units of frames is that the color may change on the captured image even for the same physical object. It is. For example, when “brown-haired cat” is set as a tracking target, the actual color of the cat does not change in a short time, but the background lighting environment may change with time. If the video camera used for shooting has a function for automatically adjusting the white balance, the color of the cat also changes on the captured image when the background hue changes. Under such circumstances, in the present invention, the value of the reference color α indicating the representative color of the tracking object is also updated sequentially for each frame.

こうして、第i番目のフレームに関する基準色α(i)が得られたら、続いて、歪曲広角画像用メモリ130内に格納されている第(i+1)番目のフレームの歪曲広角画像S(i+1)の中から、基準色α(i)を手掛かりに、追跡対象物を探索する処理を行うことになる。ただ、基準色α(i)だけを手掛かりに探索を行うことは困難であるため、本発明では、第i番目のフレームの切出中心点P(i)newの位置(猫の過去の位置)も手掛かりに加えて探索を行う。しかも、歪曲広角画像S(i+1)を複数のブロックに分割し、候補となるブロックを絞り込む処理を行う。   When the reference color α (i) relating to the i-th frame is thus obtained, subsequently, the distorted wide-angle image S (i + 1) of the (i + 1) -th frame stored in the distorted wide-angle image memory 130 is subsequently obtained. From among them, the process of searching for the tracking object is performed using the reference color α (i) as a clue. However, since it is difficult to search using only the reference color α (i) as a clue, in the present invention, the position of the cut-out center point P (i) new of the i-th frame (the past position of the cat) In addition to clues, search. Moreover, the distorted wide-angle image S (i + 1) is divided into a plurality of blocks, and processing for narrowing down candidate blocks is performed.

近隣ブロック抽出部160は、この切出中心点P(i)newを手掛かりに、追跡対象物が存在すると推定されるいくつかの近隣ブロックを抽出する機能を果たす。すなわち、近隣ブロック抽出部160は、自動追跡フラグがONの場合に、歪曲広角画像用メモリ130に格納されている第(i+1)番目のフレームの歪曲広角画像S(i+1)を複数のブロックに分割し、切出条件格納部170に格納されている第i番目のフレームについての切出中心点P(i)newの近隣の複数のブロックを近隣ブロックとして抽出する処理を行う。ここで述べる実施形態の場合、§3で詳述するとおり、切出中心点P(i)newを含むブロックを含めて合計9個の近隣ブロックB1〜B9を候補として抽出している。   The neighboring block extraction unit 160 performs a function of extracting several neighboring blocks that are estimated to have the tracking target, using the extracted center point P (i) new as a clue. That is, when the automatic tracking flag is ON, the neighboring block extraction unit 160 divides the distorted wide-angle image S (i + 1) of the (i + 1) th frame stored in the distorted wide-angle image memory 130 into a plurality of blocks. Then, a process of extracting a plurality of blocks near the extraction center point P (i) new for the i-th frame stored in the extraction condition storage unit 170 as a neighboring block is performed. In the case of the embodiment described here, as will be described in detail in §3, a total of nine neighboring blocks B1 to B9 are extracted as candidates including the block including the cut center point P (i) new.

こうして近隣ブロック抽出部160によって抽出された複数の近隣ブロックは、第i番目のフレームにおいて位置P(i)newに居た追跡対象物(猫60)が移動する可能性のある領域を示すものになる。このように、候補となるブロックを近隣ブロックのみに絞り込む方法を採れば、演算処理負担を軽減するとともに、遠隔ブロックにおける基準色α(i)に類似する色をもった領域が追跡対象物として誤検出されることを防ぐことができる。   The plurality of neighboring blocks extracted by the neighboring block extraction unit 160 in this way indicate an area where the tracking target (cat 60) located at the position P (i) new in the i-th frame may move. Become. In this way, if the method of narrowing down candidate blocks to only neighboring blocks is adopted, the calculation processing burden is reduced, and an area having a color similar to the reference color α (i) in the remote block is erroneously detected as a tracking target. It can be prevented from being detected.

一方、ブロック選択部180は、自動追跡フラグがONの場合に、近隣ブロック抽出部160によって抽出された複数の近隣ブロックのそれぞれについて、ブロック内に含まれる個々の画素のうち、基準色格納部190に格納されている第i番目のフレームの基準色α(i)に対して所定の近似範囲に入る色をもつ画素の数を示す近似色画素数を求める処理を行い、この近似色画素数が最大となるブロックを選択する機能をもった構成要素である。   On the other hand, when the automatic tracking flag is ON, the block selection unit 180 includes, for each of the plurality of neighboring blocks extracted by the neighboring block extraction unit 160, the reference color storage unit 190 among the individual pixels included in the block. The number of approximate color pixels indicating the number of pixels having a color that falls within a predetermined approximate range with respect to the reference color α (i) of the i-th frame stored in is calculated. This is a component with the function of selecting the largest block.

上例の場合、近隣ブロック抽出部160は、合計9個の近隣ブロックB1〜B9を抽出することになるが、この9個のブロックのそれぞれについて、基準色α(i)に対して所定の近似範囲に入る色をもつ画素の数がカウントされる。たとえば、「茶色の毛並みの猫」を追跡対象物とすることにより、基準色α(i)が「特定の茶色」を示していた場合、ブロック選択部180は、個々の近隣ブロックのそれぞれについて、「特定の茶色」に近似する色をもつ画素の数を調べてカウントすることになる。そして、9個の近隣ブロックB1〜B9の中から、近似色画素数が最大となるブロックBmaxが選択される。こうして選択されたブロックBmaxは、追跡対象物(すなわち、「茶色の毛並みの猫」)が存在する可能性が最も高いブロックということになる。   In the case of the above example, the neighboring block extraction unit 160 extracts a total of nine neighboring blocks B1 to B9, and each of these nine blocks has a predetermined approximation to the reference color α (i). The number of pixels with colors that fall within the range is counted. For example, when the reference color α (i) indicates “specific brown” by setting “brown-haired cat” as the tracking target, the block selecting unit 180 performs the following operation on each of the neighboring blocks. The number of pixels having a color similar to “specific brown” is checked and counted. Then, the block Bmax having the maximum number of approximate color pixels is selected from the nine neighboring blocks B1 to B9. The block Bmax selected in this way is the block most likely to have a tracking target (ie, “brown cat”).

切出条件自動変更部210は、ブロック選択部180によって選択されたブロックBmaxの中に追跡対象物が存在する、との前提で、このブロックBmax内を探索して、追跡対象物の位置を特定する処理を行う構成要素である。こうして特定された位置は、第(i+1)番目のフレームの歪曲広角画像S(i+1)上で、追跡対象物(猫)が存在すると推定される位置であり、第(i+1)番目の切出中心点P(i+1)として利用されることになる。そこで、切出条件自動変更部210は、求めた切出中心点P(i+1)によって、切出条件格納部170内の切出中心点Pを書き換える処理を行う。   The extraction condition automatic changing unit 210 searches the block Bmax and identifies the position of the tracking target on the assumption that the tracking target exists in the block Bmax selected by the block selection unit 180. It is a component that performs the processing. The position specified in this way is a position where the tracking target object (cat) is estimated to exist on the distorted wide-angle image S (i + 1) of the (i + 1) th frame, and the (i + 1) th cut center. It will be used as the point P (i + 1). Therefore, the cutting condition automatic changing unit 210 performs a process of rewriting the cutting center point P in the cutting condition storage unit 170 with the obtained cutting center point P (i + 1).

ここで、切出条件自動変更部210が行う具体的な処理は、自動追跡フラグがONの場合に、ブロック選択部180が選択したブロックBmax内に互いに位置が異なる複数の候補領域を定義し、これら複数の候補領域の中から、基準色格納部190に格納されている第i番目の基準色α(i)に最も適合する色をもつ候補領域を最適候補領域として選択し、選択した最適候補領域の中心点を第(i+1)番目のフレームについての切出中心点P(i+1)として、切出条件格納部150に格納されている切出中心点Pを示す情報を更新する処理と言うことができる。このような処理の具体的なアルゴリズムについては、§3で詳述する。   Here, the specific process performed by the extraction condition automatic changing unit 210 is to define a plurality of candidate regions having different positions in the block Bmax selected by the block selection unit 180 when the automatic tracking flag is ON, A candidate area having a color that best matches the i-th reference color α (i) stored in the reference color storage unit 190 is selected as the optimal candidate area from the plurality of candidate areas, and the selected optimal candidate This is a process of updating the information indicating the extraction center point P stored in the extraction condition storage unit 150 with the center point of the region as the extraction center point P (i + 1) for the (i + 1) th frame. Can do. A specific algorithm for such processing will be described in detail in Section 3.

こうして、切出条件格納部170内に、第(i+1)番目のフレームについての切出中心点P(i+1)が書き込まれると、画像切出変換部150は、この切出中心点P(i+1)、パラメータφ(i+1)、倍率m(i+1)を用いて、図21に示すように、歪曲広角画像用メモリ130内に格納されている歪曲広角画像S(i+1)内の切出領域E(i+1)から画像を切り出し、これを平面正則画像に変換し、第(i+1)番目のフレームの平面正則画像T(i+1)として、平面正則画像用メモリ140に格納する処理を行うことになる。自動追跡処理が正しく行われていれば、平面正則画像T(i+1)の中心(原点G)には、追跡対象物(猫)が配置されることになる。   Thus, when the extraction center point P (i + 1) for the (i + 1) -th frame is written into the extraction condition storage unit 170, the image extraction conversion unit 150 causes the extraction center point P (i + 1) to be written. , Using the parameter φ (i + 1) and the magnification m (i + 1), as shown in FIG. 21, the cut-out area E (i + 1) in the distorted wide-angle image S (i + 1) stored in the distorted wide-angle image memory 130 ) Is converted into a planar regular image and stored in the planar regular image memory 140 as a planar regular image T (i + 1) of the (i + 1) th frame. If the automatic tracking process is correctly performed, the tracking target object (cat) is arranged at the center (origin G) of the planar regular image T (i + 1).

以上、第i番目のフレームから第(i+1)番目のフレームへの変遷に関して、本発明に係る自動追跡処理を説明したが、以後、自動追跡終了の指示が与えられるまで、iを更新しながら同様のプロセスが繰り返されることになる。すなわち、自動追跡フラグがONの状態であれば、基準色抽出部200は、図21に示す平面正則画像T(i+1)に基づいて、切出中心点P(i+1)に位置する追跡対象物の色を代表する第(i+1)番目のフレームの基準色α(i+1)を抽出し、基準色格納部190が、これを最新の基準色として格納する。   The automatic tracking process according to the present invention has been described above with respect to the transition from the i-th frame to the (i + 1) -th frame. Thereafter, the same operation is performed while updating i until an automatic tracking end instruction is given. This process will be repeated. That is, if the automatic tracking flag is in the ON state, the reference color extracting unit 200 detects the tracking object located at the cut-out center point P (i + 1) based on the planar regular image T (i + 1) shown in FIG. The reference color α (i + 1) of the (i + 1) th frame representing the color is extracted, and the reference color storage unit 190 stores it as the latest reference color.

一方、近隣ブロック抽出部160は、第(i+2)番目のフレームの歪曲広角画像S(i+2)から、切出中心点P(i+1)の近傍のブロックを抽出し、ブロック選択部180は、これら複数の近隣ブロックの中から、基準色α(i+1)に対して所定の近似範囲に入る色をもつ画素の数が最大のブロックを選択し、切出条件自動変更部210は、選択されたブロックの中から基準色α(i+1)に最も適合する色をもつ最適候補領域を特定し、その中心点を新たな切出中心点P(i+2)として、切出条件格納部170に書き込む処理を行う。   On the other hand, the neighboring block extraction unit 160 extracts blocks near the cut-out center point P (i + 1) from the distorted wide-angle image S (i + 2) of the (i + 2) th frame, and the block selection unit 180 Among the neighboring blocks, the block having the largest number of pixels having a color that falls within a predetermined approximate range with respect to the reference color α (i + 1) is selected, and the extraction condition automatic changing unit 210 selects the selected block. An optimum candidate region having a color most suitable for the reference color α (i + 1) is identified from the inside, and a process of writing the center point as a new cut center point P (i + 2) in the cut condition storage unit 170 is performed.

なお、上記説明では、第i番目の切出中心点として、P(i)oldとP(i)newとの2通りの点を用いた説明を行ったが、これは視聴者が第i番目の平面正則画像T(i)上で、追跡開始点Qの位置を含む追跡開始指示を入力したため、第i番目のフレームに関して、切出中心点がP(i)oldからP(i)new(=Q)に変更されたためである。このように、自動追跡モードに切り替わった当初のフレームに関しては、同一フレーム中で切出中心点の変更が行われるが、それ以後は、1つのフレームに対して1つの切出中心点が定義されることになる。従って、自動追跡モードの途中の任意の第i番目のフレームの切出中心点に関しては、P(i)oldとP(i)newとの区別はない。   In the above description, the description has been made using two points, P (i) old and P (i) new, as the i-th cutting center point. Since the tracking start instruction including the position of the tracking start point Q is input on the planar regular image T (i), the cut center point is changed from P (i) old to P (i) new ( = Q). As described above, with respect to the initial frame switched to the automatic tracking mode, the cutting center point is changed in the same frame, but thereafter, one cutting center point is defined for one frame. Will be. Therefore, there is no distinction between P (i) old and P (i) new for the cut-out center point of any i-th frame in the automatic tracking mode.

以上、本発明の基本的な実施形態に係る動画提示装置の基本構成および動作を、図13のブロック図を参照しながら説明したが、この動画提示装置は、コンピュータに専用のプログラムを組み込むことにより構成することができる。その場合、画像入力部110,画像出力部120,指示入力部240は、当該コンピュータ用の入出力機器および入出力インターフェイスによって構成することができ、歪曲広角画像用メモリ130,平面正則画像用メモリ140,切出条件格納部170,基準色格納部190は、当該コンピュータ用の記憶装置によって構成することができ、その余の構成要素は、当該コンピュータに組み込まれたブログラムとこのプログラムを実行するコンピュータ内の各手段によって構成することができる。   The basic configuration and operation of the moving picture presentation apparatus according to the basic embodiment of the present invention have been described above with reference to the block diagram of FIG. 13. This moving picture presentation apparatus incorporates a dedicated program into a computer. Can be configured. In this case, the image input unit 110, the image output unit 120, and the instruction input unit 240 can be configured by the input / output device and the input / output interface for the computer, and the distorted wide-angle image memory 130 and the planar regular image memory 140 are configured. The cutting condition storage unit 170 and the reference color storage unit 190 can be configured by a storage device for the computer, and the remaining components are a program built in the computer and a computer that executes the program. It can comprise by each means within.

最後に、上記実施形態に係る動画提示装置の特徴を簡単にまとめておく。この装置が採用する自動追跡アルゴリズムの大きな特徴は、第i番目のフレームの画像上で追跡対象物を代表する基準色αを抽出し、この基準色αを手掛かりに、第(i+1)番目のフレームの画像上で追跡対象物の位置を推定する追跡手法を採る点である。基準色αを手掛かりとする探索方法を採るため、追跡対象物の形状に関する解析は不要になる。   Finally, the features of the video presentation device according to the above embodiment are briefly summarized. A major feature of the automatic tracking algorithm employed by this apparatus is that a reference color α representing the tracking object is extracted from the image of the i-th frame, and the (i + 1) -th frame is used as a clue to this reference color α. The tracking method is to estimate the position of the tracking object on the image. Since a search method using the reference color α as a clue is adopted, analysis regarding the shape of the tracking target is not required.

前述したとおり、魚眼レンズなどを利用して撮影した歪曲広角画像S上では、あらゆる対象物の形状が歪んた状態になり、しかもその歪み具合は、撮影画像上の位置によって変化する。このため、物理的に同一の追跡対象物であっても、撮影画像上の位置によって形状が様々に変化し、追跡対象物をその形状の特徴から把握することは困難である。本発明では、追跡対象物を形状で特定するわけではなく、基準色αという特徴量に基づいて特定する手法を採るため、歪曲広角画像S上で追跡対象物の形状変化が生じても正確な追跡が可能になる。   As described above, on the distorted wide-angle image S photographed using a fisheye lens or the like, the shape of any object is distorted, and the degree of distortion varies depending on the position on the photographed image. For this reason, even if the tracking target is physically the same, the shape changes variously depending on the position on the captured image, and it is difficult to grasp the tracking target from the characteristics of the shape. In the present invention, since the tracking target is not specified by the shape but is specified based on the feature amount of the reference color α, even if the tracking target changes in shape on the distorted wide-angle image S, the tracking target is accurate. Tracking becomes possible.

ただ、基準色αという手掛かりだけで追跡を行うと、たまたま類似した色をもつ別な対象物が存在した場合に誤認混同を生じることになる。そこで、本発明では、歪曲広角画像Sを複数のブロックに分割し、前のフレームにおける追跡対象物の位置(切出中心点P)の近傍にあるブロックを抽出し、これら近傍ブロックの中から、追跡対象物を含んでいる可能性の最も高いブロックを選択する、という手法を採る。追跡対象物の移動速度が極めて速い場合を除いて、次のフレームにおける追跡対象物の位置は、現フレームと同じブロック内か、せいぜい隣接する近隣ブロック内と推定されるので、上記手法は多くの場合に非常に有効である。   However, if tracking is performed only with the clue of the reference color α, misunderstanding confusion occurs when another object having a similar color happens to exist. Therefore, in the present invention, the distorted wide-angle image S is divided into a plurality of blocks, and a block in the vicinity of the position of the tracking target object (cutout center point P) in the previous frame is extracted. A method of selecting a block having the highest possibility of containing the tracking target is adopted. Unless the tracked object moves very fast, the position of the tracked object in the next frame is estimated to be in the same block as the current frame, or at most in the neighboring block, so there are many methods described above. Very effective in cases.

このような手法を採ることにより、遠隔のブロックに、たまたま類似した色をもつ別な対象物が存在した場合であっても、当該別な対象物を追跡対象物と誤認する問題を解決することができる。また、近隣ブロックのみを候補とすることにより、演算負担を軽減するメリットも得られる。更に、近隣ブロックの中から1つのブロックを選択する際に、基準色αに対して所定の近似範囲に入る色をもつ画素の数が最大となるブロックを選択するアルゴリズムを採用するため、演算負担が比較的低い処理によってブロック選択を行うことができる。   By using this method, even if another object with a similar color happens to exist in a remote block, the problem of misidentifying the other object as a tracking object is solved. Can do. In addition, by using only neighboring blocks as candidates, an advantage of reducing the calculation burden can be obtained. Furthermore, when selecting one block from neighboring blocks, an algorithm is employed to select a block having the maximum number of pixels having a color that falls within a predetermined approximate range with respect to the reference color α, so that the computation burden is increased. The block selection can be performed by a process having a relatively low value.

一方、1つのブロックが選択された後は、当該選択ブロック内を探索して、追跡対象物が存在すると推定される位置を特定する必要がある。そのために、本発明では、ブロック内に複数の候補領域を定義し、基準色αに最も適合する色をもつ候補領域を最適候補領域として選択する処理を行う。当該処理は、選択ブロックに対してのみ行えばよいので、それほど大きな演算負担にはならない。   On the other hand, after one block is selected, it is necessary to search within the selected block and specify a position where the tracking target is estimated to exist. For this purpose, in the present invention, a plurality of candidate areas are defined in the block, and a candidate area having a color that best matches the reference color α is selected as the optimum candidate area. Since this process only needs to be performed on the selected block, the calculation load is not so great.

このように、本発明に係る動画提示装置では、広角撮影により得られた歪曲広角画像からなる動画について、その一部分を切り出して再生を行う際に、任意の追跡対象物を自動的に追跡する処理を、より単純なプロセスで正確に実行することが可能である。   As described above, in the video presentation device according to the present invention, when a video composed of a distorted wide-angle image obtained by wide-angle shooting is cut out and reproduced, a process for automatically tracking an arbitrary tracking target is performed. Can be performed accurately with a simpler process.

<<< §3. 具体的な処理アルゴリズム >>>
ここでは、§2で述べた本発明の基本的実施形態に係る動画提示装置において実行される個々の処理についての具体的なアルゴリズムを例示する。
<<< §3. Specific processing algorithm >>
Here, a specific algorithm for each process executed in the video presentation device according to the basic embodiment of the present invention described in §2 is exemplified.

<3−1. 基準色抽出部200の処理アルゴリズム>
図13に示す基準色抽出部200は、自動追跡フラグがONの場合に、平面正則画像用メモリ140に格納されている平面正則画像Tに基づいて、切出中心点Pに位置する追跡対象物の代表色(基準色α)を抽出する機能を果たす。ここでは、基準色抽出部200が、この基準色αを抽出する具体的な処理アルゴリズムのいくつかの例を以下に示すことにする。
<3-1. Processing Algorithm of Standard Color Extraction Unit 200>
When the automatic tracking flag is ON, the reference color extraction unit 200 illustrated in FIG. 13 is based on the planar regular image T stored in the planar regular image memory 140, and the tracking target located at the cut-out center point P is detected. The representative color (reference color α) is extracted. Here, some examples of specific processing algorithms in which the reference color extraction unit 200 extracts the reference color α will be described below.

最も単純な処理アルゴリズムは、切出中心点Pを含む1画素の色を基準色αとしてそのまま抽出する方法である。たとえば、図20に示すように、平面正則画像T(i)上で追跡開始点Qが指定された場合、当該追跡開始点Qが切出中心点P(i)newとなるが、この切出中心点P(i)newを含む画素の色を、そのまま基準色α(i)として抽出すればよい。視聴者は、追跡対象物として「茶色の毛並みの猫」を指定するために、図20に示すような追跡開始点Qを指定する操作を行ったわけであるから、当該追跡開始点Qを含む画素の色を基準色αとする方法は、追跡対象物の代表色を決める最も単純な方法である。   The simplest processing algorithm is a method of extracting the color of one pixel including the cut-out center point P as it is as the reference color α. For example, as shown in FIG. 20, when the tracking start point Q is designated on the planar regular image T (i), the tracking start point Q becomes the cut center point P (i) new. The color of the pixel including the center point P (i) new may be extracted as the reference color α (i) as it is. Since the viewer has performed the operation of specifying the tracking start point Q as shown in FIG. 20 in order to specify “brown-haired cat” as the tracking target, the pixel including the tracking start point Q is displayed. Is the simplest method for determining the representative color of the tracking object.

以後のフレームでは、図21に示す例のように、切出中心点P(i+1)は平面正則画像T(i+1)の原点Gに一致するので、原点Gを含む画素の色が、そのまま基準色α(i+1)として抽出されることになる。   In the subsequent frames, as in the example shown in FIG. 21, the cut-out center point P (i + 1) coincides with the origin G of the planar regular image T (i + 1), so that the color of the pixel including the origin G remains as the reference color. It will be extracted as α (i + 1).

ただ、実際には、追跡対象物はある程度の大きさをもった物体であり、複数の画素の集合体領域を構成する。そして、視聴者は、当該集合体領域の全体を追跡対象物として認識しており、その1点を追跡開始点Qとして指定する操作を行うことになる。したがって、視聴者がたまたま追跡開始点Qとして指定した1点に位置する画素の色が、必ずしも追跡対象物全体を代表する色になっているとは限らない。たとえば、追跡対象物が「茶色の毛並みの猫」である場合、茶色にも様々なバリエーションがあるため、追跡開始点Qとして指定された1点の茶色が、必ずしも猫全体を代表する茶色になっているとは限らない。   However, actually, the tracking target is an object having a certain size, and constitutes an aggregate region of a plurality of pixels. Then, the viewer recognizes the entire aggregate area as a tracking target, and performs an operation of designating one point as the tracking start point Q. Accordingly, the color of the pixel located at one point that the viewer happens to specify as the tracking start point Q is not necessarily a color that represents the entire tracking target. For example, if the target to be tracked is a “brown cat”, since there are various variations in brown, one brown color designated as the tracking start point Q is not necessarily representative of the entire cat. Not necessarily.

このような点を考慮すると、実用上は、切出中心点P(追跡開始点Q)の近傍に位置する複数の画素の色の平均値を基準色αとして抽出するアルゴリズムを採るのが好ましい。すなわち、基準色抽出部200は、切出中心点Pを含む中心画素およびその周囲の周辺画素からなる近傍領域を定義し、この近傍領域内の画素の色の平均値を基準色αとして抽出すればよい。   In consideration of such points, in practice, it is preferable to adopt an algorithm that extracts an average value of colors of a plurality of pixels located near the cut-out center point P (tracking start point Q) as the reference color α. That is, the reference color extraction unit 200 defines a neighboring area including a central pixel including the cut-out center point P and surrounding peripheral pixels, and an average value of the colors of the pixels in the neighboring area is extracted as the reference color α. That's fine.

図22は、このようなアルゴリズムに基づいて、図20に示す状態で追跡開始指示が与えられたときの基準色抽出処理の実例を示す平面図である。視聴者が、猫60の腹部近傍の1点を追跡開始点Qとして指定したとすると、この追跡開始点Qが、新たな切出中心点P(i)newになる。そこで、この切出中心点P(i)newを含む画素を中心画素とし、当該中心画素とその周囲の周辺画素からなる近傍領域Nを定義する。図示の例では、中心画素を含む7×7画素からなる近傍領域Nを定義している。そして、この近傍領域N内の全49画素の色の平均値を基準色αとして抽出すればよい。このような方法を採れば、追跡対象物全体を代表する色としてより適切な色を基準色αとして抽出することができる。   FIG. 22 is a plan view showing an example of the reference color extraction process when a tracking start instruction is given in the state shown in FIG. 20 based on such an algorithm. If the viewer designates one point near the abdomen of the cat 60 as the tracking start point Q, this tracking start point Q becomes a new cut-out center point P (i) new. Therefore, a pixel including the cut-out center point P (i) new is defined as a central pixel, and a neighborhood region N composed of the central pixel and surrounding peripheral pixels is defined. In the example shown in the figure, a neighborhood region N composed of 7 × 7 pixels including the central pixel is defined. Then, the average value of the colors of all 49 pixels in the vicinity region N may be extracted as the reference color α. By adopting such a method, it is possible to extract a more appropriate color as the reference color α as a color representative of the entire tracked object.

なお、図22に示す例では、たまたま7×7画素からなる近傍領域Nが追跡対象物である猫60のほぼ全体をカバーする領域になっているが、実際には、近傍領域Nが追跡対象物の一部しかカバーできない場合や、追跡対象物のみならず、その周囲の背景部分までもカバーしてしまう場合もありうる。前者の場合、近傍領域N内の全画素の色の平均値を基準色αとしても問題はないが、後者の場合、周囲の背景の色も含めた平均値が基準色αとなるため、追跡対象物を代表する色としては適切でない色が基準色αとして抽出されてしまう可能性がある。   In the example shown in FIG. 22, the neighborhood area N that happens to consist of 7 × 7 pixels is an area that covers almost the entire cat 60 that is the tracking target, but in reality, the neighborhood area N is the tracking target. There may be a case where only a part of the object can be covered, or a case where not only the tracked object but also the surrounding background part is covered. In the former case, there is no problem even if the average value of the colors of all the pixels in the vicinity region N is used as the reference color α. However, in the latter case, the average value including the surrounding background color becomes the reference color α, and therefore tracking There is a possibility that a color that is not appropriate as a color representing the object is extracted as the reference color α.

このような問題を防ぐには、近傍領域Nの大きさが、ある程度以下となるように設定すればよい。すなわち、近傍領域Nとしては、一般的には、切出中心点P(追跡開始点Q)を含む中心画素を中心とするn行n列の正方画素配列を定義すればよいが、nの値が大きすぎると、周囲の背景部分もカバーする広い近傍領域Nが設定されることになるので、平面正則画像Tの解像度を考慮して、最適なnの値を決めるようにすればよい。一般的な解像度をもった動画提示を行う場合、図示の例のように、n=7程度に設定し、7×7画素程度の大きさをもつ近傍領域Nを設定すれば、実用上は大きな支障は生じない。   In order to prevent such a problem, the size of the neighborhood region N may be set to be less than or equal to some extent. That is, as the neighboring region N, generally, an n × n square pixel array centered on the central pixel including the cut-out center point P (tracking start point Q) may be defined. If is too large, a wide neighboring region N that covers the surrounding background portion is set, so that the optimal value of n may be determined in consideration of the resolution of the planar regular image T. When presenting a moving image having a general resolution, it is practically large if n = 7 is set and a neighboring region N having a size of about 7 × 7 pixels is set as in the example shown in the figure. There will be no hindrance.

周囲の背景の色を排除し、より正確な基準色αを抽出したい場合には、次のようなアルゴリズムを採用すればよい。すなわち、基準色抽出部200は、切出中心点Pを含む中心画素およびその周囲の周辺画素からなる近傍領域Nを定義し、この近傍領域N内の画素のうち、中心画素の色に対して所定の近似範囲に入る色をもつ画素を参照画素として、この参照画素の色の平均値を基準色αとして抽出すればよい。   In order to eliminate the surrounding background color and extract a more accurate reference color α, the following algorithm may be employed. That is, the reference color extraction unit 200 defines a neighboring area N composed of a central pixel including the cut-out center point P and surrounding peripheral pixels. A pixel having a color that falls within a predetermined approximate range may be used as a reference pixel, and an average value of the colors of the reference pixels may be extracted as a standard color α.

このようなアルゴリズムに基づく基準色抽出処理の実例を、図23を参照しながら具体的に説明しよう。図23は、図22の近傍領域Nの周辺の拡大図である。上述したとおり、この例の場合、近傍領域Nは7行7列に配列された合計49個の画素によって構成されている。ここでは、この49個の画素を、1行目の左から右に向かって、画素W1,W2,..., W7と呼び、以下、2〜7行目についても同様の順番で画素W8〜W49と呼ぶことにする。但し、中心画素である画素W25については、追跡開始点Qを含む画素であることから、特別に画素Wqと呼ぶことにする。なお、図23では、便宜上、猫60の輪郭線を滑らかな曲線で描いているため、内部が輪郭線によって分断されている画素が存在するが、実際には、猫60の輪郭線は、画素の輪郭線(画素を示す正方形の辺)によって構成され、1つの画素には1つの色のみが定義される。   An actual example of the reference color extraction process based on such an algorithm will be specifically described with reference to FIG. FIG. 23 is an enlarged view of the vicinity of the vicinity region N of FIG. As described above, in the case of this example, the neighborhood region N is configured by a total of 49 pixels arranged in 7 rows and 7 columns. Here, these 49 pixels are referred to as pixels W1, W2,..., W7 from the left to the right in the first row, and hereinafter the pixels W8 to W7 in the same order for the second to seventh rows. Let's call it W49. However, since the pixel W25 that is the central pixel is a pixel including the tracking start point Q, it is specifically referred to as a pixel Wq. In FIG. 23, for the sake of convenience, the contour line of the cat 60 is drawn with a smooth curve, and therefore there are pixels whose interior is divided by the contour line. Only one color is defined for each pixel.

ここで、この近傍領域Nを構成する49個の画素の色について検討すると、たとえば、画素W27は、本来の追跡対象物(猫60)の色をもった画素であるが、画素W7は、背景となる画像の色をもった画素ということになる。したがって、追跡対象物の色を代表する基準色αを抽出する際には、画素W27の色は考慮すべきであるが、画素W7の色は考慮すべきではないことになる。そこで、まず、全49個の画素のうち、考慮すべき画素(参照画素)と考慮すべきでない画素(非参照画素)とのふるい分けを行う。具体的には、中心画素Wqの色に対して所定の近似範囲に入る色をもつ画素を参照画素として、近似範囲外となる色をもつ画素を非参照画素とすればよい。そして、たとえば、49個の画素のうち、30個の画素が参照画素とされた場合には、この30個の参照画素の色の平均値を基準色αとして抽出すればよい。   Here, considering the colors of the 49 pixels constituting the neighboring region N, for example, the pixel W27 is a pixel having the color of the original tracking target (cat 60), but the pixel W7 is a background. This means that the pixel has the color of the image. Therefore, when extracting the reference color α representing the color of the tracking object, the color of the pixel W27 should be considered, but the color of the pixel W7 should not be considered. Therefore, first, of all 49 pixels, screening is performed between a pixel to be considered (reference pixel) and a pixel that should not be considered (non-reference pixel). Specifically, a pixel having a color that falls within a predetermined approximate range with respect to the color of the center pixel Wq may be used as a reference pixel, and a pixel having a color outside the approximate range may be set as a non-reference pixel. For example, when 30 pixels among 49 pixels are set as reference pixels, an average value of colors of the 30 reference pixels may be extracted as the reference color α.

舗装された灰色の路面に茶色の猫60が居た場合、図23においてハッチングを施した部分は茶色、それ以外の部分は灰色ということになるので、全49個の画素すべての色の平均を求めてしまうと、灰色と茶色との混合色が基準色αとして抽出されてしまうことになるが、上記アルゴリズムによるふるい分けを行えば、茶色の参照画素の色についての平均色が基準色αとして抽出されるので、より適切な基準色αを得ることができる。   If there is a brown cat 60 on the paved gray road surface, the hatched part in FIG. 23 is brown, and the other part is gray, so the average of all 49 pixels is averaged. If it is obtained, the mixed color of gray and brown will be extracted as the standard color α, but if the above algorithm is used for screening, the average color for the color of the brown reference pixel will be extracted as the standard color α. Therefore, a more appropriate reference color α can be obtained.

以上、図23を参照しながら、第i番目のフレームにおいて追跡開始点Qの指定を伴う追跡開始指示が入力された場合に、基準色αを抽出する具体的なアルゴリズムを述べたが、以後、自動追跡終了の指示が与えられるまで繰り返される第(i+1)番目以降のフレームの基準色抽出処理についても、全く同様のアルゴリズムを適用することができる。すなわち、一般的には、図23に示す中心画素Wqは、切出中心点P(i)を含む画素であり、自動追跡処理の中途段階では、UV座標系の原点Gを含む画素ということになる。   The specific algorithm for extracting the reference color α when the tracking start instruction with the specification of the tracking start point Q is input in the i-th frame has been described above with reference to FIG. The same algorithm can be applied to the reference color extraction processing of the (i + 1) th and subsequent frames that are repeated until an instruction to end automatic tracking is given. That is, generally, the center pixel Wq shown in FIG. 23 is a pixel including the cut-out center point P (i), and is a pixel including the origin G of the UV coordinate system in the middle of the automatic tracking process. Become.

<3−2. 色の近似判断および平均のアルゴリズム>
上述したアルゴリズムには、参照画素か非参照画素かのふるい分けを行うために、周辺画素の色が中心画素Wqの色に対して所定の近似範囲に入るか否かの判断を行う必要がある。また、複数の参照画素の色についての平均を求める必要がある。ここでは、色の近似判断を行うための具体的なアルゴリズムと、色の平均を求めるための具体的なアルゴリズムを例示しておく。
<3-2. Color approximation and averaging algorithm>
In the above-described algorithm, it is necessary to determine whether or not the color of the peripheral pixel falls within a predetermined approximate range with respect to the color of the center pixel Wq in order to perform the screening of the reference pixel or the non-reference pixel. In addition, it is necessary to obtain an average for the colors of a plurality of reference pixels. Here, a specific algorithm for performing approximate color judgment and a specific algorithm for obtaining an average of colors are exemplified.

まず、色の平均を求めるためのアルゴリズムの一例を述べる。一般に、ビデオカメラによる撮影で得られた画像データを構成する個々の画素は、RGB表色系で表現された画素値(R,G,B)を有しており、1つの原色を8ビットの画素値で表した場合、1画素は24ビットのデータによって構成される。このように、RGB表色系で表現された画素値(R,G,B)をもった複数の画素について、その色の平均値を算出するには、画素値Rの平均値Rav、画素値Gの平均値Gav、画素値Bの平均値Bavを求め、これら画素値(Rav,Gav,Bav)によって示される色を当該複数の画素の色の平均値とすればよい。また、画素値がRGB表色系以外の表色系で表現されていた場合には、画素値をRGB表色系で表現するための変換を行った上で、上記方法で平均を求めればよい。   First, an example of an algorithm for obtaining a color average will be described. In general, each pixel constituting image data obtained by photographing with a video camera has pixel values (R, G, B) expressed in the RGB color system, and one primary color is represented by 8 bits. When expressed in terms of pixel values, one pixel is composed of 24-bit data. Thus, in order to calculate the average value of the colors of a plurality of pixels having pixel values (R, G, B) expressed in the RGB color system, the average value Rav of the pixel value R, the pixel value The average value Gav of G and the average value Bav of the pixel value B are obtained, and the color indicated by these pixel values (Rav, Gav, Bav) may be used as the average value of the colors of the plurality of pixels. Further, when the pixel value is expressed in a color system other than the RGB color system, the average may be obtained by the above method after performing conversion for expressing the pixel value in the RGB color system. .

次に、色の近似判断を行うためのアルゴリズムの一例を述べる。ここで述べるアルゴリズムは、HSV表色系で表現された画素値(H,S,V)をもった画素について有効である。具体的には、第1の画素の色の所定の近似範囲に第2の画素の色が入るための条件として、各画素の画素値をHSV表色系で表現して色相Hの値を0〜360°の角度で表した場合に、「第1の画素の色の色相Hを表す角度と第2の画素の色の色相Hを表す角度との角度差が所定の許容角θ以下である」との条件を用い、色の近似判断を行うようにすればよい。   Next, an example of an algorithm for performing color approximation determination will be described. The algorithm described here is effective for pixels having pixel values (H, S, V) expressed in the HSV color system. Specifically, as a condition for the color of the second pixel to fall within a predetermined approximate range of the color of the first pixel, the pixel value of each pixel is expressed in the HSV color system and the value of hue H is set to 0. When expressed by an angle of ˜360 °, “the angle difference between the angle representing the hue H of the color of the first pixel and the angle representing the hue H of the color of the second pixel is equal to or less than a predetermined allowable angle θ. The color approximation determination may be performed using the condition “”.

上述したように、一般に、ビデオカメラによる撮影で得られた画像データは、RGB表色系で表現されている。このように、RGB表色系で表現されている画素についての色の近似判断を上記アルゴリズムで行うためには、個々の画素のもつ画素値(R,G,B)をHSV表色系で表現された画素値(H,S,V)に変換し、色相Hの値を相互に比較する処理を行えばよい。   As described above, generally, image data obtained by photographing with a video camera is expressed in the RGB color system. As described above, in order to perform color approximation determination for pixels expressed in the RGB color system using the above algorithm, the pixel values (R, G, B) of individual pixels are expressed in the HSV color system. The pixel value (H, S, V) may be converted and the hue H value may be compared with each other.

ここでは、図23に示す実例について、上記アルゴリズムに基づく色の近似判断を行い、更に、色の平均値を求めることにより、基準値αを抽出する手順を説明しよう。いま、図23に示す49個の画素W1〜W49が、それぞれRGB表色系で表現された画素値(R,G,B)をもっているものとしよう。たとえば、第1番目の画素W1は、(R1,G1,B1)なる画素値を有しており、第j番目の画素Wjは、(Rj,Gj,Bj)なる画素値を有しており、第49番目の画素W49は、(R49,G49,B49)なる画素値を有している。また、第25番目の画素W25、すなわち、中心画素Wqは、(Rq,Gq,Bq)なる画素値を有している。   Here, for the example shown in FIG. 23, a procedure for extracting the reference value α by performing the color approximation determination based on the above algorithm and obtaining the average value of the colors will be described. Assume that the 49 pixels W1 to W49 shown in FIG. 23 each have pixel values (R, G, B) expressed in the RGB color system. For example, the first pixel W1 has a pixel value of (R1, G1, B1), and the jth pixel Wj has a pixel value of (Rj, Gj, Bj). The 49th pixel W49 has a pixel value of (R49, G49, B49). The 25th pixel W25, that is, the center pixel Wq has a pixel value of (Rq, Gq, Bq).

ここで、図24に示すように、各画素W1〜W49の画素値を、RGB表色系からHSV表色系に変換する。たとえば、第j番目の画素Wjのもつ画素値(Rj,Gj,Bj)は、(Hj,Sj,Vj)に変換され、中心画素Wqのもつ画素値(Rq,Gq,Bq)は、(Hq,Sq,Vq)に変換される。   Here, as shown in FIG. 24, the pixel values of the pixels W1 to W49 are converted from the RGB color system to the HSV color system. For example, the pixel value (Rj, Gj, Bj) of the jth pixel Wj is converted to (Hj, Sj, Vj), and the pixel value (Rq, Gq, Bq) of the center pixel Wq is (Hq , Sq, Vq).

なお、このRGB表色系からHSV表色系への変換処理は、公知の変換式を用いて行うことができる。具体的には、画素値(R,G,B)を画素値(H,S,V)に変換する場合、3つの値R,G,Bの中の最大のものをMAX、最小のものをMINとして、画素値(H,S,V)は、
H=60×(G−B)/(MAX−MIN)+0,if MAX=R
H=60×(B−R)/(MAX−MIN)+120,if MAX=G
H=60×(R−G)/(MAX−MIN)+240,if MAX=B
S=(MAX−MIN)/MAX
V=MAX
で与えられる。HSV表色系では、色彩は色相Hの値によって示されるので、色の近似判断は、色相Hの値を相互に比較することによって行うことができる。なお、色の比較には、色相Hの値しか用いないので、実際には、HSV表色系に変換する際に、彩度Sおよび明度Vの値を求める必要はない。
The conversion process from the RGB color system to the HSV color system can be performed using a known conversion formula. Specifically, when the pixel value (R, G, B) is converted to the pixel value (H, S, V), the maximum of the three values R, G, B is MAX, and the minimum is As MIN, the pixel values (H, S, V) are
H = 60 × (GB) / (MAX−MIN) +0, if MAX = R
H = 60 × (BR) / (MAX−MIN) +120, if MAX = G
H = 60 × (RG) / (MAX−MIN) +240, if MAX = B
S = (MAX−MIN) / MAX
V = MAX
Given in. In the HSV color system, the color is indicated by the value of the hue H, so that the approximate determination of the color can be made by comparing the values of the hue H with each other. Since only the hue H value is used for color comparison, it is not actually necessary to obtain the saturation S and lightness V values when converting to the HSV color system.

結局、図23に示す48個の周辺画素W1〜W24,W26〜W49の色が、中心画素Wq(W25)の色の近似範囲に入るか否かを判断するには、HSV表色系に変換した際の各周辺画素の色相H1〜H24,H26〜H49が、中心画素の色相Hqの近似範囲に入るか否かを判断すればよい。色相Hは、色環上の0〜360°の角度を示すものであるので、「各周辺画素の色の色相H1〜H24,H26〜H49を表す角度と中心画素の色の色相Hqを表す角度との角度差が所定の許容角θ以下である」との条件を設定しておけば、色の近似判断を行うことができる。   After all, in order to determine whether the colors of the 48 peripheral pixels W1 to W24 and W26 to W49 shown in FIG. 23 fall within the approximate range of the color of the center pixel Wq (W25), the color is converted to the HSV color system. It is only necessary to determine whether or not the hues H1 to H24 and H26 to H49 of each peripheral pixel are within the approximate range of the hue Hq of the center pixel. Since the hue H indicates an angle of 0 to 360 ° on the color wheel, “an angle representing the hue H1 to H24, H26 to H49 of the color of each peripheral pixel and an hue representing the hue Hq of the color of the center pixel”. If the condition that the angle difference between the two is less than or equal to the predetermined allowable angle θ is set, the color approximation can be determined.

図25は、HSV表色系における色相Hの近似条件の設定例を示す図である。図示のとおり、中心画素の色相Hqの角度に対して、角度差が許容角θ以下となる色相をもつ画素、すなわち、色相がHq−θ〜Hq+θの範囲内(色環上の0〜360°の角度であるため、負になる場合は360°を加えた値とし、360°を越える場合は、360°を減じた値とする)であれば、近似範囲との判断がなされる。近似範囲を左右する許容角θは、たとえば、θ=10°とか、θ=15°のように、実際にこの動画提示装置を利用して再生を行う動画の内容を考慮して、適当と思われる値に設定すればよい。   FIG. 25 is a diagram illustrating an example of setting the approximate condition of the hue H in the HSV color system. As shown in the drawing, a pixel having a hue whose angle difference is equal to or smaller than the allowable angle θ with respect to the angle of the hue Hq of the central pixel, that is, within a range of hue Hq−θ to Hq + θ Therefore, if it is negative, it is a value obtained by adding 360 °, and if it exceeds 360 °, the value obtained by subtracting 360 ° is determined as an approximate range. The allowable angle θ that influences the approximate range is considered to be appropriate in consideration of the content of the video that is actually reproduced using this video presentation device, for example, θ = 10 ° or θ = 15 °. Can be set to a value that can be

こうして、中心画素Wqを含めた全49個の画素のうち、近似範囲内と判断される参照画素が得られたら、前述したとおり、これら参照画素の色の平均Wavを求め、これを基準色αとすればよい。ここで、平均色Wavを求める際には、上述したとおり、RGB表色系で表現された画素値(R,G,B)を用いて、画素値Rの平均値Rav、画素値Gの平均値Gav、画素値Bの平均値Bavを求め、これら画素値(Rav,Gav,Bav)によって示される色を平均色Wavとすればよい。   Thus, when the reference pixels determined to be within the approximate range among the 49 pixels including the center pixel Wq are obtained, the average Wav of the colors of these reference pixels is obtained as described above, and this is used as the reference color α. And it is sufficient. Here, when obtaining the average color Wav, as described above, the average value Rav of the pixel values R and the average of the pixel values G are used using the pixel values (R, G, B) expressed in the RGB color system. The average value Bav of the value Gav and the pixel value B is obtained, and the color indicated by these pixel values (Rav, Gav, Bav) may be used as the average color Wav.

<3−3. 近隣ブロック抽出部160の処理アルゴリズム>
近隣ブロック抽出部160は、自動追跡フラグがONの場合に、歪曲広角画像用メモリ130に格納されている第(i+1)番目のフレームの歪曲広角画像S(i+1)を複数のブロックに分割し、切出条件格納部170に格納されている第i番目のフレームについての切出中心点P(i)newの近隣の複数のブロックを近隣ブロックとして抽出する処理を行う。
<3-3. Processing Algorithm of Neighboring Block Extraction Unit 160>
When the automatic tracking flag is ON, the neighboring block extraction unit 160 divides the distorted wide-angle image S (i + 1) of the (i + 1) th frame stored in the distorted wide-angle image memory 130 into a plurality of blocks, A process of extracting a plurality of blocks adjacent to the cut center point P (i) new for the i-th frame stored in the cut condition storage unit 170 as a neighboring block is performed.

図26は、この近隣ブロック抽出部160によって行われる近隣ブロック抽出処理の一例を示す平面図である。ここに示す例の場合、近隣ブロック抽出部160は、歪曲広角画像S(i+1)を、縦横に整列して配置された複数の矩形状のブロックに分割し、切出中心点P(i)newを含むブロックを中心ブロックB5として、この中心ブロックB5およびその上下左右および斜め四方に位置する隣接ブロックを含めた合計9ブロックを近隣ブロックB1〜B9として抽出している。   FIG. 26 is a plan view showing an example of a neighboring block extraction process performed by the neighboring block extraction unit 160. In the case of the example shown here, the neighboring block extraction unit 160 divides the distorted wide-angle image S (i + 1) into a plurality of rectangular blocks arranged vertically and horizontally, and the cut-out center point P (i) new As a central block B5, a total of nine blocks including the central block B5 and its adjacent blocks located in the upper, lower, left, and right and diagonal four directions are extracted as neighboring blocks B1 to B9.

このように、合計9ブロックを近隣ブロックとして抽出するようにすれば、追跡対象物が中心ブロックからどの方向に移動したとしても、いずれかの近隣ブロックを通らざるを得ないので、追跡対象物を見失うことを防ぐために効果的である。もちろん、追跡対象物の移動速度が極端に大きい場合には、9個の近隣ブロックの外へ移動してしまうこともありうるので、そのように移動速度が速い追跡対象物についての自動追跡を適切に行うためには、切出中心点P(i)newを含む中心ブロックを中心として、5×5の合計25個のブロックを近隣ブロックとして抽出するようにしてもよい。また、歪曲広角画像S(i+1)の円周付近に切出中心点P(i)newが位置する場合は、上下左右および斜め四方に位置する隣接ブロックのうちのいくつかは、該当位置に存在しないケースもあるが、このようなケースでは、当然ながら、該当位置に存在しないブロックは抽出されない。   In this way, if a total of nine blocks are extracted as neighboring blocks, no matter which direction the tracking object moves from the central block, it must pass through one of the neighboring blocks. It is effective to prevent losing sight. Of course, if the movement speed of the tracked object is extremely high, it may move out of the 9 neighboring blocks. Therefore, automatic tracking of the tracked object with such a high moving speed is appropriate. Therefore, a total of 25 blocks of 5 × 5 may be extracted as neighboring blocks centering on the central block including the cut center point P (i) new. In addition, when the cut-out center point P (i) new is located near the circumference of the distorted wide-angle image S (i + 1), some of the adjacent blocks located in the upper, lower, left, and right and diagonal four directions are present at the corresponding position. However, in such a case, as a matter of course, a block that does not exist at the corresponding position is not extracted.

なお、抽出対象となる近隣ブロックは、必ずしもn行n列の配列にする必要はなく、たとえば、追跡対象物の特性上、Y軸方向への移動速度に比べてX軸方向への移動速度が大きいというような事情がある場合には、3行5列の配列を構成する合計15個の近隣ブロックを抽出するようにしてもかまわない。また、図26では、個々のブロックを正方形とした例を示したが、個々のブロックの形状は任意であり、長方形、正三角形、正六角形など、平面を隙間なく分割できる図形であれば、任意形状のブロックを採用することができる。もちろん、個々のブロックの大きさも任意であり、実用上、最適と思われる任意の大きさに設定することができる。また、各ブロックは、必ずしも同じ形状、同じサイズのものである必要はないので、理論的には、ジグソーパズルの各ピースのような任意形状のブロックにより、歪曲広角画像Sをブロック分割するようにしてもかまわない。   The neighboring blocks to be extracted are not necessarily arranged in an n-row and n-column arrangement. For example, the movement speed in the X-axis direction is higher than the movement speed in the Y-axis direction due to the characteristics of the tracking target. If there is a circumstance such as large, a total of 15 neighboring blocks constituting a 3 × 5 array may be extracted. In addition, FIG. 26 shows an example in which each block is a square, but the shape of each block is arbitrary, and any shape can be used as long as it can divide a plane without gaps, such as a rectangle, a regular triangle, or a regular hexagon. Shaped blocks can be employed. Of course, the size of each block is also arbitrary, and can be set to an arbitrary size that seems to be optimum in practice. Also, since each block does not necessarily have the same shape and the same size, theoretically, the distorted wide-angle image S is divided into blocks by arbitrarily shaped blocks such as each piece of a jigsaw puzzle. It doesn't matter.

ここで述べる実施形態は、画像入力部110が、魚眼レンズを用いた撮影により得られた歪曲広角画像Sを入力する例であるため、図26に示すとおり、歪曲広角画像S(i+1)は円形の画像になる。このような円形の歪曲広角画像では、外周付近の画像情報の圧縮率は極めて高くなる。別言すれば、円形の歪曲広角画像では、その円周付近ほど、歪みの程度が大きく、画像の記録精度が低下することになる。そこで、ここに示す実施形態の場合、近隣ブロック抽出部160は、この円形の歪曲広角画像を、複数の矩形状のブロックに分割した後、円形の歪曲広角画像の輪郭線から一部でも食み出すブロックについては、近隣ブロックとしての抽出を行わないようにしている。   The embodiment described here is an example in which the image input unit 110 inputs a distorted wide-angle image S obtained by photographing using a fisheye lens. Therefore, as shown in FIG. 26, the distorted wide-angle image S (i + 1) is circular. Become an image. In such a circular distorted wide-angle image, the compression rate of the image information near the outer periphery is extremely high. In other words, in the case of a circular distorted wide-angle image, the degree of distortion is greater in the vicinity of the circumference, and the recording accuracy of the image is reduced. Therefore, in the case of the embodiment shown here, the neighboring block extraction unit 160 divides the circular distorted wide-angle image into a plurality of rectangular blocks, and then eats even part of the outline of the circular distorted wide-angle image. The blocks to be output are not extracted as neighboring blocks.

図26に示す例において、正方形で描かれている個々のブロックはいずれも円形の歪曲広角画像の輪郭線の内側に位置するブロックであり、輪郭線から一部でも食み出すブロックは描かれていない。近隣ブロック抽出部160は、この正方形で描かれているブロックの中から近隣ブロックの抽出を行うことになる。このような運用を行うと、円形の歪曲広角画像の外周付近の領域(画像の記録精度が低い領域)は、自動追跡の対象から外されることになるので、精度の低い画像に基づく誤認識が生じることを防ぐ上で有効である。   In the example shown in FIG. 26, each individual block drawn in a square is a block located inside the contour line of a circular distorted wide-angle image, and a block that partially protrudes from the contour line is drawn. Absent. The neighboring block extraction unit 160 extracts neighboring blocks from the blocks drawn in the square. If such an operation is performed, the region near the outer periphery of the circular distorted wide-angle image (the region where the image recording accuracy is low) is excluded from the target of automatic tracking, so erroneous recognition based on the image with low accuracy It is effective in preventing the occurrence of

<3−4. ブロック選択部180の処理アルゴリズム>
ブロック選択部180は、自動追跡フラグがONの場合に、近隣ブロック抽出部160によって抽出された複数の近隣ブロック(図26に示す例の場合は、9個の近隣ブロックB1〜B9)のそれぞれについて、ブロック内に含まれる個々の画素のうち、基準色格納部190に格納されている基準色αに対して所定の近似範囲に入る色をもつ画素数をカウントし、近似色画素数が最大となるブロックを選択する処理を行う。
<3-4. Processing Algorithm of Block Selection Unit 180>
When the automatic tracking flag is ON, the block selection unit 180 selects each of a plurality of neighboring blocks extracted by the neighboring block extracting unit 160 (in the example shown in FIG. 26, nine neighboring blocks B1 to B9). The number of pixels having a color that falls within a predetermined approximate range with respect to the reference color α stored in the reference color storage unit 190 among the individual pixels included in the block is counted, and the number of approximate color pixels is the maximum. The process which selects the block which becomes is performed.

ここで、各画素の色が、基準色αに対して所定の近似範囲に入る色か否かを判断するには、§3−2で述べた色の近似判断を行うためのアルゴリズムを利用すればよい。たとえば、図26に示すブロックB1について、近似色画素数をカウントする場合は、次のような手順に従った処理を行えばよい。   Here, in order to determine whether the color of each pixel falls within a predetermined approximate range with respect to the reference color α, the algorithm for performing the approximate color determination described in §3-2 is used. That's fine. For example, in the case of counting the number of approximate color pixels for the block B1 shown in FIG. 26, processing according to the following procedure may be performed.

まず、ここでは、説明の便宜上、個々のブロックが30×30画素の領域から構成されているものとしよう。この場合、ブロックB1には、合計900個の画素が含まれていることになる。そこで、図27に示すとおり、この900個の画素W1〜W900のそれぞれについて、RGB表色系の画素値(R,G,B)をHSV表色系の画素値(H,S,V)に変換する。たとえば、第1番目の画素W1の画素値(R1,G1,B1)は、画素値(H1,S1,V1)に変換され、第900番目の画素W900の画素値(R900,G900,B900)は、画素値(H900,S900,V900)に変換される(前述したとおり、実際には、彩度Sおよび明度Vの値は求める必要はない)。   First, for convenience of explanation, it is assumed that each block is composed of an area of 30 × 30 pixels. In this case, the block B1 includes a total of 900 pixels. Therefore, as shown in FIG. 27, for each of the 900 pixels W1 to W900, the RGB color system pixel values (R, G, B) are changed to HSV color system pixel values (H, S, V). Convert. For example, the pixel values (R1, G1, B1) of the first pixel W1 are converted into pixel values (H1, S1, V1), and the pixel values (R900, G900, B900) of the 900th pixel W900 are Are converted into pixel values (H900, S900, V900) (as described above, it is not actually necessary to determine the values of saturation S and brightness V).

続いて、基準色格納部190に格納されている基準色αについても、HSV表色系への変換を行う。§3−2で述べた例の場合、基準色αは、RGB表色系で表現された画素値の平均をとった平均色Wav(Rav,Gav,Bav)として与えられるので、これをHSV表色系で表現した色Wav(Hav,Sav,Vav)に変換すればよい(この場合も、実際には、彩度Savおよび明度Vavの値は求める必要はない)。   Subsequently, the reference color α stored in the reference color storage unit 190 is also converted into the HSV color system. In the case of the example described in §3-2, the reference color α is given as an average color Wav (Rav, Gav, Bav) obtained by averaging pixel values expressed in the RGB color system. What is necessary is just to convert into the color Wav (Hav, Sav, Vav) expressed in the color system (in this case also, it is not actually necessary to determine the values of the saturation Sav and the lightness Vav).

そして、図27に示すとおり、900個の画素の各色相H1〜H900を、それぞれ基準色αの色相Havと比較する処理を行い、近似範囲内か否かの判断をする。具体的には、色相Havの角度に対して、角度差が許容角θ以下となる色相をもつ画素、すなわち、色相がHav−θ〜Hav+θの範囲内(色環上の0〜360°の角度であるため、負になる場合は360°を加えた値とし、360°を越える場合は、360°を減じた値とする)であれば、近似範囲との判断を行えばよい。そして、900個の画素のうち、近似範囲との判断がなされた画素の数をカウントすれば、そのカウント値が、ブロックB1についての近似色画素数ということになる。   Then, as shown in FIG. 27, a process of comparing the hues H1 to H900 of 900 pixels with the hue Hav of the reference color α is performed to determine whether or not they are within the approximate range. Specifically, a pixel having a hue whose angle difference is equal to or smaller than the allowable angle θ with respect to the angle of the hue Hav, that is, the hue is within a range of Hav−θ to Hav + θ (an angle of 0 to 360 ° on the color wheel). Therefore, if it is negative, it is a value obtained by adding 360 °, and if it exceeds 360 °, it is a value obtained by subtracting 360 °). If the number of pixels determined to be in the approximate range among the 900 pixels is counted, the count value is the number of approximate color pixels for the block B1.

ブロック選択部180は、同様のカウント処理を、ブロックB2〜B9についても実行し、近似色画素数が最大となるブロックBmaxを選択する処理を行う。追跡対象物が背景画像にはない特徴的な色相を有していれば、当該特徴的な色相に近い色をもつ画素を多く含むブロックには、追跡対象物が含まれている可能性が高いと考えられる。ブロック選択部180によるブロック選択処理は、このような考え方に基づいて、追跡対象物が含まれている可能性が最も高いブロックを選択する処理と言うことができる。   The block selection unit 180 performs the same counting process for the blocks B2 to B9, and performs the process of selecting the block Bmax that maximizes the number of approximate color pixels. If the tracked object has a characteristic hue that does not exist in the background image, it is highly likely that the block including many pixels having colors close to the characteristic hue includes the tracked object. it is conceivable that. The block selection process by the block selection unit 180 can be said to be a process of selecting a block that is most likely to contain a tracking target based on such a concept.

もちろん、追跡対象物の代表的な色相が、背景画像にも散見される、という環境(たとえば、茶色い猫が、茶色い土の上を歩いているような環境)では、上記アルゴリズムに基づくブロック選択処理は、正しい結果を導くことはできない。また、追跡対象物の代表的な色相に近い色をもった別な対象物が存在する、という環境(たとえば、数匹の茶色い猫がたむろしている環境)でも、上記アルゴリズムに基づくブロック選択処理は、正しい結果を導くことはできない。本発明による追跡対象物の自動追跡処理は、上例のような特殊な環境では失敗し、背景の一部や別な対象物を、追跡対象物と誤って検出してしまうことになる。本発明の基本原理が、色を手掛かりに動体追跡を行うというものである以上、上例のような追跡失敗例が生じることは甘受せざるを得ない。   Of course, in an environment where the typical hue of the tracking target is also scattered in the background image (for example, an environment where a brown cat is walking on brown soil), block selection processing based on the above algorithm Cannot lead to correct results. Even in an environment where there is another object with a color close to the typical hue of the tracked object (for example, an environment where several brown cats hang out), block selection processing based on the above algorithm Cannot lead to correct results. The automatic tracking processing of the tracking object according to the present invention fails in the special environment as in the above example, and a part of the background or another object is erroneously detected as the tracking object. As long as the basic principle of the present invention is to track a moving object using a color as a clue, it is unavoidable that a tracking failure example as described above occurs.

なお、追跡対象物が、既に近隣ブロックの外へ移動してしまっている場合にも、誤検出が生じることになる。このような誤検出を避けるには、ブロック選択部180が、予め近似色画素数の最低基準値を設定しておき、近似色画素数がこの最低基準値以上となるブロックが存在しない場合には、ブロックの選択を行わずに自動追跡フラグ設定部220に対して自動追跡失敗信号を与えるようにし、自動追跡フラグ設定部220が、自動追跡失敗信号が与えられたときに、自動追跡フラグをOFFに切り替える処理を行うようにしておくのが好ましい。   Note that erroneous detection also occurs when the tracking target has already moved out of the neighboring block. In order to avoid such erroneous detection, the block selection unit 180 sets a minimum reference value for the number of approximate color pixels in advance, and there is no block in which the number of approximate color pixels exceeds the minimum reference value. The automatic tracking flag setting unit 220 gives an automatic tracking failure signal without selecting a block, and the automatic tracking flag setting unit 220 turns off the automatic tracking flag when the automatic tracking failure signal is given. It is preferable to perform the process of switching to.

すなわち、「近似色画素数が最大となるブロック」というアルゴリズムだけでブロックの選択を行うと、たとえば、他のブロックの近似画素数が0個である場合には、近似色画素数がわずか1個しかないブロックでも選択されてしまうことになる。このように近似色画素数が極めて少ないブロックには、実際には、追跡対象物が含まれていない可能性が高い。そこで、近似色画素数の最低基準値を設定しておき、近似色画素数がこの最低基準値以上となるブロックが存在しない場合には、追跡対象物が、既に近隣ブロックの外へ移動してしまっていると判断し、自動追跡フラグをOFFに切り替え、その後の自動追跡処理を中止するようにするのが好ましい。   In other words, if a block is selected only by the algorithm of “a block having the maximum number of approximate color pixels”, for example, when the number of approximate pixels in another block is 0, the number of approximate color pixels is only one. Even a block with only one will be selected. In this way, there is a high possibility that a block having an extremely small number of approximate color pixels does not actually contain a tracking object. Therefore, if the minimum reference value of the approximate color pixel number is set and there is no block whose approximate color pixel number is equal to or greater than the minimum reference value, the tracking target has already moved out of the neighboring block. It is preferable that the automatic tracking flag is switched to OFF and the subsequent automatic tracking processing is stopped after determining that it is closed.

<3−5. 切出条件自動変更部210の処理アルゴリズム>
切出条件自動変更部210は、自動追跡フラグがONの場合に、ブロック選択部180が選択したブロック内に互いに位置が異なる複数の候補領域を定義し、これら複数の候補領域の中から、基準色αに最も適合する色をもつ候補領域を最適候補領域として選択し、選択した最適候補領域の中心点を次のフレームについての切出中心点Pとして、切出条件格納部170に格納されている切出中心点Pを示す情報を更新する処理を行う。
<3-5. Processing algorithm of cutting condition automatic changing unit 210>
When the automatic tracking flag is ON, the extraction condition automatic change unit 210 defines a plurality of candidate areas whose positions are different from each other in the block selected by the block selection unit 180, and selects a reference area from the plurality of candidate areas. A candidate area having a color that best matches the color α is selected as the optimum candidate area, and the center point of the selected optimum candidate area is stored in the extraction condition storage unit 170 as the extraction center point P for the next frame. A process for updating information indicating the cut-out center point P is performed.

図28は、この切出条件自動変更部210によって行われる最適候補領域の選択処理の一例を示す平面図である。図に示すブロックBmaxは、ブロック選択部180によって選択されたブロックである。ここに示す実施形態では、切出条件自動変更部210が、所定サイズの画素配列を定義し、当該画素配列の枠をブロック内の所定位置に配置した場合の当該枠内の領域を候補領域とし、この画素配列の枠の配置を縦横にそれぞれ1画素ずつずらすことにより、互いに位置が異なる複数の候補領域を定義している。   FIG. 28 is a plan view showing an example of the optimum candidate region selection process performed by the automatic extraction condition changing unit 210. FIG. The block Bmax shown in the drawing is a block selected by the block selection unit 180. In the embodiment shown here, the extraction condition automatic changing unit 210 defines a pixel array of a predetermined size, and the area in the frame when the frame of the pixel array is arranged at a predetermined position in the block is set as a candidate area. A plurality of candidate regions whose positions are different from each other are defined by shifting the arrangement of the frame of the pixel array by one pixel in the vertical and horizontal directions.

図28に示す例の場合、7×7の画素配列(基準色αの抽出に用いた近傍領域Nと同じサイズの画素配列)が定義されており、この画素配列の枠が太線で示されている。この太線の枠で囲まれた領域が1つの候補領域になる。図では、便宜上、第1番目の候補領域A(1)および第k番目の候補領域A(k)のみが例示されているが、実際には、この7×7の画素配列を、横方向に1画素ずつずらし、縦方向にも1画素ずつずらすことにより、互いに位置が異なる多数の候補領域が定義される。   In the example shown in FIG. 28, a 7 × 7 pixel array (a pixel array having the same size as the neighboring region N used for extraction of the reference color α) is defined, and the frame of this pixel array is indicated by a thick line. Yes. A region surrounded by the bold frame is one candidate region. In the figure, for the sake of convenience, only the first candidate area A (1) and the kth candidate area A (k) are illustrated, but actually, this 7 × 7 pixel array is arranged in the horizontal direction. By shifting one pixel at a time and shifting one pixel at a time in the vertical direction, a large number of candidate regions having different positions are defined.

たとえば、このブロックBmaxが、30×30画素の配列からなるブロックであったとすると、7×7の画素配列からなる候補領域を配置する横方向のバリエーションは24通り、縦方向のバリエーションも24通りであるので、ブロックBmax上には、互いに位置が異なる24×24=576個の候補領域が定義されることになる。切出条件自動変更部210は、これら576個の候補領域の中から、基準色αに最も適合する色をもつ候補領域を最適候補領域として選択する処理を行う。   For example, if the block Bmax is a block having a 30 × 30 pixel array, there are 24 variations in the horizontal direction and 24 variations in the vertical direction in which the candidate region having the 7 × 7 pixel array is arranged. Therefore, 24 × 24 = 576 candidate regions having different positions are defined on the block Bmax. The cutting condition automatic changing unit 210 performs a process of selecting a candidate area having a color most suitable for the reference color α from among the 576 candidate areas as an optimal candidate area.

ここで、基準色αに最も適合する色をもつ候補領域を選択するための具体的なアルゴリズムとしては、候補領域内の画素の色の平均値が基準色αに最も近い候補領域を最適候補領域として選択する方法を採ることができる。たとえば、図示の例の場合、第1の候補領域A(1)については、この太線の枠内に位置する合計49個の画素の色の平均値を算出し(§3−2で述べたように、RGB表色系で表現された3原色それぞれの画素値の平均をとればよい)、これを基準色αと比較し、色の近似度合を調べればよい。2つの色の近似度合を求めるには、§3−2で述べたように、両方の色をHSV表色系に変換し、色相Hの角度差を求めるようにすればよい。全576個の候補領域について、それぞれ色相Hの角度差を求めれば、角度差が最も小さい候補領域を最適候補領域として選択することができる。   Here, as a specific algorithm for selecting a candidate region having a color most suitable for the reference color α, a candidate region whose average color value of pixels in the candidate region is closest to the reference color α is determined as an optimal candidate region. The method of selecting as can be taken. For example, in the case of the illustrated example, for the first candidate area A (1), the average value of the color of a total of 49 pixels located within the bold line frame is calculated (as described in §3-2). In addition, the pixel values of the three primary colors expressed in the RGB color system may be averaged), and this may be compared with the reference color α to check the degree of color approximation. In order to obtain the approximate degree of the two colors, as described in §3-2, both colors may be converted into the HSV color system and the angle difference between the hues H may be obtained. If the angle difference of hue H is obtained for all 576 candidate areas, the candidate area with the smallest angle difference can be selected as the optimum candidate area.

もっとも、このように49個の画素のすべてについて色の平均値を求めるようにすると、§3−1でも述べたとおり、追跡対象物の色だけでなく、周囲の背景の色までもが、平均値に寄与することになる。たとえば、第k番目の候補領域A(k)と追跡対象物60との位置関係が、図23に示す例のようになっていた場合を考えてみよう。すなわち、図23に示す近傍領域Nが、候補領域A(k)に相当する。この場合、49個の画素のすべてについて色の平均値を求めてしまうと、追跡対象物(猫)の色に、背景の色が混入してしまうことになるので、せっかく候補領域A(k)内に追跡対象物(猫)が居るのに、基準色αとの近似度は、それほど大きくならない可能性がある。   However, when the average value of colors is obtained for all 49 pixels in this way, as described in §3-1, not only the color of the tracking object but also the color of the surrounding background is averaged. Will contribute to the value. For example, consider the case where the positional relationship between the kth candidate area A (k) and the tracking target 60 is as shown in the example shown in FIG. That is, the neighborhood area N shown in FIG. 23 corresponds to the candidate area A (k). In this case, if the average value of the colors is obtained for all 49 pixels, the background color will be mixed into the color of the tracking target (cat), and therefore the candidate area A (k). There is a possibility that the degree of approximation with the reference color α does not increase so much even though the tracking object (cat) is inside.

このような問題を解消するには、切出条件自動変更部210が、候補領域内の画素のうち、基準色αに対して所定の近似範囲に入る色をもつ画素を参照画素として、この参照画素の色の平均値が基準色αに最も近い候補領域を最適候補領域として選択するようにすればよい。   In order to solve such a problem, the clipping condition automatic changing unit 210 uses, as a reference pixel, a pixel having a color that falls within a predetermined approximate range with respect to the reference color α among the pixels in the candidate area. A candidate area whose pixel color average value is closest to the reference color α may be selected as the optimum candidate area.

上記アルゴリズムに基づく具体的な処理手順を、図29を参照しながら説明しよう。図29は、図28に示す第k番目の候補領域A(k)について、基準色αとの近似度を調べる処理手順を示す図である。第k番目の候補領域A(k)は、上述したとおり、合計49個の画素によって構成されている。ここでは、この49個の画素を、画素W1k〜W49kと呼ぶことにする。これらの各画素は、それぞれRGB表色系の画素値(R,G,B)を有している。たとえば、第1番目の画素W1kは、画素値(R1k,G1k,B1k)を有しており、第49番目の画素W49kは、画素値(R49k,G49k,B49k)を有している。そこで、まず、これらRGB表色系の画素値をHSV表色系の画素値に変換する。たとえば、第1番目の画素W1kの画素値は、画素値(H1k,S1k,V1k)に変換され、第49番目の画素W49kの画素値は、画素値(H49k,S49k,V49k)に変換される(前述したとおり、実際には、彩度Sおよび明度Vの値は求める必要はない)。   A specific processing procedure based on the above algorithm will be described with reference to FIG. FIG. 29 is a diagram showing a processing procedure for examining the degree of approximation with the reference color α for the kth candidate area A (k) shown in FIG. As described above, the kth candidate area A (k) includes a total of 49 pixels. Here, these 49 pixels are referred to as pixels W1k to W49k. Each of these pixels has an RGB color system pixel value (R, G, B). For example, the first pixel W1k has a pixel value (R1k, G1k, B1k), and the 49th pixel W49k has a pixel value (R49k, G49k, B49k). Therefore, first, these RGB color system pixel values are converted into HSV color system pixel values. For example, the pixel value of the first pixel W1k is converted into a pixel value (H1k, S1k, V1k), and the pixel value of the 49th pixel W49k is converted into a pixel value (H49k, S49k, V49k). (As described above, in practice, it is not necessary to obtain the values of saturation S and brightness V).

続いて、基準色格納部190に格納されている基準色αについても、HSV表色系への変換を行う。§3−2で述べた例の場合、基準色αは、RGB表色系で表現された画素値の平均をとった平均色Wav(Rav,Gav,Bav)として与えられるので、これをHSV表色系で表現した色Wav(Hav,Sav,Vav)に変換すればよい(この場合も、実際には、彩度Savおよび明度Vavの値は求める必要はない)。   Subsequently, the reference color α stored in the reference color storage unit 190 is also converted into the HSV color system. In the case of the example described in §3-2, the reference color α is given as an average color Wav (Rav, Gav, Bav) obtained by averaging pixel values expressed in the RGB color system. What is necessary is just to convert into the color Wav (Hav, Sav, Vav) expressed in the color system (in this case also, it is not actually necessary to determine the values of the saturation Sav and the lightness Vav).

そして、図29に示すとおり、49個の画素の各色相H1k〜H49kを、それぞれ基準色αの色相Havと比較する処理を行い、近似範囲内か否かの判断をする。具体的には、色相Havの角度に対して、角度差が許容角θ以下となる色相をもつ画素、すなわち、色相がHav−θ〜Hav+θの範囲内(色環上の0〜360°の角度であるため、負になる場合は360°を加えた値とし、360°を越える場合は、360°を減じた値とする)であれば、近似範囲との判断を行えばよい。そして、49個の画素のうち、近似範囲との判断がなされた画素を参照画素として、この参照画素の色の平均Wavkを求める。色の平均値を求める際には、RGB表色系の画素値の原色ごとの平均値がとられるので、平均色Wavkは、図29の下段に示すとおり、三原色の画素値(Ravk,Gavk,Bavk)の組み合わせとして得られることになる。   Then, as shown in FIG. 29, a process of comparing the hues H1k to H49k of the 49 pixels with the hue Hav of the reference color α is performed to determine whether or not they are within the approximate range. Specifically, a pixel having a hue whose angle difference is equal to or smaller than the allowable angle θ with respect to the angle of the hue Hav, that is, the hue is within a range of Hav−θ to Hav + θ (an angle of 0 to 360 ° on the color wheel). Therefore, if it is negative, it is a value obtained by adding 360 °, and if it exceeds 360 °, it is a value obtained by subtracting 360 °). Then, an average Wavk of the colors of the reference pixels is obtained by using, as a reference pixel, a pixel that has been determined to be an approximate range among the 49 pixels. When obtaining the average value of the colors, the average value for each primary color of the RGB color system pixel values is taken, so that the average color Wavk is the pixel values (Ravk, Gavk, Bavk).

こうして得られた色Wavk(Ravk,Gavk,Bavk)の意味するところは、図28に示す第k番目の候補領域A(k)内に含まれる49個の画素のうち、基準色α(Wav(Rav,Gav,Bav))に対して所定の近似範囲に入る色をもつ画素の色の平均、ということになる。そこで、最後に、この色Wavk(Ravk,Gavk,Bavk)と、基準色α(Wav(Rav,Gav,Bav))との近似度を算出する。具体的には、色Wavk(Ravk,Gavk,Bavk)をHSV表色系に変換してWavk(Havk,Savk,Vavk)を求め、基準色α(Wav(Rav,Gav,Bav))をHSV表色系に変換してWav(Hav,Sav,Vav)を求め、色相Havと色相Havkとの角度差を求めればよい(この場合も、実際には、彩度Sおよび明度Vの値は求める必要はない)。当該角度差は、第k番目の候補領域A(k)の色と基準色αとの適合度合を示すパラメータになる(角度差が小さいほど、適合度合が高いことになる)。   The meaning of the color Wavk (Ravk, Gavk, Bavk) obtained in this way is that the reference color α (Wav (Wav ()) among the 49 pixels included in the kth candidate area A (k) shown in FIG. Rav, Gav, Bav)) is the average of the colors of pixels having colors that fall within a predetermined approximate range. Therefore, finally, the degree of approximation between the color Wavk (Ravk, Gavk, Bavk) and the reference color α (Wav (Rav, Gav, Bav)) is calculated. Specifically, the color Wavk (Ravk, Gavk, Bavk) is converted into the HSV color system to obtain Wavk (Havk, Savk, Vavk), and the reference color α (Wav (Rav, Gav, Bav)) is determined as the HSV table. It is only necessary to obtain Wav (Hav, Sav, Vav) after conversion to a color system and obtain the angle difference between the hue Hav and the hue Havk (in this case also, it is actually necessary to obtain the values of the saturation S and the lightness V) Not) The angle difference is a parameter indicating the degree of matching between the color of the kth candidate area A (k) and the reference color α (the smaller the angle difference, the higher the degree of matching).

以上は、第k番目の候補領域A(k)についての適合度合を求める手順であるが、同様の手順を、第1番目の候補領域A(1)〜第576番目の候補領域A(576)について実行し、適合度合が最も高い候補領域(角度差の最も小さい候補領域)を、最適候補領域として選択することになる。こうして選択された最適候補領域の中心点が、次のフレームについての切出中心点Pとなる。たとえば、図28に示すように、第(i+1)番目の歪曲広角画像S(i+1)内の選択ブロックBmaxについて、第k番目の候補領域A(k)が最適候補領域として選択された場合、当該最適候補領域A(k)の中心点が新たな切出中心点P(i+1)となり、切出条件格納部170に書き込まれる。   The above is the procedure for obtaining the degree of fitness for the kth candidate region A (k). The same procedure is used for the first candidate region A (1) to the 576th candidate region A (576). The candidate area having the highest degree of matching (the candidate area having the smallest angle difference) is selected as the optimum candidate area. The center point of the optimum candidate area selected in this way becomes the cut center point P for the next frame. For example, as shown in FIG. 28, when the kth candidate area A (k) is selected as the optimal candidate area for the selected block Bmax in the (i + 1) th distorted wide-angle image S (i + 1), The center point of the optimal candidate area A (k) becomes a new cut center point P (i + 1) and is written in the cut condition storage unit 170.

なお、上記アルゴリズムによって最適候補領域を選択する際にも、切出条件自動変更部210が、予め基準色αに対する最低適合基準を設定しておき、適合の程度が最低適合基準以上となる候補領域が存在しない場合には(たとえば、角度差が5°以下となる候補領域が存在しない場合には)、最適候補領域の選択および切出中心点Pを示す情報の更新を行わずに自動追跡フラグ設定部220に対して自動追跡失敗信号を与えるようにするのが好ましい。自動追跡フラグ設定部220は、自動追跡失敗信号が与えられた場合には、自動追跡フラグをOFFに切り替え、その後の自動追跡処理を中止すればよい。   Even when the optimal candidate area is selected by the above algorithm, the extraction condition automatic changing unit 210 sets a minimum matching criterion for the reference color α in advance, and the candidate area whose degree of matching is equal to or higher than the minimum matching criterion. Is not present (for example, when there is no candidate region having an angle difference of 5 ° or less), the automatic tracking flag is selected without selecting the optimum candidate region and updating the information indicating the cut-out center point P. It is preferable to give an automatic tracking failure signal to the setting unit 220. When an automatic tracking failure signal is given, the automatic tracking flag setting unit 220 may switch the automatic tracking flag to OFF and stop the subsequent automatic tracking processing.

<3−6. 隣接ブロックへ移動した後の処理アルゴリズム>
本発明に係る動画提示装置における自動追跡モードでは、追跡対象物が隣接ブロックへ移動した場合にも、これまで述べてきたアルゴリズムと同様に処理を行うことにより、支障なく自動追跡を継続することができる。
<3-6. Processing algorithm after moving to adjacent block>
In the automatic tracking mode in the video presentation device according to the present invention, even when the tracking target moves to an adjacent block, the automatic tracking can be continued without any trouble by performing the same processing as the algorithm described so far. it can.

たとえば、図26に示すように、歪曲広角画像S(i+1)上で、切出中心点P(i)newを含むブロックを中心として、9個の近隣ブロックB1〜B9が抽出された時点で、既に追跡対象物がブロックB5から左のブロックB4へ移動していた場合を考えてみよう。この場合、ブロック選択部180は、追跡対象物が存在するブロックB4を選択することになり、切出条件自動変更部210は、このブロックB4上の追跡対象物の位置を特定し、当該位置を新たな切出中心点P(i+1)として、切出条件格納部170に書き込む処理を行う。   For example, as shown in FIG. 26, when nine neighboring blocks B1 to B9 are extracted around the block including the cut center point P (i) new on the distorted wide-angle image S (i + 1), Consider the case where the tracking target has already moved from the block B5 to the left block B4. In this case, the block selection unit 180 selects the block B4 in which the tracking target exists, and the extraction condition automatic change unit 210 specifies the position of the tracking target on the block B4 and determines the position. A process of writing into the cutting condition storage unit 170 as a new cutting center point P (i + 1) is performed.

この場合、次のフレームである歪曲広角画像S(i+2)上では、図30に示すように、切出中心点P(i+1)を含むブロックB4を中心として、9個の近隣ブロックB10,B1,B2,B11,B4,B5,B12,B7,B8が抽出されることになり、これまで述べてきたアルゴリズムと同様の処理手順で、追跡対象物についての自動追跡が継続される。   In this case, on the distorted wide-angle image S (i + 2) as the next frame, as shown in FIG. 30, nine neighboring blocks B10, B1, centering on the block B4 including the cut-out center point P (i + 1). B2, B11, B4, B5, B12, B7, and B8 are extracted, and automatic tracking of the tracking object is continued by the same processing procedure as the algorithm described so far.

なお、第(i+1)番目のフレームについての切出中心点P(i+1)が求まり、第(i+1)番目のフレームの平面正則画像T(i+1)が平面正則画像用メモリ140上に格納されると、基準色抽出部200は、この平面正則画像T(i+1)に基づいて、第(i+1)番目の基準色α(i+1)を抽出する処理を実行するが、当該処理も、§3−1で述べたアルゴリズムをそのまま踏襲して行うことができる。図22で説明した基準色αの抽出アルゴリズムは、追跡開始指示が与えられた当初のフレームについてのアルゴリズムであるため、近傍領域Nが追跡開始点Qの位置に定義されているが、それ以降のフレームについては、追跡対象物が常に画面の中心に表示されているため、近傍領域Nは、画面の中央位置に定義されることになる。   When the cut-out center point P (i + 1) for the (i + 1) th frame is obtained, the planar regular image T (i + 1) of the (i + 1) th frame is stored in the planar regular image memory 140. The reference color extraction unit 200 executes a process of extracting the (i + 1) th reference color α (i + 1) based on the planar regular image T (i + 1). You can follow the algorithm just described. The reference color α extraction algorithm described with reference to FIG. 22 is an algorithm for the initial frame to which the tracking start instruction is given, and therefore the neighborhood region N is defined at the position of the tracking start point Q. As for the frame, since the tracking object is always displayed at the center of the screen, the vicinity region N is defined at the center position of the screen.

図31は、第(i+1)番目のフレームの平面正則画像T(i+1)上で行われる基準色抽出処理の実例を示す平面図である。上述したように、自動追跡モードの途中のフレームの場合、切出中心点P(i+1)は平面正則画像T(i+1)の中心位置にくることになり、近傍領域Nも、平面正則画像T(i+1)の中央に定義される。この場合でも、近傍領域Nを利用した基準色抽出処理のアルゴリズム自体に変わりはなく、図示の例の場合、§3−1で述べた例と同様に、平均色Wav(Rav,Gav,Bav)が、第(i+1)番目の基準色α(i+1)として抽出されることになる。   FIG. 31 is a plan view showing an example of the reference color extraction process performed on the planar regular image T (i + 1) of the (i + 1) th frame. As described above, in the case of a frame in the middle of the automatic tracking mode, the cut-out center point P (i + 1) comes to the center position of the planar regular image T (i + 1), and the neighboring region N also includes the planar regular image T ( defined in the middle of i + 1). Even in this case, the algorithm of the reference color extraction process using the neighborhood region N is not changed. In the illustrated example, the average color Wav (Rav, Gav, Bav) is the same as the example described in §3-1. Are extracted as the (i + 1) th reference color α (i + 1).

<<< §4. いくつかの変形例 >>>
最後に、本発明に係る動画提示装置の変形例をいくつか述べておく。
<<< §4. Some variations >>>
Finally, some modifications of the moving picture presentation apparatus according to the present invention will be described.

(1) 色の近似判断の変形例
§3−2では、色の近似判断のアルゴリズムとして、画素値をHSV表色系の画素値に変換し、色相Hの角度差に基づいて近似判断を行う例を述べたが、2つの画素の色の近似判断を行うアルゴリズムは、色相Hの角度差に基づく方法に限定されるものではない。
(1) Modified Example of Color Approximation In §3-2, as an algorithm for color approximation, pixel values are converted into HSV color system pixel values, and approximation is determined based on the angle difference of hue H Although an example has been described, the algorithm for performing the approximate determination of the colors of two pixels is not limited to the method based on the angle difference between the hues H.

たとえば、第1の画素の色の所定の近似範囲に第2の画素の色が入るための条件として、各画素の画素値をRGB表色系で表現し、個々の画素の色を三次元RGB座標系で示される色空間上に座標点としてプロットした場合に、「2つの画素の座標点間のユークリッド距離が所定値以下である」との条件を用いることも可能である。   For example, as a condition for the color of the second pixel to fall within a predetermined approximate range of the color of the first pixel, the pixel value of each pixel is expressed in the RGB color system, and the color of each pixel is expressed in 3D RGB When plotting as coordinate points on the color space indicated by the coordinate system, it is also possible to use the condition that “the Euclidean distance between the coordinate points of two pixels is equal to or less than a predetermined value”.

図32は、RGB表色系における色の近似条件の設定例を示す図である。各画素の画素値をRGB表色系で表現した場合、個々の画素の色は、三次元RGB座標系で示される色空間上に座標点としてプロットすることができる。たとえば、図32に示す点QαおよびベクトルVαは、(Rα,Gα,Bα)なる数値で示される1つの座標点およびベクトルであるが、RGB表色系で表現した場合に画素値(Rα,Gα,Bα)で表される色を示している。同様に、点QβおよびベクトルVβは、画素値(Rβ,Gβ,Bβ)で表される色を示している。   FIG. 32 is a diagram illustrating a setting example of color approximation conditions in the RGB color system. When the pixel value of each pixel is expressed in the RGB color system, the color of each pixel can be plotted as a coordinate point on a color space represented by a three-dimensional RGB coordinate system. For example, the point Qα and the vector Vα shown in FIG. 32 are one coordinate point and vector indicated by numerical values (Rα, Gα, Bα), but when expressed in the RGB color system, the pixel values (Rα, Gα , Bα). Similarly, the point Qβ and the vector Vβ indicate colors represented by pixel values (Rβ, Gβ, Bβ).

ここで、2つの色Qα,Qβの近似度は、2点Qα,Qβ間のユークリッド距離dで表すことができ、距離dが小さければ小さいほど、近似度が高いと言うことができる。ユークリッド距離dは、図33に示す演算式で定義できるので、結局、2つの画素のRGB表色系の画素値が得られれば、図33に示す式を用いてユークリッド距離dを求めることができ、両画素の色の近似度を求めることができる。したがって、色Qαの所定の近似範囲に色Qβが入るための条件として、「ユークリッド距離dが所定値以下である」との条件を設定し、色の近似判断を行うことができる。   Here, the degree of approximation of the two colors Qα and Qβ can be expressed by the Euclidean distance d between the two points Qα and Qβ, and it can be said that the smaller the distance d, the higher the degree of approximation. Since the Euclidean distance d can be defined by the arithmetic expression shown in FIG. 33, if the pixel values of the RGB color system of two pixels are obtained after all, the Euclidean distance d can be obtained using the expression shown in FIG. The degree of approximation of the colors of both pixels can be obtained. Therefore, as a condition for the color Qβ to fall within the predetermined approximate range of the color Qα, a condition that “Euclidean distance d is equal to or smaller than a predetermined value” can be set, and the color approximation can be determined.

(2) 基準色の抽出対象の変形例
これまで述べてきた実施形態では、基準色抽出部200が平面正則画像用メモリ140に格納されている平面正則画像Tに基づいて、追跡対象物の色を代表する基準色αを抽出する例を述べた。たとえば、図22に示す近傍領域Nや図31に示す近傍領域Nは、いずれも平面正則画像T上に定義された領域であり、基準色αの抽出処理は、平面正則画像T上の画素を利用して行われてきた。
(2) Modification Example of Reference Color Extraction Object In the embodiments described so far, the color of the tracking object is determined based on the planar regular image T stored in the planar regular image memory 140 by the reference color extraction unit 200. An example of extracting the reference color α representing the above has been described. For example, the neighborhood area N shown in FIG. 22 and the neighborhood area N shown in FIG. 31 are both areas defined on the planar regular image T, and the extraction process of the reference color α is performed on pixels on the planar regular image T. It has been done using.

しかしながら、基準色の抽出対象は、必ずしも平面正則画像Tに限定されるものではなく、歪曲広角画像用メモリ130に格納されている歪曲広角画像Sに基づいて、基準色αを抽出することも可能である。切出中心点Pは、平面正則画像T上にも、歪曲広角画像S上にも定義できる点であるから、歪曲広角画像S上の切出中心点Pを含む画素およびその周辺画素によって近傍領域Nを定義することも可能であり、歪曲広角画像S上の近傍領域Nに基づいて、これまで述べてきた方法と同様の方法で、基準色αの抽出を行うことも可能である。   However, the reference color extraction target is not necessarily limited to the planar regular image T, and the reference color α can be extracted based on the distorted wide-angle image S stored in the distorted wide-angle image memory 130. It is. The cut-out center point P is a point that can be defined on both the planar regular image T and the distorted wide-angle image S. Therefore, the neighboring region is defined by the pixel including the cut-out center point P on the distorted wide-angle image S and its peripheral pixels. N can also be defined, and based on the neighboring region N on the distorted wide-angle image S, the reference color α can be extracted by the same method as described above.

(3) コントローラ装置300の変形例
図14には、指示入力部240のハードウエア構成部分となるコントローラ装置300の一例を示したが、もちろん、コントローラ装置の構成は、図14に示す例に限定されるものではない。
(3) Modified Example of Controller Device 300 FIG. 14 shows an example of the controller device 300 that is a hardware component of the instruction input unit 240. Of course, the configuration of the controller device is limited to the example shown in FIG. Is not to be done.

図14に示すコントローラ装置300では、カーソル移動ボタン341〜344を利用して、画面上の十字カーソルCを移動し、この十字カーソルCによって追跡開始点Qの位置を指定する操作を行うことになるが、追跡開始点Qの位置指定は、必ずしも、このようなカーソル移動ボタン341〜344を利用して行う必要はない。   In the controller device 300 shown in FIG. 14, the cursor movement buttons 341 to 344 are used to move the cross cursor C on the screen, and an operation for designating the position of the tracking start point Q is performed by the cross cursor C. However, it is not always necessary to specify the position of the tracking start point Q using such cursor movement buttons 341 to 344.

この図14に示すコントローラ装置300には、画面移動ボタン320が備わっており、この画面移動ボタン320を上下左右に傾斜させることにより、平面正則画像上での切り出し位置を上下左右に移動させることができる。そこで、この画面移動ボタン320を利用して、追跡開始点Qの位置を指定する操作を行えるようにすることも可能である。たとえば、この画面移動ボタン320と、追跡開始指示ボタン345とを用いて、追跡開始点Qの位置を含む追跡開始指示の入力を行うようにすることができる。そのためには、自動追跡フラグ設定部220が、追跡開始指示ボタン345が押されたときに、その時点の切出中心点Pの位置を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行するようにすればよい。   The controller device 300 shown in FIG. 14 includes a screen movement button 320. By tilting the screen movement button 320 up, down, left, and right, the cutout position on the planar regular image can be moved up, down, left, and right. it can. Therefore, it is possible to perform an operation for designating the position of the tracking start point Q by using the screen movement button 320. For example, it is possible to input a tracking start instruction including the position of the tracking start point Q using the screen movement button 320 and the tracking start instruction button 345. For this purpose, it is assumed that when the tracking start instruction button 345 is pressed, the automatic tracking flag setting unit 220 receives a tracking start instruction with the position of the cut-out center point P at that time as the tracking start point Q. The automatic tracking start process may be executed.

この場合の具体的な操作を実例で示そう。たとえば、視聴者が、猫60を追跡対象物として自動追跡モードに入りたいと考えた場合、猫60が画面の中心に表示されるように画面移動ボタン320を操作し、図19に示すように、猫60が画面の中心に表示された時点で、追跡開始指示ボタン345が押す操作を行えばよい。そうすれば、自動追跡フラグ設定部220は、画面中心の猫60の位置(すなわち、切出中心点Pの位置)を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行することができる。   Let's show the specific operation in this case with an example. For example, when the viewer wants to enter the automatic tracking mode with the cat 60 as the tracking target, the screen moving button 320 is operated so that the cat 60 is displayed at the center of the screen, as shown in FIG. When the cat 60 is displayed at the center of the screen, the tracking start instruction button 345 may be pressed. Then, the automatic tracking flag setting unit 220 starts automatic tracking on the assumption that a tracking start instruction having the tracking start point Q as the position of the cat 60 at the center of the screen (that is, the position of the cut center point P) is input. Processing can be executed.

また、図14に示すコントローラ装置300には、追跡終了指示ボタンが示されていないが、実用上は、コントローラ装置300に追跡終了指示ボタンを用意しておき、自動追跡フラグ設定部220が、この追跡終了指示ボタンが押された場合に、追跡終了指示が入力されたものとして、自動追跡フラグをOFFに切り替え、自動追跡終了処理を実行するようにするのが好ましい。もちろん、他のボタンを追跡終了指示ボタンとして兼用させることもできる。たとえば、追跡開始指示ボタン345を追跡終了指示ボタンとして兼用させ、自動追跡フラグがONのときに追跡開始指示ボタン345が押された場合には、追跡終了指示が入力されたものとして、自動追跡終了処理が実行されるようにしてもよい。   In addition, although the tracking end instruction button is not shown in the controller device 300 shown in FIG. 14, in practice, a tracking end instruction button is prepared in the controller device 300, and the automatic tracking flag setting unit 220 performs this operation. When the tracking end instruction button is pressed, it is preferable to execute the automatic tracking end process by switching the automatic tracking flag to OFF, assuming that the tracking end instruction is input. Of course, other buttons can also be used as tracking end instruction buttons. For example, if the tracking start instruction button 345 is also used as a tracking end instruction button and the tracking start instruction button 345 is pressed when the automatic tracking flag is ON, the tracking end instruction is input and the automatic tracking end Processing may be executed.

更に、画像入力部110が入力する画像データが、何らかのデジタルコンテンツデータであり、必要に応じて、早送り、巻き戻し、一時停止、スロー再生などを行うことが可能な場合は、コントローラ装置300に、早送りボタン、巻き戻しボタン、一時停止ボタン、スロー再生ボタンなどを設けておき、これらの操作を行うことができるようにしてもよい。   Furthermore, if the image data input by the image input unit 110 is some digital content data and can be fast forwarded, rewound, paused, slow playback, etc., as necessary, the controller device 300 A fast-forward button, a rewind button, a pause button, a slow playback button, and the like may be provided so that these operations can be performed.

(4) 広角撮影装置および撮影環境の変形例
これまで述べた例は、広角撮影装置として、魚眼レンズを装着したビデオカメラを用いた例であるが、本発明に係る動画提示装置によって提示可能な動画は、必ずしも魚眼レンズを装着した撮影装置によって撮影された画像に限定されるものではない。たとえば、全方位ミラーを装着した撮影装置などによって撮影された動画を提示する場合にも、本発明は適用可能である。
(4) Wide Angle Shooting Device and Modification Examples of Shooting Environment The example described so far is an example using a video camera equipped with a fisheye lens as a wide angle shooting device, but a moving image that can be presented by the moving image presentation device according to the present invention. Is not necessarily limited to an image photographed by a photographing apparatus equipped with a fisheye lens. For example, the present invention can also be applied to a case where a moving image shot by a shooting device equipped with an omnidirectional mirror is presented.

また、動画撮影の環境には、広角撮影装置を固定して定点撮影を行うケースと、広角撮影装置を移動させながら周囲の風景などを撮影する移動撮影を行うケースがあるが、本発明は、いずれのケースで得られた動画の提示にも適用可能である。定点撮影した動画の場合、追跡対象物(動体)は、猫、人、車といった移動物体になるが、移動撮影した動画の場合、追跡対象物(動体)は、移動物体に限定されず、たとえば、建物や標識などの固定物体も追跡対象物として指定可能になる。   In addition, there are cases in which movie shooting is performed in a fixed-point shooting with a wide-angle shooting device fixed and cases in which moving shooting is performed for shooting surrounding scenery while moving the wide-angle shooting device. The present invention can be applied to the presentation of moving images obtained in either case. In the case of a fixed-point video, the tracking object (moving object) is a moving object such as a cat, a person, or a car. However, in the case of a moving image, the tracking object (moving object) is not limited to a moving object. Also, fixed objects such as buildings and signs can be designated as tracking objects.

10:路面
20:樹木
30:ガードレール
40:ビデオカメラ
50:魚眼レンズ
60:追跡対象物(猫)
110:画像入力部
120:画像出力部
130:歪曲広角画像用メモリ
140:平面正則画像用メモリ
150:画像切出変換部
160:近隣ブロック抽出部
170:切出条件格納部
180:ブロック選択部
190:基準色格納部
200:基準色抽出部
210:切出条件自動変更部
220:自動追跡フラグ設定部
230:切出条件手動変更部
240:指示入力部
300:コントローラ装置
310:操作パネル部
320:画面移動ボタン(円形操作盤)
330:倍率向き変更ボタン
331:倍率変更ボタン(増加)
332:倍率変更ボタン(減少)
333:向き変更ボタン(反時計回り)
334:向き変更ボタン(時計回り)
340:カーソル移動ボタン
341:上方向移動ボタン
342:下方向移動ボタン
343:左方向移動ボタン
344:右方向移動ボタン
345:追跡開始指示ボタン
350:接続ケーブル
A(1),A(k):候補領域
a:ディスプレイ画面の横方向寸法(水平方向の画素数)
B,Bα,Bβ:青色画素値
B1〜B12,Bmax:ブロック
b:ディスプレイ画面の縦方向寸法(垂直方向の画素数)
C:十字カーソル
D:切出方向線
d:ユークリッド距離
E,E1,E2,E(1),E(9):切出領域
E(i),E(i+1):切出領域
G:二次元UV座標系の原点
G,Gα,Gβ:緑色画素値
H:仮想球面
Hq:基準色の色相
H(x,y,z):仮想球面H上の入射点
L1,L2:入射光線
m,m(i),m(i+1):倍率
N:近傍領域
O:三次元XYZ直交座標系の原点
P,P1,P2,P(1),P(9):切出中心点
P(i),P(i)old,P(i)new,P(i+1):切出中心点
P(xp,yp):切出中心点
Q:追跡開始点
Qα,Qβ:RGB色空間上の座標点
R,Rα,Rβ:赤色画素値
r:歪曲広角画像Sの半径(仮想球面Hの半径)
S,S(1),S(9):歪曲広角画像(魚眼レンズで撮影された円形画像)
S(i),S(i+1):歪曲広角画像(魚眼レンズで撮影された円形画像)
S(x,y):二次元XY直交座標系上の歪曲広角画像S内の点
Si(xi,yi):二次元XY直交座標系上の歪曲広角画像S内の点
T,T1,T2:平面正則画像
T(i),T(i+1):平面正則画像
Ti(ui,vi):二次元UV直交座標系上の平面正則画像T内の点
U:二次元UV座標系の座標軸
u:二次元UV座標系の座標軸Uに関する座標値
V:二次元UV座標系の座標軸
v:二次元UV座標系の座標軸Vに関する座標値
Vα,Vβ:ベクトル
W1〜W49:画素
Wq:中心画素
Wj(Rj,Gj,Bj):画素の色(RGB表色系)
Wj(Hj,Sj,Vj):画素の色(HSV表色系)
X:三次元XYZ直交座標系の座標軸
x,xp:二次元XY直交座標系の座標軸Xに関する座標値
Y:三次元XYZ直交座標系の座標軸
y,yp:二次元XY直交座標系の座標軸Yに関する座標値
Z:三次元XYZ直交座標系の座標軸
α:基準色
φ,φ(i),φ(i+1):切出方向を示すパラメータ(平面傾斜角)
θ:許容角
10: Road surface 20: Tree 30: Guard rail 40: Video camera 50: Fisheye lens 60: Tracking object (cat)
110: Image input unit 120: Image output unit 130: Distorted wide-angle image memory 140: Planar regular image memory 150: Image extraction conversion unit 160: Neighboring block extraction unit 170: Extraction condition storage unit 180: Block selection unit 190 : Reference color storage unit 200: reference color extraction unit 210: extraction condition automatic change unit 220: automatic tracking flag setting unit 230: extraction condition manual change unit 240: instruction input unit 300: controller device 310: operation panel unit 320: Screen movement button (circular operation panel)
330: Magnification direction change button 331: Magnification change button (increase)
332: Magnification change button (decrease)
333: Direction change button (counterclockwise)
334: Direction change button (clockwise)
340: Cursor movement button 341: Upward movement button 342: Downward movement button 343: Leftward movement button 344: Rightward movement button 345: Tracking start instruction button 350: Connection cable A (1), A (k): Candidate Area a: horizontal dimension of display screen (number of pixels in horizontal direction)
B, Bα, Bβ: Blue pixel values B1 to B12, Bmax: Block b: Vertical dimension of display screen (number of pixels in the vertical direction)
C: Crosshair cursor D: Cutout direction line d: Euclidean distance E, E1, E2, E (1), E (9): Cutout area E (i), E (i + 1): Cutout area G: Two-dimensional Origin G, Gα, Gβ of UV coordinate system: Green pixel value H: Virtual spherical surface Hq: Hue of reference color H (x, y, z): Incident points L1, L2 on virtual spherical surface H: incident rays m, m ( i), m (i + 1): magnification N: neighboring region O: origin P, P1, P2, P (1), P (9) of the three-dimensional XYZ Cartesian coordinate system: cutting center points P (i), P ( i) old, P (i) new, P (i + 1): cutting center point P (xp, yp): cutting center point Q: tracking start point Qα, Qβ: coordinate points R, Rα, RGB color space Rβ: red pixel value r: radius of the distorted wide-angle image S (radius of the phantom spherical surface H)
S, S (1), S (9): Distorted wide-angle image (circular image photographed with a fisheye lens)
S (i), S (i + 1): Distorted wide-angle image (circular image taken with a fisheye lens)
S (x, y): point Si (xi, yi) in the distorted wide-angle image S on the two-dimensional XY orthogonal coordinate system: points T, T1, T2 in the distorted wide-angle image S on the two-dimensional XY orthogonal coordinate system: Planar regular images T (i), T (i + 1): Planar regular images Ti (ui, vi): Points in the planar regular image T on the two-dimensional UV orthogonal coordinate system: Coordinate axes u of the two-dimensional UV coordinate system: Two Coordinate value V regarding coordinate axis U of two-dimensional UV coordinate system V: Coordinate axis V of two-dimensional UV coordinate system V: Coordinate value Vα, Vβ regarding coordinate axis V of two-dimensional UV coordinate system: Vector W1-W49: Pixel Wq: Center pixel Wj (Rj, Gj, Bj): Pixel color (RGB color system)
Wj (Hj, Sj, Vj): Pixel color (HSV color system)
X: coordinate axis x of three-dimensional XYZ orthogonal coordinate system, xp: coordinate value related to coordinate axis X of two-dimensional XY orthogonal coordinate system Y: coordinate axis y of three-dimensional XYZ orthogonal coordinate system, yp: related to coordinate axis Y of two-dimensional XY orthogonal coordinate system Coordinate value Z: coordinate axis α of three-dimensional XYZ orthogonal coordinate system α: reference color φ, φ (i), φ (i + 1): parameter indicating the cutting direction (plane inclination angle)
θ: Allowable angle

Claims (20)

広角撮影により得られた動画の各フレームを構成する歪曲広角画像の一部分を切り出して、平面正則画像に変換し、これを順次出力して動画の提示を行う動画提示装置であって、
二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成される歪曲広角画像を格納する歪曲広角画像用メモリと、
フレーム単位の時系列データとして順次与えられる第i番目(iは、時系列で順次増加する整数)のフレームの歪曲広角画像を、前記歪曲広角画像用メモリに順次格納する画像入力部と、
二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、
前記平面正則画像用メモリに格納されている平面正則画像を読み出して出力する画像出力部と、
歪曲広角画像の一部から平面正則画像を切り出すための条件として、歪曲広角画像上の1点である切出中心点Pと、画像の切り出し向きを示すパラメータφと、所定の倍率mと、を含む切出条件を格納する切出条件格納部と、
前記切出条件格納部に格納されている切出条件に基づいて、前記歪曲広角画像用メモリに格納されている第i番目のフレームの歪曲広角画像の切出中心点Pで示される切り出し位置から、パラメータφで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して第i番目のフレームの平面正則画像として前記平面正則画像用メモリに格納する画像切出変換部と、
視聴者からの指示を入力する指示入力部と、
前記指示入力部が、切出条件を変更する切出条件変更指示を入力したときに、当該指示に基づいて、前記切出条件格納部に格納されている切出条件を変更する切出条件手動変更部と、
前記指示入力部が、特定の平面正則画像上の追跡開始点Qの位置を含む追跡開始指示を入力したときに、自動追跡フラグをONに切り替えるとともに、前記追跡開始点Qに対応する二次元XY座標系上の点を新たな切出中心点Pとして、前記切出条件格納部に格納されている切出中心点Pを更新する自動追跡開始処理を実行し、前記指示入力部が、追跡終了指示を入力したときに、前記自動追跡フラグをOFFに切り替える自動追跡終了処理を実行する自動追跡フラグ設定部と、
前記自動追跡フラグがONの場合に、前記平面正則画像用メモリに格納されている第i番目のフレームの平面正則画像もしくは前記歪曲広角画像用メモリに格納されている第i番目のフレームの歪曲広角画像に基づいて、前記切出条件格納部に格納されている第i番目のフレームについての切出中心点Pに位置する追跡対象物の色を代表する第i番目のフレームの基準色αを、iが更新するごとに逐次抽出する基準色抽出部と、
前記基準色抽出部によって抽出された最新の基準色を格納する基準色格納部と、
前記自動追跡フラグがONの場合に、前記歪曲広角画像用メモリに格納されている第(i+1)番目のフレームの歪曲広角画像を複数のブロックに分割し、前記切出条件格納部に格納されている第i番目のフレームについての切出中心点Pの近隣の複数のブロックを近隣ブロックとして抽出する近隣ブロック抽出部と、
前記自動追跡フラグがONの場合に、前記複数の近隣ブロックのそれぞれについて、ブロック内に含まれる個々の画素のうち、前記基準色格納部に格納されている第i番目のフレームの基準色αに対して所定の近似範囲に入る色をもつ画素の数を示す近似色画素数を求め、この近似色画素数が最大となるブロックを選択するブロック選択部と、
前記自動追跡フラグがONの場合に、前記ブロック選択部が選択したブロック内に互いに位置が異なる複数の候補領域を定義し、これら複数の候補領域の中から、前記基準色格納部に格納されている第i番目の基準色αに最も適合する色をもつ候補領域を最適候補領域として選択し、選択した最適候補領域の中心点を第(i+1)番目のフレームについての切出中心点Pとして、前記切出条件格納部に格納されている切出中心点Pを示す情報を更新する切出条件自動変更部と、
を備えることを特徴とする動画提示装置。
A video presentation device that cuts out a part of a distorted wide-angle image constituting each frame of a video obtained by wide-angle shooting, converts it into a planar regular image, and sequentially outputs this to present a video,
A distorted wide-angle image memory for storing a distorted wide-angle image configured by an aggregate of a large number of pixels arranged at a position indicated by coordinates (x, y) on a two-dimensional XY coordinate system;
An image input unit that sequentially stores a distorted wide-angle image of an i-th frame (i is an integer that sequentially increases in time series) sequentially given as time-series data in units of frames;
A planar regular image memory for storing a planar regular image composed of a collection of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system;
An image output unit that reads and outputs a planar regular image stored in the planar regular image memory;
As a condition for cutting out a planar regular image from a part of a distorted wide-angle image, a cutting center point P that is one point on the distorted wide-angle image, a parameter φ indicating the cutting direction of the image, and a predetermined magnification m are: A cutting condition storage unit for storing cutting conditions including,
Based on the cutting condition stored in the cutting condition storage unit, from the cutting position indicated by the cutting center point P of the distorted wide-angle image of the i-th frame stored in the distorted wide-angle image memory. Then, an image having a cut-out size indicated by the magnification m is cut out in the cut-out direction indicated by the parameter φ, converted into a plane regular image, and stored in the plane regular image memory as a plane regular image of the i-th frame. An image cropping conversion unit;
An instruction input unit for inputting instructions from the viewer;
When the instruction input unit inputs a cutting condition change instruction for changing the cutting condition, a cutting condition manual for changing the cutting condition stored in the cutting condition storage unit based on the instruction Change part,
When the instruction input unit inputs a tracking start instruction including the position of the tracking start point Q on a specific planar regular image, the automatic tracking flag is turned ON and the two-dimensional XY corresponding to the tracking start point Q A point on the coordinate system is set as a new cut center point P, an automatic tracking start process for updating the cut center point P stored in the cut condition storage unit is executed, and the instruction input unit performs tracking end An automatic tracking flag setting unit for executing an automatic tracking end process for switching the automatic tracking flag to OFF when an instruction is input;
When the automatic tracking flag is ON, the i-th frame regular image stored in the plane regular image memory or the distorted wide-angle image of the i-th frame stored in the distorted wide-angle image memory. Based on the image, the reference color α of the i-th frame representing the color of the tracking object located at the cut-out center point P for the i-th frame stored in the cut-out condition storage unit, a reference color extraction unit that sequentially extracts each time i is updated;
A reference color storage unit for storing the latest reference color extracted by the reference color extraction unit;
When the automatic tracking flag is ON, the distorted wide-angle image of the (i + 1) th frame stored in the distorted wide-angle image memory is divided into a plurality of blocks and stored in the extraction condition storage unit. A neighboring block extraction unit that extracts a plurality of blocks near the cut-out center point P for the i-th frame as neighboring blocks;
When the automatic tracking flag is ON, for each of the plurality of neighboring blocks, among the individual pixels included in the block, the reference color α of the i-th frame stored in the reference color storage unit is set. A block selection unit that obtains an approximate color pixel number indicating the number of pixels having a color that falls within a predetermined approximate range, and selects a block having the maximum approximate color pixel number;
When the automatic tracking flag is ON, a plurality of candidate areas whose positions are different from each other are defined in the block selected by the block selection unit, and stored in the reference color storage unit from among the plurality of candidate areas A candidate area having a color that best matches the i-th reference color α is selected as the optimum candidate area, and the center point of the selected optimum candidate area is set as a cut-out center point P for the (i + 1) -th frame. A cutting condition automatic changing unit for updating information indicating the cutting center point P stored in the cutting condition storage unit;
A moving picture presentation apparatus comprising:
請求項1に記載の動画提示装置において、
基準色抽出部が、切出中心点Pを含む1画素の色を基準色αとして抽出することを特徴とする動画提示装置。
The video presentation device according to claim 1,
The moving picture presentation apparatus, wherein the reference color extraction unit extracts the color of one pixel including the cut-out center point P as the reference color α.
請求項1に記載の動画提示装置において、
基準色抽出部が、切出中心点Pを含む中心画素およびその周囲の周辺画素からなる近傍領域を定義し、この近傍領域内の画素の色の平均値を基準色αとして抽出することを特徴とする動画提示装置。
The video presentation device according to claim 1,
The reference color extraction unit defines a neighboring area including a central pixel including the cut-out center point P and surrounding peripheral pixels, and extracts an average value of the colors of the pixels in the neighboring area as a reference color α. A video presentation device.
請求項1に記載の動画提示装置において、
基準色抽出部が、切出中心点Pを含む中心画素およびその周囲の周辺画素からなる近傍領域を定義し、この近傍領域内の画素のうち、前記中心画素の色に対して所定の近似範囲に入る色をもつ画素を参照画素として、この参照画素の色の平均値を基準色αとして抽出することを特徴とする動画提示装置。
The video presentation device according to claim 1,
The reference color extraction unit defines a neighborhood area including a center pixel including the cut-out center point P and surrounding pixels around the center pixel, and a predetermined approximate range with respect to the color of the center pixel among the pixels in the neighborhood area A moving picture presenting apparatus characterized in that a pixel having a color falling within is used as a reference pixel, and an average value of colors of the reference pixel is extracted as a standard color α.
請求項3または4に記載の動画提示装置において、
基準色抽出部が、切出中心点Pを含む中心画素を中心とするn行n列の正方画素配列を近傍領域と定義することを特徴とする動画提示装置。
In the moving image presentation device according to claim 3 or 4,
The moving picture presentation device, wherein the reference color extraction unit defines a square pixel array of n rows and n columns centering on a central pixel including the cut-out center point P as a neighborhood region.
請求項1〜5のいずれかに記載の動画提示装置において、
近隣ブロック抽出部が、歪曲広角画像を、縦横に整列して配置された複数の矩形状のブロックに分割し、切出中心点Pを含むブロックを中心ブロックとして、この中心ブロックおよびその上下左右および斜め四方に位置する隣接ブロックを含めた合計9ブロック(但し、該当位置に存在しないブロックは除く)を近隣ブロックとして抽出することを特徴とする動画提示装置。
In the moving image presentation device according to any one of claims 1 to 5,
The neighboring block extraction unit divides the distorted wide-angle image into a plurality of rectangular blocks arranged in vertical and horizontal directions, and uses the block including the cut-out center point P as a central block, and the central block and its upper, lower, left, and right 9. A moving picture presentation apparatus that extracts a total of nine blocks (excluding blocks that do not exist at a corresponding position) including neighboring blocks located in diagonal directions as neighboring blocks.
請求項1〜6のいずれかに記載の動画提示装置において、
切出条件自動変更部が、所定サイズの画素配列を定義し、当該画素配列の枠をブロック内の所定位置に配置した場合の当該枠内の領域を候補領域とし、前記画素配列の枠の配置を縦横にそれぞれ1画素ずつずらすことにより、互いに位置が異なる複数の候補領域を定義することを特徴とする動画提示装置。
In the moving image presentation device according to any one of claims 1 to 6,
When the cutting condition automatic changing unit defines a pixel array of a predetermined size and the frame of the pixel array is arranged at a predetermined position in the block, the area in the frame is set as a candidate area, and the arrangement of the frame of the pixel array A moving picture presentation apparatus that defines a plurality of candidate areas having different positions from each other by shifting the vertical and horizontal one pixel at a time.
請求項7に記載の動画提示装置において、
切出条件自動変更部が、候補領域内の画素の色の平均値が基準色αに最も近い候補領域を最適候補領域として選択することを特徴とする動画提示装置。
The video presentation device according to claim 7,
The moving picture presentation device, wherein the extraction condition automatic change unit selects a candidate area whose average color value of pixels in the candidate area is closest to the reference color α as the optimum candidate area.
請求項7に記載の動画提示装置において、
切出条件自動変更部が、候補領域内の画素のうち、基準色αに対して所定の近似範囲に入る色をもつ画素を参照画素として、この参照画素の色の平均値が基準色αに最も近い候補領域を最適候補領域として選択することを特徴とする動画提示装置。
The video presentation device according to claim 7,
The cutting condition automatic changing unit uses, as a reference pixel, a pixel having a color that falls within a predetermined approximate range with respect to the reference color α among the pixels in the candidate region, and the average value of the color of the reference pixel is set as the reference color α. An apparatus for presenting a moving image, wherein the nearest candidate area is selected as an optimal candidate area.
請求項1〜9のいずれか記載の動画提示装置において、
ブロック選択部が、予め近似色画素数の最低基準値を設定し、近似色画素数が前記最低基準値以上となるブロックが存在しない場合には、ブロックの選択を行わずに自動追跡フラグ設定部に対して自動追跡失敗信号を与え、
自動追跡フラグ設定部が、前記自動追跡失敗信号が与えられたときに、自動追跡フラグをOFFに切り替えることを特徴とする動画提示装置。
In the moving image presentation apparatus in any one of Claims 1-9,
The block selection unit sets the minimum reference value of the approximate color pixel number in advance, and if there is no block whose approximate color pixel number is equal to or greater than the minimum reference value, the automatic tracking flag setting unit does not perform block selection Gives an automatic tracking failure signal to
The moving picture presenting apparatus, wherein the automatic tracking flag setting unit switches the automatic tracking flag to OFF when the automatic tracking failure signal is given.
請求項1〜10のいずれかに記載の動画提示装置において、
切出条件自動変更部が、予め基準色αに対する最低適合基準を設定し、適合の程度が前記最低適合基準以上となる候補領域が存在しない場合には、最適候補領域の選択および切出中心点Pを示す情報の更新を行わずに自動追跡フラグ設定部に対して自動追跡失敗信号を与え、
自動追跡フラグ設定部が、前記自動追跡失敗信号が与えられたときに、自動追跡フラグをOFFに切り替えることを特徴とする動画提示装置。
In the moving image presentation apparatus in any one of Claims 1-10,
When the cutting condition automatic changing unit sets the minimum matching criterion for the reference color α in advance, and there is no candidate area whose degree of matching is equal to or higher than the minimum matching criterion, the selection of the optimal candidate area and the cutting center point An automatic tracking failure signal is given to the automatic tracking flag setting unit without updating the information indicating P,
The moving picture presenting apparatus, wherein the automatic tracking flag setting unit switches the automatic tracking flag to OFF when the automatic tracking failure signal is given.
請求項1、4または9に記載の動画提示装置において、
第1の画素の色の所定の近似範囲に第2の画素の色が入るための条件として、各画素の画素値をHSV表色系で表現して色相Hの値を0〜360°の角度で表した場合に、「第1の画素の色の色相Hを表す角度と第2の画素の色の色相Hを表す角度との角度差が所定の許容角θ以下である」との条件を用いることを特徴とする動画提示装置。
The moving picture presentation device according to claim 1, 4 or 9,
As a condition for the color of the second pixel to fall within a predetermined approximate range of the color of the first pixel, the pixel value of each pixel is expressed in the HSV color system, and the value of hue H is an angle of 0 to 360 °. The condition that “the angle difference between the angle representing the hue H of the color of the first pixel and the angle representing the hue H of the color of the second pixel is equal to or less than a predetermined allowable angle θ” A moving picture presentation apparatus characterized by being used.
請求項1、4または9に記載の動画提示装置において、
第1の画素の色の所定の近似範囲に第2の画素の色が入るための条件として、各画素の画素値をRGB表色系で表現し、個々の画素の色を三次元RGB座標系で示される色空間上に座標点としてプロットした場合に、「2つの画素の座標点間のユークリッド距離が所定値以下である」との条件を用いることを特徴とする動画提示装置。
The moving picture presentation device according to claim 1, 4 or 9,
As a condition for the color of the second pixel to fall within a predetermined approximate range of the color of the first pixel, the pixel value of each pixel is expressed in the RGB color system, and the color of each pixel is represented in the three-dimensional RGB coordinate system. A moving picture presentation apparatus using a condition that “Euclidean distance between coordinate points of two pixels is equal to or less than a predetermined value” when plotted as coordinate points on a color space indicated by.
請求項3、4、8または9に記載の動画提示装置において、
複数の画素の色の平均値を算出する際に、個々の画素の画素値をRGB表色系で表現し、画素値Rの平均値Rav、画素値Gの平均値Gav、画素値Bの平均値Bavを求め、これら画素値(Rav,Gav,Bav)によって示される色を当該複数の画素の色の平均値とすることを特徴とする動画提示装置。
In the moving image presentation device according to claim 3, 4, 8, or 9,
When calculating the average value of the colors of a plurality of pixels, the pixel value of each pixel is expressed in the RGB color system, the average value Rav of the pixel value R, the average value Gav of the pixel value G, and the average of the pixel value B A moving picture presentation apparatus characterized in that a value Bav is obtained, and a color indicated by these pixel values (Rav, Gav, Bav) is used as an average value of colors of the plurality of pixels.
請求項1〜14のいずれかに記載の動画提示装置において、
指示入力部が、
上下左右に配置された4個のカーソル移動ボタンと、追跡開始指示ボタンと、を有するコントローラ装置と、
前記4個のカーソル移動ボタンの操作に基づいて上下左右に移動するカーソルの位置を画像出力部に対して指示するカーソル位置指示手段と、
を有し、
画像出力部が、平面正則画像上の前記カーソル位置指示手段によって指示された位置に、カーソルを重畳した画像を出力し、
自動追跡フラグ設定部が、前記追跡開始指示ボタンが押された場合に、その時点の前記カーソルの位置を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行することを特徴とする動画提示装置。
In the moving image presentation apparatus in any one of Claims 1-14,
The instruction input unit
A controller device having four cursor movement buttons arranged vertically and horizontally and a tracking start instruction button;
Cursor position indicating means for instructing the image output unit of the position of the cursor that moves up, down, left and right based on the operation of the four cursor movement buttons;
Have
The image output unit outputs an image in which the cursor is superimposed at a position indicated by the cursor position indicating means on the planar regular image,
When the tracking start instruction button is pressed, the automatic tracking flag setting unit executes an automatic tracking start process on the assumption that a tracking start instruction with the tracking position as the tracking start point Q is input. A video presentation device characterized by the above.
請求項1〜14のいずれかに記載の動画提示装置において、
指示入力部が、上下左右に配置された4個の画面移動ボタンと、追跡開始指示ボタンと、を有するコントローラ装置を備え、
切出条件手動変更部が、前記4個の画面移動ボタンの操作に基づいて、平面正則画像上での切り出し位置が上下左右に移動するように、切出条件格納部に格納されている切出中心点Pを変更する機能を有し、
自動追跡フラグ設定部が、前記追跡開始指示ボタンが押された場合に、その時点の切出中心点Pの位置を追跡開始点Qとする追跡開始指示が入力されたものとして、自動追跡開始処理を実行することを特徴とする動画提示装置。
In the moving image presentation apparatus in any one of Claims 1-14,
The instruction input unit includes a controller device having four screen movement buttons arranged vertically and horizontally, and a tracking start instruction button,
The cutting condition manual change unit stores the cutting condition stored in the cutting condition storage unit so that the cutting position on the planar regular image moves up, down, left, and right based on the operation of the four screen movement buttons. It has a function to change the center point P,
When the tracking start instruction button is pressed, the automatic tracking flag setting unit assumes that a tracking start instruction with the position of the cutting center point P at that time as the tracking start point Q is input, and automatic tracking start processing The moving picture presentation apparatus characterized by performing.
請求項15または16に記載の動画提示装置において、
自動追跡フラグ設定部が、コントローラ装置に設けられた追跡終了指示ボタンが押された場合、もしくは、自動追跡フラグがONのときに追跡開始指示ボタンが押された場合に、追跡終了指示が入力されたものとして、自動追跡終了処理を実行することを特徴とする動画提示装置。
The moving picture presentation device according to claim 15 or 16,
When the tracking end instruction button provided in the controller device is pressed by the automatic tracking flag setting unit, or when the tracking start instruction button is pressed when the automatic tracking flag is ON, the tracking end instruction is input. As an example, a moving picture presentation apparatus that performs an automatic tracking end process.
請求項15〜17のいずれかに記載の動画提示装置において、
コントローラ装置が、倍率mを増減する倍率変更ボタンと、画像の切り出し向きを示すパラメータφを増減する向き変更ボタンと、を更に備え、
切出条件手動変更部が、前記倍率変更ボタンもしくは前記向き変更ボタンが押された場合に、切出条件変更指示が入力されたものとして、切出条件格納部に格納されている倍率mもしくはパラメータφを変更することを特徴とする動画提示装置。
In the moving image presentation apparatus in any one of Claims 15-17,
The controller device further includes a magnification change button for increasing / decreasing the magnification m, and a direction changing button for increasing / decreasing a parameter φ indicating the image cutting direction,
When the cutting condition manual changing unit has pressed the magnification changing button or the direction changing button, the magnification m or parameter stored in the cutting condition storage unit is assumed to be an instruction for changing the cutting condition. A video presentation device characterized by changing φ.
請求項1〜18のいずれかに記載の動画提示装置において、
画像入力部が、魚眼レンズを用いた撮影により得られた円形の歪曲広角画像を入力して、これを歪曲広角画像用メモリに格納し、
近隣ブロック抽出部が、前記円形の歪曲広角画像を、複数の矩形状のブロックに分割し、前記円形の歪曲広角画像の輪郭線から一部でも食み出すブロックについては、近隣ブロックとしての抽出を行わないことを特徴とする動画提示装置。
In the moving image presentation device according to any one of claims 1 to 18,
The image input unit inputs a circular distorted wide-angle image obtained by photographing using a fisheye lens, stores this in a distorted wide-angle image memory,
A neighboring block extraction unit divides the circular distorted wide-angle image into a plurality of rectangular blocks, and a block that partially protrudes from the outline of the circular distorted wide-angle image is extracted as a neighboring block. A video presenting apparatus characterized in that it is not performed.
請求項1〜19のいずれかに記載の動画提示装置としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as a moving image presentation apparatus in any one of Claims 1-19.
JP2011168080A 2011-08-01 2011-08-01 Movie presentation device Active JP5733088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011168080A JP5733088B2 (en) 2011-08-01 2011-08-01 Movie presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011168080A JP5733088B2 (en) 2011-08-01 2011-08-01 Movie presentation device

Publications (2)

Publication Number Publication Date
JP2013033321A true JP2013033321A (en) 2013-02-14
JP5733088B2 JP5733088B2 (en) 2015-06-10

Family

ID=47789173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011168080A Active JP5733088B2 (en) 2011-08-01 2011-08-01 Movie presentation device

Country Status (1)

Country Link
JP (1) JP5733088B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165764A (en) * 2013-02-26 2014-09-08 Ricoh Co Ltd Editing device, editing method and editing program
WO2016208539A1 (en) * 2015-06-22 2016-12-29 全景株式会社 Method for providing binocular stereoscopic image, observation device, and camera unit
JP2017034362A (en) * 2015-07-29 2017-02-09 株式会社リコー Movie display device, movie display method, and program
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method, and program
JP2017188757A (en) * 2016-04-04 2017-10-12 キヤノン株式会社 Information processing apparatus, image display apparatus, image display system, and information processing method
JP2018050146A (en) * 2016-09-21 2018-03-29 キヤノン株式会社 Search device, imaging device thereof, and search method
CN115995208A (en) * 2023-03-23 2023-04-21 长春希达电子技术有限公司 Lamp positioning method, correction method and device for spherical LED display screen
WO2024204009A1 (en) * 2023-03-29 2024-10-03 富士フイルム株式会社 Image processing device, imaging device, and method for operating image processing device
CN119205737A (en) * 2024-11-25 2024-12-27 南京索图科技有限公司 A method for extracting images under endoscope
WO2025220371A1 (en) * 2024-04-16 2025-10-23 パナソニックIpマネジメント株式会社 Image processing system and image processing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165764A (en) * 2013-02-26 2014-09-08 Ricoh Co Ltd Editing device, editing method and editing program
WO2016208539A1 (en) * 2015-06-22 2016-12-29 全景株式会社 Method for providing binocular stereoscopic image, observation device, and camera unit
JPWO2016208539A1 (en) * 2015-06-22 2018-05-24 全景株式会社 Binocular stereoscopic image providing method, distribution device, and camera unit
JP2017034362A (en) * 2015-07-29 2017-02-09 株式会社リコー Movie display device, movie display method, and program
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method, and program
JP2017188757A (en) * 2016-04-04 2017-10-12 キヤノン株式会社 Information processing apparatus, image display apparatus, image display system, and information processing method
JP2018050146A (en) * 2016-09-21 2018-03-29 キヤノン株式会社 Search device, imaging device thereof, and search method
CN115995208A (en) * 2023-03-23 2023-04-21 长春希达电子技术有限公司 Lamp positioning method, correction method and device for spherical LED display screen
CN115995208B (en) * 2023-03-23 2023-06-16 长春希达电子技术有限公司 Lamp positioning method, correction method and device for spherical LED display screen
WO2024204009A1 (en) * 2023-03-29 2024-10-03 富士フイルム株式会社 Image processing device, imaging device, and method for operating image processing device
WO2025220371A1 (en) * 2024-04-16 2025-10-23 パナソニックIpマネジメント株式会社 Image processing system and image processing method
CN119205737A (en) * 2024-11-25 2024-12-27 南京索图科技有限公司 A method for extracting images under endoscope

Also Published As

Publication number Publication date
JP5733088B2 (en) 2015-06-10

Similar Documents

Publication Publication Date Title
JP5733088B2 (en) Movie presentation device
KR101885779B1 (en) Transmission of three-dimensional video
US20210390765A1 (en) Output of virtual content
EP3007038A2 (en) Interaction with three-dimensional video
JP5612774B2 (en) Tracking frame initial position setting device and operation control method thereof
JP4455609B2 (en) Image display device and image display method
CN108780581B (en) Information processing apparatus, information processing scheme, and program
JP2008217243A (en) Image generation device
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
JPWO2010073619A1 (en) Imaging device
US20150334373A1 (en) Image generating apparatus, imaging apparatus, and image generating method
US20230269356A1 (en) Video processing apparatus and control method of the same, and storage medium
JP5142825B2 (en) Image display device and image display method
US20240297962A1 (en) Display control device, display control method, and recording medium
US12212879B2 (en) Image processing device and image processing method
JP2011108028A (en) Image reproduction device, imaging device and image reproduction method
JP2021002803A (en) Image processing apparatus, control method therefor, and program
JP5001400B2 (en) Shield removal display device
JP2010027000A (en) Image detection device and image detection method
JP6836306B2 (en) Imaging control device, its control method, program and recording medium
JP7769671B2 (en) Display control device, display control method, and imaging system
US20250247611A1 (en) Device, computer program and method
JP7498616B2 (en) VR image generation device and program
JP2019148654A (en) Controller, image projection device, control method, and program
JP2006173919A (en) Imaging apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R150 Certificate of patent or registration of utility model

Ref document number: 5733088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150