JP2001222549A - Moving image retrieving device - Google Patents
Moving image retrieving deviceInfo
- Publication number
- JP2001222549A JP2001222549A JP2000034790A JP2000034790A JP2001222549A JP 2001222549 A JP2001222549 A JP 2001222549A JP 2000034790 A JP2000034790 A JP 2000034790A JP 2000034790 A JP2000034790 A JP 2000034790A JP 2001222549 A JP2001222549 A JP 2001222549A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge information
- moving
- area
- normalized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 検索すべき対象物体を表すキー画像を用いて
対象物体を映すフレーム画像を動画像中から検索する。
【構成】 図1に示すように、動画像検索装置はコンピ
ュータシステム1、ビデオ再生機2、及び視覚装置3を
有している。図2に示すように、視覚装置3がキー画像
及び領域指定画像を用いて対象物体の正規化画像145
を生成し、動画像を用いて移動物体の正規化画像145
を生成し、これらの正規化画像145を比較することに
より、動画像検索装置は対象物体を映したフレーム画像
を動画像中から検索することができる。図3に示すよう
に、視覚装置3はキー画像だけを用いて検索することも
できる。
(57) [Summary] [Purpose] Using a key image representing a target object to be searched, a frame image showing the target object is searched from a moving image. As shown in FIG. 1, the moving image search device has a computer system 1, a video player 2, and a visual device 3. As shown in FIG. 2, the visual device 3 uses the key image and the area designation image to generate a normalized image 145 of the target object.
And a normalized image 145 of the moving object is generated using the moving image.
Is generated, and the normalized image 145 is compared, so that the moving image search device can search the moving image for a frame image showing the target object. As shown in FIG. 3, the visual device 3 can also search using only the key image.
Description
【0001】[0001]
【発明の属する技術の分野】本発明は、利用者が指定し
た静止画像中の物体をビデオ再生機及び動画像データベ
ース等に記録された動画像から検索する動画像検索装置
に関し、詳しくは、視覚装置を用いて利用者が指定した
静止画像から正規化画像を生成し、視覚装置を用いて動
画像中の物体の正規化画像を生成し、2つの正規化画像
を比較し、比較結果から物体の有無を判定するものに関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image retrieval apparatus for retrieving an object in a still image designated by a user from a moving image recorded in a video reproducing machine, a moving image database or the like. A normalized image is generated from the still image specified by the user using the device, a normalized image of the object in the moving image is generated using the visual device, and the two normalized images are compared. To determine the presence or absence of
【0002】[0002]
【従来の技術】従来から、動画像中のフレーム画像及び
フレーム画像の列を検索する装置が数多く研究されてき
た(例えば、特開平5−20366、特開平5−304
64参照)。動画像中のフレーム全体から特徴量データ
を抽出し、これらの特徴量データをキーとなる静止画像
及び動画像の特徴量データと比較することにより、これ
らの検索装置はフレーム画像及びフレーム画像の列を検
索するものである。したがって特徴量データの作成方法
によっては特徴量データが背景などに影響されるため、
これらの検索装置は希望通りのフレーム画像及びフレー
ム画像の列を見付けることができない。このような問題
を回避するため、動画像中の移動物体を抽出して特徴量
データを比較することにより、移動物体を映したフレー
ム画像を検索装置も開発されている(例えば、特開平1
0−207897、特開平10−210473、特開平
10−214347、特開平2000−010997参
照)。しかしながらこれらの検索装置は移動物体を抽出
する際にMPEG(Moving Picture E
xpert Group)データを利用するために、移
動物体を抽出する手段が実際に検索すべき移動物体自体
を抽出することができないばかりか、特徴量データを計
算する手段が抽出領域の輝度値の平均値などを特徴量デ
ータとして計算するために、マッチングを実行する手段
が検索すべき対象物体と移動物体を正確に比較すること
もできない。2. Description of the Related Art Hitherto, a large number of devices for searching for a frame image and a sequence of frame images in a moving image have been studied (for example, Japanese Patent Application Laid-Open Nos. 5-20366 and 5-304).
64). By extracting feature data from the entire frame in the moving image and comparing these feature data with the key feature data of the still image and the moving image, these search devices can detect the frame image and the sequence of frame images. Is to search. Therefore, depending on how the feature data is created, the feature data is affected by the background, etc.
These search devices cannot find the desired frame image and the sequence of frame images. In order to avoid such a problem, a device for searching for a frame image showing the moving object by extracting the moving object in the moving image and comparing the feature amount data has been developed (for example, Japanese Patent Laid-Open No.
0-207897, JP-A-10-210473, JP-A-10-214347 and JP-A-2000-010997). However, these search apparatuses use MPEG (Moving Picture E) to extract moving objects.
In order to use the xpert group data, the means for extracting the moving object cannot not only extract the moving object itself to be actually searched, but also the means for calculating the feature amount data sets the average value of the luminance values of the extraction area. In order to calculate such as feature amount data, the means for executing matching cannot accurately compare the target object to be searched with the moving object.
【0003】一方で本発明者は動画像中の物体の種別を
認識する装置として、視覚装置を開発した(特願平11
−253634参照)。この視覚装置は、移動物体及び
静止物体の形状に関係なく移動物体及び静止物体のエッ
ジ情報を生成することと、物体領域を背景から分離する
ことと、分離された物体領域を画像サイズに正規化する
ことと、物体の種別を認識することと、ができる。しか
もこの視覚装置は、局所並列画像処理を行うことによ
り、高い並列性及び実時間性を実現することができる。On the other hand, the present inventor has developed a visual device as a device for recognizing the type of an object in a moving image (Japanese Patent Application No. Hei 11 (1999) -107).
253634). This vision device generates edge information for moving and stationary objects regardless of their shapes, separates the object region from the background, and normalizes the separated object region to the image size. And recognize the type of the object. Moreover, the visual device can realize high parallelism and real-time performance by performing local parallel image processing.
【0004】これらのことを考慮すると、視覚装置が、
検索すべき対象物体の正規化画像と動画像中の移動物体
及び静止物体の正規化画像を生成し、これらの正規化画
像を比較することにより、動画像検索装置は対象物体に
類似した動画像中の移動物体及び静止物体を検索できる
と期待される。[0004] In view of these things, the visual device,
By generating a normalized image of a target object to be searched and a normalized image of a moving object and a still object in a moving image, and comparing these normalized images, the moving image search apparatus can generate a moving image similar to the target object. It is expected that moving and stationary objects inside can be searched.
【0005】[0005]
【発明が解決しようとする課題】そこで、請求項記載の
本発明は、検索すべき対象物体を表すキー画像と動画像
を用いて視覚装置がキー画像中の対象物体の正規化画
像、及び動画像中の移動物体及び静止物体の正規化画像
を生成し、さらにこれらの正規化画像を比較することに
より、対象物体を映すフレーム画像を動画像中から検索
することを目的とする。SUMMARY OF THE INVENTION Therefore, according to the present invention, a visual device uses a key image representing a target object to be searched and a moving image to generate a normalized image of the target object in the key image and a moving image. An object of the present invention is to generate a normalized image of a moving object and a stationary object in an image and compare these normalized images to search for a frame image of the target object from the moving image.
【0006】[0006]
【課題を解決するための手段】請求項1の発明は、対象
物体を映したフレーム画像を動画像から検索する動画像
検索装置であって、前記フレーム画像を取得する手段
と、前記フレーム画像をデジタル画像として順次記憶す
る手段と、前記デジタル画像から粗エッジ情報画像を生
成する手段と、前記デジタル画像を用いて前記粗エッジ
情報画像を第一の形成エッジ情報画像に形成する手段
と、前記第一の形成エッジ情報画像から第一の物体領域
画像を生成する手段と、前記第一の形成エッジ情報画像
から重複情報画像を生成する手段と、前記重複情報画像
を用いて移動物体を1つ選択する手段と、前記第一の物
体領域画像のうち選択された前記移動物体だけをマスク
処理により抽出する手段と、前記デジタル画像及びマス
クされた前記第一の物体領域画像から第一の領域正規化
画像を生成する手段と、前記第一の領域正規化画像を保
持する手段と、前記対象物体を特定するキー画像を記憶
する手段と、領域指定画像を記憶する手段と、前記キー
画像を用いて前記領域指定画像を第二の形成エッジ情報
画像に形成する手段と、前記第二の形成エッジ情報画像
から第二の物体領域画像を生成する手段と、前記キー画
像及び前記第二の物体領域画像から第二の領域正規化画
像を生成する手段と、前記第一の領域正規化画像と前記
第二の領域正規化画像を比較する手段と、比較結果を保
持する手段と、を有することを特徴とする動画像検索装
置である。本発明は、視覚装置を用いることにより、M
PEG(Moving Picture Expert
Group)データのような特別な画像フォーマット
を用いることなく、前記動画像から前記対象物体と類似
の前記移動物体を映した前記フレーム画像を検索する。
前記視覚装置は、前記対象物体を特定する前記キー画像
及び前記領域指定画像から前記第二の正規化画像を生成
し、前記動画像中の前記移動物体から前記第一の正規化
画像を生成し、及び前記第一の正規化画像と前記第二の
正規化画像を比較する。前記視覚装置は局所並列画像処
理を実行する。したがって本発明は、前記特別な画像フ
ォーマットを用いることなく、実時間で前記対象物体を
映した前記フレーム画像を検索することができ、動画像
検索に関する諸問題が好適に解決される。According to a first aspect of the present invention, there is provided a moving image search apparatus for searching a moving image for a frame image showing a target object, wherein: a means for obtaining the frame image; Means for sequentially storing as a digital image, means for generating a coarse edge information image from the digital image, means for forming the coarse edge information image into a first formed edge information image using the digital image, and Means for generating a first object region image from one formed edge information image, means for generating a duplicated information image from the first formed edge information image, and selecting one moving object using the duplicated information image Means for extracting only the moving object selected from the first object area image by mask processing, and the digital image and the masked first object Means for generating a first area normalized image from the area image, means for holding the first area normalized image, means for storing a key image specifying the target object, and storing an area designation image Means for forming the area designation image into a second formed edge information image using the key image, means for generating a second object area image from the second formed edge information image, Means for generating a second area normalized image from an image and the second object area image, means for comparing the first area normalized image with the second area normalized image, and holding a comparison result And a means for searching for a moving image. The present invention provides a M
PEG (Moving Picture Expert)
Without using a special image format such as Group data, the frame image that shows the moving object similar to the target object is searched from the moving image.
The visual device generates the second normalized image from the key image specifying the target object and the region designation image, and generates the first normalized image from the moving object in the moving image , And the first normalized image is compared with the second normalized image. The visual device performs local parallel image processing. Therefore, according to the present invention, the frame image showing the target object can be searched in real time without using the special image format, and various problems relating to moving image search can be suitably solved.
【0007】請求項2の発明は、対象物体を映したフレ
ーム画像を動画像から検索する動画像検索装置であっ
て、前記フレーム画像を取得する手段と、前記フレーム
画像をデジタル画像として順次記憶する手段と、前記デ
ジタル画像から第一の粗エッジ情報画像を生成する手段
と、前記デジタル画像を用いて前記第一の粗エッジ情報
画像を第一の形成エッジ情報画像に形成する手段と、前
記第一の形成エッジ情報画像から第一の物体領域画像を
生成する手段と、前記第一の形成エッジ情報画像から重
複情報画像を生成する手段と、前記重複情報画像を用い
て移動物体を1つ選択する手段と、前記第一の物体領域
画像のうち選択された前記移動物体だけをマスク処理に
より抽出する手段と、前記デジタル画像及びマスクされ
た前記第一の物体領域画像から第一の領域正規化画像を
生成する手段と、前記第一の領域正規化画像を保持する
手段と、前記対象物体を特定するキー画像を記憶する手
段と、前記キー画像を振動させる手段と、振動させた前
記キー画像から第二の粗エッジ情報画像を生成する手段
と、前記キー画像を用いて前記第二の粗エッジ情報画像
を第二の形成エッジ情報画像に形成する手段と、前記第
二の形成エッジ情報画像から第二の物体領域画像を生成
する手段と、前記キー画像及び前記第二の物体領域画像
から第二の領域正規化画像を生成する手段と、前記第一
の領域正規化画像と前記第二の領域正規化画像を比較す
る手段と、比較結果を保持する手段と、を有することを
特徴とする動画像検索装置である。本発明は、視覚装置
を用いることにより、MPEG(Moving Pic
ture Expert Group)データのような
特別な画像フォーマットを用いることなく、前記動画像
から前記対象物体と類似の前記移動物体を映した前記フ
レーム画像を検索する。前記視覚装置は、前記対象物体
を特定する前記キー画像から前記第二の粗エッジ情報画
像を生成し、前記キー画像及び前記第二の粗エッジ情報
画像から前記第二の正規化画像を生成し、前記動画像中
の前記移動物体から前記第一の正規化画像を生成し、及
び前記第一の正規化画像と前記第二の正規化画像を比較
する。特に前記キー画像の背景がモノトーンである場
合、本発明は有効である。前記視覚装置は局所並列画像
処理を実行する。したがって本発明は、前記特別な画像
フォーマットを用いることなく、実時間で前記対象物体
を映した前記フレーム画像を検索することができ、動画
像検索に関する諸問題が好適に解決される。According to a second aspect of the present invention, there is provided a moving image search device for searching a moving image for a frame image showing a target object, wherein the means for acquiring the frame image and the frame image are sequentially stored as a digital image. Means, means for generating a first coarse edge information image from the digital image, means for forming the first coarse edge information image into a first formed edge information image using the digital image, and Means for generating a first object region image from one formed edge information image, means for generating a duplicated information image from the first formed edge information image, and selecting one moving object using the duplicated information image Means for extracting only the moving object selected from the first object area image by mask processing, and means for extracting the digital image and the masked first object area. Means for generating a first area normalized image from an image, means for holding the first area normalized image, means for storing a key image specifying the target object, and means for vibrating the key image Means for generating a second coarse edge information image from the vibrated key image, and means for forming the second coarse edge information image into a second formed edge information image using the key image, Means for generating a second object area image from the second formed edge information image, means for generating a second area normalized image from the key image and the second object area image, and A moving image search device comprising: means for comparing an area-normalized image with the second area-normalized image; and means for holding a comparison result. The present invention uses a visual device to provide an MPEG (Moving Pic).
The moving image is searched for the frame image showing the moving object similar to the target object, without using a special image format such as “Two Expert Group” data. The visual device generates the second coarse edge information image from the key image identifying the target object, generates the second normalized image from the key image and the second coarse edge information image Generating the first normalized image from the moving object in the moving image, and comparing the first normalized image with the second normalized image. The present invention is particularly effective when the background of the key image is monotone. The visual device performs local parallel image processing. Therefore, according to the present invention, the frame image showing the target object can be searched in real time without using the special image format, and various problems relating to moving image search can be suitably solved.
【0008】請求項3の発明は、請求項1及び2記載の
動画像検索装置において、前記デジタル画像を振動させ
る手段を有することを特徴とする動画像検索装置であ
る。本発明は、視覚装置を用いることにより、MPEG
(Moving Picture Expert Gr
oup)データのような特別な画像フォーマットを用い
ることなく、前記動画像から前記対象物体と類似の前記
移動物体及び静止物体を映した前記フレーム画像を検索
する。前記視覚装置は、前記対象物体を特定する前記キ
ー画像、前記領域指定画像及び前記第二の粗エッジ情報
画像から前記第二の正規化画像を生成し、前記動画像の
前記フレーム画像を振動させることにより前記動画像中
の前記移動物体及び静止物体から前記第一の正規化画像
を生成し、及び前記第一の正規化画像と前記第二の正規
化画像を比較する。前記視覚装置は局所並列画像処理を
実行する。したがって本発明は、前記特別な画像フォー
マットを用いることなく、実時間で移動若しくは静止し
ている前記対象物体を映した前記フレーム画像を検索す
ることができ、動画像検索に関する諸問題が好適に解決
される。According to a third aspect of the present invention, there is provided a moving image search apparatus according to the first and second aspects, further comprising means for vibrating the digital image. The present invention uses a visual device to create an MPEG
(Moving Picture Expert Gr
(out) Searching the moving image for the frame image showing the moving object and the stationary object similar to the target object without using a special image format such as data. The visual device generates the second normalized image from the key image specifying the target object, the area designation image, and the second coarse edge information image, and vibrates the frame image of the moving image Thereby, the first normalized image is generated from the moving object and the stationary object in the moving image, and the first normalized image is compared with the second normalized image. The visual device performs local parallel image processing. Therefore, the present invention can search for the frame image showing the moving or stationary target object in real time without using the special image format, and suitably solve various problems related to moving image search. Is done.
【0009】[0009]
【発明の実施の形態】以下、本発明の動画像検索装置の
実施形態を挙げ、図面を参照して説明する。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an embodiment of a moving picture search apparatus according to the present invention.
【0010】まず請求項1記載の発明は図1に示すよう
な構成で表される。ここで本発明の製造者はコンピュー
タシステム1及びビデオ再生機2に市販品を用いること
ができるか、又は既存技術により容易に製造することが
できる。また本発明はビデオ再生機2の代りに市販の動
画像データベースを使用しても良く、しかもこの動画像
データベースがコンピュータシステム1に組み込まれて
いても良い。さらにコンピュータシステム1はマウス以
外にもタブレット及びタッチパネルのような描画ツール
を接続することもできる。以下では図1を参照しながら
説明する。First, the invention according to claim 1 is represented by a configuration as shown in FIG. Here, the manufacturer of the present invention can use a commercially available product for the computer system 1 and the video player 2, or can easily manufacture it by an existing technology. In the present invention, a commercially available moving image database may be used in place of the video player 2, and the moving image database may be incorporated in the computer system 1. Further, the computer system 1 can connect drawing tools such as a tablet and a touch panel in addition to the mouse. Hereinafter, description will be made with reference to FIG.
【0011】コンピュータシステム1は、検索すべき対
象物体を表すキー画像、及びキー画像の送信を制御する
キー指定信号を視覚装置3に送信する。また必要があれ
ば、利用者がディスプレイに表示されたキー画像を見な
がらマウスを用いてキー画像中の対象物体を含むような
領域の輪郭を指定し、コンピュータシステム1がこの画
像を領域指定画像として視覚装置3に送信する。この輪
郭は視覚装置3によって形成されるので、破線であって
も良い。ビデオ再生機2は、コンピュータシステム1か
らの制御信号により再生中の動画像を視覚装置3に送信
すると共に、コンピュータシステム1に現在再生中のフ
レーム画像のフレーム番号又は記録媒体の先頭からの再
生時間を送信する。視覚装置3は、ビデオ再生機2から
送信された動画像、及びコンピュータシステム1から送
信されたキー画像、キー指定信号及び領域指定画像を受
信し、キー画像で特定された対象物体とフレーム画像中
の物体を比較し、その比較結果をコンピュータシステム
1に返信する。そこでコンピュータシステム1はこの比
較結果を用いて、フレーム画像中に対象物体が有るか無
いか判定する。The computer system 1 transmits to the visual device 3 a key image representing a target object to be searched and a key designation signal for controlling transmission of the key image. If necessary, the user designates an outline of an area including the target object in the key image using a mouse while viewing the key image displayed on the display, and the computer system 1 converts the image into an area designation image. To the visual device 3. Since this contour is formed by the visual device 3, it may be a broken line. The video player 2 transmits the moving image being played back to the visual device 3 according to the control signal from the computer system 1 and also sends the computer system 1 the frame number of the frame image currently being played back or the playback time from the beginning of the recording medium. Send The visual device 3 receives the moving image transmitted from the video player 2 and the key image, the key designation signal and the region designation image transmitted from the computer system 1, and outputs the target object and the frame image specified by the key image. Are compared, and the result of the comparison is returned to the computer system 1. Therefore, the computer system 1 determines whether or not the target object exists in the frame image using the comparison result.
【0012】最後に、一般的な用途に対する視覚装置3
の各アルゴリズムは既に開発されているが、動画像検索
装置に適するように追加及び変更が必要である。したが
って以下では主に視覚装置3について説明する。Finally, the visual device 3 for general use
Each algorithm has already been developed, but needs to be added and changed so as to be suitable for a moving image search device. Therefore, the visual device 3 will be mainly described below.
【0013】図2に示すように、視覚装置3の実施形態
は、ビデオ再生機2から動画像(フレーム画像)を受信
して適切なフォーマットとサイズのデジタル画像111
に変換する画像取得手段11と、デジタル画像111を
一定期間記憶する画像記憶手段12と、2つのデジタル
画像111から移動物体の粗エッジ情報112を生成す
るエッジ情報生成手段14と、粗エッジ情報112をよ
り的確で明瞭な形成エッジ情報114に形成するエッジ
情報形成手段15と、形成エッジ情報114によって区
分される領域を分離する物体/背景分離手段16と、形
成エッジ情報114によって区分された各領域の位置及
び大きさを検出する位置/大きさ検出手段17と、位置
/大きさ検出手段17が検出した複数の移動物体の位置
から1つを選択する位置選択手段22と、物体/背景分
離手段16が分離した領域に対して位置選択手段22に
よって選択された移動物体以外をマスクするマスク手段
40と、残された領域を画像サイズに正規化する領域正
規化手段27と、出力先に出力するまで正規化画像14
5を保持する正規化画像保持手段28と、コンピュータ
システム1からキー画像を受信して一定期間記憶する画
像記憶手段12と、コンピュータシステム1から領域指
定画像を受信して一定期間記憶する画像記憶手段12
と、領域指定画像をより的確で明瞭な形成エッジ情報1
14に形成するエッジ情報形成手段15と、形成エッジ
情報114によって区分される領域を分離する物体/背
景分離手段16と、キー画像のうち分離された領域を画
像サイズに正規化する領域正規化手段27と、フレーム
画像から生成した正規化画像145とキー画像から生成
した正規化画像145を比較するパターン比較手段41
と、出力先に出力するまで比較結果を保持する比較結果
保持手段42と、を利用したものである。As shown in FIG. 2, an embodiment of the visual device 3 receives a moving image (frame image) from the video player 2 and converts the moving image (frame image) into a digital image 111 of an appropriate format and size.
Image acquisition means 11 for converting the digital image 111 into a predetermined period, edge information generation means 14 for generating coarse edge information 112 of the moving object from the two digital images 111, and coarse edge information 112 Information forming means 15 for forming a more accurate and clear formed edge information 114, an object / background separating means 16 for separating an area divided by the formed edge information 114, and each area divided by the formed edge information 114 Position / size detecting means 17 for detecting the position and size of the object, position selecting means 22 for selecting one of a plurality of moving objects detected by the position / size detecting means 17, and object / background separating means A masking means 40 for masking a region other than the moving object selected by the position selecting means 22 with respect to the area separated by 16; An area normalization means 27 for normalizing the frequency to the image size, the normalized image 14 to be output to the output destination
5, an image storage unit 12 that receives a key image from the computer system 1 and stores it for a certain period of time, and an image storage unit that receives an area designation image from the computer system 1 and stores it for a certain period of time 12
And more precisely and clearly formed edge information 1
14, an object / background separating unit 16 for separating an area divided by the formed edge information 114, and an area normalizing unit for normalizing a separated area of the key image to an image size. 27, a pattern comparing means 41 for comparing the normalized image 145 generated from the frame image with the normalized image 145 generated from the key image.
And a comparison result holding means 42 for holding the comparison result until output to the output destination.
【0014】画像取得手段11がビデオ再生機2から動
画像のフレーム画像を入力する際に、動画像がアナログ
信号の場合は、A/D変換によりフレーム画像をデジタ
ル信号に変換してデジタル画像111にする。動画像が
デジタル信号の場合は、圧縮されていれば展開し、圧縮
されていなければそのまま入力する。これらにより動画
像中任意のフレーム画像を切り出すことができるので、
このフレーム画像を切り出してデジタル画像111にす
る。変換されたデジタル画像111は適当なフォーマッ
トに従いながら任意の画像サイズを有しているので、画
像取得手段11は画素単位で画像データを参照できるフ
ォーマットに変換し、視覚装置3で必要とする画像サイ
ズ分を切り出し、デジタル画像111として出力する。
もし画像取得手段11がデジタル画像111の全ての画
素を並列に出力することができれば、画像取得手段11
から画像記憶手段12への通信は、画素毎に並列に行う
ことができる。When the image acquiring means 11 inputs a frame image of a moving image from the video reproducing device 2, if the moving image is an analog signal, the frame image is converted into a digital signal by A / D conversion and the digital image 111 To If the moving image is a digital signal, it is expanded if it is compressed, and is input as it is if it is not compressed. With these, any frame image can be cut out from the moving image,
This frame image is cut out to be a digital image 111. Since the converted digital image 111 has an arbitrary image size while following an appropriate format, the image acquisition unit 11 converts the image data into a format in which image data can be referred to in pixel units, and The minute is cut out and output as a digital image 111.
If the image acquisition means 11 can output all the pixels of the digital image 111 in parallel,
Can be performed in parallel for each pixel.
【0015】画像記憶手段12が画像取得手段11から
デジタル画像111を入力すると、視覚装置3の時間分
解能若しくは各手段の計算能力に合わせて一定時間デジ
タル画像111を記憶する。つまりこの一定時間中にデ
ジタル画像111が入力されても画像記憶手段12は記
憶画像を変更することがないので、後に続く各手段は異
なるタイミングで同じデジタル画像111を入力するこ
とができる。しかも画像記憶手段12はデジタル画像1
11に対して画像処理を施さないので、デジタル画像1
11の全ての画素に対して二次元の位相関係を保ったま
ま記憶している。もし画像記憶手段12がデジタル画像
111の全ての画素を並列に出力することができれば、
画像記憶手段12からエッジ情報生成手段14への通信
は、画素毎に並列に行うことができる。なおキー画像及
び領域指定画像はデジタル画像111であるので、画像
記憶手段12はコンピュータシステム1から直接キー画
像及び領域指定画像を入力することができる。When the image storage unit 12 inputs the digital image 111 from the image acquisition unit 11, the digital image 111 is stored for a certain period of time in accordance with the time resolution of the visual device 3 or the calculation capability of each unit. That is, even if the digital image 111 is input during this fixed time, the image storage unit 12 does not change the stored image, so that each subsequent unit can input the same digital image 111 at a different timing. Moreover, the image storage means 12 stores the digital image 1
11 is not subjected to image processing, the digital image 1
All two pixels are stored while maintaining a two-dimensional phase relationship. If the image storage means 12 can output all the pixels of the digital image 111 in parallel,
Communication from the image storage unit 12 to the edge information generation unit 14 can be performed in parallel for each pixel. Since the key image and the area designation image are digital images 111, the image storage means 12 can directly input the key image and the area designation image from the computer system 1.
【0016】エッジ情報生成手段14が画像記憶手段1
2からデジタル画像111を入力すると、直前に入力さ
れたデジタル画像111と比較することにより移動物体
の粗エッジ情報画像113を生成する。エッジ情報生成
手段14は画素毎に近傍処理のみで粗エッジ情報画像1
13を生成することができるので、並列化に向いてい
る。もしエッジ情報生成手段14が粗エッジ情報画像1
13の全ての画素を並列に出力することができれば、エ
ッジ情報生成手段14からエッジ情報形成手段15への
通信は、画素毎に並列に行うことができる。The edge information generating means 14 is used by the image storing means 1
When the digital image 111 is input from Step 2, a coarse edge information image 113 of the moving object is generated by comparing the digital image 111 with the digital image 111 input immediately before. The edge information generation means 14 performs only the neighborhood processing for each pixel and executes the coarse edge information image 1
13 can be generated, which is suitable for parallelization. If the edge information generating means 14 determines that the coarse edge information image 1
If all 13 pixels can be output in parallel, the communication from the edge information generating means 14 to the edge information forming means 15 can be performed in parallel for each pixel.
【0017】エッジ情報形成手段15がエッジ情報生成
手段14から粗エッジ情報画像113を入力すると、画
像記憶手段12で記憶されていたデジタル画像111を
参照して、粗エッジ情報画像113を的確で明瞭な移動
物体の形成エッジ情報画像115に形成する。エッジ情
報形成手段15は画素毎に近傍処理のみで形成エッジ情
報画像115に形成することができるので、並列化に向
いている。もしエッジ情報形成手段15が形成エッジ情
報画像115の全ての画素を並列に出力することができ
れば、エッジ情報形成手段15から物体/背景分離手段
16及び位置/大きさ検出手段17への通信は、画素毎
に並列に行うことができる。なおエッジ情報形成手段1
5は領域指定画像を粗エッジ情報画像113と見なして
形成エッジ情報114に形成する。When the edge information forming means 15 inputs the coarse edge information image 113 from the edge information generating means 14, the rough edge information image 113 is accurately and clearly referred by referring to the digital image 111 stored in the image storage means 12. Is formed on the formed edge information image 115 of the moving object. Since the edge information forming unit 15 can form the formed edge information image 115 by only the neighborhood processing for each pixel, it is suitable for parallelization. If the edge information forming means 15 can output all the pixels of the formed edge information image 115 in parallel, the communication from the edge information forming means 15 to the object / background separating means 16 and the position / size detecting means 17 is as follows. It can be performed in parallel for each pixel. Edge information forming means 1
No. 5 regards the area designation image as the rough edge information image 113 and forms the formed edge information 114.
【0018】物体/背景分離手段16はエッジ情報形成
手段15から形成エッジ情報画像115を入力すると、
移動物体の物体領域141に含まれる画素と背景に含ま
れる画素を異なるグループに分離して、分離結果をグル
ープ単位で順次出力する。なお物体領域141が隣接し
ているにも関わらず形成エッジ情報114により明確に
区別される場合、物体/背景分離手段16はこれらの物
体領域141を異なるグループに分離することができ
る。したがってグループの数は3以上になることもあ
る。物体/背景分離手段16は画素毎に近傍処理のみで
物体領域141と背景を分離することができるので、並
列化に向いている。もし物体/背景分離手段16が物体
領域画像142の全ての画素を並列に出力することがで
きれば、物体/背景分離手段16からマスク手段40及
び領域正規化手段27への通信は、画素毎に並列に行う
ことができる。The object / background separating means 16 receives the formed edge information image 115 from the edge information forming means 15,
Pixels included in the object region 141 of the moving object and pixels included in the background are separated into different groups, and the separation results are sequentially output in group units. When the object areas 141 are clearly distinguished by the formed edge information 114 even though they are adjacent to each other, the object / background separation unit 16 can separate these object areas 141 into different groups. Therefore, the number of groups may be three or more. The object / background separation means 16 is suitable for parallelization because the object region 141 and the background can be separated by only neighborhood processing for each pixel. If the object / background separation means 16 can output all the pixels of the object area image 142 in parallel, the communication from the object / background separation means 16 to the mask means 40 and the area normalization means 27 is performed in parallel for each pixel. Can be done.
【0019】位置/大きさ検出手段17がエッジ情報形
成手段15から形成エッジ情報画像115を入力する
と、形成エッジ情報114によって指し示された移動物
体の領域の位置及び大きさを検出する。位置/大きさ検
出手段17は画素毎に近傍処理のみで、移動物体の領域
の位置及び大きさの検出結果を表す重複情報画像132
を生成することができるので、並列化に向いている。も
し位置/大きさ検出手段17が重複情報画像132の全
ての画素を並列に出力することができれば、位置/大き
さ検出手段17から位置選択手段22への通信は、画素
毎に並列に行うことができる。When the position / size detecting means 17 inputs the formed edge information image 115 from the edge information forming means 15, it detects the position and size of the area of the moving object indicated by the formed edge information 114. The position / size detecting means 17 performs only neighborhood processing for each pixel, and the overlapping information image 132 representing the detection result of the position and size of the area of the moving object.
Is suitable for parallelization. If the position / size detecting means 17 can output all the pixels of the overlapping information image 132 in parallel, the communication from the position / size detecting means 17 to the position selecting means 22 should be performed in parallel for each pixel. Can be.
【0020】位置選択手段22は重複情報画像132が
表すフレーム画像中の移動物体の領域の位置の総数が2
つ以上であれば、複数の位置の中から1つを選択する。
位置選択手段22は一定の判断基準に従い、1つの位置
を選択する。ここで用いられる判断基準は主に次のよう
なものである。第一に、移動物体が最も大きいものを選
択する。これは移動物体が小さい場合、エッジ情報生成
手段14がノイズを生成した可能性があるので、複数の
位置の中から移動物体が存在する確率が少しでも高いも
のを選択する。第二に、一定範囲内に複数の位置が集中
している場合、このうちの1つを選択する。この状況に
は2つの可能性が考えられる。1つはエッジ情報生成手
段14が1つの移動物体に対して分散した粗エッジ情報
112を生成した可能性であり、もう1つは実際に複数
の移動物体が存在する可能性である。第三に、多数の位
置がほぼ同じ大きさである場合、フレーム画像の中央に
最も近い位置を選択する。これらを用途や状況に応じて
適宜組み合せることにより、位置選択手段22は環境座
標系上の複数の位置の中から1つを選択することができ
る。特に移動物体は多数のフレーム画像に渡って映って
いるので、フレーム画像毎に異なる判断基準を用いれ
ば、フレーム画像中の複数の移動物体を選択することも
可能となる。The position selecting means 22 determines that the total number of positions of the moving object region in the frame image represented by the overlapping information image 132 is 2
If more than one, one is selected from a plurality of positions.
The position selecting means 22 selects one position according to a certain criterion. The criteria used here are mainly as follows. First, the one with the largest moving object is selected. If the moving object is small, there is a possibility that the edge information generating means 14 has generated noise. Therefore, an object with a high probability that the moving object is present is selected from a plurality of positions. Second, when a plurality of positions are concentrated within a certain range, one of them is selected. There are two possibilities for this situation. One is the possibility that the edge information generating means 14 has generated the coarse edge information 112 dispersed for one moving object, and the other is the possibility that a plurality of moving objects actually exist. Third, if many positions have substantially the same size, the position closest to the center of the frame image is selected. By appropriately combining these in accordance with the application and the situation, the position selecting means 22 can select one from a plurality of positions on the environment coordinate system. In particular, since a moving object is reflected over a large number of frame images, it is possible to select a plurality of moving objects in the frame image by using different judgment criteria for each frame image.
【0021】マスク手段40は、物体/背景分離手段1
6及び位置選択手段22から物体領域画像142及び選
択された移動物体の重複情報131をそれぞれ入力する
と、重複情報131から移動物体の位置及び大きさを算
出して円形又は矩形の領域を設定し、物体領域画像14
2のうちこの領域以外をマスクする。これにより物体/
背景分離手段16が複数の移動物体の領域を同じグルー
プに分離したとしても、これらの領域を個別に扱うこと
ができる。もしマスク手段40がマスクされた物体領域
画像142の全ての画素を並列に出力することができれ
ば、マスク手段40から領域正規化手段27への通信
は、画素毎に並列に行うことができる。The mask means 40 includes the object / background separation means 1
When the object area image 142 and the overlapping information 131 of the selected moving object are input from the position selecting unit 22 and the position selecting unit 22, respectively, the position and the size of the moving object are calculated from the overlapping information 131, and a circular or rectangular area is set. Object area image 14
2 is masked except for this area. This allows the object /
Even if the background separating unit 16 separates a plurality of moving object regions into the same group, these regions can be handled individually. If the masking means 40 can output all the pixels of the masked object area image 142 in parallel, the communication from the masking means 40 to the area normalizing means 27 can be performed in parallel for each pixel.
【0022】領域正規化手段27はマスク手段40及び
画像取得手段11からマスクされた物体領域画像142
及びデジタル画像111をそれぞれ入力すると、移動物
体の分離物体領域143をデジタル画像111から切り
出し、分離物体領域143を変形しながらデジタル画像
111の画像サイズに合わせて可能な限り補完及び拡大
することで正規化画像145を生成する。領域正規化手
段27は画素毎に近傍処理のみで分離物体領域143を
正規化することができるので、並列化に向いている。も
し領域正規化手段27が正規化画像145の全ての画素
を並列に出力することができれば、領域正規化手段27
から正規化画像保持手段28及びパターン比較手段41
への通信は、画素毎に並列に行うことができる。なおキ
ー画像の場合、検索すべき対象物体が1つであれば、特
にマスク手段40を用いる必要はない。The area normalizing means 27 is an object area image 142 masked by the mask means 40 and the image acquiring means 11.
And the digital image 111 are input, the separated object region 143 of the moving object is cut out from the digital image 111, and the separated object region 143 is deformed and complemented and enlarged as much as possible in accordance with the image size of the digital image 111. The generated image 145 is generated. The region normalizing means 27 can normalize the separated object region 143 only by the neighborhood processing for each pixel, and is suitable for parallelization. If the area normalizing means 27 can output all the pixels of the normalized image 145 in parallel, the area normalizing means 27
From the normalized image holding means 28 and the pattern comparing means 41
Can be performed in parallel for each pixel. In the case of a key image, if there is only one target object to be searched, it is not necessary to use the masking means 40 in particular.
【0023】正規化画像保持手段28は領域正規化手段
27から正規化画像145を入力すると、もし正規化画
像145の出力先が適当なフォーマットの正規化画像1
45を要求するならば、正規化画像145の出力先が要
求するフォーマットに正規化画像145を変換する。そ
の後正規化画像保持手段28は正規化画像145の出力
先に確実に正規化画像145を送信するまで一定期間正
規化画像145を記憶する。正規化画像保持手段28は
変換するフォーマットを限定すれば画素毎に近傍処理の
みで正規化画像145を変換することができるので、並
列化に向いている。もし正規化画像保持手段28が正規
化画像145の全ての画素を並列に出力することができ
れば、正規化画像保持手段28から正規化画像145の
出力先への通信は、画素毎に並列に行うことができる。When the normalized image 145 is input from the area normalizing means 27 to the normalized image holding means 28, if the output destination of the normalized image 145 is the normalized image 1 having an appropriate format,
If a request is made for the normalized image 145, the normalized image 145 is converted into a format required by the output destination of the normalized image 145. Thereafter, the normalized image holding unit 28 stores the normalized image 145 for a certain period of time until the normalized image 145 is reliably transmitted to the output destination of the normalized image 145. If the format to be converted is limited, the normalized image holding unit 28 can convert the normalized image 145 by only the neighborhood processing for each pixel, and is suitable for parallelization. If the normalized image holding unit 28 can output all the pixels of the normalized image 145 in parallel, the communication from the normalized image holding unit 28 to the output destination of the normalized image 145 is performed in parallel for each pixel. be able to.
【0024】パターン比較手段41は、キー指定信号に
よりキー画像から生成された正規化画像145を入力し
て記憶した後、フレーム画像から生成された正規化画像
145を入力し、2つの正規化画像145を画素単位及
び近傍単位で比較し、平均自乗誤差及び内積等の一般的
な方法を用いてスカラー値に変換し、比較結果として出
力する。The pattern comparing means 41 inputs and stores the normalized image 145 generated from the key image according to the key designation signal, and then inputs the normalized image 145 generated from the frame image, and inputs the two normalized images. 145 is compared in pixel units and neighborhood units, converted to a scalar value using a general method such as mean square error and inner product, and output as a comparison result.
【0025】比較結果保持手段42がパターン比較手段
41から正規化画像145の比較結果を入力すると、比
較結果の出力先に確実に認識結果を送信するまで一定期
間認識結果を記憶する。When the comparison result holding unit 42 receives the comparison result of the normalized image 145 from the pattern comparison unit 41, the comparison result is stored for a certain period of time until the recognition result is reliably transmitted to the output destination of the comparison result.
【0026】さて、デジタル画像111が細かく振動し
た場合、デジタル画像111中の物体はあたかも移動し
ているかのように見える。つまり視覚装置3がデジタル
画像111を細かく振動させることにより、デジタル画
像111中の物体が移動しているような動画像を視覚装
置3は作成することができる。When the digital image 111 vibrates finely, the object in the digital image 111 looks as if it is moving. That is, when the visual device 3 vibrates the digital image 111 finely, the visual device 3 can create a moving image in which an object in the digital image 111 is moving.
【0027】画像振動手段13は、画像記憶手段12か
らデジタル画像111を入力すると、デジタル画像11
1中で物体が3画素前後の範囲で上下左右に振動するよ
うに、画像単位で一斉に、又は画素単位で個別に移動す
る。もし画像振動手段13がデジタル画像111の全て
の画素を並列に出力することができれば、画像振動手段
13からエッジ情報生成手段14への通信は、画素毎に
並列に行うことができる。The image vibration means 13 receives the digital image 111 from the image storage means 12,
The object moves simultaneously in units of images or individually in units of pixels such that the object vibrates up and down and left and right within a range of about 3 pixels in 1. If the image oscillating unit 13 can output all the pixels of the digital image 111 in parallel, the communication from the image oscillating unit 13 to the edge information generating unit 14 can be performed in parallel for each pixel.
【0028】そこで図3に示すように、請求項2記載の
視覚装置3は、エッジ情報生成手段14を用いて、画像
振動手段13で振動させられたキー画像から粗エッジ情
報画像113である領域指定画像を生成する。特にキー
画像が検索すべき対象物体を1つだけ映し、背景がモノ
トーンであれば、エッジ情報生成手段14はキー画像中
の対象物体の輪郭をきれいに描くことができる。Therefore, as shown in FIG. 3, the visual device 3 according to the second aspect uses the edge information generating means 14 to convert the key image vibrated by the image vibrating means 13 into a coarse edge information image 113. Generate the specified image. In particular, if the key image shows only one target object to be searched and the background is monotone, the edge information generating means 14 can clearly outline the outline of the target object in the key image.
【0029】次に、図4及び図5に示すように、請求項
3記載の視覚装置3は、画像振動手段13でデジタル画
像111を振動させることにより、デジタル画像111
中の静止物体も移動物体と見なすことができるようにす
る。そこで視覚装置3は静止物体に対しても正規化画像
145を生成することができる。Next, as shown in FIGS. 4 and 5, the visual device 3 according to the third aspect of the invention vibrates the digital image 111 by the image
The stationary object inside can be regarded as a moving object. Therefore, the visual device 3 can generate the normalized image 145 even for a stationary object.
【0030】さて、請求項1から3までに記載された視
覚装置3で用いられている画像記憶手段12、画像振動
手段13、エッジ情報生成手段14、エッジ情報形成手
段15、物体/背景分離手段16、位置/大きさ検出手
段17、領域正規化手段27、及び正規化画像保持手段
28は、配列演算ユニット100(ARRAY OPERATIONUNI
T)から構成されるデータ処理装置110を用いること
により実装することができる。そこで以下では、配列演
算ユニット100を利用したデータ処理装置110の実
施形態を挙げ、これらの手段を図面を参照して説明す
る。The image storage means 12, the image vibration means 13, the edge information generation means 14, the edge information formation means 15, the object / background separation means used in the visual device 3 according to any one of claims 1 to 3. 16, the position / size detecting means 17, the area normalizing means 27, and the normalized image holding means 28 include an array operation unit 100 (ARRAY OPERATIONUNI).
This can be implemented by using the data processing device 110 configured from T). Therefore, an embodiment of the data processing device 110 using the array operation unit 100 will be described below, and these units will be described with reference to the drawings.
【0031】まず配列演算ユニット100は、入力画像
の1つの画素とその近傍画素を用いることにより、出力
画像の1つの画素を生成する。そこで図6に示したよう
に、配列演算ユニット100を入力画像のサイズに合わ
せて格子状に配列したデータ処理装置110を用いるこ
とにより、データ処理装置110は入力画像から出力画
像を生成することができる。なお図6において、配列演
算ユニット100をAOUと略記する。次に配列演算ユ
ニット100は専用ハードウェアによって実装されても
良いし、汎用コンピュータ上でソフトウェアによって実
装することもできる。つまり入力画像から出力画像を生
成することができれば、実装手段は制限されない。した
がって配列演算ユニット100のアルゴリズムを示すこ
とにより、データ処理装置110の画像処理を示すこと
ができる。そこで配列演算ユニット100のアルゴリズ
ムを示すために、図2から5までに示された画像記憶手
段12、画像振動手段13、エッジ情報生成手段14、
エッジ情報形成手段15、位置/大きさ検出手段17、
領域正規化手段27、及び正規化画像保持手段28で用
いる数式について説明する。First, the array operation unit 100 generates one pixel of the output image by using one pixel of the input image and its neighboring pixels. Therefore, as shown in FIG. 6, by using the data processing device 110 in which the array operation units 100 are arranged in a lattice in accordance with the size of the input image, the data processing device 110 can generate an output image from the input image. it can. In FIG. 6, the array operation unit 100 is abbreviated as AOU. Next, the array operation unit 100 may be implemented by dedicated hardware, or may be implemented by software on a general-purpose computer. That is, as long as the output image can be generated from the input image, the mounting means is not limited. Therefore, the image processing of the data processing device 110 can be indicated by indicating the algorithm of the array operation unit 100. Therefore, in order to show the algorithm of the array operation unit 100, the image storage unit 12, the image vibration unit 13, the edge information generation unit 14, and the image storage unit 12 shown in FIGS.
Edge information forming means 15, position / size detecting means 17,
The mathematical formulas used in the area normalizing means 27 and the normalized image holding means 28 will be described.
【0032】幅w、高さh、帯域数bの任意の2n階調
画像をx、y、wとすると、x、y、wは各々位置p
(i,j,k)の帯域画素値xijk、yijk、w
ijkを用いて数式1、2及び3のように表される。な
おアンダーラインが付された文字はベクトルを示す。ま
たnは非負の整数、w、h、b、i、j、kは自然数で
ある。If an arbitrary 2n gradation image having a width w, a height h, and the number of bands b is x , y , and w , x , y , and w are respectively located at positions p.
(I, j, k) band pixel values x ijk , y ijk , w
Expressions 1, 2, and 3 are given by using ijk . The underlined characters indicate vectors. N is a non-negative integer, w, h, b, i, j, and k are natural numbers.
【0033】[0033]
【数1】 (Equation 1)
【0034】[0034]
【数2】 (Equation 2)
【0035】[0035]
【数3】 (Equation 3)
【0036】まず前記画像の各帯域画素値に対する点処
理に関する関数について以下で説明する。First, a function relating to point processing for each band pixel value of the image will be described below.
【0037】画像xを二値画像に変換する場合、数式4
に従って帯域画素値を二値化する。When converting the image x into a binary image, the following expression 4 is used.
, The band pixel value is binarized.
【0038】[0038]
【数4】 (Equation 4)
【0039】画像xを帯域最大値画像に変換する場合、
数式5に従ってi行j列の画素の各帯域の値のうち最大
値を選択する。なお前記帯域最大値画像は単帯域画像と
なるので、便宜上帯域数1の前記画像として取り扱うこ
とにする。したがって関数B ij1(x)の第3添字は
1となっている。ImagexIs converted to a band maximum value image,
The maximum value among the values of each band of the pixel in the i-th row and the j-th column in accordance with Expression 5
Select a value. The band maximum value image is a single band image.
Therefore, for convenience, it can be handled as the image with 1 band.
And Therefore function B ij1(x) Is the third subscript
It is 1.
【0040】[0040]
【数5】 (Equation 5)
【0041】画像xが二値画像であるとして、画像xを
反転させる場合、数式6に従って計算する。[0041] As the image x is a binary image, when reversing the image x, is calculated according to Equation 6.
【0042】[0042]
【数6】 (Equation 6)
【0043】画像xの位置p(i,j,k)における対
数変換は数式7に従って行われる。ここでeはオフセッ
トであり、自然対数関数が出力する値が有効範囲に入る
ようにするために使われるので、一般にe=1で十分で
ある。この対数化により帯域画素値同士の除算を減算に
することができる。また画像xが2n階調のデジタル画
像111であるとすると、帯域数に関わらず2n個の要
素を含むルックアップテーブルをメモリ102上に持つ
ならば、毎回自然対数関数を計算する必要もなく、標準
的な対数表を持つ必要もなくなる。The logarithmic transformation at the position p (i, j, k) of the image x is performed according to the following equation (7). Here, e is an offset, and is used to make the value output by the natural logarithmic function fall within the effective range, so that e = 1 is generally sufficient. By this logarithmic conversion, division between band pixel values can be subtracted. If the image x is a digital image 111 of 2n gradations, it is necessary to calculate the natural logarithmic function every time if the memory 102 has a look-up table including 2n elements regardless of the number of bands. No need to have a standard log table.
【0044】[0044]
【数7】 (Equation 7)
【0045】さて、画像の位置p(i,j,k)におけ
るq近傍の位置の集合Pijk(q)は数式8によって
表される。ただしqは4、8、24、48、80、12
0、(2r+1)2−1と続く数列であり、rは自然数
である。なお画像サイズをはみ出した位置が集合P
ijk(q)に含まれる場合には、特に指定がない限り
位置p(i,j,k)を代用するものとする。またこれ
以外のときは、指定に従い、画素値が0に相当し、しか
も画像に含まれない架空の位置を代用する。これにより
辺縁処理は自動的に行われる。したがって集合Pijk
(q)の要素の数N ijkは常にqとなる。Now, at the position p (i, j, k) of the image,
Set P near qijk(Q) is given by Equation 8.
expressed. Where q is 4, 8, 24, 48, 80, 12
0, (2r + 1)2Is a sequence that follows -1, where r is a natural number
It is. The position beyond the image size is set P
ijkWhen included in (q), unless otherwise specified
The position p (i, j, k) shall be substituted. Also this
Otherwise, according to the specification, the pixel value corresponds to 0,
Also, a fictitious position not included in the image is substituted. This
Edge processing is performed automatically. Therefore the set Pijk
The number N of elements of (q) ijkIs always q.
【0046】[0046]
【数8】 (Equation 8)
【0047】そこで次に画像の各帯域画素値に対する最
大8近傍の近傍処理に関する関数及びオペレータについ
て以下で説明する。Next, functions and operators related to neighborhood processing of up to eight neighborhoods for each band pixel value of an image will be described below.
【0048】画像xの位置p(i,j,k)における振
動は数式9に従って行われる。ここで位置p(i,j,
k)のq近傍の中から1つの位置だけを選択する方法に
よって画像単位で振動させるか画素単位で振動させるか
を決定することができる。もし画像xの全ての位置にお
いて、全く同じ方法によりq近傍の中から1つを選択す
れば、画像xは画像単位で振動する。一方で画像xの各
々の位置において、疑似乱数等を用いてランダムにq近
傍の中から1つを選択すれば、画像xは画素単位で振動
する。The vibration at the position p (i, j, k) of the image x is performed in accordance with the equation (9). Here, the position p (i, j,
By virtue of the method of selecting only one position from the vicinity of q in k), it is possible to determine whether to vibrate in image units or in pixel units. If at all positions of the image x, by selecting one of the q vicinity by exactly the same method, the image x vibrates in image units. On the other hand in each position of the image x in, selecting one of the q vicinity randomly using a pseudo-random number or the like, the image x vibrates in pixel units.
【0049】[0049]
【数9】 (Equation 9)
【0050】画像xの位置p(i,j,k)における平
滑化は数式10に従って行われる。ただしint(v)
は実数vの小数点以下切り捨てを意味するものとする。
もし画像xの帯域画素値が整数値であるならば、ハード
ウェアの実装時にNijk=4のときxlmkの総和に
対して右シフト命令を2回、Nijk=8のときxl
mkの総和に対して右シフト命令を3回実行するような
回路に変更することにより、除算を実行する回路を省く
ことができる。The smoothing at the position p (i, j, k) of the image x is performed according to the equation (10). Where int (v)
Means truncation of the real number v below the decimal point.
If the band pixel value of the image x is an integer value, a right shift instruction is performed twice for the sum of x lmk when N ijk = 4 and x l when N ijk = 8 when hardware is implemented.
By changing the circuit to execute the right shift instruction three times with respect to the sum of mk , the circuit for executing the division can be omitted.
【0051】[0051]
【数10】 (Equation 10)
【0052】ラプラシアンの計算であるが、これは数式
11に示すように単なる2階差分オペレータである。8
近傍の方がノイズの微妙な変化を捉えてゼロ点およびゼ
ロ交差が多くなり、本発明には向いている。ただしN
ijkが4か8であるので、もしハードウェアの実装時
にNijk=4のときxijkに対して左シフト命令を
2回、Nijk=8のときxijkに対して左シフト命
令を3回実行するような回路に変更することにより、実
数の乗算を実行する回路を省くことができる。The calculation of Laplacian is a simple second order difference operator as shown in Expression 11. 8
The vicinity is more suitable for the present invention because the number of zero points and zero crossings is increased by catching subtle changes in noise. Where N
Since ijk is 4 or 8, the left shift instruction is executed twice for x ijk when N ijk = 4, and the left shift instruction is executed three times for x ijk when N ijk = 8 when the hardware is implemented. By changing to a circuit that performs the multiplication, a circuit that performs multiplication of real numbers can be omitted.
【0053】[0053]
【数11】 [Equation 11]
【0054】ラプラシアンによって求められた値からゼ
ロ点を見付ける方法として、従来は正から負に変化する
画素を見付けていたが、本発明では数式12に従い、負
から正にゼロ交差する画素の他に、負からゼロやゼロか
ら正のようにゼロ点が経由したり、ゼロが継続する画素
を見付けるようにする。本発明では、数式12が見付け
たゼロ点はエッジがある場所ではなく、ノイズがある場
所、つまりエッジがない場所になる。また数式12によ
り実数値の二値化も同時に行っている。As a method of finding a zero point from the value obtained by Laplacian, a pixel that changes from positive to negative has been conventionally found. Try to find a pixel that goes through a zero point, such as going from negative to zero or from zero to positive, or continuing zero. In the present invention, the zero point found by Expression 12 is not a place where an edge exists, but a place where there is noise, that is, a place where there is no edge. In addition, binarization of the real value is performed at the same time according to Expression 12.
【0055】[0055]
【数12】 (Equation 12)
【0056】画像xが任意の二値画像であるとして、画
像xのうち孔が空いている画素を埋める場合には、数式
13に従い計算する。ここでfは埋めるべき孔の大きさ
を表すパラメータであり、一般にはf=1で十分であ
る。なお4近傍の場合にはその性質上対角線を検知する
ことができないので、極力8近傍にした方がよい。Assuming that the image x is an arbitrary binary image, when filling a pixel having a hole in the image x , calculation is performed according to Expression 13. Here, f is a parameter indicating the size of the hole to be filled, and generally f = 1 is sufficient. Note that a diagonal line cannot be detected due to its nature in the vicinity of 4; therefore, it is better to set it as close to 8 as possible.
【0057】[0057]
【数13】 (Equation 13)
【0058】画像xが任意の二値画像であるとして、画
像xのうち孤立点ないし孤立孔を削除する場合には、数
式14に従い計算する。なお4近傍の場合にはその性質
上対角線を検知することができないので、極力8近傍に
した方がよい。Assuming that the image x is an arbitrary binary image, when an isolated point or an isolated hole is to be deleted from the image x , the calculation is performed in accordance with Expression 14. Note that a diagonal line cannot be detected due to its nature in the vicinity of 4; therefore, it is better to set it as close to 8 as possible.
【0059】[0059]
【数14】 [Equation 14]
【0060】画像xが任意の二値画像であるとして、画
像xのうち線幅が1である画素を検知するために、4近
傍画素を用いて数式15に従い計算する。Assuming that the image x is an arbitrary binary image, in order to detect a pixel having a line width of 1 in the image x , calculation is performed according to equation 15 using four neighboring pixels.
【0061】[0061]
【数15】 (Equation 15)
【0062】2つの画像x、yが任意の二値画像であ
り、画像yが画像xのうち線幅が1である画素を検知し
た画像であるとすると、画像xのうち線幅が1である画
素の線幅を拡張するために、4近傍画素を用いて数式1
6に従い計算する。[0062] Two image x, y is any binary image. When the image y is assumed to be an image obtained by detecting the pixel out line width is 1 image x, the inner line width of the image x is 1 In order to extend the line width of a certain pixel, Equation 1 is calculated using four neighboring pixels.
Calculate according to 6.
【0063】[0063]
【数16】 (Equation 16)
【0064】そこで数式15の線幅検知と数式16の線
幅拡張を用いると、数式17に従い二値画像の線幅補完
を簡単に記述することができる。Therefore, if the line width detection of Expression 15 and the line width expansion of Expression 16 are used, complementation of the line width of the binary image can be easily described according to Expression 17.
【0065】[0065]
【数17】 [Equation 17]
【0066】次に画像の各帯域画素値に対する近傍処理
に関する関数及びオペレータについて以下で説明する。Next, a function and an operator relating to the neighborhood processing for each band pixel value of an image will be described below.
【0067】2つの画像x、yがある場合、これらの画
像の最大値画像は数式18に従って計算される。If there are two images x and y , the maximum value image of these images is calculated according to equation (18).
【0068】[0068]
【数18】 (Equation 18)
【0069】2つの画像x、yがある場合、これらの画
像の差分は数式19に従って計算される。If there are two images x and y , the difference between these images is calculated according to equation (19).
【0070】[0070]
【数19】 [Equation 19]
【0071】ここで数式11のラプラシアンと数式19
の差分を用いると、数式20に従い画像の鮮鋭化を簡単
に記述することができる。Here, the Laplacian of Expression 11 and Expression 19
, The sharpening of the image can be simply described according to equation (20).
【0072】[0072]
【数20】 (Equation 20)
【0073】2つの画像x、yがあり、画像yが単帯域
二値画像である場合、数式21に従い、画像yの帯域画
素値を用いて画像xの各帯域画素値をマスクすることが
できる。If there are two images x and y , and the image y is a single-band binary image, each band pixel value of the image x can be masked using the band pixel value of the image y according to Equation 21. .
【0074】[0074]
【数21】 (Equation 21)
【0075】2つの画像x、yがあり、画像xとyが二
値画像である場合、数式22に従い、画像xを基に画像
yを整形することができる。[0075] Two image x, there is y, if the image x and y are binary images, in accordance with Equation 22, the image based on the image x
y can be shaped.
【0076】[0076]
【数22】 (Equation 22)
【0077】2つの画像x、yがあり、画像yが二値画
像である場合、数式23に従い、画像yで指定されなか
った画像xの帯域画素値を、画像xの帯域画素値の近傍
のうち画像yで指定された画像xの帯域画素値の平均値
で補間する。ただしint(v)は実数vの小数点以下
切り捨てを意味するものとする。[0077] Two image x, there is y, if the image y is binary image in accordance with Equation 23, a band-pixel value of the image x not specified by the image y, in the vicinity of the band-pixel value of the image x The interpolation is performed using the average value of the band pixel values of the image x specified by the image y . However, int (v) means that the real number v is truncated below the decimal point.
【0078】[0078]
【数23】 (Equation 23)
【0079】さて本発明では、画素の位置や移動量も画
像データのように扱うことで処理を単純にしている。こ
れを位置の画像化と呼ぶ。以下では画像化に関する幾つ
かの関数及びオペレータについて説明する。In the present invention, the processing is simplified by treating the position and the movement amount of the pixel like image data. This is called position imaging. In the following, some functions and operators relating to imaging will be described.
【0080】まず位置p(l,m,o)のl、m、o各
々の値を画像データとして帯域画素値に変換するオペレ
ータを#とし、変換された帯域画素値を#p(l,m,
o)とする。次に帯域画素値が位置p(i,j,k)か
ら位置p(i+l,j+m,k+o)へ移動する場合を
考える。このとき帯域画素値の移動量は位置p(l,
m,o)として表されるものとする。つまり移動量はあ
る位置からのベクトルと見なすことができる。最後に帯
域画素値から位置を取り出すオペレータを#−1とす
る。したがって#−1#p(l,m,o)=p(l,
m,o)となる。First, the operator for converting each value of l, m, and o at the position p (l, m, o) into band pixel values as image data is #, and the converted band pixel values are #p (l, m). ,
o). Next, consider a case where the band pixel value moves from the position p (i, j, k) to the position p (i + 1, j + m, k + o). At this time, the shift amount of the band pixel value is the position p (l,
m, o). That is, the movement amount can be regarded as a vector from a certain position. Finally, the operator that extracts the position from the band pixel value is # -1 . Therefore, # -1 #p (l, m, o) = p (l,
m, o).
【0081】そこで数式24に従い、移動量p(i,
j,k)を幅方向と高さ方向で表される平面内で180
度反対方向に向けることができる。Therefore, according to Equation 24, the movement amount p (i,
j, k) in a plane represented by the width direction and the height direction by 180
Can be turned in the opposite direction.
【0082】[0082]
【数24】 (Equation 24)
【0083】画像xがあり、画像xが単帯域二値画像で
ある場合、画像xの位置p(i,j,1)における重心
位置への移動量は数式25に従い計算される。なお、本
来重心を計算する際には除算を行う必要があるが、8近
傍内への移動量を計算する際に除算は相殺されてしまう
ので、数式25では除算が省かれている。[0083] There are image x, when the image x is a single band binary image, the moving amount of the center of gravity position in the position of the image x p (i, j, 1 ) is calculated in accordance with Equation 25. Note that division must be performed when calculating the center of gravity, but the division is canceled when calculating the amount of movement into the vicinity of 8, so division is omitted in Equation 25.
【0084】[0084]
【数25】 (Equation 25)
【0085】移動量p(i,j,k)から、数式26及
び27に従い8近傍内への移動量を計算し、移動量画像
に画像化することができる。なお数式27は、画像の離
散化により数式26では対応しきれない場合にのみ利用
する。From the amount of movement p (i, j, k), the amount of movement into the vicinity of 8 can be calculated according to equations 26 and 27, and can be converted into an image of the amount of movement. Expression 27 is used only when expression 26 cannot cope with the discretization of the image.
【0086】[0086]
【数26】 (Equation 26)
【0087】[0087]
【数27】 [Equation 27]
【0088】したがって数式25、26及び27を用い
ると、数式28及び29に従い、単帯域二値画像xの重
心方向への移動量画像の帯域画素値を簡単に記述するこ
とができる。なお移動量画像の帯域数は1となる。Therefore, using Equations 25, 26 and 27, the band pixel value of the moving amount image of the single-band binary image x in the direction of the center of gravity can be simply described according to Equations 28 and 29. Note that the number of bands of the moving amount image is one.
【0089】[0089]
【数28】 [Equation 28]
【0090】[0090]
【数29】 (Equation 29)
【0091】一方で数式24を用いると重心位置の反対
位置を求めることができるので、数式30に従い、単帯
域二値画像xの重心と反対方向への移動量画像の帯域画
素値を簡単に記述することができる。なお移動量画像の
帯域数は1となる。On the other hand, since the position opposite to the position of the center of gravity can be obtained by using Expression 24, the band pixel value of the moving amount image in the direction opposite to the center of gravity of the single-band binary image x is simply described according to Expression 30. can do. Note that the number of bands of the moving amount image is one.
【0092】[0092]
【数30】 [Equation 30]
【0093】2つの画像x、yがあり、画像yが移動量
画像である場合、数式31に従い、画像yで指し示され
た移動位置に画像xの帯域画素値を移動した後、同じ帯
域画素に移動した帯域画素値の合計を濃淡画像にするこ
とができる。When there are two images x and y , and the image y is a moving amount image, after moving the band pixel value of the image x to the moving position indicated by the image y according to Equation 31, the same band pixel The sum of the band pixel values that have been moved to the grayscale image can be obtained.
【0094】[0094]
【数31】 (Equation 31)
【0095】そこで数式4、28、29及び31を用い
ることにより、数式32又は数式33に従い、単帯域濃
淡画像xを近傍の重心方向に移動した後、同じ帯域画素
に移動した帯域画素値の合計を簡単に記述することがで
きる。Then, by using equations (4), (28), (29) and (31), according to equation (32) or (33), after moving the single-band grayscale image x in the vicinity of the center of gravity, the sum of the band pixel values moved to the same band pixel Can be easily described.
【0096】[0096]
【数32】 (Equation 32)
【0097】[0097]
【数33】 [Equation 33]
【0098】2つの画像x、yがあり、画像xが二値画
像で、画像yが移動量画像である場合、画像xの各帯域
画素値の移動先の位置を求めることができるので、移動
先が重複する帯域画素値を見つけることができる。そこ
で画像xの各帯域画素値の移動先が重複することなく、
しかも移動する各帯域画素値が存在することを表す移動
可能画像の帯域画素値は、数式34に従い生成される。
なお移動可能画像の帯域数は1となる。If there are two images x and y , and the image x is a binary image and the image y is a moving amount image, the position of the moving destination of each band pixel value of the image x can be obtained. Band pixel values with overlapping destinations can be found. Therefore, the destination of each band pixel value of the image x does not overlap,
In addition, the band pixel value of the movable image indicating that there is a moving band pixel value is generated according to Expression 34.
Note that the number of bands of the movable image is one.
【0099】[0099]
【数34】 (Equation 34)
【0100】3つの画像x、y、wがあり、画像yが移
動可能画像であり、画像wが移動量画像である場合、数
式35に従い画像xの帯域画素値を移動することができ
る。When there are three images x , y , and w , the image y is a movable image, and the image w is a movement amount image, the band pixel value of the image x can be moved according to Expression 35.
【0101】[0101]
【数35】 (Equation 35)
【0102】そこで数式30、数式34及び数式35を
用いると、数式36に従い、二値画像yから計算される
重心位置と反対方向に画像xの帯域画素を移動すること
で得られる画像の帯域画素値を簡単に記述することがで
きる。Therefore, using Equations 30, 34 and 35, the band pixels of the image x obtained by moving the band pixels of the image x in the direction opposite to the position of the center of gravity calculated from the binary image y according to Equation 36 Value can be described easily.
【0103】[0103]
【数36】 [Equation 36]
【0104】そこで数式1から数式36までを用いるこ
とにより、図2から5までに示された画像記憶手段1
2、画像振動手段13、エッジ情報生成手段14、エッ
ジ情報形成手段15、位置/大きさ検出手段17、領域
正規化手段27、及び正規化画像保持手段28を実装す
るデータ処理装置110の全ての配列演算ユニット10
0のアルゴリズムを記述することができる。以下では、
データ処理装置110中の任意の配列演算ユニット10
0のアルゴリズムを用いて、画像記憶手段12、画像振
動手段13、エッジ情報生成手段14、エッジ情報形成
手段15、位置/大きさ検出手段17、領域正規化手段
27、及び正規化画像保持手段28を説明する。Therefore, by using Equations 1 to 36, the image storage means 1 shown in FIGS.
2. All of the data processing device 110 that implements the image vibration means 13, the edge information generation means 14, the edge information formation means 15, the position / size detection means 17, the area normalization means 27, and the normalized image holding means 28 Array operation unit 10
0 algorithm can be described. Below,
Arbitrary array operation unit 10 in data processing device 110
Using an algorithm of 0, the image storage means 12, the image vibration means 13, the edge information generation means 14, the edge information formation means 15, the position / size detection means 17, the area normalization means 27, and the normalized image holding means 28 Will be described.
【0105】データ処理装置110によって実現される
画像記憶手段12がデジタル画像111を記憶するため
に、格子状に配列された配列演算ユニット100は同期
して並列に動作する。格子上i行j列に配置された配列
演算ユニット100をAOU ijとすると、AOUij
のアルゴリズムは図7のようになる。Implemented by data processing device 110
The image storage means 12 stores the digital image 111
In addition, the array operation units 100 arranged in a lattice
And work in parallel. Array arranged at i row and j column on the grid
Operation unit 100 is AOU ijThen, AOUij
Is as shown in FIG.
【0106】ステップ1201で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 1201, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0107】ステップ1202で、AOUijの近傍や
変数の初期値を設定する。At step 1202, the neighborhood of AOU ij and initial values of variables are set.
【0108】ステップ1203で、順次入力されるデジ
タル画像111が無くなったかどうか判断する。もしデ
ジタル画像111が無ければ(ステップ1203:YE
S)、アルゴリズムを終了する。もしデジタル画像11
1があれば(ステップ1203:NO)、ステップ12
04に移行する。ただし特定の画像サイズのみに対して
配列演算ユニット100を実装する場合には、無限ルー
プにしても良い。In step 1203, it is determined whether or not the digital image 111 to be sequentially input has disappeared. If there is no digital image 111 (step 1203: YE
S), end the algorithm. If digital image 11
If there is 1 (step 1203: NO), step 12
Move to 04. However, when the array operation unit 100 is implemented only for a specific image size, an infinite loop may be used.
【0109】ステップ1204で、デジタル画像111
が準備されるまで入力待ちをする。At step 1204, the digital image 111
Wait for input until is ready.
【0110】ステップ1205で、デジタル画像111
のi行j列の画素を帯域数分入力する。このためAOU
ijは少なくとも帯域数分の画像データを記憶するメモ
リ102を必要とする。At step 1205, the digital image 111
Of pixels in the i-th row and the j-th column are input for the number of bands. For this reason, AOU
ij requires the memory 102 to store at least image data for the number of bands.
【0111】ステップ1206で、入力待ちの間出力で
きるように、デジタル画像111のi行j列の画素を記
憶する。In step 1206, the pixels in the i-th row and the j-th column of the digital image 111 are stored so as to be able to output while waiting for input.
【0112】ステップ1207で、デジタル画像111
の帯域画素値を出力する。その後ステップ1203に戻
る。At step 1207, the digital image 111
Is output. Thereafter, the flow returns to step 1203.
【0113】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、画像記憶手
段12はデジタル画像111を記憶することができる。As a result, the image storage means 12 can store the digital image 111 using the data processing device 110 composed of the array operation unit 100.
【0114】データ処理装置110によって実現される
画像振動手段13がデジタル画像111を振動させるた
めに、格子状に配列された配列演算ユニット100は同
期して並列に動作する。格子上i行j列に配置された配
列演算ユニット100をAOUijとすると、AOU
ijのアルゴリズムは図8のようになる。In order for the image vibration means 13 realized by the data processing device 110 to vibrate the digital image 111, the array operation units 100 arranged in a lattice form operate synchronously and in parallel. If the array operation unit 100 arranged at the i-th row and the j-th column on the lattice is AOU ij , AOU ij
The algorithm of ij is as shown in FIG.
【0115】ステップ1301で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。In step 1301, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0116】ステップ1302で、AOUijの近傍や
変数の初期値を設定する。In step 1302, the neighborhood of AOU ij and initial values of variables are set.
【0117】ステップ1303で、順次入力されるデジ
タル画像111が無くなったかどうか判断する。もしデ
ジタル画像111が無ければ(ステップ1303:YE
S)、アルゴリズムを終了する。もしデジタル画像11
1があれば(ステップ1303:NO)、ステップ13
04に移行する。ただし特定の画像サイズのみに対して
配列演算ユニット100を実装する場合には、無限ルー
プにしても良い。At step 1303, it is determined whether or not the digital image 111 to be sequentially inputted has disappeared. If there is no digital image 111 (step 1303: YE
S), end the algorithm. If digital image 11
If there is 1 (step 1303: NO), step 13
Move to 04. However, when the array operation unit 100 is implemented only for a specific image size, an infinite loop may be used.
【0118】ステップ1304で、デジタル画像111
のi行j列の画素を帯域数分入力する。このためAOU
ijは少なくとも帯域数分の画像データを記憶するメモ
リ102を必要とする。At step 1304, the digital image 111
Of pixels in the i-th row and the j-th column are input for the number of bands. For this reason, AOU
ij requires the memory 102 to store at least image data for the number of bands.
【0119】ステップ1305で、関数Ξijk(x)
に従いデジタル画像111のi行j列の画素を近傍画素
の1つに移動させる。In step 1305, the function Ξ ijk ( x )
, The pixel in the i-th row and the j-th column of the digital image 111 is moved to one of the neighboring pixels.
【0120】ステップ1306で、デジタル画像111
の帯域画素値を出力する。その後ステップ1303に戻
る。At step 1306, the digital image 111
Is output. Thereafter, the flow returns to step 1303.
【0121】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、画像振動手
段13はデジタル画像111を振動させることができ
る。Thus, the image vibrating means 13 can vibrate the digital image 111 using the data processing device 110 including the array operation unit 100.
【0122】データ処理装置110によって実現される
エッジ情報生成手段14がデジタル画像111から粗エ
ッジ情報画像113を生成するために、格子状に配列さ
れた配列演算ユニット100は同期して並列に動作す
る。格子上i行j列に配置された配列演算ユニット10
0をAOUijとすると、エッジ情報生成手段14に対
するAOUijのアルゴリズムは図9のようになる。In order for the edge information generating means 14 realized by the data processing device 110 to generate the coarse edge information image 113 from the digital image 111, the array operation units 100 arranged in a lattice form operate synchronously and in parallel. . Array operation unit 10 arranged at i row and j column on the lattice
If 0 is AOU ij , the algorithm of AOU ij for the edge information generating means 14 is as shown in FIG.
【0123】ステップ1401で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 1401, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0124】ステップ1402で、AOUijの近傍や
変数の初期値を設定する。近傍の設定においては、前記
各関数で使う近傍サイズqを個別に4か8に決めても良
いし、全部を4か8に統一しても良い。本発明のエッジ
情報生成手段14が生成する粗エッジ情報112の正確
さを上げるためには近傍サイズqを全て8に設定するこ
とが望ましい。しかしながら粗エッジ情報112を生成
するための計算時間の制約や、デジタル画像111の帯
域数等により、エッジ情報生成手段14は必要に応じて
適宜近傍サイズを変えることで対処することができる。In step 1402, the neighborhood of AOU ij and initial values of variables are set. In setting the neighborhood, the neighborhood size q used in each of the functions may be individually determined to be 4 or 8, or the whole may be unified to 4 or 8. In order to increase the accuracy of the rough edge information 112 generated by the edge information generating means 14 of the present invention, it is desirable to set all the neighborhood sizes q to 8. However, the edge information generating means 14 can cope with this by appropriately changing the neighborhood size as needed, depending on the calculation time for generating the rough edge information 112, the number of bands of the digital image 111, and the like.
【0125】ステップ1403で、デジタル画像111
が終了したかどうか判断する。もしデジタル画像111
が無ければ(ステップ1403:YES)、アルゴリズ
ムを終了する。もしデジタル画像111があれば(ステ
ップ1403:NO)、アルゴリズムを終了する。ただ
し特定の帯域数と画像サイズに対して配列演算ユニット
100を実装する場合には、無限ループにしても良い。At step 1403, the digital image 111
Judge whether or not is completed. If the digital image 111
If there is no (step 1403: YES), the algorithm ends. If there is a digital image 111 (step 1403: NO), the algorithm ends. However, when the array operation unit 100 is implemented for a specific number of bands and an image size, an infinite loop may be used.
【0126】ステップ1404で、デジタル画像111
のi行j列の画素を帯域数分入力する。これは、AOU
ijがデジタル画像111のi行j列の画素を一括して
処理するためである。このためAOUijは少なくとも
帯域数分の画像データを記憶するメモリ102を必要と
する。At step 1404, the digital image 111
Of pixels in the i-th row and the j-th column are input for the number of bands. This is AOU
ij is to collectively process the pixels in the i-th row and the j-th column of the digital image 111. For this reason, AOU ij requires a memory 102 for storing at least image data for the number of bands.
【0127】ステップ1405で、AOUijが近傍の
配列演算ユニット100と通信することにより、入力し
たデジタル画像111の各帯域画素値に対して関数S
ijk(x)に従い平滑化を行う。平滑化された帯域画
素値は平滑化画像の帯域画素値として扱われる。ここで
関数Sijk(x)は必要に応じて数回繰り返しても良
い。一般的なカラー画像の場合、この回数は2回で十分
である。In step 1405, AOU ij communicates with the array operation unit 100 in the vicinity, so that a function S is applied to each band pixel value of the input digital image 111.
Perform smoothing according to ijk ( x ). The smoothed band pixel values are treated as band pixel values of the smoothed image. Here, the function S ijk ( x ) may be repeated several times as needed. In the case of a general color image, two times is sufficient.
【0128】ステップ1406で、平滑化画像の各帯域
画素値に対して関数Lijk(x)に従い対数変換を行
う。対数変換された帯域画素値は対数変換画像の帯域画
素値として扱われる。In step 1406, logarithmic conversion is performed on each band pixel value of the smoothed image in accordance with the function Lijk ( x ). The logarithmically converted band pixel value is treated as a band pixel value of the logarithmically converted image.
【0129】ステップ1407で、AOUijが近傍の
配列演算ユニット100と通信することにより、対数変
換画像の各帯域画素値に対して関数Eijk(x)に従
い鮮鋭化を行う。鮮鋭化された帯域画素値は鮮鋭化画像
の帯域画素値として扱われる。In step 1407, AOU ij communicates with the neighboring array operation unit 100 to sharpen each band pixel value of the logarithmically converted image in accordance with the function E ijk ( x ). The sharpened band pixel value is treated as a band pixel value of the sharpened image.
【0130】ステップ1408で、鮮鋭化画像の各帯域
画素値に対して関数Dijk(x,y)に従い1入力前
鮮鋭化画像の各帯域画素値を引く。差分を計算された帯
域画素値は時間差分画像の帯域画素値として扱われる。In step 1408, each band pixel value of the one-input pre-sharpened image is subtracted from each band pixel value of the sharpened image according to the function D ijk ( x , y ). The band pixel value for which the difference has been calculated is treated as a band pixel value of the time difference image.
【0131】ステップ1409で、1入力前鮮鋭化画像
の各帯域画素値を鮮鋭化画像の対応する各帯域画素値で
置き換える。In step 1409, each band pixel value of the sharpened image before one input is replaced with a corresponding band pixel value of the sharpened image.
【0132】ステップ1410で、AOUijが近傍の
配列演算ユニット100と通信することにより、時間差
分画像の各帯域画素値に対してオペレータ∇2 ijk x
に従いラプラシアンの計算を行う。ラプラシアンを計算
された帯域画素値は時間差分ラプラシアン画像の帯域画
素値として扱われる。At step 1410, the AOU ij communicates with the neighboring array operation unit 100, and the operator ∇ 2 ijk x is applied to each band pixel value of the time difference image.
Laplacian is calculated according to the following equation. The band pixel value for which the Laplacian has been calculated is treated as the band pixel value of the time difference Laplacian image.
【0133】ステップ1411で、AOUijが近傍の
配列演算ユニット100と通信することにより、時間差
分ラプラシアン画像の各帯域画素値に対して関数Z
ijk(x)に従いゼロ点を抽出する。ゼロ点を抽出さ
れた帯域画素値は時間差分ゼロ点画像の帯域画素値とし
て扱われる。At step 1411, AOU ij communicates with the neighboring array operation unit 100 to obtain a function Z for each band pixel value of the time difference Laplacian image.
The zero point is extracted according to ijk ( x ). The band pixel value from which the zero point has been extracted is treated as the band pixel value of the time difference zero point image.
【0134】ステップ1412で、時間差分ラプラシア
ン画像の各帯域画素値に対して関数Bij1(x)に従
い各帯域画素値のうち最大値を検出する。検出された最
大値帯域画素値は最大値時間差分ゼロ点画像の帯域画素
値として扱われる。なお便宜上帯域数は1である。In step 1412, the maximum value among the band pixel values of each band pixel value of the time difference Laplacian image is detected according to the function B ij1 ( x ). The detected maximum value band pixel value is treated as a band pixel value of the maximum value time difference zero point image. Note that the number of bands is 1 for convenience.
【0135】ステップ1413で、AOUijが近傍の
配列演算ユニット100と通信することにより、鮮鋭化
画像の各帯域画素値に対してオペレータ∇2 ijk xに
従いラプラシアンの計算を行う。ラプラシアンを計算さ
れた帯域画素値はラプラシアン画像の帯域画素値として
扱われる。In step 1413, AOU ij communicates with the neighboring array operation unit 100 to calculate Laplacian for each band pixel value of the sharpened image according to the operator ∇ 2 ijk x . The band pixel value for which the Laplacian has been calculated is treated as the band pixel value of the Laplacian image.
【0136】ステップ1414で、AOUijが近傍の
配列演算ユニット100と通信することにより、ラプラ
シアン画像の各帯域画素値に対して関数Zijk(x)
に従いゼロ点を抽出する。ゼロ点を抽出された帯域画素
値はゼロ点画像の帯域画素値として扱われる。In step 1414, AOU ij communicates with the neighboring array operation unit 100, and the function Z ijk ( x ) is applied to each band pixel value of the Laplacian image.
The zero point is extracted according to. The band pixel value from which the zero point is extracted is treated as the band pixel value of the zero point image.
【0137】ステップ1415で、ラプラシアン画像の
各帯域画素値に対して関数Bij1(x)に従い各帯域
画素値のうち最大値を検出する。検出された最大帯域画
素値は最大値ゼロ点画像の帯域画素値として扱われる。
なお便宜上帯域数は1である。In step 1415, the maximum value among the band pixel values of each band pixel of the Laplacian image is detected according to the function B ij1 ( x ). The detected maximum band pixel value is treated as a band pixel value of the maximum zero point image.
Note that the number of bands is 1 for convenience.
【0138】ステップ1416で、ラプラシアン画像の
各帯域画素値と時間差分ラプラシアン画像の各帯域画素
値に対して関数Mijk(x,y)に従い各々の画像の
同じ位置にある帯域画素値のうち最大値を検出する。検
出された最大帯域画素値は混成ゼロ点画像の帯域画素値
として扱われる。なお便宜上帯域数は1である。In step 1416, the maximum value of the band pixel values at the same position in each image is calculated for each band pixel value of the Laplacian image and each band pixel value of the time difference Laplacian image according to the function M ijk ( x , y ). Find the value. The detected maximum band pixel value is treated as a band pixel value of the hybrid zero point image. Note that the number of bands is 1 for convenience.
【0139】ステップ1417で、AOUijが近傍の
配列演算ユニット100と通信することにより、混成ゼ
ロ点画像の帯域画素値に対して関数Fijk(x)に従
い孔を除去する。孔を除去された帯域画素値は孔除去混
成ゼロ点画像の帯域画素値として扱われる。なお便宜上
帯域数は1である。ここで関数Fijk(x)は必要に
応じて数回繰り返しても良い。一般的なカラー画像の場
合、この回数は1回で十分である。In step 1417, AOU ij communicates with the neighboring array operation unit 100 to remove holes according to the function F ijk ( x ) for the band pixel value of the hybrid zero point image. The band pixel value from which the hole has been removed is treated as the band pixel value of the hole-removed hybrid zero-point image. Note that the number of bands is 1 for convenience. Here, the function F ijk ( x ) may be repeated several times as necessary. In the case of a general color image, one time is sufficient.
【0140】ステップ1418で、AOUijが近傍の
配列演算ユニット100と通信することにより、孔除去
混成ゼロ点画像の帯域画素値に対して関数A
ijk(x)に従い孤立点および孤立孔を除去する。孤
立点および孤立孔を除去された帯域画素値はノイズ除去
混成ゼロ点画像の帯域画素値として扱われる。なお便宜
上帯域数は1である。At step 1418, AOU ij communicates with the neighboring array operation unit 100, and the AOU ij performs a function A on the band pixel value of the hole-removed hybrid zero-point image
Isolated points and isolated holes are removed according to ijk ( x ). The band pixel value from which the isolated points and the isolated holes have been removed is treated as the band pixel value of the noise-removed hybrid zero-point image. Note that the number of bands is 1 for convenience.
【0141】ステップ1419で、ノイズ除去混成ゼロ
点画像の帯域画素値に対して関数I ijk(x)に従い
0と1を反転させる。反転された帯域画素値は粗エッジ
情報画像113の帯域画素値として扱われる。At step 1419, noise removal hybrid zero
Function I for the band pixel value of the point image ijk(x)in accordance with
Invert 0 and 1. Inverted band pixel value is coarse edge
It is treated as a band pixel value of the information image 113.
【0142】ステップ1420で、粗エッジ情報画像1
13の帯域画素値を出力する。その後ステップ1403
に戻る。At step 1420, coarse edge information image 1
13 band pixel values are output. Then step 1403
Return to
【0143】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、エッジ情報
生成手段14はデジタル画像111から粗エッジ情報画
像113を生成することができる。Thus, the edge information generating means 14 can generate the rough edge information image 113 from the digital image 111 by using the data processing device 110 including the array operation unit 100.
【0144】図10に示すように、データ処理装置11
0によって実現されるエッジ情報形成手段15が粗エッ
ジ情報112から構成される粗エッジ情報画像113、
及びデジタル画像111から、形成エッジ情報114か
ら構成される形成エッジ情報画像115を生成するため
に、格子状に配列された配列演算ユニット100は同期
して並列に動作する。格子上i行j列に配置された配列
演算ユニット100をAOUijとすると、AOUij
のアルゴリズムは図11のようになる。As shown in FIG. 10, the data processing device 11
0, a coarse edge information image 113 composed of coarse edge information 112;
In order to generate the formed edge information image 115 composed of the formed edge information 114 from the digital image 111 and the digital image 111, the array operation units 100 arranged in a lattice form operate synchronously and in parallel. If the array operation unit 100 arranged at the i-th row and the j-th column on the lattice is AOU ij , AOU ij
Is as shown in FIG.
【0145】ステップ1501で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 1501, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0146】ステップ1502で、AOUijの近傍や
変数の初期値を設定する。近傍の設定においては、前記
各関数で使う近傍サイズqを個別に4か8に決めても良
いし、全部を4か8に統一しても良い。本発明のエッジ
情報形成手段15が形成した形成エッジ情報114の正
確さを上げるためには近傍サイズqを全て8に設定する
ことが望ましい。しかしながら粗エッジ情報112を形
成するための計算時間の制約や、入力されるデジタル画
像111の帯域数等により、エッジ情報形成手段15は
必要に応じて適宜近傍サイズを変えることで対処するこ
とができる。In step 1502, the neighborhood of AOU ij and the initial values of variables are set. In setting the neighborhood, the neighborhood size q used in each of the functions may be individually determined to be 4 or 8, or the whole may be unified to 4 or 8. In order to increase the accuracy of the formed edge information 114 formed by the edge information forming means 15 of the present invention, it is desirable to set all the neighborhood sizes q to 8. However, the edge information forming means 15 can cope with the situation by appropriately changing the neighborhood size as necessary, due to restrictions on the calculation time for forming the rough edge information 112, the number of bands of the input digital image 111, and the like. .
【0147】ステップ1503で、順次入力されるデジ
タル画像111又は粗エッジ情報画像113が無くなっ
たかどうか判断する。もしデジタル画像111若しくは
粗エッジ情報画像113のいずれかが無ければ(ステッ
プ1503:YES)、アルゴリズムを終了する。もし
デジタル画像111若しくは粗エッジ情報画像113の
いずれかがあれば(ステップ1503:NO)、ステッ
プ1504に移行する。ただし特定の帯域数と画像サイ
ズに対して配列演算ユニット100を実装する場合に
は、無限ループにしても良い。At step 1503, it is determined whether or not the digital image 111 or the coarse edge information image 113 which is sequentially inputted has disappeared. If there is no digital image 111 or coarse edge information image 113 (step 1503: YES), the algorithm ends. If there is either the digital image 111 or the rough edge information image 113 (step 1503: NO), the process proceeds to step 1504. However, when the array operation unit 100 is implemented for a specific number of bands and an image size, an infinite loop may be used.
【0148】ステップ1504で、デジタル画像111
及び粗エッジ情報画像113のi行j列の画素を帯域数
分入力する。これは、AOUijがデジタル画像111
及び粗エッジ情報画像113のi行j列の画素を一括し
て処理するためである。このためAOUijは少なくと
も帯域数分の画像データを記憶するメモリ102を必要
とする。At step 1504, the digital image 111
Then, the pixels of the i-th row and the j-th column of the rough edge information image 113 are inputted for the number of bands. This is because AOU ij is a digital image 111
This is because the pixels in the i-th row and the j-th column of the rough edge information image 113 are collectively processed. For this reason, AOU ij requires a memory 102 for storing at least image data for the number of bands.
【0149】ステップ1505で、デジタル画像111
のi行j列の画素と粗エッジ情報画像113のi行j列
の画素を分離する。これは、AOUijがデジタル画像
111のi行j列の画素と粗エッジ情報画像113のi
行j列の画素を各々独立した画像の画素として処理する
ためである。もしデジタル画像111のi行j列の画素
と粗エッジ情報画像113のi行j列の画素が初めから
分離されて入力されていれば、特に何もしない。At step 1505, the digital image 111
And the pixel at the i-th row and the j-th column of the coarse edge information image 113 are separated. This is because AOU ij is the pixel of the i-th row and the j-th column of the digital image 111 and the i of the coarse edge information image 113.
This is because the pixels in the row j column are processed as pixels of an independent image. If the pixel at the i-th row and the j-th column of the digital image 111 and the pixel at the i-th row and the j-th column of the rough edge information image 113 are separated and input from the beginning, nothing is performed.
【0150】ステップ1506で、AOUijが近傍の
配列演算ユニット100と通信することにより、入力し
たデジタル画像111の各帯域画素値に対して関数S
ijk(x)に従い平滑化を行う。平滑化された帯域画
素値は平滑化画像の帯域画素値として扱われる。ここで
関数Sijk(x)は必要に応じて数回繰り返しても良
い。一般的なカラー画像の場合、この回数は2回で十分
である。In step 1506, the AOU ij communicates with the neighboring array operation unit 100 to obtain a function S for each band pixel value of the input digital image 111.
Perform smoothing according to ijk ( x ). The smoothed band pixel values are treated as band pixel values of the smoothed image. Here, the function S ijk ( x ) may be repeated several times as needed. In the case of a general color image, two times is sufficient.
【0151】ステップ1507で、平滑化画像の各帯域
画素に対して関数Lijk(x)に従い対数変換を行
う。対数変換された帯域画素値は対数変換画像の帯域画
素値として扱われる。In step 1507, logarithmic conversion is performed on each band pixel of the smoothed image in accordance with the function Lijk ( x ). The logarithmically converted band pixel value is treated as a band pixel value of the logarithmically converted image.
【0152】ステップ1508で、AOUijが近傍の
配列演算ユニット100と通信することにより、対数変
換画像の各帯域画素値に対して関数Eijk(x)に従
い鮮鋭化を行う。鮮鋭化された帯域画素値は鮮鋭化画像
の帯域画素値として扱われる。In step 1508, AOU ij communicates with the neighboring array operation unit 100, thereby sharpening each band pixel value of the logarithmically converted image according to the function E ijk ( x ). The sharpened band pixel value is treated as a band pixel value of the sharpened image.
【0153】ステップ1509で、AOUijが近傍の
配列演算ユニット100と通信することにより、鮮鋭化
画像の各帯域画素値に対してオペレータ∇2 ijk xに
従いラプラシアンの計算を行う。ラプラシアンを計算さ
れた帯域画素値はラプラシアン画像の帯域画素値として
扱われる。In step 1509, AOU ij communicates with the neighboring array operation unit 100 to calculate Laplacian for each band pixel value of the sharpened image in accordance with the operator ∇ 2 ijk x . The band pixel value for which the Laplacian has been calculated is treated as the band pixel value of the Laplacian image.
【0154】ステップ1510で、AOUijが近傍の
配列演算ユニット100と通信することにより、ラプラ
シアン画像の各帯域画素値に対して関数Zijk(x)
に従いゼロ点を抽出する。ゼロ点を抽出された帯域画素
値はゼロ点画像の帯域画素値として扱われる。In step 1510, the AOU ij communicates with the neighboring array operation unit 100, and the function Z ijk ( x ) is applied to each band pixel value of the Laplacian image.
The zero point is extracted according to. The band pixel value from which the zero point is extracted is treated as the band pixel value of the zero point image.
【0155】ステップ1511で、ゼロ点画像の各帯域
画素値に対して関数Bij1(x)に従い各帯域画素値
のうち最大値を検出する。検出された最大帯域画素値は
最大値ゼロ点画像の帯域画素値として扱われる。なお便
宜上帯域数は1である。In step 1511, the maximum value among the band pixel values is detected according to the function B ij1 ( x ) for each band pixel value of the zero point image. The detected maximum band pixel value is treated as a band pixel value of the maximum zero point image. Note that the number of bands is 1 for convenience.
【0156】ステップ1512で、最大値ゼロ点画像の
帯域画素値に対して関数Iijk(x)に従い0と1を
反転させる。反転された帯域画素値は基礎エッジ情報画
像の帯域画素値として扱われる。In step 1512, 0 and 1 are inverted with respect to the band pixel value of the maximum-value zero-point image according to the function I ijk ( x ). The inverted band pixel value is treated as a band pixel value of the basic edge information image.
【0157】ステップ1513で、入力した粗エッジ情
報画像113の帯域画素値は初め整形粗エッジ情報画像
の帯域画素値として扱われ、AOUijが近傍の配列演
算ユニット100と通信することにより、基礎エッジ情
報画像の帯域画素値を用いて、整形粗エッジ情報画像の
帯域画素値に対して関数Qijk(x,y)に従い整形
を行う。整形された帯域画素値は再び整形粗エッジ情報
画像の帯域画素値として扱われる。ここで関数Qijk
(x,y)は本来整形粗エッジ情報画像の帯域画素値が
変化しなくなるまで繰り返される。ただし計算時間の制
約、入力される粗エッジ情報画像113の品質、形成さ
れる形成エッジ情報画像115に求められる品質等によ
り、整形処理は適当な繰り返し回数で計算を打ち切って
も良い。In step 1513, the input band pixel value of the coarse edge information image 113 is first treated as the band pixel value of the shaped coarse edge information image, and the AOU ij communicates with the neighboring array operation unit 100 to form the basic edge image. Using the band pixel value of the information image, the band pixel value of the shaped rough edge information image is shaped according to the function Q ijk ( x , y ). The shaped band pixel value is treated again as a band pixel value of the shaped rough edge information image. Where the function Q ijk
( X , y ) is repeated until the band pixel value of the shaped rough edge information image no longer changes. However, the shaping process may be terminated at an appropriate number of repetitions depending on the calculation time constraints, the quality of the input rough edge information image 113, the quality required for the formed edge information image 115 to be formed, and the like.
【0158】ステップ1514で、AOUijが近傍の
配列演算ユニット100と通信することにより、整形粗
エッジ情報画像の帯域画素値に対して関数C
ijk(x)に従い線幅補完を行う。補完された帯域画
素値は形成エッジ情報画像115の帯域画素値として扱
われる。At step 1514, AOU ij communicates with the neighboring array operation unit 100, and thereby a function C is applied to the band pixel value of the shaped coarse edge information image.
Perform line width complementation according to ijk ( x ). The complemented band pixel values are treated as band pixel values of the formed edge information image 115.
【0159】ステップ1515で、形成エッジ情報画像
115の帯域画素値を出力する。その後ステップ150
3に戻る。At step 1515, the band pixel value of the formed edge information image 115 is output. Then step 150
Return to 3.
【0160】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、エッジ情報
形成手段15は粗エッジ情報画像113を形成エッジ情
報画像115に形成することができる。Thus, the edge information forming means 15 can form the rough edge information image 113 on the formed edge information image 115 using the data processing device 110 including the array operation unit 100.
【0161】図12に示すように、データ処理装置11
0によって実現される位置/大きさ検出手段17が形成
エッジ情報114を画素とする形成エッジ情報画像11
5から重複情報131を画素とする重複情報画像132
を生成するために、格子状に配列された配列演算ユニッ
ト100は同期して並列に動作する。格子上i行j列に
配置された配列演算ユニット100をAOUijとする
と、AOUijのアルゴリズムは図13のようになる。As shown in FIG. 12, the data processing device 11
0, the formed edge information image 11 in which the position / size detecting means 17 realized by 0 uses the formed edge information 114 as pixels.
5 to the overlapping information image 132 having the overlapping information 131 as a pixel.
Is generated, the array operation units 100 arranged in a lattice form operate synchronously and in parallel. When the lattice i and a row j array operation unit 100 at a column and AOU ij, Algorithm of AOU ij is shown in Figure 13.
【0162】ステップ1701で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 1701, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0163】ステップ1702で、AOUijの近傍や
変数の初期値を設定する。近傍の設定においては、前記
各関数で使う近傍サイズqを個別に決めても良いし、全
部を統一しても良い。本発明のデータ処理装置110が
生成した重複情報画像132の正確さを上げるためには
近傍サイズqを全て大きな値に設定することが望まし
い。しかしながら物体の形成エッジ情報114の重心を
計算するための計算時間の制約や、入力される形成エッ
ジ情報画像115のサイズ等により、位置/大きさ検出
手段17は必要に応じて適宜近傍サイズを変えることで
対処することができる。In step 1702, the neighborhood of AOU ij and the initial values of variables are set. In the setting of the neighborhood, the neighborhood size q used in each of the functions may be determined individually, or all may be unified. In order to increase the accuracy of the duplicated information image 132 generated by the data processing device 110 of the present invention, it is desirable to set all the neighborhood sizes q to large values. However, the position / size detection unit 17 appropriately changes the neighborhood size as necessary depending on the calculation time for calculating the center of gravity of the formed edge information 114 of the object, the size of the formed formed edge information image 115, and the like. That can be dealt with.
【0164】ステップ1703で、順次入力される形成
エッジ情報画像115が無くなったかどうか判断する。
もし形成エッジ情報画像115が無ければ(ステップ1
703:YES)、アルゴリズムを終了する。もし形成
エッジ情報画像115があれば(ステップ1703:N
O)、ステップ1704に移行する。ただし特定の画像
サイズのみに対して配列演算ユニット100を実装する
場合には、無限ループにしても良い。At step 1703, it is determined whether or not there is no formed edge information image 115 inputted sequentially.
If there is no formed edge information image 115 (step 1
703: YES), the algorithm ends. If there is a formed edge information image 115 (step 1703: N
O), proceed to step 1704. However, when the array operation unit 100 is implemented only for a specific image size, an infinite loop may be used.
【0165】ステップ1704で、形成エッジ情報画像
115のi行j列の画素を1帯域分入力する。このため
AOUijは少なくとも1帯域分の画像データを記憶す
るメモリ102を必要とする。In step 1704, the pixels in the i-th row and the j-th column of the formed edge information image 115 are inputted for one band. Therefore, AOU ij requires a memory 102 for storing at least one band of image data.
【0166】ステップ1705で、形成エッジ情報画像
115の形成エッジ情報114を重複情報画像132の
重複情報131に変換する。重複情報131は1か0に
相当する帯域画素値となる。At step 1705, the formed edge information 114 of the formed edge information image 115 is converted into the overlap information 131 of the overlap information image 132. The overlap information 131 is a band pixel value corresponding to 1 or 0.
【0167】ステップ1706で、AOUijが近傍の
配列演算ユニット100と通信することにより、重複情
報画像132の各帯域画素値に対して関数Δ
ij1(x)に従い移動量を計算する。移動量を画像化
した帯域画素値は移動量画像の帯域画素値として扱われ
る。In step 1706, AOU ij communicates with the array operation unit 100 in the vicinity so that the function Δ
The movement amount is calculated according to ij1 ( x ). The band pixel value obtained by imaging the movement amount is treated as a band pixel value of the movement amount image.
【0168】ステップ1707で、AOUijが近傍の
配列演算ユニット100と通信することにより、重複情
報画像132の各帯域画素値に対して関数Λ
ij1(x)に従い移動させる。移動した帯域画素値は
新たに重複情報画像132の帯域画素値として扱われ
る。At step 1707, AOU ij communicates with the array operation unit 100 in the vicinity, so that a function に 対 し て is applied to each band pixel value of the overlap information image 132.
ij1 ( x ). The shifted band pixel value is newly treated as a band pixel value of the overlapping information image 132.
【0169】ステップ1708で、ステップ1705か
らステップ1707までの繰り返し回数を表す移動回数
が指定回数に達したかどうか判断する。もし移動回数が
指定回数に達していなければ(ステップ1708:N
O)、ステップ1705に戻る。もし移動回数が指定回
数に達していれば(ステップ1708:YES)、ステ
ップ1709に移行する。なおこの指定回数は形成エッ
ジ情報画像115のサイズや形成エッジ情報114が表
す物体のサイズ、さらには近傍のサイズqにより決定さ
れる。利用目的に応じて適切なパラメータを設定すれ
ば、指定回数を大目に決定しても問題はないが、あまり
指定回数を多くしすぎると、位置及び大きさの検出に要
する時間が長くなる。At step 1708, it is determined whether or not the number of movements representing the number of repetitions from step 1705 to step 1707 has reached the designated number. If the number of times of movement has not reached the specified number of times (step 1708: N
O), returning to step 1705; If the number of times of movement has reached the specified number of times (step 1708: YES), the process moves to step 1709. Note that the designated number is determined by the size of the formed edge information image 115, the size of the object represented by the formed edge information 114, and the size q of the neighborhood. If appropriate parameters are set according to the purpose of use, it does not matter if the designated number is overestimated, but if the designated number is too large, the time required to detect the position and size increases.
【0170】ステップ1709で、AOUijが近傍の
配列演算ユニット100と通信することにより、重複情
報画像132の各帯域画素値に対して関数Δ’
ij1(x)に従い移動量を計算する。移動量を画像化
した帯域画素値は移動量画像の帯域画素値として扱われ
る。At step 1709, AOU ij communicates with the neighboring array operation unit 100 to obtain a function Δ ′ for each band pixel value of the overlap information image 132.
The movement amount is calculated according to ij1 ( x ). The band pixel value obtained by imaging the movement amount is treated as a band pixel value of the movement amount image.
【0171】ステップ1710で、AOUijが近傍の
配列演算ユニット100と通信することにより、重複情
報画像132の各帯域画素値に対して関数Λ’
ij1(x)に従い移動させる。移動した帯域画素値は
新たに重複情報画像132の帯域画素値として扱われ
る。At step 1710, AOU ij communicates with the array operation unit 100 in the vicinity to obtain a function Λ ′ for each band pixel value of the overlapping information image 132.
ij1 ( x ). The shifted band pixel value is newly treated as a band pixel value of the overlapping information image 132.
【0172】ステップ1711で、重複情報画像132
の帯域画素値を出力する。その後ステップ1703に戻
る。At step 1711, the duplicate information image 132
Is output. Thereafter, the flow returns to step 1703.
【0173】なお重複情報画像132の各重複情報13
1はその位置を中心とした周辺にある形成エッジ情報1
14の総数を表すので、結果的にその位置を中心とした
物体の大きさを意味することになる。Note that each of the duplication information 13 of the duplication information image 132
Reference numeral 1 denotes formed edge information 1 around the position.
Since it represents the total number of 14, it means the size of the object centered on its position as a result.
【0174】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、位置/大き
さ検出手段17は形成エッジ情報画像115から重複情
報画像132を生成することができる。Thus, the position / size detecting means 17 can generate the overlapping information image 132 from the formed edge information image 115 by using the data processing device 110 including the array operation unit 100.
【0175】図14に示すように、データ処理装置11
0によって実現される領域正規化手段27が物体領域1
41を含む物体領域画像142、及び物体領域141と
重なる分離物体領域143を含むデジタル画像111か
ら正規化領域144を含む正規化画像145を生成する
ために、格子状に配列された配列演算ユニット100は
同期して並列に動作する。格子上i行j列に配置された
配列演算ユニット100をAOUijとすると、AOU
ijのアルゴリズムは図15のようになる。As shown in FIG. 14, the data processing device 11
0, the region normalizing means 27 realizes the object region 1
In order to generate a normalized image 145 including a normalized region 144 from an object region image 142 including the object region 41 and a digital image 111 including a separated object region 143 overlapping the object region 141, the array operation units 100 arranged in a grid pattern Work synchronously and in parallel. If the array operation unit 100 arranged at the i-th row and the j-th column on the lattice is AOU ij , AOU ij
The algorithm of ij is as shown in FIG.
【0176】ステップ2701で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 2701, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0177】ステップ2702で、AOUijの近傍や
変数の初期値を設定する。近傍の設定においては、前記
各関数で使う近傍サイズqを個別に決めても良いし、全
部を統一しても良い。本発明の領域正規化手段27が生
成した正規化画像145の正確さを上げるためには近傍
サイズqを全て大きな値に設定することが望ましい。し
かしながら分離物体領域143を正規化するための計算
時間の制約や、入力されるデジタル画像111のサイズ
等により、領域正規化手段27は必要に応じて適宜近傍
サイズを変えることで対処することができる。At step 2702, the neighborhood of AOU ij and initial values of variables are set. In the setting of the neighborhood, the neighborhood size q used in each of the functions may be determined individually, or all may be unified. In order to increase the accuracy of the normalized image 145 generated by the area normalizing means 27 of the present invention, it is desirable to set all the neighborhood sizes q to large values. However, depending on the restriction of the calculation time for normalizing the separated object region 143, the size of the input digital image 111, and the like, the region normalizing means 27 can cope by changing the neighborhood size as needed. .
【0178】ステップ2703で、順次入力される物体
領域画像142又はデジタル画像111が無くなったか
どうか判断する。もし物体領域画像142又はデジタル
画像111が無ければ(ステップ2703:YES)、
アルゴリズムを終了する。もし物体領域画像142又は
デジタル画像111があれば(ステップ2703:N
O)、ステップ2704に移行する。ただし特定の帯域
数及び画像サイズのみに対して配列演算ユニット100
を実装する場合には、無限ループにしても良い。At step 2703, it is determined whether or not the sequentially input object region image 142 or digital image 111 has disappeared. If there is no object area image 142 or digital image 111 (step 2703: YES),
End the algorithm. If there is the object area image 142 or the digital image 111 (step 2703: N
O), and proceed to step 2704. However, for only a specific number of bands and image size, the array operation unit 100
May be implemented as an infinite loop.
【0179】ステップ2704で、物体領域画像142
のi行j列の画素を1帯域分と、デジタル画像111の
i行j列の画素を帯域数分を入力する。これは、AOU
ijが物体領域画像142のi行j列の画素とデジタル
画像111のi行j列の画素を一括して処理するためで
ある。このためAOUijは少なくとも総帯域数分の画
像データを記憶するメモリ102を必要とする。At step 2704, the object area image 142
Of the i-th row and j-th column for one band, and the pixels of the i-th row and j-th column of the digital image 111 for the number of bands. This is AOU
ij is to collectively process the pixels in the i-th row and the j-th column of the object area image 142 and the pixels in the i-th row and the j-th column of the digital image 111. For this reason, AOU ij requires a memory 102 for storing at least image data for the total number of bands.
【0180】ステップ2705で、物体領域画像142
のi行j列の画素とデジタル画像111のi行j列の画
素を分離する。これは、AOUijが物体領域画像14
2のi行j列の画素とデジタル画像111のi行j列の
画素を各々独立した画像の画素として処理するためであ
る。もし物体領域画像142のi行j列の画素とデジタ
ル画像111のi行j列の画素が初めから分離されて入
力されていれば、特に何もしない。物体領域画像142
及びデジタル画像111は各々更新物体領域画像及び更
新デジタル画像にコピーされる。At step 2705, the object area image 142
And the pixel at the i-th row and the j-th column of the digital image 111 are separated. This is because AOU ij is the object area image 14
This is because the pixels in the i-th row and the j-th column of the digital image 111 and the pixels in the i-th row and the j-th column of the digital image 111 are processed as independent image pixels. If the pixel of the i-th row and the j-th column of the object area image 142 and the pixel of the i-th row and the j-th column of the digital image 111 are separated and input from the beginning, nothing is performed. Object area image 142
And the digital image 111 are copied to the updated object area image and the updated digital image, respectively.
【0181】ステップ2706で、AOUijが近傍の
配列演算ユニット100と通信することにより、更新物
体領域画像の各帯域画素値に対して関数Rij1(x)
に従い移動量を計算する。移動量を画像化した帯域画素
値は移動量画像の帯域画素値として扱われる。In step 2706, the AOU ij communicates with the neighboring array operation unit 100, and the function R ij1 ( x ) is applied to each band pixel value of the updated object region image.
Is calculated according to the following equation. The band pixel value obtained by imaging the movement amount is treated as a band pixel value of the movement amount image.
【0182】ステップ2707で、AOUijが近傍の
配列演算ユニット100と通信することにより、更新物
体領域画像の各帯域画素値に対して関数Hijk(x,
y)に従い移動可能な移動先帯域画素値を見つけること
ができる。移動可能な移動先であるかどうかを表す値は
移動可能画像の帯域画素値として扱われる。In step 2707, the AOU ij communicates with the neighboring array operation unit 100, and the function H ijk ( x ,
y ), a destination band pixel value that can be moved can be found. The value indicating whether the destination is a movable destination is treated as a band pixel value of the movable image.
【0183】ステップ2708で、AOUijが近傍の
配列演算ユニット100と通信することにより、更新物
体領域画像の各帯域画素値に対して関数Uijk(x,
y)に従い移動可能先に移動させる。移動した帯域画素
値は新たに更新物体領域画像の帯域画素値として扱われ
る。In step 2708, the AOU ij communicates with the neighboring array operation unit 100 to obtain a function U ijk ( x , x) for each band pixel value of the updated object region image.
Move to a movable destination according to y ). The shifted band pixel value is newly treated as a band pixel value of the updated object region image.
【0184】ステップ2709で、AOUijが近傍の
配列演算ユニット100と通信することにより、更新デ
ジタル画像の各帯域画素値に対して関数Uijk(x,
y)に従い移動可能先に移動させる。移動した帯域画素
値は新たに更新デジタル画像の帯域画素値として扱われ
る。At step 2709, the AOU ij communicates with the neighboring array operation unit 100, and the function U ijk ( x , x) is obtained for each band pixel value of the updated digital image.
Move to a movable destination according to y ). The shifted band pixel value is newly treated as a band pixel value of the updated digital image.
【0185】ステップ2710で、ステップ2706か
らステップ2709までの繰り返し回数を表す移動回数
が指定回数に達したかどうか判断する。もし移動回数が
指定回数に達していなければ(ステップ2710:N
O)、ステップ2706に戻る。もし移動回数が指定回
数に達していれば(ステップ2710:YES)、ステ
ップ2711に移行する。なおこの指定回数はデジタル
画像111のサイズやデジタル画像111の分離物体領
域143のサイズ、さらには近傍のサイズqにより決定
される。利用目的に応じて適切なパラメータを設定すれ
ば、指定回数を大目に決定しても問題はないが、あまり
指定回数を多くしすぎると、正規化に要する時間が長く
なる。At step 2710, it is determined whether or not the number of movements representing the number of repetitions from step 2706 to step 2709 has reached the designated number. If the number of times of movement has not reached the specified number of times (step 2710: N
O), returning to step 2706; If the number of times of movement has reached the specified number of times (step 2710: YES), the process moves to step 2711. The designated number is determined by the size of the digital image 111, the size of the separated object region 143 of the digital image 111, and the size q of the neighborhood. If appropriate parameters are set according to the purpose of use, it does not matter if the specified number is overestimated, but if the specified number is too large, the time required for normalization becomes longer.
【0186】ステップ2711で、AOUijが近傍の
配列演算ユニット100と通信することにより、移動を
完了した更新物体領域画像の各帯域画素値に対して関数
Vi jk(x,y)に従い近傍の平均値で補間する。な
おxとyは共に更新物体領域画像となる。平均値で埋め
られた帯域画素値は正規化された更新物体領域画像の帯
域画素値として扱われる。[0186] In step 2711, by, AOU ij to communicate with array operation unit 100 in the vicinity of the function V i jk for each band-pixel value of the updated object-area image completing movement (x, y) in accordance with the proximity Interpolate with the average value. Note that both x and y are updated object region images. The band pixel value filled with the average value is treated as a band pixel value of the normalized updated object region image.
【0187】ステップ2712で、AOUijが近傍の
配列演算ユニット100と通信することにより、移動を
完了した更新デジタル画像の各帯域画素値に対して関数
Vi jk(x,y)に従い近傍の平均値で埋める。なお
xは更新デジタル画像となり、yは更新物体領域画像と
なる。平均値で埋められた帯域画素値は正規化された更
新デジタル画像の帯域画素値として扱われる。In step 2712, the AOU ij communicates with the neighboring array operation unit 100 to obtain the average of the neighborhood according to the function V i jk ( x , y ) for each band pixel value of the updated updated digital image. Fill with values. Note that
x is the updated digital image, and y is the updated object area image. The band pixel value filled with the average value is treated as a band pixel value of the normalized updated digital image.
【0188】ステップ2713で、ステップ2711か
らステップ2712までの繰り返し回数を表す補間回数
が指定回数に達したかどうか判断する。もし補間回数が
指定回数に達していなければ(ステップ2713:N
O)、ステップ2711に戻る。もし補間回数が指定回
数に達していれば(ステップ2713:YES)、ステ
ップ2714に移行する。一般的に補間回数は近傍サイ
ズqの半分程度の回数で十分である。At step 2713, it is determined whether or not the number of interpolations representing the number of repetitions from step 2711 to step 2712 has reached the designated number. If the number of interpolations has not reached the designated number (step 2713: N
O), and return to step 2711. If the number of times of interpolation has reached the designated number of times (step 2713: YES), the process moves to step 2714. Generally, the number of times of interpolation is about half of the neighborhood size q is sufficient.
【0189】ステップ2714で、ステップ2706か
らステップ2713までの繰り返し回数を表す継続回数
が指定回数に達したかどうか判断する。もし継続回数が
指定回数に達していなければ(ステップ2714:N
O)、ステップ2706に戻る。もし継続回数が指定回
数に達していれば(ステップ2714:YES)、ステ
ップ2715に移行する。なおこの指定回数はデジタル
画像111のサイズやデジタル画像111の分離物体領
域143のサイズ、さらには近傍のサイズqにより決定
される。利用目的に応じて適切なパラメータを設定すれ
ば、指定回数を大目に決定しても問題はないが、あまり
指定回数を多くしすぎると、正規化に要する時間が長く
なる。At step 2714, it is determined whether or not the number of continuations representing the number of repetitions from step 2706 to step 2713 has reached the designated number. If the continuation number has not reached the specified number (step 2714: N
O), returning to step 2706; If the continuation number has reached the specified number (step 2714: YES), the process moves to step 2715. The designated number is determined by the size of the digital image 111, the size of the separated object region 143 of the digital image 111, and the size q of the neighborhood. If appropriate parameters are set according to the purpose of use, it does not matter if the specified number is overestimated, but if the specified number is too large, the time required for normalization becomes longer.
【0190】ステップ2715で、更新デジタル画像の
帯域画素値を正規化画像145の帯域画素値として出力
する。その後ステップ2703に戻る。At step 2715, the band pixel value of the updated digital image is output as the band pixel value of the normalized image 145. Thereafter, the flow returns to step 2703.
【0191】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、領域正規化
手段27が物体領域画像142及びデジタル画像111
から正規化画像145を生成することができる。As a result, using the data processing device 110 composed of the array operation unit 100, the area normalizing means 27 converts the object area image 142 and the digital image 111
Can generate a normalized image 145.
【0192】データ処理装置110によって実現される
正規化画像保持手段28が正規化画像145を記憶する
ために、格子状に配列された配列演算ユニット100は
同期して並列に動作する。格子上i行j列に配置された
配列演算ユニット100をAOUijとすると、AOU
ijのアルゴリズムは図16のようになる。Since the normalized image holding means 28 realized by the data processing device 110 stores the normalized image 145, the array operation units 100 arranged in a lattice form operate synchronously and in parallel. If the array operation unit 100 arranged at the i-th row and the j-th column on the lattice is AOU ij , AOU ij
The algorithm of ij is as shown in FIG.
【0193】ステップ2801で、AOUijを格子上
のi行j列に配置する。これは論理的であれ物理的であ
れ、AOUijの近傍を決定するために必要である。At step 2801, AOU ij is arranged at the i-th row and the j-th column on the lattice. This is necessary to determine the neighborhood of AOU ij , whether logical or physical.
【0194】ステップ2802で、AOUijの近傍や
変数の初期値を設定する。At step 2802, the neighborhood of AOU ij and initial values of variables are set.
【0195】ステップ2803で、順次入力される正規
化画像145が無くなったかどうか判断する。もし正規
化画像145が無ければ(ステップ2803:YE
S)、アルゴリズムを終了する。もし正規化画像145
があれば(ステップ2803:NO)、ステップ280
4に移行する。ただし特定の画像サイズのみに対して配
列演算ユニット100を実装する場合には、無限ループ
にしても良い。At step 2803, it is determined whether or not the normalized image 145 sequentially inputted has disappeared. If there is no normalized image 145 (step 2803: YE
S), end the algorithm. If the normalized image 145
If there is (Step 2803: NO), Step 280
Move to 4. However, when the array operation unit 100 is implemented only for a specific image size, an infinite loop may be used.
【0196】ステップ2804で、正規化画像145の
i行j列の画素を帯域数分入力する。このためAOU
ijは少なくとも帯域数分の画像データを記憶するメモ
リ102を必要とする。At step 2804, the pixels of the i-th row and the j-th column of the normalized image 145 are inputted for the number of bands. For this reason, AOU
ij requires the memory 102 to store at least image data for the number of bands.
【0197】ステップ2805で、出力先の装置が必要
とすれば正規化画像145のフォーマットを変換する。
特に正規化画像145の帯域数を1にしたり、デジタル
画像111の帯域数が4以上の場合に正規化画像145
の帯域数を3にして、アナログ信号を生成しやすくする
場合に便利である。さもなくば何もしない。At step 2805, the format of the normalized image 145 is converted if the output destination device requires it.
In particular, when the number of bands of the normalized image 145 is set to 1 or the number of bands of the digital image 111 is 4 or more, the normalized image 145
This is convenient when the number of bands is set to 3 to make it easier to generate an analog signal. Otherwise do nothing.
【0198】ステップ2806で、処理速度の異なる出
力先の装置に画像データを確実に送信できるように、正
規化画像145のi行j列の画素を記憶する。In step 2806, the pixels in the i-th row and the j-th column of the normalized image 145 are stored so that the image data can be reliably transmitted to the output device having a different processing speed.
【0199】ステップ2807で、正規化画像145の
帯域画素値を出力する。その後ステップ2803に戻
る。At step 2807, the band pixel value of the normalized image 145 is output. Thereafter, the flow returns to step 2803.
【0200】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、正規化画像
保持手段28が正規化画像145を出力することができ
る。As a result, the normalized image holding means 28 can output the normalized image 145 using the data processing device 110 including the array operation unit 100.
【0201】ここまでは配列演算ユニット100から構
成されるデータ処理装置110を用いて、近傍処理のみ
からなる画像処理を行う方法について説明してきた。以
下では配列演算ユニット100から構成されるデータ処
理装置110を用いて、近傍処理のみで物体/背景分離
手段16について説明する。Up to this point, a method of performing image processing including only neighborhood processing using the data processing device 110 including the array operation unit 100 has been described. Hereinafter, the object / background separation unit 16 will be described using only the neighborhood processing using the data processing device 110 including the array operation unit 100.
【0202】まず非線形振動子は一般に引き込み現象を
起こす。この引き込み現象とは、リミットサイクルやア
トラクタのような周期的挙動において、異なる周期を持
つ非線形振動子が相互作用して簡単な定数比の周期で振
動するよう制約される現象である。このとき1つの非線
形振動子の振動を変化させると他の非線形振動子の振動
も合わせて変化するので、これらの非線形振動子は同期
している。しかも非線形振動子の相互作用を調整するこ
とにより、お互いの振動の位相差を極力小さくさせたり
大きくさせたりできる。そこでこの相互作用を操作する
と、非線形振動子の一群を、異なる位相を持つ複数のグ
ループに分割することができる。物体/背景分離手段1
6はこのような非線形振動子の引き込み現象を利用し
て、エッジ情報画像中のエッジ情報を境界とするように
物体と背景を分離して、物体領域141を表す物体領域
画像142を生成する。なお、ここでは非線形振動子と
してファン・デル・ポールを用いた場合を例に説明す
る。First, a nonlinear oscillator generally causes a pull-in phenomenon. This pull-in phenomenon is a phenomenon in which nonlinear oscillators having different periods interact with each other and oscillate at a period of a simple constant ratio in a periodic behavior such as a limit cycle or an attractor. At this time, when the vibration of one nonlinear vibrator is changed, the vibrations of the other nonlinear vibrators also change, so that these nonlinear vibrators are synchronized. In addition, by adjusting the interaction of the nonlinear oscillators, the phase difference between the vibrations can be made as small or large as possible. By manipulating this interaction, a group of nonlinear oscillators can be divided into a plurality of groups having different phases. Object / background separation means 1
6 generates an object area image 142 representing the object area 141 by utilizing the pull-in phenomenon of the nonlinear oscillator to separate the object and the background so that the edge information in the edge information image is used as a boundary. Here, a case where Van der Pol is used as the nonlinear oscillator will be described as an example.
【0203】まず、格子状に配列した非線形振動子から
構成される非線形振動子ネットワークにおいて、i行j
列にある非線形振動子をωijとすると、非線形振動子
ωi jのq近傍にある非線形振動子の集合Ωij(q)
は数式37によって表される。ただしqは4、8、2
4、48、80、120、(2r+1)2−1と続く数
列であり、rは自然数である。なおネットワークサイズ
をはみ出した非線形振動子が近傍集合Ωij(q)に含
まれる場合には、非線形振動子ωijを代用するものと
する。これにより辺縁処理は自動的に行われる。したが
って近傍集合Ωi j(q)の要素の数は常にqとなる。
なおこのことから判る通り、非線形振動子ネットワーク
は単帯域画像と同じ扱いになる。表現を簡単にするた
め、非線形振動子ネットワークでは添字は幅方向と高さ
方向の2つのみを使う。First, in a non-linear oscillator network composed of non-linear oscillators arranged in a lattice, i-th row j
When a nonlinear oscillator in the column and omega ij, a set Omega ij of nonlinear oscillators in a q near the nonlinear oscillator ω i j (q)
Is represented by Expression 37. Where q is 4, 8, 2
It is a sequence of numbers following 4, 48, 80, 120, (2r + 1) 2 -1, and r is a natural number. When a nonlinear oscillator that exceeds the network size is included in the neighborhood set Ω ij (q), the nonlinear oscillator ω ij is used instead. Thereby, the edge processing is automatically performed. Thus the number of elements of the neighbor set Ω i j (q) is always q.
As can be seen from this, the nonlinear oscillator network is treated the same as a single-band image. For simplicity of expression, in the nonlinear oscillator network, only two subscripts are used: the width direction and the height direction.
【0204】[0204]
【数37】 (37)
【0205】次に、非線形振動子はqa近傍に含まれる
近傍集合Ωij(qa)にある非線形振動子との間で数
式38に従い計算される結合値τijklによって結合
される。なお対数表を用いない場合には数式39による
近似も可能である。またμ、νは適当な正の定数であ
る。[0205] Next, the nonlinear oscillator is coupled by a coupling value tau ijkl which are calculated in accordance with Equation 38 with the nonlinear oscillators in a neighbor set Ω ij (q a) contained in the vicinity of q a. When the logarithmic table is not used, approximation by Expression 39 is also possible. Μ and ν are appropriate positive constants.
【0206】[0206]
【数38】 (38)
【0207】[0207]
【数39】 [Equation 39]
【0208】非線形振動子ネットワークの全ての非線形
振動子が完全に同位相で同期した場合、プロセッサ10
1で計算する限り、非線形振動子ωijは永久に同位相
のまま動作し続けてしまう。そこで外乱ρijを与えれ
ばこのような状態を回避することができる。外乱として
は疑似乱数を用いることもできるが、数式40のような
簡単な式で求めても十分である。なおζijはエッジ情
報画像のi行j列のエッジ情報の有無を表す。エッジ情
報があれば1とし、なければ0とする。またκは適当な
正の定数である。If all the nonlinear oscillators of the nonlinear oscillator network are completely in phase and synchronized, the processor 10
As long as the calculation is performed by 1, the nonlinear oscillator ω ij continues to operate forever with the same phase. Therefore, if a disturbance ρ ij is given, such a state can be avoided. Although a pseudo random number can be used as the disturbance, a simple expression such as Expression 40 is sufficient. Note that ζ ij represents the presence / absence of edge information in row i and column j of the edge information image. If there is edge information, it is set to 1, otherwise 0. Κ is an appropriate positive constant.
【0209】[0209]
【数40】 (Equation 40)
【0210】非線形振動子ωijが近傍集合Ωij(q
a)の非線形振動子ωklと同期するために、数式41
に従い近傍入力合計σijを計算する。The nonlinear oscillator ω ij has a neighborhood set Ω ij (q
a ) In order to synchronize with the nonlinear oscillator ω kl , Equation 41
Is calculated according to the following equation.
【0211】[0211]
【数41】 [Equation 41]
【0212】ファン・デル・ポール非線形振動子ωij
を構成する2つのパラメータφijとψijは数式42
及び43に従って計算される。なおγ、εは適当な正の
定数である。The van der Pol nonlinear oscillator ω ij
The two parameters φ ij and ψ ij that form
And 43. Note that γ and ε are appropriate positive constants.
【0213】[0213]
【数42】 (Equation 42)
【0214】[0214]
【数43】 [Equation 43]
【0215】非線形振動子を物体領域141と背景領域
に分離するためには全ての非線形振動子の位相のずれを
計算する必要があるが、単純に物体領域141と背景領
域の2つに分離するだけであるので、パラメータψij
がしきい値θ以上か未満かで位相ずれを計算する。物体
領域141と背景領域を分離した結果を出力する出力λ
ijは数式44によって求められる。なおθは適当な正
の定数である。In order to separate the nonlinear oscillator into the object region 141 and the background region, it is necessary to calculate the phase shift of all the nonlinear oscillators, but it is simply separated into the object region 141 and the background region. 、 Ij
Is calculated based on whether or not is equal to or larger than the threshold value θ. An output λ that outputs a result obtained by separating the object area 141 from the background area
ij is obtained by Expression 44. Θ is an appropriate positive constant.
【0216】[0216]
【数44】 [Equation 44]
【0217】エッジ情報が物体と背景を分離するのに不
十分であった場合にはエッジ情報を補間しなければなら
ない。そのために非線形振動子ωijのqb近傍にある
非線形振動子の集合Ωij(qb)中でいくつの非線形
振動子が位相ずれを起こしているか求める必要がある。
そこで数式45によって輪郭パラメータηijを計算す
る。If the edge information is not enough to separate the object from the background, the edge information must be interpolated. For this purpose, it is necessary to find out how many nonlinear oscillators are out of phase in a set Ω ij (q b ) of nonlinear oscillators near q b of the nonlinear oscillator ω ij .
Therefore, the contour parameter η ij is calculated by Expression 45.
【0218】[0218]
【数45】 [Equation 45]
【0219】この結果を基にエッジ情報の補間割合を示
す境界パラメータξijを数式46によって計算する。
なおα、β、ηmin、ηmaxは適当な正の定数であ
る。Based on the result, the boundary parameter i ij indicating the interpolation ratio of the edge information is calculated by the equation (46).
Note that α, β, η min , and η max are appropriate positive constants.
【0220】[0220]
【数46】 [Equation 46]
【0221】ここでは非線形振動子としてファン・デル
・ポールの場合を説明したが、この他にブラッセレータ
のようなリミットサイクルで安定する非線形振動子や、
ローレンツアトラクタやレスラー方程式のアトラクタを
発生するカオス振動子等、引き込み現象を起こす任意の
非線形振動子でも動作可能である。その場合はパラメー
タφijとψijを各々の非線形振動子のパラメータで
置き換えるなり追加すれば良い。その際に適当なパラメ
ータに近傍入力合計σijと外乱ρijを加えるだけで
ある。但し、カオス振動子の場合には特に外乱ρijを
必要としない。Here, the case of van der Pol as a nonlinear oscillator has been described. In addition, a nonlinear oscillator that is stable in a limit cycle such as a brasserator,
Any non-linear oscillator that causes a pull-in phenomenon, such as a chaotic oscillator that generates a Lorenz attractor or a wrestler equation attractor, can be operated. In this case, the parameters φ ij and ψ ij may be replaced or added with the parameters of the respective nonlinear oscillators. In that case, it is only necessary to add the neighborhood input sum σ ij and the disturbance ρ ij to appropriate parameters. However, in the case of a chaotic oscillator, no disturbance ρ ij is required.
【0222】数式37から数式46までを用いることに
より、物体/背景分離手段16を実装することができる
データ処理装置110の全ての配列演算ユニット100
のアルゴリズムを記述することができる。以下では、デ
ータ処理装置110中の任意の配列演算ユニット100
のアルゴリズムを用いて、物体/背景分離手段16につ
いて説明する。By using equations (37) to (46), all array operation units 100 of the data processing apparatus 110 on which the object / background separation means 16 can be mounted.
Algorithm can be described. Hereinafter, an arbitrary array operation unit 100 in the data processing device 110 will be described.
The object / background separation means 16 will be described by using the above algorithm.
【0223】図17に示すように、データ処理装置11
0によって実現される物体/背景分離手段16が、三角
形のエッジ情報151を用いて三角形の内側領域152
と三角形の外側領域153に分離するために、格子状に
配列された配列演算ユニット100は同期して並列に動
作する。格子上i行j列に配置された配列演算ユニット
100をAOUijとすると、AOUijのアルゴリズ
ムは図18のようになる。[0223] As shown in FIG.
0, the object / background separation means 16 uses the triangle edge information 151
The array operation units 100 arranged in a lattice form operate in parallel and in parallel in order to separate the data into the outer region 153 of the triangle. When the lattice i and a row j array operation unit 100 at a column and AOU ij, Algorithm of AOU ij is shown in Figure 18.
【0224】ステップ1601で、AOUijを格子上
のi行j列に配置する。At step 1601, AOU ij is arranged at the i-th row and the j-th column on the lattice.
【0225】ステップ1602で、数式38及び39に
基づいて近傍同士ωijとωklを結合値τijklで
接続する。In step 1602, the neighbors ω ij and ω kl are connected by a joint value τ ijkl based on equations (38) and (39).
【0226】ステップ1603で、非線形振動子のパラ
メータφijとψijに適当な初期値を設定する。In step 1603, appropriate initial values are set for the parameters φ ij and ψ ij of the nonlinear oscillator.
【0227】ステップ1604で、順次入力される形成
エッジ情報画像115が無くなったかどうか判断する。
もし形成エッジ情報画像115が無ければ(ステップ1
604:YES)、アルゴリズムを終了する。もし形成
エッジ情報画像115があれば(ステップ1604:N
O)、ステップ1605に移行する。ただし特定の帯域
数及び画像サイズのみに対して配列演算ユニット100
を実装する場合には、無限ループにしても良い。In step 1604, it is determined whether or not there is no formed edge information image 115 that is sequentially input.
If there is no formed edge information image 115 (step 1
604: YES), end the algorithm. If the formed edge information image 115 exists (step 1604: N
O), proceed to step 1605; However, the array operation unit 100 for only a specific number of bands and image size
May be implemented as an infinite loop.
【0228】ステップ1605で、形成エッジ情報11
4のζijを入力する。At step 1605, the formed edge information 11
Input ζ ij of 4.
【0229】ステップ1606で、直前に入力した形成
エッジ情報114のζijから数式40に従って外乱ρ
ijを計算する。At step 1606, the disturbance ρ is calculated from ζ ij of the formed edge information 114 input immediately before according to the equation (40).
ij is calculated.
【0230】ステップ1607で、近傍集合Ωij(q
a)中の非線形振動子ωklがある配列演算ユニット1
00のAOUklからζkl、ξkl、ψklを入力し
て、合計値σijを数式41に従って計算する。At step 1607, the neighborhood set Ω ij (q
a ) Array operation unit 1 with nonlinear oscillator ω kl in
Ζ kl , ξ kl , ψ kl are input from the AOU kl of 00, and the total value σ ij is calculated according to Equation 41.
【0231】ステップ1608で、非線形振動子のパラ
メータφij、ψijを数式42及び43に従って計算
する。即ち、これらの数式に示す微分方程式をルンゲ・
クッタ法で解く。In step 1608, the parameters φ ij and ψ ij of the nonlinear oscillator are calculated according to the equations (42) and (43). That is, the differential equations shown in these equations are expressed by Runge
Solve with the Kutta method.
【0232】ステップ1609で、非線形振動子の出力
λijを数式44に従って計算する。ここで、ψij≧
θであればλij=1とし、それ以外であればλij=
0とする。In step 1609, the output λ ij of the non-linear oscillator is calculated according to equation (44). Here, i ij ≧
If θ, λ ij = 1, otherwise λ ij =
Set to 0.
【0233】ステップ1610で、近傍集合Ωij(q
b)中の非線形振動子ωklがある配列演算ユニット1
00のAOUklからλklを入力して、輪郭パラメー
タη ijを数式45に従って計算する。At step 1610, the neighborhood set Ωij(Q
bNonlinear oscillator ω in)klArray operation unit 1 with
00 AOUklTo λklEnter the contour parameter
Η ijIs calculated according to Equation 45.
【0234】ステップ1611で、境界パラメータξ
ijを数式46に従って計算する。即ち、この数式に示
す微分方程式を差分法若しくはルンゲ・クッタ法で解
く。At step 1611, the boundary parameter ξ
ij is calculated according to Equation 46. That is, the differential equation represented by this equation is solved by the difference method or the Runge-Kutta method.
【0235】ステップ1612で、ステップ1606か
らステップ1611までの繰り返し回数を表す分離回数
が指定回数に達したかどうか判断する。もし分離回数が
指定回数に達していなければ(ステップ1612:N
O)、ステップ1606に戻る。もし分離回数が指定回
数に達していれば(ステップ1612:YES)、ステ
ップ1613に移行する。In step 1612, it is determined whether the number of separations indicating the number of repetitions from step 1606 to step 1611 has reached the designated number. If the number of separations has not reached the specified number of times (step 1612: N
O), returning to step 1606; If the number of separations has reached the specified number of times (step 1612: YES), the flow shifts to step 1613.
【0236】ステップ1613で、物体領域画像142
の帯域画素値となる非線形振動子の出力λijを出力す
る。その後ステップ1604に戻る。At step 1613, the object area image 142
The output λ ij of the non-linear oscillator having the pixel value of the band is output. Thereafter, the flow returns to step 1604.
【0237】なおステップ1612での分離回数を求め
るには、次のような方法を用いることができる。物体/
背景分離手段16では、画像サイズが一定であれば非線
形振動子の初期状態に関わらずおおよそ全ての形成エッ
ジ情報114においてある一定時間で分離が終了するの
で、事前にこの時間を計っておいてステップ1606か
らステップ1611までの繰り返し回数を求めておけば
良い。これは非線形振動子の初期状態が一定の範囲内に
あれば、引き込み現象により非線形振動子が同期するま
での時間はあまり大差がないからである。The following method can be used to determine the number of separations in step 1612. object/
In the background separating means 16, if the image size is constant, the separation ends in a certain fixed time in almost all formed edge information 114 regardless of the initial state of the nonlinear oscillator. The number of repetitions from 1606 to step 1611 may be obtained. This is because if the initial state of the nonlinear oscillator is within a certain range, there is not much difference in the time until the nonlinear oscillator is synchronized by the pull-in phenomenon.
【0238】このように非線形振動子を計算するだけ
で、三角形のエッジ情報151を用いて三角形の内側領
域152と三角形の外側領域153を分離することがで
きるのは、非線形振動子の性質である引き込み現象を利
用しているからである。つまり、2つの非線形振動子を
正の結合値で結合した場合は同位相になろうとし、負の
結合値で結合した場合は位相差が極力大きくなろうとす
る。この性質を用いると、格子状に並んだ非線形振動子
を近傍同士正の結合値で結合することで、直接結合して
いない非線形振動子同士が同位相になる。さらに形成エ
ッジ情報114を挟む画素の場所にある非線形振動子同
士を負の結合値で結合すると、エッジ情報の両側がお互
いに位相を極力ずらし合う。このようにすることで、全
ての非線形振動子を結合することもなく三角形のエッジ
情報151の内側と外側とで各々異なる位相集合ができ
る。したがって物体/背景分離手段16は図17のよう
な三角形の内側領域152と三角形の外側領域153に
分離する。このとき三角形の内側領域152と三角形の
外側領域153の位相差は90度を越えて可能な限り1
80度に近づき、三角形と背景領域が分離できる。It is a property of the nonlinear oscillator that it is possible to separate the inner region 152 of the triangle and the outer region 153 of the triangle using the edge information 151 of the triangle only by calculating the nonlinear oscillator in this way. This is because the pull-in phenomenon is used. That is, when two nonlinear oscillators are coupled with a positive coupling value, they tend to be in phase, and when coupled with a negative coupling value, the phase difference tends to be as large as possible. When this property is used, nonlinear oscillators that are not directly coupled to each other have the same phase by coupling the nonlinear oscillators arranged in a lattice with neighboring components with a positive coupling value. Further, when the nonlinear oscillators located at the pixels sandwiching the formed edge information 114 are connected with each other with a negative connection value, both sides of the edge information are shifted from each other in phase as much as possible. In this way, different sets of phases can be formed on the inside and outside of the triangular edge information 151 without connecting all the nonlinear oscillators. Therefore, the object / background separation means 16 separates the object into a triangular inner area 152 and a triangular outer area 153 as shown in FIG. At this time, the phase difference between the inner region 152 of the triangle and the outer region 153 of the triangle exceeds 90 degrees and is as small as possible 1
As it approaches 80 degrees, the triangle and the background area can be separated.
【0239】ここで重要なことは、本実施形態では、形
成エッジ情報114が得られる度に次に示すような方法
で結合値を擬似的に変更していることである。まず数式
38及び39で定めたように、非線形振動子ωklを非
線形振動子ωijに結合するための結合値をτijkl
とする(ステップ1602参照)。形成エッジ情報11
4のうちζijとζklは共に、エッジがある場合には
1、ない場合には0である。形成エッジ情報114のう
ちζijとζklを入力したら(ステップ1605参
照)、配列演算ユニット100のAOUklからAOU
ijに形成エッジ情報114ζklが転送され、AOU
ijでは結合値τijkl(1−ζkl)を計算して結
合値τijklの代用とする(ステップ1607参
照)。この代用された結合値τijkl(1−ζkl)
に対して境界パラメータξijが0から1までの倍率と
して作用する(ステップ1607参照)。What is important here is that, in the present embodiment, every time the formed edge information 114 is obtained, the joint value is changed in a pseudo manner by the following method. First, as determined by Expressions 38 and 39, a coupling value for coupling the nonlinear oscillator ω kl to the nonlinear oscillator ω ij is τ ijkl
(See step 1602). Formation edge information 11
Of the four, ζ ij and k kl are both 1 when there is an edge and 0 when there is no edge. When ζ ij and ζ kl of the formed edge information 114 are input (see step 1605), AOU kl to AOU
ij , the formed edge information 114 @ kl is transferred to AOU
In ij , the combined value τ ijkl (1-ζ kl ) is calculated and used as a substitute for the combined value τ ijkl (see step 1607). This substituted coupling value τ ijkl (1-ζ kl )
, The boundary parameter i ij acts as a scaling factor from 0 to 1 (see step 1607).
【0240】図19に示す通り、形成エッジ情報114
が破線状態の三角形のエッジ情報154となった場合に
は破線の補間をする必要がある。まず初めに破線状態の
三角形のエッジ情報154を用いてシステムを動作させ
る(ステップ1605参照)と、破線状態の三角形のエ
ッジ情報154の内側と外側で位相差がおよそ90度を
越えるようになるが、三角形の内側と外側の境界部分は
不明確である。そこで各AOUijが非線形振動子の出
力λijを計算する(ステップ1609参照)。この出
力λijが1の場合、近傍の非線形振動子のうちλkl
が1である非線形振動子をωklとすると、パラメータ
ψijとψklが共にθ以上となる。つまりλijとλ
klはおよそ同位相であり、θが正値であれば最悪でも
位相差が90度を越えることはない。この位相差の最大
値はθの値によって決まり、λi jとλklが共に1と
なる範囲でθを大きくしていくと、この位相差は0度に
近づいていく。したがってλijとλklと用いると、
近傍の非線形振動子うちおよそ同位相であるものの数を
表す輪郭パラメータηijは数式45に従って計算され
る(ステップ1610参照)。続いてこの輪郭パラメー
タηijが近傍全体のうち、およそ半分であれば結合値
の倍率である境界パラメータξijを数式46に従って
減少させ、それ以外であれば数式46に従って増加させ
る(ステップ1611参照)。例えば、8近傍の場合は
3から5の間であれば数式46に従って境界パラメータ
を減少させるとよい。この過程を繰り返し動作させ続け
ると、図19に示す破線状態の三角形のエッジ情報15
4が与えられた場合、破線三角形の内側領域155と破
線三角形の外側領域156に分離される。As shown in FIG. 19, formed edge information 114
Becomes the triangle edge information 154 in a broken line state, it is necessary to interpolate the broken line. First, when the system is operated using the edge information 154 of the dashed triangle (see step 1605), the phase difference between the inside and the outside of the edge information 154 of the dashed triangle exceeds about 90 degrees. The boundary between the inside and outside of the triangle is unclear. Therefore, each AOU ij calculates the output λ ij of the nonlinear oscillator (see step 1609). When the output λ ij is 1, λ kl among the nearby nonlinear oscillators
Is ω kl , both the parameters ψ ij and ψ kl are greater than or equal to θ. That is, λ ij and λ
kl are approximately in phase, and the phase difference does not exceed 90 degrees at worst if θ is a positive value. If the maximum value of the phase difference is determined by the value of theta, lambda i j and lambda kl is gradually increased theta in a range both become 1, the phase difference approaches 0 degrees. Therefore, using λ ij and λ kl ,
A contour parameter η ij representing the number of neighboring non-linear oscillators that are approximately in phase is calculated according to Equation 45 (see step 1610). Subsequently, if the contour parameter η ij is approximately half of the entire neighborhood, the boundary parameter ξ ij which is the magnification of the combined value is decreased according to the mathematical formula 46, otherwise, it is increased according to the mathematical formula 46 (see step 1611). . For example, in the case of the vicinity of 8, if it is between 3 and 5, the boundary parameter may be reduced in accordance with Equation 46. If this process is repeatedly performed, the edge information 15 of the triangle indicated by the broken line shown in FIG.
If 4 is given, it is separated into a dashed triangle inner region 155 and a dashed triangle outer region 156.
【0241】図20に示す通り、2つの三角形が重なり
あっている場合は、前方の三角形のエッジ情報157と
後方の三角形のエッジ情報158が得られる。このとき
前方三角形の内側領域159と後方三角形の内側領域1
60と二重三角形の背景領域161の3つの領域の非線
形振動子の位相がお互いにずれることにより、3つの領
域に分離される。また図21に示す通り、2つの重なっ
た円形のエッジ情報162が破線であっても、前方円形
の内側領域163と後方円形の内側領域164と二重円
の背景領域165の3つに分離される。As shown in FIG. 20, when two triangles overlap each other, edge information 157 of the front triangle and edge information 158 of the rear triangle are obtained. At this time, the inside area 159 of the front triangle and the inside area 1 of the back triangle
The non-linear oscillators in the three regions 60 and the double triangular background region 161 are separated from each other by shifting the phase of each other. Also, as shown in FIG. 21, even if the two overlapping circular edge information 162 are broken lines, they are separated into three parts: a front circular inner area 163, a rear circular inner area 164, and a double circular background area 165. You.
【0242】これにより、配列演算ユニット100から
構成されるデータ処理装置110を用いて、物体/背景
分離手段16は形成エッジ情報画像115の形成エッジ
情報114を境界として物体領域141と背景を分離す
ることができる。As a result, the object / background separation means 16 separates the object area 141 from the background using the formed edge information 114 of the formed edge information image 115 as a boundary by using the data processing device 110 composed of the array operation unit 100. be able to.
【0243】ここまで視覚装置3について説明してき
た。当然のことながらこれらの視覚装置3は汎用のコン
ピュータによって実装することができるが、移動物体を
探索の対象とする場合、移動物体の移動速度によっては
前記手段の各々を高速に実行する必要がある。特にフレ
ーム画像の画像サイズ若しくは解像度を上げたとき、画
像自体を処理対象とする画像記憶手段12、画像振動手
段13、エッジ情報生成手段14、エッジ情報形成手段
15、物体/背景分離手段16、位置/大きさ検出手段
17、領域正規化手段27、及び正規化画像保持手段2
8は、幅方向及び高さ方向の各々に対して画像サイズ若
しくは解像度に比例して計算量が増大する。したがって
視覚装置3は用途によっては望みうる性能を達成できな
い可能性がある。The visual device 3 has been described so far. Naturally, these visual devices 3 can be implemented by a general-purpose computer. However, when a moving object is to be searched, it is necessary to execute each of the means at high speed depending on the moving speed of the moving object. . In particular, when the image size or the resolution of the frame image is increased, the image storage unit 12, the image vibration unit 13, the edge information generation unit 14, the edge information formation unit 15, the object / background separation unit 16, / Size detecting means 17, area normalizing means 27, and normalized image holding means 2
8, the amount of calculation increases in each of the width direction and the height direction in proportion to the image size or the resolution. Therefore, the visual device 3 may not be able to achieve the desired performance depending on the application.
【0244】そこでデジタル技術を用いて画像記憶手段
12、画像振動手段13、エッジ情報生成手段14、エ
ッジ情報形成手段15、物体/背景分離手段16、位置
/大きさ検出手段17、領域正規化手段27、及び正規
化画像保持手段28を実装するために、配列演算ユニッ
ト100はデータ処理装置110中で図6のように格子
状に配列され、さらに配列演算ユニット100はデータ
処理装置110中の隣接する配列演算ユニット100だ
けと相互に通信できるように配線される。つまり4近傍
同士が直接配線されることになる。これにより8近傍同
士を配線する場合に比べて、少ない電子部品と配線量
で、同程度に高速に動作し、しかも将来近傍サイズを拡
張する場合にも簡単に拡張性を有することができる。Therefore, using digital technology, image storage means 12, image vibration means 13, edge information generation means 14, edge information formation means 15, object / background separation means 16, position / size detection means 17, area normalization means 27 and the normalized image holding means 28, the array operation units 100 are arranged in a grid pattern in the data processing device 110 as shown in FIG. Are wired so that they can communicate with each other only with the array operation unit 100. That is, the four neighborhoods are directly wired. As a result, as compared with the case where the eight neighborhoods are wired, it is possible to operate at the same high speed with a small number of electronic components and the amount of wiring, and to easily have expandability even when the neighborhood size is expanded in the future.
【0245】配列演算ユニット100は図22に示す通
り、画像処理における数式を計算するためのプロセッサ
(PROCESSOR)101と、数式で使われる全てのパラメ
ータ、定数、関数及びオペレータを記憶するためのメモ
リ(MEMORY)102と、近傍の配列演算ユニット100
と通信するためのコントローラ(CONTROLER)103か
ら構成され、プロセッサ101及びコントローラ103
はクロック信号(CLOCK)を入力し、プロセッサ101
はメモリ102及びコントローラ103に対して読み込
み(READ)及び書き込み(WRITE)を送信することによ
り通信を制御する。プロセッサ101はアドレスバス5
1で指定したアドレス(ADDRESS)によりメモリ102
及びコントローラ103の任意のメモリ素子及びレジス
タを選択することができる。またプロセッサ101はデ
ータバス52を介してメモリ102及びコントローラ1
03と双方向に通信可能に接続され、アドレスバス51
で指定された任意のメモリ素子及びレジスタのデータ
(DATA)にアクセスすることができる。配列演算ユニッ
ト100が1つ以上の入力画素から構成される前入力デ
ータ群(FRONT INPUT DATA SET)を入力すると、コント
ローラ103は前入力データ群をメモリ102に記憶さ
せる。またコントローラ103は、関数により作成され
たメモリ102中の計算データを隣接する配列演算ユニ
ット100に送信すると共に、隣接する配列演算ユニッ
ト100から受信した計算データをメモリ102に記憶
させ、さらに必要ならば、入力した以外の配列演算ユニ
ット100に転送する。最終的にコントローラ103
は、出力画像の画像データを結果データ(RESULT DAT
A)として出力する。As shown in FIG. 22, the array operation unit 100 includes a processor (PROCESSOR) 101 for calculating a mathematical expression in image processing, and a memory for storing all parameters, constants, functions and operators used in the mathematical expression. MEMORY) 102 and nearby array operation unit 100
A controller (CONTROLER) 103 for communicating with the
Inputs a clock signal (CLOCK), and the processor 101
Controls communication by transmitting a read (READ) and a write (WRITE) to the memory 102 and the controller 103. The processor 101 has an address bus 5
Memory 102 according to the address (ADDRESS) specified in 1
And an arbitrary memory element and register of the controller 103 can be selected. The processor 101 is connected to the memory 102 and the controller 1 via the data bus 52.
03 and the address bus 51.
Can access the data (DATA) of an arbitrary memory element and register specified by. When the array operation unit 100 inputs a previous input data group (FRONT INPUT DATA SET) composed of one or more input pixels, the controller 103 causes the memory 102 to store the previous input data group. Further, the controller 103 transmits the calculation data in the memory 102 created by the function to the adjacent array operation unit 100, stores the calculation data received from the adjacent array operation unit 100 in the memory 102, and further, if necessary, Are transferred to the array operation unit 100 other than the input. Finally, the controller 103
Converts the image data of the output image to the result data (RESULT DAT
Output as A).
【0246】このように各配列演算ユニット100にコ
ントローラ103を搭載する理由は、配列演算ユニット
100同士が通信している間にプロセッサ101が動作
できるので、プロセッサ101は通信による待ち時間中
にも計算することができて高速処理が実現できるから
と、近傍の配列演算ユニット100の数を変化させても
ハードウェアを変更する必要がないからと、コントロー
ラ103が画像の辺縁処理、つまり画像中の縁の画素に
対する例外処理を自動的に行えるので、プロセッサ10
1のプログラムは辺縁処理をする必要がなくなり極めて
単純になるからと、である。The reason why the controller 103 is mounted on each array operation unit 100 is that the processor 101 can operate while the array operation units 100 are communicating with each other, so that the processor 101 can perform the calculation even during the communication waiting time. The controller 103 performs the edge processing of the image, that is, the processing in the image, that is, the high-speed processing can be realized and the hardware does not need to be changed even if the number of the array operation units 100 in the vicinity is changed. Since the exception processing for the edge pixels can be automatically performed, the processor 10
This is because the program No. 1 does not need to perform the edge processing and is extremely simple.
【0247】プロセッサ101とメモリ102は汎用的
なデジタル回路を用いることができる。コントローラ1
03の具体的な回路図は図23に示す通りである。アド
レスバッファ(ADDRESS BUFFER)53はアドレスバス
(ADDRESS BUS)51を介してプロセッサ101からア
ドレス(ADDRESS)を受取り、アドレスデコーダ(ADDRE
SS DECODER)54によって各レジスタ及びその他の電子
回路ブロックを選択する。データバッファ(DATA BUFFE
R)55はデータバス(DATA BUS)52を介してプロセ
ッサ101からデータ(DATA)を受取り、アドレスデコ
ーダ54で選択されたレジスタと内部データバス56を
介して排他的に通信する。通信方向は読み込み(READ)
によって指定される。コントローラ103からプロセッ
サ101に向けてデータが送信される際、読み込みはア
クティブになる。プロセッサ101からコントローラ1
03に向けてデータが送信される際、書き込み(WRIT
E)はアクティブになる。アドレスがフラグレジスタ(F
LAG REGISTER)57を指定した場合、データはフラグレ
ジスタ57に記憶され、フラグデコーダ(FLAG DECODE
R)58によってデコードされ、クロック信号(CLOCK)
を用いて、複数信号(SIGNALS)として隣接する配列演
算ユニット100に送信される。複数信号はフラグエン
コーダ(FLAG ENCODER)59によって受信され、解析さ
れた後にステータスレジスタ(STATUS REGISTER)60
に記憶され、また受領(RECEIVE)として送信元の配列
演算ユニット100に返送される。受領は複数信号の送
信元のフラグエンコーダ59で受信され、結果として複
数信号の送信完了が確認される。アドレスによってステ
ータスレジスタ60が選択されると、ステータスレジス
タ60の内容がデータバス52を介してデータとしてプ
ロセッサ101に送信される。1つ以上の入力画像(IN
PUT IMAGE)に対応した1つ以上の前入力送達(FRONT I
NPUT SEND)をフラグエンコーダ59が受信すると1つ
以上の入力画像からなる前入力データ群(FRONT INPUT
DATA SET)が必要な記憶容量分用意された前入力データ
レジスタ(FRONT INPUT DATA REGISTER)61に読み込
まれる。アドレスによって前入力データレジスタ61が
選択されると、前入力データレジスタ61の内容がデー
タとしてプロセッサ101に送信される。プロセッサ1
01が計算を完了したら、アドレスによって結果データ
レジスタ(RESULT DATA REGISTER)62が選択され、結
果データレジスタ62が出力画像の画像データを結果デ
ータ(RESULT DATA)として読み込む。これと同時に、
フラグエンコーダ59が結果送達(RESULT SEND)を送
信する。For the processor 101 and the memory 102, general-purpose digital circuits can be used. Controller 1
The specific circuit diagram of 03 is as shown in FIG. An address buffer (ADDRESS BUFFER) 53 receives an address (ADDRESS) from the processor 101 via an address bus (ADDRESS BUS) 51, and receives an address decoder (ADDRE).
The SS register 54 selects each register and other electronic circuit blocks. Data buffer (DATA BUFFE)
The R) 55 receives data (DATA) from the processor 101 via the data bus (DATA BUS) 52 and communicates exclusively with the register selected by the address decoder 54 via the internal data bus 56. Read the communication direction (READ)
Specified by When data is transmitted from the controller 103 to the processor 101, the reading becomes active. From the processor 101 to the controller 1
When the data is sent toward 03, write (WRIT
E) becomes active. The address is in the flag register (F
When LAG REGISTER) 57 is specified, the data is stored in the flag register 57 and the flag decoder (FLAG DECODE
R) Decoded by 58, clock signal (CLOCK)
Is transmitted to the adjacent array operation unit 100 as a plurality of signals (SIGNALS). A plurality of signals are received by a flag encoder (FLAG ENCODER) 59, and after being analyzed, a status register (STATUS REGISTER) 60
And is returned to the source array operation unit 100 as a reception (RECEIVE). The reception is received by the flag encoder 59 of the transmission source of the plurality of signals, and as a result, completion of transmission of the plurality of signals is confirmed. When the status register 60 is selected by the address, the contents of the status register 60 are transmitted to the processor 101 as data via the data bus 52. One or more input images (IN
PUT IMAGE) one or more pre-input delivery (FRONT I)
NPUT SEND) received by the flag encoder 59, a front input data group (FRONT INPUT) including one or more input images.
DATA SET) is read into the front input data register (FRONT INPUT DATA REGISTER) 61 prepared for the required storage capacity. When the previous input data register 61 is selected by the address, the contents of the previous input data register 61 are transmitted to the processor 101 as data. Processor 1
When 01 completes the calculation, the result data register (RESULT DATA REGISTER) 62 is selected according to the address, and the result data register 62 reads the image data of the output image as the result data (RESULT DATA). At the same time,
The flag encoder 59 transmits a result transmission (RESULT SEND).
【0248】近傍の配列演算ユニット100から計算に
必要なデータを求められたら、アドレスとして出力デー
タレジスタ(OUTPUT DATA REGISTER)63を選択し、近
傍の配列演算ユニット100に送信すべきデータを計算
データ(CALCURATION DATA)として出力データレジスタ
63に読み込む。その後、隣接する全ての配列演算ユニ
ット100に計算データとして送信される。上側の配列
演算ユニット100から複数信号(SIGNALS)を受信し
たら計算データを上入力データレジスタ(UPPERINPUT D
ATA REGISTER)64に読み込む。その後、アドレスによ
り上入力データレジスタ64が選択されたら、上入力デ
ータレジスタ64の内容が計算データとして送信され
る。下側、左側、右側の配列演算ユニット100から複
数信号を受信した場合も同様であり、下入力データレジ
スタ65、左入力データレジスタ66、右入力データレ
ジスタ67が同様に動作する。When the data necessary for calculation is obtained from the nearby array operation unit 100, the output data register (OUTPUT DATA REGISTER) 63 is selected as an address, and the data to be transmitted to the nearby array operation unit 100 is calculated. (CALCURATION DATA) into the output data register 63. Then, it is transmitted as calculation data to all adjacent array operation units 100. When a plurality of signals (SIGNALS) are received from the upper array operation unit 100, the calculation data is transferred to the upper input data register (UPPERINPUT D).
(ATA REGISTER) 64. Thereafter, when the upper input data register 64 is selected by the address, the contents of the upper input data register 64 are transmitted as calculation data. The same applies to the case where a plurality of signals are received from the lower, left, and right array operation units 100, and the lower input data register 65, the left input data register 66, and the right input data register 67 operate similarly.
【0249】各種バッファ、各種レジスタ、アドレスデ
コーダ54の各ブロックは汎用的な電子回路である。フ
ラグデコーダ58とフラグエンコーダ59は具体的には
図24と図25に示すような入出力信号を有する。種別
(TYPE)は出力データレジスタ(OUTPUT DATA REGISTE
R)63に読み込まれた内容の種類を5ビットで表す。
このビット数は配列演算ユニット100が送受信すべき
全ての計算データを区別するのに十分な値である。カウ
ント−X(COUNT-X)及びカウント−Y(COUNT-Y)は各
々4ビットの符号なし整数を表し、配列演算ユニット1
00の間の転送回数を示す。配列演算ユニット100が
計算データを送信する場合には各々のカウントが0とな
り、左右の配列演算ユニット100から送信された計算
データを再度送信する場合にはフラグエンコーダ59の
カウント−Xに1を足した値となり、上下の配列演算ユ
ニット100から送信された計算データを再度送信する
場合にはフラグエンコーダ59のカウント−Yに1を足
した値となる。プロセッサ101が上下左右のうちどの
方向に出力データレジスタ63の内容を送信するかをフ
ラグレジスタ57の送達フラグ(SEND FLAG)に指定し
た後で、出力データレジスタ63を指定するアドレスデ
コーダ54の中央デコーディング(CENTRAL DECODING)
をフラグデコーダ58が受信すると、フラグデコーダ5
8が送達(SEND)を送達フラグの指定方向に合わせて出
力する。送達フラグは4ビットで表し、配列演算ユニッ
ト100の計算データを四方の配列演算ユニット100
に送信する場合にはプロセッサ101が1111と設定
し、右側の配列演算ユニット100から送信された計算
データを上下左側に転送する場合はプロセッサ101が
1110と設定し、左側から上下右側に転送する場合は
1101と設定し、下側から上側に転送する場合は10
00と設定し、上側から下側に転送する場合は0100
と設定する。これにより、転送に重複がなくなり効率的
に転送できるだけでなく、転送方向の決定規則が明確に
なっているので、種別、カウント−X及びカウント−Y
を組み合わせることにより、フラグエンコーダ59はど
の配列演算ユニット100からどの種別の計算データが
送信されたかを判定することができる。結果データレジ
スタ62に計算データが結果データとして読み込まれる
と同時にフラグデコーダ58は、結果デコーディング
(RESULT DECODING)を受信し、結果送達(RESULT SEN
D)を送信する。Each block of various buffers, various registers, and the address decoder 54 is a general-purpose electronic circuit. Specifically, the flag decoder 58 and the flag encoder 59 have input / output signals as shown in FIGS. Type is OUTPUT DATA REGISTE
R) The type of content read into 63 is represented by 5 bits.
This number of bits is a value sufficient to distinguish all calculation data to be transmitted and received by the array operation unit 100. Count-X (COUNT-X) and Count-Y (COUNT-Y) each represent a 4-bit unsigned integer, and the array operation unit 1
Indicates the number of transfers during 00. When the array operation unit 100 transmits the calculation data, each count becomes 0. When the calculation data transmitted from the left and right array operation units 100 is transmitted again, 1 is added to the count -X of the flag encoder 59. When the calculation data transmitted from the upper and lower array operation units 100 is transmitted again, the value becomes a value obtained by adding 1 to the count-Y of the flag encoder 59. After the processor 101 designates in which direction the contents of the output data register 63 are to be transmitted, up, down, left and right, in the transmission flag (SEND FLAG) of the flag register 57, the central data of the address decoder 54 for designating the output data register 63 Coding (CENTRAL DECODING)
Is received by the flag decoder 58, the flag decoder 5
8 outputs the transmission (SEND) in accordance with the direction specified by the transmission flag. The delivery flag is represented by 4 bits, and the calculation data of the array operation unit 100 is stored in the four sides of the array operation unit 100.
When the processor 101 sets to 1111 when transmitting the calculation data transmitted from the right array operation unit 100 to the upper and lower left sides, the processor 101 sets to 1110 when transmitting the calculation data transmitted from the right side array operation unit 100, and when transferring from the left to the upper and lower right sides. Is set to 1101, and when transferring from the bottom to the top, 10
Set to 00 and 0100 to transfer from top to bottom
Set as As a result, the transfer can be efficiently performed without duplication, and the rules for determining the transfer direction are clear, so that the type, count-X and count-Y
, The flag encoder 59 can determine which type of calculation data has been transmitted from which array operation unit 100. At the same time that the calculation data is read into the result data register 62 as the result data, the flag decoder 58 receives the result decoding (RESULT DECODING) and sends the result transmission (RESULT SEN).
D) Send.
【0250】フラグエンコーダ59は四方のうちいずれ
かでも送達を受信したら、受信方向の種別とカウント−
X、カウント−Yを受信し、その部分のステータスレジ
スタ60の内容を更新する。この更新と同時に受信方向
に受領を1にして送信する。送信元の配列演算ユニット
100のフラグエンコーダ59では受領が1になった瞬
間に受信し、ステータスレジスタ60の受領ステータス
(RECEIVE STATUS)を更新する。これにより各配列演算
ユニット100ではプロセッサ101がステータスレジ
スタ60の受領ステータスを検査するだけで、どの入力
データレジスタに有効な計算データが記憶されているか
判断することができる。そこで例えば上入力データレジ
スタ64に計算データが読み込まれていれば、プロセッ
サ101がアドレスを指定することにより上入力データ
レジスタ64からデータを読み込むことができるが、同
時にアドレスデコーダ54から上デコーディング(UPPE
RDECODING)がフラグエンコーダ59に送信され、受領
ステータスのうち上部分が0に戻され、上側に向いた受
領が0として送信される。下左右側の場合も同様に動作
する。フラグエンコーダ59が1つでも入力画像用の前
入力送達を受信したら、ステータスレジスタ60のうち
受信した前入力送達に対応する入力画像用の前入力送達
ステータス(FRONT INPUT SEND STATUS)を1にする。
またプロセッサ101が入力画像用の前入力データレジ
スタ61からデータを読み込むとき、アドレスデコーダ
54がフラグエンコーダ59に前デコーディング(FRON
T DECODING)を送信し、受信した前入力送達に対応する
前入力送達ステータスを0にする。プロセッサ101は
ステータスレジスタ60の内容を読み込むことにより、
前入力データレジスタ61に最新の入力画像が記憶され
ているかどうか判断することができる。When the flag encoder 59 receives a delivery in any one of the four directions, the flag encoder 59 determines the type and count of the reception direction.
X and count-Y are received, and the contents of the status register 60 of that part are updated. At the same time as this update, the reception is set to 1 in the receiving direction and transmitted. The flag encoder 59 of the array operation unit 100 at the transmission source receives the data at the moment when the reception becomes 1, and updates the reception status (RECEIVE STATUS) of the status register 60. Thus, in each array operation unit 100, the processor 101 can determine which input data register stores valid calculation data only by checking the reception status of the status register 60. Therefore, for example, if the calculation data is read into the upper input data register 64, the processor 101 can read the data from the upper input data register 64 by designating the address, but at the same time, the upper decoder (UPPE) from the address decoder 54.
RDECODING) is transmitted to the flag encoder 59, the upper part of the reception status is returned to 0, and the reception directed upward is transmitted as 0. The same operation is performed on the lower left and right sides. When at least one of the flag encoders 59 receives the previous input delivery for the input image, the status register 60 sets the front input delivery status (FRONT INPUT SEND STATUS) for the input image corresponding to the received previous input delivery to 1.
When the processor 101 reads data from the previous input data register 61 for an input image, the address decoder 54 outputs the predecoding (FRONT) to the flag encoder 59.
T DECODING), and sets the pre-input delivery status corresponding to the received pre-input delivery to 0. The processor 101 reads the contents of the status register 60,
It can be determined whether the latest input image is stored in the previous input data register 61.
【0251】プロセッサ101がコントローラ103を
介して四方の配列演算ユニット100に計算データを送
信する場合のアルゴリズムを図26に示す。図26は、
プロセッサ101によるプログラム制御と、フラグデコ
ーダ58及びフラグエンコーダ59によるハードウェア
ロジックとの混成による処理を示すものである。図26
に対して、ステップ71では、プロセッサ101がステ
ータスレジスタ60の内容を読み込む。ステップ72で
は、読み込んだ内容のうち受領ステータスが全て0であ
るか否かを判断する。NOなら処理を終了する。YES
ならステップ73に移行する。ステップ73では、プロ
セッサ101が隣接する配列演算ユニット100に送信
するデータの種別とカウンタと送信方向を決定し、その
内容をフラグレジスタ57に書き込む。ステップ74で
は、プロセッサ101が隣接する配列演算ユニット10
0に送信するデータを出力データレジスタ63に書き込
む。ステップ75では、出力データレジスタ63の内容
を計算データとして、隣接する配列演算ユニット100
に送信する。ステップ76では、フラグレジスタ57の
送達フラグで指定された方向にのみ送達を1にして送信
する。これによりプロセッサ101の1回の送信アルゴ
リズムは終了する。プロセッサ101は、送信すべきデ
ータがメモリ102内で更新される度にこの送信アルゴ
リズムを開始する。FIG. 26 shows an algorithm when the processor 101 transmits calculation data to the array operation units 100 on the four sides via the controller 103. FIG.
FIG. 9 shows a process based on a mixture of program control by the processor 101 and hardware logic by the flag decoder 58 and the flag encoder 59. FIG.
In step 71, the processor 101 reads the contents of the status register 60. In step 72, it is determined whether or not the reception status of the read contents is all zero. If NO, the process ends. YES
If so, the process proceeds to step 73. In step 73, the processor 101 determines the type, counter, and transmission direction of the data to be transmitted to the adjacent array operation unit 100, and writes the content to the flag register 57. In step 74, the processor 101 determines whether the adjacent array operation unit 10
The data to be transmitted to 0 is written to the output data register 63. In step 75, the contents of the output data register 63 are used as calculation data,
Send to In step 76, the transmission is set to 1 only in the direction specified by the transmission flag of the flag register 57 and transmitted. Thereby, one transmission algorithm of the processor 101 ends. The processor 101 starts this transmission algorithm each time data to be transmitted is updated in the memory 102.
【0252】コントローラ103が上側の配列演算ユニ
ット100から計算データを受信する場合のアルゴリズ
ムを図27に示す。図27は、フラグデコーダ58及び
フラグエンコーダ59によるハードウェアロジックによ
る処理を示すものである。図27に対して、ステップ8
1では、フラグエンコーダ59が送達を入力する。ステ
ップ82では、送達が1であるか否かをフラグエンコー
ダ59が判断する。NOなら処理を終了する。YESな
らステップ83に移行する。ステップ83では、上入力
データレジスタ64が上側から送信された計算データを
読み込む。ステップ84では、フラグエンコーダ59が
ステータスレジスタ60のうち上側用の受領ステータス
を1にすると同時に受領を1にして上側の配列演算ユニ
ット100に送信する。下左右側の場合も同様である。
これによりコントローラ103の1回の受信アルゴリズ
ムは終了する。コントローラ103は常時上下左右の配
列演算ユニット100からの送達を監視し、この送達を
受信する度にこの受信アルゴリズムを開始する。FIG. 27 shows an algorithm when the controller 103 receives calculation data from the upper array operation unit 100. FIG. 27 shows processing by hardware logic by the flag decoder 58 and the flag encoder 59. Step 8 is compared with FIG.
At 1, the flag encoder 59 inputs a delivery. In step 82, the flag encoder 59 determines whether the delivery is 1 or not. If NO, the process ends. If YES, the process moves to step 83. In step 83, the upper input data register 64 reads the calculation data transmitted from the upper side. In step 84, the flag encoder 59 sets the reception status for the upper side of the status register 60 to 1 and simultaneously sets the reception to 1 and transmits it to the upper array operation unit 100. The same applies to the lower left and right sides.
Thus, one reception algorithm of the controller 103 ends. The controller 103 always monitors the delivery from the top, bottom, left and right array operation units 100, and starts this reception algorithm each time the delivery is received.
【0253】プロセッサ101が上入力データレジスタ
64からデータを受信する場合のアルゴリズムを図28
に示す。図28は、プロセッサ101によるプログラム
制御と、フラグデコーダ58及びフラグエンコーダ59
によるハードウェアロジックとの混成による処理を示す
ものである。図28に対して、ステップ91では、プロ
セッサ101がステータスレジスタ60の内容を読み込
む。ステップ92では、読み込んだ内容のうち上側用の
受領ステータスが1であるか否かを判断する。NOなら
処理を終了する。YESならステップ93に移行する。
ステップ93では、プロセッサ101が上入力データレ
ジスタ64からデータを読み込む。ステップ94では、
フラグエンコーダ59がステータスレジスタ60のうち
上側用の受領ステータスを0にすると同時に受領を0に
して上側の配列演算ユニット100に送信する。下左右
側の場合も同様である。これによりプロセッサ101の
1回の受信アルゴリズムは終了する。プロセッサ101
は一定間隔でステータスレジスタ60の内容を監視し、
上下左右いずれかの受領ステータスが1である度にこの
受信アルゴリズムを開始する。なおここではプロセッサ
101が一定間隔でステータスレジスタ60の内容を常
時監視する場合を示したが、コントローラ103に割り
込み回路を付加することにより、プロセッサ101は割
り込みによりこの受信アルゴリズムを開始することもで
きる。FIG. 28 shows an algorithm when the processor 101 receives data from the upper input data register 64.
Shown in FIG. 28 shows the program control by the processor 101, the flag decoder 58 and the flag encoder 59.
2 shows processing by mixing with hardware logic. In FIG. 28, in step 91, the processor 101 reads the contents of the status register 60. In step 92, it is determined whether or not the reception status for the upper side of the read contents is 1. If NO, the process ends. If YES, the process moves to step 93.
In step 93, the processor 101 reads data from the upper input data register 64. In step 94,
The flag encoder 59 sets the reception status for the upper side of the status register 60 to 0, and at the same time, sets the reception to 0 and transmits it to the array operation unit 100 on the upper side. The same applies to the lower left and right sides. Thus, the one-time reception algorithm of the processor 101 ends. Processor 101
Monitors the contents of the status register 60 at regular intervals,
The receiving algorithm is started each time the receiving status of one of the upper, lower, left and right is 1. Here, the case where the processor 101 constantly monitors the contents of the status register 60 at regular intervals has been described, but by adding an interrupt circuit to the controller 103, the processor 101 can also start this reception algorithm by interruption.
【0254】なおこの配列演算ユニット100は、主に
1つ以上の入力画像から1つの出力画像を生成すること
を前提に記述したが、用途に応じては計算途中の計算デ
ータを出力できるように回路を変更する必要がある。そ
の際には、出力すべき計算データの数だけフラグデコー
ダ58の結果送達を増やし、結果データレジスタ62に
読み込まれた計算データに対応する結果送達のみを1に
するようにプログラムを変更するだけで良い。Although the array operation unit 100 has been described mainly on the assumption that one output image is generated from one or more input images, the array operation unit 100 can output calculation data in the middle of calculation depending on the application. The circuit needs to be changed. At this time, the program is simply changed so that the result delivery of the flag decoder 58 is increased by the number of calculation data to be output, and only the result delivery corresponding to the calculation data read into the result data register 62 is set to 1. good.
【0255】以上、本実施形態を説明したが、本発明は
上述の実施形態には限定されることはなく、当業者であ
れば種々なる態様を実施可能であり、本発明の技術的思
想を逸脱しない範囲において本発明の構成を適宜改変で
きることは当然であり、このような改変も、本発明の技
術的範囲に属するものである。The present embodiment has been described above. However, the present invention is not limited to the above-described embodiment, and those skilled in the art can implement various aspects, and understand the technical idea of the present invention. It goes without saying that the configuration of the present invention can be appropriately modified without departing from the scope of the present invention, and such modifications also belong to the technical scope of the present invention.
【0256】[0256]
【発明の効果】請求項1記載の発明によれば、ビデオ再
生/編集機において、特定の画像フォーマットに変換し
なくても、又は人間がインデックスを付与しなくても、
動画像検索装置は移動している対象物体を映したフレー
ム画像の位置を容易に検索することができる。また本発
明は動画像データベースにおいて、記録に用いられてい
る画像フォーマットに依存することなく、移動している
対象物体を映したフレーム画像の位置及びこのフレーム
画像を含む動画像のタイトルを容易に検索することがで
きる。特に本発明は人物の顔のように他の物体との弁別
が容易で、頻繁に移動し、撮影方向が正面及び真横等限
定され、しかも撮影サイズが異なるような対象物におい
ては極めて有効である。さらに利用者は、別途開発され
ている個人識別用ソフトウェアを用いて視覚装置3によ
って生成された正規化画像145及び分離物体領域14
3を認識することにより、特定の人物を映したフレーム
画像の位置を容易に検索することもできるようになる。According to the first aspect of the present invention, in a video reproducing / editing machine, even if a video is not converted to a specific image format or a human does not add an index,
The moving image search device can easily search for the position of a frame image showing a moving target object. In addition, the present invention can easily search a moving image database for a position of a frame image showing a moving target object and a title of a moving image including the frame image without depending on an image format used for recording. can do. In particular, the present invention is very effective for an object such as a person's face, which can be easily distinguished from other objects, moves frequently, has a limited shooting direction such as front and side, and has a different shooting size. . Further, the user can use the separately developed personal identification software to generate the normalized image 145 and the separated object area 14 generated by the visual device 3.
Recognition of 3 makes it possible to easily search for the position of a frame image showing a specific person.
【0257】請求項2記載の発明によれば、領域指定画
像を用いることなく、動画像検索装置は移動している対
象物体を映したフレーム画像の位置を容易に検索するこ
とができる。頻繁に検索する対象物体に対して、背景が
モノトーンであるキー画像を事前に用意しておくことに
より、利用者は対象物体を検索する度に領域指定画像を
生成する必要がない。また利用者はこのようなキー画像
をデータベースに記録することにより、キー画像から動
画像データベースを検索することができるようになる。According to the second aspect of the present invention, the moving image search device can easily search for the position of the frame image showing the moving target object without using the area designation image. By preparing in advance a key image having a monotone background for a frequently searched target object, the user does not need to generate an area designation image every time the target object is searched. Further, by recording such a key image in the database, the user can search the moving image database from the key image.
【0258】請求項3記載の発明によれば、動画像検索
装置は移動している対象物体のみならず静止してる対象
物体も検索することができる。したがって本発明は壷の
ような置物及び建物も検索することができる。また静止
画像を連結して動画像にすることにより、本発明は静止
画像を検索することができる。According to the third aspect of the present invention, the moving image search apparatus can search not only a moving target object but also a stationary target object. Therefore, the present invention can also search for ornaments and buildings such as pots. In addition, by connecting still images into a moving image, the present invention can search for a still image.
【図1】コンピュータシステム、ビデオ再生機及び視覚
装置から構成される動画像検索装置のブロック図であ
る。FIG. 1 is a block diagram of a moving image search device including a computer system, a video player, and a visual device.
【図2】キー画像及び領域指定画像を用いて動画像中の
移動物体を検索する視覚装置のブロック図である。FIG. 2 is a block diagram of a visual device that searches for a moving object in a moving image using a key image and an area designation image.
【図3】キー画像を用いて動画像中の移動物体を検索す
る視覚装置のブロック図である。FIG. 3 is a block diagram of a visual device that searches for a moving object in a moving image using a key image.
【図4】キー画像及び領域指定画像を用いて動画像中の
移動物体及び静止物体を検索する視覚装置のブロック図
である。FIG. 4 is a block diagram of a visual device that searches for a moving object and a stationary object in a moving image using a key image and an area designation image.
【図5】キー画像を用いて動画像中の移動物体及び静止
物体を検索する視覚装置のブロック図である。FIG. 5 is a block diagram of a visual device that searches for a moving object and a stationary object in a moving image using a key image.
【図6】格子状に配置された配列演算ユニットのブロッ
ク図である。FIG. 6 is a block diagram of an array operation unit arranged in a lattice.
【図7】本実施形態の画像記憶手段のアルゴリズムを示
すフローチャートである。FIG. 7 is a flowchart illustrating an algorithm of an image storage unit according to the embodiment.
【図8】本実施形態の画像振動手段のアルゴリズムを示
すフローチャートである。FIG. 8 is a flowchart illustrating an algorithm of an image vibration unit according to the present embodiment.
【図9】本実施形態のエッジ情報生成手段のアルゴリズ
ムを示すフローチャートである。FIG. 9 is a flowchart illustrating an algorithm of an edge information generating unit according to the embodiment.
【図10】デジタル画像を用いて粗エッジ情報を形成エ
ッジ情報に形成する場合の説明図である。FIG. 10 is an explanatory diagram in a case where coarse edge information is formed into formed edge information using a digital image.
【図11】本実施形態のエッジ情報形成手段のアルゴリ
ズムを示すフローチャートである。FIG. 11 is a flowchart illustrating an algorithm of an edge information forming unit according to the embodiment.
【図12】エッジ情報画像中の物体の位置及び大きさを
検出する場合の説明図である。FIG. 12 is an explanatory diagram for detecting the position and size of an object in an edge information image.
【図13】本実施形態の位置/大きさ検出手段のアルゴ
リズムを示すフローチャートである。FIG. 13 is a flowchart illustrating an algorithm of a position / size detection unit according to the present embodiment.
【図14】デジタル画像の分離物体領域を正規化する場
合の説明図である。FIG. 14 is an explanatory diagram in a case where a separated object region of a digital image is normalized.
【図15】本実施形態の領域正規化手段のアルゴリズム
を示すフローチャートである。FIG. 15 is a flowchart illustrating an algorithm of a region normalizing unit of the present embodiment.
【図16】本実施形態の正規化画像保持手段のアルゴリ
ズムを示すフローチャートである。FIG. 16 is a flowchart illustrating an algorithm of a normalized image holding unit according to the present embodiment.
【図17】三角形のエッジ情報が三角形の内側領域と外
側領域に分離する状態を示す説明図である。FIG. 17 is an explanatory diagram showing a state where edge information of a triangle is separated into an inner area and an outer area of the triangle;
【図18】本実施形態の物体/背景分離手段のアルゴリ
ズムを示すフローチャートである。FIG. 18 is a flowchart illustrating an algorithm of an object / background separation unit according to the present embodiment.
【図19】破線状態の三角形のエッジ情報が破線三角形
の内側領域と外側領域に分離する状態を示す説明図であ
る。FIG. 19 is an explanatory diagram showing a state in which edge information of a triangle in a broken line state is separated into an inner region and an outer region of the broken line triangle;
【図20】三角形を2つ重ねたエッジ情報が2つの三角
形領域と背景領域に分離する状態を示す説明図である。FIG. 20 is an explanatory diagram showing a state where edge information obtained by overlapping two triangles is separated into two triangle regions and a background region.
【図21】2つの円形物体領域を重ねた時の破線状態の
エッジ情報が2つの円形領域と背景領域に分離した状態
を示す説明図である。FIG. 21 is an explanatory diagram showing a state in which edge information in a broken line state when two circular object areas are superimposed is separated into two circular areas and a background area.
【図22】配列演算ユニットの内部構造のブロック図で
ある。FIG. 22 is a block diagram of the internal structure of the array operation unit.
【図23】コントローラのブロック図である。FIG. 23 is a block diagram of a controller.
【図24】フラグデコーダの入出力信号を示す説明図で
ある。FIG. 24 is an explanatory diagram showing input / output signals of a flag decoder.
【図25】フラグエンコーダの入出力信号を示す説明図
である。FIG. 25 is an explanatory diagram showing input / output signals of a flag encoder.
【図26】プロセッサがコントローラを介して隣接する
配列演算ユニットにデータを送信するアルゴリズムを示
すフローチャートである。FIG. 26 is a flowchart illustrating an algorithm by which a processor transmits data to an adjacent array operation unit via a controller.
【図27】コントローラが隣接する配列演算ユニットか
らデータを受信するアルゴリズムを示すフローチャート
である。FIG. 27 is a flowchart illustrating an algorithm by which a controller receives data from an adjacent array operation unit.
【図28】プロセッサが上入力レジスタからデータを受
信するアルゴリズムを示すフローチャートである。FIG. 28 is a flowchart showing an algorithm by which a processor receives data from an upper input register.
1 コンピュータシステム 2 ビデオ再生機 3 視覚装置 11 画像取得手段 12 画像記憶手段 13 画像振動手段 14 エッジ情報生成手段 15 エッジ情報形成手段 16 物体/背景分離手段 17 位置/大きさ検出手段 22 位置選択手段 27 領域正規化手段 28 正規化画像保持手段 40 マスク手段 41 パターン比較手段 42 比較結果保持手段 51 アドレスバス 52 データバス 53 アドレスバッファ 54 アドレスデコーダ 55 データバッファ 56 内部データバス 57 フラグレジスタ 58 フラグデコーダ 59 フラグエンコーダ 60 ステータスレジスタ 61 前入力データレジスタ 62 結果データレジスタ 63 出力データレジスタ 64 上入力データレジスタ 65 下入力データレジスタ 66 左入力データレジスタ 67 右入力データレジスタ 100 配列演算ユニット 101 プロセッサ 102 メモリ 103 コントローラ 110 データ処理装置 111 デジタル画像 112 粗エッジ情報 113 粗エッジ情報画像 114 形成エッジ情報 115 形成エッジ情報画像 131 重複情報 132 重複情報画像 141 物体領域 142 物体領域画像 143 分離物体領域 144 正規化領域 145 正規化画像 151 三角形のエッジ情報 152 三角形の内側領域 153 三角形の外側領域 154 破線状態の三角形のエッジ情報 155 破線三角形の内側領域 156 破線三角形の外側領域 157 前方の三角形のエッジ情報 158 後方の三角形のエッジ情報 159 前方三角形の内側領域 160 後方三角形の内側領域 161 二重三角形の背景領域 162 2つの重なった円形のエッジ情報 163 前方円形の内側領域 164 後方円形の内側領域 165 二重円の背景領域 DESCRIPTION OF SYMBOLS 1 Computer system 2 Video playback device 3 Visual device 11 Image acquisition means 12 Image storage means 13 Image vibration means 14 Edge information generation means 15 Edge information formation means 16 Object / background separation means 17 Position / size detection means 22 Position selection means 27 Area normalizing means 28 Normalized image holding means 40 Mask means 41 Pattern comparing means 42 Comparison result holding means 51 Address bus 52 Data bus 53 Address buffer 54 Address decoder 55 Data buffer 56 Internal data bus 57 Flag register 58 Flag decoder 59 Flag encoder Reference Signs List 60 Status register 61 Previous input data register 62 Result data register 63 Output data register 64 Upper input data register 65 Lower input data register 66 Left input data register 67 Input data register 100 Array operation unit 101 Processor 102 Memory 103 Controller 110 Data processing device 111 Digital image 112 Coarse edge information 113 Coarse edge information image 114 Formed edge information 115 Formed edge information image 131 Duplicate information 132 Duplicate information image 141 Object area 142 Object Area image 143 Separated object area 144 Normalized area 145 Normalized image 151 Triangular edge information 152 Triangular inner area 153 Triangular outer area 154 Broken triangle state edge information 155 Broken triangular inner area 156 Broken triangular outer area 157 Edge information of the front triangle 158 Edge information of the rear triangle 159 Inner area of the front triangle 160 Inner area of the rear triangle 161 Double triangle background area 162 It became circular edge information 163 front circular inner area 164 behind the circular inner region 165 background region of the double circle
Claims (3)
から検索する動画像検索装置であって、 前記フレーム画像を取得する手段と、 前記フレーム画像をデジタル画像として順次記憶する手
段と、 前記デジタル画像から粗エッジ情報画像を生成する手段
と、 前記デジタル画像を用いて前記粗エッジ情報画像を第一
の形成エッジ情報画像に形成する手段と、 前記第一の形成エッジ情報画像から第一の物体領域画像
を生成する手段と、 前記第一の形成エッジ情報画像から重複情報画像を生成
する手段と、 前記重複情報画像を用いて移動物体を1つ選択する手段
と、 前記第一の物体領域画像のうち選択された前記移動物体
だけをマスク処理により抽出する手段と、 前記デジタル画像及びマスクされた前記第一の物体領域
画像から第一の領域正規化画像を生成する手段と、 前記第一の領域正規化画像を保持する手段と、 前記対象物体を特定するキー画像を記憶する手段と、 領域指定画像を記憶する手段と、 前記キー画像を用いて前記領域指定画像を第二の形成エ
ッジ情報画像に形成する手段と、 前記第二の形成エッジ情報画像から第二の物体領域画像
を生成する手段と、 前記キー画像及び前記第二の物体領域画像から第二の領
域正規化画像を生成する手段と、 前記第一の領域正規化画像と前記第二の領域正規化画像
を比較する手段と、比較結果を保持する手段と、を有す
ることを特徴とする動画像検索装置。1. A moving image search device for searching a moving image for a frame image showing a target object, comprising: means for acquiring the frame image; means for sequentially storing the frame image as a digital image; Means for generating a coarse edge information image from an image; means for forming the coarse edge information image into a first formed edge information image using the digital image; and a first object from the first formed edge information image. Means for generating an area image; means for generating an overlapping information image from the first formed edge information image; means for selecting one moving object using the overlapping information image; and the first object area image Means for extracting only the moving object selected from among the selected moving objects by a mask process; Means for generating a normalized image; means for holding the first area normalized image; means for storing a key image specifying the target object; means for storing an area designation image; and using the key image. Means for forming the area designation image into a second formed edge information image, means for generating a second object area image from the second formed edge information image, the key image and the second object area Means for generating a second area normalized image from the image, means for comparing the first area normalized image and the second area normalized image, and means for holding a comparison result, A moving image search device characterized by the following.
から検索する動画像検索装置であって、 前記フレーム画像を取得する手段と、 前記フレーム画像をデジタル画像として順次記憶する手
段と、 前記デジタル画像から第一の粗エッジ情報画像を生成す
る手段と、 前記デジタル画像を用いて前記第一の粗エッジ情報画像
を第一の形成エッジ情報画像に形成する手段と、 前記第一の形成エッジ情報画像から第一の物体領域画像
を生成する手段と、 前記第一の形成エッジ情報画像から重複情報画像を生成
する手段と、 前記重複情報画像を用いて移動物体を1つ選択する手段
と、 前記第一の物体領域画像のうち選択された前記移動物体
だけをマスク処理により抽出する手段と、 前記デジタル画像及びマスクされた前記第一の物体領域
画像から第一の領域正規化画像を生成する手段と、 前記第一の領域正規化画像を保持する手段と、 前記対象物体を特定するキー画像を記憶する手段と、 前記キー画像を振動させる手段と、 振動させた前記キー画像から第二の粗エッジ情報画像を
生成する手段と、 前記キー画像を用いて前記第二の粗エッジ情報画像を第
二の形成エッジ情報画像に形成する手段と、 前記第二の形成エッジ情報画像から第二の物体領域画像
を生成する手段と、 前記キー画像及び前記第二の物体領域画像から第二の領
域正規化画像を生成する手段と、 前記第一の領域正規化画像と前記第二の領域正規化画像
を比較する手段と、 比較結果を保持する手段と、を有することを特徴とする
動画像検索装置。2. A moving image search device for searching a moving image for a frame image showing a target object, comprising: means for acquiring the frame image; means for sequentially storing the frame image as a digital image; Means for generating a first rough edge information image from an image; means for forming the first rough edge information image into a first formed edge information image using the digital image; and the first formed edge information. Means for generating a first object area image from an image; means for generating a duplicate information image from the first formed edge information image; means for selecting one moving object using the duplicate information image; Means for extracting only the selected moving object from the first object region image by a mask process; and extracting a second object from the digital image and the masked first object region image. Means for generating one area normalized image; means for holding the first area normalized image; means for storing a key image specifying the target object; means for vibrating the key image; Means for generating a second coarse edge information image from the key image that has been made; means for forming the second coarse edge information image into a second formed edge information image using the key image; and Means for generating a second object area image from the formed edge information image, means for generating a second area normalized image from the key image and the second object area image, and the first area normalization A moving image search device comprising: means for comparing an image with the second area-normalized image; and means for holding a comparison result.
おいて、前記デジタル画像を振動させる手段を有するこ
とを特徴とする動画像検索装置。3. The moving image search device according to claim 1, further comprising means for vibrating the digital image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000034790A JP2001222549A (en) | 2000-02-14 | 2000-02-14 | Moving image retrieving device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000034790A JP2001222549A (en) | 2000-02-14 | 2000-02-14 | Moving image retrieving device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001222549A true JP2001222549A (en) | 2001-08-17 |
Family
ID=18559079
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000034790A Pending JP2001222549A (en) | 2000-02-14 | 2000-02-14 | Moving image retrieving device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001222549A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006157758A (en) * | 2004-12-01 | 2006-06-15 | Hitachi Ltd | Video playback device and video detection / use method |
| JP2007519068A (en) * | 2003-09-29 | 2007-07-12 | ソニー エレクトロニクス インク | Computer-based calculation method and computer system for generating a semantic description using conversion technology |
-
2000
- 2000-02-14 JP JP2000034790A patent/JP2001222549A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007519068A (en) * | 2003-09-29 | 2007-07-12 | ソニー エレクトロニクス インク | Computer-based calculation method and computer system for generating a semantic description using conversion technology |
| JP2006157758A (en) * | 2004-12-01 | 2006-06-15 | Hitachi Ltd | Video playback device and video detection / use method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4700892B2 (en) | Image matching | |
| KR100402361B1 (en) | Visual device | |
| JP2000512790A (en) | Data processing system and method | |
| JP2003510702A (en) | How to build a 3D scene by analyzing a series of images | |
| JP5560925B2 (en) | 3D shape search device, 3D shape search method, and program | |
| JP4524514B2 (en) | Image processing apparatus, image processing method, and recording medium | |
| JP2001222549A (en) | Moving image retrieving device | |
| CN113545075B (en) | Point cloud global block packaging | |
| JP3524826B2 (en) | Three-dimensional image processing method and apparatus, and recording medium storing three-dimensional image processing program | |
| JPH0652304A (en) | Image processing apparatus and method thereof | |
| JP7509238B2 (en) | Information processing device, information processing method, and program | |
| JPH07104663B2 (en) | Video graphics system | |
| CN104571512B (en) | A kind of method and apparatus for assisting multiple projection ends to be projected | |
| JP2001256477A (en) | Information collection device | |
| JP2002170111A (en) | Image synthesizing apparatus and method and recording medium recording image synthesizing program | |
| JP3929907B2 (en) | Object shape calculation device and object shape calculation method | |
| CN116228940B (en) | Method, device and storage medium for matching animation skeletons based on topological structure | |
| JP2001256471A (en) | Visual device | |
| JPH0139153B2 (en) | ||
| JP2021022321A (en) | Image processing device and image processing method | |
| JPH09330403A (en) | Template matching method | |
| JP2001109891A (en) | Object area extraction method | |
| JP4545847B2 (en) | Image search apparatus and method | |
| JP2001184498A (en) | Image sensor | |
| JP2004531012A (en) | Prioritization in segment matching |