[go: up one dir, main page]

JPH11327030A - Camera control device and method, and storage medium - Google Patents

Camera control device and method, and storage medium

Info

Publication number
JPH11327030A
JPH11327030A JP10133131A JP13313198A JPH11327030A JP H11327030 A JPH11327030 A JP H11327030A JP 10133131 A JP10133131 A JP 10133131A JP 13313198 A JP13313198 A JP 13313198A JP H11327030 A JPH11327030 A JP H11327030A
Authority
JP
Japan
Prior art keywords
camera
size
area
matching
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10133131A
Other languages
Japanese (ja)
Inventor
Makoto Hirota
誠 廣田
Tsuneyoshi Takagi
常好 高木
Yoshihiro Ishida
良弘 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10133131A priority Critical patent/JPH11327030A/en
Publication of JPH11327030A publication Critical patent/JPH11327030A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Machine Translation (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 自然言語によりカメラの合焦検出領域及び露
出検出領域を制御する。 【解決手段】 カメラから撮影画像信号を取り込む(S
1)。ユーザからの音声入力の有無をチェックする(S
2)。音声入力がなければ(S2)、次の画像を取り込
む(S1)。音声入力があった場合(S2)、入力され
た音声を認識して文字列に変換する(S3)。認識され
た文字列を形態素解析して単語に切り分け(S4)、単
語群から形容詞及び形容動詞といった状態を表わす単語
を抽出する(S5)。次に、色情報テーブル及び大きさ
情報テーブルを参照して、色情報・大きさ情報を抽出す
る(S6)。S1で取り込んだ画像信号の中から色情報
・大きさ情報に最もマッチする画像領域を検出する(S
7)。検出された目的領域の位置を制御情報としてカメ
ラに出力する(S8)。
(57) [Problem] To control a focus detection area and an exposure detection area of a camera using a natural language. A captured image signal is captured from a camera (S).
1). Check whether there is a voice input from the user (S
2). If there is no voice input (S2), the next image is captured (S1). When there is a voice input (S2), the input voice is recognized and converted into a character string (S3). The recognized character string is morphologically analyzed and divided into words (S4), and words representing states such as adjectives and adjective verbs are extracted from the word group (S5). Next, color information and size information are extracted with reference to the color information table and the size information table (S6). An image area that best matches the color information and the size information is detected from the image signal captured in S1 (S1).
7). The detected position of the target area is output to the camera as control information (S8).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ制御装置及
び方法並びに記憶媒体に関する。
The present invention relates to a camera control device and method, and a storage medium.

【0002】[0002]

【従来の技術】カメラとコンピュータをRSシリアルケ
ーブルなどによって接続し、コンピュータからの制御指
令によって自動焦点調節(AF)及び自動露出(AE)
並びにこれらの対象領域を遠隔制御するカメラ制御シス
テムは、周知である。
2. Description of the Related Art A camera and a computer are connected by an RS serial cable or the like, and automatic focus adjustment (AF) and automatic exposure (AE) are performed according to a control command from the computer.
Camera control systems for remotely controlling these target areas are well known.

【0003】このようなカメラ制御システムでは、コン
ピュータにカメラを操作するためのソフトウェアが組み
込まれており、キーボード及び/又はマウスなどを用い
て制御指令をコンピュータに入力し、コンピュータから
カメラに送信することにより、カメラを遠隔操作でき
る。
In such a camera control system, software for operating the camera is incorporated in the computer, and a control command is input to the computer using a keyboard and / or a mouse, and transmitted from the computer to the camera. Allows remote control of the camera.

【0004】[0004]

【発明が解決しようとする課題】従来のカメラ制御シス
テムでは、ユーザからの制御入力に、キーボード及びマ
ウスなどの入力機器を用いるので、撮影画面内に映し出
されたある色の物体に焦点を当てるといったカメラ操作
が面倒であった。
In a conventional camera control system, an input device such as a keyboard and a mouse is used for a control input from a user, so that an object of a certain color projected on a photographing screen is focused. Camera operation was troublesome.

【0005】本発明は、適切かつ容易にカメラを遠隔操
作できるカメラ制御装置及び方法並びに記憶媒体を提示
することを目的とする。
[0005] It is an object of the present invention to provide a camera control device and method and a storage medium that can appropriately and easily remotely control a camera.

【0006】本発明はまた、言語入力によりカメラを遠
隔操作できるカメラ制御装置及び方法並びに記憶媒体を
提示することを目的とする。
Another object of the present invention is to provide a camera control device and method capable of remotely controlling a camera by language input, and a storage medium.

【0007】[0007]

【課題を解決するための手段】本発明に係るカメラ制御
装置は、カメラを遠隔制御するカメラ制御装置であっ
て、当該カメラから出力される画像信号を保持する画像
信号保持手段と、自然言語入力手段と、自然言語解析に
必要な辞書と、当該自然言語入力手段で入力された自然
言語文を当該辞書を用いて解析する自然言語解析手段
と、当該自然言語解析手段の解析結果から1以上の所定
カテゴリーに属する言語表現を抽出する特定言語表現抽
出手段と、当該画像信号保持手段に保持された画像信号
の中で当該特定言語表現抽出手段で抽出された言語表現
に最もマッチする特徴を持つ画像領域を検出する画像領
域検出手段と、当該画像領域検出手段で検出された画像
領域を示す位置情報を当該カメラに供給し、当該カメラ
の所定の検出領域を当該位置情報の示す位置に移動させ
る目的領域出力手段とを有することを特徴とする。
SUMMARY OF THE INVENTION A camera control device according to the present invention is a camera control device for remotely controlling a camera, comprising: an image signal holding means for holding an image signal output from the camera; Means, a dictionary necessary for natural language analysis, a natural language analysis means for analyzing the natural language sentence input by the natural language input means using the dictionary, and one or more analysis results of the natural language analysis means. A specific linguistic expression extracting means for extracting a linguistic expression belonging to a predetermined category, and an image having characteristics most matching the linguistic expression extracted by the specific linguistic expression extracting means in the image signals held in the image signal holding means An image area detecting means for detecting an area and position information indicating the image area detected by the image area detecting means are supplied to the camera, and a predetermined detection area of the camera is detected. And having an object area output means for moving to the position indicated by the position information.

【0008】本発明に係るカメラ制御方法は、カメラを
遠隔制御するカメラ制御方法であって、自然言語入力ス
テップと、当該自然言語入力手段で入力された自然言語
文を解析する自然言語解析ステップと、当該自然言語解
析ステップの解析結果から1以上の所定カテゴリーに属
する言語表現を抽出する特定言語表現抽出ステップと、
当該カメラから出力される画像信号の中で当該特定言語
表現抽出手段で抽出された言語表現に最もマッチする特
徴を持つ画像領域を検出する画像領域検出ステップと、
当該画像領域検出ステップで検出された画像領域を示す
位置情報を当該カメラに供給し、当該カメラの所定の検
出領域を当該位置情報の示す位置に移動させる目的領域
出力ステップとを有することを特徴とする。
[0008] A camera control method according to the present invention is a camera control method for remotely controlling a camera, comprising: a natural language input step; and a natural language analysis step for analyzing a natural language sentence input by the natural language input means. Extracting a linguistic expression belonging to one or more predetermined categories from an analysis result of the natural language analyzing step;
An image area detecting step of detecting an image area having a feature that best matches the language expression extracted by the specific language expression extraction unit in the image signal output from the camera;
Supplying a position information indicating the image area detected in the image area detecting step to the camera, and a target area output step of moving a predetermined detection area of the camera to a position indicated by the position information. I do.

【0009】本発明に係る記憶媒体には、上記カメラ制
御方法に係るプログラム・ソフトウエアが外部読み出し
自在に記憶される。
In the storage medium according to the present invention, the program / software according to the above-described camera control method is stored so as to be externally readable.

【0010】[0010]

【実施例】以下、図面を参照して本発明の一実施例を詳
細に説明する。
An embodiment of the present invention will be described below in detail with reference to the drawings.

【0011】図1は、本発明の一実施例の概略構成ブロ
ック図を示す。10はカメラ、20は、カメラ10を遠
隔制御するカメラ制御装置である。カメラ制御装置20
において、22は自然言語入力手段、24は自然言語解
析手段、26は自然言語解析のための辞書、28は色情
報・大きさ情報抽出手段、30は画像領域検出手段、3
2はカメラ10により撮影される各画面の画像信号を一
時記憶する画像信号保持手段、34は、目的領域を制御
情報としてカメラ10に出力する目的領域出力手段であ
る。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention. Reference numeral 10 denotes a camera, and reference numeral 20 denotes a camera control device for remotely controlling the camera 10. Camera control device 20
, 22 is a natural language input means, 24 is a natural language analysis means, 26 is a dictionary for natural language analysis, 28 is color information / size information extraction means, 30 is an image area detection means,
Reference numeral 2 denotes an image signal holding unit that temporarily stores an image signal of each screen captured by the camera 10, and reference numeral 34 denotes a target area output unit that outputs the target area to the camera 10 as control information.

【0012】本実施例では、自然言語入力に音声入力を
使用するが、キーボード入力又は、画面上に基本的な文
字を表記し、その中からマウスなどにより各文字を選択
し、必要により熟語変換を行なって入力したものでもよ
い。
In this embodiment, voice input is used for natural language input. Basic characters are written on a keyboard or displayed on a screen, and each character is selected from them by a mouse or the like. May be input.

【0013】カメラ制御装置20は具体的にはコンピュ
ータからなる。図2は、カメラ制御ジ装置20のハード
ウエア構成の概略構成ブロック図を示す。CPU40、
ROM42、RAM44及びハードディスク装置46が
バス48に接続する。辞書26はハードディスク装置4
6に格納される。自然言語解析手段24、色情報・大き
さ情報抽出手段28、画像領域検出手段30及び目的領
域出力手段34の主要な機能は、ROM42及びハード
ディスク装置46に格納されるソフトウエア・プログラ
ムにより実現される。
The camera control device 20 is specifically composed of a computer. FIG. 2 is a schematic block diagram of a hardware configuration of the camera control device 20. CPU 40,
The ROM 42, the RAM 44, and the hard disk device 46 are connected to the bus 48. The dictionary 26 is a hard disk drive 4
6 is stored. The main functions of the natural language analysis unit 24, the color information / size information extraction unit 28, the image area detection unit 30, and the target area output unit 34 are realized by software programs stored in the ROM 42 and the hard disk device 46. .

【0014】本実施例では、カメラ10による撮影画像
は、L*a*b*表色系で表現されるものとする。L*
軸が明るさ、a*b*平面が色を表現する。この表色系
の詳細は、例えば、田村秀行編「コンピュータ画像処
理:応用実践編(3)」、総研出版に記載されている。
In the present embodiment, an image photographed by the camera 10 is represented by an L * a * b * color system. L *
The axis represents brightness, and the a * b * plane represents color. Details of this color system are described in, for example, “Computer Image Processing: Applied Practice (3)” edited by Hideyuki Tamura, Soken Shuppan.

【0015】図3は、本実施例の動作フローチャートを
示す。カメラ10から撮影画像信号を取り込み、画像信
号保持手段32に格納する(S1)。ユーザからの音声
入力の有無をチェックする(S2)。音声入力がなけれ
ば(S2)、次の画像を取り込む(S1)。
FIG. 3 shows an operation flowchart of this embodiment. The captured image signal is taken from the camera 10 and stored in the image signal holding means 32 (S1). It is checked whether there is a voice input from the user (S2). If there is no voice input (S2), the next image is captured (S1).

【0016】音声入力があった場合(S2)、入力され
た音声を認識して文字列に変換する(S3)。自然言語
解析手段24が辞書26を参照して、認識された文字列
を形態素解析して単語に切り分け(S4)、単語群から
形容詞及び形容動詞といった状態を表わす単語を抽出す
る(S5)。例えば、入力が「赤くて大きいの」であっ
た場合、形態素解析で、 赤く(形容詞)/て(接続助詞)/大きい(形容詞)/
の(形式名詞) と切り分けられ、ここから、形容詞「赤い」及び「大き
い」が抽出される。活用形は終止形などの標準形に直さ
れる。
If there is a voice input (S2), the input voice is recognized and converted into a character string (S3). The natural language analysis means 24 refers to the dictionary 26 and morphologically analyzes the recognized character strings to separate them into words (S4), and extracts words representing states such as adjectives and adjective verbs from the word group (S5). For example, if the input is “red and large”, the morphological analysis indicates that red (adjective) / te (connective particle) / large (adjective) /
(Formal noun), from which the adjectives “red” and “large” are extracted. The utilization form is changed to a standard form such as the termination form.

【0017】次に、色情報・大きさ情報を抽出する(S
6)。その際、図4に示すテーブルを参照する。色情報
テーブル(a)は、色カテゴリと各カテゴリに属する形
容詞の候補からなる。同様に、大きさ情報テーブル
(b)は、大きさカテゴリと各カテゴリに属する形容詞
の候補からなる。上述の例の場合、形容詞「赤い」及び
「大きい」のそれぞれについて、テーブルを参照し、そ
れぞれが属するカテゴリを見つける。「赤い」は、色情
報テーブルの「赤」カテゴリに属することがわかる。同
様に、「大きい」は、大きさ情報テーブルの「大」カテ
ゴリに属することが分かる。
Next, color information and size information are extracted (S
6). At that time, a table shown in FIG. 4 is referred to. The color information table (a) includes color categories and adjective candidates belonging to each category. Similarly, the size information table (b) includes size categories and adjective candidates belonging to each category. In the case of the above example, the category to which each of the adjectives “red” and “large” belongs is found by referring to the table. It can be seen that “red” belongs to the “red” category of the color information table. Similarly, it can be seen that “large” belongs to the “large” category of the size information table.

【0018】こうして、ユーザが自動焦点調節(AF)
及び自動露出(AE)の対象領域としたい領域(目的領
域)の画像の特徴が、 色カテゴリ:赤 大きさカテゴリ:大 であると認識される。
In this way, the user can automatically focus (AF)
The feature of the image in the area (target area) to be set as the target area for automatic exposure (AE) is recognized as color category: red, size category: large.

【0019】続いて、カメラ10から入力され画像信号
保持手段32に保持された画像信号の中から、上記色情
報・大きさ情報に最もマッチする画像領域を検出する
(S7)。即ち、先ず画像信号を幾つかの領域に分割す
る。領域分割には、既存の技術(「画像処理」共立出版
など参照)を利用できる。領域分割によって画像信号
が、R1,R2,・・・,Rnに分割されたとする。
Subsequently, from the image signals input from the camera 10 and held in the image signal holding means 32, an image area which best matches the color information / size information is detected (S7). That is, first, the image signal is divided into several regions. Existing technology (see "Image processing", Kyoritsu Shuppan, etc.) can be used for area division. It is assumed that the image signal is divided into R1, R2,..., Rn by region division.

【0020】先ず色情報に基づくマッチングを行なう。
色カテゴリが「明」及び「暗」以外のものは次のように
する。L*a*b*表色系のa*b*平面上で、図5
(a)に示すように各色カテゴリの代表点を予め与えて
おく。領域Rに属する各画素の(a*,b*)の平均
値(a*,b*)を求め、これと色カテゴリ代表点
とのユークリッド距離Cを求める。上記例の場合、ユ
ーザの音声入力から抽出された色カテゴリは「赤」なの
で、「赤」の代表点(ared*,bred*)と(a*,
*)との距離を計算する。色カテゴリが「明」また
は「暗」の場合は、L*a*b*表色系のL*の値を用
いる。同様に図5(b)に示すように「明」及び「暗」
それぞれのL*軸上での代表点を予め与えておき、領域
のL*値の平均値と代表点との距離lを求める。
上記例の場合、ユーザの入力から「明」又は「暗」の色
カテゴリは何れも抽出されなかったので、l=0とす
る。
First, matching based on color information is performed.
If the color category is other than "bright" and "dark", proceed as follows. On the a * b * plane of the L * a * b * color system, FIG.
As shown in (a), a representative point of each color category is given in advance. The average value (a i *, b i *) of (a *, b *) of each pixel belonging to the region R i is obtained, and the Euclidean distance C i between this and the color category representative point is obtained. In the case of the above example, since the color category extracted from the user's voice input is “red”, the representative points of “red” (a red *, b red *) and (a i *,
b i *) the distance between the calculated. When the color category is “bright” or “dark”, the value of L * in the L * a * b * color system is used. Similarly, “bright” and “dark” as shown in FIG.
A representative point on each L * axis is given in advance, and a distance l i between the average value of the L * values of the region R i and the representative point is obtained.
In the case of the above example, since none of the color categories “bright” or “dark” was extracted from the user's input, l i = 0.

【0021】次に、大きさ情報に基づくマッチングを行
なう。先ず、領域Rの面積Sを求める。この場合も
やはり、図5(c)に示すように、領域の面積を表わす
一次元の軸Sを考え、S軸上で大きさカテゴリ「大」及
び「小」それぞれの代表点を予め与えておく。この場
合、入力画像信号全体の面積に対応するS軸上の点を
「大」の代表点とし、S=0を「小」の代表点とすれば
よい。そして、S軸上の点S=Sとユーザ入力から抽
出された大きさカテゴリの代表点との距離mを求め
る。上記例の場合、ユーザ入力から抽出された大きさカ
テゴリは「大」なので、S軸上の点S=Sと「大」の
代表点との距離を求めることになる。
Next, matching based on the size information is performed. First, a surface area S i of the region R i. Also in this case, as shown in FIG. 5C, a one-dimensional axis S representing the area of the area is considered, and representative points of the size categories “large” and “small” are given in advance on the S axis. deep. In this case, a point on the S-axis corresponding to the entire area of the input image signal may be set as a “large” representative point, and S = 0 may be set as a “small” representative point. Then, a distance m i of the representative points of the size categories extracted from the point S = S i and user input on the S-axis. In the above example, the size categories extracted from the user input would determine the distance between the representative point of the "large" So, the point on the S-axis and S = S i "large".

【0022】こうして求められた各距離C,l,m
を総合評価し、領域Rがユーザの求める目的領域の
条件にどれだけ近いかを評価する。評価関数には、例え
ば次のような関数を用いる。
Each of the distances C i , l i , m thus determined
i is evaluated comprehensively, and how close the region R i is to the condition of the target region required by the user is evaluated. For example, the following function is used as the evaluation function.

【0023】 E=w・c+wl・l十w・m 但し、w,w,wは適当な重み係数である。この
をすべての領域について計算し、Eの値が最小に
なる領域を目的領域とみなす。
Ei= Wc・ Ci+ Wl・ LiTen wm・ Mi  Where wc, Wl, WmIs an appropriate weighting factor. this
EiIs calculated for all regions, and EiThe value of
Area is regarded as a target area.

【0024】最終的に、目的領域出力手段34が、目的
領域の位置をカメラ10に出力する(S8)。カメラ1
0は、この情報に従って、自動焦点調節(AF)及び自
動露出(AE)の対象領域を目的領域に移動する。具体
的には、カメラ10は、目標領域の画像中の重心座標を
求め、そこに自動焦点調節(AF)及び自動露出(A
E)の検出領域(フレーム枠)の中心を移動する。更に
は、自動焦点調節(AF)及び自動露出(AE)の検出
領域(フレーム枠)の大きさを、目的領域の大きさに変
更する。
Finally, the target area output means 34 outputs the position of the target area to the camera 10 (S8). Camera 1
0 moves the target area of the automatic focus adjustment (AF) and the automatic exposure (AE) to the target area according to this information. Specifically, the camera 10 obtains the coordinates of the center of gravity in the image of the target area, and stores the coordinates of automatic focusing (AF) and automatic exposure (A
The center of the detection area (frame) of E) is moved. Further, the size of the detection area (frame) of the automatic focus adjustment (AF) and the automatic exposure (AE) is changed to the size of the target area.

【0025】上記実施例では、ユーザからの入力を音声
入力としていたが、自然言語入力である限り、キーボー
ド入力など他のいかなる入力手段でもよい。
In the above embodiment, the input from the user is a voice input, but any other input means such as a keyboard input may be used as long as the input is a natural language input.

【0026】上記実施例では、色カテゴリ及び大きさカ
テゴリとして、図4に例示する分類を使用したが、各カ
テゴリに対応する単語を予め用意できる限り、他の如何
なるカテゴリを定義しても構わない。また、上記実施例
では、色と大きさの両方の特徴により、自動焦点調節
(AF)及び自動露出(AE)の検出領域を決定してい
るが、その何れか一方で当該検出領域を決定するように
してもよい。勿論、自動焦点調節(AF)の検出領域と
自動露出(AE)の検出領域は必ずしも一致する必要は
無いので、個別に決定しても良い。
In the above embodiment, the classifications shown in FIG. 4 are used as the color categories and the size categories. However, any other categories may be defined as long as words corresponding to each category can be prepared in advance. . In the above embodiment, the detection areas for the automatic focus adjustment (AF) and the automatic exposure (AE) are determined based on the characteristics of both the color and the size. You may do so. Of course, the detection area of the automatic focus adjustment (AF) and the detection area of the automatic exposure (AE) do not necessarily need to coincide, and may be determined individually.

【0027】上記実施例では、画像信号の表現手法とし
て、L*a*b*表色系を用いていたが、定義した色カ
テゴリの代表点を設定できる限り、RGB表色系など他
のいかなる表色系を用いてもよい。
In the above embodiment, the L * a * b * color system is used as a method of expressing an image signal. However, as long as the representative point of the defined color category can be set, any other color system such as the RGB color system can be used. A color system may be used.

【0028】上記実施例においては、各手段を同一のコ
ンピュータ上で実現する場合について説明したが、これ
に限定されるものではなく、ネットワーク上に分散した
コンピュータ又はやデータ処理装置などに分散配置され
ていてもよい。
In the above-described embodiment, the case where each means is realized on the same computer has been described. However, the present invention is not limited to this, and the means are distributed and arranged on computers or data processing devices distributed on a network. May be.

【0029】上記実施例においては、各手段の機能を実
現するソフトウエア・プログラムをROMに格納する例
に限定されず、他の任意の記憶媒体に格納しても良い。
勿論、ハードウエアにより実現しても良い。実現しても
よい。
In the above embodiment, the software program for realizing the function of each means is not limited to being stored in the ROM, but may be stored in any other storage medium.
Of course, it may be realized by hardware. It may be realized.

【0030】本発明は、複数の機器から構成されるシス
テムに適用しても、1つの機器からなる装置に適用して
もよい。前述した実施形態の機能を実現するソフトウエ
アのプログラムコードを記録した記録媒体を、システム
或いは装置に供給し、そのシステム或いは装置のコンピ
ュータ(またはCPUやMPU)が記録媒体に格納され
たプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記録
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記録した記録媒体は本発明を構成することにな
る。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. A recording medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or an apparatus, and a computer (or CPU or MPU) of the system or apparatus executes the program code stored in the recording medium. Needless to say, this can also be achieved by executing the reading. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

【0031】プログラムコードを供給するための記録媒
体としては、例えば、フロッピーディスク、ハードディ
スク、光ディスク、光磁気ディスク、CD−ROM、C
DーR、磁気テープ、不揮発性メモリカード及びROM
などを用いることができる。
As a recording medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, C
DR, magnetic tape, nonvolatile memory card and ROM
Etc. can be used.

【0032】また、コンピュータが読み出したプログラ
ムコードを実行することにより、前述した実施例の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティング・システム)などが実際の処理の一部または
全部を行ない、その処理によって前述した実施例の機能
が実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the operating system (OS) running on the computer based on the instructions of the program code. Needless to say, the present invention also includes a case where the system performs some or all of the actual processing and the processing realizes the functions of the above-described embodiments.

【0033】更に、記録媒体から読み出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書き込まれた後、そのプログラムコードの指示
に基づき、その機能拡張ボードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行な
い、その処理によって前述した実施例の機能が実現され
る場合も含まれることは書うまでもない。
Further, after the program code read from the recording medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0034】[0034]

【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、自然言語による制御入力に含まれ
る色情報及び/又は大きさ情報を抽出して、これに最も
マッチするカメラからの画像信号内の画像領域を検出す
るようにしたので、自然言語によって自動焦点調節(A
F)及び/又は自動露出(AE)の対象領域を制御でき
るようになる。
As can be easily understood from the above description, according to the present invention, color information and / or size information included in a control input in a natural language is extracted, and a camera that matches the color information and / or the size information is used. Since the image area in the image signal is detected, the automatic focusing (A
F) and / or the target area of automatic exposure (AE) can be controlled.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例の概略構成ブロック図であ
る。
FIG. 1 is a schematic block diagram of an embodiment of the present invention.

【図2】 本発明のカメラ制御装置20のハードウエア
構成の概略構成ブロック図である。
FIG. 2 is a schematic configuration block diagram of a hardware configuration of a camera control device 20 of the present invention.

【図3】 本実施例の動作フローチャートである。FIG. 3 is an operation flowchart of the embodiment.

【図4】 本実施例における色カテゴリ・大きさカテゴ
リと単語との対応テーブルである。
FIG. 4 is a correspondence table between a color category / size category and a word in the embodiment.

【図5】 本実施例におけるマッチングのための座標空
間例である。
FIG. 5 is an example of a coordinate space for matching in the embodiment.

【符号の説明】[Explanation of symbols]

10:カメラ 20:カメラ制御装置 22:自然言語入力手段 24:自然言語解析手段 26:辞書 28:色情報・大きさ情報抽出手段 30:画像領域検出手段 32:画像信号保持手段 34:目的領域出力手段 40:CPU 42:ROM 44:RAM 46:ハードディスク装置 48:バス 10: Camera 20: Camera control device 22: Natural language input means 24: Natural language analysis means 26: Dictionary 28: Color information / size information extraction means 30: Image area detection means 32: Image signal holding means 34: Target area output Means 40: CPU 42: ROM 44: RAM 46: Hard disk device 48: Bus

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G03B 17/00 G10L 3/00 551Z G06F 17/28 H04N 5/232 B G06T 1/00 G02B 7/11 N G10L 3/00 551 G06F 15/38 Z H04N 5/232 15/62 380 ────────────────────────────────────────────────── ─── front page continued (51) Int.Cl. 6 identifications FI G03B 17/00 G10L 3/00 551Z G06F 17/28 H04N 5/232 B G06T 1/00 G02B 7/11 N G10L 3/00 551 G06F 15/38 Z H04N 5/232 15/62 380

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 カメラを遠隔制御するカメラ制御装置で
あって、 当該カメラから出力される画像信号を保持する画像信号
保持手段と、 自然言語入力手段と、 自然言語解析に必要な辞書と、 当該自然言語入力手段で入力された自然言語文を当該辞
書を用いて解析する自然言語解析手段と、 当該自然言語解析手段の解析結果から1以上の所定カテ
ゴリーに属する言語表現を抽出する特定言語表現抽出手
段と、 当該画像信号保持手段に保持された画像信号の中で当該
特定言語表現抽出手段で抽出された言語表現に最もマッ
チする特徴を持つ画像領域を検出する画像領域検出手段
と、 当該画像領域検出手段で検出された画像領域を示す位置
情報を当該カメラに供給し、当該カメラの所定の検出領
域を当該位置情報の示す位置に移動させる目的領域出力
手段とを有することを特徴とするカメラ制御装置。
1. A camera control device for remotely controlling a camera, comprising: an image signal holding unit for holding an image signal output from the camera; a natural language input unit; a dictionary required for natural language analysis; A natural language analyzing means for analyzing the natural language sentence inputted by the natural language input means using the dictionary; and a specific language expression extracting for extracting language expressions belonging to one or more predetermined categories from the analysis result of the natural language analyzing means. Means, an image area detecting means for detecting an image area having a feature most matching the language expression extracted by the specific language expression extracting means in the image signal held by the image signal holding means, A target area that supplies position information indicating an image area detected by the detection unit to the camera and moves a predetermined detection area of the camera to a position indicated by the position information. The camera control apparatus characterized by having a force means.
【請求項2】 当該1以上の所定カテゴリーが色を含む
請求項1に記載のカメラ制御装置。
2. The camera control device according to claim 1, wherein the one or more predetermined categories include a color.
【請求項3】 当該1以上の所定カテゴリーが大きさを
含む請求項1又は2に記載のカメラ制御装置。
3. The camera control device according to claim 1, wherein the one or more predetermined categories include a size.
【請求項4】 当該目的領域出力手段は、当該画像領域
検出手段で検出された画像領域を示す位置情報及び大き
さ情報を当該カメラに供給し、当該カメラの所定の検出
領域を当該位置情報の示す位置に移動させると共に、当
該大きさ情報の示す大きさに変更させる請求項1に記載
のカメラ制御装置。
4. The target area output means supplies position information and size information indicating the image area detected by the image area detection means to the camera, and sets a predetermined detection area of the camera to the position information of the camera. The camera control device according to claim 1, wherein the camera control device is moved to a position indicated and changed to a size indicated by the size information.
【請求項5】 当該当該カメラの所定の検出領域が合焦
検出領域及び露出検出領域の少なくとも一方である請求
項1に記載のカメラ制御装置。
5. The camera control device according to claim 1, wherein the predetermined detection area of the camera is at least one of a focus detection area and an exposure detection area.
【請求項6】 当該画像領域検出手段が、当該画像信号
保持手段に保持された画像信号を複数の領域に分割する
分割手段と、 当該分割手段による複数の領域のそれぞれで、当該特定
言語表現抽出手段で抽出された言語表現にマッチングす
る領域を検出するマッチング手段とを具備する請求項1
に記載のカメラ制御装置。
6. An image area detecting means for dividing the image signal held in the image signal holding means into a plurality of areas, and extracting the specific language expression in each of the plurality of areas by the dividing means. A matching means for detecting a region matching the language expression extracted by the means.
The camera control device according to item 1.
【請求項7】 当該マッチング手段が、 当該分割手段による複数の領域のそれぞれで、当該特定
言語表現抽出手段で抽出された色表現にマッチングする
領域を検出する色マッチング手段と、 当該分割手段による複数の領域のそれぞれで、当該特定
言語表現抽出手段で抽出された大きさ表現にマッチング
する領域を検出す大きさマッチング手段と、当該色マッ
チング手段及び当該大きさマッチング手段のマッチング
結果を所定の評価式で総合評価する評価手段とを具備す
る請求項6に記載のカメラ制御装置。
7. The color matching means for detecting, in each of the plurality of areas by the dividing means, an area that matches the color expression extracted by the specific language expression extracting means; In each of the regions, a size matching unit that detects a region that matches the size expression extracted by the specific language expression extracting unit, and a matching result of the color matching unit and the size matching unit are determined by a predetermined evaluation formula. The camera control device according to claim 6, further comprising: an evaluation unit that performs comprehensive evaluation in (1).
【請求項8】 カメラを遠隔制御するカメラ制御方法で
あって、 自然言語入力ステップと、 当該自然言語入力手段で入力された自然言語文を解析す
る自然言語解析ステップと、 当該自然言語解析ステップの解析結果から1以上の所定
カテゴリーに属する言語表現を抽出する特定言語表現抽
出ステップと、 当該カメラから出力される画像信号の中で当該特定言語
表現抽出手段で抽出された言語表現に最もマッチする特
徴を持つ画像領域を検出する画像領域検出ステップと、 当該画像領域検出ステップで検出された画像領域を示す
位置情報を当該カメラに供給し、当該カメラの所定の検
出領域を当該位置情報の示す位置に移動させる目的領域
出力ステップとを有することを特徴とするカメラ制御方
法。
8. A camera control method for remotely controlling a camera, comprising: a natural language input step; a natural language analysis step of analyzing a natural language sentence input by the natural language input means; A specific language expression extraction step of extracting a language expression belonging to one or more predetermined categories from the analysis result; and a feature that best matches the language expression extracted by the specific language expression extraction means in the image signal output from the camera. An image area detecting step of detecting an image area having the following. Supplying position information indicating the image area detected in the image area detecting step to the camera, and setting a predetermined detection area of the camera to a position indicated by the position information. A moving target area output step.
【請求項9】 当該1以上の所定カテゴリーが色を含む
請求項8に記載のカメラ制御方法。
9. The camera control method according to claim 8, wherein the one or more predetermined categories include a color.
【請求項10】 当該1以上の所定カテゴリーが大きさ
を含む請求項8又は9に記載のカメラ制御方法。
10. The camera control method according to claim 8, wherein the one or more predetermined categories include a size.
【請求項11】 当該目的領域出力ステップは、当該画
像領域検出ステップで検出された領域を示す位置情報及
び大きさ情報を当該カメラに供給し、当該カメラの所定
の検出領域を当該位置情報の示す位置に移動させると共
に、当該大きさ情報の示す大きさに変更させる請求項8
に記載のカメラ制御方法。
11. The target area output step supplies position information and size information indicating an area detected in the image area detection step to the camera, and indicates a predetermined detection area of the camera by the position information. 9. While moving to the position, changing the size to the size indicated by the size information.
2. The camera control method according to 1.
【請求項12】 当該当該カメラの所定の検出領域が合
焦検出領域及び露出検出領域の少なくとも一方である請
求項8に記載のカメラ制御方法。
12. The camera control method according to claim 8, wherein the predetermined detection area of the camera is at least one of a focus detection area and an exposure detection area.
【請求項13】 当該画像領域検出ステップが、 当該画像信号保持手段に保持された画像信号を複数の領
域に分割する分割ステップと、 当該分割ステップによる複数の領域のそれぞれで、当該
特定言語表現抽出ステップで抽出された言語表現にマッ
チングする領域を検出するマッチング・ステップとを具
備する請求項8に記載のカメラ制御装置。
13. The image area detecting step includes: a dividing step of dividing the image signal held in the image signal holding means into a plurality of areas; and extracting the specific language expression in each of the plurality of areas by the dividing step. 9. The camera control device according to claim 8, further comprising: a matching step of detecting a region matching the linguistic expression extracted in the step.
【請求項14】 当該マッチング・ステップが、 当該分割ステップによる複数の領域のそれぞれで、当該
特定言語表現抽出ステップで抽出された色表現にマッチ
ングする領域を検出する色マッチング・ステップと、 当該分割ステップによる複数の領域のそれぞれで、当該
特定言語表現抽出ステップで抽出された大きさ表現にマ
ッチングする領域を検出す大きさマッチング・ステップ
と、 当該色マッチング・ステップ及び当該大きさマッチング
・ステップのマッチング結果を所定の評価式で総合評価
する評価ステップとを具備する請求項13に記載のカメ
ラ制御方法。
14. The color matching step comprising: detecting, in each of the plurality of areas in the division step, an area matching the color expression extracted in the specific language expression extraction step; A size matching step of detecting a region that matches the size expression extracted in the specific language expression extraction step in each of the plurality of regions according to, a matching result of the color matching step and the size matching step 14. The camera control method according to claim 13, further comprising: an evaluation step of comprehensively evaluating by a predetermined evaluation formula.
【請求項15】 カメラを遠隔制御するカメラ制御方法
のプログラム・ソフトウエアを外部読み出し自在に記憶
する記憶媒体であって、当該カメラ制御方法が、 自然言語入力ステップと、 当該自然言語入力手段で入力された自然言語文を解析す
る自然言語解析ステップと、 当該自然言語解析ステップの解析結果から1以上の所定
カテゴリーに属する言語表現を抽出する特定言語表現抽
出ステップと、 当該カメラから出力される画像信号の中で当該特定言語
表現抽出手段で抽出された言語表現に最もマッチする特
徴を持つ画像領域を検出する画像領域検出ステップと、 当該画像領域検出ステップで検出された画像領域を示す
位置情報を当該カメラに供給し、当該カメラの所定の検
出領域を当該位置情報の示す位置に移動させる目的領域
出力ステップとを有することを特徴とする記憶媒体。
15. A storage medium for externally and readablely storing program software of a camera control method for remotely controlling a camera, wherein the camera control method includes a natural language input step, and a natural language input means. A natural language analysis step of analyzing the extracted natural language sentence, a specific language expression extraction step of extracting language expressions belonging to one or more predetermined categories from the analysis result of the natural language analysis step, and an image signal output from the camera An image area detecting step of detecting an image area having a feature that best matches the linguistic expression extracted by the specific linguistic expression extracting means; and positional information indicating the image area detected in the image area detecting step. A target area output switch that supplies the image to the camera and moves a predetermined detection area of the camera to the position indicated by the position information. Storage medium characterized by having a-up.
【請求項16】 当該1以上の所定カテゴリーが色を含
む請求項15に記載の記憶媒体。
16. The storage medium according to claim 15, wherein the one or more predetermined categories include colors.
【請求項17】 当該1以上の所定カテゴリーが大きさ
を含む請求項15又は16に記載の記憶媒体。
17. The storage medium according to claim 15, wherein the one or more predetermined categories include a size.
【請求項18】 当該目的領域出力ステップは、当該画
像領域検出ステップで検出された領域を示す位置情報及
び大きさ情報を当該カメラに供給し、当該カメラの所定
の検出領域を当該位置情報の示す位置に移動させると共
に、当該大きさ情報の示す大きさに変更させる請求項1
5に記載の記憶媒体。
18. The target area outputting step supplies position information and size information indicating an area detected in the image area detecting step to the camera, and indicates a predetermined detection area of the camera by the position information. 2. The method according to claim 1, further comprising: moving to a position and changing the size to the size indicated by the size information.
6. The storage medium according to 5.
【請求項19】 当該当該カメラの所定の検出領域が合
焦検出領域及び露出検出領域の少なくとも一方である請
求項15に記載の記憶媒体。
19. The storage medium according to claim 15, wherein the predetermined detection area of the camera is at least one of a focus detection area and an exposure detection area.
【請求項20】 当該画像領域検出ステップが、 当該画像信号保持手段に保持された画像信号を複数の領
域に分割する分割ステップと、 当該分割ステップによる複数の領域のそれぞれで、当該
特定言語表現抽出ステップで抽出された言語表現にマッ
チングする領域を検出するマッチング・ステップとを具
備する請求項15に記載の記憶媒体。
20. The image area detecting step, comprising: a dividing step of dividing the image signal held by the image signal holding means into a plurality of areas; and extracting the specific language expression in each of the plurality of areas by the dividing step. 16. The storage medium according to claim 15, further comprising: a matching step of detecting a region matching the linguistic expression extracted in the step.
【請求項21】 当該マッチング・ステップが、 当該分割ステップによる複数の領域のそれぞれで、当該
特定言語表現抽出ステップで抽出された色表現にマッチ
ングする領域を検出する色マッチング・ステップと、 当該分割ステップによる複数の領域のそれぞれで、当該
特定言語表現抽出ステップで抽出された大きさ表現にマ
ッチングする領域を検出す大きさマッチング・ステップ
と、 当該色マッチング・ステップ及び当該大きさマッチング
・ステップのマッチング結果を所定の評価式で総合評価
する評価ステップとを具備する請求項20に記載の記憶
媒体。
21. A color matching step for detecting, in each of the plurality of regions in the division step, a region that matches the color expression extracted in the specific language expression extraction step, A size matching step of detecting a region that matches the size expression extracted in the specific language expression extraction step in each of the plurality of regions according to, a matching result of the color matching step and the size matching step 21. The storage medium according to claim 20, further comprising: an evaluation step of comprehensively evaluating by a predetermined evaluation formula.
JP10133131A 1998-05-15 1998-05-15 Camera control device and method, and storage medium Withdrawn JPH11327030A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10133131A JPH11327030A (en) 1998-05-15 1998-05-15 Camera control device and method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10133131A JPH11327030A (en) 1998-05-15 1998-05-15 Camera control device and method, and storage medium

Publications (1)

Publication Number Publication Date
JPH11327030A true JPH11327030A (en) 1999-11-26

Family

ID=15097513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10133131A Withdrawn JPH11327030A (en) 1998-05-15 1998-05-15 Camera control device and method, and storage medium

Country Status (1)

Country Link
JP (1) JPH11327030A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004070657A1 (en) * 2003-02-05 2004-08-19 Seiko Epson Corporation Image processing device
JP2004252121A (en) * 2003-02-20 2004-09-09 Sony Corp Language processing apparatus and language processing method, and program and recording medium
JP2006072332A (en) * 2004-08-05 2006-03-16 Matsushita Electric Ind Co Ltd Imaging device
JP2006094202A (en) * 2004-09-24 2006-04-06 Casio Comput Co Ltd Imaging apparatus, focusing processing method, and program
US8035721B2 (en) 2004-08-05 2011-10-11 Panasonic Corporation Imaging apparatus
KR20160030370A (en) * 2014-09-09 2016-03-17 가시오게산키 가부시키가이샤 Detection apparatus and detection method
GB2600093A (en) * 2020-10-14 2022-04-27 Daimler Ag A method for capturing an image of the surroundings of a motor vehicle by an assistance system of the motor vehicle

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004070657A1 (en) * 2003-02-05 2004-08-19 Seiko Epson Corporation Image processing device
JP2004252121A (en) * 2003-02-20 2004-09-09 Sony Corp Language processing apparatus and language processing method, and program and recording medium
JP2006072332A (en) * 2004-08-05 2006-03-16 Matsushita Electric Ind Co Ltd Imaging device
US8035721B2 (en) 2004-08-05 2011-10-11 Panasonic Corporation Imaging apparatus
JP2006094202A (en) * 2004-09-24 2006-04-06 Casio Comput Co Ltd Imaging apparatus, focusing processing method, and program
KR20160030370A (en) * 2014-09-09 2016-03-17 가시오게산키 가부시키가이샤 Detection apparatus and detection method
JP2016058888A (en) * 2014-09-09 2016-04-21 カシオ計算機株式会社 Detection device, detection method, and program
US10027878B2 (en) 2014-09-09 2018-07-17 Casio Computer Co., Ltd. Detection of object in digital image
GB2600093A (en) * 2020-10-14 2022-04-27 Daimler Ag A method for capturing an image of the surroundings of a motor vehicle by an assistance system of the motor vehicle

Similar Documents

Publication Publication Date Title
KR100981697B1 (en) Method and system for white balance an image using face color as reference signal
EP2367138B1 (en) Image attribute discrimination apparatus, attribute discrimination support apparatus, image attribute discrimination method, attribute discrimination support apparatus controlling method, and control program
CN109522950B (en) Image scoring model training method and device and image scoring method and device
CN110475069B (en) Image shooting method and device
CN112381104A (en) Image identification method and device, computer equipment and storage medium
CN114549557A (en) Portrait segmentation network training method, device, equipment and medium
KR20210008075A (en) Time search method, device, computer device and storage medium (VIDEO SEARCH METHOD AND APPARATUS, COMPUTER DEVICE, AND STORAGE MEDIUM)
CN111753764A (en) Gesture recognition method of edge terminal based on attitude estimation
JP2010262601A (en) Pattern recognition system and pattern recognition method
US12094244B2 (en) Method for recognizing masked faces, device for recognizing masked faces, and computer storage medium
MX2008003406A (en) Extensible visual effects on active content in user interfaces.
CN112734778B (en) Vehicle cutout method, system, device and storage medium based on neural network
CN112989869A (en) Optimization method, device and equipment of face quality detection model and storage medium
KR20200069869A (en) System and method for automatically translating character in image
JPH11327030A (en) Camera control device and method, and storage medium
KR100708130B1 (en) Video Extractor and Method
CN115620310B (en) Image recognition method, model training method, medium, device and computing equipment
CN110543238A (en) Desktop interaction method based on artificial intelligence
CN116939306A (en) Method, system, equipment and storage medium for displaying timing of monitoring video
CN112101479B (en) A hair style recognition method and device
CN111353464B (en) Object detection model training, object detection method and device
US11574467B2 (en) Document augmented auto complete
CN114666503A (en) Photographing method and device, storage medium and electronic equipment
CN114494749B (en) A channel-enhanced identity recognition method, device, equipment and readable storage medium
JP3479601B2 (en) Method and apparatus for reading characters in landscape image and recording medium recording the method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802