[go: up one dir, main page]

JP2003067048A - Information processing equipment - Google Patents

Information processing equipment

Info

Publication number
JP2003067048A
JP2003067048A JP2002196651A JP2002196651A JP2003067048A JP 2003067048 A JP2003067048 A JP 2003067048A JP 2002196651 A JP2002196651 A JP 2002196651A JP 2002196651 A JP2002196651 A JP 2002196651A JP 2003067048 A JP2003067048 A JP 2003067048A
Authority
JP
Japan
Prior art keywords
camera
image
displayed
display
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002196651A
Other languages
Japanese (ja)
Inventor
Masayuki Tani
谷  正之
Kimiya Yamatari
公也 山足
Koichiro Tanikoshi
浩一郎 谷越
Masayasu Futagawa
正康 二川
Shinya Tanifuji
真也 谷藤
Atsuhiko Nishikawa
敦彦 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP09567898A external-priority patent/JP3608940B2/en
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002196651A priority Critical patent/JP2003067048A/en
Publication of JP2003067048A publication Critical patent/JP2003067048A/en
Pending legal-status Critical Current

Links

Classifications

    • Y04S10/54

Landscapes

  • Selective Calling Equipment (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】遠隔運転監視システムなどにおいて、操作者が
操作の対象や操作結果を直感的に把握できるようにする
こと。 【解決手段】カメラ60からの映像が表示されている映
像表示領域200上で、ボタン414の表示位置を、指を
強く押しながら横に動かすと、マンマシンサーバ20
は、指が動く度に、制御用計算機50を介してつまみ4
24を制御するアクチュエータに指令を出し、指の動き
にあわせてつまみ424を実際に動かす。つまみ424
が動いた結果として、メータ422の針も触れる。つま
み424やメータ422の針が動く様子はカメラ60に
よって撮影され、映像表示領域200上の映像に映しだ
される。これによって操作者は自分の指でつまみ424
を動かしているような感覚を得る。
(57) [Summary] [PROBLEMS] To enable an operator to intuitively grasp an operation target and an operation result in a remote driving monitoring system or the like. When a display position of a button is moved sideways while strongly pressing a finger on an image display area in which an image from a camera is displayed, a man-machine server is displayed.
Indicates that each time the finger is moved, the knob 4 is controlled via the control computer 50.
A command is issued to an actuator that controls the knob 24, and the knob 424 is actually moved in accordance with the movement of the finger. Knob 424
As a result, the needle of the meter 422 also touches. The movements of the knob 424 and the needle of the meter 422 are photographed by the camera 60 and are displayed on an image on the image display area 200. This allows the operator to use the knob 424 with his / her finger.
Get the feeling of moving.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ビデオ映像(以
下、単に映像と呼ぶ)を利用したマンマシンインタフェ
ース(以下、単にマンマシンと呼ぶ)に関し、特にビデ
オカメラから入力された映像(以下、単にカメラ映像と
呼ぶ)に対して操作を施すことにより、遠隔にある事物
を監視,操作するに適した映像操作方法及び装置,映像
探索方法及び装置,映像処理定義方法及び装置、およ
び、発電プラント,化学プラント,鉄鋼圧延機,ビル,
道路,上下水システムなどの遠隔運転監視方法及びシス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a man-machine interface (hereinafter, simply referred to as a man-machine) using a video image (hereinafter, simply referred to as a video), and more particularly to a video input from a video camera (hereinafter simply referred to as a man-machine interface) A video operation method and device, a video search method and device, a video processing definition method and device, and a power plant, which are suitable for monitoring and operating a remote object by operating a camera image). Chemical plant, steel rolling mill, building,
The present invention relates to a remote driving monitoring method and system for roads, water and sewer systems, etc.

【0002】[0002]

【従来の技術】原子力発電所に代表される大規模なプラ
ントシステムを安全に運転していくためには、適切なマ
ンマシンをもった運転監視システムが不可欠である。プ
ラントは、操作者の「監視」「判断」「操作」の3つの
作業によって運転維持される。運転監視システムは操作
者のこうした3つの作業が円滑にできるようなマンマシ
ンを備えている必要がある。「監視」作業では、プラン
トの状態が即座にまた正確に把握できる必要がある。
「判断」時には、判断の材料,根拠となる情報を操作者
が素早く参照できなければならない。「操作」時には、
操作の対象,操作の結果が直感的にわかり、操作者の意
図する操作が正確かつ迅速に実行できるような操作環境
が不可欠である。
2. Description of the Related Art In order to safely operate a large-scale plant system represented by a nuclear power plant, an operation monitoring system having an appropriate man-machine is indispensable. The plant is operated and maintained by the operator's three tasks of “monitoring”, “decision” and “operation”. The operation monitoring system needs to be equipped with a man-machine to facilitate these three tasks of the operator. In the "monitoring" work, it is necessary to be able to grasp the state of the plant immediately and accurately.
At the time of "judgment", the operator must be able to quickly refer to the information and the information that is the basis for the judgment. At the time of "operation",
It is essential to have an operating environment in which the operation target and the result of the operation can be intuitively understood, and the operation intended by the operator can be executed accurately and quickly.

【0003】従来の運転監視システムのマンマシンを、
「監視」「判断」「操作」の各作業ごとに概観してみ
る。
The man-machine of the conventional operation monitoring system is
Let's take a look at each work of “monitoring”, “judgment” and “operation”.

【0004】(1)監視 プラント内の状態は、圧力や温度などを検知する各種の
センサからのデータと、プラントの各所に配置されたビ
デオカメラからの映像とを監視することによって把握で
きる。各種センサからの値は、グラフィックディスプレ
イなどに様々な形態で表示される。トレンドグラフやパ
ーグラフなども多く利用されている。一方、ビデオカメ
ラからの映像は、グラフィックディスプレイとは別な専
用のモニタに表示されることが多い。プラント内には4
0個以上のカメラが設置されることも少なくない。操作
者はカメラを切り替えたり、カメラの方向やレンズを制
御しながらプラント各所の監視を行う。通常の監視業務
では、カメラからの映像を操作者が見ることは滅多に無
く、カメラ映像の利用率は低いのが現状である。
(1) Monitoring The state inside the plant can be grasped by monitoring data from various sensors for detecting pressure and temperature and images from video cameras arranged at various places in the plant. Values from various sensors are displayed in various forms on a graphic display or the like. Trend graphs and pergraphs are also widely used. On the other hand, the image from the video camera is often displayed on a dedicated monitor different from the graphic display. 4 in the plant
It is not uncommon for zero or more cameras to be installed. The operator monitors the various parts of the plant while switching cameras and controlling the camera direction and lens. In normal surveillance work, the operator rarely sees the image from the camera, and at present the utilization rate of the camera image is low.

【0005】(2)判断 プラントに何か異常が発生したときには、操作者はセン
サやカメラから得られる多量の情報を総合的に調べて、
プラント内で何が起きているかを素早く的確に判断しな
ければならない。現状の運転監視システムでは、各種セ
ンサからのデータや、カメラからの映像が独立に管理さ
れているため、それらを関連づけながら参照するのが難
しく、操作者に大きな負担をかけている。
(2) Judgment When an abnormality occurs in the plant, the operator comprehensively examines a large amount of information obtained from the sensors and cameras,
You have to quickly and accurately determine what is happening in your plant. In the current operation monitoring system, since data from various sensors and images from cameras are managed independently, it is difficult to refer to them while associating them with each other, which puts a heavy burden on the operator.

【0006】(3)操作 操作は操作盤上のボタンやレバーを用いて行う。最近で
は、グラフィックディスプレイとタッチパネルを組み合
わせて、画面上に表示したメニューや図形を選択するこ
とによって、操作を行えるようなシステムも多くなって
きた。しかしながら、操作盤上のボタンやレバー、また
はディスプレイ上のメニューや図形といったものは、現
場の事物とは切り離された抽象的な形態であり、操作者
がそれらの機能や、操作の結果を想起するのが困難な場
合がある。すなわち、所望の操作がどのレバーを引けば
可能なのかがすぐわからなかったり、あるボタンを押す
とプラント内のどの機器にどんな操作指令が送られるの
かが直感的につかみにくいといった問題がある。また、
操作盤がカメラなどのモニタとは独立に構成されている
ため装置が大型化するという問題もある。
(3) Operation The operation is performed using the buttons and levers on the operation panel. Recently, there are many systems that can be operated by combining a graphic display and a touch panel and selecting menus and figures displayed on the screen. However, buttons and levers on the operation panel, menus and figures on the display are abstract forms that are separated from things on site, and the operator recalls their functions and the results of the operations. Can be difficult. That is, there is a problem that it is not immediately known which lever can be operated to perform a desired operation, and it is difficult to intuitively grasp what operation command is sent to which device in the plant when a certain button is pressed. Also,
Since the operation panel is configured independently of the monitor such as the camera, there is a problem that the device becomes large.

【0007】[0007]

【発明が解決しようとする課題】上述のように、従来技
術には下記の問題があった。
As described above, the prior art has the following problems.

【0008】(1)操作盤上のキー,ボタン,レバーに
よる遠隔操作や、画面上のメニューやアイコンを使った
遠隔操作では、現場の臨場感が伝わりにくいため、実際
の操作対象や操作結果を直感的につかみにくく、誤操作
する可能性が高い。
(1) Remote operation using keys, buttons, levers on the operation panel, or remote operation using menus or icons on the screen makes it difficult to convey the sense of presence in the field. It is difficult to grasp intuitively and there is a high possibility that it will be operated incorrectly.

【0009】(2)操作者が直接カメラの切り替や、遠
隔操作をしなければならず、多数のカメラを用いて監視
を行う場合、見たいところを映してくれるカメラを簡単
に選択できない。また、遠隔にあるカメラを操作して、
見たいところがよく見えるようにするのに手間がかか
る。
(2) The operator has to directly switch the camera or perform remote control, and when monitoring is performed using a large number of cameras, it is not possible to easily select the camera that shows the desired point. Also, by operating a remote camera,
It takes a lot of work to make the part you want to see well visible.

【0010】(3)ビデオカメラからの映像を映す画面
と、他のデータを参照する画面と、操作するための画面
または装置とが別になったり、全体の装置が大きくな
る、映像と他のデータとの相互参照がやりにくいなどの
問題がある。
(3) A screen for displaying an image from a video camera, a screen for referring to other data, and a screen or a device for operating are different from each other, or the entire device becomes large. There is a problem that it is difficult to cross-reference with.

【0011】(4)カメラ映像は臨場感を伝える効果は
高いが、情報量が多く、抽象化されていないため、操作
者がカメラ映像内の構造を直感的につかみにくいという
欠点がある。一方、グラフィックスによる表示は、重要
な部分を強調し、不必要な部分を簡略化し、本質的な部
分だけを抽象化して表示することができるが、実際の事
物や事象と切り離された表現となり、操作者がグラフィ
ック表現と実際の事物,事象との関係を容易に想起でき
なくなる恐れがある。
(4) Although the camera image has a high effect of transmitting a sense of realism, it has a drawback that the operator cannot intuitively grasp the structure in the camera image because it has a large amount of information and is not abstracted. On the other hand, the graphic display makes it possible to emphasize important parts, simplify unnecessary parts, and abstract only essential parts to display, but it is an expression separated from actual things and events. However, the operator may not be able to easily recall the relationship between the graphic representation and the actual thing or event.

【0012】(5)カメラからの映像情報と、他の情報
(例えば、圧力や温度などのデータ)とが全く独立に管理
されており、相互参照が簡単にできない。このため状況
の総合判断することが難しい。
(5) Video information from the camera and other information
(For example, data such as pressure and temperature) are managed independently of each other, and cross-reference cannot be easily performed. Therefore, it is difficult to judge the situation comprehensively.

【0013】本発明の目的は、前記従来技術の問題を解
決し、下記(1)から(6)の少なくとも一つを達成す
ることにある。
An object of the present invention is to solve the above problems of the prior art and achieve at least one of the following (1) to (6).

【0014】(1)遠隔運転監視システム等において、
運転員が操作の対象や操作結果を直感的に把握できるよ
うにすること。
(1) In a remote operation monitoring system, etc.,
To allow the operator to intuitively understand the operation target and operation result.

【0015】(2)カメラの選択や、カメラの遠隔操作
に煩わされることなく、監視したいところの映像を簡単
に見れるようにすること。
(2) To be able to easily see the image of the place to be monitored without being bothered by the selection of the camera and the remote operation of the camera.

【0016】(3)遠隔運転監視システムなどの小型
化,省スペース化を図ること。
(3) To reduce the size of the remote operation monitoring system and save space.

【0017】(4)カメラ映像とグラフィックスそれぞ
れの長所を生かし、短所を補うこと。
(4) To make use of the advantages of each of the camera image and graphics and to make up for the disadvantages.

【0018】(5)異種の情報を素早く相互参照できる
ようにすること。例えば、カメラ映像で現在監視してい
る部分の温度をすぐに参照できるようにすることなど。
(5) To be able to quickly refer to different types of information. For example, making it possible to immediately refer to the temperature of the part currently monitored by the camera image.

【0019】(6)上記目的を達成するようなマンマシ
ンを簡単に設計,開発できるようにすること。
(6) To easily design and develop a man-machine that achieves the above object.

【0020】[0020]

【課題を解決するための手段】本発明によれば前記目的
(1)〜(5)は下記ステップを有する方法によって解
決される。
According to the present invention, the above objects (1) to (5) are solved by a method having the following steps.

【0021】(1)オブジェクト指定ステップ 画面上に表示されたビデオ映像内の事物(以下では、オ
ブジェクトと呼ぶ)をポインティングデバイス(以下、
PDと呼ぶ)などの入力手段を使って指定する。ビデオ
映像は遠隔に置かれたビデオカメラから入力したり、蓄
積媒体(光ビデオディスク,ビデオテープレコーダ,計
算機のディスクなど)から再生したりする。ポインティ
ングデバイスとしては、例えばタッチパネル,タブレッ
ト,マウス,アイトラッカ,ジェスチャ入力装置などを
用いる。オブジェクトの指定前に、映像内の指定可能な
オブジェクトを、グラフィックスの合成表示により明示
してもよい。
(1) Object designation step An object in the video image displayed on the screen (hereinafter, referred to as an object) is a pointing device (hereinafter, referred to as an object).
It is specified using an input means such as (PD). Video images are input from a remotely placed video camera or played from a storage medium (optical video disc, video tape recorder, computer disc, etc.). As the pointing device, for example, a touch panel, tablet, mouse, eye tracker, gesture input device, or the like is used. Before designating the object, the specifiable object in the video may be clearly displayed by the composite display of graphics.

【0022】(2)処理実行ステップ 前記オブジェクト指定ステップによって指定されたオブ
ジェクトに基づいて処理を実行する。処理の内容には例
えば下記がある。
(2) Processing Execution Step Processing is executed based on the object designated by the object designation step. The contents of the processing are as follows, for example.

【0023】・指定されたオブジェクトを動作させるま
たは動作した場合と同様の結果になるような操作指令を
送る。例えば、指定されたオブジェクトがボタンである
場合、実際にそのボタンを押し下げるまたは、押し下げ
られた場合と同様の結果になるような操作指令を送る。
Sending an operation command that causes a specified object to move or results similar to when the specified object is operated. For example, when the designated object is a button, the button is actually pushed down, or an operation command that gives the same result as when the button is pushed down is sent.

【0024】・指定されたオブジェクトに基づいて映像
を切り替える。例えば、遠隔にあるカメラを操作して、
指定されたオブジェクトがもっとよく見えるようにす
る。カメラの向きを動かして、映像の中央に指定された
オブジェクトが映るようにしたり、レンズを制御して指
定されたオブジェクトが大きく映るようにする。他の例
では、指定されたオブジェクトを別な角度から捉えるカ
メラの映像に切り替えたり、指定されたオブジェクトに
関連するオブジェクトを映っているカメラ映像に切り替
えたりする。
Switching the video based on the specified object. For example, by operating a remote camera,
Makes the specified object look better. Move the camera so that the specified object appears in the center of the image, or control the lens so that the specified object appears larger. In another example, the image of the camera that captures the specified object from another angle is switched to, or the image of the camera that shows the object related to the specified object is switched to.

【0025】・指定されたオブジェクトが明示されるよ
うに、グラフィックスを映像上に合成表示する。
The graphics are composite-displayed on the video so that the designated object is clearly displayed.

【0026】・指定されたオブジェクトに関連する情報
を表示する。例えば、指定されたオブジェクトのマニュ
アル,メンテナンス情報,構造図などを表示する。
Display information related to the specified object. For example, the manual, maintenance information, structure diagram, etc. of the specified object are displayed.

【0027】・指定されたオブジェクトに関して実行可
能な処理の一覧をメニューで表示する。メニューを図形
で表現することもできる。すなわち、いくつかの図形を
映像上に合成表示し、合成表示された図形をPDで選択
し、選択された図形に基づいて次の処理を実行する。
Display a list of processes that can be executed on the specified object by using a menu. The menu can also be expressed graphically. That is, some figures are composite-displayed on the image, the composite-displayed figures are selected by the PD, and the next process is executed based on the selected figures.

【0028】また、本発明によれば前記目的(2)はテ
キストまたはグラフィックスを入力して探索キー指定す
る探索キー指定ステップと、前記探索キー指定ステップ
によって指定された探索キーに適合する事物が表示され
ているビデオ映像を表示する映像探索ステップを有する
方法によっても解決される。
Further, according to the present invention, the object (2) is to provide a search key designating step for designating a search key by inputting text or graphics, and a thing that matches the search key designated by the search key designating step. It is also solved by a method having a video search step of displaying the video video being displayed.

【0029】本発明によれば前記目的(6)は、ビデオ
カメラから入力された映像を表示する映像表示ステップ
と、前記映像表示ステップによって表示された映像上で
領域を指定する領域指定ステップと、領域指定ステップ
によって指定された領域に処理を定義する処理定義ステ
ップとを有する方法によって解決される。
According to the present invention, the object (6) is a video display step of displaying a video image input from a video camera, an area designating step of designating an area on the video displayed by the video display step, A process defining step of defining a process in the area specified by the area specifying step.

【0030】画面上のビデオ映像内のオブジェクトを直
接指定して、指定したオブジェクトに操作指令を送る。
操作者はオブジェクトの実写の映像を見ながら、操作指
示を行う。操作指示によって、オブジェクトに目に見え
るような動きがあれば、その動きはカメラ映像にそのま
ま反映される。このように、実写の映像に対して直接操
作を行うことによって、操作者は実際に現場で作業して
いる感覚で遠隔操作できる。これによって、操作者は操
作の対象や操作の結果を直感的に把握でき、誤操作を減
らすことができる。
An object in the video image on the screen is directly designated and an operation command is sent to the designated object.
The operator gives an operation instruction while looking at a video image of a real image of the object. If the operation instruction causes a visible movement of the object, the movement is directly reflected in the camera image. In this way, by directly operating the live-action image, the operator can perform remote operation as if he / she was actually working on site. As a result, the operator can intuitively understand the operation target and the operation result, and can reduce erroneous operations.

【0031】画面上で指定された映像内のオブジェクト
に基づいて、カメラを選択したり、カメラに操作指令を
送る。これによって、映像内のオブジェクトを指定する
だけで、そのオブジェクトを監視するのに最適な映像を
得ることができる。すなわち、操作者は見たいものを指
定するだけでよく、カメラを選択したり、カメラを遠隔
操作したりする必要がない。
A camera is selected or an operation command is sent to the camera based on the object in the image specified on the screen. This makes it possible to obtain the optimum image for monitoring the object by simply specifying the object in the image. That is, the operator only needs to specify what he / she wants to see, and does not need to select a camera or operate the camera remotely.

【0032】映像内のオブジェクトに直接操作を加える
際に、映像に適宜グラフィックスを合成表示する。例え
ば、ユーザがオブジェクトを指定したら、どのオブジェ
クトが指定されたのかを明示するようなグラフィックス
表示を行う。これによって、操作者は自分の意図する操
作が確実に行われていることを確認できる。また、指定
したオブジェクトに対して複数の処理を実行可能な場合
は、所望の処理を選択するためのメニューを表示する。
このメニューは、図形によって構成される場合もある。
メニューとして表示された図形を選択することにより、
操作者は実際にオブジェクトを操作しているという感覚
をより強く持つことができる。
When a direct operation is performed on an object in a video, graphics are appropriately displayed and synthesized on the video. For example, when the user specifies an object, a graphic display is performed so as to clearly indicate which object has been specified. As a result, the operator can confirm that the operation intended by the operator is being performed reliably. If a plurality of processes can be executed on the specified object, a menu for selecting a desired process is displayed.
This menu may be composed of figures.
By selecting the figure displayed as a menu,
The operator can have a stronger sense of actually operating the object.

【0033】画面上で指定された映像内のオブジェクト
に基づいて、情報を表示する。これによって、映像内の
オブジェクトに関連する情報を、オブジェクトを指定す
るだけで、参照することができる。映像と他の情報とを
同時に参照しながら、状況判断を下すことが容易にでき
る。
Information is displayed based on the object in the video image designated on the screen. With this, the information related to the object in the video can be referred to only by designating the object. The situation can be easily determined while referring to the video and other information at the same time.

【0034】テキストまたは図形を探索キーとして入力
し、前記入力した探索キーに適合する事物が映っている
映像を表示する。テキストは、キーボードなどの文字入
力装置,音声認識装置,手書き文字認識装置などから入
力する。また図形はPDを用いて入力するか、すでに何
らかの方法で作成された図形データを入力する。また、
映像内にあるテキストまたは図形を探索キーとして指定
してもよい。探索対象の映像がカメラ映像の場合は、探
索キーに基づいて、カメラを選択し、さらにカメラの向
きやレンズの制御を行い、探索キーが映るようにする。
探索キーに適合する事物が映っている映像にグラフィッ
クスを適宜合成することによって、探索キーに適合する
部分が映像内のどこにあるかを明示してもよい。このよ
うに、探索キーに基づいて映像を表示することにより、
操作者は見たいものを言葉や図形で示すだけで、見たい
映像を得ることができる。
Text or a figure is input as a search key, and an image showing an object matching the input search key is displayed. Text is input from a character input device such as a keyboard, a voice recognition device, a handwritten character recognition device, or the like. The figure is input using the PD, or the figure data already created by some method is input. Also,
A text or graphic in the video may be designated as the search key. When the image to be searched is a camera image, the camera is selected based on the search key, the direction of the camera and the lens are controlled, and the search key is displayed.
It is also possible to clearly show where in the video the portion matching the search key is, by appropriately synthesizing the graphics with the video showing the object matching the search key. In this way, by displaying the image based on the search key,
The operator can obtain the desired image by simply showing what he wants to see with words or figures.

【0035】映像を表示し、前記映像上で領域を指定
し、前記指定した領域に対して処理を定義することによ
って、映像内の事物が指定されたときに実行すべき処理
の内容を定義する。これによって、映像内の事物を直接
操作するようなマンマシンを作成できる。
By displaying an image, designating a region on the image, and defining a process for the designated region, the contents of the process to be executed when an object in the image is designated are defined. . This makes it possible to create a man-machine that directly manipulates things in the video.

【0036】[0036]

【発明の実施の形態】本発明の一実施例であるプラント
運転監視システムを図1から図24までを用いて説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION A plant operation monitoring system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 24.

【0037】本実施例の全体構成を図1を用いて説明す
る。図1において、10はグラフィックスや映像を表示
する表示手段となるディスプレイ、12はディスプレイ
10の全面に取付けられた入力手段となる感圧タッチパ
ネル、14は音声を出力するためのスピーカ、20は操
作者がプラントの監視、および運転操作を行うためのマ
ンマシンを提供するマンマシンサーバ、30は複数の映
像入力および複数の音声入力から一つの映像入力および
音声入力を選択するためのスイッチャ、50はプラント
内の機器を制御したり、センサからのデータを収拾する
制御用計算機、52は制御用計算機50と、マンマシン
サーバ20やその他の端末,計算機類とを接続する情報
系ローカルエリアネットワーク(以下LANと称す)
(例えばIEEE802.3 で規定されるようなLAN)、54
は制御用計算機50と、制御対象である各種機器、およ
び各種センサとを接続する制御系LAN(例えばIEEE80
2.4で規定されるようなLAN)、60,70,80は
プラント内の各所に置かれ、被制御物となるオブジェク
トを撮像し、入力するための産業用ビデオカメラ(以下
単にカメラと呼ぶ)、62,72,82は、制御用計算
機50からの指令に従って、それぞれカメラ60,7
0,80の向きやレンズを制御するためのコントロー
ラ、64,74,84は、それぞれカメラ60,70,
80に取付けられたマイク、90,92はプラント各部
の状態を知るための各種センサ、94,96は制御用計
算機50の指令に従って、プラント内の各種の機器を制
御するアクチュエータである。
The overall structure of this embodiment will be described with reference to FIG. In FIG. 1, 10 is a display serving as display means for displaying graphics and images, 12 is a pressure-sensitive touch panel serving as input means mounted on the entire surface of the display 10, 14 is a speaker for outputting voice, and 20 is an operation. A man-machine server that provides a man-machine for a person to monitor and operate the plant, a switcher 30 for selecting one video input and a voice input from a plurality of video inputs and a plurality of voice inputs, and 50 A control computer that controls equipment in the plant and collects data from sensors, 52 is an information system local area network that connects the control computer 50 to the man-machine server 20, other terminals, and computers (hereinafter Referred to as LAN)
(Eg LAN as defined by IEEE802.3), 54
Is a control system LAN (for example, IEEE802.0) that connects the control computer 50 with various devices to be controlled and various sensors.
LAN (as specified in 2.4), 60, 70, 80 are placed in various places in the plant, and an industrial video camera (hereinafter simply referred to as camera) for capturing and inputting an object to be controlled, 62, 72, and 82 are cameras 60 and 7 in accordance with commands from the control computer 50, respectively.
Controllers for controlling the directions of 0 and 80 and lenses, 64, 74 and 84 are cameras 60, 70 and
Microphones attached to 80, 90 and 92 are various sensors for knowing the state of each part of the plant, and 94 and 96 are actuators that control various devices in the plant in accordance with commands from the control computer 50.

【0038】感圧タッチパネル12はPDの一種であ
る。タッチパネル12上の任意の位置を指で押すと、押
された位置座標と、押された圧力をマンマシンサーバに
報告する。タッチパネル12はディスプレイ10の全面
に取付けられる。タッチパネル12は透明で、タッチパ
ネル12の後ろにあるディスプレイ10の表示内容を見
ることができる。これにより、操作者はディスプレイ1
0上に表示されたオブジェクトを指で触る感覚で指定す
ることができる。本実施例では、タッチパネル12の操
作として、(1)軽く押す、(2)強く押す、(3)ド
ラッグするの3種類を用いる。ドラッグするとは、タッ
チパネル12を指で押したまま指を動かすことをいう。
本実施例ではPDとして感圧タッチパネルを用いたが、
他のデバイスを用いてもよい。例えば、感圧でないタッ
チパネル,タブレット,マウス,ライトペン,アイトラ
ッカ,ジェスチャ入力装置,キーボードなどを用いても
よい。
The pressure-sensitive touch panel 12 is a type of PD. When an arbitrary position on the touch panel 12 is pressed with a finger, the coordinates of the pressed position and the pressed pressure are reported to the man-machine server. The touch panel 12 is attached to the entire surface of the display 10. The touch panel 12 is transparent, and the display content of the display 10 behind the touch panel 12 can be seen. This allows the operator to display 1
It is possible to specify by touching the object displayed on 0 with a finger. In this embodiment, as the operation of the touch panel 12, three types of (1) lightly pressing, (2) strongly pressing, and (3) dragging are used. To drag means to move the finger while pressing the touch panel 12 with the finger.
Although a pressure sensitive touch panel is used as the PD in this embodiment,
Other devices may be used. For example, a non-pressure-sensitive touch panel, tablet, mouse, light pen, eye tracker, gesture input device, keyboard, etc. may be used.

【0039】カメラ60,70,80で撮影されている
複数の映像は、スイッチャ30で一つに選択されマンマ
シンサーバ20を介してディスプレイ10上に表示され
る。マンマシンサーバ20はRS232Cなどの通信ポートを
介してスイッチャ30を制御し、所望のカメラからの映
像を選択する。本実施例では、映像を選択すると、同時
にマイク64,74,84などからの入力音声も選択さ
れる。すなわち、カメラを選択すると、選択されたカメ
ラに付随するマイクからの入力に音声も切り替わる。マ
イクから入力された音声はスピーカ14から出力され
る。もちろん、マイクとカメラからの入力を独立に切り
替えることもできる。マンマシンサーバ20はカメラか
らの映像にグラフィックスを合成することができる。ま
た、マンマシンサーバ20は情報系LAN52を介して
制御用計算機に操作指令を送りカメラの向きやレンズの
制御を指定する。このカメラの向きやレンズの制御をカ
メラワークと呼ぶことにする。
A plurality of images photographed by the cameras 60, 70, 80 are selected by the switcher 30 and displayed on the display 10 via the man-machine server 20. The man-machine server 20 controls the switcher 30 via a communication port such as RS232C to select an image from a desired camera. In this embodiment, when video is selected, input audio from the microphones 64, 74, 84 and the like are also selected at the same time. That is, when the camera is selected, the sound is also switched to the input from the microphone attached to the selected camera. The voice input from the microphone is output from the speaker 14. Of course, you can also switch the input from the microphone and camera independently. The man-machine server 20 can combine graphics with the image from the camera. The man-machine server 20 also sends an operation command to the control computer via the information system LAN 52 to specify the orientation of the camera and the control of the lens. This camera orientation and lens control will be referred to as camera work.

【0040】さらに、マンマシンサーバは、操作者の指
令に従って、制御用計算機50を介して、センサ90,
92などからデータを入力したり、アクチュエータ9
4,96などを遠隔操作する。マンマシンサーバ20
は、アクチュエータに操作指令を送ることによって、プ
ラント内の各種機器の動きや機能を制御する。
Further, the man-machine server, in accordance with the instruction of the operator, through the control computer 50, the sensor 90,
Input data from 92, etc.
Remotely operate 4, 96, etc. Man-machine server 20
Controls the movements and functions of various equipment in the plant by sending operation commands to the actuator.

【0041】図2を用いてマンマシンサーバの構成を説
明する。図2において、300はCPU、310はメイ
ンメモリ、320はディスク、330はPD、タッチパ
ネル12,スイッチャ30などを接続するためのI/
O、340はCPU300によって生成された表示データを格
納するグラフィックス用フレームバッファ、360は入
力されたアナログの映像情報をデジタル化するデジタイ
ザ、370はデジタイザ360の出力であるデジタル化
された映像情報を記憶するビデオ用フレームバッファ、
380はグラフィック用フレームバッファ340とビデ
オ用フレームバッファの内容を合成してディスプレイ1
0に表示するブレンド回路である。
The configuration of the man-machine server will be described with reference to FIG. In FIG. 2, 300 is a CPU, 310 is a main memory, 320 is a disk, 330 is a PD, an I / I for connecting the touch panel 12, the switcher 30, and the like.
O, 340 is a graphics frame buffer that stores the display data generated by the CPU 300, 360 is a digitizer that digitizes the input analog video information, and 370 is the digitized video information that is the output of the digitizer 360. Frame buffer for video to store,
380 is a display 1 that combines the contents of the graphic frame buffer 340 and the video frame buffer.
It is a blend circuit displayed at 0.

【0042】カメラから入力した映像情報はマンマシン
サーバ20で生成したグラフィックスと合成した後、デ
ィスプレイ10に表示する。グラフィック用フレームバ
ッファ340にはディスプレイ10上の各画素に対応し
て、R,G,B各色のデータと、α値と呼ばれるデータ
を持つ。α値は、ビデオ用フレームバッファ370内の
映像情報と、グラフィック用フレームバッファ340内
のグラフィック表示データとの合成の仕方をディスプレ
イ10の各画素ごとに指定する。ブレント回路380の
機能は、 d=f(g,v,α) で表せる。ただし、gとαはそれぞれグラフィック用フ
レームバッファ340内の一つの画素の色情報とα値で
あり、vはビデオ用フレームバッファ370内のgに対
応する画素の色情報、dはgとvとを合成した結果の画
素の色情報である。本システムでは関数fとしては下式
を用いる。
The video information input from the camera is displayed on the display 10 after being combined with the graphics generated by the man-machine server 20. The graphic frame buffer 340 has data of R, G, and B colors and data called α value corresponding to each pixel on the display 10. The α value specifies, for each pixel of the display 10, how to combine the image information in the video frame buffer 370 and the graphic display data in the graphic frame buffer 340. The function of the Brent circuit 380 can be expressed by d = f (g, v, α). Here, g and α are color information and an α value of one pixel in the graphic frame buffer 340, v is color information of a pixel corresponding to g in the video frame buffer 370, and d is g and v. Is the color information of the pixel as a result of combining. In this system, the following formula is used as the function f.

【0043】 f(g,v,α)=255{αg+(1−α)v} もちろん、関数fとして他のものを用いてもよい。[0043] f (g, v, α) = 255 {αg + (1-α) v} Of course, another function may be used as the function f.

【0044】グラフィック用フレームバッファ340は
いわゆるダブルバッファと呼ばれる構成になっている。
ダブルバッファは、2画面分のバッファをもち、ディス
プレイ10に表示するバッファを随時選択できる。ディ
スプレイ10に表示されている方のバッファを表バッフ
ァ、表示されていない方のバッファを裏バッファと呼ぶ
ことにする。表バッファと裏バッファとの切り替えは瞬
時にできる。裏バッファにグラフィックスを描画し、描
画が終了した時点で裏バッファを表バッファに切り替え
ることにより描画時のちらつきをすくなくできる。どち
らのバッファの内容もCPUから随時読み出したり書き
出したりできる。
The graphic frame buffer 340 has a so-called double buffer structure.
The double buffer has a buffer for two screens, and the buffer to be displayed on the display 10 can be selected at any time. The buffer displayed on the display 10 is called a front buffer, and the buffer not displayed is called a back buffer. Switching between the front and back buffers can be done instantly. Flickering at the time of drawing can be eliminated by drawing graphics in the back buffer and switching the back buffer to the front buffer when the drawing is completed. The contents of either buffer can be read or written from the CPU at any time.

【0045】図3にディスプレイ10の表示画面構成の
一例を示す。図3において、100はディスプレイ10
の表示画面、110はシステム全体に関するコマンドを
指定するためのメニュー領域、150はセンサからのデ
ータや、プラントに関する様々な資料やデータを表示す
るためのデータ表示領域、130はプラント全体や、各
部分の構成図,構造図,設計図面などを表示する画面表
示領域、200はカメラから入力された映像を表示する
映像表示領域である。
FIG. 3 shows an example of the display screen structure of the display 10. In FIG. 3, 100 is a display 10.
Display screen, 110 is a menu area for designating commands relating to the entire system, 150 is a data display area for displaying data from sensors and various materials and data relating to the plant, 130 is the entire plant and each part. Is a screen display area for displaying a configuration diagram, a structural drawing, a design drawing, etc., and 200 is a video display area for displaying a video image input from the camera.

【0046】図4は図面表示領域130の表示形態の一
例である。図4において、132はセンサのある位置を
明示するコマンドを発行するためのメニュー、134は
操作者が指定した図面上の一つのオブジェクトである。
操作者が画面表示領域130に表示された図面内のオブ
ジェクトを選択すると、そのオブジェクトに関連するセ
ンサからの情報がデータ表示領域150または映像表示
領域200上に表示される。例えば、指定したオブジェ
クトに関連するセンサとして、カメラが定義されている
と、そのカメラから入力された映像が映像表示領域20
0に表示される。また、例えば、指定されたオブジェク
トに関連するセンサとして油圧センサが定義されている
場合には、現在の油圧値を明示するグラフィックスや、
これまでの油圧値の変化を示すトレンドグラフがデータ
表示領域150に表示される。タッチパネル12上を指
で強く押すと、押した位置に表示されている図面上のオ
ブジェクトが指定される。指定したオブジェクトに関連
するセンサが定義されていない場合は何も起こらない。
図4ではオブジェクト134の表示位置を指で強く押し
たところを示している。オブジェクトは指で押される
と、オブジェクトが指定されたことを操作者が確認でき
るように強調表示される。図4に示す例では、オブジェ
クト134にはオブジェクト134を映すカメラ60
と、オブジェクト134の周囲の音を入力するためのマ
イク64が、関連するセンサとして定義されており、オ
ブジェクト134が指定されると、映像表示領域200
にオブジェクト134を映す映像が表示され、スピーカ
14からはオブジェクト134の周囲の音が出力され
る。
FIG. 4 shows an example of the display form of the drawing display area 130. In FIG. 4, 132 is a menu for issuing a command that clearly indicates the position of the sensor, and 134 is one object on the drawing designated by the operator.
When the operator selects an object in the drawing displayed on the screen display area 130, information from the sensor related to the object is displayed on the data display area 150 or the video display area 200. For example, if a camera is defined as a sensor associated with the specified object, the image input from the camera is displayed in the image display area 20.
Displayed at 0. Also, for example, when a hydraulic pressure sensor is defined as a sensor related to the specified object, graphics that clearly indicate the current hydraulic pressure value,
A trend graph showing the change of the hydraulic pressure value so far is displayed in the data display area 150. When the finger is strongly pressed on the touch panel 12, the object on the drawing displayed at the pressed position is designated. Nothing happens if the sensor associated with the specified object is not defined.
In FIG. 4, the display position of the object 134 is strongly pressed with a finger. When the object is pressed with a finger, it is highlighted so that the operator can confirm that the object has been designated. In the example shown in FIG. 4, a camera 60 that reflects the object 134 is displayed on the object 134.
And a microphone 64 for inputting a sound around the object 134 is defined as an associated sensor, and when the object 134 is designated, the image display area 200 is displayed.
An image showing the object 134 is displayed on the screen, and the sound around the object 134 is output from the speaker 14.

【0047】図5に、オブジェクト134が図面表示領
域130上で指定されたときの映像表示領域200の一
表示形態と、プラント内に配置されたオブジェクト13
4との対応関係を示す。図5において、202〜210
は、現在表示されている映像を撮影しているカメラのカ
メラワークを設定するためのメニュー、220は映像内
の指定可能なオブジェクトを明示するためのメニューで
ある。202はカメラの向きを設定するためのメニュー
である。メニュー202を選択することにより、カメラ
を左右にパンさせたり、上下にパンさせたりできる。2
04はカメラのレンズを制御して映像をズームインする
ためのメニュー、206はカメラのレンズを制御して映
像をズームアウトするためのメニュー、208はカメラ
ワークを一つ前のカメラワークに設定しなおすためのメ
ニュー、210は最初のカメラワークに設定しなおすた
めのメニューである。
FIG. 5 shows a display form of the image display area 200 when the object 134 is designated on the drawing display area 130 and the objects 13 arranged in the plant.
4 shows the correspondence relationship with 4. In FIG. 5, 202 to 210
Is a menu for setting the camerawork of the camera that is currently shooting the video, and 220 is a menu for clearly designating the object that can be designated in the video. 202 is a menu for setting the orientation of the camera. By selecting the menu 202, the camera can be panned left and right or up and down. Two
Reference numeral 04 denotes a menu for controlling the lens of the camera to zoom in the image, 206 denotes a menu for controlling the lens of the camera to zoom out the image, and 208 denotes resetting the camera work to the previous camera work. , 210 is a menu for resetting to the first camera work.

【0048】400〜424はオブジェクト134に付
随する。または周辺にある各種オブジェクトである。4
00はバルブ、410,420は、オブジェクト134
上に書かれた文字表示、412は電圧を示すメータ、4
14は電源を入れるためのボタン、416は電源を切る
ためのボタン、422は油圧を示すメータ、424は油
圧を調節するスライダのつまみである。バルブ400,
ボタン414,416、つまみ424は実際に手で操作
することのできる操作器であるとともに、マンマシンサ
ーバ20から操作指令を出すことによって遠隔操作もで
きる操作器である。
400 to 424 are attached to the object 134. Or various objects in the vicinity. Four
00 is a valve, and 410 and 420 are objects 134.
The above-mentioned character display, 412 is a voltage meter, 4
Reference numeral 14 is a button for turning on the power, 416 is a button for turning off the power, 422 is a meter showing the hydraulic pressure, and 424 is a slider knob for adjusting the hydraulic pressure. Valve 400,
The buttons 414, 416 and the knob 424 are not only an operating device that can be actually operated by hand, but also an operating device that can be remotely operated by issuing an operation command from the man-machine server 20.

【0049】映像表示領域200内を操作者が指で軽く
押すと、指の位置に表示されているオブジェクトが見や
すくなる様にカメラワークが設定される。図6は、映像
表示領域200で、メータ412に指で軽く触ると、メ
ータ412が映像の真ん中にくるようにカメラワークが
設定される様子を示している。図6左図のようにメータ
412が操作者に指定されると、メータ412が映像の
中央に映るようにカメラ60の向きが設定され、さらに
メータ412がズームインされるようにカメラ60のレ
ンズが制御され、映像が図6右図に示すように変化す
る。操作者は単に画面上でオブジェクトに触れるだけ
で、そのオブジェクトがよりはっきり見えるようなカメ
ラワークを設定でき、カメラの遠隔操作に煩わされるこ
とがない。図6において、502はメータ412が指定
されたことを明示するためのグラフィックエコーであ
る。グラフィックエコー502は操作者がタッチパネル
12から指をはなすと消去される。このように、カメラ
映像上にグラフィックの表示を合成することにより、マ
ンマシンを改善できる。
When the operator lightly presses the inside of the image display area 200 with the finger, the camera work is set so that the object displayed at the position of the finger can be easily seen. FIG. 6 shows how the camera work is set so that the meter 412 is in the middle of the image when the meter 412 is lightly touched with the finger in the image display area 200. When the meter 412 is designated by the operator as shown in the left diagram of FIG. 6, the orientation of the camera 60 is set so that the meter 412 appears in the center of the image, and the lens of the camera 60 is moved so that the meter 412 zooms in. It is controlled and the image changes as shown in the right figure of FIG. By simply touching the object on the screen, the operator can set the camera work so that the object can be seen more clearly, and the remote operation of the camera is not bothered. In FIG. 6, reference numeral 502 is a graphic echo for clearly indicating that the meter 412 has been designated. The graphic echo 502 is erased when the operator removes the finger from the touch panel 12. In this way, the man-machine can be improved by synthesizing the graphic display on the camera image.

【0050】図7は、映像表示領域200は、バルブ4
00に指で軽く触ると、バルブ400が映像の真ん中にく
るようにカメラワークが設定される様子を示している。
図7左図のようにバルブ400が操作者に指定される
と、図6右図に示すようにバルブ400が中央に大きく
映るような映像に変化する。図7において、504はバ
ルブ400が指定されたことを明示するためのグラフィ
ックエコーである。グラフィックエコー504は操作者
がタッチパネル12から指をはなすと消去される。他の
オブジェクト410,414,416,420,42
2,424に関しても同様の操作が可能である。
In FIG. 7, the image display area 200 includes a valve 4
When 00 is lightly touched with a finger, the camera work is set so that the valve 400 is located at the center of the image.
When the valve 400 is designated by the operator as shown in the left diagram of FIG. 7, the image changes to a large image in the center of the valve 400 as shown in the right diagram of FIG. In FIG. 7, reference numeral 504 is a graphic echo for clearly indicating that the valve 400 has been designated. The graphic echo 504 is erased when the operator releases the finger from the touch panel 12. Other objects 410, 414, 416, 420, 42
The same operation can be performed for 2,424.

【0051】映像表示領域200内を操作者が指で強く
押すと、指の位置に表示されているオブジェクトを操作
できる。図8〜図10にオブジェクトを操作する例を示
す。図8はボタン414を操作する例を示している。映
像表示領域200上で、ボタン414が表示されている
位置を指で強く押すと、マンマシンサーバ20から制御
用計算機50を介して、遠隔にあるボタン414を操作
するアクチュエータに、ボタン414を押し下げるとい
う操作指令が送られ、遠隔の現場にあるボタン414が
実際に押し下げられる。ボタン414が押し下げられ、
その結果としてメータ412の針がふれる様子はカメラ
60によって映像表示領域200に映しだされる。これ
によって、操作者は画面上で実際にボタンを押し下げた
かのような感覚を得る。
When the operator strongly presses the inside of the image display area 200 with the finger, the object displayed at the position of the finger can be operated. 8 to 10 show examples of operating an object. FIG. 8 shows an example of operating the button 414. When the position where the button 414 is displayed on the image display area 200 is strongly pressed with a finger, the button 414 is pushed down from the man-machine server 20 to the actuator for operating the button 414 remote via the control computer 50. Is sent, and the button 414 at the remote site is actually pushed down. Button 414 is depressed,
As a result, how the needle of the meter 412 touches is displayed on the image display area 200 by the camera 60. As a result, the operator feels as if he or she actually pressed the button on the screen.

【0052】図9はタッチパネル12上での指のドラッ
グによってスライダのつまみ424を操作する例を示し
ている。映像表示領域200上で、ボタン414が表示
されている位置を強く指で押しながら指を横に動かす
と、映像に映しだされているつまみ424も指の動きに
合わせて動く。つまみ424が動いた結果、メータ422
の針も動く。このとき、マンマシンサーバ20は、指が
動く度に、制御用計算機50を介してつまみ424を制
御するアクチュエータに指令を出し、指の動きにあわせ
てつまみ424を実際に動かす。これによって、操作者
は自分の指でつまみ424を実際に動かしているような
感覚を得る。
FIG. 9 shows an example of operating the slider knob 424 by dragging a finger on the touch panel 12. On the image display area 200, when the position where the button 414 is displayed is strongly pressed with the finger and the finger is moved sideways, the knob 424 displayed in the image also moves in accordance with the movement of the finger. As a result of the movement of the knob 424, the meter 422
The needle also moves. At this time, the man-machine server 20 issues a command to the actuator for controlling the knob 424 via the control computer 50 each time the finger moves, and actually moves the knob 424 in accordance with the movement of the finger. As a result, the operator feels as if he / she is actually moving the knob 424 with his / her finger.

【0053】図10は、オブジェクトに対して複数の操
作が可能な場合に、映像上に合成表示した図形を選択す
ることによって、所望の操作を選択する例を示す。図1
0において、510,520は、操作者がバルブ400
の表示位置を指で強く押したときに映像に合成表示され
る図形である。操作者が図形510を強く押すと、マン
マシンサーバ20は、制御用計算機50を介して、アク
チュエータに操作指令を出し、バルブ400を左に回転
させる。逆に、図形512を強く指で押すと、マンマシ
ンサーバはバルブ400を右に回転させる操作指令をア
クチュエータに送る。バルブ400の回転する様子はカ
メラ60によって撮影される映像表示領域200に映し
だされる。バルブ400の回転に合わせて、図形51
0,512の表示を回転させてもよい。
FIG. 10 shows an example in which, when a plurality of operations can be performed on an object, a desired operation is selected by selecting a graphic that is compositely displayed on the image. Figure 1
At 0, 510 and 520 are valves 400 and
When the display position of is strongly pressed with a finger, it is a figure composited and displayed on the image. When the operator strongly presses the graphic 510, the man-machine server 20 issues an operation command to the actuator via the control computer 50 to rotate the valve 400 to the left. On the contrary, when the figure 512 is strongly pressed with a finger, the man-machine server sends an operation command for rotating the valve 400 to the right to the actuator. The rotation of the valve 400 is displayed in the image display area 200 captured by the camera 60. Along with the rotation of the valve 400, the graphic 51
The display of 0, 512 may be rotated.

【0054】図11に操作可能なオブジェクト明示する
方法を示す。映像に映っている事物すべてが操作可能と
は限らないので、操作可能なオブジェクトを明示する手
段が必要になる。図11において、514〜524は、
それぞれオブジェクト400,412,414,41
6,422,424が操作可能なことを明示するために
表示されたグラフィックスである。本実施例の場合は、
オブジェクトの外挿矩形を表示している。もちろん、オ
ブジェクトの明示には、もっと実物に近いグラフィック
スを表示するなど、他の様々な表示方法が考えられる。
FIG. 11 shows a method of specifying an operable object. Since not all objects shown in the image can be operated, a means for clearly indicating operable objects is required. In FIG. 11, 514 to 524 are
Objects 400, 412, 414, 41 respectively
6, 422 and 424 are graphics displayed to clearly show that they are operable. In the case of this embodiment,
The extrapolation rectangle of the object is displayed. Of course, various other display methods such as displaying more realistic graphics can be considered for the explicit display of the object.

【0055】図12は、テキストを入力して、そのテキ
ストが表示されている映像を探索する例を示す。図12
において、530は映像に合成表示されたグラフィック
ス、600はテキスト探索を実行するための探索シー
ト、610は探索キーによって適合する別の映像を探索
するための次メニュー、620は探索を終了することを
指定するための終了メニュー、630は探索メニューに
入力するためのテキスト入力領域である。メニュー領域
110で探索を指定するメニューを選択すると、探索シ
ート600が表示画面100上に表示される。テキスト
入力領域630にキーボードから探索キーとなるテキス
トを入力し、リターンキーを押すと、探索が開始され
る。マンマシンサーバは探索キーを含むような事物を映
せるカメラを探索し、探索したカメラを探索キーがはっ
きり見えるようなカメラワークに設定し、探索したカメ
ラからの映像を映像表示領域200に表示する。映像内
の探索キーに適合する部分にはグラフィックス530を
合成表示して、探索キーに適合する部分を明示する。テ
キストを探索キーとした映像探索によって、操作者は言
葉によって、監視したい事物を映しだすことができる。
この方法では、カメラを切り替えたり、カメラの遠隔操
作をすることがなく、すばやく監視対象をみつけること
ができる。本実施例ではテキストの入力にキーボードを
用いているが、音声認識装置や手書き文字認識装置など
他の入力手段を用いてもよい。また、本実施例では、探
索キーとしてテキストを用いたが、探索キーとして図形
を用い、探索キーの図形と適合するような図形が表示さ
れているような映像を探索するようにしてもよい。
FIG. 12 shows an example of inputting text and searching for a video in which the text is displayed. 12
, 530 is a graphic displayed on the image, 600 is a search sheet for executing a text search, 610 is a next menu for searching for another image matched by the search key, and 620 is the end of the search. An end menu for designating ".", And 630 is a text input area for inputting to the search menu. When a menu designating a search is selected in the menu area 110, the search sheet 600 is displayed on the display screen 100. When a text serving as a search key is input to the text input area 630 from the keyboard and the return key is pressed, the search is started. The man-machine server searches for a camera that can project an object including the search key, sets the searched camera in camera work so that the search key is clearly visible, and displays the image from the searched camera in the video display area 200. Graphics 530 are composite-displayed on the part that matches the search key in the video to clearly indicate the part that matches the search key. The video search using the text as the search key allows the operator to reflect the desired object by words.
With this method, it is possible to quickly find the monitoring target without switching the cameras or operating the cameras remotely. Although the keyboard is used for inputting text in this embodiment, other input means such as a voice recognition device or a handwritten character recognition device may be used. Further, in the present embodiment, the text is used as the search key, but a graphic may be used as the search key to search for an image in which a graphic that matches the graphic of the search key is displayed.

【0056】本実施例の実現方法を図13から図24を
用いて説明する。本実施例の主たる機能は、映像内のオ
ブジェクトを指定して、そのオブジエクトに基づいた動
作を実行する機能にある。この機能を実現するプログラ
ムの流れ図を図17に示す。映像表示領域200上でタ
ッチパネル12が押されると、その押された位置(操作
者がタッチパネルなどのPDを使って指定した画面上の
位置をイベント位置と呼ぶことにする)に映っているオ
ブジェクトを同定する(ステップ1000)。オブジェ
クトが同定できた場合(イベント位置にオブジェクトが
存在する場合)(ステップ1010)、そのオブジェク
トに対応して定義されている動作を実行する(ステップ
1020)。
A method for realizing this embodiment will be described with reference to FIGS. 13 to 24. The main function of this embodiment is to specify an object in a video and execute an operation based on the object. FIG. 17 shows a flow chart of a program that realizes this function. When the touch panel 12 is pressed on the video display area 200, the object displayed at the pressed position (the position on the screen designated by the operator using the PD such as the touch panel is called an event position) is displayed. Identify (step 1000). When the object can be identified (when the object exists at the event position) (step 1010), the operation defined corresponding to the object is executed (step 1020).

【0057】イベント位置に映っているオブジェクト
は、撮影対象のモデルとカメラ情報とを参照して同定す
る。撮影対象のモデルは、撮影対象となっているオブジ
ェクトの形状や、位置に関するデータである。カメラ情
報は、撮影対象のオブジェクトをカメラがどのように撮
影しているか、すなわちカメラの位置,姿勢,画角,向
きなどのデータである。
The object shown at the event position is identified by referring to the model of the object to be photographed and the camera information. The model to be photographed is data on the shape and position of the object to be photographed. The camera information is data on how the camera is shooting the object to be shot, that is, the position, orientation, angle of view, orientation, etc. of the camera.

【0058】撮影対象のモデル化の方法には様々なもの
が考えられる。本実施例では、(1)3次元モデル,
(2)2次元モデルの2つのモデルを併用する。前記2
つのモデルの概要と、長所,短所を下記にまとめる。
Various methods are conceivable for modeling the object to be photographed. In this embodiment, (1) three-dimensional model,
(2) Two two-dimensional models are used together. 2 above
Below is a summary of the two models and their advantages and disadvantages.

【0059】(1)3次元モデル 撮影対象の形状や位置を3次元座標系で定義したモデ
ル、長所は任意のカメラワークに対応してオブジェクト
を同定できる点。すなわち、カメラを自由に操作しなが
らオブジェクトを操作できる。短所は、モデルを3次元
空間で定義しなければならないため、モデルの作成及び
オブジェクトの同定処理が2Dモデルに比べて複雑にな
る点。ただし、最近では、プラントの設計や、プラント
内の装置の設計,配置にCADを利用する場合も多く、
それらのデータを流用すれば3次元モデルの作成を容易
にできる。
(1) Three-dimensional model A model in which the shape and position of the object to be photographed are defined in a three-dimensional coordinate system, and the advantage is that the object can be identified in correspondence with any camera work. That is, the object can be operated while freely operating the camera. The disadvantage is that since the model has to be defined in a three-dimensional space, the process of creating the model and identifying the object is more complicated than the 2D model. However, recently, CAD is often used for designing plants and designing and arranging devices in the plant.
Utilizing these data makes it easy to create a three-dimensional model.

【0060】(2)2次元モデル 特定のカメラワークごとに、2次元座標系(ディスプレ
イ平面)でオブジェクトの形状や位置を定義するモデ
ル。長所はモデルの作成が容易な点。画面上で図形を描
く要領でモデルを定義できる。短所は、あらかじめモデ
ルを定義してあるカメラワークの映像に対してしか操作
できない点。カメラ操作の自由度を上げるには、より多
くのカメラワークごとに、対応する平面上でオブジェク
トの形状や位置を定義する必要がある。多くの運転監視
システムでは、あらかじめ監視する場所が何ヶ所かに決
っている場合が多い。その場合には、カメラワークも何
種類かに決まるため、2次元モデルの短所は問題になら
ない。
(2) Two-dimensional model A model that defines the shape and position of an object in a two-dimensional coordinate system (display plane) for each specific camera work. The advantage is that it is easy to create a model. You can define a model by drawing a figure on the screen. The disadvantage is that you can only operate on camerawork images for which a model has been defined in advance. In order to increase the degree of freedom in camera operation, it is necessary to define the shape and position of an object on the corresponding plane for each more camera work. In many operation monitoring systems, there are many cases where the places to be monitored are decided beforehand. In that case, the number of camera works is determined, so that the disadvantage of the two-dimensional model does not matter.

【0061】3次元モデルに基づいてオブジェクトを同
定する方法を図13から図16を用いて説明する。図5
に示したカメラ60の撮影対象を、3次元直交座標系x
yz(世界座標系と呼ぶ)でモデル化した例を図13に
示す。ここでは、各オブジェクトの形状を平面,直方
体,円筒などでモデル化している。もちろん、球や四面
体などより多くの種類の3次元基本形状を用いてもよ
い。また、基本形状の組み合せだけでなくより精密な形
状モデルを用いてもよい。操作対象となるオブジェクト
400,410,412,414,416,420,4
22,424は、モデル上ではそれぞれ平面800,8
10,812,814,816,820,822,82
4としてモデル化されている。
A method of identifying an object based on a three-dimensional model will be described with reference to FIGS. 13 to 16. Figure 5
The object to be photographed by the camera 60 shown in FIG.
FIG. 13 shows an example of modeling with yz (called the world coordinate system). Here, the shape of each object is modeled by a plane, a rectangular parallelepiped, a cylinder, or the like. Of course, more kinds of three-dimensional basic shapes such as a sphere and a tetrahedron may be used. Further, not only a combination of basic shapes but also a more precise shape model may be used. Objects to be operated 400, 410, 412, 414, 416, 420, 4
22 and 424 are planes 800 and 8 on the model, respectively.
10,812,814,816,820,822,82
It is modeled as 4.

【0062】図14を用いて、カメラによって撮影され
た映像と、3次元モデルとの対応関係を説明する。カメ
ラによる撮影は、3次元空間内に配置されたオブジェク
トを2次元平面(映像表示領域200)に投影する操作
である。すなわち、映像表示領域200に表示された映
像は、3次元空間内に配置されたオブジェクトを2次元
平面に透視投影したものである。画面上にとられた2次
元直交座標系XsYsを画面座標系と呼ぶことにする
と、カメラによる撮影は、世界座標系上の一点(x,
y,z)を画面座標系上の一点(Xs,Ys)へ写像す
る数(1)として定式化できる。
Correspondence between the image captured by the camera and the three-dimensional model will be described with reference to FIG. Imaging by a camera is an operation of projecting an object arranged in a three-dimensional space onto a two-dimensional plane (image display area 200). That is, the image displayed in the image display area 200 is a perspective projection of an object arranged in a three-dimensional space onto a two-dimensional plane. When the two-dimensional orthogonal coordinate system XsYs taken on the screen is called the screen coordinate system, the image taken by the camera is one point (x,
It is possible to formulate y, z) as a number (1) that maps one point (Xs, Ys) on the screen coordinate system.

【0063】[0063]

【数1】 [Equation 1]

【0064】数(1)における行列Tをビュー変換行列
と呼ぶ。ビュー変換行列Tの各要素は、カメラ情報(カ
メラの位置,姿勢,向き,画角)および映像表示領域2
00の大きさが与えられれば一意に決定される。カメラ
情報は世界座標系で与える。図14において、カメラの
位置はレンズの中心Oeの座標、カメラの姿勢はベクト
ルOeYe、カメラの向きはベクトルOeZe、に対応
する。
The matrix T in equation (1) is called a view transformation matrix. Each element of the view conversion matrix T includes camera information (camera position, posture, orientation, angle of view) and video display area 2
Given a size of 00, it is uniquely determined. Camera information is given in the world coordinate system. In FIG. 14, the position of the camera corresponds to the coordinates of the center Oe of the lens, the orientation of the camera corresponds to the vector OeYe, and the orientation of the camera corresponds to the vector OeZe.

【0065】オブジェクトの同定処理は画面座標系上の
一点Pが指定されたときに、世界座標系上のどの点が画
面座標系上の点Pに投影されたのかを決定する処理であ
る。図15に示すように、カメラのレンズの中心Ocと
画面座標系上の点Pとを結んだ直線の延長線上にある点
は、全て点Pに投影される。その直線上の点の内、カメ
ラによって実際に映像表示領域200上に投影される点
は、レンズの中心Oeに最も近いオブジェクト1と直線
との交点である。図15においては、オブジェクト1と
直線840との交点P1が、カメラによって、映像表示
領域200上の一点Pに投影される。すなわち、イベン
ト位置がPであるとすると、オブジェクト1が同定され
ることになる。
The object identifying process is a process for determining which point on the world coordinate system is projected onto the point P on the screen coordinate system when one point P on the screen coordinate system is designated. As shown in FIG. 15, all points on the extended line of the straight line connecting the center Oc of the camera lens and the point P on the screen coordinate system are projected onto the point P. Among the points on the straight line, the point actually projected on the image display area 200 by the camera is the intersection of the straight line with the object 1 closest to the center Oe of the lens. In FIG. 15, an intersection point P1 between the object 1 and the straight line 840 is projected by the camera onto a point P on the image display area 200. That is, assuming that the event position is P, the object 1 will be identified.

【0066】カメラ情報からビュー変換行列Tを求める
技術や、ビュー変換行列Tに基づいて世界座標系で定義
されたモデルを画面座標系に透視投影して表示する技術
はグラフィックス分野ではよく知られた技術である。ま
た、透視投影に当り、カメラに近いオブジェクトの面を
画面に投影し、他のオブジェクトによってカメラから隠
されている面を画面に投影しない処理は、陰面除去(hi
ddensurfaceelimination)または可視面決定(Visible
−Surface Determination)と呼ばれ、すでに多くのア
ルゴリズムが開発されている。これらの技術は、例え
ば、Foley.vanDam.Feiner.Hughes著、"Computer Graphi
cs Principles andPractice”Addison Wesley発行(19
90)や、Newman.Sproull著、“Principlesof Interact
ive Computer Graphics”、McGraw−Hill発行(197
3)などに詳しく解説されている。また、多くのいわゆ
るグラフィックワークステーションでは、カメラ情報か
らビュー変換行列の設定,透視投影,陰面除去などのグ
ラフィック機能がハードウエアやソフトウエアによって
あらかじめ組み込まれており、それらを高速に処理する
ことができる。
Techniques for obtaining a view transformation matrix T from camera information and techniques for perspectively displaying a model defined in the world coordinate system on the screen coordinate system based on the view transformation matrix T and displaying it are well known in the field of graphics. Technology. In perspective projection, the process of projecting the surface of the object close to the camera onto the screen and not projecting the surface hidden from the camera by other objects onto the screen is called hidden surface removal (hi
ddensurfaceelimination) or visible surface determination (Visible
-Surface Determination), many algorithms have already been developed. These techniques are described, for example, in Foley.vanDam.Feiner.Hughes, "Computer Graphi.
Published by cs Principles and Practice ”Addison Wesley (19
90), and Newman.Sproull, “Principles of Interact.
ive Computer Graphics ”, published by McGraw-Hill (197
It is explained in detail in 3). Also, in many so-called graphic workstations, graphic functions such as view conversion matrix setting from camera information, perspective projection, and hidden surface removal are pre-installed by hardware and software, and these can be processed at high speed. .

【0067】本実施例ではこれらのグラフィック機能を
利用してオブジェクトの同定処理を行う。3次元モデル
において、操作の対象となるオブジェクトの面をあらか
じめ色分けし、色によってその面がどのオブジェクトに
属するのかを識別できるようにしておく。例えば、図1
3において、平面800,810,812,814,8
16,820,822,824にそれぞれ別な色を設定
しておく。オブジェクトごとに設定された色をID色と
呼ぶことにする。このID色付3次元モデルを用いた同
定処理の手順を図16に示す。まず、現在のカメラ情報
を問い合わせ(ステップ1300)、問い合わせたカメ
ラ情報に基づいてビュー変換行列を設定する(ステップ
1310)。マンマシンサーバ20では常に現在のカメ
ラの状態を管理しておき、カメラ情報の問い合わせがあ
ると、現在のカメラ状態に応じてカメラ情報を返す。も
ちろん、現在のカメラ状態をカメラ制御用コントローラ
で管理するようにしてもよい。ステップ1320では、
ステップ1310で設定されたビュー変換行列に基づい
て、色分けしたモデルをグラフィック用フレームバッフ
ァ340の裏バッファに描画する。この描画では透視投
影および陰面除去処理が行われる。裏バッファに描画す
るため、描画した結果はディスプレイ10には表示され
ない。描画が終了したら、イベント位置に対応する裏バ
ッファの画素値を読み出す(ステップ1330)。画素
値は、イベント位置に投影されたオブジェクトのID色
になっている。ID色はオブジェクトと一対一に対応し
ており、オブジェクトを同定できる。
In the present embodiment, these graphic functions are used to perform object identification processing. In the three-dimensional model, the surface of the object to be operated is color-coded in advance, and it is possible to identify which object the surface belongs to by the color. For example, in FIG.
3, planes 800, 810, 812, 814, 8
Different colors are set to 16, 820, 822 and 824 respectively. The color set for each object will be called an ID color. FIG. 16 shows the procedure of the identification processing using this ID-colored three-dimensional model. First, the current camera information is inquired (step 1300), and the view conversion matrix is set based on the inquired camera information (step 1310). The man-machine server 20 always manages the current camera state, and when a camera information inquiry is made, camera information is returned according to the current camera state. Of course, the current camera state may be managed by the camera control controller. In step 1320,
Based on the view conversion matrix set in step 1310, the color-coded model is drawn in the back buffer of the graphic frame buffer 340. In this drawing, perspective projection and hidden surface removal processing are performed. Since the drawing is performed in the back buffer, the drawn result is not displayed on the display 10. When the drawing is completed, the pixel value of the back buffer corresponding to the event position is read (step 1330). The pixel value is the ID color of the object projected at the event position. The ID color has a one-to-one correspondence with the object, and the object can be identified.

【0068】図18から図24を用いて、2次元モデル
に基づいてオブジェクトを同定する方法を説明する。2
次元モデルでは、世界座標系から画面座標系に投影され
た後のオブジェクトの位置や形状を定義する。カメラの
向きや画角が変れば、画面座標系に投影されたオブジェ
クトの位置や形状が変化する。従って、2次元モデルで
は、個々のカメラワークごとに、オブジェクトの形状や
位置のデータを持つ必要がある。本実施例では、オブジ
ェクトを矩形領域でモデル化する。すなわち、あるカメ
ラワークにおけるオブジェクトは、画面座標系における
矩形領域の位置と大きさによって表現される。もちろ
ん、他の図形(例えば、多角形や自由曲線など)を用い
てモデル化してもよい。
A method of identifying an object based on a two-dimensional model will be described with reference to FIGS. 18 to 24. Two
The dimensional model defines the position and shape of the object after being projected from the world coordinate system to the screen coordinate system. When the orientation and the angle of view of the camera change, the position and shape of the object projected on the screen coordinate system change. Therefore, in the two-dimensional model, it is necessary to have data on the shape and position of the object for each camera work. In this embodiment, the object is modeled by a rectangular area. That is, an object in a camerawork is represented by the position and size of the rectangular area in the screen coordinate system. Of course, you may model by using other figures (for example, a polygon or a free curve).

【0069】図18,図19,図20にカメラワークと
2次元モデルとの対応関係を示す。各図の左図に、個々
のカメラワークに対する映像表示領域200の表示形態
を示す。また、各図の右図に個々のカメラワークに対応
するオブジェクトの2次元モデルを示す。図18左図に
おいて、映像上のオブジェクト410,412,414,
416,420,422,424は、右図の2次元モデ
ルではそれぞれ矩形領域710,712,714,71
6,720,722,724として表現される。一つの
カメラワークに対応して、オブジェクトをモデル化した
矩形の集まりを領域フレームと呼ぶ。カメラワーク1に
対応する領域フレーム1は矩形領域710,712,71
4,716,720,722,724から構成される。
図19,図20に異なるカメラワークに対する領域フレ
ームの例を示す。図19において、カメラワーク2に対
応する領域フレーム2は、矩形領域740,742,74
6,748から構成される。矩形領域740,742,
746,748はそれぞれオブジェクト412,41
6,424,422に対応する。同様に、図20におい
て、カメラワーク3に対応する領域フレーム3は、矩形
領域730から構成される。矩形領域730はオブジェ
クト400に対応する。同じオブジェクトでも、カメラ
ワークが異なれば、別な矩形領域に対応する。例えば、
オブジェクト416は、カメラワーク1の時には、矩形
領域716に対応し、カメラワーク2の時には742に
対応する。
FIG. 18, FIG. 19 and FIG. 20 show the correspondence between the camerawork and the two-dimensional model. The left view of each drawing shows the display form of the image display area 200 for each camera work. In addition, the right diagram of each figure shows a two-dimensional model of an object corresponding to each camera work. In the left diagram of FIG. 18, objects 410, 412, 414 and 414 on the image
Numerals 416, 420, 422, and 424 are rectangular areas 710, 712, 714, and 71 in the two-dimensional model shown on the right.
6,720,722,724. Corresponding to one camera work, a set of rectangles modeling an object is called an area frame. The area frame 1 corresponding to the camerawork 1 is rectangular areas 710, 712, 71.
4, 716, 720, 722, 724.
19 and 20 show examples of area frames for different camera works. In FIG. 19, the area frame 2 corresponding to the camera work 2 is a rectangular area 740, 742, 74.
It is composed of 6,748. Rectangular areas 740, 742
746 and 748 are objects 412 and 41, respectively.
6, 424, 422. Similarly, in FIG. 20, the area frame 3 corresponding to the camera work 3 is composed of a rectangular area 730. The rectangular area 730 corresponds to the object 400. Even the same object corresponds to another rectangular area if the camera work is different. For example,
The object 416 corresponds to the rectangular area 716 in the case of camerawork 1 and corresponds to 742 in the case of camerawork 2.

【0070】図22,図23,図24に2次元モデルの
データ構造を示す。図22において、1300は各カメ
ラに対応するデータを格納するカメラデータテーブルで
ある。カメラデータテーブル1300には、映像内の事
物に対して操作が可能なカメラワークのデータと、個々
のカメラワークに対応する領域フレームのデータが格納
される。
The data structure of the two-dimensional model is shown in FIGS. 22, 23 and 24. In FIG. 22, reference numeral 1300 is a camera data table that stores data corresponding to each camera. The camera data table 1300 stores data of camera work that can be operated on an object in a video and data of a region frame corresponding to each camera work.

【0071】図23において、1320はカメラワーク
のデータである。カメラワークのデータは、カメラの水
平方向の向きである水平角,カメラの垂直方向の向きで
ある垂直角,ズームの度合を表す画角からなる。ここで
は、カメラの姿勢や、カメラの位置は固定であることを
想定している。カメラの姿勢や、カメラの位置を遠隔操
作できる場合は、それらを制御するためのデータもカメ
ラワークデータ1320に追加すればよい。カメラワークデ
ータ1320は、カメラをあらかじめ定義したカメラワ
ークに設定するために使われる。すなわち、マンマシン
サーバ20はカメラワークデータをカメラ制御用コント
ローラに送り、カメラを遠隔操作する。カメラワークデ
ータ1320はオブジェクトの同定処理に直接必要な訳
ではない。
In FIG. 23, 1320 is camerawork data. The camerawork data includes a horizontal angle that is the horizontal direction of the camera, a vertical angle that is the vertical direction of the camera, and an angle of view that indicates the degree of zooming. Here, it is assumed that the posture of the camera and the position of the camera are fixed. When the posture of the camera and the position of the camera can be remotely controlled, data for controlling them can be added to the camera work data 1320. The camerawork data 1320 is used to set the camera to a predefined camerawork. That is, the man-machine server 20 sends the camera work data to the camera control controller to remotely operate the camera. The camerawork data 1320 is not directly necessary for the object identification process.

【0072】図24に領域フレームのデータ構造を示
す。領域フレームデータは、領域フレームを構成する領
域の個数と、各矩形領域に関するデータからなる。領域
データには、画面座標系における矩形領域の位置(x,
y),矩形領域の大きさ(w,h),オブジェクトの活
性状態,動作,付加情報からなる。オブジェクトの活性
状態は、オブジェクトが活性か不活性かを示すデータで
ある。オブジェクトが不活性状態にあるときには、その
オブジェクトは同定されない。活性状態にあるオブジェ
クトだけが同定される。動作には、イベント/動作対応
テーブル1340へのポインタが格納される。イベント
/動作対応テーブル1340には、オブジェクトがPD
によって指定された時に、実行すべき動作が、イベント
と対になって格納される。ここで、イベントとは、PD
の操作種別を指定するものである。例えば、感圧タッチ
パネル12を強く押した場合と、軽く押した場合ではイ
ベントが異なる。イベントが発生すると、イベント位置
にあるオブジェクトが同定され、そのオブジェクトに定
義してあるイベント/動作対の内、発生したイベントと
適合するイベントと対になっている動作が実行される。
領域フレームの付加情報には、矩形領域としてだけでは
表しきれない、オブジェクトの付加的な情報1350へ
のポインタが格納される。付加情報には様々なものがあ
る。例えば、オブジェクトに描かれテキスト,色,オブ
ジェクトの名前,関連情報(例えば、装置のマニュア
ル,メンテナンス情報,設計データなど)がある。これ
によって、オブジェクトに描かれたテキストに基づい
て、オブジェクトを検索したり、指定されたオブジェク
トの関連情報を表示したりできる。
FIG. 24 shows the data structure of the area frame. The area frame data is composed of the number of areas forming the area frame and data on each rectangular area. The area data includes the position of the rectangular area in the screen coordinate system (x,
y), the size of the rectangular area (w, h), the active state of the object, the action, and additional information. The active state of an object is data indicating whether the object is active or inactive. When an object is inactive, it is not identified. Only active objects are identified. A pointer to the event / motion correspondence table 1340 is stored in the motion. In the event / action correspondence table 1340, the object is PD
The action to be performed when specified by is stored in pairs with the event. Here, the event is PD
The operation type is designated. For example, the event is different when the pressure-sensitive touch panel 12 is strongly pressed and when it is lightly pressed. When an event occurs, the object at the event location is identified and the action paired with the event / action pair defined in the object that matches the event that occurred occurs.
The additional information of the area frame stores a pointer to additional information 1350 of the object that cannot be represented only by the rectangular area. There are various types of additional information. For example, there is a text drawn on an object, a color, an object name, and related information (for example, a device manual, maintenance information, design data, etc.). This allows the object to be searched for based on the text drawn on the object and the related information of the specified object to be displayed.

【0073】図21に、2次元モデルを使ってオブジェ
クトを同定する手順を示す。まず、現在のカメラワーク
に対応する複数フレームをカメラデータテーブル130
0から検索する(ステップ1200)。次に領域フレー
ムを構成する領域のなかから、イベント位置を含む領域
を検索する。すなわち、複数フレームデータに格納され
ている各領域の位置と大きさのデータと、イベント位置
とを比較し(ステップ1220)、イベント位置にある
領域が見つかったらその番号を上位の処理系に返す。上
位の処理系は、見つかった複数が活性状態か否かを調
べ、活性状態だったら、イベントに対応して定義されて
いる動作を実行する。ステップ1220は、イベント位
置を含む領域が見つかるか、領域フレーム内の全領域を
調べ終るまで繰り返される(ステップ1210)。
FIG. 21 shows a procedure for identifying an object using a two-dimensional model. First, a plurality of frames corresponding to the current camera work are stored in the camera data table 130.
Search from 0 (step 1200). Next, the area including the event position is searched from the areas forming the area frame. That is, the position and size data of each area stored in the plurality of frame data is compared with the event position (step 1220), and when the area at the event position is found, the number is returned to the upper processing system. The upper processing system checks whether or not the found plurality is in the active state, and if it is in the active state, executes the operation defined corresponding to the event. Step 1220 is repeated until either a region containing the event location is found or all regions in the region frame have been examined (step 1210).

【0074】2次元モデルは2次元モデル定義ツールを
使って定義する。2次元モデル定義ツールは下記機能か
らなる。
The two-dimensional model is defined using a two-dimensional model definition tool. The two-dimensional model definition tool has the following functions.

【0075】(1)カメラ選択機能 プラント内に配置してある任意のカメラを選択し、その
カメラからの映像を画面に表示する機能。カメラの選択
方法として、下記がある。
(1) Camera selection function A function of selecting an arbitrary camera arranged in the plant and displaying an image from the camera on the screen. There are the following methods for selecting the camera.

【0076】・画面上に表示されたプラントの配置図上
でオブジェクトを指定することにより、そのオブジェク
トを映すカメラを指定する。
By designating an object on the layout plan of the plant displayed on the screen, the camera that projects the object is designated.

【0077】・画面上に表示されたプラントの配置図上
でカメラの配置されている場所を指定する。
Designate the location of the camera on the plant layout displayed on the screen.

【0078】・カメラの番号や名前などの識別子を指定
する。
Specify an identifier such as a camera number or name.

【0079】(2)カメラワーク設定機能 前記カメラ選択機能によって、選択されたカメラを遠隔
操作して、カメラの向きや画角を設定する機能。
(2) Camera work setting function A function of remotely controlling the camera selected by the camera selection function to set the orientation and angle of view of the camera.

【0080】(3)図形作画機能 画面上に表示された映像上で、図形を作画する機能。作
画は、矩形,円,折れ線,自由曲線などの基本図形要素
を組み合わせて描く。本機能によって、オブジェクトの
映像を下敷にして、オブジェクトの概形を描く。
(3) Graphic drawing function A function of drawing a graphic on the image displayed on the screen. Drawing is done by combining basic graphic elements such as rectangles, circles, polygonal lines, and free-form curves. With this function, the image of the object is used as the underlay and the outline of the object is drawn.

【0081】(4)イベント/動作対定義機能 図形作画機能で描いた少なくとも一つの図形を指定し
て、それに対してイベント/動作の対を定義する機能。
イベントは、メニューを選択するか、イベント名をテキ
ストとして入力するかして定義する。動作はあらかじめ
定義された動作をメニューから選択するか、記述言語用
いて記述する。こうした記述言語としては例えば、情報
処理学会論文誌,第30巻,第9号,1200ページか
ら1210ページに記載の「メタユーザインタフェース
を有するユーザインタフェース構築支援システム」に書
かれている記述言語UIDLを用いる。
(4) Event / action pair definition function A function of designating at least one figure drawn by the figure drawing function and defining an event / action pair for it.
The event is defined by selecting a menu or entering the event name as text. The operation is described by selecting a predefined operation from a menu or using a description language. As such a description language, for example, the description language UIDL described in “User Interface Construction Support System with Meta User Interface” described in IPSJ Journal, Volume 30, No. 9, pages 1200 to 1210. To use.

【0082】前記2次元モデル定義ツールでは下記手順
により2次元モデルを作成する。
The two-dimensional model definition tool creates a two-dimensional model by the following procedure.

【0083】手順1:カメラおよびカメラワークの指定 前記(1)カメラ選択機能を用いて、カメラを選択し、
画面上にその映像を表示する。次に前記(2)カメラワ
ーク設定機能を用いて、カメラワークを設定し、所望の
場所の映像を得る。
Step 1: Designation of camera and camera work (1) Select a camera using the camera selection function,
Display the image on the screen. Next, using the camera work setting function (2), camera work is set and an image of a desired place is obtained.

【0084】手順2:オブジェクトの概形を定義 手順1で表示した映像内の事物の中でオブジェクトとし
て定義したいオブジェクトの概形を前記(2)図形作画
機能を用いて作画する。
Procedure 2: Defining the outline of the object The outline of the object to be defined as an object in the object in the image displayed in the procedure 1 is drawn by using the (2) graphic drawing function.

【0085】手順3:イベントと動作の対を定義 前記(4)イベント/動作対定義機能を用いて、手順2
で作画した少なくとも一つの図形を選択して、イベント
と動作の対を定義する。
Procedure 3: Define event / action pair Use procedure (4) Event / action pair definition function to perform procedure 2
Select at least one figure drawn in, and define a pair of event and action.

【0086】手順4:定義内容の保存 必要に応じて定義内容を保存する。定義内容は図22,
図23,図24に示したデータ構造を保存される。他の
カメラや、他のカメラワークに対して2次元モデルを作
成したいときは、手順1から手順4までを繰り返す。
Step 4: Saving Definition Contents Save definition contents as required. Definition contents are shown in Figure 22,
The data structure shown in FIGS. 23 and 24 is saved. When it is desired to create a two-dimensional model for another camera or another camera work, steps 1 to 4 are repeated.

【0087】オブジェクトのモデルを持つことによっ
て、あるオブジェクトが映像内のどこにどのように表示
されているかがわかる。これによって、オブジェクトに
関連する情報を映像内のオブジェクトの位置や形状に基
づいてグラフィックスを表示したり、オブジェクトの映
像を検索したりできる。下記に、例を挙げる。
By having a model of an object, it is possible to know where and how an object is displayed in the image. As a result, it is possible to display information related to the object on the basis of the position and shape of the object in the image, and to search the image of the object. An example is given below.

【0088】・オブジェクトの名前,機能,操作マニュ
アル,メンテナンス方法などをオブジェクトの上、また
は付近に合成表示する。例えば、あるコマンドを発行す
ると映像に映っている各機能の名前を表示するなど。
The object name, function, operation manual, maintenance method, etc. are compositely displayed on or near the object. For example, issuing a command will display the name of each function shown in the video.

【0089】・グラフィックスで作成したオブジェクト
を実際にカメラで映されているかのように実写の映像に
合成表示する。
An object created by graphics is synthesized and displayed on a live-action image as if it were actually viewed by a camera.

【0090】・オブジェクトの付加情報を入力されたキ
ーワードに基づいて検索し、該当するオブジェクトを映
すようにカメラとカメラワークを設定する。
Searching the additional information of the object based on the input keyword, and setting the camera and camera work so as to reflect the corresponding object.

【0091】・カメラでは映すことのできないオブジェ
クト内部の構造を、映像内のオブジェクトに合成表示す
る。例えば、配管内の水流の様子を他のセンサから得ら
れたデータに基づいてシミュレーションし、その結果を
実写の映像に映っている配管の上に合成表示する。同様
に、ボイラの中の火炎の様子(例えば、センサから得ら
れた情報に基づいて作成された温度分布図)を表すグラ
ファックスを映像内のボイラに合成表示する。
The internal structure of the object that cannot be displayed by the camera is displayed in a composite manner on the object in the video. For example, the state of the water flow in the pipe is simulated based on the data obtained from other sensors, and the result is synthetically displayed on the pipe shown in the live-action image. Similarly, a Grafax representing the state of the flame in the boiler (for example, a temperature distribution map created based on the information obtained from the sensor) is compositely displayed on the boiler in the image.

【0092】・現在注目すべきオブジェクトを、グラフ
ィックスにより明示する。例えば、センサによって異常
が検知されたと映像内のオブジェクトにグラフィックス
を合成表示する。また、トレンドグラフに表示されてい
るデータに関連する映像内のオブジェクトにグラフィッ
クスを合成して、データと映像内のオブジェクトの関連
がすぐわかるようにする。
The object of interest at present is specified by graphics. For example, when an anomaly is detected by the sensor, graphics are composited and displayed on the object in the image. Also, graphics are combined with the object in the image related to the data displayed in the trend graph so that the relationship between the data and the object in the image can be immediately understood.

【0093】[0093]

【発明の効果】本発明の効果は、下記(1)から(6)
の少なくとも一つを達成することである。
The effects of the present invention are as follows (1) to (6)
To achieve at least one of.

【0094】(1)遠隔運転監視システムなどにおい
て、運転員が操作の対象や操作結果を直感的に把握でき
るようになり、誤操作が減る。
(1) In a remote operation monitoring system or the like, the operator can intuitively understand the operation target and the operation result, and the erroneous operation is reduced.

【0095】(2)カメラの選択や、カメラの遠隔操作
に煩わされることなく、監視したいところの映像を簡単
に見ることができる。
(2) It is possible to easily see the image to be monitored without being bothered by camera selection and remote operation of the camera.

【0096】(3)監視用映像上で操作を行うことがで
きる。このため、監視モニタと操作盤とを分ける必要が
なくなり、遠隔運転監視システムの小型化,省スペース
化を図ることができる。
(3) Operations can be performed on the surveillance image. Therefore, it is not necessary to separate the monitoring monitor and the operation panel, and the remote operation monitoring system can be downsized and the space can be saved.

【0097】(4)カメラ映像にグラフィックスを合成
表示することにより、それぞれの長所を生かし、短所を
補うことができる。すなわち、現場の臨場感を伝えなが
ら、重要な部分を強調することができる。
(4) By synthesizing and displaying graphics on the camera image, it is possible to make the best use of the respective advantages and to supplement the disadvantages. In other words, it is possible to emphasize important parts while conveying the realism of the scene.

【0098】(5)異種の情報を素早く相互参照できる
表示。例えば、カメラ映像で現在監視している部分を指
定するだけで、その部分に関連するセンサの値を示すト
レンドグラフを表示させることができる。これにより、
現場の状況を総合的に判断できるようになる。
(5) A display for quickly referencing different kinds of information. For example, it is possible to display a trend graph showing the values of the sensors related to the portion by simply specifying the portion currently monitored by the camera image. This allows
You will be able to comprehensively judge the situation at the site.

【0099】(6)映像に対して直接操作を加えるよう
にマンマシンを簡単に設計,開発できるようになる。
(6) It becomes possible to easily design and develop a man-machine so as to directly operate an image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるプラント運転監視システムの全体
構成である。
FIG. 1 is an overall configuration of a plant operation monitoring system according to the present invention.

【図2】マンマシンサーバのハードウエア構成である。FIG. 2 is a hardware configuration of a man-machine server.

【図3】本発明によるプラント運転監視システムの画面
構成例である。
FIG. 3 is a screen configuration example of a plant operation monitoring system according to the present invention.

【図4】図面表示領域の画面表示形態である。FIG. 4 is a screen display form of a drawing display area.

【図5】映像表示領域の画面表示形態と現場との対応を
示す図である。
FIG. 5 is a diagram showing a correspondence between a screen display form of a video display area and a site.

【図6】オブジェクト指定によるカメラワーク設定の一
例を示す図である。
FIG. 6 is a diagram showing an example of camerawork setting by object designation.

【図7】オブジェクト指定によるカメラワーク設定の一
例を示す図である。
FIG. 7 is a diagram showing an example of camera work setting by object designation.

【図8】オブジェクト指定によるボタン操作の一例を示
す図である。
FIG. 8 is a diagram showing an example of a button operation by specifying an object.

【図9】オブジェクト指定によるスライダ操作の一例を
示す図である。
FIG. 9 is a diagram showing an example of a slider operation by designating an object.

【図10】図形選択による操作の一例を示す図である。FIG. 10 is a diagram showing an example of an operation by graphic selection.

【図11】操作可能オブジェクトの明示例を示す図であ
る。
FIG. 11 is a diagram showing an explicit example of operable objects.

【図12】探索キーによる映像探索の例を示す図であ
る。
FIG. 12 is a diagram showing an example of video search using a search key.

【図13】3次元モデルの例を示す図である。FIG. 13 is a diagram showing an example of a three-dimensional model.

【図14】3次元モデルと画面上の映像との関係を示す
図である。
FIG. 14 is a diagram showing a relationship between a three-dimensional model and an image on a screen.

【図15】画面上の点とオブジェクトとの関係を示す図
である。
FIG. 15 is a diagram showing a relationship between points on the screen and objects.

【図16】3次元モデルを用いたオブジェクト同定処理
の手順を示す図である。
FIG. 16 is a diagram showing a procedure of object identification processing using a three-dimensional model.

【図17】実施例の実現方法の手順を示す図である。FIG. 17 is a diagram showing a procedure of an implementation method of the embodiment.

【図18】2次元モデルとカメラワークとの関係を示す
図である。
FIG. 18 is a diagram showing a relationship between a two-dimensional model and camera work.

【図19】2次元モデルとカメラワークとの関係を示す
別な図である。
FIG. 19 is another diagram showing a relationship between a two-dimensional model and camera work.

【図20】2次元モデルとカメラワークとの関係を示す
さらに別な図である。
FIG. 20 is another diagram showing the relationship between a two-dimensional model and camera work.

【図21】2次元モデルを用いたオブジェクト同定処理
の手順を示す図である。
FIG. 21 is a diagram showing a procedure of object identification processing using a two-dimensional model.

【図22】カメラデータテーブルの構造を示す図であ
る。
FIG. 22 is a diagram showing the structure of a camera data table.

【図23】カメラワークデータの構造を示す図である。FIG. 23 is a diagram showing a structure of camera work data.

【図24】領域フレームのデータ構造を示す図である。FIG. 24 is a diagram showing a data structure of a region frame.

【符号の説明】[Explanation of symbols]

10…ディスプレイ、12…感圧タッチパネル、14…
スピーカ、20…マンマシンサーバ、30…スイッチ
ャ、40…キーボード、50…制御用計算機、60…ビ
デオカメラ、62…カメラ制御用コントローラ、64…
マイク、90,92…センサ、94,96…アクチュエ
ータ、100…表示画面、130…図面表示領域、15
0…データ表示領域、200…映像表示領域、600…
テキスト探索シート。
10 ... Display, 12 ... Pressure sensitive touch panel, 14 ...
Speakers, 20 ... Man-machine server, 30 ... Switcher, 40 ... Keyboard, 50 ... Control computer, 60 ... Video camera, 62 ... Camera control controller, 64 ...
Microphone, 90, 92 ... Sensor, 94, 96 ... Actuator, 100 ... Display screen, 130 ... Drawing display area, 15
0 ... data display area, 200 ... video display area, 600 ...
Text search sheet.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 谷越 浩一郎 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 二川 正康 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 谷藤 真也 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 西川 敦彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 Fターム(参考) 5E501 AC02 BA03 CA03 CB05 EA13 FA14 FA37 FA42 FA46 FB25 FB28 FB44 5H223 AA01 AA03 CC03 DD09 EE08 FF03 5K048 AA04 BA22 BA23 EB02 EB15 FB05 HA01 HA21    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Koichiro Tanikoshi             4026 Kujimachi, Hitachi City, Ibaraki Japan             Tachi Works Hitachi Research Laboratory (72) Inventor Masayasu Futagawa             4026 Kujimachi, Hitachi City, Ibaraki Japan             Tachi Works Hitachi Research Laboratory (72) Inventor Shinya Tanifuji             4026 Kujimachi, Hitachi City, Ibaraki Japan             Tachi Works Hitachi Research Laboratory (72) Inventor Atsuhiko Nishikawa             5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture             Ceremony company Hitachi Ltd. Omika factory F term (reference) 5E501 AC02 BA03 CA03 CB05 EA13                       FA14 FA37 FA42 FA46 FB25                       FB28 FB44                 5H223 AA01 AA03 CC03 DD09 EE08                       FF03                 5K048 AA04 BA22 BA23 EB02 EB15                       FB05 HA01 HA21

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】カメラにより撮影中の実写映像をディスプ
レイに表示する機能を有する情報処理装置であって、 前記実写映像に映っている事物の形状情報を、前記事物
のディスプレイ上の表示位置と対応させて記憶する形状
情報記憶手段と、 前記ディスプレイに表示されている実写映像内の位置を
指定する位置指定手段と、 前記位置指定手段によって位置が指定されたとき、前記
形状情報記憶手段に記憶された情報に基づき、実写映像
内のどの事物が指定されたか判定する事物同定手段とを
有することを特徴とする情報処理装置。
1. An information processing apparatus having a function of displaying, on a display, a live-action image being captured by a camera, wherein shape information of an object shown in the real-image is displayed on a display position of the object. Shape information storage means for correspondingly storing, position designating means for designating a position in the photographed image displayed on the display, and when the position is designated by the position designating means, stored in the shape information storage means An information processing apparatus, comprising: an object identifying means for determining which object in a live-action image is designated based on the obtained information.
【請求項2】請求項1において、さらに前記事物同定手
段によって事物が同定されたとき、前記同定された事物
に対応する処理を実行する処理実行手段を有することを
特徴とする情報処理装置。
2. The information processing apparatus according to claim 1, further comprising processing execution means for executing processing corresponding to the identified thing when the thing is identified by the thing identifying means.
【請求項3】請求項2において、前記処理実行手段が前
記同定された事物に対応する形状情報に基づいてグラフ
ィックスを前記事物の実写映像に重畳表示するグラフィ
ックス表示手段を有することを特徴とする情報処理装
置。
3. The method according to claim 2, wherein the processing execution means has a graphics display means for superimposing and displaying graphics on a real image of the object based on shape information corresponding to the identified object. Information processing device.
【請求項4】請求項1,2及び3のいずれかにおいて、 前記形状情報記憶手段が、事物の形状情報を矩形,円,
多角形,自由曲線,折れ線のいずれかまたはそれらの組
み合わせで表現して記憶することを特徴とする情報処理
装置。
4. The shape information storage means according to any one of claims 1, 2 and 3, wherein the shape information is rectangular, circular,
An information processing device characterized in that it is expressed and stored as one of a polygon, a free curve, a polygonal line, or a combination thereof.
JP2002196651A 1998-04-08 2002-07-05 Information processing equipment Pending JP2003067048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002196651A JP2003067048A (en) 1998-04-08 2002-07-05 Information processing equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP09567898A JP3608940B2 (en) 1991-04-08 1998-04-08 Video search and display method and video search and display apparatus
JP2002196651A JP2003067048A (en) 1998-04-08 2002-07-05 Information processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP09567898A Division JP3608940B2 (en) 1991-04-08 1998-04-08 Video search and display method and video search and display apparatus

Publications (1)

Publication Number Publication Date
JP2003067048A true JP2003067048A (en) 2003-03-07

Family

ID=19195610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002196651A Pending JP2003067048A (en) 1998-04-08 2002-07-05 Information processing equipment

Country Status (1)

Country Link
JP (1) JP2003067048A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182652A (en) * 2003-12-22 2005-07-07 Chugoku Electric Power Co Inc:The Remote monitoring method and remote monitoring system
JP2007128494A (en) * 2005-10-03 2007-05-24 Canon Inc Information processor and information processing method
JP2011186914A (en) * 2010-03-10 2011-09-22 Chugoku Electric Power Co Inc:The Operation management system of power plant facility
JP2014071614A (en) * 2012-09-28 2014-04-21 Hitachi Kokusai Electric Inc Device information display device, device information display system, and device information display method
JP2016170596A (en) * 2015-03-12 2016-09-23 株式会社ミツトヨ Command execution system and position measurement device
JP2019008790A (en) * 2017-06-21 2019-01-17 フィッシャー−ローズマウント システムズ,インコーポレイテッド Loop interface
JP2019071051A (en) * 2017-10-02 2019-05-09 フィッシャー−ローズマウント システムズ,インコーポレイテッド Operator gazing area in process control plant

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182652A (en) * 2003-12-22 2005-07-07 Chugoku Electric Power Co Inc:The Remote monitoring method and remote monitoring system
JP2007128494A (en) * 2005-10-03 2007-05-24 Canon Inc Information processor and information processing method
JP2011186914A (en) * 2010-03-10 2011-09-22 Chugoku Electric Power Co Inc:The Operation management system of power plant facility
JP2014071614A (en) * 2012-09-28 2014-04-21 Hitachi Kokusai Electric Inc Device information display device, device information display system, and device information display method
JP2016170596A (en) * 2015-03-12 2016-09-23 株式会社ミツトヨ Command execution system and position measurement device
JP2019008790A (en) * 2017-06-21 2019-01-17 フィッシャー−ローズマウント システムズ,インコーポレイテッド Loop interface
JP2019071051A (en) * 2017-10-02 2019-05-09 フィッシャー−ローズマウント システムズ,インコーポレイテッド Operator gazing area in process control plant
JP7306778B2 (en) 2017-10-02 2023-07-11 フィッシャー-ローズマウント システムズ,インコーポレイテッド Operator view area in process control plant
US11704010B2 (en) 2017-10-02 2023-07-18 Fisher-Rosemount Systems, Inc. Systems and methods for supporting multi-language display view capabilities in a process control plant
US12327012B2 (en) 2017-10-02 2025-06-10 Fisher-Rosemount Systems, Inc. Systems and methods for configuring and presenting a display navigation hierarchy in a process plant

Similar Documents

Publication Publication Date Title
JP7688096B2 (en) Head-mounted display device
US6335722B1 (en) Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same
JP5807686B2 (en) Image processing apparatus, image processing method, and program
JP3375644B2 (en) Processing execution method and valve remote operation method
US7136093B1 (en) Information presenting apparatus, operation processing method therefor, storage medium storing program for executing operation processing
US9489040B2 (en) Interactive input system having a 3D input space
US8046719B2 (en) Virtual work place
Kasahara et al. exTouch: spatially-aware embodied manipulation of actuated objects mediated by augmented reality
JP2001128057A (en) User interface system for controlling camera
JPH0573661A (en) 3D information conversation system
WO2016109409A1 (en) Virtual lasers for interacting with augmented reality environments
US6760030B2 (en) Method of displaying objects in a virtual 3-dimensional space
JP2006209563A (en) Interface device
CN112527112B (en) Visual man-machine interaction method for multichannel immersion type flow field
JP2018538588A (en) Navigation through multidimensional image space
CN113849112A (en) Augmented reality interaction method and device suitable for power grid regulation and control and storage medium
JP2012124839A (en) Image monitoring apparatus
CN115328304A (en) 2D-3D fused virtual reality interaction method and device
JP2003067048A (en) Information processing equipment
Avery et al. Visualizing occluded physical objects in unfamiliar outdoor augmented reality environments
JP2004334897A (en) Information processing device
JP3143006B2 (en) Multi-dimensional image manipulation device
JP2002157079A (en) Method of discriminating intention
CN116070039A (en) Navigation visualization method, device, equipment and medium for three-dimensional browser model
JP2006302316A (en) Information processing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050620

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060523