[go: up one dir, main page]

JP2004005639A - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP2004005639A
JP2004005639A JP2003130973A JP2003130973A JP2004005639A JP 2004005639 A JP2004005639 A JP 2004005639A JP 2003130973 A JP2003130973 A JP 2003130973A JP 2003130973 A JP2003130973 A JP 2003130973A JP 2004005639 A JP2004005639 A JP 2004005639A
Authority
JP
Japan
Prior art keywords
target
inspection
camera
video
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003130973A
Other languages
Japanese (ja)
Inventor
Masayasu Futagawa
二川 正康
Masayuki Tani
谷  正之
Kimiya Yamatari
山足 公也
Koichiro Tanikoshi
谷越 浩一郎
Shinya Tanifuji
谷藤 真也
Atsuhiko Nishikawa
西川 敦彦
Atsuhiko Hirota
廣田 敦彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003130973A priority Critical patent/JP2004005639A/en
Publication of JP2004005639A publication Critical patent/JP2004005639A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】監視対象に異常が発生したときに迅速な点検を可能にする。
【解決手段】監視対象を複数のカメラで撮影しそのビデオ映像を画面上に表示する監視装置において、監視対象個々の出力データの異常の有無を判定する手段と、異常が発生したときこの異常監視対象物を撮影するカメラを選択する手段と、選択されたカメラに制御指令を送出して前記異常監視対象物の撮影を行わせる手段と、該カメラによるビデオ映像を画面に表示すると共に該異常監視対象物の表示を該ビデオ映像の他の表示物から区別化して表示する手段とを設ける。
【選択図】 図1
An object of the present invention is to enable quick inspection when an abnormality occurs in a monitoring target.
In a monitoring device that shoots a monitoring target with a plurality of cameras and displays a video image thereof on a screen, a unit that determines whether there is an abnormality in output data of each monitoring target, and monitors abnormality when an abnormality occurs. Means for selecting a camera for photographing the object, means for sending a control command to the selected camera to photograph the abnormality monitoring object, displaying video images from the camera on a screen, and monitoring the abnormality. Means for distinguishing and displaying the display of the object from other display objects of the video image.
[Selection diagram] Fig. 1

Description

【0001】
【産業上の利用分野】
本発明は、鉄道,道路網等の交通システム,化学プラント,鉄鋼,電力,ガス,上下水道場等の監視装置とこれを用いた点検方法に係り、特に、現場に出向かなくても的確な監視を行うのに好適な監視装置に関する。
【0002】
【従来の技術】
例えば、プロセス制御監視システムにおいては、中央操作室にモニタ装置を設置し、監視制御対象をITVカメラで撮影し、その映像をモニタ装置に表示する方法が採られている。また、監視制御対象から得られるさまざまなプロセスデータや、操作員からの入力データなどのプロセス制御情報は、制御用端末などの制御機器が、文字,グラフ,表,図形などに変換してディスプレイに表示している。従来、ITVカメラ映像とこのプロセス制御情報の画面は別々に表示してあったり、あるいは単に同一画面上に表示してあるだけであった。従って、例えばある機器の操作,点検を実施する場合、操作員はその機器の制御情報をプロセス制御情報用画面に表示する操作とは別に、その機器の様子を詳しく見るために専用のボタンを用いてITVカメラの切り替え、ズーミング,パンニングなどを行う必要があった。即ち、操作員はプロセス監視制御を行う際、プロセス制御情報の画面に関する操作と、ITVカメラ映像に関する操作という2つの操作を行う必要があった。
【0003】
そこでこの問題を解決するため、特開平2−224101号公報記載のCRT監視制御装置においては、プロセス制御情報用画面に関する操作によってITVカメラ映像に関する操作を行うようにしている。この従来技術は、制御用端末等で表示するプロセス制御情報の画面に、マウス,キーボードを用いて操作点検の対象の名前を入力したり、その対象を表現した図形を選択したり、あるいは操作盤上にある専用のボタンを押すことにより、操作,点検する対象を決定する手段と、決定した操作点検対象を映すITVカメラ映像を選択してITVカメラ映像選択指令を映像選択装置に送る手段と、ITVカメラ映像とその対象に関連するプロセスデータをプロセス制御情報画面に合成して同時に表示する手段とを有するシステムである。
【0004】
この従来技術により、操作,点検対象をプロセス制御画面で選択することで、その対象の映像を自動的に画面に表示することができるようになり、操作員の手間が省けるようになった。
【0005】
【発明が解決しようとする課題】
しかし、この従来技術は、操作,点検を実施する対象を表現した図形をマウス等で指定したり、キーボードから名称を文字入力しなければならない。更に、操作,点検を実行する命令を入力したり,操作点検対象の操作確認,点検確認などの入力を行う際には、プロセス制御情報用画面内に表示された対象の名前を表示したメニューとかその対象を表現した図形などといった、対象を抽象的に明示するものを用いて対象の指定,操作点検実行命令の入力,操作点検確認入力を行わねばならない。
【0006】
またこの従来技術は、図形,名前等,対象を抽象的に表現するものからカメラ映像内の具体的な対象を表示する構成のため、正確な入力を行わないと、別の対象が表示されてしまう。操作,点検を実施する対象を指定する場合、カメラ映像を見ていて明らかに異常が起こったことが分かる時でも、「名前」,その対象を表した「図形」などその対象を抽象化したものを指定入力することで、操作,点検を実施する対象を指定するようになっている。この場合、カメラ映像上の操作点検を実施する具体的な対象と、その対象の名前、その対象を表した図形などといったその抽象的な表現との関連づけが必要である。
【0007】
一般に、プラントなどのプロセス制御監視システムにおいては、操作点検の対象となる機器およびそれを操作員が制御するためにディスプレイに表示するグラフィックス情報画面の数は非常に多く、操作点検対象の名前やそれを表現した図形とITVカメラ映像上の具体的な機器との対応等、操作員が記憶すべき関連づけは非常に多い。このため、操作員はこれらの関連づけを習得するためにあらかじめ長期にわたってトレーニングを行う必要がある。
【0008】
また、このような抽象的なものを通して操作点検命令を入力していると、現場の様子が伝わりづらい。例えば、プラントなどの保守点検作業時においては、現場の状況を把握した作業が重要となってくる。グラフィックスなどの抽象的なものを用いて対象を選択したり、操作点検命令を入力する従来のようなシステムにおいては、作業時に対象選択ミス,操作ミスが起こる虞があるため、現場にわざわざ出向いて作業を行っている状況である。
【0009】
また、操作,点検を実行する命令を入力したり、対象の操作確認や点検確認を操作員が入力する様な場合、カメラ映像表示領域と図形,文字で作られた確認あるいは命令の入力場所が離れていると、入力をする際に映像から視線を移す必要がある。こういった場合に、操作員は、時としてカメラ映像を見ずに、直接、入力場所へ確認入力,操作命令を入力してしまう虞がある。このように、監視制御対象の状況を十分把握しなくても確認,命令などの入力ができるということは操作ミス,点検ミスの原因となる。
【0010】
一方、操作点検する機器それぞれに対してその対象を映すカメラを設置することは、コストの面から実用的でなく、一般には一つのカメラで幾つかの操作点検を実施する対象を撮影している。従って、従来技術のように、対象を指定してその操作,点検を行うと共に、その対象を映したカメラ映像に切り替わることができても、カメラ映像内に操作点検対象となりうる対象が複数個映されることがある。
【0011】
このような場合、実際どの対象を操作,点検中なのか操作員に対して不明確になる。同様に、操作,点検を実施する対象を指定する場合も、カメラ映像内でその対象がどれに対応するのか不明確である。また、操作,点検の確認をする際にも確認する対象がどれなのか、映像上で不明確である。また、操作や点検の対象となる機器はそれぞれが独立しているものではない。ある機器は他の機器に密接に関係していることがある。操作,点検する場合は、このような関連する機器をも操作員に明示する必要がある。
【0012】
また、カメラ映像内の具体的な対象から、その名前,取り扱い方法,点検操作作業状況,その対象に関連するプロセスデータ等の付加情報を引き出せないため、映像を見ていてそのようなデータを引き出したい場合には、上述のような映像上の対象とその名前,それを表した図形との対応を用いて引き出さなければならない。また、引き出したデータの表示場所が映像上の対象と離れたところに表示されると、映像上の対象とその対象に関連する情報とを同時に参照しづらくなる。
【0013】
さらに、操作,点検においては、定期点検と異常時の点検,システムの管理責任者が行う点検とそうでない人が行う点検など、監視対象の状況,操作点検の時期,操作点検を行う操作員,その操作員が属するグループなどの要因で、操作,点検を実施するか否か、あるいは実施対象となるか否か、操作点検の内容は変わってくる。従って、監視対象の状況,操作点検を行う人物の情報等を含めたデータベース上のデータによって、明示すべき操作点検対象、実施すべき操作点検内容を変更する必要がある。
【0014】
以上をまとめると、従来技術には、次のような問題がある。
【0015】
(1)カメラ映像内には操作点検を実施する可能性のある対象が複数個含まれるので、操作点検を実施している対象がカメラ映像内で不明確になる可能性がある。
【0016】
(2)監視制御対象から操作点検を実施する対象を指定する際、次に指定可能なあるいは指定すべき対象がカメラ映像内で不明確である。また、操作員が対象を指定しても、どの対象が指定されたのかがカメラ映像上では不明確である。
【0017】
(3)操作点検を行う際、操作点検対象に関連する対象が明示されない。
【0018】
(4)操作点検を実施する際、文字,図形といった抽象的なものを通して操作,点検のコマンドを入力する必要がある。また監視制御対象を操作点検した後など、確認入力を入力する場合でも、文字,図形といったものを通して確認を行っている。
【0019】
(5)カメラ映像上の対象から点検,操作に関連する情報や、対象に関連するプロセスデータなどの情報を引き出せない。
【0020】
(6)カメラ映像上の対象の点検,操作に関連する情報や、対象に関連するプロセスデータなどの情報を明示する場所がカメラ映像上の対象の位置を考慮していないため、操作員は映像内の対象とそれに関するデータを同時に参照するのが困難である。
【0021】
(7)操作点検を実施する対象を指定する際、その候補として明示するものは監視制御対象から得られるプロセスデータや操作員,操作履歴等のデータに依存したものでなければならない。そうでないと操作員は、常に同じ対象の中から監視制御対象の状況をふまえて操作点検すべき対象を取捨選択する必要がある。
【0022】
(8)操作点検を実施する際、その操作点検内容は監視制御対象から得られるプロセスデータや操作員,操作履歴等に依存したものでなければならない。そうでないと操作点検内容の決定をすべて操作員が取捨選択する必要がある。
【0023】
本発明の目的は、上記の従来技術の問題点のうちの少なくとも一つを解決し、操作員が行う操作,点検の支援機能を改善した監視装置とこれを用いた点検方法を提供することにある。
【0024】
【課題を解決するための手段】
上記目的は、監視対象を複数のカメラで撮影しそのビデオ映像を画面上に表示する監視装置において、監視対象個々の出力データの異常の有無を判定する手段と、異常が発生したときこの異常監視対象物を撮影するカメラを選択する手段と、選択されたカメラに制御指令を送出して前記異常監視対象物の撮影を行わせる手段と、該カメラによるビデオ映像を画面に表示すると共に該異常監視対象物の表示を該ビデオ映像の他の表示物から区別化して表示する手段とを備えることで、達成される。
【0025】
上記目的はまた、監視対象のビデオ映像を表示するディスプレイと、操作員の操作入力を受け付ける入力受付手段とを備える監視装置を用いた点検方法において、ディスプレイに表示されているビデオ映像上で操作員が点検対象物を指定したとき当該対象物の表示を該ビデオ映像中の他の表示物より強調表示し、操作員がこの強調表示されたビデオ映像を監視することで点検を行い、点検終了後に操作員が前記入力受付手段から入力する確認入力があったとき該確認入力を画面に示すことで、達成される。
【0026】
画面を監視することで異常の発生をすぐに知ることができるので迅速な点検が可能になる。また、点検対象が強調表示されるので、点検対象が明確になり、より確実な点検が可能となる。
【0027】
【発明の実施の形態】
以下、本発明の好適な実施例を図面を参照して説明する。
【0028】
図1は、本発明の一実施例に係る監視装置の構成図である。101は、道路,鉄道などの交通システム,電力プラント,ガスプラント,上下水道システム,鉄鋼プラント等における監視,制御の対象となる監視制御対象(以下、監視対象と呼ぶ)であり、本実施例の監視装置がこの監視対象を監視,制御する。本実施例の監視装置を構成するデータ収集及び監視対象制御部(以下、単に、制御用計算機と呼ぶ)102は、その監視対象101から得られるデータ(以下、プロセスデータと呼ぶ)の収集をしたり、その監視対象の制御を行う。制御用計算機102は、プロセスデータを、LAN103を通して、データ表示及び入力受付制御部(以下、単にワークステーションと呼ぶ)104とデータベース115に送る。また、制御用計算機102は、ワークステーション104からLAN103を通して送られてくる制御命令を受け取り、監視対象101の制御を行う。
【0029】
データベース115は、制御用計算機102からLAN103を通って入力するプロセスデータを記憶すると共に、制御対象101の設定値,操作員のID,グループID,操作履歴等のデータを記憶する。ワークステーション104からの読み出し命令によって記憶したデータを読み出し、ワークステーション104にLAN103を通して送る。
【0030】
ITVカメラ107は、監視対象101の映像をケーブル108,スイッチャ110,ケーブル112を通してワークステーション104に送る。一方、ワークステーション104は、カメラ切り替え命令をケーブル113からスイッチャ110ヘ、カメラ制御信号をケーブル113,スイッチャ110,ケーブル109を通じてITVカメラ107に送る。スイッチャ110は、送られてきたカメラ切り替え命令に従いカメラの切り替えを行う。ITVカメラ107は、カメラ制御命令に応じてズーム,パン等のカメラ制御を行う。
【0031】
ワークステーション104では、制御用計算機102から送られてきたプロセスデータ、データベース115から送られてきたデータ、ITVカメラ107から送られてきた映像信号を処理し、CRT105に表示する。また、操作員は、マウス,タブレット,タッチパネル等の入力装置106を用いて、ワークステーション104に様々な入力命令を入力する。これらの入力命令をワークステーション104は処理し、CRT表示を変えたり、データベース115にデータ読み出し命令を送ったり、LAN103を通して制御用計算機102に制御信号を送り監視対象の制御を行うとともに、ITVカメラ107,スイッチャ110にカメラ切り替え信号、カメラ制御信号を送る。
【0032】
図2は、計算機104内の構成図である。201はCPU、202は制御用プログラムやCRT画面に表示するプロセス制御画面データ等を展開する主記憶、203はハードディスク、204は入出力用ドライバである。
【0033】
ITVカメラ107からケーブル112を通って入出力用ドライバ204に入力する映像信号は、ディジタイザ205でデジタル化され、動画用フレームバッファ206に描画される。
【0034】
また、制御用計算機102が出すプロセスデータやデータベース115からのデータはケーブル111から、操作員の入力命令は入力装置106からケーブル114を通ってそれぞれ入出力用ドライバ204に入り、ここからバス209を通ってCPU201に送られる。CPU201は、それらの入力データを主記憶202上のプログラムにしたがって処理する。
【0035】
ハードディスク203はプロセス制御画面データを保存し、必要な際にCPU201が読み出し、主記憶202上に展開し、CRT表示指令によってグラフィックス用フレームバッファ207に書き込まれる。ブレンド回路208は動画用フレームバッファ206及びグラフィックス画面用フレームバッファ207をブレンドし、CRT105に表示する。
【0036】
図3は、本実施例におけるCRT画面構成の一例を表したものである。301は制御用計算機102から送られるプロセスデータを表示するプロセスデータ表示領域、302はITVカメラ107からの映像を表示する映像表示領域、304はマウスなどのポインティングデバイスによって動くカーソル、303は操作員からの入力を受け付けるボタン、305はメニューである。
【0037】
操作員からの入力を受け付けるものとしては、303のようなボタンや305のようなメニューがあるが、これは必要な時のみ表示してもよい。プロセスデータ表示領域301は、トレンドグラフ306や棒グラフ,表307などを表示し、プロセスデータを操作員に明示する。操作員は、プロセスデータ表示領域301のデータと、映像表示領域302の映像を見ることにより監視対象101を監視し、カーソル304を用いて操作用ボタン303を押したり、メニュー305の項目を選択することにより、監視対象101の操作命令,制御命令、あるいは表示画面の切り替え命令等を入力する。
【0038】
上述したシステム構成,画面構成を基に、本発明の実施例を更に具体的に述べる。
【0039】
まず、第1実施例では、図3における点検ボタン303をカーソル304で押す(選択する)ことにより、図4の点検項目メニュー405が表示される。図4において、映像表示領域302は、ボイラA401,ボイラB402,ボイラC403,給水器404を含むITVカメラ映像を表示している。点検項目メニュー405の項目406をカーソル304を用いて選択することで、ボイラA401を操作,点検の対象とし、操作または点検を行う。この時、映像表示領域302内で、選択されたことを明示するために、ボイラA401を囲む矩形407を映像上に重ねて描画し、ボイラAを強調する。即ち、表示中のITVカメラ映像上に重ねてグラフィックスを描画することにより点検,操作を行っている対象を強調する。これによって、カメラ映像内にたとえ複数個の操作点検を実施する対象となりうるものがあったにせよ、点検,操作中の対象が映像上で明確になり、その対象の状況をより確実に把握できる。もちろん、指定した項目に対する操作点検の対象が表示中のカメラ映像では映せない場合には、そのカメラからの映像に切り替える。
【0040】
上記実施例以外の操作点検対象の強調の仕方としては例えば、図5に示すように、ITVカメラ107に制御命令を送り遠隔操作することにより操作点検対象(ここではボイラA401)を拡大して表示する、といった方法がある。あるいは、ボイラAをよりわかりやすく撮影できる別のITVカメラに切り替え、それを遠隔操作する。即ち、まずスイッチャ110にカメラ切替信号を送り、次にそのカメラに制御命令を送ることにより、対象を拡大して表示する。つまり、上記例でいえば、ボイラAを拡大表示する。
【0041】
次に、この実施例の実現方法について述べる。
【0042】
ワークステーション104の主記憶202内に、図7に示すような構造体を持つオブジェクト501を定義する。ここでオブジェクト501は、表示に関する属性定義内容(以下、簡単のため、表示属性定義内容と呼ぶ)502と、プロセスデータ等のデータ、操作員が入力するイベント及びそれによって駆動する動作に関する属性定義内容(以下簡単のため、イベント属性定義内容と呼ぶ)503とを持つ。
【0043】
表示属性定義内容502の内容を図9で示す。ここでは、オブジェクトの表示位置621,大きさ622,形623,色,文字や線の太さなどの描画データ624,そのオブジェクトが操作員からの入力イベントを受け取るかどうか(以下入力イベントを受け取る状態の時活性化状態、受け取れない時非活性化状態と呼ぶ)を表すオブジェクト状態変数626などの情報を定義する。表示の際には、大きさ622,形623,描画データ624の内容にしたがって描画を行う。また、操作員が入力した入力イベントは、そのイベントの入力位置情報と、ここで定義したオブジェクトの表示位置621,大きさ622,形623,オブジェクト状態変数626の値を用いて振り分ける。
【0044】
図8は、イベント属性定義内容503の内部構造について示したものである。イベント属性定義内容503はイベントインデックステーブル601とそのイベントが起こったとき実行する動作を定義した動作テーブル602とからなる。
【0045】
イベントインデックステーブル601は、イベント名603とそのオブジェクトに関連するプロセスデータ変数604を登録する。イベント名603には、操作員の入力、他のオブジェクトから送られる指令などオブジェクトが受け取るすべてのイベントの名前を登録する。プロセスデータ変数604は、プロセスデータベース610の対応するデータ格納場所611へのポインターである。制御対象102から得られるプロセスデータは、主記憶202上のプロセスデータベース610内の対応するデータ格納場所611に入れられ、各オブジェクトはそのデータを参照する。
【0046】
動作テーブル602は、イベントが起こったとき実行する動作関数やプロセスデータを表示する際の表示フォーマットなどを登録する。イベントが起こったとき実行する動作としては、例えばCRT105に表示するためのデータを作成する、他のオブジェクトに指令を送る、制御用計算機102に制御命令を送る、
CRT105に表示しているITVカメラ映像302を切り替えるための制御命令を送る、などがある。動作テーブル602上のプロセスデータの欄に関しては、そのデータを表示する際の表示フォーマットのほか、そのデータの値がある一定値以上なら警告を出すなどの動作を定義する。
【0047】
このようなオブジェクトに関する記述は、情報処理学会論文誌,第30巻,第9号,1200頁から1210頁記載の谷他3名による「メタユーザインターフェイスを有するユーザインターフェイス構築支援システム」に記載されているUIDLを用いる。UIDLで記述したオブジェクトを用い、図11のアルゴリズムを実行する。ステップ701でシステムの立ち上げを行う。ステップ702でCPU201は入出力用ドライバ204から入力する操作員の入力情報、制御対象101からのプロセスデータ、データベース115からのデータ、及び他のオブジェクトからの指令の収集を行う。
【0048】
操作員からの入力情報、他のオブジェクトからの指令に関しては、CPU201がステップ703で対応するオブジェクトに渡し、ステップ704でイベント属性定義内容503内の対応する動作を実行する。また、プロセスデータに関しては、ステップ702で収集したデータをプロセスデータベース610に入れる。ステップ703でCPU201が入力のあったプロセスデータを参照しているオブジェクトに対して、データを参照させ、ステップ704でCPU201がイベント属性定義内容503に定義したそのプロセスデータに対応する動作を実行する。ステップ702で収集したすべてのイベント,プロセスデータに関してステップ704,705を繰り返した後、画面更新等の描画を行う場合は、ステップ705でフレームバッファ207に描画し動画像用フレームバッファ206とブレンド回路208によってブレンドしたものをCRT105に表示する。
【0049】
以上のオブジェクトとアルゴリズムを用いて、図3で示したディスプレイ表示画面のグラフィックスメニュー305やボタン303,プロセスデータ表示領域301内の表307,グラフ306等を作成する。例えばグラフィックスメニュー305の描画に関しては、表示属性定義内容502に定義した内容を基にステップ705で表示を行う。操作員がカーソル304を用いてグラフィックスメニュー305に入力するイベントはステップ703でグラフィックスメニューオブジェクト501に渡され、ステップ704でメニュー305内の項目に対応する動作が実行される。また、グラフ306に関しては、制御対象から得られたプロセスデータをステップ703で参照し、ステップ704で動作テーブル602上の表示フォーマットに従って描画データが作られ、ステップ705で描画を行う。
【0050】
次に、映像内の対象を認識し、グラフィックスで強調表示する方法を述べる。監視対象を撮影するITVカメラ107、および映像内の操作点検を実施する対象あるいはその対象に関連する対象に関しても、図7で示したオブジェクトを定義する。
【0051】
ITVカメラ用のオブジェクト(以下カメラオブジェクトと呼ぶ)の表示属性定義内容502の内容は、図10で示した内容とする。カメラオブジェクトは、ワークステーション104が、ITVカメラ107に出力するカメラ制御信号の内容を属性として持つ。即ち、ズーム値651,垂直角652,水平角653である。また、関連オブジェクトリスト654として、そのカメラが映す操作点検に関する対象に対応するオブジェクトのリストを持つ。また、そのカメラからの映像が映像表示領域302に表示されているか否かを示すオブジェクト状態変数655、さらにはそのカメラが設置されている場所を示す位置情報656を持つ。
【0052】
映像内の操作点検対象あるいはそれに関連する対象用に定義するオブジェクト(簡単のため映像内オブジェクトと呼ぶ)は、表示属性定義内容502に、その対象の3次元モデル627を持つ。また、関連するオブジェクトリスト625にその対象を映すカメラオブジェクト名を記しておく。
【0053】
図12において、カメラオブジェクトが持つ位置情報655,水平角情報653,垂直角情報652及びズーム値651によって定まる平面802に、操作点検対象のモデル627を射影し、像805を得る。この時、実際のITVカメラ映像内における操作点検対象は、像805の位置,大きさ,形で表示される。従って、この射影した像から、表示中の映像内におけるその対象の位置,大きさ,形を判別できる。
【0054】
図11で示したアルゴリズムにより、映像内オブジェクトの位置及び大きさを計算する。システム立ち上げ時のステップ701やステップ704で映像の切り替えを行う場合は、今までのカメラオブジェクトに非表示の指令が出されると共に、新しく表示を行うカメラオブジェクトに表示の指令が出される。表示の指令を受け取ったカメラオブジェクトは、オブジェクト状態変数655が表示の値になる。これとともに、関連するオブジェクトリスト654に登録した映像内オブジェクトに対してそのオブジェクトを活性化状態にする指令を出す。
【0055】
ステップ703でその指令を受け取った映像内オブジェクトは活性化状態となり、以降、操作員の入力イベントが取れるようになる。非表示の指令を受け取ったカメラオブジェクトは、同様に、オブジェクト状態変数655を非表示の値とし、関連するオブジェクトリスト654に登録した映像内オブジェクトを非活性化状態にする。
【0056】
ITVカメラ107の遠隔操作を実行する場合には、カメラオブジェクトに映像内オブジェクトの射影像の再計算を実施するよう指令が送られる。その指令をステップ703で受け取ったカメラオブジェクトは、関連オブジェクトリスト654に登録したすべての映像内オブジェクトに対して上記の射影像計算実行の指令を送る。次に、ステップ703でその指令を受け取った映像内オブジェクトは、その指令に対応する動作として、ステップ704で3次元モデルデータ627から射影像の再計算を行う。図12で示したようにズーム値を変えれば、3次元モデル801は対応する平面803,804に射影され、その像はそれぞれ806,807となる。この時、3次元モデルの射影像806あるいは807の位置,大きさ,形をオブジェクト501の表示属性定義内容502の位置621,大きさ622,形623に登録する。これによって、ITVカメラ107の遠隔操作を実施しない間は、表示属性内容502に登録した位置,大きさ,形によって映像内オブジェクトを取り扱うことができる。
【0057】
グラフィックスによって映像内の操作点検中の対象を強調表示する場合は、その映像内オブジェクトの位置621,大きさ622,形623に合わせてグラフィックスを描画する。次に、カメラの切り替え、あるいは遠隔操作によって映像内の操作点検対象を拡大表示することで、その対象を強調する場合を述べる。この場合には、その対象に対応するオブジェクトのイベント属性定義内容503内の動作テーブル602に、予めその対象をその対象を拡大するようなカメラ切替命令やカメラ制御信号をカメラオブジェクトに出すように定義しておく。ステップ703でカメラオブジェクトがカメラ切替命令を受け取れば、スイッチャ110にカメラ切替信号を送る。また、カメラ制御信号を受け取れば、ITVカメラ107にそれを送る。さらにそのカメラオブジェクトに登録してある映像内オブジェクトのリスト654を参照して、映像内オブジェクトに対して位置,大きさ,形を再計算するよう指令を出す。
【0058】
このように、ITVカメラおよびカメラ映像内の操作点検を実施する対象およびそれに関連する対象をオブジェクトとして登録することにより、ITVカメラ映像上におけるその対象の位置、大きさを認識することができる。また、カメラオブジェクトの表示に関する属性定義内容502内の関連するオブジェクトリスト654に、そのカメラが映す対象を登録しておくことにより、カメラの遠隔操作を行ったときなど映像内オブジェクトの位置,大きさ,形の再計算が必要な場合はそこに登録してある対象のみ再計算をすればよい。また、その操作点検対象が選択された等、実行する動作をオブジェクトに定義しておき、イベント入力時にはその動作を実行することができる。この映像内オブジェクトに関してもUIDLで記述する。
【0059】
第1実施例の場合には、次のようになる。点検ボタン303を押したときステップ702,703を経てそのイベントが点検ボタンオブジェクトに渡される。ステップ704で入力のあったイベントに対応する動作として、点検項目メニューオブジェクトに表示及び活性化の指令を送る。同様に、ステップ702,703を経て表示及び活性化の指令を受け取った点検項目メニューオブジェクトはステップ704,705で点検項目メニュー405の表示を行う。点検項目メニュー405が押されたとき、ステップ702,703を経て、点検項目メニューオブジェクトにそのイベントが渡され、ステップ704で対応する動作として選択した項目の操作点検命令を制御用計算機102に送ると共に、選択した項目に対応する映像内オブジェクトに対して強調表示の指令を送る。強調表示の指令を受け取った映像内オブジェクトは、状態変数を調べ、非活性化状態ならば自分を映すカメラオブジェクトに対してそのカメラの映像を表示する指令を出す。これによって、その対象を映したカメラに切り替わる。活性化状態ならば、すでにその対象を映したカメラの映像が表示されているので、矩形407の描画データを作成し、ステップ705で作成した矩形の表示を行う。
【0060】
次に、本発明の第2実施例を、図13を用いて述べる。
【0061】
操作員が点検ボタン303(図3)を押すことにより、映像表示領域302内で選択できる或いは選択すべき操作点検対象となる機器401,402,403,404を囲むような矩形407,901,902,903を映像に重ねて表示する。このように、操作員が操作,点検する対象を選択する際に、グラフィックスを映像に重ねて表示することによりその選択対象となる機器を強調する。これによって、映像上で操作点検を実施すべき或いは実施できる対象が明確になる。
【0062】
この実施例の実現方法は、前述した第1実施例と同様に、UIDLで記述したオブジェクトを用いる。点検ボタン303を押したとき、ステップ702,703で点検ボタンオブジェクトにイベントが渡り、ステップ704で対応する動作として操作点検を実施する対象として指定できる或いは指定すべきITVカメラ映像内の映像内オブジェクトに矩形表示の指令を出す。ステップ702,703を経て指令を受け取った映像内オブジェクトは、ステップ704で矩形のデータを作成し、ステップ705でそれぞれ矩形407,801,802,803を画面に表示する。
【0063】
この実施例のように、映像内に選択できる対象が複数個ある場合、その対象をより明確にするための方法を挙げる。図4で示したように、カーソル304が操作点検項目メニュー405内のボイラAの項目406上にあるときのみ、ボイラA401を強調表示する矩形407を描画する。これは、操作員が選択しようとする操作点検対象のみを強調する方法である。あるいは図6で示したように、カーソル304をボイラAの項目406上に持ってくることにより、ボイラA401を強調表示する矩形407の色や線の太さを変えたりその矩形をハイライト表示,ブリンク表示させたりする。この方法は、選択できる或いは選択すべき操作点検対象を映像内で明示すると共に、選択しようとする操作点検対象をさらに強調して表示するものである。
【0064】
これらについても、第2実施例と同様に、UIDLで記述したオブジェクトを用いて実現する。すなわち、カーソル304が項目406上に来たというイベントが、ステップ702,703を経て、操作点検項目メニュー405に対応するオブジェクトに渡される。ステップ704で、対応する動作としてボイラA401に対応するオブジェクトに対して強調表示の指令を送る。ステップ702,703を経て指令を受け取ったボイラA401に対応するオブジェクトは、ステップ704,705で、矩形407を描画したり矩形407の色替え,太さ替え,ブリンク表示を行う。
【0065】
また、操作点検を実施する対象を指定する際、このようなグラフィックスを用いた強調表示を行うことによって、映像上で指定すべき対象に優先順位を付けることができる。即ち図13において、表示する矩形407,901,902,903の色や線の太さ,線の種類等を変えることによって、あるいはそこに数字等の文字を重ねて表示することにより、操作,点検を実施する際の優先度,重要度などを映像上で明示することができる。操作員は、映像上に明示された優先順位を基に、次に操作,点検を実施する対象を指定することができる。
【0066】
次に、第3実施例を図14を用いて述べる。
【0067】
映像表示領域302(図3)内に矩形407を表示することにより、ボイラA401を強調表示する。操作員はこの矩形407の内部にカーソル304を持っていき、操作点検等における確認入力を入力する。確認が行われたことを明示するために、矩形407が消去される。即ち、点検,操作等に関する確認入力を、対象の映像に直接入力することによって、操作員は実行した操作,点検を確認する際、必ずその対象の映像を見る必要があり、その対象の状況を把握した確認動作の実施ができる。また、確認入力を入力する際、映像上でその対象を強調表示することにより、さらに確認動作をやりやすいものにすることができる。さらには、その確認動作が実行されたことを対象が映っている映像上で明示することによって、確認動作をより確実なものにすることができる。以上のように、映像上で、確認対象の明示,確認入力及び確認実行の明示を行うことにより、プラントなどの現場で行われている指差し呼称のような動作を操作室にいながら実施することができる。
【0068】
以上の例は、操作点検における確認の例であるが、同様にプラント制御における様々な操作を実施する際、操作員が行う操作点検対象の指定に関して、(1)映像上で対象を直接指定でき、(2)指定の際それを操作員が指定するよう、映像内の対象を強調表示し、(3)操作員が対象の指定を行った時には映像上で指定が行われたことを明示する、といった手段を有することが可能である。これにより、現場にいる感覚で対象の指定ができるだけでなく、現場では得られない計算機の支援を受けることができる。
【0069】
この実施例に関しても、第1実施例で述べたUIDLで記述したオブジェクトを用いて実現できる。操作,点検完了などの情報は、制御用計算機102からLAN103を通ってワークステーション104に入力する。ステップ702,703を経て、操作,点検を実行した対象に対応するオブジェクトに操作,点検の確認指令のイベントが渡り、ステップ704,705でその対象を強調する矩形407を描画する。操作員がここにカーソル304を持っていき確認入力を行うと、ステップ702,703でその確認入力のイベントが操作点検対象に関連するオブジェクトにわたる。この結果、ステップ704で確認入力に対応する動作として矩形407を消去する。
【0070】
次に、第4実施例について、図14を用いて述べる。
【0071】
ボイラA401を操作,点検する際、映像表示領域302内で、その操作点検対象401をマウス等の入力装置105で選択することにより、予め定めた操作,点検内容を自動的に実施する。このように、操作,点検を実施する際、映像上の操作点検対象を直接選択することで、操作,点検を行う。操作員は映像を見て、操作や点検を実施したい対象をマウス等を用い選択すればよく、直接的で迅速,確実な点検,操作の実現ができる。
【0072】
この実施例に関しても、第1実施例で示したUIDLで記述したオブジェクトを用いて実現できる。即ち、ステップ702,703において、操作員からの入力イベントを取り込み、操作点検対象に対応するオブジェクトに渡してやる。ステップ704で対応する動作として、そのオブジェクトに対応する機器に対して行う操作,点検コマンドをLAN103を通して制御用計算機102に送る。制御用計算機102は、送られてきたコマンドにしたがって操作,点検を実施する。
【0073】
以上の4つの実施例を組み合わせれば、次のように点検,操作を支援するシステムを作成できる。
【0074】
図13で示したように、点検,操作を行う際に、映像上で操作員が操作点検対象として指定すべき対象が強調表示される。操作員はカーソルを、映像上の点検,操作を実施したい対象に持っていき選択すると、その対象に対して予め決められた点検,操作を実行するとともに、図14に示すように選択されなかった対象の強調表示は消え、操作,点検を実施中の対象のみを強調表示する。操作,点検終了後、同じく図14において、操作員がその対象に映像上で操作点検の確認入力をすることにより操作,点検の確認を行うとともに強調表示を終了する。さらにこの後再び操作点検対象として選択できる候補が図13のように強調表示される。このように操作点検対象の選択,操作点検の実施,操作点検状況の把握,操作点検の確認を、すべてCRTに表示しているITVカメラ映像を用いて、直接的に行うことができる。これは第1〜第4実施例を組み合わせただけなので、実現方法はそれぞれの実施例で説明した通りである。
【0075】
また、幾つかの操作点検対象においては、その操作点検対象内にさらに操作員が選択すべき対象を含むような場合がある。例えばボイラAを操作点検対象として選択しても、ボイラAに含まれる幾つかのバルブを操作点検の対象としてさらに指定する必要がある場合は、例えば次のようにする。
【0076】
図4において、メニュー405により項目406を選択することで、ボイラA401を選択する。この時、図15に示したようにボイラAの映像が拡大するとともに、ボイラAに含まれる幾つかの操作点検実施可能な或いは実施すべき対象をサブメニュー1106で表示すると共に、矩形1101,1102,1103,1104,1105を描画することにより強調表示する。このように、カメラによる映像のズーミングとグラフィックスによる強調とを組み合わせることで、操作員に操作点検対象をより明確に伝えることができる。
【0077】
この例に関する実現方法は、以下の通りである。操作点検項目メニュー405内の項目406が選択されたときに実行する動作として、ITVカメラ107に対象401を拡大するような指令を送る、サブメニュー406に関連するオブジェクトに対して表示の指令を送る、矩形1101から1105に対応する映像内オブジェクトに対して表示の指令を送る、といった動作を操作点検項目メニューオブジェクトに定義しておく。サブメニュー406や矩形1101から1105に対応するオブジェクトには送られてきた指令に対する動作として、表示を行う動作を定義する。以上のように定義した動作が、図11で示したアルゴリズムによってイベント発生時に実行される。
【0078】
次に、第5実施例について述べる。
【0079】
図16において、映像上の対象をカーソル304を用いて指定することによって、この対象の操作,点検に関係する関連情報1201を表示する。また、この時関連情報を表示している対象を、映像上で矩形407を描画することにより、強調する。関連情報としては、例えば操作点検対象の名称,点検時の点検内容,点検操作手順等のマニュアル表示,操作点検状況,関連するプロセスデータなどがある。
【0080】
この時、例えば1201で示したように、関連情報は選択した対象のすぐ隣に表示する。こうすることによって、映像上の対象から目を離すことなく、この対象の関連情報を参照できる。あるいは選択した対象及びそれに関連する対象、それに関するプロセスデータを明示する部分、などの領域は避け、選択した対象とは直接的に関連しない情報を明示している部分に重ねて関連情報を表示する。このようにすれば、選択した対象のさまざまなデータが明示されていることになり、操作員はそれらすべてを参照することができる。
【0081】
以上のように、映像上の対象から様々な関連情報を引き出すことができ、操作員は様々な情報を参照しながら操作,点検を実施することができる。また、関連情報を表示している対象を映像上で強調表示することで、その情報が映像内のどの対象に関連しているものなのかを明確にすることができる。
【0082】
この実施例に関しても、実現方法は、第1実施例で述べたUIDLで記述したオブジェクトを用いる。即ち、ステップ702,703において、操作員が選択した映像内オブジェクトにイベントを送り、ステップ704で対応する動作としてそのオブジェクトに関連する関連情報をハードディスク203から読み出したり、監視対象101から送られてくるプロセスデータを表示用に処理したり、データベース115から読み込むことにより、描画データを作成する。映像内オブジェクトの表示位置621,大きさ622及び関連するオブジェクトリスト625を用いて表示場所を決め、ステップ705で表示を行う。
【0083】
次に、第6実施例について述べる。
【0084】
この実施例は、第2実施例を拡張して、制御対象101が出すプロセスデータ,操作点検の履歴,操作員のID,グループID等の操作点検に関するデータによって、選択すべき或いは選択できる操作点検対象を決定し、それをITVカメラ映像上で強調表示するようにしたものである。
【0085】
すでに第1実施例および第2実施例で述べたように、図4で操作員が操作,点検する対象を指定する際に、カーソル304をメニュー405上に持っていくことにより、その項目406の操作点検対象401を、映像上で矩形407を描画することにより強調表示する。ここで、メニュー405内の項目406をカーソル304を用いて指定することにより、操作点検対象401を選ぶ。今、この対象に関連するプロセスデータが平常時の値でない場合には、図15で示したように、選択された対象401の内にあり、さらに操作員が指定すべき対象1101〜1105を映像上で強調表示する。一方、平常時の操作点検の際には、このような細かい対象の指定を省略できる。
【0086】
さらに、プロセスデータの値によっては、一刻も早く、対象の操作,点検を実施する必要がある。この場合には、操作点検対象を選ぶ際、他の対象は強調表示せず、操作点検が早急に必要な対象のみを強調表示したり、図6の407で示したように強調表示する際の矩形の色替え,線の太さ替え,ブリンク表示等を使って、他の対象より強調の度合いを高くする。
【0087】
このとき、特にプロセスデータの値が異常を示した対象の映像が表示されていない場合には、その対象を映せるカメラに切り替え、さらにそのカメラを遠隔操作してその対象を表示し、さらにその対象を強調表示することも可能である。
【0088】
これによって、システムの立ち上げ時や制御用計算機102がワークステーション104に送るプロセスデータが異常な値である場合、操作員はそのプロセスデータを出力する対象の細部にわたって映像上で強調表示されている対象を見ながら操作点検対象を指定したり、その異常なプロセスデータを出力している対象を優先的に指定することができる。
【0089】
また図17において、1301はグループID,ユーザID入力部である。操作員は、入力機器106を用いて、ここにIDを入力する。入力したIDによって操作員が指定できる、あるいは指定すべき操作点検対象を決定する。操作員が操作点検対象を指定する際には、この操作点検対象のみをITVカメラ映像上で強調表示する。これによって、操作員個人あるいはグループ毎に決めた点検,操作すべき対象のみが強調表示されるので、点検,操作対象の指定を簡略化すると共に、不慣れな操作点検による操作ミス、点検ミスを防ぐことができる。
【0090】
さらにこの際、図6の407で示したように、強調表示する際の矩形の色,線の太さ替え,ブリンク表示等を用いることにより、操作員にその部分を優先的に操作点検させたり、操作員にその部分を慎重に操作点検するよう明示する、といったことが可能である。
【0091】
この実施例に関する実現方法も、同様にUIDLで記述したオブジェクトを用いる。制御用計算機102がワークステーション104に送るプロセスデータやデータベース115から送られるデータは、ステップ702でプロセスデータベース610内に保持される。ステップ702,703で操作点検対象の指定をするという指令が操作点検対象のオブジェクトに対して送られた場合、ステップ704で対応する動作としてプロセスデータベース610内のデータ611の参照を行い、データの値を評価し、上記のように操作点検対象の細部にわたって操作員に指定させるために、その細部の対象に対応するオブジェクトに対して表示の指令を送ったり、その対象を優先的に指定させるために、より強調表示をするといった動作を実行する。
【0092】
一方、操作員がユーザID入力部1301に入力するユーザIDは、ステップ702,703を経て、ユーザID入力部1301に対応するオブジェクトに渡される。ステップ704で、このユーザIDを表示属性定義内容502内に保持しておく。操作点検対象を指定するために強調表示を行うよう指令を受け取った映像内オブジェクトは、ステップ704で、ユーザID入力部に対応するオブジェクトが保持しているユーザIDを参照して強調表示を行うかどうかを決め、操作点検の対象となるものは強調表示を行う。
【0093】
次に、第7実施例について述べる。
【0094】
この実施例は第4実施例を拡張して、制御対象101が出すプロセスデータあるいは操作員のID,グループID等の制御対象や操作,点検を行う操作員に関するデータによって、第4実施例のシステムが実行する点検,操作内容を決定するものである。
【0095】
例えば図14において、カーソル304で映像上の対象の操作点検対象401を指定することにより、その対象の操作あるいは点検を実施する際、その対象に関するプロセスデータが異常な値である場合には、システムがその対象の細かい操作,点検を行う。そうでない場合には、簡単に済ませる。これによって、ITVカメラ映像を見ていて、異常を発見したような場合、その対象を指定してやることにより、その異常に対応した操作,点検が自動的に実施される。また、操作員の入力操作の簡略化が実現できる。
【0096】
また、図17においては、ユーザID入力部1301に操作員がIDを入力することにより、操作員がその操作点検対象を指定した際に実行する点検,操作内容を決定する。映像上に強調表示されている機器を指定することにより、実行する操作,点検内容を、グループID,ユーザID入力部に入力したIDによって決定することにより、グループにおける点検,操作等の仕事を分担することができる。また、点検操作内容の実行を操作員によっては一部制限することにより誤った操作,点検動作を防ぐことができる。
【0097】
この実施例の実現方法は、第6実施例の実現方法とほぼ同様である。ステップ702でプロセスデータをプロセスデータベース610に保持する。ステップ702,703で操作点検を実行するイベントを受け取った時、対応する動作としてプロセスデータベース内610のデータ611の参照を行い、データの値を評価し、実行する操作,点検内容を決めて実行するといった動作をステップ704で実行する。同様に、操作員がユーザID入力部1301に入力するユーザIDは、ユーザID入力部1301に対応するオブジェクトに渡され、ステップ704でこのユーザIDを表示属性定義内容502内に保持しておく。操作点検を実施する際には、ユーザID入力部に対応するオブジェクトが保持しているユーザIDを参照して操作点検内容を決めて実行するといった動作をステップ704で実行する。
【0098】
また第6,第7の施例と同様の方法で、第5実施例は次のように拡張できる。即ち、操作員が映像上の対象を選択するなどして引き出す関連情報の内容をプロセスデータの値や操作員IDなどによって決定する。これによって、操作点検手順や操作点検マニュアルなどは参照した時点の対象の状況や参照した操作員に依存したものになり、必要な情報をより簡単に得ることができる。
【0099】
次に、第8実施例を述べる。
【0100】
この実施例は、第1実施例を拡張したものである。図18で示す様に、カーソル304を用い項目406を指定することで、ボイラA401の操作及び点検をする際、映像上でその操作点検対象を矩形407を表示して強調するだけでなく、表示中のプロセスデータのうちその対象に関連するプロセスデータ1401,1402,1403の色を変えたり、ブリンクさせたりして強調表示を行う。また、図6で示したように、操作,点検する際、映像上でその操作点検対象を強調表示するだけでなく、その対象に関連する対象も強調してやる。例えば図6においては、ボイラA401を操作点検の対象とし、それに関連する機器としてボイラB402,ボイラC403が強調表示されている。ここで、操作点検対象とそれに関連する対象とは強調表示する矩形の色や線の太さ,ブリンク,ハイライト表示などによって区別することができる。このように、操作,点検を実施する際、映像内の操作点検対象のみならず、それに関連するプロセスデータや、関連する映像内の対象を強調表示することにより、操作点検対象を総合的に詳細に操作員に示すことが可能となる。
【0101】
これらの実施例の実現方法は、第1実施例において、操作点検対象を強調表示することを定義した動作テーブル602上に、関連する映像内オブジェクト、関連するプロセスデータを表示しているグラフオブジェクトや表オブジェクトなどに対して上に挙げたような強調表示をする指令を送る動作を付加しておく。ステップ704においてこの動作を実行すると、関連する映像内オブジェクトやグラフオブジェクト、表オブジェクトに強調表示の指令が送られる。この指令はステップ702,703でそれぞれのオブジェクトに分配され、ステップ704でそれぞれのオブジェクトが上に挙げたような強調表示を行う。
【0102】
第9実施例は、第2実施例を第8実施例と同様に拡張したものである。即ち、図18において、操作点検の対象を指定する際に、操作員がカーソル304を項目406上に持ってくることにより、映像上で操作点検対象401を矩形407を表示する等して強調するだけでなく、表示中のプロセスデータのうちその対象に関連するプロセスデータ1401,1402,1403の色を変えたり、ブリンクさせたりして強調表示を行う。
【0103】
また、図6で示したように、操作,点検対象を指定する際、映像上で操作点検実施可能な、あるいは実施すべき対象を強調表示するだけでなくその対象に関連する対象も強調してやる。例えば図6においては、ボイラA401を操作員が指定すべきあるいは指定できる操作点検対象とし、それに関連する機器としてボイラB402,ボイラC403が強調表示されている。ここで、操作点検実施可能な或いはすべき対象とそれに関連する対象とは強調表示する矩形の色や線の太さ,ブリンク,ハイライト表示などによって区別することができる。これによって、操作点検対象を指定する際、映像内の操作点検実施可能なあるいは実施すべき対象及びそれに関連した映像内の対象、表示中の関連するプロセスデータ等を把握した指定が可能になる。
【0104】
この実施例は、操作点検可能なあるいは実施すべき対象の強調表示を行うことを定義した動作テーブル602上に、第8実施例と同様に関連する映像内オブジェクト、関連するプロセスデータを表示しているグラフオブジェクトや表オブジェクトなどに対して強調表示をする指令を送る動作を付加しておく。ステップ704においてこの動作を実行すると、関連する映像内オブジェクトやグラフオブジェクト、表オブジェクトに強調表示の指令が送られる。この指令はステップ702,703でそれぞれのオブジェクトに分配され、ステップ704でそれぞれのオブジェクトが上に挙げたような強調表示を行う。第8実施例及び第2実施例の実現方法を合わせることによって実現できる。
【0105】
上述したように、本発明の実施例によれば、監視制御対象を操作,点検する際、その操作点検実施中の対象及び操作点検を実施可能なあるいは実施すべき対象を映像上で強調するので、対象選択ミスの防止,操作点検対象の明確化を実現することができる。操作員は現場の状況を良く把握したうえで操作点検対象の選択を実施することができると共に、現在操作点検が行われている対象の状況を十分把握できる。
【0106】
また、映像上の操作点検対象を指定することによりその対象の操作点検を実施できる。これによって、映像を見て異常がわかるような場合には、そこをマウスなどのポインティングデバイスで操作点検の対象と指定してやればよい。また、操作や点検の際には操作員による確認が大切であるが、この確認も監視対象を映している映像上で行うことにより、現場の状況を把握した確認が実施できる。
【0107】
これらの実現により操作員は操作室に居ながら現場にいるような感覚で操作,点検を行うことができる。
【0108】
さらに、制御対象の状況によってそのとき行われる操作内容、点検内容を決めたり、その対象として選択できるものを決めることで、適切な操作あるいは点検の実施を行うことができる。また、この際に映像上で操作点検すべき対象のみを強調したり、強調表示方法を操作点検の重要度,優先度などによって変えることによって、対象を操作員が指定する際、より的確な指定ができる。
【0109】
さらに、映像上の対象を指定することで、その操作点検状況,操作点検手順,操作点検内容,その他関連するプロセスデータ,関連する映像内の他の対象等の情報を引き出すことができる。また、これらを表示する位置を映像上の対象のすぐ近くに表示してやることにより、映像内の対象とそのデータを同時に参照することが容易になる。また、すでにトレンドグラフや表などに表示しているデータやプラント全体図等おいても、関連するものを強調してやることにより、総合的な監視,操作を実現することが可能である。
【0110】
【発明の効果】
本発明によれば、異常が発生したときに迅速に操作点検を実施することが可能となる。また、点検対象が強調表示されるために点検対象が明確になりより確実な点検を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明の一実施例に係る監視装置の構成図である。
【図2】図1に示すデータ表示,入力受付用計算機(ワークステーション)内部の構成図である。
【図3】ディスプレイに表示する表示画面の一例を示す図である。
【図4】点検項目メニューを示す図である。
【図5】強調表示の一例を示す図である。
【図6】強調表示の他の例を示す図である。
【図7】オブジェクト構成図である。
【図8】イベント属性定義内容の構成図である。
【図9】表示属性定義内容の構成図である。
【図10】カメラオブジェクトの表示属性定義内容の構成図である。
【図11】本発明実施例の監視装置の処理手順を示すフローチャートである。
【図12】ITVカメラ制御情報とオブジェクトが持つ操作点検対象の3次元モデル及びそのモデルから映像内に置ける操作点検対象の位置,大きさを作成するための図である。
【図13】強調表示の別の例を示す図である。
【図14】強調表示の更に別の例を示す図である。
【図15】強調表示の更に別の例を示す図である。
【図16】強調表示の更に別の例を示す図である。
【図17】ID入力画面例を示す図である。
【図18】強調表示の更に別の例を示す図である。
【符号の説明】
101…制御,監視対象、102…データ収集および監視対象制御部(制御用計算機)、104…表示及び操作員入力受付用計算機(ワークステーション)、105…CRT、106…操作員入力受付装置、107…ITVカメラ、115…データベース、301…プロセスデータ表示領域、302…ITVカメラからのカメラ映像表示領域、304…カーソル、305…トレンドグラフ、405…操作点検項目メニュー、401…操作点検対象(ボイラA)。
[0001]
[Industrial applications]
The present invention relates to a monitoring device for a transportation system such as a railway or a road network, a chemical plant, steel, electric power, gas, a water supply and sewage plant, and an inspection method using the same. The present invention relates to a monitoring device suitable for performing monitoring.
[0002]
[Prior art]
For example, in a process control monitoring system, a method is adopted in which a monitor device is installed in a central operation room, an object to be monitored and controlled is photographed by an ITV camera, and an image thereof is displayed on the monitor device. In addition, various process data obtained from the monitored and controlled objects and process control information such as input data from operators are converted by control devices such as control terminals into characters, graphs, tables, and figures, and displayed on the display. it's shown. Conventionally, an ITV camera image and a screen of this process control information have been separately displayed, or simply displayed on the same screen. Therefore, for example, when operating or inspecting a certain device, the operator uses a dedicated button to see the state of the device in detail, apart from the operation of displaying the control information of the device on the process control information screen. It was necessary to perform switching of the ITV camera, zooming and panning. That is, when performing the process monitoring control, the operator needs to perform two operations: an operation relating to the screen of the process control information and an operation relating to the ITV camera image.
[0003]
Therefore, in order to solve this problem, in the CRT monitoring and control apparatus described in Japanese Patent Application Laid-Open No. 2-224101, an operation related to the ITV camera image is performed by an operation related to the process control information screen. This prior art uses a mouse or a keyboard to input the name of an operation inspection target on a screen of process control information displayed on a control terminal or the like, selects a figure expressing the target, or selects an operation panel. Means for determining an object to be operated and inspected by pressing a dedicated button on the top, means for selecting an ITV camera image showing the determined operation and inspection object and sending an ITV camera image selection command to the image selecting device; Means for synthesizing an ITV camera image and process data related to the subject on a process control information screen and simultaneously displaying them.
[0004]
According to this conventional technique, by selecting an operation / inspection target on the process control screen, an image of the target can be automatically displayed on the screen, and the labor of the operator can be saved.
[0005]
[Problems to be solved by the invention]
However, in this prior art, it is necessary to specify a figure expressing an object to be operated and inspected with a mouse or the like, or to input a character name from a keyboard. Furthermore, when inputting a command to execute an operation or an inspection, or inputting an operation check or an inspection check of an operation / inspection target, a menu that displays the name of the target displayed on the process control information screen is used. The target must be specified, an operation inspection execution command must be input, and an operation inspection confirmation input must be performed using an object that abstracts the object, such as a figure expressing the object.
[0006]
In addition, since this conventional technique is configured to display a specific object in a camera image from an abstract representation of the object, such as a figure or a name, another object is displayed unless an accurate input is performed. I will. When specifying an object to be operated or inspected, an abstraction of the object, such as a "name" and a "figure" representing the object, even when it is obvious from the camera image that an abnormality has occurred. By designating and inputting, a target to be operated and inspected is specified. In this case, it is necessary to associate a specific object to be subjected to the operation check on the camera image with its abstract expression such as the name of the object and a graphic representing the object.
[0007]
Generally, in a process control monitoring system such as a plant, the number of devices to be inspected and the number of graphics information screens to be displayed on a display to be controlled by an operator are very large. There are many associations that the operator should memorize, such as the correspondence between the figure expressing it and the specific device on the ITV camera image. For this reason, the operator needs to perform long-term training in advance to learn these associations.
[0008]
Also, if an operation and inspection command is input through such an abstract object, it is difficult to convey the state of the site. For example, at the time of maintenance inspection work of a plant or the like, it is important to work to grasp the situation at the site. In a conventional system for selecting an object using an abstract object such as graphics or inputting an operation inspection command, there is a possibility that an object may be incorrectly selected or an operation error may occur at the time of work. It is the situation that is working.
[0009]
In addition, when the operator inputs an instruction to execute an operation or an inspection, or an operator inputs an operation confirmation or an inspection confirmation of an object, the confirmation area formed by the camera image display area and the figures and characters or the input location of the instruction is changed. If you are far away, you need to shift your gaze from the video when inputting. In such a case, the operator may occasionally input a confirmation input or an operation command directly to the input location without looking at the camera image. As described above, the fact that confirmation and input of commands and the like can be performed without sufficiently grasping the status of the monitoring control target causes operation errors and inspection errors.
[0010]
On the other hand, it is not practical in terms of cost to install a camera that projects the object for each device to be operated and inspected, and in general, one camera shoots several objects to be inspected. . Therefore, as in the prior art, a target can be designated and operated and inspected, and even if it is possible to switch to a camera image showing the object, a plurality of objects that can be operation and inspection targets are displayed in the camera image. May be done.
[0011]
In such a case, it becomes unclear to the operator which object is actually being operated or inspected. Similarly, when specifying an object to be operated or inspected, it is unclear to which object the camera image corresponds. Also, when confirming the operation and inspection, it is not clear on the video which object is to be confirmed. Further, the devices to be operated and inspected are not independent devices. Some devices may be closely related to other devices. In the case of operation and inspection, it is necessary to clearly indicate such related equipment to the operator.
[0012]
In addition, since additional information such as the name, handling method, inspection operation status, and process data related to the target cannot be extracted from the specific target in the camera image, such data is extracted while watching the image. If it is desired, it must be extracted using the correspondence between the object on the video, its name, and the figure representing it as described above. In addition, if the display location of the extracted data is displayed at a location distant from the target on the video, it is difficult to simultaneously refer to the target on the video and information related to the target.
[0013]
In addition, in the operation and inspection, the status of the monitoring target, the timing of the operation inspection, the operator who performs the operation inspection, such as the periodic inspection and the inspection at the time of abnormality, the inspection performed by the person in charge of the system management, and the inspection performed by other people, Depending on the group to which the operator belongs or the like, the contents of the operation check vary depending on whether or not the operation and check are to be performed or whether or not the operation is to be performed. Therefore, it is necessary to change the operation inspection target to be specified and the operation inspection content to be performed based on data on the database including the status of the monitoring target, information on the person performing the operation inspection, and the like.
[0014]
In summary, the prior art has the following problems.
[0015]
(1) Since the camera image includes a plurality of targets for which the operation check may be performed, the target for which the operation check is performed may be unclear in the camera image.
[0016]
(2) When specifying a target for which an operation check is to be performed from the monitoring control target, the target that can be specified next or should be specified is unclear in the camera image. Further, even if the operator specifies a target, it is not clear on the camera image which target has been specified.
[0017]
(3) When performing an operation check, a target related to the operation check target is not specified.
[0018]
(4) When performing operation inspection, it is necessary to input operation and inspection commands through abstract objects such as characters and figures. Also, when inputting a confirmation input, such as after an operation check of a monitoring control target, confirmation is performed through characters and figures.
[0019]
(5) Information related to inspection and operation and information such as process data related to the object cannot be extracted from the object on the camera image.
[0020]
(6) Since the location of the information related to inspection and operation of the object on the camera image and the information such as the process data related to the object does not take into account the position of the object on the camera image, the operator must use the image. It is difficult to refer to the object and the data related to it at the same time.
[0021]
(7) When specifying a target for which an operation check is to be performed, what is specified as a candidate must depend on data such as process data, operators, and operation histories obtained from the monitored and controlled target. Otherwise, the operator must always select an object to be checked for operation from the same object based on the situation of the monitoring and control object.
[0022]
(8) When performing an operation check, the contents of the operation check must depend on process data, operators, operation histories, and the like obtained from the monitored and controlled objects. Otherwise, it is necessary for the operator to select and determine all the operation and inspection contents.
[0023]
An object of the present invention is to solve at least one of the above-mentioned problems of the prior art, and to provide a monitoring device and an inspection method using the same, which have improved support functions for operation and inspection performed by an operator. is there.
[0024]
[Means for Solving the Problems]
The object of the present invention is to provide a monitoring device that shoots a monitoring target with a plurality of cameras and displays a video image of the monitoring target on a screen. Means for selecting a camera for photographing the object, means for sending a control command to the selected camera to photograph the abnormality monitoring object, displaying video images from the camera on a screen, and monitoring the abnormality. Means for distinguishing and displaying the display of the object from other display objects of the video image.
[0025]
The above object is also achieved by an inspection method using a monitoring device including a display for displaying a video image to be monitored and an input receiving unit for receiving an operation input of an operator. Designates the inspection object, the display of the object is highlighted from other display objects in the video image, and the operator performs the inspection by monitoring the highlighted video image. This is achieved by displaying the confirmation input on the screen when the operator receives a confirmation input from the input receiving means.
[0026]
By monitoring the screen, the occurrence of an abnormality can be immediately known, so that quick inspection is possible. In addition, since the inspection target is highlighted, the inspection target is clarified, and more reliable inspection can be performed.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[0028]
FIG. 1 is a configuration diagram of a monitoring device according to an embodiment of the present invention. Reference numeral 101 denotes a monitoring control target (hereinafter, referred to as a monitoring target) to be monitored and controlled in a traffic system such as a road or a railway, a power plant, a gas plant, a water and sewage system, a steel plant, and the like. A monitoring device monitors and controls this monitoring target. A data collection and monitoring target control unit (hereinafter, simply referred to as a control computer) 102 constituting the monitoring apparatus of the present embodiment collects data (hereinafter, referred to as process data) obtained from the monitoring target 101. Or control the monitoring target. The control computer 102 sends the process data to the data display and input reception control unit (hereinafter simply referred to as a workstation) 104 and the database 115 via the LAN 103. In addition, the control computer 102 receives a control command sent from the workstation 104 via the LAN 103 and controls the monitoring target 101.
[0029]
The database 115 stores process data input from the control computer 102 through the LAN 103, and also stores data such as set values of the control target 101, operator IDs, group IDs, and operation histories. The stored data is read by a read command from the workstation 104 and sent to the workstation 104 via the LAN 103.
[0030]
The ITV camera 107 sends the video of the monitoring target 101 to the workstation 104 via the cable 108, the switcher 110, and the cable 112. On the other hand, the workstation 104 sends a camera switching command from the cable 113 to the switcher 110, and sends a camera control signal to the ITV camera 107 through the cable 113, the switcher 110, and the cable 109. The switcher 110 switches the camera according to the camera switching command sent. The ITV camera 107 performs camera control such as zoom and pan according to a camera control command.
[0031]
The workstation 104 processes the process data sent from the control computer 102, the data sent from the database 115, and the video signal sent from the ITV camera 107, and displays them on the CRT 105. The operator inputs various input commands to the workstation 104 using the input device 106 such as a mouse, a tablet, and a touch panel. The workstation 104 processes these input commands, changes the CRT display, sends a data read command to the database 115, sends a control signal to the control computer 102 through the LAN 103, controls the monitoring target, and controls the ITV camera 107. , A camera switching signal and a camera control signal to the switcher 110.
[0032]
FIG. 2 is a configuration diagram of the inside of the computer 104. Reference numeral 201 denotes a CPU; 202, a main memory for developing control programs and process control screen data to be displayed on a CRT screen; 203, a hard disk; and 204, an input / output driver.
[0033]
A video signal input from the ITV camera 107 to the input / output driver 204 through the cable 112 is digitized by the digitizer 205 and drawn in the moving image frame buffer 206.
[0034]
Process data output from the control computer 102 and data from the database 115 are input to the input / output driver 204 via the cable 111 from the cable 111, and input commands from the operator are input to the input / output driver 204 via the cable 114 from the input device 106. And is sent to the CPU 201. The CPU 201 processes the input data according to a program on the main memory 202.
[0035]
The hard disk 203 stores the process control screen data, which is read out by the CPU 201 when necessary, expanded on the main memory 202, and written into the graphics frame buffer 207 by a CRT display command. The blend circuit 208 blends the moving image frame buffer 206 and the graphics screen frame buffer 207 and displays them on the CRT 105.
[0036]
FIG. 3 illustrates an example of a CRT screen configuration according to the present embodiment. 301, a process data display area for displaying process data sent from the control computer 102; 302, an image display area for displaying an image from the ITV camera 107; 304, a cursor that is moved by a pointing device such as a mouse; A button 305 is a menu for accepting the input of the command.
[0037]
Buttons such as 303 and menus such as 305 are available for receiving input from the operator, but these may be displayed only when necessary. The process data display area 301 displays a trend graph 306, a bar graph, a table 307, and the like to clearly show process data to an operator. The operator monitors the monitoring target 101 by viewing the data in the process data display area 301 and the video in the video display area 302, presses the operation button 303 with the cursor 304, and selects an item in the menu 305. Thus, an operation command, a control command, a display screen switching command, and the like for the monitoring target 101 are input.
[0038]
An embodiment of the present invention will be described more specifically based on the above-described system configuration and screen configuration.
[0039]
First, in the first embodiment, by pressing (selecting) the check button 303 in FIG. 3 with the cursor 304, the check item menu 405 in FIG. 4 is displayed. In FIG. 4, an image display area 302 displays an ITV camera image including a boiler A401, a boiler B402, a boiler C403, and a water supply 404. By selecting an item 406 of the inspection item menu 405 using the cursor 304, the boiler A401 is operated and inspected, and the operation or inspection is performed. At this time, a rectangle 407 that surrounds the boiler A 401 is drawn on the video in order to clearly indicate that the boiler A is selected in the video display area 302, and the boiler A is emphasized. That is, the object being inspected and operated is emphasized by drawing graphics over the image of the ITV camera being displayed. As a result, even if a plurality of operation inspections can be performed in the camera image, the target being inspected and operated is clearly displayed on the image, and the status of the target can be grasped more reliably. . Of course, if the operation inspection target for the specified item cannot be shown in the displayed camera image, the image is switched to the image from that camera.
[0040]
As a method of emphasizing the operation / inspection target other than the above-described embodiment, for example, as shown in FIG. 5, the operation / inspection target (here, boiler A401) is enlarged and displayed by transmitting a control command to the ITV camera 107 and performing remote control. To do that. Alternatively, the boiler A is switched to another ITV camera that can shoot the boiler A more easily, and it is remotely operated. That is, first, a camera switching signal is sent to the switcher 110, and then a control command is sent to the camera, so that the target is enlarged and displayed. That is, in the above example, the boiler A is enlarged and displayed.
[0041]
Next, a method of implementing this embodiment will be described.
[0042]
An object 501 having a structure as shown in FIG. 7 is defined in the main memory 202 of the workstation 104. Here, the object 501 includes attribute definition contents relating to display (hereinafter referred to as display attribute definition contents for simplicity) 502, data such as process data, an event input by an operator, and an attribute definition content relating to an operation driven thereby. (Hereinafter referred to as event attribute definition contents for the sake of simplicity) 503.
[0043]
FIG. 9 shows the contents of the display attribute definition contents 502. Here, the display position 621 of the object, the size 622, the shape 623, the drawing data 624 such as the color, the thickness of the character and the line, etc., whether or not the object receives an input event from the operator (hereinafter, the state of receiving the input event) Is called an activated state, and when it cannot be received, it is called a deactivated state). At the time of display, drawing is performed in accordance with the contents of the size 622, the shape 623, and the drawing data 624. The input event input by the operator is sorted using the input position information of the event and the values of the display position 621, size 622, shape 623, and object state variable 626 of the object defined here.
[0044]
FIG. 8 shows the internal structure of the event attribute definition contents 503. The event attribute definition contents 503 include an event index table 601 and an operation table 602 defining an operation to be executed when the event occurs.
[0045]
The event index table 601 registers an event name 603 and a process data variable 604 related to the object. In the event name 603, the names of all events received by the object, such as an input by an operator and a command sent from another object, are registered. The process data variable 604 is a pointer to a corresponding data storage location 611 of the process database 610. Process data obtained from the control target 102 is stored in a corresponding data storage location 611 in the process database 610 on the main memory 202, and each object refers to the data.
[0046]
The operation table 602 registers an operation function to be executed when an event occurs, a display format for displaying process data, and the like. Examples of operations to be performed when an event occurs include, for example, creating data to be displayed on the CRT 105, sending a command to another object, sending a control command to the control computer 102,
For example, a control command for switching the ITV camera video 302 displayed on the CRT 105 is sent. Regarding the process data column on the operation table 602, in addition to a display format for displaying the data, an operation such as issuing a warning when the value of the data is a certain value or more is defined.
[0047]
A description of such an object is described in “User Interface Construction Support System with Meta-User Interface” by Tani et al. In IPSJ Transactions, Vol. 30, No. 9, pp. 1200-1210. UIDL is used. Using the object described in UIDL, the algorithm of FIG. 11 is executed. In step 701, the system is started. In step 702, the CPU 201 collects operator input information input from the input / output driver 204, process data from the control target 101, data from the database 115, and commands from other objects.
[0048]
The CPU 201 passes input information from the operator and instructions from other objects to the corresponding object in step 703, and executes the corresponding operation in the event attribute definition contents 503 in step 704. As for the process data, the data collected in step 702 is entered into the process database 610. In step 703, the CPU 201 causes the object referring to the input process data to refer to the data, and in step 704, the CPU 201 executes an operation corresponding to the process data defined in the event attribute definition contents 503. After repeating steps 704 and 705 for all the events and process data collected in step 702, when rendering such as screen updating is performed, the rendering is performed in the frame buffer 207 in step 705 and the moving image frame buffer 206 and the blend circuit 208 are rendered. Is displayed on the CRT 105.
[0049]
Using the above objects and algorithms, a graphics menu 305 and buttons 303 on the display screen shown in FIG. 3, a table 307 in the process data display area 301, a graph 306, and the like are created. For example, the drawing of the graphics menu 305 is displayed in step 705 based on the contents defined in the display attribute definition contents 502. An event input to the graphics menu 305 by the operator using the cursor 304 is passed to the graphics menu object 501 in step 703, and an operation corresponding to an item in the menu 305 is executed in step 704. Regarding the graph 306, the process data obtained from the control target is referred to in step 703, drawing data is created in step 704 according to the display format on the operation table 602, and drawing is performed in step 705.
[0050]
Next, a method of recognizing an object in a video and highlighting it with graphics will be described. The objects shown in FIG. 7 are also defined for the ITV camera 107 for photographing the monitoring target and the target for performing the operation check in the video or the target related to the target.
[0051]
The contents of the display attribute definition contents 502 of the ITV camera object (hereinafter referred to as a camera object) are the contents shown in FIG. The camera object has, as an attribute, the content of a camera control signal output from the workstation 104 to the ITV camera 107. That is, the zoom value is 651, the vertical angle 652, and the horizontal angle 653. In addition, the related object list 654 has a list of objects corresponding to the target related to the operation check that the camera projects. Further, it has an object state variable 655 indicating whether or not an image from the camera is displayed in the image display area 302, and further has position information 656 indicating a place where the camera is installed.
[0052]
An object defined as an operation inspection target in the video or an object related thereto (referred to as an in-video object for simplicity) has a three-dimensional model 627 of the target in the display attribute definition contents 502. Also, the name of the camera object that reflects the object is described in the related object list 625.
[0053]
12, a model 627 to be inspected for operation is projected on a plane 802 defined by position information 655, horizontal angle information 653, vertical angle information 652, and a zoom value 651 of a camera object to obtain an image 805. At this time, the operation / inspection target in the actual ITV camera image is displayed by the position, size, and shape of the image 805. Therefore, from the projected image, the position, size, and shape of the target in the video being displayed can be determined.
[0054]
The position and size of the object in the video are calculated by the algorithm shown in FIG. When the video is switched in step 701 or step 704 when the system is started, a non-display command is issued to the camera object up to now, and a display command is issued to the camera object to be newly displayed. For the camera object that has received the display instruction, the object state variable 655 becomes the display value. At the same time, a command to activate the object in the video registered in the related object list 654 is issued.
[0055]
The object in the video that has received the instruction in step 703 is in an activated state, and thereafter, an input event of the operator can be obtained. Similarly, the camera object that has received the non-display instruction sets the object state variable 655 to a non-display value, and sets the in-video object registered in the related object list 654 to the inactive state.
[0056]
When performing remote control of the ITV camera 107, a command is sent to the camera object to recalculate the projected image of the object in the video. The camera object that has received the instruction in step 703 sends the above-described projection image calculation execution instruction to all the objects in the video registered in the related object list 654. Next, the object in the video that has received the command in step 703 recalculates the projected image from the three-dimensional model data 627 in step 704 as an operation corresponding to the command. When the zoom value is changed as shown in FIG. 12, the three-dimensional model 801 is projected onto the corresponding planes 803 and 804, and the images become 806 and 807, respectively. At this time, the position, size, and shape of the projected image 806 or 807 of the three-dimensional model are registered in the position 621, size 622, and shape 623 of the display attribute definition contents 502 of the object 501. As a result, while the remote control of the ITV camera 107 is not performed, the object in the video can be handled according to the position, size, and shape registered in the display attribute content 502.
[0057]
In the case of highlighting the target of the operation check in the video using graphics, the graphics are drawn in accordance with the position 621, size 622, and shape 623 of the object in the video. Next, a case will be described in which the operation inspection target in the video is enlarged and displayed by switching the camera or remote control to emphasize the target. In this case, the action table 602 in the event attribute definition contents 503 of the object corresponding to the target is defined in advance so that the camera switching command or camera control signal for enlarging the target is issued to the camera object. Keep it. When the camera object receives the camera switching command in step 703, it sends a camera switching signal to the switcher 110. When receiving the camera control signal, it sends it to the ITV camera 107. Further, referring to the list 654 of objects in the video registered in the camera object, a command is issued to the objects in the video to recalculate the position, size, and shape.
[0058]
In this way, by registering an object to be inspected in the ITV camera and the camera image and an object related thereto as an object, it is possible to recognize the position and size of the object on the ITV camera image. In addition, by registering the object to be projected by the camera in the related object list 654 in the attribute definition content 502 relating to the display of the camera object, the position and size of the object in the image such as when the camera is remotely operated are registered. If the shape needs to be recalculated, only the objects registered there need to be recalculated. Further, an operation to be executed, such as selection of the operation inspection target, is defined in the object, and the operation can be executed when an event is input. This in-video object is also described in UIDL.
[0059]
In the case of the first embodiment, the following is performed. When the check button 303 is pressed, the event is passed to the check button object via steps 702 and 703. In step 704, a command for displaying and activating the inspection item menu object is sent as an operation corresponding to the event input. Similarly, the inspection item menu object that has received the display and activation commands through steps 702 and 703 displays the inspection item menu 405 in steps 704 and 705. When the check item menu 405 is pressed, the event is passed to the check item menu object via steps 702 and 703, and an operation check command of the item selected as the corresponding operation in step 704 is sent to the control computer 102. Then, a command for highlighting is sent to the object in the video corresponding to the selected item. The object in the image that has received the instruction for highlighting examines the state variable, and issues an instruction to display the image of the camera to the camera object that displays the object if it is in the inactive state. As a result, the camera is switched to a camera that shows the target. If it is in the activated state, since the image of the camera showing the object has already been displayed, the drawing data of the rectangle 407 is created, and the rectangle created in step 705 is displayed.
[0060]
Next, a second embodiment of the present invention will be described with reference to FIG.
[0061]
When the operator presses the check button 303 (FIG. 3), rectangles 407, 901 and 902 surrounding the devices 401, 402, 403 and 404 which can be selected or selected in the video display area 302 are to be checked. , 903 are superimposed on the video and displayed. As described above, when the operator selects an object to be operated and inspected, the device to be selected is emphasized by displaying the graphics over the video. This clarifies the target on which the operation check should be performed or can be performed on the video.
[0062]
This embodiment uses an object described in UIDL as in the first embodiment. When the check button 303 is pressed, an event is passed to the check button object in steps 702 and 703, and in step 704, a corresponding action is specified as an object in the ITV camera image that can be specified or specified as a target for performing an operation check. Issue a rectangle display command. The in-video object that has received the instruction through steps 702 and 703 creates rectangular data in step 704, and displays rectangles 407, 801, 802, and 803 on the screen in step 705, respectively.
[0063]
When there are a plurality of selectable targets in a video as in this embodiment, a method for clarifying the targets will be described. As shown in FIG. 4, only when the cursor 304 is on the item 406 of the boiler A in the operation inspection item menu 405, a rectangle 407 for highlighting the boiler A 401 is drawn. This is a method of highlighting only the operation inspection target that the operator intends to select. Alternatively, as shown in FIG. 6, by moving the cursor 304 over the item 406 of the boiler A, the color and line thickness of the rectangle 407 for highlighting the boiler A 401 can be changed, or the rectangle can be highlighted. Display blinking. In this method, the operation inspection target that can be selected or to be selected is clearly indicated in the video, and the operation inspection target to be selected is further emphasized and displayed.
[0064]
These are also realized using objects described in UIDL as in the second embodiment. That is, the event that the cursor 304 has moved onto the item 406 is passed to the object corresponding to the operation / inspection item menu 405 via steps 702 and 703. In step 704, a command for highlighting is sent to the object corresponding to the boiler A401 as a corresponding operation. In steps 704 and 705, the object corresponding to the boiler A401 that has received the instruction through steps 702 and 703 draws the rectangle 407, performs color change, thickness change, and blink display of the rectangle 407.
[0065]
In addition, when specifying an object to be subjected to operation inspection, by performing such highlighting using graphics, it is possible to prioritize the object to be specified on the video. That is, in FIG. 13, the operation and inspection can be performed by changing the color, line thickness, type of line, and the like of the rectangles 407, 901, 902, and 903 to be displayed, or by superimposing characters such as numbers thereon. The priority, importance, and the like when performing the operation can be clearly indicated on the video. The operator can designate the next operation or inspection target based on the priority specified on the video.
[0066]
Next, a third embodiment will be described with reference to FIG.
[0067]
By displaying the rectangle 407 in the video display area 302 (FIG. 3), the boiler A 401 is highlighted. The operator brings the cursor 304 inside the rectangle 407 and inputs a confirmation input in an operation check or the like. The rectangle 407 is erased to indicate that confirmation has been made. That is, by directly inputting the confirmation input regarding the inspection and operation into the image of the object, the operator must always see the image of the object when confirming the executed operation and inspection. It is possible to carry out the confirmation operation ascertained. In addition, when a confirmation input is input, by highlighting the target on the video, the confirmation operation can be performed more easily. Further, by clearly indicating on the video on which the object is performed that the confirmation operation has been performed, the confirmation operation can be made more reliable. As described above, by specifying the confirmation target, confirming input, and confirming execution on the video, an operation such as pointing and calling performed at a site such as a plant is performed while being in the operation room. be able to.
[0068]
The above example is an example of confirmation in operation inspection. Similarly, when performing various operations in plant control, regarding the specification of the operation inspection target performed by the operator, (1) the target can be directly specified on the video. , (2) highlight the target in the video so that the operator specifies it when specifying, and (3) clearly indicate that the specification has been performed on the video when the operator specifies the target. And the like. As a result, not only can the target be specified as if at the site, but also the support of a computer that cannot be obtained at the site can be received.
[0069]
This embodiment can also be realized by using the object described in UIDL described in the first embodiment. Information such as operation and check completion is input from the control computer 102 to the workstation 104 via the LAN 103. Through steps 702 and 703, the event of the operation / inspection confirmation command is passed to the object corresponding to the object on which the operation / inspection has been executed. In steps 704 and 705, a rectangle 407 for emphasizing the object is drawn. When the operator brings the cursor 304 here and performs a confirmation input, in steps 702 and 703, the event of the confirmation input extends to the object related to the operation inspection target. As a result, the rectangle 407 is erased in step 704 as an operation corresponding to the confirmation input.
[0070]
Next, a fourth embodiment will be described with reference to FIG.
[0071]
When the boiler A 401 is operated and inspected, predetermined operation and inspection contents are automatically performed by selecting the operation and inspection target 401 with the input device 105 such as a mouse in the video display area 302. As described above, when performing the operation and inspection, the operation and inspection are performed by directly selecting the operation and inspection target on the video. The operator only has to look at the video and select a target to be operated or inspected using a mouse or the like, and direct, quick and reliable inspection and operation can be realized.
[0072]
This embodiment can also be realized by using the object described in UIDL shown in the first embodiment. That is, in steps 702 and 703, an input event from the operator is fetched and passed to the object corresponding to the operation and inspection object. As a corresponding operation in step 704, an operation and check command to be performed on the device corresponding to the object is sent to the control computer 102 via the LAN 103. The control computer 102 performs operation and inspection according to the transmitted command.
[0073]
By combining the above four embodiments, a system for supporting inspection and operation can be created as follows.
[0074]
As shown in FIG. 13, at the time of performing inspection and operation, an object to be designated by the operator as an operation and inspection target is highlighted on the video. When the operator brings the cursor to an object on which inspection and operation are to be performed on the image and selects the object, the operator performs a predetermined inspection and operation on the object, and does not select the object as shown in FIG. The highlighting of the target disappears, and only the target whose operation and inspection are being performed is highlighted. After the operation and inspection are completed, the operator performs the operation and inspection confirmation input on the image in FIG. 14 to confirm the operation and inspection and end the highlighting. Further, after this, candidates that can be selected again as operation inspection targets are highlighted as shown in FIG. As described above, the selection of the operation / inspection target, the execution of the operation / inspection, the grasp of the operation / inspection status, and the confirmation of the operation / inspection can be directly performed by using the ITV camera image displayed on the CRT. Since this is only a combination of the first to fourth embodiments, the realization method is as described in each embodiment.
[0075]
In addition, some of the operation and inspection objects may further include objects to be selected by the operator. For example, even if the boiler A is selected as an operation and inspection target, when it is necessary to further designate some valves included in the boiler A as an operation and inspection target, for example, the following is performed.
[0076]
In FIG. 4, a boiler A 401 is selected by selecting an item 406 from a menu 405. At this time, as shown in FIG. 15, the image of boiler A is enlarged, and some of the operations and inspections included in boiler A that can or cannot be performed are displayed in submenu 1106, and rectangles 1101 and 1102 are displayed. , 1103, 1104 and 1105 are highlighted by drawing. In this way, by combining the zooming of the image with the camera and the emphasis with the graphics, it is possible to more clearly convey the operation and inspection target to the operator.
[0077]
The implementation method for this example is as follows. As an operation to be executed when the item 406 in the operation check item menu 405 is selected, a command to enlarge the object 401 is sent to the ITV camera 107, and a display command is sent to the object related to the submenu 406. The operation of sending a display command to the in-video object corresponding to the rectangles 1101 to 1105 is defined in the operation check item menu object. For the objects corresponding to the submenu 406 and the rectangles 1101 to 1105, an operation for performing display is defined as an operation in response to a command sent. The operation defined as described above is executed when an event occurs by the algorithm shown in FIG.
[0078]
Next, a fifth embodiment will be described.
[0079]
In FIG. 16, by specifying a target on the video using the cursor 304, related information 1201 relating to the operation and inspection of the target is displayed. At this time, the target displaying the related information is emphasized by drawing a rectangle 407 on the video. The related information includes, for example, the name of the operation / inspection target, the inspection content at the time of inspection, the manual display of the inspection operation procedure, the operation / inspection status, the related process data, and the like.
[0080]
At this time, the related information is displayed immediately next to the selected target as indicated by reference numeral 1201, for example. By doing so, it is possible to refer to the relevant information of the target without keeping an eye on the target on the video. Alternatively, avoid areas such as the selected object and its related objects, and parts that clearly indicate process data related to the selected objects, and display related information over the parts that indicate information that is not directly related to the selected objects. . In this way, various data of the selected object is clearly indicated, and the operator can refer to all of them.
[0081]
As described above, various related information can be extracted from the target on the video, and the operator can perform operation and inspection while referring to various information. In addition, by highlighting the target displaying the related information on the video, it is possible to clarify which target in the video the information is related to.
[0082]
Also in this embodiment, the realization method uses the object described in UIDL described in the first embodiment. That is, in steps 702 and 703, an event is sent to the object in the video selected by the operator, and in step 704, as the corresponding operation, related information related to the object is read from the hard disk 203 or sent from the monitoring target 101. Drawing data is created by processing the process data for display or reading it from the database 115. The display location is determined using the display position 621, size 622, and related object list 625 of the object in the video, and display is performed in step 705.
[0083]
Next, a sixth embodiment will be described.
[0084]
This embodiment is an extension of the second embodiment. The operation inspection that can be selected or can be selected based on the process data output by the control target 101, the operation inspection history, the data related to the operation inspection such as the operator ID and the group ID. An object is determined, and the object is highlighted on an ITV camera image.
[0085]
As described in the first embodiment and the second embodiment, when the operator designates an object to be operated or inspected in FIG. The operation inspection target 401 is highlighted by drawing a rectangle 407 on the video. Here, the operation inspection target 401 is selected by designating the item 406 in the menu 405 using the cursor 304. If the process data related to this object is not a normal value, as shown in FIG. 15, the objects 1101 to 1105 which are present in the selected object 401 and which should be designated by the operator are displayed as images. Highlight above. On the other hand, at the time of normal operation inspection, designation of such a fine target can be omitted.
[0086]
Furthermore, depending on the value of the process data, it is necessary to carry out the operation and inspection of the target as soon as possible. In this case, when selecting the operation / inspection target, other objects are not highlighted, and only the object requiring immediate operation / inspection is highlighted, or when highlighted as shown by 407 in FIG. Using a rectangle color change, line thickness change, blink display, etc., the degree of emphasis is made higher than that of other objects.
[0087]
At this time, if the video of the target whose process data value is abnormal is not displayed, the camera is switched to a camera that can display the target, the camera is remotely operated to display the target, and the target is further displayed. Can also be highlighted.
[0088]
Thus, when the system starts up or when the process data sent from the control computer 102 to the workstation 104 has an abnormal value, the operator is highlighted on the video over the details of the target to output the process data. It is possible to designate an operation and inspection target while observing the target, or to preferentially designate an output target of the abnormal process data.
[0089]
In FIG. 17, reference numeral 1301 denotes a group ID and user ID input unit. The operator uses the input device 106 to enter the ID here. An operation inspection target that can be specified or specified by the operator based on the input ID is determined. When the operator specifies the operation and inspection target, only the operation and inspection target is highlighted on the ITV camera image. As a result, only the inspection and operation target determined for each individual operator or group are highlighted, so that the inspection and designation of the operation target are simplified, and operation errors and inspection errors due to unfamiliar operation inspection are prevented. be able to.
[0090]
Further, at this time, as shown by reference numeral 407 in FIG. 6, by using a rectangular color for highlighting, changing the line thickness, blinking display, or the like, the operator can preferentially operate and inspect that part. It is possible to indicate to the operator that the part should be carefully inspected.
[0091]
The implementation method according to this embodiment also uses an object described in UIDL. Process data sent from the control computer 102 to the workstation 104 and data sent from the database 115 are stored in the process database 610 in step 702. When an instruction to designate an operation and inspection target is sent to the operation and inspection target object in Steps 702 and 703, the data 611 in the process database 610 is referred to as a corresponding operation in Step 704, and the data value is set. In order to allow the operator to specify over the details of the operation and inspection target as described above, send a display command to the object corresponding to the detailed target or specify the target with priority. , Etc., are performed.
[0092]
On the other hand, the user ID input by the operator to the user ID input unit 1301 is passed to the object corresponding to the user ID input unit 1301 via steps 702 and 703. In step 704, this user ID is stored in the display attribute definition contents 502. In step 704, the object in the video that has received the instruction to perform highlighting to specify the operation / inspection target is to be highlighted with reference to the user ID held by the object corresponding to the user ID input unit. Decisions are made and those that are subject to operation and inspection are highlighted.
[0093]
Next, a seventh embodiment will be described.
[0094]
This embodiment is an extension of the fourth embodiment. The system according to the fourth embodiment uses process data output from the control target 101 or data relating to the control target such as the operator ID and group ID, and the operator who performs operations and inspections. Is to determine the contents of inspections and operations to be performed.
[0095]
For example, in FIG. 14, by designating an operation / inspection target 401 of a target on the video with the cursor 304, when the process or inspection of the target is performed, if the process data related to the target has an abnormal value, the system Performs detailed operation and inspection of the target. If not, do it easily. As a result, when an abnormality is found while watching the ITV camera image, by specifying the target, an operation and an inspection corresponding to the abnormality are automatically performed. Further, the input operation of the operator can be simplified.
[0096]
In FIG. 17, when the operator inputs the ID to the user ID input unit 1301, the inspection and operation to be executed when the operator specifies the operation inspection target are determined. By specifying the device highlighted on the video, the operation to be performed and the inspection contents are determined by the group ID and the ID input to the user ID input unit, thereby sharing the tasks of the inspection and operation in the group. can do. In addition, erroneous operation and inspection operation can be prevented by partially restricting the execution of the inspection operation content depending on the operator.
[0097]
The method of realizing this embodiment is almost the same as the method of realizing the sixth embodiment. In step 702, the process data is held in the process database 610. When an event for executing an operation check is received in steps 702 and 703, the data 611 of the process database 610 is referred to as a corresponding operation, the value of the data is evaluated, and the operation to be executed and the check contents are determined and executed. Are performed in step 704. Similarly, the user ID input to the user ID input unit 1301 by the operator is passed to the object corresponding to the user ID input unit 1301, and the user ID is stored in the display attribute definition content 502 in step 704. When performing the operation check, an operation of determining and executing the operation check content with reference to the user ID held by the object corresponding to the user ID input unit is executed in step 704.
[0098]
In the same manner as in the sixth and seventh embodiments, the fifth embodiment can be extended as follows. That is, the content of the related information to be extracted by the operator selecting an object on the video or the like is determined by the value of the process data, the operator ID, or the like. As a result, the operation check procedure, the operation check manual, and the like depend on the target situation at the time of reference and the referred operator, and necessary information can be obtained more easily.
[0099]
Next, an eighth embodiment will be described.
[0100]
This embodiment is an extension of the first embodiment. As shown in FIG. 18, by specifying the item 406 using the cursor 304, when operating and inspecting the boiler A 401, the operation / inspection target is not only displayed and highlighted on the video but also displayed as a rectangle 407. Highlighting is performed by changing or blinking the color of the process data 1401, 1402, 1403 related to the target among the process data in the middle. In addition, as shown in FIG. 6, at the time of operation and inspection, not only the operation / inspection target is highlighted on the video but also the target related to the target. For example, in FIG. 6, the boiler A401 is set as a target of operation and inspection, and the boilers B402 and C403 are highlighted as related devices. Here, the operation inspection target and its related target can be distinguished by the color of the rectangle to be highlighted, the thickness of the line, the blink, the highlight display, and the like. As described above, when performing the operation and inspection, not only the operation and inspection target in the video but also the process data related thereto and the target in the relevant video are highlighted to comprehensively detail the operation and inspection target. Can be shown to the operator.
[0101]
The method of realizing these embodiments is as follows. In the first embodiment, the operation table 602 that defines that the operation / inspection target is to be highlighted is displayed on the operation table 602. An operation of sending a command for highlighting as described above to a table object or the like is added. When this operation is performed in step 704, a command for highlighting is sent to the related in-video object, graph object, and table object. This command is distributed to the respective objects in steps 702 and 703, and in step 704, the respective objects perform the highlighting as described above.
[0102]
The ninth embodiment is an extension of the second embodiment in the same manner as the eighth embodiment. That is, in FIG. 18, when designating an operation inspection target, the operator brings the cursor 304 onto the item 406 to highlight the operation inspection target 401 on the video by displaying a rectangle 407 or the like. In addition, highlighting is performed by changing or blinking the color of the process data 1401, 1402, 1403 related to the target among the process data being displayed.
[0103]
In addition, as shown in FIG. 6, when designating an operation or inspection target, not only the target on which the operation / inspection can be performed or should be performed is highlighted, but also the target related to the target is highlighted. For example, in FIG. 6, a boiler A401 is set as an operation inspection target to be designated or designated by an operator, and boiler B402 and boiler C403 are highlighted as related devices. Here, the target that can or should be subjected to the operation check can be distinguished from the target related thereto by the color of the highlighted rectangle, the thickness of the line, the blink, the highlight display, and the like. Thereby, when designating the operation inspection target, it is possible to specify the target in which the operation inspection can be performed or should be performed in the video, the target in the video related thereto, the related process data being displayed, and the like.
[0104]
In this embodiment, the related video object and the related process data are displayed on the operation table 602 defining that the operation checkable or the object to be performed is highlighted, as in the eighth embodiment. An operation of sending a command for highlighting a graph object, a table object, or the like is added. When this operation is performed in step 704, a command for highlighting is sent to the related in-video object, graph object, and table object. This command is distributed to the respective objects in steps 702 and 703, and in step 704, the respective objects perform the highlighting as described above. This can be realized by combining the implementation methods of the eighth embodiment and the second embodiment.
[0105]
As described above, according to the embodiment of the present invention, when operating and inspecting an object to be monitored and controlled, the object under operation inspection and the object that can or should be subjected to operation inspection are emphasized on the video. In addition, it is possible to prevent mistakes in selecting the target and to clarify the target of the operation check. The operator is able to select the operation and inspection target after sufficiently understanding the situation at the site, and is also able to sufficiently understand the status of the target for which the operation and inspection is currently being performed.
[0106]
Also, by designating an operation check target on the video, the operation check of the target can be performed. In this way, if an abnormality can be recognized by looking at the video, it can be designated as a target of operation inspection using a pointing device such as a mouse. In addition, it is important for the operator to check the operation and inspection, but by performing this check on the video image of the monitored object, the user can check the situation at the site.
[0107]
With these realizations, the operator can perform operations and inspections as if he were on site while staying in the operation room.
[0108]
Furthermore, by deciding the contents of operations and inspections to be performed at that time depending on the situation of the control target, and determining what can be selected as the target, appropriate operations or inspections can be performed. Also, at this time, only the target to be inspected on the video is emphasized, or the highlighting method is changed according to the importance and priority of the operation and inspection, so that the operator can specify the target more accurately when specifying the target. Can be.
[0109]
Further, by specifying a target on the video, information such as the operation / inspection status, the operation / inspection procedure, the operation / inspection content, other related process data, and other targets in the relevant video can be extracted. In addition, by displaying these display positions in the immediate vicinity of the target on the video, it becomes easy to simultaneously refer to the target in the video and its data. Even in data already displayed in a trend graph or a table, or in an entire plant diagram, etc., it is possible to realize comprehensive monitoring and operation by emphasizing related items.
[0110]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, when abnormality arises, it becomes possible to implement operation check quickly. In addition, since the inspection target is highlighted, the inspection target is clarified, and more reliable inspection can be performed.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a monitoring device according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of the inside of a data display and input reception computer (workstation) shown in FIG.
FIG. 3 is a diagram illustrating an example of a display screen displayed on a display.
FIG. 4 is a diagram showing an inspection item menu.
FIG. 5 is a diagram showing an example of highlighting.
FIG. 6 is a diagram showing another example of highlighting.
FIG. 7 is an object configuration diagram.
FIG. 8 is a configuration diagram of event attribute definition contents.
FIG. 9 is a configuration diagram of display attribute definition contents.
FIG. 10 is a configuration diagram of display attribute definition contents of a camera object.
FIG. 11 is a flowchart illustrating a processing procedure of the monitoring apparatus according to the embodiment of the present invention.
FIG. 12 is a diagram for creating a three-dimensional model of an operation and inspection target possessed by ITV camera control information and an object and a position and a size of the operation and inspection target to be placed in a video from the model;
FIG. 13 is a diagram showing another example of highlighting.
FIG. 14 is a diagram showing still another example of highlighting.
FIG. 15 is a diagram showing still another example of highlighting.
FIG. 16 is a diagram showing still another example of highlighting.
FIG. 17 is a diagram showing an example of an ID input screen.
FIG. 18 is a diagram showing still another example of highlighting.
[Explanation of symbols]
101: control and monitoring target, 102: data collection and monitoring target control unit (control computer), 104: display and operator input receiving computer (workstation), 105: CRT, 106: operator input receiving device, 107 ... ITV camera, 115 ... database, 301 ... process data display area, 302 ... camera video display area from ITV camera, 304 ... cursor, 305 ... trend graph, 405 ... operation inspection item menu, 401 ... operation inspection object (boiler A ).

Claims (2)

監視対象を複数のカメラで撮影しそのビデオ映像を画面上に表示する監視装置であって、
監視対象個々の出力データの異常の有無を判定する手段と、
異常が発生したときこの異常監視対象物を撮影するカメラを選択する手段と、
選択されたカメラに制御指令を送出して前記異常監視対象物の撮影を行わせる手段と、
該カメラによるビデオ映像を画面に表示すると共に該異常監視対象物の表示を該ビデオ映像の他の表示物から区別して表示する手段とを有する監視装置。
A monitoring device that shoots a monitoring target with a plurality of cameras and displays a video image thereof on a screen,
Means for determining whether there is an abnormality in the output data of each monitoring target,
Means for selecting a camera for photographing the abnormality monitoring target when an abnormality occurs;
Means for sending a control command to the selected camera to shoot the abnormality monitoring target object,
Means for displaying a video image by the camera on a screen and displaying the display of the abnormality monitoring object separately from other display objects of the video image.
監視対象を複数のカメラで撮影し該カメラで撮影された映像をディスプレイに表示する監視装置であって、
監視対象個々の出力データの異常の有無を判定し異常が発生した監視対象を撮影しているカメラを選択し該選択されたカメラの映像を前記ディスプレイに表示する手段を有する監視装置。
A monitoring device that captures an image of a monitoring target with a plurality of cameras and displays an image captured by the camera on a display,
A monitoring apparatus comprising: means for judging the presence or absence of an abnormality in output data of each monitoring target, selecting a camera capturing the monitoring target in which the abnormality has occurred, and displaying an image of the selected camera on the display.
JP2003130973A 2003-05-09 2003-05-09 Monitoring device Pending JP2004005639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003130973A JP2004005639A (en) 2003-05-09 2003-05-09 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003130973A JP2004005639A (en) 2003-05-09 2003-05-09 Monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10232965A Division JPH11134086A (en) 1992-07-03 1998-08-19 Monitoring device and inspection method using it

Publications (1)

Publication Number Publication Date
JP2004005639A true JP2004005639A (en) 2004-01-08

Family

ID=30438058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003130973A Pending JP2004005639A (en) 2003-05-09 2003-05-09 Monitoring device

Country Status (1)

Country Link
JP (1) JP2004005639A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225274A (en) * 2008-11-20 2014-12-04 フィッシャー−ローズマウント システムズ,インコーポレイテッド Methods and apparatus to draw attention to information presented via electronic displays to process plant operators
JP2014225279A (en) * 2008-03-26 2014-12-04 フィッシャー−ローズマウント システムズ,インコーポレイテッド Methods and apparatus to create process control graphics based on process control algorithm information
JP2016517586A (en) * 2013-03-15 2016-06-16 フィッシャー−ローズマウント システムズ,インコーポレイテッド Method and computer-readable storage medium for providing a process variable pane
WO2017022286A1 (en) * 2015-08-03 2017-02-09 ソニー株式会社 Information processing system, information processing method, and recording medium
US9983575B2 (en) 2013-04-09 2018-05-29 Fisher-Rosemount Systems, Inc. Systems and methods to graphically display process control system information
US10013149B2 (en) 2013-03-15 2018-07-03 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring for a process control system
US10180681B2 (en) 2013-03-15 2019-01-15 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring with zoom features for use in a process control system
JP2019215817A (en) * 2018-06-14 2019-12-19 オムロン株式会社 Information processor, information processing method, and program
US10514668B2 (en) 2013-03-15 2019-12-24 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring in a process control system using a navigation pane
US10803636B2 (en) 2013-03-15 2020-10-13 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring, predictive analytics and fault detection in a process control system
US10816588B2 (en) 2018-07-12 2020-10-27 Fanuc Corporation Noise source monitoring apparatus and noise source monitoring method
US11029358B2 (en) 2018-07-12 2021-06-08 Fanuc Corporation Noise source monitoring apparatus and noise source monitoring method
JP2024029776A (en) * 2023-09-29 2024-03-06 日本製鉄株式会社 Remote work control system, remote work control method and computer program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225279A (en) * 2008-03-26 2014-12-04 フィッシャー−ローズマウント システムズ,インコーポレイテッド Methods and apparatus to create process control graphics based on process control algorithm information
JP2014225274A (en) * 2008-11-20 2014-12-04 フィッシャー−ローズマウント システムズ,インコーポレイテッド Methods and apparatus to draw attention to information presented via electronic displays to process plant operators
US10514668B2 (en) 2013-03-15 2019-12-24 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring in a process control system using a navigation pane
JP2016517586A (en) * 2013-03-15 2016-06-16 フィッシャー−ローズマウント システムズ,インコーポレイテッド Method and computer-readable storage medium for providing a process variable pane
US10803636B2 (en) 2013-03-15 2020-10-13 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring, predictive analytics and fault detection in a process control system
US10013149B2 (en) 2013-03-15 2018-07-03 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring for a process control system
US10180681B2 (en) 2013-03-15 2019-01-15 Fisher-Rosemount Systems, Inc. Graphical process variable trend monitoring with zoom features for use in a process control system
US9983575B2 (en) 2013-04-09 2018-05-29 Fisher-Rosemount Systems, Inc. Systems and methods to graphically display process control system information
US10535375B2 (en) 2015-08-03 2020-01-14 Sony Corporation Information processing system, information processing method, and recording medium
WO2017022286A1 (en) * 2015-08-03 2017-02-09 ソニー株式会社 Information processing system, information processing method, and recording medium
US11158353B2 (en) 2015-08-03 2021-10-26 Sony Corporation Information processing system, information processing method, and recording medium
WO2019239788A1 (en) * 2018-06-14 2019-12-19 オムロン株式会社 Information processing device, information processing method, and program
JP2019215817A (en) * 2018-06-14 2019-12-19 オムロン株式会社 Information processor, information processing method, and program
TWI703505B (en) * 2018-06-14 2020-09-01 日商歐姆龍股份有限公司 Information processing device, information processing method and computer program product
US10816588B2 (en) 2018-07-12 2020-10-27 Fanuc Corporation Noise source monitoring apparatus and noise source monitoring method
US11029358B2 (en) 2018-07-12 2021-06-08 Fanuc Corporation Noise source monitoring apparatus and noise source monitoring method
JP2024029776A (en) * 2023-09-29 2024-03-06 日本製鉄株式会社 Remote work control system, remote work control method and computer program

Similar Documents

Publication Publication Date Title
JP2004005639A (en) Monitoring device
JP2899174B2 (en) Monitoring device
JPH09204221A (en) Monitoring and control equipment
JP6332568B2 (en) Information processing apparatus, control method, and program
JPWO2007086140A1 (en) Analyzer operating status display system
US20160224209A1 (en) Video monitoring system and video display method
JP2012118567A (en) Programmable display
JPWO2010016113A1 (en) Plant monitoring and control system
JP7202571B2 (en) Screen transition information generation device, screen transition information generation method, screen transition information generation program, screen transition information generation system
JP3608940B2 (en) Video search and display method and video search and display apparatus
JP2008040576A (en) Image processing system and video display apparatus including the system
JP2015087834A (en) Plant information display device and plant information display method
JP2019028642A (en) Inspection report reparation system
JP2003009135A (en) Camera monitoring control system and image server
JP5542624B2 (en) Plant monitoring device
JPH07318380A (en) Data measurement support device and data measurement support method
JP7553612B2 (en) Teaching Device
JP2007068010A (en) Video surveillance system
JP3441200B2 (en) Plant monitoring equipment
JP2668288B2 (en) Plant status display
JP7738282B2 (en) Image management system, image management method, and program
JP3124414B2 (en) Monitoring and control equipment
JPH10229554A (en) Supervisory system
JP4478047B2 (en) Information presentation apparatus, information presentation method, and program thereof
JP2000066717A (en) Man-machine interface device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060116

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060228

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060331

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060427