[go: up one dir, main page]

JP3238205B2 - Screen tagging method and device - Google Patents

Screen tagging method and device

Info

Publication number
JP3238205B2
JP3238205B2 JP21519092A JP21519092A JP3238205B2 JP 3238205 B2 JP3238205 B2 JP 3238205B2 JP 21519092 A JP21519092 A JP 21519092A JP 21519092 A JP21519092 A JP 21519092A JP 3238205 B2 JP3238205 B2 JP 3238205B2
Authority
JP
Japan
Prior art keywords
information
video
tag
screen
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP21519092A
Other languages
Japanese (ja)
Other versions
JPH0659646A (en
Inventor
谷  正之
公也 山足
浩一郎 谷越
正康 二川
正人 堀田
真也 谷藤
敦彦 西川
敦彦 廣田
晴美 内ケ崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=16668175&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP3238205(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP21519092A priority Critical patent/JP3238205B2/en
Publication of JPH0659646A publication Critical patent/JPH0659646A/en
Application granted granted Critical
Publication of JP3238205B2 publication Critical patent/JP3238205B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Alarm Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Digital Computer Display Output (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】ビデオ映像(以下、単に「映像」
と称することもある)を利用したマン・マシンインタフ
ェース(以下、単に「マンマシン」と称することもあ
る)システムに関し、さらに詳しくは、ビデオカメラか
ら入力された映像(以下、単に「カメラ映像」と称する
こともある)を構成する被写体に、予め設定した各種情
報を対応付けする手段を提供する方法および装置に関す
る。
[Industrial applications] Video images (hereinafter simply referred to as "images")
The present invention relates to a man-machine interface (hereinafter, also simply referred to as “man-machine”) system using a video camera (hereinafter, simply referred to as “camera image”). The present invention relates to a method and an apparatus for providing a means for associating various kinds of preset information with a subject constituting the subject.

【0002】[0002]

【従来の技術】従来のプラント監視方法としては、例え
ば、現場に存在する機器、操作盤、ディスプレイ、系統
監視盤等にメモを貼ることにより、プラント使用者の注
意を喚起せしめている。この際、裏側に糊を付着させた
紙に、様々な内容を記載して、対象機器に貼り付けてい
る。例えば、機器の故障状態、使用上の注意事項、試験
中であることの明示、各種変更事項等を紙に記載する。
これらの紙(メモ)は、他の作業者への連絡、自分自身
の覚書等のために使用される。このように機器にメモを
貼ることを「札掛け」、メモのことを「札」と称してい
る。一方、プラント監視制御システムにおいては、監視
制御の遠隔化、集中化が進んでいる。プラント内の各種
機器は、遠隔点に存在する操作室から、集中して監視制
御され、運転員は運転、監視作業の大半を操作室にある
ディスプレイ、および、各種命令等の入力装置を介して
行う。このような作業形態では、従来の札掛けでは、非
常に不便となる。現場の機器への札掛け、現場の機器に
掛けられた札の参照等を行なうためには、実際に現場に
行く必要があるからである。また、札を掛ける対象物
が、ディスプレイ画面中にしか存在しない場合もあり得
る。例えば、従来の系統監視盤は、ディスプレイ画面上
での系統図表示に置き替りつつあり、その場合、札掛け
も画面に表示された系統図に対して行う必要がある。
しかし、ディスプレイの表示内容は、必要に応じて変更
するためディスプレイ画面にメモを貼り付けても画面上
での表示物に、メモを貼ったことにならない。 Hypert
ext '89 Proceedings (Pittsburgh, Pennsylvania , No
v. 5-7, 1989開催) ACM, New York, 1989発行、365ペー
ジから378ページに記載されている「InterNote: Extend
ing a Hypermedia framework to support annotative c
ollaboration」(Catlin, T., Bush, P.E., Yankelovic
h, N.著)には、画面上に表示された文書に「注釈」をつ
ける技術が開示されている。この技術は、画面に表示さ
れた文書の選択した部分に電子的に札掛けする技術の一
種と解釈できる。しかし、前記文献には、文書データに
札掛けする技術しか開示されておらず、文書データ等の
編集対象を除く画面構成要素、例えば、画面に表示され
たマン・マシンインタフェースの構成要素(メニュー、
アイコン、グラフ、メーター等)、ビデオ映像に映って
いる被写体等に札掛けする技術は開示されていない。
2. Description of the Related Art As a conventional plant monitoring method, for example, a memo is put on a device, an operation panel, a display, a system monitoring panel, or the like existing at a site to call a plant user's attention. At this time, various contents are described on a paper with glue adhered on the back side, and the paper is attached to the target device. For example, the failure state of the equipment, precautions for use, indication that the test is being performed, various changes, and the like are described on paper.
These papers (memos) are used for contacting other workers, memorandums of oneself, and the like. Affixing a memo to a device in this way is referred to as "tag hanging", and a memo is referred to as a "tag". On the other hand, in a plant monitoring and control system, remote control and centralization of monitoring and control are progressing. Various devices in the plant are centrally monitored and controlled from an operation room located at a remote point, and the operator performs most of the operation and monitoring work via a display in the operation room and input devices such as various instructions. Do. In such a work mode, it is very inconvenient to use the conventional bill hanging. This is because it is necessary to actually go to the site in order to attach a tag to the device at the site or to refer to a tag attached to the device at the site. Further, there may be a case where an object to be hung is present only on the display screen. For example, the conventional system monitoring panel is being replaced with a system diagram display on a display screen, and in that case, it is necessary to perform billing on the system diagram displayed on the screen.
However, even if a memo is pasted on the display screen in order to change the display content of the display as needed, it does not mean that the memo is pasted on a display object on the screen. Hypert
ext '89 Proceedings (Pittsburgh, Pennsylvania, No
v. 5-7, 1989) ACM, New York, 1989, `` InterNote: Extend
ing a Hypermedia framework to support annotative c
ollaboration '' (Catlin, T., Bush, PE, Yankelovic
h, N.) discloses a technique for annotating a document displayed on a screen. This technique can be interpreted as a type of technique for electronically tagging a selected portion of a document displayed on a screen. However, the above-mentioned document only discloses a technique of tagging document data, and screen components other than editing targets such as document data, for example, components of a man-machine interface (menu,
There is no disclosure of a technique for tagging a subject or the like shown in a video image, such as an icon, a graph, or a meter.

【0003】[0003]

【発明が解決しようとする課題】上述のように、従来の
技術には、下記に示すような課題がある。第1に、現場
の機器に札掛けする場合、実際に現場に行く必要があ
り、同様に、現場の機器に掛けられた札を参照する場合
も実際に現場に行く必要があるため作業性が極めて悪
い。第2に、編集対象のデータ(例えば文書データ)以
外の画面構成要素に対して、注釈、メモ等を付けられな
い(すなわち「札掛け」を行なえない)。したがって、
本発明の目的は、前記従来技術の問題を解決し、下記事
項を達成することにある。すなわち、第1に、操作室に
いるまま現場の機器へ札掛け、および、掛けた札を参照
できるようにすること。第2に、編集対象データ以外の
画面構成要素に、札掛けできる装置を提供することであ
る。特に、ビデオ映像上に映っている被写体にメモ、注
釈等を付けられることである。
As described above, the prior art has the following problems. First, it is necessary to actually go to the site when tagging the equipment at the site, and similarly, it is necessary to actually go to the site when referring to the tag attached to the device at the site. Extremely bad. Second, annotations, memos, and the like cannot be added to screen components other than the data to be edited (for example, document data) (that is, “tagging” cannot be performed). Therefore,
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems of the prior art and achieve the following matters. That is, first, it is necessary to attach a tag to a device at a site while being in an operation room and to refer to the attached tag. Second, it is an object to provide a device that can attach a tag to a screen component other than the data to be edited. In particular, it is possible to attach a memo, an annotation, and the like to a subject shown on a video image.

【0004】[0004]

【課題を解決するための手段】上記目的のうちの1つを
解決するため、本発明は、音声または画像を含む情報が
被写体に関連付けられていることを記憶しておき、前記
被写体の画像が再生中のビデオ映像に含まれている場合
に、当該ビデオ映像中に、当該被写体に前記情報が関連
付けられていることを示すグラフィックスを表示する、
ことを特徴とする画面札掛け方法を提供する
SUMMARY OF THE INVENTION In order to achieve one of the above objects, the present invention provides a method for transmitting information including sound or image.
Remember that it is associated with the subject, and
When the image of the subject is included in the video being played
In the video image, the information is related to the subject.
Display graphics to indicate that
A screen tag hanging method is provided .

【0005】[0005]

【作用】本発明に係る画面札掛け方法によれば、被写体
の画像が再生中のビデオ映像に含まれている場合に、被
写体に情報が関連付けられていることを示すグラフィッ
クスが、ビデオ映像中に表示される。
According to the screen tag hanging method of the present invention, the object
Is included in the video being played,
A graphic that indicates that information is associated with the
Is displayed in the video image.

【実施例】 以下、本発明の実施例について説明する。ま
ず、テキスト、図形、音声、ビデオ等各種のメディアを
使用して情報(以下「札」あるいは「メモ」と称する)
を作成する。次に、画面表示されたビデオ映像上で、上
記情報に対応づけを行う被写体、または、領域を指示す
る。かかる対応づけを行う手段は、指示された被写体、
または、映像上の位置に対応する情報を記憶する。次
に、現在表示されている映像に、札が掛けられた被写
体、または、領域が存在すれば、札が掛けられているこ
とを、グラフィックスをビデオ映像に合成表示する等の
方法により明示する。また、札掛け状態を明示する手段
によって、明示された場所を指示すると、札の情報を出
力する。情報がテキスト、図面、ビデオ映像等であれば
画面に表示し、音声であれば、スピーカ等から必要な情
報が出力されることになる。もちろん、札掛け状態が明
示されていなくても、札掛けされた被写体、または、領
域が指示されたら、参照すべき情報があるかぎり、情報
(札に記載された事項)は出力される。このように、操
作室にいるまま、現場の機器へ札掛け、および、掛けた
札を参照できるようにすること、および、編集対象デー
タ以外の画面構成要素に、札掛けできる装置および方法
を提供することが可能となり、特に、ビデオ映像上に映
されている被写体にメモ、注釈等を付けられることにな
る。
Embodiments of the present invention will be described below. First, information (hereinafter referred to as "tag" or "memo") using various media such as text, graphics, audio, and video.
Create Next, on the video image displayed on the screen, a subject or an area to be associated with the information is specified. The means for performing the association includes the designated subject,
Alternatively, information corresponding to the position on the video is stored. Next, if the currently displayed image has a tag-applied subject or an area, the fact that the tag is applied is clearly indicated by a method such as displaying graphics in a video image. . In addition, when a designated place is designated by means for clearly indicating a bill hanging state, bill information is output. If the information is text, drawing, video image or the like, it is displayed on the screen, and if it is audio, necessary information is output from a speaker or the like. Of course, even if the tagging state is not specified, if the tagged subject or area is specified, the information (items described on the tag) is output as long as there is information to be referred to. As described above, it is possible to provide a device and a method for attaching a tag to a device at a site and referring to the attached tag while being in an operation room, and for attaching a tag to a screen component other than data to be edited. In particular, a memo, an annotation, and the like can be added to a subject displayed on a video image.

【0006】本発明の一実施例であるプラント運転監視
システムを図1〜図7を参照して説明する。なお、本発
明は、発電プラント、化学プラント、鉄鋼圧延機、ビ
ル、道路、上下水道システム等の各種の遠隔運転監視シ
ステムに適用できることは言うまでもない。本実施例に
おける札掛け機能は、画面上の表示物にメモ(以下
「札」と称することもある)を貼りつける機能である。
札は、音声、ビデオ、テキスト、図形等の様々なメディ
アを使用して記述する事が可能である。札掛けは、他の
運転員への伝言、自分自身のための覚書等、各種の用途
がある。画面上のグラフィック表示物だけではなく、ビ
デオ映像に映される物に対しても札掛けが可能である。
現場での監視映像に対して、札掛けを行なえば、現場で
の実際の札掛けを、模擬、代替できることになる。図1
に、プラント監視制御システムの全体構成図の一例を示
す。各運転員は、それぞれワークステーション(以下、
単に「WS」と記す事もある)を使用して、プラントの
状態を監視しながら、必要に応じて運転操作を行う。運
転員が、運転監視に使用する一つのワークステーション
100を図に示す。
A plant operation monitoring system according to one embodiment of the present invention will be described with reference to FIGS. Needless to say, the present invention can be applied to various remote operation monitoring systems such as a power plant, a chemical plant, a steel rolling mill, a building, a road, and a water and sewage system. The tag hanging function in the present embodiment is a function of pasting a memo (hereinafter, also referred to as a “tag”) on a display object on the screen.
Tags can be described using various media such as audio, video, text, graphics, and the like. Wall hangings have various uses, such as messages to other operators and memorandums for themselves. It is possible to attach a tag to not only a graphic display on the screen but also a video image.
If the surveillance video at the site is tagged, the actual tag at the site can be simulated and replaced. FIG.
FIG. 1 shows an example of an overall configuration diagram of a plant monitoring control system. Each operator has a workstation (hereinafter referred to as
Operation may be performed as necessary while monitoring the state of the plant using the “WS”. One workstation 100 used by an operator for operation monitoring is shown in the figure.

【0007】ワークステーション100は、音声を入
力、記憶、再生するために、音声処理ハード120、ア
ンプ内蔵型スピーカ121、122、マイク123を備
えて構成されている。音声処理ハード120は、アナロ
グの音声信号をディジタル信号に変換するA/D変換機
能、ディジタル音声信号をアナログ信号に変換するD/
A変換機能、および、ディジタル音声信号を圧縮・伸長
するための信号処理機能を有する。マイク123や、プ
ラントの存在する現場にあるマイク211等からの音声
信号は、音声処理ハード120により、ディジタル信号
化され、さらに圧縮処理され、ワークステーション10
0内のメモリ、ディスク等に記録される。逆に記録され
たディジタル音声は、音声処理ハード120により伸
長、A/D変換後、スピーカ121、122から出力さ
れる。マイク123は、主として運転員が、自分の音声
の記録、操作指令を入力するため等に使用する。マイク
123は、運転員が音声入力しやすい位置に配置され
る。ワークステーション100から離れた場所から、音
声入力を行ないたい場合には、例えばワイヤレスマイク
を用いてもよい。図1中の映像合成ハード110は、ワ
ークステーション10の映像信号と、テレビ信号とを
合成表示する手段である、カメラ111は、運転員が主
に自分の映像を記録するためのものである。映像合成ハ
ード110に、テレビ信号を入力する機器として、カメ
ラ111、プラントの存在する現場を監視するカメラ群
(例えばカメラ210等)、レーザディスクプレーヤ
(LD)220、ビデオテープレコーダ(VTR)22
1等が考えられる。これらのテレビ信号に比べ、ワーク
ステーション10の映像信号は、解像度が高い。した
がって、そのままでは両者を合成できない。したがっ
て、映像合成ハード110は、解像度の低いテレビ信号
を、ワークステーション100の解像度に適合するよう
に変換した後、両者を合成する。また、映像合成ハード
110は、いわゆるクロマキー機能を有する。クロマキ
ー機能とは、ワークステーション10の映像信号のう
ち、ある指定した色の部分だけ、ビデオ信号をインポー
ズする機能である。例えば、クロマキーとして「黒」を
指定すると、画面上の黒い部分だけに、ビデオ信号が表
示される。黒以外の部分にはビデオ信号が表示されず、
これによって、ワークステーション100のディスプレ
イ画面上に、カメラ210で撮影している現場の映像を
表示し、さらに、その映像の上にワークステーション1
00が描画したグラフィックスを合成表示できることに
なる。本システムでは、複数の運転員が協力しながら操
作できるように、ワークステーション100と同一か、
または、同等な機能を有したワークステーションが、ネ
ットワーク10を介して相互に接続される。プラント内
の各種機器の状態(もちろん札掛け情報を含む)は、ネ
ットワーク10を介して、各ワークステーションに伝送
される。また、逆に、各ワークステーションから各機器
への運転指令もネットワーク10を介して伝送される。
かかるネットワークは、例えば光ファイバ等の情報伝送
媒体を有して容易に構成されうる。ワークステーション
100は、各種のメディア機器にアクセスするためのソ
フトウエアとして、ローカルドライバ130と共有メデ
ィアサーバ1400を有する。ここでメディア機器とし
ては、映像、音声等を入力、記録、加工、出力するため
の機器一般(カメラ、LD、VTR、CD−ROMドラ
イバ(CD)等)が、考えられる。ローカルドライバ1
30、共有メディアサーバ140は、ともにワークステ
ーション100の通信ポート(RS232C、SCSI
等)を介して、各メディア機器を制御する。ローカルド
ライバ130は、個々のワークステーションごとに接続
されたメディア機器(他のワークステーションと共有し
ないメディア機器、例えば、映像合成ハード110、音
声処理ハード120、CD−ROMドライバ131等)
を制御するソフトウエアであり、個々のワークステーシ
ョンごとにインストールされる。共有メディアサーバ1
40は、複数のワークステーションにて共有されるメデ
ィア機器を制御するソフトウエアである。例えば、共有
メディアサーバ140は、ワークステーション100に
のみインストールされている。他のワークステーション
は、ネットワーク10を介して、共有メディアサーバ1
40に依頼して、共有のメディア機器にアクセスする。
共有メディア機器には、プラントの存在する現場の各所
に配置されたカメラ(例えばカメラ210等)、マイク
(例えばマイク211等)、LD220、VTR22
1、データスイッチング用マトリックススイッチャ20
0、制御用スイッチャ250、カメラコントローラ25
1、252等がある。カメラ210、マイク211等
は、操作室からプラント内の様子を、視覚や聴覚で確認
するためにある。データマトリックススイッチャ200
は、音声信号、映像信号の各々を入力信号として、M入
力対N入力のポート構成にて、任意のマトリックス状態
で接続可能な、切り替え手段である。したがって、デー
タマトリックススイッチャ200は、一つの入力端子か
らの信号を複数の出力端子に分配できる。これによっ
て、例えばカメラ210の映像を複数のディスプレイに
分配し、各々のディスプレイから見ることができる。
The workstation 100 includes an audio processing hardware 120, speakers 121 and 122 with built- in amplifiers, and a microphone 123 for inputting, storing, and reproducing audio. The audio processing hardware 120 has an A / D conversion function for converting an analog audio signal into a digital signal, and a D / D converter for converting a digital audio signal into an analog signal.
It has an A conversion function and a signal processing function for compressing / expanding a digital audio signal. The audio signal from the microphone 123 or the microphone 211 at the site where the plant is located is converted into a digital signal by the audio processing hardware 120, further compressed, and processed by the workstation 10.
0 is recorded on a memory, a disk or the like. Conversely, the recorded digital audio is expanded and A / D converted by the audio processing hardware 120, and then output from the speakers 121 and 122. The microphone 123 is mainly used by an operator for recording his own voice, inputting operation commands, and the like. The microphone 123 is arranged at a position where the operator can easily input voice. When it is desired to perform voice input from a place away from the workstation 100, for example, a wireless microphone may be used. 1 video synthesis Hard 110 in the video signal of the workstation 1 0 0, a means for synthesizing displaying the television signal, the camera 111 is for operating personnel mainly record their video is there. As a device for inputting a television signal to the video synthesizing hardware 110, a camera 111, a group of cameras (for example, a camera 210) for monitoring a site where a plant is present, a laser disk player (LD) 220, a video tape recorder (VTR) 22.
1 etc. are conceivable. Compared to these television signals, video signals of the workstation 1 0 0 it has a high resolution. Therefore, the two cannot be synthesized as they are. Therefore, the video synthesizing hardware 110 converts the low-resolution television signal to match the resolution of the workstation 100, and then synthesizes both. The video compositing hardware 110 has a so-called chroma key function. The chroma key function of the work station 1 0 0 video signals, only the portion of the color you there specified, a function for imposing a video signal. For example, when "black" is designated as the chroma key, the video signal is displayed only in the black portion on the screen. No video signal is displayed on the parts other than black,
As a result, the image of the site being shot by the camera 210 is displayed on the display screen of the workstation 100, and the workstation 1 is displayed on the image.
00 will be able to synthesize and display the drawn graphics. In this system, it is the same as the workstation 100 so that a plurality of operators can operate in cooperation with each other.
Alternatively, workstations having equivalent functions are mutually connected via the network 10. The state of various devices in the plant (including, of course, the information on the tag) is transmitted to each workstation via the network 10. Conversely, an operation command from each workstation to each device is also transmitted via the network 10.
Such a network can be easily configured with an information transmission medium such as an optical fiber. The workstation 100 has a local driver 130 and a shared media server 1400 as software for accessing various media devices. Here, as the media device, general devices (camera, LD, VTR, CD-ROM driver (CD), etc.) for inputting, recording, processing, and outputting video, audio, and the like can be considered. Local driver 1
30, the shared media server 140 is a communication port (RS232C, SCSI
) To control each media device. The local driver 130 is a media device connected to each workstation (a media device that is not shared with other workstations, such as the video synthesis hardware 110, the audio processing hardware 120, and the CD-ROM driver 131).
Is installed on each workstation. Shared media server 1
Reference numeral 40 denotes software for controlling a media device shared by a plurality of workstations. For example, the shared media server 140 is installed only on the workstation 100. Other workstations are connected via the network 10 to the shared media server 1
40, and access the shared media device.
The shared media devices include cameras (for example, camera 210, etc.), microphones (for example, microphone 211, etc.), LD220, VTR22
1. Matrix switcher 20 for data switching
0, control switcher 250, camera controller 25
1, 252, and the like. The camera 210, the microphone 211, and the like are provided for visually and audibly confirming a state in the plant from the operation room. Data matrix switcher 200
Is a switching means that can be connected in an arbitrary matrix state in a port configuration of M inputs to N inputs using audio signals and video signals as input signals. Therefore, the data matrix switcher 200 can distribute a signal from one input terminal to a plurality of output terminals. Thereby, for example, the image of the camera 210 can be distributed to a plurality of displays and can be viewed from each display.

【0008】LD220は、マニュアル用の映像情報を
格納する。VTR221は、スイッチャ200の入力側
と出力側の両方に接続される。これによって、現場を監
視しているカメラの映像や、カメラ111の映像を記録
し、記録された映像をワークステーション200のディ
スプレイ画面に出力できる。運転員は、カメラ111を
使用して、例えば、自分の話している映像を撮影し、こ
れをVTR221に記録することにより、映像による伝
言を、他の運転員に伝えることができる。もちろん、映
像をVTR221に記録する替りに、音声と同様に、デ
ジタル化した後、圧縮して、ワークステーションのメモ
リ、ディスク等に記憶しておいてもよい。また、図1に
おいて、カメラコントローラ251、252は、現場に
設置されたカメラ(カメラ210等)を制御するための
手段であり、制御用スイッチャ250は、カメラコント
ローラ251、252と、現場に設置されたカメラとの
接続を切り換える手段である。カメラコントローラ25
1、252と制御用スイッチャ250は、それぞれワー
クステーション100の通信ポートに接続されている。
カメラコントローラ251、252は、制御用スイッチ
ャ250を介して接続されたカメラの向きや、画角を自
由に設定する手段である。共有メディアサーバ140
は、ワークステーション上のクライアントプロセス(C
P1とする)から、現場にあるカメラ(例えばカメラ2
10とする)を制御したい旨の要求を受けると、次の手
順でCP1にカメラ210の制御権を割り当てる。ま
ず、第1の手順について説明する。制御したい旨の要求
のあったカメラ210の制御権が、他のクライアントプ
ロセスに割り当てられていないかどうかをチェックす
る。すでに制御権が割り当てられている場合には、カメ
ラ210が、使用中であることをCP1に連絡して、制
御権割り当て処理を終了する。制御権が割り当てられて
いない場合には、第2の手順に進む。第2の手順は、他
のクライアントプロセスが使用していないカメラコント
ローラを探索する。全てのカメラコントローラが使用中
であるときには、その旨をCP1に連絡して制御権割り
当て処理を終了する。使用中でないカメラコントローラ
が存在する場合には、それをCP1に割り当てる。最後
に、手順3にて、制御用スイッチャ250に指令を出力
して、CP1に割り当てられたコントローラ(コントロ
ーラ251とする)と、カメラ210との制御線を接続
する。上記手順により制御権が得られた後、例えば、C
P1からカメラ210を左にパン(カメラを水平方向に
回転移動することを称する)したいという要求がある
と、共有メディアサーバ140は、カメラコントローラ
251に左にパンするための操作指令を送る。操作指令
を受けたカメラコントローラ251は、カメラ210の
雲台(駆動部を備えるカメラの装着台を称する)のモー
タを駆動・制御して、カメラ210を左にパンする。C
P1は、カメラ210の使用が終了すると、その旨を共
有メディアサーバ140に伝え、カメラ210の制御権
を開放する。以上のような手順で、カメラを制御するこ
とにより、現場に設置されたカメラの数より少ない数の
カメラコントローラで、任意のカメラを複数のクライア
ントプロセスから制御することができる。すなわち、同
時に操作したいカメラの数だけカメラコントローラを用
意すればよいわけである。図2に、ワークステーション
100のディスプレイ画面に表示された監視画面の一例
を示す。図2において、ワークステーション100のデ
ィスプレイ画面500は、プラントの構成図510、制
御データ等のグラフィックス表示、カメラ、LD22
0、VTR221等からのビデオ信号を表示したビデオ
映像520、札掛けアイコン530、札掛けメニュー5
31、マウスなどのポインティングデバイスと連動して
表示されるポインタ501を有して構成される。本実施
例では、ポインティングデバイスの一例としてマウスを
使用する。マウスには、2つのボタンが設けられてお
り、それぞれ左ボタン、右ボタンと称する。 特に、左
・右のボタンを区別しなくても良い場合には、単にボタ
ンと記載することにする。もちろん、マウスの替りにタ
ブレット、タッチパネル、トラックボール等の他のポイ
ンティングデバイスを用いてもよいことは言うまでもな
い。
[0008] The LD 220 stores manual video information. The VTR 221 is connected to both the input side and the output side of the switcher 200. As a result, the video of the camera monitoring the site and the video of the camera 111 can be recorded, and the recorded video can be output to the display screen of the workstation 200. The operator can use the camera 111 to capture, for example, a video being spoken and record the captured video on the VTR 221, so that a video message can be transmitted to other operators. Of course, instead of recording the video on the VTR 221, the video may be digitized, compressed, and stored in the memory of the workstation, a disk, or the like, similarly to the audio. In FIG. 1, camera controllers 251 and 252 are means for controlling cameras (such as the camera 210) installed on the site, and a control switcher 250 is installed on the site together with the camera controllers 251 and 252. This is a means for switching the connection with the camera. Camera controller 25
1, 252 and the control switcher 250 are connected to the communication port of the workstation 100, respectively.
The camera controllers 251 and 252 are means for freely setting the direction and the angle of view of the camera connected via the control switcher 250. Shared media server 140
Is a client process (C
P1), the camera at the site (for example, camera 2)
10), the control right of the camera 210 is assigned to the CP1 in the following procedure. First, the first procedure will be described. It is checked whether or not the control right of the camera 210 that has requested to control is assigned to another client process. If the control right has already been assigned, the camera 210 notifies the fact that the camera is in use to CP1, and ends the control right assignment process. If the control right has not been assigned, the process proceeds to the second procedure. The second procedure searches for a camera controller that is not used by another client process. When all the camera controllers are in use, the fact is notified to CP1, and the control right assignment process is terminated. If there is a camera controller that is not in use, it is assigned to CP1. Finally, in step 3, a command is output to the control switcher 250, and a controller (hereinafter, referred to as a controller 251) assigned to CP1 is connected to a control line of the camera 210. After the control right is obtained by the above procedure, for example, C
When there is a request from P1 to pan the camera 210 to the left (refer to rotating the camera in the horizontal direction), the shared media server 140 sends an operation command to the camera controller 251 to pan to the left. Upon receiving the operation command, the camera controller 251 drives and controls the motor of the camera platform (referred to as a camera mount having a drive unit) of the camera 210 to pan the camera 210 to the left. C
When the use of the camera 210 ends, P1 informs the shared media server 140 of that fact and releases the control right of the camera 210. By controlling the cameras in the above-described procedure, an arbitrary camera can be controlled from a plurality of client processes with a smaller number of camera controllers than the number of cameras installed at the site. That is, it is only necessary to prepare camera controllers as many as the number of cameras to be operated at the same time. FIG. 2 shows an example of the monitoring screen displayed on the display screen of the workstation 100. 2, a display screen 500 of the workstation 100 includes a plant configuration diagram 510, a graphic display of control data, a camera, and an LD 22.
0, a video image 520 displaying a video signal from the VTR 221 or the like, a billing icon 530, a billing menu 5
31, a pointer 501 displayed in conjunction with a pointing device such as a mouse. In this embodiment, a mouse is used as an example of the pointing device. The mouse is provided with two buttons, which are called a left button and a right button, respectively. In particular, when it is not necessary to distinguish between the left and right buttons, they are simply described as buttons. Of course, it goes without saying that another pointing device such as a tablet, a touch panel, and a trackball may be used instead of the mouse.

【0009】本実施例においては、マウスを用いて下記
の操作を行なう。「クリック」なる操作は、マウスのボ
タン押し下げて、そのままマウスの位置を動かさずに
押し下げていたボタンを解放する操作である。この操作
は、主に画面500内の位置の指定、表示物の指定等に
使用する。「ドラッグ」なる操作は、マウスのボタンを
押し下げ、そのままマウスを動かす操作である。ドラッ
グ操作は、押し下げていたボタンを解放することによっ
て終了する。ドラッグ操作によって、画面500内の2
点を指定できる。すなわち、ドラッグ開始時(ボタン押
し下げ時)のポインタ501の位置と、ドラッグ終了時
(ボタン解放時)のポインタ501の位置の2点であ
る。マウスを操作して、画面500上の表示物の上に、
ポインタ501を置き、マウスをクリック(またはドラ
ッグ)することを、表示物をクリック(またはドラッ
グ)すると称する。札掛けメニュー531は、選択項目
として例えば、「札掛けシート」、「リンク」、「アイ
コン表示」、「検索」、「カット」、「ペースト」等を
有する。
In this embodiment, the following operation is performed using a mouse. Operations that "click" is, pushes down the mouse button, an operation to release the button that has been as it is pushed down without moving the position of the mouse. This operation is mainly used to specify a position in the screen 500, a display object, and the like. The operation of “drag” is an operation of depressing a mouse button and moving the mouse as it is. The drag operation ends by releasing the pressed button. By dragging, 2 in the screen 500
Points can be specified. In other words, there are two points: the position of the pointer 501 when dragging is started (when the button is pressed down) and the position of the pointer 501 when dragging is completed (when the button is released). Operate the mouse and hover over the display on the screen 500,
Placing the pointer 501 and clicking (or dragging) the mouse is referred to as clicking (or dragging) a display object. The tag hanging menu 531 includes, for example, “tag hanging sheet”, “link”, “icon display”, “search”, “cut”, “paste”, and the like as selection items.

【0010】各項目の機能は、下記のようになる。項目
「札掛けシート」は、札を作成、編集するためのツール
である札掛けシートを開く処理である。項目「リンク」
は、札とオブジェクトとを対応付ける(リンクと称す
る)処理である。項目「アイコン表示」は、札掛けされ
てことを示すアイコン(札アイコンと称する)を表示す
る処理である。本項目を選択すると、項目名が「アイコ
ン非表示」に変る。「アイコン非表示」を選択すると、
札アイコンの表示が消え、項目名が「アイコン表示」に
変る。項目「検索」は、札の内容に基づいてキーワード
検索する処理である。キーワードを入力すると、そのキ
ーワードを含む札とその札がリンクされているオブジェ
クトを表示する。項目「カット」は、現在選択中の札ア
イコンに対応する札を消去するとともに、その札のデー
タを、ペーストバッファと呼ばれる一種のバッファに格
納する処理である。項目「ペースト」は、ペーストバッ
ファに格納されている札を、現在選択されているオブジ
ェクトにリンクする処理である。以下、画面上のオブジ
ェクトに札掛けをする標準的な手順の概略を示す。ま
ず、札掛けメニュー531の項目「札掛けシート」を選
択して、図3に示す札掛けシート600を開く。札掛け
メニュー531は、札掛けアイコン530をクリックし
て呼び出す。
The function of each item is as follows. The item "tag sheet" is a process for opening a tag sheet which is a tool for creating and editing tags. Item "Link"
Is a process of associating a bill with an object (referred to as a link). The item “icon display” is a process of displaying an icon indicating that a card is hung (referred to as a bill icon). When this item is selected, the item name changes to "Icon hidden". If you select "Hide Icon",
The display of the bill icon disappears, and the item name changes to “icon display”. The item “search” is a process of performing a keyword search based on the contents of a bill. When a keyword is input, a tag including the keyword and an object to which the tag is linked are displayed. The item “cut” is a process of deleting a tag corresponding to a currently selected tag icon and storing data of the tag in a kind of buffer called a paste buffer. The item “paste” is a process for linking the tag stored in the paste buffer to the currently selected object. The following is an outline of a standard procedure for tagging an object on the screen. First, the item "tag sheet" in the tag menu 531 is selected to open the tag sheet 600 shown in FIG. The billing menu 531 is called by clicking the billing icon 530.

【0011】札掛けメニュー531の項目を選択するに
は、所望の項目をマウスでクリックすればよい。(以上
「手順1」)次に、札掛けシート600を使用して札を
作成、編集する。札は、図形(テキストを含む)デー
タ、音声データ、ビデオデータ等からなる。札掛けシー
ト600は、それらのデータを編集するために、図形編
集機能、音声録音機能、ビデオ録画機能等を備えてい
る。(以上「手順2」)次に、作成した札を保存し、札
掛けシート600を終了する。札掛けシート600が閉
じると、画面500のデフォルトの位置に、札アイコン
が表示される。
In order to select an item of the tag hanging menu 531, a desired item may be clicked with a mouse. (Procedure 1) Next, a tag is created and edited using the tag hanging sheet 600. The bill includes graphic (including text) data, audio data, video data, and the like. The tag sheet 600 has a figure editing function, a voice recording function, a video recording function, and the like in order to edit the data. (Step 2 above) Next, the created tag is saved, and the tag hanging sheet 600 ends. When the note sheet 600 is closed, a note icon is displayed at a default position on the screen 500.

【0012】次に、作成した札をオブジェクトにリンク
する。表示された札アイコンをドラッグして、札掛けし
たいオブジェクトの上に移動させ、札掛けメニュー53
1の「リンク」の項目を選択すると、札が、オブジェク
トにリンクされることになる。(以上「手順3」)上記
手順において、オブジェクトとは下記のものを含む。ま
ず、グラフィックス表示703の構成要素である。例え
ば、図形、メニュー、アイコン等のユーザインタフェー
スツール、グラフ、画像等である。さらに、複数の構成
要素をグループ化したものも、オブジェクトとなりう
る。次に、ビデオ映像520の被写体、ビデオ映像に映
っている機器や物も含まれる。さらに、ビデオ映像その
ものも含まれる。ビデオ映像の各シーンも、オブジェク
トになりうる。カメラパラメータ、すなわち、カメラの
撮影方向(パン操作等によって変化する)や、画角(ズ
ーム操作によって変化する)等が変化すれば対象シーン
も変化する。あるカメラパラメータに対応するシーン
も、一つのオブジェクト(シーンオブジェクトと称す
る)になる。また、LD220、VTR221等に蓄積
されたビデオ映像の、ある時間における映像もシーンオ
ブジェクトとなる。カメラで撮影されているシーンオブ
ジェクトをライブビデオオブジェクト、蓄積されたビデ
オ映像のシーンオブジェクトを蓄積ビデオオブジェクト
と呼ぶことにする。したがって、ビデオ映像(シーンオ
ブジェクト)上の領域、シーンオブジェクト内の領域
(点も含む)もオブジェクトとなりうる。領域は、例え
ば図形の形状で定義できる。次に、図3を参照して、札
掛けシートによる、札の作成、編集方法を説明する。
図3に、札のタイトルを入力、表示する領域610、札
の作成者の名前を入力、表示する領域611、札の宛名
を入力、表示する領域612、札を作成している時点の
日時表示613、図形編集領域620、図形編集領域62
0に作画した図面を左右、上下にスクロールするための
スクロールバー621、622、図形編集領域620に作
画する図形オブジェクトを選択するための図形メニュー
625、図形編集領域620に作画した図面を拡大または
縮小表示するためのメニュー626、記録、再生する対
象(音声かビデオ)を指定するメニュー630、音声ま
たは映像を記録、再生を制御するためのアイコン631
〜635、札データを管理するための管理メニュー64
0、現在作成中の札がリンクされているオブジェクト名
のリスト表示650、リスト表示650をスクロールする
ためのスクロールバー651を示す。まず、図形メニュ
ー625の項目とその機能を以下に記す。項目「文字」
は、文字を描画する機能である。本項目を選択した後、
マウスで編集領域620内の1点をクリックし、キーボ
ードから文字を入力していくと、クリックした位置から
入力した文字が描画される。ポインタ501を現在入力
中の文字列以外の場所に移動し、マウスをクリックする
と文字列入力が終了する。
Next, the created bill is linked to the object. Drag the displayed tag icon and move it over the object you want to tag,
When the item 1 “Link” is selected, the bill is linked to the object. (Step 3 above) In the above procedure, the objects include the following. First, the components of the graphics display 703 will be described. For example, user interface tools such as figures, menus, and icons, graphs, images, and the like. Further, a group of a plurality of components can also be an object. Next, the subject of the video image 520 and the devices and objects shown in the video image are also included. Furthermore, the video image itself is included. Each scene of a video image can also be an object. If the camera parameters, that is, the shooting direction of the camera (changes by a pan operation or the like), the angle of view (changes by a zoom operation), and the like change, the target scene also changes. A scene corresponding to a certain camera parameter also becomes one object (referred to as a scene object). Further, a video at a certain time of the video video stored in the LD 220, the VTR 221 or the like is also a scene object. A scene object shot by a camera is called a live video object, and a scene object of a stored video image is called a stored video object. Therefore, an area on a video image (scene object) and an area (including a point) in the scene object can also be an object. The area can be defined, for example, by the shape of a figure. Next, with reference to FIG. 3, a description will be given of a method of creating and editing a tag using a tag hanging sheet.
FIG. 3 shows an area 610 for inputting and displaying the title of the tag, an area 611 for inputting and displaying the name of the creator of the tag, an area 612 for inputting and displaying the address of the tag, and displaying the date and time when the tag is being generated. 613, figure editing area 620, figure editing area 62
Scroll bars 621 and 622 for scrolling the drawing drawn in 0, left and right, up and down, a drawing menu 625 for selecting a drawing object drawn in the drawing editing area 620, and enlargement or reduction of the drawing drawn in the drawing editing area 620 A menu 626 for displaying, a menu 630 for specifying a recording / reproduction target (audio or video), and an icon 631 for controlling recording or reproduction of audio or video.
To 635, management menu 64 for managing bill data
0, a list bar 650 for scrolling the list display 650 and the list display 650 of the object names linked to the tag currently being created. First, the items of the graphic menu 625 and their functions are described below. Item "character"
Is a function for drawing characters. After selecting this item,
When one point in the editing area 620 is clicked with the mouse and characters are input from the keyboard, the characters input from the clicked position are drawn. When the pointer 501 is moved to a position other than the character string currently being input and the mouse is clicked, the character string input ends.

【0013】項目「直線」は、直線を作画する機能であ
る。本項目を選択した後、編集領域620内でマウスを
ドラッグすると、ドラッグ開始時のポインタ501の位
置と、ドラッグ終了時のポインタ501の位置とを結ぶ
直線が作画される。項目「矩形」は、矩形を作画する機
能である。本項目を選択した後、編集領域620内でマ
ウスをドラッグすると、ドラッグ開始時のポインタ50
1の位置と、ドラッグ終了時のポインタ501の位置と
を対角の頂点とする矩形が作画される。 項目「楕円」
は、楕円を作画する機能である。本項目を選択した後、
編集領域620内でマウスをドラッグすると、ドラッグ
開始時のポインタ501の位置と、ドラッグ終了時のポ
インタ501の位置とを対角線とする矩形に内接する楕
円が作画される。項目「折れ線」は、折れ線を作画する
機能である。本項目を選択した後、編集領域620内で
マウスの移動とクリックを繰り返し、最後に同じ位置で
2度クリックすると、クリックされた時のポインタ50
1の位置を順次直線で結んでできる折れ線が作画され
る。項目「多角形」は、多角形を作画する機能である。
本項目を選択した後、編集領域620内でマウスの移動
とクリックを繰り返し、最後に同じ位置で2度クリック
すると、クリックされた時のポインタ501の位置を順
次直線で結び、最後の点と最初の点を直線で結んででき
る多角形が作画される。項目「手書き」は、フリーハン
ドで線を描く機能である。マウスをドラッグするとポイ
ンタ501の通過点を結ぶ線が描かれる。編集領域62
0上に作画された図形は、マウスを用いて選択、移動で
きる。マウスを動かしてポインタ501を所望の図形上
に移動して、左ボタンをクリックするとその図形が選択
される。また、編集領域620上でマウスをドラッグす
ると、ドラッグ開始時のポインタ501の位置と、ドラ
ッグ終了時のポインタ501の位置とを対角の頂点とす
る矩形領域内に含まれる全ての図形が選択状態になる。
一方、マウスを動かしてポインタ501を所望の図形上
に移動して、左ボタンを押し下げてマウスをドラッグす
ると、ポインタ501と一緒に、図形が移動する。編集
領域620上にポインタ501があるとき、マウスの右
ボタンを押し下げると、図形オブジェクト編集メニュー
(図示せず)が表示される。右ボタンを押し下げたまま
マウスを動かして図形オブジェクト編集メニューの所望
の項目上にポインタ501を移動し、右ボタンを解放す
ると、所望の項目が選択される。右ボタンが解放される
と図形オブジェクト編集メニューの表示が消去される。
以下、図形オブジェクト編集メニューの項目とその機能
を示す。項目「削除」は、選択されている図形を削除す
ると同時に、前記図形をペーストバッファに格納する命
令である。項目「複写」は、選択されている図形をペー
ストバッファに複写する命令である。項目「貼付」は、
最も最近マウスがクリックされた時のポインタ501の
位置にペーストバッファの内容を作画する命令である。
項目「回転」は、所望の位置を中心として、所望の角度
だけ選択されている図形を回転する命令である。項目
「拡縮」は、所望の大きさに選択されている図形を拡
大、または縮小する命令である。項目「合成」は、選択
されている複数の図形をグループ化する命令である。グ
ループ化された図形は一つの図形として編集操作でき
る。項目「分解」は、グループ化した図形を個々の図形
に分解する命令である。次に、図3を参照して、札を使
用し、音声でメモを残す方法について説明する。 ま
ず、メニュー630の項目「音声」を選択する。次にア
イコン635をクリックすると、アイコン635の表示
が強調される。アイコン635の強調表示は、音声録
音、または、ビデオ録画モードにあることを示す。音声
録音モードに入ると、札掛けシート600は、共有メデ
ィアサーバ140に、マイク123の出力ポートと、音
声処理ハード120の入力ポートとを接続することを依
頼する。依頼を受けた共有メディアサーバ140は、ワ
ークステーション100内に設けられている通信ポート
を介して、データスイッチング用マトリクススイッチャ
200の切替処理を行なう。次に、アイコン633をク
リックすると録音が開始される。マイク123に向かっ
て話しをすれば、それが札の音声データとして記録され
る。マイク123から入力された音声は、音声処理ハー
ド120により、いわゆるA/D変換され、さらに、圧
縮処理されワークステーション100内のメモリ(図示
せず)、ディスク(図示せず)等に記録される。音声の
記録を終了する場合には、アイコン632をクリックす
る。録音を終了すると、アイコン635の強調表示が解
除され、再生モードに移る様にしておけばよい。録音内
容を確認する場合には、まずアイコン631をクリック
して、録音データの先頭にポインタを移動する。ここ
で、「ポインタ」とは、記録や再生を開始するデータ上
の位置を意味する。 アイコン633をクリックする
と、録音した音声データがポインタの位置から再生され
る。すなわち、メモリ、ディスク等に記憶されている音
声データが、ポインタの位置から読みだされ、音声処理
ハード120によって伸長処理、およびD/A変換処理
が行なわれ、音声がスピーカ121、122から出力さ
れる。さらに、音声を追加録音する場合には、まず、ア
イコン634をクリックしてポインタを記録データの終
りに移動すればよい。次に、アイコン635、633を
順次クリックすれば、追加録音が開始されることにな
る。次に、札にビデオを使用してメモを残す方法につい
て説明する。まず、メニュー630の項目「ビデオ」を
選択する。次に、アイコン635をクリックすると、ア
イコン635の表示が強調される。 この時、札掛けシ
ート600は、共有メディアサーバ140に、(1)マ
イク123の出力ポートと、音声処理ハード120の入
力ポートとを接続すること、(2)カメラ121の出力
ポートと、画像合成ハード110の入力ポートおよびV
TR221の入力ポートとを接続することを依頼する。
依頼を受けた共有メディアサーバ140は、ワークステ
ーション100内に設けられている通信ポートを介し
て、データスイッチング用マトリクススイッチャ200
の接続処理を行なう。次に、アイコン633をクリック
すると録画が開始されることになる。この時、札掛けシ
ート600は、共有メディアサーバ140にVTR22
1の録画開始を依頼する。依頼を受けた共有メディアサ
ーバ140は、ワークステーション100内に設けられ
ている通信ポートを介して、VTR221に録画開始を
指示する。同時に、ワークステーション100内のメモ
リ上には、札オブジェクト(後述する)が生成され、札
オブジェクトの札情報格納フィールドにVTR221の
録画開始アドレスが記憶される。アドレスは、例えばフ
レーム番号で指定する。もちろん、タイムコード等によ
る指定も可能である。カメラ111およびマイク123
に向かって話せば、話者の映像と音声がVTR221に
記録されることになる。ビデオでの記録を終了する場合
には、アイコン632をクリックする。録画を終了する
と、アイコン635の強調表示が解除され再生モードに
移る。
The item "straight line" is a function for drawing a straight line. When the mouse is dragged in the editing area 620 after selecting this item, a straight line is drawn connecting the position of the pointer 501 at the start of dragging and the position of the pointer 501 at the end of dragging. The item “rectangle” is a function for drawing a rectangle. After selecting this item, if the mouse is dragged in the editing area 620, the pointer 50 at the start of dragging
A rectangle is drawn with the position of No. 1 and the position of the pointer 501 at the end of dragging as diagonal vertices. Item `` ellipse ''
Is a function for drawing an ellipse. After selecting this item,
When the mouse is dragged in the editing area 620, an ellipse is drawn which is inscribed in a rectangle whose diagonal is the position of the pointer 501 at the start of dragging and the position of the pointer 501 at the end of dragging. The item “polyline” is a function for drawing a polygonal line. After selecting this item, the mouse is repeatedly moved and clicked in the editing area 620, and when the mouse is finally clicked twice at the same position, the pointer 50 when clicked is clicked.
A polygonal line formed by sequentially connecting the positions 1 with straight lines is drawn. The item “polygon” is a function for drawing a polygon.
After selecting this item, the mouse is repeatedly moved and clicked in the editing area 620. Finally, when the mouse is clicked twice at the same position, the position of the pointer 501 at the time of the click is sequentially connected with a straight line, and the last point and the first point are connected. A polygon is created by connecting the points with straight lines. The item “handwriting” is a function for drawing a freehand line. When the mouse is dragged, a line connecting the passing points of the pointer 501 is drawn. Editing area 62
The figure drawn on the top 0 can be selected and moved using the mouse. By moving the mouse to move the pointer 501 on a desired figure and clicking the left button, the figure is selected. When the mouse is dragged on the editing area 620, all the figures included in the rectangular area having the diagonal vertices between the position of the pointer 501 at the start of dragging and the position of the pointer 501 at the end of dragging are selected. become.
On the other hand, if the mouse is moved to move the pointer 501 on a desired figure, the left button is pressed down, and the mouse is dragged, the figure moves together with the pointer 501. When the right button of the mouse is pressed down while the pointer 501 is on the editing area 620, a graphic object editing menu (not shown) is displayed. When the mouse is moved while keeping the right button pressed, the pointer 501 is moved to a desired item in the graphic object editing menu, and when the right button is released, the desired item is selected. When the right button is released, the display of the graphic object edit menu is deleted.
Hereinafter, the items of the graphic object editing menu and their functions are shown. The item “delete” is an instruction to delete the selected graphic and store the graphic in the paste buffer at the same time. The item “copy” is an instruction to copy the selected figure into the paste buffer. The item “Paste”
This is an instruction to draw the contents of the paste buffer at the position of the pointer 501 when the mouse is clicked most recently.
The item “rotation” is an instruction to rotate a selected figure by a desired angle around a desired position. The item “enlargement / reduction” is an instruction for enlarging or reducing a figure selected to a desired size. The item “synthesis” is an instruction for grouping a plurality of selected graphics. The grouped figures can be edited and operated as one figure. The item “decomposition” is an instruction to decompose a grouped figure into individual figures. Next, a method of leaving a memo by voice using a bill will be described with reference to FIG. First, the item “voice” in the menu 630 is selected. Next, when the icon 635 is clicked, the display of the icon 635 is highlighted. The highlighting of the icon 635 indicates that it is in the voice recording or video recording mode. When entering the voice recording mode, the tag hanging sheet 600 requests the shared media server 140 to connect the output port of the microphone 123 and the input port of the voice processing hardware 120. Upon receiving the request, the shared media server 140 performs a switching process of the data switching matrix switcher 200 via a communication port provided in the workstation 100. Next, when the icon 633 is clicked, recording starts. Speaking into the microphone 123 is recorded as voice data of the bill. The sound input from the microphone 123 is subjected to so-called A / D conversion by the sound processing hardware 120, further compressed, and recorded in a memory (not shown), a disk (not shown) or the like in the workstation 100. . To end the recording of the sound, the user clicks the icon 632. When the recording is completed, the highlighting of the icon 635 is released, and the mode may be shifted to the reproduction mode. When confirming the recorded contents, the user first clicks the icon 631 and moves the pointer to the head of the recorded data. Here, the “pointer” means a position on data at which recording or reproduction is started. When the icon 633 is clicked, the recorded audio data is reproduced from the position of the pointer. That is, audio data stored in a memory, a disk, or the like is read from the position of the pointer, decompression processing and D / A conversion processing are performed by the audio processing hardware 120, and audio is output from the speakers 121 and 122. You. Further, in the case of additionally recording voice, first, the icon 634 may be clicked to move the pointer to the end of the recording data. Next, if the icons 635 and 633 are sequentially clicked, additional recording is started. Next, a method of leaving a memo using a video on a bill will be described. First, the item “video” in the menu 630 is selected. Next, when the icon 635 is clicked, the display of the icon 635 is emphasized. At this time, the tag sheet 600 connects the shared media server 140 to (1) the output port of the microphone 123 and the input port of the audio processing hardware 120, (2) the output port of the camera 121, and the image synthesis. Input port of hardware 110 and V
Request connection to the input port of TR 221.
Upon receiving the request, the shared media server 140 communicates with the data switching matrix switcher 200 via a communication port provided in the workstation 100.
Is performed. Next, when the icon 633 is clicked, recording starts. At this time, the tag sheet 600 is transmitted to the shared media server 140 by the VTR 22.
Request the start of recording 1. The shared media server 140 that has received the request instructs the VTR 221 to start recording via a communication port provided in the workstation 100. At the same time, a tag object (described later) is generated on the memory in the workstation 100, and the recording start address of the VTR 221 is stored in the tag information storage field of the tag object. The address is specified by, for example, a frame number. Of course, designation by a time code or the like is also possible. Camera 111 and microphone 123
, The video and audio of the speaker will be recorded on the VTR 221. To end the video recording, click the icon 632. When the recording is completed, the highlighted display of the icon 635 is released, and the mode shifts to the reproduction mode.

【0014】録画終了時には、録画開始時に生成された
札オブジェクトの札情報格納フィールドに録画終了アド
レスが、新たに記憶される。また、録画内容を確認する
場合は、まずアイコン631をクリックして、録画デー
タの先頭にポインタを移動する。すなわち、共有メディ
アサーバ140に依頼して、札オブジェクトに記憶され
ている録画開始アドレスまでVTR221を巻戻すよう
にする。アイコン633をクリックすると、巻き戻した
箇所からVTR221の再生が開始される。さらに、ビ
デオ情報を追加録画する場合には、まず、アイコン63
4をクリックして、VTR221をビデオテープの録画
していない部分の先頭まで「早送り」すればよい。次
に、アイコン635、633を順次クリックすれば、追
加録画が開始されることになる。さて、上述の処理を経
て作成した札は、メニュー640を用いて管理する。メ
ニュー640の主な機能を以下に記す。「新規」は、新
たに札を作成する機能である。「開く」は、既存の札を
開く機能である。「保存」は、現在編集中の札を保存す
る機能である。「終了」は、札掛けシート600を終了
する機能である。リスト表示650により、現在編集中
の札が掛けられているオブジェクトを表示するだけでな
く、札掛けすべきオブジェクトの指定、変更等を行なえ
る。リンク表示650は、普通のテキスト編集機能を備
えており、マウス、キーボード等を使用して、オブジェ
クト名の入力、すでに表示されているオブジェクト名の
変更、修正等を行なえる。次に、札を参照する手順を以
下に記す。まず、札掛メニュー531の項目「アイコン
表示」を選択して、札アイコンを表示する(手順1)。
もちろん、すでに札アイコンが表示されている場合に
は、本手順は不要である。次に、参照したい札の札アイ
コンを2回連続してクリック(これを「ダブルクリッ
ク」と称する)する(手順2)。ダブルクリックする
と、札掛けシート600が開き、ダブルクリックした札
のデータが表示される。すなわち、札のタイトル、作成
者、宛名が、各々、領域610、611、612に表示
される。また、札が掛けられいる全てのオブジェクト名
が、リスト650に表示される。その札が、図形データ
を有しておれば、図形データが、図形編集領域620に
表示される。札が、音声データを有していれば、メニュ
ー630の項目「音声」が、選択状態になり、ビデオデ
ータを有していれば項目「ビデオ」が、選択状態にな
る。
At the end of recording, a recording end address is newly stored in the tag information storage field of the tag object generated at the start of recording. To check the recorded content, the user first clicks the icon 631 and moves the pointer to the beginning of the recorded data. That is, a request is made to the shared media server 140 to rewind the VTR 221 to the recording start address stored in the tag object. When the icon 633 is clicked, the reproduction of the VTR 221 is started from the rewind position. Further, when additionally recording video information, first, the icon 63
By clicking 4, the VTR 221 may be "fast-forwarded" to the beginning of the unrecorded portion of the video tape. Next, if the icons 635 and 633 are sequentially clicked, additional recording is started. Now, the bill created through the above-described processing is managed using the menu 640. The main functions of the menu 640 are described below. “New” is a function for creating a new bill. “Open” is a function for opening an existing tag. “Save” is a function of saving the tag currently being edited. “End” is a function of ending the sheet hung sheet 600. With the list display 650, not only the object on which the tag currently being edited is hung can be displayed, but also the object to be hung can be specified or changed. The link display 650 has an ordinary text editing function, and can input an object name, change or modify an already displayed object name, using a mouse, a keyboard, or the like. Next, a procedure for referring to a bill is described below. First, the item "icon display" of the tag hanging menu 531 is selected to display a tag icon (procedure 1).
Of course, if the bill icon is already displayed, this procedure is unnecessary. Next, the tag icon of the tag to be referred to is clicked twice consecutively (this is called "double-click") (procedure 2). When double-clicked, the tag hanging sheet 600 is opened, and data of the double-clicked tag is displayed. That is, the title, creator, and address of the bill are displayed in areas 610, 611, and 612, respectively. In addition, the names of all objects on which bills are hung are displayed in the list 650. If the tag has graphic data, the graphic data is displayed in the graphic editing area 620. If the bill has audio data, the item “voice” of the menu 630 is in a selected state, and if the bill has video data, the item “video” is in a selected state.

【0015】両方のデータを有している場合には、項目
「ビデオ」がデフォルト状態で選択される(もちろん、
項目「音声」が、デフォルト状態で選択される構成にな
っていてもよい)。再生アイコン633をクリックする
と、メニュー630で選択されているデータが再生され
る。上記手順2では、札アイコンをダブルクリックし
て、札掛けシート600を開いたが、札アイコンを1回
クリックした後、札掛けメニュー531の項目「札掛け
シート」を選択しても、札掛けシート600を開くこと
ができる。また、上記手順1は、必ずしも必要でない。
つまり、アイコンが表示されていなくても、札が掛けら
れているオブジェクトを、直接マウスでクリックした
後、札掛けメニュー531の項目「札掛けシート」を選
択しても、札掛けシート600を開くことができる。図
4に、上記手順1における、札アイコン表示時の画面の
一例を示す。本図において、札アイコン700、70
1、702、703を例示する。札アイコンは、3つの
シンボル、すなわち、紙を表すシンボル、スピーカを表
すシンボル、人(丸と三角)を表すシンボル−の組み合
せからなる。それぞれのシンボルは、札が有するデータ
の種類を表す。紙シンボルは、図形データ、スピーカシ
ンボルは音声データ、人シンボルはビデオデータをもつ
ことを表す。すなわち、図4において、札アイコン70
0、701、702、703は、それぞれ対応する札
が、音声データだけをもつ、図形データだけをもつ、図
形データとビデオデータをもつ、図形データと音声デー
タをもつことを意味する。札は、タイトル、作成者の名
前、宛先、日付、札掛けされたオブジェクト名、図形編
集領域620に入力されたテキスト等に基づいて検索で
きる。検索条件に適合する札は、札掛けされたオブジェ
クトとともに表示される。例えば、ビデオ映像520の
被写体に札が掛けられている場合には、札が検索される
と同時に、ビデオ映像520にも、当該被写体の映像が
映し出される。図5は、ビデオ映像の被写体に札掛けす
る場合の実現方法の概念図である。図5にて、カメラ7
51で撮影されているビデオ映像750、ビデオ映像7
50に、何が映されているかの情報を有するモデリング
オブジェクト761、モデリングオブジェクトが、ビデ
オ映像750のどの領域に対応しているかを定義する図
形オブジェクト760、モデリングオブジェクト761
にリンクされた札オブジェクト762を示す。モデリン
グオブジェクト761は、ビデオ映像に何が映っている
かを定義する。 図形オブジェクト760は、モデリン
グオブジェクト761が、ビデオ映像750上のどの位
置に映っているかを定義する。運転員が、ビデオ映像7
50上の位置を指示すると、その位置にある図形オブジ
ェクトが同定され(指示された被指示体が何であるかを
調べることを称する)、その図形オブジェクトが所属し
ているモデリングオブジェクト、すなわち被写体が同定
される。カメラの撮影方向、姿勢、画角等のカメラパラ
メータが変更されれば、被写体、映像上の被写体の形
状、位置等が変化する。もちろん、カメラが複数台設置
されておれば、カメラごとに被写体は異なる。従って、
カメラと、そのカメラのカメラパラメータに対応して、
図形オブジェクト760、モデリングオブジェクト等が
定義される。また、蓄積されたビデオ映像の場合には、
再生区間ごとにシーンが変化するため、再生区間に対応
して、図形オブジェクト760、モデリングオブジェク
ト等が定義される。札は、ビデオ映像750上の領域、
図形オブジェクト760、モデリングオブジェクト76
1のいずれにもリンクできる。本図においては、札オブ
ジェクト762は、モデリングオブジェクト761にリ
ンクされている。図6に本実施例の詳細なデータ構造例
を示す。まず、シーンごとに定義されるライブビデオオ
ブジェクト800、801について説明する。一つのシ
ーンに、一つのライブビデオオブジェクトが対応するこ
とになる。また、ライブビデオオブジェクトは、以下に
記載する属性を有する。「活性状態」は、対話操作(オ
ペレータとワークステーション間での操作)が可能か否
かを2値フラグにより示す。「偽」(例えば「0」)の
とき、対話操作は受け付けられない。「真」(例えば
「1」)のとき、対話操作を受け付ける。ここでは、対
話操作を可能にすることを「活性化」すると称し、対話
操作を不可能にすることを「不活性化」すると称する。
また本情報は、全てのオブジェクトが有する。「領域情
報」は、ワークステーション100の画面上での領域を
指定する属性である。カメラの映像は、領域情報が指定
する画面上の領域に表示されることになる。「カメラ情
報」は、撮影するカメラ識別子とカメラパラメータを有
して構成される属性である。カメラ識別子は、複数台存
在するカメラの一台を特定し、カメラパラメータは、あ
るシーンを撮影する際の、カメラの位置、画角、撮影方
向(水平角度および垂直角度)、姿勢等を含む情報から
なる。すなわち、本カメラ情報によって、シーンが決定
される。「オブジェクトリスト」には、あるシーンに対
して定義された図形オブジェクトへのポインタ、あるい
は、あるシーンに対して掛けられている札オブジェクト
へのポインタが格納されている。「付加情報」は、シー
ンに関連する上記以外の情報、例えば、カメラの種類、
メンテナンス履歴等の情報が格納されている。蓄積され
たビデオ映像のシーンには、ライブビデオオブジェクト
の替りに、図7に示す蓄積ビデオオブジェクト840が
対応する。蓄積ビデオオブジェクト840は、カメラ情
報の替りに、ビデオ情報属性を有する。ビデオ情報属性
は、再生に使用するビデオ機器の識別子と、そのシーン
の再生区間に関する情報を有して構成される。再生区間
は、フレーム番号、または、タイムコードで再生開始ア
ドレスと終了アドレスを指定する。他の属性に関して
は、ライブビデオオブジェクトと同様である。また、こ
こでは、ライブビデオオブジェクトと蓄積ビデオオブジ
ェクトを総称して、ビデオオブジェクトと称する。図6
には、シーンごとに定義される図形オブジェクト810
〜813も示されている。図形オブジェクトは、円、矩
形、多角形、線等の各種の図形要素に対応するデータで
ある。一つまたは複数個の図形オブジェクトによって被
写体の概形と位置を定義する。かかる図形オブジェクト
は、以下の属性を有する。「活性状態」は、対話操作
(オペレータとワークステーション間での操作)が可能
か否かを2値フラグにより示す。「偽」(例えば
「0」)のとき、対話操作は受け付けられない。「真」
(例えば「1」)のとき、対話操作を受け付ける。
If both data are present, the item "video" is selected by default (of course,
The item “voice” may be selected in a default state.) When the reproduction icon 633 is clicked, the data selected in the menu 630 is reproduced. In the above procedure 2, the tag icon is double-clicked to open the tag hanging sheet 600. However, after clicking the tag icon once and selecting the item "tag hanging sheet" of the tag menu 531, the tag hanging sheet is also displayed. The sheet 600 can be opened. The above procedure 1 is not always necessary.
In other words, even if the icon is not displayed, even if the object on which a tag is hung is directly clicked with the mouse and then the item “slatch sheet” of the tag hanger menu 531 is selected, the tag hanger sheet 600 is opened. be able to. FIG. 4 shows an example of a screen at the time of displaying the bill icon in the above procedure 1. In the figure, bill icons 700 and 70
1, 702 and 703 are exemplified. The bill icon is composed of a combination of three symbols, that is, a symbol representing paper, a symbol representing a speaker, and a symbol representing a person (circle and triangle). Each symbol represents the type of data included in the bill. A paper symbol represents graphic data, a speaker symbol represents audio data, and a human symbol represents video data. That is, in FIG.
Reference numerals 0, 701, 702, and 703 indicate that the corresponding tags have only audio data, have only graphic data, have graphic data and video data, and have graphic data and audio data. The tag can be searched based on the title, creator's name, destination, date, name of the object on which the tag is placed, text entered in the graphic editing area 620, and the like. Tags that match the search conditions are displayed along with the objects on which the tags are placed. For example, when a tag is hung on the subject of the video image 520, the video of the subject is also displayed on the video image 520 at the same time that the tag is searched. FIG. 5 is a conceptual diagram of a realizing method in a case where a subject is attached to a video image. In FIG.
Video image 750, video image 7 taken at 51
50, a modeling object 761 having information on what is being projected, a graphic object 760 defining which region of the video image 750 corresponds to the modeling object, and a modeling object 761
Shows the tag object 762 linked to. The modeling object 761 defines what is shown in the video image. The graphic object 760 defines a position on the video image 750 where the modeling object 761 is shown. The operator has a video image 7
When a position on the position 50 is designated, the graphic object at that position is identified (this refers to checking the indicated target object), and the modeling object to which the graphic object belongs, that is, the subject is identified. Is done. If camera parameters such as the shooting direction, posture, and angle of view of the camera are changed, the shape, position, and the like of the subject and the subject on the video change. Of course, if a plurality of cameras are installed, the subject differs for each camera. Therefore,
Corresponding to the camera and its camera parameters,
A graphic object 760, a modeling object, and the like are defined. In the case of stored video images,
Since the scene changes for each playback section, a graphic object 760, a modeling object, and the like are defined corresponding to the playback section. The tag is an area on the video image 750,
Graphic object 760, modeling object 76
1 can be linked to In the figure, the tag object 762 is linked to the modeling object 761. FIG. 6 shows a detailed data structure example of this embodiment. First, live video objects 800 and 801 defined for each scene will be described. One live video object corresponds to one scene. Further, the live video object has the following attributes. The “active state” indicates whether or not an interactive operation (operation between the operator and the workstation) is possible by a binary flag. When “false” (for example, “0”), no interactive operation is accepted. When “true” (for example, “1”), the interactive operation is accepted. Here, enabling the interactive operation is referred to as “activation”, and disabling the interactive operation is referred to as “inactivation”.
This information is possessed by all objects. “Area information” is an attribute that specifies an area on the screen of the workstation 100. The image of the camera is displayed in the area on the screen specified by the area information. “Camera information” is an attribute configured to include a camera identifier to be photographed and camera parameters. The camera identifier specifies one of a plurality of cameras, and the camera parameters include information including a camera position, an angle of view, a shooting direction (horizontal angle and vertical angle), a posture, and the like when shooting a certain scene. Consists of That is, a scene is determined by the camera information. The “object list” stores a pointer to a graphic object defined for a certain scene or a pointer to a tag object hanging on a certain scene. “Additional information” is information other than the above related to the scene, for example, the type of camera,
Information such as a maintenance history is stored. The stored video image scene 840 shown in FIG. 7 corresponds to the stored video image scene instead of the live video object. The stored video object 840 has a video information attribute instead of camera information. The video information attribute includes an identifier of a video device used for reproduction and information on a reproduction section of the scene. In the playback section, a playback start address and an end address are specified by a frame number or a time code. Other attributes are the same as the live video object. Here, the live video object and the stored video object are collectively referred to as a video object. FIG.
Includes a graphic object 810 defined for each scene.
-813 are also shown. The graphic object is data corresponding to various graphic elements such as a circle, a rectangle, a polygon, and a line. The outline and position of the subject are defined by one or a plurality of graphic objects. Such a graphic object has the following attributes. The “active state” indicates whether or not an interactive operation (operation between the operator and the workstation) is possible by a binary flag. When “false” (for example, “0”), no interactive operation is accepted. "true"
In the case of (for example, “1”), the interactive operation is accepted.

【0016】ライブビデオオブジェクトが活性化される
と、そのオブジェクトリストに登録されている全ての図
形オブジェクトも活性化される。「領域情報」は、ワー
クステーション100の画面上で、本図形オブジェクト
が占める領域を定義する。本領域情報で定義される領域
が指定されると、本図形オブジェクトが選択されたこと
になる。「part−of」は、図形オブジェクトが領
域を表すモデリングオブジェクトへの、ポインタであ
る。画面上で図形オブジェクトが選択されると、par
t−of情報にポインタが格納されているモデリングオ
ブジェクトも選択されたことになる。一般にpart−
ofには、親オブジェクトへのポインタが格納される。
ここに、親オブジェクトとは、複数の他のオブジェクト
(子オブジェクトと称する)から構成されるオブジェク
トのことを指して言う。「付加情報」とは、上記以外の
図形に関する情報、例えば、図形の種別、色、塗り潰し
の有無等の情報をいう。モデリングオブジェクト820
〜823の一例を図6に示す。モデリングオブジェクト
は、被写体に対応する概念的なオブジェクトで、被写体
に関する情報を有している。モデリングオブジェクト
は、少なくとも一つの図形オブジェクト、または、他の
モデリングオブジェクトから構成される。例えば、バー
ナオブジェクト820は、図形オブジェクト810から
構成され、燃料パイプオブジェクト821は、図形オブ
ジェクト811、821から構成され、さらに、ボイラ
オブジェクト823は、バーナオブジェクト820、燃
料パイプオブジェクト821から構成される。運転員が
映像上の一点を指示すると、その一点を領域内に含む図
形オブジェクトが同定され、さらにその図形オブジェク
トがリンクしているモデリングオブジェクトが同定され
る。図形オブジェクトとモデリングオブジェクトのリン
クは前述のように、図形オブジェクトのpart−of
属性にモデリングオブジェクトへのポインタを格納する
ことで実現できる。
When a live video object is activated, all graphic objects registered in the object list are also activated. “Area information” defines an area occupied by the graphic object on the screen of the workstation 100. When the area defined by the area information is specified, the graphic object is selected. “Part-of” is a pointer to a modeling object whose graphic object represents a region. When a graphic object is selected on the screen, par
This means that the modeling object whose pointer is stored in the t-of information is also selected. Generally part-
“of” stores a pointer to a parent object.
Here, the parent object indicates an object composed of a plurality of other objects (called child objects). The “additional information” refers to information related to graphics other than those described above, for example, information such as the type, color, and presence / absence of painting. Modeling object 820
6 to 823 are shown in FIG. The modeling object is a conceptual object corresponding to the subject, and has information on the subject. The modeling object is composed of at least one graphic object or another modeling object. For example, the burner object 820 is composed of a graphic object 810, the fuel pipe object 821 is composed of graphic objects 811 and 821, and the boiler object 823 is composed of a burner object 820 and a fuel pipe object 821. When the driver points to a point on the video, a graphic object including the point in the area is identified, and a modeling object to which the graphic object is linked is identified. As described above, the link between the graphic object and the modeling object is a part-of-part of the graphic object.
This can be realized by storing a pointer to the modeling object in the attribute.

【0017】なお、モデリングオブジェクトは、下記の
属性を有する。「活性状態」は、対話操作(オペレータ
とワークステーション間での操作)が可能か否かを2値
フラグにより示す。「偽」(例えば「0」)のとき、対
話操作は受け付けられない。「真」(例えば「1」)の
とき、対話操作を受け付ける。
The modeling object has the following attributes. The “active state” indicates whether or not an interactive operation (operation between the operator and the workstation) is possible by a binary flag. When “false” (for example, “0”), no interactive operation is accepted. When “true” (for example, “1”), the interactive operation is accepted.

【0018】また、子オブジェクトである図形オブジェ
クトが活性化されると、親オブジェクトであるモデリン
グオブジェクトも活性化される。「札オブジェクト」
は、札オブジェクトへのポインタであり、複数の札が一
つのモデリングオブジェクトに掛けられた場合は、リス
ト状に札が接続される。「part−of」は、親とな
るモデリングオブジェクトへのポインタである。図6に
示す例では、ボイラオブジェクトは、バーナオブジェク
ト820、燃料パイプオブジェクト821の親オブジェ
クトであり、それぞれのpart−of属性には、ボイ
ラオブジェクト823へのポインタが格納される。「付
加情報」には、上記以外の被写体に関する情報、例え
ば、バーナオブジェクト820は、バーナに関する設計
情報、マニュアル情報、メンテナンス情報等を付加情報
として有する。さらに、札オブジェクト830、831
を図6に示す。札オブジェクトは、札掛けシート600
によって作成された情報を保持し、下記の属性を有す
る。「活性状態」は、対話操作(オペレータとワークス
テーション間での操作)が可能か否かを2値フラグによ
り示す。「偽」(例えば「0」)のとき、対話操作は受
け付けられない。「真」(例えば「1」)のとき、対話
操作を受け付ける。
When a graphic object as a child object is activated, a modeling object as a parent object is also activated. "Tag object"
Is a pointer to a tag object. When a plurality of tags are hung on one modeling object, the tags are connected in a list. “Part-of” is a pointer to a parent modeling object. In the example shown in FIG. 6, the boiler object is a parent object of the burner object 820 and the fuel pipe object 821, and a pointer to the boiler object 823 is stored in each of the part-of attributes. In the “additional information”, information on the subject other than the above, for example, the burner object 820 has design information, manual information, maintenance information, and the like on the burner as additional information. Further, the tag objects 830, 831
Is shown in FIG. The bill object is the billing sheet 600
It has the following attributes. The “active state” indicates whether or not an interactive operation (operation between the operator and the workstation) is possible by a binary flag. When “false” (for example, “0”), no interactive operation is accepted. When “true” (for example, “1”), the interactive operation is accepted.

【0019】札オブジェクトを活性化すると、札アイコ
ンが画面に表示される。「領域情報」は、ワークステー
ション100の画面上札オブジェクトに対応する札アイ
コンの表示領域を指定する情報である。「札オブジェク
ト」は、後続の札オブジェクトへのポインタであり、一
つのモデリングオブジェクトに複数の札が掛けられてい
るときには、この属性を使用して札オブジェクトをリス
ト状に接続する。後続の札が存在しないときには、例え
ば、「0」が設定される。「札情報」は、札掛けシート
600によって作成された札の内容に関する情報であ
り、図形データへのポインタ、音声データの開始アドレ
スと終了アドレス、録画データへの開始アドレスと終了
データ等を有して構成される。作成されなかったデータ
には、「無効アドレス」が格納される。ここで「無効ア
ドレス」とは、実際のデータへのアドレスとして使用す
ることのないアドレスのことである。「付加情報」は、
上記以外の情報、例えば、札の作成者、作成日時、参照
回数、参照者、参照日時等に関する情報を有する。シー
ンを表示する際の処理手順の一例を図8に示す。以下、
各処理手順を詳細に説明する。まず、指定されたシーン
に対応するビデオオブジェクトを活性化する(ステップ
1100)。
When the tag object is activated, a tag icon is displayed on the screen. “Area information” is information for specifying a display area of a bill icon corresponding to a bill object on the screen of the workstation 100. The “tag object” is a pointer to a subsequent tag object. When a plurality of tags are placed on one modeling object, the tag objects are connected in a list using this attribute. When there is no subsequent tag, for example, “0” is set. The “tag information” is information relating to the content of the tag created by the tag hanging sheet 600, and includes a pointer to graphic data, a start address and an end address of audio data, a start address and an end data of recorded data, and the like. It is composed. An “invalid address” is stored in the data that has not been created. Here, the “invalid address” is an address that is not used as an address to actual data. "Additional information"
It has information other than the above, for example, information on the creator of the bill, the creation date and time, the number of references, the referrer, the reference date and time, and the like. FIG. 8 shows an example of a processing procedure for displaying a scene. Less than,
Each processing procedure will be described in detail. First, a video object corresponding to a designated scene is activated (step 1100).

【0020】次に、活性化されたビデオオブジェクトの
オブジェクトリストに登録されている全てのオブジェク
トに活性化する旨の指示を送る。オブジェクトリストに
登録されているオブジェクトが、図形オブジェクトの場
合には、活性化の指令に対応して活性状態が「真」に設
定される。活性化されたオブジェクトは、part−o
f属性で指定された親のオブジェクトに活性化する旨の
指示を送り、親オブジェクトも活性化する。活性化され
たモデリングオブジェクトは、札オブジェクト属性に札
オブジェクトへのポインタが登録されていたら、その札
オブジェクトへ活性化する旨の指令を送り、札オブジェ
クトを活性化する。活性化された札オブジェクトは、後
続の札オブジェクトが存在すれば(すなわち、札オブジ
ェクト属性にポインタが登録されていれば)、該札オブ
ジェクトを活性化する。札オブジェクトは、活性化する
旨の指令を受け取ると、活性状態を「真」に設定するだ
けでなく、札アイコンも画面に表示する(ステップ11
10)。
Next, an instruction to activate is sent to all the objects registered in the object list of the activated video object. If the object registered in the object list is a graphic object, the activation state is set to “true” in response to the activation command. The activated object is part-o
An instruction to activate is sent to the parent object specified by the f attribute, and the parent object is also activated. If the pointer to the tag object is registered in the tag object attribute, the activated modeling object sends a command to activate the tag object to activate the tag object. The activated tag object activates the subsequent tag object if a subsequent tag object exists (that is, if a pointer is registered in the tag object attribute). Upon receiving the activation instruction, the tag object not only sets the active state to “true” but also displays a tag icon on the screen (step 11).
10).

【0021】次に、指定されたシーンがカメラからのラ
イブ映像か、VTR221、LD220等による蓄積画
像であるかによってシーンの表示処理を分けて行なう。
ライブ映像の場合には、以下のステップ1130から1
140の処理が行なわれ、蓄積画像の場合には、以下の
ステップ1150から1160の処理が行なわれる(ス
テップ1120)。ステップ1130では、共有メディ
アサーバ140に依頼して、ライブビデオオブジェクト
のカメラ情報属性で指定されるカメラと映像合成ハード
110を接続する。ステップ1140では、共有メディ
アサーバ140に依頼して、ライブビデオオブジェクト
のカメラ情報属性で指定されるカメラパラメータを前記
カメラに設定する。ステップ1150では、指定された
シーンが蓄積映像である場合、蓄積ビデオオブジェクト
のビデオ情報属性で指定されるビデオ機器(VTR22
1またはLD220)と映像合成ハード110とを、共
有メディアサーバ140に依頼して接続する。ステップ
1160では、共有メディアサーバ140に依頼して、
蓄積ビデオオブジェクトのビデオ情報属性で指定される
開始アドレスと終了アドレス間の繰返し再生をビデオ機
器に指示する。最後に、ビデオオブジェクトの領域情報
を呼び出して、ローカルメディアドライバ130を介し
て映像合成ハード110に映像の表示位置を指示し、映
像の、ワークステーション100の画面への合成表示を
開始する。映像は、札アイコンの表示色とは異なる色へ
の、クロマキー機能を使用した合成で表示される(ステ
ップ1170)。これにより、ステップ1110で表示
された札アイコンは、映像の上に表示される。図8に示
した処理手順では映像を表示する際に、札アイコンも表
示するようにしている(ステップ1110参照)。もち
ろん、映像表示の際には札アイコンは表示せずに、オペ
レータからの要求があった時点(例えば、札掛けメニュ
ー531の項目「アイコン表示」を選択した時点)で、
札アイコンを表示するようにしても良い。また、図6に
示すデータ構造では、ビデオオブジェクトとモデリング
オブジェクトが、札オブジェクトとリンクできる構成と
なっている。つまり、ビデオオブジェクトは、オブジェ
クトリスト属性に札オブジェクトへのポインタを設定す
ることにより、札オブジェクトとリンクする。モデリン
グオブジェクトは、札オブジェクト属性に札オブジェク
トへのポインタを設定することにより、札オブジェクト
とリンクする。ビデオオブジェクトに札オブジェクトを
リンクした場合には、札アイコンは、ビデオオブジェク
トが指定するシーンにのみ表示される。モデリングオブ
ジェクトに札オブジェクトをリンクした場合には、モデ
リングオブジェクトに対応する被写体が表示されている
シーン全てに、札アイコンが表示される。もちろん、ビ
デオオブジェクト、モデリングオブジェクト以外のオブ
ジェクト(図形オブジェクトや、図6に図示されていな
い他のオブジェクト、例えば、メニュー、アイコン等の
ユーザインタフェースツール、グラフ、画像等)に札オ
ブジェクト属性を設けて、札オブジェクトとリンクでき
る構成としても良い。以上のように、本実施例によれ
ば、以下に示す効果が得られることになる。第1に、運
転員は、操作室にいながら、現場の機器へのメモ付け、
メモの参照等ができることになる。監視カメラの映像に
映っている機器にメモを対応付け、付加することによ
り、現場で実際に札掛けしている感覚で作業を行なえ
る。第2に、メモをワークステーション、パーソナルコ
ンピュータ等の計算機で管理できる。これによって、紙
による札掛けに比べ、保存等の信頼性を向上でき、ま
た、検索の高速化が図れる等の利点を有する。第3に、
テキストのみならず、音声、映像等のメディアを使用し
た札掛けが可能となる。これにより、メモを録音、録画
等により簡単に作成できる。第4に、現場の機器のみな
らず、画面上のマン・マシン構成要素に対しても、メモ
を付けられる。これによって、画面操作上の注意事項等
を伝達できる。第5に、運転員間のコミュニケーション
を促進できる。すなわち、運転員が交代する場合等に、
次の運転員への申し送り事項等を画面の表示物に対応さ
せて作成することにより、わかりやすく確実な申し送り
が可能になる。
Next, scene display processing is performed separately depending on whether the designated scene is a live image from a camera or an image stored by the VTR 221 or the LD 220 or the like.
In the case of live video, the following steps 1130 to 1
The processing of 140 is performed, and in the case of a stored image, the processing of the following steps 1150 to 1160 is performed (step 1120). In step 1130, the shared media server 140 is requested to connect the camera specified by the camera information attribute of the live video object to the video compositing hardware 110. In step 1140, a request is made to the shared media server 140 to set the camera parameters specified by the camera information attribute of the live video object in the camera. In step 1150, if the specified scene is a stored video, the video device (VTR 22) specified by the video information attribute of the stored video object
1 or the LD 220) and the video compositing hardware 110 by requesting the shared media server 140 to connect. In step 1160, the shared media server 140 is requested,
It instructs the video device to repeat playback between the start address and the end address specified by the video information attribute of the stored video object. Finally, the area information of the video object is called, the display position of the video is instructed to the video composition hardware 110 via the local media driver 130, and the composite display of the video on the screen of the workstation 100 is started. The video is displayed in a color different from the display color of the bill icon using the chroma key function (step 1170). Thereby, the tag icon displayed in step 1110 is displayed on the video. In the processing procedure shown in FIG. 8, when displaying an image, a bill icon is also displayed (see step 1110). Of course, the tag icon is not displayed at the time of displaying the image, and at the time of the request from the operator (for example, when the item “icon display” of the tag hanging menu 531 is selected),
A bill icon may be displayed. In the data structure shown in FIG. 6, the video object and the modeling object can be linked to the tag object. That is, the video object is linked to the tag object by setting a pointer to the tag object in the object list attribute. The modeling object links with the tag object by setting a pointer to the tag object in the tag object attribute. When a tag object is linked to a video object, the tag icon is displayed only in the scene specified by the video object. When a tag object is linked to a modeling object, a tag icon is displayed in all scenes in which a subject corresponding to the modeling object is displayed. Of course, objects other than the video object and the modeling object (graphic objects, other objects not shown in FIG. 6, for example, user interface tools such as menus and icons, graphs, images, etc.) are provided with tag object attributes, It is good also as composition which can be linked with a bill object. As described above, according to the present embodiment , the following effects can be obtained. First, the operator, while in the operation room, makes notes on the equipment at the site,
You will be able to refer to the memo. By associating and adding memos to the devices shown in the video of the surveillance camera, the work can be performed as if the user were actually placing a bill at the site. Second, notes can be managed by a computer such as a workstation or personal computer. As a result, there are advantages in that the reliability of storage and the like can be improved and that the search can be speeded up, as compared with the paper tagging. Third,
It is possible to attach cards using media such as audio and video as well as text. Thereby, a memo can be easily created by recording, recording, or the like. Fourth, notes can be added not only to on-site equipment but also to man-machine components on the screen. As a result, it is possible to transmit notes on screen operation. Fifth, communication between operators can be promoted. That is, when the operator is changed,
By creating the items to be sent to the next operator in correspondence with the displayed items on the screen, it is possible to send the items easily and reliably.

【0022】[0022]

【発明の効果】隔にある機器への札掛けを画面上で模
擬でき、運転者は操作室にいながら、現場の機器へのメ
モ付け、メモの参照等ができる
Tags hanging on, according to the present invention is in the far-septum device can be simulated on the screen, the driver while are in the control room, memo dated to the site of the equipment, can see the like of the memo.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明にかかるプラント監視制御システムの全
体構成図例である。
FIG. 1 is an example of an overall configuration diagram of a plant monitoring and control system according to the present invention.

【図2】本発明にかかるプラント監視制御システムのデ
ィスプレイ上への表示例の説明図である。
FIG. 2 is an explanatory diagram of a display example on a display of the plant monitoring and control system according to the present invention.

【図3】札掛けシートの表示例の説明図である。FIG. 3 is an explanatory diagram of a display example of a bill hanging sheet.

【図4】札アイコンの表示例の説明図である。FIG. 4 is an explanatory diagram of a display example of a bill icon.

【図5】ビデオ映像への札掛けの実現概念を示す説明図
である。
FIG. 5 is an explanatory diagram showing a concept of realizing a tag attached to a video image.

【図6】ビデオ映像への札掛けのためのデータ構造例の
説明図である。
FIG. 6 is an explanatory diagram of an example of a data structure for tagging a video image.

【図7】蓄積ビデオオブジェクトのデータ構造例の説明
図である。
FIG. 7 is an explanatory diagram of an example of a data structure of a stored video object.

【図8】シーン表示の際の処理例の説明図である。FIG. 8 is an explanatory diagram of a processing example when displaying a scene.

【符号の説明】[Explanation of symbols]

10…ネットワーク、100…ワークステーション、1
10…映像合成ハード、111…カメラ、120…音声
処理ハード、121…スピーカ、122…スピーカ、1
23…マイク、130…ローカルメディアドライバ、1
40…共有メディアドライバ、200…データスイッチ
ング用マトリクススイッチャ、210…カメラ、211
…マイク、220…レーザディスク(LD)、221…
ビデオテープレコーダ(VTR)、250…制御用スイ
ッチャ、251…カメラコントローラ、252…カメラ
コントローラ、500…ディスプレイ画面、501…ポ
インタ、510…プラント構成図、520…画面500
に表示されたビデオ映像、530…札掛けアイコン、5
31…札掛けメニュー、600…札掛けシート、610
…札のタイトルを入力、表示する領域、611…札の作
成者の名前を入力、表示する領域、612…札の宛名を
入力、表示する領域、613…札を作成している時点の
日時表示、620…(図形)編集領域、621…スクロ
ールバー、622…スクロールバー、625…図形メニ
ュー、626…拡大または縮小するためのメニュー、6
30…記録再生する対象を指定するメニュー、631…
アイコン、632…アイコン、633…アイコン、63
4…アイコン、635…アイコン、640…管理メニュ
ー、650…オブジェクト名のリスト表示、651…ス
クロールバー、700…札アイコン、701…札アイコ
ン、702…札アイコン、703…札アイコン、750
…ビデオ映像、751…カメラ、760…図形オブジェ
クト、761…モデリングオブジェクト(ボイラオブジ
ェクト)、762…札オブジェクト、800…ライブビ
デオオブジェクト、801…ライブビデオオブジェク
ト、810…図形オブジェクト、811…図形オブジェ
クト、812…図形オブジェクト、813…図形オブジ
ェクト、820…モデリングオブジェクト、821…モ
デリングオブジェクト、822…モデリングオブジェク
ト、823…モデリングオブジェクト、830…札オブ
ジェクト、831…札オブジェクト、840…蓄積ビデ
オオブジェクト
10 ... network, 100 ... workstation, 1
10: video synthesis hardware, 111: camera, 120: audio processing hardware, 121: speaker, 122: speaker, 1
23: microphone, 130: local media driver, 1
40: Shared media driver, 200: Matrix switcher for data switching, 210: Camera, 211
... microphone, 220 ... laser disk (LD), 221 ...
Video tape recorder (VTR), 250 control switcher, 251 camera controller, 252 camera controller, 500 display screen, 501 pointer, 510 plant configuration diagram, 520 screen 500
Video image displayed on the screen, 530 ... billing icon, 5
31: bill hanging menu, 600: bill hanging sheet, 610
... Area for inputting and displaying the title of the tag, 611 ... Area for inputting and displaying the name of the creator of the tag, 612 ... Area for inputting and displaying the address of the tag, 613 ... Date and time display when the tag is created , 620 ... (graphic) editing area, 621 ... scroll bar, 622 ... scroll bar, 625 ... graphic menu, 626 ... menu for enlargement or reduction, 6
30, a menu for designating a recording / reproducing object, 631 ...
Icon, 632 ... icon, 633 ... icon, 63
4, icon, 635, icon, 640, management menu, 650, object name list display, 651, scroll bar, 700, bill icon, 701, bill icon, 702, bill icon, 703, bill icon, 750
… Video image, 751 camera, 760… graphic object, 761… modeling object (boiler object), 762… bill object, 800… live video object, 801… live video object, 810… graphic object, 811… graphic object, 812 ... graphic object, 813 ... graphic object, 820 ... modeling object, 821 ... modeling object, 822 ... modeling object, 823 ... modeling object, 830 ... bill object, 831 ... bill object, 840 ... accumulated video object

───────────────────────────────────────────────────── フロントページの続き (72)発明者 二川 正康 茨城県日立市久慈町4026番地 株式会社 日立製作所 日立研究所内 (72)発明者 堀田 正人 茨城県日立市久慈町4026番地 株式会社 日立製作所 日立研究所内 (72)発明者 谷藤 真也 茨城県日立市久慈町4026番地 株式会社 日立製作所 日立研究所内 (72)発明者 西川 敦彦 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (72)発明者 廣田 敦彦 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (72)発明者 内ケ崎 晴美 茨城県日立市久慈町4026番地 株式会社 日立製作所 日立研究所内 (56)参考文献 特開 平3−242686(JP,A) 特開 平5−324233(JP,A) 特開 平5−197355(JP,A) (58)調査した分野(Int.Cl.7,DB名) G09G 5/00 G05B 23/02 G06F 3/14 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Masayasu Futagawa 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Within Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Masato Hotta 4026 Kuji-machi, Hitachi City, Ibaraki Prefecture Hitachi, Ltd. (72) Inventor Shinya Yato 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Within Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Atsuhiko Nishikawa 5-2-1 Omikamachi, Hitachi City, Ibaraki Prefecture, Hitachi, Ltd.Omika Plant ( 72) Inventor Atsuhiko Hirota 5-2-1, Omika-cho, Hitachi City, Ibaraki Prefecture Inside Hitachi, Ltd. Omika Plant (72) Inventor Harumi Uchigasaki 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Hitachi, Ltd. References JP-A-3-242686 (JP, A) JP-A-5-324233 (JP, A) JP-A-5-197355 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G09G 5/00 G05B 23/02 G06F 3/14

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】音声または画像を含む情報が被写体に関連
付けられていることを記憶しておき、 前記被写体の画像が表示中のビデオ映像に含まれている
場合に、当該ビデオ映像中に、当該被写体に前記情報が
関連付けられていることを示すグラフィックスを表示す
る、 ことを特徴とする画面札掛け方法。
1. Information including voice or image is related to a subject.
Stores that are attached, an image of the object is included in the video image being displayed
In such a case, the information is provided to the subject in the video image.
Show associated graphics
A method of hanging a screen tag.
【請求項2】請求項1記載の画面札掛け方法であって、前記グラフィックスが 指示された場合に、当該グラフィ
ックスに対応する被写体に関連付けられた情報を出力す
る、 ことを特徴とする画面札掛け方法。
2. The screen tag hanging method according to claim 1, wherein when the graphics is instructed, the graphics are displayed.
Outputting information associated with the subject corresponding to the screen.
【請求項3】撮像手段で撮影された被写体のビデオ映像
を表示する際、または映像を含む媒体より予め情
報を作成し、該情報が、複数の撮像手段のいずれを使用
したかを示す撮像手段番号、撮像手段の設定位置を含む
撮像手段設定パラメータと関連がある事を記憶してお
き、該記憶情報に基づき、前記被写体には前記予め作成
された情報が関連付けられていることを示すグラフィッ
クス作成、記憶しておくことを特徴とする画面札掛け
方法。
Wherein when displaying the video image of the object photographed by the imaging means, create more pre Me information <br/> report on medium containing voice or video, the information is, the plurality of image pickup means The imaging means number indicating which one is used, and the fact that there is a relation with the imaging means setting parameter including the setting position of the imaging means are stored, and based on the stored information, the information created beforehand is stored in the subject. create graphics <br/> box indicating that the associated screen tags hanging wherein the storing.
【請求項4】請求項3記載の画面札掛け方法において、 像手段設定パラメータが選択された場合、該撮像手段
設定パラメータに関連するグラフィックスを表示し、表
示されたグラフィックスを指示手段により指示したと
き、前記予め作成された情報を出力することを特徴とす
る画面札掛け方法。
4. A screen tag hanging method according to claim 3, wherein, if an imaging unit setting parameter is selected, displays the graphics associated with the imaging means setting parameters, the instruction means the graphics displayed when instructed, the screen label threading method and outputting the information of the previously created.
【請求項5】撮像手段で撮影された被写体のビデオ映像
を表示する際、または映像を含む媒体より予め情
報を作成し、該情報、表示画像上の指定された領域に
関連があることを記憶しておき、該記憶情報に基づき、
前記被写体には前記予め作成された情報が関連付けられ
ていることを示すグラフィックス作成、記憶しておく
ことを特徴とする画面札掛け方法。
When 5. A display video images of the object photographed by the imaging means, create more pre Me information <br/> report on medium containing voice or video, the information is specified on the display image It is stored that there is a relationship with the area, and based on the stored information,
A screen tagging method, wherein graphics indicating that the previously created information is associated with the subject are created and stored.
【請求項6】請求項5記載の画面札掛け方法において、 示画像上の指定された領域が選択された場合、該表示
画像上の指定された領域に関連するグラフィックスを表
示し、表示されたグラフィックスを指示手段により指示
したとき、前記予め作成された情報を出力することを特
徴とする画面札掛け方法。
6. A screen tag hanging method according to claim 5, wherein, if the specified area on the Viewing image is selected, displays the graphics associated with the specified region on the display image, the display It has been when instructed by the instruction means graphics screen label threading method and outputting the information of the previously created.
【請求項7】請求項1または2記載の画面札掛け方法で
あって、前記 被写体の複数のシーンを撮影し、ビデオ映像として
蓄積しておき、それぞれのシーンに関連付けて前記グラ
フィックスを表示することを特徴とする画面札掛け方
法。
7. The method according to claim 1, wherein a plurality of scenes of the subject are photographed and stored as video images, and the graphics are displayed in association with each scene. A screen tagging method characterized in that:
【請求項8】撮像手段で被写体を撮影し、該被写体のビ
デオ映像を表示する際、音または映像を含む媒体
り予め情報を作成し、該情報を前記被写体のビデオ画像
中の所定の部分に関連がある事を記憶しておき、該記憶
情報に基づき、前記被写体には前記予め作成された情報
が関連付けられていることを示すグラフィックス表示
する画面札掛け方法であって、 写体のビデオ映像のみを表示し、次に、被写体の一部
の指示があった場合にのみ、該被指示部にグラフィック
が掛けられているか否かを判断し、グラフィックス
掛けられている場合、該グラフィックスに関連した情報
を出力することを特徴とする画面札掛け方法。
Photographing an object at 8. The imaging unit, when displaying a video image of the subject, to create a by <br/> Ri予Me information on medium containing voice or video, the object of the information A screen tag that displays a graphic indicating that the pre-created information is associated with the subject based on the stored information. a multiplying method, to display only the video images of the Utsushitai, then only when there is some indication of the subject graphic to said instruction unit
It is determined whether the scan is over, if the graphics is trained, the screen label threading method and outputting the information associated with the graphics.
【請求項9】撮像画像の表示手段を有する画面札掛け装
置であって、被写体に関連付けられた 情報を記憶する手段を有し、前記 表示手段は、表示中の撮影画像に前記被写体の画像が含まれている場
合に、当該被写体に前 記情報が関連付けられていること
を示すグラフィックを、前記表示中の撮影画像中に表示
する、 ことを特徴とする画面札掛け装置。
9. A screen label hooking device for chromatic display means of the captured image, comprising means for storing information associated with the object, the display means, the image of the subject in the captured image being displayed Where is included
In case, the pre-Symbol Information to the subject is associated
Is displayed in the displayed captured image.
A screen tag hanging device.
【請求項10】請求項9記載の画面札掛け装置におい
て、 撮像画像の一部を指示する手段を備え、 前記表示手段は、 前記撮像画像の一部を指示する手段で前記グラフィック
指示された場合、前記グラフィックに関連付けて記憶
されてい情報を出力す、 ことを特徴とする画面札掛け装置。
Te 10. The method of claim 9 screen label hanging device smell according <br/>, comprising means for instructing a part of the captured image, before Symbol Display means, means for indicating a portion of the captured image With the graphic
If is instructed, it outputs information that has been stored in association with the graphic screen label hanging device, characterized in that.
JP21519092A 1992-08-12 1992-08-12 Screen tagging method and device Expired - Lifetime JP3238205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21519092A JP3238205B2 (en) 1992-08-12 1992-08-12 Screen tagging method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21519092A JP3238205B2 (en) 1992-08-12 1992-08-12 Screen tagging method and device

Publications (2)

Publication Number Publication Date
JPH0659646A JPH0659646A (en) 1994-03-04
JP3238205B2 true JP3238205B2 (en) 2001-12-10

Family

ID=16668175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21519092A Expired - Lifetime JP3238205B2 (en) 1992-08-12 1992-08-12 Screen tagging method and device

Country Status (1)

Country Link
JP (1) JP3238205B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106435A (en) * 1994-10-07 1996-04-23 Sony Corp Cyber space system
JP3211663B2 (en) * 1996-05-20 2001-09-25 株式会社日立製作所 Plant operation information display method and plant operation monitoring device
US6654060B1 (en) 1997-01-07 2003-11-25 Canon Kabushiki Kaisha Video-image control apparatus and method and storage medium
US7262763B2 (en) 2000-04-18 2007-08-28 Fujifilm Corporation Image display apparatus and image display method
JP4747410B2 (en) * 2000-11-10 2011-08-17 ソニー株式会社 Video switching display device and video switching display method
US8683317B2 (en) * 2009-09-23 2014-03-25 Fisher-Rosemount Systems, Inc. Dynamically linked graphical messages for process control systems

Also Published As

Publication number Publication date
JPH0659646A (en) 1994-03-04

Similar Documents

Publication Publication Date Title
JP3526067B2 (en) Reproduction device and reproduction method
US5572728A (en) Conference multimedia summary support system and method
Chiu et al. LiteMinutes: an Internet-based system for multimedia meeting minutes
US8006192B1 (en) Layered graphical user interface
EP0915471A2 (en) Video searching, video information production, and storage medium for storing processing program therefor
JP2006146415A (en) Conference support system
US20050052338A1 (en) Information creating method information creating apparatus and network information processing system
JPH05250119A (en) Video help guidance method
WO1992017875A1 (en) Method and apparatus for image or data processing, and monitoring method and apparatus using the same
JPH0579951A (en) Monitoring system
JP2001142675A (en) Method and apparatus for generating and displaying a document with sound
JP2013101657A (en) Method, program and system for creating content representation
JPH10285523A (en) Image display apparatus and method
JP2008084110A (en) Information display device, information display method, and information display program
JP2836550B2 (en) Scenario editing device
US6470356B1 (en) Multimedia information audiovisual apparatus
JP3238205B2 (en) Screen tagging method and device
JP4010094B2 (en) Lecture information presentation device for remote locations
JPH0793371A (en) Computer-controlled editing system and database display method thereof
JPWO2006028154A1 (en) Information management system, information management method, information management program and recording medium thereof
EP0597798A1 (en) Method and system for utilizing audible search patterns within a multimedia presentation
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
JP4244545B2 (en) Information creation method, information creation apparatus, and network information processing system
CN113556602B (en) Video playing method and device, storage medium and electronic equipment
JPH06274552A (en) Multi-media data link system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071005

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081005

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091005

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091005

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 11

EXPY Cancellation because of completion of term