JP2002034009A - Bidirectional recognition system and method and recording medium - Google Patents
Bidirectional recognition system and method and recording mediumInfo
- Publication number
- JP2002034009A JP2002034009A JP2000213672A JP2000213672A JP2002034009A JP 2002034009 A JP2002034009 A JP 2002034009A JP 2000213672 A JP2000213672 A JP 2000213672A JP 2000213672 A JP2000213672 A JP 2000213672A JP 2002034009 A JP2002034009 A JP 2002034009A
- Authority
- JP
- Japan
- Prior art keywords
- user
- another user
- interactive
- use status
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Information Transfer Between Computers (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
(57)【要約】
【課題】 ユーザ状況を確認しやすくする。
【解決手段】 ビデオカメラで撮影されたユーザの画像
をコンピュータ本体に取り込まれ(S1)、圧縮符号化
される(S2)。オフィスビュー表示ウインドウが最小
化されている場合、又は他のアプリケーションウインド
ウの背面に存在する場合、ユーザはオフィスビューを見
ていないと判断する(S3)。判断されたユーザの状態
は、圧縮画像データと共にネットワークを介してホスト
サーバ装置に転送される(S4)。ユーザ端末は、サー
バ装置12から他のユーザの映像を受信し(S5)、伸
長して(S6)、表示装置44に表示する(S7)。更
に、受信したユーザの利用状態情報からユーザの状況が
分かるように、オフィスビュー上に他ユーザの利用状況
を表示する(S8)。ユーザが終了を指示しなければ、
S1以降を繰り返す(S9)。
(57) [Summary] [Problem] To make it easier to check the user status. SOLUTION: An image of a user photographed by a video camera is taken into a computer main body (S1) and compression-encoded (S2). If the office view display window is minimized or exists behind another application window, it is determined that the user is not looking at the office view (S3). The determined user state is transferred to the host server device via the network together with the compressed image data (S4). The user terminal receives an image of another user from the server device 12 (S5), decompresses the image (S6), and displays the image on the display device 44 (S7). Further, the usage status of another user is displayed on the office view so that the status of the user can be understood from the received usage status information of the user (S8). If the user does not indicate termination,
The process after S1 is repeated (S9).
Description
【0001】[0001]
【発明の属する技術分野】本発明は、コンピュータネッ
トワーク上に形成される仮想システムにおいてユーザが
相互を主として画像により認識する双方向認知システム
及び方法並びに記憶媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a two-way cognitive system, method, and storage medium in which a user recognizes each other mainly by images in a virtual system formed on a computer network.
【0002】[0002]
【従来の技術】従来、企業、団体及び公共機関などの各
組織体は、事務作業、営業業務及び大きな設備を必要と
しない技術業務などに従事させる雇用労働者(以下、勤
務者とする。)の勤務場所として、オフイススペースを
所有又は賃貸借契約によって確保し、勤務者は通常、公
共交通機関又は自家用車などを利用して就業開始時刻ま
でにオフイススペースに到着・集合し、決められた就業
時間内に集合勤務を行うのが一般的であった。そして、
オフィススペースに電話機、複写機、ファクシミリ、コ
ンピュータ及びコンピュータネットワークなどを装備す
ることにより、各種業務の効率化を図ってきた。2. Description of the Related Art Hitherto, each organization such as a company, an organization, and a public institution employs an employment worker (hereinafter referred to as a worker) who engages in office work, sales work, and technical work that does not require large facilities. The office space is owned or leased by a lease agreement, and the workers usually arrive and gather in the office space by the commencement of employment using public transportation or private cars, and the determined working hours It was common to work collectively within. And
By equipping office space with telephones, copiers, facsimile machines, computers, computer networks, etc., efficiency of various tasks has been improved.
【0003】この集合勤務の慣習は、人類の歴史におい
ては産業革命以降に工場の効率的運営のために採用され
るようになった比較的新しい現象である。近年になっ
て、通勤地獄及び自家用車の増加による大気汚染など、
集合勤務を起因とする弊害が顕著になる反面、インター
ネットなどの通信インフラストラクチャと各種通信技術
を利用できるようになってきた結果、組織とその勤務者
にとって集合勤務は必ずしも必然的な勤務形態ではなく
なってきている。むしろ、同一の組織体に所属する勤務
者をその自宅又はその近辺の好みの場所で働かせ、全体
として組織の目的業務を遂行するという分散勤務の考え
方が注目されるようになってきた。[0003] This collective work practice is a relatively new phenomenon in the history of mankind that has been adopted for efficient operation of factories since the Industrial Revolution. In recent years, commuting hell and air pollution due to the increase of private cars,
While the negative effects of collective work have become more pronounced, collective work is not necessarily an indispensable form of work for organizations and their workers as a result of the availability of communication infrastructure such as the Internet and various communication technologies. Is coming. Rather, the idea of distributed work, in which workers belonging to the same organization work at their home or a preferred place near the home to carry out the purpose work of the organization as a whole, has been attracting attention.
【0004】一般に、企業などの組織体において分散勤
務を実現するには、各勤務者の自宅の一部屋を勤務スペ
ース(これをホームオフイスと呼ぶ)として使い、遠隔
地に分散する複数のホームオフィスを通信回線で結び、
電話機及びファクシミリなどの宅内通信端末機器、並び
に通信アプリケーションシステムを用いる方法が採られ
る。これにより、各勤務者間の必要な連絡手段を確保す
る。通信回線は例えば、加入電話網、ISDN網及びイ
ンターネット専用回線などからなり、通信アプリケーシ
ョンシステムは、電子メールシステム、WWW(Wor
ld WideWeb)システム及びテレビ会議システ
ムからなる。In general, in order to realize distributed work in an organization such as a company, one room of each worker's home is used as a work space (this is called a home office) and a plurality of home offices distributed to remote locations are used. With a communication line,
A method using a home communication terminal device such as a telephone and a facsimile, and a communication application system is adopted. In this way, necessary communication means between each worker is secured. The communication line includes, for example, a subscribed telephone network, an ISDN network, and a line dedicated to the Internet, and the communication application system includes an electronic mail system, WWW (Wor).
ld WideWeb) system and a video conference system.
【0005】また、勤務者は、ホームオフイスではなく
所属組織及び地方自治体等が用意するサテライトオフィ
ス及びテレコテージなどを利用したり、営業業務及び保
守業務の場合には、顧客訪問に用いる自家用車及び公共
交通機関の座席などを一時的な勤務場所(モバイルオフ
ィス)として利用する。Workers use satellite offices and telecottages prepared by their organizations and local governments instead of home offices. In the case of sales and maintenance work, workers use private cars and vehicles used for customer visits. Use public transportation seats as temporary work locations (mobile offices).
【0006】[0006]
【発明が解決しようとする課題】従来、このような分散
勤務を円滑に実施することを目的として、様々なシステ
ムが提案されている。図12は、米国、White P
ine Software InC.の提供する多地点
テレビ会議システムのクライアント画面を示す。このシ
ステムは、主に、遠隔地の勤務者間で映像を用いたリア
ルタイム会議をパーソナルコンピュータ上で実現する。Conventionally, various systems have been proposed for the purpose of smoothly performing such distributed work. FIG. 12 shows White P in the United States.
ine Software InC. 1 shows a client screen of a multipoint video conference system provided by the company. This system mainly realizes a real-time conference using images between workers at remote locations on a personal computer.
【0007】このようなシステムを利用して、分散勤務
者間の映像を相互交換することで、いわゆる双方向アウ
エアネスシステムを実現し、孤立感及び疎外感を防止
し、勤務者間の活発なコミュニケーションの促進を図る
ことができる。[0007] By using such a system, the so-called two-way awareness system is realized by exchanging images between distributed workers, preventing the feeling of isolation and alienation, and energizing the workers. Communication can be promoted.
【0008】しかし、テレビ会議コミュニケーション用
に開発された既存のツールをそのまま利用した場合、映
像だけでは判断できないアウエアネス情報をリアルタイ
ムに交換することができないので、心理的抵抗感(一方
的に監視されているのではないかとの不安感)を生じる
等の問題があった。即ち、映像情報により、ユーザが端
末装置(この場合、パーソナルコンピュータ)の近くに
位置し、端末装置を利用していることは判別できるが、
当該システムを利用して他のユーザの様子を見ているの
か、又は、他のソフトウエアを利用中であるかどうかを
判断することができなかった。遠隔監視システムとは異
なり、双方向アウエアネスシステムの場合、互恵性の観
点から、ユーザが他のユーザのアウエアネス情報を見て
いるか否かの情報は重要である。しかし、従来のシステ
ムは、このような観点の機能を具備しない。However, if existing tools developed for video conference communication are used as they are, it is impossible to exchange awareness information in real time, which cannot be determined only by video, so that psychological resistance (one-sided monitoring There is a problem of anxiety about whether or not That is, it can be determined from the video information that the user is located near the terminal device (in this case, a personal computer) and uses the terminal device,
It was not possible to determine whether another user is using the system or whether another software is being used. Unlike a remote monitoring system, in the case of a two-way awareness system, from the viewpoint of reciprocity, information as to whether a user is viewing other users' awareness information is important. However, the conventional system does not have the function of such a viewpoint.
【0009】本発明は、かかる問題点に鑑みてなされた
ものであり、ユーザの利用状況をリアルタイムに交換す
ることで円滑なコミュニケーション機会の支援を実現
し、互恵性を高める双方向認知システム及び方法並びに
記憶媒体を提示することを目的とする。The present invention has been made in view of such a problem, and realizes a smooth communication opportunity support by exchanging a user's usage status in real time, thereby enhancing a reciprocity. And a storage medium.
【0010】[0010]
【課題を解決するための手段】本発明に係る双方向認知
システムは、複数のユーザの各々に設置された端末装置
と通信回線により構成される双方向認知システムであっ
て、前記端末装置は、ユーザの映像を取得する映像取得
手段と、取得された映像データを他のユーザに送信する
送信手段と、他のユーザの映像を受信し表示する受信表
示手段と、ユーザのシステム利用状況を判断する利用状
況判断手段と、利用状況判断結果を他のユーザに通知す
る通知手段と、他のユーザの利用状況を表示する利用状
況表示手段とを有することを特徴とする。A two-way cognitive system according to the present invention is a two-way cognitive system comprising a terminal device installed for each of a plurality of users and a communication line, wherein the terminal device comprises: A video acquisition unit for acquiring a video of a user, a transmission unit for transmitting the acquired video data to another user, a reception display unit for receiving and displaying a video of another user, and determining a user's system usage status It is characterized by comprising a use status judging means, a notifying means for notifying another user of the use status judgment result, and a use status display means for displaying the use status of another user.
【0011】本発明に係る双方向認知方法は、複数のユ
ーザの各々に設置された端末装置と通信回線により、ユ
ーザが相互に認知する方法であって、ユーザの映像を取
得する映像取得ステップと、取得された映像データを他
のユーザに送信する送信ステップと、他のユーザの映像
を受信し表示する受信表示ステップと、ユーザのシステ
ム利用状況を判断する利用状況判断ステップと、利用状
況判断結果を他のユーザに通知する通知ステップと、他
のユーザの利用状況を表示する利用状況表示ステップと
を有することを特徴とする。[0011] A two-way recognition method according to the present invention is a method in which users mutually recognize each other by a terminal device and a communication line installed in each of a plurality of users. A transmitting step of transmitting the obtained video data to another user, a receiving and displaying step of receiving and displaying a video of the other user, a usage status determining step of determining a user's system usage status, and a usage status determination result And a usage status display step of displaying the usage status of the other user.
【0012】本発明に係る記憶媒体には、上述の双方向
認知方法を実行するプログラムが格納される。A storage medium according to the present invention stores a program for executing the above-described interactive recognition method.
【0013】[0013]
【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0014】図1は、本発明の一実施例である仮想オフ
ィスシステムの概略構成ブロック図を示す。メインオフ
ィス(分散オフィスを導入する企業など各種組織体の本
社事業所など)10に、ホストサーバ装置12が、設置
されている。ホストサーバ装置12は、メインオフイス
10内のLAN(Local Area Networ
k)14に接続する。メインオフィス10で勤務する勤
務者用のユーザ端末装置16,18は、コンピュータ2
0、ユーザ端末装置用ソフトウエア22、電話機24、
ビデオカメラ26及びその他の機器を組み合わせて実現
される。電話機24は、PSTN回線(一般加入電話回
線)又はISDN回線を通じてホストサーバ装置12と
接続可能であり、コンピュータ20は、LAN14を介
してホストサーバ装置12に接続する。FIG. 1 is a schematic block diagram of a virtual office system according to an embodiment of the present invention. A host server device 12 is installed in a main office (a headquarters office of various organizations such as a company introducing a distributed office) 10. The host server device 12 is connected to a LAN (Local Area Network) in the main office 10.
k) Connect to 14. The user terminals 16 and 18 for workers working in the main office 10 are computers 2
0, user terminal software 22, telephone 24,
This is realized by combining the video camera 26 and other devices. The telephone set 24 can be connected to the host server device 12 via a PSTN line (general subscriber telephone line) or an ISDN line, and the computer 20 is connected to the host server device 12 via the LAN 14.
【0015】30,32,34はホームオフィスで勤務
するユーザ用のユーザ端末装置であり、それぞれ、コン
ピュータ36、ユーザ端末装置用ソフトウエア38、電
話機40、ビデオカメラ42、仮想オフイス表示装置4
4及びその他の機器を組み合わせて実現されている。な
お、表示装置44を使用しない場合、ディスプレイ76
に仮想オフィスを表示する。電話機40は、PSTN回
線(一般加入電話回線)又はISDN回線を通じてホス
トサーバ装置12と接続可能である。表示装置44は、
コンピュータ36に接続され、その画面を表示するモニ
タ装置ともなる。Reference numerals 30, 32, and 34 denote user terminal devices for users who work in the home office. A computer 36, user terminal device software 38, telephone 40, video camera 42, and virtual office display device 4 are provided, respectively.
4 and other devices are combined. When the display device 44 is not used, the display 76 is not used.
To display the virtual office. The telephone 40 can be connected to the host server device 12 via a PSTN line (general subscriber telephone line) or an ISDN line. The display device 44
The monitor 36 is connected to the computer 36 and displays its screen.
【0016】図2は、ホストサーバ装置12のハードウ
エア構成例を示す。BP(Basic Platfor
m)12aはPC(パーソナルコンピュータ)により構
成されるサーバ装置である。SPU(Signal p
rocessing Unit)12bは、高性能DS
P(Digital Signal processo
r)などから構成される信号処理ボードであり、BPの
拡張インターフェースに内蔵される。SPU12bはサ
ーバ側での画像・音声などの信号処理に利用される。B
P12aはLANボードを通じてメインオフイス10内
のLAN14に接続する。このような構成自体は、周知
であり、その他の周知の構成を採用可能である。FIG. 2 shows an example of a hardware configuration of the host server device 12. BP (Basic Platform)
m) 12a is a server device constituted by a PC (personal computer). SPU (Signal p
processing Unit) 12b is a high-performance DS
P (Digital Signal processo)
r) and is built into the BP extension interface. The SPU 12b is used for signal processing of images and sounds on the server side. B
The P12a is connected to the LAN 14 in the main office 10 through the LAN board. Such a configuration itself is well-known, and other well-known configurations can be adopted.
【0017】図3は、ホストサーバ装置12のソフトウ
エア構成の概略構成ブロック図を示す。ホストサーバ装
置12にインストールされるソフトウェアは、C++言
語などを用いて開発されたソフトウエアプログラム及び
既存のソフトウエアプログラムを含み、OS(Oper
ating System)としてWindowsNT
(米国マイクロソフト社の登録商標)を採用している。
図3において、50はサーバマネージャ、52はSPU
アクセスライブラリ、54,56はドライバ、58はメ
ール送信部、60はDLL(Dynamic Link
Library)、62は動的Webサーバ、64は
データベースコネクタ、66はWindows NT
(米国マイクロソフト社の登録商標)、68はデータベ
ースである。FIG. 3 is a schematic block diagram showing the software configuration of the host server device 12. The software installed in the host server device 12 includes a software program developed using the C ++ language or the like and an existing software program, and includes an OS (operator).
Windows NT as an Attaching System)
(Registered trademark of Microsoft Corporation in the United States).
In FIG. 3, reference numeral 50 denotes a server manager, and 52 denotes an SPU.
An access library, 54 and 56 are drivers, 58 is a mail transmission unit, and 60 is a DLL (Dynamic Link).
(Library), 62 is a dynamic Web server, 64 is a database connector, 66 is Windows NT
(Registered trademark of Microsoft Corporation, USA), 68 is a database.
【0018】図4は、ユーザ端末装置30のハードウエ
ア構成例を示す。コンピュータ36は、周知の通り、本
体70、マウス72、キーボード74、ディスプレイ7
6、マイク78、スピーカ80及びモデム82(又はタ
ーミナルアダプタ)からなる。仮想オフイス表示装置4
4は、ディスプレイと同様の映像モニタ装置からなり、
本体70に接続して、仮想オフィス画面を表示するのに
使用される。ビデオカメラ42も本体70に接続する。
マウス72、キーボード74、ディスプレイ76、マイ
ク78、スピーカ80及びモデム82は、本体70の対
応する入出力端子に接続する。FIG. 4 shows an example of a hardware configuration of the user terminal device 30. As is well known, the computer 36 includes a main body 70, a mouse 72, a keyboard 74, and a display 7
6, a microphone 78, a speaker 80, and a modem 82 (or terminal adapter). Virtual office display device 4
4 comprises a video monitor device similar to the display,
Used to display a virtual office screen by connecting to the main body 70. The video camera 42 is also connected to the main body 70.
A mouse 72, a keyboard 74, a display 76, a microphone 78, a speaker 80, and a modem 82 are connected to corresponding input / output terminals of the main body 70.
【0019】図5は、ホームオフィスにおける図4に示
す各機器の設置状況の一例を示す。ここでは、表示装置
44は、ユーザが作業に使用するコンピュータ36のデ
ィスプレイ76と共に、コンピュータ36のデュアルモ
ニタシステムとして機能する。FIG. 5 shows an example of the installation status of each device shown in FIG. 4 in a home office. Here, the display device 44 functions as a dual monitor system of the computer 36 together with the display 76 of the computer 36 used by the user for work.
【0020】図6は、ユーザ端末装置用ソフトウェア2
2の概略構成を示す。このユーザ端末装置用ソフトウエ
アは、C++言語などを用いて開発されたソフトウェア
プログラム、及び既存のソフトウェアプログラムを含
み、OSとしてWindows98(米国マイクロソフ
ト社の登録商標)を採用している。22aはWindo
ws/Dialog部、22bはプログラムコンポーネ
ント部、22cは信号線、22dはHTML部、22e
は上部ブラウザ(コンポーネント)部である。FIG. 6 shows software 2 for a user terminal device.
2 shows a schematic configuration. The software for the user terminal device includes a software program developed using the C ++ language and the like and an existing software program, and employs Windows 98 (registered trademark of Microsoft Corporation, USA) as the OS. 22a is Windows
ws / Dialog part, 22b is a program component part, 22c is a signal line, 22d is an HTML part, 22e
Is an upper browser (component) section.
【0021】次に、本実施例の動作を説明する。説明を
簡略化するために、既にホームオフィスの各ユーザが各
自のユーザ端末装置30,32,34を用いてホストサ
ーバ装置12への接続を完了し、勤務を開始しているも
のとする。Next, the operation of this embodiment will be described. To simplify the explanation, it is assumed that each user in the home office has already completed the connection to the host server device 12 using their own user terminal devices 30, 32, and has started working.
【0022】図7は、表示装置44又は76に表示され
るアウエアネス情報を含む仮想オフィス画面(以下、オ
フィスビューという。)を示す。90は、他のユーザの
勤務状況を示す画像である。92は、そのユーザの勤務
状況データを文字情報で表示する勤務状況データ表示部
であり、そのユーザの行き先及び予定などがここに表示
される。94はそのユーザの個室オフィススペースであ
る。この3つを合わせたものが、このユーザの仮想的な
個室オフィスである。図7では、同一の画面上に9つの
個室オフイスを表示しているが、個室オフイスの数はこ
れより多くても少なくてもよい。そして、これらの個室
オフィスを表示するスペースを個室オフィスエリア96
と呼ぶ。個室オフィスエリア96には自分を含むユーザ
のアウエアネス情報が表示される。アウエアネス情報は
ユーザの画像データ90及びユーザの状況を表すテキス
トデータ92等が表示される。個室オフィス間のスペー
スは仮想的な廊下部分である。個室オフイスの一部とし
て表示されているユーザ勤務状況画像90は、そのユー
ザが使用するユーザ端末装置30〜34に備わっている
カメラ42で撮像された画像である。FIG. 7 shows a virtual office screen (hereinafter referred to as an office view) including awareness information displayed on the display device 44 or 76. 90 is an image showing the work status of another user. Reference numeral 92 denotes a work status data display unit for displaying the work status data of the user as text information, where the destination and schedule of the user are displayed. Reference numeral 94 denotes the user's private office space. The combination of these three is a virtual private room office for this user. In FIG. 7, nine private offices are displayed on the same screen, but the number of private offices may be larger or smaller. The space for displaying these private offices is changed to a private office area 96.
Call. In the private room office area 96, awareness information of users including the user is displayed. As the awareness information, image data 90 of the user, text data 92 indicating the situation of the user, and the like are displayed. The space between the private offices is a virtual corridor. The user work situation image 90 displayed as a part of the private room office is an image captured by the camera 42 provided in the user terminal devices 30 to 34 used by the user.
【0023】個室オフィスエリア96の右側に共通エリ
ア98がある。共通エリア98には、A会議室、B会議
室、研究室、リフレッシュルーム及びビデオニュースル
ームをそれぞれ示すアイコン100〜108が表示され
る。A common area 98 is on the right side of the private office area 96. In the common area 98, icons 100 to 108 respectively indicating the A meeting room, the B meeting room, the research room, the refresh room, and the video news room are displayed.
【0024】通常、ユーザが勤務中の場合、仮想オフイ
スの表示装置44又は76には、図7で示すようなオフ
ィスビューが表示され、その適当な位置に存在を示す情
報が表示される。Normally, when the user is at work, an office view as shown in FIG. 7 is displayed on the display device 44 or 76 of the virtual office, and information indicating the presence at an appropriate position is displayed.
【0025】本実施例の動作を説明する。図8は、ユー
ザ端末装置の画像データの取得と表示及び映像制御に関
する部分の動作フローチャートを示す。The operation of this embodiment will be described. FIG. 8 shows an operation flowchart of a part relating to acquisition and display of image data and video control of the user terminal device.
【0026】ビデオカメラ42で撮影された画像は、コ
ンピュータ本体70のビデオ入力装置によりQCIFフ
ォーマット(176×144画素)の画像データとして
本体70に取り込まれ(S1)、JPEG又はH.26
3などの画像符号化方式より圧縮符号化される(S
2)。The image photographed by the video camera 42 is taken into the main body 70 as image data in the QCIF format (176 × 144 pixels) by the video input device of the computer main body 70 (S1), and JPEG or H.264. 26
3 is compressed and coded by an image coding method (S
2).
【0027】ユーザのオフィスビュー表示ウインドウの
状態からユーザの利用状況を判断する(S3)。具体的
には、オフィスビュー表示ウインドウが最小化されてい
る場合、又は、他のアプリケーションウインドウの背面
に存在する場合には、ユーザはオフィスビューを見てい
ない(即ち他のユーザのアウエアネス情報を見ていな
い)と判断する。ウインドウの状態は、アプリケーショ
ンが動作しているオペレーティングシステムのAPI
(Application Program Inte
rface)等を介して取得できる。判断されたユーザ
の状態は、圧縮画像データと共にネットワークを介して
ホストサーバ装置12に転送される(S4)。The use status of the user is determined from the state of the user's office view display window (S3). Specifically, if the office view display window is minimized or is behind another application window, the user is not looking at the office view (i.e., seeing other users' awareness information). Not determined). The window status is determined by the API of the operating system on which the application is running.
(Application Program Inte
rface) or the like. The determined user state is transferred to the host server device 12 via the network together with the compressed image data (S4).
【0028】ユーザ端末は、サーバ装置12から他のユ
ーザの映像を受信し(S5)、伸長して(S6)、表示
装置44または76に表示する(S7)。更に、受信し
たユーザの利用状態情報から当該ユーザの状況が分かる
ように、オフィスビュー上に当該ユーザの利用状況を表
示する(S8)。ユーザが終了を指示しなければ、S1
以降を繰り返す(S9)。The user terminal receives the image of another user from the server device 12 (S5), decompresses it (S6), and displays it on the display device 44 or 76 (S7). Further, the usage status of the user is displayed on the office view so that the status of the user can be understood from the received usage status information of the user (S8). If the user does not instruct termination, S1
The subsequent steps are repeated (S9).
【0029】図9は、他のユーザがオフィスビューを見
ていない場合のユーザ利用状況の表示例、図10は、他
のユーザがオフィスビューを見ている場合のユーザ利用
状況の表示例をそれぞれ示す。オフィスビューを見てい
る場合、図10に示すように、ユーザの映像周囲に明示
的な枠110を表示する。これにより、映像データから
他のユーザが在席して端末を操作しているか否かを判別
でき、更に、明示的な枠110の状態利用状況表示から
他のユーザがオフイスビューを見ているか否か(即ち、
自分のアウエアネス情報を見ているか否か)を判別でき
る。FIG. 9 is a display example of the user usage status when another user is not looking at the office view, and FIG. 10 is a display example of the user usage status when another user is looking at the office view. Show. When looking at the office view, as shown in FIG. 10, an explicit frame 110 is displayed around the user's image. This makes it possible to determine whether or not another user is present and operating the terminal from the video data, and further, whether or not another user is looking at the office view from the state use status display of the explicit frame 110. Or (that is,
Whether or not they are looking at their own awareness information).
【0030】このように、本実施例では、ユーザのアプ
リケーション表示ウインドウの状況把握という簡単な方
法により、当該ユーザが双方向アウエアネスシステムを
見ているか否かを他のユーザに知らせることができる。
アウエアネス表示を見ていることが他のユーザの端末画
面上に表示されることで互恵性が向上し、知らない間に
一方的に監視されているのではないかと感じる心理的な
抵抗感(映像を利用した双方向アウエアネスシステムに
生じる問題点)を軽減できる。As described above, in this embodiment, it is possible to notify other users whether or not the user is looking at the interactive awareness system by a simple method of grasping the status of the application display window of the user.
Recognition is improved by displaying the awareness display on the other user's terminal screen, and psychological resistance to feel that they are being monitored unilaterally without knowing (video Problems arising in a two-way awareness system that uses a Web browser).
【0031】図11は、本実施例の別の動作フローチャ
ートを示す。ユーザは図5に示すような環境で表示装置
44にアウエアネス情報を常に表示しているものとす
る。この場合も、そのユーザの機器設置環境(カメラ4
2や表示装置44の設置位置など)を知らない遠隔地の
ユーザは、映像から得られるユーザの姿勢だけではアウ
エアネス表示を見ているのか否かを知ることができな
い。FIG. 11 shows another operation flowchart of the present embodiment. It is assumed that the user is constantly displaying awareness information on the display device 44 in the environment shown in FIG. Also in this case, the user's equipment installation environment (camera 4
2 and the installation position of the display device 44) cannot know whether or not the user is looking at the awareness display only by the posture of the user obtained from the video.
【0032】ビデオカメラ42で撮影された画像は、コ
ンピュータ本体70のビデオ入力装置によりQCIFフ
ォーマット(176×144画素)の画像データとして
本体70に取り込まれる(S11)。取込まれた画像デ
ータからユーザの顔の向きを認識する(S12)。例え
ば、萩原らの提案する方法(横尾、萩原「遺伝的アルゴ
リズムを用いた自然画像からの複数顔領域抽出」電学論
117−C,9,pp.1245−1252,199
7」)で顔の領域を検出し、切り出された顔領域からニ
ューラルネットワークなどにより顔の向きを判断する方
法を使用できる。または、末永「人物像を読む−ヒュー
マンインターフェースのためのコンピュータビジョン
ー」電子情報通信学会誌,pp.800−804,19
95/8等に紹介されている方法を利用してもよい。The image photographed by the video camera 42 is taken into the main body 70 as image data in the QCIF format (176 × 144 pixels) by the video input device of the computer main body 70 (S11). The orientation of the user's face is recognized from the captured image data (S12). For example, the method proposed by Hagiwara et al. (Yokoo, Hagiwara, "Extraction of Multiple Face Regions from Natural Images Using Genetic Algorithm", IEICE 117-C, 9, pp. 1245-1252, 199).
7)), a method of detecting a face area and judging the face direction from the cut out face area by a neural network or the like can be used. Or, Suenaga, "Reading People-Computer Vision for Human Interfaces", Journal of the Institute of Electronics, Information and Communication Engineers, pp. 800-804,19
A method introduced in 95/8 or the like may be used.
【0033】得られた顔の向きに関する情報からユーザ
がオフィスビューを見ているか否かを判定する(S1
3)。具体的には、図5に示すユーザ環境では、正面を
向いた顔の場合、ユーザはパーソナルコンピュータを利
用して作業している状況を意味し、横を向いている場
合、オフィスビューを見ている状況を意味する。顔の向
きとユーザの状況の関係は、ユーザのカメラ42と表示
装置44の設置状況に応じて決まるものであり、ユーザ
が予め登録しているものとする。It is determined whether or not the user is looking at the office view from the obtained information on the face orientation (S1).
3). Specifically, in the user environment shown in FIG. 5, a face facing the front means that the user is working using a personal computer, and a face facing the side looks at the office view. Means a situation. The relationship between the face direction and the situation of the user is determined according to the installation situation of the camera 42 and the display device 44 of the user, and it is assumed that the user has registered in advance.
【0034】得られた画像データをJPEG又はH.2
63などの画像符号化方式より圧縮符号化して(S1
4)、ユーザの状態の情報と圧縮画像データをネットワ
ークを介してホストサーバ装置12に転送する(S1
5)。The obtained image data is stored in JPEG or H.264. 2
Compression coding using an image coding method such as S.63 (S1
4) The user status information and the compressed image data are transferred to the host server device 12 via the network (S1).
5).
【0035】ユーザ端末は、サーバ装置12から他のユ
ーザの映像を受信し(S16)、伸長して(S17)、
表示装置44に表示する(S18)。更に、受信したユ
ーザの利用状態情報からユーザの状況が分かるように、
オフィスビュー上に他ユーザの利用状況を表示する(S
19)。ユーザが終了を指示しなければ、S11以降を
繰り返す(S20)。The user terminal receives an image of another user from the server device 12 (S16), decompresses the image (S17),
It is displayed on the display device 44 (S18). Further, the user's situation can be understood from the received user usage state information,
Display the usage status of other users on the office view (S
19). If the user does not instruct termination, S11 and subsequent steps are repeated (S20).
【0036】図11に示す動作では、図8に示す動作の
効果に加えて、専用ディスプレイ44にアウエアネス情
報を常に表示しているような場合にもユーザの状況を判
断できるという効果がある。また、利用状況を相互交換
用の映像データから判断するので特別な付加装置を必要
としない。The operation shown in FIG. 11 has an effect that, in addition to the effect of the operation shown in FIG. 8, the situation of the user can be determined even when the awareness information is always displayed on the dedicated display 44. Further, since the usage status is determined from the video data for mutual exchange, no special additional device is required.
【0037】図8に示す動作では、他のユーザの利用状
況を映像データの枠として模式的に表示したが、本発明
はこれに限定されず、ユーザが容易に判別できるもので
あればどのようなものでも良い。また、模式的に表示す
るのではなく、受信した映像データを加工して表示して
もよい。具体的には、他のユーザが双方向アウエアネス
システムを見ていない場合、デコードされた当該ユーザ
の映像データに空間フィルタ処理を施し、実際に表示さ
れる映像をぼかす等の処理を行う。これにより、双方向
アウエアネスシステムを積極的に利用していない状況の
ユーザの映像は大まかな様子がわかる程度に表示され、
アウエアネスシステムとしてより自然な表現が可能にな
り、互恵性が高まる。また、自分が他人を見ていない状
況では他人にもあまり見られたくないという感覚に合致
する。また、空間的な特性を変更するだけでなく、色に
関する情報を変更する方法(白黒データとして表示す
る。)を適用してもよい。In the operation shown in FIG. 8, the usage status of another user is schematically displayed as a frame of video data. However, the present invention is not limited to this. May be something. Instead of displaying the data schematically, the received video data may be processed and displayed. Specifically, when another user is not looking at the interactive awareness system, a spatial filter process is performed on the decoded video data of the user, and a process such as blurring a video to be actually displayed is performed. As a result, the image of the user in a situation where the interactive awareness system is not actively used is displayed so that the user can easily understand the general state,
A more natural expression becomes possible as an awareness system, and reciprocity increases. In addition, it matches the feeling that one does not want to be seen by others when he is not looking at others. In addition, a method of changing information on colors (display as black and white data) as well as changing spatial characteristics may be applied.
【0038】図11に示す動作では、顔の向きからユー
ザの状況を判断したが、本発明はこれに限らない。例え
ば、視線を検出することでユーザの状況を判断できる。
この場合、通信に使用する画像サイズより高解像度の映
像データを取得し、その高解像度データから視線を検出
する。視線は、従来提案されている様々な方法で検出可
能である。得られた視線の向きからユーザがアウエアネ
スシステムの表示部を見ているか否かを判断する。得ら
れた高解像度映像から解像度変換により通信回線上の解
像度(例えばQCIFサイズ)の画像を生成し、交換用
の画像として利用する。視線検出を利用する場合、アウ
エアネス情報がディスプレイ76の一部に表示されてい
るとき、又は、アウエアネス情報表示用表示装置44が
ディスプレイ76に並置されてときでも、ユーザがアウ
エアネス情報を見ているかどうかを判断できる。In the operation shown in FIG. 11, the situation of the user is determined from the direction of the face, but the present invention is not limited to this. For example, the situation of the user can be determined by detecting the line of sight.
In this case, video data having a resolution higher than the image size used for communication is acquired, and a line of sight is detected from the high resolution data. The gaze can be detected by various methods proposed in the related art. It is determined whether or not the user is looking at the display unit of the awareness system based on the obtained gaze direction. An image having a resolution (for example, QCIF size) on a communication line is generated from the obtained high-resolution video by resolution conversion and used as a replacement image. When using gaze detection, whether the user is viewing the awareness information even when the awareness information is displayed on a part of the display 76 or when the awareness information display device 44 is juxtaposed on the display 76 Can be determined.
【0039】ユーザ端末の動作をパーソナルコンピュー
タのソフトウエアで実現する場合を説明したが、本発明
はこれに限定されない。例えば、表示装置を自立型専用
端末として構成し、独自にネットワークに接続するよう
な構成でも実現できる。その場合、各種のユーザ側の信
号処理及び通信処理をすべてその端末で処理する。Although the case where the operation of the user terminal is realized by software of a personal computer has been described, the present invention is not limited to this. For example, the display device may be configured as a self-contained dedicated terminal and connected to a network independently. In that case, the signal processing and communication processing of various users are all processed by the terminal.
【0040】上述した実施例の機能を実現するように各
種のデバイスを動作させるべく当該各種デバイスと接続
された装置又はシステム内のコンピュータに、上記実施
例の機能を実現するためのソフトウェアのプログラムコ
ードを供給し、その装置又はシステムのコンピュータ
(CPU又はMPU)を、格納されたプログラムに従っ
て前記各種デバイスを動作させることによって実施した
ものも、本願発明の範囲に含まれる。In order to operate various devices so as to realize the functions of the above-described embodiments, a computer connected to the various devices or a computer in the system has a program code of software for realizing the functions of the above-described embodiments. And the computer (CPU or MPU) of the apparatus or system is operated by operating the various devices in accordance with the stored programs.
【0041】この場合、前記ソフトウエアのプログラム
コード自体が、前述した実施例の機能を実現することに
なり、そのプログラムコード自体、及びそのプログラム
コードをコンピュータに供給するための手段、例えば、
かかるプログラムコードを格納した記憶媒体は、本発明
を構成する。かかるプログラムコードを格納する記憶媒
体としては、例えば、フロッピー(登録商標)ディス
ク、ハードディスク、光ディスク、光磁気ディスク、C
D−ROM、磁気テープ、不揮発性のメモリカード及び
ROM等を用いることが出来る。In this case, the program code itself of the software realizes the function of the above-described embodiment, and the program code itself and means for supplying the program code to the computer, for example,
A storage medium storing such a program code constitutes the present invention. As a storage medium for storing such a program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, C
A D-ROM, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.
【0042】また、コンピュータが供給されたプログラ
ムコードを実行することにより、前述の実施例の機能が
実現されるだけではなく、そのプログラムコードがコン
ピュータにおいて稼働しているOS(オペレーティング
システム)又は他のアプリケーションソフトウエア等と
共同して上述の実施例の機能が実現される場合にも、か
かるプログラムコードが本出願に係る発明の実施例に含
まれることは言うまでもない。When the computer executes the supplied program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) or other operating system running on the computer. Even when the functions of the above-described embodiments are realized in cooperation with application software and the like, it goes without saying that such program codes are included in the embodiments of the invention according to the present application.
【0043】更には、供給されたプログラムコードが、
コンピュータの機能拡張ボード又はコンピュータに接続
された機能拡張ユニットに備わるメモリに格納された
後、そのプログラムコードの指示に基づいて、その機能
拡張ボード又は機能拡張ユニットに備わるCPU等が実
際の処理の一部または全部を行い、その処理によって上
述した実施例の機能が実現される場合も、本出願に係る
発明に含まれることは言うまでもない。Further, the supplied program code is:
After being stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU or the like provided in the function expansion board or the function expansion unit performs one of the actual processing based on the instruction of the program code. It is needless to say that a case where the functions of the above-described embodiments are realized by performing all or part of the processes and executing the processing is also included in the invention according to the present application.
【0044】[0044]
【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、双方向アウエアネスシステムにお
いて、ユーザの利用状況をリアルタイムに交換すること
で、より円滑なコミュニケーション機会の支援を実現
し、互恵性を高める双方向アウエアネスシステムを提供
できる。As can be easily understood from the above description, according to the present invention, in a two-way awareness system, a user's usage status is exchanged in real time to realize smoother support for communication opportunities. In addition, it is possible to provide a two-way awareness system that enhances reciprocity.
【図1】 本発明の一実施例の概略構成ブロック図であ
る。FIG. 1 is a schematic block diagram of an embodiment of the present invention.
【図2】 ホストサーバ装置12のハードウエア構成を
示す図である。FIG. 2 is a diagram showing a hardware configuration of a host server device 12.
【図3】 ホストサーバ装置12のソフトウエア構成を
示す図である。FIG. 3 is a diagram showing a software configuration of the host server device 12.
【図4】 ユーザ端末装置30〜34の機器構成を示す
図である。FIG. 4 is a diagram showing a device configuration of user terminal devices 30 to 34.
【図5】 ユーザ端末装置30〜34の配置例を示す図
である。FIG. 5 is a diagram illustrating an example of an arrangement of user terminal devices 30 to 34;
【図6】 ユーザ端末ソフトウエアの構成図である。FIG. 6 is a configuration diagram of user terminal software.
【図7】 仮想オフイス表示装置44上に表示されるオ
フイスビューと呼ぶ画面の一例である。7 is an example of a screen called an office view displayed on the virtual office display device 44. FIG.
【図8】 本実施例の動作フローチャートである。FIG. 8 is an operation flowchart of the embodiment.
【図9】 ユーザ状況表示例である。FIG. 9 is a user status display example.
【図10】 別のユーザ状況表示例である。FIG. 10 is another user status display example.
【図11】 本実施例の別の動作フローチャートであ
る。FIG. 11 is another operation flowchart of the embodiment.
【図12】 従来の多地点テレビ会議システムのクライ
アント画面例である。FIG. 12 is an example of a client screen of a conventional multipoint video conference system.
10:メインオフィス 12:ホストサーバ装置 12a:BP(Basic Platform) 12b:SPU(Signal processing
Unit) 14:LAN 16,18:ユーザ端末装置 20:コンピュータ 22:ユーザ端末装置用ソフトウエア 22a:Windows/Dialog部 22b:プログラムコンポーネント部 22c:信号線 22d:HTML部 22e:上部ブラウザ(コンポーネント)部 24:電話機 26:ビデオカメラ 30,32,34:ユーザ端末装置 36:コンピュータ 38:ユーザ端末装置用ソフトウエア 40:電話機 42:ビデオカメラ 42a,42b:ビデオカメラ 44:仮想オフイス表示装置 50:サーバマネージャ 52:SPUアクセスライブラリ 54,56:ドライバ 58:メール送信部 60:DLL(Dynamic Link Libra
ry) 62:動的Webサーバ 64:データベースコネクタ 66:Windows NT(米国マイクロソフト社の
登録商標) 68:データベース 70:本体 72:マウス 74:キーボード 76:ディスプレイ 78:マイク 80:スピーカ 82:モデム(又はターミナルアダプタ) 90:他のユーザの勤務状況を示す画像 92:勤務状況データ表示部 94:個室オフィススペース 96:個室オフィスエリア 98:共通エリア 100:A会議室を示すアイコン 102:B会議室を示すアイコン 104:研究室を示すアイコン 106:リフレッシュルームを示すアイコン 108:ビデオニュースルームを示すアイコン 110:オフィスビューを見ていることを示す枠10: Main office 12: Host server device 12a: BP (Basic Platform) 12b: SPU (Signal processing)
Unit) 14: LAN 16, 18: User terminal device 20: Computer 22: Software for user terminal device 22a: Windows / Dialog unit 22b: Program component unit 22c: Signal line 22d: HTML unit 22e: Upper browser (component) unit 24: Telephone 26: Video camera 30, 32, 34: User terminal device 36: Computer 38: Software for user terminal device 40: Telephone 42: Video camera 42a, 42b: Video camera 44: Virtual office display device 50: Server manager 52: SPU access library 54, 56: driver 58: mail transmission unit 60: DLL (Dynamic Link Library)
ry) 62: Dynamic Web server 64: Database connector 66: Windows NT (registered trademark of Microsoft Corporation, USA) 68: Database 70: Main body 72: Mouse 74: Keyboard 76: Display 78: Microphone 80: Speaker 82: Modem (or Terminal adapter) 90: Image showing work status of another user 92: Work status data display section 94: Private room office space 96: Private room office area 98: Common area 100: Icon indicating meeting room A 102: Showing meeting room B Icon 104: Icon indicating a laboratory 106: Icon indicating a refresh room 108: Icon indicating a video news room 110: Frame indicating that the user is looking at the office view
───────────────────────────────────────────────────── フロントページの続き (72)発明者 田處 善久 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 宮崎 貴識 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 Fターム(参考) 5C022 AA01 AB62 AB65 AC01 AC13 AC69 AC75 CA00 5C064 AA02 AA06 AB03 AB04 AC04 AC14 AD02 AD08 AD09 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Yoshihisa Tadokoro, 3-30-2 Shimomaruko, Ota-ku, Tokyo Inside Canon Inc. (72) Takanori Miyazaki, 3-30-2 Shimomaruko, Ota-ku, Tokyo F term in Canon Inc. (reference) 5C022 AA01 AB62 AB65 AC01 AC13 AC69 AC75 CA00 5C064 AA02 AA06 AB03 AB04 AC04 AC14 AD02 AD08 AD09
Claims (19)
置と通信回線により構成される双方向認知システムであ
って、前記端末装置は、 ユーザの映像を取得する映像取得手段と、 取得された映像データを他のユーザに送信する送信手段
と、 他のユーザの映像を受信し表示する受信表示手段と、 ユーザのシステム利用状況を判断する利用状況判断手段
と、 利用状況判断結果を他のユーザに通知する通知手段と、 他のユーザの利用状況を表示する利用状況表示手段とを
有することを特徴とする双方向認知システム。1. A two-way cognitive system including a terminal device installed in each of a plurality of users and a communication line, wherein the terminal device includes: a video obtaining unit configured to obtain a video of a user; Transmitting means for transmitting video data to another user; receiving and displaying means for receiving and displaying the video of another user; usage determining means for determining a user's system usage status; and transmitting the usage status determination result to another user. An interactive cognitive system comprising: a notifying unit for notifying a user and a usage status display unit for displaying a usage status of another user.
ユーザの映像データを見ているか否かを判断する請求項
1に記載の双方向認知システム。2. The interactive cognitive system according to claim 1, wherein the use status determination unit determines whether the user is watching video data of another user.
に表示される映像データ表示ウインドウの状態を利用す
る請求項1又は2に記載の双方向認知システム。3. The interactive recognition system according to claim 1, wherein the use status determination unit uses a state of a video data display window displayed on the terminal device.
手段によって得られた映像データを利用する請求項1又
は2に記載の双方向認知システム。4. The interactive cognitive system according to claim 1, wherein the use status judging unit uses the video data obtained by the video obtaining unit.
きを認識する手段を有し、その認識結果からユーザの利
用状況を判断する請求項1又は4に記載の双方向認知シ
ステム。5. The interactive recognition system according to claim 1, wherein said usage status determination means includes means for recognizing a direction of a user's face, and determines the usage status of the user based on the recognition result.
認識する手段を有し、その認識結果からユーザの利用状
況を判断する請求項1又は4に記載の双方向認知システ
ム。6. The interactive recognition system according to claim 1, wherein said use status determination means includes means for recognizing a user's line of sight, and determines the use status of the user based on the recognition result.
当該ユーザの映像データを含む情報を見ているか否かを
表示する請求項1に記載の双方向認知システム。7. The interactive recognition system according to claim 1, wherein the usage status display means displays whether or not another user is viewing information including the video data of the user.
利用状態を模式的に表示する請求項1又は7に記載の双
方向認知システム。8. The interactive cognitive system according to claim 1, wherein the use status display means schematically displays the use status of another user.
ユーザの映像データを利用状況判断結果に従って加工す
る請求項1又は7に記載の双方向認知システム。9. The interactive recognition system according to claim 1, wherein said usage status display means processes the received video data of another user in accordance with a usage status determination result.
装置と通信回線により、ユーザが相互に認知する方法で
あって、 ユーザの映像を取得する映像取得ステップと、 取得された映像データを他のユーザに送信する送信ステ
ップと、 他のユーザの映像を受信し表示する受信表示ステップ
と、 ユーザのシステム利用状況を判断する利用状況判断ステ
ップと、 利用状況判断結果を他のユーザに通知する通知ステップ
と、 他のユーザの利用状況を表示する利用状況表示ステップ
とを有することを特徴とする双方向認知方法。10. A method for mutually recognizing a user through a terminal device and a communication line installed in each of a plurality of users, the method comprising: acquiring a video of the user; A transmitting step of transmitting to another user, a receiving and displaying step of receiving and displaying an image of another user, a utilization state determining step of determining a user's system usage state, and a notification of notifying the usage state determination result to another user. An interactive recognition method, comprising: a step of displaying a usage state of another user;
が他のユーザの映像データを見ているか否かを判断する
請求項10に記載の双方向認知方法。11. The interactive recognition method according to claim 10, wherein the use status determining step determines whether a user is watching video data of another user.
ータ表示ウインドウの状態を利用する請求項10又は1
1に記載の双方向認知方法。12. The use status judging step uses a state of a video data display window.
2. The interactive recognition method according to 1.
像取得ステップによって得られた映像データを利用する
請求項10又は11に記載の双方向認知方法。13. The interactive recognition method according to claim 10, wherein the use status determination step uses video data obtained in the video acquisition step.
顔の向きを認識するステップを有し、その認識結果から
ユーザの利用状況を判断する請求項10又は13に記載
の双方向認知方法。14. The interactive recognition method according to claim 10, wherein the use status determining step includes a step of recognizing a direction of the user's face, and determining the use status of the user from the recognition result.
視線を認識するステップを有し、その認識結果からユー
ザの利用状況を判断する請求項10又は13に記載の双
方向認知方法。15. The interactive recognition method according to claim 10, wherein the use status determination step includes a step of recognizing a user's line of sight, and the use status of the user is determined from the recognition result.
ーザが当該ユーザの映像データを含む情報を見ているか
否かを表示する請求項10に記載の双方向認知方法。16. The interactive recognition method according to claim 10, wherein the use status display step displays whether or not another user is viewing information including the video data of the user.
ーザの利用状態を模式的に表示する請求項10又は16
に記載の双方向認知方法。17. The usage status display step, wherein the usage status of another user is schematically displayed.
Interactive recognition method described in 1.
た他のユーザの映像データを利用状況判断結果に従って
加工する請求項10又は16に記載の双方向認知方法。18. The interactive recognition method according to claim 10, wherein in the use status display step, the received video data of another user is processed according to a use status determination result.
載の双方向認知方法を実行するプログラムを記憶するこ
とを特徴とする記憶媒体。19. A storage medium storing a program for executing the interactive recognition method according to claim 10. Description:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000213672A JP2002034009A (en) | 2000-07-14 | 2000-07-14 | Bidirectional recognition system and method and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000213672A JP2002034009A (en) | 2000-07-14 | 2000-07-14 | Bidirectional recognition system and method and recording medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002034009A true JP2002034009A (en) | 2002-01-31 |
Family
ID=18709385
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000213672A Withdrawn JP2002034009A (en) | 2000-07-14 | 2000-07-14 | Bidirectional recognition system and method and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2002034009A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003323387A (en) * | 2002-05-02 | 2003-11-14 | Megafusion Corp | Information interchange system and information interchange program |
| JP2006139028A (en) * | 2004-11-11 | 2006-06-01 | Nippon Telegr & Teleph Corp <Ntt> | Transition support method and video / audio communication system |
| US9131320B2 (en) | 2012-04-11 | 2015-09-08 | Apple Inc. | Audio device with a voice coil channel and a separately amplified telecoil channel |
| US10666898B2 (en) | 2018-03-30 | 2020-05-26 | Ricoh Company, Ltd. | Communication management system, communication system, and communication method |
| JP2021135902A (en) * | 2020-02-28 | 2021-09-13 | 靖彦 杉山 | Business monitoring system |
-
2000
- 2000-07-14 JP JP2000213672A patent/JP2002034009A/en not_active Withdrawn
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003323387A (en) * | 2002-05-02 | 2003-11-14 | Megafusion Corp | Information interchange system and information interchange program |
| JP2006139028A (en) * | 2004-11-11 | 2006-06-01 | Nippon Telegr & Teleph Corp <Ntt> | Transition support method and video / audio communication system |
| US9131320B2 (en) | 2012-04-11 | 2015-09-08 | Apple Inc. | Audio device with a voice coil channel and a separately amplified telecoil channel |
| US10666898B2 (en) | 2018-03-30 | 2020-05-26 | Ricoh Company, Ltd. | Communication management system, communication system, and communication method |
| JP2021135902A (en) * | 2020-02-28 | 2021-09-13 | 靖彦 杉山 | Business monitoring system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7111045B2 (en) | Image distribution system, and image distribution method and program therefor | |
| US20020015003A1 (en) | Virtual space system structured by plural user terminals and server device | |
| US7116284B2 (en) | Control apparatus of virtual common space using communication line | |
| JP3550503B2 (en) | Method and communication system for enabling communication | |
| EP0738953B1 (en) | Communication terminal, supervisory system and communication method | |
| US20020056131A1 (en) | Data distribution device and method | |
| US20040095467A1 (en) | Monitoring system and monitoring method | |
| JP2001186490A (en) | Distributed system, display method thereof, and storage medium | |
| JP2002034009A (en) | Bidirectional recognition system and method and recording medium | |
| JP2002149580A (en) | Server device, user terminal device, virtual space system, user information distribution method, user information display method, user information distribution display method, and storage medium | |
| EP1162810A2 (en) | Data distribution device and method | |
| EP1503276B1 (en) | Graphical user interface for system status alert on videoconference terminal | |
| JP2001344389A (en) | Status information sharing system, status information sharing method, and storage medium | |
| JP2000057374A (en) | Information transmission method and system using shared virtual screen and storage medium storing information transmission program using shared virtual screen | |
| JP3927744B2 (en) | Communication control apparatus and method | |
| KR102391898B1 (en) | Remote access system for transmitting video data and method performing there of | |
| JPH11134349A (en) | Environment-adaptive information presentation device and real world database | |
| JP2002135753A (en) | Distributed system, display control method thereof, and storage medium | |
| JP2004221628A (en) | Distributed system control apparatus, distributed system control method, and medium storing distributed system control program | |
| JP2002009868A (en) | Information transmission system, information managing device and setting information distribution method | |
| JP2002083105A (en) | Distributed office system and management method thereof | |
| JP3245533B2 (en) | Business monitoring method and system | |
| JP2002232979A (en) | Method of displaying device status on portable terminal device | |
| JP7589970B2 (en) | How to share | |
| JP2004104314A (en) | Network monitoring system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071002 |