JP2016010039A - Remote conference system, video processing method, video controller, conference terminal, and program thereof - Google Patents
Remote conference system, video processing method, video controller, conference terminal, and program thereof Download PDFInfo
- Publication number
- JP2016010039A JP2016010039A JP2014130379A JP2014130379A JP2016010039A JP 2016010039 A JP2016010039 A JP 2016010039A JP 2014130379 A JP2014130379 A JP 2014130379A JP 2014130379 A JP2014130379 A JP 2014130379A JP 2016010039 A JP2016010039 A JP 2016010039A
- Authority
- JP
- Japan
- Prior art keywords
- video
- terminal
- conference
- audio
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、遠隔会議システム、その映像処理方法、映像制御装置、会議端末、及びプログラムに関する。 The present invention relates to a remote conference system, a video processing method thereof, a video control device, a conference terminal, and a program.
近年、情報通信技術の発達に伴い、インターネットなどのネットワークを介して、互いに遠隔地にいる者が会議に参加できる遠隔会議システムが開発されている。遠隔会議は、例えばテレビ会議およびウェブ会議などのように、会議を行う際に、参加者が実際に一箇所に集まって直接話し合う形態の会議ではなく、参加者が互いに離れた地点(拠点)にいながらにして、互いに接続された会議端末を使用して動画と音声を通信して話し合いを進める形態の会議である。 2. Description of the Related Art In recent years, with the development of information communication technology, a remote conference system has been developed that allows people in remote locations to participate in a conference via a network such as the Internet. Remote conferences are not conferences where participants actually gather in one place and talk directly, such as video conferences and web conferences, but at locations (bases) where participants are separated from each other. In the meantime, this is a conference in which a conference terminal connected to each other is used to communicate a moving image and a voice to advance a discussion.
このような遠隔会議システムを利用した遠隔会議では、2箇所の参加者が会議を行うだけでなく、3箇所以上の多数の参加者が遠隔会議に参加する場合も多い。多数の参加者が遠隔会議を行う場合、会議の進行に伴って発言者が発言する際に、一度に複数の参加者が発言したのでは混乱してしまう。 In a remote conference using such a remote conference system, not only two participants hold a conference, but many participants at three or more locations often participate in the remote conference. When a large number of participants conduct a remote conference, it is confusing if a plurality of participants speak at a time when the speaker speaks as the conference progresses.
このような問題に対処した遠隔会議システムとして、特許文献1に記載された遠隔会議システムがある。この遠隔会議システムでは、複数の会議端末のうちの1つを司会者端末とし、司会者が会議の進行を管理できるよう、会議端末からの発言意志の通知に応じて、その会議端末に発言権を設定することで、限られた会議端末のみが映像及び音声を通信できるようにする。
As a remote conference system that addresses such a problem, there is a remote conference system described in
また、特定の参加者を他の参加者に注目させ、会議を円滑に進行させることを可能にした遠隔会議システムも知られている(特許文献2)。この遠隔会議システムでは、任意の会議端末から他の会議端末に対し、参加者自身の映像及び音声等の会議情報をより強調して出力させるための要求信号を送信し、各会議端末は他の会議端末から強調要求信号を受信したとき、強調要求信号で指定された参加者の会議情報を強調して再生する。 There is also known a remote conference system that allows a specific participant to focus on other participants and allows the conference to proceed smoothly (Patent Document 2). In this remote conference system, a request signal is transmitted from an arbitrary conference terminal to another conference terminal to emphasize and output conference information such as video and audio of the participants themselves. When the emphasis request signal is received from the conference terminal, the conference information of the participant specified by the emphasis request signal is emphasized and reproduced.
しかし、上記従来の遠隔会議システムにおける発言権の設定方法や強調対象の選択方法には、会議端末のボタンやキーボードの使用、メニュー画面での操作など、煩わしさ、不自然さが伴うという問題がある。 However, the above-mentioned conventional teleconferencing system has a problem in that it is bothersome and unnatural, such as the use of buttons and keyboards on conference terminals and operations on menu screens, in the method for setting the right to speak and the method for selecting highlight targets. is there.
本発明は、このような問題を解決するためになされたものであり、その目的は、遠隔会議システムにおいて、会議参加者の自然な動作により、発言権の設定や強調対象の選択を可能にすることである。 The present invention has been made to solve such a problem, and an object of the present invention is to enable setting of a right to speak and selection of an emphasis target by a natural operation of a conference participant in a remote conference system. That is.
本発明は、映像を含む情報を複数の拠点に設置された会議端末間で通信する遠隔会議システムであって、所定の一つの会議端末で表示されている映像の所望の位置を、該会議端末を使用する会議参加者が所定の第1の動作で指示したとき、その指示された位置を検出する位置検出手段と、前記位置検出手段により検出された位置と、前記所定の一つの会議端末で表示されている映像における他の複数の会議端末の拠点の映像の位置を表す情報とから、前記所定の一つの会議端末を使用する会議参加者により指示された位置に表示されている拠点を検出する拠点検出手段と、前記拠点検出手段により検出された拠点の映像を強調する映像強調手段と、を有する、遠隔会議システムである。 The present invention relates to a remote conference system for communicating information including video between conference terminals installed at a plurality of bases, and a desired position of a video displayed on a predetermined conference terminal When a conference participant who uses the command is instructed by a predetermined first operation, the position detecting means for detecting the instructed position, the position detected by the position detecting means, and the predetermined one conference terminal The base displayed at the position indicated by the conference participant who uses the predetermined one conference terminal is detected from the information indicating the position of the video of the bases of the other conference terminals in the displayed video. A teleconferencing system comprising: a site detecting unit that performs the above-described operation and a video enhancement unit that enhances the video of the site detected by the site detecting unit.
本発明によれば、遠隔会議システムにおいて、会議参加者の自然な動作により、発言権の設定や強調対象の選択が可能になる。 According to the present invention, in a teleconference system, it is possible to set a floor and select an emphasis target by natural actions of conference participants.
以下、本発明の実施形態について図面を参照して説明する。
[第1の実施形態]
〈遠隔会議システムの全体構成〉
図1は、本発明の第1の実施形態に係る遠隔会議システムの全体構成について説明するための図である。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
<Overall configuration of remote conference system>
FIG. 1 is a diagram for explaining the overall configuration of the remote conference system according to the first embodiment of the present invention.
この遠隔会議システムは、複数の拠点としてのN箇所(Nは3以上の整数)の拠点に設置されたN台の会議端末である第1の端末1-1、第2の端末1-2,・・・,第Nの端末1-Nと、映像音声合成・制御サーバ2とをネットワーク3に接続することにより構成されており、端末間で映像及び音声を通信することで遠隔会議を支援することができる。
This teleconference system includes a first terminal 1-1, a second terminal 1-2, and N conference terminals installed at N locations (N is an integer of 3 or more) as a plurality of locations. ..., configured by connecting the N-th terminal 1-N and the video / audio synthesis /
各端末は映像及び音声(以下、映像音声)を映像音声合成・制御サーバ2へ送信する。
映像音声合成・制御サーバ2は受信した映像音声を制御、合成した後、合成した映像音声を各端末へと送信する。各端末は映像音声合成・制御サーバ2からの合成映像音声を受信する。
Each terminal transmits video and audio (hereinafter referred to as video and audio) to the video and audio synthesis /
The video / audio synthesis /
即ち、第1の端末1-1から送信された映像音声10-1、第2の端末1-2から送信された映像音声10-2,・・・,第Nの端末1-Nから送信された映像音声10-Nは、それぞれネットワーク3を通り、映像音声合成・制御サーバ2で受信される。そして、映像音声合成・制御サーバ2から送信された合成映像音声20-1、20-2,・・・,20-Nは、ネットワーク3を通り、それぞれ第1の端末1-1、第2の端末1-2,・・・,第Nの端末1-Nで受信される。
That is, the video and audio 10-1 transmitted from the first terminal 1-1, the video and audio 10-2 transmitted from the second terminal 1-2,..., And the Nth terminal 1-N are transmitted. The video / audio 10-N passes through the
ここで、20-1、20-2,・・・,20-Nを全て同じものにしてもよいが、本実施形態では送信先の端末によって異なる。即ち、例えば、第1の端末1-1へ送信する合成映像音声20-1には、第1の端末1-1からの映像音声10-1は含めず、それ以外から端末からの映像音声のみを合成する。 Here, 20-1, 20-2,..., 20-N may all be the same, but in the present embodiment, they differ depending on the destination terminal. That is, for example, the synthesized video / audio 20-1 transmitted to the first terminal 1-1 does not include the video / audio 10-1 from the first terminal 1-1, but only video / audio from the other terminals. Is synthesized.
第1の端末1-1は司会者端末である。司会者端末とは、会議参加者の一人である司会者が使用する端末である。司会者端末の決定方法には、例えば、会議の開始前、あるいは開始後にどの端末がそうかをメニュー操作などで登録する方法、事前に司会者役の人物の顔や声を登録して、会議中に認識できた端末を設定する方法などがある。 The first terminal 1-1 is a moderator terminal. The moderator terminal is a terminal used by a moderator who is one of the conference participants. The method of determining the moderator terminal is, for example, a method of registering which terminal is so by the menu operation before or after the start of the conference, or by registering the face and voice of the person acting as the host in advance. There is a method to set a terminal that can be recognized.
司会者端末は、司会者が会議を円滑に進めるための発言権の決定や映像音声の強調などを行うための所定の動作を検出し、動作検出結果11を映像音声合成・制御サーバ2へと送信する。後に詳述するように、動作検出結果は、司会者が、第1の端末1−1で受信し表示している合成映像上のどこを指し示す動作を行ったかを表す情報を含んでいる。映像音声合成・制御サーバ2は、動作検出結果11をもとに、映像、音声の制御を行う。なお、以下の説明では、第1の端末1-1、第2の端末1-2,・・・,第Nの端末1-Nを区別しない場合は端末1とする。
The moderator terminal detects a predetermined operation for the speaker to determine the right to speak to facilitate the conference and to emphasize video and audio, and the operation detection result 11 is sent to the video and audio synthesis /
〈端末のハードウェア構成〉
図2は、本発明の第1の実施形態に係る遠隔会議システムにおける端末のハードウェア構成を示すブロック図である。
<Hardware configuration of terminal>
FIG. 2 is a block diagram showing a hardware configuration of a terminal in the remote conference system according to the first embodiment of the present invention.
端末1は、コンピュータ及びその周辺装置などから構成されており、CPU511、メモリ(ROM、RAM)512、記憶媒体装着部513、ネットワーク装置514、モニタ制御部515、入力装置516、HDD(ハードディスク装置)517、カメラ521、スピーカ522及びマイク523がバスラインで接続された構造を有する。
The
CPU511は、HDD517からプログラム520を読み出して実行し、端末1を全体的に制御する。メモリ512のRAMは、DRAMなどの揮発性メモリであり、CPUがプログラムやOSを実行する際の作業エリアとなる。メモリ512のROMは、ブートプログラムなどを記憶する不揮発性メモリである。
The
記憶媒体装着部513は、各種の記憶媒体519を脱着可能に接続するインタフェースであり、記憶媒体519からデータを読み出し、また、記憶媒体519にデータを書き込む際に利用される。プログラム520は、記憶媒体519に記憶された状態で配布され、記憶媒体519から読み出されHDD517にインストールされる。なお、記憶媒体519は、USBメモリ、SDカード、メモリースティック(登録商標)、マルチメディアカード、CD−ROM(R/W)、DVD−ROM(RAM、R/W)等である。
The storage
ネットワーク装置514は、端末1をネットワーク3に接続するためのインタフェース(例えばイーサネット(登録商標)カード)である。プログラム520は、ネットワーク装置514が不図示のサーバからダウンロードすることでHDD517にインストールされてよい。
The
HDD517には、遠隔会議システムの端末側のプログラム520、OS、及び後述する各種のデータが記憶されている。プログラム520は、端末1に後述する機能ブロック(図4)を構成し、後述するフローチャート(図10)を実行させる。
The
入力装置516は、マウスやキーボード、タッチパネルなどを用いて、会議の参加者が端末1を操作するための装置である。モニタ制御部515は、OSやプログラム520が指定する解像度や色数で、ディスプレイ518に表示する画面を描画する。ディスプレイ518は、モニタ制御部515の制御によりGUI(Graphical User Interface)画面を表示するユーザ−インタフェースとなる。ディスプレイ518はLCDやプロジェクタからなり、LCDにタッチパネルを一体に搭載していてもよい。
The
カメラ521は端末1が設置されている拠点を撮影することで、拠点の映像を取得する装置である。この拠点の映像は、端末1及びその周辺の映像、並びに端末1を使用する会議参加者の映像からなる。マイク523は端末1を使用する会議参加者が発声した音声を集音する装置である。カメラ521が撮影した映像とマイク523が集音した音声は、他の端末へリアルタイムに送信される。この映像は他の端末のディスプレイ518に表示され、音声はスピーカ522から出力される。
The
〈映像音声合成・制御サーバ〉
図3は、本発明の第1の実施形態に係る遠隔会議システムにおける映像音声合成・制御サーバのハードウェア構成を示すブロック図である。
<Video / audio synthesis / control server>
FIG. 3 is a block diagram showing a hardware configuration of the video / audio synthesis / control server in the remote conference system according to the first embodiment of the present invention.
本発明に係る映像制御装置としての映像音声合成・制御サーバ2は、コンピュータ及びその周辺装置などから構成されており、CPU611、メモリ(ROM、RAM)612、記憶媒体装着部613、ネットワーク装置614、入力装置616、及びHDD617がバスラインで接続された構造を有する。
The video / audio synthesis /
CPU611は、HDD617からプログラム620を読み出し実行し、映像音声合成・制御サーバ2を全体的に制御する。メモリ612のRAMは、DRAMなどの揮発性メモリであり、CPUがプログラムやOSを実行する際の作業エリアとなる。記憶媒体装着部613は、各種の記憶媒体619を脱着可能に接続するインタフェースであり、記憶媒体619からデータを読み出し、また、記憶媒体619にデータを書き込む際に利用される。プログラム620は、記憶媒体619に記憶された状態で配布され、記憶媒体619から読み出されHDD617にインストールされる。
The
ネットワーク装置614は、映像音声合成・制御サーバ2をネットワーク3に接続するためのインタフェースである。入力装置616は、マウスやキーボード、タッチパネルなどを用いて、映像音声合成・制御サーバ2を操作するための装置である。
The
〈司会者端末の機能ブロック図〉
図4は、本発明の第1の実施形態に係る遠隔会議システムにおける司会者端末の機能ブロック図である。
<Functional block diagram of moderator terminal>
FIG. 4 is a functional block diagram of the moderator terminal in the remote conference system according to the first embodiment of the present invention.
司会者端末である第1の端末1-1は、映像取得手段101、映像送信手段102、音声取得手段103、音声送信手段104、センサ情報取得手段105、動作検出手段106、検出結果送信手段107、映像受信手段108、映像出力手段109、音声受信手段110、及び音声出力手段111を備えている。
The first terminal 1-1, which is a moderator terminal, includes a
映像取得手段101は、カメラ521が撮影した司会者の映像を取得する。映像送信手段102は、映像取得手段101により取得された映像をネットワーク装置514により、ネットワーク3を介して映像音声合成・制御サーバ2へ送信する。音声取得手段103は、マイク523が集音した司会者の音声を取得する。音声送信手段104は、音声取得手段103により取得された音声をネットワーク装置514により、ネットワーク3を介して映像音声合成・制御サーバ2へ送信する。映像取得手段101により取得された映像と、音声取得手段103により取得された音声が映像音声10-1を構成する。
The
映像受信手段108は、映像音声合成・制御サーバ2から送信された映像を受信し、映像出力手段109は、映像受信手段108により受信された映像をディスプレイ518で表示する。音声受信手段110は、映像音声合成・制御サーバ2から送信された音声を受信し、音声出力手段111は、音声受信手段110により受信された音声をスピーカ522で再生(出力)する。映像受信手段108により受信された映像と、音声受信手段110により受信された音声が合成映像音声20-1を構成する。
The
センサ情報取得手段105は、第1の端末1-1のディスプレイ518の前面などに配置された距離センサなどから、司会者の身体要素、例えば手までの距離情報を取得する。動作検出手段106は、センサ情報取得手段105により取得されたセンサ情報と、映像取得手段101により取得された映像とから、司会者が、ディスプレイ518に表示されている映像上の所望の位置を指し示す(指示する)所定の動作を行ったか否かを検出し、動作検出結果を出力する。この動作検出結果には、指し示した位置の座標も含める。つまり、動作検出手段106は本発明に係る位置検出手段として機能する。動作検出手段106の構成の詳細及び動作検出結果の詳細については後述する。
The sensor information acquisition means 105 acquires the distance information from the distance sensor etc. which are arrange | positioned on the front surface of the display 518 of the 1st terminal 1-1, etc. to the body element of a moderator, for example, a hand. In the
なお、司会者端末以外の端末は、センサ情報取得手段105、動作検出手段106、及び検出結果送信手段107を備える必要はないので、これらの手段を司会者端末から除いた構成の端末でよい。また、これらの手段を備えている端末であっても、司会者役ではない場合、これらの手段は何も行わなくてよい。
Since terminals other than the moderator terminal do not need to include the sensor
〈映像音声合成・制御サーバ〉
図5は、本発明の第1の実施形態に係る遠隔会議システムにおける映像音声合成・制御サーバの機能ブロック図である。
<Video / audio synthesis / control server>
FIG. 5 is a functional block diagram of the video / audio synthesis / control server in the remote conference system according to the first embodiment of the present invention.
映像音声合成・制御サーバ2は、映像受信手段201、映像合成手段202、映像送信手段203、音声受信手段204、音声合成手段205、音声送信手段206、検出結果受信手段207、強調対象選択手段208、映像制御手段209、及び音声制御手段210を備えている。
The video / audio synthesis /
映像受信手段201は、第1の端末1-1,第2の端末1-2,・・・,第Nの端末1-Nから送信された映像1,2,・・・,Nを受信する。映像合成手段202は、映像受信手段201により受信された映像1,2,・・・,N(合成前映像)を合成して合成映像1、2,・・・,Nを生成する。映像合成手段202の動作の詳細及び合成映像の内容の詳細については後述する。映像送信手段203は、合成映像1,2,・・・,Nを第1の端末1-1,第2の端末1-2,・・・,第Nの端末1-Nへ送信する。
The video receiving means 201 receives the
音声受信手段204は、第1の端末1-1,第2の端末1-2,・・・,第Nの端末1-Nから送信された音声1,2,・・・,Nを受信する。音声合成手段205は、音声受信手段204により受信された音声1,2,・・・,N(合成前音声)を合成して合成音声1,2,・・・,Nを生成する。音声合成手段205の動作の詳細及び合成音声の内容の詳細については後述する。音声送信手段206は、合成音声1,2,・・・,Nを第1の端末1-1,第2の端末2-2,・・・,第Nの端末1-Nへ送信する。
The
ここで、映像1,2,・・・,Nと音声1,2,・・・,Nが図1における映像音声10-1,10-2,・・・,10-Nを構成し、合成映像1,2,・・・,Nと合成音声1,2,・・・,Nが図1における合成映像音声20-1,20-2,・・・,20-Nを構成する。
Here, the
検出結果受信手段207は、第1の端末1-1から送信された動作検出結果を受信する。強調対象選択手段208は、受信した動作検出結果と、映像合成手段202から供給される映像配置情報とから、映像1,2,・・・,Nのうち、強調対象となる端末を選択し、選択結果としての強調対象情報を映像制御手段209及び音声制御手段210へ送出する。つまり、強調対象選択手段208は、本発明に係る拠点検出手段として機能する。映像制御手段209、音声制御手段210は、入力された強調対象情報に基づいて、それぞれ映像合成手段202、音声合成手段205の動作を制御する。映像配置情報及び強調対象情報の詳細については後述する。
The detection
〈動作検出手段の構成の詳細及び動作検出結果の詳細〉
図6は、図4における動作検出手段106の出力について説明するための図であり、図7は、図6における指定座標の検出方法について説明するための図である。ここで、図7A及び図7Bは、それぞれ司会者の手と司会者端末(第1の端末1-1)のディスプレイ518の画面との関係の平面図及び側面図である。
<Details of configuration of motion detection means and details of motion detection result>
6 is a diagram for explaining the output of the motion detection means 106 in FIG. 4, and FIG. 7 is a diagram for explaining the method for detecting the designated coordinates in FIG. Here, FIG. 7A and FIG. 7B are a plan view and a side view of the relationship between the hands of the presenter and the screen of the display 518 of the presenter terminal (first terminal 1-1), respectively.
図6に示すように、動作検出手段106の出力、即ち動作検出結果は、所定の動作が行われたか否かを表す情報と、指定座標とを対応付けたデータからなる。ここで、「所定の動作」とは、会議の司会者が第1の端末1-1のディスプレイ518の画面518aに表示されている合成映像のある位置を指し示す動作であり、「指定座標」はその画面上の位置を表す二次元座標(x,y)である。なお、二次元座標の原点は例えば画面518aの左下端である。
As shown in FIG. 6, the output of the motion detection means 106, that is, the motion detection result is composed of data in which information indicating whether or not a predetermined motion has been performed and designated coordinates are associated with each other. Here, the “predetermined operation” is an operation in which the conference presenter points to a certain position of the composite image displayed on the
この動作検出結果は一定時間毎に出力される。図の場合、1回目と3回目に所定の動作が行われていないことを示す“FALSE”が出力され、2回目と4回目に所定の動作が行われたことを示す“TRUE”が出力されている。そして、2回目と4回目には、「指定座標」として、それぞれ“x=100,y=150”、“x=300,y=120”が出力されている。 This motion detection result is output at regular intervals. In the case of the figure, “FALSE” indicating that the predetermined operation is not performed at the first time and the third time is output, and “TRUE” indicating that the predetermined operation is performed at the second time and the fourth time are output. ing. In the second and fourth times, “x = 100, y = 150” and “x = 300, y = 120” are output as “designated coordinates”, respectively.
ここで、「指定座標」は、司会者の手の向きとディスプレイ518の画面との位置関係から算出することができる。即ち、司会者の手40とディスプレイ518の画面518aとが図7A及び図7Bに示す関係にあるとき、画面518a上の点(x,y)は下記の式〔1〕、〔2〕で求められる。
x=Zhtanθh+xh …式〔1〕
y=Zhtanφh+yh …式〔2〕
Here, the “designated coordinates” can be calculated from the positional relationship between the orientation of the presenter's hand and the screen of the display 518. That is, when the moderator's
x = Z h tan θ h + x h (1)
y = Z h tanφ h + y h (2)
ここで、手40の三次元座標(xh,yh,zh)及び向き(θh,φh)は、例えば映像取得手段101で取得された映像や距離センサの情報から得られる。
Here, the three-dimensional coordinates (x h , y h , z h ) and orientation (θ h , φ h ) of the
第1の端末1-1が設置されている拠点に司会者以外の参加者がいる場合、動作検出手段106は、司会者とその他の参加者を区別して、司会者のみを検出対象とする必要がある。区別する方法には、予め司会者の位置を決めておく方法(例:カメラ521の中心に最も近い位置にいる人物を司会者と決める)、会議開始前に司会者の位置を指定する方法、顔認識で司会者を判別する方法などがある。
When there is a participant other than the moderator at the site where the first terminal 1-1 is installed, the motion detection means 106 needs to distinguish only the moderator from the moderator and detect only the moderator. There is. As a method of distinguishing, a method of predetermining the position of the presenter (e.g., determining a person closest to the center of the
〈映像合成手段の動作の詳細及び合成映像の内容の詳細〉
図8は、図5における映像配置情報及び合成映像について説明するための図である。ここで、図8Aは映像配置情報を示しており、図8Bは、図8Aに示されている映像配置情報に対応する合成映像の画面上の配置を示す図である。これらの図において、端末番号1,2,3は、図1における任意の3つの端末の番号を表す。
<Details of the operation of the video composition means and details of the content of the composite video>
FIG. 8 is a diagram for explaining the video arrangement information and the composite video in FIG. Here, FIG. 8A shows the video layout information, and FIG. 8B is a diagram showing the layout on the screen of the composite video corresponding to the video layout information shown in FIG. 8A. In these figures,
映像配置情報は、映像合成手段202が各端末の映像をどのように合成するかを表す情報(レイアウト情報)であり、図8Aに示すように、端末番号と、配置位置(左上端の座標、右下端の座標)を表す情報と、重ねる順番を表す情報とからなる。そして、図8Aに示す映像配置情報を基にディスプレイ518の画面518aに表示される合成画像は、図8Bに示すようになる。
The video arrangement information is information (layout information) indicating how the video composition unit 202 synthesizes the video of each terminal, and as shown in FIG. 8A, the terminal number and the arrangement position (the upper left coordinates, Information indicating the coordinates of the lower right corner) and information indicating the order of overlapping. The composite image displayed on the
強調対象選択手段208は、動作検出結果と、司会者端末1-1へ送信した合成映像の映像配置情報を照らし合わせることで、指定座標ではどの端末の映像が表示されていたかを判断することが出来るので、その判断の結果を基に強調対象とする端末を選択する。即ち、例えば、図8Aに示す映像配置情報に対して、動作検出結果の指定座標が(100,100)であった場合、表示領域内にその座標を含んでいる第2の端末1-2を強調対象として選択する。なお、動作検出結果が所定の動作を検出していない場合、強調対象選択手段208は強調対象を選択しないので、「強調対象情報」として強調対象が選択されていないことを表す情報が送信される。 The emphasis target selecting unit 208 can determine which terminal's video is displayed at the designated coordinates by comparing the motion detection result with the video layout information of the composite video transmitted to the moderator terminal 1-1. Since it is possible, the terminal to be emphasized is selected based on the result of the determination. That is, for example, when the designated coordinates of the motion detection result are (100, 100) for the video layout information shown in FIG. 8A, the second terminal 1-2 including the coordinates in the display area is displayed. Select as highlight target. Note that when the motion detection result does not detect a predetermined motion, the highlight target selection unit 208 does not select the highlight target, and therefore information indicating that the highlight target is not selected is transmitted as “highlight target information”. .
映像制御手段209、音声制御手段210は、強調対象として選択された端末の映像音声を強調するための映像制御信号、音声を強調するための音声制御信号を、それぞれ映像合成手段202、音声合成手段205へ送る。つまり、映像制御手段209、音声制御手段210は、それぞれ本発明に係る映像強調手段、音声強調手段として機能する。映像を強調する方法には、例えば表示領域を拡大するなどがある。音声を強調する方法には、例えば強調対象端末以外の端末からの音声をミュートするなどがある。この音声ミュートを行った場合、強調対象端末を使用する会議参加者に発言権を設定したことになる。強調対象が選択されていない場合、映像制御信号、音声制御信号はそのままの値とする。
The
選択される強調対象を端末単位ではなく、個人単位にすることも可能である。その場合、映像合成手段202から得られる映像配置情報に、映像中の人物の位置情報を含める必要がある。人物の位置情報を得る方法には、例えば予め位置を固定しておく方法や、顔認識、人物認識などを利用する方法などがある。強調対象選択手段208は、動作検出結果の指定座標に最も近い位置に表示されている人物を、強調対象として選択する。個人単位で映像音声を強調する方法には、例えば、対象人物の表示領域を切り出して拡大表示する方法や、マイクアレイ処理で指向性を制御する方法などがある。 It is also possible to select an emphasis target to be selected in units of individuals rather than in units of terminals. In that case, it is necessary to include the position information of the person in the video in the video layout information obtained from the video synthesizing means 202. For example, there are a method for obtaining position information of a person, a method for fixing the position in advance, a method for using face recognition, person recognition, and the like. The emphasis target selecting means 208 selects the person displayed at the position closest to the designated coordinates of the motion detection result as the emphasis target. Examples of methods for emphasizing video and audio in individual units include a method of cutting out and displaying a target person's display area, and a method of controlling directivity by microphone array processing.
〈強調処理の解除〉
図9は、本発明の第1の実施形態に係る遠隔会議システムにおける強調処理の解除動作について説明するための図である。
<Release emphasis processing>
FIG. 9 is a diagram for explaining the cancellation processing of the emphasis process in the remote conference system according to the first embodiment of the present invention.
強調処理を解除したい場合、新たに解除用の動作を定義して利用してもよい。例えば、解除したいときは手を叩く、などである。その場合、動作検出結果は例えば図9のようになる。図6に示す動作検出結果に対して動作番号が追加されており、映像制御手段209、音声制御手段210は、指定された強調対象と動作番号に対応する制御を行う。
If it is desired to cancel the emphasis process, a new canceling operation may be defined and used. For example, when you want to release, tap your hand. In this case, the operation detection result is as shown in FIG. 9, for example. An operation number is added to the operation detection result shown in FIG. 6, and the
この図の場合、2回目の動作検出結果は指定座標“x=100,y=150”の端末(図8Bの場合、端末番号2の端末)に対する強調対象の指定動作を表すものである。つまり、司会者が第1の端末1-1のディスプレイ518に表示されている合成映像の端末番号2の端末を指し示す動作を行った結果が検出されたことを表している。また、4回目の動作検出結果は強調処理の解除動作を表すものである。つまり、司会者が例えば手を叩く動作を行った結果が検出されたことを表している。
In the case of this figure, the second motion detection result represents the designation operation to be emphasized for the terminal having the designated coordinates “x = 100, y = 150” (in the case of FIG. 8B, the terminal having the terminal number 2). That is, it represents that a result of the moderator performing an operation indicating the terminal of
〈遠隔会議システムの動作〉
図10は、本発明の第1の実施形態に係る遠隔会議システムの動作を示すフローチャートである。
<Operation of remote conference system>
FIG. 10 is a flowchart showing the operation of the remote conference system according to the first embodiment of the present invention.
まず司会者端末(第1の端末1-1)において、映像取得手段101、音声取得手段103、センサ情報取得手段105は、それぞれ映像、音声、センサ情報を取得する(ステップS1)。次に動作検出手段106は、ステップS1で取得した映像及びセンサ情報から、所定動作を検出したか否かを判定する(ステップS2)。
First, in the moderator terminal (first terminal 1-1), the
動作検出手段106は、所定動作を検出した場合(ステップS2:Yes)、ステップS1で取得した映像及びセンサ情報から、所定の動作の指し示す座標(指定座標)を計算し、動作検出結果に追加する(ステップS3)。
When detecting a predetermined motion (step S2: Yes), the
次に検出結果送信手段107は、ステップS1で取得した映像及び音声、ステップS2、S3で求めた動作検出結果を映像音声合成・制御サーバ2へ送信する(ステップS4)。
Next, the detection
動作検出手段106が所定動作を検出しなかった場合は(ステップS2:No)、ステップS1で取得した映像及び音声、及び所定動作が行われなかったことを表す情報(図6における“FALSE”)を含む動作検出結果を映像音声合成・制御サーバ2へ送信する(ステップS4)。
When the
映像音声合成・制御サーバ2は、第1の端末1-1からの映像、音声、及び動作検出結果を受信する(ステップS5)。次に強調対象選択手段208は、その動作検出結果は所定動作を検出しているか否か、即ち動作検出結果が所定動作を検出していることを表す情報(図6における“TRUE”)を含むか否かを判定する(ステップS6)。
The video / audio synthesis /
判定の結果、所定動作を検出していた場合は(ステップS6:Yes)、その動作検出結果と、映像合成手段202からの映像配置情報とから、強調対象とする端末を選択する(ステップS7)。このとき、選択の結果を表す強調対象情報が映像制御手段209及び音声制御手段210に供給される。
As a result of the determination, if a predetermined operation is detected (step S6: Yes), a terminal to be emphasized is selected from the operation detection result and the video arrangement information from the video synthesizing means 202 (step S7). . At this time, the emphasis target information indicating the selection result is supplied to the
次に映像制御手段209、音声制御手段210は、ステップS6で選択された端末の映像及び音声を強調するように、それぞれの合成時のパラメータを調整する(ステップS8)。
Next, the
映像合成手段202、音声合成手段205は、映像制御手段209、音声制御手段210により調整されたパラメータに基づいて、各端末へ送信するための映像の合成、音声の合成を行う(ステップS9)。
The video synthesizing unit 202 and the
強調対象選択手段208が、所定動作を検出していなかった場合(ステップS6:NO)、映像制御手段209、音声制御手段210は制御信号のパラメータはそのままの値とし、映像合成手段202、音声合成手段205は、そのままの値のパラメータを用いて、各端末へ送信するための映像の合成、音声の合成を行う(ステップS9)。
When the enhancement target selection unit 208 has not detected a predetermined operation (step S6: NO), the
映像送信手段203、音声送信手段206は、ステップS9で合成された映像、音声を各端末へ送信する(ステップS10)。各端末では、映像受信手段108、音声受信手段110が、それぞれ映像音声合成・制御サーバ2からの映像、音声を受信する(ステップS11)。そして、映像出力手段109が映像を表示し、音声出力手段111が音声を再生する(ステップS12)。
The
司会者端末以外の端末(第2の端末1-2,・・・,第Nの端末1-N)の動作は下記のとおりである。「映像、音声を取得する」(ステップS1における「映像、音声、センサ情報」を「映像、音声」に変更)→「映像、音声をサーバへ送信する」(ステップS4における「映像、音声、動作検出結果」を「映像、音声」に変更)→「映像、音声をサーバから受信する」(ステップS11と同じ)→「映像、音声情報を表示再生する」(ステップS12と同じ)。 The operations of terminals other than the moderator terminal (second terminal 1-2,..., Nth terminal 1-N) are as follows. “Obtain video and audio” (change “video, audio and sensor information” in step S1 to “video and audio”) → “send video and audio to server” (“video, audio and operation in step S4” “Detection result” is changed to “video, audio”) → “receive video and audio from server” (same as step S11) → “display and reproduce video and audio information” (same as step S12).
このように、本発明の第1の実施形態に係る遠隔会議システムには下記(1)〜(5)の特徴がある。
(1)司会者の自然な動作により、発言権の設定、映像の強調、音声の強調が可能である。
(2)映像配置情報を各端末からの映像をどう合成しているかを表すレイアウト情報とすることで、拠点単位で強調対象を選択することができる。
(3)映像配置情報を各端末からの映像に参加者がどう位置しているかを表す人物位置情報を含ませることにより、個人単位で強調対象を選択することができる。
(4)司会者の自然な動作により、強調処理を解除することもできる。
(5)司会者による会議の進行の管理が容易になる。
As described above, the remote conference system according to the first embodiment of the present invention has the following features (1) to (5).
(1) The right to speak, video enhancement, and audio enhancement can be achieved by the natural operation of the presenter.
(2) Emphasis targets can be selected in units of bases by using video layout information as layout information indicating how video from each terminal is combined.
(3) The emphasis target can be selected on an individual basis by including video position information including person position information indicating how the participant is positioned in the video from each terminal.
(4) The emphasis process can be canceled by the natural operation of the presenter.
(5) The management of the progress of the conference by the presenter becomes easy.
[第2の実施形態]
〈遠隔会議システムの全体構成〉
図11は、本発明の第2の実施形態に係る遠隔会議システムの全体構成について説明するための図である。この図において、図1(第1の実施形態に係る遠隔会議システムの全体構成)と同じ部分には図1と同じ参照符号を付すとともに、特に必要な場合以外はその部分の説明を省略する。
[Second Embodiment]
<Overall configuration of remote conference system>
FIG. 11 is a diagram for explaining the overall configuration of the remote conference system according to the second embodiment of the present invention. In this figure, the same parts as those in FIG. 1 (the entire configuration of the remote conference system according to the first embodiment) are denoted by the same reference numerals as those in FIG. 1, and the explanation of those parts is omitted unless particularly necessary.
この遠隔会議システムは、N台の端末である第1の端末4-1,第2の端末4-2,・・・,第Nの端末4-Nをネットワーク3に接続することにより構成される。第1の端末4-1が司会者端末である。
This remote conference system is configured by connecting a first terminal 4-1, a second terminal 4-2,..., An Nth terminal 4-N, which are N terminals, to the
各端末は映像音声を互いに送受信し、第1の実施形態において映像音声合成・制御サーバ2が行っていた合成処理を各端末内で行うことが、第1の実施形態との主な相違点である。
The main difference from the first embodiment is that each terminal transmits and receives video and audio to each other, and the synthesis processing performed by the video and audio synthesis /
即ち、第1の端末4-1は、映像音声10-1を第2の端末4-2,・・・,第Nの端末4-Nへ送信し、第2の端末4-2,・・・,第Nの端末4-Nから映像音声10-2,・・・,10-Nを受信する。また、第2の端末4-2は、映像音声10-2を第1の端末4-1,第3の端末4-3,・・・,第Nの端末4-Nへ送信し、第1の端末4-1,第3の端末4-3,・・・,第Nの端末4-Nから映像音声10-1,10-3,・・・,10-Nを受信する。また、第Nの端末4-Nは、映像音声10-Nを第1の端末4-1,・・・,第N−1の端末4-(N−1)へ送信し、第1の端末4-1,・・・,第N−1の端末4-(N−1) から映像音声10-1,・・・,10-(N−1)を受信する。 That is, the first terminal 4-1 transmits the video / audio 10-1 to the second terminal 4-2,..., The Nth terminal 4-N, and the second terminal 4-2,. .., 10-N are received from the Nth terminal 4-N. The second terminal 4-2 transmits the video / audio 10-2 to the first terminal 4-1, the third terminal 4-3,..., The Nth terminal 4-N, , 10-N are received from the terminal 4-1, the third terminal 4-3,..., And the Nth terminal 4-N. The N-th terminal 4-N transmits the video / audio 10-N to the first terminal 4-1,..., The N-1th terminal 4- (N−1), and the first terminal ..,..., 10- (N−1) are received from the N−1th terminal 4- (N−1).
また、司会者端末である第1の端末4-1は、強調対象情報13を第2の端末4-2,・・・,第Nの端末4-Nへ送信する。強調対象情報13は第1の実施形態の映像音声合成・制御サーバ2の強調対象選択手段208が生成する強調対象情報と同じものである。
In addition, the first terminal 4-1 which is a moderator terminal transmits the emphasis target information 13 to the second terminal 4-2,..., The Nth terminal 4-N. The emphasis target information 13 is the same as the emphasis target information generated by the emphasis target selection means 208 of the video / audio synthesis /
〈端末のハードウェア構成〉
各端末のハードウェア構成は第1の実施形態における端末のハードウェア構成(図2)と同じである。
<Hardware configuration of terminal>
The hardware configuration of each terminal is the same as the hardware configuration (FIG. 2) of the terminal in the first embodiment.
〈司会者端末の機能ブロック図〉
図12は、本発明の第2の実施形態に係る遠隔会議システムにおける司会者端末の機能ブロック図である。
<Functional block diagram of moderator terminal>
FIG. 12 is a functional block diagram of the moderator terminal in the remote conference system according to the second embodiment of the present invention.
司会者端末である第1の端末4-1は、映像取得手段401、映像送信手段402、音声取得手段403、音声送信手段404、センサ情報取得手段405、動作検出手段406、強調対象選択手段407、強調対象送信手段408、映像受信手段409、映像合成手段410、映像出力手段411、音声受信手段412、音声合成手段413、音声出力手段414、映像制御手段415、及び音声制御手段416を備えている。
The first terminal 4-1, which is a moderator terminal, includes a
ここで、映像取得手段401、映像送信手段402、音声取得手段403、音声送信手段404、センサ情報取得手段405、動作検出手段406、映像受信手段409、映像合成手段410、映像出力手段411、音声受信手段412、及び音声出力手段414は、映像受信手段409が他の各端末から映像2,・・・,Nを受信し、音声受信手段410が他の各端末から音声2,・・・,Nを受信する点以外は図4(第1の実施形態における司会者端末の機能ブロック図)における同名の手段と同じ構成及び機能を備えている。映像2と音声2が映像音声10-2を構成し、映像Nと音声Nが映像音声10-Nを構成する。
Here, video acquisition means 401, video transmission means 402, audio acquisition means 403, audio transmission means 404, sensor information acquisition means 405, motion detection means 406, video reception means 409, video synthesis means 410, video output means 411, audio The receiving means 412 and the audio output means 414 are such that the video receiving means 409 receives the
また、図12において、強調対象選択手段407、映像合成手段410、音声合成手段413、映像制御手段415、及び音声制御手段416は、図5(第1の実施形態における映像音声合成・制御サーバ2の機能ブロック図)における同名の手段と同じ構成及び機能を備えている。
In FIG. 12, the emphasis
強調対象送信手段408は、強調対象選択手段407で生成された強調対象情報をネットワーク3経由で第2の端末4-2,・・・,第Nの端末4-Nへ送信する手段である。
The emphasis
〈司会者端末以外の端末の機能ブロック図〉
図13は、本発明の第2の実施形態に係る遠隔会議システムにおける司会者端末以外の端末の一つである第2の端末4-2の機能ブロック図である。この図において、図12と同一の手段には図12と同じ参照符号を付すとともに、特に必要な場合以外はその部分の説明を省略する。また、ここでは、便宜上、第2の端末4-2の機能ブロック図を示したが、第3の端末4-3,・・・,第Nの端末4-Nの機能ブロックも第2の端末4-2の機能ブロックと同じである。
<Functional block diagram of terminals other than moderator terminal>
FIG. 13 is a functional block diagram of the second terminal 4-2 which is one of terminals other than the moderator terminal in the remote conference system according to the second embodiment of the present invention. In this figure, the same means as those in FIG. 12 are denoted by the same reference numerals as those in FIG. 12, and the description thereof is omitted unless particularly necessary. Here, for convenience, the functional block diagram of the second terminal 4-2 is shown, but the functional blocks of the third terminal 4-3,..., The Nth terminal 4-N are also the second terminal. It is the same as the function block in 4-2.
第2の端末4-2は、第1の端末4-1からセンサ情報取得手段405、動作検出手段406、強調対象選択手段407、及び強調対象送信手段408を除去し、強調対象受信手段417を付加した構成を備えている。ただし、第1の実施形態と同様に、全ての端末の構成を同一にし、使用しない手段が動作しないように制御してもよい。
The second terminal 4-2 removes the sensor
〈遠隔会議システムの動作〉
《司会者端末の送信動作及び司会者端末以外の端末の受信動作》
図14は、本発明の第2の実施形態に係る遠隔会議システムにおける司会者端末の送信動作及び司会者端末以外の端末の受信動作を示すフローチャートである。
<Operation of remote conference system>
<< Transmission operation of the moderator terminal and reception operation of terminals other than the moderator terminal >>
FIG. 14 is a flowchart showing the transmission operation of the moderator terminal and the reception operation of terminals other than the moderator terminal in the remote conference system according to the second embodiment of the present invention.
まず司会者端末(第1の端末4-1)において、映像取得手段401、音声取得手段403、センサ情報取得手段405は、それぞれ映像、音声、センサ情報を取得する(ステップS21)。次に動作検出手段406は、ステップS21で取得した映像及びセンサ情報から、所定動作を検出したか否かを判定する(ステップS22)。
First, in the moderator terminal (first terminal 4-1), the
動作検出手段406は、所定動作を検出した場合(ステップS22:Yes)、ステップS21で取得した映像及びセンサ情報から、所定の動作の指し示す座標(指定座標)を計算し、動作検出結果に追加する(ステップS23)。
When detecting a predetermined motion (step S22: Yes), the
つまり、ステップS21〜S23は図10(第1の実施形態の動作を示すフローチャート)におけるステップS1〜S3と同じである。 That is, steps S21 to S23 are the same as steps S1 to S3 in FIG. 10 (flow chart showing the operation of the first embodiment).
次のステップS24では、強調対象選択手段407が、ステップS23での動作検出結果と、映像合成手段410から供給される映像配置情報とから、強調対象とする端末を選択し、選択結果として強調対象情報を生成する。次いで強調対象送信手段408は、ステップS21で取得した音声と映像、及びステップS24で生成した強調対象情報をその他の各端末へ送信する(ステップS25)。ステップS22から直接ステップS25へ進んだ場合、即ち所定の動作が検出されなかった場合は、強調対象情報は強調対象が選択されていないことを表す情報となる。
In the next step S24, the emphasis
司会者端末以外の端末(その他端末)では、自端末以外の全ての端末から送信された映像、音声をそれぞれ映像受信手段409、音声受信手段412で受信し、司会者端末から送信された強調対象情報を強調対象受信手段417で受信する(ステップS26)。 At terminals other than the moderator terminal (other terminals), the video and audio transmitted from all terminals other than the own terminal are received by the video receiving means 409 and the audio receiving means 412, respectively, and the emphasis target transmitted from the moderator terminal Information is received by the emphasis target receiving means 417 (step S26).
次に、映像制御手段415、音声制御手段416は、強調対象が選択されているか否か、即ち強調対象情報が、選択された端末を表す情報を含んでいるか否かを判定する(ステップS27)。
Next, the
判定の結果、強調対象が選択されていた場合は(ステップS27:Yes)、映像制御手段415、音声制御手段416は、選択された端末の映像及び音声を強調するように、それぞれの合成時のパラメータを調整する(ステップS28)。次に映像合成手段410、音声合成手段413は、映像制御手段415、音声制御手段416により調整されたパラメータに基づいて、各端末からの映像の合成、音声の合成を行う(ステップS29)。
As a result of the determination, when the emphasis target is selected (step S27: Yes), the
判定の結果、強調対象が選択されていなかった場合は(ステップS27:No)、映像制御手段415、音声制御手段416は制御信号のパラメータをそのままの値とし、映像合成手段410、音声合成手段413は、そのままの値のパラメータを用いて、各端末からの映像の合成、音声の合成を行う(ステップS29)。
As a result of the determination, when the emphasis target is not selected (step S27: No), the
次に映像出力手段411が合成映像を表示し、音声出力手段414が合成音声を再生する(ステップS30)。
Next, the
《司会者端末以外の端末の送信動作及び司会者端末の受信動作》
図15は、本発明の第2の実施形態に係る遠隔会議システムにおける司会者端末以外の端末の送信動作及び司会者端末の受信動作示すフローチャートである。
<< Transmission operation of terminals other than the moderator terminal and reception operation of the moderator terminal >>
FIG. 15 is a flowchart showing a transmission operation of a terminal other than the moderator terminal and a reception operation of the moderator terminal in the remote conference system according to the second embodiment of the present invention.
司会者端末以外の端末(その他端末)では、映像取得手段401、音声取得手段403は、それぞれ映像、音声を取得し(ステップS31)、映像送信手段402、音声送信手段404は、それぞれ映像取得手段401、音声取得手段403で取得された映像、音声を各端末へ送信する(ステップS32)。
In terminals other than the moderator terminal (other terminals), the
司会者端末では、各端末から送信された映像、音声をそれぞれ映像受信手段409、音声受信手段412で受信する(ステップS33)。次に映像制御手段415、音声制御手段416は、強調対象が選択されているか否か、強調対象情報が、選択された端末を表す情報を含んでいるか否かを判定する(ステップS34)。この強調対象情報は、図14のステップS25で送信された強調対象情報と同じものである。以後のステップS34〜S37は図14におけるステップS28〜S30と同じである。
In the moderator terminal, the
なお、以上の各実施形態では、動作検出手段106,406は、カメラ521で取得した映像と距離センサの情報とを用いて、司会者による所定動作を非接触で検出しているが、タッチパネルを搭載したディスプレイを用い、司会者が指やタッチペンなどでタッチした位置を検出することで、所定動作を検出することもできる。また、司会者の視線を検出し、その視線の先の映像上の位置を検出(算出)することで、所定動作を検出することもできる。
In each of the above embodiments, the
1…端末、1-1,4-1…第1の端末、1-2,4-2,・・・,1-N,4-N…第2,・・・,第Nの端末、106,406…動作検出手段、208,407…強調対象選択手段、209,415…映像制御手段、210,416…音声制御手段、
DESCRIPTION OF
Claims (10)
所定の一つの会議端末で表示されている映像の所望の位置を、該会議端末を使用する会議参加者が所定の第1の動作で指示したとき、その指示された位置を検出する位置検出手段と、
前記位置検出手段により検出された位置と、前記所定の一つの会議端末で表示されている映像における他の複数の会議端末の拠点の映像の位置を表す情報とから、前記所定の一つの会議端末を使用する会議参加者により指示された位置に表示されている拠点を検出する拠点検出手段と、
前記拠点検出手段により検出された拠点の映像を強調する映像強調手段と、
を有する、遠隔会議システム。 A teleconferencing system that communicates information including video between conference terminals installed at multiple locations,
Position detecting means for detecting a desired position of a video displayed on one predetermined conference terminal when a conference participant using the conference terminal indicates the desired position by a predetermined first operation. When,
The predetermined one conference terminal from the position detected by the position detecting means and information indicating the position of the video of the bases of other conference terminals in the video displayed on the predetermined one conference terminal A site detection means for detecting the site displayed at the position indicated by the conference participant using
Video enhancement means for enhancing the video of the base detected by the base detection means;
A teleconferencing system.
前記拠点の映像の位置を表す情報は、前記拠点の会議参加者の映像の位置を表す情報を含む、遠隔会議システム。 The remote conference system according to claim 1,
The remote conference system, wherein the information indicating the position of the video at the base includes information indicating the position of the video of a conference participant at the base.
前記拠点検出手段により検出された拠点の音声を強調する音声強調手段を有する、遠隔会議システム。 The remote conference system according to claim 1,
A teleconferencing system comprising voice emphasizing means for emphasizing the voice of the base detected by the base detection means.
前記第1の動作は前記映像に非接触の動作であり、前記位置検出手段は、前記指示された位置を非接触で検出する、遠隔会議システム。 The remote conference system according to claim 1,
The first operation is a non-contact operation on the video, and the position detecting unit detects the instructed position in a non-contact manner.
前記所定の一つの会議端末を使用する会議参加者が前記第1の動作と異なる第2の動作を行ったとき、映像の強調を解除する映像強調解除手段を有する、遠隔会議システム。 The remote conference system according to claim 1,
A teleconferencing system, comprising: video enhancement cancellation means for canceling enhancement of a video when a conference participant using the predetermined one conference terminal performs a second operation different from the first operation.
所定の一つの会議端末で表示されている映像の所望の位置を、該会議端末を使用する会議参加者が所定の動作で指示したとき、その指示された位置を検出する位置検出工程と、
前記位置検出工程で検出された位置と、前記所定の一つの会議端末で表示されている映像における他の複数の会議端末の拠点の映像の位置を表す情報とから、前記所定の一つの会議端末を使用する会議参加者により指示された位置に表示されている拠点を検出する拠点検出工程と、
前記拠点検出工程で検出された拠点の映像を強調する映像強調工程と、
を有する、遠隔会議システムにおける映像処理方法。 A video processing method in a remote conference system for communicating information including video between conference terminals installed at a plurality of bases,
A position detection step of detecting a specified position of a video displayed on a predetermined one conference terminal when a conference participant using the conference terminal indicates the desired position by a predetermined operation;
The predetermined one conference terminal from the position detected in the position detection step and information indicating the positions of the video of the bases of other conference terminals in the video displayed on the predetermined one conference terminal A site detection step of detecting a site displayed at a position instructed by a conference participant using
A video enhancement step for enhancing the video of the location detected in the location detection step;
A video processing method in a remote conference system.
各会議端末に対し、他の会議端末の拠点の映像を送信する映像送信手段と、
前記複数の会議端末のうち、所定の一つの会議端末から、該会議端末を使用する会議参加者が所定の動作で、前記映像送信手段から送信され、該会議端末で表示されている前記映像の所望の位置を指示したとき、その指示された位置の検出結果を受信する検出結果受信手段と、
前記検出結果受信手段により受信された検出結果と、前記所定の一つの会議端末で表示されている映像における他の複数の会議端末の拠点の映像の位置を表す情報とから、前記所定の一つの会議端末を使用する会議参加者により指示された位置に表示されている拠点を検出する拠点検出手段と、
前記拠点検出手段により検出された拠点の映像を強調する映像強調手段と、
を有する、映像制御装置。 A video control device used in a remote conference system that communicates information including video between conference terminals installed at a plurality of locations,
For each conference terminal, video transmission means for transmitting the video of the base of the other conference terminal,
Among the plurality of conference terminals, a conference participant who uses the conference terminal is transmitted from the video transmission means by a predetermined operation from a predetermined one of the conference terminals, and the video displayed on the conference terminal is displayed. A detection result receiving means for receiving a detection result of the designated position when a desired position is designated;
From the detection result received by the detection result receiving means and the information indicating the position of the video of the bases of other conference terminals in the video displayed on the predetermined one conference terminal, the predetermined one A site detection means for detecting a site displayed at a position designated by a conference participant using the conference terminal;
Video enhancement means for enhancing the video of the base detected by the base detection means;
A video control device.
他の会議端末の拠点の映像を表示する映像出力手段と、
会議参加者が所定の動作で前記映像出力手段で表示されている映像の所望の位置を指示したとき、その指示された位置を検出する位置検出手段と、
前記位置検出手段により検出された位置と、前記映像出力手段で表示されている他の複数の会議端末の拠点の映像の位置を表す情報とから、前記会議参加者により指示された位置に表示されている拠点を検出する拠点検出手段と、
前記拠点検出手段により検出された拠点の映像を強調する映像強調手段と、
を有する、会議端末。 A conference terminal used in a remote conference system that communicates information including video between conference terminals installed at multiple locations,
Video output means for displaying video of other conference terminal locations;
Position detection means for detecting the indicated position when a conference participant indicates a desired position of the video displayed on the video output means by a predetermined operation;
From the position detected by the position detecting means and the information indicating the position of the video of the bases of the other plurality of conference terminals displayed by the video output means, it is displayed at the position designated by the conference participant. A base detection means for detecting the base
Video enhancement means for enhancing the video of the base detected by the base detection means;
A conference terminal.
A program for causing a computer to function as a position detection unit, a site detection unit, and a video enhancement unit of a conference terminal according to claim 9.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014130379A JP2016010039A (en) | 2014-06-25 | 2014-06-25 | Remote conference system, video processing method, video controller, conference terminal, and program thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014130379A JP2016010039A (en) | 2014-06-25 | 2014-06-25 | Remote conference system, video processing method, video controller, conference terminal, and program thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016010039A true JP2016010039A (en) | 2016-01-18 |
Family
ID=55227324
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014130379A Pending JP2016010039A (en) | 2014-06-25 | 2014-06-25 | Remote conference system, video processing method, video controller, conference terminal, and program thereof |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016010039A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106791583A (en) * | 2017-01-23 | 2017-05-31 | 北京思特奇信息技术股份有限公司 | A kind of video conferencing system and implementation method |
| CN108881134A (en) * | 2017-09-25 | 2018-11-23 | 北京视联动力国际信息技术有限公司 | A kind of communication means and system based on video conference |
| JP2022076189A (en) * | 2020-11-09 | 2022-05-19 | 株式会社デンソーテン | Voice processing device, voice processing method, voice processing system, and terminal |
| JP2022076617A (en) * | 2020-11-10 | 2022-05-20 | 大林道路株式会社 | Morning meeting support apparatus and program |
-
2014
- 2014-06-25 JP JP2014130379A patent/JP2016010039A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106791583A (en) * | 2017-01-23 | 2017-05-31 | 北京思特奇信息技术股份有限公司 | A kind of video conferencing system and implementation method |
| CN108881134A (en) * | 2017-09-25 | 2018-11-23 | 北京视联动力国际信息技术有限公司 | A kind of communication means and system based on video conference |
| JP2022076189A (en) * | 2020-11-09 | 2022-05-19 | 株式会社デンソーテン | Voice processing device, voice processing method, voice processing system, and terminal |
| JP2022076617A (en) * | 2020-11-10 | 2022-05-20 | 大林道路株式会社 | Morning meeting support apparatus and program |
| JP7534191B2 (en) | 2020-11-10 | 2024-08-14 | 大林道路株式会社 | Morning assembly support device and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10970037B2 (en) | System and method for differentially locating and modifying audio sources | |
| CN105683867B (en) | Configuring the touchscreen monitor for a meeting | |
| US10798518B2 (en) | Apparatus and associated methods | |
| US20180341455A1 (en) | Method and Device for Processing Audio in a Captured Scene Including an Image and Spatially Localizable Audio | |
| JP2012040655A (en) | Method for controlling robot, program, and robot | |
| CN104639868B (en) | Technology for supporting meeting | |
| US20190312917A1 (en) | Resource collaboration with co-presence indicators | |
| JP2016010039A (en) | Remote conference system, video processing method, video controller, conference terminal, and program thereof | |
| JP2025038170A (en) | Distribution System | |
| CN114520950B (en) | Audio output method, device, electronic equipment and readable storage medium | |
| WO2006011399A1 (en) | Information processing device and method, recording medium, and program | |
| JP5493551B2 (en) | Information processing system, information processing apparatus, and information processing method | |
| JP2023079562A (en) | Information processing method, program, information processing device, information processing system | |
| JP6700672B2 (en) | Remote communication system, its control method, and program | |
| JP2023123080A (en) | Equipment management system, information processing system, equipment management method, program, equipment | |
| JP2023137823A (en) | Equipment system, information processing method, information processing system, program, and imaging device | |
| US9883142B1 (en) | Automated collaboration system | |
| JP2008021186A (en) | Position notifying method with sound, and information processing system using the method | |
| WO2024190489A1 (en) | Display method, display processing device and program | |
| JP2025114374A (en) | Information processing system, output method, and program | |
| JP2024029642A (en) | Information processing device, display method, program | |
| JP2025071916A (en) | Electronics | |
| JP2024008632A (en) | Information processing system, display method, program, recording information creation system | |
| JP2004171356A (en) | Shared information operating device, shared information operating method, shared information operating program, computer-readable recording medium storing shared information operating program | |
| JP2018032911A (en) | Information processing apparatus, conference system, and program |