JP4957221B2 - Communication device - Google Patents
Communication device Download PDFInfo
- Publication number
- JP4957221B2 JP4957221B2 JP2006327386A JP2006327386A JP4957221B2 JP 4957221 B2 JP4957221 B2 JP 4957221B2 JP 2006327386 A JP2006327386 A JP 2006327386A JP 2006327386 A JP2006327386 A JP 2006327386A JP 4957221 B2 JP4957221 B2 JP 4957221B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- video data
- communication device
- video
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004891 communication Methods 0.000 title claims description 164
- 230000005540 biological transmission Effects 0.000 claims description 83
- 238000012986 modification Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 238000012360 testing method Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、映像データを送受信する技術に関する。 The present invention relates to a technique for transmitting and receiving video data.
近年、ネットワーク経由で映像データや音声データの通信を行うことにより、遠隔地において会議を行うことができる会議システムがある。一般に映像データは、音声データに比べて情報量が多く、また、近年の映像撮影用のカメラの高性能化に伴う画像品質の向上により、映像データの情報量がさらに大きくなっていることから、通信時においてネットワークへの負荷が大きくなりやすい。この状況において、映像と音声を同期させて通信を行おうとすると、映像データの情報量の多さによるネットワークの負荷の増大により、音声が途切れてしまうことがあり、会議を行う際の問題となっていた。そのため、画像データの送信量を減らすために、特許文献1に開示されている技術を利用して、映像に変化があったときのみ映像データを送信することにより、ネットワークの負荷の低減を行うことも考えられている。
しかし、特許文献1のように映像の変化の有無についての判断は、会議システムの制御部であるCPU(Central Processing Unit)などの負荷が非常に大きいものであり、データ処理に時間がかかってしまう。そのため、この技術を会議システムに応用した場合、映像データの送信が音声データの送信よりも遅れること、また、頻繁に映像の変化が起こる場合には、映像データを多く送信することになり、音声が途切れてしまうこともあった。さらにCPUの高性能化を行う必要があり、非常にコストがかかるものであった。 However, as in Japanese Patent Application Laid-Open No. H10-260260, the determination as to whether or not there is a change in video is very heavy on the CPU (Central Processing Unit) that is a control unit of the conference system, and data processing takes time. . Therefore, when this technology is applied to a conference system, the transmission of video data will be delayed from the transmission of audio data, and if video changes frequently, a large amount of video data will be transmitted. Sometimes broke down. Furthermore, it is necessary to increase the performance of the CPU, which is very expensive.
本発明は、上述の事情に鑑みてなされたものであり、画像データの送受信を行っても音声が途切れにくい送信装置、受信装置および通信装置を提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a transmission device, a reception device, and a communication device in which sound is hardly interrupted even when image data is transmitted and received.
上述の課題を解決するため、本発明は、通信網に接続して他の通信装置と通信を行う通信装置であって、撮影範囲内の第1のエリアの映像を第1の映像データとして生成する撮影手段と、前記第1のエリアの一部分の範囲を第2のエリアとして複数設定するエリア設定手段と、前記複数の第2のエリアを組み合わせて1以上の第3のエリアを生成するエリア生成手段と、音源からの音を収音して音声データを生成する収音手段と、前記収音手段によって生成された音声データに基づいて、前記音源の方向を特定する音源方向特定手段と、複数設定された第2のエリアから、前記特定された音源の方向に対応する位置を含む第2のエリアを選定する選定手段と、前記通信網を介して前記他の通信装置と通信を行うときに所定の確率以上で送信が成功する送信レートを所定の時間ごとに順次測定する使用可能帯域幅測定手段と、前記送信レートに基づいて、第1のエリアと、前記選定手段によって選定された第2のエリアと、前記選定手段によって選定された第2のエリアを含む第3のエリアとのいずれかから選択する選択手段と、前記第2のエリアの映像を前記第1の映像データから切り出して第2の映像データを生成し、前記第3のエリアの映像を前記第1の映像データから切り出して第3の映像データを生成する映像データ切り出し手段と、前記選択手段によって選択されたエリアを示す情報と当該エリアに対応する映像データとを前記他の通信装置へ送信する送信手段とを具備することを特徴とする通信装置を提供する。 In order to solve the above-described problems, the present invention is a communication device that connects to a communication network and communicates with another communication device, and generates a first area image within the shooting range as first image data. Imaging means for performing, area setting means for setting a plurality of partial areas of the first area as second areas, and area generation for generating one or more third areas by combining the plurality of second areas Means, sound collection means for collecting sound from the sound source to generate sound data, sound source direction specifying means for specifying the direction of the sound source based on the sound data generated by the sound collection means, When communicating with the other communication device via the communication network, and a selection means for selecting a second area including a position corresponding to the direction of the specified sound source from the set second area. Transmission with a certain probability or more Usable bandwidth measuring means for sequentially measuring effective transmission rates every predetermined time; a first area based on the transmission rate; a second area selected by the selecting means; and the selecting means Selecting means for selecting from any one of the third areas including the second area selected by the step of generating the second video data by cutting out the video of the second area from the first video data , A video data cutout unit for cutting out the video of the third area from the first video data to generate third video data, information indicating the area selected by the selection unit, and a video corresponding to the area There is provided a communication device comprising a transmission means for transmitting data to the other communication device.
また、別の好ましい態様において、前記収音手段は、複数のマイクロフォンを有し、前記音源方向特定手段は、前記複数のマイクロフォンが音源からの音を収音することによって生成された各音声データに基づいて、前記音源の方向を特定してもよい。 In another preferred embodiment, the sound collecting means has a plurality of microphones, and the sound source direction specifying means adds each sound data generated when the plurality of microphones pick up sounds from the sound sources. Based on this, the direction of the sound source may be specified.
また、別の好ましい態様において、前記映像切り出し手段は、前記送信レートに基づいて、データ量を低減するように圧縮した第3の映像データを生成してもよい。 In another preferable aspect, the video cutout unit may generate third video data compressed so as to reduce a data amount based on the transmission rate.
また、別の好ましい態様において、前記映像切り出し手段は、前記送信レートに基づいて、データ量を低減するように圧縮した第2の映像データを生成してもよい。 In another preferable aspect, the video cutout unit may generate second video data compressed so as to reduce a data amount based on the transmission rate.
また、別の好ましい態様において、前記他の通信装置からエリアを示す情報と当該エリアに対応する映像データとを受信する受信手段と、前記受信手段が前記エリアを示す情報と前記映像データを受信したときに、その直前の映像データを再生して得られる映像の前記受信したエリアに対応する範囲に対して、前記受信した映像データを再生して得られる映像が上書きされて表示されるようにして、第4の映像データを生成する映像データ生成手段とをさらに具備してもよい。 In another preferred embodiment, receiving means for receiving information indicating an area and video data corresponding to the area from the other communication device, and receiving means receives the information indicating the area and the video data. Sometimes, the video obtained by reproducing the received video data is overwritten and displayed on the range corresponding to the received area of the video obtained by reproducing the video data immediately before. And a video data generating means for generating the fourth video data.
本発明によれば、画像データの送受信を行っても音声が途切れにくい通信装置を提供することができる。 According to the present invention, it is possible to provide a communication device in which sound is hardly interrupted even when image data is transmitted and received.
以下、本発明の一実施形態について説明する。 Hereinafter, an embodiment of the present invention will be described.
<実施形態>
図1は、本発明の本実施形態に係る通信装置を含む通信システム1の構成を示すブロック図である。通信システム1は、通信装置100aと通信装置100bと通信網10とを有し、通信装置100aおよび通信装置100bは、通信網10に有線接続または無線接続されている。通信装置100aおよび通信装置100bは同じ構成であって、以下、通信装置100aおよび通信装置100bを区別する必要が無いときには、両者を通信装置100という。なお、ここでは2台の通信装置100が通信網10に接続されているが、3台以上の通信装置100が接続されていてもよい。
<Embodiment>
FIG. 1 is a block diagram showing a configuration of a communication system 1 including a communication apparatus according to this embodiment of the present invention. The communication system 1 includes a
本実施形態では、通信プロトコルとして以下に述べる各通信プロトコルが用いられている。アプリケーション層の通信プロトコルとして、音声データおよび映像データの転送にはRTP(Real−time Transport Protocol)が用いられている。RTPとは、音声データや映像データをend−to−endでリアルタイムに送受信する通信サービスを提供するための通信プロトコルであり、その詳細はRFC1889に規定されている。RTPにおいては、RTPパケットを生成し送受信することにより通信装置同士でデータの授受が行われる。また、トランスポート層の通信プロトコルとしては、UDP(User Datagram Protocol)が用いられており、ネットワーク層の通信プロトコルとしてはIP(Internet Protocol)が用いられている。上記の通信装置100aおよび通信装置100bには、それぞれにIPアドレスが割り振られており、ネットワーク上で一元的に識別される。なお、UDPおよびIPについては、一般に広く用いられている通信プロトコルであるため説明を省略する。
In this embodiment, each communication protocol described below is used as a communication protocol. As a communication protocol for the application layer, RTP (Real-time Transport Protocol) is used for transferring audio data and video data. RTP is a communication protocol for providing a communication service for transmitting and receiving audio data and video data in end-to-end in real time, and details thereof are defined in RFC1889. In RTP, data is exchanged between communication devices by generating and transmitting / receiving RTP packets. Further, UDP (User Datagram Protocol) is used as a transport layer communication protocol, and IP (Internet Protocol) is used as a network layer communication protocol. The
次に、通信装置100の構成について説明する。図2は、通信装置100の構成を示すブロック図である。なお、以下の説明において、通信装置100の構成が通信装置100aまたは通信装置100bのいずれかに属するものであるかを区別する必要があるときには、通信装置100aのCPU101をCPU101aのようにアルファベットを付して記載する。
Next, the configuration of the
CPU101は、ROM(Read Only Memory)102に記憶されているプログラムを読み出して、RAM(Random Access Memory)103にロードして実行することにより、通信装置100の各部について、バス110を介して制御する。RAM103は、さらに音声入力部104から出力された音声データ、映像入力部105から出力された映像データ、通信網10を介して受信した音声データ、映像データなどを記憶する。また、CPU101が記憶された各データの加工などを行う際のワークエリアとして機能する。
The
音声入力部104は、マイクアレイとA/Dコンバータを有する。A/Dコンバータは、マイクアレイから入力されたアナログ信号の音声信号をアナログデジタル変換してデジタル信号の音声データを生成する。マイクアレイは、水平方向に並んだ複数のマイクロフォンを有している。CPU101は、ある音源からの放音を複数のマイクロフォンで収音することによって、それぞれ生成された音声データを解析し、各マイクロフォンへの音の到達時間のずれを計算して、音源の位置について通信装置100から見た場合の水平方向の角度として特定することができる。
The
例えば、図3に示すように、特定の音源Sからの放音を4台のマイクロフォン1041、1042、1043、1044によって収音した場合、音源Sから各マイクロフォン1041、1042、1043、1044までの距離の違いから、音の到達時間がずれることになる。例えば、音源Sからマイクロフォン1041までの距離はマイクロフォン1044までの距離よりdだけ長いので、マイクロフォン1041は、音源Sから放出された音をマイクロフォン1044よりd/v(v:音速)だけ遅く収音する。すなわち、CPU101は、音声入力部104から出力された音声データを解析し、この時間のずれを計算することにより、音源Sから各マイクロフォン1041、1042、1043、1044までの距離の違いをそれぞれ算出できることになり、音源Sの位置について水平方向の角度θを特定することができる。ここで、θは、水平方向に並んだ複数のマイクロフォンと垂直な方向M(本実施形態においては、通信装置100の正面方向)を0度として規定されている。なお、音源Sの方向だけでなく、距離についても算出することは可能であるが、本実施形態においては、方向のみ特定するものとする。また、複数の音源から放音されていても、それぞれの音源の方向を特定することが可能であるが、本実施形態においては、最も音量の大きい方向を音源の方向として特定する。
For example, as shown in FIG. 3, when sound emitted from a specific sound source S is collected by four
映像入力部105は、CCDやCMOSなどのイメージセンサを有し、イメージセンサによって所定の画像サイズ(ピクセル数)および単位時間あたりのフレーム数で撮影し、映像データを生成する。本実施形態においては、映像入力部105のイメージセンサと音声入力部104のマイクロフォンは、通信装置100に固定されている。このように固定することにより、イメージセンサの撮影範囲に存在する音源とCPU101が特定する音源の方向との位置関係が保たれることになる。例えば、図4に示すように、水平方向の角度θはイメージセンサの撮影範囲の中心方向Mを0度し、図中の右側については正の値、左側は負の値とする。ここで、図4は、イメージセンサの撮影範囲について、水平に並んだ複数のマイクロフォンを含む面によって切ったときの断面図であり、図中の右側は以下に示す表示部107に映像を表示したときには、画面の右側に表示される。
The
操作部106は、例えばキーボードやマウスなどであり、通信装置100の操作者が操作部106を操作すると、その操作内容を表すデータがCPU101へ出力される。
The
表示部107は、映像を画面に表示する液晶ディスプレイなどの表示デバイスであって、入力された映像データに基づいて表示を行う。
The
音声出力部108は、入力された音声データを放音するものであって、スピーカとD/Aコンバータを有している。D/Aコンバータは、入力されたデジタル信号の音声データをデジタルアナログ変換してアナログ信号の音声信号を生成しスピーカへ出力する。スピーカは、入力された音声信号を放音する。
The
通信IF(インタフェイス)109は、例えば、NIC(Network Interface Card)であり、通信網10に接続されている。この通信IF109は、送信すべき音声データ及び映像データなどの各種データについてのRTPパケットを生成し、下位層の通信プロトコルにしたがって順次カプセル化することにより得られるIPパケットを通信網10へ送信する。なお、カプセル化とは、上記RTPパケットをペイロード部に書き込んだUDPパケットを生成し、さらに、そのUDPパケットをペイロード部に書き込んだIPパケットを生成することである。また、通信IF109は、通信網10からIPパケットを受信し、上記カプセル化とは逆の処理を行うことにより、そのIPパケットにカプセル化されているRTPパケットを読み出したデータをCPU101に出力する。
The communication IF (interface) 109 is, for example, a NIC (Network Interface Card) and is connected to the
ここで、音声データ及び映像データのRTPパケット化について説明する。RTPパケットは、IPにおけるデータ転送単位であるパケットと同様に、ペイロード部に対してヘッダ部が付与され構成されている。 Here, RTP packetization of audio data and video data will be described. The RTP packet is configured by adding a header portion to the payload portion, similarly to a packet that is a data transfer unit in IP.
ヘッダ部には、タイムスタンプ、ペイロードタイプ、シーケンス番号、およびエリア情報の4種類のデータがセットされる。ここで、タイムスタンプとは、時刻(通信の開始を指示がなされてから経過した時間)を示すデータである。ペイロードタイプとは、通信メッセージの種別をその通信メッセージの宛先に識別させるためのデータである。本実施形態で利用されるメッセージ種別には、映像データ送信メッセージ、音声データ送信メッセージ、テストデータ送信メッセージ、受信通知メッセージの4種類がある。そして、これらのメッセージに対して、ペイロードタイプには、それぞれ「1」、「2」、「3」、「4」の4種類の数字が書き込まれる。シーケンス番号とは、各パケットを一意に識別するための識別子であり、例えば1つの音声データが複数のRTPパケットに分割されて送信される際に、各パケットに対して1、2、3、・・・のようにシーケンス番号が付与される。エリア情報とは、映像データ送信メッセージの際に、当該RTPパケットに含まれる映像データがどのエリアに該当する映像であるかを規定する情報であり、そのエリアを示す座標の情報が書き込まれる。エリアについては、パーソナルエリア、アクティブエリア、オールエリアがあるが、その詳細は後述する。 In the header part, four types of data including time stamp, payload type, sequence number, and area information are set. Here, the time stamp is data indicating the time (the time elapsed since the start of communication was instructed). The payload type is data for identifying the type of communication message to the destination of the communication message. There are four types of messages used in this embodiment: a video data transmission message, an audio data transmission message, a test data transmission message, and a reception notification message. For these messages, four types of numbers “1”, “2”, “3”, and “4” are written in the payload type, respectively. The sequence number is an identifier for uniquely identifying each packet. For example, when one voice data is divided into a plurality of RTP packets and transmitted, 1, 2, 3,.・ Sequence numbers are given as shown below. The area information is information that defines which area the video data included in the RTP packet corresponds to in the video data transmission message, and information on coordinates indicating the area is written. The area includes a personal area, an active area, and an all area, details of which will be described later.
ペイロード部には、例えば映像データ送信メッセージ、音声データ送信メッセージにおいては、それぞれ所定時間分の映像データ、音声データが書き込まれる。また、テストデータ送信メッセージにおいてはテストデータ、受信通知メッセージにおいては、受取ったパケットのシーケンス番号が書き込まれる。テストデータ送信メッセージ、受信通知メッセージについての説明は後述する。 For example, in the video data transmission message and the audio data transmission message, video data and audio data for a predetermined time are written in the payload portion, respectively. Further, test data is written in the test data transmission message, and in the reception notification message, the sequence number of the received packet is written. The test data transmission message and the reception notification message will be described later.
次に、通信システム1を用いて遠隔会議を行う際に、通信装置100のCPU101が、ROM102に記憶されているプログラムを実行することにより実現する動作について説明する。
Next, an operation realized when the
ここで、本実施形態においては、部屋aと部屋bとの間において遠隔会議が行われ、部屋aには通信装置100aが設置され、5名の参加者201、202、・・・、205が会議に参加しており、部屋bには通信装置100bが設置され、3名の参加者301、302、303が会議に参加しているものとする。そして、それぞれの通信装置100は、映像入力部105のイメージセンサによって机200、300付近に座っている参加者を撮影するように設置されている。ここで、図5は、通信装置100aの映像入力部105aの撮影対象を示している図であり、この撮影範囲の映像データが通信装置100bに送信されることにより、通信装置100bの表示部107bに表示される映像となる。図6は通信装置100bの映像入力部105bの撮影対象を示している図であり、この撮影範囲の映像データが通信装置100aに送信されることにより、通信装置100aの表示部107aに表示される映像となる。
Here, in the present embodiment, a remote conference is performed between the room a and the room b, the
まず、遠隔会議の開始前にパーソナルエリアの設定が行われる。ここで、パーソナルエリアの設定について図5、図6を用いて説明する。部屋aの参加者は、表示部107aの映像を確認しながら操作部106aを操作して、部屋bにいる参加者の位置を指定する。この際、通信装置100aは、撮影して生成した映像データを加工せずに通信装置100bに送信してもよいし、単位時間当たりのフレーム数を削減することにより、静止画に近い状態で送信してもよい。この位置の指定は、図6の破線で示したように、表示部107aに表示されている参加者301、302、303を四角で囲むようにして行われる。CPU101aは、このそれぞれの四角の範囲をそれぞれのパーソナルエリアとして認識する。この際、CPU101aは、パーソナルエリアを四角の左上と右下の点の座標(ピクセル単位)によって認識する。これは、画面の位置をピクセル数で表した際に、画面の左上を(0,0)として、その点から右にxピクセル、下にyピクセル移動した点が(x,y)とした場合に、左上の座標(xL,yL)と右下の座標(xR,yR)として、1つのパーソナルエリアが認識される。以下、画面の右方向をx方向とし、その座標をx座標、下方向をy方向とし、その座標をy座標という。
First, the personal area is set before the start of the remote conference. Here, the setting of the personal area will be described with reference to FIGS. The participant in the room a operates the operation unit 106a while confirming the video on the display unit 107a, and designates the position of the participant in the room b. At this time, the
そして、通信装置100aのCPU101aは、通信装置100bに対して認識した3つのパーソナルエリアに関する情報を送信して、通信装置100bの映像入力部105bの撮影範囲におけるパーソナルエリアの位置をCPU101bに認識させる。部屋bについても、部屋aと同様に通信装置100bの操作が行われ、通信装置100aの映像入力部105aの撮影範囲におけるパーソナルエリアの位置をCPU101aに認識させる。以下、参加者201に対応するパーソナルエリアはPSA201、参加者202に対応するパーソナルエリアはPSA202として表記し、他の参加者に対応するパーソナルエリアも同様にして表記し、PSA201の左上の座標は(xL201,yL201)とし、右下の座標は(xR201,yL201)という。また、各参加者で区別する必要が無い場合は、単にパーソナルエリアといい、左上の座標は(xL,yL)、右下の座標は(xR,yR)というものとする。
Then, the CPU 101a of the
次に、各通信装置100のCPU101は、認識したパーソナルエリアを複数組み合わせて、以下に説明するようなアクティブエリアを生成して認識するとともに、撮影範囲全体をオールエリアとして認識する。アクティブエリアは、複数のパーソナルエリアを含み、かつ最小の大きさになる四角の範囲によって生成される。すなわち、アクティブエリアの左上の座標は、複数のパーソナルエリアの左上の座標のうち最小のxL(xLmin)と最小のyL(yLmin)によって決まり、右下の座標は、同パーソナルエリアの右下の座標のうち最大のxR(xRmax)とyR(yRmax)によって決まることにより、アクティブエリアの左上の座標は(xLmin,yLmin)、右下の座標は(xRmax,yRmax)となる。
Next, the
ここで、画面上の全てのパーソナルエリアを含むアクティブエリアをオールアクティブエリアといい、図5、図6の2点鎖線で表した部分に該当する。図5の場合は、左上の座標(xLmin,yLmin)は(xL201,yL203)、右下の座標(xRmax,yRmax)は(xR205,yR201)となる。なお、アクティブエリアは、近接する2つのパーソナルエリアを始めとして、様々なパーソナルエリアの組み合わせによって生成することができるが、本実施形態においては、アクティブエリアはオールアクティブエリアのみが、CPU101によって生成されて認識されているものとし、以下では、オールアクティブエリアについてもアクティブエリアという。
Here, an active area including all personal areas on the screen is referred to as an all active area, and corresponds to a portion represented by a two-dot chain line in FIGS. In the case of FIG. 5, the upper left coordinates (xLmin, yLmin) are (xL201, yL203), and the lower right coordinates (xRmax, yRmax) are (xR205, yR201). The active area can be generated by a combination of various personal areas including two adjacent personal areas. However, in the present embodiment, only the all active area is generated by the
オールエリアについては、撮影範囲全体であるため、左上の座標は(0,0)、右下の座標は(xmax,ymax)となる。ここで、xmaxは撮影範囲全体のx方向のピクセル数から1引いた数字、ymaxは撮影範囲全体のy方向のピクセル数から1引いた数字となり、撮影範囲のピクセル数が640×480である場合には、xmax=639、ymax=479となる。これにより、各通信装置100の各CPU101は、各通信装置100が設置された部屋についてのオールエリア、アクティブエリア、および各パーソナルエリアを座標として認識することになる。なお、パーソナルエリアが複数存在しない場合には、アクティブエリアはパーソナルエリアと同一として扱えばよい。
Since the entire area is the entire photographing range, the upper left coordinates are (0, 0) and the lower right coordinates are (xmax, ymax). Here, xmax is a number obtained by subtracting 1 from the number of pixels in the x direction of the entire shooting range, ymax is a number obtained by subtracting 1 from the number of pixels in the y direction of the entire shooting range, and the number of pixels in the shooting range is 640 × 480. In this case, xmax = 639 and ymax = 479. As a result, each
パーソナルエリアの設定が終了すると、映像データと音声データの通信が開始される。音声データについては、音声データ送信メッセージとして、通信IF109によって、IPパケット化されて送信される。映像データに関しては、映像データ送信メッセージとして、通信IF109によって、IPパケット化されて送信されるが、ネットワークの利用可能帯域幅によって送信方法が異なる。以下、映像データの送信について、通信装置100aが通信装置100bに送信を行う場合を例として図7のフローチャートを用いて説明する。なお、通信装置100bから通信装置100aに送信を行うときについては、以下の説明と同様に行われるため説明を省略する。
When the setting of the personal area is completed, communication between video data and audio data is started. The voice data is transmitted as a voice data transmission message after being converted into an IP packet by the communication IF 109. The video data is transmitted as a video data transmission message in the form of IP packets by the communication IF 109, but the transmission method differs depending on the available bandwidth of the network. Hereinafter, transmission of video data will be described using the flowchart of FIG. 7 as an example of a case where the
映像データの送信が開始されると、まず、通信装置100aのCPU101aは、通信IF109aを介して、通信装置100bに対してオールエリアの映像データを送信する(S100)。この映像データの送信は、静止画としての認識ができる程度でよいので、1フレーム分だけでもよい。次に、通信装置100aは、利用可能帯域幅測定を行う(S110)。
When transmission of video data is started, first, the CPU 101a of the
ここで、利用可能帯域幅測定について説明する。利用可能帯域幅測定とは、通信装置100aが通信網10を介して通信装置100bと通信を行う際に、その通信網10にて利用することのできる最大の通信帯域幅の測定を行うことをいう。まず、CPU101aは、パケットを送信する際の送信間隔を決定する。次に、CPU101aは、映像データと同等なテストデータを生成し、通信IF109aは、テストデータがRTPパケットのペイロード部に書き込まれた複数のテストデータ送信メッセージが、それぞれカプセル化されることにより複数のIPパケットとして生成され、決定した送信間隔において各IPパケットを通信装置100bに送信する。このとき、CPU101aは、送信した各RTPパケットのシーケンス番号をRAM103aに記憶させる。
Here, the available bandwidth measurement will be described. The available bandwidth measurement is to measure the maximum communication bandwidth that can be used in the
通信装置100bのCPU101bは、テストデータ送信メッセージの受信を認識したら、通信IF109bにおいて受信した各パケットのシーケンス番号が書き込まれた受信通知メッセージが、IPパケットとして生成され、通信装置100aに送信される。通信装置100aのCPU101aは、受信した受信通知メッセージと送信したテストデータ送信メッセージから、テストデータの送信におけるパケットロスの発生率(受信されなかったパケット数/送信したパケット数)を算出する。
When the CPU 101b of the
そしてパケットロスが所定の発生率未満であった場合は、送信間隔を短くして同様の処理を行うことにより、パケットロスの発生率を再度算出する。逆に所定の発生率以上であった場合には、送信間隔を長くして同様の処理を行うことにより、パケットロスの発生率を再度算出する。ここで、送信間隔が短くなると単位時間当たりの送信データ量すなわち送信レートは大きくなる一方、送信間隔が長くなると送信レートは小さくなる。そして、利用可能な帯域幅に比較して送信レートが小さい場合にはパケットロスの発生率は少なく、送信レートが利用可能な帯域幅に対して大きくなるに従って、パケットロスの発生率が高くなる。そのため、パケットロスが多く発生する場合には、通信帯域幅を大きく超えていることを意味する。これらの処理を行って、パケットロスが所定の発生率未満になる最短の送信間隔を決定することにより、利用可能な帯域幅の送信レートを算出することができる。 If the packet loss is less than the predetermined occurrence rate, the packet loss occurrence rate is recalculated by shortening the transmission interval and performing the same processing. On the other hand, if it is equal to or higher than the predetermined occurrence rate, the packet loss occurrence rate is calculated again by increasing the transmission interval and performing the same processing. Here, when the transmission interval is shortened, the transmission data amount per unit time, that is, the transmission rate is increased. On the other hand, when the transmission interval is increased, the transmission rate is decreased. When the transmission rate is smaller than the available bandwidth, the rate of occurrence of packet loss is small, and the rate of occurrence of packet loss increases as the transmission rate increases with respect to the available bandwidth. Therefore, if a lot of packet loss occurs, it means that the communication bandwidth is greatly exceeded. By performing these processes and determining the shortest transmission interval at which the packet loss is less than the predetermined occurrence rate, the transmission rate of the available bandwidth can be calculated.
以下、図7のフローチャートに戻って説明を続ける。CPU101aは、利用可能帯域幅測定を行って、通信網10において利用可能な送信レートの最大値を算出する(S110)。 Hereinafter, the description will be continued by returning to the flowchart of FIG. The CPU 101a measures the available bandwidth and calculates the maximum value of the transmission rate that can be used in the communication network 10 (S110).
次に、送信する映像データとして、どのエリアの映像を送信するかを決定する。まず、CPU101aは、オールエリアに対応する映像データが、算出した送信レートにおいて送信できるデータ量であるかを判断する(S120)。送信できるデータ量である場合には、RTPパケットのヘッダ部にあるエリア情報に、オールエリアに対応する座標を書き込み、また、オールエリアの映像データをペイロード部に書き込んだ映像データ送信メッセージとして、通信IF109aを介して通信装置100bへ送信する(S121)。そして、この映像データの送信は、一定時間続けられる。
Next, it is determined which area of video to transmit as video data to be transmitted. First, the CPU 101a determines whether the video data corresponding to the all area has a data amount that can be transmitted at the calculated transmission rate (S120). When the amount of data can be transmitted, the coordinates corresponding to the all area are written in the area information in the header part of the RTP packet, and the video data transmission message in which the video data of the all area is written in the payload part is communicated. The data is transmitted to the
一方、送信できないデータ量である場合には、CPU101aは、アクティブエリアに対応する映像データのみを切り出した場合に、算出した送信レートにおいて送信できるデータ量であるかを判断する(S130)。送信できる場合には上記同様、アクティブエリアに対応する座標をRTPパケットのヘッダ部にあるエリア情報に書き込み、CPU101aが切り出したアクティブエリアに対応する映像データをペイロード部に書き込んだ映像データ送信メッセージとして、通信IF109aを介して通信装置100bへ送信する(S131)。そして、この映像データの送信は、一定時間続けられる。
On the other hand, when the data amount cannot be transmitted, the CPU 101a determines whether the data amount can be transmitted at the calculated transmission rate when only the video data corresponding to the active area is cut out (S130). If transmission is possible, as described above, the coordinates corresponding to the active area are written in the area information in the header part of the RTP packet, and the video data corresponding to the active area cut out by the CPU 101a is written as the video data transmission message in the payload part. The data is transmitted to the
さらに、アクティブエリアに対応する映像データであっても送信できないデータ量である場合には、CPU101aは、さらにデータ量の少ないパーソナルエリアに対応する映像データでの送信を試みるが、パーソナルエリアが複数存在するため、まずパーソナルエリアの選定を行う(S140)。これは、部屋aの参加者のうち、話をしている参加者(以下、話者という)に対応するパーソナルエリアを選定することによって行われる。これは、上述したように、音声入力部104aのマイクアレイが話者の声を収音して、その音声データをCPU101aが解析して、話者の方向(水平方向の角度θ)を特定し、パーソナルエリアの座標と対応させて、話者に対応するパーソナルエリアを選定する。 Further, if the video data corresponding to the active area has a data amount that cannot be transmitted, the CPU 101a tries to transmit video data corresponding to the personal area with a smaller data amount, but there are a plurality of personal areas. In order to do this, first, a personal area is selected (S140). This is performed by selecting a personal area corresponding to a participant who is speaking (hereinafter referred to as a speaker) among the participants in the room a. As described above, the microphone array of the voice input unit 104a picks up the voice of the speaker, and the CPU 101a analyzes the voice data to specify the direction of the speaker (the angle θ in the horizontal direction). The personal area corresponding to the speaker is selected in correspondence with the coordinates of the personal area.
ここで、水平方向の角度θとパーソナルエリアの座標との対応は、以下のように行われる。水平方向の角度θは、水平方向のみを示しているため、角度θを水平方向の座標であるx座標に変換することができる。この変換について図8を用いて説明する。図8は、y方向から見た撮影範囲を示したものである。αは映像入力部105のイメージセンサの受光面であり、焦点Fは撮影範囲の端部と受光面αの端部をそれぞれ結んだときの交点を示している。受光面αの左端の点Oはx座標の原点であり、右端の点のx座標はxmaxである。マイクアレイを用いて特定した話者の水平方向の角度θは、本実施形態に置いては、焦点Fから受光面αへの垂線FMからの角度とほぼ同じになっている。ここで、焦点Fから話者の方向への直線は、受光面α上の点Pと交わり、その座標xsはxm+fa×tanθとして計算できる。xmは受光面の中心Mの座標(xm=xmax/2)であり、faは中心Mと焦点Fの距離である。CPU101aは、このようにして得られた座標xsと各パーソナルエリアの座標xL、xRとを比較し、xsがxLとxRの間になるパーソナルエリアを選定する。例えば、xsがxL204以上xR204以下であれば、PSA204が選定されることになる。
Here, the correspondence between the horizontal angle θ and the coordinates of the personal area is performed as follows. Since the angle θ in the horizontal direction indicates only the horizontal direction, the angle θ can be converted into an x coordinate that is a coordinate in the horizontal direction. This conversion will be described with reference to FIG. FIG. 8 shows the photographing range viewed from the y direction. α is a light receiving surface of the image sensor of the
図7に戻って説明を続ける。CPU101aは、上述のようにパーソナルエリアの選定した後、選定されたパーソナルエリアに対応する映像データのみを切り出した場合に、算出した送信レートにおいて送信できるデータ量であるかを判断する(S150)。送信できるデータ量である場合には上記同様、当該パーソナルエリアに対応する座標をRTPパケットのヘッダ部にあるエリア情報に書き込み、CPU101aが切り出した当該パーソナルエリアに対応する映像データをペイロード部に書き込んだ映像データ送信メッセージとして、通信IF109aを介して通信装置100bへ送信する(S151)。そして、この映像データの送信は、一定時間続けられる。
Returning to FIG. 7, the description will be continued. After selecting the personal area as described above, the CPU 101a determines whether the data amount can be transmitted at the calculated transmission rate when only the video data corresponding to the selected personal area is cut out (S150). When the amount of data that can be transmitted is the same as above, the coordinates corresponding to the personal area are written in the area information in the header part of the RTP packet, and the video data corresponding to the personal area cut out by the CPU 101a is written in the payload part. The video data transmission message is transmitted to the
さらに、パーソナルエリアに対応する映像データであっても送信できないデータ量である場合には、CPU101aは、算出した送信レートにおいて送信できるデータ量までパーソナルエリアの映像データを圧縮してデータ量を低減し、当該パーソナルエリアに対応する座標をRTPパケットのヘッダ部にあるエリア情報に書き込み、当該パーソナルエリアに対応する圧縮された映像データをペイロード部に書き込んだ映像データ送信メッセージとして、通信IF109aを介して、通信装置100bへ送信する(S160)。そして、この映像データの送信は、一定時間続けられる。ここで、映像データの圧縮は、フレーム数の削減、ピクセル数の間引き、色数、階調数の低減などを行うことによって行われる。このような映像データを送信して、後述するようにして通信装置100bの表示部107bに表示させると、見た目にも大きく変化することになり、利用可能な帯域幅が狭くなっていることが、視覚的に参加者が判断することもできる。
Further, if the amount of video data corresponding to the personal area cannot be transmitted, the CPU 101a reduces the amount of data by compressing the video data in the personal area to the amount of data that can be transmitted at the calculated transmission rate. The coordinates corresponding to the personal area are written in the area information in the header part of the RTP packet, and the compressed video data corresponding to the personal area is written in the payload part as a video data transmission message via the communication IF 109a. It transmits to the
これらの処理によって、利用可能帯域幅測定によって得られた適切な送信レートで送信できるデータ量の映像データを送信することができるが、送信する映像データのデータ量が変化したときには、RTPパケット生成時に、ペイロード部に書き込む映像データの量を変化させて、パケットの送信間隔が同じになるようにしてもよいし、ペイロード部に書き込む映像データの量は同じにして、送信間隔を変化させてもよいし、ペイロード部に書き込む映像データの量を変化させ、さらに送信間隔を変化させてもよい。これらの選択は、RTPパケット生成時に、CPU101aが最適な方法を選択すればよい。 With these processes, it is possible to transmit video data having a data amount that can be transmitted at an appropriate transmission rate obtained by measuring the available bandwidth, but when the data amount of the video data to be transmitted changes, the RTP packet is generated. The amount of video data written in the payload portion may be changed so that the packet transmission interval is the same, or the amount of video data written in the payload portion may be the same and the transmission interval may be changed. Then, the amount of video data written in the payload portion may be changed, and the transmission interval may be changed. For these selections, the CPU 101a may select an optimum method when generating the RTP packet.
そして、映像データが一定時間送信された後に、CPU101aは、通信終了かどうか判断(S170)し、通信終了でない場合は、再び利用可能帯域幅測定(S110)から処理を行う。通信終了である場合は、映像データの送信を停止する。この通信終了かどうかについては、いずれかの部屋の参加者が通信装置100の操作部106を操作して、通信を終了させる指示をだしたかどうかによって判断する。
Then, after the video data is transmitted for a certain time, the CPU 101a determines whether or not the communication is finished (S170). If the communication is not finished, the CPU 101a performs the processing from the available bandwidth measurement (S110) again. If the communication is terminated, transmission of video data is stopped. Whether or not the communication is terminated is determined by whether or not a participant in any room has operated the
以上、映像データの送信方法について説明したが、通信装置100aから送信された映像データを通信装置100bが受信して、表示部107bに表示するまでの説明を行う。
Although the video data transmission method has been described above, a description is given from the time when the
まず、通信が開始されると、通信装置100bは、オールエリアの映像データを受信し、CPU101bは、その映像を表示部107bに表示させる。その後、通信装置100bは、順次映像データを受信する。ここで、CPU101bは、RTPパケットのヘッダ部にあるエリア情報に書き込まれている左上、右下の座標を読み取ることにより、画面上のどのエリアに該当する映像データであるかを認識する。
First, when communication is started, the
そして、CPU101bは、直前の映像データ(最後のフレームの画像に相当)をRAM103bに記憶させ、送信されてきたデータの映像データを認識した画面上のエリアに位置するようにして、RAM103bに記憶した直前の映像データに合成して新たな映像データを生成し、この生成した映像データを表示部107bに出力し、表示部107bに映像を表示させる。そして、通信装置100aからIPパケットを受信する度に順次この処理が行われる。
Then, the CPU 101b stores the previous video data (corresponding to the image of the last frame) in the RAM 103b, and stores it in the RAM 103b so as to be positioned in the area on the screen where the video data of the transmitted data is recognized. New video data is generated by combining with the previous video data, the generated video data is output to the display unit 107b, and the video is displayed on the display unit 107b. This process is sequentially performed every time an IP packet is received from the
このようにすると、表示部107bには、その直前まで表示されていた映像を停止した後に、認識した座標に該当する部分のみに映像が上書きするようにして表示される。例えば、オールエリアの映像を表示しているときに、パーソナルエリアのPSA202に該当する映像データを受信した場合には、オールエリアの映像を停止(そのとき再生していたフレームの映像の静止画となる)し、停止したオールエリアの映像に上書きしてPSA202に該当する部分の映像を再生する。すなわち、PSA202以外の部分については、映像が停止したまま、静止画のようになっている。このようにして、通信装置100bの表示部107bには、送信されてきたエリア情報に該当する部分の映像が、直前の映像を順次上書きしながら表示される。
If it does in this way, after stopping the image | video currently displayed until just before that, it will be displayed so that an image | video may be overwritten only to the part applicable to the recognized coordinate. For example, when the video data corresponding to the
以上、通信装置100aから通信装置100bへ、映像データを送信した場合について説明したが、これらの処理は、通信装置100bから通信装置100aに対しても行われ、通信装置100aと通信装置100bとの間において双方向で行われることになる。そして、音声入力部104において収音されて生成された音声データについても、映像データと並行して双方向に通信が行われる。
The case where video data is transmitted from the
このようにして、通信装置100は、通信網10における利用できる帯域幅を測定し、算出した送信レートにあったデータ量の映像データであるエリアを選定して行う送信について、通信装置100aと通信装置100bが双方向に通信を行い、順次受信した映像データを直前の映像に上書きするようにして表示することにより、並行して行われる音声データの通信においてパケットロスを少なくして音声の欠落を減らすことができ、遠隔会議を効率よく行うことができる。
In this way, the
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。 As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
<変形例1>
実施形態においては、音声入力部104が、複数の話者からの放音を収音した場合には、CPU101aは、最大の音量の方向を話者の方向として計算したが、それぞれの話者の方向を計算してもよい。この場合は、CPU101aは、パーソナルエリアの選定を複数行うことになるが、当該複数のパーソナルエリアの部分をそれぞれ抜き出した映像データを送信すればよい。なお、複数のパーソナルエリアに係る映像データを送信する代わりに、上述したような方法で当該複数のパーソナルエリアからアクティブエリアを生成し、当該アクティブエリアの部分を抜き出した映像データを送信するようにしてもよい。このようにすると、複数の話者がいても対応可能であり、さらにCPU101aによって算出された送信レートにあわせた映像データの送信を行うことができる。
<Modification 1>
In the embodiment, when the
<変形例2>
実施形態においては、参加者が設定したパーソナルエリアについては、x座標の範囲が重複しないように設定されていたが、重複するように設定してもよい。例えば、図9に示すように、PSA202とPSA203において重複する場合、すなわちxR202よりxL203が小さくなる場合には、重複部分の中心のx座標(xR202+xL203)/2として、CPU101aは、PSA202とPSA203の境界を認識すればよい。なお、中心部分で分けずに、この重複部分に話者がいると計算された場合は、図中の2点鎖線のように、CPU101aは、PSA202とPSA203からアクティブエリアを生成し、当該アクティブエリアに係る映像データを送信するようにしてもよい。このようにすれば、参加者が多い場合に、パーソナルエリアの設定が困難であっても、実施形態と同様な効果を得ることができる。
<Modification 2>
In the embodiment, the personal area set by the participant is set so that the x-coordinate ranges do not overlap, but may be set so as to overlap. For example, as shown in FIG. 9, when
<変形例3>
実施形態においては、音声入力部104にはマイクアレイを用い、これを利用して話者の方向をCPU101が計算していたが、マイクアレイの代わりにそれぞれ参加者の前にマイクロフォンを用意し、これらのマイクロフォンの収音によって生成された音声データの音量からCPU101が話者を特定するようにしてもよい。この場合は、各マイクロフォンとパーソナルエリアの対応を参加者が操作部106を操作して、CPU101に認識させればよい。このようにすると、より正確な話者の位置を特定することができる。
<Modification 3>
In the embodiment, the
<変形例4>
実施形態においては、RTPパケットのヘッダ部にあるエリア情報には、送信する映像データの座標の情報を書き込まれていたが、座標ではなく、各エリアを番号によって置き換えた数値を書き込まれるようにしてもよい。この場合には、各通信装置100において、パーソナルエリアの座標の情報を送受信する際に、各パーソナルエリアに対応させてエリア番号を付加して送受信するようにすればよい。このようにすると、RTPパケットのデータ量を削減することができ、通信網10の負荷を低減することができる。
<Modification 4>
In the embodiment, the coordinate information of the video data to be transmitted is written in the area information in the header part of the RTP packet, but instead of the coordinates, a numerical value obtained by replacing each area with a number is written. Also good. In this case, in each
<変形例5>
実施形態においては、アクティブエリアは、全てのパーソナルエリアからなるオールアクティブエリアのみとしていたが、パーソナルエリアに偏りがある場合には、その偏りに応じた一群のパーソナルエリアからアクティブエリア生成してもよい。例えば、図5に示すような参加者の配置の場合には、左右それぞれを一群のパーソナルエリアとして、PSA201、PSA202、PSA203からアクティブエリアLを生成し、PSA204、PSA205からアクティブエリアRを生成する。そして、映像データ送信時において、話者の方向に該当するパーソナルエリアがPSA202であると選定された場合には、CPU101aは、PSA202に係る映像データを送信する前に、PSA202を含むアクティブエリアであるアクティブエリアLに係る映像データのデータ量でも送信できるかどうか、算出した送信レートから判断し、送信可能であればPSA202に係る映像データを送信する代わりに、アクティブエリアLに係る映像データを送信するようにすればよい。このようにすると、オールアクティブエリアに係る映像データではデータ量が多く、パーソナルエリアに係る映像データではデータ量が少なすぎる場合に、中間のデータ量をもつエリアに係る映像データを送信することができ、受信側の表示品位を高く保つことができる。
<Modification 5>
In the embodiment, the active area is only the all active area including all personal areas. However, if there is a bias in the personal area, the active area may be generated from a group of personal areas corresponding to the bias. . For example, in the case of the arrangement of participants as shown in FIG. 5, the left and right sides are set as a group of personal areas, the active area L is generated from the
<変形例6>
実施形態においては、部屋aの参加者に係るパーソナルエリアの設定は、部屋bの参加者によって行われたが、部屋aの参加者が自ら設定するようにしてもよい。この場合は、パーソナルエリア設定時において通信装置100aの映像入力部105aが撮影した映像データを通信装置100aの表示部107aに表示させることによって、部屋aの参加者は自らの映像を確認しながら設定することができる。ここで、設定を行いやすくするために映像を左右反転して、表示部107aに表示された映像が鏡を見ているような感覚になるようにすれば、参加者は設定を簡易に行うことができる。
<Modification 6>
In the embodiment, the setting of the personal area related to the participant in the room a is performed by the participant in the room b. However, the participant in the room a may set the personal area. In this case, when the personal area is set, the video data photographed by the video input unit 105a of the
<変形例7>
実施形態においては、利用可能帯域幅測定を行い、最適なデータ量の映像データであるエリアを選択して送信するようにしていたが、オールエリアに係る映像データについては、最初に送信した後は、送信しないようにしてもよい。また、所定の時間ごとにオールエリアに係る映像データが送信されるようにしてもよいし、所定の時間ごとに映像の類似性をCPU101が判断して、ある所定の量以上の変動があった場合に送信するようにしてもよい。ここで、オールエリアに係る映像データは、1フレーム分(静止画の画像データでもよい)であればよいので、通信網10の負荷はほとんど増えることはない。ここで、算出された送信レートが非常に低く、オールエリアに係る映像データを送信すると音声データが途切れてしまう場合には、CPU101は、その後最初にオールエリアに係る映像データを送信できる送信レートになるまで待ってから、当該映像データを送信させる。
<Modification 7>
In the embodiment, the available bandwidth is measured, and the area that is the video data having the optimum data amount is selected and transmitted. However, the video data related to the all area is transmitted after the first transmission. , It may not be transmitted. Further, video data related to the all area may be transmitted every predetermined time, or the
<変形例8>
実施形態においては、映像入力部105のイメージセンサと音声入力部104のマイクアレイは通信装置100に固定されていたが、別々に移動可能にしてもよい。この場合は、イメージセンサの撮影範囲とマイクアレイの方向の対応について、参加者が操作部106を操作して、CPU101に認識させればよい。このようにすると、通信装置100の設置を様々な態様で行うことができる。
<Modification 8>
In the embodiment, the image sensor of the
<変形例9>
実施形態においては、算出された送信レートによっては、パーソナルエリアに係る映像データを圧縮してデータ量を低減してから送信していたが、算出された送信レートが、パーソナルエリアに係る映像データを送るには充分高く、アクティブエリアに係る映像データを送るには少し低い場合には、アクティブエリアに係る映像データを圧縮して送信するようにしてもよい。このようにすると、映像を参加者が気にならない程度に劣化させることで、アクティブエリアの範囲の映像データを送信することができる。
<Modification 9>
In the embodiment, depending on the calculated transmission rate, the video data related to the personal area is transmitted after being compressed to reduce the amount of data. However, the calculated transmission rate is not the video data related to the personal area. If the video data is high enough to be sent and is a little low to send video data related to the active area, the video data related to the active area may be compressed and transmitted. In this way, video data in the range of the active area can be transmitted by degrading the video to such an extent that the participant does not care.
<変形例10>
実施形態においては、撮影範囲全体をオールエリアとして認識していたが、オールエリアは、他の通信装置に切り出していない映像データを送信する際のエリアを示しているため、必ずしも撮影範囲全体としなくてもよい。
<
In the embodiment, the entire shooting range is recognized as an all area. However, the all area indicates an area for transmitting video data that has not been cut out to another communication device, and thus is not necessarily the entire shooting range. May be.
<変形例11>
実施形態においては、利用可能帯域幅測定は一定時間ごとに行われていたが、ランダムに決定された時間ごとに行われてもよいし、算出された送信レートの状況に応じて変更される時間ごとに行なわれてもよい。例えば、送信レートの変動が少ない状態が続いた場合には、利用可能帯域幅測定を行なう間隔を長くするようにCPU101が制御してもよい。このようにすると、安定した送信レートが続いたときに、利用可能帯域幅測定の回数を削減することができる。
<Modification 11>
In the embodiment, the available bandwidth measurement is performed at regular time intervals, but may be performed at random time intervals, or may be changed according to the status of the calculated transmission rate. May be performed every time. For example, when the state in which the transmission rate varies little continues, the
<変形例12>
実施形態においては、選択されたエリアに対応する映像データを切り出して他の通信装置100に送信していたが、選択されたエリアだけでなく、全てのエリアに対応する映像データを事前に生成しておき、選択されたエリアに対応する映像データを他の通信装置100に送信するようにしてもよい。このようにすると、処理能力が低いCPU101であっても、選択されたエリアが変更された際に、その時点で画像処理を行う必要なくなり、映像データを選択するだけで送信することができる。
<Modification 12>
In the embodiment, the video data corresponding to the selected area is cut out and transmitted to the
1…通信システム、10…通信網、100…通信装置、101…CPU、102…ROM、103…RAM、104…音声入力部、1041、・・・1044…マイクロフォン、105…映像入力部、106…操作部、107…表示部、108…音声出力部、109…通信IF、110…バス、201、・・・205、301、302、303…参加者、200、300…机
DESCRIPTION OF SYMBOLS 1 ... Communication system, 10 ... Communication network, 100 ... Communication apparatus, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... Audio | voice input part, 1041, ... 1044 ... Microphone, 105 ... Image | video input part, 106 ...
Claims (5)
撮影範囲内の第1のエリアの映像を第1の映像データとして生成する撮影手段と、
前記第1のエリアの一部分の範囲を第2のエリアとして複数設定するエリア設定手段と、
前記複数の第2のエリアを組み合わせて1以上の第3のエリアを生成するエリア生成手段と、
音源からの音を収音して音声データを生成する収音手段と、
前記収音手段によって生成された音声データに基づいて、前記音源の方向を特定する音源方向特定手段と、
複数設定された第2のエリアから、前記特定された音源の方向に対応する位置を含む第2のエリアを選定する選定手段と、
前記通信網を介して前記他の通信装置と通信を行うときに所定の確率以上で送信が成功する送信レートを所定の時間ごとに順次測定する使用可能帯域幅測定手段と、
前記送信レートに基づいて、第1のエリアと、前記選定手段によって選定された第2のエリアと、前記選定手段によって選定された第2のエリアを含む第3のエリアとのいずれかから選択する選択手段と、
前記第2のエリアの映像を前記第1の映像データから切り出して第2の映像データを生成し、前記第3のエリアの映像を前記第1の映像データから切り出して第3の映像データを生成する映像データ切り出し手段と、
前記選択手段によって選択されたエリアを示す情報と当該エリアに対応する映像データとを前記他の通信装置へ送信する送信手段と
を具備することを特徴とする通信装置。 A communication device connected to a communication network and communicating with another communication device,
Shooting means for generating a video of a first area within the shooting range as first video data;
Area setting means for setting a plurality of ranges of a part of the first area as second areas;
Area generating means for generating one or more third areas by combining the plurality of second areas;
Sound collection means for collecting sound from a sound source and generating sound data;
Sound source direction specifying means for specifying the direction of the sound source based on the sound data generated by the sound collecting means;
Selecting means for selecting a second area including a position corresponding to the direction of the identified sound source from a plurality of set second areas;
Usable bandwidth measuring means for sequentially measuring a transmission rate at which transmission succeeds with a predetermined probability or higher when communicating with the other communication device via the communication network, every predetermined time;
Based on the transmission rate, one of the first area, the second area selected by the selecting means, and the third area including the second area selected by the selecting means is selected. A selection means;
The video of the second area is cut out from the first video data to generate second video data, and the video of the third area is cut out from the first video data to generate third video data Video data cutting means for
A communication apparatus comprising: a transmission unit configured to transmit information indicating an area selected by the selection unit and video data corresponding to the area to the other communication device.
前記音源方向特定手段は、前記複数のマイクロフォンが音源からの音を収音することによって生成された各音声データに基づいて、前記音源の方向を特定することを特徴とする請求項1に記載の通信装置。 The sound collection means has a plurality of microphones,
The sound source direction specifying means, said plurality of microphones based on each audio data generated by picking up sound from a sound source, according to claim 1, characterized in that to identify the direction of the sound source Communication device.
前記受信手段が前記エリアを示す情報と前記映像データを受信したときに、その直前の映像データを再生して得られる映像の前記受信したエリアに対応する範囲に対して、前記受信した映像データを再生して得られる映像が上書きされて表示されるようにして、第4の映像データを生成する映像データ生成手段と
をさらに具備することを特徴とする請求項1乃至請求項4のいずれかに記載の通信装置。 Receiving means for receiving information indicating an area and video data corresponding to the area from the other communication device;
When the receiving means receives the information indicating the area and the video data, the received video data is compared with the range corresponding to the received area of the video obtained by reproducing the video data immediately before the information. as image obtained by reproducing is displayed by overwriting, to any of the claims 1 to 4, further comprising a video data generating means for generating a fourth video data The communication device described.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006327386A JP4957221B2 (en) | 2006-12-04 | 2006-12-04 | Communication device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006327386A JP4957221B2 (en) | 2006-12-04 | 2006-12-04 | Communication device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008141611A JP2008141611A (en) | 2008-06-19 |
| JP4957221B2 true JP4957221B2 (en) | 2012-06-20 |
Family
ID=39602594
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006327386A Expired - Fee Related JP4957221B2 (en) | 2006-12-04 | 2006-12-04 | Communication device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4957221B2 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5376403B2 (en) * | 2009-09-02 | 2013-12-25 | 株式会社リコー | Video display device and program |
| JP2012015822A (en) | 2010-06-30 | 2012-01-19 | Brother Ind Ltd | Communication apparatus, communication method, and communication program |
| CN113132858B (en) * | 2021-04-30 | 2025-08-26 | 东莞市翔通电子科技有限公司 | Microphone with pattern selection and controls |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0923436A (en) * | 1995-07-07 | 1997-01-21 | Kokusai Electric Co Ltd | Video compression method and image communication device |
| JPH1051755A (en) * | 1996-05-30 | 1998-02-20 | Fujitsu Ltd | Screen display control device for video conference terminal |
| JPH11136670A (en) * | 1997-10-27 | 1999-05-21 | Hitachi Ltd | Image data compression device, image data decompression device, and data compression / decompression device |
| JP2000197050A (en) * | 1998-12-25 | 2000-07-14 | Canon Inc | Image processing apparatus and method |
| JP2004363974A (en) * | 2003-06-05 | 2004-12-24 | Matsushita Electric Ind Co Ltd | Video coding transmission apparatus and video code amount control method |
-
2006
- 2006-12-04 JP JP2006327386A patent/JP4957221B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2008141611A (en) | 2008-06-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7597154B2 (en) | TRANSMISSION TERMINAL, TRANSMISSION METHOD, AND TRANSMISSION PROGRAM | |
| EP2046032B1 (en) | A method and an apparatus for obtaining acoustic source location information and a multimedia communication system | |
| ES2327288T3 (en) | SYSTEM, METHOD AND NODE TO LIMIT THE NUMBER OF AUDIO FLOWS IN A TELECONFERENCE. | |
| US9509953B2 (en) | Media detection and packet distribution in a multipoint conference | |
| US20170171513A1 (en) | Remote conference system, communication terminal, and program | |
| JP2009071580A (en) | Communication device | |
| JP6341023B2 (en) | Terminal device, data transmission method and program | |
| JP2008311910A (en) | Communication equipment and conference system | |
| JP4957221B2 (en) | Communication device | |
| CN116033264B (en) | Image processing parameter adjusting method, device and equipment | |
| JP2008113164A (en) | Communication apparatus | |
| CN114531564B (en) | Processing method and electronic equipment | |
| JP2023502844A (en) | MULTI-MEMBER INSTANT MESSAGING METHOD, SYSTEM, APPARATUS AND ELECTRONIC DEVICE, AND COMPUTER PROGRAM | |
| JP5120020B2 (en) | Audio communication system with image, audio communication method with image, and program | |
| JP6004978B2 (en) | Subject image extraction device and subject image extraction / synthesis device | |
| JP2010074668A (en) | Conference terminal device and server apparatus | |
| JP2011055103A (en) | Condominium intercom system | |
| JP5151131B2 (en) | Video conferencing equipment | |
| CN117527768A (en) | Audio and video selection method and system for speaker tracking and shooting | |
| JP2010171876A (en) | Communication device and communication system | |
| JP5170278B2 (en) | Display control device, display control method, program, and display control system | |
| JP2009027246A (en) | Television conference apparatus | |
| JP2007243854A (en) | Video teleconference terminal | |
| JPS62209985A (en) | Video conference equipment | |
| JP2006339869A (en) | Apparatus for integrating video signal and voice signal |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091021 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120113 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120221 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120305 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150330 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4957221 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |