JP2013046319A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2013046319A JP2013046319A JP2011184259A JP2011184259A JP2013046319A JP 2013046319 A JP2013046319 A JP 2013046319A JP 2011184259 A JP2011184259 A JP 2011184259A JP 2011184259 A JP2011184259 A JP 2011184259A JP 2013046319 A JP2013046319 A JP 2013046319A
- Authority
- JP
- Japan
- Prior art keywords
- processing unit
- video
- information
- line
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephone Function (AREA)
Abstract
【課題】
テレビ電話装置において、一旦接続が完了すると、画面を見ていても、見ていなくても、映像データは転送されるため、有限なリソースであるネットワーク帯域を無駄に消費してしまう場合がある。
【解決手段】
テレビ電話装置において、視聴者側端末のおいて、相手側の映像を解析し、相手が画面を見ていると判断される場合は、送出する映像データの圧縮率を低く(ビットレートを高く)し、相手が画面を見ていないと判断される場合は、送出する映像データの圧縮率を高く(ビットレートを低く)し、ネットワーク帯域を無駄に消費しないよう適切に制御する。
【選択図】図1【Task】
In the videophone device, once the connection is completed, video data is transferred regardless of whether the user is looking at the screen or not, and thus the network bandwidth, which is a finite resource, may be wasted.
[Solution]
In a videophone device, if the viewer's terminal analyzes the other party's video and determines that the other party is watching the screen, the compression rate of the video data to be sent is lowered (the bit rate is increased). When it is determined that the other party is not looking at the screen, the video data to be transmitted is increased in the compression rate (the bit rate is decreased), and the network bandwidth is appropriately controlled so as not to be consumed wastefully.
[Selection] Figure 1
Description
本技術は、映像音声によるコミュニケーション手段であるテレビ電話装置に関するもので、特に映像音声データの制御技術に関するものである。 The present technology relates to a videophone device that is a communication means using video and audio, and particularly to a control technology of video and audio data.
近年、ネットワークの普及、広帯域化と、デジタル放送を始めとするデジタル映像、音声技術の発展により、映像と音声によるコミュニケーション手段であるテレビ電話装置が一般家庭にも普及するものと思われる。 In recent years, with the widespread use of networks and wider bandwidth, and the development of digital video and audio technologies including digital broadcasting, videophone devices, which are communication means using video and audio, are expected to spread to general households.
これに関連して、参加者の表示画面に対する興味領域を含む視線位置をリアルタイムに検出し、映像画質の劣化を参加者に意識させることなく通信の低コスト化を図る画像圧縮通信方法が提案されている。 In connection with this, an image compression communication method has been proposed in which the line-of-sight position including the region of interest with respect to the display screen of the participant is detected in real time and the cost of communication is reduced without making the participant aware of the deterioration of the image quality. ing.
しかし、上記従来技術では、通信相手から視線情報を受け取り、受け取った視線情報を元に映像の圧縮率が低い値(つまりデータレートが高い値)となるように映像圧縮手段により圧縮して送信手段に出力するものである。従って、通信を行う双方のシステムが前記の方式に対応している必要がある点、および、相互に視線情報を交換するため、その分余分なデータ転送が発生してしまう点が課題である。 However, in the above prior art, the line-of-sight information is received from the communication partner, and based on the received line-of-sight information, the video compression unit compresses the video compression rate so that the video compression rate becomes a low value (that is, a high data rate). Is output. Therefore, there is a problem that both systems that perform communication need to support the above-described method and that extra data transfer occurs because the line-of-sight information is mutually exchanged.
本技術によるテレビ電話装置では、通信相手の視線情報を、受信した映像から検出し、その検出した視線情報から、通信相手に送信する映像のビットレートを制御する手段を有することを特徴とする。 The videophone device according to the present technology is characterized in that it has means for detecting line-of-sight information of a communication partner from a received video and controlling a bit rate of a video transmitted to the communication partner from the detected line-of-sight information.
これにより、通信相手の視線情報の取得が不要となり、視線情報の余分なデータ転送を発生させることがなくなる。また、ビットレートを制御する機能を持たない従来型のテレビ電話装置との接続においても、通信相手から映像のビットレートの制御機能は動作しないが、システム上の接続性については互換が確保されており、ユーザの利便性を高めることができる。 As a result, it is not necessary to acquire the line-of-sight information of the communication partner, and extra data transfer of the line-of-sight information does not occur. In addition, even when connected to a conventional videophone device that does not have a bit rate control function, the video bit rate control function does not work from the communication partner, but compatibility is ensured for system connectivity. Therefore, convenience for the user can be improved.
図18は本実施の形態に係る画像処理装置のハードウェア構成図の例である。
画像処理装置300はストレージ部1801、外部機器制御部1802、通信部1803、メモリ1804、制御部1805から構成され、それぞれがハブ1806により接続されている。
FIG. 18 is an example of a hardware configuration diagram of the image processing apparatus according to the present embodiment.
The
外部機器制御部1802は、マイク、カメラ、ディスプレイ、スピーカ等の外部機器に接続され、外部機器と通信を行うことにより、外部機器の動作を制御する。
The external
通信部1803は、ネットワーク109に接続され、ネットワークを介して他の画像処理装置、サーバ等と通信を行う。本実施例に係る画像処理装置は、通信部1803を介して他の画像処理装置と接続され、他の画像処理装置に映像・音声を送信し、他の画像処理装置から映像・音声を受信する。
A
制御部1805は、ストレージ部1801に記憶されているソフトウェアプログラムを読み出し、読み出したソフトウェアプログラムをメモリ1804に展開し、ソフトウェアプログラムを実行することにより、画像処理装置300の各機能を発現することができる。
The control unit 1805 can express each function of the
制御部1805は、例えば図1に記載される音声信号処理プログラム103、映像信号処理プログラム104、音声エンコード処理プログラムなどの各種プログラムを実行することにより、音声信号処理、映像信号処理、音声エンコード処理などの各種処理を行う。
The control unit 1805 executes various programs such as the audio
ただし、以下の実施例において、各種処理を行うのは制御部1805とは限らず、音声信号処理部103、映像信号処理部104、音声エンコード処理部105などのように、実施例に記載の各処理部が行う各処理を行う処理部として集積回路化するなどしてハードウェアで実現することもできる。また、複数の処理、もしくは各処理部が行う一部の処理、を集積回路化することも可能である。従って、以下の実施例における画像処理装置のハードウェア構成は図18の例とは異なっていてもよい。
However, in the following embodiments, the various processes are not limited to the control unit 1805, and each of the processes described in the embodiments such as the audio
以下では説明を簡略化するため、各種プログラムを制御部1805が実行することで実現される各処理を各処理部が主体となって実現されるとして説明する。なお各処理部をハードウェアで実現した場合にはその各処理部が主体となって各処理を行う。 In the following, for simplification of description, each processing realized by the control unit 1805 executing various programs will be described as being realized mainly by each processing unit. When each processing unit is realized by hardware, each processing unit mainly performs each process.
以下、実施の形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the drawings.
最初に、本実施例の画像処理装置について説明する。 First, the image processing apparatus of this embodiment will be described.
図1は実施例1における画像処理装置の機能ブロック図の例である。画像処理装置300は、音声信号処理部103、映像信号処理部104、音声エンコード処理部105、映像エンコード処理部106、AVパケット合成処理部107、ネットワーク処理部108、AVパケット分離処理部110、映像デコード処理部111、音声デコード処理部112、ディスプレイドライバ113、音声ドライバ114、視線検出処理部117、ビットレート設定処理部118を備え、通信部1803を介してネットワーク109に接続され、外部機器制御部1802を介してマイク101、カメラ102、ディスプレイ115、スピーカ116に接続されている。
FIG. 1 is a functional block diagram of the image processing apparatus according to the first embodiment. The
音声信号処理部103は、マイク101からの音声入力を量子化し、出力する。
The audio
音声エンコード処理部105は、音声信号処理部103から入力された音声信号を圧縮符号化する。
The audio
映像信号処理部104は、カメラ102からの映像入力を量子化し、出力する。
The video
映像エンコード処理部106は、映像信号処理部104から入力された映像信号を圧縮符号化する。
The video
AVパケット合成処理部107は、音声エンコード処理部105からの圧縮符号化された音声信号及び、映像エンコード処理部106からの圧縮された映像信号を多重化し、AVパケットとして出力する。
The AV packet
ネットワーク処理部108は、AVパケット合成処理部107からのAVパケットをネットワーク109に出力すると共に、ネットワーク109からのAVパケット分離処理110に出力する。
The
AVパケット分離処理部110は、ネットワーク処理部108からのAVパケットを分離し、圧縮符号化された映像信号は映像デコード111に、圧縮符号化された音声信号は音声デコード処理112に出力する。
The AV packet
映像デコード処理部111は、AVパケット分離110からの圧縮符号化された映像信号を復号化し、ディスプレイドライバ113及び、視線検出処理117に出力する。
The video decoding processing unit 111 decodes the compression-coded video signal from the
音声デコード処理部112は、AVパケット分離110からの圧縮符号化された音声信号を復号化し、音声ドライバ114に出力する。
The audio decoding processing unit 112 decodes the compression-encoded audio signal from the
ディスプレイドライバ113および音声ドライバ114は、映像デコード処理111からの復号化映像信号をディスプレイ115へ、音声デコード処理112からの復号化音声信号をスピーカ116へそれぞれ出力する。
The
視線検出処理部117は、視線測定処理、正視判定処理、ビットレート設定処理、ウェイト処理、終了判定処理を行う。視線測定処理とは、映像デコード処理111の出力映像信号中の人物の視線が上下左右のどの範囲の角度であるかを測定する処理である。正視判定処理とは、視線測定処理により得られた角度の情報から、ディスプレイまたはカメラを正視している角度か否かを判定する処理である。ビットレート設定処理とは、正視判定処理により得られた判定結果に従い、ビットレート設定処理部118に対してビットレート値を設定する処理である。ウェイト処理とは、一定期間の実行待ちの処理である。終了判定処理とは、再度、視線測定処理に戻るか、視線測定処理に戻らずに終了するかを判定する処理である。
The line-of-sight
ビットレート設定処理部118は、視線検出処理部117の結果に従い、映像エンコード処理105のビットレート制御に関する符号化パラメータを設定する。
The bit rate
まず、画像処理装置300から映像・音声データを送信する処理する手順について説明する。マイク101によって集音された音声は、音声信号処理部103によりデジタル信号に変換され、音声エンコード処理部105によりエンコードされて音声出力データとされる。
First, the processing procedure for transmitting video / audio data from the
また、カメラ102によって撮像された映像も、映像信号処理部104によりデジタル信号に変換され、映像エンコード処理部106によりエンコードされて映像出力データとされる。音声出力データと映像出力データは、AVパケット合成処理部107により多重化処理され、ネットワーク109を介して通信相手が利用する画像処理装置に多重化した映像・音声データを送信する。
The video imaged by the
次に、画像処理装置300が受信した映像・音声データを出力する処理について説明する。映像・音声データをネットワーク109を介して画像処理装置300が受信した場合、映像・音声データは、AVパケット分離処理部110により映像出力データと音声出力データに分離される。映像出力データは、映像デコード処理111によりデコードされ、ディスプレイドライバ113で出力映像信号に変換し、ディスプレイ115に映像として出力される。また、音声出力データも音声デコード処理112によりデコードされ、音声ドライバ114で出力音声信号に変換し、スピーカ116に音声としてを出力される。
Next, processing for outputting video / audio data received by the
この際、映像デコード処理部111が出力する映像に含まれる画像を、視線検出処理部117が解析することで、視線情報を作成する。ビットレート設定処理部118は、視線検出部117が作成した視線情報を取得し、取得した視線情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを制御する。
At this time, the line-of-sight information is created by the line-of-sight
次に、実施例1における視線検出処理部117の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。
Next, the operation of the line-of-sight
図2は、実施例1における視線検出処理のフローチャートの例である。
図2は、図1の視線検出処理部117が、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出の結果に基づいてビットレート設定処理部118が、視聴者の使用する映像処理装置300の映像エンコード処理のパラメータとして、映像出力データのビットレートを制御する方法を示すフローチャートである。当該処理は視線検出処理部117が、映像デコード処理111からの出力を入力として解析、判定を行い、ビットレート設定処理118の入力を出力することで実現される。
FIG. 2 is an example of a flowchart of line-of-sight detection processing in the first embodiment.
2, the line-of-sight
視線検出処理部117は、画像処理装置300の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。
When the line-of-sight
次に視線検出処理部117は、映像デコード処理部111から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行し(S504)、正視と判定された場合には、高いビットレート値を設定する高ビットレート設定処理(S505)を、正視と判定されない場合は、低いビットレート値を設定する低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。
Next, the line-of-sight
更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理117を終了する(S509)。
Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The
図3は、実施例1における第1の動作例の図である。ネットワーク109を介して画像処理装置300A、画像処理装置300Bが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。
FIG. 3 is a diagram illustrating a first operation example according to the first embodiment. It is assumed that an
この第1の動作例の図では、画像処理装置300A、画像処理装置300Bの視聴者双方はお互いにディスプレイの画面を注視している例である。
In the diagram of the first operation example, both viewers of the
図3における画像処理装置300Aの視線検出処理部117の動作は、図2を元に説明すると以下のようになる。画像処理装置300Aの視線検出処理部117は、画像処理装置300Aの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から正視判定処理を実行(S504)する。
The operation of the line-of-sight
正視判定処理の結果として、正視と判定された場合は高ビットレート設定処理(S505)を、ビットレート設定処理118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行う(S508)。この例では、終了していないので、再度、視線測定処理(S503)に戻る。この例では、画像処理装置300Bも全く同様の処理となる。
As a result of the normal vision determination process, when it is determined to be normal vision, a high bit rate setting process (S505) is performed on the bit
以上のようにして、図3の場合は双方はお互いにディスプレイの画面を注視しているので、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御される。 As described above, in the case of FIG. 3, since both are paying attention to the display screens, the realism is emphasized, and the compression rate is controlled to be a low value (that is, the data rate is high). The
図4は、実施例1における第2の動作例の図である。図3と同様にネットワーク109を介して画像処理装置300A、画像処理装置300Bが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。
FIG. 4 is a diagram illustrating a second operation example according to the first embodiment. Similarly to FIG. 3, it is assumed that an
この第2の動作例の図では、画像処理装置300Aの視聴者は、ディスプレイの画面を注視しているが、画像処理装置300Bの視聴者は、手元の資料を見ており、ディスプレイの画面を注視していない例である。
In the diagram of the second operation example, the viewer of the
図4における画像処理装置300Aの視線検出処理部117の動作は、図2を元に説明すると以下のようになる。画像処理装置300Aの視線検出処理部117は、画像処理装置300Aの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行する(S504)。
The operation of the line-of-sight
画像処理装置300Aの視線検出処理部117は、正視判定処理の結果として画像処理装置300Bの視聴者がディスプレイを正視していないと判定し、低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行う(S508)。この例では、実行プログラムが終了していないので、再度、視線測定処理(S503)に戻る。
The line-of-sight
一方、画像処理装置300Bの視線検出処理部117は、画像処理装置300Bの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行(S504)する。
On the other hand, when the line-of-sight
画像処理装置300Bの視線検出処理部117は、正視判定処理の結果として、画像処理装置300Aの視聴者がディスプレイを正視していると判定し、高ビットレート設定処理(S505)を、ビットレート設定処理部118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行い(S508)、終了でないので、再度、視線測定処理(S503)に戻る。
The line-of-sight
図4の場合、画像処理装置300Aの視聴者は、ディスプレイの画面を注視しているが、画像処理装置300Bの視聴者は、ディスプレイの画面を注視していない。従って、画像処理装置300Aから、画像処理装置300Bに対しては、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。逆に、画像処理装置300Bから、画像処理装置300Aに対しては、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御される。
In the case of FIG. 4, the viewer of the
図5は、実施例1における第3の動作例の図である。図3と同様にネットワーク109を介して画像処理装置300A、画像処理装置300Bが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。
FIG. 5 is a diagram of a third operation example according to the first embodiment. Similarly to FIG. 3, it is assumed that an
この第3の動作例の図では、画像処理装置300A、画像処理装置300Bの双方の視聴者はお互いにディスプレイの画面を注視していない例である。
In the diagram of the third operation example, both viewers of the
図5における画像処理装置300Aの視線検出処理部117の動作は、図2を元に説明すると以下のようになる。画像処理装置300Aの視線検出処理部117は、画像処理装置300Aの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行する(S504)。
The operation of the line-of-sight
画像処理装置300Aの視線検出処理部117は、正視判定処理の結果として、画像処理装置300Bの視聴者がディスプレイを正視していないと判定し、低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行う(S508)。この例では、実行プログラムが終了していないので、再度、視線測定処理(S503)に戻る。この例では、画像処理装置300Bも全く同様の処理となる。
The line-of-sight
図5の場合、視聴者双方はお互いにディスプレイの画面を注視していないので、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。 In the case of FIG. 5, since both viewers are not gazing at each other's display screen, there is no need for a sense of reality. Therefore, emphasis is placed on data transfer efficiency, and a value with a high compression rate (that is, a value with a low data rate). It is controlled to become.
本実施例によれば、画像処理装置300は、通信相手の視線状態を検出し、映像エンコード処理の符号化パラメータを制御することにより、通信相手がディスプレイを注視していないと判断された場合には、一方の画像処理装置300から他方の画像処理装置300に対して圧縮率が高い値(つまりデータレートが低い値)の映像データを送出するように動作することで、有限であるネットワークの回線帯域を有効に利用することができるようになる。
According to the present embodiment, the
本実施例では、画像処理装置内部で、通信相手の視線状態を検出し映像符号化パラメータを制御するので、通信相手が利用する画像処理装置が、本実施例のように符号化パラメータを制御する機能を持たない画像処理装置の場合でも、相互接続性は保障される。 In this embodiment, the line-of-sight state of the communication partner is detected and the video encoding parameter is controlled inside the image processing apparatus, so that the image processing apparatus used by the communication partner controls the encoding parameter as in this embodiment. Even in the case of an image processing apparatus having no function, interoperability is ensured.
ただし、両者の画像処理装置300が映像符号化パラメータを制御する機能を有する場合、一方の画像処理装置300において極端に高い圧縮率(つまりデータレートが低い値)が設定されていると、画質が非常に悪くなったり、映像フレームレートが非常に低くなったりして通信相手の視線状態の検出精度が低下してしまい、正視であるにもかかわらず高い圧縮率(つまりデータレートが低い値)で映像信号を送信することになるため、視線検出の精度が所定の精度以上となるように圧縮率を設定する必要がある。
However, when both the
他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。 Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.
図6は実施例2における画像処理装置の機能ブロック図の例である。本実施例の画像処理装置301は、実施例1の画像処理装置300に加えてキャリブレーション制御部119及びメモリ120を備えている。
FIG. 6 is an example of a functional block diagram of the image processing apparatus according to the second embodiment. The image processing apparatus 301 according to the present exemplary embodiment includes a
キャリブレーション制御部119は、予め正視している状態の映像デコード処理部111の出力映像を視線検出処理部117での視線検出処理の比較用データとして基準映像を取り込むための制御部である。
The
メモリ120は、キャリブレーション制御部119により基準画像を保持する。
The
また本実施例における視線検出処理部117は、さらに映像デコード処理111の出力映像とメモリ120の基準映像を比較・判定する視線比較処理を実行する。
In addition, the line-of-sight
本実施例においても実施例1と同様に、映像デコード処理部111から受信した映像出力データを、視線検出処理部117が解析することで、視線情報を取得し、取得した視線情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを、ビットレート設定処理部118により制御するが、カメラ102の設置場所により、正しく視線検出処理部117のディスプレイを正視しているか否かの判定に誤差が生じる場合ある。従って本実施例では、キャリブレーション制御部119により、予め正視している状態の映像デコード処理部111の出力映像を視線検出処理部117での視線検出処理の比較用データとして、メモリ120に保存する。
Also in the present embodiment, as in the first embodiment, the line-of-sight
次に、実施例2における視線検出処理117の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。
Next, the operation of the line-of-
図7は、実施例2における視線検出処理のフローチャートの例である。
図7は、図6の視線検出処理部117が、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出処理の結果に基づいてビットレート設定処理部118が、映像エンコード処理部111の映像エンコード処理におけるビットレートを設定する処理を制御する方法を示すフローチャートであり、当該処理は、映像デコード処理111からの出力を入力として解析、判定を行い、ビットレート設定処理118の入力を出力することで実現される。
FIG. 7 is an example of a flowchart of line-of-sight detection processing in the second embodiment.
In FIG. 7, the line-of-sight
視線検出処理部117は、画像処理装置301の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。
When the line-of-sight
次に視線検出処理部117は、映像デコード処理部111から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果と予め保存したメモリ120に保存された視線検出処理の比較用データから、視線比較処理を実行する(S516)。視線比較処理の結果、比較用データと映像出力データの視線が一致と判定された場合には、高ビットレート設定処理(S505)を、視線が不一致と判定された場合は、低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。
Next, the line-of-sight
更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理117を終了する(S509)。
Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The
本実施例によれば、画像処理装置301は、実施例1の効果に加え、画像処理装置301の設置場所(特にカメラ102の位置)により、正視判定に誤差が生じてしまうような場合に、予め基準となる正視した状態の画像を記録するキャリブレーションを行うことで、正視状態の誤判定を軽減することができるようになる。 According to the present embodiment, in addition to the effects of the first embodiment, the image processing apparatus 301 has an error in the normal vision determination due to the installation location of the image processing apparatus 301 (particularly the position of the camera 102). By performing a calibration that records an image of the normal viewing state as a reference in advance, erroneous determination of the normal viewing state can be reduced.
他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。 Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.
図8は実施例3における画像処理装置の機能ブロック図の例である。本実施例の画像処理装置302は、実施例1の画像処理装置300に加えて音声検出処理部121を備えている。
FIG. 8 is an example of a functional block diagram of the image processing apparatus according to the third embodiment. The image processing apparatus 302 according to the present exemplary embodiment includes a voice
音声検出処理部121は、音声信号処理103からの入力レベルを検出し、ビットレート設定処理118を制御する。
The sound
また本実施例におけるビットレート設定処理118は、視線検出処理117からの入力および、音声検出処理121からの入力により、映像エンコード処理106を制御する。
Also, the bit
本実施例においても実施例1と同様に、映像デコード処理部111から受信した映像出力データを、視線検出処理部117が解析することで、視線情報を取得し、取得した視線情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを、ビットレート設定処理部118により制御するが、本実施例では、実施例1に加えて、音声信号処理部103が出力する音声出力データを、音声検出処理部121が解析することで、マイク101が集音した音声情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを、ビットレート設定処理部118により制御する。
Also in the present embodiment, as in the first embodiment, the line-of-sight
実施例3における視線検出処理部117の動作については、実施例1と同じであるため、説明を省略する。
Since the operation of the line-of-sight
次に、実施例3における音声検出処理部121の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。
Next, the operation of the voice
図9は、実施例3における音声検出処理のフローチャートの例である。
図9は、図8の音声検出処理部121が、視聴者の使用する映像処理装置から送信される音声を入力とし、視聴者の使用する映像処理装置300の映像エンコード処理のパラメータとして、映像出力データのビットレートを制御する方法を示すフローチャートである。当該処理は、音声検出処理部121が音声信号処理部103からの出力を入力として解析、判定を行い、ビットレート設定処理部118の入力の1つとして出力することで実現される。
FIG. 9 is an example of a flowchart of voice detection processing according to the third embodiment.
In FIG. 9, the audio
音声検出処理部121は、画像処理装置302の他の機能ブロックと同期して起動されると、音声検出処理を開始し(S510)、音声信号処理部103から入力された出力音声出力データのレベルを測定し(S511)、測定した音声データのレベル判定処理を行う(S512)。測定した音声データのレベルが判定値を越えた場合には、高ビットレート設定処理(S513)を行い、レベルが判定値を越えない場合には、何もしない。
When the voice
更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S514)、終了でない場合には、再度、音声測定処理(S511)に戻り、終了の場合には、音声検出処理121を終了する(S515)。
Further, a wait process for a predetermined time is executed (S507), an execution program end determination process is executed (S514), and if it is not ended, the process returns to the sound measurement process (S511) again. The
本実施例によれば、画像処理装置302は、実施例1の効果に加え、視聴者の音声を入力とし、視聴者の映像エンコード処理のパラメータとして、ビットレート設定処理への制御を行うことで、視聴者が会話を始めた際に、即座にビットレート設定処理への制御を行うことができ、通信相手がモニタに視線を向けるよりも早く、臨場感を重視した、圧縮率が低い値(つまりデータレートが高い値)映像が表示されるようにすることができる。 According to the present embodiment, in addition to the effects of the first embodiment, the image processing apparatus 302 receives the viewer's voice and controls the bit rate setting process as a parameter of the viewer's video encoding process. When the viewer starts a conversation, the user can immediately control the bit rate setting process, and the communication partner places a gaze on the monitor faster than the other party's eyes. In other words, a video with a high data rate) can be displayed.
また、本実施例によれば、本実施例の画像処理装置302Aおよび302Bが互いに低ビットレートで映像を送信しており、画像処理装置302Aおよび302Bの視線検出処理部117による視線検出が困難である場合であっても、画像処理装置302Aの視聴者が音声を発することによって高ビットレートの映像を画像処理装置302Bに送信することができる。画像処理装置302Bの視線検出処理部117は、受信した高ビットレートの映像を解析することによって画像処理装置302Aの視聴者がディスプレイを正視していることを検出することができ、画像処理装置302Aに対して高ビットレートの映像を送信するように制御することができる。
Further, according to the present embodiment, the image processing apparatuses 302A and 302B according to the present embodiment transmit images at a low bit rate, and it is difficult to detect the line of sight by the line-of-sight
以上のようにして、本実施例における画像処理装置302は低ビットレートの映像を送信することによって視線検出の精度が低下した場合でも適切にビットレートの切替をすることができ、画像処理装置302間の通信量を低下させることができる。 As described above, the image processing apparatus 302 according to the present exemplary embodiment can appropriately switch the bit rate even when the accuracy of line-of-sight detection is reduced by transmitting a low bit rate video. The amount of communication between them can be reduced.
なお、上記の効果は、画像処理装置302本体に設けられたスイッチ、図示しないリモコンに設けられたスイッチ、ディスプレイ上に表示され、マウスなどの入力手段によって選択できるボタンが押下もしくは選択されることによって、視線検出処理部117が高ビットレート処理を行うようにしても同様にして得ることができる。
The above effect is achieved by pressing or selecting a switch provided on the main body of the image processing apparatus 302, a switch provided on a remote controller (not shown), a button displayed on a display and selectable by an input means such as a mouse. Even when the line-of-sight
他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。 Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.
図10は実施例4における画像処理装置の機能ブロック図の例である。本実施例の画像処理装置303は、実施例1の画像処理装置300に加えて音声信号処理部203、映像信号処理部204、音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、ネットワーク処理部208、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214、を備え、外部機器制御部1802を介してマイク201、カメラ202、ディスプレイ215、スピーカ216に接続されている。
FIG. 10 is an example of a functional block diagram of the image processing apparatus according to the fourth embodiment. The
マイク201、カメラ202、音声信号処理部203、映像信号処理部204、音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、ネットワーク処理部208、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214、ディスプレイ215、スピーカ216の説明は、実施例1で説明した同名の処理部もしくは機器等と同様であるため、説明を省略する。
次に、実施例4における視線検出処理部117の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。
Next, the operation of the line-of-sight
図11は、実施例4における視線検出処理のフローチャートの例である。
図11は、図10の視線検出処理部117が、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出の結果に基づいてビットレート設定処理部118が、映像エンコード処理部111の映像エンコード処理におけるビットレートを設定する処理を制御する方法を示すフローチャートであり、当該処理は、映像デコード処理部111/211からの出力を入力として解析、判定を行い、ビットレート設定処理部118の入力を出力することで実現される。
FIG. 11 is an example of a flowchart of line-of-sight detection processing in the fourth embodiment.
In FIG. 11, the line-of-sight
視線検出処理部117は、画像処理装置303の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。
When the line-of-sight
次に視線検出処理部117は、映像デコード処理部111/211から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行し(S517)、正視判定処理結果により、図12のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)の何れかを、ビットレート設定処理部118に対して行う。
Next, the line-of-sight
更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理を終了する(S509)。 Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The detection process is terminated (S509).
図12の表は、図11のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)のビットレート設定処理部118に対して行なわれる設定パラメータの組み合わせの例である。この例では、視線検出処理部117による図11の視線測定処理(S503)、視線判定処理(S517)により、(画面A)の拠点からの送出画像も、(画面B)の拠点からの送出画像も、正視していると判定した場合には、レート設定1処理を選択するように動作するものとする。以下、同様に、視線測定処理(S503)、視線判定処理(S517)により、(画面A)の拠点からの送出画像は正視しているが、(画面B)の拠点からの送出画像は正視していないと判定した場合には、レート設定2処理を選択し、(画面B)の拠点からの送出画像は正視しているが、(画面A)の拠点からの送出画像は正視していないと判定した場合には、レート設定3処理を選択し、(画面A)の拠点からの送出画像も、(画面B)の拠点からの送出画像も、正視していないと判定した場合には、レート設定4処理を選択するように動作するものとする。図12の表では、ビットレート設定処理部118は、視線検出処理部117によりレート設定1処理が選択された場合には、「レート設定1」の「(画面A)の拠点への送出画質制御」として、「高ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として、「高ビットレート」を設定することを示している。以下同様に、ビットレート設定処理部118は、レート設定2処理が選択された場合には、「レート設定2」の「(画面A)の拠点への送出画質制御」として「高ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として「低ビットレート」を設定することを、レート設定3処理が選択された場合には、「レート設定3」の「(画面A)の拠点への送出画質制御」として「低ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として「高ビットレート」を設定することを、レート設定4処理が選択された場合には、「レート設定4」の「(画面A)の拠点への送出画質制御」として、「低ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として、「低ビットレート」を設定することを示している。
The table in FIG. 12 shows the bit rate
図13は、実施例4における動作例の図である。ネットワーク109を介して画像処理装置303A、画像処理装置303B、画像処理装置303Cが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。
FIG. 13 is a diagram of an operation example in the fourth embodiment. It is assumed that an image processing device 303A, an image processing device 303B, and an image processing device 303C are connected via the
この動作例の図では、画像処理装置303A、画像処理装置303B、画像処理装置303Cは、画像処理装置303Aの視聴者は画面Aを注視しており、画面Aの拠点である画像処理装置303Bの視聴者も、画像処理装置303Aの視聴者の画面を注視している。また、画像処理装置303Aの視聴者は画面Bを注視していないが、画面Bの拠点である画像処理装置303Cの視聴者は、画像処理装置303Aの視聴者の画面を注視している例である。 In the diagram of this operation example, in the image processing device 303A, the image processing device 303B, and the image processing device 303C, the viewer of the image processing device 303A is watching the screen A and the image processing device 303B that is the base of the screen A. The viewer is also watching the viewer screen of the image processing apparatus 303A. In addition, the viewer of the image processing device 303A does not watch the screen B, but the viewer of the image processing device 303C that is the base of the screen B is watching the screen of the viewer of the image processing device 303A. is there.
図13における画像処理装置303Aの視線検出処理部117の動作は、図11を元に説明すると以下のようになる。画像処理装置303Aの視線検出処理部117は、画像処理装置303Aの他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部218に対して、初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111/211から受信した映像信号データを解析し、視線測定処理を行う(S503)。
The operation of the line-of-sight
視線測定処理の測定結果から、正視判定処理を実行(S517)した結果として、この例では、レート設定1処理(S518)をビットレート設定処理部118に対して行う。
In this example, rate setting 1 processing (S518) is performed on the bit rate
更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でないので、再度、視線測定処理(S503)に戻る。この例では、画像処理装置303Bも全く同様の処理となり、画像処理装置303Cでは、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行(S517)した結果として、この例では、レート設定4処理(S521)をビットレート設定処理部118に対して行う。
Further, a wait process for a predetermined time is executed (S507), an execution program end determination process is executed (S508), and since the end is not ended, the process returns to the line-of-sight measurement process (S503) again. In this example, the image processing device 303B is exactly the same processing, and the image processing device 303C performs a line-of-sight measurement process (S503), and as a result of executing a normal vision determination process from the measurement result (S517), in this example The rate setting 4 process (S521) is performed on the bit rate
図13の場合、互いに送信される映像・音声データは、画像処理装置303Aと画像処理装置303B間は、双方はお互いにディスプレイの画面を注視しているので、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御され、画像処理装置303Aと画像処理装置303C間は、画像処理装置303Aから画像処理装置303Cに対しては、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御されるが、画像処理装置303Cから画像処理装置303Aに対しては、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。画像処理装置303Bと画像処理装置303C間は、双方はお互いにディスプレイの画面を注視しておらず、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。 In the case of FIG. 13, the video / audio data transmitted between the image processing devices 303A and 303B both pay close attention to the display screens, and therefore the compression ratio is emphasized. It is controlled to be a low value (that is, a data rate is a high value), and between the image processing devices 303A and 303C, the image processing device 303A to the image processing device 303C emphasizes a sense of realism, and is compressed. The rate is controlled so as to be a low value (that is, a high data rate), but since there is no need for realism from the image processing device 303C to the image processing device 303A, the data transfer efficiency is emphasized. Control is performed so that the compression rate becomes a high value (that is, the data rate is a low value). Since the image processing apparatuses 303B and 303C are not gazing at the display screens of each other, and there is no need for realism, the data transfer efficiency is emphasized, and a value with a high compression rate (that is, the data rate) Is controlled to be a low value).
本実施例によれば、映像処理装置303が3者間の視線状態を検出し映像符号化パラメータを制御することにより、不必要な映像データを送出せずに済むので、有限であるネットワークの回線帯域を有効に利用することができるようになる。
According to this embodiment, since the
他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。 Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.
図14は実施例5における画像処理装置のブロック図の例である。本実施例の画像処理装置304は、実施例1の画像処理装置300に加えて音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、ネットワーク処理部208、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214、キャリブレーション制御部119、メモリ120を備え、外部機器制御部1802を介してディスプレイ215、スピーカ216に接続されている。
FIG. 14 is an example of a block diagram of an image processing apparatus according to the fifth embodiment. The
音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214の説明は、実施例1で説明した同名の処理部もしくは機器等と同様であるため、説明を省略する。
The description of the audio
次に、実施例5における視線検出処理217の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。
Next, the operation of the line-of-sight detection processing 217 in
図15は、実施例5における視線検出処理のフローチャートの例である。
図15は、図14の視線検出処理部117において、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出処理の結果に基づいてビットレート設定処理部118が、映像エンコード処理部111の映像エンコード処理におけるビットレートを設定する処理を制御する方法を示すフローチャートであり、当該処理は、映像デコード処理部111/211からの出力を入力として解析、判定を行い、ビットレート設定処理部118の入力を出力することで実現される。
FIG. 15 is an example of a flowchart of line-of-sight detection processing in the fifth embodiment.
In FIG. 15, the visual line
視線検出処理部117は、画像処理装置304の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。
When the line-of-sight
次に視線検出処理部117は、映像デコード処理部111/211から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果と予め保存したメモリ120に保存された視線検出処理の比較用データから、正視判定処理を実行し(S517)、視線判定比較処理結果により、図16のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)、レート設定5処理(S522)の何れかを、ビットレート設定処理部118に対して行う。
Next, the line-of-sight
更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理を終了する(S509)。 Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The detection process is terminated (S509).
図16の表は、図15のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)、レート設定5処理(S522)のビットレート設定処理部118に対して行なわれる設定パラメータの組み合わせの例である。視線検出処理部117によるレート設定1から4までの選択の基準は実施例4と同様であるが、本実施例においては、複数のディスプレイのうち、どのディスプレイを見ているか、若しくは複数のディスプレイのどれも見ていないのか、を図17のように1台のカメラで判断しているため、視線検出の精度が低下する。
The table of FIG. 16 shows the bits of rate setting 1 processing (S518), rate setting 2 processing (S519), rate setting 3 processing (S520), rate setting 4 processing (S521), and rate setting 5 processing (S522) of FIG. It is an example of the combination of the setting parameter performed with respect to the rate
そこで、本実施例では、視線検出処理部117が視線を検出することができなかった場合、および視聴者が複数のディスプレイのうち、どのディスプレイを見ているのかを判定できなかった場合に、視線検出処理部117はレート設定5を選択することとする。
Therefore, in this embodiment, when the line-of-sight
ビットレート設定処理部118は、レート設定5が選択された場合は「(画面A)の拠点への送出画質制御」も、「(画面B)の拠点への送出画質制御」も、高ビットレートと低ビットレートとの間のビットレート値である「中ビットレート」を設定する。
When the rate setting 5 is selected, the bit rate
また、複数の人物の視線が検出された場合や、複数の人物が検出された場合、または複数の人物の視線が検出されてその一部の視線が正視と判断された場合に、レート設定5を選択するようにしてもよい。上記の場合、一台の画像処理装置300を用いて複数の人物が通信を行うことに対応することができる。また、複数の人物が検出された場合にレート設定5を選択するようにすれば、視線検出をするまでもなくビットレートを設定することができるため、視線検出処理部117による処理負担を減少させることができ、また、複数の人物の視線が検出されてその一部の視線が正視と判断された場合に、レート設定5を選択するようにした場合は、カメラ102が撮像する複数の人物の全員が正視していない場合にレート設定4とすることで、画像処理装置間の通信量をさらに減少させることができる。
Further, when a plurality of people's eyes are detected, when a plurality of people are detected, or when a plurality of people's eyes are detected and a part of the eyes is determined to be normal, rate setting 5 May be selected. In the above case, a plurality of persons can communicate with each other using a single
ビットレート設定処理部118は、視線検出処理部117によりレート設定1処理が選択された場合は、(画面A)の拠点への送出画質制御として、高ビットレートを設定し、(画面B)の拠点への送出画質制御として、高ビットレートを設定することを示している。以下同様に、図16の表は、ビットレート設定処理部118が、レート設定2処理が選択された場合に(画面A)の拠点への送出画質制御として高ビットレートを設定し、(画面B)の拠点への送出画質制御として、低ビットレートを設定することを、レート設定3処理が選択された場合に(画面A)の拠点への送出画質制御として低ビットレートを設定し、(画面B)の拠点への送出画質制御として高ビットレートを設定すること、レート設定4処理が選択された場合に(画面A)の拠点への送出画質制御として低ビットレートを設定し、(画面B)の拠点への送出画質制御として低ビットレートを設定すること、レート設定5処理が選択された場合に(画面A)の拠点への送出画質制御として中ビットレートを設定し、(画面B)の拠点への送出画質制御として中ビットレートを設定すること、を示している。
When rate setting 1 processing is selected by the line-of-sight
図17は、実施例5における動作例の図である。ネットワーク109を介して画像処理装置304A、画像処理装置304B、画像処理装置304Cが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。
FIG. 17 is a diagram of an operation example in the fifth embodiment. It is assumed that an image processing device 304A, an
この例では、実施例4の場合とレート設定以外は、同様の動作となるため、簡略化のため説明を省略する。また、図17では、モニタを2台用いた場合について記載しているが、モニタの2画面表示機能を使うことにより、1台のモニタで同様のシステムを構築することもできる。 In this example, the operation is the same as in the case of the fourth embodiment except for the rate setting. Therefore, the description is omitted for the sake of brevity. Further, FIG. 17 shows the case where two monitors are used, but a similar system can be constructed with one monitor by using the two-screen display function of the monitor.
本実施例によれば、映像処理装置303が実施例4と同様に3者間の利用におけるネットワークの回線帯域を有効に利用することができるようになるほか、本実施例では、カメラ、マイク、映像信号処理、音声信号処理の部分が共用化されているので、システムコストを下げる効果がある。一方本実施例では、カメラ、マイク、映像信号処理、音声信号処理の部分が共用化されることにより、視聴者が画面Aを注視しているのか、画面Bを注視しているのかの判定が付かなくなる場合が発生するため、このような場合は、レート設定5処理により、(画面A)の拠点、(画面B)の拠点の両方に対して、中ビットレートを設定できるようにしたものである。また、複数人で同一の画像処理装置を利用した場合に、複数の視線を検出するケースがあり、この場合は、レート設定5処理により、(画面A)の拠点、(画面B)の拠点の両方に対して、中ビットレートを設定できるようにすることも考えられる。
According to the present embodiment, the
以上の実施例では、ディスプレイ、スピーカが外付けの画像処理装置について説明をしたが、ディスプレイ、スピーカを内蔵したデジタルテレビ受信機などを利用して上記の例を実施することも可能である。 In the above embodiment, an image processing apparatus having an external display and speakers has been described. However, the above-described example can be implemented using a digital television receiver having a display and a speaker.
また、上記の実施例で説明した画像処理装置と同様の機能を持つMCU(Multipoint Control Unit)と、ビットレートを変更する機能を有さない複数の画像処理装置とを有し、画像処理装置はそれぞれがMCUに接続した構成を持つTV会議システムを構成することも可能である。 The image processing apparatus includes an MCU (Multipoint Control Unit) having the same function as the image processing apparatus described in the above embodiment, and a plurality of image processing apparatuses that do not have a function of changing the bit rate. It is also possible to configure a TV conference system having a configuration in which each is connected to the MCU.
この場合、それぞれの画像処理装置はMCUに対して各視聴者の映像音声データを送信し、MCUから送信された映像音声データをディスプレイ、スピーカで再生する。MCUは各画像処理装置から送信された映像音声データに含まれる映像の視線検出処理、音声のレベル判定処理等を行い、各画像処理装置にビットレートを変更して送信する。以上の構成にすることでMCUを用いたTV会議システムであっても上記の実施例と同様にして各画像処理装置に送信する映像音声データの通信量を低下させることができる。 In this case, each image processing apparatus transmits the video / audio data of each viewer to the MCU, and the video / audio data transmitted from the MCU is reproduced by a display and a speaker. The MCU performs line-of-sight detection processing, audio level determination processing, and the like included in the video / audio data transmitted from each image processing device, and changes the bit rate to each image processing device for transmission. With the above configuration, even in a TV conference system using an MCU, the communication volume of video / audio data transmitted to each image processing apparatus can be reduced in the same manner as in the above embodiment.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
101 マイク
102 カメラ
103 音声信号処理部
104 映像信号処理部
105 音声エンコード処理部
106 映像エンコード処理部
107 AVパケット合成処理部
108 ネットワーク処理部
109 ネットワーク
110 AVパケット分離処理部
111 映像デコード処理部
112 音声デコード処理部
113 ディスプレイドライバ
114 音声ドライバ
115 モニタ
116 スピーカ
117 視線検出処理部
118 ビットレート設定処理部
119 キャリブレーション制御部
120 メモリ
121 音声検出処理部
201 マイク
202 カメラ
203 音声信号処理部
204 映像信号処理部
205 音声エンコード処理部
206 映像エンコード処理部
207 AVパケット合成処理部
208 ネットワーク処理部
209 ネットワーク
210 AVパケット分離処理部
211 映像デコード処理部
212 音声デコード処理部
213 ディスプレイドライバ
214 音声ドライバ
215 モニタ
216 スピーカ
300 画像処理装置
301 画像処理装置
302 画像処理装置
303 画像処理装置
304 画像処理装置
Claims (6)
第2の入力映像情報を制御入力情報に基づいて圧縮符号化し映像情報を出力する第2の映像処理ユニットと、
前記第1の映像処理ユニットの出力を前記第2の映像処理ユニットの前記制御入力情報に変換する変換処理ユニットと、
他の機器からネットワークを介して受信した入力映像情報を前記第1の映像処理ユニットの前記第1の入力映像情報として出力すると共に、前記第2の映像処理ユニットで圧縮符号化した前記映像情報を前記他の機器へ前記ネットワークを介して送信するネットワーク接続ユニットと
を備えることを特徴とする画像処理装置。 A first video processing unit that detects a line of sight of the first input video information and outputs a detection result;
A second video processing unit that compresses and encodes the second input video information based on the control input information and outputs the video information;
A conversion processing unit that converts the output of the first video processing unit into the control input information of the second video processing unit;
Input video information received from another device via a network is output as the first input video information of the first video processing unit, and the video information compressed and encoded by the second video processing unit is output. An image processing apparatus comprising: a network connection unit that transmits to the other device via the network.
第2の入力映像情報を制御入力情報に基づいて圧縮符号化し出力する第2の映像処理ユニットと、
前記第1の映像処理ユニットの出力を前記第2の映像処理ユニットの前記制御入力情報に変換する変換処理ユニットと、
他の機器からネットワークを介して受信した入力映像情報を前記第1の映像処理ユニットの前記第1の入力映像情報として出力すると共に、前記第2の映像処理ユニットで圧縮符号化した前記映像情報を前記他の機器へ前記ネットワークを介して送信するネットワーク接続ユニットと
を備えることを特徴とする画像処理装置。 A first video processing unit that compares the video information previously held with the first input video information to detect a line of sight and outputs a detection result;
A second video processing unit for compressing and encoding the second input video information based on the control input information;
A conversion processing unit that converts the output of the first video processing unit into the control input information of the second video processing unit;
Input video information received from another device via a network is output as the first input video information of the first video processing unit, and the video information compressed and encoded by the second video processing unit is output. An image processing apparatus comprising: a network connection unit that transmits to the other device via the network.
入力音声情報の特徴検出を行い検出結果を出力する音声処理ユニットを備え、
前記変換処理ユニットは、前記音声処理ユニットの出力を前記第2の映像処理ユニットの前記制御入力情報に変換することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
It has a voice processing unit that detects the characteristics of the input voice information and outputs the detection results.
The image processing apparatus, wherein the conversion processing unit converts an output of the audio processing unit into the control input information of the second video processing unit.
前記第1の入力映像情報の解析結果により、制御情報を作成するステップと、
前記制御情報により、第2の入力映像情報の圧縮符号化を制御するステップと、
ネットワークを介して受信した入力映像情報を前記第1の入力映像情報として出力すると共に、圧縮符号化された前記第2の入力映像情報を前記ネットワークに送信するステップと
を有することを特徴とする画像処理方法。 A line-of-sight detection step of analyzing the first input video information and detecting a line-of-sight included in the video information;
Creating control information according to the analysis result of the first input video information;
Controlling the compression encoding of the second input video information according to the control information;
And outputting the input video information received via the network as the first input video information and transmitting the compressed and encoded second input video information to the network. Processing method.
前記第1の入力映像情報の解析結果により、制御情報を作成するステップと、
前記制御情報により、第2の入力映像情報の圧縮符号化を制御するステップと、
ネットワークを介して受信した入力映像情報を前記第1の入力映像情報として出力すると共に、圧縮符号化された前記第2の入力映像情報を前記ネットワークに送信するステップと
を有することを特徴とする画像処理方法。 Comparing the first input video information with pre-stored video information to detect a line of sight included in the video information;
Creating control information according to the analysis result of the first input video information;
Controlling the compression encoding of the second input video information according to the control information;
And outputting the input video information received via the network as the first input video information and transmitting the compressed and encoded second input video information to the network. Processing method.
前記入力音声情報の検出結果により、制御情報を作成するステップと
前記制御情報により、第2の入力映像情報の圧縮符号化を制御するステップと、
ネットワークを介して受信した音声情報を前記入力音声情報として出力すると共に、圧縮符号化された前記第2の映像情報を前記ネットワークに送信するステップと
を有することを特徴とする画像処理方法。 Analyzing input speech information and detecting features included in the speech information;
A step of creating control information according to a detection result of the input audio information; a step of controlling compression encoding of second input video information according to the control information;
And outputting the audio information received via the network as the input audio information and transmitting the compressed and encoded second video information to the network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011184259A JP2013046319A (en) | 2011-08-26 | 2011-08-26 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011184259A JP2013046319A (en) | 2011-08-26 | 2011-08-26 | Image processing apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013046319A true JP2013046319A (en) | 2013-03-04 |
Family
ID=48009860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011184259A Pending JP2013046319A (en) | 2011-08-26 | 2011-08-26 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013046319A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018046464A (en) * | 2016-09-15 | 2018-03-22 | 日本電信電話株式会社 | Visual line agreement face image combination method, television convention system, and program |
JP2021044723A (en) * | 2019-09-12 | 2021-03-18 | 富士通株式会社 | Line-of-sight information processing program, information processing device and line-of-sight information processing method |
US11310514B2 (en) | 2014-12-22 | 2022-04-19 | Samsung Electronics Co., Ltd. | Encoding method and apparatus using non-encoding region, block-based encoding region, and pixel-based encoding region |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002034010A (en) * | 2000-07-18 | 2002-01-31 | Nagano Japan Radio Co | Video phone system |
JP2006054830A (en) * | 2004-08-16 | 2006-02-23 | Sony Corp | Image compression communication method and device |
JP2007081837A (en) * | 2005-09-14 | 2007-03-29 | Aruze Corp | Video conference terminal device, video conference system, and video conference method |
JP2009147792A (en) * | 2007-12-17 | 2009-07-02 | Nec Corp | Communication apparatus with image, communication display method with image, program and communication system with image |
JP2010529735A (en) * | 2007-05-30 | 2010-08-26 | イーストマン コダック カンパニー | Portable video communication system |
-
2011
- 2011-08-26 JP JP2011184259A patent/JP2013046319A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002034010A (en) * | 2000-07-18 | 2002-01-31 | Nagano Japan Radio Co | Video phone system |
JP2006054830A (en) * | 2004-08-16 | 2006-02-23 | Sony Corp | Image compression communication method and device |
JP2007081837A (en) * | 2005-09-14 | 2007-03-29 | Aruze Corp | Video conference terminal device, video conference system, and video conference method |
JP2010529735A (en) * | 2007-05-30 | 2010-08-26 | イーストマン コダック カンパニー | Portable video communication system |
JP2009147792A (en) * | 2007-12-17 | 2009-07-02 | Nec Corp | Communication apparatus with image, communication display method with image, program and communication system with image |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11310514B2 (en) | 2014-12-22 | 2022-04-19 | Samsung Electronics Co., Ltd. | Encoding method and apparatus using non-encoding region, block-based encoding region, and pixel-based encoding region |
JP2018046464A (en) * | 2016-09-15 | 2018-03-22 | 日本電信電話株式会社 | Visual line agreement face image combination method, television convention system, and program |
JP2021044723A (en) * | 2019-09-12 | 2021-03-18 | 富士通株式会社 | Line-of-sight information processing program, information processing device and line-of-sight information processing method |
JP7284401B2 (en) | 2019-09-12 | 2023-05-31 | 富士通株式会社 | Line-of-sight information processing program, information processing device, and line-of-sight information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6179834B1 (en) | Video conferencing equipment | |
US10110831B2 (en) | Videoconference device | |
CN103686219B (en) | A kind of method, equipment and the system of video conference recorded broadcast | |
US20160007047A1 (en) | Method of controlling bandwidth in an always on video conferencing system | |
US9497390B2 (en) | Video processing method, apparatus, and system | |
US8743172B2 (en) | Image capturing for video conference system | |
US8749611B2 (en) | Video conference system | |
JP6179179B2 (en) | Information processing apparatus, information processing method, and program | |
US7508413B2 (en) | Video conference data transmission device and data transmission method adapted for small display of mobile terminals | |
EP2732622B1 (en) | Multipoint connection apparatus and communication system | |
JP6152961B1 (en) | Video conferencing equipment | |
US20080231708A1 (en) | Network apparatus, sound data transmission method, sound data transmission program, monitoring apparatus and security camera system | |
JP2010157906A (en) | Video display device | |
CN102202206B (en) | Communication equipment | |
JP2013046319A (en) | Image processing apparatus and image processing method | |
US20130291011A1 (en) | Transcoding server and method for overlaying image with additional information therein | |
JP2010213119A (en) | Video transmission system, imaging apparatus and monitoring device | |
US20140362166A1 (en) | Incoming call display method, electronic device, and incoming call display system | |
CN117278538B (en) | Method for adjusting parameters of encoder and electronic equipment | |
US9118803B2 (en) | Video conferencing system | |
JP5977612B2 (en) | Source device, sink device, system, program, and storage medium | |
WO2025010818A1 (en) | System for screen sharing among conference-participating devices | |
JP2018207337A (en) | Television conference device | |
JP2015061108A (en) | Communication system, communication apparatus and method | |
JP2013126103A (en) | Communication apparatus and communication control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140214 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140310 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140317 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140319 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141028 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150310 |