[go: up one dir, main page]

JP2013046319A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013046319A
JP2013046319A JP2011184259A JP2011184259A JP2013046319A JP 2013046319 A JP2013046319 A JP 2013046319A JP 2011184259 A JP2011184259 A JP 2011184259A JP 2011184259 A JP2011184259 A JP 2011184259A JP 2013046319 A JP2013046319 A JP 2013046319A
Authority
JP
Japan
Prior art keywords
processing unit
video
information
line
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011184259A
Other languages
Japanese (ja)
Inventor
Koji Kamogawa
浩二 鴨川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2011184259A priority Critical patent/JP2013046319A/en
Publication of JP2013046319A publication Critical patent/JP2013046319A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Abstract

【課題】
テレビ電話装置において、一旦接続が完了すると、画面を見ていても、見ていなくても、映像データは転送されるため、有限なリソースであるネットワーク帯域を無駄に消費してしまう場合がある。
【解決手段】
テレビ電話装置において、視聴者側端末のおいて、相手側の映像を解析し、相手が画面を見ていると判断される場合は、送出する映像データの圧縮率を低く(ビットレートを高く)し、相手が画面を見ていないと判断される場合は、送出する映像データの圧縮率を高く(ビットレートを低く)し、ネットワーク帯域を無駄に消費しないよう適切に制御する。
【選択図】図1
【Task】
In the videophone device, once the connection is completed, video data is transferred regardless of whether the user is looking at the screen or not, and thus the network bandwidth, which is a finite resource, may be wasted.
[Solution]
In a videophone device, if the viewer's terminal analyzes the other party's video and determines that the other party is watching the screen, the compression rate of the video data to be sent is lowered (the bit rate is increased). When it is determined that the other party is not looking at the screen, the video data to be transmitted is increased in the compression rate (the bit rate is decreased), and the network bandwidth is appropriately controlled so as not to be consumed wastefully.
[Selection] Figure 1

Description

本技術は、映像音声によるコミュニケーション手段であるテレビ電話装置に関するもので、特に映像音声データの制御技術に関するものである。   The present technology relates to a videophone device that is a communication means using video and audio, and particularly to a control technology of video and audio data.

近年、ネットワークの普及、広帯域化と、デジタル放送を始めとするデジタル映像、音声技術の発展により、映像と音声によるコミュニケーション手段であるテレビ電話装置が一般家庭にも普及するものと思われる。   In recent years, with the widespread use of networks and wider bandwidth, and the development of digital video and audio technologies including digital broadcasting, videophone devices, which are communication means using video and audio, are expected to spread to general households.

これに関連して、参加者の表示画面に対する興味領域を含む視線位置をリアルタイムに検出し、映像画質の劣化を参加者に意識させることなく通信の低コスト化を図る画像圧縮通信方法が提案されている。   In connection with this, an image compression communication method has been proposed in which the line-of-sight position including the region of interest with respect to the display screen of the participant is detected in real time and the cost of communication is reduced without making the participant aware of the deterioration of the image quality. ing.

特開2006−54830公報 画像圧縮通信方法及び装置JP 2006-54830 A Image compression communication method and apparatus

しかし、上記従来技術では、通信相手から視線情報を受け取り、受け取った視線情報を元に映像の圧縮率が低い値(つまりデータレートが高い値)となるように映像圧縮手段により圧縮して送信手段に出力するものである。従って、通信を行う双方のシステムが前記の方式に対応している必要がある点、および、相互に視線情報を交換するため、その分余分なデータ転送が発生してしまう点が課題である。   However, in the above prior art, the line-of-sight information is received from the communication partner, and based on the received line-of-sight information, the video compression unit compresses the video compression rate so that the video compression rate becomes a low value (that is, a high data rate). Is output. Therefore, there is a problem that both systems that perform communication need to support the above-described method and that extra data transfer occurs because the line-of-sight information is mutually exchanged.

本技術によるテレビ電話装置では、通信相手の視線情報を、受信した映像から検出し、その検出した視線情報から、通信相手に送信する映像のビットレートを制御する手段を有することを特徴とする。   The videophone device according to the present technology is characterized in that it has means for detecting line-of-sight information of a communication partner from a received video and controlling a bit rate of a video transmitted to the communication partner from the detected line-of-sight information.

これにより、通信相手の視線情報の取得が不要となり、視線情報の余分なデータ転送を発生させることがなくなる。また、ビットレートを制御する機能を持たない従来型のテレビ電話装置との接続においても、通信相手から映像のビットレートの制御機能は動作しないが、システム上の接続性については互換が確保されており、ユーザの利便性を高めることができる。   As a result, it is not necessary to acquire the line-of-sight information of the communication partner, and extra data transfer of the line-of-sight information does not occur. In addition, even when connected to a conventional videophone device that does not have a bit rate control function, the video bit rate control function does not work from the communication partner, but compatibility is ensured for system connectivity. Therefore, convenience for the user can be improved.

実施例1における画像処理装置の機能ブロック図の例である。3 is an example of a functional block diagram of the image processing apparatus in Embodiment 1. FIG. 実施例1における視線検出処理のフローチャートの例である。6 is an example of a flowchart of a line-of-sight detection process in the first embodiment. 実施例1における第1の動作例の図である。FIG. 6 is a diagram illustrating a first operation example according to the first embodiment. 実施例1における第2の動作例の図である。FIG. 10 is a diagram illustrating a second operation example according to the first embodiment. 実施例1における第3の動作例の図である。FIG. 10 is a diagram illustrating a third operation example according to the first embodiment. 実施例2における画像処理装置の機能ブロック図の例である。FIG. 10 is an example of a functional block diagram of an image processing apparatus according to a second embodiment. 実施例2における音声検出処理のフローチャートの例である。12 is an example of a flowchart of voice detection processing in the second embodiment. 実施例3における画像処理装置の機能ブロック図の例である。12 is an example of a functional block diagram of an image processing apparatus in Embodiment 3. FIG. 実施例3における視線検出処理のフローチャートの例である。12 is an example of a flowchart of a line-of-sight detection process in Embodiment 3. 実施例4における画像処理装置の機能ブロック図の例である。FIG. 10 is an example of a functional block diagram of an image processing apparatus according to a fourth embodiment. 実施例4における視線検出処理のフローチャートの例である。12 is an example of a flowchart of a line-of-sight detection process in Embodiment 4. 実施例4におけるレート設定の例である。It is an example of the rate setting in Example 4. 実施例4における動作例の図である。FIG. 10 is a diagram illustrating an operation example in the fourth embodiment. 実施例5における画像処理装置の機能ブロック図の例である。10 is an example of a functional block diagram of an image processing apparatus in Embodiment 5. FIG. 実施例5における視線検出処理のフローチャートの例である。10 is an example of a flowchart of a line-of-sight detection process in the fifth embodiment. 実施例5におけるレート設定の例である。It is an example of the rate setting in Example 5. 実施例5における動作例の図である。FIG. 10 is a diagram illustrating an operation example in the fifth embodiment. 画像処理装置のハードウェア構成図の例である。It is an example of the hardware block diagram of an image processing apparatus.

図18は本実施の形態に係る画像処理装置のハードウェア構成図の例である。
画像処理装置300はストレージ部1801、外部機器制御部1802、通信部1803、メモリ1804、制御部1805から構成され、それぞれがハブ1806により接続されている。
FIG. 18 is an example of a hardware configuration diagram of the image processing apparatus according to the present embodiment.
The image processing apparatus 300 includes a storage unit 1801, an external device control unit 1802, a communication unit 1803, a memory 1804, and a control unit 1805, which are connected by a hub 1806.

外部機器制御部1802は、マイク、カメラ、ディスプレイ、スピーカ等の外部機器に接続され、外部機器と通信を行うことにより、外部機器の動作を制御する。   The external device control unit 1802 is connected to an external device such as a microphone, a camera, a display, and a speaker, and controls the operation of the external device by communicating with the external device.

通信部1803は、ネットワーク109に接続され、ネットワークを介して他の画像処理装置、サーバ等と通信を行う。本実施例に係る画像処理装置は、通信部1803を介して他の画像処理装置と接続され、他の画像処理装置に映像・音声を送信し、他の画像処理装置から映像・音声を受信する。   A communication unit 1803 is connected to the network 109 and communicates with other image processing apparatuses, servers, and the like via the network. The image processing apparatus according to the present embodiment is connected to another image processing apparatus via the communication unit 1803, transmits video / audio to the other image processing apparatus, and receives video / audio from the other image processing apparatus. .

制御部1805は、ストレージ部1801に記憶されているソフトウェアプログラムを読み出し、読み出したソフトウェアプログラムをメモリ1804に展開し、ソフトウェアプログラムを実行することにより、画像処理装置300の各機能を発現することができる。   The control unit 1805 can express each function of the image processing apparatus 300 by reading the software program stored in the storage unit 1801, developing the read software program in the memory 1804, and executing the software program. .

制御部1805は、例えば図1に記載される音声信号処理プログラム103、映像信号処理プログラム104、音声エンコード処理プログラムなどの各種プログラムを実行することにより、音声信号処理、映像信号処理、音声エンコード処理などの各種処理を行う。   The control unit 1805 executes various programs such as the audio signal processing program 103, the video signal processing program 104, and the audio encoding processing program described in FIG. 1, for example, thereby performing audio signal processing, video signal processing, audio encoding processing, and the like. Various processes are performed.

ただし、以下の実施例において、各種処理を行うのは制御部1805とは限らず、音声信号処理部103、映像信号処理部104、音声エンコード処理部105などのように、実施例に記載の各処理部が行う各処理を行う処理部として集積回路化するなどしてハードウェアで実現することもできる。また、複数の処理、もしくは各処理部が行う一部の処理、を集積回路化することも可能である。従って、以下の実施例における画像処理装置のハードウェア構成は図18の例とは異なっていてもよい。   However, in the following embodiments, the various processes are not limited to the control unit 1805, and each of the processes described in the embodiments such as the audio signal processing unit 103, the video signal processing unit 104, the audio encoding processing unit 105, and the like. It can also be realized by hardware such as an integrated circuit as a processing unit for performing each processing performed by the processing unit. It is also possible to integrate a plurality of processes or some processes performed by each processing unit into an integrated circuit. Therefore, the hardware configuration of the image processing apparatus in the following embodiments may be different from the example of FIG.

以下では説明を簡略化するため、各種プログラムを制御部1805が実行することで実現される各処理を各処理部が主体となって実現されるとして説明する。なお各処理部をハードウェアで実現した場合にはその各処理部が主体となって各処理を行う。   In the following, for simplification of description, each processing realized by the control unit 1805 executing various programs will be described as being realized mainly by each processing unit. When each processing unit is realized by hardware, each processing unit mainly performs each process.

以下、実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the drawings.

最初に、本実施例の画像処理装置について説明する。   First, the image processing apparatus of this embodiment will be described.

図1は実施例1における画像処理装置の機能ブロック図の例である。画像処理装置300は、音声信号処理部103、映像信号処理部104、音声エンコード処理部105、映像エンコード処理部106、AVパケット合成処理部107、ネットワーク処理部108、AVパケット分離処理部110、映像デコード処理部111、音声デコード処理部112、ディスプレイドライバ113、音声ドライバ114、視線検出処理部117、ビットレート設定処理部118を備え、通信部1803を介してネットワーク109に接続され、外部機器制御部1802を介してマイク101、カメラ102、ディスプレイ115、スピーカ116に接続されている。   FIG. 1 is a functional block diagram of the image processing apparatus according to the first embodiment. The image processing apparatus 300 includes an audio signal processing unit 103, a video signal processing unit 104, an audio encoding processing unit 105, a video encoding processing unit 106, an AV packet synthesis processing unit 107, a network processing unit 108, an AV packet separation processing unit 110, a video A decoding processing unit 111, an audio decoding processing unit 112, a display driver 113, an audio driver 114, a line-of-sight detection processing unit 117, and a bit rate setting processing unit 118 are connected to the network 109 via a communication unit 1803 and are connected to an external device control unit A microphone 101, a camera 102, a display 115, and a speaker 116 are connected via a 1802.

音声信号処理部103は、マイク101からの音声入力を量子化し、出力する。   The audio signal processing unit 103 quantizes the audio input from the microphone 101 and outputs it.

音声エンコード処理部105は、音声信号処理部103から入力された音声信号を圧縮符号化する。   The audio encoding processing unit 105 compresses and encodes the audio signal input from the audio signal processing unit 103.

映像信号処理部104は、カメラ102からの映像入力を量子化し、出力する。   The video signal processing unit 104 quantizes the video input from the camera 102 and outputs it.

映像エンコード処理部106は、映像信号処理部104から入力された映像信号を圧縮符号化する。   The video encoding processing unit 106 compresses and encodes the video signal input from the video signal processing unit 104.

AVパケット合成処理部107は、音声エンコード処理部105からの圧縮符号化された音声信号及び、映像エンコード処理部106からの圧縮された映像信号を多重化し、AVパケットとして出力する。   The AV packet synthesis processing unit 107 multiplexes the compressed and encoded audio signal from the audio encoding processing unit 105 and the compressed video signal from the video encoding processing unit 106 and outputs the multiplexed AV signal as an AV packet.

ネットワーク処理部108は、AVパケット合成処理部107からのAVパケットをネットワーク109に出力すると共に、ネットワーク109からのAVパケット分離処理110に出力する。   The network processing unit 108 outputs the AV packet from the AV packet synthesis processing unit 107 to the network 109 and also outputs the AV packet to the AV packet separation processing 110 from the network 109.

AVパケット分離処理部110は、ネットワーク処理部108からのAVパケットを分離し、圧縮符号化された映像信号は映像デコード111に、圧縮符号化された音声信号は音声デコード処理112に出力する。   The AV packet separation processing unit 110 separates the AV packet from the network processing unit 108 and outputs the compression-coded video signal to the video decoding 111 and the compression-coded audio signal to the audio decoding processing 112.

映像デコード処理部111は、AVパケット分離110からの圧縮符号化された映像信号を復号化し、ディスプレイドライバ113及び、視線検出処理117に出力する。   The video decoding processing unit 111 decodes the compression-coded video signal from the AV packet separation 110 and outputs the decoded video signal to the display driver 113 and the line-of-sight detection processing 117.

音声デコード処理部112は、AVパケット分離110からの圧縮符号化された音声信号を復号化し、音声ドライバ114に出力する。   The audio decoding processing unit 112 decodes the compression-encoded audio signal from the AV packet separation 110 and outputs it to the audio driver 114.

ディスプレイドライバ113および音声ドライバ114は、映像デコード処理111からの復号化映像信号をディスプレイ115へ、音声デコード処理112からの復号化音声信号をスピーカ116へそれぞれ出力する。   The display driver 113 and the audio driver 114 output the decoded video signal from the video decoding process 111 to the display 115 and the decoded audio signal from the audio decoding process 112 to the speaker 116, respectively.

視線検出処理部117は、視線測定処理、正視判定処理、ビットレート設定処理、ウェイト処理、終了判定処理を行う。視線測定処理とは、映像デコード処理111の出力映像信号中の人物の視線が上下左右のどの範囲の角度であるかを測定する処理である。正視判定処理とは、視線測定処理により得られた角度の情報から、ディスプレイまたはカメラを正視している角度か否かを判定する処理である。ビットレート設定処理とは、正視判定処理により得られた判定結果に従い、ビットレート設定処理部118に対してビットレート値を設定する処理である。ウェイト処理とは、一定期間の実行待ちの処理である。終了判定処理とは、再度、視線測定処理に戻るか、視線測定処理に戻らずに終了するかを判定する処理である。   The line-of-sight detection processing unit 117 performs line-of-sight measurement processing, normal vision determination processing, bit rate setting processing, weight processing, and end determination processing. The line-of-sight measurement process is a process of measuring the range of the vertical, left, and right angles of the line of sight of the person in the output video signal of the video decoding process 111. The normal vision determination process is a process for determining whether or not the display or the camera is looking straight from the angle information obtained by the visual line measurement process. The bit rate setting process is a process of setting a bit rate value to the bit rate setting processing unit 118 according to the determination result obtained by the normal vision determination process. The wait process is a process waiting for execution for a certain period. The end determination process is a process for determining whether to return to the line-of-sight measurement process again or to end without returning to the line-of-sight measurement process.

ビットレート設定処理部118は、視線検出処理部117の結果に従い、映像エンコード処理105のビットレート制御に関する符号化パラメータを設定する。   The bit rate setting processing unit 118 sets encoding parameters related to bit rate control of the video encoding processing 105 according to the result of the line-of-sight detection processing unit 117.

まず、画像処理装置300から映像・音声データを送信する処理する手順について説明する。マイク101によって集音された音声は、音声信号処理部103によりデジタル信号に変換され、音声エンコード処理部105によりエンコードされて音声出力データとされる。   First, the processing procedure for transmitting video / audio data from the image processing apparatus 300 will be described. The sound collected by the microphone 101 is converted into a digital signal by the sound signal processing unit 103, encoded by the sound encoding processing unit 105, and used as sound output data.

また、カメラ102によって撮像された映像も、映像信号処理部104によりデジタル信号に変換され、映像エンコード処理部106によりエンコードされて映像出力データとされる。音声出力データと映像出力データは、AVパケット合成処理部107により多重化処理され、ネットワーク109を介して通信相手が利用する画像処理装置に多重化した映像・音声データを送信する。   The video imaged by the camera 102 is also converted into a digital signal by the video signal processing unit 104 and encoded by the video encoding processing unit 106 as video output data. The audio output data and the video output data are multiplexed by the AV packet synthesis processing unit 107, and the multiplexed video / audio data is transmitted to the image processing apparatus used by the communication partner via the network 109.

次に、画像処理装置300が受信した映像・音声データを出力する処理について説明する。映像・音声データをネットワーク109を介して画像処理装置300が受信した場合、映像・音声データは、AVパケット分離処理部110により映像出力データと音声出力データに分離される。映像出力データは、映像デコード処理111によりデコードされ、ディスプレイドライバ113で出力映像信号に変換し、ディスプレイ115に映像として出力される。また、音声出力データも音声デコード処理112によりデコードされ、音声ドライバ114で出力音声信号に変換し、スピーカ116に音声としてを出力される。   Next, processing for outputting video / audio data received by the image processing apparatus 300 will be described. When the image processing apparatus 300 receives the video / audio data via the network 109, the video / audio data is separated into video output data and audio output data by the AV packet separation processing unit 110. The video output data is decoded by the video decoding process 111, converted into an output video signal by the display driver 113, and output to the display 115 as a video. The audio output data is also decoded by the audio decoding process 112, converted into an output audio signal by the audio driver 114, and output as audio to the speaker 116.

この際、映像デコード処理部111が出力する映像に含まれる画像を、視線検出処理部117が解析することで、視線情報を作成する。ビットレート設定処理部118は、視線検出部117が作成した視線情報を取得し、取得した視線情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを制御する。   At this time, the line-of-sight information is created by the line-of-sight detection processing unit 117 analyzing the image included in the video output from the video decoding processing unit 111. The bit rate setting processing unit 118 acquires the line-of-sight information created by the line-of-sight detection unit 117, and controls the encoding parameters of the video encoding processing unit 106 on the viewer side based on the acquired line-of-sight information.

次に、実施例1における視線検出処理部117の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。   Next, the operation of the line-of-sight detection processing unit 117 in the first embodiment will be described using a flowchart. In the flowchart, “S” means “step”.

図2は、実施例1における視線検出処理のフローチャートの例である。
図2は、図1の視線検出処理部117が、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出の結果に基づいてビットレート設定処理部118が、視聴者の使用する映像処理装置300の映像エンコード処理のパラメータとして、映像出力データのビットレートを制御する方法を示すフローチャートである。当該処理は視線検出処理部117が、映像デコード処理111からの出力を入力として解析、判定を行い、ビットレート設定処理118の入力を出力することで実現される。
FIG. 2 is an example of a flowchart of line-of-sight detection processing in the first embodiment.
2, the line-of-sight detection processing unit 117 in FIG. 1 performs the line-of-sight detection processing with the video output data received from the video decoding processing unit 111 as an input, and the bit rate setting processing unit 118 performs viewing based on the result of the line-of-sight detection. 4 is a flowchart showing a method for controlling the bit rate of video output data as a parameter of video encoding processing of the video processing device 300 used by a person. This processing is realized by the visual line detection processing unit 117 performing analysis and determination using the output from the video decoding processing 111 as an input, and outputting the input of the bit rate setting processing 118.

視線検出処理部117は、画像処理装置300の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。   When the line-of-sight detection processing unit 117 is activated in synchronization with other functional blocks of the image processing apparatus 300, the line-of-sight detection processing unit 117 starts a line-of-sight detection process (S501), and sets an initial value bit rate to the bit rate setting processing unit 118. Processing is performed (S502).

次に視線検出処理部117は、映像デコード処理部111から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行し(S504)、正視と判定された場合には、高いビットレート値を設定する高ビットレート設定処理(S505)を、正視と判定されない場合は、低いビットレート値を設定する低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。   Next, the line-of-sight detection processing unit 117 analyzes the video output data received from the video decoding processing unit 111, performs a line-of-sight measurement process (S503), and executes a normal vision determination process from the measurement result (S504). If it is determined, the high bit rate setting process (S505) for setting a high bit rate value is performed, and if it is not determined to be normal, the low bit rate setting process (S506) for setting a low bit rate value is performed. This is performed for the setting processing unit 118.

更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理117を終了する(S509)。   Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The detection process 117 is terminated (S509).

図3は、実施例1における第1の動作例の図である。ネットワーク109を介して画像処理装置300A、画像処理装置300Bが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。   FIG. 3 is a diagram illustrating a first operation example according to the first embodiment. It is assumed that an image processing apparatus 300A and an image processing apparatus 300B are connected via a network 109, and a display and a speaker are connected to each.

この第1の動作例の図では、画像処理装置300A、画像処理装置300Bの視聴者双方はお互いにディスプレイの画面を注視している例である。   In the diagram of the first operation example, both viewers of the image processing device 300A and the image processing device 300B are watching each other on the display screen.

図3における画像処理装置300Aの視線検出処理部117の動作は、図2を元に説明すると以下のようになる。画像処理装置300Aの視線検出処理部117は、画像処理装置300Aの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から正視判定処理を実行(S504)する。   The operation of the line-of-sight detection processing unit 117 of the image processing apparatus 300A in FIG. 3 is as follows based on FIG. When the line-of-sight detection processing unit 117 of the image processing apparatus 300A is activated in synchronization with other functional blocks of the image processing apparatus 300A (S501), the line-of-sight detection processing unit 117 performs initial value bit rate setting processing on the bit rate setting processing unit 118. (S502). Next, the video signal data received from the video decoding processing unit 111 is analyzed, a line-of-sight measurement process is performed (S503), and a normal vision determination process is executed from the measurement result (S504).

正視判定処理の結果として、正視と判定された場合は高ビットレート設定処理(S505)を、ビットレート設定処理118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行う(S508)。この例では、終了していないので、再度、視線測定処理(S503)に戻る。この例では、画像処理装置300Bも全く同様の処理となる。   As a result of the normal vision determination process, when it is determined to be normal vision, a high bit rate setting process (S505) is performed on the bit rate setting process 118. Further, a wait process for a predetermined time is executed (S507), and an end determination process is performed (S508). In this example, since it is not completed, the process returns to the line-of-sight measurement process (S503) again. In this example, the image processing apparatus 300B performs exactly the same processing.

以上のようにして、図3の場合は双方はお互いにディスプレイの画面を注視しているので、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御される。   As described above, in the case of FIG. 3, since both are paying attention to the display screens, the realism is emphasized, and the compression rate is controlled to be a low value (that is, the data rate is high). The

図4は、実施例1における第2の動作例の図である。図3と同様にネットワーク109を介して画像処理装置300A、画像処理装置300Bが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。   FIG. 4 is a diagram illustrating a second operation example according to the first embodiment. Similarly to FIG. 3, it is assumed that an image processing apparatus 300A and an image processing apparatus 300B are connected via a network 109, and a display and a speaker are connected to each.

この第2の動作例の図では、画像処理装置300Aの視聴者は、ディスプレイの画面を注視しているが、画像処理装置300Bの視聴者は、手元の資料を見ており、ディスプレイの画面を注視していない例である。   In the diagram of the second operation example, the viewer of the image processing apparatus 300A is gazing at the display screen, but the viewer of the image processing apparatus 300B is watching the material at hand and viewing the display screen. This is an example of not paying attention.

図4における画像処理装置300Aの視線検出処理部117の動作は、図2を元に説明すると以下のようになる。画像処理装置300Aの視線検出処理部117は、画像処理装置300Aの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行する(S504)。   The operation of the line-of-sight detection processing unit 117 of the image processing apparatus 300A in FIG. 4 is as follows based on FIG. When the line-of-sight detection processing unit 117 of the image processing apparatus 300A is activated in synchronization with other functional blocks of the image processing apparatus 300A (S501), the line-of-sight detection processing unit 117 performs initial value bit rate setting processing on the bit rate setting processing unit 118. (S502). Next, the video signal data received from the video decoding processing unit 111 is analyzed, a line-of-sight measurement process is performed (S503), and a normal vision determination process is executed from the measurement result (S504).

画像処理装置300Aの視線検出処理部117は、正視判定処理の結果として画像処理装置300Bの視聴者がディスプレイを正視していないと判定し、低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行う(S508)。この例では、実行プログラムが終了していないので、再度、視線測定処理(S503)に戻る。   The line-of-sight detection processing unit 117 of the image processing apparatus 300A determines that the viewer of the image processing apparatus 300B is not viewing the display as a result of the normal vision determination process, and performs the low bit rate setting process (S506) as the bit rate setting process. To the unit 118. Further, a wait process for a predetermined time is executed (S507), and an end determination process is performed (S508). In this example, since the execution program has not ended, the process returns to the line-of-sight measurement process (S503) again.

一方、画像処理装置300Bの視線検出処理部117は、画像処理装置300Bの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行(S504)する。   On the other hand, when the line-of-sight detection processing unit 117 of the image processing apparatus 300B is activated in synchronization with other functional blocks of the image processing apparatus 300B (S501), the initial value bit rate setting is performed with respect to the bit rate setting processing unit 118. Processing is performed (S502). Next, the video signal data received from the video decoding processing unit 111 is analyzed, a line-of-sight measurement process is performed (S503), and a normal vision determination process is executed from the measurement result (S504).

画像処理装置300Bの視線検出処理部117は、正視判定処理の結果として、画像処理装置300Aの視聴者がディスプレイを正視していると判定し、高ビットレート設定処理(S505)を、ビットレート設定処理部118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行い(S508)、終了でないので、再度、視線測定処理(S503)に戻る。   The line-of-sight detection processing unit 117 of the image processing apparatus 300B determines that the viewer of the image processing apparatus 300A is looking at the display as a result of the normal vision determination process, and performs the high bit rate setting process (S505). This is performed on the processing unit 118. Further, a wait process for a predetermined time is executed (S507), an end determination process is performed (S508), and since the process is not ended, the process returns to the line-of-sight measurement process (S503) again.

図4の場合、画像処理装置300Aの視聴者は、ディスプレイの画面を注視しているが、画像処理装置300Bの視聴者は、ディスプレイの画面を注視していない。従って、画像処理装置300Aから、画像処理装置300Bに対しては、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。逆に、画像処理装置300Bから、画像処理装置300Aに対しては、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御される。   In the case of FIG. 4, the viewer of the image processing device 300 </ b> A is watching the display screen, but the viewer of the image processing device 300 </ b> B is not watching the display screen. Therefore, since there is no need for realism from the image processing device 300A to the image processing device 300B, the data transfer efficiency is emphasized, and control is performed so that the compression rate is a high value (that is, the data rate is low). Is done. On the contrary, the image processing apparatus 300B controls the image processing apparatus 300A so that the sense of reality is emphasized and the compression rate is a low value (that is, the data rate is high).

図5は、実施例1における第3の動作例の図である。図3と同様にネットワーク109を介して画像処理装置300A、画像処理装置300Bが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。   FIG. 5 is a diagram of a third operation example according to the first embodiment. Similarly to FIG. 3, it is assumed that an image processing apparatus 300A and an image processing apparatus 300B are connected via a network 109, and a display and a speaker are connected to each.

この第3の動作例の図では、画像処理装置300A、画像処理装置300Bの双方の視聴者はお互いにディスプレイの画面を注視していない例である。   In the diagram of the third operation example, both viewers of the image processing device 300A and the image processing device 300B are not gazing at the display screen.

図5における画像処理装置300Aの視線検出処理部117の動作は、図2を元に説明すると以下のようになる。画像処理装置300Aの視線検出処理部117は、画像処理装置300Aの他の機能ブロックと同期して起動されると(S501)、ビットレート設定処理部118に対して初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111から受信した映像信号データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行する(S504)。   The operation of the line-of-sight detection processing unit 117 of the image processing apparatus 300A in FIG. 5 is as follows based on FIG. When the line-of-sight detection processing unit 117 of the image processing apparatus 300A is activated in synchronization with other functional blocks of the image processing apparatus 300A (S501), the line-of-sight detection processing unit 117 performs initial value bit rate setting processing on the bit rate setting processing unit 118. (S502). Next, the video signal data received from the video decoding processing unit 111 is analyzed, a line-of-sight measurement process is performed (S503), and a normal vision determination process is executed from the measurement result (S504).

画像処理装置300Aの視線検出処理部117は、正視判定処理の結果として、画像処理装置300Bの視聴者がディスプレイを正視していないと判定し、低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。更に、一定時間のウェイト処理を実行し(S507)、終了判定処理を行う(S508)。この例では、実行プログラムが終了していないので、再度、視線測定処理(S503)に戻る。この例では、画像処理装置300Bも全く同様の処理となる。   The line-of-sight detection processing unit 117 of the image processing apparatus 300A determines that the viewer of the image processing apparatus 300B is not looking at the display as a result of the normal vision determination process, and performs the low bit rate setting process (S506). This is performed on the processing unit 118. Further, a wait process for a predetermined time is executed (S507), and an end determination process is performed (S508). In this example, since the execution program has not ended, the process returns to the line-of-sight measurement process (S503) again. In this example, the image processing apparatus 300B performs exactly the same processing.

図5の場合、視聴者双方はお互いにディスプレイの画面を注視していないので、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。   In the case of FIG. 5, since both viewers are not gazing at each other's display screen, there is no need for a sense of reality. Therefore, emphasis is placed on data transfer efficiency, and a value with a high compression rate (that is, a value with a low data rate). It is controlled to become.

本実施例によれば、画像処理装置300は、通信相手の視線状態を検出し、映像エンコード処理の符号化パラメータを制御することにより、通信相手がディスプレイを注視していないと判断された場合には、一方の画像処理装置300から他方の画像処理装置300に対して圧縮率が高い値(つまりデータレートが低い値)の映像データを送出するように動作することで、有限であるネットワークの回線帯域を有効に利用することができるようになる。   According to the present embodiment, the image processing apparatus 300 detects the line-of-sight state of the communication partner and controls the encoding parameter of the video encoding process to determine that the communication partner is not gazing at the display. Is a network line that is finite by operating to send video data having a high compression rate (ie, a low data rate) from one image processing device 300 to the other image processing device 300. Bandwidth can be used effectively.

本実施例では、画像処理装置内部で、通信相手の視線状態を検出し映像符号化パラメータを制御するので、通信相手が利用する画像処理装置が、本実施例のように符号化パラメータを制御する機能を持たない画像処理装置の場合でも、相互接続性は保障される。   In this embodiment, the line-of-sight state of the communication partner is detected and the video encoding parameter is controlled inside the image processing apparatus, so that the image processing apparatus used by the communication partner controls the encoding parameter as in this embodiment. Even in the case of an image processing apparatus having no function, interoperability is ensured.

ただし、両者の画像処理装置300が映像符号化パラメータを制御する機能を有する場合、一方の画像処理装置300において極端に高い圧縮率(つまりデータレートが低い値)が設定されていると、画質が非常に悪くなったり、映像フレームレートが非常に低くなったりして通信相手の視線状態の検出精度が低下してしまい、正視であるにもかかわらず高い圧縮率(つまりデータレートが低い値)で映像信号を送信することになるため、視線検出の精度が所定の精度以上となるように圧縮率を設定する必要がある。   However, when both the image processing apparatuses 300 have a function of controlling the video encoding parameter, if one of the image processing apparatuses 300 has an extremely high compression rate (that is, a value with a low data rate), the image quality is improved. The detection accuracy of the line-of-sight state of the communication partner decreases because the video frame rate becomes very low or the video frame rate becomes very low, and the compression rate is high (that is, the data rate is low) in spite of normal vision. Since the video signal is transmitted, it is necessary to set the compression rate so that the accuracy of the line-of-sight detection is equal to or higher than a predetermined accuracy.

他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。   Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.

図6は実施例2における画像処理装置の機能ブロック図の例である。本実施例の画像処理装置301は、実施例1の画像処理装置300に加えてキャリブレーション制御部119及びメモリ120を備えている。   FIG. 6 is an example of a functional block diagram of the image processing apparatus according to the second embodiment. The image processing apparatus 301 according to the present exemplary embodiment includes a calibration control unit 119 and a memory 120 in addition to the image processing apparatus 300 according to the first exemplary embodiment.

キャリブレーション制御部119は、予め正視している状態の映像デコード処理部111の出力映像を視線検出処理部117での視線検出処理の比較用データとして基準映像を取り込むための制御部である。   The calibration control unit 119 is a control unit for taking in the reference video as the comparison data of the line-of-sight detection processing in the line-of-sight detection processing unit 117 using the output video of the video decoding processing unit 111 in a state of looking forward in advance.

メモリ120は、キャリブレーション制御部119により基準画像を保持する。   The memory 120 holds the reference image by the calibration control unit 119.

また本実施例における視線検出処理部117は、さらに映像デコード処理111の出力映像とメモリ120の基準映像を比較・判定する視線比較処理を実行する。   In addition, the line-of-sight detection processing unit 117 according to the present embodiment further performs line-of-sight comparison processing for comparing and determining the output video of the video decoding processing 111 and the reference video of the memory 120.

本実施例においても実施例1と同様に、映像デコード処理部111から受信した映像出力データを、視線検出処理部117が解析することで、視線情報を取得し、取得した視線情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを、ビットレート設定処理部118により制御するが、カメラ102の設置場所により、正しく視線検出処理部117のディスプレイを正視しているか否かの判定に誤差が生じる場合ある。従って本実施例では、キャリブレーション制御部119により、予め正視している状態の映像デコード処理部111の出力映像を視線検出処理部117での視線検出処理の比較用データとして、メモリ120に保存する。   Also in the present embodiment, as in the first embodiment, the line-of-sight detection processing unit 117 analyzes the video output data received from the video decoding processing unit 111 to acquire the line-of-sight information, and based on the acquired line-of-sight information, The encoding parameters of the video encoding processing unit 106 on the viewer side are controlled by the bit rate setting processing unit 118, but it is determined whether or not the display of the line-of-sight detection processing unit 117 is correctly viewed according to the installation location of the camera 102. An error may occur in Therefore, in the present embodiment, the calibration control unit 119 stores the output video of the video decoding processing unit 111 in a state of looking straight ahead in the memory 120 as comparison data for the visual line detection processing in the visual line detection processing unit 117. .

次に、実施例2における視線検出処理117の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。   Next, the operation of the line-of-sight detection process 117 in the second embodiment will be described using a flowchart. In the flowchart, “S” means “step”.

図7は、実施例2における視線検出処理のフローチャートの例である。
図7は、図6の視線検出処理部117が、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出処理の結果に基づいてビットレート設定処理部118が、映像エンコード処理部111の映像エンコード処理におけるビットレートを設定する処理を制御する方法を示すフローチャートであり、当該処理は、映像デコード処理111からの出力を入力として解析、判定を行い、ビットレート設定処理118の入力を出力することで実現される。
FIG. 7 is an example of a flowchart of line-of-sight detection processing in the second embodiment.
In FIG. 7, the line-of-sight detection processing unit 117 in FIG. 6 performs line-of-sight detection processing using the video output data received from the video decoding processing unit 111 as an input, and based on the result of the line-of-sight detection processing, the bit rate setting processing unit 118 It is a flowchart which shows the method which controls the process which sets the bit rate in the video encoding process of the video encoding process part 111, The said process performs analysis and determination by using the output from the video decoding process 111 as an input, Bit rate setting process This is realized by outputting 118 inputs.

視線検出処理部117は、画像処理装置301の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。   When the line-of-sight detection processing unit 117 is activated in synchronization with other functional blocks of the image processing apparatus 301, the line-of-sight detection processing unit 117 starts the line-of-sight detection processing (S501), and sets an initial value bit rate to the bit rate setting processing unit 118. Processing is performed (S502).

次に視線検出処理部117は、映像デコード処理部111から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果と予め保存したメモリ120に保存された視線検出処理の比較用データから、視線比較処理を実行する(S516)。視線比較処理の結果、比較用データと映像出力データの視線が一致と判定された場合には、高ビットレート設定処理(S505)を、視線が不一致と判定された場合は、低ビットレート設定処理(S506)を、ビットレート設定処理部118に対して行う。   Next, the line-of-sight detection processing unit 117 analyzes the video output data received from the video decoding processing unit 111, performs line-of-sight measurement processing (S503), and performs the measurement result and the line-of-sight detection processing stored in the memory 120 stored in advance. A line-of-sight comparison process is executed from the comparison data (S516). As a result of the line-of-sight comparison process, when it is determined that the line-of-sight of the comparison data and the video output data match, the high bit rate setting process (S505) is performed. When the line of sight is determined not to match, the low bit rate setting process is performed. (S506) is performed on the bit rate setting processing unit 118.

更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理117を終了する(S509)。   Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The detection process 117 is terminated (S509).

本実施例によれば、画像処理装置301は、実施例1の効果に加え、画像処理装置301の設置場所(特にカメラ102の位置)により、正視判定に誤差が生じてしまうような場合に、予め基準となる正視した状態の画像を記録するキャリブレーションを行うことで、正視状態の誤判定を軽減することができるようになる。   According to the present embodiment, in addition to the effects of the first embodiment, the image processing apparatus 301 has an error in the normal vision determination due to the installation location of the image processing apparatus 301 (particularly the position of the camera 102). By performing a calibration that records an image of the normal viewing state as a reference in advance, erroneous determination of the normal viewing state can be reduced.

他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。   Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.

図8は実施例3における画像処理装置の機能ブロック図の例である。本実施例の画像処理装置302は、実施例1の画像処理装置300に加えて音声検出処理部121を備えている。   FIG. 8 is an example of a functional block diagram of the image processing apparatus according to the third embodiment. The image processing apparatus 302 according to the present exemplary embodiment includes a voice detection processing unit 121 in addition to the image processing apparatus 300 according to the first exemplary embodiment.

音声検出処理部121は、音声信号処理103からの入力レベルを検出し、ビットレート設定処理118を制御する。   The sound detection processing unit 121 detects the input level from the sound signal processing 103 and controls the bit rate setting processing 118.

また本実施例におけるビットレート設定処理118は、視線検出処理117からの入力および、音声検出処理121からの入力により、映像エンコード処理106を制御する。   Also, the bit rate setting process 118 in the present embodiment controls the video encoding process 106 by the input from the line-of-sight detection process 117 and the input from the audio detection process 121.

本実施例においても実施例1と同様に、映像デコード処理部111から受信した映像出力データを、視線検出処理部117が解析することで、視線情報を取得し、取得した視線情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを、ビットレート設定処理部118により制御するが、本実施例では、実施例1に加えて、音声信号処理部103が出力する音声出力データを、音声検出処理部121が解析することで、マイク101が集音した音声情報を元に、視聴者側の映像エンコード処理部106の符号化パラメータを、ビットレート設定処理部118により制御する。   Also in the present embodiment, as in the first embodiment, the line-of-sight detection processing unit 117 analyzes the video output data received from the video decoding processing unit 111 to acquire the line-of-sight information, and based on the acquired line-of-sight information, The encoding parameter of the video encoding processing unit 106 on the viewer side is controlled by the bit rate setting processing unit 118. In this embodiment, the audio output data output from the audio signal processing unit 103 is added to the first embodiment. The bit rate setting processing unit 118 controls the encoding parameters of the video encoding processing unit 106 on the viewer side based on the audio information collected by the microphone 101 by the analysis by the audio detection processing unit 121.

実施例3における視線検出処理部117の動作については、実施例1と同じであるため、説明を省略する。   Since the operation of the line-of-sight detection processing unit 117 in the third embodiment is the same as that in the first embodiment, description thereof is omitted.

次に、実施例3における音声検出処理部121の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。   Next, the operation of the voice detection processing unit 121 according to the third embodiment will be described with reference to a flowchart. In the flowchart, “S” means “step”.

図9は、実施例3における音声検出処理のフローチャートの例である。
図9は、図8の音声検出処理部121が、視聴者の使用する映像処理装置から送信される音声を入力とし、視聴者の使用する映像処理装置300の映像エンコード処理のパラメータとして、映像出力データのビットレートを制御する方法を示すフローチャートである。当該処理は、音声検出処理部121が音声信号処理部103からの出力を入力として解析、判定を行い、ビットレート設定処理部118の入力の1つとして出力することで実現される。
FIG. 9 is an example of a flowchart of voice detection processing according to the third embodiment.
In FIG. 9, the audio detection processing unit 121 in FIG. 8 receives the audio transmitted from the video processing device used by the viewer as an input, and outputs the video as the parameter of the video encoding processing of the video processing device 300 used by the viewer. 6 is a flowchart illustrating a method for controlling the bit rate of data. The processing is realized by the voice detection processing unit 121 performing analysis and determination using the output from the voice signal processing unit 103 as an input and outputting it as one of the inputs of the bit rate setting processing unit 118.

音声検出処理部121は、画像処理装置302の他の機能ブロックと同期して起動されると、音声検出処理を開始し(S510)、音声信号処理部103から入力された出力音声出力データのレベルを測定し(S511)、測定した音声データのレベル判定処理を行う(S512)。測定した音声データのレベルが判定値を越えた場合には、高ビットレート設定処理(S513)を行い、レベルが判定値を越えない場合には、何もしない。   When the voice detection processing unit 121 is activated in synchronization with other functional blocks of the image processing apparatus 302, the voice detection processing unit 121 starts the voice detection processing (S510), and the level of the output voice output data input from the voice signal processing unit 103 Is measured (S511), and the level determination process of the measured audio data is performed (S512). When the level of the measured audio data exceeds the determination value, a high bit rate setting process (S513) is performed, and when the level does not exceed the determination value, nothing is done.

更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S514)、終了でない場合には、再度、音声測定処理(S511)に戻り、終了の場合には、音声検出処理121を終了する(S515)。   Further, a wait process for a predetermined time is executed (S507), an execution program end determination process is executed (S514), and if it is not ended, the process returns to the sound measurement process (S511) again. The detection process 121 ends (S515).

本実施例によれば、画像処理装置302は、実施例1の効果に加え、視聴者の音声を入力とし、視聴者の映像エンコード処理のパラメータとして、ビットレート設定処理への制御を行うことで、視聴者が会話を始めた際に、即座にビットレート設定処理への制御を行うことができ、通信相手がモニタに視線を向けるよりも早く、臨場感を重視した、圧縮率が低い値(つまりデータレートが高い値)映像が表示されるようにすることができる。   According to the present embodiment, in addition to the effects of the first embodiment, the image processing apparatus 302 receives the viewer's voice and controls the bit rate setting process as a parameter of the viewer's video encoding process. When the viewer starts a conversation, the user can immediately control the bit rate setting process, and the communication partner places a gaze on the monitor faster than the other party's eyes. In other words, a video with a high data rate) can be displayed.

また、本実施例によれば、本実施例の画像処理装置302Aおよび302Bが互いに低ビットレートで映像を送信しており、画像処理装置302Aおよび302Bの視線検出処理部117による視線検出が困難である場合であっても、画像処理装置302Aの視聴者が音声を発することによって高ビットレートの映像を画像処理装置302Bに送信することができる。画像処理装置302Bの視線検出処理部117は、受信した高ビットレートの映像を解析することによって画像処理装置302Aの視聴者がディスプレイを正視していることを検出することができ、画像処理装置302Aに対して高ビットレートの映像を送信するように制御することができる。   Further, according to the present embodiment, the image processing apparatuses 302A and 302B according to the present embodiment transmit images at a low bit rate, and it is difficult to detect the line of sight by the line-of-sight detection processing unit 117 of the image processing apparatuses 302A and 302B. Even in some cases, the viewer of the image processing device 302A can transmit a high bit rate video to the image processing device 302B by producing sound. The line-of-sight detection processing unit 117 of the image processing apparatus 302B can detect that the viewer of the image processing apparatus 302A is looking directly at the display by analyzing the received high bit rate video. In contrast, it is possible to control to transmit a high bit rate video.

以上のようにして、本実施例における画像処理装置302は低ビットレートの映像を送信することによって視線検出の精度が低下した場合でも適切にビットレートの切替をすることができ、画像処理装置302間の通信量を低下させることができる。   As described above, the image processing apparatus 302 according to the present exemplary embodiment can appropriately switch the bit rate even when the accuracy of line-of-sight detection is reduced by transmitting a low bit rate video. The amount of communication between them can be reduced.

なお、上記の効果は、画像処理装置302本体に設けられたスイッチ、図示しないリモコンに設けられたスイッチ、ディスプレイ上に表示され、マウスなどの入力手段によって選択できるボタンが押下もしくは選択されることによって、視線検出処理部117が高ビットレート処理を行うようにしても同様にして得ることができる。   The above effect is achieved by pressing or selecting a switch provided on the main body of the image processing apparatus 302, a switch provided on a remote controller (not shown), a button displayed on a display and selectable by an input means such as a mouse. Even when the line-of-sight detection processing unit 117 performs high bit rate processing, the same can be obtained.

他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。   Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.

図10は実施例4における画像処理装置の機能ブロック図の例である。本実施例の画像処理装置303は、実施例1の画像処理装置300に加えて音声信号処理部203、映像信号処理部204、音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、ネットワーク処理部208、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214、を備え、外部機器制御部1802を介してマイク201、カメラ202、ディスプレイ215、スピーカ216に接続されている。   FIG. 10 is an example of a functional block diagram of the image processing apparatus according to the fourth embodiment. The image processing apparatus 303 according to the present exemplary embodiment includes an audio signal processing unit 203, a video signal processing unit 204, an audio encoding processing unit 205, a video encoding processing unit 206, and an AV packet synthesis processing unit in addition to the image processing apparatus 300 according to the first exemplary embodiment. 207, a network processing unit 208, an AV packet separation processing unit 210, a video decoding processing unit 211, an audio decoding processing unit 212, a display driver 213, and an audio driver 214, and a microphone 201 and a camera 202 via an external device control unit 1802. , A display 215 and a speaker 216.

マイク201、カメラ202、音声信号処理部203、映像信号処理部204、音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、ネットワーク処理部208、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214、ディスプレイ215、スピーカ216の説明は、実施例1で説明した同名の処理部もしくは機器等と同様であるため、説明を省略する。   Microphone 201, camera 202, audio signal processing unit 203, video signal processing unit 204, audio encoding processing unit 205, video encoding processing unit 206, AV packet synthesis processing unit 207, network processing unit 208, AV packet separation processing unit 210, video The description of the decoding processing unit 211, the audio decoding processing unit 212, the display driver 213, the audio driver 214, the display 215, and the speaker 216 is the same as the processing unit or device having the same name described in the first embodiment, and thus the description is omitted. To do.

次に、実施例4における視線検出処理部117の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。   Next, the operation of the line-of-sight detection processing unit 117 according to the fourth embodiment will be described using a flowchart. In the flowchart, “S” means “step”.

図11は、実施例4における視線検出処理のフローチャートの例である。
図11は、図10の視線検出処理部117が、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出の結果に基づいてビットレート設定処理部118が、映像エンコード処理部111の映像エンコード処理におけるビットレートを設定する処理を制御する方法を示すフローチャートであり、当該処理は、映像デコード処理部111/211からの出力を入力として解析、判定を行い、ビットレート設定処理部118の入力を出力することで実現される。
FIG. 11 is an example of a flowchart of line-of-sight detection processing in the fourth embodiment.
In FIG. 11, the line-of-sight detection processing unit 117 in FIG. 10 performs the line-of-sight detection processing using the video output data received from the video decoding processing unit 111 as an input, and the bit rate setting processing unit 118 It is a flowchart which shows the method which controls the process which sets the bit rate in the video encoding process of the encoding process part 111, The said process performs analysis and determination by using the output from the video decoding process part 111/211 as an input, Bit rate This is realized by outputting the input of the setting processing unit 118.

視線検出処理部117は、画像処理装置303の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。   When the line-of-sight detection processing unit 117 is activated in synchronization with other functional blocks of the image processing apparatus 303, the line-of-sight detection processing unit 117 starts the line-of-sight detection processing (S501), and sets an initial value bit rate to the bit rate setting processing unit 118. Processing is performed (S502).

次に視線検出処理部117は、映像デコード処理部111/211から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行し(S517)、正視判定処理結果により、図12のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)の何れかを、ビットレート設定処理部118に対して行う。   Next, the line-of-sight detection processing unit 117 analyzes the video output data received from the video decoding processing unit 111/211, performs a line-of-sight measurement process (S503), and executes a normal vision determination process from the measurement result (S517). Depending on the result of the normal vision determination process, one of the rate setting 1 process (S518), the rate setting 2 process (S519), the rate setting 3 process (S520), and the rate setting 4 process (S521) in FIG. To 118.

更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理を終了する(S509)。   Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The detection process is terminated (S509).

図12の表は、図11のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)のビットレート設定処理部118に対して行なわれる設定パラメータの組み合わせの例である。この例では、視線検出処理部117による図11の視線測定処理(S503)、視線判定処理(S517)により、(画面A)の拠点からの送出画像も、(画面B)の拠点からの送出画像も、正視していると判定した場合には、レート設定1処理を選択するように動作するものとする。以下、同様に、視線測定処理(S503)、視線判定処理(S517)により、(画面A)の拠点からの送出画像は正視しているが、(画面B)の拠点からの送出画像は正視していないと判定した場合には、レート設定2処理を選択し、(画面B)の拠点からの送出画像は正視しているが、(画面A)の拠点からの送出画像は正視していないと判定した場合には、レート設定3処理を選択し、(画面A)の拠点からの送出画像も、(画面B)の拠点からの送出画像も、正視していないと判定した場合には、レート設定4処理を選択するように動作するものとする。図12の表では、ビットレート設定処理部118は、視線検出処理部117によりレート設定1処理が選択された場合には、「レート設定1」の「(画面A)の拠点への送出画質制御」として、「高ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として、「高ビットレート」を設定することを示している。以下同様に、ビットレート設定処理部118は、レート設定2処理が選択された場合には、「レート設定2」の「(画面A)の拠点への送出画質制御」として「高ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として「低ビットレート」を設定することを、レート設定3処理が選択された場合には、「レート設定3」の「(画面A)の拠点への送出画質制御」として「低ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として「高ビットレート」を設定することを、レート設定4処理が選択された場合には、「レート設定4」の「(画面A)の拠点への送出画質制御」として、「低ビットレート」を設定し、「(画面B)の拠点への送出画質制御」として、「低ビットレート」を設定することを示している。   The table in FIG. 12 shows the bit rate setting processing unit 118 of the rate setting 1 process (S518), the rate setting 2 process (S519), the rate setting 3 process (S520), and the rate setting 4 process (S521) in FIG. It is an example of the combination of the setting parameter performed. In this example, the image sent from the site of (Screen A) is also sent from the site of (Screen B) by the eye gaze measurement processing (S503) and the eye gaze determination processing (S517) of FIG. However, if it is determined that the user is looking straight ahead, the rate setting 1 process is selected. Hereinafter, similarly, the image sent from the base of (Screen A) is viewed normally by the line-of-sight measurement process (S503) and the line-of-sight determination process (S517), but the image sent from the base of (Screen B) is viewed normally. If it is determined that it is not, the rate setting 2 process is selected, and the transmission image from the base of (Screen B) is looking straight, but the transmission image from the base of (Screen A) is not looking straight. If it is determined, the rate setting 3 process is selected, and if it is determined that neither the transmission image from the base of (Screen A) nor the transmission image from the base of (Screen B) is viewed, the rate is set. It shall operate | move so that the setting 4 process may be selected. In the table of FIG. 12, when the rate setting 1 process is selected by the line-of-sight detection processing unit 117, the bit rate setting processing unit 118 controls the transmission image quality control to “(screen A) of“ rate setting 1 ”. "High bit rate" is set, and "High bit rate" is set as "Transmission image quality control to the base of (screen B)". Similarly, when the rate setting 2 process is selected, the bit rate setting processing unit 118 sets “high bit rate” as “transmission image quality control to the base of (screen A)” of “rate setting 2”. When the rate setting 3 process is selected to set “low bit rate” as “image quality control for transmission to base of (screen B)”, “(screen A” of “rate setting 3” is selected. ) Set “Low bit rate” as “Transmission image quality control to base” and “Set high bit rate” as “Transmission image quality control to base (screen B)”. In the case of “Rate setting 4”, “Low bit rate” is set as “Transmission image quality control to the base of (screen A)” and “Transmission image quality control to the base of (screen B)” is set. , Indicates to set "low bit rate" .

図13は、実施例4における動作例の図である。ネットワーク109を介して画像処理装置303A、画像処理装置303B、画像処理装置303Cが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。   FIG. 13 is a diagram of an operation example in the fourth embodiment. It is assumed that an image processing device 303A, an image processing device 303B, and an image processing device 303C are connected via the network 109, and a display and a speaker are connected to each.

この動作例の図では、画像処理装置303A、画像処理装置303B、画像処理装置303Cは、画像処理装置303Aの視聴者は画面Aを注視しており、画面Aの拠点である画像処理装置303Bの視聴者も、画像処理装置303Aの視聴者の画面を注視している。また、画像処理装置303Aの視聴者は画面Bを注視していないが、画面Bの拠点である画像処理装置303Cの視聴者は、画像処理装置303Aの視聴者の画面を注視している例である。   In the diagram of this operation example, in the image processing device 303A, the image processing device 303B, and the image processing device 303C, the viewer of the image processing device 303A is watching the screen A and the image processing device 303B that is the base of the screen A. The viewer is also watching the viewer screen of the image processing apparatus 303A. In addition, the viewer of the image processing device 303A does not watch the screen B, but the viewer of the image processing device 303C that is the base of the screen B is watching the screen of the viewer of the image processing device 303A. is there.

図13における画像処理装置303Aの視線検出処理部117の動作は、図11を元に説明すると以下のようになる。画像処理装置303Aの視線検出処理部117は、画像処理装置303Aの他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部218に対して、初期値ビットレート設定処理を行う(S502)。次に映像デコード処理部111/211から受信した映像信号データを解析し、視線測定処理を行う(S503)。   The operation of the line-of-sight detection processing unit 117 of the image processing apparatus 303A in FIG. 13 is as follows based on FIG. When the line-of-sight detection processing unit 117 of the image processing device 303A is activated in synchronization with other functional blocks of the image processing device 303A, the line-of-sight detection processing starts (S501), and the bit rate setting processing unit 218 Initial value bit rate setting processing is performed (S502). Next, the video signal data received from the video decoding processing unit 111/211 is analyzed, and a line-of-sight measurement process is performed (S503).

視線測定処理の測定結果から、正視判定処理を実行(S517)した結果として、この例では、レート設定1処理(S518)をビットレート設定処理部118に対して行う。   In this example, rate setting 1 processing (S518) is performed on the bit rate setting processing unit 118 as a result of executing the normal vision determination processing (S517) from the measurement result of the line-of-sight measurement processing.

更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でないので、再度、視線測定処理(S503)に戻る。この例では、画像処理装置303Bも全く同様の処理となり、画像処理装置303Cでは、視線測定処理を行い(S503)、その測定結果から、正視判定処理を実行(S517)した結果として、この例では、レート設定4処理(S521)をビットレート設定処理部118に対して行う。   Further, a wait process for a predetermined time is executed (S507), an execution program end determination process is executed (S508), and since the end is not ended, the process returns to the line-of-sight measurement process (S503) again. In this example, the image processing device 303B is exactly the same processing, and the image processing device 303C performs a line-of-sight measurement process (S503), and as a result of executing a normal vision determination process from the measurement result (S517), in this example The rate setting 4 process (S521) is performed on the bit rate setting processing unit 118.

図13の場合、互いに送信される映像・音声データは、画像処理装置303Aと画像処理装置303B間は、双方はお互いにディスプレイの画面を注視しているので、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御され、画像処理装置303Aと画像処理装置303C間は、画像処理装置303Aから画像処理装置303Cに対しては、臨場感を重視し、圧縮率が低い値(つまりデータレートが高い値)となるように制御されるが、画像処理装置303Cから画像処理装置303Aに対しては、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。画像処理装置303Bと画像処理装置303C間は、双方はお互いにディスプレイの画面を注視しておらず、臨場感は必要ないため、データの転送効率を重視し、圧縮率が高い値(つまりデータレートが低い値)となるように制御される。   In the case of FIG. 13, the video / audio data transmitted between the image processing devices 303A and 303B both pay close attention to the display screens, and therefore the compression ratio is emphasized. It is controlled to be a low value (that is, a data rate is a high value), and between the image processing devices 303A and 303C, the image processing device 303A to the image processing device 303C emphasizes a sense of realism, and is compressed. The rate is controlled so as to be a low value (that is, a high data rate), but since there is no need for realism from the image processing device 303C to the image processing device 303A, the data transfer efficiency is emphasized. Control is performed so that the compression rate becomes a high value (that is, the data rate is a low value). Since the image processing apparatuses 303B and 303C are not gazing at the display screens of each other, and there is no need for realism, the data transfer efficiency is emphasized, and a value with a high compression rate (that is, the data rate) Is controlled to be a low value).

本実施例によれば、映像処理装置303が3者間の視線状態を検出し映像符号化パラメータを制御することにより、不必要な映像データを送出せずに済むので、有限であるネットワークの回線帯域を有効に利用することができるようになる。   According to this embodiment, since the video processing device 303 detects the line-of-sight state between the three parties and controls the video encoding parameters, it is not necessary to send unnecessary video data. Bandwidth can be used effectively.

他の本実施例の画像処理装置について説明する。なお、実施例1と同等の機能、処理等については図面において同じ番号を付しており、説明を省略する。   Another image processing apparatus of this embodiment will be described. In addition, about the function, process, etc. equivalent to Example 1, the same number is attached | subjected in drawing, and description is abbreviate | omitted.

図14は実施例5における画像処理装置のブロック図の例である。本実施例の画像処理装置304は、実施例1の画像処理装置300に加えて音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、ネットワーク処理部208、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214、キャリブレーション制御部119、メモリ120を備え、外部機器制御部1802を介してディスプレイ215、スピーカ216に接続されている。   FIG. 14 is an example of a block diagram of an image processing apparatus according to the fifth embodiment. The image processing apparatus 304 according to the present exemplary embodiment includes an audio encoding processing unit 205, a video encoding processing unit 206, an AV packet synthesis processing unit 207, a network processing unit 208, and an AV packet separation processing unit in addition to the image processing apparatus 300 according to the first exemplary embodiment. 210, an image decoding processing unit 211, an audio decoding processing unit 212, a display driver 213, an audio driver 214, a calibration control unit 119, and a memory 120, and is connected to a display 215 and a speaker 216 via an external device control unit 1802. Yes.

音声エンコード処理部205、映像エンコード処理部206、AVパケット合成処理部207、AVパケット分離処理部210、映像デコード処理部211、音声デコード処理部212、ディスプレイドライバ213、音声ドライバ214の説明は、実施例1で説明した同名の処理部もしくは機器等と同様であるため、説明を省略する。   The description of the audio encoding processing unit 205, video encoding processing unit 206, AV packet synthesis processing unit 207, AV packet separation processing unit 210, video decoding processing unit 211, audio decoding processing unit 212, display driver 213, and audio driver 214 will be described. Since this is the same as the processing unit or device having the same name described in Example 1, the description is omitted.

次に、実施例5における視線検出処理217の動作についてフローチャートを用いて説明する。フローチャートにおいて「S」は「ステップ」を意味する。   Next, the operation of the line-of-sight detection processing 217 in Embodiment 5 will be described using a flowchart. In the flowchart, “S” means “step”.

図15は、実施例5における視線検出処理のフローチャートの例である。
図15は、図14の視線検出処理部117において、映像デコード処理部111から受信する映像出力データを入力として視線検出処理を行い、視線検出処理の結果に基づいてビットレート設定処理部118が、映像エンコード処理部111の映像エンコード処理におけるビットレートを設定する処理を制御する方法を示すフローチャートであり、当該処理は、映像デコード処理部111/211からの出力を入力として解析、判定を行い、ビットレート設定処理部118の入力を出力することで実現される。
FIG. 15 is an example of a flowchart of line-of-sight detection processing in the fifth embodiment.
In FIG. 15, the visual line detection processing unit 117 in FIG. 14 performs visual line detection processing using the video output data received from the video decoding processing unit 111 as an input, and based on the result of the visual line detection processing, the bit rate setting processing unit 118 It is a flowchart which shows the method which controls the process which sets the bit rate in the video encoding process of the video encoding process part 111, The said process performs analysis and determination by using the output from the video decoding process part 111/211 as an input, Bit This is realized by outputting the input of the rate setting processing unit 118.

視線検出処理部117は、画像処理装置304の他の機能ブロックと同期して起動されると、視線検出処理を開始し(S501)、ビットレート設定処理部118に対して、初期値ビットレート設定処理を行う(S502)。   When the line-of-sight detection processing unit 117 is activated in synchronization with other functional blocks of the image processing device 304, the line-of-sight detection processing unit 117 starts the line-of-sight detection processing (S501), and sets an initial value bit rate to the bit rate setting processing unit 118. Processing is performed (S502).

次に視線検出処理部117は、映像デコード処理部111/211から受信した映像出力データを解析し、視線測定処理を行い(S503)、その測定結果と予め保存したメモリ120に保存された視線検出処理の比較用データから、正視判定処理を実行し(S517)、視線判定比較処理結果により、図16のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)、レート設定5処理(S522)の何れかを、ビットレート設定処理部118に対して行う。   Next, the line-of-sight detection processing unit 117 analyzes the video output data received from the video decoding processing unit 111/211, performs a line-of-sight measurement process (S503), and the line-of-sight detection stored in the memory 120 stored in advance. A normal vision determination process is executed from the comparison data of the process (S517), and the rate setting 1 process (S518), the rate setting 2 process (S519), and the rate setting 3 process (S520) of FIG. Any one of the rate setting 4 process (S521) and the rate setting 5 process (S522) is performed on the bit rate setting processing unit 118.

更に、一定時間のウェイト処理を実行し(S507)、実行プログラムの終了判定処理を行い(S508)、終了でない場合には、再度、視線測定処理(S503)に戻り、終了の場合には、視線検出処理を終了する(S509)。   Further, wait processing for a certain time is executed (S507), execution program end determination processing is performed (S508), and if not ended, the process returns to the line-of-sight measurement process (S503) again. The detection process is terminated (S509).

図16の表は、図15のレート設定1処理(S518)、レート設定2処理(S519)、レート設定3処理(S520)、レート設定4処理(S521)、レート設定5処理(S522)のビットレート設定処理部118に対して行なわれる設定パラメータの組み合わせの例である。視線検出処理部117によるレート設定1から4までの選択の基準は実施例4と同様であるが、本実施例においては、複数のディスプレイのうち、どのディスプレイを見ているか、若しくは複数のディスプレイのどれも見ていないのか、を図17のように1台のカメラで判断しているため、視線検出の精度が低下する。   The table of FIG. 16 shows the bits of rate setting 1 processing (S518), rate setting 2 processing (S519), rate setting 3 processing (S520), rate setting 4 processing (S521), and rate setting 5 processing (S522) of FIG. It is an example of the combination of the setting parameter performed with respect to the rate setting process part 118. FIG. The criteria for selecting the rate settings 1 to 4 by the line-of-sight detection processing unit 117 are the same as those in the fourth embodiment, but in this embodiment, which of the plurality of displays is being viewed, or the plurality of displays Since one camera determines whether none of them are viewed as shown in FIG. 17, the accuracy of line-of-sight detection decreases.

そこで、本実施例では、視線検出処理部117が視線を検出することができなかった場合、および視聴者が複数のディスプレイのうち、どのディスプレイを見ているのかを判定できなかった場合に、視線検出処理部117はレート設定5を選択することとする。   Therefore, in this embodiment, when the line-of-sight detection processing unit 117 cannot detect the line of sight and when the viewer cannot determine which display among the plurality of displays, the line-of-sight is not detected. The detection processing unit 117 selects rate setting 5.

ビットレート設定処理部118は、レート設定5が選択された場合は「(画面A)の拠点への送出画質制御」も、「(画面B)の拠点への送出画質制御」も、高ビットレートと低ビットレートとの間のビットレート値である「中ビットレート」を設定する。   When the rate setting 5 is selected, the bit rate setting processing unit 118 performs both “high quality image transmission control for (screen A) base” and “high quality image transmission for (screen B) base”. “Medium bit rate”, which is a bit rate value between 1 and a low bit rate.

また、複数の人物の視線が検出された場合や、複数の人物が検出された場合、または複数の人物の視線が検出されてその一部の視線が正視と判断された場合に、レート設定5を選択するようにしてもよい。上記の場合、一台の画像処理装置300を用いて複数の人物が通信を行うことに対応することができる。また、複数の人物が検出された場合にレート設定5を選択するようにすれば、視線検出をするまでもなくビットレートを設定することができるため、視線検出処理部117による処理負担を減少させることができ、また、複数の人物の視線が検出されてその一部の視線が正視と判断された場合に、レート設定5を選択するようにした場合は、カメラ102が撮像する複数の人物の全員が正視していない場合にレート設定4とすることで、画像処理装置間の通信量をさらに減少させることができる。   Further, when a plurality of people's eyes are detected, when a plurality of people are detected, or when a plurality of people's eyes are detected and a part of the eyes is determined to be normal, rate setting 5 May be selected. In the above case, a plurality of persons can communicate with each other using a single image processing apparatus 300. Further, if the rate setting 5 is selected when a plurality of persons are detected, the bit rate can be set without detecting the line of sight, so that the processing load on the line-of-sight detection processing unit 117 is reduced. In addition, when the line of sight of a plurality of persons is detected and a part of the lines of sight is determined to be normal, when the rate setting 5 is selected, the plurality of persons captured by the camera 102 are selected. By setting the rate setting to 4 when not all of them are looking straight ahead, the amount of communication between the image processing apparatuses can be further reduced.

ビットレート設定処理部118は、視線検出処理部117によりレート設定1処理が選択された場合は、(画面A)の拠点への送出画質制御として、高ビットレートを設定し、(画面B)の拠点への送出画質制御として、高ビットレートを設定することを示している。以下同様に、図16の表は、ビットレート設定処理部118が、レート設定2処理が選択された場合に(画面A)の拠点への送出画質制御として高ビットレートを設定し、(画面B)の拠点への送出画質制御として、低ビットレートを設定することを、レート設定3処理が選択された場合に(画面A)の拠点への送出画質制御として低ビットレートを設定し、(画面B)の拠点への送出画質制御として高ビットレートを設定すること、レート設定4処理が選択された場合に(画面A)の拠点への送出画質制御として低ビットレートを設定し、(画面B)の拠点への送出画質制御として低ビットレートを設定すること、レート設定5処理が選択された場合に(画面A)の拠点への送出画質制御として中ビットレートを設定し、(画面B)の拠点への送出画質制御として中ビットレートを設定すること、を示している。   When rate setting 1 processing is selected by the line-of-sight detection processing unit 117, the bit rate setting processing unit 118 sets a high bit rate as the transmission image quality control to the base of (Screen A), and (Screen B) It shows that a high bit rate is set as the image quality control for sending to the base. Similarly, in the table of FIG. 16, the bit rate setting processing unit 118 sets a high bit rate as the transmission image quality control to the base in (screen A) when the rate setting 2 processing is selected, and (screen B ) To set a low bit rate as the transmission image quality control to the base of (), when the rate setting 3 process is selected, set the low bit rate as the transmission image quality control to the base of (Screen A) and (screen B) Setting a high bit rate as the transmission image quality control to the site of (B), and setting the low bit rate as the transmission image quality control to the site of (Screen A) when the rate setting 4 process is selected, ) To set the low bit rate as the transmission image quality control to the base of (), when the rate setting 5 process is selected, set the medium bit rate as the transmission image quality control to the base of (Screen A), and (screen B) Bases Indicates that, for setting the medium-bit rate as delivery quality control.

図17は、実施例5における動作例の図である。ネットワーク109を介して画像処理装置304A、画像処理装置304B、画像処理装置304Cが接続されており、それぞれにはディスプレイ、スピーカが接続されているものとする。   FIG. 17 is a diagram of an operation example in the fifth embodiment. It is assumed that an image processing device 304A, an image processing device 304B, and an image processing device 304C are connected via the network 109, and a display and a speaker are connected to each.

この例では、実施例4の場合とレート設定以外は、同様の動作となるため、簡略化のため説明を省略する。また、図17では、モニタを2台用いた場合について記載しているが、モニタの2画面表示機能を使うことにより、1台のモニタで同様のシステムを構築することもできる。   In this example, the operation is the same as in the case of the fourth embodiment except for the rate setting. Therefore, the description is omitted for the sake of brevity. Further, FIG. 17 shows the case where two monitors are used, but a similar system can be constructed with one monitor by using the two-screen display function of the monitor.

本実施例によれば、映像処理装置303が実施例4と同様に3者間の利用におけるネットワークの回線帯域を有効に利用することができるようになるほか、本実施例では、カメラ、マイク、映像信号処理、音声信号処理の部分が共用化されているので、システムコストを下げる効果がある。一方本実施例では、カメラ、マイク、映像信号処理、音声信号処理の部分が共用化されることにより、視聴者が画面Aを注視しているのか、画面Bを注視しているのかの判定が付かなくなる場合が発生するため、このような場合は、レート設定5処理により、(画面A)の拠点、(画面B)の拠点の両方に対して、中ビットレートを設定できるようにしたものである。また、複数人で同一の画像処理装置を利用した場合に、複数の視線を検出するケースがあり、この場合は、レート設定5処理により、(画面A)の拠点、(画面B)の拠点の両方に対して、中ビットレートを設定できるようにすることも考えられる。   According to the present embodiment, the video processing device 303 can effectively use the network bandwidth of the network between the three parties as in the fourth embodiment, and in this embodiment, the camera, the microphone, Since the video signal processing and audio signal processing portions are shared, the system cost can be reduced. On the other hand, in this embodiment, since the camera, microphone, video signal processing, and audio signal processing are shared, it is determined whether the viewer is watching the screen A or the screen B. In such a case, the medium bit rate can be set for both the base of (Screen A) and the base of (Screen B) by rate setting 5 processing. is there. In addition, when a plurality of people use the same image processing apparatus, there are cases in which a plurality of lines of sight are detected. It may be possible to set a medium bit rate for both.

以上の実施例では、ディスプレイ、スピーカが外付けの画像処理装置について説明をしたが、ディスプレイ、スピーカを内蔵したデジタルテレビ受信機などを利用して上記の例を実施することも可能である。   In the above embodiment, an image processing apparatus having an external display and speakers has been described. However, the above-described example can be implemented using a digital television receiver having a display and a speaker.

また、上記の実施例で説明した画像処理装置と同様の機能を持つMCU(Multipoint Control Unit)と、ビットレートを変更する機能を有さない複数の画像処理装置とを有し、画像処理装置はそれぞれがMCUに接続した構成を持つTV会議システムを構成することも可能である。   The image processing apparatus includes an MCU (Multipoint Control Unit) having the same function as the image processing apparatus described in the above embodiment, and a plurality of image processing apparatuses that do not have a function of changing the bit rate. It is also possible to configure a TV conference system having a configuration in which each is connected to the MCU.

この場合、それぞれの画像処理装置はMCUに対して各視聴者の映像音声データを送信し、MCUから送信された映像音声データをディスプレイ、スピーカで再生する。MCUは各画像処理装置から送信された映像音声データに含まれる映像の視線検出処理、音声のレベル判定処理等を行い、各画像処理装置にビットレートを変更して送信する。以上の構成にすることでMCUを用いたTV会議システムであっても上記の実施例と同様にして各画像処理装置に送信する映像音声データの通信量を低下させることができる。   In this case, each image processing apparatus transmits the video / audio data of each viewer to the MCU, and the video / audio data transmitted from the MCU is reproduced by a display and a speaker. The MCU performs line-of-sight detection processing, audio level determination processing, and the like included in the video / audio data transmitted from each image processing device, and changes the bit rate to each image processing device for transmission. With the above configuration, even in a TV conference system using an MCU, the communication volume of video / audio data transmitted to each image processing apparatus can be reduced in the same manner as in the above embodiment.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

101 マイク
102 カメラ
103 音声信号処理部
104 映像信号処理部
105 音声エンコード処理部
106 映像エンコード処理部
107 AVパケット合成処理部
108 ネットワーク処理部
109 ネットワーク
110 AVパケット分離処理部
111 映像デコード処理部
112 音声デコード処理部
113 ディスプレイドライバ
114 音声ドライバ
115 モニタ
116 スピーカ
117 視線検出処理部
118 ビットレート設定処理部
119 キャリブレーション制御部
120 メモリ
121 音声検出処理部
201 マイク
202 カメラ
203 音声信号処理部
204 映像信号処理部
205 音声エンコード処理部
206 映像エンコード処理部
207 AVパケット合成処理部
208 ネットワーク処理部
209 ネットワーク
210 AVパケット分離処理部
211 映像デコード処理部
212 音声デコード処理部
213 ディスプレイドライバ
214 音声ドライバ
215 モニタ
216 スピーカ
300 画像処理装置
301 画像処理装置
302 画像処理装置
303 画像処理装置
304 画像処理装置
Reference Signs List 101 microphone 102 camera 103 audio signal processing unit 104 video signal processing unit 105 audio encoding processing unit 106 video encoding processing unit 107 AV packet synthesis processing unit 108 network processing unit 109 network 110 AV packet separation processing unit 111 video decoding processing unit 112 audio decoding Processing unit 113 Display driver 114 Audio driver 115 Monitor 116 Speaker 117 Gaze detection processing unit 118 Bit rate setting processing unit 119 Calibration control unit 120 Memory 121 Audio detection processing unit 201 Microphone 202 Camera 203 Audio signal processing unit 204 Video signal processing unit 205 Audio encoding processing unit 206 Video encoding processing unit 207 AV packet synthesis processing unit 208 Network processing unit 209 Network 210 AV packet separation processing unit 211 video decoding unit 212 sound decoding unit 213 the display driver 214 audio driver 215 monitors 216 the speaker 300 the image processing apparatus 301 image processing apparatus 302 image processing apparatus 303 image processing apparatus 304 image processing apparatus

Claims (6)

第1の入力映像情報の視線検出を行い検出結果を出力する第1の映像処理ユニットと、
第2の入力映像情報を制御入力情報に基づいて圧縮符号化し映像情報を出力する第2の映像処理ユニットと、
前記第1の映像処理ユニットの出力を前記第2の映像処理ユニットの前記制御入力情報に変換する変換処理ユニットと、
他の機器からネットワークを介して受信した入力映像情報を前記第1の映像処理ユニットの前記第1の入力映像情報として出力すると共に、前記第2の映像処理ユニットで圧縮符号化した前記映像情報を前記他の機器へ前記ネットワークを介して送信するネットワーク接続ユニットと
を備えることを特徴とする画像処理装置。
A first video processing unit that detects a line of sight of the first input video information and outputs a detection result;
A second video processing unit that compresses and encodes the second input video information based on the control input information and outputs the video information;
A conversion processing unit that converts the output of the first video processing unit into the control input information of the second video processing unit;
Input video information received from another device via a network is output as the first input video information of the first video processing unit, and the video information compressed and encoded by the second video processing unit is output. An image processing apparatus comprising: a network connection unit that transmits to the other device via the network.
第1の入力映像情報を予め保持した映像情報を比較して視線検出を行い検出結果を出力する第1の映像処理ユニットと、
第2の入力映像情報を制御入力情報に基づいて圧縮符号化し出力する第2の映像処理ユニットと、
前記第1の映像処理ユニットの出力を前記第2の映像処理ユニットの前記制御入力情報に変換する変換処理ユニットと、
他の機器からネットワークを介して受信した入力映像情報を前記第1の映像処理ユニットの前記第1の入力映像情報として出力すると共に、前記第2の映像処理ユニットで圧縮符号化した前記映像情報を前記他の機器へ前記ネットワークを介して送信するネットワーク接続ユニットと
を備えることを特徴とする画像処理装置。
A first video processing unit that compares the video information previously held with the first input video information to detect a line of sight and outputs a detection result;
A second video processing unit for compressing and encoding the second input video information based on the control input information;
A conversion processing unit that converts the output of the first video processing unit into the control input information of the second video processing unit;
Input video information received from another device via a network is output as the first input video information of the first video processing unit, and the video information compressed and encoded by the second video processing unit is output. An image processing apparatus comprising: a network connection unit that transmits to the other device via the network.
請求項1または、請求項2の画像処理装置において、
入力音声情報の特徴検出を行い検出結果を出力する音声処理ユニットを備え、
前記変換処理ユニットは、前記音声処理ユニットの出力を前記第2の映像処理ユニットの前記制御入力情報に変換することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
It has a voice processing unit that detects the characteristics of the input voice information and outputs the detection results.
The image processing apparatus, wherein the conversion processing unit converts an output of the audio processing unit into the control input information of the second video processing unit.
第1の入力映像情報を解析して映像情報に含まれる視線検出を行う視線検出ステップと、
前記第1の入力映像情報の解析結果により、制御情報を作成するステップと、
前記制御情報により、第2の入力映像情報の圧縮符号化を制御するステップと、
ネットワークを介して受信した入力映像情報を前記第1の入力映像情報として出力すると共に、圧縮符号化された前記第2の入力映像情報を前記ネットワークに送信するステップと
を有することを特徴とする画像処理方法。
A line-of-sight detection step of analyzing the first input video information and detecting a line-of-sight included in the video information;
Creating control information according to the analysis result of the first input video information;
Controlling the compression encoding of the second input video information according to the control information;
And outputting the input video information received via the network as the first input video information and transmitting the compressed and encoded second input video information to the network. Processing method.
第1の入力映像情報を予め保持した映像情報と比較して映像情報に含まれる視線検出を行うステップと、
前記第1の入力映像情報の解析結果により、制御情報を作成するステップと、
前記制御情報により、第2の入力映像情報の圧縮符号化を制御するステップと、
ネットワークを介して受信した入力映像情報を前記第1の入力映像情報として出力すると共に、圧縮符号化された前記第2の入力映像情報を前記ネットワークに送信するステップと
を有することを特徴とする画像処理方法。
Comparing the first input video information with pre-stored video information to detect a line of sight included in the video information;
Creating control information according to the analysis result of the first input video information;
Controlling the compression encoding of the second input video information according to the control information;
And outputting the input video information received via the network as the first input video information and transmitting the compressed and encoded second input video information to the network. Processing method.
入力音声情報を解析して音声情報に含まれる特徴検出を行うステップと、
前記入力音声情報の検出結果により、制御情報を作成するステップと
前記制御情報により、第2の入力映像情報の圧縮符号化を制御するステップと、
ネットワークを介して受信した音声情報を前記入力音声情報として出力すると共に、圧縮符号化された前記第2の映像情報を前記ネットワークに送信するステップと
を有することを特徴とする画像処理方法。
Analyzing input speech information and detecting features included in the speech information;
A step of creating control information according to a detection result of the input audio information; a step of controlling compression encoding of second input video information according to the control information;
And outputting the audio information received via the network as the input audio information and transmitting the compressed and encoded second video information to the network.
JP2011184259A 2011-08-26 2011-08-26 Image processing apparatus and image processing method Pending JP2013046319A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011184259A JP2013046319A (en) 2011-08-26 2011-08-26 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011184259A JP2013046319A (en) 2011-08-26 2011-08-26 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2013046319A true JP2013046319A (en) 2013-03-04

Family

ID=48009860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011184259A Pending JP2013046319A (en) 2011-08-26 2011-08-26 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2013046319A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018046464A (en) * 2016-09-15 2018-03-22 日本電信電話株式会社 Visual line agreement face image combination method, television convention system, and program
JP2021044723A (en) * 2019-09-12 2021-03-18 富士通株式会社 Line-of-sight information processing program, information processing device and line-of-sight information processing method
US11310514B2 (en) 2014-12-22 2022-04-19 Samsung Electronics Co., Ltd. Encoding method and apparatus using non-encoding region, block-based encoding region, and pixel-based encoding region

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034010A (en) * 2000-07-18 2002-01-31 Nagano Japan Radio Co Video phone system
JP2006054830A (en) * 2004-08-16 2006-02-23 Sony Corp Image compression communication method and device
JP2007081837A (en) * 2005-09-14 2007-03-29 Aruze Corp Video conference terminal device, video conference system, and video conference method
JP2009147792A (en) * 2007-12-17 2009-07-02 Nec Corp Communication apparatus with image, communication display method with image, program and communication system with image
JP2010529735A (en) * 2007-05-30 2010-08-26 イーストマン コダック カンパニー Portable video communication system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034010A (en) * 2000-07-18 2002-01-31 Nagano Japan Radio Co Video phone system
JP2006054830A (en) * 2004-08-16 2006-02-23 Sony Corp Image compression communication method and device
JP2007081837A (en) * 2005-09-14 2007-03-29 Aruze Corp Video conference terminal device, video conference system, and video conference method
JP2010529735A (en) * 2007-05-30 2010-08-26 イーストマン コダック カンパニー Portable video communication system
JP2009147792A (en) * 2007-12-17 2009-07-02 Nec Corp Communication apparatus with image, communication display method with image, program and communication system with image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11310514B2 (en) 2014-12-22 2022-04-19 Samsung Electronics Co., Ltd. Encoding method and apparatus using non-encoding region, block-based encoding region, and pixel-based encoding region
JP2018046464A (en) * 2016-09-15 2018-03-22 日本電信電話株式会社 Visual line agreement face image combination method, television convention system, and program
JP2021044723A (en) * 2019-09-12 2021-03-18 富士通株式会社 Line-of-sight information processing program, information processing device and line-of-sight information processing method
JP7284401B2 (en) 2019-09-12 2023-05-31 富士通株式会社 Line-of-sight information processing program, information processing device, and line-of-sight information processing method

Similar Documents

Publication Publication Date Title
JP6179834B1 (en) Video conferencing equipment
US10110831B2 (en) Videoconference device
CN103686219B (en) A kind of method, equipment and the system of video conference recorded broadcast
US20160007047A1 (en) Method of controlling bandwidth in an always on video conferencing system
US9497390B2 (en) Video processing method, apparatus, and system
US8743172B2 (en) Image capturing for video conference system
US8749611B2 (en) Video conference system
JP6179179B2 (en) Information processing apparatus, information processing method, and program
US7508413B2 (en) Video conference data transmission device and data transmission method adapted for small display of mobile terminals
EP2732622B1 (en) Multipoint connection apparatus and communication system
JP6152961B1 (en) Video conferencing equipment
US20080231708A1 (en) Network apparatus, sound data transmission method, sound data transmission program, monitoring apparatus and security camera system
JP2010157906A (en) Video display device
CN102202206B (en) Communication equipment
JP2013046319A (en) Image processing apparatus and image processing method
US20130291011A1 (en) Transcoding server and method for overlaying image with additional information therein
JP2010213119A (en) Video transmission system, imaging apparatus and monitoring device
US20140362166A1 (en) Incoming call display method, electronic device, and incoming call display system
CN117278538B (en) Method for adjusting parameters of encoder and electronic equipment
US9118803B2 (en) Video conferencing system
JP5977612B2 (en) Source device, sink device, system, program, and storage medium
WO2025010818A1 (en) System for screen sharing among conference-participating devices
JP2018207337A (en) Television conference device
JP2015061108A (en) Communication system, communication apparatus and method
JP2013126103A (en) Communication apparatus and communication control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310