JP2008109362A - Camera server, and processing method for data - Google Patents
Camera server, and processing method for data Download PDFInfo
- Publication number
- JP2008109362A JP2008109362A JP2006289887A JP2006289887A JP2008109362A JP 2008109362 A JP2008109362 A JP 2008109362A JP 2006289887 A JP2006289887 A JP 2006289887A JP 2006289887 A JP2006289887 A JP 2006289887A JP 2008109362 A JP2008109362 A JP 2008109362A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image data
- sound
- image
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 11
- 230000001360 synchronised effect Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 abstract description 8
- 238000006243 chemical reaction Methods 0.000 description 15
- 230000005236 sound signal Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、カメラサーバおよびデータの処理方法に関するものである。 The present invention relates to a camera server and a data processing method.
従来、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するためのカメラサーバが知られている(例えば、特許文献1参照)。かかるカメラサーバは、カメラ装置から出力されるデータ信号を全て、クライアント側に配信する構成となっている。 2. Description of the Related Art Conventionally, a camera server for distributing image data of an image captured by a camera device including an image sensor to a client via a network is known (for example, see Patent Document 1). Such a camera server is configured to distribute all data signals output from the camera device to the client side.
しかしながら、カメラ装置から出力されるデータ信号には、画像データのデータ信号ではない、ノイズのデータ信号が混在することがある。そのため、クライアントは、画像データの他、ノイズのデータ信号についても配信されることになる。したがって、クライアント側において、カメラサーバから送信されたデータに基づいて映像を表示する場合に、ノイズのデータ信号により、映像に乱れが発生するという問題がある。 However, a data signal output from the camera device may include a noise data signal that is not an image data data signal. Therefore, the client distributes not only image data but also a noise data signal. Therefore, when displaying a video based on the data transmitted from the camera server on the client side, there is a problem that the video is disturbed by a noise data signal.
そこで、本発明は、クライアントに、ノイズの少ない画像データを配信し、クライアント側で表示される映像の乱れを少なくするカメラサーバおよびデータの処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a camera server and a data processing method that distribute image data with less noise to a client and reduce disturbance of video displayed on the client side.
上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、画像データが、所定の画像データであるか否かを判断し、画像データが、所定の画像データであると判断された画像データについては、ネットワーク側に出力し、画像データが、所定の画像データでないと判断されたデータについては、ネットワーク側に出力しないデータ選択手段を備えることとする。 In order to solve the above-described problem, a camera server that distributes image data of an image captured by a camera device including an image sensor to a client via a network determines whether the image data is predetermined image data. Data selection for image data that is determined to be predetermined image data is output to the network side, and data that is determined that the image data is not predetermined image data is not output to the network side Means shall be provided.
このように構成した場合には、クライアントに対してノイズの少ない画像データを配信することができるので、クライアントは、ノイズの少ない画像データを得ることができる。 In such a configuration, image data with less noise can be distributed to the client, so that the client can obtain image data with less noise.
また、他の発明は、上述の発明に加え、データ選択手段は、画像データに付加されるヘッダの情報に基づいて、所定の画像データであるか否かを判断することとする。 According to another invention, in addition to the above-described invention, the data selecting means determines whether or not the image data is predetermined image data based on information of a header added to the image data.
このように構成した場合には、所定の画像データであるかどうかを容易に判断することができる。 When configured in this way, it is possible to easily determine whether the image data is predetermined image data.
また、他の発明は、上述の発明に加え、カメラサーバは、画像データに加えて音データが入力されたときに、画像データと音データのヘッダ情報に基づいて、画像データと音データの同期をとるデータ同期手段を備え、データ同期手段は、データ選択手段により、所定の画像データでないと判断されたデータ部分に対しても、音データの所定の音データを同期させることとする。 In another invention, in addition to the above-described invention, the camera server synchronizes the image data and the sound data based on the header information of the image data and the sound data when the sound data is input in addition to the image data. The data synchronization means synchronizes the predetermined sound data of the sound data with the data portion that is determined not to be the predetermined image data by the data selection means.
このように構成した場合には、クライアントに対してノイズの少ない画像データを配信することができるので、クライアントは、ノイズの少ない画像データを得ることができる。音データについては、配信されなかった画像データに同期する音データも配信される。そのため、クライアントは、集音された音を途切れることなく聴くことができる。 In such a configuration, image data with less noise can be distributed to the client, so that the client can obtain image data with less noise. As for the sound data, sound data synchronized with the image data that has not been distributed is also distributed. Therefore, the client can listen to the collected sound without interruption.
上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するデータの処理方法において、画像データが、所定の画像データであるか否かを判断し、画像データが、所定の画像データであると判断された画像データについては、ネットワーク側に出力し、画像データが、所定の画像データでないと判断されたデータについては、ネットワーク側に出力しないこととする。 In order to solve the above-described problem, in a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client via a network, whether or not the image data is predetermined image data. If the image data is determined to be predetermined image data, the image data is output to the network side. If the image data is determined not to be the predetermined image data, the image data is not output to the network side. I will do it.
このように構成した場合には、クライアントに対してノイズの少ない画像データを配信することができるので、クライアントは、ノイズの少ない画像データを得ることができる。 In such a configuration, image data with less noise can be distributed to the client, so that the client can obtain image data with less noise.
また、他の発明は、上述の発明に加え、画像データが、所定の画像データであるか否かの判断は、画像データに付加されるヘッダの情報に基づいて行なうこととする。 According to another invention, in addition to the above-described invention, whether or not the image data is predetermined image data is determined based on header information added to the image data.
このように構成した場合には、所定の画像データであるかどうかを容易に判断することができる。 When configured in this way, it is possible to easily determine whether the image data is predetermined image data.
上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データと、マイクロフォンにより集音した音の音データとを、ネットワークを通じてクライアントに配信するデータ処理方法において、画像データについては、所定の画像データであるか否かを判断し、画像データが、所定の画像データであると判断された画像データについては、ネットワーク側に出力し、画像データが、所定の画像データでないと判断されたデータについては、ネットワーク側に出力しない処理を行い、音データとネットワーク側に出力された画像データとを、それぞれのデータに付加されているヘッダ情報に基づいて、互いに同期させ、所定の画像データでないと判断されたデータ部分に対しても、音データの所定の音データを同期させることとする。 In order to solve the above-described problem, in a data processing method for distributing image data of an image captured by a camera device including an image sensor and sound data of sound collected by a microphone to a client via a network, the image data Determines whether the image data is predetermined image data. The image data determined to be the predetermined image data is output to the network side, and the image data is not the predetermined image data. The determined data is processed so as not to be output to the network side, and the sound data and the image data output to the network side are synchronized with each other based on header information added to each data, The specified sound data of the sound data is also synchronized with the data portion determined not to be image data. To be.
このように構成した場合には、クライアントに対してノイズの少ない画像データを配信することができるので、クライアントは、ノイズの少ない画像データを得ることができる。音データについては、配信されなかった画像データに同期する音データも配信される。そのため、クライアントは、集音された音を途切れることなく聴くことができる。 In such a configuration, image data with less noise can be distributed to the client, so that the client can obtain image data with less noise. As for the sound data, sound data synchronized with the image data that has not been distributed is also distributed. Therefore, the client can listen to the collected sound without interruption.
本発明によれば、クライアントに、ノイズの少ない画像データを配信でき、クライアント側で表示される映像の乱れを少なくすることができる。 According to the present invention, it is possible to distribute image data with less noise to a client, and to reduce disturbance of video displayed on the client side.
以下、本発明の実施の形態に係るカメラサーバおよびデータの処理方法を図面に基づいて説明する。 Hereinafter, a camera server and a data processing method according to an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態に係るカメラサーバシステム1を示すシステム構成図である。カメラサーバシステム1は、カメラ装置2およびカメラサーバ3を有する。カメラ装置2とカメラサーバ3とは、USB(Universal Serial Bus)ケーブル4により接続されている。カメラサーバシステム1とクライアント5とは、ネットワーク6を介して接続され、カメラサーバシステム1は、クライアント5側のパソコン7からの指令を受ける。カメラサーバ3は、パソコン7から受けた指令に基づいて、カメラ装置2により撮像した画像の画像データをパソコン7(クライアント5)に配信する。なお、クライアント5は、1または複数存在し、カメラサーバシステム1は、それぞれのクライアント5に対して、各クライアント5からの要求に従って、該画像データを配信する。
FIG. 1 is a system configuration diagram showing a
カメラ装置2は、立方体形状のハウジング8を有する。ハウジング8には、魚眼レンズ9、USBコネクタ10、オーディオ・ビデオ出力コネクタ11、音出力コネクタ12等が設けられる。魚眼レンズ9は、ハウジング8の上面に配設される。また、ハウジング8の上面には、魚眼レンズ9の他、マイクロフォン13(図2参照)用の通気孔14が形成される。USBコネクタ10、オーディオ・ビデオ出力コネクタ11および音出力コネクタ12は、ハウジング8の側面に配設される。
The
カメラサーバ3は、直方体形状のハウジング15を有する。ハウジング15には、カメラ装置2からのデータが入力する入力端子である入力部としてのUSBコネクタ16、必要に応じて適宜に利用する拡張マイクロフォン17が接続されるマイクロフォンコネクタ18、赤外線センサ等の外部機器を接続するための汎用入出力ポート(GPIO:General Purpose Input Output)19、オーディオ信号を出力するオーディオ出力コネクタ20、ビデオ信号を出力するビデオ出力コネクタ21、スピーカが接続されるスピーカコネクタ22、ネットワークに接続される通信インターフェース23、およびリセットスイッチを兼ねる電源スイッチ24等が設けられる。
The
図2は、カメラ装置2の電気回路を示すブロック図である。
FIG. 2 is a block diagram showing an electric circuit of the
カメラ装置2は、魚眼レンズ9、USBコネクタ10、オーディオ・ビデオ出力コネクタ11、音出力コネクタ12の他に、マイクロフォン13、撮像素子としてイメージセンサ25、FPGA(Field Programable Gate Array)により構成される色変換処理部26、音IC(Integrated Circuit)により構成される音処理部27、オーディオ・ビデオエンコーダ28、ストリーミング生成部29、および上述の各構成部分の動作の制御を司るCPU(Central Processing Unit)30等を有する。
In addition to the
マイクロフォン13は、 カメラ装置2の周囲の音声や音を集音する。マイクロフォン13は、集音した音に応じた電気信号である音信号を生成し、音処理部27に出力する。音処理部27では、マイクロフォン13からの電気信号に基づきデジタル形式の音データを生成する。なお、音処理部27は、音出力コネクタ12に対しては、マイクロフォン13からの音声に応じた電気信号を音データ(デジタル形式)に変換することなく出力する。そのため、音出力コネクタ12に、例えば、スピーカ、ヘッドホン等を接続することにより、マイクロフォン13で集音した音を聞くことができる。
The microphone 13 collects sounds and sounds around the
イメージセンサ25には、例えば、CMOS(Complementary Metal−Oxide Semiconductor)等を用いる。イメージセンサ25には、魚眼レンズ9による像が結像する。イメージセンサ25は、撮像信号である輝度分布データをデジタル形式の画像データとして、色変換処理部26に出力する。本実施の形態においては、イメージセンサ25は、例えば、毎秒、1/15フレームの撮像速度で撮像を行うものとする。したがって、イメージセンサ25からは、1/15秒毎に1フレーム分の画像データが出力されることになる。
For example, a CMOS (Complementary Metal-Oxide Semiconductor) is used for the
色変換処理部26は、図示外の色変換テーブルを用いて、輝度分布データの各画素のデータを置き換え、デジタル形式の画像データを生成する。生成された画像データは、CPU30により形成されるヘッダ付加部31により、フレーム毎にヘッダが付加される。ヘッダには、撮像順序に従って、連続番号であるヘッダ番号M(M=1,2,3,…)が付与される。
The color
CPU30には、画像データをJPEG(Joint Photographic Experts Group)形式の圧縮画像データに変換するエンコーダとしてのJPEGエンコーダ部32が構成されている。画像データは、JPEGエンコーダ部32により、JPEG形式の画像データに変換される際に、ヘッダに、データの内容がJPEG変換された画像データである旨の情報が付与される。
The
ところで、イメージセンサ25からは画像データ以外のノイズデータが出力されたり、あるいは、イメージセンサ25とJPEGエンコーダ部32との間でノイズデータが混在することがある。JPEGエンコーダ部32では、JPEGエンコーダ部32に入力されたデータが、画像データである場合には、JPEG形式の画像データに変換すると共に、ヘッダに、ヘッダが付加されているデータがJPEG形式の画像データである旨の情報を付与する。
By the way, noise data other than image data may be output from the
これに対し、JPEGエンコーダ部32は、変換しようとするデータが画像データでない場合は、JPEG形式の画像データに変換しない。すなわち、JPEGエンコーダ部32に、イメージセンサ25から出力された画像データとして入力されるデータのうち、画像データでないノイズデータについては、JPEG形式の画像データに変換されないため、ヘッダに、JPEG形式の画像データである旨の情報は付与されない。なお、JPEGエンコーダ部32は、画像データ中に、所定以上のノイズデータが含まれているときは、JPEG形式の画像データに変換しないように構成してもよい。
On the other hand, if the data to be converted is not image data, the
したがって、ヘッダ情報に基づいて、ヘッダが付加されているデータの内容が、画像データか、ノイズデータかを判断することができる。 Accordingly, based on the header information, it can be determined whether the content of the data to which the header is added is image data or noise data.
音データについても、ヘッダ付加部31により所定単位のデータ量で、ヘッダが付加される。例えば、本実施の形態では、1/30秒単位のデータ長毎に、音データにヘッダが付加される。音データのヘッダには、ヘッダが付加されたデータが音データである旨の情報と、時間の経過に従った連続した番号であるヘッダ番号N(N=1,2,3,…)の情報が付与される。
Also for the sound data, a header is added by the
画像データが毎秒15フレームのデータ量であるのに対し、音データは、1/30秒単位のデータ量である。したがって、1フレームの画像データに対して、2単位分(1/30秒×2)の音データが対応することになる。 The image data has a data amount of 15 frames per second, whereas the sound data has a data amount of 1/30 second. Therefore, two units (1/30 seconds × 2) of sound data correspond to one frame of image data.
画像データと音データとは、ヘッダ番号に基づいて、撮像時と集音時のタイミングが互いに同期させられている状態で、CPU30から、ストリーミング生成部29に対して出力される。例えば、画像データのヘッダ番号Mが、1,2,3,4,5,…であり、音データのヘッダ番号Nが、1,2,3,4,5,6,7,8,9,10,…であるとする。そうすると、ヘッダ番号M=1の画像データに対して、ヘッダ番号N=1,2の音データが対応し、ヘッダ番号M=1の画像データとヘッダ番号N=1,2の音データとは時間的タイミングが同期しているデータとなる。また、同様に、ヘッダ番号M=2の画像データと、ヘッダ番号N=3,4の音データとは、時間的タイミングが同期しているデータとなる。つまり、ヘッダ番号Mの画像データと、ヘッダ番号N=2M−1,2Mの音データとが、撮像と集音された時間的タイミングが同期しているデータとなっている。
The image data and the sound data are output from the
ストリーミング生成部29は、CPU30から出力される画像データおよび音データを読み込み、これらのコンテンツデータを有するデータをストリーミングデータとして生成する。ストリーミング生成部29は、生成したデジタル形式のデータ信号を通信処理部33に供給し、USBコネクタ10からUSBケーブル4を介して、カメラサーバ3に送信する。
The
このように画像データおよび音データのコンテンツデータを有するデータを生成し、このデジタル形式のデータを、USBケーブル4を介してカメラサーバ3に送る。これにより、デジタル形式の画像データを、アナログ形式のデータ信号に変換することなく、カメラサーバ3へ送信することができる。
In this way, data having content data of image data and sound data is generated, and this digital data is sent to the
オーディオ・ビデオエンコーダ28は、色変換処理部26から出力された画像データを、JPEG形式の画像データに変換することなく読み込み、NTSC(National TV Standards Committee)方式やPAL(Phase Alternating Line)方式のビデオ信号を生成する。また、オーディオ・ビデオエンコーダ28は、デジタル形式の音データを電気信号である音信号に変換する。そして、ビデオ信号と音信号と共に、オーディオ・ビデオ出力コネクタ11へ出力する。
The audio /
図3は、カメラサーバ3の電気回路を示すブロック図である。
FIG. 3 is a block diagram showing an electric circuit of the
カメラサーバ3は、USBコネクタ16、拡張マイクロフォン17が接続されるマイクロフォンコネクタ18、赤外線センサ等の外部機器が接続される汎用入出力ポート19、オーディオ出力コネクタ20、ビデオ出力コネクタ21、スピーカコネクタ22、通信インターフェース23、電源スイッチ24の他、オーディオ・ビデオ入力コネクタ34、オーディオエンコーダ35、メモリ36、および上述の各構成部分の動作の制御を司る制御手段としてのMCU(Microcontroller Unit)37を有する。
The
MCU37には、データ選択手段であるデータ選択部38、データ同期手段であるデータ同期部39、およびデータ配信手段であるデータ配信部40等が構成されている。これらデータ選択部38、データ同期部39、およびデータ配信部40は、メモリ36に記憶されている制御プログラムが、MCU37読み込まれることにより、機能的に実現される。
The
データ選択部38は、カメラ装置2から送信されてきた画像データについて、各フレームの画像データのヘッダ情報に基づいて、画像データの内容を判断する。上述したように、ヘッダには、ヘッダ内のデータが、JPEG変換された画像データである場合には、その旨の情報が付与され、ヘッダ内のデータが、ノイズデータである場合には、該情報は付与されていない。つまり、データ選択部38では、ヘッダ情報に基づいて、ヘッダ毎のデータの内容が所定の画像データであるか、所定の画像データ以外のデータであるかを判断する。
The
そして、データ選択部38は、この判断結果に基づいて、データ同期部39に出力するデータを取捨選択する。すなわち、データ選択部38により、データの内容が所定の画像データであると判断された場合には、この画像データは、データ同期部39およびデータ配信部40を介して、通信インターフェース部23から、ネットワーク6を通じてクライアント5のパソコン7に配信される。一方、所定の画像データでないデータについては、データ同期部39側への出力は行われない。
Then, the
このように、データ選択部38を備え、所定の画像データでないデータを、クライアント5側に配信しないようにすることにより、クライアント5側に配信される画像データには、ノイズのデータが含まれないようになる。そのため、クライアント5のパソコン7のモニタに表示される映像は、ノイズの少ない綺麗な映像となる。また、ノイズデータは、送信されないため、カメラサーバ3からクライアント5へ送信するデータ量が少なくなり、カメラサーバ3からクライアント5への画像データの送信速度を早くすることができる。
As described above, the
一方、音データについては、画像データのように取捨選択されていないため、全ての音データが、データ同期部39およびデータ配信部40を介して、通信インターフェース部23から、ネットワーク6を通じてクライアント5のパソコン7に配信される。クライアント5側においては、パソコン7に内蔵等するスピーカから、マイクロフォン13により集音した、音声等の音を聞くことができる。
On the other hand, since the sound data is not selected as in the case of image data, all the sound data is transmitted from the
ところで、音データについては、画像データのように取捨選択されないため、データ選択部38からデータ配信部40に入力する音データのヘッダ番号Nは、欠損のない連続番号となっている。これに対し、上述したように、画像データについては、データ選択部38において、データ配信部40に出力するデータを取捨選択するため、データ選択部38からデータ配信部40に入力する画像データのヘッダ番号Mには、欠損が生じている場合がある。
By the way, since the sound data is not selected as in the case of image data, the header number N of the sound data input from the
したがって、例えば、画像データについては、ヘッダ番号Mが欠損した部分の画像データを詰めて配信し、音データについては、データを詰めることなく、クライアント5側に配信した場合には、音データに基づく音の内容に対して、画像データに基づく映像が先走る状態となり、映像と音とが同期しなくなってしまう。また、例えば、欠損した画像データと同期する音データを削除すれば、映像と音とを同期させることができるが、音の内容に飛びを生じるという問題がある。
Therefore, for example, when the image data is distributed with the image data of the portion where the header number M is missing, the sound data is based on the sound data when distributed to the
そこで、データ同期部39において、音データとデータ選択部38から出力された画像データとを、集音タイミングと撮像タイミングが互いに同期していると共に、音の内容に飛びを生じることのないように同期させる処理をする。
Therefore, in the
具体的には、例えば、データ選択部38から出力した画像データのヘッダ番号が、1,2,_,4,5,…(ヘッダ番号3の画像データについては、ノイズデータであったため欠損している。)であり、音データのヘッダ番号が1,2,3,4,5,6,…である場合には、ヘッダ番号1の画像データに対してはヘッダ番号1,2の音データを同期させ、ヘッダ番号2の画像データに対してはヘッダ番号3,4の音データを同期させる。ヘッダ番号3の画像データは欠損しているが、この部分には、ヘッダ番号5,6の音データを同期させる。そして、ヘッダ番号4の画像データに対してはヘッダ番号7,8の音データを同期させることになる。このように、音データと画像データの同期を取った状態で、データ配信部40から通信インターフェース23を通ってネットワーク6側にデータが配信される。
Specifically, for example, the header number of the image data output from the
クライアント5側では、画像データの欠損しているヘッダ番号3の部分については、音データのみが配信され、パソコン7のスピーカからは、ヘッダ番号5,6の音データに基づく音が再生されることになる。
On the
なお、クライアント5のパソコン7のビュアソフトを、新たな画像データが配信されるまでは、モニタに、直前の画像データに基づく映像を継続して表示するように構成しておくことにより、画像データが欠損した場合に、パソコン7のモニタに何も表示されない不自然な状態にならないようにすることができる。ビュアソフトをこのように構成した場合には、ヘッダ番号2の画像データが配信され、その後、ヘッダ番号4の画像データが配信されるまでの間は、ヘッダ番号2の画像データに基づく映像が表示され、この間、ヘッダ番号5,6の音データに基づく音が再生されることになる。
Note that the viewer software of the personal computer 7 of the
なお、データ配信部40は、複数のクライアント5が、カメラサーバ3にアクセスしている場合には、これらのクライアント5に対してデータ信号を同時配信する。
The
ところで、USBコネクタ16には、カメラ装置2からUSBケーブル4を介して、デジタル形式の画像データおよびデジタル形式の音データを有するデータ信号が供給され、MCU37に入力する。MCU37に入力されたデジタル形式のデータ信号は、デジタル形式のデータ信号として通信インターフェース23からネットワーク6に出力するように構成されている。
By the way, the
したがって、カメラサーバ3は、カメラ装置2から出力されたデジタル形式のデータ信号を、デジタル形式の信号のままネットワーク側に出力するため、信号の劣化が無い。また、カメラサーバ3内にアナログ信号をデジタル信号に変換するAD変換機能を持たせる必要がない。なお、画像データは、半二重通信方式でTCPプロトコルまたはUDPプロトコルにてデータ伝送される。音データは、二重通信方式で、TCPプロトコルまたはUDPプロトコルにてデータ伝送される。
Therefore, since the
上述したように、画像データは、カメラ装置2において、JPEG形式の圧縮画像データに変換された後、カメラサーバ3に送信され、データ配信部40から、通信インターフェース23を通して、クライアント5に対して配信される。このように、画像データをカメラ装置2においてJPEG形式に変換し、JPEG形式の画像データをカメラサーバ3に送るように構成することにより、カメラ装置2からカメラサーバ3に送信するデータの容量を減らすことができる。このため、カメラサーバシステム1における画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアント5に送信する速さを速くすることができる。
As described above, the image data is converted into JPEG format compressed image data in the
一方、これに対し、例えば、画像データのJPEG形式への変換を、カメラサーバ3のMCU37において行い、また、クライアント5からの画像データの送信の要求に応じて、その都度、JPEG形式への変換を実行するようにした場合には、カメラサーバ3からクライアント5へ画像データを配信する速さが遅くなる。
On the other hand, for example, the conversion of the image data to the JPEG format is performed in the
また、MCU37は、カメラサーバ3の全体の制御に加え、カメラ装置2の制御やクライアント5との通信等に係わる多くの処理を行う。そのため、これらの処理に加えて、JPEG変換のエンコード機能を持たせることとすると、MCU37の負荷が大きくなり、MCU37の処理速度が低下し、JPEG変換のエンコード処理速度も遅くなる。この結果、カメラサーバ3から画像データをクライアント5へ送信する速さが遅くなってしまう。
In addition to the overall control of the
また、クライアント5からの画像データの送信の要求に応じて、その都度、JPEG形式への変換を実行するようにした場合、1のクライアント5に対して、画像データの送信処理を行っている間は、他のクライアント5は、待っていなくてはいけないため、クライアント5へ画像データを送信する速さが遅くなる。
In addition, when conversion to the JPEG format is executed each time in response to a request for transmission of image data from the
これに対して、カメラサーバ3側のMCU37に比べて処理項目の少ないカメラ装置2側のCPU30を用いてJPEG変換することにより、JPEG変換の速度を高くすることができる。また、MCU37は、JPEG変換の処理を行わない分、処理速度の低下がなく、データ選択部38およびデータ配信部40等の処理速度を高めるこができ、クライアント5に画像データを配信するための処理速度を速くすることができる。
On the other hand, JPEG conversion speed can be increased by performing JPEG conversion using the
また、データ配信部40からは、複数のクライアント5に対して、画像データが同時に配信されるため、クライアント5は、他のクライアント5への配信が終わるのを待って画像データの配信を受けるということがなくなり、配信の速さを早くすることができる。
Further, since the image data is simultaneously distributed to the plurality of
なお、JPEGエンコーダ部32は、カメラ装置2のCPU30に設ける他、図3に点線に示すように、カメラサーバ3側にMCU37とは別に、JPEGエンコーダ32Aを、USBコネクタ16とMCU37との間に設け、このJPEGエンコーダ32AによりJPEG変換を行った画像データをMCU37に入力するように構成してもよい。JPEGエンコーダ部32Aは、データ選択部38、データ同期部39およびデータ配信部40等が備えられるMCU37とは別の処理装置として設けられているため、MCU37の処理速度を低下させることがない。
The
また、カメラ装置2側にCPU30とは別に、専用のJPEGエンコーダを備えて、このJPEGエンコーダによりJPEG変換を行わせるように構成してもよい。
Further, a dedicated JPEG encoder may be provided on the
オーディオエンコーダ35では、通信インターフェース23からカメラサーバ3に入力するデジタル形式の音データをMCU37から読み込み、電気信号である音信号に変換して、スピーカコネクタ22へ出力する。そのため、スピーカコネクタ22に、例えば、スピーカ等を接続することにより、通信インターフェース23から入力される音データを再生することができる。
In the
オーディオ・ビデオ入力コネクタ34に、カメラ装置2側のオーディオ・ビデオ出力コネクタ11から出力された音信号とビデオ信号が入力されたときには、これらの音信号とビデオ信号を、それぞれオーディオ出力コネクタ20とビデオ出力コネクタ21に出力する。したがって、オーディオ出力コネクタ20とビデオ出力コネクタ21にテレビ等を接続すると、カメラ装置2で撮像および集音された映像と音声を視聴することができる。
When a sound signal and a video signal output from the audio /
カメラサーバ3からは、カメラ装置2に対して、USBケーブル4を介してカメラ装置2を制御するためのカメラ装置制御信号が送信される。このカメラ装置制御信号は、MCU37に構成されるデバイス制御部41により生成されるもので、例えば、カメラ装置2の動作開始や停止を制御するものであったり、カメラ装置2に対して画像データの送信を要求するもの等である。また、ネットワークに接続されるクライアント5側のパソコン7等からカメラサーバ3に対して送信される指令についても、その指令を解釈して、カメラ装置2に対してカメラ装置制御信号を送信する。例えば、パソコン7等から、撮影方向を水平に移動させるパン撮影を行うためのパン制御、撮影方向を上下に移動させるチルト制御、撮影画角を狭めたり広げたりするズーム撮影を行うためのズーム制御等が要求された場合には、デバイス制御部41は、その指令を解釈して、カメラ装置2に対してカメラ装置制御信号を送信する。なお、デバイス制御部41は、カメラ装置2の他、GPIOに外部機器が接続された場合には、この外部機器についても制御を行う。
A camera device control signal for controlling the
ところで、カメラ装置2に内蔵されるマイクロフォン13は、ハウジング8内に配設されるイメージセンサ25や回路構成の制約を受けて、使用できるサイズに制限があり、十分な集音力を得られない場合がある。このような場合には、マイクロフォンコネクタ18に拡張マイクロフォン17を接続する。
By the way, the
MCU37は、マイクロフォンコネクタ18に拡張マイクロフォン17が接続されたことを認識すると、カメラ装置2に対して、マイクロフォン13による集音を停止するカメラ装置制御信号を送信する。このカメラ装置制御信号を受けてカメラ装置2のCPU30は、音処理部27に対し、音データを生成することを停止する制御を行なう。そのため、カメラ装置2からは、音データのないデータが出力される。
When the
マイクロフォンコネクタ18から音信号を読み込み、カメラサーバ3のMCU37に構成される音処理部42によりデジタル形式の音データを生成する。そして、この音データとカメラ装置2から送信される画像データをデータ配信部40から通信インターフェース23に供給し、ネットワーク6に配信する。
A sound signal is read from the
このように、拡張マイクロフォン17が接続された場合には、カメラ装置2に内蔵するマイクロフォン13に換えて、拡張マイクロフォン17により集音する構成としたため、集音する音の対象や周囲の雑音等の環境に適した音データを得、これを配信用のデータに乗せることができる。
As described above, when the
なお、カメラサーバ3の稼動を開始した際(電源スイッチ25をオン)、カメラサーバ3のアプリケーションは、USBケーブル4より送られてくるマイクロフォン13の音データをデフォルトの音入力として設定している。その後、カメラサーバ3のアプリケーションは、マイクロフォンコネクタ18の拡張マイクロフォン17の接続の有無を探しにいく。カメラサーバ3のアプリケーションが拡張マイクロフォン17の接続を認識したときは、上述したように、カメラ装置2に対して、デバイス制御部41が、マイクロフォン13による集音を停止するカメラ装置制御信号を送信する。カメラサーバ3のアプリケーションが拡張マイクロフォン17の接続を認識しなかったときには、USBケーブル4から送られてくるマイクロフォン13の音データをそのまま使用する。
When the operation of the
なお、データ選択部38による判断を、画像データに付加されたヘッダ情報に基づいて行う代わりに、他の情報に基づいて行うようにしてもよい。例えば、ヘッダ毎に画像データをそれぞれ検査し、所定以上のノイズデータを検出した場合には、そのヘッダの画像データをネットワーク6側に送信しないようにしてもよい。
Note that the determination by the
1 … カメラサーバシステム
2 … カメラ装置
3 … カメラサーバ
6 … ネットワーク
25 … イメージセンサ(撮像素子)
38 … データ選択部(データ選択手段)
39 … データ同期部(データ同期手段)
DESCRIPTION OF
38 ... Data selection part (data selection means)
39 ... Data synchronization unit (data synchronization means)
Claims (6)
上記画像データが、所定の画像データであるか否かを判断し、上記画像データが、上記所定の画像データであると判断された画像データについては、ネットワーク側に出力し、上記画像データが、上記所定の画像データでないと判断されたデータについては、ネットワーク側に出力しないデータ選択手段を備えることを特徴とするカメラサーバ。 In a camera server that distributes image data of an image captured by a camera device including an image sensor to a client through a network,
It is determined whether or not the image data is predetermined image data, and the image data determined to be the predetermined image data is output to the network side, and the image data is A camera server, comprising: a data selection unit that does not output data determined not to be the predetermined image data to the network side.
上記データ同期手段は、前記データ選択手段により、前記所定の画像データでないと判断されたデータ部分に対しても、上記音データの所定の音データを同期させることを特徴とする請求項1または2に記載のカメラサーバ。 A data synchronization means for synchronizing the image data and the sound data based on header information of the image data and the sound data when sound data is input in addition to the image data;
3. The data synchronization means synchronizes predetermined sound data of the sound data with respect to a data portion determined by the data selection means to be not the predetermined image data. The camera server described in 1.
上記画像データが、所定の画像データであるか否かを判断し、上記画像データが、上記所定の画像データであると判断された画像データについては、ネットワーク側に出力し、上記画像データが、上記所定の画像データでないと判断されたデータについては、ネットワーク側に出力しないことを特徴とするデータの処理方法。 In a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client through a network,
It is determined whether or not the image data is predetermined image data, and the image data determined to be the predetermined image data is output to the network side, and the image data is A data processing method, wherein the data determined not to be the predetermined image data is not output to the network side.
上記画像データについては、所定の画像データであるか否かを判断し、上記画像データが、上記所定の画像データであると判断された画像データについては、ネットワーク側に出力し、上記画像データが、上記所定の画像データでないと判断されたデータについては、ネットワーク側に出力しない処理を行い、
上記音データと上記ネットワーク側に出力された上記画像データとを、それぞれのデータに付加されているヘッダ情報に基づいて、互いに同期させ、
上記所定の画像データでないと判断されたデータ部分に対しても、上記音データの所定の音データを同期させることを特徴とするデータ処理方法。
In a data processing method for distributing image data of an image captured by a camera device including an image sensor and sound data of sound collected by a microphone to a client via a network,
It is determined whether the image data is predetermined image data, and the image data determined to be the predetermined image data is output to the network side, and the image data is For the data determined not to be the predetermined image data, a process for not outputting to the network side is performed,
The sound data and the image data output to the network side are synchronized with each other based on header information added to each data,
A data processing method characterized by synchronizing predetermined sound data of the sound data with a data portion determined not to be the predetermined image data.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006289887A JP2008109362A (en) | 2006-10-25 | 2006-10-25 | Camera server, and processing method for data |
| PCT/JP2007/070007 WO2008050620A1 (en) | 2006-10-25 | 2007-10-12 | Camera server and data processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006289887A JP2008109362A (en) | 2006-10-25 | 2006-10-25 | Camera server, and processing method for data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008109362A true JP2008109362A (en) | 2008-05-08 |
Family
ID=39324420
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006289887A Pending JP2008109362A (en) | 2006-10-25 | 2006-10-25 | Camera server, and processing method for data |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2008109362A (en) |
| WO (1) | WO2008050620A1 (en) |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001094954A (en) * | 1999-09-17 | 2001-04-06 | Fujitsu Ltd | Image distribution system and method |
| JP3565115B2 (en) * | 1999-11-04 | 2004-09-15 | 日本電気株式会社 | Videoconferencing terminal and image / sound reproducing method used therefor |
| JP2004158919A (en) * | 2002-11-01 | 2004-06-03 | Matsushita Electric Ind Co Ltd | Network camera system, network camera, and data transmission method |
| JP2004320513A (en) * | 2003-04-17 | 2004-11-11 | Casio Comput Co Ltd | Information management system and program |
| JP2004343421A (en) * | 2003-05-15 | 2004-12-02 | Olympus Corp | Camera with communication function |
| JP2006222720A (en) * | 2005-02-10 | 2006-08-24 | Canon Inc | Video communication system, information processing apparatus, video communication method and program thereof |
| JP2007258957A (en) * | 2006-03-22 | 2007-10-04 | Oki Electric Ind Co Ltd | Video monitoring system and video display method thereof |
-
2006
- 2006-10-25 JP JP2006289887A patent/JP2008109362A/en active Pending
-
2007
- 2007-10-12 WO PCT/JP2007/070007 patent/WO2008050620A1/en not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| WO2008050620A1 (en) | 2008-05-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2008050621A1 (en) | Camera server system, data processing method and camera server | |
| US20140244858A1 (en) | Communication system and relaying device | |
| CN102098443A (en) | A camera device, communication system and corresponding image processing method | |
| JP7515223B2 (en) | System and method for extracting and playing specific streaming media from multiple streaming media transmitted in combination | |
| CN107592452B (en) | Panoramic audio and video acquisition device and method | |
| KR20110052933A (en) | Filming device and filming method | |
| TWI655865B (en) | A method for configuration of video stream output from a digital video camera | |
| US20130088561A1 (en) | Television system and control method thereof | |
| CN112788198B (en) | Image capturing apparatus, image transfer system, image capturing apparatus, image transfer method, recording medium, and computer apparatus | |
| CN102202206B (en) | Communication equipment | |
| KR20140110194A (en) | Image sensor and observing system having the same | |
| US20190306462A1 (en) | Image processing apparatus, videoconference system, image processing method, and recording medium | |
| KR101280443B1 (en) | apparatus of processing regional image and method thereof | |
| TWI852855B (en) | Wireless multi-stream bidirectional video processing system | |
| US20160142633A1 (en) | Capture apparatuses of video images | |
| JP2008109362A (en) | Camera server, and processing method for data | |
| JP5024331B2 (en) | Video camera and information transmission method | |
| JP2006054921A (en) | Video signal transmission method, video signal reception method, and video signal transmission / reception system | |
| KR20080091952A (en) | Flow motion image capturing method and system | |
| JP3861717B2 (en) | Network camera and image distribution processing device | |
| JP2919189B2 (en) | Remote camera control system | |
| JP2020141200A (en) | Imaging device with video distribution function | |
| KR20190140237A (en) | Method and Apparatus for Generating Stereo Image | |
| JP2000152069A (en) | Image capturing device, video transmission system, video receiving device, video transmitting device, video encoding device, and video reproducing device | |
| JP2025158502A (en) | Information processing device, information processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090909 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100902 |
|
| A072 | Dismissal of procedure [no reply to invitation to correct request for examination] |
Free format text: JAPANESE INTERMEDIATE CODE: A073 Effective date: 20110712 |