[go: up one dir, main page]

JP2008109364A - カメラサーバシステム、データの処理方法、およびカメラサーバ - Google Patents

カメラサーバシステム、データの処理方法、およびカメラサーバ Download PDF

Info

Publication number
JP2008109364A
JP2008109364A JP2006289893A JP2006289893A JP2008109364A JP 2008109364 A JP2008109364 A JP 2008109364A JP 2006289893 A JP2006289893 A JP 2006289893A JP 2006289893 A JP2006289893 A JP 2006289893A JP 2008109364 A JP2008109364 A JP 2008109364A
Authority
JP
Japan
Prior art keywords
data
image data
camera server
camera
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006289893A
Other languages
English (en)
Inventor
Katsura Obikawa
桂 帯川
Jong-Sun Hur
ジョン ソン ホ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Opt KK
Original Assignee
Opt KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt KK filed Critical Opt KK
Priority to JP2006289893A priority Critical patent/JP2008109364A/ja
Priority to PCT/JP2007/070008 priority patent/WO2008050621A1/ja
Publication of JP2008109364A publication Critical patent/JP2008109364A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】クライアントへのデータの配信速度を高くすること。
【解決手段】
撮像素子(イメージセンサ25)を備えるカメラ装置2により撮像された画像の画像データを、ネットワーク6を通じてクライアント5に配信するカメラサーバ3において、画像データをJPEG形式の画像データに変換するJPEGエンコーダ32を、カメラ装置2から送られてくる画像データがカメラサーバ3に入力する入力部16と、カメラサーバ3の制御手段(MC37)との間に備えること。
【選択図】図3

Description

本発明は、カメラサーバシステム、データの処理方法、およびカメラサーバに関するものである。
従来、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するためのカメラサーバが知られている(例えば、特許文献1参照)。
特開2005−318412号公報
係るカメラサーバにおいては,クライアントへのデータの配信速度を高めるかが課題となっている。
そこで、本発明は、クライアントへの画像データの配信速度を高くするカメラサーバシステム、データの処理方法、およびカメラサーバを提供することを目的とする。
上述の課題を解決するため、撮像素子を備えるカメラ装置と、カメラ装置から出力される画像データをクライアントに配信するカメラサーバとを備えるカメラサーバシステムにおいて、撮像素子と、カメラサーバの制御手段との間に、撮像素子から出力された画像データをデータ圧縮された圧縮画像データに変換するエンコーダを備えることとする。
このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するための処理速度を速くすることができる。
また、他の発明は、上述の発明に加え、エンコーダは、JPEGエンコーダとされ、カメラ装置に備えられることとする。
このように構成した場合には、画像データがカメラ装置においてJPEG形式に変換され、JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置からカメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにおける画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアントに送信する速さを速くすることができる。
上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信する際のデータの処理方法において、画像データをデータ圧縮された圧縮画像データに変換した後、この圧縮画像データを、クライアントからの要求に従って、クライアントに配信することとする。
このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するための処理速度を速くすることができる。
また、他の発明は、上述の発明に加え、データ圧縮は、JPEG圧縮とされ、カメラ装置においてJPEG圧縮が行われることとする。
このように構成した場合には、画像データがカメラ装置においてJPEG形式に変換され、JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置からカメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにおける画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアントに送信する速さを速くすることができる。
上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、画像データをデータ圧縮された圧縮画像データに変換するエンコーダを、カメラ装置から送られてくる画像データがカメラサーバに入力する入力部と、カメラサーバの制御手段との間に備えることとする。
このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するための処理速度を速くすることができる。
また、他の発明は、上述の発明に加え、エンコーダは、JPEGエンコーダとされ、カメラ装置に備えられることとする。
このように構成した場合には、画像データがカメラ装置においてJPEG形式に変換され、JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置からカメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにおける画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアントに送信する速さを速くすることができる。
本発明によれば、クライアントへのデータの配信速度を高くすることができる。
以下、本発明の実施の形態に係るカメラサーバおよびデータの処理方法を図面に基づいて説明する。
図1は、本発明の実施の形態に係るカメラサーバシステム1を示すシステム構成図である。カメラサーバシステム1は、カメラ装置2およびカメラサーバ3を有する。カメラ装置2とカメラサーバ3とは、USB(Universal Serial Bus)ケーブル4により接続されている。カメラサーバシステム1とクライアント5とは、ネットワーク6を介して接続され、カメラサーバシステム1は、クライアント5側のパソコン7からの指令を受ける。カメラサーバ3は、パソコン7から受けた指令に基づいて、カメラ装置2により撮像した画像の画像データをパソコン7(クライアント5)に配信する。なお、クライアント5は、1または複数存在し、カメラサーバシステム1は、それぞれのクライアント5に対して、各クライアント5からの要求に従って、該画像データを配信する。
カメラ装置2は、立方体形状のハウジング8を有する。ハウジング8には、魚眼レンズ9、USBコネクタ10、オーディオ・ビデオ出力コネクタ11、音出力コネクタ12等が設けられる。魚眼レンズ9は、ハウジング8の上面に配設される。また、ハウジング8の上面には、魚眼レンズ9の他、マイクロフォン13(図2参照)用の通気孔14が形成される。USBコネクタ10、オーディオ・ビデオ出力コネクタ11および音出力コネクタ12は、ハウジング8の側面に配設される。
カメラサーバ3は、直方体形状のハウジング15を有する。ハウジング15には、カメラ装置2からのデータが入力する入力端子である入力部としてのUSBコネクタ16、必要に応じて適宜に利用する拡張マイクロフォン17が接続されるマイクロフォンコネクタ18、赤外線センサ等の外部機器を接続するための汎用入出力ポート(GPIO:General Purpose Input Output)19、オーディオ信号を出力するオーディオ出力コネクタ20、ビデオ信号を出力するビデオ出力コネクタ21、スピーカが接続されるスピーカコネクタ22、ネットワークに接続される通信インターフェース23、およびリセットスイッチを兼ねる電源スイッチ24等が設けられる。
図2は、カメラ装置2の電気回路を示すブロック図である。
カメラ装置2は、魚眼レンズ9、USBコネクタ10、オーディオ・ビデオ出力コネクタ11、音出力コネクタ12の他に、マイクロフォン13、撮像素子としてイメージセンサ25、FPGA(Field Programable Gate Array)により構成される色変換処理部26、音IC(Integrated Circuit)により構成される音処理部27、オーディオ・ビデオエンコーダ28、ストリーミング生成部29、および上述の各構成部分の動作の制御を司るCPU(Central Processing Unit)30等を有する。
マイクロフォン13は、 カメラ装置2の周囲の音声や音を集音する。マイクロフォン13は、集音した音に応じた電気信号である音信号を生成し、音処理部27に出力する。音処理部27では、マイクロフォン13からの電気信号に基づきデジタル形式の音データを生成する。なお、音処理部27は、音出力コネクタ12に対しては、マイクロフォン13からの音声に応じた電気信号を音データ(デジタル形式)に変換することなく出力する。そのため、音出力コネクタ12に、例えば、スピーカ、ヘッドホン等を接続することにより、マイクロフォン13で集音した音を聞くことができる。
イメージセンサ25には、例えば、CMOS(Complementary Metal−Oxide Semiconductor)等を用いる。イメージセンサ25には、魚眼レンズ9による像が結像する。イメージセンサ25は、撮像信号である輝度分布データをデジタル形式の画像データとして、色変換処理部26に出力する。本実施の形態においては、イメージセンサ25は、例えば、毎秒、1/15フレームの撮像速度で撮像を行うものとする。したがって、イメージセンサ25からは、1/15秒毎に1フレーム分の画像データが出力されることになる。
色変換処理部26は、図示外の色変換テーブルを用いて、輝度分布データの各画素のデータを置き換え、デジタル形式の画像データを生成する。生成された画像データは、CPU30により形成されるヘッダ付加部31により、フレーム毎にヘッダが付加される。ヘッダには、撮像順序に従って、連続番号であるヘッダ番号M(M=1,2,3,…)が付与される。
CPU30には、画像データをJPEG(Joint Photographic Experts Group)形式の圧縮画像データに変換するエンコーダとしてのJPEGエンコーダ部32が構成されている。画像データは、JPEGエンコーダ部32により、JPEG形式の画像データに変換される際に、ヘッダに、データの内容がJPEG変換された画像データである旨の情報が付与される。
ところで、イメージセンサ25からは画像データ以外のノイズデータが出力されたり、あるいは、イメージセンサ25とJPEGエンコーダ部32との間でノイズデータが混在することがある。JPEGエンコーダ部32では、JPEGエンコーダ部32に入力されたデータが、画像データである場合には、JPEG形式の画像データに変換すると共に、ヘッダに、ヘッダが付加されているデータがJPEG形式の画像データである旨の情報を付与する。
これに対し、JPEGエンコーダ部32は、変換しようとするデータが画像データでない場合は、JPEG形式の画像データに変換しない。すなわち、JPEGエンコーダ部32に、イメージセンサ25から出力された画像データとして入力されるデータのうち、画像データでないノイズデータについては、JPEG形式の画像データに変換されないため、ヘッダに、JPEG形式の画像データである旨の情報は付与されない。なお、JPEGエンコーダ部32は、画像データ中に、所定以上のノイズデータが含まれているときは、JPEG形式の画像データに変換しないように構成してもよい。
したがって、ヘッダ情報に基づいて、ヘッダが付加されているデータの内容が、画像データか、ノイズデータかを判断することができる。
音データについても、ヘッダ付加部31により所定単位のデータ量で、ヘッダが付加される。例えば、本実施の形態では、1/30秒単位のデータ長毎に、音データにヘッダが付加される。音データのヘッダには、ヘッダが付加されたデータが音データである旨の情報と、時間の経過に従った連続した番号であるヘッダ番号N(N=1,2,3,…)の情報が付与される。
画像データが毎秒15フレームのデータ量であるのに対し、音データは、1/30秒単位のデータ量である。したがって、1フレームの画像データに対して、2単位分(1/30秒×2)の音データが対応することになる。
画像データと音データとは、ヘッダ番号に基づいて、撮像時と集音時のタイミングが互いに同期させられている状態で、CPU30から、ストリーミング生成部29に対して出力される。例えば、画像データのヘッダ番号Mが、1,2,3,4,5,…であり、音データのヘッダ番号Nが、1,2,3,4,5,6,7,8,9,10,…であるとする。そうすると、ヘッダ番号M=1の画像データに対して、ヘッダ番号N=1,2の音データが対応し、ヘッダ番号M=1の画像データとヘッダ番号N=1,2の音データとは時間的タイミングが同期しているデータとなる。また、同様に、ヘッダ番号M=2の画像データと、ヘッダ番号N=3,4の音データとは、時間的タイミングが同期しているデータとなる。つまり、ヘッダ番号Mの画像データと、ヘッダ番号N=2M−1,2Mの音データとが、撮像と集音された時間的タイミングが同期しているデータとなっている。
ストリーミング生成部29は、CPU30から出力される画像データおよび音データを読み込み、これらのコンテンツデータを有するデータをストリーミングデータとして生成する。ストリーミング生成部29は、生成したデジタル形式のデータ信号を通信処理部33に供給し、USBコネクタ10からUSBケーブル4を介して、カメラサーバ3に送信する。
このように画像データおよび音データのコンテンツデータを有するデータを生成し、このデジタル形式のデータを、USBケーブル4を介してカメラサーバ3に送る。これにより、デジタル形式の画像データを、アナログ形式のデータ信号に変換することなく、カメラサーバ3へ送信することができる。
オーディオ・ビデオエンコーダ28は、色変換処理部26から出力された画像データを、JPEG形式の画像データに変換することなく読み込み、NTSC(National TV Standards Committee)方式やPAL(Phase Alternating Line)方式のビデオ信号を生成する。また、オーディオ・ビデオエンコーダ28は、デジタル形式の音データを電気信号である音信号に変換する。そして、ビデオ信号と音信号と共に、オーディオ・ビデオ出力コネクタ11へ出力する。
図3は、カメラサーバ3の電気回路を示すブロック図である。
カメラサーバ3は、USBコネクタ16、拡張マイクロフォン17が接続されるマイクロフォンコネクタ18、赤外線センサ等の外部機器が接続される汎用入出力ポート19、オーディオ出力コネクタ20、ビデオ出力コネクタ21、スピーカコネクタ22、通信インターフェース23、電源スイッチ24の他、オーディオ・ビデオ入力コネクタ34、オーディオエンコーダ35、メモリ36、および上述の各構成部分の動作の制御を司る制御手段としてのMCU(Microcontroller Unit)37を有する。
MCU37には、データ選択手段であるデータ選択部38、データ同期手段であるデータ同期部39、およびデータ配信手段であるデータ配信部40等が構成されている。これらデータ選択部38、データ同期部39、およびデータ配信部40は、メモリ36に記憶されている制御プログラムが、MCU37読み込まれることにより、機能的に実現される。
データ選択部38は、カメラ装置2から送信されてきた画像データについて、各フレームの画像データのヘッダ情報に基づいて、画像データの内容を判断する。上述したように、ヘッダには、ヘッダ内のデータが、JPEG変換された画像データである場合には、その旨の情報が付与され、ヘッダ内のデータが、ノイズデータである場合には、該情報は付与されていない。つまり、データ選択部38では、ヘッダ情報に基づいて、ヘッダ毎のデータの内容が所定の画像データであるか、所定の画像データ以外のデータであるかを判断する。
そして、データ選択部38は、この判断結果に基づいて、データ同期部39に出力するデータを取捨選択する。すなわち、データ選択部38により、データの内容が所定の画像データであると判断された場合には、この画像データは、データ同期部39およびデータ配信部40を介して、通信インターフェース部23から、ネットワーク6を通じてクライアント5のパソコン7に配信される。一方、所定の画像データでないデータについては、データ同期部39側への出力は行われない。
このように、データ選択部38を備え、所定の画像データでないデータを、クライアント5側に配信しないようにすることにより、クライアント5側に配信される画像データには、ノイズのデータが含まれないようになる。そのため、クライアント5のパソコン7のモニタに表示される映像は、ノイズの少ない綺麗な映像となる。また、ノイズデータは、送信されないため、カメラサーバ3からクライアント5へ送信するデータ量が少なくなり、カメラサーバ3からクライアント5への画像データの送信速度を早くすることができる。
一方、音データについては、画像データのように取捨選択されていないため、全ての音データが、データ同期部39およびデータ配信部40を介して、通信インターフェース部23から、ネットワーク6を通じてクライアント5のパソコン7に配信される。クライアント5側においては、パソコン7に内蔵等するスピーカから、マイクロフォン13により集音した、音声等の音を聞くことができる。
ところで、音データについては、画像データのように取捨選択されないため、データ選択部38からデータ配信部40に入力する音データのヘッダ番号Nは、欠損のない連続番号となっている。これに対し、上述したように、画像データについては、データ選択部38において、データ配信部40に出力するデータを取捨選択するため、データ選択部38からデータ配信部40に入力する画像データのヘッダ番号Mには、欠損が生じている場合がある。
したがって、例えば、画像データについては、ヘッダ番号Mが欠損した部分の画像データを詰めて配信し、音データについては、データを詰めることなく、クライアント5側に配信した場合には、音データに基づく音の内容に対して、画像データに基づく映像が先走る状態となり、映像と音とが同期しなくなってしまう。また、例えば、欠損した画像データと同期する音データを削除すれば、映像と音とを同期させることができるが、音の内容に飛びを生じるという問題がある。
そこで、データ同期部39において、音データとデータ選択部38から出力された画像データとを、集音タイミングと撮像タイミングが互いに同期していると共に、音の内容に飛びを生じることのないように同期させる処理をする。
具体的には、例えば、データ選択部38から出力した画像データのヘッダ番号が、1,2,_,4,5,…(ヘッダ番号3の画像データについては、ノイズデータであったため欠損している。)であり、音データのヘッダ番号が1,2,3,4,5,6,…である場合には、ヘッダ番号1の画像データに対してはヘッダ番号1,2の音データを同期させ、ヘッダ番号2の画像データに対してはヘッダ番号3,4の音データを同期させる。ヘッダ番号3の画像データは欠損しているが、この部分には、ヘッダ番号5,6の音データを同期させる。そして、ヘッダ番号4の画像データに対してはヘッダ番号7,8の音データを同期させることになる。このように、音データと画像データの同期を取った状態で、データ配信部40から通信インターフェース23を通ってネットワーク6側にデータが配信される。
クライアント5側では、画像データの欠損しているヘッダ番号3の部分については、音データのみが配信され、パソコン7のスピーカからは、ヘッダ番号5,6の音データに基づく音が再生されることになる。
なお、クライアント5のパソコン7のビュアソフトを、新たな画像データが配信されるまでは、モニタに、直前の画像データに基づく映像を継続して表示するように構成しておくことにより、画像データが欠損した場合に、パソコン7のモニタに何も表示されない不自然な状態にならないようにすることができる。ビュアソフトをこのように構成した場合には、ヘッダ番号2の画像データが配信され、その後、ヘッダ番号4の画像データが配信されるまでの間は、ヘッダ番号2の画像データに基づく映像が表示され、この間、ヘッダ番号5,6の音データに基づく音が再生されることになる。
なお、データ配信部40は、複数のクライアント5が、カメラサーバ3にアクセスしている場合には、これらのクライアント5に対してデータ信号を同時配信する。
ところで、USBコネクタ16には、カメラ装置2からUSBケーブル4を介して、デジタル形式の画像データおよびデジタル形式の音データを有するデータ信号が供給され、MCU37に入力する。MCU37に入力されたデジタル形式のデータ信号は、デジタル形式のデータ信号として通信インターフェース23からネットワーク6に出力するように構成されている。
したがって、カメラサーバ3は、カメラ装置2から出力されたデジタル形式のデータ信号を、デジタル形式の信号のままネットワーク側に出力するため、信号の劣化が無い。また、カメラサーバ3内にアナログ信号をデジタル信号に変換するAD変換機能を持たせる必要がない。なお、画像データは、半二重通信方式でTCPプロトコルまたはUDPプロトコルにてデータ伝送される。音データは、二重通信方式で、TCPプロトコルまたはUDPプロトコルにてデータ伝送される。
上述したように、画像データは、カメラ装置2において、JPEG形式の圧縮画像データに変換された後、カメラサーバ3に送信され、データ配信部40から、通信インターフェース23を通して、クライアント5に対して配信される。このように、画像データをカメラ装置2においてJPEG形式に変換し、JPEG形式の画像データをカメラサーバ3に送るように構成することにより、カメラ装置2からカメラサーバ3に送信するデータの容量を減らすことができる。このため、カメラサーバシステム1における画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアント5に送信する速さを速くすることができる。
一方、これに対し、例えば、画像データのJPEG形式への変換を、カメラサーバ3のMCU37において行い、また、クライアント5からの画像データの送信の要求に応じて、その都度、JPEG形式への変換を実行するようにした場合には、カメラサーバ3からクライアント5へ画像データを配信する速さが遅くなる。
また、MCU37は、カメラサーバ3の全体の制御に加え、カメラ装置2の制御やクライアント5との通信等に係わる多くの処理を行う。そのため、これらの処理に加えて、JPEG変換のエンコード機能を持たせることとすると、MCU37の負荷が大きくなり、MCU37の処理速度が低下し、JPEG変換のエンコード処理速度も遅くなる。この結果、カメラサーバ3から画像データをクライアント5へ送信する速さが遅くなってしまう。
また、クライアント5からの画像データの送信の要求に応じて、その都度、JPEG形式への変換を実行するようにした場合、1のクライアント5に対して、画像データの送信処理を行っている間は、他のクライアント5は、待っていなくてはいけないため、クライアント5へ画像データを送信する速さが遅くなる。
これに対して、カメラサーバ3側のMCU37に比べて処理項目の少ないカメラ装置2側のCPU30を用いてJPEG変換することにより、JPEG変換の速度を高くすることができる。また、MCU37は、JPEG変換の処理を行わない分、処理速度の低下がなく、データ選択部38およびデータ配信部40等の処理速度を高めるこができ、クライアント5に画像データを配信するための処理速度を速くすることができる。
また、データ配信部40からは、複数のクライアント5に対して、画像データが同時に配信されるため、クライアント5は、他のクライアント5への配信が終わるのを待って画像データの配信を受けるということがなくなり、配信の速さを早くすることができる。
なお、JPEGエンコーダ部32は、カメラ装置2のCPU30に設ける他、図3に点線に示すように、カメラサーバ3側にMCU37とは別に、JPEGエンコーダ32Aを、USBコネクタ16とMCU37との間に設け、このJPEGエンコーダ32AによりJPEG変換を行った画像データをMCU37に入力するように構成してもよい。JPEGエンコーダ部32Aは、データ選択部38、データ同期部39およびデータ配信部40等が備えられるMCU37とは別の処理装置として設けられているため、MCU37の処理速度を低下させることがない。
また、カメラ装置2側にCPU30とは別に、専用のJPEGエンコーダを備えて、このJPEGエンコーダによりJPEG変換を行わせるように構成してもよい。
上述の本実施の形態においては、データ圧縮の方法およびエンコーダを、JPEG形式の圧縮方法およびJPEGエンコーダ部32(32A)として示したが、MPEG(Moving Picture Experts Group)等、その他の圧縮方式を採用してもよい。また、非可逆圧縮方式の他に、可逆圧縮方式としてもよい。
オーディオエンコーダ35では、通信インターフェース23からカメラサーバ3に入力するデジタル形式の音データをMCU37から読み込み、電気信号である音信号に変換して、スピーカコネクタ22へ出力する。そのため、スピーカコネクタ22に、例えば、スピーカ等を接続することにより、通信インターフェース23から入力される音データを再生することができる。
オーディオ・ビデオ入力コネクタ34に、カメラ装置2側のオーディオ・ビデオ出力コネクタ11から出力された音信号とビデオ信号が入力されたときには、これらの音信号とビデオ信号を、それぞれオーディオ出力コネクタ20とビデオ出力コネクタ21に出力する。したがって、オーディオ出力コネクタ20とビデオ出力コネクタ21にテレビ等を接続すると、カメラ装置2で撮像および集音された映像と音声を視聴することができる。
カメラサーバ3からは、カメラ装置2に対して、USBケーブル4を介してカメラ装置2を制御するためのカメラ装置制御信号が送信される。このカメラ装置制御信号は、MCU37に構成されるデバイス制御部41により生成されるもので、例えば、カメラ装置2の動作開始や停止を制御するものであったり、カメラ装置2に対して画像データの送信を要求するもの等である。また、ネットワークに接続されるクライアント5側のパソコン7等からカメラサーバ3に対して送信される指令についても、その指令を解釈して、カメラ装置2に対してカメラ装置制御信号を送信する。例えば、パソコン7等から、撮影方向を水平に移動させるパン撮影を行うためのパン制御、撮影方向を上下に移動させるチルト制御、撮影画角を狭めたり広げたりするズーム撮影を行うためのズーム制御等が要求された場合には、デバイス制御部41は、その指令を解釈して、カメラ装置2に対してカメラ装置制御信号を送信する。なお、デバイス制御部41は、カメラ装置2の他、GPIOに外部機器が接続された場合には、この外部機器についても制御を行う。
ところで、カメラ装置2に内蔵されるマイクロフォン13は、ハウジング8内に配設されるイメージセンサ25や回路構成の制約を受けて、使用できるサイズに制限があり、十分な集音力を得られない場合がある。このような場合には、マイクロフォンコネクタ18に拡張マイクロフォン17を接続する。
MCU37は、マイクロフォンコネクタ18に拡張マイクロフォン17が接続されたことを認識すると、カメラ装置2に対して、マイクロフォン13による集音を停止するカメラ装置制御信号を送信する。このカメラ装置制御信号を受けてカメラ装置2のCPU30は、音処理部27に対し、音データを生成することを停止する制御を行なう。そのため、カメラ装置2からは、音データのないデータが出力される。
マイクロフォンコネクタ18から音信号を読み込み、カメラサーバ3のMCU37に構成される音処理部42によりデジタル形式の音データを生成する。そして、この音データとカメラ装置2から送信される画像データをデータ配信部40から通信インターフェース23に供給し、ネットワーク6に配信する。
このように、拡張マイクロフォン17が接続された場合には、カメラ装置2に内蔵するマイクロフォン13に換えて、拡張マイクロフォン17により集音する構成としたため、集音する音の対象や周囲の雑音等の環境に適した音データを得、これを配信用のデータに乗せることができる。
なお、カメラサーバ3の稼動を開始した際(電源スイッチ25をオン)、カメラサーバ3のアプリケーションは、USBケーブル4より送られてくるマイクロフォン13の音データをデフォルトの音入力として設定している。その後、カメラサーバ3のアプリケーションは、マイクロフォンコネクタ18の拡張マイクロフォン17の接続の有無を探しにいく。カメラサーバ3のアプリケーションが拡張マイクロフォン17の接続を認識したときは、上述したように、カメラ装置2に対して、デバイス制御部41が、マイクロフォン13による集音を停止するカメラ装置制御信号を送信する。カメラサーバ3のアプリケーションが拡張マイクロフォン17の接続を認識しなかったときには、USBケーブル4から送られてくるマイクロフォン13の音データをそのまま使用する。
なお、データ選択部38による判断を、画像データに付加されたヘッダ情報に基づいて行う代わりに、他の情報に基づいて行うようにしてもよい。例えば、ヘッダ毎に画像データをそれぞれ検査し、所定以上のノイズデータを検出した場合には、そのヘッダの画像データをネットワーク6側に送信しないようにしてもよい。
本発明の実施の形態に係るカメラサーバシステムの構成を示す図である。 図1に示すカメラサーバシステムにおけるカメラ装置の電気回路を示すブロック図である。 図1に示すカメラサーバシステムにおけるカメラサーバの電気回路を示すブロック図である。
符号の説明
1 … カメラサーバシステム
16 … USBコネクタ(入力部)
25 … イメージセンサ(撮像素子)
32 … JPEGエンコーダ部(エンコーダ)
37 … MCU(制御手段)

Claims (6)

  1. 撮像素子を備えるカメラ装置と、
    上記カメラ装置から出力される画像データをクライアントに配信するカメラサーバと、
    を備えるカメラサーバシステムにおいて、
    上記撮像素子と、上記カメラサーバの制御手段との間に、上記撮像素子から出力された画像データをデータ圧縮された圧縮画像データに変換するエンコーダを備えることを特徴とするカメラサーバシステム。
  2. 前記エンコーダは、JPEGエンコーダとされ、前記カメラ装置に備えられることを特徴とする請求項1に記載のカメラサーバシステム。
  3. 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信する際のデータの処理方法において、
    上記画像データをデータ圧縮された圧縮画像データに変換した後、この圧縮画像データを、上記クライアントからの要求に従って、上記クライアントに配信することを特徴とするデータの処理方法。
  4. 前記データ圧縮は、JPEG圧縮とされ、前記カメラ装置において上記JPEG圧縮が行われることを特徴とする請求項3に記載のデータの処理方法。
  5. 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、
    上記画像データをデータ圧縮された圧縮画像データに変換するエンコーダを、上記カメラ装置から送られてくる画像データが上記カメラサーバに入力する入力部と、上記カメラサーバの制御手段との間に備えることを特徴とするカメラサーバ。
  6. 前記エンコーダは、JPEGエンコーダとされ、前記カメラ装置に備えられることを特徴とする請求項5に記載のカメラサーバ。
JP2006289893A 2006-10-25 2006-10-25 カメラサーバシステム、データの処理方法、およびカメラサーバ Pending JP2008109364A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006289893A JP2008109364A (ja) 2006-10-25 2006-10-25 カメラサーバシステム、データの処理方法、およびカメラサーバ
PCT/JP2007/070008 WO2008050621A1 (fr) 2006-10-25 2007-10-12 Système de serveur de caméra, procédé de traitement de données et serveur de caméra

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006289893A JP2008109364A (ja) 2006-10-25 2006-10-25 カメラサーバシステム、データの処理方法、およびカメラサーバ

Publications (1)

Publication Number Publication Date
JP2008109364A true JP2008109364A (ja) 2008-05-08

Family

ID=39324421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006289893A Pending JP2008109364A (ja) 2006-10-25 2006-10-25 カメラサーバシステム、データの処理方法、およびカメラサーバ

Country Status (2)

Country Link
JP (1) JP2008109364A (ja)
WO (1) WO2008050621A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3092527A4 (en) * 2014-01-06 2017-02-08 GoPro, Inc. Camera housing for a square-profile camera
USD894256S1 (en) 2018-08-31 2020-08-25 Gopro, Inc. Camera mount
USD905786S1 (en) 2018-08-31 2020-12-22 Gopro, Inc. Camera mount
US10928711B2 (en) 2018-08-07 2021-02-23 Gopro, Inc. Camera and camera mount
USD991318S1 (en) 2020-08-14 2023-07-04 Gopro, Inc. Camera
USD997232S1 (en) 2019-09-17 2023-08-29 Gopro, Inc. Camera
USD1036536S1 (en) 2017-12-28 2024-07-23 Gopro, Inc. Camera
US12321084B2 (en) 2022-08-12 2025-06-03 Gopro, Inc. Interconnect mechanism for image capture device
US12379650B2 (en) 2023-02-15 2025-08-05 Gopro, Inc. Reinforced image capture devices including interconnect mechanisms with a threaded accessory interface
USD1096914S1 (en) 2024-03-15 2025-10-07 Gopro, Inc. Camera mount
USD1100025S1 (en) 2024-03-15 2025-10-28 Gopro, Inc. Camera mount
USD1107775S1 (en) 2022-08-04 2025-12-30 Gopro, Inc. Camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4767443B2 (ja) * 2001-07-04 2011-09-07 富士通株式会社 ネットワーク蓄積型ビデオカメラシステム
JP2004336484A (ja) * 2003-05-08 2004-11-25 Fuji Photo Film Co Ltd 動画伝送方法および装置、並びに動画伝送システム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3092527A4 (en) * 2014-01-06 2017-02-08 GoPro, Inc. Camera housing for a square-profile camera
US9635226B2 (en) 2014-01-06 2017-04-25 Gopro, Inc. Camera housing for a square-profile camera
US10306115B2 (en) 2014-01-06 2019-05-28 Gopro, Inc. Camera housing for a square-profile camera
USD1079788S1 (en) 2017-12-28 2025-06-17 Gopro, Inc. Camera
USD1036536S1 (en) 2017-12-28 2024-07-23 Gopro, Inc. Camera
US10928711B2 (en) 2018-08-07 2021-02-23 Gopro, Inc. Camera and camera mount
US12399419B2 (en) 2018-08-07 2025-08-26 Gopro, Inc. Camera and camera mount
US11662651B2 (en) 2018-08-07 2023-05-30 Gopro, Inc. Camera and camera mount
USD894256S1 (en) 2018-08-31 2020-08-25 Gopro, Inc. Camera mount
USD989165S1 (en) 2018-08-31 2023-06-13 Gopro, Inc. Camera mount
USD1023115S1 (en) 2018-08-31 2024-04-16 Gopro, Inc. Camera mount
USD905786S1 (en) 2018-08-31 2020-12-22 Gopro, Inc. Camera mount
USD997232S1 (en) 2019-09-17 2023-08-29 Gopro, Inc. Camera
USD1024165S1 (en) 2019-09-17 2024-04-23 Gopro, Inc. Camera
USD1090676S1 (en) 2019-09-17 2025-08-26 Gopro, Inc. Camera
USD1004676S1 (en) 2020-08-14 2023-11-14 Gopro, Inc. Camera
USD991318S1 (en) 2020-08-14 2023-07-04 Gopro, Inc. Camera
USD1107775S1 (en) 2022-08-04 2025-12-30 Gopro, Inc. Camera
US12321084B2 (en) 2022-08-12 2025-06-03 Gopro, Inc. Interconnect mechanism for image capture device
US12379650B2 (en) 2023-02-15 2025-08-05 Gopro, Inc. Reinforced image capture devices including interconnect mechanisms with a threaded accessory interface
USD1096914S1 (en) 2024-03-15 2025-10-07 Gopro, Inc. Camera mount
USD1100025S1 (en) 2024-03-15 2025-10-28 Gopro, Inc. Camera mount

Also Published As

Publication number Publication date
WO2008050621A1 (fr) 2008-05-02

Similar Documents

Publication Publication Date Title
WO2008050621A1 (fr) Système de serveur de caméra, procédé de traitement de données et serveur de caméra
US20140244858A1 (en) Communication system and relaying device
KR101611531B1 (ko) 촬영장치 및 촬영영상 제공방법
CN102098443A (zh) 一种摄像设备、通信系统和相应的图像处理方法
US7593580B2 (en) Video encoding using parallel processors
JP7515223B2 (ja) 組み合わせて伝送される複数のストリーミングメディアから特定のストリーミングメディアを抽出し再生するシステムとその方法
TWI655865B (zh) 用於組態自數位視訊攝影機輸出之視訊串流之方法
JP2014220732A (ja) 情報処理装置、情報処理方法およびプログラム
CN107197139A (zh) 全景相机的数据处理方法
US8570404B2 (en) Communication device
CN112788198B (zh) 摄影装置、传送系统及方法、记录介质和计算机装置
KR101280443B1 (ko) 영역 영상을 처리하는 장치 및 그 제어방법
US20190306462A1 (en) Image processing apparatus, videoconference system, image processing method, and recording medium
TWI852855B (zh) 無線多路雙向視頻處理系統
JP7613052B2 (ja) 撮影装置、配信システム、配信方法およびプログラム
JP2008109362A (ja) カメラサーバおよびデータの処理方法
JP5024331B2 (ja) ビデオカメラ及び情報送信方法
KR20130058807A (ko) Sip프로토콜 및 화면통합제어 모듈 일체형 네트워크 카메라
KR20020070721A (ko) 동영상 전송장치
JP2006054921A (ja) 映像信号送信方法及び映像信号受信方法並びに映像信号送受信システム
JP2020141200A (ja) 動画配信機能を有する撮像装置
TW201206196A (en) Camera
KR101676400B1 (ko) 촬영장치 및 촬영영상 제공방법
JPH10294939A (ja) 画像伝送システム及び画像伝送装置
JP2004253910A (ja) 映像配信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090909

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20110118