[go: up one dir, main page]

JP2011249945A - 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 - Google Patents

立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 Download PDF

Info

Publication number
JP2011249945A
JP2011249945A JP2010118847A JP2010118847A JP2011249945A JP 2011249945 A JP2011249945 A JP 2011249945A JP 2010118847 A JP2010118847 A JP 2010118847A JP 2010118847 A JP2010118847 A JP 2010118847A JP 2011249945 A JP2011249945 A JP 2011249945A
Authority
JP
Japan
Prior art keywords
data
image data
information
caption
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010118847A
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010118847A priority Critical patent/JP2011249945A/ja
Priority to US13/109,067 priority patent/US20110285817A1/en
Priority to BRPI1102177-2A priority patent/BRPI1102177A2/pt
Priority to ARP110101702A priority patent/AR081205A1/es
Publication of JP2011249945A publication Critical patent/JP2011249945A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ARIB方式の字幕(キャプション・ユニット)の重畳表示において、画像内の各物体との間の遠近感の整合性の維持を図る。
【解決手段】放送局からセットトップボックスに、ビデオデータストリームと字幕データストリームとを有する多重化データストリームを送信する。ビデオデータストリームには、立体画像データが含まれている。字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、各キャプション・ユニットの字幕データが挿入される。また、字幕データストリームには、字幕管理データグループの字幕管理データ(制御符号)として、各キャプション・ユニットの視差ベクトルが挿入される。このような挿入の仕方により、字幕データと視差ベクトルとの対応付けがされる。受信側では、左眼画像および右眼画像に重畳される字幕に、それぞれ対応する視差ベクトルを用いて適切な視差を付与できる。
【選択図】図11

Description

この発明は、立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法に関し、特に、字幕などの重畳情報の表示を良好に行い得る立体画像データ送信装置等に関する。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
図25は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。DPaは、オブジェクトAに関する水平方向の視差ベクトルを表している。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。DPcは、オブジェクトCに関する水平方向の視差ベクトルを表している。
特開2005−6114号公報
上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えば、字幕等に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。
例えば、画像に字幕を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。また、他のグラフィクス情報、あるいはテキスト情報を画像に重畳表示する場合にも、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。
この発明の目的は、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。
この発明の概念は、
左眼画像データおよび右眼画像データを含む立体画像データを出力する画像データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データを含む第1のデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータおよび上記視差情報出力部から出力される視差情報を含む第2のデータストリームとを有する多重化データストリームを送信するデータ送信部とを備え、
上記第2のデータストリームには、同一画面に表示される所定数の重畳情報のデータが順に配置され、
上記第2のデータストリームには、上記視差情報が、上記所定数の重畳情報の管理情報として挿入されている
立体画像データ送信装置にある。
この発明において、画像データ出力部により、左眼画像データおよび右眼画像データを含む立体画像データが出力される。また、重畳情報データ出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータが出力される。ここで、重畳情報は、画像に重畳される字幕などの情報を意味している。例えば、重畳情報のデータは、ARIB方式の字幕文データである。また、視差情報出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報が出力される。
そして、データ送信部により、第1のデータストリームと第2のデータストリームとを有する多重化データストリームが送信される。第1のデータストリームには、画像データ出力部から出力される立体画像データを含まれている。また、第2のデータストリームには、重畳情報データ出力部から出力される重畳情報のデータおよび視差情報出力部から出力される視差情報が含まれている。
第2のデータストリームには、同一の画面に表示される所定数の重畳情報のデータが順に配置されている。また、第2のデータストリームには、視差情報が、所定数の重畳情報の管理情報として挿入されている。例えば、重畳情報のデータは、ARIB方式の字幕文データであり、第2のデータストリームには、視差情報が、字幕管理データとして挿入される。この場合、視差情報は、例えば、8単位符号で与えられる。
例えば、第2のデータストリームには、同一の画面に表示される所定数の重畳情報にそれぞれ対応した所定数の個別視差情報が挿入され、所定数の個別視差情報は、所定数の重畳情報のデータの前にまとめて配置されている。また、例えば、第2のデータストリームには、同一の画面に表示される所定数の重畳情報にそれぞれ対応した所定数の個別視差情報が挿入され、所定数の個別視差情報のそれぞれは、対応する重畳情報のデータの前に配置されている。また、例えば、第2のデータストリームには、同一の画面に表示される所定数の重畳情報に対応した共通視差情報が挿入され、共通視差情報は、所定数の重畳情報のデータの前に配置されている。
このように、この発明においては、第2のデータストリームには、視差情報が所定数の重畳情報の管理情報として挿入され、各重畳情報のデータと視差情報との対応付けが行われている。受信側においては、左眼画像および右眼画像に重畳される所定数の重畳情報にそれぞれ対応する視差情報を用いて適切な視差を付与できる。そのため、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、この発明の他の概念は、
第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームを受信するデータ受信部を備え、
上記第1のデータストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含み、
上記第2のデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
上記第2のデータストリームには、同一画面に表示される所定数の重畳情報のデータが順に配置され、
上記第2のデータストリームには、上記視差情報が、上記所定数の重畳情報の管理情報として挿入されており、
上記データ受信部で受信された多重化データストリームに含まれる上記第1のデータストリームから立体画像データを取得する画像データ取得部と、
上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから重畳情報のデータを取得する重畳情報データ取得部と、
上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから視差情報を取得する視差情報取得部と、
上記画像データ取得部で取得された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データと、上記視差情報取得部で取得された上記視差情報と、上記重畳情報データ取得部で取得された上記重畳情報のデータを用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部とをさらに備える
立体画像データ受信装置にある。
この発明において、データ受信部により、第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームが受信される。第1のデータストリームには、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含まれている。また、第2のデータストリームには、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータと、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報とが含まれている。
そして、第2のデータストリームには、同一の画面に表示される所定数の重畳情報のデータが順に配置されている。また、第2のデータストリームには、視差情報が、所定数の重畳情報の管理情報として挿入されている。例えば、重畳情報のデータは、ARIB方式の字幕文データであり、第2のデータストリームには、視差情報が、字幕管理データとして挿入されている。
画像データ取得部により、データ受信部で受信された多重化データストリームに含まれる第1のデータストリームから立体画像データが取得される。また、重畳情報データ取得部により、データ受信部で受信された多重化データストリームに含まれる第2のデータストリームから重畳情報のデータが取得される。また、視差情報取得部により、データ受信部で受信された多重化データストリームに含まれる第2のデータストリームから視差情報が取得される。
そして、画像データ処理部により、左眼画像データおよび右眼画像データと、重畳情報のデータと、視差情報とが用いられ、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与され、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。
このように、この発明においては、第2のデータストリームには、視差情報が所定数の重畳情報の管理情報として挿入され、各重畳情報のデータと視差情報との対応付けが行われている。そのため、画像データ処理部では、左眼画像および右眼画像に重畳される所定数の重畳情報にそれぞれ対応する視差情報を用いて適切な視差を付与できる。したがって、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
この発明によれば、送信側から受信側に、立体画像データを含む第1のデータストリームと、重畳情報のデータおよび視差情報が含まれる第2のデータストリームとを有する多重化データストリームが送信される。第2のデータストリームには、同一の画面に表示される所定数の重畳情報のデータが順に配置されている。また、第2のデータストリームには、視差情報が所定数の重畳情報の管理情報として挿入され、各重畳情報のデータと視差情報との対応付けが行われている。
そのため、受信側においては、左眼画像および右眼画像に重畳される所定数の重畳情報にそれぞれ対応する視差情報を用いて適切な視差を付与できる。したがって、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
この発明の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080pのピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 字幕データストリームの構成例とキャプション・ユニット(字幕)の表示例を示す図である。 ピクセル(画素)毎の視差ベクトルの値を各ピクセル(各画素)の輝度値として用いた場合の画像例を示す図である。 ブロック(Block)毎の視差ベクトルの一例を示す図である。 送信データ生成部の視差情報作成部で行われるダウンサイジング処理を説明するための図である。 字幕エンコーダで生成される字幕データストリームの構成例と、その場合の視差ベクトルの作成例を示す図である。 字幕エンコーダで生成される字幕データストリームの他の構成例と、その場合の視差ベクトルの作成例を示す図である。 字幕エンコーダで生成される字幕データストリームの他の構成例と、その場合の視差ベクトルの作成例を示す図である。 第1、第2のビューに重畳する各キャプション・ユニットの位置をシフトさせる場合を説明するための図である。 字幕文データグループに含まれる字幕符号のパケット構造を説明するための図である。 字幕管理データグループに含まれる制御符号のパケット構造を説明するための図である。 ARIB文字制御に関する拡張制御符号に追加する制御符号「ZDP」の機能、内容を示す図である。 制御符号集合符号表(要部のみを示す)を示す図である。 画像上における字幕(グラフィクス情報)の表示例と、背景、近景オブジェクト、字幕の遠近感を示す図である。 画像上における字幕の表示例と、字幕を表示するための左眼字幕LGIおよび右眼字幕RGIを示す図である。 立体画像表示システムを構成するセットトップボックスの構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の構成例を示すブロック図である。 立体画像表示システムを構成するテレビ受信機の構成例を示すブロック図である。 立体画像表示システムの他の構成例を示すブロック図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を説明するための図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[立体画像表示システムの構成例]
図1は、実施の形態としての立体画像表示システム10の構成例を示している。この立体画像表示システム10は、放送局100と、セットトップボックス(STB:Set TopBox)200と、テレビ受信機300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータBSDを、放送波に載せて送信する。放送局100は、ビットストリームデータBSDを生成する送信データ生成部110を備えている。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報のデータ、さらには視差情報(視差ベクトル)などが含まれる。重畳情報は、グラフィクス情報、テキスト情報などであるが、この実施の形態においては字幕である。
「送信データ生成部の構成例」
図2は、放送局100において、送信データ生成部110の構成例を示している。この送信データ生成部110は、既存の放送規格の一つであるARIB(Association of Radio Industries andBusinesses)に容易に連携できるデータ構造で視差情報(視差ベクトル)を送信する。この送信データ生成部110は、データ取り出し部(アーカイブ部)130と、視差情報作成部131と、ビデオエンコーダ113と、オーディオエンコーダ117と、字幕発生部132と、字幕エンコーダ133と、マルチプレクサ122を有している。
データ取り出し部130には、データ記録媒体130aが、例えば、着脱自在に装着される。このデータ記録媒体130aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、視差情報が対応付けて記録されている。データ取り出し部130は、データ記録媒体130aから、立体画像データ、音声データ、視差情報等を取り出して出力する。データ記録媒体130aは、ディスク状記録媒体、半導体メモリ等である。
データ記録媒体130aに記録されている立体画像データは、所定の伝送方式の立体画像データである。立体画像データ(3D画像データ)の伝送方式の一例を説明する。ここでは、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。また、ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば、1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、トップ・アンド・ボトム(Top & Bottom)方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、サイド・バイ・サイド(Side By Side)方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。原信号に対して、水平解像度は半分となる。
第3の伝送方式は、フレーム・シーケンシャル(Frame Sequential)方式あるいは2D後方互換方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフレーム毎に順次切換えて伝送する方式である。
また、データ記録媒体130aに記録されている視差情報は、例えば、画像を構成するピクセル(画素)毎の視差ベクトルである。視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば8×8あるいは16×16の比較ブロックが順次設定されていく。
画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
図2に戻って、字幕発生部132は、字幕データ(ARIB方式の字幕文データ)を発生する。字幕エンコーダ133は、字幕発生部132で発生された字幕データを含む字幕データストリーム(字幕エレメンタリストリーム)を生成する。図7(a)は、字幕データストリームの構成例を示している。この例は、図7(b)に示すように、同一の画面に、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」の3つのキャプション・ユニット(字幕)が表示される例を示している。
字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、各キャプション・ユニットの字幕データが挿入される。なお、各キャプション・ユニットの表示領域などの設定データは、図示していないが、字幕管理データグループのデータとして、字幕データストリームに挿入される。「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの表示領域は、それぞれ、(x1,y1)、(x2,y2)、(x3,y3)で示されている。
視差情報作成部131は、ビューワ機能を持っている。この視差情報作成部131は、データ取り出し部130から出力される視差情報、すなわちピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施し、所定の領域に属する視差ベクトルを生成する。
図8は、各ピクセル(画素)の輝度値のようにして与えられる相対的な深さ方向のデータの例を示している。ここで、相対的な深さ方向のデータは所定の変換により画素ごとの視差ベクトルとして扱うことが可能となる。この例において、人物部分の輝度値は高くなっている。これは、人物部分の視差ベクトルの値が大きいことを意味し、従って、立体画像表示では、この人物部分が浮き出た状態に知覚されることを意味している。また、この例において、背景部分の輝度値は低くなっている。これは、背景部分の視差ベクトルの値が小さいことを意味し、従って、立体画像表示では、この背景部分が沈んだ状態に知覚されることを意味している。
図9は、ブロック(Block)毎の視差ベクトルの一例を示している。ブロックは、最下層に位置するピクセル(画素)の上位層に当たる。このブロックは、画像(ピクチャ)領域が、水平方向および垂直方向に所定の大きさで分割されることで構成される。各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。この例においては、各ブロックの視差ベクトルを矢印で示しており、矢印の長さが視差ベクトルの大きさに対応している。
図10は、視差情報作成部131で行われるダウンサイジング処理の一例を示している。まず、視差情報作成部134は、図10(a)に示すように、ピクセル(画素)毎の視差ベクトルを用いて、ブロック毎の視差ベクトルを求める。上述したように、ブロックは、最下層に位置するピクセル(画素)の上位層に当たり、画像(ピクチャ)領域が水平方向および垂直方向に所定の大きさで分割されることで構成される。そして、各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部131は、図10(b)に示すように、ブロック毎の視差ベクトルを用いて、グループ(Group Of Block)毎の視差ベクトルを求める。グループは、ブロックの上位層に当たり、複数個の近接するブロックをまとめてグループ化することで得られる。図10(b)の例では、各グループは、破線枠で括られる4個のブロックにより構成されている。そして、各グループの視差ベクトルは、例えば、そのグループ内の全ブロックの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部131は、図10(c)に示すように、グループ毎の視差ベクトルを用いて、パーティション(Partition)毎の視差ベクトルを求める。パーティションは、グループの上位層に当たり、複数個の近接するグループをまとめてグループ化することで得られる。図10(c)の例では、各パーティションは、破線枠で括られる2個のグループにより構成されている。そして、各パーティションの視差ベクトルは、例えば、そのパーティション内の全グループの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部131は、図10(d)に示すように、パーティション毎の視差ベクトルを用いて、最上位層に位置するピクチャ全体(画像全体)の視差ベクトルを求める。図10(d)の例では、ピクチャ全体には、破線枠で括られる4個のパーティションが含まれている。そして、ピクチャ全体の視差ベクトルは、例えば、ピクチャ全体に含まれる全パーティションの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
このようにして、視差情報作成部131は、最下層に位置するピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施して、ブロック、グループ、パーティション、ピクチャ全体の各階層の各領域の視差ベクトルを求めることができる。なお、図10に示すダウンサイジング処理の一例では、最終的に、ピクセル(画素)の階層の他、ブロック、グループ、パーティション、ピクチャ全体の4階層の視差ベクトルを求めている。しかし、階層数ならびに各階層の領域の切り方や領域の数はこれに限定されるものではない。
視差情報作成部131は、上述したダウンサイジング処理により、同一の画面に表示される所定数のキャプション・ユニット(字幕)に対応した視差ベクトルを作成する。この場合、視差情報作成部131は、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)を作成するか、あるいは各キャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)を作成する。この選択は、例えば、ユーザの設定による。
視差情報作成部131は、個別視差ベクトルを作成する場合、各キャプション・ユニットの表示領域に基づき、上述のダウンサイジング処理によって、その表示領域に属する視差ベクトルを求める。また、視差情報作成部131は、共通視差ベクトルを作成する場合、上述のダウンサイジング処理によって、ピクチャ全体(画像全体)の視差ベクトルを求める(図10(d)参照)。なお、視差情報作成部131は、共通視差ベクトルを作成する場合、各キャプション・ユニットの表示領域に属する視差ベクトルを求め、最も値の大きな視差ベクトルを選択してもよい。
字幕エンコーダ133は、上述したように視差情報作成部131で作成された視差ベクトルを、字幕データストリームに含める。この場合、字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、同一画面に表示される各キャプション・ユニットの字幕データが挿入される。また、この字幕データストリームには、字幕管理データグループの字幕管理データ(制御符号)として、視差ベクトルの値が挿入される。
ここで、視差情報作成部131で個別視差ベクトルが作成される場合について説明する。ここでは、同一の画面に、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」の3つのキャプション・ユニット(字幕)が表示される例とする。
視差情報作成部131は、図11(b)に示すように、各キャプション・ユニットに対応した個別視差ベクトルを作成する。「Disparity 1」は、「1st Caption Unit」に対応した個別視差ベクトルである。「Disparity 2」は、「2nd Caption Unit」に対応した視差ベクトルである。「Disparity 3」は、「3rd Caption Unit」に対応した個別視差ベクトルである。
図11(a)は、字幕エンコーダ133で生成される字幕データストリームの構成例を示している。この字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、各キャプション・ユニットの字幕データが挿入される。なお、各キャプション・ユニットの表示領域などの設定データは、図示していないが、字幕管理データグループの字幕管理データ(制御符号)として、字幕データストリームに挿入される。「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの表示領域は、それぞれ、(x1,y1)、(x2,y2)、(x3,y3)で示されている。
また、この字幕データストリームには、字幕管理データグループの字幕管理データ(制御符号)として、各キャプション・ユニットの個別視差ベクトルの値が挿入される。このように各キャプション・ユニットの個別視差ベクトルの値が字幕管理データ(制御符号)として字幕データストリームに挿入されることで、各キャプション・ユニットの字幕データと、各キャプション・ユニットの個別視差ベクトルとが対応付けられる。
図11(c)は、各キャプション・ユニット(字幕)が重畳された第1のビュー(1st View)、例えば右眼画像を示している。また、図11(d)は、各キャプション・ユニットが重畳された第2のビュー(1st View)、例えば左眼画像を示している。各キャプション・ユニットに対応した個別視差ベクトルは、図示のように、例えば、右眼画像に重畳する各キャプション・ユニットと、左眼画像に重畳する各キャプション・ユニットとの間に視差を付与するために用いられる。
図11(a)の構成例では、1つの字幕文データグループに、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの字幕文データ(字幕符号)が含まれている。また、この1つの字幕文データグループの前に配置された1つの字幕管理データグループに、各キャプション・ユニットの個別視差ベクトルを有する字幕管理データ(制御符号)が含まれている。
しかし、図12(a)に示す字幕データストリームの構成例も考えられる。この構成例では、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの字幕文データ(字幕符号)が、それぞれ異なる字幕文データグループに含まれている。また、各字幕文データグループの前に配置された字幕管理データグループに、それぞれ、各キャプション・ユニットの個別視差ベクトルを有する字幕管理データ(制御符号)が含まれている。なお、図12(b),(c),(d)は、図11(b),(c),(d)と同じである。
次に、視差情報作成部131で共通視差ベクトルが作成される場合について説明する。ここでは、同一の画面に、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」の3つのキャプション・ユニット(字幕)が表示される例とする。視差情報作成部131は、図13(b)に示すように、各キャプション・ユニットに共通の共通視差ベクトル「Disparity」を作成する。
図13(a)は、字幕エンコーダ133で生成される字幕データストリームの構成例を示している。この字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、各キャプション・ユニットの字幕データが挿入される。なお、各キャプション・ユニットの表示領域などの設定データは、図示していないが、字幕管理データグループの字幕管理データ(制御符号)として、字幕データストリームに挿入される。「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの表示領域は、それぞれ、(x1,y1)、(x2,y2)、(x3,y3)で示されている。
また、この字幕データストリームには、字幕管理データグループの字幕管理データ(制御符号)として、各キャプション・ユニットに共通の共通視差ベクトルの値が挿入される。このように共通視差ベクトルの値が字幕管理データ(制御符号)として字幕データストリームに挿入されることで、各キャプション・ユニットの字幕データと、各キャプション・ユニットに共通の共通視差ベクトルとが対応付けられる。
図13(a)の構成例では、1つの字幕文データグループに、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの字幕文データ(字幕符号)が含まれている。また、この1つの字幕文データグループの前に配置された1つの字幕管理データグループに、各キャプション・ユニットに共通の共通視差ベクトルを有する字幕管理データ(制御符号)が含まれている。
図13(c)は、各キャプション・ユニット(字幕)が重畳された第1のビュー(1st View)、例えば右眼画像を示している。また、図13(d)は、各キャプション・ユニットが重畳された第2のビュー(1st View)、例えば左眼画像を示している。各キャプション・ユニットに共通の共通視差ベクトルは、図示のように、例えば、右眼画像に重畳する各キャプション・ユニットと、左眼画像に重畳する各キャプション・ユニットとの間に視差を付与するために用いられる。
なお、図11(c),(d)、図12(c),(d)、図13(c),(d)の例は、第2のビュー(例えば、左眼画像)に重畳する各キャプション・ユニットの位置のみをシフトさせている。しかし、第1のビュー(例えば、右眼画像)に重畳する各キャプション・ユニットの位置のみをシフトさせる場合、あるいは、双方のビューに重畳する各キャプション・ユニットの位置をシフトさせる場合も考えられる。
図14(a),(b)は、第1のビューおよび第2のビューに重畳するキャプション・ユニットの双方の位置をシフトさせる場合を示している。この場合、各キャプション・ユニットに対応した視差ベクトル「Disparity」の値“disparity[i]”から、第1のビュー、第2のビューにおける各キャプション・ユニットのシフト値(オフセット値)D[i]が、以下のように求められる。
すなわち、disparity[i]が偶数の場合には、第1のビューでは、「D[i]=- disparity[i]/2」と求められ、第2のビューでは、「D[i]=disparity[i]/2」と求められる。これにより、第1のビュー(例えば、右眼画像)に重畳する各キャプション・ユニットの位置は、左側に「disparity[i]/2」だけシフトされ、第2のビュー(例えば、左眼画像)に重畳する各キャプション・ユニットの位置は、右側に(disparity[i]/2)だけシフトされる。
また、disparity(i)が奇数の場合には、第1のビューでは、「D[i]=- (disparity[i]+1)/2」と求められ、第2のビューでは、「D[i]=(disparity[i]-1)/2」と求められる。これにより、第1のビュー(例えば、右眼画像)に重畳する各キャプション・ユニットの位置は、左側に「(disparity[i]+1)/2」だけシフトされ、第2のビュー(例えば、左眼画像)に重畳する各キャプション・ユニットの位置は、右側に「(disparity[i]-1)/2」だけシフトされる。
[字幕符号、制御符号のパケット構造]
字幕符号および制御符号のパケット構造を簡単に説明する。最初に、字幕符号のパケット構造について説明する。図15は、字幕符号のパケット構造を示している。「Data_group_id」は、データグループ識別を示し、ここでは、字幕文データグループであることを示す。なお、字幕文データグループを示す「Data_group_id」は、さらに、言語を特定する。例えば、「Data_group_id==0x21」とされ、字幕文データグループであって、字幕文(第1言語)であることが示される。
「Data_group_size」は、後続のデータグループデータのバイト数を示す。字幕文データグループである場合、このデータグループデータは、字幕文データ(caption_data)である。この字幕文データには、1以上のデータユニットが配置されている。各データユニットは、データユニット分離符号(unit_parameter)で分離されている。各データユニット内のデータユニットデータ(data_unit_data)として、字幕符号が配置される。
次に、制御符号のパケット構造について説明する。図16は、制御符号のパケット構造を示している。「Data_group_id」は、データグループ識別を示す。ここでは、字幕管理データグループであることを示し、「Data_group_id==0x20」とされる。「Data_group_size」は、後続のデータグループデータのバイト数を示す。字幕管理データグループである場合、このデータグループデータは、字幕管理データ(caption_management_data)である。
この字幕管理データには、1以上のデータユニットが配置されている。各データユニットは、データユニット分離符号(unit_parameter)で分離されている。各データユニット内のデータユニットデータ(data_unit_data)として、制御符号が配置される。この実施の形態において、視差ベクトルの値は、8単位符号として与えられる。「TCS」は2ビットのデータであり、文字符号化方式を示す。ここでは、「TCS==00」とされ、8単位符号であることが示される。
[視差ベクトル値の8単位符号化]
ここで、視差ベクトル値の8単位符号化について説明する。視差ベクトル値を8単位符号として与えるために、ARIB文字制御に関する拡張制御符号に、制御符号「ZDP」を追加する。図17は、制御符号「ZDP」の機能、内容を示している。
この制御符号「ZDP」は、立体視差を制御する制御符号であり、左眼画像と右眼画像との間の視差の値(視差ベクトル値)を指定する。この視差の値は、符号付きの値で、左眼画像に対する右眼画像の差分に相当するものを立体画像の水平画素単位で定義する。
この制御符号「ZDP」の符号シーケンスは、“CSI、P11,−、P1i、I1、F”とされる。各符号を、図18に示す制御符号集合符号表(要部のみを示す)を用いて説明する。符号「CSI」は、拡張制御符号であることを識別するコントロール・シーケンス・イントロデューサである。この符号「CSI」は、列位置(09)を示す4ビットデータ(b8b7b6b5)と、行位置(11)を示す4ビットデータ(b4b3b2b1)からなる8ビットデータ(b8-b1)である。
パラメータ「P11−P1i」は、列位置(03)の符号で、視差差分画素数を示すことを意味する。符号「P1i」は、列位置(03)を示す4ビットデータ(b8b7b6b5)と、行位置(i)を示す4ビットデータ(b4b3b2b1)からなる8ビットデータ(b8-b1)である。i=0〜9であるとき、「0」〜「9」の数を示す。例えば、視差差分画素数が“2”であるとき、「P11−P1i」は、「03/2」となる。また、例えば、視差差分画素数が“10”であるとき、「P11−P1i」は、「03/1,03/0」となる。また、例えば、視差差分画素数が“124”であるとき、「P11−P1i」は、「03/1,03/2,03/4」となる。
なお、上述の視差差分画素数が負であるときは、パラメータ「P11−P1i」の最後に、負符号を付加する。この負符号は、例えば、列位置(03)を示す4ビットデータ(b8b7b6b5)と、行位置(10)を示す4ビットデータ(b4b3b2b1)からなる8ビットデータ(b8-b1)とされる。例えば、視差差分画素数が“−2”であるとき、「P11−P1i」は、「03/2,03/10」となる。
符号「I1」は、パラメータ「P11−P1i」の終わりを示す中間文字である。この符号「I1」は、列位置(03)を示す4ビットデータ(b8b7b6b5)と、行位置(11)を示す4ビットデータ(b4b3b2b1)からなる8ビットデータ(b8-b1)である。符号「F」は、制御符号「ZDP」の終端文字である。この符号「F」は、制御符号「ZDP」を示すユニークワードであり、例えば、列位置(06)を示す4ビットデータ(b8b7b6b5)と、行位置(11)を示す4ビットデータ(b4b3b2b1)からなる8ビットデータ(b8-b1)とされる。
図2に戻って、ビデオエンコーダ113は、データ取り出し部130から供給される立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施し、ビデオエレメンタリストリームを生成する。オーディオエンコーダ117は、データ取り出し部130から供給される音声データに対して、MPEG−2 Audio AAC等の符号化を施し、オーディオエレメンタリストリームを生成する。
マルチプレクサ122は、ビデオエンコーダ113、オーディオエンコーダ117および字幕エンコーダ133から出力される各エレメンタリストリームを多重化する。そして、このマルチプレクサ122は、伝送データ(多重化データストリーム)としてのビットストリームデータ(トランスポートストリーム)BSDを出力する。
図2に示す送信データ生成部110の動作を簡単に説明する。データ取り出し部130から出力される立体画像データは、ビデオエンコーダ113に供給される。このビデオエンコーダ113では、その立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオエレメンタリストリームが生成される。このビデオエレメンタリストリームはマルチプレクサ122に供給される。
また、字幕発生部132では、ARIB方式の字幕データが発生される。この字幕データは、字幕エンコーダ133に供給される。この字幕エンコーダ133では、字幕発生部132で発生された字幕データを含む字幕エレメンタリストリーム(字幕データストリーム)が生成される。この字幕エレメンタリストリームはマルチプレクサ122に供給される。
また、データ取り出し部130から出力されるピクセル(画素)毎の視差ベクトルは、視差情報作成部131に供給される。この視差情報作成部131では、ダウンサイジング処理により、同一の画面に表示される所定数のキャプション・ユニット(字幕)に対応した視差ベクトル(水平方向視差ベクトル)が作成される。この場合、視差情報作成部131では、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)、あるいは全てのキャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)が作成される。
視差情報作成部131で作成された視差ベクトルは、字幕エンコーダ133に供給される。字幕エンコーダ133では、視差ベクトルが、字幕データストリームに含められる(図11〜図13参照)。この場合、字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、同一画面に表示される各キャプション・ユニットの字幕データが挿入される。また、字幕データストリームには、字幕管理データグループの字幕管理データ(制御符号)として、視差ベクトルの値が挿入される。
また、データ取り出し部130から出力される音声データはオーディオエンコーダ117に供給される。このオーディオエンコーダ117では、音声データに対して、MPEG−2 Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリストリームが生成される。このオーディオエレメンタリストリームはマルチプレクサ122に供給される。
マルチプレクサ122には、上述したように、ビデオエンコーダ113、オーディオエンコーダ117および字幕エンコーダ133からのエレメンタリストリームが供給される。そして、このマルチプレクサ122では、各エンコーダから供給されるエレメンタリストリームがパケット化されて多重され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
図2に示す送信データ生成部110において、マルチプレクサ122から出力されるビットストリームデータBSDは、ビデオデータストリームと字幕データストリームとを有する多重化データストリームである。ビデオデータストリームには、立体画像データが含まれている。また、字幕データストリームには、重畳情報としてのARIB方式の字幕(キャプション・ユニット)のデータおよび視差ベクトル(視差情報)が含まれている。
字幕データストリームには、同一の画面に表示される所定数のキャプション・ユニットの字幕データが順に配置されている。また、この字幕データストリームには、視差ベクトル(視差情報)が、各キャプション・ユニットの管理情報として挿入され、各キャプション・ユニットの字幕データと視差ベクトルとが対応付けられている。
そのため、受信側(セットトップボックス200)においては、左眼画像および右眼画像に重畳される所定数のキャプション・ユニット(字幕)に、対応する視差ベクトル(視差情報)を用いて適切な視差を付与できる。したがって、キャプション・ユニット(字幕)の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波に載せて送信されてくるビットストリームデータ(トランスポートストリーム)BSDを受信する。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データが含まれている。また、ビットストリームデータBSDには、キャプション・ユニットの字幕データ、さらには、このキャプション・ユニットに視差を付与するための視差ベクトル(視差情報)が含まれている。
セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータBSDから、立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等を抽出する。このビットストリーム処理部201は、立体画像データ、キャプション・ユニットの字幕データ等を用いて、字幕が重畳された左眼画像および右眼画像のデータを生成する。
この場合、視差ベクトルおよびキャプション・ユニットの字幕データに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼字幕、右眼字幕のデータが生成される。ここで、左眼字幕および右眼字幕は同一の字幕である。しかし、画像内の重畳位置が、例えば、左眼字幕に対して、右眼字幕は、視差ベクトルだけ、水平方向にずれるようにされる。つまり、左眼字幕と右眼字幕との間に視差が与えられ、字幕の認識位置が画像の手前とされる。
図19(a)は、画像上におけるキャプション・ユニット(字幕)の表示例を示している。この表示例では、背景と近景オブジェクトとからなる画像上に、字幕が重畳された例である。図19(b)は、背景、近景オブジェクト、字幕の遠近感を示し、字幕が最も手前に認識されることを示している。
図20(a)は、図19(a)と同じ、画像上におけるキャプション・ユニット(字幕)の表示例を示している。図20(b)は、左眼画像に重畳される左眼字幕LGIと、右眼画像に重畳される右眼字幕RGIを示している。図20(c)は、字幕が最も手前に認識されるために、左眼字幕LGIと右眼字幕RGIとの間に視差が与えられることを示している。
[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図21は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部201は、上述したように、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等を抽出する。このビットストリーム処理部201は、立体画像データに対して、左眼字幕、右眼字幕のデータを合成し、表示用立体画像データを生成して出力する。また、ビットストリーム処理部201は、音声データを出力する。ビットストリーム処理部201の詳細構成は後述する。
映像信号処理回路205は、ビットストリーム処理部201から出力された立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
HDMI送信部206は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部206からHDMI端子202に出力される。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
リモコン受信部215は、リモコン送信機216から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ204から出力されるビットストリームデータBSDは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等が抽出される。また、このビットストリーム処理部201では、立体画像データに対し、左眼字幕、右眼字幕のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部201で生成された表示用立体画像データは、映像信号処理回路205に供給される。この映像信号処理回路205では、表示用立体画像データに対して、必要に応じて画質調整処理等が行われる。この映像信号処理回路205から出力される処理後の表示用立体画像データは、HDMI送信部206に供給される。
また、ビットストリーム処理部201で得られた音声データは、音声信号処理回路207に供給される。この音声信号処理回路207では、音声データに対して、必要に応じて音質調整処理等の処理が行われる。この音声信号処理回路207から出力される処理後の音声データは、HDMI送信部206に供給される。そして、HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
[ビットストリーム処理部の構成例]
図22は、ビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2に示す送信データ生成部110に対応した構成となっている。このビットストリーム処理部201は、デマルチプレクサ221と、ビデオデコーダ222と、字幕デコーダ223と、立体画像用字幕発生部224と、視差情報取り出し部225と、ビデオ重畳部226と、オーディオデコーダ227とを有している。
デマルチプレクサ221は、ビットストリームデータBSDから、ビデオ、オーディオ、字幕のパケットを抽出し、各デコーダに送る。ビデオデコーダ222は、上述の送信データ生成部110のビデオエンコーダ113とは逆の処理を行う。すなわち、デマルチプレクサ221で抽出されたビデオのパケットからビデオのエレメンタリストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。この立体画像データの伝送方式は、例えば、上述の第1の伝送方式(「Top & Bottom」方式)、第2の伝送方式は(「Side By Side」方式)、第3の伝送方式(「Frame Sequential」方式)などである(図4参照)。
字幕デコーダ223は、上述の送信データ生成部110の字幕エンコーダ133とは逆の処理を行う。すなわち、この字幕デコーダ223は、デマルチプレクサ221で抽出された字幕のパケットから字幕エレメンタリストリーム(字幕データストリーム)を再構成し、復号化処理を行って、各キャプション・ユニットの字幕データ(ARIB方式の字幕データ)を得る。
視差情報取り出し部225は、字幕デコーダ223を通じて得られる字幕のストリームから、各キャプション・ユニットに対応した視差ベクトル(視差情報)を取り出す。この場合、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)、あるいは各キャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)が得られる(図11〜図13参照)。上述したように、字幕データストリームには、同一の画面に表示される所定数のキャプション・ユニットのデータが順に配置されている。また、この字幕データストリームには、視差ベクトル(視差情報)が、各キャプション・ユニットの管理情報として挿入されている。そのため、視差情報取り出し部225は、各キャプション・ユニットの字幕データと対応付けて、視差ベクトルを取り出すことができる。
立体画像用字幕発生部224は、左眼画像および右眼画像にそれぞれ重畳する左眼字幕および右眼字幕のデータを生成する。この生成処理は、字幕デコーダ223で得られた各キャプション・ユニットの字幕データと、視差情報取り出し部225から供給される各キャプション・ユニットに対応した視差ベクトル(視差ベクトルの値)に基づいて行われる。そして、この立体画像用字幕発生部224は、左眼字幕および左眼字幕のデータ(ビットマップデータ)を出力する。
この場合、左眼および左眼の字幕(キャプション・ユニット)は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼の字幕に対して、右眼の字幕は、視差ベクトル分だけ、水平方向にずれるようにされる。これにより、左眼画像および右眼画像に重畳される同一の字幕として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、この字幕の表示において、画像内の各物体との間の遠近感の整合性を維持するようにされる。
ビデオ重畳部226は、ビデオデコーダ222で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、立体画像用字幕発生部224で発生された左眼および左眼の字幕のデータ(ビットマップデータ)を重畳し、表示用立体画像データVoutを得る。そして、このビデオ重畳部226は、表示用立体画像データVoutを、ビットストリーム処理部201の外部に出力する。
また、オーディオデコーダ227は、上述の送信データ生成部110のオーディオエンコーダ117とは逆の処理を行う。すなわち、このオーディオデコーダ227は、デマルチプレクサ221で抽出されたオーディオのパケットからオーディオのエレメンタリストリームを再構成し、復号化処理を行って、音声データAoutを得る。そして、このオーディオデコーダ227は、音声データAoutを、ビットストリーム処理部201の外部に出力する。
図22に示すビットストリーム処理部201の動作を簡単に説明する。デジタルチューナ204(図21参照)から出力されるビットストリームデータBSDは、デマルチプレクサ221に供給される。このデマルチプレクサ221では、ビットストリームデータBSDから、ビデオ、オーディオおよび字幕のパケットが抽出され、各デコーダに供給される。
ビデオデコーダ222では、デマルチプレクサ221で抽出されたビデオのパケットからビデオのエレメンタリストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、ビデオ重畳部226に供給される。
また、字幕デコーダ223では、デマルチプレクサ221で抽出された字幕のパケットから字幕エレメンタリストリームが再構成され、さらに復号化処理が行われて、各キャプション・ユニットの字幕データ(ARIB方式の字幕データ)が得られる。この各キャプション・ユニットの字幕データは、立体画像用字幕発生部224に供給される。
また、視差情報取り出し部225では、字幕デコーダ223を通じて得られる字幕のストリームから、各キャプション・ユニットに対応した視差ベクトル(視差ベクトルの値)が取り出される。この場合、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)、あるいは各キャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)が得られる。この視差ベクトルは、立体画像用字幕発生部224に供給される。
立体画像用字幕発生部224では、各キャプション・ユニットの字幕データと、各キャプション・ユニットに対応した視差ベクトルに基づいて、左眼画像および右眼画像にそれぞれ重畳する左眼字幕および右眼字幕のデータ(ビットマップデータ)が生成される。この場合、画像内の重畳位置が、例えば、左眼の字幕に対して、右眼の字幕は、視差ベクトル分だけ、水平方向にずれるようにされる。この左眼字幕および左眼字幕のデータはビデオ重畳部226に供給される。
ビデオ重畳部226では、ビデオデコーダ222で得られた立体画像データに対し、立体画像用字幕発生部224で発生された左眼字幕および右眼字幕のデータ(ビットマップデータ)が重畳され、表示用立体画像データVoutが得られる。この表示用立体画像データVoutは、ビットストリーム処理部201の外部に出力される。
また、オーディオデコーダ227では、デマルチプレクサ221で抽出されたオーディオのパケットからオーディオエレメンタリストリームが再構成され、さらに復号化処理が行われて、上述の表示用立体画像データVoutに対応した音声データAoutが得られる。この音声データAoutは、ビットストリーム処理部201の外部に出力される。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。
[テレビ受信機の構成例]
テレビ受信機300の構成例を説明する。図23は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
また、このテレビ受信機300は、映像・グラフィック処理回路307と、パネル駆動回路308と、表示パネル309と、音声信号処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部306は、図21に示すセットトップボックス200内のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等を抽出する。また、このビットストリーム処理部306は、立体画像データに対して、左眼字幕、右眼字幕のデータを合成し、表示用立体画像データを生成して出力する。また、ビットストリーム処理部306は、音声データを出力する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データおよび音声データを受信する。このHDMI受信部303は、そのバージョンが例えばHDMI1.4aとされており、立体画像データの取り扱いが可能な状態にある。
3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、デコード処理を行って、左眼画像データおよび右眼画像データを生成する。この場合、3D信号処理部301は、ビットストリーム処理部306で得られた立体画像データに対しては、その伝送方式(図4参照)に対応したデコード処理を行う。また、3D信号処理部301は、HDMI受信部303で受信された立体画像データに対しては、TMDS伝送データ構造に対応したデコード処理を行う。
映像・グラフィック処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、画質調整処理を行う。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、メニュー、番組表などの重畳情報のデータを合成する。パネル駆動回路308は、映像・グラフィック処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
音声信号処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声信号処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
図23に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声信号処理回路310に供給される。
アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ305から出力されるビットストリームデータBSDは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等が抽出される。また、このビットストリーム処理部306では、立体画像データに対して、左眼字幕、右眼字幕のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部306で生成された表示用立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られた音声データは、音声信号処理回路310に供給される。
3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対してデコード処理が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、映像・グラフィック処理回路307に供給される。この映像・グラフィック処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成され、必要に応じて、画質調整処理、重畳情報データの合成処理も行われる。
この映像・グラフィック処理回路307で得られる画像データはパネル駆動回路308に供給される。そのため、表示パネル309により立体画像が表示される。例えば、表示パネル309に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、例えば、表示パネル309の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
また、音声信号処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から表示パネル309の表示画像に対応した音声が出力される。
上述したように、図1に示す立体画像表示システム10においては、放送局100(送信データ生成部201)からセットトップボックス200に、ビデオデータストリームと字幕データストリームとを有する多重化データストリームが送信される。ビデオデータストリームには、立体画像データが含まれている。また、字幕データストリームには、重畳情報としてのARIB方式の字幕(キャプション・ユニット)のデータおよび視差ベクトル(視差情報)が含まれている。
字幕データストリームには、同一の画面に表示される所定数のキャプション・ユニットの字幕データが順に配置されている。また、この字幕データストリームには、視差ベクトル(視差情報)が、各キャプション・ユニットの管理情報として挿入され、各キャプション・ユニットの字幕データと視差ベクトルとが対応付けられている。
そのため、セットトップボックス200においては、左眼画像および右眼画像に重畳される所定数のキャプション・ユニット(字幕)に、対応する視差ベクトル(視差情報)を用いて適切な視差を付与できる。したがって、キャプション・ユニット(字幕)の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
<2.変形例>
なお、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図23に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部306を備えている。したがって、図24に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。
また、上述実施の形態においては、立体画像データを含むデータストリーム(ビットストリームデータ)が放送局100から放送される例を示した。しかし、この発明は、このデータストリームがインターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。
また、上述実施の形態においては、セットトップボックス200と、テレビ受信機300とが、HDMIのデジタルインタフェースで接続されるものを示している。しかし、これらが、HDMIのデジタルインタフェースと同様のデジタルインタフェース(有線の他に無線も含む)で接続される場合においても、この発明を同様に適用できる。
また、上述実施の形態においては、重畳情報としてキャプション・ユニット(字幕)を取り扱うものを示した。しかし、その他のグラフィクス情報、テキスト情報などの重畳情報を扱うものにも同様に適用できる。
この発明は、画像に重ねて字幕などの重畳情報の表示を行う立体画像システムに適用できる。
10,10A・・・立体画像表示システム
100・・・放送局
110・・・送信データ生成部
113・・・ビデオエンコーダ
117・・・オーディオエンコーダ
122・・・マルチプレクサ
130・・・データ取り出し部
130a・・・データ記録媒体
131・・・視差情報作成部
132・・・字幕発生部
133・・・字幕エンコーダ
200・・・セットトップボックス(STB)
201・・・ビットストリーム処理部
202・・・HDMI端子
203・・・アンテナ端子
204・・・デジタルチューナ
205・・・映像信号処理回路
206・・・HDMI送信部
207・・・音声信号処理回路
211・・・CPU
215・・・リモコン受信部
216・・・リモコン送信機
221・・・デマルチプレクサ
222・・・ビデオデコーダ
223・・字幕デコーダ
224・・・立体画像用字幕発生部
225・・・視差情報取り出し部
226・・・ビデオ重畳部
227・・・オーディオデコーダ
300・・・テレビ受信機(TV)
301・・・3D信号処理部
302・・・HDMI端子
303・・・HDMI受信部
304・・・アンテナ端子
305・・・デジタルチューナ
306・・・ビットストリーム処理部
307・・・映像・グラフィック処理回路
308・・・パネル駆動回路
309・・・表示パネル
310・・・音声信号処理回路
311・・・音声増幅回路
312・・・スピーカ
321・・・CPU
325・・・リモコン受信部
326・・・リモコン送信機
400・・・HDMIケーブル

Claims (9)

  1. 左眼画像データおよび右眼画像データを含む立体画像データを出力する画像データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
    上記画像データ出力部から出力される立体画像データを含む第1のデータストリームと、上記重畳情報データ出力部から出力される重畳情報のデータおよび上記視差情報出力部から出力される視差情報を含む第2のデータストリームとを有する多重化データストリームを送信するデータ送信部とを備え、
    上記第2のデータストリームには、同一画面に表示される所定数の重畳情報のデータが順に配置され、
    上記第2のデータストリームには、上記視差情報が、上記所定数の重畳情報の管理情報として挿入されている
    立体画像データ送信装置。
  2. 上記第2のデータストリームには、上記同一の画面に表示される所定数の重畳情報にそれぞれ対応した所定数の個別視差情報が挿入され、
    上記所定数の個別視差情報は、上記所定数の重畳情報のデータの前にまとめて配置されている
    請求項1に記載の立体画像データ送信装置。
  3. 上記第2のデータストリームには、上記同一の画面に表示される所定数の重畳情報にそれぞれ対応した所定数の個別視差情報が挿入され、
    上記所定数の個別視差情報のそれぞれは、対応する上記重畳情報のデータの前に配置されている
    請求項1に記載の立体画像データ送信装置。
  4. 上記第2のデータストリームには、上記同一の画面に表示される所定数の重畳情報に対応した共通視差情報が挿入され、
    上記共通視差情報は、上記所定数の重畳情報のデータの前に配置されている
    請求項1に記載の立体画像データ送信装置。
  5. 上記重畳情報のデータは、ARIB方式の字幕文データであり、
    上記第2のデータストリームには、上記視差情報が、字幕管理データとして挿入される
    請求項1に記載の立体画像データ送信装置。
  6. 上記視差情報は、8単位符号で与えられる
    請求項5に記載の立体画像データ送信装置。
  7. 左眼画像データおよび右眼画像データを含む立体画像データを出力する画像データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力ステップと、
    上記画像データ出力ステップで出力される立体画像データを含む第1のデータストリームと、上記重畳情報データ出力ステップで出力される重畳情報のデータおよび上記視差情報出力ステップで出力される視差情報を含む第2のデータストリームとを有する多重化データストリームを送信するデータ送信ステップとを備え、
    上記第2のデータストリームには、同一画面に表示される所定数の重畳情報のデータが順に配置され、
    上記第2のデータストリームには、上記視差情報が、上記重畳情報の管理情報として挿入されている
    立体画像データ送信方法。
  8. 第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームを受信するデータ受信部を備え、
    上記第1のデータストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含み、
    上記第2のデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    上記第2のデータストリームには、同一画面に表示される所定数の重畳情報のデータが順に配置され、
    上記第2のデータストリームには、上記視差情報が、上記所定数の重畳情報の管理情報として挿入されており、
    上記データ受信部で受信された多重化データストリームに含まれる上記第1のデータストリームから立体画像データを取得する画像データ取得部と、
    上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから重畳情報のデータを取得する重畳情報データ取得部と、
    上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから視差情報を取得する視差情報取得部と、
    上記画像データ取得部で取得された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データと、上記視差情報取得部で取得された上記視差情報と、上記重畳情報データ取得部で取得された上記重畳情報のデータを用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部とをさらに備える
    立体画像データ受信装置。
  9. 第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームを受信するデータ受信ステップを備え、
    上記第1のデータストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含み、
    上記第2のデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    上記第2のデータストリームには、同一画面に表示される所定数の重畳情報のデータが順に配置され、
    上記第2のデータストリームには、上記視差情報が、上記重畳情報の管理情報として挿入されており、
    上記データ受信ステップで受信された多重化データストリームに含まれる上記第1のデータストリームから立体画像データを取得する画像データ取得ステップと、
    上記データ受信ステップで受信された多重化データストリームに含まれる上記第2のデータストリームから重畳情報のデータを取得する重畳情報データ取得ステップと、
    上記データ受信ステップで受信された多重化データストリームに含まれる上記第2のデータストリームから視差情報を取得する視差情報取得ステップと、
    上記画像データ取得ステップで取得された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データと、上記視差情報取得ステップで取得された上記視差情報と、上記重畳情報データ取得ステップで取得された上記重畳情報のデータを用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理ステップとをさらに備える
    立体画像データ受信方法。
JP2010118847A 2010-05-24 2010-05-24 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 Pending JP2011249945A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010118847A JP2011249945A (ja) 2010-05-24 2010-05-24 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US13/109,067 US20110285817A1 (en) 2010-05-24 2011-05-17 Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
BRPI1102177-2A BRPI1102177A2 (pt) 2010-05-24 2011-05-17 Aparelho e método de transmissão de dados de imagem esteréo, e, aparelho e método de recepção de dados de imagem estéreo
ARP110101702A AR081205A1 (es) 2010-05-24 2011-05-18 Aparato de transmision de datos de imagen estereo, metodo de transmision de datos de imagen estereo, aparato de recepcion de datos de imagen este-reo y metodo de recepcion de datos de imagen estereo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010118847A JP2011249945A (ja) 2010-05-24 2010-05-24 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法

Publications (1)

Publication Number Publication Date
JP2011249945A true JP2011249945A (ja) 2011-12-08

Family

ID=44972195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010118847A Pending JP2011249945A (ja) 2010-05-24 2010-05-24 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法

Country Status (4)

Country Link
US (1) US20110285817A1 (ja)
JP (1) JP2011249945A (ja)
AR (1) AR081205A1 (ja)
BR (1) BRPI1102177A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172098A1 (ja) * 2012-05-14 2013-11-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2013172097A1 (ja) * 2012-05-14 2013-11-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2014109321A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2017022741A (ja) * 2012-03-01 2017-01-26 ソニー株式会社 受信装置および受信方法
JP2022171984A (ja) * 2016-09-14 2022-11-11 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8878913B2 (en) * 2010-03-12 2014-11-04 Sony Corporation Extended command stream for closed caption disparity
US8760498B2 (en) * 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
US8566694B2 (en) * 2011-04-04 2013-10-22 Xerox Corporation Multi-dimensional documents for parallel content display on a single screen for multiple viewers
GB2500712A (en) 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
JP7447495B2 (ja) * 2020-01-08 2024-03-12 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229384A (ja) * 2004-02-13 2005-08-25 Nippon Hoso Kyokai <Nhk> マルチメディア情報配受信システム、マルチメディア情報配信装置およびマルチメディア情報受信装置
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
WO2010010709A1 (ja) * 2008-07-24 2010-01-28 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008537250A (ja) * 2005-04-19 2008-09-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 奥行き検知装置及び方法
JP4693900B2 (ja) * 2006-04-07 2011-06-01 シャープ株式会社 画像処理装置
JP2009100412A (ja) * 2007-10-19 2009-05-07 Panasonic Corp 映像伝送装置、映像送信装置および映像受信装置
WO2010064853A2 (en) * 2008-12-02 2010-06-10 Lg Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229384A (ja) * 2004-02-13 2005-08-25 Nippon Hoso Kyokai <Nhk> マルチメディア情報配受信システム、マルチメディア情報配信装置およびマルチメディア情報受信装置
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
WO2010010709A1 (ja) * 2008-07-24 2010-01-28 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7013004296; '補助データパケット形式で伝送されるデジタル字幕データの構造と運用' ARIB STANDARD ARIB STD-B37, 2002, P.1-26, 社団法人電波産業会 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022741A (ja) * 2012-03-01 2017-01-26 ソニー株式会社 受信装置および受信方法
US9924151B2 (en) 2012-03-01 2018-03-20 Sony Corporation Transmitting apparatus for transmission of related information of image data
WO2013172098A1 (ja) * 2012-05-14 2013-11-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
WO2013172097A1 (ja) * 2012-05-14 2013-11-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2013239833A (ja) * 2012-05-14 2013-11-28 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2013238975A (ja) * 2012-05-14 2013-11-28 Sony Corp 画像処理装置、画像処理方法およびプログラム
US9686529B2 (en) 2012-05-14 2017-06-20 Saturn Licensing Llc Image processing apparatus, image processing method, and program
WO2014109321A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2022171984A (ja) * 2016-09-14 2022-11-11 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP7397938B2 (ja) 2016-09-14 2023-12-13 サターン ライセンシング エルエルシー 送信装置、送信方法、受信装置および受信方法

Also Published As

Publication number Publication date
BRPI1102177A2 (pt) 2012-12-18
US20110285817A1 (en) 2011-11-24
AR081205A1 (es) 2012-07-04

Similar Documents

Publication Publication Date Title
JP5429034B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US8860786B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
JP5531972B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011249945A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI413403B (zh) Three-dimensional image data transmission device, three-dimensional image data transmission method and three-dimensional image data receiving device
US20110141233A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
US20110149034A1 (en) Stereo image data transmitting apparatus and stereo image data transmittimg method
JP5454444B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20110141238A1 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving data receiving method
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
US20120257019A1 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
KR20130132240A (ko) 입체 화상 데이터 송신 장치, 입체 화상 데이터 송신 방법 및 입체 화상 데이터 수신 장치
WO2013018489A1 (ja) 送信装置、送信方法および受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141021