JP2016032227A - 映像表示システム、三次元映像ポインティング装置、および映像表示装置 - Google Patents
映像表示システム、三次元映像ポインティング装置、および映像表示装置 Download PDFInfo
- Publication number
- JP2016032227A JP2016032227A JP2014154315A JP2014154315A JP2016032227A JP 2016032227 A JP2016032227 A JP 2016032227A JP 2014154315 A JP2014154315 A JP 2014154315A JP 2014154315 A JP2014154315 A JP 2014154315A JP 2016032227 A JP2016032227 A JP 2016032227A
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- display
- coordinate
- pointer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】立体映像中においてより好適に位置を指し示すことができる映像表示システムを提供する。
【解決手段】立体映像として視聴可能な映像を面上に表示する表示装置と、非可視光線または可視光線を面上に投射した散乱光により一点を指し示すことが可能な光線照射装置と、を備え、表示装置は、散乱光を撮像可能なカメラと、表示映像にポインタ画像を重畳する重畳部とを備え、重畳部は、カメラが撮像した散乱光の位置に応じてポインタ画像を表示映像に重畳する。
【選択図】図1
【解決手段】立体映像として視聴可能な映像を面上に表示する表示装置と、非可視光線または可視光線を面上に投射した散乱光により一点を指し示すことが可能な光線照射装置と、を備え、表示装置は、散乱光を撮像可能なカメラと、表示映像にポインタ画像を重畳する重畳部とを備え、重畳部は、カメラが撮像した散乱光の位置に応じてポインタ画像を表示映像に重畳する。
【選択図】図1
Description
本発明は、三次元映像上で位置を指し示す技術に関する。
プロジェクタ等によりスクリーンに表示された映像上の任意の場所を指示する方法としてはレーザー光を用いたレーザーポインタなどが広く用いられている。
一方、液晶ディスプレイやプロジェクタでは、左右の目に異なる映像を見せることにより、立体的な映像、いわゆる3D映像を表示する製品が発売されている。これらの装置では、ディスプレイやプロジェクタのスクリーンなどに左右の目に見せるための映像を重ねて表示し、偏光眼鏡やシャッター眼鏡を用いて映像分離を行うことにより、左右の目に対応した映像のみをそれぞれの目に見せるようにすることで、3D表示を実現している。この場合、表示対象の物体は左右の目に見せる映像上では異なる位置に表示されることになり、これによって生じる左右の目の視差によって奥行き感が表現されることになる。
しかし、重ねて表示された左右の映像に対して通常のレーザーポインタを用いてポインティング操作を行うと、左右の映像上の同じ座標がポイントされることになる。前述のように、表示対象の物体は左右の映像では異なる位置に表示されているため、レーザーポインタは左目の映像と右目の映像では異なる物体をポイントしてしまうことになり、立体表示された物体を正しくポイント出来ないという問題が発生する。
これを解決するため、特開2005−275346号公報には、二個のレーザー光源を搭載したポインタを用いて、左右の映像に対して異なる位置にスポット光を照射する方法が記載されている。
しかし、特開2005−275346号公報の方法では、複数のレーザー光源を搭載するため、レーザーポインタが大きくなってしまう上、それぞれの光軸の調整に高い精度が要求されるため、コスト面で課題がある。その上、レーザーポインタの持ち方が不適切だと、二本のスポット光の位置関係が適切に維持することが困難になり、対象とする物体を正しくポイント出来ない可能性がある。
そこで、本発明の目的は、立体映像中においてより好適に位置を指し示すことができる映像表示システム、三次元映像ポインティング装置、および映像表示装置を提供することにある。
この課題を解決するために、例えば、立体映像として視聴可能な映像を面上に表示する表示装置と、非可視光線または可視光線を前記面上に投射した散乱光により一点を指し示すことが可能な光線照射装置とを備え、前記表示装置は、前記散乱光を撮像可能なカメラと、表示映像にポインタ画像を重畳する重畳部と、を有し、前記重畳部は、前記カメラが撮像した散乱光の位置に応じて前記ポインタ画像を前記表示映像に重畳する。
本発明の手法を用いると、立体映像中においてより好適に位置を指し示すことができる。
(実施例1)
以下、本発明の第一の実施例におけるシステム構成を図1に基づいて説明する。
以下、本発明の第一の実施例におけるシステム構成を図1に基づいて説明する。
図1において、100は映像を投影するためのスクリーンであり、10aと10bはそれぞれ左右の目に対応した映像をスクリーン100に投影するためのプロジェクタである。本実施例では、プロジェクタ10aと10bは同一の構造のものを想定しており、これらを総称する場合には10という記号を用いることとする。
視聴者97はスクリーン100に投影された映像を見る人である。図1の中には視聴者は1名しか記載されていないが、実際には複数の視聴者がいるケースの方が一般的であり、本発明の効果は視聴者の人数によって制限されるものではない。
90、91はそれぞれ視聴者97の左目と右目を表わしており、視聴者97が掛けている偏光眼鏡30を通してスクリーン100に投影された映像を見るようになっている。偏光眼鏡30は、左目は上下方向の偏光、右目は左右方向の偏光といった様に左右の目に偏光方向の異なるフィルタが貼り付けられている。
なお、偏光方向はこのような直線偏光でなく円偏光等の他の変更方法であっても構わない。左右の目に対応したプロジェクタ10aと10bの前面には偏光フィルタ11と偏光フィルタ12が取り付けてあり、それぞれの偏光方向を偏光眼鏡30の左右の目と揃えておくことで、左目用プロジェクタ10aから投影した映像は左目90でのみ見えるようになり、右目用プロジェクタ10bから投影した映像は右目91のみで見えるようになる。なお、ここでは説明を容易にするため、偏光フィルタ11と12はプロジェクタ10a、10bの前面に取り付ける構造としているが、これらのフィルタはプロジェクタ10a、10bの内部に取り付けることも可能である。
45はスクリーンを撮影するためのカメラであり、本実施例では、可視光と赤外光の双方を撮影可能なカメラを想定している。なお、カメラ45はプロジェクタ10に内蔵させてもよい。プロジェクタ10に内蔵されたカメラを使用する場合は外部のカメラ45は不要である。
映像ソース95は左右の目に対応した表示映像を生成する装置であり、3D表示に対応したBDプレーヤーやパソコン、ゲーム機などがこれに相当する。なお、本実施例では、映像ソース95がプロジェクタ10の外部にある場合について記載しているが、映像ソース95は、プロジェクタ10に内蔵させることも可能である。
システムバス96は、これらの装置間を接続する情報伝達用のバスであり、映像を伝送するためのHDMI(登録商標)やデータを伝送するためのイーサネット(登録商標)などで構成されている。なお、システムバス96上のデータ転送の一部または全てを無線LAN等の無線通信に置き換えることも可能である。
40はレーザー光を用いてプロジェクタ10によって投影されている物体に対してポインティング操作を行うためのレーザーポインタである。本実施例ではレーザーポインタ40は赤外光を照射するものとしているが、3D以外の映像での使用を考慮して、スイッチ等で赤外光と可視光を切換えるような機構を持ったレーザーポインタであっても構わない。
42はレーザーポインタ40によってスクリーン100上に表示されたスポット光を表わしている。本実施例では、スポット光は赤外線のため人間の目には見えないが、カメラ45は赤外線撮影にも対応しているため、撮影することが可能である。
次に、図2を用いて3D表示を行う際に、表示対象である物体と左右の映像の関係を説明する。
図2において90、91は映像の視聴者97の左目と右目であり、100は実際の設置場所に置かれたスクリーンである。
今回想定している映像には対象物Aと対象物Bの二つの物体が映っているものとする。図2において、900は三次元表示空間において対象物Aが置かれている位置、910は対象物Bが置かれている位置である。図2に示されているように、対象物Aは視聴者97から見て、対象物Bよりも遠くに存在し、対象物A、Bともに実際にスクリーンが置かれる位置100よりも遠くである場合を想定している。なお、本実施例はこれに限定されるものではなく、対象物がスクリーン100よりも近くにある場合でも対応可能である。
この例では、図2(1)に示すように、左目90の位置から見る場合を想定すると、対象物Aはスクリーン上では901の位置に表示することになり、対象物Bは911の位置に表示することになる。一方、右目91の位置から見る場合を想定すると、図2(2)に示すように、対象物Aはスクリーン上では902の位置に表示することになり、対象物Bは912の位置に表示することになる。すなわち、左目用映像101と右目用映像102は、図2(3)、図2(4)のようになる。
これらの映像がプロジェクタ10a、10bによって、偏光フィルタ11と12を通してスクリーン100に投影されることになるため、偏光眼鏡を掛けずに投影された映像を見ると図2(5)のように左右の映像が重なって二重像のように見えることになる(左右合成映像103)。ここで左右の映像の間のずれが左右の視差に相当し、この例では遠くにある対象物Aの方が近くにある対象物Bよりも大きな視差を持っている。
この左右合成映像103を、偏光眼鏡30を掛けてみることで、左目90には左目用映像101が、右目91には右目用映像102が見えることになり、対象物の持つ視差を脳が認識することで対象物A、Bはそれぞれ900,910の位置に存在しているように感じられ、立体的な映像として認識されることになる。
次に、レーザーポインタ40を用いて、3D映像中の対象物をポイントする場合の問題点を図3および図4の例を用いて説明する。ここでは、対象物Aの右端、すなわち車のボンネット部分を着目点としてポイントする場合を考える。
3D映像中の対象物をポイントする場合、厳密には、図4(1)のようにレーザーポインタ40と対象物Aの実際の位置900における着目点36を結んだ直線とスクリーン100が交差する点35をレーザーポインタ40でポイントするのが最適である。しかし、本実施例では、これを簡単な構成で実現するため、図4(2)に示すスクリーン100上の左目映像101における対象物Aの像901における着目点42をレーザーポインタ40によってポイントするようにしている。
これは、人間がレーザーポインタを使用する場合には、射撃のように厳密に着目点を狙ってポイントするのではなく、無意識のうちに既に表示されているポインタ像と着目点の位置の相対誤差が無くなるようにポインタを操作していることを利用して処理を簡略化するものである。このように現在のポインタ像との相対位置に基づくポインティング操作では、相対的な位置関係がある程度正しければ絶対的な位置を厳密に合わせる必要はない。なお、本実施例では、図3に示す左目映像101中の像901のボンネット上の点42に合わせているが、図3に示す右目映像102中の像902のボンネット上の点37に合わせても良いし、点42と点37の中間点に合わせるといったことも可能である。
このように左目映像101を基準にレーザーポインタ40でポインティングすると、対象物に視差がある場合は、右目映像102上では異なる位置がポイントされてしまう。今回の例では、図3に示すように、左右合成映像103において、レーザーポインタ40によって42の場所をポイントすると、左目映像101では目的としている車のボンネット部分の点42がポイントされるが、右目映像102では車の中央部分の点39がポイントされてしまう(左目映像における点42に相当する座標)。このように左右の映像におけるポイントされる物体の位置が異なると、レーザーポインタ40が可視光を照射していた場合には、人間の脳は立体的にポインタの位置を正しく解釈できないことになる。
ここで、立体映像上の車のボンネット部分に正しくポインタ像を表示するためのポインタ像の重畳について、図5を用いて説明する。本実施例の方法では、レーザーポインタ40は人間の目に見えない赤外光を点42へ照射し、ポインタ像をカメラ45で撮影することでポイントしている点42の位置を検出する方法を採っている。カメラ45では赤外光と同時に可視光も撮影しているので、可視光によってスクリーン100の外枠の位置を取得し、赤外光で取得したポイント位置と合わせることで、点42の位置を左目映像101中の座標データとして求めることが可能である。
また、図1には記載していないが、カメラ45の前面に偏光フィルタを取り付けることで、右目映像102がカメラ45に撮影されないようにして、カメラ45によって左目映像101とポインタ位置42を取得することも可能であり、両者のマッチング処理によって、ポイント位置を左目映像101中の座標データとして求めることも可能である。この方法では、スクリーンの外枠と左目映像101がずれていても、正しいポイント位置の座標を得ることが可能である。
以上の方法によって、左目映像101中のポインタ像42の座標データを得られるので、図5(1)に示すように左目映像101にポインタ画像43を重畳する。さらに、左目映像101中のポインタ像の座標データを用いて、右目映像102中のポインタ像の座標データを算出し、図5(2)のように、右目映像102にポインタ画像44を重畳する。この二つの画像を、図1に示すシステムで投影し、偏光眼鏡30を介してみることで、立体映像上の車のボンネット部分に正しくポインタ像を表示することが可能となる。
ここで上記の一連の処理の中で実行している「左目映像101中のポインタ像の座標データを用いて、右目映像102中のポインタ像の座標データを算出する処理」の実現方法を図6を用いて説明する。この処理では、左目映像101の中から物体の境界や角のような映像に特徴のある点を特徴点として抽出する。図6(1)では、着目点43の近くにあるa、b、c、dの四点を特徴点として抽出している。この4つの点で座標系を定義することで、その座標系における着目点43の座標が定まる。なお、この例では、a、b、c、dを頂点とする四角形は正方形に近い形状となっているが、これは任意の四角形であって構わない。
このa、b、c、dに対応する点を、画素の色や輝度の変化などを用いて、図6(2)に示す右目映像102から探索すると、a’、b’、c’、d’の四点が対応する特徴点として抽出できる。この4つの点で定義される座標空間とa、b、c、dの四点で定義される座標空間は透視変換によって変換できるため、着目点43がa’、b’、c’、d’の四点で定義される座標空間のどこに対応するかを求めることができる。このため、座標空間abcd中の任意の点Tが、座標空間a’b’c’d’における対応点T’を求めることが可能である。
これを、図6(2)の右目映像に反映させることで、右目映像102中のポインタ像の表示位置44が得られる。
なお、上述の例では左右の目の映像のそれぞれにポインタ画像を重畳したが、一方の目の映像のみのポインタ画像を重畳するだけでも適切な位置を指し示すという効果は得られる。この場合は、上述の特徴点をもちいた処理および他方の目の映像についてのポインタ画像の重畳処理は省略できる。
これらの演算処理およびポインタ画像の重畳は、カメラ45からの情報を受信可能であり、少なくとも一方の目の映像を処理可能な部分であればどこで行っても良い。例えば、左目用プロジェクタ10aまたは右目用プロジェクタ10bのいずれかで行っても良い。またはこれら両者が共働して行ってもよい。または、映像ソース95で行っても良い。
次にプロジェクタ10の内部構造の例を図7を用いて説明する。
図7において、51はカメラ・インターフェースであり、本実施例ではカメラ45からの映像を受け取る回路である。
カメラ50は、プロジェクタ10に内蔵されたカメラであり、本実施例では使用していないが、カメラ45の代わりにこのカメラ50を使用することも可能である。
52は通信インターフェースであり、プロジェクタ間の通信等に利用する。53は映像インターフェースであり、プロジェクタ10が表示する映像を入力するための回路である。
54はプロジェクタ全体を制御するコントローラであり、図が煩雑になるのを避けるため図7の中では結線表示が省略されているが、プロジェクタ10内の各モジュールと接続されている。
56は特徴点抽出回路であり、入力された映像の中から図6で説明した特徴点を抽出する回路である。各プロジェクタの特徴点抽出回路は通信インターフェース52を介して通信を行い、互いの特徴点の対応付けも行う。
55はポインタ座標算出回路であり、本実施例では、左目用プロジェクタ10aと右目用プロジェクタ10bでは動作が少し異なる動作をする。
左目用プロジェクタ10aに搭載されたポインタ座標算出回路55は、カメラ・インターフェース51から得られたポインタの位置が左目用映像101のどこに対応するかを算出し、左目用映像101におけるポインタ座標(図5の43に相当)を算出する。
右目用プロジェクタ10bに搭載されたポインタ座標算出回路55は、通信インターフェース経由52で取得した左目用映像101におけるポインタ位置と特徴点抽出回路56によって得られた特徴点の座標から右目用映像102におけるポインタ座標(図5の44に相当)を算出する。
このようにして得られたポインタ座標を用いて、ポインタ重畳回路57では映像インターフェース53から入力された映像にポインタの映像を重ね合わせる。
重ね合わせた映像は、映像投影制御回路58とランプ、液晶パネル、ミラー、レンズなどから構成される表示/光学ユニット59によって表示映像として出力される。出力された映像はレンズ61、偏光フィルタ11を介してスクリーン100へ投影される。
この一連の処理の流れをフローチャートで現わしたものが図8である。
処理が開始されると(701)、最初に、カメラ45でスクリーン100を撮影した映像を取得する(702)。取得された映像はシステムバス96を経由して左目用プロジェクタ10aへ送られる。左目用プロジェクタ10aでは送られた映像を元に左目映像101に重畳するポインタ画像の表示位置を算出し(703)、左目映像101にポインタ画像を重畳する(704)。
次に、左目用プロジェクタ10aからシステムバス96を介して、特徴点の情報と左目用ポインタの表示位置が右目用プロジェクタ10bへ送られる。
右目用プロジェクタ10bでは、左右の映像の特徴点の対応付けを行い(705)、右目映像102に重畳するポインタ画像の表示位置を算出し(706)、右目映像102にポインタ画像を重畳する(707)。
これを周期的に行うことで、三次元映像表示に使用される左右の映像の適切な位置にポインタ画像を重畳できるため、立体映像に対してレーザーポインタによるポインティング操作が実現可能となる。
なお、ポインタ画像の重畳は一方の目の映像のみに重畳してもよい。
(実施例2)
本発明の第二の実施例におけるシステム構成を図9に基づいて説明する。実施例1では偏光眼鏡方式により3D映像を表示していたが、本実施例ではアクティブシャッター眼鏡によって3D映像を表示する。アクティブシャッター眼鏡による3D表示では、左目用映像101と右目用映像102を時間軸方向で交互にプロジェクタ15から投影する。
本発明の第二の実施例におけるシステム構成を図9に基づいて説明する。実施例1では偏光眼鏡方式により3D映像を表示していたが、本実施例ではアクティブシャッター眼鏡によって3D映像を表示する。アクティブシャッター眼鏡による3D表示では、左目用映像101と右目用映像102を時間軸方向で交互にプロジェクタ15から投影する。
この例では、偶数番目の表示フレームでは左目用映像101をプロジェクタ15から投影し、奇数番目の表示フレームでは右目用映像102を投影する。シャッター眼鏡31は左右の目に異なるタイミングで動作する液晶シャッターが搭載されている。
本実施例では、左目用映像101が投影されている時間には、左目に対応した液晶シャッターを開き(光が通過できる)、右目に対応した液晶シャッターを閉じる(光が通過できない)ように制御する。逆に、右目用映像102が投影されている時間には、右目に対応した液晶シャッターを開き、左目に対応した液晶シャッターを閉じるように制御する。
プロジェクタ15には無線通信ユニットが搭載されており、シャッター眼鏡31に搭載された無線通信ユニットと通信することで、プロジェクタの映像表示タイミングに同期して、上記のようにシャッター眼鏡31を制御することが可能となっている。
本実施例では、レーザーポインタ41にも無線通信ユニットを備え、プロジェクタ15に内蔵された無線通信ユニットと通信することで、映像の表示タイミングに合わせてレーザー光を点滅させる機構を備えている。すなわち、プロジェクタ15から左目用映像101が表示されている期間だけ、レーザー光を点灯させるようになっている。
このようにすることで、視聴者97にとっては、レーザーポインタ41の光は、左目映像101だけに照射されているように見えることになる。この左目映像101を表示しているタイミングでカメラ45を用いてスクリーン100を撮影することで、左目映像101におけるポインタの位置を取得できるため、実施例1と同様の方法で、右目映像102に右目用ポインタ像を重畳することで、3D空間中にポインタ像を表示することが可能となる。
本方式では、一台のプロジェクタで立体視を実現できるため、実施例1の方式に比べてプロジェクタの数を減らせるというメリットがある。また、本実施例では、可視光のレーザーポインタを用いて、レーザーポインタからの照射光をそのまま、左目映像用のポインタ像として使用しているが、アクティブシャッター眼鏡方式で3D映像を表示する場合にも、実施例1と同様に赤外光のレーザーポインタを用いて、左右の映像にポインタ像を重畳する方式を採用することも可能である。
次に、本実施例におけるプロジェクタ15の構成を図10を用いて説明する。基本的な構成は実施例1の図7と同じであるが、2台のプロジェクタ間の通信が不要となるため、通信インターフェースユニット52が削除されており、代わりに無線通信ユニット62を追加している。本ユニットはコントローラ54と接続されており、各フレームの表示タイミングをシャッター眼鏡31やレーザーポインタ41に通知する目的で使用されている。
(実施例3)
本発明の方式は、眼鏡式の3Dだけでなく裸眼式の3Dにも適用することが可能である。これを図11のシステム構成に基づいて説明する。
本発明の方式は、眼鏡式の3Dだけでなく裸眼式の3Dにも適用することが可能である。これを図11のシステム構成に基づいて説明する。
裸眼式3Dでは、いろいろな視点から見た映像を用意しておき、視聴者がスクリーンを見たときに、その視線の方向に対応する映像が見えるようにすることで立体視を実現するものである。図11では、図が煩雑になるのを防ぐために5台のプロジェクタを使用した場合を想定しているが、本発明の方式はプロジェクタの台数に制限は無い。
このような裸眼立体視のスクリーンはレンチキュラーレンズを用いた構成等の様々な方式が提案されている。また。投影方式としても実施例1のようにスクリーンの前面から投影する方法だけでなく、背面から投影するリアプロジェクション方式があり、現時点ではリアプロジェクション方式の方が広く用いられている。そこで、本実施例でも、スクリーンの背面からプロジェクタで投影するリアプロジェクション方式を想定している。
本発明をこのような裸眼式の3D表示に適用した場合の基本的な構成は実施例1の方式と類似している。すなわち、本実施例では、レーザーポインタ46は赤外光を照射し、これを赤外光と可視光を撮影可能なカメラで撮影することでポインタの位置を取得する構成をとっている。実施例1の方式ではカメラの設置位置はそれほど重要ではなかったが、本実施例では、カメラの設置位置も重要なパラメータとなる。これは、カメラの設置位置によって、どの視線に対応したプロジェクタから投影された映像がカメラによって撮影されるかが変化するためである。
本実施例では、プロジェクタ16aから投影された映像が、カメラ45で撮影されるようにカメラ45の設置位置を決定している。この場合、プロジェクタ16aを、実施例1のプロジェクタ10a、その他のプロジェクタを実施例1のプロジェクタ10bと読み替えることで、実施例1の方式を用いて裸眼式の3D映像上でのポインティング操作を行うことが可能となる。
すなわち、レーザーポインタ46から照射されたレーザー光によるスポット42をカメラ45で撮影し、プロジェクタ16aから投影された映像におけるポイント座標を算出し、ポインタ画像をプロジェクタ16aの表示映像に重畳する。さらに、この座標情報と特徴点マッチングの結果を用いてプロジェクタ16b〜eに対して、それぞれのポインタ重畳座標を算出し、それぞれの表示映像にポインタ画像を重畳する。
(実施例4)
ここまでの実施例では、表示デバイスとしてプロジェクタを想定してきたが、本発明の表示デバイスはプロジェクタに限定されるものではない。本実施例では、表示デバイスとして液晶ディスプレイを用いた例を示す。これを図12のシステム構成に基づいて説明する。
ここまでの実施例では、表示デバイスとしてプロジェクタを想定してきたが、本発明の表示デバイスはプロジェクタに限定されるものではない。本実施例では、表示デバイスとして液晶ディスプレイを用いた例を示す。これを図12のシステム構成に基づいて説明する。
図12において、70は立体視対応の液晶ディスプレイである。ここでは偏光フィルタを前面に貼り付けた液晶ディスプレイを想定している。偏光フィルタは液晶パネルの水平画素ライン位置毎に偏光の方向を交互に変えた構造となっている。すなわち、液晶パネルの最初の画素ラインでは、右回りの円偏光、次の画素ラインでは左回りの円偏光、3番目の画素ラインでは右回りの円偏光というように交互に偏光方向が入れ替わる。
ここで表示映像の奇数ラインに左目の映像を、偶数ラインに右目の映像を表示し、これを左右の目に異なる方向の円偏光フィルタを貼り付けた偏光眼鏡32を通してみると左目用の映像が左目に、右目用の映像が右目に見える事になり、人間の脳には3D像として認識される。
本実施例では、液晶ディスプレイ70の表示面に対して、レーザーポインタ40によって赤外光を照射し、液晶ディスプレイの表示面に出現する赤外光のスポットをカメラ45で撮影し、撮影結果からポインタの指している位置を算出し、左右の映像に重畳する。すなわち、基本的な考え方は実施例1に近いが、実現方法には差異がある。これを図13の液晶ディスプレイの内部構造を用いて説明する。
本実施例では、映像ソース95は液晶ディスプレイ70の外部に存在するが、テレビチューナを内蔵した液晶テレビのように液晶ディスプレイ70の筐体内部に映像を生成するモジュールがあっても構わない。
映像ソース95から入力された映像は映像インターフェース72で受け取られる。この時点では、上記のように左右の映像が1ライン毎にインターリーブされた状態となっている。これを左右分離回路77で1ライン置きに取り出すことで、左右の映像を得ることが可能となる。
ここで得られた左右の映像に対して、実施例1と同じ方法で特徴点抽出回路76およびポインタ座標算出回路74を用いてポインタ座標を算出し、ポインタ重畳回路78、79によって左右の映像に対して、ポインタ画像を重畳する。次に、左右合成・表示制御回路80によってポインタ重畳後の左右の映像を1ライン置きに混ぜ合わせることで左右の映像を合成した画像を生成する。左右合成・表示制御回路80には液晶パネル固有の表示タイミングの生成やガンマ調整回路などが含まれる。
このようにして生成した画像を、液晶パネル・光学系81によって表示する。液晶パネルの前面には上で述べた偏光フィルム85が貼り付けてあるため、左右の映像が偏光方向を変えた状態で混合されて表示されることになる。
これを実施例1のように左目用の映像は左目のみで、右目の映像は右目のみで見られるように偏光の方向を調整した、偏光眼鏡32を通してみることで、ポインタ画像が重畳された三次元映像を視聴することが可能となる。
10:プロジェクタ、11、12:偏光フィルタ、15:両目用プロジェクタ、16a〜e:プロジェクタ、30:偏光眼鏡、31:シャッター眼鏡、40:レーザーポインタ、41:レーザーポインタ、42:ポインタ照射点、43:重畳したポインタ(左目用)、44:重畳したポインタ(右目用)、45:カメラ、46:レーザーポインタ(裸眼立体視対応)、48:偏光フィルタ、50:カメラ、51:カメラI/F、52:通信I/F、53:映像I/F、54:コントローラ、55:ポインタ座標検出回路、56:特徴点抽出回路、57:ポインタ重畳回路、58:映像投影制御回路、59:表示/光学ユニット、60:操作スイッチ、61:レンズ、62:無線通信ユニット、70:立体視対応テレビ、71:カメラI/F、72:映像I/F、73:コントローラ、74:ポインタ座標検出回路、76:特徴点抽出回路、77:左右映像分離回路、78:ポインタ重畳回路(左目用)、79:ポインタ重畳回路(右目用)、80:左右合成・表示制御回路、81:液晶パネルおよび光学系、82:操作スイッチ、85:偏光フィルム、90:左目、91:右目、95:映像ソース、96:システムバス、97:視聴者、100:スクリーン、101:左目用映像、102:右目用映像、103:左右合成映像、105:裸眼立体視用スクリーン、900:対象物A、901:対象物Aのスクリーン上の像(左目用)、902:対象物Aのスクリーン上の像(右目用)、910:対象物B、911:対象物Bのスクリーン上の像(左目用)、912:対象物Bのスクリーン上の像(右目用)。
Claims (9)
- 立体映像として視聴可能な映像を面上に表示する表示装置と、
非可視光線または可視光線を前記面上に投射した散乱光により一点を指し示すことが可能な光線照射装置と、
を備え、
前記表示装置は、前記散乱光を撮像可能なカメラと、表示映像にポインタ画像を重畳する重畳部と、を有し、
前記重畳部は、前記カメラが撮像した散乱光の位置に応じて前記ポインタ画像を前記表示映像に重畳することを特徴とする映像表示システム。 - 映像を見る人間の左目位置からの視点に対応した第一の映像と右目位置からの視点に対応した第二の映像とを入力する映像入力手段と、前記映像入力手段から入力された各映像に対して加工を行う映像加工手段と、前記映像加工手段によって加工された各映像をオーバーラップした表示領域に重ね合わせて第三の映像として表示する映像表示手段とからなる三次元映像表示手段と、
前記映像の表示領域と前記映像を見る人間の間に配置され、前記第三の映像から前記第一の映像と前記第二の映像を分離し、左目には前記第一の映像を供給し、右目には前記第二の映像を供給する左右映像分離手段と、
非可視光を照射することによって、前記表示領域中に第一の位置を指定するための光照射領域を生成するポインティング手段と、
前記表示領域を撮影する撮影手段と、
前記撮影手段によって撮影された撮影映像を解析する撮影映像解析手段と、
を備え、
前記撮影映像解析手段は、前記撮影手段によって撮影された映像から、前記表示領域における第一の位置を求め、これを元に前記表示領域中の第一の位置に対応した第一の映像内の座標である第一の座標と前記表示領域中の第一の位置に対応した第二の映像内の座標である第二の座標とを算出し、
前記映像加工手段は、前記第一の映像内の前記第一の座標、および前記第二の映像内の前記第二の座標にポインティングされた位置であることを示すパターンを重畳し、
前記表示手段は、前記映像加工手段によって前記パターンが重畳された映像を表示し、前記第一の映像と前記第二の映像によって構築される三次元映像空間上に前記ポインティング手段によって指定された前記第一の位置をポインティングすることを特徴とする三次元映像ポインティング装置。 - 映像を見る人間の左目位置からの視点に対応した第一の映像と右目位置からの視点に対応した第二の映像とを入力する映像入力手段と、前記映像入力手段から入力された各映像に対して加工を行う映像加工手段と、前記映像加工手段によって加工された各映像をオーバーラップした表示領域に重ね合わせて第三の映像として表示する映像表示手段とからなる三次元映像表示手段と、
前記映像の表示領域と前記映像を見る人間の間に配置され、前記第三の映像から前記第一の映像と前記第二の映像を分離し、左目には前記第一の映像を供給し、右目には前記第二の映像を供給する左右映像分離手段と、
可視光を照射することによって、前記表示領域中に第一の位置を指定するための光照射領域を生成するポインティング手段と、
前記表示領域を撮影する撮影手段と、
前記撮影手段によって撮影された撮影映像を解析する撮影映像解析手段と、
を備え、
前記撮影映像解析手段は、前記撮影手段によって撮影された映像から、前記表示領域における第一の位置を求め、これを元に前記表示領域中の前記第一の位置をそのまま前記第一の映像内の座標である第一の座標として利用し、前記表示領域中の前記第一の位置に対応した前記第二の映像内の座標である第二の座標を算出し、
前記映像加工手段は、前記第一の映像内の前記第一の座標、および前記第二の映像内の前記第二の座標にポインティングされた位置であることを示すパターンを重畳し、
前記表示手段は、前記映像加工手段によって前記パターンが重畳された映像を表示し、前記第一の映像と前記第二の映像によって構築される三次元映像空間上に前記ポインティング手段によって指定された前記第一の位置をポインティングすることを特徴とする三次元映像ポインティング装置。 - 請求項3に記載の三次元映像ポインティング装置において、
前記第二の映像内の前記第二の座標に重畳するパターンを、前記ポインティング手段が生成する光照射領域のパターンと類似した色および形状とすることで、前記第一の映像に対するパターン重畳を行わないことを特徴とする三次元映像ポインティング装置。 - 請求項2〜4のいずれか1項に記載の三次元映像ポインティング装置において、
前記左右映像分離手段は、左右の目に異なる偏光方向を持った光透過手段を備えた偏光眼鏡であることを特徴とする三次元映像ポインティング装置。 - 請求項2〜4のいずれか1項に記載の三次元映像ポインティング装置において、
前記左右映像分離手段は、左右の目に異なるタイミングで開閉を行うシャッター構造を備えたシャッター眼鏡であることを特徴とする三次元映像ポインティング装置。 - 請求項2〜6のいずれか1項に記載の三次元映像ポインティング装置において、
前記映像表示手段はプロジェクタであることを特徴とする三次元映像ポインティング装置。 - 請求項2〜6のいずれか1項に記載の三次元映像ポインティング装置において、
前記映像表示手段は、フラットパネルディスプレイであることを特徴とする三次元映像ポインティング装置。 - 立体映像として視聴可能な映像を面上に表示する表示装置であって、
非可視光線または可視光線を前記面上に投射した散乱光により一点を指し示す光線照射装置により生じた前記散乱光を撮像するカメラと、
表示映像にポインタ画像を重畳する重畳部と、
を備え、
前記重畳部は、前記カメラが撮像した散乱光の位置に応じて前記ポインタ画像を前記表示映像に重畳することを特徴とする映像表示装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014154315A JP2016032227A (ja) | 2014-07-29 | 2014-07-29 | 映像表示システム、三次元映像ポインティング装置、および映像表示装置 |
| US14/738,099 US20160034048A1 (en) | 2014-07-29 | 2015-06-12 | Video display system, three-dimensional video pointing device and video display device |
| CN201510326078.7A CN105323575A (zh) | 2014-07-29 | 2015-06-15 | 影像显示系统、三维影像指示装置以及影像显示装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014154315A JP2016032227A (ja) | 2014-07-29 | 2014-07-29 | 映像表示システム、三次元映像ポインティング装置、および映像表示装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016032227A true JP2016032227A (ja) | 2016-03-07 |
Family
ID=55179990
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014154315A Pending JP2016032227A (ja) | 2014-07-29 | 2014-07-29 | 映像表示システム、三次元映像ポインティング装置、および映像表示装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20160034048A1 (ja) |
| JP (1) | JP2016032227A (ja) |
| CN (1) | CN105323575A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019154886A (ja) * | 2018-03-15 | 2019-09-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用表示制御装置、および表示制御方法 |
| JP2023521281A (ja) * | 2020-03-02 | 2023-05-24 | カール ツアイス メディテック アクチエンゲゼルシャフト | ヘッドマウント可視化ユニット及び可視化システム |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105657409A (zh) * | 2016-01-27 | 2016-06-08 | 京东方科技集团股份有限公司 | 一种显示屏、眼镜、显示系统及播放方法 |
| JP2017215374A (ja) * | 2016-05-30 | 2017-12-07 | パナソニックIpマネジメント株式会社 | 画像投影システムおよび画像投影方法 |
| EP3623996B1 (en) * | 2018-09-12 | 2025-10-01 | Aptiv Technologies AG | Method for determining a coordinate of a feature point of an object in a 3d space |
| US12505568B1 (en) * | 2022-05-18 | 2025-12-23 | Ambarella International Lp | Generating 3D visualization on 3D display utilizing 3D point cloud from multiple sources |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5175616A (en) * | 1989-08-04 | 1992-12-29 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada | Stereoscopic video-graphic coordinate specification system |
| JP4609001B2 (ja) * | 2004-02-24 | 2011-01-12 | パナソニック電工株式会社 | ポインタ装置 |
| WO2010082365A1 (ja) * | 2009-01-19 | 2010-07-22 | Inaba Minoru | 立体映像撮像表示システム |
| WO2011100735A1 (en) * | 2010-02-15 | 2011-08-18 | Thomson Licensing | Apparatus and method for processing video content |
| US8957856B2 (en) * | 2010-10-21 | 2015-02-17 | Verizon Patent And Licensing Inc. | Systems, methods, and apparatuses for spatial input associated with a display |
| JP5025787B2 (ja) * | 2010-12-21 | 2012-09-12 | 株式会社東芝 | 画像処理装置、及び画像処理方法 |
| JP6217445B2 (ja) * | 2013-03-07 | 2017-10-25 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
-
2014
- 2014-07-29 JP JP2014154315A patent/JP2016032227A/ja active Pending
-
2015
- 2015-06-12 US US14/738,099 patent/US20160034048A1/en not_active Abandoned
- 2015-06-15 CN CN201510326078.7A patent/CN105323575A/zh active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019154886A (ja) * | 2018-03-15 | 2019-09-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用表示制御装置、および表示制御方法 |
| JP2023521281A (ja) * | 2020-03-02 | 2023-05-24 | カール ツアイス メディテック アクチエンゲゼルシャフト | ヘッドマウント可視化ユニット及び可視化システム |
Also Published As
| Publication number | Publication date |
|---|---|
| CN105323575A (zh) | 2016-02-10 |
| US20160034048A1 (en) | 2016-02-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2494402B1 (en) | Stereo display systems | |
| US9848184B2 (en) | Stereoscopic display system using light field type data | |
| US20120200680A1 (en) | Display device and method for providing 3D image of the display device | |
| JP2017505565A (ja) | 多面映像の生成方法及びシステム | |
| JP2016032227A (ja) | 映像表示システム、三次元映像ポインティング装置、および映像表示装置 | |
| JP4432462B2 (ja) | 撮像装置及び方法、撮像システム | |
| US9479761B2 (en) | Document camera, method for controlling document camera, program, and display processing system | |
| KR20120104430A (ko) | 표시 장치 및 표시 방법 | |
| CN102075776A (zh) | 一种立体显示的控制方法及装置 | |
| JP7118650B2 (ja) | 表示装置 | |
| JP2012244466A (ja) | 立体画像処理装置 | |
| TWI486052B (zh) | 立體影像處理裝置以及立體影像處理方法 | |
| KR102242923B1 (ko) | 스테레오 카메라의 정렬장치 및 스테레오 카메라의 정렬방법 | |
| JP4634863B2 (ja) | 立体視画像生成装置及び立体視画像生成プログラム | |
| JP2013090180A (ja) | 立体映像撮影表示装置 | |
| JP2011139339A (ja) | 立体画像表示装置 | |
| KR100906784B1 (ko) | 입체영상 제작 프로그램용 플러그인 모듈 및 입체영상 제작방법 | |
| JPH02291787A (ja) | 広視野表示装置 | |
| JP2013046081A (ja) | 撮影装置および映像生成方法 | |
| US9185399B2 (en) | Stereoscopic video receiver | |
| JP2011182003A (ja) | パノラマカメラ及び360度パノラマ立体映像システム | |
| KR102306775B1 (ko) | 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치 | |
| TW201325201A (zh) | 可追蹤觀看者的立體顯示器 | |
| JP5275760B2 (ja) | 立体画像表示システム | |
| KR101463778B1 (ko) | 다수의 카메라를 이용하여 입체 영상을 제작하는 방법 및 시스템 |