[go: up one dir, main page]

JP7752776B2 - ビデオの高忠実度拡大を可能にするための技法 - Google Patents

ビデオの高忠実度拡大を可能にするための技法

Info

Publication number
JP7752776B2
JP7752776B2 JP2024539958A JP2024539958A JP7752776B2 JP 7752776 B2 JP7752776 B2 JP 7752776B2 JP 2024539958 A JP2024539958 A JP 2024539958A JP 2024539958 A JP2024539958 A JP 2024539958A JP 7752776 B2 JP7752776 B2 JP 7752776B2
Authority
JP
Japan
Prior art keywords
video
display
zoom
command
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024539958A
Other languages
English (en)
Other versions
JP2025501988A (ja
Inventor
クリシュナン、ラティシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2025501988A publication Critical patent/JP2025501988A/ja
Application granted granted Critical
Publication of JP7752776B2 publication Critical patent/JP7752776B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • H04N21/234372Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本出願は、概して、解像度を損なうことなくビデオをズームするための技法に関する。
本明細書で認識されるように、ビデオをズームするとき、高レベルのズームでは、画像がピクセル化する。これは、非常に高い解像度を有するビデオを提供することによって緩和することができるが、そのようなビデオは、過度のストレージ及び帯域幅を消費する。現在、上記のコンピュータ関連の技術的問題に対する適切な解決策はない。
したがって、一態様では、一時的な信号ではない少なくとも1つの記憶デバイスは、少なくとも1つのプロセッサによって実行可能な命令を含み、命令は、プロセッサに、ディスプレイ上に第1のビデオを提示させ、ズームコマンドに応答して、第2のビデオを第1のビデオと組み合わせさせ、第1のビデオと組み合わせられた第2のビデオをディスプレイ上に提示させる。第1のビデオ及び第2のビデオは、互いに実質的に同じカメラ位置から、実質的に同じ時間に、かつ実質的に同じ解像度で生成される。しかしながら、忠実度を損なうことなくズームしているように見せるために、第2のビデオは、第1のビデオの生成に使用される物理的又は仮想的なレンズの視野(FOV)よりも小さいFOVを有する物理的又は仮想的なレンズによって生成される。代替的に、第2のビデオは、第1のビデオよりも短い焦点距離を有するカメラによって生成してもよい。
ズームコマンドは、第1のズームコマンドであり得、命令は、第1のズームコマンドの継続的な入力又は第2のズームコマンドの入力に応答して、ディスプレイ上に第2のビデオのみを提示するように実行可能であり得る。いくつかの実施例では、命令は、第1のズームコマンドの継続的な入力又は第2のズームコマンドの後の第3のズームコマンドの入力に応答して、第2のビデオを第3のビデオと組み合わせ、第2のビデオと組み合わせられた第3のビデオをディスプレイ上に提示するように実行可能であり得る。ここで、第1、第2、及び第3のビデオは、互いに実質的に同じカメラ位置から、実質的に同じ時間に、かつ実質的に同じ解像度で生成され得るが、第3のビデオは、第2のビデオの生成に使用される物理的又は仮想的なレンズのFOVよりも小さいFOVを有する物理的又は仮想的なレンズによって生成される。
実際、プロセッサは、ズームコマンドの継続的な入力で使用するために、各々が直前のビデオよりも連続的に小さいFOVを有する第4のビデオ及び第5のビデオにアクセスし得る。
ディスプレイは、仮想現実(VR)、三次元(3D)コンピュータゲームディスプレイなどのヘッドマウントディスプレイ(HMD)であってもよい。
別の態様では、方法は、第1のビデオを広角モードでディスプレイ上に提示することを含む。この方法は、ズームインコマンドに応答して、第1のビデオを標準角モードで提示し、継続的なズームインコマンドに応答して、第1のビデオを望遠モードで提示することを含む。継続的なズームインコマンドに応答して、この方法は、第2のビデオを広角モードでディスプレイ上に提示することを含む。
別の態様では、装置は、第1のビデオをディスプレイ上に提示し、ズームコマンドに応答して、第2のビデオをディスプレイ上に提示するようにプログラムされた少なくともプロセッサを含む。第2のビデオは、第1のビデオの生成に使用される物理的又は仮想的なレンズの視野(FOV)よりも小さいFOVを有する物理的又は仮想的なレンズによって生成され、及び/又は第1のビデオが提示される焦点距離よりも短い焦点距離に基づいて生成される。
本出願の詳細は、その構造及び動作の両方に関して、添付図面を参照することにより最良に理解することができ、その中で同じ参照番号は同じ部品を示す。
本原理に従った例示的なシステムのブロック図である。 本原理に沿った例示的なロジックを例示的なフローチャート形式で例解する。 Z軸に沿って前進することによってズームするユーザを例解する。 ズームを概略的に例解する。 ビデオ間のオフセットを概略的に示す。 例示的なレンダリングモジュール及び復号モジュールのブロック図である。 5台のカメラからの視界を例解する。 複数FOV及び複数配置コンテンツキャプチャを例解する。
本開示は、概して、5G又はATSC 3.0上で動作する無線ネットワークを含むコンピュータゲームネットワークに限定されないコンシューマエレクトロニクス(CE)デバイスネットワークの態様を含むコンピュータエコシステムに関する。本明細書におけるシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータが交換され得るように、ネットワーク経由で接続され得るサーバコンポーネント及びクライアントコンポーネントを含み得る。クライアントコンポーネントは、ソニーPlayStation(商標登録)又はMicrosoft、若しくは任天堂若しくは他のメーカー製のゲームコンソールなどのゲームコンソール、仮想現実(VR)ヘッドセット、拡張現実(AR)ヘッドセット、ポータブルテレビ(例えば、スマートテレビ、インターネット対応テレビ)、ラップトップ及びタブレットコンピュータなどのポータブルコンピュータ、並びにスマートフォンを含む他のモバイルデバイスを含む1つ以上のコンピューティングデバイス、並びに後述する追加の例を含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータの中には、実施例として、Linux(登録商標)オペレーティングシステム、Microsoftのオペレーティングシステム、又はUnix(登録商標)オペレーティングシステム、又はApple社製若しくはGoogle製のオペレーティングシステムを採用し得る。これらの動作環境は、Microsoft若しくはGoogle、若しくはMozillaによって作製されたブラウザー、又は後述するインターネットサーバがホストするウェブサイトにアクセスできる他のブラウザープログラムなど、1つ以上のブラウジングプログラムを実行するために使用され得る。また、本原理による動作環境は、1つ以上のコンピュータゲームプログラムを実行するために使用され得る。
インターネットなどのネットワーク経由でデータを受信及び送信するようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得るサーバ及び/又はゲートウェイが使用され得る。あるいは、クライアント及びサーバは、ローカルイントラネット又は仮想プライベートネットワーク経由で接続されることができる。サーバ又はコントローラは、ソニーPlayStation(商標登録)などのゲームコンソール、パーソナルコンピュータなどによって例示され得る。
クライアントとサーバとの間でネットワークを経由して、情報が交換され得る。この目的及びセキュリティのために、サーバ及び/又はクライアントは、ファイアウォール、ロードバランサ、一時ストレージ、及びプロキシ、並びに信頼性及びセキュリティのための他のネットワークインフラを含むことができる。1つ以上のサーバは、オンラインソーシャルウェブサイト又はゲーマーネットワークのような安全なコミュニティをネットワークメンバーに提供する方法を実装する装置を形成し得る。
プロセッサは、アドレス線、データ線、及び制御線、及びレジスタ、及びシフトレジスタなどの様々な配線によってロジックを実行できる単一チップ又は複数チップのプロセッサであり得る。
ある実施形態に含まれるコンポーネントは、他の実施形態でも適切な組み合わせで使用できる。例えば、本明細書に記載される及び/又は図面に示される様々なコンポーネントはいずれも、他の実施形態と組み合わされ、交換され、又は他の実施形態から除外され得る。
「A、B、及びCのうちの少なくとも1つを有するシステム」(同様に「A、B、又はCのうちの少なくとも1つを有するシステム」、及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、Aのみ、Bのみ、Cのみ、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、並びに/又はA、B、及びCを一緒に有するシステムを含む。
ここで具体的に図1を参照すると、例示的なシステム10が示されており、このシステム10は、上述の例示的なデバイスのうちの1つ以上を含み得、本原理に従って以下に更に説明する。システム10に含まれる例示的なデバイスの第1は、TVチューナー(等価的に、TVを制御するセットトップボックス)を有するインターネット対応TVなどのオーディオビデオデバイス(AVD)12などのコンシューマエレクトロニクス(CE)デバイスであるが、これに限定されない。AVD12はまた、代替的に、コンピュータ化されたインターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、スマートメガネ又はVRヘッドセットなどのヘッドマウントデバイス(HMD)及び/又はヘッドセット、別のウェアラブルコンピュータ化されたデバイス、コンピュータ化されたインターネット対応音楽プレーヤー、コンピュータ化されたインターネット対応ヘッドフォン、植込み型スキンデバイスなどのコンピュータ化されたインターネット対応植込み型デバイスであり得る。それにもかかわらず、AVD12は、本原理を実現する(例えば、本原理を実現するために他のCEデバイスと通信し、本明細書に記載のロジックを実行し、本明細書に記載の任意の他の機能及び/又は動作を実行する)ように構成されていることを理解されたい。
したがって、このような原理を実現するために、AVD12は図1に示されたコンポーネントの一部又は全部によって確立することができる。例えば、AVD12は、高精細若しくは超高精細「4K」以上のフラットスクリーンによって実装され得る1つ以上のタッチ対応ディスプレイ14を含むことができる。タッチ対応ディスプレイ(複数可)14は、例えば、本原理と一致するタッチ感知用の電極のグリッドを有する容量性又は抵抗性タッチ感知層を含み得る。
AVD12はまた、本原理に従ってオーディオを出力するための1つ以上のスピーカ16と、AVD12を制御するためにAVD12に可聴式コマンドを入力するためのオーディオ受信機/マイクロフォンなどの少なくとも1つの追加入力デバイス18とを含み得る。例示的なAVD12はまた、1つ以上のプロセッサ24の制御下で、インターネット、WAN、LANなどの少なくとも1つのネットワーク22を経由して通信するための1つ以上のネットワークインターフェース20を含み得る。したがって、インターフェース20は、限定はしないが、メッシュネットワークトランシーバなどであるがそれに限定されない、無線コンピュータネットワークインターフェースの実施例であるWi-Fiトランシーバであり得る。プロセッサ24は、ディスプレイ14を制御してその上に画像を提示すること、及びそこから入力を受信することなど、本明細書に記載されるAVD12の他の要素を含め、本原理を実現するためにAVD12を制御することを理解されたい。更に、ネットワークインターフェース20は、有線若しくは無線のモデム若しくはルータ、又は無線電話トランシーバ、又は前述のWi-Fiトランシーバなどの他の適切なインターフェースであり得ることに留意されたい。
上記に加えて、AVD12はまた、別のCEデバイスに物理的に接続するための高精細マルチメディアインターフェース(HDMI(登録商標))ポート若しくはユニバーサルシリアルバス(USB)ポート、及び/又はヘッドフォンを通してAVD12からユーザにオーディオを提示するためにヘッドフォンをAVD12に接続するためのヘッドフォンポートのような1つ以上の入力及び/又は出力ポート26を含み得る。例えば、入力ポート26は、有線又は無線を介して、ケーブル又は衛星のオーディオビデオコンテンツの供給源26aに接続され得る。したがって、供給源26aは、別個又は統合されたセットトップボックス、あるいは衛星受信機であり得る。あるいは、供給源26aは、コンテンツを含むゲームコンソール又はディスクプレーヤーであり得る。ゲームコンソールとして実装されるときの供給源26aは、CEデバイス48に関連して以下に記載されるコンポーネントの一部又は全部を含み得る。
AVD12は、一時的な信号ではないディスクベースストレージ又はソリッドステートストレージなどの1つ以上のコンピュータメモリ/コンピュータ可読記憶媒28を更に含み得、場合によっては、スタンドアロンデバイスとして、又はAVプログラムを再生するためのAVDのシャーシの内部若しくは外部のいずれかでパーソナルビデオレコーディングデバイス(PVR)若しくはビデオディスクプレーヤーとして、又はリムーバブルメモリメディア若しくは後述のサーバとして、AVDのシャーシ内部で具現化される。また、一部の実施形態では、AVD12は、衛星又は携帯電話基地局から地理的配置情報を受信し、その情報をプロセッサ24に提供し、並びに/又はプロセッサ24と連動してAVD12が配設される高度を判定するように構成されている、携帯電話受信機、GPS受信機及び/若しくは高度計30などの配置若しくは位置受信機を含むことができるが、これらに限定されない。コンポーネント30はまた、三次元におけるAVD12の位置及び向きを判定するために、典型的には加速度計、ジャイロスコープ、及び磁気計の組み合わせを含む慣性測定ユニット(IMU)によって、又はイベントベースのセンサによって実装され得る。
AVD12の説明を続けると、一部の実施形態では、AVD12は、赤外線カメラ、ウェブカムなどのデジタルカメラ、イベントベースのセンサ、及び/又はAVD12に統合され、プロセッサ24によって制御可能で、本原理に従って写真/画像及び/又はビデオを収集することができるカメラなど、1つ以上のカメラ32を含み得る。また、AVD12には、Bluetooth(登録商標)及び/又はNFC技術をそれぞれ使用して他のデバイスと通信するためのBluetooth(登録商標)トランシーバ34及び他の近距離無線通信(NFC)要素36が含まれ得る。例示的なNFC要素は、無線周波数識別(RFID)要素であることができる。
更に引き続き、AVD12は、プロセッサ24に入力を提供する1つ以上の補助センサ38(例えば、感圧センサ、モーションセンサ、例えば加速度計、ジャイロスコープ、サイクロメータ、又は磁気センサなど、赤外線(IR)センサ、光学センサ、速度及び/又はケイデンスセンサ、イベントベースのセンサ、(例えば、ジェスチャコマンドを感知するための)ジェスチャセンサ)を含み得る。例えば、補助センサ38のうちの1つ以上は、タッチ対応ディスプレイ14の層自体を形成する1つ以上の圧力センサを含み得、限定されないが、圧電圧力センサ、容量性圧力センサ、ピエゾ抵抗ひずみゲージ、光学圧力センサ、電磁圧力センサなどであり得る。
AVD12はまた、プロセッサ24に入力を提供する地上波テレビ放送を受信するためのOTAテレビ放送ポート40を含み得る。上記に加えて、AVD12はまた、IRデータ協会(IRDA)デバイスなどの赤外線(IR)送信機及び/又はIR受信機及び/又はIRトランシーバ42を含み得ることに留意されたい。バッテリ(図示せず)は、AVD12に電力を供給するために提供され得、また、運動エネルギーを、バッテリを充電するための電力、及び/又はAVD12に電力供給するための電力に変え得る運動エネルギー収穫器であり得る。グラフィックスプロセシングユニット(GPU)44及びフィールドプログラマブルゲートアレイ46を含み得る。1つ以上の触覚/振動生成器47は、デバイスを保持する、又はそれと接触している人によって感知されることができる触覚信号を生成するために提供され得る。触覚生成器47は、様々な周波数及び/又は振幅の振動、並びに様々な方向への模擬的な力を生成するために、モータの制御下で(そして同様に、プロセッサ24のようなプロセッサによって制御され得る)シャフトが回転できるように、モータの回転可能なシャフトを介して、中心及び/又はバランスがずれた重りに接続された電気モータを使用して、AVD12の全て又は一部を振動させ得る。
引き続き図1を参照するが、AVD12に加えて、システム10は、1つ以上の他のCEデバイスタイプを含み得る。一実施例では、第1のCEデバイス48は、AVD12に直接送信されるコマンドを介して、及び/又は後述のサーバを通して、コンピュータゲームのオーディオ及びビデオをAVD12に送信するために使用されることができるコンピュータゲームコンソールであり得、一方、第2のCEデバイス50は、第1のCEデバイス48と同様のコンポーネントを含み得る。示される実施例では、第2のCEデバイス50は、プレーヤーによって操作されるコンピュータゲームコントローラ、又はプレーヤーによって装着されるヘッドマウントディスプレイ(HMD)として構成され得る。HMDは、AR/MRコンテンツ又はVRコンテンツをそれぞれ提示するためのヘッドアップ式透明ディスプレイ又は非透明ディスプレイを含み得る。
示される実施例では、CEデバイスは2つしか示されていないが、これより少ない又は多いデバイスが使用されてもよいことを理解されたい。本明細書におけるデバイスは、AVD12について示したコンポーネントの一部又は全部を実装し得る。以下の図に示されるコンポーネントのうちのいずれも、AVD12の場合に示されるコンポーネントの一部又は全部を組み込み得る。
ここで、前述の少なくとも1つのサーバ52を参照すると、少なくとも1つのサーバプロセッサ54と、ディスクベースストレージ又はソリッドステートストレージなどの少なくとも1つの有形コンピュータ可読記憶媒体56と、サーバプロセッサ54の制御下で、ネットワーク22を経由して図1の他のデバイスとの通信を可能にし、実際に本原理に従ってサーバとクライアントデバイスとの間の通信を容易にし得る少なくとも1つのネットワークインターフェース58と、を含む。ネットワークインターフェース58は、例えば、有線若しくは無線のモデム若しくはルータ、Wi-Fiトランシーバ、又は、例えば、無線電話トランシーバなどの他の適切なインターフェースであり得ることに留意されたい。
したがって、一部の実施形態では、サーバ52は、インターネットサーバ又はサーバ「ファーム」全体であり得、例えば、ネットワークゲームアプリケーションのための例示的な実施形態において、システム10のデバイスがサーバ52を介して「クラウド」環境にアクセスし得るような「クラウド」機能を含み、かつ実行し得る。あるいは、サーバ52は、図1に示される他のデバイスと同じ部屋又はその近くにある1つ以上のゲームコンソール又は他のコンピュータによって実装され得る。
以下の図に示されるコンポーネントは、図1に示されるコンポーネントの一部又は全部を含み得る。本明細書で記載される任意のユーザインターフェース(UI)は、統合され、及び/又は拡張され得、UI要素は、UI間でミックスされ、及び調和し得る。
図2は、実施例では、「N」個のビデオが、それぞれの仮想的又は物理的なカメラ、及び関係付けられた物理的又は仮想的なレンズによって生成されることを例解する。Nは、2以上の整数であり得る。一実施例では、Nは、5に等しい。
一実施例では、N個のビデオの各々は、限定されないが、4Kなどの同じ解像度を有する。しかしながら、他の実施例では、N個のビデオが全て同じ解像度を有するわけではない場合がある。
いずれの場合も、一実施形態では、ビデオは、同じ又は実質的に同じ位置から、同じ又は実質的に同じ時間に撮影され得る。「実質的に同じ位置」とは、例えば、同じ所に2つのカメラを物理的に位置させるという制約内であることを意味し、カメラは、カメラ筐体の幅によって離されているにもかかわらず、接近して並置され得る。「実質的に同じ時間」とは、同じ実時間若しくは仮想時間に、又は互いに数秒以内であることを意味する。
しかしながら、第1のビデオは、第1の視野(FOV)を有する物理的又は仮想的なレンズを使用して生成され、第2のビデオは、第1のFOVよりも小さい第2のFOVを有する物理的又は仮想的なレンズを生成され、各連続するビデオは、チェーン内の先行するビデオよりも連続的に小さいFOVで生成される。しかしながら、各FOVは、同じ位置又は点又は中心を中心とし得る。連続的により小さいFOVに加えて、又はその代わりに、物理的又は仮想的なカメラが、連続的により短い焦点距離を有してもよいことに留意されたい。
ブロック202に移動すると、ビデオは、例えば、各ビデオのキーフレームを互いに整合させ、特定の実施例では、ビデオをH264として符号化することによって、互いに同期される。整合は、以下で更に記載される。
ユーザがビデオを再生することを望むとき、ビデオは、ブロック204において、第1のビデオ、すなわち、最も広いFOVを有するビデオを使用して提示される。ブロック206において、ユーザが入力デバイスを使用して、又はビデオを提示するHMDを装着しているときにZ軸に沿って頭を動かすことによってズームインすると、次に小さいFOVを有するビデオが第1のビデオと組み合わされ、最終的には第1のビデオに置き換わる。継続的なズームによって、ズームが忠実度を損なうことなくエミュレートされるように、連続的により小さいFOVが提示される連続するビデオをもたらす。したがって、再生中、望遠カメラからのコンテンツは、単一のビデオを見ているという知覚を生成するために、事前計算された整合メトリックに従って広角カメラからのコンテンツに挿入される。正確な整合によって、外側のビデオの中に表示される内側のビデオが存在することは見る者には明らかではない。
図3は、Z軸304に沿って移動することによってズームするHMD302を装着するユーザ300を例解する。
図4は、引き続き更に例解する。図4は、異なるFOVを使用することに加えて、シーンが、異なる位置でキャプチャされる実装形態を例解する一方で、以下で記載される図6は、3つ以上のビデオが同じ位置からキャプチャされる場合を例解することに留意されたい。より詳細には、図4に示される実施例では、複数の(例えば、3つの)レンズが、同じ物理的又は仮想的なカメラ配置から3つのビデオをキャプチャするために異なるFOVとともに使用され、それぞれの異なるFOVを有する同じ3つのレンズが、第2の配置から3つのビデオをキャプチャするために使用される。したがって、記録後、6つのビデオが、同時にキャプチャされる。
第1のビデオ400は、その最大広角モード402で示される。ユーザがズームインするにつれて、ビデオは、その標準角モード404で示され、最終的には、継続的なズームの下で、その望遠モード406で示され、各モードがディスプレイを占める。示される3つのモード間の遷移は、ユーザがズームするにつれて連続的かつ漸進的であるが、単純化のために3つの一般的なモードのみが示されていることを理解されたい。
第1のビデオの望遠モード406におけるズームが閾値限界に達したとき、更なるズームによって、第1のビデオをその最大広角モード410における第2のビデオ408と組み合わせることをもたらす。第2のビデオ408は、ズームが第1のビデオの望遠モード406から第2のビデオ408の広角モード410に進むにつれて、最終的に又は直ちに第1のビデオを完全に置き換わり得ることを理解されたい。
ユーザがズームインを続けるにつれて、第2のビデオ408は、その標準角モード412で示され、最終的には、継続的なズームの下で、その望遠モード414で示され、各モードがディスプレイを占める。
第2のビデオの望遠モード414からの継続的なズームによって、第2のビデオをその最大広角モード418を有する第3のビデオ416と組み合わせることをもたらす。第3のビデオ414は、ズームが第2のビデオの望遠モード414から第3のビデオ416の広角モード418に進むにつれて、最終的に又は直ちに第2のビデオを完全に置き換わり得ることを理解されたい。
ユーザがズームインを続けるにつれて、第3のビデオ416は、その標準角モード420で示され、最終的には、継続的なズームの下で、その望遠モード422で示され、各モードがディスプレイを占める。シーンが単一の配置からのみキャプチャされる場合、ステップ408~422は、利用可能でないことに留意されたい。
図4は、各々が連続的により小さいFOVを有する物理的又は仮想的なレンズによって生成される3つのビデオの使用を例解するが、図4の原理と一致して、2つのビデオのみが使用される必要があったり、又は4つ以上のビデオが使用されたりし得ることを理解されたい。
各々が徐々に小さくなるFOVを有する複数のビデオが、ユーザ焦点の可能性の高い複数の領域に対して生成され得ることに留意されたい。中央焦点は、ベースラインで使用され得、次いで、その点からの距離及び方向の観点でのオフセットが、ユーザがオフセット分だけ中央焦点から離れた点に焦点を当てているときを示すメタデータとして使用及び送信されることができる。各オフセットに対して、一連の入れ子になったビデオは、事前計算され得、又はユーザが特定の点に焦点を当てるにつれて、特定の焦点に対してオンザフライで計算され得る。ユーザが、徐々に小さくなるFOVを有する入れ子になったビデオが存在しない点にたまたま焦点を当てた場合には、従来の拡大技法が使用され得る。
各シーンに対する以前のユーザ焦点のヒートマップは、シーン内のどの点がそれらのために生成された一連の入れ子になったビデオを有するべきかを判定するために使用され得る。ユーザが焦点を当てた領域のビデオのみが復号され得る。
ここで、キャプチャの前又はキャプチャ中に判定され得る整合メトリックの説明のために、図5を参照する。
挿入比(R)は、単一の次元における内側のビデオ(より狭いFOV)内の画素の数に対する外側のビデオ(より広いFOV)内の画素の数の比率であると決定することができる。図5では、W0は、外側のビデオの画素単位の幅であり、W1は、内側のビデオの画素単位の幅であり、整合後、R=W0/W1である。挿入比は、2つのカメラの焦点距離、及びカメラセンサの解像度に依存する。
水平オフセット(Oh)は、図5に示されており、外側のビデオのフレームの中心から測定された、内側のビデオ又はROIの水平オフセットである。同様に、垂直オフセット(Ov)は、外側のビデオのフレームの中心から測定された、内側のビデオ又はROIの垂直オフセットである。
図5は、より広いFOV及びより狭いFOVのビデオのフレームが、上記のオフセットを使用して、整合メトリックとともに表示中に整列されることを例解する。具体的には、カメラ配置が判定され、異なるFOVを有する2つのカメラが同じシーンを同時にキャプチャする。最も単純な場合では、Oh=Ov=0であり、ROIは、ビデオフレームの中心である。2の挿入比は、広角レンズについては60のFOV、望遠レンズについては約32.2のFOVを使用することによって、達成されることができるであろう。カメラの自動露出などの自動機能を無効にすると、表示中の2つのフレームのブレンドが容易になる。
図5Aを参照する。500、502とラベル付けされた上記2つのカメラからの生のビデオは、2つの別個のビットストリームとして同期及び符号化される。この場合、2つのデコーダは、両方のビットストリームを同時に復号するために使用される。1つのデコーダを使用する他の実施形態では、各カメラからのビデオデータは、単一のビットストリームとして圧縮され得るが、例えば、HEVCタイルとして独立して復号可能であり得る。いずれの場合も、ディスプレイ506のための出力画素を生成するビデオプレーヤー504は、復号モジュール(DM)508及びレンダリングモジュール(RM)510を含む。次に、DMは、圧縮されたビットストリーム(複数可)を復号することが可能である1つ以上のデコーダ512を含む。RMは、ビデオテクスチャをサンプリングし、それをディスプレイにレンダリングすることができるGPUシェーダを含む。
整合メトリックは、固定され得るか、又は時間とともに変化してもよい。固定のケースの場合、整合メトリックは、DM及び/又はRMに一度だけ送信されることができる。動的整合メトリックの場合、DM及び/又はRMは、メトリックの変化ごとに更新され得る。これを達成するための1つの方法は、整合メトリックを圧縮されたビットストリーム内のメタデータとして渡すことである。他の実施形態では、整合メトリックは、動き推定及び画像マッチングアルゴリズムを使用して自動的に計算されることができる。
復号されたビデオデータをディスプレイにレンダリングするビデオプレーヤーは、マウス又はビデオゲームコントローラなどのデバイスを使用して、ユーザから拡大制御を受け入れる。ユーザによって選択された拡大レベル(ML)は、ディスプレイ上で可視になる外側のビデオ及び内側のビデオの部分を決定するために使用される。システムは、画質劣化をもたらす拡大レベルを回避するために、MLについての上限及び下限を設置することができる。ユーザがズームインしているとき、MLの値は増加し、ユーザがズームアウトしているとき、MLは減少する。MLが増加するとき、外側のビデオの可視画素の数は減少し、内側のビデオの可視画素の数は増加する。RMのGPUシェーダは、2つの別個のビデオではなく単一のビデオを見ているという知覚を生成するために、MLの値、整合メトリック、及び同期のための各ビットストリームのフレーム番号を使用する。他の実施形態では、追加の「フェザリング」ステップが、内側のビデオ及び外側のビデオの接合部で境界をマスクするためにシェーダによって実行され得る。
MLが小さく、内側のビデオの可視画素の数が少ない場合、内側のビデオのレンダリングは、表示されたビデオの画質の目立った差異なしにスキップすることができる。内側のビデオの復号されたビデオデータが表示されていない場合、表示されないビデオデータの復号は除くことができ、それによってシステムの性能及び効率を改善し得る。これを達成することができる方法のうちの1つは、どのビデオビットストリームが復号する必要があるかを決定するためにMLを利用し、アクティブに復号されているビットストリームからのフレームのみをレンダリングすることである。デコーダがアクティブ状態にあるとき、ビットストリームのアクセスユニット(AU)は、正常に復号され、復号されたビデオデータは、ディスプレイにレンダリングするためにRMに送信される。デコーダが非アクティブ状態にあるとき、AUの復号は、部分的に又は完全にスキップされ得、非アクティブなデコーダに対応するビットストリームについてのビデオデータは、ディスプレイにレンダリングされない。
MLが変化すると、アクティブ状態のデコーダは、非アクティブになり得、逆もまた同様である。デコーダをアクティブ状態から非アクティブ状態に切り替えることは、直ちに行われることができるが、非アクティブ状態からアクティブ状態に切り替えることは、直ちには行われ得ない場合がある。この理由は、現在のAUが前のAUに依存し得ることであり、デコーダが非アクティブ状態にあるときに前のAUの復号がスキップされた場合、現在のAUは、復号されたときにエラーを有し得ることである。この問題を回避するために、非アクティブ状態からアクティブ状態への切り替えは、現在のAUがキーフレーム(IDRフレーム)であるときにのみ実行され得る。これをサポートするために、シーク状態が使用され得、このシーク状態ではMLが閾値を超えるとき、非アクティブ状態のデコーダが最初に、デコーダがIDRを待っているシーク状態に切り替わる。現在のAUがIDRであるとき、デコーダは、シーク状態からアクティブ状態に切り替わる。DMは、アクティブなデコーダのビットストリームIDをRMに渡し、シーク状態又は非アクティブ状態のデコーダについての無効IDをRMに渡す。RMは、有効な画素のみをディスプレイにレンダリングするために、これらのIDを使用する。
高拡大レベル、又はズームアウト視界からズームイン視界へのよりスムーズな遷移を必要とするアプリケーションに対しては、3つ以上のカメラ視界が必要となり得る。そのようなユースケースのために、様々な程度の焦点距離又はFOVを有する3つ以上のカメラが使用され得る。前のとおり、同じシーンは、これらのカメラを使用して、同時に単一の配置からキャプチャされる。
5台のカメラを使用してキャプチャすることができる視界の実施例が図6に示される(5つの視界は、「広角1」、「広角2」、「望遠1」、「望遠2」、及び「標準」とラベル付けされている)。
図6の各カメラからのビデオデータは、個々のビットストリーム又は独立して復号可能なサブストリームとして同期及び圧縮され得る。これらのストリームは全て、所望のMLに従って同時に復号され、選択的にレンダリングされ得るが、より効率的な手法は、最終的に表示されることになるストリームのみを復号することである。DMにおいて必要とされるデコーダの数は、任意の瞬間に同時にレンダリングされるビデオストリームの最大数に等しくなり得る。1つの外側のビデオ及び1つの内側のビデオの図5に示されるセットアップのために必要とされるデコーダの数は、3つ以上のビデオストリームが使用される場合であっても、2つに制限することができる。これは、以下に記載される「ストリームスイッチング」の戦略を使用して達成される。
各デコーダによって処理されるストリームは、MLの値によって決定される。アプリケーションが開始されるとき、第1のデコーダ(D1)は、最も広角のビットストリーム(B1)を処理することができ、第2のデコーダ(D2)は、より低いFOVを有する第2のビットストリーム(B2)を処理することができる。ユーザがMLを増加させると、B1の画素がもはやディスプレイにレンダリングされなくなる点が存在する。次いで、D1は、シーク状態に遷移し、視界リスト内の次のビットストリーム(B3)を復号する準備をする。RMは、各ビットストリームの復号された画素を適切な拡大度で表示するために、デコーダから渡されたビットストリームID及び整合メトリックを使用する。RMがビットストリームIDの変化を検出するとき、正しいテクスチャ及びサンプリング座標を使用するようにレンダリングプロセスを更新する。
他の実施形態では、スムーズなストリーム切り替えを容易にするために、以下のステップは、符号化プロセス中に行うことができる。
第一に、ビットストリームは、デコーダの同じインスタンスが追加のメモリを必要とせずに複数のビットストリームからAUを処理することができるように、同様の符号化設定を使用する。異なるビットストリームのIDRは、ユーザがMLを増加又は減少させることができる速度に従って、整列され、及び均等に離間されることができる。次に、各ビットストリームについてのIDR位置及びAUオフセットは、DMで同じ計算を行うことを回避するために、事前計算され得る。
更なる実施形態では、DMは、MLに基づいて処理される次のビットストリームを予測し、復号された画素がディスプレイ上で可視にされる前にこれらのストリームを復号するために、1つ以上の追加のデコーダを含み得る。この戦略は、MLの変化速度を増加させるのを助けることができる。これを達成するための代替的な手法は、IDRのみを使用してビットストリームを符号化することである。
ここで図7を参照すると、高拡大レベルを必要とするアプリケーションのための代替の技法は、複数FOVコンテンツキャプチャの代わりに複数配置コンテンツキャプチャである。異なるFOVを有するカメラを使用して1つの配置からシーンをキャプチャする代わりに、シーンは、同じFOVを使用するが、シーンキャプチャの方向が異なる配置700、702においてキャプチャすることができる。他の実施形態では、図7に示されるように、複数FOV及び複数配置コンテンツキャプチャの両方は、一緒に用いることができる。他の実施形態では、RMは、複数配置コンテンツ又は複数視界コンテンツの間の歪み補正のためのステージを含み得る。他の実施形態では、オーディオはまた、異なる配置からキャプチャされ、オーディオストリームはまた、より没入型の体験のためにMLに従って切り替えられる。
本明細書では、特定の実施形態を示し、詳細に説明するが、本発明によって包含される主題は、特許請求の範囲によってのみ限定されることを理解されたい。

Claims (24)

  1. デバイスであって、
    一時的な信号ではなく、少なくとも1つのプロセッサによって実行可能な命令を含む少なくとも1つの記憶デバイスを備え、前記命令が、前記プロセッサに、
    第1のビデオをディスプレイ上に提示させ、
    ズームコマンドに応答して、第2のビデオを前記第1のビデオと組み合わせ、前記第1のビデオと組み合わせられた前記第2のビデオを前記ディスプレイ上に提示させ、前記第1のビデオ及び前記第2のビデオが、互いに実質的に同じカメラ位置から、実質的に同じ解像度で生成され、前記第2のビデオが、解像度を損なうことなくズームしているように見せるために、前記第1のビデオの生成に使用される物理的又は仮想的なレンズの視野(FOV)よりも小さいFOVを有する物理的又は仮想的なレンズによって生成され
    前記ズームコマンドが、第1のズームコマンドであり、前記命令が、前記第1のズームコマンドの継続的な入力又は第2のズームコマンドの入力に応答して、前記第2のビデオのみを前記ディスプレイ上に提示するように実行可能であり、
    前記命令が、前記第1のズームコマンドの継続的な入力又は前記第2のズームコマンドの後の第3のズームコマンドの入力に応答して、前記第2のビデオを第3のビデオと組み合わせ、前記第2のビデオと組み合わせられた前記第3のビデオを前記ディスプレイ上に提示するように実行可能であり、前記第1、第2、及び第3のビデオが、互いに実質的に同じカメラ位置から、実質的に同じ時間に、かつ実質的に同じ解像度で生成され、前記第3のビデオが、前記第2のビデオの生成に使用される物理的又は仮想的なレンズの前記FOVよりも小さいFOVを有する物理的又は仮想的なレンズによって生成される、
    デバイス。
  2. 前記第1のビデオ及び前記第2のビデオが、仮想的なレンズによって生成される、請求項1に記載のデバイス。
  3. 前記第1のビデオ及び前記第2のビデオが、物理的なレンズによって生成される、請求項1に記載のデバイス。
  4. 前記プロセッサが、ズームコマンドの継続的な入力で使用するために、各々が直前のビデオよりも連続的に小さいFOVを有する第4のビデオ及び第5のビデオへのアクセスを有する、請求項に記載のデバイス。
  5. 前記ディスプレイを備える、請求項1に記載のデバイス。
  6. 前記ディスプレイが、ヘッドマウントディスプレイ(HMD)を含む、請求項に記載のデバイス。
  7. 方法であって、
    第1のビデオをディスプレイ上に提示することと、
    ズームインコマンドに応答して、第2のビデオを前記ディスプレイ上に提示することと、を含み、
    広角モードで前記第1のビデオを提示した後に、第1のズームコマンドに応答して、標準角モードでビデオを提示することを含む、方法。
  8. 前記第1のズームコマンドに続く第2のズームコマンドの後に、ビデオを望遠モードで提示することを含む、請求項に記載の方法。
  9. 前記第2のビデオの提示を引き起こす前記ズームコマンドが、前記第2のズームコマンドに続く第3のズームコマンドであり、前記第2のビデオが、広角モードで提示される、請求項に記載の方法。
  10. 前記第1のビデオが、第1の視野(FOV)を有するレンズを使用して生成され、前記第2のビデオが、前記第1のFOVよりも小さい第2のFOVを有するレンズを使用して生成される、請求項に記載の方法。
  11. 前記第1のビデオ及び前記第2のビデオが、同じ場所で、かつ同じ時間に位置されたカメラからのものであるように生成される、請求項10に記載の方法。
  12. 前記第1のビデオ及び前記第2のビデオが、それぞれの第1の物理的又は仮想的なカメラ位置及び第2の物理的又は仮想的なカメラ位置からの同じカメラ視野を使用してキャプチャされる、請求項に記載の方法。
  13. 装置であって、
    少なくともプロセッサを備え、前記プロセッサが、
    第1のビデオをディスプレイに提示し、
    ズームコマンドに応答して、第2のビデオを前記ディスプレイ上に提示するようにプログラムされており、前記第2のビデオが、前記第1のビデオの生成に使用される物理的又は仮想的なレンズの視野(FOV)よりも小さいFOVを有する物理的又は仮想的なレンズによって生成され、及び/又は前記第2のビデオが、前記第1のビデオが提示される焦点距離よりも短い焦点距離に基づいて生成され、
    前記ズームコマンドが第1のズームコマンドであり、前記プロセッサが、前記第1のズームコマンドの継続的な入力又は第2のズームコマンドの入力に応答して、前記第2のビデオのみを前記ディスプレイ上に提示するようにプログラムされており、
    前記プロセッサが、前記第1のズームコマンドの継続的な入力又は前記第2のズームコマンドの後の第3のズームコマンドの入力に応答して、前記第2のビデオを第3のビデオと組み合わせ、前記第2のビデオと組み合わせられた前記第3のビデオを前記ディスプレイ上に提示するようにプログラムされ、前記第1、第2、及び第3のビデオが、互いに実質的に同じカメラ位置から、実質的に同じ時間に、かつ実質的に同じ解像度で生成され、前記第3のビデオが、前記第2のビデオの生成に使用される物理的又は仮想的なレンズの前記FOVよりも小さいFOVを有する物理的又は仮想的なレンズによって生成される、装置。
  14. 前記第1のビデオ及び前記第2のビデオが、実質的に同じ解像度を有する、請求項13に記載の装置。
  15. 前記第1のビデオ及び前記第2のビデオが、仮想的なレンズによって生成される、請求項13に記載の装置。
  16. 前記第1のビデオ及び前記第2のビデオが、物理的なレンズによって生成される、請求項13に記載の装置。
  17. 前記プロセッサが、ズームコマンドの継続的な入力で使用するために、各々が直前のビデオよりも連続的に小さいFOVを有する第4のビデオ及び第5のビデオへのアクセスを有する、請求項13に記載の装置。
  18. 前記第1のビデオ及び前記第2のビデオが、互いに実質的に同じカメラ位置から、実質的に同じ時間に生成される、請求項13に記載の装置。
  19. 前記第1のビデオ及び前記第2のビデオが、互いから離れたそれぞれの第1のカメラ位置及び第2のカメラ位置から生成される、請求項13に記載の装置。
  20. 方法であって、
    第1のビデオをディスプレイ上に提示することと、
    ズームインコマンドに応答して、第2のビデオを前記ディスプレイ上に提示することと、を含み、
    可視になる少なくとも1つのビットストリームによって表されるビデオ内のコンテンツのみを選択的に復号することによって必要とされる計算能力を低減することを含む、方法。
  21. 方法であって、
    第1のビデオをディスプレイ上に提示することと、
    ズームインコマンドに応答して、第2のビデオを前記ディスプレイ上に提示することと、を含み、
    デコーダの同じインスタンスが、追加のメモリを必要とせずに複数のビットストリームからのビットストリームアクセスユニット(AU)を処理することができるように、同様の符号化設定を使用することに少なくとも部分的によって、カメラ視界のそれぞれのビットストリームの間でスムーズに切り替えることを含み、異なるビットストリームのキーフレームが、ユーザが拡大レベルを増加又は減少させることができる速度に従って、整列され、均等に離間され、各ビットストリームのキーフレーム位置及びAUオフセットは、復号モジュールにおいて同じ計算を行うことを回避するために事前計算される、方法。
  22. 方法であって、
    第1のビデオをディスプレイ上に提示することと、
    ズームインコマンドに応答して、第2のビデオを前記ディスプレイ上に提示することと、を含み、
    処理される次のビットストリームを予測するために、1つ以上の追加のデコーダを含む復号モジュール(DM)を実行することと、前記次のビットストリームからの復号された画素が前記ディスプレイ上で可視になる前に前記次のビットストリームを復号することと、を含む、方法。
  23. 方法であって、
    第1のビデオをディスプレイ上に提示することと、
    ズームインコマンドに応答して、第2のビデオを前記ディスプレイ上に提示することと、を含み、
    キーフレームのみを使用して、前記ビデオに関連付けられたビットストリームを符号化することを含む、方法。
  24. 方法であって、
    第1のビデオをディスプレイ上に提示することと、
    ズームインコマンドに応答して、第2のビデオを前記ディスプレイ上に提示することと、を含み、
    ズームするときに、ビデオを切り替えるとともに、オーディオストリームを切り替えることを含む、方法。
JP2024539958A 2022-01-07 2022-12-29 ビデオの高忠実度拡大を可能にするための技法 Active JP7752776B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/571,337 US11863902B2 (en) 2022-01-07 2022-01-07 Techniques for enabling high fidelity magnification of video
US17/571,337 2022-01-07
PCT/US2022/082508 WO2023133068A1 (en) 2022-01-07 2022-12-29 Techniques for enabling high fidelity magnification of video

Publications (2)

Publication Number Publication Date
JP2025501988A JP2025501988A (ja) 2025-01-24
JP7752776B2 true JP7752776B2 (ja) 2025-10-10

Family

ID=87069215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024539958A Active JP7752776B2 (ja) 2022-01-07 2022-12-29 ビデオの高忠実度拡大を可能にするための技法

Country Status (5)

Country Link
US (1) US11863902B2 (ja)
EP (1) EP4460969A1 (ja)
JP (1) JP7752776B2 (ja)
CN (1) CN118511515A (ja)
WO (1) WO2023133068A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12367638B1 (en) * 2024-03-22 2025-07-22 Brelyon Inc. Systems and methods for display content conversion and optimization for virtual display systems

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007516496A (ja) 2003-05-08 2007-06-21 ヒルクレスト ラボラトリーズ, インコーポレイテッド メディア項目を編成、選択及び開始するためのズーム可能なグラフィカルユーザインタフェースを有する制御フレームワーク
US20150271453A1 (en) 2010-12-16 2015-09-24 Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
US20160027210A1 (en) 2013-11-06 2016-01-28 Google Inc. Composite Image Associated with a Head-Mountable Device
US20160028949A1 (en) 2014-07-25 2016-01-28 Samsung Electronics Co., Ltd. Image photographing apparatus and image photographing method
US20170230585A1 (en) 2016-02-08 2017-08-10 Qualcomm Incorporated Systems and methods for implementing seamless zoom function using multiple cameras
WO2017138458A1 (ja) 2016-02-09 2017-08-17 株式会社ソニー・インタラクティブエンタテインメント 映像表示システム
WO2017200049A1 (ja) 2016-05-20 2017-11-23 日立マクセル株式会社 撮像装置およびその設定画面
JP2018026603A (ja) 2016-08-08 2018-02-15 キヤノン株式会社 画像配信装置
US11190689B1 (en) 2020-07-29 2021-11-30 Google Llc Multi-camera video stabilization

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7210099B2 (en) * 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US8046705B2 (en) * 2003-05-08 2011-10-25 Hillcrest Laboratories, Inc. Systems and methods for resolution consistent semantic zooming
US9036001B2 (en) * 2010-12-16 2015-05-19 Massachusetts Institute Of Technology Imaging system for immersive surveillance
JP2015001609A (ja) * 2013-06-14 2015-01-05 ソニー株式会社 制御装置、および記憶媒体
US20150109436A1 (en) * 2013-10-23 2015-04-23 Safeciety LLC Smart Dual-View High-Definition Video Surveillance System
US10341561B2 (en) 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
US10382698B2 (en) 2015-09-30 2019-08-13 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
WO2018068213A1 (zh) * 2016-10-10 2018-04-19 华为技术有限公司 一种视频数据的处理方法及装置
US10798402B2 (en) * 2017-10-24 2020-10-06 Google Llc Same frame motion estimation and compensation
US10764494B2 (en) * 2018-05-25 2020-09-01 Microsoft Technology Licensing, Llc Adaptive panoramic video streaming using composite pictures
CN112995663B (zh) * 2019-12-02 2022-09-23 华为技术有限公司 视频编码的方法、视频解码的方法及相应装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007516496A (ja) 2003-05-08 2007-06-21 ヒルクレスト ラボラトリーズ, インコーポレイテッド メディア項目を編成、選択及び開始するためのズーム可能なグラフィカルユーザインタフェースを有する制御フレームワーク
US20150271453A1 (en) 2010-12-16 2015-09-24 Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
US20160027210A1 (en) 2013-11-06 2016-01-28 Google Inc. Composite Image Associated with a Head-Mountable Device
US20160028949A1 (en) 2014-07-25 2016-01-28 Samsung Electronics Co., Ltd. Image photographing apparatus and image photographing method
US20170230585A1 (en) 2016-02-08 2017-08-10 Qualcomm Incorporated Systems and methods for implementing seamless zoom function using multiple cameras
WO2017138458A1 (ja) 2016-02-09 2017-08-17 株式会社ソニー・インタラクティブエンタテインメント 映像表示システム
WO2017200049A1 (ja) 2016-05-20 2017-11-23 日立マクセル株式会社 撮像装置およびその設定画面
JP2018026603A (ja) 2016-08-08 2018-02-15 キヤノン株式会社 画像配信装置
US11190689B1 (en) 2020-07-29 2021-11-30 Google Llc Multi-camera video stabilization

Also Published As

Publication number Publication date
WO2023133068A1 (en) 2023-07-13
EP4460969A1 (en) 2024-11-13
US20230224431A1 (en) 2023-07-13
CN118511515A (zh) 2024-08-16
US11863902B2 (en) 2024-01-02
JP2025501988A (ja) 2025-01-24

Similar Documents

Publication Publication Date Title
CN113347405B (zh) 缩放相关的方法和装置
CN106165415B (zh) 立体观看
US9965026B2 (en) Interactive video display method, device, and system
CN108702454B (zh) 用于视频显示的方法、系统和计算设备
US20200184601A1 (en) Generating Virtual Reality Content Based on Corrections to Stitching Errors
US20150358539A1 (en) Mobile Virtual Reality Camera, Method, And System
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
CN105898342A (zh) 一种视频的多点同屏播放方法及系统
US20190250869A1 (en) Apparatuses and Methods for Linking Mobile Computing Devices for Use in a Dual-Screen Extended Configuration
CN106231317A (zh) 视频处理、解码方法和装置、vr终端、视频播放系统
CN105939497B (zh) 媒体串流系统及媒体串流方法
WO2014185169A1 (ja) 画像処理装置、画像処理方法およびプログラム
CN107835435B (zh) 一种赛事宽视角直播设备和相关联的直播系统和方法
JP7752776B2 (ja) ビデオの高忠実度拡大を可能にするための技法
WO2019072861A1 (en) SELECTING AN ANIMATED VIEWING ANGLE IN AN IMMERSIVE VIRTUAL ENVIRONMENT
EP3695593A1 (en) Creating multi-camera panoramic projections
CN111149356A (zh) 用于投影沉浸式视听内容的方法
US20230222754A1 (en) Interactive video playback techniques to enable high fidelity magnification
WO2025075829A1 (en) Intelligently skipping encoding of video blocks to reduce latency
US11930290B2 (en) Panoramic picture in picture video
US20250113040A1 (en) Video resolution switching algorithm for network streaming applications
JP7339435B2 (ja) パーソナルデバイスによって支援されるtvストリーミング及びレンダリングコンテンツの中心窩最適化
US20250114707A1 (en) Tuning upscaling for each computer game object and object portion based on priority
WO2024174050A1 (zh) 视频通信方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250930

R150 Certificate of patent or registration of utility model

Ref document number: 7752776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150