[go: up one dir, main page]

JP7570711B2 - 仮想室内空間コンテンツ提供方法およびそのためのサーバー - Google Patents

仮想室内空間コンテンツ提供方法およびそのためのサーバー Download PDF

Info

Publication number
JP7570711B2
JP7570711B2 JP2022545060A JP2022545060A JP7570711B2 JP 7570711 B2 JP7570711 B2 JP 7570711B2 JP 2022545060 A JP2022545060 A JP 2022545060A JP 2022545060 A JP2022545060 A JP 2022545060A JP 7570711 B2 JP7570711 B2 JP 7570711B2
Authority
JP
Japan
Prior art keywords
virtual
point
indoor space
information
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022545060A
Other languages
English (en)
Other versions
JP2023532831A (ja
Inventor
キム、ケン
ウク ジョン、ジ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3I Inc
Original Assignee
3I Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210070117A external-priority patent/KR102575503B1/ko
Priority claimed from KR1020210070118A external-priority patent/KR102600421B1/ko
Application filed by 3I Inc filed Critical 3I Inc
Priority claimed from PCT/KR2021/012651 external-priority patent/WO2022255546A1/ko
Publication of JP2023532831A publication Critical patent/JP2023532831A/ja
Application granted granted Critical
Publication of JP7570711B2 publication Critical patent/JP7570711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephone Function (AREA)

Description

本発明は仮想室内空間コンテンツ生成のためのモバイル端末、それを利用した仮想室内空間コンテンツ提供方法およびそのためのサーバーに関する。
電子技術の発展につれて、多様な環境をオンライン上で具現する技術が開発されており、そのような一環として実際の環境をオンライン上で仮想化して仮想環境を作る仮想化技術がある。
実際の環境を仮想化するためには、実際の環境に対して獲得された多様な角度のイメージを利用して仮想環境を生成することと、生成された仮想環境を該当イメージを獲得した位置と関連させることが重要である。
室外環境である場合には、GPS(Global Positioning System)等を利用してイメージ獲得位置に対する情報を獲得できるため、容易に位置情報を獲得することができる。
しかし、室内環境の場合には、室内でのイメージ撮影位置およびその移動経路などの確認が難しいという問題がある。
本発明の一技術的側面は前記のような従来技術の問題点を解決するためのものであり、本文書に開示される実施例によると、室内環境で撮影された全方位イメージに対する位置を効率的に生成することができ、それに伴い、室内環境に対する仮想室内空間コンテンツを生成することができる。
本発明の課題は以上で言及した課題に制限されず、言及されていないさらに他の課題は以下の記載から当業者に明確に理解され得る。
本発明の一技術的側面はサーバーを提案する。前記サーバーは、実際の室内空間に対応する仮想室内空間コンテンツを提供するサーバーであって、メモリ、通信モジュールおよび前記メモリおよび前記通信モジュールと作動的に(operatively)連結される少なくとも一つのプロセッサを含む。前記少なくとも一つのプロセッサは、前記通信モジュールを通じて、モバイル端末から、前記仮想室内空間コンテンツ生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび該当室内地点に対する相対的位置情報を含む-を受信し、前記相対的位置情報に基づいて前記複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして前記仮想室内空間コンテンツを生成することができる。
本発明の他の技術的側面は、実際の室内空間に対応する仮想室内空間コンテンツをサービスするサーバーで遂行される仮想室内空間コンテンツ提供方法を提案する。前記仮想室内空間コンテンツ提供方法は、モバイル端末から、実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび該当室内地点に対する相対的位置情報を含む-を受信する段階および前記相対的位置情報に基づいて前記複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして前記仮想室内空間コンテンツを生成する段階を含むことができる。
本発明のさらに他の一技術的側面は、保存媒体を提案する。前記保存媒体は、コンピュータ読み取り可能なインストラクション(instructions)を保存している保存媒体において、前記インストラクションは、サーバーによって実行される時、前記サーバーに、モバイル端末から、実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび該当室内地点に対する相対的位置情報を含む-を受信する動作および前記相対的位置情報に基づいて前記複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして前記仮想室内空間コンテンツを生成する動作を遂行するようにすることができる。
本発明の一技術的側面はモバイル端末を提案する。前記モバイル端末は、全方位イメージを獲得する全方位カメラと連動して実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データを提供するモバイル端末であって、前記モバイル端末の前方に対する前方映像を生成する前方カメラ、前記モバイル端末の移動による慣性センシングデータを生成する慣性測定センサおよび前記前方映像の変化および前記慣性センシングデータの変化量を利用して、前記全方位イメージが獲得された室内地点に対する相対的位置情報を生成するアプリケーションを実行する少なくとも一つのプロセッサを含むことができる。前記相対的位置情報は以前の室内地点から前記室内地点までの相対的な移動経路を含むことができる。
本発明の他の技術的側面はモバイル端末の制御方法を提案する。前記モバイル端末の制御方法は、実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データを提供するモバイル端末で遂行されるモバイル端末の制御方法であって、前記実際の室内空間に含まれる室内地点に対する全方位イメージの生成を要請する段階、モバイル端末の前方に対する前方映像を生成する段階、前記モバイル端末の移動による慣性センシングデータを生成する段階および前記前方映像の変化および前記慣性センシングデータの変化量を利用して、前記室内地点に対する相対的位置情報を生成する段階を含む。前記相対的位置情報は以前の室内地点から前記室内地点までの相対的な移動経路を含むことができる。
本発明のさらに他の一技術的側面は保存媒体を提案する。前記保存媒体は、コンピュータ読み取り可能なインストラクション(instructions)を保存している保存媒体であって、前記インストラクションは、モバイル端末‐前記モバイル端末は、全方位イメージを獲得する全方位カメラと連動して実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データを提供する-によって実行される時、前記モバイル端末に、前記実際の室内空間に含まれる室内地点に対する全方位イメージの生成を要請する動作、モバイル端末の前方に対する前方映像を生成する動作、前記モバイル端末の移動による慣性センシングデータを生成する動作および前記前方映像の変化および前記慣性センシングデータの変化量を利用して、前記室内地点に対する相対的位置情報を生成する動作を遂行するようにし、前記相対的位置情報は以前の室内地点から前記室内地点までの相対的な移動経路を含むことができる。
前記課題の解決手段は、本発明の特徴をすべて列挙したものではない。本発明の課題解決のための多様な手段は以下の詳細な説明の具体的な実施形態を参照してより詳細に理解され得るであろう。
本文書によると、次のような効果が一つあるいはそれ以上ある。
本文書に開示される一実施例によると、室内環境で撮影された全方位イメージに対する位置を効率的に生成することができる。
また、本文書に開示される実施例によると、室内環境で撮影された位置間の相対的移動情報を生成して撮影位置および移動経路に対する情報を確保することができる。
また、本文書に開示される実施例によると、室内空間に対する仮想室内空間コンテンツを生成して提供することができる。
本発明の効果は以上で言及した効果に制限されず、言及されていないさらに他の効果は特許請求の範囲の記載から当業者に明確に理解され得る。
本文書に開示される一実施例に係る実際の室内空間に対応する仮想室内空間コンテンツを提供するシステムの一例を例示する図面である。 本文書に開示される一実施例に係る全方位カメラを説明するブロック構成図である。 本文書に開示される一実施例に係るモバイル端末を説明するブロック構成図である。 本文書に開示される一実施例に係るサーバーを説明するブロック構成図である。 本文書に開示される一実施例に係る実際の室内空間に対応する仮想室内空間コンテンツを提供するシステムの他の一例を例示する図面である。 本文書に開示される一実施例に係るモバイル端末で遂行されるモバイル端末の制御方法を説明するフローチャートである。 本文書に開示される一実施例に係るモバイル端末で遂行される相対的位置情報生成を説明するフローチャートである。 本文書に開示される一実施例に係る視覚的移動情報を説明する図面である。 本文書に開示される一実施例に係る相対的位置情報を説明する図面である。 本文書に開示される一実施例に係る移動経路の設定を説明する図面である。 本文書に開示される一実施例に係るモバイル端末での経路設定の一例を図示する図面である。 本文書に開示される一実施例に係るサーバーで遂行される仮想室内空間コンテンツ提供方法を説明するフローチャートである。 本文書に開示される一実施例に係るサーバーで遂行される相対的位置情報生成を説明するフローチャートである。 本文書に開示される一実施例に係るサーバーで遂行される仮想地点マッピングを説明するフローチャートである。
以下、添付された図面を参照して本発明の好ましい実施形態を説明する。
しかし、本発明の実施形態は多様な他の形態で変形され得、本発明の範囲は以下で説明する実施形態に限定されるものではない。また、本発明の実施形態は当該技術分野で平均的な知識を有する者に本発明をさらに完全に説明するために提供されるものである。
本文書の多様な実施例およびこれに使われた用語は、本文書に記載された技術的特徴を特定の実施例に限定しようとするものではなく、該当実施例の多様な変更、均等物、または代替物を含む。図面の説明と関連して、類似するまたは関連した構成要素に対しては類似する参照符号が使われ得る。アイテムに対応する名詞の単数形は関連した文脈上明白に異なるように指示しない限り、前記アイテムの一つまたは複数個を含むことができる。本文書で、「AまたはB」、「AおよびBのうち少なくとも一つ」、「AまたはBのうち少なくとも一つ」、「A、BまたはC」、「A、BおよびCのうち少なくとも一つ」および「A、B、またはCのうち少なくとも一つ」のような文面それぞれは、その文面のうち該当する文面に共に羅列された項目のうちいずれか一つ、またはそれらのすべての可能な組み合わせを含むことができる。「第1」、「第2」、または「一番目」または「二番目」のような用語は単純に該当構成要素を他の該当構成要素と区分するために使われ得、該当構成要素を他の側面(例えば、重要性または順序)で限定しない。或る(例えば、第1)構成要素が他の(例えば、第2)構成要素に、「機能的に」または「通信的に」という用語とともにまたはこのような用語なしに、「カップルド」、「コネクテッド」または「連結された」と言及された場合、それは前記或る構成要素が前記他の構成要素に直接的に、または第3構成要素を通じて連結され得るということを意味する。
本文書で使われた用語「モジュール」は、ハードウェア、ソフトウェアまたはファームウェアで具現されたユニットを含むことができ、例えば、ロジック、論理ブロック、部品、または回路などの用語と相互に互換的に使われ得る。モジュールは、一体に構成された部品または一つまたはそれ以上の機能を遂行する、前記部品の最小単位またはその一部となり得る。例えば、一実施例によると、モジュールはASIC(application-specific integrated circuit)の形態で具現され得る。
本文書の多様な実施例は機器(machine)(例えば、モバイル端末200)により読み取り可能な保存媒体(storage medium)(例えば、メモリ240)に保存された一つ以上の命令語を含むソフトウェア(例えば、プログラム)で具現され得る。例えば、機器(例えば、モバイル端末200)のプロセッサ(例えば、プロセッサ260)は、保存媒体から保存された一つ以上の命令語のうち少なくとも一つの命令を呼び出し、それを実行することができる。これは機器が前記呼び出された少なくとも一つの命令語により少なくとも一つの機能を遂行するように運営されることを可能にする。前記一つ以上の命令語はコンパイラによって生成されたコードまたはインタープリタによって実行され得るコードを含むことができる。機器で読み取り可能な保存媒体は、非一時的(non-transitory)保存媒体の形態で提供され得る。ここで、「非一時的」は保存媒体が実在(tangible)する装置であり、信号(signal)(例えば、電磁波)を含まないということを意味するだけであり、この用語はデータが保存媒体に半永久的に保存される場合と臨時的に保存される場合を区分しない。
実施例によると、本文書に開示された多様な実施例に係る方法は、コンピュータプログラム製品(computer program product)に含まれて提供され得る。コンピュータプログラム製品は商品であって、販売者および購買者間に取引され得る。コンピュータプログラム製品は機器で読み取り可能な保存媒体(例えば、compact disc read only memory(CDROM))の形態で配布されたり、またはアプリケーションストア(例えば、プレーストアTM)を通じて、または二つの使用者装置(例えば、スマートフォン)間に直接、オンラインで配布(例えば、ダウンロードまたはアップロード)され得る。オンライン配布の場合に、コンピュータプログラム製品の少なくとも一部は、メーカーのサーバー、アプリケーションストアのサーバー、または中継サーバーのメモリのような機器で読み取り可能な保存媒体に少なくとも一時保存されたり、臨時的に生成され得る。
多様な実施例によると、前述した構成要素のそれぞれの構成要素(例えば、モジュールまたはプログラム)は単数または複数の個体を含むことができる。多様な実施例によると、前述した該当構成要素のうち一つ以上の構成要素または動作が省略されたり、または一つ以上の他の構成要素または動作が追加され得る。大体または追加的に、複数の構成要素(例えば、モジュールまたはプログラム)は一つの構成要素として統合され得る。このような場合、統合された構成要素は前記複数の構成要素それぞれの構成要素の一つ以上の機能を、前記統合以前に前記複数の構成要素のうち該当構成要素によって遂行されるものと同一または類似するように遂行できる。多様な実施例によると、モジュール、プログラムまたは他の構成要素によって遂行される動作は順次、並列的に、繰り返し、またはヒューリスティックに実行されるか、前記動作のうち一つ以上が異なる順序で実行されるか、省略または一つ以上の他の動作が追加され得る。
本発明の実施形態を説明するために多様なフローチャートが開示されているが、これは各段階の説明の便宜のためのものであり、必ずしもフローチャートの順序に沿って各段階行って遂行されるものではない。すなわち、フローチャートでの各段階は、互いに同時に遂行されたり、フローチャートに沿った順で遂行されたり、またはフローチャートでの順序と反対の順序で遂行されてもよい。
図1は、本文書に開示される一実施例に係る実際の室内空間に対応する仮想室内空間コンテンツを提供するシステムの一例を例示する図面である。
図1を参照すると、システムは全方位カメラ装置100、モバイル端末200およびサーバー300を含むことができる。
全方位カメラ100は全方位カメラ100を中心に全方位イメージを撮影することができる。
全方位カメラ100は全方位仮想イメージを生成するための、互いに異なる角度を基準として撮像された複数のイメージ、すなわち、複数の部分イメージを生成することができる。
一例として、全方位カメラ装置100は1前面、後面、左側面および右側面にそれぞれ設置される4個のカメラモジュールを含むことができ、それぞれのカメラモジュールを通じて4個の部分イメージを生成することができる。他の例として、全方位カメラ装置100は180度以上の広角を有するカメラを前面および後面に具備して、4個の部分イメージを生成することができる。
全方位カメラ100はモバイル端末200と個別駆動される別途の装置であり得る。
または全方位カメラ100はモバイル端末200を利用して具現される一機能で代替可能である。例えば、複数の部分イメージをモバイル端末200を利用して撮像することで、全方位カメラ100としての機能を提供することができる。
ここで、全方位仮想イメージは、実際の室内空間に対応する仮想室内空間コンテンツを提供するために使われるものであり、すなわち、全方位カメラ100は実際の室内空間に対する撮影を遂行する。
モバイル端末200は全方位カメラ100と連結されて、全方位カメラ100から全方位仮想イメージを生成するための複数の部分イメージ(以下、全方位イメージと称する)の提供を受けることができる。
モバイル端末200は全方位イメージが獲得した位置に対する位置情報を生成することができる。一方、モバイル端末200および全方位カメラ100は室内空間で撮影を遂行するため、GPS(Global Positioning System)のような、絶対座標を基盤とする位置情報を獲得することができない。したがって、モバイル端末200は相対的な位置情報を生成する。ここで、相対的位置情報は、以前の全方位イメージが獲得された室内地点から、現在の全方位イメージが獲得された室内地点までの相対的な移動経路を含む。
一実施例で、全方位カメラ100とモバイル端末200は一つのアセンブリ10で具現され得る。例えば、据置台上に、全方位カメラ100およびモバイル端末200が固定されて使われ得る。
モバイル端末200は全方位イメージおよび該当全方位イメージに対する相対的位置情報をサーバー300に提供することができる。
モバイル端末200は携帯可能な電子機器であって、例えば、携帯電話、スマートフォン(smart phone)、ノートパソコン(laptop computer)、デジタル放送用端末機、PDA(personal digital assistants)、PMP(portable multimedia player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(wearable device、例えば、ウォッチ型端末機(smartwatch)、グラス型端末機(smart glass)、HMD(head mounted display))等を包括する。
サーバー300は全方位イメージを利用して全方位仮想イメージを生成し、相対的位置情報に基づいて複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして仮想室内空間コンテンツを生成することができる。
使用者端末400はサーバー300から仮想室内空間コンテンツの提供を受けることができる。
図2は、本文書に開示される一実施例に係る全方位カメラを説明するブロック構成図である。
図2を参照すると、全方位カメラ100は全方位カメラモジュール110、通信モジュール120、制御モジュール130およびメモリ140を含むことができる。
全方位カメラモジュール110は全方位イメージを生成できるカメラであって、例えば、互いに異なる角度を指向する複数のカメラモジュールを含むことができる。
通信モジュール120はモバイル端末200との通信連結を設定することができる。例えば、通信モジュール120はブルートゥース(登録商標)などの近距離無線通信モジュールまたは有線通信モジュールのうち少なくとも一つを利用してモバイル端末200と通信連結を設定することができる。
制御モジュール130はメモリ240に保存されたプログラムを駆動して、全方位カメラモジュール110乃至通信モジュール120を制御することができる。例えば、制御モジュール130は全方位カメラモジュール110を制御して全方位イメージを生成するようにし、生成された全方位イメージを通信モジュール120を通じてモバイル端末200に提供することができる。
メモリ140はプログラム乃至全方位イメージを保存でき、制御モジュール130の駆動のためのメモリ空間を提供することができる。
図3は、本文書に開示される一実施例に係るモバイル端末を説明するブロック構成図である。
図3を参照すると、モバイル端末200は前方カメラ210、慣性測定センサ220、通信モジュール230、ディスプレイモジュール240、プロセッサ250およびメモリ260を含む。
図示してはいないが、モバイル端末200の構成は前記羅列された構成や各構成要素の名称に制限されない。例えば、モバイル端末200に電源を供給するためのバッテリーなどがモバイル端末200に含まれてもよい。このように、本文書に開示された多様な実施例を具現するための電子装置の構成が、当業者水準で多様に変形されて具現され得る。以下では説明の便宜のために、機能を中心にそれぞれの構成を説明する。
前方カメラ210は少なくとも一つのカメラを含むことができる。前方カメラ210は一つ以上のレンズ、イメージセンサ、イメージシグナルプロセッサ、またはフラッシュを含むことができる。
前方カメラ210はモバイル端末200の前方映像を撮影することができる。
慣性測定センサ220はモバイル端末200の慣性的特徴を感知し、感知された状態に対応する電気信号またはデータ値を生成することができる。一例として、慣性測定センサ220はジャイロセンサおよび加速度センサを含むことができる。慣性測定センサ220によって測定されたデータを以下、慣性センシングデータと称する。
通信モジュール230は、モバイル端末200と全方位カメラ100の間、またはモバイル端末200とサーバー300の間の通信を可能にする一つ以上のモジュールを含むことができる。このような通信モジュール230は移動通信モジュール、無線インターネットモジュールおよび近距離通信モジュールのうち少なくとも一つを含むことができる。近距離通信モジュールは有線または無線で全方位カメラ100と通信連結を遂行できる。例えば、近距離通信モジュールはブルートゥース(登録商標)などの近距離無線通信モジュールまたはRS232のような有線通信モジュールを含むことができる。
ディスプレイモジュール240はタッチセンサと相互にレイヤ構造をなすか一体型で形成されることによって、タッチスクリーンを具現することができる。このようなタッチスクリーンは、モバイル端末200とモバイル端末を利用する入力者間の入力インターフェースを提供する入力部として機能するとともに、出力インターフェースを提供することができる。
プロセッサ250はメモリ260に保存されたアプリケーション、すなわち、アプリケーションを駆動するために、図3で図示された構成要素のうち少なくとも一部を制御することができる。ひいては、プロセッサ250は前記アプリケーションの駆動のために、モバイル端末100に含まれた構成要素のうち少なくとも二つ以上を互いに組み合わせて動作させることができる。プロセッサ250はメモリ260に保存されたインストラクション(instructions)を実行してアプリケーションを駆動することができる。
プロセッサ250は前記アプリケーションに関連した動作の他にも、通常的にモバイル端末200の全般的な動作を制御する。プロセッサ250は前記にて詳察した構成要素を通じて入力または出力される信号、データ、情報などを処理したりメモリ260に保存されたアプリケーションを駆動することによって、使用者に適切な情報または機能を提供または処理することができる。プロセッサ250は一つのプロセッサまたは複数のプロセッサで具現可能である。
一例として、プロセッサ250は前方映像の変化および慣性センシングデータの変化量を利用して、全方位イメージが獲得された室内地点に対する相対的位置情報を生成することができる。
一例として、プロセッサ250は、前方映像で少なくとも一つの特徴点を抽出し、抽出された前記少なくとも一つの特徴点の変化に基づいてモバイル端末の視覚的移動情報-前記視覚的移動情報は移動方向および移動距離のうち少なくとも一つを含む-を生成することができる。
一例として、プロセッサ250は、慣性センシングデータの変化量を利用してモバイル端末の慣性的移動情報-前記慣性的移動情報は移動方向および移動距離のうち少なくとも一つを含む-を生成し、慣性的移動情報に基づいて視覚的移動情報を検証して前記相対的位置情報を生成することができる。
一例として、プロセッサ250は、視覚的移動情報で既設定された臨界値-前記臨界値は方向転換の臨界値および移動距離の臨界値のうち少なくとも一つを含む-を超過する異常値データが発生すると、視覚的移動情報の異常値データに対応する慣性的移動情報のデータを異常値データと比較して、異常値データの適用可否を判断することができる。
プロセッサ250の動作に対する具体的な説明は、以下で図6~図11を参照してより詳細に説明する。以下の説明で、モバイル端末200またはプロセッサ250をアプリケーションを駆動して制御、指示または機能の主体として表現するが、これは、プロセッサ250がメモリ260に保存されたインストラクションまたはアプリケーションを駆動して動作することを意味する。
前記各構成要素のうち少なくとも一部は、以下で説明される多様な実施例に係るモバイル端末の動作、制御または制御方法を具現するために、互いに協力して動作することができる。また、前記モバイル端末の動作、制御、または制御方法は、前記メモリ260に保存された少なくとも一つのアプリケーションの駆動によってモバイル端末上で具現され得る。
図4は、本文書に開示される一実施例に係るサーバーを説明するブロック構成図である。
図4を参照すると、サーバー300は通信モジュール310、プロセッサ320およびメモリ330を含むことができる。
通信モジュール310は、サーバー300とモバイル端末200の間、またはサーバー300と使用者端末400の間の通信を可能にする一つ以上のモジュールを含むことができる。
プロセッサ320はメモリおよび通信モジュールと作動的に(operatively)連結される一つまたは複数のプロセッサを意味する。
プロセッサ320はメモリ330に保存されたプログラム、例えば、オペレーティングシステムおよび/またはサーバーアプリケーションを駆動することができる。
プロセッサ320はメモリ330に保存されたインストラクション(instructions)を実行してアプリケーションを駆動することができる。
一例として、プロセッサ320は、モバイル端末から、仮想室内空間コンテンツ生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび該当室内地点に対する相対的位置情報を含む-を受信し、相対的位置情報に基づいて複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして仮想室内空間コンテンツを生成することができる。
プロセッサ320に対する具体的な説明は以下でより詳細に説明する。以下では、サーバー300またはプロセッサ320をアプリケーションを駆動して制御、指示または機能の主体として表現するが、これは、プロセッサ320はメモリ330に保存されたインストラクションまたはアプリケーションを駆動して動作することを意味する。
図5は、本文書に開示される一実施例に係る実際の室内空間に対応する仮想室内空間コンテンツを提供するシステムの他の一例を例示する図面である。
図5に図示された一実施例には、専用端末201をさらに含む。専用端末201は図1に図示されたモバイル端末201の一部の機能を遂行する端末であり、全方位カメラ100が全方位イメージを獲得する時、専用端末201は相対的な位置情報を生成することができる。また、専用端末201は全方位イメージとそれに対する相対的位置情報を関連させて保存し、これをモバイル端末200を通じてサーバー300に提供することができる。
モバイル端末200は、入力者の操作により全方位カメラ100および/または専用端末201の動作を制御することができる。すなわち、モバイル端末200は入力者に作業のためのインターフェースを提供し、相対的な位置情報の生成およびそれに対する全方位イメージとの関連は専用端末201によって遂行され得る。
以下、図6~図14を参照して、仮想室内空間コンテンツを提供するシステムの各構成要素の動作および制御方法に対してより詳細に説明する。
図6は、本文書に開示される一実施例に係るモバイル端末で遂行されるモバイル端末の制御方法を説明するフローチャートである。
図6を参照すると、モバイル端末200、具体的にはモバイル端末200のプロセッサ260は、全方位カメラ100と通信連結を遂行できる(S601)。
モバイル端末200は実際の室内空間のいずれか一地点で撮影を開始することができ、これを開始地点と称する。モバイル端末200は開始地点を設定することができる(S602)。
一例として、モバイル端末200は実際の室内空間に対する平面情報をディスプレイし、モバイル端末200を操作する入力者の入力によって平面情報上のいずれか一点を開始地点として入力を受けることができる。
モバイル端末200は入力者の入力により、開始地点に対する全方位イメージを生成することを全方位カメラ100に要請し(S603)、全方位カメラ100は開始地点で全方位イメージを生成してモバイル端末200に提供することができる(S604)。
モバイル端末200は開始地点と、開始地点で撮影された全方位イメージを関連させて保存することができる(S605)。
モバイル端末200は入力者によって開始地点から第1地点に移動することができる(S606)。
モバイル端末200は入力者の入力により、第1地点に対する全方位イメージを生成することを全方位カメラ100に要請し(S607)、全方位カメラ100は第1地点で全方位イメージを生成してモバイル端末200に提供することができる(S608)。
モバイル端末200は前方映像および慣性センシングデータを利用して、第1地点に対する相対的位置情報を生成することができる(S609)。
モバイル端末200は第1地点に対する相対的位置情報と、第1地点に対する全方位イメージを関連させて(S610)保存することができる。モバイル端末200は第1地点に対する全方位イメージおよび第1地点に対する相対的位置情報を相互に関連させて、映像データとしてサーバーに提供することができる。
図6は開始地点および以後の第1地点に対するモバイル端末200の動作を説明したが、これに限定されるものではなく、以降の連続する各地点に対しても継続的に相対的位置情報を生成し、それに対する全方位イメージを生成して関連させることができる。
一実施例で、モバイル端末200は相対的位置情報を平面情報上に反映して経路を設定することができる。モバイル端末200は入力者の入力により前記平面情報上のいずれか一点を開始地点として入力を受け、モバイル端末が移動した後入力者の入力により平面情報上の他のいずれか一地点を第1地点として入力を受けることができる。モバイル端末200は開始地点から第1地点までの相対的位置情報を平面情報上に反映して、平面情報上の前記開始地点から前記第1地点に至る経路を設定することができる。
図11は本文書に開示される一実施例に係るモバイル端末での経路設定の一例を図示する図面であり、図11を参照すると、モバイル端末200は第1地点P1から第2地点P2に至る相対的位置情報を、平面情報D1上に表示して経路MPを表示することができる。また、モバイル端末200は平面情報D1上に現在の位置CPを表示でき、現在の位置で獲得される前方映像を表示D2することができる。前方映像には少なくとも一つの特徴点SPが表示され得る。
一実施例で、モバイル端末200は開始地点と第1地点を基準として相対的位置情報の進行方向を平面情報上に反映することができる。すなわち、相対的位置情報はモバイル端末200の前方を基準として作成されるが、平面情報上でのどの方向がモバイル端末200の前方なのかを設定するために開始地点と第1地点を利用することができる。モバイル端末200は実際の室内空間に対する平面情報をディスプレイし、入力者の入力により平面情報上のいずれか一点を開始地点として入力を受ける。モバイル端末200は開始地点でモバイル端末が移動した後、入力者の入力により平面情報上の他のいずれか一点を第1地点として入力を受ける。モバイル端末200は開始地点から第1地点までの相対的位置情報を平面情報上に反映して、平面情報上での進行方向を相対的位置情報の進行方向とマッチングすることができる。
図10は本文書に開示される一実施例に係る移動経路の設定を説明する図面であり、平面情報上での各地点を表示している。開始地点SPと第1地点P1を使用者が平面情報上で設定すると、モバイル端末200は開始地点から第1地点までの相対的位置情報を平面情報上に反映して、平面情報上での進行方向を相対的位置情報の進行方向とマッチングすることができる。その後、モバイル端末200は各地点間の相対的位置情報を表示することによって、第2地点P2、第3地点P3、現在の地点CPを平面情報上に表示することができる。
図7は本文書に開示される一実施例に係るモバイル端末で遂行される相対的位置情報生成を説明するフローチャートであり、以下、図7をさらに参照して、モバイル端末200について説明する。
モバイル端末200はモバイル端末の前方に対する前方映像を生成し(S701)、モバイル端末200の移動による慣性センシングデータを生成することができる(S702)。このような前方映像の生成および慣性センシングデータの生成は、モバイル端末が全方位イメージの生成を制御する動作を遂行する間継続的にまたは少なくとも一部持続的に遂行できる。
モバイル端末200は前方映像で少なくとも一つの特徴点を抽出し、抽出された少なくとも一つの特徴点の変化に基づいてモバイル端末の視覚的移動情報を生成することができる。ここで、視覚的移動情報は、前方映像に基づいて導き出された移動情報であり、移動方向および移動距離のうち少なくとも一つを含む。
図8は本文書に開示される一実施例に係る視覚的移動情報を説明する図面であり、図8をさらに参照して説明すると、図8の図(a)は第1時点での前方映像の例であり、図(b)は第1時点から所定時間が経過した第2時点での前方映像を例示している。
図8の図(a)でモバイル端末200は特徴点F1を抽出し、図(b)でF1に相応する特徴点F2を抽出する。図(b)のF1′は図(a)の特徴点F1の位置に対応する位置であり、したがって、図(a)の特徴点F1は、ΔF1の移動変位を有し、図(b)のF1′になったのである。したがって、モバイル端末200は特徴点の移動変位ΔF1を利用してカメラの移動変位、すなわち、移動方向および移動距離を推定することができ、推定された移動方向および移動距離を視覚的移動情報として生成することができる。
再び図7を参照すると、モバイル端末200は慣性センシングデータの変化量を利用してモバイル端末の慣性的移動情報を生成することができる(S704)。例えば、モバイル端末200はジャイロセンサのセンシングデータおよび/または3軸加速度センサのセンシングデータを利用してモバイル端末の移動方向および移動距離を推定することができ、これを慣性的移動情報として生成することができる。
一実施例で、視覚的移動情報は、毎単位時点に対して設定された移動方向および移動距離を関連させて保存された情報であり得る。例えば、視覚的移動情報は、毎単位時点を基準として算出された移動方向および移動距離の関連させた情報の集合であり得る。慣性的移動情報もこれに対応し得る。
モバイル端末200は慣性的移動情報に基づいて視覚的移動情報を検証して相対的位置情報を生成することができる(S705)。
一実施例で、モバイル端末200は視覚的移動情報を基準として相対的位置情報を設定するものの、視覚的移動情報で一定以上の数値変動を有する異常値が発生すると、これを慣性的移動情報として検証することができる。
図9は本文書に開示される一実施例に係る相対的位置情報を説明する図面であり、図9をさらに参照して説明する。
図9は、開始地点SPで第1地点P1に達する視覚的移動情報VPと、慣性的移動情報IMPを平面上で図示している。
図9の図(a)で、視覚的移動情報VPは異常値が発生しなかったし、慣性的移動情報IMPと少なくとも一部で差を有するものの、臨界範囲内で類似度を有している。
反面、図9の図(b)で、視覚的移動情報VPは既設定された臨界値-前記臨界値は方向転換の臨界値および移動距離の臨界値のうち少なくとも一つを含む-を超過する異常値データOLが発生したし、このような場合、モバイル端末200は視覚的移動情報の異常値データに対応する慣性的移動情報のデータを異常値データと比較して、異常値データの適用可否を判断することができる。すなわち、モバイル端末200は図(b)での慣性的移動情報IMPと比較時、視覚的移動情報の異常値データOLに対応する慣性的移動情報IMPで異常値に対応する変化がないので、異常値データOLを適用しないことができる。
このように、モバイル端末200は視覚的移動情報に対する異常値を慣性的移動情報を利用して検証するので、視覚的移動情報で発生する一時的なエラーを防止することができる。
以下、図12~図14を参照してサーバー300の動作について説明する。
図12は、本文書に開示される一実施例に係るサーバーで遂行される仮想室内空間コンテンツ提供方法を説明するフローチャートである。
図12を参照すると、サーバー300は通信モジュールを通じてモバイル端末200と通信連結(S1201)を設定することができる(S1201)。サーバー300は仮想室内空間コンテンツを経験する使用者端末400にも通信連結(S1201)を設定することができる(S1201)。
サーバー300はモバイル端末200から、仮想室内空間コンテンツ生成のための映像データを受信する(S1202)。ここで、映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび該当室内地点に対する相対的位置情報を含む。
サーバー300は相対的位置情報に基づいて複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして仮想室内空間コンテンツを生成することができる(S1203~S1205)。
すなわち、サーバー300は相対的位置情報に基づいて複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングすることができる(S1203)。
サーバー300は全方位イメージを整合して全方位仮想イメージを生成することができる(S1204)。全方位イメージは一地点で互いに異なる角度を基準として撮像された複数のイメージを含み、サーバー300は複数のイメージで互いに共通する特徴を基準として複数のイメージを整合して全方位で確認可能な全方位仮想イメージを生成することができる。すなわち、隣接した二つのイメージでともに撮影された部分が合わせられるように整合を遂行できる。このために、サーバー300は複数のイメージそれぞれに対して特徴点を抽出し、互いに隣接した二つのイメージで同一または一定以上の類似度を有する特徴点などをスティッチングして二つのイメージを整合することができる。このような整合を複数のイメージ全体に対して遂行して、サーバー300は撮影地点を基準として全方位、すなわち、左右に360度および上下180度で確認が可能な全方位仮想イメージを生成することができる。
サーバー300は生成された全方位仮想イメージを、該当全方位イメージが獲得された室内地点に対応する仮想地点に関連させて保存することができる(S1205)。
サーバー300は生成された仮想室内空間コンテンツを使用者端末400に提供することができる。仮想室内空間コンテンツとして、サーバー300は使用者端末400に実際の室内空間に対応する仮想室内空間コンテンツに対する平面情報を提供することができる(S1206)。
ここで、平面情報は複数の室内地点それぞれにマッピングされる複数の仮想地点を含むことができる。
使用者は複数の仮想地点のうちいずれか一つを選択して該当地点に対する全方位仮想イメージを要請することができる(S1207)。
サーバー300は使用者端末400から、複数の仮想地点のうちいずれか一つに対する要請を受信すると、該当仮想地点に関連させた全方位仮想イメージを使用者端末400に提供することができる。
前述した説明で、相対的位置情報は使用者端末200によって生成されることを説明したが、実施例によってはサーバー300で相対的位置情報を生成することができる。図13は、本文書に開示される一実施例に係るサーバーで遂行される相対的位置情報生成を説明するフローチャートである。
図13を参照すると、サーバー300は使用者端末200から、前方映像に対する特徴点の変化情報および慣性センシングデータを受信することができる(S1301)。実施例によっては、使用者端末200は前方映像および慣性センシングデータを提供し、サーバー300が前方映像に対して特徴点の変化情報を直接生成してもよい。
サーバー300は特徴点の変化に基づいてモバイル端末200の視覚的移動情報を生成し(S1302)、慣性センシングデータの変化量を利用してモバイル端末200の慣性的移動情報を生成することができる(S1303)。サーバー300は視覚的移動情報に基づいて相対的位置情報を生成するものの、慣性的移動情報で視覚的移動情報を検証して相対的位置情報を生成することができる(S1304)。これに対する具体的な説明は図7などを参照して前述した説明を参照して理解することができる。
図14は本文書に開示される一実施例に係るサーバーで遂行される仮想地点マッピングを説明するフローチャートであり、図14を参照して仮想地点マッピングについて説明する。
サーバー400は、映像データに含まれた、開始地点に対する開始地点情報、開始地点以後の第1地点に対する第1地点情報および前記第1地点に対する第1相対的位置情報を確認することができる(S1401)。一例として、開始地点情報および第1地点情報は室内空間に対する平面情報を利用して、例えば、平面情報上の座標情報などで設定され得る。
サーバー400は、平面情報で開始地点に対応する仮想開始地点をマッピングし(S1402)、仮想開始地点に対して第1相対的位置情報を適用して第1地点に対応する第1仮想地点をマッピングすることができる(S1403)。サーバー400は、第1仮想地点と第1地点情報を比較して検証することができる。
サーバー400は、映像データに含まれた、第1地点以後の第2地点に対する第2地点情報および前記第2地点に対する第2相対的位置情報をさらに確認することができる(S1403)。サーバー400は、実際の室内空間に対応する平面情報で、第1仮想地点に対して第2相対的位置情報を適用して第2地点に対応する第2仮想地点をマッピングすることができる(S1405)。サーバー400は、第2仮想地点と第2地点情報を比較して検証することができる。
以上で説明した本発明は前述した実施例および添付された図面によって限定されるものではなく、後述する特許請求の範囲によって限定され、本発明の構成は本発明の技術的思想を逸脱しない範囲内でその構成を多様に変更および改造できることを本発明が属する技術分野で通常の知識を有する者は容易に分かる。

Claims (11)

  1. 実際の室内空間に対応する仮想室内空間コンテンツを提供するサーバーであって、
    メモリ;
    通信モジュール;および
    前記メモリおよび前記通信モジュールと作動的に(operatively)連結される少なくとも一つのプロセッサを含み、
    前記少なくとも一つのプロセッサは、
    前記通信モジュールを通じて、モバイル端末から、前記仮想室内空間コンテンツの生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび当該室内地点に対する相対的位置情報を含む-を受信し、前記相対的位置情報に基づいて前記複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして前記仮想室内空間コンテンツを生成し、
    更に、前記モバイル端末は、慣性測定センサを備え、それによって慣性センシングデータを測定し、
    前記プロセッサは、前記モバイル端末の移動方向と移動距離のうち少なくとも一つを含む視覚的移動情報を生成し、また、前記慣性センシングデータを用いて、前記モバイル端末の移動方向と移動距離のうち少なくとも一つを含む慣性的移動情報を生成し、その慣性的移動情報に基づいて前記視覚的移動情報を検証することによって前記相対的位置情報の精度を上げ
    前記少なくとも一つのプロセッサは、
    前記映像データに含まれた、開始地点に対する開始地点情報、前記開始地点以後の第1地点に対する第1地点情報および前記第1地点に対する第1相対的位置情報を確認し、
    前記実際の室内空間に対応する平面情報で、前記開始地点に対応する仮想開始地点をマッピングし、前記仮想開始地点に対して前記第1相対的位置情報を適用して前記第1地点に対応する第1仮想地点をマッピングする
    ことを特徴とするサーバー。
  2. 前記少なくとも一つのプロセッサは、
    前記映像データに含まれた、前記第1地点以後の第2地点に対する第2地点情報および前記第2地点に対する第2相対的位置情報をさらに確認し、
    前記実際の室内空間に対応する平面情報で、前記第1仮想地点に対して前記第2相対的位置情報を適用して前記第2地点に対応する第2仮想地点をマッピングする
    請求項1に記載のサーバー。
  3. 前記全方位イメージは、
    互いに異なる角度を基準として撮像された複数の部分イメージを含み、
    前記少なくとも一つのプロセッサは、
    前記複数の部分イメージで互いに共通する特徴を基準として前記複数の部分イメージを整合して全方位で確認加能な全方位仮想イメージを生成する
    請求項1に記載のサーバー。
  4. 前記少なくとも一つのプロセッサは、
    前記全方位仮想イメージを、当該全方位イメージが獲得された室内地点に対応する仮想地点に関連させて保存する
    請求項3に記載のサーバー。
  5. 前記少なくとも一つのプロセッサは、
    前記通信モジュールを通じて、使用者端末に前記実際の室内空間に対応する仮想室内空間コンテンツに対する平面情報を提供するものの、
    前記平面情報は、
    前記複数の室内地点それぞれにマッピングされる複数の仮想地点を含む
    請求項3に記載のサーバー。
  6. 前記少なくとも一つのプロセッサは、
    前記通信モジュールを通じて、使用者端末から、前記複数の仮想地点のうちいずれか一つに対する要請を受信すると、当該仮想地点に関連した前記全方位仮想イメージを前記使用者端末に提供する
    請求項5に記載のサーバー。
  7. 実際の室内空間に対応する仮想室内空間コンテンツをサービスするサーバーで遂行される仮想室内空間コンテンツ提供方法であって、
    モバイル端末から、実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび当該室内地点に対する相対的位置情報を含む-を受信する段階;および
    前記相対的位置情報に基づいて前記複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして前記仮想室内空間コンテンツを生成する段階;を含み、
    更に、前記モバイル端末は、慣性測定センサを備え、それによって慣性センシングデータを測定し、
    前記モバイル端末の移動方向と移動距離のうち少なくとも一つを含む視覚的移動情報を生成し、また、前記慣性センシングデータを用いて、前記モバイル端末の移動方向と移動距離のうち少なくとも一つを含む慣性的移動情報を生成し、その慣性的移動情報に基づいて前記視覚的移動情報を検証することによって前記相対的位置情報の精度を上げ
    前記仮想室内空間コンテンツを生成する段階は、
    前記映像データに含まれた、開始地点に対する開始地点情報、前記開始地点以後の第1地点に対する第1地点情報および前記第1地点に対する第1相対的位置情報を確認する段階;および、
    前記実際の室内空間に対応する平面情報で、前記開始地点に対応する仮想開始地点をマッピングし、前記仮想開始地点に対して前記第1相対的位置情報を適用して前記第1地点に対応する第1仮想地点をマッピングする段階;を含む
    ことを特徴とする仮想室内空間コンテンツ提供方法。
  8. 前記仮想室内空間コンテンツを生成する段階は、
    前記映像データに含まれた、前記第1地点以後の第2地点に対する第2地点情報および前記第2地点に対する第2相対的位置情報をさらに確認する段階;および
    前記実際の室内空間に対応する平面情報で、前記第1仮想地点に対して前記第2相対的位置情報を適用して前記第2地点に対応する第2仮想地点をマッピングする段階;をさらに含む
    請求項7に記載の仮想室内空間コンテンツ提供方法。
  9. 前記全方位イメージは、
    互いに異なる角度を基準として撮像された複数の部分イメージを含み、
    前記仮想室内空間コンテンツを生成する段階は、
    前記複数の部分イメージで互いに共通する特徴を基準として前記複数の部分イメージを整合して全方位で確認加能な全方位仮想イメージを生成する段階;および
    前記全方位仮想イメージを、当該全方位イメージが獲得された室内地点に対応する仮想地点に関連させて保存する段階;を含む
    請求項7に記載の仮想室内空間コンテンツ提供方法。
  10. 前記仮想室内空間コンテンツ提供方法は、
    通信モジュールを通じて、使用者端末に前記実際の室内空間に対応する仮想室内空間コンテンツに対する平面情報-前記平面情報は、前記複数の室内地点それぞれにマッピングされる複数の仮想地点を含む-を提供する段階;および
    使用者端末から、前記複数の仮想地点のうちいずれか一つに対する要請を受信すると、当該仮想地点に関連した全方位仮想イメージを前記使用者端末に提供する段階;を含む
    請求項7に記載の仮想室内空間コンテンツ提供方法。
  11. コンピュータ読み取り可能なインストラクション(instructions)を保存している保存媒体において、
    前記インストラクションは、サーバーによって実行される時、前記サーバーに、
    モバイル端末から、実際の室内空間に対応する仮想室内空間コンテンツ生成のための映像データ-前記映像データは、複数の室内地点それぞれに対して、それぞれの室内地点で獲得した全方位イメージおよび当該室内地点に対する相対的位置情報を含む-を受信する動作;および
    前記相対的位置情報に基づいて前記複数の室内地点に対応する複数の仮想地点を仮想室内空間上にマッピングして前記仮想室内空間コンテンツを生成する動作;を遂行するようにし、
    更に、前記モバイル端末は、慣性測定センサを備え、それによって慣性センシングデータを測定し、
    前記モバイル端末の移動方向と移動距離のうち少なくとも一つを含む視覚的移動情報を生成し、また、前記慣性センシングデータを用いて、前記モバイル端末の移動方向と移動距離のうち少なくとも一つを含む慣性的移動情報を生成し、その慣性的移動情報に基づいて前記視覚的移動情報を検証することによって前記相対的位置情報の精度を上げ
    前記仮想室内空間コンテンツを生成する動作は、
    前記映像データに含まれた、開始地点に対する開始地点情報、前記開始地点以後の第1地点に対する第1地点情報および前記第1地点に対する第1相対的位置情報を確認する動作;および、
    前記実際の室内空間に対応する平面情報で、前記開始地点に対応する仮想開始地点をマッピングし、前記仮想開始地点に対して前記第1相対的位置情報を適用して前記第1地点に対応する第1仮想地点をマッピングする動作;を含む
    ことを特徴とする保存媒体
JP2022545060A 2021-05-31 2021-09-16 仮想室内空間コンテンツ提供方法およびそのためのサーバー Active JP7570711B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020210070117A KR102575503B1 (ko) 2021-05-31 2021-05-31 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법
KR1020210070118A KR102600421B1 (ko) 2021-05-31 2021-05-31 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
KR10-2021-0070117 2021-05-31
KR10-2021-0070118 2021-05-31
PCT/KR2021/012651 WO2022255546A1 (ko) 2021-05-31 2021-09-16 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버

Publications (2)

Publication Number Publication Date
JP2023532831A JP2023532831A (ja) 2023-08-01
JP7570711B2 true JP7570711B2 (ja) 2024-10-22

Family

ID=84194201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022545060A Active JP7570711B2 (ja) 2021-05-31 2021-09-16 仮想室内空間コンテンツ提供方法およびそのためのサーバー

Country Status (3)

Country Link
US (1) US12266032B2 (ja)
EP (1) EP4138042A4 (ja)
JP (1) JP7570711B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136303A (ja) 2008-12-08 2010-06-17 Sony Corp 撮像装置、撮像方法、およびプログラム
JP2021072627A (ja) 2019-09-03 2021-05-06 3アイ インコーポレイテッド 3dツアーの比較表示システム及び方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7126630B1 (en) 2001-02-09 2006-10-24 Kujin Lee Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method
CN1531826A (zh) 2001-02-09 2004-09-22 带有数据注释的全向图像和3维数据获取的方法和装置以及动态范围扩展方法
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
KR100757751B1 (ko) 2006-06-01 2007-09-11 한국과학기술연구원 실내 환경의 환경맵 생성 장치 및 방법
JP5915996B2 (ja) * 2012-06-20 2016-05-11 清水建設株式会社 合成画像表示システム及びその方法
KR101212231B1 (ko) * 2012-07-13 2012-12-13 송헌주 이동 자유도를 개선한 융합형 가상현실 구현 방법
DE102013110581B4 (de) * 2013-09-24 2018-10-11 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung und Vorrichtung hierzu
US9392212B1 (en) * 2014-04-17 2016-07-12 Visionary Vr, Inc. System and method for presenting virtual reality content to a user
KR101583286B1 (ko) 2014-05-16 2016-01-07 네이버 주식회사 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
EP3333538B1 (en) * 2016-12-07 2020-09-09 Hexagon Technology Center GmbH Scanner vis
JP2018151997A (ja) * 2017-03-14 2018-09-27 株式会社日の丸リムジン 拡張現実感景観表示システム
JP6939195B2 (ja) * 2017-07-27 2021-09-22 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
KR102559011B1 (ko) * 2017-12-06 2023-07-24 주식회사 케이티 가상 현실 체험 서비스를 제공하는 방법, 단말 및 서버
US10902172B2 (en) 2018-08-13 2021-01-26 Faro Technologies, Inc. System and method of automatic re-localization and automatic alignment of existing non-digital floor plans
US10809066B2 (en) * 2018-10-11 2020-10-20 Zillow Group, Inc. Automated mapping information generation from inter-connected images
WO2020113273A1 (en) 2018-12-04 2020-06-11 Startinno Ventures Pty Ltd Mixed reality visualisation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136303A (ja) 2008-12-08 2010-06-17 Sony Corp 撮像装置、撮像方法、およびプログラム
JP2021072627A (ja) 2019-09-03 2021-05-06 3アイ インコーポレイテッド 3dツアーの比較表示システム及び方法

Also Published As

Publication number Publication date
JP2023532831A (ja) 2023-08-01
US20220383557A1 (en) 2022-12-01
EP4138042A1 (en) 2023-02-22
US12266032B2 (en) 2025-04-01
EP4138042A4 (en) 2024-06-05

Similar Documents

Publication Publication Date Title
KR102665643B1 (ko) 아바타 표시를 제어하기 위한 방법 및 그 전자 장치
US20170337743A1 (en) System and method for referencing a displaying device relative to a surveying instrument
KR102079097B1 (ko) 투명 디스플레이를 이용한 증강현실 구현 장치 및 그 방법
CN108389264B (zh) 坐标系统确定方法、装置、存储介质及电子设备
US20120026088A1 (en) Handheld device with projected user interface and interactive image
US10319141B2 (en) Method and system for vision based 3D reconstruction and object tracking
JP6476657B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20130176337A1 (en) Device and Method For Information Processing
US8838381B1 (en) Automatic video generation for navigation and object finding
KR20150082358A (ko) 기준 좌표계 결정
CN104662435A (zh) 确定与用于捕获至少一个图像的捕获装置关联的装置的位置和方向的方法
JP2002259992A (ja) 画像処理装置およびその方法並びにプログラムコード、記憶媒体
CN111742281B (zh) 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法
JP2009278456A (ja) 映像表示装置
CN113474819A (zh) 信息处理装置、信息处理方法和程序
KR20230155413A (ko) 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
KR102337209B1 (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
CN114092655A (zh) 构建地图的方法、装置、设备及存储介质
CN113628284A (zh) 位姿标定数据集生成方法、装置、系统、电子设备及介质
KR101914660B1 (ko) 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치
CN111896015A (zh) 导航方法、装置、存储介质及电子设备
JP2015233240A (ja) 表示処理装置、表示処理方法、及びプログラム
JP7570711B2 (ja) 仮想室内空間コンテンツ提供方法およびそのためのサーバー
CN117321634A (zh) 立体深度弯曲校正
KR102701606B1 (ko) Ar hud를 이용하여 운전자의 주행을 돕는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241002

R150 Certificate of patent or registration of utility model

Ref document number: 7570711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150