[go: up one dir, main page]

JP2017211974A - ユーザの指を追跡するシステム、方法及びプログラム - Google Patents

ユーザの指を追跡するシステム、方法及びプログラム Download PDF

Info

Publication number
JP2017211974A
JP2017211974A JP2016225976A JP2016225976A JP2017211974A JP 2017211974 A JP2017211974 A JP 2017211974A JP 2016225976 A JP2016225976 A JP 2016225976A JP 2016225976 A JP2016225976 A JP 2016225976A JP 2017211974 A JP2017211974 A JP 2017211974A
Authority
JP
Japan
Prior art keywords
user
projector
finger
tracking system
fingers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016225976A
Other languages
English (en)
Inventor
マー シャン
Shang Ma
マー シャン
チョン リュウ
Qiong Liu
リュウ チョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2017211974A publication Critical patent/JP2017211974A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/041Remote key fingering indicator, i.e. fingering shown on a display separate from the instrument itself or substantially disjoint from the keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/061LED, i.e. using a light-emitting diode as indicator
    • G10H2220/066Colour, i.e. indications with two or more different colours
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • G10H2220/326Control glove or other hand or palm-attached control device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/065Spint piano, i.e. mimicking acoustic musical instruments with piano, cembalo or spinet features, e.g. with piano-like keyboard; Electrophonic aspects of piano-like acoustic keyboard instruments; MIDI-like control therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments or MIDI-like control therefor
    • G10H2230/351Spint bell, i.e. mimicking bells, e.g. cow-bells

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの指の位置を追跡するシステムの正確性及び応答性を向上させる。
【解決手段】本開示の指追跡システムは、時間軸に沿ったプロジェクタ光信号を投影するプロジェクタであって、時間軸に沿ったプロジェクタ光信号は、プロジェクタの各画素について、プロジェクタの各画素の画素座標を含む情報セグメントによって符号化される、前記プロジェクタと、複数の光センサであって、複数の光センサの各々はユーザの指の各々に装着され、複数の光センサの各々は、時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成する、前記複数の光センサと、複数の光センサの各々に接続され、複数の光センサの各々からのセンサ信号を受信し、ユーザの指の各々の位置情報を決定し、ユーザの少なくとも一本の指の検出された位置に基づいて命令を発行する、処理ユニットと、を含む。
【選択図】図1

Description

本開示は、ユーザの指を追跡するシステム、方法及びプログラムに関する。
音楽インターフェイスを設計するために、多くの検知技術が試されている。カメラが唯一の、または主なセンサである外観追跡アプローチが、一般的には、優勢な技術であると考えられており、このアプローチは広範囲にわたる分野における適用をカバーしている。この方法によれば、多くの様々なオブジェクトまたは身体の部分を、個別に追跡することができ、他に特別な装置も必要としない(非特許文献1)。この技術の主な問題は、大量の電力を消費し、大量の記憶容量を必要とすることであり、これらの問題があるため、実用化には困難を伴う。
他のセンサベースシステムも広範囲のデータを提供し、音楽コントローラの表現を豊かにする。例えば、磁気追跡(非特許文献2)、加速度計追跡(非特許文献3)、及びジャイロスコープ追跡(非特許文献4)について、過去の研究で言及されている。しかし、これらの技術の多くは、検知システム自身または周囲環境からの予測不可能な雑音が多い場合、その影響を受けやすい。
コレスニク(Kolesnik)、「指揮ジェスチャ認識、分析及び性能評価システム(Conducting gesture recognition, analysis and performance system)」、修士論文(Master Thesis)、マギル大学(McGill University)、2004年 イルモネン(Ilmonen)ら、「人工ニューラルネットワークによる指揮者追跡(Conductor following with artificial neural networks)」、1999年 ヴァーニ(Varni)ら、「モバイルデバイスで音楽を聴くソーシャル活動における運動ふるまいの同期化のインタラクティブ音波処理(Interactive sonification of synchronisation of motoric behaviour in social active listening to music with mobile devices)」、マルチモーダルユーザインターフェイスジャーナル(Journal on Multimodal User Interfaces)、5(3−4)、頁157〜173、2012年 ディロン(Dillon)、「仮想オーケストラ:娯楽及び教育のための没入型コンピュータゲーム(Virtual orchestra: An immersive computer game for fun and education」、ゲーム研究開発に関する国際会議抄録(Proceedings of the 2006 international conference on Game research and development)、頁215〜218、2006年
本開示は、ユーザの指の位置を追跡するシステムの正確性を向上させることを目的とする。
第1の態様は、指追跡システムであって、時間軸に沿ったプロジェクタ光信号を投影するプロジェクタであって、前記時間軸に沿ったプロジェクタ光信号は、前記プロジェクタの各画素について、前記プロジェクタの各画素の画素座標を含む情報セグメントによって符号化される、前記プロジェクタと、複数の光センサであって、前記複数の光センサの各々はユーザの指の各々に装着され、前記複数の光センサの各々は、前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成する、前記複数の光センサと、前記複数の光センサの各々に接続され、前記複数の光センサの各々からのセンサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、前記ユーザの少なくとも一本の指の検出された位置に基づいて命令を発行する、処理ユニットと、を含む。
第2の態様は、第1の態様の指追跡システムであって、前記処理ユニットは、前記ユーザの対応する指に装着された光センサからの前記センサ信号に対応するプロジェクタ画素を識別することで、前記ユーザの指の各々の前記位置情報を決定する。
第3の態様は、第1または第2の態様の指追跡システムであって、発行された前記命令は、音響または楽音を合成させる。
第4の態様は、第1〜第3の何れかの態様の指追跡システムであって、前記ユーザの指の各々の位置情報は、ピアノの複数の鍵盤を含むキーボードの画像と関連して決定される。
第5の態様は、第4の態様の指追跡システムであって、前記処理ユニットは、前記ユーザの指の各々の位置情報を使用して、前記ピアノの複数の鍵盤のどの鍵盤が押されたか決定する。
第6の態様は、第5の態様の指追跡システムであって、前記処理ユニットは、押されたピアノの鍵盤に対応する音響または楽音を合成する。
第7の態様は、第5の態様の指追跡システムであって、前記処理ユニットは、押されたピアノの鍵盤のシーケンスを記録する。
第8の態様は、第7の態様の指追跡システムであって、前記押されたピアノの鍵盤の記録されたシーケンスと、基準シーケンスと、を比較し、差を決定し、決定された前記差に基づいて前記ユーザに対するフィードバックを生成する。
第9の態様は、第1〜第3の何れかの態様の指追跡システムであって、前記ユーザの指の各々の位置情報は、複数のチャイニーズベルの画像と関連して決定される。
第10の態様は、第9の態様の指追跡システムであって、前記処理ユニットは、前記ユーザの指の各々の位置情報を使用して、前記複数のチャイニーズベルのどのベルが叩かれたか決定する。
第11の態様は、第10の態様の指追跡システムであって、前記処理ユニットは、叩かれたベルに対応する音響または楽音を合成する。
第12の態様は、第1〜第11の何れかの態様の指追跡システムであって、前記プロジェクタによって投影される前記時間軸に沿ったプロジェクタ光信号は、前記プロジェクタの画素の各々の画素座標を符号化する複数の光パルスのシーケンスを含む。
第13の態様は、第1〜第12の何れかの態様の指追跡システムであって、表示部を含み、前記処理ユニットに接続されたコンピュータシステム、をさらに含み、前記コンピュータシステムは、前記ユーザの指の各々の決定された位置情報を前記処理ユニットから受信し、前記ユーザの指の各々の受信した位置情報を前記表示部に表示する。
第14の態様は、第13の態様の指追跡システムであって、前記ユーザの指の各々の位置情報を異なる色で前記表示部に表示する。
第15の態様は、第1〜第14の何れかの態様の指追跡システムであって、前記プロジェクタはDLPプロジェクタである。
第16の態様は、ユーザの指を追跡する方法であって、プロジェクタが、時間軸に沿ったプロジェクタ光信号を投影し、前記プロジェクタの画素の各々について、前記プロジェクタの画素の各々の画素座標を含む情報セグメントによって前記時間軸に沿ったプロジェクタ光信号を符号化し、複数の光センサが、前記時間軸に沿ったプロジェクタ光信号を検出し、前記複数の光センサの各々はユーザの指に装着され、前記複数の光センサの各々は前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成し、前記複数の光センサの各々に接続されている処理ユニットが、前記複数の光センサの各々から前記センサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、決定した前記ユーザの少なくとも1本の指の位置に基づいて命令を発行する。
第17の態様は、第16の態様のユーザの指を追跡する方法であって、前記処理ユニットは、前記ユーザの対応する指に装着された光センサから前記センサ信号に対応するプロジェクタ画素を識別することで、前記ユーザの指の各々の位置情報を決定する。
第18の態様は、第16または第17の態様のユーザの指を追跡する方法であって、発行された前記命令は、音響または楽音を合成させる。
第19の態様は、第16〜第18の何れかの態様のユーザの指を追跡する方法であって、前記ユーザの指の各々の位置情報は、ピアノの複数の鍵盤を含むキーボードの画像と関連して決定される。
第20の態様は、プログラムであって、プロジェクタを使用して、時間軸に沿ったプロジェクタ光信号を投影し、前記プロジェクタの画素の各々について、前記プロジェクタの画素の各々の画素座標を含む情報セグメントによって前記時間軸に沿ったプロジェクタ光信号を符号化し、複数の光センサを使用して、前記時間軸に沿ったプロジェクタ光信号を検出し、前記複数の光センサの各々はユーザの指に装着され、前記複数の光センサの各々は前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成し、前記複数の光センサの各々に接続されている処理ユニットを使用して、前記複数の光センサの各々から前記センサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、決定した前記ユーザの少なくとも1本の指の位置に基づいて命令を発行する、ユーザの指を追跡する処理をコンピュータに実行させる。
本開示は、ユーザの指の位置を追跡するシステムの正確性を向上させることを可能とする。
仮想楽器を再生する指追跡システムの実施例を示す。 プロジェクタによって生成される時間軸に沿った符号化光信号を例示する。 プロジェクタによって生成される時間軸に沿った符号化光信号を例示する。 デスクトップコンピュータで稼動する可視化アプリケーションのグラフィカルユーザインターフェイスの実施例を示す。 88鍵盤を有する紙製ピアノキーボードを例示する。 仮想チャイニーズベルを例示する。 仮想楽器を演奏するために指追跡システムを使用するプロセスの動作シーケンスの実施例を示す。 マイクロコントローラ及びデスクトップコンピュータとして使用され得るコンピュータプラットフォームの実施例を示す。
以下の詳細な説明において、添付の図面を参照する。図面において、同一の機能を有する要素には同様の参照符号を付す。図面は例示を目的としており、限定を意図していない。特定の実施例及び実装は、本発明の原理と矛盾しない。これらの実装は、当業者が本開示を実施することができる程度に十分詳細に記載されている。記載する実装以外の実装も可能であり、本開示の範囲及び思想から乖離することなく、構造を変更し、及び/または様々な構成要素を置換することができる。したがって、以下の詳細な説明は、限定的に解釈されるべきではない。また、本発明の様々な実施例は、汎用目的コンピュータで稼動するソフトウェアの形態で実装されてもよいし、特定用途ハードウェアの形態で実装されてもよい。或いは、ソフトウェア及びハードウェアの組み合わせで実装されてもよい。
正確性及び応答性が高い指追跡システムは、音楽実演者の指または指揮棒の動きに追従することを容易とし、音楽実演者の指または指揮棒の動きから、美しい旋律を奏でる技術を抽出し、楽器の設計、音響効果の提示、音楽教育の指針としてそれらを使用することができる。
実施例の一態様によれば、仮想楽器再生の指追跡システム及び方法が提供される。1つもしくは複数の実施例において、このシステムは、投影面上にあるユーザの10本の指の位置を追跡し、仮想ピアノ、仮想ドラム、仮想ベルなどの仮想楽器を演奏するために使用されてもよい。1つもしくは複数の実施例において、システムは、ユーザの指に負担をかけず、また、ユーザの指の姿勢を過度に制限せず、ユーザの10本の指の動きを追跡する。詳細には、1つもしくは複数の実施例において、符号化光ベース投影手段を使用し、平面に位置検出信号を送り出し、10個の光センサがユーザの指に装着され、これらの信号を受信し、ユーザの指を検出する。検出位置及び固定点までの相対距離に基づいて、印刷された楽器を使用して、仮想楽器音楽再生を行うことができる。上記追跡システムによって、仮想楽器の様々な実施例を実装することができ、仮想ピアノを印刷されたキーボードで演奏するシステム及び方法、及び仮想チャイニーズベルを印刷されたチャイニーズベルセットで演奏するシステム及び方法を含む。
仮想楽器を再生する指追跡システム100の実施例を図1に示す。指追跡システム100は、投影面上のユーザの10本の指の各々の位置を追跡し、仮想ピアノ、仮想ドラム、仮想ベルなどの仮想楽器を演奏するために使用されてもよい。実施例の1つにおいて、指追跡システム100はプロジェクタ101を含み、プロジェクタ101は、図1に例示されるようなオフィステーブル102などの平面上に符号化光信号を送出するために使用されてもよい。テーブル102に着席しているユーザ103は、1本の指に1個ずつ、10個の光センサ104〜113を装着している。実施例の1つにおいて、光センサ104〜113はフォトダイオードまたはフォトトランジスタなどの光度センサであり、例えば、4.06mm×3.04mmなど、小さいので、ユーザ103の指に適合する。光センサ104〜113は、プロジェクタ101によって生成される光パルスシーケンスを検出することができる、現在知られている他の、または、今後開発される光センサであってもよい。様々な実施例において、光センサ104〜113は、バンドまたは手袋を使用して、ユーザの指に固定されてもよい。
指追跡システム100の電源がオンにされると、光センサ104〜113の全てが、プロジェクタ101から位置信号を受信する。受信した光符号と投影領域におけるその位置との間の対応は予め定められているので、指追跡システム100は、10個全ての光センサ104〜113で受信したプロジェクタの光パルスシーケンスによって表される符合を復号することで、ユーザの指の各々の位置を復元することができる。実施例の1つにおいて、特別にプログラミングされたマイクロコントローラが提供され、光センサ104〜113からの10チャネルデータストリームを復号し、最終出力は、デスクトップコンピュータで稼動する可視化アプリケーションに送信される。ワイヤ114を使用して、センサの各々からのセンサ信号をマイクロコントローラに配送してもよい。
図2A及び図2Bは、プロジェクタ101によって生成される、時間軸に沿った2つの符号化光信号201及び205を例示する。実施例の1つにおいて、プロジェクタ101は、DLP(デジタルライトプロセッシング)プロジェクタである。時間軸に沿った光信号201及び205は、プロジェクタ101の2つの異なる画素203及び207に対応する。時間軸に沿った光信号201は方向202に伝播し、時間軸に沿った光パルスの対応する第1固有シーケンスを使用して第1プロジェクタ画素203の固有位置情報によって符号化される。一方、時間軸に沿った光信号205は方向206に伝播し、時間軸に沿った光パルスの対応する第2固有シーケンスを使用して、第2プロジェクタ画素207の固有位置情報によって符号化される。図2A及び図2Bにおいて、プロジェクタ画素203及び207は、それらの対応する投影によって、仮想的投影面204に例示される。光パルスの第1及び第2シーケンスは異なり、プロジェクタ画素の各々に関する情報を搬送する。
図3は、デスクトップコンピュータで稼動する可視化アプリケーションのグラフィカルユーザインターフェイスの実施例を示す。図3に示されるように、ユーザインターフェイスはユーザ103の10本の指の位置301〜310を表示する。位置301〜310は、デスクトップコンピュータで稼動する可視化アプリケーションのグラフィカルユーザインターフェイスにおいて異なる色で提示されてもよい。
図1で示される指追跡システム100は、迅速に指を追跡することができ、仮想楽器の演奏アプリケーションを含む様々なアプリケーションで使用可能である。例示的な実施例の1つにおいて、指追跡システム100は、図4に示されるように、88鍵盤紙ピアノキーボードを演奏する際に使用される。鍵盤が押されたことを示すように、演奏者が鍵盤上に指を置くと、指の位置が復号され、対応する楽音が演奏される。例示的な実施例の1つにおいて、図1に示される指追跡システム100はユーザにピアノ演奏技術を教示するために使用されてもよい。ピアノ演奏の基礎は、楽譜を学び、楽譜を鍵盤にマッピングすることである。高解像度で演奏者の指を検出する能力によって、指追跡システム100は押された鍵盤のシーケンスを記録し、演奏者の「滑らかさ」及び「流麗さ」を、所望されるシーケンスと記録されたデータとを比較することで、査定することができる。分析結果に基づいて、適切なフィードバックがユーザに提供されてもよい。
例示的な実施例の1つにおいて、図1に示される指追跡システム100は、曲を演奏している上級ピアノ演奏者の指の動きのシーケンスを、高解像度で、検出し、記録する際に使用されてもよい。このシーケンスは、基準として使用され、同じ曲を演奏している学習者の、検出された指の動きと比較されてもよい。基準である指の動きと学習者の指の動きとの間の検出された差異に基づいて、学習者のピアノ演奏技術を向上させるように、適切なフィードバックが学習者に提供されてもよい。
他の例示的な実施例において、図1に示される指追跡システム100は、図5に示される古の楽器である仮想チャイニーズベルを演奏するために使用される。様々なベルに光センサを置くことで、演奏者は様々な音響効果を誘引することができる。チャイニーズベルがもつ特別な特性は、どこが打たれたかに依存して、単一のベルで様々な音色が生成される能力にある。この特性によって、演奏者は、通常、ある時間量の練習を要求されるが、この学習プロセスを加速することができるインターフェイスを改善する機会を提示する。
図6は、仮想楽器を演奏する指追跡システム100を使用するプロセスの動作シーケンス600の例示的実施例を示す。ステップ601で、プロジェクタを使用して、時間軸に沿ったプロジェクタ光信号を投影する。プロジェクタ光信号は、プロジェクタの画素の各々について、プロジェクタの画素の各々の画素座標を含む情報で符号化されている。ステップ602で、プロジェクタ光信号は、ユーザの指に装着された光センサ104〜113を使用して検出される。ステップ603で、特別にプログラムされたマイクロコントローラが復号された投影光信号を復号し、ユーザの指の各々の位置を判定する。ステップ604で、デスクトップコンピュータはユーザの指の各々の復号された位置を使用して、ユーザによって、どのピアノ鍵盤が押されたか、どのチャイニーズベルが打たれたかを判定する。次に、ステップ605で、デスクトップコンピュータは、押された鍵盤または打たれたベルに対応する音響または楽音を合成する。
本実施形態における指追跡システム100は、視覚(色)ベースシステム(非特許文献1)とは異なる。したがって、環境光に依存せず、必要とされる計算処理リソースは極めて少ない。上記実施例は、他のセンサベースインターフェイス(非特許文献2〜4)とも異なる。したがって、既存の演奏者の服もしくは器具を変更することを必要とせず、演奏を侵害せず、影響を与えない。これら2つのタイプの何れとも異なり、本実施形態における上記指追跡システム100は複雑な認識アルゴリズムを必要としない。したがって、本実施形態における上記指追跡システム100はリアルタイムで、高精度に、指追跡を行い、ユーザ入力を分析することができる。
上記実施例では仮想ピアノ及び仮想チャイニーズベルを演奏する指追跡システムの使用に関連して説明したが、指追跡システム100は、他の様々な仮想楽器の演奏に使用することができる。したがって、2つの上記実施例は、限定的な意味で解釈されるべきではない。
「コンピュータシステムの例示的実施例」
図7は、マイクロコントローラまたはデスクトップコンピュータであってよいコンピュータプラットフォーム700の実施例を示す。1つもしくは複数の実施例において、コンピュータプラットフォーム700は、モバイル計算処理デバイスのフォームファクタ内で実装されてもよい。代替的な実施例において、コンピュータプラットフォーム700は、ラップトップまたはノートブックコンピュータで実装されてもよい。他の代替的な実施例において、コンピュータプラットフォーム700は特定用途計算処理システムであってよく、仮想楽器のために設計されていてもよい。
コンピュータプラットフォーム700は、コンピュータプラットフォーム700の様々なハードウェア構成要素をわたって情報を伝達するデータバス704または他の相互接続もしくは通信機構、及び、情報を処理し、他の計算処理及び制御タスクを実行するためにデータバス704に接続されている中央処理ユニット(CPUまたは単にプロセッサ)701を含んでいてもよい。コンピュータプラットフォーム700は、RAM(random access memory)または他の動的ストレージデバイスなどの、メモリ712を含み、メモリ712は、プロセッサ701によって実行される命令及び様々な情報を記憶するためにデータバス704に接続されている。メモリ712は、磁気ディスク、光ディスク、ソリッドステートフラッシュメモリデバイスまたは他の不揮発性ソリッドステートストレージデバイスなどの固定ストレージデバイスを含んでいてもよい。
1つもしくは複数の実施例において、メモリ712は、プロセッサ701によって命令が実行される間、一時的な変数または他の中間情報を記憶するために使用されてもよい。必須ではないが、コンピュータプラットフォーム700は、コンピュータプラットフォーム700の動作に必要なファームウェア、BIOS(basic input-output system)、コンピュータプラットフォーム700の様々な構成パラメータなど、プロセッサ701のための静的情報及び命令を記憶するためにデータバス704に接続されている、ROM(read only memory)またはEPROM702または他の静的ストレージデバイスを含んでいてもよい。
1つもしくは複数の実施例において、コンピュータプラットフォーム700は、さらに、プロジェクタ101によって生成される符号化光信号を検出する光センサ709を含んでいてもよい。実施例の1つにおいて、光センサ709は、全て、応答時間が短く、高頻度で位置検出を行うことができる。さらに、コンピュータプラットフォーム700は、音響プロセッサ703を含み、音響プロセッサは、ユーザが押した仮想ピアノの鍵盤またはユーザが打ったチャイニーズベルに対応する音響を生成してもよい。
1つもしくは複数の実施例において、コンピュータプラットフォーム700は、さらに、データバス704に接続されたネットワークインターフェイス705などの通信インターフェイスを含んでいてもよい。ネットワークインターフェイス705は、WiFiアダプタ707及び携帯電話ネットワーク(GSM(登録商標)またはCDMA)アダプタ708の少なくとも一方を使用して、コンピュータプラットフォーム700とインターネット724との間の接続を確立してもよい。ネットワークインターフェイス705は、コンピュータプラットフォーム700とインターネット724との間の双方向データ通信を提供してもよい。WiFiアダプタ707は、802.11a、802.11b、802.11g及び/または802.11nプロトコル及びBluetooth(登録商標)プロトコルに準拠して動作してもよい。例示的な実装において、WiFiアダプタ707及び携帯電話ネットワーク(GSMまたはCDMA)アダプタ708は様々なタイプの情報を表すデジタルデータ信号を搬送する電気または電磁信号を送受信する。
1つもしくは複数の実施例において、インターネット724は、一般的に、1つもしくは複数のサブネットワークを介して、他のネットワークリソースへのデータ通信を提供する。すなわち、コンピュータプラットフォーム700は、リモートメディアサーバ、ウェブサーバ、他のコンテンツサーバ及び他のネットワークデータストレージリソースなどの、インターネット724のどこかに配置されている様々なネットワークリソースにアクセスすることができる。1つもしくは複数の実施例において、コンピュータプラットフォーム700は、メッセージ、メディア及び、アプリケーションプログラムコードを含む他のデータを、ネットワークインターフェイス705を経由して、インターネット724を含む様々なネットワークによって送受信する。インターネットの例において、コンピュータプラットフォーム700がネットワーククライアントとして動作すると、コンピュータプラットフォーム700で実行されるアプリケーションプログラムのためのコードまたはデータが必要となる場合がある。同様に、コンピュータプラットフォーム700は、様々なデータまたはコンピュータコードを他のネットワークリソースに送信してもよい。
1つもしくは複数の実施例において、メモリ712に保存されている1つもしくは複数の命令の1つもしくは複数のシーケンスのプロセッサ701による実行に応じて、コンピュータプラットフォーム700によって、ここで説明する機能が実装されてもよい。命令は、他のコンピュータ可読媒体からメモリ712に読み込まれてもよい。メモリ712に含まれる命令のシーケンスの実行によって、プロセッサ701はここで説明する様々なプロセスステップを実行する。代替的な実施例において、本開示の実施例を実装するために、ソフトウェア命令の代わりに、または、ソフトウェア命令と組み合わせて、ハードウェア回路を使用してもよい。本開示の実施例は、ハードウェア回路及びソフトウェアの特定の組み合わせに限定されない。
用語「コンピュータ可読媒体」は、実行する命令をプロセッサ701に提供する際に寄与する何れかの媒体を表すために使用される。コンピュータ可読媒体は、機械可読媒体の一例であり、ここで説明された方法及び/または技術の何れかを実装する命令を搬送してもよい。これらの媒体は、不揮発性媒体及び揮発性媒体を含む多くの形態であってよいが、これらに限定されるものではない。
一般的な形態の非一時的コンピュータ可読媒体は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、または何れか他の磁気媒体、CD−ROM、何れか他の光媒体、パンチカード、紙テープ、孔パターンを有する何れか他の物理的媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、何れか他のメモリチップまたはカートリッジ、またはコンピュータによる読み取りが可能な何れか他の媒体を含む。1つもしくは複数の実行する命令の1つもしくは複数のシーケンスをプロセッサ701に搬送する際に、様々な形態のコンピュータ可読媒体が寄与してもよい。例えば、命令はリモートコンピュータから磁気ディスクに搬送されてもよい。代替的に、リモートコンピュータは、命令をダイナミックメモリにロードし、インターネット724を介して命令を送信してもよい。詳細には、コンピュータ命令は、様々なネットワークデータ通信プロトコルを使用して、インターネット724を介して、上記リモートコンピュータからコンピュータプラットフォーム700のメモリ712にダウンロードされてもよい。
1つもしくは複数の実施例において、コンピュータプラットフォーム700のメモリ712は、以下のソフトウェアプログラム、アプリケーション及び/またはモジュールの何れかを記憶してもよい。
1.オペレーティングシステム(OS)713。オペレーティングシステム(OS)713は、基本システムサービスを実装し、コンピュータプラットフォーム700の様々なハードウェア構成要素を管理するモバイルオペレーティングシステムであってよい。オペレーティングシステム713の例示的な実装は、既知のまたは今後開発されるモバイルオペレーティングシステムを含んでいてもよい。さらに、ネットワークインターフェイス705を使用してネットワーク通信を可能とするネットワーク通信モジュール714がさらに提供されてもよい。
2.ソフトウェアモジュール715。ソフトウェアモジュール715は、例えば、コンピュータプラットフォーム700のプロセッサ701によって実行されるソフトウェアモジュールのセット716、717を含んでいてもよい。ソフトウェアモジュールのセットによって、コンピュータプラットフォーム700は、音響プロセッサ703へのコマンド発行などの予め定められた機能を実行する。
3.データストレージ718。データストレージ718は、例えば、光センサ709によって受信される光パルスシーケンスを復号するために必要とされる、プロジェクタ101の様々なパラメータ719などの様々なパラメータを記憶するために使用されてもよい。さらに、データストレージ718は、ピアノキーボードのレイアウト、チャイニーズベルのレイアウト、他の様々な仮想楽器のレイアウトを記憶してもよい。
ここで説明したプロセス及び技術は、何れか特定の装置に固有に関連するものではなく、適切な組み合わせの構成要素の何れかによって実装されてもよい。さらに、様々なタイプの汎用目的デバイスが、ここで説明した教示にしたがって使用されてもよい。ここで説明した方法のステップを実行するために特定用途装置を構築することが有用である場合もある。本開示では、特定の例に関連して説明を行ったが、これらの例は、例示を意図し、限定を意図していない。ハードウェア、ソフトウェア及びファームウェアの多くの異なる組み合わせが、本開示の実用に適している。例えば、上記ソフトウェアは、アセンブラ、C/C++、オブジェクティブ−C、perl、shell、PHP、Java(登録商標)、及び、既知のまたは今後開発されるプログラミングまたは記述言語などの様々なプログラミング言語または記述言語で実装されてもよい。
また、本開示の他の実装も、本開示の詳細及び実行を検討することで明らかとなる。上記実施例の様々な態様及び/または構成要素は、指追跡システム及び仮想楽器再生方法において、単独で使用されてもよいし、組み合わせて使用されてもよい。実施例は例示だけを意図している。
100 指追跡システム
101 プロジェクタ
104 光センサ
105 光センサ
106 光センサ
107 光センサ
108 光センサ
109 光センサ
110 光センサ
111 光センサ
112 光センサ
113 光センサ
701 CPU
709 光センサ
712 メモリ

Claims (20)

  1. 時間軸に沿ったプロジェクタ光信号を投影するプロジェクタであって、前記時間軸に沿ったプロジェクタ光信号は、前記プロジェクタの各画素について、前記プロジェクタの各画素の画素座標を含む情報セグメントによって符号化される、前記プロジェクタと、
    複数の光センサであって、前記複数の光センサの各々はユーザの指の各々に装着され、前記複数の光センサの各々は、前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成する、前記複数の光センサと、
    前記複数の光センサの各々に接続され、前記複数の光センサの各々からのセンサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、前記ユーザの少なくとも一本の指の検出された位置に基づいて命令を発行する、処理ユニットと、
    を含む指追跡システム。
  2. 前記処理ユニットは、前記ユーザの対応する指に装着された光センサからの前記センサ信号に対応するプロジェクタ画素を識別することで、前記ユーザの指の各々の前記位置情報を決定する、
    請求項1に記載の指追跡システム。
  3. 発行された前記命令は、音響または楽音を合成させる、
    請求項1または請求項2に記載の指追跡システム。
  4. 前記ユーザの指の各々の位置情報は、ピアノの複数の鍵盤を含むキーボードの画像と関連して決定される、
    請求項1〜請求項3の何れか1項に記載の指追跡システム。
  5. 前記処理ユニットは、前記ユーザの指の各々の位置情報を使用して、前記ピアノの複数の鍵盤のどの鍵盤が押されたか決定する、
    請求項4に記載の指追跡システム。
  6. 前記処理ユニットは、押されたピアノの鍵盤に対応する音響または楽音を合成する、
    請求項5に記載の指追跡システム。
  7. 前記処理ユニットは、押されたピアノの鍵盤のシーケンスを記録する、
    請求項5に記載の指追跡システム。
  8. 前記押されたピアノの鍵盤の記録されたシーケンスと、基準シーケンスと、を比較し、差を決定し、決定された前記差に基づいて前記ユーザに対するフィードバックを生成する、
    請求項7に記載の指追跡システム。
  9. 前記ユーザの指の各々の位置情報は、複数のチャイニーズベルの画像と関連して決定される、
    請求項1〜請求項3の何れか1項に記載の指追跡システム。
  10. 前記処理ユニットは、前記ユーザの指の各々の位置情報を使用して、前記複数のチャイニーズベルのどのベルが叩かれたか決定する、
    請求項9に記載の指追跡システム。
  11. 前記処理ユニットは、叩かれたベルに対応する音響または楽音を合成する、請求項10に記載の指追跡システム。
  12. 前記プロジェクタによって投影される前記時間軸に沿ったプロジェクタ光信号は、前記プロジェクタの画素の各々の画素座標を符号化する複数の光パルスのシーケンスを含む、請求項1〜請求項11の何れか1項に記載の指追跡システム。
  13. 表示部を含み、前記処理ユニットに接続されたコンピュータシステム、
    をさらに含み、
    前記コンピュータシステムは、前記ユーザの指の各々の決定された位置情報を前記処理ユニットから受信し、前記ユーザの指の各々の受信した位置情報を前記表示部に表示する、
    請求項1〜請求項12の何れか1項に記載の指追跡システム。
  14. 前記ユーザの指の各々の位置情報を異なる色で前記表示部に表示する、
    請求項13に記載の指追跡システム。
  15. 前記プロジェクタはDLPプロジェクタである、
    請求項1〜請求項14の何れか1項に記載の指追跡システム。
  16. プロジェクタが、時間軸に沿ったプロジェクタ光信号を投影し、前記プロジェクタの画素の各々について、前記プロジェクタの画素の各々の画素座標を含む情報セグメントによって前記時間軸に沿ったプロジェクタ光信号を符号化し、
    複数の光センサが、前記時間軸に沿ったプロジェクタ光信号を検出し、前記複数の光センサの各々はユーザの指に装着され、前記複数の光センサの各々は前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成し、
    前記複数の光センサの各々に接続されている処理ユニットが、前記複数の光センサの各々から前記センサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、決定した前記ユーザの少なくとも1本の指の位置に基づいて命令を発行する、
    ユーザの指を追跡する方法。
  17. 前記処理ユニットは、前記ユーザの対応する指に装着された光センサから前記センサ信号に対応するプロジェクタ画素を識別することで、前記ユーザの指の各々の位置情報を決定する、
    請求項16に記載のユーザの指を追跡する方法。
  18. 発行された前記命令は、音響または楽音を合成させる、
    請求項16または請求項17に記載のユーザの指を追跡する方法。
  19. 前記ユーザの指の各々の位置情報は、ピアノの複数の鍵盤を含むキーボードの画像と関連して決定される、
    請求項16〜請求項18の何れか1項に記載のユーザの指を追跡する方法。
  20. プロジェクタを使用して、時間軸に沿ったプロジェクタ光信号を投影し、前記プロジェクタの画素の各々について、前記プロジェクタの画素の各々の画素座標を含む情報セグメントによって前記時間軸に沿ったプロジェクタ光信号を符号化し、
    複数の光センサを使用して、前記時間軸に沿ったプロジェクタ光信号を検出し、前記複数の光センサの各々はユーザの指に装着され、前記複数の光センサの各々は前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成し、
    前記複数の光センサの各々に接続されている処理ユニットを使用して、前記複数の光センサの各々から前記センサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、決定した前記ユーザの少なくとも1本の指の位置に基づいて命令を発行する、
    ユーザの指を追跡する処理をコンピュータに実行させるためのプログラム。
JP2016225976A 2016-05-25 2016-11-21 ユーザの指を追跡するシステム、方法及びプログラム Pending JP2017211974A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/164,548 2016-05-25
US15/164,548 US9830894B1 (en) 2016-05-25 2016-05-25 Systems and methods for playing virtual music instrument through tracking of fingers with coded light

Publications (1)

Publication Number Publication Date
JP2017211974A true JP2017211974A (ja) 2017-11-30

Family

ID=60407655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225976A Pending JP2017211974A (ja) 2016-05-25 2016-11-21 ユーザの指を追跡するシステム、方法及びプログラム

Country Status (2)

Country Link
US (1) US9830894B1 (ja)
JP (1) JP2017211974A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10809808B2 (en) 2016-10-14 2020-10-20 Intel Corporation Gesture-controlled virtual reality systems and methods of controlling the same
CN109102784A (zh) * 2018-06-14 2018-12-28 森兰信息科技(上海)有限公司 一种ar辅助乐器练习方法、系统以及一种智能设备
US10860104B2 (en) 2018-11-09 2020-12-08 Intel Corporation Augmented reality controllers and related methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05119692A (ja) * 1991-08-12 1993-05-18 Yamaha Corp 楽器演奏データ評価装置
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
JP2010224665A (ja) * 2009-03-19 2010-10-07 Sony Corp 光触覚変換システム、及び触覚フィードバックの提供方法
US20150317910A1 (en) * 2013-05-03 2015-11-05 John James Daniels Accelerated Learning, Entertainment and Cognitive Therapy Using Augmented Reality Comprising Combined Haptic, Auditory, and Visual Stimulation

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084859B1 (en) * 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US6388181B2 (en) * 1999-12-06 2002-05-14 Michael K. Moe Computer graphic animation, live video interactive method for playing keyboard music
US7009100B2 (en) * 2002-08-20 2006-03-07 Casio Computer Co., Ltd. Performance instruction apparatus and performance instruction program used in the performance instruction apparatus
US20110210931A1 (en) * 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
WO2009024971A2 (en) * 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules
US8760391B2 (en) * 2009-05-22 2014-06-24 Robert W. Hawkins Input cueing emersion system and method
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US20120262366A1 (en) * 2011-04-15 2012-10-18 Ingeonix Corporation Electronic systems with touch free input devices and associated methods
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
WO2013135299A1 (en) * 2012-03-15 2013-09-19 Cherradi El Fadili Ibrahim Farid Extending the free fingers typing technology and introducing the finger taps language technology
US20140267029A1 (en) * 2013-03-15 2014-09-18 Alok Govil Method and system of enabling interaction between a user and an electronic device
US9685096B2 (en) * 2015-01-05 2017-06-20 Fonglui Christopher Ng Guidance system for learning to play piano
US9418637B1 (en) * 2015-03-20 2016-08-16 claVision Inc. Methods and systems for visual music transcription

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05119692A (ja) * 1991-08-12 1993-05-18 Yamaha Corp 楽器演奏データ評価装置
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
JP2010224665A (ja) * 2009-03-19 2010-10-07 Sony Corp 光触覚変換システム、及び触覚フィードバックの提供方法
US20150317910A1 (en) * 2013-05-03 2015-11-05 John James Daniels Accelerated Learning, Entertainment and Cognitive Therapy Using Augmented Reality Comprising Combined Haptic, Auditory, and Visual Stimulation

Also Published As

Publication number Publication date
US20170345403A1 (en) 2017-11-30
US9830894B1 (en) 2017-11-28

Similar Documents

Publication Publication Date Title
US11514923B2 (en) Method and device for processing music file, terminal and storage medium
US10262642B2 (en) Augmented reality music composition
US20150131966A1 (en) Three-dimensional audio rendering techniques
GB2482729A (en) An augmented reality musical instrument simulation system
Petrović Augmented and virtual reality web applications for music stage performance
WO2019156091A1 (ja) 情報処理方法
JP7458127B2 (ja) 処理システム、音響システム及びプログラム
JP2017211974A (ja) ユーザの指を追跡するシステム、方法及びプログラム
US20140310640A1 (en) Interactive digital art apparatus
Zlatintsi et al. A web-based real-time kinect application for gestural interaction with virtual musical instruments
Odowichuk et al. Sensor fusion: Towards a fully expressive 3d music control interface
Willemsen et al. Resurrecting the tromba marina: A bowed virtual reality instrument using haptic feedback and accurate physical modelling
CN119923862A (zh) 情境场景增强
Benson et al. Soundmorpheus: A myoelectric-sensor based interface for sound spatialization and shaping
Antoshchuk et al. Creating an Interactive Musical Experience for a Concert Hall.
US20130106689A1 (en) Methods of operating systems having optical input devices
Barbancho et al. Human–computer interaction and music
Mittal et al. MuTable (Music Table): Turn any surface into musical instrument
TWI777771B (zh) 行動影音裝置及影音播放控制方法
Löchtefeld et al. Using mobile projection to support guitar learning
JP7815509B1 (ja) コンテンツ提供方法および情報処理システム
Winters et al. New directions for sonification of expressive movement in music
Dziwis et al. Perspectives on Practical Implementations in the Web-based Musical Metaverse
Zellerbach The Design and Analysis of Mixed Reality Musical Instruments
Uro Interaction, Space, and Copresence in Co-Located Mixed Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210316