JP2017211974A - ユーザの指を追跡するシステム、方法及びプログラム - Google Patents
ユーザの指を追跡するシステム、方法及びプログラム Download PDFInfo
- Publication number
- JP2017211974A JP2017211974A JP2016225976A JP2016225976A JP2017211974A JP 2017211974 A JP2017211974 A JP 2017211974A JP 2016225976 A JP2016225976 A JP 2016225976A JP 2016225976 A JP2016225976 A JP 2016225976A JP 2017211974 A JP2017211974 A JP 2017211974A
- Authority
- JP
- Japan
- Prior art keywords
- user
- projector
- finger
- tracking system
- fingers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000012545 processing Methods 0.000 claims abstract description 28
- 230000003287 optical effect Effects 0.000 claims description 39
- 230000004043 responsiveness Effects 0.000 abstract description 2
- 230000002123 temporal effect Effects 0.000 abstract 3
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000005057 finger movement Effects 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 239000004020 conductor Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001095 motoneuron effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H3/00—Instruments in which the tones are generated by electromechanical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/021—Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
- G10H2220/026—Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays associated with a key or other user input device, e.g. key indicator lights
- G10H2220/041—Remote key fingering indicator, i.e. fingering shown on a display separate from the instrument itself or substantially disjoint from the keys
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/021—Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
- G10H2220/026—Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays associated with a key or other user input device, e.g. key indicator lights
- G10H2220/061—LED, i.e. using a light-emitting diode as indicator
- G10H2220/066—Colour, i.e. indications with two or more different colours
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/201—User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/321—Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
- G10H2220/326—Control glove or other hand or palm-attached control device
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/405—Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
- G10H2220/411—Light beams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/045—Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
- G10H2230/065—Spint piano, i.e. mimicking acoustic musical instruments with piano, cembalo or spinet features, e.g. with piano-like keyboard; Electrophonic aspects of piano-like acoustic keyboard instruments; MIDI-like control therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/045—Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
- G10H2230/251—Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments or MIDI-like control therefor
- G10H2230/351—Spint bell, i.e. mimicking bells, e.g. cow-bells
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】本開示の指追跡システムは、時間軸に沿ったプロジェクタ光信号を投影するプロジェクタであって、時間軸に沿ったプロジェクタ光信号は、プロジェクタの各画素について、プロジェクタの各画素の画素座標を含む情報セグメントによって符号化される、前記プロジェクタと、複数の光センサであって、複数の光センサの各々はユーザの指の各々に装着され、複数の光センサの各々は、時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成する、前記複数の光センサと、複数の光センサの各々に接続され、複数の光センサの各々からのセンサ信号を受信し、ユーザの指の各々の位置情報を決定し、ユーザの少なくとも一本の指の検出された位置に基づいて命令を発行する、処理ユニットと、を含む。
【選択図】図1
Description
図7は、マイクロコントローラまたはデスクトップコンピュータであってよいコンピュータプラットフォーム700の実施例を示す。1つもしくは複数の実施例において、コンピュータプラットフォーム700は、モバイル計算処理デバイスのフォームファクタ内で実装されてもよい。代替的な実施例において、コンピュータプラットフォーム700は、ラップトップまたはノートブックコンピュータで実装されてもよい。他の代替的な実施例において、コンピュータプラットフォーム700は特定用途計算処理システムであってよく、仮想楽器のために設計されていてもよい。
101 プロジェクタ
104 光センサ
105 光センサ
106 光センサ
107 光センサ
108 光センサ
109 光センサ
110 光センサ
111 光センサ
112 光センサ
113 光センサ
701 CPU
709 光センサ
712 メモリ
Claims (20)
- 時間軸に沿ったプロジェクタ光信号を投影するプロジェクタであって、前記時間軸に沿ったプロジェクタ光信号は、前記プロジェクタの各画素について、前記プロジェクタの各画素の画素座標を含む情報セグメントによって符号化される、前記プロジェクタと、
複数の光センサであって、前記複数の光センサの各々はユーザの指の各々に装着され、前記複数の光センサの各々は、前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成する、前記複数の光センサと、
前記複数の光センサの各々に接続され、前記複数の光センサの各々からのセンサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、前記ユーザの少なくとも一本の指の検出された位置に基づいて命令を発行する、処理ユニットと、
を含む指追跡システム。 - 前記処理ユニットは、前記ユーザの対応する指に装着された光センサからの前記センサ信号に対応するプロジェクタ画素を識別することで、前記ユーザの指の各々の前記位置情報を決定する、
請求項1に記載の指追跡システム。 - 発行された前記命令は、音響または楽音を合成させる、
請求項1または請求項2に記載の指追跡システム。 - 前記ユーザの指の各々の位置情報は、ピアノの複数の鍵盤を含むキーボードの画像と関連して決定される、
請求項1〜請求項3の何れか1項に記載の指追跡システム。 - 前記処理ユニットは、前記ユーザの指の各々の位置情報を使用して、前記ピアノの複数の鍵盤のどの鍵盤が押されたか決定する、
請求項4に記載の指追跡システム。 - 前記処理ユニットは、押されたピアノの鍵盤に対応する音響または楽音を合成する、
請求項5に記載の指追跡システム。 - 前記処理ユニットは、押されたピアノの鍵盤のシーケンスを記録する、
請求項5に記載の指追跡システム。 - 前記押されたピアノの鍵盤の記録されたシーケンスと、基準シーケンスと、を比較し、差を決定し、決定された前記差に基づいて前記ユーザに対するフィードバックを生成する、
請求項7に記載の指追跡システム。 - 前記ユーザの指の各々の位置情報は、複数のチャイニーズベルの画像と関連して決定される、
請求項1〜請求項3の何れか1項に記載の指追跡システム。 - 前記処理ユニットは、前記ユーザの指の各々の位置情報を使用して、前記複数のチャイニーズベルのどのベルが叩かれたか決定する、
請求項9に記載の指追跡システム。 - 前記処理ユニットは、叩かれたベルに対応する音響または楽音を合成する、請求項10に記載の指追跡システム。
- 前記プロジェクタによって投影される前記時間軸に沿ったプロジェクタ光信号は、前記プロジェクタの画素の各々の画素座標を符号化する複数の光パルスのシーケンスを含む、請求項1〜請求項11の何れか1項に記載の指追跡システム。
- 表示部を含み、前記処理ユニットに接続されたコンピュータシステム、
をさらに含み、
前記コンピュータシステムは、前記ユーザの指の各々の決定された位置情報を前記処理ユニットから受信し、前記ユーザの指の各々の受信した位置情報を前記表示部に表示する、
請求項1〜請求項12の何れか1項に記載の指追跡システム。 - 前記ユーザの指の各々の位置情報を異なる色で前記表示部に表示する、
請求項13に記載の指追跡システム。 - 前記プロジェクタはDLPプロジェクタである、
請求項1〜請求項14の何れか1項に記載の指追跡システム。 - プロジェクタが、時間軸に沿ったプロジェクタ光信号を投影し、前記プロジェクタの画素の各々について、前記プロジェクタの画素の各々の画素座標を含む情報セグメントによって前記時間軸に沿ったプロジェクタ光信号を符号化し、
複数の光センサが、前記時間軸に沿ったプロジェクタ光信号を検出し、前記複数の光センサの各々はユーザの指に装着され、前記複数の光センサの各々は前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成し、
前記複数の光センサの各々に接続されている処理ユニットが、前記複数の光センサの各々から前記センサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、決定した前記ユーザの少なくとも1本の指の位置に基づいて命令を発行する、
ユーザの指を追跡する方法。 - 前記処理ユニットは、前記ユーザの対応する指に装着された光センサから前記センサ信号に対応するプロジェクタ画素を識別することで、前記ユーザの指の各々の位置情報を決定する、
請求項16に記載のユーザの指を追跡する方法。 - 発行された前記命令は、音響または楽音を合成させる、
請求項16または請求項17に記載のユーザの指を追跡する方法。 - 前記ユーザの指の各々の位置情報は、ピアノの複数の鍵盤を含むキーボードの画像と関連して決定される、
請求項16〜請求項18の何れか1項に記載のユーザの指を追跡する方法。 - プロジェクタを使用して、時間軸に沿ったプロジェクタ光信号を投影し、前記プロジェクタの画素の各々について、前記プロジェクタの画素の各々の画素座標を含む情報セグメントによって前記時間軸に沿ったプロジェクタ光信号を符号化し、
複数の光センサを使用して、前記時間軸に沿ったプロジェクタ光信号を検出し、前記複数の光センサの各々はユーザの指に装着され、前記複数の光センサの各々は前記時間軸に沿ったプロジェクタ光信号を検出し、センサ信号を生成し、
前記複数の光センサの各々に接続されている処理ユニットを使用して、前記複数の光センサの各々から前記センサ信号を受信し、前記ユーザの指の各々の位置情報を決定し、決定した前記ユーザの少なくとも1本の指の位置に基づいて命令を発行する、
ユーザの指を追跡する処理をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/164,548 | 2016-05-25 | ||
| US15/164,548 US9830894B1 (en) | 2016-05-25 | 2016-05-25 | Systems and methods for playing virtual music instrument through tracking of fingers with coded light |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017211974A true JP2017211974A (ja) | 2017-11-30 |
Family
ID=60407655
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016225976A Pending JP2017211974A (ja) | 2016-05-25 | 2016-11-21 | ユーザの指を追跡するシステム、方法及びプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US9830894B1 (ja) |
| JP (1) | JP2017211974A (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10809808B2 (en) | 2016-10-14 | 2020-10-20 | Intel Corporation | Gesture-controlled virtual reality systems and methods of controlling the same |
| CN109102784A (zh) * | 2018-06-14 | 2018-12-28 | 森兰信息科技(上海)有限公司 | 一种ar辅助乐器练习方法、系统以及一种智能设备 |
| US10860104B2 (en) | 2018-11-09 | 2020-12-08 | Intel Corporation | Augmented reality controllers and related methods |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05119692A (ja) * | 1991-08-12 | 1993-05-18 | Yamaha Corp | 楽器演奏データ評価装置 |
| JP2008158675A (ja) * | 2006-12-21 | 2008-07-10 | Toyota Motor Corp | 車両用操作装置 |
| JP2010224665A (ja) * | 2009-03-19 | 2010-10-07 | Sony Corp | 光触覚変換システム、及び触覚フィードバックの提供方法 |
| US20150317910A1 (en) * | 2013-05-03 | 2015-11-05 | John James Daniels | Accelerated Learning, Entertainment and Cognitive Therapy Using Augmented Reality Comprising Combined Haptic, Auditory, and Visual Stimulation |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7084859B1 (en) * | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
| US6388181B2 (en) * | 1999-12-06 | 2002-05-14 | Michael K. Moe | Computer graphic animation, live video interactive method for playing keyboard music |
| US7009100B2 (en) * | 2002-08-20 | 2006-03-07 | Casio Computer Co., Ltd. | Performance instruction apparatus and performance instruction program used in the performance instruction apparatus |
| US20110210931A1 (en) * | 2007-08-19 | 2011-09-01 | Ringbow Ltd. | Finger-worn device and interaction methods and communication methods |
| WO2009024971A2 (en) * | 2007-08-19 | 2009-02-26 | Saar Shai | Finger-worn devices and related methods of use |
| US8599132B2 (en) * | 2008-06-10 | 2013-12-03 | Mediatek Inc. | Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules |
| US8760391B2 (en) * | 2009-05-22 | 2014-06-24 | Robert W. Hawkins | Input cueing emersion system and method |
| US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
| US20120262366A1 (en) * | 2011-04-15 | 2012-10-18 | Ingeonix Corporation | Electronic systems with touch free input devices and associated methods |
| US8179604B1 (en) * | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
| WO2013135299A1 (en) * | 2012-03-15 | 2013-09-19 | Cherradi El Fadili Ibrahim Farid | Extending the free fingers typing technology and introducing the finger taps language technology |
| US20140267029A1 (en) * | 2013-03-15 | 2014-09-18 | Alok Govil | Method and system of enabling interaction between a user and an electronic device |
| US9685096B2 (en) * | 2015-01-05 | 2017-06-20 | Fonglui Christopher Ng | Guidance system for learning to play piano |
| US9418637B1 (en) * | 2015-03-20 | 2016-08-16 | claVision Inc. | Methods and systems for visual music transcription |
-
2016
- 2016-05-25 US US15/164,548 patent/US9830894B1/en not_active Expired - Fee Related
- 2016-11-21 JP JP2016225976A patent/JP2017211974A/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05119692A (ja) * | 1991-08-12 | 1993-05-18 | Yamaha Corp | 楽器演奏データ評価装置 |
| JP2008158675A (ja) * | 2006-12-21 | 2008-07-10 | Toyota Motor Corp | 車両用操作装置 |
| JP2010224665A (ja) * | 2009-03-19 | 2010-10-07 | Sony Corp | 光触覚変換システム、及び触覚フィードバックの提供方法 |
| US20150317910A1 (en) * | 2013-05-03 | 2015-11-05 | John James Daniels | Accelerated Learning, Entertainment and Cognitive Therapy Using Augmented Reality Comprising Combined Haptic, Auditory, and Visual Stimulation |
Also Published As
| Publication number | Publication date |
|---|---|
| US20170345403A1 (en) | 2017-11-30 |
| US9830894B1 (en) | 2017-11-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11514923B2 (en) | Method and device for processing music file, terminal and storage medium | |
| US10262642B2 (en) | Augmented reality music composition | |
| US20150131966A1 (en) | Three-dimensional audio rendering techniques | |
| GB2482729A (en) | An augmented reality musical instrument simulation system | |
| Petrović | Augmented and virtual reality web applications for music stage performance | |
| WO2019156091A1 (ja) | 情報処理方法 | |
| JP7458127B2 (ja) | 処理システム、音響システム及びプログラム | |
| JP2017211974A (ja) | ユーザの指を追跡するシステム、方法及びプログラム | |
| US20140310640A1 (en) | Interactive digital art apparatus | |
| Zlatintsi et al. | A web-based real-time kinect application for gestural interaction with virtual musical instruments | |
| Odowichuk et al. | Sensor fusion: Towards a fully expressive 3d music control interface | |
| Willemsen et al. | Resurrecting the tromba marina: A bowed virtual reality instrument using haptic feedback and accurate physical modelling | |
| CN119923862A (zh) | 情境场景增强 | |
| Benson et al. | Soundmorpheus: A myoelectric-sensor based interface for sound spatialization and shaping | |
| Antoshchuk et al. | Creating an Interactive Musical Experience for a Concert Hall. | |
| US20130106689A1 (en) | Methods of operating systems having optical input devices | |
| Barbancho et al. | Human–computer interaction and music | |
| Mittal et al. | MuTable (Music Table): Turn any surface into musical instrument | |
| TWI777771B (zh) | 行動影音裝置及影音播放控制方法 | |
| Löchtefeld et al. | Using mobile projection to support guitar learning | |
| JP7815509B1 (ja) | コンテンツ提供方法および情報処理システム | |
| Winters et al. | New directions for sonification of expressive movement in music | |
| Dziwis et al. | Perspectives on Practical Implementations in the Web-based Musical Metaverse | |
| Zellerbach | The Design and Analysis of Mixed Reality Musical Instruments | |
| Uro | Interaction, Space, and Copresence in Co-Located Mixed Reality |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191024 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200811 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201008 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210316 |