JP7390891B2 - クライアント装置、サーバ、プログラム、及び、情報処理方法 - Google Patents
クライアント装置、サーバ、プログラム、及び、情報処理方法 Download PDFInfo
- Publication number
- JP7390891B2 JP7390891B2 JP2019552691A JP2019552691A JP7390891B2 JP 7390891 B2 JP7390891 B2 JP 7390891B2 JP 2019552691 A JP2019552691 A JP 2019552691A JP 2019552691 A JP2019552691 A JP 2019552691A JP 7390891 B2 JP7390891 B2 JP 7390891B2
- Authority
- JP
- Japan
- Prior art keywords
- client device
- image data
- image
- server
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Veterinary Medicine (AREA)
- Vascular Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
例えば、特開2004-016578号公報には、目的地に設置された送信機と、視覚障害者が携帯した受信機との間の距離を測定することにより、現在地から目的物までの距離を音声で知らせる技術が開示されている。
画像に含まれるオブジェクトに関する音声出力データを生成可能なサーバと接続されるクライアント装置であって、
ユーザの指に装着された少なくとも1つの装着物と、少なくとも1つのオブジェクトと、を含む画像の画像データを取得する手段を備え、
前記画像データを前記サーバに送信する手段を備え、
前記画像に含まれるオブジェクトに関する音声を出力するための音声出力データを前記サーバから受信する手段を備え、
前記音声出力データに基づく音声を出力する手段を備える、
クライアント装置である。
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの概略図である。図2は、図1の情報処理システムの構成を示すブロック図である。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10及びカメラユニット50は、無線通信を介して接続される。
クライアント装置10の構成について説明する。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、マイク、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ、スピーカ、又は、それらの組合せである。
サーバ30の構成について説明する。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・画像オブジェクトの特徴量と言語(例えば、オブジェクト名)との関係に関する学習用データセット
・情報処理において参照されるデータベース
・情報処理の実行結果
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
カメラユニット50の構成について説明する。図3は、図1のカメラユニット50の構成を示す図である。
ユーザは、クリップ50cを自身の衣服に引っ掛けることにより、レンズ50aが自身の正面(つまり、視線の方向)を向くように、カメラユニット50を装着することができる。
ネイルキャップNCの構成について説明する。図4は、図1のネイルキャップの構成を示す図である。
本実施形態の概要について説明する。図5は、本実施形態の概要の説明図である。
クライアント装置10は、取得した画像データをサーバ30に送信する。
サーバ30は、特定した位置に基づいて、オブジェクトOBJ1~OBJ2のうち、ネイルキャップNCに最も近いオブジェクトOBJ1を特定する。
サーバ30は、記憶装置31に記憶された学習用データセットを参照して、特定したオブジェクトOBJ1の特徴量に基づくオブジェクト名(つまり、リンゴ)を推定する。
サーバ30は、推定したオブジェクト名の音声を出力するための音声出力データを生成する。
サーバ30は、生成した音声出力データをクライアント装置10に送信する。
本実施形態の情報処理について説明する。図6は、本実施形態の情報処理のシーケンス図である。図7は、図6のS500の説明図である。図8は、図6のS100の説明図である。図9は、図6のS502の説明図である。
具体的には、イメージセンサ50dは、レンズ50aを通過した光の結像を電気信号に変換することにより、レンズ50aを通過した光に対応する画像データを生成する(図7A)。
カメラコントローラ50eは、イメージセンサ50dによって生成された画像データをクライアント装置10に送信する。
具体的には、プロセッサ12は、ステップS500で送信された画像データに対応する画像IMGがネイルキャップNCに形成されたパターンを含むか否かを判定する。一例として、図8に示すように、ユーザが、レンズ50aの画角の範囲内で右手の親指を立てるジェスチャを行うと、ステップS500で送信された画像データは、右手の親指に装着されたネイルキャップNCのパターン(例えば、テキスト「R1」)の画像を含む。この場合、プロセッサ12は、ネイルキャップNCに形成されたパターンを含むと判定する。
プロセッサ12は、ネイルキャップNCに形成されたパターンを含むと判定した場合、画像解析リクエストデータをサーバ30に送信する。
画像解析リクエストデータは、ネイルキャップNCに形成されたパターンを含む画像IMGの画像データを含む。
具体的には、プロセッサ32は、画像解析リクエストデータに含まれる画像データに対して、特徴量解析を適用することにより、画像IMGに含まれる以下のオブジェクト(ネイルキャップNCの画素、及び、オブジェクトOBJ1~OBJ2の画素)の座標を特定する。
プロセッサ32は、特定した座標に基づいて、画像IMGに含まれるオブジェクトOBJ1~OBJ2のうち、ネイルキャップNCに最も近いオブジェクトOBJ1を特定する。
具体的には、プロセッサ32は、記憶装置31に記憶された学習用データセットを参照して、ステップS300で特定したオブジェクトOBJ1の画素の特徴量に対応するオブジェクト名を推定する。
具体的には、プロセッサ32は、ステップS301で推定されたオブジェクト名と、所定の語句(例えば、主語及び述語)と、によって構成される文章(例えば、「これはリンゴです。」)のテキストデータを生成する。
具体的には、プロセッサ32は、画像解析レスポンスデータをクライアント装置10に送信する。
画像解析レスポンスデータは、ステップS302で生成されたテキストデータを含む。
具体的には、プロセッサ12は、画像解析レスポンスデータに含まれるテキストデータを、当該テキストデータに対応する音声データに変換する。
プロセッサ12は、変換した音声データをカメラユニット50に送信する。
具体的には、カメラコントローラ50eは、ステップS101で送信された音声データに対応する音声を再生する。
図9に示すように、スピーカ50bは、再生された音声(例えば、「これはリンゴです。」)を出力する。
変形例について説明する。変形例は、ユーザのジェスチャに応じた情報処理を実行する例である。
変形例のデータベースについて説明する。図10は、変形例のジェスチャデータベースのデータ構造を示す図である。
・ステップS500でカメラユニット50から送信された画像のサーバ30への送信
・ステップS500でカメラユニット50から送信された画像のサーバ30への送信、且つ、当該画像が添付されたメールの送信
・ステップS500でカメラユニット50から送信された画像が添付されたメールの送信
・ステップS500でカメラユニット50から送信された画像の記憶装置11への記憶(つまり、画像の保存)
・所定のアプリケーションの起動
変形例の情報処理について説明する。図11は、変形例の情報処理のシーケンス図である。図12は、変形例のジェスチャの一例を示す図である。
具体的には、プロセッサ12は、ステップS500で送信された画像データに対応する画像IMGに含まれるネイルキャップNCに形成されたパターンの動きベクトルを特定する。
図12Bに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指、中指、及び、薬指を立てて静止させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指、中指、及び、薬指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」~「R4」)の画像を含み、且つ、動きベクトルは0である。この場合、プロセッサ12は、「右手の人差し指、中指、及び、薬指に装着されたネイルキャップNCのパターンが静止している」と判定する。
図12Cに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指及び中指を立てて上から下に移動させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指及び中指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」及び「R3」)の画像と、当該画像が上から下に移動することを示す動きベクトルと、を含む。この場合、プロセッサ12は、「右手の人差し指及び中指に装着されたネイルキャップNCのパターンが上から下に動いている」と判定する。
図12Dに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指、中指、及び、薬指を立てて下から上に移動させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指、中指、及び、薬指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」~「R4」)の画像と、当該画像が下から上に移動することを示す動きベクトルと、を含む。この場合、プロセッサ12は、「右手の人差し指、中指、及び、薬指に装着されたネイルキャップNCのパターンが下から上に動いている」と判定する。
具体的には、プロセッサ12は、ジェスチャ情報データベース(図10)を参照して、ステップS110で特定した動きベクトルに関連付けられた「アクション」フィールドの情報を特定する。
プロセッサ12は、特定した「アクション」フィールドの情報に対応する処理を実行する。
ステップS110で図12Bのジェスチャが特定された場合、メールの送信が実行される(図10)。
このように、クライアント装置10は、S100で認識されたパターンの組合せに応じた処理を実行する。
ステップS110で図12Dのジェスチャが特定された場合、所定のアプリケーションの起動が実行される(図10)。
このように、クライアント装置10は、S100で認識されたパターン、及び、ネイルキャップNCの動きの組合せに応じた処理を実行する。
本実施形態について小括する。
画像に含まれるオブジェクトに関する音声出力データを生成可能なサーバ30と接続されるクライアント装置10であって、
ユーザ(例えば、視覚障害者)の指に装着された少なくとも1つの装着物(例えば、ネイルキャップNC)と、少なくとも1つのオブジェクトと、を含む画像IMGの画像データを取得する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
画像データをサーバ30に送信する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
画像IMGに含まれるオブジェクトに関する音声を出力するための音声出力データ(例えば、テキストデータ)をサーバ30から受信する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備え、
音声出力データに基づく音声を出力する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備える、
クライアント装置10である。
出力される音声は、オブジェクトの名称を含む、
クライアント装置10である。
画像解析を実行可能なサーバ30と接続されるクライアント装置10であって、
画像データを取得する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
ユーザの指に装着された少なくとも1つの装着物(例えば、ネイルキャップNC)の画像が画像データに含まれているか否かを判定する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
装着物の画像が画像データに含まれている場合、画像データをサーバ30に送信する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
画像データに対する解析結果をサーバ30から受信する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備える、
クライアント装置10である。
取得する手段は、クライアント装置10に接続されたカメラ(例えば、カメラユニット50)、又は、クライアント装置10に配置されたカメラから、画像データを取得する、クライアント装置10である。
取得する手段は、装着物を認識したときに、画像データを取得する、
クライアント装置10である。
取得する手段は、装着物に形成されたパターンを認識したときに、画像データを取得する、
クライアント装置10である。
認識されたパターンの組合せに応じた処理を実行する手段(例えば、ステップS110~S111を実行するプロセッサ12)を備える、
クライアント装置10である。
実行する手段は、前記認識されたパターン、及び、前記装着物の動きの組合せに応じた処理を実行する、
クライアント装置10である。
クライアント装置10と接続されるサーバ30であって、
クライアント装置10から画像データを取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
取得された画像データに対応する画像に含まれるオブジェクトの名称を推定する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備え、
推定されたオブジェクトの名称を含む音声を出力するための音声出力データを生成する手段(例えば、ステップS302の処理を実行するプロセッサ32)を備え、
生成された音声出力データをクライアント装置10に送信する手段(例えば、ステップS303の処理を実行するプロセッサ32)を備える、
サーバ30である。
・図形
・幾何学模様
・凹凸
・カラーバリエーション
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :カメラユニット
50a :レンズ
50b :スピーカ
50c :クリップ
50d :イメージセンサ
50e :カメラコントローラ
Claims (16)
- 画像に含まれるオブジェクトに関する音声出力データを生成するように構成されたサーバと接続されるクライアント装置であって、
前記オブジェクトを含む画像の画像データを取得する手段を備え、
ユーザの指に装着された少なくとも1つの装着物の画像が前記画像データに含まれているか否かを判定する手段を備え、
前記装着物の画像が前記画像データに含まれている場合、前記画像データを前記サーバに送信する手段を備え、
前記画像に含まれるオブジェクトに関する音声出力データを前記サーバから受信する手段を備える、
クライアント装置。 - 前記取得する手段は、前記クライアント装置に接続されたカメラ、又は、前記クライアント装置に配置されたカメラから、前記画像データを取得する、請求項1に記載のクライアント装置。
- 前記送信する手段は、前記装着物を認識したときに、前記画像データを送信する、
請求項1又は請求項2に記載のクライアント装置。 - 前記送信する手段は、前記装着物に形成されたパターンを認識したときに、前記画像データを送信する、請求項3に記載のクライアント装置。
- 前記装着物に形成されたパターンを認識したときに、前記認識されたパターンの組合せに応じた処理を実行する手段を備える、請求項1~請求項4の何れかに記載のクライアント装置。
- 前記実行する手段は、前記認識されたパターン、及び、前記装着物の動きの組合せに応じた処理を実行する、請求項5に記載のクライアント装置。
- 前記取得する手段は、前記ユーザの各指に装着された複数の装着物の画像データを取得する、
請求項1~請求項6の何れかに記載のクライアント装置。 - 前記取得する手段は、前記ユーザの右手及び左手に装着された装着物の画像データを取得する、
請求項7に記載のクライアント装置。 - 前記取得する手段は、前記ユーザの右手の各指及び左手の各指に装着された装着物の画像データを取得する、
請求項8に記載のクライアント装置。 - 前記複数の装着物は、互いに異なるパターンが形成されており、
前記取得する手段は、前記パターンを含む画像データを取得する、
請求項7~請求項9の何れかに記載のクライアント装置。 - 前記取得する手段は、特定の指に装着された装着物の画像データを取得する、
請求項7~請求項10の何れかに記載のクライアント装置。 - 前記ユーザは、視覚障害者である、
請求項1~請求項11の何れかに記載のクライアント装置。 - 画像データを取得する手段と、ユーザの指に装着された少なくとも1つの装着物の画像が前記画像データに含まれているか否かを判定する手段と、前記装着物の画像が前記画像データに含まれている場合、前記画像データを前記サーバに送信する手段と、画像データに対する解析結果を前記サーバから受信する手段と、を備えるクライアント装置と接続されるサーバであって、
前記クライアント装置から前記画像データを取得する手段を備え、
前記取得された画像データに対応する画像に含まれるオブジェクトの名称を推定する手段を備え、
前記推定されたオブジェクトの名称を含む音声を出力するための音声出力データを生成する手段を備え、
前記生成された音声出力データを前記クライアント装置に送信する手段を備える、
サーバ。 - 前記画像における前記装着物の位置及び前記オブジェクトの位置を特定する手段を備え、
前記推定する手段は、前記装着物に最も近いオブジェクトの名称を推定する、
請求項13に記載のサーバ。 - コンピュータを、請求項1~請求項14の何れかに記載の各手段として機能させるためのプログラム。
- コンピュータを用いて、画像に含まれるオブジェクトに関する音声出力データを生成する情報処理方法であって、
ユーザの指に装着された複数のネイルキャップと、少なくとも1つのオブジェクトと、を含む画像の画像データを取得するステップを備え、
前記画像データをサーバに送信するステップを備え、
前記画像に含まれるオブジェクトに関する音声を出力するための音声出力データを前記サーバから受信するステップを備え、
前記音声出力データに基づく音声を出力するステップを備え、
前記複数のネイルキャップに形成されたパターンを認識したときに、前記認識されたパターンの組合せに応じた処理を実行する手段を備える、
情報処理方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017214461 | 2017-11-07 | ||
| JP2017214461 | 2017-11-07 | ||
| PCT/JP2018/039170 WO2019093105A1 (ja) | 2017-11-07 | 2018-10-22 | クライアント装置、サーバ、プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2019093105A1 JPWO2019093105A1 (ja) | 2020-12-17 |
| JP7390891B2 true JP7390891B2 (ja) | 2023-12-04 |
Family
ID=66439157
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019552691A Active JP7390891B2 (ja) | 2017-11-07 | 2018-10-22 | クライアント装置、サーバ、プログラム、及び、情報処理方法 |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP7390891B2 (ja) |
| TW (1) | TW201922186A (ja) |
| WO (1) | WO2019093105A1 (ja) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000293661A (ja) | 1999-04-12 | 2000-10-20 | Nippon Signal Co Ltd:The | 画像認識装置 |
| JP2010267220A (ja) | 2009-05-18 | 2010-11-25 | Nara Institute Of Science & Technology | ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法 |
| JP2010537302A (ja) | 2007-08-19 | 2010-12-02 | リングボウ エルティディ. | 指に装着される装置とその使用方法 |
| JP2011209787A (ja) | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
| US20140253701A1 (en) | 2013-03-10 | 2014-09-11 | Orcam Technologies Ltd. | Apparatus and method for analyzing images |
| JP2016119092A (ja) | 2014-12-19 | 2016-06-30 | イマージョン コーポレーションImmersion Corporation | オブジェクトとの触覚対応相互作用のためのシステム及び方法 |
| JP2016194612A (ja) | 2015-03-31 | 2016-11-17 | 株式会社ニデック | 視覚認識支援装置および視覚認識支援プログラム |
| WO2016199248A1 (ja) | 2015-06-10 | 2016-12-15 | 日立マクセル株式会社 | 情報提示システム及び情報提示方法 |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11284895A (ja) * | 1998-03-31 | 1999-10-15 | Canon Inc | サーバ及びシステム及びクライアント及び制御方法及び記憶媒体 |
| US20160180594A1 (en) * | 2014-12-22 | 2016-06-23 | Hand Held Products, Inc. | Augmented display and user input device |
-
2018
- 2018-10-22 WO PCT/JP2018/039170 patent/WO2019093105A1/ja not_active Ceased
- 2018-10-22 JP JP2019552691A patent/JP7390891B2/ja active Active
- 2018-10-31 TW TW107138498A patent/TW201922186A/zh unknown
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000293661A (ja) | 1999-04-12 | 2000-10-20 | Nippon Signal Co Ltd:The | 画像認識装置 |
| JP2010537302A (ja) | 2007-08-19 | 2010-12-02 | リングボウ エルティディ. | 指に装着される装置とその使用方法 |
| JP2010267220A (ja) | 2009-05-18 | 2010-11-25 | Nara Institute Of Science & Technology | ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法 |
| JP2011209787A (ja) | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
| US20140253701A1 (en) | 2013-03-10 | 2014-09-11 | Orcam Technologies Ltd. | Apparatus and method for analyzing images |
| JP2016119092A (ja) | 2014-12-19 | 2016-06-30 | イマージョン コーポレーションImmersion Corporation | オブジェクトとの触覚対応相互作用のためのシステム及び方法 |
| JP2016194612A (ja) | 2015-03-31 | 2016-11-17 | 株式会社ニデック | 視覚認識支援装置および視覚認識支援プログラム |
| WO2016199248A1 (ja) | 2015-06-10 | 2016-12-15 | 日立マクセル株式会社 | 情報提示システム及び情報提示方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2019093105A1 (ja) | 2019-05-16 |
| TW201922186A (zh) | 2019-06-16 |
| JPWO2019093105A1 (ja) | 2020-12-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11567573B2 (en) | Neuromuscular text entry, writing and drawing in augmented reality systems | |
| Siena et al. | Utilising the intel realsense camera for measuring health outcomes in clinical research | |
| US20220291753A1 (en) | Spatial Gesture Recognition using Inputs from Different Devices to Control a Computing Device | |
| KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
| US20220253146A1 (en) | Combine Inputs from Different Devices to Control a Computing Device | |
| JP6569452B2 (ja) | 画像生成システム、画像生成プログラム及び画像生成方法 | |
| JP2021522564A (ja) | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 | |
| JP2010108500A (ja) | 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法 | |
| JP2012252437A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| CN110549353B (zh) | 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质 | |
| WO2009075433A1 (en) | Data input apparatus and data processing method therefor | |
| WO2012119371A1 (zh) | 一种用户交互系统和方法 | |
| WO2023043646A1 (en) | Providing directional awareness indicators based on context | |
| US20180275766A1 (en) | System, method and apparatus for providing a user interface | |
| JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
| WO2020260085A1 (en) | Method, computer program and head-mounted device for triggering an action, method and computer program for a computing device and computing device | |
| WO2021246134A1 (ja) | デバイス、制御方法及びプログラム | |
| US11656723B2 (en) | Systems and methods for providing on-screen virtual keyboards | |
| JP2015181314A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| CA3151265A1 (en) | Language teaching machine | |
| JP7390891B2 (ja) | クライアント装置、サーバ、プログラム、及び、情報処理方法 | |
| JP2022092558A (ja) | 手話補助システム、装着具、手話補助方法、及び手話補助プログラム。 | |
| KR20220135072A (ko) | 3차원 객체를 저작하는 방법 및 시스템 | |
| JP2021009552A (ja) | 情報処理装置、情報処理方法およびプログラム | |
| WO2021106552A1 (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210825 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220728 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230210 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230727 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231121 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7390891 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |