[go: up one dir, main page]

JP2004177360A - Haptic human navigation system, device used therefor, and method therefor - Google Patents

Haptic human navigation system, device used therefor, and method therefor Download PDF

Info

Publication number
JP2004177360A
JP2004177360A JP2002346686A JP2002346686A JP2004177360A JP 2004177360 A JP2004177360 A JP 2004177360A JP 2002346686 A JP2002346686 A JP 2002346686A JP 2002346686 A JP2002346686 A JP 2002346686A JP 2004177360 A JP2004177360 A JP 2004177360A
Authority
JP
Japan
Prior art keywords
information
destination
user
navigation system
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002346686A
Other languages
Japanese (ja)
Other versions
JP4002970B2 (en
Inventor
Norio Nakamura
則雄 中村
Yukio Fukui
幸男 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2002346686A priority Critical patent/JP4002970B2/en
Publication of JP2004177360A publication Critical patent/JP2004177360A/en
Application granted granted Critical
Publication of JP4002970B2 publication Critical patent/JP4002970B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】ディスプレイや音声ガイドによる視覚・聴覚情報に加えて、触覚感覚・力覚感覚を利用して利用者に進行すべき方向を直感的に理解しやすい形で提示する力覚型ヒューマンナビゲーションシステムを提供する。
【解決手段】誘導用の地図を見ないでも人を目的地に誘導するための装置として、目的地入力装置102、位置・方位測定装置103、地図地理情報記憶装置105、ルート検索装置106、視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、力覚情報入出力装置113、外部記憶装置109、通信装置107を備える。方向感覚提示用デバイスとして、赤外線通信等を介してワイヤレスに制御される掌サイズの力覚情報提示デバイス(力覚情報入出力装置)を実現し、この新規なデバイスを利用して利用者に目的地への方向を直感的に提示する。
【選択図】 図1
[Problem] A haptic human navigation system that presents a user with a direction to proceed in an intuitive and easy-to-understand form using tactile sensation and haptic sensation in addition to visual and audible information by a display and an audio guide. I will provide a.
A device for guiding a person to a destination without looking at a map for guidance includes a destination input device 102, a position / direction measurement device 103, a map geographic information storage device 105, a route search device 106, It includes an information input / output device 110, an auditory information input / output device 111, a tactile information input / output device 112, a haptic information input / output device 113, an external storage device 109, and a communication device 107. As a direction sense presentation device, a palm-sized force information presentation device (force information input / output device) that is wirelessly controlled via infrared communication or the like has been realized. Present the direction to the ground intuitively.
[Selection diagram] Fig. 1

Description

【0001】
【発明の属する技術分野】
本発明は、ヒューマンナビゲーションシステムに関し、特に、力覚情報提示デバイスを利用して人を目的地に誘導する力覚型ヒューマンナビゲーションシステム、それに用いる力覚情報提示デバイス、およびそのヒューマンナビゲーション方法に関する。
【0002】
【従来の技術】
近年、カーナビ(カーナビゲーションシステム)が普及し、その装置の低価格化・高機能化が進んでいる。運転者は運転を始める前に目的地をカーナビ装置に入力すると、ディスプレイ画面上に現在位置、進行方向が表示され、分岐点・交差点においては詳細図がポップアップされたり、音声ガイドが注意を促してくれるサービスを受けることができる。運転者は運転をしながら瞬間的な判断で次への経路を選んでいくことは大変なストレスであり、そのためカーナビは特に初めての地を訪れる時などは抜群の利便性を発揮してくれる。
【0003】
しかし、運転者は運転時に、ディスプレイ画面上に表示された地名・住所やランドマークを手がかりに、地図と現実空間を照合するなどの「地図を読む能力」が必要とされるため、加齢にともなう視力や空間認識力の低下によって、読地図能力の低下や標識などの見落としが増えてくる。また、複雑な交差点にさしかかった時にはディスプレイ画面に詳細図がポップアップされるが、ディスプレイ画面を見るために、運転中に脇見をすることは好ましいことではない。また、5差路や直交していない道路などでは音声ガイドでは十分に説明できない時がある。
【0004】
最近では、カーナビの利便性が認知されるにともない、GPS(Global Positioning System)モジュールが装備できるPDA−GPSやGPS機能が搭載された携帯電話機が発売されるなど、所謂「ヒューマンナビ」「ウォーキングナビ」「ヒトナビ」などと呼ばれる手の平サイズの携帯型ナビゲーション環境が整いつつある。また、カーナビとPDA(Personal Digital Assistant)間でナビ情報(ナビゲーション情報)を共有してカーナビ・ヒトナビが連携したシームレスな環境も提供されてきている。
【0005】
しかしながら、カーナビの運転時の視認性問題と同様に、携帯型のヒトナビを利用する場合にも、ユーザがチラチラとナビの画面に視線を落としながら見知らぬ街を歩くことは容易なことではない。また、ユーザが店舗のショーウィンドウや仲間との会話を楽しみながら目的地を目指す場合には、視覚情報及び聴覚情報だけに頼ったナビは適当ではない。
【0006】
これらの問題を解決するために、視覚や音声によることなくルート案内を行うナビゲーション装置が提案されてきている。例えば、運転中に左折または右折すべき交差点を振動手段によって知らせる装置(特許文献1)や、右折すべき場所でハンドルに右回転の衝撃を与えたり、左右に配置された振動手段のうち右側の振動手段のみを振動させて右折を知らせたりする装置(特許文献2)が提案されている。また、前後左右の4つに可動ペグを配置し、進行方向に対応した可動ペグを上昇させる方向指示キューを備えた触覚方向指示装置(特許文献3)も提案されている。しかし、これらは歩行時の使用には適当ではなく、触覚感覚を用いた方向指示装置は方向分解能が低く、直感的に進行すべき方向が理解し難い。
【0007】
ヒューマンナビゲーションシステムでは、携帯が可能であり、人が歩きながら使用するためにも小型で非接地型が望ましく、方向を指示するには触覚感覚を利用するよりもトルクなどの力覚感覚を用いた方が直感的で理解しやすい。非接地型の力覚情報提示デバイスとしては、ジャイロモーメントとジンバル構造を用いたトルク提示装置が開発され、これと赤外線距離センサを組み合わせた領域提示システムによってバーチャルな壁を知覚させることで人を誘導する方法が提案されている(非特許文献1)。しかし、ジンバル構造では提示できるトルク方向が制限されており、また、構造が複雑になり制御が煩雑となる問題点もある。
【0008】
これに対して、3軸直交座標に配置された3つのジャイロモータの回転を独立に制御することで任意の方向・大きさにトルクを呈示することができる非接地・可搬型の力覚情報提示デバイス(非特許文献2)が提案されている。3つのジャイロモータによって発生された角運動量合成ベクトルを制御することでトルクを発生させているため、構造が比較的に簡単であり、制御も容易である。しかし、質量および慣性モーメントのバランス、人の自然な動きによって発生する擾乱トルクが解決すべき点となっている。
【0009】
【特許文献1】
特開平11−160087号公報
【0010】
【特許文献2】
特開平09−133545号公報
【0011】
【特許文献3】
特開2000−352521号公報
【0012】
【非特許文献1】
吉江 将之、矢野博明、岩田 洋夫、「ジャイロモーメントを用いた非設置型力覚提示装置の開発」、ヒューマンインタフェース学会研究報告集、vol.3, No.5,pp. 25−30 (2000)
【非特許文献2】
田中洋吉、酒井勝隆、河野優香、福井幸男、山下樹里、中村則雄、“MobileTorque Display and Haptic Characteristics of Human Palm”, INTERNATIONAL CONFERENCE ON ARTIFICIAL REALITY AND TELEXISTENCE, pp.115−120(2001/12)
【0013】
【発明が解決しようとする課題】
上述のように、運転時にカーナビの視認性および音声ガイドの理解度が問題であるのと同様に、携帯型のヒューマンナビゲーションシステムを利用する場合にも、チラチラとナビの画面に視線を落としながら見知らぬ街を歩くことは容易なことではなく、また、店舗のショーウィンドウや仲間との会話を楽しみながら目的地を目指す場合には視覚情報及び聴覚情報だけに頼ったナビは適当ではない。
【0014】
そこで、ディスプレイや音声ガイドによる視覚・聴覚情報に加えて、触覚・力覚感覚などを利用して進行すべき方向を直感的に理解しやすい形で提示することが必要である。
【0015】
本発明の目的は、上述のような従来技術の課題に鑑み、ディスプレイや音声ガイドによる視覚・聴覚情報に加えて、力覚感覚を利用して進行すべき方向を直感的に理解しやすい形で提示する力覚型ヒューマンナビゲーションシステム、それに用いる力覚情報提示デバイス、およびそのヒューマンナビゲーション方法を提供することにある。
【0016】
【課題を解決するための手段】
上記目的を達成するため、本発明のヒューマンナビゲーションシステムは、ユーザが目的地の位置情報を入力するための目的地入力手段と、現在位置を測位する位置・方位測定手段と、電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報を予め格納している地図地理情報記憶手段と、前記目的地入力手段から得られる前記目的地の位置情報と前記位置・方位測定手段から得られる前記現在位置の位置情報とを前記地図地理情報記憶手段に格納されている前記地図地理情報に照らし合わせ、最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に最適ルートを検索するルート検索手段と、前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とからユーザが現在進むべき進行方向を算出する演算手段と、前記演算手段で算出された方向の情報に応じてその方向に向かう力をユーザに対し提示することで前記目的地までユーザを誘導する力覚情報出力手段とを有することを特徴とする。
【0017】
ここで、前記演算手段は、検索された前記ルート経路の接線ベクトルおよび法線ベクトルから算出された誘導されるべき方位と、電子コンパスから求められたユーザの体の向きとを比較することで、該ユーザの体の向きに対する誘導すべき角度を求め、求めた該角度を前記ユーザが現在進むべき進行方向として出力することを特徴とすることができる。
【0018】
また、前記演算手段は、前記目的地と前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とから前記目的地までの距離情報を算出し、前記力覚情報出力手段は、前記演算手段で演算された前記目的地までの距離情報を力覚感覚の強度に関連付けて提示することを特徴とすることができる。
【0019】
また、前記力覚情報出力手段は、前記ユーザが現在進むべき方向と共に、前記目的地の方角を提示可能とすることを特徴とすることができる。
【0020】
また、前記力覚情報出力手段は、3次元の任意の方向を指し示すことができ、これにより高さ方向の情報が提示することができ、そのため、地図上では同じ位置で表わされる路面を歩くことと陸橋・歩道橋を歩くこと、地下を歩くことことを区別して誘導することができることを特徴とすることができる。
【0021】
また、前記演算手段で算出された前記ユーザが現在進むべき進行方向の情報に応じて変化する触覚をユーザに対し提示することで前記目的地までユーザを誘導する触覚情報出力手段を更に有することを特徴とすることができる。
【0022】
また、前記触覚情報出力手段は、複数のアクチュエータを備えた触覚情報出力デバイスによって、ナビゲーション用の文字・シンボル・図形などの点字情報を含む触覚情報をを提示することを特徴とすることができる。
【0023】
また、前記演算手段で算出された前記ユーザが現在進むべき進行方向の情報を音声メッセージに変換して伝えることにより前記目的地までユーザを誘導する聴覚情報出力手段を更に有することを特徴とすることができる。
【0024】
また、前記聴覚情報出力手段は、前記現在位置と前記最適ルートを基に、ユーザの誘導に役立つ参考情報を前記地図地理情報記憶手段に格納されている前記地図地理情報から逐次抽出し、抽出した該参考情報を音声に変換して伝えることを特徴とすることができる。
【0025】
また、前記演算手段は、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記聴覚情報出力手段を介して聴覚的に提示することを特徴とすることができる。
【0026】
また、前記地図地理情報記憶手段に格納されている前記地図地理情報から読み出した地図を表示し、前記ルート検索手段で検索された前記最適ルート、前記目的地入力手段から入力された前記目的地、および前記位置・方位測定手段から入力した前記現在位置を前記地図上にマーキングして表示することにより前記目的地までユーザを誘導する視覚情報出力手段を更に有することを特徴とすることができる。
【0027】
また、前記演算手段は、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記視覚情報出力手段を介して視覚的に提示することを特徴とすることができる。
【0028】
また、前記力覚情報出力手段よって提示された力覚情報に同期して、該力覚情報、前記現在位置の位置・方位情報、前記最適ルートの位置・方位情報とを時刻情報と一緒に記録し、該記録情報をいつでも参照可能な外部記憶手段を更に有することを特徴とすることができる。
【0029】
また、前記外部記憶手段は、撮像手段が受像する街並みなどの環境映像と、音響入力手段が収音する会話を含めた環境音とを時刻情報と共に記録することを特徴とすることができる。
【0030】
また、2つ以上の前記ヒューマンナビゲーションシステム間で情報およびデータ交換を行うための通信手段と、通信相手のヒューマンナビゲーションシステムから前記通信手段を介して送られる映像や音声・会話・周囲音をモニターする監視手段と、遠隔地のユーザを目的地まで誘導するための操作情報を入力する情報入力手段と、該情報入力手段から入力された前記操作情報に応じて前記通信手段を介して前記通信相手のヒューマンナビゲーションシステムの出力手段に対して制御情報を出力する制御手段とを更に有することを特徴とすることができる。
【0031】
また、前記監視手段は、前記通信手段を通じて遠隔地にある前記外部記憶手段に記録されている情報を読み出してモニターすることが可能なことを特徴とすることができる。
【0032】
また、前記目的地入力手段は、マウス、入力ペン、デイスプレイ付きタッチパネル等の操作手段を包含し、該操作手段を介して経度・緯度、住所、郵便番号、電話番号の少なくとも1つが入力されることで前記目的地を選択し、該目的地の位置情報を生成することを特徴とすることができる。
【0033】
また、前記位置・方位測定手段は、GPS信号、地磁気方位データ、PHS位置情報データ、ビーコンデータ、近接位置の位置データの少なくともいずれか一つを利用することを特徴とすることができる。
【0034】
また、前記ヒューマンナビゲーションシステムは、GPS受信機、電子コンパス、および地図地理情報が内蔵した携帯電話機、PHS電話機、およびPDAなどのモバイル機器に内蔵されていることを特徴とすることができる。
【0035】
また、前記ヒューマンナビゲーションシステムの前記力覚情報出力手段は、GPS受信機、電子コンパス、および地図地理情報を内蔵した携帯電話機、PHS電話機、およびPDAなどのモバイル機器とは別体の把持可能なデバイスであって、該モバイル機器と無線等の情報伝送手段を介して情報交換が可能なことを特徴とすることができる。
【0036】
また、前記力覚情報出力手段は、3つのジャイロモータ、もしくは重心近くで対峙させた3組のツイン・ジャイロモータ、もしくはジンバル構造のジャイロモータなどの複数個のジャイロモータを独立に制御することで、任意の方向・大きさに角運動量ベクトルを合成し、その時間微分によってトルクを発生させることを特徴とすることができる。
【0037】
また、前記力覚情報出力手段は、前記角運動量ベクトルを円軌道、もしくは楕円軌道、もしくは、単振動軌道に沿ってトレースするように変化させることで前記目的地の方向、もしくは誘導すべき方向、もしくは知りたい方位を提示することを特徴とすることができる。
【0038】
上記目的を達成するため、本発明の力覚情報提示デバイスは、ユーザを目的地に誘導するために、誘導すべき方向と距離とに応じて変化する力をユーザに対し提示する力覚情報提示デバイスであって、3軸上に配置・固定された3つのジャイロモータ、もしくは一対のツイン・ジャイロモータを3組用いてこれらを重心近くで対峙させた3組のツイン・ジャイロモータなどの複数個のジャイロモータと、前記誘導すべき方向と距離の入力情報に応じて、前記複数個のジャイロモータを独立に制御することで、任意の方向・大きさに角運動量ベクトルを合成し、その時間微分によって、前記誘導すべき方向と距離に対応したトルクを発生させる制御手段とを有することを特徴とする。
【0039】
ここで、前記一対のツイン・ジャイロモータは、同一方向、および反対方向に回転させることが可能で、反対方向に回転させることで角運動量の合成が打ち消され、ジャイロモータが回転していても見かけ上は回転していないのと同じ状態になり、トルクを発生させないまま反対方向に高速回転させた状態から片方のジャイロモータだけを電磁ブレーキなどによって急峻な制動をかけることによって大きな角運動量の変化が生じ、大きなトルクを提示することができることを特徴とすることができる。
【0040】
また、前記制御手段は、前記複数個のジャイロモータの前記角運動量ベクトルを円軌道、もしくは楕円軌道、もしくは、単振動軌道に沿ってトレースするように変化させることで、前記目的地の方向、もしくは誘導すべき方向、もしくは知りたい方位を力覚で提示させることを特徴とすることができる。
【0041】
また、前記制御手段は、前記複数個のジャイロモータの前記角運動量ベクトルを円軌道、もしくは楕円軌道、もしくは、単振動軌道に沿ってトレースするように変化させることで、前記目的地の方向、もしくは誘導すべき方向、もしくは知りたい方位を力覚で提示させることを特徴とすることができる。
【0042】
上記目的を達成するため、本発明のヒューマンナビゲーション方法は、目的地の位置情報を入力させる目的地入力ステップと、現在位置を測位する位置・方位測定ステップと、前記目的地の位置情報と前記現在位置の位置・方位情報とを地図地理情報記憶に予め記録されている電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報に照らし合わせ、最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に、最適ルートを検索するルート検索ステップと、前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とから誘導すべき方向を算出する演算ステップと、算出された方向の情報に応じて該方向に力を提示する力覚情報提示デバイスを介して前記目的地までユーザを誘導する力覚提示情報出力ステップとを有することを特徴とする。
【0043】
上記目的を達成するため、本発明のプログラムは、誘導すべき方向と距離とに応じて変化する力をユーザに対し提示する力覚情報提示デバイスを用いてユーザを目的地に誘導するヒューマンナビゲーションをコンピュータで制御するためのコンピュータで読み取り可能なプログラムであって、該プログラムは、目的地の位置情報を入力する目的地入力ステップと、現在位置を測位する位置・方位測定ステップと、前記目的地の位置情報と前記現在位置の位置・方位情報とを地図地理情報記憶装置に予め記録されている電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報に照らし合わせ、最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に最適ルートを検索するルート検索ステップと、前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とから誘導すべき方向とを算出する演算ステップと、算出された方向の情報に応じて変化する力を前記力覚情報提示デバイスを介してユーザに対し提示することで前記目的地までユーザを誘導する力覚提示情報出力ステップとを有することを特徴とする。
【0044】
また、本発明の記録媒体は、前記のプログラムをコンピュータが読み出し可能に記憶したことを特徴とする。
【0045】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0046】
図1は、本発明の一実施形態における力覚型ヒューマンナビゲーションシステム(以下、ハプティックナビと称する)の概略構成を示す。ハプティックナビ100は、目的地入力装置102により目的地の位置情報がユーザにより入力される。入力された目的地の位置情報は位置・方位測定装置103により測位された現在位置情報と比較され、その比較結果と地図地理情報記憶装置105に予め記憶されている電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報をもとに、ルート検索装置106によって、最短時間、最短距離、最低料金、歩行スピードなどの評価基準に照らし合わせて最適ルートの候補が計算される。
【0047】
デイスプレイと撮像デバイスとを含む視覚情報入出力装置110、スピーカとマイクを含む聴覚情報入出力装置111、もしくは触覚情報出力デバイスと触覚センサを含む触覚情報入出力装置112の少なくともいずれか一つに提示された上記最適ルートの候補から、ユーザにより希望する最適ルートが後述の図5に示すような外部入出力装置104を用いて選択される。選択された最適ルートに関する情報がメモリ108に一時記憶される。
【0048】
ユーザ(すなわち、ハプティックナビ100)の移動に伴った現在位置の更新に伴い、CPU101においてユーザの誘導に関する情報が計算され、それにより得られた誘導情報が、視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、および力覚情報提示デバイスと力覚センサとを含む力覚情報入出力装置113の少なくともいずれか一つを介してユーザに提示される。ユーザは提示されたこれらの誘導情報をもとに目的地に無事にたどり着くことができる。
【0049】
特に、力覚情報入出力装置113は、3次元の任意の方向を指し示すことができ、これにより高さ方向の情報が提示することができ、そのため、地図上では同じ位置で表わされる路面を歩くこと、と陸橋・歩道橋を歩くこと、地下を歩くこと、とを区別して誘導することができる。
【0050】
目的地までのルート途中において、視覚情報入出力装置110のカメラ(図示しない)によって撮像された街並みなどの環境映像、聴覚情報入出力装置111のマイク(図示しない)によってユーザが道を尋ねた時の会話や環境音などが収集され、これら環境映像や環境音などが、視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112の少なくともいずれか一つによって提示された情報、および力覚情報入出力装置113によって提示された情報、CPU101の時刻情報、位置・方位測定装置103の位置情報、方位情報、外部入出力装置104の入力情報などと一緒に、メモリカード(図示しない)のような外部記憶装置109に誘導記録情報として記録される。外部記憶装置109に記録された誘導記録情報は、目的地到着後に、通信装置107を介してインターネットに接続された個人のホームサーバなどに自動的に転送・保存することもできる。
【0051】
外部記憶装置109に記録された情報は、ルート途中でも目的地到着後でも、視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、および力覚情報入出力装置113の少なくともいずれか一つを介して参照することができる。
【0052】
通信装置107は、図2で後述するように、遠隔地にある他のハプティックナビとインターネットのような通信回線を介して情報およびデータ交換を行う際に使用される。例えば、目的地の情報を遠隔のハプティックナビから入力したり、外部記憶装置109に逐次記録されている誘導記録情報を通信装置107を介して遠隔地のハプティックナビの視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、および力覚情報入出力装置113の少なくともいずれか一つで参照したりすることができる。また、遠隔地のハプティックナビの視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、および力覚情報入出力装置113の少なくともいずれか一つを介して遠隔地にいる被誘導対象者を適確に誘導することもできる。
【0053】
図2は、2つ以上のハプティックナビ間の通信方法を示す。通信装置107、207と通信回線220を介して、複数のハプティックナビ100、200間で情報およびデータ交換が可能である。通信装置107、207と通信回線220を通じて、遠隔地にあるハプティックナビ200の視覚情報入出力装置210および聴覚情報入出力装置211により収集した遠隔地の街並みの映像や環境音を、通信相手のハプティックナビ100の視覚情報入出力装置110および聴覚情報入出力装置111でモニタしたり、聴覚情報入出力装置111と211を介して遠隔地にいるユーザと音声会話をすることで遠隔地の誘導先の状況を理解し、遠隔操作で遠隔地の視覚情報入出力装置210および聴覚情報入出力装置211に遠隔誘導に必要な情報を提示したり、遠隔地の触覚情報入出力装置212および力覚情報入出力装置213を制御することで、遠隔地にいる被誘導ユーザを正しく目的地まで遠隔誘導することができる。この誘導方法は、視覚障害者、聴覚障害者や、ボケ老人、幼児、あるいは観光客等の誘導などに適している。インターネットに接続されているサーバ(図示しない)にアップロードされたリアルタイムな各種情報などを本発明のハプティックナビで逐次モニタ・検索してダウンロードし、例えばあらたな道路や橋、地下道、鉄道等が開通した、道路工事などである道路が通行止めになっている、お祭りなどのイベントである道路が夕刻まで非常に混雑しているなどの日々変化する、あるいは時々刻々変化する最新情報も適切に反映することができる。同様なことはナビゲーションに関わるアプリケーション・プログラムや機能についても最新版に更新することができる。
【0054】
図3は、図1の目的地入力装置102を用いた目的地の位置情報の入力方法を示す。上記の視覚情報入出力装置110のタッチパネルと一体のディスプレイ(図示しない)に表示された地図画面301上の目的地を、マウス(図示しない)でクリックするか、ペン(図示しない)や指でタッチすることにより目的地(星印と白抜きの矢印で示す)が選択され、目的地の対応する緯度・経度の位置情報が地図地理情報記憶装置105から読み出される。また、視覚情報入出力装置110に表示された「経度・緯度の入力」欄302、「住所による緯度・経度検索」欄303、「郵便番号による緯度・経度検索」欄304、「電話番号による緯度・経度検索」欄305を用いて、位置情報を、後述の図5に示すような外部入手出力装置104や操作キー(図示しない)から入力することもできる。以上の検索内容を聴覚IF902の音声認識を用いて入力することも可能である。
【0055】
図4は、図1の位置・方位測定装置103を用いて位置・方位情報を測定する方法を示す。位置・方位測定装置103は、GPSユニット402、電子コンパスユニット403、PHS(Personal Handyphone System)位置情報サービスユニット404、ビーコンユニット405、近接位置センサユニット406から構成されている。GPSユニット402は、いわゆるGPS(Global Positioning System)信号を受信し、受信したGPSデータが図1のCPU101に送られる。GPS衛星からの信号はアンテナ4021で受信され、RF(無線周波数増幅器)4022で増幅され、デコーダ4023でデコード(復号化)される。同様に、電子コンパスユニット403では測定された地磁気をもとに得られた方位データがCPU101に送られ、PHS位置情報サービスユニット404でアンテナ基地局との通信から得られた位置データがCPU101に送られ、ビーコンユニット405で得られたいわゆるビーコンデータがCPU101に送られる。近接位置センサユニット406では、電磁波、赤外線、超音波などを用いた位置測定機器で測定された位置データがCPU101に送られる。
【0056】
図5は、図1の外部入出力装置104を用いてデータの入力および出力を行う方法を示す。外部入出力装置104の表面の指502が添えられる部分に複数のアクチュエータおよび圧力センサ(例えば、圧電素子)を備えた入出力デバイス501が配置されている。これら入出力デバイス501を指502などで押すことで、視覚情報入出力装置110上のメニュー項目を選択することができる。また、入出力デバイス501は点字ディスプレイなどで使われるペグが取り付けられており、点字情報などを提示することができる。外部入出力装置104として、これらアクチュエータおよび圧力センサなど以外のもの、たとえば電磁スイッチ、マイクロスイッチ、弾性部材等を利用したものを接続しても良い。
【0057】
図6は、図1の地図地理情報記憶装置105を用いて地図および地理情報の読み出し、および書き込み保存を行うときの情報の流れを示す。
【0058】
地図情報ICカード601がセットされると、CPU101を通じて地図地理情報記憶装置105に地図地理情報が記憶され、記憶された地図地理情報はその後、CPU101を介して呼び出され、視覚情報入出力装置110等に出力されることができる。
【0059】
目的地入力装置102から目的地が入力されると、CPU101は地図地理情報記憶装置105から目的地を含む地図を視覚情報入出力装置110に表示し、地図地理情報記憶装置105から目的地設定に関連する参考情報があればそれを読み出して、視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、力覚情報入出力装置113の少なくともいずれか1つに出力する。
【0060】
その後、位置・方位測定装置103で現在位置・方位が入力されると、CPU101はルート検索装置106に制御を渡し、ルート検索装置106はメモリ108に格納してある目的地の位置情報とその入力された位置・方位情報とを地図地理情報記憶装置105に格納されている地図地理情報に照らし合わせ、外部入出力装置104からユーザに入力させた最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に最適ルートの候補を検索し、検索した結果を最適ルートの候補をCPU101に報告する。CPU101は報告された最適ルートの候補を視覚情報入力出力装置110に表示すると共に、その候補情報を聴覚情報入出力装置111、触覚情報入出力装置112の少なくともいずれか一つ、必要ならば力覚情報入出力装置113にも出力する。
【0061】
最適ルートの候補が外部入出力装置104を通じてユーザにより選定されると、CPU101は選定されたルートを視覚情報入出力装置110の表示図面上に太線、フラッシュなどで強調表示すると共に、そのルートについての参考情報を地図地理情報記憶装置105から読み出して、視覚情報入出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、力覚情報入出力装置113の少なくともいずれか1つに出力する。
【0062】
ユーザが移動して、位置・方位測定装置103から入力する現在位置・方位が変わるに従い、逐次、CPU101は視覚情報入力出力装置110の表示図面上のルートの強調表示上の現在位置を移動すると共に、ルート検索装置106が目的地の位置情報と最適ルートの位置・方位情報と現在位置の位置・方位情報とからユーザが現在進むべき進行方向(即ち、誘導方向)と目的地までの距離、および最適な歩行スピードとを算出し、その算出結果をCPU101が視覚情報入力出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、力覚情報入出力装置113の少なくともいずれか1つに出力する。歩行スピードは、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかが上記入出力装置に出力される。同時に、CPU101は地図地理情報記憶装置105からユーザの誘導に役立つ参考情報があればそれを読み出して、読み出した参考情報を視覚情報入力出力装置110、聴覚情報入出力装置111、触覚情報入出力装置112、力覚情報入出力装置113の少なくともいずれか一つに出力する。
【0063】
図7は、図1のルート検索装置106を用いて目的地までのルート検索および誘導情報の計算方法を示す。目的地入力装置102から入力した目的地情報および位置・方位測定装置103から入力する位置情報・方位情報、および地図地理情報記憶装置105から読み出される地図・地理情報をもとに、ルート検索装置106において、最適なルート候補が計算・検索される。
【0064】
最適なルート候補からユーザにより所望のルートが選択され、その選択されたルートの経路軌跡701上の現在位置702における接線ベクトル703および法線ベクトルが、ルート検索装置106において、微分や差分などによって求められる。接線ベクトル703はその地点での進行方向を示しており、また、法線ベクトル(図示しない)の反対のベクトルがカーブを曲がるための求心力、つまり、物体の進行方向を力学的に修正するために必要な力ベクトルを意味している。そのため、人を誘導するために必要な方位情報は、人間の感覚特性を考慮して、この接線ベクトルおよび法線ベクトルから算出される。
【0065】
【外1】

Figure 2004177360
【0066】
さらに、ルート検索装置106において、電子コンパスユニット403などから求められたユーザの体の向き704と接線ベクトル703および法線ベクトルが比較されて、それによりユーザの体の向きに対する誘導すべき角度705が求められる。
【0067】
人は、車とは異なり、装置で決定された経路をなぞるように歩くことはなく、路上の障害物や人を避けたり、目を引くものには近づいたりしながら目的地を目指す。つまり、ユーザは、目的地に向かって、カーナビ用およびヒューマンナビ用の電子地図で探索された経路以外を歩くことも行うため、目的地の大まかな方向706が提示されるだけでも十分に利用価値があると考えられる。
【0068】
目的地までの距離情報も図1の力覚感覚入出力装置113の力覚感覚の強度に関連付けることができる。例えば、音源に近づけば音量が大きくなるように、目的地に近づけば力覚感覚の強度が大きくなる提示の仕方や、反対に、目的地を起点にしてゴムを伸ばした時のように目的地から遠くなれば強度が大きくなるという提示の仕方がある。この2通りのやり方は、それぞれに一長一短があり、前者の場合は、犬が臭いを頼りに探索するように自然法則に合致しているが、遠くに離れて目視が難しい時ほど力覚強度が弱くなり、迷いやすいという問題点もあるが、例えば、力覚感覚出力の最大強度および最小強度を予め設定し、力覚感覚出力が最大強度を超えないように、かつまた最小強度よりも小さくならないように制御することで、効果的な提示も可能である。また、距離に依存させず一定の力覚強度を提示する方法もある。
【0069】
図8は、図1の視覚情報入出力装置110を用いたナビゲーション情報の提示方法および街並みなどの環境映像を記録する方法を示す。図8の(A)は、視覚情報入出力装置110の全方位型の環境映像の記録方法の一構成例を示し、同図に示すように、360度視野角の環境映像801が液晶ディスプレイ805の例えば裏面等に取り付けた円錐形反射鏡802を介してCCDカメラ803で読み込まれる。読み込まれた環境映像のデータは、視覚IF(インターフェース装置)804を介してCPU101に送られて利用されたり、図1の外部記憶装置109に記録される。また、ナビゲーション用の地図301(図3参照)および情報が液晶ディスプレイ805に提示される。
【0070】
図8の(B)は、視覚情報入出力装置110の単方位型の環境映像の記録方法の一構成例を示し、上記の円錐形反射鏡802とCCDカメラ803の代わりに、単一のCCDカメラ806に置換した構成のものである。この場合は、一方向の環境映像がCCDカメラ806により読み込まれ、読み込まれた環境映像のデータは、上記と同様に、視覚IF804を介してCPU101に送られて利用されたり、外部記憶装置109に記録される。
【0071】
図9は、図1の聴覚情報入出力装置111を用いてナビゲーション用音声ガイドおよび報知音・警告音などの音響情報を提示する方法および環境音を記録する方法を示す。聴覚情報入出力装置111は、マイクロフォン901、聴覚IF(インターフェース装置)902、スピーカ903を有する。音響および音声ガイドは聴覚IF902で合成され、スピーカ903を介してユーザに提示される。環境音はマイクロフォン901および聴覚IF902を介して、CPU101に送られて利用されたり、外部記憶装置109に記録される。聴覚IF902の音声認識機能を用いて入力装置にもなる。
【0072】
図10は、図1の触覚情報入出力装置112を用いてナビゲーション用点字情報の提示方法を示す。入出力デバイス1001は図5に示した外部入出力装置104の入出力デバイス501と同一物とすることもできる。触覚情報入出力装置112の表面の指が添えられる部分に複数のアクチュエータおよび圧力センサを備えた入出力デバイス1001が配置されている。この入出力デバイス1001は点字ディスプレイなどで使われるペグが取り付けられており、CPU101から送られてきたナビゲーション用情報が触覚IF(インターフェース装置)1002を介して駆動力に変換されて入出力デバイス1001に送られ、点字による文字・シンボル・図形を含む点字情報などの触覚情報によって提示することができる。
【0073】
図11は、図1の力覚情報入出力装置113を用いてナビゲーション用力覚情報を提示する方法を示す。力覚情報の提示には、空間に配置・固定された複数個のジャイロモータ1101を力覚IF(インターフェース装置)1102を介して各ジャイロモータを独立に駆動制御することで、任意の方向・大きさに角運動量ベクトルを合成し、その時間微分によってトルクを発生させることができる。この時、複数のジャイロモータ1101はx、y、z系の直交座標に固定される方が効率的である。力覚情報入出力装置113の姿勢・位置情報はその内部の姿勢・位置情報センサ1103によって測定され、力覚情報入出力装置113自身の動きによって発生する擾乱トルクがCPU101によって計算され、力覚IF1102を介して擾乱トルクがキャンセルするように複数のジャイロモータ1101が制御される。姿勢・位置情報センサ1103には歩くピッチを測定するための振動センサ(図示しない)が含まれる。
【0074】
図12は、力覚情報入出力装置113のトルク発生手段として、3個のジャイロモータ1101を利用したデバイス1201を示す。x軸、y軸、z軸に固定された3個の回転子の回転数 ω、ω、ω を独立に制御して、それぞれの回転子が発生する角運動量を合成することで、任意の方向に角運動量ベクトルを発生させる。そして、モータを加減速させた時に伴う角運動量の変化によって発生するトルクの反作用として外部にトルクを取り出す。
【0075】
【外2】
Figure 2004177360
【0076】
ここで、x、y、z軸方向の角速度の比ω:ω:ωを変えることで任意の方向に角運動量ベクトルの発生方向を制御することができる。この制御方法は制御が容易であり、変化に富んだ3次元力覚感覚を提示できる利点がある。
【0077】
このように、3個のジャイロモータ1101を利用したデバイス1201は、3次元の任意の方向を指し示すことができ、これにより高さ方向の情報が提示することができので、前述のように、地図上では同じ位置で表わされる路面を歩くことと、陸橋・歩道橋を歩くこと、地下を歩くこと、とを区別して誘導することができる利点を有する。
【0078】
図13は、力覚情報入出力装置113のトルク発生手段として、3組のツイン・ジャイロモータ1101を利用した力覚情報提示デバイス1301を示す。図13の(A)はその力覚情報提示デバイス1301の構成の原理を示す模式図であり、図13の(B)と(C)は実際に作成したデバイス1301の詳細な構成を示し、同図(B)はモータ固定用のフレーム1302に相当するハウジング(筐体)1304のみを断面の切り欠きで示した正面図、同図(C)はその平面図である。1303はジャイロモータ1101の電動モータ部分であり、1305は支持部材、1306は指示枠材である。フレーム1302は例えば円筒形、あるいは球形に形成され、ユーザの手に握られる。
【0079】
図12の例では3個のモータ1101が同図に示すようにねじれの位置に配置させていたが、質量バランスや慣性モーメントの向上を図るために、図13に示すように慣性質量部分を重心近くで対峙させた3組のツイン・ジャイロモータ方式のデバイスを本発明者らは考え出した。また、モータ固定用のフレーム1302、1304の形状も、フレーム自体の慣性モーメントが小さくなるように、図12に示すような立方体形状1202から点対称構造である球形に近づけた。慣性質量を重心に集中させることで、人の動きで生じる余計な慣性力の低減を図っている。このツイン・ジャイロモータは、同一方向、および反対方向に回転させることが可能で、反対方向に回転させることで角運動量の合成が打ち消され、ジャイロモータが回転していても見かけ上は回転していないのと同じ状態になり、トルクを発生させないまま反対方向に高速回転させた状態から片方のジャイロモータだけを電磁ブレーキなどによって急峻な制動をかけることによって大きな角運動量の変化が生じ、大きなトルクを提示することができる。
【0080】
図14は、力覚情報入出力装置113のトルク発生手段として、ジンバル構造1402を用いたデバイス1401を示す。ジャイロスコープのようにジンバル構造1402を用いて角速度ωで回転する回転子1403の姿勢を2つのジンバル軸1404、1405の周りに回転角Ω、Ωで制御する。この構成では、大きな1つのジャイロモータを使用するので、図12および図13に示した構成に比べて比較的大きなトルクを発生させることができるが、構造が複雑になったり、力学的強度が低下したり、提示できるトルクに制限がある。
【0081】
図15と図16は、図1の通信装置107を用いたハプティックナビ100の利用形態を示す。ハプティックナビ100の第1の利用形態としては、図15に示すように、GPS受信機、電子コンパス、および地図地理情報が内蔵された携帯電話機、PHS電話機、およびPDAなどのモバイル機器にハプティックナビ100を内蔵させた一体型モバイル機器1501が挙げられる。
【0082】
ハプティックナビ100の第2の利用の形態としては、図16に示すように、GPS受信機、電子コンパス、および地図地理情報が内蔵された携帯電話機、PHS電話機、およびPDAなどのモバイル機器1602と、それとは別個の1つのケースに納めたハプティックナビ100の少なくとも入出力装置部分1601とを、通信装置107A、107Bを介して電波、赤外線、超音波、ケーブル、コネクタなどの伝送手段で接続する別体型の形態が挙げられる。
【0083】
ここでは、第1の利用形態である一体型モバイル機器1501が扱いやすく望ましいが、力覚情報入出力が内蔵されたデバイス自身の重量が増えると力覚情報を提示した時のトルクに対する感覚が低下するので、第2の利用形態である分離型デバイス1601も効果的である。
【0084】
図17は、図1の力覚情報入出力装置113を用いて力覚情報を提示する方法およびその制御方法の1例を示す。角運動量ベクトルを図17の(A)に示すように円軌道1701をトレースするように変化させ、また、図17の(B)に示すように、楕円軌道1702をトレースするように変化させることで目的地の方向1703や誘導すべき方向や知りたい方位を提示することができる。ここで、単振動軌道は楕円軌道1702に含まれる。
【0085】
(他の実施の形態)
以上、本発明の実施形態を詳述したが、本発明は、前述した実施形態の機能を実現するソフトウエアのプログラムを、システム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータがその供給されたプログラムを読み出して実行することによっても達成される場合を含む。プログラムを供給するための記録媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM、DVD(DVD−ROM、DVD−R)などがある。
【0086】
【発明の効果】
以上説明したように,本発明によれば、ディスプレイや音声ガイドによる視覚・聴覚情報に加えて、力覚感覚を利用して進行すべき方向を直感的に理解しやすい形で提示する力覚型ヒューマンナビゲーションシステムが実現できる。
【0087】
よって、本発明のヒューマンナビゲーションシステムを用いれば、次の効果が得られる。
(1)霧の中や暗闇などの視界が悪い場所でもナビゲーションシステムの利用が効果的になる。
(2)森林・原野などのランドマークがない場所でもナビゲーションシステムの利用が効果的になる。
(3)地震によってビルなどが倒壊した場合の災害時においても有効である。
(4)更に、視覚情報提示装置・聴覚情報提示装置・触覚情報提示装置・力覚情報提示装置の少なくともいずれか一つとそれ以外の装置群をワイヤレスに接続することで装着感・操作性を向上させることができる。
【0088】
このように、本発明のヒューマンナビゲーションシステムは、視覚障害者、聴覚障害者および晴眼者にも効果的な誘導デバイスである。また、本発明のヒューマンナビゲーションシステムは、人を目的地に誘導する他に、ロボットの誘導およびカーナビとしても利用することができる。
【0089】
また、ヒューマンナビゲーションシステムで用いる本発明の力覚情報提示デバイスとしては、以下の利点がある。
(a)制御方式として、複数のジャイロモータを独立に制御することで、任意の方向・大きさに角運動量ベクトルを合成し、その時間微分によってトルクを発生させる方法を用いているため、制御が容易であり、変化に富んだ3次元力覚感覚を提示できる。
(b)また、慣性質量部分を重心近くで対峙させた3組のツイン・ジャイロモータ方式を用いたり、モータ固定用のフレーム形状を点対称構造である球形に近づけることで、質量バランスや慣性モーメントが向上している。慣性質量を重心に集中させることで、人の動きで生じる余計な慣性力の低減が図られている。
(c)ジンバル構造を用いた場合には、ジンバル構造自身が余計な慣性モーメントを持ち擾乱トルクを発生させる。また、ジンバルの可動部分の構造が煩雑となる。これに対して、本発明の複数のジャイロモータを固定した方法では、構造が単純となり、力学的に強い強度が得られる。また、小型化した場合にも構造が単純なため加工が容易である。
(d)非接地型のため、従来のように接地用アームやワイヤが不要であり、身体の動きを拘束しない。複数の力覚情報入出力装置が干渉せずに共存できる。ユーザの動作・行動への制限が少なく、小型・携帯性に優れており、屋内・屋外を含む広範囲での使用が可能である。
【図面の簡単な説明】
【図1】本発明の一実施形態の力覚型ヒューマンナビゲーションシステム(ハプティックナビ)の概略構成を示すブロック図である。
【図2】2つ以上のハプティックナビ間の通信方法を説明するブロック図である。
【図3】図1の目的地入力装置を用いて目的地の位置情報を入力する方法を説明する平面図である。
【図4】位置・方位情報を測定する図1の位置・方位測定装置の構成例を示すブロック図である。
【図5】図1の外部入出力装置を用いてデータの入力および出力を行う方法を説明する概念図である。
【図6】図1の地図地理情報記憶装置を用いて地図および地理情報の読み出し、および書き込み保存を行うときの情報の流れを示すブロック図である。
【図7】図1のルート検索装置を用いて目的地までのルート検索および誘導情報の計算を行う方法を説明する概念図である。
【図8】ナビゲーション情報を提示および街並みなどの環境映像を記録する図1の視覚情報入出力装置の構成例を示すブロック図である。
【図9】ナビゲーション用音響および音声ガイド情報を提示し、環境音を記録する図1の聴覚情報入出力装置の構成例を示すブロック図である。
【図10】図1の触覚情報入出力装置を用いてナビゲーション用点字情報などの触覚情報を提示する方法を説明する概念図である。
【図11】図1の力覚情報入出力装置を用いてナビゲーション用力覚情報を提示する方法を説明する概念図である。
【図12】図1の力覚情報入出力装置のトルク発生手段として、3つのジャイロモータを利用した構成例を示す模式図である。
【図13】図1の力覚情報入出力装置のトルク発生手段として、3組みのジャイロモータを利用した構成例を示し、(A)は模式図、(B)はハウジングのみ切り欠きで示した力覚情報提示デバイスの正面図、(C)は同じく平面図である。
【図14】図1の力覚情報入出力装置のトルク発生手段として、ジンバル構造を利用した構成例を示す模式図である。
【図15】図1のハプティックナビの利用形態として一体型ユニットの一例を示す概念図である。
【図16】図1のハプティックナビの別の利用形態として通信装置を用いた分離型ユニットの一例示す概念図である。
【図17】図1の力覚情報入出力装置を用いて力覚情報を提示する方法および制御する方法を説明する概念図である。
【符号の説明】
100 ハプティックナビ(力覚型ヒューマンナビゲーションシステム)
101 CPU
102 目的地入力装置
103 位置・方位測定装置
104 外部入出力装置
105 地図地理情報記憶装置
106 ルート検索装置
107 通信装置
108 メモリ
109 外部記憶装置
110 視覚情報入出力装置
111 聴覚情報入出力装置
112 触覚情報入出力装置
113 力覚情報入出力装置
210 視覚情報入出力装置
211 聴覚情報入出力装置
213 力覚情報入出力装置
301 地図画面
302 経度・緯度の入力表示欄
303 住所による緯度・経度検索表示欄
304 郵便番号による緯度・経度検索表示欄
305 電話番号による緯度・経度検索表示欄
402 GPSユニット
403 電子コンパスユニット
404 PHS位置情報サービスユニット
405 ビーコンユニット
406 近接位置センサユニット
501 入出力デバイス
701 ルートの経路軌跡
702 現在位置
703 接線ベクトル
704 ユーザの体の向き
705 誘導すべき角度
801 環境映像
802 円錐形反射鏡
803 CCDカメラ
804 視覚IF
805 液晶ディスプレイ
806 CCDカメラ
901 マイクロフォン
902 聴覚IF
903 スピーカ
1001 入出力デバイス
1002 触覚IF
1101 ジャイロモータ
1102 力覚IF
1103 姿勢・位置情報センサ
1201 3つのジャイロモータを利用した力覚情報提示デバイス
1301 3組のツイン・ジャイロモータを利用した力覚情報提示デバイス
1401 ジンバル構造を利用した力覚情報提示デバイス
1402 ジンバル構造
1403 角速度ωで回転する回転子
1404 回転角Ωのジンバル軸
1405 回転角Ωのジンバル軸
1501 ハプティックナビがモバイル機器に内蔵された形態のデバイス
1601 ハプティックナビがモバイル機器と分離した形態のデバイス
1701 角運動量ベクトルの円軌道
1702 角運動量ベクトルの楕円軌道
1703 目的地の方向[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a human navigation system, and more particularly to a haptic human navigation system that guides a person to a destination using a haptic information presentation device, a haptic information presentation device used therefor, and a human navigation method therefor.
[0002]
[Prior art]
2. Description of the Related Art In recent years, car navigation systems (car navigation systems) have become widespread, and their devices have been reduced in price and advanced in function. If the driver inputs the destination to the car navigation system before starting driving, the current position and the traveling direction are displayed on the display screen, and at the junction / intersection, a detailed map will pop up, or a voice guide will alert you You can receive the service that gives. It is very stressful for the driver to select the next route based on an instantaneous decision while driving, so the car navigation system offers outstanding convenience especially when visiting the first time.
[0003]
However, drivers are required to have the ability to read maps, such as matching maps with real space, based on place names, addresses, and landmarks displayed on the display screen when driving. The accompanying deterioration in visual acuity and spatial cognition leads to a decrease in map reading ability and oversight of signs and the like. In addition, when a complicated intersection is approached, a detailed view pops up on the display screen, but it is not preferable to look aside while driving to view the display screen. In addition, there is a case where a voice guide cannot sufficiently explain a five-way road or a road that is not orthogonal.
[0004]
Recently, with the recognition of the convenience of car navigation, so-called “human navigation”, “walking navigation”, and the like, PDA-GPS capable of being equipped with a GPS (Global Positioning System) module and mobile phones equipped with GPS functions have been released. A palm-sized portable navigation environment called "human navigation" is being prepared. Further, a seamless environment in which car navigation and human navigation cooperate by sharing navigation information (navigation information) between the car navigation and a PDA (Personal Digital Assistant) has been provided.
[0005]
However, similarly to the visibility problem at the time of driving a car navigation system, it is not easy for a user to walk in an unknown city while dropping his gaze on the screen of the flicker and the navigation system when using a portable human navigation system. Further, when the user aims at a destination while enjoying a show window of a store or a conversation with a friend, a navigation relying only on visual information and auditory information is not appropriate.
[0006]
In order to solve these problems, navigation devices that provide route guidance without using visual or audio have been proposed. For example, a device that informs an intersection to be turned left or right by a vibration means during driving (Patent Literature 1), a right-handed impact is given to a steering wheel at a place where a right turn is required, A device that vibrates only the vibrating means to notify a right turn (Patent Document 2) has been proposed. In addition, a tactile direction indicator (Patent Document 3) has been proposed in which movable pegs are arranged at four front, rear, left, and right sides, and provided with a direction indication cue for raising the movable peg corresponding to the traveling direction. However, these are not suitable for use during walking, and a direction pointing device using a tactile sensation has low directional resolution, and it is difficult to intuitively understand the direction in which to proceed.
[0007]
The human navigation system is portable, and it is desirable that it is small and non-grounded for use while walking while walking.It uses a force sense such as torque to indicate the direction rather than using the tactile sense. It is more intuitive and easier to understand. As a non-grounded force information presentation device, a torque presentation device using a gyro moment and a gimbal structure has been developed, and a human is guided by perceiving a virtual wall using an area presentation system that combines this with an infrared distance sensor. (Non-Patent Document 1). However, the gimbal structure has a problem in that the torque direction that can be presented is limited, and the structure is complicated and control is complicated.
[0008]
On the other hand, non-grounding / portable force sense information presentation in which torque can be presented in any direction and magnitude by independently controlling the rotation of three gyro motors arranged in three-axis orthogonal coordinates. A device (Non-Patent Document 2) has been proposed. Since the torque is generated by controlling the combined angular momentum vectors generated by the three gyro motors, the structure is relatively simple and the control is easy. However, the balance between the mass and the moment of inertia, the disturbance torque generated by the natural movement of the person, is a point to be solved.
[0009]
[Patent Document 1]
JP-A-11-160087
[0010]
[Patent Document 2]
JP 09-133545 A
[0011]
[Patent Document 3]
JP 2000-352521 A
[0012]
[Non-patent document 1]
Masayuki Yoshie, Hiroaki Yano, Hiroo Iwata, "Development of Non-installed Force Haptic Device Using Gyro-Moment", Research Reports of Human Interface Society, vol. 3, No. 5, pp. 25-30 (2000)
[Non-patent document 2]
Yokichi Tanaka, Katsutaka Sakai, Yuka Kono, Yukio Fukui, Juri Yamashita, Norio Nakamura, "Mobile Torque Display and Haptic Characteristics of Human Palm", INTERNAL INTERNATIONAL CONNECTION CONNECTION INTERNATIONAL INTERNATIONAL INTERNATIONAL SERVICE 115-120 (2001/12)
[0013]
[Problems to be solved by the invention]
As described above, just as the visibility of the car navigation system and the level of understanding of the voice guide when driving are a problem, even when using a portable human navigation system, it is difficult to see while glancing at the flickering and navigating screens. It is not easy to walk around the city, and when aiming at a destination while enjoying a shop window or a conversation with friends, a navigation relying only on visual information and auditory information is not appropriate.
[0014]
Therefore, in addition to visual and auditory information by a display and a voice guide, it is necessary to present a direction to be advanced in a form that is easy to intuitively understand using a tactile sense, a force sense and the like.
[0015]
SUMMARY OF THE INVENTION In view of the above-described problems of the related art, an object of the present invention is to make it easy to intuitively understand the direction in which the vehicle should proceed by using a force sense, in addition to visual and auditory information by a display and an audio guide. It is an object of the present invention to provide a haptic human navigation system for presentation, a haptic information presentation device used for the system, and a human navigation method thereof.
[0016]
[Means for Solving the Problems]
In order to achieve the above object, a human navigation system according to the present invention includes a destination input unit for a user to input position information of a destination, a position / direction measuring unit for measuring a current position, a train, a subway, and a bus. Map geographic information storage means storing in advance map timetable and transfer information, and map geographic information including a three-dimensional map of a station yard or a station building, and the position information of the destination obtained from the destination input means And the position information of the current position obtained from the position / azimuth measuring means is compared with the map geographic information stored in the map geographic information storage means, and the shortest time, the shortest distance, the lowest fee, the walking speed, etc. A route search means for searching for an optimum route based on the evaluation criteria, and a user searching for the optimum route based on the position / direction information of the optimum route and the position / direction information of the current position. Calculating means for calculating a traveling direction to be advanced, and force sense information outputting means for guiding a user to the destination by presenting a user with a force directed in the direction according to the information on the direction calculated by the calculating means And characterized in that:
[0017]
Here, the calculation means compares the direction to be calculated calculated from the tangent vector and the normal vector of the searched route route with the orientation of the user's body determined from the electronic compass, An angle to be guided with respect to the orientation of the body of the user may be obtained, and the obtained angle may be output as a traveling direction to which the user should currently proceed.
[0018]
Further, the calculating means calculates distance information to the destination from the position and orientation information of the destination and the optimal route and the position and orientation information of the current position, and the force information output means, The distance information to the destination calculated by the calculation means may be presented in association with the strength of the haptic sensation.
[0019]
In addition, the force sense information output unit can present the direction of the destination together with the direction in which the user should be proceeding.
[0020]
Further, the force sense information output means can indicate an arbitrary three-dimensional direction, whereby information in a height direction can be presented, and therefore, walking on a road surface represented by the same position on a map can be performed. It is possible to distinguish between walking on an overpass / pedestrian bridge and walking underground.
[0021]
In addition, the apparatus further includes a haptic information output unit that guides the user to the destination by presenting the user with a haptic sense that changes in accordance with information on a traveling direction that the user should currently proceed calculated by the arithmetic unit. It can be a feature.
[0022]
The tactile information output means may present tactile information including braille information such as characters, symbols, and graphics for navigation by a tactile information output device including a plurality of actuators.
[0023]
Further, the information processing apparatus further comprises an auditory information output unit that guides the user to the destination by converting the information on the traveling direction that the user should be going to be calculated by the arithmetic unit into a voice message and transmitting the voice message. Can be.
[0024]
Further, the auditory information output means sequentially extracts and extracts reference information useful for guiding a user from the map geographic information stored in the map geographic information storage means, based on the current position and the optimal route. The reference information may be converted into voice and transmitted.
[0025]
Further, the calculating means estimates a stride from a walking pitch measured by a vibration sensor and a moving speed determined from the position information, and estimates a walking pitch at which the destination can be reached in a required time in the stride. At least one of the optimal target walking speed, the current walking speed, and the insufficient speed in consideration of the transfer is presented audibly via the auditory information output means.
[0026]
Further, a map read from the map geographic information stored in the map geographic information storage means is displayed, the optimum route searched by the route search means, the destination input from the destination input means, And a visual information output means for guiding the user to the destination by marking and displaying the current position input from the position / azimuth measurement means on the map.
[0027]
Further, the calculating means estimates a stride from a walking pitch measured by a vibration sensor and a moving speed determined from the position information, and estimates a walking pitch at which the destination can be reached in a required time in the stride. At least one of the optimal target walking speed, the current walking speed, and the insufficient speed in consideration of the transfer is visually presented through the visual information output means.
[0028]
Further, in synchronization with the force information presented by the force information output means, the force information, the position / direction information of the current position, and the position / direction information of the optimal route are recorded together with time information. In addition, the information processing apparatus may further include an external storage unit that can refer to the recording information at any time.
[0029]
Further, the external storage means may record an environmental image such as a cityscape received by the imaging means and an environmental sound including a conversation collected by the sound input means, together with time information.
[0030]
A communication unit for exchanging information and data between the two or more human navigation systems; and a monitor of a video, a voice, a conversation, and an ambient sound sent from the communication partner human navigation system via the communication unit. Monitoring means, information input means for inputting operation information for guiding a remote user to the destination, and the communication partner of the communication partner via the communication means according to the operation information input from the information input means. Control means for outputting control information to the output means of the human navigation system.
[0031]
Further, the monitoring means can read out information recorded in the external storage means at a remote place through the communication means and can monitor the information.
[0032]
The destination input means includes operation means such as a mouse, an input pen, and a touch panel with a display, and at least one of longitude / latitude, address, postal code, and telephone number is input via the operation means. And selecting the destination and generating position information of the destination.
[0033]
The position / azimuth measuring means may use at least one of a GPS signal, geomagnetic azimuth data, PHS position information data, beacon data, and position data of a proximity position.
[0034]
Further, the human navigation system can be characterized in that it is built in a mobile device such as a mobile phone, a PHS phone, and a PDA in which a GPS receiver, an electronic compass, and map geographic information are built.
[0035]
Further, the force information output means of the human navigation system is a grippable device separate from a mobile device such as a mobile phone, a PHS phone, and a PDA incorporating a GPS receiver, an electronic compass, and map geographic information. Wherein information can be exchanged with the mobile device via information transmission means such as wireless.
[0036]
Further, the force sense information output means independently controls a plurality of gyro motors such as three gyro motors, or three twin gyro motors facing each other near the center of gravity, or a gyro motor having a gimbal structure. , An angular momentum vector is synthesized with an arbitrary direction and magnitude, and a torque is generated by a time derivative thereof.
[0037]
Further, the force sense information output means, the angular momentum vector is circular orbit, or elliptical orbit, or by changing so as to trace along a simple oscillation orbit, the direction of the destination, or the direction to be guided, Alternatively, it can be characterized by presenting a desired direction.
[0038]
In order to achieve the above object, a haptic information presentation device of the present invention provides a haptic information presentation device that presents a user with a force that varies according to the direction and distance to be guided in order to guide the user to a destination. A plurality of devices such as three gyromotors arranged and fixed on three axes, or three sets of twin gyromotors using three pairs of twin gyromotors and facing them near the center of gravity. The gyro motor and the plurality of gyro motors are independently controlled in accordance with the input information of the direction and distance to be guided, so that an angular momentum vector is synthesized in an arbitrary direction and magnitude, and its time derivative is calculated. Control means for generating a torque corresponding to the direction and distance to be guided.
[0039]
Here, the pair of twin gyro motors can be rotated in the same direction and in the opposite direction, and the rotation in the opposite direction cancels out the synthesis of angular momentum, so that even if the gyro motor is rotating, it is apparent. The upper part is in the same state as not rotating, and from the state where it is rotated at high speed in the opposite direction without generating torque, only one gyro motor is sharply braked by electromagnetic brake etc. And a large torque can be presented.
[0040]
Further, the control means changes the angular momentum vector of the plurality of gyromotors so as to trace along a circular orbit, or an elliptical orbit, or a simple oscillation trajectory, so that the direction of the destination, or The present invention can be characterized in that a direction to be guided or a direction to be known is presented by force.
[0041]
Further, the control means changes the angular momentum vector of the plurality of gyromotors so as to trace along a circular orbit, or an elliptical orbit, or a simple oscillation trajectory, so that the direction of the destination, or The present invention can be characterized in that a direction to be guided or a direction to be known is presented by force.
[0042]
In order to achieve the above object, a human navigation method according to the present invention includes a destination inputting step of inputting position information of a destination, a position / azimuth measuring step of measuring a current position, a position information of the destination, and the current The position and direction information of the position is compared with the timetable and transfer information of trains, subways, buses, etc., which are recorded in advance in the map geographic information storage, and the map geographic information including the three-dimensional map of the station premises and the station building, A route search step for searching for an optimum route based on evaluation criteria such as the shortest time, the shortest distance, the lowest fare, and the walking speed; and deriving from the position / direction information of the optimum route and the position / direction information of the current position. A calculation step for calculating a power direction, and a user reaching the destination via a force sense information presentation device for presenting a force in the direction according to the information on the calculated direction. And having a force sense presentation information output step of inducing THE.
[0043]
In order to achieve the above object, the program of the present invention provides a human navigation system that guides a user to a destination using a haptic information presentation device that presents a user with a force that varies according to a direction and a distance to be guided. A computer-readable program for controlling the computer, the program comprising: a destination input step of inputting position information of a destination; a position / azimuth measuring step of measuring a current position; A map including a timetable and transfer information of trains, subways, buses, and the like pre-recorded in the map geographic information storage device with the position information and the position / azimuth information of the current position, and a map including a three-dimensional map of a station yard or a station building. A route that searches for the optimal route based on evaluation criteria such as the shortest time, shortest distance, minimum fare, walking speed, etc., based on geographic information A search step; a calculation step of calculating a direction to be guided from the position / direction information of the optimal route and the position / direction information of the current position; and a force that changes according to the calculated direction information. A force sense presentation information output step of guiding the user to the destination by presenting to the user via the sense information presentation device.
[0044]
Further, a recording medium of the present invention is characterized in that the above-mentioned program is stored so as to be readable by a computer.
[0045]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0046]
FIG. 1 shows a schematic configuration of a haptic human navigation system (hereinafter, referred to as a haptic navigation) according to an embodiment of the present invention. In the haptic navigator 100, the user inputs the position information of the destination by the destination input device 102. The input position information of the destination is compared with the current position information measured by the position / azimuth measuring device 103, and the comparison result and the time of a train, subway, bus, or the like stored in the map geographic information storage device 105 in advance. Based on table / transfer information and map geographic information including a three-dimensional map of a station premises or a station building, the route search device 106 compares the information with evaluation criteria such as the shortest time, the shortest distance, the lowest fare, and the walking speed. Optimal route candidates are calculated.
[0047]
Presented to at least one of the visual information input / output device 110 including a display and an imaging device, the auditory information input / output device 111 including a speaker and a microphone, or the tactile information input / output device 112 including a tactile information output device and a tactile sensor From the selected optimum route candidates, the user selects the optimum route desired by using an external input / output device 104 as shown in FIG. Information about the selected optimum route is temporarily stored in the memory 108.
[0048]
With the update of the current position associated with the movement of the user (that is, the haptic navigator 100), the CPU 101 calculates information related to the user's guidance, and the obtained guidance information is input to the visual information input / output device 110 and the auditory information input. It is presented to the user via at least one of the output device 111, the tactile information input / output device 112, and the force information input / output device 113 including the force information presentation device and the force sensor. The user can safely reach the destination based on the presented guidance information.
[0049]
In particular, the haptic information input / output device 113 can indicate an arbitrary three-dimensional direction, thereby presenting information in a height direction, and therefore walking on a road surface represented by the same position on a map. It can be guided separately from walking on an overpass / pedestrian bridge and walking underground.
[0050]
On the way to the destination, when a user asks for a road by an environmental image such as a cityscape imaged by a camera (not shown) of the visual information input / output device 110 or a microphone (not shown) of the auditory information input / output device 111. Conversations and environmental sounds are collected, and these environmental images and sounds are presented by at least one of the visual information input / output device 110, the auditory information input / output device 111, and the tactile information input / output device 112. Along with information presented by the force information input / output device 113, time information of the CPU 101, position information and orientation information of the position / azimuth measuring device 103, input information of the external input / output device 104, and the like. No) is recorded in the external storage device 109 as guidance record information. The guidance record information recorded in the external storage device 109 can be automatically transferred and saved to a personal home server or the like connected to the Internet via the communication device 107 after arriving at the destination.
[0051]
The information recorded in the external storage device 109 is transmitted to the visual information input / output device 110, the auditory information input / output device 111, the tactile information input / output device 112, and the haptic information input / output device 113 even during the route or after arrival at the destination. Reference can be made through at least one of them.
[0052]
As will be described later with reference to FIG. 2, the communication device 107 is used when exchanging information and data with another haptic navigation at a remote place via a communication line such as the Internet. For example, information on a destination is input from a remote haptic navigation system, and guidance record information sequentially recorded in an external storage device 109 is transmitted via a communication device 107 to a visual information input / output device 110 for a remote haptic navigation system, The information can be referred to by at least one of the information input / output device 111, the tactile information input / output device 112, and the haptic information input / output device 113. Further, the user is at a remote location via at least one of the visual information input / output device 110, the auditory information input / output device 111, the tactile information input / output device 112, and the haptic information input / output device 113 of the remote haptic navigation. It is also possible to accurately guide the person to be guided.
[0053]
FIG. 2 shows a communication method between two or more haptic navigation systems. Information and data can be exchanged between the plurality of haptic navigations 100 and 200 via the communication devices 107 and 207 and the communication line 220. Through the communication devices 107 and 207 and the communication line 220, the video and the environmental sound of the remote cityscape collected by the visual information input / output device 210 and the audio information input / output device 211 of the remote haptic navigation 200 are transmitted to the haptic of the communication partner. The visual information input / output device 110 and the auditory information input / output device 111 of the navigation system 100 monitor, or perform voice conversation with a user at a remote location via the audio information input / output devices 111 and 211, so that the guidance destination of the remote location can be determined. Understand the situation and present the information necessary for remote guidance to the visual information input / output device 210 and the auditory information input / output device 211 at a remote location by remote control, or input the haptic information input / output device 212 and the haptic information input at a remote location. By controlling the output device 213, a guided user who is at a remote location can be correctly remotely guided to the destination. This guidance method is suitable for guiding visually impaired persons, hearing impaired persons, blurred elderly people, infants, tourists, and the like. Various real-time information and the like uploaded to a server (not shown) connected to the Internet are sequentially monitored and searched by the haptic navi of the present invention and downloaded, and, for example, a new road, a bridge, an underpass, a railway, or the like is opened. The latest information that changes every day, such as roads that are closed due to road construction, roads that are very crowded until the evening that is an event such as a festival, etc. it can. The same can be applied to the latest version of application programs and functions related to navigation.
[0054]
FIG. 3 shows a method of inputting the position information of the destination using the destination input device 102 of FIG. The destination on the map screen 301 displayed on the display (not shown) integrated with the touch panel of the visual information input / output device 110 is clicked with a mouse (not shown) or touched with a pen (not shown) or a finger. By doing so, a destination (indicated by an asterisk and a white arrow) is selected, and the corresponding latitude / longitude position information of the destination is read from the map geographic information storage device 105. In addition, the “input longitude / latitude” column 302, the “latitude / longitude search by address” column 303, the “latitude / longitude search by postal code” column 304, and the “latitude by phone number” displayed on the visual information input / output device 110. Using the "Longitude search" column 305, position information can be input from an external acquisition output device 104 or operation keys (not shown) as shown in FIG. It is also possible to input the above search contents using the voice recognition of the auditory IF 902.
[0055]
FIG. 4 shows a method of measuring position / direction information using the position / direction measurement device 103 of FIG. The position / direction measurement device 103 includes a GPS unit 402, an electronic compass unit 403, a PHS (Personal Handyphone System) position information service unit 404, a beacon unit 405, and a proximity position sensor unit 406. The GPS unit 402 receives a so-called GPS (Global Positioning System) signal, and the received GPS data is sent to the CPU 101 in FIG. A signal from a GPS satellite is received by an antenna 4021, amplified by an RF (radio frequency amplifier) 4022, and decoded (decoded) by a decoder 4023. Similarly, the electronic compass unit 403 sends the azimuth data obtained based on the measured geomagnetism to the CPU 101, and the PHS location information service unit 404 sends the CPU 101 the position data obtained from the communication with the antenna base station. The beacon data obtained by the beacon unit 405 is sent to the CPU 101. In the proximity position sensor unit 406, position data measured by a position measuring device using electromagnetic waves, infrared rays, ultrasonic waves, or the like is sent to the CPU 101.
[0056]
FIG. 5 shows a method of inputting and outputting data using the external input / output device 104 of FIG. An input / output device 501 including a plurality of actuators and a pressure sensor (for example, a piezoelectric element) is arranged on a portion of the surface of the external input / output device 104 to which a finger 502 is attached. By pressing these input / output devices 501 with a finger 502 or the like, menu items on the visual information input / output device 110 can be selected. The input / output device 501 is provided with a peg used for a Braille display or the like, and can present Braille information and the like. As the external input / output device 104, a device other than the actuator and the pressure sensor, for example, a device using an electromagnetic switch, a micro switch, an elastic member, or the like may be connected.
[0057]
FIG. 6 shows the flow of information when reading and writing and saving a map and geographic information using the map geographic information storage device 105 of FIG.
[0058]
When the map information IC card 601 is set, the map geographic information is stored in the map geographic information storage device 105 through the CPU 101, and the stored map geographic information is thereafter called up through the CPU 101, and the visual information input / output device 110 and the like are used. Can be output to
[0059]
When a destination is input from the destination input device 102, the CPU 101 displays a map including the destination from the map geographic information storage device 105 on the visual information input / output device 110, and uses the map geographic information storage device 105 to set the destination. If there is related reference information, it reads it and outputs it to at least one of the visual information input / output device 110, the auditory information input / output device 111, the tactile information input / output device 112, and the haptic information input / output device 113.
[0060]
Thereafter, when the current position / azimuth is input by the position / azimuth measuring device 103, the CPU 101 passes control to the route searching device 106, and the route searching device 106 inputs the position information of the destination stored in the memory 108 and the input. The obtained position / azimuth information is compared with the map geographic information stored in the map geographic information storage device 105, and the minimum time, the shortest distance, the minimum fee, the walking speed, and the like input by the user from the external input / output device 104 are obtained. An optimum route candidate is searched based on the evaluation criteria, and the search result is reported to the CPU 101 as an optimum route candidate. The CPU 101 displays the reported optimal route candidate on the visual information input / output device 110, and displays the candidate information on at least one of the auditory information input / output device 111 and the tactile information input / output device 112. The information is also output to the information input / output device 113.
[0061]
When a user selects an optimal route candidate through the external input / output device 104, the CPU 101 highlights the selected route on the display drawing of the visual information input / output device 110 with a bold line, flash, or the like, and also displays the selected route. The reference information is read from the map geographic information storage device 105 and output to at least one of the visual information input / output device 110, the auditory information input / output device 111, the tactile information input / output device 112, and the haptic information input / output device 113. .
[0062]
As the user moves and the current position / azimuth input from the position / azimuth measuring device 103 changes, the CPU 101 sequentially moves the current position on the highlighted display of the route on the display drawing of the visual information input / output device 110 and The route search device 106 uses the position information of the destination, the position / direction information of the optimal route, and the position / direction information of the current position to determine the traveling direction (i.e., the guiding direction) to which the user is currently traveling, the distance to the destination, and The CPU 101 calculates an optimum walking speed, and the CPU 101 sends the calculation result to at least one of the visual information input / output device 110, the auditory information input / output device 111, the tactile information input / output device 112, and the haptic information input / output device 113. Output. The walking speed is estimated from the walking pitch measured by the vibration sensor and the moving speed obtained from the position information, and the walking pitch is estimated based on the walking speed at which the destination can be reached in the required time in the required walking time, thereby taking into consideration transfer to a train or the like. At least one of the optimum target walking speed, the current walking speed, and the insufficient speed is output to the input / output device. At the same time, the CPU 101 reads out reference information useful for guiding the user from the map geographic information storage device 105, and outputs the read reference information to the visual information input / output device 110, the auditory information input / output device 111, the tactile information input / output device. 112, and output to at least one of the haptic information input / output devices 113.
[0063]
FIG. 7 shows a method of searching for a route to a destination and calculating guidance information using the route search device 106 of FIG. On the basis of the destination information input from the destination input device 102, the position information / azimuth information input from the position / azimuth measuring device 103, and the map / geographic information read from the map geographic information storage device 105, a route search device 106 In, the optimal route candidate is calculated and searched.
[0064]
A desired route is selected by the user from the optimal route candidates, and a tangent vector 703 and a normal vector at the current position 702 on the path locus 701 of the selected route are obtained by the route search device 106 by differentiation, difference, or the like. Can be The tangent vector 703 indicates the traveling direction at that point, and the vector opposite to the normal vector (not shown) is used to dynamically correct the centripetal force for bending a curve, that is, the traveling direction of an object. It means the necessary force vector. Therefore, azimuth information necessary for guiding a person is calculated from the tangent vector and the normal vector in consideration of the human sensory characteristics.
[0065]
[Outside 1]
Figure 2004177360
[0066]
Further, the route search device 106 compares the user's body orientation 704 obtained from the electronic compass unit 403 and the like with the tangent vector 703 and the normal vector, thereby obtaining an angle 705 to be guided with respect to the user's body orientation. Desired.
[0067]
Unlike a car, a person does not walk to follow the route determined by the device, but aims at a destination while avoiding obstacles or people on the road or approaching an eye-catching object. That is, since the user also walks to a destination other than the route searched by the electronic maps for the car navigation system and the human navigation system, it is sufficiently useful to provide the rough direction 706 of the destination. It is thought that there is.
[0068]
The distance information to the destination can also be associated with the intensity of the haptic sensation of the haptic input / output device 113 in FIG. For example, the presentation method increases the intensity of haptic sensation when approaching the destination, such as increasing the volume when approaching the sound source, or conversely, when the rubber is stretched from the destination as the starting point. There is a presentation method that the strength increases as the distance from the camera increases. These two methods have their strengths and weaknesses. In the former case, the dog conforms to the law of nature so that the dog can search by relying on the smell. There is also a problem that it becomes weak and easily confused, for example, the maximum intensity and the minimum intensity of the haptic output are set in advance, so that the haptic output does not exceed the maximum intensity, and also does not become smaller than the minimum intensity With such control, effective presentation is also possible. There is also a method of presenting a constant force sense independent of distance.
[0069]
FIG. 8 shows a method of presenting navigation information using the visual information input / output device 110 of FIG. 1 and a method of recording an environmental image such as a cityscape. FIG. 8A shows a configuration example of an omnidirectional environmental image recording method of the visual information input / output device 110. As shown in FIG. 8A, an environmental image 801 having a 360-degree viewing angle is displayed on a liquid crystal display 805. Is read by a CCD camera 803 via a conical reflecting mirror 802 attached to, for example, the back surface of the camera. The read environmental video data is sent to the CPU 101 via the visual IF (interface device) 804 for use or recorded in the external storage device 109 in FIG. Further, a map 301 for navigation (see FIG. 3) and information are presented on the liquid crystal display 805.
[0070]
FIG. 8B shows an example of a configuration of a method of recording a unidirectional environmental image of the visual information input / output device 110. A single CCD is used instead of the conical reflector 802 and the CCD camera 803 described above. This is a configuration in which the camera 806 is replaced. In this case, a one-way environmental image is read by the CCD camera 806, and the data of the read environmental image is sent to the CPU 101 via the visual IF 804 and used, or stored in the external storage device 109, as described above. Be recorded.
[0071]
FIG. 9 shows a method of presenting audio information such as an audio guide for navigation and a notification sound / warning sound and a method of recording environmental sounds using the auditory information input / output device 111 of FIG. The auditory information input / output device 111 has a microphone 901, an auditory IF (interface device) 902, and a speaker 903. The sound and voice guide are synthesized by the auditory IF 902 and presented to the user via the speaker 903. The environmental sound is sent to the CPU 101 for use via the microphone 901 and the auditory IF 902, or is recorded in the external storage device 109. It can also be an input device using the voice recognition function of the auditory IF 902.
[0072]
FIG. 10 shows a method of presenting braille information for navigation using the tactile information input / output device 112 of FIG. The input / output device 1001 may be the same as the input / output device 501 of the external input / output device 104 shown in FIG. An input / output device 1001 including a plurality of actuators and pressure sensors is arranged on a portion of the surface of the haptic information input / output device 112 to which a finger is attached. The input / output device 1001 is provided with a peg used for a braille display or the like, and navigation information sent from the CPU 101 is converted into a driving force via a tactile IF (interface device) 1002, and the driving force is transmitted to the input / output device 1001. It can be sent and presented by tactile information such as braille information including characters, symbols, and graphics in braille.
[0073]
FIG. 11 shows a method for presenting navigational force information using the force information input / output device 113 of FIG. In order to present the haptic information, a plurality of gyro motors 1101 arranged and fixed in a space are individually driven and controlled via a haptic IF (interface device) 1102 so that the gyro motors can be arbitrarily set in any direction and size. Further, a torque can be generated by synthesizing the angular momentum vector and time-differentiating it. At this time, it is more efficient that the plurality of gyro motors 1101 are fixed to the x, y, z system orthogonal coordinates. The posture / position information of the haptic information input / output device 113 is measured by an internal posture / position information sensor 1103, and the disturbance torque generated by the movement of the haptic information input / output device 113 itself is calculated by the CPU 101. A plurality of gyro motors 1101 are controlled such that the disturbance torque is canceled via the control unit. The posture / position information sensor 1103 includes a vibration sensor (not shown) for measuring a walking pitch.
[0074]
FIG. 12 shows a device 1201 using three gyro motors 1101 as torque generating means of the force information input / output device 113. Rotational speed ω of three rotors fixed to x-axis, y-axis, and z-axis x , Ω y , Ω z Are independently controlled, and angular momentum generated by each rotor is synthesized to generate an angular momentum vector in an arbitrary direction. Then, the torque is taken out to the outside as a reaction of the torque generated by the change in the angular momentum accompanying the acceleration / deceleration of the motor.
[0075]
[Outside 2]
Figure 2004177360
[0076]
Here, the ratio ω of the angular velocities in the x, y, and z axis directions x : Ω y : Ω z Can be changed to control the direction in which the angular momentum vector is generated in an arbitrary direction. This control method is advantageous in that control is easy and a variety of three-dimensional force senses can be presented.
[0077]
As described above, the device 1201 using the three gyro motors 1101 can indicate an arbitrary three-dimensional direction, and can present information in the height direction. There is an advantage that walking on a road surface represented by the same position as above, walking on an overpass / pedestrian bridge, and walking underground can be guided separately.
[0078]
FIG. 13 shows a haptic information presentation device 1301 using three sets of twin gyro motors 1101 as torque generating means of the haptic information input / output device 113. FIG. 13A is a schematic diagram showing the principle of the configuration of the haptic information presentation device 1301, and FIGS. 13B and 13C show the detailed configuration of the actually created device 1301. FIG. 13B is a front view showing only a housing (housing) 1304 corresponding to a motor fixing frame 1302 by cutting out a cross section, and FIG. 13C is a plan view thereof. Reference numeral 1303 denotes an electric motor portion of the gyro motor 1101, reference numeral 1305 denotes a support member, and reference numeral 1306 denotes a pointing frame member. The frame 1302 is formed in, for example, a cylindrical shape or a spherical shape, and is held by the user's hand.
[0079]
In the example of FIG. 12, the three motors 1101 are arranged at the twisted positions as shown in FIG. 12, but in order to improve the mass balance and the moment of inertia, the inertial mass is moved to the center of gravity as shown in FIG. The present inventors have devised three sets of twin gyromotor type devices that face each other nearby. Also, the shapes of the motor fixing frames 1302 and 1304 are made closer to a point-symmetric spherical shape from the cubic shape 1202 as shown in FIG. 12 so that the moment of inertia of the frames themselves is reduced. By concentrating the inertial mass at the center of gravity, extra inertial force generated by human motion is reduced. This twin gyro motor can be rotated in the same direction and in the opposite direction.By rotating in the opposite direction, the synthesis of angular momentum is canceled out, and even if the gyro motor is rotating, it appears to be rotating. It is the same state as when there is no torque, and when one of the gyromotors is sharply braked by electromagnetic brake etc. from the state where it is rotated at high speed in the opposite direction without generating torque, a large change in angular momentum occurs, and a large torque is generated. Can be presented.
[0080]
FIG. 14 shows a device 1401 using a gimbal structure 1402 as a torque generating means of the force information input / output device 113. Angular velocity ω using gimbal structure 1402 like a gyroscope 0 The attitude of the rotor 1403 rotating at the angle of rotation Ω around the two gimbal axes 1404 and 1405 1 , Ω 2 To control. In this configuration, since one large gyro motor is used, a relatively large torque can be generated as compared with the configurations shown in FIGS. 12 and 13, but the structure becomes complicated and the mechanical strength decreases. And the torque that can be presented is limited.
[0081]
FIGS. 15 and 16 show a usage form of the haptic navigation 100 using the communication device 107 of FIG. As a first usage form of the haptic navigator 100, as shown in FIG. 15, a haptic navigator 100 is provided in a mobile device such as a mobile phone, a PHS phone, and a PDA including a GPS receiver, an electronic compass, and map geographic information. Embedded mobile device 1501 in which is embedded.
[0082]
As a second mode of use of the haptic navigator 100, as shown in FIG. 16, a mobile device 1602 such as a mobile phone, a PHS phone, and a PDA incorporating a GPS receiver, an electronic compass, and map geographic information, A separate type in which at least the input / output device portion 1601 of the haptic navigation device 100 housed in a separate case is connected to the input / output device portion 1601 via transmission means such as radio waves, infrared rays, ultrasonic waves, cables, and connectors via the communication devices 107A and 107B. Form.
[0083]
Here, it is desirable to use the integrated mobile device 1501 as the first mode of use because it is easy to handle. However, if the weight of the device incorporating the haptic information input / output increases, the sense of torque when presenting the haptic information decreases. Therefore, the separation type device 1601 which is the second mode of use is also effective.
[0084]
FIG. 17 shows an example of a method of presenting force information using the force information input / output device 113 of FIG. 1 and a control method thereof. By changing the angular momentum vector so as to trace the circular orbit 1701 as shown in FIG. 17A, and by changing the elliptical orbit 1702 as shown in FIG. 17B. The direction 1703 of the destination, the direction to be guided, and the azimuth to know can be presented. Here, the simple vibration orbit is included in the elliptical orbit 1702.
[0085]
(Other embodiments)
As described above, the embodiments of the present invention have been described in detail. However, according to the present invention, a software program for realizing the functions of the above-described embodiments is directly or remotely supplied to a system or an apparatus. This includes the case where the above-described program is also achieved by reading and executing the supplied program. Examples of a recording medium for supplying the program include a hard disk, an optical disk, a magneto-optical disk, an MO, a CD-ROM, a CD-R, a CD-RW, a magnetic tape, a nonvolatile memory card (IC memory card), and a ROM. , DVD (DVD-ROM, DVD-R) and the like.
[0086]
【The invention's effect】
As described above, according to the present invention, in addition to the visual and auditory information provided by the display and the audio guide, the haptic type that presents the direction in which to proceed using the haptic sensation in an intuitive and easy-to-understand form. A human navigation system can be realized.
[0087]
Therefore, the following effects can be obtained by using the human navigation system of the present invention.
(1) Use of the navigation system is effective even in a place where visibility is poor such as fog or darkness.
(2) Use of the navigation system is effective even in a place where there is no landmark such as a forest or a wilderness.
(3) It is effective even in the event of a disaster when a building or the like collapses due to an earthquake.
(4) Further, by at least one of the visual information presenting device, the auditory information presenting device, the tactile information presenting device, and the force information presenting device and the other device group are wirelessly connected, the wearing feeling and the operability are improved. Can be done.
[0088]
Thus, the human navigation system of the present invention is an effective guidance device for visually impaired persons, hearing impaired persons and sighted persons. Further, the human navigation system of the present invention can be used not only for guiding a person to a destination but also for guiding a robot and car navigation.
[0089]
The force information presentation device of the present invention used in the human navigation system has the following advantages.
(A) As a control method, a method is used in which a plurality of gyro motors are independently controlled to synthesize an angular momentum vector in an arbitrary direction and magnitude, and a torque is generated by a time derivative thereof. It is easy and can present a varied three-dimensional force sense.
(B) Also, by using three sets of twin gyro motors in which the inertia mass portions face each other near the center of gravity, or by bringing the frame shape for fixing the motor closer to a point-symmetric spherical shape, the mass balance and the moment of inertia can be improved. Has improved. By concentrating the inertial mass at the center of gravity, extra inertial force generated by human motion is reduced.
(C) When a gimbal structure is used, the gimbal structure itself has an extra moment of inertia and generates a disturbance torque. In addition, the structure of the movable part of the gimbal becomes complicated. On the other hand, according to the method of fixing a plurality of gyro motors of the present invention, the structure becomes simple and a mechanically strong strength is obtained. Further, even when the size is reduced, the processing is easy because the structure is simple.
(D) Since it is a non-grounding type, a grounding arm and a wire are unnecessary as in the related art, and the movement of the body is not restricted. A plurality of force information input / output devices can coexist without interference. There is little restriction on the user's actions and actions, and it is excellent in small size and portability, and can be used in a wide range including indoors and outdoors.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a haptic human navigation system (haptic navigation) according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a communication method between two or more haptic navigation systems.
FIG. 3 is a plan view for explaining a method for inputting destination position information using the destination input device of FIG. 1;
FIG. 4 is a block diagram showing a configuration example of the position / azimuth measuring device of FIG. 1 for measuring position / azimuth information.
5 is a conceptual diagram illustrating a method for inputting and outputting data using the external input / output device of FIG. 1;
FIG. 6 is a block diagram showing a flow of information when reading and writing and saving a map and geographic information using the map geographic information storage device of FIG. 1;
FIG. 7 is a conceptual diagram illustrating a method of performing a route search to a destination and calculating guidance information using the route search device of FIG. 1;
8 is a block diagram showing a configuration example of the visual information input / output device of FIG. 1 for presenting navigation information and recording an environmental image such as a cityscape.
FIG. 9 is a block diagram showing a configuration example of the auditory information input / output device of FIG. 1 for presenting navigation sound and audio guide information and recording environmental sounds.
10 is a conceptual diagram illustrating a method for presenting tactile information such as braille information for navigation using the tactile information input / output device of FIG. 1;
FIG. 11 is a conceptual diagram illustrating a method for presenting navigation force information using the force information input / output device of FIG. 1;
FIG. 12 is a schematic diagram showing a configuration example using three gyro motors as a torque generating means of the force sense information input / output device of FIG. 1;
13 shows a configuration example in which three sets of gyromotors are used as torque generating means of the force sense information input / output device of FIG. 1; FIG. FIG. 3C is a front view of the haptic information presentation device, and FIG.
FIG. 14 is a schematic diagram showing a configuration example using a gimbal structure as a torque generating means of the force sense information input / output device of FIG. 1;
15 is a conceptual diagram showing an example of an integrated unit as a use form of the haptic navigation in FIG.
FIG. 16 is a conceptual diagram showing an example of a separate unit using a communication device as another usage form of the haptic navigation in FIG. 1;
FIG. 17 is a conceptual diagram illustrating a method of presenting and controlling force information using the force information input / output device of FIG. 1;
[Explanation of symbols]
100 Haptic Navi (Haptic Human Navigation System)
101 CPU
102 Destination input device
103 Position / azimuth measuring device
104 External input / output device
105 Map geographic information storage device
106 Route search device
107 communication device
108 memory
109 External storage device
110 Visual information input / output device
111 Hearing information input / output device
112 Tactile information input / output device
113 Force information input / output device
210 Visual information input / output device
211 Auditory information input / output device
213 Force information input / output device
301 Map screen
302 Longitude / latitude input display field
303 Latitude / longitude search display field by address
304 Latitude / longitude search display field by zip code
305 Latitude / longitude search display field by phone number
402 GPS unit
403 Electronic compass unit
404 PHS location information service unit
405 beacon unit
406 Proximity position sensor unit
501 I / O device
701 route trajectory
702 Current position
703 tangent vector
704 User Orientation
705 Angle to guide
801 Environmental video
802 conical reflector
803 CCD camera
804 Visual IF
805 LCD display
806 CCD camera
901 microphone
902 Hearing IF
903 speaker
1001 I / O device
1002 Tactile IF
1101 Gyro motor
1102 Haptic IF
1103 Attitude / position information sensor
1201 Force sense information presentation device using three gyro motors
1301 Force sense information presentation device using three sets of twin gyro motors
1401 Force information presentation device using gimbal structure
1402 Gimbal structure
1403 angular velocity ω 0 Rotor rotating at
1404 rotation angle Ω 1 Gimbal axis
1405 rotation angle Ω 2 Gimbal axis
1501 Device in which haptic navigation is built into mobile device
1601 Device in which haptic navigation is separated from mobile device
1701 Circular orbit of angular momentum vector
1702 Elliptic orbit of angular momentum vector
1703 Direction of destination

Claims (46)

ユーザが目的地の位置情報を入力するための目的地入力手段と、
現在位置を測位する位置・方位測定手段と、
電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報を予め格納している地図地理情報記憶手段と、
前記目的地入力手段から得られる前記目的地の位置情報と前記位置・方位測定手段から得られる前記現在位置の位置情報とを前記地図地理情報記憶手段に格納されている前記地図地理情報に照らし合わせ、最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に最適ルートを検索するルート検索手段と、
前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とからユーザが現在進むべき進行方向を算出する演算手段と、
前記演算手段で算出された方向の情報に応じてその方向に向かう力をユーザに対し提示することで前記目的地までユーザを誘導する力覚情報出力手段とを有することを特徴とするヒューマンナビゲーションシステム。
Destination input means for the user to input the location information of the destination,
Position / direction measuring means for measuring the current position;
Map geographic information storage means which stores in advance map timetables and transfer information of trains, subways and buses, and map geographic information including a three-dimensional map of station premises and station buildings,
The position information of the destination obtained from the destination input means and the position information of the current position obtained from the position / azimuth measuring means are compared with the map geographic information stored in the map geographic information storage means. Route search means for searching for the best route based on evaluation criteria such as, shortest time, shortest distance, lowest fare, walking speed,
Calculating means for calculating a traveling direction to which the user should currently travel from the position / direction information of the optimal route and the position / direction information of the current position;
A human navigation system comprising: a force sense information output unit that guides the user to the destination by presenting to the user a force heading in the direction according to the information on the direction calculated by the calculation unit. .
前記演算手段は、検索された前記ルート経路の接線ベクトルおよび法線ベクトルから算出された誘導されるべき方位と、電子コンパスから求められたユーザの体の向きとを比較することで、該ユーザの体の向きに対する誘導すべき角度を求め、求めた該角度を前記ユーザが現在進むべき進行方向として出力することを特徴とする請求項1に記載のヒューマンナビゲーションシステム。The calculating means compares the direction to be calculated calculated from the tangent vector and the normal vector of the searched route route with the orientation of the user's body calculated from the electronic compass, thereby obtaining the user's body. 2. The human navigation system according to claim 1, wherein an angle to be guided with respect to the body direction is obtained, and the obtained angle is output as a traveling direction to which the user should currently proceed. 前記演算手段は、前記目的地と前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とから前記目的地までの距離情報を算出し、前記力覚情報出力手段は、前記演算手段で演算された前記目的地までの距離情報を力覚感覚の強度に関連付けて提示することを特徴とする請求項1または2に記載のヒューマンナビゲーションシステム。The calculating means calculates distance information to the destination from the position and orientation information of the destination and the optimal route, and the position and orientation information of the current position, and the force information output means calculates the distance to the destination. The human navigation system according to claim 1 or 2, wherein the distance information to the destination calculated in step (1) is presented in association with the intensity of a haptic sensation. 前記力覚情報出力手段の姿勢・位置情報はその内部に設置した姿勢・位置情報センサによって測定され、該測定された前記姿勢・位置情報に基づいて前記力覚情報出力手段自身の動きによって発生する擾乱トルクが前記演算手段によって計算され、前記力覚情報出力手段を介して該擾乱トルクがキャンセルするように前記力覚情報出力手段の複数のジャイロモータが制御されることを特徴とする請求項1ないし3のいずれかに記載のヒューマンナビゲーションシステム。The posture / position information of the force sense information output means is measured by a posture / position information sensor installed therein, and is generated by the movement of the force sense information output means itself based on the measured posture / position information sensor. 2. The gyro motor of the force information output means is controlled so that the disturbance torque is calculated by the calculation means, and the disturbance torque is canceled through the force information output means. 4. The human navigation system according to any one of claims 1 to 3. 前記力覚情報出力手段は、前記ユーザが現在進むべき方向と共に、前記目的地の方角を提示可能とすることを特徴とする請求項1ないし4のいずれかに記載のヒューマンナビゲーションシステム。The human navigation system according to any one of claims 1 to 4, wherein the force information output means is capable of presenting a direction of the destination together with a direction in which the user is to proceed. 前記力覚情報出力手段は、3次元の任意の方向を指し示すことができ、これにより高さ方向の情報が提示することができ、そのため、地図上では同じ位置で表わされる路面を歩くことと陸橋・歩道橋を歩くこと、地下を歩くことことを区別して誘導することができることを特徴とする請求項5に記載のヒューマンナビゲーションシステム。The force sense information output means can indicate an arbitrary three-dimensional direction, whereby information in a height direction can be presented. Therefore, walking on a road surface represented by the same position on a map and an overpass 6. The human navigation system according to claim 5, wherein the user can be guided while walking on a pedestrian bridge and walking underground. 前記演算手段で算出された前記ユーザが現在進むべき進行方向の情報に応じて変化する触覚をユーザに対し提示することで前記目的地までユーザを誘導する触覚情報出力手段を更に有することを特徴とする請求項1ないし6に記載のヒューマンナビゲーションシステム。The apparatus further comprises a haptic information output unit that guides the user to the destination by presenting the user with a haptic sense that changes in accordance with information on a traveling direction that the user should be currently calculated by the arithmetic unit. 7. The human navigation system according to claim 1, wherein: 前記触覚情報出力手段は、複数のアクチュエータを備えた触覚情報出力デバイスによって、ナビゲーション用の文字・シンボル・図形などの点字情報を含む触覚情報を提示することを特徴とする請求項7に記載のヒューマンナビゲーションシステム。8. The human according to claim 7, wherein the haptic information output unit presents haptic information including braille information such as characters, symbols, and graphics for navigation by a haptic information output device including a plurality of actuators. Navigation system. 前記演算手段で算出された前記ユーザが現在進むべき進行方向の情報を音声メッセージに変換して伝えることにより前記目的地までユーザを誘導する聴覚情報出力手段を更に有することを特徴とする請求項1ないし8のいずれかに記載のヒューマンナビゲーションシステム。2. The apparatus according to claim 1, further comprising an auditory information output unit that guides the user to the destination by converting the information on the traveling direction to which the user is to proceed, calculated by the arithmetic unit, into a voice message and transmitting the voice message. 9. The human navigation system according to any one of claims 1 to 8. 前記聴覚情報出力手段は、前記現在位置と前記最適ルートを基に、ユーザの誘導に役立つ参考情報を前記地図地理情報記憶手段に格納されている前記地図地理情報から逐次抽出し、抽出した該参考情報を音声に変換して伝えることを特徴とする請求項9に記載のヒューマンナビゲーションシステム。The auditory information output means sequentially extracts reference information useful for guiding a user from the map geographic information stored in the map geographic information storage means based on the current position and the optimum route, and extracts the extracted reference information. The human navigation system according to claim 9, wherein the information is converted into voice and transmitted. 前記演算手段は、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記聴覚情報出力手段を介して聴覚的に提示することを特徴とする請求項10に記載のヒューマンナビゲーション方法。The calculating means estimates a stride from a walking pitch measured by a vibration sensor and a moving speed obtained from the position information, estimates a walking pitch that can reach a destination in a required time with the stride, and changes trains or the like. The human navigation method according to claim 10, wherein at least one of the optimal target walking speed, the current walking speed, and the insufficient speed in consideration is presented audibly via the auditory information output unit. 前記地図地理情報記憶手段に格納されている前記地図地理情報から読み出した地図を表示し、前記ルート検索手段で検索された前記最適ルート、前記目的地入力手段から入力された前記目的地、および前記位置・方位測定手段から入力した前記現在位置を前記地図上にマーキングして表示することにより前記目的地までユーザを誘導する視覚情報出力手段を更に有することを特徴とする請求項1ないし11のいずれかに記載のヒューマンナビゲーションシステム。Displaying a map read from the map geographic information stored in the map geographic information storage means, the optimal route searched by the route search means, the destination input from the destination input means, and the 12. The apparatus according to claim 1, further comprising a visual information output unit that guides a user to the destination by marking and displaying the current position input from the position / direction measurement unit on the map. The human navigation system described in Crab. 前記演算手段は、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記視覚情報出力手段を介して視覚的に提示することを特徴とする請求項12に記載のヒューマンナビゲーション方法。The calculating means estimates a stride from a walking pitch measured by a vibration sensor and a moving speed determined from the position information, estimates a walking pitch that can reach a destination in a required time with the stride, and changes trains or the like. 13. The human navigation method according to claim 12, wherein at least one of the optimal target walking speed, the current walking speed, and the insufficient speed in consideration is visually presented through the visual information output unit. 前記力覚情報出力手段よって提示された力覚情報に同期して、該力覚情報、前記現在位置の位置・方位情報、前記最適ルートの位置・方位情報とを時刻情報と一緒に記録し、該記録情報をいつでも参照可能な外部記憶手段を更に有することを特徴とする請求項1ないし13のいずれかに記載のヒューマンナビゲーションシステム。In synchronization with the force information presented by the force information output means, the force information, the position / direction information of the current position, and the position / direction information of the optimal route are recorded together with time information, 14. The human navigation system according to claim 1, further comprising an external storage means capable of referencing the recorded information at any time. 前記外部記憶手段は、撮像手段が受像する街並みなどの環境映像と、音響入力手段が収音する会話を含めた環境音とを時刻情報と共に記録することを特徴とする請求項14に記載のヒューマンナビゲーションシステム。15. The human according to claim 14, wherein the external storage unit records, together with time information, an environmental image such as a cityscape received by an imaging unit and an environmental sound including a conversation collected by an audio input unit. Navigation system. 2つ以上の前記ヒューマンナビゲーションシステム間で情報およびデータ交換を行うための通信手段と、
通信相手のヒューマンナビゲーションシステムから前記通信手段を介して送られる映像や音声・会話・周囲音をモニターする監視手段と、
遠隔地のユーザを目的地まで誘導するための操作情報を入力する情報入力手段と、
該情報入力手段から入力された前記操作情報に応じて前記通信手段を介して前記通信相手のヒューマンナビゲーションシステムの出力手段に対して制御情報を出力する制御手段と
を更に有することを特徴とする請求項1ないし15のいずれかに記載のヒューマンナビゲーションシステム。
Communication means for exchanging information and data between two or more said human navigation systems;
Monitoring means for monitoring images, voices, conversations, and ambient sounds sent from the communication partner's human navigation system via the communication means,
Information input means for inputting operation information for guiding a remote user to the destination,
Control means for outputting control information to output means of the human navigation system of the communication partner via the communication means in accordance with the operation information input from the information input means. Item 16. A human navigation system according to any one of Items 1 to 15.
前記監視手段は、前記通信手段を通じて遠隔地にある前記外部記憶手段に記録されている情報を読み出してモニターすることが可能なことを特徴とする請求項16に記載のヒューマンナビゲーションシステム。17. The human navigation system according to claim 16, wherein said monitoring means can read and monitor information recorded in said external storage means at a remote place through said communication means. 前記目的地入力手段は、マウス、入力ペン、デイスプレイ付きタッチパネル等の操作手段を包含し、該操作手段を介して経度・緯度、住所、郵便番号、電話番号の少なくとも1つが入力されることで前記目的地を選択し、該目的地の位置情報を生成することを特徴とする請求項1ないし17のいずれかに記載のヒューマンナビゲーションシステム。The destination input means includes operation means such as a mouse, an input pen, and a touch panel with a display, and at least one of longitude / latitude, address, postal code, and telephone number is input via the operation means. 18. The human navigation system according to claim 1, wherein a destination is selected, and position information of the destination is generated. 前記位置・方位測定手段は、GPS信号、地磁気方位データ、PHS位置情報データ、ビーコンデータ、近接位置の位置データの少なくともいずれか一つを利用することを特徴とする請求項1ないし18のいずれかに記載のヒューマンナビゲーションシステム。19. The apparatus according to claim 1, wherein the position / azimuth measuring means uses at least one of a GPS signal, geomagnetic azimuth data, PHS position information data, beacon data, and position data of a proximity position. The human navigation system described in 1. 前記ヒューマンナビゲーションシステムは、GPS受信機、電子コンパス、および地図地理情報が内蔵した携帯電話機、PHS電話機、およびPDAなどのモバイル機器に内蔵されていることを特徴とする請求項1ないし19のいずれかに記載のヒューマンナビゲーションシステム。20. The human navigation system according to claim 1, wherein the human navigation system is built in a mobile device such as a mobile phone, a PHS phone, and a PDA in which a GPS receiver, an electronic compass, and map geographic information are built. The human navigation system described in 1. 前記ヒューマンナビゲーションシステムの前記力覚情報出力手段は、GPS受信機、電子コンパス、および地図地理情報を内蔵した携帯電話機、PHS電話機、およびPDAなどのモバイル機器とは別体の把持可能なデバイスであって、該モバイル機器と無線等の情報伝送手段を介して情報交換が可能なことを特徴とする請求項1ないし19のいずれかに記載のヒューマンナビゲーションシステム。The haptic information output unit of the human navigation system is a grippable device separate from a mobile device such as a mobile phone, a PHS phone, and a PDA having a GPS receiver, an electronic compass, and map geographic information. 20. The human navigation system according to claim 1, wherein information can be exchanged with the mobile device via information transmission means such as wireless. 前記力覚情報出力手段は、3つのジャイロモータ、もしくは重心近くで対峙させた3組のツイン・ジャイロモータ、もしくはジンバル構造のジャイロモータなどの複数個のジャイロモータを独立に制御することで、任意の方向・大きさに角運動量ベクトルを合成し、その時間微分によってトルクを発生させることを特徴とする請求項1ないし21のいずれかに記載のヒューマンナビゲーションシステム。The force sense information output means may control any of a plurality of gyromotors such as three gyromotors or three twin gyromotors facing each other near the center of gravity or a gyromotor having a gimbal structure. The human navigation system according to any one of claims 1 to 21, wherein an angular momentum vector is synthesized with the direction and the magnitude of the above, and a torque is generated by a time derivative thereof. 前記力覚情報出力手段は、前記角運動量ベクトルを円軌道、もしくは楕円軌道、もしくは、単振動軌道に沿ってトレースするように変化させることで前記目的地の方向、もしくは誘導すべき方向、もしくは知りたい方位を提示することを特徴とする請求項22に記載のヒューマンナビゲーションシステム。The force sense information output means changes the angular momentum vector so as to trace along a circular orbit, or an elliptical orbit, or a simple trajectory, so that the direction of the destination or the direction to be guided or known. 23. The human navigation system according to claim 22, wherein a desired direction is presented. ユーザを目的地に誘導するために、誘導すべき方向と距離とに応じて変化する力をユーザに対し提示する力覚情報提示デバイスであって、3軸上に配置・固定された3つのジャイロモータ、もしくは一対のツイン・ジャイロモータを3組用いてこれらを重心近くで対峙させた3組のツイン・ジャイロモータなどの複数個のジャイロモータと、
前記誘導すべき方向と距離の入力情報に応じて、前記複数個のジャイロモータを独立に制御することで、任意の方向・大きさに角運動量ベクトルを合成し、その時間微分によって、前記誘導すべき方向と距離に対応したトルクを発生させる制御手段と
を有することを特徴とする力覚情報提示デバイス。
A force sense information presentation device that presents a user with a force that varies according to a direction and a distance to be guided to guide the user to a destination, and includes three gyros arranged and fixed on three axes. A plurality of gyromotors such as a motor or three sets of twin gyromotors using three sets of twin gyromotors and facing them near the center of gravity;
By independently controlling the plurality of gyromotors according to the input information of the direction and distance to be guided, an angular momentum vector is synthesized in an arbitrary direction and size, and the time derivative is used to differentiate the angular momentum vector. A force sense information presentation device comprising: control means for generating a torque corresponding to a power direction and a distance.
前記一対のツイン・ジャイロモータは、同一方向、および反対方向に回転させることが可能で、反対方向に回転させることで角運動量の合成が打ち消され、ジャイロモータが回転していても見かけ上は回転していないのと同じ状態になり、トルクを発生させないまま反対方向に高速回転させた状態から片方のジャイロモータだけを電磁ブレーキなどによって急峻な制動をかけることによって大きな角運動量の変化が生じ、大きなトルクを提示することができることを特徴とする請求項24に記載の力覚情報提示デバイス。The pair of twin gyro motors can be rotated in the same direction and in the opposite direction.By rotating in the opposite direction, the synthesis of angular momentum is canceled out, and even if the gyro motor rotates, it appears to rotate. It is in the same state as not doing, and from the state where it is rotated at high speed in the opposite direction without generating torque, only one gyro motor is sharply braked by electromagnetic brake etc., causing a large change in angular momentum, The haptic information presentation device according to claim 24, wherein the haptic information presentation device is capable of presenting a torque. 前記制御手段は、前記複数個のジャイロモータの前記角運動量ベクトルを円軌道、もしくは楕円軌道、もしくは、単振動軌道に沿ってトレースするように変化させることで、前記目的地の方向、もしくは誘導すべき方向、もしくは知りたい方位を力覚で提示させることを特徴とする請求項24または25に記載の力覚情報提示デバイス。The control means changes the angular momentum vectors of the plurality of gyromotors so as to trace along a circular orbit, an elliptical orbit, or a simple oscillation trajectory, thereby guiding to the direction of the destination or guiding. The force sense information presentation device according to claim 24 or 25, wherein a force direction or a desired direction is presented by force sense. 前記力覚情報提示デバイスの姿勢・位置情報はその内部に設置した姿勢・位置情報センサによって測定され、該測定された前記姿勢・位置情報に基づいて前記力覚情報提示デバイス自身の動きによって発生する擾乱トルクが前記制御手段によって計算され、前記力覚情報提示デバイスを介して該擾乱トルクがキャンセルするように前記複数のジャイロモータが制御されることを特徴とする請求項24ないし26のいずれかに記載の力覚情報提示デバイス。The posture / position information of the haptic information presentation device is measured by a posture / position information sensor installed therein, and is generated by the movement of the haptic information presentation device itself based on the measured posture / position information. The gyro motor according to any one of claims 24 to 26, wherein a disturbance torque is calculated by the control means, and the plurality of gyro motors are controlled so as to cancel the disturbance torque via the force information presentation device. Haptic information presentation device according to the description. 目的地の位置情報を入力させる目的地入力ステップと、
現在位置を測位する位置・方位測定ステップと、
前記目的地の位置情報と前記現在位置の位置・方位情報とを地図地理情報記憶に予め記録されている電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報に照らし合わせ、最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に、最適ルートを検索するルート検索ステップと、
前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とから誘導すべき方向を算出する演算ステップと、
算出された方向の情報に応じて該方向に力を提示する力覚情報提示デバイスを介して前記目的地までユーザを誘導する力覚提示情報出力ステップとを有することを特徴とするヒューマンナビゲーション方法。
A destination input step for inputting the location information of the destination;
A position / azimuth measurement step for measuring the current position;
The time information and transfer information of trains, subways, buses, etc., in which the position information of the destination and the position / direction information of the current position are recorded in a map geographic information storage in advance, and a three-dimensional map of a station premises or a station building A route search step of searching for an optimal route based on evaluation criteria such as the shortest time, the shortest distance, the lowest fare, the walking speed, etc.
A calculation step of calculating a direction to be derived from the position / direction information of the optimal route and the position / direction information of the current position,
A force sense presentation information output step of guiding a user to the destination via a force sense information presentation device that presents a force in the direction according to the calculated direction information.
前記演算ステップでは、検索された前記ルート経路の接線ベクトルおよび法線ベクトルから算出された誘導されるべき方位と、電子コンパスから求められたユーザの体の向きとを比較することで、該ユーザの体の向きに対する誘導すべき角度を求めることを特徴とする請求項28に記載のヒューマンナビゲーション方法。In the calculation step, the direction to be calculated calculated from the tangent vector and the normal vector of the searched route route is compared with the orientation of the user's body obtained from the electronic compass, thereby obtaining the user's body. 29. The human navigation method according to claim 28, wherein an angle to be guided with respect to the body direction is obtained. 前記演算ステップでは、検索された前記ルート経路と前記目的地と前記現在位置の位置・方位情報から前記目的地までの距離を演算し、前記力覚提示情報出力ステップでは、演算された前記目的地までの距離情報を前記力覚情報提示デバイスを介して力覚感覚の強度に関連付けて提示することを特徴とする請求項28または29に記載のヒューマンナビゲーション方法。In the calculating step, the distance to the destination is calculated from the retrieved route route, the destination, and the position / azimuth information of the current position. In the force sense presentation information output step, the calculated destination is calculated. 30. The human navigation method according to claim 28 or 29, wherein information on a distance to the haptic information is presented in association with the intensity of haptic sensation via the haptic information presenting device. 前記力覚提示情報出力ステップでは、前記力覚情報提示デバイスを介して前記ユーザが現在進むべき方向と共に、前記目的地の方角を提示することを特徴とする請求項28ないし30のいずれかに記載のヒューマンナビゲーション方法。The said force sense presentation information output step presents the direction of the said destination with the direction which the user should go now through the force sense information presentation device, The said force sense information presentation device, The one in any one of Claims 28 thru | or 30 characterized by the above-mentioned. Human navigation method. 前記力覚提示情報出力ステップでは、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記力覚情報提示デバイスを介して力覚の強さで提示することを特徴とする請求項31に記載のヒューマンナビゲーション方法。In the force sense presentation information output step, a step is estimated from a walking pitch measured by a vibration sensor and a moving speed determined from the position information, and a walking pitch that can reach a destination in a required time with the step is estimated. 32. The method according to claim 31, wherein at least one of an optimal target walking speed, a current walking speed, and a shortage speed in consideration of a transfer such as a transfer is presented with a force sense through the force sense information presentation device. The described human navigation method. 前記演算ステップで算出された方向の情報に応じて変化する触覚を触覚情報出力デバイスを介してユーザに対し提示することで前記目的地までユーザを誘導する触覚情報出力ステップを更に有することを特徴とする請求項28ないし32のいずれかに記載のヒューマンナビゲーション方法。A tactile information output step of guiding the user to the destination by presenting a tactile sense that changes in accordance with the information on the direction calculated in the calculation step to the user via a tactile information output device, A human navigation method according to any one of claims 28 to 32. 前記触覚情報出力ステップでは、複数のアクチュエータおよび圧力センサを備えた前記触覚情報出力デバイスによって、ナビゲーション用の文字・シンボル・図形などの点字情報を含む点字情報を提示することを特徴とする請求項33に記載のヒューマンナビゲーション方法。35. The tactile information output step, wherein the tactile information output device including a plurality of actuators and pressure sensors presents Braille information including Braille information such as characters, symbols, and graphics for navigation. Human navigation method described in the above. 前記触覚情報出力ステップでは、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記触覚情報出力デバイスを介して触覚的に提示することを特徴とする請求項33または34に記載のヒューマンナビゲーション方法。In the tactile information output step, a stride is estimated from a walking pitch measured by a vibration sensor and a moving speed determined from the position information, a walking pitch that can reach a destination in a required time in the stride is estimated, and a train or the like is used. The human navigation according to claim 33 or 34, wherein at least one of an optimal target walking speed, a current walking speed, and an insufficient speed in consideration of transfer is tactilely presented via the tactile information output device. Method. 前記演算ステップで算出された方向の情報をスピーカを介して対応する音声メッセージに変換して伝えることにより前記目的地までユーザを誘導する聴覚情報出力ステップを更に有することを特徴とする請求項28ないし35のいずれかに記載のヒューマンナビゲーション方法。29. The method according to claim 28, further comprising: outputting audio information to guide the user to the destination by converting the information of the direction calculated in the calculation step into a corresponding voice message via a speaker and transmitting the converted voice message. 35. The human navigation method according to any one of 35. 前記聴覚情報出力ステップでは、前記現在位置と前記最適ルートとを基に、ユーザの誘導に役立つ参考情報を前記地図地理情報から逐次抽出し、抽出した該参考情報を前記スピーカを介して音声に変換して伝えることを特徴とする請求項36に記載のヒューマンナビゲーション方法。In the auditory information output step, based on the current position and the optimal route, reference information useful for guiding a user is sequentially extracted from the map geographic information, and the extracted reference information is converted into voice via the speaker. 37. The human navigation method according to claim 36, wherein the information is transmitted. 前記聴覚情報出力ステップでは、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記スピーカを介して聴覚的に提示することを特徴とする請求項36または37に記載のヒューマンナビゲーション方法。In the auditory information output step, a stride is estimated from a walking pitch measured by a vibration sensor and a moving speed obtained from the position information, a walking pitch that can reach a destination in a required time in the stride is estimated, and a train or the like is used. 38. The human navigation method according to claim 36, wherein at least one of an optimal target walking speed, a current walking speed, and a shortage speed in consideration of transfer is presented audibly via the speaker. 前記ルート検索ステップで検索された前記最適ルート、前記目的地、前記現在位置をディスプレイ上に地図上にマーキングして表示することにより前記目的地までユーザを誘導する視覚情報出力ステップを更に有することを特徴とする請求項28ないし38のいずれかに記載のヒューマンナビゲーション方法。The method further comprises a visual information output step of guiding the user to the destination by marking and displaying the optimal route, the destination, and the current position searched for in the route search step on a map on a display. The human navigation method according to any one of claims 28 to 38. 前記視覚情報出力ステップにおいて、電車などの乗換えを考慮した最適な歩行スピードを視覚的に提示することを特徴とする請求項39に記載のヒューマンナビゲーション方法。40. The human navigation method according to claim 39, wherein in the visual information output step, an optimal walking speed in consideration of changing trains is visually presented. 前記視覚情報出力ステップでは、振動センサで測定された歩くピッチと前記位置情報から求まる移動速度から歩幅を推定し、その歩幅で所要時間で目的地に到達できる歩行ピッチを推定して、電車などの乗換えを考慮した最適な目標歩行スピード、今の歩行スピード、不足スピードの少なくともいずれかを前記ディスプレイ上に視覚的に提示することを特徴とする請求項39に記載のヒューマンナビゲーション方法。In the visual information output step, a stride is estimated from a walking pitch measured by a vibration sensor and a moving speed obtained from the position information, a walking pitch that can reach a destination in a required time in the stride is estimated, The human navigation method according to claim 39, wherein at least one of an optimal target walking speed, a current walking speed, and a shortage speed in consideration of transfer is visually presented on the display. 前記力覚情報に同期して、該力覚情報、前記現在位置の位置・方位情報、前記最適ルートの位置・方位情報とを外部メモリに時刻情報と一緒に記録する記録ステップを更に有することを特徴とする請求項28ないし41のいずれかに記載のヒューマンナビゲーション方法。A recording step of recording the force information, the position / direction information of the current position, and the position / direction information of the optimal route together with time information in an external memory in synchronization with the force information. The human navigation method according to any one of claims 28 to 41. 誘導すべき方向と距離とに応じて変化する力をユーザに対し提示する力覚情報提示デバイスを用いてユーザを目的地に誘導するヒューマンナビゲーションをコンピュータで制御するためのコンピュータで読み取り可能なプログラムであって、該プログラムは、
目的地の位置情報を入力する目的地入力ステップと、
現在位置を測位する位置・方位測定ステップと、
前記目的地の位置情報と前記現在位置の位置・方位情報とを地図地理情報記憶装置に予め記録されている電車・地下鉄・バスなどの時刻表・乗り換え情報、および駅構内や駅ビルなどの立体地図を含む地図地理情報に照らし合わせ、最短時間、最短距離、最低料金、歩行スピードなどの評価基準を基に最適ルートを検索するルート検索ステップと、
前記最適ルートの位置・方位情報と前記現在位置の位置・方位情報とから誘導すべき方向とを算出する演算ステップと、
算出された方向の情報に応じて変化する力を前記力覚情報提示デバイスを介してユーザに対し提示することで前記目的地までユーザを誘導する力覚提示情報出力ステップと
を有することを特徴とするプログラム。
A computer-readable program for controlling human navigation that guides a user to a destination using a haptic information presentation device that presents a force that varies according to the direction and distance to be guided to the user So, the program
A destination input step of inputting destination location information;
A position / azimuth measurement step for measuring the current position;
The position information of the destination and the position / azimuth information of the current position are pre-recorded in a map geographic information storage device. A route search step of searching for an optimal route based on evaluation criteria such as the shortest time, the shortest distance, the lowest fare, the walking speed, etc., based on map geographic information including a map,
A calculation step of calculating a direction to be derived from the position / direction information of the optimal route and the position / direction information of the current position,
And a force sense presentation information output step of guiding the user to the destination by presenting a force that changes in accordance with the calculated direction information to the user via the force sense information presentation device. Program to do.
前記演算ステップは、検索された前記ルート経路の接線ベクトルおよび法線ベクトルから算出された誘導されるべき方位と、電子コンパスから求められたユーザの体の向きとを比較することで、該ユーザの体の向きに対する誘導すべき角度を求めることを特徴とする請求項43に記載のプログラム。The computing step compares the orientation to be derived calculated from the tangent vector and the normal vector of the searched route route with the orientation of the user's body determined from the electronic compass, and 44. The program according to claim 43, wherein an angle to be guided with respect to the body orientation is obtained. 前記力覚提示情報出力ステップは、前記力覚情報提示デバイスを介して前記ユーザが現在進むべき方向と共に、前記目的地の方角を逐次提示することを特徴とする請求項43または44に記載のプログラム。45. The program according to claim 43, wherein the haptic information output step sequentially presents the direction of the destination together with the direction in which the user should proceed through the haptic information presenting device. . 請求項43ないし45のいずれかに記載のプログラムをコンピュータが読み出し可能に記憶したことを特徴とする記録媒体。A recording medium storing the program according to any one of claims 43 to 45 so as to be readable by a computer.
JP2002346686A 2002-11-29 2002-11-29 Haptic human navigation system and device used therefor Expired - Lifetime JP4002970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002346686A JP4002970B2 (en) 2002-11-29 2002-11-29 Haptic human navigation system and device used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002346686A JP4002970B2 (en) 2002-11-29 2002-11-29 Haptic human navigation system and device used therefor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007163580A Division JP4478791B2 (en) 2007-06-21 2007-06-21 Haptic human navigation system

Publications (2)

Publication Number Publication Date
JP2004177360A true JP2004177360A (en) 2004-06-24
JP4002970B2 JP4002970B2 (en) 2007-11-07

Family

ID=32707491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002346686A Expired - Lifetime JP4002970B2 (en) 2002-11-29 2002-11-29 Haptic human navigation system and device used therefor

Country Status (1)

Country Link
JP (1) JP4002970B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352258A (en) * 2004-06-11 2005-12-22 Nagoya Institute Of Technology Tactile information transmission device
JP2006250799A (en) * 2005-03-11 2006-09-21 Takenaka Komuten Co Ltd Tactile perception type route guidance system
JP2006260001A (en) * 2005-03-16 2006-09-28 Denso Corp Communication device
JP2008032513A (en) * 2006-07-28 2008-02-14 Nippon Telegr & Teleph Corp <Ntt> Face-to-face guidance device, position information management device, face-to-face guidance system, and face-to-face guidance method
DE102007004041A1 (en) * 2007-01-22 2008-07-24 Deutsche Telekom Ag Mobile navigation device for multimodal outputting information, has transferring unit with spinner rotated around axis, so that forces are controlled to render instructions, and surface forms are passed over housing to render instructions
JP2008286547A (en) * 2007-05-15 2008-11-27 Casio Comput Co Ltd Body-mounted electronic equipment
JP2009042155A (en) * 2007-08-10 2009-02-26 Hitachi Ltd Navigation device
JP2010257052A (en) * 2009-04-22 2010-11-11 Funai Electric Co Ltd Rotary input device and electronic equipment
US7957857B2 (en) 2007-06-20 2011-06-07 Fujitsu Component Limited Direction guiding apparatus and direction guiding method
EP2407863A2 (en) 2010-07-16 2012-01-18 NTT DoCoMo, Inc. Display device, image display system, and image display method
JP2012167961A (en) * 2011-02-10 2012-09-06 Nippon Densan Corp Gyro motor unit
WO2013018558A1 (en) * 2011-08-03 2013-02-07 シャープ株式会社 Haptic system
JP2014194767A (en) * 2013-03-15 2014-10-09 Immersion Corp Wearable haptic device
JP2016095152A (en) * 2014-11-12 2016-05-26 株式会社Nttドコモ System and information processing method
US9425718B2 (en) 2012-12-12 2016-08-23 Fujitsu Limited Vibration device and information processing apparatus
JP2018060315A (en) * 2016-10-04 2018-04-12 コニカミノルタ株式会社 Image forming apparatus and control program for image forming apparatus
US10072940B2 (en) 2014-08-29 2018-09-11 Sony Corporation Force sense presentation device, force sense presentation system, and force sense presentation method
CN110044366A (en) * 2019-05-20 2019-07-23 中兴健康科技有限公司 A kind of compound blind guiding system
JP2020060999A (en) * 2018-10-11 2020-04-16 有限会社エクストラ Program, braille output device, and braille output method
WO2020116076A1 (en) * 2018-12-03 2020-06-11 株式会社デンソー Force-sense presentation system and force-sense presentation program
WO2020250336A1 (en) * 2019-06-12 2020-12-17 日本電信電話株式会社 Direction communication device, direction communication method, and program
CN112969984A (en) * 2018-11-14 2021-06-15 索尼集团公司 Information processing apparatus, information processing method, and storage medium
CN114664178A (en) * 2022-03-29 2022-06-24 中国标准化研究院 Electronic intelligent guiding mark and intelligent guiding method thereof
JP2023540554A (en) * 2020-09-03 2023-09-25 シア ガイダンス システムス リミテッド Mobility support device and method for supporting movement

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158249A1 (en) * 2015-03-31 2016-10-06 富士フイルム株式会社 Optical observation device and control method for same

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352258A (en) * 2004-06-11 2005-12-22 Nagoya Institute Of Technology Tactile information transmission device
JP2006250799A (en) * 2005-03-11 2006-09-21 Takenaka Komuten Co Ltd Tactile perception type route guidance system
JP2006260001A (en) * 2005-03-16 2006-09-28 Denso Corp Communication device
JP2008032513A (en) * 2006-07-28 2008-02-14 Nippon Telegr & Teleph Corp <Ntt> Face-to-face guidance device, position information management device, face-to-face guidance system, and face-to-face guidance method
DE102007004041A1 (en) * 2007-01-22 2008-07-24 Deutsche Telekom Ag Mobile navigation device for multimodal outputting information, has transferring unit with spinner rotated around axis, so that forces are controlled to render instructions, and surface forms are passed over housing to render instructions
DE102007004041B4 (en) * 2007-01-22 2016-06-30 Deutsche Telekom Ag Method for multimodal output of navigation data
JP2008286547A (en) * 2007-05-15 2008-11-27 Casio Comput Co Ltd Body-mounted electronic equipment
US7957857B2 (en) 2007-06-20 2011-06-07 Fujitsu Component Limited Direction guiding apparatus and direction guiding method
JP2009042155A (en) * 2007-08-10 2009-02-26 Hitachi Ltd Navigation device
JP2010257052A (en) * 2009-04-22 2010-11-11 Funai Electric Co Ltd Rotary input device and electronic equipment
EP2407863A2 (en) 2010-07-16 2012-01-18 NTT DoCoMo, Inc. Display device, image display system, and image display method
US8866739B2 (en) 2010-07-16 2014-10-21 Ntt Docomo, Inc. Display device, image display system, and image display method
JP2012167961A (en) * 2011-02-10 2012-09-06 Nippon Densan Corp Gyro motor unit
WO2013018558A1 (en) * 2011-08-03 2013-02-07 シャープ株式会社 Haptic system
US9425718B2 (en) 2012-12-12 2016-08-23 Fujitsu Limited Vibration device and information processing apparatus
JP2014194767A (en) * 2013-03-15 2014-10-09 Immersion Corp Wearable haptic device
US10072940B2 (en) 2014-08-29 2018-09-11 Sony Corporation Force sense presentation device, force sense presentation system, and force sense presentation method
US10976175B2 (en) 2014-08-29 2021-04-13 Sony Corporation Force sense presentation device, force sense presentation system, and force sense presentation method
JP2016095152A (en) * 2014-11-12 2016-05-26 株式会社Nttドコモ System and information processing method
JP2018060315A (en) * 2016-10-04 2018-04-12 コニカミノルタ株式会社 Image forming apparatus and control program for image forming apparatus
JP2020060999A (en) * 2018-10-11 2020-04-16 有限会社エクストラ Program, braille output device, and braille output method
CN112969984A (en) * 2018-11-14 2021-06-15 索尼集团公司 Information processing apparatus, information processing method, and storage medium
WO2020116076A1 (en) * 2018-12-03 2020-06-11 株式会社デンソー Force-sense presentation system and force-sense presentation program
CN110044366A (en) * 2019-05-20 2019-07-23 中兴健康科技有限公司 A kind of compound blind guiding system
WO2020250336A1 (en) * 2019-06-12 2020-12-17 日本電信電話株式会社 Direction communication device, direction communication method, and program
JPWO2020250336A1 (en) * 2019-06-12 2020-12-17
JP7342947B2 (en) 2019-06-12 2023-09-12 日本電信電話株式会社 direction indicating device
JP2023540554A (en) * 2020-09-03 2023-09-25 シア ガイダンス システムス リミテッド Mobility support device and method for supporting movement
CN114664178A (en) * 2022-03-29 2022-06-24 中国标准化研究院 Electronic intelligent guiding mark and intelligent guiding method thereof
CN114664178B (en) * 2022-03-29 2023-08-25 中国标准化研究院 Electronic intelligent guiding mark and intelligent guiding method thereof

Also Published As

Publication number Publication date
JP4002970B2 (en) 2007-11-07

Similar Documents

Publication Publication Date Title
JP4002970B2 (en) Haptic human navigation system and device used therefor
US7788032B2 (en) Targeting location through haptic feedback signals
CN103471580B (en) For providing method, mobile terminal and the server of navigation information
US8170795B2 (en) Navigation system with animated intersection view
CN1755326B (en) navigation device
EP1889007B1 (en) Navigation device with camera-info
US6889138B1 (en) PDA system, method and device with automatic next turn page
US7522999B2 (en) Inertial waypoint finder
CN101002070A (en) Move guidance device, portable move guidance device, move guidance system, move guidance method, move guidance program, and recording medium on which the program is recorded
JP2006084208A (en) Navigation system and travelling direction guidance method
JPH10293038A (en) Pedestrian route guidance device
JP4622126B2 (en) Navigation device, navigation method, and navigation program
JP4478791B2 (en) Haptic human navigation system
MX2007015345A (en) Navigation device and method of scrolling map data displayed on a navigation device.
CN1685201B (en) Navigation system with acoustic route information
JP2004233333A (en) Stereoscopic display method for navigation, and navigation device
KR101600793B1 (en) Method for providing inforamtion related to navigation in mobile terminal and mobile terminal thereof
KR102578119B1 (en) Smart glasses operation method interworking to mobile device
JP4133114B2 (en) Inter-vehicle communication device
JP5063871B2 (en) Map display system for portable devices
JPH1183504A (en) Navigator
JP4568760B2 (en) Portable route guidance device, route guidance method, route guidance program, and recording medium
JP4099401B2 (en) Navigation device
JP2003083762A (en) Destination guidance apparatus, method, program, and recording medium recording the program
JP3865041B2 (en) Map display device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

R150 Certificate of patent or registration of utility model

Ref document number: 4002970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term