JP2004126842A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2004126842A JP2004126842A JP2002288253A JP2002288253A JP2004126842A JP 2004126842 A JP2004126842 A JP 2004126842A JP 2002288253 A JP2002288253 A JP 2002288253A JP 2002288253 A JP2002288253 A JP 2002288253A JP 2004126842 A JP2004126842 A JP 2004126842A
- Authority
- JP
- Japan
- Prior art keywords
- displayed
- display screen
- display
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims description 51
- 238000000034 method Methods 0.000 description 91
- 238000010586 diagram Methods 0.000 description 15
- 238000013459 approach Methods 0.000 description 6
- 230000003252 repetitive effect Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
Images
Landscapes
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は画像処理装置に関し、より詳細には、ナビゲ−ションシステム等に採用可能であり、地図等の画像を拡大表示させるための操作性を向上させることのできる画像処理装置に関する。
【0002】
【従来の技術】
ナビゲ−ションシステムには、通常、表示画面上に地図を表示し、その地図上に使用者により入力された目的地、該目的地までの誘導ル−ト、自車の現在位置に対応する自車位置マ−ク、及びそれまでの自車の走行軌跡等を重ねて表示する機能が装備されており、使用者はこの表示画面を逐次参照することで進路情報を得ることができ、その進路情報に従うことで目的地に到達することができるようになっている。
【0003】
また、地図の表示については、通常、縮尺を変更する機能が装備されており、地図画面を拡大表示させたい場合、まず、リモコンやジョイスティック等のユ−ザインタ−フェ−スにより、拡大させたい地図の表示領域までカ−ソルを移動させて拡大する中心点を指定し、所望の縮尺を選択・設定することにより拡大表示させることができるようになっている。
【0004】
このような画像の拡大表示方法として、特許文献1には、画面上の所定領域を拡大表示する場合に、入力デバイスにより拡大する領域の中心にカ−ソルを移動させて拡大表示指示を行わせ、該拡大表示指示に基づいて、拡大領域を示す枠を表示し、該枠を使用者により拡大終了指示が与えられるまで徐々に拡大してゆき、使用者により拡大終了指示が入力されると、拡大表示ウインドウを作成して枠内の画像を拡大表示させる方法が開示されている。
【0005】
また、特許文献2には、縮尺の大きい道路地図を表示している画面上に、これから拡大表示する部分の領域を示すウインド枠を表示し、該ウインド枠の移動や、拡大・縮小操作をキ−ボ−ドスイッチのキ−操作により行う車両用走行誘導装置が開示されている。
【0006】
また、特許文献3には、表示中の映像内の拡大させたい部分をペンで囲むことにより上記囲みに外接する長方形領域を切り出して、該長方形領域内の映像をディスプレイの画面一杯に拡大表示することのできるペン入力映像拡大装置が開示されている。
【0007】
【特許文献1】
特開平8−147134号公報 (第3頁、図6)
【特許文献2】
特開平8−194434号公報 (第3頁、図1−3)
【特許文献3】
特開平8−137620号公報 (第2頁、図11)
【0008】
【発明が解決しようとする課題】
しかしながら、従来のナビゲ−ションシステムにおいては、拡大させたい領域までの移動操作と、所望の縮尺とするための縮尺の選択・設定操作とが必要であり、しかも縮尺の選択・設定操作は、使用者の表示させたい拡大表示にするために繰り返し操作を伴う場合が多く、設定操作が煩雑になるという課題があった。
【0009】
また、上記特許文献1記載の方法では、上記したように拡大する領域の中心まで、わざわざカ−ソルを移動させなければならず、さらに、前記枠が徐々に拡大されていくため、該枠を大きく設定しようとした場合には、所望とする大きさに枠が拡大されるまで待たなければならず、時間がかかるという課題があった。
【0010】
上記特許文献2記載の装置においても、上記したように前記ウインドウ枠の移動をカ−ソルキ−操作により行わなければならず、前記ウインドウ枠を拡大・縮小するときも拡大・縮小選択キ−を使って何度も入力操作を繰り返す必要があり、設定操作が煩わしいという課題があった。
また、上記特許文献3記載の装置では、ペンで囲んだ領域が著しく歪んだ場合には、拡大したい領域の中心点が大きくずれてしまい、正確な範囲指定が行いにくいという課題があった。
【0011】
本発明は上記課題に鑑みなされたものであって、表示画面に表示されている地図等の画像を簡単な操作により拡大表示させることのできる画像処理装置を提供することを目的としている。
【0012】
【課題を解決するための手段及びその効果】
上記目的を達成するために本発明に係る画像処理装置(1)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、前記接触検出手段により前記接触点からのスライド移動が検出されると、前記枠の大きさを前記接触点からのスライド移動量に応じて変化させながら表示する第2の枠表示手段と、前記接触検出手段により前記スライド移動の終点が検出されると、前記第2の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第1の画像拡大表示手段とを備えていることを特徴としている。
【0013】
上記画像処理装置(1)によれば、前記接触検出手段により前記表示画面への接触(例えば、使用者が、接触検出手段としてタッチパネルが装備された前記表示画面に指を接触させる動作)が検出されると、接触点を略中心とした所定サイズの枠が前記表示画面に表示され、前記接触検出手段により前記接触点からのスライド移動(例えば、使用者が前記接触点から指を前記表示画面に触れた状態でスライド移動させる動作)が検出されると、前記枠の大きさを前記接触点からのスライド移動量に応じて変化させながら表示される。そして、前記接触検出手段により前記スライド移動の終点(例えば、使用者が前記表示画面から指を離す動作)が検出されると、前記第2の枠表示手段により表示された枠内に表示されている画像が前記表示画面に拡大表示される。
したがって、使用者は、拡大表示させたい画像の中心部分を指等により直接的に指定することができ、カ−ソル等による位置合わせ等の面倒な操作を行う必要がなく、簡単かつ正確な拡大表示の中心点の指定を行うことができる。
【0014】
また、使用者は、接触点から指等を任意の方向にスライド移動させるだけで前記枠の大きさを任意に調整することができ、前記枠により拡大表示させる範囲を一目で把握することができる。
さらに、使用者が指等を前記表示画面から離すことによって、前記スライド移動の終点が検出され、該終点検出時の枠内に表示されている画像を拡大表示させることができ、例えば、前記画像が地図画像の場合には、前記枠内の地図画像を表示画面サイズに拡大表示可能な縮尺の地図画像に切り換えて表示することで、詳細な地図情報を表示することができる。
【0015】
このように前記接触検出手段により検出される一連の接触状態の変化に基づいて、拡大表示する中心点の指定、前記枠による拡大範囲の指定、及び前記枠内の画像の拡大表示を行うことができ、使用者は、特別なカ−ソル操作や釦操作等を行なわずに、極めて簡単な操作により所望とする範囲の画像を前記表示画面に拡大表示させることができ、使用者にとって使い勝手の良い、画像の拡大表示のための操作性を向上させた装置を実現することができる。
【0016】
また本発明に係る画像処理装置(2)は、上記画像処理装置(1)において、前記所定サイズが、最大拡大率サイズを意味し、前記第2の枠表示手段が、前記枠を拡大させながら表示するものであることを特徴としている。
上記画像処理装置(2)によれば、前記所定サイズが、最大拡大率サイズを意味しているので、拡大率を大きく設定しようとした場合は、前記スライド移動を少なくすればよく、より迅速に拡大率の大きい枠の範囲指定を行い表示させることが可能となる。
【0017】
また本発明に係る画像処理装置(3)は、上記画像処理装置(1)において、前記所定サイズが、現在表示縮尺サイズを意味し、前記第2の枠表示手段が、前記枠を縮小させながら表示するものであることを特徴としている。
【0018】
上記画像処理装置(3)によれば、前記所定サイズが、現在表示縮尺サイズを意味しているので、現在表示縮尺に近い、すなわち拡大率の小さい枠の範囲指定を行う場合には、前記スライド移動を少なくすればよく、より迅速に拡大率の小さな枠の範囲指定を行い表示させることが可能となる。
【0019】
また本発明に係る画像処理装置(4)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触と、接触点からのスライド移動とが検出されると、前記接触点からのスライド移動量に応じて大きさの変化する枠を前記接触点を略中心にして前記表示画面に表示する第3の枠表示手段と、前記接触検出手段により前記スライド移動の終点が検出されると、前記第3の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第2の画像拡大表示手段とを備えていることを特徴としている。
【0020】
上記画像処理装置(4)によれば、前記接触検出手段により前記表示画面への接触(例えば、使用者が、接触検出手段としてタッチパネルが装備された前記表示画面に指を接触させる動作)と、前記接触点からのスライド移動(例えば、使用者が前記接触点から指を前記表示画面に触れた状態でスライド移動させる動作)とが検出されると、前記接触点からのスライド移動量に応じて大きさの変化する枠が前記接触点を略中心にして表示され、前記接触検出手段により前記スライド移動の終点(例えば、使用者が前記表示画面から指を離す動作)が検出されると、前記第3の枠表示手段により表示された枠内に表示されている画像が前記表示画面に拡大表示される。
したがって、上記画像処理装置(1)と略同様の効果を得ることができる。また、前記スライド移動を検出した場合にのみ前記枠が表示され、上記画像処理装置(1)のように前記表示画面への接触時には前記枠の表示は行われないので、使用者の意図しない接触による前記枠の表示が行われることを阻止することができる。
【0021】
また本発明に係る画像処理装置(5)は、上記画像処理装置(1)〜(4)のいずれかにおいて、前記接触検出手段により前記表示画面への接触が検出されると、前記接触点に表示されている画像を前記表示画面の略中心に移動させて表示する画像移動表示手段と、前記枠の中心を前記接触点から前記表示画面の略中心に移動させる枠中心移動手段とを備えていることを特徴としている。
【0022】
上記画像処理装置(5)によれば、前記接触検出手段により前記表示画面への接触が検出されると、前記接触点に表示されている画像が前記表示画面の略中心に移動して表示され、また、前記枠の中心も前記接触点から前記表示画面の略中心に移るので、使用者は、拡大表示させたい前記接触点周辺の画像情報を把握しやすくなり、前記枠による範囲指定も容易なものとなる。また、拡大表示前の中心点と拡大表示後の中心点が同一になるので、拡大後の画像の把握も容易になる。
【0023】
また本発明に係る画像処理装置(6)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、前記接触検出手段により前記接触点からのスライド移動が検出され、該スライド移動が前記表示画面に表示されている前記枠を越えると、次の拡大設定領域を示す枠を表示する第4の枠表示手段と、前記接触検出手段により前記スライド移動の終点が検出されると、前記第4の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第3の画像拡大表示手段とを備えていることを特徴としている。
【0024】
上記画像処理装置(6)によれば、前記スライド移動とともに前記枠の大きさが変化するのではなく、前記スライド移動(例えば、前記表示画面上をスライド移動させている指の接触点)が前記表示画面に表示されている前記枠を越えると、次の拡大設定領域を示す枠が表示されるので、拡大表示させる縮尺設定に対応した枠を前記表示画面に段階的に表示させることができる。また、前記枠の大きさの微調整を行う必要がなく、大まかな枠の範囲指定が容易となる。
【0025】
また本発明に係る画像処理装置(7)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触が検出されると、接触点に表示されている画像を前記表示画面の略中心に移動させるとともに所定の縮尺で拡大された画像を表示する第4の画像拡大表示手段を備えていることを特徴としている。
【0026】
上記画像処理装置(7)によれば、前記表示画面に表示されている画像のうち拡大表示させたい部分を指等で触れるだけで、その部分が前記表示画面の略中心に移動するとともに所定の縮尺で拡大された画像が表示されるので、より簡単な操作で画像を拡大表示させることができる。
【0027】
また本発明に係る画像処理装置(8)は、上記画像処理装置(7)において、前記接触点に表示されている画像を前記表示画面の略中心に移動させて拡大表示するための縮尺を設定することのできる縮尺設定手段を備えていることを特徴としている。
上記画像処理装置(8)によれば、前記縮尺設定手段により、使用者は、表示させる画像によって適切な縮尺を設定することができ、使用者が表示させたい拡大率の縮尺で画像を表示画面に表示させることができ、使い勝手を向上させることができる。
【0028】
また本発明に係る画像処理装置(9)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により、2点の接触が検出されると、これら2点間を含む所定範囲の画像を前記表示画面に表示可能な縮尺で拡大表示する第5の画像拡大表示手段を備えていることを特徴としている。
【0029】
上記画像処理装置(9)によれば、前記接触検出手段により、2点の接触(例えば、使用者が指等で前記表示画面上の2点を指定する動作)が検出されると、これら2点間を含む所定範囲の画像が前記表示画面に表示可能な縮尺で拡大表示されるので、表示画面上の2点を指等で指定するというごく簡単な操作で、前記2点間の画像を簡単に拡大表示させることができる。
【0030】
また本発明に係る画像処理装置(10)は、上記画像処理装置(1)〜(9)のいずれかにおいて、前記接触検出手段で検出される前記表示画面への接触を画像を拡大表示させるためのものと認識させる拡大表示モ−ドと、他のモ−ドとを区別する設定を行うモ−ド設定手段を備えていることを特徴としている。
上記画像処理装置(10)によれば、前記モ−ド設定手段により前記拡大表示モ−ドと、前記他のモ−ドとを区別して設定することができ、前記拡大表示モ−ドに設定された場合は、前記接触検出手段で検出される前記表示画面への接触が画像を拡大表示させるためのものと認識されることとなる。
【0031】
また本発明に係る画像処理装置(11)は、上記画像処理装置(10)において、前記モ−ド設定手段が、前記接触検出手段により所定時間以上継続しての接触が検出されると、前記拡大表示モ−ド又は前記他のモ−ドの設定を行うものであることを特徴としている。
上記画像処理装置(11)によれば、前記接触検出手段により所定時間以上継続しての接触(前記表示画面の1点を指で触れた状態が所定時間継続している動作)が検出されると、前記モ−ド設定手段が前記拡大表示モ−ド又は前記他のモ−ドの設定を行うものであるので、使用者は、前記表示画面を特に注視しなくても、簡単にモ−ド設定を行うことができる。
【0032】
また本発明に係る画像処理装置(12)は、上記画像処理装置(10)又は(11)において、前記モ−ド設定手段により前記拡大表示モ−ドに設定された場合に、該拡大表示モ−ドに設定されたことを使用者に告知する告知手段を備えていることを特徴としている。
上記画像処理装置(12)によれば、前記告知手段により、前記拡大表示モ−ドに設定されたことを使用者に告知するので、該告知により、使用者は、前記拡大表示モ−ドに設定されたことを即座に確認することができる。
【0033】
また本発明に係る画像処理装置(13)は、上記画像処理装置(12)において、前記告知手段が、音や音声により告知するもの、前記表示画面への表示により告知するもの、又は前記表示画面に表示されている画像の色を変更することにより告知するもののいずれかを含んでいることを特徴としている。
上記画像処理装置(13)によれば、前記告知手段が、音や音声により告知するもの、前記表示画面への表示により告知するもの、又は前記表示画面に表示されている画像の色を変更することにより告知するもののいずれかを含んでいるので、前記拡大表示モ−ドに設定されたことを、使用者に確実に把握させることができる。
【0034】
また本発明に係る画像処理装置(14)は、地図画像が表示される表示画面を有する表示手段を備えた画像処理装置において、ナビゲ−ションシステムに採用され、現在地と目的地との間の直線距離を算出する目的地距離算出手段と、前記現在地と前記目的地とを含む地図画像を表示画面に表示する表示制御手段とを備え、前記表示制御手段が、前記目的地距離算出手段により算出された前記現在地と前記目的地との間の直線距離が所定値以下となった場合に、前記現在地と前記目的地とを含む所定範囲を拡大表示可能な縮尺の地図画像に切り換えて前記表示画面へ表示するものであることを特徴としている。
【0035】
上記画像処理装置(14)によれば、前記現在地と前記目的地との直線距離が所定値以下になると、自動的に前記現在地と前記目的地とを含む拡大された縮尺の地図画像に切り換えて表示されるので、目的地までの拡大表示への切り換えに使用者が操作を行わなくてもよく、運転時の安全性を高めることができる。また、前記現在地と前記目的地との間のより詳細な道路や建物等の地図情報を取得することができ、使用者にとって便利で、使い勝手の良い装置を実現することができる。
【0036】
また本発明に係る画像処理装置(15)は、上記画像処理装置(14)において、前記表示制御手段が、前記現在地と前記目的地との間の直線距離の変化に応じて前記縮尺を変更し、変更された前記縮尺で前記現在地と前記目的地とを含む所定範囲の地図画像を前記表示画面へ表示するものであることを特徴としている。
【0037】
上記画像処理装置(15)によれば、前記現在地と前記目的地との間の直線距離が近づくにつれ、使用者が特に操作をしなくても、その距離に応じて段階的に拡大率の大きな縮尺に変更された地図画像が表示されていくので、前記現在地と前記目的地との間の距離に応じた適切な縮尺率で拡大された地図画像が表示され、使用者は、前記目的地に近づくにつれて、目的地周辺のより詳細な情報を把握することが可能となる。
【0038】
また本発明に係る画像処理装置(16)は、上記画像処理装置(14)又は(15)において、前記現在地と前記目的地とを含む所定範囲を拡大表示可能な縮尺の地図画像に切り換えて前記表示画面へ表示させる設定を行うための目的地拡大表示モ−ド設定手段を備えていることを特徴としている。
上記画像処理装置(16)によれば、前記目的地拡大表示モ−ド設定手段により、使用者は、好みに応じて目的地拡大表示モ−ドの設定を行うことができる。
【0039】
【発明の実施の形態】
以下、本発明に係る画像処理装置の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの要部を概略的に示したブロック図である。
【0040】
車速から演算して走行距離を取得するための車速センサ11と、進行方向を取得するためのジャイロセンサ12とがマイクロコンピュ−タ(マイコン)10に接続されており、マイコン10は、演算した走行距離、及び進行方向に基づいて自車位置を割り出すようになっている(自律航法)。
GPS受信機13は、アンテナ13aを介して衛星からのGPS信号を受信するもので、マイコン10に接続されており、マイコン10はGPS信号に基づいて自車位置を割り出すようになっている(GPS航法)。
【0041】
また、道路等のデ−タ等が記憶された画像記憶手段14がマイコン10に接続されており、マイコン10は、割り出した自車位置と地図画像デ−タとを合わせるマップマッチング処理を行うことによって、自車位置が正確に示された地図を表示画面上へ表示するようになっている。画像記憶手段14には、例えば、ハ−ドディスク等を採用することができる。
【0042】
また、リモコン15に設けられたジョイスティック15aやボタンスイッチ15bから出力されたスイッチ信号や、表示装置16に設けられたボタンスイッチ16aから出力されたスイッチ信号がマイコン10に入力され、これらスイッチ信号に応じた処理がマイコン10で行われるようになっている。例えば、マイコン10は、これらスイッチから目的地の情報を取り込むと、自車位置から目的地までの最適ル−トを探索し、これを誘導ル−トとして地図と共に表示画面16b上に表示するようになっている。
【0043】
このように、ナビゲ−ションシステムでは、表示画面16bに地図が表示され、その地図上に使用者により入力された目的地、該目的地までのル−ト、自車の現在位置に対応する自車位置マ−ク、及びそれまでの走行軌跡等が重ねて表示されるようになっており、使用者は、この表示画面16bを逐次参照することで、進路情報を得ることができ、その進路情報に従うことで目的地に到達することができるようになっている。
【0044】
また、図中17は、表示画面16bへの物理的な接触を検出する接触検出手段を示しており、接触検出手段17は、使用者が表示画面16bに表示される地図等の画像の拡大操作や、地図をスクロ−ルさせる操作等を可能にするために、画像が表示された表示画面16b上に接触させた指などを検出するものであり、表示画面16b上に、透明なタッチパネル(図示せず)などが積層されて構成されている。また、接触検出手段17で検出された座標信号は、マイコン10に入力されるようになっている。
【0045】
また、実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムでは、表示画面16b上に表示された画面を通じて、使用者が各種の設定を行うことができ、図2に示した『タッチパネルの設定』画面を通じて、タッチパネル上の任意の点の長押しにより設定されるモ−ドを使用者が自由に選択・設定することができるようになっている。
【0046】
図2に示した設定画面において、「拡大表示モ−ド」が選択・設定されている場合には、画像表示中にタッチパネル上の任意の点の長押しが検出されると、拡大表示モ−ドに切り換えられ、マイコン10では、接触検出手段17で検出された座標デ−タに基づいて、画像を拡大表示するための各種の制御が行われるようになっている。また、拡大表示モ−ドに切り換える他の方法として、リモコン15のボタンスイッチ15bや、表示装置16のボタンスイッチ16aに「拡大表示モ−ド」への設定が可能なボタンを割り当てておいてもよい。
【0047】
また、図3に示した『拡大表示モ−ド設定時の告知方法の設定』画面を通じて、拡大表示モ−ドに設定されたことを使用者に告知するための方法を選択・設定することができるようになっており、図3では、音声、オンスクリ−ン表示、及び画像背景色の変更による告知をするか、しないかを使用者が自由に選択・設定することができるようになっている。
【0048】
次に、拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図4(a)〜(d)に示した表示例に基づいて説明する。
図4(a)は、表示画面16bに表示された地図画像の一例を示しており、画面中央下方位置には自車の現在位置を示す自車位置マ−ク、画面中心付近にはB銀行、B銀行の左斜め上にAビルが表示された状態を示しており、比較的広域を表示する縮尺に設定されているものとする。なお、簡略化のため道路等の他の表示をここでは省略している。
【0049】
まず、使用者がAビル周辺の詳細な地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする。すると、図4(b)に示すように×印で示した接触点(×印は実際には表示されない)を略中心とした拡大設定領域を示す枠21が表示画面16bに表示される。表示される枠21のサイズは、最大拡大率サイズ、すなわち拡大率が最大の縮尺で表示画面16bに表示可能な領域を示すサイズとなっている。
【0050】
使用者による接触点(×印)からの指のスライド移動(例えば、図4(c)の実線矢印で示したような動作)が検出されると、枠21がスライド移動量に応じて拡がりながら(破線矢印)表示される。枠21は、接触点からのスライド移動量に応じて等方的に大きさが変化するので、指のスライド移動の向きはいずれの方向でもよい。
【0051】
使用者は、指をスライド移動させながら、枠21で拡大表示させる範囲を設定できるようになっており、枠21内にB銀行が含まれた時点(図4(c))において、スライド移動させていた指が表示画面16bから離れたことが検出されると、図4(d)に示すように、図4(c)に示した枠21で指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点(×印)に表示されていた画像(Aビル)を略中心にして拡大表示される。なお、表示画面一杯に表示可能な縮尺がない場合は、最も拡大率の近い縮尺の地図画像が表示される。この場合は、表示画面16bに一部地図画像が表示されない部分が形成されることとなる。
【0052】
次に実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10の行う拡大表示モ−ド設定処理動作を図5に示したフロ−チャ−トに基づいて説明する。
まず、ステップS1では、拡大表示モ−ドに設定されているか否かを判断し、拡大表示モ−ドに設定されていると判断すれば、処理を終了する。一方、ステップS1において、拡大表示モ−ドに設定されていないと判断すればステップS2に進む。ステップS2では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すればステップS1に戻る。
【0053】
一方、ステップS2において、タッチパネルへの指の接触があったと判断すればステップS3に進み、タイマtを起動させて、その後ステップS4に進む。ステップS4では、タッチパネルへの指の接触が所定時間t1継続して検出された否かを判断し、タッチパネルへの指の接触が所定時間t1継続して検出されたと判断すればステップS5に進む。
【0054】
ステップS5では、拡大表示モ−ドへ設定する処理を行い、その後ステップS6に進む。ステップS6では、図3に示した『拡大表示モ−ド設定時の告知方法の設定』画面を通じて設定された告知方法により拡大表示モ−ドに設定されたことを使用者に告知する処理を行い、その後処理を終了する。
一方、ステップS4において、タッチパネルへの指の接触が検出された状態でタイマtが所定時間t1経過していないと判断すればステップS1に戻る。
【0055】
次に実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10の行う拡大表示処理動作を図6に示したフロ−チャ−トに基づいて説明する。なお、本処理動作は、拡大表示モ−ド設定時に実行される。
【0056】
まず、ステップS11では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了する。一方、ステップS11において、タッチパネルへの指の接触があったと判断すればステップS12に進み、ステップS12では、接触点を略中心として最大拡大率サイズの枠21を表示する処理を行い、その後ステップS13に進む。
【0057】
ステップS13では、接触点からのスライド移動が検出されたか否か、すなわち、タッチパネルに接触させた指を接触点からスライド移動させる動作が検出されたか否かを判断し、接触点からのスライド移動が検出されなかったと判断すれば、ステップS15に進む。一方、ステップS13において、接触点からのスライド移動が検出されたと判断すれば、ステップS14に進む。
【0058】
ステップS14では、枠21を接触点からのスライド移動量に応じて拡大させながら表示する処理を行い、その後ステップS15に進む。ステップS15では、スライド移動の終点が検出されたか否か、すなわち、タッチパネルから指が離されたか否かを判断し、タッチパネルから指が離されていないと判断すればステップS13に戻り、一方、タッチパネルから指が離されたと判断すればステップS16に進む。
ステップS16では、ステップS14において表示された枠21で指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点を略中心にして拡大表示する処理を行い、その後処理を終了する。
【0059】
上記実施の形態(1)に係る画像処理装置によれば、使用者は、拡大表示させたい地図画像の中心部分を指等により直接的に指定することができ、カ−ソル等による位置合わせ等の面倒な操作を行う必要がなく、簡単かつ正確な拡大表示の中心点の指定を行うことができる。
また、使用者は、接触点から指等を任意の方向にスライド移動させるだけで枠21の大きさを任意に調整することができ、枠21により拡大表示させる範囲を一目で把握することができる。
さらに、使用者が指等を表示画面16bから離すことによって、スライド移動の終点が検出され、該終点検出時の枠21内に表示されている地図画像を表示画面全体に表示可能な縮尺の地図画像に拡大表示させることができ、使用者は詳細な地図情報を得ることができる。
【0060】
このように接触検出手段17により検出される一連の接触状態の変化に基づいて、拡大表示させる中心点の指定、枠21による拡大範囲の指定、及び枠21内の地図画像の拡大表示を行わせることができ、使用者は、特別なカ−ソル操作や釦操作等を行なわずに、極めて簡単な操作により所望とする範囲の地図画像を表示画面16bに拡大表示させることができ、使用者にとって使い勝手の良い、地図画像の拡大表示のための操作性を向上させた装置を実現することができる。
【0061】
なお、上記実施の形態(1)では、拡大表示モ−ド設定時において、タッチパネルへの指の接触が検出されると、枠21が表示されるようになっているが、別の実施の形態では、タッチパネルへの指の接触が検出された後、さらに指のスライド移動が検出された場合にのみ、枠21を表示させるようにしても良い。
また、図7に示したような設定画面を通じて、これらの処理を使用者が自由に選択できるようにし、マイコン10が、設定画面を通じて選択・設定された表示タイミングにより、枠21を表示させる処理を行うようにしてもよい。
【0062】
次に実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Aを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Aには異なる符号を付し、その他の説明をここでは省略する。
【0063】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図8(a)〜(d)に示した表示例に基づいて説明する。
図8(a)は、表示画面16bに表示される地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0064】
まず、使用者がAビル周辺の詳細な拡大地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする(図8(a)に×印で示した接触点(×印は実際には表示されない))。
すると、図8(a)において接触点に表示されていたAビルを表示画面16bの略中心に移動させた地図画像が表示され、中心を接触点から表示画面16bの略中心に移動させた枠21aが地図上に表示される(図8(b))。なお、枠21aのサイズは、最大拡大率サイズとなっている。
【0065】
使用者による接触点(×印)からの指のスライド移動(例えば、図8(c)の実線矢印で示したような動作)が検出されると、枠21aがスライド移動量に応じて拡がりながら(破線矢印)表示される。枠21aは、接触点からのスライド移動量に応じて等方的に大きさが変化するので、指のスライド移動の向きはいずれの方向でもよい。
【0066】
使用者は、指をスライド移動させながら、枠21aで拡大表示させる範囲を設定できるようになっており、枠21a内にB銀行が含まれた時点(図8(c))において、スライド移動させていた指が表示画面16bから離れたことが検出されると、図8(d)に示すように、図8(c)に示した枠21aで指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、表示画面の中心を固定して拡大表示され、使用者は、B銀行を含むAビル周辺の詳細な地図情報を参照することができるようになっている。
【0067】
次に実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Aの行う拡大表示処理動作を図9に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、図6におけるステップS12の代わりにステップS21、S22を挿入した構成となっており、以下ここでは相違点のみ説明することとする。
【0068】
まず、ステップS11では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了し、一方、タッチパネルへの指の接触があったと判断すればステップS21に進む。
【0069】
ステップS21では、接触点に表示されている地図画像を表示画面16bの略中心に移動させて表示する処理を行い、その後ステップS22に進む。ステップS22では、中心を接触点から表示画面16bの略中心に移動させた枠21aを地図上に表示する処理を行い、その後ステップS13に進み、以下図6に示した処理と同様の処理を行い、枠21a内の画像を表示画面16bに拡大表示する。
【0070】
上記実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムによれば、接触検出手段17により表示画面16bへの接触が検出されると、接触点(×印)に表示されている画像が表示画面16bの略中心に移動して表示され、また、枠21aの中心も接触点(×印)から表示画面16bの略中心に移るので、使用者は、拡大表示させたい接触点周辺の画像情報を把握しやすくなり、枠21aによる範囲指定も容易なものとなる。また、拡大表示前の中心点と拡大表示後の中心点が同一になるので、拡大後の画像の把握も容易になる。
【0071】
なお上記実施の形態(2)では、接触点に表示されている画像を表示画面16bの略中心に移動させて、中心を接触点から表示画面16bの略中心に移動させた枠21aを地図上に表示するように予め設定されていたが、別の実施の形態では、図10に示したような設定画面を通じて、接触点の画像を表示画面16bの略中心に移動させるとともに、中心を接触点から表示画面の略中心に移動させた枠21aを表示させるか否かを使用者が自由に選択できるようにし、すなわち、実施の形態(1)又は(2)の処理を使用者が自由に選択できるようにして、マイコン10Aが、設定画面を通じて選択・設定された拡大表示方法により、地図画像と枠とを表示する処理を行うようにしてもよい。
【0072】
次に実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Bを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Bには異なる符号を付し、その他の説明をここでは省略する。
【0073】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図11(a)〜(d)に示した表示例に基づいて説明する。
図11(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0074】
まず、使用者がAビル周辺の詳細な拡大地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする。すると、図11(b)に示すように×印で示した接触点(×印は実際には表示されない)を略中心とした枠21bが表示される。枠21bのサイズは、現在表示縮尺サイズ、すなわち、拡大率が現在表示している画像の縮尺で表示画面16bに表示可能な領域を示すサイズとなっている。
【0075】
使用者による接触点(×印)からの指のスライド移動(例えば、図11(c)に実線矢印で示したような動作)が検出させると、枠21bがスライド移動量に応じて縮小しながら(破線矢印)表示される。枠21bは、接触点からのスライド移動量に応じて等方的に大きさが縮小されていくので、指のスライド移動の向きはいずれの方向でもよい。
【0076】
使用者は、指をスライド移動させながら、縮小されていく枠21bで拡大表示させる範囲を設定できるようになっており、枠21b内の端にB銀行が含まれた時点(図11(c))において、スライド移動させていた指が表示画面16bから離れたことが検出されると、図11(d)に示すように、図11(c)に示した枠21bで指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点を略中心にして拡大表示され、使用者は、B銀行を含むAビル周辺の詳細な拡大地図情報を参照することができるようになっている。
【0077】
次に実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Bの行う拡大表示処理動作を図12に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、図6におけるステップS12の代わりにステップS31を、ステップS14の代わりにステップS32を挿入した構成となっており、以下ここでは相違点のみ説明することとする。
【0078】
まず、ステップS11では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了し、一方、タッチパネルへの指の接触があったと判断すればステップS31に進む。
【0079】
ステップS31では、接触点を略中心として現在表示縮尺サイズの枠21bを表示する処理を行い、その後ステップS13に進む。ステップS13では、接触点からのスライド移動が検出されたか否かを判断し、接触点からのスライド移動が検出されなかったと判断すればステップS15に進む。一方、ステップS13において、接触点からのスライド移動が検出されたと判断すればステップS32に進む。
【0080】
ステップS32では、枠21bを接触点からのスライド移動量に応じて縮小させながら表示する処理を行い、その後ステップS15に進む。以下、図6に示した処理と同様の処理を行い、枠21b内の画像を表示画面16bに拡大表示する。
【0081】
上記実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムによれば、タッチパネルへの接触時に、接触点を中心として現在表示縮尺サイズの枠21bが表示されるので、現在表示縮尺に近い、すなわち拡大率の小さい枠の範囲指定を行う場合には、スライド移動を少なくすればよく、より迅速に拡大率の小さな枠の範囲指定を行い表示させることができるようになる。
【0082】
なお上記実施の形態(3)では、タッチパネルへの指の接触が検出されると、接触点を略中心として、現在表示縮尺サイズの枠21bを表示するように予め設定されていたが、別の実施の形態では、図13に示したような設定画面を通じて、タッチパネルへの指の接触が検出された時に、接触点を略中心として表示する枠のサイズを使用者が自由に選択できるようにし、すなわち実施の形態(1)又は(3)の処理を使用者が自由に選択できるようにして、マイコン10Bが設定画面を通じて選択・設定されたサイズの枠を表示する処理を行うようにしてもよい。
【0083】
次に実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Cを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Cには異なる符号を付し、その他の説明をここでは省略する。
【0084】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図14(a)〜(d)に示した表示例に基づいて説明する。
図14(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0085】
まず、使用者がAビル周辺の詳細な拡大地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする。すると、図14(a)に示すように×印で示した接触点(×印は実際には表示されない)を略中心とした枠21c1が表示される。枠21c1のサイズは、所定の縮尺で表示画面16bに表示可能な領域を示すサイズであればよいが、最大拡大率サイズが好ましい。
【0086】
使用者による接触点からの指のスライド移動が検出され、スライド移動(図14(a)に示した実線矢印)が現在表示している枠21c1を越える、すなわちスライド移動させている指の接触点が図14(a)に示した枠21c1を越えると、次の拡大率(枠21c1よりも小さい拡大率)に設定された枠21c2が表示される(図14(b))。
【0087】
さらに使用者による指のスライド移動が検出され、スライド移動が枠21c2を越えると(図14(c)に示した実線矢印の動作)、さらに次の拡大率(枠21c2よりも小さい拡大率)に設定された枠21c3が表示され、B銀行が含まれた枠21c3が表示されたこの時点(図14(c))で、スライド移動させていた指が表示画面16bから離れたことが検出されると、図14(d)に示すように、図14(c)に示した枠21c3で指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点を略中心にして拡大表示され、使用者は、B銀行を含むAビル周辺の詳細な拡大地図情報を参照することができるようになっている。
【0088】
次に実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Cの行う拡大表示処理動作を図15に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、図6におけるステップS14の代わりにステップS41〜S43を挿入した構成となっており、以下ここでは相違点のみ説明することとする。
【0089】
ステップS13において、接触点からのスライド移動が検出されたと判断すれば、ステップS41に進む。ステップS41では、スライド移動の座標デ−タの取り込みを行い、ステップS42に進む。
ステップS42では、取り込んだ座標デ−タに基づいて、スライド移動が表示画面16bに表示している枠を越えたか否かを判断し、スライド移動が表示画面16bに表示している枠を越えたと判断すればステップS43に進む。
【0090】
ステップS43では、次の拡大設定領域を示す枠を表示する処理を行い、その後ステップS15に進む。
一方、ステップS42において、スライド移動が表示画面16bに表示している枠を越えていないと判断すればステップS15に進む。
【0091】
上記実施の形態(4)に係る画像処理装置に採用したナビゲ−ションシステムによれば、スライド移動とともに枠の大きさが変化するのではなく、スライド移動(例えば、表示画面16b上をスライド移動させている指の接触点)が表示画面16bに表示されている枠21c1を越えると、次の拡大設定領域を示す枠21c2が表示されるので、拡大表示させる縮尺設定に対応した枠12c1〜12cnを表示画面16bに段階的に表示させることができる。また、枠の大きさの微調整を行う必要がなく、大まかな枠の範囲指定が容易となる。
【0092】
なお、上記実施の形態(4)では、スライド移動が、表示画面16bに表示している枠を越える毎に段階的に拡大率の異なるサイズの枠を表示させるように予め設定されていたが、別の実施の形態によれば、図16に示したような設定画面を通じて、スライド移動量に応じて拡大させながら枠を表示させることのできる「スライド拡大表示」と、予め設定された拡大率の枠を段階的に表示させることのできる「段階拡大表示」とを使用者が自由に選択できるようにして、マイコン10Cが、図16の設定画面を通じて選択・設定された枠の拡大表示方法により、枠を表示する処理を行うようにしてもよい。
【0093】
次に実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Dを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Dには異なる符号を付し、その他の説明をここでは省略する。
【0094】
実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムでは、拡大表示モ−ド設定時において、使用者が拡大表示したい部分をタッチパネルを介して指で接触すると、接触点における画像が表示画面16bの略中心に移動して、予め設定された縮尺で拡大された画像が表示画面16bに表示されるようになっているため、より簡単な操作により見たい部分の周辺の画像を拡大表示させることができるようになっている。
【0095】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図17(a)〜(c)に示した表示例に基づいて説明する。
図17(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0096】
まず、使用者がAビル周辺の詳細な地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする(図17(a)に×印で示した接触点(×印は実際には表示されない))。すると、図17(a)において接触点に表示されていたAビルを表示画面16bの略中心に移動した地図画像が表示され(図17(b))、その後、Aビルを表示画面16bの略中心として、予め設定された拡大表示可能な縮尺の地図画像が表示され(図17(c))、使用者は、Aビル周辺の詳細な拡大地図情報を参照することができるようになっている。
【0097】
次に実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Dの行う拡大表示処理動作を図18に示したフロ−チャ−トに基づいて説明する。なお本処理動作は拡大表示モ−ド設定時に実行される。
【0098】
まず、ステップS51では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了する。
【0099】
一方、ステップS51において、タッチパネルへの指の接触があったと判断すれば、ステップS52に進み、ステップS52では、接触点に表示されていた画像を表示画面16bの略中心に移動して表示する処理を行い、その後ステップS53に進む。ステップS53では、表示画面16bに表示されている画像の中心位置を固定して、予め設定された拡大表示可能な縮尺で拡大表示する処理を行い、その後処理を終了する。
【0100】
上記実施の形態(5)に係る画像処理装置が採用されたナビゲ−ションシステムによれば、表示画面16bに表示されている画像のうち拡大表示させたい部分を指等で触れるだけで、その部分が表示画面16bの略中心に移動するとともに所定の縮尺で拡大された画像が表示されるので、より簡単な操作で画像を拡大表示させることができる。
【0101】
なお、上記実施の形態(5)では、接触が検出された部分を表示画面16bの略中心に移動して、所定の縮尺で拡大された地図画像を表示するようになっているが、別の実施の形態では、接触が検出された部分を含むように予め設定された拡大表示させる縮尺の地図画像を表示した後、接触が検出された部分を表示画面16bの略中心に移動して表示させるようにしてもよい。
また、上記実施の形態(5)では、拡大表示可能な縮尺が予め設定されているようになっているが、別の実施の形態では、使用者が、所望とする縮尺を選択・設定することのできる設定画面を設けておき、該設定画面を通じて、拡大表示する縮尺を設定できるようにしてもよい。
【0102】
次に実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Eを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Eには異なる符号を付し、その他の説明をここでは省略する。
【0103】
実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムでは、拡大表示モ−ド設定時において、表示画面上の2点の接触が検出されると、該2点における画像を同時に表示可能な縮尺で、しかも2点間の中心が表示画面16bの略中心に位置するように拡大表示されるようになっており、直接的に拡大表示させたい部分が指定し易くなっている。
【0104】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図19(a)、(b)に示した表示例に基づいて説明する。
図19(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0105】
まず、使用者がAビルとB銀行と間の詳細な地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所と、B銀行の表示箇所とを指でタッチする(図19(a)に×印で示した接触点(×印は実際には表示されない))。
【0106】
すると、図19(b)に示すように、AビルとB銀行とを1画面に含むように拡大表示可能な縮尺で、しかもAビルとB銀行との中点が、表示画面16bの略中心に位置するように表示され、使用者は、AビルとB銀行との間の詳細な拡大地図情報を参照することができるようになっている。
【0107】
次に実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Eの行う拡大表示処理動作を図20に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、拡大表示モ−ドの設定時に実行される。
【0108】
まず、ステップS61では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了する。一方、ステップS61において、タッチパネルへの指の接触があったと判断すればステップS62に進み、タイマtを起動して、その後ステップS63に進む。
【0109】
ステップS63では、所定時間t2内にタッチパネルへの再接触が検出されたか否か、すなわち所定時間t2内にタッチパネルへの指の再接触があったか否かを判断し、タッチパネルへの指の再接触がなかったと判断すれば、処理を終了しする。一方、ステップS63においてタッチパネルへの指の再接触があったと判断すればステップS64に進む。
【0110】
ステップS64では、接触の検出された2点の座標デ−タから2点間の距離を算出する処理を行い、その後ステップS65に進む。ステップS65では、算出された2点間の距離から2点間を表示画面16bに拡大表示するための縮尺を決定する処理を行い、その後ステップS66に進む。ステップS66では、決定された拡大表示可能な縮尺で2点間の中点が表示画面の略中心に位置するように、2点間を拡大表示する処理を行い、その後処理を終了する。
【0111】
上記実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムによれば、接触検出手段17により、2点の接触(例えば、使用者が指等で前記表示画面上の2点を指定する動作)が検出されると、これら2点間を含む所定範囲の地図画像が表示画面16bに表示可能な縮尺で拡大表示されるので、表示画面16b上の2点を指等で指定するというごく簡単な操作で、2点間の地図画像を簡単に拡大表示させることができる。
【0112】
次に実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Fを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Fには異なる符号を付し、その他の説明をここでは省略する。
【0113】
実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムでは、目的地まで経路誘導している時に、自車位置と目的地との間の直線距離が所定値以下になった場合に、該所定値以下で自車位置と目的地とを含む所定範囲を拡大表示可能な縮尺の地図画像に自動的に切り換えて表示し、自車位置と目的地との間の直線距離が近づくにつれ、より拡大率の大きな縮尺の地図画像が自動的に切り換えて表示されるようになっており、使用者は、縮尺設定をいちいち行わなくても、目的地が近づくにつれ、自車位置と目的地との間の詳細な道路情報等を把握することができるようになっている。
【0114】
実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムでは、表示画面上に表示された画面を通じて、使用者が各種の設定を行うことができ、図21に示した『目的地拡大表示モ−ド設定』画面を通じて、目的地まで経路誘導している時に、自車位置と目的地との間の直線距離が所定値以下となった場合に、該所定値以下で自車位置と目的地とを含む範囲を拡大表示可能な縮尺に切り換えて地図画像を表示するかどうかの目的地拡大表示モ−ドの設定や、目的地拡大表示モ−ドに設定した場合に、さらに自車位置と目的地との間の直線距離が近づくにつれて、拡大率の大きな縮尺に段階的に切り換えて表示する繰り返し縮尺変更表示モ−ドの設定を行うか否かを使用者が自由に選択・設定できるようになっている。
【0115】
実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Fの行う拡大表示処理動作を図22に示したフロ−チャ−トに基づいて説明する。
【0116】
まず、ステップS71では、目的地拡大表示モ−ドに設定されているか否かを判断し、目的地拡大表示モ−ドに設定されていないと判断すれば、他のモ−ドの処理に進み、一方、目的地拡大表示モ−ドに設定されていると判断すればステップS72に進む。
【0117】
ステップS72では、取り込んだ自車位置デ−タに基づいて、自車位置から目的地までの直線距離を算出する処理を行い、その後ステップS73に進む。ステップS73では、算出した自車位置から目的地までの直線距離が、縮尺変更の基準となる所定値以下になったか否かを判断し、所定値以下になっていないと判断すればステップS72に戻る。
【0118】
一方、ステップS73において、算出した自車位置から目的地までの直線距離が、縮尺変更の基準となる所定値以下になったと判断すればステップS74に進む。ステップS74では、設定された縮尺(第1の縮尺)で自車位置と目的地とを含む所定範囲を拡大表示する処理を行い、その後ステップS75に進む。
【0119】
ステップS75では、繰り返し縮尺変更表示モ−ドに設定されているか否かを判断し、繰り返し縮尺変更表示モ−ドに設定されていると判断すればステップS76に進む。ステップS76では、縮尺変更デ−タの読み出し、すなわち第1の縮尺よりも拡大率の大きな第2の縮尺で表示するためのデ−タを読み出す処理を行い、その後ステップS71に戻り、上記処理を繰り返す。
一方、ステップS75において、繰り返し縮尺変更表示モ−ドに設定されていないと判断すれば、処理を終了する。
【0120】
上記実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムによれば、自車位置と目的地との直線距離が所定値以下になると、拡大表示のための操作を使用者が特に行わなくても、自動的に自車位置と前記目的地とを含む拡大された縮尺の地図画像に切り換えて表示されるので、目的地までの拡大表示への切り換えに使用者が操作を行わなくても良く、運転時の安全性を高めることができる。また、自車位置と目的地との間のより詳細な道路や建物等の地図情報を取得することができ、使用者にとって便利で、使い勝手の良い装置を実現することができる。
【0121】
また、繰り返し縮尺変更表示モ−ドの設定により、自車位置と目的地との間の直線距離が近づくにつれ、使用者が特に操作をしなくても、その距離に応じて段階的に拡大率の大きな縮尺に変更された地図画像が表示されていくので、自車位置と目的地との間の距離に応じた適切な縮尺率で拡大された地図画像が表示され、使用者は、目的地に近づくにつれて、目的地周辺のより詳細な情報を把握することが可能となる。
また、目的地拡大表示モ−ド設定画面を備えているので、使用者は、好みに応じて目的地拡大表示モ−ドの設定を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの要部を概略的に示したブロック図である。
【図2】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図3】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図4】(a)〜(d)は、実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図5】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示モ−ド設定処理動作を示したフロ−チャ−トである。
【図6】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図7】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図8】(a)〜(d)は、実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図9】実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図10】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図11】(a)〜(d)は、実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図12】実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図13】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図14】(a)〜(d)は、実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図15】実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図16】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図17】(a)〜(c)は、実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図18】実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図19】(a)、(b)は、実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図20】実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図21】実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図22】実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【符号の説明】
10、10A〜10F マイコン
16 表示装置
16b 表示画面
17 接触検出手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus that can be used in a navigation system or the like and that can improve operability for enlarging and displaying an image such as a map.
[0002]
[Prior art]
In a navigation system, a map is usually displayed on a display screen, and a destination input by a user on the map, a guidance route to the destination, and a self-vehicle corresponding to the current position of the own vehicle are displayed. A function is provided to superimpose and display the vehicle position mark and the traveling locus of the own vehicle so far. The user can obtain route information by sequentially referring to this display screen, and the route information can be obtained. By following the information, you can reach your destination.
[0003]
In addition, the display of the map is usually provided with a function of changing the scale. When the map screen is to be enlarged and displayed, first, the map to be enlarged is controlled by a user interface such as a remote controller or a joystick. The user can move the cursor to the display area to specify the center point for enlargement, and select and set a desired scale to enlarge and display.
[0004]
As an enlarged display method of such an image, Japanese Patent Application Laid-Open No. H11-163873 discloses a method in which when a predetermined area on a screen is enlarged and displayed, a cursor is moved to the center of the area to be enlarged by an input device to give an enlarged display instruction. Based on the enlargement display instruction, a frame indicating an enlargement area is displayed, and the frame is gradually enlarged until an enlargement end instruction is given by the user, and when the enlargement end instruction is input by the user, A method is disclosed in which an enlarged display window is created to enlarge and display an image in a frame.
[0005]
Further, in
[0006]
Further, in Patent Document 3, a rectangular area circumscribing the enclosing area is cut out by enclosing a portion to be enlarged in a displayed image with a pen, and the image in the rectangular area is enlarged and displayed to fill a display screen. There is disclosed a pen-input image magnifying device capable of performing such operations.
[0007]
[Patent Document 1]
JP-A-8-147134 (page 3, FIG. 6)
[Patent Document 2]
JP-A-8-194434 (page 3, FIG. 1-3)
[Patent Document 3]
JP-A-8-137620 (
[0008]
[Problems to be solved by the invention]
However, in the conventional navigation system, it is necessary to perform an operation of moving to an area to be enlarged and an operation of selecting and setting a scale to obtain a desired scale. There is a problem that a repeated operation is often required to obtain an enlarged display desired by the user, and the setting operation is complicated.
[0009]
In the method described in
[0010]
In the apparatus described in
Further, in the device described in Patent Document 3, when the area surrounded by the pen is significantly distorted, there is a problem that the center point of the area to be enlarged is greatly shifted, and it is difficult to specify an accurate range.
[0011]
The present invention has been made in view of the above problems, and has as its object to provide an image processing apparatus capable of enlarging and displaying an image such as a map displayed on a display screen by a simple operation.
[0012]
Means for Solving the Problems and Their Effects
In order to achieve the above object, an image processing apparatus (1) according to the present invention includes a display unit having a display screen on which an image is displayed, and a contact detection unit that detects physical contact with the display screen. An image processing apparatus comprising: first frame display means for displaying, on the display screen, a frame of a predetermined size substantially centered on a contact point when the touch on the display screen is detected by the contact detection means; A second frame display unit configured to display the size of the frame while changing the size of the frame according to the amount of slide movement from the contact point when the slide detection from the contact point is detected by the contact detection unit; When the end point of the slide movement is detected by the detection means, first image enlargement display means for enlarging and displaying an image displayed in the frame displayed by the second frame display means on the display screen is provided. Have It is characterized by a door.
[0013]
According to the image processing device (1), the contact detection unit detects a contact with the display screen (for example, an operation in which a user touches the display screen provided with a touch panel as the contact detection unit). Then, a frame of a predetermined size with the contact point substantially at the center is displayed on the display screen, and the contact detection means slides from the contact point (for example, the user moves a finger from the contact point on the display screen). Is detected, the frame is displayed while the size of the frame is changed according to the amount of slide movement from the contact point. Then, when the end point of the slide movement (for example, the action of the user releasing the finger from the display screen) is detected by the contact detection means, the slide movement is displayed in the frame displayed by the second frame display means. The displayed image is enlarged and displayed on the display screen.
Therefore, the user can directly designate the center portion of the image to be enlarged and displayed by a finger or the like, and there is no need to perform complicated operations such as positioning with a cursor or the like, and simple and accurate enlargement is possible. The center point of the display can be specified.
[0014]
Further, the user can arbitrarily adjust the size of the frame by simply sliding a finger or the like in an arbitrary direction from the contact point, and can grasp at a glance the range to be enlarged and displayed by the frame. .
Further, when the user separates the finger or the like from the display screen, the end point of the slide movement is detected, and the image displayed in the frame at the time of detecting the end point can be enlarged and displayed. Is a map image, detailed map information can be displayed by switching the map image within the frame to a map image of a reduced scale that can be enlarged and displayed to the display screen size.
[0015]
Thus, based on the change in the series of contact states detected by the contact detection means, it is possible to specify the center point to be enlarged and displayed, to specify the enlarged range by the frame, and to enlarge the image in the frame. The user can enlarge and display an image in a desired range on the display screen by a very simple operation without performing a special cursor operation, button operation, or the like, which is convenient for the user. Thus, it is possible to realize a device with improved operability for enlarged display of an image.
[0016]
Further, in the image processing device (2) according to the present invention, in the image processing device (1), the predetermined size means a maximum enlargement ratio size, and the second frame display unit enlarges the frame. It is characterized by being displayed.
According to the image processing device (2), the predetermined size means the maximum enlargement ratio size. Therefore, when the enlargement ratio is set to be large, the slide movement may be reduced, and more quickly. It is possible to specify a range of a frame having a large enlargement ratio and display the frame.
[0017]
Also, in the image processing device (3) according to the present invention, in the image processing device (1), the predetermined size means a currently displayed reduced scale size, and the second frame display unit reduces the size of the frame. It is characterized by being displayed.
[0018]
According to the image processing device (3), since the predetermined size means the current display scale size, when the range of a frame close to the current display scale, that is, a frame with a small enlargement ratio is specified, the slide is used. It is only necessary to reduce the movement, and it is possible to more quickly specify and display a range of a frame having a small enlargement ratio.
[0019]
An image processing device (4) according to the present invention is an image processing device comprising: a display unit having a display screen on which an image is displayed; and a contact detection unit detecting physical contact with the display screen. When a contact with the display screen and a slide movement from the contact point are detected by the contact detection means, a frame whose size changes in accordance with the amount of slide movement from the contact point is approximately indicated by the contact point. A third frame display means to be displayed on the display screen centered on the display screen, and when the end point of the slide movement is detected by the contact detection means, the third frame display means is displayed in the frame displayed by the third frame display means. And a second image enlargement display unit for enlarging and displaying an image on the display screen.
[0020]
According to the image processing device (4), contact with the display screen by the contact detection unit (for example, an operation in which a user makes a finger touch the display screen equipped with a touch panel as the contact detection unit); When a slide movement from the contact point (for example, an operation in which the user slides the finger from the contact point while touching the display screen) is detected, the slide movement from the contact point is determined in accordance with the slide movement amount from the contact point. When a frame whose size changes is displayed substantially at the center of the contact point, and the contact detection means detects an end point of the slide movement (for example, an operation of releasing a finger from the display screen by the user), The image displayed in the frame displayed by the third frame display means is enlarged and displayed on the display screen.
Therefore, substantially the same effects as those of the image processing apparatus (1) can be obtained. Further, the frame is displayed only when the slide movement is detected, and the frame is not displayed when the user touches the display screen as in the image processing device (1). Can be prevented from being displayed.
[0021]
Further, the image processing device (5) according to the present invention, when any of the image processing devices (1) to (4) detects a contact with the display screen by the contact detection means, sets the contact point to the contact point. Image moving display means for moving the displayed image to the approximate center of the display screen for display; and frame center moving means for moving the center of the frame from the contact point to the approximate center of the display screen. It is characterized by having.
[0022]
According to the image processing device (5), when a contact with the display screen is detected by the contact detection unit, an image displayed at the contact point is moved to a substantially center of the display screen and displayed. Also, since the center of the frame also moves from the contact point to the approximate center of the display screen, the user can easily grasp image information around the contact point to be enlarged and displayed, and can easily specify a range using the frame. It becomes something. In addition, since the center point before the enlarged display is the same as the center point after the enlarged display, it is easy to grasp the image after the enlargement.
[0023]
Further, an image processing apparatus (6) according to the present invention is an image processing apparatus comprising: a display unit having a display screen on which an image is displayed; and a contact detection unit detecting physical contact with the display screen. A first frame display unit that displays a frame of a predetermined size substantially centered on a contact point on the display screen when the touch on the display screen is detected by the contact detection unit; Fourth frame display means for displaying a frame indicating a next enlargement setting area when a slide movement from a contact point is detected and the slide movement exceeds the frame displayed on the display screen; A third image enlargement display means for enlarging and displaying an image displayed in the frame displayed by the fourth frame display means on the display screen when the end point of the slide movement is detected by the means. That It is characterized.
[0024]
According to the image processing device (6), the size of the frame does not change with the slide movement, but the slide movement (for example, a contact point of a finger sliding on the display screen) is performed. When the frame exceeds the frame displayed on the display screen, a frame indicating the next enlargement setting area is displayed, so that a frame corresponding to the scale setting to be enlarged and displayed can be displayed stepwise on the display screen. Further, it is not necessary to finely adjust the size of the frame, and it is easy to roughly specify the range of the frame.
[0025]
Further, an image processing apparatus (7) according to the present invention is an image processing apparatus comprising: a display unit having a display screen on which an image is displayed; and a contact detection unit detecting physical contact with the display screen. When a contact with the display screen is detected by the contact detection means, the image displayed at the contact point is moved to substantially the center of the display screen and an image enlarged at a predetermined scale is displayed. Is characterized in that it is provided with an image enlarged display means.
[0026]
According to the image processing device (7), by simply touching a part of the image displayed on the display screen to be enlarged and displayed with a finger or the like, the part moves to substantially the center of the display screen and a predetermined area is displayed. Since the image enlarged at the reduced scale is displayed, the image can be enlarged and displayed by a simpler operation.
[0027]
The image processing device (8) according to the present invention, in the image processing device (7), sets a scale for moving an image displayed at the contact point to substantially the center of the display screen and enlarging the image. It is characterized in that it is provided with a scale setting means capable of performing the setting.
According to the image processing device (8), the scale setting means allows the user to set an appropriate scale according to the image to be displayed, and displays the image at the scale of the enlargement ratio desired by the user. Can be displayed, and the usability can be improved.
[0028]
An image processing device (9) according to the present invention is directed to an image processing device including: a display unit having a display screen on which an image is displayed; and a contact detection unit detecting physical contact with the display screen. A fifth image enlargement display unit that, when the contact detection unit detects two points of contact, enlarges and displays an image in a predetermined range including the two points at a scale that can be displayed on the display screen. It is characterized by having.
[0029]
According to the image processing device (9), when two points of contact (for example, an operation in which a user designates two points on the display screen with a finger or the like) are detected by the contact detection unit, these two points are detected. Since an image in a predetermined range including the point interval is enlarged and displayed at a scale that can be displayed on the display screen, the image between the two points on the display screen can be changed by a very simple operation of designating two points with a finger or the like. It can be easily enlarged.
[0030]
The image processing device (10) according to the present invention is configured to display an enlarged image of a touch on the display screen detected by the touch detection unit in any one of the image processing devices (1) to (9). And a mode setting means for making a setting for distinguishing between the enlarged display mode and other modes.
According to the image processing apparatus (10), the enlarged display mode and the other modes can be set separately by the mode setting means, and set in the enlarged display mode. In this case, it is recognized that the touch on the display screen detected by the touch detection means is to enlarge and display an image.
[0031]
Further, in the image processing device (11) according to the present invention, in the image processing device (10), when the mode setting means detects a contact for a predetermined time or more by the contact detection means, It is characterized in that an enlarged display mode or the other mode is set.
According to the image processing device (11), the contact detecting means detects a contact that has continued for a predetermined time or more (an operation in which a finger touches a point on the display screen for a predetermined time). And the mode setting means sets the enlarged display mode or the other mode, so that the user can easily perform the mode without paying special attention to the display screen. Can be set.
[0032]
Further, the image processing device (12) according to the present invention is arranged such that, when the image processing device (10) or (11) is set to the enlarged display mode by the mode setting means, the enlarged display mode. -Notification means for notifying the user that the setting has been made in the-mode.
According to the image processing device (12), the user is notified by the notification means that the display mode has been set to the enlarged display mode, so that the user can enter the enlarged display mode by the notification. You can immediately confirm that the settings have been made.
[0033]
The image processing device (13) according to the present invention, in the image processing device (12), wherein the notifying unit notifies by a sound or a voice, notifies by a display on the display screen, or the display screen. In any of the above-described methods by changing the color of the image displayed in the image.
According to the image processing device (13), the notifying unit changes a color of an image displayed on the display screen or a color of the image displayed on the display screen, or the color of the image displayed on the display screen. Therefore, the user can be surely made aware of the setting in the enlarged display mode.
[0034]
An image processing apparatus (14) according to the present invention is an image processing apparatus provided with a display means having a display screen on which a map image is displayed, wherein the image processing apparatus (14) is employed in a navigation system and has a straight line between a current position and a destination. A destination distance calculating unit that calculates a distance, and a display control unit that displays a map image including the current position and the destination on a display screen, wherein the display control unit is calculated by the destination distance calculating unit. When the straight-line distance between the current location and the destination becomes equal to or less than a predetermined value, a predetermined range including the current location and the destination is switched to a map image of a scale that can be enlarged and displayed on the display screen. It is characterized by being displayed.
[0035]
According to the image processing device (14), when the linear distance between the current location and the destination is equal to or less than a predetermined value, the map image is automatically switched to a map image on an enlarged scale including the current location and the destination. Since the display is performed, the user does not need to perform an operation to switch to the enlarged display up to the destination, and safety during driving can be improved. Further, it is possible to acquire more detailed map information such as roads and buildings between the current location and the destination, thereby realizing a device that is convenient for the user and easy to use.
[0036]
Further, in the image processing device (15) according to the present invention, in the image processing device (14), the display control unit changes the scale according to a change in a linear distance between the current location and the destination. And displaying a map image of a predetermined range including the current position and the destination at the changed scale on the display screen.
[0037]
According to the image processing device (15), as the linear distance between the current location and the destination approaches, even if the user does not perform any particular operation, the enlargement ratio increases stepwise according to the distance. Since the map image changed to the reduced scale is displayed, a map image enlarged at an appropriate scale according to the distance between the current location and the destination is displayed, and the user can view the destination at the destination. As it approaches, it becomes possible to grasp more detailed information around the destination.
[0038]
The image processing device (16) according to the present invention, in the image processing device (14) or (15), switches to a map image of a reduced scale capable of enlarging and displaying a predetermined range including the current location and the destination. It is characterized in that it is provided with a destination enlargement display mode setting means for making settings to be displayed on the display screen.
According to the image processing device (16), the user can set the destination enlarged display mode according to his / her preference by the destination enlarged display mode setting means.
[0039]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of an image processing apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing a main part of a navigation system employing the image processing apparatus according to the embodiment (1).
[0040]
A
The
[0041]
Further, an image storage means 14 storing data such as roads is connected to the microcomputer 10, and the microcomputer 10 performs a map matching process for matching the determined vehicle position with the map image data. Accordingly, a map on which the position of the vehicle is accurately displayed is displayed on the display screen. For example, a hard disk or the like can be adopted as the
[0042]
Further, a switch signal output from a
[0043]
As described above, in the navigation system, the map is displayed on the
[0044]
In addition, reference numeral 17 in the figure denotes contact detection means for detecting physical contact with the
[0045]
Further, in the navigation system employing the image processing apparatus according to the embodiment (1), the user can make various settings through the screen displayed on the
[0046]
In the setting screen shown in FIG. 2, when “enlarged display mode” is selected and set, if a long press of an arbitrary point on the touch panel is detected during image display, the enlarged display mode is displayed. The microcomputer 10 performs various controls for enlarging and displaying an image based on the coordinate data detected by the contact detecting means 17. As another method for switching to the enlarged display mode, a button capable of setting the "enlarged display mode" may be assigned to the
[0047]
Further, a method for notifying the user that the display mode has been set to the enlarged display mode can be selected and set through the "setting of notification method at the time of setting the enlarged display mode" screen shown in FIG. In FIG. 3, the user can freely select and set whether or not to notify by changing the voice, the on-screen display, and the image background color. .
[0048]
Next, an enlarged display method of the map image displayed on the
FIG. 4A shows an example of a map image displayed on the
[0049]
First, when the user tries to obtain detailed map information around the building A, the user touches the display location of the building A on the
[0050]
When a finger slide movement from the contact point (x mark) by the user (for example, an operation indicated by a solid arrow in FIG. 4C) is detected, the
[0051]
The user can set the range to be enlarged and displayed in the
[0052]
Next, an enlarged display mode setting processing operation performed by the microcomputer 10 in the navigation system employing the image processing apparatus according to the embodiment (1) will be described with reference to a flowchart shown in FIG.
First, in step S1, it is determined whether or not the mode is set to the enlarged display mode, and if it is determined that the mode is set to the enlarged display mode, the process is terminated. On the other hand, if it is determined in step S1 that the mode is not set to the enlarged display mode, the process proceeds to step S2. In step S2, it is determined whether a physical contact with the touch panel has been detected, that is, whether or not a finger has touched the touch panel. If it is determined that no finger has touched the touch panel, the process returns to step S1.
[0053]
On the other hand, if it is determined in step S2 that the finger has touched the touch panel, the process proceeds to step S3, the timer t is started, and then the process proceeds to step S4. In step S4, the finger touches the touch panel for a predetermined time t. 1 It is determined whether or not the touch is continuously detected, and the finger touches the touch panel for a predetermined time t. 1 If it is determined that the detection has been continued, the process proceeds to step S5.
[0054]
In step S5, a process for setting the display mode to the enlarged display mode is performed, and then the process proceeds to step S6. In step S6, a process of notifying the user that the mode has been set to the enlarged display mode by the notification method set through the "setting of notification method at the time of setting the enlarged display mode" screen shown in FIG. 3 is performed. After that, the process ends.
On the other hand, in step S4, when the contact of the finger with the touch panel is detected, the timer t is set to the predetermined time t. 1 If it is determined that the time has not elapsed, the process returns to step S1.
[0055]
Next, an enlarged display processing operation performed by the microcomputer 10 in the navigation system employing the image processing apparatus according to the embodiment (1) will be described with reference to a flowchart shown in FIG. Note that this processing operation is executed when the enlarged display mode is set.
[0056]
First, in step S11, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been contact with a finger on the touch panel. finish. On the other hand, if it is determined in step S11 that the finger has touched the touch panel, the process proceeds to step S12. In step S12, a process of displaying the
[0057]
In step S13, it is determined whether or not a slide movement from the contact point is detected, that is, whether or not an operation of sliding the finger touching the touch panel from the contact point is detected. If it is determined that no detection has been made, the process proceeds to step S15. On the other hand, if it is determined in step S13 that the slide movement from the contact point has been detected, the process proceeds to step S14.
[0058]
In step S14, a process of displaying the
In step S16, a process is performed in which the area specified by the
[0059]
According to the image processing apparatus according to the embodiment (1), the user can directly specify the center portion of the map image to be enlarged and displayed with a finger or the like, and perform positioning using a cursor or the like. It is not necessary to perform a troublesome operation, and the center point of the enlarged display can be simply and accurately specified.
Further, the user can arbitrarily adjust the size of the
Further, when the user releases the finger or the like from the
[0060]
Based on the change in the series of contact states detected by the contact detecting means 17 in this manner, the center point to be enlarged and displayed, the enlargement range by the
[0061]
In the first embodiment, the
Further, the user can freely select these processes through the setting screen as shown in FIG. 7, and the microcomputer 10 performs the process of displaying the
[0062]
Next, a navigation system employing the image processing apparatus according to the embodiment (2) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (2) is the same as that of the navigation system shown in FIG. 1 except for the microcomputer 10A. Different reference numerals are given, and other descriptions are omitted here.
[0063]
An enlarged display method of the map image displayed on the
FIG. 8A shows an example of a map image displayed on the
[0064]
First, when the user tries to obtain detailed enlarged map information around the building A, the user touches the display location of the building A on the
Then, a map image in which the building A displayed at the contact point in FIG. 8A is moved to the approximate center of the
[0065]
When the sliding movement of the finger from the contact point (x mark) by the user (for example, the operation shown by the solid arrow in FIG. 8C) is detected, the
[0066]
The user can set the range to be enlarged and displayed in the
[0067]
Next, an enlarged display processing operation performed by the microcomputer 10A in the navigation system employing the image processing apparatus according to the embodiment (2) will be described with reference to a flowchart shown in FIG. Note that this enlarged display processing operation has a configuration in which steps S21 and S22 are inserted instead of step S12 in FIG. 6, and only the differences will be described below.
[0068]
First, in step S11, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been contact with a finger on the touch panel. If it is determined that the finger has touched the touch panel, the process proceeds to step S21.
[0069]
In step S21, a process of moving the map image displayed at the contact point to the approximate center of the
[0070]
According to the navigation system employing the image processing device according to the above-described embodiment (2), when a contact on the
[0071]
In the embodiment (2), the image displayed at the contact point is moved to the approximate center of the
[0072]
Next, a navigation system employing the image processing apparatus according to the embodiment (3) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (3) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10B. Different reference numerals are given, and other descriptions are omitted here.
[0073]
An enlarged display method of the map image displayed on the
FIG. 11A shows an example of a map image displayed on the
[0074]
First, when the user tries to obtain detailed enlarged map information around the building A, the user touches the display location of the building A on the
[0075]
When the user detects a finger sliding movement (for example, an operation indicated by a solid arrow in FIG. 11C) from the contact point (x mark), the
[0076]
The user can set the range to be enlarged and displayed by the reduced
[0077]
Next, an enlarged display processing operation performed by the microcomputer 10B in the navigation system employing the image processing apparatus according to the embodiment (3) will be described based on a flowchart shown in FIG. Note that the enlarged display processing operation has a configuration in which step S31 is inserted instead of step S12 and step S32 is inserted instead of step S14 in FIG. 6, and only the differences will be described below.
[0078]
First, in step S11, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been contact with a finger on the touch panel. If it is determined that the finger has touched the touch panel, the process proceeds to step S31.
[0079]
In step S31, a process of displaying the
[0080]
In step S32, a process of displaying the
[0081]
According to the navigation system employing the image processing apparatus according to the above-described embodiment (3), the current display
[0082]
In the above-described embodiment (3), when the touch of the finger on the touch panel is detected, the
[0083]
Next, a navigation system employing the image processing apparatus according to the embodiment (4) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (4) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10C. Different reference numerals are given, and other descriptions are omitted here.
[0084]
An enlarged display method of the map image displayed on the
FIG. 14A shows an example of a map image displayed on the
[0085]
First, when the user tries to obtain detailed enlarged map information around the building A, the user touches the display location of the building A on the
[0086]
The sliding movement of the finger from the contact point by the user is detected, and the sliding movement (solid arrow shown in FIG. 14A) is currently displayed in the frame 21c. 1 14, that is, the contact point of the finger being slid is moved to the
[0087]
Further, the sliding movement of the finger by the user is detected, and the sliding movement is detected by the
[0088]
Next, an enlarged display processing operation performed by the microcomputer 10C in the navigation system employing the image processing apparatus according to the embodiment (4) will be described based on a flowchart shown in FIG. Note that this enlarged display processing operation has a configuration in which steps S41 to S43 are inserted instead of step S14 in FIG. 6, and only the differences will be described below.
[0089]
If it is determined in step S13 that the slide movement from the contact point has been detected, the process proceeds to step S41. In step S41, coordinate data of the slide movement is captured, and the flow advances to step S42.
In step S42, it is determined whether or not the slide movement has exceeded the frame displayed on the
[0090]
In step S43, a process of displaying a frame indicating the next enlargement setting area is performed, and then the process proceeds to step S15.
On the other hand, if it is determined in step S42 that the slide movement does not exceed the frame displayed on the
[0091]
According to the navigation system adopted in the image processing apparatus according to the above-described embodiment (4), the size of the frame does not change with the slide movement, but the slide movement (for example, the slide movement on the
[0092]
In the above-described embodiment (4), the slide movement is preset so as to display a frame having a different size of enlargement step by step each time the slide movement exceeds the frame displayed on the
[0093]
Next, a navigation system employing the image processing apparatus according to the embodiment (5) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (5) is the same as that of the navigation system shown in FIG. 1 except for the microcomputer 10D. Different reference numerals are given, and other descriptions are omitted here.
[0094]
In the navigation system employing the image processing apparatus according to the embodiment (5), when the user touches a portion to be enlarged and displayed with a finger through the touch panel at the time of setting the enlarged display mode, the image at the contact point is displayed. Moves to the approximate center of the
[0095]
An enlarged display method of the map image displayed on the
FIG. 17A shows an example of a map image displayed on the
[0096]
First, when the user attempts to obtain detailed map information around the building A, the user touches the display location of the building A on the
[0097]
Next, an enlarged display processing operation performed by the microcomputer 10D in the navigation system employing the image processing apparatus according to the embodiment (5) will be described based on a flowchart shown in FIG. This processing operation is executed when the enlarged display mode is set.
[0098]
First, in step S51, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been finger contact with the touch panel. finish.
[0099]
On the other hand, if it is determined in step S51 that the finger has touched the touch panel, the process proceeds to step S52, in which the image displayed at the contact point is moved to the approximate center of the
[0100]
According to the navigation system employing the image processing apparatus according to the above-described embodiment (5), a part of the image displayed on the
[0101]
In the above-described embodiment (5), the portion where the contact is detected is moved to the approximate center of the
Further, in the above embodiment (5), the scale that can be enlarged and displayed is set in advance, but in another embodiment, the user selects and sets a desired scale. May be provided, and the scale for enlarged display can be set through the setting screen.
[0102]
Next, a navigation system employing the image processing apparatus according to the embodiment (6) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (6) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10E. Different reference numerals are given, and other descriptions are omitted here.
[0103]
In the navigation system employing the image processing device according to the embodiment (6), when the touch of two points on the display screen is detected at the time of setting the enlarged display mode, the images at the two points are simultaneously displayed. The display is scaled down so that it can be displayed, and the center between the two points is enlarged and displayed so as to be located substantially at the center of the
[0104]
An enlarged display method of the map image displayed on the
FIG. 19A shows an example of a map image displayed on the
[0105]
First, when the user tries to obtain detailed map information between Building A and Bank B, he touches the display area of Building A and the display area of Bank B on the
[0106]
Then, as shown in FIG. 19B, the scale is such that the building A and the bank B can be enlarged and displayed so as to be included in one screen, and the midpoint between the building A and the bank B is substantially at the center of the
[0107]
Next, an enlarged display processing operation performed by the microcomputer 10E in the navigation system employing the image processing apparatus according to the embodiment (6) will be described with reference to a flowchart shown in FIG. This enlarged display processing operation is executed when the enlarged display mode is set.
[0108]
First, in step S61, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been contact with a finger on the touch panel. finish. On the other hand, if it is determined in step S61 that the finger has touched the touch panel, the process proceeds to step S62, starts the timer t, and then proceeds to step S63.
[0109]
In step S63, the predetermined time t 2 Whether re-contact with the touch panel has been detected within 2 It is determined whether or not the finger has re-touched the touch panel within the process. If it is determined that the finger has not re-touched the touch panel, the process ends. On the other hand, if it is determined in step S63 that the finger has re-touched the touch panel, the process proceeds to step S64.
[0110]
In step S64, a process of calculating the distance between the two points from the coordinate data of the two points where the contact has been detected is performed, and then the process proceeds to step S65. In step S65, a process for determining a scale for enlarging and displaying the two points on the
[0111]
According to the navigation system employing the image processing apparatus according to the above-described embodiment (6), the contact detecting means 17 detects two points of contact (for example, the user touches two points on the display screen with a finger or the like). When the specified operation is detected, the map image in a predetermined range including the two points is enlarged and displayed at a scale that can be displayed on the
[0112]
Next, a navigation system employing the image processing apparatus according to the embodiment (7) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (7) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10F. Different reference numerals are given, and other descriptions are omitted here.
[0113]
In the navigation system employing the image processing device according to the embodiment (7), when the route distance between the host vehicle position and the destination becomes less than or equal to a predetermined value during route guidance to the destination In addition, a predetermined range including the vehicle position and the destination below the predetermined value is automatically switched to a scaled map image that can be enlarged and displayed, and the straight line distance between the vehicle position and the destination approaches. As a result, the map image of a scale with a larger magnification is automatically switched and displayed, and the user can change the position of the own vehicle and the destination as the destination approaches even without setting the scale one by one. Detailed road information and the like with the ground can be grasped.
[0114]
In the navigation system employing the image processing device according to the embodiment (7), the user can make various settings through the screen displayed on the display screen, and the “destination” shown in FIG. If the straight line distance between the own vehicle position and the destination becomes less than a predetermined value while the route is guided to the destination through the “enlarged display mode setting” screen, the own vehicle position becomes less than the predetermined value. In the case of setting the destination enlarged display mode to determine whether or not to display the map image by switching the scale including the area and the destination to a scale that can be enlargedly displayed, or to set the destination enlarged display mode, As the straight-line distance between the car position and the destination approaches, the user can freely select whether or not to set the repetitive scale change display mode in which the scale is gradually switched to a scale with a large magnification and displayed. It can be set.
[0115]
An enlarged display processing operation performed by the microcomputer 10F in the navigation system employing the image processing apparatus according to the embodiment (7) will be described based on a flowchart shown in FIG.
[0116]
First, in step S71, it is determined whether or not the destination enlarged display mode is set. If it is determined that the destination enlarged display mode is not set, the process proceeds to another mode. On the other hand, if it is determined that the destination enlarged display mode has been set, the flow advances to step S72.
[0117]
In step S72, a process of calculating a straight-line distance from the host vehicle position to the destination is performed based on the received host vehicle position data, and then the process proceeds to step S73. In step S73, it is determined whether or not the calculated linear distance from the vehicle position to the destination is equal to or less than a predetermined value serving as a reference for changing the scale. If it is determined that the distance is not equal to or less than the predetermined value, the process proceeds to step S72. Return.
[0118]
On the other hand, if it is determined in step S73 that the calculated linear distance from the vehicle position to the destination has become equal to or smaller than a predetermined value serving as a reference for changing the scale, the process proceeds to step S74. In step S74, a process of enlarging and displaying a predetermined range including the vehicle position and the destination at the set scale (first scale) is performed, and then the process proceeds to step S75.
[0119]
In step S75, it is determined whether or not the mode is set to the repetitive scale change display mode. If it is determined that the mode is set to the repetitive scale change display mode, the process proceeds to step S76. In step S76, read out the scale change data, that is, the process of reading out the data for display at the second scale having a larger enlargement ratio than the first scale, and then return to step S71 to repeat the above process. repeat.
On the other hand, if it is determined in step S75 that the repetitive scale change display mode has not been set, the process ends.
[0120]
According to the navigation system employing the image processing apparatus according to the embodiment (7), when the linear distance between the vehicle position and the destination is equal to or less than a predetermined value, the user performs an operation for enlarged display. Even if no special operation is performed, the map image is automatically switched to the enlarged scale map image including the own vehicle position and the destination and displayed, so that the user performs an operation to switch to the enlarged display to the destination. There is no need to do so, and safety during driving can be improved. Further, it is possible to acquire more detailed map information of a road, a building, and the like between the position of the vehicle and the destination, thereby realizing a device that is convenient and easy for the user to use.
[0121]
Also, by setting the repetitive scale change display mode, as the linear distance between the vehicle position and the destination approaches, even if the user does not perform any particular operation, the enlargement ratio can be increased stepwise according to the distance. Since the map image changed to the large scale of is displayed, the map image enlarged at an appropriate scale according to the distance between the own vehicle position and the destination is displayed. , It becomes possible to grasp more detailed information around the destination.
In addition, since the destination enlargement display mode setting screen is provided, the user can set the destination enlargement display mode as desired.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a main part of a navigation system employing an image processing apparatus according to Embodiment (1) of the present invention.
FIG. 2 is a diagram showing an operation screen displayed on a display screen of a navigation system employing the image processing device according to the embodiment (1).
FIG. 3 is a diagram showing an operation screen displayed on a display screen of a navigation system employing the image processing device according to the embodiment (1).
FIGS. 4A to 4D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing device according to the embodiment (1).
FIG. 5 is a flowchart showing an enlarged display mode setting processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (1).
FIG. 6 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (1).
FIG. 7 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing device according to another embodiment.
FIGS. 8A to 8D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing device according to the embodiment (2).
FIG. 9 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (2).
FIG. 10 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing device according to another embodiment.
FIGS. 11A to 11D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing device according to the embodiment (3).
FIG. 12 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (3).
FIG. 13 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing device according to another embodiment.
FIGS. 14A to 14D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing device according to the embodiment (4).
FIG. 15 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (4).
FIG. 16 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing device according to another embodiment.
FIGS. 17A to 17C are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing device according to the embodiment (5).
FIG. 18 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (5).
FIGS. 19A and 19B are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing device according to the embodiment (6).
FIG. 20 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (6).
FIG. 21 is a diagram showing an operation screen displayed on a display screen of a navigation system employing the image processing device according to the embodiment (7).
FIG. 22 is a flowchart showing an enlarged display processing operation performed by a microcomputer in a navigation system employing the image processing apparatus according to the embodiment (7).
[Explanation of symbols]
10, 10A-10F microcomputer
16 Display device
16b Display screen
17 Contact detection means
Claims (16)
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、
前記接触検出手段により前記接触点からのスライド移動が検出されると、前記枠の大きさを前記接触点からのスライド移動量に応じて変化させながら表示する第2の枠表示手段と、
前記接触検出手段により前記スライド移動の終点が検出されると、前記第2の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第1の画像拡大表示手段とを備えていることを特徴とする画像処理装置。Display means having a display screen on which an image is displayed;
An image processing apparatus comprising: a contact detection unit configured to detect a physical contact with the display screen.
First frame display means for displaying a frame of a predetermined size substantially at the center of the contact point on the display screen when the touch on the display screen is detected by the contact detection means;
A second frame display unit that, when the slide detection from the contact point is detected by the contact detection unit, displays while changing the size of the frame according to the slide movement amount from the contact point;
First image enlargement display means for enlarging and displaying an image displayed in the frame displayed by the second frame display means on the display screen when the end point of the slide movement is detected by the contact detection means; An image processing apparatus comprising:
前記第2の枠表示手段が、前記枠を拡大させながら表示するものであることを特徴とする請求項1記載の画像処理装置。The predetermined size means a maximum enlargement ratio size,
2. The image processing apparatus according to claim 1, wherein the second frame display means displays the frame while enlarging the frame.
前記第2の枠表示手段が、前記枠を縮小させながら表示するものであることを特徴とする請求項1記載の画像処理装置。The predetermined size means a currently displayed scale size,
2. The image processing apparatus according to claim 1, wherein the second frame display means displays the frame while reducing the size of the frame.
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触と、接触点からのスライド移動とが検出されると、前記接触点からのスライド移動量に応じて大きさの変化する枠を前記接触点を略中心にして前記表示画面に表示する第3の枠表示手段と、
前記接触検出手段により前記スライド移動の終点が検出されると、前記第3の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第2の画像拡大表示手段とを備えていることを特徴とする画像処理装置。Display means having a display screen on which an image is displayed;
An image processing apparatus comprising: a contact detection unit configured to detect a physical contact with the display screen.
When a contact with the display screen and a slide movement from the contact point are detected by the contact detection means, a frame whose size changes according to the amount of slide movement from the contact point is substantially centered on the contact point. Third frame display means for displaying on the display screen as
When the end point of the slide movement is detected by the contact detection means, an image displayed in the frame displayed by the third frame display means is enlarged and displayed on the display screen. An image processing apparatus comprising:
前記枠の中心を前記接触点から前記表示画面の略中心に移動させる枠中心移動手段とを備えていることを特徴とする請求項1〜4のいずれかの項に記載の画像処理装置。When a contact with the display screen is detected by the contact detection unit, an image movement display unit that moves and displays an image displayed at the contact point to approximately the center of the display screen,
The image processing apparatus according to claim 1, further comprising: a frame center moving unit configured to move a center of the frame from the contact point to a substantially center of the display screen.
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、
前記接触検出手段により前記接触点からのスライド移動が検出され、該スライド移動が前記表示画面に表示されている前記枠を越えると、次の拡大設定領域を示す枠を表示する第4の枠表示手段と、
前記接触検出手段により前記スライド移動の終点が検出されると、前記第4の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第3の画像拡大表示手段とを備えていることを特徴とする画像処理装置。Display means having a display screen on which an image is displayed;
An image processing apparatus comprising: a contact detection unit configured to detect a physical contact with the display screen.
First frame display means for displaying a frame of a predetermined size substantially at the center of the contact point on the display screen when the touch on the display screen is detected by the contact detection means;
A fourth frame display for displaying a frame indicating the next enlargement setting area when the slide detection from the contact point is detected by the contact detection means and the slide movement exceeds the frame displayed on the display screen. Means,
A third image enlargement display means for enlarging and displaying an image displayed in the frame displayed by the fourth frame display means on the display screen when the end point of the slide movement is detected by the contact detection means; An image processing apparatus comprising:
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触が検出されると、接触点に表示されている画像を前記表示画面の略中心に移動させるとともに所定の縮尺で拡大された画像を表示する第4の画像拡大表示手段を備えていることを特徴とする画像処理装置。Display means having a display screen on which an image is displayed;
An image processing apparatus comprising: a contact detection unit configured to detect a physical contact with the display screen.
When a contact with the display screen is detected by the contact detection means, an image displayed at the contact point is moved to substantially the center of the display screen, and an image enlarged at a predetermined scale is displayed. An image processing apparatus comprising image enlargement display means.
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により、2点の接触が検出されると、これら2点間を含む所定範囲の画像を前記表示画面に表示可能な縮尺で拡大表示する第5の画像拡大表示手段を備えていることを特徴とする画像処理装置。Display means having a display screen on which an image is displayed;
An image processing apparatus comprising: a contact detection unit configured to detect a physical contact with the display screen.
A fifth image enlargement display unit is provided that, when the contact detection unit detects two points of contact, an image in a predetermined range including the two points is enlarged and displayed at a scale that can be displayed on the display screen. An image processing apparatus comprising:
前記接触検出手段により所定時間以上継続しての接触が検出されると、前記拡大表示モ−ド又は前記他のモ−ドの設定を行うものであることを特徴とする請求項10記載の画像処理装置。The mode setting means includes:
11. The image according to claim 10, wherein when the contact detecting means detects a contact for a predetermined time or more, the enlarged display mode or the other mode is set. Processing equipment.
ナビゲ−ションシステムに採用され、
現在地と目的地との間の直線距離を算出する目的地距離算出手段と、
前記現在地と前記目的地とを含む地図画像を表示画面に表示する表示制御手段とを備え、
前記表示制御手段が、
前記目的地距離算出手段により算出された前記現在地と前記目的地との間の直線距離が所定値以下となった場合に、前記現在地と前記目的地とを含む所定範囲を拡大表示可能な縮尺の地図画像に切り換えて前記表示画面へ表示するものであることを特徴とする画像処理装置。An image processing apparatus including a display unit having a display screen on which a map image is displayed,
Adopted in the navigation system,
Destination distance calculating means for calculating a straight-line distance between the current location and the destination,
Display control means for displaying a map image including the current location and the destination on a display screen,
The display control means,
When the straight-line distance between the current location and the destination calculated by the destination distance calculation means is equal to or less than a predetermined value, a scale of a predetermined range including the current location and the destination can be enlarged and displayed. An image processing apparatus for switching to a map image and displaying the map image on the display screen.
前記現在地と前記目的地との間の直線距離の変化に応じて前記縮尺を変更し、変更された前記縮尺で前記現在地と前記目的地とを含む所定範囲の地図画像を前記表示画面へ表示するものであることを特徴とする請求項14記載の画像処理装置。The display control means,
The scale is changed according to a change in the linear distance between the current location and the destination, and a map image of a predetermined range including the current location and the destination is displayed on the display screen at the changed scale. 15. The image processing apparatus according to claim 14, wherein the image processing apparatus is an image processing apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002288253A JP4067374B2 (en) | 2002-10-01 | 2002-10-01 | Image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002288253A JP4067374B2 (en) | 2002-10-01 | 2002-10-01 | Image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004126842A true JP2004126842A (en) | 2004-04-22 |
| JP4067374B2 JP4067374B2 (en) | 2008-03-26 |
Family
ID=32280802
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002288253A Expired - Fee Related JP4067374B2 (en) | 2002-10-01 | 2002-10-01 | Image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4067374B2 (en) |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007096176A (en) * | 2005-09-30 | 2007-04-12 | Hitachi High-Tech Instruments Co Ltd | Electronic component mounting device |
| JP2007140060A (en) * | 2005-11-17 | 2007-06-07 | Denso Corp | Navigation system and map display scale setting method |
| JP2007241410A (en) * | 2006-03-06 | 2007-09-20 | Pioneer Electronic Corp | Display device and display control method |
| WO2007105542A1 (en) * | 2006-03-10 | 2007-09-20 | Pioneer Corporation | Map display device and map display method |
| JP2008051644A (en) * | 2006-08-24 | 2008-03-06 | Mazda Motor Corp | Navigation system for vehicle |
| WO2008126739A1 (en) * | 2007-04-06 | 2008-10-23 | Digitalmax Co., Ltd. | Image display system |
| JP2009211244A (en) * | 2008-03-03 | 2009-09-17 | Ntt Docomo Inc | Touch panel display control system, touch panel display control method and touch panel display control program |
| JP2009282939A (en) * | 2008-05-26 | 2009-12-03 | Wacom Co Ltd | Device and method for mapping graphic tablet on related display, and computer-readable medium |
| JP2010002317A (en) * | 2008-06-20 | 2010-01-07 | Yupiteru Corp | Target object notification device |
| JP2010511430A (en) * | 2006-12-04 | 2010-04-15 | デカ・プロダクツ・リミテッド・パートナーシップ | Medical device including a slider assembly |
| JP2010102662A (en) * | 2008-10-27 | 2010-05-06 | Sharp Corp | Display apparatus and mobile terminal |
| JP2011050038A (en) * | 2009-07-27 | 2011-03-10 | Sanyo Electric Co Ltd | Image reproducing apparatus and image sensing apparatus |
| JP2011137907A (en) * | 2009-12-28 | 2011-07-14 | Casio Computer Co Ltd | Map display device, map display method and program |
| KR101103161B1 (en) * | 2010-02-03 | 2012-01-04 | 주식회사 팬택 | Method and device for controlling screen using touch screen input |
| JP2015096148A (en) * | 2013-11-15 | 2015-05-21 | 株式会社 日立産業制御ソリューションズ | Image display device |
| CN104838347A (en) * | 2013-01-15 | 2015-08-12 | 日立麦克赛尔株式会社 | Information processing device, information processing method, and program |
| US9143588B2 (en) | 2010-01-19 | 2015-09-22 | Nec Corporation | Portable terminal device having an enlarged-display function, method for controlling enlarged display, and computer-read-enabled recording medium |
| JP2015194997A (en) * | 2014-03-27 | 2015-11-05 | キヤノンマーケティングジャパン株式会社 | User interface device, user interface method, program and recording medium |
| JP2019135648A (en) * | 2019-02-26 | 2019-08-15 | 株式会社ユピテル | Electronic apparatus |
| WO2019176804A1 (en) * | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | Image processing device, image capturing device, and image processing method |
-
2002
- 2002-10-01 JP JP2002288253A patent/JP4067374B2/en not_active Expired - Fee Related
Cited By (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007096176A (en) * | 2005-09-30 | 2007-04-12 | Hitachi High-Tech Instruments Co Ltd | Electronic component mounting device |
| JP2007140060A (en) * | 2005-11-17 | 2007-06-07 | Denso Corp | Navigation system and map display scale setting method |
| JP2007241410A (en) * | 2006-03-06 | 2007-09-20 | Pioneer Electronic Corp | Display device and display control method |
| WO2007105542A1 (en) * | 2006-03-10 | 2007-09-20 | Pioneer Corporation | Map display device and map display method |
| JP2008051644A (en) * | 2006-08-24 | 2008-03-06 | Mazda Motor Corp | Navigation system for vehicle |
| JP2010511430A (en) * | 2006-12-04 | 2010-04-15 | デカ・プロダクツ・リミテッド・パートナーシップ | Medical device including a slider assembly |
| US9134823B2 (en) | 2006-12-04 | 2015-09-15 | Deka Products Limited Partnership | System and method for insulin pump medical device including a slider assembly wherein images on display allow for highlighting and magnifying images |
| WO2008126739A1 (en) * | 2007-04-06 | 2008-10-23 | Digitalmax Co., Ltd. | Image display system |
| JP2009211244A (en) * | 2008-03-03 | 2009-09-17 | Ntt Docomo Inc | Touch panel display control system, touch panel display control method and touch panel display control program |
| JP2009282939A (en) * | 2008-05-26 | 2009-12-03 | Wacom Co Ltd | Device and method for mapping graphic tablet on related display, and computer-readable medium |
| JP2010002317A (en) * | 2008-06-20 | 2010-01-07 | Yupiteru Corp | Target object notification device |
| JP2010102662A (en) * | 2008-10-27 | 2010-05-06 | Sharp Corp | Display apparatus and mobile terminal |
| JP2011050038A (en) * | 2009-07-27 | 2011-03-10 | Sanyo Electric Co Ltd | Image reproducing apparatus and image sensing apparatus |
| JP2011137907A (en) * | 2009-12-28 | 2011-07-14 | Casio Computer Co Ltd | Map display device, map display method and program |
| US9143588B2 (en) | 2010-01-19 | 2015-09-22 | Nec Corporation | Portable terminal device having an enlarged-display function, method for controlling enlarged display, and computer-read-enabled recording medium |
| JP5901295B2 (en) * | 2010-01-19 | 2016-04-06 | 日本電気株式会社 | Mobile terminal device having enlarged display function, enlarged display control method, and program |
| KR101103161B1 (en) * | 2010-02-03 | 2012-01-04 | 주식회사 팬택 | Method and device for controlling screen using touch screen input |
| CN104838347A (en) * | 2013-01-15 | 2015-08-12 | 日立麦克赛尔株式会社 | Information processing device, information processing method, and program |
| JPWO2014112029A1 (en) * | 2013-01-15 | 2017-01-19 | 日立マクセル株式会社 | Information processing apparatus, information processing method, and program |
| JP2015096148A (en) * | 2013-11-15 | 2015-05-21 | 株式会社 日立産業制御ソリューションズ | Image display device |
| JP2015194997A (en) * | 2014-03-27 | 2015-11-05 | キヤノンマーケティングジャパン株式会社 | User interface device, user interface method, program and recording medium |
| WO2019176804A1 (en) * | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | Image processing device, image capturing device, and image processing method |
| JPWO2019176804A1 (en) * | 2018-03-16 | 2021-03-25 | 富士フイルム株式会社 | Image processing device, imaging device, and image processing method |
| JP7028958B2 (en) | 2018-03-16 | 2022-03-02 | 富士フイルム株式会社 | Image processing device, image pickup device, and image processing method |
| JP2019135648A (en) * | 2019-02-26 | 2019-08-15 | 株式会社ユピテル | Electronic apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4067374B2 (en) | 2008-03-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4067374B2 (en) | Image processing device | |
| JP5129478B2 (en) | Screen display device | |
| JP5379259B2 (en) | Screen display device | |
| US10216407B2 (en) | Display control apparatus, display control method and display control program | |
| JP3773716B2 (en) | Graphical user interface display device and recording medium storing program for causing computer to execute processing in the device | |
| JP4943543B2 (en) | MAP DISPLAY DEVICE, MAP DISPLAY METHOD, MAP DISPLAY PROGRAM, AND RECORDING MEDIUM | |
| JP4111885B2 (en) | Map search and display method and apparatus | |
| RU2541852C2 (en) | Device and method of controlling user interface based on movements | |
| US10168888B2 (en) | Information processing device and touch operation detection method | |
| KR101933452B1 (en) | Method and apparatus for inputting user commands using relative movements of device panels | |
| EP2360557B1 (en) | Input device, apparatus for monitoring area around vehicle, method for selecting icon switch, and program | |
| JP4555538B2 (en) | Operation command processing program and navigation system | |
| JP2002311820A (en) | Information processor | |
| EP2838002A1 (en) | Display device | |
| JP2004280745A (en) | Display device and method, and program | |
| JP2002328040A (en) | Navigation device, information display device, image scale change method, storage medium, program | |
| JP2002341991A (en) | Information display device | |
| JP2000206956A (en) | Display screen scaling control device and display screen scaling control method | |
| JP2007003328A (en) | Car navigation system | |
| KR20120139047A (en) | Method and apparatus for displaying of image data | |
| JP3455122B2 (en) | Navigation system | |
| JP2010061348A (en) | Button display method and portable device using the same | |
| JP2006171469A (en) | Map display device | |
| JP4783075B2 (en) | Navigation device | |
| JPH10340045A (en) | Map displaying method for navigator |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050916 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070925 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071126 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080108 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080108 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110118 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4067374 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120118 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130118 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140118 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150118 Year of fee payment: 7 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |