JP5315111B2 - Terminal device, information presentation system, and terminal screen display method - Google Patents
Terminal device, information presentation system, and terminal screen display method Download PDFInfo
- Publication number
- JP5315111B2 JP5315111B2 JP2009087204A JP2009087204A JP5315111B2 JP 5315111 B2 JP5315111 B2 JP 5315111B2 JP 2009087204 A JP2009087204 A JP 2009087204A JP 2009087204 A JP2009087204 A JP 2009087204A JP 5315111 B2 JP5315111 B2 JP 5315111B2
- Authority
- JP
- Japan
- Prior art keywords
- augmented reality
- information
- display
- terminal device
- graphics object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、端末装置、情報提示システム及び端末画面表示方法に関するものである。 The present invention relates to a terminal device, an information presentation system, and a terminal screen display method.
携帯電話事業における移動体通信技術は、アナログ方式の第一世代から、音声通話に加えてデジタル技術によるデータ通信を実現したPDC方式やGSM方式等の第二世代を経て、現在ではより高速なデータ通信やマルチメディアを利用した各種サービスを提供するW−CDMA等の第三世代へと発達を続けている。また、このような通信技術を利用する移動体通信端末においてもCPU等のプロセッサ、メモリ、各種周辺デバイスおよび実装技術の各分野で技術革新が進められた結果、多機能化と高機能化の双方で飛躍的な進歩を達成している。 The mobile communication technology in the mobile phone business has gone from the first generation of the analog system to the second generation of the PDC system and the GSM system, etc. that realized data communication by digital technology in addition to voice calls, and now it is faster data Development continues to the third generation such as W-CDMA, which provides various services using communication and multimedia. In addition, in mobile communication terminals that use such communication technology, as a result of technological innovations in the fields of processors such as CPUs, memories, various peripheral devices, and mounting technologies, both multi-functionality and high functionality have been achieved. Has achieved tremendous progress.
このように移動体通信および端末に関する技術が高度に発達したことにより、音声通話に加えて、テレビ通話、電子メール、Webブラウジング、チャット等の様々な通信サービスが携帯電話で実現されている。また、多機能化した端末には液晶/有機EL表示モジュール、カメラモジュール、非接触ICカードモジュール、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、WiFi通信モジュール、GPSモジュールのような各種デバイスが搭載されている。さらに、端末の多機能化はソフトウェアの面でも進んでおり、各種モジュールを制御する種々のアプリケーションソフト、また各種ビューワ、マルチメディアプレーヤ、ブラウザ、メーラ、ゲーム、PIM等のアプリケーションソフトがオペレーティングシステム上に実装されており、マルチタスク機能により複数のアプリケーションを同時並行的に実行することで極めて高度な機能が実現可能となっている。 As a result of the advanced development of mobile communication and terminal technology, various communication services such as video calling, e-mail, Web browsing, chat, etc. are realized on mobile phones in addition to voice calls. In addition, various devices such as liquid crystal / organic EL display modules, camera modules, non-contact IC card modules, infrared communication modules, Bluetooth (registered trademark) communication modules, WiFi communication modules, and GPS modules are installed in multifunctional terminals. Has been. In addition, multi-functionalization of terminals is also progressing in terms of software, and various application software for controlling various modules and various application software such as viewers, multimedia players, browsers, mailers, games, PIMs, etc. are installed on the operating system. It is implemented, and extremely advanced functions can be realized by simultaneously executing multiple applications by the multitask function.
一方、情報処理の分野では、コンピュータグラフィックスにより仮想的な現実空間を構成する仮想現実(Virtual Reality)、現実空間の映像をコンピュータで処理して情報を付加する拡張現実感(AR;Augumented Reality)に関する研究が進められており、特に最近では拡張現実感技術(AR技術)が注目されている。AR技術の実現方法には様々な態様が考えられるが、その一つにカメラ付き携帯電話を利用したものを挙げることができる。例えば米国MOBILIZY社は、携帯電話向けオープンプラットフォームの一つであるAndroid向けに、カメラでキャプチャーした実空間の風景映像に観光情報を付加して表示するトラベルガイドのアプリケーション製品を提供している。このアプリケーションは、端末の位置情報(GPS測位またはユーザのマニュアル入力による)をサーバに送信し、サーバに予め登録された情報のうち周辺の観光情報をサーバから端末へレスポンスさせ、取得した観光情報を風景映像に付加して表示することにより拡張現実感を実現するものである。 On the other hand, in the field of information processing, virtual reality (virtual reality) that constitutes a virtual reality space by computer graphics, augmented reality (AR; augmented reality) in which images in the real space are processed by a computer and information is added. Research has been promoted, and recently, augmented reality technology (AR technology) has attracted attention. There are various modes for realizing the AR technology, and one of them is one using a camera-equipped mobile phone. For example, MOBILIZY, Inc. of the United States provides a travel guide application product for Android, which is one of the open platforms for mobile phones, adding tourist information to a real-world landscape image captured by a camera. This application sends the location information of the terminal (by GPS positioning or manual input by the user) to the server, causes the peripheral tourist information of the information registered in the server to respond to the terminal from the server, and acquires the acquired tourist information. Augmented reality is realized by adding to the landscape video and displaying it.
また、特許第3700021号には、カメラでイメージを取得するとともにカメラの位置および姿勢を測定し、測定されたカメラの位置および姿勢から記憶装置の所定アドレスに格納されたデータを読み出し、読み出されたデータをカメラで取得したイメージに結合させて表示するAR技術について開示されている。 Japanese Patent No. 3700021 acquires an image with a camera, measures the position and orientation of the camera, and reads and reads data stored at a predetermined address of the storage device from the measured position and orientation of the camera. AR technology is disclosed that displays the combined data with an image acquired by a camera.
カメラでキャプチャーした実空間の映像に情報を表示する拡張現実感技術においては、情報を情報バルーン、アイコン等のグラフィックスオブジェクトとして実空間の映像に重畳することになるが、表示する情報の量が多くなると画面は非常に煩雑となり、さらにグラフィックスオブジェクトが重なり合うようになると視認、ならびに操作対象としての選択も難しくなる。このような問題は小型の表示装置が使用されている携帯電話やPDA等のモバイル端末では特に顕著である。さらに、近時のモバイル端末にはタッチパネルを採用したものもあるが、画面上にグラフィックスオブジェクトが密集している状態でタッチパネルを操作することは極めて困難である。 In augmented reality technology that displays information on real-space video captured by a camera, information is superimposed on the real-space video as graphics objects such as information balloons and icons. When the number of screens increases, the screen becomes very complicated, and when graphics objects overlap, it becomes difficult to visually recognize and select them as operation targets. Such a problem is particularly remarkable in mobile terminals such as mobile phones and PDAs in which small display devices are used. Furthermore, although some recent mobile terminals employ a touch panel, it is extremely difficult to operate the touch panel in a state where graphics objects are densely arranged on the screen.
上記事情に鑑み、本発明は、実空間の映像に表示する情報の量が多くなっても画面の煩雑化を抑制することができる端末装置、情報提示システム及び端末画面表示方法を提供することを目的とする。 In view of the above circumstances, the present invention provides a terminal device, an information presentation system, and a terminal screen display method capable of suppressing the complexity of the screen even when the amount of information to be displayed on the real space video is increased. Objective.
すなわち本発明に係る端末装置は、実空間の映像を取得するカメラ部と、画面を表示する表示部と、位置情報に関連付けられた拡張現実感情報を記憶した記憶部と、前記各部の動作を制御するとともに情報処理機能を実現する制御部とを備え、前記制御部は、前記カメラ部により取得された実空間の前記映像を前記表示部に表示させるとともに、前記拡張現実感情報と対応するグラフィックスオブジェクトの表示位置を決定し、実空間の前記映像に前記グラフィックスオブジェクトを前記表示位置で重畳して前記表示部に描画させる処理を行う端末装置であって、前記制御部は、前記拡張現実感情報と関連付けされている前記位置情報に基づいて前記表示位置を決定し、前記位置情報が相互に近接している複数の前記拡張現実感情報を1つの集合グラフィックスオブジェクトとして前記表示部に表示させる処理を行い、現在地点からの距離が遠い地点に関連付けされた前記拡張現実感情報ほど複数の拡張現実感情報の間で前記位置情報が相互に近接していると判定する範囲を拡大することを特徴として構成される。 That is, the terminal device according to the present invention includes a camera unit that acquires a real space image, a display unit that displays a screen, a storage unit that stores augmented reality information associated with position information, and the operations of the units. A control unit that controls and realizes an information processing function, wherein the control unit displays the video of the real space acquired by the camera unit on the display unit and also displays a graphic corresponding to the augmented reality information A display device that determines a display position of a virtual object and performs processing for superimposing the graphics object on the video in real space at the display position and drawing on the display unit, wherein the control unit includes the augmented reality the display position determined based on the position information that is associated with the sensitive information, the position information of the plurality in close proximity to each other the augmented reality information one Performs processing for displaying on the display unit as if the graphics object, the position information between a plurality of augmented reality information about the Augmented Reality information distance is associated with a point far from the current point is close to each other It is characterized by expanding the range that is determined to be.
本発明に係る端末装置によれば、制御部により、表示位置が近接する複数の拡張現実感情報を、1つの集合グラフィックスオブジェクトとして表示部に表示させることができる。このため、近接した複数の拡張現実感情報が表示されることがないので、画面の複雑化を回避することができる。また、実空間で近接するものをまとめて表示できるので、実空間での位置関係を視覚で表現することが可能となるとともに、ユーザにとって分かり易い表示とすることができる。さらに、制御部により、グラフィックスオブジェクトの表示位置が撮影位置から遠い地点となるほど1つの集合グラフィックスオブジェクトとしてまとめて表示部に表示され易くなる。このため、表示が視認しにくくなるほど1つにまとめて表示することができるので、画面の簡素化を一層図ることができる。 According to the terminal device of the present invention, the control unit can display a plurality of augmented reality information whose display positions are close to each other as one collective graphics object on the display unit. For this reason, since a plurality of adjacent augmented reality information is not displayed, complication of the screen can be avoided. In addition, since objects close to each other in the real space can be displayed together, it is possible to visually represent the positional relationship in the real space and to make the display easy to understand for the user. Further, the control unit facilitates the display of the graphics objects as one collective graphics object on the display unit as the display position of the graphics objects is farther from the shooting position. For this reason, since it can display in one, so that a display becomes difficult to visually recognize, simplification of a screen can be achieved further.
また、前記制御部は、前記拡張現実感情報の種類に応じた前記グラフィックスオブジェクトを前記表示部に描画させる処理を行い、前記集合グラフィックスオブジェクトは、所定の条件で並べられた複数の前記グラフィックスオブジェクトが重なり合った形状であることが好適である。このように構成することで、集合グラフィックスオブジェクトが複数のグラフィックスオブジェクトを含むことを容易に視認することができるとともに、例えばユーザにとって情報検索し易い表示とすることが可能となる。 Further, the control unit performs a process of drawing the graphics object corresponding to the type of the augmented reality information on the display unit, and the collective graphics object includes a plurality of graphics arranged under a predetermined condition. It is preferable that the objects have overlapping shapes. With this configuration, it is possible to easily recognize that the collective graphics object includes a plurality of graphics objects, and for example, it is possible to provide a display that allows the user to easily search for information.
また、前記制御部は、前記集合グラフィックスオブジェクトを選択するユーザの操作を検出した場合には、当該集合グラフィックスオブジェクトとして前記表示部に表示させている複数の前記拡張現実感情報の前記グラフィックスオブジェクトを、環状に並べて前記表示部に表示させる処理を行うことが好適である。このように構成することで、制御部により、ユーザの操作を検出すると集合グラフィックスオブジェクトとしてまとめられたグラフィックスオブジェクトが環状に展開される。このため、画面の簡素化を図りつつユーザが必要とする場合のみ詳細な情報を表示することが可能となるユーザインターフェイスを提供することができる。 Further, when the control unit detects an operation of a user who selects the collective graphics object, the control unit displays the graphics of the plurality of augmented reality information displayed on the display unit as the collective graphics object. It is preferable to perform a process of arranging the objects in a ring shape and displaying them on the display unit. With this configuration, when the control unit detects a user operation, graphics objects collected as a collective graphics object are developed in a ring shape. For this reason, it is possible to provide a user interface capable of displaying detailed information only when the user needs it while simplifying the screen.
また、前記制御部は、1つの前記集合グラフィックスオブジェクトとして前記表示部に表示させている前記拡張現実感情報の数が、環状に並べて一度に表示可能な前記グラフィックスオブジェクトの数よりも多い場合には、表示可能な数だけ環状に並べられた前記グラフィックスオブジェクトを前記表示部に表示させ、環状に並べられた前記グラフィックスオブジェクトの移動方向を明示するユーザの操作を検出した場合には、環状に並べた前記グラフィックスオブジェクトそれぞれを周方向に沿って回転移動させるとともに、表示されているグラフィックスオブジェクトを入れ替える処理を行うことが好適である。このように構成することで、制御部により、移動方向を明示する操作に応じて環状に並べたグラフィックスオブジェクトを周方向に沿って回転移動させるとともに、グラフィックスオブジェクトが入れ替えられて表示部に表示される。このため、ユーザにとって直感的で理解しやすく、操作性に優れたユーザインターフェイスを提供することができる。 In addition, the control unit has a larger number of the augmented reality information displayed on the display unit as the one collective graphics object than the number of the graphics objects that can be displayed in a circle at a time. In the case where the display unit displays the graphics objects arranged in a ring shape as many as the number that can be displayed, and when the user's operation that clearly indicates the moving direction of the graphics objects arranged in a ring shape is detected, It is preferable to perform a process of rotating the graphics objects arranged in a ring shape along the circumferential direction and replacing the displayed graphics objects. With this configuration, the control unit causes the graphics object arranged in a ring according to the operation to specify the moving direction to rotate and move along the circumferential direction, and the graphics object is replaced and displayed on the display unit. Is done. Therefore, it is possible to provide a user interface that is intuitive and easy to understand for the user and has excellent operability.
また、前記制御部は、複数の前記拡張現実感情報の前記グラフィックスオブジェクトを環状に並べて前記表示部に表示させる処理を行う場合には、所定の条件に基づいて前記グラフィックスオブジェクトの大きさを変更して前記表示部に表示させることが好適である。このように構成することで、制御部により、所定の条件に基づいて環状に並んだグラフィックスオブジェクトの大きさが変更される。このため、ユーザにとって直感的で理解しやすいユーザインターフェイスを提供することができる。 In addition, when performing the process of arranging the graphics objects of the plurality of augmented reality information in a circle and displaying them on the display unit, the control unit adjusts the size of the graphics object based on a predetermined condition. It is preferable to change and display on the display unit. With this configuration, the control unit changes the size of the graphics objects arranged in a ring based on a predetermined condition. Therefore, it is possible to provide a user interface that is intuitive and easy to understand for the user.
また、前記制御部は、複数の前記拡張現実感情報の前記グラフィックスオブジェクトを環状に並べて前記表示部に表示させる処理を行う場合には、所定の条件に基づいて前記グラフィックスオブジェクトの透明度を変更して前記表示部に表示させることが好適である。このように構成することで、制御部により、所定の条件に基づいて環状に並んだグラフィックスオブジェクトの透明度が変更される。このため、ユーザにとって直感的で理解しやすいユーザインターフェイスを提供することができる。 The control unit may change the transparency of the graphics object based on a predetermined condition when performing processing for arranging the graphics objects of the plurality of augmented reality information in a circular pattern and displaying the graphics objects on the display unit. Then, it is preferable to display on the display unit. With this configuration, the transparency of the graphics objects arranged in a circle is changed based on a predetermined condition by the control unit. Therefore, it is possible to provide a user interface that is intuitive and easy to understand for the user.
また、前記制御部は、所定の条件を満たす前記拡張現実感情報の前記グラフィックスオブジェクトを、前記集合グラフィックスオブジェクトの先頭に位置するように前記表示部に表示させることが好適である。このように構成することで、制御部により所定の条件を満たす拡張現実感情報のグラフィックスオブジェクトが集合グラフィックスの先頭に配置される。このため、例えばユーザにとって情報検索し易い表示とすることができる。 Further, it is preferable that the control unit displays the graphics object of the augmented reality information satisfying a predetermined condition on the display unit so as to be positioned at the head of the collective graphics object. With this configuration, the graphics object of augmented reality information that satisfies a predetermined condition is arranged at the head of the set graphics by the control unit. For this reason, it can be set as the display which information search is easy for a user, for example.
また、前記制御部は、環状に並べられた前記グラフィックスオブジェクトの移動方向を明示するユーザの操作として前記グラフィックスオブジェクトに沿ってドラッグするユーザの操作を検出した場合であって、ドラッグするユーザの操作が閾値より低速である場合には表示されている前記グラフィックスオブジェクトを1個ずつ入れ替え、閾値以上の高速である場合には表示されている前記グラフィックスオブジェクトを全て入れ替える処理を行うことが好適である。このように構成することで、制御部により、閾値より低速でドラッグするユーザの操作に応じて環状に並べたグラフィックスオブジェクトが1つずつ入れ替って回転移動し、閾値より高速でドラッグするユーザの操作に応じて環状に並べたグラフィックスオブジェクトの全てが、入れ替って表示部に表示される。このため、ユーザにとって直感的で理解しやすいユーザインターフェイスを提供することができる。 The control unit may detect a user's operation of dragging along the graphics object as a user's operation that clearly indicates a moving direction of the graphics objects arranged in a circle. Preferably, when the operation is slower than the threshold, the displayed graphics objects are replaced one by one, and when the operation is faster than the threshold, all the displayed graphics objects are replaced. It is. With this configuration, the control unit causes the graphics objects arranged in a ring according to the user's operation dragging at a lower speed than the threshold to rotate one by one and rotate, and the user dragging at a higher speed than the threshold. All of the graphics objects arranged in a ring according to the operation are switched and displayed on the display unit. Therefore, it is possible to provide a user interface that is intuitive and easy to understand for the user.
また、前記制御部は、前記グラフィックスオブジェクトを選択するユーザの操作を検出した場合には、当該グラフィックスオブジェクトにかかる前記拡張現実感情報について、実行可能な処理を表示する前記グラフィックスオブジェクトを環状に並ぶように前記表示部に表示させ、環状に並んで表示された前記グラフィックスオブジェクトのうち1つの前記グラフィックスオブジェクトを選択するユーザの操作を検出した場合には、当該グラフィックスオブジェクトにかかる処理を行うことが好適である。このように構成することで、制御部により、環状に並べたグラフィックスオブジェクトのうちユーザにより選択された1つのグラフィックスオブジェクトに係る処理が実行される。このため、ユーザにとって直感的で理解しやすいユーザインターフェイスを提供することができる。 In addition, when the control unit detects an operation of a user who selects the graphics object, the control unit loops the graphics object that displays an executable process for the augmented reality information related to the graphics object. If the user's operation for selecting one of the graphics objects displayed in a circle is displayed on the display unit so as to be arranged in a circle, processing related to the graphics object is detected. Is preferably performed. With this configuration, the control unit executes processing related to one graphics object selected by the user from among the circularly arranged graphics objects. Therefore, it is possible to provide a user interface that is intuitive and easy to understand for the user.
また、前記制御部は、前記拡張現実感情報について、所定の条件に基づいて前記グラフィックスオブジェクトの大きさを変更して前記表示部に表示させることが好適である。このように構成することで、制御部により、所定の条件に基づいてグラフィックスオブジェクトの大きさが変更されて表示部に表示される。このため、実空間の映像に情報が平板に表示されることを回避することができるので、優れた拡張現実感を提供することが可能となる。 Moreover, it is preferable that the control unit displays the augmented reality information on the display unit by changing the size of the graphics object based on a predetermined condition. With this configuration, the size of the graphics object is changed by the control unit based on a predetermined condition and displayed on the display unit. For this reason, it is possible to prevent information from being displayed on a flat plate in a real space image, and thus it is possible to provide an excellent augmented reality.
さらに、前記制御部は、前記拡張現実感情報について、所定の条件に基づいて前記グラフィックスオブジェクトの情報量を変更して前記表示部に表示させることが好適である。このように構成することで、制御部により、所定の条件に基づいてグラフィックスオブジェクトの情報量が変更されて表示部に表示される。このため、実空間の映像に情報が平板に表示されることを回避することができるので、優れた拡張現実感を提供することが可能となる。 Furthermore, it is preferable that the control unit displays the augmented reality information on the display unit by changing an information amount of the graphics object based on a predetermined condition. With this configuration, the control unit changes the information amount of the graphics object based on a predetermined condition and displays the information on the display unit. For this reason, it is possible to prevent information from being displayed on a flat plate in a real space image, and thus it is possible to provide an excellent augmented reality.
また、本発明に係る情報提示システムは、表示部により画面を表示する端末装置と、前記端末装置と通信可能に構成され、位置情報に関連付けられた拡張現実感情報を有するサーバと、を備える情報提示システムであって、前記サーバは、実空間の映像を前記表示部に表示させ、前記端末装置の位置情報に基づいて、前記拡張現実感情報と対応するグラフィックスオブジェクトの表示位置を決定し、実空間の前記映像に前記グラフィックスオブジェクトを前記表示位置で重畳して前記表示部に描画させるとともに、前記表示位置が近接する複数の前記拡張現実感情報を、1つの集合グラフィックスオブジェクトとして前記表示部に表示させる処理を行うサーバ制御部を備え、前記サーバ制御部は、前記拡張現実感情報と関連付けされている前記位置情報に基づいて前記表示位置を決定し、前記位置情報が相互に近接している複数の前記拡張現実感情報を1つの集合グラフィックスオブジェクトとして前記表示部に表示させる処理を行い、前記端末装置の現在地点からの距離が遠い地点に関連付けされた前記拡張現実感情報ほど複数の拡張現実感情報の間で前記位置情報が相互に近接していると判定する範囲を拡大すること、を特徴として構成される。 In addition, an information presentation system according to the present invention includes a terminal device that displays a screen by a display unit, and a server that is configured to be communicable with the terminal device and includes augmented reality information associated with position information. In the presentation system, the server displays an image of real space on the display unit, determines the display position of the graphics object corresponding to the augmented reality information based on the position information of the terminal device, The graphics object is superimposed on the video in real space at the display position and is drawn on the display unit, and a plurality of the augmented reality information close to the display position is displayed as one collective graphics object. A server control unit that performs processing to be displayed on the unit, and the server control unit is associated with the augmented reality information before The display position determined based on the position information, performs the location information to be displayed on the display unit a plurality of augmented reality information are close to each other as one set graphics object processing, the terminal device The range of determining that the position information is close to each other among a plurality of augmented reality information as the augmented reality information associated with a point far from the current point is expanded. Composed.
本発明に係る情報提示システムによれば、サーバ制御部により、表示位置が近接する複数の拡張現実感情報を、1つの集合グラフィックスオブジェクトとして端末装置の表示部に表示させることができる。このため、近接した複数の拡張現実感情報が端末装置の表示部に表示されることないので、端末装置の画面の複雑化を回避することができる。 According to the information presentation system of the present invention, the server control unit can display a plurality of augmented reality information whose display positions are close to each other as one collective graphics object on the display unit of the terminal device. For this reason, since a plurality of adjacent augmented reality information is not displayed on the display unit of the terminal device, complication of the screen of the terminal device can be avoided.
また、本発明に係る端末画面表示方法は、カメラ部により取得された実空間の映像に、位置情報に関連付けられた拡張現実感情報と対応するグラフィックスオブジェクトを重畳して表示部に描画させる端末画面表示方法であって、前記拡張現実感情報と対応するグラフィックスオブジェクトの表示位置を決定する表示位置決定ステップと、複数の前記グラフィックスオブジェクトの前記表示位置が相互に近接するか否かを判定する近接判定ステップと、前記表示位置が相互に近接する場合には、複数の前記拡張現実感情報を1つの集合グラフィックスオブジェクトとして前記表示部に表示させる表示ステップと、を備え、前記近接判定ステップでは、前記拡張現実感情報と関連付けされている前記位置情報に基づいて前記表示位置を決定し、前記端末装置の現在地点からの距離が遠い地点に関連付けされた前記拡張現実感情報ほど複数の拡張現実感情報の間で前記位置情報が相互に近接していると判定する範囲を拡大することを特徴として構成される。 In addition, the terminal screen display method according to the present invention is a terminal that superimposes a graphics object corresponding to augmented reality information associated with position information on a real space image acquired by a camera unit and draws it on the display unit. A screen display method for determining a display position of a graphics object corresponding to the augmented reality information, and determining whether the display positions of a plurality of graphics objects are close to each other A proximity determining step, and a display step of displaying a plurality of the augmented reality information as one collective graphics object on the display unit when the display positions are close to each other, the proximity determining step Then, the display position is determined based on the position information associated with the augmented reality information, That serial said positional information between about augmented reality information more augmented reality information distance is associated with a point far from the current position of the terminal device to expand the determining range are close to each other Configured as a feature.
本発明に係る端末画面表示方法によれば、表示位置が近接する複数の拡張現実感情報を、1つの集合グラフィックスオブジェクトとして表示部に表示させることができる。このため、近接した複数の拡張現実感情報が表示されることがないので、画面の複雑化を回避することができる。 According to the terminal screen display method of the present invention, a plurality of augmented reality information whose display positions are close to each other can be displayed on the display unit as one collective graphics object. For this reason, since a plurality of adjacent augmented reality information is not displayed, complication of the screen can be avoided.
本発明によれば、実空間の映像に表示する情報の量が多くなっても画面の煩雑化を抑制することができる。 According to the present invention, it is possible to suppress complication of the screen even when the amount of information to be displayed on the real space video is increased.
以下、本発明を実施するための形態について説明する。図1は、本発明の実施形態にかかる端末装置100と、端末装置100に拡張現実感情報を提供する拡張現実感サーバ300とを備える拡張現実感システム(情報提示システム)1の構成を概略的に示した図面である。端末装置100は、通信網150と接続して通信を行う携帯電話等のモバイル端末であって、後述するようにイメージ取得機能を備えたカメラ部および表示部を備えている。拡張現実感サーバ300は、通信網150と接続されたネットワーク200と接続されたサーバコンピュータシステムであり、同様にネットワーク200と接続された外部サーバである地図情報サーバ351、経路情報サーバ361および位置情報コンテンツサーバ371ならびに端末装置100と通信可能な構成となっている。このような構成の拡張現実感システム1は、端末装置100のユーザが実空間に向けたカメラで取得した画像に、拡張現実感サーバ300が提供する情報を重畳することにより、ユーザに拡張現実感を与えるサービスを提供するものである。以下、端末装置100および拡張現実感サーバ300について詳細に説明する。 Hereinafter, modes for carrying out the present invention will be described. FIG. 1 schematically shows the configuration of an augmented reality system (information presentation system) 1 including a terminal device 100 according to an embodiment of the present invention and an augmented reality server 300 that provides augmented reality information to the terminal device 100. It is drawing shown in. The terminal device 100 is a mobile terminal such as a mobile phone that communicates by connecting to the communication network 150, and includes a camera unit and a display unit having an image acquisition function as described later. The augmented reality server 300 is a server computer system connected to the network 200 connected to the communication network 150. Similarly, the map information server 351, the route information server 361, and the location information are external servers connected to the network 200. The content server 371 and the terminal device 100 can communicate with each other. The augmented reality system 1 having such a configuration superimposes the information provided by the augmented reality server 300 on the image acquired by the user of the terminal device 100 with the camera directed to the real space, thereby allowing the user to augment the augmented reality. It provides services that give Hereinafter, the terminal device 100 and the augmented reality server 300 will be described in detail.
まず端末装置100について説明する。図2は本実施形態における端末装置100の機能ブロック図である。この端末装置100は、主として、端末の位置情報を取得する位置情報取得部101と、画面を表示する表示部102と、ユーザのキー操作による入力を受け付けるキー入力部103と、端末が向いている方位を検出する方位センサ104と、通信網150と接続して通信を行う通信部105と、実空間の映像を取得するカメラ部106と、所定のプログラムおよびデータを記憶する記憶部107と、各部の動作を制御するとともに所定の情報処理を実現する制御部108とから構成されている。 First, the terminal device 100 will be described. FIG. 2 is a functional block diagram of the terminal device 100 in the present embodiment. The terminal device 100 is mainly directed to a position information acquisition unit 101 that acquires terminal position information, a display unit 102 that displays a screen, a key input unit 103 that receives input by a user's key operation, and a terminal. An orientation sensor 104 that detects an orientation, a communication unit 105 that communicates by connecting to a communication network 150, a camera unit 106 that acquires an image of real space, a storage unit 107 that stores a predetermined program and data, and each unit And a control unit 108 that realizes predetermined information processing.
位置情報取得部101は、例えば、複数のGPS(Global Positioning System)衛星からの電波を受信して、それらの強度から現在の端末位置情報を取得するGPSモジュールを用いることができる。また、GPS方式に加えて通信部105を介して通信網150と通信することにより端末の近くに存在する衛星の情報をアシストデータとして取得し、位置測位を行うAGPS(Assisted Global Positioning System)方式に対応したモジュールを利用すれば、端末位置情報をより高速かつ正確に取得することができるので好適である。ただし、位置情報取得システムはGPSまたはAGPSを利用するものに限られるものではなく、GPSに依存することなく端末位置情報を取得する構成とすることも可能である。例えば、WiFiやBluetooth(登録商標)等の無線通信基地局を空間内に複数配設し、それらからの電波強度により端末位置情報を取得する方式を利用してもよいし、このような方式をGPSないしはAGPSに併用する方式を利用することも可能である。 The position information acquisition unit 101 can use, for example, a GPS module that receives radio waves from a plurality of GPS (Global Positioning System) satellites and acquires current terminal position information from their intensities. Further, in addition to the GPS method, communication with the communication network 150 via the communication unit 105 acquires information on satellites that exist near the terminal as assist data, and an AGPS (Assisted Global Positioning System) method that performs positioning is performed. Use of a corresponding module is preferable because terminal location information can be acquired more quickly and accurately. However, the position information acquisition system is not limited to the one using GPS or AGPS, and can be configured to acquire terminal position information without depending on GPS. For example, a method may be used in which a plurality of wireless communication base stations such as WiFi and Bluetooth (registered trademark) are arranged in the space, and terminal location information is acquired based on the radio field intensity therefrom. It is also possible to use a method used in combination with GPS or AGPS.
表示部102は、画面表示を行うためのLCDモジュール113およびLCDコントローラ112と、画面にユーザがタッチする操作に反応し、ユーザの接触位置を検出するセンサモジュール114および位置検出部111とを備え、画面表示機能およびタッチパネル機能を実現したものである。すなわち、表示部102は、制御部108からのデータおよび制御信号をLCDコントローラ112で受け付けて所定の画面をLCDモジュール113で表示するとともに、画面をタッチするユーザの操作をセンサモジュール114で受け付けて位置検出部111にて接触位置を検出し、その接触位置に関する位置信号を制御部108に入力として通知するものである。本実施形態の端末装置100おいては、後述する動作に従って、カメラ部106により取得した実空間の映像に拡張現実感サーバから取得した情報を付加して表示することによりユーザに拡張現実感を提供し、また表示機能およびタッチパネル機能によりユーザインターフェイスを提供する。 The display unit 102 includes an LCD module 113 and an LCD controller 112 for performing screen display, and a sensor module 114 and a position detection unit 111 that detect a contact position of the user in response to an operation in which the user touches the screen. A screen display function and a touch panel function are realized. That is, the display unit 102 receives data and control signals from the control unit 108 by the LCD controller 112 and displays a predetermined screen on the LCD module 113, and receives a user's operation for touching the screen by the sensor module 114. The detection unit 111 detects the contact position, and notifies the control unit 108 of an input of a position signal related to the contact position. In the terminal device 100 according to the present embodiment, augmented reality is provided to the user by adding and displaying the information acquired from the augmented reality server to the video of the real space acquired by the camera unit 106 according to the operation described later. In addition, a user interface is provided by a display function and a touch panel function.
キー入力部103は、端末装置100の筐体に設けられたキーパッド、ならびにその他ボタン等の入力装置であり、ユーザが操作することにより各キーまたはボタンに応じた信号であるキーイベントが制御部108に通知され、種々の操作ないしは制御に利用される。 The key input unit 103 is an input device such as a keypad provided in the casing of the terminal device 100 and other buttons, and a key event that is a signal corresponding to each key or button is operated by the user. 108 is used for various operations or control.
方位センサ104は、自分が向いている方向の姿勢・角度を検出し、それに相当する信号を制御部108に出力するモジュールである。制御部108は、方位センサ104の検出値からユーザが端末装置100を保持している姿勢・角度を認識することが可能である。このような方位センサ104には複数の地磁気センサを組み合わせたものを利用することが可能であり、さらに地磁気センサに加えて複数の加速度センサを組み合わせたモーションセンサを用いてもよい。3軸方向の地磁気センサと3軸方向の加速度センサとを組み合わせた6軸センサ、3軸方向の地磁気センサと2軸方向の加速度センサとを組み合わせた5軸センサ、また、加速度センサの代わりにジャイロを用いる場合等は、いずれもモーションセンサとして方位センサ104に利用することができる。このようにモーションセンサを利用した場合には、端末装置100の姿勢・角度に関する情報だけでなく、ユーザが端末装置100を動かしたり傾けたりした動作の向きおよび速さを検出することが可能となる。 The direction sensor 104 is a module that detects a posture / angle in a direction in which the direction sensor 104 is facing and outputs a signal corresponding to the posture / angle to the control unit 108. The control unit 108 can recognize the posture / angle at which the user holds the terminal device 100 from the detection value of the direction sensor 104. A combination of a plurality of geomagnetic sensors can be used as the orientation sensor 104, and a motion sensor that combines a plurality of acceleration sensors in addition to the geomagnetic sensor may be used. A six-axis sensor that combines a triaxial geomagnetic sensor and a triaxial acceleration sensor, a five-axis sensor that combines a triaxial geomagnetic sensor and a biaxial acceleration sensor, and a gyro instead of an acceleration sensor Can be used for the direction sensor 104 as a motion sensor. When the motion sensor is used in this way, it is possible to detect not only information on the attitude and angle of the terminal device 100 but also the direction and speed of the operation in which the user moves or tilts the terminal device 100. .
通信部105は、通信網150と接続して、他の端末装置やサーバシステムと通信を行うためのモジュールである。ここでの通信としては、例えば、他の端末装置と通信接続して行う回線交換型通信、通信網150を介してネットワーク200に接続されたサーバシステムと行うパケット交換型通信等を挙げることができる。また、AGPS方式により端末位置情報を取得する場合には、通信部105は位置情報取得部101と協調動作して端末位置情報の取得を補助する。 The communication unit 105 is a module for connecting to the communication network 150 and communicating with other terminal devices and server systems. Examples of the communication here include circuit-switched communication performed by communication connection with other terminal devices, packet-switched communication performed with a server system connected to the network 200 via the communication network 150, and the like. . Further, when acquiring the terminal location information by the AGPS method, the communication unit 105 cooperates with the location information acquisition unit 101 to assist the acquisition of the terminal location information.
カメラ部106は、所定の光学系および受像素子を有し、デジタル画像を取得する機能を提供するモジュールである。端末装置100でデジタル画像を撮影する際には、起動されたカメラ部106は、通常、光学系の取得した被写体像から所定露光時間で受像素子によりデータを取得する処理を所定時間間隔で繰り返し、当該データを表示部102に表示することによりライブビュー機能を実現する。そして、その状態でユーザがさらにキー入力部103で所定の操作を行うことにより、カメラ部106は光学系の取得した被写体像から設定された撮影条件で画像データを生成し、生成された画像データは記憶部107に保存される。本実施形態にかかる拡張現実感システムは、上述のライブビュー機能により表示部102に表示される実空間映像に拡張現実感をもたらす情報を表示するものである。 The camera unit 106 is a module that has a predetermined optical system and an image receiving element and provides a function of acquiring a digital image. When the terminal device 100 captures a digital image, the activated camera unit 106 normally repeats the process of acquiring data by the image receiving element at a predetermined exposure time from the subject image acquired by the optical system at a predetermined time interval. The live view function is realized by displaying the data on the display unit 102. In this state, when the user further performs a predetermined operation with the key input unit 103, the camera unit 106 generates image data with the shooting conditions set from the subject image acquired by the optical system, and the generated image data Is stored in the storage unit 107. The augmented reality system according to the present embodiment displays information that brings augmented reality to a real space image displayed on the display unit 102 by the above-described live view function.
記憶部107は、所定の情報を制御部108の制御下で記憶し、また記憶している情報を制御部108に提供するためのメモリである。また、記憶部107は、制御部108で実行される種々のプログラムを記憶しており、制御部108はこれを適宜読み出して実行する。記憶部107は一様な構成である必要はなく、ROM、RAM、Flash ROM等の各種メモリを適宜組み合わせて構成することが可能であり、さらにHDDのような二次記憶装置を組み合わせるようにしても構わない。なお、端末装置100に付与された固有の端末IDもその他のデータとともに記憶部107に記憶されている。また、記憶部107は、後述する拡張現実感サーバから提供された種々の拡張現実感情報を記憶している。図3には、記憶部107が記憶している拡張現実感情報のうち位置情報コンテンツのリストを一例として示す。位置情報コンテンツは、端末装置100からのリクエストに応じて拡張現実感サーバ300により位置情報コンテンツサーバ371から取得され、端末装置100にレスポンスとして返されたものである。記憶部107のリストには、各位置情報コンテンツについて、コンテンツID、コンテンツタイプ、コンテンツ名および位置情報(地点情報)が含まれており、さらに端末装置100の現在の端末位置からの距離、視野角内か否かの項目が設けられている。このうち、距離と視野角以外の項目については拡張現実感サーバ300から取得した情報がそのまま記録されており、距離および視野角の項目については端末装置100の制御部108が算出および判定した結果が記録されている。 The storage unit 107 is a memory for storing predetermined information under the control of the control unit 108 and providing the stored information to the control unit 108. Further, the storage unit 107 stores various programs executed by the control unit 108, and the control unit 108 reads and executes them as appropriate. The storage unit 107 does not need to have a uniform configuration, and can be configured by appropriately combining various memories such as ROM, RAM, and Flash ROM, and further combined with a secondary storage device such as an HDD. It doesn't matter. The unique terminal ID assigned to the terminal device 100 is also stored in the storage unit 107 together with other data. The storage unit 107 stores various augmented reality information provided from an augmented reality server described later. FIG. 3 shows, as an example, a list of position information contents in the augmented reality information stored in the storage unit 107. The location information content is acquired from the location information content server 371 by the augmented reality server 300 in response to a request from the terminal device 100 and returned as a response to the terminal device 100. The list of the storage unit 107 includes content ID, content type, content name, and position information (point information) for each position information content, and further, the distance from the current terminal position of the terminal device 100 and the viewing angle. An item of whether or not is within is provided. Among these items, the information acquired from the augmented reality server 300 is recorded as it is for items other than the distance and the viewing angle, and the items calculated and determined by the control unit 108 of the terminal device 100 for the items of the distance and the viewing angle are recorded. It is recorded.
制御部108は、不図示のCPU上で記憶部107に記憶されたプログラムを実行することにより仮想的に構成される機能ブロックであって、端末装置100の位置情報取得部101、表示部102、キー入力部103、方位センサ104、通信部105、カメラ部106および記憶部107といった各機能ブロックとの間でデータおよび制御信号をやり取りすることにより、端末装置100の各種機能を実現するものである。また、本実施形態における端末装置100の制御部108は、位置情報取得部101が取得した端末位置情報を送信してリクエストすることにより拡張現実感サーバ300から端末位置情報に応じた拡張現実感情報のレスポンスを受けて、拡張現実感をユーザに提供する。この場合に特徴的な機能として、制御部108、前記カメラ部の撮影した実空間の映像を表示部102に表示させつつ、拡張現実感情報を実空間の映像に重畳する表示位置を決定し、当該表示位置に当該拡張現実感情報と対応したグラフィックスオブジェクトを重畳して描画する際に、重畳する表示位置が近接した複数の拡張現実感情報を1つの集合グラフィックスオブジェクトとして表示部102に表示させる処理を行う。以下、このような処理について詳細に説明する。 The control unit 108 is a functional block that is virtually configured by executing a program stored in the storage unit 107 on a CPU (not shown). The control unit 108 includes a position information acquisition unit 101, a display unit 102, and the like of the terminal device 100. Various functions of the terminal device 100 are realized by exchanging data and control signals with the functional blocks such as the key input unit 103, the orientation sensor 104, the communication unit 105, the camera unit 106, and the storage unit 107. . In addition, the control unit 108 of the terminal device 100 according to the present embodiment transmits the request for the terminal location information acquired by the location information acquisition unit 101 to request augmented reality information corresponding to the terminal location information from the augmented reality server 300. In response to the response, the augmented reality is provided to the user. As a characteristic function in this case, the display unit 102 determines a display position on which the augmented reality information is superimposed on the real space image while displaying the real space image captured by the camera unit on the display unit 102. When a graphics object corresponding to the augmented reality information is superimposed and drawn at the display position, a plurality of augmented reality information close to the superimposed display position is displayed on the display unit 102 as one collective graphics object. To perform the process. Hereinafter, such processing will be described in detail.
まず、カメラ部106の姿勢および角度に基づいて拡張現実感情報の表示位置を決定し、実空間の映像に重畳して表示部に表示させる処理について説明する。この処理では、まず、方位センサ104の検出値からカメラの向いている姿勢・方向を導出し、カメラの水平方向視野角および垂直方向視野角に基づいて、記憶部107に記憶されている拡張現実感情報がカメラ部106の視野に入るか否かを判定し、結果を拡張現実感情報のリストに記録する(図3参照)。続いて、視野にはいると判定された拡張現実感情報について、端末装置100の現在の端末位置を原点とした座標空間に配置したと想定し、原点の所定高さを中心点としてカメラの水平方向視野角および垂直方向視野角ならびに映像サイズに基づいて原点から所定距離に定まる矩形平面に各拡張現実感情報を透過投影する処理を行い、透過投影された位置をもって表示位置と決定する。ここで、透過投影する中心点の高さについては、ユーザが立った状態で端末装置100を使用する状況を再現するために、1.5m程度の高さとすることが好適である。 First, a process of determining the display position of the augmented reality information based on the attitude and angle of the camera unit 106 and superimposing it on the real space image will be described. In this process, first, the orientation / direction of the camera facing is derived from the detection value of the azimuth sensor 104, and the augmented reality stored in the storage unit 107 based on the horizontal viewing angle and the vertical viewing angle of the camera. It is determined whether or not the sense information falls within the field of view of the camera unit 106, and the result is recorded in a list of augmented reality information (see FIG. 3). Subsequently, it is assumed that the augmented reality information determined to be in the field of view is arranged in the coordinate space with the current terminal position of the terminal device 100 as the origin, and the horizontal position of the camera with the predetermined height of the origin as the center point. Based on the direction viewing angle, the vertical viewing angle, and the video size, the augmented reality information is transmitted and projected onto a rectangular plane determined at a predetermined distance from the origin, and the display position is determined from the position of the transmissive projection. Here, it is preferable to set the height of the center point to be transparently projected to a height of about 1.5 m in order to reproduce the situation in which the user uses the terminal device 100 while standing.
上記処理の後、決定された表示位置に各拡張現実感情報を描画することにより実空間映像に重畳させて表示する処理を行う。このような処理についての制限は特にないが、各拡張現実感情報が所定の表示位置に描画されて残部が透明の画面レイヤーを作成し、この画面レイヤーを実空間映像に重ねて表示部102に表示させることができ、これにより実空間映像の適切な位置に拡張現実感情報が表示される。この際、本実施形態における拡張現実感情報は、アイコン、情報バルーン、サブウィンドウ等のグラフィックスオブジェクトとして画面上に表示される。 After the above process, a process is performed in which each augmented reality information is drawn at the determined display position so as to be superimposed on the real space image. Although there is no particular limitation on such processing, each augmented reality information is drawn at a predetermined display position to create a transparent screen layer, and this screen layer is overlaid on the real space video on the display unit 102. The augmented reality information can be displayed at an appropriate position in the real space image. At this time, the augmented reality information in the present embodiment is displayed on the screen as a graphics object such as an icon, an information balloon, or a subwindow.
この際、制御部108は重畳する表示位置が近接した複数の拡張現実感情報を1つの集合グラフィックスオブジェクトとして表示部102に表示させる。図4(a)、(b)、(c)は拡張現実感情報を丸形のアイコンで表示する画面の例を示したものであり、(a)はカメラ部106の取得した実空間の映像を示し、(b)は前述の方法により各拡張現実感情報の表示位置を求めてアイコンを描画したイメージを示したものである。ここで、この画面では、アイコンの大きさがアイコンごとに変更されて表示される。また、アイコンの透明度がアイコンごとに変更されて表示されてもよい。大きさ及び透明度の変更は、所定の条件に従って変更される。所定条件として、例えば、現在地点から位置情報コンテンツが示す位置までの距離、位置情報コンテンツが示す位置の高さ、位置情報コンテンツが示す建築物の建造年月日や、位置情報コンテンツの更新日、情報鮮度、アクセス回数、アクセス時刻、お勧め度、ユーザやサービスがカテゴリ分けに用いるタグ等が採用される。例えば、所定条件として距離を採用した場合には、アイコンが示す位置情報が、現在の端末地点から近い位置となるほど大きく表示され、アイコンが示す位置情報が、現在の端末地点から近い位置となるほど透明度が小さく表示される。すなわち、現在の端末地点から近い位置を示すアイコンほど、大きくはっきりと表示される。他方、現在の端末地点から遠い位置を示すアイコンほど、小さくぼやけて(かすんで)表示される。すなわち距離に応じてアイコンの情報量が変更される。なお、透明度の表示方法は、従来の3Dレタリング技術を用いてもよいし、明るさや青系統の色を用いて遠近感を表現してもよい。このように表示することで、平板に重畳された情報により拡張現実感が損なわれることも防止できる。 At this time, the control unit 108 causes the display unit 102 to display a plurality of augmented reality information with close overlapping display positions as one collective graphics object. 4A, 4 </ b> B, and 4 </ b> C show examples of a screen that displays augmented reality information with a round icon, and FIG. 4A is an image of a real space acquired by the camera unit 106. (B) shows the image which drew the icon by calculating | requiring the display position of each augmented reality information by the above-mentioned method. Here, on this screen, the size of the icon is changed for each icon and displayed. The transparency of the icon may be changed for each icon and displayed. The change in size and transparency is changed according to predetermined conditions. As the predetermined condition, for example, the distance from the current location to the position indicated by the position information content, the height of the position indicated by the position information content, the date of construction of the building indicated by the position information content, the update date of the position information content, Information freshness, number of accesses, access time, recommendation, tags used by users and services for categorization, and the like are employed. For example, when the distance is adopted as the predetermined condition, the position information indicated by the icon is displayed larger as the position is closer to the current terminal point, and the position information indicated by the icon is closer to the current terminal point. Is displayed smaller. That is, an icon indicating a position closer to the current terminal point is displayed larger and clearly. On the other hand, an icon indicating a position far from the current terminal point is displayed with a smaller and more blurred (hazy) display. That is, the information amount of the icon is changed according to the distance. Note that the transparency display method may use a conventional 3D lettering technique, or may express perspective using brightness or a blue color. By displaying in this way, it is possible to prevent the augmented reality from being impaired by the information superimposed on the flat plate.
しかしながら、図4に示されるように、画面上に表示される拡張現実感情報の量が多くなると、画面が煩雑となり、また、アイコンが重なり合って視認し難くなる。さらに、本実施形態では表示部102にタッチパネル機能を設けているが、図4(c)に示した状態で密集したアイコンをタッチして操作することは極めて困難である。 However, as shown in FIG. 4, when the amount of augmented reality information displayed on the screen increases, the screen becomes complicated and the icons overlap and are difficult to view. Furthermore, in the present embodiment, the display unit 102 is provided with a touch panel function, but it is extremely difficult to touch and operate icons that are dense in the state illustrated in FIG.
そこで、本実施形態では、さらに、図5(a)に示すように重畳する表示位置が近接するアイコン(アイコングループα、β、γ)については、個々のアイコンを表示することなく、図5(b)に示すように、アイコンが密集していることを示す集合グラフィックスオブジェクトとして表示部102に表示させる。図5(b)に示すように、ここでの集合グラフィックスオブジェクトは、複数のアイコンが重なり合った図柄のアイコンである。このような集合グラフィックスオブジェクトを使用することにより、実空間の映像に拡張現実感情報を表示した画面を図6に示す。図6に示されるように、集合グラフィックスオブジェクトを使用することで画面の表示は簡素化され、画面が煩雑化して視認し難くなることを防ぐことができる。 Therefore, in the present embodiment, as shown in FIG. 5A, for the icons (icon groups α, β, γ) whose display positions to be superimposed are close, as shown in FIG. As shown in b), it is displayed on the display unit 102 as a collective graphics object indicating that the icons are dense. As shown in FIG. 5B, the collective graphics object here is a symbol icon in which a plurality of icons overlap each other. FIG. 6 shows a screen on which augmented reality information is displayed on an image in real space by using such a collective graphics object. As shown in FIG. 6, the display of the screen is simplified by using the collective graphics object, and it is possible to prevent the screen from becoming complicated and difficult to view.
このような集合グラフィックスオブジェクトで表示する対象は、例えば、決定された表示位置に描画するとグラフィックスオブジェクトが重なり合う複数の拡張現実感情報とすることができる。これによりアイコンが重なり合って視認できなくなることを未然に防止することができる。グラフィックスオブジェクトが重なり合うか否かは、実際に個々のグラフィックスオブジェクトを描画してAND条件により検出してもよいし、描画することなく計算により検出してもよい。また、図10(a)に示すように、画面を複数のエリアに分割して管理し、図10(b)に示すように、重畳する表示位置が同じエリアに決定された複数の拡張現実感情報を1つの集合グラフィックスオブジェクトとして表示部102に表示させることもできる。エリアの分割管理は、投影面を分割管理して行えばよい。この場合には、各グラフィックスオブジェクトが重なり合うか判定する必要がないので、重畳する表示位置の近接した拡張現実感情報を検出する負荷を軽減することができる。また、位置情報(地点情報)が近接している複数の拡張現実感情報を1つの集合グラフィックスオブジェクトとして表示部102に表示させることも可能である。図11を用いて詳細を説明する。図11は、カメラの撮像方向の地図情報の平面図であって、位置情報コンテンツが示す位置情報を×印で示したものである。図11に示すように、×印で示す位置情報コンテンツのうち位置情報が近接する位置情報コンテンツ(点線で囲う部分)を集合グラフィックスオブジェクトとして表示させる。この場合には、位置情報コンテンツを住所ごとに集合グラフィックスオブジェクトとして表示部102に表示させることができる。なお、この場合には、端末装置から遠距離にある地点に関連付けられた拡張現実感情報の間では、実空間映像における遠近法の効果を考慮して、近接していると判定する範囲を拡大することが好ましい。これにより、位置情報が現在地点から遠い地点を示す位置情報コンテンツほど集合グラフィックスオブジェクトとして表示できるので、画面の複雑化を回避することが可能となる。 The target to be displayed with such a collective graphics object can be, for example, a plurality of augmented reality information in which graphics objects overlap when rendered at a determined display position. As a result, it is possible to prevent the icons from overlapping and becoming invisible. Whether or not the graphics objects overlap may be detected by an AND condition by actually drawing individual graphics objects, or may be detected by calculation without drawing. Further, as shown in FIG. 10A, the screen is divided into a plurality of areas for management, and as shown in FIG. 10B, a plurality of augmented reality images in which the display positions to be superimposed are determined in the same area. Information can also be displayed on the display unit 102 as one collective graphics object. The area division management may be performed by dividing the projection plane. In this case, since it is not necessary to determine whether the graphics objects overlap each other, it is possible to reduce the load of detecting augmented reality information in which the display positions to be superimposed are close to each other. It is also possible to display a plurality of augmented reality information with close positional information (point information) on the display unit 102 as one collective graphics object. Details will be described with reference to FIG. FIG. 11 is a plan view of the map information in the imaging direction of the camera, and indicates the position information indicated by the position information content with a cross. As shown in FIG. 11, position information content (portion surrounded by a dotted line) where the position information is close among the position information contents indicated by X marks is displayed as a collective graphics object. In this case, the position information content can be displayed on the display unit 102 as a collective graphics object for each address. In this case, between the augmented reality information associated with points far away from the terminal device, the range determined to be close is expanded in consideration of the perspective effect in the real space image. It is preferable to do. As a result, since the position information content indicating the position far from the current position can be displayed as the collective graphics object, it is possible to avoid complication of the screen.
図7(a)は、拡張現実感情報のうち位置情報コンテンツを表示するアイコンについて、そのタイプ毎に絵柄を付した例である。このようなグラフィックスオブジェクトを使用することで拡張現実感情報の視認性を向上することができる。また、位置情報コンテンツの集合グラフィックスオブジェクトについては、図7(b)に示すように、所定の条件を満たす場所の位置情報コンテンツのタイプに応じた絵柄を付したものとすることができる。所定の条件として、例えば、現在地点から位置情報コンテンツが示す位置までの距離、位置情報コンテンツが示す位置の高さ、位置情報コンテンツが示す建築物の建造年月日や、位置情報コンテンツの更新日、情報鮮度、アクセス回数、アクセス時刻、お勧め度、ユーザやサービスがカテゴリ分けに用いるタグ等が採用される。例えば、所定条件として距離を採用した場合には、端末装置100に最も近い場所の位置情報コンテンツのタイプに応じた絵柄を付したものとすることができる。さらに、集合グラフィックスオブジェクトは、上述した所定の条件でグラフィックスオブジェクトが並べられて表示される。このように表示されることで、拡張現実感情報の視認性を向上することができるとともに、情報検索を容易とすることが可能となる。 FIG. 7A shows an example in which an icon for displaying position information content in the augmented reality information is provided with a pattern for each type. By using such a graphics object, the visibility of augmented reality information can be improved. In addition, as shown in FIG. 7B, the collective graphics object of the position information content can be provided with a pattern according to the type of the position information content in a place that satisfies a predetermined condition. As predetermined conditions, for example, the distance from the current location to the position indicated by the position information content, the height of the position indicated by the position information content, the date of construction of the building indicated by the position information content, or the update date of the position information content Information freshness, number of accesses, access time, recommendation degree, tags used by users and services for categorization, and the like are employed. For example, when distance is adopted as the predetermined condition, a pattern corresponding to the type of position information content at a location closest to the terminal device 100 can be attached. Further, the collective graphics object is displayed by arranging the graphics objects under the predetermined condition described above. By displaying in this way, the visibility of augmented reality information can be improved, and information retrieval can be facilitated.
以上のように、重畳する表示位置が近接した複数の拡張現実感情報を1つの集合グラフィックスオブジェクトとして表示部102に表示させることで、画面が煩雑化して視認し難くなることを防ぐことができる。ここで、集合グラフィックスオブジェクトから個々の拡張現実感情報に対するインターフェイスを設計する必要がある。最も簡単な方法は、カーソルを集合グラフィックスオブジェクトに合わせるキー操作をすることで情報のリストが表示部102に表示され、再度キー操作をすることで目的の情報が選択されるインターフェイスとすることである。しかし、本実施形態では、タッチパネル機能を備えた表示部102を利用して、以下に示す画面遷移のインターフェイスを提案する。 As described above, by displaying a plurality of augmented reality information with close display positions on the display unit 102 as one collective graphics object, it is possible to prevent the screen from becoming complicated and difficult to view. . Here, it is necessary to design an interface for individual augmented reality information from the collective graphics object. The simplest method is to use an interface in which a list of information is displayed on the display unit 102 by performing a key operation to move the cursor to a set graphics object, and target information is selected by performing a key operation again. is there. However, in the present embodiment, the following screen transition interface is proposed using the display unit 102 having a touch panel function.
このインターフェイスでは、図6に示した集合アイコンα上をユーザがタッチしたことを検出すると、表示部102に表示される実空間映像はタッチした時点のものに固定され、画面の明度は暗く変更される。同時に他のアイコン等は画面から消去され、集合アイコンαが画面中央に移動される(図8(a))。続いて、集合アイコンαとして表示されている拡張現実感情報の一つ一つを表示するために、各拡張現実感情報に対応したアイコンが表示される。ここでは集合アイコンαから各アイコンが回転しながら広がっていくように展開され(図8(b))、距離の近い位置情報コンテンツから順に所定数のアイコンが環状(リング状)に配置される(図8(c))。 In this interface, when it is detected that the user touches the collective icon α shown in FIG. 6, the real space image displayed on the display unit 102 is fixed to that at the time of the touch, and the brightness of the screen is changed to dark. The At the same time, other icons and the like are deleted from the screen, and the collective icon α is moved to the center of the screen (FIG. 8A). Subsequently, in order to display each of the augmented reality information displayed as the collective icon α, an icon corresponding to each augmented reality information is displayed. Here, each icon is expanded from the collective icon α so as to spread while rotating (FIG. 8B), and a predetermined number of icons are arranged in a ring (ring shape) in order from the position information content with a short distance ( FIG. 8 (c)).
このようにアイコンを表示した画面に対して、ユーザが表示部102の表面をアイコンのリングに沿ってドラッグ操作することで、画面に表示されたアイコンのリングはドラッグした方向(リングの周方向)に回転し、左方向にドラッグすると先頭のアイコンα1が画面から消え、代わりにα8に続くα9が表示される(図9(a))。すなわち、アイコンの回転移動方向および表示位置(リングにおけるアイコンの配置位置)に基づいて入れ替えされるアイコンが決定される。このようなインターフェイスは、集合アイコンαとして表示されている拡張現実感情報が、画面に対して垂直な螺旋の上に距離の近いものから順に並んでいる状態を、螺旋の正面から見た状態としてモデル化したものである。すなわち、実空間の映像と同様にユーザの手前から奥に向かって、拡張現実感情報が近いものから連続的に表示され、ねじを回転させるようにドラッグ操作することでアイコンの表示領域は螺旋上の画面奥へと進む。このようなインターフェイスによれば、ユーザが片手で端末装置100を保持して画面上を親指でドラッグし、親指の届く位置に所望のアイコンを移動させてタッチ操作することにより、片手のみで端末装置100を操作することができる。 In this way, when the user drags the surface of the display unit 102 along the icon ring on the screen displaying the icon, the icon ring displayed on the screen is dragged in the direction (circumferential direction of the ring). When the icon is rotated to the left and dragged leftward, the leading icon α1 disappears from the screen, and α9 following α8 is displayed instead (FIG. 9A). That is, the icon to be replaced is determined based on the rotational movement direction of the icon and the display position (icon placement position on the ring). In such an interface, the state where the augmented reality information displayed as the collective icon α is arranged in order from the closest distance on the spiral perpendicular to the screen as viewed from the front of the spiral. Modeled. That is, as in the real space image, the augmented reality information is displayed continuously from the near side to the back side of the user, and the icon display area spirals by dragging to rotate the screw. Go to the back of the screen. According to such an interface, the user holds the terminal device 100 with one hand, drags the screen with a thumb, moves a desired icon to a position where the thumb can reach, and performs a touch operation. 100 can be operated.
また、図8(c)に示す画面を図12(a)に示す画面のように表示してもよい。図12に示す画面は、上述した螺旋のモデルを視覚的に表した画面である。この画面では、アイコンの大きさがアイコンごとに変更されて表示される。また、アイコンの透明度がアイコンごとに変更されて表示されてもよい。大きさ及び透明度の変更は、所定の条件に従って変更される。所定条件として、例えば、現在地点から位置情報コンテンツが示す位置までの距離、位置情報コンテンツが示す位置の高さ、位置情報コンテンツが示す建築物の建造年月日や、位置情報コンテンツの更新日、情報鮮度、アクセス回数、アクセス時刻、お勧め度、ユーザやサービスがカテゴリ分けに用いるタグ等が採用される。例えば、所定条件として距離を採用した場合には、位置情報コンテンツが示す位置情報が現在の端末地点から近い位置となるほどアイコンは大きく表示され、位置情報コンテンツが示す位置情報が現在の端末地点から近い位置となるほどアイコンの透明度は小さく表示される。すなわち、現在の端末地点から近い位置を示す位置情報コンテンツほど、アイコンが大きくはっきりと表示される。他方、現在の端末地点から遠い位置を示す位置情報コンテンツほど、アイコンが小さくぼやけて(かすんで)表示される。なお、透明度の表示方法は、従来の3Dレタリング技術を用いてもよいし、明るさや青系統の色を用いて遠近感を表現してもよい。そして、所定条件を満たす順にアイコンを並べてリング状に表示することで、アイコンの大きさ及び透明度が周方向に徐々に変化するように表示することができるので、螺旋を示すモデルを視覚的にユーザに提供することが可能となる。そして、図12(b)に示すように、図9(a)に示す画面と同様にドラッグした方向に螺旋を回転させることができる。左方向にドラッグすると先頭のアイコンα1が画面から消えるとともにアイコンα2がアイコンα1の表示されていた位置に移動される。そして、アイコンα2の大きさ及び透明度が、先頭に位置したアイコンα1の大きさ及び透明度と同等となるように変更される。このように、リング状のアイコンが螺旋的に表示されることで、時間や距離等を直感的に表現することができる。 Further, the screen shown in FIG. 8C may be displayed like the screen shown in FIG. The screen shown in FIG. 12 is a screen that visually represents the above-described spiral model. In this screen, the size of the icon is changed for each icon and displayed. The transparency of the icon may be changed for each icon and displayed. The change in size and transparency is changed according to predetermined conditions. As the predetermined condition, for example, the distance from the current location to the position indicated by the position information content, the height of the position indicated by the position information content, the date of construction of the building indicated by the position information content, the update date of the position information content, Information freshness, number of accesses, access time, recommendation, tags used by users and services for categorization, and the like are employed. For example, when the distance is adopted as the predetermined condition, the icon is displayed larger as the position information indicated by the position information content is closer to the current terminal point, and the position information indicated by the position information content is closer to the current terminal point. The closer to the position, the smaller the icon transparency. That is, the position information content indicating a position closer to the current terminal point is displayed with a larger and clearer icon. On the other hand, as the position information content indicates a position far from the current terminal point, the icon is displayed with a smaller blur (hazy). Note that the transparency display method may use a conventional 3D lettering technique, or may express perspective using brightness or a blue color. The icons are arranged in the order in which the predetermined conditions are satisfied and displayed in a ring shape, so that the size and transparency of the icons can be displayed so as to gradually change in the circumferential direction. Can be provided. Then, as shown in FIG. 12B, the spiral can be rotated in the dragged direction as in the screen shown in FIG. When dragging leftward, the leading icon α1 disappears from the screen and the icon α2 is moved to the position where the icon α1 was displayed. Then, the size and transparency of the icon α2 are changed so as to be equal to the size and transparency of the icon α1 positioned at the head. As described above, the ring-shaped icon is spirally displayed, so that time, distance, and the like can be intuitively expressed.
また、図8(c)または図9(a)に示した状態で、アイコンの1つをタッチすると、アイコンで表示された拡張現実感情報について利用可能なメニューアイコンのセットがリング状に表示される(図9(b))。この状態でも前記同様に画面をドラッグすることでアイコンをリングに沿って回転させることができる。ただし、図9(b)の画面は固定的なメニュー表示を行うものなので、前述のように回転させながらアイコンを入れ替えることはしない。メニューアイコンのセットは、画面中央にディスクとして表現されており、表示部102の表面を速くドラッグすることにより次または前のディスク(メニューアイコンのセット)へ画面は遷移する。このようにタッチパネル機能を利用した物理的な操作をともなう視覚性および認識性に優れたインターフェイスによって、本実施形態に係る端末装置は優れた拡張現実感をもたらすものである。 When one of the icons is touched in the state shown in FIG. 8C or FIG. 9A, a set of menu icons that can be used for the augmented reality information displayed by the icon is displayed in a ring shape. (FIG. 9B). Even in this state, the icon can be rotated along the ring by dragging the screen in the same manner as described above. However, since the screen of FIG. 9B displays a fixed menu, the icons are not replaced while rotating as described above. A set of menu icons is represented as a disc in the center of the screen, and the screen transitions to the next or previous disc (set of menu icons) by quickly dragging the surface of the display unit 102. As described above, the terminal device according to the present embodiment provides an excellent augmented reality by using an interface with excellent visibility and recognizability with a physical operation using the touch panel function.
次に、拡張現実感サーバ300について説明する。図13は、本実施形態における拡張現実感サーバ300の機能ブロック図である。この拡張現実感サーバ300は、Webサーバの常駐したサーバシステムであり、主として、通信部301、サーバ制御部310およびユーザDB316を有し、端末装置100からのリクエストを通信網150およびネットワーク200を介して受け付け、必要に応じてネットワーク200に接続された地図情報サーバ351、経路情報サーバ361または位置情報コンテンツサーバ371からデータを取得して、拡張現実感情報として端末装置100にレスポンスする処理を行う。 Next, the augmented reality server 300 will be described. FIG. 13 is a functional block diagram of the augmented reality server 300 in the present embodiment. The augmented reality server 300 is a server system in which a Web server is resident. The augmented reality server 300 mainly includes a communication unit 301, a server control unit 310, and a user DB 316. Requests from the terminal device 100 are transmitted via the communication network 150 and the network 200. The data is acquired from the map information server 351, the route information server 361, or the location information content server 371 connected to the network 200 as needed, and a process of responding to the terminal device 100 as augmented reality information is performed.
通信部301は、ネットワークに接続して端末装置100、地図情報サーバ351、経路情報サーバ361および位置情報コンテンツサーバ371といった外部サーバと通信を行うネットワークモジュールであり、公知のものを使用することができる。ユーザDB316は、拡張現実感サーバ300のシステム領域内にあるデータベースマシンであり、端末装置100から受け付けた端末ID、端末位置情報およびハンドル名を関連付けて記録し、管理する。 The communication unit 301 is a network module that communicates with an external server such as the terminal device 100, the map information server 351, the route information server 361, and the location information content server 371 by connecting to a network, and a publicly known one can be used. . The user DB 316 is a database machine in the system area of the augmented reality server 300, and records and manages the terminal ID, terminal position information, and handle name received from the terminal device 100 in association with each other.
サーバ制御部310は、不図示のCPUで所定のプログラムを実行することにより仮想的に構成される機能ブロックである。サーバ制御部310は、より詳細には、地図情報サーバ351から地図データを取得する地図データ取得部311、経路情報サーバ361から経路データを取得する経路データ取得部312、位置情報コンテンツサーバ371から位置情報コンテンツを取得する位置情報コンテンツ取得部313、およびユーザDB316にアクセスするユーザデータ部315からなっている。これら地図データ取得部311、経路データ取得部312、位置情報コンテンツ取得部313およびユーザデータ部315は、いずれも端末装置100から送信されたリクエストに基づき、対応するCGIプログラムである拡張現実感サーバAPIを呼び出すことにより所定の処理を行うものである。以下、地図データ取得部311、経路データ取得部312および位置情報コンテンツ取得部313について詳細に説明する。 The server control unit 310 is a functional block that is virtually configured by executing a predetermined program by a CPU (not shown). More specifically, the server control unit 310 includes a map data acquisition unit 311 that acquires map data from the map information server 351, a route data acquisition unit 312 that acquires route data from the route information server 361, and a position from the position information content server 371. It comprises a location information content acquisition unit 313 that acquires information content, and a user data unit 315 that accesses the user DB 316. These map data acquisition unit 311, route data acquisition unit 312, location information content acquisition unit 313, and user data unit 315 are all based on the request transmitted from the terminal device 100, the augmented reality server API that is a corresponding CGI program. A predetermined process is performed by calling. Hereinafter, the map data acquisition unit 311, the route data acquisition unit 312 and the location information content acquisition unit 313 will be described in detail.
地図データ取得部311は、端末装置100が地図データを要求した場合に呼び出されるAPIであり、端末装置100から送信された端末位置情報を中心とした所定範囲についての地図データを、公開APIを利用して地図情報サーバ351に要求する。これに応じて地図情報サーバ351が地図情報DB352から対応する地図データを抽出して拡張現実感サーバ300に返却し、拡張現実感サーバ300は取得した地図データを端末装置100で表示可能なデータ形式として端末装置100にリプライする。この際、端末装置100が地図データをリクエストする際に、地図データの範囲および縮尺をパラメータとして指定している場合には、これらを指定して地図情報サーバ351が公開しているAPIを呼び出す処理を行う。 The map data acquisition unit 311 is an API that is called when the terminal device 100 requests map data, and uses a public API for map data for a predetermined range centered on terminal location information transmitted from the terminal device 100. To the map information server 351. In response to this, the map information server 351 extracts corresponding map data from the map information DB 352 and returns it to the augmented reality server 300, and the augmented reality server 300 can display the acquired map data on the terminal device 100. To the terminal device 100. At this time, when the terminal device 100 requests map data, if the range and scale of the map data are specified as parameters, a process for specifying these and calling an API published by the map information server 351 I do.
経路データ取得部312は、端末装置100が経路データを要求した場合に呼び出されるAPIであり、端末装置100が位置情報取得部101で取得された端末位置情報を始点として、併せて送信された位置情報(地点情報)を終点とした経路データを経路情報サーバ361に要求する。これに応じて経路情報サーバ361が経路情報DB362から対応する経路データを生成して拡張現実感サーバ300に返却し、拡張現実感サーバ300は取得した経路データを端末装置100で対応可能なデータ形式として端末装置100にリプライする。この際、経路情報サーバ361が算出して総所要時間、総料金を経路データに付加してリプライしてもよい。 The route data acquisition unit 312 is an API that is called when the terminal device 100 requests route data, and the terminal device 100 is a location transmitted together with the terminal location information acquired by the location information acquisition unit 101 as a starting point. The route information server 361 is requested for route data having information (point information) as an end point. In response to this, the route information server 361 generates corresponding route data from the route information DB 362 and returns it to the augmented reality server 300, and the augmented reality server 300 can handle the acquired route data in the terminal device 100. To the terminal device 100. At this time, the route information server 361 may calculate and add the total required time and the total fee to the route data for reply.
位置情報コンテンツ取得部313は、端末装置100が位置情報コンテンツを要求した場合に呼び出されるAPIである。ここで、位置情報コンテンツとは、駅、空港、港、バス停、インターチェンジ、サービスエリア、ガソリンスタンド、レストラン、居酒屋、コンビニ、デパート、病院、学校、信号、曲がり角、交差点等について、それらの位置情報(地点情報)と関連付けられた当該施設の情報をいう。例えば、レストランに関しては、住所、電話番号、ファクス番号、メールアドレス、ホームページURL、紹介文、営業時間情報、店舗画像等を含んだ位置情報コンテンツが、情報サービスプロバイダーの提供するサービスで公開されている。 The location information content acquisition unit 313 is an API that is called when the terminal device 100 requests location information content. Here, the location information content refers to the location information (stations, airports, ports, bus stops, interchanges, service areas, gas stations, restaurants, taverns, convenience stores, department stores, hospitals, schools, signals, corners, intersections, etc.) Information on the facility associated with the (point information). For example, for restaurants, location information contents including addresses, telephone numbers, fax numbers, e-mail addresses, homepage URLs, introductions, business hours information, store images, etc. are published on services provided by information service providers. .
位置情報コンテンツ取得部313は、端末装置100の位置情報取得部101で取得された端末位置情報を中心とした所定距離内に存在する位置情報コンテンツを、情報サービスプロバイダー等により公開されている位置情報コンテンツサーバ371に要求する。これに応じて位置情報コンテンツサーバ371が位置情報コンテンツDB372から条件を満たす位置情報コンテンツを抽出したリストを拡張現実感サーバ300に返却し、拡張現実感サーバ300は取得した位置情報コンテンツを端末装置100で利用可能なデータ形式として端末装置100にリプライする。この際、位置情報コンテンツ取得部313は、複数の位置情報コンテンツサーバ371に対して位置情報(地点情報)を要求することができ、この場合に拡張現実感サーバ300は複数の位置情報コンテンツサーバ371からのリストを共通フォーマットに統合して端末装置100にリプライする。また、位置情報コンテンツの分野毎に利用する位置情報コンテンツサーバ371を登録しておけば、端末装置100から要求のあった分野についてのみ位置情報コンテンツを要求することも可能である。 The location information content acquisition unit 313 uses location information content existing within a predetermined distance centered on the terminal location information acquired by the location information acquisition unit 101 of the terminal device 100 as location information published by an information service provider or the like. Requests to the content server 371. In response to this, the location information content server 371 returns a list in which the location information content satisfying the conditions from the location information content DB 372 is extracted to the augmented reality server 300, and the augmented reality server 300 transmits the obtained location information content to the terminal device 100. Is replied to the terminal device 100 as a usable data format. At this time, the location information content acquisition unit 313 can request location information (point information) from the plurality of location information content servers 371, and in this case, the augmented reality server 300 has a plurality of location information content servers 371. Are integrated into a common format and replied to the terminal device 100. In addition, if the location information content server 371 used for each field of the location information content is registered, it is possible to request the location information content only for the field requested from the terminal device 100.
また、ユーザDB316には別の端末装置の端末IDおよび端末位置情報がユーザのハンドル名とともに記録されているが、かかる内容も位置情報(地点情報)と関連付けられたコンテンツであり、他の位置情報コンテンツと等価に取り扱うことができる。すなわち、位置情報コンテンツ取得部313からユーザデータ部315に対して、端末装置100の現在の端末位置から所定距離内の位置情報(地点情報)に関連付けて記録されているユーザのハンドル名を要求させ、ユーザデータ部がこれに応じてユーザDB316から抽出したハンドル名のリストを拡張現実感サーバ300に返却し、拡張現実感サーバ300から端末装置100へ共通フォーマットでリプライすれば、他の位置情報コンテンツとともにコンテンツとして利用可能である。 In addition, the terminal ID and terminal position information of another terminal device are recorded in the user DB 316 together with the handle name of the user. However, such contents are also contents associated with the position information (point information). It can be handled equivalent to content. That is, the position information content acquisition unit 313 requests the user data unit 315 to request the user handle name recorded in association with the position information (point information) within a predetermined distance from the current terminal position of the terminal device 100. If the user data part returns the handle name list extracted from the user DB 316 in response to the augmented reality server 300 and replies from the augmented reality server 300 to the terminal device 100 in a common format, other location information content And can be used as content.
以下、以上のように構成された拡張現実感システム1における端末装置100の動作についてフローチャートを参照しながら説明する。 Hereinafter, the operation of the terminal device 100 in the augmented reality system 1 configured as described above will be described with reference to flowcharts.
図14は、本実施形態における端末装置100側の動作について、起動から拡張現実感情報を表示してユーザによる操作待ちの状態になるまでを示したフローチャートである。 FIG. 14 is a flowchart illustrating the operation on the terminal device 100 side in the present embodiment, from starting to displaying augmented reality information and waiting for a user operation.
この動作は、ユーザが端末装置100のキー入力部103を操作して拡張現実感プログラムを起動することにより開始される。まず、カメラ部106および各種センサ(位置情報取得部101および方位センサ104)を起動し、初期画面としてライブビュー表示を開始する(ST101)。ライブビュー表示は、常法にしたがって、起動されたカメラ部106の光学系により取得された被写体像から所定露光時間で受像素子により映像データを生成し、当該データを表示部102に表示させる処理を所定時間間隔で繰り返すことにより行われる。続いて位置情報取得部101の検出値より端末装置100の現在の端末位置にかかる端末位置情報を取得する(ST102)。 This operation is started when the user operates the key input unit 103 of the terminal device 100 to start the augmented reality program. First, the camera unit 106 and various sensors (position information acquisition unit 101 and direction sensor 104) are activated, and live view display is started as an initial screen (ST101). Live view display is a process in which video data is generated by an image receiving element with a predetermined exposure time from a subject image acquired by the optical system of the activated camera unit 106 and displayed on the display unit 102 according to a conventional method. Is repeated at predetermined time intervals. Subsequently, terminal position information relating to the current terminal position of the terminal device 100 is acquired from the detection value of the position information acquisition unit 101 (ST102).
次に、端末装置100がST102で取得した端末位置情報を拡張現実感サーバ300へ送信して拡張現実感情報をリクエストし(ST103)、拡張現実感サーバ300によりレスポンスされた端末装置100周辺の拡張現実感情報のリストを受信し、記憶部107に記録する(ST104)。 Next, the terminal device 100 transmits the terminal location information acquired in ST102 to the augmented reality server 300 to request augmented reality information (ST103), and the augmented surroundings of the terminal device 100 that is responded by the augmented reality server 300 A list of reality information is received and recorded in the storage unit 107 (ST104).
続いて、ST104で受信したリストの拡張現実感情報について、方位センサ104で検出されたカメラ部106の姿勢および角度の情報およびST102で取得された端末位置情報に基づいて、リストに記載された情報の関連付けられた地点がカメラ部106の視界に入るか否かを個々に判定し、記憶部107に記憶された拡張現実感情報のリストに記録する(ST105)。以下では、記憶部107のリストを参照し、ここでカメラ部106の視界に入るものと判定された拡張現実感情報について処理を行う。 Subsequently, for the augmented reality information of the list received in ST104, the information described in the list based on the attitude and angle information of the camera unit 106 detected by the direction sensor 104 and the terminal position information acquired in ST102. Are individually determined as to whether or not the associated point enters the field of view of the camera unit 106, and is recorded in the list of augmented reality information stored in the storage unit 107 (ST105). Hereinafter, the list of the storage unit 107 is referred to, and the augmented reality information determined to enter the field of view of the camera unit 106 is processed.
次に、端末装置100の現在の端末位置を原点とした座標空間に抽出された拡張現実感情報を配置したと想定して、原点の所定高さを中心点としてカメラの水平方向視野角および垂直方向視野角ならびに映像サイズに基づいて原点から所定距離に定まる矩形平面に各拡張現実感情報を透過投影する処理を行うことにより各情報の表示位置を算出する(ST106)。 Next, assuming that the extracted augmented reality information is arranged in the coordinate space with the current terminal position of the terminal device 100 as the origin, the horizontal viewing angle and the vertical of the camera with the predetermined height of the origin as the center point The display position of each piece of information is calculated by performing a process of transparently projecting each piece of augmented reality information onto a rectangular plane determined at a predetermined distance from the origin based on the direction viewing angle and the video size (ST106).
続いて、算出された各情報の表示位置に基づいて、表示位置の間隔が所定値以下となる拡張現実感情報があるか否かを判定し(ST107)、表示位置の間隔が所定値以下となる拡張現実感情報がある場合には当該拡張現実感情報を集合アイコンとして表示し(ST108)、残りの拡張現実感情報を通常のアイコンとして表示する(ST109)。以上で、実空間の映像に拡張現実感情報を重畳する動作は終了してユーザの操作を待つ動作となる。終了指示があったか否かを判定し(ST110)、終了指示があったと判定した場合には一連の動作を終了する。終了指示があったと判定しない場合には、続いて集合アイコンにタッチする操作がなされたか否かを判定し(ST111)、集合アイコンにタッチする操作がなされていると判定した場合には後述するスパイラルメニューの動作へと進む。一方。集合アイコンにタッチする操作がなされていると判定しない場合には、通常のアイコンにタッチする操作がなされたか否かを判定する(ST112)。通常のアイコンにタッチする操作がなされていると判定した場合には、後述するディスクメニューの動作へと進む。ST112で通常のアイコンにタッチする操作がなされていると判定しない場合には、ST110に戻って以降の動作を繰り返す。 Subsequently, based on the calculated display position of each piece of information, it is determined whether there is augmented reality information in which the display position interval is equal to or less than a predetermined value (ST107), and the display position interval is equal to or less than the predetermined value. If there is augmented reality information, the augmented reality information is displayed as a collective icon (ST108), and the remaining augmented reality information is displayed as a normal icon (ST109). As described above, the operation of superimposing the augmented reality information on the video in the real space is finished and the operation waits for the user's operation. It is determined whether or not there is an end instruction (ST110). When it is determined that there is an end instruction, the series of operations is ended. If it is not determined that an end instruction has been issued, it is subsequently determined whether or not an operation for touching the collective icon has been performed (ST111). If it is determined that an operation for touching the collective icon has been performed, a spiral described later is performed. Proceed to menu operation. on the other hand. If it is not determined that an operation for touching the collective icon has been performed, it is determined whether an operation for touching a normal icon has been performed (ST112). If it is determined that an operation of touching a normal icon is performed, the operation proceeds to an operation of a disc menu described later. If it is not determined in ST112 that an operation of touching a normal icon is performed, the process returns to ST110 and the subsequent operations are repeated.
続いて、起動から拡張現実感情報を表示してユーザによる操作待ちの状態になるまでの別の動作を図15のフローチャートを参照しながら説明する。 Next, another operation from the start to the display of augmented reality information until the user waits for an operation will be described with reference to the flowchart of FIG.
この動作は、まず前記動作と同様に、カメラ部106および各種センサを起動してライブビュー表示を開始し(ST101’)、位置情報取得部101が端末位置情報を取得し(ST102’)、端末位置情報を拡張現実感サーバ300へ送信して拡張現実感情報をリクエストし(ST103’)、拡張現実感サーバ300によりレスポンスされた拡張現実感情報のリストを記憶部107が記録し(ST104’)、リストの拡張現実感情報がカメラ部106の視界に入るか否かを判定する(ST105’)。 In this operation, first, similarly to the above operation, the camera unit 106 and various sensors are activated to start live view display (ST101 ′), and the position information acquisition unit 101 acquires terminal position information (ST102 ′). The location information is transmitted to the augmented reality server 300 to request augmented reality information (ST103 ′), and the list of augmented reality information responded by the augmented reality server 300 is recorded in the storage unit 107 (ST104 ′). Then, it is determined whether or not the augmented reality information in the list enters the field of view of the camera unit 106 (ST105 ′).
続いて、記憶部107に記録されたリストのうちカメラ部106の視野角に入ると判定された拡張現実感情報について、その位置情報(地点情報)にかかる地点から端末装置100までの距離をそれぞれ算出して記憶部107のリストに記録する(ST120)。次に、前記動作と同様に各情報の表示位置を算出する(ST121)。 Subsequently, for the augmented reality information determined to fall within the viewing angle of the camera unit 106 in the list recorded in the storage unit 107, the distance from the point related to the position information (point information) to the terminal device 100 is respectively set. Calculate and record in the list of the storage unit 107 (ST120). Next, the display position of each information is calculated in the same manner as the above operation (ST121).
この動作では拡張現実感情報のうち位置情報コンテンツを実空間の映像に重畳するにあたり、位置情報(地点情報)にかかる地点が近距離の場合には大きいアイコン(グラフィックスオブジェクト)を描画し、遠距離の場合には小さいアイコン(グラフィックスオブジェクト)を描画することにより、拡張現実感情報に実際の距離に応じて遠近感をもたせ、優れた拡張現実感をもたらすものである。したがって、この動作では、距離に応じたサイズのアイコンを表示部102に表示させると、他の拡張現実感情報のアイコンと重なり合う拡張現実感情報があるか否かを判定する(ST122)。ここで、他の拡張現実感情報のアイコンと重なり合う拡張現実感情報があると判定した場合には、当該拡張現実感情報を集合アイコンとして表示部102に表示させ(ST123)、続いて残りの情報を距離に応じた通常のアイコンとして表示部102に表示させる(ST124)。一方、ST123で、他の拡張現実感情報のアイコンと重なり合う拡張現実感情報があると判定しない場合には、そのまま各拡張現実感情報を距離に応じた通常のアイコンとして表示する(ST124)。 In this operation, when superimposing position information content in augmented reality information on a video in real space, a large icon (graphics object) is drawn when the point related to the position information (point information) is a short distance. In the case of distance, by drawing a small icon (graphics object), the augmented reality information is given a sense of perspective according to the actual distance, resulting in excellent augmented reality. Therefore, in this operation, when an icon having a size corresponding to the distance is displayed on the display unit 102, it is determined whether or not there is augmented reality information that overlaps another augmented reality information icon (ST122). If it is determined that there is augmented reality information that overlaps with other augmented reality information icons, the augmented reality information is displayed on the display unit 102 as a collective icon (ST123), and then the remaining information is displayed. Is displayed on the display unit 102 as a normal icon corresponding to the distance (ST124). On the other hand, if it is not determined in ST123 that there is augmented reality information that overlaps with another augmented reality information icon, each augmented reality information is displayed as a normal icon according to the distance (ST124).
以降、前述の動作と同様にユーザの操作を待つ動作となり、終了指示があったか否かの判定(ST110’)、集合アイコンにタッチする操作がなされたか否かの判定(ST111’)、通常のアイコンにタッチする操作がなされたか否かの判定(ST112’)を繰り返す。 Thereafter, as in the above-described operation, the operation waits for the user's operation, and it is determined whether or not there is an end instruction (ST110 ′), whether or not an operation of touching the collective icon has been performed (ST111 ′), and a normal icon The determination of whether or not an operation for touching is performed (ST112 ′) is repeated.
次に、上記ユーザの操作を待っている動作において、ST111またはST111’にて、ユーザが集合アイコンをタッチする操作がなされたものと判定した場合に行われるスパイラルメニュー動作について、図16のフローチャートを参照しながら説明する。 Next, in the operation waiting for the user's operation, in ST111 or ST111 ′, the spiral menu operation performed when it is determined that the user has performed an operation of touching the collective icon is shown in the flowchart of FIG. The description will be given with reference.
本実施形態のスパイラルメニュー動作においては、ST111またはST111’にてユーザが集合アイコンをタッチする操作がなされたと判定して開始する場合には、まず、表示部102に表示されているライブビュー画像をタッチされた時点でロックするとともに明度を低減する(ST201)。ここでライブビュー画像をロックするとは、表示部102に表示される実空間の映像をタッチされた時点のものに固定することである。このようにすることで、メニュー操作中に端末の姿勢角度が変化しても集合アイコンにかかる拡張現実感情報の関連付けられた地点の映像を表示し続けることができる。また、実空間映像の明度を低減することによりアイコン等の拡張現実感情報をより強調して表示することが可能となる。続いてタッチされた集合アイコン以外のアイコンを画面から消去し(ST202)、タッチされた集合アイコンを画面中央に移動させる(ST203、図8(a)。)次に、画面中央に移動された集合アイコンを、通常のアイコンを重ね合わせた画像に書き換え、集合アイコンとして表示されていた拡張現実感情報のうち所定個のアイコンを、端末装置100までの距離が近いものから順に画面中央を中心として回転移動させてリング状に展開させて配置する(ST204、図8(b))。以上でタッチされた集合アイコンに関するスパイラルメニューが表示部102に表示される。 In the spiral menu operation of the present embodiment, when it is determined in ST111 or ST111 ′ that the user has performed an operation of touching the collective icon, the live view image displayed on the display unit 102 is first displayed. When touched, it is locked and the brightness is reduced (ST201). Here, to lock the live view image is to fix the video in the real space displayed on the display unit 102 to the one at the time of touch. By doing in this way, even if the attitude angle of the terminal changes during the menu operation, it is possible to continue displaying the video of the point associated with the augmented reality information related to the collective icon. Further, by reducing the brightness of the real space video, it is possible to display the augmented reality information such as icons more emphasized. Subsequently, icons other than the touched collective icon are deleted from the screen (ST202), and the touched collective icon is moved to the center of the screen (ST203, FIG. 8A). The icon is rewritten to an image in which normal icons are superimposed, and a predetermined number of icons in the augmented reality information displayed as a collective icon are rotated around the center of the screen in order from the closest distance to the terminal device 100. They are moved and deployed in a ring shape (ST204, FIG. 8B). A spiral menu related to the collective icon touched as described above is displayed on the display unit 102.
以降はスパイラルメニューに対するユーザの入力に応じた処理となる。まず、アイコンのなすリングの中央部分をタッチする操作等、スパイラルメニュー終了指示として定義された操作がなされたか否かを判定する(ST205)。スパイラルメニュー終了指示として定義された操作がなされたと判定した場合には、表示中のメニューをクリアし(ST211)、ライブビュー画像のロックを解除して実空間映像の明度を戻し(ST212)、通常のアイコン、集合アイコンを再表示させて(ST213)、図14のST110または図15のST110’以降の処理でユーザの操作待ちに戻る。 The subsequent processing is in accordance with user input to the spiral menu. First, it is determined whether or not an operation defined as an instruction to end the spiral menu, such as an operation of touching the center portion of the ring formed by the icon, has been performed (ST205). If it is determined that the operation defined as the spiral menu end instruction has been performed, the currently displayed menu is cleared (ST211), the lock of the live view image is released, and the brightness of the real space image is returned (ST212). The icons and the collective icons are displayed again (ST213), and the process returns to the user operation waiting state in the processing after ST110 in FIG. 14 or ST110 ′ in FIG.
一方、スパイラルメニュー終了指示として定義された操作がなされていないと判定した場合は、まず個々のアイコンに対するタッチ操作がなされたか否かを判定する(ST206)。ST206で個々のアイコンに対するタッチ操作がなされたと判定した場合には、後述するディスクメニュー動作を開始する。ST206でタッチ操作がなされたと判定しない場合は、続いて所定のドラッグ操作がなされたか否かを判定する(ST207)。ここで、所定のドラッグ操作とは、スパイラルメニューに対する入力操作であって、具体的にはスパイラルメニューをなすリング状に配置されたアイコンに沿って回転させるようにドラッグする動作のことである。表示部102のタッチパネル機能によりこのようなドラッグ操作がなされたと判定した場合、続いてドラッグ操作の方向が左方向であるか否かを判定する(ST208)。ドラッグ操作の方向が左方向であると判定した場合には、リング状に配置されているアイコンを左方向へリング状の周方向に回転移動させて、表示されるアイコンを1個ずつ遠距離方向へシフトさせる(ST209)。また、ST208でドラッグ操作の方向が左方向であると判定しない場合には、右方向へドラッグされたものとして、リング状に配置されているアイコンを右方向へリング状の周方向に回転移動させて、表示されたアイコンを1個ずつ近距離方向へシフトさせる(ST210)。ST209またはST210でアイコンをシフトさせた後、ST207で所定のドラッグ操作がなされたと判定しない場合には、いずれもST205に戻って以上の動作を繰り返す。 On the other hand, if it is determined that the operation defined as the spiral menu end instruction has not been performed, it is first determined whether or not a touch operation has been performed on each icon (ST206). If it is determined in ST206 that a touch operation has been performed on each icon, a disc menu operation described later is started. If it is not determined in ST206 that a touch operation has been performed, it is subsequently determined whether a predetermined drag operation has been performed (ST207). Here, the predetermined drag operation is an input operation to the spiral menu, and specifically, an operation of dragging to rotate along icons arranged in a ring shape forming the spiral menu. If it is determined that such a drag operation has been performed by the touch panel function of the display unit 102, it is subsequently determined whether or not the direction of the drag operation is the left direction (ST208). If it is determined that the direction of the drag operation is the left direction, the icons arranged in a ring shape are rotated to the left in the ring-shaped circumferential direction, and the displayed icons one by one in the long distance direction (ST209). If it is not determined in ST208 that the direction of the drag operation is the left direction, it is assumed that the icon is dragged to the right, and the icon arranged in the ring shape is rotated to the right in the ring-shaped circumferential direction. The displayed icons are shifted one by one in the short distance direction (ST210). After shifting the icon in ST209 or ST210, if it is not determined in ST207 that a predetermined drag operation has been performed, both return to ST205 and repeat the above operations.
次に、図14のST112または図15のST112’にて通常のアイコンにタッチする操作がなされたと判定した場合、ならびに図16のST206のスパイラルメニュー動作で個々のアイコンに対するタッチ操作がなされたと判定した場合に行われるディスクメニュー動作について、図17のフローチャートを参照しながら説明する。 Next, when it is determined in ST112 in FIG. 14 or ST112 ′ in FIG. 15 that an operation for touching a normal icon has been performed, and it is determined that a touch operation for each icon has been performed in the spiral menu operation in ST206 in FIG. The disc menu operation performed in this case will be described with reference to the flowchart of FIG.
このディスクメニュー動作は、個々のアイコンにかかる拡張現実感情報について選択可能なメニューを、表示部102に一度に表示可能な数のセットに配分したディスクメニューとして表示し、表示部102のタッチパネル機能を利用して片手でも容易に操作可能なインターフェイスを提供するものである。 In this disc menu operation, a menu that can be selected for augmented reality information relating to each icon is displayed as a disc menu distributed to a set of numbers that can be displayed at a time on the display unit 102, and the touch panel function of the display unit 102 is displayed. It provides an interface that can be easily operated with one hand.
まず、前述のスパイラルメニューを経ずに図14のST112または図15のST112’からディスクメニュー動作を開始する場合には、まず、前述のST201と同様にライブビュー画像をロックするとともに明度を低減し、タッチされなかったアイコンを消去して(ST250)、タッチされたアイコンを画面中央に移動させる(ST251)。スパイラルメニュー動作のST206からディスクメニュー動作を開始する場合は、ST251から開始する。 First, when starting the disc menu operation from ST112 in FIG. 14 or ST112 ′ in FIG. 15 without going through the spiral menu described above, first, the live view image is locked and the brightness is reduced as in ST201 described above. The untouched icon is erased (ST250), and the touched icon is moved to the center of the screen (ST251). When starting the disc menu operation from ST206 of the spiral menu operation, it starts from ST251.
続いて、初期メニューディスクのアイコンのセットを、スパイラルメニュー動作のST204と同様の動作でリング状に展開させて配置する(ST252)。以降はディスクメニューに対するユーザの入力に応じた処理となり、まず所定のディスクメニュー終了指示として定義された操作がなされたか否かを判定し(ST253)、終了指示の操作がなされたと判定した場合には表示中のメニューをクリアし(ST254)、集合アイコンが選択された状態であるか否かを判定する(ST265)。集合アイコンが選択されていると判定した場合にはアイコンおよび集合アイコンを再描画してスパイラルメニュー動作のST203に戻り、集合アイコンが選択されていると判定しない場合には図14のST110または図15のST110’に戻る。 Subsequently, the icon set of the initial menu disk is expanded and arranged in a ring shape by the same operation as ST204 of the spiral menu operation (ST252). Thereafter, the process is in accordance with the user input to the disc menu. First, it is determined whether or not an operation defined as a predetermined disc menu end instruction has been performed (ST253), and when it is determined that an end instruction operation has been performed. The displayed menu is cleared (ST254), and it is determined whether the collective icon is selected (ST265). If it is determined that the collective icon is selected, the icon and the collective icon are redrawn and the process returns to ST203 of the spiral menu operation. If it is not determined that the collective icon is selected, ST110 of FIG. 14 or FIG. Return to ST110 '.
続いて、現在表示しているディスクメニューのアイコンに対してタッチ操作がなされたか否かを判定し(ST255)、タッチ操作がなされたと判定した場合には当該アイコンに対応した処理を実行する(ST256)。一方、タッチ操作がなされたと判定しない場合には、続いて所定のドラッグ操作がなされたか否かを判定する(ST257)。ここで、所定のドラッグ操作とは、ディスクメニューに対する入力操作であって、ディスクメニューをなすリング状に配置されたアイコンに沿って回転させるようにドラッグする動作のことである。このようなドラッグ操作がなされたと判定した場合、続いてドラッグ操作の方向が左方向であるか否かを判定する(ST258)。ドラッグ操作の方向が左方向であると判定した場合、続いてドラッグ操作が低速であったか否かを判定する(ST259)。ドラッグ操作が低速であると判定した場合にはディスクメニューとして表示しているアイコンのセットを左へ1個ずつリング状の周方向に回転移動させ(ST260)、ドラッグ操作が低速であると判定しない場合には画面から表示中のアイコンを消去して次のメニューディスクのアイコンセットを表示させ(ST261)、ST253以降の動作を繰り返す。また、ST258でドラッグ操作が左方向と判定しない場合には、続いてドラッグ操作が低速であったか否かを判定する(ST262)。ドラッグ操作が低速であると判定した場合にはディスクメニューとして表示しているアイコンのセットを右へ1個ずつリング状の周方向に回転移動させる(ST263)。ドラッグ操作が低速であると判定しない場合には画面から表示中のアイコンを消去して前のメニューディスクのアイコンセットを表示させ(ST264)、ST253以降の動作を繰り返す。 Subsequently, it is determined whether or not a touch operation has been performed on the currently displayed disc menu icon (ST255). If it is determined that a touch operation has been performed, processing corresponding to the icon is executed (ST256). ). On the other hand, if it is not determined that a touch operation has been performed, it is subsequently determined whether a predetermined drag operation has been performed (ST257). Here, the predetermined drag operation is an input operation to the disc menu, and is an operation of dragging so as to rotate along icons arranged in a ring shape forming the disc menu. If it is determined that such a drag operation has been performed, it is subsequently determined whether or not the direction of the drag operation is the left direction (ST258). If it is determined that the direction of the drag operation is the left direction, it is subsequently determined whether or not the drag operation is at a low speed (ST259). When it is determined that the drag operation is slow, the set of icons displayed as the disc menu is rotated to the left one by one in the ring-shaped circumferential direction (ST260), and the drag operation is not determined to be slow. In this case, the icon being displayed is deleted from the screen and the icon set of the next menu disk is displayed (ST261), and the operations after ST253 are repeated. If the drag operation is not determined to be in the left direction in ST258, it is subsequently determined whether or not the drag operation has been performed at a low speed (ST262). If it is determined that the drag operation is slow, the set of icons displayed as the disc menu is rotated to the right one by one in the ring-shaped circumferential direction (ST263). If it is not determined that the drag operation is slow, the currently displayed icon is deleted from the screen to display the icon set of the previous menu disc (ST264), and the operations after ST253 are repeated.
図18は、図17に示したディスクメニュー動作において、リング状に並べられたアイコンの中央に表示されるディスクバリエーションのインジケータである。図18に示すように、このディスクメニューは、一例として初期メニュー、コミュニケーション、ナビゲーション、関連ブログに関する操作のメニューアイコンのセットに大別されている。ディスクメニュー動作では、表示中のディスクメニューの種別に応じてインジケータの強調箇所(図中斜線部分)を変更する。このため、視認性に優れたインターフェイスが実現される。 FIG. 18 is an indicator of a disc variation displayed in the center of the icons arranged in a ring shape in the disc menu operation shown in FIG. As shown in FIG. 18, the disc menu is roughly divided into a set of menu icons for operations related to an initial menu, communication, navigation, and related blogs as an example. In the disc menu operation, the highlighted portion (shaded portion in the figure) of the indicator is changed according to the type of the disc menu being displayed. For this reason, an interface with excellent visibility is realized.
以上のような処理により、本実施形態の端末装置100は、実空間の映像に情報を表示する拡張現実感技術に対応し、表示する情報の量が多くなっても重畳する表示位置の近接した拡張現実感情報を集合グラフィックスオブジェクトとして表示するので、画面の煩雑化を抑制することが可能である。これに加えてスパイラルメニューとディスクメニューによって、タッチパネルを利用した物理的な操作により直感的で視認性に優れた分かりやすいインターフェイスを実現しているので、ユーザエクスペリエンスに優れた拡張現実感を提供することができる。さらに、情報を重畳する対象物と端末装置100との距離に応じて、視覚的または情報量的な遠近感を設けて情報を重畳することができるので、平板に重畳された情報により拡張現実感が損なわれることも防止できる。 Through the processing as described above, the terminal device 100 according to the present embodiment corresponds to the augmented reality technology that displays information in a real-space image, and the display position that is superimposed is close even if the amount of information to be displayed increases. Since the augmented reality information is displayed as a collective graphics object, it is possible to suppress complication of the screen. In addition, the spiral menu and disc menu provide an intuitive interface that is intuitive and excellent in visibility through physical operations using the touch panel, providing an augmented reality with an excellent user experience. Can do. Furthermore, since information can be superimposed with a visual or informational perspective according to the distance between the object on which information is superimposed and the terminal device 100, augmented reality is realized by the information superimposed on the flat plate. Can be prevented from being damaged.
なお、本発明の端末装置、情報提示システム及び端末画面表示方法は、上記実施形態に限られるものではなく、種々変形が可能である。たとえば上記実施形態ではグラフィックスオブジェクトを丸形のアイコンとした場合を示したが、これに限られるものではなく、角形のアイコンであってもよいし情報バルーンのようなものであっても構わない。 Note that the terminal device, the information presentation system, and the terminal screen display method of the present invention are not limited to the above-described embodiment, and various modifications can be made. For example, although the case where the graphics object is a round icon has been described in the above embodiment, the present invention is not limited to this, and the icon may be a square icon or an information balloon. .
また、上記実施形態ではリング状にグラフィックスオブジェクトを展開する例を説明したが、正確なリング状である必要な無く、環状であればよい。 In the above-described embodiment, an example in which the graphics object is developed in a ring shape has been described.
また、上記実施形態では、端末装置100の制御部108が拡張現実感情報の表示位置等を決定する処理を行う例を説明したが、拡張現実感サーバ300のサーバ制御部310が拡張現実感情報の表示位置等を決定する処理を行い、結果のみを端末装置100へ返すように構成してもよい。 In the above-described embodiment, the example in which the control unit 108 of the terminal device 100 performs the process of determining the display position of the augmented reality information and the like has been described. However, the server controller 310 of the augmented reality server 300 performs the augmented reality information. It is also possible to perform a process for determining the display position and the like and return only the result to the terminal device 100.
また、上記実施形態では、リング状に表示させたグラフィックスオブジェクトをドラッグするユーザ操作を検出し、左方向であるか否かを判定する場合(ST208)を例に説明したが、図17のST259、ST262に示すように、ドラッグの速度に応じて表示アイコンの全てを入れ替える処理を実行してもよい。 In the above-described embodiment, the case where the user operation for dragging the graphic object displayed in the ring shape is detected and it is determined whether or not it is the left direction (ST208) has been described as an example, but ST259 in FIG. As shown in ST262, a process of replacing all display icons according to the drag speed may be executed.
また、上記実施形態では、サーバの機能を呼び出す際、機能をCGIで構築しその呼び出しをAPIとしているが、その手法は他のプロトコルや、分散オブジェクトなど、いかなるアプリケーション間の通信手段で構成してもよい。 In the above embodiment, when calling a server function, the function is constructed by CGI and the call is an API, but the method is configured by any communication means between applications such as other protocols and distributed objects. Also good.
また、上記実施形態では、表示部102がタッチパネル機能を備える例を説明したが、これに限られるものではなく、ユーザの操作を検出する機能を端末装置100が有していればよい。例えば、タッチパネル機能に替えて、ポインティングデバイス、十字キー、テンキー等のハードウェアボタンによる画面操作を検出する構成としてもよい。 In the above-described embodiment, an example in which the display unit 102 includes a touch panel function has been described. However, the present invention is not limited to this, and the terminal device 100 may have a function of detecting a user operation. For example, instead of the touch panel function, a screen operation by a hardware button such as a pointing device, a cross key, and a numeric keypad may be detected.
1…拡張現実感システム(情報提示システム)、100…端末装置、101…位置情報取得部、102…表示部、103…キー入力部、104…方位センサ、105…通信部、106…カメラ部、107…記憶部、108…制御部。 DESCRIPTION OF SYMBOLS 1 ... Augmented reality system (information presentation system), 100 ... Terminal device, 101 ... Position information acquisition part, 102 ... Display part, 103 ... Key input part, 104 ... Direction sensor, 105 ... Communication part, 106 ... Camera part, 107: Storage unit, 108: Control unit.
Claims (13)
前記制御部は、前記拡張現実感情報と関連付けされている前記位置情報に基づいて前記表示位置を決定し、前記位置情報が相互に近接している複数の前記拡張現実感情報を1つの集合グラフィックスオブジェクトとして前記表示部に表示させる処理を行い、現在地点からの距離が遠い地点に関連付けされた前記拡張現実感情報ほど複数の前記拡張現実感情報の間で前記位置情報が相互に近接していると判定する範囲を拡大すること、
を特徴とする端末装置。 A camera unit that acquires a real space image, a display unit that displays a screen, a storage unit that stores augmented reality information associated with position information, and controls the operation of each unit and realizes an information processing function A control unit, and the control unit displays the video of the real space acquired by the camera unit on the display unit, determines a display position of the graphics object corresponding to the augmented reality information, A terminal device that performs processing of superimposing the graphics object on the video in real space at the display position and rendering the display unit;
The control unit determines the display position based on the position information associated with the augmented reality information, and displays the plurality of augmented reality information in which the position information is close to each other as one collective graphic. The position information is closer to each other among the plurality of augmented reality information as the augmented reality information associated with a point far from the current point is displayed on the display unit as a scan object. Expanding the range of judgment
A terminal device characterized by the above.
前記集合グラフィックスオブジェクトは、所定の条件で並べられた複数の前記グラフィックスオブジェクトが重なり合った形状であることを特徴とする請求項1に記載の端末装置。 The control unit performs processing for causing the display unit to draw the graphics object corresponding to the type of the augmented reality information,
The terminal device according to claim 1, wherein the collective graphics object has a shape in which a plurality of the graphics objects arranged under a predetermined condition overlap each other.
環状に並んで表示された前記グラフィックスオブジェクトのうち1つの前記グラフィックスオブジェクトを選択するユーザの操作を検出した場合には、当該グラフィックスオブジェクトにかかる処理を行うことを特徴とする請求項1〜8の何れか1項に記載の端末装置。 When the control unit detects an operation of a user who selects the graphics object, the control unit displays the graphics object that displays an executable process for the augmented reality information related to the graphics object in a ring shape. As shown on the display section,
The processing related to a graphics object is performed when a user operation for selecting one of the graphics objects displayed in a circle is detected. The terminal device according to any one of 8.
前記端末装置と通信可能に構成され、位置情報に関連付けられた拡張現実感情報を有するサーバと、
を備える情報提示システムであって、
前記サーバは、実空間の映像を前記表示部に表示させ、前記端末装置の位置情報に基づいて、前記拡張現実感情報と対応するグラフィックスオブジェクトの表示位置を決定し、実空間の前記映像に前記グラフィックスオブジェクトを前記表示位置で重畳して前記表示部に描画させるとともに、前記表示位置が近接する複数の前記拡張現実感情報を、1つの集合グラフィックスオブジェクトとして前記表示部に表示させる処理を行うサーバ制御部を備え、
前記サーバ制御部は、前記拡張現実感情報と関連付けされている前記位置情報に基づいて前記表示位置を決定し、前記位置情報が相互に近接している複数の前記拡張現実感情報を1つの集合グラフィックスオブジェクトとして前記表示部に表示させる処理を行い、前記端末装置の現在地点からの距離が遠い地点に関連付けされた前記拡張現実感情報ほど複数の前記拡張現実感情報の間で前記位置情報が相互に近接していると判定する範囲を拡大すること、
を特徴とする情報提示システム。 A terminal device for displaying a screen by a display unit;
A server configured to be communicable with the terminal device and having augmented reality information associated with position information;
An information presentation system comprising:
The server displays an image of real space on the display unit, determines a display position of a graphics object corresponding to the augmented reality information based on position information of the terminal device, and displays the image in the real space. A process of superimposing the graphics object at the display position and drawing the display part on the display unit, and displaying the plurality of augmented reality information close to the display position on the display unit as one collective graphics object. A server control unit to perform,
The server control unit determines the display position based on the position information associated with the augmented reality information, and collects a plurality of the augmented reality information in which the position information is close to each other. It performs processing for displaying on the display unit as a graphics object, the position information about the Augmented reality information distance is associated with a point far from the current point between the plurality of augmented reality information of the terminal device Expanding the range that is determined to be close to each other ;
An information presentation system characterized by
前記拡張現実感情報と対応するグラフィックスオブジェクトの表示位置を決定する表示位置決定ステップと、
複数の前記グラフィックスオブジェクトの前記表示位置が相互に近接するか否かを判定する近接判定ステップと、
前記表示位置が相互に近接する場合には、複数の前記拡張現実感情報を1つの集合グラフィックスオブジェクトとして前記表示部に表示させる表示ステップと、
を備え、
前記近接判定ステップでは、前記拡張現実感情報と関連付けされている前記位置情報に基づいて前記表示位置を決定し、前記端末装置の現在地点からの距離が遠い地点に関連付けされた前記拡張現実感情報ほど複数の前記拡張現実感情報の間で前記位置情報が相互に近接していると判定する範囲を拡大すること、
を特徴とする端末画面表示方法。 A terminal screen display method in which a graphics object corresponding to augmented reality information associated with position information is superimposed on a real space image acquired by a camera unit and rendered on a display unit of the terminal device,
A display position determining step for determining a display position of a graphics object corresponding to the augmented reality information;
A proximity determination step of determining whether or not the display positions of the plurality of graphics objects are close to each other ;
When the display positions are close to each other, a display step of displaying a plurality of augmented reality information on the display unit as one collective graphics object;
With
In the proximity determination step, the display position is determined based on the position information associated with the augmented reality information, and the augmented reality information associated with a point far from the current point of the terminal device Enlarging the range for determining that the position information is close to each other among the plurality of augmented reality information ,
A terminal screen display method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087204A JP5315111B2 (en) | 2009-03-31 | 2009-03-31 | Terminal device, information presentation system, and terminal screen display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087204A JP5315111B2 (en) | 2009-03-31 | 2009-03-31 | Terminal device, information presentation system, and terminal screen display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010238098A JP2010238098A (en) | 2010-10-21 |
JP5315111B2 true JP5315111B2 (en) | 2013-10-16 |
Family
ID=43092341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009087204A Active JP5315111B2 (en) | 2009-03-31 | 2009-03-31 | Terminal device, information presentation system, and terminal screen display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5315111B2 (en) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9183580B2 (en) * | 2010-11-04 | 2015-11-10 | Digimarc Corporation | Methods and systems for resource management on portable devices |
US20110161875A1 (en) * | 2009-12-29 | 2011-06-30 | Nokia Corporation | Method and apparatus for decluttering a mapping display |
JP4922436B2 (en) * | 2010-06-07 | 2012-04-25 | 株式会社エヌ・ティ・ティ・ドコモ | Object display device and object display method |
US8588739B2 (en) | 2010-08-27 | 2013-11-19 | Kyocera Corporation | Mobile terminal, lock state control program for mobile terminal, and a method for controlling lock state of mobile terminal |
US9710554B2 (en) * | 2010-09-23 | 2017-07-18 | Nokia Technologies Oy | Methods, apparatuses and computer program products for grouping content in augmented reality |
US9317133B2 (en) | 2010-10-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating augmented reality content |
US8952983B2 (en) * | 2010-11-04 | 2015-02-10 | Nokia Corporation | Method and apparatus for annotating point of interest information |
JP5472056B2 (en) * | 2010-11-19 | 2014-04-16 | コニカミノルタ株式会社 | Display system, display processing apparatus, display method, and display program |
JP5170223B2 (en) | 2010-12-07 | 2013-03-27 | カシオ計算機株式会社 | Information display system, information display device, information providing device, and program |
JP5195885B2 (en) | 2010-12-07 | 2013-05-15 | カシオ計算機株式会社 | Information display system, information display device, and program |
KR101762611B1 (en) * | 2010-12-10 | 2017-07-28 | 삼성전자 주식회사 | Method and apparatus for displaying screen of mobile terminal comprising touch screen |
WO2012098872A1 (en) * | 2011-01-18 | 2012-07-26 | 京セラ株式会社 | Mobile terminal and method for controlling mobile terminal |
JP5565331B2 (en) * | 2011-01-28 | 2014-08-06 | コニカミノルタ株式会社 | Display system, display processing apparatus, display method, and display program |
JP5755915B2 (en) * | 2011-03-18 | 2015-07-29 | 新日鉄住金ソリューションズ株式会社 | Information processing apparatus, augmented reality providing method, and program |
JP5684618B2 (en) * | 2011-03-22 | 2015-03-18 | 京セラ株式会社 | Imaging apparatus and virtual information display program |
JP5685464B2 (en) * | 2011-03-25 | 2015-03-18 | 京セラ株式会社 | Imaging apparatus, control method, and virtual information display program |
JP5765019B2 (en) | 2011-03-31 | 2015-08-19 | ソニー株式会社 | Display control apparatus, display control method, and program |
JP5724543B2 (en) | 2011-03-31 | 2015-05-27 | ソニー株式会社 | Terminal device, object control method, and program |
US9418292B2 (en) | 2011-10-04 | 2016-08-16 | Here Global B.V. | Methods, apparatuses, and computer program products for restricting overlay of an augmentation |
JP5821526B2 (en) | 2011-10-27 | 2015-11-24 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
KR101873525B1 (en) * | 2011-12-08 | 2018-07-03 | 삼성전자 주식회사 | Device and method for displaying a contents in wireless terminal |
JP5948842B2 (en) | 2011-12-14 | 2016-07-06 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2013129352A (en) * | 2011-12-22 | 2013-07-04 | Panasonic Corp | In-vehicle display system |
EP2814000B1 (en) | 2012-02-10 | 2019-07-03 | Sony Corporation | Image processing apparatus, image processing method, and program |
FR2987924B1 (en) * | 2012-03-08 | 2014-02-21 | Schneider Electric Ind Sas | MAN-MACHINE INTERFACE IN INCREASED REALITY |
JP6056178B2 (en) | 2012-04-11 | 2017-01-11 | ソニー株式会社 | Information processing apparatus, display control method, and program |
US9518836B2 (en) * | 2012-06-01 | 2016-12-13 | Here Global B.V. | Displaying elements |
JP5702845B2 (en) * | 2012-06-15 | 2015-04-15 | シャープ株式会社 | Information distribution system |
JP5705793B2 (en) * | 2012-06-21 | 2015-04-22 | ヤフー株式会社 | Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program |
JP2014071537A (en) * | 2012-09-27 | 2014-04-21 | Sharp Corp | Information processor and method for controlling the same |
US9632593B2 (en) | 2012-11-09 | 2017-04-25 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable recording medium |
EP3734426A1 (en) | 2012-11-09 | 2020-11-04 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable recording medium |
KR20150086367A (en) * | 2012-11-19 | 2015-07-27 | 위키패드 인코포레이티드 | Virtual multiple sided virtual rotatable user interface icon queue |
JP2014203153A (en) * | 2013-04-02 | 2014-10-27 | パイオニア株式会社 | Display control device |
US8812995B1 (en) | 2013-04-10 | 2014-08-19 | Google Inc. | System and method for disambiguating item selection |
JP6263917B2 (en) * | 2013-09-17 | 2018-01-24 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP6299234B2 (en) * | 2014-01-23 | 2018-03-28 | 富士通株式会社 | Display control method, information processing apparatus, and display control program |
JP2016018367A (en) * | 2014-07-08 | 2016-02-01 | 沖電気工業株式会社 | Information processing apparatus, information processing method, and program |
JP2014241602A (en) * | 2014-07-24 | 2014-12-25 | 京セラ株式会社 | Portable terminal, lock state control program and lock state control method |
JP5965515B2 (en) * | 2015-05-21 | 2016-08-03 | 新日鉄住金ソリューションズ株式会社 | Information processing apparatus, augmented reality providing method, and program |
JP6344311B2 (en) * | 2015-05-26 | 2018-06-20 | ソニー株式会社 | Display device, information processing system, and control method |
JP6468656B2 (en) * | 2015-09-30 | 2019-02-13 | Kddi株式会社 | AR information display device |
JP6172233B2 (en) * | 2015-10-02 | 2017-08-02 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
US11042743B2 (en) | 2015-12-14 | 2021-06-22 | Sony Corporation | Information processing device, information processing method, and program for preventing deterioration of visual recognition in a scene |
WO2017169909A1 (en) * | 2016-03-29 | 2017-10-05 | 日本電気株式会社 | Work assistance device, wearable terminal, work assistance method, and recording medium |
JP6904973B2 (en) | 2016-03-31 | 2021-07-21 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Orientation and interaction with 3D virtual objects using multiple DOF controllers |
WO2017187708A1 (en) * | 2016-04-26 | 2017-11-02 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019114078A (en) * | 2017-12-25 | 2019-07-11 | ソニー株式会社 | Information processing device, information processing method and program |
TWI691891B (en) * | 2018-09-07 | 2020-04-21 | 財團法人工業技術研究院 | Method and apparatus for displaying information of multiple objects |
JP7203692B2 (en) | 2019-06-12 | 2023-01-13 | 本田技研工業株式会社 | Information processing device, information processing method, and program |
JP7266566B2 (en) * | 2020-10-29 | 2023-04-28 | 株式会社三菱Ufj銀行 | program |
CN114286006A (en) * | 2021-12-29 | 2022-04-05 | 努比亚技术有限公司 | Augmented reality-based equipment control method, terminal and storage medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03246614A (en) * | 1990-02-23 | 1991-11-05 | Seiko Epson Corp | Menu selection method |
JPH07104766B2 (en) * | 1991-10-28 | 1995-11-13 | インターナショナル・ビジネス・マシーンズ・コーポレイション | Method and apparatus for displaying multiple objects from menu of data processing system |
JPH08115192A (en) * | 1994-10-17 | 1996-05-07 | Hitachi Ltd | Data edit processing method and system thereof |
JP2001125702A (en) * | 1999-10-29 | 2001-05-11 | Nippon Telegraph & Telephone West Corp | Display control method |
JP2002157077A (en) * | 2000-09-11 | 2002-05-31 | Matsushita Electric Ind Co Ltd | Coordinate input device and portable information device provided with the coordinate input device |
JP3406965B2 (en) * | 2000-11-24 | 2003-05-19 | キヤノン株式会社 | Mixed reality presentation device and control method thereof |
US7076741B2 (en) * | 2001-03-16 | 2006-07-11 | Alpine Electronics, Inc. | Point-of-interest icon and point-of-interest mark display method |
JP3761165B2 (en) * | 2002-05-13 | 2006-03-29 | 株式会社モバイルコンピューティングテクノロジーズ | Display control device, portable information terminal device, program, and display control method |
JP4010183B2 (en) * | 2002-05-17 | 2007-11-21 | ソニー株式会社 | Map display system, map display method, and program |
JP2004138581A (en) * | 2002-10-21 | 2004-05-13 | Matsushita Electric Ind Co Ltd | Map display device and map display method |
JP2005148782A (en) * | 2003-11-11 | 2005-06-09 | Fuji Xerox Co Ltd | Image display device, image display program and image display method |
JP2006091390A (en) * | 2004-09-24 | 2006-04-06 | Mitsubishi Electric Corp | Information display system, information display method, and program for causing computer to execute information display method and information display terminal device |
JP4851223B2 (en) * | 2006-04-05 | 2012-01-11 | 株式会社Access | Information display device |
-
2009
- 2009-03-31 JP JP2009087204A patent/JP5315111B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010238098A (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5315111B2 (en) | Terminal device, information presentation system, and terminal screen display method | |
US11150775B2 (en) | Electronic device and method for controlling screen display using temperature and humidity | |
JP6421670B2 (en) | Display control method, display control program, and information processing apparatus | |
US10564838B2 (en) | Method and apparatus for providing POI information in portable terminal | |
JP5320133B2 (en) | Information presentation system, information presentation server, communication terminal, and information presentation method | |
CN102239470B (en) | Display input device and guider | |
CN104350736B (en) | The augmented reality of neighbouring position information is arranged | |
US8478347B2 (en) | Mobile terminal and camera image control method thereof | |
US9280273B2 (en) | Method, apparatus, and computer program for displaying content items in display regions | |
JP5205557B2 (en) | Method for providing different video information according to angle of terminal, terminal, and computer-readable recording medium | |
JP6301613B2 (en) | Mobile communication terminal, information display program, and information display method | |
US20110319130A1 (en) | Mobile terminal and method of operation | |
JP2012514786A (en) | User interface for mobile devices | |
US20080273109A1 (en) | Portable device with interactive display and geographical location capability | |
CN108196755B (en) | Background picture display method and device | |
EP2741205A2 (en) | Display system, display controller, program and method | |
JP2009187426A (en) | Recording and reproducing device | |
JP2011060254A (en) | Augmented reality system and device, and virtual object display method | |
JP6358072B2 (en) | Image display terminal, image display system, and image display program | |
JP2015141234A (en) | Information acquisition program, information acquisition method, and information processing apparatus | |
KR101529398B1 (en) | Digital map device and Method for operating thereof | |
WO2019102885A1 (en) | Electronic device with changeable image display section | |
US20110057955A1 (en) | Apparatus and method for changing screen status in portable terminal | |
JP6154654B2 (en) | Program and information processing apparatus | |
US20250110678A1 (en) | System and method of controlling display, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120321 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130708 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5315111 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |