JP2019160171A - Display device and display method - Google Patents
Display device and display method Download PDFInfo
- Publication number
- JP2019160171A JP2019160171A JP2018049491A JP2018049491A JP2019160171A JP 2019160171 A JP2019160171 A JP 2019160171A JP 2018049491 A JP2018049491 A JP 2018049491A JP 2018049491 A JP2018049491 A JP 2018049491A JP 2019160171 A JP2019160171 A JP 2019160171A
- Authority
- JP
- Japan
- Prior art keywords
- display
- component
- information
- image
- maintenance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】AR技術を用いて保守点検をする担当者に対して、視覚的に理解性、作業性の高い保守ビューを表示させることができる表示装置および表示方法を提供することを目的とする。【解決手段】実空間の画像を取得する撮像部と、画像を表示する表示部と、保守の対象装置の部品に関する部品情報、部品情報に関連付けられた拡張現実情報、および保守の内容に応じて部品ごとの拡張現実情報の表示の態様を記憶する記憶部と、撮像部および表示部の動作を制御するとともに、画像に拡張現実情報を重畳させて表示させる制御部と、を備え、制御部は、撮像部により取得された対象装置の画像を表示部に表示させ、記憶部から取得した部品情報に基づき画像内の部品を判別し、記憶部から取得した拡張現実情報のうち、保守の対象となる部品および保守の対象外の部品の表示の態様を異ならせる。【選択図】図2PROBLEM TO BE SOLVED: To provide a display device and a display method capable of displaying a maintenance view having high visual comprehension and workability to a person in charge of maintenance and inspection using AR technology. SOLUTION: An image pickup unit for acquiring an image in a real space, a display unit for displaying an image, component information related to a component of a device to be maintained, augmented reality information associated with the component information, and maintenance contents. The control unit includes a storage unit that stores the display mode of the augmented reality information for each component, and a control unit that controls the operation of the imaging unit and the display unit and displays the augmented reality information superimposed on the image. , The image of the target device acquired by the imaging unit is displayed on the display unit, the parts in the image are determined based on the component information acquired from the storage unit, and the augmented reality information acquired from the storage unit is to be maintained. The display mode of the parts and the parts that are not subject to maintenance is different. [Selection diagram] Fig. 2
Description
本発明は、表示装置および表示方法に関する。 The present invention relates to a display device and a display method.
現実の環境から与えられる情報に、コンピュータが作り出した情報を重畳表示する拡張現実(AR:Augmented Reality)技術が知られている。 Augmented reality (AR) technology is known that superimposes and displays information created by a computer on information given from an actual environment.
このような技術を用いた装置として、実空間の映像に表示する情報の量が多くなっても画面の煩雑化を抑制することができる端末装置が知られている。かかる端末装置においては、距離の離れたオブジェクトについて画面上への表示を抑制させる(特許文献1)。 As a device using such a technique, a terminal device that can suppress the complication of the screen even when the amount of information to be displayed in a real space image is increased is known. In such a terminal device, the display on the screen of an object at a distance is suppressed (Patent Document 1).
しかしながら、例えばプリンタのような画像形成装置の保守点検等にAR技術を適用した場合、装置内にはアノテーションを表示させるべき部品等が互いに密集して存在しており、特許文献1に記載された技術では、画面上への表示を抑制することは困難である。 However, when AR technology is applied to, for example, maintenance and inspection of an image forming apparatus such as a printer, components and the like on which annotations are to be displayed exist closely together in the apparatus. With technology, it is difficult to suppress display on the screen.
本発明は、上述の課題に鑑みてなされたものであって、AR技術を用いて保守点検をする担当者に対して、視覚的に理解性、作業性の高い保守ビューを表示させることができる表示装置および表示方法を提供することを目的とする。 The present invention has been made in view of the above-described problem, and can display a maintenance view with high understanding and workability for a person in charge of maintenance inspection using AR technology. An object is to provide a display device and a display method.
上述した課題を解決し、目的を達成するために、本発明は、実空間の画像を取得する撮像部と、前記画像を表示する表示部と、保守の対象装置の部品に関する部品情報、前記部品情報に関連付けられた拡張現実情報、および前記保守の内容に応じて前記部品ごとの前記拡張現実情報の表示の態様を記憶する記憶部と、前記撮像部および前記表示部の動作を制御するとともに、前記画像に前記拡張現実情報を重畳させて表示させる制御部と、を備え、前記制御部は、前記撮像部により取得された前記対象装置の前記画像を前記表示部に表示させ、前記記憶部から取得した前記部品情報に基づき前記画像内の前記部品を判別し、前記記憶部から取得した前記拡張現実情報のうち、前記保守の対象となる前記部品および前記保守の対象外の前記部品の表示の態様を異ならせる。 In order to solve the above-described problems and achieve the object, the present invention provides an imaging unit that acquires an image of real space, a display unit that displays the image, component information regarding components of a maintenance target device, and the component Controlling the operation of the imaging unit and the display unit, the storage unit storing the augmented reality information associated with the information, and the display mode of the augmented reality information for each part according to the content of the maintenance, A control unit that superimposes and displays the augmented reality information on the image, and the control unit causes the display unit to display the image of the target device acquired by the imaging unit, and from the storage unit. The component in the image is determined based on the acquired component information, and the component that is the maintenance target and the component that is not the maintenance target among the augmented reality information acquired from the storage unit Varying the mode of the display.
本発明によれば、AR技術を用いて保守点検をする担当者に対して、視覚的に理解性、作業性の高い保守ビューを表示させることができる。 According to the present invention, it is possible to display a maintenance view that is visually understandable and workable for a person in charge of performing maintenance and inspection using the AR technology.
以下に、図1〜図19を参照しながら、本発明にかかる表示装置および表示方法の実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Hereinafter, embodiments of a display device and a display method according to the present invention will be described in detail with reference to FIGS. Further, the present invention is not limited by the following embodiments, and components in the following embodiments can be easily conceived by those skilled in the art, are substantially the same, and have a so-called equivalent range. Is included. Furthermore, various omissions, substitutions, changes, and combinations of the components can be made without departing from the scope of the following embodiments.
[実施形態1]
まずは、図1〜図12を用い、実施形態1について説明する。
[Embodiment 1]
First, Embodiment 1 will be described with reference to FIGS.
(表示システムの全体構成)
図1は、実施形態1にかかる表示システム1の構成の一例を示す図である。図1に示すように、表示システム1は、画像形成装置としての複合機(MFP:Multifunction Peripheral)200と、表示装置としての携帯型端末100とを、備える。複合機200および携帯型端末100は、例えば、インターネット等の通信ネットワーク90を介して接続されている。通信ネットワーク90の回線は、有線接続でも、無線接続でも、両者の混在した接続方式でもよい。ここでは、複合機200および携帯型端末100は無線通信機能を有し、無線接続にて情報のやり取りをするものとする。
(Overall configuration of display system)
FIG. 1 is a diagram illustrating an example of a configuration of a display system 1 according to the first embodiment. As shown in FIG. 1, the display system 1 includes a multifunction peripheral (MFP) 200 as an image forming apparatus and a portable terminal 100 as a display device. The multifunction device 200 and the portable terminal 100 are connected via a communication network 90 such as the Internet, for example. The line of the communication network 90 may be a wired connection, a wireless connection, or a connection method in which both are mixed. Here, it is assumed that the multifunction device 200 and the portable terminal 100 have a wireless communication function and exchange information by wireless connection.
携帯型端末100は、AR機能を有する、タブレットPC(Personal Computer)、スマートフォン、モバイルPC、ウェアラブル端末等である。携帯型端末100は、通信ネットワーク90を介し、複合機200と情報のやり取りが可能に構成される。 The portable terminal 100 is a tablet PC (Personal Computer), a smartphone, a mobile PC, a wearable terminal, or the like having an AR function. The portable terminal 100 is configured to be able to exchange information with the multifunction device 200 via the communication network 90.
複合機200は、携帯型端末100の運営業者である機器メーカや機器ベンダなどにより、顧客に販売又はリースされた機器であり、当該顧客の顧客環境に設置されている。複合機200は、印刷機能、複写機能、スキャナ機能、及びファクシミリ機能のうち少なくとも2つの機能を有する。図1の例では、複合機200が1台のみ図示されているが、複数台存在していてもよい。 The multifunction device 200 is a device sold or leased to a customer by a device manufacturer or device vendor who is an operator of the portable terminal 100, and is installed in the customer environment of the customer. The multi-function device 200 has at least two functions among a printing function, a copying function, a scanner function, and a facsimile function. In the example of FIG. 1, only one multifunction device 200 is illustrated, but a plurality of multifunction devices may exist.
(複合機のハードウェア構成)
図2は、実施形態1にかかる携帯型端末100と接続可能な複合機200のハードウェア構成を説明する図である。なお、図2は、携帯型端末100との無線接続に関連する構成を主として示し、複合機200の他の機能に関する構成は簡略化または省略されている。
(Hardware configuration of MFP)
FIG. 2 is a diagram for explaining a hardware configuration of the multifunction device 200 that can be connected to the portable terminal 100 according to the first embodiment. 2 mainly shows a configuration related to wireless connection with the portable terminal 100, and configurations related to other functions of the multifunction device 200 are simplified or omitted.
図2に示すように、複合機200は、コントローラ210、及びコントローラ210に接続されるプリンタエンジン227並びにパネル装置228を備える。コントローラ210は、CPU(Central Processing Unit)211、ROM(Read−Only Memory)212、RAM(Random Access Memory)213、NVRAM(Non−Volatile Random Access Memory)214、通信インタフェース(I/F)215、ネットワークI/F216、エンジンI/F217、パネルI/F218、及びHDD(Hard Disk Drive)219を備える。 As shown in FIG. 2, the multifunction device 200 includes a controller 210, a printer engine 227 connected to the controller 210, and a panel device 228. The controller 210 includes a CPU (Central Processing Unit) 211, a ROM (Read-Only Memory) 212, a RAM (Random Access Memory) 213, an NVRAM (Non-Volatile Random Access Memory) 214, a communication interface (I / F) network 15 (I / F). An I / F 216, an engine I / F 217, a panel I / F 218, and an HDD (Hard Disk Drive) 219 are provided.
コントローラ210は、その動作時点に設定されている動作モードおよびネットワークI/F216を介して接続されたホストPC(Personal Computer)236からの印字制御データに従って印刷処理を実行する。また、コントローラ210は、通信I/F215を介して接続された携帯型端末100から入力される各種操作を実行する。 The controller 210 executes print processing in accordance with the operation mode set at the time of the operation and print control data from a host PC (Personal Computer) 236 connected via the network I / F 216. Further, the controller 210 executes various operations input from the portable terminal 100 connected via the communication I / F 215.
CPU211は、ROM212に格納された制御プログラムに従ってホストPC236からの印刷データを処理する。 The CPU 211 processes print data from the host PC 236 in accordance with a control program stored in the ROM 212.
ROM212は、CPU211が、コントローラ210内で実行するデータの管理や周辺モジュールを統括的に制御する制御プログラムを格納する。 The ROM 212 stores a control program in which the CPU 211 performs overall management of data executed in the controller 210 and peripheral modules.
RAM213は、CPU211が制御プログラムにしたがって作成するページメモリや制御プログラムが動作するために必要なワークメモリ等として使用される。またRAM213は、ホストPC236からの印刷データをページ単位に管理して一時記憶するバッファとして使用される。また、RAM213は印字データから変換された画像データを記憶するビットマップメモリとしても使用される。 The RAM 213 is used as a page memory created by the CPU 211 according to the control program, a work memory necessary for the control program to operate, and the like. The RAM 213 is used as a buffer for managing and temporarily storing print data from the host PC 236 in units of pages. The RAM 213 is also used as a bit map memory for storing image data converted from print data.
NVRAM214は、電源を切っても保持したいデータ、例えば、印刷制御に用いられる、パネル装置228を介して設定された所定の設定値や所定の印刷条件情報等の情報が格納される不揮発性RAMである。 The NVRAM 214 is a non-volatile RAM in which data that is to be retained even after the power is turned off, for example, information such as predetermined setting values and predetermined printing condition information set via the panel device 228 used for printing control is stored. is there.
HDD219は、磁気ディスク等のハードディスクであり、ホストPC236等からの印刷データの蓄積や印字データから変換されたビットマップデータの蓄積に使用される。また、HDD219は、それらのデータの保存のため、または一時記憶のためのバッファやワーク用領域等として、様々な用途で使用される。また、HDD219は印字に使用されるさまざまな種類のフォントデータの格納に使用されてもよい。 The HDD 219 is a hard disk such as a magnetic disk, and is used for accumulating print data from the host PC 236 or the like and accumulating bitmap data converted from the print data. The HDD 219 is used for various purposes as a buffer, a work area, or the like for storing such data or for temporary storage. The HDD 219 may be used for storing various types of font data used for printing.
通信I/F215は、携帯型端末100等の外部機器と無線通信(Wi−Fi通信)を行うインタフェースである。 The communication I / F 215 is an interface that performs wireless communication (Wi-Fi communication) with an external device such as the portable terminal 100.
ネットワークI/F216は、ホストPC236から複合機200への印刷ジョブとして送られる印刷データおよびホストPC236から複合機200へのステータス信号を送受信するインタフェースである。 The network I / F 216 is an interface that transmits and receives print data sent as a print job from the host PC 236 to the multifunction device 200 and a status signal from the host PC 236 to the multifunction device 200.
エンジンI/F217は、コントローラ210からプリンタエンジン227への制御信号およびプリンタエンジン227からコントローラ210へのステータス信号のやりとりをするインタフェースである。 The engine I / F 217 is an interface that exchanges control signals from the controller 210 to the printer engine 227 and status signals from the printer engine 227 to the controller 210.
エンジンI/F217には、例えば、プリンタエンジン227が接続される。プリンタエンジン227は、印刷データ入力を受け付け、画像の印刷出力を行う機構である。プリンタエンジン227は、レーザー方式、LED方式、インクジェット方式等の方式で画像を形成することができる。 For example, a printer engine 227 is connected to the engine I / F 217. The printer engine 227 is a mechanism that accepts print data input and prints out an image. The printer engine 227 can form an image by a method such as a laser method, an LED method, or an ink jet method.
パネルI/F218は、パネル装置228を介してユーザが複合機200の状態表示の切替えや動作モードおよびフォント等の切替え等を行えるように、コントローラ210にパネル装置228との間で信号のやりとりをさせるインタフェースである。 The panel I / F 218 exchanges signals with the panel device 228 to the controller 210 so that the user can switch the status display of the multi-function device 200, the operation mode, the font, and the like via the panel device 228. Interface.
パネルI/F218には、パネル装置228が接続される。パネル装置228は、複合機200のユーザからの入力を受け付け、かつ、ユーザに対して情報を提示するマンマシン・インタフェース部である。パネル装置228は、複合機200の操作を可能にするボタンや複合機200の状態を表示するインジケータ(LED、LCD等の表示器、スピーカ等)を備える。 A panel device 228 is connected to the panel I / F 218. The panel device 228 is a man-machine interface unit that receives input from the user of the multifunction device 200 and presents information to the user. The panel device 228 includes buttons that allow the multifunction device 200 to be operated and indicators (display devices such as LEDs and LCDs, speakers, etc.) that display the state of the multifunction device 200.
(携帯型端末のハードウェア構成)
図3は、実施形態1にかかる携帯型端末100のハードウェア構成を説明する図である。図3に示すように、携帯型端末100は、コントローラ110、及びコントローラ110に接続される、表示装置121、入力装置122、カメラ123、GPS(Global Positioning System)モジュール124並びに方位センサ125を備える。コントローラ110は、CPU111、ROM112、RAM113、EEPROM(Electrically Erasable Programmable Read−Only Memory)114、通信I/F115、および入出力I/F116を備える。
(Hardware configuration of portable terminal)
FIG. 3 is a diagram illustrating a hardware configuration of the portable terminal 100 according to the first embodiment. As shown in FIG. 3, the portable terminal 100 includes a controller 110, a display device 121, an input device 122, a camera 123, a GPS (Global Positioning System) module 124, and an orientation sensor 125 connected to the controller 110. The controller 110 includes a CPU 111, a ROM 112, a RAM 113, an EEPROM (Electrically Erasable Programmable Read-Only Memory) 114, a communication I / F 115, and an input / output I / F 116.
コントローラ110は、携帯型端末100の全体を制御し、例えば通信ネットワーク90を介して情報の検索、取得およびその表示、写真やビデオの撮影、再生およびその保存、メールの送受信等の機能を実現する。また、それらの機能の実現にあたり表示装置121を介して適宜必要な情報をユーザに表示する。 The controller 110 controls the entire portable terminal 100 and implements functions such as searching, acquiring and displaying information, taking and playing pictures and videos, playing and storing them, and sending and receiving mails via the communication network 90, for example. . In addition, necessary information is appropriately displayed to the user via the display device 121 for realizing those functions.
CPU111は、ROM112に格納された制御プログラムに従って携帯型端末100の動作を制御したり、携帯型端末100に無線接続された複合機200を制御したりする処理を実行する。 The CPU 111 executes a process of controlling the operation of the portable terminal 100 according to a control program stored in the ROM 112 and controlling the multifunction device 200 wirelessly connected to the portable terminal 100.
ROM112は、CPU111が、コントローラ110内で実行するデータの管理や周辺モジュールを統括的に制御する制御プログラムを格納する。 The ROM 112 stores a control program for the CPU 111 to manage data executed in the controller 110 and to control peripheral modules in an integrated manner.
RAM113は、CPU111が制御プログラムを動作させるために必要なワークメモリ等として使用される。またRAM113は、通信ネットワーク90を介して取得した情報やカメラ123を介して取得した情報を一時記憶するバッファとしても使用される。 The RAM 113 is used as a work memory necessary for the CPU 111 to operate the control program. The RAM 113 is also used as a buffer for temporarily storing information acquired via the communication network 90 and information acquired via the camera 123.
EEPROM114は、電源を切っても保持したいデータ、例えば、携帯型端末100の設定情報等が格納される不揮発性ROMである。 The EEPROM 114 is a nonvolatile ROM that stores data that is to be retained even when the power is turned off, for example, setting information of the portable terminal 100.
通信I/F115は、複合機200等の外部機器と無線通信(Wi−Fi通信)を行うインタフェースである。 The communication I / F 115 is an interface that performs wireless communication (Wi-Fi communication) with an external device such as the MFP 200.
入出力I/F116は、携帯型端末100に備えられる各種機器、例えば表示装置121、入力装置122、カメラ123、GPSモジュール124、及び方位センサ125等とコントローラ110との間で信号の送受信を行うインタフェースである。 The input / output I / F 116 transmits and receives signals between the controller 110 and various devices provided in the portable terminal 100, such as the display device 121, the input device 122, the camera 123, the GPS module 124, the direction sensor 125, and the like. Interface.
表示装置121は、文字、数字、および各種画面、操作用アイコン、カメラ123により取得された画像等を表示する。表示装置121は、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、または有機EL(Electro−Luminescence)ディスプレイ等である。表示装置121は、タッチパネル方式の装置であってもよい。この場合、表示装置121は、図示しない接触センサおよび位置センサ等を更に備える。 The display device 121 displays characters, numbers, various screens, operation icons, images acquired by the camera 123, and the like. The display device 121 is a CRT (Cathode Ray Tube) display, a LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, or the like. The display device 121 may be a touch panel device. In this case, the display device 121 further includes a contact sensor and a position sensor not shown.
入力装置122は、文字および数字等の入力、各種指示の選択、ならびにカーソルの移動等の操作を行う。入力装置122は、例えば、携帯型端末100の筐体に設けられたキーパッドであってもよく、または、マウスまたはキーボード等の装置であってもよい。また、これらの構成に加えて、表示装置121と一体化したタッチパネル方式の装置であってもよい。 The input device 122 performs operations such as input of characters and numbers, selection of various instructions, and movement of a cursor. The input device 122 may be, for example, a keypad provided on the casing of the portable terminal 100, or may be a device such as a mouse or a keyboard. In addition to these configurations, a touch panel device integrated with the display device 121 may be used.
カメラ123は、携帯型端末100の一部であって、例えば、表示装置121の裏面に設けられる。携帯型端末100を向けた方向と、カメラ123で撮影されて表示装置121に映し出される映像とが実質的に同じになるように設定されている。カメラ123の解像度は適宜選択可能であるが、撮影した写真データやビデオデータが印刷やビデオ再生に充分に活用できる品質を得るレベルとすることが望ましい。複数のカメラ123を配置してステレオカメラとして機能させてもよい。 The camera 123 is a part of the portable terminal 100 and is provided on the back surface of the display device 121, for example. The direction in which the portable terminal 100 is directed and the video imaged by the camera 123 and displayed on the display device 121 are set to be substantially the same. Although the resolution of the camera 123 can be selected as appropriate, it is desirable that the photographed photo data and video data have a quality that can be fully utilized for printing and video reproduction. A plurality of cameras 123 may be arranged to function as a stereo camera.
GPSモジュール124は、複数のGPS衛星から電波を受信して、それらの強度から現在の携帯型端末100の位置情報を取得する。GPSモジュール124は、通信I/F115を介して通信ネットワーク90の回線と通信することにより、携帯型端末100の近くに存在する衛星の情報をアシストデータとして取得し、位置測位を行うAGPS(Assisted Global Positioning System)モジュールであってもよい。 The GPS module 124 receives radio waves from a plurality of GPS satellites, and acquires the current position information of the portable terminal 100 from their intensities. The GPS module 124 communicates with the line of the communication network 90 via the communication I / F 115 to acquire information on satellites existing near the portable terminal 100 as assist data, and perform AGPS (Assisted Global). (Positioning System) module.
方位センサ125は、携帯型端末100が向いている方向、携帯型端末100の姿勢および角度を検出する。方位センサ125は、例えば、複数の地磁気センサを組み合わせたものである。方位センサ125は、地磁気センサに加えて複数の加速度センサまたはジャイロを組み合わせたモーションセンサであってもよい。モーションセンサとしては、3軸方向の地磁気センサと3軸方向の加速度センサとを組み合わせた6軸センサ、3軸方向の地磁気センサと2軸方向の加速度センサとを組み合わせた5軸センサ等がある。 The direction sensor 125 detects the direction in which the portable terminal 100 is facing, the attitude and angle of the portable terminal 100. The direction sensor 125 is a combination of a plurality of geomagnetic sensors, for example. The direction sensor 125 may be a motion sensor that combines a plurality of acceleration sensors or gyros in addition to the geomagnetic sensor. Examples of the motion sensor include a 6-axis sensor that combines a triaxial geomagnetic sensor and a triaxial acceleration sensor, and a 5-axis sensor that combines a 3-axis geomagnetic sensor and a biaxial acceleration sensor.
(携帯型端末の機能構成)
図4は、実施形態1にかかる携帯型端末100が有する機能構成の一例を示す図である。説明の便宜上、図4では、主に実施形態1に関する機能を例示しているが、携帯型端末100が有する機能はこれらに限られない。
(Functional configuration of portable terminal)
FIG. 4 is a diagram illustrating an example of a functional configuration of the portable terminal 100 according to the first embodiment. For convenience of explanation, FIG. 4 mainly illustrates functions related to the first embodiment, but the functions of the portable terminal 100 are not limited to these.
図4に示すように、実施形態1にかかる表示装置としての携帯型端末100は、画像を表示する表示部20と、保守の対象装置としての複合機200の部品に関する部品情報、部品情報に関連付けられた拡張現実情報、および保守の内容に応じて部品ごとの拡張現実情報の表示の態様を記憶する記憶部30と、撮像部12および表示部20の動作を制御するとともに、画像に拡張現実情報を重畳させて表示させる制御部10と、を備え、制御部10は、撮像部12により取得された複合機200の画像を表示部20に表示させ、記憶部30から取得した部品情報に基づき画像内の部品を判別し、記憶部30から取得した拡張現実情報のうち、保守の対象となる部品および保守の対象外の部品の表示の態様を異ならせる。以下に、実施形態1の携帯型端末100の機能について詳細に説明する。 As illustrated in FIG. 4, the portable terminal 100 as the display device according to the first embodiment is associated with the display unit 20 that displays an image and the component information and component information regarding the components of the multifunction device 200 as the maintenance target device. The operation of the storage unit 30 for storing the augmented reality information and the display mode of the augmented reality information for each part according to the content of the maintenance, the imaging unit 12 and the display unit 20, and the augmented reality information in the image The control unit 10 displays the image of the multifunction device 200 acquired by the imaging unit 12 on the display unit 20 and displays an image based on the component information acquired from the storage unit 30. In the augmented reality information acquired from the storage unit 30, the display mode of the parts to be maintained and the parts not to be maintained is changed. Below, the function of the portable terminal 100 of Embodiment 1 is demonstrated in detail.
携帯型端末100は、制御部10、表示部20、および記憶部30を備える。これらは互いに通信可能に接続されている。制御部10には、また、通信部11、撮像部12、位置情報取得部13、方位情報取得部14、およびキー入力部15が接続される。表示部20は、位置検出部21、表示コントローラ22、画面提供部23、及び接触検出部24を有する。 The portable terminal 100 includes a control unit 10, a display unit 20, and a storage unit 30. These are communicably connected to each other. Further, the communication unit 11, the imaging unit 12, the position information acquisition unit 13, the azimuth information acquisition unit 14, and the key input unit 15 are connected to the control unit 10. The display unit 20 includes a position detection unit 21, a display controller 22, a screen providing unit 23, and a contact detection unit 24.
制御部10は、各部の動作を制御するとともに所定の情報処理を実現する。制御部10は、図3のCPU111上で記憶部30に記憶されたプログラムを実行することにより仮想的に構成される機能ブロックであって、携帯型端末100の通信部11、撮像部12、位置情報取得部13、方位情報取得部14、キー入力部15、表示部20、および記憶部30といった各機能ブロックとの間でデータおよび制御信号をやり取りすることにより、携帯型端末100の各種機能を実現する。 The control unit 10 controls the operation of each unit and realizes predetermined information processing. The control unit 10 is a functional block that is virtually configured by executing a program stored in the storage unit 30 on the CPU 111 in FIG. 3, and includes the communication unit 11, the imaging unit 12, and the position of the portable terminal 100. Various functions of the portable terminal 100 can be performed by exchanging data and control signals with each functional block such as the information acquisition unit 13, the direction information acquisition unit 14, the key input unit 15, the display unit 20, and the storage unit 30. Realize.
通信部11は、通信ネットワーク90の回線と接続して、他の端末装置やサーバシステムと通信を行うモジュールである。ここでの通信としては、例えば、他の端末装置と通信接続して行う回線交換型通信、通信ネットワーク90の回線を介して接続されたサーバシステムと行うパケット交換型通信等を挙げることができる。また、AGPS方式により携帯型端末100の位置情報を取得する場合には、通信部11は位置情報取得部13と協調動作して端末位置情報の取得を補助する。通信部11は、例えば、図3の通信I/F115によって実現される。 The communication unit 11 is a module that is connected to a line of the communication network 90 and communicates with other terminal devices and server systems. Examples of the communication here include circuit-switched communication performed by communication connection with other terminal apparatuses, and packet-switched communication performed with a server system connected via a communication network 90 line. Further, when acquiring the position information of the portable terminal 100 by the AGPS method, the communication unit 11 cooperates with the position information acquisition unit 13 to assist the acquisition of the terminal position information. The communication unit 11 is realized by, for example, the communication I / F 115 in FIG.
撮像部12は、実空間の映像を取得する。より具体的には、撮像部12は、所定の光学系および受像素子を有し、デジタル画像を取得する機能を提供するモジュールである。携帯型端末100でデジタル画像を撮影する際には、起動された撮像部12は、通常、光学系の取得した被写体像から所定露光時間で受像素子によりデータを取得する処理を所定時間間隔で繰り返し、当該データを表示部20に表示することによりライブビュー機能を実現する。そして、その状態でユーザがさらにキー入力部15で所定の操作を行うことにより、撮像部12は光学系の取得した被写体像から設定された撮影条件で画像データを生成し、生成された画像データは記憶部30に保存される。AR技術を用いた携帯型端末100は、上述のライブビュー機能により表示部20に表示される実空間映像に拡張現実をもたらす情報を表示する。撮像部12は、例えば、図3のカメラ123によって実現される。 The imaging unit 12 acquires a real space image. More specifically, the imaging unit 12 is a module that has a predetermined optical system and an image receiving element and provides a function of acquiring a digital image. When a digital image is captured by the portable terminal 100, the activated imaging unit 12 normally performs a process of acquiring data by the image receiving element at a predetermined exposure time from a subject image acquired by the optical system at a predetermined time interval. The live view function is realized by repeatedly displaying the data on the display unit 20. In this state, when the user further performs a predetermined operation with the key input unit 15, the imaging unit 12 generates image data under imaging conditions set from the subject image acquired by the optical system, and the generated image data Is stored in the storage unit 30. The portable terminal 100 using the AR technology displays information that brings augmented reality to the real space image displayed on the display unit 20 by the above-described live view function. The imaging unit 12 is realized by, for example, the camera 123 in FIG.
位置情報取得部13は、携帯型端末100の位置情報を取得する。位置情報取得部13は、例えば、図3のGPSモジュール124によって実現される。上述のように、AGPS方式に対応したモジュールを採用すれば、携帯型端末100の位置情報をより高速かつ正確に取得することができるので好適である。ただし、位置情報取得部13は、GPSまたはAGPSを利用するものに限られず、GPSに依存することなく端末位置情報を取得する構成とすることも可能である。例えば、WiFiやBluetooth(登録商標)等の無線通信基地局を空間内に複数配設し、それらからの電波強度により端末位置情報を取得する方式を利用してもよい。 The position information acquisition unit 13 acquires position information of the portable terminal 100. The position information acquisition unit 13 is realized by, for example, the GPS module 124 of FIG. As described above, it is preferable to employ a module compatible with the AGPS method because the position information of the portable terminal 100 can be acquired more quickly and accurately. However, the position information acquisition unit 13 is not limited to the one using GPS or AGPS, and may be configured to acquire terminal position information without depending on GPS. For example, a method may be used in which a plurality of wireless communication base stations such as WiFi and Bluetooth (registered trademark) are arranged in the space, and terminal location information is acquired based on the radio field intensity therefrom.
位置情報取得部13は、携帯型端末100が向いている方位を検出する。制御部10は、位置情報取得部13の検出値からユーザが携帯型端末100を保持している姿勢および角度を認識することが可能である。位置情報取得部13は、例えば、図3の方位センサ125によって実現される。方位センサ125がモーションセンサである場合には、携帯型端末100の姿勢および角度に関する情報だけでなく、ユーザが携帯型端末100を動かしたり傾けたりした動作の向きおよび速さを検出することが可能となる。 The position information acquisition unit 13 detects the direction in which the portable terminal 100 is facing. The control unit 10 can recognize the posture and angle at which the user holds the portable terminal 100 from the detection value of the position information acquisition unit 13. The position information acquisition unit 13 is realized by, for example, the orientation sensor 125 in FIG. When the azimuth sensor 125 is a motion sensor, it is possible to detect not only information on the attitude and angle of the portable terminal 100 but also the direction and speed of the operation in which the user moves or tilts the portable terminal 100. It becomes.
キー入力部15は、ユーザのキー操作による入力を受け付ける。ユーザが操作することにより各キーまたはボタンに応じた信号であるキーイベントが制御部10に通知され、種々の操作および制御に利用される。キー入力部15は、例えば、図3の入力装置122、およびCPU111で動作するプログラムによって実現される。 The key input unit 15 receives an input by a user's key operation. When the user operates, a key event which is a signal corresponding to each key or button is notified to the control unit 10 and is used for various operations and controls. The key input unit 15 is realized by, for example, the input device 122 of FIG.
表示部20は、各種の画面を表示する。以下、表示部20がタッチパネルであるときの構成である。表示コントローラ22は表示部20全体を制御する。画面提供部23は表示コントローラ22の制御下で画面を表示する。接触検出部24はユーザの画面への接触を検出する。位置検出部21はユーザがタッチした画面の位置を検出する。表示部20は、例えば、図3の表示装置121、入力装置122、図示しない接触センサ、位置センサ、およびCPU111で動作するプログラムによって実現される。 The display unit 20 displays various screens. Hereinafter, it is a structure when the display part 20 is a touch panel. The display controller 22 controls the entire display unit 20. The screen providing unit 23 displays a screen under the control of the display controller 22. The contact detection unit 24 detects contact of the user with the screen. The position detection unit 21 detects the position of the screen touched by the user. The display unit 20 is realized by, for example, the display device 121 of FIG. 3, the input device 122, a contact sensor (not shown), a position sensor, and a program that operates on the CPU 111.
タッチパネル方式の表示部20は、制御部10からのデータおよび制御信号を表示コントローラ22で受け付けて所定の画面を画面提供部23で表示する。また、表示部20は、画面をタッチするユーザの操作を接触検出部24で受け付けて位置検出部21にて接触位置を検出し、その接触位置に関する位置信号を制御部10に入力として通知する。携帯型端末100おいては、後述する動作に従って、撮像部12により取得した実空間の映像に拡張現実情報を付加して表示することによりユーザに拡張現実を提供し、また表示機能およびタッチパネル機能によりユーザインタフェースを提供する。 The touch panel type display unit 20 receives data and control signals from the control unit 10 by the display controller 22 and displays a predetermined screen on the screen providing unit 23. In addition, the display unit 20 receives an operation of a user who touches the screen by the contact detection unit 24, detects the contact position by the position detection unit 21, and notifies the control unit 10 of a position signal regarding the contact position as an input. In the portable terminal 100, augmented reality is provided to the user by adding augmented reality information to the real space video acquired by the imaging unit 12 and displaying it according to the operation described later, and the display function and touch panel function are used. Provides a user interface.
記憶部30は、所定の情報を制御部10の制御下で記憶し、また記憶している情報を制御部10に提供するメモリである。 また、記憶部30は、制御部10で実行される種々のプログラムを記憶しており、制御部10はこれを適宜読み出して実行する。携帯型端末100には固有の端末IDが付与されている。この端末IDも、その他のデータとともに記憶部30に記憶されている。また、記憶部30は、後述する拡張現実情報(ARアノテーション情報)、及び保守対象となる複数機能毎に上記拡張現実情報のグラフィックスオブジェクトごとの表示、非表示の対応情報を記憶する。また、記憶部30は、上記拡張現実情報と複合機200の各部品とを対応付ける部品情報を記憶する。記憶部30は、例えば、図3のROM112、RAM113、およびEEPROM114によって実現される。 The storage unit 30 is a memory that stores predetermined information under the control of the control unit 10 and provides the stored information to the control unit 10. In addition, the storage unit 30 stores various programs executed by the control unit 10, and the control unit 10 reads and executes them appropriately. A unique terminal ID is assigned to the portable terminal 100. This terminal ID is also stored in the storage unit 30 together with other data. Further, the storage unit 30 stores augmented reality information (AR annotation information) to be described later and display / non-display correspondence information of the augmented reality information for each graphics object for each of a plurality of functions to be maintained. The storage unit 30 also stores component information that associates the augmented reality information with each component of the multifunction device 200. The storage unit 30 is realized by, for example, the ROM 112, the RAM 113, and the EEPROM 114 shown in FIG.
(携帯型端末の動作例)
次に、図5〜図8を用いて、携帯型端末100の動作例について説明する。図5は、実施形態1にかかる携帯型端末100上の表示例を示す図である。保守担当者は保守動作モード開始を指示する操作を行うことで、操作対象である複合機200を保守操作実施可能な状態にし、保守動作を開始することが出来る。
(Operation example of portable terminal)
Next, an operation example of the portable terminal 100 will be described with reference to FIGS. FIG. 5 is a diagram illustrating a display example on the portable terminal 100 according to the first embodiment. By performing an operation for instructing the start of the maintenance operation mode, the person in charge of maintenance can put the MFP 200 that is the operation target into a state in which maintenance operation can be performed, and can start the maintenance operation.
すなわち、複合機200の保守を行う場合、携帯型端末100の表示部20上に表示される図5の画面表示の中から、保守ボタンを押下する操作を行う。また、保守担当者は、さらに保守モードを選択することができる。これにより、保守動作実施ビューの表示に切り替えることが出来る。 That is, when maintenance of the multifunction device 200 is performed, an operation of pressing the maintenance button is performed from the screen display of FIG. 5 displayed on the display unit 20 of the portable terminal 100. Further, the maintenance person can further select a maintenance mode. Thereby, it is possible to switch to the display of the maintenance operation execution view.
図6は、実施形態1にかかる携帯型端末100上で保守動作モードにおいて撮像部12から取り込まれた撮像データを示す図である。上記の保守ボタン押下の操作により、携帯型端末100の表示部20の表示が、まずは、図6に示すような撮像部12からのライブビューに切り替わる。 FIG. 6 is a diagram illustrating imaging data captured from the imaging unit 12 in the maintenance operation mode on the portable terminal 100 according to the first embodiment. By the operation of pressing the maintenance button, the display on the display unit 20 of the portable terminal 100 is first switched to the live view from the imaging unit 12 as shown in FIG.
携帯型端末100の制御部10は、上記の撮像データの画像分析を行うことにより、撮像データ内に含まれる部品種類を特定する制御を行う。図6のライブビュー上の円形の各マークが、特定された部品を表している。また、制御部10は、記憶部30に保持される、各部品に対応するARアノテーション情報のグラフィックスオブジェクト情報を取得する。また、制御部10は、記憶部30に保持される保守モード別ARアノテーション表示情報を取得し、選択された保守モードに応じて、ARアノテーション情報を表示する部品と表示しない部品とを選別する。 The control unit 10 of the portable terminal 100 performs control for specifying the component type included in the imaging data by performing image analysis of the imaging data. Each circular mark on the live view of FIG. 6 represents the identified part. In addition, the control unit 10 acquires graphics object information of AR annotation information corresponding to each component and held in the storage unit 30. Further, the control unit 10 acquires the maintenance mode-specific AR annotation display information held in the storage unit 30, and selects a component that displays the AR annotation information and a component that does not display it according to the selected maintenance mode.
図7は、実施形態1にかかる携帯型端末100の記憶部30が保有する保守モード別ARアノテーション表示情報である。保守担当者が選択可能な保守モードは、例えば、スキャナ部、本体、給紙トレイ部等、複合機200が備える各部位ごとに分けられている。または、保守モードは、故障発生時、復旧後点検時、定期点検時等の複合機200の状態ごとに分けられていてもよい。図7に示すように、保守モード別ARアノテーション表示情報においては、各保守モード1,2,3・・・に応じて、部品ごとのARアノテーション表示のON/OFFが設定されている。図7において、「0」は非表示となる部品、「1」は表示される部品を表している。例えば、保守モード2においてはモータA,F,Gに「1」が、それ以外の部品に対しては「0」が設定されている。このため、保守モード2ではモータA,F,GのみがARアノテーション情報の表示対象となる。 FIG. 7 shows maintenance mode-specific AR annotation display information held by the storage unit 30 of the portable terminal 100 according to the first embodiment. The maintenance modes that can be selected by the maintenance staff are divided for each part of the multifunction device 200 such as a scanner unit, a main body, and a paper feed tray unit. Alternatively, the maintenance mode may be divided for each state of the multi-function device 200 such as when a failure occurs, after inspection after recovery, or during periodic inspection. As shown in FIG. 7, in the AR annotation display information for each maintenance mode, ON / OFF of AR annotation display for each part is set according to each maintenance mode 1, 2, 3,. In FIG. 7, “0” represents a non-displayed part, and “1” represents a displayed part. For example, in maintenance mode 2, “1” is set for motors A, F, and G, and “0” is set for other components. For this reason, in the maintenance mode 2, only the motors A, F, and G are displayed as AR annotation information.
図8は、実施形態1にかかる携帯型端末100上の保守動作実施ビューの表示例を示す図である。図8においては、ライブビューにARアノテーション情報が重畳された表示となっている。図8に示すように、円形のマークが付いた部品のうち、一部の部品についてのみARアノテーション情報が表示されている。つまり、保守担当者が保守モードを選択することで、選択された保守モードに関連性のない部品のARアノテーション情報を表示することなく、選択された保守モードに関連した部品のARアノテーション情報のみが表示される。このように、携帯型端末100においては、保守対象の部位、または、複合機200の状態に見合った部品に対応するARアノテーション情報が選択的に表示される。 FIG. 8 is a diagram illustrating a display example of the maintenance operation execution view on the portable terminal 100 according to the first embodiment. In FIG. 8, the AR annotation information is superimposed on the live view. As shown in FIG. 8, AR annotation information is displayed only for some of the components with circular marks. In other words, when the maintenance person selects the maintenance mode, only the AR annotation information of the parts related to the selected maintenance mode is displayed without displaying the AR annotation information of the parts not related to the selected maintenance mode. Is displayed. As described above, in the portable terminal 100, AR annotation information corresponding to a part corresponding to the maintenance target part or the state of the multifunction device 200 is selectively displayed.
また、図8に示すように、通信部11および通信ネットワーク90の回線を介して、複合機200側の部品状態情報を取得したうえで、取得結果をARアノテーション情報に付加して表示してもよい。これにより、例えば、モータの回転状態や、センサのON/OFF検出状態を表示してもよい。 Further, as shown in FIG. 8, after acquiring the component state information on the MFP 200 side via the communication unit 11 and the communication network 90, the acquisition result may be added to the AR annotation information and displayed. Good. Thereby, for example, the rotation state of the motor and the ON / OFF detection state of the sensor may be displayed.
また、保守対象部品に対し、携帯型端末100上から保守動作が実施できるように構成してもよい。かかる構成は、保守対象部品等の保守動作実行を指示する操作インタフェースを、携帯型端末100および複合機200側に設けることで実現できる。保守担当者による実行操作時には、対象部品の保守動作実行を通信部11、及び通信ネットワーク90の回線を介して複合機200側に指示することができる。 Moreover, you may comprise so that maintenance operation | movement can be implemented from the portable terminal 100 with respect to maintenance object components. Such a configuration can be realized by providing an operation interface for instructing execution of a maintenance operation for a maintenance target component or the like on the portable terminal 100 and the multifunction device 200 side. During the execution operation by the maintenance staff, it is possible to instruct the multifunction device 200 to execute the maintenance operation of the target component via the communication unit 11 and the communication network 90 line.
(携帯型端末における表示処理例)
次に、図9を用いて、携帯型端末100における表示処理の例について説明する。図9は、実施形態1にかかる携帯型端末100における表示処理の手順の一例を示すフロー図である。
(Example of display processing on a portable terminal)
Next, an example of display processing in the portable terminal 100 will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a procedure of display processing in the portable terminal 100 according to the first embodiment.
図9に示すように、ステップS101において、携帯型端末100の制御部10は、保守担当者により保守ボタンが押下され、保守動作モードの開始が指示されたか否かを判定する。保守動作モードの開始指示があった場合は(Yes)、ステップS102において、制御部10は、保守担当者により保守モードが選択されたか否かを判定する。保守モードが選択された場合は(Yes)、ステップS103において、制御部10が撮像部12に指示をしてカメラ123を起動させる。また、制御部10が位置情報取得部13および方位情報取得部14に指示をし、表示部20の表示コントローラ22が位置検出部21および接触検出部24に指示をし、各種センサを起動させる。これにより、カメラ123から取得された画像のライブビュー表示が開始される。 As shown in FIG. 9, in step S101, the control unit 10 of the portable terminal 100 determines whether or not the maintenance person has pressed the maintenance button and instructed the start of the maintenance operation mode. If there is an instruction to start the maintenance operation mode (Yes), in step S102, the control unit 10 determines whether or not the maintenance mode is selected by the maintenance person. If the maintenance mode is selected (Yes), the control unit 10 instructs the imaging unit 12 to activate the camera 123 in step S103. In addition, the control unit 10 instructs the position information acquisition unit 13 and the orientation information acquisition unit 14, and the display controller 22 of the display unit 20 instructs the position detection unit 21 and the contact detection unit 24 to activate various sensors. Thereby, live view display of the image acquired from the camera 123 is started.
ステップS104において、制御部10は、カメラ123の撮像データを分析することで、撮像データ中に含まれる部品を検出する。また、制御部10は、記憶部30を参照して、検出された各部品に対応するARアノテーション情報を取得する。 In step S <b> 104, the control unit 10 analyzes the imaging data of the camera 123 to detect components included in the imaging data. In addition, the control unit 10 refers to the storage unit 30 and acquires AR annotation information corresponding to each detected component.
ステップS105において、制御部10は、記憶部30を参照して、保守モード別ARアノテーション表示情報を取得する。制御部10は、かかる情報に基づき、選択された保守モードに該当する部品を選別する。 In step S <b> 105, the control unit 10 refers to the storage unit 30 and acquires maintenance mode-specific AR annotation display information. Based on such information, the control unit 10 selects parts corresponding to the selected maintenance mode.
ステップS106において、制御部10は、表示コントローラ22に指示をして、表示部20の画面提供部23に選別した部品のARアノテーション情報を表示させる。これにより、ライブビューにARアノテーション情報が重畳された保守動作実施ビューが表示される。 In step S <b> 106, the control unit 10 instructs the display controller 22 to display the AR annotation information of the selected part on the screen providing unit 23 of the display unit 20. Thereby, the maintenance operation execution view in which the AR annotation information is superimposed on the live view is displayed.
ステップS107において、制御部10は、保守担当者により保守動作の指示が入力されたか否かを判定する。指示がなければ(No)、ステップS109へと移行する。指示があれば(Yes)、ステップS108において、制御部10は、通信部11に指示をして、指示された動作の命令を複合機200へと送信させる。複合機200は、動作命令を受けると、それに従い、各部を動作させる。 In step S <b> 107, the control unit 10 determines whether a maintenance operation instruction has been input by the maintenance staff. If there is no instruction (No), the process proceeds to step S109. If there is an instruction (Yes), in step S <b> 108, the control unit 10 instructs the communication unit 11 to transmit an instruction for the instructed operation to the multifunction device 200. Upon receiving the operation command, the multifunction device 200 operates each unit according to the operation command.
ステップS109において、制御部10は、保守担当者により保守動作モードの終了が指示されたか否かを判定する。終了指示がなければ(No)、ステップS104に戻り、引き続き、保守動作実施ビューの表示を継続する。終了指示があれば(Yes)、保守動作実施ビューの表示を終了させる。 In step S109, the control unit 10 determines whether or not the maintenance person has instructed the end of the maintenance operation mode. If there is no termination instruction (No), the process returns to step S104, and the display of the maintenance operation execution view is continued. If there is an end instruction (Yes), the display of the maintenance operation execution view is ended.
以上により、携帯型端末100における表示処理が終了する。 Thus, the display process in the portable terminal 100 ends.
例えば、特許文献1の端末装置においては、複数のグラフィックスオブジェクトを1つの集合グラフィックスオブジェクトとして表示部に表示させる機構を有する。そして、端末装置の現在の位置から距離の大きいオブジェクトほど集合オブジェクトとして扱われるようにすることで、距離の離れたオブジェクトについては画面上の表示を抑制させる。 For example, the terminal device of Patent Document 1 has a mechanism for displaying a plurality of graphics objects on the display unit as one collective graphics object. Then, an object with a greater distance from the current position of the terminal device is treated as a collective object, thereby suppressing display on the screen for objects that are far away.
しかしながら、例えば、プリンタや複写機等の多機能を有する複合機などにおいては、装置内部の構造が複雑で、多数の部品が狭い領域に密集した状態となっている。このため、特許文献1のように、現在位置からの距離に依存して複数のグラフィックスオブジェクトを紐付けるか否かが決定される手法では、例えば、図10の比較例の携帯型端末100’のように、保守作業時等において、実施したい保守作業に関係のない部品のARアノテーション情報が多数表示されてしまうのを回避することができない。 However, for example, in a multifunctional machine having multiple functions such as a printer and a copying machine, the internal structure of the apparatus is complicated, and a large number of parts are densely packed in a narrow area. For this reason, in the method of determining whether to link a plurality of graphics objects depending on the distance from the current position as in Patent Document 1, for example, the portable terminal 100 ′ of the comparative example of FIG. As described above, it is impossible to avoid displaying a large number of AR annotation information of parts irrelevant to the maintenance work to be performed during maintenance work.
実施形態1の携帯型端末100においては、記憶部30に保持される保守モード別ARアノテーション表示情報に基づき、実施したい保守作業に関連性のない部品のARアノテーション情報を表示することなく、保守作業に必要な部品の情報を選択的に表示させることができる。これにより、複合機200の密集箇所に部品が集中的に存在するケースにおいても、全部品のARアノテーション情報が表示されてしまうような煩雑な表示になることを回避し、保守担当者の視認性に優れる保守動作実施ビュー表示を実現できる。よって、保守担当者は、視覚的に理解性、作業性の高い保守動作実施ビューに基づき、保守作業効率を向上させ、保守手順ミスを低減させることが可能となる。 In the portable terminal 100 according to the first embodiment, based on the maintenance mode-specific AR annotation display information held in the storage unit 30, the maintenance operation is performed without displaying the AR annotation information of parts that are not related to the maintenance operation to be performed. It is possible to selectively display information on parts necessary for the operation. As a result, even in the case where parts are concentrated in a dense location of the multi-function device 200, it is possible to avoid a complicated display in which AR annotation information of all parts is displayed, and visibility of maintenance personnel It is possible to realize a maintenance operation execution view display that is superior to the above. Therefore, the maintenance staff can improve the maintenance work efficiency and reduce maintenance procedure errors based on the maintenance operation execution view that is visually understandable and workable.
(変形例1)
次に、図11を用いて、実施形態1の変形例1の携帯型端末100aについて説明する。実施形態1の変形例1の携帯型端末100aは、保守作業対象外の部品情報を目立たなくして表示させる点が、上述の実施形態1とは異なる。
(Modification 1)
Next, a portable terminal 100a according to Modification 1 of Embodiment 1 will be described with reference to FIG. The portable terminal 100a according to the first modification of the first embodiment is different from the first embodiment described above in that component information that is not a maintenance work target is displayed inconspicuously.
図11に示すように、実施形態1の変形例1の携帯型端末100a上の保守動作実施ビューにおいては、選択された保守モードに対して対象外の部品について、ARアノテーション情報の表示の明度および彩度の少なくともいずれかを、選択された保守モードに対して対象となっている部品のARアノテーション情報の表示よりも低くする。これにより、非対象部品のARアノテーション情報が、対象部品のARアノテーション情報表示よりも薄く表示される。または、例えば、カラー表示となっている対象部品のARアノテーション情報に対して、非対象部品のARアノテーション情報をモノクロ表示とする。これらにより、非対象部品のARアノテーション情報の表示を目立たなくさせることができる。つまり、相対的に、対象部品のARアノテーション情報表示を顕著にすることができる。 As shown in FIG. 11, in the maintenance operation execution view on the portable terminal 100a according to the first modification of the first embodiment, the brightness of the display of the AR annotation information and the parts that are not targeted for the selected maintenance mode are displayed. At least one of the saturations is set to be lower than the display of the AR annotation information of the target part for the selected maintenance mode. Thereby, the AR annotation information of the non-target part is displayed lighter than the AR annotation information display of the target part. Alternatively, for example, the AR annotation information of the non-target part is displayed in monochrome with respect to the AR annotation information of the target part that is in color display. As a result, the display of the AR annotation information of the non-target component can be made inconspicuous. That is, it is possible to make the AR annotation information display of the target part more prominent.
(変形例2)
次に、図12を用いて、実施形態1の変形例2の携帯型端末100bについて説明する。実施形態1の変形例2の携帯型端末100bは、保守動作実施ビュー外にある部品についても所定の情報を表示させる点が、上記の実施形態1とは異なる。
(Modification 2)
Next, the portable terminal 100b according to the second modification of the first embodiment will be described with reference to FIG. The portable terminal 100b according to the second modification of the first embodiment is different from the first embodiment in that predetermined information is also displayed for components outside the maintenance operation execution view.
図12に示すように、実施形態1の変形例2の携帯型端末100b上の保守動作実施ビューにおいては、選択された保守モードに対して対象となっている部品がカメラの視界から外れた位置に存在している。このような場合、実施形態1の変形例2の携帯型端末100bは、かかる部品が、保守動作実施ビューの表示画像外にあることを示すARアノテーション情報を表示する。 As shown in FIG. 12, in the maintenance operation execution view on the portable terminal 100b according to the second modification of the first embodiment, the position where the target component for the selected maintenance mode is out of the field of view of the camera. Exists. In such a case, the portable terminal 100b according to the second modification of the first embodiment displays AR annotation information indicating that the part is outside the display image of the maintenance operation execution view.
また、図12に示すように、保守動作実施ビューの表示画像外の部品が、具体的に表示画像外のどの方向に存在するかを矢印等で示すようにしてもよい。このような構成は、例えば、携帯型端末100bの記憶部に予め部品情報として、各部品の位置情報を保持しておくことで実現される。携帯型端末100bの制御部は、記憶部のかかる情報を参照して、実際の保守動作実施ビューに基づいて、保守動作実施ビューの表示画像外のいずれの方向に該当部品が存在するかを表示させる。このとき、制御部が、位置情報取得部で取得した携帯型端末100bの位置情報や、方位センサにより取得した携帯型端末100bの姿勢および角度の情報を用いてもよい。 Further, as shown in FIG. 12, an arrow or the like may be used to indicate in which direction the part outside the display image of the maintenance operation execution view exists outside the display image. Such a configuration is realized, for example, by storing position information of each component in advance as component information in the storage unit of the portable terminal 100b. The control unit of the portable terminal 100b refers to the information stored in the storage unit and displays in which direction the corresponding part exists outside the display image of the maintenance operation execution view based on the actual maintenance operation execution view. Let At this time, the control unit may use the position information of the portable terminal 100b acquired by the position information acquisition unit, and the attitude and angle information of the portable terminal 100b acquired by the orientation sensor.
(その他の変形例) (Other variations)
上述の実施形態1では、画像形成装置は複合機200であるとしたが、これに限られない。画像形成装置は、印刷装置、複写機、複合機、スキャナ装置、及びファクシミリ装置等のうち、単独の機能を有する装置であってもよい。また、実施形態1および変形例1,2の携帯型端末100,100a,100bの対象となる装置は、画像形成装置に限られない。対象装置が、プロジェクタ、カメラ、エアコン、冷蔵庫、蛍光灯、自動販売機、及びハンドヘルド型端末等の各種電子機器、並びにPC等の情報処理装置などであってもよい。 In the first embodiment described above, the image forming apparatus is the multifunction device 200, but the present invention is not limited to this. The image forming apparatus may be an apparatus having a single function among a printing apparatus, a copier, a multifunction machine, a scanner apparatus, a facsimile apparatus, and the like. In addition, the device that is the target of the portable terminals 100, 100a, and 100b of the first embodiment and the first and second modifications is not limited to the image forming apparatus. The target device may be a projector, a camera, an air conditioner, a refrigerator, a fluorescent lamp, a vending machine, various electronic devices such as a handheld terminal, and an information processing device such as a PC.
[実施形態2]
次に、図13〜図17を用い、実施形態2について説明する。実施形態2においては、撮像データの画像分析による部品種類の特定方法、および携帯型端末からの保守動作の実施についても更に詳しく説明する。以下の説明では、実施形態2の携帯型端末150の悪部の構成については実施形態1の図3および図4を参照し、便宜的に実施形態1の構成と同様の符号を用いる。このことは、実施形態2の携帯型端末150が実施形態1の携帯型端末100と異なる機能を有していることを否定しない。
[Embodiment 2]
Next, Embodiment 2 will be described with reference to FIGS. In the second embodiment, a part type specifying method based on image analysis of captured data and a maintenance operation from a portable terminal will be described in more detail. In the following description, the configuration of the bad part of the portable terminal 150 of the second embodiment will be described with reference to FIGS. 3 and 4 of the first embodiment and the same reference numerals as those of the first embodiment will be used for convenience. This does not deny that the portable terminal 150 of the second embodiment has a different function from the portable terminal 100 of the first embodiment.
(携帯型端末の動作例)
まずは、図13〜図15を用いて、実施形態2の携帯型端末150の動作例について説明する。
(Operation example of portable terminal)
First, an operation example of the portable terminal 150 according to the second embodiment will be described with reference to FIGS.
図13は、実施形態2にかかる携帯型端末150上で保守動作モードにおいて撮像部12から取り込まれた撮像データを示す図である。図13は、例えば複合機200の背面の撮像データを表しており、スキャナ部240、本体部250、給紙トレイ部260等の複合機200の各部や、種類の異なるモータ281〜283、種類の異なるファン291,292等の写真画像が表示されている。また、写真画像と重ね合わせた紙搬送パス270が示されている。紙搬送パス270は、画像が転写される転写しが給紙されてから廃止されるまでの通り道をイメージした線画である。 FIG. 13 is a diagram illustrating imaging data captured from the imaging unit 12 in the maintenance operation mode on the portable terminal 150 according to the second embodiment. FIG. 13 shows, for example, imaging data of the rear surface of the multifunction device 200. Each unit of the multifunction device 200 such as the scanner unit 240, the main body unit 250, and the paper feed tray unit 260, different types of motors 281 to 283, and different types of devices are illustrated. Photo images of different fans 291 and 292 are displayed. Also shown is a paper transport path 270 superimposed on the photographic image. The paper transport path 270 is a line drawing that images the path from when the transfer to which the image is transferred is fed to when it is abolished.
図13に示すように、実施形態2の携帯型端末150においても、カメラ123から入力した画像からオブジェクトを抽出し、各オブジェクトの輪郭や特徴点から、モータやファン等の部品種別を判別する。 As shown in FIG. 13, also in the portable terminal 150 of the second embodiment, an object is extracted from an image input from the camera 123, and a component type such as a motor or a fan is determined from the contour or feature point of each object.
また、実施形態2の携帯型端末150においては、同一部品が複数検出された場合は、その位置関係から各部品の用途を判別してARアノテーション情報を表示する。例えば、同じ種類のモータであっても、給紙部と排紙部両方に使用する場合があるためである。 In the portable terminal 150 according to the second embodiment, when a plurality of the same components are detected, the use of each component is determined from the positional relationship and AR annotation information is displayed. This is because, for example, the same type of motor may be used for both the paper feed unit and the paper discharge unit.
また、実施形態2の携帯型端末150においては、ARアノテーション情報として、部品の用途に加え、それらの部品を動作させるON/OFFボタンが表示される。ONボタンが押されるとその部品が動作され、OFFボタンが押されると停止される。 In the portable terminal 150 according to the second embodiment, as the AR annotation information, an ON / OFF button for operating these components is displayed in addition to the usage of the components. The part is operated when the ON button is pressed, and stopped when the OFF button is pressed.
上記機能を実現するため、携帯型端末150ではマーカレスAR技術が用いられる。 In order to realize the above function, the portable terminal 150 uses the markerless AR technology.
図13に示すように、マーカレスAR技術においては、例えば、複合機200上の或る位置を基準点SPとする。図13の例では、スキャナ部240と本体部250との境界線上であって、複合機200の背面から見て左側の点を基準点SPとしている。図13には、1箇所のみ基準点SPを設けているが、複数設けられてもよい。そして、この基準点SPと、判別された各部品の中心位置CPとの位置関係から部品用途を判別する。記憶部30は、基準点SPに基づく各部品の中心座標データを保有する。 As shown in FIG. 13, in the markerless AR technique, for example, a certain position on the multi-function device 200 is set as the reference point SP. In the example of FIG. 13, a point on the boundary line between the scanner unit 240 and the main body unit 250 and on the left side when viewed from the back of the multi-function device 200 is used as the reference point SP. Although only one reference point SP is provided in FIG. 13, a plurality of reference points SP may be provided. Then, the component application is determined from the positional relationship between the reference point SP and the determined center position CP of each component. The storage unit 30 holds center coordinate data of each part based on the reference point SP.
図14は、実施形態2にかかる携帯型端末150の記憶部30が保有する部品ごとの座標定義情報である。部品ごとの座標定義情報は、例えば、部品情報に含まれる。図14に示すように、部品ごとの座標定義情報には、各部品について、基準点SPに基づく中心座標が定義されている。また、部品ごとの座標定義情報には、部品ごとの用途を示す部品名が定義されている。また、部品ごとの座標定義情報には、回転方向および速度等の部品ごとの動作モードが定義されている。 FIG. 14 is coordinate definition information for each component held by the storage unit 30 of the portable terminal 150 according to the second embodiment. The coordinate definition information for each component is included in the component information, for example. As shown in FIG. 14, in the coordinate definition information for each part, center coordinates based on the reference point SP are defined for each part. In the coordinate definition information for each part, a part name indicating the use for each part is defined. The coordinate definition information for each part defines an operation mode for each part such as a rotation direction and a speed.
携帯型端末150の制御部10は、カメラ123からの入力画像内で輪郭を把握できた部品について基準点SPとの位置関係を算出し、記憶部30の座標定義情報と照合して各部品の用途を判別する。制御部10は、部品名称等の判別した結果をARアノテーション情報として表示させる。また、部品名称表示の下にON/OFFボタンを併せて表示させる。 The control unit 10 of the portable terminal 150 calculates the positional relationship with the reference point SP for the component whose outline can be grasped in the input image from the camera 123, and collates with the coordinate definition information in the storage unit 30 to check each component. Determine usage. The control unit 10 displays the determined result of the part name or the like as AR annotation information. Further, an ON / OFF button is also displayed below the part name display.
図15は、実施形態2にかかる携帯型端末150上でライブビューにARアノテーション情報が重畳された例を示す図である。図15に示すように、携帯型端末150上においては、図13および図14の情報に基づき、カメラ123からの入力画像内の部品が判別され、ARアノテーション情報が表示されている。保守担当者は、この情報に基づき、各部品を判別することができる。 FIG. 15 is a diagram illustrating an example in which AR annotation information is superimposed on a live view on the portable terminal 150 according to the second embodiment. As shown in FIG. 15, on the portable terminal 150, parts in the input image from the camera 123 are determined based on the information in FIGS. 13 and 14, and AR annotation information is displayed. The maintenance staff can discriminate each component based on this information.
また、保守担当者が、例えば画面に表示されるONボタンを押すと、携帯型端末150から通信ネットワーク90を介して複合機200に指令が行き、標準モードまたは保守モードで対象の部品が動作される。標準モードとは、例えば、モータであれば通常動作時の回転方向や速度等がその部品の用途に応じた値であることを意味する。保守モードには、上述の実施形態1の保守モード1,2,3・・・等のように、いくつかのモードが存在し、保守作業内容に応じてモード変更可能なように設定されている。 In addition, when the maintenance staff presses an ON button displayed on the screen, for example, a command is sent from the portable terminal 150 to the multifunction device 200 via the communication network 90, and the target component is operated in the standard mode or the maintenance mode. The The standard mode means that, for example, in the case of a motor, the rotation direction and speed during normal operation are values according to the use of the component. There are several modes in the maintenance mode, such as the maintenance modes 1, 2, 3,... In the first embodiment described above, and the mode is set so that the mode can be changed according to the content of the maintenance work. .
ところで、カメラ123からの入力画像に基準点SPが含まれない場合も存在する。 Incidentally, there is a case where the reference point SP is not included in the input image from the camera 123.
図16は、実施形態2にかかる携帯型端末150上の画像に基準点SPが無い場合の部品の判別方法を説明する図である。図16に示すように、カメラ123からの入力画像内に基準点SPが存在しない場合、入力画像内で近隣に認識された部品同士の位置関係で各部品の用途を判別する。 FIG. 16 is a diagram for explaining a component discrimination method when the reference point SP is not included in the image on the portable terminal 150 according to the second embodiment. As shown in FIG. 16, when the reference point SP does not exist in the input image from the camera 123, the use of each component is determined based on the positional relationship between components recognized in the vicinity in the input image.
(携帯型端末における表示処理例)
次に、図17を用いて、携帯型端末150における表示処理の例について説明する。図17は、実施形態2にかかる携帯型端末150における表示処理の手順の一例を示すフロー図である。
(Example of display processing on a portable terminal)
Next, an example of display processing in the portable terminal 150 will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of a display processing procedure in the portable terminal 150 according to the second embodiment.
図17のステップS201〜S204は、実施形態1の図9のステップS101〜S104と同様のフローである。 Steps S201 to S204 in FIG. 17 are the same flow as steps S101 to S104 in FIG. 9 in the first embodiment.
ステップS205において、携帯型端末150の制御部10は、記憶部30を参照し、部品ごとの座標定義情報を取得する。ステップS206において、制御部10は、カメラ123からの入力画像内に基準点SPが含まれているか否かを判定する。 In step S <b> 205, the control unit 10 of the portable terminal 150 refers to the storage unit 30 and acquires coordinate definition information for each part. In step S <b> 206, the control unit 10 determines whether or not the reference point SP is included in the input image from the camera 123.
基準点SPが含まれているときは(Yes)、ステップS207aにおいて、基準点SPに基づき、各部品の中心座標から各部品の用途を判別する。 When the reference point SP is included (Yes), the use of each component is determined from the center coordinates of each component based on the reference point SP in step S207a.
基準点SPが含まれていないときは(No)、ステップS207bにおいて、各部品間の相互の位置関係に基づき各部品の用途を判別する。 When the reference point SP is not included (No), the use of each component is determined based on the mutual positional relationship between the components in step S207b.
ステップS208において、制御部10は、表示部20の表示コントローラ22に、部品ごとにARアノテーション情報を表示させる。 In step S208, the control unit 10 causes the display controller 22 of the display unit 20 to display AR annotation information for each part.
ステップS209において、制御部10は、保守担当者により保守動作モードの終了が指示されたか否かを判定する。終了指示がなければ(No)ステップS204に戻り、終了指示があれば(Yes)保守動作実施ビューの表示を終了させる。 In step S209, the control unit 10 determines whether or not the maintenance person has instructed the end of the maintenance operation mode. If there is no end instruction (No), the process returns to step S204. If there is an end instruction (Yes), the display of the maintenance operation execution view is ended.
以上により、携帯型端末150における表示処理が終了する。 Thus, the display process in the portable terminal 150 ends.
実施形態2の携帯型端末150においても、実施形態1の携帯型端末100と同様の効果を奏する。 The portable terminal 150 of the second embodiment also has the same effect as the portable terminal 100 of the first embodiment.
また、実施形態2の携帯型端末150においては、種類が同一であっても用途の異なる部品等を判別できるようにしたので、よりいっそう保守担当者の視認性に優れる保守動作実施ビュー表示を実現できる。 In addition, since the portable terminal 150 according to the second embodiment can discriminate parts with different uses even if the type is the same, a maintenance operation execution view display with even better visibility for maintenance personnel is realized. it can.
また、実施形態2の携帯型端末150においては、携帯型端末150から各部品を動作させることができるようにしたので、例えば、センサやモータ等のアウトプットチェック及びインプットチェックを携帯型端末150上で容易に行うことができる。 In the portable terminal 150 according to the second embodiment, since each component can be operated from the portable terminal 150, for example, output check and input check of a sensor, a motor, and the like are performed on the portable terminal 150. Can be done easily.
(その他の変形例) (Other variations)
上述の実施形態2では、複合機200からは独立した携帯型端末150を用いることとしたが、これに限られない。例えば、複合機200が備えるパネル装置228(図2参照)が取り外し可能に構成され、携帯型端末として使用可能に構成されていてもよい。 In the second embodiment described above, the portable terminal 150 independent from the multifunction device 200 is used. However, the present invention is not limited to this. For example, the panel device 228 (see FIG. 2) included in the multi-function device 200 may be configured to be removable and configured to be usable as a portable terminal.
上述の実施形態1,2、および変形例の各々は、それぞれ任意に組み合わせることが可能である。 Each of the above-described first and second embodiments and modifications can be arbitrarily combined.
1 表示システム
10 制御部
11 通信部
12 撮像部
13 位置情報取得部
14 方位情報取得部
15 キー入力部
20 表示部
21 位置検出部
22 表示コントローラ
23 画面提供部
24 接触検出部
30 記憶部
100 携帯型端末
110 コントローラ
111 CPU
112 ROM
113 RAM
114 EEPROM
115 通信I/F
116 入出力I/F
121 表示装置
122 入力装置
123 カメラ
124 GPSモジュール
125 方位センサ
200 複合機
DESCRIPTION OF SYMBOLS 1 Display system 10 Control part 11 Communication part 12 Imaging part 13 Position information acquisition part 14 Direction information acquisition part 15 Key input part 20 Display part 21 Position detection part 22 Display controller 23 Screen provision part 24 Contact detection part 30 Storage part 100 Portable type Terminal 110 Controller 111 CPU
112 ROM
113 RAM
114 EEPROM
115 Communication I / F
116 I / O I / F
121 Display Device 122 Input Device 123 Camera 124 GPS Module 125 Direction Sensor 200 Multifunction Device
Claims (9)
前記画像を表示する表示部と、
保守の対象装置の部品に関する部品情報、前記部品情報に関連付けられた拡張現実情報、および前記保守の内容に応じて前記部品ごとの前記拡張現実情報の表示の態様を記憶する記憶部と、
前記撮像部および前記表示部の動作を制御するとともに、前記画像に前記拡張現実情報を重畳させて表示させる制御部と、を備え、
前記制御部は、
前記撮像部により取得された前記対象装置の前記画像を前記表示部に表示させ、前記記憶部から取得した前記部品情報に基づき前記画像内の前記部品を判別し、前記記憶部から取得した前記拡張現実情報のうち、前記保守の対象となる前記部品および前記保守の対象外の前記部品の表示の態様を異ならせる、
表示装置。 An imaging unit for acquiring an image of real space;
A display unit for displaying the image;
A storage unit that stores part information related to parts of a maintenance target device, augmented reality information associated with the part information, and a display mode of the augmented reality information for each part according to the content of the maintenance;
A control unit that controls operations of the imaging unit and the display unit, and causes the augmented reality information to be displayed superimposed on the image.
The controller is
The image of the target device acquired by the imaging unit is displayed on the display unit, the component in the image is determined based on the component information acquired from the storage unit, and the extension acquired from the storage unit Among the real information, the display mode of the part that is the maintenance target and the part that is not the maintenance target is changed.
Display device.
前記保守の対象となる前記部品の前記拡張現実情報を前記保守の対象外の前記部品の前記拡張現実情報よりも顕著となるよう表示させる、
請求項1に記載の表示装置。 The controller is
Displaying the augmented reality information of the component that is the subject of maintenance to be more prominent than the augmented reality information of the component that is not the subject of maintenance;
The display device according to claim 1.
前記保守の対象外の前記部品の前記拡張現実情報の表示の明度および彩度の少なくともいずれか1つを前記保守の対象となる前記部品の前記拡張現実情報の表示の明度および彩度よりも低くする、
請求項1または請求項2に記載の表示装置。 The controller is
At least one of the brightness and saturation of the display of the augmented reality information of the part not subject to maintenance is lower than the brightness and saturation of the display of the augmented reality information of the part subject to maintenance To
The display device according to claim 1.
前記保守の対象外の前記部品の前記拡張現実情報を非表示とする、
請求項1または請求項2に記載の表示装置。 The controller is
Non-displaying the augmented reality information of the parts not subject to maintenance,
The display device according to claim 1.
前記制御部は、
前記保守の対象となる前記部品が前記画像に含まれないときは、前記記憶部から取得した前記部品ごとの位置情報に基づき、前記画像に含まれない前記部品が前記画像の範囲外にあることを表示する、
請求項1乃至請求項4のいずれか1項に記載の表示装置。 The component information stored in the storage unit includes position information for each component,
The controller is
When the part to be maintained is not included in the image, the part not included in the image is outside the range of the image based on the position information for each part acquired from the storage unit. Display,
The display device according to any one of claims 1 to 4.
前記制御部は、
前記記憶部から取得した前記部品ごとの用途情報に基づき、前記保守の対象となる前記部品の用途を示す前記拡張現実情報を表示させる、
請求項1乃至請求項5のいずれか1項に記載の表示装置。 The component information stored in the storage unit includes usage information for each component,
The controller is
Based on the usage information for each part acquired from the storage unit, the augmented reality information indicating the usage of the part to be maintained is displayed.
The display device according to any one of claims 1 to 5.
前記制御部は、
前記記憶部から取得した前記部品間の位置関係を示す位置情報から前記画像内の前記部品を判別し、判別した前記部品の用途を特定する、
請求項6に記載の表示装置。 The component information stored in the storage unit includes position information indicating a positional relationship between the components,
The controller is
Determining the component in the image from position information indicating the positional relationship between the components acquired from the storage unit, and specifying the use of the determined component;
The display device according to claim 6.
前記制御部は、
前記記憶部から取得した前記基準点と前記部品との位置関係から前記画像内の前記部品を判別し、判別した前記部品の用途を特定する、
請求項6または請求項7に記載の表示装置。 The component information stored in the storage unit includes position information with respect to a reference point for each component,
The controller is
Determining the component in the image from the positional relationship between the reference point and the component acquired from the storage unit, and specifying the use of the determined component;
The display device according to claim 6 or 7.
保守の対象装置の実空間の画像を取得する撮像ステップと、
前記対象装置の前記画像を前記表示部に表示させる画像表示ステップと、
前記対象装置の部品に関する部品情報に基づき前記画像内の前記部品を判別する判別ステップと、
前記部品情報に関連付けられた拡張現実情報のうち、前記保守の対象となる前記部品および前記保守の対象外の前記部品の表示の態様を異ならせ、前記画像に前記拡張現実情報を重畳させて前記表示部に表示させる拡張現実情報表示ステップと、を行う、
表示方法。 A display method executed by a display device including a display unit,
An imaging step of acquiring an image of a real space of the maintenance target device;
An image display step of displaying the image of the target device on the display unit;
A determination step of determining the component in the image based on component information regarding the component of the target device;
Of the augmented reality information associated with the component information, the display mode of the component that is the maintenance target and the component that is not the maintenance target are changed, and the augmented reality information is superimposed on the image, An augmented reality information display step to be displayed on the display unit,
Display method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018049491A JP7095332B2 (en) | 2018-03-16 | 2018-03-16 | Display device and display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018049491A JP7095332B2 (en) | 2018-03-16 | 2018-03-16 | Display device and display method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019160171A true JP2019160171A (en) | 2019-09-19 |
| JP7095332B2 JP7095332B2 (en) | 2022-07-05 |
Family
ID=67997102
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018049491A Active JP7095332B2 (en) | 2018-03-16 | 2018-03-16 | Display device and display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7095332B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113055562A (en) * | 2019-12-26 | 2021-06-29 | 发那科株式会社 | Input/output signal information display system |
| US20220178986A1 (en) * | 2020-12-07 | 2022-06-09 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
| JP2022156097A (en) * | 2021-03-31 | 2022-10-14 | 本田技研工業株式会社 | Information provision method, program and information provision device |
| JPWO2023106243A1 (en) * | 2021-12-06 | 2023-06-15 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014235704A (en) * | 2013-06-05 | 2014-12-15 | 富士機械製造株式会社 | Board production assist system |
| JP2015108873A (en) * | 2013-12-03 | 2015-06-11 | 三菱日立パワーシステムズ株式会社 | Apparatus maintenance server and apparatus maintenance system |
| US20170011254A1 (en) * | 2015-07-06 | 2017-01-12 | Accenture Global Service Limited | Augmented reality based component replacement and maintenance |
-
2018
- 2018-03-16 JP JP2018049491A patent/JP7095332B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014235704A (en) * | 2013-06-05 | 2014-12-15 | 富士機械製造株式会社 | Board production assist system |
| JP2015108873A (en) * | 2013-12-03 | 2015-06-11 | 三菱日立パワーシステムズ株式会社 | Apparatus maintenance server and apparatus maintenance system |
| US20170011254A1 (en) * | 2015-07-06 | 2017-01-12 | Accenture Global Service Limited | Augmented reality based component replacement and maintenance |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113055562A (en) * | 2019-12-26 | 2021-06-29 | 发那科株式会社 | Input/output signal information display system |
| CN113055562B (en) * | 2019-12-26 | 2024-06-04 | 发那科株式会社 | Input/output signal information display system |
| US20220178986A1 (en) * | 2020-12-07 | 2022-06-09 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
| JP2022090437A (en) * | 2020-12-07 | 2022-06-17 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
| US12259424B2 (en) | 2020-12-07 | 2025-03-25 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium storing program |
| JP7661691B2 (en) | 2020-12-07 | 2025-04-15 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
| JP2022156097A (en) * | 2021-03-31 | 2022-10-14 | 本田技研工業株式会社 | Information provision method, program and information provision device |
| JP7608240B2 (en) | 2021-03-31 | 2025-01-06 | 本田技研工業株式会社 | Information providing method, program, and information providing device |
| JPWO2023106243A1 (en) * | 2021-12-06 | 2023-06-15 | ||
| WO2023106243A1 (en) * | 2021-12-06 | 2023-06-15 | ダイキン工業株式会社 | Part identification method and identification device |
| EP4446907A4 (en) * | 2021-12-06 | 2025-11-12 | Daikin Ind Ltd | PART IDENTIFICATION PROCEDURE AND DEVICE |
| JP7783509B2 (en) | 2021-12-06 | 2025-12-10 | ダイキン工業株式会社 | Parts identification method and identification device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7095332B2 (en) | 2022-07-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8471914B2 (en) | Image processing system with ease of operation | |
| JP5885714B2 (en) | Image forming system and output instruction program | |
| US10373356B2 (en) | Presentation system and display apparatus for use in the presentation system | |
| US10310793B2 (en) | Image processing system having portable terminal that preregisters a job in an image processing apparatus, image processing apparatus, and portable information terminal | |
| US9639242B2 (en) | Image processing apparatus, method for controlling image processing apparatus, and storage medium | |
| US20160269578A1 (en) | Head mounted display apparatus and method for connecting head mounted display apparatus to external device | |
| JP2012147387A (en) | Image processing system, image processor and control method thereof, information processor and control method thereof, mobile terminal control program | |
| JP2019160171A (en) | Display device and display method | |
| JP2014194725A (en) | Job information display device | |
| JP2015049570A (en) | Image forming system and image forming apparatus | |
| JP2011054162A (en) | Interactive information control system and program | |
| US10848483B2 (en) | Shared terminal, communication system, and display control method, and recording medium | |
| JP2014222410A (en) | Portable display device and display program, and operation guide system | |
| US20130321838A1 (en) | Information terminal capable of requesting image forming apparatus to perform printing, control method therefor, and storage medium | |
| US9036194B2 (en) | Operation input apparatus, image forming system, and storage medium for operation input program | |
| US20230316667A1 (en) | Information processing apparatus, non-transitory computer readable medium storing information processing program, and information processing method | |
| JP6332216B2 (en) | Electronic device, program and information processing system | |
| JP2015005026A (en) | Device management terminal, device management system, and device management program | |
| JP6358058B2 (en) | Display device, display method, and display system | |
| JP5780081B2 (en) | Image processing system, server, display method, and control program | |
| CN114089929A (en) | Information processing apparatus, information processing system, and storage medium | |
| US10009484B2 (en) | Terminal device, and non-transitory computer readable medium storing program for terminal device | |
| US10168972B2 (en) | Terminal apparatus and operation designation method | |
| JP2009188685A (en) | Controller and control program, instruction device and instruction program, and projection system | |
| JP2018061236A (en) | Information processing apparatus, program and image output system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201211 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211026 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7095332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |