[go: up one dir, main page]

WO2024142972A1 - 保守支援方法、及び保守支援システム - Google Patents

保守支援方法、及び保守支援システム Download PDF

Info

Publication number
WO2024142972A1
WO2024142972A1 PCT/JP2023/044854 JP2023044854W WO2024142972A1 WO 2024142972 A1 WO2024142972 A1 WO 2024142972A1 JP 2023044854 W JP2023044854 W JP 2023044854W WO 2024142972 A1 WO2024142972 A1 WO 2024142972A1
Authority
WO
WIPO (PCT)
Prior art keywords
identifier
image
display
power supply
substrate processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2023/044854
Other languages
English (en)
French (fr)
Inventor
俊介 寺内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to CN202380089926.XA priority Critical patent/CN120435857A/zh
Priority to KR1020257022013A priority patent/KR20250120323A/ko
Publication of WO2024142972A1 publication Critical patent/WO2024142972A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67276Production flow monitoring, e.g. for increasing throughput
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67294Apparatus for monitoring, sorting or marking using identification means, e.g. labels on substrates or labels on containers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • Substrate processing apparatuses that process substrates such as semiconductor wafers are installed in clean rooms in factories. In factories, utility rooms are sometimes provided under the floor of the clean rooms (see, for example, Patent Document 1). Utility equipment that supplies utility power to the substrate processing apparatus is installed in the utility room.
  • the utility power includes, for example, processing liquid, gas, and electricity.
  • Patent Document 1 discloses an air supply unit installed in the utility room. Patent Document 1 discloses that air is supplied from the air supply unit to a coating and developing apparatus installed in the clean room.
  • the image indicating whether the second identifier corresponds to the first identifier includes a mask image.
  • the display 2 is attached to the front side of the frame 12. When the maintenance worker 105 puts the frame 12 on his/her ear, the display 2 covers the front of the field of vision of the maintenance worker 105.
  • the display 2 displays an image.
  • the image is, for example, a hologram image.
  • the wearable terminal 101 may also include a holographic optical element provided on the display 2, and a projector that projects laser light onto the holographic optical element.
  • the display 2 is an example of a "display unit.”
  • the second imaging unit 7a and the third imaging unit 7b may include, for example, a color (RGB) camera.
  • the second imaging unit 7a and the third imaging unit 7b may also be, for example, a wide-angle camera equipped with a wide-angle lens.
  • the wide-angle lens may be, for example, an ultra-wide-angle lens or a fisheye lens.
  • the inertial sensor 9 is attached to the frame 12.
  • the inertial sensor 9 includes, for example, a three-axis acceleration sensor, a three-axis angular velocity sensor (gyro sensor), and a three-axis geomagnetic (orientation) sensor.
  • the three-axis acceleration sensor detects the acceleration of the wearable terminal 101.
  • the three-axis angular velocity sensor detects the angular velocity of the wearable terminal 101.
  • the three-axis geomagnetic sensor detects the geomagnetic (orientation) of the wearable terminal 101. Based on the signal output from the inertial sensor 9, the direction of movement of the wearable terminal 101, the position (coordinates) of the wearable terminal 101 after movement, the orientation of the display 2, etc. can be obtained.
  • the communication unit 3 transmits to the server 102 each of the captured images (each of the captured image data) captured by the first imaging unit 6, the second imaging unit 7a, and the third imaging unit 7b, data indicating the distance measured by the distance measurement unit 8 (e.g., distance image data), detection data indicating the signal output from the inertial sensor 9, and audio data indicating the sound collected by the microphone 5 (e.g., the speech of the maintenance worker 105).
  • data indicating the distance measured by the distance measurement unit 8 e.g., distance image data
  • detection data indicating the signal output from the inertial sensor 9 detection data indicating the signal output from the inertial sensor 9
  • audio data indicating the sound collected by the microphone 5 e.g., the speech of the maintenance worker 105.
  • the communication unit 3 also receives voice data and image data from the server 102.
  • the voice data indicates, for example, the speech of a maintenance assistant.
  • the image data indicates, for example, an explanatory video of the maintenance work, or an electronic manual.
  • the communication unit 3 receives an overlay image 400 (see FIG. 10(b)) from the server 102.
  • the overlay image 400 is image data generated by the server 102.
  • the display switching button 11 is a hardware key that switches between displaying and not displaying an image on the display 2.
  • the maintenance worker 105 can operate the display switching button 11 to switch between displaying and not displaying an image on the display 2.
  • FIG. 1(c) is a diagram showing an example of an operation screen 21 (image) displayed on the display 2 of the wearable terminal 101.
  • the display 2 displays an operation screen 21 including a save button 21a.
  • the save button 21a is a software key.
  • the maintenance worker 105 can operate the save button 21a by a gesture. When the maintenance worker 105 presses the save button 21a by a gesture, the imaging data of the front view captured image and the stereoscopic captured image are saved.
  • Figure 2 is another diagram showing the wearable terminal 101 included in the maintenance support system 100 of this embodiment.
  • Figure 2 shows the wearable terminal 101 as seen from the face side (eyeball side) of the maintenance worker 105.
  • Figure 2 shows the inside of the wearable terminal 101.
  • the wearable terminal 101 further includes a pair of left and right eyeball image acquisition units 13.
  • the pair of left and right eyeball image acquisition units 13 are positioned so as to acquire captured images of the left and right eyes (eyeballs) of the maintenance worker 105.
  • the captured eyeball images acquired by the eyeball image acquisition units 13 are used to detect the line of sight of the maintenance worker 105.
  • the eyeball image acquisition unit 13 may have, for example, a near-infrared LED (Light Emitting Diode) 13a and an infrared camera 13b.
  • the infrared camera 13b includes an imaging element such as a CCD (Charge-Coupled Device) image sensor or an InGaAs/T2SL (Type II Super Lattice) sensor.
  • the eyeball image acquisition unit 13 has a near-infrared LED 13a and an infrared camera 13b
  • near-infrared light is irradiated onto the eyeball of the maintenance worker 105 by the near-infrared LED 13a.
  • the infrared camera 13b captures an image of the eyeball of the maintenance worker 105 irradiated with near-infrared light.
  • an image of the eyeball is acquired.
  • the corneal reflection point and pupil can be detected from the image of the eyeball, and the line of sight of the maintenance worker 105 can be detected from their positional relationship. In other words, the line of sight of the maintenance worker 105 can be detected by the corneal reflection method.
  • the communication unit 3 described with reference to FIG. 1(b) transmits the image of the eyeball (image data) to the server 102.
  • the control unit 16 executes various processes.
  • the various processes include processes for controlling the operation of each unit of the wearable terminal 101.
  • the control unit 16 is electrically connected to the display 2, communication unit 3, speaker 4, microphone 5, first imaging unit 6, second imaging unit 7a, third imaging unit 7b, distance measurement unit 8, inertial sensor 9, display switching button 11, eyeball image acquisition unit 13, and memory unit 15 described with reference to FIG. 1(b) and FIG. 2, and the control unit 16 controls the display 2, communication unit 3, speaker 4, microphone 5, first imaging unit 6, second imaging unit 7a, third imaging unit 7b, distance measurement unit 8, inertial sensor 9, eyeball image acquisition unit 13, and memory unit 15.
  • control unit 16 executes various processes based on various computer programs and various setting information stored in the memory unit 15.
  • the control unit 16 has, for example, a processor.
  • the control unit 16 may have a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) as the processor.
  • the control unit 16 may have a general-purpose computing device or a dedicated computing device.
  • the communication unit 31 communicates with the communication unit 3 of the wearable terminal 101 via the communication line 104. Also, as described with reference to FIG. 1(a), the communication unit 31 communicates with the maintenance supporter terminal 103 via the communication line 104.
  • the communication unit 31 may include a wireless communication circuit such as a wireless adapter or a wireless LAN board.
  • the storage unit 32 further stores coordinate data D3.
  • the coordinate data D3 indicates the coordinates (positions) of each of the multiple power supply equipment 300 installed in the power usage room SF.
  • Figure 5 is a flowchart showing the maintenance support method of this embodiment.
  • Figure 6 is a flowchart showing an example of the first storage step (step S1) included in the maintenance support method of this embodiment.
  • Figure 7 is a diagram showing the first storage step (step S1) included in the maintenance support method of this embodiment.
  • Figure 8 is a diagram showing the second storage step (step S2) included in the maintenance support method of this embodiment.
  • the maintenance support system 100 and the maintenance support method of this embodiment will be described using as examples the first substrate processing apparatus 201, the second substrate processing apparatus 202, and the third substrate processing apparatus 203 included in the plurality of substrate processing apparatuses 200, and the first power supply facility 301, the second power supply facility 302, and the third power supply facility 303 included in the plurality of power supply facilities 300.
  • the first substrate processing apparatus 201 is given a first identifier 211a, and the plate 210a attached to the first substrate processing apparatus 201 indicates the first identifier 211a.
  • the first power supply equipment 301 supplies power to the first substrate processing apparatus 201.
  • the plate 310a attached to the first power supply equipment 301 indicates the second identifier 311a.
  • the second identifier 311a indicates the first identifier 211a assigned to the first substrate processing apparatus 201.
  • the first power supply equipment 301 also includes a breaker 305.
  • the breaker 305 is an example of a "power supply equipment operation unit.”
  • the maintenance worker 105 can operate the breaker 305 of the first power supply equipment 301 to stop power supply from the first power supply equipment 301 to the first substrate processing apparatus 201.
  • the maintenance worker 105 can also operate the breaker 305 of the first power supply equipment 301 to start power supply from the first power supply equipment 301 to the first substrate processing apparatus 201.
  • the maintenance worker 105 Before performing maintenance work on the first substrate processing apparatus 201, the maintenance worker 105 operates the breaker 305 of the first power supply equipment 301 to stop power supply from the first power supply equipment 301 to the first substrate processing apparatus 201. After completing the maintenance work on the first substrate processing apparatus 201, the maintenance worker 105 operates the breaker 305 of the first power supply equipment 301 to start power supply from the first power supply equipment 301 to the first substrate processing apparatus 201.
  • the second power supply equipment 302 and the third power supply equipment 303 supply power to the second substrate processing apparatus 202 and the third substrate processing apparatus 203, respectively.
  • the second power supply equipment 302 and the third power supply equipment 303 each include a breaker 305.
  • Plates 310b, 310c attached to the second power supply equipment 302 and the third power supply equipment 303, respectively, indicate second identifiers 311b, 311c.
  • the second identifiers 311b, 311c indicate the first identifiers 211b, 211c assigned to the second substrate processing apparatus 202 and the third substrate processing apparatus 203, respectively.
  • the control unit 33 of the server 102 causes the display 2 of the wearable terminal 101 to display an image 400 indicating whether or not the second identifier 311 corresponds to the first identifier 211 in a display step (step S4).
  • the image 400 indicating whether or not the second identifier 311 corresponds to the first identifier 211 may be referred to as an "overlay image 400.”
  • step S1 the control unit 16 of the wearable device 101 first determines whether or not a gesture of pressing the save button 21a shown in FIG. 1(c) has been performed based on the image captured by the first imaging unit 6 (step S11).
  • the control unit 16 of the wearable device 101 stores the imaging data of the front view image and the stereoscopic image in the memory unit 15, and then transmits the imaging data of the front view image and the stereoscopic image to the server 102 via the communication unit 3.
  • the front view image and the stereoscopic image include the plate 210 (plate 210a) of the substrate processing apparatus 200 (first substrate processing apparatus 201) that is the maintenance target.
  • step S4 if it is determined in the determination process (step S3) that the second identifier 311 does not match the first identifier 211, the display process (step S4) is performed.
  • control unit 33 of the server 102 executes an image display process when the second identifier 311 does not match the first identifier 211.
  • the image display process is a process for displaying the overlay image 400 on the display 2. By the image display process, the overlay image 400 is displayed superimposed on a part of the field of vision of the maintenance worker 105.
  • the image display process will be further explained.
  • the front view captured image, the stereoscopic captured image, the distance data, and the eyeball captured image are transmitted to the server 102.
  • the distance data indicates the distance between the power supply equipment 300 to be operated and the wearable terminal 101.
  • the control unit 33 of the server 102 generates a stereoscopically viewed image (three-dimensional image) of the power supply equipment 300 based on the stereoscopic image.
  • the control unit 33 of the server 102 also detects the line of sight of the maintenance worker 105 from the eye image by the corneal reflex method.
  • the control unit 33 of the server 102 then reads out the equipment drawing data D1 described with reference to FIG.
  • the control unit 33 of the server 102 transmits data indicating the display position of the mask image 401 to the wearable terminal 101 together with data indicating the mask image 401.
  • the control unit 16 of the wearable terminal 101 causes the display 2 to display the mask image 401
  • the mask image 401 is displayed in a position overlapping the breaker 305 of the power supply equipment 300.
  • the detection data of the inertial sensor 9 is transmitted to the server 102.
  • the detection data of the inertial sensor 9 indicates the acceleration, angular velocity, and geomagnetism (azimuth) of the wearable device 101.
  • the control unit 33 of the server 102 acquires the movement direction of the wearable terminal 101, the position (coordinates) of the wearable terminal 101 after the movement, the orientation of the display 2, and the like, based on the acceleration, angular velocity, and geomagnetism (azimuth) of the wearable terminal 101. Then, based on this information and the coordinate data D3, the control unit 33 of the server 102 changes the display state of the three-dimensional drawing of the power supply equipment 300 in accordance with the movement of the wearable terminal 101, and changes the display state of the mask drawing (three-dimensional drawing) and the display position of the mask image 401. Therefore, according to this embodiment, even if the maintenance worker 105 moves, the breaker 305 of the power supply equipment 300 that does not correspond to the substrate processing apparatus 200 to be maintained can be covered by the mask image 401.
  • the server 102 transmits the mask image 401 to the wearable terminal 101, but the server 102 may transmit an image of the power supply equipment 300 to the wearable terminal 101 together with the mask image 401.
  • the control unit 16 of the wearable terminal 101 causes the display 2 to display an image of the power supply equipment 300 in which the breaker 305 is covered by the mask image 401. This makes it possible to prevent the maintenance worker 105 from erroneously operating the power supply equipment 300.
  • FIG. 11 is a diagram showing another example 1 of the overlay image 400.
  • the mask image 401 described with reference to Fig. 10(b) may be referred to as the "first mask image 401".
  • the other example 1 of the overlay image 400 may be referred to as the "second mask image 402".
  • the first mask image 401 covers only the breaker 305 of the power supply equipment 300.
  • the second mask image 402 covers the entire front surface of the power supply equipment 300, as shown in FIG. 11.
  • the second mask image 402 covers the entire front surface of the power supply equipment 300, but the second mask image 402 may cover the entire front surface of the power supply equipment 300.
  • FIG. 12 is a diagram showing another example 2 of overlay image 400.
  • another example 2 of overlay image 400 may be referred to as "graphical image 403".
  • graphical image 403 indicates that operation of breaker 305 (operation unit) of power supply equipment 300 is prohibited.
  • Graphical image 403 includes, for example, a cross mark.
  • Graphical image 403 may be displayed in a position overlapping breaker 305 of power supply equipment 300, similar to first mask image 401.
  • the power supply equipment 300 (power supply equipment) is installed in the power supply room SF, but the power supply equipment 300 (power supply equipment) may also be installed in the clean room CR.
  • the plate 210 is attached to the substrate processing apparatus 200, but the member indicating the identifier is not limited to the plate 210.
  • a sheet indicating the identifier may be attached to the substrate processing apparatus 200.
  • the identifier may be directly imprinted on the substrate processing apparatus 200.
  • the member indicating the identifier is not limited to the plate 310.
  • a sheet indicating the identifier may be attached to the power supply equipment 300 (power usage equipment).
  • the identifier may be directly imprinted on the power supply equipment 300 (power usage equipment).
  • the plate 210 shows the first identifier 211, but the information shown by the plate 210 is not limited to the first identifier 211.
  • the plate 210 may show information for acquiring the first identifier 211.
  • the plate 210 may show a barcode or a QR (Quick Response) code (registered trademark).
  • the control unit 33 of the server 102 may acquire the first identifier 211 from the barcode captured by the first imaging unit 6.
  • the control unit 33 of the server 102 may acquire the first identifier 211 from the QR code (registered trademark) captured by the first imaging unit 6.
  • the information shown by the plate 310 is not limited to the second identifier 311.
  • the plate 310 may show information for acquiring the second identifier 311.
  • the control unit 33 of the server 102 executes the image display process when the second identifier 311 does not match the first identifier 211.
  • the control unit 33 of the server 102 may execute the image display process not only when the second identifier 311 does not match the first identifier 211, but also when the second identifier 311 matches the first identifier 211.
  • the overlay image 400 includes an image indicating that the power supply equipment 300 to be operated corresponds to the substrate processing apparatus 200 to be maintained.
  • the overlay image 400 may include an image showing a circle shape.
  • the control unit 33 of the server 102 may display the overlay image 400 only when the second identifier 311 matches the first identifier 211.
  • control unit 33 of the server 102 determines whether the second identifier 311 matches the first identifier 211, but the control unit 33 may determine whether the second identifier 311 corresponds to the first identifier 211.
  • the first identifier 211a and the second identifier 311a may be different identifiers.
  • the first identifier 211b and the second identifier 311b may be different identifiers.
  • the first identifier 211c and the second identifier 311c may be different identifiers.
  • the storage unit 32 of the server 102 stores table information that associates the first identifier 211 with the second identifier 311. Then, the control unit 33 of the server 102 refers to the table information to determine whether the second identifier 311 corresponds to the first identifier 211.
  • both the front view captured image and the stereoscopic captured image are saved, but it is also possible to save either the front view captured image or the stereoscopic captured image.
  • the inertial sensor 9 includes a three-axis acceleration sensor, a three-axis angular velocity sensor (gyro sensor), and a three-axis geomagnetic (orientation) sensor, but the inertial sensor 9 may include one or two of the three-axis acceleration sensor, the three-axis angular velocity sensor (gyro sensor), and the three-axis geomagnetic (orientation) sensor.
  • the image showing the first identifier 211 and the image showing the second identifier 311 are saved by pressing the save button 21a with a gesture, but the image showing the first identifier 211 and the image showing the second identifier 311 may be saved by the maintenance worker 105 speaking.
  • the memory unit 15 of the wearable terminal 101 may store a keyword that instructs the user to save an image
  • the control unit 16 of the wearable terminal 101 may determine from the output of the microphone 5 whether the keyword that instructs the user to save an image has been spoken.
  • the wearable terminal 101 includes the display switching button 11, but the display switching button 11 may be omitted.
  • the control unit 16 of the wearable terminal 101 may switch between displaying and not displaying an image on the display 2 in response to, for example, the speech of the maintenance worker 105.
  • the control unit 16 of the wearable terminal 101 may switch between displaying and not displaying an image on the display 2 in response to a gesture by the maintenance worker 105.
  • the control unit 33 of the server 102 refers to the acceleration, angular velocity, and geomagnetism (azimuth) of the wearable terminal 101 when the maintenance worker 105 moves, but the control unit 33 of the server 102 may change the display state of the three-dimensional drawing of the power supply equipment 300, the display state of the mask drawing (three-dimensional drawing), and the display position of the mask image 401 without referring to the acceleration, angular velocity, and geomagnetism (azimuth) of the wearable terminal 101 when the maintenance worker 105 moves.
  • control unit 33 of the server 102 may change the display state of the three-dimensional drawing of the power supply equipment 300, the display state of the mask drawing (three-dimensional drawing), and the display position of the mask image 401 based on the front view captured image, the stereoscopic captured image, the distance data, and the eyeball captured image when the maintenance worker 105 moves.
  • the control unit 33 of the server 102 adjusted the display state of the three-dimensional drawing of the power supply facility 300, the display state of the mask drawing (three-dimensional drawing), and the display position of the mask image 401 based on the front view captured image, the stereoscopic captured image, the distance data, and the eyeball captured image.
  • the control unit 33 of the server 102 may adjust the display state of the three-dimensional drawing of the power supply facility 300, the display state of the mask drawing (three-dimensional drawing), and the display position of the mask image 401 based on a part of the front view captured image, the stereoscopic captured image, the distance data, and the eyeball captured image.
  • the control unit 33 of the server 102 executes the character recognition process, the determination process, and the image display process, but the maintenance supporter terminal 103 may execute the character recognition process, the determination process, and the image display process.
  • the control unit 16 of the wearable terminal 101 may execute the character recognition process, the determination process, and the image display process.
  • the wearable terminal 101 may be a standalone type.
  • the character recognition process, the determination process, and the image display process may be executed by any two of the control unit 16 of the wearable terminal 101, the control unit 33 of the server 102, and the maintenance supporter terminal 103, or the character recognition process, the determination process, and the image display process may be executed by the control unit 16 of the wearable terminal 101, the control unit 33 of the server 102, and the maintenance supporter terminal 103.
  • the display 2 is a transmissive type, but the display 2 may be a non-transmissive type.
  • the display 2 may have an organic EL (Electro Luminescence) display or a liquid crystal display.
  • the display 2 may display an image captured by the first imaging unit 6.
  • the display 2 may display a stereoscopic image generated from images captured by the second imaging unit 7a and the third imaging unit 7b.
  • the control unit 16 of the wearable terminal 101 may generate a stereoscopic image based on the images received from the second imaging unit 7a and the third imaging unit 7b, and cause the generated stereoscopic image to be displayed on the display 2.
  • the processing liquid supply equipment may include, for example, equipment for supplying pure water to the substrate processing apparatus 200, and a chemical liquid cabinet.
  • the chemical liquid cabinet supplies the chemical liquid to the substrate processing apparatus 200.
  • the utility facility may also be a gas supply facility.
  • the gas supply facility supplies gas to the substrate processing apparatus 200.
  • the gas is, for example, an inert gas such as nitrogen gas.
  • the substrate processing apparatus 200 may process the substrate under, for example, an inert gas atmosphere.
  • the operation unit of the gas supply equipment may be, for example, an on/off button that instructs the gas supply equipment to start and stop operation.
  • the maintenance support system 100 includes a wearable terminal 101, but the portable terminal is not limited to the wearable terminal 101.
  • the portable terminal may be any terminal capable of displaying an image 400 indicating whether the second identifier 311 corresponds to the first identifier 211.
  • the portable terminal may be a tablet computer, a laptop computer, or a smartphone.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Factory Administration (AREA)

Abstract

第1保存工程(ステップS1)では、携帯型端末(101)の撮像部(6、7a及び7b)により、複数の基板処理装置(200)のうちの一の基板処理装置(200)に予め付与されている第1識別子(211)を撮像して、第1識別子(211)を保存する。第2保存工程(ステップS2)では、携帯型端末(101)の撮像部(6、7a及び7b)により、複数の用力設備(300)のうちの一の用力設備(300)に予め付与されている第2識別子(311)を撮像して、第2識別子(311)を保存する。判定工程(ステップS3)では、第2識別子(311)が第1識別子(211)に対応するか否かを判定する。表示工程(ステップS4)では、携帯型端末(101)の表示部(2)に、第2識別子(311)が第1識別子(211)に対応するか否かを示す画像(400)を表示させる。

Description

保守支援方法、及び保守支援システム
 本発明は、保守支援方法及び保守支援システムに関する。
 半導体ウエハのような基板を処理する基板処理装置は、工場のクリーンルームに設置される。工場では、クリーンルームの床下に用力室が設けられることがある(例えば、特許文献1参照)。用力室には、基板処理装置へ用力を供給する用力設備が設置される。用力は、例えば、処理液、気体、及び電力である。例えば、特許文献1には、用力室に設置されるエア供給部が開示されている。特許文献1は、クリーンルームに設置された塗布現像装置にエア供給部からエアが供給されることを開示している。
特開2008-66595号公報
 しかしながら、クリーンルームには複数の基板処理装置が設置されており、用力室には基板処理装置ごとに用力設備が設置される。基板処理装置をメンテナンスする際には、メンテナンス対象の基板処理装置に用力を供給する用力設備を停止させる必要があるが、用力設備の外観はよく似ているため、メンテナンス対象の基板処理装置に対応する用力設備とは異なる用力設備を誤操作して停止させる可能性がある。メンテナンス対象の基板処理装置に対応していない用力設備を停止させると、稼動中の基板処理装置への用力の供給が停止して、基板の処理中に処理が停止する可能性がある。
 本発明は上記課題に鑑みてなされたものであり、その目的は、用力設備の誤操作が発生し難い保守支援方法及び保守支援システムを提供することにある。
 本発明の一局面によれば、保守支援方法は、第1保存工程と、第2保存工程と、判定工程と、表示工程とを包含する。前記第1保存工程では、携帯型端末の撮像部により、複数の基板処理装置のうちの一の基板処理装置に予め付与されている第1識別子を撮像して、前記第1識別子を示す第1撮像画像を保存する。前記第2保存工程では、前記携帯型端末の撮像部により、複数の用力設備のうちの一の用力設備に予め付与されている第2識別子を撮像して、前記第2識別子を示す第2撮像画像を保存する。前記判定工程では、前記第2識別子が前記第1識別子に対応するか否かを判定する。前記表示工程では、前記携帯型端末の表示部に、前記第2識別子が前記第1識別子に対応するか否かを示す画像を表示させる。
 ある実施形態では、前記判定工程において前記第2識別子が前記第1識別子に対応しないと判定された場合に、前記表示工程が行われる。
 ある実施形態において、前記第2識別子が前記第1識別子に対応するか否かを示す画像は、マスク画像を含む。
 ある実施形態において、前記複数の用力設備はそれぞれ操作部を含む。前記表示工程において、前記一の用力設備の前記操作部に重ねて前記マスク画像が表示される。
 本発明の一局面によれば、保守支援システムは、携帯型端末と、制御部とを備える。前記携帯型端末は、撮像部及び表示部を有する。前記制御部は、前記表示部に画像を表示させる。前記撮像部は、複数の基板処理装置のうちの一の基板処理装置に予め付与されている第1識別子と、複数の用力設備のうちの一の用力設備に予め付与されている第2識別子とを撮像する。前記制御部は、前記第2識別子が前記第1識別子に対応するか否かを判定する。前記制御は、前記表示部に、前記第2識別子が前記第1識別子に対応するか否かを示す画像を表示させる。
 ある実施形態において、前記携帯型端末は、前記制御部を有する。
 本発明に係る保守支援方法及び保守支援システムによれば、用力設備の誤操作が発生し難くなる。
(a)は、本発明の実施形態に係る保守支援システムを示す図である。(b)は、本発明の実施形態に係る保守支援システムに含まれるウェアラブル端末を示す斜視図である。(c)は、ウェアラブル端末のディスプレイに表示される操作画面の一例を示す図である。 本発明の実施形態に係る保守支援システムに含まれるウェアラブル端末を示す別の図である。 本発明の実施形態に係る保守支援システムに含まれるウェアラブル端末の構成の一部を示すブロック図である。 本発明の実施形態に係る保守支援システムに含まれるサーバの構成を示すブロック図である。 本発明の実施形態に係る保守支援方法を示すフローチャートである。 本発明の実施形態に係る保守支援方法に含まれる第1保存工程の一例を示すフローチャートである。 本発明の実施形態に係る保守支援方法に含まれる第1保存工程を示す図である。 本発明の実施形態に係る保守支援方法に含まれる第2保存工程を示す図である。 (a)は、保守作業者が第1給電設備を見ている状態を示す図である。(b)は、保守作業者がウェアラブル端末のディスプレイを介して視認する第1給電設備の一部を示す図である。 (a)は、保守作業者が第2給電設備を見ている状態を示す図である。(b)は、保守作業者がウェアラブル端末のディスプレイを介して視認する第2給電設備の一部を示す図である。 オーバーレイ画像の他例1を示す図である。 オーバーレイ画像の他例2を示す図である。
 以下、図面(図1~図12)を参照して本発明の保守支援方法及び保守支援システムに係る実施形態を説明する。但し、本発明は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。なお、説明が重複する箇所については、適宜説明を省略する場合がある。また、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。
 まず、図1(a)を参照して、本実施形態の保守支援システム100を説明する。図1(a)は、本実施形態の保守支援システム100を示す図である。図1(a)に示すように、本実施形態の保守支援システム100は、ウェアラブル端末101と、サーバ102と、保守支援者側端末103とを備える。ウェアラブル端末101とサーバ102とは、通信回線104を介して互いに通信可能に接続される。同様に、保守支援者側端末103とサーバ102とは、通信回線104を介して互いに通信可能に接続される。また、ウェアラブル端末101と保守支援者側端末103とは、サーバ102を経由して互いに通信可能である。通信回線104は、例えばインターネット回線のような公衆回線網を含む。
 ウェアラブル端末101は、保守作業者105(図7参照)に装着される。保守作業者105は、基板処理装置200が設置されている現場で基板処理装置200の保守作業を行う。保守作業者105は、保守作業を行う際に、ウェアラブル端末101を利用することができる。例えば、保守作業者105は、ウェアラブル端末101を用いて、基板処理装置200の保守対象箇所を撮像し、基板処理装置200の保守対象箇所を示す撮像画像(撮像データ)を保守支援者側端末103へ送信することができる。
 サーバ102は、基板処理装置200及び給電設備300に予め付与されている識別情報IDを管理する。また、サーバ102は、ウェアラブル端末101と保守支援者側端末103との間の通信を管理する。本実施形態では、サーバ102は更に、ウェアラブル端末101を制御する。具体的には、サーバ102は、ウェアラブル端末101のディスプレイ2に表示させる画像(画像データ)を生成して、その生成した画像をディスプレイ2に表示させる。
 保守支援者側端末103は、保守支援者によって操作される。保守支援者は、例えば、基板処理装置200の製造メーカの担当者である。保守支援者は、保守作業者105による保守作業を支援する。
 例えば、保守支援者側端末103は、基板処理装置200の保守対象箇所を示す撮像画像(撮像データ)をウェアラブル端末101から受信して、ウェアラブル端末101から受信した撮像画像を表示することができる。したがって、保守支援者は、現場の状況を視覚的に確認して、保守作業者105を支援することができる。また、保守支援者は、保守支援者側端末103を操作して、保守作業の解説動画(動画データ)や基板処理装置200の電子マニュアルをウェアラブル端末101に送信し、解説動画や電子マニュアルをウェアラブル端末101のディスプレイ2に表示させることができる。
 保守支援者側端末103は、ウェアラブル端末101との間で通信可能な端末である限り、特に限定されない。保守支援者側端末103は、例えば、デスクトップ型のコンピュータ、ラップトップ型のコンピュータ、タブレット型のコンピュータ、又はスマートフォンであってもよい。なお、保守支援者側端末103は、通信回線104を介して基板処理装置200と接続されてもよい。例えば、保守支援者側端末103は、基板処理装置200からプロセスログデータを収集して、管理してもよい。プロセスログデータは、基板処理に関わる測定値や設定値の履歴を示す。
 基板処理装置200は、クリーンルームCRに設置される。基板処理装置200は、基板を処理する装置である限り、特に限定されない。例えば、基板処理装置200は、洗浄装置、エッチング装置、塗布装置、現像装置、露光装置、ベーク装置、又は成膜装置であってもよい。基板処理の対象となる基板は、例えば、半導体ウエハ、フォトマスク用ガラス基板、液晶表示用ガラス基板、プラズマ表示用ガラス基板、FED(Field Emission Display)用基板、光ディスク用基板、磁気ディスク用基板、又は、光磁気ディスク用基板である。
 基板処理装置200には、給電設備300から電力が供給される。給電設備300は、「用力設備」の一例である。給電設備300は、用力室SFに設置される。基板処理装置200は、給電設備300から供給される電力に基づいて動作する。給電設備300から基板処理装置200への電力供給が停止すると、基板処理装置200は動作できない状態になる。
 続いて、図1(a)及び図1(b)を参照して、本実施形態の保守支援システム100に含まれるウェアラブル端末101を説明する。図1(b)は、本実施形態の保守支援システム100に含まれるウェアラブル端末101を示す斜視図である。
 図1(b)に示すように、ウェアラブル端末101は、ディスプレイ2と、通信部3と、スピーカ4と、マイクロフォン5と、第1撮像部6と、第2撮像部7aと、第3撮像部7bと、距離測定部8と、慣性センサ9と、表示切替ボタン11と、フレーム12とを備える。
 本実施形態において、ウェアラブル端末101は、眼鏡型のウェアラブル端末であり、保守作業者105に対して複合現実(Mixed Reality;MR)を提供する。保守作業者105は、フレーム12を耳に掛けてウェアラブル端末101を装着する。ウェアラブル端末101は、例えば、ヘッドマウントディスプレイ、又はスマートグラスであってもよい。ウェアラブル端末101は、「携帯型端末」の一例である。
 ディスプレイ2は、フレーム12の前側に取り付けられる。ディスプレイ2は、保守作業者105がフレーム12を耳に掛けたときに保守作業者105の視界前方を覆う。ディスプレイ2は、画像を表示する。画像は、例えば、ホログラム画像である。ウェアラブル端末101は、ディスプレイ2に設けられたホログラフィック光学素子と、ホログラフィック光学素子にレーザ光を投射するプロジェクターとを備えてもよい。ディスプレイ2は、「表示部」の一例である。
 本実施形態において、ディスプレイ2は透過型であり、ハーフミラーを有する。ディスプレイ2が画像を表示していない場合、保守作業者105は、ディスプレイ2を介して周囲の環境を視認することができる。また、ディスプレイ2が画像を表示している場合、保守作業者105は、周囲の環境と共に、ディスプレイ2によって表示される画像を視認することができる。
 スピーカ4は、フレーム12に取り付けられる。スピーカ4は、音声を出力する。例えば、スピーカ4は、ウェアラブル端末101がサーバ102を介して保守支援者側端末103から受信した音声を出力する。詳しくは、保守支援者側端末103は、マイクロフォンを備える。保守支援者側端末103のマイクロフォンは、保守支援者の発話を集音する。保守支援者側端末103は、マイクロフォンによって集音された音声(音声データ)を、サーバ102を介してウェアラブル端末101へ送信する。この結果、保守支援者の発話がスピーカ4から出力される。
 マイクロフォン5は、フレーム12に取り付けられる。マイクロフォン5は、音声を集音する。例えば、マイクロフォン5は、保守作業者105の発話を集音する。マイクロフォン5によって集音された音声は、ウェアラブル端末101からサーバ102を経由して保守支援者側端末103へ送信される。保守支援者側端末103はスピーカを備えており、ウェアラブル端末101から受信した音声をスピーカから出力させる。
 第1撮像部6は、フレーム12の前側中央に配置される。詳しくは、第1撮像部6は、保守作業者105がフレーム12を耳に掛けたときに保守作業者105の眉間近傍に対向する位置に配置される。第1撮像部6は、例えば、カラー(RGB)カメラを含んでもよい。第1撮像部6の撮像方向L1(視線方向)は、保守作業者105がフレーム12を耳に掛けたときに保守作業者105の眉間に正対する方向となるように設定される。
 第2撮像部7a及び第3撮像部7bは、それぞれの撮像方向L2、L3(視線方向)が互いに異なる方向となるようにフレーム12に取り付けられる。本実施形態では、フレーム12の前側の左端部に第2撮像部7aが配置され、フレーム12の前側の右端部に第3撮像部7bが配置される。ここで、「右」及び「左」は、ウェアラブル端末101を装着した保守作業者105の「右」及び「左」に対応する。第2撮像部7a及び第3撮像部7bによって撮像された撮像画像に基づいて、立体視した給電設備300の撮像画像(給電設備300の三次元撮像画像)を生成することができる。
 第2撮像部7a及び第3撮像部7bは、例えば、カラー(RGB)カメラを含んでもよい。また、第2撮像部7a及び第3撮像部7bは、例えば、広角レンズを具備する広角カメラであってもよい。広角レンズは、例えば、超広角レンズ又は魚眼レンズであってもよい。
 距離測定部8は、フレーム12の前側中央において、第1撮像部6の下方に取り付けられる。距離測定部8は、距離測定部8から被写体までの距離を測定する。距離測定部8は、例えば、距離画像センサを含む。距離画像センサは、例えば、デプスカメラ、三次元(3D)カメラ、又は深度センサであってもよい。距離画像センサの視野方向は、第1撮像部6と略同一の視線方向となるように設定される。詳しくは、距離画像センサは、例えばTOF(Time Of Flight)方式によって、距離画像センサの視野内における被写体までの距離を測定する。そして、その測定結果に基づいて、被写体までの距離が各画素の濃度値で表される距離画像を生成する。
 慣性センサ9は、フレーム12に取り付けられる。慣性センサ9は、例えば、3軸の加速度センサと、3軸の角速度センサ(ジャイロセンサ)と、3軸の地磁気(方位)センサとを含む。3軸の加速度センサは、ウェアラブル端末101の加速度を検出する。3軸の角速度センサは、ウェアラブル端末101の角速度を検出する。3軸の地磁気センサは、ウェアラブル端末101の地磁気(方位)を検出する。慣性センサ9から出力される信号に基づいて、ウェアラブル端末101の移動方向や、ウェアラブル端末101の移動後の位置(座標)、ディスプレイ2の向き等を取得することができる。
 通信部3は、フレーム12に取り付けられる。通信部3は、通信回線104を介して、サーバ102との間で通信を行う。通信部3は、例えば、無線アダプタや無線LAN(Local Area Network)ボードのような無線通信回路を含んでもよい。あるいは、通信部3は、例えばBluetooth(登録商標)のような近距離無線通信方式を採用した無線通信回路を含んでもよい。
 通信部3は、第1撮像部6、第2撮像部7a、及び第3撮像部7bによって撮像された各撮像画像(各撮像データ)と、距離測定部8によって測定された距離を示すデータ(例えば、距離画像データ)と、慣性センサ9から出力される信号を示す検出データと、マイクロフォン5で集音された音声(例えば、保守作業者105の発話)を示す音声データとをサーバ102へ送信する。
 また、通信部3は、サーバ102から音声データや画像データを受信する。音声データは、例えば、保守支援者の発話を示す。画像データは、例えば、保守作業の解説動画、又は電子マニュアルを示す。本実施形態では、通信部3は、サーバ102からオーバーレイ画像400(図10(b)参照)を受信する。オーバーレイ画像400は、サーバ102において生成される画像データである。
 なお、以下の説明において、第1撮像部6によって撮像された撮像画像を、「正面撮像画像」と記載する場合がある。また、第2撮像部7aによって撮像された撮像画像と第3撮像部7bによって撮像された撮像画像とを区別して説明する必要がないときは、第2撮像部7aによって撮像された撮像画像、及び第3撮像部7bによって撮像された撮像画像を「立体視用撮像画像」と記載する場合がある。更に、距離測定部8によって測定された距離を示すデータを、「距離データ」と記載する場合がある。
 表示切替ボタン11は、ディスプレイ2における画像の表示と画像の非表示とを切り替えるハードウェアキーである。保守作業者105は、表示切替ボタン11を操作して、ディスプレイ2における画像の表示と画像の非表示とを切り替えることができる。
 続いて、図1(a)~図1(c)を参照して、ウェアラブル端末101のディスプレイ2に表示される画像(例えば、ホログラム画像)の一例を説明する。図1(c)は、ウェアラブル端末101のディスプレイ2に表示される操作画面21(画像)の一例を示す図である。図1(c)に示すように、本実施形態において、ディスプレイ2は、保存ボタン21aを含む操作画面21を表示する。保存ボタン21aは、ソフトウェアキーである。保守作業者105は、ジェスチャーによって保存ボタン21aを操作することができる。保守作業者105がジェスチャーによって保存ボタン21aを押下すると、正面視撮像画像及び立体視用撮像画像の各撮像データが保存される。
 続いて、図1(a)~図1(c)及び図2を参照して、本実施形態の保守支援システム100に含まれるウェアラブル端末101を説明する。図2は、本実施形態の保守支援システム100に含まれるウェアラブル端末101を示す別の図である。詳しくは、図2は、保守作業者105の顔面側(眼球側)から見たウェアラブル端末101を示す。換言すると、図2は、ウェアラブル端末101の内側を示す。
 図2に示すように、ウェアラブル端末101は、左右一対の眼球画像取得部13を更に備える。左右一対の眼球画像取得部13は、保守作業者105の左右の目(眼球)の撮像画像を取得できるように配置される。眼球画像取得部13により取得される眼球撮像画像は、保守作業者105の視線方向を検出するために用いられる。
 眼球画像取得部13は、例えば、近赤外線LED(Light Emitting Diode)13aと、赤外線カメラ13bとを有してもよい。赤外線カメラ13bは、例えばCCD(Charge-Coupled Device)イメージセンサーやInGaAs/T2SL(Type II Super Lattice)センサのような撮像素子を含む。
 眼球画像取得部13が近赤外線LED13aと赤外線カメラ13bとを有する場合、近赤外線LED13aにより近赤外線が保守作業者105の眼球に照射される。赤外線カメラ13bは、近赤外線が照射された保守作業者105の眼球を撮像する。この結果、眼球撮像画像が取得される。眼球撮像画像から角膜反射点と瞳孔とを検知して、それらの位置関係から保守作業者105の視線方向を検出することができる。つまり、角膜反射法によって保守作業者105の視線方向を検出することができる。図1(b)を参照して説明した通信部3は、眼球撮像画像(画像データ)をサーバ102へ送信する。
 続いて、図1(a)~図1(c)、図2及び図3を参照して、本実施形態の保守支援システム100に含まれるウェアラブル端末101を説明する。図3は、本実施形態の保守支援システム100に含まれるウェアラブル端末101の構成の一部を示すブロック図である。図3に示すように、ウェアラブル端末101は、記憶部15と、制御部16とを更に備える。
 記憶部15は、各種のコンピュータプログラムや、各種の設定情報を記憶する。各種のコンピュータプログラムは、OS(Operating System)を含んでもよい。また、記憶部15は、各種の画像を記憶する。各種の画像には、図1(c)を参照して説明した操作画面21を示す画像データが含まれる。記憶部15は、主記憶装置を有する。主記憶装置は、例えば、半導体メモリを含む。記憶部15は、補助記憶装置を更に有してもよい。補助記憶装置は、例えば、半導体メモリ及びハードディスクドライブの少なくも一方を含む。記憶部15はリムーバブルメディアを含んでもよい。
 制御部16は、各種の処理を実行する。各種の処理には、ウェアラブル端末101の各部の動作を制御する処理が含まれる。具体的には、制御部16には、図1(b)及び図2を参照して説明したディスプレイ2、通信部3、スピーカ4、マイクロフォン5、第1撮像部6、第2撮像部7a、第3撮像部7b、距離測定部8、慣性センサ9、表示切替ボタン11、眼球画像取得部13及び記憶部15が電気的に接続されており、制御部16は、ディスプレイ2、通信部3、スピーカ4、マイクロフォン5、第1撮像部6、第2撮像部7a、第3撮像部7b、距離測定部8、慣性センサ9、眼球画像取得部13、及び記憶部15を制御する。
 詳しくは、制御部16は、記憶部15に記憶されている各種のコンピュータプログラムや各種の設定情報に基づいて各種の処理を実行する。制御部16は、例えば、プロセッサを有する。制御部16は、プロセッサとして、CPU(Central Processing Unit)、又は、MPU(Micro Processing Unit)を有してもよい。あるいは、制御部16は、汎用演算機又は専用演算器を有してもよい。
 例えば、制御部16は、表示切替ボタン11が操作されたことに応じて、ディスプレイ2に操作画面21(図1(c)参照)を表示させる。制御部16は、操作画面21を表示させた後、第1撮像部6によって撮像された映像に基づいて、保守作業者105のジェスチャーを判定する。具体的には、制御部16は、保存ボタン21a(図1(c)参照)を押下するジェスチャーが行われたか否かを判定する。制御部16は、保存ボタン21a(図1(c)参照)を押下するジェスチャーが行われたと判定したタイミングで、正面視撮像画像及び立体視用撮像画像の各撮像データを記憶部15に一時的に記憶させる。そして、制御部16は、記憶部15に一時的に記憶させた正面視撮像画像及び立体視用撮像画像の各撮像データを、通信部3を介してサーバ102へ送信する。
 続いて、図1(a)~図1(c)及び図2~図4を参照して、本実施形態の保守支援システム100に含まれるサーバ102を説明する。図4は、本実施形態の保守支援システム100に含まれるサーバ102の構成を示すブロック図である。図4に示すように、サーバ102は、通信部31と、記憶部32と、制御部33とを備える。
 図1(a)を参照して説明したように、通信部31は、通信回線104を介して、ウェアラブル端末101の通信部3との間で通信を行う。また、図1(a)を参照して説明したように、通信部31は、通信回線104を介して、保守支援者側端末103との間で通信を行う。通信部31は、例えば、無線アダプタや無線LANボードのような無線通信回路を含んでもよい。
 通信部31は、ウェアラブル端末101の通信部3から、正面視撮像画像及び立体視用撮像画像の各撮像データと、距離データ(例えば、距離画像データ)と、慣性センサ9から出力される信号を示す検出データと、音声データと、眼球撮像画像の画像データとを受信する。なお、以下の説明において、と、慣性センサ9から出力される信号を示す検出データを、「慣性センサ9の検出データ」と記載する場合がある。
 また、通信部31は、ウェアラブル端末101の通信部3へ音声データや画像データを送信する。音声データは、例えば、保守支援者の発話を示す。画像データは、例えば、保守作業の解説動画、又は電子マニュアルを示す。本実施形態では、通信部31は、オーバーレイ画像400(図10(b)参照)をウェアラブル端末101へ送信する。
 記憶部32は、各種のコンピュータプログラムや、各種の設定情報を記憶する。各種のコンピュータプログラムは、OSを含んでもよい。また、記憶部32は、各種の画像を記憶する。各種の画像には、ウェアラブル端末101のディスプレイ2に表示させる画像データが含まれる。記憶部32は、主記憶装置を有する。主記憶装置は、例えば、半導体メモリを含む。記憶部32は、補助記憶装置を更に有してもよい。補助記憶装置は、例えば、半導体メモリ及びハードディスクドライブの少なくも一方を含む。記憶部32はリムーバブルメディアを含んでもよい。
 本実施形態において、記憶部32は、設備図面データD1と、マスク図面データD2とを記憶する。設備図面データD1は、用力室SFに設置されている複数の給電設備300のそれぞれの外観を示す図面データを含む。本実施形態において、設備図面データD1に含まれる図面データは、3次元(3D)図面データである。例えば、設備図面データD1は、3次元CAD(Computer Aided Design)データを含む。マスク図面データD2は、マスクを示す図形の3次元(3D)図面データを含む。例えば、マスク図面データD2は、3次元CADデータを含む。なお、以下の説明において、マスクを示す図形を、「マスク図形」と記載する場合がある。
 本実施形態において、記憶部32は、座標データD3を更に記憶する。座標データD3は、用力室SFに設置されている複数の給電設備300のそれぞれの座標(位置)を示す。
 制御部33は、記憶部32に記憶されている各種のコンピュータプログラムや各種の設定情報に基づいて各種の処理を実行する。制御部33は、例えば、プロセッサを有する。制御部33は、プロセッサとして、CPU又はMPUを有してもよい。あるいは、制御部33は、汎用演算機又は専用演算器を有してもよい。本実施形態において、制御部33は、文字認識処理、判定処理、及び画像表示処理を実行する。文字認識処理は、図5に示す第1保存工程(ステップS1)と第2保存工程(ステップS2)とにおいて実行される。判定処理は、図5に示す判定工程(ステップS3)において実行される。画像表示処理は、図5に示す表示工程(ステップS4)において実行される。
 続いて、図1~図8、図9(a)、図9(b)、図10(a)及び図10(b)を参照して、本実施形態の保守支援システム100及び保守支援方法を説明する。図5は、本実施形態の保守支援方法を示すフローチャートである。図6は、本実施形態の保守支援方法に含まれる第1保存工程(ステップS1)の一例を示すフローチャートである。図7は、本実施形態の保守支援方法に含まれる第1保存工程(ステップS1)を示す図である。図8は、本実施形態の保守支援方法に含まれる第2保存工程(ステップS2)を示す図である。
 まず、図7を参照して、保守作業者105が保守作業を行う現場の工場について説明する。図7に示すように、工場のクリーンルームCRには、複数の基板処理装置200が設置される。クリーンルームCRの床GRは、例えば、グレーチング(格子)状である。クリーンルームCRの床GRの下には用力室SFが設けられており、用力室SFには複数の給電設備300が設置される。基板処理装置200と給電設備300とは一対一に対応しており、各給電設備300は、対応する基板処理装置200に電力を供給する。
 図7に示すように、複数の基板処理装置200の各々には、プレート210が貼り付けられている。各基板処理装置200には固有の第1識別子211が予め付与されており、プレート210はそれぞれ、対応する基板処理装置200に固有の第1識別子211を示す。本実施形態において、第1識別子211には、文字、記号、及び数字のうちの少なくとも1種が含まれる。なお、図7及び図8では、理解を容易にするために、基板処理装置200の上方に、基板処理装置200に貼り付けられているプレート210を拡大して示している。第1識別子211は、「識別情報ID」の一例である。
 複数の給電設備300の各々にはプレート310が貼り付けられている。各給電設備300のプレート310は第2識別子311を示す。本実施形態では、各第2識別子311は、対応する基板処理装置200に付与された第1識別子211を示す。なお、図7、図8、図9(a)及び図10(a)では、理解を容易にするために、給電設備300の下方又は上方に、給電設備300に貼り付けられているプレート310を拡大して示している。
 以下では、理解を容易にするために、複数の基板処理装置200に含まれる第1基板処理装置201、第2基板処理装置202及び第3基板処理装置203と、複数の給電設備300に含まれる第1給電設備301、第2給電設備302及び第3給電設備303とを例に、本実施形態の保守支援システム100及び保守支援方法を説明する。図7に示すように、第1基板処理装置201には第1識別子211aが付与されており、第1基板処理装置201に貼り付けられているプレート210aは第1識別子211aを示す。同様に、第2基板処理装置202及び第3基板処理装置203にはそれぞれ第1識別子211b、211cが付与されており、第2基板処理装置202及び第3基板処理装置203に貼り付けられているプレート210b、210cはそれぞれ第1識別子211b、211cを示す。
 図7に示すように、第1給電設備301は、第1基板処理装置201に給電する。第1給電設備301に貼り付けられているプレート310aは第2識別子311aを示す。第2識別子311aは、第1基板処理装置201に付与された第1識別子211aを示す。
 また、第1給電設備301は、ブレーカ305を備える。ブレーカ305は、「用力設備の操作部」の一例である。保守作業者105は、第1給電設備301のブレーカ305を操作して、第1給電設備301から第1基板処理装置201への給電を停止させることができる。また、保守作業者105は、第1給電設備301のブレーカ305を操作して、第1給電設備301から第1基板処理装置201への給電を開始させることができる。
 具体的には、保守作業者105は、第1基板処理装置201に対して保守作業を行う前に、第1給電設備301のブレーカ305を操作して、第1給電設備301から第1基板処理装置201への給電を停止させる。また、保守作業者105は、第1基板処理装置201に対する保守作業の終了後、第1給電設備301のブレーカ305を操作して、第1給電設備301から第1基板処理装置201への給電を開始させる。
 同様に、第2給電設備302及び第3給電設備303はそれぞれ、第2基板処理装置202及び第3基板処理装置203に給電する。第2給電設備302及び第3給電設備303はそれぞれ、ブレーカ305を備える。第2給電設備302及び第3給電設備303の各々に貼り付けられているプレート310b、310cは第2識別子311b、311cを示す。第2識別子311b、311cはそれぞれ、第2基板処理装置202及び第3基板処理装置203の各々に付与された第1識別子211b、211cを示す。
 続いて、図5を参照して、本実施形態の保守支援方法及び保守支援システム100を説明する。図5に示すように、本実施形態の保守支援方法は、第1保存工程(ステップS1)、第2保存工程(ステップS2)、判定工程(ステップS3)、及び表示工程(ステップS4)を含む。本実施形態の保守支援方法は、図1~図4を参照して説明した保守支援システム100によって実行される。
 まず、第1保存工程(ステップS1)において、保守作業者105は、図7に示すように、クリーンルームCR内で、ウェアラブル端末101の第1撮像部6、第2撮像部7a及び第3撮像部7bにより、第1基板処理装置201~第3基板処理装置203のうちの一の基板処理装置200(保守対象の基板処理装置200)に予め付与されている第1識別子211を撮像する。具体的には、保守作業者105は、ウェアラブル端末101を用いて、保守対象の基板処理装置200に貼り付けられているプレート210を撮像する。第1保存工程において撮像された第1撮像画像(第1識別子211を示す画像)は、ウェアラブル端末101からサーバ102へ送信されて、サーバ102の記憶部32に保存される。なお、以下では、第1基板処理装置201が保守対象である場合を例に、本実施形態の保守支援方法及び保守支援システム100を説明する。
 保守作業者105は、第1保存工程の後、クリーンルームCRから用力室SFへ移動して、第2保存工程(ステップS2)を行う。第2保存工程において、保守作業者105は、図8に示すように、用力室SF内で、ウェアラブル端末101の第1撮像部6、第2撮像部7a及び第3撮像部7bにより、第1給電設備301~第3給電設備303のうちの一の給電設備300(操作予定の給電設備300)に予め付与されている第2識別子311を撮像する。具体的には、保守作業者105は、ウェアラブル端末101を用いて、操作予定の給電設備300のプレート310を撮像する。第2保存工程において撮像された第2撮像画像(第2識別子311を示す画像)は、ウェアラブル端末101からサーバ102へ送信されて、サーバ102の記憶部32に保存される。
 サーバ102の制御部33は、ウェアラブル端末101から第1識別子211を示す画像と第2識別子311を示す画像とを受信した後、判定工程(ステップS3)において判定処理を実行する。本実施形態では、制御部33は、第2識別子311が第1識別子211と一致するか否かを判定する。
 例えば、第2保存工程(ステップS2)において第1給電設備301の第2識別子311aが撮像された場合、制御部33は、第2識別子311が第1識別子211(第1基板処理装置201の第1識別子211a)と一致していると判定する。一方、第2保存工程(ステップS2)において第2給電設備302の第2識別子311b又は第3給電設備303の第2識別子311cが撮像された場合、制御部33は、第2識別子311が第1識別子211(第1基板処理装置201の第1識別子211a)と一致していないと判定する。
 判定処理を実行した後、サーバ102の制御部33は、表示工程(ステップS4)において、ウェアラブル端末101のディスプレイ2に、第2識別子311が第1識別子211に対応するか否かを示す画像400を表示させる。以下では、第2識別子311が第1識別子211に対応するか否かを示す画像400を、「オーバーレイ画像400」と記載する場合がある。
 本実施形態によれば、ウェアラブル端末101のディスプレイ2に、第2識別子311が第1識別子211に対応しているか否かを示す画像400を表示させることができる。したがって、保守作業者105は、操作予定の給電設備300が保守対象の基板処理装置200に対応しているか否かを、より容易に判断することができる。よって、給電設備300の誤操作を防止することができる。
 例えば、第2保存工程(ステップS2)において、保守作業者105が第2給電設備302のプレート310b又は第3給電設備303のプレート310cを撮像した場合、表示工程(ステップS4)において、ウェアラブル端末101のディスプレイ2に、第2識別子311が第1識別子211に対応していないことを示す画像(オーバーレイ画像400)が表示される。したがって、保守作業者105が、第1基板処理装置201に対して保守作業を行う際に、第2給電設備302又は第3給電設備303のブレーカ305を誤って操作することを抑制できる。よって、第2基板処理装置202又は第3基板処理装置203への給電が誤って停止されることを抑制できる。
 続いて、図1~図4及び図6を参照して、第1保存工程(ステップS1)の一例を説明する。図6に示すように、第1保存工程(ステップS1)は、ステップS11~ステップS13を含んでもよい。
 第1保存工程(ステップS1)では、まず、ウェアラブル端末101の制御部16が、第1撮像部6によって撮像される映像に基づいて、図1(c)に示す保存ボタン21aを押下するジェスチャーが行われたか否かを判定する(ステップS11)。
 ウェアラブル端末101の制御部16は、保存ボタン21aを押下するジェスチャーが行われたと判定したことに応じて、正面視撮像画像及び立体視用撮像画像の各撮像データを記憶部15に記憶させた後、通信部3を介してサーバ102へ正面視撮像画像及び立体視用撮像画像の各撮像データを送信する。正面視撮像画像及び立体視用撮像画像には、保守対象の基板処理装置200(第1基板処理装置201)のプレート210(プレート210a)が含まれる。
 サーバ102の通信部31がウェアラブル端末101から正面視撮像画像及び立体視用撮像画像を受信すると、サーバ102の制御部33が、文字認識処理を行い、第1識別子211(第1識別子211a)を示す第1識別情報を取得する(ステップS12)。そして、制御部33は、取得した第1識別情報を記憶部32に記憶させて(ステップS13)、図6に示す処理を終了する。文字認識処理は、画像から文字を認識する処理である。文字認識処理は、例えば、OCR(Optical Character Recognition)である。
 サーバ102の制御部33は、第2保存工程(ステップS2)においても、図6に示す処理と同様に、第2識別子311を示す第2識別情報を取得する。そして、判定工程(ステップS3)において、第2識別情報が第1識別情報に一致するか否かを判定する。
 本実施形態によれば、正面視撮像画像及び立体視用撮像画像から第1識別情報及び第2識別情報を取得することができる。したがって、ウェアラブル端末101がプレート210を斜めの方向から撮像した場合でも、第1識別情報を取得することができる。同様に、ウェアラブル端末101がプレート310を斜めの方向から撮像した場合でも、第2識別情報を取得することができる。但し、サーバ102の制御部33は、正面視撮像画像のみから第1識別情報及び第2識別情報を取得してもよい。あるいは、サーバ102の制御部33は、文字認識処理を実行する際に、ディスプレイ2の向きと、保守作業者105の視線方向とのうちの少なくとも一方を参照してもよい。ディスプレイ2の向きは、慣性センサ9の検出データから取得することができる。保守作業者105の視線方向は、眼球撮像画像から取得することができる。
 続いて、図1~図8、図9(a)、図9(b)、10(a)及び図10(b)を参照して、本実施形態の保守支援システム100及び保守支援方法を説明する。図9(a)は、保守作業者105が第1給電設備301を見ている状態を示す図である。図9(b)は、保守作業者105がウェアラブル端末101のディスプレイ2を介して視認する第1給電設備301の一部を示す図である。
 本実施形態では、第2識別子311が第1識別子211に一致する場合、サーバ102の制御部33は、ディスプレイ2に画像を表示させない。よって、図9(a)及び図9(b)に示すように、保守作業者105は、給電設備300(第1給電設備301)をそのまま視認することができる。したがって、保守作業者105は、ブレーカ305を視認することができるので、ブレーカ305を操作することができる。
 図10(a)は、保守作業者105が第2給電設備302を見ている状態を示す図である。図10(b)は、保守作業者105がウェアラブル端末101のディスプレイ2を介して視認する第2給電設備302の一部を示す図である。
 本実施形態では、判定工程(ステップS3)において第2識別子311が第1識別子211に一致していないと判定された場合に、表示工程(ステップS4)が行われる。
 詳しくは、サーバ102の制御部33は、第2識別子311が第1識別子211に一致しない場合に、画像表示処理を実行する。画像表示処理は、オーバーレイ画像400をディスプレイ2に表示させる処理である。画像表示処理により、保守作業者105の視界の一部にオーバーレイ画像400が重ねて表示される。
 本実施形態において、オーバーレイ画像400は、マスク画像401を含む。マスク画像401は、保守作業者105の視界の一部を遮る画像である。マスク画像401がディスプレイ2に表示されると、保守作業者105の視界の一部がマスク画像401によって覆われる。その結果、給電設備300の一部がマスク画像401によって隠されて、保守作業者105は給電設備300の一部を視認できなくなる。
 詳しくは、マスク画像401は、給電設備300のブレーカ305に重なる位置に表示される。したがって、保守作業者105は、マスク画像401によりブレーカ305を視認することができない。よって、保守作業者105は、ブレーカ305を操作することができない。
 本実施形態によれば、操作予定の給電設備300が保守対象の基板処理装置200に対応しない場合に、操作予定の給電設備300のブレーカ305(操作部)を、マスク画像401によって保守作業者105から隠すことができる。したがって、保守作業者105が、保守対象の基板処理装置200に対応しない給電設備300のブレーカ305(操作部)を誤って操作することを抑制できる。
 ここで、画像表示処理について更に説明する。本実施形態では、正面視撮像画像、立体視用撮像画像、距離データ、及び眼球撮像画像がサーバ102へ送信される。なお、距離データは、操作予定の給電設備300とウェアラブル端末101との距離を示す。
 サーバ102の制御部33は、立体視用撮像画像に基づいて、立体視した給電設備300の撮像画像(三次元撮像画像)を生成する。また、サーバ102の制御部33は、角膜反射法によって、眼球撮像画像から保守作業者105の視線方向を検出する。そして、サーバ102の制御部33は、図4を参照して説明した設備図面データD1を記憶部32から読み出して、給電設備300の三次元図面に対する視線方向を、保守作業者105の視線方向に合わせるとともに、正面視撮像画像と、給電設備300の三次元撮像画像と、距離データと、図4を参照して説明した座標データD3とに基づいて、給電設備300の三次元図面を拡大又は縮小して、給電設備300の三次元図面を、保守作業者105が実際に見ている給電設備300に合わせる。
 更に、サーバ102の制御部33は、図4を参照して説明したマスク図面データD2を記憶部32から読み出して、給電設備300の三次元図面と同様に、マスク図形(三次元図面)に対する視線方向、及びマスク図形(三次元図面)のサイズを調整する。つまり、サーバ102の制御部33は、マスク図形(三次元図面)の表示状態を調整する。この結果、マスク画像401が生成される。更に、サーバ102の制御部33は、給電設備300の図面データにおけるブレーカ305の座標位置に基づいて、マスク画像401の表示位置を取得する。
 その後、サーバ102の制御部33は、マスク画像401を示すデータと共に、マスク画像401の表示位置を示すデータをウェアラブル端末101へ送信する。この結果、ウェアラブル端末101の制御部16がディスプレイ2にマスク画像401を表示させると、給電設備300のブレーカ305に重なる位置にマスク画像401が表示される。
 本実施形態では、正面視撮像画像、立体視用撮像画像、距離データ、及び眼球撮像画像に加えて、慣性センサ9の検出データがサーバ102へ送信される。既に説明したように、慣性センサ9の検出データは、ウェアラブル端末101の加速度、角速度及び地磁気(方位)を示す。
 サーバ102の制御部33は、ウェアラブル端末101の加速度、角速度及び地磁気(方位)に基づいて、ウェアラブル端末101の移動方向や、ウェアラブル端末101の移動後の位置(座標)、ディスプレイ2の向き等を取得する。そして、サーバ102の制御部33は、これらの情報と、座標データD3とに基づき、ウェアラブル端末101の移動に合わせて、給電設備300の三次元図面の表示状態を変化させるとともに、マスク図面(三次元図面)の表示状態、及びマスク画像401の表示位置を変化させる。したがって、本実施形態によれば、保守作業者105が移動しても、保守対象の基板処理装置200に対応しない給電設備300のブレーカ305をマスク画像401によって覆うことができる。
 なお、本実施形態では、サーバ102は、マスク画像401をウェアラブル端末101へ送信したが、サーバ102は、マスク画像401と共に、給電設備300の画像をウェアラブル端末101へ送信してもよい。この場合、ウェアラブル端末101の制御部16は、マスク画像401によってブレーカ305が覆われた給電設備300の画像を、ディスプレイ2に表示させる。したがって、保守作業者105による給電設備300の誤操作を抑制することができる。
 続いて、図11及び図12を参照して、オーバーレイ画像400の他例を説明する。図11は、オーバーレイ画像400の他例1を示す図である。以下、図10(b)を参照して説明したマスク画像401を、「第1マスク画像401」と記載する場合がある。また、オーバーレイ画像400の他例1を、「第2マスク画像402」と記載する場合がある。
 図10(b)を参照して説明したように、第1マスク画像401は、給電設備300のブレーカ305のみを覆う。これに対し、第2マスク画像402は、図11に示すように、給電設備300の前面の全部分を覆う。第2マスク画像402をディスプレイ2に表示させることで、第1マスク画像401と同様に、保守作業者105による給電設備300の誤操作を抑制することができる。
 なお、図11に示す例では、第2マスク画像402は、給電設備300の前面の全部分を覆ったが、第2マスク画像402は、給電設備300の全部分を覆ってもよい。
 図12は、オーバーレイ画像400の他例2を示す図である。以下、オーバーレイ画像400の他例2を、「図形画像403」と記載する場合がある。図12に示すように、図形画像403は、給電設備300のブレーカ305(操作部)の操作を禁止する旨を示す。図形画像403は、例えば、バツ印の図形を含む。図形画像403は、第1マスク画像401と同様に、給電設備300のブレーカ305に重なる位置に表示されてもよい。
 以上、図面(図1~図12)を参照して本発明の実施形態について説明した。ただし、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施できる。また、上記の実施形態に開示される複数の構成要素は適宜改変可能である。例えば、ある実施形態に示される全構成要素のうちのある構成要素を別の実施形態の構成要素に追加してもよく、又は、ある実施形態に示される全構成要素のうちのいくつかの構成要素を実施形態から削除してもよい。
 図面は、発明の理解を容易にするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚さ、長さ、個数、間隔等は、図面作成の都合上から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素の構成は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能であることは言うまでもない。
 例えば、図1~図12を参照して説明した実施形態では、用力室SFに給電設備300(用力設備)が設置されたが、給電設備300(用力設備)はクリーンルームCR内に設置されてもよい。
 また、図1~図12を参照して説明した実施形態では、基板処理装置200にプレート210が貼り付けられたが、識別子を示す部材は、プレート210に限定されない。例えば、識別子を示すシートが基板処理装置200に貼り付けられてもよい。あるいは、基板処理装置200に識別子が直接刻印されてもよい。同様に、識別子を示す部材は、プレート310に限定されない。例えば、識別子を示すシートが給電設備300(用力設備)に貼り付けられてもよい。あるいは、給電設備300(用力設備)に識別子が直接刻印されてもよい。
 また、図1~図12を参照して説明した実施形態において、プレート210は第1識別子211を示したが、プレート210が示す情報は、第1識別子211に限定されない。プレート210は、第1識別子211を取得するための情報を示してもよい。例えば、プレート210は、バーコード又はQR(Quick Response)コード(登録商標)を示してもよい。プレート210がバーコードを示す場合、サーバ102の制御部33が、第1撮像部6によって撮像されたバーコードから第1識別子211を取得してもよい。プレート210がQRコード(登録商標)を示す場合、サーバ102の制御部33が、第1撮像部6によって撮像されたQRコード(登録商標)から第1識別子211を取得してもよい。同様に、プレート310が示す情報は、第2識別子311に限定されない。プレート310は、第2識別子311を取得するための情報を示してもよい。
 また、図1~図12を参照して説明した実施形態において、サーバ102の記憶部32は、設備図面データD1及びマスク図面データD2を記憶したが、サーバ102の記憶部32は、設備図面データD1及びマスク図面データD2に替えて、ブレーカ305がマスク図形によって覆われた給電設備300の外観を示す3次元図面データを記憶してもよい。
 また、図1~図12を参照して説明した実施形態において、サーバ102の制御部33は、第2識別子311が第1識別子211と一致していない場合に画像表示処理を実行したが、サーバ102の制御部33は、第2識別子311が第1識別子211と一致していない場合に加えて、第2識別子311が第1識別子211と一致している場合にも、画像表示処理を実行してもよい。この場合、オーバーレイ画像400は、第2識別子311が第1識別子211と一致していることを示す画像を含む。換言すると、オーバーレイ画像400は、操作予定の給電設備300が保守対象の基板処理装置200に対応していることを示す画像を含む。例えば、オーバーレイ画像400は、丸印の図形を示す画像を含んでもよい。なお、サーバ102の制御部33は、第2識別子311が第1識別子211と一致している場合にのみオーバーレイ画像400を表示させてもよい。
 また、図1~図12を参照して説明した実施形態において、サーバ102の制御部33は、第2識別子311が第1識別子211と一致するか否かを判定したが、制御部33は、第2識別子311が第1識別子211に対応するか否かを判定してもよい。
 具体的には、第1識別子211aと第2識別子311aとは異なる識別子であってもよい。同様に、第1識別子211bと第2識別子311bとは異なる識別子であってもよい。また、第1識別子211cと第2識別子311cとは異なる識別子であってもよい。この場合、例えば、サーバ102の記憶部32は、第1識別子211と第2識別子311とを関連付けるテーブル情報を記憶する。そして、サーバ102の制御部33が、テーブル情報を参照して、第2識別子311が第1識別子211に対応するか否かを判定する。
 また、図1~図12を参照して説明した実施形態では、保守作業者105がジェスチャーによって保存ボタン21aを押下すると、正面視撮像画像及び立体視用撮像画像の両方が保存されたが、正面視撮像画像及び立体視用撮像画像のうちの一方が保存されてもよい。
 また、図1~図12を参照して説明した実施形態において、慣性センサ9は、3軸の加速度センサと、3軸の角速度センサ(ジャイロセンサ)と、3軸の地磁気(方位)センサとを含むが、慣性センサ9は、3軸の加速度センサと、3軸の角速度センサ(ジャイロセンサ)と、3軸の地磁気(方位)センサとのうちの1つ、又は2つを含んでもよい。
 また、図1~図12を参照して説明した実施形態では、保存ボタン21aがジェスチャーによって押下されることで、第1識別子211を示す画像と、第2識別子311を示す画像とが保存されたが、第1識別子211を示す画像、及び第2識別子311を示す画像は、保守作業者105の発話によって保存されてもよい。例えば、ウェアラブル端末101の記憶部15が、画像の保存を指示するキーワードを記憶し、ウェアラブル端末101の制御部16が、マイクロフォン5の出力から、画像の保存を指示するキーワードが発声されたか否かを判定してもよい。
 また、図1~図12を参照して説明した実施形態では、ウェアラブル端末101が表示切替ボタン11を備えたが、表示切替ボタン11は省略されてもよい。この場合、ウェアラブル端末101の制御部16は、例えば、保守作業者105の発話に応じて、ディスプレイ2における画像の表示と非表示とを切り替えてもよい。あるいは、ウェアラブル端末101の制御部16は、保守作業者105のジェスチャーに応じて、ディスプレイ2における画像の表示と非表示とを切り替えてもよい。
 また、図1~図12を参照して説明した実施形態において、サーバ102の制御部33は、保守作業者105が移動した際に、ウェアラブル端末101の加速度、角速度及び地磁気(方位)を参照したが、サーバ102の制御部33は、保守作業者105が移動した際に、ウェアラブル端末101の加速度、角速度及び地磁気(方位)のうちの1つ、又は2つを参照して、給電設備300の三次元図面の表示状態、マスク図面(三次元図面)の表示状態、及びマスク画像401の表示位置を変化させてもよい。
 また、図1~図12を参照して説明した実施形態において、サーバ102の制御部33は、保守作業者105が移動した際に、ウェアラブル端末101の加速度、角速度及び地磁気(方位)を参照したが、サーバ102の制御部33は、保守作業者105が移動した際に、ウェアラブル端末101の加速度、角速度及び地磁気(方位)を参照せずに、給電設備300の三次元図面の表示状態、マスク図面(三次元図面)の表示状態、及びマスク画像401の表示位置を変化させてもよい。具体的には、サーバ102の制御部33は、保守作業者105が移動した際に、正面視撮像画像、立体視用撮像画像、距離データ、及び眼球撮像画像に基づいて、給電設備300の三次元図面の表示状態、マスク図面(三次元図面)の表示状態、及びマスク画像401の表示位置を変化させてもよい。
 また、図1~図12を参照して説明した実施形態において、サーバ102の制御部33は、正面視撮像画像、立体視用撮像画像、距離データ、及び眼球撮像画像に基づいて、給電設備300の三次元図面の表示状態、マスク図面(三次元図面)の表示状態、及びマスク画像401の表示位置を調整したが、サーバ102の制御部33は、正面視撮像画像、立体視用撮像画像、距離データ、及び眼球撮像画像の一部に基づいて、給電設備300の三次元図面の表示状態、マスク図面(三次元図面)の表示状態、及びマスク画像401の表示位置を調整してもよい。
 また、図1~図12を参照して説明した実施形態では、サーバ102の制御部33が、文字認識処理、判定処理、及び画像表示処理を実行したが、保守支援者側端末103が文字認識処理、判定処理、及び画像表示処理を実行してもよい。あるいは、ウェアラブル端末101の制御部16が、文字認識処理、判定処理、及び画像表示処理を実行してもよい。つまり、ウェアラブル端末101は、スタンドアロン型であってもよい。あるいは、ウェアラブル端末101の制御部16と、サーバ102の制御部33と、保守支援者側端末103とのうちのいずれか2つによって、文字認識処理、判定処理、及び画像表示処理が実行されてもよいし、ウェアラブル端末101の制御部16、サーバ102の制御部33、及び保守支援者側端末103によって文字認識処理、判定処理、及び画像表示処理が実行されてもよい。
 また、図1~図12を参照して説明した実施形態において、ディスプレイ2は透過型であったが、ディスプレイ2は非透過型であってもよい。この場合、ディスプレイ2は、有機EL(Electro Luminescence)ディスプレイ又は液晶ディスプレイを有してもよい。ディスプレイ2が非透過型である場合、ディスプレイ2は、第1撮像部6によって撮像されている映像を表示してもよい。あるいは、ディスプレイ2は、第2撮像部7a及び第3撮像部7bによって撮像されている映像から生成される立体映像を表示してもよい。例えば、ウェアラブル端末101の制御部16が、第2撮像部7a及び第3撮像部7bから受信した映像に基づいて立体映像を生成して、その生成した立体映像をディスプレイ2に表示させてもよい。
 また、図1~図12を参照して説明した実施形態において、ウェアラブル端末101は保守作業者105に対して複合現実(MR)を提供したが、ウェアラブル端末101は、保守作業者105に対して拡張現実(Augmented Reality;AR)を提供してもよいし、仮想現実(Virtual Rreality;VR)を提供してもよい。
 また、図1~図12を参照して説明した実施形態において用力設備は給電設備300であったが、用力設備は給電設備300に限定されない。用力設備は、基板処理装置200に用力を供給する設備であればよい。
 例えば、用力設備は、処理液供給設備であってもよい。処理液供給設備は、基板処理装置200に処理液を供給する。この場合、基板処理装置200は、処理液供給設備から供給される処理液を用いて基板を処理する。
 処理液供給設備は、例えば、基板処理装置200に純水を供給する設備と、薬液キャビネットとを含んでもよい。薬液キャビネットは、基板処理装置200に薬液を供給する。
 給電設備300の場合と同様に、処理液供給設備の場合も、ウェアラブル端末101のディスプレイ2にオーバーレイ画像400を表示させることで、保守対象の基板処理装置200に対応していない処理液供給設備の操作部が誤操作されることを抑制できる。したがって、稼動中の基板処理装置200への処理液の供給が誤って中断されることを抑制できる。なお、処理液供給設備の操作部は、例えば、処理液供給設備の稼働開始と稼動停止とを指示するオンオフボタンであってもよい。
 また、用力設備は、気体供給設備であってもよい。気体供給設備は、基板処理装置200に気体を供給する。気体は、例えば、窒素ガスのような不活性ガスである。この場合、基板処理装置200は、例えば、不活性ガスの雰囲気下で基板を処理してもよい。
 給電設備300の場合と同様に、気体供給設備の場合も、ウェアラブル端末101のディスプレイ2にオーバーレイ画像400を表示させることで、保守対象の基板処理装置200に対応していない気体供給設備の操作部が誤操作されることを抑制できる。したがって、稼動中の基板処理装置200への気体の供給が誤って中断されることを抑制できる。なお、気体供給設備の操作部は、例えば、気体供給設備の稼働開始と稼動停止とを指示するオンオフボタンであってもよい。
 また、図1~図12を参照して説明した実施形態において、ウェアラブル端末101は眼鏡型のウェアラブル端末であったが、ウェアラブル端末101は、眼鏡型に限定されない。ウェアラブル端末101は、第2識別子311が第1識別子211に対応するか否かを示す画像400を表示できる端末であればよい。例えば、ウェアラブル端末101は、腕時計型、リストバンド型、クリップ型、又は指輪型であってもよい。
 また、図1~図12を参照して説明した実施形態において、保守支援システム100はウェアラブル端末101を備えたが、携帯型端末はウェアラブル端末101に限定されない。携帯型端末は、第2識別子311が第1識別子211に対応するか否かを示す画像400を表示できる端末であればよい。例えば、携帯型端末は、タブレット型のコンピュータ、ラップトップ型のコンピュータ、又はスマートフォンであってもよい。
 本発明は、基板処理装置の保守作業に有用である。
2    :ディスプレイ
6    :第1撮像部
7a   :第2撮像部
7b   :第3撮像部
15   :記憶部
16   :制御部
32   :記憶部
33   :制御部
100  :保守支援システム
101  :ウェアラブル端末
102  :サーバ
103  :保守支援者側端末
200  :基板処理装置
201  :第1基板処理装置
202  :第2基板処理装置
203  :第3基板処理装置
211  :第1識別子
211a :第1識別子
211b :第1識別子
211c :第1識別子
300  :給電設備
301  :第1給電設備
302  :第2給電設備
303  :第3給電設備
305  :ブレーカ
311  :第2識別子
311a :第2識別子
311b :第2識別子
311c :第2識別子
400  :画像
400  :オーバーレイ画像
401  :マスク画像
401  :第1マスク画像
402  :第2マスク画像
403  :図形画像

Claims (6)

  1.  携帯型端末の撮像部により、複数の基板処理装置のうちの一の基板処理装置に予め付与されている第1識別子を撮像して、前記第1識別子を示す第1撮像画像を保存する第1保存工程と、
     前記携帯型端末の撮像部により、複数の用力設備のうちの一の用力設備に予め付与されている第2識別子を撮像して、前記第2識別子を示す第2撮像画像を保存する第2保存工程と、
     前記第2識別子が前記第1識別子に対応するか否かを判定する判定工程と、
     前記携帯型端末の表示部に、前記第2識別子が前記第1識別子に対応するか否かを示す画像を表示させる表示工程と
     を包含する、保守支援方法。
  2.  前記判定工程において前記第2識別子が前記第1識別子に対応しないと判定された場合に、前記表示工程が行われる、請求項1に記載の保守支援方法。
  3.  前記第2識別子が前記第1識別子に対応するか否かを示す画像は、マスク画像を含む、請求項2に記載の保守支援方法。
  4.  前記複数の用力設備はそれぞれ操作部を含み、
     前記表示工程において、前記一の用力設備の前記操作部に重ねて前記マスク画像が表示される、請求項3に記載の保守支援方法。
  5.  撮像部及び表示部を有する携帯型端末と、
     前記表示部に画像を表示させる制御部と
     を備え、
     前記撮像部は、複数の基板処理装置のうちの一の基板処理装置に予め付与されている第1識別子と、複数の用力設備のうちの一の用力設備に予め付与されている第2識別子とを撮像し、
     前記制御部は、
     前記第2識別子が前記第1識別子に対応するか否かを判定し、
     前記表示部に、前記第2識別子が前記第1識別子に対応するか否かを示す画像を表示させる、保守支援システム。
  6.  前記携帯型端末は、前記制御部を有する、請求項5に記載の保守支援システム。
PCT/JP2023/044854 2022-12-28 2023-12-14 保守支援方法、及び保守支援システム Ceased WO2024142972A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202380089926.XA CN120435857A (zh) 2022-12-28 2023-12-14 维护辅助方法以及维护辅助系统
KR1020257022013A KR20250120323A (ko) 2022-12-28 2023-12-14 보수 지원 방법, 및 보수 지원 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-212247 2022-12-28
JP2022212247A JP2024095165A (ja) 2022-12-28 2022-12-28 保守支援方法、及び保守支援システム

Publications (1)

Publication Number Publication Date
WO2024142972A1 true WO2024142972A1 (ja) 2024-07-04

Family

ID=91717339

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/044854 Ceased WO2024142972A1 (ja) 2022-12-28 2023-12-14 保守支援方法、及び保守支援システム

Country Status (5)

Country Link
JP (1) JP2024095165A (ja)
KR (1) KR20250120323A (ja)
CN (1) CN120435857A (ja)
TW (1) TW202441668A (ja)
WO (1) WO2024142972A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212223A (ja) * 2011-03-30 2012-11-01 Nakayo Telecommun Inc 情報配信装置および情報配信方法
JP2014086940A (ja) * 2012-10-25 2014-05-12 Canon Inc 電子機器及びその制御方法
WO2018167843A1 (ja) * 2017-03-14 2018-09-20 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2019175163A (ja) * 2018-03-28 2019-10-10 Kddi株式会社 収容設備管理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748005B2 (ja) 2006-09-08 2011-08-17 東京エレクトロン株式会社 液処理装置、液処理方法及び記憶媒体。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212223A (ja) * 2011-03-30 2012-11-01 Nakayo Telecommun Inc 情報配信装置および情報配信方法
JP2014086940A (ja) * 2012-10-25 2014-05-12 Canon Inc 電子機器及びその制御方法
WO2018167843A1 (ja) * 2017-03-14 2018-09-20 日本電気株式会社 情報処理装置、情報処理システム、制御方法、及びプログラム
JP2019175163A (ja) * 2018-03-28 2019-10-10 Kddi株式会社 収容設備管理装置

Also Published As

Publication number Publication date
CN120435857A (zh) 2025-08-05
TW202441668A (zh) 2024-10-16
JP2024095165A (ja) 2024-07-10
KR20250120323A (ko) 2025-08-08

Similar Documents

Publication Publication Date Title
US20220124295A1 (en) Marker-based guided ar experience
WO2022066578A1 (en) Touchless photo capture in response to detected hand gestures
WO2022005693A1 (en) Augmented reality experiences using speech and text captions
KR20230017849A (ko) 증강 현실 안내
CN115735150A (zh) 增强现实眼戴器与3d服装
KR20230029885A (ko) 말 풍선들 및 번역을 갖는 증강 현실 안경류
EP4157474A1 (en) Interactive augmented reality experiences using positional tracking
EP4172708B1 (en) Visual-inertial tracking using rolling shutter cameras
US20200322506A1 (en) Image processing system, non-transitory recording medium, and image processing method
JP2015114818A (ja) 情報処理装置、情報処理方法及びプログラム
US11393177B2 (en) Information processing apparatus, information processing method, and program
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
JP2019164420A (ja) 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20230237696A1 (en) Display control apparatus, display control method, and recording medium
EP4172739A1 (en) Eyewear with shared gaze-responsive viewing
JP7611385B2 (ja) ウェアラブルデバイスを用いた制御可能デバイスの位置の特定
CN116324579A (zh) 使用虚拟眼戴器光束的增强现实游戏
WO2024142972A1 (ja) 保守支援方法、及び保守支援システム
WO2021237952A1 (zh) 一种增强现实的显示系统及方法
JP7000935B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
EP4364396B1 (en) Augmented reality eyewear with x-ray effect
CN119817087A (zh) 使用移动设备取向传感器控制iot设备的虚拟ar界面
US11854444B2 (en) Display device and display method
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23911753

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202380089926.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020257022013

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 202380089926.X

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020257022013

Country of ref document: KR