WO2024247250A1 - Robot system and robot teaching method - Google Patents
Robot system and robot teaching method Download PDFInfo
- Publication number
- WO2024247250A1 WO2024247250A1 PCT/JP2023/020612 JP2023020612W WO2024247250A1 WO 2024247250 A1 WO2024247250 A1 WO 2024247250A1 JP 2023020612 W JP2023020612 W JP 2023020612W WO 2024247250 A1 WO2024247250 A1 WO 2024247250A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- teaching point
- workpiece
- unit
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
Definitions
- This invention relates to a technology that teaches a robot where to work based on teaching points shown on a workpiece by shining light onto the workpiece.
- Patent Document 1 describes a technology that captures an image of a position indicated by a worker's fingertip or the like, acquires the image, and instructs a robot based on this image.
- Patent Document 2 describes a technology that identifies the position of an object to be operated in an image including the object to be operated captured by a two-dimensional image sensor, and instructs a robot based on the identified position.
- Patent Document 3 describes a technology that uses a laser sensor to detect the working position on the work line of a workpiece, and generates teaching points for a robot.
- a teaching point By the way, by shining light on the workpiece with a laser pointer or the like, a teaching point can be indicated on the workpiece, and based on the results of recognizing this teaching point with a camera or the like, the teaching point can be taught to a robot. Also, a worker can confirm the teaching point by visually checking the light shining on the workpiece. However, depending on the composition of the workpiece (e.g., color or material), it may be difficult for the camera to recognize the light shining on the workpiece, or for the worker to visually check it.
- This invention was developed in consideration of the above problems, and aims to enable appropriate responses to differences in the configuration of a workpiece when indicating teaching points on the workpiece by shining light onto the workpiece.
- the robot system includes a robot, a light irradiation unit that irradiates a workpiece with teaching point indicating light that indicates a teaching point for the robot, a teaching point recognition unit that recognizes the position of the teaching point indicating light irradiated on the workpiece as a teaching point, a light detection unit that detects light reflected by the workpiece, and a control unit that controls at least one of the light irradiation unit and the teaching point recognition unit based on the detection result of the light detection unit.
- the robot teaching method of the present invention includes the steps of irradiating a workpiece with teaching point indicating light, which is light that indicates a teaching point for the robot, from a light irradiating unit, detecting the light reflected by the workpiece with a light detecting unit, controlling at least one of the light irradiating unit and the teaching point recognizing unit based on the detection result of the light detecting unit, and recognizing the position of the teaching point indicating light irradiated onto the workpiece as a teaching point by the teaching point recognizing unit.
- teaching point indicating light which is light that indicates a teaching point for the robot
- the light irradiation unit irradiates the workpiece with teaching point indication light that indicates a teaching point for the robot, and the teaching point recognition unit recognizes the position of the teaching point indication light irradiated on the workpiece as the teaching point.
- a light detection unit is provided that detects light reflected by the workpiece, and at least one of the light irradiation unit and the teaching point recognition unit is controlled based on the detection result of the light detection unit.
- the control unit may also configure the robot system so that the conditions for irradiating the light irradiation unit with teaching point indicating light and causing the teaching point recognition unit to recognize the teaching point are adjusted based on the light detected by the light detection unit.
- the control unit may also configure the robot system so that the conditions for irradiating the light irradiation unit with teaching point indicating light and causing the teaching point recognition unit to recognize the teaching point are adjusted based on the light detected by the light detection unit.
- it becomes possible to perform an operation such as irradiating a workpiece with light indicating a teaching point and recognizing the teaching point under appropriate conditions according to the configuration of the workpiece.
- the teaching point irradiated onto the workpiece can be reliably recognized regardless of the configuration of the workpiece.
- the robot system may be configured such that the light detection unit detects the first light reflected from a position on the workpiece where the teaching point indication light is irradiated and the second light reflected from a position on the workpiece where the teaching point indication light is not irradiated, and the control unit adjusts the conditions for irradiating the light irradiating unit with the teaching point indication light to cause the teaching point recognition unit to recognize the teaching point based on the first light and the second light detected by the light detection unit.
- the first light reflected from a position on the workpiece where the light indicating the teaching point is irradiated and the second light reflected from a position on the workpiece where the light indicating the teaching point is not irradiated are detected.
- the conditions for irradiating the light irradiating unit with the light indicating the teaching point to cause the teaching point recognition unit to recognize the teaching point are adjusted based on the first light and the second light. Therefore, an operation of irradiating the workpiece with the light indicating the teaching point and recognizing the teaching point can be performed under appropriate conditions according to the configuration of the workpiece. As a result, it becomes possible to reliably recognize the teaching point irradiated on the workpiece regardless of the configuration of the workpiece.
- the robot system may be configured so that when the light irradiation unit is irradiating the workpiece with teaching point indication light, the light detection unit detects light reflected from the teaching point as the first light, and detects light reflected from a position different from the teaching point as the second light.
- the robot system may be configured so that when the light irradiation unit is irradiating the workpiece with teaching point indication light, the light detection unit detects light reflected from the teaching point as the first light, and when the light irradiation unit is not irradiating the workpiece with teaching point indication light, the light detection unit detects light reflected from the workpiece as the second light.
- the robot system may also be configured so that the teaching point recognition unit captures an image of the workpiece and recognizes the teaching points shown in the image, and the control unit adjusts the conditions for the teaching point recognition unit to recognize the teaching points.
- the teaching point recognition unit can recognize the teaching points under appropriate conditions according to the configuration of the workpiece.
- the robot system may also be configured so that the teaching point recognition unit recognizes teaching points shown in the image by binarizing the image with a predetermined threshold value, and the control unit adjusts the threshold value.
- the teaching point recognition unit can perform binarization of the image to recognize the teaching points with an appropriate threshold value according to the configuration of the workpiece.
- the control unit may also configure the robot system so that it adjusts the conditions under which the light irradiation unit irradiates the workpiece with light.
- the light irradiation unit can irradiate the workpiece with light under appropriate conditions according to the configuration of the workpiece.
- the control unit may also configure the robot system so that it adjusts the wavelength of the light that the light irradiation unit irradiates onto the workpiece.
- the light irradiation unit can irradiate the workpiece with light at an appropriate wavelength according to the configuration of the workpiece.
- the robot system may also be configured so that the control unit adjusts the wavelength of the light that the light irradiation unit irradiates onto the workpiece based on the RGB values indicated by the results of light detection by the light detection unit.
- the light irradiation unit can irradiate the workpiece with light at an appropriate wavelength according to the configuration of the workpiece.
- the control unit may also configure the robot system so that the wavelength of the light irradiated by the light irradiating unit onto the workpiece is adjusted based on the hue, brightness, or saturation of the light detected by the light detection unit.
- the light irradiating unit can irradiate the workpiece with light at an appropriate wavelength according to the configuration of the workpiece.
- the robot system may also be configured so that the light irradiation unit irradiates the workpiece with recognition light, which is light for the teaching point recognition unit to recognize the teaching point, and visibility light, which is light for the worker to visually recognize the teaching point, and the recognition light and visibility light have different wavelengths.
- recognition light which is light for the teaching point recognition unit to recognize the teaching point
- visibility light which is light for the worker to visually recognize the teaching point
- the recognition light and visibility light have different wavelengths.
- the teaching point recognition unit can reliably recognize the teaching point indicated by the recognition light, and the worker can reliably visually recognize the teaching point indicated by the visibility light.
- the control unit may also configure the robot system so that the conditions under which the light irradiation unit irradiates the workpiece with visible light are adjusted based on the detection results of the light detection unit. In this configuration, light that is easily recognizable by the worker can be irradiated as visible light onto the workpiece, depending on the configuration of the workpiece.
- the robot system may also be configured so that the light detection unit detects light reflected from a position on the workpiece adjacent to the teaching point as the second light.
- an operation such as irradiating the workpiece with light indicating the teaching point and recognizing the teaching point can be performed under appropriate conditions according to the configuration of the workpiece at the position adjacent to the teaching point. As a result, it becomes possible to reliably recognize the teaching point irradiated on the workpiece regardless of the configuration of the workpiece.
- the robot system may also be configured to further include a housing that positions the light irradiation unit and the light detection unit relative to each other and holds them together. In this configuration, the light reflected from the workpiece can be reliably detected by the light detection unit.
- the robot system may also be configured to further include a communication unit held in the housing that transmits the results of the light detection by the light detection unit to the control unit.
- the worker can carry around the housing that holds the light irradiation unit and the light detection unit separately from the control unit to perform the work.
- the robot system may also be configured to further include an optical element that is held in the housing so as to be positioned between the workpiece and the light irradiation unit and controls the passage of light, the light irradiated from the light irradiation unit passes through the optical element and is irradiated onto a teaching point on the workpiece, the light reflected by the workpiece is reflected by the optical element toward the light detection unit, and the light detection unit detects the light reflected by the optical element.
- the light reflected from the workpiece can be reliably detected by the light detection unit.
- the control unit may also configure the robot system so that the light irradiation unit irradiates light having a pattern that corresponds to the work location where the robot is to work. In this configuration, light having an appropriate pattern can be irradiated onto the teaching point to accurately teach the workpiece the operation to be performed.
- the robot system may also be configured to further include an angle detector that detects the angle at which the light irradiation unit irradiates light, and the teaching point recognition unit captures an image including the position of the teaching point estimated based on the angle detected by the angle detector, and recognizes the teaching point based on the image.
- an image of the teaching point can be reliably captured and the teaching point can be recognized.
- the present invention when indicating teaching points on a workpiece by shining light onto the workpiece, it is possible to respond appropriately to differences in the configuration of the workpiece.
- FIG. 1 is a diagram illustrating a first example of a robot system according to the present invention.
- FIG. 4 is a plan view illustrating a field of view of an adjustment camera.
- 10 is a flowchart showing an example of robot control executed by an information processing device.
- 4 is a flowchart showing a first example of parameter optimization executed in the robot control of FIG. 3 .
- FIG. 5 is a diagram illustrating an example of a calculation executed according to the flowchart of FIG. 4 .
- 4 is a flowchart showing a second example of parameter optimization executed in the robot control of FIG. 3 .
- 13 is a flowchart showing a modified example of teaching point recognition.
- FIG. 11 is a diagram illustrating a second example of a robot system according to the present invention.
- FIG. 10 is a flowchart showing a third example of parameter optimization executed in the robot control of FIG. 3 .
- 11 is a diagram showing an example of teaching point indication control using a pointer light for recognition and a pointer light for visibility.
- FIG. FIG. 2 is a diagram showing a schematic diagram of the configuration of a working area of a robot and the relationship between the pointer light.
- 1A and 1B are diagrams illustrating a method for recognizing teaching points in three dimensions.
- FIG. 1 is a diagram showing a schematic diagram of a first example of a robot system according to the present invention.
- the robot system 1 includes a robot 2 that performs work on a workpiece 9, a recognition camera 3 that is used to recognize the workpiece 9, a teaching point designation terminal 4 that indicates a teaching point Pt to the robot 2, and an information processing device 5 that controls the robot 2, the recognition camera 3, and the teaching point designation terminal 4.
- the robot 2 comprises a robot arm 21 and an end effector 23 attached to the tip 211 of the robot arm 21.
- the robot arm 21 has a number of rotatable joints 212, and the tip 211 of the robot arm 21 moves in response to the rotation of the joints 212, thereby moving the end effector 23.
- Various specific configurations of the end effector 23 are assumed depending on the work to be performed by the robot 2.
- work performed by the end effector 23 may include gripping, suction, welding, screwing, or polishing an object.
- the recognition camera 3 is attached to the robot arm 21 of the robot 2, and moves along with the robot arm 21, which is displaced in response to the rotation of the joint 212.
- the recognition camera 3 captures an image of the workpiece 9 using a solid-state image sensor, thereby acquiring recognition image data D3 indicative of the workpiece 9.
- the teaching point indication terminal 4 includes a housing 41, a laser pointer 42, a half mirror 43, an adjustment camera 44, an operation button 45, a communication unit 46, and a control unit 47.
- the laser pointer 42, the half mirror 43, the adjustment camera 44, the communication unit 46, and the control unit 47 are housed in the housing 41.
- the housing 41 holds the laser pointer 42, the half mirror 43, the adjustment camera 44, the communication unit 46, and the control unit 47 while positioning them relative to one another. Note that in FIG. 1, the inside of the housing 41 is shown in order to show these.
- the operator can carry the teaching point indication terminal 4 by grasping the housing 41.
- the teaching point indication terminal 4 is a portable terminal.
- the operation button 45 is attached to the outside of the housing 41, and the operator can operate the operation button 45.
- the operation button 45 includes a light button for turning on the laser pointer 42 and a start button for instructing the start of robot control, which will be described later.
- the laser pointer 42 emits pointer light Lp, which is laser light having a predetermined cross-sectional shape (e.g., a circle).
- the pointer light Lp emitted from the laser pointer 42 is irradiated onto the workpiece 9 from the front end 411 of the housing 41.
- the point on the workpiece 9 facing the laser pointer 42 becomes the teaching point Pt. Therefore, the pointer light Lp emitted from the laser pointer 42 is irradiated onto the teaching point Pt on the workpiece 9.
- the half mirror 43 is disposed between the laser pointer 42 and the front end 411 of the housing 41, and the pointer light Lp emitted from the laser pointer 42 passes through the half mirror 43 before being irradiated onto the workpiece 9.
- the half mirror 43 allows the passage of the pointer light Lp from the laser pointer 42 toward the front end 411 of the housing 41.
- the half mirror 43 reflects the reflected light Lr that is reflected by the workpiece 9 and enters from the front end 411 toward the adjustment camera 44.
- the adjustment camera 44 obtains adjustment image data D44 showing the workpiece 9 by capturing reflected light Lr from the workpiece 9 with a solid-state image sensor.
- the adjustment camera 44 has a field of view as shown in FIG. 2.
- FIG. 2 is a plan view showing the field of view of the adjustment camera. That is, the teaching point designation terminal 4 is held in the housing 41 in a state positioned relative to the laser pointer 42 so as to capture an image of the teaching point Pt and the vicinity of the teaching point Pt (the teaching point vicinity Pn) (FIG. 4).
- the teaching point vicinity Pn is a range that surrounds and is adjacent to the teaching point Pt.
- the adjustment camera 44 captures the reflected light Lrt from the teaching point Pt and the reflected light Lrn from the teaching point vicinity Pn to obtain the adjustment image data D44, and this adjustment image data D44 includes images of the teaching point Pt and the teaching point vicinity Pn on the workpiece 9.
- the communication unit 46 wirelessly communicates with the information processing device 5. This communication unit 46 transmits the adjustment image data D44 acquired by the adjustment camera 44 to the information processing device 5, and receives commands from the information processing device 5.
- the control unit 47 is, for example, a processor.
- the laser pointer 42 irradiates the workpiece 9 with pointer light Lp under the control of the control unit 47.
- the adjustment camera 44 acquires adjustment image data D44 under the control of the control unit 47.
- the communication unit 46 communicates with the information processing device 5 under the control of the control unit 47.
- the control unit 47 controls the irradiation of the pointer light Lp from the laser pointer 42 and the acquisition of adjustment image data D44 by the adjustment camera 44 according to the result of confirming the operation of the operation button 45 by the worker.
- the control unit 47 transmits the pressing of the operation button 45 by the worker to the information processing device 5 via the communication unit 46.
- the information processing device 5 is a computer and includes a robot control unit 51, a camera communication unit 52, a portable terminal communication unit 53, a recognition image processing unit 54, a recognition parameter adjustment unit 55, an adjustment image processing unit 56, and a pointer parameter adjustment unit 57. These functional units 51 to 57 can be constructed in a processor, for example, by the processor executing specified software.
- the robot control unit 51 controls the robot 2 to cause the robot 2 to perform a predetermined task.
- the camera communication unit 52 communicates with the recognition camera 3 via a wired connection and receives recognition image data D3 acquired by the recognition camera 3.
- the portable terminal communication unit 53 communicates wirelessly with the communication unit 46 of the teaching point indication terminal 4 to send requests to the teaching point indication terminal 4 to the communication unit 46 and receive responses from the teaching point indication terminal 4 from the communication unit 46.
- the portable terminal communication unit 53 also receives adjustment image data D44 acquired by the adjustment camera 44 from the communication unit 46.
- the recognition image processing unit 54 performs image processing on the recognition image data D3 received by the camera communication unit 52, and recognizes the teaching point Pt based on the recognition image data D3.
- the recognition parameter adjustment unit 55 adjusts the recognition parameters used by the recognition image processing unit 54 to recognize the teaching point Pt.
- the adjustment image processing unit 56 performs image processing on the adjustment image data D44 received by the portable terminal communication unit 53.
- the pointer parameter adjustment unit 57 adjusts the pointer parameters that control the pointer light Lp that the teaching point indication terminal 4 irradiates onto the workpiece 9, based on the results of the image processing by the adjustment image processing unit 56.
- the operations of the adjustment image processing unit 56 and the pointer parameter adjustment unit 57 will be described in detail later.
- FIG. 3 is a flowchart showing an example of robot control executed by the information processing device
- FIG. 4 is a flowchart showing a first example of parameter optimization executed in the robot control of FIG. 3
- FIG. 5 is a diagram showing a schematic diagram of an example of calculation executed according to the flowchart of FIG. 4. The flowcharts of FIG. 3 and FIG. 4 are executed based on the control of the information processing device 5.
- This parameter optimization is a process for optimizing the recognition parameters (binarization threshold) and pointer parameters (color of the pointer light Lp).
- step S201 of parameter optimization the portable terminal communication unit 53 acquires adjustment image data D44 (RGB values) acquired by the adjustment camera 44 capturing an image of reflected light Lr from the workpiece 9 from the teaching point indication terminal 4 (step S201).
- This adjustment image data D44 includes images of the teaching point Pt and the teaching point vicinity Pn of the teaching point Pt (FIG. 5). Note that in step S201, the laser pointer 42 is not lit, and the pointer light Lp is not irradiated onto the teaching point Pt.
- the adjustment image processing unit 56 acquires the RGB values in the teaching point vicinity Pn indicated by the adjustment image data D44.
- step S202 the pointer parameter adjustment unit 57 calculates the average values of the RGB values. Specifically, the average value of the R (red) gradation value indicated by each pixel included in the teaching point neighborhood Pn in the adjustment image data D44 is calculated. A similar calculation is performed for G (green) and B (blue) to obtain the average value Ar of R, the average value Ag of G, and the average value Ab of B in the teaching point neighborhood Pn. In step S203, the pointer parameter adjustment unit 57 sets these average values Ar, Ag, and Ab as parameter A of the RGB adjustment function described later.
- step S204 the pointer parameter adjustment unit 57 transmits a command to turn on the laser pointer 42 to the teaching point designating terminal 4 via the portable terminal communication unit 53.
- the control unit 47 of the teaching point designating terminal 4 turns on the laser pointer 42 in response to the turn-on command. This causes the pointer light Lp to be irradiated onto the teaching point Pt on the workpiece 9.
- the lighting command also includes a command to change the color of the pointer light Lp between R, G, and B.
- the control unit 47 of the teaching point designating terminal 4 starts changing the color of the pointer light Lp.
- the color of the pointer light Lp irradiated to the teaching point Pt changes, for example, in the order of R, G, and B (step S205).
- step S206 the pointer parameter adjustment unit 57 acquires the adjustment image data D44 (RGB values) output by the adjustment camera 44 from the teaching point indication terminal 4 via the portable terminal communication unit 53. Specifically, the adjustment image data D44 (R) acquired by the adjustment camera 44 during the period when the red (R) pointer light Lp (R) is irradiated, the adjustment image data D44 (G) acquired by the adjustment camera 44 during the period when the green (G) pointer light Lp (G) is irradiated, and the adjustment image data D44 (B) acquired by the adjustment camera 44 during the period when the blue (B) pointer light Lp (B) is irradiated are acquired.
- the adjustment image data D44 (R) acquired by the adjustment camera 44 during the period when the red (R) pointer light Lp (R) is irradiated the adjustment image data D44 (G) acquired by the adjustment camera 44 during the period when the green (G) pointer light Lp (G) is irradiated
- step S207 the adjustment image processing unit 56 calculates the output value Vo of the RGB adjustment function as follows.
- the average value Ar of R is set as the parameter A
- the average value Ag of G is set as the parameter A
- the average value Ab of B is set as the parameter A.
- the output value Vo of the RGB adjustment function is calculated using the RGB values indicated by the adjustment image data D44(R) as the input values Vi, and the adjustment image data D44(R) is converted.
- the output value Vo of the RGB adjustment function is calculated using the RGB values indicated by the adjustment image data D44(G) as the input values Vi, and the adjustment image data D44(G) is converted, and the output value Vo of the RGB adjustment function is calculated using the RGB values indicated by the adjustment image data D44(B) as the input values Vi, and the adjustment image data D44(B) is converted.
- step S208 the adjustment image processing unit 56 acquires the RGB values at the teaching point Pt and the RGB values at the vicinity of the teaching point Pn contained in the converted adjustment image data D44. Acquisition of these RGB values is performed for each color of adjustment image data D44(R), D44(G), and D44(B).
- the acquired RGB value may be the value of a specific pixel, or may be the average value of the values of each pixel contained in the target range (teaching point Pt and vicinity of teaching point Pn).
- step S209 the adjustment image processing unit 56 calculates the difference between the RGB values at the teaching point Pt and the RGB values near the teaching point Pn as an evaluation value.
- the evaluation value calculated based on the converted adjustment image data D44(R) needs to be calculated only for red (R), which is the color of the pointer light Lp irradiated to the teaching point Pt to acquire the adjustment image data D44(R).
- step S210 the pointer parameter adjustment unit 57 sets the color of the pointer light Lp to the color among R, G, and B that has the maximum evaluation value.
- the color of the pointer light Lp is set to blue (B).
- the recognition parameter adjustment unit 55 sets the threshold (recognition parameter) that the recognition image processing unit 54 uses to binarize the recognition image data D3 based on the RGB values acquired in step S208.
- the threshold is set to a value between the value (255) at the teaching point Pt and the value (10) near the teaching point Pn indicated by the adjustment image data D44 (after conversion) acquired for the color (B) of the pointer light Lp set in step S210.
- the threshold may be the average value of the value (255) at the teaching point Pt and the value (10) near the teaching point Pn, or a value that is a predetermined value larger or smaller than the average value.
- optimal thresholds for combinations of the values at the teaching point Pt and the values near the teaching point Pn may be stored in a lookup table, and the threshold may be set based on this lookup table.
- step S104 in FIG. 3 is executed.
- the camera communication unit 52 acquires from the recognition camera 3 the recognition image data D3 including the teaching point Pt on the workpiece 9 illuminated with the pointer light Lp (B) of the color (B) set in step S210.
- the recognition image processing unit 54 binarizes the recognition image data D3 acquired in step S104 using the threshold value set in step S211 (step S105), and recognizes the teaching point Pt based on the binarized recognition image data D3 (step S106).
- the robot control unit 51 moves the end effector 23 toward the position of the teaching point Pt recognized by the recognition image processing unit 54.
- the laser pointer 42 (light irradiation unit) irradiates the workpiece 9 with pointer light Lp (teaching point indication light) indicating a teaching point Pt for the robot 2, and the recognition camera 3 and the recognition image processing unit 54 (teaching point recognition unit) recognize the position of the pointer light Lp irradiated on the workpiece 9 as the teaching point Pt.
- an adjustment camera 44 (light detection unit) is provided to detect reflected light Lr reflected by the workpiece 9, and at least one of the laser pointer 42 and the recognition image processing unit 54 is controlled based on the detection result of the adjustment camera 44 (parameter optimization).
- the pointer parameter adjustment unit 57 (control unit) also adjusts the conditions (recognition parameters/pointer parameters) for irradiating the laser pointer 42 with the pointer light Lp and causing the recognition image processing unit 54 to recognize the teaching point Pt, based on the reflected light Lr detected by the adjustment camera 44 (parameter optimization).
- the reflected light Lrt (first light) reflected from the teaching point Pt on the work 9 where the pointer light Lp is irradiated, and the reflected light Lrn (second light) reflected from the vicinity of the teaching point Pn on the work 9 where the pointer light Lp is not irradiated are detected (step S206).
- the conditions (recognition parameters and pointer parameters) for irradiating the laser pointer 42 (light irradiation unit) with the pointer light Lp and causing the recognition image processing unit 54 (teaching point recognition unit) to recognize the teaching point Pt are adjusted based on the reflected light Lrt and Lrn (steps S207 to S210).
- the operation of irradiating the work 9 with the pointer light Lp indicating the teaching point Pt and recognizing the teaching point Pt can be performed under appropriate conditions according to the configuration of the work 9. As a result, it is possible to reliably recognize the teaching point Pt irradiated on the work 9 regardless of the configuration of the work 9.
- the recognition camera 3 (teaching point recognition unit) images the workpiece 9 to obtain recognition image data D3 (step S104), and the recognition image processing unit 54 (teaching point recognition unit) recognizes the teaching point Pt shown in the recognition image data D3 (steps S105-S106).
- the recognition parameter adjustment unit 55 (control unit) adjusts the threshold value (recognition parameter) for the recognition image processing unit 54 to recognize the teaching point Pt (step S211).
- the recognition image processing unit 54 can recognize the teaching point Pt with an appropriate threshold value according to the configuration of the workpiece 9.
- the recognition image processing unit 54 also recognizes the teaching point Pt shown in the recognition image data D3 by binarizing the recognition image data D3 with a predetermined threshold value (steps S105 to S106). In response to this, the recognition parameter adjustment unit 55 adjusts the threshold value (step S211). In this configuration, the recognition image processing unit 54 can binarize the recognition image data D3 to recognize the teaching point Pt with an appropriate threshold value according to the configuration of the workpiece 9.
- the pointer parameter adjustment unit 57 (control unit) also adjusts the color (pointer parameters) of the pointer light Lp that the laser pointer 42 irradiates on the workpiece 9 (steps S204 to S210).
- the laser pointer 42 can irradiate the pointer light Lp on the workpiece 9 with an appropriate color (wavelength) according to the configuration of the workpiece 9.
- the pointer parameter adjustment unit 57 also adjusts the color (wavelength of light) of the pointer light Lp that the laser pointer 42 irradiates on the workpiece 9 based on the RGB values indicated by the results (adjustment image data D44) of the reflected light Lrt and reflected light Lrn detected by the adjustment camera 44 (steps S204 to S210). With this configuration, the laser pointer 42 can irradiate the pointer light Lp on the workpiece 9 with an appropriate color (wavelength) according to the configuration of the workpiece 9.
- the adjustment camera 44 also detects reflected light Lrn reflected from a teaching point vicinity Pn adjacent to the teaching point Pt on the workpiece 9.
- an operation such as irradiating the workpiece 9 with pointer light Lp to recognize the teaching point Pt can be performed under appropriate conditions (recognition parameters, pointer parameters) according to the configuration of the workpiece 9 at a position adjacent to the teaching point Pt.
- recognition parameters pointer parameters
- a housing 41 that positions the laser pointer 42 and the adjustment camera 44 relative to each other and holds them together.
- the reflected light Lrt and reflected light Lrn reflected from the workpiece 9 can be reliably detected by the adjustment camera 44.
- only the reflected light Lr incident from the front end 411 (incident port) of the housing 41 reaches the adjustment camera 44, so that disturbing light is prevented from entering the adjustment camera 44.
- the teaching point indication terminal 4 is also provided with a communication unit 46 held in the housing 41.
- This communication unit 46 transmits the results of the reflected light Lrt and reflected light Lrn detected by the adjustment camera 44 (adjustment image data D44) to the portable terminal communication unit 53 (control unit).
- the worker can carry around the housing 41 that holds the laser pointer 42 and adjustment camera 44 separately from the information processing device 5 to perform work.
- a half mirror 43 (optical element) is provided, which is held in the housing 41 so as to be positioned between the workpiece 9 and the laser pointer 42 and controls the passage of light.
- the pointer light Lp emitted from the laser pointer 42 passes through the half mirror 43 and is irradiated onto the teaching point Pt of the workpiece 9, and the reflected light Lrt and reflected light Lrn reflected by the workpiece 9 are reflected by the half mirror 43 toward the adjustment camera 44.
- the adjustment camera 44 detects the reflected light Lrt and reflected light Lrn reflected by the half mirror 43. With this configuration, the reflected light Lrt and reflected light Lrn reflected from the workpiece 9 can be reliably detected by the adjustment camera 44.
- FIG. 6 is a flowchart showing a second example of parameter optimization executed by the robot control of FIG. 3. The flowchart of FIG. 6 is executed based on the control of the information processing device 5.
- step S301 the pointer parameter adjustment unit 57 transmits a lighting command to the teaching point designating terminal 4 via the portable terminal communication unit 53, and the control unit 47, which receives the lighting command via the communication unit 46, causes the laser pointer 42 to emit pointer light Lp of one color (e.g., R) out of R, G, and B. This causes the pointer light Lp to be irradiated onto the teaching point Pt of the workpiece 9.
- the control unit 47 which receives the lighting command via the communication unit 46, causes the laser pointer 42 to emit pointer light Lp of one color (e.g., R) out of R, G, and B. This causes the pointer light Lp to be irradiated onto the teaching point Pt of the workpiece 9.
- step S302 the pointer parameter adjustment unit 57 acquires adjustment image data D44 (RGB values) acquired by the adjustment camera 44 from the teaching point designation terminal 4 via the portable terminal communication unit 53.
- This adjustment image data D44 includes an image of the teaching point Pt irradiated with the pointer light Lp.
- step S303 the pointer parameter adjustment unit 57 transmits a light-off command to the teaching point designating terminal 4 via the portable terminal communication unit 53, and the control unit 47, which receives the light-off command via the communication unit 46, stops emitting the pointer light Lp to the laser pointer 42.
- the pointer light Lp is no longer irradiated onto the teaching point Pt of the workpiece 9.
- step S304 the pointer parameter adjustment unit 57 acquires adjustment image data D44 (RGB values) acquired by the adjustment camera 44 from the teaching point designation terminal 4 via the portable terminal communication unit 53.
- This adjustment image data D44 includes an image of the teaching point Pt where the pointer light Lp is not irradiated.
- step S305 the adjustment image processing unit 56 calculates an evaluation value given by the difference between the adjustment image data D44 acquired in step S302 and the adjustment image data D44 acquired in step S304.
- the evaluation value needs to be calculated only for the color of the pointer light Lp irradiated to the teaching point Pt to acquire the adjustment image data D44 in step S302.
- step S306 the pointer parameter adjustment unit 57 checks whether steps S301 to S305 have been executed for all the colors R, R, and G. If there is a color for which steps S301 to S305 have not been executed, the color is changed and steps S301 to S305 are executed. As a result, evaluation values are obtained for all the colors R, R, and G ("YES" in step S306).
- step S307 the pointer parameter adjustment unit 57 sets the color of the pointer light Lp to the color among R, G, and B that has the maximum evaluation value.
- the recognition parameter adjustment unit 55 sets a threshold value (recognition parameter) that the recognition image processing unit 54 uses to binarize the recognition image data D3 based on the RGB values acquired in steps S302 and S304. Specifically, for the color of the pointer light Lp set in step S307, a threshold value is set between the value at the teaching point Pt indicated by the adjustment image data D44 acquired in step S302 and the value at the teaching point Pt indicated by the adjustment image data D44 acquired in step S304. The specific method of setting the threshold value between the two values is the same as described above.
- the laser pointer 42 (light irradiation unit) irradiates the workpiece 9 with pointer light Lp (teaching point indication light) indicating a teaching point Pt for the robot 2, and the recognition camera 3 and the recognition image processing unit 54 (teaching point recognition unit) recognize the position of the pointer light Lp irradiated on the workpiece 9 as the teaching point Pt.
- an adjustment camera 44 (light detection unit) is provided to detect reflected light Lr reflected by the workpiece 9, and at least one of the laser pointer 42 and the recognition image processing unit 54 is controlled based on the detection result of the adjustment camera 44 (parameter optimization).
- the pointer parameter adjustment unit 57 (control unit) also adjusts the conditions (recognition parameters/pointer parameters) for irradiating the laser pointer 42 with the pointer light Lp and causing the recognition image processing unit 54 to recognize the teaching point Pt, based on the reflected light Lr detected by the adjustment camera 44 (parameter optimization).
- the reflected light Lrt (first light) reflected from the teaching point Pt on the work 9 where the pointer light Lp is irradiated and the reflected light Lrt (second light) reflected from the teaching point Pt on the work 9 where the pointer light Lp is not irradiated are detected (steps S302, S304). Then, the conditions (recognition parameters, pointer parameters) for irradiating the laser pointer 42 (light irradiation unit) with the pointer light Lp and causing the recognition image processing unit 54 (teaching point recognition unit) to recognize the teaching point Pt are adjusted based on the reflected light Lrt (steps S307, S308).
- the operation of irradiating the work 9 with the pointer light Lp indicating the teaching point Pt and recognizing the teaching point Pt can be performed under appropriate conditions according to the configuration of the work 9. As a result, it is possible to reliably recognize the teaching point Pt irradiated on the work 9 regardless of the configuration of the work 9.
- FIG. 7 is a flowchart showing a modified example of teaching point recognition. The flowchart in FIG. 7 is executed under the control of the information processing device 5.
- the control unit 47 causes the laser pointer 42 to emit pointer light Lp and transmits a light notification to the portable terminal communication unit 53 of the information processing device 5 via the communication unit 46.
- the portable terminal communication unit 53 receives the light notification ("YES" in step S401)
- the camera communication unit 52 causes the recognition camera 3 to capture an image of the workpiece 9 and acquires recognition image data D3 from the recognition camera 3.
- This recognition image data D3 includes an image of the teaching point Pt where the pointer light Lp is being irradiated.
- the control unit 47 causes the laser pointer 42 to stop emitting the pointer light Lp, and sends a light-off notification to the portable terminal communication unit 53 of the information processing device 5 via the communication unit 46.
- the portable terminal communication unit 53 receives the light-off notification ("YES" in step S403)
- the camera communication unit 52 causes the recognition camera 3 to capture an image of the workpiece 9, and acquires recognition image data D3 from the recognition camera 3.
- This recognition image data D3 includes an image of the teaching point Pt where the pointer light Lp is not irradiated.
- step S405 the recognition image processing unit 54 calculates the difference between the recognition image data D3 acquired in step S402 and the recognition image data D3 acquired in step S404 to acquire a difference image, and binarizes this difference image using a threshold value (step S405).
- step S405 the recognition image processing unit 54 recognizes the teaching point Pt based on the binarized difference image.
- FIG. 8 is a schematic diagram of a second example of a robot system according to the present invention.
- the difference from the first example in FIG. 1 is that the robot system 1 is provided with a terminal stand 6 that holds a teaching point indication terminal 4.
- the differences from the first example in FIG. 1 will be mainly explained, and common parts will be given the corresponding reference numerals and explanations will be omitted as appropriate.
- the terminal stand 6 has a stand body 61 and a holder 62 that detachably holds the teaching point indication terminal 4 relative to the stand body 61.
- the holder 62 is rotatable in two different angular directions ⁇ and ⁇ relative to the stand body 61.
- the terminal stand 6 also has an angle sensor 63 that detects the rotation angle of the holder 62, and transmits the rotation angle of the holder 62 detected by the angle sensor 63 to the information processing device 5.
- the rotation angle may be transmitted to the portable terminal communication unit 53 via the communication unit 46 of the teaching point indication terminal 4, or the rotation angle may be transmitted to the information processing device 5 by a communication means provided separately.
- This rotation angle indicates the rotation angle of the teaching point indication terminal 4 held by the holder 62, in other words, the direction in which the laser pointer 42 of the teaching point indication terminal 4 emits the pointer light Lp. Therefore, the position coordinates of the teaching point Pt can be estimated from this rotation angle.
- the robot control unit 51 estimates the position coordinates of the teaching point Pt based on the rotation angle of the holder 62 received from the terminal stand 6. Then, when the teaching point Pt is imaged by the recognition camera 3, the robot control unit 51 controls the robot arm 21 to face the recognition camera 3 to this position coordinate.
- an angle sensor 63 (angle detector) is provided that detects the angle at which the laser pointer 42 irradiates the pointer light Lp.
- the recognition camera 3 then captures an image including the position of the teaching point Pt estimated based on the angle detected by the angle sensor 63 to obtain recognition image data D3, and recognizes the teaching point Pt based on this recognition image data D3. With this configuration, it is possible to reliably capture an image of the teaching point Pt and recognize the teaching point Pt.
- FIG. 9 is a flowchart showing a third example of parameter optimization executed by the robot control of FIG. 3.
- the flowchart of FIG. 6 is executed based on the control of the information processing device 5.
- the recognition parameters (thresholds) are adjusted based on the RGB values indicated by the adjustment image data D44.
- the recognition parameters (thresholds) are adjusted based on the luminance indicated by the adjustment camera 44.
- step S501 the pointer parameter adjustment unit 57 transmits a lighting command to the teaching point designating terminal 4 via the portable terminal communication unit 53, and the control unit 47 of the teaching point designating terminal 4 causes the laser pointer 42 to emit pointer light Lp in response to the lighting command received by the communication unit 46.
- the pointer light Lp is irradiated onto the teaching point Pt of the workpiece 9.
- step S502 the portable terminal communication unit 53 acquires the adjustment image data D44 (brightness value) acquired by the adjustment camera 44 capturing an image of the reflected light Lr from the workpiece 9 from the teaching point designation terminal 4.
- step S503 the recognition parameter adjustment unit 55 acquires the brightness value at the teaching point Pt and the brightness value near the teaching point Pn indicated by the adjustment image data D44.
- the recognition parameter adjustment unit 55 sets the threshold (recognition parameter) that the recognition image processing unit 54 uses to binarize the recognition image data D3 based on the luminance value acquired in step S503.
- the threshold is set to a value between the luminance value at the teaching point Pt and the luminance value in the vicinity of the teaching point Pn indicated by the adjustment image data D44.
- the threshold may be the average value of the luminance value at the teaching point Pt and the luminance value in the vicinity of the teaching point Pn, or a value that is a predetermined value larger or smaller than the average value.
- the optimal threshold for the combination of the luminance value at the teaching point Pt and the luminance value in the vicinity of the teaching point Pn may be stored in a lookup table, and the threshold may be set based on this lookup table. Note that when the threshold is set based on the luminance value in this way, steps S104 to S106 of the robot control in FIG. 3 are executed based on the luminance value.
- the laser pointer 42 (light irradiation unit) irradiates the workpiece 9 with pointer light Lp (teaching point indication light) indicating a teaching point Pt for the robot 2, and the recognition camera 3 and the recognition image processing unit 54 (teaching point recognition unit) recognize the position of the pointer light Lp irradiated on the workpiece 9 as the teaching point Pt.
- an adjustment camera 44 (light detection unit) is provided to detect reflected light Lr reflected by the workpiece 9, and the recognition image processing unit 54 is controlled based on the detection result (adjustment image data D44) of the adjustment camera 44 (setting of the threshold value in step S504).
- the color of the pointer light Lp that is easily recognized when the pointer light Lp irradiated to the teaching point Pt is captured and recognized by the recognition camera 3 may be different from the color of the pointer light Lp that is easily recognized by an operator when visually checking the pointer light Lp irradiated to the teaching point Pt.
- recognition by the recognition camera 3 is based on brightness, a high-brightness white is advantageous, but if the color of the workpiece 9 is bright, it is difficult for an operator to see the white pointer light Lp. Therefore, the color of the pointer light Lp for the operator's viewing may be set to a color different from the pointer light Lp for recognition by the recognition camera 3.
- FIG. 10 is a diagram showing an example of teaching point indication control using a pointer light for recognition and a pointer light for visibility. The flowchart in FIG. 10 is executed under the control of the control unit 47 of the teaching point indication terminal 4.
- control unit 47 When the control unit 47 confirms that the operator has pressed the light button (operation button 45) (step S601), it causes the laser pointer 42 to emit pointer light Lp having a color for visibility (e.g., blue) for a predetermined time (e.g., 1 to 5 seconds) (step S602).
- a color for visibility e.g., blue
- a predetermined time e.g. 1 to 5 seconds
- step S603 the control unit 47 checks whether the light button has been pressed by the operator. If it is not possible to confirm that the light button has been pressed (if "NO" in step S603), the teaching point instruction control in FIG. 10 is terminated.
- step S603 if it is confirmed that the light button has been pressed (step S603: NO), the laser pointer 42 is caused to emit pointer light Lp having a color for recognition (e.g., white) for a predetermined time (e.g., 1 to 5 seconds) (step S604). The laser pointer 42 then returns to step S601).
- a color for recognition e.g., white
- a predetermined time e.g. 1 to 5 seconds
- the pointer light Lp of the color for visibility (blue) and the pointer light Lp of the color for recognition (white) are repeatedly irradiated onto the workpiece 9. Therefore, the worker can visually recognize the teaching point Pt by the pointer light Lp of the color for visibility, and the recognition camera 3 and the recognition image processing unit 54 can recognize the teaching point Pt by the pointer light Lp of the color for recognition.
- the laser pointer 42 (light irradiation unit) irradiates the workpiece 9 with pointer light Lp (recognition light) for the recognition camera 3 and the recognition image processing unit 54 (teaching point recognition unit) to recognize the teaching point Pt, and pointer light Lp (visualization light) for the worker to visually recognize the teaching point Pt.
- pointer light Lp for recognition and the pointer light Lp for visualization have different colors (wavelengths).
- the recognition camera 3 and the recognition image processing unit 54 can reliably recognize the teaching point Pt indicated by the recognition pointer light Lp, and the worker can reliably visually recognize the teaching point Pt indicated by the visual pointer light Lp.
- the color of the visual pointer light Lp may be adjusted by the method of adjusting the color of the pointer light Lp by parameter optimization in FIG. 4 or FIG. 6.
- the adjustment image processing unit 56 adjusts the conditions (color) for the laser pointer 42 to irradiate the visual pointer light Lp onto the workpiece 9 based on the detection results (adjustment image data D44) of the adjustment camera 44 (light detection unit) (steps S201 to S210, S301 to S307).
- the robot system 1 corresponds to an example of a "robot system” of the present invention
- the robot 2 corresponds to an example of a "robot” of the present invention
- the recognition camera 3 and the recognition image processing unit 54 function as an example of a "teaching point recognition unit” of the present invention
- the housing 41 corresponds to an example of a "housing” of the present invention
- the laser pointer 42 corresponds to an example of a "light irradiation unit” of the present invention
- the half mirror 43 corresponds to an example of an "optical element” of the present invention
- the adjustment camera 44 corresponds to an example of a "light detection unit” of the present invention
- at least one of the recognition parameter adjustment unit 55 and the pointer parameter adjustment unit 57 corresponds to a "control unit” of the present invention
- the angle sensor 63 corresponds to an example of an "angle detector” of the present invention
- the workpiece 9 corresponds to an example of a "workpiece” of the present invention
- the pointer light Lp may be controlled according to the configuration of the work area where the robot 2 works, as follows:
- FIG. 11 is a diagram showing a schematic diagram of the relationship between the configuration of the robot's working area and the pointer light.
- the pointer parameter adjustment unit 57 causes the laser pointer 42 to irradiate pointer light Lp having a circular cross section.
- the pointer parameter adjustment unit 57 causes the laser pointer 42 to emit pointer light Lp having a ring-shaped cross section.
- the recognition image processing unit 54 may fail to recognize the pointer light Lp. In response to this, by emitting a ring-shaped pointer light Lp around the periphery of the hole so as to surround the hole, the recognition image processing unit 54 can successfully recognize the teaching point Pt.
- the pointer parameter adjustment unit 57 causes the laser pointer 42 to emit pointer light Lp (FIG. 11) having a pattern (cross-sectional shape) that corresponds to the work location where the robot 2 is to work.
- pointer light Lp having an appropriate pattern can be emitted to the teaching point Pt to accurately teach the operation to be performed on the workpiece 9.
- the adjustment image processing unit 56 transmits a lighting command created in accordance with this information to the teaching point indication terminal 4, and the control unit 47 of the teaching point indication terminal 4 causes the laser pointer 42 to irradiate the pointer light Lp with a cross-sectional shape (pointer parameter) in accordance with this lighting command.
- the recognition camera 3 and the recognition image processing unit 54 recognize the position of the teaching point Pt in two dimensions (XY plane). However, they can be configured to recognize the position of the teaching point Pt in three dimensions ( Figure 12).
- FIG. 12 is a schematic diagram showing a method for recognizing a teaching point in three dimensions.
- the robot control unit 51 controls the robot arm 21 to adjust the angle of the recognition camera 3, so that the recognition image processing unit 54 acquires an image of the teaching point Pt captured by the recognition camera 3 from a first angle, and an image of the teaching point Pt captured by the recognition camera 3 from a second angle.
- the recognition image processing unit 54 then performs stereo matching on these two images to estimate the parallax, thereby recognizing the position of the teaching point Pt in three dimensions.
- Parameter optimization may also be performed based on hue, lightness, or saturation, rather than RGB values.
- hue is acquired instead of RGB values.
- step S205 the hue is changed, for example, in three ways.
- step S206 the hue value of the adjustment image data D44 is acquired for each of the three different hues. Note that step S207 is not executed, and the process proceeds to step S208 to acquire the hue at the teaching point Pt and the teaching point vicinity Pn.
- an evaluation value (the magnitude of the difference between the hue at the teaching point Pt and the hue at the teaching point vicinity Pn) is calculated for each hue (step S209), and the hue of the pointer light Lp is set to the hue with the maximum evaluation value. Furthermore, a threshold value for binarization is set based on the hue in the same manner as described above (step S211).
- parameter optimization is performed based on lightness or saturation, it is possible to perform the optimization in the same way as with hue. Furthermore, the parameter optimization in FIG. 6 can also be performed based on hue, lightness, or saturation. In these examples, the irradiation of the pointer light Lp by the laser pointer 42 onto the workpiece 9 can be performed with an appropriate color (wavelength) according to the configuration of the workpiece 9.
- steps S208 to S211 can be executed based on the RGB values of the adjustment image data D44 acquired by the adjustment camera 44 without converting the RGB values of the adjustment image data D44.
- the adjustment camera 44 may also be provided separately from the teaching point indication terminal 4.
- the adjustment image processing unit 56 may treat a range away from the teaching point Pt as the teaching point vicinity Pn.
- the method by which the worker sets the color of the visual pointer light Lp is not limited to the above, and the worker may set it. Furthermore, the timing at which the laser pointer 42 irradiates the visual pointer light Lp is not limited to the above example, and for example, the visual pointer light Lp may be irradiated only while the worker is pressing a specific button.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
Description
この発明は、ワークに光を照射することでワーク上に示す教示点に基づきロボットに作業対象箇所を教示する技術に関する。 This invention relates to a technology that teaches a robot where to work based on teaching points shown on a workpiece by shining light onto the workpiece.
特許文献1では、作業者が指先等で指示した位置を撮像して画像を取得し、この画像に基づきロボットに教示を行う技術が記載されている。特許文献2では、操作対象を含む画像を二次元画像センサーで撮像した画像において操作対象の位置を特定し、特定された位置に基づいてロボットに教示を行う技術が記載されている。また、特許文献3では、ワークの作業線状の作業位置をレーザーセンサーによって検出して、ロボットへの教示点を生成する技術が記載されている。
ところで、レーザーポインター等によってワークに光を照射することで、ワークに教示点を示し、この教示点をカメラ等によって認識した結果に基づき、教示点をロボットに教示することができる。また、作業者は、ワークに照射された光を視認することで、教示点を確認できる。ただし、ワークの構成(例えば、色や材質)によっては、ワークに照射された光をカメラにより認識することが難しかったり、あるいは作業者によって視認することが難しかったりする場合があった。 By the way, by shining light on the workpiece with a laser pointer or the like, a teaching point can be indicated on the workpiece, and based on the results of recognizing this teaching point with a camera or the like, the teaching point can be taught to a robot. Also, a worker can confirm the teaching point by visually checking the light shining on the workpiece. However, depending on the composition of the workpiece (e.g., color or material), it may be difficult for the camera to recognize the light shining on the workpiece, or for the worker to visually check it.
この発明は上記課題に鑑みなされたものであり、ワークに光を照射することでワーク上に教示点を示すにあたって、ワークの構成の違いに応じた適切な対応を可能とすることを目的とする。 This invention was developed in consideration of the above problems, and aims to enable appropriate responses to differences in the configuration of a workpiece when indicating teaching points on the workpiece by shining light onto the workpiece.
本発明に係るロボットシステムは、ロボットと、ロボットに対する教示点を示す光である教示点指示光をワークに照射する光照射部と、ワークに照射された教示点指示光の位置を教示点として認識する教示点認識部と、ワークで反射された光を検出する光検出部と、 光検出部の検出結果に基づき、光照射部および教示点認識部の少なくとも一方を制御する制御部とを備える。 The robot system according to the present invention includes a robot, a light irradiation unit that irradiates a workpiece with teaching point indicating light that indicates a teaching point for the robot, a teaching point recognition unit that recognizes the position of the teaching point indicating light irradiated on the workpiece as a teaching point, a light detection unit that detects light reflected by the workpiece, and a control unit that controls at least one of the light irradiation unit and the teaching point recognition unit based on the detection result of the light detection unit.
本発明に係るロボット教示方法は、ロボットに対する教示点を示す光である教示点指示光を光照射部からワークに照射する工程と、ワークで反射された光を検出する光検出部により検出する工程と、光検出部の検出結果に基づき、光照射部および教示点認識部の少なくとも一方を制御する工程と、ワークに照射された教示点指示光の位置を教示点認識部が教示点として認識する工程とを備える。 The robot teaching method of the present invention includes the steps of irradiating a workpiece with teaching point indicating light, which is light that indicates a teaching point for the robot, from a light irradiating unit, detecting the light reflected by the workpiece with a light detecting unit, controlling at least one of the light irradiating unit and the teaching point recognizing unit based on the detection result of the light detecting unit, and recognizing the position of the teaching point indicating light irradiated onto the workpiece as a teaching point by the teaching point recognizing unit.
このように構成された本発明(ロボットシステムおよびロボット教示方法)では、光照射部がロボットに対する教示点を示す教示点指示光をワークに照射し、教示点認識部がワークに照射された教示点指示光の位置を教示点として認識する。また、ワークで反射された光を検出する光検出部が設けられ、光検出部の検出結果に基づき、光照射部および教示点認識部の少なくとも一方が制御される。その結果、ワークに光を照射することでワーク上に教示点を示すにあたって、ワークの構成の違いに応じた適切な対応が可能となる。 In the present invention (robot system and robot teaching method) configured in this manner, the light irradiation unit irradiates the workpiece with teaching point indication light that indicates a teaching point for the robot, and the teaching point recognition unit recognizes the position of the teaching point indication light irradiated on the workpiece as the teaching point. In addition, a light detection unit is provided that detects light reflected by the workpiece, and at least one of the light irradiation unit and the teaching point recognition unit is controlled based on the detection result of the light detection unit. As a result, when irradiating the workpiece with light to indicate a teaching point on the workpiece, appropriate responses can be made according to differences in the configuration of the workpiece.
また、制御部は、教示点指示光を光照射部に照射させて教示点認識部に教示点を認識させるための条件を、光検出部により検出された光に基づき調整するように、ロボットシステムを構成してもよい。かかる構成では、教示点を示す光をワークに照射して当該教示点を認識するといった動作をワークの構成に応じた適切な条件で実行することが可能となる。その結果、ワークの構成によらずワークに照射された教示点を確実に認識することができる。 The control unit may also configure the robot system so that the conditions for irradiating the light irradiation unit with teaching point indicating light and causing the teaching point recognition unit to recognize the teaching point are adjusted based on the light detected by the light detection unit. In such a configuration, it becomes possible to perform an operation such as irradiating a workpiece with light indicating a teaching point and recognizing the teaching point under appropriate conditions according to the configuration of the workpiece. As a result, the teaching point irradiated onto the workpiece can be reliably recognized regardless of the configuration of the workpiece.
また、光検出部は、ワークにおいて教示点指示光が照射されている位置から反射された第1光と、ワークにおいて教示点指示光が照射されていない位置から反射された第2光とを検出し、制御部は、教示点指示光を光照射部に照射させて教示点認識部に教示点を認識させるための条件を、光検出部により検出された第1光および第2光に基づき調整するように、ロボットシステムを構成してもよい。かかる構成では、ワークにおいて教示点を示す光が照射されている位置から反射された第1光と、ワークにおいて教示点を示す光が照射されていない位置から反射された第2光とが検出される。そして、教示点を示す光を光照射部に照射させて教示点認識部に教示点を認識させるための条件が、第1光および第2光に基づき調整される。したがって、教示点を示す光をワークに照射して当該教示点を認識するといった動作をワークの構成に応じた適切な条件で実行することができる。その結果、ワークの構成によらずワークに照射された教示点を確実に認識することが可能となる。 The robot system may be configured such that the light detection unit detects the first light reflected from a position on the workpiece where the teaching point indication light is irradiated and the second light reflected from a position on the workpiece where the teaching point indication light is not irradiated, and the control unit adjusts the conditions for irradiating the light irradiating unit with the teaching point indication light to cause the teaching point recognition unit to recognize the teaching point based on the first light and the second light detected by the light detection unit. In such a configuration, the first light reflected from a position on the workpiece where the light indicating the teaching point is irradiated and the second light reflected from a position on the workpiece where the light indicating the teaching point is not irradiated are detected. Then, the conditions for irradiating the light irradiating unit with the light indicating the teaching point to cause the teaching point recognition unit to recognize the teaching point are adjusted based on the first light and the second light. Therefore, an operation of irradiating the workpiece with the light indicating the teaching point and recognizing the teaching point can be performed under appropriate conditions according to the configuration of the workpiece. As a result, it becomes possible to reliably recognize the teaching point irradiated on the workpiece regardless of the configuration of the workpiece.
なお、第1光および第2光を検出するための具体的な構成は種々想定される。例えば、光照射部が教示点指示光をワークに照射している状態で、光検出部は、教示点から反射された光を第1光として検出し、教示点と異なる位置から反射された光を第2光として検出するように、ロボットシステムを構成してもよい。あるいは、光照射部が教示点指示光をワークに照射している状態で、光検出部は、教示点から反射された光を第1光として検出し、光照射部が教示点指示光をワークに照射していない状態で、光検出部は、ワークから反射された光を第2光として検出するように、ロボットシステムを構成してもよい。 Various specific configurations for detecting the first light and the second light are envisioned. For example, the robot system may be configured so that when the light irradiation unit is irradiating the workpiece with teaching point indication light, the light detection unit detects light reflected from the teaching point as the first light, and detects light reflected from a position different from the teaching point as the second light. Alternatively, the robot system may be configured so that when the light irradiation unit is irradiating the workpiece with teaching point indication light, the light detection unit detects light reflected from the teaching point as the first light, and when the light irradiation unit is not irradiating the workpiece with teaching point indication light, the light detection unit detects light reflected from the workpiece as the second light.
また、教示点認識部は、ワークを撮像して画像を取得して、画像に示される教示点を認識し、制御部は、教示点認識部が教示点を認識するための条件を調整するように、ロボットシステムを構成してもよい。かかる構成では、教示点認識部による教示点の認識をワークの構成に応じた適切な条件で実行することができる。 The robot system may also be configured so that the teaching point recognition unit captures an image of the workpiece and recognizes the teaching points shown in the image, and the control unit adjusts the conditions for the teaching point recognition unit to recognize the teaching points. In such a configuration, the teaching point recognition unit can recognize the teaching points under appropriate conditions according to the configuration of the workpiece.
また、教示点認識部は、画像を所定の閾値で二値化することで、画像に示される教示点を認識し、制御部は、閾値を調整するように、ロボットシステムを構成してもよい。かかる構成では、教示点認識部により教示点を認識するための画像の二値化を、ワークの構成に応じた適切な閾値で実行することができる。 The robot system may also be configured so that the teaching point recognition unit recognizes teaching points shown in the image by binarizing the image with a predetermined threshold value, and the control unit adjusts the threshold value. In such a configuration, the teaching point recognition unit can perform binarization of the image to recognize the teaching points with an appropriate threshold value according to the configuration of the workpiece.
また、制御部は、光照射部がワークに光を照射するための条件を調整するように、ロボットシステムを構成してもよい。かかる構成では、光照射部によるワークへの光の照射をワークの構成に応じた適切な条件で実行することができる。 The control unit may also configure the robot system so that it adjusts the conditions under which the light irradiation unit irradiates the workpiece with light. In this configuration, the light irradiation unit can irradiate the workpiece with light under appropriate conditions according to the configuration of the workpiece.
また、制御部は、光照射部がワークに照射する光の波長を調整するように、ロボットシステムを構成してもよい。かかる構成では、光照射部によるワークへの光の照射をワークの構成に応じた適切な波長で実行することができる。 The control unit may also configure the robot system so that it adjusts the wavelength of the light that the light irradiation unit irradiates onto the workpiece. In this configuration, the light irradiation unit can irradiate the workpiece with light at an appropriate wavelength according to the configuration of the workpiece.
また、制御部は、光検出部が光を検出した結果が示すRGB値に基づき、光照射部がワークに照射する光の波長を調整するように、ロボットシステムを構成してもよい。かかる構成では、光照射部によるワークへの光の照射をワークの構成に応じた適切な波長で実行することができる。 The robot system may also be configured so that the control unit adjusts the wavelength of the light that the light irradiation unit irradiates onto the workpiece based on the RGB values indicated by the results of light detection by the light detection unit. In such a configuration, the light irradiation unit can irradiate the workpiece with light at an appropriate wavelength according to the configuration of the workpiece.
また、制御部は、光検出部が光を検出した結果が示す色相、明度あるいは彩度に基づき、光照射部がワークに照射する光の波長を調整するように、ロボットシステムを構成してもよい。かかる構成では、光照射部によるワークへの光の照射をワークの構成に応じた適切な波長で実行することができる。 The control unit may also configure the robot system so that the wavelength of the light irradiated by the light irradiating unit onto the workpiece is adjusted based on the hue, brightness, or saturation of the light detected by the light detection unit. In this configuration, the light irradiating unit can irradiate the workpiece with light at an appropriate wavelength according to the configuration of the workpiece.
また、光照射部は、教示点認識部が教示点を認識するための光である認識光と、作業者が教示点を視認するための視認光とをワークに照射し、認識光と視認光とは互いに異なる波長を有するように、ロボットシステムを構成してもよい。つまり、機械である教示点認識部にとって認識が容易な光と、作業者にとって視認が容易な光とが異なる場合があった。これに対して、上記のように構成することで、教示点認識部は認識光によって示された教示点を確実に認識でき、作業者は視認光によって示された教示点を確実に視認できる。 The robot system may also be configured so that the light irradiation unit irradiates the workpiece with recognition light, which is light for the teaching point recognition unit to recognize the teaching point, and visibility light, which is light for the worker to visually recognize the teaching point, and the recognition light and visibility light have different wavelengths. In other words, there are cases where the light that is easy for the teaching point recognition unit, which is a machine, to recognize is different from the light that is easy for the worker to visually recognize. In contrast, by configuring as described above, the teaching point recognition unit can reliably recognize the teaching point indicated by the recognition light, and the worker can reliably visually recognize the teaching point indicated by the visibility light.
また、制御部は、光照射部が視認光をワークに照射するための条件を、光検出部の検出結果に基づき調整するように、ロボットシステムを構成してもよい。かかる構成では、ワークの構成に応じて、作業者にとって認識が容易な光を視認光としてワークに照射することができる。 The control unit may also configure the robot system so that the conditions under which the light irradiation unit irradiates the workpiece with visible light are adjusted based on the detection results of the light detection unit. In this configuration, light that is easily recognizable by the worker can be irradiated as visible light onto the workpiece, depending on the configuration of the workpiece.
また、光検出部は、ワークにおいて教示点に隣接する位置から反射された光を第2光として検出するように、ロボットシステムを構成してもよい。かかる構成では、教示点を示す光をワークに照射して当該教示点を認識するといった動作を、教示点に隣接する位置におけるワークの構成に応じた適切な条件で実行することができる。その結果、ワークの構成によらずワークに照射された教示点を確実に認識することが可能となる。 The robot system may also be configured so that the light detection unit detects light reflected from a position on the workpiece adjacent to the teaching point as the second light. In such a configuration, an operation such as irradiating the workpiece with light indicating the teaching point and recognizing the teaching point can be performed under appropriate conditions according to the configuration of the workpiece at the position adjacent to the teaching point. As a result, it becomes possible to reliably recognize the teaching point irradiated on the workpiece regardless of the configuration of the workpiece.
また、光照射部および光検出部を互いに位置決めして一体的に保持するハウジングをさらに備えるように、ロボットシステムを構成してもよい。かかる構成では、ワークから反射された光を光検出部によって確実に検出することができる。 The robot system may also be configured to further include a housing that positions the light irradiation unit and the light detection unit relative to each other and holds them together. In this configuration, the light reflected from the workpiece can be reliably detected by the light detection unit.
また、光検出部が光を検出した結果を制御部に送信する、ハウジングに保持された通信部をさらに備えるように、ロボットシステムを構成してもよい。かかる構成では、作業者は、光照射部および光検出部を保持するハウジングを、制御部とは別で持ち歩いて作業を実行することができる。 The robot system may also be configured to further include a communication unit held in the housing that transmits the results of the light detection by the light detection unit to the control unit. In such a configuration, the worker can carry around the housing that holds the light irradiation unit and the light detection unit separately from the control unit to perform the work.
また、ワークと光照射部との間に位置するようにハウジングに保持されて、光の通過を制御する光学素子をさらに備え、光照射部から照射された光は、光学素子を通過してワークの教示点に照射され、ワークで反射された光は、光学素子によって光検出部に向けて反射され、光検出部は、光学素子によって反射された光を検出するように、ロボットシステムを構成してもよい。かかる構成では、ワークから反射された光を光検出部によって確実に検出することができる。 The robot system may also be configured to further include an optical element that is held in the housing so as to be positioned between the workpiece and the light irradiation unit and controls the passage of light, the light irradiated from the light irradiation unit passes through the optical element and is irradiated onto a teaching point on the workpiece, the light reflected by the workpiece is reflected by the optical element toward the light detection unit, and the light detection unit detects the light reflected by the optical element. In such a configuration, the light reflected from the workpiece can be reliably detected by the light detection unit.
また、制御部は、ロボットが作業を行う作業箇所に応じたパターンを有する光を、光照射部に照射させるように、ロボットシステムを構成してもよい。かかる構成では、適切なパターンを有する光を教示点に照射して、ワークに実行すべき動作を的確に教示することができる。 The control unit may also configure the robot system so that the light irradiation unit irradiates light having a pattern that corresponds to the work location where the robot is to work. In this configuration, light having an appropriate pattern can be irradiated onto the teaching point to accurately teach the workpiece the operation to be performed.
また、光照射部が光を照射する角度を検出する角度検出器をさらに備え、教示点認識部は、角度検出器により検出された角度に基づき推定した教示点の位置を含む画像を撮像し、画像に基づき教示点を認識するように、ロボットシステムを構成してもよい。かかる構成では、教示点の画像を確実に撮像して、教示点を認識することができる。 The robot system may also be configured to further include an angle detector that detects the angle at which the light irradiation unit irradiates light, and the teaching point recognition unit captures an image including the position of the teaching point estimated based on the angle detected by the angle detector, and recognizes the teaching point based on the image. In this configuration, an image of the teaching point can be reliably captured and the teaching point can be recognized.
本発明によれば、ワークに光を照射することでワーク上に教示点を示すにあたって、ワークの構成の違いに応じた適切な対応が可能となる。 According to the present invention, when indicating teaching points on a workpiece by shining light onto the workpiece, it is possible to respond appropriately to differences in the configuration of the workpiece.
図1は本発明に係るロボットシステムの第1例を模式的に示す図である。ロボットシステム1は、ワーク9に対して作業を行うロボット2と、ワーク9を認識するために使用される認識カメラ3と、ロボット2に対して教示点Ptを示す教示点指示端末4と、ロボット2、認識カメラ3および教示点指示端末4を制御する情報処理装置5とを備える。
FIG. 1 is a diagram showing a schematic diagram of a first example of a robot system according to the present invention. The
ロボット2は、ロボットアーム21と、ロボットアーム21の先端211に取り付けられたエンドエフェクター23とを備える。ロボットアーム21は、それぞれ回転可能な複数の関節212を有し、ロボットアーム21の先端211が関節212の回転に応じて動くことで、エンドエフェクター23を移動させる。エンドエフェクター23の具体的構成は、ロボット2が実行すべき作業に応じて種々想定される。例えば、エンドエフェクター23が行う作業としては、対象物のグリップ、吸着、溶接、ねじ止めあるいは研磨等が挙げられる。
The
認識カメラ3は、ロボット2のロボットアーム21に取り付けられており、関節212の回転に応じて変位するロボットアーム21に伴って移動する。認識カメラ3は、固体撮像素子によってワーク9を撮像することで、ワーク9を示す認識画像データD3を取得する。
The
教示点指示端末4は、ハウジング41、レーザーポインター42、ハーフミラー43、調整用カメラ44、操作ボタン45、通信部46および制御部47を備える。レーザーポインター42、ハーフミラー43、調整用カメラ44、通信部46および制御部47は、ハウジング41内に収容される。ハウジング41は、レーザーポインター42、ハーフミラー43、調整用カメラ44、通信部46および制御部47を互いに位置決めしつつ保持する。なお、図1ではこれらを示すために、ハウジング41の内部が表されている。作業者は、ハウジング41を掴むことで、教示点指示端末4を持ち運ぶことができる。つまり、教示点指示端末4はポータブル端末である。操作ボタン45は、ハウジング41の外側に取り付けられており、作業者は操作ボタン45を操作することができる。なお、操作ボタン45としては、レーザーポインター42を点灯させる点灯ボタンと、後述するロボット制御の開始を指示する開始ボタンとが設けられている。
The teaching
レーザーポインター42は、所定の断面形状(例えば円)を有するレーザー光であるポインター光Lpを射出する。レーザーポインター42から射出されたポインター光Lpは、ハウジング41の前端411からワーク9に照射される。ここで、ワーク9のうち、レーザーポインター42に対向する点が教示点Ptとなる。したがって、レーザーポインター42から射出されたポインター光Lpは、ワーク9上の教示点Ptに照射されることとなる。
The
ハーフミラー43は、レーザーポインター42とハウジング41の前端411との間に配置され、レーザーポインター42から射出されたポインター光Lpは、ハーフミラー43を通過してからワーク9に照射される。つまり、ハーフミラー43は、レーザーポインター42からハウジング41の前端411に向かうポインター光Lpの通過を許容する。一方、ハーフミラー43は、ワーク9で反射されて前端411から入射してきた反射光Lrを調整用カメラ44に向けて反射する。
The
調整用カメラ44は、ワーク9からの反射光Lrを固体撮像素子によって撮像することで、ワーク9を示す調整用画像データD44を取得する。この調整用カメラ44は、図2に示す視野を有する。ここで、図2は調整用カメラの視野を模式的に示す平面図である。つまり、教示点指示端末4は、教示点Ptおよび当該教示点Ptの近傍(教示点近傍Pn)を撮像するように(図4)、レーザーポインター42に対して位置決めされた状態でハウジング41に保持されている。ここの例では、教示点近傍Pnは、教示点Ptを囲んで教示点Ptに隣接する範囲である。したがって、調整用カメラ44は、教示点Ptからの反射光Lrtと、教示点近傍Pnからの反射光Lrnとを撮像して調整用画像データD44を取得し、この調整用画像データD44は、ワーク9上の教示点Ptおよび教示点近傍Pnそれぞれの画像を含む。
The
通信部46は、情報処理装置5と無線で通信を行う。この通信部46は、調整用カメラ44が取得した調整用画像データD44を情報処理装置5に送信したり、情報処理装置5からの指令を受信したりする。
The
制御部47は、例えばプロセッサーである。レーザーポインター42は、制御部47の制御に基づきポインター光Lpをワーク9に照射する。また、調整用カメラ44は、制御部47の制御に基づき調整用画像データD44を取得する。さらに、通信部46は、制御部47の制御に基づき、情報処理装置5との通信を行う。また、制御部47は、作業者による操作ボタン45の操作を確認した結果に応じて、レーザーポインター42からのポインター光Lpの照射や、調整用カメラ44による調整用画像データD44の取得を制御する。さらに、制御部47は、作業者による操作ボタン45の押下を、通信部46を介して情報処理装置5に送信する。
The
情報処理装置5はコンピューターであり、ロボット制御部51、カメラ通信部52、ポータブル端末通信部53、認識画像処理部54、認識パラメーター調整部55、調整用画像処理部56およびポインターパラメーター調整部57を備える。これらの機能部51~57は、例えばプロセッサーが所定のソフトウェアを実行することで当該プロセッサーに構築することができる。
The
ロボット制御部51は、ロボット2を制御することで、ロボット2に所定の作業を実行させる。カメラ通信部52は、認識カメラ3と有線で通信を行って、認識カメラ3が取得した認識画像データD3を受信する。ポータブル端末通信部53は、教示点指示端末4の通信部46と無線で通信を行って、教示点指示端末4に対するリクエストを通信部46に送信したり、教示点指示端末4からのレスポンスを通信部46から受信したりする。また、ポータブル端末通信部53は、調整用カメラ44が取得した調整用画像データD44を通信部46から受信する。
The
認識画像処理部54は、カメラ通信部52が受信した認識画像データD3に画像処理を実行して、認識画像データD3に基づき教示点Ptを認識する。認識パラメーター調整部55は、認識画像処理部54が教示点Ptを認識するために使用する認識パラメーターを調整する。
The recognition
調整用画像処理部56は、ポータブル端末通信部53が受信した調整用画像データD44に画像処理を行う。ポインターパラメーター調整部57は、調整用画像処理部56の画像処理の結果に基づき、教示点指示端末4がワーク9に照射するポインター光Lpを制御するポインターパラメーターを調整する。調整用画像処理部56およびポインターパラメーター調整部57の動作の詳細は後述する。
The adjustment
図3は情報処理装置が実行するロボット制御の例を示すフローチャートであり、図4は図3のロボット制御で実行されるパラメーター最適化の第1例を示すフローチャートであり、図5は図4のフローチャートに従って実行される演算例を模式的に示す図である。図3および図4のフローチャートは、情報処理装置5の制御に基づき実行される。
FIG. 3 is a flowchart showing an example of robot control executed by the information processing device, FIG. 4 is a flowchart showing a first example of parameter optimization executed in the robot control of FIG. 3, and FIG. 5 is a diagram showing a schematic diagram of an example of calculation executed according to the flowchart of FIG. 4. The flowcharts of FIG. 3 and FIG. 4 are executed based on the control of the
ポータブル端末通信部53は、教示点指示端末4の開始ボタン(操作ボタン45)が作業者により所定時間継続的に押下されたのを確認すると(ステップS101、S102で「YES」)、ステップS103のパラメーター最適化を実行する。このパラメーター最適化は、認識パラメーター(二値化用の閾値)およびポインターパラメーター(ポインター光Lpの色)を最適化する処理である。
When the portable
パラメーター最適化(図4)のステップS201では、調整用カメラ44がワーク9からの反射光Lrを撮像することで取得した調整用画像データD44(RGB値)を、ポータブル端末通信部53が教示点指示端末4から取得する(ステップS201)。この調整用画像データD44は、教示点Ptおよび当該教示点Ptの教示点近傍Pnそれぞれの画像を含む(図5)。なお、ステップS201では、レーザーポインター42は点灯しておらず、教示点Ptにポインター光Lpは照射されていない。さらに、ステップS201では、調整用画像処理部56が調整用画像データD44により示される教示点近傍PnでのRGB値を取得する。
In step S201 of parameter optimization (FIG. 4), the portable
ステップS202では、ポインターパラメーター調整部57が、RGB値の平均値を算出する。具体的には、調整用画像データD44において教示点近傍Pnに含まれる各画素が示すR(赤)の階調値の平均値が算出される。同様の演算が、G(緑)およびB(青)に対しても実行されて、教示点近傍PnにおけるRの平均値Ar、Gの平均値AgおよびBの平均値Abが取得される。ステップS203では、ポインターパラメーター調整部57は、後述するRGB調整関数のパラメーターAとして、これらの平均値Ar、Ag、Abを設定する。
In step S202, the pointer
ステップS204では、ポインターパラメーター調整部57は、レーザーポインター42の点灯指令を、ポータブル端末通信部53を介して教示点指示端末4に送信する。教示点指示端末4の制御部47は、点灯指令に応じてレーザーポインター42を点灯させる。これによって、ワーク9上の教示点Ptにポインター光Lpが照射される。
In step S204, the pointer
また、点灯指令は、ポインター光Lpの色をR、G、Bの間で変化させる指令を含む。これに応じて、教示点指示端末4の制御部47は、ポインター光Lpの色の変化を開始する。これによって、例えばR、G、Bの順番で、教示点Ptに照射されるポインター光Lpの色が変化する(ステップS205)。
The lighting command also includes a command to change the color of the pointer light Lp between R, G, and B. In response to this, the
ステップS206では、ポインターパラメーター調整部57は、調整用カメラ44が出力する調整用画像データD44(RGB値)を、ポータブル端末通信部53を介して教示点指示端末4から取得する。具体的には、赤(R)のポインター光Lp(R)が照射されている期間に調整用カメラ44により取得された調整用画像データD44(R)と、緑(G)のポインター光Lp(G)が照射されている期間に調整用カメラ44により取得された調整用画像データD44(G)と、青(B)のポインター光Lp(B)が照射されている期間に調整用カメラ44により取得された調整用画像データD44(B)とが取得される。
In step S206, the pointer
ステップS207では、調整用画像処理部56は、次のようにしてRGB調整関数の出力値Voを計算する。このRGB調整関数によれば、入力値Viが256階調の中心値(=128)以上である場合には、
出力値Vo=((Vi-A)/(255-A))×128+127
によって出力値Voが算出され、入力値Viが256階調の中心値(=128)未満である場合には、
出力値Vo=(Vi/A)×128
によって出力値Voが算出される。ここで、Rの階調値を調整する際には、パラメーターAとしてRの平均値Arが設定され、Gの階調値を調整する際には、パラメーターAとしてGの平均値Agが設定され、Bの階調値を調整する際には、パラメーターAとしてBの平均値Abが設定される。
In step S207, the adjustment
Output value Vo=((Vi-A)/(255-A))×128+127
If the input value Vi is less than the central value (=128) of 256 gradations, the output value Vo is calculated by:
Output value Vo=(Vi/A)×128
Here, when adjusting the R gradation value, the average value Ar of R is set as the parameter A, when adjusting the G gradation value, the average value Ag of G is set as the parameter A, and when adjusting the B gradation value, the average value Ab of B is set as the parameter A.
つまり、調整用画像データD44(R)が示すRGB値を入力値ViとしてRGB調整関数の出力値Voが計算されて、調整用画像データD44(R)が変換される。同様に、調整用画像データD44(G)が示すRGB値を入力値ViとしてRGB調整関数の出力値Voが計算されて、調整用画像データD44(G)が変換され、調整用画像データD44(B)が示すRGB値を入力値ViとしてRGB調整関数の出力値Voが計算されて、調整用画像データD44(B)が変換される。 In other words, the output value Vo of the RGB adjustment function is calculated using the RGB values indicated by the adjustment image data D44(R) as the input values Vi, and the adjustment image data D44(R) is converted. Similarly, the output value Vo of the RGB adjustment function is calculated using the RGB values indicated by the adjustment image data D44(G) as the input values Vi, and the adjustment image data D44(G) is converted, and the output value Vo of the RGB adjustment function is calculated using the RGB values indicated by the adjustment image data D44(B) as the input values Vi, and the adjustment image data D44(B) is converted.
ステップS208では。調整用画像処理部56は、変換された調整用画像データD44に含まれる教示点PtでのRGB値と教示点近傍PnでのRGB値とを取得する。これらのRGB値の取得は、各色の調整用画像データD44(R)、D44(G)、D44(B)について実行される。取得されるRGB値は、所定の1画素の値でもよいし、対象の範囲(教示点Pt・教示点近傍Pn)に含まれる各画素の値の平均値でもよい。
In step S208, the adjustment
ステップS209では、調整用画像処理部56は、教示点PtでのRGB値と教示点近傍PnでのRGB値との差分を評価値として計算する。なお、図5に示すように、赤(R)のポインター光Lpを教示点Ptに照射しつつ取得された調整用画像データD44(R)では、当該ポインター光Lpの色(R)以外の色(G、B)の値は、教示点Ptと教示点近傍Pnとで変わらない。したがって、変換後の調整用画像データD44(R)に基づき算出される評価値は、当該調整用画像データD44(R)を取得するために教示点Ptに照射されたポインター光Lpの色である赤(R)についてのみ算出すればよい。これは他の色(G、B)についても同様である。したがって、図5の例では、調整用画像データD44(R)に対する評価値は、55(=255-200)と算出され、調整用画像データD44(B)に対する評価値は、245(=255-10)と算出される。
In step S209, the adjustment
ステップS210では、ポインターパラメーター調整部57は、R、GおよびBのうち評価値が最大となる色を、ポインター光Lpの色に設定する。図5の例では、ポインター光Lpの色は青(B)に設定される。
In step S210, the pointer
ステップS211では、認識パラメーター調整部55は、認識画像処理部54が認識画像データD3の二値化に使用する閾値(認識パラメーター)を、ステップS208で取得されたRGB値に基づき設定する。具体的には、ステップS210で設定したポインター光Lpの色(B)について取得した調整用画像データD44(変換後)が示す教示点Ptでの値(255)と教示点近傍Pnでの値(10)との間の値に、閾値が設定される。閾値は、教示点Ptでの値(255)と教示点近傍Pnでの値(10)との平均値でもよいし、平均値より所定値だけ大きいあるいは小さい値でもよい。また、教示点Ptでの値および教示点近傍Pnでの値の組み合わせに対する最適な閾値をルックアップテーブルで保持しておき、このルックアップテーブルに基づき閾値を設定してもよい。
In step S211, the recognition
こうしてパラメーター最適化(ステップS103)が完了すると、図3のステップS104が実行される。このステップS104では、ステップS210で設定された色(B)のポインター光Lp(B)が照射されたワーク9上の教示点Ptを含む認識画像データD3を、カメラ通信部52が認識カメラ3から取得する。認識画像処理部54は、ステップS211で設定された閾値によって、ステップS104で取得された認識画像データD3を二値化し(ステップS105)、二値化された認識画像データD3に基づき教示点Ptを認識する(ステップS106)。ステップS107では、ロボット制御部51は、認識画像処理部54により認識された教示点Ptの位置に向けてエンドエフェクター23を移動させる。
When parameter optimization (step S103) is thus completed, step S104 in FIG. 3 is executed. In this step S104, the
以上に説明する実施例では、レーザーポインター42(光照射部)がロボット2に対する教示点Ptを示すポインター光Lp(教示点指示光)をワーク9に照射し、認識カメラ3および認識画像処理部54(教示点認識部)がワーク9に照射されたポインター光Lpの位置を教示点Ptとして認識する。また、ワーク9で反射された反射光Lrを検出する調整用カメラ44(光検出部)が設けられ、調整用カメラ44の検出結果に基づき、レーザーポインター42および認識画像処理部54の少なくとも一方が制御される(パラメーター最適化)。その結果、ワーク9に光を照射することでワーク9上に教示点Ptを示すにあたって、ワーク9の構成の違いに応じた適切な対応が可能となる。
In the embodiment described above, the laser pointer 42 (light irradiation unit) irradiates the
また、ポインターパラメーター調整部57(制御部)は、ポインター光Lpをレーザーポインター42に照射させて認識画像処理部54に教示点Ptを認識させるための条件(認識パラメーター・ポインターパラメーター)を、調整用カメラ44により検出された反射光Lrに基づき調整する(パラメーター最適化)。かかる構成では、教示点Ptを示すポインター光Lpをワーク9に照射して当該教示点Ptを認識するといった動作をワーク9の構成に応じた適切な条件で実行することが可能となる。その結果、ワーク9の構成によらずワーク9に照射された教示点Ptを確実に認識することができる。
The pointer parameter adjustment unit 57 (control unit) also adjusts the conditions (recognition parameters/pointer parameters) for irradiating the
また、ワーク9においてポインター光Lpが照射されている教示点Ptから反射された反射光Lrt(第1光)と、ワーク9においてポインター光Lpが照射されていない教示点近傍Pnから反射された反射光Lrn(第2光)とが検出される(ステップS206)。そして、ポインター光Lpをレーザーポインター42(光照射部)に照射させて認識画像処理部54(教示点認識部)に教示点Ptを認識させるための条件(認識パラメーター・ポインターパラメーター)が、反射光Lrt、Lrnに基づき調整される(ステップS207~S210)。したがって、教示点Ptを示すポインター光Lpをワーク9に照射して当該教示点Ptを認識するといった動作をワーク9の構成に応じた適切な条件で実行することができる。その結果、ワーク9の構成によらずワーク9に照射された教示点Ptを確実に認識することが可能となる。
Furthermore, the reflected light Lrt (first light) reflected from the teaching point Pt on the
また、認識カメラ3(教示点認識部)がワーク9を撮像して認識画像データD3を取得して(ステップS104)、認識画像処理部54(教示点認識部)が認識画像データD3に示される教示点Ptを認識する(ステップS105~S106)。これに対して、認識パラメーター調整部55(制御部)は、認識画像処理部54が教示点Ptを認識するための閾値(認識パラメーター)を調整する(ステップS211)。かかる構成では、認識画像処理部54による教示点Ptの認識をワーク9の構成に応じた適切な閾値で実行することができる。
Furthermore, the recognition camera 3 (teaching point recognition unit) images the
また、認識画像処理部54は、認識画像データD3を所定の閾値で二値化することで、認識画像データD3に示される教示点Ptを認識する(ステップS105~S106)。これに対して、認識パラメーター調整部55は、当該閾値を調整する(ステップS211)。かかる構成では、認識画像処理部54により教示点Ptを認識するための認識画像データD3の二値化を、ワーク9の構成に応じた適切な閾値で実行することができる。
The recognition
また、ポインターパラメーター調整部57(制御部)は、レーザーポインター42がワーク9に照射するポインター光Lpの色(ポインターパラメーター)を調整する(ステップS204~S210)。かかる構成では、レーザーポインター42によるワーク9へのポインター光Lpの照射をワーク9の構成に応じた適切な色(波長)で実行することができる。
The pointer parameter adjustment unit 57 (control unit) also adjusts the color (pointer parameters) of the pointer light Lp that the
また、ポインターパラメーター調整部57は、調整用カメラ44が反射光Lrtおよび反射光Lrnを検出した結果(調整用画像データD44)が示すRGB値に基づき、レーザーポインター42がワーク9に照射するポインター光Lpの色(光の波長)を調整する(ステップS204~S210)。かかる構成では、レーザーポインター42によるワーク9へのポインター光Lpの照射をワーク9の構成に応じた適切な色(波長)で実行することができる。
The pointer
また、調整用カメラ44は、ワーク9において教示点Ptに隣接する教示点近傍Pnから反射された反射光Lrnを検出する。かかる構成では、ポインター光Lpをワーク9に照射して教示点Ptを認識するといった動作を、教示点Ptに隣接する位置におけるワーク9の構成に応じた適切な条件(認識パラメーター・ポインターパラメーター)で実行することができる。その結果、ワーク9の構成によらずワーク9に照射された教示点Ptを確実に認識することが可能となる。
The
また、レーザーポインター42および調整用カメラ44を互いに位置決めして一体的に保持するハウジング41が具備されている。かかる構成では、ワーク9から反射された反射光Lrtおよび反射光Lrnを調整用カメラ44によって確実に検出することができる。さらに、ハウジング41の前端411(入射口)から入射した反射光Lrのみが調整用カメラ44に到達するため、外乱となる光が調整用カメラ44に入射することを抑えられる。
Also, a
また、教示点指示端末4にはハウジング41に保持された通信部46が設けられている。この通信部46は、調整用カメラ44が反射光Lrtおよび反射光Lrnを検出した結果(調整用画像データD44)をポータブル端末通信部53(制御部)に送信する。かかる構成では、作業者は、レーザーポインター42および調整用カメラ44を保持するハウジング41を、情報処理装置5とは別で持ち歩いて作業を実行することができる。
The teaching
また、ワーク9とレーザーポインター42との間に位置するようにハウジング41に保持されて、光の通過を制御するハーフミラー43(光学素子)が具備されている。レーザーポインター42から照射されたポインター光Lpは、ハーフミラー43を通過してワーク9の教示点Ptに照射され、ワーク9で反射された反射光Lrtおよび反射光Lrnは、ハーフミラー43によって調整用カメラ44に向けて反射される。そして、調整用カメラ44は、ハーフミラー43によって反射された反射光Lrtおよび反射光Lrnを検出する。かかる構成では、ワーク9から反射された反射光Lrtおよび反射光Lrnを調整用カメラ44によって確実に検出することができる。
Furthermore, a half mirror 43 (optical element) is provided, which is held in the
図6は図3のロボット制御で実行されるパラメーター最適化の第2例を示すフローチャートである。図6のフローチャートは、情報処理装置5の制御に基づき実行される。
FIG. 6 is a flowchart showing a second example of parameter optimization executed by the robot control of FIG. 3. The flowchart of FIG. 6 is executed based on the control of the
ステップS301では、ポインターパラメーター調整部57は、ポータブル端末通信部53を介して教示点指示端末4に点灯指令を送信し、通信部46を介して当該点灯指令を受信した制御部47は、R、G、Bのうちの一色(例えば、R)のポインター光Lpをレーザーポインター42に射出させる。これによって、ワーク9の教示点Ptにポインター光Lpが照射される。
In step S301, the pointer
ステップS302では、ポインターパラメーター調整部57は、調整用カメラ44により取得される調整用画像データD44(RGB値)を、ポータブル端末通信部53を介して教示点指示端末4から取得する。この調整用画像データD44は、ポインター光Lpが照射された教示点Ptの画像を含む。
In step S302, the pointer
ステップS303では、ポインターパラメーター調整部57は、ポータブル端末通信部53を介して教示点指示端末4に消灯指令を送信し、通信部46を介して当該消灯指令を受信した制御部47は、レーザーポインター42にポインター光Lpの照射を停止させる。これによって、ワーク9の教示点Ptにポインター光Lpが照射されなくなる。
In step S303, the pointer
ステップS304では、ポインターパラメーター調整部57は、調整用カメラ44により取得される調整用画像データD44(RGB値)を、ポータブル端末通信部53を介して教示点指示端末4から取得する。この調整用画像データD44は、ポインター光Lpが照射されていない教示点Ptの画像を含む。
In step S304, the pointer
ステップS305では、調整用画像処理部56は、ステップS302で取得された調整用画像データD44と、ステップS304で取得された調整用画像データD44との差分で与えられる評価値を計算する。上述の図4のステップS209の場合と同様の理由により、評価値は、ステップS302で調整用画像データD44を取得するために教示点Ptに照射されたポインター光Lpの色についてのみ算出すればよい。
In step S305, the adjustment
ステップS306では、ポインターパラメーター調整部57は、R、R、Gの全色についてステップS301~S305を実行したかを確認する。そして、ステップS301~S305を未実行の色がある場合には、色を変更してステップS301~S305を実行する。これによって、R、R、Gの全色について評価値が取得される(ステップS306で「YES」)。
In step S306, the pointer
ステップS307では、ポインターパラメーター調整部57は、R、GおよびBのうち評価値が最大となる色を、ポインター光Lpの色に設定する。ステップS308では、認識パラメーター調整部55は、認識画像処理部54が認識画像データD3の二値化に使用する閾値(認識パラメーター)を、ステップS302、S304で取得されたRGB値に基づき設定する。具体的には、ステップS307で設定したポインター光Lpの色について、ステップS302で取得した調整用画像データD44が示す教示点Ptでの値と、ステップS304で取得した調整用画像データD44が示す教示点Ptでの値との間に閾値が設定される。2つの値の間に閾値を設定する具体的手法は上述と同様である。
In step S307, the pointer
以上に説明する実施例では、レーザーポインター42(光照射部)がロボット2に対する教示点Ptを示すポインター光Lp(教示点指示光)をワーク9に照射し、認識カメラ3および認識画像処理部54(教示点認識部)がワーク9に照射されたポインター光Lpの位置を教示点Ptとして認識する。また、ワーク9で反射された反射光Lrを検出する調整用カメラ44(光検出部)が設けられ、調整用カメラ44の検出結果に基づき、レーザーポインター42および認識画像処理部54の少なくとも一方が制御される(パラメーター最適化)。その結果、ワーク9に光を照射することでワーク9上に教示点Ptを示すにあたって、ワーク9の構成の違いに応じた適切な対応が可能となる。
In the embodiment described above, the laser pointer 42 (light irradiation unit) irradiates the
また、ポインターパラメーター調整部57(制御部)は、ポインター光Lpをレーザーポインター42に照射させて認識画像処理部54に教示点Ptを認識させるための条件(認識パラメーター・ポインターパラメーター)を、調整用カメラ44により検出された反射光Lrに基づき調整する(パラメーター最適化)。かかる構成では、教示点Ptを示すポインター光Lpをワーク9に照射して当該教示点Ptを認識するといった動作をワーク9の構成に応じた適切な条件で実行することが可能となる。その結果、ワーク9の構成によらずワーク9に照射された教示点Ptを確実に認識することができる。
The pointer parameter adjustment unit 57 (control unit) also adjusts the conditions (recognition parameters/pointer parameters) for irradiating the
また、ワーク9においてポインター光Lpが照射されている教示点Ptから反射された反射光Lrt(第1光)と、ワーク9においてポインター光Lpが照射されていない教示点Ptから反射された反射光Lrt(第2光)とが検出される(ステップS302、S304)。そして、ポインター光Lpをレーザーポインター42(光照射部)に照射させて認識画像処理部54(教示点認識部)に教示点Ptを認識させるための条件(認識パラメーター・ポインターパラメーター)が、これら反射光Lrtに基づき調整される(ステップS307、S308)。したがって、教示点Ptを示すポインター光Lpをワーク9に照射して当該教示点Ptを認識するといった動作をワーク9の構成に応じた適切な条件で実行することができる。その結果、ワーク9の構成によらずワーク9に照射された教示点Ptを確実に認識することが可能となる。
Furthermore, the reflected light Lrt (first light) reflected from the teaching point Pt on the
ところで、図3のロボット制御では、ステップS104~S106によって教示点認識を実行している。これらのステップに代えて、図7の教示点認識を実行してもよい。図7は教示点認識の変形例を示すフローチャートである。図7のフローチャートは、情報処理装置5の制御によって実行される。
In the robot control of FIG. 3, teaching point recognition is performed in steps S104 to S106. Instead of these steps, teaching point recognition in FIG. 7 may be performed. FIG. 7 is a flowchart showing a modified example of teaching point recognition. The flowchart in FIG. 7 is executed under the control of the
教示点指示端末4の点灯ボタン(操作ボタン45)が作業者により押下されると、制御部47は、レーザーポインター42にポインター光Lpを射出させるとともに、通信部46を介して点灯通知を情報処理装置5のポータブル端末通信部53に送信する。これに対して、ポータブル端末通信部53が点灯通知を受信すると(ステップS401で「YES」)、カメラ通信部52は、認識カメラ3にワーク9を撮像させて、認識カメラ3から認識画像データD3を取得する。この認識画像データD3は、ポインター光Lpが照射されている教示点Ptの画像を含む。
When the worker presses the light button (operation button 45) of the teaching
教示点指示端末4の点灯ボタン(操作ボタン45)の押下が作業者により停止されると、制御部47は、レーザーポインター42にポインター光Lpの射出を停止させるとともに、通信部46を介して消灯通知を情報処理装置5のポータブル端末通信部53に送信する。これに対して、ポータブル端末通信部53が消灯通知を受信すると(ステップS403で「YES」)、カメラ通信部52は、認識カメラ3にワーク9を撮像させて、認識カメラ3から認識画像データD3を取得する。この認識画像データD3は、ポインター光Lpが照射されていない教示点Ptの画像を含む。
When the worker stops pressing the light button (operation button 45) on the teaching
ステップS405では、認識画像処理部54は、ステップS402で取得された認識画像データD3と、ステップS404で取得された認識画像データD3との差分を計算して差分画像を取得し、この差分画像を閾値によって二値化する(ステップS405)。ステップS405では、認識画像処理部54は、二値化された差分画像に基づき、教示点Ptを認識する。
In step S405, the recognition
図8は本発明に係るロボットシステムの第2例を模式的に示す図である。図1の第1例との違いは、教示点指示端末4を保持する端末スタンド6がロボットシステム1に具備されている点である。ここでは、図1の第1例との違いを中心に説明することとし、共通する部分は相当符号を付して、適宜説明を省略する。
FIG. 8 is a schematic diagram of a second example of a robot system according to the present invention. The difference from the first example in FIG. 1 is that the
端末スタンド6は、スタンド本体61と、スタンド本体61に対して教示点指示端末4を着脱可能に保持するホルダー62とを有する。ホルダー62は、スタンド本体61に対して互いに異なる2つの角度方向θ、φに回転可能である。また、端末スタンド6は、ホルダー62の回転角度を検出する角度センサー63を有し、角度センサー63によって検出したホルダー62の回転角度を、情報処理装置5に送信する。例えば、教示点指示端末4の通信部46を介してポータブル端末通信部53に回転角度を送信してもよいし、別に設けられた通信手段によって情報処理装置5に回転角度を送信してもよい。
The
この回転角度は、ホルダー62によって保持される教示点指示端末4の回転角度を示し、換言すれば、教示点指示端末4のレーザーポインター42がポインター光Lpを照射する方向を示す。したがって、この回転角度から教示点Ptの位置座標を推定することができる。そこで、ロボット制御部51は、端末スタンド6から受信したホルダー62の回転角度に基づき教示点Ptの位置座標を推定する。そして、認識カメラ3によって教示点Ptを撮像する際には、ロボット制御部51がロボットアーム21を制御して、認識カメラ3をこの位置座標に対向させる。
This rotation angle indicates the rotation angle of the teaching
この実施例では、レーザーポインター42がポインター光Lpを照射する角度を検出する角度センサー63(角度検出器)が具備されている。そして、認識カメラ3は、角度センサー63により検出された角度に基づき推定された教示点Ptの位置を含む画像を撮像して認識画像データD3を取得し、この認識画像データD3に基づき教示点Ptを認識する。かかる構成では、教示点Ptの画像を確実に撮像して、教示点Ptを認識することができる。
In this embodiment, an angle sensor 63 (angle detector) is provided that detects the angle at which the
図9は図3のロボット制御で実行されるパラメーター最適化の第3例を示すフローチャートである。図6のフローチャートは、情報処理装置5の制御に基づき実行される。上記のパラメーター最適化の第1例および第2例では、調整用画像データD44が示すRGB値に基づき認識パラメーター(閾値)が調整される。これに対して、図9の第3例では、調整用カメラ44が示す輝度に基づき、認識パラメーター(閾値)が調整される。
FIG. 9 is a flowchart showing a third example of parameter optimization executed by the robot control of FIG. 3. The flowchart of FIG. 6 is executed based on the control of the
ステップS501では、ポインターパラメーター調整部57は、ポータブル端末通信部53を介して点灯指令を教示点指示端末4に送信し、教示点指示端末4の制御部47は、通信部46により受信した点灯指令に応じて、レーザーポインター42にポインター光Lpを射出させる。これによって、ワーク9の教示点Ptにポインター光Lpが照射される。
In step S501, the pointer
ステップS502では、調整用カメラ44がワーク9からの反射光Lrを撮像することで取得した調整用画像データD44(輝度値)を、ポータブル端末通信部53が教示点指示端末4から取得する。ステップS503では、認識パラメーター調整部55は、調整用画像データD44が示す教示点Ptでの輝度値と教示点近傍Pnでの輝度値とを取得する。
In step S502, the portable
ステップS504では、認識パラメーター調整部55は、認識画像処理部54が認識画像データD3の二値化に使用する閾値(認識パラメーター)を、ステップS503で取得された輝度値に基づき設定する。具体的には、調整用画像データD44が示す教示点Ptでの輝度値と教示点近傍Pnでの輝度値との間の値に、閾値が設定される。閾値は、教示点Ptでの輝度値と教示点近傍Pnでの輝度値との平均値でもよいし、平均値より所定値だけ大きいあるいは小さい値でもよい。また、教示点Ptでの輝度値および教示点近傍Pnでの輝度値の組み合わせに対する最適な閾値をルックアップテーブルで保持しておき、このルックアップテーブルに基づき閾値を設定してもよい。なお、こうして輝度値に基づき閾値を設定した場合には、図3のロボット制御のステップS104~S106は、輝度値に基づき実行される。
In step S504, the recognition
以上に説明する実施例では、レーザーポインター42(光照射部)がロボット2に対する教示点Ptを示すポインター光Lp(教示点指示光)をワーク9に照射し、認識カメラ3および認識画像処理部54(教示点認識部)がワーク9に照射されたポインター光Lpの位置を教示点Ptとして認識する。また、ワーク9で反射された反射光Lrを検出する調整用カメラ44(光検出部)が設けられ、調整用カメラ44の検出結果(調整用画像データD44)に基づき、認識画像処理部54が制御される(ステップS504の閾値の設定)。その結果、ワーク9に光を照射することでワーク9上に教示点Ptを示すにあたって、ワーク9の構成の違いに応じた適切な対応が可能となる。
In the embodiment described above, the laser pointer 42 (light irradiation unit) irradiates the
ところで、教示点Ptに照射されたポインター光Lpを認識カメラ3で撮像して認識する場合に認識しやすいポインター光Lpの色と、教示点Ptに照射されたポインター光Lpを作業者が視認する場合に視認しやすいポインター光Lpの色とは異なりうる。例えば、認識カメラ3による認識を輝度に基づいて行う場合には、高輝度の白が有利となるのに対して、ワーク9の色が明るいと、白色のポインター光Lpは作業者にとって視認が難しい。そこで、認識カメラ3の認識用のポインター光Lpと異なる色に、作業者の視認用のポインター光Lpの色を設定してもよい。
The color of the pointer light Lp that is easily recognized when the pointer light Lp irradiated to the teaching point Pt is captured and recognized by the
図10は認識用のポインター光と視認用のポインター光とを用いた教示点指示制御の一例を示す図である。図10のフローチャートは、教示点指示端末4の制御部47の制御によって実行される。
FIG. 10 is a diagram showing an example of teaching point indication control using a pointer light for recognition and a pointer light for visibility. The flowchart in FIG. 10 is executed under the control of the
制御部47は、作業者による点灯ボタン(操作ボタン45)の押下を確認すると(ステップS601)、視認用の色(例えば、青)を有するポインター光Lpをレーザーポインター42に所定時間(例えば、1~5秒)照射させる(ステップS602)。
When the
次のステップS603では、制御部47は、作業者によって点灯ボタンが押下されているかを確認する。点灯ボタンの押下が確認できない場合(ステップS603で「NO」の場合)には、図10の教示点指示制御を終了する。
In the next step S603, the
一方、点灯ボタンの押下が確認できる場合(ステップS603で「NO」の場合)には、認識用の色(例えば、白)を有するポインター光Lpをレーザーポインター42に所定時間(例えば、1~5秒)照射させる(ステップS604)。そして、レーザーポインター42はステップS601に戻る)。
On the other hand, if it is confirmed that the light button has been pressed (step S603: NO), the
かかる制御では、視認用の色(青)のポインター光Lpと、認識用の色(白)のポインター光Lpとが繰り返しワーク9に照射される。したがって、作業者は、視認用の色のポインター光Lpによって教示点Ptを視認でき、認識カメラ3および認識画像処理部54は、認識用の色のポインター光Lpによって教示点Ptを認識できる。
In this control, the pointer light Lp of the color for visibility (blue) and the pointer light Lp of the color for recognition (white) are repeatedly irradiated onto the
この実施例によれば、レーザーポインター42(光照射部)は、認識カメラ3および認識画像処理部54(教示点認識部)が教示点Ptを認識するためのポインター光Lp(認識光)と、作業者が教示点Ptを視認するためのポインター光Lp(視認光)とがワーク9に照射される。この際、認識のためポインター光Lpと、視認のためのポインター光Lpとは互いに異なる色(波長)を有する。つまり、認識カメラ3および認識画像処理部54といった機械にとって認識が容易な光と、作業者にとって視認が容易な光とが異なる場合があった。そこで、このように構成することで、認識カメラ3および認識画像処理部54は、認識用のポインター光Lpによって示された教示点Ptを確実に認識でき、作業者は視認用のポインター光Lpによって示された教示点Ptを確実に視認できる。
In this embodiment, the laser pointer 42 (light irradiation unit) irradiates the
この際、図4あるいは図6のパラメーター最適化でポインター光Lpの色を調整する手法によって、視認用のポインター光Lpの色を調整してもよい。かかる構成では、調整用画像処理部56(制御部)は、レーザーポインター42が視認用のポインター光Lpをワーク9に照射するための条件(色)を、調整用カメラ44(光検出部)の検出結果(調整用画像データD44)に基づき調整する(ステップS201~S210、S301~S307)。かかる構成では、ワーク9の構成に応じて、作業者にとって認識が容易なポインター光Lpをワーク9に照射することができる。
In this case, the color of the visual pointer light Lp may be adjusted by the method of adjusting the color of the pointer light Lp by parameter optimization in FIG. 4 or FIG. 6. In such a configuration, the adjustment image processing unit 56 (control unit) adjusts the conditions (color) for the
このように上記の実施形態では、ロボットシステム1が本発明の「ロボットシステム」の一例に相当し、ロボット2が本発明の「ロボット」の一例に相当し、認識カメラ3および認識画像処理部54が本発明の「教示点認識部」の一例として機能し、ハウジング41が本発明の「ハウジング」の一例に相当し、レーザーポインター42が本発明の「光照射部」の一例に相当し、ハーフミラー43が本発明の「光学素子」の一例に相当し、調整用カメラ44が本発明の「光検出部」の一例に相当し、認識パラメーター調整部55およびポインターパラメーター調整部57の少なくとも一方が本発明の「制御部」に相当し、角度センサー63が本発明の「角度検出器」の一例に相当し、ワーク9が本発明の「ワーク」の一例に相当し、ポインター光Lpが本発明の「教示点指示光」の一例に相当し、反射光Lrtが本発明の「第1光」の一例に相当し、反射光Lrnが本発明の「第2光」の一例に相当し、教示点Ptが本発明の「教示点」の一例に相当する。 In this manner, in the above embodiment, the robot system 1 corresponds to an example of a "robot system" of the present invention, the robot 2 corresponds to an example of a "robot" of the present invention, the recognition camera 3 and the recognition image processing unit 54 function as an example of a "teaching point recognition unit" of the present invention, the housing 41 corresponds to an example of a "housing" of the present invention, the laser pointer 42 corresponds to an example of a "light irradiation unit" of the present invention, the half mirror 43 corresponds to an example of an "optical element" of the present invention, the adjustment camera 44 corresponds to an example of a "light detection unit" of the present invention, at least one of the recognition parameter adjustment unit 55 and the pointer parameter adjustment unit 57 corresponds to a "control unit" of the present invention, the angle sensor 63 corresponds to an example of an "angle detector" of the present invention, the workpiece 9 corresponds to an example of a "workpiece" of the present invention, the pointer light Lp corresponds to an example of a "teaching point indication light" of the present invention, the reflected light Lrt corresponds to an example of a "first light" of the present invention, the reflected light Lrn corresponds to an example of a "second light" of the present invention, and the teaching point Pt corresponds to an example of a "teaching point" of the present invention.
なお、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したものに対して種々の変更を加えることが可能である。例えば次のように、ロボット2が作業を行う作業箇所の構成に応じて、ポインター光Lpを制御してもよい。
The present invention is not limited to the above embodiment, and various modifications can be made to the above without departing from the spirit of the invention. For example, the pointer light Lp may be controlled according to the configuration of the work area where the
図11はロボットの作業箇所の構成とポインター光との関係を模式的に示す図である。ロボット2が作業を行う作業箇所が通常作業箇所(例えば、平面上に設けられた作業箇所等)である場合には、ポインターパラメーター調整部57は、円形の断面を有するポインター光Lpをレーザーポインター42に照射させる。
FIG. 11 is a diagram showing a schematic diagram of the relationship between the configuration of the robot's working area and the pointer light. When the working area where the
一方、ロボット2が作業を行う作業箇所が特殊作業箇所(例えば、孔等)である場合には、ポインターパラメーター調整部57は、リング状の断面を有するポインター光Lpをレーザーポインター42に照射させる。例えば、孔にネジや釘を挿入する作業をロボット2が行う場合に、円形の断面を有するポインター光Lpを作業対象の孔に照射すると、ポインター光Lpの少なくとも一部が孔に進入する。その結果、認識画像処理部54がポインター光Lpの認識に失敗する場合がある。これに対して、当該孔を囲むように当該孔の周囲にリング状のポインター光Lpを照射することで、認識画像処理部54は教示点Ptの認識に成功することができる。
On the other hand, when the work location where the
この変形例では、ポインターパラメーター調整部57(制御部)は、ロボット2が作業を行う作業箇所に応じたパターン(断面形状)を有するポインター光Lp(図11)を、レーザーポインター42に照射させる。かかる構成では、適切なパターンを有するポインター光Lpを教示点Ptに照射して、ワーク9に実行すべき動作を的確に教示することができる。
In this modified example, the pointer parameter adjustment unit 57 (control unit) causes the
なお、ワーク9に対して作業を行う作業箇所が通常作業箇所および特殊作業箇所のいずれであるかを示す情報は、例えば作業者によってポインターパラメーター調整部57に予め設定される。この場合、調整用画像処理部56はこの情報に応じて作成した点灯指令を教示点指示端末4に送信し、教示点指示端末4の制御部47はこの点灯指令に応じた断面形状(ポインターパラメーター)のポインター光Lpをレーザーポインター42に照射させる。
In addition, information indicating whether the work location where work is to be performed on the
また、上記の実施例では、認識カメラ3および認識画像処理部54は、二次元(XY平面)における教示点Ptの位置を認識する。しかしながら、三次元において教示点Ptの位置を認識するように構成できる(図12)。
In addition, in the above embodiment, the
図12は三次元で教示点を認識する方法を模式的に示す図である。この例では、ロボット制御部51によりロボットアーム21を制御して認識カメラ3の角度を調整することで、認識カメラ3が第1角度から教示点Ptを撮像した画像と、認識カメラ3が第2角度から教示点Ptを撮像した画像とを認識画像処理部54が取得する。そして、認識画像処理部54は、これら2つの画像に対してステレオマッチングを実行して視差を推定することで、三次元における教示点Ptの位置を認識する。
FIG. 12 is a schematic diagram showing a method for recognizing a teaching point in three dimensions. In this example, the
また、パラメーター最適化をRGB値ではなく、色相、明度あるいは彩度に基づき実行してもよい。図4のパラメーター最適化を色相に基づき行う例では、RGB値に代えて色相が取得される。具体的には、ステップS205では、色相を例えば3通りで変化させる。ステップS206では、互いに異なる3通りの色相それぞれについて、調整用画像データD44の色相の値を取得する。なお、ステップS207は実行せずに、ステップS208に進んで、教示点Ptおよび教示点近傍Pnそれぞれにおける色相を取得する。そして、各色相について評価値(教示点Ptの色相と教示点近傍Pnでの色相との差の大きさ)を計算して(ステップS209)、評価値が最大となる色相にポインター光Lpの色相を設定する。さらに、二値化用の閾値を色相に基づき、上述と同様に設定する(ステップS211)。 Parameter optimization may also be performed based on hue, lightness, or saturation, rather than RGB values. In the example of FIG. 4 where parameter optimization is performed based on hue, hue is acquired instead of RGB values. Specifically, in step S205, the hue is changed, for example, in three ways. In step S206, the hue value of the adjustment image data D44 is acquired for each of the three different hues. Note that step S207 is not executed, and the process proceeds to step S208 to acquire the hue at the teaching point Pt and the teaching point vicinity Pn. Then, an evaluation value (the magnitude of the difference between the hue at the teaching point Pt and the hue at the teaching point vicinity Pn) is calculated for each hue (step S209), and the hue of the pointer light Lp is set to the hue with the maximum evaluation value. Furthermore, a threshold value for binarization is set based on the hue in the same manner as described above (step S211).
明度あるいは彩度に基づき実行する場合も、色相の場合と同様にパラメーター最適化を実行できる。さらに、図6のパラメーター最適化も同様に、色相、明度あるいは彩度に基づき実行することができる。これらの例においても、レーザーポインター42によるワーク9へのポインター光Lpの照射をワーク9の構成に応じた適切な色(波長)で実行することができる。
When parameter optimization is performed based on lightness or saturation, it is possible to perform the optimization in the same way as with hue. Furthermore, the parameter optimization in FIG. 6 can also be performed based on hue, lightness, or saturation. In these examples, the irradiation of the pointer light Lp by the
また、図4のパラメーター最適化においては、RGB調整関数を使用する必要はない。この場合、調整用画像データD44のRGB値を変換せずに、調整用カメラ44が取得した調整用画像データD44のRGB値に基づきステップS208~S211を実行すればよい。
Furthermore, in the parameter optimization of FIG. 4, it is not necessary to use an RGB adjustment function. In this case, steps S208 to S211 can be executed based on the RGB values of the adjustment image data D44 acquired by the
また、調整用カメラ44は、教示点指示端末4とは別体で設けてもよい。
The
また、教示点近傍Pnと教示点Ptとの関係は上記に限られない。したがって、調整用画像処理部56は、教示点Ptに対して離れた範囲を教示点近傍Pnとして取り扱ってもよい。
Furthermore, the relationship between the teaching point vicinity Pn and the teaching point Pt is not limited to the above. Therefore, the adjustment
また、教示点Ptからの反射光Lrtおよび教示点近傍Pnからの反射光Lrnの両方をパラメーター最適化に使用することは必須ではない。つまり、認識パラメーターあるいはポインターパラメーターの最適化を、いずれか一方の反射光に基づき行ってもよい。 Furthermore, it is not essential to use both the reflected light Lrt from the teaching point Pt and the reflected light Lrn from the vicinity of the teaching point Pn for parameter optimization. In other words, optimization of the recognition parameters or the pointer parameters may be performed based on either one of the reflected light.
また、作業者による視認用のポインター光Lpの色の設定方法は上記に限られず、作業者が設定してもよい。また、視認用の色のポインター光Lpをレーザーポインター42が照射するタイミングも上記の例に限られず、例えば作業者が所定のボタンを押下している期間に限って、視認用の色のポインター光Lpを照射するようにしてもよい。
Furthermore, the method by which the worker sets the color of the visual pointer light Lp is not limited to the above, and the worker may set it. Furthermore, the timing at which the
1…ロボットシステム
2…ロボット
3…認識カメラ(教示点認識部)
41…ハウジング
42…レーザーポインター(光照射部)
43…ハーフミラー(光学素子)
44…調整用カメラ(光検出部)
54…認識画像処理部(教示点認識部)
55…認識パラメーター調整部(制御部)
57…ポインターパラメーター調整部(制御部)
63…角度センサー(角度検出器)
9…ワーク
Lp…ポインター光(教示点指示光)
Lrt…反射光(第1光)
Lrn…反射光(第2光)
Pt…教示点
1...
41...
43...Half mirror (optical element)
44...Adjustment camera (light detection unit)
54...Recognition image processing unit (teaching point recognition unit)
55...Recognition parameter adjustment unit (control unit)
57...Pointer parameter adjustment unit (control unit)
63...Angle sensor (angle detector)
9...Work Lp...Pointer light (teaching point indication light)
Lrt...Reflected light (first light)
Lrn...Reflected light (second light)
Pt...Teaching point
Claims (20)
前記ロボットに対する教示点を示す光である教示点指示光をワークに照射する光照射部と、
前記ワークに照射された前記教示点指示光の位置を前記教示点として認識する教示点認識部と、
前記ワークで反射された光を検出する光検出部と、
前記光検出部の検出結果に基づき、前記光照射部および前記教示点認識部の少なくとも一方を制御する制御部と
を備えたロボットシステム。 Robots and
a light irradiation unit that irradiates a workpiece with a teaching point indicating light that indicates a teaching point for the robot;
a teaching point recognizing unit that recognizes a position of the teaching point indicating light irradiated onto the workpiece as the teaching point;
A light detection unit that detects light reflected by the workpiece;
A robot system comprising: a control unit that controls at least one of the light irradiation unit and the teaching point recognition unit based on a detection result of the light detection unit.
前記制御部は、前記教示点指示光を前記光照射部に照射させて前記教示点認識部に前記教示点を認識させるための条件を、前記光検出部により検出された前記第1光および前記第2光に基づき調整する請求項2に記載のロボットシステム。 The light detection unit detects a first light reflected from a position on the workpiece where the teaching point indicating light is irradiated and a second light reflected from a position on the workpiece where the teaching point indicating light is not irradiated,
The robot system according to claim 2, wherein the control unit adjusts conditions for irradiating the teaching point indication light to the light irradiation unit and causing the teaching point recognition unit to recognize the teaching point based on the first light and the second light detected by the light detection unit.
前記光照射部が前記教示点指示光を前記ワークに照射していない状態で、前記光検出部は、前記ワークから反射された光を前記第2光として検出する請求項3に記載のロボットシステム。 In a state in which the light irradiation unit irradiates the teaching point indicating light onto the workpiece, the light detection unit detects light reflected from the teaching point as the first light,
The robot system according to claim 3 , wherein the light detection section detects light reflected from the workpiece as the second light when the light irradiation section is not irradiating the workpiece with the teaching point indicating light.
前記制御部は、前記教示点認識部が前記教示点を認識するための条件を調整する請求項1ないし5のいずれか一項に記載のロボットシステム。 The teaching point recognition unit captures an image of the workpiece and recognizes the teaching point shown in the image;
The robot system according to claim 1 , wherein the control unit adjusts conditions for the teaching point recognition unit to recognize the teaching point.
前記制御部は、前記閾値を調整する請求項6に記載のロボットシステム。 the teaching point recognition unit recognizes the teaching point shown in the image by binarizing the image using a predetermined threshold value;
The robot system according to claim 6 , wherein the control unit adjusts the threshold value.
前記認識光と前記視認光とは互いに異なる波長を有する請求項1ないし11のいずれか一項に記載のロボットシステム。 The light irradiation unit irradiates the workpiece with recognition light, which is light for the teaching point recognition unit to recognize the teaching point, and with visual recognition light, which is light for an operator to visually recognize the teaching point,
The robot system according to claim 1 , wherein the recognition light and the visibility light have different wavelengths.
前記光照射部から照射された光は、前記光学素子を通過して前記ワークの前記教示点に照射され、
前記ワークで反射された光は、前記光学素子によって前記光検出部に向けて反射され、
前記光検出部は、前記光学素子によって反射された光を検出する請求項15または16に記載のロボットシステム。 The housing further includes an optical element that is held between the workpiece and the light irradiation unit and controls the passage of light,
The light irradiated from the light irradiation unit passes through the optical element and is irradiated onto the teaching point of the workpiece,
The light reflected by the workpiece is reflected by the optical element toward the light detection unit,
The robot system according to claim 15 or 16, wherein the light detection unit detects light reflected by the optical element.
前記教示点認識部は、前記角度検出器により検出された角度に基づき推定した前記教示点の位置を含む画像を撮像し、前記画像に基づき前記教示点を認識する請求項1ないし18のいずれか一項に記載のロボットシステム。 An angle detector is further provided to detect an angle at which the light irradiation unit irradiates light,
The robot system according to any one of claims 1 to 18, wherein the teaching point recognition unit captures an image including a position of the teaching point estimated based on the angle detected by the angle detector, and recognizes the teaching point based on the image.
前記ワークで反射された光を検出する光検出部により検出する工程と、
前記光検出部の検出結果に基づき、前記光照射部および教示点認識部の少なくとも一方を制御する工程と、
前記ワークに照射された前記教示点指示光の位置を前記教示点認識部が前記教示点として認識する工程と
を備えたロボット教示方法。
A step of irradiating a workpiece with teaching point indicating light, which is light that indicates a teaching point for the robot, from a light irradiation unit;
A step of detecting light reflected by the workpiece using a light detection unit;
controlling at least one of the light irradiation unit and the teaching point recognition unit based on a detection result of the light detection unit;
and a step of the teaching point recognition unit recognizing the position of the teaching point indicating light irradiated onto the workpiece as the teaching point.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/020612 WO2024247250A1 (en) | 2023-06-02 | 2023-06-02 | Robot system and robot teaching method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/020612 WO2024247250A1 (en) | 2023-06-02 | 2023-06-02 | Robot system and robot teaching method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024247250A1 true WO2024247250A1 (en) | 2024-12-05 |
Family
ID=93657415
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/020612 Pending WO2024247250A1 (en) | 2023-06-02 | 2023-06-02 | Robot system and robot teaching method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024247250A1 (en) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07116984A (en) * | 1993-08-30 | 1995-05-09 | Sanyo Electric Co Ltd | Robot hand and part supplier using this robot hand |
| JPH09183088A (en) * | 1995-12-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | Robot device with visual sensor |
| JPH11126996A (en) * | 1997-10-24 | 1999-05-11 | Juki Corp | Component mounting equipment |
| JP2001347478A (en) * | 2000-04-06 | 2001-12-18 | Casio Comput Co Ltd | Method and apparatus for teaching operation target to robot and robot |
| JP2002172575A (en) * | 2000-12-07 | 2002-06-18 | Fanuc Ltd | Teaching device |
| JP2005177977A (en) * | 2003-11-25 | 2005-07-07 | Matsushita Electric Works Ltd | Robot hand control device |
| JP2012135781A (en) * | 2010-12-24 | 2012-07-19 | Kawasaki Heavy Ind Ltd | Method and device for teaching laser machining robot |
| US20200238575A1 (en) * | 2017-11-14 | 2020-07-30 | Engel Austria Gmbh | Method for arranging semifinished products |
-
2023
- 2023-06-02 WO PCT/JP2023/020612 patent/WO2024247250A1/en active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07116984A (en) * | 1993-08-30 | 1995-05-09 | Sanyo Electric Co Ltd | Robot hand and part supplier using this robot hand |
| JPH09183088A (en) * | 1995-12-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | Robot device with visual sensor |
| JPH11126996A (en) * | 1997-10-24 | 1999-05-11 | Juki Corp | Component mounting equipment |
| JP2001347478A (en) * | 2000-04-06 | 2001-12-18 | Casio Comput Co Ltd | Method and apparatus for teaching operation target to robot and robot |
| JP2002172575A (en) * | 2000-12-07 | 2002-06-18 | Fanuc Ltd | Teaching device |
| JP2005177977A (en) * | 2003-11-25 | 2005-07-07 | Matsushita Electric Works Ltd | Robot hand control device |
| JP2012135781A (en) * | 2010-12-24 | 2012-07-19 | Kawasaki Heavy Ind Ltd | Method and device for teaching laser machining robot |
| US20200238575A1 (en) * | 2017-11-14 | 2020-07-30 | Engel Austria Gmbh | Method for arranging semifinished products |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11324095B2 (en) | Automatic stage lighting tracking system and a control method therefor | |
| CN111315539B (en) | portable machine tools | |
| JP4776034B2 (en) | Automatic cutting device and manufacturing method of groove processed product | |
| US9933510B2 (en) | Safety scanner and optical safety system | |
| US20180330489A1 (en) | Image Inspection Device | |
| US10859369B2 (en) | Displacement measuring apparatus | |
| KR20160007361A (en) | Image capturing method using projecting light source and image capturing device using the method | |
| US11325198B2 (en) | Mobile power tool | |
| JP2017138297A (en) | Distance measuring apparatus for monitoring position of robotic process tool and method thereof | |
| JP7469624B2 (en) | Two-dimensional code reader, installation position adjustment device, program | |
| US20170242110A1 (en) | Optical Safety System | |
| CN112423941B (en) | Power tools, especially cordless drills or cordless screwdrivers | |
| US10677584B2 (en) | Displacement measuring apparatus | |
| JP2009002912A (en) | Method and apparatus for measuring a three-dimensional profile of a light emitting object | |
| WO2024247250A1 (en) | Robot system and robot teaching method | |
| CN114599476A (en) | Sheet metal processing system, laser processing machine, sheet metal processing method, and processing area setting program by laser processing | |
| US10724850B2 (en) | Displacement measuring apparatus | |
| JP2017138176A (en) | Three-dimensional information acquisition system, three-dimensional information acquisition method, and picking system | |
| JPH1123262A (en) | 3D position measurement system | |
| US10724849B2 (en) | Displacement measuring apparatus | |
| JP2012127805A (en) | Shape measuring device | |
| JPH10128689A (en) | Vision correction device for unmanned moving objects | |
| JP2004202634A (en) | Centering device | |
| JP6405168B2 (en) | Scanning control device, welding robot system, and scanning control method | |
| JP7674124B2 (en) | Robot Hand System |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23938698 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |