[go: up one dir, main page]

WO2019064805A1 - 投影指示装置、荷物仕分けシステムおよび投影指示方法 - Google Patents

投影指示装置、荷物仕分けシステムおよび投影指示方法 Download PDF

Info

Publication number
WO2019064805A1
WO2019064805A1 PCT/JP2018/025738 JP2018025738W WO2019064805A1 WO 2019064805 A1 WO2019064805 A1 WO 2019064805A1 JP 2018025738 W JP2018025738 W JP 2018025738W WO 2019064805 A1 WO2019064805 A1 WO 2019064805A1
Authority
WO
WIPO (PCT)
Prior art keywords
package
projection
charge
person
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/025738
Other languages
English (en)
French (fr)
Inventor
隆昭 守山
隆明 出良
紹二 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019517110A priority Critical patent/JPWO2019064805A1/ja
Priority to EP18861834.2A priority patent/EP3689791A4/en
Priority to US16/649,207 priority patent/US20200290093A1/en
Publication of WO2019064805A1 publication Critical patent/WO2019064805A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C7/00Sorting by hand only e.g. of mail
    • B07C7/005Computer assisted manual sorting, e.g. for mail
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/10Apparatus characterised by the means used for detection ofthe destination
    • B07C3/14Apparatus characterised by the means used for detection ofthe destination using light-responsive detecting means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/04Electronic labels

Definitions

  • the present disclosure relates to a projection instruction device, a baggage sorting system, and a projection instruction method useful for sorting luggage.
  • the sorting operation for sorting the packages according to the destination is a time-consuming process, and has relied on manual operations from before, but a technique for automating at least a part of the sorting operation has also been proposed.
  • Patent Document 1 tracks moving packages, determines an image to be displayed based on information on a package read from the package and information on the location of the package, projects an image on the package from the projector, and places the image on the package Disclosed is a system for displaying.
  • the present disclosure relates to techniques for more efficiently and accurately sorting packages.
  • the present disclosure is a projection instruction device that generates a projection image to be projected onto a package based on package specification information that identifies a package, comprising: a processor and a memory, the processor cooperating with the memory Based on the package specifying information, a person in charge of handling the package or a destination of the package is specified, and a person-instructed instruction projection image indicating at least one of the person in charge or the destination is generated.
  • the present disclosure projects the projection instructing device described above, a label reader that reads the package specific information from a label attached to the package, an image sensor that picks up at least the package, and at least the person-instructed person-directed projected image on the package And an image projection apparatus.
  • the present disclosure is a projection instruction method for generating a projection image to be projected onto a package based on package specification information that specifies a package, the processor cooperating with a memory, and based on the package specification information, the package The person in charge in charge of the processing of or the destination of the package is specified, and a person-instructed instruction projection image indicating at least one of the person in charge or the destination is generated.
  • sorting of packages can be performed more efficiently and accurately, and further increase in the circulation volume of packages can be coped with.
  • the worker can pick up the package more smoothly, and work efficiency can be improved.
  • FIG. 1 is a block diagram showing the configuration of a package sorting system according to the embodiment.
  • FIG. 2 is a block diagram showing the configuration of the projection instruction apparatus according to the embodiment.
  • FIG. 3A is a conceptual view showing a state in which the package sorting system is installed in the distribution center and in operation.
  • FIG. 3B is a view showing a projected image including numbers on a top surface of the luggage.
  • FIG. 4 is a view showing an example of a projection image generated by the projection instruction apparatus according to the embodiment.
  • FIG. 5 is a flowchart showing an outline procedure of an operation mainly performed by the projection instruction apparatus.
  • FIG. 6 is a conceptual view showing a state in which a package sorting system having a projection instruction device according to the embodiment is installed in a distribution center and is in operation.
  • FIG. 7 is a flow chart showing a procedure of generating and projecting a person-instructed person-indicating projection image indicating the person in charge.
  • the present embodiment which specifically discloses a projection instruction device, a package sorting system, and a projection instruction method according to the present disclosure will be described in detail with reference to the drawings as appropriate.
  • the detailed description may be omitted if necessary.
  • detailed description of already well-known matters and redundant description of substantially the same configuration may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art.
  • the attached drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and they are not intended to limit the claimed subject matter.
  • FIG. 1 is a block diagram showing the configuration of a package sorting system according to the embodiment.
  • the package sorting system 100 shown in FIG. 1 is installed, for example, at a distribution center.
  • the package sorting system 100 includes a label reader 10, an image sensor 20, a projection instruction device 30, and a projector 40.
  • the package sorting system 100 is a system that supports the work of a worker who sorts the packages transported by the transport conveyor.
  • the package sorting system 100 is installed at a distribution center owned by, for example, a retailer, a wholesaler, an internet distributor, and the like.
  • the luggage to be sorted generally has a substantially rectangular parallelepiped shape, its outer shape is not particularly limited, and the type of luggage is also not particularly limited.
  • the configuration of the package sorting system is not limited to that described in FIG.
  • the quantity of each component can be appropriately changed according to the purpose, such as connecting a plurality of image sensors 20, the projection instruction device 30, and the projector 40 to one label reader 10.
  • the label reader 10 as a reading device is a device including various elements such as a lens, an image sensor and the like (not shown). By using the label reader 10, it is possible to read label recording information in which various information related to the package is recorded from a label attached to the package transported by the transport conveyor. By using the read label recording information, it is possible to specify the package. Package specific information is defined by the read information.
  • the image sensor 20 is an imaging device including various elements such as a lens, an image sensor, and the like (not shown).
  • the image sensor 20 is generally configured as an imaging camera.
  • the imaging camera is a three-dimensional camera, a plurality of two-dimensional cameras, or the like.
  • the image sensor 20 includes a distance image sensor 22 and a color image sensor 24.
  • the distance image sensor 22 picks up an item transported by the transfer conveyor and generates a distance image.
  • the generated distance image is used as information indicating the position of the package, the distance to the package, the size of the package, and the like.
  • the “distance image” refers to an image containing distance information indicating the distance from the imaging position to the position (including the surface of the luggage) indicated by each pixel (that is, in the present disclosure, the word “image” is a distance image). including). Further, the term “distance image” includes those that can not be recognized as an image by human eyes, such as a table listing numerical values indicating distances.
  • the “distance image” may be any information as long as it indicates the relationship between the coordinates in the imaged area and the distance, and the data structure does not matter.
  • the distance image sensor 22 is used to identify the position of the package. Therefore, the distance image sensor 22 may be replaced by another sensing device (ultrasonic sensor, infrared sensor, stereo camera, monocular video camera).
  • the color image sensor 24 captures a package for which a distance image has been generated, and generates a color image.
  • Color image refers to an image in which the color of the surface of the package is expressed in a predetermined gradation, and "gradation” includes not only 256 gradations of RGB but also all kinds such as gray scale.
  • the color image sensor 24 is used to track each package for the package specified by the distance image sensor 22.
  • the color image sensor 24 can also be replaced with another sensing device (ultrasonic sensor, infrared sensor, stereo camera, single-eye video camera).
  • the term "image" includes both a distance image and a color image.
  • information output from an image sensor as a sensing device including a distance image sensor and a color image sensor is referred to as sensing information.
  • the present embodiment will be described using an image sensor 20 (including a distance image sensor 22 and a color image sensor 24) as an example of a sensing device. Further, in the present embodiment, as an example of sensing information, the description will be made using a distance image which is an output of the distance image sensor 22 and a color image which is an output of the color image sensor 24.
  • the projection instruction device 30 plays a role as an arithmetic device in the luggage sorting system 100.
  • the projection instruction device 30 includes an input unit 32, a processor 34, a memory 36, and an output unit 38 connected via a bus.
  • the input unit 32 receives package specification information that can specify the package acquired from the label recording information read by the label reader 10, the distance image generated by the distance image sensor 22, and the color image generated by the color image sensor 24.
  • the processor 34 is configured by a general computing device, and generates a projection image to be projected onto a package based on the package specific information, the distance image and the color image.
  • the memory 36 as a storage device performs operations such as reading of control programs necessary for various processes by the processor 34 and saving of data.
  • processor 34 and the memory 36 cooperate to control various processes by the projection instruction device 30.
  • the output unit 38 outputs the projection image generated by the processor 34 to the projector 40.
  • processor does not mean only a single processor.
  • processor is a term that means an operation subject in the case where a plurality of processors with the same purpose and processors with different purposes (for example, a general-purpose CPU (Central Processing Unit) and a GPU (Graphic Processing Unit)) perform processing jointly. Also used as.
  • the projector 40 is constituted by a general projection device, projects the projection light including the projection image received from the projection instructing device 30 onto a package, and displays the projection light on the package.
  • the package sorting system 100 can be constructed by connecting the label reader 10, the image sensor 20 (the distance image sensor 22 and the color image sensor 24), the projection instruction device 30, and the projector 40 by wired communication or wireless communication. Further, two or more devices among the label reader 10, the image sensor 20, the projection instruction device 30, and the projector 40 can be constructed as an integrated device. For example, the image sensor 20 and the projector 40 can be combined to construct an integrated imaging and projection apparatus (see FIG. 3A).
  • FIG. 3A is a conceptual view showing a state in which the package sorting system 100 is installed in the distribution center and in operation.
  • each worker M visually checks the label affixed to each package P transported by the transport conveyor 50 in the direction of arrow X, and the package for which the worker himself is in charge of delivery arrives Then, it was necessary to pick up the package (pickup) and place it in the vicinity of the worker's own foot, a car, a truck bed and the like.
  • sorting by visual inspection of the workers since there is a limit to the work efficiency of the workers, it was necessary to suppress the transport speed to a predetermined value or less.
  • positioned above the conveyance conveyor 50 reads the label stuck on each package P conveyed by the conveyance conveyor 50.
  • the label describes label recording information including various information on the package.
  • the label record information includes information similar to the package identification number individually assigned to the package, the sender's name, address, telephone number, recipient's name, address, telephone number, package type, and the like. The reading of the label may be performed by the worker in charge corresponding to the barcode in the label with the barcode reader as the label reader 10 by hand.
  • the image sensor 20 picks up an image (distance image and color image) of the package P transported by the transport conveyor 50, and the position of the package P, the distance to the package P, the size of the package P (the package P is a rectangular parallelepiped) In the case of three side lengths), the color of the package P, the pattern of the package P, etc. are acquired.
  • positioning position of the label reader 10 and the image sensor 20, the kind of sensing device, and the order of a process in particular are not limited to the form shown in figure.
  • the image sensor 20 and the projector 40 are constructed as an integrated imaging and projecting device 60 and disposed above the transport conveyor 50.
  • the projection instruction device 30 which is not shown in FIGS. 3A and 3B, is constituted by, for example, a computer disposed in the vicinity of the transport conveyor 50 or in another room, and information for identifying the package acquired by the label reader 10 and the image Based on the distance image and the color image generated by the sensor 20, a projection image to be displayed on the package P (for example, the upper surface when the package P is a rectangular parallelepiped) is generated.
  • the projection instructing device 30 sends to the projector 40 a projection instruction to project the projection image onto the package P.
  • the projector 40 as an image projection apparatus projects the projection light including the projection image generated by the projection instructing device 30 onto the package P, and displays the projection image on the package P.
  • the projection image displayed on the package P is, for example, a circled number image having a color indicating the sorting place corresponding to the delivery address of the package P (see FIG. 3B).
  • the circled numbers correspond to, for example, the number of the truck carrying the sorted luggage P (the number of the truck itself, the parking lot number, etc.), the number of the shelf or box to be carried into the truck, etc. ing.
  • a zip code corresponding to the delivery address, or a number of a worker who should pick up the package P may be used.
  • arrows indicating the sorting direction such as right or left with respect to the transport direction of the transport conveyor 50
  • characters such as "left” or "right”
  • the form of the display is not limited to the circled numbers, and various numbers may be considered such as the numbers enclosed by squares ("3", “359", "24735") as shown in FIG.
  • the projected image is not limited to one enclosing a number or letter by a frame, and may be an open number or letter with a background.
  • the shapes of numbers or characters to be displayed may be switched.
  • the projection image is not limited to a still image, and may be animation.
  • the animation it is conceivable to blink, scale, or change the color of each example described above.
  • an animation reflecting the sorting direction may be projected.
  • Examples of animation reflecting the sorting direction include, for example, moving a light beam or a light spot in the sorting direction, forming all or part of a projected image in the sorting direction, or changing the color, Various things can be considered, such as moving and displaying an arrow in the sorting direction.
  • moving and displaying an arrow in the sorting direction When only part of the projected image is targeted for animation, the part that has a large influence on the judgment of the sorting destination by the operator, such as numbers and arrows, is not changed, and the part that has little influence on the sorting destination such as a frame It is conceivable to change it. However, in situations where it is more efficient to intuitively convey the sorting direction than the meaning of numbers etc.
  • the “image projection device” is not limited to one that directly projects a light beam onto a package.
  • the "image projection apparatus” also includes glasses capable of displaying an image. That is, in the present disclosure, when expressing projection light on a package, displaying an image on a package, projecting an image on a package, etc., the expression is simulated through glasses capable of displaying an image. Also, including making the worker recognize as if the projection light is projected on the package. That is, when the operator wears special glasses capable of displaying an image, the projection image may be superimposed on the image of the luggage P visually recognized through the glasses.
  • FIG. 3A at the side of the transfer conveyor 50, there is a worker M who is in charge of picking up a package (other workers are omitted), and the package that has reached their respective area is circled number 1, circled number. 2. Pick up from the transfer conveyor 50 as shown by circle 3 and so on.
  • the package P1 has package specification information of “AAA 111” in the label, and that the package specification information of “AAA 111” is to be a target of sorting in the area A. Therefore, when the package P1 arrives at the specific area, the processor 34 transmits the projection image generated as shown in FIG. 3B to the projector 40. Then, the projector 40 projects the projection image onto the package P1. Therefore, it is possible for the worker in the relevant area to easily pay attention to the package P1 to be picked up which has arrived in the specific area for which he is in charge, and as a result, it is possible to sort the packages more efficiently and accurately. It becomes possible.
  • the presence or absence of the projection of a plurality of specific areas may be switched to one projector 40, and the plurality of projectors 40 may be switched in their respective specific areas.
  • the presence or absence of projection may be switched.
  • FIG. 5 is a flowchart showing an outline of an operation procedure mainly performed by the projection instruction device 30 of the present embodiment, in particular the processor 34 of the projection instruction device 30.
  • the input unit 32 of the projection instruction device 30 acquires package specification information corresponding to the label recording information from the label reader 10 (step S1).
  • the package identification information is at least one of information similar to the package identification number individually assigned to the package, the sender's name, address, phone number, recipient's name, address, phone number, package type, etc.
  • the processor 34 assigns an ID as a package identification number for identifying the package to the package identifying information, and records the ID together with time information corresponding to the time when the ID is assigned (step S2).
  • the ID recorded in the memory 36 may be a package identification number originally recorded in the package identification information, or the projection instructing device 30 may generate and assign a new ID.
  • step S1 after capturing of the distance image of the luggage by the distance image sensor 22 of the image sensor 20, the input unit 32 of the projection instructing device 30 receives the distance image as sensing information from the distance image sensor 22 It acquires (step S20).
  • the processor 34 determines whether an ID corresponding to a package present in the distance image is present in the memory 36.
  • the processor 34 moves the package between the label reader 10 and the distance image sensor 22 from the distance (known) between the label reader 10 and the distance image sensor 22 and the speed of the transfer conveyor 50. Calculate the time required. Then, by subtracting the time from the time when the distance image is acquired, it is possible to estimate the time when the package present in the distance image is given an ID by the label reader 10 (and the processor 34). Then, it can be estimated that the ID given close to the estimated time is the ID corresponding to the package present in the distance image.
  • the method of installing another distance image sensor in the label reader 10 vicinity is mentioned. That is, from the time when the label reader 10 assigns an ID (and the processor 34), the other distance image sensor installed in the vicinity of the label reader 10 is used to track the package to which the ID is assigned. The distance between the package (and the ID) and the label reader 10 is measured. The processor 34 determines a predetermined distance from the distance between the measured package (and the ID) and the label reader 10, the distance of the package in the distance image acquired in step S20, and the distance (known) between the two distance image sensors. It is possible to estimate the ID of the package in the distance image acquired in step S20.
  • the processor 34 determines whether or not the ID corresponding to the package included in the distance image is present in the memory 36 (step S30). That is, as described in step S2, in the memory 36, time information corresponding to the time when the package identification information, the ID, and the ID are given is recorded in advance. On the other hand, the processor 34 subtracts the time required for the package to move between the label reader 10 and the range image sensor 22 from the time when the range image is acquired, for example, as described above, so that the package exists in the range image. The time when the ID is given by the label reader 10 (and the processor 34) can be estimated.
  • the processor 34 compares the time information recorded in advance in the memory 36 with the estimated time, and if these values are close (for example, when the time difference is less than or equal to a predetermined threshold time), It can be determined that the corresponding ID exists in the memory 36. If it is determined that the ID corresponding to the package exists in the memory 36 (step S30; Yes), the process proceeds to the process of step S60 and subsequent steps.
  • step S30 If it is determined that the ID corresponding to the package does not exist in the memory 36 (step S30; No), the processor 34 specifies again the position of the package on the premise that the ID is not assigned to the package (step S30) S40), to give an ID to the package (step S50).
  • the color image sensor 24 In parallel with the above-described steps, the color image sensor 24 generates a color image of each package for which the distance image has been acquired. Then, based on the color image from the color image sensor 24 acquired by the input unit 32, the processor 34 tracks the luggage with an ID which is transported and moved by the transport conveyor 50 (step S60). Then, the processor 34 determines, based on the color image, whether or not the package being tracked is picked up by the operator (step S70). If it is determined that the package is not picked up by the worker (Step S70; No), the processor 34 determines whether the package exists in a specific area (a predetermined sorting area where the package is to be picked up) described later. judge.
  • a specific area a predetermined sorting area where the package is to be picked up
  • step S80 when it is determined that the package is present (reached) in the specific area (step S80; Yes), the processor 34 generates a projection image and transmits it to the projector 40 (step S90). If not determined (step S80; No), the process returns to step S60 and the processor 34 continues tracking the package.
  • step S70 If it is determined in step S70 that the package has been picked up by the worker (step S70; Yes), the processor 34 reads the detailed information of the package from the memory 36 (step S100), and generates a projection image including the detailed information
  • the projection image generated by the output unit 38 is output to the projector 40 (step S90).
  • the projector 40 that has acquired the projection image from the projection instructing device 30 projects the projection image onto the corresponding luggage.
  • step S70 is the determination in step S70.
  • contact determination with a worker's hand and a package, and a color image, a distance image, etc. for implementation of determination of step S70.
  • the instruction of the worker in charge of luggage Generally, a plurality of workers M are located beside or near the transfer conveyor 50, and each worker picks up a load from the transfer conveyor. The worker can visually recognize the package to be picked up by the projected image showing circled numbers as shown in FIG. 3A and FIG. 3B and numbers surrounded by squares as shown in FIG.
  • the projection image described so far is a projection image that specifies the package itself. However, if the projected image can clearly point out the worker who should pick up the package, the worker can more easily notice the package and can pick up the package smoothly, which is considered to increase work efficiency. .
  • the projection instructing device 30 of the present disclosure processes not only the projection image for identifying the package itself as shown in FIGS. 3A, 3B, and 4 but also the worker who is in charge of processing the package for projecting the projection image. It identifies (worker in charge), and also generates a projection image that points to the worker in charge.
  • the projection instructing device 30 projects the projection image onto the package to make it easier for the operator to notice the presence of the package in charge, and to enable picking up smoothly.
  • FIG. 6 is a conceptual view showing a state in which a package sorting system having the projection instruction device 30 that exhibits the above-described function is installed in the distribution center and is operating.
  • a plurality of (three) workers M1, M2 and M3 are located beside the transport conveyor 50, and each has its own package to be picked up. Generally, each worker is required to receive the delivery address. A separate package is assigned.
  • markers A, B, and C that can be identified by the image sensor 20 of the integrated imaging and projection apparatus 60, for example, are provided to each of the workers M1, M2, and M3, and operations corresponding to the markers A, B, and C are performed.
  • the information such as the person, the delivery address for which the worker is in charge is stored in the memory 36 of the projection instruction device 30.
  • the label reader 10 reads the label recording information of the label of the package, and the input unit 32 of the projection instructing device 30 receives the package identification information corresponding to the label recording information from the label reader 10.
  • the package identification information includes the package identification number individually assigned to the package, the sender's name, address, telephone number, recipient's name, address, telephone number, package type, etc., as well as the shipping address. Is also included.
  • the processor 34 of the projection instruction device 30 assigns an ID as a package identification number for identifying the package to the package identification information, and records the ID in the memory 36.
  • the processor 34 picks up a specific package by collating the delivery address of the package identification information acquired from the label reader 10 with the delivery address of the worker given each of the markers A, B and C. It is possible to identify the responsible worker. With this identification, the processor 34 can generate, for a specific package, a person-instructed projection image indicating a person who should pick up the package. In addition, since the processor 34 can track the package moving on the transfer conveyor 50 by the steps S20 to S80 of FIG. 5, even if the package moves, an appropriate person-instructed projection image designated by the person in charge corresponding to the package Can be generated.
  • the projector 40 projects, onto the package, a person-instructed instruction projection image indicating the worker in charge of the package generated by the processor 34.
  • a person-instructed instruction projection image indicating the worker in charge of the package generated by the processor 34.
  • FIG. 6 an image of an arrow pointing in the direction of the worker in charge is generated as the worker-directed instruction projection image.
  • the image sensor 20 since the position of the package and the position of each worker can be recognized by the image sensor 20, it is easy to generate an image of an arrow directed from the package to the worker in charge.
  • the image of the arrow roughly indicates the whereabouts of the worker in charge, exact accuracy is not required. Therefore, when the worker in charge is temporarily lost, the direction of the arrow image projected immediately before may be used as it is.
  • markers A, B, and C of the worker in charge are also attached to the image of the arrow.
  • the markers A, B, and C correspond to identification information (identification symbols) associated with each person in charge, and each worker is instructed by the person-in-charge instruction projection image including such identification information as well.
  • identification information identification symbols
  • M1, M2 and M3 can more easily determine the load to be picked up by themselves.
  • the person-in-charge instruction projection image includes identification information. Also, it is optional to incorporate information such as other colors and numbers.
  • FIG. 7 shows a detailed process in step S90 on the premise of the process described above in the flowchart of the outline procedure in FIG. That is, in step S90 of FIG. 5 described above, the processor 34 generates a projection image that specifies the sorting destination of the package as the numbers shown in FIGS. 3A, 3B and 4.
  • the processor 34 first acquires the delivery address in the package identification information for the specific package from the label reader 10 (step S91).
  • the processor 34 specifies the worker (person in charge) who is in charge of the package, which is stored in advance in the memory 36 (step S92). Then, the processor 34 deforms the generated projection image, and generates a person-instructed instruction projection image (arrow in FIG.
  • step S93 6) indicating the Detaile of the package and the like and the worker in charge (step S93).
  • the output unit 38 of the projection commanding device 30 outputs the person-in-charge instruction projected image generated by the processor 34 in step S93 to the projector 40 (step S94).
  • the projector 40 which has acquired the person-in-charge-indicating projection image from the projection instructing device 30 projects the person-in-charge-indicating projection image onto the corresponding package (step S95). In addition, even if the worker in charge moves, the person-in-charge instruction projection image continues pointing to the worker in charge.
  • the person-in-charge instruction projection image includes information such as the package sorting destination
  • the present invention is not limited to this. If it is possible for the worker in charge to recognize the sorting destination of the package by assignment of work in advance, etc. If it is possible to recognize the sorting destination of the package, etc. It may include information that identifies the sorting destination of the package.
  • the image sensor 20 identifies the markers A, B, and C of each worker, but the type of person-in-charge identification information such as the markers A, B, and C is not particularly limited.
  • the angle of the image sensor 20 or the like may be devised, and a worker may be identified directly without relying on a marker or the like using face authentication technology or the like.
  • a dedicated image sensor may be provided separately from the image sensor 20, and identification of each worker may be performed using marker identification, face authentication technology, or the like.
  • the target to be recognized and identified may not be a worker but may be a destination such as a truck or a roll box pallet where a load is to be loaded (a transfer destination of the load). If both the worker and the destination of the package can be recognized and identified, an image indicating the worker and the destination of the package may be projected together, or only one of them may be projected.
  • the person in charge is specified using the delivery address among the information included in the package specifying information in the above-mentioned example
  • the person in charge may be specified using other information of the package specifying information.
  • a large number of packages may be processed, and for busy workers, the number of packages to be diverted may be reduced.
  • the linkage between the worker and the delivery address (other package identification information) may be stored in another database, and the projection instruction device 30 may refer to the database.
  • the camera or the like recognizes the position where the worker stands in the vicinity of the transfer conveyor 50, and the worker and delivery address (other package identification information ) May be registered in the database after determining the association with.
  • the person-in-charge identification information such as the markers A, B and C described above, it is general to store the person in charge itself, but in the person in charge itself such as a tag such as RFID, beacon, smartphone Instead, the association between the device having information indicating the position where the package is to be processed (picked up) and the delivery address (other package identification information) may be registered in the database.
  • an area for example, an interval of 1 meter or the like
  • a beacon or the like may be fixedly installed for each area for processing the package. Even with such a configuration, each worker can recognize the package to be processed by projecting an arrow image or the like (pointing to the area) pointing from the package to the beacon.
  • identification information for identifying the area itself indicated by the beacon is provided by associating the beacon and the identification information of the worker in charge of the area indicated by the beacon in advance.
  • the processing load can be reduced because it is not necessary to recognize the person.
  • it is not necessary to give the worker markers, beacons, etc. so it is not necessary to force the worker's clothes to those with markers etc.
  • tags, beacons, etc. lent to the workers It also reduces the risk of losing In the configuration in which a beacon or the like is installed in each area, there is a risk that an image such as an arrow may be generated assuming that the worker in charge is present even if the worker in the area is temporarily absent. is there.
  • the package sorting system 100 recognizes the coordinates of the transfer conveyor 50, it is also possible to define the area in which each worker is in charge using the information. In this case, it is not necessary to provide a beacon or the like for each area. Further, the package sorting system 100 recognizes in advance at least the coordinates of the transfer conveyor 50 for tracking the package P and the like. Therefore, according to the configuration of this modification, a person-instructed-instruction-projected image can be generated without adding new hardware, markers, or the like to the package sorting system 100.
  • the transfer conveyor 50 by defining the area to be assigned to each worker with the coordinates on the transfer conveyor 50, it is possible to generate a person-instructed person's instruction projected image even if the coordinates outside the transfer conveyor 50 can not be recognized.
  • the worker In an actual environment, the worker is in the area outside of the transfer conveyor 50, but is likely to stand by in the vicinity of the transfer conveyor 50 for sorting the packages. Therefore, even if the area in which each worker is in charge is approximated by the coordinates of the transfer conveyor 50, the content of the person-in-charge designated projection image does not greatly deviate.
  • the package sorting system 100 can also recognize the coordinates around the transport conveyor 50, the area for which each worker is in charge may be defined using the coordinates outside the transport conveyor 50.
  • indication projection image and the projection image which shows the sorting destination of a package etc. were integrally produced
  • a person tracking method indoors using an RFID / beacon / smartphone etc. or person recognition by a camera can be used, and furthermore, clothing, hats, etc. of workers It is possible to improve the accuracy by switching the color by a person or putting a marker).
  • the worker in charge can easily notice the presence of the luggage in charge because the projected image pointing to the worker in charge of picking up the luggage is projected onto the luggage. It will be possible to pick up smoothly.
  • the process flow of FIG. 5 and FIG. 7 mentioned above is an example to the last.
  • the timing and order of generation of a projection image indicating the worker in charge, projection of the projection image, and the like are arbitrary.
  • the worker-directed projection image can be projected, the worker in charge can pick up the package, so the projection of the package-specific projection image that identifies the package itself is not essential.
  • the present disclosure is useful for providing a projection instruction device, a package sorting system, and a projection instruction method that can indicate a worker in charge of a package.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Sorting Of Articles (AREA)

Abstract

荷物を特定する荷物特定情報に基づき、前記荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、プロセッサは、メモリと協働して、荷物特定情報に基づいて、前記荷物の処理を担当する担当者または前記荷物の移動先を特定し、前記担当者または前記荷物の移動先の少なくとも一方を指し示す担当者指示投影画像を生成する。

Description

投影指示装置、荷物仕分けシステムおよび投影指示方法
 本開示は、荷物の仕分けに有用な投影指示装置、荷物仕分けシステムおよび投影指示方法に関する。
 近年の経済活動の高まりに伴い、荷物の流通量は増大する一方である。荷物の流通工程において、荷物を行先別に仕分ける仕分け作業は時間のかかる工程であり、従前から人手による作業に頼っているが、仕分け作業の少なくとも一部を自動化する技術も提案されている。
 特許文献1は、移動する荷物を追跡し、荷物から読み取った荷物に関する情報と当該荷物の位置の情報に基づき、表示する画像を決定し、プロジェクタから画像を荷物に投射して画像を荷物上に表示するシステムを開示している。
米国特許第7090134号明細書
 しかしながら、昨今荷物の流通量はますます増大するとともに、荷物の種類も様々なものとなっており、荷物をより効率的かつ正確に仕分ける技術が求められている。
 本開示は、荷物の仕分けをより効率的かつ正確に行うための技術に関する。
 本開示は、荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記荷物特定情報に基づいて、当該荷物の処理を担当する担当者または当該荷物の移動先を特定し、当該担当者または当該移動先の少なくとも一方を指し示す担当者指示投影画像を生成する。
 本開示は、上述の投影指示装置と、荷物に貼付されたラベルから前記荷物特定情報を読み取るラベルリーダと、少なくとも前記荷物を撮像する画像センサと、少なくとも前記担当者指示投影画像を前記荷物に投影する画像投影装置と、を備える荷物仕分けシステムである。
 本開示は、荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、前記荷物特定情報に基づいて、当該荷物の処理を担当する担当者または当該荷物の移動先を特定し、当該担当者または当該移動先の少なくとも一方を指し示す担当者指示投影画像を生成する。
 本開示によれば、荷物の仕分けをより効率的かつ正確に行うことができ、さらなる荷物の流通量の増大にも対応することができる。特に、荷物の処理を担当する担当作業者を指し示す投影画像を生成して荷物に投影することにより、作業者が荷物をより円滑に拾い上げることを可能とし、作業の効率性を高めることができる。
図1は、実施の形態にかかる荷物仕分けシステムの構成を示すブロック図である。 図2は、実施の形態にかかる投影指示装置の構成を示すブロック図である。 図3Aは、荷物仕分けシステムが物流センターに設置され、稼働している状況を示す概念図である。 図3Bは、荷物の上面に数字を含む投影画像を投影した状態を示す図である。 図4は、実施の形態にかかる投影指示装置で生成される投影画像の一例を示す図である。 図5は、主として投影指示装置が行う動作の概要手順を示すフローチャートである。 図6は、実施の形態に係る投影指示装置を有する荷物仕分けシステムが物流センターに設置され、稼働している状況を示す概念図である。 図7は、担当作業者を指し示す担当者指示投影画像を生成し投影する手順を示すフローチャートである。
 以下、適宜図面を参照しながら、本開示に係る投影指示装置、荷物仕分けシステムおよび投影指示方法を具体的に開示した実施形態(以下、「本実施形態」という)を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
 以下、図1~図6を用いて本開示の実施の形態を説明する。
 [構成]
 図1は、実施の形態にかかる荷物仕分けシステムの構成を示すブロック図である。図1に示す荷物仕分けシステム100は、例えば物流センターに設置される。荷物仕分けシステム100は、ラベルリーダ10と、画像センサ20と、投影指示装置30と、プロジェクタ40とを備える。荷物仕分けシステム100は、搬送コンベヤにより搬送されてくる荷物を仕分ける作業員の作業を支援するシステムである。荷物仕分けシステム100は、例えば小売業者、卸売業者、インターネット流通業者などが所有する物流センターに設置される。仕分け対象の荷物は、一般的には略直方体の形状を有するものであるが、その外形は特に限定はされず、荷物の種類も特に限定されない。なお、荷物仕分けシステムの構成は図1に記載したものに限定されない。例えば、一台のラベルリーダ10に複数の画像センサ20と、投影指示装置30と、プロジェクタ40を接続させるなど、各構成要素の数量は目的に応じて適宜変更させることができる。
 読取装置としてのラベルリーダ10は、図示せぬレンズ、イメージセンサ等の各種の要素を含む装置である。ラベルリーダ10を用いることで、搬送コンベヤにより搬送されてくる荷物に貼付されたラベルから当該荷物に関する各種の情報を記録したラベル記録情報を読み取ることができる。読み取られたラベル記録情報を用いることで、当該荷物を特定することが可能で有る。読み取られた情報によって荷物特定情報が定義づけられる。
 画像センサ20は、図示せぬレンズ、イメージセンサ等の各種の要素を含む撮像装置である。画像センサ20は、一般的には撮像カメラとして構成される。撮像カメラは3次元カメラ、複数台の2次元カメラなどである。画像センサ20は、距離画像センサ22と色画像センサ24とを含む。
 距離画像センサ22は、搬送コンベヤにより搬送されてくる荷物を撮像し、距離画像を生成する。生成された距離画像は、荷物の位置、荷物までの距離、荷物のサイズ等を示す情報として使用される。「距離画像」とは、撮像位置から各画素が示す位置(荷物の表面を含む)までの距離を示す距離情報を収容した画像のことをいう(つまり本開示において「画像」の語は距離画像を含む)。また、「距離画像」という文言には、距離を示す数値を列挙したテーブルなど、人の目で画像として認識できないものも含まれる。すなわち「距離画像」は、撮像した領域内における座標と距離との関係を示す情報であればよく、そのデータ構造は問わない。本開示において距離画像センサ22は荷物の位置を特定するために用いられる。よって距離画像センサ22は、他のセンシングデバイス(超音波センサ、赤外線センサ、ステレオカメラ、単眼ビデオカメラ)が代替することもできる。
 色画像センサ24は、距離画像が生成された荷物を撮像し、色画像を生成する。「色画像」とは、荷物の表面の色を所定の階調で表現した画像のことをいい、「階調」にはRGBの256階調のみならず、グレースケール等あらゆるものが含まれる。本開示において色画像センサ24は、距離画像センサ22が特定した荷物について、各荷物を追跡するために用いられる。色画像センサ24も、他のセンシングデバイス(超音波センサ、赤外線センサ、ステレオカメラ、単眼ビデオカメラ)が代替することができる。
 つまり本開示において「画像」の語は距離画像と色画像の双方を含む。本開示においては距離画像センサおよび色画像センサを含むセンシングデバイスとしての画像センサから出力される情報をセンシング情報と呼ぶ。本実施の形態においてはセンシングデバイスの一例として画像センサ20(距離画像センサ22および色画像センサ24を含む)を用いて説明を行う。また本実施の形態においては、センシング情報の例として、距離画像センサ22の出力である距離画像、色画像センサ24の出力である色画像を用いて説明を行う。
 投影指示装置30は、荷物仕分けシステム100における演算装置としての役割を果たす。図2に示すように、投影指示装置30は、バスを介して接続された入力部32、プロセッサ34、メモリ36、出力部38を備える。入力部32は、ラベルリーダ10が読み込んだラベル記録情報から取得した荷物の特定が可能な荷物特定情報、距離画像センサ22が生成した距離画像、色画像センサ24が生成した色画像を受け取る。プロセッサ34は一般的な演算装置によって構成され、荷物特定情報、距離画像および色画像に基づき、荷物に投影する投影画像を生成する。記憶装置としてのメモリ36は、プロセッサ34が各種処理に必要な制御プログラムの読み込み、データの退避等の操作を行う。すなわち、プロセッサ34とメモリ36は協働して投影指示装置30による各種処理を制御する。出力部38は、プロセッサ34が生成した投影画像をプロジェクタ40に出力する。なお、本開示において「プロセッサ」は単一のプロセッサのみを意味するものではない。「プロセッサ」は、複数の同一目的のプロセッサや、目的の異なるプロセッサ(例えば、汎用CPU(Central Processing Unit)とGPU(Graphic Processing Unit))が共同して処理を行う場合の動作主体を意味する語としても使用される。
 プロジェクタ40は一般的な投影装置により構成され、投影指示装置30から受信した投影画像を含む投影光を荷物に投影し、荷物上に表示する。
 荷物仕分けシステム100は、ラベルリーダ10と、画像センサ20(距離画像センサ22および色画像センサ24)と、投影指示装置30と、プロジェクタ40とを有線通信または無線通信で繋ぎ合わすことにより構築できる。また、ラベルリーダ10と、画像センサ20と、投影指示装置30と、プロジェクタ40のうちいずれかの二台以上の装置を一体型の装置として構築することもできる。例えば、画像センサ20とプロジェクタ40とを合わせて、一体型の撮像投影装置として構築することもできる(図3A参照)。
 [システムの概要]
 図3Aは、荷物仕分けシステム100が物流センターに設置され、稼働している状況を示す概念図である。従来の方法によれば、各作業者Mが、搬送コンベヤ50により矢印X方向に搬送されてくる各荷物Pに貼付されたラベルを目視によりチェックし、作業者自身が配送を担当する荷物が到着したら当該荷物を拾い上げて(ピックアップ)、作業者自身の足元、かご、トラックの荷台等の近傍に一旦置く必要があった。しかしながら、作業者の目視による仕分けの場合、作業者の作業効率には限界があるから、搬送速度を所定の値以下に抑える必要があった。結果として、作業者が単位時間内に仕分けることが可能な荷物の量の限界値は低かった。また、作業者がラベルの目視に際して誤認を行うことにより、仕分けに際して誤りを引き起こす可能性があった。近年、荷物の流通量は増大しており、これらの問題はより注目されつつある。
 そこで本実施形態では、図3Aに示すように、搬送コンベヤ50の上方に配置されたラベルリーダ10が、搬送コンベヤ50により搬送されてくる各荷物Pに貼付されたラベルを読み取る。ラベルには、当該荷物に関する各種の情報を含むラベル記録情報が記載されている。ラベル記録情報は、当該荷物に個別に付与される荷物特定番号、発送人の氏名、住所、電話番号、受取人の氏名、住所、電話番号、荷物の種類、等に類似する情報を含む。ラベルの読み込みは、担当の作業者がラベル内のバーコードに、ラベルリーダ10としてのバーコードリーダを手で当てて読み込むことで行っても良い。
 さらに画像センサ20が、搬送コンベヤ50により搬送されてくる荷物Pの画像(距離画像および色画像)を撮像し、荷物Pの位置、荷物Pまでの距離、荷物Pのサイズ(荷物Pが直方体の場合は3辺の長さ)、荷物Pの色、荷物Pの模様等の情報を取得する。尚、ラベルリーダ10、画像センサ20の配置位置や、センシングデバイスの種類、処理の順序は特に図示した形態に限定されない。上述した様に、本例では、画像センサ20とプロジェクタ40が一体型の撮像投影装置60として構築され、搬送コンベヤ50の上方に配置されている。
 図3A、図3Bでは示されていない投影指示装置30は、例えば搬送コンベヤ50の近傍や、別の部屋に配置されたコンピュータにより構成され、ラベルリーダ10が獲得した荷物を特定する情報と、画像センサ20が生成した距離画像および色画像に基づき、荷物P(荷物Pが直方体の場合は例えば上面)に表示する投影画像を生成する。投影指示装置30は投影画像を荷物Pに投影すべき投影指示をプロジェクタ40に送る。
 投影指示を受けた、画像投影装置としての、プロジェクタ40は、投影指示装置30が生成した投影画像を含む投影光を荷物Pに投影し、荷物P上に投影画像を表示する。ここで荷物Pに表示される投影画像は、例えば、当該荷物Pの配送先住所に対応した仕分け場所を示す色を有する丸数字の画像である(図3B参照)。ここで、丸数字は、例えば、仕分けられた荷物Pを運ぶトラックの番号(トラック自体の番号や駐車場番号など)や、当該トラックなどに搬入されるべき棚や箱などの番号等に対応している。また、直接的に棚や箱などの番号に対応させるのではなく、ピックアップした荷物を他の場所またはトラック等へ移動させるシューターの番号等に対応していてもよい。トラック等の駐車位置は交通状況などに応じて頻繁に変わるため搬送コンベヤ50周辺から見た仕分け先を随時対応させることは難しいことがある。そのため、搬送コンベヤ50と搬送トラック等との間にシューターを挟み、搬送コンベヤ50周辺ではシューターの番号を投影することで、搬送コンベヤ50周辺の構成を随時変えなくとも、シューターの出口の配置換えなどで仕分け先の変化に対応することが出来る。もちろん、状況に応じて、様々な種類の投影画像が表示される。数字を表示する他の例としては、配送先住所に対応した郵便番号や、荷物Pをピックアップすべき作業者の番号などであってもよい。また、数字以外の情報を表示する例としては、仕分け方向を示す矢印(搬送コンベヤ50の搬送方向に対して右または左など)または文字(「左」「右」など)であってもよい。更に、表示の形態も丸数字に限られるものではなく、図4で示すような四角で囲んだ数字(“3”、“359”、“24735”)など様々なものが考えられる。さらに、投影画像は、枠によって数字または文字を囲むものに限らず、背景を塗りつぶした白抜きの数字または文字であってもよい。また、表示する情報に応じて、丸・三角・四角など表示する数字または文字の形状を切り替えるなどとしてもよい。他にも、表示する情報ごとに個別に対応付けできるような絵を表示するなどとしてもよい。また、投影画像は静止画像に限らず、アニメーションであっても構わない。アニメーションの例としては、上記の各例を点滅させたり、拡大縮小させたり、色を変化させたりすることなど考えられる。また、仕分け方向を反映したアニメーションを投影しても構わない。仕分け方向を反映したアニメーションの例としては、例えば、仕分け方向に向かって光線または光点等を移動させたり、仕分け方向に向かって投影画像の全体または一部を形成したり色を変化させたり、仕分け方向に矢印を動かして表示するなど、さまざまなものが考えられる。投影画像の一部のみをアニメーションの対象とする場合は、数字や矢印などの作業者による仕分け先の判断への影響が大きい部分は変化させず、枠線などの仕分け先の影響の少ない部分を変化させることなどが考えられる。ただし、仕分け先の選択肢が少ない場合など、枠線内に投影される数字等の意味よりも仕分け方向を直感的に伝える方が効率的な状況では、固定された枠線内で数字や矢印などを仕分け方向に動かしてもよい。また、アニメーションは繰り返し投影されてもよいし、一度だけ投影されてもよい。なお、本開示において「画像投影装置」とは光線を直接荷物に投影するものに限定されない。本開示において「画像投影装置」には画像を表示可能な眼鏡も含む。つまり本開示において、荷物に投影光を投影する、荷物に画像を表示する、荷物に画像を投影する、などと表現した場合は、その表現は画像を表示可能な眼鏡を介して、擬似的に、荷物に投影光が投影されているかのように作業者に認識させることも含む。つまり、作業者が画像を表示可能な特殊な眼鏡を装着している場合、眼鏡を介して視認される荷物Pの像に、ここでの投影画像を重ねあわせてもよい。
 図3Aにおいて、搬送コンベヤ50の脇には、荷物を拾い上げる担当の作業者M(他の作業者は省略)が立っており、それぞれの担当の領域に到達した荷物を、丸数字1、丸数字2、丸数字3等で示すように搬送コンベヤ50から拾い上げる。
 例えば荷物P1はラベルに「AAA111」の荷物特定情報を持っており、「AAA111」の荷物特定情報は領域Aで仕分けの対象になる旨が特定されているとする。そこで、プロセッサ34は、荷物P1が特定領域に到着したら、図3Bに示すように生成した投影画像をプロジェクタ40に送信する。そして、プロジェクタ40は投影画像を荷物P1に投影する。よって、当該領域の作業者は、自身が担当する特定領域に到着した自身が拾い上げるべき荷物P1に容易に着目することが可能となり、結果的に荷物の仕分けをより効率的かつ正確に行うことが可能となる。
 本実施形態では、図3Aに示すように1台のプロジェクタ40に対して、複数の特定領域の投影の有無を切り替えさせてもよく、複数台のプロジェクタ40に対して、それぞれ担当の特定領域における投影の有無を切り替えさせてもよい。
 以下、実施形態の荷物仕分けシステム100において、投影指示装置30が行う荷物仕分けの動作の概要を説明する。
 [動作の概要]
 図5は、本実施形態の投影指示装置30、特に投影指示装置30のプロセッサ34が主として行う動作手順の概要を示すフローチャートである。まず、ラベルリーダ10による荷物のラベルのラベル記録情報の読み取り後、投影指示装置30の入力部32がラベルリーダ10から、ラベル記録情報に対応した荷物特定情報を取得する(ステップS1)。荷物特定情報とは、当該荷物に個別に付与される荷物特定番号、発送人の氏名、住所、電話番号、受取人の氏名、住所、電話番号、荷物の種類、等に類似する情報の少なくとも一つ含む情報である。プロセッサ34は、当該荷物特定情報に対して、当該荷物を特定する荷物特定番号としてのIDを付与し、IDを付与した時刻に対応する時刻情報とともにメモリ36に記録する(ステップS2)。メモリ36に記録するIDは、荷物特定情報に元から記録されていた荷物特定番号でもよいし、投影指示装置30が新しいIDを生成して付与してもよい。
 一方、ステップS1およびステップS2と並行して、画像センサ20の距離画像センサ22による荷物の距離画像の撮像後、投影指示装置30の入力部32が距離画像センサ22からセンシング情報としての距離画像を取得する(ステップS20)。プロセッサ34は、当該距離画像に存在する荷物に対応するIDがメモリ36に存在するか否かを判定する。
 当該距離画像に存在する荷物に対応するIDがメモリ36に存在するか否かを判定する手法の一例としては、次のような手順によることが挙げられる。すなわち、プロセッサ34は、ラベルリーダ10と距離画像センサ22との間の距離(既知とする)、および搬送コンベヤ50の速度から、荷物がラベルリーダ10と距離画像センサ22の間を移動するために要する時間を計算する。そして、距離画像を取得した時刻から当該時間を引くことで、距離画像に存在する荷物がラベルリーダ10(およびプロセッサ34)によりIDを付与された時刻が推定できる。そして、当該推定した時刻に近接して付与されたIDが、当該距離画像に存在する荷物に対応するIDであると推定できる。また、他の一例としては、ラベルリーダ10近辺に他の距離画像センサを設置する手法が挙げられる。すなわち、ラベルリーダ10がID(およびプロセッサ34)を付与した時から、ラベルリーダ10近辺に設置した他の距離画像センサを用いて当該IDが付与された荷物を追跡することで、時刻毎に当該荷物(およびID)とラベルリーダ10との距離を計測する。プロセッサ34は計測された荷物(およびID)とラベルリーダ10との距離と、ステップS20で取得された距離画像における荷物の距離と、2つの距離画像センサとの距離(既知とする)から所定のステップS20で取得された距離画像における荷物のIDを推定することができる。
 このようにして、プロセッサ34は当該距離画像に含まれる荷物に対応するIDがメモリ36に存在するか否かを判定する(ステップS30)。すなわち、ステップS2で述べたように、メモリ36には、荷物特定情報、ID、IDを付与した時刻に対応する時刻情報が予め記録されている。一方、プロセッサ34は、例えば上述したように、距離画像を取得した時刻から荷物がラベルリーダ10と距離画像センサ22の間を移動するために要する時間を引くことで、距離画像に存在する荷物がラベルリーダ10(およびプロセッサ34)によりIDを付与された時刻が推定できる。プロセッサ34は、予めメモリ36に記録された時刻情報と推定した時刻とを比較し、これらの値が近い場合は(例えば時間差が所定の閾値時間以下の場合など)、距離画像に含まれる荷物に対応するIDがメモリ36に存在すると判定することができる。メモリ36に荷物に対応するIDが存在すると判定した場合(ステップS30;Yes)、ステップS60以降の処理に進む。
 メモリ36に荷物に対応するIDが存在しないと判定した場合(ステップS30;No)、プロセッサ34は、当該荷物にIDが付与されていないことを前提として、当該荷物の位置を改めて特定し(ステップS40)、荷物にIDを付与する(ステップS50)。
 上述のステップと並行して、色画像センサ24は、距離画像を取得した各荷物の色画像を生成する。そして、プロセッサ34は、入力部32が取得する色画像センサ24からの色画像に基づき、搬送コンベヤ50により搬送されて移動するID付きの荷物を追跡する(ステップS60)。そして、プロセッサ34は、同じく色画像に基づき、追跡していた荷物が作業者により拾い上げられたか否かを判定する(ステップS70)。荷物が作業者により拾い上げられていないと判定した場合(ステップS70;No)、プロセッサ34は、荷物が、後述する特定領域(その荷物が拾い上げられるべき所定の仕分けエリア)に存在するか否かを判定する。そして、荷物が特定領域に存在する(到達した)と判定した場合(ステップS80;Yes)、プロセッサ34は投影画像を生成し、プロジェクタ40に送信する(ステップS90)荷物が特定領域に存在する(到達した)と判定しない場合(ステップS80;No)、ステップS60に戻り、プロセッサ34は、荷物の追跡を続行する。
 また、ステップS70で、荷物が作業者により拾い上げられたと判定した場合(ステップS70;Yes)、プロセッサ34は、荷物の詳細情報をメモリ36から読み出し(ステップS100)、詳細情報を含む投影画像を生成し、出力部38が生成した投影画像をプロジェクタ40に出力する(ステップS90)。投影指示装置30から投影画像を取得したプロジェクタ40は、当該投影画像を対応する荷物に投影する。
 以上は、投影指示装置30のプロセッサ34等が行う動作手順の概略というべきものである。もちろん、動作手順は上述したものには限定されない。例えば、ステップS70の判定等は省略することも可能である。また、ステップS70の判定の実施には、作業者の手と荷物との接触判定や、色画像、距離画像等を利用することも可能である。次に、本開示の固有事情について説明する。
 [荷物の担当作業者の指示]
 一般的に、複数の作業者Mが、搬送コンベヤ50の脇や近傍に位置し、搬送コンベアから、各作業者が荷物を拾い上げる。作業者は、図3A、図3Bに示したような丸数字や、図4に示したような四角で囲んだ数字を示す投影画像により、自身が拾い上げるべき荷物を目視で認識することはできる。ここまで述べた投影画像は、荷物そのものを特定する投影画像である。しかしながら、投影画像が、当該荷物を拾い上げるべき作業者を明確に指し示すことができれば、作業者がより荷物に気付きやすくなるとともに荷物を円滑に拾い上げることができ、作業の効率性がより高まると考えられる。
 そこで、本開示の投影指示装置30は、図3A、図3B、図4の様な荷物そのものを特定する投影画像のみならず、この投影画像を投影する荷物を処理、すなわち拾い上げるべき担当の作業者(担当作業者)を特定し、当該担当作業者を指し示す投影画像をも生成する。投影指示装置30はこの投影画像を荷物に投影することにより、作業者が担当の荷物の存在により気付きやすくするとともに、円滑に拾い上げることを可能なものにする。
 図6は、上述した様な作用を奏する投影指示装置30を有する荷物仕分けシステムが物流センターに設置され、稼働している状況を示す概念図である。複数(3名)の作業者M1、M2、M3が搬送コンベヤ50の脇に位置しており、各々が拾い上げるべき担当の荷物が決まっている、一般的に、各作業者は、配送先の住所別に担当する荷物が割り振られている。そして、各作業者M1、M2、M3には、例えば一体型の撮像投影装置60の画像センサ20が識別可能なマーカA、B、Cが付与され、各マーカA、B、Cに対応する作業者、当該作業者が担当する配送先住所等の情報が、投影指示装置30のメモリ36に記憶されている。
 図5のステップS1、S2で説明した様に、ラベルリーダ10が荷物のラベルのラベル記録情報を読み取り、投影指示装置30の入力部32がラベルリーダ10から、ラベル記録情報に対応した荷物特定情報を取得する。この荷物特定情報には、当該荷物に個別に付与される荷物特定番号、発送人の氏名、住所、電話番号、受取人の氏名、住所、電話番号、荷物の種類、等に加え、配送先住所も含まれている。投影指示装置30のプロセッサ34は、当該荷物特定情報に対して、当該荷物を特定する荷物特定番号としてのIDを付与してメモリ36に記録する。
 よって、プロセッサ34は、ラベルリーダ10から取得した荷物特定情報の配送先住所と、マーカA、B、Cの各々が付与された作業者の配送先住所を照合することにより、特定の荷物を拾い上げるべき担当作業者を特定することができる。この特定により、プロセッサ34は、特定の荷物に対し、その荷物を拾い上げるべき担当者を指し示す担当者指示投影画像を生成することができる。尚、図5のステップS20~S80により、プロセッサ34は搬送コンベヤ50上を移動する荷物を追跡することができるため、たとえ荷物が移動しても、当該荷物に対応した適切な担当者指示投影画像を生成することができる。
 そして、プロジェクタ40が、荷物に対し、プロセッサ34が生成した当該荷物の担当作業者を指し示す担当者指示投影画像を投影する。図6では、担当者指示投影画像として、担当作業者の方向を向いた矢印の画像が生成されている。ここで、荷物の位置と各作業者の位置は画像センサ20によって認識できているので、荷物から担当作業者に向かう矢印の画像を生成することは容易である。なお、矢印の画像は担当作業者の所在を大まかに示していれば十分であるので、厳密な正確性は求められない。そのため、担当作業者を一時的に見失った場合などは直前に投影していた矢印画像の方向をそのまま流用するなどとしてもよい。また、矢印の画像には担当作業者のマーカA、B、Cも付与されている。このマーカA、B、Cは、各担当者に対応付けられた識別情報(識別記号)に相当するものであり、担当者指示投影画像がこのような識別情報をも含むことにより、各作業者M1、M2、M3は、自身が拾い上げるべき荷物をさらに容易に判別することができる。ただし、担当者指示投影画像が識別情報を含むことは必須ではない。また、他の色や番号等の情報を盛り込むことも任意である。
 図7は、図5における概要手順のフローチャートの中で、上述の処理を前提としたステップS90における詳細な処理を示す。すなわち、上述した図5のステップS90では、プロセッサ34は、図3A、図3B及び図4で示した数字の如き荷物の仕分け先等を特定する投影画像を生成する。本実施形態では、まずプロセッサ34はラベルリーダ10から、特定の荷物に対する荷物特定情報中の配送先住所を取得する(ステップS91)。プロセッサ34は、メモリ36に予め記憶された当該荷物の担当作業者(担当者)を特定する(ステップS92)。そしてプロセッサ34は、生成した投影画像を変形して、荷物の仕分け先等と当該担当作業者を指し示す担当者指示投影画像(図6の矢印)を生成する(ステップS93)。そして、投影指示装置30の出力部38は、プロセッサ34がステップS93で生成した担当者指示投影画像を、プロジェクタ40に出力する(ステップS94)。投影指示装置30から担当者指示投影画像を取得したプロジェクタ40は、担当者指示投影画像を対応する荷物に投影する(ステップS95)。尚、担当作業者が移動しても、担当者指示投影画像は担当作業者を指し示し続ける。
 上述の例では、担当者指示投影画像として、荷物の仕分け先等の情報を含める形にしたが、これに限られるものではない。事前の作業の割り当てなどにより担当作業者であれば荷物の仕分け先を認識できるようであれば荷物の仕分け先等を示す数字等に替えて、担当作業者の氏名や識別番号等といった担当作業者を特定する情報を含めるものとしてもよい。
 上述の例では、画像センサ20が、各作業者のマーカA、B、Cを識別しているが、マーカA、B、Cの如き担当者識別情報の種類は特に限定されない。また、画像センサ20の角度などを工夫し、顔認証技術等を用いて、マーカ等に頼らずに直接作業者を識別してもよい。また、画像センサ20とは別に専用の画像センサを設け、マーカの識別や顔認証技術等を用いて各作業者の特定を行っても良い。また、認識・識別する対象が作業者ではなく、トラックやロールボックスパレット等荷物を積み込む先(荷物の移動先)であってもよい。また、作業者と荷物の移動先両方を認識・識別できる場合は、作業者と荷物の移動先を指し示す画像を併せて投影してもよいし、いずれか一方のみを投影してもよい。
 また、上述の例では荷物特定情報に含まれる情報のうち配送先住所を用いて、担当者を特定したが、荷物特定情報の他の情報を用いて担当者を特定してもよい。また、多くの荷物を処理して多忙な作業者には、これから回す荷物を減らしてもよい。作業者と配送先住所(その他の荷物特定情報)の紐付けは他のデータベースに記憶し、投影指示装置30が当該データベースを参照してもよい。例えば、特定のタイミング(荷物仕分けシステム100のスタート時等)に、搬送コンベヤ50の近傍において作業者が立っている位置をカメラ等で認識し、当該作業者と配送先住所(その他の荷物特定情報)との紐付けを決定した上で、データベースに登録してもよい。
 また、上述したマーカA、B、Cの如き担当者識別情報によれば、担当者そのものを記憶するのが一般的であるが、RFID等のタグ、ビーコン、スマートフォン等の如き、担当者そのものではなく、何かしら荷物が処理される(拾い上げられる)位置を示す情報を持つ装置と配送先住所(その他の荷物特定情報)との紐付けをデータベースに登録してもよい。また、予め各作業者が作業可能な領域(例えば、1メートル間隔など)を定めておき、その荷物を処理する領域ごとにビーコン等を固定的に設置してもよい。このような構成であっても、荷物からビーコンに向かう(領域を指し示す)矢印画像等を投影することで、各作業者は自身の処理すべき荷物を認識することができる。この構成では、予めビーコンとそのビーコンが示す領域を担当する作業者の識別情報を対応付けておくことにより、ビーコンが示す領域そのものを識別する識別情報が付与されることとなり、画像センサ20で作業者を認識する必要がなくなるため、処理負荷を軽減することができる。また、この構成では、作業者にマーカやビーコン等を持たせる必要がなくなるため、作業者の服装をマーカ等がついたものに強制する必要はなくなり、また、作業者に貸与するタグやビーコン等を紛失するリスクも低減できる。なお、この領域ごとにビーコン等を設置する構成では、当該領域の担当作業者が一時的に不在の場合であっても、担当作業者がいるものとして矢印等の画像を生成してしまうおそれがある。そのため、画像センサ20を併用して、作業者が領域にいることを認識できない場合には、他の領域を指す矢印画像等を投影するものとしてもよい。また、荷物仕分けシステム100が、搬送コンベヤ50の座標を認識しているのであれば、その情報を用いて各作業者の担当する領域を定義することも可能である。この場合、領域ごとにビーコン等を設ける必要はない。また、荷物仕分けシステム100は、荷物Pの追跡等のために少なくとも搬送コンベヤ50の座標を予め認識している。そのため、この変形例の構成であれば荷物仕分けシステム100に新たなハードウェアやマーカ等を追加しなくとも、担当者指示投影画像を生成することができる。ここで、各作業者に割り当てる領域を、搬送コンベヤ50上の座標で定義することにより、搬送コンベヤ50の外の座標が認識できていなくとも、担当者指示投影画像を生成することができる。実際の環境では、作業者は搬送コンベヤ50の外の領域にいるが、荷物の仕分けのため搬送コンベヤ50の近傍に待機している可能性が高い。そのため、各作業者の担当する領域を搬送コンベヤ50の座標で近似しても担当者指示投影画像の内容に大きなずれは生じない。むろん、荷物仕分けシステム100が搬送コンベヤ50の周辺の座標も認識できているのであれば、各作業者の担当する領域を搬送コンベヤ50の外の座標を用いて定義してもよい。
 また、上述の例では、担当者指示投影画像と、荷物の仕分け先等を示す投影画像を一体として生成していたが、これに限られるものではない。それぞれ別々の画像として生成してもよい。この場合、例えば、図6における担当者指示投影画像のうち矢印の部分のみの画像と、図3A、図3B及び図4で示した数字の如き荷物の仕分け先等を特定する投影画像とを並べて投影してもよい。
 また、荷物を担当する作業者がまわりに見当たらない場合は、それを示すエラーパターンの投影を荷物に行うことも可能である。
 作業者の追跡、指示を維持する方法としては、例えばRFID/ビーコン/スマートフォン等を用いた屋内における人の追従手法や、カメラによる人物認識を用いることができ、さらに作業者の衣服や帽子等(色を人で切り替えたり、マーカをつけたり)により精度を向上させることが可能である。
 上述した様に、本開示によれば、荷物を拾い上げる担当作業者を指し示す(担当者指示)投影画像を荷物に投影するため、担当作業者は担当の荷物の存在に容易に気付くことができ、円滑に拾い上げることが可能となる。ただし、上述した図5および図7の処理フローはあくまで一例である。担当作業者を指し示す投影画像の生成、この投影画像の投影等のタイミングや順序は任意である。また、担当者指示投影画像を投影することができれば、担当作業者は荷物を拾い上げることができるため、荷物そのものを特定する荷物特定投影画像の投影は必須ではない。
 以上、図面を参照して本開示に係る投影指示装置、荷物仕分けシステムおよび投影指示方法の実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
 本開示は、荷物の担当作業者を指し示すことができる投影指示装置、荷物仕分けシステムおよび投影指示方法の提供に有用である。
10  ラベルリーダ
20  画像センサ
22  距離画像センサ
24  色画像センサ
30  投影指示装置
32  入力部
34  プロセッサ
36  メモリ
38  出力部
40  プロジェクタ
50  搬送コンベヤ
60  撮像投影装置
100 荷物仕分けシステム
P   荷物

Claims (10)

  1.  荷物を特定する荷物特定情報に基づき、前記荷物に投影する投影画像を生成する投影指示装置であって、
     プロセッサと、
     メモリと、を備え、
     前記プロセッサは、前記メモリと協働して、
      前記荷物特定情報に基づいて、前記荷物の処理を担当する担当者または前記荷物の移動先を特定し、前記担当者または前記移動先の少なくとも一方を指し示す担当者指示投影画像を生成する、
     投影指示装置。
  2.  請求項1に記載の投影指示装置であって、
     前記プロセッサは、前記メモリと協働して、前記荷物特定情報に含まれる配送先住所に基づいて、前記担当者を特定する、
     投影指示装置。
  3.  請求項1または2に記載の投影指示装置であって、
     前記担当者指示投影画像は前記担当者の方向を向いた矢印の画像である、
     投影指示装置。
  4.  請求項1から3のいずれか1項に記載の投影指示装置であって、
     前記担当者指示投影画像は担当者に対応付けられた識別記号を含む、
     投影指示装置。
  5.  請求項1から4のいずれか1項に記載の投影指示装置であって、
     前記担当者には、それぞれ、画像センサによって認識可能な識別情報が付与されており、
     前記プロセッサは、前記メモリと協働して、
     前記画像センサが認識した識別情報に基づいて、前記担当者を認識し、前記担当者指示投影画像を生成する、
     投影指示装置。
  6.  請求項5に記載の投影指示装置であって、
     前記プロセッサは、前記メモリと協働して、前記識別情報に基づいて前記担当者の位置を特定する、
     投影指示装置。
  7.  請求項1に記載の投影指示装置であって、
     前記担当者は予め前記荷物を処理する領域が定められており、
     前記プロセッサは、前記メモリと協働して、
      前記担当者指示投影画像として、前記領域を指し示す投影画像を生成する、
     投影指示装置。
  8.  請求項7に記載の投影指示装置であって、
     前記領域には、それぞれ、前記領域を識別する識別情報が付与されており、
     前記プロセッサは、前記メモリと協働して、
     前記識別情報に基づいて、前記領域を認識し、前記担当者指示投影画像を生成する、
     投影指示装置。
  9.  請求項1から8のいずれか1項に記載の投影指示装置と、荷物に貼付されたラベルから前記荷物特定情報を読み取るラベルリーダと、少なくとも前記荷物を撮像する画像センサと、少なくとも前記担当者指示投影画像を前記荷物に投影する画像投影装置と、を備える荷物仕分けシステム。
  10.  荷物を特定する荷物特定情報に基づき、前記荷物に投影する投影画像を生成する投影指示方法であって、
     プロセッサがメモリと協働して、
      前記荷物特定情報に基づいて、前記荷物の処理を担当する担当者または前記荷物の移動先を特定し、前記担当者または前記移動先の少なくとも一方を指し示す担当者指示投影画像を生成する、
     投影指示方法。
PCT/JP2018/025738 2017-09-27 2018-07-06 投影指示装置、荷物仕分けシステムおよび投影指示方法 Ceased WO2019064805A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019517110A JPWO2019064805A1 (ja) 2017-09-27 2018-07-06 投影指示装置、荷物仕分けシステムおよび投影指示方法
EP18861834.2A EP3689791A4 (en) 2017-09-27 2018-07-06 PROJECTION INSTRUCTION DEVICE, PACKAGE SORTING SYSTEM, AND PROJECTION INSTRUCTION PROCESS
US16/649,207 US20200290093A1 (en) 2017-09-27 2018-07-06 Projection instruction device, package sorting system, and projection instruction method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017187202 2017-09-27
JP2017-187202 2017-09-27

Publications (1)

Publication Number Publication Date
WO2019064805A1 true WO2019064805A1 (ja) 2019-04-04

Family

ID=65900933

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/025738 Ceased WO2019064805A1 (ja) 2017-09-27 2018-07-06 投影指示装置、荷物仕分けシステムおよび投影指示方法

Country Status (4)

Country Link
US (1) US20200290093A1 (ja)
EP (1) EP3689791A4 (ja)
JP (1) JPWO2019064805A1 (ja)
WO (1) WO2019064805A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044976A1 (ja) * 2019-09-03 2021-03-11 パナソニックIpマネジメント株式会社 投影指示装置、投影指示システムおよびプランデータ管理システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705561A (zh) * 2018-07-09 2020-01-17 菜鸟智能物流控股有限公司 一种实现对象分拨分拣的方法及系统
DE102022111680B3 (de) * 2022-05-10 2023-08-24 Beckhoff Automation Gmbh Verfahren zum Betreiben eines Automatisierungssystems, Steuerungssystem und Automatisierungssystem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7090134B2 (en) 2003-03-04 2006-08-15 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
WO2015145982A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 情報処理装置、情報処理システム、物流システム、情報処理方法およびプログラム記憶媒体
WO2016142997A1 (ja) * 2015-03-06 2016-09-15 株式会社日立物流 作業支援システム、端末装置及びサーバ装置
JP2017007866A (ja) * 2016-09-13 2017-01-12 オークラ輸送機株式会社 ピッキングシステム
JP2017088388A (ja) * 2015-11-16 2017-05-25 株式会社東芝 配達支援システム、配達支援装置、及び配達支援プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7090134B2 (en) 2003-03-04 2006-08-15 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
WO2015145982A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 情報処理装置、情報処理システム、物流システム、情報処理方法およびプログラム記憶媒体
WO2016142997A1 (ja) * 2015-03-06 2016-09-15 株式会社日立物流 作業支援システム、端末装置及びサーバ装置
JP2017088388A (ja) * 2015-11-16 2017-05-25 株式会社東芝 配達支援システム、配達支援装置、及び配達支援プログラム
JP2017007866A (ja) * 2016-09-13 2017-01-12 オークラ輸送機株式会社 ピッキングシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3689791A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044976A1 (ja) * 2019-09-03 2021-03-11 パナソニックIpマネジメント株式会社 投影指示装置、投影指示システムおよびプランデータ管理システム
US12093877B2 (en) 2019-09-03 2024-09-17 Panasonic Intellectual Property Management Co., Ltd. Projection instruction device, projection instruction system, and plan data management system

Also Published As

Publication number Publication date
EP3689791A4 (en) 2020-11-11
US20200290093A1 (en) 2020-09-17
JPWO2019064805A1 (ja) 2020-09-03
EP3689791A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
US20200282429A1 (en) Package sorting system, projected instruction device, and package sorting method
US11369999B2 (en) Parcel determination device, parcel sorting system, and parcel determination method
JP7126066B2 (ja) 投影指示装置、荷物仕分けシステムおよび投影指示方法
WO2019064805A1 (ja) 投影指示装置、荷物仕分けシステムおよび投影指示方法
JP7129616B2 (ja) 投影指示装置、荷物仕分けシステムおよび投影指示方法
JP7194884B2 (ja) 荷物仕分けシステム、投影指示装置、投影指示方法
JP7129617B2 (ja) 投影指示装置、荷物仕分けシステムおよび投影指示方法
US11348333B2 (en) Package recognition device, package sorting system and package recognition method
JP2020114778A (ja) 投影指示装置、荷物仕分けシステムおよび投影指示方法
JP7129614B2 (ja) 荷物認識装置、荷物仕分けシステムおよび荷物認識方法
JP7126065B2 (ja) 荷物認識装置、荷物仕分けシステムおよび荷物認識方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019517110

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18861834

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018861834

Country of ref document: EP

Effective date: 20200428