[go: up one dir, main page]

WO2013058372A1 - プラットホームドア用安全装置 - Google Patents

プラットホームドア用安全装置 Download PDF

Info

Publication number
WO2013058372A1
WO2013058372A1 PCT/JP2012/077136 JP2012077136W WO2013058372A1 WO 2013058372 A1 WO2013058372 A1 WO 2013058372A1 JP 2012077136 W JP2012077136 W JP 2012077136W WO 2013058372 A1 WO2013058372 A1 WO 2013058372A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional sensor
platform door
detection
dimensional
safety device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/077136
Other languages
English (en)
French (fr)
Inventor
論平 大町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
Original Assignee
Nabtesco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nabtesco Corp filed Critical Nabtesco Corp
Publication of WO2013058372A1 publication Critical patent/WO2013058372A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B1/00General arrangement of stations, platforms, or sidings; Railway networks; Rail vehicle marshalling systems
    • B61B1/02General arrangement of stations and platforms including protection devices for the passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Definitions

  • the present invention relates to a platform door safety device for detecting an object existing in a predetermined area near the platform door.
  • the projector includes a projector that is a light emitting unit that emits light in the vicinity of the platform door, and an image sensor that is a light receiving element that receives light emitted from the projector and reflected by an object.
  • a distance image sensor that is a time-of-flight type three-dimensional sensor that generates a distance image that is an image representing the distance of an object with respect to each pixel based on an output of an image sensor, and a pixel of a distance image generated by the distance image sensor
  • a safety device that includes a calculation unit that is an in-region object detection means for detecting an object existing in a predetermined region near the platform door (see Patent Document 1).
  • the distance image sensor is a time-of-flight type three-dimensional sensor that acquires the distance of the object to itself based on the timing of the output peak of the imaging device
  • detection area When an object moves at high speed outside the area where the object is detected (hereinafter referred to as “detection area”), a phenomenon may be erroneously detected that the object exists in the detection area by the calculation unit.
  • detection area When an object moves at high speed outside the area where the object is detected (hereinafter referred to as “detection area”), a phenomenon may be erroneously detected that the object exists in the detection area by the calculation unit.
  • the inventor of the present application recognizes the problem. This will be specifically described below.
  • FIG. 12 is a side view of a platform 910 provided with a platform door safety device 930, which is an example of a conventional platform door safety device.
  • a platform door 920 is installed on the platform 910.
  • the platform door 920 includes door main bodies 921 and 922 and door pockets 923 and 924 for storing the door main bodies 921 and 922, respectively.
  • drive units (not shown) for driving the door main bodies 921 and 922 are housed.
  • the platform door safety device 930 is a time-of-flight (TOF) type three-dimensional sensor 940 that generates a distance image that is an image representing the distance of an object relative to itself for each pixel, and a distance image generated by the three-dimensional sensor 940. And a computer 950 for detecting an object existing in a detection area 930a indicated by diagonal lines.
  • TOF time-of-flight
  • each pixel of the distance image is a point having information on the distance of the object with respect to the three-dimensional sensor 940.
  • the distance image is a two-dimensional set of these pixels and is three-dimensional data indicating the position of the object with respect to the three-dimensional sensor 940.
  • the three-dimensional sensor 940 is fixed to the track side of the door pocket 923 of the platform door 920.
  • the three-dimensional sensor 940 includes a light emitting unit (not shown) that emits light in the vicinity of the platform door 920 and a light receiving element (not shown) that receives light emitted from the light emitting unit and reflected by an object.
  • the three-dimensional sensor 940 can measure the distance of an object existing in a predetermined angle range 940a.
  • the three-dimensional sensor 940 incorporates an IC (IntegratedInCircuit), and acquires the distance of the object relative to itself based on the peak timing of the output of the light receiving element.
  • IC IntegratedInCircuit
  • Positions P1, P2, and P3 are positions at distances L, 2L, and 3L from the three-dimensional sensor 940, respectively.
  • FIGS. 13A to 13D show the light reflected by the object 990 when the light emission pattern of the light emitting unit of the three-dimensional sensor 940 and the object 990 are present at the positions P1, P2, and P3, respectively. It is a graph which shows the light reception pattern of the light receiving element (henceforth "target light receiving element") to receive. Graphs showing the light receiving patterns of the target light receiving elements when the object 990 is present at the positions P1, P2, and P3 are shown in FIGS. 13A, 13B, 13C, and 13D, respectively. ).
  • the light emitting unit of the three-dimensional sensor 940 emits light at a time period of 4T.
  • the target light receiving element of the three-dimensional sensor 940 receives light with a time period of 4T, delayed by T from the light emission time of the light emitting unit when the object 990 exists at the position P1, and the object 990 exists at the position P2.
  • the light is received with a time period of 4T, 3T behind the light emission time of the light emitting unit.
  • the light emitted from the light emitting unit of the three-dimensional sensor 940 attenuates as the traveling distance increases. Therefore, the output of the target light receiving element when the object 990 is present at each of the positions P1, P2, and P3 decreases in the order of the positions P1, P2, and P3.
  • the three-dimensional sensor 940 generates a one-frame distance image by accumulating outputs for a predetermined plurality of periods for each time within the period for the output of the light receiving element.
  • FIGS. 14 (A) to 14 (C) show the target light reception when the outputs of a plurality of predetermined cycles are integrated every time within the cycle when the object 990 is present at each of the positions P1, P2, and P3. It is a graph which shows the output of an element.
  • FIGS. 14A, 14B, and 14C are graphs showing the output of the target light receiving element when the object 990 is present at the positions P1, P2, and P3, respectively.
  • the three-dimensional sensor 940 can calculate L, which is the distance of the object 990 relative to itself, as T ⁇ (1/2) ⁇ c.
  • c is the speed of light.
  • the three-dimensional sensor 940 calculates the distance of the object 990 relative to itself as 2T ⁇ (1/2) ⁇ c, that is, 2L.
  • the three-dimensional sensor 940 calculates the distance of the object 990 relative to itself as 3T ⁇ (1/2) ⁇ c, that is, 3L.
  • the three-dimensional sensor 940 calculates the distance of the object 990 as described above for each light receiving element, and generates a one-frame distance image representing the distance of the object 990 relative to itself for each pixel.
  • FIG. 15 is a side view of the platform 910 when the object 990 moves at high speed in the order of positions P4, P5, P6, and P7.
  • the object 990 passes a large number of positions other than the positions P5 and P6 between the position P4 and the position P7. However, for ease of understanding, only the positions P4, P5, P6, and P7 will be described below.
  • Positions P4, P5, P6, and P7 are positions at distances of 3.01L, 3L, 2.99L, and 2.98L from the three-dimensional sensor 940, respectively.
  • FIGS. 16A to 16D are graphs showing the light receiving patterns of the target light receiving elements when the object 990 is present at each of the positions P4, P5, P6, and P7.
  • Graphs showing the light receiving patterns of the target light receiving elements when the object 990 is present at the positions P4, P5, P6, and P7 are shown in FIGS. 16 (A), 16 (B), 16 (C), and 16 respectively. (D). Since the directions of the positions P4, P5, P6, and P7 with respect to the three-dimensional sensor 940 are different from each other, the target light receiving elements when the object 990 exists at each of the positions P4, P5, P6, and P7 are different light receiving elements. It is.
  • the target light receiving element of the three-dimensional sensor 940 is 4T delayed from the light emission time of the light emitting unit by 3.01T when the object 990 is present at the position P4.
  • Light is received at a time period, and when the object 990 is present at the position P5, light is received at a time period of 4T, 3T behind the light emission time of the light emitting section, and when the object 990 is present at the position P6, the light emitting section Light is received with a time period of 4T with a delay of 2.99T from the light emission time, and when the object 990 is present at the position P7, light is received with a time period of 4T with a delay of 2.98T from the light emission time of the light emitting unit.
  • the light emitted from the light emitting unit of the three-dimensional sensor 940 attenuates as the traveling distance increases. Therefore, the output of the target light receiving element when the object 990 is present at each of the positions P4, P5, P6, and P7 increases in the order of the positions P4, P5, P6, and P7.
  • the light receiving pattern of the target light receiving element when the object 990 is present at each of the positions P4, P5, P6, and P7 is indicated by a broken line.
  • the time existing at the positions P4, P5, and P6 is very short. Accordingly, the light receiving pattern of the target light receiving element when the object 990 moves at high speed in the order of the positions P4, P5, P6, and P7 is, for example, a range indicated by hatching in FIGS. 16 (A) to 16 (D).
  • the light receiving pattern of the target light receiving element when the object 990 moves at the position P4 is only in the time range from 2.01T to 2.21T.
  • the light receiving pattern of the target light receiving element when the object 990 moves in the position P5 is only in the time range from 6.4T to 6.6T.
  • the light receiving pattern of the target light receiving element when the object 990 moves at the position P6 is only the time range from 11.39T to 11.59T.
  • the light receiving pattern of the target light receiving element when the object 990 reaches the position P7 is only a range after any time after 12T.
  • 17 (A) to 17 (D) show a case where outputs for a plurality of predetermined cycles are integrated at intervals within a cycle when the object 990 moves at high speed in the order of positions P4, P5, P6, and P7. It is a graph which shows the output of an object light receiving element. Graphs showing the outputs of the target light receiving elements when the object 990 moves at the positions P4, P5, and P6 are FIGS. 17A, 17B, and 17C, respectively.
  • FIG. 17D is a graph showing the output of the target light receiving element when the object 990 is present at the position P7.
  • the peak timing of the output of the target light receiving element with respect to the position P4 is 2.21T. Accordingly, the three-dimensional sensor 940 calculates the distance of the object 990 relative to the position P4 as 2.21T ⁇ (1/2) ⁇ c, that is, 2.21L. Similarly, the three-dimensional sensor 940 calculates the distance of the object 990 relative to the position P5 as 2.6T ⁇ (1/2) ⁇ c, that is, 2.6L. The three-dimensional sensor 940 calculates the distance of the object 990 relative to the position P6 as 3.39T ⁇ (1/2) ⁇ c, that is, 3.39L. The three-dimensional sensor 940 calculates the distance of the object 990 relative to the position P7 as 2.98T ⁇ (1/2) ⁇ c, that is, 2.98L.
  • the three-dimensional sensor 940 calculates the distance of the object 990 as described above for each light receiving element, and generates a one-frame distance image representing the distance of the object 990 relative to itself for each pixel. That is, the three-dimensional sensor 940 causes the object 990 not only at the position P7 but also at the positions P4 ′, P5 ′, and P6 ′ as shown in FIG. 18 due to the influence of the object 990 moving at high speeds at the positions P4, P5, and P6. A one-frame distance image representing the existence is generated.
  • FIG. 18 is a diagram illustrating an example of a distance image generated by the three-dimensional sensor 940.
  • FIG. 19 is a side view of the platform 910 for explaining the positions P4 ′, P5 ′, and P6 ′ shown in FIG.
  • information on the distance of each pixel is drawn according to the difference in hatching.
  • information on the distance that each pixel has is represented by, for example, a color difference.
  • positions P4 ′, P5 ′, and P6 ′ are positions where an object 990 moving at high speeds in positions P4, P5, and P6 is erroneously measured by the three-dimensional sensor 940, respectively. Therefore, when the three-dimensional sensor 940 generates the distance image shown in FIG. 18, the computer 950 erroneously detects that the object 990 moving at a high speed outside the detection area 930a exists in the detection area 930a at the position P4 ′.
  • an object of the present invention is to provide a platform door safety device that can detect an object existing in a predetermined region near the platform door more accurately than in the past.
  • a light emitting portion configured to be disposed near the platform door and configured to emit light;
  • a light receiving element configured to receive light emitted from the light emitting unit and reflected by an object;
  • a time-of-flight type three-dimensional sensor wherein the distance of the object with respect to the three-dimensional sensor is acquired based on a peak timing of an output of the light receiving element, A set of three-dimensional data indicative of the position of the object relative to the three-dimensional sensor; and Detection means configured to detect the object present in a predetermined region near the platform door based on the point of the three-dimensional data generated by the three-dimensional sensor;
  • Selecting means configured to select a point for detection, which is a point used for detection of the object by the detecting means among the three-dimensional data generated by the three-dimensional sensor,
  • the selection means includes a change amount of the distance from the three-dimensional data generated by the three-dimensional sensor before the three-dimensional data among the points of the three-dimensional data generated by the three-dimensional sensor. Select only the points
  • the predetermined criterion may be a criterion that the amount of change is larger than a predetermined negative value.
  • the platform door safety device may include an operation execution unit configured to execute a predetermined operation for safety when the detection unit detects the object in the area.
  • the predetermined operation may be an operation of opening the platform door.
  • a light emitting portion configured to be disposed near the platform door and configured to emit light;
  • a light receiving element configured to receive light emitted from the light emitting unit and reflected by an object;
  • a time-of-flight type three-dimensional sensor wherein the distance of the object with respect to the three-dimensional sensor is acquired based on a peak timing of an output of the light receiving element, and two-dimensionally above the points each having the distance information
  • a set of three-dimensional data indicative of the position of the object relative to the three-dimensional sensor And a control method for a platform door safety device comprising a computer, the control method comprising: Detecting the object present in a predetermined region near the platform door based on the point of the three-dimensional data generated by the three-dimensional sensor in the computer; A selection step of selecting a detection point which is a point used for detection of the object by the detection step among the three-dimensional data generated by the three-dimensional sensor; Including In the selection step, among the points of the three-dimensional data generated by the three-
  • the safety device for platform doors of the present invention does not select a point where the distance of the object with respect to the three-dimensional sensor changes abruptly among the points of the three-dimensional data generated by the three-dimensional sensor as the detection point. Thereby, when an object moves at high speed outside a predetermined area near the platform door, the possibility of erroneous detection that the object exists in that area can be reduced. Therefore, the platform door safety device of the present invention can detect an object existing in a predetermined area near the platform door more accurately than in the past.
  • the platform door safety device of the present invention has a high possibility of being erroneously detected that an object is present in a predetermined region near the platform door among points where the distance of the object to the three-dimensional sensor has changed abruptly, That is, it is possible to exclude from the detection points only points that represent an object that has rapidly approached the three-dimensional sensor. As a result, not only the point that represents the object that has suddenly moved closer to the 3D sensor, but also the point that represents the object that has suddenly moved away from the 3D sensor, among the points where the distance of the object to the 3D sensor has suddenly changed. Compared to the configuration excluded from the points, the processing time for selecting the detection points can be shortened.
  • the platform door safety device of the present invention can accurately detect an object present in a predetermined area near the platform door. As a result, it is possible to prevent troubles in the operation of the vehicle due to erroneous detection that an object is present in a predetermined area near the platform door.
  • the point where the distance of the object with respect to the three-dimensional sensor changes abruptly among the points of the three-dimensional data generated by the three-dimensional sensor is not selected as the detection point.
  • the platform door safety device and the control method therefor according to the present invention, it is possible to detect an object existing in a predetermined area near the platform door more accurately than in the past.
  • FIG. 1 is a side view of a platform on which a platform door safety device according to an embodiment of the present invention is installed.
  • FIG. 2 is a plan view of a portion of the platform shown in FIG.
  • FIG. 3 is a front view of the three-dimensional sensor shown in FIG. 4 is a side view of the platform shown in FIG. 1 showing a detection area of the platform door safety device.
  • FIG. 5 is a plan view of a part of the platform shown in FIG. 1 showing the detection area of the platform door safety device.
  • FIG. 6 is a block diagram of a hardware configuration of the computer shown in FIG.
  • FIG. 7 is a block diagram of functions of the computer shown in FIG.
  • FIG. 8 is a flowchart of the operation of the detection pixel selecting means shown in FIG. FIG.
  • FIG. 9 is a flowchart of the operation of the detection pixel selecting unit shown in FIG. 7, and is a flowchart of an operation different from the operation shown in FIG.
  • FIG. 10 is a flowchart of the operation of the detection pixel selecting means of the platform door safety device according to the second embodiment.
  • FIG. 11 is an explanatory diagram of one process in the operation shown in FIG.
  • FIG. 12 is a side view of a platform on which a conventional platform door safety device is installed.
  • 13A is a graph showing a light emission pattern of the light emitting unit of the three-dimensional sensor shown in FIG. 12, and
  • FIG. 13B is a target light reception shown in FIG. 12 when an object is present at the position P1.
  • FIG. 13C is a graph showing the light receiving pattern of the target light receiving element shown in FIG.
  • FIG. 14A shows the output of the target light receiving element of the three-dimensional sensor shown in FIG. 12 when the outputs of a plurality of predetermined cycles are integrated every time within the cycle when an object is present at the position P1.
  • FIG. 14B shows the three-dimensional sensor shown in FIG. 12 when the outputs of a plurality of predetermined cycles are integrated for each time in the cycle when an object is present at the position P2.
  • 14C is a graph showing the output of the target light receiving element, and FIG.
  • FIG. 14C is a diagram when the outputs of a plurality of predetermined cycles are integrated for each time in the cycle when an object is present at the position P3.
  • 12 is a graph showing an output of a target light receiving element of the three-dimensional sensor shown in FIG.
  • FIG. 15 is a side view of the platform shown in FIG. 12 when an object moves at high speed in the order of positions P4, P5, P6, and P7.
  • FIG. 16A is a graph showing a light receiving pattern of the target light receiving element of the three-dimensional sensor shown in FIG. 12 when an object is present at the position P4.
  • FIG. 16B is a graph showing an object at the position P5.
  • FIG. 16C is a graph showing the light receiving pattern of the target light receiving element of the three-dimensional sensor shown in FIG.
  • FIG. 16C shows the three-dimensional shown in FIG. 12 when an object exists at the position P6.
  • FIG. 16D is a graph showing the light receiving pattern of the target light receiving element of the three-dimensional sensor shown in FIG. 12 when an object is present at position P7. is there.
  • FIG. 17A shows the output of a plurality of predetermined periods during the period in which the object exists at position P4 when the object moves at high speed in the order of positions P4, P5, P6, and P7.
  • FIG. 17B is a graph showing the output of the target light receiving element of the three-dimensional sensor shown in FIG. 12 when accumulated every time, and FIG. 17B shows a case where the object moves at high speed in the order of positions P4, P5, P6, and P7.
  • FIG. 17A shows the output of a plurality of predetermined periods during the period in which the object exists at position P4 when the object moves at high speed in the order of positions P4, P5, P6, and P7.
  • FIG. 17B is a graph showing the output of
  • FIG. 13 is a graph showing the output of the target light receiving element of the three-dimensional sensor shown in FIG. 12 when the outputs of a plurality of predetermined periods in the period in which the object is present at the position P5 are integrated every time within the period;
  • FIG. 17C shows the output of a plurality of predetermined periods during the period in which the object exists at the position P6 when the object moves at high speed in the order of positions P4, P5, P6, and P7.
  • the three-dimensional sensor shown in FIG. FIG. 17D is a graph showing the output of the target light receiving element, and FIG. 17D shows a predetermined period in a period in which the object exists at the position P7 when the object moves at high speed in the order of the positions P4, P5, P6, and P7.
  • FIG. 18 is a diagram illustrating an example of a distance image generated by the three-dimensional sensor illustrated in FIG.
  • FIG. 19 is a side view of the platform for explaining the positions P4 ′, P5 ′, and P6 ′ shown in FIG.
  • FIG. 1 is a side view of a platform 10 on which a platform door safety device 30 according to the present embodiment is installed.
  • FIG. 2 is a plan view of a part of the platform 10.
  • the platform 10 is provided with a platform door 20.
  • the platform door 20 includes door main bodies 21 and 22 and door pockets 23 and 24 for storing the door main bodies 21 and 22, respectively.
  • drive units (not shown) for driving the door main bodies 21 and 22 are housed.
  • the platform door safety device 30 includes a time-of-flight (TOF) type three-dimensional sensor 40 that generates a distance image that is an image representing the distance of an object to itself for each pixel, and a distance image generated by the three-dimensional sensor 40. And a computer 50 that detects an object based on the pixels.
  • TOF time-of-flight
  • each pixel of the distance image is a point having information on the distance of the object with respect to the three-dimensional sensor 40.
  • the distance image is a two-dimensional set of these pixels and is three-dimensional data indicating the position of the object with respect to the three-dimensional sensor 40.
  • the three-dimensional sensor 40 is fixed to the track side of the door pocket 23 of the platform door 20.
  • FIG. 3 is a front view of the three-dimensional sensor 40.
  • FIG. 4 is a side view of the platform 10 showing the detection area 30a of the platform door safety device 30.
  • FIG. 5 is a plan view of a part of the platform 10 showing the detection area 30a of the platform door safety device 30.
  • the three-dimensional sensor 40 includes a plurality of LEDs (Light Emitting Diode) 41 that is a light emitting unit that emits light in the vicinity of the platform door 20 and a plurality of LEDs 41 that are reflected by an object.
  • a plurality of light receiving elements 42 that receive the emitted light, and a band-pass filter 43 disposed in front of the light receiving element 42.
  • the three-dimensional sensor 40 can measure the distance of an object existing in a predetermined angle range 40a.
  • the three-dimensional sensor 40 incorporates an IC, and acquires the distance of the object relative to itself based on the peak timing of the output of the light receiving element 42 as in the conventional three-dimensional sensor 940 described above.
  • the plurality of LEDs 41 are arranged so as to surround the plurality of light receiving elements 42.
  • the LED 41 emits only light having a predetermined wavelength.
  • the plurality of light receiving elements 42 are arranged vertically and horizontally and receive light from the respective responsible ranges in the range 40a.
  • the plurality of LEDs 41 emit light simultaneously to the respective responsible ranges of the plurality of light receiving elements 42.
  • the band pass filter 43 passes only light having a wavelength in a predetermined range including the wavelength of light emitted from the LED 41.
  • FIG. 6 is a block diagram of the hardware configuration of the computer 50.
  • a computer 50 includes, for example, a CPU (Central Processing Unit) 51, a ROM (Read Only Memory) 52 that stores programs such as the safety device program 52a of the present invention and various data in advance. And a RAM (Random Access Memory) 53, which is a rewritable volatile storage device used as a work area of the CPU 51, and a USB for communicating with external devices such as the drive unit of the platform door 20 and the three-dimensional sensor 40. And a communication unit 54 such as (Universal ⁇ ⁇ Serial Bus).
  • the CPU 51 is an arithmetic processing unit that operates the computer 50 by executing a program stored in the ROM 52.
  • the RAM 53 temporarily stores programs and various data when the CPU 51 executes the programs.
  • the safety device program 52a may be installed in the computer 50 at the manufacturing stage of the computer 50, or from a storage medium such as a CD (Compact Disk) or DVD (Digital Versatile Disk), or from the network to the computer 50. It may be installed additionally.
  • a storage medium such as a CD (Compact Disk) or DVD (Digital Versatile Disk)
  • FIG. 7 is a block diagram of functions of the computer 50.
  • the CPU 51 executes the safety device program 52 a stored in the ROM 52, so that the vicinity of the platform door 20 is based on the pixels of the distance image generated by the three-dimensional sensor 40.
  • the in-region object detection means 50a detection means for detecting an object existing in the detection area 30a indicated by hatching in FIGS.
  • a detection pixel selection means 50b selection means for selecting a detection pixel as a detection point which is a pixel used for detection of an object by the detection means 50a, and an object within the detection region 30a by the detection means 50a.
  • Safe operation execution means 50c (operation execution) that executes a predetermined operation for safety when it is detected To function as a stage).
  • the computer 50 of the platform door safety device 30 emits light from the plurality of LEDs 41 of the three-dimensional sensor 40 to the range 40a as shown in FIGS. 4 and 5 when the platform door 20 is closed.
  • the three-dimensional sensor 40 receives light emitted from the plurality of LEDs 41 and reflected by the object by the plurality of light receiving elements 42.
  • the three-dimensional sensor 40 like the conventional three-dimensional sensor 940 described above, accumulates outputs for a predetermined plurality of periods for each output within the period and outputs light from the plurality of LEDs 41.
  • the three-dimensional position of the object is acquired based on the difference between the time when the light is received and the time when each of the plurality of light receiving elements 42 receives light, and a one-frame distance image is generated.
  • the three-dimensional sensor 40 transmits the distance images generated as described above to the computer 50 one after another.
  • the three-dimensional sensor 40 transmits a distance image of 20 frames per second to the computer 50. Therefore, the period corresponding to one period of the above period is a period obtained by further dividing 1/20 second.
  • the selection unit 50b of the computer 50 receives the distance image from the three-dimensional sensor 40
  • the selection unit 50b of the pixels of the distance image generated by the three-dimensional sensor 40 is generated by the three-dimensional sensor 40 one frame before the distance image. Only pixels satisfying a predetermined criterion for the distance variation from the distance image are selected as detection pixels. That is, the selection means 50b performs the process shown in FIG. 8 one after another on the distance images received one after another from the three-dimensional sensor 40. Note that the selection unit 50b selects all pixels as detection pixels because there is no distance image one frame before the first frame distance image.
  • FIG. 8 is a flowchart of the operation of the selection means 50b.
  • the selection means 50b calculates the amount of change in distance from the distance image one frame before for all the pixels in the distance image of the current frame (S101). Since the time between frames of the distance image is clear, the amount of change calculated in S101 can be grasped as the speed of the object on a straight line connecting the three-dimensional sensor 40 and the object.
  • the selection unit 50b targets the first pixel in the distance image of the current frame (S102).
  • the selection unit 50b determines whether or not a predetermined criterion, that is, a criterion that the amount of change calculated in S101 is greater than a predetermined negative value is satisfied for the pixel currently being processed (S103).
  • the value used for the determination in S103 is desirably set so that a person existing in the detection region 30a is appropriately detected by the detection means 50a.
  • the value used for the determination in S103 is the third order Pixels representing an object moving away from the original sensor 40, pixels representing an object whose position relative to the three-dimensional sensor 40 does not change, and pixels representing an object approaching the three-dimensional sensor 40 at a speed of 10 m / s or less are used as detection pixels. It is desirable to set so that the selection means 50b selects.
  • the selection unit 50b determines in S103 that the amount of change calculated in S101 is greater than a predetermined negative value, the selection unit 50b selects the pixel currently targeted as a detection pixel (S104).
  • the selection unit 50b determines in S103 that the amount of change calculated in S101 is equal to or less than a predetermined negative value, the selection unit 50b does not select the pixel currently targeted as a detection pixel (S105).
  • the selection unit 50b determines whether or not all pixels of the distance image of the current frame are targeted (S106).
  • the selection unit 50b determines in S106 that all the pixels in the distance image of the current frame are not the target, the next pixel of the current target pixel in the distance image of the current frame is set as a new target. (S107), the process returns to S103 again.
  • the selection unit 50b determines in S106 that all the pixels in the distance image of the current frame are targeted, the process illustrated in FIG. 8 ends.
  • the detection unit 50a of the computer 50 includes the detection area 30a based on the detection pixels selected by the selection unit 50b among the pixels of the distance image of the current frame. Detects objects present in That is, the detection unit 50a determines whether or not the detection pixel exists in the detection region 30a with respect to the distance images received one after another from the three-dimensional sensor 40, and if the detection pixel exists in the detection region 30a. When it is determined, it is determined that an object exists in the detection area 30a.
  • the operation execution means 50c of the computer 50 performs predetermined operations for safety, such as an operation of opening the platform door 20 or an operation of sounding an alarm when an object is detected in the detection area 30a by the detection means 50a. Execute.
  • the platform door safety device 30 does not select, as a detection pixel, a pixel in which the distance of the object with respect to the three-dimensional sensor 40 has changed abruptly among the distance images generated by the three-dimensional sensor 40 ( S105).
  • the platform door safety device 30 can more accurately detect an object existing in the detection region 30a in the vicinity of the platform door 20 than before.
  • the reference that the amount of change in distance from the distance image one frame before is larger than a predetermined negative value is the reference that is selected as the detection pixel.
  • the platform door safety device 30 rapidly applies not only the pixel representing the object that has rapidly approached the three-dimensional sensor 40 among the pixels in which the distance of the object to the three-dimensional sensor 40 has suddenly changed, but also the three-dimensional sensor 40.
  • the processing time for selecting the detection pixel can be shortened.
  • the platform door safety device 30 not only applies to the pixel representing the object that has suddenly approached the 3D sensor 40 among the pixels in which the distance of the object to the 3D sensor 40 has suddenly changed, but also to the 3D sensor 40.
  • a configuration may be adopted in which pixels that represent an object that is far away from the detection pixels are also excluded from the detection pixels.
  • the selection unit 50b performs the process illustrated in FIG. 9 instead of the process illustrated in FIG. 8, thereby rapidly approaching the three-dimensional sensor 40 among the pixels in which the distance of the object with respect to the three-dimensional sensor 40 has rapidly changed.
  • the pixels representing the object that has moved away rapidly from the three-dimensional sensor 40 can be excluded from the detection pixels.
  • FIG. 9 is a flowchart of the operation of the selection means 50b, and is a flowchart of an operation different from the operation shown in FIG.
  • the operation shown in FIG. 9 is an operation obtained by adding the process of S121 to the operation shown in FIG. That is, if the selection unit 50b determines in S103 that the amount of change calculated in S101 is larger than a predetermined negative value, the amount of change calculated in S101 is smaller than a predetermined positive value for the pixel currently being processed. It is determined whether or not the standard is satisfied (S121). When the selection unit 50b determines in S121 that the amount of change calculated in S101 is smaller than a predetermined positive value, the selection unit 50b selects the pixel currently targeted as a detection pixel (S104).
  • the selection unit 50b determines in S121 that the amount of change calculated in S101 is equal to or greater than a predetermined positive value, the selection unit 50b does not select the pixel that is currently targeted as a detection pixel (S105).
  • the platform door safety device 30 detects the vicinity of the platform door 20 because the operation execution means 50c executes a predetermined operation for safety when an object is detected in the detection area 30a by the detection means 50a. If it is erroneously detected that an object exists in the region 30a, the operation of the vehicle 90 is hindered. For example, when a person on the platform 10 shakes his / her hand to the passenger of the vehicle 90 outside the detection area 30a before the vehicle 90 departs after the platform door 20 is closed, the vehicle 90 starts at a high speed outside the detection area 30a.
  • the platform door safety device 30 has a great significance in accurately detecting an object existing in the detection region 30a in the vicinity of the platform door 20.
  • the platform door safety device 30 When the detection means 50a detects an object in the detection area 30a, the platform door safety device 30 is configured so that the platform execution door 50c performs an operation of opening the platform door 20 as a predetermined operation for safety. If there is a false detection that an object is present in the detection area 30a near 20, there is a great hindrance to the operation of the vehicle 90, so the significance of accurately detecting an object present in the detection area 30a near the platform door 20 is significant. Is particularly large.
  • the platform door safety device 30 does not have to perform a predetermined operation for safety when an object is detected in the detection area 30a by the detection means 50a.
  • the platform door safety device according to the second embodiment is the same as the platform door safety device 30 described above except for the operation of the selection means 50b.
  • the platform door safety device selecting unit 50b When receiving the distance image from the three-dimensional sensor 40, the platform door safety device selecting unit 50b according to the second embodiment receives a distance image from the three-dimensional sensor 40 and a predetermined distance or more from the pixel of the distance image generated by the three-dimensional sensor 40. Only pixels having a difference of less than a predetermined number of surrounding pixels are selected as detection pixels. That is, the selection means 50b performs the process shown in FIG. 10 one after another on the distance images received one after another from the three-dimensional sensor 40.
  • FIG. 10 is a flowchart of the operation of the platform door safety device selecting means 50b according to the second embodiment.
  • the selection means 50b targets the first pixel in the distance image of the current frame (S201).
  • the selection unit 50b acquires the number of pixels having a difference equal to or more than a predetermined distance from the current target pixel among the pixels around the current target pixel (S202). For example, when the pixel currently targeted is the pixel 220 shown in FIG. 11, the selection unit 50b calculates the difference in distance from the pixel 220 for each of the pixels 221 to 228 around the pixel 220, and calculates the calculated distance. By determining whether or not the difference is equal to or greater than a predetermined distance, the number of pixels having a difference equal to or greater than the predetermined distance from the pixel 220 among the pixels 221 to 228 around the pixel 220 is obtained. When the pixel targeted by the selection unit 50b is a pixel forming the contour of the distance image, the number of surrounding pixels is less than eight.
  • the distance used as the determination criterion in S202 is preferably set so that a person existing in the detection area 30a is appropriately detected by the detection means 50a.
  • the selection unit 50b determines whether or not the number acquired in S202 is less than a predetermined number (S203).
  • the number used as the determination criterion in S203 may be set to an appropriate number such as 3, for example.
  • the selection unit 50b determines in S203 that the number acquired in S202 is less than the predetermined number, the selection unit 50b selects the pixel currently targeted as a detection pixel (S204).
  • the selection unit 50b determines in S203 that the number acquired in S202 is equal to or greater than the predetermined number, the selection unit 50b does not select the pixel currently targeted as a detection pixel (S205).
  • the selection unit 50b determines whether or not all the pixels of the distance image of the current frame are targeted when the process of S204 or S205 is completed (S206).
  • the selection unit 50b determines in S206 that all the pixels in the distance image of the current frame are not targeted, the next pixel of the current target pixel is selected as a new target in the distance image of the current frame. (S207), the process returns to S202 again.
  • the selection unit 50b determines in S206 that all the pixels of the distance image of the current frame are targeted, the process illustrated in FIG.
  • the distance image generated by the three-dimensional sensor 40 is measured at the wrong position by the three-dimensional sensor 40.
  • the distance between pixels representing an object is extremely different from the surrounding pixels.
  • the second embodiment requires more processing time to select the detection pixels than the first embodiment, but the detection pixels are selected for each frame regardless of other frames. Can do.
  • a platform door safety device that can detect an object existing in a predetermined region near the platform door more accurately than in the past.
  • platform door 20 platform door 30 platform door safety device 30a detection area (predetermined area) 40 Three-dimensional sensor 41 LED (light emitting part) 42 Light receiving element 50 Computer 50a Object detection means in area (detection means) 50b Detection pixel selection means (selection means) 50c Safe operation execution means (operation execution means) 52a Safety device program

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Platform Screen Doors And Railroad Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

 タイムオブフライト方式の三次元センサーを有するプラットホームドア用安全装置が供される。前記三次元センサーによって生成された三次元データの点に基づいてプラットホームドアの近傍の所定の領域内に存在する物体を検出するよう構成された検出手段が設けられる。前記三次元データのうち前記検出手段によって前記物体の検出に使用される点である検出用点を選定するよう構成された選定手段が設けられる。前記選定手段は、前記三次元データの前記点のうち、その三次元データより前に前記三次元センサーによって生成された前記三次元データからの三次元センサーに対する前記物体の距離の変化量が所定の基準を満たす点のみを、前記検出用点として選定する。

Description

プラットホームドア用安全装置
 本発明は、プラットホームドアの近傍の所定の領域内に存在する物体を検出するプラットホームドア用安全装置に関する。
 従来、プラットホームドア用安全装置として、プラットホームドアの近傍に光を発する発光部である投光器と、投光器から発せられて物体によって反射された光を受ける受光素子である撮像素子とを備えていて、自身に対する物体の距離を画素毎に表す画像である距離画像を撮像素子の出力に基づいて生成するタイムオブフライト方式の三次元センサーである距離画像センサと、距離画像センサによって生成された距離画像の画素に基づいてプラットホームドアの近傍の所定の領域内に存在する物体を検出する領域内物体検出手段である演算部とを備えている安全装置が知られている(特許文献1参照。)。
日本国特開2011-93514号公報
 しかしながら、従来のプラットホームドア用安全装置においては、距離画像センサが撮像素子の出力のピークのタイミングに基づいて自身に対する物体の距離を取得するタイムオブフライト方式の三次元センサーである場合、演算部によって物体が検出される領域(以下「検出領域」という。)外で物体が高速に移動するときに、その物体が演算部によって検出領域内に存在すると誤検出される現象が発生することがあるという問題を本願の発明者は認識している。以下、具体的に説明する。
 図12は、従来のプラットホームドア用安全装置の一例であるプラットホームドア用安全装置930が設置されたプラットホーム910の側面図である。
 図12に示すように、プラットホーム910には、プラットホームドア920が設置されている。
 プラットホームドア920は、ドア本体921、922と、ドア本体921、922をそれぞれ収納する戸袋923、924とを備えている。戸袋923、924には、ドア本体921、922をそれぞれ駆動する図示していない駆動部が内部に収納されている。
 プラットホームドア用安全装置930は、自身に対する物体の距離を画素毎に表す画像である距離画像を生成するタイムオブフライト(TOF)方式の三次元センサー940と、三次元センサー940によって生成された距離画像の画素に基づいて、斜線で示した検出領域930a内に存在する物体を検出するコンピューター950とを備えている。
 ここで、距離画像の各画素は、三次元センサー940に対する物体の距離の情報をそれぞれ有する点である。そして、距離画像は、それらの画素の二次元上の集合であって、三次元センサー940に対する物体の位置を示す三次元データである。
 三次元センサー940は、プラットホームドア920の戸袋923の線路側に固定されている。三次元センサー940は、プラットホームドア920の近傍に光を発する図示していない発光部と、発光部から発せられて物体によって反射された光を受ける図示していない受光素子とを備えている。三次元センサー940は、所定の角度の範囲940aに存在する物体の距離を測定可能である。三次元センサー940は、IC(Integrated Circuit)を内蔵しており、受光素子の出力のピークのタイミングに基づいて自身に対する物体の距離を取得する。
 図12に示す位置P1、P2、P3にそれぞれ物体990が存在している場合のプラットホームドア用安全装置930の動作について説明する。位置P1、P2、P3は、それぞれ三次元センサー940から距離がL、2L、3Lの位置である。
 図13(A)乃至13(D)は、三次元センサー940の発光部の発光パターンと、位置P1、P2、P3にそれぞれ物体990が存在している場合の、物体990によって反射された光を受ける受光素子(以下「対象受光素子」という。)の受光パターンとを示すグラフである。位置P1、P2、P3に物体990が存在している場合の対象受光素子の受光パターンを示すグラフが、それぞれ図13(A)、図13(B)、図13(C)、図13(D)である。
 図13(A)乃至13(D)に示すように、三次元センサー940の発光部は、4Tの時間周期で発光する。そして、三次元センサー940の対象受光素子は、位置P1に物体990が存在している場合に発光部の発光時間からT遅れて4Tの時間周期で受光し、位置P2に物体990が存在している場合に発光部の発光時間から2T遅れて4Tの時間周期で受光し、位置P3に物体990が存在している場合に発光部の発光時間から3T遅れて4Tの時間周期で受光する。
 なお、三次元センサー940の発光部から発せられた光は、進行距離が長いほど減衰する。したがって、位置P1、P2、P3にそれぞれ物体990が存在している場合の対象受光素子の出力は、位置P1、P2、P3の順に小さくなっている。
 三次元センサー940は、受光素子の出力について、所定の複数の周期分の出力を周期内の時間毎に積算して1フレームの距離画像を生成する。
 図14(A)乃至14(C)は、位置P1、P2、P3にそれぞれ物体990が存在している場合に所定の複数の周期分の出力を周期内の時間毎に積算したときの対象受光素子の出力を示すグラフである。位置P1、P2、P3に物体990が存在している場合の対象受光素子の出力を示すグラフが、それぞれ図14(A)、図14(B)、図14(C)である。
 図14(A)乃至14(C)に示すように、位置P1に物体990が存在している場合、対象受光素子の出力のピークのタイミングはTである。したがって、三次元センサー940は、位置P1に物体990が存在している場合、自身に対する物体990の距離であるLを、T×(1/2)×cとして算出することができる。ここで、cは、光の速度である。同様に、三次元センサー940は、位置P2に物体990が存在している場合、自身に対する物体990の距離を、2T×(1/2)×c、すなわち、2Lとして算出する。三次元センサー940は、位置P3に物体990が存在している場合、自身に対する物体990の距離を、3T×(1/2)×c、すなわち、3Lとして算出する。
 三次元センサー940は、各受光素子について以上のようにして物体990の距離を算出し、自身に対する物体990の距離を画素毎に表した1フレームの距離画像を生成する。
 図15は、物体990が位置P4、P5、P6、P7の順に高速に移動する場合のプラットホーム910の側面図である。物体990は、位置P4と、位置P7との間において、位置P5、P6以外にも多数の位置を通過する。しかしながら、理解を容易にするために、以下においては、位置P4、P5、P6、P7のみについて説明する。
 図15に示すように位置P4、P5、P6、P7の順に物体990が高速に移動する場合のプラットホームドア用安全装置930の動作について説明する。位置P4、P5、P6、P7は、それぞれ三次元センサー940から距離が3.01L、3L、2.99L、2.98Lの位置である。
 図16(A)乃至16(D)は、位置P4、P5、P6、P7にそれぞれ物体990が存在している場合の対象受光素子の受光パターンを示すグラフである。位置P4、P5、P6、P7に物体990が存在している場合の対象受光素子の受光パターンを示すグラフが、それぞれ図16(A)、図16(B)、図16(C)、図16(D)である。なお、三次元センサー940に対する位置P4、P5、P6、P7の方向がそれぞれ異なるので、位置P4、P5、P6、P7にそれぞれ物体990が存在している場合の対象受光素子は、それぞれ異なる受光素子である。
 図16(A)乃至16(D)に示すように、三次元センサー940の対象受光素子は、位置P4に物体990が存在している場合に発光部の発光時間から3.01T遅れて4Tの時間周期で受光し、位置P5に物体990が存在している場合に発光部の発光時間から3T遅れて4Tの時間周期で受光し、位置P6に物体990が存在している場合に発光部の発光時間から2.99T遅れて4Tの時間周期で受光し、位置P7に物体990が存在している場合に発光部の発光時間から2.98T遅れて4Tの時間周期で受光する。
 なお、三次元センサー940の発光部から発せられた光は、進行距離が長いほど減衰する。したがって、位置P4、P5、P6、P7にそれぞれ物体990が存在している場合の対象受光素子の出力は、位置P4、P5、P6、P7の順に大きくなっている。
 ここで、図16(A)乃至16(D)において、位置P4、P5、P6、P7にそれぞれ物体990が存在している場合の対象受光素子の受光パターンは、破線で示している。位置P4、P5、P6、P7の順に物体990が高速に移動する場合には位置P4、P5、P6に存在する時間が僅かである。したがって、位置P4、P5、P6、P7の順に物体990が高速に移動する場合の対象受光素子の受光パターンは、例えば、図16(A)乃至16(D)に斜線で示す範囲となる。すなわち、位置P4を物体990が移動する場合の対象受光素子の受光パターンは、2.01Tから2.21Tまでの時間の範囲のみである。位置P5を物体990が移動する場合の対象受光素子の受光パターンは、6.4Tから6.6Tまでの時間の範囲のみである。位置P6を物体990が移動する場合の対象受光素子の受光パターンは、11.39Tから11.59Tまでの時間の範囲のみである。位置P7に物体990が到達した場合の対象受光素子の受光パターンは、12Tより後の何れかの時間以降の範囲のみである。
 図17(A)乃至17(D)は、物体990が位置P4、P5、P6、P7の順に高速に移動する場合に所定の複数の周期分の出力を周期内の時間毎に積算したときの対象受光素子の出力を示すグラフである。位置P4、P5、P6を物体990が移動する場合の対象受光素子の出力を示すグラフが、それぞれ図17(A)、図17(B)、図17(C)である。位置P7に物体990が存在している場合の対象受光素子の出力を示すグラフが、図17(D)である。
 図17(A)乃至17(D)に示すように、位置P4に対する対象受光素子の出力のピークのタイミングは2.21Tである。したがって、三次元センサー940は、位置P4に対して、自身に対する物体990の距離を、2.21T×(1/2)×c、すなわち、2.21Lとして算出する。同様に、三次元センサー940は、位置P5に対して、自身に対する物体990の距離を、2.6T×(1/2)×c、すなわち、2.6Lとして算出する。三次元センサー940は、位置P6に対して、自身に対する物体990の距離を、3.39T×(1/2)×c、すなわち、3.39Lとして算出する。三次元センサー940は、位置P7に対して、自身に対する物体990の距離を、2.98T×(1/2)×c、すなわち、2.98Lとして算出する。
 三次元センサー940は、各受光素子について以上のようにして物体990の距離を算出し、自身に対する物体990の距離を画素毎に表した1フレームの距離画像を生成する。すなわち、三次元センサー940は、位置P4、P5、P6を高速に移動する物体990の影響によって、図18に示すように位置P7だけでなく位置P4´、P5´、P6´にも物体990が存在することを表す1フレームの距離画像を生成する。
 図18は、三次元センサー940によって生成された距離画像の一例を示す図である。図19は、図18に示す位置P4´、P5´、P6´の説明のためのプラットホーム910の側面図である。
 図18に示す距離画像において、各画素が有する距離の情報は、ハッチングの違いによって描き分けられている。しかしながら、実際には、距離画像において、各画素が有する距離の情報は、例えば色の違いによって表される。
 図18および図19に示すように、位置P4´、P5´、P6´は、それぞれ位置P4、P5、P6を高速で移動する物体990が三次元センサー940によって誤って測定された位置である。したがって、三次元センサー940が図18に示す距離画像を生成した場合、コンピューター950は、検出領域930a外で高速に移動する物体990について、位置P4´で検出領域930a内に存在すると誤検出する。
 そこで、本発明は、プラットホームドアの近傍の所定の領域内に存在する物体を従来より正確に検出することができるプラットホームドア用安全装置を提供することを目的とする。
 本発明の有利な局面の1つによれば、
 プラットホームドアの近傍に配置されるよう構成され、光を発するよう構成された発光部と、
 前記発光部から発せられて物体によって反射された光を受けるよう構成された受光素子と、
 タイムオブフライト方式の三次元センサーであって、該三次元センサーに対する前記物体の距離を前記受光素子の出力のピークのタイミングに基づいて取得して、前記距離の情報をそれぞれ有する点の二次元上の集合であって該三次元センサーに対する前記物体の位置を示す三次元データを生成するよう構成された、ものと、
 前記三次元センサーによって生成された前記三次元データの前記点に基づいて前記プラットホームドアの近傍の所定の領域内に存在する前記物体を検出するよう構成された検出手段と、
 前記三次元センサーによって生成された前記三次元データのうち前記検出手段によって前記物体の検出に使用される点である検出用点を選定するよう構成された選定手段とを備えており、
 前記選定手段は、前記三次元センサーによって生成された前記三次元データの前記点のうち、その三次元データより前に前記三次元センサーによって生成された前記三次元データからの前記距離の変化量が所定の基準を満たす点のみを、前記検出用点として選定する、
 プラットホームドア用安全装置が供される。
 前記所定の基準は、前記変化量が所定の負の値より大きいという基準であっても良い。
 前記プラットホームドア用安全装置は、前記検出手段によって前記領域内に前記物体が検出された場合に安全のための所定の動作を実行するよう構成された動作実行手段を備えていても良い。
 前記所定の動作は、前記プラットホームドアを開く動作であっても良い。
 本発明の有利な局面のもう1つによれば、
 プラットホームドアの近傍に配置されるよう構成され、光を発するよう構成された発光部と、
 前記発光部から発せられて物体によって反射された光を受けるよう構成された受光素子と、
 タイムオブフライト方式の三次元センサーであって、該三次元センサーに対する前記物体の距離を前記受光素子の出力のピークのタイミングに基づいて取得して、前記距離の情報をそれぞれ有する点の二次元上の集合であって該三次元センサーに対する前記物体の位置を示す三次元データを生成するよう構成されたものと、
 コンピューターと、を備えているプラットホームドア用安全装置の制御方法が供され、該制御方法は、
 前記コンピューターに、前記三次元センサーによって生成された前記三次元データの前記点に基づいて前記プラットホームドアの近傍の所定の領域内に存在する前記物体を検出する検出ステップと、
 前記三次元センサーによって生成された前記三次元データのうち前記検出ステップによって前記物体の検出に使用される点である検出用点を選定する選定ステップと、
 を含み、
 前記選定ステップにおいては、前記三次元センサーによって生成された前記三次元データの前記点のうち、その三次元データより前に前記三次元センサーによって生成された前記三次元データからの前記距離の変化量が所定の基準を満たす点のみを前記検出用点として選定する。
 本発明の有利な局面のもう1つによれば、前記プラットホームドア用安全装置の制御方法を前記コンピュータに実行させるよう構成されたコンピュータリーダブルプログラムを記録した記録媒体が供される。
 本発明のプラットホームドア用安全装置は、三次元センサーによって生成された三次元データの点のうち、三次元センサーに対する物体の距離が急激に変化した点を検出用点として選定しない。これにより、プラットホームドアの近傍の所定の領域外で物体が高速に移動する場合に、その物体がその領域内に存在すると誤検出する可能性を低減することができる。したがって、本発明のプラットホームドア用安全装置は、プラットホームドアの近傍の所定の領域内に存在する物体を従来より正確に検出することができる。
 本発明のプラットホームドア用安全装置は、三次元センサーに対する物体の距離が急激に変化した点のうち、プラットホームドアの近傍の所定の領域内に物体が存在すると誤検出される可能性が高い点、すなわち、三次元センサーに急激に近づいた物体を表す点のみを検出用点から除外することができる。これにより、三次元センサーに対する物体の距離が急激に変化した点のうち、三次元センサーに急激に近づいた物体を表す点だけでなく、三次元センサーに急激に遠ざかった物体を表す点も検出用点から除外する構成と比較して、検出用点の選定の処理時間を短縮することができる。
 本発明のプラットホームドア用安全装置は、プラットホームドアの近傍の所定の領域内に存在する物体を正確に検出することができる。これにより、プラットホームドアの近傍の所定の領域内に物体が存在すると誤検出されたことによる、車両の運行に対する支障を防ぐことができる。
 本発明のプラットホームドア用安全装置の制御方法では、三次元センサーによって生成された三次元データの点のうち、三次元センサーに対する物体の距離が急激に変化した点を検出用点として選定しない。これにより、プラットホームドアの近傍の所定の領域外で物体が高速に移動する場合に、その物体がその領域内に存在すると誤検出する可能性を低減することができる。したがって、本発明のプラットホームドア用安全装置の制御方法では、プラットホームドアの近傍の所定の領域内に存在する物体を従来より正確に検出することができる。
 以上より、本発明のプラットホームドア用安全装置およびその制御方法によれば、プラットホームドアの近傍の所定の領域内に存在する物体を従来より正確に検出することができる。
図1は、本願発明の一実施の形態に係るプラットホームドア用安全装置が設置されたプラットホームの側面図である。 図2は、図1に示すプラットホームの一部の平面図である。 図3は、図1に示す三次元センサーの正面図である。 図4は、プラットホームドア用安全装置の検出領域を示した図1に示すプラットホームの側面図である。 図5は、プラットホームドア用安全装置の検出領域を示した図1に示すプラットホームの一部の平面図である。 図6は、図1に示すコンピューターのハードウェア構成のブロック図である。 図7は、図1に示すコンピューターの機能のブロック図である。 図8は、図7に示す検出用画素選定手段の動作のフローチャートである。 図9は、図7に示す検出用画素選定手段の動作のフローチャートであって、図8に示す動作とは異なる動作のフローチャートである。 図10は、第二の実施の形態に係るプラットホームドア用安全装置の検出用画素選定手段の動作のフローチャートである。 図11は、図10に示す動作における一処理の説明図である。 図12は、従来のプラットホームドア用安全装置が設置されたプラットホームの側面図である。 図13(A)は、図12に示す三次元センサーの発光部の発光パターンを示すグラフであり、図13(B)は、位置P1に物体が存在している場合の図12に示す対象受光素子の受光パターンを示すグラフであり、図13(C)は、位置P2に物体が存在している場合の図12に示す対象受光素子の受光パターンを示すグラフであり、図13(D)は、位置P3に物体が存在している場合の図12に示す対象受光素子の受光パターンを示すグラフである。 図14(A)は、位置P1に物体が存在している場合に所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフであり、図14(B)は、位置P2に物体が存在している場合に所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフであり、図14(C)は、位置P3に物体が存在している場合に所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフである。 図15は、物体が位置P4、P5、P6、P7の順に高速に移動する場合の図12に示すプラットホームの側面図である。 図16(A)は、位置P4に物体が存在している場合の図12に示す三次元センサーの対象受光素子の受光パターンを示すグラフであり、図16(B)は、位置P5に物体が存在している場合の図12に示す三次元センサーの対象受光素子の受光パターンを示すグラフであり、図16(C)は、位置P6に物体が存在している場合の図12に示す三次元センサーの対象受光素子の受光パターンを示すグラフであり、図16(D)は、位置P7に物体が存在している場合の図12に示す三次元センサーの対象受光素子の受光パターンを示すグラフである。 図17(A)は、物体が位置P4、P5、P6、P7の順に高速に移動する場合に、位置P4に物体が存在している期間における所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフであり、図17(B)は、物体が位置P4、P5、P6、P7の順に高速に移動する場合に、位置P5に物体が存在している期間における所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフであり、図17(C)は、物体が位置P4、P5、P6、P7の順に高速に移動する場合に、位置P6に物体が存在している期間における所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフであり、図17(D)は、物体が位置P4、P5、P6、P7の順に高速に移動する場合に、位置P7に物体が存在している期間における所定の複数の周期分の出力を周期内の時間毎に積算したときの図12に示す三次元センサーの対象受光素子の出力を示すグラフである。 図18は、図12に示す三次元センサーによって生成された距離画像の一例を示す図である。 図19は、図18に示す位置P4´、P5´、P6´の説明のためのプラットホームの側面図である。
 以下、本願発明の一実施の形態について、図面を用いて説明する。
 まず、本実施の形態に係るプラットホームドア用安全装置の構成について説明する。
 図1は、本実施の形態に係るプラットホームドア用安全装置30が設置されたプラットホーム10の側面図である。図2は、プラットホーム10の一部の平面図である。
 図1および図2に示すように、プラットホーム10には、プラットホームドア20が設置されている。
 プラットホームドア20は、ドア本体21、22と、ドア本体21、22をそれぞれ収納する戸袋23、24とを備えている。戸袋23、24には、ドア本体21、22をそれぞれ駆動する図示していない駆動部が内部に収納されている。
 プラットホームドア用安全装置30は、自身に対する物体の距離を画素毎に表す画像である距離画像を生成するタイムオブフライト(TOF)方式の三次元センサー40と、三次元センサー40によって生成された距離画像の画素に基づいて物体を検出するコンピューター50とを備えている。
 ここで、距離画像の各画素は、三次元センサー40に対する物体の距離の情報をそれぞれ有する点である。そして、距離画像は、それらの画素の二次元上の集合であって、三次元センサー40に対する物体の位置を示す三次元データである。
 三次元センサー40は、プラットホームドア20の戸袋23の線路側に固定されている。
 図3は、三次元センサー40の正面図である。図4は、プラットホームドア用安全装置30の検出領域30aを示したプラットホーム10の側面図である。図5は、プラットホームドア用安全装置30の検出領域30aを示したプラットホーム10の一部の平面図である。
 図3~図5に示すように、三次元センサー40は、プラットホームドア20の近傍に光を発する発光部である複数のLED(Light Emitting Diode)41と、複数のLED41から発せられて物体によって反射された光を受ける複数の受光素子42と、受光素子42の前に配置されているバンドパスフィルタ43とを備えている。三次元センサー40は、所定の角度の範囲40aに存在する物体の距離を測定可能である。三次元センサー40は、ICを内蔵しており、上述した従来の三次元センサー940と同様に、受光素子42の出力のピークのタイミングに基づいて自身に対する物体の距離を取得する。
 複数のLED41は、複数の受光素子42を囲むように配置されている。LED41は、所定の波長の光のみを発するものである。
 複数の受光素子42は、上下左右に整列して配置されていて、範囲40aのうち各々の担当の範囲からの光を受ける。複数のLED41は、複数の受光素子42の各々の担当の範囲に光を同時に発する。
 バンドパスフィルタ43は、LED41が発する光の波長を含む所定の範囲の波長の光のみを通すものである。
 図6は、コンピューター50のハードウェア構成のブロック図である。
 図6に示すように、コンピューター50は、例えば、CPU(Central Processing Unit)51と、本願発明の安全装置用プログラム52aなどのプログラムおよび各種のデータを予め記憶しているROM(Read Only Memory)52と、CPU51の作業領域として用いられる書き換え可能な揮発性記憶装置であるRAM(Random Access Memory)53と、プラットホームドア20の駆動部や三次元センサー40などの外部の装置と通信を行うためのUSB(Universal Serial Bus)などの通信部54とを備えている。CPU51は、ROM52に記憶されているプログラムを実行することによってコンピューター50を動作させる演算処理装置である。RAM53は、CPU51によってプログラムが実行されるときにプログラムや各種のデータを一時的に記憶するようになっている。
 安全装置用プログラム52aは、コンピューター50の製造段階でコンピューター50にインストールされていても良いし、CD(Compact Disk)、DVD(Digital Versatile Disk)などの記憶媒体から、または、ネットワーク上からコンピューター50に追加でインストールされるようになっていても良い。
 図7は、コンピューター50の機能のブロック図である。
 図7に示すように、コンピューター50は、CPU51がROM52に記憶されている安全装置用プログラム52aを実行することによって、三次元センサー40によって生成された距離画像の画素に基づいてプラットホームドア20の近傍の所定の領域、すなわち、図4および図5において斜線で示した検出領域30a内に存在する物体を検出する領域内物体検出手段50a(検出手段)、三次元センサー40によって生成された距離画像のうち検出手段50aによって物体の検出に使用される画素である検出用点としての検出用画素を選定する検出用画素選定手段50b(選定手段)、および、検出手段50aによって検出領域30a内に物体が検出された場合に安全のための所定の動作を実行する安全動作実行手段50c(動作実行手段)として機能する。
 次に、プラットホームドア用安全装置30の動作について説明する。
 プラットホームドア用安全装置30のコンピューター50は、プラットホームドア20が閉じたときなどに、三次元センサー40の複数のLED41から図4および図5に示すように範囲40aに光を発する。
 次いで、三次元センサー40は、複数のLED41から発せられて物体によって反射された光を複数の受光素子42によって受ける。
 そして、三次元センサー40は、上述した従来の三次元センサー940と同様に、受光素子42の出力について、所定の複数の周期分の出力を周期内の時間毎に積算し、複数のLED41から光を発した時間と、複数の受光素子42がそれぞれ光を受けた時間との差に基づいて、物体の三次元上の位置を取得して、1フレームの距離画像を生成する。
 三次元センサー40は、以上のようにして生成した距離画像を次々にコンピューター50に送信する。例えば、三次元センサー40は、毎秒20フレームの距離画像をコンピューター50に送信する。したがって、上記の周期の1周期分の期間は、1/20秒を更に細かく分割した期間である。
 コンピューター50の選定手段50bは、三次元センサー40から距離画像を受信すると、三次元センサー40によって生成された距離画像の画素のうち、その距離画像より1フレーム前に三次元センサー40によって生成された距離画像からの距離の変化量が所定の基準を満たす画素のみを検出用画素として選定する。すなわち、選定手段50bは、三次元センサー40から次々に受信した距離画像に対して、次々に図8に示す処理を実行する。なお、選定手段50bは、最初のフレームの距離画像については、1フレーム前の距離画像が存在しないので、全ての画素を検出用画素として選定する。
 図8は、選定手段50bの動作のフローチャートである。
 図8に示すように、選定手段50bは、今回のフレームの距離画像の全画素に対して、1フレーム前の距離画像からの距離の変化量を算出する(S101)。なお、距離画像のフレーム間の時間が明確であるので、S101において算出された変化量は、三次元センサー40と、物体とを結ぶ直線上における物体の速度として把握されることができる。
 次いで、選定手段50bは、今回のフレームの距離画像のうち1つ目の画素を対象にする(S102)。
 次いで、選定手段50bは、現在対象にしている画素について、所定の基準、すなわち、S101において算出した変化量が所定の負の値より大きいという基準を満たすか否かを判断する(S103)。
 なお、S103における判断に使用される値は、検出領域30a内に存在する人が検出手段50aによって適切に検出されるように設定されることが望ましい。例えば、プラットホームドア20と車両90(図5参照)とによって挟まれた狭い空間での人の移動速度が最高10m/sであると想定される場合、S103における判断に使用される値は、三次元センサー40から遠ざかる物体を表す画素と、三次元センサー40に対する位置に変化がない物体を表す画素と、三次元センサー40に10m/s以下の速度で近づく物体を表す画素とを検出用画素として選定手段50bが選定するように、設定されることが望ましい。
 選定手段50bは、S101において算出した変化量が所定の負の値より大きいとS103において判断すると、現在対象にしている画素を検出用画素として選定する(S104)。
 一方、選定手段50bは、S101において算出した変化量が所定の負の値以下であるとS103において判断すると、現在対象にしている画素を検出用画素として選定しない(S105)。
 選定手段50bは、S104またはS105の処理を終了すると、今回のフレームの距離画像の全画素を対象にしたか否かを判断する(S106)。
 選定手段50bは、今回のフレームの距離画像の全画素を対象にしていないとS106において判断すると、今回のフレームの距離画像のうち、現在対象にしている画素の次の画素を新たな対象にして(S107)、再びS103の処理に戻る。
 一方、選定手段50bは、今回のフレームの距離画像の全画素を対象にしたとS106において判断すると、図8に示す処理を終了する。
 選定手段50bが図8に示す処理を終了すると、コンピューター50の検出手段50aは、今回のフレームの距離画像の画素のうち、選定手段50bによって選定された検出用画素に基づいて、検出領域30a内に存在する物体を検出する。すなわち、検出手段50aは、三次元センサー40から次々に受信した距離画像に対して検出用画素が検出領域30a内に存在するか否かを判断し、検出用画素が検出領域30a内に存在すると判断した場合に、検出領域30a内に物体が存在すると判断する。
 そして、コンピューター50の動作実行手段50cは、検出手段50aによって検出領域30a内に物体が検出された場合に、例えばプラットホームドア20を開く動作や、警報を鳴らす動作など、安全のための所定の動作を実行する。
 以上に説明したように、プラットホームドア用安全装置30は、三次元センサー40によって生成された距離画像のうち、三次元センサー40に対する物体の距離が急激に変化した画素を検出用画素として選定しない(S105)。これにより、プラットホームドア20の近傍の検出領域30a外で物体が高速に移動する場合に、その物体が検出領域30a内に存在すると誤検出する可能性を低減することができる。したがって、プラットホームドア用安全装置30は、プラットホームドア20の近傍の検出領域30a内に存在する物体を従来より正確に検出することができる。
 また、プラットホームドア用安全装置30では、1フレーム前の距離画像からの距離の変化量が所定の負の値より大きいという基準が検出用画素として選定する基準である。これにより、三次元センサー40に対する物体の距離が急激に変化した画素のうち、プラットホームドア20の近傍の検出領域30a内に物体が存在すると誤検出される可能性が高い画素、すなわち、三次元センサー40に急激に近づいた物体を表す画素のみを検出用画素から除外することができる。したがって、プラットホームドア用安全装置30は、三次元センサー40に対する物体の距離が急激に変化した画素のうち、三次元センサー40に急激に近づいた物体を表す画素だけでなく、三次元センサー40に急激に遠ざかった物体を表す画素も検出用画素から除外する構成と比較して、検出用画素の選定の処理時間を短縮することができる。
 なお、プラットホームドア用安全装置30は、三次元センサー40に対する物体の距離が急激に変化した画素のうち、三次元センサー40に急激に近づいた物体を表す画素だけでなく、三次元センサー40に急激に遠ざかった物体を表す画素も検出用画素から除外する構成であっても良い。選定手段50bは、図8に示す処理の代わりに、図9に示す処理を実行することによって、三次元センサー40に対する物体の距離が急激に変化した画素のうち、三次元センサー40に急激に近づいた物体を表す画素だけでなく、三次元センサー40に急激に遠ざかった物体を表す画素も検出用画素から除外することができる。
 図9は、選定手段50bの動作のフローチャートであって、図8に示す動作とは異なる動作のフローチャートである。
 図9に示す動作は、図8に示す動作にS121の処理を追加した動作である。すなわち、選定手段50bは、S101において算出した変化量が所定の負の値より大きいとS103において判断すると、現在対象にしている画素について、S101において算出した変化量が所定の正の値より小さいという基準を満たすか否かを判断する(S121)。選定手段50bは、S101において算出した変化量が所定の正の値より小さいとS121において判断すると、現在対象にしている画素を検出用画素として選定する(S104)。一方、選定手段50bは、S101において算出した変化量が所定の正の値以上であるとS121において判断すると、現在対象にしている画素を検出用画素として選定しない(S105)。
 また、プラットホームドア用安全装置30は、検出手段50aによって検出領域30a内に物体が検出された場合に動作実行手段50cが安全のための所定の動作を実行するので、プラットホームドア20の近傍の検出領域30a内に物体が存在すると誤検出された場合に車両90の運行に支障がある。例えば、プラットホームドア20が閉まった後、車両90が出発する前に、プラットホーム10上の人物が検出領域30a外で車両90の乗客に対して手を振って見送る場合、検出領域30a外で高速に移動する手が検出領域30a内に存在すると検出手段50aによって誤検出されると、動作実行手段50cが安全のための所定の動作を実行するので、車両90が出発することができない。したがって、プラットホームドア用安全装置30は、プラットホームドア20の近傍の検出領域30a内に存在する物体を正確に検出する意義が大きい。
 プラットホームドア用安全装置30は、検出手段50aによって検出領域30a内に物体が検出された場合に動作実行手段50cが安全のための所定の動作としてプラットホームドア20を開く動作を実行する場合、プラットホームドア20の近傍の検出領域30a内に物体が存在すると誤検出された場合に車両90の運行に大いに支障があるので、プラットホームドア20の近傍の検出領域30a内に存在する物体を正確に検出する意義が特に大きい。
 なお、プラットホームドア用安全装置30は、検出手段50aによって検出領域30a内に物体が検出された場合に安全のための所定の動作を実行するようになっていなくても良い。
 以下、第二の実施の形態について説明する。
 第二の実施形態に係るプラットホームドア用安全装置は、選定手段50bの動作を除いて、上述したプラットホームドア用安全装置30と同様である。
 第二の実施形態に係るプラットホームドア用安全装置の選定手段50bは、三次元センサー40から距離画像を受信すると、三次元センサー40によって生成された距離画像の画素のうち、自身と所定の距離以上の差がある周囲の画素の数が所定の数未満である画素のみを検出用画素として選定する。すなわち、選定手段50bは、三次元センサー40から次々に受信した距離画像に対して、次々に図10に示す処理を実行する。
 図10は、第二の実施形態に係るプラットホームドア用安全装置の選定手段50bの動作のフローチャートである。
 図10に示すように、選定手段50bは、今回のフレームの距離画像のうち1つ目の画素を対象にする(S201)。
 次いで、選定手段50bは、現在対象にしている画素の周囲の画素のうち、現在対象にしている画素と所定の距離以上の差がある画素の数を取得する(S202)。例えば、現在対象にしている画素が図11に示す画素220である場合、選定手段50bは、画素220の周囲の画素221~228について、画素220との距離の差をそれぞれ算出し、算出した距離の差が所定の距離以上であるか否かを判断することによって、画素220の周囲の画素221~228のうち、画素220と所定の距離以上の差がある画素の数を取得する。なお、選定手段50bによって対象にされている画素が距離画像の輪郭を形成している画素である場合には、周囲の画素の数は8未満である。
 なお、S202における判断基準として使用される距離は、検出領域30a内に存在する人が検出手段50aによって適切に検出されるように設定されることが望ましい。
 次いで、選定手段50bは、S202において取得した数が所定の数未満であるか否かを判断する(S203)。
 なお、S203における判断基準として使用される数は、例えば3など、適切な数が設定されれば良い。
 選定手段50bは、S202において取得した数が所定の数未満であるとS203において判断すると、現在対象にしている画素を検出用画素として選定する(S204)。
 一方、選定手段50bは、S202において取得した数が所定の数以上であるとS203において判断すると、現在対象にしている画素を検出用画素として選定しない(S205)。
 選定手段50bは、S204またはS205の処理を終了すると、今回のフレームの距離画像の全画素を対象にしたか否かを判断する(S206)。
 選定手段50bは、今回のフレームの距離画像の全画素を対象にしていないとS206において判断すると、今回のフレームの距離画像のうち、現在対象にしている画素の次の画素を新たな対象にして(S207)、再びS202の処理に戻る。
 一方、選定手段50bは、今回のフレームの距離画像の全画素を対象にしたとS206において判断すると、図10に示す処理を終了する。
 第二の実施形態は、高速で移動する物体の位置を三次元センサー40が誤って測定する場合に、三次元センサー40によって生成される距離画像において、三次元センサー40によって誤った位置に測定された物体を表す画素の距離が周囲の画素と極端に異なるときがあることに着目した実施形態である。
 第二の実施形態は、第一の実施形態と比較して検出用画素の選定に多くの処理時間が必要であるが、フレーム毎に、他のフレームとは無関係に検出用画素を選定することができる。
 本出願は、2011年10月21日出願の日本特許出願(特願2011-231500)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、プラットホームドアの近傍の所定の領域内に存在する物体を従来より正確に検出することができるプラットホームドア用安全装置を提供することができる。
20 プラットホームドア
30 プラットホームドア用安全装置
30a 検出領域(所定の領域)
40 三次元センサー41 LED(発光部)
42 受光素子
50 コンピューター
50a 領域内物体検出手段(検出手段)
50b 検出用画素選定手段(選定手段)
50c 安全動作実行手段(動作実行手段)
52a 安全装置用プログラム

Claims (6)

  1.  プラットホームドア用安全装置であって、
     プラットホームドアの近傍に配置されるよう構成され、光を発するよう構成された発光部と、
     前記発光部から発せられて物体によって反射された光を受けるよう構成された受光素子と、
     タイムオブフライト方式の三次元センサーであって、該三次元センサーに対する前記物体の距離を前記受光素子の出力のピークのタイミングに基づいて取得して、前記距離の情報をそれぞれ有する点の二次元上の集合であって該三次元センサーに対する前記物体の位置を示す三次元データを生成するよう構成された、ものと、
     前記三次元センサーによって生成された前記三次元データの前記点に基づいて前記プラットホームドアの近傍の所定の領域内に存在する前記物体を検出するよう構成された検出手段と、
     前記三次元センサーによって生成された前記三次元データのうち前記検出手段によって前記物体の検出に使用される点である検出用点を選定するよう構成された選定手段とを備えており、
     前記選定手段は、前記三次元センサーによって生成された前記三次元データの前記点のうち、その三次元データより前に前記三次元センサーによって生成された前記三次元データからの前記距離の変化量が所定の基準を満たす点のみを、前記検出用点として選定する。
  2.  前記所定の基準は、前記変化量が所定の負の値より大きいという基準である、請求項1に記載のプラットホームドア用安全装置。
  3.  前記検出手段によって前記領域内に前記物体が検出された場合に安全のための所定の動作を実行するよう構成された動作実行手段を備えている、請求項1または請求項2に記載のプラットホームドア用安全装置。
  4.  前記所定の動作は、前記プラットホームドアを開く動作である、請求項3に記載のプラットホームドア用安全装置。
  5.  プラットホームドアの近傍に配置されるよう構成され、光を発するよう構成された発光部と、
     前記発光部から発せられて物体によって反射された光を受けるよう構成された受光素子と、
     タイムオブフライト方式の三次元センサーであって、該三次元センサーに対する前記物体の距離を前記受光素子の出力のピークのタイミングに基づいて取得して、前記距離の情報をそれぞれ有する点の二次元上の集合であって該三次元センサーに対する前記物体の位置を示す三次元データを生成するよう構成されたものと、
     コンピューターと、を備えているプラットホームドア用安全装置の制御方法であって、該制御方法は、
     前記コンピューターに、前記三次元センサーによって生成された前記三次元データの前記点に基づいて前記プラットホームドアの近傍の所定の領域内に存在する前記物体を検出する検出ステップと、
     前記三次元センサーによって生成された前記三次元データのうち前記検出ステップによって前記物体の検出に使用される点である検出用点を選定する選定ステップと、
     を含み、
     前記選定ステップにおいては、前記三次元センサーによって生成された前記三次元データの前記点のうち、その三次元データより前に前記三次元センサーによって生成された前記三次元データからの前記距離の変化量が所定の基準を満たす点のみを前記検出用点として選定する。
  6.  請求項5に記載のプラットホームドア用安全装置の制御方法を前記コンピュータに実行させるよう構成されたコンピュータリーダブルプログラムを記録した記録媒体。
PCT/JP2012/077136 2011-10-21 2012-10-19 プラットホームドア用安全装置 Ceased WO2013058372A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011231500A JP5793055B2 (ja) 2011-10-21 2011-10-21 プラットホームドア用安全装置
JP2011-231500 2011-10-21

Publications (1)

Publication Number Publication Date
WO2013058372A1 true WO2013058372A1 (ja) 2013-04-25

Family

ID=48141015

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/077136 Ceased WO2013058372A1 (ja) 2011-10-21 2012-10-19 プラットホームドア用安全装置

Country Status (2)

Country Link
JP (1) JP5793055B2 (ja)
WO (1) WO2013058372A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6386263B2 (ja) * 2014-06-26 2018-09-05 東日本旅客鉄道株式会社 画像形成装置、画像形成システム及び画像形成プログラム
JP6544947B2 (ja) * 2015-03-03 2019-07-17 日本信号株式会社 ロープ式ホーム安全柵
JP6529477B2 (ja) * 2016-10-28 2019-06-12 三菱電機プラントエンジニアリング株式会社 センシングエリア調整治具

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098454A1 (ja) * 2009-02-27 2010-09-02 パナソニック電工株式会社 距離測定装置
JP2010266270A (ja) * 2009-05-13 2010-11-25 Toyota Motor Corp 周辺物体検出装置、周辺物体検出方法
JP2011022088A (ja) * 2009-07-17 2011-02-03 Panasonic Electric Works Co Ltd 空間情報検出装置
JP2011093514A (ja) * 2009-09-29 2011-05-12 Nabtesco Corp プラットホームドアの安全装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098454A1 (ja) * 2009-02-27 2010-09-02 パナソニック電工株式会社 距離測定装置
JP2010266270A (ja) * 2009-05-13 2010-11-25 Toyota Motor Corp 周辺物体検出装置、周辺物体検出方法
JP2011022088A (ja) * 2009-07-17 2011-02-03 Panasonic Electric Works Co Ltd 空間情報検出装置
JP2011093514A (ja) * 2009-09-29 2011-05-12 Nabtesco Corp プラットホームドアの安全装置

Also Published As

Publication number Publication date
JP5793055B2 (ja) 2015-10-14
JP2013086740A (ja) 2013-05-13

Similar Documents

Publication Publication Date Title
US11681029B2 (en) Detecting a laser pulse edge for real time detection
CN111919138B (zh) 检测激光脉冲边沿以进行实时检测
US10830881B2 (en) Active signal detection using adaptive identification of a noise floor
CN110472515B (zh) 货架商品检测方法及系统
JP6272566B2 (ja) 経路予測装置
KR102850941B1 (ko) 라이다 누화를 완화시키기 위한 라이다 시스템 설계
JP6460822B2 (ja) 移動物体追跡方法および移動物体追跡装置
US20130177236A1 (en) Method and apparatus for processing depth image
KR102074857B1 (ko) 이벤트 기반 비전 센서를 이용한 근접 센서 및 근접 센싱 방법
US20220414386A1 (en) Method for detecting lane line using lidar sensor and lane detection device for performing the method
KR20210056694A (ko) 충돌을 회피하는 방법 및 이를 구현한 로봇 및 서버
CN114537474A (zh) 一种列车行驶安全的防护方法及装置
KR102198809B1 (ko) 객체 추적 시스템 및 방법
WO2013058372A1 (ja) プラットホームドア用安全装置
JP2015201010A (ja) 予測外動き判定装置
JP5760220B2 (ja) 距離画像カメラおよびこれを用いた対象物の面形状認識方法
JP6139806B1 (ja) 人数推定装置、人数推定プログラム及び通過数推定装置
JP6834020B2 (ja) 物体認識装置および物体認識方法
JP6396647B2 (ja) 障害物検知装置及び障害物検知方法
EP4305462A1 (en) Systems and methods for analyzing waveforms using pulse shape information
JP6197724B2 (ja) 距離画像生成装置
US20220334252A1 (en) Information processing method and information processing device
JP3592531B2 (ja) 車両用距離測定装置
CN114474158B (zh) 机器人移动路径检测方法及移动平台
JPWO2020054110A1 (ja) 物体検出システム、および物体検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12840928

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12840928

Country of ref document: EP

Kind code of ref document: A1