WO2022244069A1 - 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びコンピュータ可読媒体 - Google Patents
撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びコンピュータ可読媒体 Download PDFInfo
- Publication number
- WO2022244069A1 WO2022244069A1 PCT/JP2021/018636 JP2021018636W WO2022244069A1 WO 2022244069 A1 WO2022244069 A1 WO 2022244069A1 JP 2021018636 W JP2021018636 W JP 2021018636W WO 2022244069 A1 WO2022244069 A1 WO 2022244069A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- imaging
- shooting
- condition determination
- reference data
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Definitions
- the present disclosure relates to an imaging condition determination method, an imaging condition determination system, an imaging condition determination device, and a computer-readable medium.
- LiDAR Light Detection And Ranging
- ToF Time of Flight
- LiDAR measures the distance to the object and the shape of the object by irradiating light on the object existing in the filming scene when the filming scene is filmed. At this time, the LiDAR acquires point cloud data, which is a set of three-dimensional coordinates of measurement points on the object measured by the LiDAR.
- a related technique for inspecting facilities using point cloud data is, for example, the technique disclosed in Patent Document 1.
- point cloud data is used in order to detect changed parts that have been changed from among the parts in the facility.
- sparse point cloud data is acquired by a three-dimensional measuring device such as a laser scanner.
- the three-dimensional detailed data stored in advance and the acquired sparse point cloud data are aligned.
- the space in which the sparse point cloud data exists in the target space area is set as the determination target space, and the amount of difference between the three-dimensional detailed data and the sparse point cloud data in the determination target space is calculated.
- a changed part that has been changed is detected from the three-dimensional detailed data. After that, the three-dimensional measuring device is moved within the determination target space, and sparse point cloud data is acquired and changed parts are detected in the same manner as described above.
- the point cloud data acquired by LiDAR includes, in addition to the data of the three-dimensional coordinates of the measurement points on the object, the data of the reflection brightness of the measurement points (the intensity of the reflected light at the measurement points).
- point cloud data acquired by LiDAR depends on LiDAR imaging conditions (eg, imaging position, imaging posture, etc.).
- reflected luminance data included in point cloud data acquired by LiDAR depends on the positional relationship (for example, distance, incident angle, etc.) between LiDAR and an object.
- the range in which the LiDAR can acquire point cloud data depends on the positional relationship between the LiDAR and the shield due to the linearity of light.
- the content included in the fixed angle of view of the point cloud data acquired by LiDAR depends on the imaging position and imaging posture of LiDAR.
- Patent Literature 1 is a technique of moving a three-dimensional measuring device within a determination target space in order to detect a changed part within a facility. Therefore, Patent Literature 1 does not disclose any method of determining appropriate imaging conditions for appropriately imaging an object.
- an object of the present disclosure is to solve the above problems and provide an imaging condition determination method, an imaging condition determination system, an imaging condition determination device, and a computer-readable medium that can determine appropriate imaging conditions for LiDAR. be.
- An imaging condition determination method includes: An imaging condition determination method performed by an imaging condition determination device, a first step of retaining reference data representing the position of the object; a second step of holding a pointing object representing a position of an object on said reference data; a third step of determining imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; and a fourth step of outputting the imaging conditions.
- An imaging condition determination method performed by an imaging condition determination device, a first step of retaining reference data representing the position of the object; a second step of holding a pointing object representing a position of an object on said reference data; a third step of determining imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; and a fourth step of outputting the imaging conditions.
- LiDAR Light Detection And Ranging
- An imaging condition determination system includes: a reference data holding unit that holds reference data representing the position of an object; a pointing object holding unit holding a pointing object representing the position of the target on the reference data; an imaging condition determination unit that determines imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; and a shooting condition output unit that outputs the shooting conditions.
- a reference data holding unit that holds reference data representing the position of an object
- a pointing object holding unit holding a pointing object representing the position of the target on the reference data
- an imaging condition determination unit that determines imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object
- a shooting condition output unit that outputs the shooting conditions.
- An apparatus for determining imaging conditions includes: a reference data holding unit that holds reference data representing the position of an object; a pointing object holding unit holding a pointing object representing the position of the target on the reference data; an imaging condition determination unit that determines imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; and a shooting condition output unit that outputs the shooting conditions.
- a reference data holding unit that holds reference data representing the position of an object
- a pointing object holding unit holding a pointing object representing the position of the target on the reference data
- an imaging condition determination unit that determines imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object
- a shooting condition output unit that outputs the shooting conditions.
- a computer-readable medium comprises: to the computer, a first step of maintaining reference data representing the position of the object; a second step of holding a pointing object representing a position of an object on the reference data; a third step of determining imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; a fourth step of outputting the imaging conditions; Stores a program for executing
- an imaging condition determination method an imaging condition determination system, an imaging condition determination device, and a computer-readable medium capable of determining appropriate imaging conditions for LiDAR.
- FIG. 1 is a diagram showing a configuration example of an imaging condition determination system according to Embodiment 1;
- FIG. FIG. 7 is a diagram showing an example of a method A1 for determining imaging conditions by an imaging condition determination unit according to Embodiment 1;
- FIG. 7 is a diagram showing an example of a method A2 for determining imaging conditions by an imaging condition determination unit according to Embodiment 1;
- 4 is a flow chart showing an example of the overall operation flow of the imaging condition determination system according to Embodiment 1;
- FIG. FIG. 10 is a diagram showing a configuration example of an imaging condition determination system according to Embodiment 2;
- FIG. 11 is a diagram showing an example of a method B1 for determining imaging conditions by an imaging condition determination unit according to Embodiment 2;
- FIG. 11 is a diagram showing an example of a method B2 for determining imaging conditions by an imaging condition determination unit according to Embodiment 2;
- FIG. 10 is a diagram showing an example of a method B3 for determining imaging conditions by an imaging condition determination unit according to Embodiment 2;
- 9 is a diagram showing an example of image data of FIG. 8;
- FIG. 9 is a diagram showing an example of point cloud data of FIG. 8;
- FIG. 10 is a flow chart showing an example of the overall operation flow of the imaging condition determination system according to Embodiment 2;
- FIG. 11 is a diagram showing a configuration example of an imaging condition determining device according to another embodiment.
- FIG. 11 is a block diagram showing a hardware configuration example of a computer that implements an imaging condition determining apparatus according to another embodiment;
- the imaging condition determination system 100 includes a reference data storage unit 101, a pointing object storage unit 102, an imaging condition determination unit 103, and an imaging condition output unit 104. It is a system for determining appropriate imaging conditions for LiDAR (not shown).
- the reference data holding unit 101 holds reference data.
- Reference data is data that expresses the position of an object in the shooting scene.
- the reference data is point cloud data acquired by the LiDAR, image data acquired by a camera (not shown), or a design drawing.
- the pointing object holding unit 102 holds pointing objects.
- a pointing object is information representing the position of an object to be photographed by LiDAR on the reference data.
- the pointing object is a point included in the object on the reference data, an area having a common area with the object on the reference data, or the like.
- the instruction object can be specified by the user. However, if the target exhibits unique properties on the reference data, the pointing object can be determined by automatic processing rather than by user specification.
- the pointing object holding unit 102 may hold in advance a setting condition such that a portion whose color or shape feature amount (curvature) is within a predetermined range is set as the pointing object. Then, the pointing object holding unit 102 may search for a portion defined by the setting condition from among the portions on the reference data, and determine and hold the found portion as the pointing object.
- the pointing object holding unit 102 may hold in advance a setting condition that a certain object is set as the pointing object. Then, using an object search technique such as pattern matching, the pointing object holding unit 102 searches objects on the reference data for an object specified by the setting conditions, and determines the found object as the pointing object. You can keep it.
- the shooting condition determination unit 103 determines the shooting conditions of the LiDAR for shooting the target indicated by the pointing object.
- the shooting condition is a condition under which the LiDAR shoots an object.
- the shooting conditions include the shooting position, shooting attitude, shooting viewing angle, shooting resolution, and the like. A specific example of the method of determining the imaging conditions by the imaging condition determination unit 103 will be described later.
- the imaging condition output unit 104 outputs the imaging conditions determined by the imaging condition determination unit 103 to the user or external means.
- the method of outputting the imaging conditions is not particularly limited, but any method that assists the user or external means in efficiently capturing LiDAR images is suitable.
- the imaging condition output unit 104 may emphasize and display a part of the reference data based on the imaging conditions. For example, if the imaging condition is the imaging position, the imaging condition output unit 104 may highlight the position corresponding to the imaging position on the reference data by marking or the like. Alternatively, the imaging condition output unit 104 may display an image diagram at the time of imaging based on the imaging conditions on the reference data. Alternatively, the imaging condition output unit 104 may display the imaging result estimated from the imaging conditions on the screen.
- Embodiment 1 a specific example of the method of determining the imaging condition by the imaging condition determining unit 103 according to Embodiment 1 will be described.
- the example described below is an example in which the shooting position and shooting attitude are determined as the shooting conditions.
- FIG. 2 shows a plan view of the shooting site viewed from above (the same applies to FIG. 3 described later).
- the shooting condition determination unit 103 calculates a shooting area in which the object represented by the pointing object can be shot.
- the imaging region in which the object can be photographed is a region in which the object is not blocked by an object and in which the object can be physically photographed.
- the area excluding the area above the object is a physical imaging area.
- the imaging condition determining unit 103 determines the imaging position from within the imaging area calculated above. After that, the shooting condition determination unit 103 determines the shooting posture based on the direction vector from the shooting position determined above to the pointing object.
- the shooting condition determination unit 103 calculates an appropriate shooting area based on the distance or incident angle to the pointing object. After that, the imaging condition determination unit 103 determines the imaging position and the imaging posture in the same manner as in the determination method A1 described above. That is, the shooting condition determination unit 103 determines the shooting position from the shooting area calculated above, and determines the shooting attitude based on the direction vector from the determined shooting position to the pointing object.
- the reference data holding unit 101 holds the reference data
- the pointing object holding unit 102 holds the pointing object (step S101).
- the reference data holding unit 101 holds the reference data designated by the user.
- the instruction object holding unit 102 holds an instruction object designated by the user or an instruction object determined by automatic processing.
- the shooting condition determination unit 103 determines the LiDAR shooting conditions for shooting the target indicated by the pointing object (step S102). After that, the imaging condition output unit 104 outputs the imaging conditions determined by the imaging condition determination unit 103 to the user or external means (step S103).
- the reference data holding unit 101 holds reference data expressing the position of an object
- the pointing object holding unit 102 expresses the position of the target object on the reference data. Holds an instruction object to
- the imaging condition determining unit 103 determines imaging conditions of the LiDAR for imaging the target represented by the pointing object based on the reference data and the pointing object
- the imaging condition output unit 104 outputs the determined shooting conditions. do. This makes it possible to determine appropriate imaging conditions for LiDAR.
- the imaging condition determination system 100A according to the second embodiment differs from the configuration of the first embodiment in that an imaging control unit 105 is added.
- the shooting control unit 105 is arranged at the shooting site together with the shooting device (not shown), and acquires reference data using the shooting device at the shooting site.
- the imaging device is a device including at least LiDAR among LiDAR and a camera, or an autonomous mobile robot equipped with the device. Therefore, in the second embodiment, the reference data is the data acquired by the photographing device, and as a result, the blueprints and the like are excluded.
- the imaging condition determination unit 103 determines LiDAR imaging conditions in the same manner as in the first embodiment.
- determining the imaging conditions of the LiDAR means determining the imaging conditions of the imaging device. Therefore, the imaging condition determination unit 103 will be described below as determining the imaging conditions of the imaging apparatus.
- the imaging condition output unit 104 outputs imaging conditions to the imaging control unit 105 via communication with the imaging control unit 105 .
- the imaging condition may be a route from the current position to the imaging position, which is applied to the imaging device.
- the imaging condition may be a displacement (elevation angle and azimuth angle) from the current attitude to the imaging attitude, which is applied to the imaging device.
- the imaging control unit 105 changes the state of the imaging device, that is, the state of the LiDAR, based on the imaging conditions output from the imaging condition output unit 104 .
- the imaging device further includes a camera
- changing the state of the imaging device will also change the state of the camera.
- the determination method B1 is an example of determining the displacement from the current posture to the shooting posture as the shooting condition. Note that the determination method B1 is based on the premise that the shooting position is fixed.
- the imaging condition determination unit 103 sets the imaging posture so that the pointing object on the reference data is changed to a specific position (for example, the center) by changing the imaging posture. Determine the displacement of
- the shooting condition determination unit 103 calculates a direction vector from the center of the reference data to the center of the pointing object, and based on the calculated direction vector, changes the shooting posture applied to the shooting apparatus. (elevation and azimuth).
- the determination method B2 is an example of determining a route from the current position to the shooting position as the shooting condition. It should be noted that FIG. 7 shows a plan view of the shooting site viewed from above.
- the imaging condition determination unit 103 calculates an appropriate imaging region by the same method as the determination method A2 (FIG. 3) of the first embodiment.
- the imaging condition determining unit 103 identifies the current position of the imaging device on the reference data.
- the imaging condition determination unit 103 selects from the imaging region calculated above based on the positional relationship (for example, path length to reach) with the current position of the imaging device. Determine the shooting position. After that, the imaging condition determining unit 103 determines a route from the current position to the determined imaging position. Further, the imaging condition determination unit 103 may determine the imaging posture by a method similar to the determination method A2 (FIG. 3) of the first embodiment.
- the imaging condition determination unit 103 uses the same method as the determination method A2 (FIG. 3) of the first embodiment when calculating the imaging region, but is not limited to this.
- the imaging condition determination unit 103 may calculate the imaging region using a method similar to the determination method A1 (FIG. 2) of the first embodiment.
- the reference data is the image data acquired by the camera (see FIG. 9) and the point cloud data acquired by the LiDAR (see FIG. 10). It is assumed that the data is Therefore, in the determination method B3, it is assumed that the imaging device is also a device including both the LiDAR and the camera, or an autonomous mobile robot equipped with the device.
- the imaging condition determination unit 103 determines the imaging attitude using, for example, a method similar to the above determination method B1 (FIG. 6).
- the photographing condition determination unit 103 may determine the route from the current position to the photographing position and also the photographing attitude using a method similar to the above method B2 (FIG. 7), for example. .
- the imaging condition determining unit 103 uses the following method to determine the path and imaging posture from the current position to the imaging position. be able to. That is, the imaging condition determining unit 103 identifies objects including the pointing object on the image data by clustering, and acquires points representing the identified objects on the point cloud data. Then, the photographing condition determination unit 103 regards the acquired point as a pointing object, and determines the route and the photographing posture.
- the imaging condition output unit 104 may display only the image data even when the reference data is data in which the image data and the point cloud data are superimposed. Then, the photographing condition determination unit 103 may determine the touched position on the image data as the instruction object, and perform the above operation.
- the imaging control unit 105 acquires reference data using the imaging device, and the reference data holding unit 101 holds the reference data acquired by the imaging control unit 105 (step S201). ). Also, the instruction object holding unit 102 holds the instruction object (step S202). At this time, the instruction object holding unit 102 holds the instruction object specified by the user or the instruction object determined by automatic processing.
- the shooting condition determination unit 103 determines the shooting conditions of the shooting device for shooting the target indicated by the pointing object (step S203).
- the imaging condition output unit 104 outputs the imaging conditions determined by the imaging condition determination unit 103 to the imaging control unit 105 (step S204). After that, the imaging control unit 105 changes the state of the imaging apparatus based on the imaging conditions output from the imaging condition output unit 104 (step S205).
- the imaging condition output unit 104 outputs imaging conditions to the imaging control unit 105 that acquires reference data using an imaging device that includes at least LiDAR.
- the imaging control unit 105 changes the state of the imaging device based on imaging conditions. Thereby, for example, even if the imaging device is located at a remote location, the state of the imaging device can be corrected.
- Other effects are the same as those of the first embodiment.
- the reference data storage unit 101, the pointing object storage unit 102, the imaging condition determination unit 103, and the imaging condition output unit 104 are illustrated as being provided separately. However, these components may be collectively provided inside one device (imaging condition determination device).
- an imaging condition determination apparatus 200 includes a reference data holding unit 101, a pointing object holding unit 102, an imaging condition determination unit 103, and an imaging condition output unit 104.
- a reference data holding unit 101 a reference data holding unit 101
- a pointing object holding unit 102 a pointing object holding unit 102
- an imaging condition determination unit 103 an imaging condition output unit 104.
- the computer 300 includes a processor 301, a memory 302, a storage 303, an input/output interface (input/output I/F) 304, a communication interface (communication I/F) 305, and the like.
- the processor 301, the memory 302, the storage 303, the input/output interface 304, and the communication interface 305 are connected by a data transmission line for mutual data transmission/reception.
- the processor 301 is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
- the memory 302 is, for example, RAM (Random Access Memory) or ROM (Read Only Memory).
- the storage 303 is, for example, a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory card. Also, the storage 303 may be a memory such as a RAM or a ROM.
- a program is stored in the storage 303 .
- This program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments above.
- the imaging condition determination unit 103 and the imaging condition output unit 104 in the imaging condition determination apparatus 200 may be implemented by the processor 301 reading and executing a program stored in the storage 303 . Further, the reference data holding unit 101 and the pointing object holding unit 102 in the photographing condition determining apparatus 200 may be realized by the memory 302 or the storage 303 .
- the above program may be stored in a non-transitory computer-readable medium or a tangible storage medium.
- computer readable media or tangible storage media may include RAM, ROM, flash memory, SSD or other memory technology, CD (Compact Disc)-ROM, DVD (Digital Versatile Disc), Blu-ray ( (registered trademark) discs or other optical disc storage, magnetic cassettes, magnetic tapes, magnetic disk storage or other magnetic storage devices.
- the program may also be transmitted on a transitory computer-readable medium or communication medium.
- transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
- the input/output interface 304 is connected to a display device 3041, an input device 3042, a sound output device 3043, and the like.
- the display device 3041 is a device that displays a screen corresponding to drawing data processed by the processor 301, such as an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, or a monitor.
- the input device 3042 is a device that receives an operator's operation input, and is, for example, a keyboard, a mouse, a touch sensor, or the like.
- the display device 3041 and the input device 3042 may be integrated and implemented as a touch panel.
- the sound output device 3043 is a device, such as a speaker, that outputs sound corresponding to the sound data processed by the processor 301 .
- the communication interface 305 transmits and receives data to and from an external device.
- the communication interface 305 communicates with external devices via wired or wireless communication paths.
- An imaging condition determination method performed by an imaging condition determination device, a first step of retaining reference data representing the position of the object; a second step of holding a pointing object representing a position of an object on said reference data; a third step of determining imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; a fourth step of outputting the imaging conditions; How to determine shooting conditions.
- LiDAR Light Detection And Ranging
- (Appendix 2) In the third step, calculating a shooting area, which is an area where the object is not blocked by an object and is a physically shootable area; determining an imaging position as the imaging condition from within the imaging area; determining a shooting posture as the shooting condition based on a direction vector from the shooting position to the pointing object; The imaging condition determination method according to appendix 1. (Appendix 3) In the third step, calculating a shooting area based on the distance or incident angle to the pointing object; determining an imaging position as the imaging condition from within the imaging area; determining a shooting posture as the shooting condition based on a direction vector from the shooting position to the pointing object; The imaging condition determination method according to appendix 1.
- (Appendix 6) In the third step, calculating a shooting area that is an area where the object is not blocked by an object and is physically shootable, or calculating the shooting area based on the distance or incident angle to the pointing object; , determining a shooting position from within the shooting area based on a positional relationship with the current position of the shooting device; determining a route from the current position of the imaging device to the imaging position as the imaging condition; The imaging condition determination method according to appendix 4. (Appendix 7) In the third step, determining a shooting posture as the shooting condition based on a direction vector from the shooting position to the pointing object; The imaging condition determination method according to appendix 6.
- the imaging device includes both the LiDAR and the camera;
- the reference data is data in which point cloud data acquired by the LiDAR and image data acquired by the camera are superimposed,
- the third step if the pointing object is not on the point cloud data but on the image data, determining the displacement from the current attitude of the imaging device to the imaging attitude as the imaging condition;
- the pointing object is located on any one point of the point cloud data, determining a path from the current position of the imaging device to the imaging position and the imaging posture as the imaging conditions;
- the imaging condition determination method according to appendix 4.
- the imaging device includes both the LiDAR and the camera;
- the reference data is data in which point cloud data acquired by the LiDAR and image data acquired by the camera are superimposed,
- identifying an object including the pointing object on the image data by clustering; Obtaining a point representing the identified object on the point cloud data; Considering the obtained point as the pointing object, Determining a route and a shooting posture from the current position of the shooting device to the shooting position as the shooting conditions;
- the imaging condition determination method according to appendix 4.
- (Appendix 12) a reference data holding unit that holds reference data representing the position of an object; a pointing object holding unit holding a pointing object representing the position of the target on the reference data; an imaging condition determination unit that determines imaging conditions for LiDAR (Light Detection And Ranging) for imaging the target based on the reference data and the pointing object; A shooting condition output unit that outputs the shooting conditions, Shooting condition determination system.
- (Appendix 13) further comprising an imaging control unit that acquires the reference data using an imaging device including at least the LiDAR among the LiDAR and a camera; The imaging condition output unit outputs the imaging conditions to the imaging control unit, The imaging control unit changes the state of the imaging device based on the imaging conditions, The imaging condition determination system according to appendix 12.
- the shooting condition output unit outputs the shooting conditions to a shooting control unit that acquires the reference data using a shooting device including at least the LiDAR among the LiDAR and the camera, The imaging control unit changes the state of the imaging device based on the imaging conditions, 15.
- the imaging condition determination device according to appendix 14.
- imaging condition determination system 101 reference data storage unit 102 instruction object storage unit 103 imaging condition determination unit 104 imaging condition output unit 105 imaging control unit 200 imaging condition determination device 300 computer 301 processor 302 memory 303 storage 304 input/output interface 3041 display Device 3042 Input device 3043 Sound output device 305 Communication interface
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Studio Devices (AREA)
Abstract
Description
また、LiDARが点群データを取得できる範囲は、光の直線性に起因して、LiDARと遮蔽物との位置関係に依存する。
また、LiDARにより取得される点群データの一定画角に含まれる内容は、LiDARの撮影位置や撮影姿勢に依存する。
しかし、特許文献1に開示された技術は、施設内の変更部位を検出するために、3次元計測器を判定対象空間内で移動させる技術である。そのため、特許文献1には、対象物を適切に撮影するための適切な撮影条件の決定方法については何ら開示されていない。
撮影条件決定装置が行う撮影条件決定方法であって、
物体の位置を表現する基準データを保持する第1ステップと、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する第2ステップと、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する第3ステップと、
前記撮影条件を出力する第4ステップと、を含む。
物体の位置を表現する基準データを保持する基準データ保持部と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する指示オブジェクト保持部と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する撮影条件決定部と、
前記撮影条件を出力する撮影条件出力部と、を備える。
物体の位置を表現する基準データを保持する基準データ保持部と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する指示オブジェクト保持部と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する撮影条件決定部と、
前記撮影条件を出力する撮影条件出力部と、を備える。
コンピュータに、
物体の位置を表現する基準データを保持する第1手順と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する第2手順と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する第3手順と、
前記撮影条件を出力する第4手順と、
を実行させるためのプログラムが格納される。
まず、図1を参照して、本実施の形態1に係る撮影条件決定システム100の構成例について説明する。
基準データは、撮影現場における物体の位置を表現するデータである。例えば、基準データは、上記のLiDARにより取得された点群データ、カメラ(不図示)により取得された画像データ、又は、設計図等である。
指示オブジェクトは、基準データ上でのLiDARによる撮影の対象物の位置を表現する情報である。例えば、指示オブジェクトは、基準データ上の対象物に含まれる点、基準データ上の対象物と共通領域を持つ領域等である。
撮影条件は、LiDARが対象物を撮影する条件である。例えば、撮影条件は、撮影位置、撮影姿勢、撮影視野角、撮影解像度等である。
なお、撮影条件決定部103による撮影条件の決定方法の具体例については後述する。
撮影条件の出力方法は、特に限定は無いが、ユーザ又は外部手段による効率的なLiDARの撮影を補助するものであれば好適である。
又は、撮影条件出力部104は、基準データ上に撮影条件に基づく撮影時のイメージ図を表示しても良い。
又は、撮影条件出力部104は、撮影条件から推測される撮影結果を画面表示しても良い。
まず、図2を参照して、本実施の形態1に係る撮影条件決定部103による撮影条件の決定方法A1について説明する。なお、図2は、撮影現場を上方から見た平面図を示している(後述する図3も同様)。
その後、撮影条件決定部103は、上記で決定された撮影位置から指示オブジェクトまでの方向ベクトルに基づいて、撮影姿勢を決定する。
続いて、図3を参照して、本実施の形態1に係る撮影条件決定部103による撮影条件の決定方法A2について説明する。
以降は、撮影条件決定部103は、上記の決定方法A1と同様に、撮影位置及び撮影姿勢を決定する。
すなわち、撮影条件決定部103は、上記で算出された撮影領域の中から撮影位置を決定し、決定された撮影位置から指示オブジェクトまでの方向ベクトルに基づいて、撮影姿勢を決定する。
その後、撮影条件出力部104は、撮影条件決定部103により決定された撮影条件を、ユーザ又は外部手段に出力する(ステップS103)。
続いて、図5を参照して、本実施の形態2に係る撮影条件決定システム100Aの構成例について説明する。
図5に示されるように、本実施の形態2に係る撮影条件決定システム100Aは、上記の実施の形態1の構成と比較して、撮影制御部105が追加されている点が異なる。
まず、図6を参照して、本実施の形態2に係る撮影条件決定部103による撮影条件の決定方法B1について説明する。決定方法B1は、撮影条件として、現在の姿勢から撮影姿勢までの変位を決定する例である。なお、決定方法B1は、撮影位置は固定されていることを前提とする。
次に、図7を参照して、本実施の形態2に係る撮影条件決定部103による撮影条件の決定方法B2について説明する。決定方法B2は、撮影条件として、現在の位置から撮影位置までの経路を決定する例である。なお、図7は、撮影現場を上方から見た平面図を示している。
次に、撮影条件決定部103は、基準データ上での撮影装置の現在位置を特定する。
その後、撮影条件決定部103は、現在位置から、決定された撮影位置までの経路を、決定する。また、撮影条件決定部103は、上記の実施の形態1の決定方法A2(図3)と同様の方法で、撮影姿勢を決定しても良い。
次に、図8~図10を参照して、本実施の形態2に係る撮影条件決定部103による撮影条件の決定方法B3について説明する。
その後、撮影制御部105は、撮影条件出力部104から出力された撮影条件に基づいて、撮影装置の状態を変える(ステップS205)。
上記の実施の形態1,2では、基準データ保持部101、指示オブジェクト保持部102、撮影条件決定部103、及び、撮影条件出力部104は、それぞれ別々に設けられているように図示されているが、これらの構成要素は、1つの装置(撮影条件決定装置)の内部に集約して設けられても良い。
図12に示されるように、他の実施の形態に係る撮影条件決定装置200は、基準データ保持部101、指示オブジェクト保持部102、撮影条件決定部103、及び、撮影条件出力部104を備えている。なお、これらの構成要素の動作については、上記の実施の形態1,2で説明した動作と同様であるため、説明を省略する。
続いて、図13を参照して、上記の他の実施の形態に係る撮影条件決定装置200を実現するコンピュータ300のハードウェア構成について説明する。
(付記1)
撮影条件決定装置が行う撮影条件決定方法であって、
物体の位置を表現する基準データを保持する第1ステップと、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する第2ステップと、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する第3ステップと、
前記撮影条件を出力する第4ステップと、を含む、
撮影条件決定方法。
(付記2)
前記第3ステップでは、
前記対象物が物体で遮られない領域で、かつ、物理的に撮影可能な領域である撮影領域を算出し、
前記撮影領域の中から、前記撮影条件として、撮影位置を決定し、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、前記撮影条件として、撮影姿勢を決定する、
付記1に記載の撮影条件決定方法。
(付記3)
前記第3ステップでは、
前記指示オブジェクトまでの距離又は入射角度に基づいて、撮影領域を算出し、
前記撮影領域の中から、前記撮影条件として、撮影位置を決定し、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、前記撮影条件として、撮影姿勢を決定する、
付記1に記載の撮影条件決定方法。
(付記4)
前記第4ステップでは、前記LiDAR及びカメラのうち少なくとも前記LiDARを含む撮影装置を用いて前記基準データを取得する撮影制御部に対し、前記撮影条件を出力し、
前記撮影制御部は、前記撮影条件に基づいて、前記撮影装置の状態を変える、
付記1に記載の撮影条件決定方法。
(付記5)
前記第3ステップでは、
前記基準データの特定の位置から、前記指示オブジェクトの中心への、方向ベクトルを算出し、
前記方向ベクトルに基づいて、前記撮影条件として、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定する、
付記4に記載の撮影条件決定方法。
(付記6)
前記第3ステップでは、
前記対象物が物体で遮られない領域で、かつ、物理的に撮影可能な領域である撮影領域を算出するか、又は、前記指示オブジェクトまでの距離又は入射角度に基づいて、撮影領域を算出し、
前記撮影領域の中から、前記撮影装置の現在位置との位置関係に基づいて、撮影位置を決定し、
前記撮影条件として、前記撮影装置の現在位置から前記撮影位置までの経路を決定する、
付記4に記載の撮影条件決定方法。
(付記7)
前記第3ステップでは、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、前記撮影条件として、撮影姿勢を決定する、
付記6に記載の撮影条件決定方法。
(付記8)
前記撮影装置は、前記LiDAR及び前記カメラの双方を含み、
前記基準データは、前記LiDARにより取得された点群データと、前記カメラにより取得された画像データと、が重畳されたデータであり、
前記第3ステップでは、
前記指示オブジェクトが、前記点群データ上にはなく、前記画像データ上にある場合、前記撮影条件として、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定し、
前記指示オブジェクトが、前記点群データのいずれかの1点上にある場合、前記撮影条件として、前記撮影装置の現在位置から撮影位置までの経路及び撮影姿勢を決定する、
付記4に記載の撮影条件決定方法。
(付記9)
前記撮影装置は、前記LiDAR及び前記カメラの双方を含み、
前記基準データは、前記LiDARにより取得された点群データと、前記カメラにより取得された画像データと、が重畳されたデータであり、
前記第3ステップでは、
前記指示オブジェクトが、前記点群データ上にはなく、前記画像データ上にある場合、
前記画像データ上で前記指示オブジェクトを含む物体をクラスタリングにより特定し、
特定された物体を前記点群データ上で表す点を取得し、
取得された点を前記指示オブジェクトと見做し、
前記撮影条件として、前記撮影装置の現在位置から撮影位置までの経路及び撮影姿勢を決定する、
付記4に記載の撮影条件決定方法。
(付記10)
前記第3ステップでは、
前記撮影条件として、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定する場合、
前記基準データの特定の位置から、前記指示オブジェクトの中心への、方向ベクトルを算出し、
前記方向ベクトルに基づいて、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定する、
付記8又は9に記載の撮影条件決定方法。
(付記11)
前記第3ステップでは、
前記撮影条件として、前記撮影装置の現在位置から撮影位置までの経路及び撮影姿勢を決定する場合、
前記対象物が物体で遮られない領域で、かつ、物理的に撮影可能な領域である撮影領域を算出するか、又は、前記指示オブジェクトまでの距離又は入射角度に基づいて、撮影領域を算出し、
前記撮影領域の中から、前記撮影装置の現在位置との位置関係に基づいて、撮影位置を決定し、
前記撮影装置の現在位置から前記撮影位置までの経路を決定し、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、撮影姿勢を決定する、
付記8又は9に記載の撮影条件決定方法。
(付記12)
物体の位置を表現する基準データを保持する基準データ保持部と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する指示オブジェクト保持部と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する撮影条件決定部と、
前記撮影条件を出力する撮影条件出力部と、を備える、
撮影条件決定システム。
(付記13)
前記LiDAR及びカメラのうち少なくとも前記LiDARを含む撮影装置を用いて前記基準データを取得する撮影制御部をさらに備え、
前記撮影条件出力部は、前記撮影制御部に対し、前記撮影条件を出力し、
前記撮影制御部は、前記撮影条件に基づいて、前記撮影装置の状態を変える、
付記12に記載の撮影条件決定システム。
(付記14)
物体の位置を表現する基準データを保持する基準データ保持部と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する指示オブジェクト保持部と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する撮影条件決定部と、
前記撮影条件を出力する撮影条件出力部と、を備える、
撮影条件決定装置。
(付記15)
前記撮影条件出力部は、前記LiDAR及びカメラのうち少なくとも前記LiDARを含む撮影装置を用いて前記基準データを取得する撮影制御部に対し、前記撮影条件を出力し、
前記撮影制御部は、前記撮影条件に基づいて、前記撮影装置の状態を変える、
付記14に記載の撮影条件決定装置。
(付記16)
コンピュータに、
物体の位置を表現する基準データを保持する第1手順と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する第2手順と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する第3手順と、
前記撮影条件を出力する第4手順と、
を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
101 基準データ保持部
102 指示オブジェクト保持部
103 撮影条件決定部
104 撮影条件出力部
105 撮影制御部
200 撮影条件決定装置
300 コンピュータ
301 プロセッサ
302 メモリ
303 ストレージ
304 入出力インタフェース
3041 表示装置
3042 入力装置
3043 音出力装置
305 通信インタフェース
Claims (16)
- 撮影条件決定装置が行う撮影条件決定方法であって、
物体の位置を表現する基準データを保持する第1ステップと、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する第2ステップと、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する第3ステップと、
前記撮影条件を出力する第4ステップと、を含む、
撮影条件決定方法。 - 前記第3ステップでは、
前記対象物が物体で遮られない領域で、かつ、物理的に撮影可能な領域である撮影領域を算出し、
前記撮影領域の中から、前記撮影条件として、撮影位置を決定し、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、前記撮影条件として、撮影姿勢を決定する、
請求項1に記載の撮影条件決定方法。 - 前記第3ステップでは、
前記指示オブジェクトまでの距離又は入射角度に基づいて、撮影領域を算出し、
前記撮影領域の中から、前記撮影条件として、撮影位置を決定し、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、前記撮影条件として、撮影姿勢を決定する、
請求項1に記載の撮影条件決定方法。 - 前記第4ステップでは、前記LiDAR及びカメラのうち少なくとも前記LiDARを含む撮影装置を用いて前記基準データを取得する撮影制御部に対し、前記撮影条件を出力し、
前記撮影制御部は、前記撮影条件に基づいて、前記撮影装置の状態を変える、
請求項1に記載の撮影条件決定方法。 - 前記第3ステップでは、
前記基準データの特定の位置から、前記指示オブジェクトの中心への、方向ベクトルを算出し、
前記方向ベクトルに基づいて、前記撮影条件として、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定する、
請求項4に記載の撮影条件決定方法。 - 前記第3ステップでは、
前記対象物が物体で遮られない領域で、かつ、物理的に撮影可能な領域である撮影領域を算出するか、又は、前記指示オブジェクトまでの距離又は入射角度に基づいて、撮影領域を算出し、
前記撮影領域の中から、前記撮影装置の現在位置との位置関係に基づいて、撮影位置を決定し、
前記撮影条件として、前記撮影装置の現在位置から前記撮影位置までの経路を決定する、
請求項4に記載の撮影条件決定方法。 - 前記第3ステップでは、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、前記撮影条件として、撮影姿勢を決定する、
請求項6に記載の撮影条件決定方法。 - 前記撮影装置は、前記LiDAR及び前記カメラの双方を含み、
前記基準データは、前記LiDARにより取得された点群データと、前記カメラにより取得された画像データと、が重畳されたデータであり、
前記第3ステップでは、
前記指示オブジェクトが、前記点群データ上にはなく、前記画像データ上にある場合、前記撮影条件として、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定し、
前記指示オブジェクトが、前記点群データのいずれかの1点上にある場合、前記撮影条件として、前記撮影装置の現在位置から撮影位置までの経路及び撮影姿勢を決定する、
請求項4に記載の撮影条件決定方法。 - 前記撮影装置は、前記LiDAR及び前記カメラの双方を含み、
前記基準データは、前記LiDARにより取得された点群データと、前記カメラにより取得された画像データと、が重畳されたデータであり、
前記第3ステップでは、
前記指示オブジェクトが、前記点群データ上にはなく、前記画像データ上にある場合、
前記画像データ上で前記指示オブジェクトを含む物体をクラスタリングにより特定し、
特定された物体を前記点群データ上で表す点を取得し、
取得された点を前記指示オブジェクトと見做し、
前記撮影条件として、前記撮影装置の現在位置から撮影位置までの経路及び撮影姿勢を決定する、
請求項4に記載の撮影条件決定方法。 - 前記第3ステップでは、
前記撮影条件として、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定する場合、
前記基準データの特定の位置から、前記指示オブジェクトの中心への、方向ベクトルを算出し、
前記方向ベクトルに基づいて、前記撮影装置の現在の姿勢から撮影姿勢までの変位を決定する、
請求項8又は9に記載の撮影条件決定方法。 - 前記第3ステップでは、
前記撮影条件として、前記撮影装置の現在位置から撮影位置までの経路及び撮影姿勢を決定する場合、
前記対象物が物体で遮られない領域で、かつ、物理的に撮影可能な領域である撮影領域を算出するか、又は、前記指示オブジェクトまでの距離又は入射角度に基づいて、撮影領域を算出し、
前記撮影領域の中から、前記撮影装置の現在位置との位置関係に基づいて、撮影位置を決定し、
前記撮影装置の現在位置から前記撮影位置までの経路を決定し、
前記撮影位置から前記指示オブジェクトまでの方向ベクトルに基づいて、撮影姿勢を決定する、
請求項8又は9に記載の撮影条件決定方法。 - 物体の位置を表現する基準データを保持する基準データ保持部と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する指示オブジェクト保持部と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する撮影条件決定部と、
前記撮影条件を出力する撮影条件出力部と、を備える、
撮影条件決定システム。 - 前記LiDAR及びカメラのうち少なくとも前記LiDARを含む撮影装置を用いて前記基準データを取得する撮影制御部をさらに備え、
前記撮影条件出力部は、前記撮影制御部に対し、前記撮影条件を出力し、
前記撮影制御部は、前記撮影条件に基づいて、前記撮影装置の状態を変える、
請求項12に記載の撮影条件決定システム。 - 物体の位置を表現する基準データを保持する基準データ保持部と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する指示オブジェクト保持部と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する撮影条件決定部と、
前記撮影条件を出力する撮影条件出力部と、を備える、
撮影条件決定装置。 - 前記撮影条件出力部は、前記LiDAR及びカメラのうち少なくとも前記LiDARを含む撮影装置を用いて前記基準データを取得する撮影制御部に対し、前記撮影条件を出力し、
前記撮影制御部は、前記撮影条件に基づいて、前記撮影装置の状態を変える、
請求項14に記載の撮影条件決定装置。 - コンピュータに、
物体の位置を表現する基準データを保持する第1手順と、
前記基準データ上での対象物の位置を表現する指示オブジェクトを保持する第2手順と、
前記基準データ及び前記指示オブジェクトに基づいて、前記対象物を撮影するLiDAR(Light Detection And Ranging)の撮影条件を決定する第3手順と、
前記撮影条件を出力する第4手順と、
を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023522017A JP7582460B2 (ja) | 2021-05-17 | 2021-05-17 | 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びプログラム |
| PCT/JP2021/018636 WO2022244069A1 (ja) | 2021-05-17 | 2021-05-17 | 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びコンピュータ可読媒体 |
| US18/289,913 US12505574B2 (en) | 2021-05-17 | 2021-05-17 | Imaging condition determination method, imaging condition determination system, imaging condition determination device, and computer readable medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2021/018636 WO2022244069A1 (ja) | 2021-05-17 | 2021-05-17 | 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びコンピュータ可読媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022244069A1 true WO2022244069A1 (ja) | 2022-11-24 |
Family
ID=84141323
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2021/018636 Ceased WO2022244069A1 (ja) | 2021-05-17 | 2021-05-17 | 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びコンピュータ可読媒体 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12505574B2 (ja) |
| JP (1) | JP7582460B2 (ja) |
| WO (1) | WO2022244069A1 (ja) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006242943A (ja) * | 2005-02-04 | 2006-09-14 | Canon Inc | 位置姿勢計測方法及び装置 |
| JP2010175423A (ja) * | 2009-01-30 | 2010-08-12 | Mitsubishi Electric Corp | 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム |
| JP2010540933A (ja) * | 2007-09-28 | 2010-12-24 | ザ・ボーイング・カンパニー | 局所的位置決定システムとその方法 |
| JP2011180022A (ja) * | 2010-03-02 | 2011-09-15 | Suzuki Motor Corp | ステレオカメラの診断方法、およびステレオカメラの診断装置 |
| WO2013111229A1 (ja) * | 2012-01-23 | 2013-08-01 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
| JP2017032280A (ja) * | 2015-07-28 | 2017-02-09 | 株式会社リコー | 角度算出システム、角度算出装置、プログラム、および角度算出方法 |
| JP2019078746A (ja) * | 2017-09-25 | 2019-05-23 | ザ・ボーイング・カンパニーThe Boeing Company | ケーブル懸架式プラットフォームを用いた構造体を測定及び検査するための方法 |
| JP2019100856A (ja) * | 2017-12-01 | 2019-06-24 | パイオニア株式会社 | 制御装置、検知装置、制御方法、プログラム及び記憶媒体 |
| JP2020193820A (ja) * | 2019-05-24 | 2020-12-03 | キヤノン株式会社 | 計測装置、撮像装置、制御方法及びプログラム |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016217941A (ja) | 2015-05-22 | 2016-12-22 | 株式会社東芝 | 3次元データ評価装置、3次元データ測定システム、および3次元計測方法 |
| US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
| US11615628B2 (en) * | 2018-02-02 | 2023-03-28 | Sony Corporation | Information processing apparatus, information processing method, and mobile object |
| US10726567B2 (en) * | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
| EP3671261A1 (en) * | 2018-12-21 | 2020-06-24 | Leica Geosystems AG | 3d surveillance system comprising lidar and multispectral imaging for object classification |
| DE112019006484T5 (de) * | 2018-12-28 | 2021-10-21 | Nvidia Corporation | Detektion von abständen zu hindernissen in autonomen maschinenanwendungen |
| JP7221897B2 (ja) * | 2020-03-03 | 2023-02-14 | 株式会社東芝 | 推定装置、移動体、推定方法及びプログラム |
| US12423987B2 (en) * | 2020-10-23 | 2025-09-23 | Deka Products Limited Partnership | System and method for determining object characteristics in real-time |
| CN116803074A (zh) * | 2020-11-11 | 2023-09-22 | 华为技术有限公司 | 用于验证估计深度信息的设备和方法 |
| US11741618B2 (en) * | 2021-03-22 | 2023-08-29 | Everypoint, Inc. | Performing object modeling by combining visual data from images with motion data of the image acquisition device |
-
2021
- 2021-05-17 JP JP2023522017A patent/JP7582460B2/ja active Active
- 2021-05-17 US US18/289,913 patent/US12505574B2/en active Active
- 2021-05-17 WO PCT/JP2021/018636 patent/WO2022244069A1/ja not_active Ceased
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006242943A (ja) * | 2005-02-04 | 2006-09-14 | Canon Inc | 位置姿勢計測方法及び装置 |
| JP2010540933A (ja) * | 2007-09-28 | 2010-12-24 | ザ・ボーイング・カンパニー | 局所的位置決定システムとその方法 |
| JP2010175423A (ja) * | 2009-01-30 | 2010-08-12 | Mitsubishi Electric Corp | 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム |
| JP2011180022A (ja) * | 2010-03-02 | 2011-09-15 | Suzuki Motor Corp | ステレオカメラの診断方法、およびステレオカメラの診断装置 |
| WO2013111229A1 (ja) * | 2012-01-23 | 2013-08-01 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
| JP2017032280A (ja) * | 2015-07-28 | 2017-02-09 | 株式会社リコー | 角度算出システム、角度算出装置、プログラム、および角度算出方法 |
| JP2019078746A (ja) * | 2017-09-25 | 2019-05-23 | ザ・ボーイング・カンパニーThe Boeing Company | ケーブル懸架式プラットフォームを用いた構造体を測定及び検査するための方法 |
| JP2019100856A (ja) * | 2017-12-01 | 2019-06-24 | パイオニア株式会社 | 制御装置、検知装置、制御方法、プログラム及び記憶媒体 |
| JP2020193820A (ja) * | 2019-05-24 | 2020-12-03 | キヤノン株式会社 | 計測装置、撮像装置、制御方法及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20240249433A1 (en) | 2024-07-25 |
| JPWO2022244069A1 (ja) | 2022-11-24 |
| JP7582460B2 (ja) | 2024-11-13 |
| US12505574B2 (en) | 2025-12-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5961945B2 (ja) | 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体 | |
| CN114578329A (zh) | 多传感器联合标定方法、设备、存储介质及程序产品 | |
| CN114600162A (zh) | 用于捕捉摄像机图像的场景锁定模式 | |
| JP2019215811A (ja) | 投影システム、画像処理装置および投影方法 | |
| WO2015068470A1 (ja) | 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム | |
| US12067741B2 (en) | Systems and methods of measuring an object in a scene of a captured image | |
| US9921054B2 (en) | Shooting method for three dimensional modeling and electronic device supporting the same | |
| US10432916B2 (en) | Measurement apparatus and operation method of measurement apparatus | |
| WO2021016051A1 (en) | Joint environmental reconstruction and camera calibration | |
| CN106341593B (zh) | 拍照控制方法及终端 | |
| JP2019219248A (ja) | 点群処理装置、点群処理方法およびプログラム | |
| JP2023525066A (ja) | 被写体下端位置に基づいた深度推定 | |
| WO2018154634A1 (ja) | 投写型表示装置、投写型表示装置の制御方法、及びプログラム | |
| JP6444981B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
| CN116990830A (zh) | 基于双目和tof的距离定位方法、装置、电子设备及介质 | |
| JP2017090420A (ja) | 3次元情報復元装置及び3次元情報復元方法 | |
| JP6065670B2 (ja) | 3次元計測システム、プログラム及び方法。 | |
| JP5996233B2 (ja) | 画像撮像装置 | |
| JP7582460B2 (ja) | 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びプログラム | |
| CN116156132B (zh) | 投影图像校正方法、装置、电子设备及可读存储介质 | |
| US20250063150A1 (en) | Projector system and method for projecting images | |
| KR20240071170A (ko) | 멀티뷰 위상 이동 프로파일로메트리를 위한 3차원 캘리브레이션 방법 및 장치 | |
| JP7599767B1 (ja) | 検査装置、及び、検査方法 | |
| US11754833B2 (en) | Image processing apparatus and control method for image processing apparatus | |
| WO2023247015A1 (en) | Determining a scale factor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21940689 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 18289913 Country of ref document: US |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2023522017 Country of ref document: JP |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 21940689 Country of ref document: EP Kind code of ref document: A1 |