[go: up one dir, main page]

WO2021020355A1 - 色推定装置、色推定方法及びプログラム - Google Patents

色推定装置、色推定方法及びプログラム Download PDF

Info

Publication number
WO2021020355A1
WO2021020355A1 PCT/JP2020/028749 JP2020028749W WO2021020355A1 WO 2021020355 A1 WO2021020355 A1 WO 2021020355A1 JP 2020028749 W JP2020028749 W JP 2020028749W WO 2021020355 A1 WO2021020355 A1 WO 2021020355A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
light
light receiving
estimation
belongs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2020/028749
Other languages
English (en)
French (fr)
Inventor
直知 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020032572A external-priority patent/JP7472541B2/ja
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US17/630,800 priority Critical patent/US12154298B2/en
Priority to CN202080053411.0A priority patent/CN114175613B/zh
Publication of WO2021020355A1 publication Critical patent/WO2021020355A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0264Electrical interface; User interface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • G01J3/513Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters having fixed filter-detector pairs
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/60Receivers
    • H04B10/66Non-coherent receivers, e.g. using direct detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/30Devices specially adapted for multicolour light emission
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Definitions

  • the present invention relates to a color estimation device, a color estimation method and a program.
  • a technology is being considered in which a marker modulates information with brightness and color in the wavelength range of visible light to emit light, and transmits information. Further, there is also a technique in which the modulated visible light is received by an image sensor of a camera and the received position on the image sensor is associated with the demodulated information (see, for example, Patent Document 1).
  • the present invention has been made in view of such problems, and an object of the present invention is to correctly estimate the color of an image having a size in which it is difficult to specify the color.
  • the color estimation device A light receiving means in which a plurality of light receiving elements for which the color to which the received light belongs is specified from the light receiving position are arranged, and When the position of the received light receiving element is other than the position where the color to which the received light belongs can be specified, the estimation means for estimating the color to which the light belongs based on the brightness of the received light, and the estimation means. It is characterized by having.
  • the color estimation method A light receiving step in which light is received by a plurality of arranged light receiving elements in which the color to which the received light belongs is specified from the light receiving position.
  • the estimation step of estimating the color to which the light belongs based on the brightness of the received light When, It is characterized by including.
  • a light receiving means in which a plurality of light receiving elements for which the color to which the received light belongs is specified from the light receiving position are arranged.
  • the estimation means for estimating the color to which the light belongs based on the brightness of the received light. It is characterized by functioning as.
  • (A) is a diagram showing an example of a hue circle according to the same embodiment
  • (b) is a diagram showing an example of a color plane according to the same embodiment.
  • FIG. 1 is a diagram showing a configuration of a visible light communication system.
  • the visible light communication system 1 includes a server 200, mobile devices 100a, 100b, 100c, and a server 200.
  • the mobile device 100 includes a marker LED (Light Emitting Diode) 102a
  • the mobile device 100b includes an LED 102b
  • the mobile device 100c includes an LED 102c.
  • LED102 when each of the LEDs 102a, 102b, and 102c is not limited, it is appropriately referred to as "LED102”.
  • the server 200 includes a photographing unit 201.
  • the LED 102 in the mobile device 100 transmits information by emitting light corresponding to the ID (Identification) of the mobile device 100, which is the information to be transmitted.
  • the photographing unit 201 in the server 200 takes an image and acquires the ID of the mobile device 100 from the light image obtained by the image.
  • FIG. 2 is a diagram showing an example of the configuration of the mobile device 100.
  • the mobile device 100 includes an LED 102, a control unit 103, a memory 104, a communication unit 108, a drive unit 112, and a battery 150.
  • the control unit 103 is composed of, for example, a CPU (Central Processing Unit).
  • the control unit 103 controls various functions included in the mobile device 100 by executing software processing according to a program stored in the memory 104.
  • the memory 104 is, for example, a RAM (RandomAccessMemory) or a ROM (ReadOnlyMemory).
  • the memory 104 stores various information (programs and the like) used for control and the like in the mobile device 100.
  • the communication unit 108 is, for example, a LAN (Local Area Network) card.
  • the communication unit 108 communicates with other communication devices.
  • the battery 150 supplies each part with electric power necessary for operating the mobile device 100.
  • the control unit 103 is functionally configured with a light emission control unit 124.
  • the light emission control unit 124 determines a light emission pattern that emits a predetermined light including arbitrary information modulated by the temporal change of the hue emitted by the LED 102 according to the ID of the mobile device 100 or the like.
  • the light emission control unit 124 outputs information on the light emission pattern corresponding to the ID or the like to the drive unit 112.
  • the drive unit 112 generates a drive signal for temporally changing the hue and brightness of the light emitted by the LED 102 according to the information of the light emission pattern from the light emission control unit 124.
  • the LED 102 emits light whose hue and brightness change with time according to the drive signal output from the drive unit 112.
  • the emission colors are the three primary colors, and are any of red (R), green (G), and blue (B), which are the colors of the wavelength band used for color modulation in visible light communication.
  • FIG. 3 is a diagram showing an example of the configuration of the server 200.
  • the server 200 includes a photographing unit 201, a control unit 202, an image processing unit 204, a memory 205, an operation unit 206, a display unit 207, and a communication unit 208.
  • the photographing unit 201 includes the lens 203.
  • the lens 203 is composed of a zoom lens or the like.
  • the lens 203 moves by the zoom control operation from the operation unit 206 and the focusing control by the control unit 202.
  • the movement of the lens 203 controls the shooting angle of view and the optical image taken by the shooting unit 201.
  • the photographing unit 201 is composed of a light receiving surface formed by a plurality of light receiving elements regularly arranged two-dimensionally.
  • the light receiving element is, for example, a photographing device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the photographing unit 201 photographs (receives light) an optical image received through the lens 203 at a shooting angle of view within a predetermined range based on a control signal from the control unit 202, and captures an image signal within the shooting angle of view. Convert to digital data to generate a frame. Further, the photographing unit 201 continuously performs photography and generation of frames in time, and outputs the continuous frames to the image processing unit 204.
  • a Bayer array color filter is configured on the light receiving surface. As shown in FIG. 4, in the Bayer array color filter, the first row in which the red filter 302 and the green filter 304 are alternately arranged in the horizontal direction, and the blue filter 306 and the green filter 304 are alternately arranged in the horizontal direction. The second row arranged in the above is arranged alternately in the vertical direction.
  • the image processing unit 204 Based on the control signal from the control unit 202, the image processing unit 204 outputs the frame (digital data) output from the photographing unit 201 as it is to the control unit 202, and the live view image of the frame is displayed on the display unit 207. The image quality and image size are adjusted and output to the control unit 202 so as to be displayed as. Further, when a control signal based on the recording instruction operation from the operation unit 206 is input, the image processing unit 204 is displayed within the shooting angle of view of the shooting unit 201 at the time of the recording instruction or on the display unit 207. It has a function of encoding and filing an optical image within the display range by a compression coding method such as JPEG (Joint Photographic Experts Group).
  • JPEG Joint Photographic Experts Group
  • the control unit 202 is composed of, for example, a CPU.
  • the control unit 202 controls various functions included in the server 200, such as performing the operations shown in FIGS. 7 to 11 to be described later, by executing software processing according to the program stored in the memory 205.
  • the memory 205 is, for example, a RAM or a ROM.
  • the memory 205 stores various information (programs and the like) used for control and the like in the server 200.
  • the communication unit 208 is, for example, a LAN card. The communication unit 208 communicates with an external communication device.
  • the operation unit 206 is composed of a numeric keypad, function keys, and the like, and is an interface used for inputting user operation contents.
  • the display unit 207 is composed of, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an EL (Electro Luminescence) display, or the like.
  • the display unit 207 displays an image according to the image signal output from the control unit 202.
  • the control unit 202 is functionally composed of a position identification unit 232, an estimation unit 234, and a decoding unit 236.
  • the position specifying unit 232 specifies the position of the region (hereinafter, the position of light emission) in the mobile device 100 where the light emitted by the LED 102 is irradiated on the light receiving surface.
  • the position of light emission is the position of a region constituting a marker candidate composed of a frame in a predetermined range centered on the position of the marker.
  • the estimation unit 234 estimates whether the color of the region constituting the marker candidate is red (R), green (G), or blue (B).
  • the control unit 202 restores information such as the ID of the mobile device 100, which is transmitted in response to the change in the color of the estimated region.
  • the estimation unit 234 when the region on the light receiving surface is sufficiently larger than the red filter 302, the green filter 304, and the blue filter 306 of the color filter, the colors of the marker region are red (R) and green (R). It can be easily estimated whether it is G) or blue (B).
  • the estimation unit 234 may not be able to correctly estimate the color of the marker region as it is. is there.
  • the size of the debayer filter indicates the minimum size required to generate a color image, which is determined by the arrangement of the color filters. For example, as shown in FIGS. 5A to 5C, there is a case where the positions of the red filter 302, the green filter 304, and the blue filter 306 of the color filter and the marker candidate area 310 that emits light in red, which is a small area, exist. Think.
  • the marker candidate region 310 is included in the red filter 302. In such a case, the marker candidate region 310 becomes red with high brightness. Therefore, the estimation unit 234 can determine that the marker candidate region 310 is red.
  • the marker candidate area 310 overlaps the green filter 304 and the blue filter 306.
  • the area 310 of the marker candidate has a low brightness, or has a color in which green and blue are mixed by the green filter 304 and the blue filter 306.
  • the Bayer array has a high proportion of the green filter 304, it is easily affected by the green filter 304 as shown in FIG.
  • the estimation unit 234 estimates the color of the marker candidate region according to the color wheel shown in FIG. 6A and the color plane shown in FIG. 6B.
  • a color is specified by hue, value, and saturation in the HSV color space, and is specified by a position on the color space of a cylinder.
  • the circumferential direction indicates the hue (H) (0 to 360)
  • the height direction (vertical direction) indicates the brightness (V)
  • the radial direction indicates the saturation (S). Is shown.
  • red (R), green (G), and blue (B) are classified according to the hue value.
  • the hue value is any of 0 to 360 values.
  • a hue value of 105 to 180 is a region determined to be green
  • a hue value of 180 to 255 is a region determined to be blue
  • a hue value of 330 to 30 is a region determined to be red.
  • the decoding unit 236 controls to decode the bit data strings corresponding to each of the red (R), green (G), and blue (B) colors estimated by the estimation unit 234, and uses the information of the communication target in visible light communication. Acquire the ID and the like of a certain mobile device 100.
  • FIG. 7 is a flowchart showing an example of the color estimation operation by the server 200.
  • the position specifying unit 232 in the control unit 202 detects a region on the light receiving surface having a brightness equal to or higher than a predetermined brightness that can be regarded as a position of light emission in the LED 102 in the mobile device 100 as a region configured as a marker candidate (step S101).
  • the estimation unit 234 determines whether or not the area of the marker candidate is equal to or smaller than the size of the debayer filter (step S102).
  • the color of the marker candidate area is biased to any of the red filter 302, the green filter 304, and the blue filter 306 of the color filter. Since there is a high possibility that it will be identified, it is considered that the color of the marker candidate region cannot be accurately determined by ordinary color determination.
  • the color estimation unit 234 performs normal color estimation for the marker candidate region (step S103). That is, the color estimation unit 234 estimates the color of the marker candidate region based on the red (R), green (G), and blue (B) values (RGB values).
  • step S104 when the area of the marker candidate is smaller than or equal to the size of the debayer filter (step S102; YES), the color estimation unit 234 performs color estimation in consideration of the Bayer arrangement of the color filter on the light receiving surface (step S104). The details of the operation in step S104 will be described below.
  • FIG. 8 shows an example of a detailed first operation of color estimation by the server 200
  • FIG. 9 shows an example of a second operation
  • FIG. 10 shows an example of a third operation
  • FIG. 11 shows an example of a fourth operation. It is a flowchart.
  • the estimation unit 234 calculates the average value (RGB average value) of the red (R), green (G), and blue (B) values of all the pixels included in the marker candidate region. Then, by converting the pixel format, the RGB average value is converted into the average value of hue H (H average value) of all pixels included in the marker candidate area, the average value of saturation S (S average value), and the average value of saturation S. It is converted into an HSV average value composed of an average value of lightness V (V average value) (step S201).
  • the estimation unit 234 determines whether or not the H average value ⁇ 30 or the H average value> 330 (step S202).
  • the H average value ⁇ 30 or the H average value> 330 means that the region estimated to be red is extracted as a marker candidate.
  • the estimation unit 234 determines whether or not the S average value> 10 (step S203).
  • the S average value> 10 is intended to extract a region having a high saturation S as a marker candidate.
  • the estimation unit 234 determines whether or not the V average value> 10 (step S204).
  • the V average value> 10 is intended to extract a region having a high brightness V as a marker candidate.
  • the estimation unit 234 is estimated to be red at the same location as this time up to the frame before the frame of the image currently the target of color estimation. It is determined whether or not there is a region of the marker candidate (step S206). For example, hue H, saturation S, brightness V, and the like, which are the results of color estimation of the marker candidate area for each frame, are stored in the memory 205.
  • the estimation unit 234 sets the brightness correction value to the marker candidate region estimated to be red up to the previous frame. It is set to the maximum brightness within (step S207).
  • the estimation unit 234 sets the brightness correction value to 32 (step S208).
  • the brightness correction value 32 indicates a value (emission luminance value) estimated when the marker LED 102 emits light.
  • the estimation unit 234 determines whether or not the V average value of the marker candidate region is less than the brightness correction value (step S209).
  • the estimation unit 234 sets the V average value of the marker candidate area to the brightness correction value set in step S207 or step S208. Fix it.
  • the estimation unit 234 converts the corrected HSV average value into an RGB average value. Further, the estimation unit 234 sets RGB average values for all pixels in the marker candidate area, stores the HSV average value and the RGB average value in the memory 205, and estimates that the marker candidate area is red (). Step S210).
  • the estimation unit 234 converts the HSV average value into the RGB average value by converting the pixel format. Further, the estimation unit 234 sets RGB average values for all pixels in the marker candidate area, stores the HSV average value and the RGB average value in the memory 205, and estimates that the marker candidate area is red (). Step S211).
  • step S203 If the S mean value is not> 10 (step S203; NO) or the V mean value is not> 10 (step S204; NO), the estimation unit 234 estimates that the marker candidate region is not a marker (step). S212). If the H average value ⁇ 30 or the H average value> 330 is not satisfied (step S202; NO), the operation proceeds to the operation shown in FIG.
  • the estimation unit 234 determines the hue H for all the pixels included in the marker candidate region (in this case, the size of the maximum debayer filter), and determines the number of pixels in the region A where the hue H is 180 ⁇ H ⁇ 255. , The number of pixels in the B region where the hue H is 105 ⁇ H ⁇ 180 is specified (step S301). 180 ⁇ H ⁇ 255 indicates a hue value corresponding to blue, and 105 ⁇ H ⁇ 180 indicates a hue value corresponding to green.
  • the estimation unit 234 determines whether or not the number of pixels in each of the A region and the B region is 1/3 or more of the number of pixels in the total region of the marker candidate (step S302).
  • the estimation unit 234 determines the average value (S average) of the saturation S in each of the A region and the B region. (Value) and the average value of brightness V (V average value) are calculated, and S average value> 10 and V average value> 10 in the A region, and S average value> 10 and V average value> 10 in the B region. Whether or not it is determined (step S303).
  • the estimation unit 234 determines the hue of all the pixels included in the A region.
  • the HSV mean value (HSV mean value in the A region) including the mean value of H (H mean value), the mean value of saturation S (S mean value), and the mean value of lightness V (V mean value) is calculated. Further, the estimation unit 234 converts the HSV average value in the A region into the RGB average value in the A region by converting the pixel format (step S305).
  • the estimation unit 234 sets the RGB average value of the A region for all the pixels of the marker candidate region, stores the HSV average value and the RGB average value in the memory 205, and estimates that the marker candidate region is blue. (Step S306).
  • the estimation unit 234 estimates that the marker candidate region is not a marker (step S307). Further, when the number of pixels in the marker candidate region of either the A region or the B region is not more than 1/3 but less than 1/3 of the total number of pixels (step S302; NO), the operation proceeds to the operation shown in FIG. ..
  • step S308 the operation proceeds to the operation of FIG. 10, and the estimation unit 234 has 180 ⁇ H average value ⁇ for the H average value included in the HSV average value for the marker candidate region acquired in step S201 of FIG. It is determined whether or not it is 255 (step S401).
  • step S401 When 180 ⁇ H mean value ⁇ 255 (step S401; YES), whether the estimation unit 234 has S mean value> 10 and V mean value> 10 for the S mean value and V mean value of the marker candidate region. It is determined whether or not (step S402).
  • the estimation unit 234 converts the HSV average value into RGB averages for the marker candidate area by converting the pixel format. Convert to a value. Further, the estimation unit 234 sets RGB average values for all pixels in the marker candidate area, stores the HSV average value and the RGB average value in the memory 205, and estimates that the marker candidate area is blue (). Step S404).
  • step S402 when the S average value> 10 and the V average value> 10 are not (step S402; NO), the estimation unit 234 estimates that the marker candidate region is not a marker (step S405). If 180 ⁇ H average value ⁇ 255 is not satisfied (step S401; NO), the operation proceeds to the operation shown in FIG.
  • the estimation unit 234 determines whether or not 105 ⁇ H average value ⁇ 180 with respect to the H average value included in the HSV average value for the marker candidate region acquired in step S201 of FIG. 8 (step S501). ..
  • step S501 When 105 ⁇ H mean value ⁇ 180 (step S501; YES), whether the estimation unit 234 has S mean value> 10 and V mean value> 10 for the S mean value and V mean value of the marker candidate region. Whether or not it is determined (step S502).
  • the estimation unit 234 converts the HSV average value into RGB averages for the marker candidate area by converting the pixel format. Convert to a value. Further, the estimation unit 234 sets RGB average values for all pixels in the marker candidate area, stores the HSV average value and the RGB average value in the memory 205, and estimates that the marker candidate area is green (). Step S504).
  • the estimation unit 234 has a marker candidate region. It is estimated that it is not a marker (step S505).
  • the mobile device 100 causes the LED 102, which is a marker, to emit light according to its own ID and the like.
  • the server 200 detects the position of the marker region on the light receiving surface, estimates the color of the marker region, and based on the estimated color change of the marker region, the decoding unit 236 uses the mobile device. Decrypt into information such as 100 IDs.
  • the server 200 considers the Bayer arrangement of the color filter and considers the average of the hue H, saturation S, and brightness V of the pixels in the marker candidate region.
  • the color of the marker candidate region is estimated using the HSV average value which is the value.
  • the server 200 converts the HSV average value into an RGB average value by appropriately modifying the HSV average value and converting the pixel format, and sets the RGB average value in all the pixels in the marker area. As a result, the correct color can be estimated regardless of the size of the marker area.
  • the present invention is not limited to this, and depending on the characteristics of the color filter of the light receiving element and the processing such as white balance, it may be determined to be green or may be determined to be other than blue and green.
  • the information to be transmitted by the mobile device 100 is the ID of the mobile device 100, but the information is not limited to this, and the position information of the mobile device 100, a failure caused in the mobile device 100, or the like. It may be the information of.
  • the case where visible light of red, green, and blue is used for communication has been described, but visible light of other colors may be used. Further, the light emission is not limited to those whose hue and brightness change with time, and may be those whose saturation changes with time.
  • the light source in the mobile device 100 is not limited to the LED.
  • a light source may be configured in a part of an LCD, a PDP, an EL display, or the like that constitutes a display device.
  • the server 200 may be any device as long as it is provided with a photographing unit and can photograph.
  • the program to be executed is a computer-readable recording such as a flexible disk, a CD-ROM (Compact Disc Read-Only Memory), a DVD (Digital Versatile Disc), or an MO (Magneto-Optical disc).
  • a system that executes the above-mentioned processing may be configured by storing the program in a medium, distributing the program, and installing the program.
  • the program may be stored in a disk device or the like owned by a predetermined server on a network such as the Internet, and may be superimposed on a carrier wave and downloaded.
  • the present invention can be used in technical fields such as communication using the color of light.
  • 1 ... Visible light communication system, 100, 100a, 100b, 100c ... Mobile device, 102, 102a, 102b, 102c ... LED, 103, 202 ... Control unit, 104, 205 ... Memory, 108, 208 ... Communication unit, 112 ... Drive unit, 124 ... Light emission control unit, 150 ... Battery, 200 ... Server, 201 ... Imaging unit, 203 ... Lens, 204 ... Image processing unit, 206 ... Operation unit, 207 ... Display unit, 232 ... Position identification unit, 234 ... Estimating unit, 236 ... Decoding unit, 302 ... Red filter, 304 ... Green filter, 306 ... Blue filter, 310 ... Marker candidate area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Optical Communication System (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

サーバは、デベイヤフィルタよりもサイズが小さいマーカ候補の領域について色を推定する場合、カラーフィルタのベイヤー配列を考慮して、マーカ候補の領域の色相H、彩度S、明度Vの平均値であるHSV平均値を用いて、マーカ候補の領域の色を推定する。更に、サーバは、HSV平均値を適宜修正するとともに、ピクセルフォーマットの変換を行うことにより、HSV平均値をRGB(RGB平均値)に変換し、そのRGB平均値をマーカの領域の全画素に設定する。

Description

色推定装置、色推定方法及びプログラム
 本発明は、色推定装置、色推定方法及びプログラムに関する。
 マーカが情報を可視光の波長領域における輝度、色で変調して発光し、情報送信する技術が考えられている。また、この変調された可視光をカメラのイメージセンサで受光し、イメージセンサにおける受光した位置と復調された情報とを対応付けさせる技術も存在する(例えば特許文献1参照)。
特開2016-139998号公報
 しかしながら、マーカとカメラとの距離が長く、結果的に撮像素子における受光面において、マーカが発光する光の像が所定サイズ以下で撮像されるようになると、その光の像の色(発光色)はカラーフィルタの赤、緑、青(RGB)配列の何れかの色の影響を強く受けてしまい、発光色が正しく認識できなくなるという問題が生じる。
 本願発明はこのような問題点に鑑みてなされたものであり、色の特定が困難なサイズの画像の色を正しく推定することを目的とする。
 上記目的を達成するため、本発明に係る色推定装置は、
 受光した位置から受光した光が属する色が特定される複数の受光素子が配列された受光手段と、
 前記受光した受光素子の位置が、前記受光した光の属する色の特定が可能な位置以外である場合、前記受光した光の明るさに基づいて前記光が属する色を推定する推定手段と、
 を備えることを特徴とする。
 上記目的を達成するため、本発明に係る色推定方法は、
 受光した位置から受光した光が属する色が特定される複数の配列された受光素子により受光する受光ステップと、
 前記受光ステップにおいて受光した受光素子の位置が、前記受光した光の属する色の特定が可能な位置以外である場合、前記受光した光の明るさに基づいて前記光が属する色を推定する推定ステップと、
 を含むことを特徴とする。
 上記目的を達成するため、本発明に係るプログラムは、
 コンピュータを、
 受光した位置から受光した光が属する色が特定される複数の受光素子が配列された受光手段、
 前記受光した受光素子の位置が、前記受光した光の属する色の特定が可能な位置以外である場合、前記受光した光の明るさに基づいて前記光が属する色を推定する推定手段、
 として機能させることを特徴とする。
 本発明によれば、色の特定が困難なサイズの画像の色を正しく推定することができる。
本発明の実施形態に係る可視光通信システムの一例を示す図である。 同実施形態に係る移動機器の構成の一例を示す図である。 同実施形態に係るサーバの構成の一例を示す図である。 同実施形態に係るカラーフィルタのベイヤー配列の一例を示す図である。 (a)は同実施形態に係る赤のマーカの領域が赤フィルタに含まれる一例を示す図であり、(b)は同実施形態に係る赤のマーカの領域が緑フィルタや青フィルタに重なる一例を示す図であり、(c)は同実施形態に係る赤のマーカの領域が緑フィルタや青フィルタに重なる他の一例を示す図である。 (a)は同実施形態に係る色相環の一例を示す図であり、(b)は同実施形態に係る色平面の一例を示す図である。 同実施形態に係るサーバによる色推定の動作の一例を示すフローチャートである。 同実施形態に係るサーバによる色推定の詳細な第1の動作の一例を示すフローチャートである。 同実施形態に係るサーバによる色推定の詳細な第2の動作の一例を示すフローチャートである。 同実施形態に係るサーバによる色推定の詳細な第3の動作の一例を示すフローチャートである。 同実施形態に係るサーバによる色推定の詳細な第4の動作の一例を示すフローチャートである。
 以下、図面を参照して、本発明の実施形態に係る情報処理システムとしての可視光通信システムを説明する。
 図1は、可視光通信システムの構成を示す図である。図1に示すように、可視光通信システム1は、サーバ200と、移動機器100a、100b、100cと、サーバ200とを含む。以下、移動機器100a、100b、100cのそれぞれを限定しない場合には、適宜「移動機器100」と称する。移動機器100aは、マーカであるLED(Light Emitting Diode)102aを含み、移動機器100bは、LED102bを含み、移動機器100cは、LED102cを含む。以下、LED102a、102b、102cのそれぞれを限定しない場合には、適宜「LED102」と称する。サーバ200は、撮影部201を含む。
 本実施形態において、移動機器100内のLED102が送信対象の情報である移動機器100のID(Identification)等に対応する光を発することにより情報を送信する。一方、サーバ200では、サーバ200内の撮影部201が撮影を行い、撮影により得られた光の画像から移動機器100のIDを取得する。
 図2は、移動機器100の構成の一例を示す図である。図2に示すように、移動機器100は、LED102、制御部103、メモリ104、通信部108、駆動部112、及び、電池150を含む。
 制御部103は、例えばCPU(Central Processing Unit)によって構成される。制御部103は、メモリ104に記憶されたプログラムに従ってソフトウェア処理を実行することにより、移動機器100が具備する各種機能を制御する。
 メモリ104は、例えばRAM(Random Access Memory)やROM(Read Only Memory)である。メモリ104は、移動機器100における制御等に用いられる各種情報(プログラム等)を記憶する。通信部108は、例えばLAN(Local Area Network)カードである。通信部108は、他の通信装置との間で通信を行う。電池150は、移動機器100の作動に必要な電力を各部に供給する。
 制御部103には、機能的に、発光制御部124が構成される。発光制御部124は、移動機器100のID等に応じて、LED102が発する色相の時間的な変化に変調された任意の情報を含む所定の光を発光する発光パターンを決定する。
 更に、発光制御部124は、ID等に対応する発光パターンの情報を駆動部112へ出力する。駆動部112は、発光制御部124からの発光パターンの情報に応じて、LED102が発する光の色相や輝度を時間的に変化させるための駆動信号を生成する。LED102は、駆動部112から出力される駆動信号に応じて、時間的に色相や輝度が変化する光を発する。発光色は3原色であり、可視光通信における色変調に用いる波長帯の色である赤(R)、緑(G)、青(B)の何れかである。
 図3は、サーバ200の構成の一例を示す図である。図3に示すように、サーバ200は、撮影部201、制御部202、画像処理部204、メモリ205、操作部206、表示部207及び通信部208を含む。
 撮影部201は、レンズ203を含む。レンズ203は、ズームレンズ等により構成される。レンズ203は、操作部206からのズーム制御操作、及び、制御部202による合焦制御により移動する。レンズ203の移動によって撮影部201が撮影する撮影画角や光学像が制御される。
 撮影部201は、規則的に二次元配列された複数の受光素子により受光面が構成される。受光素子は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮影デバイスである。撮影部201は、レンズ203を介して入光された光学像を、制御部202からの制御信号に基づいて所定範囲の撮影画角で撮影(受光)し、その撮影画角内の画像信号をデジタルデータに変換してフレームを生成する。また、撮影部201は、撮影とフレームの生成とを時間的に連続して行い、連続するフレームを画像処理部204に出力する。
 受光面には、ベイヤー配列のカラーフィルタが構成されている。図4に示すように、ベイヤー配列のカラーフィルタは、横方向に赤フィルタ302と緑フィルタ304とが交互に配置された第1の列と、横方向に青フィルタ306と緑フィルタ304とが交互に配列された第2の列とが上下方向に交互に配置されて構成される。
 画像処理部204は、制御部202からの制御信号に基づいて、撮影部201から出力されたフレーム(デジタルデータ)をそのまま制御部202へ出力するとともに、当該フレームについて、表示部207にライブビュー画像として表示させるべく、画質や画像サイズを調整して制御部202へ出力する。また、画像処理部204は、操作部206からの記録指示操作に基づく制御信号が入力されると、記録指示された時点の撮影部201における撮影画角内、あるいは、表示部207に表示される表示範囲内の光学像を、例えば、JPEG(Joint Photographic Experts Group)等の圧縮符号化方式にて符号化、ファイル化する機能を有する。
 制御部202は、例えばCPUによって構成される。制御部202は、メモリ205に記憶されたプログラムに従ってソフトウェア処理を実行することにより、後述する図7~図11に示す動作を行う等、サーバ200が具備する各種機能を制御する。
 メモリ205は、例えばRAMやROMである。メモリ205は、サーバ200における制御等に用いられる各種情報(プログラム等)を記憶する。通信部208は、例えばLANカードである。通信部208は、外部の通信装置との間で通信を行う。
 操作部206は、テンキーやファンクションキー等によって構成され、ユーザの操作内容を入力するために用いられるインタフェースである。表示部207は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electro Luminescence)ディスプレイ等によって構成される。表示部207は、制御部202から出力された画像信号に従って画像を表示する。
 制御部202には、機能的に、位置特定部232、推定部234及び復号部236が構成される。位置特定部232は、受光面における、移動機器100内のLED102が発光した光が照射されている領域の位置(以下、発光の位置)を特定する。換言すると、発光の位置とは、マーカの位置を中心とした所定範囲の枠からなるマーカ候補を構成する領域の位置である。
 推定部234は、マーカ候補を構成する領域の色が赤(R)、緑(G)、青(B)の何れかであるかを推定する。制御部202は、推定した領域の色の変化に基づいて、その変化に応じて送信される、移動機器100のID等の情報を復元する。ここで、推定部234は、受光面における上記領域がカラーフィルタの赤フィルタ302、緑フィルタ304、青フィルタ306に対して十分大きい場合には、マーカの領域の色が赤(R)、緑(G)、青(B)の何れかであるかを容易に推定することができる。
 一方、受光面におけるマーカ候補を構成する領域がデベイヤフィルタの大きさ(n×m画素)より小さい場合には、そのままでは推定部234はマーカの領域の色を正しく推定することができない場合がある。ここで、デベイヤフィルタの大きさとは、カラーフィルタの配列によって定まる、カラー画像を生成するために必要となる最小の大きさを示す。例えば、図5(a)~(c)に示すようカラーフィルタの赤フィルタ302、緑フィルタ304、青フィルタ306の位置と、小さな領域である赤色で発光するマーカ候補の領域310が存在する場合を考える。
 図5(a)では、マーカ候補の領域310が赤フィルタ302に含まれている。このような場合には、マーカ候補の領域310は、明度が高い赤となる。このため、推定部234は、マーカ候補の領域310が赤であると判定することができる。
 一方、図5(b)、(c)では、マーカ候補の領域310が緑フィルタ304と青フィルタ306とに重なっている。このような場合には、マーカ候補の領域310は、明度が低くなったり、緑フィルタ304や青フィルタ306によって緑や青が混ざった色となる。特にベイヤー配列は緑フィルタ304の比率が高いため、図4に示すような緑フィルタ304の影響を受けやすい。
 そこで、本実施形態では、推定部234は、図6(a)に示す色相環、及び、図6(b)に示す色平面に応じて、マーカ候補の領域の色の推定を行う。図6(a)に示すように、色は、HSV色空間では、色相(Hue)、明度(Value)、彩度(Saturation)によって特定され、円柱の色空間上の位置で特定される。図6(a)の色相環においては、円周方向が色相(H)を示し(0~360)、高さ方向(垂直方向)が明度(V)を示し、半径方向が彩度(S)を示す。また、図6(a)の色相環、及び、図6(b)の色平面に示すように、赤(R)、緑(G)、青(B)は色相値によって区分される。色相値は0~360の値の何れかとなる。本実施形態では、色相値が105~180は緑と判定される領域、色相値が180~255は青と判定される領域、色相値が330~30は赤と判定される領域である。
 復号部236は、推定部234により推定された赤(R)、緑(G)、青(B)の各色に対応するビットデータ列を復号するよう制御し、可視光通信における通信対象の情報である移動機器100のID等を取得する。
 以下、フローチャートを参照しつつ、色推定の動作を説明する。図7は、サーバ200による色推定の動作の一例を示すフローチャートである。
 制御部202内の位置特定部232は、受光面における、移動機器100内のLED102における発光の位置とみなしうる所定明度以上の領域をマーカ候補として構成されている領域として検出する(ステップS101)。
 次に、推定部234は、マーカ候補の領域がデベイヤフィルタの大きさ以下であるか否かを判定する(ステップS102)。本実施形態では、マーカ候補の領域がデベイヤフィルタの大きさ以下である場合には、マーカ候補の領域の色がカラーフィルタの赤フィルタ302、緑フィルタ304、青フィルタ306の何れかに偏って特定される可能性が高いため、通常の色判定ではマーカ候補の領域の色を正確に判定することができないものとみなしている。
 マーカ候補の領域がデベイヤフィルタの大きさを超える場合(ステップS102;NO)、色推定部234は、マーカ候補の領域について通常の色推定を行う(ステップS103)。すなわち、色推定部234は、マーカ候補の領域の色について、赤(R)、緑(G)、青(B)の値(RGBの値)に基づいて、色推定を行う。
 一方、マーカ候補の領域がデベイヤフィルタの大きさ以下である場合(ステップS102;YES)、色推定部234は、受光面のカラーフィルタのベイヤー配列を考慮した色推定を行う(ステップS104)。以下、ステップS104における動作の詳細を説明する。
 図8はサーバ200による色推定の詳細な第1の動作の一例、図9は第2の動作の一例、図10は第3の動作の一例、図11は第4の動作の一例をそれぞれ示すフローチャートである。
 まず、図8に示すように、推定部234は、マーカ候補の領域に含まれる全画素の赤(R)、緑(G)、青(B)の値の平均値(RGB平均値)を算出し、ピクセルフォーマットの変換を行うことにより、当該RGB平均値を、マーカ候補の領域に含まれる全画素の色相Hの平均値(H平均値)、彩度Sの平均値(S平均値)及び明度Vの平均値(V平均値)からなるHSV平均値に変換する(ステップS201)。
 次に、推定部234は、H平均値<30、又は、H平均値>330であるか否かを判定する(ステップS202)。H平均値<30、又は、H平均値>330とは赤と推定される領域をマーカ候補として抽出する趣旨である。H平均値<30、又は、H平均値>330である場合(ステップS202;YES)、推定部234は、S平均値>10であるか否かを判定する(ステップS203)。S平均値>10とは彩度Sが高い領域をマーカ候補として抽出する趣旨である。S平均値>10である場合(ステップS203;YES)、推定部234は、V平均値>10であるか否かを判定する(ステップS204)。V平均値>10とは明度Vが高い領域をマーカ候補として抽出する趣旨である。
 V平均値>10である場合(ステップS204;YES)、推定部234は、現在、色推定の対象となっている画像のフレームよりも前のフレームまでにおいて、今回と同じ箇所で赤と推定されたマーカ候補の領域があるか否かを判定する(ステップS206)。例えば、フレーム毎のマーカ候補の領域の色推定の結果である色相H、彩度S、明度V等はメモリ205に記憶されている。
 前のフレームまでにおいて、赤と推定されたマーカ候補の領域がある場合(ステップS206;YES)、推定部234は、明度補正値を、前のフレームまでにおいて、赤と推定されたマーカ候補の領域内の最大の明度に設定する(ステップS207)。一方、前のフレームまでにおいて、赤と推定されたマーカ候補の領域がない場合(ステップS206;NO)、推定部234は、明度補正値を32に設定する(ステップS208)。ここで、明度補正値の32とはマーカであるLED102が発光した場合に推定される値(発光輝度値)を示している。
 ステップS207又はステップS208において明度補正値が設定された後、推定部234は、マーカ候補の領域のV平均値が明度補正値未満であるか否かを判定する(ステップS209)。マーカ候補の領域のV平均値が明度補正値未満である場合(ステップS209;YES)、推定部234は、マーカ候補の領域のV平均値を、ステップS207又はステップS208において設定した明度補正値に修正する。これにより、HSV平均値のうち、V平均値がより大きくされた値に修正される。次に、推定部234は、修正後のHSV平均値をRGB平均値に変換する。更に、推定部234は、マーカ候補の領域の全画素に、RGB平均値を設定し、HSV平均値とRGB平均値とをメモリ205に記憶し、マーカ候補の領域を赤であると推定する(ステップS210)。
 一方、マーカ候補の領域のV平均値が明度補正値未満でない場合(ステップS209;NO)、推定部234は、ピクセルフォーマットの変換を行うことにより、HSV平均値をRGB平均値に変換する。更に、推定部234は、マーカ候補の領域の全画素に、RGB平均値を設定し、HSV平均値とRGB平均値とをメモリ205に記憶し、マーカ候補の領域を赤であると推定する(ステップS211)。
 また、S平均値>10でない場合(ステップS203;NO)、又は、V平均値>10でない場合(ステップS204;NO)、推定部234は、マーカ候補の領域がマーカではないと推定する(ステップS212)。また、H平均値<30又はH平均値>330ではない場合(ステップS202;NO)、図9の動作に移行する。
 推定部234は、マーカ候補の領域に含まれる全画素(今回のケースでは最大デベイヤフィルタの大きさ)について色相Hを判別し、色相Hが180<H<255となるA領域の画素数と、色相Hが105<H≦180となるB領域の画素数とを特定する(ステップS301)。180<H<255とは青に対応する色相の値を示し、105<H≦180とは緑に対応する色相の値を示す。
 次に、推定部234は、A領域及びB領域のそれぞれの画素数がマーカ候補の全領域の画素数の1/3以上あるか否かを判定する(ステップS302)。A領域及びB領域の画素数がそれぞれマーカ候補の領域の1/3以上ある場合(ステップS302;YES)、推定部234は、A領域及びB領域のそれぞれにおける彩度Sの平均値(S平均値)と明度Vの平均値(V平均値)を算出し、A領域においてS平均値>10、V平均値>10であり、B領域においてS平均値>10、V平均値>10であるか否かを判定する(ステップS303)。
 A領域及びB領域において彩度Sの平均値S>10、明度Vの平均値>10である場合(ステップS303;YES)、次に、推定部234は、A領域に含まれる全画素の色相Hの平均値(H平均値)、彩度Sの平均値(S平均値)及び明度Vの平均値(V平均値)からなるHSV平均値(A領域のHSV平均値)を算出する。更に、推定部234は、ピクセルフォーマットの変換を行うことにより、A領域のHSV平均値をA領域のRGB平均値に変換する(ステップS305)。
 更に、推定部234は、マーカ候補の領域の全画素についてA領域のRGB平均値を設定し、HSV平均値とRGB平均値とをメモリ205に記憶し、マーカ候補の領域を青であると推定する(ステップS306)。
 一方、A領域及びB領域においてS平均値>10、V平均値>10でない場合(ステップS303;NO)、推定部234は、マーカ候補の領域がマーカではないと推定する(ステップS307)。また、A領域及びB領域の何れかのマーカ候補の領域の画素数が全画素数の1/3以上でなく1/3未満である場合(ステップS302;NO)、図10の動作に移行する。
 ステップS308の後、図10の動作に移行し、推定部234は、図8のステップS201において取得した、マーカ候補の領域についてのHSV平均値に含まれるH平均値について、180<H平均値<255であるか否かを判定する(ステップS401)。
 180<H平均値<255である場合(ステップS401;YES)、推定部234は、マーカ候補の領域のS平均値、V平均値について、S平均値>10、V平均値>10であるか否かを判定する(ステップS402)。
 S平均値>10、V平均値>10である場合(ステップS402;YES)、次に、推定部234は、マーカ候補の領域について、ピクセルフォーマットの変換を行うことにより、HSV平均値をRGB平均値に変換する。更に、推定部234は、マーカ候補の領域の全画素に、RGB平均値を設定し、HSV平均値とRGB平均値とをメモリ205に記憶し、マーカ候補の領域を青であると推定する(ステップS404)。
 一方、S平均値>10、V平均値>10でない場合(ステップS402;NO)、推定部234は、マーカ候補の領域がマーカではないと推定する(ステップS405)。また、180<H平均値<255でない場合(ステップS401;NO)、図11の動作に移行する。
 推定部234は、図8のステップS201において取得した、マーカ候補の領域についてのHSV平均値に含まれるH平均値について、105<H平均値≦180であるか否かを判定する(ステップS501)。
 105<H平均値≦180である場合(ステップS501;YES)、推定部234は、マーカ候補の領域のS平均値、V平均値について、S平均値>10、V平均値>10であるか否かを判定する(ステップS502)。
 S平均値>10、V平均値>10である場合(ステップS502;YES)、次に、推定部234は、マーカ候補の領域について、ピクセルフォーマットの変換を行うことにより、HSV平均値をRGB平均値に変換する。更に、推定部234は、マーカ候補の領域の全画素に、RGB平均値を設定し、HSV平均値とRGB平均値とをメモリ205に記憶し、マーカ候補の領域を緑であると推定する(ステップS504)。
 一方、105<H平均値≦180でない場合(ステップS501;NO)、又は、S平均値>10、V平均値>10でない場合(ステップS502;NO)、推定部234は、マーカ候補の領域がマーカではないと推定する(ステップS505)。
 このように本実施形態では、移動機器100は、自身のID等に応じて、マーカであるLED102を発光させる。一方、サーバ200は、受光面におけるマーカの領域の位置を検出し、そのマーカの領域の色を推定し、更に推定したマーカの領域の色の変化に基づいて、復号部236にて、移動機器100のID等の情報に復号する。
 但し、受光面におけるマーカの領域がカラーフィルタにおける所定の範囲(例えば赤フィルタ302、緑フィルタ304、青フィルタ306の各フィルタ)よりも小さい場合には、そのままではマーカの領域の色を正しく推定することができない場合がある。この場合、本実施形態では、サーバ200は、通常の色推定の処理とは異なり、カラーフィルタのベイヤー配列を考慮して、マーカ候補の領域の画素の色相H、彩度S、明度Vの平均値であるHSV平均値を用いて、マーカ候補の領域の色を推定する。更に、サーバ200は、HSV平均値を適宜修正するとともに、ピクセルフォーマットの変換を行うことにより、HSV平均値をRGB平均値に変換し、そのRGB平均値をマーカの領域の全画素に設定する。これにより、マーカの領域のサイズに左右されずに正しい色を推定することができる。
 なお、本発明は、上記実施形態の説明及び図面によって限定されるものではなく、上記実施形態及び図面に適宜変更等を加えることは可能である。
 例えば、上述した実施形態では、図9に示すように、マーカ候補の領域に180<H<255となるA領域と105<H≦180となるB領域のそれぞれが1/3以上存在する場合、マーカ候補の領域は青であると推定された。しかし、これに限定されず、受光素子状のカラーフィルタの特性やホワイトバランス等の処理によっては、緑と判定したり、青及び緑以外と判定するようにしてもよい。
 例えば、上述した実施形態では、移動機器100による送信対象の情報は、当該移動機器100のIDであったが、これに限定されず、移動機器100の位置情報や移動機器100に生じた障害等の情報であってもよい。
 また、上述した実施形態では、可視光である赤、緑、青の光を通信に用いる場合について説明したが、他の色の可視光を用いてもよい。また、発光は色相や輝度が時間的に変化するものに限定されず、彩度が時間的に変化するものであってもよい。
 また、移動機器100内の光源はLEDに限定されない。例えば、表示装置を構成するLCD、PDP、ELディスプレイ等の一部に光源が構成されていてもよい。
 また、サーバ200は、撮影部が設けられて撮影が可能であれば、どのような装置でもよい。
 また、上記実施形態において、実行されるプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read - Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto - Optical disc)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをインストールすることにより、上述の処理を実行するシステムを構成することとしてもよい。
 また、プログラムをインターネット等のネットワーク上の所定のサーバが有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、ダウンロード等するようにしてもよい。
 なお、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、ダウンロード等してもよい。
 以上、本発明の好ましい実施形態について説明したが、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
 本出願は、2019年7月29日に出願された日本国特許出願特願2019-138469号、2020年2月28日に出願された日本国特許出願特願2020-032572号に基づく。本明細書中に日本国特許出願特願2019-138469号、特願2020-032572号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 本発明は、光の色を用いた通信等の技術分野において、利用可能である。
1…可視光通信システム、100、100a、100b、100c…移動機器、102、102a、102b、102c…LED、103、202…制御部、104、205…メモリ、108、208…通信部、112…駆動部、124…発光制御部、150…電池、200…サーバ、201…撮影部、203…レンズ、204…画像処理部、206…操作部、207…表示部、232…位置特定部、234…推定部、236…復号部、302…赤フィルタ、304…緑フィルタ、306…青フィルタ、310…マーカ候補の領域

Claims (8)

  1.  受光した位置から受光した光が属する色が特定される複数の受光素子が配列された受光手段と、
     前記受光した受光素子の位置が、前記受光した光の属する色の特定が可能な位置以外である場合、前記受光した光の明るさに基づいて前記光が属する色を推定する推定手段と、
     を備えることを特徴とする色推定装置。
  2.  前記推定手段による推定後の前記受光した受光素子の位置にある光の明るさを更に明るくするよう補正することで、前記受光素子の位置にある光が属する色の特定が容易になるように制御する制御手段を更に備えることを特徴とする請求項1に記載の色推定装置。
  3.  前記光の属する色の特定が可能な位置以外である場合とは、前記受光した受光素子が複数で且つ隣り合う位置である場合を含むことを特徴とする請求項1又は2に記載の色推定装置。
  4.  前記受光した受光素子が複数で且つ隣り合う位置である場合、前記推定手段は前記光の属する色には複数の色が含まれるものと判断し、更に、色相環をパラメータに含む色空間の情報に基づいて前記光が属する色を推定することを特徴とする請求項3に記載の色推定装置。
  5.  前記配列された複数の受光素子の各位置に対応するように、三原色の各色に対応する波長帯域の光を透過する透過部材が規則的に配列されたカラーフィルタを更に備え、
     前記透過部材が透過する光の波長帯域の種類に基づいて、前記光が属する色が特定されることを特徴とする請求項1乃至4の何れか1項に記載の色推定装置。
  6.  前記推定手段によって推定された色から、情報を色に変調して通信を行う通信システムで用いられる情報へ復号する復号手段を更に備えることを特徴とする請求項1乃至5の何れか1項に記載の色推定装置。
  7.  受光した位置から受光した光が属する色が特定される複数の配列された受光素子により受光する受光ステップと、
     前記受光ステップにおいて受光した受光素子の位置が、前記受光した光の属する色の特定が可能な位置以外である場合、前記受光した光の明るさに基づいて前記光が属する色を推定する推定ステップと、
     を含むことを特徴とする色推定方法。
  8.  コンピュータを、
     受光した位置から受光した光が属する色が特定される複数の受光素子が配列された受光手段、
     前記受光した受光素子の位置が、前記受光した光の属する色の特定が可能な位置以外である場合、前記受光した光の明るさに基づいて前記光が属する色を推定する推定手段、
     として機能させることを特徴とするプログラム。
PCT/JP2020/028749 2019-07-29 2020-07-27 色推定装置、色推定方法及びプログラム Ceased WO2021020355A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/630,800 US12154298B2 (en) 2019-07-29 2020-07-27 Color estimation device, color estimation method, and program
CN202080053411.0A CN114175613B (zh) 2019-07-29 2020-07-27 色估计装置、色估计方法以及存储介质

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-138469 2019-07-29
JP2019138469 2019-07-29
JP2020-032572 2020-02-28
JP2020032572A JP7472541B2 (ja) 2019-07-29 2020-02-28 色推定装置、色推定方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2021020355A1 true WO2021020355A1 (ja) 2021-02-04

Family

ID=74230676

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/028749 Ceased WO2021020355A1 (ja) 2019-07-29 2020-07-27 色推定装置、色推定方法及びプログラム

Country Status (3)

Country Link
US (1) US12154298B2 (ja)
CN (1) CN114175613B (ja)
WO (1) WO2021020355A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023286657A1 (ja) * 2021-07-16 2023-01-19

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11728897B2 (en) * 2021-05-06 2023-08-15 Kookmin University Industry Academy Cooperation Foundation Apparatus and method for optical wireless communication based on color M-ary frequency shift keying
CN115660974A (zh) * 2022-10-17 2023-01-31 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222073A (ja) * 1999-02-02 2000-08-11 Hewlett Packard Co <Hp> 適応pciスロット
WO2006134923A1 (ja) * 2005-06-14 2006-12-21 Nikon Corporation 画像処理装置、コンピュータプログラム製品および画像処理方法
JP2010139998A (ja) * 2008-12-12 2010-06-24 Vida:Kk スキルアップ遠隔トレーニングシステム
JP2014236421A (ja) * 2013-06-04 2014-12-15 パナソニック株式会社 カメラ装置及び撮像方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4035910B2 (ja) 1999-01-29 2008-01-23 三菱電機株式会社 車色判別装置
JP5325526B2 (ja) * 2008-10-17 2013-10-23 三星電子株式会社 可視光通信システム、及び可視光通信方法
JP6183386B2 (ja) * 2015-01-28 2017-08-23 カシオ計算機株式会社 光通信装置、光推定装置、光通信方法、及び、プログラム
JP6210081B2 (ja) * 2015-03-23 2017-10-11 カシオ計算機株式会社 復号装置、復号方法、及び、プログラム
JP6579069B2 (ja) * 2016-09-20 2019-09-25 カシオ計算機株式会社 光通信装置、光通信方法、及び、プログラム
JP2018121169A (ja) * 2017-01-24 2018-08-02 カシオ計算機株式会社 発光装置、受光装置、情報処理システム、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222073A (ja) * 1999-02-02 2000-08-11 Hewlett Packard Co <Hp> 適応pciスロット
WO2006134923A1 (ja) * 2005-06-14 2006-12-21 Nikon Corporation 画像処理装置、コンピュータプログラム製品および画像処理方法
JP2010139998A (ja) * 2008-12-12 2010-06-24 Vida:Kk スキルアップ遠隔トレーニングシステム
JP2014236421A (ja) * 2013-06-04 2014-12-15 パナソニック株式会社 カメラ装置及び撮像方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023286657A1 (ja) * 2021-07-16 2023-01-19
WO2023286657A1 (ja) * 2021-07-16 2023-01-19 コニカミノルタ株式会社 波長測定装置及び波長測定方法

Also Published As

Publication number Publication date
US12154298B2 (en) 2024-11-26
CN114175613A (zh) 2022-03-11
CN114175613B (zh) 2025-03-18
US20220277487A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
CN101489051B (zh) 图像处理设备和图像处理方法以及摄像设备
CN104885382B (zh) 可视光通信信号显示方法以及显示装置
CN114964168B (zh) 位置信息取得装置、位置信息取得方法以及记录介质
WO2021020355A1 (ja) 色推定装置、色推定方法及びプログラム
JP7472541B2 (ja) 色推定装置、色推定方法及びプログラム
US10264228B2 (en) Decoding apparatus, decoding method, and non-transitory recording medium
US10694161B2 (en) Illumination apparatus and method of controlling illumination apparatus
JP5365740B2 (ja) 画像復号装置、画像復号方法及び画像復号用コンピュータプログラム
US10951313B2 (en) Transmitting device, transmission method, and recording medium
CN113450406B (zh) 信息处理装置、信息处理方法以及记录介质
CN108306682B (zh) 发光装置、信息传送系统、信息传送方法
US9729794B2 (en) Display device, display control method, and non-transitory recording medium
JP2018191117A (ja) 情報処理装置、情報処理方法及びプログラム
US8804025B2 (en) Signal processing device and imaging device
JP2020095005A (ja) 位置情報取得システム、位置情報取得装置、位置情報取得方法及びプログラム
JP7052775B2 (ja) 位置取得装置、位置取得方法及びプログラム
CN112788311B (zh) 信息获取方法、信息获取装置
CN116741089A (zh) 校正方法、装置、终端设备和计算机可读存储介质
CN100584036C (zh) 影像补偿装置与方法
KR101925370B1 (ko) 영상 투영 장치에 대한 색 보정 장치 및 방법
JP2014023057A (ja) 画像処理装置、撮像装置、および画像処理プログラム
CN111903121B (zh) 信息处理装置、信息处理方法以及程序
US20230016712A1 (en) Imaging device, information processing method, and program
JP2010103820A (ja) 画像処理装置および画像処理方法並びにプログラム
US10367581B2 (en) Notification device, notification method, and non-transitory recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20847434

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20847434

Country of ref document: EP

Kind code of ref document: A1

WWG Wipo information: grant in national office

Ref document number: 202080053411.0

Country of ref document: CN