[go: up one dir, main page]

JP2017525172A - Coded light detection - Google Patents

Coded light detection Download PDF

Info

Publication number
JP2017525172A
JP2017525172A JP2016567230A JP2016567230A JP2017525172A JP 2017525172 A JP2017525172 A JP 2017525172A JP 2016567230 A JP2016567230 A JP 2016567230A JP 2016567230 A JP2016567230 A JP 2016567230A JP 2017525172 A JP2017525172 A JP 2017525172A
Authority
JP
Japan
Prior art keywords
light
light source
image
orientation
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016567230A
Other languages
Japanese (ja)
Other versions
JP2017525172A5 (en
Inventor
ブルアイン フレデリック ジャン デ
ブルアイン フレデリック ジャン デ
ゲラルドゥス コルネリス ペトルス ロクホフ
ゲラルドゥス コルネリス ペトルス ロクホフ
ステファヌス ヨセフ ヨハネス ナイセン
ステファヌス ヨセフ ヨハネス ナイセン
コンスタント ポール マリエ ジョゼフ バッゲン
コンスタント ポール マリエ ジョゼフ バッゲン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Publication of JP2017525172A publication Critical patent/JP2017525172A/en
Publication of JP2017525172A5 publication Critical patent/JP2017525172A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/196Controlling the light source by remote control characterised by user interface arrangements
    • H05B47/1965Controlling the light source by remote control characterised by user interface arrangements using handheld communication devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Optical Communication System (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • User Interface Of Digital Computer (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

デバイスのカメラは、光源からの光を含むシーンの画像を取得し、光源からの光は、符号化光成分で変調される。カメラは、複数のラインに分割された撮像素子を含み、これによって、画像を取得するために、ラインが異なる時点で順に露光される。処理モジュールは、撮像素子のラインに対する、撮像素子の平面上に投影された光源の配向を検出し、これに基づいて、光源からの光のフットプリントが、画像において増大された数のラインをカバーするデバイスの目標再配向を決定するように構成される。ユーザインタフェースは、ユーザに目標再配向の表示を出力し、目標再配向を実行するようにユーザを誘導するように構成される。The device camera acquires an image of the scene that includes light from the light source, and the light from the light source is modulated with the encoded light component. The camera includes an image sensor that is divided into a plurality of lines, whereby the lines are sequentially exposed at different times to obtain an image. The processing module detects the orientation of the light source projected onto the image sensor plane relative to the image sensor line, and based on this, the footprint of the light from the light source covers an increased number of lines in the image. Configured to determine a target reorientation of the device to perform. The user interface is configured to output an indication of the target reorientation to the user and guide the user to perform the target reorientation.

Description

本開示は、ローリングシャッターカメラのような、光をライン毎に取得する撮像素子を有するカメラを用いた符号化光の検出に関する。   The present disclosure relates to detection of encoded light using a camera such as a rolling shutter camera that has an image sensor that acquires light for each line.

符号化光は、ありふれた照明器具等の光源によって放射される可視光に信号が埋め込まれる技術を指す。従って、この光は、部屋等のターゲット環境の照明に対する可視照明寄与(一般的にこの光の主目的)及び環境内に情報を提供する埋め込み信号の両方を含む。これを行うには、光は、ある特定の1つ又は複数の変調周波数、好ましくは、人間の知覚を超え、且つ従って主な照明機能に影響を与えない高周波数で変調される。   Coded light refers to a technique in which a signal is embedded in visible light emitted by a light source such as a common luminaire. Thus, this light includes both the visible illumination contribution (typically the main purpose of this light) to the illumination of the target environment, such as a room, and the embedded signal that provides information in the environment. To do this, the light is modulated at one or more specific modulation frequencies, preferably at high frequencies that exceed human perception and thus do not affect the main lighting function.

最も単純なケースの幾つかでは、信号は、ある照明器具からの光に変調された単一波形又は単一トーンを含み得る。複数の照明器具の各々によって放射された光は、これらの照明器具の中で一意的なそれぞれ異なる変調周波数で変調され得、その場合に変調周波数は、照明器具又はその光の識別子として機能することができる。例えば、これは、コミッショニング段階において各照明器具からの寄与を識別するために使用され得、又は動作中に、それをリモートから(例えば、RFバックチャンネルを用いて)制御することを目的に照明器具を識別するために使用され得る。別の例では、識別は、識別子を照明器具の既知の位置又はその位置に関連する情報にマッピングすることによって、ナビゲーション又は他のロケーションベース機能に使用することができる。   In some of the simplest cases, the signal may include a single waveform or a single tone modulated into light from a luminaire. The light emitted by each of the plurality of luminaires may be modulated at different modulation frequencies that are unique among these luminaires, where the modulation frequency serves as an identifier for the luminaire or its light. Can do. For example, it can be used to identify the contribution from each luminaire during the commissioning phase, or luminaire for the purpose of controlling it remotely (eg, using an RF back channel) during operation. Can be used to identify In another example, identification can be used for navigation or other location-based functions by mapping the identifier to a known location of the luminaire or information associated with that location.

他のケースでは、より複雑なデータを含む信号が光に埋め込まれ得る。例えば、振幅キーイングを用いて、例えばビットを表すために高及び低レベルを用いることによって、又は異なる記号を表すためにより複雑な変調スキームを用いることによって、データを符号化するために光の振幅が変えられ得る。又は、周波数キーイングを用いることによって、ある照明器具は、2つの(又はそれを超える)異なる変調周波数で放射し、異なる変調周波数間で切り換えることによってデータビット(又はより一般的には記号)を送信するように動作可能である。   In other cases, signals containing more complex data can be embedded in the light. For example, using amplitude keying, the amplitude of the light to encode the data, for example by using high and low levels to represent bits, or by using a more complex modulation scheme to represent different symbols. Can be changed. Or by using frequency keying, a luminaire radiates at two (or more) different modulation frequencies and transmits data bits (or more generally symbols) by switching between different modulation frequencies. It is possible to operate.

国際公開第2012/127439号は、多くの場合、携帯電話又はタブレットのようなモバイルデバイスに組み込まれるような、ありふれた「ローリングシャッター」タイプのカメラを用いて符号化光を検出することができる技術を開示する。ローリングシャッターカメラでは、カメラの撮像素子が、ライン毎に順に露光される複数のライン(一般的に、水平ライン、即ち、列)に分割される。即ち、あるフレームを取得するには、まず1つのラインが、ターゲット環境内の光に露光され、次に、順序がその次のラインが、僅か後に露光される等である。一般的に、この順序は、フレームにわたる順番で、例えば、一番上から一番下の列へと「ロール」し、従って、「ローリングシャッター」という名称である。符号化光を取得するために使用される場合、これは、フレーム内の異なるラインが異なる時点で、従って、変調周波数に対してライン速度が十分に高い場合には変調波形の異なる位相で光を取得することを意味する。従って、光の変調が検出され得る。   WO 2012/127439 is a technique that can detect encoded light using a common "rolling shutter" type camera, often incorporated into mobile devices such as mobile phones or tablets. Is disclosed. In a rolling shutter camera, the image sensor of the camera is divided into a plurality of lines (generally horizontal lines, ie, columns) that are exposed in order for each line. That is, to acquire a frame, first one line is exposed to light in the target environment, then the next line in the sequence is exposed slightly later, and so on. In general, this order “rolls” in the order over the frames, for example, from the top to the bottom row, and hence the name “rolling shutter”. When used to acquire encoded light, this means that light is emitted at different times in different frames of the frame, and therefore at different phases of the modulation waveform if the line speed is sufficiently high relative to the modulation frequency. Means to get. Thus, light modulation can be detected.

ローリングシャッター取得等の場合、効果的な検出帯域幅は、センサ上での符号化光の外観、即ち「フットプリント」に依存する。効果的な検出帯域幅は、光フットプリントが可能な限り多くの画像センサラインをカバーする場合に最大限にされる。この場合、検出時間は最小限にされる。特に、光フットプリントは理想的には最大限にされるが、検出速度の向上は、光フットプリントをカバーするセンサラインの数が増やされた際に既に生じている場合がある。これは、天井ストリップライト等の比較的細い及び細長い照明器具にカメラを向けて符号化光が検出される場合に、カメラの配向が検出の速度に大きく影響を与えることを意味する。例えば、この状況は、一般的に、モバイルデバイスのフロントカメラが使用されている場合に生じる。新しい状況毎に符号化光の検出にとってより最適な配向が達成されるように、ユーザがカメラデバイス(例えば携帯電話)を回転させることを引き起こすことが望ましい。望まれるユーザ行ためは、明示的な命令によって、又は(好ましくは)望まれるユーザ行ためが達成されるようなユーザインタフェースの暗示的向き(例えば、文章の配向)によって引き起こされ得る。   In the case of rolling shutter acquisition, etc., the effective detection bandwidth depends on the appearance of the encoded light on the sensor, ie the “footprint”. The effective detection bandwidth is maximized when the optical footprint covers as many image sensor lines as possible. In this case, the detection time is minimized. In particular, although the optical footprint is ideally maximized, the improvement in detection speed may already occur when the number of sensor lines covering the optical footprint is increased. This means that the orientation of the camera greatly affects the speed of detection when the encoded light is detected by pointing the camera at a relatively thin and elongated luminaire such as a ceiling strip light. For example, this situation typically occurs when the front camera of a mobile device is being used. It is desirable to cause the user to rotate the camera device (eg, mobile phone) so that a more optimal orientation for detection of the encoded light is achieved for each new situation. The desired user line may be caused by an explicit command, or (preferably) by an implicit orientation of the user interface (eg, text orientation) such that the desired user line is achieved.

本明細書に開示される一態様によれば、例えばスマートフォン又はタブレット等のポータブルデバイスである、ユーザインタフェース、カメラ、及び処理モジュールを含むデバイスが提供される。カメラは、光源からの光を含むシーンの画像を取得するように動作可能であり、光源からの光は、符号化光成分で変調される。カメラは、複数のラインに分割された撮像素子を含み、これによって、画像を取得するために、例えばローリングシャッターカメラの場合のように、ラインが異なる時点で順に露光される。処理モジュールは、撮像素子のラインに対する、撮像素子の平面上に投影された(即ち、取得画像において光源が現れる又は現れるであろう)光源の配向を検出し、並びにそれに基づいて、光源からの光のフットプリントが、画像において増大された数のライン(及び従って符号化光の検出のための増大された数のライン)をカバーすることが望まれるデバイスの目標再配向を決定するように構成される。ユーザインタフェースは、次に、ユーザに目標再配向の表示を出力し、目標再配向を実行するようにユーザを誘導するように構成される。   According to one aspect disclosed herein, a device is provided that includes a user interface, a camera, and a processing module, such as a portable device such as a smartphone or tablet. The camera is operable to acquire an image of a scene that includes light from the light source, and the light from the light source is modulated with the encoded light component. The camera includes an image sensor that is divided into a plurality of lines, whereby the lines are exposed in sequence at different times, for example in the case of a rolling shutter camera, in order to acquire an image. The processing module detects the orientation of the light source projected on the plane of the image sensor relative to the line of the image sensor (ie, the light source appears or will appear in the acquired image), and based on it, the light from the light source Is configured to determine a target reorientation of the device that is desired to cover an increased number of lines in the image (and thus an increased number of lines for detection of encoded light). The The user interface is then configured to output an indication of the target reorientation to the user and guide the user to perform the target reorientation.

従って、例えば、光源が長く、薄い長方形ストリップライトであり、ラインが水平列である場合、ユーザは、取得画像において光源がより垂直に見え、その結果、符号化光検出のためにより多くのラインをカバーするように、自らのデバイスを回転させるように誘導される。   Thus, for example, if the light source is a long, thin rectangular strip light and the lines are in a horizontal row, the user will see the light source appear more vertical in the acquired image, resulting in more lines for encoded light detection. You are guided to rotate your device to cover.

好ましくは、目標再配向は、(光源からのデバイスの現在の距離を前提としてフットプリントによってカバー可能な)最大数のラインをフットプリントがカバーするために必要とされるものである。それにも関わらず、たとえ最大でなくとも、現在の配向と比べて増大された数のラインに向けた再配向を誘導することは依然として有益であり得る。   Preferably, the target reorientation is that required for the footprint to cover the maximum number of lines (which can be covered by the footprint given the current distance of the device from the light source). Nevertheless, it may still be beneficial to induce a reorientation towards an increased number of lines compared to the current orientation, if not the maximum.

複数の実施形態では、ユーザインタフェースは、ディスプレイを含むが、取得画像は、前記ディスプレイ上で見えることが必須ではない。   In embodiments, the user interface includes a display, but it is not essential that the acquired image be visible on the display.

複数の実施形態では、ユーザインタフェースは、ディスプレイを含み、目標再配向の表示は、ディスプレイを介してユーザに出力される。   In embodiments, the user interface includes a display and the indication of target reorientation is output to the user via the display.

例えば、表示は、ディスプレイのコンテンツであって、コンテンツを適正に(真っ直ぐに)見ることは、ユーザが自らのデバイスを目標再配向に回転させることを必要とするようにディスプレイ上で回転されるコンテンツを含み得る。例えば、表示は、ディスプレイ上に示された文章であって、文章を真っ直ぐに読むことは、ユーザがデバイスを前記目標再配向に回転させることを必要とするようにディスプレイ上で配向される文章、及び/又はスクリーン上のグラフィックであって、グラフィックを真っ直ぐに見ることは、ユーザがデバイスを前記目標再配向に回転させることを必要とするようにスクリーン上で配向されるグラフィックを含み得る。   For example, the display is the content of the display, and the content that is rotated on the display such that properly viewing the content requires the user to rotate his device to the target reorientation Can be included. For example, the display is a sentence shown on the display, wherein reading the sentence straightly requires the user to rotate the device to the target reorientation, the sentence being oriented on the display; And / or a graphic on the screen, wherein viewing the graphic straight may include a graphic oriented on the screen such that a user needs to rotate the device to the target reorientation.

別の例として、表示は、前記目標再配向を達成するために何れの方向にデバイスを回転させるべきかを示す矢印をディスプレイ上に含み得る。   As another example, the display may include an arrow on the display that indicates in which direction the device should be rotated to achieve the target reorientation.

更なる例では、表示は、目標再配向に対するデバイスの現在の配向に基づいて、ディスプレイ上で色及び/又は強度を変化させることを含み得る。例えば、表示は、ディスプレイの境界ピクセルの色を変化させることを含み得る。例えば、色は、デバイスが前記目標再配向に近づく方向に回転されていることを示すために緑であり得、及びデバイスが目標再配向から離れる方向に回転されていることを示すために赤であり得る。   In a further example, the display may include changing the color and / or intensity on the display based on the current orientation of the device relative to the target reorientation. For example, the display may include changing the color of the border pixels of the display. For example, the color may be green to indicate that the device is rotated in a direction approaching the target reorientation, and red to indicate that the device is rotated in a direction away from the target reorientation. possible.

更に別の例では、前記表示は、目標再配向に対するデバイスの現在の配向を測定するメトリックを表示することを含み得る。例えば、メトリックは、光源からのデバイスの現在の距離において、フットプリントによってカバー可能な最大数のラインに対する、前記フットプリントによってカバーされる撮像素子の現在のライン数を表し得る。   In yet another example, the display may include displaying a metric that measures the current orientation of the device relative to the target reorientation. For example, the metric may represent the current number of lines of the image sensor covered by the footprint relative to the maximum number of lines that can be covered by the footprint at the current distance of the device from the light source.

処理モジュールは、好ましくは、例えば、符号化光源を検出するためのフットプリント認識技術及び1つ又は複数の他の画像認識技術に基づいて、撮像素子のラインに対する、取得画像において現れる光源の配向を検出することによって前記検出を行うように構成された画像処理モジュールを含む。   The processing module preferably determines the orientation of the light source appearing in the acquired image relative to the line of the image sensor, for example based on a footprint recognition technique for detecting the encoded light source and one or more other image recognition techniques. An image processing module configured to perform the detection by detection.

しかしながら、代替的に又は追加的に、処理モジュールは、配向センサを用いて測定されるデバイスの絶対的配向、ポジショニングシステムを用いて測定されるデバイスの位置、及びその位置と光源の絶対的配向の所定の知識との間のマッピングに基づいて前記検出を行うように構成され得、処理モジュールは、従って、光源の絶対的配向と比較したデバイスの絶対的配向から相対的配向を決定する。   However, alternatively or additionally, the processing module may determine the absolute orientation of the device measured using the orientation sensor, the position of the device measured using the positioning system, and the absolute orientation of the location and the light source. The detection module may be configured to perform the detection based on a mapping between predetermined knowledge and the processing module thus determines the relative orientation from the absolute orientation of the device compared to the absolute orientation of the light source.

本明細書に開示される別の態様によれば、デバイスのカメラを用いて、光源からの光を含むシーンの画像を取得するステップであって、光源からの光は符号化光成分で変調され、カメラは複数のラインに分割された撮像素子を含み、これによって、画像を取得するために、ラインが異なる時点で順に露光される、ステップと、撮像素子のラインに対する、撮像素子上に投影された光源の配向を検出するステップと、前記検出に基づいて、光源からの光のフットプリントが、画像において増大された数の前記ラインをカバーするデバイスの目標再配向を決定するステップと、デバイスのユーザインタフェースを介してユーザに前記目標再配向の表示を出力するステップとを含む、方法が提供される。   According to another aspect disclosed herein, using a device camera, obtaining an image of a scene including light from a light source, where the light from the light source is modulated with an encoded light component. The camera includes an image sensor that is divided into a plurality of lines, whereby the lines are exposed in sequence at different times to obtain an image, and are projected onto the image sensor for a line of the image sensor Detecting the orientation of the light source, and determining, based on the detection, a target reorientation of a device in which the footprint of the light from the light source covers an increased number of the lines in the image; Outputting a display of the target reorientation to a user via a user interface.

本明細書に開示される別の態様によれば、コンピュータ可読媒体上で具現化されるコードを含み、且つ実行されると、デバイスの対応する動作を行うように構成されたコンピュータプログラム製品が提供される。例えば、プログラムは、デバイスにダウンロード可能なようにサーバ上に保存され得、又はデバイスのローカルストレージ若しくは他の場所に保存され得、デバイスの(マイクロ)プロセッサ又は装備されている場合はデバイスの複数のプロセッサの2つ以上で実行され得る。   According to another aspect disclosed herein, a computer program product is provided that includes code embodied on a computer-readable medium and configured to perform a corresponding operation of the device when executed. Is done. For example, the program may be stored on the server so that it can be downloaded to the device, or stored in the device's local storage or elsewhere, and the device's (micro) processor or multiple of the device if equipped It can be executed on more than one of the processors.

複数の実施形態において、この方法は、ステップを更に含み得、又はコンピュータプログラムは、本明細書に開示されるデバイス特徴の何れかに従った動作を行うように更に構成され得る。   In embodiments, the method may further include steps, or the computer program may be further configured to perform operations according to any of the device features disclosed herein.

本開示の理解を促進するために、及びどのように実施形態が実施され得るかを示すために、例として添付の図面が参照される。   To facilitate an understanding of the present disclosure and to illustrate how embodiments may be implemented, reference is made to the accompanying drawings by way of example.

照明システム及びカメラを含む空間を概略的に示す。1 schematically shows a space including a lighting system and a camera. 符号化光を受信するためのカメラを備えたデバイスの概略ブロック図である。1 is a schematic block diagram of a device with a camera for receiving encoded light. FIG. ローリングシャッターカメラの撮像素子を概略的に示す。1 schematically shows an image sensor of a rolling shutter camera. ローリングシャッターによる変調光の取得を概略的に示す。The acquisition of modulated light by a rolling shutter is schematically shown. 取得画像の概略図である。It is the schematic of an acquisition image. 取得画像の別の概略図である。It is another schematic diagram of an acquired image. 取得画像の別の概略図である。It is another schematic diagram of an acquired image. 取得画像を処理するための構成の概略ブロック図である。It is a schematic block diagram of the structure for processing an acquired image. ユーザインタフェースを介した回転コンテンツ出力の概略図である。It is the schematic of rotation content output via a user interface. ユーザインタフェースによるメトリック出力の概略図である。It is the schematic of the metric output by a user interface. 図10のメトリックの別の概略図である。FIG. 11 is another schematic diagram of the metric of FIG. 10.

図1は、本明細書に開示される実施形態を展開することができる例示的環境2を示す。例えば、環境は、職場、自宅、学校、病院、美術館若しくは他の室内空間の1つ若しくは複数の部屋及び/若しくは廊下、公園、通り、若しくはスタジアム等の屋外空間、又は展望台若しくは車両の室内等の別のタイプの空間を含み得る。環境2は、照明器具の形態の少なくとも1つの照明デバイス4を含む照明システムが設置されている。環境2には、好ましくはスマートフォン又はタブレット等のモバイルデバイスであるユーザ端末6も存在する。照明器具4は、LED、LEDアレイ、フィラメント電球又はガス放電ランプ等の照明素子を含む。1つ又は複数の照明器具の各々の照明素子によって放射された光は、人間の目には実質的に感知できない周波数の符号化光成分により変調される。   FIG. 1 illustrates an exemplary environment 2 in which embodiments disclosed herein can be deployed. For example, the environment can be one or more rooms at work, home, school, hospital, museum, or other indoor space and / or outdoor space such as corridors, parks, streets, or stadiums, or an observation deck or vehicle interior. May include other types of spaces. The environment 2 is installed with a lighting system including at least one lighting device 4 in the form of a luminaire. In the environment 2 there is also a user terminal 6 which is preferably a mobile device such as a smartphone or a tablet. The luminaire 4 includes an illumination element such as an LED, an LED array, a filament bulb, or a gas discharge lamp. The light emitted by each lighting element of the one or more luminaires is modulated by an encoded light component of a frequency that is substantially insensitive to the human eye.

これは、十分に高い変調周波数を選択することによって、及び例えばデータが変調される結果としての光出力の周波数スペクトルの変動を、人間の視覚系の臨界フリッカー周波数より下に制限する手段を含むことによって達成することができる。データ依存スペクトル成分に関して、DCフリー符号及び/又はDCフリー符号の使用が、光出力において低周波成分を制限するのに特に有益であり得ることに留意されたい。 This includes means by selecting a sufficiently high modulation frequency, and for example, limiting the variation in the frequency spectrum of the light output as a result of the data being modulated below the critical flicker frequency of the human visual system. Can be achieved. It should be noted that with respect to data dependent spectral components, the use of DC free codes and / or DC 2 free codes may be particularly beneficial for limiting low frequency components in the optical output.

図2は、モバイルデバイス6のブロック図を提供する。デバイス6は、ユーザインタフェース8(好ましくは、スクリーン又はタッチスクリーン等のディスプレイ)、二次元撮像素子20を有するカメラ10、並びに撮像素子20及びユーザインタフェース8に結合された画像解析モジュール12を含む。画像解析モジュール12は、撮像素子によって取得された画像を表す信号を処理し、これに基づいて、それから画像が取得された光中の符号化光成分を復号するように動作可能である。画像解析モジュール12は、1つ又は複数のコンピュータ可読記憶媒体に保存され、1つ又は複数の処理ユニットを含むプロセッサで実行されるように構成された符号の形態で実施され得る。代替的に、画像解析モジュール12の一部又は全てが、専用ハードウェア回路又はFPGA等の再構成可能回路で実施され得ることは除外されない。   FIG. 2 provides a block diagram of the mobile device 6. The device 6 includes a user interface 8 (preferably a display such as a screen or a touch screen), a camera 10 having a two-dimensional image sensor 20, and an image analysis module 12 coupled to the image sensor 20 and the user interface 8. The image analysis module 12 is operable to process a signal representing the image acquired by the imaging device and based on this, decode the encoded light component in the light from which the image was acquired. The image analysis module 12 may be implemented in the form of codes stored on one or more computer readable storage media and configured to be executed on a processor including one or more processing units. Alternatively, it is not excluded that some or all of the image analysis module 12 can be implemented with a dedicated hardware circuit or a reconfigurable circuit such as an FPGA.

図3は、カメラ10の撮像素子20を示す。撮像素子20は、各ピクセルに入射した光を表す信号を取得するためのピクセルのアレイ、例えば、一般的に正方形又は長方形ピクセルの正方形又は長方形アレイを含む。ローリングシャッターカメラでは、ピクセルは、複数のライン、例えば水平列22に配置される。フレームを取得するために、各ラインは、それぞれカメラの露光時間Texpの連続するインスタンスの間、順に露光される。この場合、露光時間は、個々のラインの露光の継続時間である。当然のことながら、デジタルカメラの場合、「露光する」又は「露光」という用語は、機械的なシャッター動作等(この用語は、これに歴史的に由来する)ではなく、正しくは、環境からの光を取得又はサンプリングするためにラインが能動的に使用されている時を指すことに留意されたい。また、本開示におけるシーケンスは、時間シーケンスを意味し、即ち、各ラインの露光は、僅かに異なる時点で始まる(及び任意選択的に、ラインの露光は、時間的に重複し得る)ことに留意されたい。例えば、最初に、一番上の列22が継続時間Texpの間の露光を開始し、次に、僅か後に、下の第2の列22がTexpの間の露光を開始し、次に、僅か後に、先と同様に下の第3の列22がTexpの間の露光を開始し、一番下の列が露光されるまで同様である。このプロセスは、その後、一連のフレームを露光するために繰り返される。 FIG. 3 shows the image sensor 20 of the camera 10. The imaging device 20 includes an array of pixels for obtaining a signal representative of light incident on each pixel, for example, a square or rectangular array of generally square or rectangular pixels. In the rolling shutter camera, the pixels are arranged in a plurality of lines, for example, the horizontal row 22. In order to obtain a frame, each line is exposed in sequence during successive instances of the camera exposure time T exp . In this case, the exposure time is the duration of individual line exposure. Of course, in the case of a digital camera, the term “exposure” or “exposure” is not a mechanical shutter action or the like (this term is historically derived from this), but is correctly from the environment. Note that it refers to when the line is actively used to acquire or sample light. Also note that the sequence in this disclosure means a time sequence, i.e., the exposure of each line begins at a slightly different point in time (and optionally the exposure of the lines may overlap in time). I want to be. For example, first, the top row 22 1 starts exposure for a duration T exp , and then slightly later, the lower second row 22 2 starts exposure for T exp , Next, after a slight, third row 22 3 below starts exposure between T exp Again, the same up to the bottom row is exposed. This process is then repeated to expose a series of frames.

例えば国際公開第2012/127439号では、このタイプの従来のビデオカメラを用いて、どのように符号化光を検出することができるかを記載している。信号検出は、連続する画像列にわたって時間的光変調を空間的強度変動に変換させるローリングシャッター撮像を利用する。   For example, WO 2012/127439 describes how encoded light can be detected using this type of conventional video camera. Signal detection utilizes rolling shutter imaging that converts temporal light modulation into spatial intensity fluctuations over successive image sequences.

これは、図4に概略的に示される。各連続するライン22が露光される際に、それは、僅かに異なる時点で、従って(ライン速度が変調周波数と比べて十分に高い場合)変調の僅かに異なる位相で露光される。従って、各ライン22は、それぞれの瞬間レベルの変調光に露光される。これは、ある特定のフレームにわたって変調と共に周期的に変化する又は繰り返すストリップパターンをもたらす。この原理に基づいて、画像解析モジュール12は、カメラ10によって受け取られた光に変調された符号化光成分を検出することができる。   This is shown schematically in FIG. As each successive line 22 is exposed, it is exposed at a slightly different point in time, and therefore with a slightly different phase of modulation (if the line speed is sufficiently high compared to the modulation frequency). Accordingly, each line 22 is exposed to the modulated light at the respective instantaneous level. This results in a strip pattern that periodically changes or repeats with modulation over a particular frame. Based on this principle, the image analysis module 12 can detect the encoded light component modulated into the light received by the camera 10.

単一の光検出器の使用の代わりとして、符号化光を検出するためにローリングシャッターカメラを使用することは、様々な利点をもたらす。そのような利点の1つは、画像平面における異なる光源の空間的分離であり、照明シーン上の複数の光源の同時識別及びそれらの光分布(それらの「フットプリント」)の分離を可能にする。   As an alternative to using a single photodetector, using a rolling shutter camera to detect the encoded light provides various advantages. One such advantage is the spatial separation of different light sources in the image plane, allowing simultaneous identification of multiple light sources on the illumination scene and separation of their light distribution (its “footprint”). .

例えば、欧州特許第2,503,852号は、符号化光成分によって伝えられた識別情報又はデータだけでなく、環境内に異なる照明器具からの複数の符号化光成分が存在する場合に個々の符号化光成分の空間フットプリントも検出するために、どのようにローリングシャッタータイプの技術を使用することができるかを説明している。即ち、個々の成分の大きさは、取得画像内の空間座標の関数として、例えば、他の1つ又は複数の成分からの寄与の中から分離されたデカルトx及びyピクセル座標の関数として決定することができる。   For example, European Patent No. 2,503,852 discloses not only the identification information or data conveyed by the encoded light component but also the individual encoded light components from different luminaires in the environment. It describes how a rolling shutter type technique can be used to detect the spatial footprint of the encoded light component. That is, the size of individual components is determined as a function of spatial coordinates in the acquired image, for example, as a function of Cartesian x and y pixel coordinates separated from among the contributions from one or more other components. be able to.

符号化光検出の場合、ローリングシャッター画像センサを備えたカメラの特定の使用も、図4に関連して説明されるように、連続したセンサラインの異なる時間インスタンスが、高速光変調を空間パターンに変換させる点において、グローバルシャッター読み出し(フレーム全体が一挙に露光される)を上回る利点を有する。しかしながら、図4に示されるものとは異なり、ある特定の光源4からの光(又は少なくとも使用可能光)は、必ずしも撮像素子20全体の領域をカバーせず、正しくは、特定のフットプリントのみをカバーする。その結果、取得された光フットプリントの垂直方向の広がりが短い程、符号化光信号が検出可能な継続時間が長くなる。実際には、これは、符号化光信号全体の時間的フラグメントのみを単一のフレーム内で取得し得ることを意味するため、符号化光に埋め込まれたデータを復元するために十分なシフト信号フラグメントを取得するには、複数のフレームが必要とされる。各フレーム内の信号フラグメントが小さい程、データ復元が可能となるまでにより多くの取得フレームが必要である。   In the case of coded light detection, the specific use of a camera with a rolling shutter image sensor is also described in connection with FIG. 4, where different time instances of successive sensor lines cause high-speed light modulation into a spatial pattern. In terms of conversion, it has an advantage over global shutter readout (the entire frame is exposed at once). However, unlike what is shown in FIG. 4, light from a particular light source 4 (or at least usable light) does not necessarily cover the entire area of the imaging device 20, and correctly only a particular footprint. Cover. As a result, the shorter the vertical spread of the acquired optical footprint, the longer the duration during which the encoded optical signal can be detected. In practice, this means that only temporal fragments of the entire encoded optical signal can be obtained in a single frame, so that the shift signal is sufficient to recover the data embedded in the encoded light. Multiple frames are required to obtain a fragment. The smaller the signal fragment in each frame, the more acquisition frames are required before data recovery is possible.

符号化光は、カメラ10を光源に向けることによって、又はカメラを照明された面に向けることによって検出することができる。モバイルデバイス6のフロントカメラを用いることによって、モバイルデバイスのディスプレイ上の自由な視野を維持しながら、符号化光を検出することができる。例えばこれは、モバイルデバイス6が、照明設置段階(例えばコミッショニング)の一部として使用されることを可能にする。代替的に又は追加的に、設置後、モバイルデバイス6は、エンドユーザに対して建物内のエンドユーザの位置に基づいて様々なサービスを提供するために、符号化光に埋め込まれたランプ固有識別子を直ちに復元することができる。例えば、このようなロケーションベースサービスは、室内ナビゲーション及び/又は符号化光内に埋め込まれたIDによって認識される照明器具を調節することによるローカル照明のカスタマイズ制御(適切なバックチャンネル、例えばRFを用いた制御)に使用することができる。   The encoded light can be detected by pointing the camera 10 at a light source or by pointing the camera at an illuminated surface. By using the front camera of the mobile device 6, the encoded light can be detected while maintaining a free field of view on the display of the mobile device. For example, this allows the mobile device 6 to be used as part of a lighting installation phase (eg commissioning). Alternatively or additionally, after installation, the mobile device 6 may provide the lamp unique identifier embedded in the encoded light to provide various services to the end user based on the location of the end user in the building. Can be restored immediately. For example, such location-based services can provide customized control of local lighting (using an appropriate back channel, eg, RF) by adjusting lighting fixtures recognized by room navigation and / or IDs embedded in encoded light. Could be used for control).

職場、店及び空港等の大きな公共空間においてよく見られる状況は、天井に取り付けられた細い照明器具の長い列の使用である。LED照明の場合であっても、照明器具の線形形状は、そのようなLED照明器具が代用となることが多い蛍光照明器具(TL管)に対応することが多い。   A common situation in large public spaces such as workplaces, shops and airports is the use of long rows of thin luminaires mounted on the ceiling. Even in the case of LED lighting, the linear shape of the luminaire often corresponds to a fluorescent luminaire (TL tube) where such LED luminaires are often substituted.

ローリングシャッターカメラを用いた符号化光検出の効果的な検出帯域幅は、センサラインにわたって符号化光信号が存在する当該センサラインの数によって決定される。これは、データの復元に必要とされる時間が、照明器具4の長軸に対するモバイルデバイス6の配向に強く依存することを意味する(カメラ10は、モバイルデバイス6の一部であり、従ってモバイルデバイス6と一緒に動くと仮定する)。細い照明器具4は、その長軸が画像センサ20のラインに対して平行に現れる場合、検出時間は非常に長くなり得る。極端なケースでは、検出は全く不可能であり得る。   The effective detection bandwidth of the encoded light detection using the rolling shutter camera is determined by the number of sensor lines in which the encoded optical signal exists over the sensor lines. This means that the time required for data recovery is strongly dependent on the orientation of the mobile device 6 with respect to the long axis of the luminaire 4 (the camera 10 is part of the mobile device 6 and thus mobile Suppose it moves with device 6). If the long axis of the thin luminaire 4 appears parallel to the line of the image sensor 20, the detection time can be very long. In extreme cases, detection may not be possible at all.

図5〜図7は、モバイルデバイス6の前面カメラ10によって観察された、即ち、撮像素子20の平面に投影された細長い天井照明器具の外観の3つの典型的なケースを示す。矢印は、カメラフレーム内の発光領域の垂直方向範囲を示す。図5は、符号化光の検出にとって最も有益ではない状況を示す。図6に見られるような、又は最適には図7に見られるようなデバイスの回転は、垂直方向範囲にわたって符号化光信号又は信号フラグメントが取得される当該垂直方向範囲を向上させる。   5-7 show three typical cases of the appearance of an elongated ceiling luminaire as viewed by the front camera 10 of the mobile device 6, ie projected onto the plane of the image sensor 20. The arrow indicates the vertical range of the light emitting area in the camera frame. FIG. 5 illustrates a situation that is least beneficial for detection of encoded light. The rotation of the device as seen in FIG. 6 or optimally as seen in FIG. 7 improves the vertical range over which the encoded optical signal or signal fragment is acquired over the vertical range.

光源4の画像が、平行(例えば水平)に、又は撮像素子20のライン22(例えば列)に対して浅い角度で現れる場合、符号化光検出を可能にする又は向上させることが望ましい。以下によれば、これは、光源4の画像とライン22との間の相対的配向を検出し、光源4の画像が撮像素子20のライン22に対してより急な角度で、好ましくはライン22(例えば列)に対して直角(例えば垂直に)に現れるように、デバイス6(カメラ10は、デバイス6の一部であり、従ってデバイス6と一緒に動くと仮定する)の望ましい再配向を計算することによって達成される。目標再配向の表示は、ユーザに1つ又は複数の照明器具に対してより有益な配向へとユーザのモバイルデバイスを回転させるように設計されたユーザインタフェース8(好ましくはスクリーン)に出力される。   If the image of the light source 4 appears parallel (eg, horizontal) or at a shallow angle with respect to the line 22 (eg, column) of the image sensor 20, it is desirable to enable or improve encoded light detection. According to the following, this detects the relative orientation between the image of the light source 4 and the line 22, and the image of the light source 4 is at a steeper angle with respect to the line 22 of the image sensor 20, preferably the line 22 Calculate the desired reorientation of device 6 (assuming that camera 10 is part of device 6 and therefore moves with device 6) so that it appears at right angles (eg perpendicular) to (eg column) Is achieved by doing The indication of target reorientation is output to a user interface 8 (preferably a screen) designed to rotate the user's mobile device to a more beneficial orientation for the user or lighting fixtures.

図8は、本開示の実施形態に従って構成されたモバイルデバイス6の概略図を提供する。機能ブロックは、長方形ブロックで示され、情報ストリームの関連要素は、丸みを帯びたブロックで示される。   FIG. 8 provides a schematic diagram of a mobile device 6 configured in accordance with an embodiment of the present disclosure. Functional blocks are shown as rectangular blocks, and related elements of the information stream are shown as rounded blocks.

デバイス6は、好ましくは、タブレット又はスマートフォン等のモバイルデバイスである。図2に関連して説明されたように、それは、埋め込み式カメラ10(好ましくは、前面カメラ)、情報及び制御装置を有するディスプレイ(例えばタッチスクリーン)であり得るユーザインタフェース8と、処理モジュール12(例えば、これは、デバイス6の埋め込み式メモリ及びマイクロプロセッサ上で実施され得る)とを含む。処理モジュール12は、カメラ10に対する光源の配向又は照明された面の配向を決定するためのサブシステム又はアルゴリズム、及びユーザに対して符号化光の検出を最適化する配向にユーザがデバイスを回転させるように暗示的に又は明示的に提案する態様で、ユーザインタフェース8の向きを変更する手段を含む。好ましくは、ユーザインタフェースは、カメラ画像がディスプレイ8上で見えることを必要としない。   The device 6 is preferably a mobile device such as a tablet or a smartphone. As described in connection with FIG. 2, it includes an embedded camera 10 (preferably a front camera), a user interface 8 that can be a display (eg, a touch screen) with information and control devices, and a processing module 12 ( For example, this may be implemented on the embedded memory and microprocessor of device 6). The processing module 12 allows the user to rotate the device to a subsystem or algorithm for determining the orientation of the light source or illuminated surface relative to the camera 10 and the orientation that optimizes the detection of the encoded light for the user. Means for changing the orientation of the user interface 8 in a manner implicitly or explicitly suggested. Preferably, the user interface does not require that the camera image be visible on the display 8.

図8に示されるように、デバイス6の処理モジュール12は、配向決定ブロック32及び比較ブロック38を含む。配向決定ブロック32は、カメラ10の撮像素子20から画像ストリーム30を受信するように構成され、ストリーム30は、取得画像の少なくとも1つにおける光源4の画像を含む、環境2の1つ又は複数の画像の取得画像データを含む。配向決定ブロック32は、例えば欧州特許第2,503,852号に開示された技術を用いて、取得画像における光源4のフットプリントを認識するように構成されたフットプリント認識ブロックを含む。これに基づいて、配向決定ブロック32は、取得画像において光源4が現れる、例えば図5、図6及び図7に示されるような光源4の現在の配向を決定する。配向決定ブロック32は、次に、この現在の配向を表す第1の信号34を比較ブロック38に出力する。   As shown in FIG. 8, the processing module 12 of the device 6 includes an orientation determination block 32 and a comparison block 38. The orientation determination block 32 is configured to receive an image stream 30 from the image sensor 20 of the camera 10, the stream 30 including one or more of the environment 2 including an image of the light source 4 in at least one of the acquired images. Contains acquired image data of the image. The orientation determination block 32 includes a footprint recognition block configured to recognize the footprint of the light source 4 in the acquired image, for example using the technique disclosed in European Patent No. 2,503,852. Based on this, the orientation determination block 32 determines the current orientation of the light source 4 as shown in FIGS. 5, 6 and 7, for example, where the light source 4 appears in the acquired image. The orientation determination block 32 then outputs a first signal 34 representing this current orientation to the comparison block 38.

代替的に又は追加的に、相対的配向は、別のやり方で決定され得る。例えば、配向決定ブロック32は、配向センサからモバイルデバイス6の配向を得て、これを、デバイス6と照明器具4との間の相対的配向を決定するために、ポジショニングシステムから導出された位置情報と組み合わせるように構成され得る。例えば、配向センサは、モバイルデバイス6に組み込まれたコンパス、1つ若しくは複数のジャイロセンサ、及び/又は1つ若しくは複数の加速度計を含み得るが、ポジショニングシステムは、衛星利用ポジショニングシステム(例えば、GPS、GLONASS若しくはGalileo)又はローカルRF通信ネットワーク(例えば、モバイルデバイス6とネットワークのワイヤレスノードとの間で送信された信号に基づいた三角測量、三辺測量若しくはマルチラテレーションを使用)を含み得る。配向センサは、世界に対するデバイス6の配向を提供し(信号が信頼できるという条件で)、及びポジショニングシステムから受信された情報は、世界におけるデバイスの位置を与える。適切な照明データベース(デバイス6にローカルに保存された又は例えばネットワーク上でリモートからアクセスされた)へのアクセスが与えられると、これは、何れの照明器具4が現在の位置に存在するか及び例えば環境の地図、間取図、又は3Dモデルに対するそれらの「絶対的」配向を配向決定ブロック32が調べることを可能にすることができる。同様に地図、間取図、又はモデルに対するモバイルデバイス6の配向を(配向センサから)知ることにより、配向決定ブロック32は、デバイス6及び照明器具4の相対的配向、並びに従って取得画像において現れる照明器具4の配向を決定することができる。例えば、位置情報は、特定の店にマッピングすることができ、及びデータベースは、店の空間全体にわたって一般的に一方向の照明器具のローカル配向を記録することができる。   Alternatively or additionally, the relative orientation can be determined in other ways. For example, the orientation determination block 32 obtains the orientation of the mobile device 6 from the orientation sensor and uses this position information derived from the positioning system to determine the relative orientation between the device 6 and the luminaire 4. Can be configured to combine with. For example, the orientation sensor may include a compass, one or more gyro sensors, and / or one or more accelerometers integrated in the mobile device 6, but the positioning system may be a satellite based positioning system (eg, GPS GLONASS or Galileo) or a local RF communication network (eg, using triangulation, triangulation or multilateration based on signals transmitted between the mobile device 6 and a wireless node of the network). The orientation sensor provides the orientation of the device 6 with respect to the world (provided that the signal is reliable), and the information received from the positioning system gives the position of the device in the world. Given access to the appropriate lighting database (stored locally on the device 6 or accessed remotely, eg over a network), this may indicate which luminaire 4 is present at the current location and eg It may be possible for the orientation determination block 32 to examine their “absolute” orientation relative to a map of the environment, a floor plan, or a 3D model. Similarly, by knowing (from the orientation sensor) the orientation of the mobile device 6 with respect to the map, floor plan, or model, the orientation determination block 32 will show the illumination that appears in the acquired image according to the relative orientation and alignment of the device 6 and the luminaire 4. The orientation of the instrument 4 can be determined. For example, the location information can be mapped to a particular store, and the database can record the local orientation of the luminaire in a generally unidirectional manner throughout the store space.

従って、上記の選択肢が与えられると、様々な実施形態において、モバイルデバイス6の配向は、カメラによって取得された画像のみに基づいて、若しくはカメラを用いずに配向センサ及びポジショニングシステムに基づいてフットプリント認識から決定され得、又は両方の技術による情報が配向の決定において組み合わせられ得る。   Thus, given the above options, in various embodiments, the orientation of the mobile device 6 is based on an image acquired by a camera only or a footprint based on an orientation sensor and positioning system without a camera. Information can be determined from recognition, or information from both techniques can be combined in determining orientation.

また、何れにしても、比較ブロック38は、取得画像において現れる光源4の望ましい配向を表す第2の信号36を取り出す。例えば、比較ブロック38は、垂直方向の配向が望ましい(水平ライン22の場合)という予めプログラムされた知識を取り出す。次に、比較ブロック38は、これら2つの信号34、36を比較して、ユーザインタフェース8を介してそれが出力するデバイス6の好ましい再配向の表示40を決定する。   In any case, the comparison block 38 also extracts a second signal 36 representing the desired orientation of the light source 4 that appears in the acquired image. For example, the comparison block 38 retrieves preprogrammed knowledge that a vertical orientation is desirable (in the case of the horizontal line 22). The comparison block 38 then compares these two signals 34, 36 to determine the preferred reorientation indication 40 of the device 6 that it outputs via the user interface 8.

複数の実施形態では、表示40は、ユーザインタフェース8に関する必要とされるユーザインタフェース(UI:user interface)配向を決定し、それによって、そのコンテンツが、適正な(真っ直ぐな)読み取りのためには、符号化光検出にとって最も有益な方向にユーザが自らの電話又はタブレットを回転させる必要があるような配向を有して、UI8上に表示されることによって実施される。従ってユーザは、再配向を行うことを暗示的に求められる。例えば、デバイスのディスプレイ上の文章が、適正な読み取りのためには、スマートフォン6が最適な(又は少なくとも向上した)符号化光検出のための方向に回転される必要があるように配向される。別の例として、デバイスのディスプレイのグラフィック(例えば、写真又は絵)の配向が、適正に見るには、スマートフォンが符号化光検出のためにより有益な方向に回転される必要があるようなものである。例えば、このグラフィックは、会社のロゴ、タッチスクリーンとのインタラクションによって調節されるスライダ等のインタラクティブ制御装置、及び/又はユーザが観察するように興味を惹かれる画像を含み得る。   In embodiments, the display 40 determines the required user interface (UI) orientation with respect to the user interface 8 so that the content can be read for proper (straight) reading. This is accomplished by being displayed on the UI 8 with an orientation such that the user needs to rotate his phone or tablet in the direction most beneficial for encoded light detection. Thus, the user is implicitly required to perform reorientation. For example, text on the display of the device is oriented such that for proper reading, the smartphone 6 needs to be rotated in the direction for optimal (or at least improved) encoded light detection. As another example, the orientation of the device's display graphic (eg, photo or picture) may be such that the smartphone needs to be rotated in a more useful direction for encoded light detection in order to properly view. is there. For example, the graphic may include a company logo, an interactive control device such as a slider that is adjusted by interaction with the touch screen, and / or an image that is of interest to the user for viewing.

例えば、図9を参照されたい。ここでは、コンテンツは、猫44の写真及び/又はある文章42を含むが、ある角度に回転されている。必ずしも考えなくても、ユーザは、猫44を賞賛する又は文章42を読むことをユーザ自身が望んでいると気付き、及び本能的にコンテンツが真っ直ぐに表示されるようにデバイスを回転させる。この時、デバイス6が保持される角度が、符号化光検出にとって最適な角度である。   For example, see FIG. Here, the content includes a picture of the cat 44 and / or some text 42 but is rotated at an angle. Without necessarily thinking, the user notices that he / she wants to admire the cat 44 or read the sentence 42, and instinctively rotates the device so that the content is displayed straight. At this time, the angle at which the device 6 is held is the optimum angle for the encoded light detection.

別の実施形態では、ユーザインタフェースコンテンツは回転され得るが、デバイス6のユーザが回転の指示を読み易いやり方で見ることができるように、デバイスを回転させるためのメッセージを提供する文章が真っ直ぐに表示される(及びデバイス6が回転する間、真っ直ぐに維持され得る)。この文章は、デバイス6が最適な配向に回転された時点で除去され得る。   In another embodiment, the user interface content can be rotated, but the text providing a message to rotate the device is displayed straight so that the user of device 6 can view the rotation instructions in an easy-to-read manner. (And can be kept straight while device 6 rotates). This sentence can be removed when the device 6 is rotated to the optimal orientation.

別の実施形態では、ディスプレイ8上の矢印が、符号化光検出にとって最適な配向を示す。   In another embodiment, the arrow on the display 8 indicates the optimal orientation for encoded light detection.

別の実施形態では、色が、どの程度まで配向が符号化光検出にとって最適であるかを示す。ある可能な実装形態は、照明器具の配向に応じて色が赤から緑へと変化する着色境界を使用することである。   In another embodiment, the color indicates to what extent the orientation is optimal for encoded light detection. One possible implementation is to use a colored border where the color changes from red to green depending on the orientation of the luminaire.

更に別の実施形態では、表示は、デバイスの現在の配向に対する好ましい配向を定量化した、ユーザに表示される明確なメトリックであり得る。例えば、このメトリックは、デバイスが最適位置に回転された場合に光源が潜在的に占有することができるライン22の推定最大数に対する、現在光源4が占有しているライン22の数の比率若しくは割合を測定し得、及び/又はこのメトリックは、1つ若しくは複数の軸上でデバイス6が回転されるべき度数を測定し得る。このメトリックは、ユーザに対して数値的に又はグラフィックを用いて(例えば、グラフ尺度上の位置又は範囲として)表示され得る。エンドユーザにとっては、メトリックは、好ましくは、グラフィックを用いて、例えば、現在の配向角度と望まれる配向角度との間の範囲にわたる円セクタの形態で提示される。例えば、図10及び図11は、デバイスのあまり最適ではない配向と、ほぼ最適な配向との差を示すための円セクタの一例を示す。第2のインジケータは、最大期待検出速度の百分率としての相対的検出速度を示す。   In yet another embodiment, the display may be a clear metric displayed to the user that quantifies the preferred orientation relative to the current orientation of the device. For example, this metric is the ratio or ratio of the number of lines 22 currently occupied by the light source 4 to the estimated maximum number of lines 22 that the light source can potentially occupy when the device is rotated to the optimal position. And / or this metric may measure the degree to which the device 6 is to be rotated on one or more axes. This metric can be displayed to the user numerically or graphically (eg, as a position or range on a graph scale). For the end user, the metric is preferably presented using graphics, for example in the form of a circular sector spanning the range between the current orientation angle and the desired orientation angle. For example, FIGS. 10 and 11 show an example of a circular sector to show the difference between the less optimal orientation of the device and the nearly optimal orientation. The second indicator shows the relative detection speed as a percentage of the maximum expected detection speed.

上記の実施形態は、単なる例として記載されたものであることが理解されるであろう。   It will be appreciated that the above embodiments have been described by way of example only.

例えば、開示技術の範囲は、上述の目標配向の表示例に限定されず、並びに他の表示、即ち、上記の表示及び/又は他の表示の任意の組み合わせが使用され得る。一般的に、目標再配向は、どのような形式で表され得、及び配向の目標変更又は目標とされる絶対的配向について表され得る。   For example, the scope of the disclosed technology is not limited to the display examples of the target orientation described above, and other displays, ie, any combination of the above displays and / or other displays may be used. In general, the target reorientation can be expressed in any form and can be expressed as a target change in orientation or a targeted absolute orientation.

更に、上記では処理モジュール12が符号化光を復号し、及びターゲット再配向を計算すると記載されたが、これは、全ての可能な実施形態においてそうである必要はない。代替的に又は追加的に、デバイス6上の処理モジュール12は、デバイス6の目標再配向を決定するための動作を行うことができ、取得画像が、符号化光信号を抽出するための別の端末に渡されることができる。例えば、処理モジュール12は、後に保存された画像から符号化光を復号することができるように、画像を保存し得る(例えば、ローカルに又はホストコンピュータ若しくはサーバにアップロードすることによって)。   Furthermore, although it has been described above that the processing module 12 decodes the encoded light and calculates the target reorientation, this need not be the case in all possible embodiments. Alternatively or additionally, the processing module 12 on the device 6 can perform operations to determine the target reorientation of the device 6 and the acquired image can be a separate operation for extracting the encoded optical signal. Can be passed to the terminal. For example, the processing module 12 may store the image (eg, by uploading locally or by host computer or server) so that the encoded light can be decoded from the stored image later.

更に、開示技術は、多くの異なる符号化光の適用例と併せて使用することができる。符号化光は、光源及び照明環境に情報を追加し、並びに既存の(モバイル)カメラを用いた検出は、埋め込まれた情報が様々な新しい適用例に利用可能となるため、光源に価値を付加する。例えば、ランプ固有情報は、新しい照明システムのコミッショニング中に使用することができ、及び/又はスマートフォン若しくはタブレットを使用して、光に対するカスタマイズローカル制御を提供することができる。別の例として、符号化光使用可能照明器具の群が、利用者に価値を付加する及びサービスプロバイダに正確な位置情報をもたらす室内ナビゲーション及びロケーションベースサービスのための高密度の光ビーコン網を提供することができる。更に別の例として、ある特定の物体の符号化光照明は、基本的に、光中に埋め込まれた埋め込み識別子を用いて物体に「タグを付ける」ことができる。開示技術は、潜在的に、これらの適用例の何れにもロバストネスを付加することができる。   Further, the disclosed technology can be used in conjunction with many different encoded light applications. Coded light adds information to the light source and lighting environment, and detection using existing (mobile) cameras adds value to the light source as embedded information can be used in a variety of new applications. To do. For example, lamp specific information can be used during commissioning of a new lighting system and / or a smartphone or tablet can be used to provide customized local control over the light. As another example, a group of coded light enabled lighting fixtures provides a high-density optical beacon network for in-room navigation and location-based services that adds value to users and provides accurate location information to service providers can do. As yet another example, the coded light illumination of a particular object can basically “tag” the object using an embedded identifier embedded in the light. The disclosed technology can potentially add robustness to any of these applications.

本発明は、本発明を実施するように適応されたコンピュータプログラム、特にキャリア上又はキャリア内のコンピュータプログラムにも適用することが理解されるであろう。プログラムは、ソースコード、オブジェクトコード、コード中間ソース、及び部分的にコンパイルされた形式等のオブジェクトコードの形式であり得、又は本発明による方法の実施における使用に適した任意の他の形式であり得る。   It will be appreciated that the present invention also applies to a computer program adapted to implement the present invention, in particular a computer program on or in a carrier. The program may be in the form of object code, such as source code, object code, code intermediate source, and partially compiled form, or in any other form suitable for use in performing the method according to the invention. obtain.

コンピュータプログラム製品に関連した別の実施形態は、本明細書に記載されたシステム及び/又は製品の少なくとも1つの各手段に対応するコンピュータ実行可能命令を含む。これらの命令は、サブルーチンに細分され得、及び/又は静的に若しくは動的にリンクさせることができる1つ若しくは複数のファイルに保存され得る。   Another embodiment related to a computer program product includes computer-executable instructions corresponding to each means of at least one of the systems and / or products described herein. These instructions can be subdivided into subroutines and / or stored in one or more files that can be linked statically or dynamically.

上記に規定されているように、本発明は、更に、コンピュータプログラム製品の形態で具現化され得る。キャリア上で提供される場合、コンピュータプログラムのキャリアは、プログラムを保持することが可能な任意のエンティティ又はデバイスであり得る。例えば、キャリアは、ROM(例えば、CD−ROM若しくは半導体ROM)等の記憶媒体又は磁気記録媒体(例えばハードディスク)を含み得る。代替的に、キャリアは、プログラムが埋め込まれた集積回路であり得、この集積回路は、関連の方法を行うように、又は関連の方法を行う際に使用されるように適応される。   As defined above, the present invention may be further embodied in the form of a computer program product. When provided on a carrier, the carrier of the computer program can be any entity or device capable of holding the program. For example, the carrier may include a storage medium such as a ROM (for example, a CD-ROM or a semiconductor ROM) or a magnetic recording medium (for example, a hard disk). Alternatively, the carrier can be an integrated circuit in which the program is embedded, and this integrated circuit is adapted to perform the related method or to be used in performing the related method.

開示された実施形態に対する他の変形形態は、図面、開示内容、及び添付の特許請求の範囲の研究から、特許請求される本発明の実施において、当業者によって理解され、及びもたらされ得る。クレームにおいて、「含む(comprising)」という用語は、他の要素又はステップを排除せず、及び不定冠詞「1つの(a)」又は「1つの(an)」は、複数を排除しない。単一のプロセッサ又は他のユニットが、クレームに記載された幾つかの項目の機能を果たし得る。特定の手段が互いに異なる従属クレームに記載されているという事実のみでは、これらの手段の組み合わせを有利に使用できないことを意味しない。コンピュータプログラムは、他のハードウェアと共に又はその一部として供給される光記憶媒体又は固体媒体等の適切な媒体上で保存/配布され得るが、インターネット又は他の有線若しくは無線通信システムを介して等、他の形態で配布され得る。クレームにおける何れの参照符号も範囲を限定するものと解釈されるものではない。   Other variations to the disclosed embodiments can be understood and brought about by those skilled in the art in the practice of the claimed invention, from a study of the drawings, the disclosure, and the appended claims. In the claims, the term “comprising” does not exclude other elements or steps, and the indefinite article “a” or “an” does not exclude a plurality. A single processor or other unit may fulfill the functions of several items recited in the claims. The mere fact that certain measures are recited in mutually different dependent claims does not indicate that a combination of these measured cannot be used to advantage. The computer program may be stored / distributed on a suitable medium, such as an optical storage medium or solid medium supplied with or as part of other hardware, but via the Internet or other wired or wireless communication system, etc. Can be distributed in other forms. Any reference signs in the claims shall not be construed as limiting the scope.

Claims (15)

ユーザインタフェースと、
光源からの光を含むシーンの画像を取得するためのカメラと、
処理モジュールとを含むデバイスであって、
前記光源からの前記光は、符号化光成分で変調され、前記カメラは、複数のラインに分割された撮像素子を含み、これによって前記画像を取得するために、前記ラインが異なる時点で順に露光され、前記撮像素子は平面を画定し、
前記処理モジュールは、前記撮像素子の前記ラインに対する、前記撮像素子の前記平面上に投影された前記光源の配向を検出し、これに基づいて、前記光源からの光のフットプリントが、前記画像において増大された数の前記ラインをカバーする前記デバイスの目標再配向を決定し、
前記ユーザインタフェースは、前記目標再配向を実行するようにユーザを誘導するために、前記ユーザに前記目標再配向の表示を出力する、デバイス。
A user interface;
A camera for acquiring an image of a scene including light from a light source;
A device including a processing module,
The light from the light source is modulated with an encoded light component, and the camera includes an image sensor that is divided into a plurality of lines, whereby the lines are sequentially exposed at different times to acquire the image. The imaging element defines a plane;
The processing module detects an orientation of the light source projected on the plane of the image sensor relative to the line of the image sensor, and based on this, a footprint of light from the light source is detected in the image. Determining a target reorientation of the device covering an increased number of the lines;
The device wherein the user interface outputs an indication of the target reorientation to the user to guide the user to perform the target reorientation.
前記目標再配向は、前記光源からの前記デバイスの現在の距離において、前記フットプリントによってカバー可能な最大数の前記ラインをカバーするために、前記光源からの光の前記フットプリントに対して要求される、請求項1に記載のデバイス。   The target redirection is required for the footprint of light from the light source to cover the maximum number of the lines that can be covered by the footprint at the current distance of the device from the light source. The device of claim 1. 前記ユーザインタフェースは、ディスプレイを含み、取得される前記画像は、前記ディスプレイ上に表示されない、請求項1又は2に記載のデバイス。   The device of claim 1 or 2, wherein the user interface includes a display and the acquired image is not displayed on the display. ポータブルデバイス、スマートフォン、又はタブレットの1つである、請求項1乃至3の何れか一項に記載のデバイス。   The device according to claim 1, wherein the device is one of a portable device, a smartphone, or a tablet. 前記ユーザインタフェースは、ディスプレイを含み、前記目標再配向の前記表示は、前記ディスプレイを介して前記ユーザに出力される、請求項1乃至4の何れか一項に記載のデバイス。   The device according to claim 1, wherein the user interface includes a display, and the indication of the target reorientation is output to the user via the display. 前記表示は、
前記ディスプレイ上に示された文章であって、前記文章を真っ直ぐに読むことは、前記ユーザが前記デバイスを前記目標再配向に回転させることを必要とするように前記ディスプレイ上で配向される前記文章、及び/又は
前記ディスプレイ上のグラフィックであって、前記グラフィックを真っ直ぐに見ることは、前記ユーザが前記デバイスを前記目標再配向に回転させることを必要とするようにスクリーン上で配向される前記グラフィック
の少なくとも一方を含む、請求項5に記載のデバイス。
The display is
Sentence shown on the display, wherein the reading of the sentence is oriented on the display such that the user needs to rotate the device to the target reorientation And / or a graphic on the display, wherein viewing the graphic directly requires the user to rotate the device to the target reorientation to be oriented on the screen. The device of claim 5, comprising at least one of the following:
前記表示は、前記目標再配向を達成するために何れの方向に前記デバイスを回転させるべきかを示す矢印を前記ディスプレイ上に含む、請求項5又は6に記載のデバイス。   7. A device according to claim 5 or 6, wherein the display includes an arrow on the display indicating in which direction the device should be rotated to achieve the target reorientation. 前記表示は、前記目標再配向に対する前記デバイスの現在の配向に基づいて、前記ディスプレイ上で色及び/又は強度を変化させることを含む、請求項5、6又は7に記載のデバイス。   8. A device according to claim 5, 6 or 7, wherein the display comprises changing color and / or intensity on the display based on the current orientation of the device relative to the target reorientation. 緑である前記色は、前記デバイスが前記目標再配向に近づく方向に回転されていることを示し、赤である前記色は、前記デバイスが前記目標再配向から離れる方向に回転されていることを示す、請求項8に記載のデバイス。   The color that is green indicates that the device is rotated in a direction that approaches the target reorientation, and the color that is red indicates that the device is rotated in a direction away from the target reorientation. 9. The device of claim 8, shown. 前記表示は、前記目標再配向に対する前記デバイスの現在の配向を測定するメトリックを表示することを含む、請求項1乃至9の何れか一項に記載のデバイス。   10. A device according to any preceding claim, wherein the display comprises displaying a metric that measures the current orientation of the device relative to the target reorientation. 前記メトリックは、前記光源からの前記デバイスの現在の距離において、前記フットプリントによってカバー可能な最大数のラインに対する、前記フットプリントによってカバーされる前記撮像素子の現在のライン数を表す、請求項10に記載のデバイス。   The metric represents the current number of lines of the imager covered by the footprint relative to the maximum number of lines that can be covered by the footprint at the current distance of the device from the light source. Device described in. 前記処理モジュールは、前記撮像素子の前記ラインに対する、取得される前記画像における外観として前記光源の配向を検出することによる当該検出を行う画像処理モジュールを含む、請求項1乃至11の何れか一項に記載のデバイス。   The said processing module contains the image processing module which performs the said detection by detecting the orientation of the said light source as an external appearance in the said image acquired with respect to the said line of the said image pick-up element. Device described in. 前記処理モジュールは、配向センサを用いて測定される前記デバイスの絶対的配向、ポジショニングシステムを用いて測定される前記デバイスの位置、及び前記位置と前記光源の絶対的配向の所定の知識との間のマッピングに基づいて前記検出を行い、前記処理モジュールは、従って、前記光源の絶対的配向と比較した前記デバイスの絶対的配向から相対的配向を決定する、請求項1乃至12の何れか一項に記載のデバイス。   The processing module is configured to measure the absolute orientation of the device measured using an orientation sensor, the position of the device measured using a positioning system, and a predetermined knowledge of the position and the absolute orientation of the light source. 13. The detection is performed based on a mapping of: and the processing module thus determines a relative orientation from the absolute orientation of the device compared to the absolute orientation of the light source. Device described in. デバイスのカメラを用いて、光源からの光を含むシーンの画像を取得するステップであって、前記光源からの光は符号化光成分で変調され、前記カメラは複数のラインに分割された撮像素子を含み、これによって、前記画像を取得するために、前記ラインが異なる時点で順に露光され、前記撮像素子は平面を画定する、ステップと、
前記撮像素子の前記ラインに対する、前記撮像素子の前記平面上に投影された前記光源の配向を検出するステップと、
前記検出に基づいて、前記光源からの前記光のフットプリントが、前記画像において増大された数の前記ラインをカバーする前記デバイスの目標再配向を決定するステップと、
前記デバイスのユーザインタフェースを介してユーザに前記目標再配向の表示を出力するステップと
を含む、方法。
An image pickup device comprising: acquiring a scene image including light from a light source using a device camera, wherein the light from the light source is modulated with an encoded light component, and the camera is divided into a plurality of lines Whereby the lines are exposed in sequence at different times to obtain the image, and the imaging element defines a plane;
Detecting the orientation of the light source projected on the plane of the image sensor relative to the line of the image sensor;
Based on the detection, a footprint of the light from the light source determines a target reorientation of the device that covers an increased number of the lines in the image;
Outputting the indication of the target reorientation to a user via a user interface of the device.
少なくとも1つのコンピュータ可読記憶媒体上で具現化されるコードであって、前記記憶媒体から取り出され、及び/又は通信ネットワークを介してダウンロードされ、並びに、
前記デバイスのカメラを用いて、光源からの光を含むシーンの画像を取得する動作であって、前記光源からの光は符号化光成分で変調され、前記カメラは複数のラインに分割された撮像素子を含み、これによって、前記画像を取得するために、前記ラインが異なる時点で順に露光され、前記撮像素子は、平面を画定する、動作と、
前記撮像素子の前記ラインに対する、前記撮像素子の前記平面上に投影された前記光源の配向を検出する動作と、
前記検出に基づいて、前記光源からの光のフットプリントが、前記画像において増大された数の前記ラインをカバーする前記デバイスの目標再配向を決定する動作と、
前記デバイスのユーザインタフェースを介してユーザに前記目標再配向の表示を出力する動作と
を実施するようにデバイス上で実行される当該コードを含む、コンピュータプログラム。
Code embodied on at least one computer-readable storage medium, retrieved from the storage medium and / or downloaded via a communication network; and
An operation of acquiring an image of a scene including light from a light source using the camera of the device, wherein the light from the light source is modulated with an encoded light component, and the camera is divided into a plurality of lines. An operation comprising: an element, whereby the lines are exposed in sequence at different times to acquire the image, and the imaging element defines a plane;
Detecting the orientation of the light source projected on the plane of the image sensor with respect to the line of the image sensor;
Based on the detection, an operation in which a footprint of light from the light source determines a target reorientation of the device that covers an increased number of the lines in the image;
A computer program comprising the code executed on the device to perform an operation to output an indication of the target reorientation to a user via a user interface of the device.
JP2016567230A 2014-05-12 2015-04-30 Coded light detection Pending JP2017525172A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14167840.9 2014-05-12
EP14167840 2014-05-12
PCT/EP2015/059436 WO2015173024A1 (en) 2014-05-12 2015-04-30 Detection of coded light

Publications (2)

Publication Number Publication Date
JP2017525172A true JP2017525172A (en) 2017-08-31
JP2017525172A5 JP2017525172A5 (en) 2018-06-14

Family

ID=50685800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567230A Pending JP2017525172A (en) 2014-05-12 2015-04-30 Coded light detection

Country Status (5)

Country Link
EP (1) EP3143839A1 (en)
JP (1) JP2017525172A (en)
CN (1) CN106663213A (en)
RU (1) RU2689142C2 (en)
WO (1) WO2015173024A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6909055B2 (en) * 2017-05-31 2021-07-28 キヤノン株式会社 Information processing equipment, control methods and programs
CN108134629A (en) * 2017-12-20 2018-06-08 成都光享科技有限公司 A kind of wireless communications method based on visible ray
JP7391527B2 (en) * 2019-04-03 2023-12-05 株式会社ミツトヨ photoelectric encoder
EP3959681A1 (en) * 2019-04-25 2022-03-02 Signify Holding B.V. Determining an arrangement of light units based on image analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136832A1 (en) * 2012-03-13 2013-09-19 富士フイルム株式会社 Stereoscopic image display control device and stereoscopic image display control method
JP5393917B1 (en) * 2012-05-24 2014-01-22 パナソニック株式会社 Information communication method and information communication apparatus

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7809214B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Device and a method for identifying movement patterns
JP5474825B2 (en) * 2008-01-24 2014-04-16 コーニンクレッカ フィリップス エヌ ヴェ Sensor device with tilt or direction correction light sensor for environment generation
ES2425079T3 (en) * 2008-09-26 2013-10-11 Koninklijke Philips N.V. System and method for automatic commissioning of a plurality of light sources
KR20110104988A (en) * 2009-01-06 2011-09-23 코닌클리즈케 필립스 일렉트로닉스 엔.브이. A control system for controlling one or more controllable device sources, and a method for enabling such control.
RU2562805C2 (en) * 2009-12-15 2015-09-10 Конинклейке Филипс Электроникс Н.В. System and method for physical association of lighting scenes
JP5698763B2 (en) * 2010-01-15 2015-04-08 コーニンクレッカ フィリップス エヌ ヴェ Method and system for 2D detection of local illumination contributions
EP2503852A1 (en) * 2011-03-22 2012-09-26 Koninklijke Philips Electronics N.V. Light detection system and method
KR101705605B1 (en) * 2011-11-14 2017-02-23 삼성전자주식회사 Photographing apparatus and image processing apparatus using a coded light, and methods thereof
JP5806606B2 (en) * 2011-12-01 2015-11-10 キヤノン株式会社 Information processing apparatus and information processing method
WO2013109934A1 (en) * 2012-01-20 2013-07-25 Digimarc Corporation Shared secret arrangements and optical data transfer
WO2014001965A1 (en) * 2012-06-27 2014-01-03 Koninklijke Philips N.V. Methods and apparatus for automatically adapting light output of a lighting unit
EP2893651B1 (en) * 2012-09-10 2016-04-20 Koninklijke Philips N.V. Light detection system and method
US8752761B2 (en) * 2012-09-21 2014-06-17 Symbol Technologies, Inc. Locationing using mobile device, camera, and a light source

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136832A1 (en) * 2012-03-13 2013-09-19 富士フイルム株式会社 Stereoscopic image display control device and stereoscopic image display control method
JP5393917B1 (en) * 2012-05-24 2014-01-22 パナソニック株式会社 Information communication method and information communication apparatus

Also Published As

Publication number Publication date
EP3143839A1 (en) 2017-03-22
RU2016148376A3 (en) 2018-12-21
RU2016148376A (en) 2018-06-13
CN106663213A (en) 2017-05-10
WO2015173024A1 (en) 2015-11-19
RU2689142C2 (en) 2019-05-24

Similar Documents

Publication Publication Date Title
CN105378503B (en) It determines and is orientated
CN105358938B (en) Device and method for distance or position determination
CN106462265B (en) Based on encoded light positions portable formula equipment
US9055200B1 (en) Content delivery based on a light positioning system
US8994814B2 (en) Light positioning system using digital pulse recognition
US9418115B2 (en) Location-based mobile services and applications
JP6157011B2 (en) Encoded photodetector
RU2721226C2 (en) Embedding data into light
US20160189416A1 (en) Maintaining heatmaps using tagged visual data
AU2019233735B2 (en) Method for obtaining information about a luminaire
CN108496057A (en) It is positioned based on light source
US10708999B2 (en) Method of visualizing a shape of a linear lighting device
CN110471403B (en) Method for guiding an autonomously movable machine by means of an optical communication device
JP2017525172A (en) Coded light detection
EP3241036A1 (en) Tagging visual data with wireless signal information
CN110168964A (en) Detection of coded light
CN110942115A (en) Service providing method and system based on optical label
WO2015104187A1 (en) Detecting coded light
US11269041B2 (en) System for communicating a presence of a device via a light source

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190621

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200513