[go: up one dir, main page]

JP2019096435A - Apparatus control system - Google Patents

Apparatus control system Download PDF

Info

Publication number
JP2019096435A
JP2019096435A JP2017223901A JP2017223901A JP2019096435A JP 2019096435 A JP2019096435 A JP 2019096435A JP 2017223901 A JP2017223901 A JP 2017223901A JP 2017223901 A JP2017223901 A JP 2017223901A JP 2019096435 A JP2019096435 A JP 2019096435A
Authority
JP
Japan
Prior art keywords
unit
person
space
sound
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017223901A
Other languages
Japanese (ja)
Other versions
JP7012250B2 (en
Inventor
龍司 夏目
Ryuji Natsume
龍司 夏目
克彦 木村
Katsuhiko Kimura
克彦 木村
正也 花園
Masaya Hanazono
正也 花園
福島 実
Minoru Fukushima
実 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017223901A priority Critical patent/JP7012250B2/en
Publication of JP2019096435A publication Critical patent/JP2019096435A/en
Application granted granted Critical
Publication of JP7012250B2 publication Critical patent/JP7012250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

【課題】外部から漏れる音によって機器を誤って制御する可能性を低減すること。【解決手段】機器制御システム1は、マイクロフォン(音入力部)11と、音声認識部12と、人検知部13と、制御部14と、を備える。マイクロフォン11は、入力された音に基づく電気信号を出力する。音声認識部12は、電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。人検知部13は、音入力部11のある空間における人の存否を検知し、検知結果を検知情報として出力する。制御部14は、認識情報及び検知情報に基づいて、上記空間にある機器2の制御を行う。【選択図】図1PROBLEM TO BE SOLVED: To reduce the possibility of erroneously controlling a device due to a sound leaking from the outside. A device control system 1 includes a microphone (sound input unit) 11, a voice recognition unit 12, a human detection unit 13, and a control unit 14. The microphone 11 outputs an electric signal based on the input sound. The voice recognition unit 12 performs voice recognition based on an electric signal and outputs recognition information corresponding to the recognized voice. The human detection unit 13 detects the presence or absence of a person in the space where the sound input unit 11 is located, and outputs the detection result as detection information. The control unit 14 controls the device 2 in the space based on the recognition information and the detection information. [Selection diagram] Fig. 1

Description

本開示は、一般に機器制御システムに関し、より詳細には、音声認識技術を用いて機器を制御する機器制御システムに関する。   The present disclosure relates generally to device control systems, and more particularly to device control systems that control devices using speech recognition technology.

従来、遠隔操作のための信号として音声を利用した照明器具の制御装置が知られており、例えば特許文献1に開示されている。特許文献1に記載の照明器具の制御装置は、複数の照明器具の各々に、マイクと音声認識部とを有する音声制御手段が設けられている。音声制御手段は、予め個々の照明器具の識別音声と、点灯/消灯及び調光の命令音声と登録できるように構成されている。そして、識別音声を伴って発せられた命令音声が、マイクを通じて音声認識部にて認識されることにより、識別音声に該当する照明器具が制御される。   Conventionally, a control device for a luminaire using sound as a signal for remote control is known, and is disclosed, for example, in Patent Document 1. The control device of the lighting fixture described in Patent Document 1 is provided with voice control means having a microphone and a voice recognition unit in each of a plurality of lighting fixtures. The voice control means is configured to be able to register in advance identification voices of individual lighting fixtures and command voices of lighting / extinguishing and dimming. Then, the instruction voice issued with the identification voice is recognized by the voice recognition unit through the microphone, whereby the lighting apparatus corresponding to the identification voice is controlled.

特開2006−286275号公報Unexamined-Japanese-Patent No. 2006-286275

しかしながら、特許文献1の照明器具の制御装置では、例えば照明器具(機器)の存在する部屋(空間)の外部から照明器具の存在する部屋へと音が漏れた場合、音声認識部が漏れた音に反応することで、照明器具を誤って制御する可能性があった。   However, in the control device of the lighting fixture of Patent Document 1, for example, when the sound leaks from the outside of the room (space) where the lighting fixture (device) exists to the room where the lighting fixture exists, the sound of the voice recognition unit leaks. In response to this, there was a possibility of erroneous control of the luminaire.

本開示は、上記の点に鑑みてなされており、外部から漏れる音によって機器を誤って制御する可能性を低減することのできる機器制御システムを提供することを目的とする。   This indication is made in view of the above-mentioned point, and aims at providing a device control system which can reduce the possibility of controlling a device by mistake by the sound leaked from the outside.

本開示の一態様に係る機器制御システムは、音入力部と、音声認識部と、人検知部と、制御部と、を備える。前記音入力部は、入力された音に基づく電気信号を出力する。前記音声認識部は、前記電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。前記人検知部は、前記音入力部のある空間における人の存否を検知し、検知結果を検知情報として出力する。前記制御部は、前記認識情報及び前記検知情報に基づいて、前記空間にある機器の制御を行う。   A device control system according to an aspect of the present disclosure includes a sound input unit, a voice recognition unit, a human detection unit, and a control unit. The sound input unit outputs an electrical signal based on the input sound. The voice recognition unit performs voice recognition based on the electric signal, and outputs recognition information corresponding to the recognized voice. The human detection unit detects the presence or absence of a person in the space where the sound input unit is present, and outputs the detection result as detection information. The control unit controls devices in the space based on the recognition information and the detection information.

本開示は、外部から漏れる音によって機器を誤って制御する可能性を低減することができる、という利点がある。   The present disclosure has the advantage that it is possible to reduce the possibility of erroneous control of the device due to the sound leaking from the outside.

図1は、本開示の一実施形態に係る機器制御システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a device control system according to an embodiment of the present disclosure. 図2は、同上の機器制御システムを有する照明スイッチを示す正面図である。FIG. 2 is a front view showing a light switch having the above-mentioned device control system. 図3は、同上の機器制御システムの動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the device control system of the same. 図4A及び図4Bは、それぞれ同上の機器制御システムの動作を説明するための概念図である。FIGS. 4A and 4B are conceptual diagrams for explaining the operation of the device control system of the same. 図5は、同上の機器制御システムの動作を説明するための概念図である。FIG. 5 is a conceptual diagram for explaining the operation of the above-mentioned device control system. 図6は、本開示の一実施形態の第1変形例に係る機器制御システムの構成を示すブロック図である。FIG. 6 is a block diagram showing a configuration of a device control system according to a first modified example of an embodiment of the present disclosure. 図7は、本開示の一実施形態の第2変形例に係る機器制御システムを示す概念図である。FIG. 7 is a conceptual diagram showing a device control system according to a second modified example of the embodiment of the present disclosure.

(1)概要
以下、本実施形態の機器制御システム1について図1を用いて説明する。本実施形態の機器制御システム1は、音声認識技術を用いて、施設に設置されている機器を制御するシステムである。施設は、例えば、戸建住宅、集合住宅の各住戸、店舗、病院、学校、オフィス、工場、又は商業施設などである。本実施形態では、機器制御システム1を戸建住宅に用いる場合を例として説明する。また、本実施形態では、機器制御システム1が制御対象とする機器2は、照明機器である。以下では、「機器2」を「照明機器2」ともいう。
(1) Outline Hereinafter, the device control system 1 of this embodiment will be described with reference to FIG. The device control system 1 according to the present embodiment is a system that controls devices installed in a facility using voice recognition technology. The facility is, for example, a detached house, each dwelling unit of an apartment house, a store, a hospital, a school, an office, a factory, or a commercial facility. In the present embodiment, a case where the device control system 1 is used for a detached house will be described as an example. Further, in the present embodiment, the device 2 to be controlled by the device control system 1 is a lighting device. Hereinafter, the “device 2” is also referred to as the “lighting device 2”.

照明機器2は、複数のLED(Light Emitting Diode)を光源として備えている。また、複数のLEDのうち2以上のLEDは、互いに異なる発光色のLEDで構成されている。つまり、本実施形態では、照明機器2は、調光及び調色が可能な光源を有している。機器制御システム1は、例えば人の発する音声に基づいて、照明機器2を制御する。具体的には、機器制御システム1は、人の発する音声に基づいて、照明機器2の点灯、消灯、調光、又は調色などを行う。ここでいう「音声」は、人が発声器官を通じて発する言語音に加えて、例えば、口笛、フィンガースナップ(finger snapping)音、及び拍手(clapping)音などの、人が意図的に発する音全般を含んでいる。   The lighting apparatus 2 includes a plurality of LEDs (Light Emitting Diodes) as light sources. Further, two or more of the plurality of LEDs are configured by LEDs of different emission colors. That is, in the present embodiment, the lighting apparatus 2 has a light source capable of dimming and toning. The device control system 1 controls the lighting device 2 based on, for example, voice emitted by a person. Specifically, the device control system 1 performs lighting, extinguishing, dimming, toning, and the like of the lighting device 2 based on the voice emitted by a person. The “voice” mentioned here is, in addition to speech sounds emitted by people through vocal organs, general sounds emitted intentionally by humans, such as, for example, whistling, finger snapping sounds, and clapping sounds. It contains.

機器制御システム1はマイクロフォン(音入力部)11と、音声認識部12と、人検知部13と、制御部14と、を備えている。マイクロフォン11は、入力された音に基づく電気信号を出力する。音声認識部12は、マイクロフォン11から出力される電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。ここでいう「音声認識」は、人の発する音声を文字列に変換する処理だけではなく、意味解析及び文脈解析等の自然言語処理を含んでいる。人検知部13は、マイクロフォン11のある空間R1(図4A参照)における人の存否を検知し、検知結果を検知情報として出力する。   The device control system 1 includes a microphone (sound input unit) 11, a voice recognition unit 12, a human detection unit 13, and a control unit 14. The microphone 11 outputs an electrical signal based on the input sound. The voice recognition unit 12 performs voice recognition based on the electrical signal output from the microphone 11 and outputs recognition information corresponding to the recognized voice. The "speech recognition" mentioned here includes not only the process of converting human speech into a character string but also natural language processing such as semantic analysis and context analysis. The human detection unit 13 detects the presence or absence of a person in a space R1 (see FIG. 4A) in which the microphone 11 is present, and outputs the detection result as detection information.

制御部14は、音声認識部12の出力する認識情報、及び人検知部13の出力する検知情報に基づいて、空間R1にある機器2の制御を行う。つまり、制御部14は、空間R1に人が存在するときには、認識情報に応じて空間R1にある機器2の制御を行い、空間R1に人が存在しないときには、認識情報を受け付けても空間R1にある機器2の制御を行わないことが可能である。   The control unit 14 controls the device 2 in the space R1 based on the recognition information output from the voice recognition unit 12 and the detection information output from the human detection unit 13. That is, when there is a person in the space R1, the control unit 14 controls the device 2 in the space R1 according to the recognition information, and when there is no person in the space R1, the control unit 14 receives the recognition information but does not It is possible not to control a certain device 2.

上述のように、本実施形態では、空間R1に人が存在しないときに、音声認識部12が人の発する音声を認識した場合であっても、空間R1にある機器2の制御を行わないようにすることが可能である。このため、本実施形態では、空間R1の外部から漏れる音(例えば、空間R1の外にいる人の発する音声)によって機器2を誤って制御する可能性を低減することができる、という利点がある。   As described above, in the present embodiment, when there is no person in the space R1, even if the speech recognition unit 12 recognizes the speech emitted by the person, the control of the device 2 in the space R1 is not performed. It is possible to For this reason, in the present embodiment, there is an advantage that the possibility of erroneously controlling the device 2 by a sound leaking from the outside of the space R1 (for example, a voice emitted by a person outside the space R1) can be reduced. .

(2)詳細
以下、本実施形態の機器制御システム1の構成について、図1を用いて詳細に説明する。既に述べたように、本実施形態の機器制御システム1は、マイクロフォン11と、音声認識部12と、人検知部13と、制御部14と、を備えている。更に、機器制御システム1は、記憶部15と、操作部16と、を備えている。
(2) Details Hereinafter, the configuration of the device control system 1 according to the present embodiment will be described in detail with reference to FIG. As described above, the device control system 1 according to the present embodiment includes the microphone 11, the voice recognition unit 12, the human detection unit 13, and the control unit 14. The device control system 1 further includes a storage unit 15 and an operation unit 16.

マイクロフォン(音入力部)11は、入力された音に基づく電気信号を出力する。具体的には、マイクロフォン11は、人の発する音声などの音を集音して電気信号に変換し、変換した電気信号を音声認識部12及び人検知部13にそれぞれ出力する。本実施形態では、マイクロフォン11はアナログ−ディジタル変換部(A/D変換部)を有しており、アナログの電気信号をディジタルの電気信号に変換して出力する。   The microphone (sound input unit) 11 outputs an electrical signal based on the input sound. Specifically, the microphone 11 collects a sound such as voice emitted by a person, converts it into an electric signal, and outputs the converted electric signal to the speech recognition unit 12 and the human detection unit 13 respectively. In the present embodiment, the microphone 11 has an analog-digital conversion unit (A / D conversion unit), converts an analog electric signal into a digital electric signal, and outputs it.

マイクロフォン11は、照明機器2の点灯、消灯を切り換える照明スイッチ3に内蔵されている(図2参照)。同様に、音声認識部12、人検知部13、制御部14、及び記憶部15も照明スイッチ3に内蔵されている。この照明スイッチ3は、照明機器2が設けられた空間R1(以下、「第1部屋R1」ともいう)の壁面に設置されている(図4A参照)。つまり、マイクロフォン11、人検知部13、及び照明機器2は、いずれも同一の空間R1に設けられている。   The microphone 11 is built in the illumination switch 3 for switching on and off of the illumination device 2 (see FIG. 2). Similarly, the voice recognition unit 12, the human detection unit 13, the control unit 14, and the storage unit 15 are also incorporated in the illumination switch 3. The lighting switch 3 is installed on the wall of a space R1 (hereinafter, also referred to as "first room R1") in which the lighting device 2 is provided (see FIG. 4A). That is, the microphone 11, the human detection unit 13, and the lighting device 2 are all provided in the same space R1.

音声認識部12は、例えばプロセッサ及びメモリを主構成とするマイクロコンピュータにて構成されている。つまり、音声認識部12は、プロセッサ及びメモリを有するコンピュータシステムで実現されている。そして、プロセッサが適宜のプログラムを実行することにより、コンピュータシステムが音声認識部12として機能する。プログラムは、メモリに予め記録されていてもよいし、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。   The voice recognition unit 12 is configured of, for example, a microcomputer whose main configuration is a processor and a memory. That is, the speech recognition unit 12 is realized by a computer system having a processor and a memory. The computer system functions as the speech recognition unit 12 by the processor executing an appropriate program. The program may be pre-recorded in a memory, or may be provided through a telecommunication line such as the Internet or in a non-transitory recording medium such as a memory card.

人検知部13及び制御部14も、音声認識部12と同様に、それぞれ例えばマイクロコンピュータにて構成されている。つまり、人検知部13及び制御部14も、音声認識部12と同様に、プロセッサ及びメモリを有するコンピュータシステムで実現されている。   The human detection unit 13 and the control unit 14 are also configured by, for example, microcomputers, similarly to the voice recognition unit 12. That is, the human detection unit 13 and the control unit 14 are also realized by a computer system having a processor and a memory, like the voice recognition unit 12.

音声認識部12は、マイクロフォン11から出力される電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。具体的には、音声認識部12は、電気信号と、記憶部15に予め記憶されている複数の音声モデルとを比較し、電気信号と一致又は類似する音声モデルが存在すれば、マイクロフォン11に入力された音に指示音声が含まれていると認識する。ここでいう「指示音声」とは、照明機器2に対する指示を表す音声である。指示音声には、例えば、[点灯(又はオン)]、[消灯(又はオフ)]、[もっと明るく]、[もっと暗く]、[電球色]、又は[昼白色]などがある。   The voice recognition unit 12 performs voice recognition based on the electrical signal output from the microphone 11 and outputs recognition information corresponding to the recognized voice. Specifically, the voice recognition unit 12 compares the electrical signal with a plurality of voice models stored in advance in the storage unit 15, and if there is a voice model that matches or is similar to the electrical signal, the microphone 11 It recognizes that the input sound contains an instruction voice. The “instruction sound” mentioned here is a sound representing an instruction to the lighting device 2. The instruction sound includes, for example, [ON (or ON)], [OFF (or OFF)], [Brighter], [Darker], [Light bulb color], or [Daylight White].

音声認識部12は、指示音声を認識した場合、認識した指示音声に対応する認識情報を制御部14へ出力する。本実施形態では、認識情報は、指示音声に予め対応付けられているコマンドである。ここでいう「コマンド」は、コンピュータシステム(ここでは、制御部14)に特定の機能の実行を指示する命令を意味する。本実施形態では、複数のコマンドは、それぞれ複数の指示音声と1対1に予め対応付けられている。例えば、[点灯(又はオン)]の指示音声に対応するコマンドは、点灯コマンドであり、[消灯(またはオフ)]の指示音声に対応するコマンドは、消灯コマンドである。また、[もっと明るく]の指示音声に対応するコマンドは、第1調光コマンドであり、[もっと暗く]の指示音声に対応するコマンドは、第2調光コマンドである。また、[電球色]の指示音声に対応するコマンドは、第1調色コマンドであり、[昼白色]の指示音声に対応するコマンドは、第2調色コマンドである。音声認識部12は、記憶部15に記憶されている複数のコマンドと複数の指示音声との対応関係を表す情報を参照することで、認識した指示音声に対応するコマンドを読み出し、読み出したコマンドを制御部14へ出力する。   When the voice recognition unit 12 recognizes the command voice, the voice recognition unit 12 outputs recognition information corresponding to the recognized command voice to the control unit 14. In the present embodiment, the recognition information is a command previously associated with the instruction voice. The “command” mentioned here means an instruction for instructing the computer system (here, the control unit 14) to execute a specific function. In the present embodiment, the plurality of commands are associated in advance with the plurality of instruction voices in one-to-one correspondence. For example, the command corresponding to the instruction sound of [lighting (or on)] is a lighting command, and the command corresponding to the instruction sound of [lighting off (or off)] is a light extinction command. Further, the command corresponding to the [more bright] instruction voice is a first dimming command, and the command corresponding to the [more dark] instruction voice is a second dimming command. Further, the command corresponding to the instruction sound of [bulb color] is a first color adjustment command, and the command corresponding to the instruction sound of [daylight white] is a second color adjustment command. The voice recognition unit 12 reads the command corresponding to the recognized instruction voice by referring to the information indicating the correspondence between the plurality of commands stored in the storage unit 15 and the plurality of instruction voices, and reads the read command. It outputs to the control unit 14.

本実施形態では、音声認識部12は、人検知部13からの検知情報に依らず、音声認識を行っている。つまり、音声認識部12は、空間R1に人が存在しないときであっても、音声認識を行っている。このため、本実施形態では、空間R1に人が存在しない状況でも、音声認識技術を用いることで、照明機器2の制御以外の機能を実現することが可能である、という利点がある。   In the present embodiment, the voice recognition unit 12 performs voice recognition regardless of the detection information from the human detection unit 13. That is, the speech recognition unit 12 performs speech recognition even when there is no person in the space R1. For this reason, this embodiment has an advantage that it is possible to realize functions other than the control of the lighting device 2 by using the voice recognition technology even in a situation where no person is present in the space R1.

例えば、音声認識部12は、空間R1に人が存在しないときに音声認識を行うことにより、空間R1の環境音を測定する機能を有することが考えられる。この場合、音声認識部12は、マイクロフォン11に入力される音から空間R1の環境音を除去した上で音声認識を行うことが可能となり、人の発する音声の認識精度を向上することができる。また、例えば、音声認識部12は、空間R1に人が存在しないときに音声認識を行うことにより、窓ガラスの割れた音などを認識することで、空間R1に第三者が侵入したか否かを判断する機能を有することが考えられる。具体的には、音声認識部12が窓ガラスの割れた音を認識した後に、人検知部13が空間R1に人が存在することを検知した場合、空間R1に第三者が侵入した可能性が高い。このような場合に、機器制御システム1に接続されたブザーを鳴動させることで、防犯効果が期待できる。   For example, it is conceivable that the speech recognition unit 12 has a function of measuring the environmental sound of the space R1 by performing speech recognition when there is no person in the space R1. In this case, the voice recognition unit 12 can perform voice recognition after removing the environmental sound in the space R1 from the sound input to the microphone 11, and can improve the recognition accuracy of the voice emitted by a person. Further, for example, the voice recognition unit 12 performs voice recognition when there is no person in the space R1, thereby recognizing whether or not a third person has invaded the space R1 by recognizing the broken sound of the window glass or the like. It is conceivable to have a function to determine whether or not. Specifically, when the human detection unit 13 detects that there is a person in the space R1 after the speech recognition unit 12 recognizes the broken sound of the window glass, there is a possibility that a third party has invaded the space R1. Is high. In such a case, a burglarproof effect can be expected by ringing a buzzer connected to the device control system 1.

人検知部13は、空間R1(つまり、マイクロフォン11のある空間)における人の存否を検知し、検知結果を検知情報として出力する。本実施形態では、人検知部13は、マイクロフォン11に入力される音、特に音声認識部12にて音声認識で用いる音声以外の音に基づいて、空間R1における人の存否を検知する。具体的には、人検知部13は、マイクロフォン11に入力された音の音圧レベルの他、マイクロフォン11に入力された音の直接波及び反射波の情報などに基づいて、音が空間R1で発生したか否かを識別する。ここでいう「直接波」は、音の発生源から直接(つまり、物体で反射せずに)マイクロフォン11に入力される音波である。また、ここでいう「反射波」は、音の発生源から放射された音波のうち、物体(例えば、壁、ドア等)で反射した後にマイクロフォン11に入力される音波である。例えば、人検知部13は、マイクロフォン11に直接波が入力された後に反射波が入力された場合に、音が空間R1で発生したと識別する。   The human detection unit 13 detects the presence or absence of a person in the space R1 (that is, the space where the microphone 11 is located), and outputs the detection result as detection information. In the present embodiment, the human detection unit 13 detects the presence or absence of a person in the space R1 based on a sound input to the microphone 11, particularly a sound other than voice used in voice recognition by the voice recognition unit 12. Specifically, based on the sound pressure level of the sound input to the microphone 11 and the information on the direct wave and the reflected wave of the sound input to the microphone 11, the human detection unit 13 generates a sound in the space R1. Identify if it has occurred. The “direct wave” referred to here is a sound wave input from the sound source directly (that is, without being reflected by the object) to the microphone 11. Further, the “reflected wave” referred to here is a sound wave that is input to the microphone 11 after being reflected by an object (for example, a wall, a door or the like) among sound waves emitted from a sound generation source. For example, when a reflected wave is input after the direct wave is input to the microphone 11, the human detection unit 13 identifies that the sound is generated in the space R1.

人検知部13は、音が空間R1で発生したと識別した場合、空間R1に人が存在すると検知する。一方、人検知部13は、上記の場合以外であれば、空間R1に人が存在しないと検知する。例えば、人検知部13は、マイクロフォン11に音が入力された場合であっても、音が空間R1で発生していないと識別すれば、空間R1に人が存在しないと検知する。   The human detection unit 13 detects that a person is present in the space R1 when it is determined that a sound is generated in the space R1. On the other hand, the person detection unit 13 detects that there is no person in the space R1 except in the above case. For example, even if a sound is input to the microphone 11, the human detection unit 13 detects that there is no person in the space R1 if it is determined that the sound is not generated in the space R1.

人検知部13は、例えばLレベル(Low level)とHレベル(High level)の2つの信号レベルをとる2値信号を制御部14に出力することで、検知情報を制御部14に出力する。人検知部13は、空間R1に人が存在していると検知している間は、Hレベルの2値信号を制御部14に出力することで、空間R1に人が存在するという検知情報を制御部14に出力する。一方、人検知部13は、空間R1に人が存在していないと検知している間は、Lレベルの2値信号を制御部14に出力することで、空間R1に人が存在しないという検知情報を制御部14に出力する。   The human detection unit 13 outputs detection information to the control unit 14, for example, by outputting a binary signal having two signal levels, L level (Low level) and H level (High level), to the control unit 14. While detecting that a person is present in the space R1, the human detection unit 13 outputs a binary signal of H level to the control unit 14 to detect detection information indicating that a person is present in the space R1. It is output to the control unit 14. On the other hand, while detecting that there is no person in the space R1, the person detection unit 13 outputs a binary signal of L level to the control unit 14 to detect that there is no person in the space R1. The information is output to the control unit 14.

制御部14は、空間R1にある照明機器2を制御する。具体的には、制御部14は、空間R1にある照明機器2との有線通信又は無線通信により、照明機器2を制御するための制御信号を照明機器2へ送信することで、照明機器2を制御する。制御部14は、音声認識部12からの認識情報、及び人検知部13からの検知情報に基づいて、空間R1(つまり、マイクロフォン11及び人検知部13の存在する空間)にある照明機器2の制御を行う。具体的には、制御部14は、空間R1に人が存在するという検知情報を受けている間に、音声認識部12からの認識情報を受けると、認識情報に応じて照明機器2を制御する。   The control unit 14 controls the lighting device 2 in the space R1. Specifically, the control unit 14 transmits the control signal for controlling the lighting device 2 to the lighting device 2 by wired communication or wireless communication with the lighting device 2 in the space R1. Control. Based on the recognition information from the voice recognition unit 12 and the detection information from the human detection unit 13, the control unit 14 of the lighting device 2 in the space R1 (that is, the space where the microphone 11 and the human detection unit 13 exist). Take control. Specifically, the control unit 14 controls the lighting apparatus 2 according to the recognition information when receiving the recognition information from the voice recognition unit 12 while receiving the detection information that there is a person in the space R1. .

例えば、認識情報に点灯コマンドが含まれている場合、制御部14は、照明機器2を点灯させるために、照明機器2の光出力を所定値まで増加させる点灯制御を実行する。認識情報に消灯コマンドが含まれている場合、制御部14は、照明機器2を消灯させるために、照明機器2の光出力を低下させる消灯制御を実行する。認識情報に第1調光コマンドが含まれている場合、制御部14は、照明機器2の光出力を所定量だけ増加させる調光制御を実行する。認識情報に第2調光コマンドが含まれている場合、制御部14は、照明機器2の光出力を所定量だけ低下させる調光制御を実行する。認識情報に第1調色コマンドが含まれている場合、制御部14は、照明機器2の発光色が電球色となるように調色制御を実行する。認識情報に第2調色コマンドが含まれている場合、制御部14は、照明機器2の発光色が昼白色となるように調色制御を実行する。   For example, when the lighting information is included in the recognition information, the control unit 14 performs lighting control to increase the light output of the lighting device 2 to a predetermined value in order to light the lighting device 2. When the turn-off command is included in the recognition information, the control unit 14 performs turn-off control to reduce the light output of the lighting device 2 in order to turn off the lighting device 2. When the first dimming command is included in the recognition information, the control unit 14 performs dimming control to increase the light output of the lighting device 2 by a predetermined amount. When the second dimming command is included in the recognition information, the control unit 14 executes the dimming control to reduce the light output of the lighting device 2 by a predetermined amount. When the first color adjustment command is included in the recognition information, the control unit 14 performs the color adjustment control so that the light emission color of the lighting device 2 becomes a light bulb color. When the second color adjustment command is included in the recognition information, the control unit 14 performs the color adjustment control so that the light emission color of the lighting device 2 becomes daylight white.

一方、制御部14は、空間R1に人が存在しないという検知情報を受けている間、音声認識部12からの認識情報を受けても、認識情報に応じた照明機器2の制御を行わない。例えば、制御部14は、音声認識部12から点灯コマンドを含む認識情報を受けた場合でも、空間R1に人が存在していなければ、照明機器2の点灯制御を実行しない。   On the other hand, while receiving the detection information that there is no person in the space R1, the control unit 14 does not control the lighting device 2 according to the recognition information even if it receives the recognition information from the voice recognition unit 12. For example, even when the control unit 14 receives the recognition information including the lighting command from the voice recognition unit 12, the lighting control of the lighting device 2 is not performed unless there is a person in the space R1.

記憶部15は、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含んでいる。記憶部15には、上述の複数の音声モデル、複数のコマンド、及び複数の指示音声と複数のコマンドとの対応関係を表す情報が記憶されている。   The storage unit 15 includes, for example, a rewritable nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory). The storage unit 15 stores information representing the correspondence between the plurality of voice models, the plurality of commands, and the plurality of instruction voices and the plurality of commands.

操作部16は、タッチ操作を受け付ける。具体的には、操作部16は、タッチセンサを備えている。タッチセンサは、照明スイッチ3の前面に設定されている操作面150(図2参照)上の人の動作(タッチ操作)を測定(検出)するために用いられる。タッチセンサは、操作面150において人が触れた位置を検出して出力する。   The operation unit 16 receives a touch operation. Specifically, the operation unit 16 includes a touch sensor. The touch sensor is used to measure (detect) a motion (touch operation) of a person on the operation surface 150 (see FIG. 2) set on the front surface of the light switch 3. The touch sensor detects and outputs the position touched by a person on the operation surface 150.

制御部14は、タッチセンサで測定された操作面150に対する人の動作に応じた照明機器2の制御を行う。具体的には、制御部14は、タッチセンサで測定された動作が予め設定された互いに異なる複数の動作のいずれに該当するかを判定し、判定された動作に対応する照明機器2の制御を実行する。つまり、制御部14は、認識情報の有無に依らず、操作部16が受け付けたタッチ操作に応じて、照明機器2の制御を行う。   The control unit 14 controls the lighting device 2 according to the operation of the person on the operation surface 150 measured by the touch sensor. Specifically, the control unit 14 determines which of a plurality of different operations set in advance that the operation measured by the touch sensor corresponds to, and controls the lighting device 2 corresponding to the determined operation. Run. That is, the control unit 14 controls the lighting device 2 according to the touch operation received by the operation unit 16 regardless of the presence or absence of the recognition information.

(3)動作
以下、本実施形態の機器制御システム1の動作について図3を用いて説明する。まず、マイクロフォン11に音が入力されると(ステップS1)、マイクロフォン11は、入力された音に基づく電気信号を出力する。次に、音声認識部12は、マイクロフォン11からの電気信号に基づいて音声認識を行う(ステップS2)。音声認識の結果、マイクロフォン11に入力された音に指示音声が含まれていれば(ステップS3:Yes)、音声認識部12は、指示音声に対応するコマンドを含む認識情報を制御部14へ出力する。一方、音声認識の結果、マイクロフォン11に入力された音に指示音声が含まれていなければ(ステップS3:No)、音声認識部12は、制御部14に対して何も出力しない。
(3) Operation Hereinafter, the operation of the device control system 1 of the present embodiment will be described with reference to FIG. First, when a sound is input to the microphone 11 (step S1), the microphone 11 outputs an electrical signal based on the input sound. Next, the voice recognition unit 12 performs voice recognition based on the electrical signal from the microphone 11 (step S2). As a result of the speech recognition, if the voice input to the microphone 11 includes the instruction voice (step S3: Yes), the voice recognition unit 12 outputs the recognition information including the command corresponding to the instruction voice to the control unit 14 Do. On the other hand, as a result of the speech recognition, if the sound input to the microphone 11 does not include the instruction speech (Step S3: No), the speech recognition unit 12 outputs nothing to the control unit 14.

次に、人検知部13は、空間R1における人の存否を検知する(ステップS4)。なお、図3に示す例では、人検知部13による検知は、音声認識部12による音声認識の後に実行されているが、このタイミングに限定する趣旨ではない。人検知部13による検知は、音声認識部12による音声認識の実行タイミングに依らず、実行されているのが好ましい。人検知部13による検知の結果、空間R1に人が存在している場合(ステップS5:Yes)、制御部14は、音声認識部12からの認識情報に応じて、機器2を制御する(ステップS6)。一方、人検知部13による検知の結果、空間R1に人が存在していない場合(ステップS5:No)、制御部14は、機器2の制御を実行しない。   Next, the human detection unit 13 detects the presence or absence of a person in the space R1 (step S4). Although detection by the human detection unit 13 is performed after voice recognition by the voice recognition unit 12 in the example shown in FIG. 3, the present invention is not limited to this timing. It is preferable that the detection by the human detection unit 13 be performed regardless of the execution timing of the speech recognition by the speech recognition unit 12. When a person is present in the space R1 as a result of detection by the person detection unit 13 (step S5: Yes), the control unit 14 controls the device 2 according to the recognition information from the speech recognition unit 12 (step S6). On the other hand, as a result of detection by the human detection unit 13, when no person exists in the space R1 (step S5: No), the control unit 14 does not execute control of the device 2.

以下、機器制御システム1の動作の具体例について図4A、図4B、及び図5を用いて説明する。以下では、空間(第1部屋)R1の隣に、壁及びドアで隔てられた空間R1とは異なる空間(以下、「第2部屋R2」ともいう)が存在すると仮定する。また、以下では、第1部屋R1にある照明機器2は消灯していると仮定する。   Hereinafter, a specific example of the operation of the device control system 1 will be described with reference to FIGS. 4A, 4B, and 5. In the following, it is assumed that a space different from the space R1 separated by the wall and the door (hereinafter, also referred to as "second room R2") exists next to the space (first room) R1. Moreover, below, it is assumed that the lighting equipment 2 in the first room R1 is turned off.

まず、図4Aに示すように、第1部屋R1に人A1が存在する場合、人検知部13は、人A1の行動に起因する音に基づいて、第1部屋R1に人A1が存在すると検知する。このため、制御部14は、第1部屋R1に人A1が滞在している間、第1部屋R1に人A1が存在するという検知情報を人検知部13から受ける。ここで、第1部屋R1にいる人A1が、[点灯(又はオン)]の指示音声を含む音声V1を発した場合、音声認識部12は、この指示音声を認識し、点灯コマンドを含む認識情報を制御部14へ出力する。制御部14は、第1部屋R1に人が存在するという検知情報を受けているので、点灯コマンドに応じて、照明機器2の点灯制御を実行する。これにより、図4Bに示すように、照明機器2が点灯する。このように、第1部屋R1に人A1が存在する場合には、制御部14は、人A1の発する指示音声に応じた照明機器2の制御を実行する。   First, as shown to FIG. 4A, when person A1 exists in 1st room R1, the person detection part 13 detects that person A1 exists in 1st room R1 based on the sound resulting from the action of person A1. Do. Therefore, the control unit 14 receives, from the person detection unit 13, detection information indicating that the person A1 is present in the first room R1 while the person A1 is staying in the first room R1. Here, when the person A1 who is in the first room R1 issues a voice V1 including an instruction voice of [lighting (or on)], the voice recognition unit 12 recognizes the instruction voice, and recognizes that the lighting command is included. The information is output to the control unit 14. Since the control unit 14 receives the detection information that there is a person in the first room R1, the control unit 14 performs lighting control of the lighting device 2 according to the lighting command. Thereby, as shown to FIG. 4B, the illuminating device 2 lights. Thus, when person A1 exists in 1st room R1, control part 14 performs control of lighting equipment 2 according to the directions sound which person A1 emits.

次に、図5に示すように、第1部屋R1に人が存在しない場合、人検知部13は、空間R1にて音が発生しないので、第1部屋R1に人が存在しないと検知する。このため、制御部14は、第1部屋R1に人が存在しない間、第1部屋R1に人が存在しないという検知情報を人検知部13から受ける。ここで、第2部屋R2にいる人A2,A3が会話をしており、かつ、人A2,A3の発する音声V2,V3の少なくとも一方に、[点灯(又はオン)]の指示音声として音声認識部12が認識し得る音声が含まれていると仮定する。この場合、マイクロフォン11には、第2部屋R2から第1部屋R1へ漏れ伝わる音声V2,V3が入力される可能性がある。また、音声認識部12は、音声V2,V3に含まれる指示音声を認識し、点灯コマンドを含む認識情報を制御部14へ出力する可能性がある。しかしながら、制御部14は、第1部屋R1に人が存在しないという検知情報を受けているので、音声認識部12から認識情報を受けても、認識情報に応じた照明機器2の制御を実行しない。このため、照明機器2は、消灯した状態を維持する。このように、第1部屋R1に人が存在しない場合には、仮に指示音声を含む音声が第2部屋R2などの他の空間から第1部屋R1に漏れ伝わったとしても、制御部14は、照明機器2の制御を実行しない。   Next, as shown in FIG. 5, when there is no person in the first room R1, the person detection unit 13 detects that there is no person in the first room R1 because no sound is generated in the space R1. For this reason, the control unit 14 receives, from the person detection unit 13, detection information indicating that there is no person in the first room R1 while there is no person in the first room R1. Here, people A2 and A3 who are in the second room R2 are in conversation, and at least one of the voices V2 and V3 emitted by the people A2 and A3 is voice recognition as an instruction voice of [ON (or ON)]. It is assumed that the voice which can be recognized by the unit 12 is included. In this case, voices V2 and V3 leaked from the second room R2 to the first room R1 may be input to the microphone 11. In addition, the voice recognition unit 12 may recognize instruction voices included in the voices V2 and V3 and output recognition information including a lighting command to the control unit 14. However, since the control unit 14 receives the detection information that there is no person in the first room R1, even if it receives the recognition information from the voice recognition unit 12, it does not execute the control of the lighting device 2 according to the recognition information. . Therefore, the lighting apparatus 2 maintains the light-off state. As described above, when there is no person in the first room R1, the control unit 14 temporarily transmits an audio including an instruction voice to the first room R1 from another space such as the second room R2, Control of the lighting apparatus 2 is not performed.

上述のように、本実施形態では、空間(第1部屋)R1に人が存在しないときに、音声認識部12が人の発する音声を指示音声として認識した場合であっても、空間R1にある機器2の制御を行わないようにすることが可能である。このため、本実施形態では、空間R1の外部から漏れる音(例えば、空間R1の外にいる人の発する音声)によって機器2を誤って制御する可能性を低減することができる、という利点がある。   As described above, in the present embodiment, when there is no person in the space (first room) R1, even in the case where the voice recognition unit 12 recognizes the voice emitted by the person as the instruction voice, it is in the space R1. It is possible not to control the device 2. For this reason, in the present embodiment, there is an advantage that the possibility of erroneously controlling the device 2 by a sound leaking from the outside of the space R1 (for example, a voice emitted by a person outside the space R1) can be reduced. .

(4)変形例
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
(4) Modifications The above-described embodiment is only one of various embodiments of the present disclosure. The above-mentioned embodiment can be variously changed according to design etc. if the object of the present disclosure can be achieved. Hereinafter, modifications of the above-described embodiment will be listed. The modifications described below can be applied in combination as appropriate.

(4.1)第1変形例
第1変形例では、図6に示すように、機器制御システム1が照明スイッチ3とサーバ4とに分散して設けられている点で、上述の実施形態と相違する。本変形例では、照明スイッチ3は、機器制御システム1のうちマイクロフォン11と、人検知部13と、制御部14と、操作部16と、を備えている。また、照明スイッチ3は、第1通信部17を更に備えている。
(4.1) First Modified Example In the first modified example, as shown in FIG. 6, the device control system 1 is provided in a distributed manner in the lighting switch 3 and the server 4. It is different. In the present modification, the illumination switch 3 includes the microphone 11, the human detection unit 13, the control unit 14, and the operation unit 16 in the device control system 1. The lighting switch 3 further includes a first communication unit 17.

サーバ4は、照明スイッチ3が設置される建物から離れた場所、例えば照明スイッチ3の提供元、又は照明スイッチ3を用いたサービスの提供元が所有する施設に設けられている。サーバ4は、例えばプロセッサ及びメモリを含むコンピュータシステム(マイクロコンピュータを含む)を主構成とする。つまり、コンピュータシステムは、適宜のプログラムをプロセッサにて実行することにより、サーバ4として機能する。サーバ4は、機器制御システム1のうち音声認識部12と、記憶部15と、を備えている。また、サーバ4は、第2通信部18を更に備えている。   The server 4 is provided at a location distant from a building where the light switch 3 is installed, for example, at a facility owned by a provider of the light switch 3 or a provider of a service using the light switch 3. The server 4 mainly includes a computer system (including a microcomputer) including, for example, a processor and a memory. That is, the computer system functions as the server 4 by executing an appropriate program on the processor. The server 4 includes a voice recognition unit 12 and a storage unit 15 in the device control system 1. The server 4 further includes a second communication unit 18.

照明スイッチ3の第1通信部17と、サーバ4の第2通信部18とは、例えばインターネット等のネットワークNT1を介して、双方向に通信可能に構成されている。本変形例では、第1通信部17と第2通信部18との通信方式としては、ネットワークNT1を用いた無線通信方式が適用される。   The first communication unit 17 of the light switch 3 and the second communication unit 18 of the server 4 are configured to be able to communicate in both directions via the network NT1 such as the Internet, for example. In the present modification, a wireless communication method using the network NT1 is applied as the communication method between the first communication unit 17 and the second communication unit 18.

以下、本変形例の機器制御システム1の動作のうち、上述の実施形態とは異なる動作について説明する。本変形例では、マイクロフォン11は、人の発する音声などの音を集音して電気信号に変換し、変換した電気信号を人検知部13及び第1通信部17にそれぞれ出力する。第1通信部17は、マイクロフォン11からの電気信号を受信すると、受信した電気信号をネットワークNT1を介して第2通信部18へ送信する。第2通信部18は、第1通信部17からの電気信号を受信すると、受信した電気信号を音声認識部12へ出力する。   Hereinafter, among the operations of the device control system 1 of the present modification, an operation different from the above-described embodiment will be described. In the present modification, the microphone 11 collects a sound such as voice emitted by a person, converts it into an electric signal, and outputs the converted electric signal to the human detection unit 13 and the first communication unit 17, respectively. When the first communication unit 17 receives the electric signal from the microphone 11, the first communication unit 17 transmits the received electric signal to the second communication unit 18 via the network NT1. When the second communication unit 18 receives the electric signal from the first communication unit 17, the second communication unit 18 outputs the received electric signal to the voice recognition unit 12.

音声認識部12は、第2通信部18からの電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を第2通信部18へ出力する。第2通信部18は、音声認識部12からの認識情報を受信すると、受信した認識情報をネットワークNT1を介して第1通信部17へ送信する。第1通信部17は、第2通信部18からの認識情報を受信すると、受信した認識情報を制御部14へ出力する。制御部14は、人検知部13からの検知情報、及び第2通信部18からの認識情報に基づいて、照明機器2の制御を行う。   The voice recognition unit 12 performs voice recognition based on the electric signal from the second communication unit 18, and outputs recognition information corresponding to the recognized voice to the second communication unit 18. When the second communication unit 18 receives the recognition information from the voice recognition unit 12, the second communication unit 18 transmits the received recognition information to the first communication unit 17 via the network NT1. When the first communication unit 17 receives the recognition information from the second communication unit 18, the first communication unit 17 outputs the received recognition information to the control unit 14. The control unit 14 controls the lighting device 2 based on the detection information from the human detection unit 13 and the recognition information from the second communication unit 18.

このように、本変形例では、音声認識部12による音声認識処理は、照明スイッチ3ではなく、サーバ4で実行される。本変形例では、処理負荷が比較的大きい音声認識処理をサーバ4に実行させることで、照明スイッチ3での演算処理の負荷を低減することが可能になる、という利点がある。   As described above, in the present modification, the speech recognition process by the speech recognition unit 12 is executed not by the illumination switch 3 but by the server 4. In this modification, there is an advantage that it is possible to reduce the load of arithmetic processing in the illumination switch 3 by making the server 4 execute voice recognition processing with a relatively large processing load.

(4.2)第2変形例
第2変形例は、図7に示すように、マイクロフォン11に入力された音に基づいて人の存否を検知するのではなく、人感センサ5により人の存否を検知する点で上述の実施形態と相違する。つまり、本変形例では、人検知部13は、人感センサ5である。
(4.2) Second Modified Example In the second modified example, as shown in FIG. 7, the presence / absence of a person is not detected based on the sound input to the microphone 11, but the presence / absence of a person is detected by the human sensor 5. Is different from the above-described embodiment in that That is, in the present modification, the human detection unit 13 is the human sensor 5.

人感センサ5は、例えば空間(第1部屋)R1の天井材に設けられる。人感センサ5は、例えば焦電型の赤外線センサであって、検知エリア内における人の存否を検知する。図7に示す点線は、人感センサ5の検知エリアを表している。つまり、人感センサ5は、検知エリア(ここでは、第1部屋R1)内における人の存否を検知する。人感センサ5は、有線通信又は無線通信により、検知情報を含む検知信号を照明スイッチ3の制御部14へ送信する。制御部14は、音声認識部12からの認識情報、及び人感センサ5からの検知情報に基づいて、照明機器2の制御を行う。   The human sensor 5 is provided, for example, on the ceiling material of the space (first room) R1. The human sensor 5 is, for example, a pyroelectric infrared sensor, and detects the presence or absence of a person in the detection area. The dotted line shown in FIG. 7 represents the detection area of the human sensor 5. That is, the human sensor 5 detects the presence or absence of a person in the detection area (here, the first room R1). The human sensor 5 transmits a detection signal including detection information to the control unit 14 of the lighting switch 3 by wired communication or wireless communication. The control unit 14 controls the lighting device 2 based on the recognition information from the voice recognition unit 12 and the detection information from the human sensor 5.

以下、本変形例の機器制御システム1の動作の一例について図7を用いて説明する。図7に示す例では、第1部屋R1に人が存在しないため、人感センサ5は、第1部屋R1に人が存在しないと検知する。このため、制御部14は、第1部屋R1に人が存在しない間、第1部屋R1に人が存在しないという検知情報を人感センサ5から受ける。ここで、第2部屋R2にいる人A2,A3が会話をしており、かつ、人A2,A3の発する音声V2,V3の少なくとも一方に、[点灯(又はオン)]の指示音声として音声認識部12が認識し得る音声が含まれていると仮定する。この場合、制御部14は、第1部屋R1に人が存在しないという検知情報を受けているので、音声認識部12から認識情報を受けても、認識情報に応じた照明機器2の制御を実行しない。   Hereinafter, an example of the operation of the device control system 1 of the present modification will be described using FIG. In the example shown in FIG. 7, since no person exists in the first room R1, the human sensor 5 detects that no person exists in the first room R1. For this reason, the control unit 14 receives, from the human detection sensor 5, detection information indicating that there is no person in the first room R1 while there is no person in the first room R1. Here, people A2 and A3 who are in the second room R2 are in conversation, and at least one of the voices V2 and V3 emitted by the people A2 and A3 is voice recognition as an instruction voice of [ON (or ON)]. It is assumed that the voice which can be recognized by the unit 12 is included. In this case, since the control unit 14 receives the detection information that there is no person in the first room R1, even if the recognition information is received from the voice recognition unit 12, the control of the lighting apparatus 2 according to the recognition information is executed. do not do.

本変形例では、空間R1は、部屋などの遮蔽物で囲まれた空間でなくてもよい。例えば、遮蔽物で区画されていない空間において、特定の領域が空間R1であり、かつ検知エリアとなるように人感センサ5を設置してもよい。この場合、制御部14は、特定の領域における人の存否に応じて、照明機器2を制御することが可能である。   In the present variation, the space R1 may not be a space surrounded by a shield such as a room. For example, in a space which is not partitioned by a shield, the human sensor 5 may be installed so that the specific area is the space R1 and the detection area. In this case, the control unit 14 can control the lighting device 2 according to the presence or absence of a person in a specific area.

(5)その他の変形例
以下、その他の変形例について列挙する。以下に説明する変形例は、「(4)変形例」に列挙した変形例を含めて、適宜組み合わせて適用可能である。
(5) Other Modifications Hereinafter, other modifications will be listed. The modifications described below, including the modifications listed in “(4) Modifications”, can be appropriately combined and applied.

本開示における機器制御システム1の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における機器制御システム1の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。   The execution subject of the device control system 1 in the present disclosure includes a computer system. A computer system has a processor and memory as hardware. The processor executes the program stored in the memory of the computer system to implement the function as the execution subject of the device control system 1 in the present disclosure. The program may be pre-recorded in the memory of the computer system, but may be provided through a telecommunication line. Also, the program may be provided by being recorded in a non-transitory recording medium such as a memory card readable by a computer system, an optical disk, a hard disk drive and the like. A processor of a computer system is configured of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). The plurality of electronic circuits may be integrated into one chip or may be distributed to a plurality of chips. The plurality of chips may be integrated into one device or may be distributed to a plurality of devices.

上述の実施形態において、音声認識部12は、空間R1における人の存否に応じて、音声認識のモードを変更してもよい。言い換えれば、音声認識部12は、人検知部13からの検知情報に応じて、音声認識のモードを変更してもよい。この態様では、音声認識部12は、人検知部13からの検知情報を受け付ける。例えば、音声認識部12は、空間R1に人が存在しないという検知情報を受けている間、人の発する音声を認識する必要がないので、音声認識のモードを、空間R1の環境音を測定するモードに変更する。この場合、音声認識部12は、例えば人の発する音声の周波数をフィルタリングしてもよい。また、音声認識部12は、空間R1に人が存在するという検知情報を受けている間、音声認識のモードを、人の発する音声を認識するモードに変更する。この場合、音声認識部12は、例えば空間R1の環境音の周波数をフィルタリングしてもよい。   In the above embodiment, the speech recognition unit 12 may change the speech recognition mode according to the presence or absence of a person in the space R1. In other words, the voice recognition unit 12 may change the voice recognition mode in accordance with the detection information from the human detection unit 13. In this aspect, the voice recognition unit 12 receives the detection information from the human detection unit 13. For example, while receiving the detection information that there is no person in the space R1, the speech recognition unit 12 does not have to recognize the speech emitted by the person, so the speech recognition mode measures the environmental sound of the space R1. Change to mode. In this case, the voice recognition unit 12 may filter, for example, the frequency of voice emitted by a person. Further, while receiving the detection information that there is a person in the space R1, the speech recognition unit 12 changes the mode of the speech recognition to a mode in which the speech emitted by the person is recognized. In this case, the speech recognition unit 12 may filter the frequency of the environmental sound in the space R1, for example.

上述の実施形態において、制御部14は、空間R1における人の存否に応じて、反応するコマンドを変更してもよい。言い換えれば、制御部14は、人検知部13からの検知情報に応じて、受け付ける認識情報を変更してもよい。例えば、制御部14は、空間R1に人が存在する場合、点灯コマンド、消灯コマンド、第1調光コマンド、第2調光コマンド、第1調色コマンド、又は第2調色コマンドを含む認識情報を受け付ける。一方、制御部14は、空間R1に人が存在しない場合、消灯コマンドを含む認識情報のみを受け付ける。この態様では、例えば人が照明機器2を消灯せずに空間R1の外に出た場合に、照明機器2の消灯を指示する音声を発すれば、わざわざ空間R1に戻らずとも照明機器2を消灯することが可能である。   In the above-mentioned embodiment, control part 14 may change a command which responds according to the person's existence in space R1. In other words, the control unit 14 may change the received recognition information in accordance with the detection information from the person detection unit 13. For example, when there is a person in the space R1, the control unit 14 recognizes recognition information including a lighting command, a lighting off command, a first dimming command, a second dimming command, a first toning command, or a second toning command. Accept On the other hand, when there is no person in the space R1, the control unit 14 receives only the recognition information including the turn-off command. In this aspect, for example, when a person goes out of the space R1 without turning off the lighting device 2, if a voice instructing the turning off of the lighting device 2 is emitted, the lighting device 2 is not turned back to the space R1. It is possible to turn off.

上述の実施形態において、制御部14は、空間R1における人の存否に応じて、機器2の制御内容を変更してもよい。言い換えれば、制御部14は、人検知部13からの検知情報に応じて、機器2の制御内容を変更してもよい。例えば、照明機器2が常夜灯を有していると仮定する。制御部14は、空間R1に人が存在するときに、消灯コマンドを含む認識情報を受け付けると、常夜灯を除いた光源を消灯する制御を実行する。つまり、この場合、常夜灯は点灯状態を継続する。一方、制御部14は、空間R1に人が存在しないときに、消灯コマンドを含む認識情報を受け付けると、常夜灯を含めて全ての光源を消灯する制御を実行する。このように、制御部14は、同一の制御を指示するコマンドを受け付けた場合であっても、空間R1における人の存否に応じて、照明機器2の制御内容を変更する。   In the embodiment described above, the control unit 14 may change the control content of the device 2 according to the presence or absence of a person in the space R1. In other words, the control unit 14 may change the control content of the device 2 in accordance with the detection information from the human detection unit 13. For example, assume that the lighting device 2 has a nightlight. When a person is present in the space R1, the control unit 14 performs control to turn off the light source except for the night light when receiving recognition information including the turn-off command. That is, in this case, the all-night light continues to be lit. On the other hand, when a person does not exist in the space R1, the control unit 14 performs control to turn off all the light sources including the night light, when receiving recognition information including the turn-off command. As described above, the control unit 14 changes the control content of the lighting device 2 according to the presence or absence of a person in the space R1 even when a command instructing the same control is received.

上述の実施形態において、操作部16は機器制御システム1に必須の構成ではない。つまり、制御部14は、操作部16を用いたタッチ操作(手動操作)に応じた機器2の制御を行わずに、音声認識部12からの認識情報に応じた機器2の制御のみを行う構成であってもよい。   In the above embodiment, the operation unit 16 is not an essential component of the device control system 1. That is, the control unit 14 does not control the device 2 according to the touch operation (manual operation) using the operation unit 16, but performs only control of the device 2 according to the recognition information from the voice recognition unit 12. It may be

上述の実施形態では、音声認識部12は、人検知部13からの検知情報に依らず、音声認識を行っているが、これに限定する趣旨ではない。例えば、音声認識部12は、空間R1に人が存在しないときに、動作を停止する構成であってもよい。この態様では、音声認識部12は、人検知部13からの検知情報を受け付け、空間R1に人が存在しないという検知情報であれば、動作を停止する。   In the above-described embodiment, the voice recognition unit 12 performs voice recognition independently of the detection information from the human detection unit 13. However, the present invention is not limited to this. For example, the voice recognition unit 12 may be configured to stop the operation when there is no person in the space R1. In this aspect, the voice recognition unit 12 receives the detection information from the human detection unit 13, and stops the operation if it is detection information that there is no person in the space R1.

上述の実施形態において、制御部14の代わりに、リレー制御部を設けてもよい。リレー制御部は、電源(例えば、商用電源)から照明機器2への電力の供給路に設けられたリレーを制御する。この場合、リレー制御部は、リレーのオン/オフを制御することにより、電源から照明機器2への電力の供給を制御し、照明機器2の状態を制御する。なお、機器制御システム1において、制御部14と、リレー制御部とは併存してもよい。例えば、リレー制御部は、空間R1に人が存在するときにリレーをオンにし、空間R1に人が存在しないときにリレーをオフにする。制御部14は、空間R1に人が存在するときに、音声認識部12からの認識情報に応じて照明機器2を制御する。   In the above embodiment, a relay control unit may be provided instead of the control unit 14. The relay control unit controls a relay provided in a power supply path from the power supply (for example, a commercial power supply) to the lighting apparatus 2. In this case, the relay control unit controls the supply of power from the power supply to the lighting device 2 by controlling the on / off of the relay, and controls the state of the lighting device 2. In the device control system 1, the control unit 14 and the relay control unit may coexist. For example, the relay control unit turns on the relay when there is a person in the space R1, and turns off the relay when there is no person in the space R1. The control unit 14 controls the lighting device 2 according to the recognition information from the voice recognition unit 12 when a person is present in the space R1.

上述の実施形態において、音声認識部12、人検知部13、及び制御部14は、それぞれ互いに異なるマイクロコンピュータ(コンピュータシステム)で構成されているが、これに限定する趣旨ではない。例えば、音声認識部12、人検知部13、及び制御部14の機能は、1つまたは2つのマイクロコンピュータ(コンピュータシステム)で実現されてもよい。   In the above-described embodiment, the voice recognition unit 12, the human detection unit 13, and the control unit 14 are respectively configured by mutually different microcomputers (computer systems), but the present invention is not limited thereto. For example, the functions of the voice recognition unit 12, the human detection unit 13, and the control unit 14 may be realized by one or two microcomputers (computer systems).

上述の実施形態において、照明機器2は、調光及び調色の両方が可能な光源を備えているが、これに限定する趣旨ではない。例えば、照明機器2は、調光及び調色のいずれか一方のみが可能な光源を備えていてもよい。その他、照明機器2は、点灯及び消灯のみが可能な光源を備えていてもよい。   In the above-mentioned embodiment, although lighting installation 2 is provided with the light source in which both light control and color control are possible, it is not the meaning limited to this. For example, the lighting apparatus 2 may include a light source capable of only one of dimming and toning. In addition, the lighting device 2 may include a light source that can only be turned on and off.

上述の実施形態では、空間R1には、1つの機器2のみが設けられているが、複数の機器2が設けられていてもよい。この場合、制御部14は、認識情報に応じて複数の機器2を一括制御してもよいし、個別に制御してもよい。また、上述の実施形態では、空間R1には、1つの照明スイッチ3のみが設けられているが、複数の照明スイッチ3が設けられていてもよい。   In the above-mentioned embodiment, although only one device 2 is provided in the space R1, a plurality of devices 2 may be provided. In this case, the control unit 14 may collectively control the plurality of devices 2 in accordance with the recognition information, or may control them individually. Moreover, in the above-mentioned embodiment, although only one illumination switch 3 is provided in space R1, the several illumination switch 3 may be provided.

上述の実施形態において、機器制御システム1の機能は、1つの筐体内に集約されていてもよいし、複数の筐体に分散して設けられていてもよい。また、機器制御システム1の一部の機能は、例えばクラウド(クラウドコンピューティング)等によって実現されてもよい。   In the above-described embodiment, the functions of the device control system 1 may be integrated in one case, or may be distributed to a plurality of cases. Also, some functions of the device control system 1 may be realized by, for example, cloud (cloud computing).

上述の実施形態において、機器2は、照明機器に限らず、例えば、空調機器、換気扇、電動シャッタ、空気清浄機、給湯機、テレビ受像機、洗濯機、又は冷蔵庫などであってもよい。   In the embodiment described above, the device 2 is not limited to the lighting device, and may be, for example, an air conditioner, a ventilation fan, an electric shutter, an air cleaner, a water heater, a television receiver, a washing machine, or a refrigerator.

(まとめ)
以上述べたように、第1の態様に係る機器制御システム(1)は、音入力部(マイクロフォン)(11)と、音声認識部(12)と、人検知部(13)と、制御部(14)と、を備える。音入力部(11)は、入力された音に基づく電気信号を出力する。音声認識部(12)は、電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。人検知部(13)は、音入力部(11)のある空間(第1部屋)(R1)における人の存否を検知し、検知結果を検知情報として出力する。制御部(14)は、認識情報及び検知情報に基づいて、空間(R1)にある機器(2)の制御を行う。
(Summary)
As described above, the device control system (1) according to the first aspect includes the sound input unit (microphone) (11), the speech recognition unit (12), the human detection unit (13), and the control unit 14) and. The sound input unit (11) outputs an electrical signal based on the input sound. The voice recognition unit (12) performs voice recognition based on the electric signal, and outputs recognition information corresponding to the recognized voice. The human detection unit (13) detects the presence or absence of a person in a space (first room) (R1) in which the sound input unit (11) is present, and outputs the detection result as detection information. The control unit (14) controls the device (2) in the space (R1) based on the recognition information and the detection information.

この態様によれば、外部から漏れる音によって機器(2)を誤って制御する可能性を低減することができる、という利点がある。   According to this aspect, there is an advantage that it is possible to reduce the possibility of erroneous control of the device (2) due to the sound leaking from the outside.

第2の態様に係る機器制御システム(1)では、第1の態様において、人検知部(13)は、上記音に基づいて、人の存否を検知する。   In the device control system (1) according to the second aspect, in the first aspect, the human detection unit (13) detects the presence or absence of a human based on the sound.

この態様によれば、音入力部(11)に入力される音に基づいて人の存否を検知するため、人感センサなどの人の存否を検知するためのセンサを別途用意する必要がない、という利点がある。その結果、この態様では、コストを抑えることができる、という利点がある。   According to this aspect, it is not necessary to separately prepare a sensor for detecting the presence or absence of a person, such as a human sensor, in order to detect the presence or absence of a person based on the sound input to the sound input unit (11). It has the advantage of As a result, this aspect has the advantage that the cost can be reduced.

第3の態様に係る機器制御システム(1)では、第2の態様において、人検知部(13)は、上記音の直接波及び反射波の情報に基づいて、上記音が空間(R1)で発生したか否かを識別する。   In the device control system (1) according to the third aspect, in the second aspect, the human detection unit (13) detects the sound in the space (R1) based on the information of the direct wave and the reflected wave of the sound. Identify if it has occurred.

この態様によれば、音入力部(11)に入力される音に基づいて、より精度良く人の存否を検知し易い、という利点がある。   According to this aspect, there is an advantage that it is easy to detect the presence or absence of a person with high accuracy based on the sound input to the sound input unit (11).

第4の態様に係る機器制御システム(1)では、第1〜第3のいずれかの態様において、制御部(14)は、空間(R1)に人が存在しないという検知情報を受けている間、認識情報に応じた機器(2)の制御を行わない。   In the device control system (1) according to the fourth aspect, in any of the first to third aspects, the control unit (14) receives detection information indicating that there is no person in the space (R1). , Do not control the device (2) according to the recognition information.

この態様によれば、空間(R1)に人が存在しない状況で、機器(2)を不必要に制御する可能性を低減することができる、という利点がある。   According to this aspect, there is an advantage that it is possible to reduce the possibility of unnecessarily controlling the device (2) in a situation where there is no person in the space (R1).

第5の態様に係る機器制御システム(1)では、第1〜第4のいずれかの態様において、音声認識部(12)は、検知情報に依らず、音声認識を行う。   In the device control system (1) according to the fifth aspect, in any one of the first to fourth aspects, the voice recognition unit (12) performs voice recognition regardless of detection information.

この態様によれば、空間(R1)に人が存在しない状況でも、音声認識技術を用いることで機器(2)の制御以外の機能を実現することが可能である、という利点がある。   According to this aspect, there is an advantage that it is possible to realize functions other than the control of the device (2) by using the speech recognition technology even in a situation where no person is present in the space (R1).

第6の態様に係る機器制御システム(1)では、第1〜第5のいずれかの態様において、音声認識部(12)は、検知情報に応じて、音声認識のモードを変更する。   In the device control system (1) according to the sixth aspect, in any of the first to fifth aspects, the voice recognition unit (12) changes the mode of voice recognition in accordance with the detection information.

この態様によれば、空間(R1)における人の存否に応じて、適切な音声認識を実行することが可能になる、という利点がある。   According to this aspect, there is an advantage that appropriate speech recognition can be performed according to the presence or absence of a person in the space (R1).

第7の態様に係る機器制御システム(1)では、第1〜第6のいずれかの態様において、制御部(14)は、検知情報に応じて、受け付ける認識情報を変更する。   In the device control system (1) according to the seventh aspect, in any of the first to sixth aspects, the control unit (14) changes the recognition information to be received according to the detection information.

この態様によれば、空間(R1)における人の存否に応じて、適切な機器(2)の制御が実行されるようにすることが可能になる、という利点がある。   According to this aspect, there is an advantage that control of the appropriate device (2) can be performed according to the presence or absence of a person in the space (R1).

第8の態様に係る機器制御システム(1)では、第1〜第7のいずれかの態様において、制御部(14)は、検知情報に応じて、機器(2)の制御内容を変更する。   In the device control system (1) according to the eighth aspect, in any of the first to seventh aspects, the control unit (14) changes the control content of the device (2) according to the detection information.

この態様によれば、空間(R1)における人の存否に応じて、適切な機器(2)の制御が実行されるようにすることが可能になる、という利点がある。   According to this aspect, there is an advantage that control of the appropriate device (2) can be performed according to the presence or absence of a person in the space (R1).

第9の態様に係る機器制御システム(1)は、第1〜第8のいずれかの態様において、タッチ操作を受け付ける操作部(16)を更に備える。制御部(14)は、操作部(16)が受け付けたタッチ操作に応じて、機器(2)の制御を行う。   The device control system (1) according to the ninth aspect further includes an operation unit (16) that receives a touch operation in any of the first to eighth aspects. The control unit (14) controls the device (2) according to the touch operation received by the operation unit (16).

この態様によれば、空間(R1)にいる人が機器(2)を制御するための音声を発しなくとも、機器(2)を制御することができる、という利点がある。   According to this aspect, there is an advantage that the device (2) can be controlled without the person in the space (R1) emitting a voice for controlling the device (2).

第10の態様に係る機器制御システム(1)では、第1〜第9のいずれかの態様において、機器(2)は、照明機器(2)である。   In the device control system (1) according to the tenth aspect, in any of the first to ninth aspects, the device (2) is a lighting device (2).

この態様によれば、外部から漏れる音によって照明機器(2)を誤って制御する可能性を低減することができる、という利点がある。   According to this aspect, there is an advantage that it is possible to reduce the possibility of erroneously controlling the lighting apparatus (2) due to the sound leaking from the outside.

第2〜第10の態様に係る構成については、機器制御システム(1)に必須の構成ではなく、適宜省略可能である。   The configurations according to the second to tenth aspects are not essential to the device control system (1), and can be omitted as appropriate.

1 機器制御システム
11 マイクロフォン(音入力部)
12 音声認識部
13 人検知部
14 制御部
16 操作部
2 照明機器(機器)
1 Device control system 11 Microphone (sound input unit)
12 voice recognition unit 13 person detection unit 14 control unit 16 operation unit 2 lighting device (device)

Claims (10)

入力された音に基づく電気信号を出力する音入力部と、
前記電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する音声認識部と、
前記音入力部のある空間における人の存否を検知し、検知結果を検知情報として出力する人検知部と、
前記認識情報及び前記検知情報に基づいて、前記空間にある機器の制御を行う制御部と、を備える
機器制御システム。
A sound input unit that outputs an electrical signal based on the input sound;
A voice recognition unit that performs voice recognition based on the electrical signal and outputs recognition information corresponding to the recognized voice;
A human detection unit that detects the presence or absence of a person in a space where the sound input unit is present, and outputs the detection result as detection information;
A control unit configured to control an apparatus in the space based on the recognition information and the detection information.
前記人検知部は、前記音に基づいて、前記人の存否を検知する
請求項1記載の機器制御システム。
The device control system according to claim 1, wherein the person detection unit detects the presence or absence of the person based on the sound.
前記人検知部は、前記音の直接波及び反射波の情報に基づいて、前記音が前記空間で発生したか否かを識別する
請求項2記載の機器制御システム。
The device control system according to claim 2, wherein the human detection unit identifies whether the sound is generated in the space based on information of the direct wave and the reflected wave of the sound.
前記制御部は、前記空間に前記人が存在しないという前記検知情報を受けている間、前記認識情報に応じた前記機器の制御を行わない
請求項1乃至3のいずれか1項に記載の機器制御システム。
The device according to any one of claims 1 to 3, wherein the control unit does not control the device according to the recognition information while receiving the detection information indicating that the person is not present in the space. Control system.
前記音声認識部は、前記検知情報に依らず、前記音声認識を行う
請求項1乃至4のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 4, wherein the voice recognition unit performs the voice recognition regardless of the detection information.
前記音声認識部は、前記検知情報に応じて、前記音声認識のモードを変更する
請求項1乃至5のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 5, wherein the voice recognition unit changes a mode of the voice recognition according to the detection information.
前記制御部は、前記検知情報に応じて、受け付ける前記認識情報を変更する
請求項1乃至6のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 6, wherein the control unit changes the received recognition information according to the detection information.
前記制御部は、前記検知情報に応じて、前記機器の制御内容を変更する
請求項1乃至7のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 7, wherein the control unit changes control content of the device according to the detection information.
タッチ操作を受け付ける操作部を更に備え、
前記制御部は、前記操作部が受け付けた前記タッチ操作に応じて、前記機器の制御を行う
請求項1乃至8のいずれか1項に記載の機器制御システム。
It further comprises an operation unit that accepts touch operations,
The device control system according to any one of claims 1 to 8, wherein the control unit controls the device according to the touch operation received by the operation unit.
前記機器は、照明機器である
請求項1乃至9のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 9, wherein the device is a lighting device.
JP2017223901A 2017-11-21 2017-11-21 Equipment control system Active JP7012250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223901A JP7012250B2 (en) 2017-11-21 2017-11-21 Equipment control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223901A JP7012250B2 (en) 2017-11-21 2017-11-21 Equipment control system

Publications (2)

Publication Number Publication Date
JP2019096435A true JP2019096435A (en) 2019-06-20
JP7012250B2 JP7012250B2 (en) 2022-01-28

Family

ID=66973112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223901A Active JP7012250B2 (en) 2017-11-21 2017-11-21 Equipment control system

Country Status (1)

Country Link
JP (1) JP7012250B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7506617B2 (en) 2021-02-02 2024-06-26 シャープ株式会社 washing machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142231A (en) * 1997-11-10 1999-05-28 Toyota Central Res & Dev Lab Inc Noise analyzer
JP2006058479A (en) * 2004-08-18 2006-03-02 Matsushita Electric Works Ltd Controller with voice recognition function
JP2014020790A (en) * 2012-07-12 2014-02-03 Funai Electric Co Ltd Information terminal
JP2016219132A (en) * 2015-05-15 2016-12-22 株式会社レイトロン Polyhedron lighting system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142231A (en) * 1997-11-10 1999-05-28 Toyota Central Res & Dev Lab Inc Noise analyzer
JP2006058479A (en) * 2004-08-18 2006-03-02 Matsushita Electric Works Ltd Controller with voice recognition function
JP2014020790A (en) * 2012-07-12 2014-02-03 Funai Electric Co Ltd Information terminal
JP2016219132A (en) * 2015-05-15 2016-12-22 株式会社レイトロン Polyhedron lighting system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7506617B2 (en) 2021-02-02 2024-06-26 シャープ株式会社 washing machine

Also Published As

Publication number Publication date
JP7012250B2 (en) 2022-01-28

Similar Documents

Publication Publication Date Title
JP7018570B2 (en) Lighting control system, lighting control method, and program
CN108702832B (en) Apparatus and method for remote control of lighting equipment
JP6290373B2 (en) Daylight daylighting system to prevent unauthorized changes
CN101400201A (en) Light source control device and method
JP7340764B2 (en) voice control system
EP4209119B1 (en) Determining a location for a presence sensor or light switch based on a control history
JP7012250B2 (en) Equipment control system
KR101833539B1 (en) VIRTUAL DEVICE SYSTEM FOR TOTAL SUPPORTING OF IoT DEVICE
JP6037651B2 (en) Lighting control apparatus and lighting control system
KR100949112B1 (en) Indoor detection system and method
JP2020141235A (en) Equipment control system, equipment control method and program
JP2020087372A (en) Management system, management system control method, and program
JP7089644B2 (en) Lighting device
JP2019091663A (en) Sensor system, lighting control system, program
KR101710305B1 (en) Variable type compiling system for function of user-centric
EP3779914A1 (en) Acoustic device, control method and program
US12315531B2 (en) Grid of luminaires
CN115151870B (en) Methods for monitoring density and/or movement of people
WO2019188421A1 (en) Audio device, control method, and program
JP2026017040A (en) Alarms and Control Systems
US20230189419A1 (en) Selecting a sensor data processing method in accordance with a type of a lighting device
CN106332385A (en) Led lamp control circuit and control method thereof
KR20060085417A (en) Karaoke Stage

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211006

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211014

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211224

R151 Written notification of patent or utility model registration

Ref document number: 7012250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151