JP2013169221A - Self-propelled cleaner - Google Patents
Self-propelled cleaner Download PDFInfo
- Publication number
- JP2013169221A JP2013169221A JP2012032939A JP2012032939A JP2013169221A JP 2013169221 A JP2013169221 A JP 2013169221A JP 2012032939 A JP2012032939 A JP 2012032939A JP 2012032939 A JP2012032939 A JP 2012032939A JP 2013169221 A JP2013169221 A JP 2013169221A
- Authority
- JP
- Japan
- Prior art keywords
- person
- unit
- self
- control unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Electric Vacuum Cleaner (AREA)
Abstract
【課題】周囲に人がいるときはその人から離れて走行する自走式掃除機を提供する。
【解決手段】吸塵機構を収容し自走しながら清掃作業を行う筐体と、自走経路中の障害物を検出する障害物検出部と、人の存在を感知する人感知部と、前記障害物検出部により検出された障害物を回避して走行させる制御部とを備え、前記制御部は、前記人感知部が人の存在を感知するとそれに応答してその人から前記筐体が遠ざかる離隔方向へ前記筐体を走行させる自走式掃除機。
【選択図】図1A self-propelled cleaner that travels away from a person when the person is around is provided.
A housing that houses a dust suction mechanism and performs self-propelled cleaning work, an obstacle detecting unit that detects an obstacle in a self-propelled path, a human sensing unit that senses the presence of a person, and the obstacle A control unit that travels while avoiding an obstacle detected by the object detection unit, and the control unit is configured to move away from the person in response to the person sensing unit detecting the presence of the person. A self-propelled cleaner that moves the housing in a direction.
[Selection] Figure 1
Description
この発明は、自走式掃除機に関する。 The present invention relates to a self-propelled cleaner.
自走式掃除機は、所謂ロボット掃除機として知られている。ロボット掃除機でない一般の掃除機は、一方の先端に吸込口を有するホースをユーザが手に持って床面等の上を移動させ、吸込口から塵埃を吸引して清掃するものが主流である。ホースの他方の先端はいわゆるフィルターバッグ方式やサイクロン方式の集塵部に連通しており、吸込口から吸引された空気中の塵埃を捕集して集塵し、空気を排出する。このような一般の掃除機に対してロボット掃除機は、掃除機本体に自律走行機能を設け、例えば夜間に掃除機を無人で自律走行させながら掃除を行うものである(例えば、特許文献1および2参照)。
また、周囲の人に対して騒音が気になる夜間等の時間帯を予め設定できるようにしておき、掃除を開始する際に、予め設定されている時間帯であれば吸込用モータやブラシ用モータの回転数を低速にして、静音モードで掃除を行う掃除機が提案されている(例えば、特許文献3参照)。
Self-propelled cleaners are known as so-called robot cleaners. General vacuum cleaners that are not robotic vacuum cleaners are mainly used by a user holding a hose with a suction port at one end to move it over the floor and sucking dust from the suction port. . The other end of the hose communicates with a so-called filter bag type or cyclone type dust collecting part, which collects and collects dust in the air sucked from the suction port and discharges the air. In contrast to such a general vacuum cleaner, the robot cleaner is provided with an autonomous running function in the vacuum cleaner body, and performs cleaning while running the vacuum cleaner unattended at night (for example, Patent Document 1 and 2).
Also, it is possible to set in advance a time zone such as nighttime when noise is anxious for the surrounding people, and when starting cleaning, if it is a preset time zone, the suction motor and brush There has been proposed a vacuum cleaner that performs cleaning in a silent mode with the motor rotating at a low speed (see, for example, Patent Document 3).
自走式でない一般の掃除機は、清掃作業時にユーザがホースを手に持って操作を行うので、騒音が気になる状況か否かをユーザが判断することで騒音の問題に対処できる。ユーザが掃除機を静音モードに切換えることができるように操作ボタン等を設けておけばよい。これに対してロボット掃除機は自律走行による掃除を行う。よって、静音モードへの切換えは自律的に行うことが望まれる。特許文献3はその一手法を示している。しかし、掃除機の動作音が気になる状況が一律に時間帯に依存している訳ではない。例えば、夜間であっても人がいない部屋や留守中の清掃作業であれば動作音が気にならない場合がある。一方、昼間であっても幼児が寝ている部屋など、動作音を抑えるべき場合ある。 In general vacuum cleaners that are not self-propelled, the user operates with the hose in his / her hand during cleaning work, so the user can cope with the noise problem by determining whether or not the noise is a concern. An operation button or the like may be provided so that the user can switch the cleaner to the silent mode. On the other hand, the robot cleaner performs cleaning by autonomous running. Therefore, it is desirable to switch to the silent mode autonomously. Patent Document 3 shows one method. However, the situation in which the operation sound of the vacuum cleaner is anxious does not depend on the time zone. For example, there may be a case where the operation noise is not noticed in a room where there are no people even at night or in a cleaning operation while the user is away. On the other hand, there are cases where the operation sound should be suppressed even in the daytime, such as in a room where an infant is sleeping.
また、静音モードへの切換えは、騒音と清掃能力とのトレードオフによって騒音に対処するものである。しかし、騒音への対処は清掃能力とのトレードオフが唯一無二の手段であるとは限らない。そもそも、騒音を感じる主体は掃除機の周辺にいる人である。
同じ動作音であっても、人が感じる騒音は、掃除機がその人の近くにあるときに比べてその人から遠く離れているときの方が小さい。
そこで、この発明によれば、自走式の掃除機であれば周囲の人との距離を考慮して走行することで騒音に対処する一手法としている。掃除ロボットは、人のいないところを掃除すればよく、人がいる箇所は、その人がいなくなった別の機会に掃除すればよいとの考えに基づいて走行を制御するのである。これにより、静音モードへ切換えることで、清掃能力が低下するのを防止できる。
この発明は、以上のような事情を考慮してなされたものであって、周囲に人がいるときはその人から離れて走行する自走式掃除機を提供するものである。
Further, switching to the silent mode deals with noise by a trade-off between noise and cleaning ability. However, dealing with noise is not always the only way to make trade-offs with cleaning ability. In the first place, the person who feels noise is a person around the vacuum cleaner.
Even with the same operating sound, the noise felt by a person is less when the cleaner is far away from the person than when the cleaner is near the person.
So, according to this invention, if it is a self-propelled cleaner, it is set as one method which copes with noise by driving | running in consideration of the distance with the surrounding people. The cleaning robot controls the traveling based on the idea that it is only necessary to clean a place where there is no person and the part where the person is present should be cleaned at another time when the person disappears. Thereby, it can prevent that cleaning capability falls by switching to silent mode.
The present invention has been made in view of the above circumstances, and provides a self-propelled cleaner that travels away from a person when there is a person around.
この発明は、吸塵機構を収容し自走しながら清掃作業を行う筐体と、自走経路中の障害物を検出する障害物検出部と、人の存在を感知する人感知部と、前記障害物検出部により検出された障害物を回避して走行させる制御部とを備え、前記制御部は、前記人感知部が人の存在を感知するとそれに応答してその人から前記筐体が遠ざかる離隔方向へ前記筐体を走行させることを特徴とする自走式掃除機を提供する。 The present invention includes a housing that houses a dust suction mechanism and performs self-propelled cleaning work, an obstacle detecting unit that detects an obstacle in a self-propelled path, a human sensing unit that senses the presence of a person, and the obstacle A control unit that travels while avoiding an obstacle detected by the object detection unit, and the control unit is configured to move away from the person in response to the person sensing unit detecting the presence of the person. A self-propelled cleaner is provided that travels the housing in a direction.
この発明において、制御部は清掃作業中に前記人感知部が人の存在を感知するとそれに応答してその人から前記筐体が遠ざかる離隔方向へ前記筐体を走行させるので、周囲に人がいるときはその人から離れて掃除機を走行させることができる。よって、人が感じる騒音は、掃除機がその人の近くを走行するとした場合に比べてより小さいものになる。 In this invention, when the control unit detects the presence of a person during a cleaning operation, the control unit moves the case in a distance direction in which the case moves away from the person, so that there is a person around. Sometimes you can run the cleaner away from the person. Therefore, the noise felt by the person is smaller than when the cleaner is traveling near the person.
以下、この発明の実施形態を説明する前にこの発明の好ましい態様について説明する。
以下に記述するこの発明の実施形態の説明における人感知部は、周囲の様子を画像として撮影するカメラと、撮影された画像に写った人を認識してその人の距離と方向に係る情報を提供する画像解析部とを含んでもよい。このようにすれば、カメラで撮影した画像を用いて人を認識することにより人の存否、人がいる場合はその人までの距離および方向の情報を得ることができる。画像から人を認識する手法としては、周知のパターン認識技術が適用できる。人までの距離は、画像に写った人の大きさに基づいて判定できる。
Hereinafter, preferred embodiments of the present invention will be described before describing embodiments of the present invention.
The human sensing unit in the description of the embodiment of the present invention described below is a camera that captures the surrounding state as an image, and recognizes a person reflected in the captured image and provides information on the distance and direction of the person. And an image analysis unit to be provided. In this way, by recognizing a person using an image photographed by the camera, information on the presence or absence of the person and, when there is a person, information on the distance and direction to the person can be obtained. As a method for recognizing a person from an image, a known pattern recognition technique can be applied. The distance to the person can be determined based on the size of the person shown in the image.
さらに、前記カメラは、所定の視野角で前方を撮影し、以下に記述する実施形態で説明する制御部は、カメラで撮影された画像に人が写っていると認識したときは、その人が前記視野角から外れて画像に写らなくなるように走行方向を変更するように制御してもよい。このようにすれば、撮影された画像に基づいて前方に存在する人を認識し、その人を避けるように走行方向を変更することができる。さらに、1台以上のカメラを用いて前方を中心として左右にそれぞれ90度以上の視野角を撮影するようにすれば、人が視野角から外れる方向に向けて走行すれば必ずその人から遠ざかる方向に走行する。よって、画像に人が写らないように走行方向を変更する単純な処理で確実に離隔方向へ走行させることができる。 Further, the camera captures the front with a predetermined viewing angle, and when the control unit described in the embodiment described below recognizes that a person is reflected in the image captured by the camera, the person You may control to change a running direction so that it may remove | deviate from the said viewing angle and it does not appear in an image. If it does in this way, the person who exists ahead can be recognized based on the photographed image, and a run direction can be changed so that the person may be avoided. Furthermore, if one or more cameras are used to shoot a viewing angle of 90 degrees or more from side to side with the front as the center, a direction in which a person always moves away from the person when traveling in a direction away from the viewing angle. Drive to. Therefore, it is possible to reliably travel in the separation direction by a simple process of changing the traveling direction so that no person is shown in the image.
また、前記人感知部は、指向性を有し周囲の音を収集する1以上のマイクロフォンと、その音の中から音声を認識してその方向に係る情報を提供する音声認識部とを含んでもよい。このようにすれば、前記人感知部はマイクロフォンで収集した音に含まれる音声を認識することによって、人の存否を感知し、人を感知したときはその人までの距離および方向を判定する情報を制御部に提供することができる。また、遮蔽物があってカメラの画像には人が写らない状況であっても、音声によって人を感知することができる。音声の認識および音源である人までの距離を判定するための情報は、周知の音響フィルタ技術および音声認識技術を用いることによって作成することができる。
なお、音声や画像による人の方向と距離の判定は、高い精度が必ずしも要求されるものでない。おおよその距離や方向を判定する程度の精度であっても周囲の人が騒音を気にしないように離れて走行できればよい。例えば、判定の精度が低くても、その精度に見合った距離の閾値を設計者が設定し、制御部11はその閾値を用いて走行制御を行えばよい。
The human sensing unit may include one or more microphones that have directivity and collect ambient sounds, and a voice recognition unit that recognizes a voice from the sounds and provides information on the direction. Good. In this way, the person sensing unit senses the presence or absence of a person by recognizing the sound included in the sound collected by the microphone, and when the person is sensed, information for determining the distance and direction to the person Can be provided to the controller. Further, even if there is a shield and no person is captured in the camera image, the person can be detected by voice. Information for recognizing speech and determining the distance to the person who is the sound source can be created by using well-known acoustic filter technology and speech recognition technology.
It should be noted that the determination of the direction and distance of a person by voice or image does not necessarily require high accuracy. Even if it is accurate enough to determine the approximate distance and direction, it is only necessary to be able to travel away so that surrounding people do not mind noise. For example, even if the accuracy of the determination is low, the designer may set a threshold value for the distance corresponding to the accuracy, and the control unit 11 may perform traveling control using the threshold value.
例えば、1つのマイクロフォンを用いる場合は、例えば制御部がロボット掃除機を同じ場所で旋回させ、その間に単一指向性のマイクロフォンを用いてながら音を収集する。旋回に伴って変化する音の強弱の情報を提供すれば、制御部はその情報に基づいて音源の方向を判定できる。また、直接音と反射音の割合や直接音と初期反射音の到達時間差の情報を提供すれば、制御部はその情報に基づいて音源までの距離を判定できる。一方、左右両側にマイクロフォンがある場合は、各マイクロフォンが収集する音の音量差、時間差および/または位相差の情報を提供すれば、制御部はその情報に基づいて音源の方向を判定できる。音源までの距離は、1つのマイクロフォンを用いるときと同様に判定できる。さらに、前後左右にマイクロフォンがある場合は、各マイクロフォンが収集する音の音量差、時間差および/または位相差の情報を提供すれば、制御部はその情報に基づいて音源までの距離と音源の方向とを判定できる。 For example, when one microphone is used, for example, the control unit turns the robot cleaner at the same place, and collects sound while using a unidirectional microphone. If information on the intensity of the sound that changes with the turn is provided, the control unit can determine the direction of the sound source based on the information. Further, if information on the ratio between the direct sound and the reflected sound and the arrival time difference between the direct sound and the initial reflected sound is provided, the control unit can determine the distance to the sound source based on the information. On the other hand, when there are microphones on the left and right sides, if the information of the volume difference, time difference and / or phase difference of the sound collected by each microphone is provided, the control unit can determine the direction of the sound source based on the information. The distance to the sound source can be determined in the same manner as when one microphone is used. Furthermore, if there are microphones on the front, rear, left and right, providing information on the volume difference, time difference and / or phase difference of the sound collected by each microphone, the control unit can determine the distance to the sound source and the direction of the sound source based on that information. Can be determined.
さらに、前記人感知部は、1つの指向性マイクロフォンを有し、前記音声認識部は、段階的な音声の大きさを認識し、前記制御部は、第1閾値以上の大きさの音声が検出されたときに筐体を旋回させ、旋回に伴って変化する音声の大きさに基づいて音声の方向を判定してもよい。このようにすれば、複数のマイクロフォンを用いる場合に比べて安価に人を感知することができる。人との距離は前述のごとく音の強弱や直接音と反射音の分析に基づいて判定してもよい。あるいは、カメラと組み合わせることによって、マイクロフォンの音声から人の存否を認識し、カメラの画像から人との距離と方向を判定するようにしてもよい。 Further, the human sensing unit has one directional microphone, the voice recognition unit recognizes a stepped voice volume, and the control unit detects a voice having a magnitude equal to or higher than a first threshold. When this is done, the casing may be turned, and the direction of the sound may be determined based on the volume of the sound that changes with the turning. In this way, a person can be sensed at a lower cost than when a plurality of microphones are used. As described above, the distance to the person may be determined based on the intensity of the sound or the analysis of the direct sound and the reflected sound. Alternatively, by combining with a camera, the presence or absence of a person may be recognized from the sound of a microphone, and the distance and direction of the person may be determined from the camera image.
さらに、前記制御部は、前記音声の大きさが第1閾値よりも小さい第2閾値を下回るまで、前記離隔方向へ前記筐体を走行させるように制御してもよい。このようにすれば、一旦は近接限度まで人に近づいたときでもその人から十分離れた距離まで遠ざかるように制御することができる。 Further, the control unit may perform control so that the casing travels in the separation direction until the volume of the sound falls below a second threshold value that is smaller than the first threshold value. In this way, it is possible to control to move away from a person to a distance sufficiently away even if the person approaches the proximity limit once.
あるいは、前記人感知部は、走行方向に対して前後左右の4方向の音をそれぞれ収集する4つのマイクロフォンを含み、前記音声認識部は、各マイクロフォンが収集した音声の音量差、時間差および/または位相差を認識し、前記制御部は、前記音声の音量差、時間差および/または位相差に基づいてその人の方向と距離を判定してもよい。このようにすれば、いわゆるステレオ信号として左右方向の音を収集して音源である人の左右の定位を検出し、前後方向の音を収集して音源である人の前後の定位を検出し、これらを組み合わせて音源までの距離と方向を分析することができる。 Alternatively, the human sensing unit includes four microphones that collect sounds in four directions, front, rear, left, and right with respect to the traveling direction, and the voice recognition unit includes a volume difference, a time difference, and / or a voice collected by each microphone. Recognizing the phase difference, the control unit may determine the direction and distance of the person based on the volume difference, time difference and / or phase difference of the sound. In this way, the sound in the left and right direction is collected as a so-called stereo signal to detect the left and right localization of the person as the sound source, the sound in the front and rear direction is collected to detect the position in the front and back of the person as the sound source, These can be combined to analyze the distance and direction to the sound source.
さらに、前記制御部は、前記音声の音量差、時間差および/または位相差に基づいて判定した距離が第3閾値以上になるまで、前記離隔方向へ向かうように筐体の走行を制御してもよい。このようにすれば、一旦は近接限度まで人に近づいたときもその人から十分離れた距離まで遠ざかるように制御することができる。 Further, the control unit may control the traveling of the housing so as to go in the separation direction until a distance determined based on a volume difference, a time difference, and / or a phase difference of the sound is equal to or more than a third threshold value. Good. In this way, once a person approaches the limit of proximity, it can be controlled to move far enough away from that person.
また、前記人感知部は、周囲の音を収集する1以上のマイクロフォン、その音の中から音声を認識する音声認識部、音声認識部による音声の認識に応答して周囲の様子を画像として撮影するカメラおよび撮影された画像に写った人を認識してその人の距離と方向とを判断する画像解析部を含んでもよい。このようにすれば、遮蔽物があってカメラの画像には人が写らない状況であっても、音声によって人を感知することができる。 The human sensing unit captures surroundings as an image in response to speech recognition by the speech recognition unit, one or more microphones that collect ambient sounds, a voice recognition unit that recognizes voices from the sounds. An image analysis unit that recognizes a person in the captured image and determines the distance and direction of the person. In this way, a person can be sensed by voice even in a situation where there is a shield and no person is captured in the camera image.
また、この態様によれば、マイクロフォンおよび音声認識部を用いて音声に基づき人の存否を認識し、それに応答して周囲の様子をカメラで撮影して人との距離と方向を判定することができる。人が隠れてカメラの画像に写らないときは、掃除ロボットを走行させて場所を変えながら周囲の様子を撮影し、人を見つけることもできる。人との距離と方向は、音声を分析して判定するよりも画像を解析して求める方がより正確に決定できると考えられる。また、音声が断続的に発せられている場合でも、その音声に応答してカメラで周囲を撮影して人との距離と方向を判定することができる。 Further, according to this aspect, it is possible to recognize the presence / absence of a person based on the sound using the microphone and the voice recognition unit, and to determine the distance and direction of the person by photographing the surrounding state with the camera in response to the recognition. it can. If a person is hidden and can't be seen in the camera image, you can also run a cleaning robot to change the location and take pictures of the surroundings to find a person. It is considered that the distance and direction with respect to a person can be determined more accurately by analyzing and determining the image than by analyzing and determining the sound. Even when sound is intermittently emitted, it is possible to determine the distance and direction of the person by photographing the surroundings with a camera in response to the sound.
さらに、前記制御部は、前記音声認識部が音声により人の存在を認識したときに、前記筐体をその場で旋回させて前記カメラに旋回中の周囲の画像を撮影させてもよい。このようにすれば、周囲に存在する人がカメラで当初撮影された画像の枠外に存在する場合でも、筐体を旋回させることによって枠外の人をカメラで捉えることができる。 Furthermore, when the voice recognition unit recognizes the presence of a person by voice, the control unit may turn the housing on the spot to cause the camera to take an image of the surroundings being turned. In this way, even when a person existing around is outside the frame of the image originally captured by the camera, the person outside the frame can be captured by the camera by turning the casing.
また、前記制御部は、前記人感知部による人の感知に応答して、前記筐体を少なくとも予め定められた期間は離隔方向へ走行させるように制御してもよい。このようにすれば、カメラに写る人が見え隠れしている場合や、音声が断続的に発せられているときも、一旦は近接限度まで人に近づいたときもその人から十分離れた距離まで遠ざかるように制御することができる。
この発明の好ましい態様は、ここで示した複数の態様のうち何れかを組み合わせたものも含む。
以下、図面を用いてこの発明をさらに詳述する。これにより、上述したこの発明の人感部、制御部等の構成要件がより理解できる。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。
In addition, the control unit may perform control so that the housing travels in the separation direction for at least a predetermined period in response to human detection by the human detection unit. In this way, even when a person on the camera is visible or hidden, or when sound is intermittently emitted, even when the person approaches the proximity limit once, keep away from the person sufficiently far away. Can be controlled.
Preferred embodiments of the present invention include combinations of any of the plurality of embodiments shown here.
Hereinafter, the present invention will be described in more detail with reference to the drawings. As a result, the constituent requirements of the above-described human sensitive part, control part, etc. of the present invention can be understood more. In addition, the following description is an illustration in all the points, Comprising: It should not be interpreted as limiting this invention.
≪自走式掃除機の構成≫
図1は、この発明に係る自走式掃除機の一実施例の概略構成を示すブロック図である。図1に示すように、この発明に係る自走式掃除機(以下、掃除ロボットとも呼ぶ)は、主として、回転ブラシ9、サイドブラシ10、制御部11、充電池12、障害物検出部14、集塵部15を備える。さらに、動力部21、右駆動輪22R、左駆動輪22L、吸気口31、排気口32、入力部51、記憶部61、人感知部113、電動送風機115およびイオン発生部117を備える。
≪Configuration of self-propelled vacuum cleaner≫
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of a self-propelled cleaner according to the present invention. As shown in FIG. 1, a self-propelled cleaner (hereinafter also referred to as a cleaning robot) according to the present invention mainly includes a rotating brush 9, a side brush 10, a control unit 11, a rechargeable battery 12, an obstacle detection unit 14, A dust collection unit 15 is provided. Furthermore, a power unit 21, a right drive wheel 22R, a left drive wheel 22L, an intake port 31, an exhaust port 32, an input unit 51, a storage unit 61, a human sensing unit 113, an electric blower 115, and an ion generation unit 117 are provided.
この発明に係る自走式掃除機は、設置された場所の床面を自走しながら、床面上の塵埃を含む空気を吸い込み、塵埃を除去した空気を排気することにより床面上を掃除する掃除ロボットである。この発明に係る自走式掃除機は、掃除が終了すると、自律的に図示しない充電ステーションに帰還する機能を有する。
図2は、この発明に係る自走式掃除機の一実施形態を概略的に示す斜視図である。
図3は、図2に示す自走式掃除機の底面を概略的に示す底面図である。
The self-propelled cleaner according to the present invention cleans the floor surface by sucking air containing dust on the floor surface and exhausting the air from which the dust is removed while self-propelled on the floor surface at the place where it is installed. It is a cleaning robot. The self-propelled cleaner according to the present invention has a function of autonomously returning to a charging station (not shown) when cleaning is completed.
FIG. 2 is a perspective view schematically showing one embodiment of the self-propelled cleaner according to the present invention.
FIG. 3 is a bottom view schematically showing the bottom surface of the self-propelled cleaner shown in FIG. 2.
図2に示すように、本発明の自走式掃除機である掃除ロボット1は、円盤形の筐体2を備えている。
筐体2は、底板2aと、筐体2内に収容された集塵容器を出し入れするために開閉可能な蓋部3が中央部分に取付けられた天板2bと、底板2aおよび天板2bの外周部に沿って設けられた平面視円環形の側板2cとを備えている。天板2bにおける前方部と中間部との境界付近には排気口32が形成されている。なお、側板2cは、前後に二分割されており、側板前部はバンパーとして機能すると共に、側板前部の衝突を検出する衝突センサ14Cが内部に設けられている。さらに、図2に示すように、前方に前方超音波センサ14Fが配置され、左側方に左方超音波センサ14Lが配置されている。図2では隠れているが、右方超音波センサ14Rが右側方に配置されている。
As shown in FIG. 2, a cleaning robot 1 that is a self-propelled cleaner of the present invention includes a disc-shaped housing 2.
The housing 2 includes a bottom plate 2a, a top plate 2b having a lid 3 that can be opened and closed to put in and out a dust collecting container accommodated in the housing 2, and a bottom plate 2a and a top plate 2b. And a side plate 2c having a ring shape in plan view provided along the outer periphery. An exhaust port 32 is formed near the boundary between the front portion and the middle portion of the top plate 2b. The side plate 2c is divided into two parts, front and rear, and the front side of the side plate functions as a bumper, and a collision sensor 14C for detecting a collision of the front side of the side plate is provided inside. Further, as shown in FIG. 2, a front ultrasonic sensor 14F is disposed on the front side, and a left ultrasonic sensor 14L is disposed on the left side. Although hidden in FIG. 2, the right ultrasonic sensor 14R is disposed on the right side.
また、図3に示すように、底板2aには前輪27、右駆動輪22R、左駆動輪22Lおよび後輪26を筐体2内から露出させて外部へ突出させる複数の孔部が形成されている。さらに、吸気口31の奥に回転ブラシ9、吸気口31の左右にサイドブラシ10、前輪27の前方に前輪床面検出センサ18、左駆動輪22Lの前方に左輪床面検出センサ19L、右駆動輪22Rの前方に右輪床面検出センサ19Rがそれぞれ配置されている。 As shown in FIG. 3, the bottom plate 2a is formed with a plurality of holes that expose the front wheel 27, the right driving wheel 22R, the left driving wheel 22L, and the rear wheel 26 from the inside of the housing 2 and project outside. Yes. Further, the rotary brush 9 is located behind the intake port 31, the side brush 10 is located on the left and right sides of the intake port 31, the front wheel floor surface detection sensor 18 is located in front of the front wheel 27, the left wheel floor surface detection sensor 19L is located forward of the left drive wheel 22L, and the right drive is driven. A right wheel floor surface detection sensor 19R is disposed in front of the wheel 22R.
掃除ロボット1は、右駆動輪22Rおよび左駆動輪22Lが同一方向に正回転して前進し、前方超音波センサ14Fが配置されている方向へ走行する。また、左右の駆動輪が同一方向に逆回転して後退し、互いに逆方向に回転することにより旋回する。例えば、掃除ロボット1は、障害物検出部14の各センサにより掃除領域の周縁に到達した場合および進路上に障害物を検出した場合、左右の駆動輪を減速させた後に停止させる。その後、左右の駆動輪を互いに逆方向に回転させて旋回し向きを変える。このようにして、掃除ロボット1は、設置場所の全体あるいは所望範囲全体に渡って障害物を避けながら自走する。
ここで、前方とは、掃除ロボット1の前進方向(図3において、紙面に沿う上方)をいうものとし、後方とは、掃除機ロボット1の後退方向(図3において、紙面に沿う下方)いうものとする。
The cleaning robot 1 travels in a direction in which the right driving wheel 22R and the left driving wheel 22L rotate forward in the same direction and moves forward, and the front ultrasonic sensor 14F is disposed. Further, the left and right drive wheels rotate backward in the same direction and move backward, and turn by rotating in opposite directions. For example, the cleaning robot 1 stops the left and right drive wheels after decelerating when the sensors of the obstacle detection unit 14 reach the periphery of the cleaning area and when an obstacle is detected on the path. Thereafter, the left and right drive wheels are rotated in opposite directions to turn and change directions. In this way, the cleaning robot 1 runs by itself while avoiding obstacles over the entire installation place or the entire desired range.
Here, the front means the forward direction of the cleaning robot 1 (upward along the paper surface in FIG. 3), and the rear means the backward direction of the cleaner robot 1 (downward along the paper surface in FIG. 3). Shall.
以下、図1に示す各構成要素を説明する。
図1の制御部11は、掃除ロボット1の各構成要素の動作を制御する部分であり、主として、CPU、RAM、I/Oコントローラ、タイマー等からなるマイクロコンピュータによって実現される。
CPUは、後述する記憶部61に予め格納され、RAMに展開された制御プログラムに基づいて、各ハードウェアを有機的に動作させて、この発明の掃除機能、走行機能などを実行する。
Hereinafter, each component shown in FIG. 1 will be described.
The control unit 11 in FIG. 1 is a part that controls the operation of each component of the cleaning robot 1 and is mainly realized by a microcomputer including a CPU, a RAM, an I / O controller, a timer, and the like.
The CPU organically operates each hardware based on a control program stored in advance in the storage unit 61, which will be described later, and expanded in the RAM, and executes the cleaning function, the traveling function, and the like of the present invention.
充電池12は、掃除ロボット1の各機能要素に対して電力を供給する部分であり、主として、掃除機能および走行制御を行うための電力を供給する部分である。たとえば、リチウムイオン電池、ニッケル水素電池、Ni−Cd電池、などの充電池が用いられる。
充電池12の充電は、掃除ロボット1を図示しない充電ステーションに近接させた状態で、両者の露出した充電端子どうしを接触させることにより行う。
The rechargeable battery 12 is a part that supplies power to each functional element of the cleaning robot 1, and is a part that mainly supplies power for performing a cleaning function and travel control. For example, a rechargeable battery such as a lithium ion battery, a nickel metal hydride battery, or a Ni—Cd battery is used.
The rechargeable battery 12 is charged by bringing the exposed charging terminals into contact with each other in a state where the cleaning robot 1 is brought close to a charging station (not shown).
障害物検出部14、特に左方、前方、右方の各センサ14L、14F、14Rは、掃除機1が走行中に、室内の壁や机、いすなどの障害物に接触又は近づいたことを検出し、また下り階段等落下に至る段差を検出する部分である。障害物検出部14は、超音波センサを用いて障害物への近接を検出する。超音波センサに代えて、あるいは超音波センサと共に、赤外線測距センサなど他の方式の非接触センサを用いてもよい。
衝突センサ14Cは、掃除ロボット1が走行時に障害物と接触したことを検出するために、例えば、筐体2の側板2cの内部に配置される。CPUは、衝突センサ14Cからの出力信号に基づいて側板2cが障害物に衝突したことを知る。
The obstacle detection unit 14, particularly the left, front, and right sensors 14L, 14F, and 14R, are in contact with or approaching obstacles such as indoor walls, desks, and chairs while the cleaner 1 is running. It is a part that detects and detects a step such as a descending staircase leading to a fall. The obstacle detection unit 14 detects proximity to the obstacle using an ultrasonic sensor. Instead of the ultrasonic sensor or together with the ultrasonic sensor, other types of non-contact sensors such as an infrared distance measuring sensor may be used.
The collision sensor 14 </ b> C is disposed, for example, inside the side plate 2 c of the housing 2 in order to detect that the cleaning robot 1 has come into contact with an obstacle during traveling. The CPU knows that the side plate 2c has collided with an obstacle based on the output signal from the collision sensor 14C.
前輪床面検出センサ18、左輪床面検出センサ19Lおよび右輪床面検出センサ19Rは下り階段等の大きな段差を検出する。
CPUは、障害物検出部14から出力された信号に基づいて、障害物や段差の存在する位置を認識する。認識された障害物や段差の位置情報に基づいて、その障害物や段差を避けて次に走行すべき方向を決定する。なお、左輪床面検出センサ19Lおよび右輪床面検出センサ19Rは、前輪床面検出センサ18が段差の検出に失敗した場合や故障した場合に下り階段を検出し、掃除ロボット1の下り階段への落下を防止する。
The front wheel floor surface detection sensor 18, the left wheel floor surface detection sensor 19L, and the right wheel floor surface detection sensor 19R detect large steps such as descending stairs.
Based on the signal output from the obstacle detection unit 14, the CPU recognizes the position where an obstacle or a step exists. Based on the recognized obstacle and step position information, the next direction to travel is determined while avoiding the obstacle and step. Note that the left wheel floor surface detection sensor 19L and the right wheel floor surface detection sensor 19R detect the down staircase when the front wheel floor surface detection sensor 18 fails to detect a step or fails, and then go to the down staircase of the cleaning robot 1. Prevent falling.
人感知部113は、周囲にいる人を検出する。この実施形態で、人感知部は、1以上のマイクロフォン113M、音声認識部113S、カメラ113C、画像解析部113Aおよび人感センサ54の3種類のセンサを有する。ただし、これらのうち何れか1種類あるいは2種類のセンサであっても人を感知できるので、3種類のセンサは必須の構成ではない。
マイクロフォン113Mは周囲の音を収集して音声信号として音声認識部113Sへ出力する。音声認識部113Sは、周知の音声認識技術を用いてその音に音声(人の声)が含まれているときにそれを認識する。さらに、音声の大きさを段階的に感知し、音源の方向および音源までの距離を算出(即ち人との距離を判定)するための情報を提供する。単一指向性の1つのマイクロフォンを用いてもよいが、左右2つのマイクロフォンを用いて各マイクロフォンが収集した音声の音量の差、時間差および/または位相差から音源の方向を算出するようにしてもよい。あるいは、3つ以上のマイクロフォンを用いれば、そのうち2つのマイクロフォンを用いて検出した定位を組み合わせて音源の距離がさらに算出できる。
The person sensing unit 113 detects a person around. In this embodiment, the human sensing unit has three or more types of sensors: one or more microphones 113M, a voice recognition unit 113S, a camera 113C, an image analysis unit 113A, and a human sensor 54. However, since any one or two of these sensors can sense a person, the three types of sensors are not essential.
The microphone 113M collects ambient sounds and outputs them to the voice recognition unit 113S as voice signals. The voice recognition unit 113 </ b> S recognizes a sound (human voice) when the sound includes the sound using a well-known voice recognition technique. Furthermore, information for detecting the volume of the sound step by step and calculating the direction of the sound source and the distance to the sound source (that is, determining the distance to the person) is provided. One unidirectional microphone may be used, but the direction of the sound source may be calculated from the volume difference, time difference, and / or phase difference of the sound collected by the two microphones using the left and right microphones. Good. Alternatively, if three or more microphones are used, the distance of the sound source can be further calculated by combining the localization detected using two of them.
カメラ113Cは、周囲の様子を画像信号として画像解析部113Aに出力する。画像解析部113Aは、周知のパターン認識技術を用いてその画像信号に人が写っているときにそれを認識する。さらに、人の方向と距離を算出(即ち判定)するための情報を提供する。人の方向は、カメラ113Cの画像のどの位置に人が写っているかの情報に基づいて算出できる。人との距離は、例えば、画像に写った人の大きさから算出できる。あるいは、左右の2台のカメラを用いて異なる視点から周囲を撮影することで所謂3D画像の撮影を行い、3D画像の奥行きを解析して奥行き距離の情報を提供してもよい。
人感センサ54は、例えば、人の発する赤外線を検出する人感センサが照明のスイッチや防犯システム用に実用化されている。その他、超音波や可視光等によって人の存在を検出するものを用いてもよい。このような市販の人感センサあるいはそれに適用されている技術を用いればよい。
The camera 113C outputs the surrounding state as an image signal to the image analysis unit 113A. The image analysis unit 113A recognizes a human being in the image signal using a known pattern recognition technique. Furthermore, information for calculating (that is, determining) the direction and distance of the person is provided. The direction of the person can be calculated on the basis of information on the position of the person in the image of the camera 113C. The distance to the person can be calculated from the size of the person shown in the image, for example. Alternatively, a so-called 3D image may be taken by photographing the surroundings from different viewpoints using the left and right cameras, and the depth distance information may be provided by analyzing the depth of the 3D image.
As the human sensor 54, for example, a human sensor that detects infrared rays emitted by a person has been put into practical use for a lighting switch or a security system. In addition, a device that detects the presence of a person using ultrasonic waves, visible light, or the like may be used. Such a commercially available human sensor or a technology applied thereto may be used.
制御部11内のCPUは、音声認識部113Sによる音声認識、画像解析部113Aによる画像解析および/または人感センサ54からの出力信号に基づいて周辺に人の存否および人が存在するときはその方向と距離の算出に用いる情報を得る。
動力部21は、掃除ロボット1の左右の駆動輪を回転および停止させる駆動モータによって走行を実現する部分である。左右の駆動輪を独立して正逆両方向に回転させ得るように駆動モータを構成することにより、掃除ロボット1の前進、後退、旋回、加減速などの走行状態を実現している。
The CPU in the control unit 11 determines whether or not a person exists in the vicinity based on voice recognition by the voice recognition unit 113S, image analysis by the image analysis unit 113A, and / or an output signal from the human sensor 54. Get information used to calculate direction and distance.
The power unit 21 is a part that realizes traveling by a drive motor that rotates and stops the left and right drive wheels of the cleaning robot 1. By configuring the drive motor so that the left and right drive wheels can be independently rotated in both forward and reverse directions, the cleaning robot 1 is in a traveling state such as forward, backward, turning, and acceleration / deceleration.
吸気口31および排気口32は、それぞれ掃除のための空気の吸気および排気を行う部分である。
集塵部15は、室内のゴミやちりを集める掃除機能を実行する部分であり、主として、図示しない集塵容器と、フィルタ部と、集塵容器およびフィルタ部を覆うカバー部とを備える。また、集塵容器には、吸気口31と連通する流入路に通じる流入口と、排気口32と連通する排出路に通じる排気口とを有する。排出路には電動送風機115が配置されている。電動送風機115は、吸気口31から空気を吸い込み、その空気を、流入路を介して集塵容器内に導き、集塵後の空気を排出路を介して排気口32から外部へ放出する気流を発生させる。
The intake port 31 and the exhaust port 32 are portions that perform intake and exhaust of air for cleaning, respectively.
The dust collection part 15 is a part which performs the cleaning function which collects indoor garbage and dust, and is mainly provided with the dust collection container which is not shown in figure, the filter part, and the cover part which covers a dust collection container and a filter part. Further, the dust collecting container has an inflow port that leads to an inflow path that communicates with the intake port 31, and an exhaust port that communicates with an exhaust path that communicates with the exhaust port 32. An electric blower 115 is disposed in the discharge path. The electric blower 115 sucks air from the intake port 31, guides the air into the dust collecting container through the inflow passage, and generates an air flow that releases the collected air from the exhaust port 32 to the outside through the discharge passage. generate.
吸気口31の奥には、底面と平行な軸心廻りに回転する回転ブラシ9が設けられており、吸気口31の左右両側には垂直な回転軸心廻りに回転するサイドブラシ10が設けられている。回転ブラシ9は、回転軸であるローラの外周面に螺旋状にブラシを植設することにより形成されている。サイドブラシ10は、回転軸の下端にブラシ束を放射状に設けることにより形成されている。なお、回転ブラシ9の回転軸および一対のサイドブラシ10の回転軸は、筐体2の底板2aの一部に枢着されると共に、その付近に設けられたブラシモータ119とプーリおよびベルト等を含む動力伝達機構を介して連結されている。これは、単なる一例であり、サイドブラシ10を回転させる専用の駆動モータを設けてもよい。 A rotary brush 9 that rotates about an axis parallel to the bottom surface is provided behind the intake port 31, and a side brush 10 that rotates about a vertical rotation axis is provided on both the left and right sides of the intake port 31. ing. The rotating brush 9 is formed by implanting a brush spirally on the outer peripheral surface of a roller that is a rotating shaft. The side brush 10 is formed by providing a brush bundle radially at the lower end of the rotating shaft. The rotating shaft of the rotating brush 9 and the rotating shaft of the pair of side brushes 10 are pivotally attached to a part of the bottom plate 2a of the housing 2, and a brush motor 119 provided in the vicinity thereof, a pulley, a belt, etc. It is connected via a power transmission mechanism that includes it. This is merely an example, and a dedicated drive motor that rotates the side brush 10 may be provided.
また、この実施形態に係る掃除ロボット1は、付加機能としてイオン発生機能を備えている。排出路には、イオン発生部117が設けられている。このイオン発生部117が動作すると排気口より放出される気流はイオン発生部117で生成されたイオン(例えばプラズマクラスターイオン(登録商標)、または負イオン等でもよい)を含む。そのイオンを含んだ空気は、筐体2の上面に設けた排気口32から排出される。このイオンを含んだ空気により室内の除菌および脱臭が行われる。また負イオンの場合には、人にリラックス効果を与えることも知られている。このとき、排気口32から後方の斜め上方に向けて空気が排気されるので、床面の塵埃の巻き上げが防止され、室内の清浄度を向上することができる。また塵埃を徐電することもでき、集塵された塵埃の廃棄を確実に行える。
なお、イオン発生部117で発生したイオンの一部が流入路へ導かれるようにしてもよい。このようにすれば、吸気口31から流入路に導かれる気流内にイオンが含まれるため、集塵部15が有する図示しない集塵容器およびフィルタの除菌および脱臭を行うことができる。
Moreover, the cleaning robot 1 according to this embodiment has an ion generation function as an additional function. An ion generation unit 117 is provided in the discharge path. When the ion generator 117 is operated, the airflow discharged from the exhaust port includes ions generated by the ion generator 117 (for example, plasma cluster ions (registered trademark), negative ions, or the like). The air containing the ions is exhausted from an exhaust port 32 provided on the upper surface of the housing 2. Indoor air sterilization and deodorization are performed by the air containing the ions. In the case of negative ions, it is also known to give a relaxing effect to humans. At this time, air is exhausted from the exhaust port 32 obliquely upward to the rear, so that the dust on the floor surface is prevented from being rolled up, and the cleanliness of the room can be improved. In addition, the dust can be gradually discharged, and the collected dust can be reliably discarded.
A part of the ions generated by the ion generator 117 may be guided to the inflow path. In this way, since ions are included in the airflow guided from the intake port 31 to the inflow path, it is possible to sterilize and deodorize a dust collection container and a filter (not shown) of the dust collection unit 15.
入力部51は、ユーザが、掃除ロボット1の動作を指示入力する部分であり、掃除ロボット1の筐体の表面に、操作パネル、あるいは操作ボタンとして設けられる。
さらに、前述の掃除機本体に設けられた操作パネルや操作ボタンとは別にリモコンユニットが設けられており、このリモコンユニットも入力部51に相当する。このリモコンユニットに設けられた操作ボタンを押すと、リモコンユニットから赤外線や無線電波信号が送出され、無線通信により動作の指示入力を行う。
The input unit 51 is a part where the user inputs an instruction for the operation of the cleaning robot 1, and is provided on the surface of the housing of the cleaning robot 1 as an operation panel or an operation button.
Further, a remote control unit is provided separately from the operation panel and operation buttons provided in the above-described cleaner body, and this remote control unit also corresponds to the input unit 51. When an operation button provided on the remote control unit is pressed, an infrared ray or a radio wave signal is transmitted from the remote control unit, and an operation instruction is input by wireless communication.
入力部51は、主電源スイッチ52M、電源スイッチ52Sおよび起動スイッチ53を含む。主電源スイッチ52Mは、充電池12から制御部11等への給電を回路的にオン/オフするスイッチである。電源スイッチ52Sは、掃除ロボット1の電源をオン/オフするスイッチである。起動スイッチ53は、清掃作業をスタートさせるスイッチである。入力部51としては、その他のスイッチ(例えば、充電要求スイッチ、運転モードスイッチ、タイマスイッチ)がさらに設けられる。入力部51としてのリモコンがユーザからの指示を受けると、制御部11はこの指示に応答し、例えば動力部21を制御してユーザが指示する方向へ走行させあるいは走行を停止させる。また、例えばイオン発生部117のイオン発生を制御する。 The input unit 51 includes a main power switch 52M, a power switch 52S, and a start switch 53. The main power switch 52M is a switch that turns on / off the power supply from the rechargeable battery 12 to the control unit 11 and the like. The power switch 52S is a switch for turning on / off the power of the cleaning robot 1. The start switch 53 is a switch for starting the cleaning work. As the input unit 51, other switches (for example, a charge request switch, an operation mode switch, a timer switch) are further provided. When the remote controller serving as the input unit 51 receives an instruction from the user, the control unit 11 responds to the instruction, for example, controls the power unit 21 to travel in the direction instructed by the user or stop traveling. Further, for example, the ion generation of the ion generation unit 117 is controlled.
記憶部61は、掃除ロボット1の各種機能を実現するために必要な情報や、制御プログラムを記憶する部分であり、フラッシュメモリ等不揮発性の半導体記憶素子やハードディスク等の記憶媒体が用いられる。
記憶部61には、例えば、充電池12の残容量等の状態を示す電池情報62、掃除ロボット1の走行経路の履歴、現在位置および方向を示す位置情報63、掃除ロボット1の動作モードを示す動作モード情報71を格納する。動作モード情報71は、運転モード72、スタンバイモード73およびスリープモード74を格納する。運転モード72は、清掃作業中であることを示すデータである。スタンバイモード73は、掃除ロボットの状態が起動スイッチ53に応答して掃除を開始できるスタンバイモードであることを示すデータである。スリープモード74は、節電状態のスリープモードであることを示すデータである。
The storage unit 61 stores information necessary for realizing various functions of the cleaning robot 1 and a control program, and uses a non-volatile semiconductor storage element such as a flash memory or a storage medium such as a hard disk.
In the storage unit 61, for example, battery information 62 indicating the state of the remaining capacity of the rechargeable battery 12, a history of the travel route of the cleaning robot 1, position information 63 indicating the current position and direction, and an operation mode of the cleaning robot 1 are shown. The operation mode information 71 is stored. The operation mode information 71 stores an operation mode 72, a standby mode 73, and a sleep mode 74. The operation mode 72 is data indicating that a cleaning operation is being performed. The standby mode 73 is data indicating that the cleaning robot is in a standby mode in which cleaning can be started in response to the activation switch 53. The sleep mode 74 is data indicating that the sleep mode is in the power saving state.
≪走行制御1−人感知部が1つのマイクロフォンと音声認識部を備える構成≫
続いて、人感知部113が1つのマイクロフォンと音声認識部を備える場合に制御部11が行う走行制御について説明する。
図4および5は、制御部11が周囲の人の存否、人の方向および距離に基づいて掃除ロボット1の走行を制御する処理の一態様を示すフローチャートである。図4および図5は、人感知部113として一つのマイクロフォン113Mと音声認識部113Sを備えた構成を前提とした処理である。マイクロフォン113Mは掃除ロボット1が前進する方向に最大感度を有する単一指向性のマイクロフォンである。
≪Running control 1- configuration in which the human sensing unit includes one microphone and a voice recognition unit≫
Next, traveling control performed by the control unit 11 when the human sensing unit 113 includes one microphone and a voice recognition unit will be described.
4 and 5 are flowcharts showing an aspect of a process in which the control unit 11 controls the running of the cleaning robot 1 based on the presence / absence of surrounding people, the direction and distance of the people. FIG. 4 and FIG. 5 are processes based on the premise that the person sensing unit 113 includes one microphone 113M and a voice recognition unit 113S. The microphone 113M is a unidirectional microphone having maximum sensitivity in the direction in which the cleaning robot 1 moves forward.
図4で、マイクロフォン113Mが収集した音を音声認識部113Sが分析し、制御部11は分析結果の情報を得る(ステップS11)。その情報は、収集された音に予め定められた第1閾値以上の大きさの音声が含まれているか否かの情報を含む(ステップS13)。音声が含まれていなければ(ステップS13のNo)、制御部11は周囲に人が存在しないと判断し、障害物を回避しながら清掃作業に伴う走行を継続する(ステップS15)。即ち、清掃がまだ行われていない箇所を辿りながら走行を続ける。
前記ステップS11の変形例について述べる。人感知部113が、近接限界内に人が存在するときにその人を感知する人感センサ54をさらに備える場合、前記ステップS11に加えて、人感センサ54が人の存在を感知したか否かを判定するようにしてもよい。
In FIG. 4, the voice recognition unit 113S analyzes the sound collected by the microphone 113M, and the control unit 11 obtains information on the analysis result (step S11). The information includes information as to whether or not the collected sound includes a sound having a magnitude equal to or higher than a predetermined first threshold (step S13). If the voice is not included (No in step S13), the control unit 11 determines that there is no person in the surroundings, and continues traveling with the cleaning work while avoiding the obstacle (step S15). That is, the vehicle continues to travel while following a portion that has not yet been cleaned.
A modification of step S11 will be described. When the human sensing unit 113 further includes a human sensor 54 that senses a person when the person is within the proximity limit, whether or not the human sensor 54 senses the presence of the person in addition to the step S11. You may make it determine.
制御部11は、全ての箇所の清掃を終えたか否かを判断し(ステップS17)、未清掃の箇所が残っていれば(ステップS17のNo)、ルーチンはステップS11へ戻って人の存否を感知しながら清掃作業を続ける。一方、全ての箇所の清掃が完了したと判断したら(ステップS17のYes)、掃除ロボット1を充電ステーションへ帰還させる。そのために制御部11は、記憶部61の位置情報63を参照し、充電ステーションへ向けて障害物を回避しつつ掃除ロボット1を走行させる(ステップS19)。目標の充電ステーションに到達したら(ステップS21)、充電ステーションに近接させた状態で走行を終了させ(ステップS23)、両者の露出した充電端子どうしを接触させて充電池12の充電を行う。 The control unit 11 determines whether or not all the parts have been cleaned (step S17), and if an uncleaned part remains (No in step S17), the routine returns to step S11 to determine whether a person is present. Continue cleaning while sensing. On the other hand, if it is determined that the cleaning of all the parts has been completed (Yes in step S17), the cleaning robot 1 is returned to the charging station. For this purpose, the control unit 11 refers to the position information 63 in the storage unit 61 and causes the cleaning robot 1 to travel toward the charging station while avoiding obstacles (step S19). When the target charging station is reached (step S21), traveling is terminated in the state of being close to the charging station (step S23), and the rechargeable battery 12 is charged by bringing both exposed charging terminals into contact with each other.
前記ステップS13の判定で、収集された音に音声が含まれていると判断した場合、制御部11は、音声を発した音源である人が掃除ロボット1からどれくらいの距離かを算出する(ステップS25)。算出は、例えば、直接音と反射音の割合や直接音と初期反射音の到達時間差の情報に基づいて行うことができる。この場合、掃除ロボット1が清掃作業を行う部屋の直接音と反射音の割合や直接音と初期反射音の到達時間差を予め登録しておく。掃除ロボット1が図示しない音源回路とスピーカーを有しており、専用の初期設定メニューをユーザが実行すると、制御部は前記音源回路を動作させてテスト用の音を発し、その掃除ロボット1が設置された部屋の音響特性を記憶部61に格納する。このようにして登録された音響特性と清掃作業中に認識した音声とを比較して掃除ロボット1から人までの距離を算出する。 When it is determined in step S13 that the collected sound includes sound, the control unit 11 calculates how far the person who is the sound source that has emitted the sound is from the cleaning robot 1 (step). S25). The calculation can be performed based on, for example, information on the ratio between the direct sound and the reflected sound and the arrival time difference between the direct sound and the initial reflected sound. In this case, the ratio of the direct sound and the reflected sound of the room where the cleaning robot 1 performs the cleaning work and the arrival time difference between the direct sound and the initial reflected sound are registered in advance. When the cleaning robot 1 has a sound source circuit and a speaker (not shown), and a user executes a dedicated initial setting menu, the control unit operates the sound source circuit to emit a test sound, and the cleaning robot 1 is installed. The storage unit 61 stores the acoustic characteristics of the generated room. The distance from the cleaning robot 1 to the person is calculated by comparing the acoustic characteristics thus registered with the voice recognized during the cleaning operation.
そして、制御部11は人までの距離が予め定められた近接限度以下か否かを判断する(ステップS27)。人との距離が近接限度より離れている場合(ステップS27のNo)、人との距離が十分離れていると判断する。この場合、ルーチンは前記ステップS15へ進み、清掃作業に伴う通常の走行を継続する。 And the control part 11 judges whether the distance to a person is below a predetermined proximity limit (step S27). When the distance from the person is far from the proximity limit (No in step S27), it is determined that the distance from the person is sufficiently far away. In this case, the routine proceeds to step S15, and continues normal traveling associated with the cleaning operation.
一方、人との距離が近接限度以下の場合(ステップS27のYes)、制御部11は、掃除ロボット1の走行を一旦停止させる(ステップS29)。停止後(ステップS31)、掃除ロボット1をその場で予め定められた回数nだけ旋回させる(ステップS33)。そして、旋回に伴って変化する音声の強弱の情報を音声認識部113Sから得て、各方向における音声の音量を求め、平均化する(ステップS35)。例えば、旋回角度30度を単位とする12の方向に分割し、旋回中に各方向を向いている間にm回のサンプリングを行う場合に、各方向についてm×n個のサンプリングを平均化して各方向における音声の強弱を得る。なお、ロボットを旋回させる代わりに、指向性を持ったマイクのみを軸回転させることでも実現可能である。 On the other hand, when the distance to the person is equal to or less than the proximity limit (Yes in step S27), the control unit 11 temporarily stops the traveling of the cleaning robot 1 (step S29). After stopping (step S31), the cleaning robot 1 is turned on the spot a predetermined number of times n (step S33). Then, information on the strength of the sound that changes with the turn is obtained from the speech recognition unit 113S, and the sound volume in each direction is obtained and averaged (step S35). For example, when dividing into 12 directions having a turning angle of 30 degrees as a unit and sampling m times while turning in each direction, mxn samplings are averaged for each direction. Get the strength of the voice in each direction. Instead of turning the robot, it can be realized by rotating only a microphone having directivity.
制御部11は、このようにして得られた各方向における音声の強弱に基づいて音声が最も大きい方向に音源があると判断し、その音源から遠ざかる離隔方向として、音源と反対の方向すなわち音声が最も小さい方向を選択する(ステップS37)。 The control unit 11 determines that the sound source is in the direction in which the sound is the largest based on the strength of the sound in each direction obtained in this way, and the direction opposite to the sound source, that is, the sound is the separation direction away from the sound source. The smallest direction is selected (step S37).
そして、制御部11は、決定した離隔方向に向くように掃除ロボット1をその場で旋回させる(図5のステップS39)。掃除ロボット1が離隔方向に向いたら(ステップS41のYes)、制御部11が有するタイマーを予め定められた期間に設定し、タイマーのカウントを開始する(ステップS43)。掃除ロボット1を離隔方向へ走行させる期間である。タイマー設定後、制御部は、離隔方向へ向けて掃除ロボット1を走行させる(ステップS45)。ただし、障害物があればそれを回避しながら走行させる。前記期間が終了するまで、離隔方向へ掃除ロボット1を走行させる(ステップS47)。
前記ステップS43〜S47は、人を感知したら予め定められた期間は掃除ロボット1を離隔方向へ走行させる処理であるが、変形例として、音声の大きさが予め定められた閾値(第2閾値)を下回るまで掃除ロボット1を離隔方向へ走行させるようにしてもよい。
以上は、走行制御のうち特に、人を感知して離隔方向へ走行させる制御の説明である。続いて、清掃作業で走行中、離隔方向へ走行中および充電ステーションへ帰還中に障害物を回避しながら走行させる制御について説明する。
And the control part 11 turns the cleaning robot 1 on the spot so that it may face in the determined separation direction (step S39 of FIG. 5). When the cleaning robot 1 faces in the separation direction (Yes in step S41), the timer of the control unit 11 is set to a predetermined period, and the timer count is started (step S43). This is a period during which the cleaning robot 1 is traveling in the separation direction. After setting the timer, the control unit causes the cleaning robot 1 to travel in the separation direction (step S45). However, if there are obstacles, run while avoiding them. The cleaning robot 1 is caused to travel in the separation direction until the period ends (step S47).
Steps S43 to S47 are processes for causing the cleaning robot 1 to travel in the separation direction during a predetermined period when a person is detected. As a modification, a threshold value (second threshold value) with a predetermined sound volume is used. You may make it make the cleaning robot 1 drive | work to a separation direction until it falls below.
The above is the description of the traveling control, in particular, the control for sensing a person and traveling in the separation direction. Next, control for traveling while avoiding obstacles while traveling in the cleaning operation, traveling in the separation direction, and returning to the charging station will be described.
図6および7は、制御部11が障害物を回避しながら筐体を走行させる処理の例を示すフローチャートである。図6に示すように、制御部11は、前方超音波センサ14F、左方超音波センサ14Lおよび右方超音波センサ14Rの何れかが、予め定められた距離の閾値tr内に障害物を検出したか否かを走行中に監視する(ステップS51)。閾値tr内に障害物が存在しなければ(ステップS53のNo)、直進を続ける。
何れかの超音波センサが閾値tr内に障害物の存在を検出したとき、制御部11は、それに応答して左駆動輪22Lおよび右駆動輪22Rを共に減速させて(ステップS55)、駆動輪を停止させる(ステップS57)。駆動輪が停止したら(ステップS57のYes)、いずれの超音波センサが障害物を検出しているかに応じて掃除ロボット1を右または左に旋回させる。
6 and 7 are flowcharts illustrating an example of processing in which the control unit 11 travels the casing while avoiding obstacles. As illustrated in FIG. 6, the control unit 11 detects any obstacle within a predetermined distance threshold tr by any one of the front ultrasonic sensor 14F, the left ultrasonic sensor 14L, and the right ultrasonic sensor 14R. Whether or not the vehicle has been operated is monitored during traveling (step S51). If there is no obstacle within the threshold value tr (No in step S53), the vehicle continues straight.
When any ultrasonic sensor detects the presence of an obstacle within the threshold tr, the control unit 11 decelerates both the left driving wheel 22L and the right driving wheel 22R in response to the detection (step S55), and the driving wheel. Is stopped (step S57). When the driving wheel stops (Yes in step S57), the cleaning robot 1 is turned right or left depending on which ultrasonic sensor detects the obstacle.
まず、制御部11は、前方超音波センサ14Fが障害物を検出しているか否かを調べる(ステップS59)。障害物を検出している場合(ステップS59のYes)、制御部11は、左駆動輪22Lを後進方向に回転させ右駆動輪を前進方向に回転させて、掃除ロボット1を停止位置で左側に旋回させる(ステップS61)。前方超音波センサ14F、左方超音波センサ14Lおよび右方超音波センサ14Rが何れも閾値tr内に障害物を検出しなくなるまで左旋回を続ける(ステップS63のNoのループ)。 First, the control unit 11 checks whether or not the front ultrasonic sensor 14F has detected an obstacle (step S59). When an obstacle is detected (Yes in step S59), the control unit 11 rotates the left driving wheel 22L in the backward direction and the right driving wheel in the forward direction, and moves the cleaning robot 1 to the left at the stop position. Turn (step S61). The left turn is continued until none of the front ultrasonic sensor 14F, the left ultrasonic sensor 14L, and the right ultrasonic sensor 14R detects an obstacle within the threshold value tr (No loop in step S63).
障害物が検出されなくなったら(ステップS63のYes)、制御部11は掃除ロボット1の旋回を停止させた後、左駆動輪22Lおよび右駆動輪22Rを共に前進方向に回転させて掃除ロボット1を予め定められた通常走行モード用走行速度Vrで直進させる(ステップS65)。即ち、左駆動輪22Lおよび右駆動輪22Rを共に走行速度Vrに達するまで加速した後、前記速度Vrで走行させる。 When the obstacle is no longer detected (Yes in step S63), the control unit 11 stops the rotation of the cleaning robot 1, and then rotates the left driving wheel 22L and the right driving wheel 22R in the forward direction to move the cleaning robot 1. The vehicle travels straight at a predetermined traveling speed Vr for normal traveling mode (step S65). That is, both the left driving wheel 22L and the right driving wheel 22R are accelerated until they reach the traveling speed Vr, and then travel at the speed Vr.
一方、前記ステップS59の判定で、前方超音波センサ14Fが障害物を検出していない場合(ステップS59のNo)、制御部11は、右方超音波センサ14Rが障害物を検出しているか否かを調べる(ステップS67)。障害物を検出している場合(ステップS67のYes)、制御部11は、左駆動輪22Lを後進方向に回転させ右駆動輪を前進方向に回転させて、掃除ロボット1を停止位置で左側に旋回させる(図7のステップS69)。前方超音波センサ14F、左方超音波センサ14Lおよび右方超音波センサ14Rが何れも閾値tr内に障害物を検出しなくなるまで左旋回を続ける(ステップS71のNoのループ)。 On the other hand, if it is determined in step S59 that the front ultrasonic sensor 14F has not detected an obstacle (No in step S59), the control unit 11 determines whether the right ultrasonic sensor 14R has detected an obstacle. (Step S67). When the obstacle is detected (Yes in step S67), the control unit 11 rotates the left driving wheel 22L in the backward direction and the right driving wheel in the forward direction, and moves the cleaning robot 1 to the left at the stop position. Turn (step S69 in FIG. 7). The left turn is continued until none of the front ultrasonic sensor 14F, the left ultrasonic sensor 14L, and the right ultrasonic sensor 14R detects an obstacle within the threshold value tr (No loop in step S71).
障害物が検出されなくなったら(ステップS71のYes)、制御部11は掃除ロボット1の旋回を停止させた後、左駆動輪22Lおよび右駆動輪22Rを共に前進方向に回転させて掃除ロボット1を予め定められた走行速度Vrで直進させる(ステップS73)。即ち、左駆動輪22Lおよび右駆動輪22Rを共に走行速度Vrに達するまで加速した後、前記速度Vrで走行させる。 When the obstacle is no longer detected (Yes in step S71), the control unit 11 stops the rotation of the cleaning robot 1, and then rotates the left driving wheel 22L and the right driving wheel 22R in the forward direction to move the cleaning robot 1. The vehicle travels straight at a predetermined traveling speed Vr (step S73). That is, both the left driving wheel 22L and the right driving wheel 22R are accelerated until they reach the traveling speed Vr, and then travel at the speed Vr.
一方、図6のステップS67の判定で、右方超音波センサ14Rが障害物を検出していない場合(ステップS67のNo)、残る左方超音波センサ14Lが障害物を検出していることになる。そこで、制御部11は、左駆動輪22Lを前進方向に回転させ右駆動輪を後進方向に回転させて、掃除ロボット1を停止位置で右側に旋回させる(図7のステップS75)。前方超音波センサ14F、左方超音波センサ14Lおよび右方超音波センサ14Rが何れも閾値tr内に障害物を検出しなくなるまで右旋回を続ける(ステップS77のNoのループ)。 On the other hand, when the right ultrasonic sensor 14R has not detected an obstacle in the determination of step S67 in FIG. 6 (No in step S67), the remaining left ultrasonic sensor 14L has detected the obstacle. Become. Therefore, the control unit 11 rotates the left drive wheel 22L in the forward direction and the right drive wheel in the reverse direction, and turns the cleaning robot 1 to the right at the stop position (step S75 in FIG. 7). The front ultrasonic sensor 14F, the left ultrasonic sensor 14L, and the right ultrasonic sensor 14R continue to turn right until no obstacle is detected within the threshold value tr (No loop in step S77).
障害物が検出されなくなったら(ステップS77のYes)、ルーチンは前記ステップS73へ進む。制御部11は掃除ロボット1の旋回を停止させた後、左駆動輪22Lおよび右駆動輪22Rを共に前進方向に回転させて掃除ロボット1を前述の走行速度Vrで直進させる。 If no obstacle is detected (Yes in step S77), the routine proceeds to step S73. The control unit 11 stops the turning of the cleaning robot 1 and then rotates both the left driving wheel 22L and the right driving wheel 22R in the forward direction to cause the cleaning robot 1 to go straight at the traveling speed Vr.
≪走行制御2−人感知部が4つのマイクロフォンと音声認識部を備える構成≫
続いて、人感知部が4つのマイクロフォンと音声認識部を備える場合に制御部11が行う走行制御について説明する。
図8および9は、制御部11が周囲の人の存否、人の方向および距離に基づいて掃除ロボット1の走行を制御する処理の異なる態様を示すフローチャートである。図8および図9は、人感知部113として前後左右に4つのマイクロフォン113Mと音声認識部113Sを備える構成を前提とした処理である。4つのマイクロフォン113Mは、いずれも単一指向性のマイクロフォンであって、掃除ロボット1の前進方向、後退方向、左方向および右方向のそれぞれに最大感度を有するように、互いに異なる方向に向けて装着されている。
≪Running control 2-configuration in which the human sensing unit includes four microphones and a voice recognition unit≫
Next, traveling control performed by the control unit 11 when the human sensing unit includes four microphones and a voice recognition unit will be described.
8 and 9 are flowcharts showing different modes of processing in which the control unit 11 controls the running of the cleaning robot 1 based on the presence / absence of surrounding people, the direction and distance of the people. 8 and 9 are processes based on the premise that the human sensing unit 113 includes four microphones 113M and voice recognition units 113S on the front, rear, left, and right. The four microphones 113M are all unidirectional microphones and are mounted in different directions so that the cleaning robot 1 has maximum sensitivity in each of the forward direction, the backward direction, the left direction, and the right direction. Has been.
以下の図8および図9の処理は、図4および図5に対応する処理を含んでいる。そこで、重複する処理は説明を省略し、異なる処理について説明する。
図8に示すように、前後左右のマイクロフォン113Mが収集した音を音声認識部113Sが分析し、制御部11は分析結果の情報を得る(ステップS11)。続くステップS83〜S93の処理は、図4のステップS13〜S23の処理に対応している。
The following processing in FIGS. 8 and 9 includes processing corresponding to FIGS. 4 and 5. Therefore, the description of the overlapping processes is omitted, and different processes are described.
As shown in FIG. 8, the speech recognition unit 113S analyzes sounds collected by the front, rear, left and right microphones 113M, and the control unit 11 obtains information on the analysis result (step S11). The subsequent steps S83 to S93 correspond to the steps S13 to S23 of FIG.
ステップS95で、音源までの距離の算出には、各マイクロフォンが収集した音声の音量差、時間差および/または位相差の情報を用いる。なお、3つのマイクロフォンを備えていれば、そのうち2つのマイクロフォンが収集した音声の音量差、時間差および/または位相差に基づいて音源の方向(定位)が検出できる。3つのマイクロフォンから2つを選ぶ3通りの組み合わせについてそれぞれ定位を検出し、それらを組み合わせることで音源までの距離が算出できる。この実施形態では前後左右の4つのマイクロフォンを用いてより正確に音源までの距離を算出している。 In step S95, the sound volume difference, time difference and / or phase difference information collected by each microphone is used to calculate the distance to the sound source. If three microphones are provided, the direction (localization) of the sound source can be detected based on the volume difference, time difference and / or phase difference of the sound collected by the two microphones. The distance to the sound source can be calculated by detecting the localization for each of the three combinations of selecting two from the three microphones and combining them. In this embodiment, the distance to the sound source is more accurately calculated using four microphones, front, rear, left and right.
ステップS97は図4のステップS27に対応している。ステップS97で、人との距離が近接限度以下であると制御部11が判断した場合(ステップS97のYes)、制御部11は、音声認識部113Sから得た各マイクロフォンの音量差、時間差および/または位相差の情報に基づいて音源の方向を決定する(ステップS99)。その音源から遠ざかる離隔方向として、音源と反対の方向を選択する(ステップS101)。 Step S97 corresponds to step S27 in FIG. When the control unit 11 determines in step S97 that the distance to the person is equal to or less than the proximity limit (Yes in step S97), the control unit 11 determines the volume difference, time difference, and / or difference between the microphones obtained from the voice recognition unit 113S. Alternatively, the direction of the sound source is determined based on the phase difference information (step S99). A direction opposite to the sound source is selected as the separation direction away from the sound source (step S101).
ステップS103〜S107および図9のステップS109〜S111は、図5のステップS39〜S47に対応している。ステップS107〜S111は、人を感知したら予め定められた期間は掃除ロボット1を離隔方向へ走行させる処理であるが、変形例として、人との距離が予め定められた閾値(第3閾値)以上になるまで掃除ロボット1を離隔方向へ走行させるようにしてもよい。
障害物を回避しながら筐体を走行させる処理はこの態様においても図6および図7に示す通りである。
以上が、4つのマイクロフォンを備える場合の走行制御である。3つ以上のマイクロフォンを備える場合も同様の走行制御が適用できる。
Steps S103 to S107 and steps S109 to S111 in FIG. 9 correspond to steps S39 to S47 in FIG. Steps S107 to S111 are processes in which the cleaning robot 1 travels in the separation direction during a predetermined period when a person is detected. As a modification, the distance from the person is equal to or greater than a predetermined threshold (third threshold). The cleaning robot 1 may be caused to travel in the separation direction until
The process of running the housing while avoiding the obstacle is also as shown in FIGS. 6 and 7 in this embodiment.
The above is the traveling control when four microphones are provided. The same traveling control can be applied when three or more microphones are provided.
≪走行制御3−人感知部がカメラ、画像解析部、マイクロフォンおよび音声認識部を備える構成≫
続いて、人感知部がカメラ、画像解析部、マイクロフォンおよび音声認識部を備える場合に制御部11が行う走行制御について説明する。
図10および図11は、制御部11が周囲の人の存否、人の方向および距離に基づいて掃除ロボット1の走行を制御する処理のさらに異なる態様を示すフローチャートである。図10および図11は、人感知部113としてカメラ113C、画像解析部113A、マイクロフォン113Mおよび音声認識部113Sを備える構成を前提とした処理である。カメラ113Cは1台以上のカメラからなり、前方を中心として左右にそれぞれ90度以上の視野角を撮影する。
≪Running control 3-configuration in which the human detection unit includes a camera, an image analysis unit, a microphone, and a voice recognition unit≫
Next, traveling control performed by the control unit 11 when the human sensing unit includes a camera, an image analysis unit, a microphone, and a voice recognition unit will be described.
FIG. 10 and FIG. 11 are flowcharts showing yet another aspect of the process in which the control unit 11 controls the running of the cleaning robot 1 based on the presence / absence of a surrounding person, the direction and distance of the person. FIGS. 10 and 11 are processes based on the premise that the human sensing unit 113 includes a camera 113C, an image analysis unit 113A, a microphone 113M, and a voice recognition unit 113S. The camera 113C is composed of one or more cameras and shoots a viewing angle of 90 degrees or more on the left and right with the front as the center.
以下の図10および図11の処理は、図4、図5、図8および図9に対応する処理を含んでいる。そこで、重複する処理は説明を省略し、異なる処理について説明する。
図10で、カメラ113Cが撮影した画像を画像解析部113Aが解析し、制御部11は解析結果の情報を得る(ステップS121)。その情報は、撮影された画像に人が写っているか否かの情報を含む(ステップS123)。人が写っていない場合、ルーチンはステップS125に進み、音声により人を感知したか否かの判定を行う。ステップS125〜S129の処理は、図4のステップS11、S13およびS25の処理に対応している。音声により人を感知した場合は、音源としての人までの距離を決定した後、ルーチンは後述するステップS133へ進む。音声によっても人を感知しなかった場合、ルーチンは後述するステップS137へ進む。
The following processes in FIGS. 10 and 11 include processes corresponding to those in FIGS. 4, 5, 8, and 9. Therefore, the description of the overlapping processes is omitted, and different processes are described.
In FIG. 10, the image analysis unit 113A analyzes the image captured by the camera 113C, and the control unit 11 obtains information on the analysis result (step S121). The information includes information indicating whether or not a person is shown in the captured image (step S123). If no person is shown, the routine proceeds to step S125, where it is determined whether or not a person has been detected by voice. The processes in steps S125 to S129 correspond to the processes in steps S11, S13, and S25 in FIG. When a person is detected by voice, after determining the distance to the person as the sound source, the routine proceeds to step S133 described later. If no person is detected by voice, the routine proceeds to step S137 described later.
ここで、変形例について述べる。人感知部113がカメラ113Cと画像解析部113Aを備えるが、マイクロフォン113Mと音声認識部113Sとを備えていない構成が考えられる。この場合、前記ステップS125〜S129を省略し、ステップS123で人が写っていない場合(ステップS123のNo)は、ルーチンがステップS137に進んで通常の走行を継続するようにすればよい。異なる変形例として、人感知部113が、近接限界内に人が存在するときにその人を感知する人感センサ54をさらに備える場合、前記ステップS125〜S129に代えて、人感センサ54が人の存在を感知したか否かを判定し、人を感知した場合は人までの距離を決定したうえでルーチンがステップS133へ進み、人を感知しなかった場合はルーチンがステップS137へ進むようにしてもよい。さらなる変形例として、画像に基づく判定、人感センサ54に基づく判定、音声に基づく判定の全部または一部を組み合わせてもよい。 Here, a modified example will be described. A configuration in which the human sensing unit 113 includes the camera 113C and the image analysis unit 113A but does not include the microphone 113M and the voice recognition unit 113S is conceivable. In this case, the steps S125 to S129 are omitted, and if no person is captured in step S123 (No in step S123), the routine may proceed to step S137 and continue normal driving. As a different modification, when the human sensing unit 113 further includes a human sensor 54 that senses a person when the person is within the proximity limit, the human sensor 54 is replaced with the human sensor 54 instead of the steps S125 to S129. If a person is sensed, the distance to the person is determined and the routine proceeds to step S133. If no person is sensed, the routine proceeds to step S137. Good. As a further modification, all or part of the determination based on the image, the determination based on the human sensor 54, and the determination based on the sound may be combined.
一方、前記ステップS123で、画像に人が写っていると判断した場合(ステップS123のYes)、制御部11は、画像に写った人が掃除ロボット1からどれくらいの距離かを算出する(ステップS131)。算出は、例えば、画像に写った人の大きさに基づいて行うことができる。
そして、制御部11は人までの距離が予め定められた近接限度以下か否かを判断する(ステップS133)。人との距離が近接限度より離れている場合(ステップS133のNo)、ルーチンは前記ステップS137へ進み、清掃作業に伴う通常の走行を継続する。
On the other hand, when it is determined in step S123 that a person is shown in the image (Yes in step S123), the control unit 11 calculates how far the person shown in the image is from the cleaning robot 1 (step S131). ). The calculation can be performed based on, for example, the size of the person shown in the image.
And the control part 11 judges whether the distance to a person is below a predetermined proximity limit (step S133). If the distance from the person is greater than the proximity limit (No in step S133), the routine proceeds to step S137 and continues the normal travel associated with the cleaning operation.
一方、人との距離が近接限度以下の場合(ステップS133のYes)、制御部11は、画像のどの部分に人が写っているかに基づいて人の存在する方向を決定し、その方向に基づいて走行を離隔方向に変更する(ステップS135)。その後、ルーチンは前記ステップS137へ進み、清掃作業に伴う通常の走行を継続する。ステップS137〜S145は、図4のステップS15〜S23に対応する。
続いて、走行を離隔方向に変更する前記ステップS135の処理の詳細を述べる。
On the other hand, when the distance to the person is equal to or smaller than the proximity limit (Yes in step S133), the control unit 11 determines the direction in which the person exists based on which part of the image the person is in, and based on the direction. The travel is changed to the separation direction (step S135). Thereafter, the routine proceeds to step S137, and continues normal traveling associated with the cleaning operation. Steps S137 to S145 correspond to steps S15 to S23 of FIG.
Next, details of the process of step S135 for changing the travel to the separation direction will be described.
図11は、走行を離隔方向に変更する前記ステップS135の詳細な処理を示すフローチャートである。図11に示すように、制御部11は、カメラ113Cで撮影された画像中に人が写っている位置を認識する(ステップS151)。人が画像中央、即ち前方より右寄りの位置に写っている場合は(ステップS153のYes)、その人から遠ざかるように左側に筐体を旋回させる(ステップS155)。写っている人が画像の右端から外れて写らなくなるまで左旋回を続ける(ステップS157のNoのループ)。人が画像に写らなくなったら(ステップS157のYes)、旋回をやめて掃除ロボット1を前方に走行させる(ステップS159)。 FIG. 11 is a flowchart showing the detailed process of step S135 for changing the travel to the separation direction. As illustrated in FIG. 11, the control unit 11 recognizes a position where a person is captured in an image photographed by the camera 113C (step S151). If a person is in the center of the image, that is, at a position to the right of the front (Yes in step S153), the housing is turned to the left so as to move away from the person (step S155). The left turn is continued until the person being photographed deviates from the right end of the image and is no longer photographed (No loop in step S157). When a person is not shown in the image (Yes in step S157), the turning is stopped and the cleaning robot 1 is moved forward (step S159).
一方、前記ステップS153の判定で、人が画像中央あるいは左寄りに写っている場合(ステップS153のNo)、制御部11は、その人から遠ざかるように右側に筐体を旋回させる(ステップS161)。写っている人が画像の左端から外れて写らなくなるまで右旋回を続ける(ステップS163のNoのループ)。人が画像に写らなくなったら(ステップS163のYes)、旋回をやめて掃除ロボット1を前方に走行させる(ステップS159)。
以上が走行を離隔方向に変更するステップS135の詳細である。
On the other hand, if it is determined in step S153 that the person is in the center or the left side of the image (No in step S153), the control unit 11 turns the housing to the right so as to move away from the person (step S161). The right turn is continued until the person in the picture is removed from the left end of the image and no longer appears (No loop in step S163). When a person is not captured in the image (Yes in step S163), the turning is stopped and the cleaning robot 1 is moved forward (step S159).
The above is the detail of step S135 which changes driving | running | working to a separation direction.
図10に示すフローチャートでは、ステップS123で画像に人が写っていると判断したうえでステップS135を実行する。よって、画像中には人が写っていることを前提としている。ところが、前述の変形例で、音声に基づいてあるいは人感センサ54によって周囲に人が存在すると判断した場合、その人がカメラで撮影される視野内にいるとは限らない。例えば音声に基づいて人を検知した場合はその音声によって人までの距離を決定することもできる。しかし、カメラの画像に基づいてより高い精度で距離を決定したい場合がある。その場合、人までの距離を算出する処理を画像に基づいて行うには、画像に人が写っていなければならない。 In the flowchart shown in FIG. 10, step S135 is executed after it is determined in step S123 that a person is in the image. Therefore, it is assumed that a person is shown in the image. However, in the above-described modification, when it is determined that a person is present in the surroundings based on the sound or by the human sensor 54, the person is not always in the field of view taken by the camera. For example, when a person is detected based on voice, the distance to the person can be determined by the voice. However, there are cases where it is desired to determine the distance with higher accuracy based on the image of the camera. In that case, in order to perform the process of calculating the distance to the person based on the image, the person must be shown in the image.
そこで、制御部11は、掃除ロボット1の走行を停止させてその場で旋回さて、旋回中の周囲の画像をカメラ113Cで撮影させるように制御する。これによって、停止の時点ではカメラの視野外に人がいたとしても、旋回中にその人が画像に写る。制御部11は、その人が写った画像を用いてその人がどれだけ離れた距離にいるかを算出する。また、その人が画像に写ったときに掃除ロボット1がどの方向を向いているかを位置情報63に基づいて判断し、前記画像のどの部分に人が写っているかとあわせてその人がいる方向を判断する。
なお、上述の実施形態においては、人感知部113が人を感知した場合、感知した人までの距離を判定する場合について説明したが、本発明の掃除ロボット1は、必ずしも感知した人までの距離を判定する必要はない。この場合、人感知部113が人を感知すると、上述した方法で、感知した人の方向を判定して、制御部11は、感知した人から前記筐体が遠ざかる離隔方向へ筐体を走行させる。
また、上述の実施形態においては、掃除作業の終了を、全ての箇所の清掃を終えたことをもって判断する場合について説明したが、本発明の掃除ロボット1は、異なる方法で掃除作業の終了を判断してもよい。例えば、掃除ロボット1は、一定時間継続して掃除作業を継続したことをもって、掃除作業の終了を判断してもよく、充電池12の残量が少なくなったことをもって、掃除作業の終了を判断してもよい。
人感知部113がマイクロフォン113Mを備える場合の別の変形例として、通常時カメラはOFFになっており、マイクロフォン113Mが収集した音が予め定められた閾値以上の大きさであった場合にロボットを停止させ、カメラを起動する。その場で360度回転して画像に人が写っていると判断した場合、ステップS135へ遷移する。これにより、カメラを常時ONして画像処理及び音声認識処理を行わないため、低消費電力化が可能である。
Therefore, the control unit 11 performs control so that the cleaning robot 1 stops traveling and turns on the spot, and the surrounding image of the turning is captured by the camera 113C. As a result, even if there is a person outside the field of view of the camera at the time of the stop, the person appears in the image during the turn. The control unit 11 calculates how far the person is away using an image of the person. Further, the direction in which the cleaning robot 1 faces when the person appears in the image is determined based on the position information 63, and the direction in which the person is present in addition to which part of the image the person is in Judging.
In the above-described embodiment, the case where the human sensing unit 113 senses a person has been described as determining the distance to the sensed person. However, the cleaning robot 1 of the present invention does not necessarily require the distance to the sensed person. There is no need to judge. In this case, when the person sensing unit 113 senses a person, the direction of the sensed person is determined by the above-described method, and the control unit 11 causes the casing to travel in a separation direction in which the casing moves away from the sensed person. .
In the above-described embodiment, the case where the end of the cleaning operation is determined based on the completion of the cleaning of all the portions has been described. However, the cleaning robot 1 of the present invention determines the end of the cleaning operation by a different method. May be. For example, the cleaning robot 1 may determine the end of the cleaning operation when the cleaning operation is continued for a certain period of time, and determines the end of the cleaning operation when the remaining amount of the rechargeable battery 12 is low. May be.
As another modification in the case where the human sensing unit 113 includes the microphone 113M, the camera is normally turned off, and the robot is turned off when the sound collected by the microphone 113M is larger than a predetermined threshold. Stop and start the camera. If it is determined that a person is shown in the image after rotating 360 degrees on the spot, the process proceeds to step S135. Accordingly, since the camera is always turned on and image processing and voice recognition processing are not performed, power consumption can be reduced.
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。 In addition to the embodiments described above, there can be various modifications of the present invention. These modifications should not be construed as not belonging to the scope of the present invention. The present invention should include the meaning equivalent to the scope of the claims and all modifications within the scope.
なお、この発明において、吸塵機構は、ゴミやちりを集める掃除機能を実現するものである。その具体的な構成の一例は、吸気口、回転ブラシ、その回転ブラシを回転させる機構、集塵フィルタ、流入路、排出路、電動送風機を含んでなる。吸気口は、筐体底面に設けられて床面の塵埃を吸込む。回転ブラシは吸気口から露出して床面を掃くように設けられる。集塵フィルタは、筐体内に収容されて吸込まれた塵埃を集塵容器内に留め、空気を通過させる。流入路は吸気口から集塵容器へと連通する経路である。排出路は集塵容器および集塵フィルタから前記排気口へと連通する経路である電動送風機は、排出路に配置され、吸気口から空気を吸い込んで流入路を介して集塵容器に導く。さらにその空気を集塵フィルタ、排出路を経て排気口へと導き排出させる。前述した実施形態において、吸塵機構は、吸気口、回転ブラシ、ブラシモータ、集塵容器およびフィルタ、流入路、排出路および電動送風機に相当する。 In the present invention, the dust suction mechanism realizes a cleaning function for collecting dust and dust. An example of the specific configuration includes an air inlet, a rotating brush, a mechanism for rotating the rotating brush, a dust collection filter, an inflow path, an exhaust path, and an electric blower. The air inlet is provided on the bottom surface of the housing and sucks dust on the floor. The rotating brush is provided so as to be exposed from the air inlet and sweep the floor surface. The dust collection filter retains dust sucked in by being accommodated in the housing, and allows air to pass therethrough. The inflow path is a path communicating from the intake port to the dust collecting container. The electric blower, which is a path communicating from the dust collection container and the dust collection filter to the exhaust port, is disposed in the discharge path, sucks air from the intake port, and guides it to the dust collection container via the inflow channel. Further, the air is led to the exhaust port through the dust collection filter and the discharge path and discharged. In the embodiment described above, the dust suction mechanism corresponds to an air inlet, a rotating brush, a brush motor, a dust collecting container and a filter, an inflow path, a discharge path, and an electric blower.
また、筐体は、自動車に例えると車体に相当するものであり、掃除機の吸塵機構や回路を収容している。さらに、ロボット掃除機を走行させるための機構として左右の駆動輪とそれらの駆動輪を独立して駆動する動力部としてのモータを備えている。
障害物検出部は、例えば、障害物への近接を検出する超音波センサを用いて実現される。さらに、障害物との衝突を検出するスイッチまたはセンサを有してもよい。人感知部は、ロボット掃除機の周囲に存在する人を感知するものである。人だけではなく動物を感知してよいが感知しなくてもよい。その具体的な態様は、例えば、音声を感知するマイクロフォンおよび音声認識回路、画像を捉えるカメラおよび画像解析部および/または人感センサである。前述した実施形態において、人感知部は、マイクロフォンおよび音声認識部、カメラおよび画像解析部並びに人感センサに相当する。
Further, the housing corresponds to a vehicle body when compared to an automobile, and houses a dust suction mechanism and a circuit of a vacuum cleaner. In addition, as a mechanism for running the robot cleaner, left and right drive wheels and a motor as a power unit for independently driving the drive wheels are provided.
The obstacle detection unit is realized by using, for example, an ultrasonic sensor that detects proximity to the obstacle. Furthermore, you may have a switch or a sensor which detects the collision with an obstruction. The human sensing unit senses a person present around the robot cleaner. Not only humans but also animals may be sensed but not. Specific examples thereof include, for example, a microphone and a voice recognition circuit that sense sound, a camera and image analysis unit that captures an image, and / or a human sensor. In the above-described embodiment, the human sensing unit corresponds to a microphone and a voice recognition unit, a camera and an image analysis unit, and a human sensor.
制御部のハードウェアは、主として、CPU、ROM、RAM、I/Oコントローラ、タイマー等を有するマイクロコンピュータであり、前記CPUがROMあるいは外部の記憶部に予め格納された制御プログラムに従ってそれらハードウェア資源を用いて処理を実行し制御部としての機能を実現する。前述した実施形態において、制御部は、清掃作業を実行するために電動送風機、ブラシモータのハードウェア資源を制御し、また、動力部、障害物検出部、人感知部等のハードウェア資源を用いて走行制御を具体的に実現する。
なお、離隔方向としては人と真反対の方向が好ましいが、人から遠ざかる方向であれば必ずしも真反対でなくてもよい。即ち、掃除ロボットから人に向かう方向を角度の基準とするとき90度以上かつ270度以下の方向であれば離隔方向に含まれる。
The hardware of the control unit is mainly a microcomputer having a CPU, a ROM, a RAM, an I / O controller, a timer, and the like, and the hardware resources according to a control program stored in advance in the ROM or an external storage unit. The function as a control unit is realized by executing the process using. In the above-described embodiment, the control unit controls the hardware resources of the electric blower and the brush motor in order to perform the cleaning work, and uses the hardware resources such as the power unit, the obstacle detection unit, and the human sensing unit. To specifically realize the running control.
The separation direction is preferably the direction opposite to the person, but may not necessarily be the opposite as long as it is away from the person. That is, when the direction from the cleaning robot toward the person is used as a reference for the angle, a direction of 90 degrees or more and 270 degrees or less is included in the separation direction.
1:掃除ロボット
2:筐体
2a:底板
2b:天板
2c:側板
3:蓋部
9:回転ブラシ
10:サイドブラシ
11:制御部
12:充電池
14:障害物検出部
14C:衝突センサ
14F:前方超音波センサ
14L:左方超音波センサ
14R:右方超音波センサ
15:集塵部
18:前輪床面検出センサ
19L:左輪床面検出センサ
19R:右輪床面検出センサ
21:動力部
22L:左駆動輪
22R:右駆動輪
26:後輪
27:前輪
31:吸気口
32:排気口
51:入力部
52M:主電源スイッチ
52S:電源スイッチ
53:起動スイッチ
54:人感センサ
61:記憶部
62:電池情報
63:位置情報
71:動作モード情報
72:運転モード
73:スタンバイモード
74:スリープモード
113:人感知部
113A:画像解析部
113C:カメラ
113M:マイクロフォン
113S:音声認識部
115:電動送風機
117:イオン発生部
119:ブラシモータ
1: Cleaning robot 2: Housing 2a: Bottom plate 2b: Top plate 2c: Side plate 3: Lid 9: Rotating brush 10: Side brush 11: Control unit 12: Rechargeable battery 14: Obstacle detection unit 14C: Collision sensor 14F: Front ultrasonic sensor 14L: Left ultrasonic sensor 14R: Right ultrasonic sensor 15: Dust collection unit 18: Front wheel floor surface detection sensor 19L: Left wheel floor surface detection sensor 19R: Right wheel floor surface detection sensor 21: Power unit 22L : Left drive wheel 22R: Right drive wheel 26: Rear wheel 27: Front wheel 31: Inlet port 32: Exhaust port 51: Input unit 52M: Main power switch 52S: Power switch 53: Start switch 54: Human sensor 61: Storage unit 62: Battery information 63: Position information 71: Operation mode information 72: Operation mode 73: Standby mode 74: Sleep mode 113: Human sensing unit 113A: Image analysis unit 113C: Camera 113 : Microphone 113S: speech recognition unit 115: an electric blower 117: ion generating unit 119: brush motor
Claims (7)
自走経路中の障害物を検出する障害物検出部と、
人の存在を感知する人感知部と、
前記障害物検出部により検出された障害物を回避して走行させる制御部とを備え、
前記制御部は、前記人感知部が人の存在を感知するとそれに応答してその人から前記筐体が遠ざかる離隔方向へ前記筐体を走行させることを特徴とする自走式掃除機。 A housing that houses the dust-absorbing mechanism and performs the cleaning work while running on its own,
An obstacle detection unit for detecting obstacles in the self-running path;
A human sensing unit that senses the presence of a person,
A controller that travels while avoiding the obstacle detected by the obstacle detector,
When the human sensing unit senses the presence of a person, the control unit causes the housing to travel in a direction away from the person in response to the presence of the person.
撮影された画像に写った人を認識してその人の方向に係る情報を提供する画像解析部とを含む請求項1に記載の自走式掃除機。 The human sensing unit includes a camera that captures an image of the surroundings,
The self-propelled cleaner according to claim 1, further comprising: an image analysis unit that recognizes a person in the photographed image and provides information related to the direction of the person.
前記制御部は、カメラで撮影された画像に人が写っていると認識したときは、その人が前記視野角から外れて画像に写らなくなるように走行方向を変更するように制御する請求項2に記載の自走式掃除機。 The camera shoots the front with a predetermined viewing angle,
The control unit, when recognizing that a person is included in an image captured by a camera, controls to change the traveling direction so that the person is out of the viewing angle and is not captured in the image. A self-propelled vacuum cleaner as described in 1.
その音の中から音声を認識してその方向に係る情報を提供する音声認識部とを含む請求項1に記載の自走式掃除機。 The human sensing unit includes one or more microphones that have directivity and collect ambient sounds;
The self-propelled cleaner according to claim 1, further comprising: a voice recognition unit that recognizes voice from the sound and provides information related to the direction.
前記音声認識部は、段階的な音声の大きさを認識し、
前記制御部は、第1閾値以上の大きさの音声が検出されたときに筐体を旋回させ、旋回に伴って変化する音声の大きさに基づいて音声の方向を判定する請求項4に記載の自走式掃除機。 The human sensing unit has one directional microphone,
The voice recognition unit recognizes a stepped voice volume,
The said control part turns a housing | casing when the audio | voice of the magnitude | size more than a 1st threshold value is detected, The direction of an audio | voice is determined based on the magnitude | size of the audio | voice which changes with turning. Self-propelled vacuum cleaner.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012032939A JP2013169221A (en) | 2012-02-17 | 2012-02-17 | Self-propelled cleaner |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012032939A JP2013169221A (en) | 2012-02-17 | 2012-02-17 | Self-propelled cleaner |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013169221A true JP2013169221A (en) | 2013-09-02 |
Family
ID=49263603
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012032939A Pending JP2013169221A (en) | 2012-02-17 | 2012-02-17 | Self-propelled cleaner |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013169221A (en) |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104887153A (en) * | 2014-03-05 | 2015-09-09 | Lg电子株式会社 | Robor cleaner |
| CN105511478A (en) * | 2016-02-23 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | Robot cleaner, control method applied to same and terminal |
| JP2017505692A (en) * | 2014-12-03 | 2017-02-23 | 小米科技有限責任公司Xiaomi Inc. | Silent operation method and apparatus for automatic cleaning apparatus, and electronic apparatus |
| WO2018083738A1 (en) * | 2016-11-01 | 2018-05-11 | 三菱電機株式会社 | Information processing device, informing system, information processing method, and program |
| JP2018075192A (en) * | 2016-11-09 | 2018-05-17 | 東芝ライフスタイル株式会社 | Vacuum cleaner |
| JP2018098731A (en) * | 2016-12-16 | 2018-06-21 | コニカミノルタ株式会社 | Information processing apparatus, information processing system, management server, and program |
| WO2018123632A1 (en) | 2016-12-28 | 2018-07-05 | Honda Motor Co.,Ltd. | Control device, monitoring device and control program |
| US10143347B2 (en) * | 2013-11-13 | 2018-12-04 | Lg Electronics Inc. | Cleaning device and control method therefor |
| CN110123199A (en) * | 2018-02-08 | 2019-08-16 | 东芝生活电器株式会社 | Self-propelled electric dust collector |
| CN110507254A (en) * | 2019-09-24 | 2019-11-29 | 小狗电器互联网科技(北京)股份有限公司 | a sweeping machine |
| WO2020008755A1 (en) * | 2018-07-06 | 2020-01-09 | ソニー株式会社 | Information processing device, information processing system, action planning method, and program |
| CN110881901A (en) * | 2018-09-07 | 2020-03-17 | 日立环球生活方案株式会社 | Electric vacuum cleaner |
| JP2020526999A (en) * | 2017-07-21 | 2020-08-31 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Systems and methods for intelligent routing of incoming voice communication request notifications |
| WO2020259524A1 (en) * | 2019-06-27 | 2020-12-30 | 华为技术有限公司 | Robot obstacle avoidance method, apparatus, and system |
| JP2022024907A (en) * | 2020-07-28 | 2022-02-09 | パナソニックIpマネジメント株式会社 | Autonomous travel type cleaner |
| JP2022025401A (en) * | 2020-07-29 | 2022-02-10 | パナソニックIpマネジメント株式会社 | Self-propelled vacuum cleaner, method for controlling self-propelled vacuum cleaner, and program |
| US11399687B2 (en) * | 2017-09-22 | 2022-08-02 | Lg Electronics Inc. | Moving robot and control method thereof using artificial intelligence |
| JP2025164638A (en) * | 2024-04-18 | 2025-10-30 | 追▲べき▼創新科技(蘇州)有限公司 | Cleaning robot movement control method and cleaning robot |
-
2012
- 2012-02-17 JP JP2012032939A patent/JP2013169221A/en active Pending
Cited By (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10143347B2 (en) * | 2013-11-13 | 2018-12-04 | Lg Electronics Inc. | Cleaning device and control method therefor |
| US9820625B2 (en) | 2014-03-05 | 2017-11-21 | Lg Electronics Inc. | Robot cleaner |
| CN104887153A (en) * | 2014-03-05 | 2015-09-09 | Lg电子株式会社 | Robor cleaner |
| JP2017505692A (en) * | 2014-12-03 | 2017-02-23 | 小米科技有限責任公司Xiaomi Inc. | Silent operation method and apparatus for automatic cleaning apparatus, and electronic apparatus |
| US9962055B2 (en) | 2014-12-03 | 2018-05-08 | Xiaomi Inc. | Mute operation method and apparatus for automatic cleaning device |
| CN105511478A (en) * | 2016-02-23 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | Robot cleaner, control method applied to same and terminal |
| CN105511478B (en) * | 2016-02-23 | 2019-11-26 | 百度在线网络技术(北京)有限公司 | Applied to the control method of sweeping robot, sweeping robot and terminal |
| AU2016428807B2 (en) * | 2016-11-01 | 2020-04-16 | Mitsubishi Electric Corporation | Information processing device, informing system, information processing method, and program |
| WO2018083738A1 (en) * | 2016-11-01 | 2018-05-11 | 三菱電機株式会社 | Information processing device, informing system, information processing method, and program |
| CN109863541A (en) * | 2016-11-01 | 2019-06-07 | 三菱电机株式会社 | Information processing unit, reporting system, information processing method and program |
| JPWO2018083738A1 (en) * | 2016-11-01 | 2019-06-24 | 三菱電機株式会社 | Information processing apparatus, notification system, information processing method and program |
| US10733864B2 (en) | 2016-11-01 | 2020-08-04 | Mitsubishi Electric Corporation | Information processing device, informing system, information processing method, and program |
| JP2018075192A (en) * | 2016-11-09 | 2018-05-17 | 東芝ライフスタイル株式会社 | Vacuum cleaner |
| JP2018098731A (en) * | 2016-12-16 | 2018-06-21 | コニカミノルタ株式会社 | Information processing apparatus, information processing system, management server, and program |
| US10864891B2 (en) | 2016-12-28 | 2020-12-15 | Honda Motor Co., Ltd. | Control device, monitoring device and control program |
| WO2018123632A1 (en) | 2016-12-28 | 2018-07-05 | Honda Motor Co.,Ltd. | Control device, monitoring device and control program |
| US11330553B2 (en) | 2017-07-21 | 2022-05-10 | Qualcomm Incorporated | Systems and methods for intelligent routing of notifications of incoming voice communication requests |
| JP2020526999A (en) * | 2017-07-21 | 2020-08-31 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Systems and methods for intelligent routing of incoming voice communication request notifications |
| US11399687B2 (en) * | 2017-09-22 | 2022-08-02 | Lg Electronics Inc. | Moving robot and control method thereof using artificial intelligence |
| CN110123199A (en) * | 2018-02-08 | 2019-08-16 | 东芝生活电器株式会社 | Self-propelled electric dust collector |
| WO2020008755A1 (en) * | 2018-07-06 | 2020-01-09 | ソニー株式会社 | Information processing device, information processing system, action planning method, and program |
| US12265392B2 (en) | 2018-07-06 | 2025-04-01 | Sony Corporation | Information processing device, information processing system, and behavior planning method |
| CN110881901A (en) * | 2018-09-07 | 2020-03-17 | 日立环球生活方案株式会社 | Electric vacuum cleaner |
| JP2020039454A (en) * | 2018-09-07 | 2020-03-19 | 日立グローバルライフソリューションズ株式会社 | Vacuum cleaner |
| WO2020259524A1 (en) * | 2019-06-27 | 2020-12-30 | 华为技术有限公司 | Robot obstacle avoidance method, apparatus, and system |
| CN110507254A (en) * | 2019-09-24 | 2019-11-29 | 小狗电器互联网科技(北京)股份有限公司 | a sweeping machine |
| JP7411899B2 (en) | 2020-07-28 | 2024-01-12 | パナソニックIpマネジメント株式会社 | autonomous vacuum cleaner |
| JP2022024907A (en) * | 2020-07-28 | 2022-02-09 | パナソニックIpマネジメント株式会社 | Autonomous travel type cleaner |
| JP2022025401A (en) * | 2020-07-29 | 2022-02-10 | パナソニックIpマネジメント株式会社 | Self-propelled vacuum cleaner, method for controlling self-propelled vacuum cleaner, and program |
| JP2025164638A (en) * | 2024-04-18 | 2025-10-30 | 追▲べき▼創新科技(蘇州)有限公司 | Cleaning robot movement control method and cleaning robot |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2013169221A (en) | Self-propelled cleaner | |
| JP6178677B2 (en) | Self-propelled electronic device | |
| JP2013169225A (en) | Self-propelled cleaner | |
| JP2013230294A (en) | Self-travelling vacuum cleaner | |
| US9340116B2 (en) | Self-propelled electronic device | |
| US11029700B2 (en) | Mobile robot and control method thereof | |
| JP2013171314A (en) | Self-propelled electronic apparatus | |
| CN105072966B (en) | self-propelled vacuum cleaner | |
| KR102070066B1 (en) | Robot cleaner and method for controlling the same | |
| US11625043B2 (en) | Robot cleaner and method for controlling the same | |
| CN106793898B (en) | self-propelled vacuum cleaner | |
| JP2014206850A (en) | Electronic device and self-propelled cleaner | |
| JP2014180501A (en) | Self-propelled vacuum cleaner | |
| JP2017064064A (en) | Vacuum cleaner | |
| JP2014018562A (en) | Self-propelled electronic apparatus and method of returning self-propelled electronic apparatus to charging platform | |
| CN104981188B (en) | Electronic equipment | |
| JP2016220823A (en) | Self-propelled vacuum cleaner | |
| KR20210007360A (en) | Moving Robot and controlling method | |
| JP2014206895A (en) | Self-travelling electronic apparatus | |
| JP6462350B2 (en) | Self-propelled vacuum cleaner | |
| JP6106490B2 (en) | Self-propelled electronic device and travel area designation system for self-propelled electronic device | |
| JP6378962B2 (en) | Self-propelled electronic device | |
| JP2014079515A (en) | Self-propelled vacuum cleaner | |
| JP2014079514A (en) | Self-propelled vacuum cleaner | |
| JP2021022197A (en) | Self-propelled electronic device, control method and control program |