JP2020064385A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP2020064385A JP2020064385A JP2018194822A JP2018194822A JP2020064385A JP 2020064385 A JP2020064385 A JP 2020064385A JP 2018194822 A JP2018194822 A JP 2018194822A JP 2018194822 A JP2018194822 A JP 2018194822A JP 2020064385 A JP2020064385 A JP 2020064385A
- Authority
- JP
- Japan
- Prior art keywords
- information
- autonomous mobile
- mobile body
- information processing
- specific environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/086—Proximity sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/227—Handing over between remote control and on-board control; Handing over between remote control arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/648—Performing a task within a working area or space, e.g. cleaning
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Toys (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】自律移動体が取得した情報を外部に出力することにより情報を有効に活用することができる情報処理装置、情報処理方法および情報処理プログラムを提供する。【解決手段】自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得する情報取得部と、環境情報から保存すべき特定環境情報を抽出する抽出部と、特定環境情報を外部に出力するよう自律移動体の行動を制御する行動制御部とを備える情報処理装置である。【選択図】図2
Description
本技術は、情報処理装置、情報処理方法および情報処理プログラムに関する。
近年犬型や人型などの自律移動体(ロボット)が人々の生活の身近な存在になってきている。そのようなロボットが様々な自律行動をとるために認識した情報から学習を行い、自己の行動にフィードバックすることが行われている。
近年、人とロボットの関わりがより深くなってきており、家庭などにおいてロボットが複数台存在し、ロボット同士の関わりも深くなってきている。引用文献1に記載された技術はロボットの自律行動のためのものであり、ロボット同士の関わりに寄与するものではない。今後、より人と複数のロボットの関わりが増えていく状況において、ロボット同士の情報の伝達などの関わりを実現する技術が必要となっている。
本技術はこのような点に鑑みなされたものであり、自律移動体が取得した情報を外部に出力することにより情報を有効に活用することができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
上述した課題を解決するために、第1の技術は、自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得する情報取得部と、環境情報から保存すべき特定環境情報を抽出する抽出部と、特定環境情報を外部に出力するよう自律移動体の行動を制御する行動制御部とを備える情報処理装置である。
また、第2の技術は、自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、環境情報から保存すべき特定環境情報を抽出し、特定環境情報を外部に出力するよう自律移動体の行動を制御する情報処理方法である。
さらに、第3の技術は、自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、環境情報から保存すべき特定環境情報を抽出し、特定環境情報を外部に出力するよう自律移動体の行動を制御する情報処理方法をコンピュータに実行させる情報処理プログラムである。
以下、本技術の実施の形態について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<1.実施の形態>
[1−1.自律移動体10のハードウェア構成例]
[1−2.情報処理装置100の構成]
[1−3.特定環境情報と行動情報]
[1−4.情報出力処理]
[1−5−1.情報出力の第1の手法]
[1−5−2.情報出力の第2の手法]
[1−5−3.情報出力の第3の手法]
[1−5−4.情報出力の第4の手法]
[1−6.情報の取得]
<2.変形例>
<1.実施の形態>
[1−1.自律移動体10のハードウェア構成例]
[1−2.情報処理装置100の構成]
[1−3.特定環境情報と行動情報]
[1−4.情報出力処理]
[1−5−1.情報出力の第1の手法]
[1−5−2.情報出力の第2の手法]
[1−5−3.情報出力の第3の手法]
[1−5−4.情報出力の第4の手法]
[1−6.情報の取得]
<2.変形例>
<1.実施の形態>
<1−1.自律移動体10のハードウェア構成例>
本技術の一実施形態に係る自律移動体10のハードウェア構成例について説明する。なお、以下では、自律移動体10が犬型の四足歩行ロボットである場合を例に説明する。また、以下の説明では自律移動体は複数の人からなる家族が住む家を活動範囲とし、その活動範囲で人と共に暮らしているものとして説明を行う。
<1−1.自律移動体10のハードウェア構成例>
本技術の一実施形態に係る自律移動体10のハードウェア構成例について説明する。なお、以下では、自律移動体10が犬型の四足歩行ロボットである場合を例に説明する。また、以下の説明では自律移動体は複数の人からなる家族が住む家を活動範囲とし、その活動範囲で人と共に暮らしているものとして説明を行う。
図1は、本技術の一実施形態に係る自律移動体10のハードウェア構成例を示す図である。自律移動体10は、頭部、胴部、4つの脚部、および尾部を有する犬型の四足歩行ロボットである。また、自律移動体10は、頭部に2つのディスプレイ510を備える。
また、自律移動体10は、種々のセンサを備える。自律移動体10は、例えば、マイクロフォン515、カメラ520、ToF(Time of Flight)センサ525、人感センサ530、PSD(Position Sensitive Detector)センサ535、タッチセンサ540、照度センサ545、足裏ボタン550、慣性センサ555、接触面センサ560、赤外線センサ570、超音波センサ580を備える。
(マイクロフォン515)
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律移動体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律移動体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
(カメラ520)
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律移動体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律移動体10の前方視野(すなわち、犬の視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律移動体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律移動体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律移動体10の前方視野(すなわち、犬の視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律移動体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
(ToFセンサ525)
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
(人感センサ530)
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
(PSD535)
PSDセンサ535は、自律移動体10の前方床面の状況を取得する機能を有する。PSDセンサ535は、例えば、胸部に配置される。PSDセンサ535によれば、自律移動体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
PSDセンサ535は、自律移動体10の前方床面の状況を取得する機能を有する。PSDセンサ535は、例えば、胸部に配置される。PSDセンサ535によれば、自律移動体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
(タッチセンサ540)
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律移動体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律移動体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
(照度センサ545)
照度センサ545は、自律移動体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
照度センサ545は、自律移動体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
(足裏ボタン550)
足裏ボタン550は、自律移動体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律移動体10と床面との接触または非接触を検知することができ、例えば、自律移動体10がユーザにより抱き上げられたことなどを把握することが可能となる。
足裏ボタン550は、自律移動体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律移動体10と床面との接触または非接触を検知することができ、例えば、自律移動体10がユーザにより抱き上げられたことなどを把握することが可能となる。
(慣性センサ555)
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律移動体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律移動体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
(接触面センサ560)
接触面センサ560は、触覚センサ、感圧センサなどから構成され、自律移動体10の脚部底面が接触している床面の状態(硬い、柔らかい、凹凸がある、凹凸がないなど)を検出する機能を有する。このために接触面センサ560は、4つの脚部の肉球に該当する部位にそれぞれ配置される。接触面センサ560によれば、自律移動体10が接触している床面の状態を認識することができ、例えば、床面が滑りやすい、などを把握することが可能となる。
接触面センサ560は、触覚センサ、感圧センサなどから構成され、自律移動体10の脚部底面が接触している床面の状態(硬い、柔らかい、凹凸がある、凹凸がないなど)を検出する機能を有する。このために接触面センサ560は、4つの脚部の肉球に該当する部位にそれぞれ配置される。接触面センサ560によれば、自律移動体10が接触している床面の状態を認識することができ、例えば、床面が滑りやすい、などを把握することが可能となる。
(赤外線センサ570)
赤外線センサ570は、カメラ520で撮影できる像とは異なる映像を撮影する、対象物の温度を遠くから非接触で測定する、などを行うことができる。赤外線センサ570は、例えば自律移動体10の鼻先に設けられている。
赤外線センサ570は、カメラ520で撮影できる像とは異なる映像を撮影する、対象物の温度を遠くから非接触で測定する、などを行うことができる。赤外線センサ570は、例えば自律移動体10の鼻先に設けられている。
(超音波センサ580)
超音波センサ580は、超音波を発信し、障害物に当たって反射して戻って超音波を受信することにより、壁の有無、壁までの距離、障害物の有無、障害物までの距離などを求めることができる。超音波センサ580は、例えば自律移動体10の鼻先に設けられている。
超音波センサ580は、超音波を発信し、障害物に当たって反射して戻って超音波を受信することにより、壁の有無、壁までの距離、障害物の有無、障害物までの距離などを求めることができる。超音波センサ580は、例えば自律移動体10の鼻先に設けられている。
(環境地図作成機能および自己位置推定機能)
自律移動体10は、SLAM(Simultaneous Localization and Mapping)機能を備え、SLAMにより自律移動体10の周囲の環境の地図の作成および自己位置推定を行うことができる。SLAMは、マイクロフォン515、カメラ520、赤外線センサ570、超音波センサ580などからのセンサ情報を複合的に用いることにより環境地図の作成、環境地図内における自己位置の推定を行うことができる。
自律移動体10は、SLAM(Simultaneous Localization and Mapping)機能を備え、SLAMにより自律移動体10の周囲の環境の地図の作成および自己位置推定を行うことができる。SLAMは、マイクロフォン515、カメラ520、赤外線センサ570、超音波センサ580などからのセンサ情報を複合的に用いることにより環境地図の作成、環境地図内における自己位置の推定を行うことができる。
環境地図とは自律移動体10が活動する活動範囲(家など)の間取り情報、各部屋の形状情報、各部屋に配置された物体の位置および形状情報、特定の領域の位置情報などを含む地図形式の情報である。自律移動体10が活動する空間内の特定の領域の位置情報は環境地図の所定の位置を基準点とした座標情報として表してもよい。自己位置情報とはその環境地図における自律移動体10の現在位置を示す情報である。
以上、本技術の一実施形態に係る自律移動体10の構成について説明した。なお、図1を用いて説明した上記の構成はあくまで一例であり、自律移動体10が備え得るセンサの構成は係る例に限定されない。自律移動体10は、上記の構成のほか、Structured Lightカメラ、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)、インターネット接続、WiFi接続、Bluetooth(登録商標)などの通信機能などを備えている。自律移動体10が備えるセンサの構成は、仕様や運用に応じて柔軟に変形され得る。
[1−2.情報処理装置100の構成]
次に図2を参照して自律移動体10において動作する情報処理装置100の構成について説明する。情報処理装置100は、情報取得部101、短期記憶部102、抽出部103、行動制御部104、対応付け部105、長期記憶部106、出力決定部107とから構成されている。
次に図2を参照して自律移動体10において動作する情報処理装置100の構成について説明する。情報処理装置100は、情報取得部101、短期記憶部102、抽出部103、行動制御部104、対応付け部105、長期記憶部106、出力決定部107とから構成されている。
情報取得部101は、自律移動体10が備える各種センサからのセンサ情報に基づいて認識処理、検出処理などを行うことにより、自律移動体10の周囲の環境に関する各種情報(以下、環境情報と称する。)を取得するものである。
情報取得部101が取得する環境情報としては、被写体検出による被写体情報、顔検出による人の顔情報、顔識別による顔識別情報、表情認識による感情情報、視線検出による人の視線情報、動体検出による動体情報、音源方向検出による音源方向情報、人体検出による人体情報(人体の全部、一部を含む、人体の状態(立っている、寝ているなど))、トラッキング処理による人や物体の追跡情報、SLAMによる環境地図と自己位置、物体認識による物体情報、接触面センサによる接触面情報などがある。顔識別により、自律移動体10の活動範囲である家などにおける家族を構成する人物それぞれを認識することができる。
これらの環境情報は組み合わせにより相互に補完することもできる。例えば、音源方向検出により水の音を検出することにより水場の位置を認識して環境地図に加える、被写体検出によりテレビの存在を検出し、さらに音源方向検出によりテレビの音を検出することによりテレビの位置を認識して環境地図に加える、などである。
よって、環境地図によれば、自律移動体10は活動範囲内の特定の領域(例えば、台所、風呂、洗面所などの水場、テレビがある部屋など)の位置を認識することができる。
短期記憶部102は、情報取得部101により取得された環境情報を記憶保持するものである。短期記憶部102は、例えばRAM(Random Access Memory)などの一時的な情報の保存が可能な記憶媒体である。よって、短期記憶部102には自律移動体10の活動範囲の今現在の環境情報が保存される。なお、短期記憶部102は情報処理装置100が備えていてもよいし、自律移動体10が備えているものを利用してもよい。
抽出部103は、情報取得部101により取得されて短期記憶部102に記憶保持された環境情報のうち、長期記憶部106に保存すべき特定の環境情報(以下、特定環境情報と称する。)を所定のルールに基づいて抽出するものである。抽出部103は抽出した特定環境情報を対応付け部105に供給する。抽出のルールとしては、自律移動体10の近傍にいる人(同じ活動範囲で生活していると認識している人)に関連する情報や、自律移動体10の近傍にいる人が喜んだことに関連する情報を優先して抽出する、などである。これは、犬型の自律移動体10は人を楽しませたり、喜ばせたりするためのものであるため、人が喜ぶ事に関する情報を優先して取得するに値するからである。また、抽出部103は特定環境情報として、自律移動体10の活動範囲内の所定の位置に関する情報を優先して抽出してもよい。例えば、自身の危険に関連する位置についての情報などである。これは、例えば水場の位置の情報など、自身の故障などに繋がる情報は自律移動体10が活動を継続していく上で重要な情報であるからである。
行動制御部104は、情報取得部101により取得された環境情報に基づいて、予め用意してある行動の種類を定義したテーブル、人工知能などにより自律移動体10の行動を決定する。そして、自律移動体10を構成する頭部、胴部、4つの脚部、および尾部の各部および各センサの動作を制御して環境情報に応じた行動をとるように自律移動体10の行動を制御するものである。自律移動体10がとった行動の内容を示す行動情報は対応付け部105に供給される。
また行動制御部104は、長期記憶部106に保存された特定環境情報とその特定環境情報に対応付けられた行動情報とに基づいて自律移動体10を制御することにより、特定環境情報に応じた行動をとるように自律移動体10の行動を制御する。さらに、行動制御部104は、出力決定部107により決定された情報を外部に出力するよう自律移動体10の行動を制御する。
対応付け部105は、抽出部103から供給された特定環境情報と、行動制御部104から供給された行動情報とを対応付けて長期記憶部106に保存する処理を行うものである。対応付けのルールとしては、例えば特定環境情報を情報取得部101で取得したタイミングと、その特定環境情報取得のタイミングに最も近いタイミングで自律移動体10がとった行動を示す行動情報とを対応付ける、などである。これにより、対応付け部105は特定環境情報に基づいて自律移動体10がとった行動を示す行動情報を対応付けることができる。
長期記憶部106は、対応付け部105により対応付けられた特定環境情報と行動情報とを長期記憶として保存するものである。長期記憶部106は、例えば、ハードディスク、半導体メモリなどを用いた大容量記憶媒体である。なお、長期記憶部106は情報処理装置100が備えていてもよいし、自律移動体10が備えているものを利用してもよい。
なお、行動制御部104から情報取得部101に対して自律移動体10が実際に行った行動を示す情報である行動情報が供給される。これにより自律移動体10の行動から環境情報が変化したことを情報取得部101は取得することができる。
出力決定部107は、長期記憶部106に保存されている特定環境情報と行動情報のうち、どの情報を外部に出力するか、どのような態様で外部に出力するかを決定するものである。情報の出力の詳細については後述する。
以上の構成により、自律移動体10が活動を続ける限り、常時、環境情報の取得、特定環境情報の抽出、環境情報と行動情報とを対応付けた保存、自律移動体10の行動制御、自律移動体の行動に対する環境情報の取得が繰り返し行われる。したがって、自律移動体10が所有者のもとで活動を始めたばかりの頃は長期記憶部106には特定環境情報のみが蓄積されていくが、自律移動体10が所有者と生活をともにしていくと徐々に特定環境情報とともに、特定環境情報に対応した行動情報も長期記憶部106に蓄積されていくことになる。
情報処理装置100は以上のようにして構成されている。情報処理装置100はプログラムで構成され、そのプログラムは予め自律移動体10にインストールされていてもよいし、ダウンロード、記憶媒体などで配布されて、ユーザが自ら自律移動体10にインストールするようにしてもよい。また、情報処理装置100は、プログラムによって実現されるのみでなく、その機能を有するハードウェアによる専用の装置、回路などを組み合わせて実現されてもよい。
[1−3.特定環境情報と行動情報]
次に特定環境情報と行動情報の詳細について説明する。図3に示すように特定環境情報と行動情報は対応付け部105によって対応付けられて長期記憶部106に保存される。なお、以下の特定環境情報と行動情報の対応付けはあくまで例示であり、その対応付けに限定されるものではなく、それ以外の対応付けも可能である。
次に特定環境情報と行動情報の詳細について説明する。図3に示すように特定環境情報と行動情報は対応付け部105によって対応付けられて長期記憶部106に保存される。なお、以下の特定環境情報と行動情報の対応付けはあくまで例示であり、その対応付けに限定されるものではなく、それ以外の対応付けも可能である。
「自己(自律移動体10)の周囲にいる人は誰か」および「その人が喜んでいる」という特定環境情報には、「人を喜ばせる行動(例えばバンザイ、しっぽを振る、首を縦に振るなど)」の行動情報が対応付けられている。これは、自律移動体10の周囲にいる人が好きな自律移動体10の行動を示すものである。自律移動体10の周囲にいる人に合わせてその人が好む行動を行えば、よりその人を喜ばせることができる。「自己(自律移動体10)の周囲にいる人は誰か」という環境情報は顔検出、人体検出により得ることができ、「その人が喜んでいる」という環境情報は表情認識で笑顔を認識することにより得ることができる。
「床面が滑りやすい」という環境情報には、「ゆっくり(所定の速度以下で)歩く」という行動情報が対応付けられている。これは、地面(床)が滑りやすい状態の場合にはゆっくり歩くことで自律移動体10は転倒することを防止できる。「床面が滑りやすい状態か」という環境情報は接触面センサ560により認識することができる。
「特定の場所(例えば家(活動範囲)内の窓際など)」および「その特定の場所が温かい(所定の温度以上)」という環境情報には、「気持ちよさそうにしている印象を人に与える行動(伏せる、目を閉じるなど)」という行動情報が対応付けられている。所定の温度以上である温かい場所で伏せるという行動は実際の犬に近い行動であり、これにより、人に自律移動体10をペットに近い存在としての感じさせることができる。「特定の場所」という環境情報はカメラ520からの映像、自己位置推定、環境地図などから取得することができ、「その特定の場所が温かい」という環境情報は温度センサにより取得することができる。
「人に叱られた」という環境情報には、「うつむく、特定の音声を出力する」という行動情報が対応付けられている。叱られた場合にうつむくという行動は実際の犬に近い行動であり、人に自律移動体10をペットに近い存在として感じさせることができる。「叱られた」という環境情報は顔検出および表情検出、タッチセンサ540で叩かれたことを検出することから取得することができる。また、音声認識により所定の音量以上の声である場合に「怒られた」と判断してもよい。
「ディスプレイに特定のアイコン(自律移動体10のメーカーのロゴ、マークなど)が表示された」という特定環境情報には「喜びを表す行動(例えば、バンザイをする、しっぽを振る、ディスプレイに近づくなど)」の行動情報が対応付けられている。自律移動体10が自身のメーカーのロゴを認識した場合に喜ぶ行動を保有者に見せることによりその保有者の興味をメーカーに向けることができる。ディスプレイの表示された特定のアイコンの認識は、SLAMにより作成した環境地図、カメラ520からの映像に基づく被写体検出などにより行うことができる。なお、ディスプレイはテレビ、パーソナルコンピュータ、タブレット端末、プロジェクタからの映像を投影するスクリーンなど、映像を表示するものであれば何でもよい。
「怖いコンテンツ(映画などの映像コンテンツなど)がディスプレイにおいて出力された」という特定環境情報には「怖がることを表す行動(例えば、目を閉じる、後退りする、吠えるなど)」の行動情報が対応付けられている。そのような怖いコンテンツは人も怖がる可能性が高いものであり、人と同じように怖がる行動をとることにより、人に自律移動体10をより身近な存在に感じさせることができる。また、自律移動体10のかわいらしさを人に示すことができる。さらに、ディスプレイや人に向かって吠えることにより人をディスプレイから遠ざけるように促すこともできる。「怖いコンテンツ」の認識は、カメラ520からの映像に基づく被写体検出、マイクロフォン515で集音した声に基づく音声認識(声が所定の周波数以上であるか(叫び声など))、IRパターンに基づいて判断することができる。
なお、インターネットから番組表情報を受信してそれに基づいて怖いコンテンツとしての特定環境情報を得てもよい。
「水場(風呂、台所、洗面所など)の位置」という特定環境情報には「近づかない」という行動情報が対応付けられている。これは、自律移動体10は精密機械であるため水場に近づいて水に濡れることを防止すべきだからである。「水場」の認識は被写体検出、音声認識による水の音の認識、湿度計により測定する湿度、人からの教示などにより行うことができる。
なお、環境情報はこれらに限られず、自律移動体10が備える各種センサからの情報から取得できる環境情報であればどのようなものでもよい。また行動情報もこれらに限られず、自律移動体10がとることができる行動であればどのような行動でもよい。
上述した各種環境情報の取得は機械学習を利用してその精度を高めるようにしてもよい。
このようにして自律移動体10が活動を継続していくことにより長期記憶部106に特定環境情報とそれに対応した行動情報が蓄積していき、行動パターンのバリエーションを増やし、かつ、効率よく行動を発現させることができるようになる。反射行動や予め決められた行動だけでなく、自律移動体10自身の行動の幅を広げるための環境情報を取得することができるため、ユーザが飽きることがない自律移動体10を実現することができる。また、自律移動体10は周囲の環境の情報を随時取得していくので行動に行き詰まることがない。さらに、長期的な記憶として自律移動体10において利用可能な情報を取捨選択しながら蓄積していくことができる。
[1−4.情報出力処理]
次に情報の出力について説明する。情報の出力とは、自律移動体10が自身のために特定環境情報と行動情報を外部に出力することと、自律移動体10が他の自律移動体と共有するために特定環境情報と行動情報を外部に出力することである。
次に情報の出力について説明する。情報の出力とは、自律移動体10が自身のために特定環境情報と行動情報を外部に出力することと、自律移動体10が他の自律移動体と共有するために特定環境情報と行動情報を外部に出力することである。
自律移動体10自身のための情報出力とは、バックアップのために外部記憶装置に特定環境情報と行動情報を出力して保存する場合と、自律移動体10自身の行動のために特定環境情報と行動情報を保存した物品を活動範囲内に置く場合とがある。
他の自律移動体との情報の共有とは、自律移動体10自身が保有している情報の全てを他の自律移動体に供給するために出力する場合と、自律移動体10自身が保有している1または複数の情報を他の自律移動体に供給するために出力する場合とがある。
図4および図5のフローチャートを参照して情報出力処理について説明する。この情報出力処理は出力決定部107により出力する情報と出力の態様が決定され、行動制御部104による自律移動体10の制御によって情報の出力が行われる。
まず図4を参照して自律移動体10自らのための情報出力について説明する。ステップS101で特定環境情報と行動情報のバックアップが必要であるか否かを判定する。
バックアップが必要であるか否かは、いくつかの判定基準に基づいて行うことができる。例えば、長期記憶部106の残り容量が所定量以下である場合、バックアップが必要であると判定する。また、予め決定しておいた所定の特定環境情報を取得した場合、その特定環境情報は重要であるためバックアップが必要であると判定する。
バックアップが必要であると判定された場合、処理はステップS102に進む(ステップS101のYes)。そして、ステップS102で情報処理装置100の行動制御部104は自律移動体10の行動を制御してバックアップ用の出力を行う。
バックアップ用の出力としては、自律移動体10を、その活動範囲内にあるパーソナルコンピュータ、タブレット端末、スマートフォン、スマートスピーカなどの外部記憶装置と通信可能な位置まで移動させて、自律移動体10が備える通信機能でその外部記憶装置との通信を行って特定環境情報と行動情報を出力する、という方法がある。
なお、バックアップ用として出力する特定環境情報と行動情報は、長期記憶部106に保存されている全ての情報でもよいし、所定の基準に基づいた優先度の高い情報でもよい。
ステップS101でバックアップの必要がない場合、処理はステップS103に進む(ステップS101のNo)。そしてステップS103で自律移動体10自身用の情報として出力すべき特定環境情報と行動情報があるか否かを判定する。
この判定は例えば、蓄積された自律移動体10自身の嗜好に合った情報、自律移動体10の所有者に関する情報などの特定の情報があるか否かで判定することができる。自律移動体10自身の嗜好に合った情報としては、活動範囲内の頻繁に訪れる位置の情報(お気に入りの場所)、苦手な位置の情報などがある。自律移動体10の所有者に関する情報としては、所有者が自律移動体10の活動範囲内において高頻度でいる位置の情報、所有者と高頻度で遊んだ位置の情報などがある。
自律移動体10自身用として出力すべき情報があると判定した場合、処理はステップS104に進む(ステップS103のYes)。そして行動制御部104が、自律移動体10自身用の情報として出力すべき特定環境情報と行動情報を出力するよう自律移動体10の動作を制御する。出力の具体的方法については後述する。
一方、ステップS103で自律移動体10自身用として出力すべき情報がないと判定した場合処理はステップS105に進み(ステップS103のNo)、情報の出力は行わない。
そして、ステップS102、ステップS104、ステップS105のいずれも処理はステップS101に戻り、自律移動体10が活動を続ける限りステップS101乃至ステップS105が繰り返される。
次に図5を参照して他の自律移動体と共有するための情報の出力について説明する。ステップS201で特定環境情報と行動情報を共有すべき他の自律移動体が存在するか否かを判定する。この判定は、例えばカメラ520からの映像に基づく被写体検出など、各種センサからのセンサ情報に基づいて他の自律移動体を認識したか否かにより判定することができる。また、自律移動体10のメーカーが提供する自律移動体用ネットワークサービスに個々の自律移動体を登録する場合、その登録情報を参照して自身以外の他の自律移動体が存在することを判定してもよい。
他の自律移動体が存在しない場合、他の自律移動体がいると判定されるまでステップS201が繰り返される(ステップS201のNo)。
他の自律移動体が存在する場合、処理はステップS202に進む(ステップS201のYes)。次にステップS202で、存在する他の自律移動体が自律移動体10の活動範囲で長期に渡って共に行動する自律移動体であるか(自律移動体10が活動する家などにおける複数台目の自律移動体であるか)を判定する。この判定は、例えばセンサ情報から他の自律移動体を認識し、その他の自律移動体のIDが自律移動体10のメーカーが提供する自律移動体用ネットワークサービスに登録されているかを参照することにより確認できる。他の自律移動体が自律移動体10の活動範囲で長期に渡って共に行動する自律移動体ではない場合、それは活動範囲に一時的に滞在しているだけの自律移動体である(例えば所有者の友人が所有する自律移動体など)といえる。
ステップS202で他の自律移動体がその活動範囲で長期に渡って共に行動する自律移動体である場合、処理はステップS203に進む(ステップS202のYes)。そしてステップS203で長期記憶部106に保存されている全ての特定環境情報と行動情報を他の自律移動体と共有するために出力する。全ての情報を出力するのは、その他の自律移動体は同じ活動範囲で長期間共に行動する(共に暮らす)ものであるため、全ての特定環境情報と行動情報を共有したほうがよりその活動範囲に適合して活動することができるからである。ただし、全ての情報を出力するのは必須の処理ではなく、特定の条件に合致した複合情報のみを出力するようにしてもよい。出力の具体的方法については後述する。
一方、ステップS202で他の自律移動体がその活動範囲で長期に渡って共に行動する自律移動体ではない場合(一時的に滞在しているだけの自律移動体である場合)、処理はステップS204に進む(ステップS202のNo)。そしてステップS204で、1または複数の特定環境情報と行動情報を他の自律移動体と共有するために出力する。ここで、全ての情報ではなく1または複数の特定環境情報と行動情報を出力する、としているのは、他の自律移動体が一時的に活動範囲に滞在ものであるならば全ての情報を共有する必要はなく、滞在期間内の行動に必要な情報のみを共有すれば十分だからである。ただし、この記載は全ての情報を共有することを排除するものではない。
滞在期間内の行動に必要な情報としては、自律移動体自身の安全に関わる情報(水場には近づかないなど)や、人を喜ばせる情報(人が喜ぶ動作など)などがある。具体的には、長期記憶部106において行動情報である「近づかない」と対応付けられた特定環境情報は共有する、などである。これは、「近づかない」という行動情報と対応付けられた特定環境情報は自律移動体にとって危険であったり、所有者に迷惑をかけるおそれがあるものであるため、そのような特定環境情報は他の自律移動体と共有したほうがよいからである。
以上のようにして情報出力処理が行われる。行動制御部104は、出力決定部107による決定に基づいて、長期記憶部106に保存されている特定環境情報と行動情報を出力決定部107が決定した態様で出力するための行動(情報出力行動)をとるように自律移動体10の行動を制御する。
[1−5−1.情報出力の第1の手法]
次に情報出力の第1の手法について説明する。図6に示すように、第1の手法は人が目視で確認することができず、自律移動体が所定の方法でのみ認識することができるインクなどを用いてメッセージMなどを描く、というものである。メッセージMとしては文字、図形、絵など、情報の伝達が行えるものであればどのようなものでもよい。
次に情報出力の第1の手法について説明する。図6に示すように、第1の手法は人が目視で確認することができず、自律移動体が所定の方法でのみ認識することができるインクなどを用いてメッセージMなどを描く、というものである。メッセージMとしては文字、図形、絵など、情報の伝達が行えるものであればどのようなものでもよい。
自律移動体が所定の方法でのみ認識することができるインクとは例えば、不可視インクなどと称される紫外線を照射することによってのみ視認することができるインク、人は視認できず自律移動体が備えるカメラでのみ認識することができる特定の周波数のインクなどがある。
この第1の手法において自律移動体10は頭部内部および/または胴部内部などにインクカートリッジを備え、さらに、インクカートリッジと接続されインクを外に排出するインク排出口を備えている。インク排出口は自律移動体10の口、手足などに設けられている。
この情報出力の第1の手法は、ステップS104で説明した、自律移動体10自身用の情報として出力すべき特定環境情報と行動情報を出力する場合に用いることができる。また、この情報出力の第1の手法は、ステップS203、ステップS204で説明した、特定環境情報と行動情報を他の自律移動体と共有するために出力する場合に用いることができる。
例えば、「水場」という特定環境情報と「近づかない」という行動情報と対応付けられている場合、自律移動体10の行動を制御して、その特定環境情報と行動情報をメッセージとして水場の近傍の位置に記す。そして、他の自律移動体が水場の周囲でそのメッセージを認識して、特定環境情報と行動情報を取得すると、他の自律移動体の行動制御部104は「水場に近づかない」という行動情報に基づいて水場に近づかないように他の自律移動体の行動を制御する。
[1−5−2.情報出力の第2の手法]
次に情報出力の第2の手法について説明する。第2の手法は、記憶媒体を介して行うものである。例えば、自律移動体用の物品(おもちゃなど)に記憶媒体を搭載し、自律移動体によるその物品の使用により情報を共有する。図7に示すように、犬型である自律移動体10においてその物品は骨型おもちゃ300などがある。この骨型おもちゃ300に記憶媒体としての非接触型ICカード310が設けられている。非接触型ICカード310としてはFeliCa(登録商標)などが挙げられる。以下の説明では、図7に示すように、物品は自律移動体10が口で咥える事が可能な骨型おもちゃ300であり、その骨型おもちゃに非接触型ICカード310が設けられているとして説明を行う。
次に情報出力の第2の手法について説明する。第2の手法は、記憶媒体を介して行うものである。例えば、自律移動体用の物品(おもちゃなど)に記憶媒体を搭載し、自律移動体によるその物品の使用により情報を共有する。図7に示すように、犬型である自律移動体10においてその物品は骨型おもちゃ300などがある。この骨型おもちゃ300に記憶媒体としての非接触型ICカード310が設けられている。非接触型ICカード310としてはFeliCa(登録商標)などが挙げられる。以下の説明では、図7に示すように、物品は自律移動体10が口で咥える事が可能な骨型おもちゃ300であり、その骨型おもちゃに非接触型ICカード310が設けられているとして説明を行う。
情報出力の第2の手法は、ステップS203で説明した、全ての特定環境情報と行動情報を他の自律移動体と共有するために出力する場合、ステップS204で説明した、1または複数の特定環境情報と行動情報を他の自律移動体と共有するために出力する場合に用いることができる。
この第2の手法において自律移動体10は記憶媒体用のリーダ/ライタを備えており、物品が骨型おもちゃ310である場合、そのリーダ/ライタは自律移動体10の口に設けられているのが好ましい。自律移動体10は骨型おもちゃ300を咥えて遊んだり、骨型おもちゃ300の位置を移動させたりするからである。
自律移動体10が骨型おもちゃ300を咥えて骨型おもちゃ300に搭載された非接触型ICカード310とライタとが近接すると行動制御部104は長期記憶部106に保存されている特定環境情報と行動情報をライタにより非接触型ICカード310に書き込むよう制御する。そして行動制御部104は、ライタによる非接触型ICカード310への情報の書き込みが終了した骨型おもちゃ300を図8に示すように活動範囲内のどこかに置くよう自律移動体10の行動を制御する。
そして、他の自律移動体がその骨型おもちゃ300を咥えて骨型おもちゃ300に搭載された非接触型ICカード310とリーダとが近接するとリーダが非接触型ICカード310に保存されている特定環境情報と行動情報を読み込んで長期記憶部106に保存する処理を行う。そして、その他の自律移動体は、自身のセンサ情報から特定環境情報を取得するとその特定環境情報に対応した行動情報に基づいた行動をとることができる。よって、他の自律移動体がその活動範囲(家など)に来たばかりであっても長年その環境にいる自律移動体10と同様のその環境に適合した行動をとることができる。例えば、環境内の危険な場所には近づかない、保有者に叱られる場所には近づかない、保有者が喜ぶ行動をとる、おもちゃの存在を知っているのでおもちゃを探し始める、などである。
第2の手法ではこのようにして複数の自律移動体で特定環境情報と行動情報の共有を行うことができる。
この第2の手法では情報の共有を行うための具体的物品として骨型おもちゃ300を例に挙げたが、他にも非接触型ICカードを備える球状(粒状)の物品を自律移動体10の例えば口から吐き出すことのより情報の出力を行ってもよい。この場合、自律移動体10は口または体内にリーダ/ライタを備えることにより非接触型ICカードへの情報の書き込みと読み込みが可能となっている。そして、他の自律移動体はその球状の物品を口で咥える、または飲み込むことにより、非接触型ICカードに保存された情報をリーダで読み込んで、取得することができる。
[1−5−3.情報出力の第3の手法]
次に情報出力の第3の手法について説明する。第3の手法は、自律移動体10用の物品(おもちゃなど)を使用し、その物品の配置や状態で情報を供給して共有するものである。犬型である自律移動体10においてその物品は骨型のおもちゃなどがある。以下の説明では、物品は自律移動体10が口で咥えるなどして様々な位置や状態に配置可能な骨型のおもちゃであるとして説明を行う。
次に情報出力の第3の手法について説明する。第3の手法は、自律移動体10用の物品(おもちゃなど)を使用し、その物品の配置や状態で情報を供給して共有するものである。犬型である自律移動体10においてその物品は骨型のおもちゃなどがある。以下の説明では、物品は自律移動体10が口で咥えるなどして様々な位置や状態に配置可能な骨型のおもちゃであるとして説明を行う。
この情報出力の第3の手法は、ステップS104で説明した、自律移動体10自身用の情報として出力すべき特定環境情報と行動情報を出力する場合に用いることができる。また、ステップS204で説明した、選択された1または複数の特定環境情報と行動情報を他の自律移動体と共有するために出力する場合に用いることができる。
この第3の手法においては、情報の供給側の自律移動体および情報の受取側の自律移動体は共には予め骨型おもちゃの配置とその配置が示す特定環境情報および行動情報が対応付けられたテーブルを予め保持している。また、第1の手法または第2の手法で事前に骨型おもちゃの配置とその意味を示すテーブル情報を共有するようにしてもよい。
骨型おもちゃの配置とその配置が示す特定環境情報および行動情報としては図9に示すようなものがある。例えば図9Aに示すように、3つの骨型おもちゃ400を三角形状に配置した場合、その配置場所は危険なエリアであることを示している。また、図9Bに示すように3つの骨型おもちゃ400を平行に配置した場合、その配置場所は人と遊ぶことができるエリアであることを示している。なお、この図9に示した配置と情報はあくまで例示であり、配置する骨型おもちゃ400の数は2つでもよいし、3つ以上でもよいし、その配置により表す意味は図9の2つに限定されるものではない。
自律移動体10が活動範囲内の所定の場所(リビングなど)を特定環境情報として認識し、その特定環境情報には「人と遊ぶ」という行動情報が対応付けられているとする。そして自律移動体10が、その特定環境情報と行動情報を他の自律移動体と共有すると決定した場合、情報と物品の配置を対応付けたテーブルを参照して、図10に示すように、物品である骨型おもちゃ400を情報に対応した図9Bに示す状態に配置する。そして、この図9Bの状態に配置された骨型おもちゃ400を認識した他の自律移動体はその場所が人と遊ぶエリアであるということを認識して、人に対して遊ぶことを促す行動をとることができる。第3の手法はこのようにして複数の自律移動体で特定環境情報と行動情報の共有を行うことができる。
[1−5−4.情報出力の第4の手法]
次に情報出力の第4の手法について説明する。第4の手法は、自律移動体10自身のバックアップのために外部記憶装置に特定環境情報と行動情報を出力して保存するものである。
次に情報出力の第4の手法について説明する。第4の手法は、自律移動体10自身のバックアップのために外部記憶装置に特定環境情報と行動情報を出力して保存するものである。
情報の出力方法としては、予め自律移動体10をWiFi、Bluetooth(登録商標)などでバックアップ用の外部記憶装置であるパーソナルコンピュータ、タブレット端末、スマートフォン、スマートスピーカなどとネットワークを介して接続しておく、またはペアリングをしておく。そして、自律移動体10が通信可能な状態で外部記憶装置との無線通信を行い特定環境情報と行動情報を外部記憶装置に送信する。外部記憶装置は受信した特定環境情報と行動情報を自身が備える記憶媒体に保存する。Bluetooth(登録商標)のように通信可能な範囲が限定されている場合には、行動制御部104が外部記憶装置と通信可能な位置に移動まで自律移動体10を移動させるよう制御するとよい。なお、外部記憶装置がインターネットを通じてクラウドと接続し、特定環境情報と行動情報をクラウドに保存してもよいし、自律移動体10が直接インターネットを通じてクラウドと接続し、特定環境情報と行動情報をクラウドに保存してもよい。
この第4の手法によれば、長期記憶部106の残り容量が少ない場合に情報を外部記憶装置に保存して長期記憶部106の空き容量を増やすことができる。また、定期的に長期記憶部106に保存されている情報を外部記憶装置にバックアップとして保存することにより、長期記憶部106が故障して交換する場合に、その新しい長期記憶部106に特定環境情報と行動情報を復元することができる。さらに、自律移動体10が故障して動作不能になり、保有者が新たな自律移動体を購入した場合、動作不能になった自律移動体が有していた特定環境情報と行動情報をその新たな自律移動体に移すこともできる。
[1−6.情報の取得]
次に、上述した情報出力の第1乃至第4の態様で出力された特定環境情報と行動情報を取得する側の自律移動体において動作する情報処理装置200について説明する。なお、自律移動体の構成は図1を参照して説明したものと同様である。
次に、上述した情報出力の第1乃至第4の態様で出力された特定環境情報と行動情報を取得する側の自律移動体において動作する情報処理装置200について説明する。なお、自律移動体の構成は図1を参照して説明したものと同様である。
図11に示すように情報処理装置200は、情報取得部201、読み取り部202、長期記憶部203、行動制御部204を備えて構成されている。
情報取得部201は、自律移動体が備える各種センサからの出力に基づいて認識処理、検出処理などを行うことにより、自律移動体の周囲の環境情報を取得するものである。
情報取得部201は、具体的にはSLAMによる環境地図と自己位置と、物体認識による物体情報を取得する。情報取得側の自律移動体においては、特定環境情報および行動情報を含むメッセージ(物体として認識)、非接触型ICカードを備える物品、特定の状態に配置された物品を認識するためには、環境地図情報、その環境内における自己位置情報、物体認識情報があれば十分だからである。
読み取り部202は、情報取得部101により認識されたメッセージ、非接触型ICカードを備える物品、特定の状態に配置された物品から特定環境情報および行動情報を読み取るものである。上述した情報出力の第1の手法においては、読み取り部202はメッセージと、特定環境情報および行動情報が対応付けられたテーブルを有しており、そのテーブルを参照して認識したメッセージから特定環境情報および行動情報を読み取る。情報出力の第3の手法における物品の配置状態についても同様である。なお、情報出力の第2の手法においては、非接触型ICカードのリーダが読み取り部202に相当する。
長期記憶部203は、読み取り部202によって得られた特定環境情報と行動情報とを長期記憶として記憶保持するものである。長期記憶部203は、例えば、ハードディスク、半導体メモリなどを用いた大容量記憶媒体である。なお、長期記憶部203は情報処理装置200が備えていてもよいし、自律移動体が備えているものを利用してもよい。
行動制御部204は、長期記憶部203に保存された特定環境情報とその特定環境情報に対応付けられた行動情報とに基づいて自律移動体の各部および各センサの動作を制御して特定環境情報に応じた行動をとるように自律移動体の行動を制御する。
他の自律移動体によって出力された特定環境情報と行動情報を取得して行動をとる自律移動体における情報処理装置200は以上のようにして構成されている。この情報処理装置100により複数の自律移動体で情報を共有することができる。
これにより例えば、長年その家にいる自律移動体が保持している情報を新しく家に来た他の自律移動体や故障により記憶を消失してしまった他の自律移動体に供給して、その他の自律移動体がすぐにその家の環境に適した行動をとることが可能となる。より具体的には、自律移動体の保有者が好む行動をとることができる、家の中で近づいてはいけない範囲に近づかないようにする、などが可能となる。
また、情報を共有させてそれまで自律移動体がとってこなかった行動を示す行動情報を取得させることにより、自律移動体に新たな行動をとらせることができる。
なお、自律移動体が情報を出力して他の自律移動体に情報を提供し、かつ、他の自律移動体が出力した情報を取得することもありうるため、一つの自律移動体が図2に示す情報処理装置100と図11に示す情報処理装置200の機能の両方を備えていてもよい。
<4.変形例>
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施の形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施の形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
自律移動体は犬型に限られず、他の動物型、人型、人型でも動物型でもないロボット、例えば作業用ロボット、建築用ロボット、工事用ロボットなどでもよい。
保存されて、環境情報は実施の形態で説明した人が住む家の環境についての情報に限られず、その自律移動体の周囲に環境の情報であればどのような情報でもよい。例えば、工事現場の環境情報、建築現場の環境情報などである。
情報出力における具体的な物品として骨型おもちゃを例に挙げたが、裏に糊の付いた紙やプラスチックフィルムであるシールを用いてもよい。シールに非接触型ICカードを設けて情報出力用の物品として用いることにより骨型おもちゃとは異なり、特定環境情報とお行動情報を保存した非接触型ICカードを特定の位置に固定することができる。家内において特定の位置に情報を配置したい場合に有用である。
本技術は以下のような構成も取ることができる。
(1)
自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得する情報取得部と、
前記環境情報から保存すべき特定環境情報を抽出する抽出部と、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する行動制御部と
を備える情報処理装置。
(2)
前記自律移動体の行動を示す行動情報に前記特定環境情報を対応付ける対応付け部を備え、
前記行動制御部は、さらに前記特定環境情報に対応付けられた前記行動情報を外部に出力するよう前記自律移動体の行動を制御する(1)に記載の情報処理装置。
(3)
前記行動情報は、前記自律移動体が前記特定環境情報を取得した場合にとる行動を示す情報である(2)に記載の情報処理装置。
(4)
前記特定環境情報は、前記自律移動体の近傍にいる人の状態を示す情報である(1)から(3)のいずれかに記載の情報処理装置。
(5)
前記特定環境情報は、前記自律移動体の活動範囲内の所定の位置の状態を示す情報である(1)から(4)のいずれかに記載の情報処理装置。
(6)
前記対応付け部は、前記特定環境情報と、該特定環境情報に基づいて前記自律移動体が行った行動を示す前記行動情報を対応付ける(2)に情報処理装置。
(7)
前記外部への出力は、前記自律移動体の行動により、物品に設けられた記憶媒体に前記環境情報および前記行動情報を書き込むことにより行われる(1)から(6)のいずれかに記載の情報処理装置。
(8)
前記自律移動体は動物型であり、前記物品は前記自律移動体用のおもちゃである(7)に記載の情報処理装置。
(9)
前記外部への出力は、前記自律移動体の行動により物を配置することにより行われる(1)から(8)のいずれかに記載の情報処理装置。
(10)
前記外部への出力は、前記自律移動体の行動によりメッセージを記すことにより行われる(1)から(9)のいずれかに記載の情報処理装置。
(11)
前記メッセージは人には見えない素材により記される(1)から(10)のいずれかに記載の情報処理装置。
(12)
前記外部への出力は、外部の記憶装置に前記特定環境情報を送信することにより行われる(1)から(11)のいずれかに記載の情報処理装置。
(13)
前記特定環境情報は長期間保存すべき情報として長期的な記憶が可能な記憶媒体に保存される(1)から(12)のいずれかに記載の情報処理装置。
(14)
外部に出力する前記特定環境情報を決定する出力決定部を備える(1)から(13)のいずれかに記載の情報処理装置。
(15)
自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、
前記環境情報から保存すべき特定環境情報を抽出し、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する情報処理方法。
(16)
自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、
前記環境情報から保存すべき特定環境情報を抽出し、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する情報処理方法をコンピュータに実行させる情報処理プログラム。
(1)
自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得する情報取得部と、
前記環境情報から保存すべき特定環境情報を抽出する抽出部と、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する行動制御部と
を備える情報処理装置。
(2)
前記自律移動体の行動を示す行動情報に前記特定環境情報を対応付ける対応付け部を備え、
前記行動制御部は、さらに前記特定環境情報に対応付けられた前記行動情報を外部に出力するよう前記自律移動体の行動を制御する(1)に記載の情報処理装置。
(3)
前記行動情報は、前記自律移動体が前記特定環境情報を取得した場合にとる行動を示す情報である(2)に記載の情報処理装置。
(4)
前記特定環境情報は、前記自律移動体の近傍にいる人の状態を示す情報である(1)から(3)のいずれかに記載の情報処理装置。
(5)
前記特定環境情報は、前記自律移動体の活動範囲内の所定の位置の状態を示す情報である(1)から(4)のいずれかに記載の情報処理装置。
(6)
前記対応付け部は、前記特定環境情報と、該特定環境情報に基づいて前記自律移動体が行った行動を示す前記行動情報を対応付ける(2)に情報処理装置。
(7)
前記外部への出力は、前記自律移動体の行動により、物品に設けられた記憶媒体に前記環境情報および前記行動情報を書き込むことにより行われる(1)から(6)のいずれかに記載の情報処理装置。
(8)
前記自律移動体は動物型であり、前記物品は前記自律移動体用のおもちゃである(7)に記載の情報処理装置。
(9)
前記外部への出力は、前記自律移動体の行動により物を配置することにより行われる(1)から(8)のいずれかに記載の情報処理装置。
(10)
前記外部への出力は、前記自律移動体の行動によりメッセージを記すことにより行われる(1)から(9)のいずれかに記載の情報処理装置。
(11)
前記メッセージは人には見えない素材により記される(1)から(10)のいずれかに記載の情報処理装置。
(12)
前記外部への出力は、外部の記憶装置に前記特定環境情報を送信することにより行われる(1)から(11)のいずれかに記載の情報処理装置。
(13)
前記特定環境情報は長期間保存すべき情報として長期的な記憶が可能な記憶媒体に保存される(1)から(12)のいずれかに記載の情報処理装置。
(14)
外部に出力する前記特定環境情報を決定する出力決定部を備える(1)から(13)のいずれかに記載の情報処理装置。
(15)
自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、
前記環境情報から保存すべき特定環境情報を抽出し、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する情報処理方法。
(16)
自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、
前記環境情報から保存すべき特定環境情報を抽出し、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する情報処理方法をコンピュータに実行させる情報処理プログラム。
10、20・・・・・自律移動体
100、200・・・情報処理装置
101・・・・・・・情報取得部
103・・・・・・・抽出部
104・・・・・・・行動制御部
105・・・・・・・対応付け部
107・・・・・・・出力決定部
300、400・・・骨型おもちゃ
310・・・・・・・非接触型ICカード
100、200・・・情報処理装置
101・・・・・・・情報取得部
103・・・・・・・抽出部
104・・・・・・・行動制御部
105・・・・・・・対応付け部
107・・・・・・・出力決定部
300、400・・・骨型おもちゃ
310・・・・・・・非接触型ICカード
Claims (16)
- 自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得する情報取得部と、
前記環境情報から保存すべき特定環境情報を抽出する抽出部と、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する行動制御部と
を備える情報処理装置。 - 前記自律移動体の行動を示す行動情報に前記特定環境情報を対応付ける対応付け部を備え、
前記行動制御部は、さらに前記特定環境情報に対応付けられた前記行動情報を外部に出力するよう前記自律移動体の行動を制御する
請求項1に記載の情報処理装置。 - 前記行動情報は、前記自律移動体が前記特定環境情報を取得した場合にとる行動を示す情報である
請求項2に記載の情報処理装置。 - 前記特定環境情報は、前記自律移動体の近傍にいる人の状態を示す情報である
請求項1に記載の情報処理装置。 - 前記特定環境情報は、前記自律移動体の活動範囲内の所定の位置の状態を示す情報である
請求項1に記載の情報処理装置。 - 前記対応付け部は、前記特定環境情報と、該特定環境情報に基づいて前記自律移動体が行った行動を示す前記行動情報を対応付ける
請求項2に情報処理装置。 - 前記外部への出力は、前記自律移動体の行動により、物品に設けられた記憶媒体に前記環境情報および前記行動情報を書き込むことにより行われる
請求項1に記載の情報処理装置。 - 前記自律移動体は動物型であり、前記物品は前記自律移動体用のおもちゃである
請求項7に記載の情報処理装置。 - 前記外部への出力は、前記自律移動体の行動により物を配置することにより行われる
請求項1に記載の情報処理装置。 - 前記外部への出力は、前記自律移動体の行動によりメッセージを記すことにより行われる
請求項1に記載の情報処理装置。 - 前記メッセージは人には見えない素材により記される
請求項10に記載の情報処理装置。 - 前記外部への出力は、外部の記憶装置に前記特定環境情報を送信することにより行われる
請求項1に記載の情報処理装置。 - 前記特定環境情報は長期間保存すべき情報として長期的な記憶が可能な記憶媒体に保存される
請求項1に記載の情報処理装置。 - 外部に出力する前記特定環境情報を決定する出力決定部を備える
請求項1に記載の情報処理装置。 - 自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、
前記環境情報から保存すべき特定環境情報を抽出し、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する
情報処理方法。 - 自律移動体が備えるセンサにより取得されたセンサ情報から環境情報を取得し、
前記環境情報から保存すべき特定環境情報を抽出し、
前記特定環境情報を外部に出力するよう前記自律移動体の行動を制御する
情報処理方法をコンピュータに実行させる情報処理プログラム。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018194822A JP2020064385A (ja) | 2018-10-16 | 2018-10-16 | 情報処理装置、情報処理方法および情報処理プログラム |
| DE112019005165.2T DE112019005165T5 (de) | 2018-10-16 | 2019-10-10 | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund informationsverarbeitungsprogramm |
| CN201980063184.7A CN112789569A (zh) | 2018-10-16 | 2019-10-10 | 信息处理装置、信息处理方法以及信息处理程序 |
| PCT/JP2019/039949 WO2020080241A1 (ja) | 2018-10-16 | 2019-10-10 | 情報処理装置、情報処理方法および情報処理プログラム |
| US17/283,622 US12168292B2 (en) | 2018-10-16 | 2019-10-10 | Information processing device and information processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018194822A JP2020064385A (ja) | 2018-10-16 | 2018-10-16 | 情報処理装置、情報処理方法および情報処理プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2020064385A true JP2020064385A (ja) | 2020-04-23 |
Family
ID=70284576
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018194822A Pending JP2020064385A (ja) | 2018-10-16 | 2018-10-16 | 情報処理装置、情報処理方法および情報処理プログラム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12168292B2 (ja) |
| JP (1) | JP2020064385A (ja) |
| CN (1) | CN112789569A (ja) |
| DE (1) | DE112019005165T5 (ja) |
| WO (1) | WO2020080241A1 (ja) |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
| WO2000067959A1 (en) * | 1999-05-10 | 2000-11-16 | Sony Corporation | Robot device and method for controlling the same |
| JP2001212782A (ja) * | 2000-01-31 | 2001-08-07 | Sony Corp | ロボット装置及びロボット装置の制御方法 |
| JP2001222624A (ja) * | 2000-02-10 | 2001-08-17 | Sony Corp | 情報提供システム、情報提供方法、部品情報提供装置及び部品情報提供方法 |
| WO2001085400A2 (en) * | 2000-05-09 | 2001-11-15 | Hasbro, Inc. | Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered |
| JP4401564B2 (ja) | 2000-12-12 | 2010-01-20 | 本田技研工業株式会社 | 自律ロボット、集中制御装置、自律ロボットの行動計画策定方法、自律ロボットの集中制御方法、自律ロボットの行動計画策定プログラムを記録した記録媒体、自律ロボットの集中制御プログラムを記録した記録媒体 |
| JP2004237392A (ja) | 2003-02-05 | 2004-08-26 | Sony Corp | ロボット装置、及びロボット装置の表現方法 |
| JP2004255528A (ja) * | 2003-02-26 | 2004-09-16 | Sony Corp | ロボット装置及びロボット装置の制御方法 |
| JP2004299033A (ja) | 2003-04-01 | 2004-10-28 | Sony Corp | ロボット装置、情報処理方法、およびプログラム |
| JP3963162B2 (ja) * | 2003-08-28 | 2007-08-22 | ソニー株式会社 | ロボット装置及びロボット装置の制御方法ロボット装置 |
| US20110118870A1 (en) * | 2007-09-06 | 2011-05-19 | Olympus Corporation | Robot control system, robot, program, and information storage medium |
| JP4596024B2 (ja) | 2008-03-13 | 2010-12-08 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
| JP5120024B2 (ja) * | 2008-03-31 | 2013-01-16 | 富士通株式会社 | 自律移動ロボット及びその障害物識別方法 |
| JP5560794B2 (ja) * | 2010-03-16 | 2014-07-30 | ソニー株式会社 | 制御装置、制御方法およびプログラム |
| US9079113B2 (en) * | 2012-01-06 | 2015-07-14 | J. T. Labs Limited | Interactive personal robotic apparatus |
| JP6136543B2 (ja) | 2013-05-01 | 2017-05-31 | 村田機械株式会社 | 自律移動体 |
| CN109689174B (zh) | 2016-09-09 | 2020-12-29 | Groove X 株式会社 | 接纳访客的机器人及服务器 |
-
2018
- 2018-10-16 JP JP2018194822A patent/JP2020064385A/ja active Pending
-
2019
- 2019-10-10 CN CN201980063184.7A patent/CN112789569A/zh active Pending
- 2019-10-10 US US17/283,622 patent/US12168292B2/en active Active
- 2019-10-10 WO PCT/JP2019/039949 patent/WO2020080241A1/ja not_active Ceased
- 2019-10-10 DE DE112019005165.2T patent/DE112019005165T5/de active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| CN112789569A (zh) | 2021-05-11 |
| DE112019005165T5 (de) | 2021-07-29 |
| WO2020080241A1 (ja) | 2020-04-23 |
| US12168292B2 (en) | 2024-12-17 |
| US20210387355A1 (en) | 2021-12-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
| JP7238796B2 (ja) | 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム | |
| JP7375748B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| US20250123622A1 (en) | Information processing apparatus, information processing method, and program | |
| JP2019168925A (ja) | ロボット、ロボットの制御方法及びプログラム | |
| US11986959B2 (en) | Information processing device, action decision method and program | |
| JPWO2020105309A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
| US11325262B2 (en) | Robot, robot control system, robot control method, and non-transitory storage medium | |
| US20220355470A1 (en) | Autonomous mobile body, information processing method, program, and information processing device | |
| KR20150020954A (ko) | 감정적 반응을 표현하는 청소로봇 | |
| WO2019123744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| WO2020080241A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
| US20240367065A1 (en) | Autonomous mobile body, information processing method, and program | |
| US20240019868A1 (en) | Autonomous mobile body, information processing apparatus, information processing method, and program | |
| US12487594B2 (en) | Information processing apparatus, and information processing method for interaction with an autonomous mobile body | |
| WO2025037529A1 (ja) | 制御装置及び制御方法 | |
| JP2019168828A (ja) | ロボット、ロボットの制御方法及びプログラム |