[go: up one dir, main page]

JP6647711B2 - Video chat robot system, hand-over play control method, and hand-over play control program - Google Patents

Video chat robot system, hand-over play control method, and hand-over play control program Download PDF

Info

Publication number
JP6647711B2
JP6647711B2 JP2016053021A JP2016053021A JP6647711B2 JP 6647711 B2 JP6647711 B2 JP 6647711B2 JP 2016053021 A JP2016053021 A JP 2016053021A JP 2016053021 A JP2016053021 A JP 2016053021A JP 6647711 B2 JP6647711 B2 JP 6647711B2
Authority
JP
Japan
Prior art keywords
article
hand
video chat
video
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016053021A
Other languages
Japanese (ja)
Other versions
JP2017164319A (en
Inventor
長井 隆行
隆行 長井
阿部 香澄
香澄 阿部
雅超 裴
雅超 裴
亭芸 張
亭芸 張
智絵 日永田
智絵 日永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2016053021A priority Critical patent/JP6647711B2/en
Publication of JP2017164319A publication Critical patent/JP2017164319A/en
Application granted granted Critical
Publication of JP6647711B2 publication Critical patent/JP6647711B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ビデオチャットロボットシステム、手渡し遊び制御方法および手渡し遊び制御プログラムに関する。   The present invention relates to a video chat robot system, a hand-over play control method, and a hand-over play control program.

子育てをしている家庭においては、例えば家事の間だけでも誰かに子供の相手をしてもらえたら助かるという状況が多々ある。一方で、祖父母(子供から見て)は子供とのコミュニケーションを欲している場合が多いが、遠方に住んでいる場合には頻繁にやってくるわけにもいかないというのが現実である。そこで、昨今のIT(情報通信技術)を活用した解決が望まれる。   In families raising children, for example, there are many situations where it is helpful to have someone to deal with a child only during housework. On the other hand, grandparents (as seen by children) often want to communicate with their children, but the reality is that if they live far away they will not be able to come frequently. Therefore, a solution utilizing recent IT (information communication technology) is desired.

特許文献1には、気軽にベビーシッターを利用できることをひとつの目標として、遠く離れたところにいても対面型のコミュニケーションをとることができる見守りシステムが開示されている。しかし、ベビーシッターと子供の間のビデオチャットや、クイズやゲームのコンテンツにより子供の相手をするものであるため、ある程度、年齢の高い子供にしか使えない面があり、乳幼児に適用するのは困難であると考えられる。   Patent Literature 1 discloses a watching system that enables face-to-face communication even at a distant place, with one goal of making it easy to use a babysitter. However, it is difficult to apply it to infants because it is used only for older children to a certain extent, because it is intended for video chat between babysitters and children, quizzes and game contents, so that it can be used for children. It is considered to be.

乳幼児はビデオチャット機器の前にじっとしていられず、呼びかけてもビデオチャット機器の近くに来てくれるとは限らない。見守りシステム以外でも、ビデオチャットを利用したものでは同様の問題が発生し、30分も子供を引きつけていられないと予想される。   Infants cannot sit still in front of the video chat device, and calling does not always come near the video chat device. Other than the watching system, the one using video chat causes the same problem, and it is expected that the child cannot be attracted for 30 minutes.

乳幼児がビデオチャット機器の前に長く滞在できない問題の解決には、テレプレゼンスロボットが有効であると考えられる。テレプレゼンスロボットは、簡潔に言えば移動できるビデオチャット機器であり、操作者が遠く離れた場所から操作し、まるでその場にいるかのように動き回ることができ、相手に近づいて会話を行うことができる(非特許文献1−8)。   Telepresence robots are considered to be effective in solving the problem that infants cannot stay in front of a video chat device for a long time. Telepresence robots are, in short, mobile video chat devices that allow operators to operate from a distance and move around as if they were there, allowing them to approach and talk to each other. (Non-Patent Documents 1-8).

しかし、既存のテレプレゼンスロボットは、いずれも乳幼児と遊ぶことを想定していない。非特許文献1−5に示されるロボットは背が高すぎ、乳幼児と同じ目線で遊ぶことができない。また、乳幼児と長く遊ぶためには、身体を使う遊びや、絵本の読み聞かせなど、乳幼児の楽しめる遊びができなければならないが、スマートフォンサイズのロボット(非特許文献6、7)では、乳幼児に合った多様な遊びを行うことができない。非特許文献8に示される機器は、高さの点では乳幼児との遊びに適しているが、移動することができない。   However, none of the existing telepresence robots are intended to play with infants. The robot shown in Non-Patent Documents 1-5 is too tall and cannot play with the same eyes as infants. In addition, in order to play with infants for a long time, it is necessary to be able to enjoy the infants, such as playing with the body and reading a picture book. I can't play various games. The device described in Non-Patent Document 8 is suitable for playing with an infant in terms of height, but cannot move.

また、発明者らの既存研究として、遠くの場所から乳幼児とコミュニケーションするためのテレプレゼンスロボットがある(非特許文献9)。しかし、子供が相手と対面しているかのような感覚を得ながら遊ぶには不十分であり、子供の興味を引き付けて長くビデオチャットを続けることは難しいと考えられる。   Further, as an existing study by the inventors, there is a telepresence robot for communicating with an infant from a distant place (Non-Patent Document 9). However, it is not enough to play while obtaining the feeling that the child is facing the other party, and it is considered difficult to keep the video chat for a long time by attracting the interest of the child.

一方、特許文献2にはビデオチャット機能を備えた人形型のデバイスが開示されており、乳幼児を対象としたものであるが、親からの介入や監督を必要とせずに本人の意志で遊ぶことを志向したものであり、方向性が異なる。   On the other hand, Patent Literature 2 discloses a doll-shaped device having a video chat function, which is intended for infants and children. However, playing with voluntary intention without the intervention or supervision of a parent is required. The orientation is different.

特開2006−235978号公報JP 2006-235978 A 特表2014−515571号公報JP 2014-515571 A

Double、Double Robotics社、http://www.doublerobotics.com/Double, Double Robotics, http://www.doublerobotics.com/ Beam、Suitable Technologies社、https://www.suitabletech.com/Beam, Suitable Technologies, https://www.suitabletech.com/ Anybots QB、BizzwithBuzz社、https://www.anybots.com/Anybots QB, BizzwithBuzz, https://www.anybots.com/ Telemba、https://www.kickstarter.com/projects/frtp/telembaTelemba, https://www.kickstarter.com/projects/frtp/telemba Avatar Robot for Party(パーティー専用遠隔操作ロボット)、smilerobotics社、http://smilerobotics.com/wordpress/Avatar Robot for Party (smilerobotics), http://smilerobotics.com/wordpress/ Botiful、https://www.kickstarter.com/projects/1452620607/botiful-telepresence-robot-for-androidBotiful, https://www.kickstarter.com/projects/1452620607/botiful-telepresence-robot-for-android Romo、ロモティブ社、http://www.romotive.com/Romo, Lomotive, http://www.romotive.com/ JIBO、Jibo.com社、http://www.myjibo.com/JIBO, Jibo.com, http://www.myjibo.com/ K. Abe, et al., "Telepresence Childcare Robot for Playing with Children from a Remote Location," ICAM 2015, 1P1-11, Tokyo, 2015K. Abe, et al., "Telepresence Childcare Robot for Playing with Children from a Remote Location," ICAM 2015, 1P1-11, Tokyo, 2015

上述したように、従来、遠隔地から効果的に乳幼児の相手を行う仕組が存在せず、有効な手法が要望されていた。   As described above, conventionally, there is no mechanism for effectively dealing with infants from a remote place, and an effective method has been demanded.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、乳幼児が集中しやすく、長期的に飽きにくいコミュニケーション手法を提供することにある。   The present invention has been proposed in view of the above-described conventional problems, and an object of the present invention is to provide a communication method in which babies and infants can easily concentrate and are not tired of in the long term.

上記の課題を解決するため、本発明にあっては、ロボットに設けられ、手を模し、物品が載置可能な状態と物品が取り込まれて隠された状態とを有するハンド機構と、前記ロボットと通信相手の端末装置との間でビデオチャットを行う機能を提供するビデオチャット部と、前記ハンド機構への物品の載置に応じて前記ハンド機構を物品が取り込まれて隠された状態に制御し、該状態においてビデオチャット上の前記通信相手を撮影した映像に物品を示す映像を合成し、前記通信相手の返却指示に応じてビデオチャット上の物品を示す映像を消去し、前記ハンド機構を物品が載置可能な状態に制御する制御部とを備える。   In order to solve the above problems, in the present invention, a hand mechanism provided in a robot, imitating a hand, having a state where an article can be placed and a state where an article is taken in and hidden, A video chat unit that provides a function of performing a video chat between the robot and the terminal device of the communication partner; and, in accordance with the placement of the article on the hand mechanism, the hand mechanism is fetched and hidden. Controlling, in this state, combining the video showing the article with the video of the communication partner on the video chat, deleting the video showing the article on the video chat in response to the return instruction of the communication partner, And a control unit for controlling the state in which the articles can be placed.

本発明にあっては、乳幼児が集中しやすく、長期的に飽きにくいコミュニケーション手法を提供することができる。   According to the present invention, it is possible to provide a communication method in which babies and infants can easily concentrate and are not tired in the long term.

本発明の一実施形態にかかるシステムの構成例を示す図である。1 is a diagram illustrating a configuration example of a system according to an embodiment of the present invention. ビデオチャットロボットの外観構成例を示す図である。It is a figure showing the example of appearance composition of a video chat robot. ハンドの構成例を示す図(その1)である。FIG. 3 is a diagram (part 1) illustrating a configuration example of a hand. ハンドの構成例を示す図(その2)である。FIG. 11 is a diagram (part 2) illustrating a configuration example of a hand. ハンドの構成例を示す図(その3)である。FIG. 11 is a diagram (part 3) illustrating a configuration example of a hand. ハンドの構成例を示す図(その4)である。FIG. 11 is a diagram (part 4) illustrating a configuration example of a hand. ハンドの構成例を示す図(その5)である。FIG. 11 is a diagram (part 5) illustrating a configuration example of a hand. ビデオチャットロボットの情報処理にかかるハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration related to information processing of a video chat robot. 実施形態の処理例を示すシーケンス図(その1)である。FIG. 4 is a sequence diagram (part 1) illustrating a processing example of the embodiment; 手渡し遊びの操作例を示す図(その1)である。It is a figure (the 1) which shows the example of operation of handing play. 手渡し遊びの操作例を示す図(その2)である。It is a figure (the 2) which shows the example of operation of handing play. 手渡し遊びの操作例を示す図(その3)である。It is a figure (the 3) showing the example of operation of handing play. 手渡し遊びの操作例を示す図(その4)である。It is a figure (the 4) which shows the example of operation of handing play. 実施形態の処理例を示すシーケンス図(その2)である。FIG. 4 is a sequence diagram (part 2) illustrating a processing example of the embodiment.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は本発明の一実施形態にかかるシステムの構成例を示す図である。図1において、主に乳幼児が使用するビデオチャットロボット1と、主に祖父母等の通信相手が使用する端末装置2とが、インターネット等のネットワーク3を介して接続可能になっている。また、必要に応じて、ネットワーク3にはサーバ4が接続可能になっている。
<Structure>
FIG. 1 is a diagram showing a configuration example of a system according to an embodiment of the present invention. In FIG. 1, a video chat robot 1 used mainly by infants and a terminal device 2 used mainly by a communication partner such as a grandparent can be connected via a network 3 such as the Internet. A server 4 can be connected to the network 3 as needed.

ビデオチャットロボット1は、ビデオチャット部11とハンド制御部12と映像制御部13とを備えている。ビデオチャット部11は、ビデオチャットロボット1側でのビデオチャットについての処理を実行する機能を有している。ハンド制御部12は、ビデオチャットロボット1に備えられたハンド(後述)を制御する機能を有している。映像制御部13は、ハンドの制御に連動してビデオチャット上の映像を制御する機能を有している。なお、ハンドの制御に連動したビデオチャット上の映像の制御を端末装置2側またはサーバ4側で行う場合には、映像制御部13は不要となる。   The video chat robot 1 includes a video chat unit 11, a hand control unit 12, and a video control unit 13. The video chat section 11 has a function of executing a video chat process on the video chat robot 1 side. The hand control unit 12 has a function of controlling a hand (described later) provided in the video chat robot 1. The video control unit 13 has a function of controlling video on a video chat in conjunction with control of the hand. Note that the video control unit 13 is not required when controlling the video on the video chat in conjunction with the control of the hand on the terminal device 2 side or the server 4 side.

端末装置2は、ビデオチャット部21と映像制御部22とを備えている。ビデオチャット部21は、端末装置2側でのビデオチャットについての処理を実行する機能を有している。映像制御部22は、ビデオチャットロボット1のハンドの制御に連動してビデオチャット上の映像を制御する機能を有している。なお、ビデオチャットロボット1のハンドの制御に連動したビデオチャット上の映像の制御をビデオチャットロボット1側またはサーバ4側で行う場合には、映像制御部22は不要となる。ビデオチャットロボット1の映像制御部13と端末装置2の映像制御部22とで、連携してビデオチャット上の映像の制御を行ってもよい。   The terminal device 2 includes a video chat unit 21 and a video control unit 22. The video chat unit 21 has a function of executing a process regarding a video chat on the terminal device 2 side. The video control unit 22 has a function of controlling the video on the video chat in conjunction with the control of the hand of the video chat robot 1. When the video chat control on the video chat robot 1 or the server 4 is performed in conjunction with the control of the hand of the video chat robot 1, the video control unit 22 becomes unnecessary. The video controller 13 of the video chat robot 1 and the video controller 22 of the terminal device 2 may control the video on the video chat in cooperation with each other.

サーバ4は、ビデオチャット制御部41と映像制御部42とログ取得部43とを備えている。ビデオチャット制御部41は、ビデオチャットロボット1と端末装置2の間のビデオチャットを制御する機能を有している。映像制御部42は、ビデオチャットロボット1のハンドの制御に連動してビデオチャット上の映像を制御する機能を有している。ログ取得部43は、ビデオチャットロボット1と端末装置2の動作ログを取得する機能を有している。   The server 4 includes a video chat control unit 41, a video control unit 42, and a log acquisition unit 43. The video chat controller 41 has a function of controlling a video chat between the video chat robot 1 and the terminal device 2. The video control unit 42 has a function of controlling the video on the video chat in conjunction with the control of the hand of the video chat robot 1. The log acquisition unit 43 has a function of acquiring operation logs of the video chat robot 1 and the terminal device 2.

図2はビデオチャットロボット1の外観構成例を示す図である。図2において、ビデオチャットロボット1は、頭部筐体101と胴部筐体106とを備えている。頭部筐体101には、前面に画面部102が設けられるとともに、画面部102の上部にはカメラ103が設けられ、画面部102の両側にはスピーカ104が設けられ、下部にはマイク105が設けられている。胴部筐体106には、手を模し、物品が載置可能な状態と、物品が取り込まれて隠された状態とを有するハンド107が設けられている。また、ビデオチャットロボット1には、利用者(子供)に追従して利用者の正面を向くための自走機構や回転機構を設けることができる。利用者の認識は、カメラ103やその他のセンサによる顔認識や色認識等で行うことができる。   FIG. 2 is a diagram illustrating an example of an external configuration of the video chat robot 1. 2, the video chat robot 1 includes a head housing 101 and a body housing 106. In the head housing 101, a screen unit 102 is provided on the front surface, a camera 103 is provided above the screen unit 102, speakers 104 are provided on both sides of the screen unit 102, and a microphone 105 is provided below. Is provided. The body housing 106 is provided with a hand 107 that imitates a hand and has a state in which an article can be placed and a state in which the article is taken in and hidden. In addition, the video chat robot 1 can be provided with a self-propelled mechanism or a rotation mechanism for following the user (child) and facing the user. The user can be recognized by face recognition, color recognition, or the like using the camera 103 or other sensors.

図3はハンド107の構成例を示す図であり、図2のビデオチャットロボット1を右側方から見た図である。図3(a)において、ハンド107は、上方に向かって湾曲した受皿部107−1が支点107−2で揺動自在に保持されており、駆動部107−3により、受皿部107−1が上方向に振り上がるようになっている。図3(b)は受皿部107−1が上がりきった状態を示している。これにより、図3(a)の状態で受皿部107−1に載置された物品OBJが、図3(b)の状態では隠されて見えない状態になる。   FIG. 3 is a diagram showing a configuration example of the hand 107, and is a diagram of the video chat robot 1 of FIG. 2 viewed from the right side. In FIG. 3A, the hand 107 has a receiving portion 107-1 that is curved upward and is swingably held at a fulcrum 107-2, and the receiving portion 107-1 is driven by a driving portion 107-3. It swings upward. FIG. 3B shows a state in which the pan portion 107-1 is completely raised. As a result, the article OBJ placed on the pan 107-1 in the state of FIG. 3A is hidden and invisible in the state of FIG. 3B.

図4はハンド107の他の構成例を示す図である。図4(a)において、ハンド107は、円弧状の断面を有し、上方に向かって湾曲した受皿部107−4が、駆動部107−5によって円弧の中心を維持しながら回転して、せり出し可能となっている。図4(b)はせり出しきった状態を示している。これにより、図4(a)の状態で受皿部107−4に載置された物品OBJが、図4(b)の状態では隠されて見えない状態になる。   FIG. 4 is a diagram illustrating another configuration example of the hand 107. In FIG. 4A, the hand 107 has an arc-shaped cross section, and the pan 107-4 curved upward is rotated by the driving unit 107-5 while maintaining the center of the arc to protrude. It is possible. FIG. 4B shows a state in which the projection has been completed. Thus, the article OBJ placed on the tray 107-4 in the state of FIG. 4A is hidden and invisible in the state of FIG. 4B.

図5はハンド107の他の構成例を示す図である。図5(a)において、ハンド107は、断面が略L字形の受け部107−6が駆動部107−8により、胴部筐体106に設けられた空洞部107−7に向かって後退可能になっている。図5(b)は後退しきった状態を示している。これにより、図5(a)の状態で受け部107−6に載置された物品OBJが、図5(b)の状態では隠されて見えない状態になる。   FIG. 5 is a diagram illustrating another configuration example of the hand 107. In FIG. 5A, the hand 107 is configured such that a receiving portion 107-6 having a substantially L-shaped cross section can be retracted by a driving portion 107-8 toward a hollow portion 107-7 provided in the trunk housing 106. Has become. FIG. 5B shows a state in which the robot is completely retracted. Thus, the article OBJ placed on the receiving portion 107-6 in the state of FIG. 5A is hidden and invisible in the state of FIG. 5B.

図6はハンド107の他の構成例を示す図である。図6(a)において、ハンド107は、断面が略L字形で、固定されたハンド受部107−9に対し、断面が略逆L字状のハンド押さえ部107−10が駆動部107−11により下方に移動し、ハンド受部107−9と噛み合うようになっている。図6(b)はかみあった状態を示している。これにより、図6(a)の状態でハンド受部107−9に載置された物品OBJが、図6(b)の状態では隠されて見えない状態になる。   FIG. 6 is a diagram showing another configuration example of the hand 107. In FIG. 6A, the hand 107 has a substantially L-shaped cross section, and a hand holding section 107-10 having a substantially inverted L-shaped cross section has a driving section 107-11 with respect to a fixed hand receiving section 107-9. To move downward to engage with the hand receiving portion 107-9. FIG. 6 (b) shows a biting state. As a result, the article OBJ placed on the hand receiving unit 107-9 in the state of FIG. 6A is hidden and invisible in the state of FIG. 6B.

図7はハンド107の他の構成例を示す図であり、ビデオチャットロボット1を正面から見た図である。図7(a)において、ハンド107は、胴部筐体106の両端付近にヒンジ止めされた、いわゆる観音開きの右側ハンド107−12と左側ハンド107−13とを備え、胴部筐体106の中央に空洞部107−14を備えている。そして、右側ハンド107−12と左側ハンド107−13が開いた状態から、内部の駆動部により右側ハンド107−12と左側ハンド107−13が内側に閉じられるようになっている。図7(b)は右側ハンド107−12と左側ハンド107−13が閉じられた状態を示している。これにより、図7(a)の状態で空洞部107−14に載置された物品OBJが、図7(b)の状態では隠されて見えない状態になる。   FIG. 7 is a diagram showing another configuration example of the hand 107, and is a diagram of the video chat robot 1 as viewed from the front. 7A, the hand 107 includes a so-called double-sided right hand 107-12 and a left hand 107-13 hinged near both ends of the body casing 106, and is provided at the center of the body casing 106. Is provided with a cavity 107-14. Then, from a state where the right hand 107-12 and the left hand 107-13 are opened, the right hand 107-12 and the left hand 107-13 are closed inward by an internal driving unit. FIG. 7B shows a state in which the right hand 107-12 and the left hand 107-13 are closed. Thereby, the article OBJ placed in the cavity 107-14 in the state of FIG. 7A is hidden and invisible in the state of FIG. 7B.

図8はビデオチャットロボット1の情報処理にかかるハードウェア構成例を示す図である。図8において、ビデオチャットロボット1は、バス1000を介して相互に接続されたCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、HDD(Hard Disk Drive)/SSD(Solid State Drive)1004、接続I/F(Interface)1005、通信I/F1006を備えている。   FIG. 8 is a diagram illustrating an example of a hardware configuration related to information processing of the video chat robot 1. 8, a video chat robot 1 includes a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, and a HDD (Hard Disk Drive) interconnected via a bus 1000. / SSD (Solid State Drive) 1004, connection I / F (Interface) 1005, and communication I / F 1006.

CPU1001は、RAM1003をワークエリアとしてROM1002またはHDD/SSD1004等に格納されたプログラムを実行することで、ビデオチャットロボット1の動作を統括的に制御する。接続I/F1005は、カメラ1007、マイク1008、スピーカ1009、センサ1010、モータ1011とのインタフェースである。通信I/F1006は、ネットワークを介して他の情報処理装置(端末装置2、サーバ4等)と通信を行うためのインタフェースである。図1で説明したビデオチャットロボット1の機能は、CPU1001において所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。   The CPU 1001 controls the operation of the video chat robot 1 by executing programs stored in the ROM 1002 or the HDD / SSD 1004 using the RAM 1003 as a work area. The connection I / F 1005 is an interface with the camera 1007, microphone 1008, speaker 1009, sensor 1010, and motor 1011. The communication I / F 1006 is an interface for communicating with another information processing device (the terminal device 2, the server 4, etc.) via the network. The function of the video chat robot 1 described with reference to FIG. 1 is realized by executing a predetermined program in the CPU 1001. The program may be obtained via a recording medium, may be obtained via a network, or may be embedded in a ROM.

センサ1010はビデオチャットロボット1に物品が載置されたか否かを検出するためのものであり、
・触覚センサを用いる場合
・加重センサを用いる場合
・カメラを用いる場合
・RFIDタグリーダを用いる場合
・VRマーカリーダを用いる場合
・操作者の操作による場合
といった、いくつかのヴァリエーションがある。なお、センサ1010は、物品がハンド107に載置されたことの検出と、載置された物品の特定(合成する物品の画像の特定)とを行うためのものであり、上述のヴァリエーションを複数組み合わせることもできる。
The sensor 1010 is for detecting whether an article is placed on the video chat robot 1 or not.
There are several variations, such as using a tactile sensor, using a weight sensor, using a camera, using an RFID tag reader, using a VR marker reader, and using an operator's operation. The sensor 1010 is for detecting that the article is placed on the hand 107 and for specifying the placed article (identifying the image of the article to be combined). They can be combined.

触覚センサを用いる場合、触覚センサは物品が載置される部分に配置され、物品の載置による接触で、物品の載置を検出する。加重センサを用いる場合、加重センサは物品が載置される部分に配置され、物品の載置による加重変化で、物品の載置を検出する。加重センサとしては、歪ゲージを用いることもできるし、モータ(ハンド駆動用モータ)の負荷変化を利用することもできる。カメラを用いる場合、カメラは物品が載置される部分を撮影可能な位置に配置される。ビデオチャットに用いるカメラと兼用することもできる。カメラを用いる場合、物品が載置されていない状態の背景画像と、撮影画像との差分をとることで、物品の載置を検出することができる。また、検出した物品の画像をそのまま合成に用いる場合には、更に物品を特定することは不要となる。   In the case of using a tactile sensor, the tactile sensor is disposed at a portion where the article is placed, and detects the placement of the article by contact due to the placement of the article. When a weight sensor is used, the weight sensor is disposed at a portion where the article is placed, and detects the placement of the article based on a change in weight due to the placement of the article. As the load sensor, a strain gauge can be used, or a load change of a motor (motor for driving a hand) can be used. When a camera is used, the camera is arranged at a position where a part on which an article is placed can be photographed. It can also be used as a camera for video chatting. When a camera is used, the placement of an article can be detected by taking the difference between a background image in which no article is placed and a captured image. When the detected image of the article is used as it is for synthesis, it is not necessary to further specify the article.

RFIDタグリーダを用いる場合、RFIDタグリーダは物品が載置される部分に設けられ、物品に予め貼り付けられたRFIDタグを近接検出することで、物品の載置の検出と物品の特定を行うことができる。VRマーカリーダを用いる場合、物品に予め貼り付けられたVRマーカを検出することで、物品の載置の検出と物品の特定を行うことができる。VRマーカリーダは、物品が載置される位置を撮影するカメラと、カメラ画像からVRマーカを検出する処理部とにより構成することができる。操作者の操作による場合、所定のボタン等に操作が行われたことで、物品の載置を検出することができる。この場合、物品の種類毎にボタン等を設けることも考えられるが、ボタンを1つとする場合、物品の特定は他の手法を併用することが望ましい。   When an RFID tag reader is used, the RFID tag reader is provided in a portion where the article is placed, and detects the placement of the article and specifies the article by detecting the proximity of the RFID tag attached in advance to the article. it can. When the VR marker reader is used, the placement of the article and the identification of the article can be performed by detecting the VR marker attached to the article in advance. The VR marker reader can be configured by a camera that captures the position where the article is placed, and a processing unit that detects the VR marker from the camera image. In the case of the operation by the operator, the placement of the article can be detected by operating the predetermined button or the like. In this case, it is conceivable to provide a button or the like for each type of article, but in the case of using one button, it is desirable to specify the article using another method.

なお、検出の安定性を増すために、物品の載置に対応する所定の閾値以上の反応が所定の時間以上継続した場合に物品の載置を検出したとすることが望ましい。   In order to increase the stability of the detection, it is desirable that the placement of the article is detected when the reaction equal to or more than the predetermined threshold value corresponding to the placement of the article continues for a predetermined time or more.

端末装置2とサーバ4のハードウェア構成も図8に示したものと同様であるが、端末装置2にはセンサ1010、モータ1011等は不要であり、サーバ4にはカメラ1007、マイク1008、スピーカ1009、センサ1010、モータ1011等は不要である。   Although the hardware configurations of the terminal device 2 and the server 4 are the same as those shown in FIG. 8, the terminal device 2 does not need the sensor 1010, the motor 1011 and the like, and the server 4 has the camera 1007, the microphone 1008, and the speaker. The 1009, the sensor 1010, the motor 1011 and the like are unnecessary.

<動作>
図9は上記の実施形態の処理例を示すシーケンス図であり、乳幼児等の子供と祖父との間でビデオチャットを介した物品の手渡し遊びを行う例である。なお、ビデオチャットロボット1のハンド107の制御に連動したビデオチャット上の映像の制御を端末装置2側で行う場合について示している。
<Operation>
FIG. 9 is a sequence diagram showing a processing example of the above-described embodiment, in which a hand-playing of goods through video chat is performed between a child such as an infant and a grandfather. Note that a case is shown in which the terminal device 2 controls video on a video chat in conjunction with control of the hand 107 of the video chat robot 1.

図9において、ビデオチャットロボット1と端末装置2の間で、一般的な手順に従ってビデオチャットが開始されているとする(ステップS101)。   In FIG. 9, it is assumed that a video chat is started between the video chat robot 1 and the terminal device 2 according to a general procedure (step S101).

その後、ビデオチャットロボット1において、子供がハンド107に物品を載置するものとする(ステップS102)。図10(a)は、子供CHがビデオチャットロボット1のハンド107に物品OBJを載置しようとしている状態を示している。図10(b)は、その際の祖父GF側の端末装置2において表示される画面例を示しており、主画面には物品OBJを持った子供CHの映像が表示されており、副画面には祖父GF本人の映像(ビデオチャットロボット1側に表示されている映像)が表示されている。   Thereafter, in the video chat robot 1, a child places an article on the hand 107 (step S102). FIG. 10A shows a state where the child CH is about to place an article OBJ on the hand 107 of the video chat robot 1. FIG. 10B shows an example of a screen displayed on the terminal device 2 on the grandfather GF side at that time, in which a video of a child CH having the article OBJ is displayed on the main screen and a sub-screen is displayed. Represents an image of the grandfather GF himself (an image displayed on the video chat robot 1 side).

図9に戻り、ビデオチャットロボット1のハンド制御部12が物品の載置を検出すると(ステップS103)、ハンド制御部12はハンド107を開状態から閉状態に制御する(ステップS104)。図11はビデオチャットロボット1においてハンド107が閉状態となったことで、物品が隠され、見えなくなった状態を示している。   Returning to FIG. 9, when the hand control unit 12 of the video chat robot 1 detects the placement of an article (step S103), the hand control unit 12 controls the hand 107 from the open state to the closed state (step S104). FIG. 11 shows a state in which the hand 107 is closed in the video chat robot 1 so that the article is hidden and cannot be seen.

次いで、図9に戻り、ハンド制御部12は、ハンド107が閉状態となったこと(載置された物品が隠されたこと)を確認した後、端末装置2に対して物品載置通知を行う(ステップS105)。この物品載置通知には、物品の画像または物品を識別する情報が伴われる。   Next, returning to FIG. 9, after confirming that the hand 107 is in the closed state (that the placed article is hidden), the hand control unit 12 sends an article placement notification to the terminal device 2. Perform (Step S105). The article placement notification is accompanied by an article image or information for identifying the article.

端末装置2の映像制御部22は、物品載置通知を受け付けると、端末装置2側で撮影されるビデオチャットの映像に、載置された物品の画像を合成する(ステップS106)。物品載置通知に物品の画像が伴われる場合はその画像を合成し、物品を識別する情報が伴われる場合は、その情報に対応する画像を取得して合成する。   Upon receiving the article placement notification, the video control unit 22 of the terminal device 2 combines the mounted product image with the video chat video captured by the terminal device 2 (Step S106). When the article placement notification is accompanied by an article image, the image is synthesized, and when information for identifying the article is accompanied, an image corresponding to the information is acquired and synthesized.

合成が行われた映像はビデオチャットに反映される。図12(a)は、ビデオチャットロボット1の画面部102に祖父GFとともに物品OBJの画像(合成画像)が表示された状態を示している。子供CHは、自分が渡した物品OBJが祖父GFに渡ったと認識する。また、図12(b)は、その際の祖父GF側の端末装置2において表示される画面例を示しており、主画面には子供CHの映像が表示されており、副画面には祖父GF本人の映像と物品OBJの画像が表示されている。   The synthesized video is reflected in the video chat. FIG. 12A shows a state in which an image (composite image) of the article OBJ is displayed together with the grandfather GF on the screen unit 102 of the video chat robot 1. The child CH recognizes that the article OBJ passed by himself has passed to the grandfather GF. FIG. 12B shows an example of a screen displayed on the terminal device 2 on the grandfather GF side at that time. The image of the child CH is displayed on the main screen, and the grandfather GF is displayed on the sub-screen. The image of the person and the image of the article OBJ are displayed.

図9に戻り、端末装置2側で、マウスやキーボード等により、合成された物品の画像の位置を変更する操作を行い(ステップS107)、それを映像制御部22が検出すると(ステップS108)、映像制御部22は、合成する物品の画像の位置を変更する(ステップS109)。合成位置の変更が行われた映像はビデオチャットに反映される。これにより、例えば、端末装置2を操作する祖父は、物品が食べ物の玩具である場合、口の近くに持って行って「もぐもぐ 美味しいね」といった発話を行い、子供を喜ばすことができる。   Returning to FIG. 9, the terminal device 2 performs an operation of changing the position of the image of the synthesized article using a mouse, a keyboard, or the like (step S107), and when the image control unit 22 detects the operation (step S108), The image control unit 22 changes the position of the image of the article to be combined (Step S109). The video whose composition position has been changed is reflected in the video chat. Thus, for example, when the article is a toy for food, the grandfather operating the terminal device 2 can bring the article close to the mouth and make an utterance such as "Mumbling delicious" to please the child.

次いで、端末装置2側で、合成された物品を返却する操作を行うものとする(ステップS110)。返却の操作は、マウスやキーボード等により物品の画像を副画面外に移動したり、返却のボタンを押す等により行うことができる。そして、映像制御部22が物品返却操作を検出すると(ステップS111)、映像制御部22は、ビデオチャットロボット1に対して物品返却通知を行う(ステップS112)。これとほぼ同時に、端末装置2の映像制御部22は、端末装置2側で撮影されるビデオチャットの映像への物品の合成を停止する(ステップS113)。合成の停止が行われた映像はビデオチャットに反映される。   Next, it is assumed that the terminal device 2 performs an operation of returning the combined article (step S110). The return operation can be performed by moving the image of the article out of the sub-screen using a mouse, a keyboard, or the like, pressing a return button, or the like. Then, when the video control unit 22 detects an article return operation (step S111), the video control unit 22 notifies the video chat robot 1 of an article return (step S112). At substantially the same time, the video control unit 22 of the terminal device 2 stops combining the article with the video chat video captured by the terminal device 2 (step S113). The video in which the synthesis is stopped is reflected in the video chat.

ビデオチャットロボット1のハンド制御部12は、物品返却通知を受け取ると、ハンド107を閉状態から開状態に制御する(ステップS114)。図13(a)は、祖父GF側の端末装置2において表示される画面例を示しており、主画面には子供CHの映像が表示されており、副画面には祖父GF本人の映像が表示されている。図13(b)は、ビデオチャットロボット1のハンド107が開状態となって、物品OBJが再び見えるようになった状態を示している。   Upon receiving the article return notification, the hand control unit 12 of the video chat robot 1 controls the hand 107 from the closed state to the open state (step S114). FIG. 13A shows an example of a screen displayed on the terminal device 2 on the side of the grandfather GF, in which an image of the child CH is displayed on the main screen, and an image of the grandfather GF is displayed on the sub-screen. Have been. FIG. 13B shows a state in which the hand 107 of the video chat robot 1 is in the open state and the article OBJ can be seen again.

ビデオチャットロボット1のハンド107の制御に連動したビデオチャット上の映像の制御を端末装置2側で行う場合について説明したが、ビデオチャットの映像そのものには加工を行わず、画面表示される映像についてビデオチャットロボット1側と端末装置2側で物品の映像の合成および合成停止を行うようにしてもよい。なお、ビデオチャットの映像への物品OBJの合成の停止とハンド107の閉状態から開状態への制御とが子供CHに不信感を抱かせないタイミングで行われれば、つまり、ビデオチャットロボット1のビデオチャットの映像に物品OBJが映っており、かつハンド107が開状態となり載置された物品OBJが視認できるということが無ければ、ステップS112〜S114はどのような順番で処理が行われてもよい。   A case has been described in which the video on the video chat is controlled by the terminal device 2 side in conjunction with the control of the hand 107 of the video chat robot 1. However, the video of the video chat is not processed, and the video displayed on the screen is not processed. The video chat robot 1 and the terminal device 2 may combine and stop combining images of articles. It should be noted that if the stop of the synthesis of the article OBJ on the video chat video and the control of the hand 107 from the closed state to the open state are performed at a timing that does not disturb the child CH, that is, the video chat robot 1 If the article OBJ is reflected in the video chat video and the hand 107 is open and the placed article OBJ is not visible, steps S112 to S114 may be performed in any order. Good.

図14は実施形態の他の処理例を示すシーケンス図であり、サーバ4を介して制御を行うようにした例である。   FIG. 14 is a sequence diagram illustrating another processing example of the embodiment, in which control is performed via the server 4.

図14において、ビデオチャットロボット1と端末装置2の間で、サーバ4を介し、一般的な手順に従ってビデオチャットが開始されているとする(ステップS201、S202)。   In FIG. 14, it is assumed that a video chat has been started between the video chat robot 1 and the terminal device 2 via the server 4 according to a general procedure (steps S201 and S202).

その後、ビデオチャットロボット1において、子供がハンド107に物品を載置し(ステップS203)、ビデオチャットロボット1のハンド制御部12が物品の載置を検出すると(ステップS204)、ハンド制御部12はハンド107を開状態から閉状態に制御する(ステップS205)。   Thereafter, in the video chat robot 1, when the child places an article on the hand 107 (step S203), and the hand control unit 12 of the video chat robot 1 detects the placement of the article (step S204), the hand control unit 12 The hand 107 is controlled from the open state to the closed state (step S205).

次いで、ハンド制御部12は、ハンド107が閉状態となったこと(載置された物品が隠されたこと)を確認した後、サーバ4に対して物品載置通知を行う(ステップS206)。この物品載置通知には、物品の画像または物品を識別する情報が伴われる。   Next, after confirming that the hand 107 has been closed (that the placed article has been hidden), the hand control unit 12 notifies the server 4 of the article placement (step S206). The article placement notification is accompanied by an article image or information for identifying the article.

サーバ4の映像制御部42は、物品載置通知を受け付けると、端末装置2側で撮影されるビデオチャットの映像に、載置された物品の画像を合成する(ステップS207)。物品載置通知に物品の画像が伴われる場合はその画像を合成し、物品を識別する情報が伴われる場合は、その情報に対応する画像を取得して合成する。合成が行われた映像はビデオチャットに反映される。   Upon receiving the article placement notification, the video control unit 42 of the server 4 combines the video of the video chat captured by the terminal device 2 with the image of the placed article (step S207). When the article placement notification is accompanied by an article image, the image is synthesized, and when information for identifying the article is accompanied, an image corresponding to the information is acquired and synthesized. The synthesized video is reflected in the video chat.

その後、端末装置2側で、マウスやキーボード等により、合成された物品の画像の位置を変更する操作を行い(ステップS208)、それを映像制御部22が検出すると(ステップS209)、映像制御部22は、サーバ4に対して物品位置変更通知を行う(ステップS210)。   Thereafter, the terminal device 2 performs an operation of changing the position of the image of the synthesized article using a mouse, a keyboard, or the like (step S208), and when the image control unit 22 detects the operation (step S209), the image control unit 22 notifies the server 4 of the article position change (step S210).

サーバ4の映像制御部42は、物品位置変更通知を受け付けると、合成する物品の画像の位置を変更する(ステップS211)。合成位置の変更が行われた映像はビデオチャットに反映される。   Upon receiving the article position change notification, the video control unit 42 of the server 4 changes the position of the image of the article to be combined (step S211). The video whose composition position has been changed is reflected in the video chat.

次いで、端末装置2側で、合成された物品を返却する操作を行うものとする(ステップS212)。返却の操作は、マウスやキーボード等により物品の画像を副画面外に移動したり、返却のボタンを押す等により行うことができる。そして、映像制御部22が物品返却操作を検出すると(ステップS213)、映像制御部22は、サーバ4に対して物品返却通知を行う(ステップS214)。サーバ4の映像制御部42は、物品返却通知を受け付けると、ビデオチャットロボット1に対して物品返却通知を行う(ステップS215)。これとほぼ同時に、サーバ4の映像制御部42は、端末装置2側で撮影されるビデオチャットの映像への物品の合成を停止する(ステップS216)。合成の停止が行われた映像はビデオチャットに反映される。   Next, an operation of returning the synthesized article is performed on the terminal device 2 side (step S212). The return operation can be performed by moving the image of the article out of the sub-screen using a mouse, a keyboard, or the like, pressing a return button, or the like. Then, when the image control unit 22 detects an article return operation (step S213), the image control unit 22 notifies the server 4 of an article return operation (step S214). Upon receiving the article return notification, the video control unit 42 of the server 4 issues an article return notification to the video chat robot 1 (step S215). At substantially the same time, the video controller 42 of the server 4 stops synthesizing the article with the video chat video captured by the terminal device 2 (step S216). The video in which the synthesis is stopped is reflected in the video chat.

ビデオチャットロボット1のハンド制御部12は、物品返却通知を受け取ると、ハンド107を閉状態から開状態に制御する(ステップS217)。   Upon receiving the article return notification, the hand control unit 12 of the video chat robot 1 controls the hand 107 from the closed state to the open state (step S217).

なお、上記の図9の処理例と同様、ビデオチャットの映像への物品OBJの合成の停止とハンド107の閉状態から開状態への制御とが子供CHに不信感を抱かせないタイミングで行われれば、ステップS214〜S217はどのような順番で処理が行われてもよい。   Note that, similarly to the processing example of FIG. 9 described above, the stop of the combination of the article OBJ with the video chat video and the control of the hand 107 from the closed state to the open state are performed at timings that do not distrust the child CH. If so, steps S214 to S217 may be performed in any order.

<総括>
以上説明したように、本実施形態によれば、物品の手渡し遊びを実現することで、乳幼児が集中しやすく、長期的に飽きにくいコミュニケーション手法を提供することができる。
<Summary>
As described above, according to the present embodiment, by realizing the hand-to-hand play of articles, it is possible to provide a communication method in which infants can easily concentrate and are not tired over a long period of time.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described with reference to the preferred embodiments of the present invention. Although the invention has been described with reference to specific embodiments, various modifications and changes may be made to these embodiments without departing from the broader spirit and scope of the invention as defined in the appended claims. Obviously you can do that. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1 ビデオチャットロボット
11 ビデオチャット部
12 ハンド制御部
13 映像制御部
101 頭部筐体
102 画面部
103 カメラ
104 スピーカ
105 マイク
106 胴部筐体
107 ハンド
2 端末装置
21 ビデオチャット部
22 映像制御部
3 ネットワーク
4 サーバ
41 ビデオチャット制御部
42 映像制御部
43 ログ取得部
DESCRIPTION OF SYMBOLS 1 Video chat robot 11 Video chat part 12 Hand control part 13 Video control part 101 Head case 102 Screen part 103 Camera 104 Speaker 105 Microphone 106 Body part 107 Hand 2 Terminal device 21 Video chat part 22 Video control part 3 Network 4 server 41 video chat control unit 42 video control unit 43 log acquisition unit

Claims (6)

ロボットに設けられ、手を模し、物品が載置可能な状態と物品が取り込まれて隠された状態とを有するハンド機構と、
前記ロボットと通信相手の端末装置との間でビデオチャットを行う機能を提供するビデオチャット部と、
前記ハンド機構への物品の載置に応じて前記ハンド機構を物品が取り込まれて隠された状態に制御し、該状態においてビデオチャット上の前記通信相手を撮影した映像に物品を示す映像を合成し、前記通信相手の返却指示に応じてビデオチャット上の物品を示す映像を消去し、前記ハンド機構を物品が載置可能な状態に制御する制御部と
を備えたことを特徴とするビデオチャットロボットシステム。
A hand mechanism provided on the robot, imitating a hand, having a state where an article can be placed and a state where the article is captured and hidden.
A video chat unit that provides a function of performing a video chat between the robot and a communication partner terminal device,
In accordance with the placement of the article on the hand mechanism, the hand mechanism is controlled so that the article is taken in and hidden, and in this state, the image showing the article is synthesized with the video image of the communication partner on the video chat. And a control unit for erasing an image indicating an article on the video chat in response to the return instruction of the communication partner, and controlling the hand mechanism so that the article can be placed on the video chat. Robot system.
前記ロボットにおいて物品の載置が検出された場合に前記端末装置に対して通知を行い、前記端末装置において物品を示す映像を合成し、
前記端末装置において返却指示が行われた場合に前記ロボットに通知を行い、前記端末装置において物品を示す映像を消去する
ことを特徴とする請求項1に記載のビデオチャットロボットシステム。
Notify the terminal device when the placement of an article is detected in the robot, synthesize a video showing the article in the terminal device,
The video chat robot system according to claim 1, wherein when the return instruction is issued in the terminal device, the robot is notified and a video indicating an article is deleted in the terminal device.
ビデオチャットを仲介するサーバを備え、
前記ロボットにおいて物品の載置が検出された場合に前記サーバに対して通知を行い、前記サーバにおいて物品を示す映像を合成し、
前記端末装置において返却指示が行われた場合に前記サーバを介して前記ロボットに通知を行い、前記サーバにおいて物品を示す映像を消去する
ことを特徴とする請求項1に記載のビデオチャットロボットシステム。
Equipped with a server that mediates video chat,
Notify the server when the placement of an article is detected in the robot, synthesize a video showing the article in the server,
2. The video chat robot system according to claim 1, wherein when the return instruction is issued in the terminal device, the robot is notified via the server, and an image indicating an article is deleted in the server. 3.
前記端末装置において合成して表示された物品の画像に対して移動指示が行われた場合、物品の画像の合成位置を変更する
ことを特徴とする請求項1乃至3のいずれか一項に記載のビデオチャットロボットシステム。
4. The method according to claim 1, wherein when a move instruction is given to the image of the article combined and displayed on the terminal device, a combining position of the image of the article is changed. 5. Video chat robot system.
ロボットと通信相手の端末装置との間でビデオチャットを行う機能を提供し、
前記ロボットに設けられ、手を模し、物品が載置可能な状態と物品が取り込まれて隠された状態とを有するハンド機構に対し、該ハンド機構への物品の載置に応じて前記ハンド機構を物品が取り込まれて隠された状態に制御し、該状態においてビデオチャット上の前記通信相手を撮影した映像に物品を示す映像を合成し、前記通信相手の返却指示に応じてビデオチャット上の物品を示す映像を消去し、前記ハンド機構を物品が載置可能な状態に制御する、
処理をコンピュータが実行することを特徴とする手渡し遊び制御方法。
Providing a function to perform video chat between the robot and the terminal device of the communication partner,
A hand mechanism provided in the robot, imitating a hand, having a state in which an article can be placed and a state in which the article is taken in and concealed, the hand mechanism according to the placement of the article on the hand mechanism The mechanism is controlled so that the article is taken in and concealed, and in this state, the video showing the article is synthesized with the video of the communication partner on the video chat, and the video chat is performed in response to the return instruction of the communication partner. Erase the image showing the article of, and control the hand mechanism so that the article can be placed,
A hand-held play control method, wherein the processing is executed by a computer.
ロボットと通信相手の端末装置との間でビデオチャットを行う機能を提供し、
前記ロボットに設けられ、手を模し、物品が載置可能な状態と物品が取り込まれて隠された状態とを有するハンド機構に対し、該ハンド機構への物品の載置に応じて前記ハンド機構を物品が取り込まれて隠された状態に制御し、該状態においてビデオチャット上の前記通信相手を撮影した映像に物品を示す映像を合成し、前記通信相手の返却指示に応じてビデオチャット上の物品を示す映像を消去し、前記ハンド機構を物品が載置可能な状態に制御する、
処理をコンピュータに実行させることを特徴とする手渡し遊び制御プログラム。
Providing a function to perform video chat between the robot and the terminal device of the communication partner,
A hand mechanism provided in the robot, imitating a hand, having a state in which an article can be placed and a state in which the article is taken in and concealed, the hand mechanism according to the placement of the article on the hand mechanism The mechanism is controlled so that the article is taken in and concealed, and in this state, the video showing the article is synthesized with the video of the communication partner on the video chat, and the video chat is performed according to the return instruction of the communication partner. Erase the image showing the article of, and control the hand mechanism so that the article can be placed,
A hand-held play control program for causing a computer to execute processing.
JP2016053021A 2016-03-16 2016-03-16 Video chat robot system, hand-over play control method, and hand-over play control program Active JP6647711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016053021A JP6647711B2 (en) 2016-03-16 2016-03-16 Video chat robot system, hand-over play control method, and hand-over play control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016053021A JP6647711B2 (en) 2016-03-16 2016-03-16 Video chat robot system, hand-over play control method, and hand-over play control program

Publications (2)

Publication Number Publication Date
JP2017164319A JP2017164319A (en) 2017-09-21
JP6647711B2 true JP6647711B2 (en) 2020-02-14

Family

ID=59908542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016053021A Active JP6647711B2 (en) 2016-03-16 2016-03-16 Video chat robot system, hand-over play control method, and hand-over play control program

Country Status (1)

Country Link
JP (1) JP6647711B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945803A (en) * 2017-11-28 2018-04-20 上海与德科技有限公司 The assisted learning method and robot of a kind of robot
JP6564484B1 (en) * 2018-03-23 2019-08-21 国立大学法人電気通信大学 Same room communication system
JP7257022B2 (en) * 2018-09-21 2023-04-13 国立大学法人電気通信大学 Communication support system, robot, video processing device and video processing program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0681633B2 (en) * 1988-10-31 1994-10-19 株式会社タカラ Change mechanism in toys
JP2903671B2 (en) * 1990-08-20 1999-06-07 株式会社トミー Coin toys and piggy banks
JP3758007B2 (en) * 1997-10-17 2006-03-22 株式会社ナムコ Composite image display device, game device, and bowling game device
JP2004173928A (en) * 2002-11-27 2004-06-24 System Watt Co Ltd Toy for portable telephone
JP2004261941A (en) * 2003-03-04 2004-09-24 Sharp Corp Communication robot and communication system
JP5407069B2 (en) * 2009-11-02 2014-02-05 株式会社国際電気通信基礎技術研究所 Listening dialog system
JP2015093353A (en) * 2013-11-12 2015-05-18 敏之 三津江 Multifunctional information terminal remote-manipulation type robot
WO2015159561A1 (en) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント Information-processing device, information-processing system, and information-processing method
KR101870067B1 (en) * 2014-08-25 2018-06-22 엑스 디벨롭먼트 엘엘씨 Methods and systems for augmented reality to display virtual representations of robotic device actions

Also Published As

Publication number Publication date
JP2017164319A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
US8914139B2 (en) Robot
US10438394B2 (en) Information processing method, virtual space delivering system and apparatus therefor
JP6244593B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7298860B2 (en) Autonomous action type robot assuming a virtual character
EP2923252B1 (en) Method and apparatus to control hardware in an environment
US11423627B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
WO2016068262A1 (en) Communication robot
CN109262606B (en) Device, method, recording medium and robot
JP2012054897A (en) Conference system, information processing apparatus, and information processing method
WO2019116521A1 (en) Entertainment system, robot device, and server device
JP6647711B2 (en) Video chat robot system, hand-over play control method, and hand-over play control program
US12236152B2 (en) Information processing apparatus and information processing method for displaying a feeling parameter associated with an autonomous moving body
US12020389B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
US20140314327A1 (en) Systems and Methods for Computer Recognition of Plush Toys
JP6667878B1 (en) Costume effect support device, costume effect support system, and costume effect support method
CN113165177B (en) Information processing apparatus, method for processing information, and program
JP2024025810A (en) Control device, control method and control program
JPWO2020022371A1 (en) Robots and their control methods and programs
CN110543234B (en) Information processing apparatus and non-transitory computer readable medium
JP6586810B2 (en) toy
JP2018124981A (en) Information processing method, information processing device and program causing computer to execute information processing method
GB2612053A (en) System and method of simultaneous localisation and mapping
US20230218984A1 (en) Methods and systems for interactive gaming platform scene generation utilizing captured visual data and artificial intelligence-generated environment
TW201841595A (en) Massager

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200107

R150 Certificate of patent or registration of utility model

Ref document number: 6647711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250