JP2018067785A - Communication robot system - Google Patents
Communication robot system Download PDFInfo
- Publication number
- JP2018067785A JP2018067785A JP2016204758A JP2016204758A JP2018067785A JP 2018067785 A JP2018067785 A JP 2018067785A JP 2016204758 A JP2016204758 A JP 2016204758A JP 2016204758 A JP2016204758 A JP 2016204758A JP 2018067785 A JP2018067785 A JP 2018067785A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- voice
- communication
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 103
- 238000013459 approach Methods 0.000 claims abstract description 59
- 230000033001 locomotion Effects 0.000 claims abstract description 30
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 60
- 230000008569 process Effects 0.000 claims description 25
- 241000282414 Homo sapiens Species 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 230000008921 facial expression Effects 0.000 description 25
- 230000004044 response Effects 0.000 description 24
- 230000009471 action Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000012546 transfer Methods 0.000 description 12
- 238000012544 monitoring process Methods 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 8
- 210000003811 finger Anatomy 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 210000003128 head Anatomy 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 210000002310 elbow joint Anatomy 0.000 description 5
- 210000004709 eyebrow Anatomy 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 210000000323 shoulder joint Anatomy 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、コミュニケーションロボットを構築および運用するためのシステムに関するものである。 The present invention relates to a system for constructing and operating a communication robot.
ロボットの中でも人とコミュニケーション可能なロボットはコミュニケーションロボットと呼ばれる。特に人に似た顔と体を持つ人型ロボットは、人のように声で話をしたりジェスチャを用いたりすることによって人の代わりとして会話を遂行できる機能を持つことが期待されている。 Robots that can communicate with humans are called communication robots. In particular, humanoid robots with human-like faces and bodies are expected to have a function that allows them to perform conversations on behalf of people by speaking with voice or using gestures like humans.
コミュニケーションロボットのうちテレプレゼンスロボットと呼ばれるロボットは、完全に自律的に動作するのではなく、人による遠隔操作もしくは遠隔指示に沿って動作することで、その人の代理として本人から離れた場所で行動できる点を特徴とする(非特許文献1参照)。 Among communication robots, robots called telepresence robots do not operate completely autonomously, but operate according to a remote operation or remote instruction by a person and act in a place away from the person on behalf of that person. It is characterized in that it can be performed (see Non-Patent Document 1).
テレプレゼンスロボットは、人の代理として遠隔地で行動できるよう通信装置を備え、映像音声を遠隔地間でやりとりする装置を備える。テレプレゼンスロボットの機能の一例としては、本人の顔映像を遠隔地のロボット側で表示し、ロボットの前にいる人に見せる機能と、本人の音声をロボット側で出力する機能と、逆にロボットの前にいる人の映像と声を本人へ送信する機能がある。 The telepresence robot includes a communication device so that it can act in a remote place as a human agent, and includes a device that exchanges video and audio between remote locations. An example of a telepresence robot's function is to display the person's face image on the remote robot side and show it to the person in front of the robot, to output the person's voice on the robot side, and conversely There is a function to send the video and voice of the person in front of the person to the person.
また、人はテレプレゼンスロボットを移動させて、話をしたい相手のそばへ近づかせることができる。 Also, a person can move the telepresence robot closer to the person who wants to talk.
テレプレゼンスロボットは、遠隔通信の観点からは電話やビデオ会議システムを拡張したものと捉えることができる。人は電話を用いて遠隔地に自分の声を届けることができる。また、ビデオ会議システムを用いれば遠隔地に自分の映像と声を届けることができる。 The telepresence robot can be regarded as an extension of the telephone and video conference system from the viewpoint of remote communication. People can send their voices to remote places using the telephone. Also, if you use a video conferencing system, you can deliver your video and voice to remote locations.
特に電話はこれまで遠隔通信の手段として日常から業務に至るまで幅広く利用されてきた。例えば、コールセンタシステムは業務で使用される電話サービスの代表例であり、お客様からのコールを、多数待機するオペレータのうち適切な1名に対して自動的に接続することによって、お客様と企業間のコミュニケーションを効率化している(特許文献1参照)。コールセンタシステムにおいて、お客様がコールセンタを呼び出すために発信したコールを適切なオペレータへ分配することは主要な処理であり、この分配を自動的に行う装置は自動呼分配装置(Automatic Call Distributor:ACD)と呼ばれている。 In particular, telephones have been widely used as a means of remote communication from daily use to business. For example, a call center system is a typical example of a telephone service used in business. By automatically connecting a call from a customer to an appropriate one of a large number of waiting operators, a call center system is connected between a customer and a company. Communication is made efficient (see Patent Document 1). In a call center system, it is a main process to distribute a call sent by a customer to call a call center to an appropriate operator, and an automatic call distribution device (ACD) is a device that performs this distribution automatically. being called.
一方、人はテレプレゼンスロボットを用いて遠隔地に自分の分身として行動できるロボットを存在させることができる。テレプレゼンスロボットは、電話のように声を届けるだけでなく、またビデオ会議システムのように声と映像を届けるだけでなく、移動したり表情を示したり手で指さしをするといった、身体を用いたコミュニケーションを行うこともできる。 On the other hand, a person can use a telepresence robot to have a robot that can act as a substitute for himself in a remote place. Telepresence robots not only deliver voices like telephones, but also deliver voices and images like video conferencing systems, and use the body to move, show facial expressions, and point at hands. You can also communicate.
テレプレゼンスロボットを、お客様へサービスを提供する目的の業務に適用することによって、従来の電話やビデオ会議システムを使うだけでは実現できない新たなサービスの創出や問題解決が可能となる。 By applying the telepresence robot to the business for the purpose of providing services to customers, it becomes possible to create new services and solve problems that cannot be realized simply by using conventional telephone and video conferencing systems.
サービスの一例としては、お客様の道案内をするガイドロボットサービスがある。これは観光地で道が判らずに困っているお客様に対して、別の場所にいる案内人がテレプレゼンスロボットを用いて会話や指さしや先導を行うことによって道案内を行うサービスである。 As an example of the service, there is a guide robot service that guides customers' directions. This is a service that provides guidance for customers who are in trouble at a tourist destination without knowing the route by using a telepresence robot with a guide at another location to speak, point and guide.
道案内サービスをテレプレゼンスロボットを介して提供することができれば、案内人は現地に居る必要がなく、自宅やオフィスに居ながら対応することができる。特に道案内のような現地業務はこれまで在宅勤務で行うことが不可能であったが、テレプレゼンスロボットによるサービス提供ができればこの問題を解決することができる。 If the route guidance service can be provided via the telepresence robot, the guide does not need to be in the field, and can respond while at home or in the office. In particular, local operations such as road guidance have been impossible to do by telecommuting so far, but if this service can be provided by a telepresence robot, this problem can be solved.
また、テレプレゼンスロボットの前にお客様がやってきた時のみ案内人がリモート操作で応対し、お客様のいないときはリモート操作から離れて別の作業をすることができれば、お客様のいない空き時間が無駄になっていた問題を解決し、業務効率化が可能となる。 Also, if the customer is in front of the telepresence robot and the guide responds remotely by remote operation, and if there is no customer, the remote operation can be separated and other work can be performed, and the unused time of the customer is wasted. The problem that has been solved can be solved and work efficiency can be improved.
加えて、テレプレゼンスロボットのリモート操作を特定の一人でなく、複数の案内人のうち手の空いている者に自動的に接続して行えるようにすれば、案内人の稼働率を高めることができる。 In addition, if the remote operation of the telepresence robot can be automatically connected to a person who is free of hands among a plurality of guides instead of a specific one, the operation rate of the guides can be increased. it can.
上記のようなお客様の道案内をするガイドロボットサービスは、観光地のほか、テーマパーク、展示会場、スーパーマーケットといった広い場所での案内業務に適用することができる。 The guide robot service for guiding customers as described above can be applied not only to sightseeing spots, but also to guidance work in a wide area such as a theme park, an exhibition hall, and a supermarket.
テレプレゼンスロボットを用いたサービスの一例としては、ホテルでのベルスタッフの業務を遂行するベルロボットサービスも考えられる。ベルロボットに求められる業務と利用することの長所は上記のガイドロボットサービスに近いが、ベルロボットにはホテルのお得意様の顔を覚えることの強く求められる点が異なる。テレプレゼンスロボットを用いることで、お客様の顔映像を遠隔地に居る人間のベルスタッフに伝えられるので、このベルスタッフがお得意様であるかどうかを判断してもよいし、ロボットに顔認識機能を持たせれば、ロボット側であらかじめ誰であるかを判断してから、遠隔地にいるそのお客様専任のベルスタッフを呼び出すこともできる。 As an example of a service using a telepresence robot, a bell robot service that performs the work of a bell staff in a hotel can also be considered. The business required for Bell Robot and the advantage of using it are close to the above-mentioned guide robot service, but it differs in that Bell Robot is strongly required to learn the face of a hotel customer. By using a telepresence robot, the customer's face image can be transmitted to a human Belstaff in a remote location, so it is possible to judge whether this Belstaff is a good customer, and the robot has a face recognition function If you have a robot, you can determine who the robot is in advance, and then call the customer's dedicated bell staff at a remote location.
テレプレゼンスロボットを用いたサービスの一例としては、受付業務を代行できるカウンターロボットサービスも考えられる。銀行の受付や公共機関、自治体の窓口、大手企業受付などの業務において、複数の受付担当者のうち手の空いている者に自動的に接続して行えるようにすれば、業務効率化を実現できる。受付業務ではあまり動きまわる必要がない代わりに、お客様に記入いただく必要のある書類や、お客様の向かうべき場所を地図や案内板で示すなど、詳細の文字・画像をお客様へ提示できる必要がある。この場合、テレプレゼンスロボットに備えられたディスプレイに対してリモート操作によって資料表示可能であることが求められる。 As an example of a service using a telepresence robot, a counter robot service that can act as a receptionist can be considered. Improve operational efficiency by automatically connecting to those who are available among multiple receptionists in operations such as bank receptions, public institutions, local government offices, and major company receptions. it can. Instead of having to move a lot during reception work, it is necessary to be able to present detailed text and images to the customer, such as documents that the customer needs to fill out, and a map or information board that shows where the customer should go. In this case, the display of the telepresence robot is required to be able to display data by remote operation.
テレプレゼンスロボットを用いたサービスの一例としては、ロボットコンシェルジェサービスも考えられる。図書館、博物館、百貨店、空港、大規模家電販売店、ホームセンターなど敷地が広くかつ専門的な機能やサービスが提供される場所では、敷地内を一緒に歩いて案内できるだけでなく、所蔵物や商品の詳細、必要な手続きの詳細など、お客様からの相談に対して親身に対応できるコンシェルジェサービスが求められる。こうしたコンシェルジェサービスも、上記ガイドロボットやベルロボット、カウンターロボットの機能を総合することで実現できると考えられる。 As an example of a service using a telepresence robot, a robot concierge service is also conceivable. In places where libraries and museums, department stores, airports, large-scale home appliance stores, home centers, etc. have large and specialized functions and services, you can not only walk along the site together, but also hold collections and products. A concierge service that can respond to the customer's consultation in detail, such as details and details of necessary procedures, is required. Such a concierge service can also be realized by integrating the functions of the guide robot, bell robot, and counter robot.
上記のようなテレプレゼンスロボットによるサービスの提供は、業務の効率化だけでなくサービスの専門性を高めることにも貢献する。専門的な知識を持つ人の数は限られているため、業務の必要な場所へ実際に専門家が居るようにする場合は、専門家の居る場所の数が限られる問題がある。一方、テレプレゼンスロボットを用いて、専門家が現地に居なくても済むようにすれば、少数の専門家で多数の場所にサービス提供することも可能となる。 The provision of services using the telepresence robot as described above contributes not only to the improvement of business efficiency but also to the enhancement of service expertise. Since the number of people with specialized knowledge is limited, there is a problem that the number of places where specialists are located is limited when the experts are actually located where the work is necessary. On the other hand, if a telepresence robot is used so that specialists do not have to be on site, it is possible to provide services to a large number of places with a small number of specialists.
専門家の専門性の一例として、通訳スキルがある。例えば、通訳のできる案内人、特に英語以外の言語を通訳できる者の数は限られており、全国の観光地にあらかじめ用意しておくことは難しい。テレプレゼンスロボットを用いて必要なときのみ専門家を呼び出す仕組みがあればこの問題を解決できる。通訳スキルはガイドロボットサービスだけでなく、ベルロボットサービス、カウンターロボットサービス、ロボットコンシェルジェサービスでも同様に求められるものと考えられる。 One example of expert expertise is interpretation skills. For example, the number of guides who can interpret, especially those who can interpret languages other than English, is limited, and it is difficult to prepare in advance in tourist destinations nationwide. If there is a mechanism to call an expert only when necessary using a telepresence robot, this problem can be solved. Interpretation skills are considered to be required not only for guide robot services but also for bell robot services, counter robot services, and robot concierge services.
しかし、上記のようなコールセンタ型のテレプレゼンスロボットサービスを実現するためには多数の課題がある。 However, there are many problems to realize the call center type telepresence robot service as described above.
課題の1つとして、従来の電話・ビデオ会議拡張型のテレプレゼンスロボットは、特定の一人の人間をロボットに割り当てる仕組みであるため、上記のようなお客様サービスを提供する場合に必要な、手の空いている人や必要なスキルを持つ人を自動的にロボットへ割り当てる仕組みを持たないことが挙げられる。 One of the challenges is that the conventional telepresence robot of the telephony / videoconference expansion type is a mechanism that assigns a specific person to the robot. It is mentioned that there is no mechanism to automatically assign vacant people or people with the necessary skills to robots.
課題の1つとして、従来の自動呼分配装置(ACD)は電話用であるため、テレプレゼンスロボットの自動割り当てに用いるには不十分であることが挙げられる。テレプレゼンスロボットは音声のみの電話に比べると、音声のほかにも表情、ジェスチャ、移動といった多様なコミュニケーション手段を持っているため、これらに対応したACD処理が必要となる。また、従来の電話コールセンターでは接続相手はかならず電話であり、従来の電話・ビデオ会議拡張型のテレプレゼンスロボットは、特定の機種のロボットに対してだけ接続できれば良いため、接続ごとに接続相手の機能が変わることはないが、複数のテレプレゼンスロボットに対して複数の人を割り当てるコールセンタ型のテレプレゼンスロボットの場合、接続先のロボットの形状やサイズ、腕の数や移動手段の有無などがそれぞれ異なる場合にも対応できることが望ましい。この場合、個々のロボットの機能に対応できるオペレータと接続できるACD処理が必要となる。 One problem is that conventional automatic call distribution devices (ACDs) are for telephone use and are not sufficient for automatic assignment of telepresence robots. Compared to voice-only telephones, telepresence robots have various communication means such as facial expressions, gestures, and movements in addition to voice, so ACD processing corresponding to these is required. In addition, since the connection partner is always a telephone in a conventional telephone call center, the conventional telepresence robot with expanded telephony / videoconferencing need only be able to connect to a specific type of robot. The call center type telepresence robot assigns multiple people to multiple telepresence robots, but the shape and size of the connected robot, the number of arms, the presence or absence of moving means, etc. are different. It is desirable to be able to cope with cases. In this case, ACD processing that can be connected to an operator who can cope with the function of each robot is required.
課題の1つとして、従来の電話・ビデオ会議サービスの場合はお客様が手持ちの電話か据え付けの通信端末に近づいて番号やメニューをプッシュすることによって相手を呼び出す一方、テレプレゼンスロボットの場合は、お客様とロボットのリモート操作者(オペレータ)との会話はお客様がボタン操作で呼び出すような機械的な操作ではなく、人と人の会話に近い手順で開始できることが期待される。 One of the challenges is that in the case of a conventional telephone / video conferencing service, the customer calls the other party by pushing a number or menu close to his or her telephone or stationary communication terminal, while in the case of a telepresence robot, the customer It is expected that the conversation with the remote operator (operator) of the robot can be started by a procedure close to a person-to-person conversation rather than a mechanical operation that a customer calls by button operation.
上記の人と人の会話に近い手順の1つとして、会話を始めるためにお客様とテレプレゼンスロボットを会話できる距離へ接近させることが考えられる。 As one of the procedures close to the person-to-person conversation described above, it is conceivable to bring the customer and the telepresence robot closer to a distance that can be used to start the conversation.
上記の人と人の会話に近い手順の1つとして、お客様がテレプレゼンスロボットの設置場所に現れたとき、お客様が何も操作をしなくともお客様とオペレータとの会話を開始できるようにすることが考えられる。 As one of the procedures close to the person-to-person conversation described above, when the customer appears at the location of the telepresence robot, the customer can start a conversation with the operator without any operation. Can be considered.
課題の1つとして、従来の電話・ビデオ会議サービスではサービスを提供する人の声や顔映像をそのままお客様に伝えるが、テレプレゼンスロボットを用いたサービスの場合、オペレータの声や顔映像をそのままお客様に伝えるのは不自然な場合が多いと考えられる。ロボットの身体は開発・製造費や必要な機能、動作効率を考慮すると、必ずしも人間に生き写しの姿が望ましいとは言えない。人型ではあるが人間に生き写しの姿でないロボットが、人間の声で話をしたり、顔の部分のみオペレータの映像を出すことにはずれが存在するため、コミュニケーションにおいて違和感を生むものと考えられる。 As one of the challenges, the conventional telephone / video conferencing service conveys the voice and facial image of the person providing the service to the customer as it is, but in the case of a service using a telepresence robot, the voice and facial image of the operator are used as is by the customer. It is thought that it is often unnatural to tell to. Considering development / manufacturing costs, necessary functions, and operation efficiency, it is not always desirable for a robot body to be a live-action image. Robots that are humanoid but not live-up to human beings may be dissatisfied in communication because there is a gap in talking with human voices or displaying operator images only on the face.
課題の1つとして、電話サービスでは音声会話を別の話し相手へ転送する機能がよく利用されるが、一体のテレプレゼンスロボットにおいて、途中で別の声のオペレータに交代することは、ロボットの一貫性や一体のロボットの個性が損なわれる問題がある。 As one of the challenges, the telephone service often uses the function of transferring voice conversations to other parties, but in an integrated telepresence robot, switching to another voice operator on the way is a robot consistency. There is also a problem that the individuality of the integrated robot is impaired.
課題の1つとして、電話サービスの場合、サービスの支援やお客様と正しい会話ができているかの確認のため、サービス提供側の第三者が会話内容をモニタリングする機能が求められるが、テレプレゼンスロボットでは、会話内容に加えてロボットの移動状態や表情、ジェスチャなどのリモート操作内容も同様にモニタリングできる必要がある。 One of the challenges in the case of telephone services is that a third party on the service provider side is required to monitor the conversation content in order to support the service and check whether a correct conversation with the customer is possible. Then, in addition to the conversation content, it is necessary to be able to monitor the remote operation content such as the movement state, facial expression, and gesture of the robot as well.
課題の1つとして、電話サービスでは会話内容がログとして記録され今後の業務に生かされるが、テレプレゼンスロボットでは、会話内容に加えてロボットのリモート操作ログも記録して、お客様との間で不適切なやりとりがなかったかをあとで再生して確認できる必要がある。 As one of the issues, the conversation content is recorded as a log in the telephone service and used for future work, but in the telepresence robot, the remote operation log of the robot is recorded in addition to the conversation content, and there is no problem with the customer. It must be possible to play back and check later whether there was an appropriate exchange.
上記課題を解決するために、本発明に係るコミュニケーションロボットシステムは、テレプレゼンスロボットと、コールセンタ装置と、オペレータ端末を有し、前記テレプレゼンスロボットは、お客様の映像音声を取得する映像音声キャプチャ装置と、お客様とロボットとの位置関係を取得するための位置判定装置と、前記映像音声キャプチャ装置と前記位置判定装置から得た情報に基づいてお客様とロボットとの会話開始のためのコール送信を制御するアプローチ制御装置と、オペレータからの入力をロボットの音声として出力するロボット音声出力制御装置と、オペレータからの身体制御の指示を受ける駆動部制御装置と、前記駆動部制御装置によって制御される駆動部と、オペレータによるリモート操作に従って文字や図像を表示するロボットディスプレイ制御装置と、前記コールセンタ装置との通信を制御するロボット通信制御装置を有し、前記コールセンタ装置は、前記アプローチ制御装置から受信した前記コールに対して複数ある前記オペレータ端末のうち適切な1台を割り当てるACD装置と、コール元のテレプレゼンスロボットと割り当てられたオペレータ端末との間の音声映像とロボットの身体動作を用いたコミュニケーションを通信で中継・記録するマルチモーダルコミュニケーションサーバを有し、前記オペレータ端末は、オペレータからの音声入力装置と、前記テレプレゼンスロボットをリモート操作するためのリモート操作装置と、前記お客様の声を出力するオペレータ側音声出力制御装置と、前記お客様の映像を出力するオペレータ側ディスプレイ制御装置と、前記コールセンタ装置との通信を制御するオペレータ通信制御装置を有すること、を特徴とする。 In order to solve the above-described problems, a communication robot system according to the present invention includes a telepresence robot, a call center device, and an operator terminal, and the telepresence robot includes a video / audio capture device that acquires a video / audio of a customer; , A position determination device for acquiring a positional relationship between the customer and the robot, and control of call transmission for starting a conversation between the customer and the robot based on information obtained from the video / audio capture device and the position determination device An approach control device, a robot voice output control device that outputs an input from an operator as a voice of the robot, a drive unit control device that receives a body control instruction from the operator, and a drive unit that is controlled by the drive unit control device; Display characters and icons according to remote operation by the operator A robot communication control device that controls communication between the bot display control device and the call center device, and the call center device is a suitable one of the plurality of operator terminals for the call received from the approach control device. A multi-modal communication server that relays and records communication between the audio and video between the ACD device to which the platform is assigned and the caller's telepresence robot and the assigned operator terminal, and the physical movement of the robot, The operator terminal includes a voice input device from the operator, a remote operation device for remotely operating the telepresence robot, an operator side voice output control device for outputting the customer's voice, and an operator for outputting the customer image. Side display system Having a device, the operator communication control unit for controlling the communication with the call center device, and wherein.
プログラムによりコンピュータを上記映像音声キャプチャ装置、上記位置判定装置、上記アプローチ制御装置、上記ロボット音声出力制御装置、上記駆動部制御装置、上記ロボットディスプレイ制御装置、上記ロボット通信制御装置、上記ACD装置、上記マルチモーダルコミュニケーションサーバ、上記音声入力装置、上記リモート操作装置、上記オペレータ側音声出力制御装置、上記オペレータ側ディスプレイ制御装置、上記オペレータ通信制御装置、として機能させるようにしてもよい。 According to the program, the video and audio capture device, the position determination device, the approach control device, the robot audio output control device, the drive unit control device, the robot display control device, the robot communication control device, the ACD device, the above The multi-modal communication server, the voice input device, the remote operation device, the operator-side voice output control device, the operator-side display control device, and the operator communication control device may function.
本発明によって、お客様と適切なオペレータを繋いで、テレプレゼンスロボットを介した会話によるサービス提供を行うロボットコールセンタを実現することができる。 According to the present invention, it is possible to realize a robot call center that connects a customer and an appropriate operator and provides a service through conversation via a telepresence robot.
上記会話は、本発明によって、オペレータがテレプレゼンスロボットを用いて遠隔地のお客様の映像と音声を受信し、またオペレータがテレプレゼンスロボットを操作してお客様へ音声出力と表情、ジェスチャ、移動、ディスプレイを用いた情報提示を行うことによって、オペレータとお客様との間のテレプレゼンスロボットを介したリアルタイムでの会話として実現できる。 In the above conversation, according to the present invention, an operator receives a video and audio of a remote customer using a telepresence robot, and an operator operates the telepresence robot to output audio to the customer, facial expression, gesture, movement, display By presenting information using, it can be realized as a real-time conversation between the operator and the customer via a telepresence robot.
本発明では、上記ACDを用いることにより、お客様に対し、手の空いている人や必要なスキルを持つ人を自動的にテレプレゼンスロボットへ割り当てて応対することが可能となる。特にロボットのリモート操作に関するスキルをACDで処理可能とすることにより、ロボットに対して適切なオペレータを割り当てられるようにする。 In the present invention, by using the ACD, it becomes possible to automatically assign a person who has a free hand or a person having a necessary skill to a telepresence robot. In particular, by making it possible to process skills related to the remote operation of the robot with the ACD, an appropriate operator can be assigned to the robot.
本発明では、上記ACDを用いることにより、お客様に対し、種類の異なるロボットの個々の機能をACDで処理可能とすることにより、個々のロボットに対応できる適切なオペレータを割り当てられるようにする。 In the present invention, by using the ACD, it is possible to assign an appropriate operator who can handle each robot by allowing the individual functions of different types of robots to be processed by the ACD.
本発明では、上記アプローチ制御装置により、会話を始めるためにお客様とテレプレゼンスロボットを会話できる距離へ接近させ、ロボットから自動的にコールしてオペレータへ接続し、お客様とオペレータとの会話を自然に開始することを可能とする。 In the present invention, the above approach control device brings the customer and the telepresence robot close to a distance where they can talk to start a conversation, automatically calls from the robot and connects to the operator, and the conversation between the customer and the operator becomes natural. Allows to start.
本発明では、オペレータの映像と声をそのままお客様に伝える代わりに、映像は用いることなく声のみを上記ロボット音声出力制御装置によってロボットらしい音声として出力することにより、お客様との違和感の少ない会話が可能となる。また、オペレータが会話の途中で交代しても、同じようなロボットらしい音声を出力することにより、ロボットの一貫性や一体のロボットの個性が損なわれる問題を解決する。 In the present invention, instead of transmitting the operator's video and voice to the customer as they are, only the voice is output as a robot-like voice by using the robot voice output control device without using the video, thereby enabling a conversation with less sense of discomfort with the customer. It becomes. Further, even if the operator changes during the conversation, the same robot-like voice is output, thereby solving the problem that the consistency of the robot and the individuality of the integrated robot are impaired.
本発明では、上記マルチモーダルコミュニケーションサーバを介して音声映像会話とロボットのリモート操作を行うことによって、第三者が上記マルチモーダルコミュニケーションに接続し、音声映像会話に加えテレプレゼンスロボットの移動やジェスチャなどのリモート操作の様子のモニタリングを実現する。 In the present invention, by performing audio / video conversation and remote operation of the robot through the multimodal communication server, a third party connects to the multimodal communication, and in addition to the audio / video conversation, the telepresence robot moves or gestures, etc. Realize monitoring of remote operation.
本発明では、上記マルチモーダルコミュニケーションサーバにデータを記録することにより、音声映像会話に加えテレプレゼンスロボットの移動やジェスチャなどリモート操作の様子も記録して、お客様との間で不適切なやりとりがなかったかをあとで再生して確認することを可能とする。 In the present invention, by recording data on the multi-modal communication server, in addition to the audio-video conversation, the state of remote operation such as the movement and gesture of the telepresence robot is also recorded, and there is no inappropriate communication with the customer. It is possible to play back and check later.
本発明では、上記ACDを用いてロボットとオペレータの割り当てを制御することにより、オペレータの途中交代や複数体のロボットを用いた利用者との会話を実現する。 In the present invention, the assignment of the robot and the operator is controlled using the ACD, so that the operator can be changed in the middle or the conversation with the user using a plurality of robots can be realized.
以下、本発明の一実施形態を添付の図面を参照しながら説明する。
[第1実施形態]
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
[First Embodiment]
図1に、第1実施形態によるコミュニケーションロボットシステム100の概略的なブロック図を示す。コミュニケーションロボットシステム100は、テレプレゼンスロボット101と、コールセンタ装置102と、オペレータ端末103を有し、テレプレゼンスロボット101は、お客様の映像音声のキャプチャとオペレータからの音声出力・ディスプレイ装置出力を行うメディア入出力装置104と、お客様とロボットとの位置関係を判定するための位置判定装置105と、メディア入出力装置104と位置判定装置105から得た情報に基づいてお客様とロボットとの会話開始のためのコール送信を制御するアプローチ制御装置106と、オペレータからの身体制御の指示を受ける駆動部制御装置107と、身体制御によって表情の変化とジェスチャと移動とを行う駆動部108と、前記コールセンタ装置102との通信を制御するロボット通信制御装置109と、を有し、コールセンタ装置102は、前記コールに対して複数用意されたオペレータ端末103のうち適切な1台を割り当てるACD装置110と、コール元のテレプレゼンスロボット101と割り当てられたオペレータ端末103との間の音声映像とロボットの身体動作を用いたコミュニケーションを通信で中継・記録するマルチモーダルコミュニケーションサーバ111を有し、オペレータ端末103は、音声入出力装置112と、リモート操作装置113と、コールセンタ装置102との通信を制御するオペレータ通信制御装置114を有すること、を特徴とする。
FIG. 1 shows a schematic block diagram of a communication robot system 100 according to the first embodiment. The communication robot system 100 includes a telepresence robot 101, a call center device 102, and an
図2に、図1のテレプレゼンスロボット101の身体形状と駆動部108とメディア入出力装置104の構成を示す。 FIG. 2 shows the body shape of the telepresence robot 101 in FIG. 1 and the configuration of the drive unit 108 and the media input / output device 104.
テレプレゼンスロボット101の身体は、頭200と胴201と車輪203と1対の腕202から構成される、人の上半身に対して足の代わりに車輪203をつけた形状を持つ。
The body of the telepresence robot 101 includes a
頭200は瞳204と瞼205と眉206と口207とロボット側マイク208と環境カメラ・GPS209とWifi通信装置210を有する。
The
瞳204と瞼205と眉206と口207は表情を作ることのできる可動式である。 The pupil 204, the eyelid 205, the eyebrows 206, and the mouth 207 are movable so that facial expressions can be created.
ロボット側マイク208は人間の右耳左耳に相当する位置に対象に設置され、ステレオマイクによる集音を行うことができる。 The robot-side microphone 208 is installed at a position corresponding to a human right ear and left ear, and can collect sound with a stereo microphone.
環境カメラ・GPS209は周囲360度を撮影可能なカメラと位置情報を取得できるGPSであり、オペレータがロボットをリモート操作する際にロボットの位置と向き、周りの状況を知るために用いられる。 The environment camera / GPS 209 is a camera capable of capturing 360-degree surroundings and GPS capable of acquiring position information, and is used to know the position and orientation of the robot and the surrounding conditions when the operator remotely operates the robot.
Wifi通信装置210は、無線でインターネットに接続するために用いられる。 The Wifi communication device 210 is used to connect to the Internet wirelessly.
胴201は対人カメラ211とロボット側スピーカー212とロボット側タッチパネルディスプレイ213とジャイロセンサー220と衝撃センサー221を有する。 The body 201 includes an interpersonal camera 211, a robot side speaker 212, a robot side touch panel display 213, a gyro sensor 220, and an impact sensor 221.
対人カメラ211はパン・チルト可能なカメラで、カメラの前に立つお客様の映像を取得するために用いられる。 The interpersonal camera 211 is a pan / tilt camera, and is used to acquire an image of a customer standing in front of the camera.
ロボット側スピーカー212は、胴201の前面に設けられ、ロボットから声を出すために用いられる。口207から声を出さないのは、口207は可動式で表情を作ることに用いるため、口の開閉が音声出力の妨げとなるのを防ぐためである。 The robot-side speaker 212 is provided on the front surface of the trunk 201 and is used to make a voice from the robot. The reason why the voice is not output from the mouth 207 is to prevent the mouth 207 from opening and closing the mouth and preventing the voice output because the mouth 207 is movable and used to make a facial expression.
ロボット側タッチパネルディスプレイ213は、リモート操作により文字や画像情報を表示できるほか、お客様からのタッチパネル入力を受け付ける。 The robot-side touch panel display 213 can display characters and image information by remote operation, and accepts touch panel input from customers.
ジャイロセンサー220は、ロボットの転倒を検知することができる。 The gyro sensor 220 can detect the fall of the robot.
衝撃センサー221は、ロボットの受けた衝撃を測定することができる。 The impact sensor 221 can measure the impact received by the robot.
頭200と胴201を接続する首214は二軸回転式であり、頭200を胴201に対して水平回転させることで頭200の向きを変えたり、垂直回転させることでうなづくジェスチャを行うことができる。
The neck 214 that connects the
腕202は肩関節215と肘関節216と手首217と手指218を有する。
The
肩関節215は二軸回転式で回転によって腕を上に挙げたり前に出すジェスチャを行うことができる。 The shoulder joint 215 is a biaxial rotation type, and can perform a gesture of raising the arm or raising the arm forward by rotation.
肘関節216は二軸回転式で腕202の上部と下部を接続し、折り曲げることができる。
The elbow joint 216 is a biaxial rotation type and can be bent by connecting the upper and lower portions of the
手首217は二軸回転式で腕202の下部と手指218を接続し、折り曲げることができる。
The wrist 217 is biaxially rotatable and can be bent by connecting the lower part of the
手指218は人間に似た関節構造を持つ5本の指を有し、親指は2つの関節、その他の指は3つの関節で内側へ折り曲げることができる。 The finger 218 has five fingers having a joint structure similar to a human, and the thumb can be bent inward by two joints and the other fingers by three joints.
車輪203は4輪で構成され、道案内のような業務でも安定して走行できる大きさの車輪である。前進、後退のほか、右側2輪と左側2輪を異なる速度で回転させることにより、右回転走行、左回転走行を行うことができる。 The wheel 203 is composed of four wheels, and is a wheel having a size that can stably travel even for work such as road guidance. In addition to moving forward and backward, by rotating the right two wheels and the left two wheels at different speeds, it is possible to perform clockwise rotation and counterclockwise rotation.
図2のうち、車輪203と、瞳204と、瞼205と、眉206と、口207と、首214と、肩関節216と、肘関節216と、手首217と、手指218とが駆動部108を構成する。 In FIG. 2, the wheel 203, the pupil 204, the eyelid 205, the eyebrows 206, the mouth 207, the neck 214, the shoulder joint 216, the elbow joint 216, the wrist 217, and the finger 218 are connected to the drive unit 108. Configure.
図2のうち、ロボット側マイク208と、環境カメラ・GPS209と、対人カメラ211と、ロボット側スピーカー212と、ロボット側タッチパネルディスプレイ213とが、メディア入出力装置104を構成する。 In FIG. 2, the robot side microphone 208, the environmental camera / GPS 209, the interpersonal camera 211, the robot side speaker 212, and the robot side touch panel display 213 constitute the media input / output device 104.
図2のうち、人感センサー219は、テレプレゼンスロボット101の身体からは物理的には独立しているが、ロボットの近くに設置され、Wifiによってテレプレゼンスロボット101へセンシング結果を送信することができる。 In FIG. 2, the human sensor 219 is physically independent from the body of the telepresence robot 101, but is installed near the robot and can transmit a sensing result to the telepresence robot 101 via Wifi. it can.
図3は、図1に示したコミュニケーションロボットシステム100における、テレプレゼンスロボット101とコールセンタ装置102とオペレータ端末103の位置および接続の概念図を示す。テレプレゼンスロボット101は複数台利用され、それぞれ異なる場所に置かれる。テレプレゼンスロボット101はWifi経由でインターネット接続できるものとする。また、テレプレゼンスロボット101をリモート操作するオペレータ300も複数名待機している。1人のオペレータ300の前には専用のオペレータ端末103が1台置かれ、インターネットに接続されている。複数名のオペレータ300は同じ場所に集まっていてもよいし、それぞれ別の場所に居てもよい。コールセンタ装置102はデータセンタのようなインターネットに接続された環境に置かれ、インターネットに接続されたテレプレゼンスロボット101とオペレータ端末103をACD110によって自動接続し、マルチモーダルコミュニケーションサーバ111で音声映像とリモート操作情報を中継する。
FIG. 3 is a conceptual diagram of the positions and connections of the telepresence robot 101, the call center device 102, and the
図4は、お客様とオペレータがテレプレゼンスロボットを介して会話する場合の、会話開始までと会話開始から会話終了までの動作フローチャートの一例を示す図である。以下、この図4を参照して、本会話を実現するための動作を説明する。 FIG. 4 is a diagram showing an example of an operation flowchart from the start of the conversation to the end of the conversation when the customer and the operator have a conversation via the telepresence robot. Hereinafter, with reference to this FIG. 4, the operation | movement for implement | achieving this conversation is demonstrated.
ステップS1はお客様が来訪していない状態であり、テレプレゼンスロボット101はスタンバイ状態となる。スタンバイ状態ではテレプレゼンスロボット101はコールセンタ装置との間で通信を行わず、オペレータとも接続されないため、省電力状態を保つことができる。また、スタンバイ状態では、ロボットの位置は既定の設置位置にあり、表情とジェスチャも既定の状態で静止する。 Step S1 is a state in which the customer has not visited, and the telepresence robot 101 enters a standby state. In the standby state, the telepresence robot 101 does not communicate with the call center device and is not connected to the operator, so that the power saving state can be maintained. In the standby state, the position of the robot is at a predetermined installation position, and facial expressions and gestures are also stationary in the predetermined state.
ステップS2において、テレプレゼンスロボット101はロボットの近くに人がやってくるのを待ち、人が来たならステップS3へ進み、来ない場合はステップS2にとどまる。 In step S2, the telepresence robot 101 waits for a person to come near the robot. If a person comes, the process proceeds to step S3. If not, the telepresence robot 101 stays in step S2.
ステップS2において、ロボットの近くに人がやってきたかどうかを判定するためには位置判定装置105を用いる。 In step S2, the position determination device 105 is used to determine whether a person has come near the robot.
図5は、位置判定装置105の概略的なブロック図を示す。位置判定装置105は、人感センサー219のセンシング結果を受信する人感センサー結果受信部500と、環境カメラ・GPS209の取得した映像に基づいて映像中の人とテレプレゼンスロボット101との距離を認識する映像距離認識装置501を有する。 FIG. 5 shows a schematic block diagram of the position determination device 105. The position determination device 105 recognizes the distance between the person in the video and the telepresence robot 101 based on the video acquired by the human sensor result receiving unit 500 that receives the sensing result of the human sensor 219 and the environmental camera / GPS 209. And a video distance recognition device 501.
人感センサー219はテレプレゼンスロボット101の設置される部屋の入口や、近くの天井に設置し、人がロボットの近くにやってきた場合には接近信号を人感センサー結果受信部500へ送信する。 The human sensor 219 is installed at the entrance of the room where the telepresence robot 101 is installed or a nearby ceiling. When a person comes near the robot, the human sensor 219 transmits an approach signal to the human sensor result receiving unit 500.
人感センサー219をテレプレゼンスロボット101の近くに設置できない場合は、映像距離認識装置501が、環境カメラ・GPS209の取得した映像に基づいて、人の接近を判定する。接近を判定するための方法は、映像の背景差分により移動する物体とその形状を検出することによって行う。 When the human sensor 219 cannot be installed near the telepresence robot 101, the video distance recognition device 501 determines the approach of a person based on the video acquired by the environmental camera / GPS 209. The approach is determined by detecting the moving object and its shape based on the background difference of the video.
位置判定装置105は、人感センサー結果受信部500が接近信号を受け取るか、あるいは映像距離認識装置501が物体が接近していることを判定した場合、アプローチ制御装置106に対して人がやってきたことを通知する。 When the human sensor result receiving unit 500 receives an approach signal or the image distance recognition device 501 determines that an object is approaching, the position determination device 105 has come to the approach control device 106. Notify that.
ステップS3において、テレプレゼンスロボット101は近くへやってきた人へのアプローチ行動を開始する。アプローチ行動の詳細は後述するものとして、ここでは概略のみ示す。アプローチ行動とは、ロボットの近くへやってきた人に対して、ロボットから働きかける行動である。近くへやってきた人は単に通りすがりかも知れないし、目的があってロボットに近づいてきた人かもしれない。アプローチ行動ではロボット側から人に対して接近したりジェスチャをしたり音声で話しかけたりすることによって、近くにやってきた人との会話を試みる。 In step S3, the telepresence robot 101 starts an approach action to a person who has come close. The details of the approach behavior will be described later, and only an outline is shown here. An approach action is an action that works from a robot to a person who has come close to the robot. A person who has come close may just pass by, or a person who has a purpose and approaches the robot. In the approach behavior, the robot tries to talk to a person who has come nearby by approaching, gesturing, or speaking to the person from the robot side.
また、アプローチ行動の間に、適切なタイミングでテレプレゼンスロボット101は、コールセンタ装置102へコールすることによってオペレータ端末103と接続し、オペレータ300によって操作される。前記タイミングの詳細は後述する。
Further, during the approach action, the telepresence robot 101 is connected to the
ステップS4において、アプローチ行動の結果として、人がロボットの前からいなくなったり、話すことを拒否されて会話が成立しなければ、アプローチは失敗となり、ステップS5へ進む。人との会話が成立すれば、アプローチは成功となり、ステップS6へ進む。 In step S4, as a result of the approach behavior, if the person disappears from the front of the robot or if the conversation is not established due to refusal to speak, the approach fails and the process proceeds to step S5. If a conversation with a person is established, the approach is successful and the process proceeds to step S6.
ステップS5では、アプローチ終了処理を行う。アプローチ行動のためにテレプレゼンスロボット101が元の設置位置から移動していた場合は、自動的に規定位置へ戻る。ロボットが自動的に規定位置へ戻る機能を持たない場合は、オペレータがリモート操作で元の位置へ戻す。また、表情とジェスチャは自動的に既定の状態に戻る。以上のアプローチ終了処理を終えた後、ステップS1へ戻る。 In step S5, an approach end process is performed. When the telepresence robot 101 has moved from the original installation position due to the approach action, it automatically returns to the specified position. If the robot does not have a function to automatically return to the specified position, the operator returns to the original position by remote operation. Also, facial expressions and gestures automatically return to the default state. After finishing the above approach end processing, the process returns to step S1.
ステップS6では、テレプレゼンスロボット101の前に居る人をお客様として、オペレータとの間で、ロボットを介した応対が始まり、ステップS7へ進む。応対中は、オペレータがロボットを介して遠隔地のお客様の映像と音声を受信し、またオペレータがロボットを操作してお客様へ音声出力と表情、ジェスチャ、移動による道案内、ディスプレイを用いた情報提示を行うことによって、オペレータとお客様との間のロボットを介したリアルタイムでの会話を行う。 In step S6, a person in front of the telepresence robot 101 is set as a customer, and a response via the robot is started with the operator, and the process proceeds to step S7. During the reception, the operator receives the video and audio of the customer at the remote location via the robot, and the operator operates the robot to output the voice, facial expression, gesture, route guidance by movement, and information display using the display. By doing this, a real-time conversation is performed between the operator and the customer via a robot.
ステップS7では、応対の途中で、オペレータ管理者からのモニタリング開始・終了要求があった場合の処理を行う。オペレータ管理者は、オペレータの仕事を管理する立場にあり、オペレータがお客様と問題のない応対ができているかを管理するために、テレプレゼンスロボットを用いた会話の音声映像内容や、ロボットの表情、ジェスチャ、移動の様子をモニタリングできなくてはならない。オペレータ管理者は特定のオペレータの応対をモニタリング開始または終了する要求をオペレータ管理者の持つオペレータ端末から、コールセンタ装置へ送信する。このモニタリング開始・終了要求のあった場合、ステップS8へ進む。要求のない場合はステップS9へ進む。 In step S7, processing is performed when there is a monitoring start / end request from the operator manager during the response. The operator manager is in a position to manage the operator's work, and in order to manage whether the operator can respond to the customer without any problems, the audio video content of the conversation using the telepresence robot, the facial expression of the robot, You must be able to monitor gestures and movements. The operator manager transmits a request for starting or ending monitoring of a specific operator's response from the operator terminal of the operator manager to the call center device. If this monitoring start / end request is received, the process proceeds to step S8. If there is no request, the process proceeds to step S9.
ステップS8において、要求がモニタリング開始の場合、モニタリングが開始し、終了の場合、モニタリングが終了し、ステップS9へ進む。モニタリング実行中は、オペレータ管理者はお客様と特定のオペレータとの応対を自分のオペレータ端末にも出力することにより、モニタリングすることができる。 In step S8, if the request is for monitoring start, monitoring is started. If it is ended, monitoring is ended, and the process proceeds to step S9. During monitoring, the operator administrator can monitor the customer's response to a specific operator by outputting it to his / her operator terminal.
また、モニタリング実行中は、オペレータ管理者はモニタリングしている特定のオペレータに対して、自分のオペレータ端末から文字チャットを送って、応対内容に対する助言をリアルタイムで行うことができる。 During monitoring, the operator administrator can send a text chat to the specific operator being monitored from his operator terminal to give advice on the content of the response in real time.
ステップS9では、応対の途中で、オペレータが転送要求をしたかどうかの判定を行う。オペレータは、お客様との応対中に自分では対応できない状況、たとえば自分の知らない専門的な知識の求められる話題となったり、自分では判断する権限のない問題が出てきた場合に、別のオペレータへ現在の応対を転送する要求を、ACD110に対して送信することができる。転送要求は転送先のオペレータ端末に表示され、転送先オペレータがこれを許可すると、転送成功となり、ステップS10へ進む。転送要求をしない場合、あるいは転送先オペレータが許可しない場合はステップ11へ進む。 In step S9, it is determined whether or not the operator has requested transfer during the response. An operator is in charge of another operator when he / she is not able to deal with the situation during his / her interaction with the customer, for example, when a topic that requires specialized knowledge that he / she does not know or a problem that he / she does not have the authority to judge A request can be sent to the ACD 110 to forward the current response to. The transfer request is displayed on the transfer destination operator terminal, and if the transfer destination operator permits it, the transfer is successful and the process proceeds to step S10. If no transfer request is made or if the transfer destination operator does not permit, the process proceeds to step 11.
ステップS10では、テレプレゼンスロボット101から転送元のオペレータは切断され、代わりに転送先オペレータが接続し、リモート操作できるようになる。なお、転送元のオペレータ側の処理はこれで終了となるが、転送先オペレータ側の処理は新たにステップS6から始まる。 In step S10, the transfer source operator is disconnected from the telepresence robot 101, and instead, the transfer destination operator connects to enable remote operation. Note that the processing on the transfer source operator side ends here, but the transfer destination operator side processing newly starts from step S6.
ステップS11では、オペレータとお客様との応対が終了し、オペレータがオペレータ端末103の操作によって、応対終了処理を要求したかどうかの判定を行う。要求ありの場合はステップS12へ進む。要求なしの場合はステップS7へ戻って応対を続ける。
In step S <b> 11, it is determined whether or not the response between the operator and the customer has been completed and the operator has requested a response end process by operating the
ステップS12では、応対終了処理を行う。テレプレゼンスロボット101が元の設置位置から移動していた場合は、自動的に規定位置へ戻る。ロボットが自動的に規定位置へ戻る機能を持たない場合は、オペレータがリモート操作で元の位置へ戻す。また、表情とジェスチャは自動的に既定の状態に戻る。応対開始から応対終了処理までの間の、会話の音声映像内容や、ロボットの表情、ジェスチャ、移動の様子は、応対ログとして、マルチモーダルコミュニケーションサーバ111に記録される。以上の応対終了処理を終えた後、ステップS1へ戻る。
In step S12, a response end process is performed. If the telepresence robot 101 has moved from the original installation position, it automatically returns to the specified position. If the robot does not have a function to automatically return to the specified position, the operator returns to the original position by remote operation. Also, facial expressions and gestures automatically return to the default state. The audio video content of the conversation, the facial expression of the robot, the gesture, and the state of movement from the start of the response to the end of the response are recorded in the
上記ステップS6から始まるオペレータによるお客様との応対を行う方法を図6、図7、図8を用いて説明する。 A method of responding to the customer by the operator starting from step S6 will be described with reference to FIGS.
図6は、図1に示したメディア入力装置104の概略的なブロック図を示す。メディア入出力装置104は、ロボット側マイク208と、ロボット側マイク208から入力される音声をキャプチャしてロボット通信制御装置109経由でオペレータ端末103へ送信するロボット音声キャプチャ装置600と、オペレータからの会話入力を受け取ってロボットの音声に変換して出力するロボット音声出力制御装置601と、ロボット音声出力制御装置601から音声を受け取って出力するロボット側スピーカー212と、対人カメラ211と、環境カメラ・GPS209と、対人カメラ211と環境カメラ・GPS209から入力される映像をキャプチャしてロボット通信制御装置109経由でオペレータ端末103へ送信する映像キャプチャ装置604と、映像キャプチャ装置604から前記映像を受け取り顔認識を実行する顔認識装置605と、ロボット側タッチパネルディスプレイ213と、ロボット通信制御装置109を介してオペレータ端末103と通信しロボット側タッチパネルディスプレイ213の入出力を制御するロボットディスプレイ制御装置606とを有する。
FIG. 6 shows a schematic block diagram of the media input device 104 shown in FIG. The media input / output device 104 includes a robot microphone 208, a robot voice capture device 600 that captures voice input from the robot side microphone 208, and transmits the voice to the
ロボット音声キャプチャ装置600は、音声データをキャプチャするほか、音声認識によって文字データ化する機能も備える。文字データ化された音声は、後述の自動応対コールで利用される。 The robot voice capture device 600 has a function of capturing voice data and converting it into character data by voice recognition. The voice converted into character data is used in an automatic answering call described later.
ロボット音声出力制御装置601は、音声合成装置602と、音声変換装置603を有する。オペレータからの会話入力が文章の場合は、音声合成装置602が文章から音声合成を行って音声出力する。オペレータからの会話入力が音声の場合は、音声変換装置603が元の人間の声を一定のロボットらしい声にリアルタイムで変換して音声出力する。 The robot voice output control device 601 includes a voice synthesis device 602 and a voice conversion device 603. When the conversation input from the operator is a sentence, the speech synthesizer 602 performs speech synthesis from the sentence and outputs the voice. When the conversation input from the operator is a voice, the voice conversion device 603 converts the original human voice into a certain robot-like voice in real time and outputs the voice.
オペレータからの会話入力が文章の場合は、音声の場合と比べて会話のリアルタイム性が低下するが、文章から音声合成した声は、個人の音声を音声変換装置で変換した声と比べると個人差のない音声にしやすい利点がある。 When the conversation input from the operator is a sentence, the real-time nature of the conversation is reduced compared to the case of speech, but the voice synthesized from the sentence differs from person to person when compared to the voice converted by the voice converter. There is an advantage that it is easy to make voice without.
非常時にロボットではなく背後にいる人間が話していることを明示したほうが良い場合は、オペレータはリモート操作により音声変換装置603の音声変換処理を停止して元の声をそのまま出力することができる。 In the event of an emergency, it is better to clearly indicate that the person behind him is speaking rather than the robot, the operator can stop the voice conversion process of the voice converter 603 by remote operation and output the original voice as it is.
図7は、オペレータ端末103の概略的なブロック図を示す。オペレータ端末103は、オペレータがお客様と音声会話するための音声入出力装置112と、オペレータがテレプレゼンスロボット101からの映像や位置情報を受信したり遠隔操作したりするためのリモート操作装置113を有する。
FIG. 7 shows a schematic block diagram of the
音声入出力装置112は、オペレータ側マイク700と、オペレータ側マイク700から入力される音声をキャプチャしてオペレータ通信制御装置114経由でテレプレゼンスロボット101へ送信するオペレータ音声キャプチャ装置701と、オペレータ側スピーカー702と、お客様からの声をテレプレゼンスロボット101からオペレータ通信制御装置114経由で受け取ってオペレータ側スピーカー702から出力するオペレータ側音声出力制御装置703と、キーボード704と、キーボード704からの文字会話入力を受け取ってオペレータ通信制御装置114経由でテレプレゼンスロボット101へ送信する文字チャット入力装置705を有する。
The voice input /
リモート操作装置113は、オペレータ側タッチパネルディスプレイ706と、オペレータ側タッチパネルディスプレイ706との入出力およびオペレータ通信制御装置114を介したテレプレゼンスロボット101との通信を制御するオペレータ側ディスプレイ制御装置707と、オペレータ側操作パッド712と、オペレータ側操作パッド712とオペレータ側タッチパネルディスプレイ706からの入力を操作信号としてエンコードしてオペレータ通信制御装置114経由でテレプレゼンスロボット101へ送信する操作信号エンコード装置713を有する。
The remote operation device 113 includes an operator-side touch panel display 706, an operator-side
オペレータ側ディスプレイ制御装置707は、ロボットモデル表示制御装置708と、ロボット環境表示制御装置709と、お客様映像表示制御装置710と、資料提示制御装置711を有する。
The operator side
ロボットモデル表示制御装置708は、テレプレゼンスロボット101から通信で現在の駆動部108の情報を取得することによって、ロボットの現在の表情とジェスチャを3DモデルCGを用いてオペレータ側タッチパネルディスプレイ706に表示することにより、オペレータへ現在のロボットの身体状態を伝える。
The robot model
ロボット環境表示制御装置709は、テレプレゼンスロボット101が環境カメラ・GPS209で取得した現在のロボットの位置と向きの情報と360度映像を通信経由で取得し、オペレータ側タッチパネルディスプレイ706上に電子地図と重ねて表示することによって、オペレータへロボットの周囲の様子を伝える。 The robot environment display control device 709 acquires the current robot position and orientation information and 360-degree video acquired by the telepresence robot 101 using the environmental camera / GPS 209 via communication, and displays an electronic map on the operator-side touch panel display 706. By displaying it in an overlapping manner, the operator is informed of the situation around the robot.
お客様映像表示制御装置710は、テレプレゼンスロボット101から通信で現在の対人カメラ211の映像を取得し、オペレータ側タッチパネルディスプレイ706上に表示することによって、オペレータへロボットの前に居るお客様の映像を伝える。 The customer video display control device 710 acquires the current video of the interpersonal camera 211 by communication from the telepresence robot 101 and displays it on the operator-side touch panel display 706 to convey the video of the customer in front of the robot to the operator. .
資料提示制御装置711は、オペレータが応対の際にお客様へ提示するべき資料(写真、書類、地図、映像等の電子データ)を格納し、オペレータがオペレータ側タッチパネルディスプレイ706を操作して必要な資料を選択することにより、テレプレゼンスロボット101の有するロボット側タッチパネルディスプレイ213上に選択資料が表示されるよう制御を行う。 The material presentation control device 711 stores materials (electronic data such as photographs, documents, maps, videos, etc.) to be presented to the customer when the operator responds, and the operator operates the operator side touch panel display 706 to provide necessary materials. Is selected so that the selected material is displayed on the robot-side touch panel display 213 of the telepresence robot 101.
オペレータは、オペレータ側タッチパネルディスプレイ706を操作することによって、応対を転送したり、応対記録の再生を行うことができる The operator can transfer the response or play back the response record by operating the touch panel display 706 on the operator side.
オペレータは、オペレータ側操作パッド712を用いてテレプレゼンスロボット101をリモート操作することができる。オペレータ側操作パッドは、ゲーム機で利用されるような2本の方向スティックと複数のボタンを備えるものである。 The operator can remotely operate the telepresence robot 101 using the operator side operation pad 712. The operator side operation pad is provided with two directional sticks and a plurality of buttons used in a game machine.
オペレータは、オペレータ側操作パッド712の有する移動用方向スティックを用いて、テレプレゼンスロボット101に前進と、後退と、左回転と、右回転の移動を指示することができる。 The operator can instruct the telepresence robot 101 to move forward, backward, rotate left, and rotate clockwise using the direction stick for movement of the operator side operation pad 712.
オペレータは、オペレータ側操作パッド712の有する視点変更用方向スティックを用いて、テレプレゼンスロボット101の対人カメラ211をパン・チルト操作することができる。 An operator can pan / tilt the interpersonal camera 211 of the telepresence robot 101 using the viewpoint changing direction stick of the operator side operation pad 712.
オペレータは、オペレータ側操作パッド712の有するボタンを押すことによって、各ボタンに登録された表情の実行をテレプレゼンスロボット101に指示することができる。定義づけられた表情の例としては、笑顔、泣き顔等がある。 The operator can instruct the telepresence robot 101 to execute the facial expression registered in each button by pressing a button on the operator side operation pad 712. Examples of defined facial expressions include smiles and crying faces.
オペレータは、オペレータ側操作パッド712の有するボタンを押すことによって、各ボタンに登録されたジェスチャの実行をテレプレゼンスロボット101に指示することができる。定義づけられたジェスチャの例としては、左右を指さす、手を振る、首を振る、うなづく等がある。 The operator can instruct the telepresence robot 101 to execute the gesture registered in each button by pressing a button on the operator side operation pad 712. Examples of defined gestures include pointing to the left and right, waving hands, shaking heads, and nodding.
オペレータは、テレプレゼンスロボット101に対して表情とジェスチャを指示するために、オペレータ側タッチパネルディスプレイ706を用いることもできる。よく使う表情やジェスチャはオペレータ側操作パッド712のボタンに登録し、そうでないものはオペレータ側タッチパネルディスプレイ706からタッチメニューで選択できる。 The operator can also use the operator-side touch panel display 706 to instruct the telepresence robot 101 for facial expressions and gestures. Frequently used facial expressions and gestures are registered in the buttons on the operator side operation pad 712, and those that are not used can be selected from the operator side touch panel display 706 using a touch menu.
オペレータは、オペレータ側タッチパネルディスプレイ706を用いることによって、あらかじめ定義された表情とジェスチャではなく、直接にテレプレゼンスロボット101の各駆動部を操作することもできる。 By using the operator-side touch panel display 706, the operator can directly operate each driving unit of the telepresence robot 101 instead of the predefined facial expression and gesture.
応対のログは後から応対内容を確認するために、オペレータ端末上で再生することができる。 The response log can be replayed on the operator terminal to confirm the response details later.
図8は、駆動部制御装置107の概略的なブロック図を示す。駆動部制御装置107は、オペレータからのリモート操作信号をロボット通信制御装置109から受信する操作信号受信装置800と、操作信号をデコードして各駆動部の設定数値データに変換する操作信号デコード装置801と、デコードされた設定数値を各駆動部へ伝える移動制御装置802、表情制御装置803、ジェスチャ制御装置804とを有する。 FIG. 8 is a schematic block diagram of the drive unit control device 107. The drive unit control device 107 includes an operation signal receiving device 800 that receives a remote operation signal from an operator from the robot communication control device 109, and an operation signal decoding device 801 that decodes the operation signal and converts it into setting numerical value data of each drive unit. And a movement control device 802, a facial expression control device 803, and a gesture control device 804 that transmit the decoded set numerical values to each drive unit.
移動制御装置802は、車輪203の動作を制御する。 The movement control device 802 controls the operation of the wheel 203.
移動制御装置802は、オペレータからのリモート操作指示がない場合も、アプローチ制御装置106の処理に従って自律的にロボットを移動させる場合がある。詳細は後述する。 The movement control device 802 may move the robot autonomously according to the process of the approach control device 106 even when there is no remote operation instruction from the operator. Details will be described later.
移動制御装置802は、上記のように自律的にロボットを移動させる場合は、環境カメラ・GPS209を利用して対象を追跡し、また目の前に障害物があれば回避し、障害物に当たった場合は衝撃センサー221によって判定しながら、目的地まで移動する。 When moving the robot autonomously as described above, the movement control device 802 uses the environmental camera / GPS 209 to track the target, avoids any obstacles in front of the eyes, and hits the obstacles. If it is detected, the impact sensor 221 moves to the destination while making a determination.
表情制御装置803は、瞳204、瞼205、眉206、口207の動作を制御する。 The facial expression control device 803 controls the operations of the pupil 204, the eyelid 205, the eyebrows 206, and the mouth 207.
ジェスチャ制御装置804は、首214、肩関節215、肘関節216、手首217、手指218の動作を制御する。 The gesture control device 804 controls operations of the neck 214, the shoulder joint 215, the elbow joint 216, the wrist 217, and the finger 218.
ジェスチャ制御装置804は、オペレータからのリモート操作指示がない場合も、ときどき首や関節を少し動かしたり、お客様の発話時には首を動かしてうなづくなど自律的な動作を行う。これは、ロボットが長く静止していると生命らしく見えなくなってしまうことを防ぐためである。 The gesture control device 804 performs an autonomous operation such as sometimes slightly moving the neck and joints or nodding by moving the neck when the customer speaks even when there is no remote operation instruction from the operator. This is to prevent the robot from appearing like a life if it is stationary for a long time.
以下では図4のステップS3において簡単に説明したアプローチ行動と、アプローチ行動の間にテレプレゼンスロボット101がコールセンタ装置102へコールするタイミングの詳細について説明する。 Hereinafter, the details of the approach behavior described briefly in step S3 of FIG. 4 and the timing at which the telepresence robot 101 calls the call center device 102 during the approach behavior will be described.
アプローチ行動とは、テレプレゼンスロボット101の近くへやってきた人に対して、ロボット側から接近したりジェスチャをしたり音声で話しかけたりすることによって、会話を試みる行動である。 The approach action is an action of trying to talk to a person who comes near the telepresence robot 101 by approaching from the robot side, making a gesture, or talking with a voice.
テレプレゼンスロボット101は、アプローチ行動の途中でコールセンタ装置102へコールする。どの状態でコールするかのタイミングによって、アプローチ行動は、、即時コール、自動接近コール、自動挨拶コール、自動応対コールの4つの方式に分けられる。ロボットは4つの方式のうち設定によってあらかじめ指定された1つの方式を用いてアプローチ行動をとる。 The telepresence robot 101 calls the call center device 102 during the approach action. Depending on the timing of the call, the approach behavior is divided into four types: immediate call, automatic approach call, automatic greeting call, and automatic answering call. The robot takes an approach action using one of the four methods specified in advance by setting.
即時コールは、位置判定装置105の結果、人が近くに居ることが判った場合、すぐさまコールする。ACD110は前記コールに対してオペレータ端末103を割り当てて、オペレータがロボットのリモート操作を開始する。リモート操作開始後は、お客様に声の届かない距離であればオペレータはロボットを移動させてお客様に近づき、お客様に声の届く距離(2から3メートル程度)であれば声を掛けるものとする。
The immediate call is called immediately when it is determined by the position determination device 105 that a person is nearby. The ACD 110 assigns the
即時コールは、テレプレゼンスロボット101を小規模店舗に設置する場合のように、店舗入口に人感センサー219を設置することによって、何らかの用事のあるお客様の来訪が確実に判るときに適する方式である。 Immediate calling is a method that is suitable when the visitor of a certain business is surely known by installing a human sensor 219 at the entrance of the store, such as when the telepresence robot 101 is installed in a small store. .
自動接近コールは、位置判定装置105の結果、人が近くに居ることが判った場合、その人に声が届かない距離であれば、ロボットは自律的に手を振るジェスチャをしてその人の注意を引いたあと、その人に声が届く距離になるまで自律的に追跡移動してからコールする。ただし、一定時間追跡移動しても声が届く距離にならなかった場合はアプローチ行動は失敗としてコールをしない。また、人が近くに居ることが判った時点でその人に声が届く距離であればその場でコールする。ACD110は前記コールに対してオペレータ端末103を割り当てて、オペレータがロボットのリモート操作を開始する。リモート操作開始後はお客様に声の届く距離になっているため、オペレータはお客様に声を掛けることができる。
In the automatic approach call, if the position determination device 105 finds that the person is nearby, if the voice does not reach the person, the robot makes a gesture of waving its hand autonomously. After drawing attention, make a call after autonomously moving to the distance that the person can reach. However, if the distance does not reach the voice even after tracking for a certain period of time, the approach action will not be called as a failure. Also, when it is known that the person is nearby, if the distance is within the range where the voice can reach the person, the call is made on the spot. The ACD 110 assigns the
自動接近コールは、テレプレゼンスロボット101が人に近づく行動を、オペレータによる操作ではなくロボットが自律的に行う点が即時コールとは異なる。近くに居る人が単なる通りすがりであって、必ずしもお客様とは限らない街頭や展示会にロボットを設置する場合、オペレータがお客様の可能性が低い人を追いかける無駄を減らすことができる。 The automatic approach call is different from the immediate call in that the telepresence robot 101 performs an action of approaching a person autonomously by the robot rather than an operation by an operator. When robots are installed on streets and exhibitions where people nearby are just passing by and not necessarily customers, it is possible to reduce the waste of chasing people who are not likely to be customers.
自動挨拶コールは、位置判定装置105の結果、人が近くに居ることが判った場合、その人に声が届かない距離であれば、ロボットは自律的に手を振るジェスチャをしてその人の注意を引いたあと、その人に声が届く距離になるまで自律的に追跡移動する。ただし、一定時間追跡移動しても声が届く距離にならなかった場合はアプローチ行動は失敗としてコールをしない。人に声が届く距離になった時点で、ロボットからその人に対して音声とジェスチャで自律的に挨拶をする。挨拶後、顔認識装置605で人の顔が一定時間ロボットのほうを向いているかどうかを判定し、顔がロボットのほうを向いているか、音声で回答があればコールをする。顔が一定時間ロボットのほうを向かず、音声でも回答がなければアプローチ行動は失敗としてコールをしない。ACD110は前記コールに対してオペレータ端末103を割り当てて、オペレータがロボットのリモート操作を開始する。リモート操作開始後は、オペレータはお客様との応対に適切な距離(1から1.5メートル程度)までロボットを接近させて会話をすることができる。
If the position determination device 105 determines that the person is nearby, if the automatic greeting call is a distance where the voice cannot reach the person, the robot makes a gesture of waving its hand autonomously. After drawing attention, it autonomously tracks and moves until it reaches a distance where the person can hear it. However, if the distance does not reach the voice even after tracking for a certain period of time, the approach action will not be called as a failure. When the distance reaches a person's voice, the robot autonomously greets the person with voice and gesture. After the greeting, the face recognition device 605 determines whether or not the person's face is facing the robot for a certain period of time, and makes a call if the face is facing the robot or if there is a voice response. If the face does not face the robot for a certain period of time and there is no answer even by voice, the approach action does not call as a failure. The ACD 110 assigns the
自動挨拶コールは、自動接近コールの場合よりもロボットの自律動作に任せる度合いが増している。ロボットの自律動作に任せる度合いが増えると柔軟なお客様アプローチはできなくなるが、人の数が多い場所ではオペレータがお客様の可能性が低い人を追いかける無駄をいっそう減らすことができる。 The degree to which the automatic greeting call is left to the autonomous operation of the robot is higher than that of the automatic approach call. When the degree of entrusting robots to autonomous operation increases, a flexible customer approach cannot be achieved. However, in places where there are many people, the waste of the operator chasing people who are less likely to be customers can be further reduced.
自動応対コールは、位置判定装置105の結果、人が近くに居ることが判った場合、その人に声が届かない距離であれば、ロボットは自律的に手を振るジェスチャをしてその人の注意を引いたあと、その人に声が届く距離になるまで自律的に追跡移動する。ただし、一定時間追跡移動しても声が届く距離にならなかった場合はアプローチ行動は失敗としてコールをしない。人に声が届く距離になった時点で、ロボットからその人に対して音声とジェスチャで自律的に挨拶をする。挨拶後、顔認識装置605で人の顔が一定時間ロボットのほうを向いているかどうかを判定し、顔がロボットのほうを向いているか、音声で回答があれば、ロボットは人との応対に適正な距離まで自律的に接近し、既定の初期質問をお客様にして、お客様から回答があればコールをする。回答がなければアプローチ行動は失敗としてコールをしない。ACD110は前記コールに対してオペレータ端末103を割り当てて、オペレータがロボットのリモート操作を開始する。リモート操作開始後は、オペレータはそのままお客様と会話を続けることができる。
In the automatic answering call, if the position determination device 105 finds that the person is nearby, if the voice does not reach the person, the robot makes a gesture of waving its hand autonomously. After drawing attention, it autonomously tracks and moves until it reaches a distance where the person can hear it. However, if the distance does not reach the voice even after tracking for a certain period of time, the approach action will not be called as a failure. When the distance reaches a person's voice, the robot autonomously greets the person with voice and gesture. After the greeting, the face recognition device 605 determines whether or not the human face is facing the robot for a certain period of time, and if the face is facing the robot or if there is a voice response, the robot responds to the person. Autonomous approach to the right distance, make the default initial question the customer, and call if the customer answers. If there is no answer, the approach action does not call as a failure. The ACD 110 assigns the
自動応対コールでは、あらかじめ初期質問に対するお客様の回答を聞いてからコールするため、回答内容に沿ったACD110の処理により、お客様の要望に沿ったスキルを持つオペレータを割り当てることができる。お客様からの回答は音声で受けてロボット音声キャプチャ装置600によって音声認識した結果を用いるか、ロボット側タッチパネルディスプレイ上に表示されるメニューをお客様が選択した結果を用いる。 In the automatic answering call, since the call is made after hearing the customer's answer to the initial question in advance, an operator having the skill according to the customer's request can be assigned by the processing of the ACD 110 according to the answer content. As a response from the customer, the result received by voice and recognized by the robot voice capture device 600 is used, or the result of the customer selecting the menu displayed on the robot side touch panel display is used.
上記タッチパネルディスプレイ上に表示されるメニューは、例えば、外国人観光客の案内サービスであれば「English」「Chinese」「Korean」「Spanish」と表示され、ACD110の処理により、選択した言語のスキルを持つオペレータが割り当てられる。 The menu displayed on the touch panel display is, for example, “English”, “Chinese”, “Korean”, “Spanish” in the case of a guide service for foreign tourists. The operator who has is assigned.
なお、アプローチ行動以外でテレプレゼンスロボットがコールを行う場合として、緊急コールがある。これは、ジャイロセンサー220がロボットの転倒を検知したとき、あるいは衝撃センサー221がロボットへの継続的な攻撃を検知した場合に自動的にコールする機能である。ACD110は緊急コールに対しては特定の問題対応オペレータのオペレータ端末103を割り当てる。問題対応オペレータは人間の音声で話をし、周囲の人に助けを求める。自律動作中のロボットは、人間からいたずらで攻撃を受ける場合のあることが知られており、緊急コールはそうした事態に対応するための機能である。
There is an emergency call as a case where the telepresence robot makes a call other than the approach action. This is a function that automatically calls when the gyro sensor 220 detects the robot falling or when the impact sensor 221 detects a continuous attack on the robot. The ACD 110 assigns an
以下ではACD110がテレプレゼンスロボット101からのコールを自動的に適切なオペレータ端末103へ割り当てる方法について説明する。
Hereinafter, a method in which the ACD 110 automatically assigns a call from the telepresence robot 101 to an
ACD110にはあからじめ複数のオペレータが登録され、オペレータ個人を示すIDと、それぞれが会得している個人スキル情報と、それぞれの操作するオペレータ端末IDが組となって登録されている。 A plurality of operators are registered in the ACD 110 in advance, and an ID indicating an individual operator, personal skill information acquired by each operator, and an operator terminal ID operated by each operator are registered as a set.
上記スキルはキーワードで表現される。例えば、営業に関するスキルであれば「sales」、サポート業務に関するスキルであれば「support」、英語に関するスキルであれば「English」とする。 The above skills are expressed by keywords. For example, “sales” for sales skills, “support” for support skills, and “English” for English skills.
スキルは、その良しあしを数値化したグレード値を伴う。グレードは1から16までとし、数値の小さいほうが良いものとする。 Skills are accompanied by grade values that quantify their goodness. The grade is from 1 to 16, and the smaller the value, the better.
従来の音声電話向けのACDでは一般に音声会話で必要とされるスキルが登録されるだけであるが、本実施形態におけるACD110では、音声会話で必要とされるスキルに加えて、ロボットのリモート操作のために必要な、操縦スキル「manipulation」、表情とジェスチャの操作熟練度を示す演技スキル「motion」を登録する。 In the conventional ACD for voice calls, only the skills required for voice conversation are generally registered. However, in the ACD 110 in this embodiment, in addition to the skills required for voice conversation, remote operation of the robot is performed. To do so, register the maneuvering skill “manipulation” and the acting skill “motion” indicating the level of facial expression and gesture skill.
操縦スキルは、道案内業務で特に必要とされる。また、演技スキルはテレプレゼンスロボットが特定のキャラクターを持つ場合は特に、それらしく振舞うために必要とされる。 Maneuvering skills are especially needed in road guidance operations. Also, acting skills are needed to behave in such a way, especially when a telepresence robot has a specific character.
テレプレゼンスロボット101がコールする際は、スキルを指定するか、特定のオペレータ個人を指定するか、あるいは何も指定せずにコールすることができる。 When the telepresence robot 101 calls, it can be called by specifying a skill, a specific operator individual, or specifying nothing.
スキルを指定したコールは、1つあるいは複数のスキルを指定できる。複数の場合は、必要度の高い順に第1スキル、第2スキル、と順位づけをする。 A call that specifies a skill can specify one or more skills. In the case of a plurality, the first skill and the second skill are ranked in descending order of necessity.
スキルを指定したコールは、上記自動応対コールにおいて入力されたお客様の要望をスキルとして指定することができる。 A call that specifies a skill can specify a customer's request input in the above automatic answering call as a skill.
スキルを指定したコールは、特定の場所に設置されたテレプレゼンスロボット101にあらかじめ特定のスキルを指定することもできる。例えば、上記ガイドロボットサービスの例では、京都に設置されたガイドロボットには京都観光のスキル「Kyoto」を、東京に設置されたガイドロボットには東京観光のスキル「Tokyo」を指定するといったことができる。またガイドロボットサービスでは土地のスキルを第1スキルとして、道案内のための上記操縦スキル「manipulation」も第2スキルとして同時に指定する。 A call specifying a skill can also specify a specific skill in advance to the telepresence robot 101 installed in a specific place. For example, in the above guide robot service example, the Kyoto sightseeing skill “Kyoto” is specified for the guide robot installed in Kyoto, and the Tokyo tourism skill “Tokyo” is specified for the guide robot installed in Tokyo. it can. In the guide robot service, the land skill is designated as the first skill, and the maneuvering skill “manipulation” for the route guidance is also designated as the second skill.
特定のオペレータ個人を指定したコールは、お客様の担当者があらかじめ決まっている場合に利用できる。例えば上記ベルロボットサービスの例では、顔認識装置605でお客様個人を特定することによって、そのお客様専任のベルスタッフを呼び出すことができる。 A call that designates a specific operator can be used when a customer's person in charge is determined in advance. For example, in the example of the bell robot service, the customer's dedicated bell staff can be called by specifying the individual customer with the face recognition device 605.
ACD110が、コールの割り当て先オペレータを選択する方法は、まず登録されているオペレータから、現在テレプレゼンスロボットと接続済みの者を除外し、使用するスキルが指定されている場合は一致するスキルを持つオペレータのみを対象として絞り、一致するスキルを持つオペレータが複数名登録されている場合は、グレードの良いほうのオペレータを対象として絞り、同じグレードのオペレータが複数名登録されている場合は、前回応対が終了してからの待ち時間が長いほうのオペレータを対象に絞り、それでも残ったものが複数名であればランダムに1名を選ぶという手順によって、オペレータを割り当てる。この手順によって、適切なスキルを持つエージェントを、稼働率を高めながらコールに対して割り当てることができる。 The method by which the ACD 110 selects an operator to which a call is assigned is as follows. First, a person who is currently connected to the telepresence robot is excluded from the registered operators. If multiple operators with the same skill are registered, only the operator with the same skill is registered, and if multiple operators with the same grade are registered, the previous response will be given. Operators are assigned according to the procedure of narrowing down to the operator who has a long waiting time after the completion of, and selecting one at random if there are still more than one. This procedure allows agents with appropriate skills to be assigned to calls while increasing availability.
ACD110が、複数スキルの指定されたコールに対してオペレータを選択する方法は、まず登録されているオペレータから、現在テレプレゼンスロボットと接続済みの者を除外し、第1スキルに一致するスキルを持つオペレータのみを対象として絞り、一致するスキルを持つオペレータが複数名登録されている場合は、グレードの良いほうのオペレータを対象として絞り、同じグレードのオペレータが複数名登録されている場合は、第2スキル以降のグレードも順に比較することで良いほうを対象として絞り、すべての指定スキルに対して同じグレードのオペレータが複数登録されている場合は、前回応対が終了してからの待ち時間が長いほうのオペレータを対象に絞り、それでも残ったものが複数名であればランダムに1名を選ぶという手順によって、オペレータを割り当てる。
[第1実施形態の効果]
In the method of selecting an operator for a call with a plurality of skills specified by the ACD 110, first, a person who is currently connected to the telepresence robot is excluded from registered operators, and has a skill that matches the first skill. If multiple operators with the same skill are registered as the target, only the operator with the better grade is selected, and if multiple operators with the same grade are registered, the second If the grades after the skill are compared in order, it is narrowed down to the better one, and if multiple operators of the same grade are registered for all the specified skills, the longer waiting time after the end of the previous response If there are multiple people remaining, select one at random. By assigning the operator.
[Effect of the first embodiment]
以上のように、第1実施形態では、テレプレゼンスロボット101と、コールセンタ装置102と、オペレータ端末103を有し、テレプレゼンスロボット101は、お客様の映像音声のキャプチャとオペレータからの音声出力・ディスプレイ装置出力を行うメディア入出力装置104と、お客様とロボットとの位置関係を判定するための位置判定装置105と、メディア入出力装置104と位置判定装置105から得た情報に基づいてお客様とロボットとの会話開始のためのコール送信を制御するアプローチ制御装置106と、オペレータからの身体制御の指示を受ける駆動部制御装置107と、駆動部制御装置107によって表情とジェスチャの変化と身体の移動を行う駆動部108と、前記コールセンタ装置102との通信を制御するロボット通信制御装置109と、を有し、コールセンタ装置102は、アプローチ制御装置106から送信された前記コールに対して複数用意されたオペレータ端末103のうち適切な1台を割り当てるACD装置110と、コール元のテレプレゼンスロボット101と割り当てられたオペレータ端末103との間の音声映像とテレプレゼンスロボット身体動作を用いたコミュニケーションを仲介し記録するマルチモーダルコミュニケーションサーバ111を有し、オペレータ端末103は、音声入力装置112と、リモート操作装置113と、コールセンタ装置102との通信を制御するオペレータ通信制御装置114と、を有するようにした。
As described above, in the first embodiment, the telepresence robot 101, the call center device 102, and the
この第1実施形態によれば、オペレータがテレプレゼンスロボットを用いて遠隔地のお客様の映像と音声を受信し、またオペレータがテレプレゼンスロボットを操作してお客様へ音声出力と表情、ジェスチャ、移動、ディスプレイを用いた情報提示を行うことによって、オペレータとお客様との間のテレプレゼンスロボットを介したリアルタイムでの会話を実現できる。 According to the first embodiment, an operator receives a remote customer's video and audio using a telepresence robot, and an operator operates the telepresence robot to output audio, facial expressions, gestures, movements, By presenting information on the display, real-time conversation between the operator and the customer via the telepresence robot can be realized.
この第1実施形態によれば、ACDを用いることにより、お客様に対し、手の空いている人や必要なスキルを持つ人を自動的にテレプレゼンスロボットへ割り当てて応対することが可能となる。特にロボットのリモート操作に関する、操縦スキル「manipulation」と演技スキル「motion」をACDで処理可能とすることにより、ロボットに対して適切なオペレータを割り当てることができる。 According to the first embodiment, by using the ACD, it is possible to automatically assign a person who is free or has a necessary skill to the telepresence robot and respond to the customer. In particular, it is possible to assign an appropriate operator to the robot by enabling the ACD to process the maneuvering skill “manipulation” and the acting skill “motion” related to the remote operation of the robot.
この第1実施形態によれば、アプローチ制御装置により、会話を始めるためにお客様とテレプレゼンスロボットを会話できる距離へ接近させ、ロボットから自動的にコールしてオペレータへ接続する方式として、即時コール、自動接近コール、自動挨拶コール、自動応対コールの4つの方式を用いることができるため、お客様とオペレータとの会話を自然に開始することができる。 According to the first embodiment, the approach control device brings the customer and the telepresence robot close to a distance where they can talk to start conversation, and the robot automatically calls and connects to the operator as an immediate call, Since it is possible to use four methods of automatic approach call, automatic greeting call, and automatic answering call, the conversation between the customer and the operator can be started naturally.
この第1実施形態によれば、ジャイロセンサーがロボットの転倒を検知したとき、あるいは衝撃センサーがテレプレゼンスロボットへの外部からの継続的な攻撃を検知した場合に、ロボットが自動的に緊急コールを発信し、ACDは緊急コールに対して特定の問題対応オペレータのオペレータ端末を割り当て、問題対応オペレータは人間の音声で話をして、ロボットの周囲の人に助けを求めることができる。 According to the first embodiment, when the gyro sensor detects a fall of the robot or when the impact sensor detects a continuous external attack on the telepresence robot, the robot automatically makes an emergency call. The ACD assigns an operator terminal of a specific problem handling operator to the emergency call, and the problem handling operator can speak with a human voice and ask people around the robot for help.
この第1実施形態によれば、オペレータの映像と声をそのままお客様に伝える代わりに、映像は用いることなく声のみを上記ロボット音声出力制御装置によってロボットらしい音声として出力することにより、お客様との違和感の少ない形でのロボットを介した会話が可能となる。また、オペレータが会話の途中で交代しても、同じようなロボットらしい音声を出力することにより、ロボットの一貫性や一体のロボットの個性が損なわれる問題を解決する。 According to the first embodiment, instead of transmitting the operator's image and voice to the customer as they are, only the voice is output as a robot-like voice by using the robot voice output control device without using the video, so that the user feels uncomfortable. It is possible to have a conversation through a robot with less form. Further, even if the operator changes during the conversation, the same robot-like voice is output, thereby solving the problem that the consistency of the robot and the individuality of the integrated robot are impaired.
この第1実施形態によれば、マルチモーダルコミュニケーションサーバを介して音声映像会話とロボットのリモート操作を行うことによって、第三者が上記マルチモーダルコミュニケーションに接続し、音声映像会話に加えテレプレゼンスロボットの移動やジェスチャなどのリモート操作の様子もモニタリングすることができる。 According to the first embodiment, by performing audio / video conversation and robot remote operation via a multimodal communication server, a third party connects to the multimodal communication, and in addition to the audio / video conversation, the telepresence robot Remote operation such as movement and gesture can be monitored.
この第1実施形態によれば、マルチモーダルコミュニケーションサーバにデータを記録することにより、音声映像会話に加えテレプレゼンスロボットの移動やジェスチャなどリモート操作の様子も記録して、お客様との間で不適切なやりとりがなかったかをあとで再生して確認することができる。
[第2実施形態]
According to the first embodiment, by recording data on the multimodal communication server, in addition to the audio-video conversation, the movement of the telepresence robot and the state of the remote operation such as the gesture are also recorded, which is inappropriate with the customer. You can play back and check later if there was any interaction.
[Second Embodiment]
第2実施形態は、第1実施形態におけるテレプレゼンスロボット101が、図2で示される車輪203を有することはなく、特定の位置に固定して用いるほかは、第1実施形態と同じ構成をとる。 The second embodiment has the same configuration as that of the first embodiment except that the telepresence robot 101 in the first embodiment does not have the wheels 203 shown in FIG. .
第2実施形態は、第1実施形態におけるアプローチ行動のうち移動を行わないこと、リモート操作による移動も行わないことの他は、第1実施形態と同じ手順で動作する。
[第2実施形態の効果]
The second embodiment operates in the same procedure as that of the first embodiment except that the approach action in the first embodiment is not moved and the movement by remote operation is not performed.
[Effect of the second embodiment]
第2実施形態では、人に接近して会話をしたり、人と一緒に移動して道案内をするための車輪を持たないため、ロボットを小型化することができる利点がある。例えば上記カウンターロボットサービスの場合はロボットがあまり動き回る必要がないため、ロボットを小型化して机上に設置することで手軽に運用することができる。
[第3実施形態]
In the second embodiment, there is an advantage that the robot can be miniaturized because there is no wheel for approaching a person and having a conversation or moving with the person to guide the road. For example, in the case of the counter robot service, since the robot does not need to move much, it can be easily operated by downsizing the robot and installing it on a desk.
[Third embodiment]
第3実施形態は、第1実施形態におけるテレプレゼンスロボット101の代わりにドローン(小型の無人航空機)を用いるほかは、第1実施形態と同じ構成を取る。 The third embodiment has the same configuration as the first embodiment except that a drone (small unmanned aerial vehicle) is used instead of the telepresence robot 101 in the first embodiment.
ドローンは対人カメラとマイク、スピーカを備えており、オペレータはドローンを介してドローンの前にいる人と会話することができる。
[第3実施形態の効果]
The drone is equipped with an interpersonal camera, a microphone, and a speaker, and an operator can talk with a person in front of the drone via the drone.
[Effect of the third embodiment]
コールセンタ型のテレプレゼンスロボットをドローンとすることによって、利用者は一台のドローンを用意するだけで、航空撮影作業、橋梁修理のための高所撮影・確認作業など、様々な専門スキルを持つオペレータからのサービスを受けることが出来るようになる。
[第4実施形態]
By using a call center-type telepresence robot as a drone, users can prepare a single drone and have various specialized skills such as aerial photography and high-altitude photography / confirmation work for bridge repair. You will be able to receive services from
[Fourth embodiment]
第4実施形態は、第1実施形態におけるテレプレゼンスロボット101の代わりにおもちゃの人形を用いるほかは、第1実施形態と同じ構成を取る。 The fourth embodiment has the same configuration as that of the first embodiment except that a toy doll is used instead of the telepresence robot 101 in the first embodiment.
おもちゃの人形は対人カメラとマイク、スピーカを備えており、オペレータは、おもちゃの人形として演技をして、人形の前にいる子供と話をすることができる。
[第4実施形態の効果]
A toy doll is equipped with an interpersonal camera, a microphone, and a speaker, and an operator can act as a toy doll and talk with a child in front of the doll.
[Effect of the fourth embodiment]
コールセンタ型のテレプレゼンスロボットをおもちゃの人形とすることによって、子供が話しかけたときだけオペレータと接続し、会話できるおもちゃの人形を実現することができる。
[第5実施形態]
By using a call center type telepresence robot as a toy doll, it is possible to realize a toy doll that can be connected to an operator only when a child speaks and can talk.
[Fifth Embodiment]
第5実施形態では、第1実施形態における車輪のついたテレプレゼンスロボットと、第2実施形態における車輪を持たないテレプレゼンスロボットと、第3実施形態におけるドローンと、第4実施形態におけるおもちゃの人形とが混在し、一人のオペレータがどの種類のテレプレゼンスロボットに対しても接続できるほかは、各ロボット毎の実施形態と同じ構成をとる。 In the fifth embodiment, the telepresence robot with wheels in the first embodiment, the telepresence robot without wheels in the second embodiment, the drone in the third embodiment, and the toy doll in the fourth embodiment Except that one operator can connect to any kind of telepresence robot, and the configuration is the same as the embodiment for each robot.
テレプレゼンスロボットがコールセンタ装置へコールする際、テレプレゼンスロボットの種類を表すスキルを必ず第1スキルとし、他のスキルを優先度順に第2、第3と続けて設定するほかは、各ロボット毎の実施形態と同じ構成をとる。 When a telepresence robot calls a call center device, the skill representing the type of telepresence robot is always the first skill, and the other skills are set in order of priority in the second and third order. The configuration is the same as that of the embodiment.
車輪のあるロボットの種類を表すスキルを「wheel」、車輪のないロボットの種類を表すスキルを「nowheel」、ドローンを表すスキルを「drone」、人形を表すスキルを「doll」とする。 The skill representing the type of robot with wheels is “wheel”, the skill representing the type of robot without wheels is “nowheel”, the skill representing the drone is “drone”, and the skill representing the doll is “doll”.
オペレータは、車輪のあるロボットを操作する技術を持つ場合は「wheel」スキルを、車輪のないロボットを操作する技術を持つ場合は「nowheel」スキルを、ドローンを操縦する技術を持つ場合は「drone」を、人形を操作するスキルを持つ場合は「doll」を、ACDに登録する。
[第5実施形態の効果]
If the operator has the technology to operate a robot with wheels, the “wheel” skill is used. If the operator has the technology to operate a robot without wheels, the “nowheel” skill is used. "," If you have the skill to operate a doll, register "doll" in the ACD.
[Effect of Fifth Embodiment]
特定の種類のロボットを表すスキルを第1スキルとすることによって、複数の種類のテレプレゼンスロボットを用意し、個々のロボットの操作技術を持つオペレータにだけコールが割り当てられるようにすることができる。複数の種類のロボットの操作技術を持つオペレータと、1つのロボットの操作技術を持つオペレータを混在させて対応できるようになるため、オペレータの稼働率を上げることができる。
[第6実施形態]
By setting a skill representing a specific type of robot as the first skill, a plurality of types of telepresence robots can be prepared, and a call can be assigned only to an operator who has operation skills of each robot. Since an operator having a plurality of types of robot operation techniques and an operator having a single robot operation technique can be mixed, it is possible to increase the operating rate of the operators.
[Sixth Embodiment]
第6実施形態では、第1実施形態と同じ構成と同じ手順で動作することに加えて、各テレプレゼンスロボットの位置情報をACD110へ登録することにより、オペレータが近隣の別のテレプレゼンスロボットを検索できるようにする。 In the sixth embodiment, the operator searches for another nearby telepresence robot by registering the location information of each telepresence robot in the ACD 110 in addition to operating in the same configuration and procedure as in the first embodiment. It can be so.
オペレータが図4のステップS6でお客様と応対開始した後、特定のオペレータに対して、ロボットの近くにある別のテレプレゼンスロボットと接続し、会話に参加するよう追加要求を出すことができる。要求が認められれば、お客様と二名のオペレータによる三者会話を行うことができる。
[第6実施形態の効果]
After the operator starts responding to the customer in step S6 in FIG. 4, an additional request can be issued to a specific operator to connect to another telepresence robot near the robot and participate in the conversation. If the request is approved, you can have a three-way conversation between the customer and two operators.
[Effect of the sixth embodiment]
個別の専門的なスキルが求められ、個々のオペレータがそれを所持している場合には、三者会話のできることが望ましい。例えば、観光案内のスキルのみを持つオペレータと、通訳のスキルのみを持つオペレータが別々に居る場合、観光案内のスキルのみを持つオペレータが、お客様の母国語に対応できる通訳のスキルを持つオペレータをもう1体のテレプレゼンスロボットに呼び出すことによって、両方のスキルを用いたお客様応対が可能となる。 When individual specialized skills are required and individual operators possess it, it is desirable to have a three-way conversation. For example, if there are separate operators who have only tourist guidance skills and operators who have only interpreter skills, an operator who has only tourist guide skills will have an operator who has interpreter skills that can handle the customer's native language. By calling one telepresence robot, customers can use both skills.
100 コミュニケーションロボットシステム
101 テレプレゼンスロボット
102 コールセンタ装置
103 オペレータ端末
104 メディア入出力装置
105 位置判定装置
106 アプローチ制御装置
107 駆動部制御装置
108 駆動部
109 ロボット通信制御装置
110 ACD
111 マルチモーダルコミュニケーションサーバ
112 音声入出力装置
113 リモート操作装置
114 オペレータ通信制御装置
200 頭
201 胴
202 腕
203 車輪
204 瞳
205 瞼
206 眉
207 口
208 ロボット側マイク
209 環境カメラ・GPS
210 Wifi通信装置
211 対人カメラ
212 ロボット側スピーカー
213 ロボット側タッチパネルディスプレイ
214 首
215 肩関節
216 肘関節
217 手首
218 手指
219 人感センサー
220 ジャイロセンサー
221 衝撃センサー
300 オペレータ
500 人感センサー結果受信部
501 映像距離認識装置
600 ロボット音声キャプチャ装置
601 ロボット音声出力制御装置
602 音声合成装置
603 音声変換装置
604 映像キャプチャ装置
605 顔認識装置
606 ロボットディスプレイ制御装置
700 オペレータ側マイク
701 オペレータ音声キャプチャ装置
702 オペレータ側スピーカー
703 オペレータ側音声出力制御装置
704 キーボード
705 文字チャット入力装置
706 オペレータ側タッチパネルディスプレイ
707 オペレータ側ディスプレイ制御装置
708 ロボットモデル表示制御装置
709 ロボット環境表示制御装置
710 お客様映像表示制御装置
711 資料提示制御装置
712 オペレータ側操作パッド
713 操作信号エンコード装置
800 操作信号受信装置
801 操作信号デコード装置
802 移動制御装置
803 表情制御装置
804 ジェスチャ制御装置
DESCRIPTION OF SYMBOLS 100 Communication robot system 101 Telepresence robot 102
111
210 Wifi Communication Device 211 Interpersonal Camera 212 Robot Side Speaker 213 Robot Side Touch Panel Display 214 Neck 215 Shoulder Joint 216 Elbow Joint 217 Wrist 218 Finger 219 Human Sensor 220 Gyro Sensor 221
Claims (20)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016204758A JP2018067785A (en) | 2016-10-19 | 2016-10-19 | Communication robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016204758A JP2018067785A (en) | 2016-10-19 | 2016-10-19 | Communication robot system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018067785A true JP2018067785A (en) | 2018-04-26 |
Family
ID=62086394
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016204758A Pending JP2018067785A (en) | 2016-10-19 | 2016-10-19 | Communication robot system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018067785A (en) |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190381663A1 (en) * | 2017-02-02 | 2019-12-19 | Brain Corporation | Systems and methods for assisting a robotic apparatus |
| JP2020066094A (en) * | 2018-10-24 | 2020-04-30 | トヨタ自動車株式会社 | Communication robot and communication robot control program |
| JP2020109926A (en) * | 2019-01-07 | 2020-07-16 | 株式会社オリィ研究所 | Robot control device, robot control method, robot control program, and robot control system |
| WO2021019787A1 (en) * | 2019-08-01 | 2021-02-04 | オムロン株式会社 | Task distribution device, task distribution system, method, and program |
| JP2021064299A (en) * | 2019-10-16 | 2021-04-22 | 株式会社サイバーエージェント | Control system, terminal device, control method, and computer program |
| JP2021062426A (en) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | Robot system |
| JP2021140401A (en) * | 2020-03-04 | 2021-09-16 | 清水建設株式会社 | Response control device, response control method, and program |
| CN113424124A (en) * | 2019-04-29 | 2021-09-21 | 谷歌有限责任公司 | Electrically powered computing device that automatically adjusts the orientation of the device location and/or interface based on automated assistant requests |
| JP2022507447A (en) * | 2018-11-13 | 2022-01-18 | 北京猟戸星空科技有限公司 | Methods, devices and storage media for controlling intelligent devices |
| JP2022513800A (en) * | 2018-12-13 | 2022-02-09 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Object Tracking Anime Person System and Method |
| JP2022519476A (en) * | 2019-01-25 | 2022-03-24 | 北京妙趣▲フォ▼伴科技有限公司 | Robots and their operating systems, controls, control methods and storage media |
| JP7216379B1 (en) | 2021-10-07 | 2023-02-01 | 株式会社サイバーエージェント | Control system, control method and program |
| EP4390597A4 (en) * | 2021-10-01 | 2025-07-09 | Avatarin Inc | COMMUNICATION SYSTEM AND ROBOT |
| WO2025187191A1 (en) * | 2024-03-04 | 2025-09-12 | トヨタ自動車株式会社 | Method, information processing device, and non-transitory computer-readable medium |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005237522A (en) * | 2004-02-25 | 2005-09-08 | Nec Access Technica Ltd | Robot |
| JP2007190659A (en) * | 2006-01-20 | 2007-08-02 | Advanced Telecommunication Research Institute International | Robot remote control system |
| JP2007286376A (en) * | 2006-04-18 | 2007-11-01 | Toyota Motor Corp | Voice guidance system |
| JP2009241166A (en) * | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | Robot remote operation system |
| JP2010213127A (en) * | 2009-03-12 | 2010-09-24 | Broad Service Co Ltd | Call center reception system |
| JP2013119157A (en) * | 2011-12-06 | 2013-06-17 | National Taiwan Univ Of Science & Technology | Facial expression control device |
| JP2015070371A (en) * | 2013-09-27 | 2015-04-13 | 株式会社日本総合研究所 | Call center response control system and response control method thereof |
| US20160114488A1 (en) * | 2014-10-24 | 2016-04-28 | Fellow Robots, Inc. | Customer service robot and related systems and methods |
-
2016
- 2016-10-19 JP JP2016204758A patent/JP2018067785A/en active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005237522A (en) * | 2004-02-25 | 2005-09-08 | Nec Access Technica Ltd | Robot |
| JP2007190659A (en) * | 2006-01-20 | 2007-08-02 | Advanced Telecommunication Research Institute International | Robot remote control system |
| JP2007286376A (en) * | 2006-04-18 | 2007-11-01 | Toyota Motor Corp | Voice guidance system |
| JP2009241166A (en) * | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | Robot remote operation system |
| JP2010213127A (en) * | 2009-03-12 | 2010-09-24 | Broad Service Co Ltd | Call center reception system |
| JP2013119157A (en) * | 2011-12-06 | 2013-06-17 | National Taiwan Univ Of Science & Technology | Facial expression control device |
| JP2015070371A (en) * | 2013-09-27 | 2015-04-13 | 株式会社日本総合研究所 | Call center response control system and response control method thereof |
| US20160114488A1 (en) * | 2014-10-24 | 2016-04-28 | Fellow Robots, Inc. | Customer service robot and related systems and methods |
| JP2017533106A (en) * | 2014-10-24 | 2017-11-09 | フェロー,インコーポレイテッド | Customer service robot and related systems and methods |
Cited By (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190381663A1 (en) * | 2017-02-02 | 2019-12-19 | Brain Corporation | Systems and methods for assisting a robotic apparatus |
| US11691286B2 (en) * | 2017-02-02 | 2023-07-04 | Brain Corporation | Systems and methods for assisting a robotic apparatus |
| JP2020066094A (en) * | 2018-10-24 | 2020-04-30 | トヨタ自動車株式会社 | Communication robot and communication robot control program |
| JP7067414B2 (en) | 2018-10-24 | 2022-05-16 | トヨタ自動車株式会社 | Communication robots and control programs for communication robots |
| JP2022507447A (en) * | 2018-11-13 | 2022-01-18 | 北京猟戸星空科技有限公司 | Methods, devices and storage media for controlling intelligent devices |
| JP7204912B2 (en) | 2018-11-13 | 2023-01-16 | 北京猟戸星空科技有限公司 | Method, device and storage medium for controlling intelligent equipment |
| US11907414B2 (en) | 2018-12-13 | 2024-02-20 | Universal City Studios Llc | Object tracking animated figure systems and methods |
| JP7489388B2 (en) | 2018-12-13 | 2024-05-23 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | System and method for tracking animated characters |
| JP2022513800A (en) * | 2018-12-13 | 2022-02-09 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Object Tracking Anime Person System and Method |
| JP2020109926A (en) * | 2019-01-07 | 2020-07-16 | 株式会社オリィ研究所 | Robot control device, robot control method, robot control program, and robot control system |
| JP2022519476A (en) * | 2019-01-25 | 2022-03-24 | 北京妙趣▲フォ▼伴科技有限公司 | Robots and their operating systems, controls, control methods and storage media |
| CN113424124A (en) * | 2019-04-29 | 2021-09-21 | 谷歌有限责任公司 | Electrically powered computing device that automatically adjusts the orientation of the device location and/or interface based on automated assistant requests |
| US12505838B2 (en) | 2019-04-29 | 2025-12-23 | Google Llc | Motorized computing device that autonomously adjusts device location and/or orientation of interfaces according to automated assistant requests |
| JP2022529868A (en) * | 2019-04-29 | 2022-06-27 | グーグル エルエルシー | Motorized computing device that autonomously adjusts device location and / or interface orientation according to automated assistant requests |
| CN113424124B (en) * | 2019-04-29 | 2025-06-06 | 谷歌有限责任公司 | An electrically powered computing device that automatically adjusts the device's position and/or orientation of an interface in response to an automated assistant request |
| US11727931B2 (en) | 2019-04-29 | 2023-08-15 | Google Llc | Motorized computing device that autonomously adjusts device location and/or orientation of interfaces according to automated assistant requests |
| JP7386876B2 (en) | 2019-04-29 | 2023-11-27 | グーグル エルエルシー | A motorized computing device that autonomously adjusts device location and/or interface orientation according to automated assistant requests. |
| JPWO2021019787A1 (en) * | 2019-08-01 | 2021-02-04 | ||
| WO2021019787A1 (en) * | 2019-08-01 | 2021-02-04 | オムロン株式会社 | Task distribution device, task distribution system, method, and program |
| JP7331928B2 (en) | 2019-08-01 | 2023-08-23 | オムロン株式会社 | Task distribution device, task distribution system, method, and program |
| JP2021062426A (en) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | Robot system |
| JP2021064299A (en) * | 2019-10-16 | 2021-04-22 | 株式会社サイバーエージェント | Control system, terminal device, control method, and computer program |
| JP7446858B2 (en) | 2020-03-04 | 2024-03-11 | 清水建設株式会社 | Response control device, response control method, and program |
| JP2021140401A (en) * | 2020-03-04 | 2021-09-16 | 清水建設株式会社 | Response control device, response control method, and program |
| EP4390597A4 (en) * | 2021-10-01 | 2025-07-09 | Avatarin Inc | COMMUNICATION SYSTEM AND ROBOT |
| JP2023056421A (en) * | 2021-10-07 | 2023-04-19 | 株式会社サイバーエージェント | Control system, control method and program |
| JP7216379B1 (en) | 2021-10-07 | 2023-02-01 | 株式会社サイバーエージェント | Control system, control method and program |
| WO2025187191A1 (en) * | 2024-03-04 | 2025-09-12 | トヨタ自動車株式会社 | Method, information processing device, and non-transitory computer-readable medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018067785A (en) | Communication robot system | |
| US9843678B2 (en) | Visual assistance systems and related methods | |
| JP7056055B2 (en) | Information processing equipment, information processing systems and programs | |
| US20070220108A1 (en) | Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web | |
| JP2007190659A (en) | Robot remote control system | |
| Yamazaki et al. | Prior-to-request and request behaviors within elderly day care: Implications for developing service robots for use in multiparty settings | |
| JP4512830B2 (en) | Communication robot | |
| JP7279646B2 (en) | Information processing device, information processing method and program | |
| JP7340063B2 (en) | Security system and surveillance display | |
| JP2019086858A (en) | Customer service system and customer service method | |
| US20200413009A1 (en) | Bidirectional video communication system and kiosk terminal | |
| JP4386367B2 (en) | Communication robot improvement system | |
| Bohus et al. | Open-World Dialog: Challenges, directions, and a prototype | |
| JP2002261966A (en) | Communication support system and photographing equipment | |
| JP2013000875A (en) | Remote guidance system | |
| WO2023047646A1 (en) | Information processing device and method, and program | |
| JP2010213127A (en) | Call center reception system | |
| JP7208361B2 (en) | Communication robot and its control method, information processing server and information processing method | |
| JP7415529B2 (en) | Telepresence systems, flying vehicle control programs, and mobile vehicle control programs | |
| WO2020095714A1 (en) | Information processing device and method, and program | |
| US20240281203A1 (en) | Information processing device, information processing method, and storage medium | |
| JPH09327006A (en) | Two-way interactive system | |
| Boll | Multimedia at CHI: Telepresence at work for remote conference participation | |
| JP7752744B1 (en) | program | |
| CN115213884A (en) | Interaction control method and device for robot, storage medium and robot |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170123 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170124 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191018 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200117 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200806 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210309 |