JP2019040516A - Robot for the deceased possession - Google Patents
Robot for the deceased possession Download PDFInfo
- Publication number
- JP2019040516A JP2019040516A JP2017163488A JP2017163488A JP2019040516A JP 2019040516 A JP2019040516 A JP 2019040516A JP 2017163488 A JP2017163488 A JP 2017163488A JP 2017163488 A JP2017163488 A JP 2017163488A JP 2019040516 A JP2019040516 A JP 2019040516A
- Authority
- JP
- Japan
- Prior art keywords
- deceased
- robot
- death
- period
- conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、故人憑依用ロボットに関するものである。 The present invention relates to a deceased robot.
例えば、自分の死後に遺族等にメッセージを送る場合、生前にビデオメッセージを事前に録画し、自分の死後に当該ビデオメッセージが遺族に配達されるシステムを利用することで実現できる。 For example, when a message is sent to a bereaved family or the like after his / her death, it can be realized by using a system in which a video message is recorded in advance before his / her death and the video message is delivered to the bereaved after his / her death.
ビデオメッセージを受け取った遺族は、自己の都合にあわせ当該ビデオメッセージを再生し、映像を見ることになる。テレビやパソコンの表示画面に映る二次平面であるので、生前に撮った写真やビデオを見るのと余り変わらず、故人の生前の生活感等は生じず思い出を見ているにすぎない。また、見るタイミングも遺族の都合で、遺族が忙しいとなかなか見られないこともある。特に、ビデオメッセージは、受け取った遺族が積極的に破棄したり、データを消去したりすることはできず、何時までも手元に残ることから、何時でも見ることができるという安心感もあって、中々見ないという事態も生じやすい。一方、故人を思い出し、ビデオを再生する人にとっては、何回再生しても、同じ映像が繰り返し再生されるだけで、係る点に鑑みても思い出の一つにすぎない。その結果、成仏したのか、未だに現世に留まっているのかがわからず、場合によっては死を受け入れにくい状態になるおそれもある。 The survivor who receives the video message will play the video message and watch the video at his convenience. Since it is a secondary plane reflected on the display screen of a TV or personal computer, it is not much different from watching photos and videos taken before life, and the deceased's life feeling is not produced, and only memories are seen. Also, because the bereaved family is busy, it may be difficult to see the timing. In particular, video messages can be viewed at any time because the survivors who receive them cannot actively destroy or erase the data, and will remain at hand for hours, It is easy to happen that you don't see it. On the other hand, for a person who remembers the deceased and plays a video, no matter how many times it is played, only the same video is played back repeatedly. As a result, it is not possible to know whether the Buddha was buddhad or still in this world, and in some cases it may be difficult to accept death.
上述した課題はそれぞれ独立したものとして記載しているものであり、本発明は、必ずしも記載した課題の全てを解決できる必要はなく、少なくとも一つの課題が解決できれば良い。またこの課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。 The above-described problems are described as independent ones, and the present invention does not necessarily have to solve all of the problems described, and it is sufficient that at least one problem can be solved. In addition, the structure for solving this problem has the intention to acquire the rights by divisional application and amendment alone.
(1)上述した課題を解決するために、本発明の故人憑依用ロボットは、人型のロボット本体と、そのロボット本体の顔面部分に装着したお面とを備えたロボットであり、前記お面は故人の顔に似せたものであり、前記ロボット本体は、前記故人の死後一定期間、その故人に似せた振る舞いを行う疑似憑依機能を備え、前記死後一定期間の経過後は、前記疑似憑依機能が動作できないようにし、前記死後一定期間は、成仏するのに要する期間に応じた期間とした。 (1) In order to solve the above-described problems, the deceased robot of the present invention is a robot including a humanoid robot body and a face attached to a face portion of the robot body. Is similar to the face of the deceased, and the robot body has a pseudo dependence function that performs a behavior resembling the deceased for a certain period after the death of the deceased, and after the elapse of the certain period after the death, the pseudo dependence function The fixed period after death is a period according to the period required for Buddhist buddha.
ロボット本体は、故人に似せた振る舞いを行い、しかも、ロボット本体の頭部に故人の顔に似せたお面を被せることで、似た顔の人型のロボットが故人に似せた振る舞いを行うことで相乗的に作用し、故人らしさが醸し出され、遺族等が感情移入しやすくなるので良い。死後一定期間を経過した後は、疑似憑依機能が動作せず、しかも、当該死後一定期間、成仏するのに要する期間に応じた期間としたので、亡くなったあと、しばらく故人らしい振る舞いを行い、その後、動作しないことで、遺族等は、故人が現世からあの世の世界をわたり成仏したことを感覚的に理解でき、死を受け入れることができるので良い。振る舞いは、故人の口癖、くしゃみやあくびや生活音などの音声の発声や、特徴ある動きなどの動作などがある。さらに、音声による振る舞いは、例えばロボットが一方的にメッセージを発話するものや、遺族等との間で会話をするものなどがある。会話を行う機能を備える場合、例えば、下記(3)の発明のように疑似会話を行ったり、人工知能を用いてより高度な会話を成立させたりするものなど、各種の展開がある。故人の生前に、肉声を取得したりモーションキャプチャ等を利用して動きのデータを取得したりしておくと、本人らしさが高く再現でき、生活感を出すことができるのでよい。 The robot body behaves like a deceased person, and a humanoid robot with a similar face behaves like a deceased by covering the head of the robot body with a face resembling the face of the deceased This works synergistically, creating a feeling of deceased and facilitating empathy for the bereaved family. After a certain period after death, the pseudo-dependence function does not operate, and since it is a period according to the period required for adultery to occur for a certain period after the death, after the death, the behavior of the deceased is performed for a while. By not working, the bereaved family can understand sensuously that the deceased has passed through the world of this world and can accept death. The behavior includes speech of the deceased's mustache, sneezing and yawning, daily life sounds, and actions such as characteristic movements. Furthermore, the behavior by voice includes, for example, a robot unilaterally speaking a message and a conversation with a bereaved family. In the case of providing a conversation function, for example, there are various developments such as performing a pseudo conversation as in the invention of (3) below, or establishing a more advanced conversation using artificial intelligence. If a real voice is acquired before the deceased's life, or motion data is acquired by using motion capture or the like, the personality can be reproduced with high quality and a sense of life can be given.
(2)前記疑似憑依機能は、死後一定期間の最初は、前記故人らしさの強い行為を実行し、期間が経過するにつれて前記故人らしさの傾向が弱まる行為を実行するものとするとよい。このようにすると、亡くなってから時間が経過するにつれて、徐々に遠い世界に去って行く感じを出すことができ、成仏に近づいていっていることを感覚に認識できるので良い。 (2) The pseudo-believing function may execute an action with a strong deceased person at the beginning of a certain period after death, and an action with a tendency of the deceased person to become weaker as the period elapses. In this way, as time passes after you die, you can feel that you are gradually moving away to the world, and you can recognize that you are approaching the Buddha.
(3)前記疑似憑依機能は、人と会話を行う機能を備え、その会話は、人工知能を使わないで行うようにするとよい。人工知能を使わず簡単なアルゴリズムで会話をすることで、噛み合わない会話が発生するが、それがかえって好ましい状況になるので良い。噛み合わない会話は、例えば、認知症や、ぼけた人と話している感じが自然と発生し、特に故人が高齢者の場合、なんとなく会話が成り立っているようで、ズレている状況があり、時々とんちんかんなことを発話しても、故人の生前の状況に即したリアリティが出て良い。これに対し、例えば人工知能を使い、正確な会話が成立すると、亡くなっていく感じがかえってしないことがあり、また、人工知能を使い、時々わざとおかしな会話をさせると、かえってわざとらしさが出て、リアリティに欠ける恐れある。これに対し本発明のように簡易なアルゴリズムを使うことで自然にぼけた感じがでて、成仏していく感じ醸し出すことができる。会話が成立しすぎると、亡くなる前の若いときに戻った感じがして、亡くなる直前の故人らしさがなく、会話していても直近の故人と話している感じがしないが、本発明はそのようなことがなくなるので良い。また、時々記憶が戻ったように会話が成立するのもよい。 (3) The pseudo interdependence function is provided with a function of performing a conversation with a person, and the conversation may be performed without using artificial intelligence. By using simple algorithms without using artificial intelligence, conversations that do not mesh can be generated. Conversations that do not mesh, for example, have a dementia or a feeling of talking with a blurred person, especially when the deceased is an elderly person, there seems to be some sort of conversation, and there are situations that are misaligned, sometimes Even if you talk about something neat, you can get a reality that matches the circumstances of the deceased. On the other hand, for example, if you use artificial intelligence and an accurate conversation is established, the feeling of dying may not change, and if you use artificial intelligence and occasionally have a funny conversation, you will get a frustration. There is a risk of lack of reality. On the other hand, by using a simple algorithm as in the present invention, the feeling of being naturally blurred appears and the feeling of growing up can be created. If the conversation is established too much, it feels like you were back when you were young before you died, there is no deceased just before you died, and even if you are talking, you do not feel that you are talking to the nearest deceased, but the present invention is like that It is good because there is nothing wrong. It is also possible to establish a conversation as if the memory has returned from time to time.
(4)前記振る舞いは、前記故人の生前に取得した音声と、その音声を発したときの前記故人の動きに基づく動作であるとよい。例えば、背伸びしながらのあくびや、くしゃみをする前後の手の動きや、口癖を発するときに姿態も癖で動くような場合など、音声と動きが一緒に実行されるような場合、ロボットにさせる振る舞いでもそれらの2つの行為を同時に再現することで、リアリティを高め、本人らしさを醸し出すことができるので良い。個人の動きに基づく動作は、実施形態でも説明するように、故人の動きをそのままコピーする場合と、デフォルメする場合など、各種のものがある。 (4) The behavior may be an operation based on the voice acquired before the deceased's life and the movement of the deceased when the voice is emitted. For example, if the voice and movement are performed together, such as yawning while stretching out, the movement of the hand before and after sneezing, and the appearance of the mustache moving with a spear, let the robot Even in behavior, by reproducing these two actions at the same time, it is possible to improve reality and create personality. As described in the embodiment, there are various types of operations based on individual movements, such as copying a deceased person's movement as it is or deforming it.
(5)前記振る舞いは、家電に対する前記故人らしさに基づく操作とするとよい。家電に対する操作は、人の特徴が良く出るものの一つであり、故人が生前良く行っていた操作を行うことで、故人らしさを醸し出すことができ、その操作に伴い動作する家電の状態から、遺族等は、故人の生前の状況を思い出し、体感することができるので良い。特に、昨今は、家電の操作はリモコンで行うことができ、また、一つのリモコンで複数の家電に対する指示が行えるものもあるので、簡単に実現できる。 (5) The behavior may be an operation based on the deceasedness of home appliances. Operations on home appliances are one of the characteristics of people, and by performing operations that the deceased had done well in life, the deceasedness can be brought about, and from the state of home appliances that operate with that operation, the bereaved family Etc. is good because you can remember and experience the situation before the deceased. In particular, recently, home appliances can be operated with a remote controller, and some remote controllers can give instructions to a plurality of household appliances.
(6) 前記死後一定期間を、複数の適宜の期間に分け、その分けた期間毎に前記疑似憑依機能が行う行為を変えると良い。変える行為は、全て変えても良いし、一部を変えても良い。このように変えことで、例えば、故人が亡くなってから、浄土を経て最終的に成仏するまでの期間では、色々な審判・経験をすることもあり、期間ごとに状況に合った行為を行うことで、成仏に向けて進んで行き、また、成仏したことを遺族等が認識できるので良い。期間は、例えば、週単位で分けても良いし、週単位以外で分けても良く、複数に分けた各期間の長さは等しくても良いし異なっていても良い。成仏するまでの間、所定の7の倍数で法要を行うことが良く行われるので、週単位を基本単位として、1または複数周から一つの期間を構成するとよい。 (6) The fixed period after death may be divided into a plurality of appropriate periods, and the action performed by the pseudo-dependence function may be changed for each divided period. The act of changing may be changed entirely or partly. By changing in this way, for example, during the period from the death of the deceased, through the Pure Land, and finally becoming a Buddha, various referees and experiences may be carried out, and actions appropriate to the situation will be performed for each period It is good because the bereaved family can recognize the fact that they have gone to Buddha, and that they have made Buddha. The periods may be divided, for example, in units of weeks, or may be divided in units other than weeks, and the lengths of the divided periods may be the same or different. Since the law is often performed at a predetermined multiple of 7 until the Buddha is completed, one period may be configured from one or a plurality of laps with the week unit as a basic unit.
(7)前記ロボット本体は、家庭用ロボットとするとよい。家庭用ロボットのプラットフォームを利用すると、簡単に故人憑依用ロボットを構築できるので良い。すなわちゼロからヒト型アンドロイドを開発するものに比べ、遥かに安く速く開発が可能となる。家庭用ロボットは、それぞれ動きを振り付ける等のロボットを動作させるための制御ソフトウェアが提供されているので、それを利用することで例えば振り付けなども簡単に行える。 (7) The robot body may be a home robot. If you use a platform for home robots, you can easily build a robot for the deceased. In other words, it is much cheaper and faster than developing humanoid Android from scratch. As home robots are provided with control software for operating the robots such as choreographing movements, for example, choreography can be easily performed by using the control software.
本発明は、死後一定期間に限りロボットに疑似憑依させることで、故人が亡くなってから成仏するまでの間、遺族が寄り添って生活することができ、遺族は故人の死を受け入れることができ、故人は生前に準備しておくことで安心して成仏することができ、新しい弔いの形となる。 The present invention makes it possible for the bereaved family to live close to each other during the period from the death of the deceased to the establishment of the Buddha by allowing the robot to pseudo-independently for a certain period after death, and the bereaved can accept the death of the deceased. By preparing it before birth, you can grow up with confidence and become a new form of redemption.
以下、本発明の好適な実施形態について図面に基づき、詳細に説明する。なお、本発明は、これに限定されて解釈されるものではなく、本発明の範囲を逸脱しない限りにおいて、当業者の知識に基づいて、種々の変更、修正、改良を加え得るものである。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the present invention is not construed as being limited thereto, and various changes, modifications, and improvements can be made based on the knowledge of those skilled in the art without departing from the scope of the present invention.
図1は、本発明に係るシステムの好適な一実施形態を示している。本システムは、契約対象者の死後一定期間だけ動作するロボット1と、そのロボット1が動作するための情報を提供するサーバ2を備える。ロボット1は、契約対象者である故人が憑依したような振る舞い(疑似憑依)を行う。一定期間は、例えば、49日のように、故人があの世を進み、無事成仏したとされる満中陰に合わせると良い。このようにすると、故人が現世から浄土を経て成仏するまでの期間、遺族等は故人と最後の別れを改めて行い、故人を通して「生と死」について考えることができ、49日を経過するとロボット1が疑似憑依の動作を行わないため、故人が無地成仏したことを遺族等が直感的に理解でき、忌明けを迎えることができるので良い。また、一定期間の経過後は疑似憑依の動作が行われなくなるので、永久に存在することによって故人に執着したままになってしまうことが無くなり、遺族等は故人の死を受け入れ健全に弔いのプロセスを全うすることができる。 FIG. 1 shows a preferred embodiment of the system according to the invention. This system includes a robot 1 that operates only for a certain period after the death of the contract subject, and a server 2 that provides information for operating the robot 1. The robot 1 behaves (pseudo dependent) as if the deceased person who is the contract subject relied on. For a certain period of time, for example, 49 days, the deceased should go through the world, and it is good to match with the full shadow of the successful completion of the Buddha. In this way, during the period from when the deceased passed through the Pure Land to the completion of the Buddha, the bereaved family and others were able to think about “life and death” through the deceased. However, because it does not perform the pseudo-government, the bereaved family can intuitively understand that the deceased has become a solid Buddha, and it can be dismissed. In addition, after a certain period of time, the pseudo-behavioral action will not be performed, so it will not remain attached to the deceased by being permanently present, and the bereaved family will accept the death of the deceased and process a healthy ugly process Can be completed.
ロボット1は、ロボット本体10の頭部10aに、契約対象者である故人に似せたお面11を装着して構成する。ロボット本体10は、例えば市販されている汎用の家庭用ロボット(例えば、Pepper(登録商標),NAO(登録商標)等)を使用すると良く、係る家庭用ロボット・コミュケーションロボットをプラットフォームとして利用することで、システムを安価・簡易に構成することができる。 The robot 1 is configured by mounting a face 11 resembling a deceased person who is a contract subject on the head 10a of the robot body 10. As the robot body 10, for example, a commercially available general-purpose home robot (for example, Pepper (registered trademark), NAO (registered trademark), etc.) may be used, and such a home robot / communication robot may be used as a platform. Therefore, the system can be configured inexpensively and easily.
お面11は、契約対象者の顔面を3Dスキャンし、お面状に3Dデータを加工する。そして、フルカラー樹脂で3Dプリントを行い、製造する。このようにして製造したお面11は、契約対象者である故人の似姿となる(図1(b)参照)。お面11の両側縁に渡るように装着バンド11aの両端を取り付ける。装着バンド11aに、ゴムバンド等の弾力復元力を有する部材を用いると良く、お面11の横幅の長さと、無負荷時の装着バンド11aの全長を加えた長さが、ロボット本体10の頭部10aの全周長よりも短い設定にしている。これにより、装着バンド11aを伸ばした状態で、お面11を頭部10aの前側にセットするとともにその装着バンド11aを頭部10aを周回するように配置する。これにより、装着バンド11aの弾性復元力により、お面11は、頭部10aの前面側にしっかり取り付けられる。 The face 11 scans the face of the contract target person in 3D and processes the 3D data into a face shape. Then, 3D printing is performed using a full-color resin. The face 11 manufactured in this way is similar to the deceased person who is the contract subject (see FIG. 1B). The both ends of the mounting band 11a are attached so as to extend over both side edges of the face 11. A member having elastic restoring force, such as a rubber band, may be used for the mounting band 11a. The length of the width of the surface 11 and the total length of the mounting band 11a when no load is added is the head of the robot body 10. The setting is shorter than the entire circumference of the portion 10a. Thereby, with the mounting band 11a extended, the face 11 is set on the front side of the head 10a and the mounting band 11a is arranged so as to go around the head 10a. Thereby, the surface 11 is firmly attached to the front side of the head 10a by the elastic restoring force of the mounting band 11a.
ロボット1は、制御部20と、入力手段としてのタッチパネル21、マイク22、カメラ23等と、その出力手段としての表示部24、スピーカ25、モータ26等を備える。さらに、ロボット1は、記憶部27、通信部28、外部機器インタフェース29等を備える。制御部20は、入力手段(タッチパネル21、マイク22、カメラ23等)からの入力に伴い所定の処理を実行し、実行結果を出力手段(表示部24、スピーカ25、モータ26等)に出力し、疑似憑依の動作や音声出力・メッセージ情報表示等を行う。ロボット本体10は、胸の前にタブレット12を備えており、上述したタッチパネル21並びに表示部24は、当該タブレット12で構成する。 The robot 1 includes a control unit 20, a touch panel 21 as an input unit, a microphone 22, a camera 23, and the like, a display unit 24 as an output unit, a speaker 25, a motor 26, and the like. Further, the robot 1 includes a storage unit 27, a communication unit 28, an external device interface 29, and the like. The control unit 20 executes a predetermined process in accordance with input from the input means (touch panel 21, microphone 22, camera 23, etc.), and outputs the execution result to the output means (display unit 24, speaker 25, motor 26, etc.). Performs pseudo-going operation, voice output, message information display, etc. The robot body 10 includes a tablet 12 in front of the chest, and the touch panel 21 and the display unit 24 described above are configured by the tablet 12.
モータ26は、ロボット本体10の関節部分に実装するもので、当該モータ26を適宜駆動することで、例えば肘や肩等の関節部分ひいては前腕や上腕を動かしたり、首・腰の関節部分を動かしたりする。 The motor 26 is mounted on the joint portion of the robot body 10, and by appropriately driving the motor 26, for example, the joint portion such as the elbow and the shoulder and the forearm and the upper arm are moved, and the joint portion of the neck and the waist is moved. Or
通信部28は、インターネットその他の公衆回線網3に接続する機能を添える。制御部20は、通信部28を介してサーバ2にアクセスし、疑似憑依を行うために必要な情報を取得し、記憶部27に格納する。 The communication unit 28 has a function of connecting to the Internet or other public line network 3. The control unit 20 accesses the server 2 via the communication unit 28, acquires information necessary for performing pseudo-government, and stores the information in the storage unit 27.
外部機器インタフェース29は、所定の外部機器を接続し、その外部機器に対して指示を与えたり、外部機器からの情報を取得したりするもので、本発明との関係で言うと、外部機器は例えば家電4を操作するためのリモコン5である。ロボット1が疑似憑依を行うための機能等の具体的な構成は、以下の通りである。 The external device interface 29 connects a predetermined external device, gives an instruction to the external device, and acquires information from the external device. In terms of the present invention, the external device is For example, a remote controller 5 for operating the home appliance 4 is used. A specific configuration such as a function for the robot 1 to perform pseudo-going is as follows.
[事前処理]
ロボット本体10が備えるハードウェア構成は、上述した汎用のコミュニケーションロボット・家庭用ロボットなどが備える基本構成をそのまま利用すると良い。そして、本システムを稼働するためには、ロボット1に疑似憑依を行わすためのアプリケーションプログラム(アプリ)をインストールするとともに、そのアプリケーションプログラムを実行する際に使用する情報を記憶部27並びにサーバ2に格納する。そして制御部20は、当該アプリケーションプログラムを実行する。係るアプリケーションプログラム並びに情報を作成するために以下に記載の事前処理を実行する。
[Pre-processing]
The hardware configuration of the robot body 10 may be the same as the basic configuration of the general-purpose communication robot / home robot described above. In order to operate this system, an application program (application) for performing pseudo-independence is installed in the robot 1 and information used when executing the application program is stored in the storage unit 27 and the server 2. Store. Then, the control unit 20 executes the application program. In order to create such an application program and information, the following pre-processing is executed.
契約対象者にインタビュー等をし、疑似憑依を行うための情報を取得する。取得した情報は、例えば初期設定用の端末6に格納する。例えば、システム提供者は、契約対象者や、契約対象者と同居等している家族などと会い、生活習慣などのヒアリングやアンケートをとる。アンケートは、基本属性についてのもので、例えば、インタビューの現場で端末6を用いて入力したり、事前のWebアンケート等を利用したりして取得すると良い。基本情報は、例えば、性別、年齢或いは年代、性格、起床時刻、就寝時刻、宗教等がある。収集したアンケートデータは、サーバ2の契約対象者用の記憶エリアに格納する。 Interview the contracted person, etc., and acquire information for performing pseudo-independence. The acquired information is stored in the terminal 6 for initial setting, for example. For example, the system provider meets a contract target person, a family living with the contract target person, etc., and takes a hearing or a questionnaire about lifestyle habits. The questionnaire is about basic attributes, and may be acquired by using, for example, the terminal 6 at the interview site or using a prior Web questionnaire or the like. Basic information includes, for example, sex, age or age, personality, wake-up time, bedtime, religion, and the like. The collected questionnaire data is stored in the storage area for the contract target person of the server 2.
さらに、契約対象者にインタビューを行い、メッセージや生活音などの音声収録をするとともに、動きのデータを取得する。動きのデータは、例えば、契約対象者が喋っている時によく行う自然な動作、相槌の動き、笑っている時の動き、あくびの動きなどの日常動作等とすると良い。係る日常動作を取得し、その動きをロボット1が再現することで、疑似憑依している様子をより醸し出すことができ、例えば、会話にあわせて契約対象者らしい動作をあわせて行うことで、憑依している感じが出るので良い。 In addition, interviews will be conducted with the contracted persons, voice messages such as messages and life sounds will be recorded, and movement data will be acquired. The motion data may be, for example, a daily motion such as a natural motion often performed when the contracted person is screaming, a motion of companion, a motion of laughing, or a motion of yawning. By acquiring such daily actions and reproducing the movement by the robot 1, it is possible to bring out a state of pseudo-independence. It is good because it feels like you are doing.
収集するメッセージは、例えば、「親しい人への遺言や伝言」や「生前によく話していた事、口癖、その人が言いそうなこと」や「死後の自分や、ロボットになった自分を想定したコメント類」などがある。係る収集したメッセージは、死後一定期間の適宜のタイミングで、ロボット1がマイク22から音声出力し、遺族がそれを聞く。 The messages we collect include, for example, “wills and messages to close people”, “what we talked about before our life, mustaches, what that person is likely to say” and “self after death or who became a robot” Comments ". The collected messages are output from the microphone 22 by the robot 1 at an appropriate timing in a certain period after death, and the bereaved family listens to the messages.
収集したメッセージの一例としては、「親しい人への遺言や伝言」は、例えば「誰々に何をあげるなどの具体的な遺言の内容」や、「身体に気をつけて、夜はちゃんと寝て下さい。」等の相手へいたわる言葉や、「今までありがとう」などの感謝の言葉などの他、自由な内容となる。契約対象者が、親しい人への遺言や伝言を考えることで、自分の人生や死について考えるきっかけになる。そしてメッセージを用いた遺言は、正式なものとしては認められないものの正規の遺言状に対する補完情報や、よりリアルで臨場感ある形で「遺言」を残すことができる。 Examples of collected messages include “wills and messages to close friends” such as “contents of specific wills such as what to give to anyone” and “be careful of your body and sleep properly at night. Please feel free to say anything to the other party, such as "Thank you so far." The contracted person thinks about his life and death by thinking about his will and message to his close friend. Although the will using the message is not recognized as a formal one, it can leave supplemental information for the regular will and the “will” in a more realistic and realistic manner.
また、「生前によく話していた事、口癖、その人が言いそうなこと」は、例えば、「ビール飲みたいな〜、ビール」,「こら、ちゃんとしなさいよ」等である。このような内容をロボット1が話すことで、疑似憑依している感じがより強く表現でき、それを聞いた遺族は、故人の生前のことを思い出し、懐かしむことができるとともに、思い出話などをするきっかけとなり、親しい人の急な死等に対して納得ができ、上手なお別れをすることができる。 In addition, “what I talked about before my life, mustache, what the person is likely to say” is, for example, “I want to drink beer, beer”, “Kora, do it properly”. When the robot 1 speaks such a content, it can express the feeling of pseudo-dependence more strongly, and the bereaved family who hears it can remember and remember the life of the deceased, and make a memorable story. As a trigger, I can be satisfied with the sudden death of a close person, and I can say goodbye.
「死後の自分や、ロボットになった自分を想定したコメント類」は、例えば「身体がないって割といいよ」や「こっちはもう、三途の川越えたからね」等である。このようなメッセージを発することで、遺族に対して故人が既に亡くなったことあらためて認識させたり、徐々に成仏に近づいていることを認識させたりすることができる。 “Comments on the assumption of myself after death or who became a robot” are, for example, “It ’s good if you do n’t have a body” or “This is because I already crossed the Sanzu River”. By issuing such a message, the bereaved family can be reminded again that the deceased have already died, or can gradually be recognized as approaching the Buddha.
収集する生活音は、例えば日々の暮らしで発生する音である。このような音は、音声合成では生成しにくく、音声合成によると違和感が生じる音であるので契約対象者の肉声を記録し、使用するようにした。例えば、「日常動作に付随して発生する音(例えば、くしゃみ、いびき、あくび等)」や「相槌、肯定/否定のどうとでも取れる返答等(例えば、あーわかるわかる、なるほどなるほど、マジでー? うんうん等)」や「喜怒哀楽を表現する音声(例えば、笑い声、怒った声等)」などがある。上記の相槌・返答等は、汎用性の高い応答として利用するのに適する。また、これらの生活音は、好ましくは、契約対象者が良く使うものとすると良い。例えば、相槌・返答等も、生前から契約対象者が口癖のように使うフレーズ等を収集することで、それを再生すると、故人がロボット1に疑似憑依して実際に会話している感じがより高まる。 The collected living sounds are sounds generated in daily life, for example. Such a sound is difficult to generate by voice synthesis, and the voice synthesis causes a sense of incongruity, so the contractor's real voice was recorded and used. For example, “sounds that accompany daily actions (eg, sneezing, snoring, yawning)” or “answers that can be taken regardless of affirmation, affirmation / denial, etc. (for example, I understand. And so on "and" voices expressing emotions (for example, laughter, angry voices, etc.) ". The above-mentioned interaction / response is suitable for use as a highly versatile response. Also, these life sounds are preferably used by the contracted person. For example, as for the answer / answer, etc., by collecting phrases etc. used by the contracted person like a habit from the beginning of life, and playing it back, the feeling that the deceased is actually talking to the robot 1 in a pseudo manner Rise.
上述のようにして収集したメッセージや生活音等の契約対象者の生身の音声は、ローカル用データとして格納する。このローカル用データへの格納は、最終的には、ロボット本体10の記憶部27の会話データ記憶部27aに行う。そして、会話データ記憶部27aへ格納は、例えば端末6を直接ロボット本体10と接続して実行しても良いし、例えば、サーバ2の契約対象者用の記憶エリアに格納しておき、公衆回線網3を経由してロボット本体10にダウンロードしてもよい。また、会話データ記憶部27aへ格納するタイミングは、死後一定期間が始まる前の事前に行っても良いし、死後一定期間が開始するときに行っても良い。 The raw voice of the contracted person such as messages and life sounds collected as described above is stored as local data. The storage to the local data is finally performed in the conversation data storage unit 27a of the storage unit 27 of the robot body 10. The conversation data storage unit 27a may be stored, for example, by connecting the terminal 6 directly to the robot body 10, or stored in the storage area for the contract target person of the server 2, for example. You may download to the robot main body 10 via the network 3. In addition, the timing of storing in the conversation data storage unit 27a may be performed in advance before the fixed period after death starts, or may be performed when the fixed period after death starts.
契約対象者の動きのデータの取得は、モーションキャプチャを利用したデータ取得と、ビデオカメラを用いた映像データの取得がある。これらの方法により取得した動きのデータに基づき、ロボット1に対する振り付けを行う。この振り付け処理は自動振り付けと手動振り付けの2パターンがある。すなわち、モーションキャプチャを利用して取得したデータに基づき、自動振り付けを行う。 The acquisition of the movement data of the contract target person includes data acquisition using motion capture and video data acquisition using a video camera. Based on the movement data acquired by these methods, the robot 1 is choreographed. This choreography process has two patterns, automatic choreography and manual choreography. That is, automatic choreography is performed based on data acquired using motion capture.
自動振り付けを行うためのデータの取得は、例えば、Kinect(キネクト)その他各種のモーションセンサーデバイスを用いるとよい。Kinect(キネクト)は、契約対象者の身体の各部の位置情報から契約対象者の姿勢情報として姿勢表現に利用するクォータニオン(四元数)を出力するので、それを端末6に格納する。端末6は、操作者からの指示により、自動振り付けをさせたい動作に対応する姿勢情報を、ロボット本体10の姿勢制御のためのソフトウェア(例えば、Choregraph)に連係し、例えば、ロボット本体10の肩と肘のベクトル、肘から手首のベクトル、手首のひねりのベクトル等の各パーツの姿勢を再現し、そのロボット本体10の各パーツの座標データをCSVに吐き出しローカル用データとして格納する。ロボット本体10を汎用のコミュニケーションロボット等を用いることで、当該ロボット用として提供されている姿勢制御のためのソフトウェアを利用し、ロボット本体10に対して簡単に自動振り付けを行うことができる。 For example, Kinect or other various motion sensor devices may be used to acquire data for performing automatic choreography. Kinect outputs a quaternion (quaternion) used for posture expression as posture information of the contract subject from the position information of each part of the contract subject's body, and stores it in the terminal 6. In response to an instruction from the operator, the terminal 6 links posture information corresponding to an operation desired to be automatically choreographed to software for controlling the posture of the robot body 10 (for example, Choregraph). The posture of each part such as the elbow vector, the elbow-to-wrist vector, and the wrist twist vector is reproduced, and the coordinate data of each part of the robot body 10 is discharged to the CSV and stored as local data. By using a general-purpose communication robot or the like for the robot body 10, it is possible to easily perform automatic choreography on the robot body 10 using the posture control software provided for the robot.
例えば、手動振り付けは、契約対象者の動きそのものではなく、例えば、契約対象者の動きをデフォルメしてロボット本体10に振り付けを行う場合等に使用する。例えば、音声収録中等において、契約対象者の特有の変わった仕草があった場合、その仕草の動きが地味でそのままモーションキャプチャして自動振り付けを行うと、わかりにくい場合等は、それを映像撮影し、デフォルメして、大げさに誇張した動きを演出することで、故人らしさを主張する特有の仕草を、遺族等に対してわかりやすく伝えることができる。この手動振り付けは、例えば、撮影映像等をもとにデフォルメした動きを現すアニメーションを作成し、そのアニメーションに基づきロボット本体10の姿勢制御のためのソフトウェアを用いて手動振り付けする。係るアニメーションは、姿勢制御のためのソフトウェア上で作成し、それに基づいてロボット本体10に振り付けると良い。アニメーションを作成することで、ロボット本体10に所望の動きをさせることができるので、例えば、地味でわかりにくい動作に限ることはなく、例えば、契約対象者に動作を再現させると危険な動きなども手動振り付けを利用することで、ロボット1は再現できるので良い。 For example, the manual choreography is not used for the contract subject's movement itself, but is used when, for example, the contract subject's motion is deformed and the robot body 10 is choreographed. For example, if there is an unusual gesture of the contracted person during audio recording, etc., if the movement of the gesture is plain and motion capture is performed as it is and it is difficult to understand, the video is taken. By deforming and directing exaggerated movements, it is possible to convey to the bereaved family, etc., a unique gesture that insists on the deceasedness. In this manual choreography, for example, an animation showing a deformed motion based on a photographed image or the like is created, and manual choreography is performed using software for posture control of the robot body 10 based on the animation. Such an animation may be created on software for posture control, and may be choreographed to the robot body 10 based on the animation. By creating an animation, the robot body 10 can make a desired movement. For example, the movement is not limited to a plain and difficult to understand operation. The robot 1 can be reproduced by using manual choreography.
このように手動振り付けにより設定したロボット本体10の姿勢制御に関するデータもローカル用データとして格納する。このローカル用データへの格納は、最終的には、ロボット本体10の記憶部27のモーションデータ記憶部27bに行う。そして、会話データ記憶部27aへ格納は、例えば端末6を直接ロボット本体10と接続して実行しても良いし、例えば、サーバ2の契約対象者用の記憶エリアに格納しておき、公衆回線網3を経由してロボット本体10にダウンロードしてもよい。また、会話データ記憶部27aへ格納するタイミングは、死後一定期間が始まる前の事前に行っても良いし、死後一定期間が開始するときに行っても良い。 Data relating to posture control of the robot body 10 set by manual choreography in this way is also stored as local data. The storage to the local data is finally performed in the motion data storage unit 27b of the storage unit 27 of the robot body 10. The conversation data storage unit 27a may be stored, for example, by connecting the terminal 6 directly to the robot body 10, or stored in the storage area for the contract target person of the server 2, for example. You may download to the robot main body 10 via the network 3. In addition, the timing of storing in the conversation data storage unit 27a may be performed in advance before the fixed period after death starts, or may be performed when the fixed period after death starts.
インタビューの現場では、上述した定型的なメッセージやそれに伴う動きに加え、変わった・特徴的な生活習慣がないかを聞き出し、ある場合には契約対象者にそれを再現してもらい、それに伴う音声や挙動を収録する。そして、収録した情報に基づき、端末6が、上述した処理を行い、ロボット本体10の振り付け処理、すなわち、ロボット本体10が所望の動きを行う姿勢制御をするためのデータを生成し、ローカル用データとして格納する。係る生活習慣は、例えば、「夕方に筋トレをする」、「ラップの練習が日課」、「寝る前にヨガをする」等がある。上記例示したように、動作が特定の時間帯に行われる場合、動きに伴う姿勢制御のためのデータに関連づけて、その動きを行う時間帯の情報も関連付けて格納する。また、例えば「ラップの練習」では、ラップの際に行う身振り・手振りに加え、実際にラップを何件か言ってもらい、会話データをあわせて収録する。 At the interview site, in addition to the above-mentioned standard message and the accompanying movements, it is checked if there are any unusual / characteristic lifestyles. And record behavior. Then, based on the recorded information, the terminal 6 performs the above-described processing, generates choreography processing for the robot body 10, that is, data for controlling the posture in which the robot body 10 performs a desired movement, and the local data Store as. Such lifestyle habits include, for example, “exercising muscles in the evening”, “practicing laps daily”, “practicing yoga before going to bed”, and the like. As illustrated above, when the operation is performed in a specific time zone, information on the time zone in which the motion is performed is also stored in association with the data for posture control accompanying the motion. For example, in “Lap Practice”, in addition to gestures and gestures that are performed during laps, some laps are actually told, and conversation data is also recorded.
このようにラップに限らず、上述した動きのデータの取得と音声収録と同時に行った場合、動きと会話データを関連づけて記憶する。このように関連づけることで、音声収録した時の音声を再生するときにあわせてロボット1が特有の動きを行うことで、よりリアリティが増すので良い。 In this way, not only the lap but also the above-described movement data acquisition and voice recording are performed simultaneously, the movement and conversation data are stored in association with each other. By associating in this way, the robot 1 performs a specific movement in accordance with the reproduction of the sound when the sound is recorded, so that the reality may be further increased.
本実施形態では、上述したようにノンバーバルコミュニケーションの要素も取り入れることで、ロボット1が、より故人らしさを醸し出すことができ、遺族等がより感情移入できるようにした。ノンバーバルな身体的特徴の情報として、「顔」、「声」、「身振り」、「生活習慣」などの身体データを採用する。「顔」については、上述したように契約対象者の顔面を3Dスキャンしてデータを取得する。 In the present embodiment, as described above, by incorporating the elements of non-verbal communication, the robot 1 can bring out the character of the deceased and the bereaved family can be more emotionally transferred. As non-verbal physical feature information, body data such as “face”, “voice”, “gesture”, “lifestyle” is adopted. As for “face”, as described above, the face of the contract target person is 3D scanned to obtain data.
図2,図3は、本システムを死後一定期間に実際に動作させるデータ構造に着目した図である。サーバ2内には、初期設定の際に取得したアンケート結果を格納するアンケートデータ類記憶部2aと、会話を行うためのデータを格納する音声合成用テキスト類記憶部2bと、宗教関連のデータを格納する宗教関連データ類記憶部2cを備える。ロボット本体10の記憶部27内には、インタビュー時に取得した契約対象者である故人の音声等を格納する会話データ記憶部27aと、ロボット本体10を所定の動きをさせるための姿勢制御に関するデータを格納するモーションデータ記憶部27bを備える。そしてそれら各記憶部内には、図3に示す具体的な項目類等が格納される。 2 and 3 are diagrams focusing on the data structure that actually operates the system in a certain period after death. In the server 2, a questionnaire data storage unit 2a for storing a questionnaire result acquired at the time of initial setting, a speech synthesis text storage unit 2b for storing data for conversation, and religious data are stored. A religion-related data storage unit 2c is provided. In the storage unit 27 of the robot main body 10, conversation data storage unit 27a that stores the voice of the deceased person who is the contract subject acquired during the interview, and data related to posture control for causing the robot main body 10 to perform a predetermined movement are stored. A motion data storage unit 27b is provided. Each of these storage units stores specific items shown in FIG.
[死後一定期間の処理機能]
先に述べたとおり、本システムは、契約対象者である故人の死後一定期間にわたり、ロボット1に故人が疑似憑依したように動作し、一定期間経過後は動作しないことを特徴としている。以下、係る動作を行うための機能を説明する。
[Processing function for a certain period after death]
As described above, the present system is characterized in that the deceased manipulates the robot 1 for a certain period after the death of the deceased person who is the contract subject and does not operate after a certain period. Hereinafter, functions for performing the operation will be described.
契約対象者が亡くなった場合、本システムを実施するためのロボット1を故人或いは遺族の自宅等に設置する。この設置は、例えば、遺族がシステム提供者に契約対象者が亡くなったことを伝え、それに伴いロボット本体10とお面11を当該自宅等の指定された場所に配送する。当該ロボット本体10とお面11を受け取った遺族等は、お面11をロボット本体10の頭部10aに装着してロボット1を室内の所定位置に置くとともに、ロボット本体10の電源をONにして起動する。なお、お面11は、システム提供者側で予めロボット本体10に装着した状態のロボット1を配送しても良い。 When the contracted person dies, the robot 1 for implementing this system is installed in the deceased or the family of the deceased. In this installation, for example, the bereaved family informs the system provider that the contract subject has died, and accordingly, the robot body 10 and the face 11 are delivered to a designated place such as the home. The survivor who received the robot body 10 and the face 11 attaches the face 11 to the head 10a of the robot body 10 and places the robot 1 at a predetermined position in the room, and turns on the power of the robot body 10 to start up. To do. In addition, as for the surface 11, you may deliver the robot 1 of the state with which the system provider side was previously mounted | worn with the robot main body 10. FIG.
制御部20は、日々、図4に示す基本フローチャートを実行する。制御部20は、ロボット本体10が備える内部時計に基づき、起動時刻判定を行う(S1)。アンケートで取得した故人の起床時刻を過ぎたか否かを判断し、過ぎた場合には次の処理ステップに移行し、起き上がる動作を行う(S2)。起き上がる動作は、例えば、ロボット1の動きや、発声などとするとよく、特に、故人が起床時に良く行っていた所作や口癖等がある場合、それを再現すると良い。本実施形態のロボット本体10は、二足歩行はできず、ロボット本体10が寝転んだり、そこから立ち上がったりすることができない。そこで例えば、就寝中は、腰から上半身を前方に曲げ、さらに首も前方に曲げてうなだれているような姿勢を採るようにした場合、例えば起き上がる動作は、うなだれているような就寝中の姿勢から、腰並びに首をまっすぐにして正面を向く姿勢にすることなどがある。係る動作は、上記のものに限ることはなく、就寝中から起きた状態に遷移したことがわかるように、何かしらのアクションを行うと良い。「起きたよ」とか「おはよう」などの音声の発声でも良いが、音声単独の処理では、遺族がその音声を聞き逃す可能性があるので、就寝中と、起きているときの姿勢自体が異なるようにすると良く、起き上がる動作は、少なくとも就寝中姿勢から、起きているときの姿勢に変わる動作とすると良く、さらに、単純に2つの姿勢の間の変化だけでなく、より大きい動きを途中で入れると、起き上がった感じがするので良い。 The control unit 20 executes the basic flowchart shown in FIG. 4 every day. The control unit 20 determines the activation time based on the internal clock provided in the robot body 10 (S1). It is determined whether or not the wake-up time of the deceased obtained by the questionnaire has passed, and if it has passed, the process proceeds to the next processing step and the operation of getting up is performed (S2). For example, the motion of getting up may be a movement of the robot 1 or utterance. In particular, when there is an action or a moustache that the deceased often performed when waking up, it may be reproduced. The robot body 10 of the present embodiment cannot walk on two legs, and the robot body 10 cannot lie down or stand up from there. So, for example, when sleeping, the upper body is bent forward from the waist and the neck is also bent forward, so that, for example, the motion to get up is from the sleeping posture, In some cases, the waist and neck are straightened to face the front. Such an operation is not limited to the above, and it is preferable to perform some kind of action so that it can be seen that the state has transitioned to the state awakened from sleeping. Voices such as “I woke up” or “Good morning” may be used, but in the case of voice-only processing, the bereaved family may miss the voice, so the posture when sleeping is different from the posture when waking up. It is better to move up from at least the sleeping posture to the posture when waking up, and not only to change between the two postures, but also to put a larger movement in the middle. It ’s good because it feels like getting up.
係る起き上がる動作を行った後は、日中の活動を行う(S3)。日中の活動は、インタビュー時に取得した日課としている所作があれば、現在時刻に基づく日課に伴う動きや発声を行う。また、口癖や、良く行う動作があれば、適宜のタイミングでそれを実行させ、また、適宜のタイミングで遺族との間で会話を行う。 After performing such a rising operation, daytime activities are performed (S3). In the daytime activity, if there is a daily work acquired at the time of the interview, movements and voices accompanying the daily work based on the current time are performed. Also, if there is a mustache or a frequently performed operation, it is executed at an appropriate timing, and a conversation with the bereaved family is performed at an appropriate timing.
さらに、制御部20は、ロボット本体10が備える内部時計に基づき、就寝時刻判定を行う(S4)。アンケートで取得した故人の就寝時刻を過ぎたか否かを判断し、過ぎた場合には次の処理ステップに移行し、就寝の動作を行う(S5)。分岐判断のS4でYesになるまで、処理ステップS3とS4は適宜繰り返し行う。就寝の動作は、上述した起き上がる動作(S2)と同様に、ロボット1の動きや、発声などとするとよく、特に、故人が就寝時に良く行っていた所作や口癖等がある場合、それを再現すると良い。そして、この就寝の動作は、起き上がる動作とは逆に、例えば、起きているときの姿勢から就寝中の姿勢に変化する動きとすると良い。 Further, the control unit 20 determines the bedtime based on the internal clock provided in the robot body 10 (S4). It is determined whether or not the bedtime of the deceased obtained by the questionnaire has passed, and if it has passed, the process proceeds to the next processing step, and a bedtime operation is performed (S5). The processing steps S3 and S4 are repeated as appropriate until the branch determination at S4 becomes Yes. The sleeping operation may be the movement of the robot 1 or utterance, similar to the above-described rising operation (S2). In particular, when there is an action or a mustache that the deceased often performed at bedtime, good. The sleeping operation is preferably a motion that changes from a posture when waking up to a sleeping posture, for example, contrary to the operation of getting up.
上述した各処理の基本フローは、開始1日目から49日目まで共通で繰り返す。そして、初日にロボット本体10の電源をONにして起動したら、49日間経過するまでON状態を継続する。また、後述するように、制御部20は、初日の電源ONに伴い、ロボット1に疑似憑依、最終日の49日のときに成仏する処理をそれぞれイレギュラーに実行する。 The basic flow of each process described above is repeated in common from the first day to the 49th day. When the robot body 10 is turned on and started on the first day, the ON state is continued until 49 days have elapsed. In addition, as will be described later, the control unit 20 irregularly executes the process of artificially relying on the robot 1 and completing the Buddha on the 49th day of the final day when the power is turned on on the first day.
図5は、毎日実行するより具体的な処理フローを示している。同図に示すように、制御部20は、内部データを持っているか否かを判断する(S10)。係る処理は、記憶部27に、日々行うコンテンツ等のデータが格納されているか否かをチェックする。格納されていない場合(S10の分岐判断がYes)、今回が初回起動時であり、サーバ2にアクセスし、全期間のコンテンツをサーバ側からダウンロードする。 FIG. 5 shows a more specific processing flow executed every day. As shown in the figure, the control unit 20 determines whether or not it has internal data (S10). In this process, it is checked whether or not data such as contents to be performed every day is stored in the storage unit 27. If it is not stored (S10 branch decision is Yes), this time is the first activation, the server 2 is accessed, and the content for the entire period is downloaded from the server side.
このダウンロード要求に伴い、サーバ2は、例えば図6に示すサーバ2側のデータ処理を実行し、必要なコンテンツ・データを生成する。制御部20は、ダウンロードしたコンテンツ・データを、記憶部27に格納する。記憶部27に格納することで、死後一定期間にわたり、サーバ2にアクセスすることなくローカルで疑似憑依の処理が行えるようになる。 In response to this download request, the server 2 executes data processing on the server 2 side shown in FIG. 6, for example, and generates necessary content data. The control unit 20 stores the downloaded content data in the storage unit 27. By storing the data in the storage unit 27, it becomes possible to perform a pseudo interrogation process locally without accessing the server 2 for a certain period after death.
サーバ2の制御部は、アンケートデータ類記憶部2aにアクセスし、格納されたアンケートのデータ中の年齢性別をピックアップし、それに基づきロボットの基本アニメーションすなわち動きを選定する。また、サーバ2の制御部は、音声合成用テキスト類記憶部2bにアクセスし、死後一定期間の適宜のタイミングで発声するテキストデータを取得するとともに、契約対象者の年齢性別に基づき取得したテキストデータを加工する。例えば、基本の構成文に対して、年齢性別で一人称や語尾を変化させる加工を行う。一例として、基本の構成文が「○○はこう思う△△」の場合、一人称の○○の部分に、女性なら「私」、男性なら「僕」、老人なら「わし」をあてはめる。また語尾の△△の部分に、女性なら「わ」、男性なら「ぞ」、老人なら「んじゃ」をあてはめる。これにより、例えば契約対象者が女性の場合、基本構成文から「私はこう思うわ」というテキスト文が生成される。 The control unit of the server 2 accesses the questionnaire data storage unit 2a, picks up the age and gender in the stored questionnaire data, and selects the basic animation, that is, the movement of the robot based on the age and sex. Further, the control unit of the server 2 accesses the text-to-speech text storage unit 2b, acquires text data uttered at an appropriate timing in a certain period after death, and text data acquired based on the age characteristics of the contract target person Is processed. For example, the basic composition sentence is processed to change first person and ending by age and gender. As an example, if the basic sentence is “I think this is △△”, the first person's XX part is “I” for women, “I” for men, and “I” for the elderly. In the △△ part at the end of the word, apply “wa” for women, “zo” for men, and “nja” for elderly people. Thereby, for example, when the contract subject is a woman, a text sentence “I think so” is generated from the basic composition sentence.
さらに、契約対象者がTwitterやLINEを行っていた場合、Twitter APIからダウンロードした当人のツイート履歴や、LINEのトーク履歴テキストを音声合成用テキスト類記憶部2bに格納しておく。そして、サーバ2の制御部は、それらツイート履歴やトーク履歴のテキストデータからマルコフ連鎖を利用して新たな文章を生成する。このようにして生成した文章は、やや破綻しているため、サブテキストとして補足的に利用するとよい。なお、特に契約対象者が老人・高齢者の場合、やや破綻した文章がかえってぼけた感じを醸し出すので良い。 Further, when the contract target person is performing Twitter or LINE, the person's tweet history or LINE talk history text downloaded from the Twitter API is stored in the speech synthesis text storage unit 2b. And the control part of the server 2 produces | generates a new sentence using the Markov chain from the text data of those tweet log | history and talk log | history. Since the sentence generated in this way is somewhat broken, it is better to supplementarily use it as a subtext. In particular, if the contracted person is an elderly person or an elderly person, the broken text may be slightly blurred.
サーバ2の制御部は、このようにして加工・生成した音声合成用テキストについて、AITalk(登録商標)などの音声合成用外部サーバ8にリクエストし、外部サーバで音声データを作成する。そして、そのようにして作成した音声データのファイル(oggファイル)をロボット本体10(ローカル)にダウンロードする。 The control unit of the server 2 requests the speech synthesis external server 8 such as AITalk (registered trademark) for the speech synthesis text processed and generated in this way, and creates speech data in the external server. The voice data file (ogg file) created in this way is downloaded to the robot body 10 (local).
さらにサーバ2の制御部は、アンケートデータ類記憶部2aに格納された宗教観、すなわち、故人が信仰している宗教を取得し、宗教関連データ類記憶部2cにアクセスし、故人の宗教観に基づいた音声・動画データ郡を抽出してダウンロードする。音声データは、例えば宗教観に対応する初七日、二七日、……四十九日の各法要の読経等がある。動画データは、例えば宗教観に対応する浄土の世界を現す映像などがある。 Further, the control unit of the server 2 acquires the religion view stored in the questionnaire data storage unit 2a, that is, the religion that the deceased believes, accesses the religion related data storage unit 2c, and changes the religion view of the deceased. Extract and download the audio / video data group based on it. The audio data includes, for example, the reading of each legal requirement on the first seven days, twenty-seventh, ... forty-nine days corresponding to the view of religion. The moving image data includes, for example, an image showing the world of Jodo corresponding to the view of religion.
さらに、コンテンツを再生・出力するイベント開始時刻等の情報もダウンロードする。また、ダウンロードに伴い、制御部20は、基準日時情報をセットする。基準日時情報は、死後一定期間の起算日時となり、その起動日時から49日間動作する。基準日時情報は、例えば、制御部20が内部時計から当該ダウンロードした時の日時を取得し、その日時に基づき基準日時情報とする。 Furthermore, information such as an event start time for reproducing / outputting the content is also downloaded. Further, along with the download, the control unit 20 sets reference date information. The reference date and time information is a starting date and time of a certain period after death, and operates for 49 days from the starting date and time. The reference date / time information is obtained, for example, as the reference date / time information based on the date / time when the control unit 20 acquires the date / time of the download from the internal clock.
上述した処理ステップS11のデータダウンロード処理は、初回起動時に行われ、それ以降は、S10の分岐判断はYesになるので、処理ステップS12に進み、制御部20は、起動日数を確認し、起動日数に応じた必要なコンテンツのデータを参照する。この起動日数に応じた必要なコンテンツについては後述する。起動日数は、現在日時と、基準日時情報とに基づき求める。例えば、基準日時情報の起算日時から24時間経過するまでは1日となる。以後、24時間経過する毎に1日加算される。起算日時は、上述したようにダウンロードした日時に限ることはなく、例えば、電源を最初にONし、制御部20が本システムのアプリを起動した日時を使用しても良いし、或いは、故人の実際のなくなった日時を登録するようにしてもよい。亡くなった日時を登録するようにすると、実際に成仏するタイミングで死後一定期間が終了するので、よりリアリティが増すので良い。一方、本実施形態のようにダウンロードした日時を利用すると、ダウンロードして実際にロボット1が疑似憑依の動きができるようになってから、一定期間(例えば49日間)にわたり疑似憑依させることができるので、遺族にとって故人とお別れをするのに十分な時間を確保できるので良い。また、ダウンロードや電源ONなどの日時を利用することで、基準日時情報の登録処理が自動的に行われるので、本システムを利用する遺族等は、ロボット本体10の電源をONするだけでよく簡単にシステムを利用できて良い。 The data download process of the above-described process step S11 is performed at the time of the first activation, and thereafter, the branch determination of S10 is Yes, so the process proceeds to process step S12, and the control unit 20 confirms the activation days, and the activation days. Refer to the data of necessary contents according to. Necessary contents corresponding to the number of startup days will be described later. The number of activation days is obtained based on the current date and the reference date information. For example, it is one day until 24 hours have passed since the date and time of the reference date and time information. Thereafter, every 24 hours, one day is added. The date and time of calculation is not limited to the date and time of download as described above. For example, the date and time when the power source is first turned on and the control unit 20 starts the application of this system may be used. The actual date and time may be registered. If the date and time of death are registered, a certain period after death ends at the timing when the Buddha is actually matured, which may increase reality. On the other hand, when the downloaded date and time is used as in the present embodiment, the robot 1 can be made to perform pseudo-depending for a certain period of time (for example, 49 days) after the robot 1 can actually perform the pseudo-dependent movement after downloading. It ’s good for the bereaved family to have enough time to say goodbye to the deceased. In addition, since the registration process of the reference date / time information is automatically performed by using the date / time such as download or power ON, the survivors who use this system need only turn on the power of the robot body 10 and it is easy. It is good to be able to use the system.
次に制御部20は、所定の起床時刻になったかを判定する(S13)。この判定処理は、図4の基本フローにおける起動時刻判定(S1)と同様である。サーバ2からダウロードした故人の起床時刻を過ぎたか否かを判断し、過ぎた場合には次の処理ステップに移行し、起き上がる動作を行う(S14)。この起き上がる動作は、上述したとおり、ロボット1の動きや、発声などにより実現する。そして、就寝中の姿勢は、ロボット1は両腕を下げてうなだれているような姿勢をとり、起床後の昼間の起きているときは、図1等に示すように起立した姿勢をとる。そして起き上がる動作としては、「大きくのびをする」動作を行い、目覚めの感じを出すと良い。「大きくのびをする」の具体的な動作は、例えば、両手を挙げて万歳をするとともに、上半身を後ろにそるように腰部分の関節と首の部分の関節を後ろ方向に曲げると良い。また、このとき「ふわぁ〜」などの目覚めの時に発する声を同時に実行するとなお良い。この起き上がる動作を実行後、図1に示すような起きているときの姿勢に変位する。 Next, the control unit 20 determines whether a predetermined wake-up time has been reached (S13). This determination process is the same as the activation time determination (S1) in the basic flow of FIG. It is determined whether or not the wake-up time of the deceased who has been downloaded from the server 2 has passed, and if it has passed, the process proceeds to the next processing step and the operation to get up is performed (S14). As described above, this rising motion is realized by the movement of the robot 1 or the utterance. The sleeping posture is such that the robot 1 is nodded with both arms lowered, and when standing up in the daytime after waking up, the robot 1 stands upright as shown in FIG. And as an action to get up, it is better to perform a "large stretch" action to give a feeling of awakening. The specific action of “stretching greatly” is, for example, to raise both hands, and bend the joints of the waist part and the neck part in the backward direction so as to sway the upper body backward. At this time, it is better to simultaneously execute a voice uttered at the time of awakening, such as “Fuwa ~”. After executing this rising motion, the posture is shifted to the posture when it is standing as shown in FIG.
この後、日中は、会話待ち受けモードに移行し(S15)、会話の開始トリガーがあるか否か(S16)、並びに所定のイベントの開始時刻になったか否か(S17)、就寝時刻になったか否か(S18)の判断を行う。そして、会話の開始トリガーがあると(S16の分岐判断がYes)、会話モードが発動し、ランダムカンバセーション(疑似会話)を実行する。また、所定のイベントの開始時刻になると(S17の分岐判断がYes)、任意のイベントが発動する。そして、就寝時刻になると(S18の分岐判断がYes)就寝モードになり、会話、イベントの発動を停止し、就寝の動作を実行する(S19)。この就寝の動作は、S5における動作同様であり、両手をおろし、うなだれているように上半身並び頭を前に傾ける姿勢に変位する。また、例えば「お休み〜」、「先に寝るぞ」等の就寝時に声かけの口癖があれば、就寝の動作に合わせて、発生すると良い。 Thereafter, during the daytime, the mode shifts to the conversation standby mode (S15), whether there is a conversation start trigger (S16), whether a predetermined event start time is reached (S17), and the bedtime. It is determined whether or not (S18). If there is a conversation start trigger (S16 branch decision is Yes), the conversation mode is activated and a random conversation (pseudo conversation) is executed. In addition, when a predetermined event start time is reached (Yes in S17), an arbitrary event is activated. When the bedtime is reached (Yes in S18 branch determination), the bedtime mode is entered, conversation and event activation are stopped, and the bedtime operation is executed (S19). This sleeping operation is the same as the operation in S5, and both hands are lowered and the upper body is lined up and the head is tilted forward as if lying. Further, for example, if there is a mustache that speaks at bedtime, such as “sleeping” or “sleep first”, it may be generated in accordance with the bedtime operation.
会話モードの発動に伴い実行するランダムカンバセーション(疑似会話)は、制御部20が図7,図8に示す処理フローを実施することで実現する。図7に示すように基本的な処理フローは、ロボット1側からスピーカ25を介して発話し(S21)、その発話を聞いた遺族等がその発話に対する応答をすると、ロボット1側の制御部20がマイク22を貸して取得したその応答の音声を認識し(S23)、応答の意図を判定し(S24)、それに対応する任意の音声データを、スピーカ25を介して発話する(S25)ことで疑似会話を行う。 Random conversation (pseudo-conversation) executed in response to the conversation mode is activated by the control unit 20 executing the processing flow shown in FIGS. As shown in FIG. 7, the basic processing flow is as follows. When the robot 1 side speaks through the speaker 25 (S21), and the bereaved who heard the speech responds to the speech, the control unit 20 on the robot 1 side. Recognizes the response voice acquired by lending the microphone 22 (S23), determines the intention of the response (S24), and utters any corresponding voice data through the speaker 25 (S25). Have a pseudo-conversation.
係る基本的な処理を実施するためのより具体的な処理フローは、図8に示すようにするとよい。まず、処理ステップS16がYESとなる「会話の開始トリガー」は、例えば初期に設定する「故人の名前」を呼びかける(例えば「えつこ」等)等の音声に基づくものや、ロボット1の肩を叩くなどの物理的な衝撃に基づくものなどがある。 A more specific processing flow for carrying out such basic processing may be as shown in FIG. First, the “conversation start trigger” in which the processing step S16 is YES is based on a voice such as calling an “deceased person name” (for example, “Etsuko”) set in the initial stage or hitting the shoulder of the robot 1. There are things based on physical shocks.
トリガー発動により会話モードが開始すると、ロボット側から発話する(S21)。すなわち、制御部20は、会話データ記憶部27aをアクセスし、メッセージ等の故人の肉声や音声合成により作成した音声ファイルから、適当なセンテンスを抽出し、そのセンテンスを発話する。 When the conversation mode is started by trigger activation, the robot speaks (S21). That is, the control unit 20 accesses the conversation data storage unit 27a, extracts an appropriate sentence from a voice file created by voice or voice synthesis of a deceased person such as a message, and utters the sentence.
制御部20は、遺族等からの発話を待つ(S22)。そして一定時間(例えば20秒以内)に応答がなかった場合(S22でNo)、会話モードを終了し、図6のS17に戻る。一方、一定時間内に応答があった場合には、その応答の音声認識を行い、応答の内容をテキスト化する(S23)。 The control unit 20 waits for an utterance from the bereaved family (S22). If there is no response within a certain time (for example, within 20 seconds) (No in S22), the conversation mode is terminated and the process returns to S17 in FIG. On the other hand, if there is a response within a certain time, the response is recognized and the response content is converted to text (S23).
次いで、制御部20は、応答の意図を判定する(S24)。ここで行う意図判定は、例えば「肯定的な返答」、「否定的な返答」、「その他」の3つに分類する。音声認識してテキスト化された文中に、「はい」、「うん」等の肯定的な返事の時に発話する文言が含まれている場合には、「肯定的な返答」と判定し、音声認識してテキスト化された文中に、「いいえ」、「違い」等の否定的な返事の時に発話する文言が含まれている場合には、「否定的な返答」と判定し、いずれも含まれていない場合には、どちらにも当てはまらない返答(その他)と判定する。 Next, the control unit 20 determines the intention of the response (S24). The intention determination performed here is classified into, for example, “positive response”, “negative response”, and “other”. If a sentence that is uttered at the time of a positive response such as “Yes” or “Yes” is included in the text that has been recognized by voice recognition, it is determined as “positive reply” and voice recognition is performed. If a sentence that is uttered at the time of a negative response such as “No” or “Difference” is included in the text that is made into a text, it is determined as a “negative response” and both are included. If not, it is determined that the response (other) does not apply to either.
制御部20は、応答の意図にあった発話を音声合成により作成した音声ファイルから選択し、その選択した音声を発話する(S25)。そして制御部20は、その後、遺族等からの発話を待つ(S26)。そして一定時間(例えば20秒以内)に応答がなかった場合(S26でNo)、会話モードを終了し、図6のS17に戻る。一方、一定時間内に応答があった場合には、23に飛びその応答の音声認識を行い、応答の内容をテキスト化する。これにより、遺族等からの応答が続く限り、疑似会話を継続する。 The control unit 20 selects an utterance suitable for the response from the voice file created by voice synthesis, and utters the selected voice (S25). Then, the control unit 20 waits for an utterance from a bereaved family or the like (S26). If there is no response within a certain time (for example, within 20 seconds) (No in S26), the conversation mode is terminated and the process returns to S17 in FIG. On the other hand, if there is a response within a certain period of time, the process jumps to 23 to perform voice recognition of the response and converts the response content into text. As a result, the pseudo-conversation is continued as long as the response from the bereaved family continues.
さらに本実施形態では、意図を判定し、それにあった発話をする分岐モードに加え、意図判定を行わず、ロボット側の返答としてランダムに音声データを発するランダム発話モードを備える。分岐モードの場合のロボット側の返答は、いろいろな返答を準備可能な音声合成にて作成した音声ファイルを用いると、会話が成り立ちやすいので良い。一方、ランダム発話モードの場合、事前収録した故人の肉声の音声データを用いると良い。ランダム性を入れ込むことで、会話のすれ違い・噛み合わなさ、幽霊性を醸し出し老後/死後の人格らしさを演出することができるのでよい。特に肉声の音声データを用いることで、故人がしゃべっている感じがより強くなり、会話のすれ違い等があっても、故人なのでしょうがないなと言う寛容な気持ちが出やすくなり、すれ違いの会話も楽しむことができる。 Furthermore, in this embodiment, in addition to the branch mode for determining the intention and performing the utterance, there is provided a random utterance mode in which the intention determination is not performed and the voice data is uttered randomly as a response on the robot side. In the branch mode, the robot side can use a speech file created by speech synthesis that can prepare various responses, so that conversation can be easily established. On the other hand, in the case of the random utterance mode, it is preferable to use prerecorded voice data of the deceased's real voice. By incorporating randomness, it is good to create a personality of old / post-mortem by creating a ghostly appearance, not passing each other in the conversation. In particular, using voice data of the real voice makes the feeling of the deceased speaking more intense, and even if there is a conversation, etc., it makes it easier to give a tolerant feeling that it is not the deceased, and enjoy the conversation of passing be able to.
さらに本実施形態では、会話を行うためにコミュニケーションロボットが備えたり、或いは外部の会話補助用サーバが備えたりしたりする人工知能を利用しないことを特徴としている。人工知能を使用しないことで、意図判定も「肯定、否定、その他」のようにおおざっぱな分類で、遺族等の応答の具体的な意味内容までは判断しない。そのため、分岐モードであっても、会話のすれ違い・噛み合わなさが少し現れることがあり、特に係る微妙なずれも、既に亡くなっていて幽霊性を醸し出し老後/死後の人格らしさの演出を補完することができる。 Further, in the present embodiment is characterized in that does not utilize artificial intelligence or or with or with the communication robot, or an external conversation auxiliary server for a conversation. By not using artificial intelligence, the intention determination is also roughly classified as “affirmation, denial, etc.”, and does not judge the specific meaning of the response of the bereaved family. For this reason, even in the branch mode, there may be a slight appearance of the passing / non-meshing of the conversation, and even such subtle shifts may cause the appearance of personality after retirement / ex post-mortem, with the appearance of ghosts. it can.
分岐モードとランダム発話モードは、混在して発動し、発動順やそれぞれの発動頻度に規則性を持たせないようにした。これにより、ある時は会話がよく噛み合うが、別の時は会話が噛み合わないことが多いなど、状況に変化があると、会話している遺族等は、今日は故人の調子が良さそう/悪そうなどと認識することができる。そのようすると、例えば故人が比較的高齢の場合で、生前からぼけている程度が日によって違うことがある場合に、その状況が再現できるので良い。また、起動日が長くなるほどランダム発話モードの発動頻度を高くすると良い。このようにすると、徐々に成仏に近づいていっている感じが出るので良い。 Branch mode and random utterance mode are mixed and activated so that the order of activation and the frequency of each activation are not regular. As a result, conversations often engage well at one time, but conversations often do not mesh at other times. It can be recognized as such. In that case, for example, when the deceased is relatively old and the degree of blurring from before life may vary from day to day, the situation can be reproduced. In addition, the longer the activation date, the higher the activation frequency of the random utterance mode. In this way, you can feel that you are gradually approaching the Buddha.
また、係るロボット1が発話する際に、制御部20は、出力部(特にモータ26)の動作を制御し、ロボット1が所定の振る舞い・動きを行うようにすると良い。会話時の動きは、例えば、基本パターンの動作を用意し、年代性別で区分し、調整した動きをモーションデータ記憶部27bに格納しておく。調整は、例えば60代並びにそれ以上の男女の動きは、基本パターン動作をゆっくり行い、20〜50代女性の動きはなめらかに、20代〜50代男性の動きはいかめしくなるようにするとよい。さらに、性格に基づき調整を行うと良い。例えば、性格は優しいとロボットの挙動のスピードがゆったりとし、攻撃的な性格だとロボットの振り付けを激しくする。 Further, when the robot 1 speaks, the control unit 20 may control the operation of the output unit (particularly the motor 26) so that the robot 1 performs a predetermined behavior / movement. For the movement at the time of conversation, for example, basic pattern movements are prepared, classified by age group, and the adjusted movement is stored in the motion data storage unit 27b. For adjustment, for example, movements of men and women in their 60s and beyond may slowly perform the basic pattern operation so that the movements of women in their 20s and 50s are smooth and the movements of men in their 20s and 50s are smooth. Furthermore, adjustments should be made based on personality. For example, if the personality is gentle, the speed of the robot's behavior is slow, and if it is aggressive, the robot's choreography is intense.
さらに基本パターン動作に加え、部分的に契約対象者本人から自動/手動で抽出した特有の動きも利用すると良い。係る故人に最適化した動きは、動きの抽出元音声ファイルに付随して記憶しておく。制御部20は、発話する音声データに特有の動きが無い場合、基本パターン動作をロボット1が振る舞うように制御し、発話する音声データと連動する特有の動きがある場合、当該特有の動きをロボット1が振る舞うように制御する。 Furthermore, in addition to the basic pattern operation, it is also preferable to use a specific movement partially or automatically extracted from the contract person. The motion optimized for the deceased is stored along with the motion source audio file. The control unit 20 controls the basic pattern operation so that the robot 1 behaves when there is no specific motion in the speech data to be uttered. If there is a specific motion linked to the speech data to be uttered, the control unit 20 Control 1 to behave.
係る音声出力とロボットの動き、振る舞いを同時に行う制御は、例えば、ロボット本体10の制御ソフトとして用意されるChoregraphを利用する場合、例えば図9に示すようにChoregraphのボックスに、発話するそれぞれの音声ファイル(oggファイル)とロボットのモーションのデータを並べ同時再生をすることで簡単に行える。 For example, when using the Choregraph prepared as the control software for the robot body 10, the control for performing the voice output and the movement and behavior of the robot at the same time is performed, for example, each voice to be uttered in the Choregraph box as shown in FIG. This can be done easily by arranging a file (ogg file) and robot motion data and playing them back simultaneously.
イベントの発動は、例えば、アンケートにより登録した日課の動作を、生前行っていた時刻のときに実行したり、家電操作・動画コンテンツの配信・法要時の読響の再生等を行ったりするものがある。このイベント実行時にも、同時にロボットの振る舞いを行うとよい。一例を示すと、例えば故人が暑がりで直ぐにリモコンを操作してエアコンをつけたり、設定温度を低くしたりする生活の癖がある場合、リモコンの操作を行う前に、肘を中心に前腕を前後に振り、暑がった素振りを行った後、実際のイベントであるエアコンをつけたり、設定温度を下げる処理を行う。 Event triggers include, for example, performing daily activities registered through questionnaires at the time when they were performed before life, operating home appliances, distributing video content, playing sound when legally required, etc. . It is recommended that the robot behave at the same time when this event is executed. For example, if the deceased has a habit of living, such as when the deceased operates the remote control immediately and turns on the air conditioner or lowers the set temperature, move the forearm back and forth around the elbow before operating the remote control. After swinging and making a hot shake, turn on the air conditioner, which is the actual event, or lower the set temperature.
また、逆に故人が寒がりで直ぐに温度設定を高くしてしまう生活の癖がある場合、リモコンの操作を行う前に、例えば両腕を胸の前でクロスしたり、両手を慌て口の前に持ってきたりするなどの、寒さを表現した振る舞いを行った後、実際のイベントであるエアコンをつけたり、設定温度をあげる処理を行う。 On the other hand, if there is a living habit where the deceased gets cold and immediately raises the temperature setting, before operating the remote control, for example, cross your arms in front of your chest or swipe your hands before your mouth. After performing the behavior that expresses the cold, such as bringing it to the room, it turns on the air conditioner that is the actual event, and performs the process of raising the set temperature.
また、動画コンテンツの配信は、ロボット本体10の胸の前に設置したタブレット12の表示部24に出力するため、ロボット1の振る舞いとしては、例えば、胸を張ったり、両手でタブレット12の周縁を触ったりしてタブレット12を協調する動作を行うと良い。また、読響の再生の場合、同時に両手を合わせた合掌の姿勢をとり、お経を読むように動くと良い。 In addition, since the distribution of the moving image content is output to the display unit 24 of the tablet 12 installed in front of the chest of the robot body 10, the behavior of the robot 1 is, for example, stretching the chest or holding the periphery of the tablet 12 with both hands. It is good to perform the operation | movement which cooperates with the tablet 12 by touching. In the case of reading aloud, it is better to take a palm-splitting posture with both hands at the same time and move to read the sutra.
上述したように、ロボット1は、死後一定期間の間、日々会話モードやイベントを発動するが、本実施形態では、係る会話モードで発話する内容や、発動するイベントを、死後からの経過期間により変化させるように制御する。これにより、徐々に現世から離れ、あの世を渡り成仏に近づいてく感じを醸し出し、遺族等に対しても故人との別れをスムーズに受け入れやすくなるようにしている。係る変化は、例えば図10に示すように、成仏するまでの49日間を、一週間を単位に、複数期間に分ける。各期間は、一単位或いは複数単位で構成する。一例としては、4つの期間に分け、第一期間は、憑依を行う期間であり、1週目が該当する。第二期間は、生前の生活習慣の再現を行う期間であり、2週目から4週目が該当する。第三期間は、浄土コンテンツを実行する期間であり5週目と6週目が該当する。第四期間は成仏カウントダウンを実行する期間であり、7週目が該当する。各期間の具体的な会話やイベントの一例は、以下の通りである。 As described above, the robot 1 activates a conversation mode or event every day for a certain period after death. In the present embodiment, the content of the utterance in the conversation mode or the event to be activated is determined according to the elapsed time since death. Control to change. As a result, it gradually leaves the present world and creates a feeling that it crosses the world and approaches the Buddha, making it easier for the bereaved family to accept the separation from the deceased. For example, as shown in FIG. 10, forty-nine days until the completion of Buddha is divided into a plurality of periods in units of one week. Each period is composed of one unit or a plurality of units. As an example, the period is divided into four periods, and the first period is a period in which intercession is performed, and the first week corresponds. The second period is a period in which the lifestyle before birth is reproduced, and corresponds to the second to fourth weeks. The third period is a period for executing the pure soil content, and corresponds to the fifth week and the sixth week. The fourth period is the period when the adult Buddha countdown is executed and corresponds to the seventh week. An example of a specific conversation or event in each period is as follows.
第一期間(1週目)は、ロボットに故人が憑依した期間であり、本システムのアプリの起動時に指定したメッセージ・動作が発動する。この第一期間で行う固有のイベントは、1日目のアプリ起動時に、憑依イベントを行う。「1日目のアプリ起動時」がイベントの開始時刻となる。この憑依イベントは、起動時メッセージとともに、ロボットに魂が宿る演出を行う。起動時メッセージは、アンケート時に契約対象者が登録しておき、当該起動時メッセージの音声データは、会話データ記憶部27aに格納してあるので、制御部20はそれを発生する。ロボットに魂が宿る演出は、表紙のモーションを実行するもので、具体的な動きは例えばロボット1がうなだれている状態から、上半身を起立して立ち上がり、両手を左右斜め上に広げたり、あたりを見回したりする動きである。あたりを見回した後、第一声として事前に登録した起動時メッセージを発する。 The first period (1st week) is a period in which the deceased relies on the robot, and the message / action specified when the application of this system is activated is activated. The unique event performed in the first period is a dependency event when the application is started on the first day. “When the app starts on the first day” is the start time of the event. This interdependence event, along with a message at the time of start-up, gives the robot a soul. The startup message is registered by the contracted person at the time of the questionnaire, and the voice data of the startup message is stored in the conversation data storage unit 27a, so the control unit 20 generates it. The production where the soul stays in the robot is to execute the motion of the cover. For example, from the state where the robot 1 is nodded, stand up with the upper body up, spread both hands diagonally up and down, It is a movement to look around. After looking around, it issues a startup message registered in advance as the first voice.
また、別のイベントは、7日目の18:00に実施する初七日法要イベントがある。この初七日法要イベントは、起動に伴いダウンロードした初七日法要の音声データを記憶部27から読み出し、再生する。また、このとき、ロボットは、読響時の振る舞いをすると良い。 As another event, there is an event that requires the first seven days to be held at 18:00 on the seventh day. This first 7th day required event reads out the voice data of the first 7th day required from the storage unit 27 and downloads it. At this time, the robot should behave at the time of reading.
会話コンテンツは、ロボットの身体に故人が馴染もうとしている様子を表現する。また、死後の自分や、ロボットになった自分を想定したコメント類を発する。一例をしては、「身体がないって割といいもんだわ」や「お腹がすかないのがちょっとさびしいわ」などである。なお、上述したイベントや会話コンテンツは、一例を示したものでさらに各種のものがある(以下、同じ)。 Conversation content expresses how the deceased is becoming familiar with the body of the robot. In addition, I will give comments that assume my self after death or who became a robot. For example, “I don't have a body is a good thing” or “I'm a little sad to be hungry”. Note that the above-described event and conversation content are examples, and there are various types (hereinafter the same).
第二期間(2〜4週目)は、生前の生活習慣の再現が続く期間であり、よく言っていた言葉、日常会話、生活音を再生したり、勝手な家電の操作等を行ったりする。この第二期間で行う固有のイベントは、全期間にわたり実行する家電操作イベントがある。このイベントの開始時刻は、所定時刻であり、必ずしも毎日待った時刻にする必要は無く、例えば、各日の起床時等にその日の時刻をランダムに設定すると良い。ランダムに設定する時刻は、一つに限ることは無く複数にしても良い。時刻や操作回数をランダムにすることで、故人がそのときの気持ち・状況に応じて家電を操作している感じが醸し出されるのでよい。また、操作対象の家電がテレビの場合、イベント開始時刻は故人が好きだったテレビ番組の開始時刻とするとよい。また、故人が、テレビが好きで、一日中テレビをつけっぱなしにしているような場合、イベント開始時刻は、起床時刻と同じか少し遅い時刻に設定し、起床時刻に伴い起きる動作を行うとともに、テレビをつける処理を実行すると良い。 The second period (2-4 weeks) is a period in which reproduction of life habits continues, replaying words, daily conversations, life sounds, and operations of home appliances, etc. . The unique event performed in the second period includes a home appliance operation event that is executed over the entire period. The start time of this event is a predetermined time, and it is not always necessary to wait for every day. For example, the time of the day may be set at random when waking up each day. The time set at random is not limited to one and may be plural. By making the time and the number of operations random, it is possible to create a feeling that the deceased is operating the home appliance according to the feelings and circumstances at that time. When the operation target home appliance is a television, the event start time may be the start time of a television program that the deceased liked. Also, if the deceased likes television and keeps it on all day long, the event start time is set to a time that is the same as or slightly later than the wake-up time, It is good to execute the process of turning on the TV.
この家電操作は、例えば図11(a)に示すフローチャートを実施する。また図11(b)に示すように、リモコン5として家電操作デバイス5′(IRkit)を用いた。この家電操作デバイス5′は、ロボット1とは例えばWiFiを利用して接続し、家電操作デバイス5′からは制御信号の赤外線を出力し所定の家電に対して制御する。 This household appliance operation implements the flowchart shown, for example to Fig.11 (a). Further, as shown in FIG. 11 (b), a home appliance operating device 5 ′ (IRkit) is used as the remote controller 5. The home appliance operating device 5 'is connected to the robot 1 using, for example, WiFi, and the home appliance operating device 5' outputs infrared light of a control signal to control a predetermined home appliance.
また、別のイベントは、14日目の18:00に実施する二七日法要イベント、21日目の18:00に実施する三七日法要イベント、28日目の18:00に実施する四七日法要イベントがある。これらの各法要イベントは、ロボットが各宗派の形式に即して読経することで行う。また、このとき、ロボットは、読経時の振る舞いをすると良い。 Other events are the 27th day legal event held at 18:00 on the 14th day, the 37th day legal event held at 18:00 on the 21st day, and the 4th event held at 18:00 on the 28th day. There is an event that requires 7 days. Each of these legal events is conducted by the robot reading through the format of each sect. At this time, the robot should behave as reading time.
会話コンテンツは、例えば生前によく話していた事、口癖、その人が言いそうなことを発する。例えば、「ビール飲みたいな〜ビール」、「こら、ちゃんとしっかりしなさいよ」、等がある。また、家電操作にともない発する台詞等もある。例えばエアコン(冷房)の処理に先立ち「あっちーなこの部屋、エアコン付けちゃうよ」と言ったり、テレビの電源ON、チャンネル設定等に先立ち「ナイターの時間じゃん、テレビつけるわ」と言って対応するテレビ番組を表示したりする。 Conversational content, for example, utters things that were often spoken before life, speech, and what the person is likely to say. For example, “I want to drink beer ~ beer”, “Kara, be sure you ’re good”. In addition, there are dialogues and the like that are emitted when the home appliance is operated. For example, say "I'll put on this air-conditioning room, air-conditioner" prior to air conditioning (cooling), or say "I ’ll turn on the TV, turn on the TV, turn on the channel, etc." Display TV programs.
第三期間(5〜6週目)は、「生前の再現」が弱まり、徐々にあの世に渡るにあたっての実況が交えられる期間であり、カウントダウンメッセージや最後の言葉の比重が多くなる。この第三期間で行う固有のイベントは、全期間の所定時刻に実施する浄土コンテンツイベントがある。所定時刻は、家電操作イベントと同様に、毎日の定時としても良いし、ランダムで設定しても良い。この浄土コンテンツイベントは、浄土に近づいている様子を動画で配信するものである。また、この動画再生時に「今ここにいるから、魂」など、故人の目線で実況する発話をすると良い。係る音声データは、好ましくは事前収録した故人の肉声が良いが、録り損ねた場合には音声合成により生成した音声ファイルを使用するとよい。 The third period (5th to 6th weeks) is a period in which the “reproduction before life” weakens, and the actual situation of gradually going over to the next world is mixed, and the countdown message and the final word become more specific. A unique event to be performed in the third period is a pure soil content event that is performed at a predetermined time of the entire period. Like the home appliance operation event, the predetermined time may be a regular time every day or may be set at random. This Pure Land Content Event is a video that shows how you are approaching Pure Land. Also, when you play this video, you should speak utterances that are live from the deceased's perspective, such as “I am here now, my soul”. Such audio data is preferably a prerecorded deceased human voice, but if the recording fails, an audio file generated by speech synthesis may be used.
また、別のイベントは、42日目の18:00に実施する六七日法要イベントがある。この法要イベントは、ロボットが各宗派の形式に即して読経することで行う。また、このとき、ロボットは、読響時の振る舞いをすると良い。 As another event, there is an event requiring a 67th day law held at 18:00 on the 42nd day. This legal event is performed by the robot reading through the format of each sect. At this time, the robot should behave at the time of reading.
会話コンテンツは、例えば、少しずつ浄土に向かっている実況がある。例えば、「こっちはもう、三途の川越えたからね」などがある。また、生前の自分の振り返りや懺悔を発する。懺悔等することで、遺族に対してはより成仏に近づくことを表現し、またこのような内容のメッセージを登録することで、契約対象者は、自分の人生や死について考え、自分史を自分の口承で残すことができるのでよい。係るメッセージは、例えば「いい事もやったけど悪いこともしたんだよね、この後大丈夫かな」などである。 Conversation content, for example, has a live situation that is gradually going to Jodo. For example, “This is because I have already crossed the Sanzu River”. He also gives his reflection and confession during his lifetime. By expressing regrets, the bereaved family is more likely to approach the Buddha, and by registering a message with such content, the contracted person thinks about his life and death, and his history is his own. It can be left in the mouth. Such a message is, for example, “I did a good thing but I did a bad thing.
第四期間(7週目)は、49日目の成仏に向かってカウントダウンし、最後の別れを行う期間である。最終的に、事前に設定した別れの言葉をロボットが喋り、成仏の動作をした後にプログラムが消滅する。この第四期間で行う固有のイベントは、47日目以降の所定時刻に行うお別れカウントダウンイベントがある。この所定時刻は、あらかじめ決めた時刻でも良いし、ランダムとしても良い。このイベントは、例えば「明後日でもうお別れだね」等、別れを匂わすことを言うものである。また、ロボットの振る舞いも、例えばうつむき加減の姿勢をとるなど弱々しい姿態にするとよい。 The fourth period (seventh week) is a period for counting down toward the 49th day of Buddha and performing the final farewell. Eventually, the robot will speak a farewell word set in advance, and the program will disappear after performing the Buddha movement. The unique event performed in the fourth period includes a farewell countdown event performed at a predetermined time after the 47th day. This predetermined time may be a predetermined time or may be random. This event is to say farewell, such as “I ’ll say goodbye tomorrow”. Also, the behavior of the robot should be in a weak state, for example, taking a depressing posture.
また、別のイベントは、49日目の18:00に実施する成仏イベントがある。この成仏イベントは、ロボットが成仏のしぐさの振る舞いを行った後、動作プログラムが完全終了する。そして、記憶部27に格納したローカルのデータを自動で全削除し、アプリが再起動できなくする。成仏の仕草は、例えば、起きている姿勢から、両腕をだらんとおろし、首関節や腰関節を最大限前方に曲げて上半身、頭を下げた姿勢に変位する振る舞いとするとよく、例えば、最後に頭を垂れる振る舞いをすると良い。 Another event is the Buddha event held at 18:00 on the 49th day. In this event, after the robot performs the behavior of the Buddha, the motion program ends completely. And all the local data stored in the memory | storage part 27 are deleted automatically, and an application cannot be restarted. For example, the behavior of adult Buddha should be such that the arms should be lowered from the standing posture, the neck joint and the hip joint should be bent forward as much as possible to displace the upper body and head down, for example, It is better to behave at the end.
会話コンテンツは、例えば、親しい人への遺言や伝言等である。例えば、「身体に気をつけて、夜はちゃんと寝て下さい」や「今までありがとう、一緒に過ごせてよかったです」などである。 The conversation content is, for example, a will or message to a close person. For example, “Please take care of your body and sleep properly at night” or “Thank you so much, it was good to be with you”.
本システムによれば、契約対象者の故人は、生前のインタビュー並びにその準備を行うことで、自分の人生や死について考えるきっかけになり、また、よりリアルで臨場感ある形で「遺言」を残せ、遺族や大事な人に対しての準備ができ、自分史を自分の口承で残すことができる等の各種のメリットを生じる。 According to this system, the deceased person of the contracted person can have an opportunity to think about his life and death by conducting interviews and preparations before his life, and can leave a will in a more realistic and realistic manner. , It brings about various merits such as preparation for the bereaved family and important people, and the ability to leave your own history in your own mouth.
また、遺族等の残された人にとっても、親しい人の急な死に対して、納得できるようになる。死の悲しみを癒やすグリーフケアとなる。さらに、本実施形態では、成仏イベントを実行にすると、本システムのアプリが再起動できないので、現世に残ること無く故人が無事成仏したことを直感的に理解できるので良い。 In addition, the survivors such as the bereaved will be able to convince the sudden death of a close person. It becomes a grief care that heals the sorrow of death. Furthermore, in this embodiment, when the event of the Buddha event is executed, the application of this system cannot be restarted, so that it can be understood intuitively that the deceased has been successfully formed without remaining in the world.
さらに、既存の遺言やビデオメッセージなどに比べ、亡くなった人の特徴がビジュアル、音声、リアルタイムな振る舞いにより実感できるので、より感情移入しやすく、本人が目の前にいるような感覚を味わうことにより、メッセージに対してより強く感銘を受けることができるのでよい。また宗教の世界観の体感により、死後の世界のことがよくわかり、故人は、自分の前からいなくなったという現象面だけで無く、死後の世界に旅立ち、成仏したことがわかり、故人の死を受け入れることができるようになる。さらにビデオメッセージは、遺族がビデオメッセージを記録した媒体を自発的に捨てたり、データを消去したりしない限りそのまま残る。そのように捨てたり消去したりすることは心情的にできない。その結果、ビデオメッセージは何時までも残ってしまい、思い出での表現の一つとなったり、逆に何時までも死を受け入れられなくなったりするおそれがある。これに対し、本システムでは、データを自動的に消去し、再起動できなくするので、係る問題の発生を防止できる。 In addition, compared to existing wills and video messages, the characteristics of the deceased person can be realized through visual, audio, and real-time behavior, making it easier to empathize and experiencing the feeling that the person is in front of you. It ’s good because you can be more impressed with the message. In addition, the experience of the world view of religion makes it easy to understand the world after death, and not only the phenomenon that the deceased disappeared from the front, but also the fact that the deceased traveled to the post-mortem world and became a Buddha, the death of the deceased Will be able to accept. Furthermore, the video message remains as it is unless the survivor voluntarily discards the media on which the video message was recorded or erases the data. It's not emotionally possible to throw away or erase like that. As a result, the video message remains indefinitely and may become one of the expressions in memories, or conversely, death may not be accepted. On the other hand, in this system, since data is automatically deleted and cannot be restarted, occurrence of such a problem can be prevented.
[宗教観に対する適用]
本システムは、仏教を中心に、各宗派への最適化を行う。すなわち、同じ仏教でも宗派(浄土真宗、日蓮宗、天台宗……)毎に読経の作法、読経のタイミング、さらには成仏するまでの浄土の世界観などが異なる。さらには、神道、キリスト教等と宗教が変わるとその違いは大きくなる。イベントの発生タイミングや、実行するイベントを宗教・宗派毎に変えたものを用意し、アンケートで登録した宗教観に基づき適切な死後一定時間のロボットの振る舞い等を変更するとよい。
[Application to religious views]
This system is optimized for each sect, focusing on Buddhism. In other words, even in the same Buddhism, each sect (Jodo Shinshu, Nichiren Buddhism, Tendai Buddhism, etc.) has different reading practices, timings of reading, and the view of the world of Jodo until Buddhist Buddhist life. Furthermore, the difference increases when religion changes with Shinto, Christianity, etc. It is recommended to prepare events that change the timing of events and the events to be executed for each religion and sect, and change the behavior of the robot for a certain period of time after death based on the religious views registered in the questionnaire.
例えば浄土真宗の場合は、木魚の音は鳴らさず、合掌の動作が入るので、ロボット1が読響を行う際には木魚の音は使用せず、合掌の振る舞いを行う。さらに、読経のタイミングは、初七日と49日法要のみである。そこで、浄土真宗の場合のイベントは、7日目の18:00に初七日法要イベントを実施する。このイベントは、ロボットが浄土真宗式で読経(木魚なし、合掌)をする。2〜4週目は読経がなく5〜6週目も読経は無い。但し、35日目の18:00には動画配信イベントを実行し、三途の川の様子を動画配信し、ロボットが状況を読み上げる。また、42日目の18:00には動画配信イベントを実行し、浄土の様子を動画配信し、ロボットが状況を読み上げる。そして、49日目の18:00に49日法要イベントを行う。このイベントは、ロボットが浄土真宗式で読経(木魚なし、合掌)をする。 For example, in the case of Jodo Shinshu, the sound of a wooden fish is not sounded, and the operation of a palm is entered. Therefore, when the robot 1 reads a sound, the sound of a wooden fish is not used and the behavior of a palm is performed. Furthermore, reading is only required for the first seven days and 49 days. Therefore, the event in the case of Jodo Shinshu will be held on the seventh day at 18:00 on the seventh day. In this event, the robot will read the Jodo Shinshu ceremony (no fish, no palm). There is no reading in the 2nd to 4th weeks, and there is no reading in the 5th to 6th weeks. However, at 18:00 on the 35th day, a moving image distribution event is executed to distribute a moving image of the Mizuno River, and the robot reads out the situation. Also, at 18:00 on the 42nd day, a moving image distribution event is executed, the state of Jodo is distributed as a moving image, and the robot reads out the situation. Then, at 18:00 on the 49th day, a 49 day legal event is held. In this event, the robot will read the Jodo Shinshu ceremony (no fish, no palm).
また、日蓮宗だと「南無妙法蓮華経」の読み上げを毎日行う。神道式だと10日祭、20日祭、30日祭、〜と続くので死後一定期間が長くなる。このように宗教毎に対応することで、宗教関係者にとっても宗派の世界観のよりリアルな伝達、プロモーションとして活用が可能となる。 In addition, Nichiren Buddhism reads “Nanmu Myoho Lotus Flower” every day. In Shinto style, the 10th, 20th, and 30th festivals will continue, and so the period after death will be longer. By dealing with each religion in this way, it becomes possible for religious people to use it as a more realistic transmission and promotion of the sectarian worldview.
[変形例]
上述した実施形態では、初回起動時に全期間のコンテンツをサーバ側からダウンロードするようにしたが、例えば、毎朝サーバにアクセスし、その日或いはその日以降に必要となるコンテンツ・データを少しずつダウンロードするよいにしてもよい。但し、実施形態のように起動初日に全期間分一括してダウンロードすると、その後はインターネットにつなぐ必要がなく、処理が簡易になるのでよい。
[Modification]
In the above-described embodiment, the content for the entire period is downloaded from the server side at the first activation. However, for example, the server may be accessed every morning and content data required on or after that day may be downloaded little by little. May be. However, as in the embodiment, if the entire period is downloaded for the entire period on the first day of startup, it is not necessary to connect to the Internet thereafter, and the processing may be simplified.
また、上述した実施形態並び変形例では、死後一定期間経過したら、ローカルデータを削除し、本システムのアプリは再起動不能にしている。本発明はこのようにローカルデータを削除することは必須では無く、ローカルデータを削除しない場合、アプリ自体を削除したり、ローカルデータに読み込み禁止などのフラグを立てるなどし、アプリが正常に起動しないようにすれば良い、但し、ローカルデータを削除せずアプリを削除しただけではアプリの再インストールなどにより再起動可能となるので、実施形態のようにローカルデータを削除するのが良い。 Further, in the above-described embodiments and modifications, when a certain period of time has passed after death, the local data is deleted, and the application of this system cannot be restarted. In the present invention, it is not indispensable to delete local data in this way. If local data is not deleted, the application itself is deleted or a flag such as reading prohibition is set in the local data, and the application does not start normally. However, it is preferable to delete the local data as in the embodiment because the application can be restarted only by deleting the application without deleting the local data.
また、上述した実施形態並び変形例では、ロボット本体もシステム提供者から配送してもらい、死後一定期間経過した場合は、ロボット本体をシステム提供者に返却、すなわち、レンタル方式にしているが、例えば、同種の家庭用ロボット・コミュニケーションロボットを既に有している場合、自己が所有する家庭用ロボット・コミュニケーションロボットをロボット本体として使用し、必要なデータ等をダウンロードするとともに、アプリをインストールすると良い。 Further, in the above-described embodiment arrangement modification, the robot main body is also delivered from the system provider, and when a certain period of time has passed after death, the robot main body is returned to the system provider, that is, in the rental method. If you already have the same kind of home robot / communication robot, you can use your own home robot / communication robot as the robot body, download the necessary data, and install the app.
また、上述した実施形態並び変形例では、お面11は装着バンドを用いて頭部に装着し、ロボット本体が頭を振ったくらいでは外れることは無いが、例えば死後一定期間が経過した場合に、お面11が頭部から外れ落ちる構成をとると良い。係る構成は、例えば装着バンドの途中或いは、装着バンドの一端とお面11との接続部分に、着脱可能な連結部材を設ける。連結部材は、常時は連結しており、装着バンドの弾性復元力によりお面はロボット本体の頭部にしっかり装着される。そして、死後一定期間が経過すると、連結部材が離脱し、装着バンドの連結部分が離れ、これよりお面11が自然落下するようにすると良い。このようにすると、ロボット本体10の頭部10aからお面11が外れることで、成仏したこと並びに再起動できないことを遺族等に直感的に認識させることができるのでよい。 Further, in the above-described embodiments and modifications, the face 11 is attached to the head using a wearing band and does not come off as the robot body shakes the head, but for example, when a certain period of time has passed after death. It is preferable to adopt a configuration in which the face 11 is detached from the head. In such a configuration, for example, a detachable connecting member is provided in the middle of the mounting band or at a connection portion between one end of the mounting band and the surface 11. The connecting member is always connected, and the face is firmly attached to the head of the robot body by the elastic restoring force of the attachment band. And when a fixed period passes after death, a connection member will detach | leave, the connection part of a mounting band will leave | separate, and it is good for the surface 11 to fall naturally from this. If it does in this way, it will be possible for the bereaved family to intuitively recognize that the face 11 is removed from the head 10a of the robot body 10 and that it cannot be restarted.
上述した実施形態のロボット本体10は、カメラ23を備えており、そのカメラ23で撮影した話し相手の顔から所定の認証処理を行い、話し相手を特定し、その話し相手にあった会話を行うようにすると良い。最初に発する発話の内容が話し相手にあったものとなるので、その後の分岐モードで意図判定を行い、判定結果に基づく発話を行っても、ずれが少なく、また、ランダム発話モードでも検討違いの内容は発話しなくなるので、会話が続き好ましい。 The robot main body 10 of the above-described embodiment includes the camera 23. When the predetermined authentication process is performed from the face of the conversation partner photographed by the camera 23, the conversation partner is specified, and a conversation suitable for the conversation partner is performed. good. Since the content of the first utterance is the one that was talked to, the intention is determined in the subsequent branch mode, and even if the utterance based on the determination result is performed, there is little deviation, and the content of the examination difference in the random utterance mode Is no longer uttering, so conversation is preferred.
また、上述した実施形態並び変形例では、人工知能を利用しない疑似会話としたが、会話の一部または全部に人工知能を利用する構成を採っても良い。人工知能を利用する場合、故人が亡くなる直近の状況(特に、会話の癖等)についての情報を与え、本人らしさの会話が再現できると良い。 Further, in the above-described embodiments and modifications, pseudo-conversation without using artificial intelligence is used. However, a configuration in which artificial intelligence is used for part or all of the conversation may be adopted. When using artificial intelligence, it is good to give information about the latest situation (especially conversational habits etc.) where the deceased will die and to reproduce the conversation of the person.
また本発明に係る故人憑依用ロボットは、故人についての情報を予め収集し、亡くなった後であたかも当該故人が憑依したかのような振る舞いを、死後一定期間に限りロボットに行わせるようにしたが、この技術の一部、すなわち、疑似憑依させて本人のような振る舞いをさせることを利用し、例えば、亡くなる前/後に限らず、収集した契約対象者(再現対象者)の情報に基づき、本人のような動作・会話等の振る舞いをさせることもできる。例えば、実家(親)から離れた地域に住んでいる状況において、自分或いは自分の子供(実家にいる親にとっての孫)を再現対象者とし、アンケートやインタビュー等をし、顔の3Dデータを取得する。生活習慣等のインタビューでは、趣味や現在良く行っている活動などや、自分の子供(実家にいる親にとっての孫)の場合には学校生活等も含める。遠隔地の実家には中々帰ることができず、また、テレビ電話などでお互いに顔を見ながら話す手段はあるものの、親と、自分・子供の生活時間帯が異なることから両者のタイミングを合わせて通話することもできないとともに、仮にできたとしても短い時間となる。これに対し、ロボットが再現対象者のように振る舞いを行うことで、遠隔地にいる実家の親は、あたかも自分の子供或いは孫がそばにいて、一緒に過ごしている状況を疑似体験できるので良い。 In addition, the deceased robot according to the present invention collects information about the deceased in advance and causes the robot to perform the behavior as if the deceased had deceased after the death for a certain period after death. , By using a part of this technology, that is, making it behave like the person himself, for example, before / after death, based on the collected contract person (reproduction person) information It is also possible to cause behaviors such as For example, in a situation where you live in an area away from your parents (parents), you or your child (grandchildren for parents in your parents) will be the target of reproduction, and questionnaires, interviews, etc. will be performed to obtain 3D facial data To do. Interviews about lifestyle habits include hobbies, activities that are often performed, and school life in the case of your own children (grandchildren for parents at home). Although it is not possible to return home in a remote place, and there is a means to talk while looking at each other with a video phone etc., the timing of both of them is synchronized because the life time zone of the parents and themselves / children are different It is not possible to make a telephone call, and even if it can be made, it takes a short time. On the other hand, if the robot behaves like the person to be reproduced, the parents of the parents who are in a remote place can feel as if their children or grandchildren are nearby and spend a simulated experience together .
このような利用形態の場合は、憑依する期間は有限或いは無限でも良い。また、ロボットが毎日或いは毎週など適宜のタイミングでインターネット等を経由してサーバ2にアクセスし、アンケートデータ類記憶部2a,音声合成用テキスト類記憶部2b等に格納された情報に基づき疑似憑依するための情報を収集・更新すると良い。このようにすると、例えば、サーバ2側でメッセージその他の生活習慣等についての情報をアップデートしておくことで、遠隔地にいる実家の親は、子供・孫たちの近況を知ることができるので良い。 In the case of such a usage form, the dependent period may be finite or infinite. Further, the robot accesses the server 2 via the Internet at an appropriate timing such as every day or every week, and performs pseudo-independence based on information stored in the questionnaire data storage unit 2a, the speech synthesis text storage unit 2b, and the like. Information should be collected and updated. In this way, for example, by updating information on messages and other lifestyle habits on the server 2 side, parents in their parents' homes can know the current status of their children and grandchildren. .
さらには、再現対象者は、家族・肉親に限ることはなく、例えば、歌手や芸能人などパフォーマンスを生業としていた人にするのもよい。例えば芸能人の顔、芸能人の声、特徴的な身振りで振る舞うロボットを提供し、テレビ演出やCM、イベント演出、演劇やステージパフォーマンスの販促等に利用することができる。さらには、登場人物/役者を模し、劇中の台詞をロボットで再現したりすることもできる。また、安価に量産ができるという本発明の特性上、同一人物のロボットを大量に複製することも可能である。このように、故人憑依用ロボットではなく、大衆向けにパフォーマンスをするエンターテイメントロボットとしても応用することができる。 Furthermore, the reproduction target person is not limited to a family member or a close relative, and may be a person whose performance is a business, such as a singer or an entertainer. For example, a robot that behaves with a celebrity face, a celebrity voice, and a characteristic gesture can be provided and used for TV production, CM, event production, theater and stage performance sales promotion, and the like. In addition, the characters in the play can be reproduced by a robot, imitating the characters / actors. In addition, due to the characteristic of the present invention that mass production can be performed at low cost, it is possible to duplicate a large number of robots of the same person. Thus, it can be applied not as a deceased robot but also as an entertainment robot performing for the general public.
以上、本発明の様々な側面を実施形態並びに変形例を用いて説明してきたが、これらの実施形態や説明は、本発明の範囲を制限する目的でなされたものではなく、本発明の理解に資するために提供されたものであることを付言しておく。本発明の範囲は、明細書に明示的に説明された構成や製法に限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求する可能性があることを、念のために申し述べる。 As described above, various aspects of the present invention have been described using the embodiments and the modifications. However, these embodiments and descriptions are not intended to limit the scope of the present invention, and are for understanding the present invention. It is added that it was provided to contribute. The scope of the present invention is not limited to the configurations and manufacturing methods explicitly described in the specification, and includes combinations of various aspects of the present invention disclosed in the present specification. Among the present inventions, the configuration for which a patent is sought is specified in the appended claims, but the present invention is disclosed in this specification even if the configuration is not specified in the claims. I would like to remind you that there is a possibility of claiming this configuration in the future.
1 :ロボット
2 :サーバ
2a :アンケートデータ類記憶部
2b :音声合成用テキスト類記憶部
2c :宗教関連データ類記憶部
3 :公衆回線網
4 :家電
5 :リモコン
10 :ロボット本体
11 :お面
12 :タブレット
20 :制御部
21 :タッチパネル
22 :マイク
24 :表示部
25 :スピーカ
26 :モータ
27 :記憶部
27a :会話データ記憶部
27b :モーションデータ記憶部
28 :通信部
1: Robot 2: Server 2a: Questionnaire data storage unit 2b: Text synthesis text storage unit 2c: Religion related data storage unit 3: Public network 4: Home appliance 5: Remote control 10: Robot body 11: Mask 12 : Tablet 20: Control unit 21: Touch panel 22: Microphone 24: Display unit 25: Speaker 26: Motor 27: Storage unit 27a: Conversation data storage unit 27b: Motion data storage unit 28: Communication unit
Claims (7)
前記お面は故人の顔に似せたものであり、
前記ロボット本体は、前記故人の死後一定期間、その故人に似せた振る舞いを行う疑似憑依機能を備え、
前記死後一定期間の経過後は、前記疑似憑依機能が動作できないようにし、
前記死後一定期間は、成仏するのに要する期間に応じた期間であることを特徴とする故人憑依用ロボット。 A robot with a humanoid robot body and a mask attached to the face of the robot body,
The mask resembles the face of the deceased,
The robot body has a pseudo-dependency function that performs a behavior resembling the deceased for a certain period after the death of the deceased,
After the elapse of a certain period after the death, the pseudo dependency function is disabled.
The deceased dependent robot characterized in that the fixed period after death is a period according to a period required for adultery.
その会話は、人工知能を使わないで行うことを特徴とする請求項1または2に記載の故人憑依用ロボット。 The pseudo interdependence function has a function of having a conversation with a person,
3. The deceased robot according to claim 1, wherein the conversation is performed without using artificial intelligence.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017163488A JP6637000B2 (en) | 2017-08-28 | 2017-08-28 | Robot for deceased possession |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017163488A JP6637000B2 (en) | 2017-08-28 | 2017-08-28 | Robot for deceased possession |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019040516A true JP2019040516A (en) | 2019-03-14 |
| JP6637000B2 JP6637000B2 (en) | 2020-01-29 |
Family
ID=65726591
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017163488A Active JP6637000B2 (en) | 2017-08-28 | 2017-08-28 | Robot for deceased possession |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6637000B2 (en) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021043723A (en) * | 2019-09-11 | 2021-03-18 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2023142756A (en) * | 2022-03-25 | 2023-10-05 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control system, control program and control method |
| WO2024214792A1 (en) * | 2023-04-11 | 2024-10-17 | ソフトバンクグループ株式会社 | Behavior control system |
| JP2025044254A (en) * | 2023-09-19 | 2025-04-01 | ソフトバンクグループ株式会社 | system |
| JP2025048904A (en) * | 2023-09-20 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025048916A (en) * | 2023-09-21 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025048892A (en) * | 2023-09-20 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025051734A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
| JP2025051703A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
| JP2025051664A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
| JP2025054245A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054217A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054233A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054259A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054250A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025056750A (en) * | 2023-09-26 | 2025-04-08 | ソフトバンクグループ株式会社 | system |
| JP2025058974A (en) * | 2023-09-27 | 2025-04-09 | ソフトバンクグループ株式会社 | system |
-
2017
- 2017-08-28 JP JP2017163488A patent/JP6637000B2/en active Active
Non-Patent Citations (3)
| Title |
|---|
| HIROMI TANOUE: "動画:故人がペッパーでよみがえり、テクノロジーで弔う「四十九日」", [ONLINE], JPN6018042415, 22 August 2017 (2017-08-22) * |
| 市原えつこ: "ICC|「デジタルシャーマン・プロジェクト」−市原えつこ(2015−)", [ONLINE], JPN6018042414, 9 May 2017 (2017-05-09) * |
| 石水典子: "Pepperがイタコに。意外な使い方に込められた壮大な構想とは", [ONLINE], JPN6018042413, 9 January 2016 (2016-01-09) * |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7418106B2 (en) | 2019-09-11 | 2024-01-19 | キヤノン株式会社 | Information processing device, information processing method and program |
| JP2021043723A (en) * | 2019-09-11 | 2021-03-18 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2023142756A (en) * | 2022-03-25 | 2023-10-05 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control system, control program and control method |
| WO2024214792A1 (en) * | 2023-04-11 | 2024-10-17 | ソフトバンクグループ株式会社 | Behavior control system |
| JP2025044254A (en) * | 2023-09-19 | 2025-04-01 | ソフトバンクグループ株式会社 | system |
| JP7796832B2 (en) | 2023-09-20 | 2026-01-09 | ソフトバンクグループ株式会社 | system |
| JP2025048904A (en) * | 2023-09-20 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025048892A (en) * | 2023-09-20 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025048916A (en) * | 2023-09-21 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025051734A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
| JP2025051664A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
| JP2025051703A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
| JP2025054245A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054217A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054233A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054259A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025054250A (en) * | 2023-09-25 | 2025-04-07 | ソフトバンクグループ株式会社 | system |
| JP2025056750A (en) * | 2023-09-26 | 2025-04-08 | ソフトバンクグループ株式会社 | system |
| JP2025058974A (en) * | 2023-09-27 | 2025-04-09 | ソフトバンクグループ株式会社 | system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6637000B2 (en) | 2020-01-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6637000B2 (en) | Robot for deceased possession | |
| US20220284896A1 (en) | Electronic personal interactive device | |
| US11024294B2 (en) | System and method for dialogue management | |
| EP3381175B1 (en) | Apparatus and method for operating personal agent | |
| TWI692717B (en) | Image display device, topic selection method and program | |
| US11610092B2 (en) | Information processing system, information processing apparatus, information processing method, and recording medium | |
| US20190206402A1 (en) | System and Method for Artificial Intelligence Driven Automated Companion | |
| CN112262024B (en) | System and method for dynamic robot configuration for enhanced digital experience | |
| US20190205390A1 (en) | System and Method for Learning Preferences in Dialogue Personalization | |
| JP7619390B2 (en) | Conversation output system and conversation output method | |
| US11671562B2 (en) | Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call | |
| WO2023212258A1 (en) | Relationship graphs for artificial intelligence character models | |
| US20230353707A1 (en) | Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call | |
| US11627283B2 (en) | Method for enabling synthetic autopilot video functions and for publishing a synthetic video feed as a virtual camera during a video call | |
| WO2024214708A1 (en) | Action control system | |
| WO2024145628A1 (en) | Real-time animation of artificial intelligence characters | |
| US20250345714A1 (en) | Interactive ai toy capable of holding a conversation with a person, and method of interacting with same | |
| Aoki et al. | Sexuality and affection in the time of technological innovation: Artificial partners in the Japanese context. Religions 12: 296 | |
| Dong | Hysterical amateurs: Wild Seeds burning on the grass stage | |
| Tsui | Quitting the Game: Reimagining Glitch as a Method of Refusal, Subversion, and Alternativity | |
| McBride | How to Talk to Anyone: Fail-Proof Strategies to Start and Keep the Conversation Going, Make Friends, and Build a Rich Social Life | |
| Hayes et al. | ‘Profoundly dislocating and infinite in possibility’: Ian McEwan’s Screenwriting | |
| WO2024214793A1 (en) | Behavior control system, control system, and information processing system | |
| Fornieles | Utter monster: How my performing voice creates queer space and generates alternative gender narratives | |
| Schmidt | Being Exhausted, Acting Happy: Dragana Bulut’s Happyology—Tears of Joy |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170828 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190117 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190318 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190703 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190829 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191219 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6637000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |