[go: up one dir, main page]

WO2019097802A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2019097802A1
WO2019097802A1 PCT/JP2018/031552 JP2018031552W WO2019097802A1 WO 2019097802 A1 WO2019097802 A1 WO 2019097802A1 JP 2018031552 W JP2018031552 W JP 2018031552W WO 2019097802 A1 WO2019097802 A1 WO 2019097802A1
Authority
WO
WIPO (PCT)
Prior art keywords
space
image information
information processing
information
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/031552
Other languages
English (en)
French (fr)
Inventor
龍正 小池
厚史 泉原
浩司 古澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to US16/762,308 priority Critical patent/US10986310B2/en
Publication of WO2019097802A1 publication Critical patent/WO2019097802A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program.
  • a teleconference system may be mentioned as an example of the conference support system.
  • display devices, cameras, microphones, and speakers are installed in a plurality of remotely located conference rooms, and video and audio acquired in each conference room are transmitted to other conference rooms and output in real time It is possible to simultaneously advance a conference among a plurality of remotely located conferences.
  • Patent Document 1 a plurality of users can view the same content in real time, and scroll and mouse cursor can also be shared in real time
  • a content sharing system is disclosed. With this system, it is possible to realize communication in which a chat is performed on a topic Web page by a plurality of users.
  • Patent Document 2 a moving image obtained by imaging the state of the meeting and a presentation material image referenced at the meeting are associated in synchronization with each other on the time axis, together with the material image actually using the state of the meeting.
  • a content processing system that can be reproduced. Such a system allows viewers to view and compare video and material screens at the same time zone.
  • Patent Document 1 the above-described teleconferencing system and the content sharing system described in Patent Document 1 are directed to sharing of phenomena occurring in real time, such as viewing the same content in real time and viewing the state of each other's conference rooms. Technology, and sharing of past phenomena has not been carried out.
  • Patent Document 2 Although it is possible to view a video and a material screen of a past meeting in the same time zone, no mention is made of reproduction of interactive communication. In particular, it has not been considered to reproduce past two-way communication while maintaining the current connection of multiple spaces.
  • the present disclosure proposes an information processing apparatus, an information processing method, and a program capable of looking back on the past two-way communication while maintaining the space connection in real time.
  • an information processing apparatus that controls bi-directional communication between a first space and a second space, wherein the first image information and the second image information are displayed in the first space.
  • the control unit is configured to perform control to display third image information and fourth image information in the second space together with the control, the first image information being current image information related to the second space
  • the second image information is past image information on the second space
  • the third image information is current image information on the first space
  • the fourth image is proposed, wherein the information is past image information of the same time zone as the second image information regarding the first space.
  • an information processing apparatus in which control of bi-directional communication between a first space and a second space is performed, wherein first image information and second image information are stored in the first space.
  • a control unit for performing control to display the image, the first image information being current image information regarding the second space, and the second image information being past image information regarding the second space An information processing apparatus is proposed, which is image information of the same time zone as past image information regarding the first space displayed in the second space.
  • an information processing method for controlling two-way communication between a first space and a second space, in which the processor is configured to control the first image information and the second image information in the first space.
  • the present invention proposes an information processing method, wherein the image information of is the past image information of the same time zone as the second image information regarding the first space.
  • a program that causes a computer to function as an information processing apparatus that controls bi-directional communication between a first space and a second space, further comprising: first image information in the first space; And the second image information and the control function for performing the control of displaying the third image information and the fourth image information in the second space, the first image information being
  • the second image information is current image information regarding the second space
  • the second image information is past image information regarding the second space
  • the third image information is a current information regarding the first space
  • a program is proposed, which is image information, and wherein the fourth image information is past image information of the same time zone as the second image information regarding the first space.
  • an information processing method in which control of bi-directional communication between a first space and a second space is performed, wherein a processor is configured to control the first image information and the second image information in the first space.
  • the first image information is current image information related to the second space
  • the second image information is related to a past image related to the second space, including performing control to display image information.
  • An information processing method is proposed, which is information and is image information of the same time zone as past image information regarding the first space displayed in the second space.
  • a computer is caused to function as an information processing apparatus in which control of bidirectional communication between the first space and the second space is performed, and further, in the first space, the first image information and the first image information Function as a control unit that performs control to display the second image information, the first image information is current image information regarding the second space, and the second image information is the second space
  • a program is proposed, which is image information in the past regarding the same time zone as past image information regarding the first space displayed in the second space.
  • FIG. 1 is a diagram for describing an overview of an information processing system according to an embodiment of the present disclosure.
  • the information processing system 1 according to the present embodiment is a space adjacent telepresence in which spaces (for example, space A and space B) located at distant places are connected by video, audio and other information channels. It is a system.
  • the other party's space when spatial information (video and audio) is acquired by a camera and a microphone (not shown) respectively installed in space A and space B, it is transmitted to the other party's space in real time, for example, the other party's space Output from a display 131 and a speaker (not shown) installed on a wall of living room or dining room.
  • the display 131 is a virtual window (or a door or doorway) connected to the other party's space, and the virtual window shows the appearance of the other party's space. It feels like a certain room, and you can get the feeling that you are in the same place as the other user.
  • FIG. 2 an aspect of communication using the information processing system according to the present embodiment will be described.
  • a large display 131A is installed on a wall of a room or the like.
  • a camera, a microphone, and a speaker are installed around the display 131A or on the display 131A.
  • a plurality of these may be provided.
  • the arrangement places of the camera, the microphone, and the speaker are not particularly limited, it is preferable that the camera picks up an image of the space A from the display 131A side with the inside direction of the room as the image pickup direction.
  • a display, a camera, a microphone, and a speaker are provided in the space B.
  • An image acquired in the connected space B is displayed on the display 131A in real time.
  • the image 310 of the space B may be displayed over the entire screen (in this case, it is felt that the space B exists immediately next to the space A via the wall), as shown in FIG.
  • the image 310 of the space B may be displayed at a position slightly away from the space B, and a virtual space may be created between the space B and the space B.
  • the passage image 320 may be displayed so that the image 310 of the space B and the virtual window (frame of the display 131A) of the space A can be seen continuously.
  • the size and the installation position of the display 131A are not particularly limited.
  • the display 131A may be larger than a human, and the lower side of the display 131A may be located near the floor, or the upper side of the human being, the lower side of the display 131A may be human It may be located at about the height of the waist.
  • a camera, a microphone, and a speaker are installed around the display 131A.
  • a speaker (not shown) outputs voices acquired in the other party's space (not limited to speech voices, and various environmental sounds including living sounds such as door opening and closing, television sounds, and footsteps) Even if you can not see the other party's appearance, you can feel the atmosphere and signs of the other party's space. Especially when the rooms of family members who live separately are always connected, the situation of each other can be checked at any time, which reduces the fear of being unknown at a remote place and provides a sense of security.
  • FIG. 3 is a diagram showing an example of the entire configuration of the information processing system according to the present embodiment.
  • the information processing system 1 includes a plurality of information processing apparatuses 10 (10A, 10B) and a server 20.
  • the information processing device 10A, the information processing device 10B, and the server 20 are connected via the network 30.
  • Each information processing apparatus 10 controls input / output of space information using an input unit and an output unit provided in each space. Specifically, the information processing device 10A acquires space information such as video or audio of the space A from an input unit installed in the space A, and transmits the space information to the server 20 or the information processing device 10B. Further, the information processing device 10A performs control of outputting the space information (video and audio) of the information processing device 10B received from the information processing device 10B or the server 20 from an output unit installed in the space A.
  • the server 20 stores the space information of each space transmitted from each information processing device 10. Further, the server 20 performs control to appropriately transmit the accumulated past space information to the information processing apparatus 10A and the information processing apparatus 10B when the past review of the two-way communication is performed in the space adjacent telepresence system. Control is performed to synchronize on the time axis with respect to past space information of each space.
  • FIG. 4 is a block diagram showing an example of the configuration of the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 includes a control unit 100, an input unit 110, an operation I / F (interface) 120, an output unit 130, a communication unit 140, and a storage unit 150.
  • Control unit 100 The control unit 100 functions as an arithmetic processing unit and a control unit, and controls overall operations in the information processing apparatus 10 according to various programs.
  • the control unit 100 is realized by, for example, an electronic circuit such as a central processing unit (CPU) or a microprocessor.
  • the control unit 100 may also include a ROM (Read Only Memory) that stores programs to be used, operation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change appropriately.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 100 acquires various space information from the input unit 110, stores the acquired space information in the storage unit 150, and controls the transmission unit 141 to transmit it to the server 20. From the input unit 110, for example, video, audio, depth information and the like can be obtained.
  • the control unit 100 may store and transmit information subjected to predetermined processing such as noise processing and compression.
  • the control unit 100 can also perform user recognition based on various spatial information obtained from the input unit 110.
  • the user recognition is, for example, a user identification that recognizes who the user is by comparing with a face image registered in advance, a position of the user (where in the room is located), an attitude (walking), Situational awareness such as sitting, standing, etc., emotion (laughing, angry etc.), action (what you are doing) is assumed.
  • control unit 100 can recognize the user's uttered voice based on the voice information obtained from the input unit 110.
  • control unit 100 can recognize a space environment (for example, object recognition (where and what is present)) based on various spatial information obtained from the input unit 110.
  • the control unit 100 may include such various recognition results in the space information and accumulate it in the storage unit 150 or may transmit it from the transmission unit 141 to the server 20.
  • the control unit 100 also functions as a function selection unit 101, an image combining unit 102, and an output control unit 103.
  • the function selection unit 101 selects a function available in the space adjacent telepresence system according to the present embodiment. For example, the function selection unit 101 acquires user operation information performed using a remote controller or the like from the operation I / F 120, and selects a function according to the user operation. Available functions include, for example, an album function of viewing a captured image captured by a digital camera etc. together with the other user, a game function of performing some game using the other user and the virtual space, and two-way communication with the other space A memorizing function (function to look back at the past according to the present embodiment) or the like is considered.
  • a method of menu selection will be described with reference to FIG.
  • the display 131 displays an image 300 including an image 310 of the partner space constantly connected and a passage image 320 of the virtual space connecting the partner space and the user side.
  • a predetermined trigger operation for example, a gesture of a user, a voice, a touch operation, a button operation, an operation by a remote controller
  • the image of the icon illustrated in FIG. 5 is an example, and the present embodiment is not limited to this.
  • the icon 330a is an album function icon
  • the icon 330b is a game function icon
  • the icon 330c is a memory function icon
  • the icon 330d is a tool function icon
  • the icon 330e is a setting function icon.
  • the user selects an icon by a remote controller (not shown), a gesture, a voice, a touch operation on the screen of the display 131, or an operation of an operation unit (not shown) such as a button provided around the screen.
  • a calendar image 331 is displayed as shown on the left of FIG. 6, for example.
  • a seek bar 332 is displayed for searching past images of the day of the selected date.
  • the user operates the seek bar 332 and selects a time zone to review while checking the corresponding past displayed video 333.
  • the past video 333 to be searched may be a video of the other party space viewed from the space on the own side, or may be a video of the own space viewed from the space on the other party side.
  • the method of searching and selecting the past video shown in FIG. 6 is an example, and the present embodiment is not limited to this, and any other method may be used as long as the date and time can be designated.
  • the image synthesis unit 102 When the past video of the time zone selected by the recollection function is transmitted from the server 20, the image synthesis unit 102 performs processing of synthesizing the past video into a real-time video of the currently connected partner space. From the server 20, in addition to the past image of the other party space, processed content (for example, an image or 3D model obtained by extracting only a person from the past image) generated based on the past image, the past image of the other party space and Synchronized content may be received in which past images of space are synchronized on a time axis.
  • processed content for example, an image or 3D model obtained by extracting only a person from the past image
  • the output control unit 103 performs control to output, from the output unit 130, real-time space information of the constantly connected partner space received by the receiving unit 142. For example, the output control unit 103 displays a real-time image captured in the space B on the display 131 provided in the space A, and a speaker (not shown) provided in the space A collects the sound in the space B. Control to output real-time voice.
  • the display 131 is, for example, a large display unit installed on a wall or the like of a room as shown in FIG. 2, and the image of the other party space displayed on the display 131 is a virtual window of the display 131 The image is taken at an appropriate angle of view so that the user can see without discomfort.
  • the arrangement of the display 131 and the display of the image of the other party's space are similarly performed in the other party's space, so that the respective spaces appear to be adjacent to each other, and each user communicates bidirectionally through the display 131 It can be carried out.
  • the output control unit 103 may display the image of the partner space in the virtual space in the display 131 (that is, provide a distance to the adjacent space and display the image) in the display 131 or without providing the virtual space ( That is, the image of the other party's space may be displayed on the entire screen of the display 131 at a distance of zero from the adjacent space.
  • Various settings such as which display method to select, how far apart if a virtual space is provided, and how to set scene settings in the virtual space are automatically set (default ) Or may be selected by the user. Further, such setting may be shared with the display method in the other party space.
  • the output control unit 103 can perform control to display the image combined by the image combining unit 102 described above on the display 131.
  • FIG. 7 to FIG. 16 show specific examples of the composition of the past video etc. when using the memory function.
  • the system may automatically (by default) set which display method to use, or the user may arbitrarily select and change it. Also, the display method selected by any user may be shared by the space A and the space B.
  • FIG. 7 shows an example of displaying the past images which were viewed from each other in both directions in each space.
  • the past image 333 of the space A which was viewed from the space B is a virtual space before the current real time space B image 340. It is located on the top.
  • the past video 335 of the space B seen from the space A is disposed on the virtual space in front of the current real-time space B video 310.
  • These past videos 333 and 335 are past videos of the same time zone, and are simultaneously reproduced in each space.
  • FIG. 8 is an example of displaying both past images that were viewed from each other in each space.
  • display 131B of space B where user B is present past image 333b of space A that was viewed from space B and past image 335b of space B that were viewed from space A are currently present.
  • the virtual space is arranged in front of the image 340 of the space B in real time.
  • the past video 333 b and the past video 335 b simultaneously displayed on the display 131 B are past videos in the same time zone, and are synchronized contents synchronized by the server 20 on the time axis.
  • past image 335a of space B that was viewed from space A and past image 333a of space A that was viewed from space B are now images 310 of space B in real time.
  • the past video 333a and the past video 335a simultaneously displayed on the display 131A are also past videos of the same time zone, and are synchronized contents synchronized on the time axis by the server 20.
  • Each synchronized content is simultaneously reproduced in each space. This enables each user to look back on both images viewed from each other in the past two-way communication while maintaining the connection of space in real time (that is, talking with the user of the other party space in real time) Become.
  • the user B can see not only the past state of the partner space (space A) but also the past state of the own space (space B) in the same time zone. It is possible to simultaneously view the situation of the user D who is in the space B watching the situation of the space A where the player is playing and opening the present. Also, as a matter of course, not only interactive past image display but also past sound collected at the same time can be output.
  • the size and arrangement of the display of the past video can be appropriately changed by the user operation or the like.
  • the past image of the partner space is arranged on the virtual space before the past image of the space on the user's side, but it is possible to move back and forth in the virtual space while maintaining these positional relationships.
  • the balance of display sizes may be changed while maintaining the positional relationship between front and back.
  • FIG. 13 is a view showing an example of displaying a silhouette of a person extracted from a past video as a display example for conveying the atmosphere of the past video.
  • a silhouette image of a person extracted from the past video 333 of the space A that was viewed from the space B Is synthesized to the current real-time space B image 340. Since the background of the space is the same, it is possible to sense the movement and atmosphere of the person who has been in the space in the past just by superimposing the silhouette of the person of the past on the current image.
  • a silhouette image of a person for example, a silhouette of the user D, a moving image
  • a silhouette image of a person for example, a silhouette of the user D, a moving image
  • These silhouette images are past images of the same time zone, and are reproduced simultaneously in each space.
  • the representation of the person extracted from the past image may be a silhouette (shadow) as shown in FIG. 13, or may be a blur representation, or a bone representation (a stick human generated by recognizing a body skeleton Expression)). Also, the extracted person may be displayed as it is or may be displayed transparently.
  • the position where the extracted image of the person is synthesized may be arranged based on, for example, the position of the room based on the depth information.
  • the image of the extracted person may be displayed in front of the person appearing in the current image, or displayed in front of the person appearing in the current image based on the depth information, and displayed behind the person If it is located, it may be displayed to wrap around behind the current person.
  • FIG. 14 An example is shown in FIG. In the example illustrated in FIG. 14, the user C and the user E extracted from the past video of the space A are appropriately disposed in the same background of the space A based on the depth information of the past video. Thus, it can be understood that, in the past video, the user C is located in front of the place where the user A is currently present, and the user E is located behind the user A.
  • FIGS. 13 and 14 only the person extracted from the past image of the partner space is synthesized, but the present embodiment is not limited to this, and the person extracted from the past image of the space on the own side is further synthesized.
  • May be An example is shown in FIG. In this case, as shown in FIG. 15, on the display 131B of the space B in which the user B is located, a silhouette image of a person extracted from the past video 333 of the space A that was viewed from the space B And a silhouette image (for example, a silhouette of the user D, a moving image) of a person extracted from the past image 335 of the space B that has been seen from the space A is synthesized with the image 340 of the current real-time space B.
  • a silhouette image for example, a silhouette of the user D, a moving image
  • the display 131A of the space A in which the user A is present is seen from the silhouette image of a person (for example, the silhouette of the user D, a moving image) extracted from the past video 335 of the space B that was viewed from the space A
  • a silhouette image of a person (for example, a silhouette of the user C, a moving image) extracted from the past video 333 of the space A is synthesized with the current real-time space B video 310.
  • These silhouette images are past images of the same time zone, and are reproduced simultaneously in each space.
  • the image of the person extracted from the past image of the space on the own side is placed on the front side of the virtual space, and the user is perceived as looking at the person from behind.
  • the back view of the person generated based on the 3D model may be synthesized.
  • all of the extracted persons are displayed as silhouettes, but the present embodiment is not limited to this.
  • a person extracted by displaying a person on the near side (a person extracted from a past image in the space on the own side) as a silhouette and displaying a person extracted from a past image in the opponent space transparently as shown in FIG.
  • the display method of may be changed.
  • FIG. 16 is a diagram showing an example of generating a 3D model of a person extracted based on past images of both spaces and arranging them so as to face each other in a virtual space via a window frame.
  • the display 131B of the space B in which the user B is located is a 3D image of a person extracted from the past video 333 of the space A that was viewed from the space B (for example, a 3D image of the user C, A virtual image in which a 3D image of a person (for example, a 3D image of user D, a moving image) extracted from a past image 335 of space B that was viewed from space A and space A is located in front of an image 340 of space B currently in real time.
  • the 3D images of the persons are arranged to face each other across the virtual window, and the relationship through the window expressing the adjacent space is expressed. Further, the position from the window frame of the 3D image of each person may be appropriately arranged based on the depth information.
  • the display 131A of the space A in which the user A is located is also seen from the silhouette image of a person (for example, the silhouette of the user D, moving image) extracted from the past video 335 of the space B that was viewed from the space A
  • a silhouette image of a person (for example, a silhouette of the user C, a moving image) extracted from the past image 333 of the space A is synthesized with the image 310 of the space A in the current real time.
  • 3D modeling may model not only the person but also the appearance around the person. Further, the size of the entire 3D model disposed in the virtual space can be changed as appropriate, and may be changed by, for example, the user using a remote controller.
  • the input unit 110 has a function of inputting space information to the control unit 100.
  • the input unit 110 is realized by a camera, a microphone, and a sensor.
  • the microphones may be plural, and collect sounds in the space (for example, sounds in the room, sounds heard from the outside of the room, etc.) to acquire audio data.
  • the sensor has a function of detecting various information in the space, and may be, for example, a depth sensor (distance sensor), a human sensor, an infrared sensor, an illuminance sensor, or the like.
  • the operation I / F 120 receives an operation input by the user, and outputs operation information to the control unit 100.
  • the operation I / F 120 is realized by, for example, a button, a switch, a keyboard, a touch sensor, or the like, and is provided around the display 131 or the like.
  • the operation I / F 120 can be connected to a remote controller operated by a user by wireless / wired communication, and can acquire operation input information by the user.
  • the remote controller may be an IR (infrared) remote controller, or may be a Bluetooth (registered trademark) remote controller.
  • the remote controller may be a dedicated terminal, may be realized by an information communication terminal such as a smartphone or a tablet terminal, or may be substituted by a game device (a game pad or the like).
  • the input of the user operation can also be performed by a gesture such as the movement of a hand or a speech sound.
  • the analysis of the gesture and the speech may be performed by the control unit 100 based on the captured image and the sound information obtained from the input unit 110.
  • the communication unit 140 is connected to the network 30 by wire or wireless, and is connected to the server 20 and other information processing apparatuses 10 via the network 30 to transmit and receive data.
  • the communication unit 140 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), a mobile communication network (LTE (Long Term Evolution), 3G (third generation mobile communication system)) or the like. Communicate with the network 30. Further, as shown in FIG. 4, the communication unit 140 includes, as a functional configuration, a transmission unit 141 that transmits information and a reception unit 142 that receives information.
  • the output unit 130 outputs, for example, real-time space information of the partner space according to the control of the control unit 100.
  • the output unit 130 includes a display 131 and a speaker, and outputs an image and an audio.
  • the display 131 is used as an example, but the image display device is not limited to the display 131, and may be, for example, a projector.
  • the information processing apparatus 10 may project a real-time image of the partner space on the wall of the room.
  • the storage unit 150 is realized by a ROM (Read Only Memory) that stores a program used for processing of the control unit 100, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change appropriately.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the configuration of the information processing apparatus 10 has been specifically described above.
  • the configuration of the information processing apparatus 10 is not limited to the example illustrated in FIG. 4.
  • a part of the configuration may be realized separately, and the information processing apparatus 10 may be connected to the information processing apparatus 10 by wireless or wired. That is, the information processing device 10 may be configured by a plurality of devices.
  • a part of the process performed by the control unit 100 of the information processing apparatus 10 may be performed by an intermediate server (not shown) located between the server 20 and the server 20. Thereby, the processing load of the information processing apparatus 10 is reduced.
  • FIG. 17 is a block diagram showing an example of the configuration of the server 20 (information processing apparatus) according to the present embodiment.
  • the server 20 includes a control unit 200, a communication unit 210, and a content storage unit 220.
  • Control unit 200 The control unit 200 functions as an arithmetic processing unit and a control unit, and controls overall operations in the server 2 in accordance with various programs.
  • the control unit 200 is realized by, for example, an electronic circuit such as a central processing unit (CPU) or a microprocessor.
  • the control unit 200 may include a ROM (Read Only Memory) that stores programs to be used, operation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change appropriately.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 200 performs control to accumulate the space information transmitted from each information processing apparatus 10 in the content storage unit 220. Further, in response to a request from the information processing apparatus 10, the control unit 200 appropriately transmits necessary information to the information processing apparatus 10, and performs output control in the information processing apparatus 10.
  • control unit 200 extracts (searches) content (that is, past video and past audio) of a designated date and time from the content storage unit 220 and performs information processing It is transmitted to the apparatus 10 and is controlled to be displayed on the display 131 together with the current image of the partner space.
  • searches content (that is, past video and past audio) of a designated date and time from the content storage unit 220 and performs information processing It is transmitted to the apparatus 10 and is controlled to be displayed on the display 131 together with the current image of the partner space.
  • control unit 200 also functions as the content processing unit 201 and the content synchronization unit 202.
  • the control unit 200 synchronizes both of the past videos (the past videos of the space A and the space B) with the processed content obtained by processing the past images by the content processing unit 201 or the content synchronization unit 202.
  • the synchronized content is transmitted to the information processing apparatus 10 and is controlled to be displayed on the display 131 together with the current image of the other party's space.
  • the content processing unit 201 generates a person image in which only a person is extracted from a predetermined past image, or uses a past image and a past image from three-dimensional information based on corresponding image information (in the same time zone). Generate a 3D model of the person in the
  • the content synchronization unit 202 places each past image of the selected space A and space B in the same time zone on the same time axis. Generate the content (also referred to as synchronized content) associated (synchronized) in.
  • the communication unit 210 is connected to the network 30 by wire or wirelessly, and transmits / receives data to / from each information processing apparatus 10 via the network 30.
  • the communication unit 210 can connect to the network 30 via, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (Wireless Fidelity (registered trademark)), or the like.
  • the content storage unit 220 stores the space information transmitted from each information processing apparatus 10. Also, the content storage unit 220 is configured to process the content processed by the content processing unit 201 based on the predetermined past video extracted from the space information stored in the content storage unit 220, and the synchronized content generated by the content synchronization unit 202. You may memorize. Further, the content storage unit 220 can be realized by a program used for processing of the control unit 200, a ROM storing operation parameters and the like, and a RAM temporarily storing parameters and the like which change appropriately.
  • the configuration of the server 20 according to the present embodiment has been specifically described above.
  • the configuration of the server 20 illustrated in FIG. 17 is an example, and the present embodiment is not limited to this.
  • an external apparatus may have at least a part of the configuration of the server 20, or an information processing terminal (at least a part of each function of the control unit 200 is relatively close to the information processing apparatus 10 or communication distance
  • it may be realized by a so-called edge server or the like.
  • edge server As described above, by appropriately distributing the components of the server 20, it is possible to improve real-time performance, reduce processing load, and further secure security.
  • FIG. 18 is a flow chart showing operation processing of the information processing apparatus 10A in the case of executing the recollection function according to the present embodiment.
  • FIG. 19 is a flowchart showing operation processing of the server 20 when executing the memory function according to the present embodiment.
  • the information processing apparatus 10A acquires real-time spatial information (video, audio, sensor information) of the space A from the input unit 110 (step S103).
  • the information processing apparatus 10A transmits real-time space information of the space A to the server 20 and the information processing apparatus 10B (step S106).
  • the information processing apparatus 10A receives real-time space information of the space B from the information processing apparatus 10B (step S109), and performs control to output from the display 131A and the speaker of the space A (step S112).
  • the information processing apparatus 10A repeats the processes of steps S103 to S112 to realize constant connection with the space B. The same process is performed in the information processing apparatus 10B, and real-time space information of the space A is output from the display 131B and the speaker of the space B.
  • the information processing apparatus 10A transmits the designated date and time information to the server 20 (step S118). That is, as described with reference to FIG. 5 and FIG. 6, when the icon 330c of the memory function is selected and a predetermined date is specified by the user, the specified date is designated as an execution request of the memory function to the server 20. Send.
  • the information processing apparatus 10A receives the content of the designated date and time from the server 20 (step S122).
  • step S115 / No when there is no operation input of the memory function from the user side (step S115 / No) and there is an operation input of the memory function from the other side (step S125 / Yes), the information processing apparatus 10A is the user B (always The content of the date and time designated by the user on the side of the connected partner space is received from the server 20 (step S128).
  • the content of the designated date received from the server 20 is, for example, the past video of the designated date of the partner space, the processed content processed based on the past video of the designated date, or the past of the space on the same side of the same time zone. It is a synchronized content in which the video and the past video of the other party space are synchronized.
  • the information processing apparatus 10A combines the received content with real-time space information (currently image of the space B) continuously received from the space B, and displays the composite on the display 131A (step S130).
  • An example of content composition is as shown in FIG. 7 to FIG.
  • the information processing apparatus 10A may also output the sound of the past video from the speaker.
  • the server 20 receives real-time spatial information (video, audio, sensor information) of each space (space A and space B) from the information processing apparatus 10A and the information processing apparatus 10B, respectively ( Step S133).
  • the server 20 stores the received real-time space information in the content storage unit 220 (step S136).
  • the server 20 displays the content of the designated date and time (past image of space A and past of space B Image) is extracted from the content storage unit 220 (step S142).
  • the server 20 processes the content by the content processing unit 201 (step S148). Specifically, for example, when silhouette display is selected by the user as the display method of the recollection function, the content processing unit 201 performs processing for extracting a person from the past video and processing the silhouette.
  • the content synchronization unit 202 of the server 20 extracts the space A and space B extracted.
  • the content (synchronous content) in which the time axis of the past video is synchronized is generated (step S154). “When the user also wants to see the past video of his / her side” is the past video of the partner's space and the space of his / her side, as described with reference to FIGS. 8 to 12, 15 and 16. It is assumed that the display method of simultaneously viewing is selected.
  • the server 20 transmits (simultaneously) the generated synchronous content to the information processing apparatus 10A and the information processing apparatus 10B (step S157).
  • the received synchronized content content in which the past video of the space A and the past video of the space B in the designated time zone are synchronized on the time axis
  • the image is displayed together with the image (see FIGS. 8 to 12, 15, and 16).
  • the server 20 extracts the past video (or processed content) of the extracted space A in the information processing apparatus 10B.
  • the past video (or processed content) of B is (simultaneously) transmitted to the information processing apparatus 10A (step S160).
  • the information processing apparatus 10A and the information processing apparatus 10B display the received past video (or processed content) together with the video of the partner space in real time (see FIGS. 7 and 11 to 14).
  • FIG. 10B The configuration and operation process of the information processing system according to the embodiment of the present disclosure have been described above, but the configuration of the information processing system according to the present embodiment is the configuration illustrated in FIG.
  • the present invention is not limited to a server-client system configuration consisting of the device 10B.
  • a configuration not including the server 20, specifically, as shown in FIG. 20 may be implemented by a system configuration including the information processing device 10-nA and the information processing device 10-nB.
  • a configuration example and operation processing of the information processing apparatus 10-n (10-1 to 10-4) in the case of such an information processing system 1x will be specifically described below using a plurality of examples.
  • FIG. 21 is a diagram showing an example of the configuration of an information processing apparatus 10-1 according to the first embodiment of another system configuration example.
  • the information processing apparatus 10-1 in each space has the same configuration. That is, the information processing system 1-1 according to the first embodiment includes the information processing apparatuses 10-1A and 10-1B.
  • the information processing apparatus 10-1B is simply referred to as an information processing apparatus 10B.
  • the information processing apparatus 10-1 includes a control unit 100-1, an input unit 110, an operation I / F 120, an output unit 130, a communication unit 140, and a storage unit 150-1.
  • the same parts as those in the configuration of the information processing apparatus 10 shown in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • portions different from the configuration described with reference to FIG. 3 will be mainly described here.
  • the control unit 100-1 transmits real-time space information (video, audio, sensor information) of the space on the own side obtained from the input unit 110 to the information processing apparatus 10B of the partner space that is constantly connected. Control to store the transmitted space information in the transmission content storage unit 151. Further, control unit 100-1 performs control of storing the real-time space information of the other party space received from information processing device 10B in received content storage unit 152 and control of outputting from output unit 130. In addition, when the memory function execution instruction is issued, the control unit 100-1 extracts (searches) content (that is, past video and past sound, etc.) of the designated date and time from the storage unit 150-1. The control unit 100-1 also functions as a function selection unit 101, an image synthesis unit 102, an output control unit 103, a content processing unit 104, and a content synchronization unit 105, as shown in FIG.
  • the content processing unit 104 Similar to the content processing unit 201 described with reference to FIG. 17, the content processing unit 104 generates a person image in which only a person is extracted from the extracted predetermined past video in using the recollection function, or the past video And a function of generating a 3D model of a person appearing in a past image from 3D information based on corresponding (in the same time zone) sensor information.
  • the content synchronization unit 105 extracts each predetermined past image of the space A and space B extracted when displaying both past images in each space. It generates content (also referred to as synchronized content) associated (synchronized) on the same time axis.
  • the storage unit 150-1 includes a transmission content storage unit 151 and a reception content storage unit 152.
  • the transmission content storage unit 151 content transmitted to another information processing apparatus 10, specifically, spatial information obtained from the input unit 110 of the space on the own side, processed content processed by the content processing unit 104, or Synchronized content synchronized by the content synchronization unit 105 may be stored.
  • the received content storage unit 152 may store content received from another information processing apparatus 10, specifically, real-time space information of the other party's space, processed content, or synchronized content.
  • FIGS. 22 and 23 are flowcharts showing operation processing of the information processing apparatus 10-1A according to the first embodiment of another system configuration example.
  • the information processing apparatus 10-1A acquires real-time space information (video, audio, sensor information) of the space A (step S203), and the space B, which is an adjacent space that is always connected,
  • the space information transmitted to the information processing apparatus 10B (step S206) and the space information transmitted to the information processing apparatus 10B is stored in the transmission content storage unit 151 (step S209).
  • the information processing apparatus 10-1A receives real-time space information (video, audio, sensor information) of the space B from the information processing apparatus 10B (step S212), and stores the information in the received content storage unit 152 (step S215). ).
  • the information processing apparatus 10-1A outputs real-time space information of the space B from the display 131A and the speaker of the space A (step S218).
  • the information processing apparatus 10-1A repeats the processing of steps S203 to S218 to realize constant connection with the space B. The same process is performed in the information processing apparatus 10B, and real-time space information of the space A is output from the display 131B and the speaker of the space B.
  • the content transmitted to the other party space that is, the space information of the space on the own side
  • the content received from the other party space that is, the space information of the other party space
  • the information processing apparatus 10-1A transmits the designated date and time information to the information processing apparatus 10B (step S224).
  • the information processing apparatus 10-1A extracts the content (past video) of the designated date and time from the storage unit 150-1 (step S227).
  • step S230 when the operation input of the recollection function is not performed from the user side (step S221 / No) but the other end of the recollection function is input (step S230 / Yes), the information processing apparatus 10-1A is the user B
  • the content (past video) on the date and time designated by the (user on the other party space side constantly connected) is extracted from the storage unit 150-1 (step S233).
  • the content of the designated date and time extracted from the storage unit 150-1 means the past image of the other party's space stored in the received content storage unit 152, or the user's own saved in the transmission content storage unit 151 as needed. It is a past picture of the space of the side.
  • the information processing apparatus 10-1A processes the content by the content processing unit 104 (step S239). Specifically, for example, when silhouette display is selected by the user as the display method of the recollection function, the content processing unit 104 performs processing for extracting a person from the past video and processing the silhouette.
  • the information processing apparatus 10-1A when it is selected that the user also sees the past video of the user's side (Yes in step S242), the information processing apparatus 10-1A causes the content synchronization unit 105 to extract the extracted space.
  • a content (synchronized content) in which the time axes of the past images of A (own side) and space B (other party) are synchronized is generated (step S245).
  • the information processing apparatus 10-1A notifies the information processing apparatus 10B that the synchronization process has ended (step S248).
  • the information processing apparatus 10-1A checks whether the synchronization process has ended on the information processing apparatus 10B side (step S257).
  • the information processing apparatus 10B also has the same configuration, and the same operation processing as the processing shown in FIGS. 22 and 23 is performed. Therefore, when it is selected to also view the past video on the own side, synchronization processing is also performed in the information processing apparatus 10B. Then, when the synchronization process ends in the information processing device 10B, a notification indicating that the synchronization process ends is transmitted from the information processing device 10B. As a result, it is possible to confirm whether the synchronization processing has ended on the information processing apparatus 10B side as well.
  • the information processing apparatus 10-1A transmits a preparation completion flag to the information processing apparatus 10B (step S254).
  • the information processing apparatus 10-1A confirms whether or not the preparation completion flag is collected (step S257). As described above, the operation processing similar to the processing shown in FIGS. 22 and 23 is also performed in the information processing apparatus 10B, so that the preparation completion flag is also transmitted from the information processing apparatus 10B.
  • the information processing apparatus 10-1A transmits the preparation completion flag to the information processing apparatus 10B, and when the preparation completion flag is also transmitted from the information processing apparatus 10B, determines that the preparation completion flag is collected.
  • the information processing apparatus 10-1A extracts the extracted partner space (space The past video (or processed content or synchronized content) of B) is displayed (combined) with the video of the real-time partner space (step S260).
  • the past video in each information processing apparatus 10-1 is The reproduction timings of the above can be synchronized, and at the same time, past images and the like in the same time zone can be reproduced respectively.
  • FIG. 24 is a diagram showing an example of the configuration of an information processing apparatus 10-2 according to the first embodiment of another system configuration example.
  • the information processing apparatus 10-2 in each space has the same configuration. That is, the information processing system 1-2 according to the second embodiment includes the information processing apparatuses 10-2A and 10-2B.
  • the information processing device 10-2B is simply referred to as the information processing device 10B.
  • the information processing apparatus 10-2 includes a control unit 100-2, an input unit 110, an operation I / F 120, an output unit 130, a communication unit 140, and a storage unit 150-2.
  • the same parts as those in the configuration of the information processing apparatus 10 shown in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • portions different from the configuration described with reference to FIG. 3 will be mainly described here.
  • the control unit 100-2 transmits real-time space information (video, audio, sensor information) of the space on the own side obtained from the input unit 110 to the information processing apparatus 10B of the partner space that is constantly connected. Control to Further, control unit 100-2 performs control of storing the real-time space information of the other party space received from information processing device 10B in received content storage unit 152 and control of outputting from output unit 130. In addition, when the memory function execution instruction is issued, the control unit 100-2 extracts (searches) content (that is, past video and past audio, etc.) of the designated date and time from the received content storage unit 152.
  • the control unit 100-2 also functions as a function selection unit 101, an image combining unit 102, an output control unit 103, a content processing unit 104, and a content synchronization unit 105, as shown in FIG.
  • the content processing unit 104 and the content synchronization unit 105 are as described with reference to FIG.
  • the storage unit 150-2 includes a received content storage unit 152. Similar to FIG. 21, the received content storage unit 152 may store content received from another information processing apparatus 10, specifically, real-time space information of the partner space, processed content, or synchronized content.
  • FIGS. 25 and 26 are flowcharts showing the operation processing of the information processing apparatus 10-2A according to the second embodiment of another system configuration example.
  • the information processing apparatus 10-2A acquires real-time space information (video, voice, sensor information) of the space A (step S303), and the space B, which is an adjacent space that is constantly connected, It transmits to the information processing apparatus 10B (step S306).
  • the information processing device 10-2A receives real-time space information (video, voice, sensor information) of the space B from the information processing device 10B (step S309), and stores the received information in the received content storage unit 152 (step S312). ).
  • the information processing device 10-2A outputs real-time space information of the space B from the display 131A and the speaker of the space A (step S315).
  • the information processing device 10-2A repeats the processes of steps S303 to S315 to realize constant connection with the space B. The same process is performed in the information processing apparatus 10B, and real-time space information of the space A is output from the display 131B and the speaker of the space B.
  • the content transmitted to the other party space that is, the space information of the space on the own side is not stored, but the content received from the other party space, ie, the space of the other party space Information is stored in the storage unit 150-2.
  • the information processing device 10-2A transmits the designated date and time information to the information processing device 10B (step S321).
  • the information processing device 10-2A extracts the content of the designated date and time (the past video of the other party's space) from the received content storage unit 152 (step S324).
  • the information processing apparatus 10-2A is the user B.
  • the content (the past video of the partner space) on the date and time designated by the (user of the partner space side constantly connected) is extracted from the received content storage unit 152 (step S330).
  • a copy of the extracted content (the past video of the other party's space) is transmitted to the information processing apparatus 10B (step S333).
  • “As needed” specifically assumes that it is selected to also view a past image of the user in the display method of the memory function.
  • the past image of both the partner space and the own space is required. Since only the past image is stored, the information processing apparatus 10B needs a past image of its own space, that is, a past image of the space B. Therefore, the information processing apparatus 10-1A performs control to transmit a copy of the past video of the partner space (that is, the past video of the space B) to the information processing apparatus 10B. Since such control is similarly performed on the information processing apparatus 10B side, the information processing apparatus 10-1A can receive a past image of its own space, that is, a past image of the space A from the information processing apparatus 10B.
  • the information processing apparatus 10-2A processes the content by the content processing unit 104 (step S339). Specifically, for example, when silhouette display is selected by the user as the display method of the recollection function, the content processing unit 104 performs processing for extracting a person from the past video and processing the silhouette.
  • the information processing device 10-2 A receives the space received by the content synchronization unit 105.
  • a content (synchronized content) in which the time axes of the past video images of A (own side) and the extracted space B (other party side) are synchronized is generated (step S345).
  • the information processing device 10-2A notifies the information processing device 10B that the synchronization process has ended (step S348).
  • the information processing device 10-2A checks whether the synchronization process has ended on the information processing device 10B side (step S351).
  • the information processing device 10-2A transmits a preparation completion flag to the information processing device 10B (step S354).
  • the information processing device 10-2A confirms whether or not the preparation completion flag is collected (step S357).
  • the information processing apparatus 10-2A extracts the extracted partner space (space The past video (or processed content or synchronized content) of B) is displayed (combined) with the video of the real-time partner space (step S360).
  • FIG. 27 is a diagram showing an example of the configuration of an information processing apparatus 10-3 according to the third embodiment of another system configuration example.
  • the information processing apparatus 10-3 in each space has the same configuration. That is, the information processing system 1-3 according to the third embodiment comprises the information processing apparatuses 10-3A and 10-3B.
  • the information processing device 10-3B is simply referred to as the information processing device 10B.
  • the information processing apparatus 10-3 includes a control unit 100-3, an input unit 110, an operation I / F 120, an output unit 130, a communication unit 140, and a storage unit 150-3.
  • the same parts as those in the configuration of the information processing apparatus 10 shown in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • portions different from the configuration described with reference to FIG. 3 will be mainly described here.
  • the control unit 100-3 transmits the real-time space information (video, audio, sensor information) of the space on the own side obtained from the input unit 110 to the information processing apparatus 10B of the partner space that is constantly connected. Control to store the transmitted space information in the transmission content storage unit 151. In addition, the control unit 100-3 performs control of outputting, from the output unit 130, real-time space information of the other party space received from the information processing apparatus 10B. In addition, when the memory function execution instruction is issued, the control unit 100-2 extracts (searches) content (that is, past video and past audio) of the designated date and time from the transmission content storage unit 151.
  • the control unit 100-3 also functions as a function selection unit 101, an image combining unit 102, an output control unit 103, a content processing unit 104, and a content synchronization unit 105, as shown in FIG.
  • the content processing unit 104 and the content synchronization unit 105 are as described with reference to FIG.
  • the storage unit 150-3 includes a transmission content storage unit 151.
  • content transmitted to another information processing apparatus 10 specifically, spatial information obtained from the input unit 110 of the space on the own side, processed content processed by the content processing unit 104, or Synchronized content synchronized by the content synchronization unit 105 may be stored.
  • FIGS. 28 and 29 are flowcharts showing operation processing of the information processing apparatus 10-3A according to the third embodiment of another system configuration example.
  • the information processing apparatus 10-3A acquires real-time space information (video, audio, sensor information) of the space A (step S403), and the space B, which is an adjacent space that is always connected,
  • the space information transmitted to the information processing apparatus 10B (step S406) is stored in the transmission content storage unit 151 (step S409).
  • the information processing device 10-3A receives real-time space information (video, voice, sensor information) of the space B from the information processing device 10B (step S412), and outputs the space 131 from the display 131A and the speaker (space S) Step S415).
  • the information processing apparatus 10-1A repeats the processes of steps S403 to S415 to realize constant connection with the space B. The same process is performed in the information processing apparatus 10B, and real-time space information of the space A is output from the display 131B and the speaker of the space B.
  • the content transmitted to the partner space that is, the space information of the space on the own side is stored in the transmission content storage unit 151, and the content received from the partner space is Not saved
  • the information processing device 10-3A transmits the designated date and time information to the information processing device 10B (step S421).
  • the information processing device 10-3A extracts the content of the designated date and time (the past image of the space on the user's side) from the transmission content storage unit 151 (step S424).
  • the information processing apparatus 10-3A is the user B.
  • the content (the past video of the space on the user's side) specified by the (user on the other party space side constantly connected) date is extracted from the transmission content storage unit 151 (step S430).
  • the extracted content (a past image of the space on the user's side) is transmitted to the information processing apparatus 10B (step S433).
  • the display of the memory function requires at least the past image of the other party's space, in the present embodiment, only the past image of the own space is stored, so in the information processing apparatus 10B, the past image of the other party's space, that is, the space The past video of A is required. Therefore, the information processing device 10-3A performs control to transmit the past video of its own space (that is, the past video of the space A) to the information processing device 10B. Since such control is similarly performed on the information processing apparatus 10B side, the information processing apparatus 10-3A can receive the past video of the other party's space, ie, the past video of the space B from the information processing apparatus 10B.
  • step S436 / Yes the information processing apparatus 10-3A processes the content by the content processing unit 104 (step S439).
  • the information processing device 10-3A extracts the space extracted by the content synchronization unit 105.
  • a content synchronized content
  • a content is generated in which the time axis of the past video of A (the own side) and the past video of the received space B (the opposite side) are synchronized (step S445).
  • the information processing device 10-3A notifies the information processing device 10B that the synchronization process has ended (step S448).
  • the information processing device 10-3A checks whether the synchronization process has ended on the information processing device 10B side (step S451).
  • the information processing device 10-3A transmits a preparation completion flag to the information processing device 10B (step S454).
  • the information processing device 10-3A confirms whether or not the preparation completion flag is set (step S457).
  • the information processing apparatus 10-3A receives the received partner space (space The past video (or processed content or synchronized content) of B) is displayed (combined) with the video of the real-time partner space (step S460).
  • FIG. 30 is a diagram showing an example of the configuration of an information processing apparatus 10-4 according to the fourth embodiment of another system configuration example.
  • An information processing system 1-4 according to the fourth embodiment comprises information processing apparatuses 10-4A and 10-4B.
  • one information processing apparatus 10-4 has a "content processing unit” and a "content synchronization unit”.
  • the information processing apparatus 10-4A includes a control unit 100-4A, an input unit 110, an operation I / F 120, an output unit 130, a communication unit 140, and a storage unit 150-4A.
  • the 100-4A also functions as the content processing unit 104 and the content synchronization unit 105.
  • the information processing apparatus 10-4B includes a control unit 100-4B, an input unit 110, an operation I / F 120, an output unit 130, a communication unit 140, and a storage unit 150-4B. There is no content processing function or content synchronization function.
  • FIGS. 31 to 34 are flowcharts showing operation processing of the information processing apparatus 10-4A having the content processing function and the content synchronization function.
  • FIGS. 33 and 34 are flowcharts showing operation processing of the information processing apparatus 10-4B which does not have the content processing function and the content synchronization function.
  • the information processing device 10-4B is also simply referred to as an information processing device 10B.
  • the information processing device 10-4A acquires real-time space information (video, audio, sensor information) of the space A (step S503), and the space B, which is an adjacent space that is always connected, is obtained.
  • the space information transmitted to the information processing apparatus 10B (step S506) and the space information transmitted to the information processing apparatus 10B is stored in the transmission content storage unit 151 (step S509).
  • the information processing device 10-4A receives real-time space information (video, voice, sensor information) of the space B from the information processing device 10B (step S512), and outputs the space 131 from the display 131A and the speaker (space S) Step S515).
  • the information processing device 10-4A repeats the processes of steps S503 to S515 to realize constant connection with the space B. The same process is performed in the information processing apparatus 10B, and real-time space information of the space A is output from the display 131B and the speaker of the space B.
  • the content transmitted to the partner space that is, the space information of the space on the own side is stored in the transmission content storage unit 151, and the content received from the partner space is Not saved
  • the information processing device 10-4A transmits the designated date and time information to the information processing device 10B (step S521).
  • the information processing device 10-4A extracts the content of the designated date and time (the past image of the space on the user's side) from the transmission content storage unit 151 (step S524).
  • the information processing apparatus 10-4A is the user B.
  • the content (the past video of the space on the user side) designated by the date and time designated by the (user on the other party space side constantly connected) is extracted from the transmission content storage unit 151 (step S530).
  • step S533 the extracted content (a past image of the space on the user's side) is transmitted to the information processing apparatus 10B (step S533). Details are similar to step S433 described in the third embodiment.
  • step S536 / Yes the information processing device 10-4A processes the content by the content processing unit 104 (step S539).
  • the information processing device 10-4 A uses the space extracted by the content synchronization unit 105.
  • a content (synchronized content) is generated in which the time axis of the past video of A (the own side) and the past video of the received space B (the opposite side) are synchronized (step S545).
  • the information processing device 10-4A transmits a copy of the synchronously processed content to the information processing device 10B (step S548).
  • the information processing apparatus 10B since the information processing apparatus 10B does not have the content synchronization function, the synchronous content generated by the information processing apparatus 10A is transmitted.
  • the information processing apparatus 10-4 A transmits the processed content to the information processing apparatus 10 B when the processing is performed. Step S551.
  • the processed content generated by the information processing apparatus 10A is transmitted. If the processing process has not been performed, the preparation completion flag may be transmitted as in the third embodiment to check whether the preparation completion flag is aligned.
  • the information processing device 10-4A displays (synthesizes) the received past image (or processed content or synchronized content) of the other party space (space B) together with the picture of the other party space in real time (step S554).
  • the information processing apparatus 10-4B acquires real-time space information (video, audio, sensor information) of the space B (step S573), and the space A, which is an adjacent space that is constantly connected,
  • the space information transmitted to the information processing apparatus 10A (step S576) and the space information transmitted to the information processing apparatus 10A is stored in the transmission content storage unit 151 (step S579).
  • the information processing device 10-4B receives real-time space information (video, audio, sensor information) of the space A from the information processing device 10A (step S582), and outputs the space 131 from the display 131B and the speaker (space S) Step S585).
  • the information processing device 10-4B repeats the processes of steps S573 to S585 to realize constant connection with the space A.
  • the content transmitted to the partner space that is, the space information of the space on the own side is stored in the transmission content storage unit 151, and the content received from the partner space is Not saved
  • the information processing device 10-4 B transmits the designated date and time information to the information processing device 10 A (step S 591).
  • the information processing device 10-4B extracts the content of the designated date and time (the past video of the space on the own side) from the transmission content storage unit 151 (step S594).
  • the information processing apparatus 10-4B is the user A.
  • the content (the past video of the space on the user's side) designated by the date and time designated by the (user on the other party space side constantly connected) is extracted from the transmission content storage unit 151 (step S600).
  • step S603 the extracted content (a past image of the space on the user's side) is transmitted to the information processing apparatus 10A (step S603).
  • the details are similar to step S433 described in the fourth embodiment.
  • the information processing device 10-4B transmits the synchronized content from the information processing device 10A. It receives (step S609).
  • the information processing device 10-4B performs processing from the information processing device 10A when the processing of the past image is necessary.
  • the content is received (step S612). If the processing is not necessary, the preparation completion flag may be transmitted as in the third embodiment to check whether the preparation completion flag is complete.
  • the information processing apparatus 10B since the information processing apparatus 10B does not have the content synchronization function or the processing function, when processing or synchronization is required in the display method of the recollection function, the processed content or the synchronization content generated by the information processing apparatus 10A.
  • the information processing device 10-4B displays (synthesizes) the received past image (or the processed content or the synchronized content) of the other party space (space A) together with the picture of the other party space in real time (step S615).
  • each information processing device 10- The playback timing of the past video in 4 is synchronized, and at the same time, past videos and the like in the same time zone can be played back respectively.
  • FIG. 35 is a block diagram showing an example of the hardware configuration of the information processing apparatus according to the present embodiment.
  • the information processing apparatus 900 shown in FIG. 35 for example, the information processing apparatus 10 shown in FIG. 4, the information processing apparatus 10-1 shown in FIG. 21, the information processing apparatus 10-2 shown in FIG.
  • Information processing by the information processing apparatuses 10, 10-1 to 10-4, or the server 20 according to the present embodiment is realized by cooperation of software and hardware described below.
  • the information processing apparatus 900 includes a central processing unit (CPU) 901, a read only memory (ROM) 902, a random access memory (RAM) 903 and a host bus 904a.
  • the information processing apparatus 900 further includes a bridge 904, an external bus 904 b, an interface 905, an input device 906, an output device 907, a storage device 908, a drive 909, a connection port 911, and a communication device 913.
  • the information processing apparatus 900 may have a processing circuit such as an electric circuit, a DSP, or an ASIC instead of or in addition to the CPU 901.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing apparatus 900 according to various programs. Also, the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters and the like that appropriately change in the execution.
  • the CPU 901 includes, for example, the control unit 100 shown in FIG. 4, the control unit 200 shown in FIG. 17, the control unit 100-1 shown in FIG. 21, the control unit 100-2 shown in FIG. 24, and the control unit 100-3 shown in FIG. Or, the control unit 100-4 shown in FIG. 30 can be formed.
  • the CPU 901, the ROM 902, and the RAM 903 are mutually connected by a host bus 904a including a CPU bus and the like.
  • the host bus 904 a is connected to an external bus 904 b such as a peripheral component interconnect / interface (PCI) bus via the bridge 904.
  • PCI peripheral component interconnect / interface
  • the host bus 904a, the bridge 904, and the external bus 904b do not necessarily need to be separately configured, and these functions may be implemented on one bus.
  • the input device 906 is realized by, for example, a device such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever to which information is input by the user. Further, the input device 906 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or PDA corresponding to the operation of the information processing apparatus 900. . Furthermore, the input device 906 may include, for example, an input control circuit that generates an input signal based on the information input by the user using the above input unit, and outputs the generated input signal to the CPU 901. The user of the information processing apparatus 900 can input various data to the information processing apparatus 900 or instruct processing operations by operating the input device 906.
  • the output device 907 is formed of a device capable of visually or aurally notifying the user of the acquired information.
  • Such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, laser projectors, display devices such as LED projectors and lamps, audio output devices such as speakers and headphones, printer devices, etc. .
  • the output device 907 outputs, for example, results obtained by various processes performed by the information processing apparatus 900.
  • the display device visually displays the results obtained by the various processes performed by the information processing apparatus 900 in various formats such as text, images, tables, graphs, and the like.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data and the like into an analog signal and aurally outputs it.
  • the storage device 908 is a device for data storage formed as an example of a storage unit of the information processing device 900.
  • the storage device 908 is realized by, for example, a magnetic storage unit device such as an HDD, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the storage device 908 may include a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded in the storage medium.
  • the storage device 908 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the storage device 908 includes, for example, the storage unit 150 shown in FIG. 4, the content storage unit 220 shown in FIG. 17, the storage unit 150-1 shown in FIG. 21, the storage unit 150-2 shown in FIG.
  • a storage unit 150-4 shown in FIG. 30 may be formed.
  • the drive 909 is a reader / writer for a storage medium, and is built in or externally attached to the information processing apparatus 900.
  • the drive 909 reads out information recorded in a removable storage medium such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 903.
  • the drive 909 can also write information to the removable storage medium.
  • connection port 911 is an interface connected to an external device, for example, connection to an external device capable of data transmission by USB (Universal Serial Bus), infrared, Bluetooth (registered trademark), Wi-Fi (registered trademark), etc. It is a mouth.
  • the connection port 911 may form, for example, the operation I / F 120 illustrated in FIG. 4.
  • the communication device 913 is, for example, a communication interface formed of a communication device or the like for connecting to the network 920.
  • the communication device 913 is, for example, a communication card for wired or wireless Local Area Network (LAN), Long Term Evolution (LTE), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 913 may be a router for optical communication, a router for asymmetric digital subscriber line (ADSL), a modem for various communications, or the like.
  • the communication device 913 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or another communication device.
  • the communication device 913 may form, for example, the communication unit 140 shown in FIG. 4, FIG. 21, FIG. 24, FIG. 27, or FIG. 30, or the communication unit 210 shown in FIG.
  • the network 920 is a wired or wireless transmission path of information transmitted from a device connected to the network 920.
  • the network 920 may include the Internet, a public network such as a telephone network, a satellite communication network, various LANs (Local Area Networks) including Ethernet (registered trademark), a WAN (Wide Area Network), or the like.
  • the network 920 may include a leased line network such as an Internet Protocol-Virtual Private Network (IP-VPN).
  • IP-VPN Internet Protocol-Virtual Private Network
  • each component described above may be realized using a general-purpose member, or may be realized by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level of the time of carrying out the present embodiment.
  • a computer program for realizing each function of the information processing apparatus 900 according to the present embodiment as described above can be created and implemented on a PC or the like.
  • a computer readable recording medium in which such a computer program is stored can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory or the like.
  • the above computer program may be distributed via, for example, a network without using a recording medium.
  • a computer program for causing the hardware such as the CPU, ROM, and RAM built in the above-described information processing apparatus 10 or server 20 to exhibit the functions of the information processing apparatus 10 or server 20 .
  • a computer readable storage medium storing the computer program is also provided.
  • An information processing apparatus that controls bi-directional communication between a first space and a second space, comprising: Control for displaying the first image information and the second image information in the first space, The control unit performs control to display third image information and fourth image information in the second space,
  • the first image information is current image information related to the second space
  • the second image information is past image information related to the second space
  • the third image information is current image information related to the first space
  • the information processing apparatus, wherein the fourth image information is past image information of the same time zone as the second image information regarding the first space.
  • An information processing apparatus in which control of bidirectional communication between a first space and a second space is performed, A control unit configured to perform control to display first image information and second image information in the first space;
  • the first image information is current image information related to the second space
  • the second image information is The past image information regarding the second space
  • An information processing apparatus which is image information of the same time zone as past image information regarding the first space displayed in the second space.
  • the control unit performs control of displaying, together with the first image information, content in which the past image information on the first space and the second image information are synchronized on a time axis.
  • the information processing apparatus performs control to superimpose and display content processed on the basis of the second image information on the first image information.
  • Processing unit performs control to superimpose and display content processed on the basis of the second image information on the first image information.
  • processing unit performs control to superimpose and display content processed on the basis of the second image information on the first image information.
  • processing unit performs control to superimpose and display content processed on the basis of the second image information on the first image information.
  • the processed content is a processed image of a person extracted from the second image information.
  • the control unit controls a position where the processed image of the extracted person is superimposed and displayed on the first image information based on depth information of the person.
  • the processed image of the person is a 3D modeled image of the extracted person, and is displayed on a virtual space provided in front of the first image information in the display unit of the first space,
  • the information processing apparatus according to (6).
  • An information processing method for controlling two-way communication between a first space and a second space comprising: Processor is Control for displaying the first image information and the second image information in the first space, Including performing control to display third image information and fourth image information in the second space;
  • the first image information is current image information related to the second space,
  • the second image information is past image information related to the second space,
  • the third image information is current image information related to the first space,
  • the information processing method wherein the fourth image information is past image information of the same time zone as the second image information regarding the first space.
  • a program that functions as an information processing apparatus that controls bi-directional communication between a first space and a second space comprising: further, Control for displaying the first image information and the second image information in the first space, It is made to function as a control unit that performs control to display the third image information and the fourth image information in the second space,
  • the first image information is current image information related to the second space
  • the second image information is past image information related to the second space
  • the third image information is current image information related to the first space
  • the program according to the fourth aspect wherein the fourth image information is past image information of the same time zone as the second image information regarding the first space.
  • the first image information is current image information related to the second space,
  • the second image information is The past image information regarding the second space, and
  • An information processing method which is image information of the same time zone as past image information related to the first space displayed in the second space.
  • (13) Computer Function as an information processing apparatus in which control of bidirectional communication between the first space and the second space is performed, further, It functions as a control unit that performs control to display the first image information and the second image information in the first space,
  • the first image information is current image information related to the second space
  • the second image information is The past image information regarding the second space
  • a program which is image information of the same time zone as past image information related to the first space displayed in the second space.
  • Reference Signs List 1 information processing system 10 (10A, 10B), 10-1 to 10-4 information processing apparatus 20 server 30 network 100 control unit 101 function selection unit 102 image combining unit 103 output control unit 104 content processing unit 105 content synchronization unit 110 input Part 120 Operation I / F 130 output unit 131 display 140 communication unit 150 storage unit 151 transmission content storage unit 152 reception content storage unit 200 control unit 201 content processing unit 202 content synchronization unit 210 communication unit 220 content storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】リアルタイムでの空間の繋がりを維持したまま過去の双方向コミュニケーションを振り返ることが可能な情報処理装置、情報処理方法、およびプログラムを提供する。 【解決手段】第1の空間と第2の空間の双方向通信を制御する情報処理装置であって、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部を備え、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 昨今の情報処理技術の発展に伴い、企業や教育の場で行われる会議、セミナー、又は講演会等の様々な形態の会合の運用を支援する種々の情報処理システムが提案されている。
 例えば、会議支援システムの一例として遠隔会議システムが挙げられる。遠隔会議システムでは、遠隔に位置する複数の会議室に、表示装置、カメラ、マイク、およびスピーカが設置され、各会議室で取得された映像および音声が他の会議室に送信されてリアルタイムで出力され、遠隔に位置する複数の会議間でも会議を同時に進行することが可能となる。
 また、異なる場所に居る複数人でのリアルタイムでのコンテンツの共有という観点からは、例えば下記特許文献1において、複数のユーザが同一のコンテンツをリアルタイムで閲覧し、スクロールやマウスカーソルもリアルタイムで共有できるコンテンツ共有システムが開示されている。かかるシステムにより、複数のユーザで話題のWebページを題材にチャットを行うといったコミュニケーションが実現可能となる。
 また、下記特許文献2では、会合の様子を撮像した動画像と、会合で参照したプレゼンテーション資料画像を、時間軸上で同期を取りながら対応付けることで、会合の様子を実際に使用した資料画像と共に再現することができるコンテンツ処理システムが開示されている。かかるシステムにより、閲覧者は同一の時間帯でのビデオおよび資料画面を見比べながら閲覧することが出来る。
特許第5857443号公報 特開2005-260512号公報
 しかしながら、上述した遠隔会議システムや特許文献1に記載のコンテンツ共有システムは、リアルタイムで同一のコンテンツを閲覧したり、互いの会議室の様子を見たりといったリアルタイムで起きている現象の共有を対象とした技術であって、過去の現象の共有は行われていなかった。
 また、上記特許文献2では、過去の会合のビデオと資料画面を同一の時間帯で閲覧することが可能であるが、双方向コミュニケーションの再現については言及されていない。特に現在の複数空間の接続を維持したまま過去の双方向コミュニケーションを再現するといったことは考慮されていなかった。
 そこで、本開示では、リアルタイムでの空間の繋がりを維持したまま過去の双方向コミュニケーションを振り返ることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、第1の空間と第2の空間の双方向通信を制御する情報処理装置であって、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部を備え、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理装置を提案する。
 本開示によれば、第1の空間と第2の空間の双方向通信の制御が行われる情報処理装置であって、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行う制御部を備え、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であって、前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、情報処理装置を提案する。
 本開示によれば、第1の空間と第2の空間の双方向通信を制御する情報処理方法であって、プロセッサが、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行うことを含み、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理方法を提案する。
 本開示によれば、コンピュータを、第1の空間と第2の空間の双方向通信を制御する情報処理装置として機能させるプログラムであって、さらに、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部として機能させ、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、プログラムを提案する。
 本開示によれば、第1の空間と第2の空間の双方向通信の制御が行われる情報処理方法であって、プロセッサが、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行うことを含み、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であって、前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、情報処理方法を提案する。
 本開示によれば、コンピュータを、第1の空間と第2の空間の双方向通信の制御が行われる情報処理装置として機能させ、さらに、前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行う制御部として機能させ、前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、前記第2の画像情報は、前記第2の空間に関する過去の画像情報であって、前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、プログラムを提案する。
 以上説明したように本開示によれば、リアルタイムでの空間の繋がりを維持したまま過去の双方向コミュニケーションを振り返ることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理システムを用いたコミュニケーションの様子について説明する図である。 本実施形態による情報処理システムの全体構成の一例を示す図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態による仮想空間に表示されるメニュー選択画面の一例を示す図である。 本実施形態による想い出機能が選択された場合の過去映像の選択方法の一例を示す図である。 本実施形態による想い出機能を利用して各空間において双方向にお互いから見えていた過去映像をそれぞれ表示する例である。 本実施形態による想い出機能を利用して各空間においてお互いから見えていた双方の過去映像を表示する例である。 図8に示す双方の過去映像を表示する場合の表示サイズの他の例を示す図である。 図8に示す双方の過去映像を表示する場合の表示サイズの他の例を示す図である。 本実施形態による想い出機能を利用して各空間において過去映像を表示する表示方法のバリエーションについて説明する図である。 本実施形態による想い出機能を利用して各空間において過去映像を表示する表示方法のバリエーションについて説明する図である。 本実施形態による想い出機能を利用した過去映像の雰囲気を伝える表示例として過去映像から抽出した人物のシルエットを表示する例を示す図である。 本実施形態による想い出機能を利用して過去映像から抽出した人物を深度情報を参照して配置する例を示す図である。 本実施形態による想い出機能を利用して相手側および自分側の過去映像からそれぞれ抽出した人物を両方合成する例を示す図である。 本実施形態による想い出機能を利用して相手側および自分側の過去映像からそれぞれ抽出した人物の3Dモデルを生成して仮想空間上に配置する例を示す図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態による想い出機能を実行する場合における情報処理装置の動作処理を示すフローチャートである。 本実施形態による想い出機能を実行する場合におけるサーバの動作処理を示すフローチャートである。 本実施形態による他のシステム構成例を示す図である。 他のシステム構成例に係る第1の実施例による情報処理装置の構成の一例を示す図である。 他のシステム構成例に係る第1の実施例による情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第1の実施例による情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第2の実施例による情報処理装置の構成の一例を示す図である。 他のシステム構成例に係る第2の実施例による情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第2の実施例による情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第3の実施例による情報処理装置の構成の一例を示す図である。 他のシステム構成例に係る第3の実施例による情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第3の実施例による情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第4の実施例による情報処理装置の構成の一例を示す図である。 他のシステム構成例に係る第4の実施例による第1の情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第4の実施例による第1の情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第4の実施例による第2の情報処理装置の動作処理を示すフローチャートである。 他のシステム構成例に係る第4の実施例による第2の情報処理装置の動作処理を示すフローチャートである。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.情報処理装置10の構成
  2-2.サーバ20の構成
 3.動作処理
  3-1.想い出機能実行に関する情報処理装置10Aの動作処理
  3-2.想い出機能実行に関するサーバ20の動作処理
 4.他のシステム構成例
  4-1.第1の実施例
  4-2.第2の実施例
  4-3.第3の実施例
  4-4.第4の実施例
 5.ハードウェア構成
 6.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システム1は、離れた場所に位置する空間同士(例えば空間Aおよび空間B)を、映像・音声・その他の情報チャンネルによって接続する空間隣接テレプレゼンスシステムである。
 具体的には、例えば空間Aおよび空間Bにそれぞれ設置されたカメラおよびマイクロホン(不図示)により空間情報(映像および音声)が取得されると、リアルタイムで相手側の空間に送信され、例えば相手空間のリビングやダイニング等の壁に設置されたディスプレイ131およびスピーカ(不図示)から出力される。ディスプレイ131は、相手空間と繋がる仮想的な窓(若しくは、ドアや出入口)であって、仮想的な窓から相手側の空間の様子が見えるため、ユーザは、相手側の空間があたかもすぐ隣にある部屋のように感じ、相手ユーザと同じ場所にいるような感覚を得ることができる。ここで、図2を参照し、本実施形態による情報処理システムを用いたコミュニケーションの様子について説明する。
 図2に示すように、例えば空間Aにおいて、部屋の壁等に大型のディスプレイ131Aが設置されている。ディスプレイ131Aの周辺またはディスプレイ131A上には、カメラ、マイクロホン、及びスピーカが設置される。これらはそれぞれ複数設けられていてもよい。また、カメラ、マイクロホン、及びスピーカの配置場所は特に限定しないが、カメラは、ディスプレイ131A側から部屋の内部方向を撮像方向として空間Aの様子を撮像することが好ましい。なお空間Bにおいても同様に、ディスプレイ、カメラ、マイクロホン、及びスピーカが設置されている。
 ディスプレイ131Aには、接続する空間Bで取得された映像がリアルタイムで表示される。ディスプレイ131Aには、空間Bの映像310が画面全体に表示されてもよいし(この場合、空間Aの壁を介してすぐ隣に空間Bが存在しているように感じられる)、図2に示すように、奥行きを持たせて少し離れた場所に空間Bの映像310を表示し、空間Bとの間に仮想空間を生成してもよい。仮想空間を生成した場合、空間Bの映像310と空間Aの仮想的な窓(ディスプレイ131Aの枠)が地続きして見えるよう、例えば通路画像320を表示してもよい。
 また、ディスプレイ131Aのサイズおよび設置位置は特に限定しない。例えば図2に示すように、ディスプレイ131Aが人間より大きいサイズであって、ディスプレイ131Aの下辺が床の近くに位置していてもよいし、人間の上半身程のサイズで、ディスプレイ131Aの下辺が人間の腰の高さ程に位置していてもよい。
 また、ディスプレイ131Aの周辺には、カメラ、マイクロホン、及びスピーカが設置されている。スピーカ(不図示)からは、相手空間で取得された音声(発話音声に限定されず、ドアの開け閉めやテレビの音、および足音等の生活音を含む様々な環境音)が出力されるため、相手の姿が見えなくとも相手空間の雰囲気や気配を感じることが出来る。特に離れて暮らす家族の部屋を常時繋げた場合、互いの状況をいつでも確認することができるため、遠隔地で様子がわからない不安が減り、安心感を得られる。
 また、従来の例えばスマートフォンやPC(パーソナルコンピュータ)等の情報通信端末を用いたビデオチャットでは、用事があるときに相手を呼び出して目的を持った会話が行われていたが、本実施形態による空間隣接テレプレゼンスシステムは基本的には相手空間と常時接続しているため、気軽に話し掛けたり何気ない会話が行いやすく、コミュニケーションが増えるといった効果が生じる。また、仮想的な窓から相手の顔が見えない状態であっても声は聞こえるため、顔を見ないで会話をすることも可能である。
(背景)
 ここで、空間隣接テレプレゼンスシステムでは、リアルタイムに相手空間と接続することでコミュニケーションを手軽に取ることができるが、日常の様子やその場所で起きた特別なイベントを後から思い出し、接続相手との過去を振り返るようなコミュニケーションを取ることも考えられる。
 そこで、本実施形態では、空間隣接テレプレゼンスシステムにおいて、その空間で起こった過去の出来事(すなわち、過去の双方向コミュニケーション)を、リアルタイムで空間が隣接しているように見える効果は維持したまま過去の様子を振り返ることを可能とする。
 具体的には、各空間の映像および音声等の空間情報を記憶しておき、互いの空間の仮想的な窓から見えていた相手空間の様子(過去映像)を時間軸上で同期し、各空間でそれぞれ再生することで、それぞれの空間で見えていた相手空間の過去の様子(過去の双方向コミュニケーション)を同じタイミングで振り返ることが可能となる。かかる過去の様子を振り返る機能は、本実施形態による空間隣接テレプレゼンスシステムにおいて、「想い出機能」として設けられる。
 このような本実施形態による情報処理システムは、例えば図3に示すような構成を有する。図3は、本実施形態による情報処理システムの全体構成の一例を示す図である。
 図3に示すように、本実施形態による情報処理システム1は、複数の情報処理装置10(10A、10B)と、サーバ20とを含む。情報処理装置10A、情報処理装置10B、およびサーバ20は、ネットワーク30を介して接続されている。
 各情報処理装置10は、各空間に設けられた入力部および出力部を用いて空間情報の入出力の制御を行う。具体的には、情報処理装置10Aは、空間Aの映像または音声といった空間情報を空間Aに設置された入力部から取得し、サーバ20または情報処理装置10Bに送信する。また、情報処理装置10Aは、情報処理装置10Bまたはサーバ20から受信した情報処理装置10Bの空間情報(映像および音声)を、空間Aに設置された出力部から出力する制御を行う。
 サーバ20は、各情報処理装置10から送信された各空間の空間情報を記憶する。また、サーバ20は、空間隣接テレプレゼンスシステムにおいて双方向コミュニケーションの過去の振り返りが行われる場合、蓄積した過去の空間情報を、適宜、情報処理装置10Aおよび情報処理装置10Bに送信する制御、また、各空間の過去の空間情報に対して時間軸上の同期を取る制御を行う。
 以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
 <<2.構成>>
  <2-1.情報処理装置10の構成>
 図4は、本実施形態による情報処理装置10の構成の一例を示すブロック図である。図4に示すように、情報処理装置10は、制御部100、入力部110、操作I/F(インタフェース)120、出力部130、通信部140、および記憶部150を有する。
 (制御部100)
 制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 制御部100は、入力部110から様々な空間情報を取得し、取得した空間情報を記憶部150に蓄積、さらに送信部141からサーバ20へ送信する制御を行う。入力部110からは、例えば、映像、音声、深度情報等が得られる。制御部100は、ノイズ処理や圧縮等、所定の加工処理を施した情報を蓄積、送信するようにしてもよい。
 また、制御部100は、入力部110から得られた様々な空間情報に基づいて、ユーザ認識を行うことも可能である。ユーザ認識は、例えば予め登録された顔画像と比較することによりユーザが誰であるかを認識するユーザ識別や、ユーザの位置(部屋の中のどの場所に居るか)、姿勢(歩いているか、座っているか、立っているか等)、感情(笑っているか、怒っているか等)、行動(何をしている状況であるか)等の状況認識が想定される。
 また、制御部100は、入力部110から得られた音声情報に基づいて、ユーザの発話音声を認識することが可能である。
 また、制御部100は、入力部110から得られた様々な空間情報に基づいて、空間の環境(例えば物体認識(どこに何があるか))を認識することが可能である。
 制御部100は、このような各種認識結果を空間情報に含めて記憶部150に蓄積したり、送信部141からサーバ20へ送信したりしてもよい。
 また、本実施形態による制御部100は、機能選択部101、画像合成部102、および出力制御部103としても機能する。
 機能選択部101は、本実施形態による空間隣接テレプレゼンスシステムにおいて利用可能な機能の選択を行う。例えば機能選択部101は、リモートコントローラ等を用いて行われたユーザ操作情報を操作I/F120から取得し、ユーザ操作に従った機能を選択する。利用可能な機能は、例えばデジタルカメラ等により撮像された撮像画像を相手ユーザと一緒に閲覧するアルバム機能、相手ユーザと仮想空間を利用して何らかのゲームを行うゲーム機能、相手空間との双方向コミュニケーションを相手ユーザと振り返る想い出機能(本実施形態による過去の様子を振り返る機能)等が想定される。ここで、図5を参照してメニュー選択の方法について説明する。
 図5に示すように、ディスプレイ131には、常時接続している相手空間の映像310と、相手空間とユーザ側とを繋ぐ仮想空間の通路画像320と、を含む画像300が表示されている。この際、所定のトリガ操作(例えばユーザのジェスチャ、音声、タッチ操作、ボタン操作、リモートコントローラによる操作)に応じて、図5に示すように、メニューアイコン330が仮想空間上、相手空間の映像310の手前側に表示される。図5に示すアイコンの画像は一例であって、本実施形態はこれに限定されない。例えば、アイコン330aはアルバム機能のアイコン、アイコン330bはゲーム機能のアイコン、アイコン330cは想い出機能のアイコン、アイコン330dはツール機能のアイコン、アイコン330eは設定機能のアイコンである。ユーザは、リモートコントローラ(不図示)、ジェスチャ、音声、ディスプレイ131の画面へのタッチ操作、又は画面周辺に設けられたボタン等の操作部(不図示)の操作等により、アイコンの選択を行う。
 ここで、例えば想い出機能のアイコン330cが選択された場合における過去映像の選択方法の一例について図6を参照して説明する。想い出機能のアイコン330cが選択された場合、例えば図6左に示すようにカレンダー画像331が表示される。カレンダー画像331から振り返りたい日付を選択すると、図6右に示すように、選択した日付の1日の過去映像を検索するシークバー332が表示される。ユーザは、シークバー332を操作し、対応して表示される過去映像333を確認しながら振り返りたい時間帯を選択する。検索する過去映像333は、自分側の空間から見えていた相手空間の映像であってもよいし、相手側の空間から見えていた自分側の空間の映像であってもよい。なお図6に示す過去映像の検索および選択方法は一例であって、本実施形態はこれに限定されず、日付や時間が指定できるものであれば他の方法であってもよい。
 画像合成部102は、想い出機能により選択された時間帯の過去映像がサーバ20から送信された際、当該過去映像を、現在繋がっている相手空間のリアルタイムの映像に合成する処理を行う。サーバ20からは、相手空間の過去映像の他、過去映像に基づいて生成された加工コンテンツ(例えば、過去映像から人物だけを抜き出した画像や3Dモデル)や、相手空間の過去映像と自分側の空間の過去映像が時間軸上で同期された同期コンテンツが受信され得る。
 出力制御部103は、受信部142により受信した、常時接続する相手空間のリアルタイムの空間情報を出力部130から出力する制御を行う。例えば、出力制御部103は、空間Aに設けられたディスプレイ131に、空間Bで撮像されたリアルタイムの映像を表示し、空間Aに設けられたスピーカ(不図示)から、空間Bで集音されたリアルタイムの音声を出力する制御を行う。ディスプレイ131は、例えば図2に示すように部屋の壁等に設置された大型の表示部であって、かかるディスプレイ131に表示される相手空間の映像は、ディスプレイ131を仮想的な窓とした場合に違和感の無く見えるよう適切な画角で撮像されたものである。このようなディスプレイ131の配置および相手空間の映像の表示は相手空間でも同様に行われ、これにより互いの空間が隣接しているように見え、各ユーザはディスプレイ131を介して双方向にコミュニケーションを行うことができる。
 出力制御部103は、ディスプレイ131において、相手空間の映像を仮想空間内に配置した表現で表示(すなわち隣接する空間との距離を設けて表示)してもよいし、仮想空間を設けずに(すなわち隣接する空間との距離ゼロで)ディスプレイ131の画面全体に相手空間の映像を表示してもよい。いずれの表示方法を選択するか、また、仮想空間を設ける場合はどの程度離れた距離とするか、仮想空間のシーン設定はどのようなものにするかといった種々の設定内容は、自動で(デフォルトで)設定してもよいし、ユーザにより選択されてもよい。また、かかる設定を相手空間における表示方法と共有するようにしてもよい。
 また、出力制御部103は、上述した画像合成部102により合成された画像をディスプレイ131に表示する制御を行い得る。ここで、図7~図16に、想い出機能利用時における過去映像等の合成の具体例を示す。いずれの表示方法にするかは、システム側で自動で(デフォルトで)設定してもよいし、ユーザが任意に選択して変更してもよい。また、いずれかのユーザが選択した表示方法は、空間Aと空間Bとで共有され得る。
 図7は、各空間において双方向にお互いから見えていた過去映像をそれぞれ表示する例である。この場合、図7に示すように、ユーザBが居る空間Bのディスプレイ131Bには、空間Bから見えていた空間Aの過去映像333が、現在のリアルタイムの空間Bの映像340の手前の仮想空間上に配置されている。一方、ユーザAが居る空間Aのディスプレイ131Aには、空間Aから見えていた空間Bの過去映像335が、現在のリアルタイムの空間Bの映像310の手前の仮想空間上に配置されている。これらの過去映像333、335は、同時間帯の過去映像であって、各空間において同時に再生される。これにより各ユーザは、リアルタイムでの空間の繋がりを維持したまま(すなわちリアルタイムで相手空間のユーザと会話しながら)、過去の双方向コミュニケーションを振り返ることが可能となる。例えばユーザAがユーザBの息子であって、空間Aで行われた孫(ユーザC)の誕生日会の様子を、その場に居なかったユーザBに見せることが可能となる。ここでは双方向の過去映像をそれぞれ表示しているが、同時に集音された過去音声も出力され得る。
 図8は、各空間においてお互いから見えていた双方の過去映像を表示する例である。この場合、図8に示すように、ユーザBが居る空間Bのディスプレイ131Bには、空間Bから見えていた空間Aの過去映像333bおよび空間Aから見えていた空間Bの過去映像335bが、現在のリアルタイムの空間Bの映像340の手前の仮想空間上に配置されている。ディスプレイ131Bで同時表示される過去映像333bおよび過去映像335bは、同時間帯の過去映像であって、サーバ20により時間軸上で同期処理された同期コンテンツである。一方、ユーザAが居る空間Aのディスプレイ131Aには、空間Aから見えていた空間Bの過去映像335aおよび空間Bから見えていた空間Aの過去映像333aが、現在のリアルタイムの空間Bの映像310の手前の仮想空間上に配置されている。ディスプレイ131Aで同時表示される過去映像333aおよび過去映像335aも、同時間帯の過去映像であって、サーバ20により時間軸上で同期処理された同期コンテンツである。各同期コンテンツは、各空間において同時に再生される。これにより各ユーザは、リアルタイムでの空間の繋がりを維持したまま(すなわちリアルタイムで相手空間のユーザと会話しながら)、過去の双方向コミュニケーションにおけるお互いから見えていた両方の映像を振り返ることが可能となる。この場合、例えばユーザBは、相手空間(空間A)の過去の様子だけではなく、同時間帯における自分側の空間(空間B)の過去の様子も見ることができるため、例えば孫(ユーザC)がプレゼントを開けて遊んでいる空間Aの様子を見ている空間Bに居るユーザDの様子も同時に見ることが可能となる。また、ここでも当然に、双方向の過去映像の表示のみならず、同時に集音された過去音声も出力され得る。
 なお、図8に示す例において、過去映像の表示の大きさや配置は適宜ユーザ操作等により変更することが可能である。例えば図8に示す例では、相手空間の過去映像を自分側の空間の過去映像よりも仮想空間上で手前に配置されているが、これらの位置関係を維持したまま仮想空間上で前後の移動を行ってもよい。また、前後の位置関係を維持したまま図9や図10に示すように、表示サイズのバランスを変更してもよい。
 また、仮想空間上に過去映像を表示する方法のバリエーションとしては、図7~図10に示すような単に仮想空間上に配置する他、図11に示すように、仮想空間の通路画像320に置かれた装置から上方に投影されているように表現してもよいし、図12に示すように、仮想空間の通路画像320に置かれた写真立てに挟まれているように表現してもよい。
 図13は、過去映像の雰囲気を伝える表示例として過去映像から抽出した人物のシルエットを表示する例を示す図である。この場合、図13に示すように、ユーザBが居る空間Bのディスプレイ131Bには、空間Bから見えていた空間Aの過去映像333から抽出された人物のシルエット画像(例えばユーザCのシルエット、動画)が、現在のリアルタイムの空間Bの映像340に合成されている。空間の背景は同じであるため、過去の人物のシルエットを現在の映像に重畳表示するだけでも、過去にその空間に居た人物の動きや雰囲気を感じ取ることができる。一方、ユーザAが居る空間Aのディスプレイ131Aには、空間Aから見えていた空間Bの過去映像335から抽出された人物のシルエット画像(例えばユーザDのシルエット、動画)が、現在のリアルタイムの空間Bの映像310に合成されている。これらのシルエット画像は、同時間帯の過去映像であって、各空間において同時に再生される。
 過去画像から抽出した人物の表現は、図13に示すようなシルエット(影)であってもよいし、ぼかし表現であってもよいし、ボーン表現(身体の骨格を認識して生成した棒人間の表現)であってもよい。また、抽出した人物をそのまま表示してもよいし、透過して表示してもよい。
 また、抽出した人物の画像が合成される位置は、例えば深度情報に基づいて部屋のどの位置にいたかに基づいて配置されてもよい。
 また、抽出した人物の画像は、現在の映像に写る人物の手前に表示してもよいし、深度情報に基づいて現在の映像に写る人物の手前に位置する場合は手前に表示し、後ろに位置する場合は現在の人物の後ろに回り込むよう表示するようにしてもよい。一例を図14に示す。図14に示す例では、空間Aの過去映像から抽出されたユーザCとユーザEが、当該過去映像の深度情報に基づいて、空間Aの同背景に適宜配置されている。これにより、過去映像において、ユーザCは現在ユーザAが居る場所より手前に位置しており、ユーザEはユーザAの後ろに位置していたことが分かる。
 なお、図13および図14では、相手空間の過去映像から抽出した人物のみ合成していたが、本実施形態はこれに限定されず、さらに自分側の空間の過去映像から抽出した人物を合成してもよい。一例を図15に示す。この場合、図15に示すように、ユーザBが居る空間Bのディスプレイ131Bには、空間Bから見えていた空間Aの過去映像333から抽出された人物のシルエット画像(例えばユーザCのシルエット、動画)および空間Aから見えていた空間Bの過去映像335から抽出された人物のシルエット画像(例えばユーザDのシルエット、動画)が、現在のリアルタイムの空間Bの映像340に合成されている。一方、ユーザAが居る空間Aのディスプレイ131Aには、空間Aから見えていた空間Bの過去映像335から抽出された人物のシルエット画像(例えばユーザDのシルエット、動画)および空間Bから見えていた空間Aの過去映像333から抽出された人物のシルエット画像(例えばユーザCのシルエット、動画)が、現在のリアルタイムの空間Bの映像310に合成されている。これらのシルエット画像は、同時間帯の過去映像であって、各空間において同時に再生される。また、自分側の空間の過去映像から抽出した人物の画像は、図15に示すように、仮想空間の最も手前側に配置し、さらにその人物を後ろから見ているようユーザに知覚させるため、左右反転させたシルエットとしてもよい。若しくは、3Dモデルに基づいて生成されたその人物の後ろ姿を合成するようにしてもよい。また、図15に示す例では、抽出された人物がいずれもシルエットで表示されているが、本実施形態はこれに限定されない。例えば手前側の人物(自分側の空間の過去映像から抽出された人物)をシルエットで表示し、相手空間の過去映像から抽出した人物を図14に示すように透過表示させる等、抽出された人物の表示方法を異ならせてもよい。
 図16は、双方の空間の過去映像に基づいて抽出した人物の3Dモデルを生成し、仮想空間上で窓枠を介して向かい合うよう配置する例を示す図である。この場合、図16に示すように、ユーザBが居る空間Bのディスプレイ131Bには、空間Bから見えていた空間Aの過去映像333から抽出された人物の3D画像(例えばユーザCの3D画像、動画)と空間Aから見えていた空間Bの過去映像335から抽出された人物の3D画像(例えばユーザDの3D画像、動画)が、現在のリアルタイムの空間Bの映像340の手前に位置する仮想空間の通路画像320bに配置される。仮想空間の通路画像320bでは、各人物の3D画像が、仮想的な窓を挟んで向かい合うよう配置され、隣接する空間を表現する窓越しの関係が表現される。また、各人物の3D画像の窓枠から位置は、深度情報に基づいて適宜配置されてもよい。一方、ユーザAが居る空間Aのディスプレイ131Aでも同様に、空間Aから見えていた空間Bの過去映像335から抽出された人物のシルエット画像(例えばユーザDのシルエット、動画)と空間Bから見えていた空間Aの過去映像333から抽出された人物のシルエット画像(例えばユーザCのシルエット、動画)が、現在のリアルタイムの空間Aの映像310に合成されている。これら抽出された人物の3D画像は、同時間帯の過去映像に基づいて生成され、各空間において同時に再生される。
 このように、相手空間との隣接を維持しながら、仮想空間上で過去の双方向コミュニケーションを再現し、相手ユーザと共に両方の様子を俯瞰して振り返ることが可能となる。3Dモデル化は人物のみならず、人物周辺の様子をモデル化してもよい。また、仮想空間に配置する3Dモデル全体の大きさは適宜変更可能であって、例えばユーザがリモートコントローラ等により変更してもよい。
 (入力部110)
 入力部110は、空間情報を制御部100に入力する機能を有する。例えば入力部110は、カメラ、マイクロホン、およびセンサにより実現される。カメラは、複数であってもよく、空間内(例えばリビング)を撮像し、撮像画像を取得する。また、マイクロホンは、複数であってもよく、空間内の音(例えば部屋の中の音や、部屋の外から聞こえる音等)を集音し、音声データを取得する。また、センサは、空間内の各種情報を検知する機能を有し、例えば、深度センサ(距離センサ)、人感センサ、赤外線センサ、照度センサ等が想定される。
 (操作I/F120)
 操作I/F120は、ユーザによる操作入力を受け付け、制御部100に操作情報を出力する。操作I/F120は、例えばボタン、スイッチ、キーボード、タッチセンサ等により実現され、ディスプレイ131の周辺等に設けられる。また、操作I/F120は、ユーザにより操作されるリモートコントローラと無線/有線通信により接続し、ユーザによる操作入力情報を取得し得る。リモートコントローラは、IR(赤外線)リモートコントローラであってもよいし、Bluetooth(登録商標)リモートコントローラであってもよい。また、リモートコントローラは、専用端末であってもよいし、スマートフォンやタブレット端末等の情報通信端末により実現されてもよいし、ゲーム装置(ゲームパッド等)で代用されてもよい。また、ユーザ操作の入力は、手の動き等のジェスチャや発話音声によっても可能である。ジェスチャや発話音声の解析は、入力部110から得られた撮像画像や音声情報に基づいて制御部100により行われ得る。
 (通信部140)
 通信部140は、有線または無線によりネットワーク30と接続し、ネットワーク30を介してサーバ20や他の情報処理装置10と接続し、データの送受信を行う。通信部140は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等によりネットワーク30と通信接続する。また、図4に示すように、通信部140は、機能構成として情報の送信を行う送信部141および情報の受信を行う受信部142を含む。
 (出力部130)
 出力部130は、制御部100の制御に従って、例えば相手空間のリアルタイムの空間情報を出力する。例えば出力部130は、ディスプレイ131およびスピーカを含み、画像の出力および音声の出力を行う。ここでは一例としてディスプレイ131を用いるが画像表示装置はディスプレイ131に限定されず、例えばプロジェクターであってもよい。情報処理装置10は、部屋の壁に相手空間のリアルタイムの映像を投影してもよい。
 (記憶部150)
 記憶部150は、制御部100の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 以上、本実施形態による情報処理装置10の構成について具体的に説明した。なお情報処理装置10の構成は図4に示す例に限定されず、例えば一部の構成が別体により実現され、情報処理装置10と無線/有線により接続していてもよい。すなわち、情報処理装置10が複数の装置により構成されていてもよい。また、情報処理装置10の制御部100により行われる処理の一部が、サーバ20またはサーバ20との間に位置する中間サーバ(不図示)により行われてもよい。これにより情報処理装置10の処理負担が軽減される。
  <2-2.サーバ20の構成>
 図17は、本実施形態によるサーバ20(情報処理装置)の構成の一例を示すブロック図である。図17に示すように、サーバ20は、制御部200、通信部210、およびコンテンツ記憶部220を有する。
 (制御部200)
 制御部200は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ2内の動作全般を制御する。制御部200は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部200は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 制御部200は、各情報処理装置10から送信された空間情報をコンテンツ記憶部220に蓄積する制御を行う。また、制御部200は、情報処理装置10からのリクエストに応じて、適宜必要な情報を情報処理装置10に送信したり、情報処理装置10での出力制御を行う。
 例えば、制御部200は、情報処理装置10から想い出機能実行のリクエストがあった場合、指定された日時のコンテンツ(すなわち過去映像、過去音声)をコンテンツ記憶部220から抽出(検索)して情報処理装置10に送信し、ディスプレイ131において相手空間の現在の映像と共に表示するよう制御する。
 また、本実施形態による制御部200は、コンテンツ加工部201およびコンテンツ同期部202としても機能する。制御部200は、情報処理装置10からのリクエストに応じて、コンテンツ加工部201により過去映像を加工した加工コンテンツまたはコンテンツ同期部202により双方の過去映像(空間Aおよび空間Bの過去映像)を同期した同期コンテンツを情報処理装置10に送信し、ディスプレイ131において相手空間の現在の映像と共に表示するよう制御する。
 コンテンツ加工部201は、想い出機能の利用において、所定の過去映像から人物のみを抽出した人物画像を生成したり、過去映像および対応する(同時間帯の)センサ情報に基づく3次元情報から過去映像に映る人物の3Dモデルを生成したりする。
 コンテンツ同期部202は、図8を参照して説明したように各空間で双方の過去映像を表示する場合に、選択された同時間帯の空間Aおよび空間Bの各過去映像を同時間軸上で関連付けた(同期させた)コンテンツ(同期コンテンツとも称す)を生成する。
 (通信部210)
 通信部210は、有線または無線によりネットワーク30と接続し、ネットワーク30を介して各情報処理装置10とデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(Wireless Fidelity、登録商標)等によりネットワーク30と接続し得る。
 (コンテンツ記憶部220)
 コンテンツ記憶部220は、各情報処理装置10から送信された空間情報を記憶する。また、コンテンツ記憶部220は、コンテンツ記憶部220に記憶された空間情報から抽出した所定の過去映像に基づいてコンテンツ加工部201により加工されたコンテンツや、コンテンツ同期部202により生成された同期コンテンツを記憶してもよい。また、コンテンツ記憶部220は、制御部200の処理に用いられるプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMにより実現され得る。
 以上、本実施形態によるサーバ20の構成について具体的に説明した。なお図17に示すサーバ20の構成は一例であって、本実施形態はこれに限定されない。例えばサーバ20の少なくとも一部の構成が外部装置にあってもよいし、制御部200の各機能の少なくとも一部が情報処理装置10または通信距離が比較的情報処理装置10に近い情報処理端末(例えば、いわゆるエッジサーバなど)により実現されてもよい。このように、サーバ20の各構成を適宜分散することで、リアルタイム性の向上や処理負担の軽減、さらにはセキュリティを担保することが可能となる。
 <<3.動作処理>>
 続いて、本実施形態による情報処理システムの動作処理について図18および図19を用いて具体的に説明する。図18は、本実施形態による想い出機能を実行する場合における情報処理装置10Aの動作処理を示すフローチャートである。ここでは空間Aと空間Bが常時接続している場合を前提として、一例として空間Aにおいて空間情報の入出力を行う情報処理装置10Aの動作処理について説明するが、空間Bにおいて空間情報の入出力を行う情報処理装置10Bも同様の動作処理を行い得る。また、図19は、本実施形態による想い出機能を実行する場合におけるサーバ20の動作処理を示すフローチャートである。
  <3-1.想い出機能実行に関する情報処理装置10Aの動作処理>
 図18に示すように、まず、情報処理装置10Aは、入力部110から空間Aのリアルタイムの空間情報(映像、音声、センサ情報)を取得する(ステップS103)。
 次に、情報処理装置10Aは、空間Aのリアルタイムの空間情報を、サーバ20及び情報処理装置10Bに送信する(ステップS106)。
 次いで、情報処理装置10Aは、情報処理装置10Bから、空間Bのリアルタイムの空間情報を受信し(ステップS109)、空間Aのディスプレイ131Aおよびスピーカから出力するよう制御する(ステップS112)。
 情報処理装置10Aは、上記ステップS103~ステップS112の処理を繰り返し、空間Bとの常時接続を実現する。なお、情報処理装置10Bでも同様の処理が行われ、空間Aのリアルタイムの空間情報が空間Bのディスプレイ131Bおよびスピーカから出力されている。
 続いて、情報処理装置10Aは、ユーザ側から想い出機能の操作入力があった場合(ステップS115/Yes)、指定された日時情報をサーバ20に送信する(ステップS118)。すなわち、図5および図6を参照して説明したように、想い出機能のアイコン330cが選択され、ユーザにより所定の日時が指定された場合、指定された日時をサーバ20に想い出機能の実行リクエストとして送信する。
 次いで、情報処理装置10Aは、指定された日時のコンテンツをサーバ20から受信する(ステップS122)。
 一方、ユーザ側からの想い出機能の操作入力ではなく(ステップS115/No)、相手側からの想い出機能の操作入力があった場合(ステップS125/Yes)、情報処理装置10Aは、ユーザB(常時接続している相手空間側のユーザ)が指定した日時のコンテンツをサーバ20から受信する(ステップS128)。
 ここで、サーバ20から受信する指定日時のコンテンツとは、例えば相手空間の指定日時の過去映像、指定日時の過去映像に基づいて加工された加工コンテンツ、若しくは同時間帯の自分側の空間の過去映像と相手空間の過去映像が同期された同期コンテンツである。
 次に、情報処理装置10Aは、受信したコンテンツを、空間Bから継続的に受信しているリアルタイムの空間情報(現在の空間Bの映像)と合成し、ディスプレイ131Aに表示する(ステップS130)。コンテンツの合成例は、図7~図16に示した通りである。情報処理装置10Aは、過去映像の音声も併せてスピーカから出力してもよい。
  <3-2.想い出機能実行に関するサーバ20の動作処理>
 続いて、サーバ20の動作処理について図18を参照して説明する。
 図18に示すように、まず、サーバ20は、情報処理装置10A及び情報処理装置10Bから各空間(空間A及び空間B)のリアルタイムの空間情報(映像、音声、センサ情報)をそれぞれ受信する(ステップS133)。
 次に、サーバ20は、受信した各リアルタイムの空間情報をコンテンツ記憶部220に保存する(ステップS136)。
 次いで、情報処理装置10Aまたは情報処理装置10Bから、想い出機能実行のリクエストがあった場合(ステップS139/Yes)、サーバ20は、指定された日時のコンテンツ(空間Aの過去映像及び空間Bの過去映像)をコンテンツ記憶部220から抽出する(ステップS142)。
 次に、サーバ20は、過去映像の加工が必要な場合(ステップS145/Yes)、コンテンツ加工部201によりコンテンツの加工を行う(ステップS148)。具体的には、例えばコンテンツ加工部201は、想い出機能の表示方法としてユーザによりシルエット表示が選択された場合、過去映像から人物を抽出してシルエット加工する処理を行う。
 次に、想い出機能の表示方法として、ユーザが自分側の過去映像も見ることが選択されている場合(ステップS151/Yes)、サーバ20のコンテンツ同期部202は、抽出した空間Aおよび空間Bの過去映像の時間軸を同期したコンテンツ(同期コンテンツ)を生成する(ステップS154)。「自分側の過去映像も見ることが選択されている場合」とは、図8~図12、図15、及び図16を参照して説明したように、相手空間と自分側の空間の過去映像を同時に見る表示方法が選択された場合を想定する。
 そして、サーバ20は、生成した同期コンテンツを情報処理装置10A及び情報処理装置10Bに(同時に)送信する(ステップS157)。情報処理装置10A及び情報処理装置10B側では、受信した同期コンテンツ(指定時間帯における空間Aの過去映像と空間Bの過去映像とが時間軸上で同期されたコンテンツ)を、リアルタイムの相手空間の映像と共に表示する(図8~図12、図15、及び図16参照)。
 一方、ユーザが自分側の過去映像も見ることは選択されていない場合(ステップS151/No)、サーバ20は、抽出した空間Aの過去映像(若しくは加工したコンテンツ)は情報処理装置10Bに、空間Bの過去映像(若しくは加工したコンテンツ)は情報処理装置10Aに、(同時に)送信する(ステップS160)。情報処理装置10A及び情報処理装置10B側では、受信した過去映像(若しくは加工コンテンツ)を、リアルタイムの相手空間の映像と共に表示する(図7、図11~図14参照)。
 これにより、複数空間が隣接して接続している状態を維持したまま、過去の双方向コミュニケーションを共に振り返ることが可能となる。また、過去映像等はサーバ20から同時に情報処理装置10A及び情報処理装置10Bに送信されるため、これにより各情報処理装置10での過去映像の再生タイミングの同期が図られ、同時に同時間帯の過去映像等がそれぞれ再生され得る。
 <<4.他のシステム構成例>>
 以上、本開示の一実施形態による情報処理システムの構成および動作処理について説明したが、本実施形態による情報処理システムの構成は、図3に示す構成、すなわちサーバ20と情報処理装置10Aおよび情報処理装置10Bから成るサーバ-クライアント型のシステム構成に限定されない。例えば、サーバ20を含まない構成、具体的には図20に示すように、情報処理装置10-nAと情報処理装置10―nBから成るシステム構成により実現されてもよい。このような情報処理システム1xの場合における情報処理装置10-n(10-1~10-4)の構成例および動作処理について、以下複数の実施例を用いて具体的に説明する。
 <4-1.第1の実施例>
 (構成)
 図21は、他のシステム構成例に係る第1の実施例による情報処理装置10-1の構成の一例を示す図である。なお、第1の実施例では、各空間の情報処理装置10-1は同じ構成を有する。すなわち、第1の実施例による情報処理システム1-1は、情報処理装置10-1Aおよび10-1Bから成る。以下の説明では、情報処理装置10-1Bを、単に情報処理装置10Bと称す。
 図21に示すように、情報処理装置10-1は、制御部100-1、入力部110、操作I/F120、出力部130、通信部140、および記憶部150-1を有する。なお図3に示す情報処理装置10の構成と同じ個所については同符号を付し、ここでの詳細な説明は省略する。また、ここでは図3を参照して説明した構成と異なる部分について主に説明する。
 本実施例による制御部100-1は、入力部110から得られた、自分側の空間のリアルタイムの空間情報(映像、音声、センサ情報)を、常時接続する相手空間の情報処理装置10Bに送信する制御、および送信した当該空間情報を送信コンテンツ記憶部151に蓄積する制御を行う。また、制御部100-1は、情報処理装置10Bから受信した相手空間のリアルタイムの空間情報を、受信コンテンツ記憶部152に蓄積する制御、および出力部130から出力する制御を行う。また、制御部100-1は、想い出機能実行指示があった場合、指定された日時のコンテンツ(すなわち過去映像および過去音声等)を記憶部150-1から抽出(検索)する。また、制御部100-1は、図21に示すように、機能選択部101、画像合成部102、出力制御部103、コンテンツ加工部104、およびコンテンツ同期部105としても機能する。
 コンテンツ加工部104は、図17を参照して説明したコンテンツ加工部201と同様に、想い出機能の利用において、抽出された所定の過去映像から人物のみを抽出した人物画像を生成したり、過去映像および対応する(同時間帯の)センサ情報に基づく3次元情報から過去映像に映る人物の3Dモデルを生成したりする機能を有する。
 コンテンツ同期部105は、図17を参照して説明したコンテンツ同期部202と同様に、各空間で双方の過去映像を表示する場合に、抽出された空間Aおよび空間Bの所定の各過去映像を同時間軸上で関連付けた(同期させた)コンテンツ(同期コンテンツとも称す)を生成する。
 記憶部150-1は、送信コンテンツ記憶部151および受信コンテンツ記憶部152を有する。送信コンテンツ記憶部151には、他の情報処理装置10に送信したコンテンツ、具体的には、自分側の空間の入力部110から得られた空間情報、コンテンツ加工部104により加工した加工コンテンツ、またはコンテンツ同期部105により同期した同期コンテンツが保存され得る。受信コンテンツ記憶部152には、他の情報処理装置10から受信したコンテンツ、具体的には、相手空間のリアルタイムの空間情報、加工コンテンツ、または同期コンテンツが保存され得る。
 (動作処理)
 図22および図23は、他のシステム構成例に係る第1の実施例による情報処理装置10-1Aの動作処理を示すフローチャートである。
 図22に示すように、まず、情報処理装置10-1Aは、空間Aのリアルタイムの空間情報(映像、音声、センサ情報)を取得し(ステップS203)、常時接続する隣接空間である空間Bの情報処理装置10Bに送信し(ステップS206)、また、情報処理装置10Bに送信した空間情報を送信コンテンツ記憶部151に保存する(ステップS209)。
 また、情報処理装置10-1Aは、空間Bのリアルタイムの空間情報(映像、音声、センサ情報)を、情報処理装置10Bから受信し(ステップS212)、受信コンテンツ記憶部152に保存する(ステップS215)。
 次いで、情報処理装置10-1Aは、空間Bのリアルタイムの空間情報を、空間Aのディスプレイ131Aおよびスピーカから出力する(ステップS218)。
 情報処理装置10-1Aは、上記ステップS203~ステップS218の処理を繰り返し、空間Bとの常時接続を実現する。また、情報処理装置10Bでも同様の処理が行われ、空間Aのリアルタイムの空間情報が空間Bのディスプレイ131Bおよびスピーカから出力されている。
 このように、第1の実施例による情報処理装置10-1では、相手空間に送信したコンテンツ、すなわち自分側の空間の空間情報と、相手空間から受信したコンテンツ、すなわち相手空間の空間情報とを、記憶部150-1に蓄積している。
 次いで、ユーザ側から想い出機能の操作入力があった場合(ステップS221/Yes)、情報処理装置10-1Aは、指定された日時情報を情報処理装置10Bに送信する(ステップS224)。
 次に、情報処理装置10-1Aは、指定された日時のコンテンツ(過去映像)を記憶部150-1から抽出する(ステップS227)。
 一方、ユーザ側からの想い出機能の操作入力ではなく(ステップS221/No)、相手側からの想い出機能の操作入力があった場合(ステップS230/Yes)、情報処理装置10-1Aは、ユーザB(常時接続している相手空間側のユーザ)が指定した日時のコンテンツ(過去映像)を記憶部150-1から抽出する(ステップS233)。
 ここで、記憶部150-1から抽出する指定日時のコンテンツとは、受信コンテンツ記憶部152に保存された相手空間の過去映像、または必要に応じてさらに、送信コンテンツ記憶部151に保存された自分側の空間の過去映像である。
 続いて、過去映像の加工が必要な場合(ステップS236/Yes)、情報処理装置10-1Aは、コンテンツ加工部104によりコンテンツの加工を行う(ステップS239)。具体的には、例えばコンテンツ加工部104は、想い出機能の表示方法としてユーザによりシルエット表示が選択された場合、過去映像から人物を抽出してシルエット加工する処理を行う。
 次に、想い出機能の表示方法として、ユーザが自分側の過去映像も見ることが選択されている場合(ステップS242/Yes)、情報処理装置10-1Aは、コンテンツ同期部105により、抽出した空間A(自分側)および空間B(相手側)の過去映像の時間軸を同期したコンテンツ(同期コンテンツ)を生成する(ステップS245)。
 次いで、情報処理装置10-1Aは、同期処理が終了したことを情報処理装置10Bに通知する(ステップS248)。
 次に、情報処理装置10-1Aは、情報処理装置10B側でも同期処理が終了したか否かを確認する(ステップS257)。本実施例では、情報処理装置10Bも同様の構成を有し、図22および図23に示す処理と同様の動作処理が行われる。従って、自分側の過去映像も見ることが選択されている場合、情報処理装置10Bにおいても同期処理が行われる。そして、情報処理装置10Bで同期処理が終了した場合は、同期処理が終了したことを示す通知が情報処理装置10Bから送信される。これにより、情報処理装置10B側でも同期処理が終了したか否かを確認することができる。
 一方、ユーザが自分側の過去映像も見ることは選択されていない場合(ステップS242/No)、情報処理装置10-1Aは、準備完了フラグを情報処理装置10Bに送信する(ステップS254)。
 次に、情報処理装置10-1Aは、準備完了フラグが揃ったか否かを確認する(ステップS257)。上述したように情報処理装置10Bでも図22および図23に示す処理と同様の動作処理が行われるため、情報処理装置10Bからも準備完了フラグが送信される。情報処理装置10-1Aは、情報処理装置10Bに準備完了フラグを送信し、情報処理装置10Bからも準備完了フラグが送信された場合、準備完了フラグが揃ったと判断する。
 そして、情報処理装置10B側でも同期処理が終了した場合(ステップS251/Yes)、若しくは準備完了フラグが揃った場合(ステップS257/Yes)、情報処理装置10-1Aは、抽出した相手空間(空間B)の過去映像(若しくは加工コンテンツ又は同期コンテンツ)を、リアルタイムの相手空間の映像と共に(合成して)表示する(ステップS260)。
 これにより、相手空間が隣接して接続している状態を維持したまま、過去の双方向コミュニケーションを共に振り返ることが可能となる。また、過去映像等の表示は、情報処理装置10-1A及び情報処理装置10-1Bが共に準備完了(または同期処理終了)したタイミングで行われるため、各情報処理装置10-1での過去映像の再生タイミングの同期が図られ、同時に同時間帯の過去映像等がそれぞれ再生され得る。
 <4-2.第2の実施例>
 (構成)
 図24は、他のシステム構成例に係る第1の実施例による情報処理装置10-2の構成の一例を示す図である。なお、第2の実施例では、各空間の情報処理装置10-2は同じ構成を有する。すなわち、第2の実施例による情報処理システム1-2は、情報処理装置10-2Aおよび10-2Bから成る。以下の説明では、情報処理装置10-2Bを、単に情報処理装置10Bと称す。
 図24に示すように、情報処理装置10-2は、制御部100-2、入力部110、操作I/F120、出力部130、通信部140、および記憶部150-2を有する。なお図3に示す情報処理装置10の構成と同じ個所については同符号を付し、ここでの詳細な説明は省略する。また、ここでは図3を参照して説明した構成と異なる部分について主に説明する。
 本実施例による制御部100-2は、入力部110から得られた、自分側の空間のリアルタイムの空間情報(映像、音声、センサ情報)を、常時接続する相手空間の情報処理装置10Bに送信する制御を行う。また、制御部100-2は、情報処理装置10Bから受信した相手空間のリアルタイムの空間情報を、受信コンテンツ記憶部152に蓄積する制御、および出力部130から出力する制御を行う。また、制御部100-2は、想い出機能実行指示があった場合、指定された日時のコンテンツ(すなわち過去映像および過去音声等)を受信コンテンツ記憶部152から抽出(検索)する。
 また、制御部100-2は、図24に示すように、機能選択部101、画像合成部102、出力制御部103、コンテンツ加工部104、およびコンテンツ同期部105としても機能する。コンテンツ加工部104およびコンテンツ同期部105については、図21を参照して説明した通りである。
 記憶部150-2は、受信コンテンツ記憶部152を有する。受信コンテンツ記憶部152には、図21と同様に、他の情報処理装置10から受信したコンテンツ、具体的には、相手空間のリアルタイムの空間情報、加工コンテンツ、または同期コンテンツが保存され得る。
 (動作処理)
 図25および図26は、他のシステム構成例に係る第2の実施例による情報処理装置10-2Aの動作処理を示すフローチャートである。
 図25に示すように、まず、情報処理装置10-2Aは、空間Aのリアルタイムの空間情報(映像、音声、センサ情報)を取得し(ステップS303)、常時接続する隣接空間である空間Bの情報処理装置10Bに送信する(ステップS306)。
 また、情報処理装置10-2Aは、空間Bのリアルタイムの空間情報(映像、音声、センサ情報)を、情報処理装置10Bから受信し(ステップS309)、受信コンテンツ記憶部152に保存する(ステップS312)。
 次いで、情報処理装置10-2Aは、空間Bのリアルタイムの空間情報を、空間Aのディスプレイ131Aおよびスピーカから出力する(ステップS315)。
 情報処理装置10-2Aは、上記ステップS303~ステップS315の処理を繰り返し、空間Bとの常時接続を実現する。また、情報処理装置10Bでも同様の処理が行われ、空間Aのリアルタイムの空間情報が空間Bのディスプレイ131Bおよびスピーカから出力されている。
 このように、第2の実施例による情報処理装置10-2では、相手空間に送信したコンテンツ、すなわち自分側の空間の空間情報は保存せず、相手空間から受信したコンテンツ、すなわち相手空間の空間情報を記憶部150-2に蓄積している。
 次いで、ユーザ側から想い出機能の操作入力があった場合(ステップS318/Yes)、情報処理装置10-2Aは、指定された日時情報を情報処理装置10Bに送信する(ステップS321)。
 次に、情報処理装置10-2Aは、指定された日時のコンテンツ(相手空間の過去映像)を受信コンテンツ記憶部152から抽出する(ステップS324)。
 一方、ユーザ側からの想い出機能の操作入力ではなく(ステップS318/No)、相手側からの想い出機能の操作入力があった場合(ステップS327/Yes)、情報処理装置10-2Aは、ユーザB(常時接続している相手空間側のユーザ)が指定した日時のコンテンツ(相手空間の過去映像)を受信コンテンツ記憶部152から抽出する(ステップS330)。
 次いで、必要に応じて、抽出したコンテンツ(相手空間の過去映像)のコピーを情報処理装置10Bに送信する(ステップS333)。「必要に応じて」とは、具体的には、想い出機能の表示方法において、自分側の過去映像も見ることが選択されている場合を想定する。この場合、図8~図12、図15、及び図16を参照して説明したように、相手空間と自分側の空間の両方の過去映像が必要となるが、本実施例では、相手空間の過去映像しか保存していないため、情報処理装置10Bでは、自分側の空間の過去映像すなわち空間Bの過去映像が必要となる。そこで情報処理装置10-1Aは、相手空間の過去映像(すなわち空間Bの過去映像)のコピーを情報処理装置10Bに送信する制御を行う。かかる制御は、情報処理装置10B側でも同様に行われるため、情報処理装置10-1Aは、自分側の空間の過去映像すなわち空間Aの過去映像を情報処理装置10Bから受信することができる。
 続いて、過去映像の加工が必要な場合(ステップS336/Yes)、情報処理装置10-2Aは、コンテンツ加工部104によりコンテンツの加工を行う(ステップS339)。具体的には、例えばコンテンツ加工部104は、想い出機能の表示方法としてユーザによりシルエット表示が選択された場合、過去映像から人物を抽出してシルエット加工する処理を行う。
 次に、想い出機能の表示方法として、ユーザが自分側の過去映像も見ることが選択されている場合(ステップS342/Yes)、情報処理装置10-2Aは、コンテンツ同期部105により、受信した空間A(自分側)および抽出した空間B(相手側)の過去映像の時間軸を同期したコンテンツ(同期コンテンツ)を生成する(ステップS345)。
 次いで、情報処理装置10-2Aは、同期処理が終了したことを情報処理装置10Bに通知する(ステップS348)。
 次に、情報処理装置10-2Aは、情報処理装置10B側でも同期処理が終了したか否かを確認する(ステップS351)。
 一方、ユーザが自分側の過去映像も見ることは選択されていない場合(ステップS342/No)、情報処理装置10-2Aは、準備完了フラグを情報処理装置10Bに送信する(ステップS354)。
 次に、情報処理装置10-2Aは、準備完了フラグが揃ったか否かを確認する(ステップS357)。
 そして、情報処理装置10B側でも同期処理が終了した場合(ステップS351/Yes)、若しくは準備完了フラグが揃った場合(ステップS357/Yes)、情報処理装置10-2Aは、抽出した相手空間(空間B)の過去映像(若しくは加工コンテンツ又は同期コンテンツ)を、リアルタイムの相手空間の映像と共に(合成して)表示する(ステップS360)。
 これにより、相手空間が隣接して接続している状態を維持したまま、過去の双方向コミュニケーションを共に振り返ることが可能となる。また、過去映像等の表示は、情報処理装置10-2A及び情報処理装置10-2Bが共に準備完了(または同期処理終了)したタイミングで行われるため、各情報処理装置10-2での過去映像の再生タイミングの同期が図られ、同時に同時間帯の過去映像等がそれぞれ再生され得る。
 <4-3.第3の実施例>
 (構成)
 図27は、他のシステム構成例に係る第3の実施例による情報処理装置10-3の構成の一例を示す図である。なお、第3の実施例では、各空間の情報処理装置10-3は同じ構成を有する。すなわち、第3の実施例による情報処理システム1-3は、情報処理装置10-3Aおよび10-3Bから成る。以下の説明では、情報処理装置10-3Bを、単に情報処理装置10Bと称す。
 図27に示すように、情報処理装置10-3は、制御部100-3、入力部110、操作I/F120、出力部130、通信部140、および記憶部150-3を有する。なお図3に示す情報処理装置10の構成と同じ個所については同符号を付し、ここでの詳細な説明は省略する。また、ここでは図3を参照して説明した構成と異なる部分について主に説明する。
 本実施例による制御部100-3は、入力部110から得られた、自分側の空間のリアルタイムの空間情報(映像、音声、センサ情報)を、常時接続する相手空間の情報処理装置10Bに送信する制御、および送信した当該空間情報を送信コンテンツ記憶部151に蓄積する制御を行う。また、制御部100-3は、情報処理装置10Bから受信した相手空間のリアルタイムの空間情報を、出力部130から出力する制御を行う。また、制御部100-2は、想い出機能実行指示があった場合、指定された日時のコンテンツ(すなわち過去映像および過去音声等)を送信コンテンツ記憶部151から抽出(検索)する。
 また、制御部100-3は、図27に示すように、機能選択部101、画像合成部102、出力制御部103、コンテンツ加工部104、およびコンテンツ同期部105としても機能する。コンテンツ加工部104およびコンテンツ同期部105については、図21を参照して説明した通りである。
 記憶部150-3は、送信コンテンツ記憶部151を有する。送信コンテンツ記憶部151には、他の情報処理装置10に送信したコンテンツ、具体的には、自分側の空間の入力部110から得られた空間情報、コンテンツ加工部104により加工した加工コンテンツ、またはコンテンツ同期部105により同期した同期コンテンツが保存され得る。
 (動作処理)
 図28および図29は、他のシステム構成例に係る第3の実施例による情報処理装置10-3Aの動作処理を示すフローチャートである。
 図28に示すように、まず、情報処理装置10-3Aは、空間Aのリアルタイムの空間情報(映像、音声、センサ情報)を取得し(ステップS403)、常時接続する隣接空間である空間Bの情報処理装置10Bに送信し(ステップS406)、また、情報処理装置10Bに送信した空間情報を送信コンテンツ記憶部151に保存する(ステップS409)。
 また、情報処理装置10-3Aは、空間Bのリアルタイムの空間情報(映像、音声、センサ情報)を、情報処理装置10Bから受信し(ステップS412)、空間Aのディスプレイ131Aおよびスピーカから出力する(ステップS415)。
 情報処理装置10-1Aは、上記ステップS403~ステップS415の処理を繰り返し、空間Bとの常時接続を実現する。また、情報処理装置10Bでも同様の処理が行われ、空間Aのリアルタイムの空間情報が空間Bのディスプレイ131Bおよびスピーカから出力されている。
 このように、第3の実施例による情報処理装置10-3では、相手空間に送信したコンテンツ、すなわち自分側の空間の空間情報を送信コンテンツ記憶部151に保存し、相手空間から受信したコンテンツは保存していない。
 次いで、ユーザ側から想い出機能の操作入力があった場合(ステップS418/Yes)、情報処理装置10-3Aは、指定された日時情報を情報処理装置10Bに送信する(ステップS421)。
 次に、情報処理装置10-3Aは、指定された日時のコンテンツ(自分側の空間の過去映像)を送信コンテンツ記憶部151から抽出する(ステップS424)。
 一方、ユーザ側からの想い出機能の操作入力ではなく(ステップS418/No)、相手側からの想い出機能の操作入力があった場合(ステップS427/Yes)、情報処理装置10-3Aは、ユーザB(常時接続している相手空間側のユーザ)が指定した日時のコンテンツ(自分側の空間の過去映像)を送信コンテンツ記憶部151から抽出する(ステップS430)。
 次いで、抽出したコンテンツ(自分側の空間の過去映像)を情報処理装置10Bに送信する(ステップS433)。想い出機能の表示では、少なくとも相手空間の過去映像が必要となるが、本実施例では、自分側の空間の過去映像しか保存していないため、情報処理装置10Bでは、相手空間の過去映像すなわち空間Aの過去映像が必要となる。そこで情報処理装置10-3Aは、自分側の空間の過去映像(すなわち空間Aの過去映像)を情報処理装置10Bに送信する制御を行う。かかる制御は、情報処理装置10B側でも同様に行われるため、情報処理装置10-3Aは、相手空間の過去映像すなわち空間Bの過去映像を情報処理装置10Bから受信することができる。
 続いて、過去映像の加工が必要な場合(ステップS436/Yes)、情報処理装置10-3Aは、コンテンツ加工部104によりコンテンツの加工を行う(ステップS439)。
 次に、想い出機能の表示方法として、ユーザが自分側の過去映像も見ることが選択されている場合(ステップS442/Yes)、情報処理装置10-3Aは、コンテンツ同期部105により、抽出した空間A(自分側)の過去映像と、受信した空間B(相手側)の過去映像との時間軸を同期したコンテンツ(同期コンテンツ)を生成する(ステップS445)。
 次いで、情報処理装置10-3Aは、同期処理が終了したことを情報処理装置10Bに通知する(ステップS448)。
 次に、情報処理装置10-3Aは、情報処理装置10B側でも同期処理が終了したか否かを確認する(ステップS451)。
 一方、ユーザが自分側の過去映像も見ることは選択されていない場合(ステップS442/No)、情報処理装置10-3Aは、準備完了フラグを情報処理装置10Bに送信する(ステップS454)。
 次に、情報処理装置10-3Aは、準備完了フラグが揃ったか否かを確認する(ステップS457)。
 そして、情報処理装置10B側でも同期処理が終了した場合(ステップS451/Yes)、若しくは準備完了フラグが揃った場合(ステップS457/Yes)、情報処理装置10-3Aは、受信した相手空間(空間B)の過去映像(若しくは加工コンテンツ又は同期コンテンツ)を、リアルタイムの相手空間の映像と共に(合成して)表示する(ステップS460)。
 これにより、相手空間が隣接して接続している状態を維持したまま、過去の双方向コミュニケーションを共に振り返ることが可能となる。また、過去映像等の表示は、情報処理装置10-3A及び情報処理装置10-3Bが共に準備完了(または同期処理終了)したタイミングで行われるため、各情報処理装置10-3での過去映像の再生タイミングの同期が図られ、同時に同時間帯の過去映像等がそれぞれ再生され得る。
 <4-4.第4の実施例>
 (構成)
 図30は、他のシステム構成例に係る第4の実施例による情報処理装置10-4の構成の一例を示す図である。第4の実施例による情報処理システム1-4は、情報処理装置10-4Aおよび10-4Bから成る。ここでは、一方の情報処理装置10-4が「コンテンツ加工部」および「コンテンツ同期部」を有する。
 図30に示すように、情報処理装置10-4Aは、制御部100-4A、入力部110、操作I/F120、出力部130、通信部140、および記憶部150-4Aを有し、制御部100-4Aは、コンテンツ加工部104およびコンテンツ同期部105としても機能する。
 一方、情報処理装置10-4Bは、制御部100-4B、入力部110、操作I/F120、出力部130、通信部140、および記憶部150-4Bを有し、制御部100-4Bは、コンテンツ加工機能やコンテンツ同期機能は有していない。
 このように一方の情報処理装置10-4Aがコンテンツ加工機能やコンテンツ同期機能を有する場合の情報処理システムの動作処理について、以下図31~図34を参照して説明する。図31および図32は、コンテンツ加工機能やコンテンツ同期機能を有する情報処理装置10-4Aの動作処理を示すフローチャートである。また、図33および図34は、コンテンツ加工機能やコンテンツ同期機能を有していない情報処理装置10-4Bの動作処理を示すフローチャートである。以下の説明では、情報処理装置10-4Bを、単に情報処理装置10Bとも称す。
 (情報処理装置10-4Aの動作処理)
 図31に示すように、まず、情報処理装置10-4Aは、空間Aのリアルタイムの空間情報(映像、音声、センサ情報)を取得し(ステップS503)、常時接続する隣接空間である空間Bの情報処理装置10Bに送信し(ステップS506)、また、情報処理装置10Bに送信した空間情報を送信コンテンツ記憶部151に保存する(ステップS509)。
 また、情報処理装置10-4Aは、空間Bのリアルタイムの空間情報(映像、音声、センサ情報)を、情報処理装置10Bから受信し(ステップS512)、空間Aのディスプレイ131Aおよびスピーカから出力する(ステップS515)。
 情報処理装置10-4Aは、上記ステップS503~ステップS515の処理を繰り返し、空間Bとの常時接続を実現する。また、情報処理装置10Bでも同様の処理が行われ、空間Aのリアルタイムの空間情報が空間Bのディスプレイ131Bおよびスピーカから出力されている。
 このように、第4の実施例による情報処理装置10-4Aでは、相手空間に送信したコンテンツ、すなわち自分側の空間の空間情報を送信コンテンツ記憶部151に保存し、相手空間から受信したコンテンツは保存していない。
 次いで、ユーザ側から想い出機能の操作入力があった場合(ステップS518/Yes)、情報処理装置10-4Aは、指定された日時情報を情報処理装置10Bに送信する(ステップS521)。
 次に、情報処理装置10-4Aは、指定された日時のコンテンツ(自分側の空間の過去映像)を送信コンテンツ記憶部151から抽出する(ステップS524)。
 一方、ユーザ側からの想い出機能の操作入力ではなく(ステップS518/No)、相手側からの想い出機能の操作入力があった場合(ステップS527/Yes)、情報処理装置10-4Aは、ユーザB(常時接続している相手空間側のユーザ)が指定した日時のコンテンツ(自分側の空間の過去映像)を送信コンテンツ記憶部151から抽出する(ステップS530)。
 次いで、抽出したコンテンツ(自分側の空間の過去映像)を情報処理装置10Bに送信する(ステップS533)。詳細は、第3の実施例で説明したステップS433と同様である。
 続いて、過去映像の加工が必要な場合(ステップS536/Yes)、情報処理装置10-4Aは、コンテンツ加工部104によりコンテンツの加工を行う(ステップS539)。
 次に、想い出機能の表示方法として、ユーザが自分側の過去映像も見ることが選択されている場合(ステップS542/Yes)、情報処理装置10-4Aは、コンテンツ同期部105により、抽出した空間A(自分側)の過去映像と、受信した空間B(相手側)の過去映像との時間軸を同期したコンテンツ(同期コンテンツ)を生成する(ステップS545)。
 次いで、情報処理装置10-4Aは、同期処理したコンテンツのコピーを情報処理装置10Bに送信する(ステップS548)。本実施例では、情報処理装置10Bがコンテンツ同期機能を有していないため、情報処理装置10Aで生成した同期コンテンツを送信している。
 一方、ユーザが自分側の過去映像も見ることは選択されていない場合(ステップS542/No)、情報処理装置10-4Aは、加工処理を行った場合は、加工コンテンツを情報処理装置10Bに送信する(ステップS551)。本実施例では、情報処理装置10Bがコンテンツ加工機能を有していないため、情報処理装置10Aで生成した加工コンテンツを送信している。なお、加工処理を行っていない場合は、第3の実施例と同様に準備完了フラグを送信し、準備完了フラグが揃ったか否かを確認してもよい。
 そして、情報処理装置10-4Aは、受信した相手空間(空間B)の過去映像(若しくは加工コンテンツ又は同期コンテンツ)を、リアルタイムの相手空間の映像と共に(合成して)表示する(ステップS554)。
 (情報処理装置10-4Bの動作処理)
 次に、コンテンツ加工機能やコンテンツ同期機能を有していない情報処理装置10-4Bの動作処理について図33および図34を参照して説明する。ここでは、情報処理装置10-4Aを、単に情報処理装置10Aとも称す。
 図33に示すように、まず、情報処理装置10-4Bは、空間Bのリアルタイムの空間情報(映像、音声、センサ情報)を取得し(ステップS573)、常時接続する隣接空間である空間Aの情報処理装置10Aに送信し(ステップS576)、また、情報処理装置10Aに送信した空間情報を送信コンテンツ記憶部151に保存する(ステップS579)。
 また、情報処理装置10-4Bは、空間Aのリアルタイムの空間情報(映像、音声、センサ情報)を、情報処理装置10Aから受信し(ステップS582)、空間Bのディスプレイ131Bおよびスピーカから出力する(ステップS585)。
 情報処理装置10-4Bは、上記ステップS573~ステップS585の処理を繰り返し、空間Aとの常時接続を実現する。
 このように、第4の実施例による情報処理装置10-4Bでは、相手空間に送信したコンテンツ、すなわち自分側の空間の空間情報を送信コンテンツ記憶部151に保存し、相手空間から受信したコンテンツは保存していない。
 次いで、ユーザ側から想い出機能の操作入力があった場合(ステップS588/Yes)、情報処理装置10-4Bは、指定された日時情報を情報処理装置10Aに送信する(ステップS591)。
 次に、情報処理装置10-4Bは、指定された日時のコンテンツ(自分側の空間の過去映像)を送信コンテンツ記憶部151から抽出する(ステップS594)。
 一方、ユーザ側からの想い出機能の操作入力ではなく(ステップS588/No)、相手側からの想い出機能の操作入力があった場合(ステップS597/Yes)、情報処理装置10-4Bは、ユーザA(常時接続している相手空間側のユーザ)が指定した日時のコンテンツ(自分側の空間の過去映像)を送信コンテンツ記憶部151から抽出する(ステップS600)。
 次いで、抽出したコンテンツ(自分側の空間の過去映像)を情報処理装置10Aに送信する(ステップS603)。詳細は、第4の実施例で説明したステップS433と同様である。
 続いて、想い出機能の表示方法として、ユーザが自分側の過去映像も見ることが選択されている場合(ステップS606/Yes)、情報処理装置10-4Bは、情報処理装置10Aから、同期コンテンツを受信する(ステップS609)。
 一方、ユーザが自分側の過去映像も見ることは選択されていない場合(ステップS606/No)、情報処理装置10-4Bは、過去映像の加工が必要な場合は、情報処理装置10Aから、加工コンテンツを受信する(ステップS612)。なお、加工処理が不要な場合は、第3の実施例と同様に準備完了フラグを送信し、準備完了フラグが揃ったか否かを確認してもよい。
 本実施例では、情報処理装置10Bはコンテンツ同期機能や加工機能を有していないため、想い出機能の表示方法において加工や同期が必要な場合、情報処理装置10Aにより生成された加工コンテンツや同期コンテンツを受信する。
 そして、情報処理装置10-4Bは、受信した相手空間(空間A)の過去映像(若しくは加工コンテンツ又は同期コンテンツ)を、リアルタイムの相手空間の映像と共に(合成して)表示する(ステップS615)。
 以上説明したように、第4の実施例においても、相手空間が隣接して接続している状態を維持したまま、過去の双方向コミュニケーションを共に振り返ることが可能となる。また、過去映像等の表示は、情報処理装置10-4Aから同期コンテンツや加工コンテンツを情報処理装置10-4Bに送信したタイミング、若しくは共に準備完了したタイミングで行われるため、各情報処理装置10-4での過去映像の再生タイミングの同期が図られ、同時に同時間帯の過去映像等がそれぞれ再生され得る。
 <<5.ハードウェア構成>>
 最後に、図35を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図35は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図35に示す情報処理装置900は、例えば、図4に示した情報処理装置10、図21に示した情報処理装置10-1、図24に示した情報処理装置10-2、図27に示した情報処理装置10-3、図30に示した情報処理装置10-4(10-4A、10-4B)、または図17に示したサーバ20を実現し得る。本実施形態に係る情報処理装置10、10-1~10-4、またはサーバ20による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図9に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図4に示す制御部100、図17に示す制御部200、図21に示す制御部100-1、図24に示す制御部100-2、図27に示す制御部100-3、又は図30に示す制御部100-4を形成し得る。
 CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図4に示す記憶部150、図17に示すコンテンツ記憶部220、図21に示す記憶部150-1、図24に示す記憶部150-2、図27に示す記憶部150-3、又は図30に示す記憶部150-4を形成し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)、赤外線、Bluetooth(登録商標)、Wi-Fi(登録商標)などによりデータ伝送可能な外部機器との接続口である。接続ポート911は、例えば、図4に示す操作I/F120を形成し得る。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図4、図21、図24、図27、又は図30に示す通信部140、若しくは図17に示す通信部210を形成し得る。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 <<6.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、リアルタイムでの空間の繋がりを維持したまま過去の双方向コミュニケーションを振り返ることが可能となる。
 また、過去映像から人物のみを抽出して再生することで、現在と過去の差分を感じることができるため、より直感的に過去が思い出される。過去の人物が現在の空間の映像に重畳表示されるため、子供の成長等も直感的に把握することが可能となる。
 また、過去を振り返る機能を設けることで、常時接続している相手とのコミュニケーションを取るきっかけとなり、コミュニケーションの機会が増加する。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置10、またはサーバ20に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置10、またはサーバ20の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の空間と第2の空間の双方向通信を制御する情報処理装置であって、
 前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、
 前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部を備え、
 前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
 前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、
 前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、
 前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理装置。
(2)
 第1の空間と第2の空間の双方向通信の制御が行われる情報処理装置であって、
 前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行う制御部を備え、
 前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
 前記第2の画像情報は、
  前記第2の空間に関する過去の画像情報であって、
  前記第2の空間に表示されている前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、情報処理装置。
(3)
 前記制御部は、前記第2の画像情報を、前記第1の画像情報の手前に設けた仮想空間上に表示する制御を行う、前記(2)に記載の情報処理装置。
(4)
 前記制御部は、前記第1の空間に関する前記過去の画像情報と前記第2の画像情報が時間軸上において同期されたコンテンツを、前記第1の画像情報と共に表示する制御を行う、前記(2)または(3)に記載の情報処理装置。
(5)
 前記制御部は、前記第2の画像情報に基づいて加工したコンテンツを、前記第1の画像情報に重畳表示する制御を行う、前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記加工したコンテンツは、前記第2の画像情報から抽出した人物の加工画像である、前記(5)に記載の情報処理装置。
(7)
 前記制御部は、前記抽出した人物の加工画像を、当該人物の深度情報に基づいて前記第1の画像情報に重畳表示する位置を制御する、前記(6)に記載の情報処理装置。
(8)
 前記人物の加工画像は、前記抽出した人物のシルエット画像である、前記(6)または(7)に記載の情報処理装置。
(9)
 前記人物の加工画像は、前記抽出した人物の3Dモデル化画像であって、前記第1の空間の表示部において、前記第1の画像情報の手前に設けた仮想空間上に表示される、前記(6)に記載の情報処理装置。
(10)
 第1の空間と第2の空間の双方向通信を制御する情報処理方法であって、
 プロセッサが、
 前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、
 前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行うことを含み、
 前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
 前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、
 前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、
 前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理方法。
(11)
 コンピュータを、
 第1の空間と第2の空間の双方向通信を制御する情報処理装置として機能させるプログラムであって、
 さらに、
 前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、
 前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部として機能させ、
 前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
 前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、
 前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、
 前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、プログラム。
(12)
 第1の空間と第2の空間の双方向通信の制御が行われる情報処理方法であって、
 プロセッサが、
 前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行うことを含み、
 前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
 前記第2の画像情報は、
  前記第2の空間に関する過去の画像情報であって、
  前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、情報処理方法。
(13)
 コンピュータを、
 第1の空間と第2の空間の双方向通信の制御が行われる情報処理装置として機能させ、
 さらに、
 前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行う制御部として機能させ、
 前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
 前記第2の画像情報は、
  前記第2の空間に関する過去の画像情報であって、
  前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、プログラム。
 1  情報処理システム
 10(10A、10B)、10-1~10-4  情報処理装置
 20  サーバ
 30  ネットワーク
 100  制御部
 101  機能選択部
 102  画像合成部
 103  出力制御部
 104  コンテンツ加工部
 105  コンテンツ同期部
 110  入力部
 120  操作I/F
 130  出力部
 131  ディスプレイ
 140  通信部
 150  記憶部
 151  送信コンテンツ記憶部
 152  受信コンテンツ記憶部
 200 制御部
 201  コンテンツ加工部
 202  コンテンツ同期部
 210 通信部
 220 コンテンツ記憶部

Claims (13)

  1.  第1の空間と第2の空間の双方向通信を制御する情報処理装置であって、
     前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、
     前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部を備え、
     前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
     前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、
     前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、
     前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理装置。
  2.  第1の空間と第2の空間の双方向通信の制御が行われる情報処理装置であって、
     前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行う制御部を備え、
     前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
     前記第2の画像情報は、
      前記第2の空間に関する過去の画像情報であって、
      前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、情報処理装置。
  3.  前記制御部は、前記第2の画像情報を、前記第1の画像情報の手前に設けた仮想空間上に表示する制御を行う、請求項2に記載の情報処理装置。
  4.  前記制御部は、前記第1の空間に関する前記過去の画像情報と前記第2の画像情報が時間軸上において同期されたコンテンツを、前記第1の画像情報と共に表示する制御を行う、請求項2に記載の情報処理装置。
  5.  前記制御部は、前記第2の画像情報に基づいて加工したコンテンツを、前記第1の画像情報に重畳表示する制御を行う、請求項2に記載の情報処理装置。
  6.  前記加工したコンテンツは、前記第2の画像情報から抽出した人物の加工画像である、請求項5に記載の情報処理装置。
  7.  前記制御部は、前記抽出した人物の加工画像を、当該人物の深度情報に基づいて前記第1の画像情報に重畳表示する位置を制御する、請求項6に記載の情報処理装置。
  8.  前記人物の加工画像は、前記抽出した人物のシルエット画像である、請求項6に記載の情報処理装置。
  9.  前記人物の加工画像は、前記抽出した人物の3Dモデル化画像であって、前記第1の空間の表示部において、前記第1の画像情報の手前に設けた仮想空間上に表示される、請求項6に記載の情報処理装置。
  10.  第1の空間と第2の空間の双方向通信を制御する情報処理方法であって、
     プロセッサが、
     前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、
     前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行うことを含み、
     前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
     前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、
     前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、
     前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、情報処理方法。
  11.  コンピュータを、
     第1の空間と第2の空間の双方向通信を制御する情報処理装置として機能させるプログラムであって、
     さらに、
     前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御と共に、
     前記第2の空間に、第3の画像情報と第4の画像情報を表示させる制御を行う制御部として機能させ、
     前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
     前記第2の画像情報は、前記第2の空間に関する過去の画像情報であり、
     前記第3の画像情報は、前記第1の空間に関する現在の画像情報であり、
     前記第4の画像情報は、前記第1の空間に関する、前記第2の画像情報と同時間帯の過去の画像情報である、プログラム。
  12.  第1の空間と第2の空間の双方向通信の制御が行われる情報処理方法であって、
     プロセッサが、
     前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行うことを含み、
     前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
     前記第2の画像情報は、
      前記第2の空間に関する過去の画像情報であって、
      前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、情報処理方法。
  13.  コンピュータを、
     第1の空間と第2の空間の双方向通信の制御が行われる情報処理装置として機能させ、
     さらに、
     前記第1の空間に、第1の画像情報と第2の画像情報を表示させる制御を行う制御部として機能させ、
     前記第1の画像情報は、前記第2の空間に関する現在の画像情報であり、
     前記第2の画像情報は、
      前記第2の空間に関する過去の画像情報であって、
      前記第2の空間に表示される前記第1の空間に関する過去の画像情報と同時間帯の画像情報である、プログラム。
PCT/JP2018/031552 2017-11-14 2018-08-27 情報処理装置、情報処理方法、およびプログラム Ceased WO2019097802A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/762,308 US10986310B2 (en) 2017-11-14 2018-08-27 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-219062 2017-11-14
JP2017219062 2017-11-14

Publications (1)

Publication Number Publication Date
WO2019097802A1 true WO2019097802A1 (ja) 2019-05-23

Family

ID=66538656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031552 Ceased WO2019097802A1 (ja) 2017-11-14 2018-08-27 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US10986310B2 (ja)
WO (1) WO2019097802A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12229853B2 (en) 2022-07-26 2025-02-18 Toyota Jidosha Kabushiki Kaisha Image transmission system and image transmission method
WO2025203922A1 (ja) * 2024-03-25 2025-10-02 株式会社Jvcケンウッド 画像生成装置、画像生成システム、画像生成方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313915A (ja) * 2000-04-28 2001-11-09 Matsushita Electric Ind Co Ltd テレビ会議装置
WO2017098780A1 (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313915A (ja) * 2000-04-28 2001-11-09 Matsushita Electric Ind Co Ltd テレビ会議装置
WO2017098780A1 (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAJI ET AL.: "Applications for t-Room based on shared virtual space and playback of recorded activities", FIT 2008 FORUM ON INFORMATION TECHNOLOGY 2008- 4TH VOLUME PAPERS WITH REFEREED GENERAL PAPERS NETWORK SECURITY UBIQUITOUS MOBILE COMPUTING EDUCATION HUMANITIES INFORMATION SYSTEM, 20 August 2008 (2008-08-20), pages 51 - 54 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12229853B2 (en) 2022-07-26 2025-02-18 Toyota Jidosha Kabushiki Kaisha Image transmission system and image transmission method
WO2025203922A1 (ja) * 2024-03-25 2025-10-02 株式会社Jvcケンウッド 画像生成装置、画像生成システム、画像生成方法、及びプログラム

Also Published As

Publication number Publication date
US10986310B2 (en) 2021-04-20
US20200275055A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
JP6798502B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US7636365B2 (en) Smart digital modules and smart digital wall surfaces combining the same, and context aware interactive multimedia system using the same and operation method thereof
CN100433828C (zh) 信息处理装置、信息处理方法
CN210021183U (zh) 沉浸式互动全景全息剧院及演出系统
CN103888714B (zh) 一种基于虚拟现实的3d场景网络视频会议系统
JPH07255044A (ja) アニメーション式電子会議室及びビデオ会議システム及びビデオ会議方法
US20240119731A1 (en) Video framing based on tracked characteristics of meeting participants
US12262069B2 (en) System and method for producing a video stream
JPWO2018193687A1 (ja) 情報処理装置、情報処理方法、および記録媒体
US12316998B2 (en) System and method for producing a video stream
Jansen et al. Enabling composition-based video-conferencing for the home
CN119968839A (zh) 用于生成视频流的系统和方法
WO2019097802A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2006039917A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2019113885A (ja) 見守りシステム
WO2025061903A1 (en) Adaptive and interactive videoconference systems
JP6700672B2 (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
US9560313B2 (en) Dialogue system and dialogue method
JP4632132B2 (ja) 語学学習システム
US20250364011A1 (en) Video Recording System for Synchronizing a Plurality of Audio Inputs
JP2020017897A (ja) 端末装置、会議システム、端末装置の制御方法、及びプログラム
KR20250000353A (ko) 5g 기반의 메타버스 모션동기화 시스템 및 이를 이용한 메타버스 모션동기화 방법
US20210176291A1 (en) Space information sharing apparatus, space information sharing method, and program
JP2025109821A (ja) ミーティングデバイス、画像作成方法、プログラム、端末装置
JP2025005647A (ja) 会議装置、機器システム、エコー抑制方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18878850

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18878850

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP