[go: up one dir, main page]

JP2019068384A - Video voice management device for screening video and voice and screening system - Google Patents

Video voice management device for screening video and voice and screening system Download PDF

Info

Publication number
JP2019068384A
JP2019068384A JP2017195234A JP2017195234A JP2019068384A JP 2019068384 A JP2019068384 A JP 2019068384A JP 2017195234 A JP2017195234 A JP 2017195234A JP 2017195234 A JP2017195234 A JP 2017195234A JP 2019068384 A JP2019068384 A JP 2019068384A
Authority
JP
Japan
Prior art keywords
video
user
information
audio
screening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017195234A
Other languages
Japanese (ja)
Other versions
JP6675736B2 (en
Inventor
壮太郎 五十嵐
Sotaro Igarashi
壮太郎 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017195234A priority Critical patent/JP6675736B2/en
Priority to PCT/JP2018/036463 priority patent/WO2019069831A1/en
Publication of JP2019068384A publication Critical patent/JP2019068384A/en
Application granted granted Critical
Publication of JP6675736B2 publication Critical patent/JP6675736B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Tourism & Hospitality (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Computer Graphics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Headphones And Earphones (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】複数の映像コンテンツが同一室内で同時上映中に、各視聴者が視聴したい映像の音声を他人に聞こえないように排他的に視聴可能とし、視聴コンテンツの変更に伴って、映像の音声を変更後の音声へと即時切り替え可能な映像音声システムを得る。【解決手段】映像音声管理装置100は、複数の異なる映像を同時進行でそれぞれ上映するための複数の映像表示装置20a〜20cに当該映像情報をそれぞれ出力する映像情報出力部110と、当該映像情報にそれぞれ同期した音声情報を、利用者に貸し出した複数のワイヤレスヘッドホン50a〜50kにて切り替え可能に受信できるように出力する音声情報出力部120と、を備える。【選択図】図2PROBLEM TO BE SOLVED: To enable exclusive viewing of audio of a video desired by each viewer so that other viewers cannot hear it while simultaneously displaying a plurality of video contents in the same room. To obtain a video and audio system that can immediately switch to the changed audio. A video / audio management apparatus 100 includes a video information output unit 110 for outputting the video information to a plurality of video display devices 20a to 20c for simultaneously displaying a plurality of different videos, and the video information. And a voice information output unit 120 that outputs the voice information synchronized with each other so as to be switchably received by the plurality of wireless headphones 50a to 50k lent to the user. [Selection diagram] FIG.

Description

本開示は、AV(Audio−Visual)システムに関し、特に、映像と音声を上映するための映像音声管理装置および上映システムに関係する。   The present disclosure relates to an AV (Audio-Visual) system, and more particularly to a video and audio management apparatus and a screening system for screening video and audio.

近年、映像データのデジタル化が進み、映画においてもフィルムを用いずに、映像配信元サーバから受信したデジタル化されたHDTV程度の解像度の映像を用い、比較的大きな画面で映画上映することが一般的となっている。また、映画上映施設として近年一般化したシネマコンプレックスは、1つの建物内に複数のスクリーンを有する複合型映画館であり、映画館だけでなく、レストラン等の他の施設も擁している場合が多く、複数スクリーンでの異なる作品の同時上映や人気映画の複数同時上映も可能である。   In recent years, with the progress of digitization of video data, it is general to use a movie with a resolution as high as that of digitized HDTV received from a server for distributing video without using a film, and to perform movie screening on a relatively large screen It has become a target. In addition, the cinema complex, which has recently been generalized as a movie screening facility, is a complex movie theater having a plurality of screens in one building, and often has not only a movie theater but also other facilities such as a restaurant. Simultaneous screening of different works on multiple screens and multiple simultaneous screenings of popular movies are also possible.

しかしながら、シネマコンプレックスといえども、上映時間と作品とは予め決まっており、個人がいつでも好きなときに好きな作品を見るわけにはいかず、館内で子供が泣いたりすると周囲の客に迷惑になる。これに対して、特許文献1には、個人や仲間だけで周囲に気兼ねなく映画を鑑賞する手段として、プライベート用途向けのシアター・システムが開示されている。特許文献1記載のシアター・システムでは、コンテンツ・サーバに蓄積された映像コンテンツの配信を受け、カラオケ施設や自宅内にシアター機能を実現している。   However, even with the cinema complex, screening times and works are predetermined, and it is not possible for an individual to always watch favorite works whenever they like it, and it becomes annoyance to surrounding customers when children cry in the hall . On the other hand, Patent Document 1 discloses a theater system for private use as a means for watching a movie without hesitation to the surroundings with only an individual or a companion. In the theater system described in Patent Document 1, the theater function is realized in a karaoke facility or at home by receiving the distribution of the video content accumulated in the content server.

また、特許文献2には、そのようなシアター・システムに映像配信する際に、配信する映画の種類や配信先となる上映場所の数を顧客からの予約やリクエストの状況に応じて映像配信元で設定し、配信するための技術が開示されている。特許文献2記載の映像配信システムでは、従来は複数の上映館で個別に行っていた作業である映写配信機器設定、スケジュール上映、上映状況確認などをセンター設備側で集約して自動実行するようにしている。すなわち、センター設備において、顧客の予約やリクエストを複数の上映場所から集約した結果に応じて、上記のような作業を一括してセンター設備で実行している。   Also, according to Patent Document 2, when distributing a video to such a theater system, the type of movie to be distributed and the number of screening places to be a distribution destination according to the situation of reservation or request from a customer The technology for setting up and delivering is disclosed. In the video delivery system described in Patent Document 2, the center equipment side collects and automatically performs projection delivery device setting, schedule screening, screening status confirmation, etc., which are conventionally performed individually in a plurality of screening halls. ing. That is, in the center facility, the above-described work is collectively performed by the center facility according to the result of collecting customer reservations and requests from a plurality of screening places.

特開2005−142636号公報JP, 2005-142636, A 特開2002−304490号公報JP 2002-304490 A

特許文献1に開示されているプライベート用途向けのシアター・システムは、個人や仲間だけで周囲に気兼ねなく映画を鑑賞する手段として、映像コンテンツの配信を受け、カラオケ施設や自宅内にシアター機能を実現している。   The theater system for private use disclosed in Patent Document 1 receives the distribution of video content as a means to enjoy movies without hesitation to the surroundings with only individuals and friends, and realizes theater functions in karaoke facilities and homes. doing.

しかしながら、特許文献1に開示されているシアター・システムにおいても、従来のシネマコンプレックスと同様に、複数の映像コンテンツは別々のシアター・ルーム内で同時上映されている。従って、複数の映像コンテンツを同一のシアター・ルーム内において同時上映する場合に特有の以下の問題を解決することができない。   However, also in the theater system disclosed in Patent Document 1, a plurality of video contents are simultaneously screened in separate theater rooms, as in the case of a conventional cinema complex. Therefore, the following problems peculiar to simultaneous screening of a plurality of video contents in the same theater room can not be solved.

つまり、複数の視聴者がそれぞれの好みに応じて別々の映像コンテンツを視聴しようとしても、映像毎の音声が同一室内で相互に混在してクリアに聴き取れなくなってしまう。そこで、同一の室内で複数の視聴者がそれぞれ視聴中の映像コンテンツの音声を互いに混在させることなく、各視聴者が視聴を希望する映像の音声を他人には聞こえないように互いに排他的に聴くことができる工夫が必要となる。   That is, even if a plurality of viewers try to view different video content according to their preferences, the audio for each video is mixed with each other in the same room and can not be heard clearly. Therefore, without making the audio of video content being viewed by a plurality of viewers in the same room mixed with each other, each viewer exclusively listens to each other so that the audio of the video desired to be viewed can not be heard by another person A device that can do that is necessary.

また、特許文献2には、センター設備において、顧客の予約やリクエストを複数の上映場所から集約した結果に応じて、各映画館で個別に行ってきた機器設定や上映枠の割り当ての作業を一括してセンター設備で実行している。他方、同じシアター・ルーム内で同時上映されている複数の映像コンテンツの中で現在視聴中の映像コンテンツから他の映像コンテンツに切り替えて視聴したいと視聴者が欲する場合がある。   Moreover, according to Patent Document 2, in the center facility, in accordance with the result of collecting customer reservations and requests from a plurality of screening places, equipment setting and screening frame allocation tasks individually performed in each movie theater are collectively performed. And run on center equipment. On the other hand, the viewer may want to switch from the video content currently being viewed to another video content for viewing among a plurality of video contents being simultaneously screened in the same theater room.

従って、視聴中の映像コンテンツの音声を各視聴者が互いに排他的に聴けるだけでなく、以下の工夫が求められる。すなわち、各視聴者が視聴する映像コンテンツを切り替えた際に、特許文献2記載の技術では、視聴する映像コンテンツを途中で変更するのに同期して、映像の音声を変更後の音声へとリアルタイムに切り替えて聴くことができる機能を実現することができない。   Therefore, not only the viewers can mutually exclusively listen to the audio of the video content being viewed, but the following measures are required. That is, when the video content to be viewed by each viewer is switched, according to the technology described in Patent Document 2, the audio of the video is changed to the voice after the change in real time in synchronization with changing the video content to be viewed halfway. You can not realize the function you can switch to and listen to.

このように、特許文献1および2では、複数の映像コンテンツが同一室内にて同時上映される際に各視聴者が視聴を希望する映像の音声を他人には聞こえないように互いに排他的に聴くことを可能にする仕組みについて開示していない。また、特許文献1および2では、各視聴者が視聴する映像コンテンツを切り替えた際に、映像の音声を変更後の音声へとリアルタイムに切り替えて聴くことができる機能を実現する技術について開示していない。   As described above, in Patent Documents 1 and 2, when a plurality of video contents are simultaneously screened in the same room, each viewer exclusively listens to each other so that the audio of the video desired to be viewed can not be heard by another person. It does not disclose about the mechanism that makes it possible. Further, Patent Documents 1 and 2 disclose a technology for realizing a function that can switch audio in real time to audio after change and listen in real time when video content to be viewed by each viewer is switched. Absent.

そこで、本開示はこのような事情に鑑み、複数の映像コンテンツが同一室内にて同時上映される際に、各視聴者が視聴したい映像の音声を他人に聞こえないように排他的に視聴可能とする映像音声管理装置および上映システムを提供することを目的とする。また、本開示は、視聴する映像コンテンツの変更に伴って、映像の音声を変更後の音声へとリアルタイムに切り替えて聴くことが可能な映像音声管理装置および上映システムを提供することを目的とする。   Therefore, in view of such circumstances, when a plurality of video contents are simultaneously screened in the same room, it is possible to exclusively view so that the audio of the video each viewer wants to view can not be heard by others. It is an object of the present invention to provide a video and audio management apparatus and a screening system. Another object of the present disclosure is to provide a video and audio management apparatus and a screening system that can switch the audio of video to the audio after change in real time and listen to the audio in accordance with the change of video content to be viewed. .

上記目的を達成するため、本開示の第1の観点に係る映像音声管理装置は、複数の異なる映像を同時進行でそれぞれ上映するための複数の映像表示装置に前記映像情報をそれぞれ出力する映像情報出力部と、前記映像情報にそれぞれ同期した音声情報を、利用者に貸し出した複数のワイヤレスヘッドホンにて切り替え可能に受信できるように出力する音声情報出力部と、を備えることを特徴とする。   In order to achieve the above object, a video and audio management device according to a first aspect of the present disclosure outputs video information to a plurality of video display devices for respectively screening a plurality of different videos simultaneously. The apparatus is characterized by comprising: an output unit; and an audio information output unit that outputs audio information synchronized with the video information so that the audio information can be switchably received by the plurality of wireless headphones lent to the user.

上記目的を達成するため、本開示の第2の観点に係る上映システムは、複数の異なる映像を同時進行で複数の画面にそれぞれ表示して上映するための複数の映像表示装置と、複数の前記映像表示装置に前記映像情報をそれぞれ出力する映像情報出力部と、前記映像情報にそれぞれ同期した音声情報を、利用者に貸し出した複数のワイヤレスヘッドホンにて切り替え可能に受信できるように無線で送信する音声情報出力部と、複数の前記画面が内壁面に沿って設けられた内部空間と、ワイヤレスヘッドホンの貸し出しを受ける利用者に対し、前記利用者の認証と前記利用者への課金を行う認証課金処理部と、を備えることを特徴とする。   In order to achieve the above object, a screening system according to a second aspect of the present disclosure includes: a plurality of video display devices for displaying and screening a plurality of different videos simultaneously on a plurality of screens; The video information output unit for outputting the video information to the video display device, and the audio information synchronized with the video information are wirelessly transmitted so that they can be switchably received by the plurality of wireless headphones loaned to the user An authentication charge for authenticating the user and charging the user to a voice information output unit, an internal space provided with a plurality of the screens along the inner wall surface, and a user who receives a loan of wireless headphones And a processing unit.

本開示によれば、複数の映像コンテンツが同一室内にて同時上映される際に、各視聴者はワイヤレスヘッドホンにより映像の音声を聴くようにする。そのため、本開示によれば、各視聴者は、視聴したい映像の音声を他人に聞こえないように排他的に視聴可能とすることができる。また、本開示によれば、各視聴者は、映像の音声を変更後の音声へとワイヤレスヘッドホンにて切り替え可能である。そのため、本開示によれば、視聴する映像コンテンツの変更に伴って、映像の音声を変更後の音声へとリアルタイムに切り替えて聴くことを可能にすることができる。   According to the present disclosure, when a plurality of video contents are simultaneously screened in the same room, each viewer listens to the audio of the video through the wireless headphones. Therefore, according to the present disclosure, each viewer can exclusively view and listen to the sound of the video desired to be viewed so as not to be heard by another person. Further, according to the present disclosure, each viewer can switch the audio of the video to the changed audio using the wireless headphone. Therefore, according to the present disclosure, it is possible to switch the audio of the video to the audio after the change in real time and to listen in conjunction with the change of the video content to be viewed.

第1実施形態に係る上映システムの鳥瞰視座から見た外観を示す図である。It is a figure which shows the external appearance seen from the bird's-eye view of the screening system which concerns on 1st Embodiment. 第1実施形態に係る上映システムにおける映像音声管理装置の構成例を示す図である。It is a figure which shows the structural example of the audio-video management apparatus in the show system which concerns on 1st Embodiment. 映像音声管理装置を構成する機能部間での同期制御部を介した同期と情報交換を示す図である。It is a figure which shows the synchronization and information exchange via the synchronous control part between the function parts which comprise an audio-video management apparatus. 同期制御部の制御下で各視聴者に映像と音声を伝送する際の処理フローを示す図である。It is a figure which shows the processing flow at the time of transmitting an image | video and an audio | voice to each viewer under control of a synchronous control part. 映像視聴中の視聴者に関する情報を分析のための収集する際の処理フローを示す図である。It is a figure which shows the processing flow at the time of collecting for analysis the information regarding the audience in image viewing and listening. 第2実施形態に係る上映システムの機器構成を例示する構成図である。It is a block diagram which illustrates the apparatus structure of the screening system which concerns on 2nd Embodiment. 第2実施形態に係る映像音声管理装置の構成例を示す図である。It is a figure which shows the structural example of the audio-video management apparatus concerning 2nd Embodiment. 第2実施形態に従い、映像音声管理装置を構成する機能部間での同期制御部を介した同期と情報交換を示す図である。FIG. 10 is a diagram showing synchronization and information exchange via synchronization control units between functional units constituting the video and audio management device according to the second embodiment.

以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. Note that the embodiments described below do not unduly limit the content of the present disclosure described in the claims. In addition, not all of the components shown in the embodiment are necessarily essential components of the present disclosure.

(第1実施形態)
図1に示すように、本実施形態に係る上映システム1の鳥瞰方向から見た外観は、複数の画面2a〜2cが内壁面3に沿って設けられた内部空間を含む。図1(a)は、内壁面3を含む上映システム1の鳥瞰図であり、図1(b)は、図1(a)に示す上映システム1の内部を見やすくするために壁面を省略した鳥瞰図である。なお、以下の説明においては、上映システム1の利用者が画面2a〜2cの何れかの映像を視聴している間、または説明の便宜上必要な場合には、利用者のことを文脈に応じて「映像の視聴者」または「音声の聴取者」などと呼ぶ。
First Embodiment
As shown in FIG. 1, the appearance viewed from the bird's-eye view of the screening system 1 according to the present embodiment includes an internal space in which a plurality of screens 2 a to 2 c are provided along the inner wall surface 3. 1 (a) is a bird's-eye view of the screening system 1 including the inner wall surface 3, and FIG. 1 (b) is a bird's-eye view with the wall omitted to make the inside of the screening system 1 shown in FIG. is there. In the following description, while the user of the screening system 1 is viewing the image of any of the screens 2a to 2c, or when necessary for the convenience of the explanation, the user according to the context It is called "Video Viewer" or "Audio Listener".

上映システム1では、複数の画面2a〜2cのそれぞれの前には長手方向に沿ってアーチ形に湾曲した形状を有する長椅子4a〜4cが設置されている。長椅子4a〜4cは、画面2a〜2cの何れかをそれぞれ見ている利用者(視聴者)が画面2a〜2cにそれぞれ表示される映像を見るために座るソファー等である。   In the screening system 1, long chairs 4a to 4c having a shape curved in an arch shape along the longitudinal direction are installed in front of the plurality of screens 2a to 2c. The long chairs 4a to 4c are sofas or the like on which a user (viewer) who is respectively looking at any of the screens 2a to 2c can sit to view an image displayed on the screens 2a to 2c.

また、上映システム1では、内壁面3で囲まれた内部空間の床面中央部に、貸出カウンター5が設けられている。この貸出カウンター5にて利用者に後述するワイヤレスヘッドホンを含む様々な備品を貸し出したりグッズを販売したりしている。また、利用者がこの内部空間に出入りする出入り口には、入退場管理装置6aおよび6bが設置されている。利用者が入場時にICチップ内蔵型の会員カードを入退場管理装置6aまたは6bにタッチすることで視聴者の個人情報を含む会員情報を取得するようにすることも可能である。また、入退場管理装置6aおよび6bを用いて入場者数を数えることで、内部が混雑している間は出入り口において入場制限を行うようにすることも可能である。   Further, in the screening system 1, a lending counter 5 is provided in the central part of the floor surface of the inner space surrounded by the inner wall 3. Various items such as wireless headphones, which will be described later, are lent to the user at the lending counter 5 and goods are sold. In addition, entry and exit management devices 6a and 6b are installed at the entrance where the user enters and leaves this internal space. It is also possible to obtain member information including personal information of the viewer by touching the entry / exit management device 6a or 6b with the IC chip built-in type membership card when the user enters. In addition, by counting the number of visitors using the entrance and exit management devices 6a and 6b, it is possible to perform entrance restriction at the entrance while the inside is crowded.

なお、一実施形態では、利用者は予め自身の個人情報を上映システム1に対して登録することで会員登録を行い、利用者が入場する際に入退場管理装置6aおよび6bが利用者の認証と課金を行えるようにしておくようにしてもよい。その際、事前登録される利用者の個人情報には、利用者のクレジット・カード番号のような決済情報も含まれる。その場合には、利用者が自身の個人情報に基づいて会員登録を行うと、利用者に対して会員カードが発行されるようにしてもよい。   In one embodiment, the user performs member registration by registering his / her personal information in the screening system 1 in advance, and the entry / exit management devices 6a and 6b authenticate the user when the user enters. And charging may be performed. At this time, the pre-registered user's personal information includes payment information such as the user's credit card number. In such a case, if the user performs member registration based on his / her personal information, a member card may be issued to the user.

さらに、図2に示すように、複数の画面2a〜2cをそれぞれ有する複数の映像表示装置20a〜20cには、映像音声管理装置100が接続されている。映像音声管理装置100(図2)は、後述するように、複数の異なる映像コンテンツmv(1)〜mv(3)を同時進行で複数の画面2a〜2cにそれぞれ表示して上映するために、複数の映像表示装置20a〜20cに接続される。また、貸出カウンター5には、ワイヤレスヘッドホンの貸し出しを受ける利用者に対し、利用者の認証と利用者への課金を行う認証課金処理部32(図2)が設けられている。   Furthermore, as shown in FIG. 2, the video and audio management device 100 is connected to the plurality of video display devices 20 a to 20 c respectively having the plurality of screens 2 a to 2 c. As described later, the video and audio management apparatus 100 (FIG. 2) displays a plurality of different video contents mv (1) to mv (3) simultaneously on the plurality of screens 2a to 2c, respectively, and displays them. The plurality of video display devices 20a to 20c are connected. Further, the lending counter 5 is provided with an authentication charge processing unit 32 (FIG. 2) for authenticating the user and charging the user for the user who receives the wireless headphone.

一実施形態では、認証課金処理部32は、入場した利用者の認証と課金を行うために貸出カウンター5に設置された情報端末を備えていてもよい。別の実施形態では、認証課金処理部32は、各利用者が入場に際して入退場管理装置6aまたは6bに会員カードをタッチさせると、会員カード内のICチップ内に記憶された個人情報を読み取り、利用者に対する入場料相当分の課金を行うようにしてもよい。さらに、貸出カウンター5には、課金または認証を行った利用者に対して、その課金または認証の結果生成された利用者情報と対応付けてワイヤレスヘッドホン50(a)〜50(K)を貸し出すための管理を行う貸出管理部33(図2)が設けられている。また、貸出カウンター5では、ワイヤレスヘッドホン50(a)〜50(K)のみならず、後述するモーションセンサ70(a)〜70(M)を利用者に貸し出すようにしてもよい。   In one embodiment, the authentication and charging processing unit 32 may include an information terminal installed in the lending counter 5 in order to perform authentication and charging of the entered user. In another embodiment, the authentication charge processing unit 32 reads personal information stored in the IC chip in the membership card when each user causes the entry / exit management device 6a or 6b to touch the membership card upon entry. The user may be charged for the entrance fee. Further, the lending counter 5 lends wireless headphones 50 (a) to 50 (K) to the user who has performed billing or authentication in association with the user information generated as a result of the billing or authentication. A lending management unit 33 (FIG. 2) is provided to manage the In the lending counter 5, not only the wireless headphones 50 (a) to 50 (K) but also motion sensors 70 (a) to 70 (M) described later may be lent to the user.

一実施形態では、認証課金処理部32は、各利用者が会員登録の際に決済情報として入力したクレジット・カード番号に基づいて信販会社に照会処理を行い、課金するようにしてもよい。この課金は、利用者が入場する都度、一回の入場料相当分を課金する形態であってもよく、1ヶ月〜数ヶ月の期間にわたって有効なフリーパスの代金相当分を課金する形態であってもよい。   In one embodiment, the authentication and charging processing unit 32 may perform inquiry processing to a credit sales company based on the credit card number input as payment information at the time of member registration by each user, and may charge the same. This charge may be in the form of charging a single admission fee each time the user enters, and is a form in which the equivalent of the valid free pass fee is charged over a period of one month to several months. May be

貸出管理部33は、上述した利用者情報と対応付けてワイヤレスヘッドホン50(a)〜50(K)やモーションセンサ70(a)〜70(M)を貸し出すためのデータ管理を行うために貸出カウンター5に設置された情報端末を備えていてもよい。貸出カウンター5に設置された情報端末を備えていてもよい。図2に示すように、認証課金処理部32と貸出管理部33は、映像音声管理装置100に接続されており、映像音声管理装置100内において、映像と音声の提供に伴って必要となる利用者管理のために用いられる。   The lending management unit 33 is a lending counter to perform data management for lending out the wireless headphones 50 (a) to 50 (K) and the motion sensors 70 (a) to 70 (M) in association with the above-described user information. An information terminal installed at 5 may be provided. An information terminal installed at the lending counter 5 may be provided. As shown in FIG. 2, the authentication and charging processing unit 32 and the lending management unit 33 are connected to the video and audio management apparatus 100, and the video and audio management apparatus 100 uses the video and audio required as the video and audio are provided. It is used for person management.

<映像音声管理装置の構成>
以下、上映システム1における映像と音声の提供およびそれに伴う利用者管理の中心的機能を実行する映像音声管理装置100について図2を参照しながら説明する。図2に示すように、本実施形態に係る映像音声管理装置100は、映像情報出力部110と、音声情報出力部120と、分析部130と、上映スケジュール管理部140と、同期制御部150と、バスおよび通信インターフェース160とを備える。図2に示すように、映像情報出力部110および音声情報出力部120は、コンテンツ・データベース41および音声情報データベース42とそれぞれ接続されている。また、分析部130および上映スケジュール管理部140は、利用者情報データベース43およびスケジュール・データベース44とそれぞれ接続されている。
<Configuration of Video and Audio Management Device>
Hereinafter, a video and audio management apparatus 100 that executes provision of video and audio in the screening system 1 and a central function of user management associated therewith will be described with reference to FIG. As shown in FIG. 2, the video and audio management apparatus 100 according to the present embodiment includes a video information output unit 110, an audio information output unit 120, an analysis unit 130, a screening schedule management unit 140, and a synchronization control unit 150. , Bus and communication interface 160. As shown in FIG. 2, the video information output unit 110 and the audio information output unit 120 are connected to the content database 41 and the audio information database 42, respectively. Further, the analysis unit 130 and the screening schedule management unit 140 are connected to the user information database 43 and the schedule database 44, respectively.

コンテンツ・データベース41には、映像情報出力部110を介して映像表示装置20a〜20cに配信し、画面2a〜2cに映示すべき多数の映像コンテンツが蓄積されている。コンテンツ・データベース41は、映像ジャンルや映画タイトルなどをキーとして検索することで、所望の映像コンテンツを読み出すことができるように構成されている。また、コンテンツ・データベース41内の映像コンテンツの各々には、映像のジャンルを表す情報に加え、映像シーン毎のシーン識別情報や出演者の識別情報を含んだメタデータμ(図2)が埋め込まれている。   The content database 41 is distributed to the video display devices 20a to 20c via the video information output unit 110, and a large number of video contents to be displayed on the screens 2a to 2c are stored. The content database 41 is configured to be able to read out desired video content by searching using a video genre, a movie title or the like as a key. Also, in each of the video contents in the contents database 41, in addition to the information indicating the genre of the video, metadata μ (FIG. 2) including scene identification information for each video scene and identification information of performers is embedded. ing.

音声情報データベース42は、コンテンツ・データベース41内に蓄積された多数の映像コンテンツやプロモーション映像の音声部分、BGM、効果音などを音声情報として分離して蓄積している。利用者情報データベース43には、利用者毎の利用者情報が蓄積されている。利用者毎の利用者情報には、各利用者の個人情報や個人的な記録データに加えて、利用者U(1)〜U(K)の各々についてワイヤレスヘッドホン50(a)〜50(K)の利用状況を収集し、記録した情報などが含まれる。スケジュール・データベース44には、映像表示装置20a〜20cの画面2a〜2cにおいて上映すべき映像コンテンツの上映スケジュールが蓄積されている。   The audio information database 42 separates and accumulates, as audio information, a large number of video contents stored in the content database 41, audio parts of promotion video, BGM, sound effects, and the like. The user information database 43 stores user information for each user. In the user information for each user, in addition to personal information of each user and personal recorded data, wireless headphones 50 (a) to 50 (K for each of users U (1) to U (K) Information on collecting and recording the usage status of) is included. In the schedule database 44, screening schedules of video contents to be screened on the screens 2a to 2c of the video display devices 20a to 20c are accumulated.

バスおよび通信インターフェース160は、音声情報出力部120、分析部130および上映スケジュール管理部140と接続された内部バスとして構成される。音声情報出力部120、分析部130および上映スケジュール管理部140は、バスおよび通信インターフェース160を介して信号やデータの送受信を行うことが可能である。   The bus and communication interface 160 is configured as an internal bus connected to the audio information output unit 120, the analysis unit 130, and the screening schedule management unit 140. The voice information output unit 120, the analysis unit 130, and the screening schedule management unit 140 can transmit and receive signals and data via the bus and the communication interface 160.

また、バスおよび通信インターフェース160は、映像音声管理装置100の外部に設けられた編成枠販売情報受付部31、認証課金処理部32および貸出管理部33と通信回線などで接続されている外部通信インターフェースとしてさらに構成される。編成枠販売情報受付部31、認証課金処理部32および貸出管理部33は、バスおよび通信インターフェース160を介して映像音声管理装置100との間で信号やデータを通信することが可能である。なお、編成枠販売情報受付部31の詳細については、図6を用いて後述する。   Further, the bus and communication interface 160 is an external communication interface connected to the organization frame sales information receiving unit 31 provided outside the video and audio management apparatus 100, the authentication and charging processing unit 32, and the lending management unit 33 via a communication line or the like. Further configured as The organization frame sales information receiving unit 31, the authentication and charging processing unit 32, and the lending management unit 33 can communicate signals and data with the video and audio management apparatus 100 via the bus and the communication interface 160. The details of the knitting frame sales information receiving unit 31 will be described later with reference to FIG.

また、バスおよび通信インターフェース160は、映像音声管理装置100の外部に用意されたワイヤレスヘッドホン50(a)〜50(K)、利用者端末60(a)〜60(N)およびモーションセンサ70(a)〜70(M)と無線により接続されている無線通信インターフェースとしてさらに構成される。ワイヤレスヘッドホン50(a)〜50(K)、利用者端末60(a)〜60(N)およびモーションセンサ70(a)〜70(M)は、バスおよび通信インターフェース160を介して映像音声管理装置100との間で情報やデータを無線通信することが可能である。   The bus and communication interface 160 also includes wireless headphones 50 (a) to 50 (K), user terminals 60 (a) to 60 (N), and a motion sensor 70 (a), which are provided outside the video and audio management apparatus 100. And 70 (M) are further configured as a wireless communication interface connected by wireless. The wireless headphones 50 (a) to 50 (K), the user terminals 60 (a) to 60 (N) and the motion sensors 70 (a) to 70 (M) are connected to a video and audio management device via a bus and communication interface 160. It is possible to wirelessly communicate information and data with one another.

複数の映像コンテンツmv(1)〜mv(3)が上映システム1の内部空間にて同時上映される際に、視聴者U(1)〜U(K)はそれぞれワイヤレスヘッドホン50(a)〜50(K)により映像の音声を聴くようにする。そのため、本実施形態では、同じ室内で互いに異なる映像を視聴している各視聴者は、視聴したい映像の音声を他人に聞こえないように排他的に視聴可能とすることができる。   When a plurality of video contents mv (1) to mv (3) are simultaneously screened in the internal space of screening system 1, viewers U (1) to U (K) are respectively wireless headphones 50 (a) to 50 (a) to 50 Listen to the audio of the video by (K). Therefore, in the present embodiment, the viewers who are viewing different images in the same room can exclusively view each other so that the audio of the image they want to view can not be heard by others.

また、ワイヤレスヘッドホン50(a)〜50(K)は、視聴者U(1)〜U(K)による操作が可能な操作部(図示せず)を有する。視聴者U(1)〜U(K)が当該操作部を操作することで、異なる映像情報にそれぞれ同期した複数の音声情報の中から何れの音声情報を受信するかを切り替える受信音声切替操作が可能である。さらに、視聴者U(1)〜U(K)が当該操作部を操作することで、音量の調整操作および音声信号を受信するための電源のオンオフ切替操作を行うことも可能である。   In addition, the wireless headphones 50 (a) to 50 (K) have an operation unit (not shown) that can be operated by the viewers U (1) to U (K). When the viewers U (1) to U (K) operate the operation unit, a received voice switching operation is performed to switch which voice information is received from a plurality of pieces of audio information synchronized with different video information. It is possible. Furthermore, the viewers U (1) to U (K) can operate the operation unit to perform the volume adjustment operation and the power on / off switching operation for receiving an audio signal.

また、本実施形態では、視聴者U(1)〜U(K)の各々は、ワイヤレスヘッドホン50(a)〜50(K)の各々が有する操作スイッチ(図示なし)をそれぞれ操作することで、映像の音声を変更後の音声へと切り替え可能である。そのため、映像コンテンツmv(1)〜mv(3)の何れを視聴するかを視聴者U(1)〜U(K)がそれぞれ変更する際に、映像の音声を変更後の音声へとリアルタイムに切り替えて聴くことができる。   Further, in the present embodiment, each of the viewers U (1) to U (K) operates the operation switches (not shown) of the wireless headphones 50 (a) to 50 (K), respectively, The audio of the video can be switched to the changed audio. Therefore, when each of the viewers U (1) to U (K) changes which of the video contents mv (1) to mv (3) to view, the audio of the video is changed to the audio after the change in real time. You can switch and listen.

より具体的には、ワイヤレスヘッドホン50(i)(1≦i≦K)の各々においては、複数の音声チャネルの中から音声受信用のアクティブな音声チャネルを選択する操作を行うことが可能である。複数の音声チャネルは、複数の映像コンテンツmv(i)(1≦j≦J)とそれぞれ同期した複数の音声情報をそれぞれ伝送するのに用いられる。そして、ワイヤレスヘッドホン50(i)(1≦i≦K)の各々においては、映像コンテンツmv(x)に対応する音声チャネルが選択されている場合のみ、映像コンテンツmv(x)に対応する音声情報が受信される。   More specifically, in each of the wireless headphones 50 (i) (1 ≦ i ≦ K), it is possible to perform an operation of selecting an active audio channel for audio reception from a plurality of audio channels. . The plurality of audio channels are used to respectively transmit a plurality of audio information synchronized with the plurality of video contents mv (i) (1 ≦ j ≦ J). Then, in each of the wireless headphones 50 (i) (1 ≦ i ≦ K), the audio information corresponding to the video content mv (x) only when the audio channel corresponding to the video content mv (x) is selected. Is received.

さらに、ワイヤレスヘッドホン50(i)において、選択中の音声チャネルが映像コンテンツmv(x)に対応する音声チャネルから映像コンテンツmv(y)に対応する音声チャネルに切り替えられると、映像コンテンツmv(y)に対応する音声情報が受信されるようになる。その際、ワイヤレスヘッドホン50(i)においてどの音声チャネルからその音声チャネルへと切り替え操作がされたかに関する記録が映像音声管理装置100に無線送信される。ワイヤレスヘッドホン50(i)上での利用者U(i)による音声チャネル切替操作の記録が映像音声管理装置100においてどのように利用されるかについては後述する。   Furthermore, in the wireless headphone 50 (i), when the audio channel being selected is switched from the audio channel corresponding to the video content mv (x) to the audio channel corresponding to the video content mv (y), the video content mv (y) The audio information corresponding to is received. At that time, a recording regarding which audio channel has been switched to the audio channel in the wireless headphone 50 (i) is wirelessly transmitted to the video and audio management device 100. How the recording of the audio channel switching operation by the user U (i) on the wireless headphone 50 (i) is used in the video and audio management apparatus 100 will be described later.

映像情報出力部110は、複数の異なる映像を同時進行でそれぞれ上映するための複数の映像表示装置20a〜20cに映像情報をそれぞれ出力する。映像情報出力部110が出力する映像情報は、映像情報出力部110に接続され、多数の映像コンテンツやプロモーション映像のコンテンツ・データを蓄積したコンテンツ・データベース41から供給される。   The video information output unit 110 outputs video information to a plurality of video display devices 20a to 20c for respectively screening a plurality of different videos simultaneously. The video information output from the video information output unit 110 is connected to the video information output unit 110, and is supplied from the content database 41 in which content data of a large number of video content and promotion video are stored.

音声情報出力部120は、映像情報にそれぞれ同期した音声情報を、利用者に貸し出した複数のワイヤレスヘッドホン50(a)〜50(K)の各々にて切り替え可能に受信できるように出力する。音声情報出力部120が出力する音声情報は、音声情報出力部120に接続された音声情報データベース42から供給されるようになっている。音声情報データベース42は、コンテンツ・データベース41内に蓄積された多数の映像コンテンツやプロモーション映像の音声部分、BGM、効果音などを音声情報として分離して蓄積している。   The audio information output unit 120 outputs audio information synchronized with the video information so that it can be switchably received by each of the plurality of wireless headphones 50 (a) to 50 (K) lent to the user. The audio information output from the audio information output unit 120 is supplied from the audio information database 42 connected to the audio information output unit 120. The audio information database 42 separates and accumulates, as audio information, a large number of video contents stored in the content database 41, audio parts of promotion video, BGM, sound effects, and the like.

また、音声情報出力部120は、一つの映像情報に対して少なくとも主音声と副音声を含む複数の音声情報を複数のワイヤレスヘッドホン50(a)〜50(K)に出力するように構成されている。その際、音声情報出力部120は、ワイヤレスヘッドホン50(a)〜50(K)にて複数の音声情報を切り替え可能に受信できるように音声出力を行う。   Further, the audio information output unit 120 is configured to output a plurality of audio information including at least a main audio and a sub audio to a plurality of wireless headphones 50 (a) to 50 (K) with respect to one video information. There is. At that time, the audio information output unit 120 performs audio output so that the wireless headphones 50 (a) to 50 (K) can switchably receive a plurality of audio information.

その結果、利用者U(1)〜U(K)の各々は、映像コンテンツの日本語の音声である主音声を聞くか外国語の音声である副音声を聞くかを選択することが可能となる。例えば、利用者U(1)〜U(K)の各々は、ワイヤレスヘッドホン50(a)〜50(K)の各々に設けられた切替スイッチ等(図示せず)をそれぞれ操作することで、主音声と副音声の切り替えをそれぞれ行うようにしてもよい。   As a result, each of the users U (1) to U (K) can select whether to listen to the main voice that is the Japanese voice of the video content or to hear the secondary voice that is the foreign language voice. Become. For example, each of the users U (1) to U (K) operates the changeover switch etc. (not shown) provided on each of the wireless headphones 50 (a) to 50 (K), respectively. It is also possible to switch between voice and sub-voice respectively.

また、複数の視聴者U(1)〜U(K)は、映像コンテンツを視聴するためにワイヤレスヘッドホン50(a)〜50(K)を装着するだけでなく、ワイヤレスヘッドホン50(a)〜50(K)を付属したモーションセンサ70(a)〜70(K)を装着するようにしてもよい。一実施形態では、モーションセンサ70(a)〜70(K)は、ワイヤレスヘッドホン50(a)〜50(K)とそれぞれ一体化されていてよい。   Also, the plurality of viewers U (1) to U (K) wear not only the wireless headphones 50 (a) to 50 (K) to view the video content, but also the wireless headphones 50 (a) to 50 Motion sensors 70 (a) to 70 (K) attached with (K) may be attached. In one embodiment, motion sensors 70 (a) -70 (K) may be integrated with wireless headphones 50 (a) -50 (K), respectively.

具体的には、モーションセンサ70(i)(1≦i≦K)が利用者U(i)の身体の方に向けて配置されるように、モーションセンサ70(i)は、ワイヤレスヘッドホン50(i)上の適切な位置に適切な向きで取り付けられるようにしてもよい。これにより、利用者U(i)がワイヤレスヘッドホン50(i)を装着した際に、モーションセンサ70(i)が利用者U(i)の身体の計測対象部位に装着されるようにしてもよい。   Specifically, the motion sensor 70 (i) includes the wireless headphones 50 (i) such that the motion sensor 70 (i) (1 ≦ i ≦ K) is disposed toward the body of the user U (i). i) It may be installed at an appropriate position on the top with an appropriate orientation. Thus, when the user U (i) wears the wireless headphone 50 (i), the motion sensor 70 (i) may be worn on the measurement target site of the body of the user U (i) .

また、モーションセンサ70(a)〜70(K)は、映像視聴中の利用者U(1)〜U(K)の身体的反応を生体計測データとしてそれぞれ時系列的に計測し、映像音声管理装置100に無線送信するようにしてもよい。モーションセンサ70(a)〜70(K)によって計測された生体計測データが映像音声管理装置100内においてどのように利用されるかについては後述する。   Also, the motion sensors 70 (a) to 70 (K) measure physical responses of the users U (1) to U (K) while viewing an image respectively as time measurement data, and manage the video and audio It may be wirelessly transmitted to the device 100. How the biometric data measured by the motion sensors 70 (a) to 70 (K) is used in the video and audio management apparatus 100 will be described later.

また、音声情報出力部120は、利用者U(i)が映像コンテンツmv(j)のどの映像シーンまで視聴したかを表す視聴位置情報L(i,j)を、対応する音声情報の出力履歴に基づいて記録する。その上で、音声情報出力部120は、視聴位置情報L(i,j)を利用者U(i)が保有する利用者端末60(i)(1≦i≦n)に配信する。   Also, the audio information output unit 120 outputs the viewing history of the corresponding audio information to the viewing position information L (i, j) indicating which video scene the user U (i) has viewed to which video content mv (j). Record based on Then, the audio information output unit 120 distributes the viewing position information L (i, j) to the user terminal 60 (i) (1 ≦ i ≦ n) owned by the user U (i).

利用者端末60(i)に配信された視聴位置情報L(i,j)は、例えば、以下のような場合に必要とされる。画面2a〜2cの何れかの前で映像コンテンツmv(j)を視聴中の利用者U(i)がトイレ休憩や食事休憩のために席を外している間に映像コンテンツmv(j)の上映がかなり先に進んでしまったとする。その場合、利用者U(i)は、映像コンテンツmv(j)が後で再度上映された際に、最初の映像シーンからではなく、前回の上映で最後に見た映像シーンから視聴を再開したいと思う時がある。   The viewing position information L (i, j) distributed to the user terminal 60 (i) is required, for example, in the following case. Screening of the video content mv (j) while the user U (i) watching the video content mv (j) in front of any of the screens 2a-2c is taking a seat for restroom or meal break Suppose that he has moved a long way ahead. In that case, when the video content mv (j) is screened again later, the user U (i) wants to resume viewing from the video scene seen last in the previous screening, not from the first video scene. Sometimes I think.

そこで、利用者端末60(i)に映像コンテンツmv(j)の上述した視聴位置情報L(i,j)を配信し、再上映の開始時刻から最後に見た映像シーンまでの待ち時間を利用者端末60iの表示画面に表示させるようにする。そうすれば、利用者U(i)は、最後に見た映像シーンから視聴を再開するためには、何時何分に元の席に戻れば良いかを容易に知ることができる。   Therefore, the above-mentioned viewing position information L (i, j) of the video content mv (j) is distributed to the user terminal 60 (i), and the waiting time from the re-screening start time to the last viewed video scene is used It is displayed on the display screen of the user terminal 60i. Then, the user U (i) can easily know how many minutes and minutes it should return to the original seat in order to resume viewing from the last viewed video scene.

分析部130は、以下において後述する分析処理に用いるために、映像視聴中のワイヤレスヘッドホン50(a)〜50(K)の利用状況に関するデータを取得するように構成されている。分析部130が映像視聴中のワイヤレスヘッドホン50(a)〜50(K)の利用状況に関して取得した上記データは、利用者U(1)〜U(K)の各々と対応付ける形で利用者情報データベース43内に蓄積される。ここで、ワイヤレスヘッドホン50(a)〜50(K)の利用状況に関するデータは、映像視聴中の利用者U(1)〜U(K)についての記録データを含んでいる。   The analysis unit 130 is configured to acquire data regarding the usage status of the wireless headphones 50 (a) to 50 (K) during video viewing for use in analysis processing to be described later. The above data acquired regarding the use status of the wireless headphones 50 (a) to 50 (K) during video viewing by the analysis unit 130 is associated with each of the users U (1) to U (K) in a user information database It is accumulated in 43. Here, data relating to the usage status of the wireless headphones 50 (a) to 50 (K) includes recorded data for the users U (1) to U (K) while viewing a video.

一実施形態では、映像視聴中の各利用者についてのそのような記録データには、利用者U(1)〜U(K)の各々が映像視聴中にワイヤレスヘッドホン50(a)〜50(K)上でそれぞれ行った操作の記録が含まれる。また、別の実施形態では、そのような記録データには、映像視聴中の利用者U(1)〜U(K)の身体的反応を後述するモーションセンサ70(a)〜70(M)で時系列的に計測した一連の生体計測データを記録したものが含まれる。   In one embodiment, such recorded data for each user while viewing a video may include wireless headphones 50 (a) to 50 (K) while each of the users U (1) to U (K) is viewing video. A record of the operations performed above) is included. In another embodiment, such recorded data may be motion sensors 70 (a) to 70 (M) that describe physical responses of users U (1) to U (K) while viewing an image. A series of time-series measured biometric data is included.

上映スケジュール管理部140は、上映すべき映像コンテンツおよび上映スケジュールの最適化に関して分析部130が分析処理の結果を生成するたびに、その分析結果を受け取る。その場合、上映スケジュール管理部140は、スケジュール・データベース44から現在の上映スケジュールを読み出す。その上で、上映スケジュール管理部140は、分析部130から受け取った分析結果に応じて、映像コンテンツの上映スケジュールの再編成を行う。最後に、上映スケジュール管理部140は、再編成後の上映スケジュールを更新された上映スケジュールとしてスケジュール・データベース44に格納する。   The screening schedule management unit 140 receives the analysis result each time the analysis unit 130 generates the result of the analysis process regarding the optimization of the video content to be screened and the screening schedule. In that case, the screening schedule management unit 140 reads the current screening schedule from the schedule database 44. Then, the presentation schedule management unit 140 reorganizes the presentation schedule of the video content in accordance with the analysis result received from the analysis unit 130. Finally, the screening schedule management unit 140 stores the screening schedule after reorganization in the schedule database 44 as the updated screening schedule.

同期制御部150は、映像情報出力部110、音声情報出力部120、分析部130および上映スケジュール管理部140との間で信号のやり取りの中継をする中継機能部として構成される。具体的には、同期制御部150は、映像情報出力部110、音声情報出力部120、分析部130および上映スケジュール管理部140のうち、適切な送信元から適切な送信先に向けて信号をルーティングする。   The synchronization control unit 150 is configured as a relay function unit that relays the exchange of signals between the video information output unit 110, the audio information output unit 120, the analysis unit 130, and the screening schedule management unit 140. Specifically, among the video information output unit 110, the audio information output unit 120, the analysis unit 130, and the screening schedule management unit 140, the synchronization control unit 150 routes a signal from an appropriate transmission source to an appropriate transmission destination. Do.

ここで、同期制御部150によって中継される信号やデータは、以下のような信号やデータを含むことが可能である。例えば、同期制御部150によって中継される信号やデータは、送信元から送信先に向けて所望の同期タイミングに合わせて連続的に伝送される信号ストリームであってもよい。また、同期制御部150によって中継される信号やデータは、送信元で伝送データの準備ができ次第、所望の同期タイミングに合わせて伝送されることにより、不連続なデータ伝送が繰り返し行われる間欠的な信号ストリームであってもよい。   Here, the signals and data relayed by the synchronization control unit 150 can include the following signals and data. For example, the signal or data relayed by the synchronization control unit 150 may be a signal stream continuously transmitted from the transmission source to the transmission destination according to a desired synchronization timing. In addition, the signal or data relayed by the synchronization control unit 150 is transmitted intermittently according to a desired synchronization timing as soon as transmission data is prepared at the transmission source, so that discontinuous data transmission is repeatedly performed intermittently. May be a signal stream.

以上より、同期制御部150は、送信元から送信先に向けて上記のような信号ストリームを適切な伝送タイミングに同期して反復的に伝送するように構成される。そのため、映像情報出力部110、音声情報出力部120、分析部130および上映スケジュール管理部140のうち、何れか送信元となり、何れが送信先となるかに応じて、適切な同期クロック信号を内部的に生成する。その上で、同期制御部150は、何れか送信元となり何れが送信先となるかに合わせて適切に生成した同期クロック信号に同期して、送信元から送信先に向けて信号ストリームをルーティングする。   As described above, the synchronization control unit 150 is configured to repeatedly transmit the signal stream as described above from the transmission source to the transmission destination in synchronization with appropriate transmission timing. Therefore, according to which of the video information output unit 110, the audio information output unit 120, the analysis unit 130, and the screening schedule management unit 140 becomes a transmission source and which becomes a transmission destination, an appropriate synchronous clock signal is internally To generate Then, the synchronization control unit 150 routes the signal stream from the transmission source to the transmission destination in synchronization with the synchronization clock signal appropriately generated according to which transmission source and which becomes the transmission destination. .

<同期制御部を介した同期と信号の授受>
以下、図3を参照しながら、映像情報出力部110、音声情報出力部120、分析部130および上映スケジュール管理部140の間で同期制御部150が所望の同期タイミングに合わせて連続的または間欠的な信号ストリームや各種情報を中継伝送する例について説明する。図3は、同期制御部150により中継される形で、上映スケジュール管理部140、映像情報出力部110および音声情報出力部120の間でどのような種類の信号やデータが送受信されるかを示すフロー図である。
<Transfer of synchronization and signals via synchronization control unit>
Hereinafter, referring to FIG. 3, the synchronization control unit 150 among the video information output unit 110, the audio information output unit 120, the analysis unit 130 and the screening schedule management unit 140 continuously or intermittently according to the desired synchronization timing. An example of relay transmission of various signal streams and various information will be described. FIG. 3 shows what kind of signals and data are transmitted and received among the screening schedule management unit 140, the video information output unit 110 and the audio information output unit 120 in the form of being relayed by the synchronization control unit 150. FIG.

図3に示すように、上映スケジュール管理部140は、スケジュール・データベース44から取得した上映スケジュールに従い、特定の映像コンテンツの上映開始を映像情報出力部110にリアルタイムで通知する。例えば、上映スケジュール管理部140は、上映スケジュールを参照し、特定の映像コンテンツmv(x)の上映開始がスケジューリングされた時刻になると、映像コンテンツmv(x)の上映開始の指示を映像情報出力部110に即座に通知する。   As shown in FIG. 3, according to the screening schedule acquired from the schedule database 44, the screening schedule management unit 140 notifies the video information output unit 110 in real time of the start of screening of a specific video content. For example, the screening schedule management unit 140 refers to the screening schedule, and when the time to start screening of a specific video content mv (x) is scheduled, the video information output unit instructs to start screening the video content mv (x). Notify 110 immediately.

この機能を実現するために、上映スケジュール管理部140と映像情報出力部110は、それぞれクロックが同一の時刻を刻むように互いに同期させなくてはならない。そこで、同期制御部150は、上映スケジュール管理部140が有するクロックが生成したパルス信号をマスター側とする。そして、同期制御部150は、映像情報出力部110におけるクロックを駆動するクロック・パルス信号を当該マスター側のクロック・パルス信号に同期させる動作を行う。   In order to realize this function, the screening schedule management unit 140 and the video information output unit 110 must be synchronized with each other so that the clocks tick the same time. Therefore, the synchronization control unit 150 sets the pulse signal generated by the clock of the screening schedule management unit 140 as the master side. Then, the synchronization control unit 150 synchronizes the clock pulse signal for driving the clock in the video information output unit 110 with the clock pulse signal on the master side.

同期制御部150は、映像情報出力部110が一連の映像フレームを上映のために出力する際に、各映像フレームの開始時刻に同期して立ち上がるフレーム同期信号を生成する動作を開始する。その上で、同期制御部150は、映像情報出力部110が各々の映像フレームを映像表示装置20a〜20cの何れかに出力する動作を当該フレーム同期信号に同期して実行するように映像情報出力部110に指示する。同時に、同期制御部150は、音声情報出力部120が各々の映像フレームに対応する音声情報をワイヤレスヘッドホン50(a)〜50(K)に出力する動作を当該フレーム同期信号に同期して実行するように音声情報出力部120に指示する。   When the video information output unit 110 outputs a series of video frames for screening, the synchronization control unit 150 starts an operation of generating a frame synchronization signal which rises in synchronization with the start time of each video frame. Then, the synchronization control unit 150 outputs the video information so that the operation of the video information output unit 110 outputting each video frame to any of the video display devices 20a to 20c in synchronization with the frame synchronization signal. It instructs the part 110. At the same time, the synchronization control unit 150 performs an operation of the audio information output unit 120 outputting the audio information corresponding to each video frame to the wireless headphones 50 (a) to 50 (K) in synchronization with the frame synchronization signal. In this way, the voice information output unit 120 is instructed.

続いて、映像コンテンツmv(x)の上映開始の指示を通知された映像情報出力部110は、コンテンツ・データベース41に対して映像コンテンツmv(x)の送信を要求する。この要求に応じてコンテンツ・データベース41から映像コンテンツmv(x)の送信が始まると、映像情報出力部110は、映像コンテンツmv(x)と同期して出力すべき音声情報の出力開始の指示を、同期制御部150を経由して音声情報出力部120に通知する。同時に、映像情報出力部110は、映像コンテンツmv(x)の映像フレームを映像表示装置20a〜20cの何れかに出力する動作を当該フレーム同期信号に同期して実行する。   Subsequently, the video information output unit 110 notified of an instruction to start screening of the video content mv (x) requests the content database 41 to transmit the video content mv (x). When transmission of the video content mv (x) from the content database 41 starts in response to the request, the video information output unit 110 instructs the output start of the audio information to be output in synchronization with the video content mv (x). And notifies the audio information output unit 120 via the synchronization control unit 150. At the same time, the video information output unit 110 performs an operation of outputting a video frame of the video content mv (x) to any of the video display devices 20a to 20c in synchronization with the frame synchronization signal.

これにより、映像情報出力部110が上映のために出力する映像コンテンツmv(a)の映像フレームに同期して、音声情報出力部120が音声情報をワイヤレスヘッドホン50(a)〜50(k)に出力する動作を開始する。同期制御部150が生成するフレーム同期信号に合わせて映像情報出力部110と音声情報出力部120が映像コンテンツmv(x)の映像情報と音声情報をそれぞれ上映のために出力している間、映像情報出力部110は、以下の動作を繰り返す。   Thereby, the audio information output unit 120 transmits the audio information to the wireless headphones 50 (a) to 50 (k) in synchronization with the video frame of the video content mv (a) that the video information output unit 110 outputs for screening. Start the output operation. While the video information output unit 110 and the audio information output unit 120 respectively output the video information and audio information of the video content mv (x) for screening in accordance with the frame synchronization signal generated by the synchronization control unit 150 The information output unit 110 repeats the following operation.

まず、映像情報出力部110は、映像コンテンツmv(x)が上映開始時の冒頭部分からどこまで上映されたかを表す視聴位置情報L(x)を、同期制御部150を経由して音声情報出力部120に送信する。この視聴位置情報は、映像コンテンツmv(x)の現在の再生位置を表す情報に相当し、視聴者U(1)〜U(k)の各々が所持する利用者端末60(i)(1≦i≦n)に視聴位置情報L(i,x)(1≦i≦n)として配信される。視聴位置情報L(i,x)の配信を受けた利用者端末60(i)は、再上映の開始時刻から最後に見た映像シーンまでの待ち時間を利用者端末60(i)の表示画面に表示させるようにする。その結果、利用者U(i)は、最後に見た映像シーンから視聴を再開するためには、何時何分に元の席に戻れば良いかを容易に知ることができる。   First, the video information output unit 110 transmits the audio information output unit via the synchronization control unit 150 to the viewing position information L (x) indicating how far the video content mv (x) has been screened from the beginning at the start of the screening. Send to 120 The viewing position information corresponds to information indicating the current reproduction position of the video content mv (x), and user terminals 60 (i) (1 ≦ 1 ≦) owned by each of the viewers U (1) to U (k). It is distributed as viewing position information L (i, x) (1 <i <n) in i <n. The user terminal 60 (i) that has received the distribution of the viewing position information L (i, x) displays the waiting time from the start time of the re-screening to the video scene seen at the end as the display screen of the user terminal 60 (i) Make it appear on the screen. As a result, the user U (i) can easily know how long and when to return to the original seat in order to resume viewing from the last viewed video scene.

また、映像情報出力部110は、上映中の映像コンテンツmvの再生位置が映像シーン境界位置に来たか否かを常時監視する。映像シーン境界位置とは、上映中の映像コンテンツmvにおいてある映像シーンが別の映像シーンに切り替わる再生位置である。再生位置が映像シーン境界位置に達すると、映像情報出力部110は、図3に示す映像シーン識別情報と映像属性情報を、同期制御部150を経由して分析部130に送信する。続いて、分析部130は、映像情報出力部110から受け取った映像シーン識別情報と映像属性情報を、利用者情報データベース43に記憶させる。   Also, the video information output unit 110 constantly monitors whether the reproduction position of the video content mv being screened has come to the video scene boundary position. The video scene boundary position is a reproduction position at which a video scene in the video content mv being screened changes to another video scene. When the reproduction position reaches the video scene boundary position, the video information output unit 110 transmits the video scene identification information and the video attribute information shown in FIG. 3 to the analysis unit 130 via the synchronization control unit 150. Subsequently, the analysis unit 130 stores the video scene identification information and the video attribute information received from the video information output unit 110 in the user information database 43.

ここで、映像シーン識別情報とは、映像シーンが切り替わった直後の新たな映像シーンを識別する情報を意味し、映像属性情報とは、当該新たな映像シーンの特性を記述する映像属性の情報を意味する。映像シーンが切り替わった直後に分析部130に送信される映像シーン識別情報と映像属性情報は、分析部130が利用者毎に収集した利用者情報を後述する方法に従って分析処理するために必要となる情報である。   Here, the video scene identification information means information for identifying a new video scene immediately after the switching of the video scene, and the video attribute information is information on video attributes describing characteristics of the new video scene. means. The video scene identification information and the video attribute information transmitted to the analysis unit 130 immediately after the video scene is switched are necessary to analyze the user information collected by the analysis unit 130 for each user according to the method described later. It is information.

分析部130は、利用者情報データベース43に一旦記憶された映像シーン識別情報と映像属性情報を必要に応じて読み出しながら上記の分析処理を実行する。この分析処理の実行中、分析部130は、利用者U(1)〜U(K)の各々が装着しているワイヤレスヘッドホン50(i)(1≦i≦K)の操作記録に関するデータを音声情報出力部120から分析処理を行うための入力情報として受け取る。また、この分析処理の実行中、分析部130は、利用者の身体的反応に関する計測データをモーションセンサ70(i)(1≦i≦K)から分析処理を行うための入力情報として受け取る。   The analysis unit 130 executes the above analysis processing while reading out the video scene identification information and the video attribute information temporarily stored in the user information database 43 as needed. During execution of this analysis process, the analysis unit 130 voices data on the operation record of the wireless headphones 50 (i) (1 ≦ i ≦ K) worn by each of the users U (1) to U (K). It receives from the information output unit 120 as input information for performing analysis processing. In addition, during the execution of this analysis process, the analysis unit 130 receives measurement data on the physical response of the user from the motion sensor 70 (i) (1 ≦ i ≦ K) as input information for performing the analysis process.

ここで言う「利用者の身体的反応に関する計測データ」とは、利用者U(1)〜U(K)の各々が装着しているモーションセンサ70(i)(1≦i≦K)が計測し出力したデータである。例えば、この計測データは、映像視聴中の各利用者の身体的な反応の時系列的な推移を生体計測データとして計測したセンサー出力値であってもよい。この分析処理が終わると、分析部130は、分析の結果を利用者毎の(利用者U(1)〜U(K)の各々に関する)利用者情報λ(i)(1≦i≦P)として、利用者情報データベース43に記憶させる。   The “measurement data on the physical response of the user” mentioned here means that the motion sensor 70 (i) (1 ≦ i ≦ K) worn by each of the users U (1) to U (K) measures Data output. For example, this measurement data may be a sensor output value obtained by measuring, as biometric measurement data, a time-series transition of physical reaction of each user while viewing an image. When this analysis process is completed, the analysis unit 130 analyzes the analysis result into user information λ (i) (1 ≦ i ≦ P) (for each of the users U (1) to U (K)) for each user. , And stored in the user information database 43.

分析部130は、利用者情報データベース43から上映スケジュールを再編すべき旨を指示する上映スケジュール再編指示を受信すると、以下において後述する上映スケジュール調整情報を、同期制御部150を経由して上映スケジュール管理部140に送信する動作を開始する。分析部130は、以下のようなケースに該当する場合に、上映スケジュール再編指示を利用者情報データベース43から受信するように構成されてもよい。   When the analysis unit 130 receives from the user information database 43 a screening schedule reorganization instruction to instruct that the screening schedule should be reorganized, the screening schedule adjustment information, which will be described later, is managed via the synchronization control unit 150. The operation to transmit to the unit 140 is started. The analysis unit 130 may be configured to receive a presentation schedule reorganization instruction from the user information database 43 when the following cases apply.

第1のケースとしては、分析部130により上述した分析処理を行うのに十分な量のデータが利用者情報データベース43内に蓄積された場合が該当する。第2のケースとしては、分析部130による上記の分析処理の結果、映像コンテンツを視聴しに来場する顧客の満足度の向上又は満足度の低下防止のために上映スケジュールの再編成が必要であると分析部130が判定した場合が該当する。第3のケースとしては、映像コンテンツのマーケティングや市場動向調査を支援するために上映システム1の外部で稼働しているマーケティング支援システム(図示なし)から通知を受けた場合に該当する。すなわち、顧客満足度向上のために上映スケジュールの再編成が必要である旨を示唆する情報を映像音声管理装置100がマーケティング支援システムから受信した場合である。   The first case corresponds to the case where a sufficient amount of data for performing the above-described analysis processing by the analysis unit 130 is accumulated in the user information database 43. In the second case, as a result of the above-described analysis processing by the analysis unit 130, it is necessary to reorganize the screening schedule in order to prevent the improvement in the degree of satisfaction of customers who visit video content and the decline in satisfaction. And the analysis unit 130 makes a determination. The third case corresponds to the case where a notification is received from a marketing support system (not shown) operating outside the screening system 1 to support marketing of video content and market trend research. That is, the video and audio management apparatus 100 receives from the marketing support system information suggesting that reorganization of the screening schedule is necessary to improve customer satisfaction.

以上のようにして上映スケジュール再編指示を受信した分析部130は、利用者情報データベース43内に蓄積された利用者情報λ(i)(1≦i≦P)を読み出す。続いて、分析部130は、顧客満足度向上のために上映スケジュールをどのように再編成もしくは調整すべきかを表す情報である上映スケジュール調整情報を生成する。続いて、分析部130は、生成した上映スケジュール調整情報を、同期制御部150を経由して上映スケジュール管理部140に送信する。   As described above, the analysis unit 130 that has received the screening schedule reorganization instruction reads out the user information λ (i) (1 ≦ i ≦ P) accumulated in the user information database 43. Subsequently, the analysis unit 130 generates screening schedule adjustment information which is information indicating how to reorganize or adjust the screening schedule to improve customer satisfaction. Subsequently, the analysis unit 130 transmits the generated screening schedule adjustment information to the screening schedule management unit 140 via the synchronization control unit 150.

上映スケジュール調整情報を受信した上映スケジュール管理部140は、現在の上映スケジュールをスケジュール・データベース44から読み出し、当該上映スケジュール調整情報に従って上映スケジュールを再編成する。最後に、上映スケジュール管理部140は、再編成後の上映スケジュールをスケジュール・データベース44に書き込むことにより、スケジュール・データベース44内の古い上映スケジュールを上書きして更新する。   The screening schedule management unit 140 that has received the screening schedule adjustment information reads the current screening schedule from the schedule database 44, and reorganizes the screening schedule according to the screening schedule adjustment information. Finally, the screening schedule management unit 140 overwrites and updates the old screening schedule in the schedule database 44 by writing the screening schedule after reorganization into the schedule database 44.

<利用者情報に基づく分析処理について>
以下、分析部130が実行する分析処理について詳しく説明する。この分析処理は、映像コンテンツを視聴するために来場する顧客の満足度の向上又は満足度の低下防止のために上映スケジュールをどのように再編成すべきかを判断するための基礎情報を得る目的で実行されてもよい。また、この分析処理は、映像コンテンツの企画制作やプロモーションを行う人や組織にとって有益となるフィードバック情報を生成する目的で実行されてもよい。このフィードバック情報は、図1に示す上映システム1の外部において稼働するマーケティング支援システムに送信され、コンテンツ制作者(またはアーティスト)やコンテンツのプロモーションを行う組織に対して提供されてもよい。
<About analysis processing based on user information>
Hereinafter, the analysis processing performed by the analysis unit 130 will be described in detail. This analysis process is for the purpose of obtaining basic information to determine how to reorganize the screening schedule to prevent the improvement or decrease in satisfaction of the customers who visit to view the video content. It may be performed. Also, this analysis process may be performed for the purpose of generating feedback information that is useful to a person or organization who plans and produces or promotes video content. This feedback information may be transmitted to a marketing support system operating outside the screening system 1 shown in FIG. 1 and may be provided to a content creator (or artist) or an organization that promotes content promotion.

分析部130が実行する分析処理は、映像視聴中のワイヤレスヘッドホン50(i)(1≦i≦K)の利用状況に関するデータを分析部130が入力として受け取り、当該データを分析して映像視聴中の利用者毎の挙動や反応を分析するものである。分析部130が実行する例示的な分析処理では、映像視聴中のワイヤレスヘッドホン50(i)(1≦i≦K)の利用状況に関するデータは、以下のようにして分析されてもよい。すなわち、上述したデータは、利用者U(i)(1≦i≦K)により映像コンテンツmv(j)(1≦j≦J)がどのように視聴されているかに関する視聴のされ具合を分析するために用いられてもよい。例えば、上述したデータは、視聴中の映像コンテンツを構成する各映像シーンや映像コンテンツの属性と対比され、どのような映像シーンにおいて利用者がどのような挙動や反応を示すかを分析するために用いられてもよい。   In the analysis process performed by the analysis unit 130, the analysis unit 130 receives as an input data regarding the usage status of the wireless headphone 50 (i) (1 ≦ i ≦ K) while viewing a video, analyzes the data, and views the video It analyzes the behavior and reaction of each user. In an exemplary analysis process performed by the analysis unit 130, data relating to the usage of the wireless headphones 50 (i) (1 ≦ i ≦ K) during video viewing may be analyzed as follows. That is, the data described above analyzes the viewing condition regarding how the video content mv (j) (1 ≦ j ≦ J) is viewed by the user U (i) (1 ≦ i ≦ K) It may be used to For example, the above-mentioned data is compared with the attributes of each video scene and video content constituting the video content being viewed, and in order to analyze what behavior and reaction the user shows in what video scene It may be used.

まず、分析処理のために分析部130に入力される情報について説明する。分析部130が実行する分析処理は、利用者情報データベース43内において利用者毎に(利用者U(i)(1≦i≦P)の各々に関して)蓄積された利用者情報λ(i)(1≦i≦P)を入力とする。利用者情報λ(i)(1≦i≦P)は、利用者に対して認証課金処理部32が行う認証と課金の結果として得られる利用者毎の個人情報を初期情報として含む。また、利用者情報λ(i)(1≦i≦P)は、利用者U(i)(1≦i≦P)の各々に関して利用者の属性を記述する利用者属性情報をさらに含んでいてもよい。   First, information input to the analysis unit 130 for analysis processing will be described. The analysis process performed by the analysis unit 130 is the user information λ (i) (for each user U (i) (1 ≦ i ≦ P)) stored in the user information database 43 (for each user U (i) (1 ≦ i ≦ P)). It is assumed that 1 ≦ i ≦ P). The user information λ (i) (1 ≦ i ≦ P) includes, as initial information, personal information for each user obtained as a result of authentication and charging performed by the authentication and charging processing unit 32 for the user. Also, the user information λ (i) (1 ≦ i ≦ P) further includes user attribute information that describes the attributes of the user for each of the users U (i) (1 ≦ i ≦ P). It is also good.

この場合の各利用者の属性としては、利用者の年代、性別、他のコンテンツ配信サービスの視聴履歴データ、各利用者の趣味や嗜好を反映した情報が考えられる。ここで、上記視聴履歴データとしては、上映システム1の運営元と業務提携している他のコンテンツ配信サイトを利用して、各利用者がどのようなジャンルやキャスティングの映像を以前に視聴したかを記録した履歴データであってもよい。また、各利用者の趣味や嗜好を反映した情報としては、他のマニア系Webサイトへの会員登録状況および他のエンターティンメント系サービスへの加入状況などを記録した情報が考えられる。   As attributes of each user in this case, it is possible to consider the age and gender of the user, viewing history data of other content distribution services, and information reflecting the user's hobbies and preferences. Here, as the above-mentioned viewing history data, what kind of genre or casting video each user has viewed before using another content distribution site that has a business alliance with the managing agency of the screening system 1 It may be history data in which Further, as information that reflects the tastes and preferences of each user, there can be considered information that records the status of membership registration on other mania Web sites and the status of subscription to other entertainment services.

そして、映像視聴中の利用者U(i)がワイヤレスヘッドホン50(i)を操作するたびに、操作記録データが利用者情報λ(i)に順次追加されてゆく。また、モーションセンサ70(i)により映像視聴中の利用者U(i)の身体的な反応に関する生体計測データが得られるたびに、当該生体計測データが利用者情報λ(i)に順次追加されていく。   Then, each time the user U (i) viewing a video operates the wireless headphone 50 (i), operation record data is sequentially added to the user information λ (i). Further, each time biometric data on the physical reaction of the user U (i) while viewing a video is obtained by the motion sensor 70 (i), the biometric data is sequentially added to the user information λ (i). To go.

また、この分析処理は、上述した上映スケジュール調整情報を分析結果として出力するものであってもよい。また、この分析処理は、映像コンテンツの企画制作やプロモーションを行う人や組織にとって有益となるフィードバック情報を分析結果として出力するものであってもよい。以下、分析処理の結果として、上映スケジュールをどのように再編成あるいは調整すべきかを表す上映スケジュール調整情報を分析結果として出力する場合のシナリオについて詳しく説明する。   Also, this analysis process may output the above-mentioned screening schedule adjustment information as an analysis result. In addition, this analysis processing may output feedback information that is useful to a person or organization who performs planning and production or promotion of video content as an analysis result. Hereinafter, a scenario will be described in detail in the case where screening schedule adjustment information indicating how to rearrange or adjust the screening schedule is output as an analysis result as a result of the analysis process.

分析部130は、映像視聴中の利用者U(1)〜U(K)についての当該記録データを分析することで、上映すべき映像コンテンツおよび上映スケジュールの最適化に関する分析を行うよう構成される。一実施形態では、映像視聴中の利用者毎に上記記録データを収集した分析部130は、収集した当該記録データを分析することで、上映スケジュールの最適化に有用な以下のような情報を得ることができる。例えば、各利用者の属性に合わせて、どのようなジャンルやキャスティングの映画タイトルや映像コンテンツを上映すれば全体として顧客満足度を高められるかを示唆する情報を得ることができる。   The analysis unit 130 is configured to analyze the video data to be screened and the optimization of the screening schedule by analyzing the recorded data of the users U (1) to U (K) while viewing the video. . In one embodiment, the analysis unit 130 which has collected the above-mentioned recorded data for each user who is viewing a video obtains the following information useful for optimizing the screening schedule by analyzing the collected recorded data. be able to. For example, according to the attributes of each user, it is possible to obtain information indicating what genre and casting movie titles and video content can be screened to enhance customer satisfaction as a whole.

映像視聴中の利用者毎に記録された上記記録データは、以下のようにして分析部130によって収集されるようにしてもよい。まず、映像視聴中の利用者U(1)〜U(K)の各々について記録された当該記録データは、ワイヤレスヘッドホン50(i)(1≦i≦K)から映像音声管理装置100へと無線送信される。続いて、無線信号として受信された当該記録データは、分析部130へと出力される。   The above-mentioned recorded data recorded for each user while viewing a video may be collected by the analysis unit 130 as follows. First, the recording data recorded for each of the users U (1) to U (K) viewing the video is wirelessly transmitted from the wireless headphone 50 (i) (1 ≦ i ≦ K) to the video and audio management device 100. Will be sent. Subsequently, the recording data received as a wireless signal is output to the analysis unit 130.

一実施形態では、映像視聴中の利用者毎に記録される記録データには、利用者U(1)〜U(K)の各々が映像視聴中にワイヤレスヘッドホン50(a)〜50(K)上でそれぞれ行った操作の記録が含まれる。その場合、ワイヤレスヘッドホン50(a)〜50(K)上で可能な操作には、異なる映像情報にそれぞれ同期した複数の音声チャネルの何れを受信するかを切り替える受信チャネル切替操作が含まれる。また、ワイヤレスヘッドホン50(a)〜50(K)上で可能な操作には、音量の調整操作および音声信号受信用電源のオンオフ切替操作なども含まれる。ワイヤレスヘッドホン50(a)〜50(K)の利用状況に関して記録される当該記録データは、上記のような分析処理に用いる入力データとして視聴者U(1)〜U(K)の各々について記録され、利用者毎に読み出し可能な形で利用者情報データベース43に蓄積される。   In one embodiment, each of the users U (1) to U (K) records the wireless headphones 50 (a) to 50 (K) while the user U (1) to U (K) are viewing video, in the recording data recorded for each user while viewing the video. It contains a record of each of the operations performed above. In that case, the operations available on the wireless headphones 50 (a) to 50 (K) include a reception channel switching operation for switching which of a plurality of audio channels synchronized with different video information is to be received. Further, operations that can be performed on the wireless headphones 50 (a) to 50 (K) include volume adjustment operation and on / off switching operation of the power supply for audio signal reception. The recorded data to be recorded regarding the usage status of the wireless headphones 50 (a) to 50 (K) is recorded for each of the viewers U (1) to U (K) as input data used for the analysis process as described above. The user information is stored in the user information database 43 in a readable form for each user.

分析部130は、映像視聴中の利用者U(1)〜U(K)についての当該記録データを利用者情報データベース43から必要に応じて読み出し、当該記録データを分析する。これにより、分析部130は、どのような内容の映像シーンに視聴者U(1)〜U(K)が強い興味を示すかを示唆する分析結果を得ることが可能となる。あるいは、分析部130は、映像コンテンツのジャンルやタイトルに応じてどのようなキャスティング(出演者の選定や劇中での配役)が視聴者U(1)〜U(K)に好まれるか(あるいは嫌われるか)などを示唆する分析結果を得るように構成されてもよい。   The analysis unit 130 reads out, from the user information database 43, the recording data of the users U (1) to U (K) currently viewing the video as needed, and analyzes the recording data. As a result, the analysis unit 130 can obtain an analysis result indicating what kind of content video scene the viewers U (1) to U (K) show strong interest. Alternatively, according to the genre and title of the video content, the analysis unit 130 may select what casting (selection of performers and cast during a play) is preferred by the viewers U (1) to U (K) (or It may be configured to obtain an analysis result that suggests (dislike).

利用者U(1)〜U(K)の各々が映像視聴中にワイヤレスヘッドホン50(a)〜50(K)上でそれぞれ行った操作の記録を用いて行う分析処理の例として、分析部130が実行してもよい分析処理の例を以下に述べる。ここで、以下の説明において用いられる用語「映像属性」とは、上映される映像コンテンツmvに出演している出演者および映像のジャンルを含む概念を指して言う。また、映像コンテンツmvを構成する一連の映像シーンの各々と映像シーン毎の映像属性は、映像コンテンツmvの映像情報に含まれるメタデータμ(図2)を用いて識別するようにしてもよい。   As an example of analysis processing performed using a record of operations performed by each of the users U (1) to U (K) on the wireless headphones 50 (a) to 50 (K) while viewing an image, An example of the analysis process that may be performed is described below. Here, the term "video attribute" used in the following description refers to a concept including performers appearing in the video content mv to be screened and the genre of the video. Further, each of a series of video scenes constituting the video content mv and video attributes for each video scene may be identified using metadata μ (FIG. 2) included in the video information of the video content mv.

まず、利用者U(1)〜U(K)の各々がワイヤレスヘッドホン50(a)〜50(K)の各々にて映像視聴中にそれぞれ行った音量および/または音質の調整操作の操作記録データを分析処理への入力データとして利用者毎に利用者情報データベース43から読み出す。   First, operation record data of the volume and / or sound quality adjustment operation performed by each of the users U (1) to U (K) while viewing the video with each of the wireless headphones 50 (a) to 50 (K) Are read out from the user information database 43 for each user as input data to the analysis process.

続いて、映像コンテンツを構成する一連の映像シーンの時系列とヘッドホン操作記録データの時系列との間に観察される相関関係を調べ、当該相関関係から利用者U(1)〜U(K)の各々が興味を示す映像シーンを検出する。同時に、当該相関関係から利用者U(1)〜U(K)の各々が興味を示す映像属性を映像シーン毎に検出する。以上のようにして、分析部130は、どのような内容の映像シーンに視聴者U(1)〜U(K)が強い興味を示すかを示唆する分析結果を取得する。   Subsequently, the correlation observed between the time series of the series of video scenes constituting the video content and the time series of the headphone operation recording data is examined, and the user U (1) to U (K) is determined from the correlation. Detects video scenes each of which is of interest. At the same time, a video attribute in which each of the users U (1) to U (K) is interested is detected for each video scene from the correlation. As described above, the analysis unit 130 acquires an analysis result indicating what kind of content video scene the viewers U (1) to U (K) show a strong interest.

また、別の実施形態では、分析部130は、利用者U(i)(1≦i≦K)の各々がワイヤレスヘッドホン50(i)(1≦i≦K)にて行った音声切替操作の記録から以下のような分析処理を行ってもよい。すなわち、視聴する映像コンテンツmv(j)(1≦j≦J)の音声チャネルを切り替えるために各々の利用者U(i)が上記音声切替操作を行った履歴から、以下の(a)および(b)の少なくとも一つ以上を分析処理した結果を出力するようにさらに構成されてもよい。   Further, in another embodiment, the analysis unit 130 may perform the voice switching operation performed by each of the users U (i) (1 ≦ i ≦ K) in the wireless headphones 50 (i) (1 ≦ i ≦ K). The following analysis process may be performed from the record. That is, from the history in which each user U (i) has performed the above-mentioned audio switching operation to switch the audio channel of the video content mv (j) (1 ≦ j ≦ J) to be viewed, the following (a) and (a) It may be further configured to output the result of analysis processing of at least one or more of b).

(a)一の映像コンテンツmv(j)を視聴中の利用者U(i)が別の映像コンテンツmv(j)を視聴するために移動した履歴を利用者毎に記録した移動記録、および
(b)上映中の映像コンテンツmv(j)(1≦j≦J)の各々を視聴する人数の全利用者数に占める割合の推移の記録。
分析部130は、上記(a)および(b)の分析結果を上映システム1内の情報端末にレポーティング情報として配信するように構成されてもよい。
(A) Movement recording in which the history of movement of the user U (i) who is viewing one video content mv (j 1 ) to view another video content mv (j 2 ) is recorded for each user, And (b) Recording of the transition of the ratio of the number of people who view and listen to each of the video content mv (j) (1 ≦ j ≦ J) being shown to the total number of users.
The analysis unit 130 may be configured to distribute the analysis results of (a) and (b) above to the information terminal in the screening system 1 as reporting information.

別の実施形態では、分析部130は、映像情報のメタデータμを用いて出演者および映像のジャンルを含む映像属性と各映像シーンとを識別し、モーションセンサ70(i)(1≦i≦N)から利用者U(i)の身体的反応に関する生体計測情報を取得してもよい。続いて、利用者U(i)(1≦i≦N)の身体的反応の時間変化から利用者U(i)が興味を示す映像属性と映像シーンを検出することにより、ワイヤレスヘッドホン50(i)の利用状況を分析するようにしてもよい。   In another embodiment, the analysis unit 130 identifies the video attributes including the performer and the genre of the video and each video scene using the metadata μ of the video information, and the motion sensor 70 (i) (1 ≦ i ≦ N) may obtain biometric information on the physical response of the user U (i). Subsequently, the wireless headphone 50 (i is detected by detecting the video attribute and the video scene in which the user U (i) is interested from the time change of the physical response of the user U (i) (1 ≦ i ≦ N). ) May be analyzed.

つまり、この実施形態では、分析部130は、ワイヤレスヘッドホン50(a)〜50(K)の利用状況に関する情報として、映像視聴中の各利用者の身体的反応を時系列的に計測した一連の生体計測データを取得してもよい。言い換えると、この実施形態では、ワイヤレスヘッドホン50(i)(1≦i≦K)の利用状況に関して利用者毎に記録された記録データには、映像視聴中の利用者U(i)の身体的反応をモーションセンサ70(i)で計測した生体計測データを記録したデータが含まれている。   That is, in this embodiment, the analysis unit 130 measures a series of time-series physical responses of each user while viewing the video, as the information related to the usage state of the wireless headphones 50 (a) to 50 (K). Biometric data may be acquired. In other words, in this embodiment, the recorded data recorded for each user regarding the use situation of the wireless headphone 50 (i) (1 ≦ i ≦ K) is the physical properties of the user U (i) who is viewing the video. It includes data obtained by recording biological measurement data obtained by measuring a reaction with the motion sensor 70 (i).

この実施形態では、分析部130は、利用者毎に計測された当該生体計測データを分析することで、上映すべき映像コンテンツおよび上映スケジュールの最適化に関する分析を行うよう構成されてもよい。一実施形態では、分析部130は、映像視聴中の利用者毎に身体的反応の生体計測データを収集し、分析することにより、上映スケジュールの最適化に有用な情報を得ることができる。当該生体計測データは、以下のようにして分析部130によって収集されてもよい。   In this embodiment, the analysis unit 130 may be configured to analyze the optimization of the video content to be screened and the screening schedule by analyzing the biometric data measured for each user. In one embodiment, the analysis unit 130 can obtain biometric information useful for optimization of a presentation schedule by collecting and analyzing biometric data of physical reactions for each user while viewing a video. The biometric data may be collected by the analysis unit 130 as follows.

例えば、分析部130は、利用者U(i)(1≦i≦K)の身体に装着されたモーションセンサ70(i)から当該生体計測データを無線信号として受信してもよい。具体的には、映像視聴中の利用者U(i)の身体的反応を時系列的に計測した生体計測データは、モーションセンサ70(i)(1≦i≦K)から映像音声管理装置100へと無線送信される。続いて、バスおよび通信インターフェース160により無線信号として受信された当該生体計測データは、分析部130へと出力される。   For example, the analysis unit 130 may receive the biological measurement data as a wireless signal from the motion sensor 70 (i) attached to the body of the user U (i) (1 ≦ i ≦ K). Specifically, living body measurement data obtained by measuring the physical reaction of the user U (i) while viewing a video in time series is the video / audio management device 100 from the motion sensor 70 (i) (1 ≦ i ≦ K). Wirelessly transmitted to. Subsequently, the living body measurement data received as a wireless signal by the bus and communication interface 160 is output to the analysis unit 130.

一実施形態では、映像視聴中の利用者毎に身体的反応を計測した生体計測データには、利用者U(1)〜U(K)の各々について映像視聴中の眼の瞳孔の開き具合を計測したものが含まれる。また、当該生体計測データには、利用者U(1)〜U(K)の各々について映像視聴中の頸の動きや手足の動きを計測したものが含まれてもよい。また、当該生体計測データには、利用者U(1)〜U(K)の各々について映像視聴中の体温の経時変化や脈拍数の経時変化を計測したものが含まれてもよい。映像視聴中の利用者U(1)〜U(K)の各々について計測される当該生体計測データは、上記のような分析処理に用いる入力データとして視聴者U(1)〜U(K)の各々について記録され、利用者毎に読み出し可能な形で利用者情報データベース43に蓄積される。   In one embodiment, biometric measurement data in which physical responses are measured for each user while viewing a video include the degree of eye pupil opening during viewing of a video for each of the users U (1) to U (K). It includes what was measured. Moreover, what measured the movement of the neck and the movement of the limbs in video viewing and listening about each of the users U (1)-U (K) may be contained in the said living body measurement data. Further, the living body measurement data may include, for each of the users U (1) to U (K), measurement of a temporal change in body temperature during viewing of an image or a temporal change in pulse rate. The living body measurement data measured for each of the users U (1) to U (K) while viewing the video are input data used for the analysis processing as described above as the input data for the viewers U (1) to U (K). The information is recorded for each and stored in the user information database 43 in a readable form for each user.

分析部130は、映像視聴中の利用者U(1)〜U(K)についての当該生体計測データを利用者情報データベース43から必要に応じて読み出し、当該生体計測データを分析する。これにより、分析部130は、どのような内容の映像シーンに視聴者U(1)〜U(K)が強い興味を示すかを示唆する分析結果を得ることが可能となる。あるいは、分析部130は、映像コンテンツのジャンルやタイトルに応じてどのようなキャスティング(出演者の選定や劇中での配役)が視聴者U(1)〜U(K)に好まれるか(あるいは嫌われるか)などを示唆する分析結果を得るように構成されてもよい。   The analysis unit 130 reads out the living body measurement data of the users U (1) to U (K) currently viewing the video from the user information database 43 as needed, and analyzes the living body measurement data. As a result, the analysis unit 130 can obtain an analysis result indicating what kind of content video scene the viewers U (1) to U (K) show strong interest. Alternatively, according to the genre and title of the video content, the analysis unit 130 may select what casting (selection of performers and cast during a play) is preferred by the viewers U (1) to U (K) (or It may be configured to obtain an analysis result that suggests (dislike).

映像視聴中の利用者U(1)〜U(K)の各々について計測される当該生体計測データを用いて行う分析処理の例として、分析部130が実行してもよい分析処理の例を以下に述べる。まず、分析部130は、映像視聴中の利用者U(1)〜U(K)の各々について計測される生体計測データを分析処理への入力データとして利用者毎に利用者情報データベース43から読み出す。この生体計測データには、利用者毎に計測された各利用者の眼における瞳孔の開き具合、頸の動きおよび手足の動きを計測したデータを含む。   The following is an example of analysis processing that may be executed by the analysis unit 130 as an example of analysis processing performed using the living body measurement data measured for each of the users U (1) to U (K) while viewing a video. Describe to. First, the analysis unit 130 reads, from the user information database 43, biometric measurement data measured for each of the users U (1) to U (K) who are viewing an image, as input data for analysis processing. . This biometric data includes data obtained by measuring the degree of opening of the pupil in each user's eye, the movement of the neck, and the movement of the hands and feet measured for each user.

続いて、映像コンテンツを構成する一連の映像シーンの時系列と各利用者の生体計測データの時系列との間に観察される相関関係を調べ、当該相関関係から利用者U(1)〜U(K)の各々が興味を示す映像シーンを検出する。同時に、当該相関関係から利用者U(1)〜U(K)の各々が興味を示す映像属性を映像シーン毎に検出する。以上のようにして、分析部130は、どのような内容の映像シーンに視聴者U(1)〜U(K)が強い興味を示すかを示唆する分析結果を取得する。   Subsequently, the correlation observed between the time series of a series of video scenes constituting the video content and the time series of the biometric data of each user is examined, and the user U (1) to U is determined from the correlation. A video scene where each of (K) shows interest is detected. At the same time, a video attribute in which each of the users U (1) to U (K) is interested is detected for each video scene from the correlation. As described above, the analysis unit 130 acquires an analysis result indicating what kind of content video scene the viewers U (1) to U (K) show a strong interest.

以上のようにして、分析部130は、映像情報のメタデータμを用いて出演者および映像のジャンルを含む映像属性と各映像シーンとを識別し、モーションセンサ70(i)(1≦i≦N)から利用者U(i)の身体的反応に関する生体計測情報を取得することができる。続いて、利用者U(i)(1≦i≦N)の身体的反応の時間変化から利用者U(i)が興味を示す映像属性と映像シーンを検出することにより、ワイヤレスヘッドホン50(i)の利用状況を分析することができる。   As described above, the analysis unit 130 identifies the video attributes including the performer and the genre of the video and the respective video scenes using the metadata μ of the video information, and the motion sensor 70 (i) (1 ≦ i ≦ N) It is possible to acquire biometric information on the physical response of the user U (i). Subsequently, the wireless headphone 50 (i is detected by detecting the video attribute and the video scene in which the user U (i) is interested from the time change of the physical response of the user U (i) (1 ≦ i ≦ N). Can analyze the use situation of

<本実施形態に係る処理動作の流れ>
以下、本実施形態に従い、映像音声管理装置100の内部で実行される処理動作の流れについて詳しく説明する。図4に示すタイミング・チャートは、同期制御部150、上映スケジュール管理部140、映像情報出力部110および音声情報出力部120の間での連携動作の流れを表す。図5に示すタイミング・チャートは、同期制御部150、上映スケジュール管理部140、映像情報出力部110、分析部130、モーションセンサ70(i)(1≦i≦N)およびワイヤレスヘッドホン50(i)(1≦i≦N)の間での連携動作の流れを表す。
<Flow of processing operation according to the present embodiment>
The flow of the processing operation performed inside the video and audio management device 100 will be described in detail below according to the present embodiment. The timing chart shown in FIG. 4 represents the flow of cooperative operations among the synchronization control unit 150, the screening schedule management unit 140, the video information output unit 110, and the audio information output unit 120. The timing chart shown in FIG. 5 includes the synchronization control unit 150, the screening schedule management unit 140, the video information output unit 110, the analysis unit 130, the motion sensor 70 (i) (1 ≦ i ≦ N), and the wireless headphone 50 (i). This shows the flow of cooperative operation between (1 ≦ i ≦ N).

図4の処理フローはステップS100から開始し、上映スケジュール管理部140は、スケジュール・データベース44から取得した上映スケジュールに従い、特定の映像コンテンツmv(x)の上映開始を映像情報出力部110に通知する。例えば、上映スケジュール管理部140は、上映スケジュールを参照し、特定の映像コンテンツmv(x)の上映開始がスケジューリングされた時刻になると、映像コンテンツmv(x)の上映開始の指示を映像情報出力部110に即座に通知する。   The processing flow of FIG. 4 starts from step S100, and the screening schedule management unit 140 notifies the video information output unit 110 of the start of screening of a specific video content mv (x) according to the screening schedule acquired from the schedule database 44. . For example, the screening schedule management unit 140 refers to the screening schedule, and when the time to start screening of a specific video content mv (x) is scheduled, the video information output unit instructs to start screening the video content mv (x). Notify 110 immediately.

図4の例では、映像コンテンツmv(x)を上映開始すべき旨の指示の通知が、m100およびm101で示すように、上映スケジュール管理部140から同期制御部150を経由して映像情報出力部110へと送信される。その結果、図4のステップS101にて、映像情報出力部110は、映像コンテンツmv(x)を上映開始すべきことを認識し、同期制御部150に対して後述する同期設定動作の実行を依頼する信号m102を同期制御部150に送信する。   In the example of FIG. 4, the notification of the instruction to start the screening of the video content mv (x) is from the screening schedule management unit 140 via the synchronization control unit 150 as shown by m100 and m101. It is sent to 110. As a result, in step S101 of FIG. 4, the video information output unit 110 recognizes that the video content mv (x) should be screened, and requests the synchronization control unit 150 to execute a synchronization setting operation described later. Signal m102 to the synchronization control unit 150.

続いて、処理はステップS102に進み、同期制御部150は、映像情報出力部110が映像情報を出力する動作と音声情報出力部120が音声情報を出力する動作とを同期して実行させるようにするためのフレーム同期を設定する。具体的には、映像情報出力部110が映像情報を上映のためにフレーム単位で出力する際に、音声情報出力部120が映像フレームの出力タイミングと同期して対応する音声フレームを出力するようにするための同期設定動作を実行する。   Subsequently, the process proceeds to step S102, and the synchronization control unit 150 causes the operation of the video information output unit 110 to output the video information and the operation of the audio information output unit 120 to output the audio information in synchronization with each other. Set frame synchronization to Specifically, when the video information output unit 110 outputs video information in frame units for screening, the audio information output unit 120 outputs the corresponding audio frame in synchronization with the output timing of the video frame. To perform the synchronization setting operation.

続いて、コンテンツ・データベース41から映像情報出力部110へと映像コンテンツmv(x)の送信が始まり、同期設定動作が成功した旨の通知m103を映像情報出力部110が同期制御部150から受け取ると、処理はステップS103およびステップS105に進む。   Subsequently, transmission of the video content mv (x) starts from the content database 41 to the video information output unit 110, and when the video information output unit 110 receives a notification m103 indicating that the synchronization setting operation has succeeded, from the synchronization control unit 150. The process proceeds to step S103 and step S105.

ステップS103では、映像情報出力部110は、映像コンテンツmv(x)の映像フレームの出力を開始する。同時に、ステップS105では、音声情報出力部120は、映像コンテンツmv(x)の映像フレームの各々に同期して出力すべき音声情報フレームの出力を開始する。続いて、ステップS104では、映像情報出力部110は次の映像フレームを受信する準備に入る。   In step S103, the video information output unit 110 starts output of a video frame of the video content mv (x). At the same time, in step S105, the audio information output unit 120 starts outputting an audio information frame to be output in synchronization with each of the video frames of the video content mv (x). Subsequently, in step S104, the video information output unit 110 prepares to receive the next video frame.

音声情報出力部120から出力された音声情報フレームm105は、複数のワイヤレスヘッドホン50(i)(1≦i≦K)に無線伝送により同報送信される。図4に示すように、ワイヤレスヘッドホン50(w)において音声受信用の電源がオフであった場合、音声情報出力部120から無線伝送により同報送信された音声情報フレームm105は、ワイヤレスヘッドホン50(w)によって受信されない。   The audio information frame m105 output from the audio information output unit 120 is broadcasted by wireless transmission to the plurality of wireless headphones 50 (i) (1 ≦ i ≦ K). As shown in FIG. 4, when the wireless headphone 50 (w) is turned off, the audio information frame m105 broadcasted by wireless transmission from the audio information output unit 120 is the wireless headphone 50 (w not received by w).

また、ワイヤレスヘッドホン50(w)において、音声情報フレームm105を伝送するのに用いられる音声チャネルが音声受信用のアクティブな音声チャネルとして選択されてなかった場合にも、音声情報フレームm105は受信されない。具体的には、ワイヤレスヘッドホン50(w)において、上映中の複数の映像コンテンツmv(1)〜mv(3)の音声情報をそれぞれ伝送するための複数の音声チャネルの中から音声情報フレームm105を伝送するのに用いられる音声チャネルが選択されていなかった場合に該当する。   Further, in the wireless headphone 50 (w), the audio information frame m105 is not received even when the audio channel used to transmit the audio information frame m105 is not selected as the active audio channel for audio reception. Specifically, in the wireless headphone 50 (w), the audio information frame m105 is selected from among a plurality of audio channels for transmitting audio information of the plurality of video contents mv (1) to mv (3) being screened. It corresponds when the voice channel used for transmission is not selected.

図4に示す例では、ステップS107において、ワイヤレスヘッドホン50(w)の音声受信用の電源がオン状態となる。さらに、ステップS107では、ワイヤレスヘッドホン50(w)の上で、音声情報フレームm105を伝送するのに用いられる音声チャネルが音声受信用のアクティブな音声チャネルとして選択される。すると、ワイヤレスヘッドホン50(w)の上で、音声情報フレームm105を伝送するのに用いられる音声チャネルが選択された旨の通知m106が音声情報出力部120に送信される。その結果、ステップS106において、音声情報出力部120は、音声情報フレームm105と同じ音声チャネル上の後続する音声情報フレームがワイヤレスヘッドホン50(w)によって受信可能となった旨を検知する。   In the example illustrated in FIG. 4, in step S107, the power for sound reception of the wireless headphone 50 (w) is turned on. Furthermore, in step S107, the audio channel used to transmit the audio information frame m105 is selected as the active audio channel for audio reception on the wireless headphone 50 (w). Then, on the wireless headphone 50 (w), a notification m106 indicating that the audio channel used to transmit the audio information frame m105 is selected is transmitted to the audio information output unit 120. As a result, in step S106, the audio information output unit 120 detects that the subsequent audio information frame on the same audio channel as the audio information frame m105 can be received by the wireless headphone 50 (w).

続いて、映像コンテンツmv(x)の後続する映像フレームを映像情報出力部110がコンテンツ・データベース41から受け取ると、ステップS108において同期制御部150は、映像情報と音声情報のフレーム同期をとるための処理(同期設定動作)を実行する。   Subsequently, when the video information output unit 110 receives the subsequent video frame of the video content mv (x) from the content database 41, the synchronization control unit 150 performs frame synchronization between the video information and the audio information in step S108. Execute processing (synchronization setting operation).

同期設定動作が成功した旨の通知m107とm108を映像情報出力部110と音声情報出力部120が同期制御部150からそれぞれ受け取ると、処理はステップS109およびステップS110に進む。ステップS109では、映像情報出力部110は、映像コンテンツmv(x)の映像フレームを出力する。同時に、ステップS110では、音声情報出力部120は、映像コンテンツmv(x)の映像フレームの各々に同期して対応する音声情報フレームを出力する。   When the video information output unit 110 and the audio information output unit 120 respectively receive notification m107 and m108 indicating that the synchronization setting operation has succeeded from the synchronization control unit 150, the process proceeds to step S109 and step S110. In step S109, the video information output unit 110 outputs a video frame of the video content mv (x). At the same time, in step S110, the audio information output unit 120 outputs the corresponding audio information frame in synchronization with each of the video frames of the video content mv (x).

音声情報出力部120から音声情報フレームm109を受け取ったワイヤレスヘッドホン50(w)は、ステップS111において、音声情報フレームm109を再生して利用者U(w)に聞かせるための再生処理を実行する。   In step S111, the wireless headphone 50 (w) having received the audio information frame m109 from the audio information output unit 120 reproduces the audio information frame m109 and executes a reproduction process for the user U (w) to hear it.

続いて、処理はステップS112に進み、上映スケジュール管理部140は、スケジュール・データベース44から取得した上映スケジュールに従い、プロモーション映像mv−pの上映開始を映像情報出力部110に通知する。プロモーション映像mv−pは、映像コンテンツmv(x)の上映途中で短時間にわたって上映されるコマーシャル動画などであり、プロモーション映像mv−pの上映が終了すると映像コンテンツmv(x)の上映が中断位置から再開される。   Subsequently, the process proceeds to step S112, and the screening schedule management unit 140 notifies the video information output unit 110 of the start of screening of the promotion video mv-p in accordance with the screening schedule acquired from the schedule database 44. The promotional video mv-p is a commercial video etc. which is screened for a short time during screening of the video content mv (x), and the screening of the video content mv (x) is interrupted when the screening of the promotional video mv-p is finished. Resume from.

例えば、上映スケジュール管理部140は、上映スケジュールを参照し、プロモーション映像mv−pの上映開始がスケジューリングされた時刻になると、映像情報出力部110に以下の通知を送信する。すなわち、映像コンテンツmv(x)の上映を一時中断してプロモーション映像mv−pの上映を開始すべき旨の指示を含む通知を映像情報出力部110に送信する。   For example, the screening schedule management unit 140 refers to the screening schedule, and transmits the following notification to the video information output unit 110 at the time when the start of the screening of the promotion video mv-p is scheduled. That is, the video information output unit 110 transmits a notification including an instruction to temporarily suspend the screening of the video content mv (x) and start the screening of the promotion video mv-p.

図4の例では、プロモーション映像mv−pを上映開始すべき旨の指示の通知が、m110およびm111で示すように、上映スケジュール管理部140から同期制御部150を経由して映像情報出力部110へと送信される。その結果、図4のステップS113にて、映像情報出力部110は、プロモーション映像mv−pを上映開始すべきことを認識する。   In the example of FIG. 4, the notification of the instruction to start screening of the promotion video mv-p is shown by m110 and m111 from the screening schedule management unit 140 via the synchronization control unit 150 to the video information output unit 110. Sent to. As a result, in step S113 of FIG. 4, the video information output unit 110 recognizes that the screening of the promotion video mv-p should be started.

続いて、プロモーション映像mv−pの映像フレームを映像情報出力部110がコンテンツ・データベース41から受け取ると、ステップS114において同期制御部150は、映像情報と音声情報のフレーム同期をとるための処理(同期設定動作)を実行する。   Subsequently, when the video information output unit 110 receives the video frame of the promotion video mv-p from the content database 41, the synchronization control unit 150 performs processing for synchronizing the video information and the audio information in step S114 (synchronization Execute setting operation).

同期設定動作が成功した旨の通知m112とm113を映像情報出力部110と音声情報出力部120が同期制御部150からそれぞれ受け取ると、処理はステップS115およびステップS116に進む。ステップS115では、映像情報出力部110は、プロモーション映像mv−pの映像フレームを出力する。同時に、ステップS116では、音声情報出力部120は、プロモーション映像mv−pの映像フレームの各々に同期して対応する音声情報フレームを出力する。   When the video information output unit 110 and the audio information output unit 120 respectively receive the notification m112 and m113 indicating that the synchronization setting operation has succeeded from the synchronization control unit 150, the process proceeds to step S115 and step S116. In step S115, the video information output unit 110 outputs a video frame of the promotion video mv-p. At the same time, in step S116, the audio information output unit 120 outputs the corresponding audio information frame in synchronization with each of the video frames of the promotion video mv-p.

音声情報出力部120から音声情報フレームm114を受け取ったワイヤレスヘッドホン50(w)は、ステップS117において、音声情報フレームm114を再生して利用者U(w)に聞かせるための再生処理を実行する。   In step S117, the wireless headphone 50 (w) that has received the audio information frame m114 from the audio information output unit 120 reproduces the audio information frame m114 and executes reproduction processing for the user U (w).

次に、図5に示すタイミング・チャートを用いて、同期制御部150、上映スケジュール管理部140、映像情報出力部110、分析部130、モーションセンサ70(i)(1≦i≦N)およびワイヤレスヘッドホン50(i)(1≦i≦N)の間での連携動作の流れを説明する。   Next, using the timing chart shown in FIG. 5, the synchronization control unit 150, screening schedule management unit 140, video information output unit 110, analysis unit 130, motion sensor 70 (i) (1 ≦ i ≦ N), and wireless The flow of cooperative operation between the headphones 50 (i) (1 ≦ i ≦ N) will be described.

図5の処理フローはステップS200から開始し、上映スケジュール管理部140は、スケジュール・データベース44から取得した上映スケジュールに従い、特定の映像コンテンツmv(x)の上映開始を映像情報出力部110に通知する。例えば、上映スケジュール管理部140は、上映スケジュールを参照し、特定の映像コンテンツmv(x)の上映開始がスケジューリングされた時刻になると、映像コンテンツmv(x)の上映開始の指示を映像情報出力部110に即座に通知する。   The processing flow of FIG. 5 starts from step S200, and the screening schedule management unit 140 notifies the video information output unit 110 of the start of screening of a specific video content mv (x) according to the screening schedule acquired from the schedule database 44. . For example, the screening schedule management unit 140 refers to the screening schedule, and when the time to start screening of a specific video content mv (x) is scheduled, the video information output unit instructs to start screening the video content mv (x). Notify 110 immediately.

図5の例では、映像コンテンツmv(x)を上映開始すべき旨の指示の通知が、m200およびm201で示すように、上映スケジュール管理部140から同期制御部150を経由して映像情報出力部110へと送信される。その結果、図4のステップS201にて、映像情報出力部110は、映像コンテンツmv(x)を上映開始すべきことを認識する。   In the example of FIG. 5, as indicated by m200 and m201, notification of an instruction to start screening of the video content mv (x) is from the screening schedule management unit 140 via the synchronization control unit 150 to the video information output unit It is sent to 110. As a result, in step S201 of FIG. 4, the video information output unit 110 recognizes that the video content mv (x) should be started to be screened.

続いて、処理はステップS202に進み、映像情報出力部110は、映像コンテンツmv(x)における現在の映像シーンを識別する映像シーン識別情報を取得する。同時に、映像情報出力部110は、当該映像シーンにおける映像属性を表す映像属性情報を取得する。ステップS202にて取得される映像シーンは、映像コンテンツmv(x)の上映開始指示の直後のものであるから、映像コンテンツmv(x)の冒頭シーンに対応する。   Subsequently, the process proceeds to step S202, and the video information output unit 110 acquires video scene identification information for identifying the current video scene in the video content mv (x). At the same time, the video information output unit 110 acquires video attribute information indicating video attributes in the video scene. The video scene acquired in step S202 corresponds to the opening scene of the video content mv (x) because it is immediately after the instruction to start displaying the video content mv (x).

この映像シーンを識別する映像シーン識別情報は、コンテンツ・データベース41から映像情報出力部110が最初に受け取る映像フレームに埋め込まれたメタデータμから取得される。さらに、この映像シーンを特性記述する映像属性情報もまた、コンテンツ・データベース41から映像情報出力部110が最初に受け取る映像フレームに埋め込まれたメタデータμから取得される。   The video scene identification information for identifying the video scene is obtained from the content database 41 from the metadata μ embedded in the video frame that the video information output unit 110 first receives. Furthermore, the video attribute information that characterizes this video scene is also obtained from the content database 41 from the metadata μ embedded in the video frame that the video information output unit 110 initially receives.

続いて、処理はステップS203に進み、同期制御部150は、冒頭部分に対応する映像シーン識別情報と映像属性情報映像を映像情報出力部110から分析部130へと中継転送する(図5に示すm202とm203)。図5に示す処理の流れでは、同期制御部150によるこの中継転送と並行する形で、ステップS204、S205およびS206が以下のように並列に実行される。   Subsequently, the process proceeds to step S203, and the synchronization control unit 150 relays and transfers the video scene identification information and the video attribute information video corresponding to the beginning portion from the video information output unit 110 to the analysis unit 130 (shown in FIG. 5). m202 and m203). In the process flow shown in FIG. 5, steps S204, S205 and S206 are executed in parallel as follows in parallel with the relay transfer by the synchronization control unit 150.

ステップS206では、映像情報出力部110が次の映像フレームを上映のためにコンテンツ・データベース41から取得する。ステップS204では、ワイヤレスヘッドホン50(i)(1≦i≦K)から利用者U(i)によるヘッドホン操作を記録した操作記録データm204が分析部130へと送信される。ステップS205では、モーションセンサ70(i)(1≦i≦K)から利用者U(i)の身体的反応を計測した生体計測データm205が分析部130へと送信される。   In step S206, the video information output unit 110 acquires the next video frame from the content database 41 for screening. In step S204, the operation record data m204 in which the headphone operation by the user U (i) is recorded from the wireless headphones 50 (i) (1 ≦ i ≦ K) is transmitted to the analysis unit 130. In step S205, biological measurement data m205 obtained by measuring the physical response of the user U (i) from the motion sensor 70 (i) (1 ≦ i ≦ K) is transmitted to the analysis unit 130.

続いて、処理はステップS208に進み、分析部130は、映像情報出力部110から受け取った映像シーン識別情報および映像属性情報映像と、操作記録データm204と、生体計測データm205と、の間の相関を分析する。これにより、分析部130は、現在の映像シーンの内容や映像属性に対して視聴者U(1)〜U(K)がどの程度の興味(または好感度や嫌悪感)を示すかを示唆する分析結果を得ることが可能となる。   Subsequently, the process proceeds to step S208, and the analysis unit 130 correlates the video scene identification information and the video attribute information video received from the video information output unit 110, the operation record data m204, and the living body measurement data m205. Analyze Thereby, the analysis unit 130 suggests what degree of interest (or preference or aversion) the viewers U (1) to U (K) show with respect to the content and image attribute of the current image scene. It is possible to obtain analysis results.

上述したステップS208と並行して、映像情報出力部110は、上映中の映像コンテンツmv(x)の映像フレーム毎に含まれるメタデータμによって記述される映像シーンの種別や映像属性が変化するか否かを常時監視する。そして、映像情報出力部110によって映像シーンの種別や映像属性の変化が検知されると、映像情報出力部110は、再生位置が映像シーン境界位置(映像シーンが切り替わる再生位置)に来たと判定し、ステップS207の実行に進む。   In parallel to step S208 described above, is the type of video scene or video attribute described by the metadata μ included in each video frame of the video content mv (x) currently being screened changed? Always monitor whether or not. When the video information output unit 110 detects a change in video scene type or video attribute, the video information output unit 110 determines that the playback position is at a video scene boundary position (a playback position at which the video scene is switched). , And execution of step S207.

ステップS207では、同期制御部150は、新たに検知した映像シーンに対応する映像シーン識別情報と映像属性情報映像を映像情報出力部110から分析部130へと中継転送し(図5に示すm202とm203)、これと並行する形で、ステップS210およびS211が以下のように並列に実行される。ステップS210では、ワイヤレスヘッドホン50(i)(1≦i≦K)から利用者U(i)によるヘッドホン操作を記録した操作記録データm208が分析部130へと送信される。ステップS211では、モーションセンサ70(i)(1≦i≦K)から利用者U(i)の身体的反応を計測した生体計測データm209が分析部130へと送信される。   In step S207, the synchronization control unit 150 relays and transfers the video scene identification information and the video attribute information video corresponding to the newly detected video scene from the video information output unit 110 to the analysis unit 130 (see m202 shown in FIG. 5). m203), parallel to this, steps S210 and S211 are performed in parallel as follows. In step S210, the operation record data m208 in which the headphone operation by the user U (i) is recorded from the wireless headphones 50 (i) (1 ≦ i ≦ K) is transmitted to the analysis unit 130. In step S211, biological measurement data m209 obtained by measuring the physical response of the user U (i) from the motion sensor 70 (i) (1 ≦ i ≦ K) is transmitted to the analysis unit 130.

続いて、処理はステップS212に進み、分析部130は、映像情報出力部110から受け取った映像シーン識別情報および映像属性情報映像と、操作記録データm204と、生体計測データm205と、の間の相関を分析する。これにより、分析部130は、現在の映像シーンの内容や映像属性に対して視聴者U(1)〜U(K)がどの程度の興味(または好感度や嫌悪感)を示すかを示唆する分析結果を得ることが可能となる。   Subsequently, the process proceeds to step S212, and the analysis unit 130 correlates the video scene identification information and the video attribute information video received from the video information output unit 110, the operation record data m204, and the living body measurement data m205. Analyze Thereby, the analysis unit 130 suggests what degree of interest (or preference or aversion) the viewers U (1) to U (K) show with respect to the content and image attribute of the current image scene. It is possible to obtain analysis results.

その間、映像情報出力部110は、ステップS214にて、処理が終わった映像フレームに後続する新たな映像フレームをコンテンツ・データベース41から順次取得する動作を行っている。映像情報出力部110によって映像シーンの種別や映像属性の変化が検知されると、映像情報出力部110は、再生位置が映像シーン境界位置(映像シーンが切り替わる再生位置)に来たと判定し、ステップS215の実行に進む。ステップS215では、同期制御部150は、新たに検知した映像シーンに対応する映像シーン識別情報と映像属性情報映像を映像情報出力部110から分析部130へと中継転送し(図5に示すm202とm203)、これと並行する形で、ステップS210およびS211と同様の処理動作が並列に実行される。   Meanwhile, in step S214, the video information output unit 110 performs an operation of sequentially acquiring, from the content database 41, new video frames following the video frame for which processing has been completed. When the video information output unit 110 detects a change in video scene type or video attribute, the video information output unit 110 determines that the playback position is at a video scene boundary position (a playback position at which the video scene is switched), and the step Proceed to the execution of S215. In step S215, the synchronization control unit 150 relays and transfers the video scene identification information and the video attribute information video corresponding to the newly detected video scene from the video information output unit 110 to the analysis unit 130 (see m202 shown in FIG. 5). m203) In parallel with this, processing operations similar to steps S210 and S211 are performed in parallel.

その後、映像コンテンツmv(x)の上映が先に進み、ある時点において、映像音声管理装置100の外部に設置されたマーケティング支援システム(図示なし)から分析部130が分析用の入力データを受け取ったとする。一例において、この分析用の入力データには、例えば、特定の映像コンテンツのプロモーションを上映システム1の外部にて行った結果、顧客からどのような反応があったかを数値化したデータが含まれていてもよい。   Thereafter, screening of the video content mv (x) proceeds, and at a certain point in time, the analysis unit 130 receives input data for analysis from a marketing support system (not shown) installed outside the video and audio management apparatus 100. Do. In one example, the input data for analysis includes, for example, data obtained by digitizing what kind of reaction has been received from the customer as a result of performing promotion of a specific video content outside the screening system 1. It is also good.

この場合、処理はステップS213に進み、分析部130は、利用者情報データベース43内に蓄積された利用者情報λ(i)(1≦i≦P)を読み出す。続いて、分析部130は、顧客満足度向上のために上映スケジュールをどのように再編成もしくは調整すべきかを表す情報である上映スケジュール調整情報を生成する。続いて、分析部130は、生成した上映スケジュール調整情報m211を、同期制御部150を経由して上映スケジュール管理部140に送信する。   In this case, the process proceeds to step S 213, and the analysis unit 130 reads the user information λ (i) (1 ≦ i ≦ P) stored in the user information database 43. Subsequently, the analysis unit 130 generates screening schedule adjustment information which is information indicating how to reorganize or adjust the screening schedule to improve customer satisfaction. Subsequently, the analysis unit 130 transmits the generated screening schedule adjustment information m 211 to the screening schedule management unit 140 via the synchronization control unit 150.

続いて、処理はステップS216に進み、上映スケジュール調整情報を受信した上映スケジュール管理部140は、現在の上映スケジュールをスケジュール・データベース44から読み出し、当該上映スケジュール調整情報に従って上映スケジュールを再編成する。最後に、上映スケジュール管理部140は、再編成後の上映スケジュールをスケジュール・データベース44に書き込むことにより、スケジュール・データベース44内の古い上映スケジュールを上書きして更新する。   Subsequently, the process proceeds to step S216, the screening schedule management unit 140 that has received the screening schedule adjustment information reads the current screening schedule from the schedule database 44, and reorganizes the screening schedule according to the screening schedule adjustment information. Finally, the screening schedule management unit 140 overwrites and updates the old screening schedule in the schedule database 44 by writing the screening schedule after reorganization into the schedule database 44.

(第2実施形態)
以下、図6〜図8を参照して本発明の第2実施形態に係る映像音声管理装置100’および上映システム1’の構成と動作について説明する。第1実施形態に関して図1〜図3に示す映像音声管理装置100と比較して、第2実施形態に関して図6〜図8に示す映像音声管理装置100’では、フィードバック出力部135が追加されている点のみが異なる。フィードバック出力部135は、映像コンテンツmv(j)(1≦j≦J)のそれぞれを企画もしくは制作した創作者(クリエーター)C(h)(1≦h≦H)に利用者U(i)(1≦i≦K)からの反響をフィードバックする役割を果たす。
Second Embodiment
Hereinafter, configurations and operations of the video and audio management apparatus 100 ′ and the screening system 1 ′ according to the second embodiment of the present invention will be described with reference to FIGS. As compared with the video and audio management apparatus 100 shown in FIGS. 1 to 3 in the first embodiment, a feedback output unit 135 is added in the video and audio management apparatus 100 ′ shown in FIGS. 6 to 8 in the second embodiment. The only difference is that The feedback output unit 135 sends the user U (i) (1) to the creator (creator) C (h) (1 h h H H) who planned or produced each of the video contents mv (j) (1 j j J J). It plays a role of feeding back the echo from 1 ≦ i ≦ K).

また、第1実施形態に関して図1〜図3に示す上映システム1と比較して、第2実施形態に関して図6〜図8に示す上映システム1’では、以下の点が異なる。まず、映像音声管理装置100’にはカメラ等の撮像装置(ウェブ・カメラ等)80および音声配信端末/ヘッドホン利用探知端末90が接続されている。より具体的には、撮像装置(ウェブ・カメラ等)80は、映像視聴中の利用者U(i)(1≦i≦K)を撮像するものであり、映像音声管理装置100’内部の分析部130と通信可能に接続される。さらに、映像音声管理装置100’は情報端末(パーソナル・コンピュータ等)91〜93とデータや情報をやり取りするように構成されている。   Further, compared to the screening system 1 shown in FIGS. 1 to 3 in the first embodiment, the following points are different in the screening system 1 ′ shown in FIGS. 6 to 8 in the second embodiment. First, an imaging device (web camera or the like) 80 such as a camera and an audio distribution terminal / headphone usage detection terminal 90 are connected to the video and audio management device 100 '. More specifically, the imaging device (web camera etc.) 80 is for imaging the user U (i) (1 ≦ i ≦ K) while viewing a video, and the analysis inside the video and audio management device 100 ′ The unit 130 is communicably connected to the unit 130. Furthermore, the video and audio management apparatus 100 'is configured to exchange data and information with information terminals (personal computers etc.) 91-93.

以上より、図6〜図8に示す本発明の第2実施形態に係る映像音声管理装置100’および上映システム1’の構成と動作のうち、図1〜図3に示す第1実施形態と同様の構成と動作については説明を省略する。同様に、第2実施形態に係る映像音声管理装置100’および上映システム1’の構成と動作のうち、図1〜図3に示す第1実施形態と同様の構成と動作については図6〜図8における図示を省略する。   From the above, of the configuration and operation of the video and audio management apparatus 100 ′ and the screening system 1 ′ according to the second embodiment of the present invention shown in FIGS. 6 to 8, the same as the first embodiment shown in FIGS. The description of the configuration and operation of will be omitted. Similarly, among the configurations and operations of the video and audio management apparatus 100 ′ and the screening system 1 ′ according to the second embodiment, the configurations and operations similar to those of the first embodiment shown in FIGS. Illustration in 8 is omitted.

図6は、本発明の第2実施形態に係る上映システム1’の機器構成を例示する構成図である。図7は、本発明の第2実施形態に係る映像音声管理装置100’の構成例を示す図である。図8は、本発明の第2実施形態に従い、映像音声管理装置100’を構成する機能部間での同期制御部150を介した同期と情報交換を示す図である。   FIG. 6 is a configuration diagram illustrating the device configuration of a screening system 1 'according to the second embodiment of the present invention. FIG. 7 is a view showing a configuration example of a video and audio management device 100 'according to the second embodiment of the present invention. FIG. 8 is a diagram showing synchronization and information exchange via the synchronization control unit 150 between functional units constituting the video and audio management apparatus 100 'according to the second embodiment of the present invention.

図6に示す実施形態では、利用者は予め情報端末(パーソナル・コンピュータ等)92により自身の個人情報を上映システム1に対して登録することで会員登録を行い、利用者が入場する際に入退場管理装置6aおよび6bが利用者の認証と課金を行えるようにしておくようにしてもよい。その際、情報端末(パーソナル・コンピュータ等)92を使用して事前登録される利用者の個人情報には、利用者のクレジット・カード番号のような決済情報も含まれる。   In the embodiment shown in FIG. 6, the user performs member registration by registering his / her personal information in the screening system 1 in advance using an information terminal (personal computer etc.) 92, and enters when the user enters. The exit management devices 6a and 6b may be configured to be able to authenticate and charge the user. At that time, the user's personal information registered in advance using the information terminal (personal computer etc.) 92 also includes payment information such as the user's credit card number.

なお、利用者が操作する情報端末(パーソナル・コンピュータ等)92は、上映システム1の運営会社により上映システム1と提携する店舗や映画館内に設置された端末であってもよい。その場合には、利用者が自身の個人情報を情報端末(パーソナル・コンピュータ等)92に対して入力することで会員登録を行うと、情報端末(パーソナル・コンピュータ等)92に接続されたカード発行機から利用者に対して会員カードが発行されてもよい。   The information terminal (personal computer or the like) 92 operated by the user may be a terminal installed in a store or movie theater which cooperates with the screening system 1 by the managing company of the screening system 1. In this case, when the user performs member registration by inputting his / her personal information to an information terminal (personal computer etc.) 92, a card issued to the information terminal (personal computer etc.) 92 is issued. A membership card may be issued from the machine to the user.

一実施形態では、認証課金処理部32は、各利用者が会員登録の際に決済情報として図6に示す情報端末(パーソナル・コンピュータ等)92から入力したクレジット・カード番号に基づいて信販会社に照会処理を行い、課金するようにしてもよい。この課金は、利用者が入場する都度、一回の入場料相当分を課金する形態であってもよく、1ヶ月〜数ヶ月の期間にわたって有効なフリーパスの代金相当分を課金する形態であってもよい。   In one embodiment, authentication / charging processing unit 32 transmits to credit sales company based on the credit card number input from information terminal (personal computer etc.) 92 shown in FIG. 6 as payment information at the time of member registration by each user. An inquiry process may be performed to charge. This charge may be in the form of charging a single admission fee each time the user enters, and is a form in which the equivalent of the valid free pass fee is charged over a period of one month to several months. May be

なお、上映スケジュール管理部140およびスケジュール・データベース44が管理している最新の上映スケジュールは、図6に示す情報端末(パーソナル・コンピュータ等)91にて映画の番組表のような形で画面表示が可能となっている。そして、利用者U(1)〜U(K)は、情報端末(パーソナル・コンピュータ等)91にて最新の上映スケジュールを随時確認することが可能となっている。   The latest screening schedule managed by the screening schedule management unit 140 and the schedule / database 44 is displayed on the screen of the information terminal (personal computer etc.) 91 shown in FIG. It is possible. The users U (1) to U (K) can check the latest screening schedule at any time on the information terminal (personal computer etc.) 91.

さらに、図6〜図8に示す第2実施形態では、映像音声管理装置100に撮像装置(ウェブ・カメラ等)80が接続されていてもよい。この場合、撮像装置(ウェブ・カメラ等)80は、音声配信端末/ヘッドホン利用探知端末90により探知したワイヤレスヘッドホン50(i)(1≦i≦K)の位置から、利用者U(1)〜U(K)の各々の位置を識別することが可能となる。そして、撮像装置(ウェブ・カメラ等)80は、探知した位置にレンズを向け、利用者U(1)〜U(K)の各々の身体の動きを動画像として取得することができる。   Furthermore, in the second embodiment shown in FIGS. 6 to 8, an imaging device (web camera or the like) 80 may be connected to the video and audio management device 100. In this case, the imaging device (web camera, etc.) 80 detects the position of the wireless headphones 50 (i) (1.ltoreq.i.ltoreq.K) detected by the voice distribution terminal / headphone use detection terminal 90, and the users U (1) to It becomes possible to identify the position of each of U (K). Then, the imaging device (web camera or the like) 80 can direct the lens to the detected position, and acquire motions of the bodies of the users U (1) to U (K) as moving images.

撮像装置(ウェブ・カメラ等)80からの動画像は、分析部130に出力されて分析処理され、当該分析処理の結果は、映像コンテンツの創作者C(h)(1≦h≦H)にフィードバックすべき情報としてフィードバック出力部135に出力される。この場合、図1〜図3を参照して上述した第1実施形態と同様に、分析部130が実行する分析処理は、映像視聴中のワイヤレスヘッドホン50(i)(1≦i≦K)の利用状況に関するデータを入力として受け取る。その上で、上述したデータは、利用者U(i)(1≦i≦K)により映像コンテンツmv(j)(1≦j≦J)がどのように視聴されているかに関する視聴のされ具合を分析するために用いられてもよい。例えば、分析部130が実行する分析処理は、当該データを分析して映像視聴中の利用者毎の挙動や反応を分析するものであってもよい。そして、分析部130は、分析処理の結果を創作者C(h)(1≦h≦H)にフィードバックすべき情報として出力する。なお、図1〜図3を用いて上述した第1実施形態と同様に、映像コンテンツmv(j)を構成する一連の映像シーンの各々と映像シーン毎の映像属性は、映像コンテンツmv(j)の映像情報に含まれるメタデータμ(図2)を用いて識別するようにしてもよい。   The moving image from the imaging device (web, camera, etc.) 80 is output to the analysis unit 130 for analysis processing, and the result of the analysis processing is for the creator C (h) of the video content (1 ≦ h ≦ H). The information to be fed back is output to the feedback output unit 135. In this case, as in the first embodiment described above with reference to FIGS. 1 to 3, in the analysis processing performed by the analysis unit 130, the analysis processing of the wireless headphones 50 (i) (1 ≦ i ≦ K) during video viewing is performed. Receive usage data as input. In addition, the above-mentioned data is viewed by the user U (i) (1 ≦ i ≦ K) as to how the video content mv (j) (1 ≦ j ≦ J) is viewed. It may be used to analyze. For example, the analysis process performed by the analysis unit 130 may analyze the data to analyze the behavior or reaction for each user while viewing the video. Then, the analysis unit 130 outputs the result of the analysis process as information to be fed back to the creator C (h) (1 ≦ h ≦ H). As in the first embodiment described above with reference to FIGS. 1 to 3, each of a series of video scenes constituting the video content mv (j) and the video attributes for each video scene are the video content mv (j). (FIG. 2) may be used for identification.

分析部130が実行する例示的な分析処理では、映像視聴中のワイヤレスヘッドホン50(i)(1≦i≦K)の利用状況に関するデータは、以下のようにして分析されてもよい。すなわち、上述したデータは、利用者U(i)(1≦i≦K)が視聴中の映像コンテンツを構成する各映像シーンや映像コンテンツの属性と対比され、どのような映像シーンにおいて利用者がどのような挙動や反応を示すかを分析するために用いられてもよい。   In an exemplary analysis process performed by the analysis unit 130, data relating to the usage of the wireless headphones 50 (i) (1 ≦ i ≦ K) during video viewing may be analyzed as follows. That is, the data described above is compared with the attributes of each video scene and video content constituting the video content being watched by the user U (i) (1 ≦ i ≦ K), and the user can check in any video scene It may be used to analyze what kind of behavior or reaction it shows.

例示的な一実施形態では、撮像装置(ウェブ・カメラ等)80から分析部130へと出力された上記動画像は、分析部130によって画像解析され、画像解析の結果は、利用者U(1)〜U(K)の各々がその時点において視聴中の映像シーンと相関させられる。その結果、撮像装置(ウェブ・カメラ等)80が撮影した動画像から各映像シーンにおける利用者U(1)〜U(K)の身体的反応を分析することができるので、利用者がどのような映像シーンに興奮したり興味を持ったりするかを分析することが可能となる。   In an exemplary embodiment, the moving image output from the imaging device (web camera or the like) 80 to the analysis unit 130 is image-analyzed by the analysis unit 130, and the result of the image analysis is the user U (1 ) To U (K) are each correlated with the video scene currently being viewed. As a result, it is possible to analyze physical responses of the users U (1) to U (K) in each video scene from the moving image captured by the imaging device (web camera etc.) 80. It becomes possible to analyze whether you are excited or interested in various video scenes.

また、別の実施形態では、撮像装置(ウェブ・カメラ等)80は、画面2a〜2cのうち、同じ画面に向かって同じ映像コンテンツmv(x)を同時に視聴している複数の利用者U(i)〜U(i)をまとめて撮像し、映像音声管理装置100内の分析部130に出力するようにしてもよい。こうして撮像された画像を画像解析することで、分析部130は、同じ映像コンテンツを同時に視聴している群衆全体の挙動特性を抽出し、群衆全体がどのような内容の映像シーンに興奮したり興味を示したりするかを分析することが可能となる。 In another embodiment, the imaging device (web camera etc.) 80 is a plurality of users U (views of the same video content mv (x) simultaneously facing the same screen) among the screens 2a to 2c. Alternatively, i 1 ) to U (i h ) may be captured together and output to the analysis unit 130 in the video and audio management apparatus 100. By analyzing the image captured in this way, the analysis unit 130 extracts the behavior characteristic of the entire crowd viewing the same video content at the same time, and the entire crowd is excited about or interested in the video scene of what content It is possible to analyze or indicate.

また、第1実施形態に関して図1〜図3を用いて説明したように、映像視聴中の利用者毎にワイヤレスヘッドホン50(i)(1≦i≦K)における操作履歴などが記録データとして記録されるが、この記録データは、図6〜図8に示す第2実施形態では以下のように取り扱われる。まず、映像視聴中の利用者U(1)〜U(K)の各々について記録された当該記録データは、ワイヤレスヘッドホン50(i)(1≦i≦K)から映像音声管理装置100へと無線送信される。続いて、図6に示す音声配信端末/ヘッドホン利用探知端末90により無線信号として受信された当該記録データは、分析部130へと出力される。   Further, as described in the first embodiment with reference to FIGS. 1 to 3, the operation history and the like in the wireless headphone 50 (i) (1 ≦ i ≦ K) are recorded as recording data for each user who is viewing an image. However, this recording data is handled as follows in the second embodiment shown in FIGS. First, the recording data recorded for each of the users U (1) to U (K) viewing the video is wirelessly transmitted from the wireless headphone 50 (i) (1 ≦ i ≦ K) to the video and audio management device 100. Will be sent. Subsequently, the recording data received as a wireless signal by the voice distribution terminal / headphone usage detection terminal 90 shown in FIG. 6 is output to the analysis unit 130.

その際、図6に示す音声配信端末/ヘッドホン利用探知端末90は、利用者U(1)〜U(K)の各々が装着したワイヤレスヘッドホン50(i)(1≦i≦K)が上映システム1の内部空間のどの位置に存在しているかを探知してもよい。この探知は、例えば、音声配信端末/ヘッドホン利用探知端末90が受信した無線信号に対するビーム・ステアリング処理などによって実行されてもよい。   At that time, in the sound distribution terminal / headphone usage detection terminal 90 shown in FIG. 6, the wireless headphones 50 (i) (1.ltoreq.i.ltoreq.K) worn by each of the users U (1) to U (K) are the screening system It may be detected at which position in the internal space of 1. This detection may be performed, for example, by beam steering processing on the radio signal received by the sound distribution terminal / headphone usage detection terminal 90.

上映スケジュール管理部140は、映像コンテンツおよびプロモーション映像の上映スケジュールを編成枠単位で管理するように構成される。図7および図8に示す上映スケジュール管理部140は、映像コンテンツmv(j)(1≦j≦J)の上映スケジュールを編成枠単位で管理し、映像コンテンツの企画および/または制作を行った創作者から編成枠の購入情報を受け付け、当該編成枠の購入状況に応じて上映スケジュールを編成する。   The screening schedule management unit 140 is configured to manage the screening schedule of video content and promotion video in units of organization frames. The screening schedule management unit 140 shown in FIG. 7 and FIG. 8 manages the screening schedule of the video content mv (j) (1 ≦ j ≦ J) in units of organization frames, and plans and / or produces the video content. The purchase information of the organization frame is accepted from the person, and the screening schedule is organized according to the purchase situation of the organization frame.

一実施形態では、上映スケジュール管理部140は、映像音声管理装置100の外部に接続された編成枠販売情報受付部31から編成枠の販売情報を受け付けると、スケジュール・データベース44から現在の上映スケジュールを読み出す。ここで、編成枠の購入手続きは、図6に示すように、映像の創作者C(h)(1≦h≦H)が編成枠販売情報受付部31に接続された情報端末(パーソナル・コンピュータ等)93を操作して行う。その上で、上映スケジュール管理部140は、編成枠の販売状況に応じて上映スケジュールを再編成する。最後に、上映スケジュール管理部140は、再編成後の上映スケジュールを更新された上映スケジュールとしてスケジュール・データベース44に格納する。   In one embodiment, when the screening schedule management unit 140 receives the sales information of the organization frame from the organization frame sales information receiving unit 31 connected to the outside of the video and audio management apparatus 100, the current screening schedule is displayed from the schedule database 44. read out. Here, as shown in FIG. 6, the purchasing procedure of the organization frame is an information terminal (personal computer) in which the video creator C (h) (1 ≦ h ≦ H) is connected to the organization frame sales information accepting unit 31 Etc.) 93 is performed. Then, the screening schedule management unit 140 rearranges the screening schedule according to the sales situation of the organization frame. Finally, the screening schedule management unit 140 stores the screening schedule after reorganization in the schedule database 44 as the updated screening schedule.

一実施形態では、それぞれの創作者C(h)の識別情報は、利用者情報λ(i)(1≦i≦P)と共に利用者情報データベース43に格納されていてもよい。より具体的には、それぞれの創作者C(h)(1≦h≦H)の識別情報は、創作者情報η(h)(1≦h≦H)に含まれ、創作者情報η(h)(1≦h≦H)は、利用者情報データベース43に格納されていてもよい。また、利用者情報データベース43に格納された創作者情報η(h)(1≦h≦H)は、創作者C(h)の個人情報および創作者C(h)の入金口座を管理する決済システムの情報をさらに含んでいてもよい。   In one embodiment, the identification information of each creator C (h) may be stored in the user information database 43 together with the user information λ (i) (1 ≦ i ≦ P). More specifically, identification information of each creator C (h) (1 ≦ h H H) is included in creator information η (h) (1 h h H H), and creator information η (h) ) (1 ≦ h ≦ H) may be stored in the user information database 43. Also, creator information η (h) (1 ≦ h ≦ H) stored in the user information database 43 is a settlement for managing personal information of creator C (h) and a deposit account of creator C (h) It may further include system information.

なお、創作者C(h)が操作する情報端末(パーソナル・コンピュータ等)93は、上映システム1の運営会社により上映システム1と提携する店舗や映画館内に設置された端末であってもよい。その場合には、創作者C(h)が自身の個人情報を情報端末(パーソナル・コンピュータ等)93に対して入力することで登録を行うと、創作者C(h)の創作者情報η(h)が生成されて利用者情報データベース43に格納される。同時に、情報端末(パーソナル・コンピュータ等)93に接続されたカード発行機から創作者C(h)に対して創作者情報η(h)が書き込まれたICカードが創作者C(h)の認証用と識別用に発行されてもよい。   Note that the information terminal (personal computer or the like) 93 operated by the creator C (h) may be a terminal installed in a store or movie theater where the managing company of the screening system 1 makes a tie-up with the screening system 1. In that case, if creator C (h) performs registration by inputting his / her personal information to information terminal (personal computer etc.) 93, creator information 創作 (of creator C (h) h) is generated and stored in the user information database 43. At the same time, from the card issuing machine connected to the information terminal (personal computer etc.) 93 to the creator C (h), the IC card in which the creator information 創作 (h) is written is the creator C (h) authentication May be issued for use and for identification.

映像コンテンツmv(j)の創作者に利用者U(i)からの反響をフィードバックするフィードバック出力部135は、映像視聴中の利用者U(i)を撮像している撮像装置(ウェブ・カメラ等)80からの動画を分析部130から受信する。続いて、創作者C(h)により購入された編成枠における創作者C(h)の映像コンテンツmv(h)の上映中に、フィードバック出力部135は、映像として、創作者C(h)が利用する情報端末に配信する。ここで、創作者C(h)が利用する情報端末は、上記動画を創作者C(h)が視聴可能な端末であり、図6に示す情報端末(パーソナル・コンピュータ等)93または創作者C(h)が所有する携帯端末61であってもよい。   The feedback output unit 135 that feeds back the echo from the user U (i) to the creator of the video content mv (j) is an imaging device (web camera, etc.) that captures the user U (i) while viewing the video. ) The video from 80 is received from the analysis unit 130. Subsequently, during screening of the video content mv (h) of the creator C (h) in the organization frame purchased by the creator C (h), the feedback output unit 135 uses the creator C (h) as a video. Deliver to the information terminal to use. Here, the information terminal used by creator C (h) is a terminal that creator C (h) can view and listen to, the information terminal (personal computer etc.) 93 shown in FIG. The mobile terminal 61 owned by (h) may be used.

また、図1〜図3を参照して上述した第1実施形態と同様に、第2実施形態においても、分析部130は、利用者U(i)(1≦i≦K)の各々がワイヤレスヘッドホン50(i)(1≦i≦K)にて行った音声切替操作の記録から以下のような分析処理を行ってもよい。すなわち、視聴する映像コンテンツmv(j)(1≦j≦J)の音声チャネルを切り替えるために各々の利用者U(i)が上記音声切替操作を行った履歴から、以下の(a)および(b)の少なくとも一つ以上を分析処理した結果をフィードバック出力部135に出力するようにさらに構成されてもよい。
(a)一の映像コンテンツmv(j)を視聴中の利用者U(i)が別の映像コンテンツmv(j)を視聴するために移動した履歴を利用者毎に記録した移動記録、および
(b)上映中の映像コンテンツmv(j)(1≦j≦J)の各々を視聴する人数の全利用者数に占める割合の推移の記録。
Further, in the second embodiment as well as in the first embodiment described above with reference to FIGS. 1 to 3, in the second embodiment, each of the users U (i) (1 ≦ i ≦ K) is wireless The following analysis processing may be performed from the recording of the sound switching operation performed by the headphones 50 (i) (1 ≦ i ≦ K). That is, from the history in which each user U (i) has performed the above-mentioned audio switching operation to switch the audio channel of the video content mv (j) (1 ≦ j ≦ J) to be viewed, the following (a) and (a) The analysis result of at least one or more of b) may be further output to the feedback output unit 135.
(A) Movement recording in which the history of movement of the user U (i) who is viewing one video content mv (j 1 ) to view another video content mv (j 2 ) is recorded for each user, And (b) Recording of the transition of the ratio of the number of people who view and listen to each of the video content mv (j) (1 ≦ j ≦ J) being shown to the total number of users.

その上で、フィードバック出力部135は、分析部130から受け取った上記(a)および(b)の分析結果を創作者C(h)(1≦h≦H)の情報端末にレポーティング情報として配信するように構成されてもよい。創作者C(h)(1≦h≦H)の情報端末は、図6に示す情報端末(パーソナル・コンピュータ等)93または創作者C(h)が所有する携帯端末であってもよい。   Thereafter, the feedback output unit 135 distributes the analysis results of the above (a) and (b) received from the analysis unit 130 to the information terminal of the creator C (h) (1 ≦ h ≦ H) as reporting information. It may be configured as follows. The information terminal of creator C (h) (1 ≦ h ≦ H) may be an information terminal (personal computer etc.) 93 shown in FIG. 6 or a portable terminal owned by creator C (h).

また、一実施形態では、利用者U(1)〜U(K)は、情報端末(パーソナル・コンピュータ等)92に画面表示された過去の上映スケジュールの中に自分が非常に良かったと思える映像コンテンツを見つけた場合には、投げ銭を映像の創作者に支払うことができるようにしてもよい。例えば、過去の上映スケジュールを画面表示している情報端末(パーソナル・コンピュータ等)92を操作して画面内に表示されたその映像コンテンツの上映枠をマウスでクリックし、投げ銭として創作者に支払うべき金額をキーボード入力するようにしてもよい。   Moreover, in one embodiment, the users U (1) to U (K) are video contents which seem to be very good in the past screening schedule displayed on the information terminal (personal computer etc.) 92. If you find a movie, you may be able to pay the coin to the creator of the video. For example, the information terminal (personal computer, etc.) 92 displaying the past screening schedule should be operated to click on the screening frame of the video content displayed in the screen with a mouse and pay the creator as a dumped coin The amount of money may be keyboard input.

この実施形態では、フィードバック出力部135は、映像コンテンツmv(j)(1≦j≦J)の各々を視聴開始後の利用者U(i)(1≦i≦K)から投げ銭をそれぞれ受け付け、当該投げ銭を映像コンテンツmv(j)(1≦j≦J)をそれぞれ創作した創作者C(h)(1≦h≦H)の入金口座に分配する。   In this embodiment, the feedback output unit 135 receives dumps from users U (i) (1 ≦ i ≦ K) after the start of viewing of each of the video content mv (j) (1 ≦ j ≦ J), respectively. The money is distributed to the deposit account of creator C (h) (1 ≦ h ≦ H) who respectively created the video content mv (j) (1 ≦ j ≦ J).

より具体的には、フィードバック出力部135は、上記投げ銭の金額を利用者U(i)の識別情報と関連付けて利用者U(i)が保有する利用者端末60(i)から受信することで、映像コンテンツmv(j)を視聴開始後の利用者U(i)から投げ銭を受け付け、投げ銭の映像コンテンツ毎の集計額をそれぞれの創作者C(h)の識別情報と関連付けてそれぞれの創作者C(h)の入金口座を管理する決済システムに配信することで、投げ銭を創作者C(h)の入金口座に分配する。   More specifically, the feedback output unit 135 associates the amount of change with the identification information of the user U (i) and receives it from the user terminal 60 (i) owned by the user U (i). , Accepting the change from user U (i) after viewing of the video content mv (j), and associating the total amount of each change of video content with the identification information of the respective creator C (h), the respective creators By distributing to the settlement system that manages the deposit account of C (h), the change is distributed to the deposit account of creator C (h).

また、フィードバック出力部135は、利用者U(i)(1≦i≦K)からの投げ銭の集計額や利用者U(i)(1≦i≦K)からの電子的な投票に基づいて、映像コンテンツmv(j)(1≦j≦J)をそれぞれ創作した創作者C(h)(1≦h≦H)をランク付けしてもよい。その上で、上映スケジュール管理部140は、上位にランク付けされた創作者C(z)に対しては、下位にランク付けされた創作者創作者C(z)よりも優先的に希望する編成枠を割り当てるように構成されてもよい。 In addition, the feedback output unit 135 is based on the total amount of change sent from the user U (i) (1 ≦ i ≦ K) and the electronic vote from the user U (i) (1 ≦ i ≦ K). The creators C (h) (1 ≦ h ≦ H) who respectively created the video content mv (j) (1 ≦ j ≦ J) may be ranked. In addition, the screening schedule management unit 140 prefers the creator C (z 1 ) ranked higher than the creator creator C (z 2 ) ranked lower than the creator C (z 2 ) ranked lower. May be configured to assign a composition frame.

また、フィードバック出力部135は、上位にランク付けされた創作者C(z)の映像コンテンツmv(z)に高額の投げ銭を気前よく支払う利用者(i)に対して高い評価を与えるようにしてもよい。逆にフィードバック出力部135は、映像コンテンツmv(z)を視聴した利用者の中で、他の利用者より明らかに低額な投げ銭しか支払わない利用者(i)に低い評価を与えるようにしてもよい。このようにすることで、フィードバック出力部135は、利用者毎の評価に基づいて利用者U(i)(1≦i≦K)をランク付けしてもよい。このような利用者毎のランク付けは、どの利用者に対してどのような優待やプロモーションを行うべきかを決定する際の参考情報として活用することができる。 In addition, the feedback output unit 135 highly evaluates the user (i 1 ) who pays a large amount of money for the video content mv (z 1 ) of the creator C (z 1 ) ranked high. You may give it. On the other hand, the feedback output unit 135 gives a low rating to the user (i 2 ) who only obviously pays a lower payment than other users among the users who have watched the video content mv (z 1 ). May be By doing this, the feedback output unit 135 may rank the users U (i) (1 ≦ i ≦ K) based on the evaluation for each user. Such ranking for each user can be used as reference information when deciding what kind of special treatment or promotion should be given to which user.

1,1’ 上映システム
2(2a,2b,2c) 画面
3 内壁面
4(4a,4b,4c) 長椅子
5 貸出カウンター
6(6a,6b) 入退場管理装置
20(20a,20b,20c) 映像表示装置
31 編成枠販売情報受付部
32 認証課金処理部
33 貸出管理部
41 コンテンツ・データベース
42 音声情報データベース
43 利用者情報データベース
44 スケジュール・データベース
50(50a〜50K) ワイヤレスヘッドホン
60(60a〜60K) 利用者端末
70(70a〜70K) モーションセンサ
80 撮像装置(ウェブ・カメラ等)
90 音声配信端末/ヘッドホン利用探知端末
91 情報端末(パーソナル・コンピュータ等)
92 情報端末(パーソナル・コンピュータ等)
93 情報端末(パーソナル・コンピュータ等)
100,100’ 映像音声管理装置
110 映像情報出力部
120 音声情報出力部
130 分析部
140 上映スケジュール管理部
150 同期制御部
160 バスおよび通信インターフェース


1, 1 'screening system 2 (2a, 2b, 2c) screen 3 inner wall 4 (4a, 4b, 4c) long chair 5 lending counter 6 (6a, 6b) entrance and exit management device 20 (20a, 20b, 20c) image display Device 31 organization frame sales information reception unit 32 authentication charge processing unit 33 rental management unit 41 content database 42 voice information database 43 user information database 44 schedule database 50 (50a to 50K) wireless headphone 60 (60a to 60K) user Terminal 70 (70a to 70K) Motion sensor 80 Imaging device (web, camera etc.)
90 voice distribution terminal / headphone use detection terminal 91 information terminal (personal computer etc.)
92 Information terminal (personal computer etc.)
93 Information terminal (personal computer etc.)
100, 100 'video and audio management apparatus 110 video information output unit 120 audio information output unit 130 analysis unit 140 screening schedule management unit 150 synchronization control unit 160 bus and communication interface


Claims (16)

複数の異なる映像を同時進行でそれぞれ上映するための複数の映像表示装置に映像情報をそれぞれ出力する映像情報出力部と、
前記映像情報にそれぞれ同期した音声情報を、利用者に貸し出した複数のワイヤレスヘッドホンにて切り替え可能に受信できるように出力する音声情報出力部と、
を備えた映像音声管理装置。
A video information output unit for outputting video information to a plurality of video display devices for respectively screening a plurality of different videos simultaneously;
An audio information output unit that outputs audio information synchronized with the video information so that the audio information can be switchably received by a plurality of wireless headphones lent to the user;
Audio-visual management device equipped with
前記音声情報出力部は、一つの前記映像情報に対して少なくとも主音声と副音声を含む複数の音声情報を複数の前記ワイヤレスヘッドホンにて切り替え可能に受信できるように出力するように構成される、
請求項1記載の映像音声管理装置。
The audio information output unit is configured to output a plurality of audio information including at least a main audio and a sub audio with respect to one piece of the video information so that the plurality of wireless headphones can switchably receive the audio information.
The video and audio management device according to claim 1.
映像視聴中の前記ワイヤレスヘッドホンの利用状況に関するデータを取得する分析部と、
をさらに備える、請求項1または請求項2に記載の映像音声管理装置。
An analysis unit for acquiring data on a usage state of the wireless headphone while viewing a video;
The video / audio management device according to claim 1, further comprising:
前記ワイヤレスヘッドホンの利用状況に関する前記データは、
前記利用者が映像視聴中に前記ワイヤレスヘッドホンの上で行った操作の記録を含み、
異なる前記映像情報にそれぞれ同期した複数の音声情報間での受信切替操作、音量の調整操作および音声信号受信用電源のオンオフ切替操作の記録を含む、
請求項3記載の映像音声管理装置。
The data relating to the usage of the wireless headphone is
Including a record of operations performed by the user on the wireless headphone while viewing a video,
The recording includes a reception switching operation among a plurality of audio information synchronized with the different video information, a volume adjustment operation, and an on / off switching operation of a power source for audio signal reception,
The video and audio management device according to claim 3.
前記分析部は、映像視聴中の前記利用者を動画として撮像する撮像装置に接続される、
請求項3または請求項4に記載の映像音声管理装置。
The analysis unit is connected to an imaging device that captures the user who is watching a video as a moving image.
The video and audio management device according to claim 3 or 4.
前記分析部は、
前記映像情報のメタデータを用いて出演者および映像のジャンルを含む映像属性と各映像シーンとを識別し、
モーションセンサから前記利用者の身体的反応に関する生体計測情報を取得し、もしくは、映像視聴中の前記利用者を撮像した動画を解析することで前記利用者の身体的反応を取得し、
前記利用者の身体的反応の時間変化から前記利用者が興味を示す前記映像属性と映像シーンを検出することにより、前記ワイヤレスヘッドホンの前記利用状況を分析する、
ようにさらに構成される、請求項5に記載の映像音声管理装置。
The analysis unit
The video attribute including the performer and the genre of the video and each video scene are identified using the metadata of the video information,
Acquiring physical measurement information on the physical response of the user from a motion sensor, or acquiring a physical response of the user by analyzing a moving image obtained by imaging the user while viewing a video,
The usage of the wireless headphone is analyzed by detecting the video attribute and the video scene in which the user is interested from the time change of the physical response of the user.
The video and audio management device according to claim 5, further comprising:
前記分析部は、
前記映像情報のメタデータを用いて出演者および映像のジャンルを含む映像属性と各映像シーンとを識別し、
前記利用者が前記ワイヤレスヘッドホンにて映像視聴中に行った音量および/または音質の調整操作の操作記録から前記利用者が興味を示す前記映像属性と映像シーンを検出することにより、前記ワイヤレスヘッドホンの前記利用状況を分析する、
ようにさらに構成される、請求項5または請求項6に記載の映像音声管理装置。
The analysis unit
The video attribute including the performer and the genre of the video and each video scene are identified using the metadata of the video information,
By detecting the video attribute and the video scene in which the user is interested from the operation record of the volume and / or sound quality adjustment operation performed by the user while viewing the video with the wireless headphone, the wireless headphone Analyze the usage situation,
The video and audio management device according to claim 5 or 6, further comprising:
前記ワイヤレスヘッドホンの利用状況に関するデータは、映像視聴中の前記利用者についての記録データを含み、
前記分析部は、映像視聴中の前記利用者についての前記記録データを分析することで、上映すべき映像コンテンツおよび上映スケジュールの最適化に関する分析を行うよう構成される、
請求項5から請求項7の何れか一項に記載の映像音声管理装置。
The data relating to the use status of the wireless headphone includes recorded data of the user while viewing a video,
The analysis unit is configured to perform analysis regarding optimization of video content to be screened and a screening schedule by analyzing the recorded data of the user while viewing a video.
The video and audio management device according to any one of claims 5 to 7.
映像コンテンツの上映スケジュールを編成枠単位で管理し、映像コンテンツの企画および/または制作を行った創作者から編成枠の購入情報を受け付け、前記編成枠の購入状況に応じて前記上映スケジュールを編成する上映スケジュール管理部をさらに備える、
請求項5から請求項8の何れか一項に記載の映像音声管理装置。
Manage the screening schedule of video content in a unit of organizing frame, receive purchase information of the organizing frame from the creator who planned and / or produced the video content, and organize the screening schedule according to the purchase status of the organizing frame Further comprising a screening schedule management unit,
The video and audio management device according to any one of claims 5 to 8.
前記創作者に前記利用者からの反響をフィードバックするフィードバック出力部をさらに備え、
前記フィードバック出力部は、
映像視聴中の前記利用者を撮像している前記撮像装置からの前記動画を前記分析部から受信し、
前記創作者により購入された前記編成枠における前記創作者の映像コンテンツの上映中に、前記動画を前記創作者が視聴可能な映像として、前記創作者の情報端末に配信する、
ように構成される、請求項9に記載の映像音声管理装置。
The system further comprises a feedback output unit that feeds back the user's feedback to the creator,
The feedback output unit is
Receiving from the analysis unit the moving image from the imaging device imaging the user while viewing a video;
During screening of the creator's video content in the organization frame purchased by the creator, the moving image is distributed to the creator's information terminal as a video that can be viewed by the creator.
The video and audio management device according to claim 9, configured as follows.
前記分析部は、前記利用者が前記ワイヤレスヘッドホンにて映像視聴中に行った操作の記録に基づいて、
(a)一の前記映像コンテンツを視聴中の前記利用者が別の前記映像コンテンツを視聴するために移動した履歴を利用者毎に記録した移動記録、および
(b)上映中の前記映像コンテンツの各々を視聴する人数の全利用者数に占める推移の記録、
の少なくとも一つ以上を分析処理した結果を前記フィードバック出力部に出力して前記創作者の情報端末に配信させるようにさらに構成される、
請求項10に記載の映像音声管理装置。
The analysis unit may record the operation performed by the user while viewing the video with the wireless headphone.
(A) movement recording in which the user who is watching one of the video contents has moved to view another of the video contents and recorded for each user, and (b) the video contents being screened A record of the transition of the number of people watching each one,
Are further configured to output the result of analysis processing of at least one of the above to the feedback output unit for distribution to the creator's information terminal,
The video and audio management device according to claim 10.
前記音声情報出力部は、
前記利用者が映像コンテンツのどの映像シーンまで視聴したかを表す視聴位置情報を、対応する前記音声情報の出力履歴に基づいて記録し、
前記視聴位置情報を前記利用者が保有する利用者端末に配信する、
ようにさらに構成される、請求項1から請求項11の何れか一項に記載の映像音声管理装置。
The voice information output unit is
Viewing position information indicating which video scene the video content has been viewed by the user based on the output history of the corresponding audio information;
Delivering the viewing position information to a user terminal owned by the user;
The video and audio management device according to any one of claims 1 to 11, further configured as follows.
前記フィードバック出力部は、
前記映像コンテンツを視聴開始後の前記利用者から投げ銭を受け付け、
前記投げ銭を前記映像コンテンツの前記創作者の入金口座に分配する、
ように構成される請求項10に記載の映像音声管理装置。
The feedback output unit is
Accepting a change from the user after the start of viewing the video content,
Distributing the coin to the deposit account of the creator of the video content,
The video and audio management device according to claim 10, wherein the video and audio management device is configured as follows.
前記フィードバック出力部は、
前記投げ銭の金額を前記利用者の識別情報と関連付けて前記利用者が保有する利用者端末から受信することで、前記映像コンテンツを視聴開始後の前記利用者から前記投げ銭を受け付け、
前記投げ銭の映像コンテンツ毎の集計額をそれぞれの前記創作者の識別情報と関連付けてそれぞれの前記創作者の入金口座を管理する決済システムに配信することで、前記投げ銭を前記創作者の入金口座に分配する、
ように構成される請求項13に記載の映像音声管理装置。
The feedback output unit is
The amount of the coin is associated with the identification information of the user and received from the user terminal held by the user, thereby accepting the coin from the user after the start of viewing of the video content,
The amount of money sent to the creator's deposit account is distributed to a payment system that manages the deposit account of each creator by associating the total amount of each video content of the dump money with the identification information of each creator. Distribute,
The video and audio management device according to claim 13 configured as follows.
複数の異なる映像を同時進行で複数の画面にそれぞれ表示して上映するための複数の映像表示装置と、
複数の前記映像表示装置に映像情報をそれぞれ出力する映像情報出力部と、
前記映像情報にそれぞれ同期した音声情報を、利用者に貸し出した複数のワイヤレスヘッドホンにて切り替え可能に受信できるように無線で送信する音声情報出力部と、
複数の前記画面が内壁面に沿って設けられた内部空間と、
ワイヤレスヘッドホンの貸し出しを受ける利用者に対し、前記利用者の認証と前記利用者への課金を行う認証課金処理部と、
を備える上映システム。
A plurality of video display devices for displaying and screening a plurality of different videos simultaneously on a plurality of screens;
A video information output unit that outputs video information to each of the plurality of video display devices;
An audio information output unit for wirelessly transmitting audio information synchronized with the video information so that the audio information can be switchably received by a plurality of wireless headphones lent to the user;
An internal space in which a plurality of the screens are provided along the inner wall surface;
An authentication charge processing unit for authenticating the user and charging the user to the user receiving the rental of the wireless headphone;
Screening system equipped with
課金または認証を行った前記利用者に対して、前記課金または認証の結果生成された利用者情報と対応付けてワイヤレスヘッドホンを貸し出す貸出管理部、
をさらに備える、請求項15記載の上映システム。

A lending management unit that lends wireless headphones to the user who has performed charging or authentication in association with the user information generated as a result of the charging or authentication,
The screening system according to claim 15, further comprising

JP2017195234A 2017-10-05 2017-10-05 Video and audio management device and screening system for displaying video and audio Active JP6675736B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017195234A JP6675736B2 (en) 2017-10-05 2017-10-05 Video and audio management device and screening system for displaying video and audio
PCT/JP2018/036463 WO2019069831A1 (en) 2017-10-05 2018-09-28 Video/audio management device and screening system for screening video and audio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017195234A JP6675736B2 (en) 2017-10-05 2017-10-05 Video and audio management device and screening system for displaying video and audio

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020036098A Division JP2020167669A (en) 2020-03-03 2020-03-03 Video voice management device for screening video and voice and screening system

Publications (2)

Publication Number Publication Date
JP2019068384A true JP2019068384A (en) 2019-04-25
JP6675736B2 JP6675736B2 (en) 2020-04-01

Family

ID=65995193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195234A Active JP6675736B2 (en) 2017-10-05 2017-10-05 Video and audio management device and screening system for displaying video and audio

Country Status (2)

Country Link
JP (1) JP6675736B2 (en)
WO (1) WO2019069831A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093567A (en) * 2019-12-06 2021-06-17 パナソニックIpマネジメント株式会社 Acoustic control system
JP2022099715A (en) * 2020-12-23 2022-07-05 株式会社Aokiホールディングス Content provision system, content management server, content management method, venue server, content control method, ticket sales server, ticket sales method and content provision method
JP2022127068A (en) * 2021-02-19 2022-08-31 Tis株式会社 Tipping management device, tipping management method, and tipping management program
WO2023037598A1 (en) * 2021-09-07 2023-03-16 ソニーグループ株式会社 Information processing device, information processing method, and non-transitory computer-readable storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163921A (en) * 2004-12-08 2006-06-22 Nec Fielding Ltd Vehicle management system and method, and vehicle-managing program
US20100061567A1 (en) * 2008-09-09 2010-03-11 Scott White Method and apparatus for providing an audio signal for an event
US20120095749A1 (en) * 2010-10-14 2012-04-19 Antonio Capretta Multi-functional audio distribution system and method for movie theaters and other public and private venues
JP2013031160A (en) * 2011-06-22 2013-02-07 Panasonic Corp Av content viewing system
US8495236B1 (en) * 2012-02-29 2013-07-23 ExXothermic, Inc. Interaction of user devices and servers in an environment
US20140362201A1 (en) * 2013-06-05 2014-12-11 Echostar Technologies L.L.C. Apparatus, method and article for providing audio of different programs
JP2016005154A (en) * 2014-06-18 2016-01-12 パナソニックIpマネジメント株式会社 Pairing method and terminal device
JP2016133939A (en) * 2015-01-16 2016-07-25 株式会社日立システムズ Performer information accumulation system, performer information accumulation method, and performer information accumulation program
EP3113507A1 (en) * 2015-07-03 2017-01-04 Leendert Hogenes Beheer B.V. A method and transmitter for broadcasting an audio signal to at least one headphone and a headphone

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163921A (en) * 2004-12-08 2006-06-22 Nec Fielding Ltd Vehicle management system and method, and vehicle-managing program
US20100061567A1 (en) * 2008-09-09 2010-03-11 Scott White Method and apparatus for providing an audio signal for an event
US20120095749A1 (en) * 2010-10-14 2012-04-19 Antonio Capretta Multi-functional audio distribution system and method for movie theaters and other public and private venues
JP2013031160A (en) * 2011-06-22 2013-02-07 Panasonic Corp Av content viewing system
US8495236B1 (en) * 2012-02-29 2013-07-23 ExXothermic, Inc. Interaction of user devices and servers in an environment
US20140362201A1 (en) * 2013-06-05 2014-12-11 Echostar Technologies L.L.C. Apparatus, method and article for providing audio of different programs
JP2016005154A (en) * 2014-06-18 2016-01-12 パナソニックIpマネジメント株式会社 Pairing method and terminal device
JP2016133939A (en) * 2015-01-16 2016-07-25 株式会社日立システムズ Performer information accumulation system, performer information accumulation method, and performer information accumulation program
EP3113507A1 (en) * 2015-07-03 2017-01-04 Leendert Hogenes Beheer B.V. A method and transmitter for broadcasting an audio signal to at least one headphone and a headphone

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093567A (en) * 2019-12-06 2021-06-17 パナソニックIpマネジメント株式会社 Acoustic control system
JP7398703B2 (en) 2019-12-06 2023-12-15 パナソニックIpマネジメント株式会社 sound control system
JP2022099715A (en) * 2020-12-23 2022-07-05 株式会社Aokiホールディングス Content provision system, content management server, content management method, venue server, content control method, ticket sales server, ticket sales method and content provision method
JP2022127068A (en) * 2021-02-19 2022-08-31 Tis株式会社 Tipping management device, tipping management method, and tipping management program
JP7684051B2 (en) 2021-02-19 2025-05-27 Tis株式会社 Tipping management device, tipping management method, and tipping management program
WO2023037598A1 (en) * 2021-09-07 2023-03-16 ソニーグループ株式会社 Information processing device, information processing method, and non-transitory computer-readable storage medium
JPWO2023037598A1 (en) * 2021-09-07 2023-03-16
JP7718494B2 (en) 2021-09-07 2025-08-05 ソニーグループ株式会社 Information processing device, information processing method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP6675736B2 (en) 2020-04-01
WO2019069831A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
JP4335642B2 (en) Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device
JP6999152B2 (en) Content distribution device and content distribution system
CN100485661C (en) Gallery tour guide system and method for real-time provision of information using stored data
US9473809B2 (en) Method and apparatus for providing personalized content
JP5649303B2 (en) Method and apparatus for annotating media streams
CN110097416B (en) Digital video-on-demand device with karaoke and photo booth functions and related methods
JP2010541062A (en) Distributed live multimedia monetization mechanism and network
US20150356693A1 (en) Providing event-attendance-responsive notifications via a hybrid architecture
US20060015409A1 (en) Delivery system, delivery apparatus and advertisement effect compilation method
WO2014186241A2 (en) Audience-aware advertising
WO2019069831A1 (en) Video/audio management device and screening system for screening video and audio
KR20170088381A (en) Collaborative ticketing system
WO2014199602A1 (en) Speaker identification method, speaker identification device, and information management method
JP2020167669A (en) Video voice management device for screening video and voice and screening system
KR20190030194A (en) Method and server for providing movie and movie theater recommendation based on movie theater recommendations
JP7212808B1 (en) Video distribution device, video distribution method, and video distribution program
JP2012249764A (en) Cinema re-watching and listening providing system, in which cinema appreciated in movie theater is again watched at and listened to, and cinema re-watching and listening service providing method
US20250031019A1 (en) Information processing system, information processing method, and recording medium for enabling a plurality of users to experience a same type of service
JP7045728B2 (en) Video distribution system, video distribution control method and computer program
US20230013365A1 (en) Video distribution system, video distribution control method, and storage medium
JP7567259B2 (en) COMMUNICATION TERMINAL, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP7541791B1 (en) Distribution program, distribution system, and distribution method
JP7420853B2 (en) Navigation device, navigation method, and navigation program
JP7197738B1 (en) Root content distribution device, root content distribution method, and root content distribution program
JP7102014B2 (en) Video distribution system, video distribution control method and computer program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180801

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190712

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190712

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200303

R150 Certificate of patent or registration of utility model

Ref document number: 6675736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250