JP2014011489A - Electronic apparatus - Google Patents
Electronic apparatus Download PDFInfo
- Publication number
- JP2014011489A JP2014011489A JP2012144410A JP2012144410A JP2014011489A JP 2014011489 A JP2014011489 A JP 2014011489A JP 2012144410 A JP2012144410 A JP 2012144410A JP 2012144410 A JP2012144410 A JP 2012144410A JP 2014011489 A JP2014011489 A JP 2014011489A
- Authority
- JP
- Japan
- Prior art keywords
- information
- presentation
- control unit
- unit
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】多くの視聴者が集まる会場において行われる実演を支援することが可能な電子機器を提供する。
【解決手段】電子機器(30)は、実演に先立って、音声情報と画像情報との少なくとも一方を入力する入力部(32)と、前記入力部が入力した情報に基づいて、前記実演の視聴者の着席位置に関する情報を取得する第1情報取得部(37)と、前記入力部が入力した情報の中から、前記第1情報取得部が取得した情報に基づいて、前記視聴者のうち特定視聴者の前記音声情報と前記画像情報との少なくとも一方を取得する第2情報取得部(37)と、を備えている。
【選択図】図2An electronic apparatus capable of supporting a demonstration performed at a venue where many viewers gather.
An electronic device (30) includes an input unit (32) for inputting at least one of audio information and image information prior to a demonstration, and viewing the demonstration based on the information input by the input unit. A first information acquisition unit (37) that acquires information related to the seating position of the person, and the information specified by the first information acquisition unit among the information input by the input unit. A second information acquisition unit (37) that acquires at least one of the audio information and the image information of the viewer.
[Selection] Figure 2
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
従来、プレゼンテーションの視聴者を撮像した撮影画像に基づいて視聴者の反応を検出し、検出された反応に応じてプレゼンテーションの態様を変更するプレゼンテーション装置が提案されている(例えば、特許文献1)。 2. Description of the Related Art Conventionally, there has been proposed a presentation device that detects a viewer's reaction based on a photographed image obtained by capturing a viewer of a presentation and changes a presentation mode according to the detected response (for example, Patent Document 1).
しかしながら、従来のプレゼンテーション装置では、多くの視聴者が集まる会場において行われるプレゼンテーションへの利用は想定されていないため、使い勝手が悪いおそれがあった。 However, since the conventional presentation apparatus is not assumed to be used for presentations performed in a venue where many viewers gather, there is a possibility that the usability may be poor.
そこで、本発明は上記の課題に鑑みてなされたものであり、多くの視聴者が集まる会場において行われる実演を支援することが可能な電子機器を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide an electronic device capable of supporting a demonstration performed at a venue where many viewers gather.
本発明の電子機器(30)は、実演に先立って、音声情報と画像情報との少なくとも一方を入力する入力部(32)と、前記入力部が入力した情報に基づいて、前記実演の視聴者の着席位置に関する情報を取得する第1情報取得部(37)と、前記入力部が入力した情報の中から、前記第1情報取得部が取得した情報に基づいて、前記視聴者のうち特定視聴者の前記音声情報と前記画像情報との少なくとも一方を取得する第2情報取得部(37)と、を備えている。 Prior to the demonstration, the electronic device (30) of the present invention includes an input unit (32) for inputting at least one of audio information and image information, and a viewer of the demonstration based on the information input by the input unit. A first information acquisition unit (37) for acquiring information related to the seating position of the user, and based on the information acquired by the first information acquisition unit from the information input by the input unit, the specific viewing among the viewers A second information acquisition unit (37) for acquiring at least one of the voice information and the image information of the person.
この場合において、前記第2情報取得部が取得した情報に基づいて、前記実演を行う実演者に情報提供を行う情報提供部(35,36,37)を備えていてもよい。また、前記実演が行われる位置を検出する位置検出センサ(33)を備え、前記情報提供部は、前記位置検出センサの検出結果に基づいて、前記実演者に情報を提供することとしてもよい。 In this case, an information providing unit (35, 36, 37) that provides information to a performer performing the demonstration based on the information acquired by the second information acquisition unit may be provided. Further, a position detection sensor (33) for detecting a position where the demonstration is performed may be provided, and the information providing unit may provide information to the performer based on a detection result of the position detection sensor.
本発明の電子機器は、前記第2情報取得部が取得した情報に基づいて、前記特定視聴者の性別を推定する第1推定部(37)を備えていてもよい。また、本発明の電子機器は、前記第2情報取得部が取得した情報に基づいて、前記特定視聴者の年齢層を推定する第2推定部(37)を備えていてもよい。また、本発明の電子機器において、前記入力部は、第1の実演後であって、第2の実演に先立って、前記音声情報と前記画像情報との少なくとも一方を入力することとしてもよい。 The electronic device of the present invention may include a first estimation unit (37) that estimates the gender of the specific viewer based on information acquired by the second information acquisition unit. The electronic device of the present invention may further include a second estimation unit (37) that estimates an age group of the specific viewer based on information acquired by the second information acquisition unit. In the electronic device of the present invention, the input unit may input at least one of the audio information and the image information after the first demonstration and prior to the second demonstration.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at positions where the functions can be achieved.
本発明の電子機器は、多くの視聴者が集まる会場において行われる実演を支援することができるという効果を奏する。 The electronic device of the present invention has an effect of being able to support a performance performed in a venue where many viewers gather.
以下、一実施形態に係るプレゼンテーション支援システム100について、図1〜図5に基づいて詳細に説明する。本実施形態のプレゼンテーション支援システム100は、プレゼンテーションの実演が行われる前に、プレゼンテーションの視聴者に関する情報を取得し、当該取得した情報に基づき、プレゼンテーションを行う発表者に有益な情報を提供して支援するシステムである。
Hereinafter, a
図1には、本実施形態のプレゼンテーション支援システム100の構成が概略的に示されている。プレゼンテーション支援システム100は、プレゼンテーション支援装置10と、情報提供装置50とを備える。図1に示すように、プレゼンテーション支援装置10と情報提供装置50とは、インターネット等のネットワーク60に接続されている。なお、ネットワーク60には、その他のPC70やスマートフォン80が接続されていてもよい。
FIG. 1 schematically shows the configuration of a
プレゼンテーション支援装置10は、視聴者を集めてプレゼンテーションを発表する会場において、プレゼンテーションの発表者を支援する装置である。プレゼンテーション支援装置10は、図1及びプレゼンテーション支援装置10のブロック図である図2に示すように、撮像装置20と、情報処理装置30と、投影装置40と、を備える。
The
撮像装置20は、例えば、デジタルカメラやビデオカメラであり、プレゼンテーションが行われる会場の客席から音声データと画像データとを取得する。撮像装置20は、図2に示すように、音声入力部21と、撮像部22と、通信部23とを有する。
The
音声入力部21は、マイクを含み、会場の客席の音声データを取得する。撮像部22は、撮影レンズや、CCD(Charge Coupled Device)イメージセンサやCMOS(Complimentary Metal Oxide Semiconductor)イメージセンサなどの矩形状の撮像素子、及びこの撮像素子を制御する制御回路などを有しており、会場の客席を撮像し、画像データを取得する。通信部23は、有線、または無線にて情報処理装置30と通信する。通信部23としては、Bluetooth(登録商標)による通信を実現するBluetooth(登録商標)ユニット、赤外線通信を実現する赤外線通信ユニット等を採用することができる。
The
なお、本実施形態では、撮像装置20が会場内に複数設けられているものとする(図2参照)。この場合、客席全体を複数の領域に分割し、それぞれの領域ごとに撮像装置20を配置し、分割した領域ごとに音声データと画像データとを取得するようにしてもよい。このように、領域ごとに情報を取得する場合、取得した音声データ及び画像データが、会場の客席全体のどの位置のものであるかを把握しやすくなる。
In the present embodiment, it is assumed that a plurality of
情報処理装置30としては、例えば、PC(Personal Computer)、スマートフォン、タブレットPC、PDA(Personal Digital Assistant)(登録商標)など種々の情報端末機器を採用することができるが、本実施形態では、一例として、情報処理装置30がPCであるものとして説明する。
As the
情報処理装置30は、第1通信部31と、第2通信部32と、GPS(Global Positioning System)モジュール33と、メモリ34と、ディスプレイ35と、出力部36と、制御部37と、を有する。
The
第1通信部31は、有線又は無線でネットワーク60に接続し、ネットワーク60上の情報提供装置50や他の情報端末(PC70やスマートフォン80など)と通信する。
The
第2通信部32は、有線又は無線で撮像装置20の通信部23と通信する。情報処理装置30は、第2通信部32を介して、撮像装置20が取得した音声データや画像データを取り込む。
The
GPSモジュール33は、情報処理装置30の位置(例えば緯度および経度)を検出するセンサである。すなわち、情報処理装置30がプレゼンテーションの会場に設置されている場合には、GPSモジュール33は、プレゼンテーションの会場の位置を検出する。
The
メモリ34は、不揮発性のメモリ(フラッシュメモリ)などであり、プレゼンテーションを実施するのに必要なデータのほか、第2通信部32が撮像装置20から受信した会場の音声データや画像データ、当該音声データや画像データを解析するためのデータ(テーブル)を格納する。
The
図3には、メモリ34が記憶するデータの例が示されている。図3に示すように、本実施形態では、メモリ34に、予め発表者が作成したプレゼンテーションの投影用原稿A,B,C…が格納されている。これら投影用原稿A,B,C…は、一例として、同じ題材に関するものであるが、題材に関する視聴者の知識、見解の度合い、視聴者の性別、視聴者の年齢に合わせて、内容の一部または全部が変更されたものであるとする。例えば、ある投影用原稿が、「○○に関する説明資料(初心者用)」であれば、別の投影用原稿は、「○○に関する説明資料(上級者用)」であるものとする。
FIG. 3 shows an example of data stored in the
また、メモリ34には、図3に示すように、顔データテーブル、周波数テーブル、単語データテーブルが格納されている。顔データテーブルには、人の顔に関する特徴点、例えば、眉、眼、鼻、唇の形状や顔の輪郭に関する特徴点のデータが記憶されている。また、顔データテーブルには、男女それぞれの年代別に、例えば、眉、眼、鼻、唇、輪郭などの特徴点が持つ特徴のデータおよび色彩データが記憶されている。周波数テーブルには、人の音声に含まれる特徴的な周波数(基本周波数)を、性別や年齢ごとに格納するテーブルである。単語データテーブルには、プレゼンテーションが行われる国や地方で用いられる言語の単語が登録されている。また、単語データテーブルには、プレゼンテーションの発表者が予め登録しておいたキーワードが登録されているものとする。なお、キーワードとしては、例えば、プレゼンテーションで用いる資料中の単語などが登録されるものとする。
Further, as shown in FIG. 3, the
ディスプレイ35は、液晶ディスプレイ等であり、発表者がプレゼンテーションの際に、投影用原稿を表示するためのものである。
The
出力部36は、投影装置40に対して、ディスプレイ35に表示する画面情報と同一の画面情報を出力する。
The
制御部37は、CPUを有し、情報処理装置30の処理全体を統括的に制御する。本実施形態では、制御部37は、第2通信部32を介して取得した画像データに基づき、会場内の座席の中から視聴者が着席した座席位置の情報を取得する(着席位置分析)。また、制御部37は、画像データと、顔データテーブルとに基づき、会場内の視聴者の年齢層を推定する(年齢層分析)。また、制御部37は、第2通信部32を介して取得した音声データと、周波数テーブルとに基づき、音声を発している人の性別を推定する(性別分析)。更に、制御部37は、音声データと単語データテーブルとに基づき、プレゼンテーションに関連するキーワードを検出する(キーワード分析)。そして、制御部37は、取得、推定、検出した情報に基づき、プレゼンテーションを支援する情報を発表者に対して提供する。以下、制御部37が行う各分析の方法について詳細に説明する。
The
(着席位置分析)
着席位置分析は、会場の各座席が、視聴者が着席した状態か空席の状態かを判別する処理である。着席位置分析では、制御部37は、撮像装置20が撮像した会場の客席の画像を取得し、客席のリファレンス画像(開場前に撮像装置20を用いて会場内を撮像した画像)との比較により、各座席が、視聴者が着席した状態か、空席の状態かを判別する。なお、荷物が置いてある座席についても着席と判定される場合があるので、制御部37は、顔データテーブルを用いて顔認識を行い、実際に人が座っている座席の位置を特定するようにしてもよい。
(Sitting position analysis)
The seating position analysis is a process for determining whether each seat in the hall is in a seated state or an empty seat. In the seating position analysis, the
また、制御部37は、着席位置分析において、例えば、会場の客席を複数の領域に分割して、その領域ごとの着席状況(着席率)を取得するものとする。なお、領域は、例えば、前方、後方、上手側、中央、下手側、1階席、2階席などを基準として分割するようにすればよい。また、複数の撮像装置20の撮像可能領域それぞれを分割した領域それぞれに対応付けるようにしてもよい。なお、制御部37は、着席状況(着席率)の取得を適時繰り返し、着席状況(着席率)を時刻と関連付けてメモリ34に記憶する。
In the seating position analysis, for example, the
(年齢層分析)
年齢層分析は、画像中から人物の顔を検出し、検出した人物の年齢層を推定する処理である。年齢層分析では、制御部37は、撮像装置20が撮像した客席の画像と、顔データテーブルと、を用いて人物の顔を検出する。なお、顔の検出方法は、一例として、画像中から特徴点を抽出して顔の領域等を検出する。特徴点としては、眉、眼、鼻、唇の各端点や、顔の輪郭点(例えば頭頂点や顎の下端点)が挙げられる。なお、制御部37は、検出した顔の画像を、メモリ34に記憶する。そして、制御部37は、検出した顔の画像に基づき、人物の年齢層を推定する。この場合、制御部37は、検出した顔の画像中の各特徴点の特徴や色彩などと、顔データテーブルに予め記憶されている顔の各特徴点の特徴や色彩などとを比較して、人物の年齢層を推定する。制御部37は、推定結果として、「20歳代」、「40歳代」という情報を顔の画像と関連付けてメモリ34に記憶する。なお、画像データから人物の顔を検出する方法、及び人物の年齢層を推定する方法は、本願出願人が先に出願した特開2010−34685号公報にも開示されている。
(Age group analysis)
Age group analysis is a process of detecting the face of a person from an image and estimating the age group of the detected person. In the age group analysis, the
(性別分析)
性別分析は、撮像装置20が取得した音声データから音声を発している人物の性別を推定する処理である。この性別分析では、制御部37は、例えば、音声の基本周波数が100〜150Hzの範囲である場合には音声を発した人物が成人男性であり、音声の基本周波数が200〜300Hzの範囲である場合には音声を発した人物が成人女性であり、音声の基本周波数が350〜400Hzの範囲である場合には音声を発した人物が子供であると推定する。なお、音声データから人物の性別を判定する方法は、本願出願人が先に出願した特開2011−130317号公報にも開示されている。制御部37は、「成人男性」、「成人女性」、「子供」のいずれかと判定された回数を、メモリ34に保存する。
(Gender analysis)
The gender analysis is a process for estimating the gender of a person who is producing a sound from the sound data acquired by the
(キーワード分析)
キーワード分析は、撮像装置20において取得された音声データの中から、プレゼンテーションの内容に関連するキーワードを検出する処理である。キーワード分析では、制御部37は、取得した音声データに含まれる単語を検出し、検出した単語が予め発表者により特定されていたキーワードと一致するかを判別する。検出した単語がキーワードであれば、当該キーワードと当該キーワードが発せられた回数とをメモリ34に保存する。
(Keyword analysis)
The keyword analysis is a process of detecting a keyword related to the content of the presentation from the audio data acquired by the
投影装置40は、プロジェクタであり、情報処理装置30の出力部36から出力された画像の情報を取得し、当該画像をスクリーンへ投影する。投影装置40は、図2に示すように、投影制御部41と、投影部42とを有する。投影制御部41は、出力部36と有線又は無線で接続され、情報処理装置30の出力部36から取得した画像を投影部42に投影させる。
The
投影部42は、光源、照明光学系、光変調素子、投射光学系等を有する。光源は、例えば光を出射するランプである。照明光学系は、光源から出射された光束を光変調素子に照明する。光変調素子は、例えば液晶パネルであり、スクリーン上に投影する画像を生成する。投射光学系は、光変調素子からの光束をスクリーンに向けて投射する。なお、投射光学系は、投影する像の大きさを調整するズームレンズと、フォーカス位置を調整するフォーカスレンズとを有する。
The
図1に戻り、情報提供装置50は、例えば、ウェブサイトを運営するサーバであり、制御部37からの要求に応じて情報を選択し、提供する。
Returning to FIG. 1, the
次に、上記のように構成されるプレゼンテーション支援システム100の処理(特に制御部37の処理)について、図4のフローチャートに沿って、詳細に説明する。
Next, processing (particularly processing of the control unit 37) of the
図4,5は、制御部37による処理を示すフローチャートである。図4,5の処理は、プレゼンテーションを行う会場が開場した段階で開始される。なお、発表者等は、制御部37に対して開場時刻を予め設定しておいてもよいし、開場時刻になった段階で、発表者等が図4,5の処理を開始するための所定のスタートボタンを押すようにしてもよい。なお、プレゼンテーションの会場が会社の会議室や学校の教室などのように小規模である場合には、最初の視聴者が会場に到着したことを撮像装置20の画像データや音声データから検出できた段階で、図4,5の処理を開始するようにしてもよい。
4 and 5 are flowcharts showing processing by the
ステップS1では、制御部37の指示の下、撮像装置20が、会場内の音声データと画像データとの取得を開始する。撮像装置20により取得された会場内の音声データと画像データとは、制御部37に対して送信され、制御部37によってメモリ34に記憶される。なお、撮像装置20によるデータ取得は連続的に行われ、プレゼンテーションが開始するまで、あるいは発表者等により中断されるまで継続する。
In step S <b> 1, under the instruction of the
次いで、ステップS2では、制御部37が、GPSモジュール33を用いて、情報処理装置30の位置情報を検出する。なお、制御部37は、検出した位置情報をメモリ34に記憶する。
Next, in step S <b> 2, the
次いで、ステップS3では、制御部37が、画像データに基づいて、各座席の着席状態(着席率)を取得する。この場合、制御部37は、会場内の領域(1階席前方や、2階席後方など)ごとの着席状態の時間遷移を取得し、会場のどの領域から座席が埋まっていったかを確認する。
Next, in step S3, the
次いで、ステップS4では、制御部37は、プレゼンテーションの期待度を推定する。制御部37は、ステップS3で取得した座席がどの領域から埋まったのかに基づいて、プレゼンテーションの期待度を推定する。例えば、座席が前方の領域から埋まっていくならば、プレゼンテーションを熱心に聴こうとする視聴者が多いと考えられるので、このような場合には、制御部37は、プレゼンテーションの期待度が高いと推定する。これに対し、座席が後方の領域から埋まっていくならば、視聴者がプレゼンテーションにあまり期待していないと考えられるので、このような場合には、制御部37は、プレゼンテーションの期待度が低いと推定する。
Next, in step S4, the
次いで、ステップS5では、制御部37は、客席前方を撮像した画像データに基づいて、画像に写った視聴者(客席前方に着席した特定視聴者)の年齢層を推定する。すなわち、制御部37は、ステップS5において、客席前方に着席した熱心な視聴者の年齢層を推定する。この場合、制御部37は、客席前方を撮像した画像データから人物の顔を検出し、検出した顔の各特徴点の特徴や色彩などと、顔データテーブルに予め記憶されている顔の各特徴点の特徴や色彩などとを比較して、検出した人物の年齢層を推定する。このとき、同じデータについて重複しないように、一度、年齢層を推定した人物の顔データについては、再度取得しないようにする。なお、年齢層を推定する人物は複数であることが好ましいが、複数の視聴者の年齢層を推定できない場合には、1人であっても構わない。
Next, in step S5, the
次いで、ステップS6では、制御部37は、客席前方を録音した音声データに基づいて、録音された音声の持ち主(視聴者)の性別の推定及びキーワードの検出を行う。ここでは、制御部37は、客席前方に座り、プレゼンテーションを熱心に聴こうとする視聴者(特定視聴者)の性別を、音声データに含まれる基本周波数に基づいて推定する。また、制御部37は、客席前方に座る視聴者の会話中からプレゼンテーションに関連するキーワードを検出する。
Next, in step S6, the
次いで、ステップS7では、制御部37は、投影用原稿を選択し、発表者に対して選択した投影用原稿の提案を行う。制御部37は、ステップS2で取得した会場の位置、ステップS4で推定したプレゼンテーションの期待度、ステップS5で推定した視聴者の年齢層、ステップS6で判定した視聴者の性別、ステップS6で検出したキーワードの有無に基づいて投影用原稿を選択する。
Next, in step S7, the
例えば、会場の位置が日本国内である場合には、制御部37は、日本語の投影用原稿を選択し、会場の位置がアメリカ合衆国である場合には、英語の投影用原稿を選択する。また、例えば、着席状態の時間遷移から、プレゼンテーションの期待度が高いと判断される場合には、制御部37は、説明がより詳細な投影用原稿を選択するなどする。また、例えば、視聴者(特定視聴者)の主な年齢層が40代、50代である場合には、制御部37は、年長者が詳しいと思われる事項の説明が少なく、かつ年長者が疎いと思われる事項の説明を増やした投影用原稿を選択するなどする。また、例えば、視聴者(特定視聴者)に含まれる女性の割合が多い場合には、制御部37は、女性目線で作成された投影用原稿を選択するなどする。また、例えば、プレゼンテーションに関連するキーワードが多数発せられていたような場合には、視聴者(特定視聴者)のプレゼンテーション内容に関する知識が豊富であると推定できるので、制御部37は、上級者向けの投影用原稿を選択するなどする。反対に、プレゼンテーションに関するキーワードがほとんど検出されない場合には、視聴者がプレゼンテーションの内容には詳しくないと推定できるので、制御部37は、初心者向けの投影用原稿を選択するなどする。なお、制御部37は、ここで挙げた投影用原稿を選択する例を組み合わせて原稿を選択することとしてもよい。また、制御部37は、年齢層や性別等に優先順位をつけて、投影用原稿の選択を行うこととしてもよい。
For example, when the location of the venue is in Japan, the
制御部37は、選択した投影用原稿をディスプレイ35上に出力して発表者へ提案する。なお、制御部37は、複数の投影用原稿を発表者に対して提案することとしてもよい。この場合、発表者は、ディスプレイ35に提案された投影用原稿のいずれかを選択することになる。なお、複数の投影用原稿と併せて、提案理由(例えば、「女性が多いため」、「40代が多いため」など)をディスプレイ35上に表示するようにしてもよい。これにより、発表者は、投影用原稿の選択を簡易かつ適切に行うことが可能となる。
The
次いで、ステップS8では、制御部37は、ネットワーク60上(例えば情報提供装置50)から、話題を取得する。この場合、制御部37は、取得する話題として、時節の話題や、ステップS2で取得した位置情報に基づく会場近隣のニュースや出来事の情報を取得する。また、客席前方に座る視聴者(特定視聴者)に含まれる女性の割合が多い場合には、制御部37は、多くの女性にとって興味があると考えられる美容やファッションに関する話題を取得してもよい。また、制御部37は、会場の年齢層に合わせて、流行に関する話題などを取得してもよい。また、取得した会場内の音声データから取得した単語のいずれか(例えば、プレゼンテーションに関するキーワード以外で、頻繁に発せられた単語)を検索ワードとしてネットワーク60上で検索し、当該単語に関する話題を取得してもよい。
Next, in step S8, the
次いで、ステップS9では、制御部37は、提案した投影用原稿が1つの場合には、発表者が提案を受け入れるまで待機し、提案した投影用原稿が複数の場合には、発表者が投影用原稿を選択するまで待機する。提案が受け入れられた場合、又は投影用原稿が選択された場合には、制御部37は、ステップS10に移行する。なお、発表者は、提案された投影用原稿以外の投影用原稿を選択することもできるので、そのような選択がされた場合にも、ステップS10に移行する。
Next, in step S9, the
ステップS10に移行すると、制御部37は、受け入れられた又は選択された投影用原稿をディスプレイ35に表示するとともに、投影装置40に出力する。
In step S <b> 10, the
次いで、ステップS11では、制御部37は、プレゼンテーションを実行する。この場合、制御部37は、発表者がマウスのボタンやキーボードのキーを押すなどすることに応じて、投影用原稿のページ送り等の処理を行う。なお、制御部37は、プレゼンテーションが開始された段階からプレゼンテーションの終了予定時刻までの残り時間のカウントを開始する。
Next, in step S11, the
次いで、ステップS12では、制御部37は、予定されていたプレゼンテーションの進行スピード(進行度合い)と、現在のプレゼンテーションの進行スピード(進行度合い)とを比較し、プレゼンテーション時間が所定時間以上余るか否かを判断する。ここでの判断が肯定された場合には、ステップS13に移行し、制御部37は、ステップS8で取得した話題の一覧をディスプレイ35に表示し、発表者に提供する。その後は、ステップS14に移行する。
Next, in step S12, the
一方、ステップS12の判断が否定された場合には、ステップS14に移行する。ステップS14では、制御部37は、プレゼンテーションが終了したか否かを判断する。なお、制御部37は、プレゼンテーションが終了したか否かの判断を、例えば、投影用原稿の最終ページまで到達したかなどに基づいて行うこととすればよい。このステップS14の判断が否定された場合には、ステップS11に戻り、ステップS11〜S14の処理・判断を繰り返す。一方、ステップS14の判断が肯定された場合には、図4,5の全処理が終了する。
On the other hand, if the determination in step S12 is negative, the process proceeds to step S14. In step S14, the
以上、詳細に説明したように、本実施形態によると、第2通信部32が、プレゼンテーションに先立って、撮像装置20で取得された音声データと画像データとを制御部37に入力し、制御部37は、各データに基づいて、プレゼンテーションの視聴者の着席位置に関する情報を取得するとともに、視聴者のうち、プレゼンテーションの会場の客席前方に着席する視聴者(特定視聴者)の音声データと画像データとを取得する。これにより、制御部37は、客席前方に座る熱心な視聴者の特徴を音声データや画像データから取得できるようになる。また、制御部37が、会場内の視聴者のうちの熱心な視聴者に関する情報に基づいて、使用する投影用原稿の候補を提案したり、情報を提供したりすることで、発表者は適切な内容のプレゼンテーションを行うことが可能となる。すなわち、本実施形態の情報処理装置30によれば、多くの視聴者が集まる会場において実施されるプレゼンテーションの発表者を支援することができる。
As described above in detail, according to the present embodiment, the
また、本実施形態の情報処理装置30では、プレゼンテーションが行われる位置を検出するGPSモジュール33を備え、制御部37は、GPSモジュール33の検出結果に基づいて、プレゼンテーションの発表者に対して情報を提供する。これにより、制御部37は、プレゼンテーションが行われる会場の位置に関する話題や会場の位置に適した投影用原稿を提供することができるので、発表者は適切な内容のプレゼンテーションを行うことができる。
Further, the
また、本実施形態の情報処理装置30では、第2通信部32から取得した音声データに基づいて、制御部37が特定視聴者の性別や年齢層を推定し、当該推定結果に基づいて、発表者に投影用原稿を提供する。これにより、発表者は、熱心な視聴者の性別、年齢層に適したプレゼンテーションを実行することが可能となる。
In the
なお、上記実施形態では、制御部37は、画像データに基づき、例えば、資料に見入っている視聴者(特定視聴者)を検出し、当該特定視聴者の性別等に基づいて、投影用原稿を発表者に対して提案するようにしてもよい。
In the above-described embodiment, the
また、上記実施形態では、ステップS8で取得した話題をプレゼンテーション中に提供する(S13)場合について説明したが、これに限られるものではない。例えば、プレゼンテーションの前に話題を提供するようにしてもよく、この場合には、発表者は、プレゼンテーションの導入部分において当該話題を用いることが可能となる。 Moreover, although the said embodiment demonstrated the case where the topic acquired by step S8 is provided during a presentation (S13), it is not restricted to this. For example, a topic may be provided before the presentation. In this case, the presenter can use the topic in the introduction part of the presentation.
なお、プレゼンテーションの合間に休憩時間が設けられる場合には、制御部37は、休憩時間に上述した図4のステップS1〜S8の処理を行うこととしてもよい。この場合、制御部37は、休憩時間中の会話から、休憩時間前の内容の理解度がわかるので、当該理解度に応じて、休憩時間後の投影用原稿のレベルを上げる又は下げるようにしてもよい。
In addition, when a break time is provided between presentations, the
なお、上記実施形態では、制御部37は、性別分析の処理を音声データの基本周波数に基づいて行うこととしたが、これに限らず、性別分析の処理を画像データに基づいて行うこととしてもよい。
In the above embodiment, the
なお、上記実施形態では、画像データを用いた処理を制御部37が行う場合について説明したが、これに限らず、撮像装置20が有する画像処理装置等が行うこととしてもよい。この場合、情報処理装置30は、画像データのうち、検出した顔に関する情報のみを受け取ることとしてもよい。
In the above embodiment, the case where the
なお、上記実施形態で説明した、着席位置分析、年齢層分析、性別分析、キーワード分析、投影用原稿の選択及び提供、並びに話題の提供に関する処理は、情報処理装置30とネットワークを介して接続されたサーバ(クラウド)で行うこととしてもよい。この場合、図3の各データやテーブルは、サーバ(クラウド)が有していてもよい。このようにすることで、情報処理装置30における処理負荷を軽減するとともに、処理能力の大きなサーバで情報を処理するので、投影用原稿の提案及び話題の収集を迅速に実行することができる。また、情報処理装置30として、処理能力の低いモバイル端末等を用いることができるので、発表者の会場への機材搬入等の負担を軽減することができる。
Note that the processing related to seating position analysis, age group analysis, gender analysis, keyword analysis, projection document selection and provision, and topic provision described in the above embodiment is connected to the
なお、上記実施形態では、撮像装置20を会場内に複数設ける場合について説明したが、これに限らず、撮像装置20を会場内に1台のみ設け、当該撮像装置20により会場全体を撮像するようにしてもよい。
In the above embodiment, the case where a plurality of
なお、上記実施形態のプレゼンテーション支援システムは、プレゼンテーション(発表)以外の実演に転用することができる。例えば、歌手や演奏家の演奏や、映像の上映など、観客を集めて行われる実演の支援に利用することが可能である。演奏を行う場合、制御部37は、演奏開始前に取得した観客(前方の客席に着席している特定の観客)の年齢層、性別、音声から観客の好みの曲想や曲調を割り出し、演奏曲を提案することとしてもよい。この場合、歌手や演奏家等は、予め、年齢、性別及びキーワードから、曲想や曲調、演奏曲が導き出されるように設定しておけばよい。
In addition, the presentation support system of the said embodiment can be diverted to demonstrations other than presentation (presentation). For example, it can be used to support a performance performed by gathering spectators, such as a performance of a singer or a performer or a video screening. When performing a performance, the
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10 プレゼンテーション支援装置
20 撮像装置
30 情報処理装置
32 第2通信部
33 GPSモジュール
34 メモリ
40 投影装置
50 情報提供装置
60 ネットワーク
100 プレゼンテーション支援システム
DESCRIPTION OF
Claims (6)
前記入力部が入力した情報に基づいて、前記実演の視聴者の着席位置に関する情報を取得する第1情報取得部と、
前記入力部が入力した情報の中から、前記第1情報取得部が取得した情報に基づいて、前記視聴者のうち特定視聴者の前記音声情報と前記画像情報との少なくとも一方を取得する第2情報取得部と、を備えたことを特徴とする電子機器。 Prior to the demonstration, an input unit for inputting at least one of audio information and image information,
A first information acquisition unit that acquires information related to the seating position of the viewer of the demonstration based on the information input by the input unit;
A second acquisition unit that acquires at least one of the audio information and the image information of a specific viewer among the viewers based on information acquired by the first information acquisition unit from information input by the input unit. An electronic device comprising: an information acquisition unit.
前記情報提供部は、前記位置検出センサの検出結果に基づいて、前記実演者に情報を提供することを特徴とする請求項2記載の電子機器。 A position detection sensor for detecting a position where the demonstration is performed;
The electronic device according to claim 2, wherein the information providing unit provides the performer with information based on a detection result of the position detection sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012144410A JP2014011489A (en) | 2012-06-27 | 2012-06-27 | Electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012144410A JP2014011489A (en) | 2012-06-27 | 2012-06-27 | Electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014011489A true JP2014011489A (en) | 2014-01-20 |
Family
ID=50107842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012144410A Pending JP2014011489A (en) | 2012-06-27 | 2012-06-27 | Electronic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014011489A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001128134A (en) * | 1999-11-01 | 2001-05-11 | Atr Media Integration & Communications Res Lab | Presentation device |
JP2001266148A (en) * | 2000-03-17 | 2001-09-28 | Yokogawa Electric Corp | Performance evaluation system |
JP2002374527A (en) * | 2001-06-13 | 2002-12-26 | Ricoh Co Ltd | Recording and playback device for presentation |
JP2004252970A (en) * | 2003-01-30 | 2004-09-09 | Daiwa Securities Group Inc | Remote lecture system, method and program, information processing system and method, remote listening terminal device |
JP2006099195A (en) * | 2004-09-28 | 2006-04-13 | Sony Corp | Viewing and listening content provision system and viewing and listening content provision method |
JP2007213282A (en) * | 2006-02-09 | 2007-08-23 | Seiko Epson Corp | Speaker support device and speaker support method |
JP2008272019A (en) * | 2007-04-25 | 2008-11-13 | Oki Electric Ind Co Ltd | Group emotion recognition support system |
-
2012
- 2012-06-27 JP JP2012144410A patent/JP2014011489A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001128134A (en) * | 1999-11-01 | 2001-05-11 | Atr Media Integration & Communications Res Lab | Presentation device |
JP2001266148A (en) * | 2000-03-17 | 2001-09-28 | Yokogawa Electric Corp | Performance evaluation system |
JP2002374527A (en) * | 2001-06-13 | 2002-12-26 | Ricoh Co Ltd | Recording and playback device for presentation |
JP2004252970A (en) * | 2003-01-30 | 2004-09-09 | Daiwa Securities Group Inc | Remote lecture system, method and program, information processing system and method, remote listening terminal device |
JP2006099195A (en) * | 2004-09-28 | 2006-04-13 | Sony Corp | Viewing and listening content provision system and viewing and listening content provision method |
JP2007213282A (en) * | 2006-02-09 | 2007-08-23 | Seiko Epson Corp | Speaker support device and speaker support method |
JP2008272019A (en) * | 2007-04-25 | 2008-11-13 | Oki Electric Ind Co Ltd | Group emotion recognition support system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9894320B2 (en) | Information processing apparatus and image processing system | |
US10971188B2 (en) | Apparatus and method for editing content | |
KR102419513B1 (en) | Storing metadata related to captured images | |
KR102002979B1 (en) | Leveraging head mounted displays to enable person-to-person interactions | |
JP7283384B2 (en) | Information processing terminal, information processing device, and information processing method | |
US20220295119A1 (en) | Method and apparatus for interacting in live stream | |
US20130083151A1 (en) | Electronic device and method for controlling electronic device | |
JP6655378B2 (en) | Meeting support system | |
US8976218B2 (en) | Apparatus for providing feedback on nonverbal cues of video conference participants | |
KR20180113503A (en) | Information processing apparatus, information processing method, and program | |
JP7427408B2 (en) | Information processing device, information processing method, and information processing program | |
CN112136102A (en) | Information processing apparatus, information processing method, and information processing system | |
CN108028966B (en) | Video providing device, video providing method, and computer program | |
JP2012160793A (en) | Video conference system and apparatus for video conference, and program | |
CN109729367B (en) | Method and device for providing live media content information and electronic equipment | |
JP2013196594A (en) | Information processing apparatus, operation authorization program, and projection system | |
JP2007213282A (en) | Speaker support device and speaker support method | |
JP6973380B2 (en) | Information processing device and information processing method | |
US11178465B2 (en) | System and method for automatic subtitle display | |
US20190035420A1 (en) | Information processing device, information processing method, and program | |
US20230100151A1 (en) | Display method, display device, and display system | |
JP2014011489A (en) | Electronic apparatus | |
WO2022237381A1 (en) | Method for saving conference record, terminal, and server | |
KR102427761B1 (en) | Did device, did system, and control method for a did device | |
CN112396675A (en) | Image processing method, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160426 |