[go: up one dir, main page]

JP2019061629A - Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system - Google Patents

Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system Download PDF

Info

Publication number
JP2019061629A
JP2019061629A JP2017187960A JP2017187960A JP2019061629A JP 2019061629 A JP2019061629 A JP 2019061629A JP 2017187960 A JP2017187960 A JP 2017187960A JP 2017187960 A JP2017187960 A JP 2017187960A JP 2019061629 A JP2019061629 A JP 2019061629A
Authority
JP
Japan
Prior art keywords
dimensional
user
camera
person
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017187960A
Other languages
Japanese (ja)
Other versions
JP6881193B2 (en
Inventor
伸一 深澤
Shinichi Fukazawa
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017187960A priority Critical patent/JP6881193B2/en
Publication of JP2019061629A publication Critical patent/JP2019061629A/en
Application granted granted Critical
Publication of JP6881193B2 publication Critical patent/JP6881193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To enable a remote communication support system to provide a user with a video from a viewpoint suitable for the behaviors and psychological characteristics of the users.SOLUTION: There is provided an information processing apparatus comprising a learning unit that, when a three-dimensional line is designated, which is according to a three-dimensional selected position in a three-dimensional virtual space corresponding to a selected position based on a user's designation and a three-dimensional installation position of an imaging device including the three-dimensional selected position in an imaging range, and the imaging device corresponding to the three-dimensional line is designated as a viewpoint position of the user, calculates a browsing condition for the user for a person corresponding to an object present at the selected position on the basis of the three-dimensional selected position and the three-dimensional installation position, and calculates the relationship between the browsing condition and the number of times of designation of the viewpoint position.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システムに関する。   The present invention relates to an information processing apparatus, an information processing method, a program, a display control apparatus, a display control method, a program, and an information processing system.

近年、従来のようにハードウェアで実装される電話機に代わって、アプリケーションソフトウェアで実装されるソフトフォンが普及してきている。ソフトフォンはソフトウェアで実装されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。   2. Description of the Related Art In recent years, softphones implemented by application software have become widespread in place of telephones implemented by hardware as in the past. Since the softphone is implemented by software, the function addition to the softphone and the cooperation between the softphone and other application software can be realized relatively easily. Therefore, various application technologies related to soft phones have been proposed.

例えば、特許文献1には、フロアを俯瞰的に撮影する複数のカメラを備えたシステムと、そのカメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物をタッチすると、顔認識により当該人物を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。   For example, Patent Document 1 discloses a system including a plurality of cameras for photographing the floor in an overhead manner and face recognition when touching a person appearing in the photographed image on the display screen of the photographed image obtained from the camera. There is disclosed a technique of specifying the person by the above, acquiring the telephone number of the person, and calling out the person.

特開2007−208863号公報Unexamined-Japanese-Patent No. 2007-208863 特開2004−152276号公報Unexamined-Japanese-Patent No. 2004-152276

Gaver et al., One is not enough: multiple views in a media space, inProceedings of INTERCHI'93, pp.335-341, 1993.Gaver et al., One is not enough: multiple views in a media space, in Proceedings of INTERCHI '93, pp. 335-341, 1993.

しかし、上記特許文献1では、前記システムに複数のカメラを切り換える機能が備えられる旨は記載されているものの、そのカメラ切り換え操作のためのユーザインタフェースが具体的にどのような仕様になっているかということに関する記述が全くなされていない。   However, although Patent Document 1 describes that the system is provided with the function of switching a plurality of cameras, it is specifically described what specification the user interface for the camera switching operation is. There is no mention of that at all.

ここで、遠隔コミュニケーション支援システムにおけるカメラ切り換え機能とその操作の重要性について説明する。   Here, the importance of the camera switching function and its operation in the remote communication support system will be described.

遠隔地の被呼対象者に対して電話発呼を行う直前に、その遠隔地の映像が見えることで、発呼するユーザは前記被呼対象者のプレゼンス情報を知ることができる。プレゼンス情報は相手の状況を伝達するもので、その情報は量・質ともに高い方が好ましい。プレゼンス情報の質が高まると、被呼対象者が在席しているか否かのような大雑把な状況把握だけでなく、今は忙しそうか、もうすぐ離席しようとしているか等の、被呼対象者に関するさらに高度な状況把握が可能になる。その結果、発呼するユーザにとっては被呼対象者への話しかけやすさが向上し、一方、被呼対象者にとっては話しかけられたくない状況時に被呼される不都合の機会が減少する、という両者にとって有用な効果が得られる。   Just before making a call to a callee at a remote location, the user of the call can know the presence information of the callee by viewing the video of the remote location. Presence information conveys the situation of the other party, and it is preferable that the information be high in both quantity and quality. When the quality of the presence information is improved, not only the rough situation grasp such as whether or not the callee is present, but also the callee who is busy or is about to leave soon, etc. More advanced situational understanding of As a result, both the calling user's ease of talking to the callee is improved, while the callee's callee is less likely to be called when the call is not likely to be called. Useful effects can be obtained.

そして、被呼対象者が在席しているか否かではなく、上記のような高度な状況把握、すなわち「様子見」行動を遠隔環境で効果的に行うためには、相手の身体状態を多角的に観察できるシステム機能が必要となる。その機能を実現するために、前記遠隔コミュニケーション支援システムは複数のカメラを備えることが望ましいが、それだけでは十分ではない。   Then, in order to effectively perform the above-mentioned advanced situation grasping, that is, “watching” behavior in a remote environment, not the presence or absence of the callee, the physical condition of the other party is diversified. System functions that can be observed It is desirable, but not sufficient, that the telecommunication support system comprises a plurality of cameras to realize its function.

なぜなら、遠隔地に設置された複数のカメラの切り換え操作において、その操作ユーザが、いま自分は遠隔地のどこをどのカメラで見ているのか、見たい対象・位置を見るためには次にどのカメラを選択すればよいのかといった、複数カメラ同士の相互位置関係がわからず混乱してしまう問題(Spatial Discontinuities)の存在が従来指摘されているからである(非特許文献1)。   Because, in the switching operation of a plurality of cameras installed at remote locations, it is necessary for the operation user to see which camera at which remote location is currently being viewed by which camera, and the target / position to view. This is because the existence of a problem (Spatial Discontinuities) in which the mutual positional relationship between a plurality of cameras is not known, such as whether to select a camera, has been pointed out in the past (Non-Patent Document 1).

さらに、例えば、特許文献2には、ユーザが実行した機器機能選択操作履歴の情報からユーザが次に実行する機能選択操作の傾向を、ユーザが入力を行った時間と紐づけて学習し、ユーザによる機能選択操作を予測して支援する技術が、開示されている。   Furthermore, for example, in Patent Document 2, the user learns the tendency of the function selection operation to be executed next from the information of the device function selection operation history executed by the user in association with the time when the user performs the input. A technique for predicting and supporting function selection operations by the U.S. Pat.

しかし、上記特許文献2は、ユーザが操作するある情報機器において、あらかじめある機器開発者によって人的に定義された連鎖可能な機能系列内の機能単位を選択した情報を対象にした技術である。一方、本発明は、後述するように、実空間に対応する「位置」の指定情報を対象にした技術である。特に「カメラと被写人物との位置関係性」に基づき、ユーザ毎の視点選好という心理的特性に応じた位置指定履歴情報をシステムが学習する。そして、ユーザが指定した位置と前記視点選好特性に応じて、ユーザ毎に最適と予測される視点の位置をシステムがユーザに推薦提示するユーザインタフェースに関する技術である。   However, Patent Document 2 is a technology that targets, in a certain information device operated by a user, information in which a functional unit in a chainable function series, which is manually defined by a certain device developer, is selected. On the other hand, the present invention, as described later, is a technology directed to designation information of "position" corresponding to real space. In particular, based on “the positional relationship between the camera and the subject person”, the system learns position specification history information according to a psychological characteristic of viewpoint preference for each user. Then, according to the position designated by the user and the viewpoint preference characteristic, the system is a technique related to a user interface for recommending the position of the viewpoint predicted to be optimum for each user to the user.

そこで、本発明は、前記の複数カメラ同士の相互位置関係がわからず混乱してしまう問題を解決しつつ、直感的かつ効率的な操作を行えることによって、発呼するユーザが遠隔地の被呼対象者の状況を容易かつ高度に把握することを可能にするユーザインタフェースを提供する従来発明の効果をさらに高める技術を提供するものである。本発明は、位置情報に基づいた視点選択行動の学習処理により、各ユーザの行動および心理的特性に適した視点の映像を、遠隔コミュニケーション支援システムがユーザに提供できるようにすることを目的とする。   Therefore, the present invention solves the problem of confusion without being aware of the mutual positional relationship between the plurality of cameras while performing intuitive and efficient operation, so that the calling user can receive a call from a remote place. The present invention provides a technique for further enhancing the effect of the conventional invention, which provides a user interface that enables a user's situation to be easily and highly comprehended. An object of the present invention is to enable a remote communication support system to provide a user with an image of a viewpoint suitable for each user's behavior and psychological characteristics by learning processing of viewpoint selection behavior based on position information. .

本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、情報処理装置が提供される。   According to the present invention, a three-dimensional line corresponding to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. Is specified, and when the imaging device corresponding to the three-dimensional line is specified as the viewpoint position of the user, the object corresponding to the selected position is supported based on the three-dimensional selected position and the three-dimensional installation position. There is provided an information processing apparatus, comprising: a learning unit that calculates a viewing condition of the user with respect to a person who is to be and calculates a relationship between the viewing condition and the number of times of designation of the viewpoint position.

前記学習部は、前記視点位置の指定回数が最大となる前記閲覧条件を算出してもよい。   The learning unit may calculate the viewing condition in which the number of designations of the viewpoint position is maximum.

前記学習部は、前記3次元選択位置と前記3次元設置位置とに基づいて、少なくとも3次元仮想空間における前記人物と前記ユーザとの距離を前記閲覧条件として算出してもよい。   The learning unit may calculate a distance between the user and the person in at least a three-dimensional virtual space as the viewing condition based on the three-dimensional selection position and the three-dimensional installation position.

前記学習部は、前記距離と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記距離を算出してもよい。   The learning unit may calculate a relational expression between the distance and the number of designations of the viewpoint position, and may calculate the distance at which the designation number of the viewpoint position is maximum, based on the relational expression.

前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、少なくとも3次元仮想空間における前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出してもよい。   The learning unit uses an angle of a viewpoint position of the user with respect to the person in at least a three-dimensional virtual space as the viewing condition based on the three-dimensional selection position, the three-dimensional installation position, and information of the body direction of the person. It may be calculated.

前記学習部は、前記人物に紐づけられた前記3次元仮想空間に対応する実空間における机の設置方向の情報に基づいて前記人物の身体方向を取得してもよい。   The learning unit may acquire the body direction of the person based on the information of the installation direction of the desk in the real space corresponding to the three-dimensional virtual space linked to the person.

前記学習部は、前記撮像装置による撮像画像に対する前記人物の顔検出処理または人体3次元モデル作成処理に基づいて前記人物の身体方向を取得してもよい。   The learning unit may acquire a body direction of the person based on a face detection process of the person or a three-dimensional human body model creation process on an image captured by the imaging device.

前記学習部は、前記人物の身体に備え付けられたセンサ装置によって検出されたセンサデータに基づいて前記人物の身体方向を取得してもよい。   The learning unit may acquire the body direction of the person based on sensor data detected by a sensor device provided on the body of the person.

前記学習部は、前記角度と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記角度を算出してもよい。   The learning unit may calculate a relational expression between the angle and the number of times of designation of the viewpoint position, and calculate the angle at which the number of designation of the viewpoint position is maximum based on the relational expression.

前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、3次元仮想空間における前記人物と前記ユーザとの距離および前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出し、前記距離および前記角度と前記視点位置の指定回数とを変数として含む回帰式を算出し、前記回帰式に基づいて、前記視点位置の指定回数が最大となる前記距離および前記角度を算出してもよい。   The learning unit determines a distance between the user and the person in a three-dimensional virtual space and a viewpoint of the user with respect to the person based on the three-dimensional selection position, the three-dimensional installation position, and information of the body direction of the person. An angle of position is calculated as the viewing condition, and a regression equation including the distance and the angle and the number of times of designation of the viewpoint position as variables is calculated, and the number of times of designation of the viewpoint position is determined to be maximum based on the regression equation. And the angle may be calculated.

また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出することを含む、情報処理方法が提供される。   Further, according to the present invention, three according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When a dimensional line is specified and an imaging device corresponding to the three-dimensional line is specified as the viewpoint position of the user, an object existing at the selected position based on the three-dimensional selected position and the three-dimensional installation position An information processing method is provided, including: calculating a viewing condition of the user with respect to a person corresponding to; and calculating a relationship between the viewing condition and the designated number of times of the viewpoint position.

また、本発明によれば、コンピュータを、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、情報処理装置として機能させるためのプログラムが提供される。   Further, according to the present invention, a computer is divided into a three-dimensional selection position in a three-dimensional virtual space corresponding to a selection position specified by a user and a three-dimensional installation position of an imaging device including the three-dimensional selection position in an imaging range. When a corresponding three-dimensional line is specified and an imaging device corresponding to the three-dimensional line is specified as the viewpoint position of the user, based on the three-dimensional selection position and the three-dimensional installation position, A program for functioning as an information processing apparatus is provided, comprising: a learning unit that calculates a viewing condition of the user with respect to a person corresponding to an existing object, and calculates a relationship between the viewing condition and the number of designations of the viewpoint position. Ru.

また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、表示制御装置が提供される。   Further, according to the present invention, three according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. A dimensional line is specified, an imaging device corresponding to the three-dimensional line is specified as a viewpoint position of the user, and an object existing at the selected position is supported based on the three-dimensional selected position and the three-dimensional installation position. A display control unit including a display control unit configured to control a display according to the relationship when the viewing condition of the user with respect to the subject person is calculated and the relationship between the viewing condition and the number of designations of the viewpoint position is calculated; Provided.

前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインを選択し、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとが区別可能に視認されるように、前記選択した3次元ラインに対応する2次元ラインと前記他の3次元ラインに対応する2次元ラインとのうち少なくとも一方の表示態様を変更してもよい。   The display control unit selects a three-dimensional line according to the viewing condition in which the number of times of designation of the viewpoint position is the largest, and corresponds to a two-dimensional line corresponding to the selected three-dimensional line and another three-dimensional line The display mode of at least one of the two-dimensional line corresponding to the selected three-dimensional line and the two-dimensional line corresponding to the other three-dimensional line is changed so that the two-dimensional line and the three-dimensional line are distinguishably viewed. It is also good.

前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインにおける視点位置を算出し、算出した前記視点位置に対応する撮像画像が表示されるように制御してもよい。   The display control unit calculates a viewpoint position in a three-dimensional line according to the viewing condition where the number of times of designation of the viewpoint position is maximum, and performs control so that a captured image corresponding to the calculated viewpoint position is displayed. May be

また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御すること、を含む、表示制御方法が提供される。   Further, according to the present invention, three according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. A dimensional line is specified, an imaging device corresponding to the three-dimensional line is specified as a viewpoint position of the user, and an object existing at the selected position is supported based on the three-dimensional selected position and the three-dimensional installation position. A display control method is provided, including controlling display according to the relationship when the user's viewing condition for the person who is being calculated and the relationship between the viewing condition and the designated number of times of the viewpoint position are calculated; Be done.

また、本発明によれば、コンピュータを、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、表示制御装置として機能させるためのプログラムが提供される。   Further, according to the present invention, a computer is divided into a three-dimensional selection position in a three-dimensional virtual space corresponding to a selection position specified by a user and a three-dimensional installation position of an imaging device including the three-dimensional selection position in an imaging range. A corresponding three-dimensional line is specified, and an imaging device corresponding to the three-dimensional line is specified as the viewpoint position of the user, and exists at the selected position based on the three-dimensional selected position and the three-dimensional installation position. A display control unit configured to control display according to the relationship when a viewing condition of the user with respect to a person corresponding to an object is calculated and a relationship between the viewing condition and the number of designations of the viewpoint position is calculated; A program for functioning as a control device is provided.

また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部と、前記関係に応じた表示を制御する表示制御部と、を有する、情報処理システムが提供される。   Further, according to the present invention, three according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When a dimensional line is specified and an imaging device corresponding to the three-dimensional line is specified as the viewpoint position of the user, an object existing at the selected position based on the three-dimensional selected position and the three-dimensional installation position And a learning unit that calculates a viewing condition of the user with respect to a person corresponding to the user, and calculates a relationship between the viewing condition and the designated number of times of the viewpoint position; and a display control unit that controls display according to the relationship An information processing system is provided.

以上説明したように本発明によれば、遠隔コミュニケーション支援システムにおいて、ユーザが遠隔地の複数カメラ同士の相互位置関係がわからず認知的に混乱する問題を解決しつつ、直感的かつ効率的な操作を行えることによって、発呼するユーザが遠隔地の被呼対象者の状況を容易かつ高度に把握することが可能なシステムのユーザインタフェースの、利用品質が向上する。具体的には、ユーザが指定した遠隔地内の見たい位置に対して前記ユーザが選択できる見る位置の視点候補が複数である場合に、視点の候補数があらかじめ絞り込まれることで選択行為に伴うユーザの認知負荷が低減されたり、学習データの蓄積が増え予測精度が上がれば、ユーザは前記見たい位置を指定するだけでその後の前記見る位置の決定をシステムに任せられるため、操作ステップ数が減り、ユーザの指定入力行為の労力が低減されたりする。   As described above, according to the present invention, in the remote communication support system, the user can operate intuitively and efficiently while solving the problem of cognitive confusion without knowing the mutual positional relationship between the plurality of cameras in the remote location. Can improve the quality of use of the user interface of the system that allows the calling user to easily and highly understand the situation of the remote called party. Specifically, when there are a plurality of viewpoint candidates of the viewing position that can be selected by the user with respect to the remote location designated by the user, the number of viewpoint candidates is narrowed down in advance, thereby causing the user to accompany the selection action. If the cognitive load of the subject is reduced or the accumulation of learning data is increased and the prediction accuracy is improved, the user can designate the desired position and leave the subsequent determination of the viewed position to the system, reducing the number of operation steps. , The effort of the user's designated input action is reduced.

一実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。It is an explanatory view showing an example of rough composition of an information processing system concerning one embodiment. 一実施形態に係る端末装置のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of the hardware constitutions of the terminal unit concerning one embodiment. 一実施形態に係る端末装置の機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a terminal unit concerning one embodiment. 俯瞰モードで表示される表示画面の一例を説明するための説明図である。It is an explanatory view for explaining an example of a display screen displayed in an eyebrow mode. 近接モードで表示される表示画面の一例を説明するための説明図である。It is an explanatory view for explaining an example of a display screen displayed in proximity mode. ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。It is an explanatory view for explaining the 1st example of a position in a proximity image pick-up picture specified by a user. ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of the position in the proximity | contact captured image designated by the user. センタオフィスに対応する3次元仮想空間の第1の例を説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of the three-dimensional virtual space corresponding to a center office. 図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。FIG. 9 is an explanatory diagram for describing an example of selection of an object arranged in the three-dimensional virtual space shown in FIG. 8; センタオフィスに対応する3次元仮想空間の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of the three-dimensional virtual space corresponding to a center office. 図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。FIG. 11 is an explanatory diagram for describing an example of selection of an object arranged in the three-dimensional virtual space shown in FIG. 10; 会話モードで表示される表示画面の一例を説明するための説明図である。It is an explanatory view for explaining an example of a display screen displayed in conversation mode. 表示モードの遷移の一例を説明するための遷移図である。It is a transition diagram for demonstrating an example of transition of a display mode. センタオフィスに対応する3次元仮想空間内におけるカメララインの例を説明するための説明図である。It is an explanatory view for explaining an example of a camera line in a three-dimensional virtual space corresponding to a center office. 端末装置の表示画面に表示されるカメララインの一例を説明するための説明図である。It is an explanatory view for explaining an example of a camera line displayed on a display screen of a terminal unit. カメラライン上の位置を指定するタッチ入力とそれに対するフィードバック表示のいくつかの例を説明するための説明図である。It is an explanatory view for explaining some examples of touch input which specifies a position on a camera line, and a feedback display to it. 図14に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。FIG. 15 is an explanatory diagram for describing an example of selection of an object arranged in the three-dimensional virtual space shown in FIG. 14; カメララインが近傍に複数存在する場合の端末装置100の表示画面の一例を説明するための説明図である。It is an explanatory view for explaining an example of a display screen of terminal unit 100 in case multiple camera lines exist near. 一実施形態に係る端末装置のソフトウェア構成の一例を示すブロック図である。It is a block diagram showing an example of the software configuration of the terminal unit concerning one embodiment. 一実施形態に係る情報管理サーバのハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of the hardware constitutions of the information management server concerning one embodiment. 一実施形態に係る情報管理サーバの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of an information management server concerning one embodiment. 一実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。It is a flow chart which shows an example of a rough flow of information processing concerning one embodiment. 一実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。It is a flow chart which shows an example of a rough flow of starting processing concerning one embodiment. 図18に対して変形例1の機能を適用した表示の一例を示す図である。It is a figure which shows an example of the display which applied the function of the modification 1 with respect to FIG. 撮影画像の品質の高低をカメララインの表示形態に対応させて描画した例を示す図である。It is a figure which shows the example which made the quality of the picked-up image high and low corresponded to the display form of a camera line. 端末装置の表示画面に表示される選好予測カメララインの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the preference prediction camera line displayed on the display screen of a terminal device. 視点の位置指定データの学習処理に用いられるデータの一例を示す図である。It is a figure which shows an example of the data used for the learning process of the point designation data of a viewpoint. 人物周りの水平面角度分類概念図である。It is a horizontal plane angle classification conceptual diagram around a person. あるユーザAの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す図である。It is a figure which shows an example of the statistical data of the browsing person angle in the viewpoint position designation operation log of a certain user A. FIG. あるユーザBの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す図である。It is a figure which shows an example of the statistical data of the browsing person angle in the viewpoint position designation operation log of a certain user B. FIG. 本実施形態に係る学習および推薦処理の概略的な流れの一例を示すフローチャートである。It is a flow chart which shows an example of the rough flow of study and recommendation processing concerning this embodiment.

以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   The present invention will now be described more fully with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. In the present specification and the drawings, components having substantially the same functional configuration will be assigned the same reference numerals and redundant description will be omitted.

以降、<1.情報処理システムの概略的な構成>、<2.端末装置の構成>、<3.情報管理サーバの構成>、<4.処理の流れ>という順序で本発明の実施形態を説明する。   From then on, <1. Schematic Configuration of Information Processing System>, <2. Configuration of Terminal Device>, <3. Configuration of Information Management Server>, <4. Processing Flow> The embodiment of the present invention will be described in the order of

<<1.情報処理システムの概略的な構成>>
まず、図1を参照して、本発明の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システムは、例えば、複数の拠点にわたって存在する。この例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィスと20)にわたって存在する。センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィスと20)は、比較的小規模なオフィスである。
<< 1. Schematic configuration of information processing system >>
First, a schematic configuration of an information processing system according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory view showing an example of a schematic configuration of an information processing system according to the present embodiment. Referring to FIG. 1, the information processing system exists, for example, over a plurality of bases. In this example, the information processing system exists across the center office 10 and the satellite office 20 (or the home office 20). The center office 10 is a relatively large office, and the satellite office 20 (or home office and 20) is a relatively small office.

情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200(情報処理装置)、及びLAN(Local Area Network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィスと20)において、端末装置100(表示制御装置)、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらにPBX(Private Branch eXchange)40を含む。   The information processing system includes, in the center office 10, a camera 11, a microphone 13, a sensor 15, a media distribution server 17, an information management server 200 (an information processing apparatus), and a LAN (Local Area Network) 19. The information processing system also includes a terminal device 100 (display control device), a display 21 and a LAN 23 in the satellite office 20 (or home office and 20). The information processing system further includes a PBX (Private Branch eXchange) 40.

(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)の領域を撮像する。センタオフィス10には、複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィスの一部又は全体を撮像する。このように、情報処理システムでは、様々な位置からセンタオフィスが撮像される。カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよい。
(Camera 11)
The camera 11 captures an area in the direction in which the camera 11 is directed (that is, the imaging direction). In the center office 10, a plurality of cameras 11 are installed. And each installed camera 11 images a part or whole of a center office from each installation position. Thus, in the information processing system, the center office is imaged from various positions. The captured image generated through the camera 11 may be a still image or a moving image (i.e., an image).

また、カメラ11は、例えば、自動で向きを変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよい。   Also, the camera 11 can automatically change its direction, for example. Furthermore, the camera 11 has, for example, a zoom function. The zoom function may be an optical zoom function or a digital zoom function.

また、カメラ11は、位置を変えることが可能であってもよい。一例として、カメラ11は、ドリーにより可動であってもよい。即ち、カメラ11は、レールに沿って可動であってもよい。この場合に、レールに沿って動くためのモータの制御により、カメラ11が前後に動いてもよい。これにより、1台のカメラ11であっても、異なる位置から被写体が撮像された撮像画像を生成することが可能になる。   Also, the camera 11 may be capable of changing its position. As an example, the camera 11 may be movable by dolly. That is, the camera 11 may be movable along the rails. In this case, the camera 11 may move back and forth by controlling the motor to move along the rails. Thus, even with one camera 11, it is possible to generate a captured image in which a subject is captured from different positions.

また、カメラ11が位置を変えることが可能である場合に、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。一例として、上記ズーム機能は、ドリーによるズーム機能であってもよい。例えば、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズームは、光学ズーム又はデジタルズームのように、精緻なズームである必要はない。例えば、ズームインでは、被写体がより大きく写った撮像画像が生成されればよく、ズームアウトでは、被写体がより小さく写った撮像画像が生成されればよい。   In addition, when the camera 11 can change the position, the zoom function may be a zoom function by changing the position of the camera 11. As one example, the zoom function may be a dolly zoom function. For example, zooming in may be performed by moving the camera 11 toward the subject, and zooming out may be performed by moving the camera 11 in a direction away from the subject. Note that the dolly zoom does not have to be a fine zoom like optical zoom or digital zoom. For example, in zoom-in, a captured image in which a subject is captured in a larger size may be generated, and in zoom-out, a captured image in which a subject is captured in a smaller size may be generated.

(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、複数のマイクロフォン13が設置される。そして、設置された各マイクロフォン13は、センタオフィス内のそれぞれの設置位置の周囲の音を集音する。このように、情報処理システムでは、センタオフィス10内の様々な位置での音が集音される。
(Microphone 13)
The microphone 13 collects sound around the microphone 13. In the center office 10, a plurality of microphones 13 are installed. And each installed microphone 13 collects the sound around each installation position in a center office. As described above, in the information processing system, sounds at various positions in the center office 10 are collected.

(センサ15)
センサ15は、様々な種類のセンサを含み得る。例えば、センサ15は、人物が座席にいるか否かを判定する座席センサを含む。当該座席センサは、各座席に設置され、各座席に人物が座っているか否かを判定する。座席センサは、例えば、押圧を検出可能ないずれかのセンサである。
(Sensor 15)
Sensor 15 may include various types of sensors. For example, the sensor 15 includes a seat sensor that determines whether a person is in a seat. The seat sensor is installed in each seat and determines whether a person is sitting in each seat. The seat sensor is, for example, any sensor that can detect a press.

(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置にメディア(例えば、音声、映像等)を配信する。
(Media distribution server 17)
The media distribution server 17 distributes media (for example, audio, video, etc.) to the terminal device in response to the request.

(情報管理サーバ200)
情報管理サーバ200は、情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ200は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。
(Information management server 200)
The information management server 200 manages various information used in the information processing system. That is, the information management server 200 stores the various information and updates the various information in a timely manner.

例えば、情報管理サーバ200は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ200は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラのレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。   For example, the information management server 200 manages parameters related to the camera 11, the microphone 13, and the sensor 15. Specifically, for example, the information management server 200 stores and updates information such as the installation position of the camera 11, the imaging direction (for example, the direction perpendicular to the lens of the camera), and the zoom ratio as parameters of the camera 11. .

また、例えば、情報管理サーバ200は、実空間に対応する3次元仮想空間のデータを管理する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。また、当該3次元仮想空間には、オブジェクトが配置される。例えば、当該オブジェクトは、人物に対応する。そして、当該オブジェクトは、センタオフィス10の各座席の位置に対応する上記3次元仮想空間内の3次元仮想位置に配置される。即ち、人物が座席に座っている場合には当該人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクトが配置される。一例として、当該オブジェクトは、円柱のオブジェクトである。3次元仮想空間については後述する。   Also, for example, the information management server 200 manages data of a three-dimensional virtual space corresponding to a real space. The three-dimensional virtual space is, for example, a three-dimensional virtual space imitating the center office 10. In addition, an object is arranged in the three-dimensional virtual space. For example, the object corresponds to a person. Then, the object is arranged at a three-dimensional virtual position in the three-dimensional virtual space corresponding to the position of each seat of the center office 10. That is, when the person is sitting in the seat, the object is placed at a three-dimensional virtual position corresponding to the position where the person would be. As an example, the object is a cylindrical object. The three-dimensional virtual space will be described later.

(LAN19)
また、LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。当該外部ネットワーク30は、例えば、インターネットを含む。
(LAN 19)
The LAN 19 is a network that connects the devices in the center office 10. The LAN 19 also connects devices in the center office 10 to devices outside the center office 10 via the external network 30. The external network 30 includes, for example, the Internet.

(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。端末装置100は、一例としてタブレット端末である。なお、端末装置100は、タブレット端末の代わりに、スマートフォン、PC(Personal Computer)、ディスプレイ付き電話機等の、表示機能及び通信機能を有する別の装置であってもよい。
(Terminal device 100)
The terminal device 100 is used by a user. For example, the terminal device 100 provides the user with a function for performing communication such as telephone calls and mails. The terminal device 100 is a tablet terminal as an example. The terminal device 100 may be another device having a display function and a communication function, such as a smartphone, a PC (Personal Computer), and a telephone with a display, instead of the tablet terminal.

(ディスプレイ21)
ディスプレイ21は、いずれかの画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて生成された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。
(Display 21)
The display 21 displays one of the screens. For example, the display 21 displays a screen including a captured image generated through the camera 11. Thereby, many persons including the user of the terminal device 100 can view the state of the center office 10 through the display 21.

また、ディスプレイ21は、例えば、いずれかの音声も出力する。例えば、ディスプレイ21は、マイクロフォン13により集音される音声を出力する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の音を聞くことができる。   The display 21 also outputs, for example, any sound. For example, the display 21 outputs the sound collected by the microphone 13. Thereby, many persons including the user of the terminal device 100 can hear the sound of the center office 10 through the display 21.

(LAN23)
また、LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。
(LAN23)
The LAN 23 is a network connecting devices in the satellite office 20 (or home office 20). Further, the LAN 23 connects each device in the satellite office 20 to a device outside the satellite office 20 via the external network 30.

(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作する。
(PBX 40)
The PBX 40 enables communication between devices via the external network 30. For example, in the H. It operates according to H.323 or SIP (Session Initiation Protocol).

具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。   Specifically, for example, the PBX 40 stores communication identification information (for example, a telephone number) and an IP (Internet Protocol) address in association with each other. Then, in response to the request, the PBX 40 converts communication identification information into an IP address, and provides the IP address to the request source.

なお、PBX40は、LAN19又はLAN23に接続されてもよい。   The PBX 40 may be connected to the LAN 19 or the LAN 23.

<<2.端末装置の構成>>
続いて、図2〜図19を参照して、本実施形態に係る端末装置100の構成の一例を説明する。
<< 2. Terminal Configuration >>
Then, with reference to Drawing 2-Drawing 19, an example of composition of terminal unit 100 concerning this embodiment is explained.

<2−1.ハードウェア構成>>
まず、図2を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図2は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、端末装置100は、CPU(Central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を備える。
<2-1. Hardware configuration >>
First, an example of the hardware configuration of the terminal device 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the hardware configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 2, the terminal device 100 includes a central processing unit (CPU) 801, a read only memory (ROM) 803, a random access memory (RAM) 805, a bus 807, a storage device 809, a communication interface 811, a camera 813 and a microphone. 815, a speaker 817 and a touch panel 820 are provided.

CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。また、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。   The CPU 801 executes various processes in the terminal device 100. The ROM 803 also stores programs and data for causing the CPU 801 to execute processing in the terminal device 100. The RAM 805 temporarily stores programs and data when the CPU 801 executes processing.

バス807は、CPU801、ROM803及びRAMを相互に接続する。バス807には、さらに、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。一例として、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。   The bus 807 connects the CPU 801, the ROM 803, and the RAM to one another. Further, a storage device 809, a communication interface 811, a camera 813, a microphone 815, a speaker 817, and a touch panel 820 are connected to the bus 807. The bus 807 includes, for example, a plurality of types of buses. As one example, the bus 807 includes a high speed bus connecting the CPU 801, the ROM 803 and the RAM 805, and one or more other buses slower than the high speed bus.

記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。   The storage device 809 stores data to be temporarily or permanently stored in the terminal device 100. The storage device 809 may be, for example, a magnetic storage device such as a hard disk, or an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, a MRAM (Magnetoresistive Random Access Memory). The memory may be a non-volatile memory such as a ferroelectric random access memory (FeRAM) and a phase change random access memory (PRAM).

通信インターフェース811は、端末装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。   The communication interface 811 is communication means included in the terminal device 100, and communicates with an external device via a network (or directly). The communication interface 811 may be an interface for wireless communication, and in this case, may include, for example, a communication antenna, an RF circuit, and other circuits for communication processing. The communication interface 811 may be an interface for wired communication, and in this case, may include, for example, a LAN terminal, a transmission circuit, and other circuits for communication processing.

カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。   The camera 813 captures an image of a subject. The camera 813 includes, for example, an optical system, an imaging device, and an image processing circuit.

マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。   The microphone 815 collects surrounding sounds. The microphone 815 converts ambient sound into an electrical signal and converts the electrical signal into digital data.

スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。   The speaker 817 outputs sound. The speaker 817 converts digital data into an electrical signal and converts the electrical signal into sound.

タッチパネル820は、タッチ検出面821及び表示面823を含む。   The touch panel 820 includes a touch detection surface 821 and a display surface 823.

タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。   The touch detection surface 821 detects a touch position on the touch panel 820. More specifically, for example, when the user touches the touch panel 820, the touch detection surface 821 senses the touch, generates an electric signal according to the position of the touch, and detects the electric signal at the touch position. Convert to information. The touch detection surface 821 may be formed, for example, according to an arbitrary touch detection method such as an electrostatic capacitance method, a resistive film method, or an optical method.

表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。   The display surface 823 displays an output image (that is, a display screen) from the terminal device 100. The display surface 823 can be realized using, for example, a liquid crystal, an organic light-emitting diode (OLED), a cathode ray tube (CRT), or the like.

<2−2.機能構成>>
次に、本実施形態に係る端末装置100の機能構成の一例を説明する。図3は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を備える。
2-2. Functional configuration >>
Next, an example of a functional configuration of the terminal device 100 according to the present embodiment will be described. FIG. 3 is a block diagram showing an example of a functional configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 3, the terminal device 100 includes a communication unit 110, an input unit 120, an imaging unit 130, a sound collection unit 140, a display unit 150, an audio output unit 160, a storage unit 170, and a control unit 180.

(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、LAN23に直接的に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び情報管理サーバ200と通信する。なお、通信部110は、例えば、通信インターフェース811により実装され得る。
(Communication unit 110)
The communication unit 110 communicates with other devices. For example, the communication unit 110 is directly connected to the LAN 23 and communicates with each device in the satellite office 20. The communication unit 110 also communicates with each device in the center office 10 via the external network 30 and the LAN 19. Specifically, for example, the communication unit 110 communicates with the camera 11, the microphone 13, the sensor 15, the media distribution server 17, and the information management server 200. The communication unit 110 may be implemented by, for example, the communication interface 811.

(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を制御部180へ提供する。
(Input unit 120)
The input unit 120 receives an input by the user of the terminal device 100. Then, the input unit 120 provides the input result to the control unit 180.

例えば、入力部120は、表示画面においてユーザにより指定される位置を検出する。より具体的には、例えば、入力部120は、タッチ検出面821により実装され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。   For example, the input unit 120 detects the position designated by the user on the display screen. More specifically, for example, the input unit 120 is mounted by the touch detection surface 821 and detects a touch position on the touch panel 820. Then, the input unit 120 provides the detected touch position to the control unit 180.

(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合に、撮像部130は、端末装置100のユーザを撮像する。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実装され得る。
(Imaging unit 130)
The imaging unit 130 captures an image of a subject. For example, the imaging unit 130 captures an area in the front direction of the terminal device 100. In this case, the imaging unit 130 captures an image of the user of the terminal device 100. The imaging unit 130 provides the control unit 180 with an imaging result (that is, a captured image). The imaging unit 130 may be mounted by, for example, the camera 813.

(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音する。集音部140は、集音結果(即ち、音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実装され得る。
(Sound collecting unit 140)
The sound collecting unit 140 collects sounds around the terminal device 100. For example, the sound collection unit 140 collects the voice of the user of the terminal device 100. The sound collection unit 140 provides the control unit 180 with the sound collection result (i.e., audio data). The sound collection unit 140 may be implemented by the microphone 815, for example.

(表示部150)
表示部150は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、表示面823により実装され得る。
(Display unit 150)
The display unit 150 displays an output image (that is, a display screen) from the terminal device 100. The display unit 150 displays a display screen according to control by the control unit 180. Note that the display unit 150 can be mounted by, for example, the display surface 823.

(音声出力部160)
音声出力部160は、端末装置100から音声を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実装され得る。
(Voice output unit 160)
The voice output unit 160 outputs voice from the terminal device 100. The voice output unit 160 outputs voice in accordance with control by the control unit 180. The audio output unit 160 may be implemented by, for example, the speaker 817.

(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実装され得る。
(Storage unit 170)
The storage unit 170 stores programs and data for the operation of the terminal device 100. The storage unit 170 may be implemented by, for example, the storage device 809.

例えば、記憶部170は、実空間に対応する3次元仮想空間のデータを記憶する。具体的には、例えば、情報管理サーバ200が、センタオフィス10に対応する3次元仮想空間のデータを記憶しているので、制御部180が、通信部110を介して、上記3次元仮想空間のデータを取得する。そして、記憶部170は、取得された当該3次元仮想空間のデータを記憶する。   For example, the storage unit 170 stores data of a three-dimensional virtual space corresponding to a real space. Specifically, for example, since the information management server 200 stores data of the three-dimensional virtual space corresponding to the center office 10, the control unit 180 can communicate with the three-dimensional virtual space via the communication unit 110. Get data Then, the storage unit 170 stores the acquired data of the three-dimensional virtual space.

(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、実空間情報提供部181、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、カメラライン制御部191、カメラライン選別部193及びカメラライン推薦部195を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実装され得る。
(Control unit 180)
The controller 180 provides various functions of the terminal device 100. Control unit 180 includes real space information providing unit 181, position acquisition unit 183, object selection unit 185, ID acquisition unit 187, telephone unit 189, camera line control unit 191, camera line selection unit 193, and camera line recommendation unit 195. . The control unit 180 can be implemented by, for example, the CPU 801, the ROM 803, and the RAM 805.

(実空間情報提供部181)
実空間情報提供部181は、実空間の情報を端末装置100のユーザに提供する。
(Real space information provider 181)
The real space information provision unit 181 provides the user of the terminal device 100 with information of the real space.

例えば、実空間情報提供部181は、表示部150に、実空間の撮像画像の表示画面を表示させる。より具体的には、例えば、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。   For example, the real space information provision unit 181 causes the display unit 150 to display a display screen of a captured image of the real space. More specifically, for example, the captured image is a captured image generated through the camera 11 in the real space (center office 10). The captured image may be a captured image generated by the camera 11 or may be a captured image generated by processing the captured image generated by the camera 11. Further, the display screen is a screen including the captured image in part or in whole.

実空間情報提供部181は、通信部110を介して、カメラ11により生成される撮像画像を取得する。そして、実空間情報提供部181は、撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。   The real space information provision unit 181 acquires a captured image generated by the camera 11 via the communication unit 110. Then, the real space information provision unit 181 generates a display screen including the captured image, and causes the display unit 150 to display the display screen.

また、例えば、上記撮像画像は、実空間内にある複数の撮像装置のうちの選択された1つの撮像装置を通じて生成された撮像画像である。より具体的には、例えば、上記撮像画像は、センタオフィス10に配置された複数のカメラ11のうちの選択された1つのカメラ11を通じて生成された撮像画像である。ユーザがカメラ11をどのように選択するかに関する具体的な手法は後述する。カメラ11を選択できるので、ユーザは所望の位置からの撮像画像を見ることができる。そして、後述するように撮像画像の位置を指定する際に、ユーザはより望ましい撮像画像で位置を指定することができる。   Also, for example, the captured image is a captured image generated through a selected one of the plurality of imaging devices in the real space. More specifically, for example, the captured image is a captured image generated through one camera 11 selected from the plurality of cameras 11 disposed in the center office 10. The specific method regarding how the user selects the camera 11 will be described later. Since the camera 11 can be selected, the user can view a captured image from a desired position. And when specifying the position of a captured image so that it may mention later, a user can specify a position with a more desirable captured image.

また、例えば、上記表示画面は、表示モードに応じた撮像画像を含む。より具体的には、例えば、上記表示画面は、第1の表示モードでは、実空間の第1の領域が撮像された第1の撮像画像を含み、第2の表示モードでは、第1の領域よりも狭い第2の領域が撮像された第2の撮像画像を含む。即ち、実空間情報提供部181は、第1の表示モードでは、上記第1の撮像画像を表示部150に表示させ、第2の表示モードでは、上記第2の撮像画像を表示部150に表示させる。   Also, for example, the display screen includes a captured image according to the display mode. More specifically, for example, in the first display mode, the display screen includes a first captured image obtained by capturing a first area of the real space, and in the second display mode, the first area. A narrower second region includes the second captured image captured. That is, the real space information provision unit 181 causes the display unit 150 to display the first captured image in the first display mode, and displays the second captured image on the display unit 150 in the second display mode. Let

さらに具体的には、例えば、上記第1の撮像画像は、第1のズーム率に対応する撮像画像である。そして、上記第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。例えば、実空間情報提供部181は、通信部110を介して、カメラ11へのズーム(光学ズーム、デジタルズーム、又は撮像装置の位置の変更によるズーム(例えば、ドリーによるズーム))に関する要求を行うことにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を取得する。または、実空間情報提供部181は、カメラ11により生成された撮像画像に対するデジタルズームにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を生成してもよい。なお、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものであればよい。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。第1のズーム率に対応する撮像画像は、被写体がより小さく写っている撮像画像であり、第1のズーム率よりも大きい第2のズーム率に対応する撮像画像は、被写体がより大きく写っている撮像画像であればよい。   More specifically, for example, the first captured image is a captured image corresponding to a first zoom ratio. The second captured image is a captured image corresponding to a second zoom ratio that is larger than the first zoom ratio. For example, the real space information providing unit 181 requests the camera 11 to perform zoom (optical zoom, digital zoom, or zoom by changing the position of the imaging device (for example, zoom by dolly)) via the communication unit 110. Thus, the captured image corresponding to the first zoom factor or the captured image corresponding to the second zoom factor is acquired. Alternatively, the real space information provision unit 181 may generate a captured image corresponding to the first zoom ratio or a captured image corresponding to the second zoom ratio by digital zoom on the captured image generated by the camera 11 . Note that the zoom ratio here does not have to be a precise value such as 1.5 times or 2 times, and may be a value that directly or indirectly indicates the extent to which the subject appears in the captured image. . For example, particularly when zoom by changing the position of the camera 11 (for example, zoom in and zoom out by dolly) is used, the zoom factor is not a minute value such as 1.5 times or 2 times, but the size of the object. Something that directly indicates the degree of size (eg, a parameter that indicates the degree of approximate size of the subject, etc.), or that indirectly indicates the degree of size of the subject (eg, the position of the camera 11 on the rail , Etc.). The captured image corresponding to the first zoom ratio is a captured image in which the subject is captured smaller, and the captured image corresponding to a second zoom ratio larger than the first zoom ratio is captured in a larger object. The captured image is sufficient.

一例として、上記表示画面は、俯瞰モードでは、X倍のズーム率(例えば、X=1)での撮像でカメラ11により生成された俯瞰撮像画像を含み、近接モードでは、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された近接撮像画像を含む。即ち、俯瞰撮像画像は、センタオフィス10のより広い領域が撮像された撮像画像であり、近接撮像画像は、センタオフィス10のより狭い領域が撮像された撮像画像である。以下、この点について図4及び図5を参照して具体例を説明する。   As an example, the display screen includes a bird's-eye view image generated by the camera 11 in imaging at a zoom ratio of X (for example, X = 1) in the bird's-eye mode, and in the proximity mode It includes a close-up captured image generated by the camera 11 in imaging at Y> X). That is, the overhead image is a captured image in which a wider area of the center office 10 is captured, and the close-up captured image is a captured image in which a narrower area of the center office 10 is captured. Hereinafter, this example will be described with reference to FIGS. 4 and 5.

−俯瞰モードで表示される表示画面
図4は、俯瞰モードで表示される表示画面の一例を説明するための説明図である。図4を参照すると、俯瞰モードで表示される表示画面60が示されている。表示画面60は、俯瞰撮像画像61、ボタン画像63、プレゼンスアイコン65、吹き出し画像67及びマップ画像69を含む。
-Display Screen Displayed in Eyebrow Mode FIG. 4 is an explanatory diagram for describing an example of a display screen displayed in the eyelid mode. Referring to FIG. 4, a display screen 60 displayed in the overhead mode is shown. The display screen 60 includes an eyelid captured image 61, a button image 63, a presence icon 65, a balloon image 67, and a map image 69.

俯瞰撮像画像61は、例えば、X倍のズーム率での撮像でカメラ11により生成された撮像画像である。一例として、X=1である。即ち、俯瞰撮像画像61は、ズームなしの撮像でカメラ11により生成された撮像画像である。   The bird's-eye view pickup image 61 is, for example, a pickup image generated by the camera 11 by imaging at a zoom ratio of X times. As an example, X = 1. That is, the overhead view captured image 61 is a captured image generated by the camera 11 by imaging without zooming.

また、例えば、ユーザが、俯瞰撮像画像61の位置を指定すると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。より具体的には、例えば、ユーザが俯瞰撮像画像61の位置をタッチし、俯瞰撮像画像61に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。   Also, for example, when the user specifies the position of the overhead view captured image 61, the real space information provision unit 181 switches the display mode from the overhead mode to the proximity mode. More specifically, for example, when the user touches the position of the eyelid captured image 61 and the touch position corresponding to the eyelid captured image 61 is detected, the real space information provision unit 181 brings the display mode closer to the eyelid mode. Switch to mode.

また、ボタン画像63は、別のカメラ11を選択するための画像である。例えば、ユーザが、ボタン画像63の位置を指定すると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。より具体的には、例えば、ユーザがボタン画像63の位置をタッチし、ボタン画像63に対応するタッチ位置が検出されると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。例えば、ボタン画像63Aの位置がユーザにより指定されると、現在のカメラ11の左側に位置するカメラ11が選択される。また、ボタン画像63Bの位置がユーザにより指定されると、現在のカメラ11の右側に位置するカメラ11が選択される。そして、実空間情報提供部181は、選択されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に、当該俯瞰撮像画像を表示させる。   The button image 63 is an image for selecting another camera 11. For example, when the user specifies the position of the button image 63, the real space information provision unit 181 acquires a bird's-eye view captured image generated by another camera 11, and causes the display unit 150 to display the bird's-eye view captured image. More specifically, for example, when the user touches the position of the button image 63 and the touch position corresponding to the button image 63 is detected, the real space information providing unit 181 generates an image generated by another camera 11. A captured image is acquired, and the overhead view captured image is displayed on the display unit 150. For example, when the position of the button image 63A is designated by the user, the camera 11 located on the left side of the current camera 11 is selected. In addition, when the position of the button image 63B is designated by the user, the camera 11 located on the right side of the current camera 11 is selected. Then, the real space information provision unit 181 acquires the overhead view captured image generated by the selected camera 11, and causes the display unit 150 to display the overhead view captured image.

また、プレゼンスアイコン65は、撮像画像61に写る人物の繁忙度を示すアイコンである。例えば、プレゼンスアイコン65は、人物の繁忙度に応じて色が変わる。一例として、プレゼンスアイコンは、赤色の場合に繁忙度が高いことを示し、黄色の場合に繁忙度が普通であることを示し、青色の倍に繁忙度が低いことを示す。後述するように、撮像画像61のうちのどこに人物が写っているはずであるかが分かるので、このようなアイコンを表示することも可能である。   Further, the presence icon 65 is an icon indicating the degree of busyness of the person shown in the captured image 61. For example, the presence icon 65 changes color according to the busyness of the person. As an example, the presence icon indicates that the degree of busyness is high when it is red, it indicates that the degree of busyness is normal when it is yellow, and that the degree of busyness is low when it is blue. As described later, since it can be known where in the captured image 61 a person should be shown, it is possible to display such an icon.

例えばこのように、表示画面60は、例えば、俯瞰撮像画像61に写る人物に関連する情報(以下、「人物関連情報」と呼ぶ)を含む。そして、人物関連情報は、例えば、上記人物の状態を示す状態情報を含む。上述したように、当該状態情報は、一例としてプレゼンスアイコン65である。なお、人物関連情報は、2つ以上の時点における上記人物の状態を示す状態履歴を含んでもよい。一例として、当該状態履歴情報は、撮像画像61に写る人物の繁忙度の履歴を含んでもよい。即ち、表示画面60に、人物の繁忙度の履歴が表示されてもよい。実空間情報提供部181は、例えば、通信部110を介して、情報管理サーバ200から人物関連情報、又は人物関連情報の表示に必要な情報を取得する。   For example, as described above, the display screen 60 includes, for example, information related to a person shown in the overhead view captured image 61 (hereinafter, referred to as “person related information”). The person related information includes, for example, state information indicating the state of the person. As described above, the state information is the presence icon 65 as an example. The person related information may include a state history indicating the state of the person at two or more points in time. As an example, the state history information may include a history of busyness of a person shown in the captured image 61. That is, on the display screen 60, a history of busyness of a person may be displayed. The real space information provision unit 181 acquires, for example, the person-related information or information necessary for displaying the person-related information from the information management server 200 via the communication unit 110.

このような人物関連情報により、ユーザは、人物が置かれている状況をより的確に把握することができる。また、状態情報により、ユーザは、人物にコンタクトしてもよいかをより的確に判断することができる。また、状態履歴により、ユーザは、瞬時のユーザの状態だけではなく、ある期間でのユーザの状態を把握することができるので、ユーザは、人物にコンタクトしてもよいかをさらに的確に判断することができる。   Such person-related information allows the user to more accurately grasp the situation in which the person is placed. In addition, the state information allows the user to more accurately determine whether to contact a person. In addition, since the state history allows the user to grasp not only the instantaneous state of the user but also the state of the user in a certain period, the user can more accurately determine whether or not a person may be contacted. be able to.

また、吹き出し画像67は、撮像画像61に写る人物により提示される文字情報を含む画像である。吹き出し画像67も、人物関連情報の一例である。   In addition, the balloon image 67 is an image including character information presented by a person shown in the captured image 61. The balloon image 67 is also an example of person-related information.

また、マップ画像69は、センタオフィス10のマップを示す画像である。マップ画像69は、さらに、使用しているカメラ11をアイコンにより示す。なお、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像69は省略され得る。   Further, the map image 69 is an image showing a map of the center office 10. The map image 69 further indicates the camera 11 in use by an icon. Note that the map image 69 may be omitted, especially if only one or a few cameras 11 are installed in the center office 10.

−近接モードで表示される表示画面
図5は、近接モードで表示される表示画面の一例を説明するための説明図である。図5を参照すると、近接モードで表示される表示画面70が示されている。表示画面70は、近接撮像画像71、ボタン画像73及びマップ画像75を含む。
Display Screen Displayed in Proximity Mode FIG. 5 is an explanatory diagram for describing an example of a display screen displayed in the proximity mode. Referring to FIG. 5, a display screen 70 displayed in the proximity mode is shown. The display screen 70 includes a close-up captured image 71, a button image 73 and a map image 75.

近接撮像画像71は、例えば、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された撮像画像である。一例として、Y=1.5である。即ち、俯瞰撮像画像61は、1.5倍ズームの撮像でカメラ11により生成された撮像画像である。   The close-up captured image 71 is, for example, a captured image generated by the camera 11 by imaging at a zoom ratio of Y (Y> X). As an example, Y = 1.5. That is, the overhead view captured image 61 is a captured image generated by the camera 11 by capturing at a 1.5 × zoom.

また、ボタン画像73は、表示モードを近接モードから俯瞰モードに切り替えるための画像である。例えば、ユーザが、ボタン画像73の位置を指定すると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。より具体的には、例えば、ユーザがボタン画像73の位置をタッチし、ボタン画像73に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。   The button image 73 is an image for switching the display mode from the proximity mode to the overhead mode. For example, when the user specifies the position of the button image 73, the real space information provision unit 181 switches the display mode from the proximity mode to the overhead mode. More specifically, for example, when the user touches the position of button image 73 and the touch position corresponding to button image 73 is detected, real space information provision unit 181 changes the display mode from the proximity mode to the overhead mode. Switch.

また、マップ画像75は、俯瞰モードにおけるマップ画像69と同様に、センタオフィス10のマップを示す画像である。マップ画像75は、さらに、使用しているカメラ11を示す。例えば、近接モードでは、ズームされたことを象徴的に示すために、マップ画像75の中の使用しているカメラのアイコンが、より前進した位置に表示される。なお、俯瞰モードにおけるマップ画像69と同様に、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像75は省略され得る。   Further, the map image 75 is an image showing a map of the center office 10 as in the case of the map image 69 in the bird's-eye view mode. The map image 75 further shows the camera 11 in use. For example, in the proximity mode, the icon of the camera in use in the map image 75 is displayed at a more advanced position to symbolically indicate that the zoom is performed. It should be noted that the map image 75 may be omitted as well as the map image 69 in the overhead mode, especially if only one or a few cameras 11 are installed in the center office 10.

なお、近接モードで表示される表示画面70にも、プレゼンスアイコン、吹き出し画像等の人物関連情報が含まれてもよい。   The display screen 70 displayed in the proximity mode may also include person-related information such as a presence icon and a balloon image.

以上のように表示モードによれば、より広い領域が撮像された撮像画像が表示されることにより、ユーザは実空間の全体的な状況を見ることができ、また特定の人物を容易に見つけることができる。そして、より狭い領域が撮像された撮像画像が表示されることにより、ユーザは特定の人物の位置をより容易に指定することができる。また、表示モードを切り替えるのみなので、ユーザには容易な操作しか求められない。また、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とが、ズーム率が異なる撮像画像なので、ユーザは、これらの撮像画像間の関係を直感的に容易に把握することができる。よって、ユーザは、表示モードが切り替わったとしても、特定の人物を容易に見つけ、当該特定の人物の位置を指定することができる。   As described above, according to the display mode, the user can view the general situation of the real space by displaying a captured image in which a wider area is captured, and it is easy to find a specific person. Can. Then, by displaying a captured image in which a narrower area is captured, the user can more easily specify the position of a specific person. Also, since only the display mode is switched, only easy operation is required for the user. In addition, since the captured image in which the wider area is captured and the captured image in which the narrower area is captured have different zoom ratios, the user intuitively and easily grasps the relationship between these captured images. be able to. Therefore, even if the display mode is switched, the user can easily find a specific person and designate the position of the specific person.

−その他の実空間情報
以上のように、実空間情報提供部181は、表示部150に実空間の撮像画像の表示画面を表示させることにより、実空間の視覚的な情報を提供する。さらに、実空間情報提供部181は、実空間の聴覚的な情報も提供してもよい。即ち、実空間情報提供部181は、音声出力部160に、実空間での集音により得られた音声データの音声を出力させてもよい。
-Other real space information As mentioned above, the real space information provision part 181 provides the visual information of real space by making the display part 150 display the display screen of the captured image of real space. Furthermore, the real space information provision unit 181 may also provide auditory information of real space. That is, the real space information provision unit 181 may cause the sound output unit 160 to output the sound of the sound data obtained by sound collection in the real space.

例えば、実空間情報提供部181は、選択されたカメラ11に近いマイクロフォン13を選択する。そして、実空間情報提供部181は、通信部110を介して、マイクロフォン13から、センタオフィス10での集音により得られた音声データを取得する。そして、実空間情報提供部181は、音声出力部160に、取得した音声データの音声を出力させてもよい。   For example, the real space information provision unit 181 selects the microphone 13 close to the selected camera 11. Then, the real space information provision unit 181 acquires voice data obtained by sound collection at the center office 10 from the microphone 13 via the communication unit 110. Then, the real space information provision unit 181 may cause the sound output unit 160 to output the sound of the acquired sound data.

(位置取得部183)
位置取得部183は、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を検出すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、当該撮像画像内の位置をオブジェクト選択部185に提供する。
(Position acquisition unit 183)
The position acquisition unit 183 acquires the position in the captured image specified by the user on the display screen of the captured image in the real space. More specifically, for example, when the input unit 120 detects a position in the captured image specified by the user on the display screen of the captured image in real space, the position acquisition unit 183 acquires the position. Then, the position acquisition unit 183 provides the object selection unit 185 with the position in the captured image.

一例として、位置取得部183は、近接撮像画像71内のいずれかの位置を取得した場合に、当該位置をオブジェクト選択部185に提供する。以下、この点について図6及び図7を参照して具体例を説明する。   As an example, when acquiring any position in the close-up captured image 71, the position acquisition unit 183 provides the position to the object selection unit 185. Hereinafter, this example will be described with reference to FIGS. 6 and 7.

図6は、ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。図6を参照すると、近接モードで表示される表示画面に含まれる近接撮像画像71、及びユーザの手3が、示されている。また、近接撮像画像71に写る人物77が示されている。そして、ユーザは、手3で人物77の位置をタッチすることにより、近接撮像画像71の人物77の位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77の上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。   FIG. 6 is an explanatory diagram for describing a first example of the position in the close-up captured image specified by the user. Referring to FIG. 6, the proximity captured image 71 included in the display screen displayed in the proximity mode and the hand 3 of the user are shown. Further, a person 77 appearing in the close-up captured image 71 is shown. Then, the user touches the position of the person 77 with the hand 3 to specify the position of the person 77 in the close-up captured image 71. In this case, the input unit 120 detects the above-mentioned position of the person 77 in the close-up captured image 71, and the position acquisition unit 183 acquires the position. Then, the input unit 120 provides the acquired position to the object selection unit 185.

図7は、ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。図7を参照すると、近接撮像画像71に写る人物77A及び77Bが示されている。そして、ユーザは、手3で人物77Aの位置をタッチすることにより、近接撮像画像71の人物77Aの位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77Aの上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。   FIG. 7 is an explanatory diagram for describing a second example of the position in the close-up captured image specified by the user. Referring to FIG. 7, persons 77A and 77B appearing in the close-up captured image 71 are shown. Then, the user touches the position of the person 77A with the hand 3 to specify the position of the person 77A in the close-up captured image 71. In this case, the input unit 120 detects the position of the person 77A in the close-up captured image 71, and the position acquisition unit 183 acquires the position. Then, the input unit 120 provides the acquired position to the object selection unit 185.

(オブジェクト選択部185)
オブジェクト選択部185は、取得される撮像画像内の位置に基づいて、実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。例えば、位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、オブジェクト選択部185は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。
(Object selection unit 185)
The object selection unit 185 selects an object arranged in the three-dimensional virtual space corresponding to the real space based on the position in the acquired captured image. For example, when the position acquisition unit 183 acquires a position in the captured image specified by the user on the display screen of the captured image in the real space, the object selection unit 185 corresponds to the real space based on the position. Select an object placed in the 3D virtual space.

上記オブジェクトは、上記撮像画像内の上記位置に対応する上記3次元仮想空間内の3次元仮想位置に配置されたオブジェクトである。また、例えば、上記撮像画像は、上記第2のモード(例えば、近接モード)で表示画面に含まれる撮像画像である。   The object is an object disposed at a three-dimensional virtual position in the three-dimensional virtual space corresponding to the position in the captured image. Also, for example, the captured image is a captured image included in the display screen in the second mode (for example, the proximity mode).

一例として、位置取得部183が、カメラ11により生成された近接撮像画像内の位置を取得すると、オブジェクト選択部185は、センタオフィス10に対応する3次元仮想空間に配置されたオブジェクトのうちの、上記位置に対応するオブジェクトを選択する。なお、オブジェクト選択部185は、例えば、センタオフィス10に対応する3次元仮想空間のデータを記憶部170から取得する。   As an example, when the position acquisition unit 183 acquires the position in the close-up captured image generated by the camera 11, the object selection unit 185 selects one of the objects arranged in the three-dimensional virtual space corresponding to the center office 10. Select an object corresponding to the above position. The object selection unit 185 acquires, for example, data of a three-dimensional virtual space corresponding to the center office 10 from the storage unit 170.

−1つのオブジェクトが配置されている場合の例
以下、図8及び図9を参照して、3次元仮想空間に1つのオブジェクトが配置されている場合の具体例を説明する。
-One Example when One Object is Arranged Hereinafter, with reference to FIG. 8 and FIG. 9, a concrete example when one object is arranged in the three-dimensional virtual space will be described.

図8は、センタオフィス10に対応する3次元仮想空間の第1の例を説明するための説明図である。図8を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91が配置されている。当該オブジェクト91は、人物(例えば、A氏)に対応する。そして、当該オブジェクトは、センタオフィス10の当該人物(例えば、A氏)の座席の位置に対応する3次元仮想位置に配置される。即ち、上記人物が座席に座っている場合には上記人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクト91が配置される。この例では、オブジェクト91は、円柱のオブジェクトである。当該円柱のオブジェクトは、半径R及び高さHを伴う円柱のオブジェクトである。半径R及び高さHは、例えば、予め定められる。なお、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、カメラのレンズと垂直な方向)、画角等を含む。   FIG. 8 is an explanatory diagram for explaining a first example of a three-dimensional virtual space corresponding to the center office 10. As shown in FIG. Referring to FIG. 8, a three-dimensional virtual space 90 corresponding to the center office 10 is shown. Further, in the three-dimensional virtual space 90, an object 91 is disposed. The object 91 corresponds to a person (for example, Mr. A). Then, the object is arranged at a three-dimensional virtual position corresponding to the position of the seat of the person (for example, Mr. A) of the center office 10. That is, the object 91 is placed at a three-dimensional virtual position corresponding to the position where the person would be present when the person is sitting in the seat. In this example, the object 91 is a cylindrical object. The cylindrical object is a cylindrical object with radius R and height H. The radius R and the height H are, for example, predetermined. The data of the three-dimensional virtual space 90 also includes information related to each camera 11. For example, the information related to each camera 11 includes a three-dimensional virtual position corresponding to the installation position of each camera 11, an imaging direction (for example, a direction perpendicular to the lens of the camera), an angle of view and the like.

図9は、図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図9を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91、撮像に用いられるカメラ11の設置位置に対応する3次元仮想位置(以下、「仮想カメラ位置」と呼ぶ)O、カメラ11の撮像方向(例えば、カメラのレンズと垂直な方向)に対応する軸y、及び、軸yと直交する軸xが、示されている。この例では、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。   FIG. 9 is an explanatory diagram for explaining an example of selection of an object arranged in the three-dimensional virtual space shown in FIG. Referring to FIG. 9, the positional relationship in the horizontal plane in the three-dimensional virtual space 90 is shown for easy understanding. Specifically, an object 91 disposed in the three-dimensional virtual space 90, a three-dimensional virtual position (hereinafter referred to as a "virtual camera position") O corresponding to the installation position of the camera 11 used for imaging, and imaging of the camera 11 An axis y corresponding to a direction (e.g., a direction perpendicular to the lens of the camera) and an axis x orthogonal to the axis y are shown. In this example, for easy understanding, it is assumed that the camera 11 is installed such that the imaging direction of the camera 11 is parallel to the horizontal plane.

さらに、カメラ11の画角θも示されている。また、カメラ11の撮像方向に対応する軸yに垂直であり、且つ画角θに対応する幅を有する仮想面93が示されている。また、仮想面93は、仮想カメラ位置Oから距離Iだけ離れている。そして、仮想面93は、四角形の面であり、撮像画像と同一の縦横比を有する。即ち、仮想面93は、撮像画像に対応する面である。   Furthermore, the angle of view θ of the camera 11 is also shown. Further, a virtual surface 93 is shown which is perpendicular to the axis y corresponding to the imaging direction of the camera 11 and has a width corresponding to the angle of view θ. Also, the virtual plane 93 is separated from the virtual camera position O by the distance I. The virtual surface 93 is a square surface and has the same aspect ratio as the captured image. That is, the virtual surface 93 is a surface corresponding to a captured image.

オブジェクト選択部185は、例えば、図6に示されるようにユーザにより指定される上記撮像画像内の位置を、3次元仮想位置Aに変換する。そして、オブジェクト選択部185は、仮想カメラ位置Oと3次元仮想位置Aとを通る直線に交わるオブジェクトを特定する。この例では、オブジェクト選択部185は、オブジェクト91を特定する。そして、オブジェクト選択部185は、オブジェクト91を選択する。   The object selection unit 185 converts, for example, the position in the captured image specified by the user as shown in FIG. 6 into a three-dimensional virtual position A. Then, the object selection unit 185 specifies an object that intersects a straight line passing the virtual camera position O and the three-dimensional virtual position A. In this example, the object selection unit 185 specifies the object 91. Then, the object selection unit 185 selects the object 91.

図9の例では、例えば、仮想面93のうちの3次元仮想位置Bと3次元仮想位置Dとの間にある3次元仮想位置に変換される撮像画像内の位置が、撮像画像内でユーザにより指定されると、オブジェクト91が選択される。なお、このような位置は、概ね、撮像画像においてオブジェクト91に対応する人物が写っている位置である。   In the example of FIG. 9, for example, the position in the captured image converted into the three-dimensional virtual position between the three-dimensional virtual position B and the three-dimensional virtual position D in the virtual surface 93 is the user in the captured image. When designated by the, the object 91 is selected. Note that such a position is generally a position where a person corresponding to the object 91 is shown in the captured image.

なお、距離Iは、仮想カメラ位置Oとオブジェクト91との間に仮想面93が位置するように決定される。一例として、距離Iは、カメラ11の焦点距離であるが、当然ながらこれに限られない。   The distance I is determined so that the virtual plane 93 is located between the virtual camera position O and the object 91. As an example, the distance I is the focal length of the camera 11, but of course is not limited thereto.

また、容易な説明のために、3次元仮想空間90の水平面に着目してオブジェクトを選択する手法を説明したが、当然ながら、垂直方向(例えば、z軸)を加えたとしても、撮像画像内の位置を3次元仮想位置に変換して当該3次元仮想位置からオブジェクト91を特定することが可能である。   In addition, although the method of selecting an object by focusing on the horizontal surface of the three-dimensional virtual space 90 has been described for easy explanation, naturally, even if a vertical direction (for example, z axis) is added, Can be converted into a three-dimensional virtual position to specify the object 91 from the three-dimensional virtual position.

例えば以上のように、撮像画像内の位置に対応するオブジェクトが選択される。上述した例では、撮像画像内の位置を3次元仮想位置に変換することにより、撮像画像内の位置に対応するオブジェクトが特定されたが、撮像画像内の位置に対応するオブジェクトを特定する手法は、これに限られない。   For example, as described above, an object corresponding to a position in a captured image is selected. In the example described above, the object corresponding to the position in the captured image is specified by converting the position in the captured image into a three-dimensional virtual position, but a method for specifying the object corresponding to the position in the captured image Not limited to this.

一例として、オブジェクト選択部185は、仮想カメラ位置Oを原点としてオブジェクト91を仮想面93に射影し、オブジェクト91の射影範囲を、撮像画像内の範囲に変換してもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。   As an example, the object selecting unit 185 may project the object 91 on the virtual plane 93 with the virtual camera position O as an origin, and convert the projection range of the object 91 into a range in the captured image. Then, the object selection unit 185 may select the object 91 when the position in the captured image specified by the user is included in the range.

また、別の例として、仮想カメラ位置O、軸y及び画角θを用いて3次元仮想空間90のレンダリングを行うことにより、レンダリング画像を生成し、当該レンダリング画像のうちのオブジェクト91が写っている範囲から、オブジェクト91に対応する撮像画像内の範囲を得てもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。   As another example, a rendering image is generated by rendering the three-dimensional virtual space 90 using the virtual camera position O, the axis y, and the angle of view θ, and the object 91 in the rendering image is captured. The range in the captured image corresponding to the object 91 may be obtained from the range. Then, the object selection unit 185 may select the object 91 when the position in the captured image specified by the user is included in the range.

−状態を考慮したオブジェクトの選択
また、例えば、3次元仮想空間90に配置されるオブジェクト91は、複数の状態のうちのいずれかの状態を示す状態情報に対応する。例えば、オブジェクト91は、人物に対応する。そして、オブジェクト91は、当該人物が座席に座っているか否かを示す状態情報(以下、「存否情報」と呼ぶ)に対応する。当該存否情報は、人物が座席に座っている状態、又は人物が座席に座っていない状態を示す。オブジェクト選択部185は、例えば、オブジェクト91に対応する人物が座席に座っているか否かの判定結果を、通信部110を介してセンサ15から取得する。そして、当該判定結果が存否情報となる。
-Selection of Object Considering the State Further, for example, the object 91 arranged in the three-dimensional virtual space 90 corresponds to state information indicating any one of a plurality of states. For example, the object 91 corresponds to a person. Then, the object 91 corresponds to state information (hereinafter referred to as “presence / absence information”) indicating whether or not the person is sitting in the seat. The presence / absence information indicates that a person is sitting in a seat or a person is not sitting in a seat. The object selection unit 185 acquires, for example, the determination result as to whether or not the person corresponding to the object 91 is sitting in the seat from the sensor 15 via the communication unit 110. And the said determination result becomes presence or absence information.

そして、例えば、オブジェクト選択部185は、上記3次元仮想空間に配置されたオブジェクトであって、上記複数の状態のうちの所定の状態を示す状態情報に対応する上記オブジェクトを、選択する。例えば、オブジェクト選択部185は、上記3次元空間に配置されたオブジェクトであって、人物が座席に座っている状態を示す状態情報に対応するオブジェクトを、選択する。即ち、オブジェクト選択部185は、センサ15により人物が座席に座っていると判定される場合には、当該人物に対応するオブジェクトを選択し得るが、センサ15により人物が座席に座っていないと判定される場合には、当該人物に対応するオブジェクトを選択しない。   Then, for example, the object selecting unit 185 selects the object corresponding to the state information indicating the predetermined state among the plurality of states, which is the object arranged in the three-dimensional virtual space. For example, the object selecting unit 185 selects an object arranged in the three-dimensional space, which corresponds to state information indicating a state in which a person is sitting in a seat. That is, when it is determined by the sensor 15 that a person is sitting in the seat, the object selection unit 185 can select an object corresponding to the person, but the sensor 15 determines that the person is not sitting in the seat When it is determined, the object corresponding to the person is not selected.

このように、人物の状態に応じてオブジェクトが選択されるので、本来選択されるべきでないオブジェクトが選択されることを回避することができる。例えば、人物がいない場合に当該人物に対応するオブジェクトが選択されてしまうことを、回避することができる。   In this way, since the object is selected according to the state of the person, it is possible to avoid selecting an object that should not be selected. For example, it is possible to prevent the object corresponding to the person from being selected when there is no person.

−2つのオブジェクトが配置されている場合の例
また、3次元仮想空間内に2つ以上のオブジェクトが配置され得る。以下、2つのオブジェクトが配置される具体例を、図10を参照して説明する。
-Example in which two objects are arranged In addition, two or more objects may be arranged in the three-dimensional virtual space. Hereinafter, a specific example in which two objects are arranged will be described with reference to FIG.

図10は、センタオフィス10に対応する3次元仮想空間の第2の例を説明するための説明図である。図10を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。   FIG. 10 is an explanatory diagram for explaining a second example of the three-dimensional virtual space corresponding to the center office 10. As shown in FIG. Referring to FIG. 10, a three-dimensional virtual space 90 corresponding to the center office 10 is shown. Further, in the three-dimensional virtual space 90, an object 91A and an object 91B are arranged. The object 91A corresponds to a certain person (for example, Mr. A), and is arranged at a three-dimensional virtual position corresponding to the position of the seat of the certain person in the center office 10. Further, the object 91 B is arranged at a three-dimensional virtual position corresponding to a certain person (for example, Mr. B) and corresponding to the position of the seat of the certain person in the center office 10. Similar to the example of FIG. 8, the object 91 is a cylindrical object with a radius R and a height H.

このように3次元仮想空間内に2つ以上のオブジェクトが配置される場合には、複数のオブジェクトが、ユーザにより指定される撮像画像内の位置に対応し得る。例えば、図10の例において、オブジェクト91Aとオブジェクト91Bの両方が、ユーザにより指定される撮像画像内の位置に対応し得る。一例として、図7に示されるように撮像画像内に2人の人物が写り得るような場合に、ユーザが、撮像画像において当該2人の人物が重なり合う位置を指定すると、当該2人の人物に対応する2つのオブジェクトが、上記位置に対応し得る。   When two or more objects are arranged in the three-dimensional virtual space in this manner, the plurality of objects may correspond to positions in the captured image specified by the user. For example, in the example of FIG. 10, both the object 91A and the object 91B may correspond to the position in the captured image specified by the user. As an example, as shown in FIG. 7, when two persons can appear in a captured image, when the user designates a position where the two persons overlap in the captured image, the two persons are designated. Corresponding two objects may correspond to the above position.

そこで、このような場合(即ち、複数のオブジェクトが、ユーザにより指定される撮像画像の位置に対応する場合)には、オブジェクト選択部185は、上記複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。即ち、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する3次元仮想空間内の3次元仮想位置にそれぞれ配置された複数のオブジェクトがある場合に、当該複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。   Therefore, in such a case (that is, when the plurality of objects correspond to the position of the captured image specified by the user), the object selection unit 185 selects one of the plurality of objects. select. That is, when there are a plurality of objects respectively arranged in the three-dimensional virtual position in the three-dimensional virtual space corresponding to the position in the captured image specified by the user, the object selecting unit 185 Select one of the objects.

例えば、上記撮像画像は、実空間内にある撮像装置を通じて生成される。そして、オブジェクト選択部185は、上記複数のオブジェクトのうちの、上記撮像装置に対応する3次元仮想空間内の3次元仮想位置により近いオブジェクトを選択する。より具体的には、例えば、撮像画像は、センタオフィス10内にあるカメラ11を通じて生成される。そして、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する複数のオブジェクトがある場合に、カメラ11の設置位置に対応する3次元仮想位置(即ち、仮想カメラ位置O)により近いオブジェクトを選択する。以下、この点について図10及び図11を参照して具体例を説明する。   For example, the captured image is generated through an imaging device in real space. Then, the object selection unit 185 selects an object closer to the three-dimensional virtual position in the three-dimensional virtual space corresponding to the imaging device among the plurality of objects. More specifically, for example, the captured image is generated through the camera 11 in the center office 10. Then, when there are a plurality of objects corresponding to the position in the captured image specified by the user, the object selecting unit 185 selects the three-dimensional virtual position (that is, the virtual camera position O) corresponding to the installation position of the camera 11 Select a close object. Hereinafter, a specific example will be described with reference to FIGS. 10 and 11 regarding this point.

図11は、図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図11を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A及びオブジェクト91Bが示されている。また、図9と同様に、仮想カメラ位置O、軸y、軸x、画角θ及び仮想面93が、示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。   FIG. 11 is an explanatory diagram for explaining an example of selection of an object arranged in the three-dimensional virtual space shown in FIG. Referring to FIG. 11, the positional relationship in the horizontal plane in the three-dimensional virtual space 90 is shown for easy understanding. Specifically, an object 91A and an object 91B arranged in the three-dimensional virtual space 90 are shown. Also, as in FIG. 9, a virtual camera position O, an axis y, an axis x, an angle of view θ, and a virtual surface 93 are shown. Also in this example, as in FIG. 9, for easy understanding, it is assumed that the camera 11 is installed so that the imaging direction of the camera 11 is parallel to the horizontal plane.

例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、撮像画像内の上記位置が、3次元仮想位置B’と3次元仮想位置Dとの間にある3次元仮想位置に変換される場合には、オブジェクト91A及びオブジェクト91Bの両方が、撮像画像内の上記位置に対応するオブジェクトとして特定される。そして、オブジェクト選択部185は、オブジェクト91A及びオブジェクト91Bのうちの、仮想カメラ位置Oにより近いオブジェクト91Aを選択する。   For example, as shown in FIG. 7, the position in the captured image is designated by the user. In this case, according to the method described with reference to FIG. 9, the position in the captured image is converted into a three-dimensional virtual position between the three-dimensional virtual position B ′ and the three-dimensional virtual position D. In the above, both the object 91A and the object 91B are specified as objects corresponding to the positions in the captured image. Then, the object selection unit 185 selects an object 91A closer to the virtual camera position O among the object 91A and the object 91B.

なお、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Bと3次元仮想位置B’との間にある3次元仮想位置に変換される場合には、オブジェクト91Aが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。また、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Dと3次元仮想位置D’との間にある3次元仮想位置に変換される場合には、オブジェクト91Bが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。   When the position in the captured image specified by the user is converted into a three-dimensional virtual position between the three-dimensional virtual position B and the three-dimensional virtual position B ′, the object 91A is the above-described captured image It is identified and selected as the object corresponding to the position in the When the position in the captured image specified by the user is converted to a three-dimensional virtual position between the three-dimensional virtual position D and the three-dimensional virtual position D ′, the object 91 B is the above-described captured image It is identified and selected as the object corresponding to the position in the

このように複数のオブジェクトから1つのオブジェクトが選択されることにより、複数のオブジェクトが選択されてその後の処理でエラー(複数の通信用IDを取得することによるエラー)が発生することを、回避することができる。また、複数のオブジェクトのうちのカメラ11に対応する仮想カメラ位置に近いオブジェクトが選択されることにより、例えば、撮像画像において人物が重なりあっているような場合でも、手前に写っている人物に対応するオブジェクトが選択される。よって、ユーザが意図した人物に対応するオブジェクトが選択される。   By selecting one object from a plurality of objects as described above, it is possible to prevent a plurality of objects from being selected and an error (an error due to acquiring a plurality of communication IDs) occurring in the subsequent processing. be able to. Further, by selecting an object close to the virtual camera position corresponding to the camera 11 among a plurality of objects, for example, even when people overlap in the captured image, it corresponds to the person appearing in the foreground Objects to be selected. Thus, an object corresponding to the person intended by the user is selected.

以上のように、オブジェクト選択部185は、オブジェクトを選択する。そして、オブジェクト選択部185は、選択したオブジェクトの識別情報(以下、「オブジェクトID」と呼ぶ)をID取得部187に提供する。当該オブジェクトIDは、選択されたオブジェクトに対応する人物の識別情報であってもよく、又は、選択されたオブジェクトに付された単なる番号であってもよい。   As described above, the object selection unit 185 selects an object. Then, the object selection unit 185 provides the ID acquisition unit 187 with identification information of the selected object (hereinafter referred to as “object ID”). The object ID may be identification information of a person corresponding to the selected object, or may be a mere number assigned to the selected object.

(ID取得部187)
ID取得部187は、選択される上記オブジェクトに対応する識別情報を取得する。例えば、当該識別情報は、選択される上記オブジェクトに対応する通信用の識別情報(以下、「通信用ID」と呼ぶ)である。当該通信用IDは、一例として電話番号である。
(ID acquisition unit 187)
The ID acquisition unit 187 acquires identification information corresponding to the selected object. For example, the identification information is identification information for communication (hereinafter referred to as “communication ID”) corresponding to the selected object. The communication ID is, for example, a telephone number.

具体的には、例えば、オブジェクト選択部185が、オブジェクトを選択すると、ID取得部187は、選択された当該オブジェクトのオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、オブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクトに対応する人物の通信用IDである。   Specifically, for example, when the object selection unit 185 selects an object, the ID acquisition unit 187 acquires the object ID of the selected object. Then, the object selection unit 185 transmits the object ID to the information management server 200 via the communication unit 110, and acquires a communication ID corresponding to the object ID. The communication ID is a communication ID of a person corresponding to the selected object.

例えば以上のように、ID取得部187は、選択されるオブジェクトに対応する通信用IDを取得する。当該通信用IDは、オブジェクトに対応する人物(即ち、ユーザにより指定された撮像画像の位置に写っている人物)の通信装置の通信用IDである。そして、ID取得部187は、取得した通信用IDを電話部189に提供する。   For example, as described above, the ID acquisition unit 187 acquires a communication ID corresponding to the selected object. The communication ID is a communication ID of the communication device of the person corresponding to the object (that is, the person appearing at the position of the captured image specified by the user). Then, the ID acquisition unit 187 provides the acquired communication ID to the telephone unit 189.

以上のように、ユーザにより撮像画像内の位置が指定されると、当該位置に対応するオブジェクトが選択され、当該オブジェクトに対応する通信用IDが取得される。これにより、ユーザは、直感的な操作で対象の人物にコンタクトすることが可能になる。また、撮像画像において人物がどのように写っているかによらず、当該人物に対応するオブジェクトが選択され、通信用IDが取得されるので、より確実に当該人物にコンタクトすることが可能になる。   As described above, when the position in the captured image is designated by the user, the object corresponding to the position is selected, and the communication ID corresponding to the object is acquired. This enables the user to contact the target person with an intuitive operation. Further, regardless of how the person is shown in the captured image, the object corresponding to the person is selected and the communication ID is acquired, so that the person can be more reliably contacted.

(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。
(Telephone part 189)
The telephone unit 189 provides a function for making a call. For example, the telephone unit 189 provides a softphone function.

例えば、電話部189は、ID取得部187により提供される通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。   For example, when the telephone unit 189 acquires the communication ID provided by the ID acquisition unit 187, the telephone unit 189 uses the communication ID to make a call. More specifically, for example, when the telephone unit 189 acquires a communication ID, the telephone unit 189 provides the communication ID to the PBX 40 via the communication unit 110, and acquires an IP address from the PBX 40. Then, the telephone unit 189 executes a series of sequences for establishing a session with the communication apparatus having the IP address (that is, the communication apparatus at the destination).

このように、電話部189は、表示画面においてユーザにより指定された撮像画像内の位置に写る人物への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。   In this manner, the telephone unit 189 makes a call for a call to a person appearing at a position in the captured image specified by the user on the display screen. That is, the telephone unit 189 makes a call to the communication device of the person.

また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。   When voice data from the communication apparatus of the other party of the telephone call is received by the communication unit 110, the telephone unit 189 causes the voice output unit 160 to output the voice of the voice data. In addition, the telephone unit 189 causes the communication unit 110 to transmit the audio data provided by the sound collection unit 140 to the communication device at the other end of the telephone. Also, the telephone unit 189 causes, for example, the communication unit 110 to also transmit a captured image provided by the imaging unit 130 (for example, a captured image in which a user of the terminal device 100 is shown) to the communication device of the other party of the telephone.

また、電話部189は、表示部150に、電話時の表示画面を表示させる。例えば、電話時の表示画面を表示する表示モードを、会話モードと呼ぶ。この場合に、電話部189は、ID取得部187により提供される通信用IDを取得すると、表示モードを、近接モードから会話モードへ切り替える。以下、会話モードの表示画面について図12を参照して具体例を説明する。   Further, the telephone unit 189 causes the display unit 150 to display a display screen at the time of a telephone call. For example, a display mode for displaying a display screen at the time of telephone call is called a conversation mode. In this case, when the telephone unit 189 acquires the communication ID provided by the ID acquisition unit 187, the telephone unit 189 switches the display mode from the proximity mode to the conversation mode. Hereinafter, a concrete example of the display screen in the conversation mode will be described with reference to FIG.

図12は、会話モードで表示される表示画面の一例を説明するための説明図である。図12を参照すると、会話モードで表示される表示画面80が示されている。表示画面80は、相手側撮像画像81、ボタン画像83及び自分側撮像画像85を含む。   FIG. 12 is an explanatory diagram for describing an example of a display screen displayed in the conversation mode. Referring to FIG. 12, a display screen 80 displayed in the conversation mode is shown. The display screen 80 includes the other-side captured image 81, the button image 83, and the own-side captured image 85.

相手側撮像画像81は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像81として利用する。   The other party side captured image 81 is, for example, a captured image acquired from the communication device of the other party of the telephone. For example, when the captured image from the communication device of the other party of the telephone call is received by the communication unit 110, the telephone unit 189 uses the captured image as the other-side captured image 81.

また、ボタン画像63は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、電話部189は、電話を終了させる。より具体的には、例えば、ユーザがボタン画像83の位置をタッチし、ボタン画像83に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。   Also, the button image 63 is an image for ending the telephone call. For example, when the user specifies the position of the button image 83, the telephone unit 189 terminates the call. More specifically, for example, when the user touches the position of the button image 83 and the touch position corresponding to the button image 83 is detected, the telephone unit 189 executes a sequence for call termination including disconnection of the session. Do. Also, for example, the telephone unit 189 switches the display mode from the conversation mode to the eyebrow mode.

自分側撮像画像85は、撮像部130により提供される撮像画像である。   The self-side captured image 85 is a captured image provided by the imaging unit 130.

(その他:表示モードの遷移)
ここでは、俯瞰モード、近接モード及び会話モードの遷移の具体例を図13を参照して説明する。
(Other: Transition of display mode)
Here, a specific example of the transition of the habit mode, the proximity mode, and the conversation mode will be described with reference to FIG.

図13は、表示モードの遷移の一例を説明するための遷移図である。図13を参照すると、例えばソフトウェアの起動時において、カメラ11、マイクロフォン13、センサ15、情報管理サーバ200等との接続処理が行われると、表示モードは、俯瞰モード301になる(ENTRY)。   FIG. 13 is a transition diagram for explaining an example of transition of the display mode. Referring to FIG. 13, for example, when connection processing with the camera 11, the microphone 13, the sensor 15, the information management server 200, and the like is performed at the time of activation of the software, the display mode is the bird's eye mode 301 (ENTRY).

俯瞰モード301では、俯瞰モード処理が実行される(DO)。そして、ユーザが、俯瞰撮像画像61の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、俯瞰モード301から近接モード303に切り替わる。モード変更処理は、カメラ11のズーム処理を含む(ENTRY)。   In the overhead mode 301, overhead mode processing is performed (DO). Then, when the user specifies the position of the overhead view captured image 61, mode change processing is performed (EXIT), and the display mode is switched from the overhead mode 301 to the proximity mode 303. The mode change process includes the zoom process of the camera 11 (ENTRY).

近接モード303では、近接モード処理が実行される(DO)。そして、ユーザが、近接撮像画像71のうちの人物が写っている位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から会話モード305に切り替わる。この場合のモード変更処理は、通話のための処理を含む(ENTRY)。また、ユーザが、ボタン画像73の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。   In the proximity mode 303, proximity mode processing is performed (DO). Then, when the user designates the position where the person in the close-up shot image 71 is taken, mode change processing is performed (EXIT), and the display mode is switched from the close mode 303 to the conversation mode 305. The mode change process in this case includes a process for a call (ENTRY). Further, when the user designates the position of the button image 73, mode change processing is performed (EXIT), and the display mode is switched from the proximity mode 303 to the overhead mode 301. The mode change process in this case includes the connection process described above (ENTRY).

会話モード305では、会話モード処理が実行される(DO)。また、ユーザが、ボタン画像83の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、会話モード305から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。   In the conversation mode 305, conversation mode processing is performed (DO). Further, when the user designates the position of the button image 83, mode change processing is performed (EXIT), and the display mode is switched from the conversation mode 305 to the overhead mode 301. The mode change process in this case includes the connection process described above (ENTRY).

(その他:表示画面の別の例)
−表示モードに応じた撮像画像
上述したように、例えば、実空間情報提供部181は、第1の表示モード(例えば、俯瞰モード)では、実空間の第1の領域が撮像された第1の撮像画像(例えば、俯瞰撮像画像)を表示部150に表示させる。また、実空間情報提供部181は、第2の表示モード(例えば、近接モード)では、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像(例えば、近接撮像画像)を表示部150に表示させる。そして、上述した例では、とりわけ、実空間の第1の領域が撮像された第1の撮像画像は、第1のズーム率に対応する撮像画像であり、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。しかしながら、上記第1の撮像画像及び上記第2の撮像画像はこれに限られない。
(Others: Another example of the display screen)
-A captured image according to the display mode As described above, for example, in the first display mode (for example, the eyelid mode), the real space information provision unit 181 is the first image in which the first region of the real space is imaged. A captured image (for example, a bird's-eye view captured image) is displayed on the display unit 150. Further, in the second display mode (for example, the proximity mode), the real space information provision unit 181 is a second captured image (for example, the proximity captured image) in which the second area narrower than the first area is captured. ) Is displayed on the display unit 150. Then, in the above-described example, the first captured image in which the first region of the real space is captured is a captured image corresponding to the first zoom ratio, and the second image is narrower than the first region. The second captured image obtained by capturing the area of is a captured image corresponding to a second zoom ratio that is larger than the first zoom ratio. However, the first captured image and the second captured image are not limited to this.

例えば、上記第1の撮像画像は、実空間内にある複数の撮像装置のうちの第1の撮像装置を通じて生成される撮像画像であり、上記第2の撮像画像は、上記複数の撮像装置のうちの第2の撮像装置を通じて生成される撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、俯瞰モードの際には、センタオフィス10の広い領域を撮像するカメラ11を選択し、当該カメラ11により生成された撮像画像を俯瞰撮像画像として取得する。そして、実空間情報提供部181は、近接モードの際には、センタオフィス10のより狭い領域を撮像するカメラ11(例えば、より前方にあるカメラ)を選択し、当該カメラ11により生成された撮像画像を近接撮像画像として取得する。   For example, the first captured image is a captured image generated through the first imaging device of the plurality of imaging devices in real space, and the second captured image is the image of the plurality of imaging devices. It may be a captured image generated through the second imaging device. In this case, for example, the real space information provision unit 181 selects the camera 11 that captures a wide area of the center office 10 in the overhead mode, and uses the captured image generated by the camera 11 as the overhead captured image get. Then, in the proximity mode, the real space information provision unit 181 selects a camera 11 (for example, a camera further ahead) that images a narrower area of the center office 10, and the image generated by the camera 11 An image is acquired as a close-up image.

これにより、カメラ11の配置によっては、より容易に人物の位置を指定しやすくなる。また、カメラ11にズームを要求しなくてもよい。そのため、例えば、光学ズーム又はドリーによるズームを要求する場合のように、個別の端末装置からの要求が競合し、いずれかの端末装置に待ち状態が生じるようなこともない。また、例えば、デジタルズームを用いる場合のように、処理量が増大するようなこともない。   Thereby, depending on the arrangement of the camera 11, it becomes easier to specify the position of the person. In addition, the camera 11 may not request the zoom. Therefore, as in the case of requesting an optical zoom or a zoom by dolly, for example, requests from individual terminal devices do not compete, and no waiting state occurs in any of the terminal devices. In addition, as in the case of using digital zoom, for example, the amount of processing does not increase.

−より自由な条件での撮像により生成される撮像画像
また、上述した例では、表示モードが切り替えられる例を説明したが、表示画面はこれに限られない。例えば、表示モードの切り替えの代わりに、より自由な条件での撮像により撮像画像が生成され、当該撮像画像を含む表示画面が表示されてもよい。
-A captured image generated by imaging under more free conditions In the above-described example, although an example in which the display mode is switched has been described, the display screen is not limited to this. For example, instead of switching the display mode, a captured image may be generated by imaging under more free conditions, and a display screen including the captured image may be displayed.

例えば、実空間の撮像画像は、複数のズーム率のうちの選択されたズーム率に対応する撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、入力部120を介してユーザにより指定されるズーム率を、通信部110を介してカメラ11に要求する。その結果、カメラ11は、ズーム率を要求に従って変更し、変更後のズーム率での撮像により生成された撮像画像を端末装置100に提供する。そして、実空間情報提供部181は、表示部150に、提供された撮像画像を含む表示画面を表示させる。そして、ユーザは、当該撮像画像内の位置を指定すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、撮像画像内の当該位置をオブジェクト選択部185に提供する。   For example, the captured image of the real space may be a captured image corresponding to the selected zoom ratio of the plurality of zoom ratios. In this case, for example, the real space information provision unit 181 requests the camera 11 via the communication unit 110 for the zoom factor designated by the user via the input unit 120. As a result, the camera 11 changes the zoom factor according to the request, and provides the terminal device 100 with a captured image generated by imaging at the changed zoom factor. Then, the real space information providing unit 181 causes the display unit 150 to display a display screen including the provided captured image. Then, when the user designates a position in the captured image, the position acquisition unit 183 acquires the position. Then, the position acquisition unit 183 provides the object selection unit 185 with the position in the captured image.

これにより、ユーザは、細かいズーム率を指定して、所望の撮像画像を表示することができる。よって、ユーザは、特定の人物の位置をより指定しやすくなる。   Thus, the user can specify a fine zoom factor to display a desired captured image. Thus, the user can more easily specify the position of a specific person.

なお、上述したように、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものである。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。   Note that, as described above, the zoom ratio here does not have to be a precise value such as 1.5 times or 2 times, and directly or indirectly indicates the degree of the size of the subject in the captured image. It is a thing. For example, particularly when zoom by changing the position of the camera 11 (for example, zoom in and zoom out by dolly) is used, the zoom factor is not a minute value such as 1.5 times or 2 times, but the size of the object. Something that directly indicates the degree of size (eg, a parameter that indicates the degree of approximate size of the subject, etc.), or that indirectly indicates the degree of size of the subject (eg, the position of the camera 11 on the rail , Etc.).

(カメラライン制御部191)
カメラライン制御部191は、後述するカメララインに関連する各種パラメータの演算処理、カメララインの表示制御、及びカメララインへのユーザ入力の取得を行う。ここで、「カメラライン」とは、本発明の実施形態における造語であり、端末装置100の表示画面に表示されるユーザインタフェースの表示要素かつ入力要素を示すラインである。
(Camera line control unit 191)
The camera line control unit 191 performs arithmetic processing of various parameters related to a camera line, which will be described later, display control of the camera line, and acquisition of a user input to the camera line. Here, “camera line” is a coined word in the embodiment of the present invention, and is a line indicating a display element and an input element of the user interface displayed on the display screen of the terminal device 100.

より具体的には、上記したように、位置取得部183によってユーザの指定に基づく選択位置が取得されるが、カメララインは、センタオフィス10に対応する3次元仮想空間90において当該選択位置に対応する3次元選択位置と当該3次元選択位置を撮像範囲内に含むカメラ11の3次元設置位置とに応じたライン(以下、「3次元ライン」とも言う)であり得る(図14を用いて後述する)。なお、以下の説明においては、ユーザの指定に基づく選択位置の例として、ユーザにより指定された位置に対応するオブジェクトの位置を用いるが、ユーザにより指定された位置自体が用いられてもよい。   More specifically, as described above, the position acquisition unit 183 acquires the selected position based on the specification of the user, but the camera line corresponds to the selected position in the three-dimensional virtual space 90 corresponding to the center office 10 Can be a line (hereinafter, also referred to as “three-dimensional line”) according to the three-dimensional selection position to be selected and the three-dimensional installation position of the camera 11 that includes the three-dimensional selection position in the imaging range (described later with FIG. 14) To do). In the following description, although the position of the object corresponding to the position designated by the user is used as an example of the selected position based on the designation by the user, the position itself designated by the user may be used.

本実施形態においては、「ライン」の例としてストレートな線を用いて説明するが、「ライン」は、曲がった線であってもよい。また、例えば、3次元選択位置と3次元設置位置とに応じたラインは、選択位置と設置位置とを両端とするライン全体であってもよいし、選択位置と設置位置とを両端とするラインの一部であってもよい。また、以下の説明において、「カメラライン」は、3次元ラインを撮像画像の表示画面の対応する位置に射影したライン(2次元ライン)をも意味し得る。   In the present embodiment, a straight line is described as an example of the “line”, but the “line” may be a bent line. Also, for example, the line corresponding to the three-dimensional selection position and the three-dimensional installation position may be the entire line having the selection position and the installation position at both ends, or a line at both ends being the selection position and the installation position. It may be part of In the following description, “camera line” can also mean a line (two-dimensional line) obtained by projecting a three-dimensional line onto a corresponding position on the display screen of a captured image.

なお、前述したように、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、光軸を含むカメラのレンズと垂直な方向)、画角(または撮像範囲域)等を含む。端末装置100は、当該情報を利用し、3次元選択位置を撮像範囲内に含むカメラ11がどれであるかを識別することができる。当該情報は、情報管理サーバ200に格納されており、端末装置100が当該情報を必要とする状況が発生した際に通信部110を介して適宜当該情報を取得するようにしてよい。   As described above, the data of the three-dimensional virtual space 90 also includes information related to each camera 11. For example, information related to each camera 11 is a three-dimensional virtual position corresponding to the installation position of each camera 11, an imaging direction (for example, a direction perpendicular to the lens of the camera including the optical axis), an angle of And so on. The terminal device 100 can use the information to identify which camera 11 includes the three-dimensional selection position in the imaging range. The information may be stored in the information management server 200, and the terminal device 100 may appropriately acquire the information through the communication unit 110 when a situation requiring the information occurs.

カメララインは、端末装置100の表示画面上、例えば、図4の俯瞰撮像画像61上やマップ画像69上に射影して重畳表示される(図15を用いて後述する)。端末装置100のユーザは、表示画面上に表示されたカメララインを見ることで、いま見ている撮像画像を撮像するカメラとは別の角度から3次元選択位置を撮像することが可能なカメラが存在しているか否か、存在している場合は、そのカメラといま見ている撮像画像を撮像するカメラと3次元選択位置とがどのような相対的位置関係にあるのか、を直感的に知ることができる。   The camera line is projected and superimposed on the display screen of the terminal device 100, for example, the bird's-eye view image 61 or the map image 69 in FIG. 4 (described later with reference to FIG. 15). The user of the terminal device 100 can view a camera line displayed on the display screen to obtain a camera capable of capturing a three-dimensional selection position from an angle different from that of the camera capturing the captured image currently being viewed. Intuitively know whether or not the camera exists, and if there is a relative positional relationship between the camera, the camera that captures the image being viewed, and the three-dimensional selection position. be able to.

図14は、センタオフィス10に対応する3次元仮想空間内におけるカメララインの例を説明するための説明図である。   FIG. 14 is an explanatory diagram for describing an example of a camera line in the three-dimensional virtual space corresponding to the center office 10.

図14を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8や図9の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。また、オブジェクト91Aおよびオブジェクト91Bそれぞれの3次元重心位置92Aおよび92Bを図示している。   Referring to FIG. 14, a three-dimensional virtual space 90 corresponding to the center office 10 is shown. Further, in the three-dimensional virtual space 90, an object 91A and an object 91B are arranged. The object 91A corresponds to a certain person (for example, Mr. A), and is arranged at a three-dimensional virtual position corresponding to the position of the seat of the certain person in the center office 10. Further, the object 91 B is arranged at a three-dimensional virtual position corresponding to a certain person (for example, Mr. B) and corresponding to the position of the seat of the certain person in the center office 10. Similar to the example of FIG. 8 and FIG. 9, the object 91 is a cylindrical object with a radius R and a height H. Also, three-dimensional gravity center positions 92A and 92B of the object 91A and the object 91B are illustrated.

さらに、当該3次元仮想空間90には、仮想カメラ93C、仮想カメラ93D、仮想カメラ93Eが配置されており、それぞれに対応する仮想カメラ位置(例えば、仮想カメラのレンズの中心位置)94C、94D、94Eが存在する。そして、オブジェクト91Aの3次元重心位置92Aと仮想カメラ位置94C、94D、94Eとをそれぞれ両端とする線分、すなわち、カメラライン95C、95D、95Eを図示している。また、オブジェクト91Bの3次元重心位置92Bと仮想カメラ位置94Cとを両端とするカメラライン95Fも参考までに図示している。この例では、オブジェクト91Bは仮想カメラ93Cと93Eの撮像範囲内には含まれておらず、仮想カメラ93Dの撮像範囲内にのみ含まれているため、オブジェクト91Bに対するカメララインは1本だけしか存在していない。   Furthermore, in the three-dimensional virtual space 90, virtual cameras 93C, virtual cameras 93D, and virtual cameras 93E are disposed, and virtual camera positions (for example, center positions of lenses of virtual cameras) 94C, 94D, respectively corresponding thereto. There is 94E. Further, line segments respectively having the three-dimensional gravity center position 92A of the object 91A and the virtual camera positions 94C, 94D, 94E at both ends, that is, camera lines 95C, 95D, 95E are illustrated. Further, a camera line 95F having the three-dimensional gravity center position 92B of the object 91B and the virtual camera position 94C at both ends is also shown for reference. In this example, the object 91B is not included in the imaging range of the virtual cameras 93C and 93E, but is included only in the imaging range of the virtual camera 93D, so only one camera line for the object 91B is present. I did not.

図15は、端末装置100の表示画面に表示されるカメララインの一例を説明するための説明図である。   FIG. 15 is an explanatory diagram for describing an example of a camera line displayed on the display screen of the terminal device 100.

図15を参照すると、俯瞰モードまたは近接モードで表示される表示画面80が示されている。表示画面80は、撮像画像81、マップ画像84、射影して重畳表示されたカメラライン87C、87D、87E、86C、86D、86E、を含む。なお、撮像画像81で指定された位置に応じたオブジェクトに対応する人物映像の付近に円環上の印が重畳描画されているが、この印は、指定された位置に応じたオブジェクトが画面上のどれであるかについて操作しているユーザにフィードバック表示された結果である。   Referring to FIG. 15, a display screen 80 displayed in the eyebrow mode or the proximity mode is shown. The display screen 80 includes a captured image 81, a map image 84, and camera lines 87C, 87D, 87E, 86C, 86D, and 86E projected and displayed superimposed. In addition, although the mark on the ring is superimposed and drawn near the person image corresponding to the object according to the position designated by the captured image 81, the object according to the designated position is on the screen It is the result of feedback display to the user who is operating about which of.

撮像画像81は、俯瞰撮像画像61または近接撮像画像71と同類の画像である。また、マップ画像84は、マップ画像69またはマップ画像75と同類の画像である。すなわち、カメララインの表示は、俯瞰モードおよび近接モードのいずれのモードにおいても同様に実現可能である。   The captured image 81 is an image similar to the overhead captured image 61 or the proximity captured image 71. The map image 84 is an image similar to the map image 69 or the map image 75. That is, the display of the camera line can be realized in the same manner in either the overhead mode or the proximity mode.

カメラライン87は、ユーザが撮像画像81内のオブジェクトの画像を指定する操作(例えば、当該オブジェクトの位置をタッチする操作)によって、オブジェクトの画像の近傍に重畳表示される。なお、マップ画像84上でオブジェクトが指定された場合には、カメラライン86が重畳表示される。このとき、表示画面80上に描画されるカメララインは、センタオフィス10に対応する3次元仮想空間90内のカメララインが撮像画像81またはマップ画像84の2次元平面へ射影されたラインであり、撮像画像81内に映っているオブジェクトとカメラとを両端とする2次元の線分が描画要素となる。   The camera line 87 is superimposed and displayed in the vicinity of the image of the object by an operation of the user specifying the image of the object in the captured image 81 (for example, an operation of touching the position of the object). When an object is designated on the map image 84, the camera line 86 is superimposed and displayed. At this time, the camera line drawn on the display screen 80 is a line where the camera line in the three-dimensional virtual space 90 corresponding to the center office 10 is projected onto the two-dimensional plane of the captured image 81 or the map image 84, Two-dimensional line segments having the object and the camera shown in the captured image 81 at both ends become drawing elements.

なお、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも撮像画像81の内部に射影されなくてもよい。このとき、3次元ラインのうち撮像画像81の内部に射影されない部分は、撮像画像81をはみ出すようにして描画されてもよいし、描画されなくてもよい。ユーザは、3次元ラインのうち撮像画像81の内部に射影されない部分が描画されなくても、撮像画像81の内部に描画された線分の伸展先を推測することで、そのカメララインに対応したカメラまたはオブジェクトの位置を大まかに把握することができる。   Note that at least one of the camera and the object may not necessarily be projected inside the captured image 81. At this time, a portion of the three-dimensional line that is not projected inside the captured image 81 may or may not be drawn out of the captured image 81. The user corresponds to the camera line by estimating the extension destination of the line segment drawn in the inside of the captured image 81 even if the part of the three-dimensional line that is not projected inside the captured image 81 is not drawn You can roughly grasp the position of the camera or object.

また、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも表示画面80の内部に射影されなくてもよい。このとき、3次元ラインのうち表示画面80の内部に射影されない部分は、描画されなくてよい。ユーザは、3次元ラインのうち表示画面80の内部に射影されない部分が描画されなくても、表示画面80の内部に描画された線分の伸展先を推測することで、そのカメララインに対応したカメラまたはオブジェクトの位置を大まかに把握することができる。   In addition, at least one of the camera and the object may not necessarily be projected inside the display screen 80. At this time, a portion of the three-dimensional line which is not projected inside the display screen 80 may not be drawn. Even if a portion of the three-dimensional line that is not projected inside the display screen 80 is not drawn, the user corresponds to the camera line by estimating the extension destination of the line segment drawn inside the display screen 80. You can roughly grasp the position of the camera or object.

さらに、カメララインは、表示要素だけでなく入力要素でもあり得る。そのため、ユーザは、カメララインの任意の1つをタッチして指定操作することで、指定入力されたカメララインに対応する実空間内のカメラ11を指定することができる。このとき、撮像画像81は、当該指定操作に対応して、指定されたカメラ11により生成された俯瞰撮像画像に切り換わる。これは、実空間情報提供部181が、指定されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させることによって実現される。   Furthermore, the camera line can be not only a display element but also an input element. Therefore, the user can designate the camera 11 in the real space corresponding to the designated and inputted camera line by touching any one of the camera lines and performing the designation operation. At this time, the captured image 81 is switched to the overhead captured image generated by the designated camera 11 in response to the designating operation. This is realized by the real space information provision unit 181 acquiring the overhead view captured image generated by the designated camera 11 and displaying the overhead view captured image on the display unit 150.

ユーザは、指定したオブジェクトと切り換え先のカメラとの相対的な位置関係をカメララインによってカメラ切り換え操作前に直感的に知ることができる。また、そのカメラライン自身が入力操作のコントローラとして機能することによって、直感的で容易なカメラ切り換え操作の入力方式が実現される。   The user can intuitively know the relative positional relationship between the designated object and the switching destination camera by the camera line before the camera switching operation. In addition, the camera line itself functions as a controller for input operation, whereby an intuitive and easy input method of camera switching operation is realized.

例えば、端末装置100にカメラ切り換えボタンが備えられており、当該ボタンを押下すると、カメラ11がシステムの指定する順番に切り換わっていくような従来のカメラ切り換え操作の入力方式を想定する。係る入力方式を用いた場合には、ユーザはカメラ切り換え後の俯瞰撮像画像を見るまで、どのカメラに切り換わったかを知ることができず、前述した複数カメラ同士の相互位置関係がわからず認知的に混乱してしまう問題(Spatial Discontinuities)が発生しやすい。カメララインを利用した本実施形態に係る入力方式によれば、そのような従来のカメラ切り換え入力方式が有する課題を解決することが可能である。   For example, a camera switching button is provided in the terminal device 100, and a conventional camera switching operation input method is assumed in which when the button is pressed, the camera 11 switches in the order specified by the system. When such an input method is used, the user can not know which camera has been switched to until he / she sees a captured image after camera switching, and the above-described mutual positional relationship of the plurality of cameras is not understood and cognitively Problems (Spatial Disruptions) are likely to occur. According to the input method according to the present embodiment using a camera line, it is possible to solve the problems of such a conventional camera switching input method.

さらに、カメララインは、上記した利点以外にも操作入力上の利点も備える。例えば、ユーザは、オブジェクトの指定入力後に表示されるカメララインの任意の1つをタッチして指定操作した後、指定したカメラライン上の任意の位置をさらにタッチして指定操作することで、カメラ切り換え後のズーム率を指定入力することができる。   Furthermore, the camera line also has an operation input advantage in addition to the advantages described above. For example, the user touches an arbitrary one of the camera lines displayed after designating input of an object to perform designating operation, and then further touches an arbitrary position on the designated camera line to perform designating operation. The zoom factor after switching can be designated and input.

例えば、カメララインの中点のあたりをタッチして指定すれば、カメララインの線分の両端となるオブジェクトとカメラとの中間地点の位置から当該オブジェクトを見るような視点位置指定がなされたものとみなし、指定されたカメララインに対応するカメラに切り換わるだけでなく、ズーム率が2倍の近接撮像画像として撮像画像81に表示される。また、同様に、カメラライン上でオブジェクト側端点から3分の1程度の位置をタッチして指定すれば、当該カメララインに対応したカメラでズーム率が3倍の近接撮像画像が撮像画像81に表示される。   For example, if the middle point of the camera line is touched and specified, the viewpoint position specification is performed such that the object is viewed from the position of the middle point between the object and the camera at both ends of the line segment of the camera line. Not only it is regarded as being, it switches to the camera corresponding to the specified camera line, but it is displayed on the captured image 81 as a close-up captured image having a zoom ratio of 2 times. Similarly, if a position about one third of the object side end point on the camera line is touched and designated, a close-up captured image with a zoom ratio of 3 times that of the camera line corresponds to the captured image 81 Is displayed.

なお、上記したように、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも撮像画像81の内部に射影されなくてもよい。このとき、カメララインにおけるカメラ側端点およびオブジェクト側端点のうち、撮像画像81の外部に射影された端点の位置は、ズーム率の算出にそのまま利用されてもよいし、撮像画像81の端部(例えば、撮像画像におけるカメララインと撮像画像の端部との交点)に補正されてからズーム率の算出に利用されてもよい。   Note that, as described above, at least one of the camera and the object may not necessarily be projected inside the captured image 81. At this time, among the camera side end point and the object side end point in the camera line, the position of the end point projected to the outside of the captured image 81 may be used as it is for calculating the zoom ratio. For example, it may be used to calculate the zoom factor after being corrected to the intersection of the camera line in the captured image and the end of the captured image.

また、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも表示画面80の内部に射影されなくてもよい。このとき、カメララインにおけるカメラ側端点およびオブジェクト側端点のうち、表示画面80の外部に射影された端点の位置は、ズーム率の算出にそのまま利用されてもよいし、表示画面80の端部(例えば、表示画面80におけるカメララインと表示画面80の端部との交点)に補正されてからズーム率の算出に利用されてもよい。   In addition, at least one of the camera and the object may not necessarily be projected inside the display screen 80. At this time, among the camera side end point and the object side end point in the camera line, the position of the end point projected to the outside of the display screen 80 may be used as it is for calculation of the zoom ratio. For example, the correction may be made to the zoom ratio after being corrected to the intersection of the camera line on the display screen 80 and the end of the display screen 80).

上記のカメララインへの2種類の入力方法、すなわち、複数のカメララインから切り換え先のカメラを選択指定するためのタッチ入力と、選択されたひとつのカメララインに対してズーム率を指定するためのタッチ入力とは、複数回のタッチ入力ではなく、1回のタッチ入力に統合して効率的に行うことも可能である。   The above two input methods to the camera line, that is, a touch input for selecting and designating a camera to be switched from among a plurality of camera lines, and for designating a zoom ratio for one selected camera line The touch input can be integrated into one touch input and efficiently performed instead of a plurality of touch inputs.

例えば、ユーザがまず撮像画像81内のオブジェクトの画像領域を指で押下すると、そのオブジェクトを撮像できるカメラ11に対応するカメララインが表示画面80上に重畳表示される。このとき、ユーザは、表示画面すなわちタッチパネル820から指を離さずに、画面上のオブジェクトの位置から所望するカメラライン上の位置に指をドラッグしてから、タッチパネル820から指を離すことで、1回のタッチ入力(ドラッグ)で見たい撮像画像を撮像するカメラの指定入力と倍率のシステムへの指定入力とを行うことができる。   For example, when the user first presses the image area of an object in the captured image 81 with a finger, a camera line corresponding to the camera 11 capable of capturing the object is superimposed on the display screen 80. At this time, the user can drag the finger from the position of the object on the screen to the desired position on the camera line without releasing the finger from the display screen, that is, the touch panel 820, and then release the finger from the touch panel 820. It is possible to perform a designation input of a camera for capturing a captured image to be viewed by a touch input (drag) and a designation input of a magnification to the system by a touch input (drag).

オブジェクト指定、切り換え希望先のカメラ指定、及び当該カメラのズーム倍率指定という、従来は3段階の指定入力操作が必要であった入力を、本実施形態に係る方式を導入することによって、このように1回のタッチ入力で行えることは、効率(efficiency)の観点からも、複数カメラ切り換え機能を有する遠隔映像伝送アプリケーションを使用するユーザへの大きなユーザビリティの向上をもたらすものである。   In this way, by introducing the method according to the present embodiment, the input that conventionally required three steps of designating input operations such as designating an object, designating a camera desired to be switched, and designating a zoom magnification of that camera What can be done with one touch input brings about a large usability improvement to the user who uses the remote video transmission application having a multiple camera switching function also from the viewpoint of efficiency.

図16は、カメラライン上の位置を指定するタッチ入力とそれに対するフィードバック表示のいくつかの例を説明するための説明図である。図16には、表示画面80に表示されるカメララインとそれへのタッチ入力を行っているユーザの手が示されている。   FIG. 16 is an explanatory diagram for describing some examples of touch input for specifying a position on a camera line and feedback display therefor. FIG. 16 shows the camera line displayed on the display screen 80 and the user's hand making a touch input thereto.

図16(a)に示される例では、ユーザがカメラライン上の位置をタップやドラッグ入力で指定すると、当該カメラライン上の位置に対応する部分的な領域の色や濃度が変わることによって、ユーザへ指定された入力位置に関するフィードバック情報を返す。   In the example shown in FIG. 16A, when the user designates the position on the camera line by tapping or dragging, the user changes the color or density of the partial area corresponding to the position on the camera line. Returns feedback information about the specified input position.

図16(b)に示される例では、ユーザがカメララインの端点を移動させる入力操作を行うことによって(ユーザがカメララインの長さを変更する入力操作を行うことによって)、端点によりカメラライン上の位置を指定する。この際のタッチ入力方式は、ドラッグが望ましい。なお、カメララインで指定できる最大長をあらかじめ表示しておいても構わない。   In the example shown in FIG. 16B, the user performs an input operation to move the end point of the camera line (by the user performing the input operation to change the length of the camera line), the end point on the camera line Specify the position of. The touch input method at this time is preferably dragging. Note that the maximum length that can be specified by the camera line may be displayed in advance.

図16(c)に示される例では、ユーザがカメララインの長さを変更する入力操作を行うことによって、カメラライン上の位置を指定する点においては、図16(b)と同様である。しかし、図16(c)に示される例では、カメララインの端点をドラッグしてカメララインの長さを調節するのではなく、カメラライン上をプレスアンドホールド(長押し)することで、押している時間の長さに応じて端点が移動される。なお、押している時間の長さに応じて、図16(a)のように部分的な領域の位置が変更されていくフィードバック表示がなされてもよい。   The example shown in FIG. 16C is the same as FIG. 16B in that the user designates the position on the camera line by performing an input operation to change the length of the camera line. However, in the example shown in FIG. 16C, pressing is performed by pressing and holding (long press) on the camera line rather than dragging the end point of the camera line to adjust the length of the camera line. The endpoints are moved according to the length of time. Note that feedback display may be performed in which the position of the partial area is changed as illustrated in FIG. 16A according to the length of the pressing time.

図17は、図14に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図17を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A、現在撮像に用いられているカメラ11Aの仮想カメラ位置O、切り換え先のカメラとなるカメラ11Bに対応する仮想カメラ93Eの仮想カメラ位置94E、カメラ11Bのカメラライン95Eが示されている。また、図9と同様に、軸y、軸x、画角θ及び仮想面93が示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。   FIG. 17 is an explanatory diagram for describing an example of selection of an object arranged in the three-dimensional virtual space shown in FIG. Referring to FIG. 17, the positional relationship in the horizontal plane in the three-dimensional virtual space 90 is shown for easy understanding. Specifically, the virtual camera position of the virtual camera 93E corresponding to the object 91A disposed in the three-dimensional virtual space 90, the virtual camera position O of the camera 11A currently used for imaging, and the camera 11B serving as the switching destination camera. A camera line 95E of the camera 11B is shown at 94E. Further, as in FIG. 9, an axis y, an axis x, an angle of view θ, and a virtual surface 93 are shown. Also in this example, as in FIG. 9, for easy understanding, it is assumed that the camera 11 is installed so that the imaging direction of the camera 11 is parallel to the horizontal plane.

例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、カメラライン制御部191は、撮像画像内の上記位置に対応するカメラライン(この例ではカメラライン95E)を仮想面93上のA‐Eへ射影変換処理し、表示部150にカメララインを表示させる。また、ユーザが前記A‐E領域をタッチ入力した場合、カメラライン制御部191は、タッチ指定に対応するカメララインと当該カメラライン上の2次元の指定位置の情報とを、入力部120を介して取得し、その2次元の指定位置に対応する3次元仮想位置を変換により求める。   For example, as shown in FIG. 7, the position in the captured image is designated by the user. In this case, according to the method described with reference to FIG. 9, the camera line control unit 191 sets the camera line (camera line 95E in this example) corresponding to the above position in the captured image on the virtual plane 93 Projective transformation processing to E is performed, and a camera line is displayed on the display unit 150. When the user touches the AE area, the camera line control unit 191 inputs the camera line corresponding to the touch specification and the information on the two-dimensional designated position on the camera line via the input unit 120. And obtain a three-dimensional virtual position corresponding to the two-dimensional designated position by conversion.

求めた3次元仮想位置は、ユーザの所望する3次元仮想空間90内のユーザ視点位置に関する情報となり、前述のように、当該ユーザ視点位置に対応したカメラ11への切り換え処理および当該カメラ11の倍率指定ズーム処理が行われ、表示部150上の撮像画像81に対応する近接撮像画像の表示や、当該近接撮像画像における新たなカメララインの表示処理が、カメラライン制御部191を含む端末装置100によって行われる。   The obtained three-dimensional virtual position is information on the user's viewpoint position in the three-dimensional virtual space 90 desired by the user. As described above, the switching process to the camera 11 corresponding to the user's viewpoint position and the magnification of the camera 11 The terminal device 100 including the camera line control unit 191 performs specified zoom processing, and displays a close-up captured image corresponding to the captured image 81 on the display unit 150 or displays a new camera line in the close-up captured image. To be done.

以上に説明したように、カメラライン制御部191は、カメララインに関連する各種パラメータの演算処理、カメララインの表示制御、及びカメララインへのユーザ入力の取得を行うことが可能である。   As described above, the camera line control unit 191 can perform arithmetic processing of various parameters related to the camera line, display control of the camera line, and acquisition of a user input to the camera line.

(カメラライン選別部193)
カメラライン選別部193は、カメララインが複数存在する場合に(例えば、複数のカメラライン同士が近傍に存在する場合に)、表示画面80上に描画されたカメララインの指定入力誤りが発生したり、指定入力しにくかったりする問題を解決するために、(近傍にある)複数のカメララインの中から条件に最適なひとつのカメララインに絞り込んでユーザに提示する処理を行う。
(Camera line sorting unit 193)
When a plurality of camera lines exist (for example, when a plurality of camera lines exist in the vicinity), the camera line selection unit 193 generates a designation input error of the camera line drawn on the display screen 80 or In order to solve the problem of difficulty in designating input, a process of narrowing down to one camera line optimal for the condition from among a plurality of camera lines (nearby) is presented to the user.

図18は、カメララインが近傍に複数存在する場合の端末装置100の表示画面の一例を説明するための説明図である。なお、以下では、カメラライン同士が近傍に存在する場合に行われる処理を例として説明するが、複数のカメラライン同士が近傍に存在するか否かを問わず、複数のカメララインが存在する場合に、一律的に同様の処理が行われてもよい。   FIG. 18 is an explanatory diagram for describing an example of a display screen of the terminal device 100 when there are a plurality of camera lines in the vicinity. In the following description, processing performed when camera lines are in proximity to each other will be described as an example, but a plurality of camera lines may be in the vicinity regardless of whether a plurality of camera lines are in proximity to each other. The same processing may be uniformly performed.

図18を参照すると、俯瞰モードまたは近接モードで表示される撮像画像81が示されている。ユーザにより指定された位置に対応するオブジェクトとそれに対応するカメララインが3つ重畳表示されているが、当該3つのお互いが非常に近い表示位置に存在するため、ユーザはその内の所望のひとつのカメララインを選択してタッチ入力を行うのは困難であり、場合によっては意図しないカメララインを誤って選択入力してしまう恐れがある。また、入力以前に、カメララインが近傍に複数存在すると表示された各カメララインの視認性を損なうという問題もある。カメラライン選別部193は上記のような課題を解決する情報処理を行う。   Referring to FIG. 18, a captured image 81 displayed in the eyelid mode or the proximity mode is shown. Although the object corresponding to the position designated by the user and the three camera lines corresponding thereto are superimposed and displayed, since the three display positions are very close to each other, the user can select one of them as desired. It is difficult to select a camera line and perform touch input, and in some cases, there is a possibility that a camera line which is not intended may be erroneously selected and input. In addition, there is also a problem that the visibility of each camera line displayed when there are a plurality of camera lines in the vicinity before the input is impaired. The camera line sorting unit 193 performs information processing to solve the above-mentioned problems.

具体的には、カメラライン選別部193は、後述するカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったカメララインを最適なカメララインとしてひとつ選別し、そのひとつのカメララインのみを表示画面80上に表示させる処理を行う。   Specifically, the camera line selection unit 193 compares a plurality of camera lines existing in the vicinity according to the camera line evaluation condition described later, and selects one camera line with the highest evaluation as an optimum camera line. , And processing for displaying only one of the camera lines on the display screen 80.

以下、前記カメラライン評価条件と対応する比較処理の例をいくつか示す。   Hereinafter, some examples of comparison processing corresponding to the camera line evaluation condition will be shown.

一つ目のカメラライン評価条件は、ユーザにより指定された位置に対応するオブジェクトとカメラ11との間の「距離」である。当該距離は、カメララインの全長と同義であり、図14でいえば、カメラライン95C(または95D、95E)の全長、すなわち、3次元位置92Aと94C(または94D、95E)との2点間の距離を演算することにより求められる。比較評価の高低基準としては、例えば、距離の値が大きいカメララインほど評価は高くされるとよい。その理由は、カメラ11の性能が同じであれば、距離が大きいほど撮像画像81の視野角が広くなりユーザにより指定された位置・オブジェクトの周囲の状況までより広く把握できる、また、距離が大きいほどユーザが指定できるズーム率の範囲が広くなりユーザが視点決定できる自由度が大きくなる、などユーザによって享受される効果がより優れていると考えられるためである。   The first camera line evaluation condition is the “distance” between the object corresponding to the position designated by the user and the camera 11. The distance is synonymous with the total length of the camera line, and in FIG. 14, the total length of the camera line 95C (or 95D, 95E), that is, between two points of the three-dimensional position 92A and 94C (or 94D, 95E) It is obtained by computing the distance of As a high-low standard of comparative evaluation, for example, the evaluation may be made higher as the camera line has a larger distance value. The reason is that if the performance of the camera 11 is the same, the viewing angle of the captured image 81 becomes wider as the distance is larger, and it is possible to grasp more widely up to the situation around the position / object designated by the user. This is because it is considered that the effect to be enjoyed by the user is more excellent, for example, the range of the zoom factor which can be designated by the user becomes wider and the degree of freedom by which the user can decide the viewpoint becomes larger.

二つ目のカメラライン評価条件は、センタオフィス10に対応する3次元仮想空間90におけるカメララインと水平面(床面)との成す「角度」である。当該角度は、図14でいえば、3次元位置92Aと94C、そして94Cを3次元仮想空間90の水平面(床面)上に垂直に正射影した点94C’の3点94C‐92A‐94C’の角度を余弦定理等で演算することにより求められる。比較評価の高低基準としては、例えば、角度の値が小さく0に近いカメララインほど評価は高くされるとよい。その理由は、床の水平面との角度が小さいほど、カメララインの光線も水平に近くなりユーザにより指定された対象人物の見え方が対人的視点で自然になり(他方、高角度で上から撮ると監視カメラ的になる)、ズーム表現もあたかも歩いて近づくかのような自然な演出になる(他方、高角度で上からズームすると空を滑空するような不自然な感覚になる)、などユーザによって享受される効果がより優れていると考えられるためである。   The second camera line evaluation condition is the “angle” between the camera line and the horizontal surface (floor surface) in the three-dimensional virtual space 90 corresponding to the center office 10. The angles are, in FIG. 14, three points 94C-92A-94C 'of the point 94C' obtained by orthogonally projecting the three-dimensional positions 92A and 94C and 94C on the horizontal surface (floor surface) of the three-dimensional virtual space 90. It is obtained by computing the angle of by the cosine theorem or the like. As a high / low standard of the comparative evaluation, for example, it is preferable that the evaluation is made higher as the camera line whose angle value is smaller and closer to zero. The reason is that the smaller the angle between the floor and the horizontal plane, the closer the rays of the camera line become horizontal, and the way the target person specified by the user looks natural from an interpersonal viewpoint (while taking a picture from above at a high angle) And the zoom expression is as natural as walking and approaching (while on the other hand, zooming from above at a high angle results in an unnatural feeling like gliding through the sky), etc. It is because it is thought that the effect to be enjoyed by is better.

三つ目のカメラライン評価条件は、各カメララインに対応するカメラ11の「性能」であり、複数のカメラ11がそれぞれ異なる機種や性質を持っている場合に有効になる。性能とは、例えば、カメラのハードウェア性能であり、比較評価の高低基準例と併せていくつか例を記すと、撮像素子の画素数(多い方が高評価)、撮像素子の面積(大きい方が高評価)、レンズの画角(広い方が高評価)、レンズのF値(小さい方が高評価)、シャッタースピード(範囲が広い方が高評価)、最大フレームレート(大きい方が高評価)、最大ISO感度(大きい方が高評価)、光学ズーム機構の有無(有る方が高評価)、撮影可能距離(距離範囲が広い方が高評価)等になる。比較評価の高低基準の理由は、高評価のカメラほど高画質の撮像画像をユーザに提供できる可能性が高いと考えられるためである。   The third camera line evaluation condition is the “performance” of the camera 11 corresponding to each camera line, and is effective when the plurality of cameras 11 have different models and properties. The performance is, for example, the hardware performance of the camera, and the number of pixels of the imaging device (the higher is the evaluation) and the area of the imaging device (the larger one) Rated high), the angle of view of the lens (wide is high), the F-number of the lens (small is high), shutter speed (wide is high), maximum frame rate (large is high) ), The maximum ISO sensitivity (the larger is the high evaluation), the presence or absence of the optical zoom mechanism (the higher evaluation is), the photographing possible distance (the wide distance range is high evaluation) and the like. The reason for the high and low criteria of the comparative evaluation is that it is considered that the higher the rating of the camera, the higher the possibility that the high-quality captured image can be provided to the user.

また、カメラライン選別部193は、カメラライン制御部191により求められた複数のカメララインが近傍に存在し前述の選別処理を行うべきか否かの判定を行う。前記近傍に存在しているか否かの判定は、例えば、表示画面80上に描画された複数のカメララインの表示領域に重複が見られたり、前記複数のカメララインの表示領域間の距離が所定の2次元距離以下であったりした場合に(例えば、前記距離が7ミリメートルや44ピクセル以下であった場合に)、該当するカメラライン群が近傍位置関係にあり前述の選別処理を行うべきであると判定してもよい。また、3次元仮想空間90内における複数のカメラライン間の成す角度が所定以下であった場合に(例えば、10度未満であった場合に)、該当するカメラライン群が近傍位置関係にあり前述の選別処理を行うべきであると判定してもよい。   Further, the camera line sorting unit 193 determines whether a plurality of camera lines obtained by the camera line control unit 191 exist in the vicinity and the above-described sorting process should be performed. The determination as to whether or not the image is present in the vicinity is, for example, that a display area of a plurality of camera lines drawn on the display screen 80 is overlapped, or the distance between the display areas of the plurality of camera lines is predetermined. If the distance is less than or equal to the two-dimensional distance (for example, when the distance is less than 7 mm or 44 pixels), the corresponding camera line group is in a close positional relationship and the above-described sorting process should be performed. It may be determined that In addition, when the angle formed between the plurality of camera lines in the three-dimensional virtual space 90 is less than or equal to a predetermined value (for example, less than 10 degrees), the corresponding camera line group is in the vicinity positional relationship. It may be determined that the sorting process should be performed.

以上に説明したように、カメラライン選別部193は、後述するカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったものを最適なカメララインとしてひとつ選別する処理を行うことが可能である。そして、カメラライン選別部193は、そのひとつのカメララインのみを表示画面80上に表示させる処理を行うことが可能である。   As described above, the camera line selection unit 193 compares a plurality of camera lines existing in the vicinity according to the camera line evaluation condition described later, and selects one camera line with the highest evaluation as an optimum camera line. Processing can be performed. Then, the camera line sorting unit 193 can perform a process of displaying only the one camera line on the display screen 80.

(カメラライン推薦部195)
カメラライン推薦部195(表示制御部)は、後述する情報管理サーバ200の視点選好学習部231によって、ユーザの指定に基づく選択位置に存在するオブジェクトに対応する人物に対するユーザの閲覧条件が算出され、閲覧条件と視点位置の指定回数との関係が算出された場合、視点選好学習部231によって算出された関係に応じた表示を制御する。ここで、閲覧条件は特に限定されない。しかし、後述する例では、閲覧条件が、3次元仮想空間における人物とユーザとの距離、3次元仮想空間における人物に対するユーザの視点位置の角度の少なくともいずれか一方である場合を想定する。視点選好学習部231によって算出された関係に応じた表示制御としては、様々な表示制御が想定される。
(Camera line recommendation unit 195)
The camera line recommendation unit 195 (display control unit) causes the viewpoint preference learning unit 231 of the information management server 200 described later to calculate the user's viewing conditions for the person corresponding to the object present at the selected position based on the user specification. When the relationship between the viewing condition and the number of times of designation of the viewpoint position is calculated, the display according to the relationship calculated by the viewpoint preference learning unit 231 is controlled. Here, the viewing conditions are not particularly limited. However, in the example described later, it is assumed that the viewing condition is at least one of the distance between the person and the user in the three-dimensional virtual space and the angle of the viewpoint position of the user with respect to the person in the three-dimensional virtual space. As display control according to the relationship calculated by the viewpoint preference learning unit 231, various display controls are assumed.

例えば、カメラライン推薦部195は、視点位置の指定回数が最大となる閲覧条件に応じた3次元ラインを選択し(例えば、視点位置の指定回数が最大となる閲覧条件に最も近い3次元ラインを選択し)、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとが区別可能に視認されるように、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとのうち少なくとも一方の表示態様を変更する。   For example, the camera line recommendation unit 195 selects a three-dimensional line according to the viewing condition in which the number of designations of the viewpoint position is the largest (for example, the three-dimensional line closest to the viewing condition in which the number of designations of the viewpoint positions is the largest). And (2) selecting a two-dimensional line corresponding to the selected three-dimensional line so that the two-dimensional line corresponding to the selected three-dimensional line and the two-dimensional line corresponding to the other three-dimensional line The display mode of at least one of two-dimensional lines corresponding to another three-dimensional line is changed.

より具体的に、カメラライン推薦部195は、あるユーザがある位置に存在する人物に対応するオブジェクトを指定した場合に提示される、前記オブジェクトに対応する複数のカメララインの中から、前記ユーザが最も好んで指定するであろうカメラライン(以下「選好予測カメラライン」)を選び、ユーザがその他のカメララインと識別できるような様態の変更を行って端末装置100の表示画面上に提示する。前記選好予測カメララインの選択は、後述する情報管理サーバ200の視点選好学習部231によって統計処理により予測されてカメラライン推薦部195に送信される予測データ(例えば、視点位置の指定回数が最大となる閲覧条件)に基づき行われる。   More specifically, in the camera line recommendation unit 195, the user is selected from among a plurality of camera lines corresponding to the object, which is presented when the user specifies an object corresponding to a person present at a certain position. A camera line (hereinafter referred to as a “preference expected camera line”) that is most preferably designated is selected, and the user changes the mode so as to be distinguished from other camera lines and presents it on the display screen of the terminal device 100. The selection of the preference prediction camera line is prediction data predicted by statistical processing by a viewpoint preference learning unit 231 of the information management server 200 described later and transmitted to the camera line recommendation unit 195 (for example, the number of times of designation of viewpoint position is maximum). Viewing conditions)).

図26は、端末装置100の表示画面に表示される選好予測カメララインの一例を説明するための説明図である。符号89以外の符号の構成要素については、前述の図15と同一であるので重複説明を省略する。撮像画像81またはマップ画像84上には、それぞれ重畳表示されたカメララインが3個ずつ表示されている。   FIG. 26 is an explanatory diagram for describing an example of a preference prediction camera line displayed on the display screen of the terminal device 100. The components of the reference numerals other than the reference numeral 89 are the same as those of FIG. On the captured image 81 or the map image 84, three superimposed camera lines are displayed.

カメラライン推薦部195は、後述する情報管理サーバ200の視点選好学習部231から予測データ(例えば、視点位置の指定回数が最大となる閲覧条件)を受信し、後述する情報管理サーバ200の視点選好学習部231から予測データを受信し、3個のカメララインのうちの1個である87E(または86E)が前記選好予測カメララインであることを特定する。そして、カメラライン推薦部195は、前記選好予測カメララインとその他のカメララインとをユーザが視認識別できるように表示様態の変更処理を行う。   The camera line recommendation unit 195 receives prediction data (for example, viewing conditions where the number of times of specifying the viewpoint position is maximum) from the viewpoint preference learning unit 231 of the information management server 200 described later, and the viewpoint preference of the information management server 200 described later The prediction data is received from the learning unit 231, and it is specified that 87E (or 86E) which is one of the three camera lines is the preference prediction camera line. Then, the camera line recommendation unit 195 performs a process of changing the display mode so that the user can visually identify the preference prediction camera line and the other camera lines.

図26の例では、カメラライン推薦部195は選好予測カメララインの近傍にのみ星形の識別記号89を表示している。カメラライン推薦部195が行うその他の様態の変更の例としては、選好予測カメラライン以外のその他のカメララインだけ半透明で表示させたり、その他のカメララインの表示を行わないようにしたりする処理が考えられる。   In the example of FIG. 26, the camera line recommendation unit 195 displays a star-shaped identification symbol 89 only in the vicinity of the preference prediction camera line. As an example of the other mode change performed by the camera line recommendation unit 195, processing for displaying only the other camera lines other than the preference prediction camera line as semi-transparent or displaying no other camera line is performed. Conceivable.

あるいは、カメラライン推薦部195は、ユーザにカメララインを指定操作させるのではなく、視点位置の指定回数が最大となる閲覧条件に応じた3次元ライン(例えば、視点位置の指定回数が最大となる閲覧条件に最も近い条件の3次元ライン)における視点位置を算出し、算出した視点位置に対応する撮像画像が表示されるように自動的に制御してもよい。すなわち、カメラライン推薦部195は、ユーザがある位置に存在する人物に対応するオブジェクトを指定した段階で、自動的に選好予測カメララインやそのライン上の位置を視点の位置として確定し、端末装置100に情報管理サーバ200と通信させて前記確定された視点の位置からの撮像画像81を表示画面80に切り換え表示させてもよい。   Alternatively, the camera line recommendation unit 195 does not cause the user to designate the camera line, but a three-dimensional line according to the viewing condition in which the number of designations of the viewpoint position is the largest (for example, the number of designations of the viewpoint positions is the maximum The viewpoint position in the three-dimensional line of the condition closest to the viewing condition may be calculated, and automatic control may be performed so that the captured image corresponding to the calculated viewpoint position is displayed. That is, when the user designates an object corresponding to a person present at a certain position, the camera line recommendation unit 195 automatically determines the preference prediction camera line and the position on that line as the position of the viewpoint, and the terminal device The captured image 81 from the position of the determined viewpoint may be switched and displayed on the display screen 80 by communicating with the information management server 200 at 100.

<2−3.ソフトウェア構成>
次に、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図19は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図19を参照すると、端末装置100は、OS(Operating System)840及びアプリケーションソフトウェアを備える。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
<2-3. Software configuration>
Next, an example of the software configuration of the terminal device 100 according to the present embodiment will be described. FIG. 19 is a block diagram showing an example of the software configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 19, the terminal device 100 includes an operating system (OS) 840 and application software. Then, the terminal device 100 includes, as application software, a soft phone 851, an ultra-realism client 853, and a call origination control function 855.

OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。   The OS 840 is software that provides basic functions for operating the terminal device 100. The OS 840 executes each application software.

ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。電話部189は、例えば、ソフトフォン851により実装され得る。   The softphone 851 is application software for making a call using the terminal device 100. The telephone unit 189 may be implemented by, for example, the softphone 851.

超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。実空間情報提供部181は、例えば、超臨場感クライアント853により実装され得る。   The ultra-realism client 853 is application software for providing the terminal device 100 with information of real space. The real space information provision unit 181 may be implemented by, for example, the ultra-realism client 853.

なお、超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。   Note that the ultra-realism client 853 may acquire state information indicating the state of a person who is in the real space (for example, the center office 10), and may provide the softphone 851 via the OS. Then, the softphone 851 may control call origination based on the state information.

また、電話発信制御機能855は、表示画面内の撮像画像に写っている人物の通信装置の通信用IDを取得するアプリケーションソフトウェアである。位置取得部183、オブジェクト選択部185及びID取得部187は、電話発信制御機能855により実装され得る。   In addition, the telephone transmission control function 855 is application software for acquiring a communication ID of a communication device of a person shown in a captured image in a display screen. The position acquisition unit 183, the object selection unit 185, and the ID acquisition unit 187 may be implemented by the telephone transmission control function 855.

なお、電話発信制御機能855は、通信用IDを取得すると、OSを介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。   When the call origination control function 855 acquires the communication ID, it provides the softphone 851 via the OS. Then, the softphone 851 makes a call by using the communication ID.

<<3.情報管理サーバの構成>>
続いて、図20及び図21を参照して、本実施形態に係る情報管理サーバ200の構成の一例を説明する。
<< 3. Information Management Server Configuration >>
Subsequently, an example of the configuration of the information management server 200 according to the present embodiment will be described with reference to FIGS. 20 and 21.

<3−1.ハードウェア構成>>
まず、図20を参照して、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を説明する。図20は、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を示すブロック図である。図20を参照すると、情報管理サーバ200は、CPU901、ROM903、RAM905、バス907、記憶装置909及び通信インターフェース911を備える。
<3-1. Hardware configuration >>
First, an example of the hardware configuration of the information management server 200 according to the present embodiment will be described with reference to FIG. FIG. 20 is a block diagram showing an example of the hardware configuration of the information management server 200 according to the present embodiment. Referring to FIG. 20, the information management server 200 includes a CPU 901, a ROM 903, a RAM 905, a bus 907, a storage device 909, and a communication interface 911.

CPU901は、情報管理サーバ200における様々な処理を実行する。また、ROM903は、情報管理サーバ200における処理をCPU901に実行させるためのプログラム及びデータを記憶する。また、RAM905は、CPU901の処理の実行時に、プログラム及びデータを一時的に記憶する。   The CPU 901 executes various processes in the information management server 200. The ROM 903 also stores programs and data for causing the CPU 901 to execute processing in the information management server 200. The RAM 905 temporarily stores programs and data when the CPU 901 executes processing.

バス907は、CPU901、ROM903及びRAMを相互に接続する。バス907には、さらに、記憶装置909及び通信インターフェース911が接続される。バス907は、例えば、複数の種類のバスを含む。一例として、バス907は、CPU901、ROM903及びRAM905を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。   The bus 907 interconnects the CPU 901, the ROM 903 and the RAM. Further, a storage device 909 and a communication interface 911 are connected to the bus 907. The bus 907 includes, for example, a plurality of types of buses. As one example, the bus 907 includes a high-speed bus connecting the CPU 901, the ROM 903 and the RAM 905, and one or more other buses slower than the high-speed bus.

記憶装置909は、情報管理サーバ200内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置909は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。   The storage device 909 stores data to be temporarily or permanently stored in the information management server 200. The storage device 909 may be, for example, a magnetic storage device such as a hard disk, or a non-volatile memory such as an EEPROM, a flash memory, an MRAM, an FeRAM, and a PRAM.

通信インターフェース911は、情報管理サーバ200が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース911は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース911は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。   The communication interface 911 is a communication unit included in the information management server 200, and communicates with an external device via a network (or directly). The communication interface 911 may be an interface for wireless communication, and in this case, may include, for example, a communication antenna, an RF circuit, and other circuits for communication processing. The communication interface 911 may be an interface for wired communication, and in this case, may include, for example, a LAN terminal, a transmission circuit, and other circuits for communication processing.

<3−2.機能構成>>
次に、本実施形態に係る情報管理サーバ200の機能構成の一例を説明する。図21は、本実施形態に係る情報管理サーバ200の機能構成の一例を示すブロック図である。図21を参照すると、情報管理サーバ200は、通信部210、記憶部220及び制御部230を備える。さらに、制御部230は、視点選好学習部231を備える。
<3-2. Functional configuration >>
Next, an example of a functional configuration of the information management server 200 according to the present embodiment will be described. FIG. 21 is a block diagram showing an example of a functional configuration of the information management server 200 according to the present embodiment. Referring to FIG. 21, the information management server 200 includes a communication unit 210, a storage unit 220, and a control unit 230. Furthermore, the control unit 230 includes a viewpoint preference learning unit 231.

(通信部210)
通信部210は、他の装置と通信する。例えば、通信部210は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部210は、カメラ11、マイクロフォン13、センサ15及びメディア配信サーバ17と通信する。また、通信部210は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。具体的には、例えば、通信部210は、端末装置100及びディスプレイ21と通信する。なお、通信部210は、例えば、通信インターフェース911により実装され得る。
(Communication unit 210)
The communication unit 210 communicates with other devices. For example, the communication unit 210 is directly connected to the LAN 19 and communicates with each device in the center office 10. Specifically, for example, the communication unit 210 communicates with the camera 11, the microphone 13, the sensor 15, and the media distribution server 17. The communication unit 210 also communicates with each device in the satellite office 20 via the external network 30 and the LAN 23. Specifically, for example, the communication unit 210 communicates with the terminal device 100 and the display 21. The communication unit 210 may be implemented by, for example, the communication interface 911.

(記憶部220)
記憶部220は、情報管理サーバ200の動作のためのプログラム及びデータを記憶する。
(Storage unit 220)
The storage unit 220 stores a program and data for the operation of the information management server 200.

とりわけ本実施形態では、記憶部220は、情報処理システムにおいて用いられる様々な情報を記憶する。   In particular, in the present embodiment, the storage unit 220 stores various information used in the information processing system.

第1の例として、記憶部220は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを記憶する。当該パラメータの具体的な内容は、上述したとおりである。   As a first example, the storage unit 220 stores parameters related to the camera 11, the microphone 13, and the sensor 15. The specific content of the parameter is as described above.

第2の例として、記憶部220は、実空間に対応する3次元仮想空間のデータを記憶する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。当該3次元仮想空間の具体的な内容は、上述したとおりである。   As a second example, the storage unit 220 stores data of a three-dimensional virtual space corresponding to a real space. The three-dimensional virtual space is, for example, a three-dimensional virtual space imitating the center office 10. The specific content of the three-dimensional virtual space is as described above.

第3の例として、記憶部220は、人物関連情報を記憶する。当該人物関連情報は、例えば、センタオフィス10にいる人物の人物関連情報である。当該人物関連情報の具体的な内容は、上述したとおりである。   As a third example, the storage unit 220 stores person related information. The person-related information is, for example, person-related information of a person at the center office 10. The specific content of the person-related information is as described above.

第4の例として、記憶部220は、3次元仮想空間に配置されるオブジェクトのオブジェクトIDと通信用IDとを、互いに対応付けて記憶する。当該オブジェクトID及び通信用IDの具体的な内容は、上述したとおりである。   As a fourth example, the storage unit 220 stores the object ID of the object arranged in the three-dimensional virtual space and the communication ID in association with each other. The specific contents of the object ID and the communication ID are as described above.

第5の例として、記憶部220は、ユーザ識別情報(ユーザ毎に対応した前記通信用IDでもよい)と紐づけて、各ユーザが指定したオブジェクトと視点の位置の履歴情報を記録する。さらに、記憶部220は、各ユーザが指定したオブジェクトに対応する人物の空間内における身体方向の情報も併せて記憶する。前記人物の空間内における身体方向の情報は、前述したセンタオフィス10を模した3次元仮想空間における各人物の机に対面する方向としてあらかじめ定められてもよい。また、センタオフィス10内の各人物にたとえばジャイロセンサを取り付けたり、複数のカメラ11の撮像データから各人物の3次元モデルを生成したり、顔検出処理を利用したりすること等によって、動的に前記身体方向の情報を取得してもよい。   As a fifth example, the storage unit 220 links the user identification information (which may be the communication ID corresponding to each user), and records the history information of the position of the object designated by each user and the viewpoint. Furthermore, the storage unit 220 also stores information on the body direction in the space of the person corresponding to the object specified by each user. The information on the body direction in the space of the person may be determined in advance as a direction to face the desk of each person in the three-dimensional virtual space imitating the center office 10 described above. Also, for example, a gyro sensor is attached to each person in the center office 10, a three-dimensional model of each person is generated from image data of a plurality of cameras 11, a face detection process is used, etc. Information on the body direction may be acquired.

(制御部230)
制御部230は、情報管理サーバ200の様々な機能を提供する。
(Control unit 230)
The control unit 230 provides various functions of the information management server 200.

例えば、制御部230は、要求に応じて、情報処理システムにおいて用いられる様々な情報を提供する。例えば、制御部230は、端末装置100による要求に応じて、3次元仮想空間のデータ、人物関連情報、オブジェクトIDに対応する通信用ID、並びに、カメラ11、マイクロフォン13及びセンサ15に関するパラメータ等を提供する。   For example, the control unit 230 provides various information used in the information processing system in response to a request. For example, in response to a request from the terminal device 100, the control unit 230 includes data of a three-dimensional virtual space, person-related information, a communication ID corresponding to an object ID, and parameters related to the camera 11, the microphone 13 and the sensor 15. provide.

また、例えば、制御部230は、情報処理システムにおいて用いられる様々な情報を適宜更新する。制御部230は、自動で、又は手動による指示に応じて、当該情報を更新する。   Also, for example, the control unit 230 appropriately updates various information used in the information processing system. The control unit 230 updates the information automatically or in response to a manual instruction.

(視点選好学習部231)
視点選好学習部231(学習部)は、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインがユーザによって指定され、ユーザによって指定された3次元ラインに対応する撮像装置が端末装置100によってユーザの視点位置として指定された場合、3次元選択位置と3次元設置位置とに基づいて、選択位置に存在するオブジェクトに対応する人物に対するユーザの閲覧条件を算出し、閲覧条件と視点位置の指定回数との関係を算出する。上記したように、閲覧条件は、3次元仮想空間における人物とユーザとの距離(以下、「閲覧距離」とも言う。)、3次元仮想空間における人物に対するユーザの視点位置の角度(以下、「閲覧人物角度」とも言う。)の少なくともいずれか一方であってよい。
(Viewpoint preference learning unit 231)
The viewpoint preference learning unit 231 (learning unit) responds to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When the three-dimensional line is designated by the user and the imaging device corresponding to the three-dimensional line designated by the user is designated by the terminal device 100 as the viewpoint position of the user, the three-dimensional selection position and the three-dimensional installation position are used. Then, the user's viewing condition for the person corresponding to the object present at the selected position is calculated, and the relationship between the viewing condition and the designated number of viewpoint positions is calculated. As described above, the viewing conditions are the distance between the person and the user in the three-dimensional virtual space (hereinafter, also referred to as "reading distance"), the angle of the viewpoint position of the user with respect to the person in the three-dimensional virtual space (hereinafter, "reading It may also be “person angle”.

例えば、視点選好学習部231は、ユーザ毎の視点の位置指定の履歴情報を学習し、あるユーザがある位置に存在するオブジェクトを指定した場合に、前記オブジェクトに対応する人物の空間内における身体方向に対応して、前記ユーザが最も好んで指定するであろう視点の位置を予測する。また、視点選好学習部231は、前記予測した視点の位置の情報(例えば、視点位置の指定回数が最大となる閲覧条件)を、通信部210を介して、端末装置100のカメラライン推薦部195へ送信する。   For example, the viewpoint preference learning unit 231 learns history information of position designation of a viewpoint for each user, and when a certain user designates an object existing at a certain position, the body direction in the space of the person corresponding to the object , And predict the position of the viewpoint that the user will most preferably designate. In addition, the viewpoint preference learning unit 231 transmits the information on the predicted viewpoint position (for example, the viewing condition in which the number of designations of the viewpoint position is maximum) to the camera line recommendation unit 195 of the terminal device 100 via the communication unit 210. Send to

以下に、視点選好学習部231が行う、視点の位置指定データの学習処理および予測処理について説明する。   Hereinafter, learning processing and prediction processing of viewpoint designation data performed by the viewpoint preference learning unit 231 will be described.

まず、図27に、本実施形態に係る視点の位置指定データの学習処理に用いられるデータの一例を示す。図27のデータは、たとえば記憶部220に記憶されるテーブル形式のデータであって、項目(フィールド)として、ユーザ識別情報、カメラ識別情報、視点位置、オブジェクト識別情報、オブジェクト位置、閲覧距離、人物身体方向角度、閲覧人物角度、等を有している。   First, FIG. 27 shows an example of data used for learning processing of position designation data of a viewpoint according to the present embodiment. Data in FIG. 27 is, for example, data in a table format stored in storage unit 220, and includes items (fields) as user identification information, camera identification information, viewpoint position, object identification information, object position, viewing distance, person It has a body direction angle, a viewing person angle, and the like.

ユーザ識別情報は、ある端末装置100Aを操作しているユーザの人物の識別情報であり、図27の1〜3行ではたとえば“Taro Yamada”である。   The user identification information is identification information of a person of a user operating a certain terminal device 100A, and is, for example, "Taro Yamada" in lines 1 to 3 in FIG.

カメラ識別情報は、前述の複数のカメラ11を識別するもので、図27の例ではA、B、Cの3台が記憶されている。   The camera identification information identifies the plurality of cameras 11 described above, and three cameras of A, B, and C are stored in the example of FIG.

視点位置は、実空間または対応する3次元仮想空間における仮想的な視点の3次元位置であり、たとえばX、Y、Zの3次元の座標情報で表される。視点位置の算出方法は、前述したカメラライン上における視点位置の算出方法と同じで構わない。カメララインは3次元空間上での位置情報を有するため、カメラライン上の1点である仮想的な視点位置もたとえばX、Y、Zの3次元の座標情報で表すことができる。   The viewpoint position is a three-dimensional position of a virtual viewpoint in a real space or a corresponding three-dimensional virtual space, and is represented by, for example, three-dimensional coordinate information of X, Y, Z. The method of calculating the viewpoint position may be the same as the method of calculating the viewpoint position on the camera line described above. Since the camera line has positional information in a three-dimensional space, a virtual viewpoint position which is one point on the camera line can also be represented by, for example, three-dimensional coordinate information of X, Y, Z.

オブジェクト識別情報は、前述したオブジェクトIDと同じ情報で構わず、図27の例では“Jiro Satou”や“Saburo Tanaka”である。オブジェクト位置は、前記オブジェクトIDに対応するオブジェクトのたとえば3次元重心位置であり、たとえばX、Y、Zの3次元の座標情報で表される。   The object identification information may be the same information as the object ID described above, and is “Jiro Satou” or “Saburo Tanaka” in the example of FIG. The object position is, for example, a three-dimensional center position of an object corresponding to the object ID, and is represented by, for example, three-dimensional coordinate information of X, Y, Z.

閲覧距離は、前記視点位置とオブジェクト位置間の距離であり、図27の例ではミリメートル単位で表記している。人物身体方向角度は、実世界または対応する3次元仮想空間におけるグローバル座標系の中で、当システムの管理者等によってあらかじめ一意に定められた任意のひとつの基準方向と、前記グローバル座標系の中で各オブジェクトが向けている身体方向と、の2つのベクトル間で成される角度である。身体方向は、たとえば水平面上で人物が向いている方向であり、前記基準方向との間で成される人物身体方向角度をオブジェクト毎に求めることができる。たとえば、図27の1行目のオブジェクト“Jiro Satou”の人物身体方向角度は90°で、3行目のオブジェクト“Saburo Tanaka”は270°となっているから、両人物は3次元空間の水平面上で180°真逆の向きの身体方向の関係であることがわかる。なお、ここでは説明のため、前記身体方向と前記基準方向のベクトルが2次元平面である水平面上に存在する場合の0〜360°の角度で例示したが、前記身体方向と前記基準方向のベクトルは 2次元平面ではなく3次元空間上に存在していても構わず、その場合でも2つのベクトル間で人物身体方向角度を同様に求めることができる。   The viewing distance is the distance between the viewpoint position and the object position, and is described in millimeter units in the example of FIG. The human body orientation angle is an arbitrary one reference direction uniquely determined in advance by the administrator of the system or the like in the global coordinate system in the real world or the corresponding three-dimensional virtual space, and in the global coordinate system. And the body direction that each object is pointing at, is the angle made between the two vectors. The body direction is, for example, the direction in which the person is facing in the horizontal plane, and the person body direction angle formed with the reference direction can be determined for each object. For example, the object body direction angle of the object “Jiro Satou” in the first line of FIG. 27 is 90 °, and the object “Saburo Tanaka” in the third line is 270 °. It can be seen that there is a relationship of body orientation of 180 degrees upside down. In addition, although the vector of the said body direction and the said reference direction illustrated here by the angle of 0-360 degrees in case it exists on the horizontal surface which is a two-dimensional plane for description, the vector of the said body direction and the said reference direction A may be present in a three-dimensional space instead of a two-dimensional plane, and even in such a case, the human body direction angle can be similarly determined between two vectors.

閲覧人物角度は、前記身体方向のベクトルと前記カメラ識別情報に対応するカメラ11のカメララインのベクトルとが成す角度である。これはすなわち、前記オブジェクトに対応する人物をどの方向から見ているかを示す情報であり、説明のため角度を水平面上の0〜360°に話を限定すると、たとえば、図27の1行目のオブジェクト“Jiro Satou”に対応する人物は、カメラAで、身体正面から右回り(または左回り)に45°の斜め前方の視点から、撮像画像81を通してユーザに身体の撮影像を閲覧されたことになる。また、たとえば、図27の2行目のオブジェクト“Jiro Satou”
に対応する人物は、カメラBで、身体の背後(180°)からユーザに身体の撮影像を閲覧されたことになる。
The viewing person angle is an angle formed by the vector of the body direction and the vector of the camera line of the camera 11 corresponding to the camera identification information. That is, this is information indicating from which direction the person corresponding to the object is viewed. If the angle is limited to 0 to 360 ° on the horizontal plane for the sake of explanation, for example, the first line in FIG. The person corresponding to the object “Jiro Satou” viewed the photographed image of the body by the user through the captured image 81 from the viewpoint at an angle of 45 ° clockwise (or counterclockwise) from the front of the body with the camera A become. Also, for example, the object “Jiro Satou” in the second line of FIG.
The person corresponding to B is viewed by the user from behind the body (180 °) with the camera B.

本実施形態に係る視点の位置指定データの学習処理では、視点選好学習部231は、視点位置の指定回数が最大となる閲覧条件を算出する。すなわち、視点選好学習部231は、3次元選択位置と3次元設置位置とに基づいて、少なくとも3次元仮想空間における閲覧距離を閲覧条件として算出してもよいし、3次元選択位置と3次元設置位置と人物の身体方向の情報とに基づいて、少なくとも3次元仮想空間における人物に対するユーザの視点位置の閲覧人物角度を閲覧条件として算出してもよい。   In the learning processing of position specification data of a viewpoint according to the present embodiment, the viewpoint preference learning unit 231 calculates a viewing condition in which the number of designations of the viewpoint position is maximum. That is, the viewpoint preference learning unit 231 may calculate the viewing distance in at least the three-dimensional virtual space as the viewing condition based on the three-dimensional selection position and the three-dimensional installation position, or the three-dimensional selection position and the three-dimensional installation. Based on the position and the information on the body direction of the person, the viewing person angle of the viewpoint position of the user with respect to the person at least in the three-dimensional virtual space may be calculated as the viewing condition.

閲覧人物角度は、どのようにして算出されてもよい。たとえば、視点選好学習部231は、人物に紐づけられた3次仮想空間に対応する実空間における机の設置方向の情報に基づいて人物の身体方向を取得してもよい(机の設置方向の情報を人物の身体方向としてもよい)。あるいは、視点選好学習部231は、撮像装置による撮像画像に対する人物の顔検出処理または人体3次元モデル作成処理に基づいて人物の身体方向を取得してもよい。あるいは、視点選好学習部231は、人物の身体に備え付けられたセンサ装置によって検出されたセンサデータ(例えば、加速度センサによって検出された加速度、ジャイロセンサによって検出された角速度など)に基づいて人物の身体方向を取得してもよい。   The viewing person angle may be calculated in any way. For example, the viewpoint preference learning unit 231 may acquire the body direction of the person based on the information of the installation direction of the desk in the real space corresponding to the third virtual space linked to the person (in the desk installation direction Information may be the person's body direction). Alternatively, the viewpoint preference learning unit 231 may acquire the body direction of the person based on the face detection process of the person or the three-dimensional human body model creation process on the captured image by the imaging device. Alternatively, the viewpoint preference learning unit 231 may detect the body of the person based on sensor data (for example, an acceleration detected by an acceleration sensor, an angular velocity detected by a gyro sensor, etc.) detected by a sensor device provided on the person's body. You may get the direction.

たとえば、図27のデータテーブルから、ユーザ識別情報と閲覧人物角度の情報を用い、統計的データ処理を行う。すなわち、ユーザ識別情報毎に、閲覧人物角度の指定操作の履歴回数の分布を求める。   For example, statistical data processing is performed using the user identification information and the information on the viewing person angle from the data table of FIG. That is, for each piece of user identification information, the distribution of the number of histories of the designation operation of the browsing person angle is obtained.

ユーザ識別情報毎に統計処理のデータを分けるのは、視点選好の行動および心理的特性がユーザ毎に異なると考えられるためである。撮像画像81を通して遠隔地の興味対象人物の様子見を行う時、あるユーザCは相手の顔が見える身体前方から閲覧したりズームしたりすることを好む一方、別のユーザDは相手の体の傾きやキーボードやマウスの操作状況が見えやすい身体側方からの閲覧を好み、さらに別のユーザEは相手の見ているディスプレイ画面の内容を確認できる身体後方からの閲覧を好むかもしれない。このような視点選択の嗜好性(視点選好)はユーザ毎に傾向が分かれると考えられ、統計処理される閲覧人物角度のデータにもその傾向が表れる。閲覧人物角度の統計処理にあたっては、図28の人物周りの水平面角度分類概念図に示すように、たとえば、−22°〜22°の間の値を0度項目、23°〜67°の間の値を45度項目、など一定の角度幅ごとにデータを分類集計して処理を行ってもよい。   The data of statistical processing is divided for each user identification information because behavior and psychological characteristics of viewpoint preference are considered to be different for each user. One user C prefers to view or zoom from the front of the body where the other person's face can be seen when looking at the state of the person of interest in the remote location through the captured image 81, while another user D is the other person's body The user prefers viewing from the side of the body in which the tilt or the operation state of the keyboard or mouse is easy to view, and another user E may prefer viewing from the back of the body where the contents of the display screen viewed by the other can be confirmed. Such preference of viewpoint selection (viewpoint preference) is considered to be different for each user, and the tendency also appears in the data of the viewing person angle to be statistically processed. In statistical processing of viewing person angle, as shown in the horizontal plane angle classification conceptual diagram around the person in FIG. 28, for example, a value between −22 ° and 22 ° is 0 degree item, between 23 ° and 67 °. The processing may be performed by classifying and aggregating data for each fixed angle width such as a 45-degree item.

図29に、あるユーザAの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す。グラフ横軸は図28に示した45°幅の角度分類の閲覧人物角度、縦軸は視点位置指定操作回数を示す。図29のグラフを見ると、当該ユーザAは、角度分類180度の値(指定回数)が他の角度の値と比べて非常に多く、閲覧人物角度180度、すなわち興味対象人物の身体後方から閲覧したりズームしたりする様子見を好む行動および心理的特性を持ったユーザであることがわかる。また、興味対象人物の左方よりも右方側面から閲覧する方をやや好む傾向が見られる。また、図30に、あるユーザBの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す。グラフの横軸および縦軸は図29と同様である。図30のグラフを見ると、当該ユーザBは、角度分類45度および315度の値が他の角度の値と比べて非常に多く、閲覧人物角度45度または315度、すなわち興味対象人物の身体斜め前方から閲覧したりズームしたりする様子見を好む行動および心理的特性を持ったユーザであることがわかる。   FIG. 29 shows an example of statistical data of the viewing person angle in the viewpoint position specification operation history of a certain user A. The horizontal axis of the graph indicates the viewing person angle of the 45 ° wide angle classification shown in FIG. 28, and the vertical axis indicates the number of viewpoint position designation operations. Referring to the graph of FIG. 29, the user A has a value (number of designated times) of 180 degrees of angle classification much more than that of other angles, and the viewing person angle is 180 degrees, that is, from behind the body of the person of interest It can be seen that the user has behavior and psychological characteristics that favor watching and zooming. In addition, there is a tendency to prefer to browse from the right side rather than the left side of the person of interest. Further, FIG. 30 illustrates an example of statistical data of the viewing person angle in the viewpoint position specification operation history of a certain user B. The horizontal and vertical axes of the graph are the same as in FIG. Referring to the graph of FIG. 30, the user B has 45 or 315 degrees of angle classification much more than other angle values, and the viewing person angle is 45 or 315 degrees, that is, the body of the person of interest It can be seen that the user has behavior and psychological characteristics that favor viewing while viewing and zooming diagonally from the front.

図29、図30の統計データから、ユーザが興味対象人物のオブジェクトを選択した際、そのオブジェクトに対応する前述のカメララインが複数存在する場合、ユーザAは興味対象人物のオブジェクトの身体後方側にあるカメララインを選択する確率が最も高く、ユーザBは興味対象人物のオブジェクトの身体右斜め前方側にあるカメララインを選択する確率が最も高い。このように、視点選好学習部231は、各ユーザが最も選択する確率が高いカメララインを、視点位置指定操作履歴データの統計処理により予測することができる。   When the user selects an object of a person of interest from the statistical data in FIGS. 29 and 30, if there are a plurality of camera lines corresponding to the object, the user A is on the body rear side of the object of the person of interest The probability of selecting a certain camera line is the highest, and the user B has the highest probability of selecting the camera line on the diagonally forward side of the body of the object of the person of interest. As described above, the viewpoint preference learning unit 231 can predict the camera line with the highest probability of being selected by each user by the statistical processing of the viewpoint position designation operation history data.

なお、上記では、閲覧人物角度を説明変数、視点位置指定回数を目的変数として統計処理を行った。すなわち、視点選好学習部231が、閲覧人物角度と視点位置指定回数との関係式を算出し、算出した関係式に基づいて視点位置指定回数が最大となる閲覧人物角度を算出する場合を説明した。しかし、説明変数の種類は閲覧人物角度に限られない。たとえば、説明変数を前述の閲覧距離として、視点位置指定回数を目的変数とした統計処理を行っても構わない。すなわち、視点選好学習部231は、閲覧距離と視点位置指定回数との関係式を算出し、算出した関係式に基づいて視点位置指定回数が最大となる閲覧距離を算出してもよい。   In the above, statistical processing is performed with the viewing person angle as an explanatory variable and the number of viewpoint position designation times as a target variable. That is, the case has been described in which the viewpoint preference learning unit 231 calculates the relational expression between the browsing person angle and the number of viewpoint position specification times, and calculates the browsing person angle at which the viewpoint position specification frequency is maximum based on the calculated relational expression. . However, the type of explanatory variable is not limited to the viewing person angle. For example, statistical processing may be performed using the explanatory variable as the viewing distance described above and the number of viewpoint position designation times as the target variable. That is, the viewpoint preference learning unit 231 may calculate a relational expression between the browsing distance and the number of viewpoint position designation times, and calculate the browsing distance at which the viewpoint position designation number is maximum based on the calculated relational expression.

ユーザ毎に、最も指定される確率が高い閲覧距離の値が予測できることで、前述のズーム率指定操作を自動化し、ユーザの視点変更入力をより簡便なものにすることができる。すなわち、ユーザは前記見たい位置を指定するだけでその後の前記見る位置の決定はシステムに任せられるため、操作ステップが減りユーザの指定入力行為の労力が低減される。   Since the value of the viewing distance with the highest probability of being specified can be predicted for each user, the above-described zoom factor specification operation can be automated, and the user's viewpoint change input can be made simpler. That is, since the user simply designates the position to look at and then the determination of the position to look after is left to the system, the number of operation steps is reduced and the effort of the user's designated input action is reduced.

さらに、視点選好学習部231は、視点の位置指定に関する複数種類のデータを合わせて用いることで、より高い精度でユーザの視点選択を確率予測できるようになる。たとえば、視点選好学習部231は、3次元選択位置と3次元設置位置と人物の身体方向の情報とに基づいて、閲覧距離および閲覧人物角度を閲覧条件として算出し、閲覧距離および閲覧人物角度と視点位置指定回数とを変数として含む回帰式を算出し、算出した回帰式に基づいて、視点位置指定回数が最大となる閲覧距離および閲覧人物角度を算出してもよい。以下では、例として、前述の閲覧人物角度と閲覧距離を説明変数として用いた統計処理による視点の指定位置の予測処理について述べる。   Furthermore, the viewpoint preference learning unit 231 can perform probability prediction of the user's viewpoint selection with higher accuracy by combining and using a plurality of types of data related to the position specification of the viewpoint. For example, the viewpoint preference learning unit 231 calculates the viewing distance and the viewing person angle as the viewing condition based on the three-dimensional selection position, the three-dimensional installation position, and the information on the body direction of the person, and the viewing distance and the viewing person angle It is also possible to calculate a regression distance including the viewpoint position specification frequency as a variable, and calculate a viewing distance and a browsing person angle at which the viewpoint position specification frequency is maximum, based on the calculated regression expression. In the following, as an example, prediction processing of a designated position of a viewpoint by statistical processing using the above-mentioned browsing person angle and browsing distance as explanatory variables will be described.

視点選好学習部231は、記憶部220における前述のユーザ毎の視点の位置指定データを用いて、閲覧人物角度と閲覧距離のデータから視点位置指定回数を予測する回帰式を算出することもできる。説明変数である閲覧人物角度および閲覧距離、目的変数である視点位置指定回数がともに量的データであるため、視点選好学習部231は公知の重回帰分析に該当する処理を行うことで前記回帰式を算出できる。さらに、視点選好学習部231は、算出した前記回帰式から、閲覧人物角度と閲覧距離の値を任意に変動させ、算出される視点位置指定回数が最大値を取る閲覧人物角度と閲覧距離を予測する。なお、視点選好学習部231は、説明変数である閲覧人物角度および閲覧距離の間に多重共線性がみられた場合は、前述の通り閲覧人物角度または閲覧距離のどちらかの単変量データだけを用いた統計処理と予測を行う方式に切り換える動作を行ってもよい。   The viewpoint preference learning unit 231 can also calculate, using the position designation data of the viewpoint for each user in the storage unit 220, a regression equation for predicting the number of viewpoint position designation times from the data of the viewing person angle and the viewing distance. Since both the viewing person angle and the viewing distance, which are explanatory variables, and the number of viewpoint position designation times, which is the objective variable, are quantitative data, the viewpoint preference learning unit 231 performs the processing corresponding to known multiple regression analysis. Can be calculated. Furthermore, the viewpoint preference learning unit 231 arbitrarily changes the values of the viewing person angle and the viewing distance from the calculated regression equation, and predicts the viewing person angle and the viewing distance in which the calculated number of viewpoint position designation times takes a maximum value. Do. When multiple collinearity is found between the viewing person angle and the viewing distance, which are explanatory variables, the viewpoint preference learning unit 231 determines only univariate data of either the viewing person angle or the viewing distance as described above. An operation of switching to a method of performing statistical processing and prediction used may be performed.

以上により、視点選好学習部231は、ユーザ毎の視点の位置指定の履歴データから閲覧人物角度、閲覧距離、視点位置指定回数のデータを算出し、統計処理を行うことで、目的変数である視点位置指定回数が最大となるような閲覧人物角度または閲覧距離の値を算出して、あるユーザが最も指定しやすい選好条件の視点の位置を予測することができる。   As described above, the viewpoint preference learning unit 231 calculates data of the viewing person angle, the viewing distance, and the number of viewpoint position designation times from the history data of position designation of the viewpoint for each user, and performs statistical processing to obtain a viewpoint as a target variable. It is possible to calculate the value of the viewing person angle or the viewing distance that maximizes the number of position designations, and predict the position of the viewpoint of the preference that is most easily specified by a certain user.

<<4.処理の流れ>>
続いて、図22を参照して、本実施形態に係る情報処理の例を説明する。図22は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。
<< 4. Flow of processing >>
Subsequently, an example of the information processing according to the present embodiment will be described with reference to FIG. FIG. 22 is a flowchart showing an example of a schematic flow of information processing according to the present embodiment.

ステップS401で、位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。より具体的には、例えば、位置取得部183は、近接撮像画像内の位置をユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS403へ進む。そうでなければ、処理はステップS401を繰り返す。   In step S401, the position acquisition unit 183 determines whether the position in the captured image on the display screen of the captured image in the real space is designated by the user. More specifically, for example, the position acquisition unit 183 determines whether the position in the close-up captured image is designated by the user. If the above position is designated, the process proceeds to step S403. Otherwise, the process repeats step S401.

ステップS403で、位置取得部183は、ユーザにより指定される上記撮像画像内の位置を取得する。   In step S403, the position acquisition unit 183 acquires the position in the captured image specified by the user.

ステップS405で、オブジェクト選択部185は、実空間に対応する3次元仮想空間のデータを記憶部170から取得する。   In step S405, the object selection unit 185 acquires data of the three-dimensional virtual space corresponding to the real space from the storage unit 170.

ステップS407で、取得された上記撮像画像内の上記位置に基づいて、上記3次元仮想空間に配置されたオブジェクトを選択する。   In step S407, an object arranged in the three-dimensional virtual space is selected based on the acquired position in the captured image.

ステップS409で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトを撮像範囲に含むカメラ11の情報を取得する。   In step S409, the camera line control unit 191 acquires information of the camera 11 that includes the acquired position or an object corresponding to the position in the imaging range.

ステップS411で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトを撮像範囲に含むカメラ11の情報から、当該カメラ11に対応するカメララインを構成するパラメータを演算により求める。   In step S411, the camera line control unit 191 calculates a parameter that configures a camera line corresponding to the camera 11 from the information of the camera 11 that includes the acquired position or an object corresponding to the position in the imaging range. .

ステップS413で、カメラライン選別部193は、カメララインが近傍に複数存在しているか否かを判定する。カメララインが近傍に複数存在していれば、処理はステップS415へ進む。そうでなければ、処理はステップS417へ進む。   In step S413, the camera line selection unit 193 determines whether a plurality of camera lines exist in the vicinity. If there are a plurality of camera lines in the vicinity, the process proceeds to step S415. If not, the process proceeds to step S417.

ステップS415で、カメラライン選別部193は、前述したカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったものを最適なカメララインとしてひとつ選別する。   In step S415, the camera line selection unit 193 compares a plurality of camera lines existing in the vicinity according to the above-described camera line evaluation condition, and selects one camera line having the highest evaluation as an optimal camera line.

ステップS417で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトに対応するカメララインを、表示画面80上に表示させる。   In step S417, the camera line control unit 191 causes the display screen 80 to display a camera line corresponding to the acquired position or an object corresponding to the position.

ステップS419で、カメラライン制御部191は、カメララインの内のひとつまたはそのカメラライン上の位置がユーザにより指定されたかを判定する。上記カメララインまたは位置が指定されていれば、処理はステップS423へ進む。そうでなければ、処理はステップS401を繰り返す。   In step S419, the camera line control unit 191 determines whether one of the camera lines or the position on the camera line is designated by the user. If the camera line or the position is specified, the process proceeds to step S423. Otherwise, the process repeats step S401.

ステップS421で、カメラライン制御部191は、指定されたカメララインに対応するカメラの撮像画像を取得し、指定されたズーム率で、現在のカメラの撮像画像と表示切り換えを行う形で表示画面80上に表示させ、処理は終了する。なお、カメラ切り換え後の表示画面上に、対応するカメララインを自動的に再演算し再描画しても構わない。その場合はS409から処理を再開すればよい。   In step S421, the camera line control unit 191 acquires a captured image of the camera corresponding to the designated camera line, and switches the display image to the captured image of the current camera at the designated zoom ratio, thereby displaying the display screen 80. Displayed on top, the process ends. Note that the corresponding camera line may be automatically recalculated and redrawn on the display screen after the camera switching. In that case, the process may be resumed from S409.

以上のように、本実施形態に係る情報処理が実行される。さらに、当該情報処理の開始前に行われる起動処理の一例を、図23を参照して説明する。   As described above, the information processing according to the present embodiment is performed. Furthermore, an example of the activation process performed before the start of the information processing will be described with reference to FIG.

図23は、本実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。   FIG. 23 is a flowchart showing an example of a schematic flow of activation processing according to the present embodiment.

ステップS501で、ソフトフォン851の起動処理が実行される。これにより、ソフトフォン851が起動する。   In step S501, a process of activating the softphone 851 is performed. Thus, the softphone 851 is activated.

ステップS503で、ソフトフォン851に関する登録処理が実行される。例えば、ソフトフォン851の登録処理の1つとして、PBX40での登録(例えば、SIP REGISTRATION)が行われる。   In step S503, registration processing for the softphone 851 is performed. For example, as one of the registration processing of the softphone 851, registration (for example, SIP REGISTRATION) in the PBX 40 is performed.

ステップS505で、超臨場感クライアントの起動処理が実行される。例えば、超臨場感クライアントにおいて利用されるカメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200等が特定される。   In step S505, the process of activating the ultra-realistic client is performed. For example, the camera 11, the microphone 13, the sensor 15, the media distribution server 17, the information management server 200, and the like used in the ultra-realism client are specified.

ステップS507で、超臨場感クライアントの俯瞰モード処理が実行される。そして、一連の起動処理は終了する。   In step S507, the crawling mode processing of the ultra-realism client is executed. Then, the series of activation processing ends.

図31は、本実施形態に係る学習および推薦処理の概略的な流れの一例を示すフローチャートである。   FIG. 31 is a flowchart showing an example of a schematic flow of learning and recommendation processing according to the present embodiment.

ステップS601で、端末装置100の位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS603へ進む。そうでなければ、処理はステップS601を繰り返す。   In step S601, the position acquisition unit 183 of the terminal device 100 determines whether the position in the captured image is designated by the user on the display screen of the captured image in the real space. If the above position is designated, the process proceeds to step S603. Otherwise, the process repeats step S601.

ステップS603で、端末装置100の制御部180は、取得された前記位置に対応するカメララインを演算により求め、表示画面80上に表示させる。   In step S603, the control unit 180 of the terminal device 100 calculates a camera line corresponding to the acquired position by calculation, and displays the camera line on the display screen 80.

ステップS605で、情報管理サーバ200の視点選好学習部231は、記憶部170に記憶された、前記位置を指定したユーザの識別情報に紐づけられた、前述の視点の位置指定データが、前述の統計的な予測処理を十分な予測精度で行える量存在するか否かを判定する。前記視点の位置指定データが十分な量あれば、処理はステップS607へ進む。そうでなければ、処理はステップS609へ進む。なお、前記が十分な量とは、たとえば前述の重回帰分析の例では、データ数(サンプル数)が説明変数の数よりも2以上多い必要がある。例として説明変数が閲覧人物角度と閲覧距離の2種であれば、データ数は最低4以上ないと不足しているといえる。その他、たとえば十分な量のデータ数の閾値を20等、任意の値に設定してもよい。   In step S605, the viewpoint preference learning unit 231 of the information management server 200 stores the position specification data of the above-mentioned viewpoint linked to the identification information of the user who has specified the position, which is stored in the storage unit 170. It is determined whether there is an amount that can perform statistical prediction processing with sufficient prediction accuracy. If there is a sufficient amount of position designation data of the viewpoint, the process proceeds to step S 607. If not, the process proceeds to step S609. In the above-mentioned example of the multiple regression analysis, for example, the number of data (number of samples) needs to be larger by two or more than the number of explanatory variables. As an example, if the explanatory variable is two types of viewing person angle and viewing distance, it can be said that the number of data is at least 4 or more and insufficient. In addition, for example, the threshold of a sufficient number of data numbers may be set to any value such as 20.

ステップS607で、情報管理サーバ200の視点選好学習部231は、前記視点の位置指定データを用いて前述の選好予測カメララインまたは当該カメラライン上の視点を予測処理し、端末装置100のカメラライン推薦部195へその情報を送信する。その情報を受信したカメラライン推薦部195は、予測された選好予測カメララインの表示画面80上の表示様態を前述のように変更する処理を行う。   In step S 607, the viewpoint preference learning unit 231 of the information management server 200 performs prediction processing of the preference prediction camera line described above or the viewpoint on the camera line using position designation data of the viewpoint, and the camera line recommendation of the terminal device 100 The information is sent to the part 195. The camera line recommendation unit 195 that has received the information performs processing to change the display mode on the display screen 80 of the predicted preference camera line as described above.

ステップS609で、端末装置100のカメラライン制御部191は、(選好予測カメララインを含む)カメララインの内のひとつまたはそのカメラライン上の位置がユーザにより指定されたかを判定する。前記カメララインまたは位置が指定されていれば、処理はステップS611へ進む。そうでなければ、処理はステップS601を繰り返す。   In step S609, the camera line control unit 191 of the terminal device 100 determines whether one of the camera lines (including the preference predicted camera line) or the position on the camera line is designated by the user. If the camera line or position is specified, the process proceeds to step S611. Otherwise, the process repeats step S601.

ステップS611で、情報管理サーバ200の視点選好学習部231は、ステップS609でユーザにより指定された前記カメララインまたは位置の情報を端末装置100から受信し、記憶部170に記憶させる。記憶部170には、以前のユーザ毎の視点の位置指定の履歴情報が記録されており、その最後尾に今回の前記情報を加えてもよい。また、記憶のデータ形式は、前述の図27で説明された視点の位置指定データの形式に沿ったものでもよい。   In step S611, the viewpoint preference learning unit 231 of the information management server 200 receives the information on the camera line or the position designated by the user in step S609 from the terminal device 100, and stores the information in the storage unit 170. In the storage unit 170, history information of position designation of a previous viewpoint for each user is recorded, and the present information may be added to the end. Further, the data format of the storage may be in accordance with the format of the position specification data of the viewpoint described in FIG. 27 described above.

これで、一連の学習および推薦処理は終了する。   This completes the series of learning and recommendation processes.

以上、添付図面を参照しながら本発明の好適な実施形態を説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   Although the preferred embodiments of the present invention have been described above with reference to the accompanying drawings, it goes without saying that the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the appended claims, and of course these also fall within the technical scope of the present invention. It is understood.

例えば、実空間に対応する3次元仮想空間として、センタオフィスの3次元仮想空間が用意される例を説明したが、本発明はこれに限定されない。例えば、複数の3次元空間が用意されてもよい。一例として、実空間に対応する3次元仮想空間は、複数のオフィスの各々について用意されてもよい。例えば、サテライトオフィス、ホームオフィス、他のセンタオフィス等についての3次元仮想空間も用意されてもよい。この場合に、各オフィスの3次元仮想空間は、各オフィスの大きさに応じた大きさの3次元仮想空間であってもよい。また、端末装置のオブジェクト選択部は、複数の3次元仮想空間のうちの所望の3次元仮想空間のデータを取得してもよい。また、オフィス以外の3次元仮想空間が用意されてもよい。   For example, although the example in which the three-dimensional virtual space of the center office is prepared as the three-dimensional virtual space corresponding to the real space has been described, the present invention is not limited thereto. For example, a plurality of three-dimensional spaces may be prepared. As an example, a three-dimensional virtual space corresponding to real space may be prepared for each of a plurality of offices. For example, a three-dimensional virtual space may also be provided for satellite offices, home offices, other center offices, etc. In this case, the three-dimensional virtual space of each office may be a three-dimensional virtual space having a size corresponding to the size of each office. In addition, the object selection unit of the terminal device may acquire data of a desired three-dimensional virtual space among a plurality of three-dimensional virtual spaces. Also, a three-dimensional virtual space other than the office may be prepared.

また、人物が座席に座っている場合に限り当該人物に対応するオブジェクトが選択される例を説明したが、本発明はこれに限定されない。例えば、人物が座席に座っていない場合にもオブジェクトが選択されてもよい。一例として、人物が座席に座っている場合には、当該座席に設置された通信装置の通信用IDが取得され、人物が座席に座っていない場合には、当該人物の携帯端末の通信用IDが取得されてもよい。   Further, although the example has been described in which the object corresponding to the person is selected only when the person is sitting in the seat, the present invention is not limited thereto. For example, the object may be selected even when the person is not seated in the seat. As an example, when a person is sitting in a seat, the communication ID of the communication device installed in the seat is acquired, and when the person is not sitting in the seat, the ID for communication of the portable terminal of the person May be acquired.

また、通信用IDが電話番号である例を説明したが、本発明はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。   Although the example in which the communication ID is a telephone number has been described, the present invention is not limited to this. The communication ID may be an ID other than a telephone number. As one example, the communication ID may be a softphone ID other than the telephone number. As another example, the communication ID may be an ID for communication other than telephone. For example, the communication ID may be a mail address or an ID for a short message. In this case, a mail may be sent or a short message may be sent using the communication ID.

また、オブジェクトが選択された場合に当該オブジェクトに対応する通信用IDが取得される例を説明したが、本発明はこれに限定されない。例えば、オブジェクトが選択された場合に当該オブジェクトに対応するいずれかの識別情報が取得されてもよい。一例として、オブジェクトが選択された場合にオブジェクトに対応する人物のいずれかの識別情報が取得されてもよい。そして、例えば、この識別情報から、通信用IDが取得されてもよい。   Further, although an example has been described in which the communication ID corresponding to the object is acquired when the object is selected, the present invention is not limited to this. For example, when an object is selected, any identification information corresponding to the object may be acquired. As one example, when an object is selected, any identification information of a person corresponding to the object may be obtained. Then, for example, the communication ID may be acquired from the identification information.

また、実空間に対応する3次元仮想空間に配置されるオブジェクト(オブジェクト選択部により選択されるオブジェクト)が人物に対応し且つ円柱のオブジェクトである例を説明したが、本発明はこれに限定されない。例えば、オブジェクトは、円柱のオブジェクトではなく、別の形状のオブジェクトであってもよい。また、例えば、オブジェクトは、人物以外のものに対応してもよい。一例として、オブジェクトは、実空間の領域に対応してもよい。具体的には、例えば、オブジェクトは、座席に対応し、当該座席の位置に対応する3次元仮想位置に配置されてもよい。そして、当該座席に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。また、オブジェクトは、座席よりも広い領域に対応し、当該領域の範囲に対応する3次元仮想範囲に渡って存在してもよい。そして、当該領域内に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。   Further, although the example in which the object (object selected by the object selection unit) disposed in the three-dimensional virtual space corresponding to the real space corresponds to a person and is a cylindrical object has been described, the present invention is not limited thereto . For example, the object may not be a cylindrical object but an object of another shape. Also, for example, an object may correspond to something other than a person. As an example, an object may correspond to a region of real space. Specifically, for example, the object may be arranged at a three-dimensional virtual position corresponding to the seat and corresponding to the position of the seat. Then, the communication ID of the communication device installed in the seat corresponds to the object, and when the object is selected, the communication ID may be acquired. Also, the object may correspond to an area wider than the seat, and may exist over a three-dimensional virtual area corresponding to the area of the area. Then, the communication ID of the communication device installed in the area corresponds to the object, and when the object is selected, the communication ID may be acquired.

また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明はこれに限定されない。例えば、撮像画像の位置は、タッチパネル以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。   In addition, although an example in which the position of the captured image on the display screen is specified by a touch by the user has been described, the present invention is not limited thereto. For example, the position of the captured image may be designated by the user using an input unit other than the touch panel. For example, the position of the captured image may be specified by clicking with a mouse, or may be specified using another input means such as a button or a keyboard.

また、カメラにより生成される撮像画像、マイクロフォンにより生成される音声データ、及び、センサによる判定結果が、それぞれ、カメラ、マイクロフォン及びセンサにより、端末装置に直接提供される例を説明したが、本発明はこれに限定されない。例えば、別の装置によりこれらのデータが提供されてもよい。一例として、いずれかのサーバ(例えば、メディア配信サーバ)が、これらのデータを取得し、これらのデータを端末装置に提供してもよい。   Also, an example has been described in which the captured image generated by the camera, the audio data generated by the microphone, and the determination result by the sensor are directly provided to the terminal device by the camera, the microphone and the sensor, respectively. Is not limited to this. For example, these data may be provided by another device. As an example, any server (for example, media distribution server) may obtain these data and provide these data to the terminal device.

また、位置取得部、オブジェクト選択部及びID取得部等の機能が端末装置により備えられる例を説明したが、本発明はこれに限定されない。例えば、これらの機能は、端末装置以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。   Moreover, although the example in which the functions such as the position acquisition unit, the object selection unit, and the ID acquisition unit are provided by the terminal device has been described, the present invention is not limited thereto. For example, these functions may be provided by devices other than the terminal device. As an example, these functions may be provided by any server.

また、実空間の撮像画像の表示画面が端末装置により表示される例を説明したが、本発明はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィスに設置されたディスプレイにより表示されてもよい。そして、ユーザが、当該ディスプレイにおいて、表示画像に含まれる撮像画像の位置を指定してもよい。   Moreover, although the example in which the display screen of the captured image of real space was displayed by the terminal device was demonstrated, this invention is not limited to this. For example, the display screen may be displayed by another device. As one example, the display screen may be displayed by a display installed at a satellite office. Then, the user may designate the position of the captured image included in the display image on the display.

また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。   In addition, the processing steps in the information processing of the present specification may not necessarily be performed in chronological order according to the order described in the flowchart. For example, the processing steps in the information processing may be performed in an order different from the order described as the flowchart, or may be performed in parallel.

また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in an information processing apparatus (for example, a terminal apparatus) to exhibit the same function as each configuration of the information processing apparatus. A storage medium storing the computer program is also provided.

<<5.変形例>>
<5−1.変形例1:カメラライン選別処理実施の通知機能>
変形例1として、カメラライン選別部193は、複数のカメラライン候補から最適なひとつのカメララインを選別し、当該最適なひとつのカメララインだけを表示する場合に、当該最適なひとつのカメララインの周囲に前記複数のカメラライン候補の総数を表示する機能を有していてもよい。図24に、図18に対して当変形例1の機能を適用した表示の一例を示す。例えば、カメラライン選別部193は、3つのカメララインが近傍に存在すると判定され、最適なひとつのカメララインへの選別処理がなされた場合、図24に示すように、当該最適なひとつのカメララインの表示画面80への表示に併せて、「3」という数字を表示画面80上の当該最適なひとつのカメララインの付近に表示させてもよい。
<< 5. Modified example >>
<5-1. Variation 1: Notification Function of Camera Line Sorting Processing>
As a modification 1, the camera line sorting unit 193 sorts an optimal one camera line from a plurality of camera line candidates, and displays only the optimal one camera line. It may have a function of displaying the total number of the plurality of camera line candidates around. FIG. 24 shows an example of a display in which the function of the first modification is applied to FIG. For example, when it is determined that three camera lines are present in the vicinity and the selection processing to an optimal one camera line is performed, as shown in FIG. In addition to the display on the display screen 80, the number "3" may be displayed in the vicinity of the one optimal camera line on the display screen 80.

この機能により、ユーザは表示画面80上に表示されたカメララインが選別処理がなされたカメララインであるか否かを感覚的に知ることができる(逆に、当通知機能がない場合は、ユーザは各カメララインに選別処理がなされたのか否かを知ることができない)。さらに、前記複数のカメラライン候補の総数の表示部分をタッチすると、前記選別処理が解除され、前記複数のカメラライン候補がすべて表示されるようにモード切り替えができるようにしてもよい。   With this function, the user can intuitively know whether the camera line displayed on the display screen 80 is a camera line subjected to sorting processing (conversely, if there is no notification function, the user can Can not know whether each camera line has been sorted or not). Furthermore, when the display portion of the total number of the plurality of camera line candidates is touched, the selection processing may be canceled and mode switching may be performed such that all the plurality of camera line candidates are displayed.

<5−2.変形例2:カメラライン評価条件における性能情報の取得管理機能>
変形例2として、カメラライン選別部193は、前述したカメラライン評価条件がカメラ11の「性能」である場合に、当該性能を評価し、評価の結果得られた性能情報を管理する機能を有していてもよい。例えば、カメラライン選別部193は、本実施形態に係るシステムに含まれるすべてのカメラ11に短時間の試撮影を行わせてその画像を取得し、得られた各画像のデータを自動解析して、各カメラ11の性能情報を推定してもよい。あるいは、カメラライン選別部193は、画像解析処理まで行わなくとも、各カメラ11の撮影画像に埋め込まれたExif(Exchangeable image file format)のデータから性能に関する情報を取得してもよい。
5-2. Modified example 2: Acquisition management function of performance information under camera line evaluation condition>
As a second modification, when the camera line evaluation condition described above is the “performance” of the camera 11, the camera line selection unit 193 has a function of evaluating the performance and managing the performance information obtained as a result of the evaluation. It may be done. For example, the camera line sorting unit 193 causes all the cameras 11 included in the system according to the present embodiment to perform short-time trial shooting, obtains the image, and automatically analyzes the data of each obtained image. The performance information of each camera 11 may be estimated. Alternatively, the camera line selection unit 193 may acquire information on performance from data of Exif (Exchangeable image file format) embedded in a captured image of each camera 11 without performing image analysis processing.

また、カメラライン選別部193は、Webページの自動巡回と情報収集を行うクローラプログラムの機能を有しており、カメラのスペック等、各カメラ11の性能に関する情報をWebから収集する機能を有していてもよい。さらに、上記のように取得された性能情報のデータを情報管理サーバ200と連携して記憶・管理してもよい。この機能により、カメラライン評価条件がカメラ11の性能である場合に、ユーザが各カメラ11の性能情報を本実施形態に係るシステムへ手入力し登録する作業負荷が軽減される。   In addition, the camera line sorting unit 193 has a crawler program function that automatically crawls Web pages and collects information, and has a function of collecting information on the performance of each camera 11 such as camera specifications from the Web. It may be Furthermore, the data of the performance information acquired as described above may be stored and managed in cooperation with the information management server 200. With this function, when the camera line evaluation condition is the performance of the camera 11, the workload for the user to manually input and register the performance information of each camera 11 to the system according to the present embodiment is reduced.

<5−3.変形例3:カメララインへの画像品質関連情報の付与表示機能>
変形例3として、カメラライン制御部191は、各カメラ11の撮像画像の品質に応じて、対応するカメララインの表示に変更を加える機能を有していてもよい。例えば、図15において、撮像画像81内のカメラライン87C、カメラライン87D、カメラライン87Eにそれぞれ対応するカメラ11Cの撮影画素数が320×240ピクセル、カメラ11Dの撮影画素数が1920×1200ピクセル、カメラ11Eの撮影画素数が640×480ピクセルであった場合に、撮影画像の品質の高低比較は、カメラ11D>カメラ11E>カメラ11Cとなる。
5-3. Modification 3: Display Function of Image Quality Related Information to Camera Line>
As a third modification, the camera line control unit 191 may have a function of changing the display of the corresponding camera line according to the quality of the image captured by each camera 11. For example, in FIG. 15, the shooting pixel number of the camera 11C corresponding to the camera line 87C, the camera line 87D, and the camera line 87E in the captured image 81 is 320 × 240 pixels, and the shooting pixel number of the camera 11D is 1920 × 1200 pixels, When the shooting pixel count of the camera 11E is 640 × 480 pixels, the comparison of the quality of the shot image is camera 11D> camera 11E> camera 11C.

しかし、カメラ切り換え処理が行われる前には、そのような画像品質の差異をユーザは予測できない。そこで、図25に示すように、撮影画像の品質の高低をカメララインの表示形態に対応させて描画することで、ユーザはカメラ切り換え処理前のカメララインを選択する段階で、切り換え先のカメラから得られる撮影画像の品質を直感的に把握することができ、より高い品質の撮影画像を得られるカメラを選択して切り換え操作を行うことができるようになる。なお、図25に示した例では、カメララインの太さで撮影画像品質の高低を表現したが、例えば、カメララインの色や表示透過度等で撮影画像品質の高低を表現しても構わない。   However, before the camera switching process is performed, the user can not predict such differences in image quality. Therefore, as shown in FIG. 25, by drawing the high and low of the quality of the captured image in accordance with the display form of the camera line, the user selects the camera line before the camera switching process, from the camera of the switching destination. It is possible to intuitively understand the quality of the obtained photographed image, and it is possible to select the camera which can obtain the photographed image of higher quality and perform the switching operation. In the example shown in FIG. 25, the height of the captured image quality is expressed by the thickness of the camera line, but the height of the captured image quality may be expressed by the color of the camera line or the display transparency, for example. .

<5−4.変形例4:自由視点映像の映像補間視点における本発明技術適用>
本実施形態における切り換え対象のカメラとしては、主にハードウェアの実体を有する撮像装置を想定しているが、変形例4として、本実施形態は、自由視点映像技術において生成される任意の映像補間視点に対応する仮想的な撮像視点位置もカメラ11のひとつとみなしても構わない。これにより、視点切り換えを離散的ではなく連続的に行えるような自由視点映像技術を有する遠隔映像伝送アプリケーションシステムに対しても、本実施形態を適用し得る。
5-4. Variation 4: Application of the Invention Technique to Video Interpolation Viewpoint of Free Viewpoint Video>
As a camera to be switched in the present embodiment, an imaging apparatus mainly having hardware is assumed. However, as a fourth modification, the present embodiment relates to any video interpolation generated in free viewpoint video technology. The virtual imaging viewpoint position corresponding to the viewpoint may be regarded as one of the cameras 11. Thus, the present embodiment can also be applied to a remote video transmission application system having free viewpoint video technology in which viewpoint switching can be performed not discretely but continuously.

なお、完全な自由視点映像技術においては前記カメララインも任意に生成され得るが、その場合にも、本実施形態のカメラライン選別部193による前述の選別処理が有効にされてよい。例えば、当該選別処理を所定の空間範囲ごとに適用し、当該空間範囲に最適なカメララインが求められることで、任意のカメララインが質の高い視点候補に対応するカメララインに絞り込まれ、視点選択操作の可能性が無限にあるケースよりも操作性の高い視点選択入力方法を実現できる可能性がある。   In the complete free viewpoint video technology, the camera line may also be generated arbitrarily, but even in that case, the above-described sorting process by the camera line sorting unit 193 of the present embodiment may be made effective. For example, the selection process is applied to each predetermined spatial range, and an optimum camera line is obtained for the spatial range, whereby any camera line is narrowed down to camera lines corresponding to high quality viewpoint candidates, and viewpoint selection is performed. There is a possibility of realizing a viewpoint selection input method with higher operability than in the case where the possibility of operation is infinite.

<5−5.変形例5:各構成の位置>
上記では、端末装置100および情報管理サーバ200それぞれが有する機能ブロックの例を具体的に説明した。しかし、上記した例は、端末装置100および情報管理サーバ200それぞれが有する機能ブロックの一例に過ぎない。例えば、上記において、端末装置100が有するとして説明した機能ブロック(例えば、カメラライン推薦部195など)を、端末装置100の代わりに、情報管理サーバ200が有してもよいし、上記において、情報管理サーバ200が有するとして説明した機能ブロック(例えば、視点選好学習部231など)を、情報管理サーバ200の代わりに、端末装置100が有してもよい。
5-5. Variation 5: Position of Each Configuration>
In the above, the example of the functional block which each of the terminal device 100 and the information management server 200 has was demonstrated concretely. However, the above-mentioned example is only an example of the functional block which each of the terminal device 100 and the information management server 200 has. For example, in place of the terminal device 100, the information management server 200 may have the functional blocks (for example, the camera line recommendation unit 195 and the like) described above as having the terminal device 100, and in the above Instead of the information management server 200, the terminal device 100 may have a functional block (for example, the viewpoint preference learning unit 231 or the like) described as the management server 200 has.

11 カメラ
13 マイクロフォン
15 センサ
17 メディア配信サーバ
19、23 LAN(Local Area Network)
21 ディスプレイ
30 外部ネットワーク
40 PBX(Private Branch eXchange)
60 表示画面(俯瞰モード)
61 俯瞰撮像画像
63、73、83 ボタン画像
70 表示画面(近接モード)
71 近接撮像画像
80 表示画面(会話モード)
81 相手側撮像画像
85 自分側撮像画像
90 3次元仮想空間
91 オブジェクト
93 仮想面
100 端末装置
180 制御部
181 実空間情報提供部
183 位置取得部
185 オブジェクト選択部
187 ID取得部
189 電話部
191 カメラライン制御部(ライン制御部)
193 カメラライン選別部(ライン選別部)
195 カメラライン推薦部
200 情報管理サーバ
210 通信部
220 記憶部
230 制御部
231 視点選好学習部
11 Camera 13 Microphone 15 Sensor 17 Media Distribution Server 19, 23 LAN (Local Area Network)
21 Display 30 External Network 40 PBX (Private Branch eXchange)
60 Display screen (俯瞰 mode)
61 俯瞰 captured image 63, 73, 83 button image 70 display screen (proximity mode)
71 Close-up image 80 Display screen (conversation mode)
81 Other-Side Captured Image 85 Own-Side Captured Image 90 Three-Dimensional Virtual Space 91 Object 93 Virtual Surface 100 Terminal Device 180 Control Unit 181 Real Space Information Providing Unit 183 Position Acquisition Unit 185 Object Selection Unit 187 ID Acquisition Unit 189 Telephone Unit 191 Camera Line Control unit (line control unit)
193 Camera Line Sorting Unit (Line Sorting Unit)
195 camera line recommendation unit 200 information management server 210 communication unit 220 storage unit 230 control unit 231 viewpoint preference learning unit

Claims (18)

ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、
情報処理装置。
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When an imaging device corresponding to a dimensional line is designated as the viewpoint position of the user, the user's action for the person corresponding to the object present at the selected position is performed based on the three-dimensional selected position and the three-dimensional installation position. And a learning unit that calculates a viewing condition and calculates a relationship between the viewing condition and the number of times of designation of the viewpoint position.
Information processing device.
前記学習部は、前記視点位置の指定回数が最大となる前記閲覧条件を算出する、
請求項1に記載の情報処理装置。
The learning unit calculates the viewing condition in which the number of designations of the viewpoint position is maximum.
An information processing apparatus according to claim 1.
前記学習部は、前記3次元選択位置と前記3次元設置位置とに基づいて、少なくとも3次元仮想空間における前記人物と前記ユーザとの距離を前記閲覧条件として算出する、
請求項1に記載の情報処理装置。
The learning unit calculates a distance between the user and the person in at least a three-dimensional virtual space as the viewing condition based on the three-dimensional selection position and the three-dimensional installation position.
An information processing apparatus according to claim 1.
前記学習部は、前記距離と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記距離を算出する、
請求項3に記載の情報処理装置。
The learning unit calculates a relational expression between the distance and the number of designations of the viewpoint position, and calculates the distance at which the designation number of the viewpoint position is maximum, based on the relational expression.
The information processing apparatus according to claim 3.
前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、少なくとも3次元仮想空間における前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出する、
請求項1に記載の情報処理装置。
The learning unit uses an angle of a viewpoint position of the user with respect to the person in at least a three-dimensional virtual space as the viewing condition based on the three-dimensional selection position, the three-dimensional installation position, and information of the body direction of the person. calculate,
An information processing apparatus according to claim 1.
前記学習部は、前記人物に紐づけられた前記3次仮想空間に対応する実空間における机の設置方向の情報に基づいて前記人物の身体方向を取得する、
請求項5に記載の情報処理装置。
The learning unit acquires the body direction of the person based on the information of the installation direction of the desk in the real space corresponding to the tertiary virtual space linked to the person.
The information processing apparatus according to claim 5.
前記学習部は、前記撮像装置による撮像画像に対する前記人物の顔検出処理または人体3次元モデル作成処理に基づいて前記人物の身体方向を取得する、
請求項5に記載の情報処理装置。
The learning unit acquires a body direction of the person based on a face detection process of the person or a three-dimensional human body model creation process on the image captured by the imaging device.
The information processing apparatus according to claim 5.
前記学習部は、前記人物の身体に備え付けられたセンサ装置によって検出されたセンサデータに基づいて前記人物の身体方向を取得する、
請求項5に記載の情報処理装置。
The learning unit acquires the body direction of the person based on sensor data detected by a sensor device provided on the body of the person.
The information processing apparatus according to claim 5.
前記学習部は、前記角度と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記角度を算出する、
請求項5に記載の情報処理装置。
The learning unit calculates a relational expression between the angle and the number of designations of the viewpoint position, and calculates the angle at which the designation number of the viewpoint position is maximum based on the relational expression.
The information processing apparatus according to claim 5.
前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、3次元仮想空間における前記人物と前記ユーザとの距離および前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出し、前記距離および前記角度と前記視点位置の指定回数とを変数として含む回帰式を算出し、前記回帰式に基づいて、前記視点位置の指定回数が最大となる前記距離および前記角度を算出する、
請求項1に記載の情報処理装置。
The learning unit determines a distance between the user and the person in a three-dimensional virtual space and a viewpoint of the user with respect to the person based on the three-dimensional selection position, the three-dimensional installation position, and information of the body direction of the person. An angle of position is calculated as the viewing condition, and a regression equation including the distance and the angle and the number of times of designation of the viewpoint position as variables is calculated, and the number of times of designation of the viewpoint position is determined to be maximum based on the regression equation. Calculate the distance and the angle
An information processing apparatus according to claim 1.
ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出することを含む、
情報処理方法。
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When an imaging device corresponding to a dimensional line is designated as the viewpoint position of the user, the user's action for the person corresponding to the object present at the selected position is performed based on the three-dimensional selected position and the three-dimensional installation position. Calculating a viewing condition, and calculating a relationship between the viewing condition and the designated number of times of the viewpoint position;
Information processing method.
コンピュータを、
ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、
情報処理装置として機能させるためのプログラム。
Computer,
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When an imaging device corresponding to a dimensional line is designated as the viewpoint position of the user, the user's action for the person corresponding to the object present at the selected position is performed based on the three-dimensional selected position and the three-dimensional installation position. And a learning unit that calculates a viewing condition and calculates a relationship between the viewing condition and the number of times of designation of the viewpoint position.
A program for functioning as an information processing apparatus.
ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、
表示制御装置。
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. An imaging device corresponding to a dimensional line is designated as a viewpoint position of the user, and based on the three-dimensional selection position and the three-dimensional installation position, viewing conditions of the user for a person corresponding to an object present at the selection position. And a display control unit that controls display according to the relationship when the relationship between the viewing condition and the number of times of designation of the viewpoint position is calculated.
Display control device.
前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインを選択し、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとが区別可能に視認されるように、前記選択した3次元ラインに対応する2次元ラインと前記他の3次元ラインに対応する2次元ラインとのうち少なくとも一方の表示態様を変更する、
請求項13に記載の表示制御装置。
The display control unit selects a three-dimensional line according to the viewing condition in which the number of times of designation of the viewpoint position is the largest, and corresponds to a two-dimensional line corresponding to the selected three-dimensional line and another three-dimensional line The display mode of at least one of the two-dimensional line corresponding to the selected three-dimensional line and the two-dimensional line corresponding to the other three-dimensional line is changed so that the two-dimensional line and the two-dimensional line are distinguishably viewed.
The display control device according to claim 13.
前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインにおける視点位置を算出し、算出した前記視点位置に対応する撮像画像が表示されるように制御する、
請求項13に記載の表示制御装置。
The display control unit calculates a viewpoint position in a three-dimensional line according to the viewing condition in which the number of times of designation of the viewpoint position is maximum, and performs control so that a captured image corresponding to the calculated viewpoint position is displayed. ,
The display control device according to claim 13.
ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御すること、
を含む、表示制御方法。
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. An imaging device corresponding to a dimensional line is designated as a viewpoint position of the user, and based on the three-dimensional selection position and the three-dimensional installation position, viewing conditions of the user for a person corresponding to an object present at the selection position. When the relationship between the viewing condition and the number of times of designation of the viewpoint position is calculated, the display according to the relationship is controlled.
Display control method including.
コンピュータを、
ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、
表示制御装置として機能させるためのプログラム。
Computer,
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. An imaging device corresponding to a dimensional line is designated as a viewpoint position of the user, and based on the three-dimensional selection position and the three-dimensional installation position, viewing conditions of the user for a person corresponding to an object present at the selection position. And a display control unit that controls display according to the relationship when the relationship between the viewing condition and the number of times of designation of the viewpoint position is calculated.
A program for functioning as a display control device.
ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部と、
前記関係に応じた表示を制御する表示制御部と、
を有する、情報処理システム。
A three-dimensional line is designated according to the three-dimensional selection position in the three-dimensional virtual space corresponding to the selection position based on the user's specification and the three-dimensional installation position of the imaging device including the three-dimensional selection position in the imaging range. When an imaging device corresponding to a dimensional line is designated as the viewpoint position of the user, the user's action for the person corresponding to the object present at the selected position is performed based on the three-dimensional selected position and the three-dimensional installation position. A learning unit that calculates a viewing condition and calculates a relationship between the viewing condition and the number of times of designation of the viewpoint position;
A display control unit that controls display according to the relationship;
An information processing system having
JP2017187960A 2017-09-28 2017-09-28 Information processing device, information processing method, program, display control device, display control method, program and information processing system Active JP6881193B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017187960A JP6881193B2 (en) 2017-09-28 2017-09-28 Information processing device, information processing method, program, display control device, display control method, program and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187960A JP6881193B2 (en) 2017-09-28 2017-09-28 Information processing device, information processing method, program, display control device, display control method, program and information processing system

Publications (2)

Publication Number Publication Date
JP2019061629A true JP2019061629A (en) 2019-04-18
JP6881193B2 JP6881193B2 (en) 2021-06-02

Family

ID=66176637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187960A Active JP6881193B2 (en) 2017-09-28 2017-09-28 Information processing device, information processing method, program, display control device, display control method, program and information processing system

Country Status (1)

Country Link
JP (1) JP6881193B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367405A (en) * 2020-02-17 2020-07-03 深圳岱仕科技有限公司 Adjustment method, device, computer equipment and storage medium of head-mounted display device
JP2022149479A (en) * 2021-03-25 2022-10-07 株式会社日立ソリューションズ・クリエイト Business support system and business support method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005415A (en) * 2004-06-15 2006-01-05 Sharp Corp Content viewing apparatus, television apparatus, content viewing method, program, and recording medium
JP2006310936A (en) * 2005-04-26 2006-11-09 Sharp Corp Arbitrary viewpoint video generation system
JP2009187186A (en) * 2008-02-05 2009-08-20 Sony Corp Image processing apparatus and method, and program
JP2011176599A (en) * 2010-02-24 2011-09-08 Oki Networks Co Ltd Space information visualization system and related information providing device
JP2012156571A (en) * 2009-10-27 2012-08-16 Panasonic Corp Display image switching device and display image switching method
JP2017022587A (en) * 2015-07-13 2017-01-26 沖電気工業株式会社 Information processing device, program and information processing method
JP2017028688A (en) * 2015-07-16 2017-02-02 キヤノン株式会社 Image managing device, image managing method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005415A (en) * 2004-06-15 2006-01-05 Sharp Corp Content viewing apparatus, television apparatus, content viewing method, program, and recording medium
JP2006310936A (en) * 2005-04-26 2006-11-09 Sharp Corp Arbitrary viewpoint video generation system
JP2009187186A (en) * 2008-02-05 2009-08-20 Sony Corp Image processing apparatus and method, and program
JP2012156571A (en) * 2009-10-27 2012-08-16 Panasonic Corp Display image switching device and display image switching method
JP2011176599A (en) * 2010-02-24 2011-09-08 Oki Networks Co Ltd Space information visualization system and related information providing device
JP2017022587A (en) * 2015-07-13 2017-01-26 沖電気工業株式会社 Information processing device, program and information processing method
JP2017028688A (en) * 2015-07-16 2017-02-02 キヤノン株式会社 Image managing device, image managing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367405A (en) * 2020-02-17 2020-07-03 深圳岱仕科技有限公司 Adjustment method, device, computer equipment and storage medium of head-mounted display device
JP2022149479A (en) * 2021-03-25 2022-10-07 株式会社日立ソリューションズ・クリエイト Business support system and business support method
JP7696220B2 (en) 2021-03-25 2025-06-20 株式会社日立ソリューションズ・クリエイト Business support system and business support method

Also Published As

Publication number Publication date
JP6881193B2 (en) 2021-06-02

Similar Documents

Publication Publication Date Title
JP6070783B2 (en) Information processing apparatus, program, and information processing method
JP4645090B2 (en) Method, system and program for exchanging information in a shared interactive environment
CN106651955A (en) Method and device for positioning object in picture
JP2016143919A (en) Image processing apparatus and control method thereof
JP6618644B2 (en) Control device, control method, and program
CN104205816A (en) Conference call system and conference call terminal
CN111984347B (en) Interactive processing method, device, equipment and storage medium
US9509733B2 (en) Program, communication apparatus and control method
JP2014042160A (en) Display terminal, setting method of target area of moving body detection and program
EP2950503A1 (en) Communication system, transfer control device, communication method, and computer program product
KR20150023148A (en) Method and apparatus for managing images on electronic device
JP6149474B2 (en) Information processing apparatus and program
CN104378576B (en) Information processing method and electronic equipment
JP6881193B2 (en) Information processing device, information processing method, program, display control device, display control method, program and information processing system
CN112887620A (en) Video shooting method and device and electronic equipment
KR20190129592A (en) Method and apparatus for providing video in potable device
CN105204712B (en) The display methods and device of folder icon
CN113286085B (en) Display control method and device and electronic equipment
JP6102961B2 (en) Information processing apparatus, program, and information processing method
CN105306797B (en) A kind of user terminal and image capturing method
JP5692204B2 (en) Information processing apparatus, program, and information processing method
JP6540732B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
JP6575561B2 (en) Information processing apparatus, information processing method, and program
CN104903833A (en) Client device, monitoring system, method and computer program for displaying images on a screen
JP2023173764A (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6881193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150