JP2010268128A - Control apparatus, imaging apparatus, imaging system, image acquisition method and program - Google Patents
Control apparatus, imaging apparatus, imaging system, image acquisition method and program Download PDFInfo
- Publication number
- JP2010268128A JP2010268128A JP2009116634A JP2009116634A JP2010268128A JP 2010268128 A JP2010268128 A JP 2010268128A JP 2009116634 A JP2009116634 A JP 2009116634A JP 2009116634 A JP2009116634 A JP 2009116634A JP 2010268128 A JP2010268128 A JP 2010268128A
- Authority
- JP
- Japan
- Prior art keywords
- information
- imaging device
- camera
- appropriateness
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 293
- 238000000034 method Methods 0.000 title claims description 64
- 230000005540 biological transmission Effects 0.000 claims abstract description 166
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000011156 evaluation Methods 0.000 claims description 31
- 238000012854 evaluation process Methods 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 38
- 230000008921 facial expression Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 101000986989 Naja kaouthia Acidic phospholipase A2 CM-II Proteins 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、制御装置、撮像装置、撮像システム、画像取得方法、及びプログラム等に関係する。 The present invention relates to a control device, an imaging device, an imaging system, an image acquisition method, a program, and the like.
近年、身体に装着可能なカメラ(以下、適宜、ウェアラブルカメラと呼ぶ)により、使用者が遭遇する日常風景を自動的に撮影して記録するライフログが注目されている。例えば特許文献1には、ウェアラブルカメラにより所定の時間間隔で自動的に撮影を行って、ライフログ画像を記録する技術が開示されている。 2. Description of the Related Art In recent years, a life log that automatically captures and records a daily scene that a user encounters with a camera that can be worn on the body (hereinafter, appropriately referred to as a wearable camera) has attracted attention. For example, Patent Document 1 discloses a technique for automatically capturing images at a predetermined time interval with a wearable camera and recording a life log image.
しかしながら、ウェアラブルカメラを用いた場合、日常風景を撮影する事はできるが、使用者自身を撮影する事ができないという課題がある。このため、使用者がどのような反応を見せたかといった、後でログ(記録)を振り返る際に重要な情報が欠落してしまうという問題点がある。 However, when a wearable camera is used, there is a problem that it is possible to shoot a daily landscape but not a user himself. For this reason, there is a problem that important information is lost when looking back at the log (record) such as how the user has reacted.
使用者の様子を記録するという点では、例えば特許文献2には、2台の車載カメラを用いて運転者の様子を記録する技術が開示されている。 In terms of recording the state of the user, for example, Patent Document 2 discloses a technique for recording the state of the driver using two in-vehicle cameras.
この従来技術では、2台のカメラのうちの1台のカメラで周囲の風景を撮影する。そして、もう一台のカメラで運転者を撮影し、運転者が視線を向けた対象を認識して記録しておく。こうすることで、運転者が注視した対象を後から表示できるようになる。 In this prior art, the surrounding landscape is photographed by one of the two cameras. Then, the driver is photographed with another camera, and the driver recognizes and records the object to which the line of sight is directed. By doing so, it becomes possible to display the object watched by the driver later.
しかしながら、この従来技術では、車両の運転席という限られた環境であるからこそ、運転者を撮影するためのカメラを固定的に設置できるのであり、日常風景の撮影を目的とするライフログでは、使用者撮影用のカメラを別途用意することは現実的ではない。例えば使用者撮影用のカメラとして、固定的に設置されたカメラを用いると、固定的に設置されたカメラの視野範囲内の場所でしか使用者の反応等を撮影できない。このため、使用者がその場所を離れると、結局、特許文献1の従来技術と同様に、後でログを振り返る際の重要な情報が欠落してしまう。 However, in this conventional technology, because it is a limited environment of the driver's seat of the vehicle, a camera for photographing the driver can be fixedly installed, and in the life log for photographing daily scenery, It is not realistic to prepare a camera for user photography separately. For example, when a fixed camera is used as a user shooting camera, the user's reaction or the like can be shot only at a location within the field of view of the fixed camera. For this reason, when the user leaves the place, as in the prior art of Patent Document 1, important information when looking back on the log later is lost.
本発明の幾つかの態様によれば、撮像装置が取得した情報の適正度を他の撮像装置により把握可能にする制御装置、撮像装置、撮像システム、画像取得方法、及びプログラム等を提供できる。 According to some aspects of the present invention, it is possible to provide a control device, an imaging device, an imaging system, an image acquisition method, a program, and the like that allow the appropriateness of information acquired by the imaging device to be grasped by another imaging device.
本発明の一態様は、互いに独立に移動可能な第1の撮像装置と第2の撮像装置のうちの前記第2の撮像装置の制御装置であって、撮像部により撮像された撮像画像を取得する画像取得部と、前記第2撮像装置の前記撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得する情報取得部と、取得された前記第1撮像装置情報の情報適正度を算出する情報適正度算出部と、算出された前記情報適正度を、前記第1撮像装置に送信する送信部とを含む制御装置に関係する。また本発明の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One embodiment of the present invention is a control device for the second imaging device among a first imaging device and a second imaging device that can move independently from each other, and obtains a captured image captured by an imaging unit. An image acquisition unit that acquires information about the first imaging device based on the captured image of the second imaging device, and an information acquisition unit that acquires the first imaging device information. The control device includes an information suitability calculation unit that calculates the information suitability and a transmission unit that transmits the calculated information suitability to the first imaging device. Another embodiment of the present invention relates to a program that causes a computer to function as each of the above-described units or a computer-readable information storage medium that stores the program.
本発明の一態様によれば、第2の撮像装置の撮像画像に基づいて第1の撮像装置に関する情報である第1撮像装置情報が取得され、取得された第1撮像装置情報の情報適正度が算出される。そして算出された情報適正度が、第2の撮像装置から第1の撮像装置に送信される。これにより第1の撮像装置は、第2の撮像装置が取得した第1撮像装置情報の適正度を把握できるようになる。 According to one aspect of the present invention, the first imaging device information that is information about the first imaging device is acquired based on the captured image of the second imaging device, and the information appropriateness of the acquired first imaging device information Is calculated. The calculated information appropriateness level is transmitted from the second imaging device to the first imaging device. Accordingly, the first imaging device can grasp the appropriateness of the first imaging device information acquired by the second imaging device.
また本発明の一態様では、前記第1の撮像装置から前記情報適正度の情報送信要求を受信する受信部を含み、前記送信部は、前記情報適正度の情報送信要求に対する返信情報として、前記情報適性度を前記第1の撮像装置に送信してもよい。 In one aspect of the present invention, the information processing apparatus includes a reception unit that receives the information transmission request for the information appropriateness level from the first imaging device, and the transmission unit includes, as return information for the information transmission request for the information appropriateness level, The information suitability level may be transmitted to the first imaging device.
このようにすれば、第1の撮像装置からの情報送信要求を受信した場合に、その返信情報として情報適正度が第1の撮像装置に送信されるようになる。 In this way, when an information transmission request is received from the first imaging device, the information appropriateness level is transmitted to the first imaging device as the return information.
また本発明の一態様では、前記受信部は、前記情報適性度を受信した前記第1の撮像装置から前記第1撮像装置情報の情報送信要求を受信し、前記送信部は、前記第1撮像装置情報の情報送信要求に対する返信情報として、前記第1撮像装置情報を前記第1の撮像装置に送信してもよい。 In the aspect of the invention, the reception unit receives an information transmission request for the first imaging device information from the first imaging device that has received the information suitability, and the transmission unit receives the first imaging. The first imaging device information may be transmitted to the first imaging device as reply information to the device information information transmission request.
このようにすれば、例えば情報適正度の評価処理を行った第1の撮像装置が、第1撮像装置情報の送信を要求した場合に、第1撮像装置情報を第1の撮像装置に送信できるようになる。 In this way, for example, when the first imaging device that performed the information appropriateness evaluation process requests transmission of the first imaging device information, the first imaging device information can be transmitted to the first imaging device. It becomes like this.
また本発明の一態様では、前記送信部は、前記情報適正度を送信した後、所定期間内に前記第1撮像装置情報の情報送信要求を受信しなかった場合には、前記第1撮像装置情報、前記情報適正度を破棄する処理を行ってもよい。 In the aspect of the invention, if the transmission unit does not receive an information transmission request for the first imaging device information within a predetermined period after transmitting the information appropriateness level, the first imaging device You may perform the process which discards information and the said information appropriateness degree.
このようにすれば、第2の撮像装置の記憶領域等が無駄に使用されてしまう事態を防止できる。 In this way, it is possible to prevent a situation in which the storage area or the like of the second imaging device is used wastefully.
また本発明の一態様では、前記情報取得部は、前記第1撮像装置情報を取得可能か否かを判断し、前記第1撮像装置情報を取得可能であると判断した場合に、前記第1撮像装置情報を取得してもよい。 In one aspect of the present invention, the information acquisition unit determines whether or not the first imaging device information can be acquired, and determines that the first imaging device information can be acquired. Imaging device information may be acquired.
このようにすれば、第2の撮像装置により第1撮像装置情報を取得可能である場合にだけ、第1撮像装置情報が取得されて第1の撮像装置に送信されるようになる。従って、無駄な情報が送信される事態等を防止できる。 In this way, only when the first imaging device information can be acquired by the second imaging device, the first imaging device information is acquired and transmitted to the first imaging device. Therefore, the situation where useless information is transmitted can be prevented.
また本発明の一態様では、前記情報取得部は、前記撮像画像に基づいて前記第2の撮像装置の視野内に前記第1の撮像装置が含まれるか否かを判断することで、前記第1撮像装置情報を取得可能か否かを判断してもよい。 In the aspect of the invention, the information acquisition unit may determine whether the first imaging device is included in the field of view of the second imaging device based on the captured image. It may be determined whether or not one imaging device information can be acquired.
このようにすれば、第2の撮像装置の撮像画像を利用して、第1撮像装置情報を取得可能か否かを判断できるようになる。 In this way, it becomes possible to determine whether or not the first imaging device information can be acquired using the captured image of the second imaging device.
また本発明の一態様では、前記受信部は、前記第1の撮像装置の個体識別情報を受信し、前記情報取得部は、前記視野内に含まれる撮像装置が、受信した前記個体識別情報により識別される前記第1の撮像装置であるか否かを検出し、前記第1の撮像装置であることが検出された場合に、前記第1撮像装置情報を取得可能であると判断してもよい。 In the aspect of the invention, the receiving unit receives the individual identification information of the first imaging device, and the information acquisition unit is configured so that the imaging device included in the field of view is based on the received individual identification information. Even if it is detected whether or not it is the first imaging device to be identified, and it is detected that the imaging device is the first imaging device, it is determined that the first imaging device information can be acquired. Good.
このようにすれば、受信した第1の撮像装置の個体識別情報を利用して、視野内に含まれる撮像装置が第1の撮像装置か否かを検出することで、第1撮像装置情報を取得可能か否かを判断できるようになる。 In this way, the first imaging device information is obtained by detecting whether the imaging device included in the field of view is the first imaging device using the received individual identification information of the first imaging device. It becomes possible to determine whether or not it can be acquired.
また本発明の一態様では、前記情報取得部は、前記第1の撮像装置と前記第2の撮像装置の位置関係情報を取得し、前記位置関係情報に基づいて、前記第1撮像装置情報を取得可能か否かを判断してもよい。 In the aspect of the invention, the information acquisition unit acquires positional relationship information between the first imaging device and the second imaging device, and the first imaging device information is obtained based on the positional relationship information. It may be determined whether or not acquisition is possible.
このようにすれば、例えば第2の撮像装置の撮像画像を用いなくても、第1、第2の撮像装置の位置関係情報により、第1撮像装置情報を取得可能か否かを判断できるようになる。 In this way, for example, it is possible to determine whether or not the first imaging device information can be acquired from the positional relationship information of the first and second imaging devices without using the captured image of the second imaging device. become.
また本発明の一態様では、前記情報適正度算出部は、前記第1の撮像装置の使用者の撮影状態に基づいて、前記情報適正度を算出してもよい。 In the aspect of the invention, the information appropriateness calculation unit may calculate the information appropriateness based on a shooting state of a user of the first imaging device.
このようにすれば、第1の撮像装置は、受信した情報適正度に基づいて、第1の撮像装置の使用者の撮影状態を把握できるようになる。 In this way, the first imaging device can grasp the shooting state of the user of the first imaging device based on the received information appropriateness level.
また本発明の一態様では、前記情報適正度算出部は、前記第1の撮像装置の使用者の顔の向き及び顔の大きさの少なくとも1つに基づいて、前記情報適正度を算出してもよい。 In one aspect of the present invention, the information appropriateness calculation unit calculates the information appropriateness based on at least one of a face orientation and a face size of the user of the first imaging device. Also good.
このようにすれば、第1の撮像装置は、受信した情報適正度に基づいて、第1の撮像装置の使用者の顔の向きや顔の大きさが適正か否かを把握できるようになる。 In this way, the first imaging device can grasp whether the face direction and the size of the face of the user of the first imaging device are appropriate based on the received information appropriateness level. .
また本発明の一態様では、前記情報適正度算出部は、前記第2の撮像装置の撮像画像のコントラスト、階調性、明るさ、及びぼけ具合の少なくとも1つに基づいて、前記情報適正度を算出してもよい。 In the aspect of the invention, the information appropriateness degree calculation unit may be configured to use the information appropriateness degree based on at least one of contrast, gradation, brightness, and blur of a captured image of the second imaging device. May be calculated.
このようにすれば、第1の撮像装置は、受信した情報適正度に基づいて、第1の撮像装置を撮像する第2の撮像装置の撮像画像の品質を把握できるようになる。 In this way, the first imaging device can grasp the quality of the captured image of the second imaging device that images the first imaging device based on the received information appropriateness level.
また本発明の他の態様は、互いに独立に移動可能な第1の撮像装置と第2の撮像装置のうちの前記第1の撮像装置の制御装置であって、撮像部により撮像された撮像画像を取得する画像取得部と、前記第2の撮像装置が、前記第2の撮像装置の撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、前記第1撮像装置情報の情報適正度を算出して送信した場合に、前記情報適正度を受信する受信部と、受信した前記情報適正度の評価処理を行う情報適正度評価部とを含む制御装置に関係する。また本発明の他の態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 Another aspect of the present invention is a control device for the first imaging device of the first imaging device and the second imaging device that can move independently from each other, and is a captured image captured by an imaging unit. And the second imaging device acquires first imaging device information that is information related to the first imaging device based on a captured image of the second imaging device, and the first imaging device When calculating and transmitting information suitability of imaging device information, the control device includes a receiving unit that receives the information suitability and an information suitability evaluation unit that performs an evaluation process on the received information suitability To do. Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
本発明の他の態様によれば、第2の撮像装置の撮像画像に基づき取得された第1撮像装置情報の情報適正度が、第2の撮像装置から第1の撮像装置に送信され、この情報適正度の評価処理が行われる。これにより第1の撮像装置は、第2の撮像装置が取得した第1撮像装置情報の情報適正度を評価できるようになり、例えば第1撮像装置情報を受信するか否かなどの判断が可能になる。 According to another aspect of the present invention, the information appropriateness level of the first imaging device information acquired based on the captured image of the second imaging device is transmitted from the second imaging device to the first imaging device. Information appropriateness evaluation processing is performed. Accordingly, the first imaging device can evaluate the information appropriateness of the first imaging device information acquired by the second imaging device, and can determine whether to receive the first imaging device information, for example. become.
また本発明の他の態様では、前記情報適正度の情報送信要求を送信する送信部を含み、前記受信部は、前記情報適正度の情報送信要求に対する返信情報として、前記情報適性度を受信してもよい。 In another aspect of the present invention, the information processing apparatus includes a transmission unit that transmits the information transmission request for the information appropriateness level, and the reception unit receives the information suitability level as return information for the information transmission request for the information appropriateness level. May be.
このようにすれば、第2の撮像装置に対して情報送信要求を送信し、その返信情報として情報適正度を受信できるようになる。 In this way, an information transmission request can be transmitted to the second imaging device, and the information appropriateness level can be received as the return information.
また本発明の他の態様では、前記送信部は、前記情報適性度を受信した後、前記第1撮像装置情報の情報送信要求を送信し、前記受信部は、前記第1撮像装置情報の情報送信要求に対する返信情報として、前記第1撮像装置情報を受信してもよい。 In another aspect of the present invention, the transmission unit transmits an information transmission request for the first imaging device information after receiving the information suitability, and the reception unit receives information on the first imaging device information. The first imaging device information may be received as reply information to the transmission request.
このようにすれば、例えば情報適正度の評価処理を行った第1の撮像装置は、第1撮像装置情報の送信を要求することで、第1撮像装置情報を第1の撮像装置から受信できるようになる。 In this way, for example, the first imaging device that has performed the information appropriateness evaluation process can receive the first imaging device information from the first imaging device by requesting transmission of the first imaging device information. It becomes like this.
また本発明の他の態様では、前記送信部は、前記情報適正度の情報送信要求についてはブロードキャストで送信してもよい。 In another aspect of the present invention, the transmission unit may transmit the information transmission request for the information appropriateness level by broadcast.
このようにすれば、第1の撮像装置の周りの複数の撮像装置に対して情報送信要求をブロードキャストで送信して、情報適正度を取得することが可能になる。 In this way, it is possible to broadcast information transmission requests to a plurality of imaging devices around the first imaging device and acquire the information appropriateness level.
また本発明の他の態様では、前記第1撮像装置情報の情報送信要求を送信する送信部を含み、前記送信部は、前記情報適正度の評価結果に基づいて、前記第1撮像装置情報の情報送信要求を送信するか否かを判断してもよい。 According to another aspect of the present invention, the information processing apparatus includes a transmission unit that transmits an information transmission request for the first imaging device information. It may be determined whether or not to transmit an information transmission request.
このようにすれば、第2の撮像装置から受信した情報適正度が例えば高いと評価された場合に、その第2の撮像装置に対して、第1撮像装置情報の送信を要求できるようになる。 In this way, when the degree of appropriateness of information received from the second imaging device is evaluated to be high, for example, the second imaging device can be requested to transmit the first imaging device information. .
また本発明の他の態様では、前記第1撮像装置情報の情報送信要求を送信する送信部を含み、前記送信部は、前記情報適正度の評価結果に基づいて、前記第1撮像装置情報の情報送信要求の送信先を決定してもよい。 According to another aspect of the present invention, the information processing apparatus includes a transmission unit that transmits an information transmission request for the first imaging device information. The transmission destination of the information transmission request may be determined.
このようにすれば、高い評価の情報適正度を送信して来た第2の撮像装置に対して、第1撮像装置情報の送信を要求できるようになる。 If it does in this way, transmission of the 1st image pick-up device information can be demanded to the 2nd image pick-up device which has transmitted the information appropriateness of high evaluation.
また本発明の他の態様では、前記受信部は、複数の撮像装置からの複数の情報適正度を受信し、前記情報適正度評価部は、前記複数の情報適正度の評価処理を行い、前記送信部は、前記複数の情報適正度の評価結果に基づいて前記複数の撮像装置の中から前記第2の撮像装置が選択された場合に、前記第2の撮像装置に対して前記第1撮像装置情報の情報送信要求を送信してもよい。 In another aspect of the present invention, the receiving unit receives a plurality of information suitability levels from a plurality of imaging devices, and the information suitability rating unit performs the plurality of information suitability evaluation processes, When the second imaging device is selected from the plurality of imaging devices based on the evaluation results of the plurality of information suitability levels, the transmission unit performs the first imaging on the second imaging device. An information transmission request for device information may be transmitted.
このようにすれば、複数の撮像装置から情報適正度を受信した場合に、高い評価の情報適正度を送信して来た第2の撮像装置に対して、第1撮像装置情報の送信を要求できるようになる。 In this way, when information appropriateness is received from a plurality of imaging devices, a request for transmission of the first imaging device information is made to the second imaging device that has transmitted a highly evaluated information appropriateness. become able to.
また本発明の他の態様では、受信した前記第1撮像装置情報を、前記第1の撮像装置の前記撮像画像に関連づけて記憶部に書き込む書き込み部を含んでもよい。 In another aspect of the present invention, the information processing apparatus may include a writing unit that writes the received first imaging device information in a storage unit in association with the captured image of the first imaging device.
このようにすれば、例えば第1の撮像装置の死角にある情報等を、撮像画像に関連づけて記憶部に記憶できるようになる。 In this way, for example, information in the blind spot of the first imaging device can be stored in the storage unit in association with the captured image.
また本発明の他の態様は、上記のいずれかに記載の制御装置を含む撮像装置に関係する。 Another aspect of the invention relates to an imaging device including any of the above-described control devices.
また本発明の他の態様は、互いに独立に移動可能な第1の撮像装置と第2の撮像装置を含む撮像システムであって、前記第2の撮像装置は、前記第2撮像装置の撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、取得された前記第1撮像装置情報の情報適正度を算出し、算出された前記情報適正度を前記第1撮像装置に送信し、前記第1の撮像装置は、前記情報適正度を受信し、受信した前記情報適正度の評価処理を行う撮像システムに関係する。 According to another aspect of the present invention, there is provided an imaging system including a first imaging device and a second imaging device that are movable independently of each other, wherein the second imaging device is a captured image of the second imaging device. The first imaging device information that is information related to the first imaging device is acquired based on the information, the information appropriateness of the acquired first imaging device information is calculated, and the calculated information appropriateness is calculated as the first information appropriateness. The first imaging device is transmitted to an imaging device, and the first imaging device is related to an imaging system that receives the information suitability and performs an evaluation process on the received information suitability.
また本発明の他の態様は、互いに独立に移動可能な第1の撮像装置と第2の撮像装置を用いた画像取得方法であって、前記第2の撮像装置の撮像画像を取得し、取得された前記第2撮像装置の前記撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、取得された前記第1撮像装置情報の情報適正度を算出し、算出された前記情報適正度を、前記第2の撮像装置から前記第1撮像装置に送信し、前記情報適正度の評価処理を行い、前記第1の撮像装置の撮像画像を取得し、前記情報適正度の評価処理の結果により取得された前記第1撮像装置情報を、取得された前記第1の撮像装置の前記撮像画像に関連づけて記憶部に書き込む画像取得方法に関係する。 According to another aspect of the present invention, there is provided an image acquisition method using a first imaging device and a second imaging device that are movable independently of each other, and acquires and acquires a captured image of the second imaging device. Obtaining first imaging device information that is information relating to the first imaging device based on the captured image of the second imaging device that has been obtained, calculating an information appropriateness level of the acquired first imaging device information, The calculated information appropriateness is transmitted from the second imaging device to the first imaging device, the information appropriateness is evaluated, a captured image of the first imaging device is acquired, and the information is acquired. The present invention relates to an image acquisition method in which the first imaging device information acquired as a result of the appropriateness evaluation process is written in a storage unit in association with the acquired captured image of the first imaging device.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.構成例
本実施形態では、単に前方を撮影するだけでなく、使用者情報等のカメラに関する情報も併せて記録できるカメラ(広義には撮像装置)を提供する。
1. Configuration Example In this embodiment, a camera (an imaging device in a broad sense) that can record not only the front but also information related to the camera such as user information can be provided.
例えば図1において、カメラCM1(広義には第1の撮像装置)とカメラCM2(広義には第2の撮像装置)は、互いに独立に移動可能(携帯可能)なカメラとなっている。即ち、据え置きカメラのように固定的に設置されるカメラではなく、使用者US1、US2が自由に持ち歩くことができるカメラとなっている。 For example, in FIG. 1, a camera CM1 (first imaging device in a broad sense) and a camera CM2 (second imaging device in a broad sense) are cameras that are movable (portable) independently of each other. That is, it is not a camera that is fixedly installed like a stationary camera, but a camera that the users US1 and US2 can carry freely.
そしてカメラCM1により撮影を行う際に、カメラCM1の使用者US1の様子等を、他の使用者US2が持つカメラCM2により撮影する。そしてカメラCM1の使用者情報等のカメラCM1に関する情報(以下、適宜、CM1情報と呼ぶ)を取得する。次に、取得されたCM1情報の情報適正度を算出し、算出された情報適正度を、カメラCM2からカメラCM1に送信する。 When shooting with the camera CM1, the state of the user US1 of the camera CM1 and the like are shot with the camera CM2 of another user US2. Then, information about the camera CM1 such as user information of the camera CM1 (hereinafter referred to as CM1 information as appropriate) is acquired. Next, the information appropriateness of the acquired CM1 information is calculated, and the calculated information appropriateness is transmitted from the camera CM2 to the camera CM1.
カメラCM1は、カメラCM2から受信した情報適正度の評価処理を行い、情報適正度の評価処理の結果に基づいて、情報送信要求をカメラCM2に送信して、カメラCM1の使用者情報等のCM1情報をカメラCM2から受信する。そしてカメラCM1は、自身で撮影した撮像画像と、情報適正度の評価処理の結果に基づき取得されたCM1情報を併せて記録する。この場合に、例えばカメラCM1、CM2はその使用者US1、US2の操作を必要とせずに、自動的に情報送信要求やCM1情報のやり取りを行う。 The camera CM1 performs an information appropriateness evaluation process received from the camera CM2, and transmits an information transmission request to the camera CM2 based on the result of the information appropriateness evaluation process. Information is received from the camera CM2. The camera CM1 also records the captured image taken by itself and the CM1 information acquired based on the result of the information appropriateness evaluation process. In this case, for example, the cameras CM1 and CM2 automatically perform information transmission requests and exchange of CM1 information without requiring the operations of the users US1 and US2.
以上の本実施形態の手法によれば、カメラCM1の死角をカメラCM2で撮影し、これにより、カメラCM1では撮影できない位置にある対象の情報であるCM1情報を取得する。そしてこのCM1情報の情報適正度が評価され、評価処理の結果に基づきCM1情報がカメラCM2からCM1に送信され、カメラCM1の撮像画像と関連づけて記録されるようになる。 According to the above-described method of the present embodiment, the blind spot of the camera CM1 is photographed by the camera CM2, and thereby CM1 information that is information on a target at a position that cannot be photographed by the camera CM1 is acquired. The information appropriateness of the CM1 information is evaluated, and the CM1 information is transmitted from the camera CM2 to the CM1 based on the result of the evaluation process, and is recorded in association with the captured image of the camera CM1.
なおCM1情報は、カメラCM2の撮像画像により得られる情報(CM2の視野内の情報)であり、且つ、カメラCM1に関する情報である。具体的にはCM1情報は、例えばカメラCM1の使用者US1の情報や、カメラCM1の向き等のカメラCM1自体の情報である。或いはカメラCM2の撮像画像自体であってもよい。また使用者情報は、例えば使用者US1の表情情報(どのような反応だったか等)や視線方向情報(何を見ていたか等)である。 The CM1 information is information (information in the field of view of CM2) obtained from the captured image of the camera CM2, and is information related to the camera CM1. Specifically, the CM1 information is, for example, information about the user US1 of the camera CM1 and information about the camera CM1 itself, such as the orientation of the camera CM1. Alternatively, the captured image itself of the camera CM2 may be used. Also, the user information is, for example, facial expression information (such as what kind of reaction was made) of the user US1 or gaze direction information (what the user was looking at).
情報適正度は、CM1情報の良し悪しを表す指標である。具体的には、図1のようにカメラCM2により使用者US1やカメラCM1を撮影することでCM1情報を取得した場合に、その撮影状態や撮影状況の品質を表す指標である。例えば使用者US1の顔が大きく写っている撮像画像や、視線方向VD1が正面方向を向いている撮像画像が得られた場合には、撮像画像により取得されるCM1情報の情報適正度は高いと評価される。一方、使用者US1の顔が小さく写っている撮像画像や、視線方向VD1が横方向を向いている撮像画像が得られた場合には、CM1情報の情報適正度は低いと評価される。或いは、カメラCM2の撮像画像のコントラストが高い場合や、階調性が良い場合や、明るい場合や、ぼけ具合が小さい場合には、CM1情報の情報適正度は高いと評価される。一方、カメラCM2の撮像画像のコントラストが低い場合や、階調性が悪い場合や、暗い場合や、ぼけ具合が大きい場合には、CM1情報の情報適正度は低いと評価される。 The information appropriateness is an index that indicates whether the CM1 information is good or bad. Specifically, when the CM1 information is acquired by photographing the user US1 or the camera CM1 with the camera CM2 as shown in FIG. 1, it is an index that represents the quality of the photographing state or photographing state. For example, when a captured image in which the face of the user US1 is greatly captured or a captured image in which the line-of-sight direction VD1 faces the front direction is obtained, the information appropriateness of the CM1 information acquired from the captured image is high. Be evaluated. On the other hand, when a captured image in which the face of the user US1 is small or a captured image in which the line-of-sight direction VD1 is oriented in the horizontal direction is obtained, it is evaluated that the information appropriateness of the CM1 information is low. Alternatively, when the contrast of the image captured by the camera CM2 is high, when the gradation is good, when it is bright, or when the degree of blur is small, it is evaluated that the information appropriateness of the CM1 information is high. On the other hand, when the contrast of the captured image of the camera CM2 is low, when the gradation is poor, when it is dark, or when the degree of blur is large, it is evaluated that the information appropriateness of the CM1 information is low.
またカメラCM1は、使用者US1が例えばそのライフログ等の撮影に使用するカメラであり、図1では首にぶら下げるタイプのカメラ(携帯可能なカメラ)を想定している。これ以外にも、例えば使用者US1が使用する眼鏡に取り付けられるタイプのカメラ(ウェアラブルカメラ)等であってもよい。 The camera CM1 is a camera used by the user US1 for photographing the life log, for example, and FIG. 1 assumes a camera of a type hanging on the neck (portable camera). Besides this, for example, a camera (wearable camera) of a type attached to the glasses used by the user US1 may be used.
一方、カメラCM2は、カメラCM1の使用者US1とは別の使用者US2がライフログ等の撮影に使用するカメラであり、製品イメージとしてはカメラCM1と同等の機能を有する。カメラCM2は、カメラCM1からのリクエストに応じて、カメラCM1の使用者US1を撮影し、視線、表情等の使用者情報を取得し、使用者情報やその情報適正度をカメラCM1に送る役割を担う。 On the other hand, the camera CM2 is a camera used by a user US2 other than the user US1 of the camera CM1 for photographing a life log and the like, and has a function equivalent to that of the camera CM1 as a product image. In response to a request from the camera CM1, the camera CM2 captures the user US1 of the camera CM1, acquires user information such as a line of sight and a facial expression, and sends the user information and information appropriateness to the camera CM1. Bear.
なおカメラCM1、CM2という呼称は、あるタイミングにおいて両者の果たす役割によって区別されるものである。例えばカメラCM1が、カメラCM2からのリクエストに応じて、カメラCM2の使用者US2を撮影し、視線、表情等の使用者情報(CM2情報)やその情報適正度を取得してカメラCM2に送ってもよい。 The names of the cameras CM1 and CM2 are distinguished depending on the roles played by both at a certain timing. For example, the camera CM1 captures the user US2 of the camera CM2 in response to a request from the camera CM2, acquires user information (CM2 information) such as line of sight and facial expression, and the appropriateness of the information, and sends it to the camera CM2. Also good.
また本実施形態の撮像装置は、デジタルカメラやビデオカメラなどの電子カメラのみならず、例えば携帯電話機、携帯型情報端末、携帯型ゲーム機等に内蔵される撮像装置であってもよいが、説明の便宜上、撮像装置をカメラと呼んで説明を行う。 In addition, the imaging apparatus according to the present embodiment may be an imaging apparatus built in not only an electronic camera such as a digital camera and a video camera but also a mobile phone, a portable information terminal, a portable game machine, etc. For the sake of convenience, the imaging apparatus will be referred to as a camera.
図2に、図1の本実施形態の手法を実現できる制御装置及びこれを含むカメラ(撮像装置)の第1の構成例を示す。 FIG. 2 shows a first configuration example of a control device that can realize the technique of the present embodiment of FIG. 1 and a camera (imaging device) including the control device.
図2においてカメラCM1(第1の撮像装置)は、撮像部20、制御装置30、操作部60、記憶部70、通信部80、表示部90、情報記憶媒体98を含む。またカメラCM2(第2の撮像装置)は、撮像部120、制御装置130、操作部160、記憶部170、通信部180、表示部190、情報記憶媒体198を含む。なお、これらの一部の構成要素(例えば操作部、表示部、情報記憶媒体)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また図2では、説明の便宜上、カメラCM1、CM2の構成が異なるものとして示しているが、カメラCM1、CM2は同一の構成とすることができる。例えばカメラCM1に情報取得部や情報適正度算出部を設けたり、カメラCM2に書き込み部や時間取得部や情報適正度評価部を設けてもよい。
In FIG. 2, the camera CM <b> 1 (first imaging device) includes an
撮像部20、120は、被写体(撮像対象物)を撮像するためのものであり、図示しないレンズ等の光学系、撮像素子、アナログフロントエンド回路(A/D変換回路)、或いはフォーカス調整部等を含むことができる。
The
制御装置(制御部)30、130は、カメラCM1、CM2の全体制御、各種演算処理、或いは画像処理等を行うものであり、CPU、DSP等の各種プロセッサや専用のASICなどにより実現できる。この制御装置30、130は、例えば情報記憶媒体98、198に記憶されるプログラムに基づいて本実施形態の各種処理を行う。
The control devices (control units) 30 and 130 perform overall control of the cameras CM1 and CM2, various arithmetic processes, image processing, and the like, and can be realized by various processors such as a CPU and a DSP and a dedicated ASIC. The
操作部60、160は、使用者(操作者、ユーザ)がカメラCM1、CM2の各種設定を行ったり、各種情報を入力するためのものであり、各種のボタン、スイッチ、ダイヤルなどにより実現できる。なお表示部90、190がタッチパネルディスプレイにより構成される場合には、表示部90、190も操作部として機能することになる。
The
記憶部70、170は、制御装置30、130や通信部80、180のワーク領域として機能したり、撮像により得られた画像データを記憶(保存)するためのものであり、RAMやHDD(ハードディスクドライブ)などにより実現できる。
The
通信部80、180は、無線や有線の通信などにより他のカメラやサーバ等との外部機器との間で情報のやり取りを行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。例えばカメラCM1とCM2は、無線(無線LAN等)や有線のネットワークを介して通信可能になっている。
The
表示部90、190は、例えば液晶パネルや有機ELパネル等の電気光学パネル、EVF(電子ビューファインダー)などにより実現されるものであり、スルー画像やGUI(Graphical User Interface)画面などの各種画像を表示する。
The
情報記憶媒体98、198(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、メモリーカード、HDD(ハードディスクドライブ)、光ディスク(CD、DVD)、或いはROM等のメモリなどにより実現できる。制御装置30、130は、情報記憶媒体98、198に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体98、198には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
カメラCM1の制御装置30は、画像取得部32、受信部34、送信部35、書き込み部36、時間取得部38、情報適正度評価部50を含む。
The
画像取得部32は撮像画像を取得する。例えば撮像部20により撮像(撮影)された撮像画像を取得する。ここで撮像画像は、静止画像であってもよいし、動画像であってもよい。この撮像画像としては、例えばカメラCM1の使用者のライフログ画像を想定できる。ライフログ画像は、例えば使用者の明示的な撮影指示が無くても、所定の時間間隔で自動的に撮影されて記録される画像である。
The
受信部34、送信部35は、各々、情報の受信処理、送信処理を行う。例えば通信部80を介して、カメラCM2等の他の機器との間で情報を受信したり送信するための処理を行う。即ち、通信される情報を用意したり、その情報を通信する指示を通信部80に対して行う。
The
書き込み部36は、撮像画像(画像データ)等の種々の情報を記憶部70に書き込む処理(保存処理)を行う。時間取得部38は時間の取得処理を行う。例えば現在の時刻(時・日・月・年等)を取得する。
The
情報適正度評価部50は、情報適正度の評価処理を行う。例えばカメラCM1により算出された情報適正度を受信部34が受信した場合に、受信した情報適正度の評価処理を行う。
The information
カメラCM2の制御装置130は、画像取得部132、受信部134、送信部135、情報取得部140、情報適正度算出部150を含む。画像取得部132は撮像部120により撮像された撮像画像を取得する。受信部134、送信部135は、各々、情報の受信処理、送信処理を行うものであり、例えば通信部180を介して、カメラCM1等の他の機器との間で情報を受信したり送信するための処理を行う。情報取得部140は、カメラCM1に関する情報等の各種の情報の取得処理を行う。この情報取得部140は、カメラ識別マーク検出部141、顔検出部142、表情認識部143、視線方向認識部144、カメラ向き認識部145、視線方向補正部146を含む。情報適正度算出部150は、情報適正度の算出処理(導出処理、演算処理)を行う。
The
そして本実施形態では、カメラCM2の情報取得部140は、カメラCM2(撮像部120)の撮像画像に基づいてカメラCM1に関する情報であるCM1情報(第1撮像装置情報)を取得する。このCM1情報はカメラCM2の撮像画像自体であってもよい。そして情報適正度算出部150は、取得されたCM1情報の情報適正度を算出し、送信部135は、算出された情報適正度をカメラCM1に送信する。
In the present embodiment, the
カメラCM1の受信部34は、カメラCM2からの情報適正度を受信する。例えば通信部80、180及び無線等のネットワークを介して送信された情報適正度を受信する。そして情報適正度評価部50は、受信した情報適正度の評価処理を行う。
The receiving
更に具体的には、カメラCM1の送信部35は、情報送信要求を送信する。例えば他のカメラに対して、情報適正度の送信要求を送信する。具体的には送信部35は、例えば不特定多数に対してブロードキャストで情報送信要求を送信する。
More specifically, the
なお、カメラCM1の送信部35は、カメラCM1の個体識別情報(ID)の送信処理も行う。例えば後述するように、カメラCM1に、カメラCM1を識別するための識別マーク(広義には識別情報)が設定されていたとする。この場合に送信部35は、この識別マークに対応する個体識別情報を送信する。例えば識別マークが表すカメラIDと同じカメラIDを、個体識別情報として送信する。この個体識別情報(カメラID)は、例えば情報送信要求のフィールドの中に含ませることができる。
Note that the
カメラCM2の受信部134は、カメラCM1からの情報送信要求を受信する。そしてカメラCM2の情報取得部140は、カメラCM2の撮像画像に基づきCM1情報を取得する。また情報適正度算出部150が、取得されたCM1情報の情報適正度を算出する。
The receiving
そしてカメラCM2の送信部135は、カメラCM1からの情報送信要求に対する返信情報として、算出された情報適正度をカメラCM1に送信する。
Then, the
カメラCM1の受信部34は、このように情報送信要求を受信したカメラCM2が情報適正度を算出して送信すると、その情報適正度を受信する。そして情報適正度評価部50は、受信した情報適正度の評価処理を行う。
The
カメラCM1の送信部35は、情報適正度の評価結果に基づいて、CM1情報の情報送信要求を送信するか否かを判断する。例えば情報適正度が高いと評価された場合には、CM1情報を送信し、情報適正度が低いと評価された場合には、CM1情報を送信しない。或いは情報適正度の評価結果に基づいて、CM1情報の情報送信要求の送信先(宛先)を決定する。具体的には、受信部34は、複数のカメラ(撮像装置)からの複数の情報適正度を受信する。そして情報適正度評価部50は、複数の情報適正度の評価処理を行い、送信部35は、複数の情報適正度の評価結果に基づいて複数のカメラの中からカメラCM2が選択された場合に、カメラCM2に対してCM1情報の情報送信要求を送信する。例えばカメラCM2から受信した情報適正度が、他のカメラから受信した情報適正度よりも高いと評価された場合に、カメラCM2に対してCM1情報の情報送信要求を送信する。この場合のCM1情報の情報送信要求の送信は、ブロードキャストの送信ではなく、カメラCM2を宛先とする送信になる。
The
カメラCM2の受信部134が、カメラCM1からCM1情報の情報送信要求を受信すると、送信部135は、CM1情報の情報送信要求に対する返信情報として、CM1情報をカメラCM1に送信する。なお送信部135は、情報適正度を送信した後、所定期間内に情報送信要求を受信しなかった場合には、情報適正度やCM1情報を破棄する処理を行ってもよい。これにより無駄な記憶領域が使用されてしまう事態を防止できる。
When the
カメラCM1の受信部34が、CM1情報を受信すると、カメラCM1の書き込み部36(保存処理部)は、受信したCM1情報(第1撮像装置情報)を、カメラCM1の撮像画像に関連づけて記憶部70に書き込む。
When the receiving
この場合に書き込み部36は、情報送信要求を送信した後、所定期間内にCM1情報を受信しなかった場合には、CM1情報が関連づけられていない撮像画像を記憶部70に書き込む。例えばカメラCM1の撮像画像だけを記憶部70に書き込む。また受信部34が、CM1情報として、カメラCM1の使用者の情報を受信した場合には、受信した使用者情報を、カメラCM1の撮像画像に関連づけて記憶部70に書き込む。例えばカメラCM1の使用者のライフログ画像(所定時間毎に自動的に撮像されて記録される画像)に使用者情報を関連づけて書き込む。
In this case, when the
なお、カメラCM2の情報取得部140は、CM1情報を取得可能か否かを判断し、CM1情報を取得可能であると判断した場合に、CM1情報を取得する。そして送信部135は取得されたCM1情報をカメラCM1に送信する。
Note that the
この場合に情報取得部140は、カメラCM2の撮像画像に基づいてカメラCM2の視野内(画角の範囲内)にカメラCM1(一部又は全部)が含まれるか否かを判断することで、CM1情報を取得可能か否かを判断する。例えばカメラCM2の撮像画像にカメラCM1(CM1の使用者)が写っている場合に、CM1情報を取得可能であると判断する。
In this case, the
例えばカメラCM2の受信部134は、カメラCM1の個体識別情報を受信する。具体的にはカメラCM1からの情報送信要求が含む個体識別情報を受信する。そして情報取得部140は、カメラCM2の視野内に含まれるカメラ(撮像装置)が、受信した個体識別情報により識別されるカメラCM1であるか否かを検出する。そしてカメラCM1であることが検出された場合に、CM1情報を取得可能であると判断する。
For example, the receiving
具体的には情報取得部140は、視野内に含まれるカメラ(撮像装置)に設定される識別情報が、個体識別情報により識別されるカメラCM1の識別情報と一致するか否かを検出する。そして、一致した場合に、CM1情報を取得可能であると判断する。この識別情報としては、バーコード等の識別マーク(識別図形)を使用でき、この識別マークの検出処理はカメラ識別マーク検出部141が行う。
Specifically, the
また情報取得部140は、CM1情報として、カメラCM1の使用者の情報を取得する。例えば使用者の表情情報(反応情報)、視線方向情報(使用者が見ている方向)の少なくとも1つを、使用者情報として取得する。また情報取得部140は、カメラCM1の向き情報を取得してもよい。このカメラCM1の向き情報は、例えば使用者の視線方向情報の補正処理等に用いられる。なおカメラCM1の使用者の顔検出処理、表情の認識処理、視線方向の認識処理は、各々、表情認識部143、視線方向認識部144により行われる。またカメラCM1の向きの認識処理はカメラ向き認識部145により行われ、カメラCM1の向きに基づく使用者の視線方向の補正処理は、視線方向補正部146により行われる。
Further, the
また情報取得部140は、カメラCM2の視野内の人物顔を検出する。そして検出された1つ以上の人物顔のうち、カメラCM1に最も近い位置にある人物顔を、カメラCM1の使用者の人物顔であると判断して、使用者情報を取得する。例えばカメラCM1の上方(略上方を含む)にある人物顔を、カメラCM1の使用者の顔と判断する。そしてその使用者の表情認識処理や視線方向認識処理を行う。なお、使用者の顔の検出処理は顔検出部142により行われる。
The
2.本実施形態の手法
2.1 CM1情報の情報適正度
次に本実施形態の手法について図3(A)〜図11(B)を用いて具体的に説明する。
2. 2. Method according to this embodiment 2.1 Information appropriateness of CM1 information Next, the method according to this embodiment will be described in detail with reference to FIGS. 3 (A) to 11 (B).
図3(A)では、使用者US1のカメラCM1は、例えば使用者US1のライフログ画像を撮影している。そして使用者US1の近くにいる使用者US2のカメラCM2は、自身の撮像画像により、カメラCM1に関する情報であるCM1情報を取得する。具体的には、カメラCM2の視野内にカメラCM1やその使用者US1が入っているか否かを判断することで、CM1情報を取得可能か否かを判断する。そして、CM1情報を取得可能であると判断すると、使用者US1の表情、視線方向等のCM1情報を取得する。 In FIG. 3A, the camera CM1 of the user US1 takes a life log image of the user US1, for example. The camera CM2 of the user US2 near the user US1 acquires CM1 information that is information related to the camera CM1 from its captured image. Specifically, it is determined whether or not CM1 information can be acquired by determining whether or not the camera CM1 and its user US1 are within the field of view of the camera CM2. If it is determined that the CM1 information can be acquired, the CM1 information such as the facial expression and line-of-sight direction of the user US1 is acquired.
次に図3(B)に示すように、カメラCM2は、取得されたCM1情報の情報適正度を算出する。例えば撮像画像に写る使用者US1の顔の大きさや、視線方向などを評価し、その評価値を求める。そして図3(C)に示すように、算出された情報適正度をカメラCM1に送信する。 Next, as illustrated in FIG. 3B, the camera CM2 calculates the information appropriateness of the acquired CM1 information. For example, the size of the face of the user US1 shown in the captured image, the line-of-sight direction, etc. are evaluated, and the evaluation value is obtained. Then, as shown in FIG. 3C, the calculated information appropriateness level is transmitted to the camera CM1.
カメラCM1は、CM1情報の情報適正度を受信すると、受信した情報適正度の評価処理を行う。そして例えば情報適正度の評価結果に基づいて、CM1情報の情報送信要求を送信するか否かを判断する。或いは、情報送信要求の対象となるカメラが複数存在する場合には、情報適正度の評価結果に基づいて、CM1情報の情報送信要求の送信先となるカメラを決定する。 Upon receiving the information appropriateness level of the CM1 information, the camera CM1 performs an evaluation process on the received information appropriateness level. Then, for example, based on the evaluation result of the information suitability, it is determined whether or not to transmit an information transmission request for CM1 information. Alternatively, when there are a plurality of cameras that are the targets of the information transmission request, the camera that is the transmission destination of the information transmission request for the CM1 information is determined based on the evaluation result of the information suitability.
図4(A)〜図4(C)は、本実施形態の更に具体的な手法を説明する図である。まず図4(A)に示すように、カメラCM1は、CM1情報の情報適正度を取得するために情報送信要求を送信する。すると使用者US1の近くにいる使用者US2のカメラCM2が、この情報送信要求を受信する。 FIG. 4A to FIG. 4C are diagrams for explaining a more specific method of the present embodiment. First, as shown in FIG. 4A, the camera CM1 transmits an information transmission request in order to acquire the information appropriateness level of the CM1 information. Then, the camera CM2 of the user US2 near the user US1 receives this information transmission request.
次に図4(B)に示すように、カメラCM2は、CM1情報の情報適正度を算出(導出、演算)する。そして算出された情報適正度を、情報送信要求に対する返信情報としてカメラCM1に送信する。 Next, as shown in FIG. 4B, the camera CM2 calculates (derived and calculates) the information appropriateness of the CM1 information. Then, the calculated information appropriateness level is transmitted to the camera CM 1 as reply information to the information transmission request.
すると図4(C)に示すように、カメラCM1は、受信した情報適正度の評価処理を行う。そして例えば情報適正度の評価値が高い場合には、CM1情報の送信を要求する情報送信要求を、カメラCM2に送信する。 Then, as shown in FIG. 4C, the camera CM1 performs an evaluation process on the received information appropriateness level. For example, when the evaluation value of information suitability is high, an information transmission request for requesting transmission of CM1 information is transmitted to the camera CM2.
図4(D)に示すように、カメラCM2は、情報送信要求を受信すると、その返信情報としてCM1情報をカメラCM1に送信する。これによりカメラCM1は、カメラCM1の撮像画像に対してCM1情報を関連づけて記録できるようになる。例えばカメラCM1が使用者US1のライフログ画像を撮影していた場合には、そのライフログ画像に対して、撮影時の使用者US1の表情、視線方向等を関連づけて記録できるようになる。 As shown in FIG. 4D, when receiving the information transmission request, the camera CM2 transmits CM1 information as reply information to the camera CM1. Accordingly, the camera CM1 can record the CM1 information in association with the captured image of the camera CM1. For example, when the camera CM1 has taken a life log image of the user US1, it is possible to record the life log image in association with the facial expression, the line-of-sight direction, etc. of the user US1 at the time of shooting.
なお、図4(E)に示すように、カメラCM2が情報適正度を送信した後、所定期間内にCM1情報の情報送信要求を受信しなかった場合には、CM1情報や情報適正度を破棄する処理を行う。このようにすることで、カメラCM2の記憶領域が無駄に使用されてしまう事態を防止できる。 As shown in FIG. 4E, after the camera CM2 transmits the information appropriateness, if the CM1 information information transmission request is not received within a predetermined period, the CM1 information and the information appropriateness are discarded. Perform the process. By doing so, it is possible to prevent a situation in which the storage area of the camera CM2 is wasted.
また、カメラCM2が情報送信要求を送信し、この情報送信要求を受信したカメラCM1が、カメラCM2に関する情報であるCM2情報の情報適正度を算出して、カメラCM2に送信してもよい。この場合には、カメラCM1が、CM2情報をカメラCM2に送信する。そしてカメラCM2が、その撮像画像に対してCM2情報を関連づけて記録することになる。 Alternatively, the camera CM2 may transmit an information transmission request, and the camera CM1 that has received the information transmission request may calculate the information appropriateness of the CM2 information that is information related to the camera CM2 and transmit the information to the camera CM2. In this case, the camera CM1 transmits CM2 information to the camera CM2. The camera CM2 records CM2 information in association with the captured image.
本実施形態では、カメラCM1、CM2は、使用者US1、US2が所持する携帯型のカメラ(ウェアラブルカメラ)になっている。このため、配置位置が固定される据え置き型のカメラとは異なり、カメラCM1、CM2は、使用者US1、US2が移動することで独立に移動し、カメラCM1とCM2の位置関係は随時変化する。 In the present embodiment, the cameras CM1 and CM2 are portable cameras (wearable cameras) possessed by the users US1 and US2. Therefore, unlike a stationary camera in which the arrangement position is fixed, the cameras CM1 and CM2 move independently as the users US1 and US2 move, and the positional relationship between the cameras CM1 and CM2 changes as needed.
このため、カメラCM2の方から一方的にCM1情報をカメラCM1に送信してしまうと、カメラCM1に対して、利用できない無駄なCM1情報が送信されてしまう。例えば、カメラCM2の撮影状態が悪く、カメラCM2の撮像画像に写る使用者US1の顔が小さかったり、視線方向が真横を向いている場合がある。或いは、撮像画像のコントラスト、階調性、明るさ、ぼけ具合等の撮影品質が悪い場合もある。このような場合にも、カメラCM2からCM1に対してCM1情報が送信されてしまうと、カメラCM1の処理負荷が増加したり、記憶領域が無駄に使用されるなどして、カメラCM1のリソースが無駄に消費されてしまう。 For this reason, if the CM1 information is unilaterally transmitted from the camera CM2 to the camera CM1, useless CM1 information that cannot be used is transmitted to the camera CM1. For example, there is a case where the shooting state of the camera CM2 is poor, the face of the user US1 shown in the captured image of the camera CM2 is small, or the line-of-sight direction is facing sideways. Alternatively, there may be cases where the image quality such as contrast, gradation, brightness, and blur of the captured image is poor. Even in such a case, if the CM1 information is transmitted from the camera CM2 to the CM1, the processing load of the camera CM1 increases or the storage area is wasted. It will be wasted.
この点、本実施形態では、カメラCM2が、CM1情報の情報適正度を求める。例えば、カメラCM2の撮像画像に写る使用者US1の顔の大きさや視線方向の評価を数値化した情報適正度を求める。或いは撮像画像のコントラスト等の品質を数値化した情報適正度を求める。そして、この情報適正度がカメラCM2からCM1に送信され、カメラCM1は、この情報適正度の評価処理を行う。そして情報適正度の評価が高い場合(評価値が所定値以上の場合)には、CM1情報を送信するようにカメラCM2に対して要求する。 In this regard, in this embodiment, the camera CM2 obtains the information appropriateness level of the CM1 information. For example, the degree of information suitability obtained by quantifying the evaluation of the size and line-of-sight direction of the user US1 in the captured image of the camera CM2 is obtained. Alternatively, the degree of information suitability obtained by quantifying the quality such as the contrast of the captured image is obtained. The information appropriateness level is transmitted from the camera CM2 to the CM1, and the camera CM1 performs an evaluation process of the information appropriateness level. When the evaluation of the information suitability is high (when the evaluation value is greater than or equal to a predetermined value), the camera CM2 is requested to transmit the CM1 information.
これにより、撮像画像に写る使用者US1の顔が大きい場合や、視線方向が正面の場合、或いは撮像画像の品質が高い場合にだけ、撮像画像に基づき取得されたCM1情報がカメラCM2からCM1に送信されるようになる。従って、カメラCM1やCM2のリソースが無駄に消費される事態を防止しながら、カメラCM1はCM1情報を取得できる。この結果、例えばカメラCM1は、カメラCM1の死角にある情報も取得できるようになり、ライフログ画像等に対して使用者情報等を関連づけて記録できるようになる。 Thereby, the CM1 information acquired based on the captured image is transferred from the camera CM2 to the CM1 only when the face of the user US1 shown in the captured image is large, when the line-of-sight direction is the front, or when the quality of the captured image is high. Will be sent. Therefore, the camera CM1 can acquire the CM1 information while preventing the situation where the resources of the cameras CM1 and CM2 are wasted. As a result, for example, the camera CM1 can also acquire information in the blind spot of the camera CM1, and can record user information or the like in association with a life log image or the like.
2.2 ブロードキャスト
さて、図5(A)に示すようにカメラCM1は、情報送信要求を、宛先を指定しないブロードキャストで送信することが望ましい。これにより図5(A)に示すように、カメラCM1の周囲の複数のカメラCM2、CM3、CM4に対して情報送信要求が送信されるようになる。なお、カメラ間の通信に無線LAN等が使用される場合には、その無線LANの通信範囲内のカメラに対してブロードキャストで情報送信要求が送信される。
2.2 Broadcast Now, as shown in FIG. 5A, it is desirable that the camera CM1 transmits the information transmission request by broadcast without designating the destination. As a result, as shown in FIG. 5A, an information transmission request is transmitted to the plurality of cameras CM2, CM3, and CM4 around the camera CM1. When a wireless LAN or the like is used for communication between cameras, an information transmission request is transmitted by broadcast to cameras within the wireless LAN communication range.
図5(B)に示すように、カメラCM2、CM3、CM4の各々は、この情報送信要求を受信すると、カメラCM1の使用者US1の情報等であるCM1情報を取得する。そしてカメラCM2、CM3、CM4は、CM1情報の情報適正度を算出し、算出された情報適正度をカメラCM1に送信する。すると、カメラCM1は、カメラCM2、CM3、CM4から受信した複数の情報適正度の評価処理を行い、例えば評価値が最も高い情報適正度を送信したカメラを特定する。 As shown in FIG. 5B, when receiving the information transmission request, each of the cameras CM2, CM3, and CM4 acquires CM1 information that is information about the user US1 of the camera CM1. Then, the cameras CM2, CM3, and CM4 calculate the information appropriateness level of the CM1 information, and transmit the calculated information appropriateness level to the camera CM1. Then, the camera CM1 performs a plurality of information appropriateness evaluation processes received from the cameras CM2, CM3, and CM4, and identifies, for example, the camera that transmitted the information appropriateness having the highest evaluation value.
そして図5(C)では、カメラCM2からの情報適正度の評価値が最も高いと評価されたため、カメラCM1はCM2に対して情報送信要求を送信する。即ち、図5(A)のようなブロードキャストではなく、カメラCM2を宛先としてCM1情報の情報送信要求を送信する。これにより図5(D)に示すように、カメラCM2は、情報送信要求の返信情報としてCM1情報をカメラCM1に送信する。 In FIG. 5C, since the evaluation value of the information appropriateness from the camera CM2 is evaluated to be the highest, the camera CM1 transmits an information transmission request to the CM2. That is, instead of broadcasting as shown in FIG. 5A, an information transmission request for CM1 information is transmitted to the camera CM2 as a destination. As a result, as shown in FIG. 5D, the camera CM2 transmits CM1 information to the camera CM1 as return information of the information transmission request.
以上のように、情報適正度の情報送信要求を、ブロードキャストにより送信すれば、使用者US1の周囲の複数のカメラCM2、CM3、CM4からの情報適正度を取得できる。そして、取得された情報適正度に基づいて、CM1情報の送信を要求するカメラを選択できるようになる。従って、複数のカメラCM2、CM3、CM4のうち、使用者US1を最も良い撮影状態(撮影条件)で撮影しているカメラを特定し、そのカメラのCM1情報を取得できるようになる。これにより、より適正なCM1情報を取得して、そのCM1情報を例えばライフログ画像に関連づけて記録することなどが可能になる。 As described above, if an information transmission request for information appropriateness is transmitted by broadcast, information appropriateness from a plurality of cameras CM2, CM3, and CM4 around the user US1 can be acquired. Based on the acquired information appropriateness level, a camera that requests transmission of CM1 information can be selected. Therefore, among the plurality of cameras CM2, CM3, and CM4, it is possible to identify the camera that is shooting the user US1 in the best shooting state (shooting condition) and acquire CM1 information of the camera. This makes it possible to acquire more appropriate CM1 information and record the CM1 information in association with, for example, a life log image.
例えば図6(A)〜図6(C)にカメラCM2、CM3、CM4の撮像画像の例を示す。図6(A)のカメラCM2の撮像画像では、使用者US1の顔FA1が大きく写っており、視線方向VD1も正面方向を向いている。従って、この場合には、カメラCM2の撮像画像に基づき取得されたCM1情報の情報適正度は高いと評価される。 For example, FIGS. 6A to 6C show examples of captured images of the cameras CM2, CM3, and CM4. In the captured image of the camera CM2 in FIG. 6A, the face FA1 of the user US1 is greatly reflected, and the line-of-sight direction VD1 is also facing the front direction. Therefore, in this case, it is evaluated that the information appropriateness of the CM1 information acquired based on the captured image of the camera CM2 is high.
一方、図6(B)のカメラCM3の撮像画像では、使用者US1の顔FA1が小さく写っており、視線方向VD1も横方向を向いている。従って、この場合には、カメラCM3の撮像画像に基づき取得されたCM1情報の情報適正度は低いと評価される。また図6(C)のカメラCM4の撮像画像では、使用者US1の顔FA1の大きさは中くらいであるため、カメラCM4の撮像画像に基づき取得されたCM1情報の情報適正度は中くらいであると評価される。 On the other hand, in the captured image of the camera CM3 in FIG. 6B, the face FA1 of the user US1 is shown small, and the line-of-sight direction VD1 is also in the horizontal direction. Therefore, in this case, it is evaluated that the information appropriateness of the CM1 information acquired based on the captured image of the camera CM3 is low. Further, in the captured image of the camera CM4 in FIG. 6C, the size of the face FA1 of the user US1 is medium, so the information appropriateness of the CM1 information acquired based on the captured image of the camera CM4 is medium. Evaluated as being.
従って図6(A)〜図6(C)の場合には、カメラCM2のCM1情報の情報適正度が最も高いため、カメラCM2のCM1情報が採用され、例えばカメラCM1の撮像画像に関連づけて記録されるようになる。 Accordingly, in the case of FIGS. 6A to 6C, the CM1 information of the camera CM2 is adopted because the CM1 information of the camera CM2 has the highest information appropriateness, and is recorded in association with the captured image of the camera CM1, for example. Will come to be.
なお図7のようにカメラCM1は、情報適正度の情報送信要求を送信した後、所定期間TD1の間、他のカメラからの情報適正度の送信を受け付ける。そして、この期間TD1において受信した情報適正度の中では、カメラCM2の情報適正度が最も高いと評価されたため、カメラCM2に対して情報送信要求を送信する。そしてこの情報送信要求を受信したカメラCM2は、要求されたCM1情報をカメラCM1に送信する。 As shown in FIG. 7, the camera CM1 transmits an information appropriateness information transmission request from another camera for a predetermined period TD1 after transmitting an information appropriateness information transmission request. Since the information appropriateness of the camera CM2 is evaluated to be the highest among the information appropriateness received during this period TD1, an information transmission request is transmitted to the camera CM2. Upon receiving this information transmission request, the camera CM2 transmits the requested CM1 information to the camera CM1.
一方、他のカメラCM3、CM4は、情報適正度を送信した後、所定期間TD2、TD3だけ、カメラCM1からの情報送信要求の受信を試みる。そして、期間TD2、TD3内に情報送信要求を受信しなかった場合には、CM1情報等を破棄する。こうすることで、無駄なリソースが消費されてしまう事態を防止できる。 On the other hand, the other cameras CM3 and CM4 attempt to receive an information transmission request from the camera CM1 only for a predetermined period TD2 and TD3 after transmitting the information appropriateness level. If the information transmission request is not received within the periods TD2 and TD3, the CM1 information and the like are discarded. By doing so, it is possible to prevent a situation where useless resources are consumed.
2.3 カメラ識別処理
さて、カメラCM2が情報送信要求を受信した場合に、その情報送信要求の送信元のカメラが、カメラCM2の視野内に写っているカメラと一致しているか否かを判断する必要がある。
2.3 Camera Identification Processing When the camera CM2 receives an information transmission request, it is determined whether or not the transmission source camera of the information transmission request matches the camera in the field of view of the camera CM2. There is a need to.
例えば図8(A)では、カメラCM1のみならず、カメラCM3も情報送信要求を送信している。そしてカメラCM2の無線LAN等の通信範囲内にカメラCM1、CM3が存在すると、カメラCM2は、カメラCM1、CM3の両方の情報送信要求を受信することになる。そして図8(B)のように、カメラCM2が画像を撮像した場合に、受信した情報送信要求が、カメラCM2の視野内に写っているカメラCM1が送信した情報送信要求なのか否かを判断する必要がある。 For example, in FIG. 8A, not only the camera CM1 but also the camera CM3 transmits an information transmission request. If the cameras CM1 and CM3 exist within the communication range such as the wireless LAN of the camera CM2, the camera CM2 receives information transmission requests from both the cameras CM1 and CM3. Then, as shown in FIG. 8B, when the camera CM2 captures an image, it is determined whether or not the received information transmission request is an information transmission request transmitted by the camera CM1 reflected in the field of view of the camera CM2. There is a need to.
そこで本実施形態では、カメラCM2はカメラCM1の個体識別情報を受信する。そして視野内に含まれるカメラが、受信した個体識別情報により識別されるカメラCM1であることが検出された場合に、カメラCM1に関する情報を取得可能であると判断する。 Therefore, in this embodiment, the camera CM2 receives the individual identification information of the camera CM1. When it is detected that the camera included in the field of view is the camera CM1 identified by the received individual identification information, it is determined that information regarding the camera CM1 can be acquired.
具体的には図9(A)に示すように、カメラCM1にはカメラを識別するための識別マーク(広義には識別情報)が設定されている。この識別マーク(識別図形)は例えば2次元のバーコードである。但し識別マークの態様は図8(A)に限定されず、カメラCM1を識別するための種々のマークを採用できる。またカメラCM2やCM3に対しても、対応する識別マークを設定してもよい。 Specifically, as shown in FIG. 9A, an identification mark (identification information in a broad sense) for identifying the camera is set in the camera CM1. This identification mark (identification figure) is, for example, a two-dimensional barcode. However, the form of the identification mark is not limited to that shown in FIG. 8A, and various marks for identifying the camera CM1 can be used. Corresponding identification marks may also be set for the cameras CM2 and CM3.
また図9(B)に示すように、情報送信要求にはカメラの個体識別情報が含まれる。具体的には、情報送信要求には、例えば情報送信要求であることを指定するためのコマンドコードのフィールドや、カメラの個体識別情報であるカメラIDのフィールドが設けられる。そしてカメラCM1は、送信する情報送信要求のカメラIDのフィールドに対して、自身のカメラIDを設定する。同様にカメラCM3も、送信する情報送信要求のカメラIDのフィールドに対して、自身のカメラIDを設定する。 As shown in FIG. 9B, the information transmission request includes individual identification information of the camera. Specifically, the information transmission request includes, for example, a command code field for designating an information transmission request and a camera ID field that is individual identification information of the camera. Then, the camera CM 1 sets its own camera ID in the camera ID field of the information transmission request to be transmitted. Similarly, the camera CM 3 also sets its own camera ID in the camera ID field of the information transmission request to be transmitted.
カメラCM2は、カメラCM1、CM3から情報送信要求を受信すると、それぞれの情報送信要求に含まれるカメラIDを抽出する。また、カメラCM2の撮像画像に写っている識別マークの検出処理を行う。そして図8(B)では、カメラCM2の撮像画像に基づいて、カメラ識別マークが検出され、検出されたカメラ識別マークのIDは、カメラCM1からの情報送信要求に含まれるカメラIDと一致することが検出されている。従って、この場合にはカメラCM1のCM1情報は取得可能であると判断される。 Upon receiving the information transmission request from the cameras CM1 and CM3, the camera CM2 extracts the camera ID included in each information transmission request. In addition, the detection process of the identification mark reflected in the captured image of the camera CM2 is performed. In FIG. 8B, the camera identification mark is detected based on the captured image of the camera CM2, and the ID of the detected camera identification mark matches the camera ID included in the information transmission request from the camera CM1. Has been detected. Therefore, in this case, it is determined that the CM1 information of the camera CM1 can be acquired.
一方、撮像画像に写る識別マークのIDは、カメラCM3の情報送信要求に含まれるカメラIDとは一致しない。従って、カメラCM3に関する情報であるCM3情報については取得できないと判断される。 On the other hand, the ID of the identification mark that appears in the captured image does not match the camera ID included in the information transmission request of the camera CM 3. Accordingly, it is determined that CM3 information that is information related to the camera CM3 cannot be acquired.
そして図8(C)では、カメラCM2は、カメラCM1に関する情報であるCM1情報を取得し、取得されたCM1情報をカメラCM1に送信する。一方、カメラCM3のCM3情報については取得せず、カメラCM3に送信しない。 In FIG. 8C, the camera CM2 acquires CM1 information that is information related to the camera CM1, and transmits the acquired CM1 information to the camera CM1. On the other hand, the CM3 information of the camera CM3 is not acquired and is not transmitted to the camera CM3.
このようにすることで、カメラCM2の視野内にあるカメラCM1に対してだけCM1情報を送信できるようになり、無駄な情報が送信されてリソースが無駄に消費されてしまう事態を防止できる。 In this way, CM1 information can be transmitted only to the camera CM1 within the field of view of the camera CM2, and it is possible to prevent a situation where resources are wasted due to wasted information being transmitted.
またカメラCM3に対してCM3情報を送信しても、カメラCM3はカメラCM2の視野内に入っていないため、このCM3情報はカメラCM3にとっては無駄な情報になる。この点、本実施形態では、このようなCM3情報が無駄に送信されてしまう事態が防止されるため、カメラCM3の処理負荷や記憶領域などのリソースが無駄に消費されてしまう事態も防止できる。 Even if the CM3 information is transmitted to the camera CM3, since the camera CM3 is not in the field of view of the camera CM2, this CM3 information becomes useless information for the camera CM3. In this regard, in the present embodiment, such a situation that the CM3 information is transmitted unnecessarily is prevented, so that a situation where resources such as a processing load and a storage area of the camera CM3 are consumed is also prevented.
なおカメラCM1の識別手法は図9(A)に示すような識別マークを用いる手法に限定されない。例えば、カメラCM1に赤外線等の発光デバイスを設け、この発光デバイスの発光パターンにより得られる識別情報を用いて、カメラCM1の識別処理を行ってもよい。或いはカメラCM1にRFIDを設け、このRFIDにより識別してもよい。或いは、後述するようにGPS等の位置情報取得デバイスを設け、取得された位置情報に基づいて、視野内に写っているカメラがカメラCM1であるか否かを識別するようにしてもよい。 Note that the identification method of the camera CM1 is not limited to the method using an identification mark as shown in FIG. For example, a light emitting device such as an infrared ray may be provided in the camera CM1, and the identification processing of the camera CM1 may be performed using the identification information obtained from the light emission pattern of the light emitting device. Alternatively, the camera CM1 may be provided with an RFID and identified by this RFID. Alternatively, as will be described later, a position information acquisition device such as a GPS may be provided to identify whether the camera in the field of view is the camera CM1 based on the acquired position information.
2.4 使用者情報
本実施形態では、CM1情報として、使用者の表情、視線方向等の使用者情報をカメラCM2からカメラCM1に送信する。
2.4 User Information In this embodiment, user information such as the user's facial expression and line-of-sight direction is transmitted from the camera CM 2 to the camera CM 1 as CM 1 information.
例えば図10(A)はカメラCM2の撮像画像の例である。この撮像画像には、カメラCM1やその使用者US1の画像が写っている。この場合に本実施形態では、カメラCM2の撮像画像に基づいて、使用者US1の表情や視線方向VD1を認識する。例えば図10(A)では、使用者US1が笑っている表情であることが認識されている。また使用者US1の視線方向VD1が、使用者US1から見て右方向(右下方向)であることが認識されている。そして、カメラCM2は、これらの使用者の表情や視線方向の情報を、使用者情報として取得して、カメラCM1に送信する。 For example, FIG. 10A is an example of a captured image of the camera CM2. This captured image includes images of the camera CM1 and its user US1. In this case, in the present embodiment, the expression of the user US1 and the line-of-sight direction VD1 are recognized based on the captured image of the camera CM2. For example, in FIG. 10A, it is recognized that the user US1 is a smiling expression. Further, it is recognized that the line-of-sight direction VD1 of the user US1 is the right direction (lower right direction) as viewed from the user US1. Then, the camera CM2 acquires information on the facial expression and line-of-sight direction of these users as user information and transmits it to the camera CM1.
図10(B)は、カメラCM1の撮像画像の例である。この撮像画像は、例えば使用者US1のライフログ画像である。そして図10(A)で認識された使用者US1の視線方向VD1の情報に基づいて、使用者US1が被写体OBAに注目していることがわかる。また、使用者US1の表情情報に基づいて、使用者US1が、この被写体OBAを見ていた時に笑っていたことが把握される。 FIG. 10B is an example of a captured image of the camera CM1. This captured image is, for example, a life log image of the user US1. Then, based on the information on the line-of-sight direction VD1 of the user US1 recognized in FIG. 10A, it can be seen that the user US1 is paying attention to the subject OBA. Further, based on the facial expression information of the user US1, it is understood that the user US1 was laughing while looking at the subject OBA.
なお、使用者の表情情報は、例えば使用者の表情を「笑っている」、「怒っている」、「喜んでいる」、「悲しんでいる」等に分類し、使用者の表情が、いずれの分類の表情に近いのかを判断することで認識できる。 The facial expression information of the user is classified into, for example, the facial expression of the user as “laughing”, “angry”, “happy”, “sad”, etc. It can be recognized by judging whether it is close to the expression of the classification.
また図10(A)に示すように、カメラCM2の撮像画像に複数の人物が写っている場合がある。この場合に本実施形態では、カメラCM2の視野内の人物顔を検出し、検出された1つ以上の人物顔のうち、カメラCM1に最も近い位置にある人物顔を、カメラCM1の使用者の人物顔であると判断する。例えば図10(A)では、使用者US1の顔FA1が検出され、この顔FA1が、他の人物の顔よりもカメラCM1(例えば識別マーク)に近いと判断されている。この場合には、取得された使用者情報は、顔FA1の使用者US1の情報であると見なす。 In addition, as shown in FIG. 10A, a plurality of persons may be shown in the captured image of the camera CM2. In this case, in the present embodiment, a human face in the field of view of the camera CM2 is detected, and among the detected one or more human faces, the human face closest to the camera CM1 is selected as the person's face of the camera CM1. Judged as a human face. For example, in FIG. 10A, the face FA1 of the user US1 is detected, and it is determined that this face FA1 is closer to the camera CM1 (for example, an identification mark) than the face of another person. In this case, the acquired user information is regarded as information on the user US1 of the face FA1.
また図10(A)で検出された視線方向VD1から、図10(B)の注目被写体OBAを特定するためには、図10(C)に示すように、カメラCM1の向きCD1に対する視線方向VD1の相対的な角度αが重要になる。即ち使用者US1の視線方向VD1だけを検出したとしても、カメラCM1の向きCD1との相対的な角度αが求まらなければ、図10(B)の注目被写体OBAの位置を特定することが難しくなる。 In order to identify the subject of interest OBA in FIG. 10B from the line-of-sight direction VD1 detected in FIG. 10A, as shown in FIG. 10C, the line-of-sight direction VD1 with respect to the direction CD1 of the camera CM1 is shown. The relative angle α is important. That is, even if only the line-of-sight direction VD1 of the user US1 is detected, if the relative angle α with respect to the direction CD1 of the camera CM1 cannot be obtained, the position of the subject of interest OBA in FIG. It becomes difficult.
このためカメラCM2は、使用者US1の視線方向VD1の補正処理のために、カメラCM1の向きCD1の情報も取得する。このようなカメラCM1の向きCD1も取得すれば、向きCD1に対する視線方向VD1の相対的な角度αを求めることができ、図10(B)の使用者US1の注目被写体OBAを容易に特定できるようになる。なお、カメラCM1の向きCD1に基づく視線方向VD1の補正処理は、カメラCM1側で行ってもよいし、カメラCM2側で行ってもよい。 For this reason, the camera CM2 also acquires information on the orientation CD1 of the camera CM1 for the correction process of the line-of-sight direction VD1 of the user US1. If the orientation CD1 of the camera CM1 is also obtained, the relative angle α of the line-of-sight direction VD1 with respect to the orientation CD1 can be obtained, so that the subject of interest OBA of the user US1 in FIG. 10B can be easily identified. become. It should be noted that the correction process of the line-of-sight direction VD1 based on the orientation CD1 of the camera CM1 may be performed on the camera CM1 side or the camera CM2 side.
2.5 撮像画像の記録
本実施形態では、カメラCM1は、使用者情報等のCM1情報を、カメラCM1の撮像画像に関連づけて記憶部70に書き込んで保存する。
2.5 Recording Captured Image In this embodiment, the camera CM1 writes and stores CM1 information such as user information in the
具体的には図11(A)に示すように、例えば所定時間間隔毎に撮影された撮像画像IM1、IM2の各々のヘッダHD1、HD2に対して、使用者の表情や視線方向等の使用者情報を書き込んで、記憶部70に保存する。具体的には、EXIF形式の画像ファイルにおいて、EXIFで規定されるヘッダに対して使用者情報を書き込む。そして、ライフログ画像等の再生の際には、このヘッダに書き込まれた使用者情報を用いて再生画像を生成する。
Specifically, as shown in FIG. 11A, for example, the user's facial expression, line-of-sight direction, and the like with respect to the headers HD1 and HD2 of the captured images IM1 and IM2 taken at predetermined time intervals. Information is written and stored in the
例えば図11(B)は、カメラCM1で撮影された画像の再生画像の例である。この画像には、被写体OBA、OBB、OBC、OBD等が写っている。そしてヘッダに含まれる使用者の表情情報に基づいて、図11(B)の画像の撮影の際には、使用者の表情が笑い顔であったと判断される。従って、図11(B)のA1に示すように、例えば笑い顔を表すアイコンマークが、この撮像画像に表示(重畳表示)される。 For example, FIG. 11B is an example of a reproduced image of an image taken by the camera CM1. This image includes subjects OBA, OBB, OBC, OBD, and the like. Based on the facial expression information of the user included in the header, it is determined that the facial expression of the user was a laughing face when the image of FIG. Accordingly, as indicated by A1 in FIG. 11B, for example, an icon mark representing a laughing face is displayed (superimposed) on the captured image.
またヘッダに含まれる使用者の視線方向情報に基づいて、図11(B)の画像の撮影の際には、使用者が左下方向を注視していたと判断される。従って、図11(B)に示すように、OBA、OBB、OBC、OBDのうち、使用者が注視していた被写体はOBAであると判断され、被写体OBAに対して例えば強調表示等の画像エフェクトが施される。 Further, based on the user's line-of-sight direction information included in the header, it is determined that the user was gazing in the lower left direction when the image of FIG. Accordingly, as shown in FIG. 11B, it is determined that the subject that the user is gazing out of OBA, OBB, OBC, and OBD is OBA, and image effects such as highlighting are applied to the subject OBA. Is given.
図11(B)のような再生画像を表示すれば、使用者US1は、ライフログ画像の再生画像を鑑賞する際に、自分がどの被写体に注目していたのかや、どのような表情で被写体を見ていたのかを、A1のアイコンマークや、被写体OBAの画像エフェクトを見ることで把握できる。従って、カメラCM1の死角にある使用者US1の情報も反映させたライフログ画像の再生が可能になる。なお、再生画像への使用者情報の反映は、使用者の表情や視線方向を表現するアバターなどを用いて実現してもよい。 If the reproduced image as shown in FIG. 11 (B) is displayed, the user US1 can recognize which subject he / she is paying attention to when viewing the reproduced image of the life log image, and what kind of expression the subject Can be grasped by looking at the icon mark A1 and the image effect of the subject OBA. Accordingly, it is possible to reproduce the life log image reflecting the information of the user US1 in the blind spot of the camera CM1. Note that the reflection of the user information in the reproduced image may be realized by using an avatar or the like that expresses the user's facial expression or line-of-sight direction.
3.詳細な処理例
次に本実施形態の詳細な処理例について図12〜図14のフローチャートを用いて説明する。
3. Detailed Processing Example Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS.
図12はカメラCM1、CM2の全体的な処理を示すフローチャートである。なお、本実施形態では、カメラCM2は、カメラCM1からの要求に応え得る全てのカメラを意味し、複数台のカメラが存在するものとする。 FIG. 12 is a flowchart showing the overall processing of the cameras CM1 and CM2. In the present embodiment, the camera CM2 means all cameras that can respond to the request from the camera CM1, and it is assumed that there are a plurality of cameras.
まずカメラCM1の使用者は、操作部60(入力部)により、カメラCM1のライフログ撮影の開始を指示する(ステップS1)。なおカメラCM1の電源オンが、ライフログの撮影開始指示を兼ねていてもよい。或いは、他の撮影モードからライフログ撮影モードに切り替えることで撮影開始指示を実現してもよい。この場合の入力手法としては、ボタン、スライドスイッチ、ロータリースイッチ、タッチパネル、加速度センサ等を用いることができる。 First, the user of the camera CM1 instructs the start of life log shooting of the camera CM1 through the operation unit 60 (input unit) (step S1). The power-on of the camera CM1 may also serve as a life log shooting start instruction. Alternatively, the shooting start instruction may be realized by switching from another shooting mode to the life log shooting mode. As an input method in this case, a button, a slide switch, a rotary switch, a touch panel, an acceleration sensor, or the like can be used.
次にカメラCM1の使用者は、操作部60により、ライフログ撮影の時間間隔である撮影タイミングを設定する(ステップS2)。設定された時間間隔は記憶部70に記憶される。例えば使用者は、「1分おき」、「5分おき」などの時間間隔を設定する。この場合の入力手法としては、ボタン、タッチパネル等を用いることができる。なお、使用者が設定を行わず、カメラCM1に予め記憶された所定の時間間隔を、そのまま用いるようにしてもよい。
Next, the user of the camera CM1 uses the
カメラCM1の時間取得部38は、現在時刻を取得する。そして、取得された現在時刻に対して、ステップS2で設定された時間間隔を加算することで、次回の撮影時刻を算出する。算出された次回の撮影時刻は記憶部70に記憶される。時間取得部38は、内蔵時計や、その他の電波やネットワークを介して時刻情報を取得する。
The
カメラCM1(実際には制御装置。以下も同様)は、記憶部70に記録された次回の撮影時刻に達するまで、待機する(ステップS3)。そして撮影時刻に達したならば、カメラCM1の待機状態が解除され、以下に説明する撮影シーケンスに移行する。
The camera CM1 (actually a control device; the same applies to the following) waits until the next shooting time recorded in the
まず、図5(A)で説明したようにカメラCM1は、通信部80及びネットワークを介して、情報送信要求を他のカメラにブロードキャストで送信する(ステップS4)。この情報送信要求は、CM1情報の情報適正度を送るように、他のカメラに対してリクエストするものである。情報送信要求を構成するデータには、図9(B)で説明したように、要求送信元であるカメラCM1の個体識別情報(カメラID)を含めておく。
First, as described with reference to FIG. 5A, the camera CM1 broadcasts an information transmission request to other cameras via the
カメラCM2は、通信部180及びネットワークを介して、カメラCM1が送信した情報送信要求を受信する(ステップS5)。そして、その内容(データ)を解析することで、それが情報適正度の送信要求であることを認識する。具体的には図9(B)のコマンドコードをデコードすることで認識する。更に、情報送信要求のデータに含まれるカメラCM1の個体識別情報を取得する。取得されたカメラCM1の個体識別情報は、記憶部170に一時的に保存される。
The camera CM2 receives the information transmission request transmitted from the camera CM1 via the
次に、CM1情報の取得可否の判断処理を行う(ステップS6)。そして、カメラCM1がカメラCM2の視野内にあり、CM1情報の取得が可能であると判断された場合には、CM1情報の取得処理を行う(ステップS7、S8)。なお、カメラCM1が視野外等であり、CM1情報を取得できなかった場合には、例えば処理を終了する。 Next, it is determined whether or not CM1 information can be acquired (step S6). If it is determined that the camera CM1 is within the field of view of the camera CM2 and the CM1 information can be acquired, CM1 information acquisition processing is performed (steps S7 and S8). If the camera CM1 is out of the field of view and the like and CM1 information cannot be acquired, for example, the process ends.
次に、情報適正度の算出処理を行う(ステップS9)。具体的にはカメラCM2の情報適正度算出部150は、取得したCM1情報(使用者情報)の良さを下式(1)に従って評価する。このような評価値を情報適正度と呼ぶ。
Next, information appropriateness calculation processing is performed (step S9). Specifically, the information
情報適正度=β×(90−|顔の向き|)+γ×(顔の大きさ) (1)
式(1)において、顔の大きさは、後述するCM1情報取得処理の顔検出時に取得した値を用いる。顔の向きは正面向きが0度、左右の真横が±90度とする。顔の大きさは、検出された顔の縦サイズ(画素数)とする。β、γは所定の係数である。
Information appropriateness = β × (90− | face orientation |) + γ × (face size) (1)
In Expression (1), the face size is a value acquired at the time of face detection in the CM1 information acquisition process described later. The face orientation is 0 degree for the front direction and ± 90 degrees for the right and left sides. The face size is the vertical size (number of pixels) of the detected face. β and γ are predetermined coefficients.
カメラCM2は通信部180及びネットワークを介して、情報適正度をカメラCM1に送信する(ステップS10)。
The camera CM2 transmits the information appropriateness level to the camera CM1 via the
カメラCM1は、図7で説明したように、ステップS4で情報送信要求を送信した後、所定期間だけ情報適正度の受信を試みる(ステップS11)。カメラCM1の周囲に複数のカメラが存在する場合には、複数の情報適正度が送信されてくることになるが、所定期間内に到達した情報適正度であれば、全て受信する。なお所定の上限数までの先着順としてもよい。即ち所定時間内において所定の上限数の情報適正度のみを受信するようにしてもよい。 As described with reference to FIG. 7, the camera CM 1 transmits an information transmission request in step S4 and then attempts to receive the information appropriateness only for a predetermined period (step S11). When there are a plurality of cameras around the camera CM1, a plurality of information suitability levels are transmitted. However, if the information suitability levels reach within a predetermined period, all are received. The order of arrival may be up to a predetermined upper limit. That is, only a predetermined upper limit number of information suitability may be received within a predetermined time.
カメラCM1の情報適正度評価部50は、情報適正度の評価処理を行う(ステップS12)。例えば、受信した全ての情報適正度の中でも最も値の大きなものを求め、それに対応するカメラCM2を決定する。カメラCM1は、情報適正度が最も高いカメラCM2のみに対して情報送信要求を送信する(ステップS13)。この情報送信要求は、カメラCM1のCM1情報(使用者情報)をカメラCM2からCM1に送信するよう依頼する要求である。
The information
カメラCM2は、情報適正度の送信後、所定の期間だけCM1情報の情報送信要求の受信を試みる(ステップS14)。図7で説明したように、所定期間内にカメラCM1からの情報送信要求を受信できなかった場合、取得したCM1情報等は破棄される。そして、情報送信要求を受信したカメラCM2のみがCM1情報をカメラCM1に送信する(ステップS15)。 The camera CM2 tries to receive the information transmission request for the CM1 information for a predetermined period after the information appropriateness is transmitted (step S14). As described with reference to FIG. 7, when the information transmission request from the camera CM1 cannot be received within the predetermined period, the acquired CM1 information and the like are discarded. Then, only the camera CM2 that has received the information transmission request transmits the CM1 information to the camera CM1 (step S15).
なおカメラCM1は、高い情報適正度を送信してきた複数のカメラに対して、CM1情報の情報送信要求を送信し、受け取った複数のCM1情報の平均化処理を行って、最終的なCM1情報としてもよい。例えば使用者の視線方向として複数の視線方向が得られた場合には、この視線方向の平均化処理を行って、最終的な視線方向とする。或いは使用者の表情の候補として複数の候補が得られた場合に、平均化処理により、最終的な表情を決定する。 The camera CM1 transmits an information transmission request for CM1 information to a plurality of cameras that have transmitted a high degree of information appropriateness, performs an averaging process on the received CM1 information, and obtains final CM1 information. Also good. For example, when a plurality of gaze directions are obtained as the gaze direction of the user, the gaze direction is averaged to obtain the final gaze direction. Alternatively, when a plurality of candidates are obtained as candidates for the facial expression of the user, the final facial expression is determined by averaging processing.
カメラCM1は、通信部80及びネットワークを介して、カメラCM2が送信したCM1情報を受信する(ステップS16)。なお、情報送信要求を送信した後、所定時間が経過してもカメラCM2からの応答が無い場合には、CM1情報は取得できなかったと判断する。
The camera CM1 receives the CM1 information transmitted from the camera CM2 via the
カメラCM1は、外界の状態を撮像画像として取得する(ステップS17)。そしてカメラCM1は、図11(A)で説明したように、取得した撮像画像とCM1情報を関連づけて、記憶部70に保存する(ステップS18)。なお、CM1情報を取得できなった場合には、撮像画像のみを保存する。 The camera CM1 acquires the external state as a captured image (step S17). Then, as described with reference to FIG. 11A, the camera CM1 associates the acquired captured image with the CM1 information and stores them in the storage unit 70 (step S18). If CM1 information cannot be acquired, only the captured image is stored.
次に、使用者による撮影終了の指示があったか否かを判断し(ステップS19)、撮影終了指示があった場合には、ライフログ撮影を終了する。一方、撮影終了指示がなかった場合には、撮影タイミングの更新処理を行う(ステップS20)。具体的には、カメラCM1は、時間取得部38により現在時刻を取得する。そして記憶部70に記憶された時間間隔を取得して、両者を加算し、次回の撮影時刻を算出する。算出された次回の撮影時刻は記憶部70に記憶される。そしてステップS3(撮影タイミングまで待機)に戻る。なお、カメラCM2は、使用者の表情と視線方向に加え、使用者の画像自体(情報取得可否判断処理時に撮影した画像)をカメラCM1に送信してもよい。
Next, it is determined whether or not the user has instructed to end the shooting (step S19). If there is an instruction to end the shooting, the lifelog shooting is ended. On the other hand, if there is no shooting end instruction, shooting timing update processing is performed (step S20). Specifically, the camera CM 1 acquires the current time by the
図13に、図12のステップS6の情報取得可否判断処理(カメラ位置関係認識処理)のフローチャートを示す。 FIG. 13 shows a flowchart of the information acquisition possibility determination process (camera positional relationship recognition process) in step S6 of FIG.
まずカメラCM2は、外界の状態を撮像画像として取得する(ステップS21)。即ちカメラCM2の視野内の情報を取得する。ここでは、カメラCM2が画像として取得可能な空間範囲を、カメラCM2の視野と呼ぶ。カメラCM1の視野も同様である。 First, the camera CM2 acquires the state of the outside world as a captured image (step S21). That is, information within the field of view of the camera CM2 is acquired. Here, a spatial range that can be acquired as an image by the camera CM2 is referred to as a field of view of the camera CM2. The same applies to the field of view of the camera CM1.
次にカメラCM2は、取得した画像内をサーチし、図9(A)で説明したカメラ識別マークの検出処理を行う(ステップS22)。そして検出されなかった場合には、カメラCM1は視野外であると判断する(ステップS26)。一方、検出された場合には、そのカメラ識別マークのデコード処理を行い、図12のステップS5の情報送信要求に含まれるカメラCM1の個体識別情報と合致するか否かを判断し、合致した場合にはカメラCM1は視野内であると判断する(ステップS23、S24、S25)。一方、合致しなかった場合、或いはカメラ識別マークをデコードできなかった場合には、カメラCM1は視野外であると判断する(ステップS26)。 Next, the camera CM2 searches the acquired image and performs the camera identification mark detection process described with reference to FIG. 9A (step S22). If not detected, it is determined that the camera CM1 is out of the field of view (step S26). On the other hand, if it is detected, the camera identification mark is decoded, and it is determined whether or not it matches the individual identification information of the camera CM1 included in the information transmission request in step S5 of FIG. Is determined to be within the field of view (steps S23, S24, S25). On the other hand, if they do not match or if the camera identification mark cannot be decoded, it is determined that the camera CM1 is out of the field of view (step S26).
図14はCM1情報の取得処理のフローチャートである。まず図10(A)で説明したように、カメラCM1のカメラ識別マークが検出された位置の上方(略上方を含む)にある顔を検出する(ステップS31)。例えば、首からぶら下げるタイプのカメラである場合には、使用者の顔はカメラの上方にある。またカメラを胸ポケットに入れるようなタイプであっても、使用者の顔は概略上方に来る。そして、もし複数の顔が検出された場合は、カメラに最も近い位置の顔を使用者の顔であると見なす。 FIG. 14 is a flowchart of CM1 information acquisition processing. First, as described with reference to FIG. 10A, a face located above (including substantially above) the position where the camera identification mark of the camera CM1 is detected is detected (step S31). For example, in the case of a camera that hangs from the neck, the user's face is above the camera. Even if the camera is placed in a breast pocket, the user's face is generally upward. If a plurality of faces are detected, the face closest to the camera is regarded as the user's face.
なお顔検出の手法としては、「Paul Viola,Michael Jones "Rapid Object Detection using a Boosted Cascade of Simple Features" CVPR2001」などの手法がある。 As a face detection technique, there is a technique such as “Paul Viola, Michael Jones“ Rapid Object Detection using a Boosted Cascade of Simple Features ”CVPR2001”.
顔が検出されなかった場合には、CM1情報である使用者情報は取得できなかったと判断し、検出された場合には、検出された顔の方向(向き)を認識する(ステップS32、S33)。また検出された顔の表情を認識する(ステップS34)。更に検出された顔の視線方向を認識する(ステップS35)。 If no face is detected, it is determined that the user information, which is CM1 information, cannot be acquired. If detected, the direction (orientation) of the detected face is recognized (steps S32 and S33). . The detected facial expression is recognized (step S34). Further, the detected line-of-sight direction of the face is recognized (step S35).
例えば顔の向きの認識(頭部姿勢推定)については、「木下航一,小西嘉典,川出雅人ら(オムロン)"3Dモデル高速フィッティングによる顔特徴点検出・頭部姿勢推定"MIRU2008」がある。また表情認識については、「熊野史朗,大塚和弘,大和淳司,前田英作,佐藤洋一(東大,NTT)"パーティクルフィルタと勾配法の組み合わせによる頭部姿勢変動に頑健な表情認識手法"MIRU2008」がある。また視線方向の認識については、「山添大丈,内海章,米澤朋子,安部伸治(ATR)"3次元眼球モデルを利用した単眼カメラによる遠隔視線推定"MIRU2008」がある。 For example, for face orientation recognition (head pose estimation), “Koichi Kinoshita, Yoshinori Konishi, Masato Kawade et al. (OMRON)” Face feature point detection and head pose estimation “MIRU2008” by 3D model fast fitting is there. For facial expression recognition, there is "Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, Yoichi Sato (Tokyo Univ., NTT)" "MIRU2008", a facial expression recognition method that is robust against head posture changes by combining particle filter and gradient method. . Regarding the recognition of the gaze direction, there is "Daijo Yamazoe, Akira Utsumi, Atsuko Yonezawa, Shinji Abe (ATR)" Remote eye gaze estimation with a monocular camera using a three-dimensional eyeball model "MIRU2008".
次に、例えばカメラCM1の識別マークの図形形状から、カメラCM1の向きを認識する(ステップS36)。例えば矩形状の図形を撮像し、画像中での図形の状態に基いてカメラと図形の位置関係を求める手法が、特開2006−351024に開示されている。なおカメラCM1の向きとは、光学系の光軸の向きを指す。 Next, for example, the orientation of the camera CM1 is recognized from the graphic shape of the identification mark of the camera CM1 (step S36). For example, Japanese Patent Application Laid-Open No. 2006-351024 discloses a method of capturing a rectangular figure and obtaining the positional relationship between the camera and the figure based on the figure state in the image. The direction of the camera CM1 indicates the direction of the optical axis of the optical system.
次に、図10(C)で説明したように視線方向の補正処理を行う(ステップS37)。例えば、使用者の視線方向をカメラCM1の向きを基準とした方向に変換し、視線方向の補正値とする。以上のように取得された使用者の表情及び補正後の視線方向の情報を本実施形態での使用者情報とする。 Next, as described with reference to FIG. 10C, the line-of-sight direction correction processing is performed (step S37). For example, the user's line-of-sight direction is converted into a direction based on the direction of the camera CM1 to obtain a correction value for the line-of-sight direction. The information of the user's facial expression and the corrected line-of-sight direction acquired as described above is used as the user information in this embodiment.
以上の本実施形態の手法によれば、複数のカメラが取得したCM1情報の良し悪しを、情報適正度を用いて順位付けする。これにより、複数のカメラが存在する場合に、常に最も状態が良いカメラを用いてCM1情報を取得できるようになる。また、情報適正度に基づいて、CM1情報を受信するか否かを選択することで、カメラCM2からCM1に向けて、不必要な情報が送られる事態を防止できる。これによりバッテリーやネットワーク帯域が無駄に消費されてしまう事態が防止される。 According to the method of the present embodiment described above, the quality of CM1 information acquired by a plurality of cameras is ranked using the information appropriateness level. As a result, when there are a plurality of cameras, the CM1 information can always be acquired using the camera with the best state. Further, by selecting whether or not to receive the CM1 information based on the information appropriateness level, it is possible to prevent a situation where unnecessary information is sent from the camera CM2 to the CM1. This prevents a situation in which the battery and the network bandwidth are wasted.
4.第2の構成例
図15に本実施形態の制御装置、カメラ(撮像装置)の第2の構成例を示す。図15の第2の構成例では、カメラCM1の制御装置30が位置関係情報取得部47を更に含む。またカメラCM2の情報取得部140が位置関係情報取得部147を更に含む。これ以外の構成要素については図2とほぼ同様であるため、詳細な説明は省略する。
4). Second Configuration Example FIG. 15 shows a second configuration example of the control device and camera (imaging device) of this embodiment. In the second configuration example of FIG. 15, the
カメラCM1の位置関係情報取得部47は、カメラCM1の位置関係情報(位置関係を特定するための情報)を取得する。具体的には、例えばカメラCM1に設けられるGPSからの情報等を用いてカメラCM1の位置情報を取得する。そして取得された位置情報は、例えば図9(B)の情報送信要求の対応するフィールドに設定されて、カメラCM2に送信される。
The positional relationship
カメラCM2の位置関係情報取得部147は、カメラCM2の位置関係情報を取得する。例えばGPSからの情報等を用いてカメラCM2の位置情報を取得する。また例えばジャイロセンサからの情報等を用いてカメラCM2の向き情報も取得する。
The positional relationship
そして情報取得部140は、カメラCM1、CM2の位置関係情報に基づいて、CM1情報を取得可能か否かを判断する。具体的には、カメラCM1の位置情報と、カメラCM2の位置情報と、カメラCM2の向き情報に基づいて、CM1情報を取得可能か否かを判断する。
The
例えば第1の構成例では、CM1情報を取得可能か否かを、カメラCM1に設けられるカメラ識別マークMKを検出することで判断していた。しかしながら、図16(A)に示すように、例えば使用者US1の手や洋服等に隠れて、カメラ識別マークMKを検出できない場合がある。このような場合に、第1の構成例では、カメラCM2の撮像画像によりCM1情報を取得できるはずなのに、CM1情報を取得できないと判断されてしまう。 For example, in the first configuration example, whether the CM1 information can be acquired is determined by detecting the camera identification mark MK provided in the camera CM1. However, as shown in FIG. 16A, the camera identification mark MK may not be detected, for example, hidden behind the user's US1 hand or clothes. In such a case, in the first configuration example, it is determined that the CM1 information cannot be acquired although the CM1 information should be acquired from the captured image of the camera CM2.
そこで第2の構成例では、カメラCM1、CM2の位置関係情報を判断して、CM1情報を取得できるか否かを判断する。例えば図16(B)では、カメラCM1の位置P1と、カメラCM2の位置P2と、カメラCM2の向きCD2が取得される。これらの位置P1、P2、向きCD2を用いれば、カメラCM2の視野内にカメラCM1があるか否かを判断できる。そして、視野内にカメラCM1があると判断された場合には、CM1情報を取得可能であると判断し、第1の構成例で説明したCM1情報の取得処理を行う。このようにすることで、図16(A)のような状況の場合にも、CM1情報の取得が可能になる。 Therefore, in the second configuration example, the positional relationship information of the cameras CM1 and CM2 is determined to determine whether or not the CM1 information can be acquired. For example, in FIG. 16B, the position P1 of the camera CM1, the position P2 of the camera CM2, and the orientation CD2 of the camera CM2 are acquired. Using these positions P1, P2 and orientation CD2, it can be determined whether or not the camera CM1 is in the field of view of the camera CM2. If it is determined that the camera CM1 is within the field of view, it is determined that CM1 information can be acquired, and the CM1 information acquisition process described in the first configuration example is performed. In this way, CM1 information can be acquired even in the situation shown in FIG.
次に第2の構成例の動作について説明する。まず、カメラCM1は、第1の構成例と同様にして、情報送信要求を送信する。この際、情報送信要求を構成するデータには、カメラCM1の個体識別情報の他に、カメラCM1の位置・向き情報も含める。この位置・向き情報は位置関係情報取得部47により取得される。
Next, the operation of the second configuration example will be described. First, the camera CM1 transmits an information transmission request in the same manner as in the first configuration example. At this time, the data constituting the information transmission request includes the position / orientation information of the camera CM1 in addition to the individual identification information of the camera CM1. This position / orientation information is acquired by the positional relationship
カメラCM2は、第1の構成例と同様にして、情報送信要求を受信する。更に、情報送信要求のデータに含まれる、要求送信元(カメラCM1)の個体識別情報、位置・向き情報を取得する。取得したカメラCM1の個体識別情報、位置・向き情報は、記憶部170に一時的に記憶される。
The camera CM2 receives the information transmission request in the same manner as in the first configuration example. Furthermore, the individual identification information and the position / orientation information of the request transmission source (camera CM1) included in the information transmission request data are acquired. The acquired individual identification information and position / orientation information of the camera CM1 are temporarily stored in the
次にカメラCM2はCM1情報の取得可否の判断処理を行う。第2の構成例での情報取得可否判断処理(カメラ位置関係認識処理)のフローチャートを図17に示す。 Next, the camera CM2 performs a process for determining whether or not to obtain CM1 information. FIG. 17 shows a flowchart of information acquisition availability determination processing (camera positional relationship recognition processing) in the second configuration example.
まず、カメラCM2は、第1の構成例と同様にして、カメラ識別マークを検出しようと試みる(ステップS41、S42)。そしてカメラ識別マークが検出され、且つ、それがカメラCM1の個体識別情報を表していた場合、カメラCM1は視野内にあると判断する(ステップS43、S44、S45)。 First, the camera CM2 tries to detect a camera identification mark in the same manner as in the first configuration example (steps S41 and S42). If the camera identification mark is detected and represents the individual identification information of the camera CM1, it is determined that the camera CM1 is in the field of view (steps S43, S44, S45).
一方、ステップS43、S44でカメラCM1が視野内にあると判断されなかった場合には、位置・向き情報を用いた判断処理に移行する。具体的には、まず、記憶部170からカメラCM1の位置・向き情報を取得する(ステップS46)。次に、位置関係情報取得部147により、カメラCM2の位置・向き情報を取得する(ステップS47)。
On the other hand, if it is not determined in steps S43 and S44 that the camera CM1 is in the field of view, the process proceeds to a determination process using position / orientation information. Specifically, first, the position / orientation information of the camera CM1 is acquired from the storage unit 170 (step S46). Next, the positional relationship
次に、カメラCM1とカメラCM2の位置から両者の距離を算出し、所定値と比較する(ステップS48)。そして、距離が所定値以下ではない場合には、カメラCM1は視野外にあると判断する(ステップS52)。一方、距離が所定値以下の場合には、カメラCM2の視野角と位置・向き情報から、カメラCM2の視野範囲を算出する(ステップS49)。例えば位置・向き情報から、カメラの撮像面の位置と光軸の向きが分かるので、これを視野角分だけ広げた範囲が視野範囲になる。視野角は、予め光学系の設計値から算出するか、或いは実測しておき、記憶部170に記録されているものとする。
Next, the distance between the camera CM1 and the camera CM2 is calculated and compared with a predetermined value (step S48). If the distance is not less than the predetermined value, it is determined that the camera CM1 is out of the field of view (step S52). On the other hand, when the distance is equal to or smaller than the predetermined value, the field-of-view range of the camera CM2 is calculated from the field-of-view angle and position / orientation information of the camera CM2 (step S49). For example, from the position / orientation information, the position of the imaging surface of the camera and the direction of the optical axis can be known, and the range that is expanded by the viewing angle is the viewing range. It is assumed that the viewing angle is calculated from the design value of the optical system in advance or is actually measured and recorded in the
次に、カメラCM1の位置・向き情報とカメラCM2の視野範囲を比較し、カメラCM1がカメラCM2の視野範囲内にあるか否かを判断する(ステップS50)。そして視野範囲内にある場合には、カメラCM1は視野内にあると判断する(ステップS51)。一方、視野範囲外の場合には、カメラCM1は視野外にあると判断する(ステップS52)。 Next, the position / orientation information of the camera CM1 is compared with the visual field range of the camera CM2, and it is determined whether or not the camera CM1 is within the visual field range of the camera CM2 (step S50). If it is within the visual field range, it is determined that the camera CM1 is within the visual field (step S51). On the other hand, if it is outside the visual field range, it is determined that the camera CM1 is out of the visual field (step S52).
以上の第2の構成例によれば、カメラCM1の個体識別情報を表す識別マークがカメラCM2から直視できない場合に、GPS等の位置情報を用いてカメラの位置関係を把握する。このようにすれば、カメラCM1が遮蔽物に隠れている場合や、個体識別情報を表す識別マークがカメラCM2から明瞭に撮影できないでも、カメラCM1の使用者情報を取得することが可能になる。 According to the above second configuration example, when the identification mark representing the individual identification information of the camera CM1 cannot be directly viewed from the camera CM2, the positional relationship of the camera is grasped using the positional information such as GPS. In this way, the user information of the camera CM1 can be acquired even when the camera CM1 is hidden by the shielding object or the identification mark representing the individual identification information cannot be clearly photographed from the camera CM2.
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(撮像装置、識別情報等)と共に記載された用語(カメラ、識別マーク等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また制御装置、撮像装置の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (camera, identification mark, etc.) described together with a different term (imaging device, identification information, etc.) in a broader sense or the same meaning at least once in the specification or the drawing, It can be replaced by that different term. Further, the configurations and operations of the control device and the imaging device are not limited to those described in the present embodiment, and various modifications can be made.
US1、US2 使用者、CM1、CM2 カメラ(撮像装置)、VD1 視線方向、
20 撮像部、30 制御装置、32 画像取得部、34 受信部、35 送信部、
36 書き込み部、38 時間取得部、47 位置関係情報取得部、
50 情報適正度評価部、60 操作部、70 記憶部、80 通信部、
90 表示部、98 情報記憶媒体、120 撮像部、130 制御装置、
132 画像取得部、134 受信部、135 送信部、140 情報取得部、
141 カメラ識別マーク検出部、142 顔検出部、143 表情認識部、
144 視線方向認識部、145 カメラ向き認識部、146 視線方向補正部、
147 位置関係情報取得部、150 情報適正度算出部、160 操作部、
170 記憶部、180 通信部、190 表示部、198 情報記憶媒体
US1, US2 user, CM1, CM2 camera (imaging device), VD1 viewing direction,
20 imaging unit, 30 control device, 32 image acquisition unit, 34 receiving unit, 35 transmitting unit,
36 writing unit, 38 hour acquisition unit, 47 positional relationship information acquisition unit,
50 information suitability evaluation unit, 60 operation unit, 70 storage unit, 80 communication unit,
90 display unit, 98 information storage medium, 120 imaging unit, 130 control device,
132 image acquisition unit, 134 reception unit, 135 transmission unit, 140 information acquisition unit,
141 camera identification mark detection unit, 142 face detection unit, 143 facial expression recognition unit,
144 Gaze direction recognition unit, 145 Camera direction recognition unit, 146 Gaze direction correction unit,
147 positional relationship information acquisition unit, 150 information appropriateness calculation unit, 160 operation unit,
170 Storage Unit, 180 Communication Unit, 190 Display Unit, 198 Information Storage Medium
Claims (24)
撮像部により撮像された撮像画像を取得する画像取得部と、
前記第2撮像装置の前記撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得する情報取得部と、
取得された前記第1撮像装置情報の情報適正度を算出する情報適正度算出部と、
算出された前記情報適正度を、前記第1撮像装置に送信する送信部と、
を含むことを特徴とする制御装置。 A control device for the second imaging device of the first imaging device and the second imaging device that can move independently from each other,
An image acquisition unit that acquires a captured image captured by the imaging unit;
An information acquisition unit that acquires first imaging device information that is information related to the first imaging device based on the captured image of the second imaging device;
An information appropriateness calculating unit for calculating the information appropriateness of the acquired first imaging device information;
A transmission unit that transmits the calculated degree of appropriateness of information to the first imaging device;
The control apparatus characterized by including.
前記第1の撮像装置から前記情報適正度の情報送信要求を受信する受信部を含み、
前記送信部は、
前記情報適正度の情報送信要求に対する返信情報として、前記情報適性度を前記第1の撮像装置に送信することを特徴とする制御装置。 In claim 1,
A receiving unit that receives an information transmission request for the information appropriateness level from the first imaging device;
The transmitter is
The control device, wherein the information suitability is transmitted to the first imaging device as reply information to the information transmission request of the information suitability.
前記受信部は、
前記情報適性度を受信した前記第1の撮像装置から前記第1撮像装置情報の情報送信要求を受信し、
前記送信部は、
前記第1撮像装置情報の情報送信要求に対する返信情報として、前記第1撮像装置情報を前記第1の撮像装置に送信することを特徴とする制御装置。 In claim 2,
The receiver is
Receiving an information transmission request for the first imaging device information from the first imaging device that has received the information suitability;
The transmitter is
A control device, wherein the first imaging device information is transmitted to the first imaging device as reply information to the information transmission request for the first imaging device information.
前記送信部は、
前記情報適正度を送信した後、所定期間内に前記第1撮像装置情報の情報送信要求を受信しなかった場合には、前記第1撮像装置情報、前記情報適正度を破棄する処理を行うことを特徴とする制御装置。 In claim 3,
The transmitter is
If the information transmission request for the first imaging device information is not received within a predetermined period after transmitting the information appropriateness level, a process of discarding the first imaging device information and the information appropriateness level is performed. A control device characterized by.
前記情報取得部は、
前記第1撮像装置情報を取得可能か否かを判断し、前記第1撮像装置情報を取得可能であると判断した場合に、前記第1撮像装置情報を取得することを特徴とする制御装置。 In any one of Claims 1 thru | or 4,
The information acquisition unit
A control device that determines whether the first imaging device information can be acquired, and acquires the first imaging device information when it is determined that the first imaging device information can be acquired.
前記情報取得部は、
前記撮像画像に基づいて前記第2の撮像装置の視野内に前記第1の撮像装置が含まれるか否かを判断することで、前記第1撮像装置情報を取得可能か否かを判断することを特徴とする制御装置。 In claim 5,
The information acquisition unit
Determining whether the first imaging device information can be acquired by determining whether the first imaging device is included in the field of view of the second imaging device based on the captured image. A control device characterized by.
前記受信部は、
前記第1の撮像装置の個体識別情報を受信し、
前記情報取得部は、
前記視野内に含まれる撮像装置が、受信した前記個体識別情報により識別される前記第1の撮像装置であるか否かを検出し、前記第1の撮像装置であることが検出された場合に、前記第1撮像装置情報を取得可能であると判断することを特徴とする制御装置。 In claim 6,
The receiver is
Receiving individual identification information of the first imaging device;
The information acquisition unit
When it is detected whether the imaging device included in the visual field is the first imaging device identified by the received individual identification information, and when it is detected that the imaging device is the first imaging device And determining that the first imaging device information can be acquired.
前記情報取得部は、
前記第1の撮像装置と前記第2の撮像装置の位置関係情報を取得し、前記位置関係情報に基づいて、前記第1撮像装置情報を取得可能か否かを判断することを特徴とする制御装置。 In any of claims 5 to 7,
The information acquisition unit
Control that acquires positional relationship information between the first imaging device and the second imaging device, and determines whether or not the first imaging device information can be acquired based on the positional relationship information apparatus.
前記情報適正度算出部は、
前記第1の撮像装置の使用者の撮影状態に基づいて、前記情報適正度を算出することを特徴とする制御装置。 In any one of Claims 1 thru | or 8.
The information suitability calculation unit
A control device that calculates the information appropriateness level based on a photographing state of a user of the first imaging device.
前記情報適正度算出部は、
前記第1の撮像装置の使用者の顔の向き及び顔の大きさの少なくとも1つに基づいて、前記情報適正度を算出することを特徴とする制御装置。 In claim 9,
The information suitability calculation unit
A control device that calculates the information appropriateness degree based on at least one of a face orientation and a face size of a user of the first imaging device.
前記情報適正度算出部は、
前記第2の撮像装置の撮像画像のコントラスト、階調性、明るさ、及びぼけ具合の少なくとも1つに基づいて、前記情報適正度を算出することを特徴とする制御装置。 In any one of Claims 1 thru | or 10.
The information suitability calculation unit
The control device, wherein the information suitability is calculated based on at least one of contrast, gradation, brightness, and blur of a captured image of the second imaging device.
撮像部により撮像された撮像画像を取得する画像取得部と、
前記第2の撮像装置が、前記第2の撮像装置の撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、前記第1撮像装置情報の情報適正度を算出して送信した場合に、前記情報適正度を受信する受信部と、
受信した前記情報適正度の評価処理を行う情報適正度評価部と、
を含むことを特徴とする制御装置。 Of the first imaging device and the second imaging device that can move independently of each other, the control device for the first imaging device,
An image acquisition unit that acquires a captured image captured by the imaging unit;
The second imaging device acquires first imaging device information that is information relating to the first imaging device based on a captured image of the second imaging device, and determines the information appropriateness of the first imaging device information. A receiving unit that receives the information suitability when it is calculated and transmitted;
An information appropriateness evaluation unit that performs an evaluation process of the received information appropriateness;
The control apparatus characterized by including.
前記情報適正度の情報送信要求を送信する送信部を含み、
前記受信部は、
前記情報適正度の情報送信要求に対する返信情報として、前記情報適性度を受信することを特徴とする制御装置。 In claim 12,
A transmission unit that transmits an information transmission request of the information appropriateness,
The receiver is
The control apparatus receives the information suitability as reply information to the information transmission request of the information suitability.
前記送信部は、
前記情報適性度を受信した後、前記第1撮像装置情報の情報送信要求を送信し、
前記受信部は、
前記第1撮像装置情報の情報送信要求に対する返信情報として、前記第1撮像装置情報を受信することを特徴とする制御装置。 In claim 13,
The transmitter is
After receiving the information suitability, send an information transmission request for the first imaging device information,
The receiver is
The control device, wherein the first imaging device information is received as reply information to the information transmission request for the first imaging device information.
前記送信部は、
前記情報適正度の情報送信要求についてはブロードキャストで送信することを特徴とする制御装置。 In claim 13 or 14,
The transmitter is
The control apparatus characterized in that the information transmission request of the information appropriateness level is transmitted by broadcast.
前記第1撮像装置情報の情報送信要求を送信する送信部を含み、
前記送信部は、
前記情報適正度の評価結果に基づいて、前記第1撮像装置情報の情報送信要求を送信するか否かを判断することを特徴とする制御装置。 In claim 12,
A transmission unit for transmitting an information transmission request for the first imaging device information;
The transmitter is
A control device that determines whether or not to transmit an information transmission request for the first imaging device information based on the evaluation result of the information suitability.
前記第1撮像装置情報の情報送信要求を送信する送信部を含み、
前記送信部は、
前記情報適正度の評価結果に基づいて、前記第1撮像装置情報の情報送信要求の送信先を決定することを特徴とする制御装置。 In claim 12,
A transmission unit for transmitting an information transmission request for the first imaging device information;
The transmitter is
A control device that determines a transmission destination of an information transmission request for the first imaging device information based on an evaluation result of the information suitability.
前記受信部は、
複数の撮像装置からの複数の情報適正度を受信し、
前記情報適正度評価部は、
前記複数の情報適正度の評価処理を行い、
前記送信部は、
前記複数の情報適正度の評価結果に基づいて前記複数の撮像装置の中から前記第2の撮像装置が選択された場合に、前記第2の撮像装置に対して前記第1撮像装置情報の情報送信要求を送信することを特徴とする制御装置。 In claim 17,
The receiver is
Receive multiple information suitability from multiple imaging devices,
The information suitability evaluation unit
Performing the plurality of information suitability evaluation processes;
The transmitter is
When the second imaging device is selected from the plurality of imaging devices based on the evaluation results of the plurality of information appropriateness levels, information on the first imaging device information with respect to the second imaging device A control device that transmits a transmission request.
受信した前記第1撮像装置情報を、前記第1の撮像装置の前記撮像画像に関連づけて記憶部に書き込む書き込み部を含むことを特徴とする制御装置。 In any of claims 12 to 18,
A control device comprising: a writing unit that writes the received first imaging device information in a storage unit in association with the captured image of the first imaging device.
前記第2の撮像装置は、
前記第2撮像装置の撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、取得された前記第1撮像装置情報の情報適正度を算出し、算出された前記情報適正度を前記第1撮像装置に送信し、
前記第1の撮像装置は、
前記情報適正度を受信し、受信した前記情報適正度の評価処理を行うことを特徴とする撮像システム。 An imaging system including a first imaging device and a second imaging device that are movable independently of each other,
The second imaging device includes:
Based on the captured image of the second imaging device, the first imaging device information, which is information related to the first imaging device, is acquired, and the information appropriateness of the acquired first imaging device information is calculated and calculated. Transmitting the information appropriateness level to the first imaging device;
The first imaging device includes:
An imaging system that receives the information appropriateness level and performs an evaluation process on the received information appropriateness level.
前記第2の撮像装置の撮像画像を取得し、
取得された前記第2撮像装置の前記撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、
取得された前記第1撮像装置情報の情報適正度を算出し、
算出された前記情報適正度を、前記第2の撮像装置から前記第1撮像装置に送信し、
前記情報適正度の評価処理を行い、
前記第1の撮像装置の撮像画像を取得し、
前記情報適正度の評価処理の結果により取得された前記第1撮像装置情報を、取得された前記第1の撮像装置の前記撮像画像に関連づけて記憶部に書き込むことを特徴とする画像取得方法。 An image acquisition method using a first imaging device and a second imaging device that are movable independently of each other,
Obtaining a captured image of the second imaging device;
Acquiring first imaging device information, which is information relating to the first imaging device, based on the acquired image of the second imaging device;
Calculating the information appropriateness of the acquired first imaging device information;
The calculated information appropriateness level is transmitted from the second imaging device to the first imaging device,
Perform the information suitability evaluation process,
Obtaining a captured image of the first imaging device;
An image acquisition method, wherein the first imaging device information acquired as a result of the information appropriateness evaluation process is written in a storage unit in association with the acquired captured image of the first imaging device.
撮像部により撮像された撮像画像を取得する画像取得部と、
前記第2撮像装置の前記撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得する情報取得部と、
取得された前記第1撮像装置情報の情報適正度を算出する情報適正度算出部と、
算出された前記情報適正度を、前記第1撮像装置に送信する送信部として、
コンピュータを機能させることを特徴とするプログラム。 A program for controlling the second imaging device of the first imaging device and the second imaging device that are movable independently of each other,
An image acquisition unit that acquires a captured image captured by the imaging unit;
An information acquisition unit that acquires first imaging device information that is information related to the first imaging device based on the captured image of the second imaging device;
An information appropriateness calculating unit for calculating the information appropriateness of the acquired first imaging device information;
As a transmission unit that transmits the calculated degree of appropriateness of information to the first imaging device,
A program characterized by causing a computer to function.
撮像部により撮像された撮像画像を取得する画像取得部と、
前記第2の撮像装置が、前記第2の撮像装置の撮像画像に基づいて前記第1の撮像装置に関する情報である第1撮像装置情報を取得し、前記第1撮像装置情報の情報適正度を算出して送信した場合に、前記情報適正度を受信する受信部と、
受信した前記情報適正度の評価処理を行う情報適正度評価部として、
コンピュータを機能させることを特徴とするプログラム。 A program for controlling the first imaging device of the first imaging device and the second imaging device that can move independently from each other,
An image acquisition unit that acquires a captured image captured by the imaging unit;
The second imaging device acquires first imaging device information that is information relating to the first imaging device based on a captured image of the second imaging device, and determines the information appropriateness of the first imaging device information. A receiving unit that receives the information suitability when it is calculated and transmitted;
As an information appropriateness evaluation unit that performs an evaluation process of the received information appropriateness,
A program characterized by causing a computer to function.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009116634A JP2010268128A (en) | 2009-05-13 | 2009-05-13 | Control apparatus, imaging apparatus, imaging system, image acquisition method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009116634A JP2010268128A (en) | 2009-05-13 | 2009-05-13 | Control apparatus, imaging apparatus, imaging system, image acquisition method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010268128A true JP2010268128A (en) | 2010-11-25 |
Family
ID=43364770
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009116634A Withdrawn JP2010268128A (en) | 2009-05-13 | 2009-05-13 | Control apparatus, imaging apparatus, imaging system, image acquisition method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010268128A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015027052A (en) * | 2013-07-29 | 2015-02-05 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
| JP5849195B1 (en) * | 2014-12-26 | 2016-01-27 | パナソニックIpマネジメント株式会社 | Wearable camera system and imaging method |
| WO2016125434A1 (en) * | 2015-02-06 | 2016-08-11 | パナソニックIpマネジメント株式会社 | Wearable camera and image capturing system |
| US9661283B2 (en) | 2014-12-24 | 2017-05-23 | Panasonic Intellectual Property Management Co., Ltd. | Wearable camera |
| JP2018061239A (en) * | 2016-09-28 | 2018-04-12 | カシオ計算機株式会社 | Image reproduction device, imaging device, image reproduction method, and program |
| JP2018523386A (en) * | 2015-06-23 | 2018-08-16 | フェイスブック,インク. | Streaming media presentation system |
| US10652606B2 (en) | 2015-06-23 | 2020-05-12 | Facebook, Inc. | Streaming media presentation system |
-
2009
- 2009-05-13 JP JP2009116634A patent/JP2010268128A/en not_active Withdrawn
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015027052A (en) * | 2013-07-29 | 2015-02-05 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
| US9661283B2 (en) | 2014-12-24 | 2017-05-23 | Panasonic Intellectual Property Management Co., Ltd. | Wearable camera |
| US10356369B2 (en) | 2014-12-24 | 2019-07-16 | Panasonic Intellectual Property Management Co., Ltd. | Wearable camera |
| JP5849195B1 (en) * | 2014-12-26 | 2016-01-27 | パナソニックIpマネジメント株式会社 | Wearable camera system and imaging method |
| WO2016125434A1 (en) * | 2015-02-06 | 2016-08-11 | パナソニックIpマネジメント株式会社 | Wearable camera and image capturing system |
| JP2016146549A (en) * | 2015-02-06 | 2016-08-12 | パナソニックIpマネジメント株式会社 | Wearable camera and imaging system |
| JP2018523386A (en) * | 2015-06-23 | 2018-08-16 | フェイスブック,インク. | Streaming media presentation system |
| US10652606B2 (en) | 2015-06-23 | 2020-05-12 | Facebook, Inc. | Streaming media presentation system |
| US10659835B2 (en) | 2015-06-23 | 2020-05-19 | Facebook, Inc. | Streaming media presentation system |
| US11405676B2 (en) | 2015-06-23 | 2022-08-02 | Meta Platforms, Inc. | Streaming media presentation system |
| US11563997B2 (en) | 2015-06-23 | 2023-01-24 | Meta Platforms, Inc. | Streaming media presentation system |
| JP2018061239A (en) * | 2016-09-28 | 2018-04-12 | カシオ計算機株式会社 | Image reproduction device, imaging device, image reproduction method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20250216747A1 (en) | Image pickup device and method of tracking subject thereof | |
| JP5967473B2 (en) | Imaging apparatus and imaging system | |
| US9245389B2 (en) | Information processing apparatus and recording medium | |
| US9927948B2 (en) | Image display apparatus and image display method | |
| US8199221B2 (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
| US9094597B2 (en) | Imaging apparatus and imaging system | |
| US20140123015A1 (en) | Information processing system, information processing apparatus, and storage medium | |
| CN104065879B (en) | Camera device and image capture method | |
| KR20190080779A (en) | Electronic apparatus and method for controlling the same | |
| JP5991514B2 (en) | Imaging apparatus and imaging system | |
| CN104954644B (en) | Photographic equipment, camera shooting observation device, image compare display methods and system | |
| KR20190080780A (en) | Electronic apparatus and method for controlling same | |
| JP2010268128A (en) | Control apparatus, imaging apparatus, imaging system, image acquisition method and program | |
| JP7094815B2 (en) | Display control device, control method of display control device, program, storage medium | |
| JP2010268127A (en) | Controller, imaging apparatus, imaging system, image acquisition method, and program | |
| CN115552892B (en) | Remote operation device and its program | |
| JP2022137136A (en) | Display device | |
| JP2012124767A (en) | Imaging apparatus | |
| JP2024098310A (en) | Electronic device, control method thereof, and program | |
| JP2009100371A (en) | Image display apparatus and recording / reproducing apparatus | |
| JP2021069045A (en) | Display control device, display control method, program, and storage media | |
| US20230269483A1 (en) | Electronic device and electronic device control method | |
| JP6375114B2 (en) | Image reproducing apparatus and method for controlling image reproducing apparatus | |
| JP4841447B2 (en) | Image identification device | |
| JP2012216936A (en) | Imaging apparatus and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120807 |