JP2011078008A - Content sharing apparatus, content editing apparatus, content sharing program, and content editing program - Google Patents
Content sharing apparatus, content editing apparatus, content sharing program, and content editing program Download PDFInfo
- Publication number
- JP2011078008A JP2011078008A JP2009229741A JP2009229741A JP2011078008A JP 2011078008 A JP2011078008 A JP 2011078008A JP 2009229741 A JP2009229741 A JP 2009229741A JP 2009229741 A JP2009229741 A JP 2009229741A JP 2011078008 A JP2011078008 A JP 2011078008A
- Authority
- JP
- Japan
- Prior art keywords
- content
- information
- shooting
- unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】共有コンテンツについて、被写体を確実に特定でき、構図、およびカメラワークを容易に管理する。
【解決手段】コンテンツ共有装置20は、撮影装置により撮影されたコンテンツとメタデータとを関連付けてコンテンツデータとして記憶するコンテンツ記憶部202と、コンテンツデータを読み出してメタデータを抽出するメタデータ抽出部203と、メタデータに含まれる撮影位置情報と撮影方向情報と撮影距離情報とに基づいてコンテンツに映る被写体の被写体位置を求めるとともに、撮像面サイズとメタデータに含まれる撮影距離情報と焦点距離とズーム倍率とに基づいて被写体を撮影した撮影範囲サイズを求めて被写体サイズを求めるメタデータ解析部205と、撮影位置情報と被写体位置と撮影範囲サイズとをコンテンツに関連づけて記憶するコンテンツ関連情報記憶部204とを備えた。
【選択図】図5An object of the present invention is to identify a subject with certainty and easily manage composition and camera work.
A content sharing device 20 associates content captured by a photographing device with metadata and stores it as content data, and a metadata extraction unit 203 that reads content data and extracts metadata. And determining the subject position of the subject in the content based on the shooting position information, shooting direction information, and shooting distance information included in the metadata, as well as the imaging surface size, shooting distance information, focal length, and zoom included in the metadata. A metadata analysis unit 205 that obtains a shooting range size by shooting a subject based on the magnification and obtains the subject size, and a content related information storage unit 204 that stores shooting position information, a subject position, and a shooting range size in association with the content. And equipped with.
[Selection] Figure 5
Description
本発明は、コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラムに関する。 The present invention relates to a content sharing device, a content editing device, a content sharing program, and a content editing program.
近年、デジタルスチルカメラおよびデジタルビデオカメラ(これらをデジタルカメラと呼ぶ。)の普及や、撮像データを記録する記録媒体の低コスト化等に伴い、デジタルカメラのユーザは、旅行等の行楽のみならず日常生活においても多数の写真や映像を撮影して、そのコンテンツデータを様々なシーンに活用する機会が増えてきた。特に、デジタルカメラの搭載されたカメラ機能付携帯電話機の普及によって、写真や映像の撮影および活用は生活の中により多く取り入れられるようになった。このカメラ機能付携帯電話機の分野においては、GPS(Global Positioning System)、加速度センサ、および磁気センサを搭載した携帯端末も製品化されている。この携帯端末は、写真や映像の撮影場所や撮影方向等に関する情報を取得することができるため、コンテンツデータの活用の幅を広げることができる。 In recent years, with the spread of digital still cameras and digital video cameras (referred to as digital cameras) and the cost reduction of recording media for recording image data, users of digital cameras are not only traveling for vacations and the like. Opportunities to take many photographs and videos in daily life and use the content data in various scenes have increased. In particular, with the widespread use of mobile phones with camera functions equipped with digital cameras, photography and video capture and utilization have become more common in daily life. In the field of camera-equipped mobile phones, mobile terminals equipped with GPS (Global Positioning System), acceleration sensors, and magnetic sensors have been commercialized. Since this portable terminal can acquire information related to the shooting location and shooting direction of photos and videos, the range of utilization of content data can be expanded.
コンテンツデータの活用に関し、近年では、CGM(Consumer Generated Media)と呼ばれる、個人の情報発信をメディア化したWebサイトの利用が盛んである。また、インターネットには、写真共有サイトや動画共有サイトが開設されている。これら写真共有サイトや動画共有サイトは、写真や映像の保有者である一般ユーザからアップロードされた写真(静止画データ)や映像(動画データ)を、他のユーザが閲覧したり、利用許可を得ることを条件としてダウンロードしたりすることができるサイトである。CGMのユーザは、コンテンツデータをダウンロードして利用可能なサイトからコンテンツデータを取得して利用することもある。 With regard to utilization of content data, in recent years, a website called CGM (Consumer Generated Media) that uses personal information transmission as media has been actively used. There are also photo sharing sites and video sharing sites on the Internet. These photo sharing sites and video sharing sites allow other users to view photos (still image data) and videos (video data) uploaded from general users who are the owners of photos and videos, and obtain permission to use them. It is a site that can be downloaded on the condition. A CGM user may acquire and use content data from a site available by downloading the content data.
これら写真共有サイトや動画共有サイトに公開されたアマチュアクリエータの制作したコンテンツ、CGMで公開されたコンテンツには質の高いものが多い。これは、デジタルカメラ、編集装置、編集ソフトウェア等の高機能化や低価格化による普及だけでなく、撮影した写真や映像を編集して楽しむというスタイルが広まっていることを示すものである。 The content produced by amateur creators published on these photo sharing sites and video sharing sites and the content published on CGM are often high quality. This indicates not only the spread of digital cameras, editing devices, editing software, etc. due to higher functionality and lower prices, but also the widespread style of editing and enjoying photographed photos and videos.
CGMのアマチュアクリエータに対して、コンテンツの制作者としていわゆるプロと呼ばれるテレビ番組制作者は、撮影前の調査や取材を行って番組の構成およびシナリオを決定し、そのシナリオに基づいてカット割り、構図、カメラワーク、および被写体の動き等から、編集を考慮した様々な条件で多くの素材を撮影することが多い。また、テレビ番組制作者は、編集段階で新たな素材が必要になった場合に追加撮影を行うこともある。テレビ番組は、このような作業の繰り返しによって番組制作されることが一般的である。 A TV program producer called a professional as a content creator for CGM amateur creators conducts pre-shooting surveys and interviews to determine the composition and scenario of the program, and based on that scenario, cuts and composition In many cases, many materials are photographed under various conditions in consideration of editing, such as camera work and subject movement. In addition, a TV program producer may perform additional shooting when a new material is required at the editing stage. A television program is generally produced by repeating such operations.
プロまたはアマチュアクリエータに限らず、写真や映像を編集して1つのコンテンツを完成させるために、複数の素材の中から制作意図に適した素材を選択して所望の順番に並べるという作業が必要である。現在、静止画データのメタデータフォーマットとしてEXIF(EXchangeable Image File format)が知られており、撮影日時、解像度、撮影場所等の撮影に関する情報をフォーマット化して写真の静止画データに付加して管理するものである。また、映像データについては、放送局等プロユースのコンテナフォーマットとしてMXF(Material eXchange Format)が知られており、EXIFと同様に、映像データを、撮影に関するメタデータとともに管理することができる。 In order to complete a single content by editing photos and videos, not just professional or amateur creators, it is necessary to select materials suitable for the production intention from multiple materials and arrange them in the desired order. is there. Currently, EXIF (EXchangeable Image File format) is known as a metadata format of still image data, and information related to shooting such as shooting date / time, resolution, shooting location, etc. is formatted and managed by adding it to still image data of a photo. Is. As for video data, MXF (Material eXchange Format) is known as a professional use container format such as a broadcasting station. Like EXIF, video data can be managed together with metadata related to shooting.
これらのメタデータを利用すれば、コンテンツデータを容易に検索することができる。例えば、メタデータ中の時間属性を用いて多数のコンテンツデータの中から所望のコンテンツデータを検索するコンテンツ管理技術が知られている(例えば、特許文献1参照)。
また、写真共有サイトの中には、EXIFデータに記述されたGPSの位置情報を使用して投稿された写真を地図上に表示させ、簡単なナビゲーションを行う写真データの共有サイトがある。
By using these metadata, content data can be easily searched. For example, a content management technique for searching for desired content data from a large number of content data using a time attribute in metadata is known (see, for example, Patent Document 1).
Among the photo sharing sites, there is a photo data sharing site that displays photos posted using GPS location information described in EXIF data on a map and performs simple navigation.
コンテンツ制作において、アマチュアクリエータが単独で、プロの制作者と同様の制作手法を用いてコンテンツを制作することは、コストや手間の観点から難しい。例えば、旅行先で撮影した写真や映像を素材として使用したコンテンツ作品の制作において、撮影したときとは違う構図で撮影された素材が必要となった場合に、再び旅行先まで出かけて行って撮影し直すことは非現実的である。このような場合に、特許文献1に開示された技術を用いたり二次利用可能な写真共有サイトを利用したりすれば、他人のアップロードした写真データをダウンロードして編集に使用することができる。
In content production, it is difficult for an amateur creator to produce content by using the same production method as a professional producer from the viewpoint of cost and labor. For example, in the production of a content work that uses photos and videos taken at a travel destination as materials, if you need a material shot with a composition that is different from the shot, go back to the travel destination and take a picture. It is unrealistic to redo. In such a case, if the technique disclosed in
しかしながら、特許文献1に開示された技術や写真共有サイト等のコンテンツ共有技術では、コンテンツに付加されたEXIFデータを用いて写真の撮影日時や撮影場所を特定することはできるが、そのEXIFデータからは被写体が何であるかを特定することが難しく、確実に所望の被写体が撮影された写真を取得することは困難である。
However, with the technology disclosed in
また、写真は撮影時の一瞬の状況をとらえたものであるため、コンテンツの内容とEXIFデータの内容とは一致する。しかし、映像には時間的な幅があり、被写体および撮影装置のうち少なくとも一方の動きがあり得るため、EXIFデータを用いた管理方法ではコンテンツの内容を十分に示すことができない。また、EXIFデータからは、構図やカメラワークに関する情報を取得することができない。 Further, since the photograph captures the instantaneous situation at the time of shooting, the content content and the EXIF data content match. However, since the video has a time width and there may be movement of at least one of the subject and the photographing device, the management method using EXIF data cannot sufficiently show the content. Also, information regarding composition and camera work cannot be acquired from the EXIF data.
さらに、複数の素材をつなぎ合わせて作品性のあるコンテンツを作成する場合に、各素材の被写体に注目するだけでなく、構図、カメラワーク、季節、時間帯等の要素についての素材間の関係性を考慮することが、コンテンツ全体の質を高めたりその作品性を表現したりするために重要である。しかし、従来は、素材をつなぎ合わせてコンテンツを作成する際に、各種要素についての素材間の関係性を考慮したコンテンツデータの取得を行うことができなかった。 In addition, when creating content with workability by connecting multiple materials, not only pay attention to the subject of each material, but also the relationship between materials regarding elements such as composition, camera work, season, time zone, etc. Is important for improving the quality of the entire content and expressing its work. However, conventionally, when creating content by connecting materials, it has not been possible to acquire content data in consideration of the relationship between materials for various elements.
そこで、本発明は、上記問題に鑑みてなされたものであり、共有されるコンテンツデータについて、各コンテンツの被写体を確実に特定できるとともに、構図、およびカメラワークに係る情報を容易に管理することができ、また、素材を組み合わせてコンテンツデータを作成する場合に、各種要素についての素材間の関係性を考慮したコンテンツデータの取得要求および提示を行うことのできる、コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and for content data to be shared, the subject of each content can be reliably identified, and information relating to composition and camera work can be easily managed. Content sharing device, content editing device, content that can be requested and presented for content data considering the relationship between materials for various elements when creating content data by combining materials An object is to provide a shared program and a content editing program.
上記の課題を解決するため、本発明の一態様は、以下[1]−[6]の手段を提供するものである。
[1] コンテンツ共有装置は、撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、を備えたことを特徴とする。
ここで、撮影位置情報とは、例えば、撮影装置の位置である緯度、経度、および高度の情報である。また、撮影方向情報とは、撮影装置の光学系の光軸の方位角、および水平面に対する傾斜角の情報である。
メタデータ解析部は、例えば、抽出した撮影距離情報(被写体距離L)、撮影位置情報(撮影装置の緯度、経度、および高度h1)、撮影方向情報(傾斜角θ1、方位角θ2)の情報に基づいて、被写体位置(緯度、経度、および高度h2)を次のようにして求める。なお、傾斜角θ1は、水平面に直交する面であって撮影装置の光学系の光軸を含む面における、水平面に対する光軸の傾斜角度である。傾斜角θ1の値は、水平面に対して上方向の傾斜角を正とし、下方向の傾斜角を負とする。また、方位角θ2は、後述する平面直角座標系において、X軸の正方向を基準とし、反時計回りの角度である。
つまり、メタデータ解析部は、被写体位置の高度h2を、被写体距離Lと、傾斜角θ1と、撮像装置の高度h1とに基づいて求める。また、メタデータ解析部は、撮影装置の緯度・経度を平面直角座標系の座標値(x1,y1)に変換し、この座標値(x1,y1)と、平面直角座標平面上における撮影装置と被写体との間の距離(L・cosθ1)と、方位角θ2とに基づいて、被写体の座標値(x2,y2)を求め、さらに被写体の緯度・経度を求める。
また、メタデータ解析部は、撮影装置に搭載された撮像素子の撮像面サイズ、焦点距離、および被写体距離に基づいて、焦点の合った平面(被写体がある場所)における撮影範囲の面積である撮影範囲サイズを計算することにより、撮影された画像における被写体サイズを得る。一例としては、メタデータ解析部は、同一の被写体を撮影した様々なコンテンツデータにおける撮影範囲サイズを分類することにより、被写体サイズの種類を得る。すなわち、被写体サイズは、撮影距離に関する構図を表わす。
In order to solve the above problems, one aspect of the present invention provides the following means [1]-[6].
[1] The content sharing apparatus stores the content photographed by the photographing apparatus, the photographing position information, the photographing direction information, the photographing distance information, the focal distance, and the zoom magnification that are obtained by the photographing apparatus in association with each other. The content storage unit, the metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit, and the metadata extraction unit extracted Based on the photographing position information, the photographing direction information, and the photographing distance information, the subject position of the subject shown in the content is obtained, and the photographing surface size of the photographing device and the photographing distance extracted from the metadata extraction unit. Based on the information, the focal length, and the zoom magnification, a shooting range size for shooting the subject is obtained, and the obtained A metadata analysis unit for obtaining a subject size based on a photographing range size, the photographing position information extracted by the metadata extraction unit, and the subject position and the subject size obtained by the metadata analysis unit, respectively. And a content-related information storage unit that stores the content-related information as a content-related information.
Here, the shooting position information is, for example, information on latitude, longitude, and altitude, which is the position of the shooting apparatus. The shooting direction information is information on the azimuth angle of the optical axis of the optical system of the shooting apparatus and the tilt angle with respect to the horizontal plane.
The metadata analysis unit includes, for example, information on the extracted shooting distance information (subject distance L), shooting position information (latitude, longitude, and altitude h1 of the shooting apparatus) and shooting direction information (tilt angle θ1, azimuth angle θ2). Based on this, the subject position (latitude, longitude, and altitude h2) is obtained as follows. The inclination angle θ1 is an inclination angle of the optical axis with respect to the horizontal plane in a plane orthogonal to the horizontal plane and including the optical axis of the optical system of the photographing apparatus. With respect to the value of the inclination angle θ1, the upward inclination angle with respect to the horizontal plane is positive, and the downward inclination angle is negative. Further, the azimuth angle θ2 is a counterclockwise angle with respect to the positive direction of the X axis in the planar rectangular coordinate system described later.
That is, the metadata analysis unit obtains the altitude h2 of the subject position based on the subject distance L, the inclination angle θ1, and the altitude h1 of the imaging device. Further, the metadata analysis unit converts the latitude / longitude of the imaging device into coordinate values (x1, y1) in the plane rectangular coordinate system, and the coordinate values (x1, y1) and the imaging device on the plane rectangular coordinate plane Based on the distance (L · cos θ1) to the subject and the azimuth angle θ2, the coordinate value (x2, y2) of the subject is obtained, and the latitude and longitude of the subject are further obtained.
In addition, the metadata analysis unit captures an area of the imaging range in a focused plane (where the subject is located) based on the imaging surface size, focal length, and subject distance of the imaging device mounted on the imaging device. By calculating the range size, the subject size in the captured image is obtained. As an example, the metadata analysis unit obtains the type of subject size by classifying the shooting range size in various content data obtained by shooting the same subject. That is, the subject size represents a composition related to the shooting distance.
[2] 上記[1]記載のコンテンツ共有装置は、前記メタデータ解析部は、前記コンテンツが動画データである場合に、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記コンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向をさらに求め、前記コンテンツ関連情報記憶部は、前記メタデータ解析部が求めた撮影動作および撮影動作方向を前記コンテンツ関連情報に含めて記憶することを特徴とする。
ここで、撮影装置の撮影動作とは、例えば、固定、ズームイン/アウト、チルト、パンである。撮影動作方向とは、チルトの場合は下から上方向またはその逆方向、パンの場合は左から右またはその逆方向である。
コンテンツデータに含まれる動画データには1つまたは複数のシーンが含まれており、各シーンの開始フレーム画像および終了フレーム画像それぞれにメタデータを対応させるようにする。メタデータ解析部は、開始フレーム画像に対応するメタデータと終了フレーム画像に対応するメタデータとにおける、ズーム率、撮影装置の緯度、経度、高度、方位角、および傾斜角の差分を計算して撮影動作および撮影動作方向を求める。
[2] In the content sharing apparatus according to [1], when the content is moving image data, the metadata analysis unit is configured to extract the shooting position information, the shooting direction information, and the shooting direction information extracted by the metadata extraction unit. Based on the shooting distance information, the focal length, and the zoom magnification, a shooting operation and a shooting operation direction of the shooting device with respect to a subject shown in the content are further obtained, and the content-related information storage unit includes the metadata analysis unit. The obtained shooting operation and shooting operation direction are included in the content-related information and stored.
Here, the photographing operation of the photographing apparatus is, for example, fixing, zooming in / out, tilting, and panning. The shooting operation direction is from bottom to top in the case of tilt or vice versa, and from left to right in the case of pan or vice versa.
The moving image data included in the content data includes one or more scenes, and metadata is associated with each of the start frame image and the end frame image of each scene. The metadata analysis unit calculates the difference between the zoom rate, the latitude, longitude, altitude, azimuth angle, and tilt angle of the imaging device between the metadata corresponding to the start frame image and the metadata corresponding to the end frame image. The shooting operation and the shooting operation direction are obtained.
[3] 上記[2]記載のコンテンツ共有装置は、静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を受信する要求情報受信部と、受信した前記提示要求情報から取出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記第1のコンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向を求めるとともに、前記撮影距離情報と前記焦点距離と前記ズーム倍率と前記第1のコンテンツに対応する撮像面サイズとに基づいて前記第1のコンテンツに対応する撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求める要求情報解析部と、前記要求情報解析部が求めた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と、前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶するルールデータベース部と、前記要求情報解析部が求めた前記第1のコンテンツに対応する前記撮影範囲サイズと前記撮影動作と前記撮影動作方向とに基づいて前記ルールデータベース部を参照して前記第2のコンテンツの特徴を求め、該特徴に一致するコンテンツ関連情報を前記コンテンツ関連情報記憶部から選出して、選出された前記コンテンツ関連情報に基づいて提示情報を生成する提示情報生成部と、前記生成した提示情報を、前記提示要求情報の送信側に送信する提示情報送信部と、を備えたことを特徴とする。 [3] The content sharing apparatus according to [2] described above includes shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification corresponding to the first content that is still image data or moving image data. Based on the request information receiving unit that receives the presentation request information including the shooting position information, the shooting direction information, the shooting distance information, the focal distance, and the zoom magnification extracted from the received presentation request information, Based on the shooting distance information, the focal length, the zoom magnification, and the imaging plane size corresponding to the first content, the shooting operation and the shooting operation direction of the shooting apparatus with respect to the subject reflected in the first content are obtained. To obtain a shooting range size corresponding to the first content, and to obtain a subject size based on the obtained shooting range size A first information feature, which is represented by the subject size, the photographing operation, and the photographing operation direction obtained by the information analyzing unit, the request information analyzing unit, and the first content before or after the first content. A rule database unit that stores the relationship between the content features of the second content, the shooting range size corresponding to the first content obtained by the request information analysis unit, the shooting operation, and the shooting operation direction. A feature of the second content is obtained with reference to the rule database unit, content related information matching the feature is selected from the content related information storage unit, and presentation information is selected based on the selected content related information. A presentation information generation unit for generating, and a presentation information transmission unit for transmitting the generated presentation information to the transmission side of the presentation request information. And features.
[4] コンテンツ編集装置は、静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、を備えたことを特徴とする。 [4] The content editing apparatus displays presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data. A presentation request information generation unit to be generated and the presentation request information generated by the presentation request information generation unit are transmitted, and the presentation request information and the first content received on the reception side of the presentation request information are transmitted. Based on the corresponding imaging surface size, a shooting operation and a shooting operation direction of the shooting apparatus for the subject reflected in the first content and a subject size corresponding to the first content are obtained, and the obtained subject size is obtained. And the feature of the first content represented by the shooting operation and the shooting operation direction, and before or after the first content. The feature database of the second content is obtained by referring to the rule database section that stores the relationship with the feature of the second content, and the content related information that matches the feature is selected. And a communication unit that receives the transmitted presentation information when instruction information is generated and transmitted based on the content related information.
[5] コンテンツ共有プログラムは、コンピュータを、撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、として機能させる。 [5] The content sharing program causes the computer to associate the content captured by the imaging device, the imaging position information, the imaging direction information, the imaging distance information, the focal length, and the zoom magnification at the time of imaging acquired by the imaging device. A content storage unit that stores the metadata, a metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit, and the metadata extraction unit The subject position of the subject shown in the content is obtained based on the shooting position information, the shooting direction information, and the shooting distance information extracted by the camera, and is extracted from the imaging surface size of the shooting apparatus and the metadata extraction unit. Shooting range in which the subject is shot based on the shooting distance information, the focal length, and the zoom magnification A metadata analysis unit for obtaining a subject size based on the obtained shooting range size, the shooting position information extracted by the metadata extraction unit, the subject position obtained by the metadata analysis unit, and A content-related information storage unit that stores the subject size in association with the content as content-related information;
[6] コンテンツ編集プログラムは、コンピュータを、静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、として機能させる。 [6] The content editing program presents the computer including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data. A presentation request information generation unit that generates request information, and the presentation request information generated by the presentation request information generation unit, and at the reception side of the presentation request information, the received presentation request information and the first Based on the imaging surface size corresponding to the content, the photographing operation and the photographing operation direction of the photographing device for the subject shown in the first content and the subject size corresponding to the first content are obtained and obtained Features of the first content and the first container represented by the subject size, the shooting operation, and the shooting operation direction. The feature of the second content is obtained by referring to the rule database section storing the relationship with the feature of the second content to be connected before or after the item, and the content related information matching the feature is selected, Further, when instruction information is generated and transmitted based on the selected content-related information, the communication unit functions as a communication unit that receives the transmitted presentation information.
本発明によれば、共有されるコンテンツデータについて、各コンテンツの被写体を確実に特定できるとともに、撮影距離に関する構図である被写体サイズ、およびカメラワークに係る情報を容易に管理することができる。また、本発明によれば、素材を組み合わせてコンテンツデータを作成する場合に、各種要素についての素材間の関係性を考慮したコンテンツデータの取得要求および提示を行うことができる。
よって、本発明によれば、コンテンツ制作の効率性を向上させ、コンテンツ作品の質を向上させることができる。
According to the present invention, it is possible to reliably specify the subject of each content in the content data to be shared, and to easily manage the subject size, which is a composition related to the shooting distance, and information relating to camera work. Further, according to the present invention, when content data is created by combining materials, it is possible to make a content data acquisition request and presentation in consideration of the relationship between materials for various elements.
Therefore, according to the present invention, the efficiency of content production can be improved and the quality of the content work can be improved.
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。図1は、本発明の一実施形態を適用したコンテンツ共有システムの全体構成図である。同図に示すように、コンテンツ共有システム1は、ネットワーク40を介してそれぞれ接続された、撮影装置10−1,10−2,10−3(それぞれを指して撮影装置10と呼ぶ。)と、コンテンツ共有装置20と、編集装置(コンテンツ編集装置)30−1,30−2(それぞれを指して編集装置30と呼ぶ。)とを含んで構成される。
なお、撮影装置10は、1つでも任意の複数でもよい。撮影装置10が複数ある場合、各撮影装置10の使用者は、全部または一部において同一人であってもよい。編集装置30も同様に、1つでも任意の複数でもよい。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is an overall configuration diagram of a content sharing system to which an embodiment of the present invention is applied. As shown in the figure, the
In addition, the
撮影装置10は、写真撮影モードまたは映像撮影モードに設定されて、写真または映像を撮影するデジタルカメラである。撮影装置10は、撮影したコンテンツごとに、被写体距離、焦点距離、ズーム率、撮影日時等の撮影情報を取得して管理する。
The
また、撮影装置10は、自装置の撮影位置(緯度、経度、高度)を示す撮影位置情報と、撮影方向(方位角、傾斜角)を示す撮影方向情報とを取得する機能を備える。そして、撮影装置10は、撮影情報、撮影位置情報、および撮影方向情報を含むメタデータを生成し、撮影した写真データまたは映像データに付加してコンテンツデータを生成する。撮影装置10は、そのコンテンツデータを、ネットワーク40を介してコンテンツ共有装置20にアップロードしたり、ネットワーク40に接続された他の情報処理装置(不図示)に転送したりする。
なお、撮影装置10のコンテンツデータを上記他の情報処理装置にオフラインで複製した後、その情報処理装置からそのコンテンツデータをコンテンツ共有装置20にアップロードするようにしてもよい。
In addition, the photographing
In addition, after the content data of the
コンテンツ共有装置20は、アップロードされたコンテンツデータを記憶するとともに、コンテンツに付加されたメタデータを解析して、その被写体、構図、カメラワークを特定し、コンテンツデータと関連づけて記憶する。但し、カメラワークを特定して記憶するのは、コンテンツが映像の場合に限る。
また、コンテンツ共有装置20は、編集装置30からのコンテンツ候補の提示要求に対して、この提示要求内容に一致するコンテンツ候補を抽出して提示したり、編集装置30からのコンテンツ要求に対して、指定されたコンテンツデータを供給したりする。
編集装置30は、撮影装置10から供給されたコンテンツデータや、コンテンツ共有装置20からダウンロードしたコンテンツデータを用いて、映像や写真によるコンテンツのノンリニア編集を行う。
ネットワーク40は、例えば、IP(Internet Protocol)によって通信可能な通信網であり、インターネットもしくはイントラネット、またはその両方を含むものである。ネットワーク40は、無線通信または有線通信を問わない。
The
Further, the
The
The
次に、コンテンツ共有システム1の撮影装置10、コンテンツ共有装置20、および編集装置30について、より詳細な構成について説明する。図2は、撮影装置10の機能構成を示すブロック図である。同図に示すように、撮影装置10は、光学系101と、撮像部102と、画像処理部103と、測位部104と、方位角測定部105と、傾斜角測定部106と、メタデータ生成部107と、送信部108とを含んで構成される。
Next, a more detailed configuration of the
撮像部102は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を含み、レンズ群および焦点調整部を含む光学系101によって撮像素子の撮像面に結像された被写体像を撮像する。そして、撮像部102は、撮像画像を電気信号である撮像画像信号に変換して画像処理部103に供給する。また、撮像部102は、撮影情報を取得してメタデータ生成部107に供給する。
画像処理部103は、撮像画像信号をデジタル画像データに変換し、データ圧縮処理を行って圧縮画像データを生成する。また、画像処理部103は、デジタル画像データを所望の倍率で拡大または縮小させることによってデジタルズーム処理を行う。また、画像処理部103は、メタデータ生成部107から供給されたメタデータを圧縮画像データに付加してコンテンツデータを生成し送信部108に供給する。送信部108は、コンテンツデータをIPパケットに変換してコンテンツ共有装置20に対して送信する。
The
The
測位部104は、例えばGPS機能を備えており、当該撮影装置10の位置を示す経度、経度、高度を測定し撮影位置情報としてメタデータ生成部107に供給する。方位角測定部105は、例えば磁気センサであり、地磁気を基準にして光学系101の光軸の方位角を検出しメタデータ生成部107に供給する。方位角は、地磁気の北方向を0度として時計回りに角度をふったものである。傾斜角測定部106は、例えば3軸加速度センサであり、水平面に直交する面であって光学系101の光軸を含む面における、水平面に対する光軸の傾斜角を検出してメタデータ生成部107に供給する。メタデータ生成部107に供給される方位角および傾斜角を撮影方向情報と呼ぶ。
The
メタデータ生成部107は、メタデータを生成して画像処理部103に供給する。つまり、メタデータ生成部107は、撮像部102から撮影情報を取得し、測位部104から撮影位置情報を取得し、方位角測定部105および傾斜角測定部106から撮影方向情報を取得してメタデータを生成し画像処理部103に供給する。
The
図3は、メタデータ生成部107が生成するメタデータのデータフォーマットの例を示した図である。同図に示すように、メタデータは、撮影情報と位置・方向情報とを含む。そして、撮影情報は、被写体距離、焦点距離、被写体場所、ズーム率、撮影日時、および機種情報を含む。被写体距離(撮影距離情報)は、光学系101の焦点調整部が有する自動焦点機構によって測定される距離である。焦点距離は、光学系101のレンズ群の光学的な焦点距離である。被写体場所は、不図示の操作部の操作によって手入力されたり、外部からの通信によって入力されたりするテキスト情報である。この被写体場所は、任意入力項目である。ズーム率は、撮影装置10がデジタルズーム処理したときのズーム倍率である。撮影日時は、撮像部102が撮像したときに、不図示の内部時計によって計時した日時情報である。機種情報は、撮影装置10の機種名または型番の情報である。
また、同図において、位置・方向情報は、緯度、経度、高度、方位角、および傾斜角を含む。この位置・方向情報における緯度、経度、および高度は、前記の撮影位置情報である。また、位置・方向情報における方位角および傾斜角は前記の撮影方向情報である。
なお、メタデータのフォーマットとして、日本電子工業振興協会(JEIDA)で規格化されたEXIF、またはSMPTE規格によって定義されたMXFを適用することができる。
FIG. 3 is a diagram illustrating an example of a data format of metadata generated by the
Further, in the same figure, the position / direction information includes latitude, longitude, altitude, azimuth angle, and tilt angle. The latitude, longitude, and altitude in the position / direction information are the shooting position information. Further, the azimuth angle and the inclination angle in the position / direction information are the shooting direction information.
As a metadata format, EXIF standardized by the Japan Electronics Industry Promotion Association (JEIDA) or MXF defined by the SMPTE standard can be applied.
メタデータ生成部107は、写真のコンテンツデータには、1つの写真データに1つのメタデータを対応させる。一方、メタデータ生成部107は、映像のコンテンツデータには、所定のフレーム画像(例えば、モーションJPEGの場合。)または所定のGOP(Group Of Pictures)(例えば、MPEGの場合)に1つのメタデータを対応づけるようにする。これは、1つの映像データに1つのメタデータを対応させた場合に、長時間の撮影による映像や複数のシーンで構成される映像が1つの映像データになっていると、その映像の内容とメタデータの属性情報との間に不一致が生じることがあるため、写真のコンテンツデータとは違う対応づけをするものである。
The
メタデータ生成部107は、例えば、次のようにして映像データとメタデータとの対応づけを行う。図4は、映像データとメタデータとの対応関係を模式的に示した図である。同図は、1つの映像データが2つのシーン(シーン1およびシーン2)で構成された例を示すものであり、シーン1の先頭フレーム画像をフレーム画像F1s、最終フレーム画像をフレーム画像F1eとし、シーン2の先頭フレーム画像をフレーム画像F2s、最終フレーム画像をフレーム画像F2eとしている。このようなフレーム構成の映像データに対して、メタデータ生成107は、4つのメタデータを対応づける。つまり、メタデータ生成部107は、フレーム画像F1sにメタデータMD1s、フレーム画像F1eにメタデータMD1e、フレーム画像F2sにメタデータMD2s、フレーム画像F2eにメタデータMD2eを対応づける。
なお、メタデータ生成部107は、シーン単位でメタデータを対応づけてもよい。
For example, the
Note that the
次に、コンテンツ共有装置20の構成について説明する。図5は、コンテンツ共有装置20の機能構成を示すブロック図である。同図に示すように、コンテンツ共有装置20は、コンテンツデータ登録部21と提示部22とを含んで構成される。コンテンツデータ登録部21は、アップロードされたコンテンツデータを記憶するとともに、コンテンツに付加されたメタデータを解析して被写体、構図、コンテンツが映像である場合のカメラワークを特定し、これらコンテンツ関連情報をコンテンツデータに関連づけて記憶する。提示部22は、編集装置30からのコンテンツ候補の提示要求に対して、この提示要求内容に一致するコンテンツ候補を抽出して提示したり、編集装置30からのコンテンツ要求に対して、指定されたコンテンツデータを供給したりする。
Next, the configuration of the
コンテンツデータ登録部21は、コンテンツ受信部201と、コンテンツ記憶部202と、メタデータ抽出部203と、コンテンツ関連情報記憶部204と、メタデータ解析部205とを含んで構成される。
The content
コンテンツ受信部201は、撮影装置10やその他の情報処理装置からアップロード送信されたコンテンツデータを受信する。コンテンツ記憶部202は、コンテンツ受信部201で受信したコンテンツデータを記憶する。コンテンツ記憶部202は、コンテンツデータのコンテンツの種類に応じて、写真(静止画データ)のコンテンツデータを静止画データ記憶部202aに記憶し、映像(動画データ)のコンテンツデータを動画データ記憶部202bに記憶する。コンテンツ記憶部202は、例えばハードディスク装置を用いて構成される。静止画データ記憶部202aと動画データ記憶部202bとは物理的に分離された2つのコンテンツ記憶部として構成してもよいが、コンテンツ記憶部202を単一のハードディスク装置で構成して、静止画データ記憶部202aと動画データ記憶部202bとをパーティションで論理的に区分してもよい。
The
メタデータ抽出部203は、コンテンツ記憶部202からコンテンツデータを読み出して、そのコンテンツデータに付加されているメタデータを抽出する。
コンテンツ関連情報記憶部204は、メタデータ抽出部203で抽出されたメタデータとメタデータ解析部205で解析された情報とを、コンテンツ記憶部202に記憶されたコンテンツデータに関連付けてコンテンツ関連情報として記憶する。
The
The content related information storage unit 204 associates the metadata extracted by the
図6は、コンテンツ関連情報記憶部204に記憶されたコンテンツ関連情報のデータ構成を示す図である。同図において、コンテンツ関連情報は、コンテンツIDと、記憶先アドレスと、種別と、撮影日時と、撮影位置(場所・名称)と、撮影位置(緯度)と、撮影位置(経度)と、撮影位置(高度)と、被写体(場所・名称)と、被写体位置(緯度)と、被写体位置(経度)と、被写体位置(高度)と、被写体サイズと、撮影動作と、撮影動作方向との各データ項目を含み、コンテンツIDを主キーとしてデータ構成されている。
なお、同図は、図面の都合上コンテンツ関連情報を上下2段に分割して示しているが、実際のコンテンツ関連情報は、上下のレコードが※部分で連結された単一のテーブルである。
FIG. 6 is a diagram illustrating a data configuration of content related information stored in the content related information storage unit 204. In the figure, content-related information includes content ID, storage destination address, type, shooting date / time, shooting position (location / name), shooting position (latitude), shooting position (longitude), and shooting position. (Altitude), subject (location / name), subject position (latitude), subject position (longitude), subject position (altitude), subject size, shooting operation, and shooting operation direction The data is structured with the content ID as the primary key.
In the figure, for convenience of drawing, the content related information is divided into upper and lower two stages, but the actual content related information is a single table in which upper and lower records are connected by * part.
図6の撮影日時、撮影位置(緯度)、撮影位置(経度)、撮影位置(高度)、および被写体(場所・名称)の各項目の情報は、それぞれ、メタデータ抽出部203で抽出されたメタデータにおける撮影日時、緯度、経度、高度、および被写体場所である。コンテンツIDは、コンテンツ関連情報のレコードとコンテンツ記憶部202に記憶されたコンテンツデータとを対応づける識別子である。記憶先アドレスは、コンテンツ記憶部202におけるコンテンツデータの記憶先アドレス情報である。種別は、コンテンツの種類を示したものであり、“写真”または“映像”のいずれかの値を取る。この種別は、コンテンツデータのファイルヘッダに記録されたコンテンツ属性から得られる情報である。また、種別は、静止画データ記憶部202aおよび動画データ記憶部202bにおける記憶先アドレスに基づいて得られるものであってもよい。撮影位置(場所・名称)は、不図示の操作部によって書き込まれるテキスト情報である。また、撮影位置(場所・名称)は、撮影位置(緯度、経度、高度)の各項目の情報に基づいて外部の地図データベースから得られるものであってもよい。被写体(場所・名称)についても、撮影位置(場所・名称)と同様にして得られるものである。被写体位置(緯度、経度、高度)、被写体サイズ、撮影動作、および撮影動作方向の各項目の情報は、メタデータ解析部205による解析の結果得られる情報である。
The information of each item of the shooting date / time, shooting position (latitude), shooting position (longitude), shooting position (altitude), and subject (location / name) in FIG. 6 is extracted by the
図5の説明に戻り、メタデータ解析部205は、メタデータ抽出部203で抽出されたメタデータの撮影日時、緯度、経度、高度、および被写体場所の各情報を、コンテンツ関連情報の撮影日時、撮影位置(緯度、経度、高度)、および被写体(場所・名称)の各項目にそれぞれ記録してコンテンツ関連情報記憶部204に登録する。
また、メタデータ解析部205は、メタデータを解析して、被写体の位置を表す緯度、経度、および高度、ならびに、撮影範囲サイズを分類することによって得られた被写体サイズ、撮影動作、および撮影動作方向の情報を、それぞれ、コンテンツ関連情報の被写体位置(緯度、経度、高度)、被写体サイズ、撮影動作、および撮影動作方向の各項目に記録してコンテンツ関連情報記憶部204に登録する。
Returning to the description of FIG. 5, the
Further, the
具体的には、例えば、メタデータ解析部205は、撮影装置10の緯度および経度から平面直角座標系の座標値(x1,y1)を求める。なお、緯度・経度と平面直角座標系の座標値との相互変換の計算方法については、周知技術であるためここではその説明を省略する。
次に、メタデータ解析部205は、撮影装置10と被写体との距離である被写体距離Lと、撮影装置10の座標値(x1,y1)と、撮影装置10の高度h1と、傾斜角θ1と、方位角θ2とに基づいて、被写体の平面直角座標系の座標値(x2,y2)と高度h2とを下記の式(1)によって計算する。なお、傾斜角θ1は、水平面に直交する面であって撮影装置10の光学系101の光軸を含む面における、水平面に対する光軸の傾斜角度である。また、方位角θ2は、X軸の正方向を基準として反時計回りの角度である。
Specifically, for example, the
Next, the
つまり、メタデータ解析部205は、被写体位置の高度h2を、被写体距離Lと、傾斜角θ1と、撮像装置の高度h1とに基づいて求める。また、メタデータ解析部205は、撮影装置10の緯度・経度を平面直角座標系の座標値(x1,y1)に変換し、被写体の緯度に相当する平面直角座標系の座標値x2を、撮影装置10と被写体との平面直角座標平面上における距離(L・cosθ1)と、方位角θ2と、撮影装置10の座標値x1とに基づいて求める。そして、これと同様にして、メタデータ解析部205は、被写体の経度に相当する平面直角座標系の座標値y2を、撮影装置10と被写体との平面直角座標平面上における距離(L・cosθ1)と、方位角θ2と、撮影装置10の座標値y1とに基づいて求める。
メタデータ解析部205は、式(1)による計算の後、被写体の座標値(x2,y2)から被写体の緯度・経度を求める。
That is, the
The
また、メタデータ解析部205は、焦点の合った平面(すなわち、被写体の存在する場所)における撮影範囲の面積を用いて撮影範囲サイズを計算する。図7は、メタデータ解析部205による撮影範囲サイズの計算を説明するための図である。同図を参照して説明すると、メタデータ解析部205は、式(2)によって撮影範囲71の撮影幅W及び撮影高Hを計算し、撮影範囲71の撮影面積SSを計算する。この撮影面積SSが撮影範囲サイズである。式(2)において、SWは、撮影幅Wに対応する撮像素子の撮像面72の幅寸法(撮像面幅、撮像面サイズ)であり、SHは、撮影高Hに対応する撮像面72の高さ寸法(撮像面高、撮像面サイズ)である。また、SDは被写体距離であり、FLは焦点距離であり、ZRはズーム率である。
In addition, the
すなわち、メタデータ解析部205は、撮像素子の撮像面72の撮像面サイズと、焦点距離と被写体距離との比率と、ズーム率とに基づいて、被写体の存在する場所における撮影範囲71の面積を算出する。なお、式(2)における被写体距離SD、焦点距離FL、およびズーム率ZRは、メタデータの撮影情報から得られる被写体距離、焦点距離、およびズーム率である。また、撮像素子の撮像面幅SWおよび撮像面高SHは、メタデータ解析部205がメタデータの撮影情報に記述された機種情報に基づいて得る値である。つまり、メタデータ解析部205は、撮影装置の機種名とその撮影装置に搭載された撮像素子の種類と撮像面72のサイズとを対応付けた撮影装置対撮像素子テーブルを予め記憶しておき、メタデータの機種情報に記述された機種名を検索キーとして撮影装置対撮像素子テーブルから撮像面72のサイズを取得する。
但し、メタデータ解析部205は、被写体距離SD=∞(無限大)である場合は、式(2)の計算を行わない。
That is, the
However, the
そして、メタデータ解析部205は、同一の被写体が撮影された複数のコンテンツデータを、被写体距離SDと撮影面積SSとに基づいて分類する。例えば、メタデータ解析部205は、被写体距離SDが無限大であるコンテンツデータのみの集合(ロング)を作成する。そして、その集合(ロング)を除き、撮影面積SSの最大値と最小値との差分を計算し、所定の分類数(例えば、撮影距離に関する構図であるミドル、ルーズ、フル、ニー、およびアップに分類する場合は分類数=5)で除算して5つの集合を作成する。つまり、メタデータ解析部205は、被写体サイズの種類として、ロング、ミドル、ルーズ、フル、ニー、及びアップの6種類にコンテンツデータを分類する。
Then, the
また、メタデータ解析部205は、メタデータ抽出部203で抽出したメタデータが映像のコンテンツに係るものである場合、そのメタデータに基づいてカメラワークを特定する。カメラワークとは、映像のコンテンツにおける、被写体に対する撮影装置10の撮影動作および撮影動作方向である。撮影動作とは、例えば、固定、ズームイン/アウト、チルト、パンである。撮影動作方向とは、例えば、チルトの場合は上/下方向であり、パンの場合は左/右方向である。
例えば、図4に示したシーン1の例においては、メタデータ解析部205は、メタデータMD1sとメタデータMD1eとの差分を求め、被写体に対して撮影装置10が傾斜角0度から傾斜角40度までチルトアップしているという撮影動作および撮影動作方向を特定する。さらに、メタデータ解析部205は、同様にしてズーム率、緯度、経度、高度、および方位角についても差分を求め、同図のシーン1の例においては、被写体に対してズーム動作およびパン動作を行っていないという撮影動作を特定する。
In addition, when the metadata extracted by the
For example, in the example of the
再び図5の説明に戻り、コンテンツ共有装置20の提示部22は、通信部211と、要求情報受信部212と、要求情報解析部213と、提示情報生成部214と、ルールデータベース部215と、提示情報送信部216と、コンテンツ送信部217と、認証部218とを含んで構成される。
Returning to the description of FIG. 5 again, the
通信部211は、編集装置30との間で通信を行い、編集装置30から送信された提示要求情報またはコンテンツ要求情報を受信し、また提示要求情報の応答である提示情報もしくはコンテンツ要求情報の応答であるコンテンツデータを送信する通信インタフェースである。要求情報受信部212は、通信部211で受信された提示要求情報またはコンテンツ要求情報を受信する。認証部218は、要求情報受信部212が受信した提示要求情報またはコンテンツ要求情報の送信者および編集装置30を認証する。
The
要求情報解析部213は、認証部218によって認証された提示要求情報またはコンテンツ要求情報を要求情報受信部212から受信するとそれらを分類する。そして、要求情報解析部213は、提示要求情報についてはその内容を解析して被写体の位置、構図、撮影装置10の撮影動作を特定し、コンテンツ要求情報についてはそれに含まれるコンテンツIDをコンテンツ送信部217に供給する。編集装置30から供給される提示要求情報およびコンテンツ要求情報の詳細については後述する。
When the request
提示情報生成部214は、要求情報解析部213の解析結果とルールデータベース部215とに基づいて、コンテンツ関連情報記憶部204の中から候補となるコンテンツデータのコンテンツIDを選択し、このコンテンツIDをキーとしてコンテンツ記憶部202からコンテンツデータを選択して提示情報を生成する。この提示情報は、選択したコンテンツデータがどのような内容のコンテンツであるかということについて視覚的に確認することができるよう、選択したコンテンツデータからデータ量の少ない提示用コンテンツを作成したものである。
The presentation
図8は、提示情報生成部214が生成する提示情報のデータ構成を示した図である。同図に示すように、提示情報は、ヘッダと、利用情報と、提示用コンテンツとを含んで構成されるコンテナファイルであり、1コンテンツデータあたり1コンテナファイルである。ヘッダには、コンテンツデータの識別情報であるコンテンツIDと、コンテンツ共有装置20に付与された固有の識別情報であるコンテンツ共有装置IDとが含まれる。利用情報には、提示用コンテンツに対応するメタデータと、利用条件と、課金情報とを含む、コンテンツデータを利用するための情報が含まれる。利用条件とは、提示用コンテンツに対応するコンテンツデータを利用するための条件を示したものであり、回数制限、時間制限、内容制限等様々な態様の条件を適用できる。例えば、回数制限として、コンテンツ共有装置20からのダウンロード回数の制限や、編集装置30側での複製回数の制限がある。また、時間制限として、初回ダウンロード時からの利用時間の制限がある。さらに、内容制限として、コンテンツデータ自体の編集を許可/不許可にする制限がある。
FIG. 8 is a diagram illustrating a data configuration of the presentation information generated by the presentation
課金情報は、提示用コンテンツに対応するコンテンツデータを、編集装置30のユーザが利用するために必要な料金を規定したものである。提示用コンテンツには、サムネイル画像または低解像度映像が含まれる。サムネイル画像は、コンテンツデータが静止画データである場合には、その静止画データから生成したサムネイルであり、コンテンツデータが映像データである場合には、その映像中の代表画像から生成したサムネイルである。低解像度映像は、コンテンツデータが映像データである場合に、画像の解像度を映像データの解像度よりも低くしてエンコード処理し、また再生時間長を提示用の一定時間に制限した映像コンテンツである。
The billing information defines a fee required for the user of the
再び図5の説明に戻り、ルールデータベース部215は、要求情報解析部213における解析結果に基づいて、提示情報生成部214が提示するコンテンツを決定するためのルールを管理するデータベースである。ルールデータベース部215には、コンテンツ制作における編集のノウハウやテクニックをルール化した情報が記憶される。
Returning to the description of FIG. 5 again, the
具体的には、ルールデータベース部215は、ショットマトリクス215aと、ルールテーブル215bとを含んで構成される。ショットマトリクス215aは、撮影装置10における構図の種類と、撮影装置10の撮影動作と撮影動作方向との組み合わせの種類との二次元マトリクスによって、コンテンツの撮影に関する特徴を分類し記憶したものである。提示情報生成部214は、要求情報解析部213で特定した構図と撮影装置10の撮影動作と撮影動作方向とを用いてショットマトリクス215aを参照し、コンテンツの撮影に関する特徴を抽出することができる。
ルールテーブル215bは、時間的に連続する複数のコンテンツの次または前に並べるのに適切なコンテンツの候補を選出するためのテーブルである。テーブルの内容は、1つまたは複数のコンテンツの撮影に関する特徴の入力列に対して、コンテンツ制作における編集のノウハウやテクニックのルールを反映した、次または前につなげるコンテンツ候補の撮影に関する特徴を1つまたは複数出力するものである。
Specifically, the
The rule table 215b is a table for selecting content candidates suitable for arranging next to or before a plurality of temporally continuous content. The contents of the table reflect one or more features relating to the shooting of content candidates to be connected to the next or previous, reflecting the rules of editing know-how and techniques in content production for the input sequence of features relating to shooting of one or more contents. Or a plurality of outputs.
コンテンツ制作における編集のノウハウやテクニックのルールとは、映像制作技法やプロの映像制作者の映像制作のノウハウに基づき、構図、撮影動作、もしくは撮影動作方向のうち任意の組み合わせの変更をルール化したものである。例えば、被写体の構図としてアップショットの次に再度アップショットが続いた場合には、次はルーズに変えるとか、撮影動作としてズームインした次にはアップにするといったような、どのような素材をつなぎ合わせれば見やすい映像になるかということを体系化したものである。また、連続した同方向へのパン動作等、通常見にくい映像になりそうな撮影動作を除外することも体系化の重要な要素である。 Editing know-how and technique rules in content production are rules for changing any combination of composition, shooting operation, or shooting operation direction based on video production techniques and video production know-how of professional video producers. Is. For example, if an up shot is followed by an up shot as the composition of the subject, what materials can be connected, such as changing to loose next, or up after zooming in as a shooting operation, etc. This systematizes whether the video will be easy to see. Another important element of systematization is to exclude shooting operations that are likely to be difficult to see, such as continuous panning in the same direction.
図9は、ルールデータベース部215に含まれるショットマトリクス215aおよびルールテーブル215bのデータ構成図である。同図(a)はショットマトリクスのデータ構成例であり、同図(b)はルールテーブルのデータ構成例である。同図(a)のショットマトリクスは、「1 ロング」、「2 ミドル」等の構図の種類と、「A 固定」、「B パン(右→左)」等の撮影動作および撮影動作方向の組み合わせの種類との二次元マトリクス表によってコンテンツの撮影に関する特徴を分類したものである。
同図(b)のルールテーブルは、「ルールID」=“000002”である行を例にとると、コンテンツの撮影に関する特徴が“2A”,“5F”である2つのコンテンツを並べたときに(「Input1」=“2A”、「Input2」=“5F”)、次につなぎ合わせるコンテンツの特徴として、“5A”,“4A”がその候補(「Output1」=“5A”、「Output2」=“4A”)として得られることを示している。「Output1,Output2,・・・」の順番は、提示すべきコンテンツデータの優先順位の高い方からの順番に対応する。
FIG. 9 is a data configuration diagram of the shot matrix 215a and the rule table 215b included in the
In the rule table of FIG. 7B, taking a line with “rule ID” = “000002” as an example, when two contents whose characteristics regarding content shooting are “2A” and “5F” are arranged. (“Input1” = “2A”, “Input2” = “5F”), and “5A” and “4A” are candidates (“Output1” = “5A”, “Output2” = “4A”). The order of “Output1, Output2,...” Corresponds to the order from the highest priority of the content data to be presented.
再び図5の説明に戻り、提示情報送信部216は、提示要求情報を送信した編集装置30に対して、通信部211を通して提示情報を送信する。コンテンツ送信部217は、コンテンツ要求情報に含まれるコンテンツIDをキーとしてコンテンツ記憶部202からコンテンツデータを読み出し、コンテンツ要求情報を送信した編集装置30に対して、通信部211からコンテンツデータを送信させる。
Returning to the description of FIG. 5 again, the presentation
次に、編集装置30について説明する。編集装置30は、撮影装置10や情報処理装置からコンテンツデータの供給を受けたり、コンテンツ共有装置20からコンテンツデータをダウンロードしたりして自装置内に格納し、これら格納した複数のコンテンツデータ(素材とも呼ぶ。)を用いてコンテンツの制作(編集)を行う装置である。
なお、編集装置30には、映像データ自体や静止画データ自体の画像処理機能、フェードやワイプ等の特殊効果処理機能、スーパ処理機能等の編集機能も備わっているが、これらの編集機能については周知技術であり本実施形態とは独立しているため、その説明を省略する。
Next, the
Note that the
本実施形態における編集処理の理解を容易なものにするため、編集装置30の構成を説明する前に、編集装置30の操作インタフェースについて説明する。図10は、編集装置30の操作インタフェースであるGUI(Graphical User Interface)の主要部を模式的に示した図である。同図に示すように、編集装置30の表示部(不図示)に表示されるGUI画面1000は、ソースモニタ1010と、プログラムモニタ1020と、タイムライン1030と、素材エリア1040と、提示要求エリア1050とを含んで構成される。そして、GUI画面1000上にはカーソル1060が表示される。GUI画面1000の各GUIパーツは、ポインティングデバイス(不図示)の操作に従って画面上自在に動かされるカーソル1060によって指定、決定、およびドラッグ&ドロップされる。
In order to facilitate the understanding of the editing process in the present embodiment, the operation interface of the
ソースモニタ1010は、素材エリア1040から選択された素材の内容を表示したり、スライダ1011の操作にしたがってシーンのイン/アウトのタイミングを設定したりするモニタ領域である。プログラムモニタ1020は、タイムライン1030で編集作業中のコンテンツ(編集コンテンツ)を表示するモニタ領域であり、スライダ1021の操作にしたがって編集コンテンツの所望のシーンを確認することができる。タイムライン1030は、コンテンツの編集作業領域であり、素材エリア1040からドラッグ&ドロップした素材を所望の順番に配置させて、コンテンツを制作する作業エリアである。図10の例のように、ビデオ1,2,3やオーディオ1,2のようにリソースごとに素材を配置することができる。そして、各タイムラインおよびタイムライン中の各領域は、ドラッグ&ドロップ動作によって任意に配置を変更することができる。同図は、ビデオ2のシーン1031がカーソル1060によって選択された状態を示している。
The source monitor 1010 is a monitor area that displays the content of the material selected from the
素材エリア1040は、編集装置30に格納された素材のサムネイル画像、アイコン、またはコンテンツ共有装置20から受信した提示情報の提示用コンテンツを表示する。図10において「Local」と記載されたものが編集装置30に格納された素材を表し、「Remote」と記載されたものが提示用コンテンツを表す。
The
提示要求エリア1050は、コンテンツ共有装置20に対してコンテンツデータの候補の提示要求を行う作業領域である。具体的には、提示要求エリア1050は、ポップアップメニュー形式のGUI領域であり、タイムライン1030から提示要求の元となるシーン(元シーン)や、素材エリア1040から提示要求の元となる素材(元素材)(但し、「Local」のみ)がドラッグ&ドロップされると、提示要求情報入力メニュー1051がポップアップ表示される。この提示要求情報入力メニュー1051には、条件設定の設定項目が表示される。提示要求情報入力メニュー1051の操作によって、元素材および元シーン(これらのコンテンツを元コンテンツと呼ぶ。)とどのような条件に一致するコンテンツデータを要求するかという提示要求が入力されたのち、決定キー1052がクリックされると提示要求の内容が決定され提示要求情報が生成される。提示要求情報およびこれの生成処理については、その詳細を後述する。
The
次に、編集装置30の構成について説明する。図11は、編集装置30の機能構成を示すブロック図である。以下、図10および図11を併せ参照して編集装置30の構成について説明する。図11に示すように、編集装置30は、操作部301と、コンテンツ再生部302と、コンテンツ情報表示部303と、コンテンツ編集部304と、コンテンツ関連情報記憶部305と、メタデータ抽出部306と、コンテンツ記憶部307と、コンテンツ受信部308と、条件設定部309と、提示要求情報生成部310と、コンテンツ要求情報生成部311と、ユーザ・端末情報管理部312と、通信部313とを含んで構成される。
Next, the configuration of the
操作部301は、編集装置30を操作するインタフェースであり、例えば、マウス等のポインティングデバイス、キーボード、リモコンである。操作部301によって、GUI画面1000上にカーソル1060が表示され、各GUIパーツが操作される。コンテンツ再生部302は、コンテンツ記憶部307に記憶されたコンテンツデータを再生する。GUI画面1000におけるソースモニタ1010およびプログラムモニタ1020がコンテンツ再生部302に対応する。コンテンツ情報表示部303は、コンテンツ記憶部307に記憶されたコンテンツデータやコンテンツ共有装置20から供給された提示情報の提示用コンテンツを表示する。また、コンテンツ情報表示部303はコンテンツ共有装置20から受信した提示情報を記憶する。GUI画面1000における素材エリア1040がコンテンツ情報表示部303に対応する。
The
コンテンツ編集部304は、コンテンツ記憶部307に記憶されたコンテンツデータを編集する。GUI画面1000におけるタイムライン1030がコンテンツ編集部304に対応する。コンテンツ関連情報記憶部305は、メタデータ抽出部306で抽出したメタデータを、コンテンツ記憶部307に記憶されたコンテンツデータに関連付けて記憶する。メタデータ抽出部306は、コンテンツ記憶部307に記憶されたコンテンツデータに付加されたメタデータを抽出する。
The
コンテンツ記憶部307は、撮影装置10や情報処理装置から取得したコンテンツデータや、コンテンツ共有装置20からダウンロードしたコンテンツデータを記憶する。コンテンツ記憶部307は、コンテンツデータのコンテンツの種類に応じて、写真のコンテンツデータを静止画データ記憶部307aに記憶し、映像のコンテンツデータを動画データ記憶部307bに記憶する。コンテンツ記憶部307は、例えばハードディスク装置を用いて構成される。静止画データ記憶部307aと動画データ記憶部307bとは物理的に分離された2つのコンテンツ記憶部として構成してもよいが、コンテンツ記憶部307を単一のハードディスク装置で構成して、静止画データ記憶部307aと動画データ記憶部307bとをパーティションで論理的に区分してもよい。
The
コンテンツ受信部308は、撮影装置10、情報処理装置、または記録媒体からコンテンツデータを取り込むインタフェースである。条件設定部309は、コンテンツ共有装置20に対してコンテンツデータの候補の提示要求を行う場合に、その要求するコンテンツデータの一致条件を設定する。つまり、元コンテンツとどのような条件に一致するコンテンツデータの候補を要求するかということを設定する。提示要求情報生成部310は、元コンテンツのメタデータをコンテンツ関連情報記憶部305から取得し、条件設定部309で一致条件の設定がされている場合はそれを条件設定部309から取得し、さらにユーザIDおよび当該編集装置30の装置IDをユーザ・端末情報管理部312から取得する。そして、提示要求情報生成部310は、取得した情報を含めた提示要求情報を生成し、通信部313から送信させる。GUI画面1000における提示要求エリア1050が、条件設定部309および提示要求情報生成部310に対応する。提示要求情報については、その詳細を後述する。
The
コンテンツ要求情報生成部311は、コンテンツ情報表示部303に表示された提示用コンテンツの中から編集者により選択された提示用コンテンツのコンテンツIDおよびコンテンツ共有装置IDを指定したコンテンツ要求情報を生成し、通信部313から送信させる。ユーザ・端末情報管理部312は、編集装置30のユーザの識別情報であるユーザIDと編集装置30の装置識別情報である装置IDとを記憶する。通信部313は、コンテンツ共有装置20との間で通信を行い、編集装置30に対して提示要求情報またはコンテンツ要求情報を送信し、また編集装置30から提示要求情報の応答である提示情報もしくはコンテンツ要求情報の応答であるコンテンツデータを受信する通信インタフェースである。
The content request information generation unit 311 generates content request information specifying the content ID and content sharing apparatus ID of the presentation content selected by the editor from the presentation content displayed on the content
次に、提示要求情報について説明する。提示要求情報は、ユーザ情報と、1つまたは複数の素材情報と、条件情報との3種類の情報を1つのデータファイルに格納したものである。但し、条件情報は任意情報である。データファイルは、例えば、ネットワーク通信に親和性の高いXML(eXtensible Markup Language)形式で記述する。なお、提示要求情報は、複数のデータファイルに区分されたものでもよいが、この場合は、各データファイルを関係づけるファイル識別情報を各データファイルに格納する。 Next, the presentation request information will be described. The presentation request information is obtained by storing three types of information including user information, one or more material information, and condition information in one data file. However, the condition information is arbitrary information. The data file is described in, for example, an XML (extensible Markup Language) format having high affinity for network communication. The presentation request information may be divided into a plurality of data files. In this case, file identification information relating each data file is stored in each data file.
図12は、提示要求情報生成部310が生成する提示要求情報のデータ構成図である。同図において、同図(a)はユーザ情報のデータ構成図、同図(b)は素材情報のデータ構成図、同図(c)は条件情報のデータ構成図である。同図(a)のユーザ情報は、コンテンツ共有装置20において認証に用いられる情報であり、ユーザIDと装置IDとを含む。提示要求情報生成部310は、ユーザ・端末情報管理部312からユーザIDと装置IDとを取得してユーザ情報を生成する。
FIG. 12 is a data configuration diagram of the presentation request information generated by the presentation request
図12(b)の素材情報は、コンテンツ共有装置20の要求情報解析部213における解析に用いられる情報であり、提示要求の元コンテンツのメタデータに基づいて生成されるものである。素材情報における「種別」は、素材情報が“静止画”(“写真”)であるか“映像”であるかが記述される。また、素材情報において「種別」が“映像”である場合の「from:」および「to:」は、元コンテンツの開始フレーム画像および終了フレーム画像における各メタデータの情報であることを示す。このように管理することによって、元コンテンツにおける撮影装置10の動きや撮影装置10と被写体の関係を表現することができる。
なお、素材情報において「種別」が“静止画”(“写真”)である場合は、1つのメタデータがあればよいので、上記のごとく「from:」および「to:」を区別して記述する必要はなく、「from=to:」と記述するか、「from:」および「to:」を記述しないようにする。
The material information in FIG. 12B is information used for analysis in the request
When the “type” in the material information is “still image” (“photo”), there is only one metadata, so that “from:” and “to:” are described separately as described above. There is no need, and “from = to:” is described, or “from:” and “to:” are not described.
図12(c)の条件情報は、コンテンツ共有装置20の提示情報生成部214においてコンテンツ候補の抽出に用いられる情報であり、条件設定部309で設定された、元コンテンツとコンテンツ候補との一致条件に基づいて生成されるものである。同図(c)において、“1”が設定されている項目は一致条件が組まれたことを意味し、“0”が設定されている項目は一致条件が組まれていないことを意味する。
The condition information in FIG. 12C is information used for extracting content candidates in the presentation
図12(c)において、被写体の「対象」とは被写体場所を指す。また、例えば、「サイズ」=“1”は、元コンテンツに映っている被写体について、被写体のサイズ(ルーズ、アップ等)が同一であるという条件を意味する。また、「時間帯」=“1”および「季節」=“1”は、被写体を撮影した時間帯および季節が同一であるという条件を意味する。「時間帯」は、例えば、午前、午後、および夜間の時間帯に分けたり、3時間ごとに時間帯を区切ったりして、予め時間帯の定義を決めておく。「季節」は、例えば、3月から5月を春、6月から8月を夏、9月から11月を秋、12月から2月を冬として、年の分割を定義しておく。 In FIG. 12C, the “target” of the subject refers to the subject location. For example, “size” = “1” means that the subject size (loose, up, etc.) is the same for the subject shown in the original content. Further, “time zone” = “1” and “season” = “1” mean that the time zone and season in which the subject is photographed are the same. The “time zone” is defined in advance by dividing the time zone into, for example, morning, afternoon, and night time zones, or dividing the time zone every three hours. The “season” defines, for example, division of years, with March to May as spring, June to August as summer, September to November as autumn, and December to February as winter.
次に、コンテンツ共有システム1の動作について説明する。ここでは、コンテンツ共有システム1の主要な動作として、編集装置30の「提示要求処理」、「コンテンツデータ要求処理」、およびコンテンツ共有装置20の「提示処理」に分けて説明する。なお、提示処理については、その一部の処理を抜き出した「コンテンツデータ候補の選出処理」を説明する。
Next, the operation of the
編集装置30は、コンテンツ記憶部307に記憶されたコンテンツデータを用いて、図10に示すGUI画面1000の操作に従ってコンテンツのノンリニア編集を行う。編集者は、例えば次のようにしてGUI画面1000を操作してコンテンツの編集作業を行う。編集者は、操作部301を操作して、素材エリア1040にある所望のサムネイル画像またはアイコン(但し、「Local」と記載されたものに限る。)をソースモニタ1010にドラッグ&ドロップしてコンテンツ(素材)をソースモニタ1010に表示させる。
このようにして、編集者は可視化された素材の内容を確認し、コンテンツ編集に用いる素材が見つかった場合は、その素材のサムネイル画像またはアイコンを素材エリア1040からタイムライン1030にドラッグ&ドロップして編集コンテンツに取り入れる。編集者は、このような作業を、素材の内容、時間条件、構図、素材が映像コンテンツである場合はカメラワーク等を考慮しながら適宜繰り返して行う。
編集コンテンツに取り入れたいコンテンツデータがコンテンツ記憶部307に記憶されていない場合、編集装置30は、コンテンツ共有装置20に対してコンテンツ候補の提示要求を行う。次に、この提示要求処理について説明する。
The
In this way, the editor checks the contents of the visualized material, and when a material used for content editing is found, drag and drop the thumbnail image or icon of the material from the
When the content data desired to be incorporated into the edited content is not stored in the
[提示要求処理]
図13は、編集装置30が実行する提示要求処理の手順を示すフローチャートである。ステップS101において、提示要求情報生成部310は、編集者のGUI画面1000の操作によって、提示要求の元となるシーンまたは素材である元コンテンツを選択する。編集者による元コンテンツの選択は次のようにして行われる。図10のGUI画面1000において、タイムライン1030におけるビデオ2のシーン1032の次に配置するシーンのコンテンツデータを取得したい場合、編集者は、シーン1031を提示要求エリア105にドラッグ&ドロップし、次にシーン1032を提示要求エリア1050にドラッグ&ドロップする。提示要求情報生成部310は、シーン1031,1032のドロップ動作によって、2つの元シーンがシーン1031→シーン1032の順番にあることを認識する。
[Presentation request processing]
FIG. 13 is a flowchart showing the procedure of the presentation request process executed by the
次に、ステップS102において、提示要求情報生成部310は、編集者のGUI画面1000の操作において、一致条件を設定する操作がされた場合(S102:YES)はステップS103の処理に移り、一致条件を設定する操作がされない場合(S102:NO)はステップS104の処理に移る。つまり、提示要求情報生成部310は、最初のドロップ動作であるシーン1031のドロップ動作に基づいて、提示要求エリア1050に提示要求情報入力メニュー1051をポップアップ表示させる。そして、編集者による操作によって提示要求情報入力メニュー1051の設定項目が操作された場合は、提示要求情報生成部310は制御を条件設定部309に渡してステップS103の処理に移る。一方、提示要求情報入力メニュー1051のいずれの設定項目も操作されず決定キー1052が選択された場合は、一致条件は設定されずステップS104の処理に移る。
Next, in step S102, the presentation request
ステップS103において、条件設定部309は、提示要求するコンテンツ候補に対する一致条件を設定する。つまり、条件設定部309は、編集者による提示要求情報入力メニュー1051の設定項目および決定キー1052の操作によって、シーン1031,1032と提示要求するコンテンツ候補との一致条件を設定する。具体的には、条件設定部309は、提示要求情報入力メニュー1051の各設定項目(「種別」、「被写体」、「撮影時間」等)が選択操作されるたびに、当該項目の一致条件を“1”にしたり“0”にしたりする。そして、条件設定部309は、決定キー1052が選択ることによって一致条件の設定を終了して提示要求情報生成部310に制御を戻す。
In step S103, the
ステップS104において、提示要求情報生成部310は、元コンテンツのメタデータをコンテンツ関連情報記憶部305から読み出して素材情報を生成する。また、提示要求情報生成部310は、条件設定部309で一致条件の設定がされている場合は、それを条件設定部309から取得して条件情報を生成する。さらに、提示要求情報生成部310は、ユーザIDおよび当該編集装置30の装置IDをユーザ・端末情報管理部312から取得してユーザ情報を生成する。そして、提示要求情報生成部310は、生成したユーザ情報、素材情報、および条件情報を1つのデータファイルに格納して提示要求情報を生成する。提示要求情報のデータフォーマットは図12に示すものである。
In step S104, the presentation request
次に、ステップS105において、提示要求情報生成部310は、コンテンツ共有装置20を指定して、提示要求情報を通信部313から送信させる。次に、ステップS106において、コンテンツ共有装置20から提示情報が送信されると、編集装置30の通信部313はその提示情報を受信してコンテンツ情報表示部303に供給する。次に、ステップS107において、コンテンツ情報表示部303は、提示情報を記憶する。GUI画面1000においては、素材エリア1040に提示用コンテンツが「Remote」として表示される。
Next, in step S <b> 105, the presentation request
[コンテンツデータ要求処理]
次に、編集装置30のコンテンツデータ要求処理について説明する。編集装置30のコンテンツ情報表示部303に提示情報が記憶されている状態、つまりGUI画面1000の素材エリア1040に提示用コンテンツが「Remote」として表示されている状態において、操作部301の操作によって提示用コンテンツが選択されると、編集装置30はコンテンツデータ要求処理を実行する。
図14は、編集装置30が実行するコンテンツデータ要求処理の手順を示すフローチャートである。ステップS201において、コンテンツ情報表示部303は、操作部301によって提示用コンテンツが選択されるとステップS202の処理に移る。この操作は、GUI画面1000の素材エリア1040に表示された提示用コンテンツ(「Remote」と記載されたもの。)が操作部301によって選択されることを示す。
[Content data request processing]
Next, content data request processing of the
FIG. 14 is a flowchart illustrating a procedure of content data request processing executed by the
次に、ステップS202において、コンテンツ要求情報生成部311は、選択された提示用コンテンツのコンテンツIDとコンテンツ共有装置IDとをコンテンツ情報表示部303から読み出し、ユーザIDおよび当該編集装置30の装置IDをユーザ・端末情報管理部312から読み出してコンテンツ要求情報を生成する。次に、ステップS203において、コンテンツ要求情報生成部311は、コンテンツ要求情報を通信部313から送信させる。次に、ステップS204において、コンテンツ共有装置20からコンテンツデータが送信されると、編集装置30の通信部313はその提示情報を受信してコンテンツ記憶部307に供給する。次に、ステップS205において、コンテンツ記憶部307は、通信部313から供給されたコンテンツデータを記憶する。
Next, in step S202, the content request information generation unit 311 reads the content ID and content sharing device ID of the selected presentation content from the content
[提示処理]
次に、コンテンツ共有装置20の提示処理について説明する。コンテンツ共有装置20は、編集装置30から提示要求情報を受信するとその内容を解析し、提示要求の元素材または元シーンである元コンテンツとの関連性のあるコンテンツ候補を選出して提示情報を生成し、この提示情報を提示要求情報の送信元である編集装置30に対して送信する。また、コンテンツ共有装置20は、編集装置30からコンテンツ要求情報を受信すると、指定されたコンテンツデータをコンテンツ要求情報の送信元である編集装置30に対して送信する。
[Presentation processing]
Next, the presentation process of the
図15は、コンテンツ共有装置20が実行する提示処理の手順を示すフローチャートである。ステップS301において、通信部211は、編集装置30から送信された提示要求情報またはコンテンツ要求情報の要求情報を受信すると、この要求情報を要求情報受信部212に供給する。次に、ステップS302において、認証部218は、要求情報受信部212が受信した要求情報からユーザ情報を読み出して認証する。認証部218による認証に成功した場合(S303:YES)は、要求情報受信部212は、要求情報を要求情報解析部213に供給してステップS304の処理に移行する。一方、認証部218による認証に失敗した場合(S303:NO)は、このフローチャートの処理を終了する。
FIG. 15 is a flowchart showing the procedure of the presentation process executed by the
ステップS304において、要求情報解析部213は、供給された要求情報すなわち提示要求情報またはコンテンツ要求情報を識別し、提示要求情報である場合はステップS305の処理に移り、コンテンツ要求情報である場合はステップS309の処理に移る。
In step S304, the request
ステップS305において、要求情報解析部213は、提示要求情報から複数の素材情報を取り出し、素材情報ごとに内容を解析して被写体の位置、構図、撮影装置10の撮影動作等を特定する。具体的には、要求情報解析部213は、素材情報の被写体距離および位置・方向情報(撮影装置10の緯度、経度、高度、方位角、および傾斜角)に基づいて、前述した式(1)によって被写体の位置を計算する。また、要求情報解析部213は、前述したメタデータ解析部205が撮影範囲サイズを計算してコンテンツデータを分類分けした方法を用いて被写体サイズを求める。さらに、要求情報解析部213は、素材情報のズーム率および位置・方向情報について、各項目の開始フレーム画像でのデータと終了フレーム画像でのデータとの差分を求めて、撮影装置10の撮影動作を特定する。
In step S305, the request
次に、ステップS306において、提示情報生成部214は、要求情報解析部213の解析結果とルールデータベース部215とに基づいて、コンテンツデータ登録部21のコンテンツ関連情報記憶部204から、コンテンツ候補のコンテンツIDを取得する。このステップS306の処理については、後述するコンテンツデータ候補の選出処理の説明で詳しく述べる。
Next, in step S306, the presentation
次に、ステップS307において、提示情報生成部214は、ステップS306の処理において選出されたコンテンツ候補のコンテンツデータIDを検索キーとしてコンテンツ記憶部202からコンテンツデータを読出して提示情報を生成する。具体的には、提示情報生成部214は、読み出したコンテンツデータが静止画データである場合は、画像サイズのリサイズとともにデータ圧縮処理を行ってサムネイル画像を生成する。また、読み出したコンテンツデータが映像データである場合は、その映像の代表画像からサムネイル画像を生成したり、画像の解像度を映像データの解像度よりも低くしてエンコード処理し、再生時間長を提示用の一定時間に制限して低解像度映像を生成したりする。そして、提示情報生成部214は、図8に示したヘッダ、利用情報、および生成した提示用コンテンツを含めて提示情報を生成する。次に、ステップS308において、提示情報送信部216は、提示要求情報の送信元である編集装置30を指定して、提示情報を通信部211から送信させる。
Next, in step S307, the presentation
一方、ステップS309において、コンテンツ送信部217は、コンテンツ要求情報に含まれるコンテンツIDを検索キーとしてコンテンツ記憶部202からコンテンツデータを読み出す。次に、ステップS310において、コンテンツ送信部217は、コンテンツ要求情報の送信元である編集装置30に対して、コンテンツデータを通信部211から送信させる。
On the other hand, in step S309, the
[コンテンツデータ候補の選出処理]
次に、ステップS306の処理をさらに詳細に説明する。図16は、コンテンツ共有装置20が実行するコンテンツデータ候補の選出処理の手順を示すフローチャートである。ステップS401において、提示情報生成部214は、要求情報解析部213の解析結果である素材情報ごとの構図および撮影動作をルールデータベース部215のショットマトリクス215aに代入して元コンテンツごとの特徴を抽出する。
[Content data candidate selection process]
Next, the process of step S306 will be described in more detail. FIG. 16 is a flowchart showing a content data candidate selection process performed by the
この処理について、要求情報解析部213から出力された解析結果が、元コンテンツAについての構図(ミドル)および撮影動作(固定)と、元コンテンツBについての構図(アップ)および撮影動作(ズームイン)とであり、ルールデータベース215として図9に示したルールデータベースを使用した場合を例として具体的に説明する。ステップS401において、提示情報生成部214は、要求情報解析部213の解析結果である元コンテンツAについての(構図,撮影動作)=(ミドル,固定)をルールデータベース部215のショットマトリクス215aに代入して特徴“2A”を抽出する。次に、提示情報生成部214は、元コンテンツBについての(構図,撮影動作)=(アップ,ズームイン)をルールデータベース部215のショットマトリクス215aに代入して特徴“5F”を抽出する。
With respect to this processing, the analysis result output from the request
次に、ステップS402において、提示情報生成部214は、ショットマトリクス215aの抽出結果を用いてルールデータベース部215のルールテーブル215bの入力列を参照し、コンテンツ制作における編集のノウハウやテクニックのルールが反映されたコンテンツ候補の特徴を1つまたは複数抽出する。具体的には、提示情報生成部214は、図9(a)のショットマトリクスから抽出した特徴“2A”および“5F”を用いて同図(b)のルールテーブルの入力列を参照し、一致する入力列として「ルールID」=“000002”の行を検索する。そして、提示情報生成部214は、当該行の出力列からコンテンツ候補の特徴として「Output1」=“5A”,「Output2」=“4A”を抽出する。同図(b)のコンテンツ候補の特徴は、Output1の方がOutput2よりも提示すべき優先順位が高い。
Next, in step S402, the presentation
次に、ステップS403において、提示情報生成部214は、提示要求情報に条件情報があるか否かを判定し、条件情報があると判定した場合はステップS404の処理に移り、条件情報がないと判定した場合はステップS405の処理に移る。
Next, in step S403, the presentation
ステップS404において、提示情報生成部214は、ルールテーブル215bから抽出したコンテンツ候補の特徴と条件情報とを用いてコンテンツ関連情報記憶部24を参照し、コンテンツ関連情報から、コンテンツ候補の特徴と条件情報中の一致条件の設定された項目とについて一致するコンテンツについてのコンテンツIDを1つまたは複数抽出する。複数抽出される場合は、コンテンツ候補の特徴の優先順位に応じてコンテンツIDにも提示すべき優先順位がつけられる。
In step S404, the presentation
ステップS405において、提示情報生成部214は、ルールテーブル215bから抽出したコンテンツ候補の特徴を用いてコンテンツ関連情報記憶部24を参照し、コンテンツ関連情報から、コンテンツ候補の特徴について一致するコンテンツについてのコンテンツIDを1つまたは複数抽出する。複数抽出される場合は、コンテンツ候補の特徴の優先順位に応じてコンテンツIDにも提示すべき優先順位がつけられる。
In step S405, the presentation
以上説明したとおり、本実施形態のコンテンツ共有装置は、アップロードされたコンテンツデータに含まれた、撮影情報、撮影位置情報、および撮影方向情報を含むメタデータより、被写体の位置、撮影範囲サイズ(構図)、撮影装置の撮影動作、および撮影動作方向を求めて、コンテンツとともに管理することができる。
また、本実施形態が適用された編集装置は、複数の素材をつなぎ合わせてコンテンツの制作・編集を行う場合に、1つの素材または既につなぎ合わせた複数の素材の次または前につなげる素材を取得するために、既に編集コンテンツに用いている1つまたは複数の素材(元コンテンツ)に関する素材情報に基づき生成した提示要求情報をコンテンツ共有装置に対して送信する。
また、本実施形態のコンテンツ共有装置は、編集装置から提示要求情報が供給されると、それに含まれる1つまたは複数の元コンテンツに関する素材情報と、コンテンツ制作における編集のノウハウやテクニックをルール化した情報とに基づいて、元コンテンツと関係性のあるコンテンツ候補の提示を行うことができる。
さらに、本実施形態のコンテンツ共有装置は、コンテンツ候補の提示を行った後、編集装置からコンテンツの要求があると、その要求に基づいてコンテンツデータを提供することができる。
As described above, the content sharing apparatus according to the present embodiment uses the metadata including the shooting information, the shooting position information, and the shooting direction information included in the uploaded content data to determine the position of the subject, the shooting range size (composition). ), The photographing operation and photographing direction of the photographing device can be obtained and managed together with the content.
In addition, the editing apparatus to which the present embodiment is applied acquires a material that is connected to the next or previous one material or a plurality of already connected materials when content is created and edited by connecting a plurality of materials. In order to do this, presentation request information generated based on material information on one or more materials (original content) already used for edited content is transmitted to the content sharing apparatus.
In addition, when the presentation request information is supplied from the editing device, the content sharing device according to the present embodiment has ruled material information regarding one or more original contents included therein and editing know-how and techniques in content production. Based on the information, it is possible to present content candidates related to the original content.
Furthermore, after a content candidate is presented, the content sharing apparatus according to the present embodiment can provide content data based on the request when the content is requested from the editing apparatus.
したがって、本実施形態によれば、コンテンツ共有装置は、コンテンツデータに含まれる被写体と、被写体に対する撮影装置のカメラワークとを確実に管理することができる。そして、コンテンツ共有装置を利用する編集装置は、コンテンツ制作・編集において、編集装置にあるローカルなコンテンツデータと関係性をもったコンテンツを、コンテンツ共有装置から容易に取得することができ、作品性の高いコンテンツの制作を効率よく行うことができる。 Therefore, according to the present embodiment, the content sharing apparatus can reliably manage the subject included in the content data and the camera work of the photographing apparatus with respect to the subject. An editing device that uses a content sharing device can easily acquire content having a relationship with local content data in the editing device from the content sharing device in content production / editing. High content can be produced efficiently.
なお、コンテンツデータに含まれるメタデータから得られる被写体の位置、構図、カメラワークだけでなく、コンテンツの時間長、解像度、色調等様々な要素を併せ用いることによって、制作コンテンツの質はより向上する。例えば、時間長を用いることによって、予め時間長の決まっているコンテンツを制作したい場合に、その時間長に収まるコンテンツデータを選択することができる。また、解像度を用いることによって、高精細画像のコンテンツデータを選択することができる。また、色調を用いることによって、モノクロの写真を除外したり所望のトーンのコンテンツデータを選択したりすることができる。このように、様々な要素をコンテンツ関連情報に記述することにより、編集者の意図に合ったコンテンツ候補を提示することができる。 The quality of production content is further improved by using not only the position, composition, and camera work of the subject obtained from the metadata included in the content data, but also various factors such as the time length, resolution, and color tone of the content. . For example, by using a time length, when it is desired to produce content with a predetermined time length, it is possible to select content data that falls within that time length. Further, by using the resolution, it is possible to select content data of a high-definition image. Also, by using the color tone, it is possible to exclude monochrome photographs or select content data of a desired tone. In this way, by describing various elements in the content-related information, it is possible to present content candidates that suit the editor's intention.
また、本実施形態においては、コンテンツ共有装置20に対して提示要求情報およびコンテンツ要求情報を送信するコンテンツ要求装置として、コンテンツを制作・編集する編集装置を用いた例について説明した。本発明の実施形態は、上述した実施形態以外にも、例えば、編集装置の代わりに、コンテンツデータの再生・表示をプログラマブルに行うことのできるデジタルフォトフレームのようなコンテンツ表示装置に適用することができる。
Further, in the present embodiment, an example has been described in which an editing device that creates and edits content is used as the content requesting device that transmits the presentation request information and the content request information to the
また、上述した実施形態であるコンテンツ共有装置の制御機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのコンテンツ共有プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたコンテンツ共有プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
また同様に、上述した実施形態である編集装置の制御機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのコンテンツ編集プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたコンテンツ編集プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
Further, the control function of the content sharing apparatus according to the above-described embodiment may be realized by a computer. In this case, the content sharing program for realizing the control function is recorded on a computer-readable recording medium, and the content sharing program recorded on the recording medium is read into the computer system and executed. Also good.
Similarly, the control function of the editing apparatus according to the above-described embodiment may be realized by a computer. In this case, the content editing program for realizing the control function is recorded on a computer-readable recording medium, and the content editing program recorded on the recording medium is read into the computer system and executed. Also good.
Here, the “computer system” includes an OS (Operating System) and hardware of peripheral devices. The “computer-readable recording medium” refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case may be included and a program that holds a program for a certain period of time may be included. Further, the above program may be for realizing a part of the functions described above, or may be realized by a combination with the program already recorded in the computer system. .
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.
1 コンテンツ共有システム
10−1,10−2,10−3 撮影装置
20 コンテンツ共有装置
21 コンテンツデータ登録部
22 提示部
30−1,30−2 編集装置
40 ネットワーク
101 光学系
102 撮像部
103 画像処理部
104 測位部
105 方位角測定部
106 傾斜角測定部
107 メタデータ生成部
108 送信部
201 コンテンツ受信部
202 コンテンツ記憶部
202a 静止画データ記憶部
202b 動画データ記憶部
203 メタデータ抽出部
204 コンテンツ関連情報記憶部
205 メタデータ解析部
211 通信部
212 要求情報受信部
213 要求情報解析部
214 提示情報生成部
215 ルールデータベース部
215a ショットマトリクス
215b ルールテーブル
216 提示情報送信部
217 コンテンツ送信部
218 認証部
301 操作部
302 コンテンツ再生部
303 コンテンツ情報表示部
304 コンテンツ編集部
305 コンテンツ関連情報記憶部
306 メタデータ抽出部
307 コンテンツ記憶部
307a 静止画データ記憶部
307b 動画データ記憶部
308 コンテンツ受信部
309 条件設定部
310 提示要求情報生成部
311 コンテンツ要求情報生成部
312 ユーザ・端末情報管理部
313 通信部
DESCRIPTION OF
Claims (6)
前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、
を備えたことを特徴とするコンテンツ共有装置。 A content storage unit that stores the content captured by the imaging device, the imaging position information, the imaging direction information, the imaging distance information, the focal length, and the zoom magnification at the time of imaging acquired by the imaging device in association with each other;
A metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit;
Based on the shooting position information, the shooting direction information, and the shooting distance information extracted by the metadata extraction unit, a subject position of a subject reflected in the content is obtained, and an imaging surface size of the shooting device, and the metadata A metadata analysis unit for obtaining a photographing range size for photographing the subject based on the photographing distance information extracted from the extraction unit, the focal length, and the zoom magnification, and obtaining the subject size based on the obtained photographing range size; ,
A content-related information storage unit that stores the shooting position information extracted by the metadata extraction unit and the subject position and the subject size respectively obtained by the metadata analysis unit as content-related information in association with the content;
A content sharing apparatus comprising:
前記コンテンツ関連情報記憶部は、前記メタデータ解析部が求めた撮影動作および撮影動作方向を前記コンテンツ関連情報に含めて記憶する
ことを特徴とする請求項1記載のコンテンツ共有装置。 When the content is moving image data, the metadata analysis unit is based on the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification extracted by the metadata extraction unit. And further obtaining a photographing operation and a photographing operation direction of the photographing device with respect to a subject reflected in the content,
The content sharing apparatus according to claim 1, wherein the content related information storage unit stores the shooting operation and the shooting operation direction obtained by the metadata analysis unit in the content related information.
受信した前記提示要求情報から取出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記第1のコンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向を求めるとともに、前記撮影距離情報と前記焦点距離と前記ズーム倍率と前記第1のコンテンツに対応する撮像面サイズとに基づいて前記第1のコンテンツに対応する撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求める要求情報解析部と、
前記要求情報解析部が求めた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と、前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶するルールデータベース部と、
前記要求情報解析部が求めた前記第1のコンテンツに対応する前記撮影範囲サイズと前記撮影動作と前記撮影動作方向とに基づいて前記ルールデータベース部を参照して前記第2のコンテンツの特徴を求め、該特徴に一致するコンテンツ関連情報を前記コンテンツ関連情報記憶部から選出して、選出された前記コンテンツ関連情報に基づいて提示情報を生成する提示情報生成部と、
前記生成した提示情報を、前記提示要求情報の送信側に送信する提示情報送信部と、
を備えたことを特徴とする請求項2記載のコンテンツ共有装置。 A request information receiving unit that receives presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data;
Based on the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification extracted from the received presentation request information, the shooting of the shooting device with respect to the subject shown in the first content An operation and a shooting operation direction are determined, and a shooting range size corresponding to the first content is determined based on the shooting distance information, the focal length, the zoom magnification, and an imaging surface size corresponding to the first content. A request information analysis unit for obtaining a subject size based on the obtained shooting range size;
Features of the first content represented by the subject size, the shooting operation, and the shooting operation direction obtained by the request information analysis unit, and features of the second content connected before or after the first content A rule database section for storing the relationship between
Based on the shooting range size, the shooting operation, and the shooting operation direction corresponding to the first content obtained by the request information analysis unit, the feature of the second content is obtained by referring to the rule database unit. A presentation information generating unit that selects content related information that matches the feature from the content related information storage unit, and generates presentation information based on the selected content related information;
A presentation information transmission unit that transmits the generated presentation information to the transmission side of the presentation request information;
The content sharing apparatus according to claim 2, further comprising:
前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、
前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、
を備えたことを特徴とするコンテンツ編集装置。 A presentation request information generating unit that generates presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data; ,
While sending the presentation request information generated by the presentation request information generation unit,
On the receiving side of the presentation request information, based on the received presentation request information and the imaging surface size corresponding to the first content, the photographing operation and photographing operation of the photographing device for the subject appearing in the first content A direction and a subject size corresponding to the first content are obtained, and the characteristics of the first content and the first content represented by the obtained subject size, the photographing operation, and the photographing operation direction The characteristic of the second content is obtained by referring to the rule database section that stores the relationship with the characteristic of the second content to be connected before or after, and the content related information that matches the characteristic is selected. When the instruction information is generated and transmitted based on the selected content-related information, the transmitted presentation information A communication unit that receives,
A content editing apparatus comprising:
撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、
前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、
として機能させるためのコンテンツ共有プログラム。 Computer
A content storage unit that stores the content captured by the imaging device, the imaging position information, the imaging direction information, the imaging distance information, the focal length, and the zoom magnification at the time of imaging acquired by the imaging device in association with each other;
A metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit;
Based on the shooting position information, the shooting direction information, and the shooting distance information extracted by the metadata extraction unit, a subject position of a subject reflected in the content is obtained, and an imaging surface size of the shooting device, and the metadata A metadata analysis unit for obtaining a photographing range size for photographing the subject based on the photographing distance information extracted from the extraction unit, the focal length, and the zoom magnification, and obtaining the subject size based on the obtained photographing range size; ,
A content-related information storage unit that stores the shooting position information extracted by the metadata extraction unit and the subject position and the subject size respectively obtained by the metadata analysis unit as content-related information in association with the content;
Content sharing program to function as
静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、
前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、
前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、
として機能させるためのコンテンツ編集プログラム。 Computer
A presentation request information generating unit that generates presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data; ,
While sending the presentation request information generated by the presentation request information generation unit,
On the receiving side of the presentation request information, based on the received presentation request information and the imaging surface size corresponding to the first content, the photographing operation and photographing operation of the photographing device for the subject appearing in the first content A direction and a subject size corresponding to the first content are obtained, and the characteristics of the first content and the first content represented by the obtained subject size, the photographing operation, and the photographing operation direction The characteristic of the second content is obtained by referring to the rule database section that stores the relationship with the characteristic of the second content to be connected before or after, and the content related information that matches the characteristic is selected. When the instruction information is generated and transmitted based on the selected content-related information, the transmitted presentation information A communication unit that receives,
Content editing program to function as
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009229741A JP2011078008A (en) | 2009-10-01 | 2009-10-01 | Content sharing apparatus, content editing apparatus, content sharing program, and content editing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009229741A JP2011078008A (en) | 2009-10-01 | 2009-10-01 | Content sharing apparatus, content editing apparatus, content sharing program, and content editing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011078008A true JP2011078008A (en) | 2011-04-14 |
Family
ID=44021455
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009229741A Pending JP2011078008A (en) | 2009-10-01 | 2009-10-01 | Content sharing apparatus, content editing apparatus, content sharing program, and content editing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011078008A (en) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015015779A1 (en) * | 2013-07-31 | 2015-02-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information presentation method, operation program, and information presentation system |
| JP2015056846A (en) * | 2013-09-13 | 2015-03-23 | キヤノン株式会社 | Transmission device, reception device, transmission/reception system, control method for transmission device, control method for reception device, control method for transmission/reception system, and program |
| US9319583B2 (en) | 2012-08-17 | 2016-04-19 | Samsung Electronics Co., Ltd. | Camera device and methods for aiding users in use thereof |
| US9456231B2 (en) | 2014-06-06 | 2016-09-27 | Samsung Electronics Co., Ltd. | Electronic device, control method thereof and system |
| JP2017005395A (en) * | 2015-06-05 | 2017-01-05 | カシオ計算機株式会社 | Imaging apparatus, imaging control method, and program |
| US9848133B2 (en) | 2013-03-26 | 2017-12-19 | Panasonic Intellectual Property Management Co., Ltd. | Image generation device, imaging device, image generation method, and program for generating a new image from a captured image |
| WO2018079043A1 (en) * | 2016-10-26 | 2018-05-03 | シャープ株式会社 | Information processing device, image pickup device, information processing system, information processing method, and program |
| JP2018114978A (en) * | 2018-03-29 | 2018-07-26 | 株式会社小松製作所 | Construction machine management system |
| WO2018147089A1 (en) * | 2017-02-10 | 2018-08-16 | ソニー株式会社 | Information processing device and method |
| JP2020120221A (en) * | 2019-01-22 | 2020-08-06 | オリンパス株式会社 | Photography support method, program, data processing device |
| CN114117087A (en) * | 2021-11-23 | 2022-03-01 | 北京达佳互联信息技术有限公司 | Resource recommendation method and device, computer equipment and medium |
| US12417515B2 (en) | 2022-03-02 | 2025-09-16 | Canon Kabushiki Kaisha | Image processing apparatus and control method therefor |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004297339A (en) * | 2003-03-26 | 2004-10-21 | Fuji Photo Film Co Ltd | Method and program for image display |
| JP2008103850A (en) * | 2006-10-17 | 2008-05-01 | Olympus Imaging Corp | Camera, image retrieval system, and image retrieving method |
-
2009
- 2009-10-01 JP JP2009229741A patent/JP2011078008A/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004297339A (en) * | 2003-03-26 | 2004-10-21 | Fuji Photo Film Co Ltd | Method and program for image display |
| JP2008103850A (en) * | 2006-10-17 | 2008-05-01 | Olympus Imaging Corp | Camera, image retrieval system, and image retrieving method |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9319583B2 (en) | 2012-08-17 | 2016-04-19 | Samsung Electronics Co., Ltd. | Camera device and methods for aiding users in use thereof |
| US9848133B2 (en) | 2013-03-26 | 2017-12-19 | Panasonic Intellectual Property Management Co., Ltd. | Image generation device, imaging device, image generation method, and program for generating a new image from a captured image |
| JPWO2015015779A1 (en) * | 2013-07-31 | 2017-03-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information presentation method, operation program, and information presentation system |
| US9924231B2 (en) | 2013-07-31 | 2018-03-20 | Panasonic Intellectual Property Corporation Of America | Information presentation method, operation program, and information presentation system |
| WO2015015779A1 (en) * | 2013-07-31 | 2015-02-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information presentation method, operation program, and information presentation system |
| US10356302B2 (en) | 2013-09-13 | 2019-07-16 | Canon Kabushiki Kaisha | Transmission apparatus, reception apparatus, transmission and reception system, transmission apparatus control method, reception apparatus control method, transmission and reception system control method, and program |
| JP2015056846A (en) * | 2013-09-13 | 2015-03-23 | キヤノン株式会社 | Transmission device, reception device, transmission/reception system, control method for transmission device, control method for reception device, control method for transmission/reception system, and program |
| US9456231B2 (en) | 2014-06-06 | 2016-09-27 | Samsung Electronics Co., Ltd. | Electronic device, control method thereof and system |
| JP2017005395A (en) * | 2015-06-05 | 2017-01-05 | カシオ計算機株式会社 | Imaging apparatus, imaging control method, and program |
| WO2018079043A1 (en) * | 2016-10-26 | 2018-05-03 | シャープ株式会社 | Information processing device, image pickup device, information processing system, information processing method, and program |
| JPWO2018079043A1 (en) * | 2016-10-26 | 2019-09-12 | シャープ株式会社 | Information processing apparatus, imaging apparatus, information processing system, information processing method, and program |
| WO2018147089A1 (en) * | 2017-02-10 | 2018-08-16 | ソニー株式会社 | Information processing device and method |
| JP2018114978A (en) * | 2018-03-29 | 2018-07-26 | 株式会社小松製作所 | Construction machine management system |
| JP2020120221A (en) * | 2019-01-22 | 2020-08-06 | オリンパス株式会社 | Photography support method, program, data processing device |
| CN114117087A (en) * | 2021-11-23 | 2022-03-01 | 北京达佳互联信息技术有限公司 | Resource recommendation method and device, computer equipment and medium |
| US12417515B2 (en) | 2022-03-02 | 2025-09-16 | Canon Kabushiki Kaisha | Image processing apparatus and control method therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2011078008A (en) | Content sharing apparatus, content editing apparatus, content sharing program, and content editing program | |
| CN100481087C (en) | Search apparatus and method | |
| US7577636B2 (en) | Network-extensible reconfigurable media appliance | |
| CN100530191C (en) | Information processing apparatus and method | |
| US8078618B2 (en) | Automatic multimode system for organizing and retrieving content data files | |
| KR20120055462A (en) | Method and system of encoding and decoding media content | |
| EP2048665A1 (en) | Recording device and method, imaging device, reproduction device and method, and program | |
| JP2012004739A (en) | Information processor, information processing method and program | |
| JP2006180074A (en) | Image editing apparatus, imaging apparatus, image editing method, and program | |
| CN102547105A (en) | Method of generating and reproducing moving image data and photographing apparatus using the same | |
| CN101772956B (en) | Content editing device and content editing method | |
| JP2010079788A (en) | Content management device, system, method and program | |
| JP2005084987A (en) | Service server and composite moving picture preparation service method | |
| JPWO2014050956A1 (en) | Imaging device, imaging system, imaging method, and imaging control program | |
| US20060126963A1 (en) | Frame classification information providing device and program | |
| JP2003099434A (en) | Electronic album device | |
| JP2006203574A (en) | Image display device | |
| JP5401103B2 (en) | Video information management apparatus and method | |
| JP5309322B2 (en) | Management server and video content processing method | |
| JP4901258B2 (en) | Camera and data display method | |
| JP5900490B2 (en) | Information terminal, image display method and program | |
| JP2013126107A (en) | Digital broadcast receiving device | |
| JP5695493B2 (en) | Multi-image playback apparatus and multi-image playback method | |
| JP6666557B2 (en) | IMAGE MANAGEMENT SYSTEM, INFORMATION PROCESSING DEVICE USED FOR IMAGE MANAGEMENT SYSTEM, INFORMATION PRESENTATION METHOD BY INFORMATION PROCESSING DEVICE, AND PROGRAM | |
| CN113259622B (en) | Information processing device and method, storage medium and computer device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120322 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130527 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131008 |