[go: up one dir, main page]

JP2011078008A - Content sharing apparatus, content editing apparatus, content sharing program, and content editing program - Google Patents

Content sharing apparatus, content editing apparatus, content sharing program, and content editing program Download PDF

Info

Publication number
JP2011078008A
JP2011078008A JP2009229741A JP2009229741A JP2011078008A JP 2011078008 A JP2011078008 A JP 2011078008A JP 2009229741 A JP2009229741 A JP 2009229741A JP 2009229741 A JP2009229741 A JP 2009229741A JP 2011078008 A JP2011078008 A JP 2011078008A
Authority
JP
Japan
Prior art keywords
content
information
shooting
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009229741A
Other languages
Japanese (ja)
Inventor
Toshiyuki Omata
寿之 大亦
Chigusa Yamamura
千草 山村
Toshiyuki Fujisawa
俊之 藤澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2009229741A priority Critical patent/JP2011078008A/en
Publication of JP2011078008A publication Critical patent/JP2011078008A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】共有コンテンツについて、被写体を確実に特定でき、構図、およびカメラワークを容易に管理する。
【解決手段】コンテンツ共有装置20は、撮影装置により撮影されたコンテンツとメタデータとを関連付けてコンテンツデータとして記憶するコンテンツ記憶部202と、コンテンツデータを読み出してメタデータを抽出するメタデータ抽出部203と、メタデータに含まれる撮影位置情報と撮影方向情報と撮影距離情報とに基づいてコンテンツに映る被写体の被写体位置を求めるとともに、撮像面サイズとメタデータに含まれる撮影距離情報と焦点距離とズーム倍率とに基づいて被写体を撮影した撮影範囲サイズを求めて被写体サイズを求めるメタデータ解析部205と、撮影位置情報と被写体位置と撮影範囲サイズとをコンテンツに関連づけて記憶するコンテンツ関連情報記憶部204とを備えた。
【選択図】図5
An object of the present invention is to identify a subject with certainty and easily manage composition and camera work.
A content sharing device 20 associates content captured by a photographing device with metadata and stores it as content data, and a metadata extraction unit 203 that reads content data and extracts metadata. And determining the subject position of the subject in the content based on the shooting position information, shooting direction information, and shooting distance information included in the metadata, as well as the imaging surface size, shooting distance information, focal length, and zoom included in the metadata. A metadata analysis unit 205 that obtains a shooting range size by shooting a subject based on the magnification and obtains the subject size, and a content related information storage unit 204 that stores shooting position information, a subject position, and a shooting range size in association with the content. And equipped with.
[Selection] Figure 5

Description

本発明は、コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラムに関する。   The present invention relates to a content sharing device, a content editing device, a content sharing program, and a content editing program.

近年、デジタルスチルカメラおよびデジタルビデオカメラ(これらをデジタルカメラと呼ぶ。)の普及や、撮像データを記録する記録媒体の低コスト化等に伴い、デジタルカメラのユーザは、旅行等の行楽のみならず日常生活においても多数の写真や映像を撮影して、そのコンテンツデータを様々なシーンに活用する機会が増えてきた。特に、デジタルカメラの搭載されたカメラ機能付携帯電話機の普及によって、写真や映像の撮影および活用は生活の中により多く取り入れられるようになった。このカメラ機能付携帯電話機の分野においては、GPS(Global Positioning System)、加速度センサ、および磁気センサを搭載した携帯端末も製品化されている。この携帯端末は、写真や映像の撮影場所や撮影方向等に関する情報を取得することができるため、コンテンツデータの活用の幅を広げることができる。   In recent years, with the spread of digital still cameras and digital video cameras (referred to as digital cameras) and the cost reduction of recording media for recording image data, users of digital cameras are not only traveling for vacations and the like. Opportunities to take many photographs and videos in daily life and use the content data in various scenes have increased. In particular, with the widespread use of mobile phones with camera functions equipped with digital cameras, photography and video capture and utilization have become more common in daily life. In the field of camera-equipped mobile phones, mobile terminals equipped with GPS (Global Positioning System), acceleration sensors, and magnetic sensors have been commercialized. Since this portable terminal can acquire information related to the shooting location and shooting direction of photos and videos, the range of utilization of content data can be expanded.

コンテンツデータの活用に関し、近年では、CGM(Consumer Generated Media)と呼ばれる、個人の情報発信をメディア化したWebサイトの利用が盛んである。また、インターネットには、写真共有サイトや動画共有サイトが開設されている。これら写真共有サイトや動画共有サイトは、写真や映像の保有者である一般ユーザからアップロードされた写真(静止画データ)や映像(動画データ)を、他のユーザが閲覧したり、利用許可を得ることを条件としてダウンロードしたりすることができるサイトである。CGMのユーザは、コンテンツデータをダウンロードして利用可能なサイトからコンテンツデータを取得して利用することもある。   With regard to utilization of content data, in recent years, a website called CGM (Consumer Generated Media) that uses personal information transmission as media has been actively used. There are also photo sharing sites and video sharing sites on the Internet. These photo sharing sites and video sharing sites allow other users to view photos (still image data) and videos (video data) uploaded from general users who are the owners of photos and videos, and obtain permission to use them. It is a site that can be downloaded on the condition. A CGM user may acquire and use content data from a site available by downloading the content data.

これら写真共有サイトや動画共有サイトに公開されたアマチュアクリエータの制作したコンテンツ、CGMで公開されたコンテンツには質の高いものが多い。これは、デジタルカメラ、編集装置、編集ソフトウェア等の高機能化や低価格化による普及だけでなく、撮影した写真や映像を編集して楽しむというスタイルが広まっていることを示すものである。   The content produced by amateur creators published on these photo sharing sites and video sharing sites and the content published on CGM are often high quality. This indicates not only the spread of digital cameras, editing devices, editing software, etc. due to higher functionality and lower prices, but also the widespread style of editing and enjoying photographed photos and videos.

CGMのアマチュアクリエータに対して、コンテンツの制作者としていわゆるプロと呼ばれるテレビ番組制作者は、撮影前の調査や取材を行って番組の構成およびシナリオを決定し、そのシナリオに基づいてカット割り、構図、カメラワーク、および被写体の動き等から、編集を考慮した様々な条件で多くの素材を撮影することが多い。また、テレビ番組制作者は、編集段階で新たな素材が必要になった場合に追加撮影を行うこともある。テレビ番組は、このような作業の繰り返しによって番組制作されることが一般的である。   A TV program producer called a professional as a content creator for CGM amateur creators conducts pre-shooting surveys and interviews to determine the composition and scenario of the program, and based on that scenario, cuts and composition In many cases, many materials are photographed under various conditions in consideration of editing, such as camera work and subject movement. In addition, a TV program producer may perform additional shooting when a new material is required at the editing stage. A television program is generally produced by repeating such operations.

プロまたはアマチュアクリエータに限らず、写真や映像を編集して1つのコンテンツを完成させるために、複数の素材の中から制作意図に適した素材を選択して所望の順番に並べるという作業が必要である。現在、静止画データのメタデータフォーマットとしてEXIF(EXchangeable Image File format)が知られており、撮影日時、解像度、撮影場所等の撮影に関する情報をフォーマット化して写真の静止画データに付加して管理するものである。また、映像データについては、放送局等プロユースのコンテナフォーマットとしてMXF(Material eXchange Format)が知られており、EXIFと同様に、映像データを、撮影に関するメタデータとともに管理することができる。   In order to complete a single content by editing photos and videos, not just professional or amateur creators, it is necessary to select materials suitable for the production intention from multiple materials and arrange them in the desired order. is there. Currently, EXIF (EXchangeable Image File format) is known as a metadata format of still image data, and information related to shooting such as shooting date / time, resolution, shooting location, etc. is formatted and managed by adding it to still image data of a photo. Is. As for video data, MXF (Material eXchange Format) is known as a professional use container format such as a broadcasting station. Like EXIF, video data can be managed together with metadata related to shooting.

これらのメタデータを利用すれば、コンテンツデータを容易に検索することができる。例えば、メタデータ中の時間属性を用いて多数のコンテンツデータの中から所望のコンテンツデータを検索するコンテンツ管理技術が知られている(例えば、特許文献1参照)。
また、写真共有サイトの中には、EXIFデータに記述されたGPSの位置情報を使用して投稿された写真を地図上に表示させ、簡単なナビゲーションを行う写真データの共有サイトがある。
By using these metadata, content data can be easily searched. For example, a content management technique for searching for desired content data from a large number of content data using a time attribute in metadata is known (see, for example, Patent Document 1).
Among the photo sharing sites, there is a photo data sharing site that displays photos posted using GPS location information described in EXIF data on a map and performs simple navigation.

コンテンツ制作において、アマチュアクリエータが単独で、プロの制作者と同様の制作手法を用いてコンテンツを制作することは、コストや手間の観点から難しい。例えば、旅行先で撮影した写真や映像を素材として使用したコンテンツ作品の制作において、撮影したときとは違う構図で撮影された素材が必要となった場合に、再び旅行先まで出かけて行って撮影し直すことは非現実的である。このような場合に、特許文献1に開示された技術を用いたり二次利用可能な写真共有サイトを利用したりすれば、他人のアップロードした写真データをダウンロードして編集に使用することができる。   In content production, it is difficult for an amateur creator to produce content by using the same production method as a professional producer from the viewpoint of cost and labor. For example, in the production of a content work that uses photos and videos taken at a travel destination as materials, if you need a material shot with a composition that is different from the shot, go back to the travel destination and take a picture. It is unrealistic to redo. In such a case, if the technique disclosed in Patent Document 1 is used or a photo sharing site that can be used secondarily is used, photo data uploaded by another person can be downloaded and used for editing.

特開2006−107260号公報JP 2006-107260 A

しかしながら、特許文献1に開示された技術や写真共有サイト等のコンテンツ共有技術では、コンテンツに付加されたEXIFデータを用いて写真の撮影日時や撮影場所を特定することはできるが、そのEXIFデータからは被写体が何であるかを特定することが難しく、確実に所望の被写体が撮影された写真を取得することは困難である。   However, with the technology disclosed in Patent Document 1 and content sharing technology such as a photo sharing site, it is possible to specify the shooting date / time and location of a photo using EXIF data added to the content. It is difficult to specify what the subject is, and it is difficult to reliably obtain a photograph of the desired subject.

また、写真は撮影時の一瞬の状況をとらえたものであるため、コンテンツの内容とEXIFデータの内容とは一致する。しかし、映像には時間的な幅があり、被写体および撮影装置のうち少なくとも一方の動きがあり得るため、EXIFデータを用いた管理方法ではコンテンツの内容を十分に示すことができない。また、EXIFデータからは、構図やカメラワークに関する情報を取得することができない。   Further, since the photograph captures the instantaneous situation at the time of shooting, the content content and the EXIF data content match. However, since the video has a time width and there may be movement of at least one of the subject and the photographing device, the management method using EXIF data cannot sufficiently show the content. Also, information regarding composition and camera work cannot be acquired from the EXIF data.

さらに、複数の素材をつなぎ合わせて作品性のあるコンテンツを作成する場合に、各素材の被写体に注目するだけでなく、構図、カメラワーク、季節、時間帯等の要素についての素材間の関係性を考慮することが、コンテンツ全体の質を高めたりその作品性を表現したりするために重要である。しかし、従来は、素材をつなぎ合わせてコンテンツを作成する際に、各種要素についての素材間の関係性を考慮したコンテンツデータの取得を行うことができなかった。   In addition, when creating content with workability by connecting multiple materials, not only pay attention to the subject of each material, but also the relationship between materials regarding elements such as composition, camera work, season, time zone, etc. Is important for improving the quality of the entire content and expressing its work. However, conventionally, when creating content by connecting materials, it has not been possible to acquire content data in consideration of the relationship between materials for various elements.

そこで、本発明は、上記問題に鑑みてなされたものであり、共有されるコンテンツデータについて、各コンテンツの被写体を確実に特定できるとともに、構図、およびカメラワークに係る情報を容易に管理することができ、また、素材を組み合わせてコンテンツデータを作成する場合に、各種要素についての素材間の関係性を考慮したコンテンツデータの取得要求および提示を行うことのできる、コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and for content data to be shared, the subject of each content can be reliably identified, and information relating to composition and camera work can be easily managed. Content sharing device, content editing device, content that can be requested and presented for content data considering the relationship between materials for various elements when creating content data by combining materials An object is to provide a shared program and a content editing program.

上記の課題を解決するため、本発明の一態様は、以下[1]−[6]の手段を提供するものである。
[1] コンテンツ共有装置は、撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、を備えたことを特徴とする。
ここで、撮影位置情報とは、例えば、撮影装置の位置である緯度、経度、および高度の情報である。また、撮影方向情報とは、撮影装置の光学系の光軸の方位角、および水平面に対する傾斜角の情報である。
メタデータ解析部は、例えば、抽出した撮影距離情報(被写体距離L)、撮影位置情報(撮影装置の緯度、経度、および高度h1)、撮影方向情報(傾斜角θ1、方位角θ2)の情報に基づいて、被写体位置(緯度、経度、および高度h2)を次のようにして求める。なお、傾斜角θ1は、水平面に直交する面であって撮影装置の光学系の光軸を含む面における、水平面に対する光軸の傾斜角度である。傾斜角θ1の値は、水平面に対して上方向の傾斜角を正とし、下方向の傾斜角を負とする。また、方位角θ2は、後述する平面直角座標系において、X軸の正方向を基準とし、反時計回りの角度である。
つまり、メタデータ解析部は、被写体位置の高度h2を、被写体距離Lと、傾斜角θ1と、撮像装置の高度h1とに基づいて求める。また、メタデータ解析部は、撮影装置の緯度・経度を平面直角座標系の座標値(x1,y1)に変換し、この座標値(x1,y1)と、平面直角座標平面上における撮影装置と被写体との間の距離(L・cosθ1)と、方位角θ2とに基づいて、被写体の座標値(x2,y2)を求め、さらに被写体の緯度・経度を求める。
また、メタデータ解析部は、撮影装置に搭載された撮像素子の撮像面サイズ、焦点距離、および被写体距離に基づいて、焦点の合った平面(被写体がある場所)における撮影範囲の面積である撮影範囲サイズを計算することにより、撮影された画像における被写体サイズを得る。一例としては、メタデータ解析部は、同一の被写体を撮影した様々なコンテンツデータにおける撮影範囲サイズを分類することにより、被写体サイズの種類を得る。すなわち、被写体サイズは、撮影距離に関する構図を表わす。
In order to solve the above problems, one aspect of the present invention provides the following means [1]-[6].
[1] The content sharing apparatus stores the content photographed by the photographing apparatus, the photographing position information, the photographing direction information, the photographing distance information, the focal distance, and the zoom magnification that are obtained by the photographing apparatus in association with each other. The content storage unit, the metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit, and the metadata extraction unit extracted Based on the photographing position information, the photographing direction information, and the photographing distance information, the subject position of the subject shown in the content is obtained, and the photographing surface size of the photographing device and the photographing distance extracted from the metadata extraction unit. Based on the information, the focal length, and the zoom magnification, a shooting range size for shooting the subject is obtained, and the obtained A metadata analysis unit for obtaining a subject size based on a photographing range size, the photographing position information extracted by the metadata extraction unit, and the subject position and the subject size obtained by the metadata analysis unit, respectively. And a content-related information storage unit that stores the content-related information as a content-related information.
Here, the shooting position information is, for example, information on latitude, longitude, and altitude, which is the position of the shooting apparatus. The shooting direction information is information on the azimuth angle of the optical axis of the optical system of the shooting apparatus and the tilt angle with respect to the horizontal plane.
The metadata analysis unit includes, for example, information on the extracted shooting distance information (subject distance L), shooting position information (latitude, longitude, and altitude h1 of the shooting apparatus) and shooting direction information (tilt angle θ1, azimuth angle θ2). Based on this, the subject position (latitude, longitude, and altitude h2) is obtained as follows. The inclination angle θ1 is an inclination angle of the optical axis with respect to the horizontal plane in a plane orthogonal to the horizontal plane and including the optical axis of the optical system of the photographing apparatus. With respect to the value of the inclination angle θ1, the upward inclination angle with respect to the horizontal plane is positive, and the downward inclination angle is negative. Further, the azimuth angle θ2 is a counterclockwise angle with respect to the positive direction of the X axis in the planar rectangular coordinate system described later.
That is, the metadata analysis unit obtains the altitude h2 of the subject position based on the subject distance L, the inclination angle θ1, and the altitude h1 of the imaging device. Further, the metadata analysis unit converts the latitude / longitude of the imaging device into coordinate values (x1, y1) in the plane rectangular coordinate system, and the coordinate values (x1, y1) and the imaging device on the plane rectangular coordinate plane Based on the distance (L · cos θ1) to the subject and the azimuth angle θ2, the coordinate value (x2, y2) of the subject is obtained, and the latitude and longitude of the subject are further obtained.
In addition, the metadata analysis unit captures an area of the imaging range in a focused plane (where the subject is located) based on the imaging surface size, focal length, and subject distance of the imaging device mounted on the imaging device. By calculating the range size, the subject size in the captured image is obtained. As an example, the metadata analysis unit obtains the type of subject size by classifying the shooting range size in various content data obtained by shooting the same subject. That is, the subject size represents a composition related to the shooting distance.

[2] 上記[1]記載のコンテンツ共有装置は、前記メタデータ解析部は、前記コンテンツが動画データである場合に、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記コンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向をさらに求め、前記コンテンツ関連情報記憶部は、前記メタデータ解析部が求めた撮影動作および撮影動作方向を前記コンテンツ関連情報に含めて記憶することを特徴とする。
ここで、撮影装置の撮影動作とは、例えば、固定、ズームイン/アウト、チルト、パンである。撮影動作方向とは、チルトの場合は下から上方向またはその逆方向、パンの場合は左から右またはその逆方向である。
コンテンツデータに含まれる動画データには1つまたは複数のシーンが含まれており、各シーンの開始フレーム画像および終了フレーム画像それぞれにメタデータを対応させるようにする。メタデータ解析部は、開始フレーム画像に対応するメタデータと終了フレーム画像に対応するメタデータとにおける、ズーム率、撮影装置の緯度、経度、高度、方位角、および傾斜角の差分を計算して撮影動作および撮影動作方向を求める。
[2] In the content sharing apparatus according to [1], when the content is moving image data, the metadata analysis unit is configured to extract the shooting position information, the shooting direction information, and the shooting direction information extracted by the metadata extraction unit. Based on the shooting distance information, the focal length, and the zoom magnification, a shooting operation and a shooting operation direction of the shooting device with respect to a subject shown in the content are further obtained, and the content-related information storage unit includes the metadata analysis unit. The obtained shooting operation and shooting operation direction are included in the content-related information and stored.
Here, the photographing operation of the photographing apparatus is, for example, fixing, zooming in / out, tilting, and panning. The shooting operation direction is from bottom to top in the case of tilt or vice versa, and from left to right in the case of pan or vice versa.
The moving image data included in the content data includes one or more scenes, and metadata is associated with each of the start frame image and the end frame image of each scene. The metadata analysis unit calculates the difference between the zoom rate, the latitude, longitude, altitude, azimuth angle, and tilt angle of the imaging device between the metadata corresponding to the start frame image and the metadata corresponding to the end frame image. The shooting operation and the shooting operation direction are obtained.

[3] 上記[2]記載のコンテンツ共有装置は、静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を受信する要求情報受信部と、受信した前記提示要求情報から取出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記第1のコンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向を求めるとともに、前記撮影距離情報と前記焦点距離と前記ズーム倍率と前記第1のコンテンツに対応する撮像面サイズとに基づいて前記第1のコンテンツに対応する撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求める要求情報解析部と、前記要求情報解析部が求めた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と、前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶するルールデータベース部と、前記要求情報解析部が求めた前記第1のコンテンツに対応する前記撮影範囲サイズと前記撮影動作と前記撮影動作方向とに基づいて前記ルールデータベース部を参照して前記第2のコンテンツの特徴を求め、該特徴に一致するコンテンツ関連情報を前記コンテンツ関連情報記憶部から選出して、選出された前記コンテンツ関連情報に基づいて提示情報を生成する提示情報生成部と、前記生成した提示情報を、前記提示要求情報の送信側に送信する提示情報送信部と、を備えたことを特徴とする。 [3] The content sharing apparatus according to [2] described above includes shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification corresponding to the first content that is still image data or moving image data. Based on the request information receiving unit that receives the presentation request information including the shooting position information, the shooting direction information, the shooting distance information, the focal distance, and the zoom magnification extracted from the received presentation request information, Based on the shooting distance information, the focal length, the zoom magnification, and the imaging plane size corresponding to the first content, the shooting operation and the shooting operation direction of the shooting apparatus with respect to the subject reflected in the first content are obtained. To obtain a shooting range size corresponding to the first content, and to obtain a subject size based on the obtained shooting range size A first information feature, which is represented by the subject size, the photographing operation, and the photographing operation direction obtained by the information analyzing unit, the request information analyzing unit, and the first content before or after the first content. A rule database unit that stores the relationship between the content features of the second content, the shooting range size corresponding to the first content obtained by the request information analysis unit, the shooting operation, and the shooting operation direction. A feature of the second content is obtained with reference to the rule database unit, content related information matching the feature is selected from the content related information storage unit, and presentation information is selected based on the selected content related information. A presentation information generation unit for generating, and a presentation information transmission unit for transmitting the generated presentation information to the transmission side of the presentation request information. And features.

[4] コンテンツ編集装置は、静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、を備えたことを特徴とする。 [4] The content editing apparatus displays presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data. A presentation request information generation unit to be generated and the presentation request information generated by the presentation request information generation unit are transmitted, and the presentation request information and the first content received on the reception side of the presentation request information are transmitted. Based on the corresponding imaging surface size, a shooting operation and a shooting operation direction of the shooting apparatus for the subject reflected in the first content and a subject size corresponding to the first content are obtained, and the obtained subject size is obtained. And the feature of the first content represented by the shooting operation and the shooting operation direction, and before or after the first content. The feature database of the second content is obtained by referring to the rule database section that stores the relationship with the feature of the second content, and the content related information that matches the feature is selected. And a communication unit that receives the transmitted presentation information when instruction information is generated and transmitted based on the content related information.

[5] コンテンツ共有プログラムは、コンピュータを、撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、として機能させる。 [5] The content sharing program causes the computer to associate the content captured by the imaging device, the imaging position information, the imaging direction information, the imaging distance information, the focal length, and the zoom magnification at the time of imaging acquired by the imaging device. A content storage unit that stores the metadata, a metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit, and the metadata extraction unit The subject position of the subject shown in the content is obtained based on the shooting position information, the shooting direction information, and the shooting distance information extracted by the camera, and is extracted from the imaging surface size of the shooting apparatus and the metadata extraction unit. Shooting range in which the subject is shot based on the shooting distance information, the focal length, and the zoom magnification A metadata analysis unit for obtaining a subject size based on the obtained shooting range size, the shooting position information extracted by the metadata extraction unit, the subject position obtained by the metadata analysis unit, and A content-related information storage unit that stores the subject size in association with the content as content-related information;

[6] コンテンツ編集プログラムは、コンピュータを、静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、として機能させる。 [6] The content editing program presents the computer including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data. A presentation request information generation unit that generates request information, and the presentation request information generated by the presentation request information generation unit, and at the reception side of the presentation request information, the received presentation request information and the first Based on the imaging surface size corresponding to the content, the photographing operation and the photographing operation direction of the photographing device for the subject shown in the first content and the subject size corresponding to the first content are obtained and obtained Features of the first content and the first container represented by the subject size, the shooting operation, and the shooting operation direction. The feature of the second content is obtained by referring to the rule database section storing the relationship with the feature of the second content to be connected before or after the item, and the content related information matching the feature is selected, Further, when instruction information is generated and transmitted based on the selected content-related information, the communication unit functions as a communication unit that receives the transmitted presentation information.

本発明によれば、共有されるコンテンツデータについて、各コンテンツの被写体を確実に特定できるとともに、撮影距離に関する構図である被写体サイズ、およびカメラワークに係る情報を容易に管理することができる。また、本発明によれば、素材を組み合わせてコンテンツデータを作成する場合に、各種要素についての素材間の関係性を考慮したコンテンツデータの取得要求および提示を行うことができる。
よって、本発明によれば、コンテンツ制作の効率性を向上させ、コンテンツ作品の質を向上させることができる。
According to the present invention, it is possible to reliably specify the subject of each content in the content data to be shared, and to easily manage the subject size, which is a composition related to the shooting distance, and information relating to camera work. Further, according to the present invention, when content data is created by combining materials, it is possible to make a content data acquisition request and presentation in consideration of the relationship between materials for various elements.
Therefore, according to the present invention, the efficiency of content production can be improved and the quality of the content work can be improved.

本発明の一実施形態を適用したコンテンツ共有システムの全体構成図である。1 is an overall configuration diagram of a content sharing system to which an embodiment of the present invention is applied. 同実施形態において、撮影装置の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the imaging device in the embodiment. 同実施形態において、撮影装置のメタデータ生成部が生成するメタデータのデータフォーマットの例を示した図である。In the same embodiment, it is the figure which showed the example of the data format of the metadata which the metadata production | generation part of an imaging device produces | generates. 同実施形態において、映像データとメタデータとの対応関係を模式的に示した図である。In the embodiment, it is the figure which showed typically the correspondence of video data and metadata. 同実施形態において、コンテンツ共有装置の機能構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of a content sharing apparatus in the same embodiment. 同実施形態において、コンテンツ関連情報記憶部に記憶されたコンテンツ関連情報のデータ構成を示す図である。In the same embodiment, it is a figure which shows the data structure of the content relevant information memorize | stored in the content relevant information storage part. 同実施形態において、メタデータ解析部による撮影範囲サイズの計算を説明するための図である。In the same embodiment, it is a figure for demonstrating calculation of the imaging | photography range size by a metadata analysis part. 同実施形態において、提示情報生成部が生成する提示情報のデータ構成を示した図である。In the embodiment, it is the figure which showed the data structure of the presentation information which a presentation information generation part produces | generates. 同実施形態における、ルールデータベース部に含まれるショットマトリクスおよびルールテーブルのデータ構成図である。It is a data block diagram of the shot matrix and rule table which are contained in the rule database part in the embodiment. 同実施形態において、編集装置の操作インタフェースの主要部を模式的に示した図である。In the same embodiment, it is the figure which showed typically the principal part of the operation interface of an editing apparatus. 同実施形態において、編集装置の機能構成を示すブロック図である。3 is a block diagram illustrating a functional configuration of the editing device in the embodiment. FIG. 同実施形態において、提示要求情報生成部が生成する提示要求情報のデータ構成図である。In the embodiment, it is a data block diagram of the presentation request information which a presentation request information generation part produces | generates. 同実施形態において、編集装置が実行する提示要求処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of a presentation request process executed by the editing apparatus in the embodiment. 同実施形態において、編集装置が実行するコンテンツデータ要求処理の手順を示すフローチャートである。6 is a flowchart showing a procedure of content data request processing executed by the editing apparatus in the embodiment. 同実施形態において、コンテンツ共有装置が実行する提示処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure of presentation processing executed by the content sharing apparatus in the embodiment. 同実施形態において、コンテンツ共有装置が実行するコンテンツデータ候補の選出処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of content data candidate selection processing executed by the content sharing apparatus in the embodiment.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。図1は、本発明の一実施形態を適用したコンテンツ共有システムの全体構成図である。同図に示すように、コンテンツ共有システム1は、ネットワーク40を介してそれぞれ接続された、撮影装置10−1,10−2,10−3(それぞれを指して撮影装置10と呼ぶ。)と、コンテンツ共有装置20と、編集装置(コンテンツ編集装置)30−1,30−2(それぞれを指して編集装置30と呼ぶ。)とを含んで構成される。
なお、撮影装置10は、1つでも任意の複数でもよい。撮影装置10が複数ある場合、各撮影装置10の使用者は、全部または一部において同一人であってもよい。編集装置30も同様に、1つでも任意の複数でもよい。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is an overall configuration diagram of a content sharing system to which an embodiment of the present invention is applied. As shown in the figure, the content sharing system 1 includes photographing apparatuses 10-1, 10-2, and 10-3 (referred to as photographing apparatuses 10 respectively) connected via a network 40, respectively. The content sharing apparatus 20 includes editing apparatuses (content editing apparatuses) 30-1 and 30-2 (referred to as editing apparatuses 30 respectively).
In addition, the imaging device 10 may be one or any plurality. When there are a plurality of imaging devices 10, the users of each imaging device 10 may be the same person in whole or in part. Similarly, the editing apparatus 30 may be one or any plural number.

撮影装置10は、写真撮影モードまたは映像撮影モードに設定されて、写真または映像を撮影するデジタルカメラである。撮影装置10は、撮影したコンテンツごとに、被写体距離、焦点距離、ズーム率、撮影日時等の撮影情報を取得して管理する。   The imaging device 10 is a digital camera that is set to a photo shooting mode or a video shooting mode and takes a photo or video. The photographing apparatus 10 acquires and manages photographing information such as subject distance, focal length, zoom rate, photographing date and time for each photographed content.

また、撮影装置10は、自装置の撮影位置(緯度、経度、高度)を示す撮影位置情報と、撮影方向(方位角、傾斜角)を示す撮影方向情報とを取得する機能を備える。そして、撮影装置10は、撮影情報、撮影位置情報、および撮影方向情報を含むメタデータを生成し、撮影した写真データまたは映像データに付加してコンテンツデータを生成する。撮影装置10は、そのコンテンツデータを、ネットワーク40を介してコンテンツ共有装置20にアップロードしたり、ネットワーク40に接続された他の情報処理装置(不図示)に転送したりする。
なお、撮影装置10のコンテンツデータを上記他の情報処理装置にオフラインで複製した後、その情報処理装置からそのコンテンツデータをコンテンツ共有装置20にアップロードするようにしてもよい。
In addition, the photographing apparatus 10 has a function of acquiring photographing position information indicating a photographing position (latitude, longitude, altitude) of the own apparatus and photographing direction information indicating a photographing direction (azimuth angle, inclination angle). Then, the photographing apparatus 10 generates metadata including photographing information, photographing position information, and photographing direction information, and adds the photographed data or the video data to generate content data. The imaging device 10 uploads the content data to the content sharing device 20 via the network 40 or transfers it to another information processing device (not shown) connected to the network 40.
In addition, after the content data of the imaging device 10 is replicated offline to the other information processing device, the content data may be uploaded from the information processing device to the content sharing device 20.

コンテンツ共有装置20は、アップロードされたコンテンツデータを記憶するとともに、コンテンツに付加されたメタデータを解析して、その被写体、構図、カメラワークを特定し、コンテンツデータと関連づけて記憶する。但し、カメラワークを特定して記憶するのは、コンテンツが映像の場合に限る。
また、コンテンツ共有装置20は、編集装置30からのコンテンツ候補の提示要求に対して、この提示要求内容に一致するコンテンツ候補を抽出して提示したり、編集装置30からのコンテンツ要求に対して、指定されたコンテンツデータを供給したりする。
編集装置30は、撮影装置10から供給されたコンテンツデータや、コンテンツ共有装置20からダウンロードしたコンテンツデータを用いて、映像や写真によるコンテンツのノンリニア編集を行う。
ネットワーク40は、例えば、IP(Internet Protocol)によって通信可能な通信網であり、インターネットもしくはイントラネット、またはその両方を含むものである。ネットワーク40は、無線通信または有線通信を問わない。
The content sharing device 20 stores the uploaded content data, analyzes the metadata added to the content, identifies the subject, composition, and camera work, and stores them in association with the content data. However, the camera work is specified and stored only when the content is video.
Further, the content sharing apparatus 20 extracts and presents content candidates that match the presentation request content in response to a content candidate presentation request from the editing apparatus 30, or responds to a content request from the editing apparatus 30. Supply specified content data.
The editing device 30 performs non-linear editing of content using video and photographs using content data supplied from the image capturing device 10 and content data downloaded from the content sharing device 20.
The network 40 is a communication network that can communicate by, for example, IP (Internet Protocol), and includes the Internet, an intranet, or both. The network 40 may be wireless communication or wired communication.

次に、コンテンツ共有システム1の撮影装置10、コンテンツ共有装置20、および編集装置30について、より詳細な構成について説明する。図2は、撮影装置10の機能構成を示すブロック図である。同図に示すように、撮影装置10は、光学系101と、撮像部102と、画像処理部103と、測位部104と、方位角測定部105と、傾斜角測定部106と、メタデータ生成部107と、送信部108とを含んで構成される。   Next, a more detailed configuration of the imaging device 10, the content sharing device 20, and the editing device 30 of the content sharing system 1 will be described. FIG. 2 is a block diagram illustrating a functional configuration of the photographing apparatus 10. As shown in the figure, the photographing apparatus 10 includes an optical system 101, an imaging unit 102, an image processing unit 103, a positioning unit 104, an azimuth angle measuring unit 105, a tilt angle measuring unit 106, and metadata generation. The unit 107 and the transmission unit 108 are included.

撮像部102は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を含み、レンズ群および焦点調整部を含む光学系101によって撮像素子の撮像面に結像された被写体像を撮像する。そして、撮像部102は、撮像画像を電気信号である撮像画像信号に変換して画像処理部103に供給する。また、撮像部102は、撮影情報を取得してメタデータ生成部107に供給する。
画像処理部103は、撮像画像信号をデジタル画像データに変換し、データ圧縮処理を行って圧縮画像データを生成する。また、画像処理部103は、デジタル画像データを所望の倍率で拡大または縮小させることによってデジタルズーム処理を行う。また、画像処理部103は、メタデータ生成部107から供給されたメタデータを圧縮画像データに付加してコンテンツデータを生成し送信部108に供給する。送信部108は、コンテンツデータをIPパケットに変換してコンテンツ共有装置20に対して送信する。
The imaging unit 102 includes an imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and forms an image on an imaging surface of the imaging device by an optical system 101 including a lens group and a focus adjustment unit. The captured subject image is captured. Then, the imaging unit 102 converts the captured image into a captured image signal that is an electrical signal and supplies the captured image signal to the image processing unit 103. Further, the imaging unit 102 acquires shooting information and supplies it to the metadata generation unit 107.
The image processing unit 103 converts the captured image signal into digital image data, performs data compression processing, and generates compressed image data. The image processing unit 103 performs digital zoom processing by enlarging or reducing the digital image data at a desired magnification. Further, the image processing unit 103 adds the metadata supplied from the metadata generation unit 107 to the compressed image data, generates content data, and supplies the content data to the transmission unit 108. The transmission unit 108 converts the content data into an IP packet and transmits it to the content sharing apparatus 20.

測位部104は、例えばGPS機能を備えており、当該撮影装置10の位置を示す経度、経度、高度を測定し撮影位置情報としてメタデータ生成部107に供給する。方位角測定部105は、例えば磁気センサであり、地磁気を基準にして光学系101の光軸の方位角を検出しメタデータ生成部107に供給する。方位角は、地磁気の北方向を0度として時計回りに角度をふったものである。傾斜角測定部106は、例えば3軸加速度センサであり、水平面に直交する面であって光学系101の光軸を含む面における、水平面に対する光軸の傾斜角を検出してメタデータ生成部107に供給する。メタデータ生成部107に供給される方位角および傾斜角を撮影方向情報と呼ぶ。   The positioning unit 104 has, for example, a GPS function, measures the longitude, longitude, and altitude indicating the position of the photographing apparatus 10 and supplies the measured position information to the metadata generation unit 107 as photographing position information. The azimuth measuring unit 105 is, for example, a magnetic sensor, detects the azimuth angle of the optical axis of the optical system 101 with reference to geomagnetism, and supplies the detected azimuth angle to the metadata generation unit 107. The azimuth is a clockwise angle with the north direction of geomagnetism being 0 degrees. The tilt angle measurement unit 106 is, for example, a triaxial acceleration sensor, and detects a tilt angle of the optical axis with respect to the horizontal plane on a plane that is orthogonal to the horizontal plane and includes the optical axis of the optical system 101, and generates a metadata generation unit 107. To supply. The azimuth angle and tilt angle supplied to the metadata generation unit 107 are referred to as shooting direction information.

メタデータ生成部107は、メタデータを生成して画像処理部103に供給する。つまり、メタデータ生成部107は、撮像部102から撮影情報を取得し、測位部104から撮影位置情報を取得し、方位角測定部105および傾斜角測定部106から撮影方向情報を取得してメタデータを生成し画像処理部103に供給する。   The metadata generation unit 107 generates metadata and supplies it to the image processing unit 103. That is, the metadata generation unit 107 acquires shooting information from the imaging unit 102, acquires shooting position information from the positioning unit 104, acquires shooting direction information from the azimuth angle measuring unit 105 and the tilt angle measuring unit 106, and performs meta data. Data is generated and supplied to the image processing unit 103.

図3は、メタデータ生成部107が生成するメタデータのデータフォーマットの例を示した図である。同図に示すように、メタデータは、撮影情報と位置・方向情報とを含む。そして、撮影情報は、被写体距離、焦点距離、被写体場所、ズーム率、撮影日時、および機種情報を含む。被写体距離(撮影距離情報)は、光学系101の焦点調整部が有する自動焦点機構によって測定される距離である。焦点距離は、光学系101のレンズ群の光学的な焦点距離である。被写体場所は、不図示の操作部の操作によって手入力されたり、外部からの通信によって入力されたりするテキスト情報である。この被写体場所は、任意入力項目である。ズーム率は、撮影装置10がデジタルズーム処理したときのズーム倍率である。撮影日時は、撮像部102が撮像したときに、不図示の内部時計によって計時した日時情報である。機種情報は、撮影装置10の機種名または型番の情報である。
また、同図において、位置・方向情報は、緯度、経度、高度、方位角、および傾斜角を含む。この位置・方向情報における緯度、経度、および高度は、前記の撮影位置情報である。また、位置・方向情報における方位角および傾斜角は前記の撮影方向情報である。
なお、メタデータのフォーマットとして、日本電子工業振興協会(JEIDA)で規格化されたEXIF、またはSMPTE規格によって定義されたMXFを適用することができる。
FIG. 3 is a diagram illustrating an example of a data format of metadata generated by the metadata generation unit 107. As shown in the figure, the metadata includes shooting information and position / direction information. The shooting information includes subject distance, focal length, subject location, zoom rate, shooting date and time, and model information. The subject distance (shooting distance information) is a distance measured by an autofocus mechanism included in the focus adjustment unit of the optical system 101. The focal length is an optical focal length of the lens group of the optical system 101. The subject location is text information that is manually input by operating an operation unit (not shown) or input by communication from the outside. This subject location is an optional input item. The zoom rate is a zoom magnification when the photographing apparatus 10 performs digital zoom processing. The shooting date / time is date / time information measured by an internal clock (not shown) when the imaging unit 102 takes an image. The model information is information on the model name or model number of the photographing apparatus 10.
Further, in the same figure, the position / direction information includes latitude, longitude, altitude, azimuth angle, and tilt angle. The latitude, longitude, and altitude in the position / direction information are the shooting position information. Further, the azimuth angle and the inclination angle in the position / direction information are the shooting direction information.
As a metadata format, EXIF standardized by the Japan Electronics Industry Promotion Association (JEIDA) or MXF defined by the SMPTE standard can be applied.

メタデータ生成部107は、写真のコンテンツデータには、1つの写真データに1つのメタデータを対応させる。一方、メタデータ生成部107は、映像のコンテンツデータには、所定のフレーム画像(例えば、モーションJPEGの場合。)または所定のGOP(Group Of Pictures)(例えば、MPEGの場合)に1つのメタデータを対応づけるようにする。これは、1つの映像データに1つのメタデータを対応させた場合に、長時間の撮影による映像や複数のシーンで構成される映像が1つの映像データになっていると、その映像の内容とメタデータの属性情報との間に不一致が生じることがあるため、写真のコンテンツデータとは違う対応づけをするものである。   The metadata generation unit 107 associates one piece of metadata with one piece of photo data in the photo content data. On the other hand, the metadata generation unit 107 includes one piece of metadata for a predetermined frame image (for example, motion JPEG) or a predetermined GOP (Group of Pictures) (for example, MPEG) for video content data. To be matched. This is because, when one piece of metadata is associated with one piece of video data, if a video taken for a long time or a video composed of a plurality of scenes is one video data, Since there may be a discrepancy between the attribute information of the metadata, the association is different from the content data of the photo.

メタデータ生成部107は、例えば、次のようにして映像データとメタデータとの対応づけを行う。図4は、映像データとメタデータとの対応関係を模式的に示した図である。同図は、1つの映像データが2つのシーン(シーン1およびシーン2)で構成された例を示すものであり、シーン1の先頭フレーム画像をフレーム画像F1s、最終フレーム画像をフレーム画像F1eとし、シーン2の先頭フレーム画像をフレーム画像F2s、最終フレーム画像をフレーム画像F2eとしている。このようなフレーム構成の映像データに対して、メタデータ生成107は、4つのメタデータを対応づける。つまり、メタデータ生成部107は、フレーム画像F1sにメタデータMD1s、フレーム画像F1eにメタデータMD1e、フレーム画像F2sにメタデータMD2s、フレーム画像F2eにメタデータMD2eを対応づける。
なお、メタデータ生成部107は、シーン単位でメタデータを対応づけてもよい。
For example, the metadata generation unit 107 associates video data and metadata as follows. FIG. 4 is a diagram schematically showing the correspondence between video data and metadata. The figure shows an example in which one video data is composed of two scenes (scene 1 and scene 2). The first frame image of scene 1 is a frame image F1s, and the last frame image is a frame image F1e. The first frame image of scene 2 is a frame image F2s, and the last frame image is a frame image F2e. The metadata generation 107 associates four pieces of metadata with video data having such a frame configuration. That is, the metadata generation unit 107 associates the metadata MD1s with the frame image F1s, the metadata MD1e with the frame image F1e, the metadata MD2s with the frame image F2s, and the metadata MD2e with the frame image F2e.
Note that the metadata generation unit 107 may associate metadata in units of scenes.

次に、コンテンツ共有装置20の構成について説明する。図5は、コンテンツ共有装置20の機能構成を示すブロック図である。同図に示すように、コンテンツ共有装置20は、コンテンツデータ登録部21と提示部22とを含んで構成される。コンテンツデータ登録部21は、アップロードされたコンテンツデータを記憶するとともに、コンテンツに付加されたメタデータを解析して被写体、構図、コンテンツが映像である場合のカメラワークを特定し、これらコンテンツ関連情報をコンテンツデータに関連づけて記憶する。提示部22は、編集装置30からのコンテンツ候補の提示要求に対して、この提示要求内容に一致するコンテンツ候補を抽出して提示したり、編集装置30からのコンテンツ要求に対して、指定されたコンテンツデータを供給したりする。   Next, the configuration of the content sharing apparatus 20 will be described. FIG. 5 is a block diagram illustrating a functional configuration of the content sharing apparatus 20. As shown in the figure, the content sharing apparatus 20 includes a content data registration unit 21 and a presentation unit 22. The content data registration unit 21 stores the uploaded content data, analyzes the metadata added to the content, identifies the subject, the composition, and the camera work when the content is video, and stores the content related information. Store in association with content data. In response to the content candidate presentation request from the editing device 30, the presentation unit 22 extracts and presents content candidates that match the content of the presentation request, or is designated in response to the content request from the editing device 30. Or supply content data.

コンテンツデータ登録部21は、コンテンツ受信部201と、コンテンツ記憶部202と、メタデータ抽出部203と、コンテンツ関連情報記憶部204と、メタデータ解析部205とを含んで構成される。   The content data registration unit 21 includes a content reception unit 201, a content storage unit 202, a metadata extraction unit 203, a content related information storage unit 204, and a metadata analysis unit 205.

コンテンツ受信部201は、撮影装置10やその他の情報処理装置からアップロード送信されたコンテンツデータを受信する。コンテンツ記憶部202は、コンテンツ受信部201で受信したコンテンツデータを記憶する。コンテンツ記憶部202は、コンテンツデータのコンテンツの種類に応じて、写真(静止画データ)のコンテンツデータを静止画データ記憶部202aに記憶し、映像(動画データ)のコンテンツデータを動画データ記憶部202bに記憶する。コンテンツ記憶部202は、例えばハードディスク装置を用いて構成される。静止画データ記憶部202aと動画データ記憶部202bとは物理的に分離された2つのコンテンツ記憶部として構成してもよいが、コンテンツ記憶部202を単一のハードディスク装置で構成して、静止画データ記憶部202aと動画データ記憶部202bとをパーティションで論理的に区分してもよい。   The content receiving unit 201 receives content data uploaded and transmitted from the imaging device 10 or other information processing devices. The content storage unit 202 stores the content data received by the content receiving unit 201. The content storage unit 202 stores the content data of a photograph (still image data) in the still image data storage unit 202a and the content data of video (moving image data) according to the content type of the content data. To remember. The content storage unit 202 is configured using, for example, a hard disk device. The still image data storage unit 202a and the moving image data storage unit 202b may be configured as two physically separated content storage units. However, the content storage unit 202 is configured by a single hard disk device, and The data storage unit 202a and the moving image data storage unit 202b may be logically divided by partition.

メタデータ抽出部203は、コンテンツ記憶部202からコンテンツデータを読み出して、そのコンテンツデータに付加されているメタデータを抽出する。
コンテンツ関連情報記憶部204は、メタデータ抽出部203で抽出されたメタデータとメタデータ解析部205で解析された情報とを、コンテンツ記憶部202に記憶されたコンテンツデータに関連付けてコンテンツ関連情報として記憶する。
The metadata extraction unit 203 reads content data from the content storage unit 202 and extracts metadata added to the content data.
The content related information storage unit 204 associates the metadata extracted by the metadata extraction unit 203 and the information analyzed by the metadata analysis unit 205 with the content data stored in the content storage unit 202 as content related information. Remember.

図6は、コンテンツ関連情報記憶部204に記憶されたコンテンツ関連情報のデータ構成を示す図である。同図において、コンテンツ関連情報は、コンテンツIDと、記憶先アドレスと、種別と、撮影日時と、撮影位置(場所・名称)と、撮影位置(緯度)と、撮影位置(経度)と、撮影位置(高度)と、被写体(場所・名称)と、被写体位置(緯度)と、被写体位置(経度)と、被写体位置(高度)と、被写体サイズと、撮影動作と、撮影動作方向との各データ項目を含み、コンテンツIDを主キーとしてデータ構成されている。
なお、同図は、図面の都合上コンテンツ関連情報を上下2段に分割して示しているが、実際のコンテンツ関連情報は、上下のレコードが※部分で連結された単一のテーブルである。
FIG. 6 is a diagram illustrating a data configuration of content related information stored in the content related information storage unit 204. In the figure, content-related information includes content ID, storage destination address, type, shooting date / time, shooting position (location / name), shooting position (latitude), shooting position (longitude), and shooting position. (Altitude), subject (location / name), subject position (latitude), subject position (longitude), subject position (altitude), subject size, shooting operation, and shooting operation direction The data is structured with the content ID as the primary key.
In the figure, for convenience of drawing, the content related information is divided into upper and lower two stages, but the actual content related information is a single table in which upper and lower records are connected by * part.

図6の撮影日時、撮影位置(緯度)、撮影位置(経度)、撮影位置(高度)、および被写体(場所・名称)の各項目の情報は、それぞれ、メタデータ抽出部203で抽出されたメタデータにおける撮影日時、緯度、経度、高度、および被写体場所である。コンテンツIDは、コンテンツ関連情報のレコードとコンテンツ記憶部202に記憶されたコンテンツデータとを対応づける識別子である。記憶先アドレスは、コンテンツ記憶部202におけるコンテンツデータの記憶先アドレス情報である。種別は、コンテンツの種類を示したものであり、“写真”または“映像”のいずれかの値を取る。この種別は、コンテンツデータのファイルヘッダに記録されたコンテンツ属性から得られる情報である。また、種別は、静止画データ記憶部202aおよび動画データ記憶部202bにおける記憶先アドレスに基づいて得られるものであってもよい。撮影位置(場所・名称)は、不図示の操作部によって書き込まれるテキスト情報である。また、撮影位置(場所・名称)は、撮影位置(緯度、経度、高度)の各項目の情報に基づいて外部の地図データベースから得られるものであってもよい。被写体(場所・名称)についても、撮影位置(場所・名称)と同様にして得られるものである。被写体位置(緯度、経度、高度)、被写体サイズ、撮影動作、および撮影動作方向の各項目の情報は、メタデータ解析部205による解析の結果得られる情報である。   The information of each item of the shooting date / time, shooting position (latitude), shooting position (longitude), shooting position (altitude), and subject (location / name) in FIG. 6 is extracted by the metadata extraction unit 203. The shooting date / time, latitude, longitude, altitude, and subject location in the data. The content ID is an identifier that associates a record of content-related information with content data stored in the content storage unit 202. The storage destination address is storage destination address information of content data in the content storage unit 202. The type indicates the type of content and takes a value of either “photo” or “video”. This type is information obtained from the content attribute recorded in the file header of the content data. The type may be obtained based on the storage destination addresses in the still image data storage unit 202a and the moving image data storage unit 202b. The shooting position (location / name) is text information written by an operation unit (not shown). Further, the shooting position (location / name) may be obtained from an external map database based on information of each item of the shooting position (latitude, longitude, altitude). The subject (location / name) can also be obtained in the same manner as the shooting position (location / name). Information on each item of the subject position (latitude, longitude, altitude), subject size, shooting operation, and shooting operation direction is information obtained as a result of analysis by the metadata analysis unit 205.

図5の説明に戻り、メタデータ解析部205は、メタデータ抽出部203で抽出されたメタデータの撮影日時、緯度、経度、高度、および被写体場所の各情報を、コンテンツ関連情報の撮影日時、撮影位置(緯度、経度、高度)、および被写体(場所・名称)の各項目にそれぞれ記録してコンテンツ関連情報記憶部204に登録する。
また、メタデータ解析部205は、メタデータを解析して、被写体の位置を表す緯度、経度、および高度、ならびに、撮影範囲サイズを分類することによって得られた被写体サイズ、撮影動作、および撮影動作方向の情報を、それぞれ、コンテンツ関連情報の被写体位置(緯度、経度、高度)、被写体サイズ、撮影動作、および撮影動作方向の各項目に記録してコンテンツ関連情報記憶部204に登録する。
Returning to the description of FIG. 5, the metadata analysis unit 205 converts the shooting date / time, latitude, longitude, altitude, and subject location information of the metadata extracted by the metadata extraction unit 203 into the shooting date / time of the content related information, Each of the shooting position (latitude, longitude, altitude) and subject (location / name) items is recorded and registered in the content related information storage unit 204.
Further, the metadata analysis unit 205 analyzes the metadata and classifies the latitude, longitude, and altitude representing the position of the subject, and the shooting range size, the subject size, the shooting operation, and the shooting operation. Information on the direction is recorded in each item of the subject position (latitude, longitude, altitude), subject size, photographing operation, and photographing operation direction of the content-related information, and is registered in the content-related information storage unit 204.

具体的には、例えば、メタデータ解析部205は、撮影装置10の緯度および経度から平面直角座標系の座標値(x1,y1)を求める。なお、緯度・経度と平面直角座標系の座標値との相互変換の計算方法については、周知技術であるためここではその説明を省略する。
次に、メタデータ解析部205は、撮影装置10と被写体との距離である被写体距離Lと、撮影装置10の座標値(x1,y1)と、撮影装置10の高度h1と、傾斜角θ1と、方位角θ2とに基づいて、被写体の平面直角座標系の座標値(x2,y2)と高度h2とを下記の式(1)によって計算する。なお、傾斜角θ1は、水平面に直交する面であって撮影装置10の光学系101の光軸を含む面における、水平面に対する光軸の傾斜角度である。また、方位角θ2は、X軸の正方向を基準として反時計回りの角度である。
Specifically, for example, the metadata analysis unit 205 obtains the coordinate value (x1, y1) of the planar rectangular coordinate system from the latitude and longitude of the imaging device 10. Note that a method for calculating mutual conversion between latitude / longitude and coordinate values of the plane rectangular coordinate system is a well-known technique, and therefore, description thereof is omitted here.
Next, the metadata analysis unit 205 includes a subject distance L that is a distance between the photographing apparatus 10 and the subject, a coordinate value (x1, y1) of the photographing apparatus 10, an altitude h1 of the photographing apparatus 10, and an inclination angle θ1. Based on the azimuth angle θ2, the coordinate value (x2, y2) and altitude h2 of the plane rectangular coordinate system of the subject are calculated by the following equation (1). Note that the inclination angle θ1 is an inclination angle of the optical axis with respect to the horizontal plane in a plane orthogonal to the horizontal plane and including the optical axis of the optical system 101 of the photographing apparatus 10. The azimuth angle θ2 is a counterclockwise angle with respect to the positive direction of the X axis.

Figure 2011078008
Figure 2011078008

つまり、メタデータ解析部205は、被写体位置の高度h2を、被写体距離Lと、傾斜角θ1と、撮像装置の高度h1とに基づいて求める。また、メタデータ解析部205は、撮影装置10の緯度・経度を平面直角座標系の座標値(x1,y1)に変換し、被写体の緯度に相当する平面直角座標系の座標値x2を、撮影装置10と被写体との平面直角座標平面上における距離(L・cosθ1)と、方位角θ2と、撮影装置10の座標値x1とに基づいて求める。そして、これと同様にして、メタデータ解析部205は、被写体の経度に相当する平面直角座標系の座標値y2を、撮影装置10と被写体との平面直角座標平面上における距離(L・cosθ1)と、方位角θ2と、撮影装置10の座標値y1とに基づいて求める。
メタデータ解析部205は、式(1)による計算の後、被写体の座標値(x2,y2)から被写体の緯度・経度を求める。
That is, the metadata analysis unit 205 obtains the altitude h2 of the subject position based on the subject distance L, the inclination angle θ1, and the altitude h1 of the imaging device. Further, the metadata analysis unit 205 converts the latitude / longitude of the photographing apparatus 10 into the coordinate values (x1, y1) of the plane rectangular coordinate system, and captures the coordinate value x2 of the planar rectangular coordinate system corresponding to the latitude of the subject. It is determined based on the distance (L · cos θ1) between the apparatus 10 and the subject on the plane rectangular coordinate plane, the azimuth angle θ2, and the coordinate value x1 of the photographing apparatus 10. In the same manner, the metadata analysis unit 205 calculates the coordinate value y2 of the plane rectangular coordinate system corresponding to the longitude of the subject on the distance (L · cos θ1) on the plane rectangular coordinate plane between the imaging device 10 and the subject. And the azimuth angle θ2 and the coordinate value y1 of the photographing apparatus 10 are obtained.
The metadata analysis unit 205 obtains the latitude / longitude of the subject from the coordinate values (x2, y2) of the subject after the calculation according to the equation (1).

また、メタデータ解析部205は、焦点の合った平面(すなわち、被写体の存在する場所)における撮影範囲の面積を用いて撮影範囲サイズを計算する。図7は、メタデータ解析部205による撮影範囲サイズの計算を説明するための図である。同図を参照して説明すると、メタデータ解析部205は、式(2)によって撮影範囲71の撮影幅W及び撮影高Hを計算し、撮影範囲71の撮影面積SSを計算する。この撮影面積SSが撮影範囲サイズである。式(2)において、SWは、撮影幅Wに対応する撮像素子の撮像面72の幅寸法(撮像面幅、撮像面サイズ)であり、SHは、撮影高Hに対応する撮像面72の高さ寸法(撮像面高、撮像面サイズ)である。また、SDは被写体距離であり、FLは焦点距離であり、ZRはズーム率である。   In addition, the metadata analysis unit 205 calculates the shooting range size using the area of the shooting range on the focused plane (that is, the place where the subject exists). FIG. 7 is a diagram for explaining calculation of the shooting range size by the metadata analysis unit 205. Describing with reference to the figure, the metadata analysis unit 205 calculates the shooting width W and the shooting height H of the shooting range 71 by the equation (2), and calculates the shooting area SS of the shooting range 71. This shooting area SS is the shooting range size. In Expression (2), SW is the width dimension (imaging surface width, imaging surface size) of the imaging surface 72 of the imaging device corresponding to the imaging width W, and SH is the height of the imaging surface 72 corresponding to the imaging height H. It is a dimension (imaging surface height, imaging surface size). SD is a subject distance, FL is a focal length, and ZR is a zoom rate.

Figure 2011078008
Figure 2011078008

すなわち、メタデータ解析部205は、撮像素子の撮像面72の撮像面サイズと、焦点距離と被写体距離との比率と、ズーム率とに基づいて、被写体の存在する場所における撮影範囲71の面積を算出する。なお、式(2)における被写体距離SD、焦点距離FL、およびズーム率ZRは、メタデータの撮影情報から得られる被写体距離、焦点距離、およびズーム率である。また、撮像素子の撮像面幅SWおよび撮像面高SHは、メタデータ解析部205がメタデータの撮影情報に記述された機種情報に基づいて得る値である。つまり、メタデータ解析部205は、撮影装置の機種名とその撮影装置に搭載された撮像素子の種類と撮像面72のサイズとを対応付けた撮影装置対撮像素子テーブルを予め記憶しておき、メタデータの機種情報に記述された機種名を検索キーとして撮影装置対撮像素子テーブルから撮像面72のサイズを取得する。
但し、メタデータ解析部205は、被写体距離SD=∞(無限大)である場合は、式(2)の計算を行わない。
That is, the metadata analysis unit 205 determines the area of the shooting range 71 at the location where the subject exists based on the imaging surface size of the imaging surface 72 of the imaging device, the ratio between the focal length and the subject distance, and the zoom rate. calculate. Note that the subject distance SD, the focal length FL, and the zoom rate ZR in Expression (2) are the subject distance, the focal length, and the zoom rate obtained from the shooting information of the metadata. The imaging surface width SW and the imaging surface height SH of the imaging device are values obtained by the metadata analysis unit 205 based on the model information described in the imaging information of the metadata. That is, the metadata analysis unit 205 stores in advance an imaging device-to-imaging device table in which the model name of the imaging device, the type of the imaging device mounted on the imaging device, and the size of the imaging surface 72 are associated with each other. The size of the imaging surface 72 is acquired from the imaging device vs. imaging element table using the model name described in the model information of the metadata as a search key.
However, the metadata analysis unit 205 does not calculate Expression (2) when the subject distance SD = ∞ (infinity).

そして、メタデータ解析部205は、同一の被写体が撮影された複数のコンテンツデータを、被写体距離SDと撮影面積SSとに基づいて分類する。例えば、メタデータ解析部205は、被写体距離SDが無限大であるコンテンツデータのみの集合(ロング)を作成する。そして、その集合(ロング)を除き、撮影面積SSの最大値と最小値との差分を計算し、所定の分類数(例えば、撮影距離に関する構図であるミドル、ルーズ、フル、ニー、およびアップに分類する場合は分類数=5)で除算して5つの集合を作成する。つまり、メタデータ解析部205は、被写体サイズの種類として、ロング、ミドル、ルーズ、フル、ニー、及びアップの6種類にコンテンツデータを分類する。   Then, the metadata analysis unit 205 classifies a plurality of content data obtained by photographing the same subject based on the subject distance SD and the photographing area SS. For example, the metadata analysis unit 205 creates a set (long) of only content data whose subject distance SD is infinite. Then, except for the set (long), the difference between the maximum value and the minimum value of the shooting area SS is calculated, and the predetermined number of classifications (for example, middle, loose, full, knee, and up, which are compositions related to the shooting distance) In the case of classification, five sets are created by dividing by the number of classifications = 5). That is, the metadata analysis unit 205 classifies content data into six types of subject sizes: long, middle, loose, full, knee, and up.

また、メタデータ解析部205は、メタデータ抽出部203で抽出したメタデータが映像のコンテンツに係るものである場合、そのメタデータに基づいてカメラワークを特定する。カメラワークとは、映像のコンテンツにおける、被写体に対する撮影装置10の撮影動作および撮影動作方向である。撮影動作とは、例えば、固定、ズームイン/アウト、チルト、パンである。撮影動作方向とは、例えば、チルトの場合は上/下方向であり、パンの場合は左/右方向である。
例えば、図4に示したシーン1の例においては、メタデータ解析部205は、メタデータMD1sとメタデータMD1eとの差分を求め、被写体に対して撮影装置10が傾斜角0度から傾斜角40度までチルトアップしているという撮影動作および撮影動作方向を特定する。さらに、メタデータ解析部205は、同様にしてズーム率、緯度、経度、高度、および方位角についても差分を求め、同図のシーン1の例においては、被写体に対してズーム動作およびパン動作を行っていないという撮影動作を特定する。
In addition, when the metadata extracted by the metadata extraction unit 203 relates to video content, the metadata analysis unit 205 identifies camerawork based on the metadata. The camera work is a shooting operation and a shooting operation direction of the shooting device 10 for a subject in a video content. The photographing operation includes, for example, fixing, zooming in / out, tilting, and panning. The shooting operation direction is, for example, an up / down direction in the case of tilt, and a left / right direction in the case of pan.
For example, in the example of the scene 1 illustrated in FIG. 4, the metadata analysis unit 205 obtains a difference between the metadata MD1s and the metadata MD1e, and the photographing apparatus 10 with respect to the subject has an inclination angle of 40 degrees. The shooting operation and the shooting operation direction are specified as being tilted up to a degree. Further, the metadata analysis unit 205 similarly obtains a difference for the zoom rate, latitude, longitude, altitude, and azimuth, and in the example of the scene 1 in FIG. The shooting operation that is not performed is specified.

再び図5の説明に戻り、コンテンツ共有装置20の提示部22は、通信部211と、要求情報受信部212と、要求情報解析部213と、提示情報生成部214と、ルールデータベース部215と、提示情報送信部216と、コンテンツ送信部217と、認証部218とを含んで構成される。   Returning to the description of FIG. 5 again, the presentation unit 22 of the content sharing apparatus 20 includes a communication unit 211, a request information reception unit 212, a request information analysis unit 213, a presentation information generation unit 214, a rule database unit 215, The presentation information transmission unit 216, the content transmission unit 217, and the authentication unit 218 are configured.

通信部211は、編集装置30との間で通信を行い、編集装置30から送信された提示要求情報またはコンテンツ要求情報を受信し、また提示要求情報の応答である提示情報もしくはコンテンツ要求情報の応答であるコンテンツデータを送信する通信インタフェースである。要求情報受信部212は、通信部211で受信された提示要求情報またはコンテンツ要求情報を受信する。認証部218は、要求情報受信部212が受信した提示要求情報またはコンテンツ要求情報の送信者および編集装置30を認証する。   The communication unit 211 communicates with the editing device 30, receives the presentation request information or content request information transmitted from the editing device 30, and also responds to the presentation information or content request information that is a response to the presentation request information. This is a communication interface for transmitting content data. The request information receiving unit 212 receives the presentation request information or the content request information received by the communication unit 211. The authentication unit 218 authenticates the sender of the presentation request information or content request information received by the request information receiving unit 212 and the editing device 30.

要求情報解析部213は、認証部218によって認証された提示要求情報またはコンテンツ要求情報を要求情報受信部212から受信するとそれらを分類する。そして、要求情報解析部213は、提示要求情報についてはその内容を解析して被写体の位置、構図、撮影装置10の撮影動作を特定し、コンテンツ要求情報についてはそれに含まれるコンテンツIDをコンテンツ送信部217に供給する。編集装置30から供給される提示要求情報およびコンテンツ要求情報の詳細については後述する。   When the request information analysis unit 213 receives the presentation request information or the content request information authenticated by the authentication unit 218 from the request information reception unit 212, the request information analysis unit 213 classifies them. Then, the request information analysis unit 213 analyzes the content of the presentation request information to identify the position and composition of the subject and the shooting operation of the shooting device 10, and the content request information includes the content ID included in the content request information To 217. Details of the presentation request information and the content request information supplied from the editing device 30 will be described later.

提示情報生成部214は、要求情報解析部213の解析結果とルールデータベース部215とに基づいて、コンテンツ関連情報記憶部204の中から候補となるコンテンツデータのコンテンツIDを選択し、このコンテンツIDをキーとしてコンテンツ記憶部202からコンテンツデータを選択して提示情報を生成する。この提示情報は、選択したコンテンツデータがどのような内容のコンテンツであるかということについて視覚的に確認することができるよう、選択したコンテンツデータからデータ量の少ない提示用コンテンツを作成したものである。   The presentation information generation unit 214 selects content IDs of candidate content data from the content related information storage unit 204 based on the analysis result of the request information analysis unit 213 and the rule database unit 215, and uses this content ID. The presentation information is generated by selecting content data from the content storage unit 202 as a key. This presentation information is created by creating content for presentation with a small amount of data from the selected content data so that the content of the selected content data can be visually confirmed. .

図8は、提示情報生成部214が生成する提示情報のデータ構成を示した図である。同図に示すように、提示情報は、ヘッダと、利用情報と、提示用コンテンツとを含んで構成されるコンテナファイルであり、1コンテンツデータあたり1コンテナファイルである。ヘッダには、コンテンツデータの識別情報であるコンテンツIDと、コンテンツ共有装置20に付与された固有の識別情報であるコンテンツ共有装置IDとが含まれる。利用情報には、提示用コンテンツに対応するメタデータと、利用条件と、課金情報とを含む、コンテンツデータを利用するための情報が含まれる。利用条件とは、提示用コンテンツに対応するコンテンツデータを利用するための条件を示したものであり、回数制限、時間制限、内容制限等様々な態様の条件を適用できる。例えば、回数制限として、コンテンツ共有装置20からのダウンロード回数の制限や、編集装置30側での複製回数の制限がある。また、時間制限として、初回ダウンロード時からの利用時間の制限がある。さらに、内容制限として、コンテンツデータ自体の編集を許可/不許可にする制限がある。   FIG. 8 is a diagram illustrating a data configuration of the presentation information generated by the presentation information generation unit 214. As shown in the figure, the presentation information is a container file including a header, usage information, and presentation content, and one container file per content data. The header includes a content ID that is identification information of content data and a content sharing device ID that is unique identification information assigned to the content sharing device 20. The usage information includes information for using the content data, including metadata corresponding to the presentation content, usage conditions, and billing information. The use condition indicates a condition for using the content data corresponding to the presentation content, and various types of conditions such as a frequency limit, a time limit, and a content limit can be applied. For example, the frequency limit includes a limit on the number of downloads from the content sharing apparatus 20 and a limit on the number of copies on the editing apparatus 30 side. In addition, as a time limit, there is a limit on the use time from the first download. Furthermore, as a content restriction, there is a restriction that permits / denies editing of the content data itself.

課金情報は、提示用コンテンツに対応するコンテンツデータを、編集装置30のユーザが利用するために必要な料金を規定したものである。提示用コンテンツには、サムネイル画像または低解像度映像が含まれる。サムネイル画像は、コンテンツデータが静止画データである場合には、その静止画データから生成したサムネイルであり、コンテンツデータが映像データである場合には、その映像中の代表画像から生成したサムネイルである。低解像度映像は、コンテンツデータが映像データである場合に、画像の解像度を映像データの解像度よりも低くしてエンコード処理し、また再生時間長を提示用の一定時間に制限した映像コンテンツである。   The billing information defines a fee required for the user of the editing apparatus 30 to use the content data corresponding to the presentation content. The presentation content includes a thumbnail image or a low resolution video. The thumbnail image is a thumbnail generated from the still image data when the content data is still image data, and is a thumbnail generated from a representative image in the video when the content data is video data. . The low-resolution video is video content in which, when the content data is video data, encoding processing is performed with the resolution of the image being lower than the resolution of the video data, and the playback time length is limited to a certain time for presentation.

再び図5の説明に戻り、ルールデータベース部215は、要求情報解析部213における解析結果に基づいて、提示情報生成部214が提示するコンテンツを決定するためのルールを管理するデータベースである。ルールデータベース部215には、コンテンツ制作における編集のノウハウやテクニックをルール化した情報が記憶される。   Returning to the description of FIG. 5 again, the rule database unit 215 is a database that manages rules for determining the content to be presented by the presentation information generation unit 214 based on the analysis result in the request information analysis unit 213. The rule database unit 215 stores information that rules editing know-how and techniques in content production.

具体的には、ルールデータベース部215は、ショットマトリクス215aと、ルールテーブル215bとを含んで構成される。ショットマトリクス215aは、撮影装置10における構図の種類と、撮影装置10の撮影動作と撮影動作方向との組み合わせの種類との二次元マトリクスによって、コンテンツの撮影に関する特徴を分類し記憶したものである。提示情報生成部214は、要求情報解析部213で特定した構図と撮影装置10の撮影動作と撮影動作方向とを用いてショットマトリクス215aを参照し、コンテンツの撮影に関する特徴を抽出することができる。
ルールテーブル215bは、時間的に連続する複数のコンテンツの次または前に並べるのに適切なコンテンツの候補を選出するためのテーブルである。テーブルの内容は、1つまたは複数のコンテンツの撮影に関する特徴の入力列に対して、コンテンツ制作における編集のノウハウやテクニックのルールを反映した、次または前につなげるコンテンツ候補の撮影に関する特徴を1つまたは複数出力するものである。
Specifically, the rule database unit 215 includes a shot matrix 215a and a rule table 215b. The shot matrix 215a classifies and stores features related to content shooting based on a two-dimensional matrix of a composition type in the photographing apparatus 10 and a combination type of photographing operation and photographing operation direction of the photographing apparatus 10. The presentation information generation unit 214 can extract features related to content shooting by referring to the shot matrix 215 a using the composition specified by the request information analysis unit 213, the shooting operation and the shooting operation direction of the shooting apparatus 10.
The rule table 215b is a table for selecting content candidates suitable for arranging next to or before a plurality of temporally continuous content. The contents of the table reflect one or more features relating to the shooting of content candidates to be connected to the next or previous, reflecting the rules of editing know-how and techniques in content production for the input sequence of features relating to shooting of one or more contents. Or a plurality of outputs.

コンテンツ制作における編集のノウハウやテクニックのルールとは、映像制作技法やプロの映像制作者の映像制作のノウハウに基づき、構図、撮影動作、もしくは撮影動作方向のうち任意の組み合わせの変更をルール化したものである。例えば、被写体の構図としてアップショットの次に再度アップショットが続いた場合には、次はルーズに変えるとか、撮影動作としてズームインした次にはアップにするといったような、どのような素材をつなぎ合わせれば見やすい映像になるかということを体系化したものである。また、連続した同方向へのパン動作等、通常見にくい映像になりそうな撮影動作を除外することも体系化の重要な要素である。   Editing know-how and technique rules in content production are rules for changing any combination of composition, shooting operation, or shooting operation direction based on video production techniques and video production know-how of professional video producers. Is. For example, if an up shot is followed by an up shot as the composition of the subject, what materials can be connected, such as changing to loose next, or up after zooming in as a shooting operation, etc. This systematizes whether the video will be easy to see. Another important element of systematization is to exclude shooting operations that are likely to be difficult to see, such as continuous panning in the same direction.

図9は、ルールデータベース部215に含まれるショットマトリクス215aおよびルールテーブル215bのデータ構成図である。同図(a)はショットマトリクスのデータ構成例であり、同図(b)はルールテーブルのデータ構成例である。同図(a)のショットマトリクスは、「1 ロング」、「2 ミドル」等の構図の種類と、「A 固定」、「B パン(右→左)」等の撮影動作および撮影動作方向の組み合わせの種類との二次元マトリクス表によってコンテンツの撮影に関する特徴を分類したものである。
同図(b)のルールテーブルは、「ルールID」=“000002”である行を例にとると、コンテンツの撮影に関する特徴が“2A”,“5F”である2つのコンテンツを並べたときに(「Input1」=“2A”、「Input2」=“5F”)、次につなぎ合わせるコンテンツの特徴として、“5A”,“4A”がその候補(「Output1」=“5A”、「Output2」=“4A”)として得られることを示している。「Output1,Output2,・・・」の順番は、提示すべきコンテンツデータの優先順位の高い方からの順番に対応する。
FIG. 9 is a data configuration diagram of the shot matrix 215a and the rule table 215b included in the rule database unit 215. FIG. 4A shows an example of the data structure of the shot matrix, and FIG. 4B shows an example of the data structure of the rule table. The shot matrix in FIG. 11A is a combination of composition types such as “1 long” and “2 middle”, and shooting operations and shooting operation directions such as “A fixed” and “B pan (right → left)”. The features relating to the shooting of content are classified according to a two-dimensional matrix table of types.
In the rule table of FIG. 7B, taking a line with “rule ID” = “000002” as an example, when two contents whose characteristics regarding content shooting are “2A” and “5F” are arranged. (“Input1” = “2A”, “Input2” = “5F”), and “5A” and “4A” are candidates (“Output1” = “5A”, “Output2” = “4A”). The order of “Output1, Output2,...” Corresponds to the order from the highest priority of the content data to be presented.

再び図5の説明に戻り、提示情報送信部216は、提示要求情報を送信した編集装置30に対して、通信部211を通して提示情報を送信する。コンテンツ送信部217は、コンテンツ要求情報に含まれるコンテンツIDをキーとしてコンテンツ記憶部202からコンテンツデータを読み出し、コンテンツ要求情報を送信した編集装置30に対して、通信部211からコンテンツデータを送信させる。   Returning to the description of FIG. 5 again, the presentation information transmission unit 216 transmits the presentation information through the communication unit 211 to the editing apparatus 30 that has transmitted the presentation request information. The content transmission unit 217 reads content data from the content storage unit 202 using the content ID included in the content request information as a key, and causes the editing apparatus 30 that has transmitted the content request information to transmit the content data from the communication unit 211.

次に、編集装置30について説明する。編集装置30は、撮影装置10や情報処理装置からコンテンツデータの供給を受けたり、コンテンツ共有装置20からコンテンツデータをダウンロードしたりして自装置内に格納し、これら格納した複数のコンテンツデータ(素材とも呼ぶ。)を用いてコンテンツの制作(編集)を行う装置である。
なお、編集装置30には、映像データ自体や静止画データ自体の画像処理機能、フェードやワイプ等の特殊効果処理機能、スーパ処理機能等の編集機能も備わっているが、これらの編集機能については周知技術であり本実施形態とは独立しているため、その説明を省略する。
Next, the editing device 30 will be described. The editing device 30 receives supply of content data from the imaging device 10 or the information processing device or downloads content data from the content sharing device 20 and stores the content data in its own device. It is also a device that produces (edits) content using “.
Note that the editing device 30 also has editing functions such as an image processing function for video data and still image data itself, a special effect processing function such as fade and wipe, a super processing function, and the like. Since it is a well-known technique and independent of the present embodiment, the description thereof is omitted.

本実施形態における編集処理の理解を容易なものにするため、編集装置30の構成を説明する前に、編集装置30の操作インタフェースについて説明する。図10は、編集装置30の操作インタフェースであるGUI(Graphical User Interface)の主要部を模式的に示した図である。同図に示すように、編集装置30の表示部(不図示)に表示されるGUI画面1000は、ソースモニタ1010と、プログラムモニタ1020と、タイムライン1030と、素材エリア1040と、提示要求エリア1050とを含んで構成される。そして、GUI画面1000上にはカーソル1060が表示される。GUI画面1000の各GUIパーツは、ポインティングデバイス(不図示)の操作に従って画面上自在に動かされるカーソル1060によって指定、決定、およびドラッグ&ドロップされる。   In order to facilitate the understanding of the editing process in the present embodiment, the operation interface of the editing device 30 will be described before the configuration of the editing device 30 is described. FIG. 10 is a diagram schematically illustrating a main part of a GUI (Graphical User Interface) that is an operation interface of the editing apparatus 30. As shown in the figure, a GUI screen 1000 displayed on a display unit (not shown) of the editing apparatus 30 includes a source monitor 1010, a program monitor 1020, a timeline 1030, a material area 1040, and a presentation request area 1050. It is comprised including. A cursor 1060 is displayed on the GUI screen 1000. Each GUI part of the GUI screen 1000 is designated, determined, and dragged and dropped by a cursor 1060 that is freely moved on the screen in accordance with an operation of a pointing device (not shown).

ソースモニタ1010は、素材エリア1040から選択された素材の内容を表示したり、スライダ1011の操作にしたがってシーンのイン/アウトのタイミングを設定したりするモニタ領域である。プログラムモニタ1020は、タイムライン1030で編集作業中のコンテンツ(編集コンテンツ)を表示するモニタ領域であり、スライダ1021の操作にしたがって編集コンテンツの所望のシーンを確認することができる。タイムライン1030は、コンテンツの編集作業領域であり、素材エリア1040からドラッグ&ドロップした素材を所望の順番に配置させて、コンテンツを制作する作業エリアである。図10の例のように、ビデオ1,2,3やオーディオ1,2のようにリソースごとに素材を配置することができる。そして、各タイムラインおよびタイムライン中の各領域は、ドラッグ&ドロップ動作によって任意に配置を変更することができる。同図は、ビデオ2のシーン1031がカーソル1060によって選択された状態を示している。   The source monitor 1010 is a monitor area that displays the content of the material selected from the material area 1040 and sets the in / out timing of the scene according to the operation of the slider 1011. The program monitor 1020 is a monitor area for displaying content (edited content) being edited on the timeline 1030, and a desired scene of the edited content can be confirmed according to the operation of the slider 1021. The timeline 1030 is a content editing work area, and is a work area for creating content by arranging materials dragged and dropped from the material area 1040 in a desired order. As in the example of FIG. 10, materials can be arranged for each resource like videos 1, 2, 3 and audios 1, 2. Each timeline and each area in the timeline can be arbitrarily changed by a drag and drop operation. This figure shows a state in which the scene 1031 of video 2 is selected by the cursor 1060.

素材エリア1040は、編集装置30に格納された素材のサムネイル画像、アイコン、またはコンテンツ共有装置20から受信した提示情報の提示用コンテンツを表示する。図10において「Local」と記載されたものが編集装置30に格納された素材を表し、「Remote」と記載されたものが提示用コンテンツを表す。   The material area 1040 displays the thumbnail image, the icon of the material stored in the editing device 30, or the content for presentation of the presentation information received from the content sharing device 20. In FIG. 10, “Local” indicates a material stored in the editing apparatus 30, and “Remote” indicates a presentation content.

提示要求エリア1050は、コンテンツ共有装置20に対してコンテンツデータの候補の提示要求を行う作業領域である。具体的には、提示要求エリア1050は、ポップアップメニュー形式のGUI領域であり、タイムライン1030から提示要求の元となるシーン(元シーン)や、素材エリア1040から提示要求の元となる素材(元素材)(但し、「Local」のみ)がドラッグ&ドロップされると、提示要求情報入力メニュー1051がポップアップ表示される。この提示要求情報入力メニュー1051には、条件設定の設定項目が表示される。提示要求情報入力メニュー1051の操作によって、元素材および元シーン(これらのコンテンツを元コンテンツと呼ぶ。)とどのような条件に一致するコンテンツデータを要求するかという提示要求が入力されたのち、決定キー1052がクリックされると提示要求の内容が決定され提示要求情報が生成される。提示要求情報およびこれの生成処理については、その詳細を後述する。   The presentation request area 1050 is a work area in which a content data candidate presentation request is made to the content sharing apparatus 20. Specifically, the presentation request area 1050 is a pop-up menu type GUI area, and a scene (original scene) that is a source of the presentation request from the timeline 1030 and a material (original source) of the presentation request from the material area 1040. When the (material) (however, only “Local”) is dragged and dropped, a presentation request information input menu 1051 is popped up. In this presentation request information input menu 1051, setting items for condition setting are displayed. After an input of a presentation request for requesting content data that matches an original material and an original scene (these contents are called original contents) and what conditions are requested by the operation of the presentation request information input menu 1051, the decision is made. When key 1052 is clicked, the content of the presentation request is determined and presentation request information is generated. Details of the presentation request information and the generation process thereof will be described later.

次に、編集装置30の構成について説明する。図11は、編集装置30の機能構成を示すブロック図である。以下、図10および図11を併せ参照して編集装置30の構成について説明する。図11に示すように、編集装置30は、操作部301と、コンテンツ再生部302と、コンテンツ情報表示部303と、コンテンツ編集部304と、コンテンツ関連情報記憶部305と、メタデータ抽出部306と、コンテンツ記憶部307と、コンテンツ受信部308と、条件設定部309と、提示要求情報生成部310と、コンテンツ要求情報生成部311と、ユーザ・端末情報管理部312と、通信部313とを含んで構成される。   Next, the configuration of the editing device 30 will be described. FIG. 11 is a block diagram showing a functional configuration of the editing apparatus 30. As shown in FIG. The configuration of the editing device 30 will be described below with reference to FIGS. 10 and 11 together. As illustrated in FIG. 11, the editing device 30 includes an operation unit 301, a content reproduction unit 302, a content information display unit 303, a content editing unit 304, a content related information storage unit 305, and a metadata extraction unit 306. A content storage unit 307, a content reception unit 308, a condition setting unit 309, a presentation request information generation unit 310, a content request information generation unit 311, a user / terminal information management unit 312, and a communication unit 313. Consists of.

操作部301は、編集装置30を操作するインタフェースであり、例えば、マウス等のポインティングデバイス、キーボード、リモコンである。操作部301によって、GUI画面1000上にカーソル1060が表示され、各GUIパーツが操作される。コンテンツ再生部302は、コンテンツ記憶部307に記憶されたコンテンツデータを再生する。GUI画面1000におけるソースモニタ1010およびプログラムモニタ1020がコンテンツ再生部302に対応する。コンテンツ情報表示部303は、コンテンツ記憶部307に記憶されたコンテンツデータやコンテンツ共有装置20から供給された提示情報の提示用コンテンツを表示する。また、コンテンツ情報表示部303はコンテンツ共有装置20から受信した提示情報を記憶する。GUI画面1000における素材エリア1040がコンテンツ情報表示部303に対応する。   The operation unit 301 is an interface for operating the editing apparatus 30 and is, for example, a pointing device such as a mouse, a keyboard, or a remote control. The operation unit 301 displays a cursor 1060 on the GUI screen 1000 and operates each GUI part. The content reproduction unit 302 reproduces the content data stored in the content storage unit 307. A source monitor 1010 and a program monitor 1020 on the GUI screen 1000 correspond to the content playback unit 302. The content information display unit 303 displays the content data stored in the content storage unit 307 and the content for presentation of the presentation information supplied from the content sharing device 20. Further, the content information display unit 303 stores the presentation information received from the content sharing device 20. A material area 1040 on the GUI screen 1000 corresponds to the content information display unit 303.

コンテンツ編集部304は、コンテンツ記憶部307に記憶されたコンテンツデータを編集する。GUI画面1000におけるタイムライン1030がコンテンツ編集部304に対応する。コンテンツ関連情報記憶部305は、メタデータ抽出部306で抽出したメタデータを、コンテンツ記憶部307に記憶されたコンテンツデータに関連付けて記憶する。メタデータ抽出部306は、コンテンツ記憶部307に記憶されたコンテンツデータに付加されたメタデータを抽出する。   The content editing unit 304 edits content data stored in the content storage unit 307. A timeline 1030 on the GUI screen 1000 corresponds to the content editing unit 304. The content related information storage unit 305 stores the metadata extracted by the metadata extraction unit 306 in association with the content data stored in the content storage unit 307. The metadata extraction unit 306 extracts metadata added to the content data stored in the content storage unit 307.

コンテンツ記憶部307は、撮影装置10や情報処理装置から取得したコンテンツデータや、コンテンツ共有装置20からダウンロードしたコンテンツデータを記憶する。コンテンツ記憶部307は、コンテンツデータのコンテンツの種類に応じて、写真のコンテンツデータを静止画データ記憶部307aに記憶し、映像のコンテンツデータを動画データ記憶部307bに記憶する。コンテンツ記憶部307は、例えばハードディスク装置を用いて構成される。静止画データ記憶部307aと動画データ記憶部307bとは物理的に分離された2つのコンテンツ記憶部として構成してもよいが、コンテンツ記憶部307を単一のハードディスク装置で構成して、静止画データ記憶部307aと動画データ記憶部307bとをパーティションで論理的に区分してもよい。   The content storage unit 307 stores content data acquired from the imaging device 10 and the information processing device and content data downloaded from the content sharing device 20. The content storage unit 307 stores the photo content data in the still image data storage unit 307a and the video content data in the moving image data storage unit 307b according to the content type of the content data. The content storage unit 307 is configured using, for example, a hard disk device. The still image data storage unit 307a and the moving image data storage unit 307b may be configured as two physically separated content storage units. However, the content storage unit 307 is configured by a single hard disk device, The data storage unit 307a and the moving image data storage unit 307b may be logically divided by partition.

コンテンツ受信部308は、撮影装置10、情報処理装置、または記録媒体からコンテンツデータを取り込むインタフェースである。条件設定部309は、コンテンツ共有装置20に対してコンテンツデータの候補の提示要求を行う場合に、その要求するコンテンツデータの一致条件を設定する。つまり、元コンテンツとどのような条件に一致するコンテンツデータの候補を要求するかということを設定する。提示要求情報生成部310は、元コンテンツのメタデータをコンテンツ関連情報記憶部305から取得し、条件設定部309で一致条件の設定がされている場合はそれを条件設定部309から取得し、さらにユーザIDおよび当該編集装置30の装置IDをユーザ・端末情報管理部312から取得する。そして、提示要求情報生成部310は、取得した情報を含めた提示要求情報を生成し、通信部313から送信させる。GUI画面1000における提示要求エリア1050が、条件設定部309および提示要求情報生成部310に対応する。提示要求情報については、その詳細を後述する。   The content receiving unit 308 is an interface that captures content data from the photographing apparatus 10, the information processing apparatus, or the recording medium. When making a content data candidate presentation request to the content sharing apparatus 20, the condition setting unit 309 sets a matching condition for the requested content data. In other words, it is set what kind of conditions the content data candidate matches with the original content. The presentation request information generation unit 310 acquires the metadata of the original content from the content related information storage unit 305, and if the matching condition is set by the condition setting unit 309, acquires it from the condition setting unit 309. The user ID and the device ID of the editing device 30 are acquired from the user / terminal information management unit 312. Then, the presentation request information generation unit 310 generates presentation request information including the acquired information and causes the communication unit 313 to transmit the presentation request information. A presentation request area 1050 on the GUI screen 1000 corresponds to the condition setting unit 309 and the presentation request information generation unit 310. Details of the presentation request information will be described later.

コンテンツ要求情報生成部311は、コンテンツ情報表示部303に表示された提示用コンテンツの中から編集者により選択された提示用コンテンツのコンテンツIDおよびコンテンツ共有装置IDを指定したコンテンツ要求情報を生成し、通信部313から送信させる。ユーザ・端末情報管理部312は、編集装置30のユーザの識別情報であるユーザIDと編集装置30の装置識別情報である装置IDとを記憶する。通信部313は、コンテンツ共有装置20との間で通信を行い、編集装置30に対して提示要求情報またはコンテンツ要求情報を送信し、また編集装置30から提示要求情報の応答である提示情報もしくはコンテンツ要求情報の応答であるコンテンツデータを受信する通信インタフェースである。   The content request information generation unit 311 generates content request information specifying the content ID and content sharing apparatus ID of the presentation content selected by the editor from the presentation content displayed on the content information display unit 303, Transmission is performed from the communication unit 313. The user / terminal information management unit 312 stores a user ID that is user identification information of the editing device 30 and a device ID that is device identification information of the editing device 30. The communication unit 313 communicates with the content sharing apparatus 20, transmits presentation request information or content request information to the editing apparatus 30, and presentation information or content that is a response to the presentation request information from the editing apparatus 30. It is a communication interface that receives content data that is a response to request information.

次に、提示要求情報について説明する。提示要求情報は、ユーザ情報と、1つまたは複数の素材情報と、条件情報との3種類の情報を1つのデータファイルに格納したものである。但し、条件情報は任意情報である。データファイルは、例えば、ネットワーク通信に親和性の高いXML(eXtensible Markup Language)形式で記述する。なお、提示要求情報は、複数のデータファイルに区分されたものでもよいが、この場合は、各データファイルを関係づけるファイル識別情報を各データファイルに格納する。   Next, the presentation request information will be described. The presentation request information is obtained by storing three types of information including user information, one or more material information, and condition information in one data file. However, the condition information is arbitrary information. The data file is described in, for example, an XML (extensible Markup Language) format having high affinity for network communication. The presentation request information may be divided into a plurality of data files. In this case, file identification information relating each data file is stored in each data file.

図12は、提示要求情報生成部310が生成する提示要求情報のデータ構成図である。同図において、同図(a)はユーザ情報のデータ構成図、同図(b)は素材情報のデータ構成図、同図(c)は条件情報のデータ構成図である。同図(a)のユーザ情報は、コンテンツ共有装置20において認証に用いられる情報であり、ユーザIDと装置IDとを含む。提示要求情報生成部310は、ユーザ・端末情報管理部312からユーザIDと装置IDとを取得してユーザ情報を生成する。   FIG. 12 is a data configuration diagram of the presentation request information generated by the presentation request information generation unit 310. In the same figure, (a) is a data configuration diagram of user information, (b) is a data configuration diagram of material information, and (c) is a data configuration diagram of condition information. The user information in FIG. 5A is information used for authentication in the content sharing apparatus 20, and includes a user ID and a device ID. The presentation request information generation unit 310 acquires a user ID and a device ID from the user / terminal information management unit 312 and generates user information.

図12(b)の素材情報は、コンテンツ共有装置20の要求情報解析部213における解析に用いられる情報であり、提示要求の元コンテンツのメタデータに基づいて生成されるものである。素材情報における「種別」は、素材情報が“静止画”(“写真”)であるか“映像”であるかが記述される。また、素材情報において「種別」が“映像”である場合の「from:」および「to:」は、元コンテンツの開始フレーム画像および終了フレーム画像における各メタデータの情報であることを示す。このように管理することによって、元コンテンツにおける撮影装置10の動きや撮影装置10と被写体の関係を表現することができる。
なお、素材情報において「種別」が“静止画”(“写真”)である場合は、1つのメタデータがあればよいので、上記のごとく「from:」および「to:」を区別して記述する必要はなく、「from=to:」と記述するか、「from:」および「to:」を記述しないようにする。
The material information in FIG. 12B is information used for analysis in the request information analysis unit 213 of the content sharing apparatus 20, and is generated based on the metadata of the original content of the presentation request. The “type” in the material information describes whether the material information is “still image” (“photo”) or “video”. Further, “from:” and “to:” in the case where the “type” in the material information is “video” indicates information of each metadata in the start frame image and the end frame image of the original content. By managing in this way, it is possible to express the movement of the photographing device 10 in the original content and the relationship between the photographing device 10 and the subject.
When the “type” in the material information is “still image” (“photo”), there is only one metadata, so that “from:” and “to:” are described separately as described above. There is no need, and “from = to:” is described, or “from:” and “to:” are not described.

図12(c)の条件情報は、コンテンツ共有装置20の提示情報生成部214においてコンテンツ候補の抽出に用いられる情報であり、条件設定部309で設定された、元コンテンツとコンテンツ候補との一致条件に基づいて生成されるものである。同図(c)において、“1”が設定されている項目は一致条件が組まれたことを意味し、“0”が設定されている項目は一致条件が組まれていないことを意味する。   The condition information in FIG. 12C is information used for extracting content candidates in the presentation information generation unit 214 of the content sharing apparatus 20, and the matching condition between the original content and the content candidates set by the condition setting unit 309. It is generated based on. In FIG. 9C, an item for which “1” is set means that a matching condition is set, and an item for which “0” is set means that no matching condition is set.

図12(c)において、被写体の「対象」とは被写体場所を指す。また、例えば、「サイズ」=“1”は、元コンテンツに映っている被写体について、被写体のサイズ(ルーズ、アップ等)が同一であるという条件を意味する。また、「時間帯」=“1”および「季節」=“1”は、被写体を撮影した時間帯および季節が同一であるという条件を意味する。「時間帯」は、例えば、午前、午後、および夜間の時間帯に分けたり、3時間ごとに時間帯を区切ったりして、予め時間帯の定義を決めておく。「季節」は、例えば、3月から5月を春、6月から8月を夏、9月から11月を秋、12月から2月を冬として、年の分割を定義しておく。   In FIG. 12C, the “target” of the subject refers to the subject location. For example, “size” = “1” means that the subject size (loose, up, etc.) is the same for the subject shown in the original content. Further, “time zone” = “1” and “season” = “1” mean that the time zone and season in which the subject is photographed are the same. The “time zone” is defined in advance by dividing the time zone into, for example, morning, afternoon, and night time zones, or dividing the time zone every three hours. The “season” defines, for example, division of years, with March to May as spring, June to August as summer, September to November as autumn, and December to February as winter.

次に、コンテンツ共有システム1の動作について説明する。ここでは、コンテンツ共有システム1の主要な動作として、編集装置30の「提示要求処理」、「コンテンツデータ要求処理」、およびコンテンツ共有装置20の「提示処理」に分けて説明する。なお、提示処理については、その一部の処理を抜き出した「コンテンツデータ候補の選出処理」を説明する。   Next, the operation of the content sharing system 1 will be described. Here, the main operations of the content sharing system 1 will be described by dividing them into “presentation request processing”, “content data request processing” of the editing device 30, and “presentation processing” of the content sharing device 20. As for the presentation process, a “content data candidate selection process” in which a part of the process is extracted will be described.

編集装置30は、コンテンツ記憶部307に記憶されたコンテンツデータを用いて、図10に示すGUI画面1000の操作に従ってコンテンツのノンリニア編集を行う。編集者は、例えば次のようにしてGUI画面1000を操作してコンテンツの編集作業を行う。編集者は、操作部301を操作して、素材エリア1040にある所望のサムネイル画像またはアイコン(但し、「Local」と記載されたものに限る。)をソースモニタ1010にドラッグ&ドロップしてコンテンツ(素材)をソースモニタ1010に表示させる。
このようにして、編集者は可視化された素材の内容を確認し、コンテンツ編集に用いる素材が見つかった場合は、その素材のサムネイル画像またはアイコンを素材エリア1040からタイムライン1030にドラッグ&ドロップして編集コンテンツに取り入れる。編集者は、このような作業を、素材の内容、時間条件、構図、素材が映像コンテンツである場合はカメラワーク等を考慮しながら適宜繰り返して行う。
編集コンテンツに取り入れたいコンテンツデータがコンテンツ記憶部307に記憶されていない場合、編集装置30は、コンテンツ共有装置20に対してコンテンツ候補の提示要求を行う。次に、この提示要求処理について説明する。
The editing device 30 uses the content data stored in the content storage unit 307 to perform non-linear editing of content according to the operation of the GUI screen 1000 shown in FIG. For example, the editor operates the GUI screen 1000 as follows to perform content editing work. The editor operates the operation unit 301 and drags and drops a desired thumbnail image or icon (limited to “Local”) in the material area 1040 to the source monitor 1010 to display content ( Material) is displayed on the source monitor 1010.
In this way, the editor checks the contents of the visualized material, and when a material used for content editing is found, drag and drop the thumbnail image or icon of the material from the material area 1040 to the timeline 1030. Incorporate into editing content. The editor repeatedly performs such work appropriately considering the contents of the material, time conditions, composition, and camera work when the material is video content.
When the content data desired to be incorporated into the edited content is not stored in the content storage unit 307, the editing device 30 requests the content sharing device 20 to present content candidates. Next, this presentation request process will be described.

[提示要求処理]
図13は、編集装置30が実行する提示要求処理の手順を示すフローチャートである。ステップS101において、提示要求情報生成部310は、編集者のGUI画面1000の操作によって、提示要求の元となるシーンまたは素材である元コンテンツを選択する。編集者による元コンテンツの選択は次のようにして行われる。図10のGUI画面1000において、タイムライン1030におけるビデオ2のシーン1032の次に配置するシーンのコンテンツデータを取得したい場合、編集者は、シーン1031を提示要求エリア105にドラッグ&ドロップし、次にシーン1032を提示要求エリア1050にドラッグ&ドロップする。提示要求情報生成部310は、シーン1031,1032のドロップ動作によって、2つの元シーンがシーン1031→シーン1032の順番にあることを認識する。
[Presentation request processing]
FIG. 13 is a flowchart showing the procedure of the presentation request process executed by the editing apparatus 30. In step S <b> 101, the presentation request information generation unit 310 selects original content that is a scene or material that is a source of the presentation request, by operating the GUI screen 1000 of the editor. The selection of the original content by the editor is performed as follows. In the GUI screen 1000 of FIG. 10, when the content data of the scene to be arranged next to the scene 1032 of the video 2 in the timeline 1030 is to be acquired, the editor drags and drops the scene 1031 to the presentation request area 105, and then Drag and drop the scene 1032 to the presentation request area 1050. The presentation request information generation unit 310 recognizes that the two original scenes are in the order of the scene 1031 → the scene 1032 by the drop operations of the scenes 1031 and 1032.

次に、ステップS102において、提示要求情報生成部310は、編集者のGUI画面1000の操作において、一致条件を設定する操作がされた場合(S102:YES)はステップS103の処理に移り、一致条件を設定する操作がされない場合(S102:NO)はステップS104の処理に移る。つまり、提示要求情報生成部310は、最初のドロップ動作であるシーン1031のドロップ動作に基づいて、提示要求エリア1050に提示要求情報入力メニュー1051をポップアップ表示させる。そして、編集者による操作によって提示要求情報入力メニュー1051の設定項目が操作された場合は、提示要求情報生成部310は制御を条件設定部309に渡してステップS103の処理に移る。一方、提示要求情報入力メニュー1051のいずれの設定項目も操作されず決定キー1052が選択された場合は、一致条件は設定されずステップS104の処理に移る。   Next, in step S102, the presentation request information generation unit 310 moves to the process of step S103 when the operation for setting the matching condition is performed in the operation of the editor GUI screen 1000 (S102: YES). Is not performed (S102: NO), the process proceeds to step S104. That is, the presentation request information generation unit 310 pops up the presentation request information input menu 1051 in the presentation request area 1050 based on the drop operation of the scene 1031 that is the first drop operation. When the setting item of the presentation request information input menu 1051 is operated by an operation by the editor, the presentation request information generation unit 310 passes control to the condition setting unit 309 and proceeds to the process of step S103. On the other hand, when none of the setting items of the presentation request information input menu 1051 is operated and the enter key 1052 is selected, the matching condition is not set and the process proceeds to step S104.

ステップS103において、条件設定部309は、提示要求するコンテンツ候補に対する一致条件を設定する。つまり、条件設定部309は、編集者による提示要求情報入力メニュー1051の設定項目および決定キー1052の操作によって、シーン1031,1032と提示要求するコンテンツ候補との一致条件を設定する。具体的には、条件設定部309は、提示要求情報入力メニュー1051の各設定項目(「種別」、「被写体」、「撮影時間」等)が選択操作されるたびに、当該項目の一致条件を“1”にしたり“0”にしたりする。そして、条件設定部309は、決定キー1052が選択ることによって一致条件の設定を終了して提示要求情報生成部310に制御を戻す。   In step S103, the condition setting unit 309 sets a matching condition for the content candidate requested to be presented. That is, the condition setting unit 309 sets a matching condition between the scenes 1031 and 1032 and the content candidate requested for presentation by the setting item of the presentation request information input menu 1051 and the operation of the determination key 1052 by the editor. Specifically, the condition setting unit 309 sets a matching condition for each item every time the setting item (“type”, “subject”, “shooting time”, etc.) of the presentation request information input menu 1051 is selected and operated. Set to “1” or “0”. Then, the condition setting unit 309 finishes setting the matching condition when the determination key 1052 is selected, and returns control to the presentation request information generation unit 310.

ステップS104において、提示要求情報生成部310は、元コンテンツのメタデータをコンテンツ関連情報記憶部305から読み出して素材情報を生成する。また、提示要求情報生成部310は、条件設定部309で一致条件の設定がされている場合は、それを条件設定部309から取得して条件情報を生成する。さらに、提示要求情報生成部310は、ユーザIDおよび当該編集装置30の装置IDをユーザ・端末情報管理部312から取得してユーザ情報を生成する。そして、提示要求情報生成部310は、生成したユーザ情報、素材情報、および条件情報を1つのデータファイルに格納して提示要求情報を生成する。提示要求情報のデータフォーマットは図12に示すものである。   In step S104, the presentation request information generation unit 310 reads the metadata of the original content from the content related information storage unit 305 and generates material information. In addition, when the matching condition is set by the condition setting unit 309, the presentation request information generation unit 310 acquires the request from the condition setting unit 309 and generates the condition information. Further, the presentation request information generation unit 310 acquires the user ID and the device ID of the editing device 30 from the user / terminal information management unit 312 and generates user information. Then, the presentation request information generation unit 310 stores the generated user information, material information, and condition information in one data file, and generates presentation request information. The data format of the presentation request information is shown in FIG.

次に、ステップS105において、提示要求情報生成部310は、コンテンツ共有装置20を指定して、提示要求情報を通信部313から送信させる。次に、ステップS106において、コンテンツ共有装置20から提示情報が送信されると、編集装置30の通信部313はその提示情報を受信してコンテンツ情報表示部303に供給する。次に、ステップS107において、コンテンツ情報表示部303は、提示情報を記憶する。GUI画面1000においては、素材エリア1040に提示用コンテンツが「Remote」として表示される。   Next, in step S <b> 105, the presentation request information generation unit 310 designates the content sharing device 20 and causes the communication unit 313 to transmit the presentation request information. Next, when the presentation information is transmitted from the content sharing device 20 in step S106, the communication unit 313 of the editing device 30 receives the presentation information and supplies it to the content information display unit 303. Next, in step S107, the content information display unit 303 stores the presentation information. On the GUI screen 1000, the presentation content is displayed as “Remote” in the material area 1040.

[コンテンツデータ要求処理]
次に、編集装置30のコンテンツデータ要求処理について説明する。編集装置30のコンテンツ情報表示部303に提示情報が記憶されている状態、つまりGUI画面1000の素材エリア1040に提示用コンテンツが「Remote」として表示されている状態において、操作部301の操作によって提示用コンテンツが選択されると、編集装置30はコンテンツデータ要求処理を実行する。
図14は、編集装置30が実行するコンテンツデータ要求処理の手順を示すフローチャートである。ステップS201において、コンテンツ情報表示部303は、操作部301によって提示用コンテンツが選択されるとステップS202の処理に移る。この操作は、GUI画面1000の素材エリア1040に表示された提示用コンテンツ(「Remote」と記載されたもの。)が操作部301によって選択されることを示す。
[Content data request processing]
Next, content data request processing of the editing apparatus 30 will be described. Presented by operation of the operation unit 301 in a state where the presentation information is stored in the content information display unit 303 of the editing apparatus 30, that is, in a state where the presentation content is displayed as “Remote” in the material area 1040 of the GUI screen 1000. When the content for use is selected, the editing apparatus 30 executes content data request processing.
FIG. 14 is a flowchart illustrating a procedure of content data request processing executed by the editing apparatus 30. In step S201, when the presentation content is selected by the operation unit 301, the content information display unit 303 proceeds to the process of step S202. This operation indicates that the presentation content (“Remote”) displayed in the material area 1040 of the GUI screen 1000 is selected by the operation unit 301.

次に、ステップS202において、コンテンツ要求情報生成部311は、選択された提示用コンテンツのコンテンツIDとコンテンツ共有装置IDとをコンテンツ情報表示部303から読み出し、ユーザIDおよび当該編集装置30の装置IDをユーザ・端末情報管理部312から読み出してコンテンツ要求情報を生成する。次に、ステップS203において、コンテンツ要求情報生成部311は、コンテンツ要求情報を通信部313から送信させる。次に、ステップS204において、コンテンツ共有装置20からコンテンツデータが送信されると、編集装置30の通信部313はその提示情報を受信してコンテンツ記憶部307に供給する。次に、ステップS205において、コンテンツ記憶部307は、通信部313から供給されたコンテンツデータを記憶する。   Next, in step S202, the content request information generation unit 311 reads the content ID and content sharing device ID of the selected presentation content from the content information display unit 303, and obtains the user ID and the device ID of the editing device 30. The content request information is generated by reading from the user / terminal information management unit 312. Next, in step S <b> 203, the content request information generation unit 311 transmits content request information from the communication unit 313. Next, in step S <b> 204, when content data is transmitted from the content sharing apparatus 20, the communication unit 313 of the editing apparatus 30 receives the presentation information and supplies it to the content storage unit 307. Next, in step S205, the content storage unit 307 stores the content data supplied from the communication unit 313.

[提示処理]
次に、コンテンツ共有装置20の提示処理について説明する。コンテンツ共有装置20は、編集装置30から提示要求情報を受信するとその内容を解析し、提示要求の元素材または元シーンである元コンテンツとの関連性のあるコンテンツ候補を選出して提示情報を生成し、この提示情報を提示要求情報の送信元である編集装置30に対して送信する。また、コンテンツ共有装置20は、編集装置30からコンテンツ要求情報を受信すると、指定されたコンテンツデータをコンテンツ要求情報の送信元である編集装置30に対して送信する。
[Presentation processing]
Next, the presentation process of the content sharing apparatus 20 will be described. When the content sharing device 20 receives the presentation request information from the editing device 30, the content sharing device 20 analyzes the content, selects a content candidate that is related to the original material of the presentation request or the original content that is the original scene, and generates the presentation information. Then, the presentation information is transmitted to the editing device 30 that is the transmission source of the presentation request information. In addition, when the content sharing apparatus 20 receives the content request information from the editing apparatus 30, the content sharing apparatus 20 transmits the specified content data to the editing apparatus 30 that is the transmission source of the content request information.

図15は、コンテンツ共有装置20が実行する提示処理の手順を示すフローチャートである。ステップS301において、通信部211は、編集装置30から送信された提示要求情報またはコンテンツ要求情報の要求情報を受信すると、この要求情報を要求情報受信部212に供給する。次に、ステップS302において、認証部218は、要求情報受信部212が受信した要求情報からユーザ情報を読み出して認証する。認証部218による認証に成功した場合(S303:YES)は、要求情報受信部212は、要求情報を要求情報解析部213に供給してステップS304の処理に移行する。一方、認証部218による認証に失敗した場合(S303:NO)は、このフローチャートの処理を終了する。   FIG. 15 is a flowchart showing the procedure of the presentation process executed by the content sharing apparatus 20. In step S <b> 301, when the communication unit 211 receives the request information of presentation request information or content request information transmitted from the editing device 30, the communication unit 211 supplies the request information to the request information receiving unit 212. In step S <b> 302, the authentication unit 218 reads out user information from the request information received by the request information reception unit 212 and authenticates it. If the authentication by the authentication unit 218 is successful (S303: YES), the request information receiving unit 212 supplies the request information to the request information analysis unit 213, and the process proceeds to step S304. On the other hand, if the authentication by the authentication unit 218 has failed (S303: NO), the process of this flowchart ends.

ステップS304において、要求情報解析部213は、供給された要求情報すなわち提示要求情報またはコンテンツ要求情報を識別し、提示要求情報である場合はステップS305の処理に移り、コンテンツ要求情報である場合はステップS309の処理に移る。   In step S304, the request information analysis unit 213 identifies the supplied request information, that is, presentation request information or content request information. If it is presentation request information, the process proceeds to step S305. The process proceeds to S309.

ステップS305において、要求情報解析部213は、提示要求情報から複数の素材情報を取り出し、素材情報ごとに内容を解析して被写体の位置、構図、撮影装置10の撮影動作等を特定する。具体的には、要求情報解析部213は、素材情報の被写体距離および位置・方向情報(撮影装置10の緯度、経度、高度、方位角、および傾斜角)に基づいて、前述した式(1)によって被写体の位置を計算する。また、要求情報解析部213は、前述したメタデータ解析部205が撮影範囲サイズを計算してコンテンツデータを分類分けした方法を用いて被写体サイズを求める。さらに、要求情報解析部213は、素材情報のズーム率および位置・方向情報について、各項目の開始フレーム画像でのデータと終了フレーム画像でのデータとの差分を求めて、撮影装置10の撮影動作を特定する。   In step S305, the request information analysis unit 213 extracts a plurality of material information from the presentation request information, analyzes the contents for each material information, and specifies the position of the subject, the composition, the photographing operation of the photographing apparatus 10, and the like. Specifically, the request information analysis unit 213 uses the above-described formula (1) based on the subject distance and the position / direction information (latitude, longitude, altitude, azimuth angle, and tilt angle of the imaging device 10) of the material information. To calculate the position of the subject. Further, the request information analysis unit 213 obtains the subject size by using the method in which the metadata analysis unit 205 described above calculates the shooting range size and classifies the content data. Further, the request information analysis unit 213 obtains the difference between the data in the start frame image and the data in the end frame image of each item with respect to the zoom rate and the position / direction information of the material information, and the photographing operation of the photographing apparatus 10 Is identified.

次に、ステップS306において、提示情報生成部214は、要求情報解析部213の解析結果とルールデータベース部215とに基づいて、コンテンツデータ登録部21のコンテンツ関連情報記憶部204から、コンテンツ候補のコンテンツIDを取得する。このステップS306の処理については、後述するコンテンツデータ候補の選出処理の説明で詳しく述べる。   Next, in step S306, the presentation information generation unit 214 reads the content candidate content from the content related information storage unit 204 of the content data registration unit 21 based on the analysis result of the request information analysis unit 213 and the rule database unit 215. Get an ID. The processing in step S306 will be described in detail in the description of content data candidate selection processing described later.

次に、ステップS307において、提示情報生成部214は、ステップS306の処理において選出されたコンテンツ候補のコンテンツデータIDを検索キーとしてコンテンツ記憶部202からコンテンツデータを読出して提示情報を生成する。具体的には、提示情報生成部214は、読み出したコンテンツデータが静止画データである場合は、画像サイズのリサイズとともにデータ圧縮処理を行ってサムネイル画像を生成する。また、読み出したコンテンツデータが映像データである場合は、その映像の代表画像からサムネイル画像を生成したり、画像の解像度を映像データの解像度よりも低くしてエンコード処理し、再生時間長を提示用の一定時間に制限して低解像度映像を生成したりする。そして、提示情報生成部214は、図8に示したヘッダ、利用情報、および生成した提示用コンテンツを含めて提示情報を生成する。次に、ステップS308において、提示情報送信部216は、提示要求情報の送信元である編集装置30を指定して、提示情報を通信部211から送信させる。   Next, in step S307, the presentation information generation unit 214 reads the content data from the content storage unit 202 using the content data ID of the content candidate selected in the process of step S306 as a search key, and generates presentation information. Specifically, when the read content data is still image data, the presentation information generation unit 214 generates a thumbnail image by performing data compression processing together with resizing of the image size. Also, if the read content data is video data, a thumbnail image is generated from the representative image of the video, or encoding is performed with the resolution of the image being lower than the resolution of the video data, and the playback time length is presented. The low-resolution video is generated for a limited time. Then, the presentation information generation unit 214 generates presentation information including the header, the usage information, and the generated presentation content shown in FIG. Next, in step S <b> 308, the presentation information transmission unit 216 designates the editing device 30 that is the transmission source of the presentation request information and causes the communication unit 211 to transmit the presentation information.

一方、ステップS309において、コンテンツ送信部217は、コンテンツ要求情報に含まれるコンテンツIDを検索キーとしてコンテンツ記憶部202からコンテンツデータを読み出す。次に、ステップS310において、コンテンツ送信部217は、コンテンツ要求情報の送信元である編集装置30に対して、コンテンツデータを通信部211から送信させる。   On the other hand, in step S309, the content transmission unit 217 reads content data from the content storage unit 202 using the content ID included in the content request information as a search key. Next, in step S <b> 310, the content transmission unit 217 causes the editing unit 30 that is the transmission source of the content request information to transmit content data from the communication unit 211.

[コンテンツデータ候補の選出処理]
次に、ステップS306の処理をさらに詳細に説明する。図16は、コンテンツ共有装置20が実行するコンテンツデータ候補の選出処理の手順を示すフローチャートである。ステップS401において、提示情報生成部214は、要求情報解析部213の解析結果である素材情報ごとの構図および撮影動作をルールデータベース部215のショットマトリクス215aに代入して元コンテンツごとの特徴を抽出する。
[Content data candidate selection process]
Next, the process of step S306 will be described in more detail. FIG. 16 is a flowchart showing a content data candidate selection process performed by the content sharing apparatus 20. In step S401, the presentation information generation unit 214 substitutes the composition and shooting operation for each material information, which is the analysis result of the request information analysis unit 213, into the shot matrix 215a of the rule database unit 215, and extracts features for each original content. .

この処理について、要求情報解析部213から出力された解析結果が、元コンテンツAについての構図(ミドル)および撮影動作(固定)と、元コンテンツBについての構図(アップ)および撮影動作(ズームイン)とであり、ルールデータベース215として図9に示したルールデータベースを使用した場合を例として具体的に説明する。ステップS401において、提示情報生成部214は、要求情報解析部213の解析結果である元コンテンツAについての(構図,撮影動作)=(ミドル,固定)をルールデータベース部215のショットマトリクス215aに代入して特徴“2A”を抽出する。次に、提示情報生成部214は、元コンテンツBについての(構図,撮影動作)=(アップ,ズームイン)をルールデータベース部215のショットマトリクス215aに代入して特徴“5F”を抽出する。   With respect to this processing, the analysis result output from the request information analysis unit 213 includes a composition (middle) and shooting operation (fixed) for the original content A, and a composition (up) and shooting operation (zoom in) for the original content B. Therefore, the case where the rule database shown in FIG. 9 is used as the rule database 215 will be specifically described as an example. In step S401, the presentation information generation unit 214 substitutes (composition, shooting operation) = (middle, fixed) for the original content A, which is the analysis result of the request information analysis unit 213, into the shot matrix 215a of the rule database unit 215. To extract the feature “2A”. Next, the presentation information generation unit 214 substitutes (composition, shooting operation) = (up, zoom-in) for the original content B into the shot matrix 215a of the rule database unit 215, and extracts the feature “5F”.

次に、ステップS402において、提示情報生成部214は、ショットマトリクス215aの抽出結果を用いてルールデータベース部215のルールテーブル215bの入力列を参照し、コンテンツ制作における編集のノウハウやテクニックのルールが反映されたコンテンツ候補の特徴を1つまたは複数抽出する。具体的には、提示情報生成部214は、図9(a)のショットマトリクスから抽出した特徴“2A”および“5F”を用いて同図(b)のルールテーブルの入力列を参照し、一致する入力列として「ルールID」=“000002”の行を検索する。そして、提示情報生成部214は、当該行の出力列からコンテンツ候補の特徴として「Output1」=“5A”,「Output2」=“4A”を抽出する。同図(b)のコンテンツ候補の特徴は、Output1の方がOutput2よりも提示すべき優先順位が高い。   Next, in step S402, the presentation information generation unit 214 refers to the input column of the rule table 215b of the rule database unit 215 using the extraction result of the shot matrix 215a, and reflects the editing know-how and technique rules in content production. One or more features of the selected content candidates are extracted. Specifically, the presentation information generation unit 214 uses the features “2A” and “5F” extracted from the shot matrix of FIG. 9A to refer to the input string of the rule table of FIG. A row of “rule ID” = “000002” is searched as an input string to be executed. Then, the presentation information generation unit 214 extracts “Output1” = “5A” and “Output2” = “4A” as the feature of the content candidate from the output column of the row. The feature of the content candidate in FIG. 5B has higher priority for Output 1 than for Output 2.

次に、ステップS403において、提示情報生成部214は、提示要求情報に条件情報があるか否かを判定し、条件情報があると判定した場合はステップS404の処理に移り、条件情報がないと判定した場合はステップS405の処理に移る。   Next, in step S403, the presentation information generation unit 214 determines whether or not there is condition information in the presentation request information. If it is determined that there is condition information, the process proceeds to step S404, and there is no condition information. If it is determined, the process proceeds to step S405.

ステップS404において、提示情報生成部214は、ルールテーブル215bから抽出したコンテンツ候補の特徴と条件情報とを用いてコンテンツ関連情報記憶部24を参照し、コンテンツ関連情報から、コンテンツ候補の特徴と条件情報中の一致条件の設定された項目とについて一致するコンテンツについてのコンテンツIDを1つまたは複数抽出する。複数抽出される場合は、コンテンツ候補の特徴の優先順位に応じてコンテンツIDにも提示すべき優先順位がつけられる。   In step S404, the presentation information generation unit 214 refers to the content-related information storage unit 24 using the content candidate features and condition information extracted from the rule table 215b, and from the content-related information, the content candidate features and condition information. One or a plurality of content IDs are extracted for the content that matches the item for which the matching condition is set. When multiple items are extracted, the priority order to be presented to the content ID is given according to the priority order of the feature of the content candidate.

ステップS405において、提示情報生成部214は、ルールテーブル215bから抽出したコンテンツ候補の特徴を用いてコンテンツ関連情報記憶部24を参照し、コンテンツ関連情報から、コンテンツ候補の特徴について一致するコンテンツについてのコンテンツIDを1つまたは複数抽出する。複数抽出される場合は、コンテンツ候補の特徴の優先順位に応じてコンテンツIDにも提示すべき優先順位がつけられる。   In step S405, the presentation information generation unit 214 refers to the content related information storage unit 24 using the feature of the content candidate extracted from the rule table 215b, and the content about the content that matches the feature of the content candidate from the content related information. One or more IDs are extracted. When multiple items are extracted, the priority order to be presented to the content ID is given according to the priority order of the feature of the content candidate.

以上説明したとおり、本実施形態のコンテンツ共有装置は、アップロードされたコンテンツデータに含まれた、撮影情報、撮影位置情報、および撮影方向情報を含むメタデータより、被写体の位置、撮影範囲サイズ(構図)、撮影装置の撮影動作、および撮影動作方向を求めて、コンテンツとともに管理することができる。
また、本実施形態が適用された編集装置は、複数の素材をつなぎ合わせてコンテンツの制作・編集を行う場合に、1つの素材または既につなぎ合わせた複数の素材の次または前につなげる素材を取得するために、既に編集コンテンツに用いている1つまたは複数の素材(元コンテンツ)に関する素材情報に基づき生成した提示要求情報をコンテンツ共有装置に対して送信する。
また、本実施形態のコンテンツ共有装置は、編集装置から提示要求情報が供給されると、それに含まれる1つまたは複数の元コンテンツに関する素材情報と、コンテンツ制作における編集のノウハウやテクニックをルール化した情報とに基づいて、元コンテンツと関係性のあるコンテンツ候補の提示を行うことができる。
さらに、本実施形態のコンテンツ共有装置は、コンテンツ候補の提示を行った後、編集装置からコンテンツの要求があると、その要求に基づいてコンテンツデータを提供することができる。
As described above, the content sharing apparatus according to the present embodiment uses the metadata including the shooting information, the shooting position information, and the shooting direction information included in the uploaded content data to determine the position of the subject, the shooting range size (composition). ), The photographing operation and photographing direction of the photographing device can be obtained and managed together with the content.
In addition, the editing apparatus to which the present embodiment is applied acquires a material that is connected to the next or previous one material or a plurality of already connected materials when content is created and edited by connecting a plurality of materials. In order to do this, presentation request information generated based on material information on one or more materials (original content) already used for edited content is transmitted to the content sharing apparatus.
In addition, when the presentation request information is supplied from the editing device, the content sharing device according to the present embodiment has ruled material information regarding one or more original contents included therein and editing know-how and techniques in content production. Based on the information, it is possible to present content candidates related to the original content.
Furthermore, after a content candidate is presented, the content sharing apparatus according to the present embodiment can provide content data based on the request when the content is requested from the editing apparatus.

したがって、本実施形態によれば、コンテンツ共有装置は、コンテンツデータに含まれる被写体と、被写体に対する撮影装置のカメラワークとを確実に管理することができる。そして、コンテンツ共有装置を利用する編集装置は、コンテンツ制作・編集において、編集装置にあるローカルなコンテンツデータと関係性をもったコンテンツを、コンテンツ共有装置から容易に取得することができ、作品性の高いコンテンツの制作を効率よく行うことができる。   Therefore, according to the present embodiment, the content sharing apparatus can reliably manage the subject included in the content data and the camera work of the photographing apparatus with respect to the subject. An editing device that uses a content sharing device can easily acquire content having a relationship with local content data in the editing device from the content sharing device in content production / editing. High content can be produced efficiently.

なお、コンテンツデータに含まれるメタデータから得られる被写体の位置、構図、カメラワークだけでなく、コンテンツの時間長、解像度、色調等様々な要素を併せ用いることによって、制作コンテンツの質はより向上する。例えば、時間長を用いることによって、予め時間長の決まっているコンテンツを制作したい場合に、その時間長に収まるコンテンツデータを選択することができる。また、解像度を用いることによって、高精細画像のコンテンツデータを選択することができる。また、色調を用いることによって、モノクロの写真を除外したり所望のトーンのコンテンツデータを選択したりすることができる。このように、様々な要素をコンテンツ関連情報に記述することにより、編集者の意図に合ったコンテンツ候補を提示することができる。   The quality of production content is further improved by using not only the position, composition, and camera work of the subject obtained from the metadata included in the content data, but also various factors such as the time length, resolution, and color tone of the content. . For example, by using a time length, when it is desired to produce content with a predetermined time length, it is possible to select content data that falls within that time length. Further, by using the resolution, it is possible to select content data of a high-definition image. Also, by using the color tone, it is possible to exclude monochrome photographs or select content data of a desired tone. In this way, by describing various elements in the content-related information, it is possible to present content candidates that suit the editor's intention.

また、本実施形態においては、コンテンツ共有装置20に対して提示要求情報およびコンテンツ要求情報を送信するコンテンツ要求装置として、コンテンツを制作・編集する編集装置を用いた例について説明した。本発明の実施形態は、上述した実施形態以外にも、例えば、編集装置の代わりに、コンテンツデータの再生・表示をプログラマブルに行うことのできるデジタルフォトフレームのようなコンテンツ表示装置に適用することができる。   Further, in the present embodiment, an example has been described in which an editing device that creates and edits content is used as the content requesting device that transmits the presentation request information and the content request information to the content sharing device 20. The embodiment of the present invention can be applied to a content display device such as a digital photo frame capable of programmably reproducing and displaying content data, instead of the editing device, in addition to the above-described embodiments. it can.

また、上述した実施形態であるコンテンツ共有装置の制御機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのコンテンツ共有プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたコンテンツ共有プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
また同様に、上述した実施形態である編集装置の制御機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのコンテンツ編集プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたコンテンツ編集プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
Further, the control function of the content sharing apparatus according to the above-described embodiment may be realized by a computer. In this case, the content sharing program for realizing the control function is recorded on a computer-readable recording medium, and the content sharing program recorded on the recording medium is read into the computer system and executed. Also good.
Similarly, the control function of the editing apparatus according to the above-described embodiment may be realized by a computer. In this case, the content editing program for realizing the control function is recorded on a computer-readable recording medium, and the content editing program recorded on the recording medium is read into the computer system and executed. Also good.
Here, the “computer system” includes an OS (Operating System) and hardware of peripheral devices. The “computer-readable recording medium” refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case may be included and a program that holds a program for a certain period of time may be included. Further, the above program may be for realizing a part of the functions described above, or may be realized by a combination with the program already recorded in the computer system. .

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1 コンテンツ共有システム
10−1,10−2,10−3 撮影装置
20 コンテンツ共有装置
21 コンテンツデータ登録部
22 提示部
30−1,30−2 編集装置
40 ネットワーク
101 光学系
102 撮像部
103 画像処理部
104 測位部
105 方位角測定部
106 傾斜角測定部
107 メタデータ生成部
108 送信部
201 コンテンツ受信部
202 コンテンツ記憶部
202a 静止画データ記憶部
202b 動画データ記憶部
203 メタデータ抽出部
204 コンテンツ関連情報記憶部
205 メタデータ解析部
211 通信部
212 要求情報受信部
213 要求情報解析部
214 提示情報生成部
215 ルールデータベース部
215a ショットマトリクス
215b ルールテーブル
216 提示情報送信部
217 コンテンツ送信部
218 認証部
301 操作部
302 コンテンツ再生部
303 コンテンツ情報表示部
304 コンテンツ編集部
305 コンテンツ関連情報記憶部
306 メタデータ抽出部
307 コンテンツ記憶部
307a 静止画データ記憶部
307b 動画データ記憶部
308 コンテンツ受信部
309 条件設定部
310 提示要求情報生成部
311 コンテンツ要求情報生成部
312 ユーザ・端末情報管理部
313 通信部
DESCRIPTION OF SYMBOLS 1 Content sharing system 10-1, 10-2, 10-3 Image pick-up device 20 Content sharing device 21 Content data registration part 22 Presentation part 30-1, 30-2 Editing apparatus 40 Network 101 Optical system 102 Imaging part 103 Image processing part DESCRIPTION OF SYMBOLS 104 Positioning part 105 Azimuth angle measuring part 106 Inclination angle measuring part 107 Metadata production | generation part 108 Transmission part 201 Content receiving part 202 Content storage part 202a Still image data storage part 202b Movie data storage part 203 Metadata extraction part 204 Content related information storage Unit 205 metadata analysis unit 211 communication unit 212 request information reception unit 213 request information analysis unit 214 presentation information generation unit 215 rule database unit 215a shot matrix 215b rule table 216 presentation information transmission unit 217 Contents transmission unit 218 Authentication unit 301 Operation unit 302 Content playback unit 303 Content information display unit 304 Content editing unit 305 Content related information storage unit 306 Metadata extraction unit 307 Content storage unit 307a Still image data storage unit 307b Movie data storage unit 308 Content Reception unit 309 Condition setting unit 310 Presentation request information generation unit 311 Content request information generation unit 312 User / terminal information management unit 313 Communication unit

Claims (6)

撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、
前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、
を備えたことを特徴とするコンテンツ共有装置。
A content storage unit that stores the content captured by the imaging device, the imaging position information, the imaging direction information, the imaging distance information, the focal length, and the zoom magnification at the time of imaging acquired by the imaging device in association with each other;
A metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit;
Based on the shooting position information, the shooting direction information, and the shooting distance information extracted by the metadata extraction unit, a subject position of a subject reflected in the content is obtained, and an imaging surface size of the shooting device, and the metadata A metadata analysis unit for obtaining a photographing range size for photographing the subject based on the photographing distance information extracted from the extraction unit, the focal length, and the zoom magnification, and obtaining the subject size based on the obtained photographing range size; ,
A content-related information storage unit that stores the shooting position information extracted by the metadata extraction unit and the subject position and the subject size respectively obtained by the metadata analysis unit as content-related information in association with the content;
A content sharing apparatus comprising:
前記メタデータ解析部は、前記コンテンツが動画データである場合に、前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記コンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向をさらに求め、
前記コンテンツ関連情報記憶部は、前記メタデータ解析部が求めた撮影動作および撮影動作方向を前記コンテンツ関連情報に含めて記憶する
ことを特徴とする請求項1記載のコンテンツ共有装置。
When the content is moving image data, the metadata analysis unit is based on the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification extracted by the metadata extraction unit. And further obtaining a photographing operation and a photographing operation direction of the photographing device with respect to a subject reflected in the content,
The content sharing apparatus according to claim 1, wherein the content related information storage unit stores the shooting operation and the shooting operation direction obtained by the metadata analysis unit in the content related information.
静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を受信する要求情報受信部と、
受信した前記提示要求情報から取出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて、前記第1のコンテンツに映る被写体に対する前記撮影装置の撮影動作および撮影動作方向を求めるとともに、前記撮影距離情報と前記焦点距離と前記ズーム倍率と前記第1のコンテンツに対応する撮像面サイズとに基づいて前記第1のコンテンツに対応する撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求める要求情報解析部と、
前記要求情報解析部が求めた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と、前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶するルールデータベース部と、
前記要求情報解析部が求めた前記第1のコンテンツに対応する前記撮影範囲サイズと前記撮影動作と前記撮影動作方向とに基づいて前記ルールデータベース部を参照して前記第2のコンテンツの特徴を求め、該特徴に一致するコンテンツ関連情報を前記コンテンツ関連情報記憶部から選出して、選出された前記コンテンツ関連情報に基づいて提示情報を生成する提示情報生成部と、
前記生成した提示情報を、前記提示要求情報の送信側に送信する提示情報送信部と、
を備えたことを特徴とする請求項2記載のコンテンツ共有装置。
A request information receiving unit that receives presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data;
Based on the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification extracted from the received presentation request information, the shooting of the shooting device with respect to the subject shown in the first content An operation and a shooting operation direction are determined, and a shooting range size corresponding to the first content is determined based on the shooting distance information, the focal length, the zoom magnification, and an imaging surface size corresponding to the first content. A request information analysis unit for obtaining a subject size based on the obtained shooting range size;
Features of the first content represented by the subject size, the shooting operation, and the shooting operation direction obtained by the request information analysis unit, and features of the second content connected before or after the first content A rule database section for storing the relationship between
Based on the shooting range size, the shooting operation, and the shooting operation direction corresponding to the first content obtained by the request information analysis unit, the feature of the second content is obtained by referring to the rule database unit. A presentation information generating unit that selects content related information that matches the feature from the content related information storage unit, and generates presentation information based on the selected content related information;
A presentation information transmission unit that transmits the generated presentation information to the transmission side of the presentation request information;
The content sharing apparatus according to claim 2, further comprising:
静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、
前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、
前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、
を備えたことを特徴とするコンテンツ編集装置。
A presentation request information generating unit that generates presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data; ,
While sending the presentation request information generated by the presentation request information generation unit,
On the receiving side of the presentation request information, based on the received presentation request information and the imaging surface size corresponding to the first content, the photographing operation and photographing operation of the photographing device for the subject appearing in the first content A direction and a subject size corresponding to the first content are obtained, and the characteristics of the first content and the first content represented by the obtained subject size, the photographing operation, and the photographing operation direction The characteristic of the second content is obtained by referring to the rule database section that stores the relationship with the characteristic of the second content to be connected before or after, and the content related information that matches the characteristic is selected. When the instruction information is generated and transmitted based on the selected content-related information, the transmitted presentation information A communication unit that receives,
A content editing apparatus comprising:
コンピュータを、
撮影装置により撮影されたコンテンツと、前記撮影装置により取得された撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを関連付けて記憶するコンテンツ記憶部と、
前記コンテンツ記憶部から前記撮影位置情報と前記撮影方向情報と前記撮影距離情報と前記焦点距離と前記ズーム倍率とを抽出するメタデータ抽出部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と前記撮影方向情報と前記撮影距離情報とに基づいて前記コンテンツに映る被写体の被写体位置を求めるとともに、前記撮影装置の撮像面サイズと、前記メタデータ抽出部から抽出した前記撮影距離情報と前記焦点距離と前記ズーム倍率とに基づいて前記被写体を撮影した撮影範囲サイズを求め、前記求めた撮影範囲サイズに基づいて被写体サイズを求めるメタデータ解析部と、
前記メタデータ抽出部が抽出した前記撮影位置情報と、前記メタデータ解析部がそれぞれ求めた前記被写体位置および前記被写体サイズとを前記コンテンツに関連づけてコンテンツ関連情報として記憶するコンテンツ関連情報記憶部と、
として機能させるためのコンテンツ共有プログラム。
Computer
A content storage unit that stores the content captured by the imaging device, the imaging position information, the imaging direction information, the imaging distance information, the focal length, and the zoom magnification at the time of imaging acquired by the imaging device in association with each other;
A metadata extraction unit that extracts the shooting position information, the shooting direction information, the shooting distance information, the focal length, and the zoom magnification from the content storage unit;
Based on the shooting position information, the shooting direction information, and the shooting distance information extracted by the metadata extraction unit, a subject position of a subject reflected in the content is obtained, and an imaging surface size of the shooting device, and the metadata A metadata analysis unit for obtaining a photographing range size for photographing the subject based on the photographing distance information extracted from the extraction unit, the focal length, and the zoom magnification, and obtaining the subject size based on the obtained photographing range size; ,
A content-related information storage unit that stores the shooting position information extracted by the metadata extraction unit and the subject position and the subject size respectively obtained by the metadata analysis unit as content-related information in association with the content;
Content sharing program to function as
コンピュータを、
静止画データまたは動画データである第1のコンテンツに対応する撮影時の撮影位置情報と撮影方向情報と撮影距離情報と焦点距離とズーム倍率とを含む提示要求情報を生成する提示要求情報生成部と、
前記提示要求情報生成部が生成した前記提示要求情報を送信するとともに、
前記提示要求情報の受信側で、受信された前記提示要求情報と前記第1のコンテンツに対応する撮像面サイズとに基づいて、前記第1のコンテンツに映る被写体に対する撮影装置の撮影動作および撮影動作方向と前記第1のコンテンツに対応する被写体サイズとが求められ、求められた前記被写体サイズと前記撮影動作と前記撮影動作方向とにより表される前記第1のコンテンツの特徴と前記第1のコンテンツの前または後につなげる第2のコンテンツの特徴との関係を記憶したルールデータベース部が参照されることによって前記第2のコンテンツの特徴が求められ、該特徴に一致するコンテンツ関連情報が選出され、更に、選出された前記コンテンツ関連情報に基づいて指示情報が生成されて送信された場合に、前記送信された提示情報を受信する通信部と、
として機能させるためのコンテンツ編集プログラム。
Computer
A presentation request information generating unit that generates presentation request information including shooting position information, shooting direction information, shooting distance information, focal length, and zoom magnification at the time of shooting corresponding to the first content that is still image data or moving image data; ,
While sending the presentation request information generated by the presentation request information generation unit,
On the receiving side of the presentation request information, based on the received presentation request information and the imaging surface size corresponding to the first content, the photographing operation and photographing operation of the photographing device for the subject appearing in the first content A direction and a subject size corresponding to the first content are obtained, and the characteristics of the first content and the first content represented by the obtained subject size, the photographing operation, and the photographing operation direction The characteristic of the second content is obtained by referring to the rule database section that stores the relationship with the characteristic of the second content to be connected before or after, and the content related information that matches the characteristic is selected. When the instruction information is generated and transmitted based on the selected content-related information, the transmitted presentation information A communication unit that receives,
Content editing program to function as
JP2009229741A 2009-10-01 2009-10-01 Content sharing apparatus, content editing apparatus, content sharing program, and content editing program Pending JP2011078008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009229741A JP2011078008A (en) 2009-10-01 2009-10-01 Content sharing apparatus, content editing apparatus, content sharing program, and content editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009229741A JP2011078008A (en) 2009-10-01 2009-10-01 Content sharing apparatus, content editing apparatus, content sharing program, and content editing program

Publications (1)

Publication Number Publication Date
JP2011078008A true JP2011078008A (en) 2011-04-14

Family

ID=44021455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009229741A Pending JP2011078008A (en) 2009-10-01 2009-10-01 Content sharing apparatus, content editing apparatus, content sharing program, and content editing program

Country Status (1)

Country Link
JP (1) JP2011078008A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015779A1 (en) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information presentation method, operation program, and information presentation system
JP2015056846A (en) * 2013-09-13 2015-03-23 キヤノン株式会社 Transmission device, reception device, transmission/reception system, control method for transmission device, control method for reception device, control method for transmission/reception system, and program
US9319583B2 (en) 2012-08-17 2016-04-19 Samsung Electronics Co., Ltd. Camera device and methods for aiding users in use thereof
US9456231B2 (en) 2014-06-06 2016-09-27 Samsung Electronics Co., Ltd. Electronic device, control method thereof and system
JP2017005395A (en) * 2015-06-05 2017-01-05 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program
US9848133B2 (en) 2013-03-26 2017-12-19 Panasonic Intellectual Property Management Co., Ltd. Image generation device, imaging device, image generation method, and program for generating a new image from a captured image
WO2018079043A1 (en) * 2016-10-26 2018-05-03 シャープ株式会社 Information processing device, image pickup device, information processing system, information processing method, and program
JP2018114978A (en) * 2018-03-29 2018-07-26 株式会社小松製作所 Construction machine management system
WO2018147089A1 (en) * 2017-02-10 2018-08-16 ソニー株式会社 Information processing device and method
JP2020120221A (en) * 2019-01-22 2020-08-06 オリンパス株式会社 Photography support method, program, data processing device
CN114117087A (en) * 2021-11-23 2022-03-01 北京达佳互联信息技术有限公司 Resource recommendation method and device, computer equipment and medium
US12417515B2 (en) 2022-03-02 2025-09-16 Canon Kabushiki Kaisha Image processing apparatus and control method therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297339A (en) * 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd Method and program for image display
JP2008103850A (en) * 2006-10-17 2008-05-01 Olympus Imaging Corp Camera, image retrieval system, and image retrieving method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297339A (en) * 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd Method and program for image display
JP2008103850A (en) * 2006-10-17 2008-05-01 Olympus Imaging Corp Camera, image retrieval system, and image retrieving method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9319583B2 (en) 2012-08-17 2016-04-19 Samsung Electronics Co., Ltd. Camera device and methods for aiding users in use thereof
US9848133B2 (en) 2013-03-26 2017-12-19 Panasonic Intellectual Property Management Co., Ltd. Image generation device, imaging device, image generation method, and program for generating a new image from a captured image
JPWO2015015779A1 (en) * 2013-07-31 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information presentation method, operation program, and information presentation system
US9924231B2 (en) 2013-07-31 2018-03-20 Panasonic Intellectual Property Corporation Of America Information presentation method, operation program, and information presentation system
WO2015015779A1 (en) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information presentation method, operation program, and information presentation system
US10356302B2 (en) 2013-09-13 2019-07-16 Canon Kabushiki Kaisha Transmission apparatus, reception apparatus, transmission and reception system, transmission apparatus control method, reception apparatus control method, transmission and reception system control method, and program
JP2015056846A (en) * 2013-09-13 2015-03-23 キヤノン株式会社 Transmission device, reception device, transmission/reception system, control method for transmission device, control method for reception device, control method for transmission/reception system, and program
US9456231B2 (en) 2014-06-06 2016-09-27 Samsung Electronics Co., Ltd. Electronic device, control method thereof and system
JP2017005395A (en) * 2015-06-05 2017-01-05 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program
WO2018079043A1 (en) * 2016-10-26 2018-05-03 シャープ株式会社 Information processing device, image pickup device, information processing system, information processing method, and program
JPWO2018079043A1 (en) * 2016-10-26 2019-09-12 シャープ株式会社 Information processing apparatus, imaging apparatus, information processing system, information processing method, and program
WO2018147089A1 (en) * 2017-02-10 2018-08-16 ソニー株式会社 Information processing device and method
JP2018114978A (en) * 2018-03-29 2018-07-26 株式会社小松製作所 Construction machine management system
JP2020120221A (en) * 2019-01-22 2020-08-06 オリンパス株式会社 Photography support method, program, data processing device
CN114117087A (en) * 2021-11-23 2022-03-01 北京达佳互联信息技术有限公司 Resource recommendation method and device, computer equipment and medium
US12417515B2 (en) 2022-03-02 2025-09-16 Canon Kabushiki Kaisha Image processing apparatus and control method therefor

Similar Documents

Publication Publication Date Title
JP2011078008A (en) Content sharing apparatus, content editing apparatus, content sharing program, and content editing program
CN100481087C (en) Search apparatus and method
US7577636B2 (en) Network-extensible reconfigurable media appliance
CN100530191C (en) Information processing apparatus and method
US8078618B2 (en) Automatic multimode system for organizing and retrieving content data files
KR20120055462A (en) Method and system of encoding and decoding media content
EP2048665A1 (en) Recording device and method, imaging device, reproduction device and method, and program
JP2012004739A (en) Information processor, information processing method and program
JP2006180074A (en) Image editing apparatus, imaging apparatus, image editing method, and program
CN102547105A (en) Method of generating and reproducing moving image data and photographing apparatus using the same
CN101772956B (en) Content editing device and content editing method
JP2010079788A (en) Content management device, system, method and program
JP2005084987A (en) Service server and composite moving picture preparation service method
JPWO2014050956A1 (en) Imaging device, imaging system, imaging method, and imaging control program
US20060126963A1 (en) Frame classification information providing device and program
JP2003099434A (en) Electronic album device
JP2006203574A (en) Image display device
JP5401103B2 (en) Video information management apparatus and method
JP5309322B2 (en) Management server and video content processing method
JP4901258B2 (en) Camera and data display method
JP5900490B2 (en) Information terminal, image display method and program
JP2013126107A (en) Digital broadcast receiving device
JP5695493B2 (en) Multi-image playback apparatus and multi-image playback method
JP6666557B2 (en) IMAGE MANAGEMENT SYSTEM, INFORMATION PROCESSING DEVICE USED FOR IMAGE MANAGEMENT SYSTEM, INFORMATION PRESENTATION METHOD BY INFORMATION PROCESSING DEVICE, AND PROGRAM
CN113259622B (en) Information processing device and method, storage medium and computer device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131008