[go: up one dir, main page]

JP2012093950A - Image generation system, portable information terminal, image generation method and computer program - Google Patents

Image generation system, portable information terminal, image generation method and computer program Download PDF

Info

Publication number
JP2012093950A
JP2012093950A JP2010240577A JP2010240577A JP2012093950A JP 2012093950 A JP2012093950 A JP 2012093950A JP 2010240577 A JP2010240577 A JP 2010240577A JP 2010240577 A JP2010240577 A JP 2010240577A JP 2012093950 A JP2012093950 A JP 2012093950A
Authority
JP
Japan
Prior art keywords
image
image data
terminal
portable information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010240577A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Kamiyama
義之 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010240577A priority Critical patent/JP2012093950A/en
Publication of JP2012093950A publication Critical patent/JP2012093950A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance attraction of information and data corresponding to a location of a portable information terminal and evoke a user's interest by enabling a creation of a commemorative photograph even if a picture was not taken by the user at a place that the user visited.SOLUTION: A portable information terminal 1 acquires a scenery photographic image P1 of a scenery corresponding to an area where the terminal 1 is located at the time via a radio communication network, while the terminal 1 moves. The terminal 1 creates a processed image P3 where a subject of an image P2 is arranged as a foreground of the scenery of the image P1 by combing each of the acquired multiple scenery photographic images P1 with the image P2.

Description

本発明は、無線通信機能を有する可搬型の携帯情報端末に関し、特に、携帯端末の位置に対応する風景画像を含む静止画像データの生成技術に関する。   The present invention relates to a portable portable information terminal having a wireless communication function, and more particularly to a technique for generating still image data including a landscape image corresponding to the position of a portable terminal.

無線通信機能を有する可搬型の携帯情報端末、例えば、フィーチャーフォン・スマートフォン等の携帯電話端末、無線通信機能を搭載した音楽プレーヤー端末、PDA(Personal Digital Assistant)、無線通信機能を搭載したデジタルカメラ等、が普及している。また、これらの携帯情報端末は、カメラ機能、及び位置情報の取得機能を有するものもあり、カメラによる撮影画像のメタデータとして位置情報を利用することが行われている。位置情報の取得には、GPS(Global Positioning System)、無線LAN(Local Access Network)アクセスポイントからの電波を利用した位置計測(WiFi測位等と呼ばれる)が利用されている。撮影画像と位置情報を関連付けることによって、地図データとの連携が容易になる。例えばインターネットで提供されている地図API(Application Programming Interface)を利用して、撮影場所に対応する地点に撮影画像を重ね合わせた地図を生成することが行われている。   Portable portable information terminals with wireless communication functions, such as mobile phone terminals such as feature phones and smartphones, music player terminals with wireless communication functions, PDAs (Personal Digital Assistants), digital cameras with wireless communication functions, etc. Is popular. Some of these portable information terminals have a camera function and a position information acquisition function, and position information is used as metadata of a captured image by the camera. For the acquisition of the position information, position measurement using a radio wave from a GPS (Global Positioning System) or a wireless LAN (Local Access Network) access point (referred to as WiFi positioning) is used. By associating the captured image with the position information, cooperation with map data is facilitated. For example, a map API (Application Programming Interface) provided on the Internet is used to generate a map in which captured images are superimposed on a point corresponding to a shooting location.

また、特許文献1には、人物画像から切り出した顔画像を、建物・風景などを撮影した風景写真画像に合成する画像処理技術が記載されている。より具体的に述べると、特許文献1に開示された装置は、人物画像に対して顔認識処理を実行し、人物画像から切り出した顔画像を装飾画像(人物の身体部分に対応する画像)に当てはめる第1の画像合成を行い、さらに第1の画像合成で得られた人物像を風景写真画像に重ね合わせる第2の画像合成を行う。   Patent Document 1 describes an image processing technique for synthesizing a face image cut out from a person image with a landscape photograph image obtained by photographing a building or a landscape. More specifically, the apparatus disclosed in Patent Document 1 performs face recognition processing on a person image, and converts the face image cut out from the person image into a decorative image (an image corresponding to a human body part). A first image composition to be applied is performed, and a second image composition is performed to superimpose a person image obtained by the first image composition on a landscape photograph image.

特許文献2には、携帯電話端末の位置に対応した広告等の情報を携帯電話端末宛てに送信する技術が記載されている。より具体的に述べると、特許文献2に開示されたシステムは、販売店、飲食店等の店舗に配置され、携帯電話端末の送信する電波を受信可能な受信装置を含む。そして、特許文献2に開示されたシステムは、この受信装置によって受信された携帯電話端末の電波から電話番号を検出することによって携帯電話端末を特定し、当該受信装置が配置されている店舗や地域に対応する広告情報を特定された携帯電話端末が受信可能なメールアドレス宛てに送信する。   Patent Document 2 describes a technique for transmitting information such as an advertisement corresponding to the position of a mobile phone terminal to the mobile phone terminal. More specifically, the system disclosed in Patent Document 2 includes a receiving device that is disposed in a store such as a store or a restaurant, and that can receive radio waves transmitted from a mobile phone terminal. The system disclosed in Patent Document 2 identifies the mobile phone terminal by detecting the telephone number from the radio wave of the mobile phone terminal received by the receiving device, and stores or regions where the receiving device is arranged. The advertisement information corresponding to is sent to an e-mail address that can be received by the specified mobile phone terminal.

また、携帯電話端末が定期的に位置情報をサーバに送信し、端末が特定のエリアに入ったことに応じてそのエリアに関連する店舗情報や交通情報をサーバから携帯電話端末に送信するサービスも実用化されている。   In addition, there is a service in which a mobile phone terminal periodically sends location information to a server, and in response to the terminal entering a specific area, store information and traffic information related to that area are sent from the server to the mobile phone terminal. It has been put into practical use.

特許文献3には、撮影場所に応じた地名情報、及び撮影場所に適応したフォトムレームをサーバから取得し、取得した地名情報やフォフレームを撮影画像に合成するデジタルカメラが記載されている。また、特許文献3には、サーバから取得した地名情報やフォフレームを使用して撮影画像との画像合成を行うか否かを利用者が選択できることが記載されている。   Patent Document 3 describes a digital camera that acquires place name information corresponding to a shooting location, and a photo frame adapted to the shooting location from a server, and combines the acquired location name information and a frame with a shot image. Patent Document 3 describes that a user can select whether or not to perform image composition with a photographed image using place name information or foframe acquired from a server.

特許文献4には、撮影画像の一部に相当する部分画像(所定の色彩情報に基づいて撮影画像から抽出された合成対象)をサーバから取得したフォトフレーム画像に合成する無線機能付きデジタルカメラが記載されている。また、特許文献4には、デジタルカメラがサーバから取得する画像が無線アクセスポイントに特有の画像であり、例えばテーマパーク等に行かなくては取得できない画像であることが記載されている。   Patent Document 4 discloses a digital camera with a wireless function that synthesizes a partial image corresponding to a part of a captured image (compositing target extracted from a captured image based on predetermined color information) with a photo frame image acquired from a server. Are listed. Patent Document 4 describes that an image acquired by a digital camera from a server is an image specific to a wireless access point, and cannot be acquired without going to a theme park, for example.

特開2002−288532号公報JP 2002-288532 A 特開2010−183317号公報JP 2010-183317 A 特開2004−221753号公報Japanese Patent Application Laid-Open No. 2004-221753 特開2010−118825号公報JP 2010-118825 A

特許文献2にも開示されているように、携帯情報端末の位置に対応した情報・データを携帯情報端末に送信する技術が知られている。利用者は携帯情報端末を持って行動することで、行く先々で様々な情報を入手できるようになっている。しかしながら、単に情報を送信するのみでは利用者の興趣を喚起するのに十分ではないという問題がある。利用者の興趣を喚起するものでなければ、その情報は他の多くの情報の中に埋没し、利用者に閲覧される機会は小さくなる。   As disclosed in Patent Document 2, a technique for transmitting information / data corresponding to the position of a portable information terminal to the portable information terminal is known. Users can obtain various information everywhere they go by acting with a portable information terminal. However, there is a problem that simply transmitting information is not sufficient to stimulate the user's interest. If it does not evoke the user's interest, the information is buried in many other information, and the opportunity for the user to view it is reduced.

なお、特許文献3及び4は、無線機能付きデジタルカメラ等の端末が、当該端末の位置する場所に対応する地名情報又はフォトフレーム画像をサーバから取得し、これらの地名情報又はフォトフレーム画像を当該デジタルカメラによる撮影画像と合成することを開示している。しかしながら、特許文献3及び4は、サーバから取得した地名情報又はフォトフレーム画像を用いて、利用者がデジタルカメラによって撮影した撮影画像を「加工」することを開示しているのみである。つまり、特許文献3及び4は、端末が位置する場所に対応する建物・景色等の風景が撮影された風景写真画像を端末の移動に従ってサーバから取得すること、及び当該風景写真画像と利用者等の被写体の画像を合成して、旅行等の記録を目的としたいわゆる「記念写真」を作成することについては何ら開示していない。従って、特許文献3及び4に記載された技術では、写真撮影以外の他の操作(例えば電話による通話、メール作成等)を携帯情報端末に対して行っていた、又は単に利用者が写真を撮り忘れた等の何らかの事情によって利用者が写真撮影を行わなかった場合に、利用者が訪れた場所の記念写真を提供することができない。   In Patent Documents 3 and 4, a terminal such as a digital camera with a wireless function acquires place name information or a photo frame image corresponding to a place where the terminal is located from a server, and the place name information or the photo frame image is obtained from the server. It discloses that it is combined with a photographed image by a digital camera. However, Patent Documents 3 and 4 only disclose that the photographed image captured by the user with the digital camera is “processed” using the place name information or the photo frame image acquired from the server. That is, Patent Documents 3 and 4 obtain a landscape photo image in which a landscape such as a building or a landscape corresponding to a place where the terminal is located from a server according to the movement of the terminal, and the landscape photo image and a user, etc. Nothing is disclosed about creating so-called “commemorative photos” for the purpose of recording travel and the like by synthesizing images of subjects. Therefore, in the techniques described in Patent Documents 3 and 4, operations other than photography (for example, telephone calls, mail creation, etc.) are performed on the portable information terminal, or the user simply takes a picture. When the user does not take a picture due to some reason such as forgetting, a commemorative photo of the place visited by the user cannot be provided.

本願発明は、発明者による上述の知見に基づいてなされたものであり、利用者が訪れた場所において利用者の操作による写真撮影が行われなかった場合にも記念写真の作成を可能とすることで携帯情報端末の位置に対応した情報・データの魅力を向上させ、利用者の興趣を喚起することが可能な画像生成システム、携帯情報端末、画像生成方法、及びコンピュータプログラムの提供を目的とする。   The present invention has been made on the basis of the above-mentioned knowledge by the inventor, and enables creation of a commemorative photo even when a photograph is not taken by a user's operation at a place visited by the user. The purpose of the present invention is to provide an image generation system, a portable information terminal, an image generation method, and a computer program capable of improving the attractiveness of information and data corresponding to the position of the portable information terminal and arousing the interest of the user .

本発明の第1の態様は、画像生成システムに関する。前記システムは、携帯情報端末が位置するエリアに対応する風景が撮影された風景写真を含む第1の画像データを前記端末の移動に従って画像配信システムから取得するよう構成されている。さらに、前記システムは、取得された複数の前記第1の画像データの各々を第2の画像データと合成することによって、前記第2の画像データの被写体が前記風景の前景として配置された複数の第3の画像を生成するよう構成されている。   A first aspect of the present invention relates to an image generation system. The system is configured to acquire first image data including a landscape photograph in which a landscape corresponding to an area where the portable information terminal is located from the image distribution system according to the movement of the terminal. Further, the system combines each of the acquired plurality of first image data with second image data, whereby a plurality of objects in the second image data are arranged as a foreground of the landscape. It is configured to generate a third image.

本発明の第2の態様は、携帯情報端末に関する。前記携帯情報端末は、データ取得部、画像処理部、及び表示部を含む。前記データ取得部は、無線通信ネットワークを介して、前記端末が位置するエリアに対応する風景が撮影された風景写真を含む第1の画像データを前記端末の移動に従って取得する。前記画像処理部は、取得された複数の前記第1の画像データの各々を第2の画像データと合成することによって、前記第2の画像データの被写体が前記風景の前景として配置された複数の第3の画像を生成する。前記表示部は、前記複数の第3の画像データの各々を視覚的に表示可能である。   A second aspect of the present invention relates to a portable information terminal. The portable information terminal includes a data acquisition unit, an image processing unit, and a display unit. The data acquisition unit acquires first image data including a landscape photograph in which a landscape corresponding to an area where the terminal is located is captured via the wireless communication network according to movement of the terminal. The image processing unit combines each of the acquired plurality of first image data with second image data, thereby a plurality of objects in which the subject of the second image data is arranged as a foreground of the landscape. A third image is generated. The display unit can visually display each of the plurality of third image data.

本発明の第3の態様は、画像生成方法に関する。前記画像生成方法は、以下のステップ(a)及び(b)を含む。
(a)携帯情報端末が位置するエリアに対応する風景が撮影された風景写真を含む第1の画像データを前記端末の移動に従って画像配信システムから取得すること、及び
(b)取得された複数の前記第1の画像データの各々を第2の画像データと合成することによって、前記第2の画像データの被写体が前記風景の前景として配置された複数の第3の画像を生成すること。
A third aspect of the present invention relates to an image generation method. The image generation method includes the following steps (a) and (b).
(A) acquiring first image data including a landscape photograph in which a landscape corresponding to an area where the portable information terminal is located is acquired from the image distribution system according to the movement of the terminal; and (b) a plurality of acquired Each of the first image data is combined with the second image data, thereby generating a plurality of third images in which the subject of the second image data is arranged as the foreground of the landscape.

本発明の第4の態様は、コンピュータプログラムに関する。前記プログラムは、上述した本発明の第3の態様にかかる画像生成方法をコンピュータに実行させるためのプログラムである。   A fourth aspect of the present invention relates to a computer program. The said program is a program for making a computer perform the image generation method concerning the 3rd aspect of this invention mentioned above.

上述した本発明の各態様によれば、利用者が訪れた場所において利用者の操作による写真撮影が行われなかった場合にも記念写真の作成を可能とすることで携帯情報端末の位置に対応した情報・データの魅力を向上させ、利用者の興趣を喚起することが可能な画像生成システム、携帯情報端末、画像生成方法、及びコンピュータプログラムを提供できる。   According to each aspect of the present invention described above, it is possible to create a commemorative photo even when a photograph is not taken by a user's operation at a place visited by the user, thereby supporting the position of the portable information terminal. It is possible to provide an image generation system, a portable information terminal, an image generation method, and a computer program that can improve the attractiveness of the information and data and can stimulate the interest of the user.

本発明の実施の形態1に係る画像生成システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image generation system which concerns on Embodiment 1 of this invention. 図1に示した画像生成システムによる加工画像の生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the processed image by the image production | generation system shown in FIG. 図1に示した画像生成システムによって生成される加工画像の第1の例を示す図である。It is a figure which shows the 1st example of the processed image produced | generated by the image production | generation system shown in FIG. 図1に示した画像生成システムによって生成される加工画像の第2の例を示す図である。It is a figure which shows the 2nd example of the processed image produced | generated by the image production | generation system shown in FIG. 本発明の実施の形態2に係る携帯情報端末を含むネットワーク配置の具体例、及び携帯情報端末の構成例を示すブロック図である。It is a block diagram which shows the specific example of the network arrangement | positioning containing the portable information terminal which concerns on Embodiment 2 of this invention, and the structural example of a portable information terminal. 図5に示した携帯情報端末によって生成される加工画像の具体例を示す図である。It is a figure which shows the specific example of the processed image produced | generated by the portable information terminal shown in FIG. 加工画像に表示される文字列の具体例を示す表である。It is a table | surface which shows the specific example of the character string displayed on a process image. 図5に示した携帯情報端末をコンピュータシステムを用いて構成する場合の構成例を示すブロック図である。It is a block diagram which shows the structural example in the case of comprising the portable information terminal shown in FIG. 5 using a computer system. 本発明の実施の形態2に係る携帯情報端末を含むネットワーク配置の他の例を示すブロック図である。It is a block diagram which shows the other example of the network arrangement | positioning containing the portable information terminal which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る携帯情報端末を含むネットワーク配置の他の例を示すブロック図である。It is a block diagram which shows the other example of the network arrangement | positioning containing the portable information terminal which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る携帯情報端末を含むネットワーク配置の具体例、及び携帯情報端末の構成例を示すブロック図である。It is a block diagram which shows the specific example of the network arrangement | positioning containing the portable information terminal which concerns on Embodiment 3 of this invention, and the structural example of a portable information terminal. 本発明の実施の形態4に係る携帯情報端末を含むネットワーク配置の具体例、及び携帯情報端末の構成例を示すブロック図である。It is a block diagram which shows the specific example of the network arrangement | positioning containing the portable information terminal which concerns on Embodiment 4 of this invention, and the structural example of a portable information terminal. 本発明の実施の形態4に係る加工画像の生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the processed image which concerns on Embodiment 4 of this invention. 図12に示した携帯情報端末によって生成される加工画像の例を示す図である。It is a figure which shows the example of the process image produced | generated by the portable information terminal shown in FIG.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In each drawing, the same or corresponding elements are denoted by the same reference numerals, and redundant description is omitted as necessary for clarification of the description.

<発明の実施の形態1>
本実施の形態に係る画像生成システム1000の構成例図1に示す。画像生成システム1000は、データ取得部11、画像処理部12、及び人物画像記憶部13を含む。データ取得部11は、携帯情報端末1が位置するエリアに対応した風景写真画像P1を端末1の移動に伴って画像配信システム2から取得する。画像配信システム2からデータ取得部11への風景写真画像P1の送信は、画像配信システム2が端末1の現在位置を認識したことを契機とするプッシュ動作によって行われてもよいし、画像配信エリア内であることを端末1が検出したことを契機とするプル動作によって行われてもよい。
<Embodiment 1 of the Invention>
A configuration example of an image generation system 1000 according to the present embodiment is shown in FIG. The image generation system 1000 includes a data acquisition unit 11, an image processing unit 12, and a person image storage unit 13. The data acquisition unit 11 acquires a landscape photograph image P1 corresponding to the area where the portable information terminal 1 is located from the image distribution system 2 as the terminal 1 moves. The transmission of the landscape photograph image P1 from the image distribution system 2 to the data acquisition unit 11 may be performed by a push operation triggered by the image distribution system 2 recognizing the current position of the terminal 1 or an image distribution area. It may be performed by a pull operation triggered by the fact that the terminal 1 has detected that it is within.

データ取得部11は、後述するように、風景写真画像P1に関するメタデータD1を取得してもよい。メタデータD1は、風景写真画像P1が撮影されたエリアの名称、撮影位置情報、画像配信時における当該エリアの気象情報(天気、気温等)を含んでもよい。また、メタデータD1は、加工画像P3を生成する際の人物画像P2の配置、拡大・縮小率等を指定する情報を含んでもよい。   As will be described later, the data acquisition unit 11 may acquire metadata D1 related to the landscape photograph image P1. The metadata D1 may include the name of the area where the landscape photograph image P1 was shot, shooting position information, and weather information (weather, temperature, etc.) of the area at the time of image distribution. Further, the metadata D1 may include information for designating the arrangement, enlargement / reduction ratio, and the like of the person image P2 when the processed image P3 is generated.

画像処理部12は、データ取得部11により取得された風景写真画像P1と、人物画像記憶部13に保持された人物画像P2を合成し、加工画像P3を生成する。具体的には、画像処理部12は、人物画像P2に撮影されている被写体、すなわち人物像が、風景写真画像P1に撮影されている風景の前景として配置された加工画像P3を生成する。風景写真画像P1に対する人物画像P2の重ね合わせ位置は、予め定められた位置(例えば風景写真画像P1の中央)としてもよいし、メタデータD1により指定された配置を適用してもよい。なお、画像処理部12による重ね合わせ合成には、公知の画像処理技術を適用すればよいため、ここでは詳細説明を省略する。   The image processing unit 12 combines the landscape photograph image P1 acquired by the data acquisition unit 11 and the person image P2 held in the person image storage unit 13 to generate a processed image P3. Specifically, the image processing unit 12 generates a processed image P3 in which a subject photographed in the person image P2, that is, a person image, is arranged as a foreground of a landscape photographed in the landscape photograph image P1. The overlapping position of the person image P2 with the landscape photograph image P1 may be a predetermined position (for example, the center of the landscape photograph image P1), or an arrangement specified by the metadata D1 may be applied. Note that a well-known image processing technique may be applied to the overlay synthesis by the image processing unit 12, and thus detailed description thereof is omitted here.

人物画像記憶部13は、人物画像P2を記憶する。人物画像記憶部13は、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ、又はハードディスクドライブである。例えば、人物画像P2は、携帯情報端末1が有するカメラ機能(不図示)によって予め取得された画像でもよい。携帯情報端末1の利用者は携帯情報端末1を操作することによって、予め撮影された画像群の中から画像生成システム1000に登録する人物画像P2を選択し、選択した人物画像P2を画像生成システム1000に送信・登録しておけばよい。   The person image storage unit 13 stores a person image P2. The person image storage unit 13 is, for example, an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), a flash memory, or a hard disk drive. For example, the person image P2 may be an image acquired in advance by a camera function (not shown) of the portable information terminal 1. A user of the portable information terminal 1 operates the portable information terminal 1 to select a person image P2 to be registered in the image generation system 1000 from a group of previously captured images, and the selected person image P2 is selected from the image generation system. Send and register to 1000.

画像生成システム1000は、携帯情報端末1の利用者の閲覧に供するべく、生成した加工画像P3を携帯情報端末1に送信する。   The image generation system 1000 transmits the generated processed image P3 to the portable information terminal 1 so as to be browsed by the user of the portable information terminal 1.

図2は、画像生成システム1000による加工画像P3の生成手順の具体例を示すフローチャートである。ステップS101では、データ取得部11は、端末移動に従って、端末1が位置するエリアの風景写真画像P1を配信システム2から取得する。ステップS102では、画像処理部12は、風景写真画像P1に含まれる風景写真の前景として人物画像P2を重ね合わせ合成することで、加工画像P3を生成する。   FIG. 2 is a flowchart showing a specific example of the procedure for generating the processed image P3 by the image generation system 1000. In step S101, the data acquisition unit 11 acquires a landscape photograph image P1 of an area where the terminal 1 is located from the distribution system 2 according to the terminal movement. In step S102, the image processing unit 12 generates a processed image P3 by superimposing and synthesizing the person image P2 as the foreground of the landscape photograph included in the landscape photograph image P1.

続いて以下では、携帯情報端末1により生成される加工画像P3の具体例を説明する。図3に示す第1の例では、加工画像P3は、風景写真画像P1に人物画像P2を重ね合わせることによって生成される。   Subsequently, a specific example of the processed image P3 generated by the portable information terminal 1 will be described below. In the first example shown in FIG. 3, the processed image P3 is generated by superimposing the person image P2 on the landscape photograph image P1.

図4に示す第2の例に係る加工画像P3は、さらに、配信システム2から取得されたメタデータD1に含まれる情報の文字、記号、若しくは図形、又はこれらの組合せによる表示を含む。具体的には、メタデータD1に含まれる、エリアを示す場所名、配信時の天気及び気温が、文字及び記号によって表示されている。なお、図4の加工画像中の時刻表示は、画像生成システム1000が持つ時計機能から取得された時刻情報を利用して生成されてもよいし、メタデータD1に含まれる時刻情報(例えば配信時刻)を利用して生成されてもよい。   The processed image P3 according to the second example illustrated in FIG. 4 further includes a display of characters, symbols, graphics, or a combination of information included in the metadata D1 acquired from the distribution system 2. Specifically, the place name indicating the area, the weather at the time of distribution, and the temperature included in the metadata D1 are displayed by characters and symbols. Note that the time display in the processed image of FIG. 4 may be generated using time information acquired from the clock function of the image generation system 1000, or time information (for example, distribution time) included in the metadata D1. ) May be used.

本実施の形態に係る画像生成システム1000によれば、携帯情報端末1の利用者は、携帯情報端末1を操作して能動的に写真撮影を行わなくても、自身が移動した経路上の景色と人物像(典型的には利用者本人の像)を含む加工画像P3を得ることができる。つまり、本実施の形態によれば、写真撮影以外の他の操作(例えば電話による通話、メール作成等)を利用者が端末1に対して行っていた、又は単に利用者が写真を撮り忘れた等の何らかの事情によって写真撮影を行わなかった場合であっても、利用者が訪れた場所の記念写真を提供することができる。また、利用者は、加工画像P3を閲覧することによって、自身の行動履歴を確認する楽しみを得ることができる。つまり、単なる風景写真ではなく、自身の像が写っている加工画像P3が得られることで、携帯情報端末の位置に対応した情報・データの魅力を向上させ、利用者の興趣を喚起することが期待できる。   According to the image generation system 1000 according to the present embodiment, the user of the portable information terminal 1 can view the scenery on the route on which he / she moved without operating the portable information terminal 1 to actively take a picture. And a processed image P3 including a person image (typically an image of the user himself / herself) can be obtained. In other words, according to the present embodiment, the user has performed other operations (for example, telephone calls, mail creation, etc.) on the terminal 1, or the user simply forgot to take a photo. Even if a photograph is not taken for some reason, it is possible to provide a commemorative photo of the place where the user has visited. Further, the user can enjoy the pleasure of confirming his / her action history by browsing the processed image P3. In other words, it is possible to improve the attractiveness of information and data corresponding to the position of the portable information terminal and to stimulate the interest of the user by obtaining the processed image P3 in which the image of himself / herself is reflected instead of just a landscape photograph. I can expect.

また、本実施の形態によれば、利用者は、自身が気付いていなかった魅力的な景色の写真やエリア情報を自動的に入手できる可能性もある。例えば、利用者は、自身の知らない施設、店舗等が撮影された加工画像P3を閲覧することで、新たな発見・情報を得ることが期待できる。また、単なる風景写真ではなく、自身の像が写っている加工画像P3が得られることで、携帯情報端末の位置に対応した情報・データの魅力を向上させ、利用者の興趣を喚起することが期待できる。   Further, according to the present embodiment, there is a possibility that the user can automatically obtain attractive scenery photos and area information that he / she did not notice. For example, the user can expect to find new discoveries and information by browsing the processed image P3 in which a facility, a store, or the like that he / she does not know is photographed. In addition, it is possible to improve the attractiveness of information and data corresponding to the position of the portable information terminal and to stimulate the user's interest by obtaining the processed image P3 in which the image of himself / herself is reflected instead of just a landscape photograph. I can expect.

なお、上述した説明では、人物写真(画像P2)を風景写真画像P1に合成することで、いわゆる記念写真を自動的に作成する例示した。しかしながら、風景写真画像P1に合成される画像は人物写真に限られない。例えば、動物(利用者が飼っているペット等)の写真画像、車両(利用者が所有する自動車・自転車等)の写真画像、人物を表わすグラフィック画像などでもよい。   In the above description, a so-called commemorative photo is automatically created by synthesizing a person photo (image P2) with a landscape photo image P1. However, the image combined with the landscape photo image P1 is not limited to a portrait. For example, a photographic image of an animal (a pet or the like kept by a user), a photographic image of a vehicle (a car or bicycle owned by the user), a graphic image representing a person, or the like may be used.

また、画像生成システム1000の物理的な配置は特に限定されない。例えば、データ取得部11、画像処理部12、及び人物画像記憶部13のうちの少なくとも一部は、携帯情報端末1に配置されてもよい。また、画像生成システム1000は、携帯情報端末1及び配信システム12と通信ネットワークを介して接続されるコンピュータシステムに配置されてもよい。   Further, the physical arrangement of the image generation system 1000 is not particularly limited. For example, at least some of the data acquisition unit 11, the image processing unit 12, and the person image storage unit 13 may be arranged in the portable information terminal 1. Further, the image generation system 1000 may be disposed in a computer system connected to the portable information terminal 1 and the distribution system 12 via a communication network.

また、本実施の形態で説明したデータ取得部11、画像処理部12の機能は、CPU(Central Processing Unit)、マイクロプロセッサ等のコンピュータに1又は複数のプログラムを実行させることによって実現してもよい。   The functions of the data acquisition unit 11 and the image processing unit 12 described in the present embodiment may be realized by causing a computer such as a CPU (Central Processing Unit) or a microprocessor to execute one or more programs. .

これらのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   These programs can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

本実施の形態で述べた通信制御システム100の変形について、以下に述べる発明の実施の形態2〜4において詳しく説明する。   Modifications of the communication control system 100 described in this embodiment will be described in detail in Embodiments 2 to 4 described below.

<発明の実施の形態2>
本実施の形態では、発明の実施の形態1で述べた画像生成システム1000の機能を携帯情報端末1に配置する具体例について説明する。本実施の形態に係る携帯情報端末1を含むネットワーク配置例、及び携帯情報端末1の構成例を図5に示す。本実施の形態に係る携帯情報端末1は、携帯情報端末1は、無線通信機能によって通信ネットワーク3に接続可能であり、通信ネットワーク3を介して画像配信システム2と通信可能である。通信ネットワーク3は、IP(Internet Protocol)ネットワーク等のデータ転送網であり、例えば、携帯電話事業者の無線アクセスネットワーク及びパケットコアネットワーク、インターネットを含む。また、通信ネットワーク3は、無線LANを含んでもよい。また、通信ネットワーク3は、微弱無線電波を利用する近距離無線通信技術、例えばRFID(Radio Frequency Identifications)、Bluetooth等に基づくネットワークを含んでもよい。
<Embodiment 2 of the Invention>
In the present embodiment, a specific example in which the functions of the image generation system 1000 described in the first embodiment of the invention are arranged in the portable information terminal 1 will be described. FIG. 5 shows a network arrangement example including the portable information terminal 1 according to the present embodiment and a configuration example of the portable information terminal 1. The portable information terminal 1 according to the present embodiment can be connected to the communication network 3 by the wireless communication function, and can communicate with the image distribution system 2 via the communication network 3. The communication network 3 is a data transfer network such as an IP (Internet Protocol) network, and includes, for example, a radio access network and a packet core network of a mobile phone operator, and the Internet. The communication network 3 may include a wireless LAN. Further, the communication network 3 may include a network based on short-range wireless communication technology using weak wireless radio waves, for example, RFID (Radio Frequency Identifications), Bluetooth, and the like.

画像配信システム2は、複数のエリアに関する複数の風景写真画像を保持しており、端末1が位置するエリアの建物・景色等が撮影された風景写真画像である風景写真画像P1を、ネットワーク3を介して端末1に送信可能である。画像配信システム2は、図1に示すように、複数のエリアに対して1つのサーバ20配置し、サーバ20が複数のエリアの風景写真画像P1を管理・送信するようにしてもよい。また、画像配信システム2は、各々が1つのエリアに対応付けて配置された複数のサーバを有してもよい。   The image distribution system 2 holds a plurality of landscape photographic images related to a plurality of areas, and transmits a landscape photographic image P1 that is a landscape photographic image obtained by photographing a building / landscape in the area where the terminal 1 is located, over the network 3. Can be transmitted to the terminal 1. As shown in FIG. 1, the image distribution system 2 may be arranged such that one server 20 is arranged for a plurality of areas, and the server 20 manages and transmits landscape photograph images P1 of the plurality of areas. Further, the image distribution system 2 may include a plurality of servers, each of which is arranged in association with one area.

携帯情報端末1は、自身が位置するエリアに対応した風景写真画像P1を端末1の移動に伴って配信システム2から取得し、自端末内に保持された人物画像P2を風景写真画像P1に合成することで加工画像P3を生成する。人物画像P2は、典型的には、端末1の利用者を撮影した人物写真の画像であるが、端末1の利用者の家族・友人の写真、複数人のグループ写真であってもよい。以下では、携帯情報端末1の構成及び動作の詳細ついて順に説明する。   The portable information terminal 1 acquires the landscape photo image P1 corresponding to the area where the mobile information terminal 1 is located from the distribution system 2 as the terminal 1 moves, and synthesizes the person image P2 held in the terminal 1 with the landscape photo image P1. Thus, the processed image P3 is generated. The person image P2 is typically an image of a person photograph taken of the user of the terminal 1, but may be a photograph of a family / friend of the user of the terminal 1 or a group photograph of a plurality of persons. Below, the structure and operation | movement detail of the portable information terminal 1 are demonstrated in order.

図5において、無線通信部10は、通信ネットワーク3を介して画像配信システム2と通信可能に構成されている。無線通信部10には、公知の無線通信方式、例えばRFID、Bluetooth、無線LAN、WiMAX(Worldwide Interoperability for Microwave Access)、UTRA(UMTS Terrestrial Radio Access)、E−UTRA(Evolved UTRA)等、に準拠した送受信機を用いればよい。   In FIG. 5, the wireless communication unit 10 is configured to be able to communicate with the image distribution system 2 via the communication network 3. The wireless communication unit 10 conforms to a known wireless communication system such as RFID, Bluetooth, wireless LAN, WiMAX (Worldwide Interoperability for Microwave Access), UTRA (UMTS Terrestrial Radio Access), E-UTRA (Evolved UTRA), etc. A transceiver may be used.

データ取得部11は、無線通信部10を介して、画像配信システム2から風景写真画像P1を取得する。データ取得部11は、風景写真画像P1に関するメタデータD1を取得してもよい。画像処理部12は、データ取得部11により取得された風景写真画像P1と、人物画像記憶部13に保持された人物画像P2を合成し、加工画像P3を生成する。データ取得部11及び画像処理部12については、発明の実施の形態1で説明済みであるから、ここでは詳細説明を省略する。人物画像記憶部13は、人物画像P2を記憶する。人物画像P2は、携帯情報端末1が有するカメラ機能(不図示)によって予め取得された画像でもよいし、携帯情報端末1が有する外部接続インタフェース(不図示)又は無線通信部10を介して外部から供給された画像でもよい。   The data acquisition unit 11 acquires the landscape photograph image P1 from the image distribution system 2 via the wireless communication unit 10. The data acquisition unit 11 may acquire metadata D1 related to the landscape photograph image P1. The image processing unit 12 combines the landscape photograph image P1 acquired by the data acquisition unit 11 and the person image P2 held in the person image storage unit 13 to generate a processed image P3. Since the data acquisition unit 11 and the image processing unit 12 have been described in the first embodiment of the invention, detailed description thereof will be omitted here. The person image storage unit 13 stores a person image P2. The person image P2 may be an image acquired in advance by a camera function (not shown) of the portable information terminal 1 or from the outside via an external connection interface (not shown) of the portable information terminal 1 or the wireless communication unit 10. It may be a supplied image.

表示部14は、例えば、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の視覚表示デバイスと、当該デバイスの表示を制御する表示制御部を含む。表示部14は、加工画像P3を視覚的に表示可能である。表示部14は、複数の加工画像P3を、例えば他の撮影画像ともに、撮影時系列に沿ってスライドショー表示してもよい。また、表示部14は、メタデータとして保持された撮影位置情報を利用し、地図画像上の撮影位置に対応する点に加工画像P3を表示するようにしてもよい。これらの表示によれば、端末1の利用者の行動履歴を視覚的に表示することが可能となる。   The display unit 14 includes, for example, a visual display device such as a liquid crystal display or an organic EL (Electro-Luminescence) display, and a display control unit that controls display of the device. The display unit 14 can visually display the processed image P3. The display unit 14 may display a plurality of processed images P3 as a slide show along with the shooting time series together with other shot images, for example. The display unit 14 may display the processed image P3 at a point corresponding to the shooting position on the map image using shooting position information held as metadata. According to these displays, it is possible to visually display the action history of the user of the terminal 1.

続いて以下では、携帯情報端末1により生成される加工画像P3の具体例を説明する。携帯情報端末1は、図3及び4に示したような加工画像P3を生成してもよい。また、携帯情報端末1は、携帯情報端末3の操作内容を加工画像P3に反映してもよい。図6に示す加工画像P3の具体例は、風景写真画像P1の取得時における、端末1に対する利用者の操作内容に関する表示を含む。図6の例では、"電話中"であったことが表示されている。なお、図6の表示加えて、電話相手の名前を表示してもよい。電話相手の名前は、携帯情報端末が有する連絡先データ(電話帳データ、アドレス帳データ)から取得すればよい。利用者の操作内容として表示される文字列、記号などは、利用者が端末1を操作することによって設定できるようにするとよい。   Subsequently, a specific example of the processed image P3 generated by the portable information terminal 1 will be described below. The portable information terminal 1 may generate the processed image P3 as shown in FIGS. Moreover, the portable information terminal 1 may reflect the operation content of the portable information terminal 3 in the processed image P3. The specific example of the processed image P3 illustrated in FIG. 6 includes a display regarding the operation contents of the user with respect to the terminal 1 when the landscape photograph image P1 is acquired. In the example of FIG. 6, it is displayed that the call was “on the phone”. In addition to the display of FIG. 6, the name of the telephone partner may be displayed. The name of the other party may be acquired from contact data (phone book data, address book data) of the portable information terminal. A character string, a symbol, or the like displayed as the operation content of the user may be set by the user operating the terminal 1.

図7は、携帯情報端末1の操作内容と加工画像P3に表示される文字列との対応関係を示す一覧表である。例えば、端末1の操作内容が"メール作成中"であった場合、メールを書いていたことを示す文字列が表示される。また、例えば、端末1の操作内容が"メール確認中"であった場合、メールを読んでいたことを示す文字列が表示される。なお、メール作成、確認の操作に関しても、メールの宛て先又は送信元の名前を併せて表示してもよい。メールの宛て先又は送信元の名前は、メールの宛て先アドレス又は送信元アドレスを連絡先データと照合することで取得すればよい。   FIG. 7 is a list showing the correspondence between the operation content of the portable information terminal 1 and the character string displayed on the processed image P3. For example, when the operation content of the terminal 1 is “composing mail”, a character string indicating that the mail was written is displayed. For example, when the operation content of the terminal 1 is “confirming mail”, a character string indicating that the mail has been read is displayed. Note that the name of the mail destination or sender may also be displayed for the mail creation and confirmation operations. The name of the mail destination or sender may be obtained by comparing the mail destination address or sender address with the contact data.

次に、携帯情報端末1が携帯電話端末である場合の具体的な構成例を図8に示す。無線通信部105は、基地局との無線通信を行う。スピーカ106及びマイク107は、音声電話、テレビ電話等に使用される。カメラ108は、静止画像又は動画像を取得する。ディスプレイ109は、画像表示デバイスであり、例えばLCD(Liquid Crystal Display)又は有機EL(Electro-Luminescence)ディスプレイである。不揮発性記憶部102(例えばフラッシュメモリ、又はハードディスクドライブ)に格納されたOS(Operating System)103及び画像生成アプリケーションプログラム104は、RAM(Random Access Memory)101にロードされる。CPU100がRAM101にロードされた画像生成アプリケーションプログラム104を実行することにより、データ取得部11、及び画像処理部12の機能が実現される。   Next, FIG. 8 shows a specific configuration example when the mobile information terminal 1 is a mobile phone terminal. The wireless communication unit 105 performs wireless communication with the base station. The speaker 106 and the microphone 107 are used for voice calls, videophones, and the like. The camera 108 acquires a still image or a moving image. The display 109 is an image display device, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display. An OS (Operating System) 103 and an image generation application program 104 stored in a nonvolatile storage unit 102 (for example, a flash memory or a hard disk drive) are loaded into a RAM (Random Access Memory) 101. When the CPU 100 executes the image generation application program 104 loaded in the RAM 101, the functions of the data acquisition unit 11 and the image processing unit 12 are realized.

なお、端末1が位置している配信エリアに対応する風景写真画像P1を選択的に送信できるようにするためには、画像配信システム2又はデータ取得部11は、所定の配信エリア内に端末1が到達したことを認識できる必要がある。以下では、所定の配信エリア内に端末1が到達したことを認識するための具体的な構成例について説明する。   In addition, in order to be able to selectively transmit the landscape photograph image P1 corresponding to the distribution area where the terminal 1 is located, the image distribution system 2 or the data acquisition unit 11 is in the predetermined distribution area. Need to be able to recognize that Hereinafter, a specific configuration example for recognizing that the terminal 1 has reached a predetermined distribution area will be described.

図9は、図5に示したネットワーク配置例の変形を示している。図9の例では、携帯情報端末1は位置情報取得部15を有する。位置情報取得部15は、端末1の現在位置を検出し、現在位置を示す位置情報を生成する。位置情報取得部15による現在位置の検出は様々な公知の手法のいずれかを用いて行えばよい。例えば、位置情報取得部15は、GPS(Global Positioning System)受信機を有し、GPS受信機によって現在位置を検出してもよい。また、位置情報取得部15は、複数の無線LANアクセスポイントからの無線信号の受信結果を、無線アクセスポイントの配置を記録したデータベースと照合することによって位置検出を行ってもよい。生成された位置情報は、配信システム2に送信される。端末1は、予め定められた周期で定期的に位置情報を送信すればよい。配信システム2は、端末1から受信した位置情報を用いて端末1の現在位置を監視し、風景写真画像P1に対応付けられた所定の配信エリアに端末1が到達したことに応じて、この風景写真画像P1を端末1宛てに送信すればよい。   FIG. 9 shows a modification of the network arrangement example shown in FIG. In the example of FIG. 9, the portable information terminal 1 has a position information acquisition unit 15. The position information acquisition unit 15 detects the current position of the terminal 1 and generates position information indicating the current position. The detection of the current position by the position information acquisition unit 15 may be performed using any of various known methods. For example, the position information acquisition unit 15 may have a GPS (Global Positioning System) receiver and detect the current position by the GPS receiver. Further, the position information acquisition unit 15 may perform position detection by collating reception results of wireless signals from a plurality of wireless LAN access points with a database that records the arrangement of wireless access points. The generated position information is transmitted to the distribution system 2. The terminal 1 should just transmit position information regularly with a predetermined period. The distribution system 2 monitors the current position of the terminal 1 using the position information received from the terminal 1, and in response to the terminal 1 reaching a predetermined distribution area associated with the landscape photo image P1, The photographic image P1 may be transmitted to the terminal 1.

また、風景写真画像P1に対応付けられた所定の配信エリアに端末1が到達したことは、各配信エリアに設置された無線局を用いて検出してもよい。具体的には、端末1から送信される無線信号を無線局が受信することによって、所定の配信エリアに端末1が到達したことを検出すればよい。この場合、端末1は、位置情報取得部15を有していなくてもよい。また、携帯情報端末1が特定の無線局のカバレッジエリア内に位置することを検出したことに応じて、データ取得部11がサーバ20にアクセスして風景写真画像P1を取得してもよい。特定の無線局のカバレッジエリア内に位置することは、無線局の送信信号に含まれる無線局識別子に基づいて判定すればよい。配信エリアに配置される無線局の具体例は、無線LANアクセスポイント、フェムトセル基地局、及びRFIDリーダ・ライタである。ここで、フェムトセル基地局は、通常の携帯電話基地局(マクロセル基地局)に比べてカバレッジエリアが狭い小規模な携帯電話基地局である。フェムトセル基地局の典型的なカバレッジエリアは、数十〜数百メートル程度である。フェムトセル基地局は、W−CDMA(Wideband Code Division Multiple Access)ではHome NodeB (HNB) 、E−UTRAではHome eNodeB (HeNB)と呼ばれる。   Further, the arrival of the terminal 1 in a predetermined distribution area associated with the landscape photograph image P1 may be detected using a radio station installed in each distribution area. Specifically, it is only necessary to detect that the terminal 1 has reached a predetermined distribution area when the wireless station receives a wireless signal transmitted from the terminal 1. In this case, the terminal 1 may not have the position information acquisition unit 15. Further, in response to detecting that the portable information terminal 1 is located within the coverage area of a specific wireless station, the data acquisition unit 11 may access the server 20 and acquire the landscape photograph image P1. The location within the coverage area of a specific radio station may be determined based on a radio station identifier included in the transmission signal of the radio station. Specific examples of the wireless station arranged in the distribution area are a wireless LAN access point, a femtocell base station, and an RFID reader / writer. Here, the femtocell base station is a small-sized mobile phone base station whose coverage area is narrower than that of a normal mobile phone base station (macrocell base station). A typical coverage area of a femtocell base station is about several tens to several hundreds of meters. The femtocell base station is called Home NodeB (HNB) in W-CDMA (Wideband Code Division Multiple Access) and Home eNodeB (HeNB) in E-UTRA.

図10は、配信エリア5A、5B、及び5Cに、無線局4A、4B、及び4Cをそれぞれ配置した例を示している。また、図10の例では、配信システム2としてサーバ20A、20B、及び20Cが使用されている。サーバ20A、20B、及び20Cは、無線局4A、4B、及び4Cにそれぞれ接続されている。無線局4Aは自身のカバレッジエリア内に携帯情報端末1が在圏することをサーバ20Aに通知し、サーバ20Aは当該通知に応じて配信エリア5Aに関する風景写真画像P1を端末1に送信すればよい。無線局4B、4Cについても同様である。無線局4A〜4C、サーバ5A〜5Cは、例えば、観光地、観光施設、店舗等に配置される。   FIG. 10 shows an example in which wireless stations 4A, 4B, and 4C are arranged in the distribution areas 5A, 5B, and 5C, respectively. In the example of FIG. 10, servers 20 </ b> A, 20 </ b> B, and 20 </ b> C are used as the distribution system 2. Servers 20A, 20B, and 20C are connected to radio stations 4A, 4B, and 4C, respectively. The wireless station 4A notifies the server 20A that the portable information terminal 1 is within the coverage area of the wireless station 4A, and the server 20A transmits the landscape photograph image P1 related to the distribution area 5A to the terminal 1 in response to the notification. . The same applies to the radio stations 4B and 4C. The radio stations 4A to 4C and the servers 5A to 5C are arranged, for example, in sightseeing spots, sightseeing facilities, stores, and the like.

<発明の実施の形態3>
本実施の形態では、上述した発明の実施の形態2の変形例について説明する。図11は、本実施の形態に係る携帯情報端末1を含むネットワーク配置例、及び携帯情報端末1の構成例を示すブロック図である。本実施の形態の携帯情報端末1は、記憶部13に複数の人物画像候補を保持しておき、これら複数の候補の中から1つの画像を風景写真画像P1と合成される画像P2として選択する。図11に示す画像選択部16が、当該選択処理を行う。画像選択部16による画像選択の第1及び第2の例を以下に説明する。
<Third Embodiment of the Invention>
In the present embodiment, a modification of the above-described second embodiment of the invention will be described. FIG. 11 is a block diagram illustrating a network arrangement example including the portable information terminal 1 according to the present embodiment and a configuration example of the portable information terminal 1. The portable information terminal 1 according to the present embodiment holds a plurality of human image candidates in the storage unit 13, and selects one image from the plurality of candidates as an image P2 to be combined with the landscape photo image P1. . The image selection unit 16 shown in FIG. 11 performs the selection process. First and second examples of image selection by the image selection unit 16 will be described below.

(画像選択の第1の例)
画像選択部16は、複数の人物画像候補の中から任意の1枚を画像P2としてランダムに選択する。ランダムな選択を行うことによって、利用者は、加工画像P3を閲覧するまでどの人物画像が選択されているか分からない。このため、利用者に対して加工画像P3の閲覧を促す動機付けを与えることができる。
(First example of image selection)
The image selection unit 16 randomly selects one arbitrary image from a plurality of human image candidates as the image P2. By making a random selection, the user does not know which person image is selected until the processed image P3 is viewed. For this reason, it is possible to give a motivation to prompt the user to view the processed image P3.

(画像選択の第2の例)
画像選択部16は、風景写真画像P1の配信時、又は対応する配信エリア内に端末1が位置している時の日付、時間、曜日、天候、及び気温の少なくとも1つに基づいて、複数の人物画像候補の中から画像P2を選択する。日付、時間、曜日、天候、及び気温等の情報は、端末1が内蔵する時計機能、通信機能を用いて取得すればよい。また、これらの情報は、メタデータD1として配信システム2から供給されてもよい。季節(春夏秋冬)、月(1月〜12月)、曜日(平日、休日)、天候(晴れ、曇り、雨)等に応じて利用者の服装や持ち物が変化するため、これらの条件別に複数の人物画像候補を用意しておけばよい。そして、画像選択部16は、風景写真画像P1の内容に適した人物画像を選択すればよい。なお、この場合、配信システム2は、複数の風景写真画像候補を保持しておき、送信時の日付、時間、曜日、天候、及び気温等に基づいて、端末1に送信する風景写真画像P1を選択するとよい。これにより、利用者及び端末1が配信エリアに位置していたときの気候、気象を反映した加工画像P3を作成することができる。つまり、加工画像P3の現実味を向上でき、携帯情報端末の位置に対応した情報・データの魅力を一層向上させることができる。
(Second example of image selection)
The image selection unit 16 has a plurality of images based on at least one of date, time, day of the week, weather, and temperature when the landscape photograph image P1 is distributed or when the terminal 1 is located in the corresponding distribution area. The image P2 is selected from the person image candidates. Information such as date, time, day of the week, weather, and temperature may be acquired using a clock function and a communication function built in the terminal 1. These pieces of information may be supplied from the distribution system 2 as metadata D1. The user's clothes and belongings change according to the season (spring, summer, autumn and winter), the month (January to December), the day of the week (weekdays, holidays), the weather (sunny, cloudy, rainy), etc. A plurality of person image candidates may be prepared. And the image selection part 16 should just select the person image suitable for the content of the landscape photograph image P1. In this case, the distribution system 2 holds a plurality of landscape photo image candidates, and transmits a landscape photo image P1 to be transmitted to the terminal 1 based on the date, time, day of the week, weather, temperature, and the like at the time of transmission. It is good to choose. Thereby, the processed image P3 reflecting the climate and weather when the user and the terminal 1 are located in the distribution area can be created. That is, the reality of the processed image P3 can be improved, and the attractiveness of information / data corresponding to the position of the portable information terminal can be further improved.

<発明の実施の形態4>
本実施の形態では、上述した発明の実施の形態2及び3の変形例について説明する。図12は、本実施の形態に係る携帯情報端末1を含むネットワーク配置、及び携帯情報端末1の構成例を示すブロック図である。本実施の形態の携帯情報端末1は、カメラ機能部17を有する。カメラ機能部17による撮影画像P4は、撮影画像記憶部18に保存される。撮影画像記憶部18と人物画像記憶部13は、物理的に一体化された記憶装置の別々の記憶領域であってもよい。本実施の形態では、画像処理部12は、カメラ機能部17による撮影画像P4の有無に応じて、加工画像P3の生成処理を行うか否かを決定する。より具体的に述べると、本実施の形態の画像処理部12は、配信エリアで撮影された撮影画像P4が存在する場合に、加工画像P3を生成しない。
<Embodiment 4 of the Invention>
In the present embodiment, modified examples of the above-described second and third embodiments of the invention will be described. FIG. 12 is a block diagram showing a network arrangement including portable information terminal 1 according to the present embodiment and a configuration example of portable information terminal 1. The portable information terminal 1 according to the present embodiment has a camera function unit 17. The captured image P4 obtained by the camera function unit 17 is stored in the captured image storage unit 18. The captured image storage unit 18 and the person image storage unit 13 may be separate storage areas of a physically integrated storage device. In the present embodiment, the image processing unit 12 determines whether or not to generate the processed image P3 according to the presence or absence of the captured image P4 by the camera function unit 17. More specifically, the image processing unit 12 according to the present embodiment does not generate the processed image P3 when the captured image P4 captured in the distribution area exists.

本実施の形態における加工画像の生成手順の具体例を図13のフローチャートを用いて説明する。なお、図13に示す手順は一例に過ぎず、適宜変形されてもよい。ステップS301では、取得フラグ及び撮影フラグを共にゼロに設定する。ここで、取得フラグは、配信システム2から風景写真画像P1及びメタデータD1を取得しているか否かを示すフラグ情報である。また、撮影フラグは、カメラ機能部17による撮影画像P4の生成が行われているか否かを示すフラグ情報である。   A specific example of the process image generation procedure according to the present embodiment will be described with reference to the flowchart of FIG. Note that the procedure shown in FIG. 13 is merely an example, and may be modified as appropriate. In step S301, both the acquisition flag and the shooting flag are set to zero. Here, the acquisition flag is flag information indicating whether or not the landscape photograph image P1 and the metadata D1 are acquired from the distribution system 2. The shooting flag is flag information indicating whether or not the captured image P4 is generated by the camera function unit 17.

ステップS302では、画像処理部12は、配信エリア内で風景写真画像P1及びメタデータD1を取得したか否かを判定する。P1及びD1が取得されている場合、取得フラグの値が1に変更される(ステップS303)。ステップS304では、画像処理部12は、この配信エリア内で撮影された撮影画像P4が存在するか否かを判定する。P4が取得されている場合、撮影フラグの値が1に変更される(ステップS305)。   In step S302, the image processing unit 12 determines whether or not the landscape photograph image P1 and the metadata D1 have been acquired in the distribution area. When P1 and D1 are acquired, the value of the acquisition flag is changed to 1 (step S303). In step S304, the image processing unit 12 determines whether there is a captured image P4 captured in this distribution area. If P4 has been acquired, the value of the shooting flag is changed to 1 (step S305).

ステップS307以降では、取得フラグ及び撮影フラグの状態に応じて処理が分岐される(ステップS306)。取得フラグの値が1であり、撮影フラグの値が2である場合、実施の形態1又は2で述べたのと同様に、画像処理部12は、加工画像P3を生成する(ステップS307)。   In step S307 and subsequent steps, the process branches according to the states of the acquisition flag and the shooting flag (step S306). When the value of the acquisition flag is 1 and the value of the shooting flag is 2, the image processing unit 12 generates the processed image P3 as described in the first or second embodiment (step S307).

次に、撮影フラグの値が1である場合は、画像処理部12は、風景写真画像P1を用いた加工画像P3の生成を行わない。なお、図13の例では、画像処理部12は、撮影画像P4を用いて加工画像P5の生成を行う。撮影フラグの値が1、かつ取得フラグの値が1である場合(ステップS308でYES)、画像処理部12は、メタデータD1に含まれる情報(例えば、エリア名、天気、気温等)を撮影画像P4に合成して加工画像P5を生成する(ステップS309)。画像処理部12は、さらに、端末1内で取得可能な他の情報(例えば、撮影日時)を加工画像P5に表示してもよい。さらにまた、画像処理部12は、端末1の操作内容、すなわち写真撮影が行われていた旨を加工画像P5に表示してもよい。   Next, when the value of the shooting flag is 1, the image processing unit 12 does not generate the processed image P3 using the landscape photograph image P1. In the example of FIG. 13, the image processing unit 12 generates a processed image P5 using the captured image P4. If the value of the shooting flag is 1 and the value of the acquisition flag is 1 (YES in step S308), the image processing unit 12 captures information (for example, area name, weather, temperature, etc.) included in the metadata D1. The processed image P5 is generated by combining with the image P4 (step S309). The image processing unit 12 may further display other information (for example, shooting date and time) that can be acquired in the terminal 1 on the processed image P5. Furthermore, the image processing unit 12 may display on the processed image P5 the operation content of the terminal 1, that is, the fact that photography has been performed.

図14は、ステップS309で生成される加工画像P5の具体例を示している。図14に示す加工画像P5には、メタデータD1に含まれるエリアを示す場所名、配信時の天気及び気温が、文字及び記号によって表示されている。さらに、図14に示す加工画像P5には、利用者の行動の記録として、"写真撮影が行われたこと"が表示されている。   FIG. 14 shows a specific example of the processed image P5 generated in step S309. In the processed image P5 shown in FIG. 14, the place name indicating the area included in the metadata D1, the weather and temperature at the time of distribution are displayed by characters and symbols. Further, in the processed image P5 shown in FIG. 14, “photographing has been performed” is displayed as a record of the user's behavior.

図13に戻り説明を続ける。撮影フラグの値が1、かつ取得フラグの値が0である場合(ステップS308でNO)、画像処理部12は、端末1内で取得可能な情報(例えば、撮影日時)を撮影画像P4に合成して加工画像P5を生成する。取得フラグ及び撮影フラグが共にゼロである場合、画像処理部12は、加工画像P3及びP5の生成を行わない。   Returning to FIG. When the value of the shooting flag is 1 and the value of the acquisition flag is 0 (NO in step S308), the image processing unit 12 synthesizes information (for example, shooting date and time) that can be acquired in the terminal 1 with the shot image P4. Thus, the processed image P5 is generated. When both the acquisition flag and the shooting flag are zero, the image processing unit 12 does not generate the processed images P3 and P5.

なお、ステップS308及びS309において、配信エリアに対応する撮影画像P4が複数枚存在する場合には、任意の一部について加工画像P5を生成してもよいし、複数の撮影画像P4の全てについて加工画像P5を生成してもよい。   In Steps S308 and S309, when there are a plurality of photographed images P4 corresponding to the distribution area, the processed image P5 may be generated for an arbitrary part, or all of the plurality of photographed images P4 are processed. The image P5 may be generated.

本実施の形態に係る表示部14は、加工画像P3及び撮影画像P4(又は加工画像P5)を時系列でスライドショー表示するとよい。これにより、利用者は、自身の一連の行動に関する記録を閲覧することができ、利用者の興趣を一層喚起することができる。   The display unit 14 according to the present embodiment may display the processed image P3 and the captured image P4 (or the processed image P5) as a slide show in time series. Thereby, the user can browse the record regarding his / her series of actions, and can further arouse the user's interest.

<その他の実施の形態>
発明の実施の形態4では、撮影画像P4が存在する場合に加工画像P3の生成を停止する例を示したが、端末1は、撮影画像P4の有無にかかわらず加工画像P3の生成を行ってもよい。この場合、表示部14において、表示する画像を選択してもよい。例えば、表示部14は、撮影画像P4がある場合は加工画像P3を表示せずに撮影画像P4を表示し、撮影画像P4が無い場合に代替として加工画像P3を表示してもよい。
<Other embodiments>
In the fourth embodiment of the invention, an example in which generation of the processed image P3 is stopped when the captured image P4 exists is shown. However, the terminal 1 generates the processed image P3 regardless of the presence or absence of the captured image P4. Also good. In this case, the display unit 14 may select an image to be displayed. For example, the display unit 14 may display the captured image P4 without displaying the processed image P3 when the captured image P4 is present, and may display the processed image P3 as an alternative when there is no captured image P4.

発明の実施の形態3及び4は、発明の実施の形態2の変形例として説明した。しかしながら、実施の形態3で説明した人物画像の選択処理、実施の形態4で説明した加工画像P3の生成を撮影画像P4の有無に基づいて制御する処理等は、携帯情報端末1の外部に配置された画像生成システム1000により実行されてもよい。   Embodiments 3 and 4 of the invention have been described as modifications of embodiment 2 of the invention. However, the person image selection process described in the third embodiment, the process of controlling the generation of the processed image P3 described in the fourth embodiment based on the presence or absence of the captured image P4, and the like are arranged outside the portable information terminal 1. May be executed by the generated image generation system 1000.

上述した発明の実施の形態1〜4で述べた画像処理部12は、端末1が保持する撮影画像から人物部分を抽出する(切り出す)画像処理を行うことによって、人物画像P2を生成してもよい。この抽出処理(切り出し処理)は、撮影画像中の人物範囲を指定する利用者の操作を受け付けて行ってもよい。この場合、抽出処理を行って生成した人物画像P2を予め記憶部13に格納しておけばよい。また、この抽出処理(切り出し処理)は、公知の顔認識処理を利用して画像処理部12が自動的に行ってもよい。   The image processing unit 12 described in the first to fourth embodiments of the invention described above may generate the person image P2 by performing image processing that extracts (cuts out) a person portion from the captured image held by the terminal 1. Good. This extraction process (cutout process) may be performed in response to a user operation for specifying a person range in a captured image. In this case, the person image P2 generated by performing the extraction process may be stored in the storage unit 13 in advance. In addition, this extraction process (cutout process) may be automatically performed by the image processing unit 12 using a known face recognition process.

上述した発明の実施の形態1〜4において、画像処理部12は、加工画像P3とは別に、加工画像P3と関連付けられた画像P6を生成してもよい。画像P6は、配信エリアに関する情報、例えば、配信エリア内に所在する店舗を案内する広告(名称、連絡先、割引クーポン)を示す画像とすればよい。画像P6の生成に必要な情報は、配信システム2から端末1に送信すればよい。   In the first to fourth embodiments of the present invention described above, the image processing unit 12 may generate the image P6 associated with the processed image P3 separately from the processed image P3. The image P6 may be an image indicating information related to the distribution area, for example, an advertisement (name, contact information, discount coupon) that guides a store located in the distribution area. Information necessary for generating the image P6 may be transmitted from the distribution system 2 to the terminal 1.

上述した発明の実施の形態1〜4において、端末1は、加工画像P3、撮影画像P4、加工画像P5を、共有サーバにアップロードしてもよい。共有サーバは、端末からアップロードされた情報を保存し、複数の利用者間で閲覧できるようにする。   In the first to fourth embodiments of the present invention described above, the terminal 1 may upload the processed image P3, the captured image P4, and the processed image P5 to the shared server. The shared server stores information uploaded from the terminal so that it can be viewed among a plurality of users.

さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.

1、1A、1B、1C 携帯情報端末
2 画像配信システム
3 通信ネットワーク
4A、4B、4C 無線局
5A、5B、5C 配信エリア
10 無線通信部
11 データ取得部
12 画像処理部
13 人物画像記憶部
14 表示部
15 位置情報取得部
16 画像選択部
17 カメラ機能部
18 撮影画像記憶部
20、20A、20B、20C サーバ
104 画像生成アプリケーションプログラム
1000 画像生成システム
P1 風景写真画像
P2 人物画像
P3 加工画像
P4 撮影画像
P5 加工画像
D1 メタデータ
1, 1A, 1B, 1C Mobile information terminal 2 Image distribution system 3 Communication networks 4A, 4B, 4C Wireless stations 5A, 5B, 5C Distribution area 10 Wireless communication unit 11 Data acquisition unit 12 Image processing unit 13 Human image storage unit 14 Display Unit 15 Position information acquisition unit 16 Image selection unit 17 Camera function unit 18 Captured image storage unit 20, 20A, 20B, 20C Server 104 Image generation application program 1000 Image generation system P1 Landscape photo image P2 Person image P3 Processed image P4 Captured image P5 Processed image D1 metadata

Claims (30)

携帯情報端末が位置するエリアに対応する風景が撮影された風景写真を含む第1の画像データを前記端末の移動に従って画像配信システムから取得するデータ取得手段と、
取得された複数の前記第1の画像データの各々を第2の画像データと合成することによって、前記第2の画像データの被写体が前記風景の前景として配置された複数の第3の画像を生成する画像処理手段と、
を備える画像生成システム。
Data acquisition means for acquiring first image data including a landscape photograph in which a landscape corresponding to the area where the portable information terminal is located is acquired from the image distribution system according to the movement of the terminal;
Each of the plurality of acquired first image data is combined with second image data to generate a plurality of third images in which the subject of the second image data is arranged as the foreground of the landscape Image processing means,
An image generation system comprising:
前記画像処理手段は、前記第1の画像データに対応付けられたエリアに前記端末が位置しているときの前記端末の操作内容を、前記第3の画像データと関連付けて記憶する、請求項1に記載の画像生成システム。   The image processing means stores the operation content of the terminal when the terminal is located in an area associated with the first image data in association with the third image data. The image generation system described in 1. 前記操作内容と前記第3の画像データの関連付けは、前記操作内容を示す文字、記号又は図形の表示を前記第3の画像データに含めることにより行われる、請求項2に記載の画像生成システム。   The image generation system according to claim 2, wherein the operation content is associated with the third image data by including a display of a character, a symbol, or a graphic indicating the operation content in the third image data. 前記第2の画像データは、前記エリア外で予め撮影された人物写真を含む画像データである、請求項1〜3のいずれか1項に記載の画像生成システム。   The image generation system according to any one of claims 1 to 3, wherein the second image data is image data including a human photograph taken in advance outside the area. 複数の候補画像データのうち任意の1枚を前記第2の画像データとして選択する画像選択手段をさらに備える、請求項1〜4のいずれか1項に記載の画像生成システム。   The image generation system according to claim 1, further comprising an image selection unit that selects any one of a plurality of candidate image data as the second image data. 前記第1の画像データに対応付けられたエリアに前記端末が位置しているときの日付、時間、曜日、天候、及び気温の少なくとも1つに基づいて、複数の候補画像データの中から前記第2の画像データを選択する画像選択手段をさらに備える、請求項1〜4のいずれか1項に記載の画像生成システム。   Based on at least one of date, time, day of the week, weather, and temperature when the terminal is located in the area associated with the first image data, the first image data is selected from a plurality of candidate image data. The image generation system according to claim 1, further comprising image selection means for selecting two image data. 前記画像処理手段は、前記第2の画像データから前記人物に相当する部分画像を切り出し、前記部分画像を前記背景画像データに重ね合わせ合成することで前記第3の画像データを生成する、請求項1〜6のいずれか1項に記載の画像生成システム。   The image processing means cuts out a partial image corresponding to the person from the second image data, and generates the third image data by superposing and combining the partial image with the background image data. The image generation system according to any one of 1 to 6. 前記データ取得手段及び前記画像処理手段は、前記携帯情報端末に配置される、請求項1〜7のいずれか1項に記載の画像生成システム。   The image generation system according to claim 1, wherein the data acquisition unit and the image processing unit are arranged in the portable information terminal. 前記画像配信システムは、
複数の配信エリアの各々に配置される複数の無線局と、
前記複数の無線局の各々と接続された少なくとも1つのサーバ装置と、
を備え、
前記データ取得手段は、前記複数の配信エリアのいずれかに前記端末が位置する場合に、前記端末の識別子を含む無線信号を前記いずれかの配信エリアに関する前記無線局に送信し、前記いずれかの配信エリアに関する前記第1の画像データを前記無線局から受信する、請求項8に記載の画像生成システム。
The image distribution system includes:
A plurality of radio stations arranged in each of a plurality of distribution areas;
At least one server device connected to each of the plurality of wireless stations;
With
The data acquisition means, when the terminal is located in any of the plurality of distribution areas, transmits a radio signal including an identifier of the terminal to the radio station related to any of the distribution areas, The image generation system according to claim 8, wherein the first image data related to a distribution area is received from the wireless station.
前記無線局は、無線LAN(Local Area Network)アクセスポイント、又はフェムトセル基地局である、請求項9に記載の画像生成システム。   The image generation system according to claim 9, wherein the wireless station is a wireless local area network (LAN) access point or a femtocell base station. 携帯情報端末であって、
無線通信ネットワークを介して、前記端末が位置するエリアに対応する風景が撮影された風景写真を含む第1の画像データを前記端末の移動に従って取得するデータ取得手段と、
取得された複数の前記第1の画像データの各々を第2の画像データと合成することによって、前記第2の画像データの被写体が前記風景の前景として配置された複数の第3の画像を生成する画像処理手段と、
前記複数の第3の画像データの各々を視覚的に表示可能な表示手段と、
を備える携帯情報端末。
A portable information terminal,
Data acquisition means for acquiring first image data including a landscape photograph in which a landscape corresponding to an area where the terminal is located is captured via a wireless communication network according to the movement of the terminal;
Each of the plurality of acquired first image data is combined with second image data to generate a plurality of third images in which the subject of the second image data is arranged as the foreground of the landscape Image processing means,
Display means capable of visually displaying each of the plurality of third image data;
A portable information terminal comprising:
前記画像処理手段は、前記第1の画像データに対応付けられたエリアに前記端末が位置しているときの前記端末の操作内容を、前記第3の画像データと関連付けて記憶する、請求項11に記載の携帯情報端末。   The image processing means stores the operation content of the terminal when the terminal is located in an area associated with the first image data in association with the third image data. The portable information terminal described in 1. 前記操作内容と前記第3の画像データの関連付けは、前記操作内容を示す文字、記号又は図形の表示を前記第3の画像データに含めることにより行われ、
表示手段は、前記操作内容を示す文字、記号又は図形が合成された前記第3の画像データを表示する、
請求項12に記載の携帯情報端末。
The association between the operation content and the third image data is performed by including a display of characters, symbols or figures indicating the operation content in the third image data,
The display means displays the third image data in which characters, symbols, or figures indicating the operation content are combined.
The portable information terminal according to claim 12.
前記第2の画像データは、前記エリア外で予め撮影された人物写真を含む画像データである、請求項11〜13のいずれか1項に記載の携帯情報端末。   The portable information terminal according to any one of claims 11 to 13, wherein the second image data is image data including a human photograph taken in advance outside the area. 複数の候補画像データのうち任意の1枚を前記第2の画像データとして選択する画像選択手段をさらに備える、請求項11〜14のいずれか1項に記載の携帯情報端末。   The portable information terminal according to any one of claims 11 to 14, further comprising image selection means for selecting any one of a plurality of candidate image data as the second image data. 前記第1の画像データに対応付けられたエリアに前記端末が位置しているときの日付、時間、曜日、天候、及び気温の少なくとも1つに基づいて、複数の候補画像データの中から前記第2の画像データを選択する画像選択手段をさらに備える、請求項11〜14のいずれか1項に記載の携帯情報端末。   Based on at least one of date, time, day of the week, weather, and temperature when the terminal is located in the area associated with the first image data, the first image data is selected from a plurality of candidate image data. The portable information terminal according to any one of claims 11 to 14, further comprising image selection means for selecting two image data. カメラおよび前記カメラによる撮影画像を格納する記憶手段をさらに備え、
前記画像処理手段は、前記第1の画像データに対応付けられたエリアにおいて前記カメラにより撮影された第4の画像データが前記記憶手段に存在する場合に、前記第3の画像データの生成を行わない、請求項11〜16のいずれか1項に記載の携帯情報端末。
And further comprising a camera and storage means for storing an image taken by the camera,
The image processing means generates the third image data when the fourth image data photographed by the camera in the area associated with the first image data exists in the storage means. The portable information terminal according to any one of claims 11 to 16.
前記データ取得手段は、前記エリアに関するエリア情報を含むメタデータを前記無線通信ネットワークを介して取得し、
前記画像処理手段は、前記エリア情報を示す文字、記号又は図形の表示を含む前記第3の画像データを生成する、
請求項11〜17のいずれか1項に記載の携帯情報端末。
The data acquisition means acquires metadata including area information regarding the area via the wireless communication network,
The image processing means generates the third image data including display of characters, symbols or figures indicating the area information;
The portable information terminal according to any one of claims 11 to 17.
前記データ取得手段は、前記エリアに関するエリア情報を含むメタデータを前記無線通信ネットワークを介して取得し、
前記画像処理手段は、前記エリア情報を示す文字、記号又は図形の表示を前記第4の画像データに合成することで第5の画像データを生成し、
前記表示手段は、前記第5の画像データを視覚的に表示可能である、
請求項17に記載の携帯情報端末。
The data acquisition means acquires metadata including area information regarding the area via the wireless communication network,
The image processing means generates fifth image data by synthesizing the display of characters, symbols or figures indicating the area information with the fourth image data,
The display means can visually display the fifth image data.
The portable information terminal according to claim 17.
前記データ取得手段は、前記エリアに関するエリア情報を含むメタデータを前記無線通信ネットワークを介して取得し、
前記画像処理手段は、前記エリア情報を示す文字、記号又は図形の表示を含み、前記第3の画像データと関連付けられた第6の画像データを生成する、
請求項11〜17のいずれか1項に記載の携帯情報端末。
The data acquisition means acquires metadata including area information regarding the area via the wireless communication network,
The image processing means includes display of characters, symbols, or figures indicating the area information, and generates sixth image data associated with the third image data.
The portable information terminal according to any one of claims 11 to 17.
前記画像処理手段は、前記第2の画像データから前記人物に相当する部分画像を切り出し、前記部分画像を前記背景画像データに重ね合わせ合成することで前記第3の画像データを生成する、請求項11〜20のいずれか1項に記載の携帯情報端末。   The image processing means cuts out a partial image corresponding to the person from the second image data, and generates the third image data by superposing and combining the partial image with the background image data. The portable information terminal according to any one of 11 to 20. 前記データ取得手段は、前記端末の位置情報をサーバに送信し、前記位置情報に対応する前記第1の画像データを前記サーバから受信する、請求項11〜21のいずれか1項に記載の携帯情報端末。   The mobile device according to any one of claims 11 to 21, wherein the data acquisition unit transmits position information of the terminal to a server and receives the first image data corresponding to the position information from the server. Information terminal. 前記データ取得手段は、前記端末の識別子を含む無線信号を前記エリアに配置された無線局に送信し、前記無線局が配置されたエリアに関する前記第1の画像データを前記無線局から受信する、請求項11〜21のいずれか1項に記載の携帯情報端末。   The data acquisition means transmits a radio signal including the identifier of the terminal to a radio station arranged in the area, and receives the first image data related to the area in which the radio station is arranged, from the radio station. The portable information terminal according to any one of claims 11 to 21. 携帯情報端末が位置するエリアに対応する風景が撮影された風景写真を含む第1の画像データを前記端末の移動に従って画像配信システムから取得すること、及び
取得された複数の前記第1の画像データの各々を第2の画像データと合成することによって、前記第2の画像データの被写体が前記風景の前景として配置された複数の第3の画像を生成すること、
を備える画像生成方法。
Acquiring first image data including a landscape photograph in which a landscape corresponding to the area where the portable information terminal is located from the image distribution system according to the movement of the terminal; and the plurality of acquired first image data Generating a plurality of third images in which the subject of the second image data is arranged as a foreground of the landscape,
An image generation method comprising:
前記第1の画像データに対応付けられたエリアに前記端末が位置しているときの前記端末の操作内容を、前記第3の画像データと関連付けて記憶することをさらに備える、請求項24に記載の画像生成方法。   The operation content of the terminal when the terminal is located in an area associated with the first image data is further stored in association with the third image data. Image generation method. 前記操作内容と前記第3の画像データの関連付けは、前記操作内容を示す文字、記号又は図形の表示を前記第3の画像データに含めることにより行われる、請求項25に記載の画像生成方法。   26. The image generation method according to claim 25, wherein the operation content and the third image data are associated by including a display of a character, symbol, or figure indicating the operation content in the third image data. 前記第2の画像データは、前記エリア外で予め撮影された人物写真を含む画像データである、請求項24〜26のいずれか1項に記載の画像生成方法。   27. The image generation method according to any one of claims 24 to 26, wherein the second image data is image data including a human photograph taken in advance outside the area. 複数の候補画像データのうち任意の1枚を前記第2の画像データとして選択することをさらに備える、請求項24〜26のいずれか1項に記載の画像生成方法。   27. The image generation method according to claim 24, further comprising selecting any one of a plurality of candidate image data as the second image data. 前記第1の画像データに対応付けられたエリアに前記端末が位置しているときの日付、時間、曜日、天候、及び気温の少なくとも1つに基づいて、複数の候補画像データの中から前記第2の画像データを選択することをさらに備える、請求項24〜26のいずれか1項に記載の画像生成方法。   Based on at least one of date, time, day of the week, weather, and temperature when the terminal is located in the area associated with the first image data, the first image data is selected from a plurality of candidate image data. 27. The image generation method according to claim 24, further comprising selecting two image data. 請求項24〜29のいずれか1項に記載の画像生成方法をコンピュータに実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the image generation method according to any one of claims 24 to 29.
JP2010240577A 2010-10-27 2010-10-27 Image generation system, portable information terminal, image generation method and computer program Pending JP2012093950A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010240577A JP2012093950A (en) 2010-10-27 2010-10-27 Image generation system, portable information terminal, image generation method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010240577A JP2012093950A (en) 2010-10-27 2010-10-27 Image generation system, portable information terminal, image generation method and computer program

Publications (1)

Publication Number Publication Date
JP2012093950A true JP2012093950A (en) 2012-05-17

Family

ID=46387208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010240577A Pending JP2012093950A (en) 2010-10-27 2010-10-27 Image generation system, portable information terminal, image generation method and computer program

Country Status (1)

Country Link
JP (1) JP2012093950A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118599A (en) * 2013-12-19 2015-06-25 株式会社 ミックウェア Image output device, image output method and program
KR20170040244A (en) * 2014-07-07 2017-04-12 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
JP2019049833A (en) * 2017-09-08 2019-03-28 大日本印刷株式会社 IMAGE MANAGEMENT SERVER, IMAGE MANAGEMENT METHOD, AND PROGRAM

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118599A (en) * 2013-12-19 2015-06-25 株式会社 ミックウェア Image output device, image output method and program
KR20210002761A (en) * 2014-07-07 2021-01-08 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
KR20210113430A (en) * 2014-07-07 2021-09-15 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
US11595569B2 (en) 2014-07-07 2023-02-28 Snap Inc. Supplying content aware photo filters
US10432850B1 (en) 2014-07-07 2019-10-01 Snap Inc. Apparatus and method for supplying content aware photo filters
JP2020021516A (en) * 2014-07-07 2020-02-06 スナップ インコーポレイテッドSnap Inc. Apparatus and method for providing a content recognition photofilter
US10602057B1 (en) 2014-07-07 2020-03-24 Snap Inc. Supplying content aware photo filters
JP2017520855A (en) * 2014-07-07 2017-07-27 スナップ インコーポレイテッド Apparatus and method for providing a content recognition photofilter
KR102300721B1 (en) * 2014-07-07 2021-09-10 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
KR102199255B1 (en) * 2014-07-07 2021-01-06 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
US11122200B2 (en) 2014-07-07 2021-09-14 Snap Inc. Supplying content aware photo filters
KR20170040244A (en) * 2014-07-07 2017-04-12 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
US11496673B1 (en) * 2014-07-07 2022-11-08 Snap Inc. Apparatus and method for supplying content aware photo filters
KR102409294B1 (en) * 2014-07-07 2022-06-15 스냅 인코포레이티드 Apparatus and method for supplying content aware photo filters
JP7059540B2 (en) 2017-09-08 2022-04-26 大日本印刷株式会社 Image management server, image management method, and program
JP2019049833A (en) * 2017-09-08 2019-03-28 大日本印刷株式会社 IMAGE MANAGEMENT SERVER, IMAGE MANAGEMENT METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
US10136260B2 (en) Selectively providing mobile experiences at multiple locations
US7474959B2 (en) Method for providing recommendations using image, location data, and annotations
US8405740B2 (en) Guidance for image capture at different locations
US9251252B2 (en) Context server for associating information based on context
CN102150014B (en) Communication device, information presentation device, communication method, program, and recording medium
US8675112B2 (en) Imaging device providing capture location guidance
US20160242010A1 (en) Providing digital content for multiple venues
TWI467511B (en) Personal mapping system
US20130191211A1 (en) Customizing printed products based on travel paths
EP2071841A2 (en) Method, apparatus and computer program product for displaying virtual media items in a visual media
US20210034667A1 (en) Arranging location based content for mobile devices
US20120327257A1 (en) Photo product using images from different locations
KR20100107507A (en) Method, system, computer program, and apparatus for augmenting media based on proximity detection
TW200909782A (en) Method, apparatus and computer program product for a social route planner
JP2012247840A (en) Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
US10666664B2 (en) System and method of providing location-based privacy on social media
US8761801B2 (en) Method and system for providing one or more location-based services using the location-of-interest of an electronic journal
JP2012093950A (en) Image generation system, portable information terminal, image generation method and computer program
US20080126960A1 (en) Context server for associating information with a media object based on context
CN110661885B (en) Information processing method and device, electronic device and storage medium
JP2005051278A (en) Video recording device
JP2009294328A (en) Map image distribution apparatus, map image distribution method, and map image distribution program
JP2007174281A (en) Videophone system, communication terminal, relay device
KR101068938B1 (en) Location-based Multimedia Messaging Service System and Its Use Method
JP2008165373A (en) Image processing method, image processor and image processing system