[go: up one dir, main page]

JP2015191392A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2015191392A
JP2015191392A JP2014067475A JP2014067475A JP2015191392A JP 2015191392 A JP2015191392 A JP 2015191392A JP 2014067475 A JP2014067475 A JP 2014067475A JP 2014067475 A JP2014067475 A JP 2014067475A JP 2015191392 A JP2015191392 A JP 2015191392A
Authority
JP
Japan
Prior art keywords
information
image
data
user
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014067475A
Other languages
Japanese (ja)
Other versions
JP2015191392A5 (en
JP6338418B2 (en
Inventor
義典 山本
Yoshinori Yamamoto
義典 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014067475A priority Critical patent/JP6338418B2/en
Publication of JP2015191392A publication Critical patent/JP2015191392A/en
Publication of JP2015191392A5 publication Critical patent/JP2015191392A5/ja
Application granted granted Critical
Publication of JP6338418B2 publication Critical patent/JP6338418B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of displaying a display image allowing a user to easily recognize relevance between an information terminal and the user, without burdening the user.SOLUTION: An image detection section 251 and a determination section 252 compare each of multiple pieces of picture information prescribed by image data D1 with each of face image information for the number of registrants, to obtain correlation image data D12 associated with personal information, the face image information of which matches a picture information unit. A communication detection section 253 obtains personal information identification data D23 formed by classifying the personal information for the number of registrants in phone book data D2 into multiple kinds of identification items to be identified based on communication history data D3. Image display means displays, on a display screen, a display image in a mode associating one of the multiple kinds of identification items with at least a part of the picture information prescribed by the image data D1 on the basis of user correlation diagram data D25.

Description

本発明は、スマートフォンや携帯電話機などの情報端末で撮影した写真情報を含む画像データに対し、画像処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus that performs image processing on image data including photographic information taken by an information terminal such as a smartphone or a mobile phone.

近年、デジタルカメラやスマートフォン等の情報端末の普及により、簡単にデジタル写真を作成することができるようになった。それゆえ、各ユーザーのスマートフォンには1000枚を超える大量のカメラ画像データが蓄積されていることも少なくない。また、近年のスマートフォンやデジタルカメラのメモリは大容量化が進んでおり、蓄積できるカメラ画像データの枚数も益々増える傾向にある。そのため、大量のカメラ画像データより所望の写真情報を探し出すための検索方法としては、カメラ画像データのファイル名やカメラ画像データの撮影日時を利用する手段や、スマートフォンやデジカメを使用して撮影した画像データには位置情報が付加されていることより、写真を撮影した位置情報基づいて所望のカメラ画像データ内の写真情報を検索する方法がある。   In recent years, with the spread of information terminals such as digital cameras and smartphones, it has become possible to easily create digital photographs. Therefore, a large amount of camera image data exceeding 1000 images is often stored in each user's smartphone. In addition, the memory of smartphones and digital cameras in recent years has been increasing in capacity, and the number of camera image data that can be stored tends to increase more and more. Therefore, as a search method for finding desired photo information from a large amount of camera image data, means using the file name of camera image data and the shooting date and time of camera image data, and images taken using a smartphone or digital camera Since the position information is added to the data, there is a method of searching for the photograph information in the desired camera image data based on the position information where the photograph was taken.

また、特許文献1では、撮影した画像データをサーバーにアップロードして、アップロードされた画像データ内の写真情報における顔画像を検出し、同じ写真(情報)に写っている人物同士を検出することで画像データに基づきユーザー相関図を作成するユーザー相関図作成装置が開示されている。   Further, in Patent Document 1, by uploading captured image data to a server, detecting a face image in photographic information in the uploaded image data, and detecting persons in the same photograph (information) A user correlation diagram creating apparatus that creates a user correlation diagram based on image data is disclosed.

特開2009−251832号公報JP 2009-251832 A

しかしながら、特許文献1に開示のユーザー相関図作成装置ではユーザー相関図の作成のために画像データを必ずサーバーにアップロードする必要があり、それ以前の手順として相関情報作成サーバー装置というサービス実行部にユーザー登録を実施しなければならない。また、ユーザー相関図を作成するためにはその都度サーバーへのカメラ画像データをアップロードするという手順が発生する。このように、ユーザーに要求される操作が多くユーザーに負担をかけているという問題点があった。   However, in the user correlation diagram creation device disclosed in Patent Document 1, it is necessary to upload image data to the server in order to create the user correlation diagram, and as a previous procedure, the user is given to the service execution unit called the correlation information creation server device. Registration must be carried out. Further, in order to create a user correlation diagram, a procedure of uploading camera image data to the server occurs each time. As described above, there is a problem that many operations are required for the user, which places a burden on the user.

加えて、ユーザー相関図を作成するために、まずは大量画像の中より所望の画像データをサーバーへのアップロード用に検索することが必要となる。さらに、ユーザー相関図自体も画像データに基づくものに限られているという問題点があった。   In addition, in order to create a user correlation diagram, first, it is necessary to retrieve desired image data from a large number of images for uploading to a server. Furthermore, there is a problem that the user correlation diagram itself is limited to those based on image data.

この発明は上記問題点を解決するためになされたもので、ユーザーに負担をかけることなく、情報端末のユーザーとの関連性を容易に理解できる態様で写真情報に関する表示用画像を表示することができる画像処理装置を得ることを目的とする。   The present invention has been made to solve the above-mentioned problems, and can display a display image related to photographic information in a manner in which the relevance with the user of the information terminal can be easily understood without imposing a burden on the user. It is an object of the present invention to obtain an image processing apparatus that can be used.

この発明に係る請求項1記載の画像処理装置は、複数の写真情報を含む画像データと、各々が顔画像情報と関連付けられた登録人数分の個人情報である情報端末登録データとに基づき、画像処理を行う画像処理装置であって、前記画像データ及び前記情報端末登録データを受け、前記複数の写真情報それぞれと前記登録人数分の前記顔画像情報それぞれとを画像比較し、前記写真情報単位に前記顔画像情報が合致した前記個人情報を関連づけた相関画像データを得る画像判定部と、前記情報端末登録データに基づき、前記登録人数分の個人情報を複数種の識別項目に分類した個人情報識別データを得る識別項目分類処理を実行する個人情報識別部と、前記相関画像データ及び前記個人情報識別データに基づき、前記画像データにおける前記複数の写真情報の少なくとも一部に、前記複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示する画像表示手段とを備える。   The image processing apparatus according to claim 1 of the present invention is based on image data including a plurality of pieces of photographic information and information terminal registration data, each of which is personal information for the number of registered persons associated with face image information. An image processing apparatus that performs processing, receives the image data and the information terminal registration data, compares each of the plurality of photo information with each of the face image information for the number of registered persons, An image determination unit that obtains correlation image data that associates the personal information that matches the face image information, and personal information identification that classifies personal information for the number of registered persons into a plurality of types of identification items based on the information terminal registration data. Based on the personal information identification unit for executing the identification item classification process for obtaining data, the correlation image data, and the personal information identification data, the duplication in the image data is performed. Of at least a portion of the picture information, and an image display means for displaying the display image of the aspect associated one of the plurality of types of identification items in the display screen.

請求項1記載の本願発明である画像処理装置における画像表示手段は、画像判定部及び個人情報識別部より得られた相関画像データ及び前記個人情報識別データに基づき、複数の写真情報の少なくとも一部に、複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示するため、表示用画面に表示される表示用画像から、写真情報と情報端末ユーザーとの関連性を容易に理解することができる。この際、情報端末のユーザーは特に操作を要しないため、情報端末のユーザーに負担かけることもない。   The image display means in the image processing apparatus according to claim 1 is at least part of a plurality of pieces of photographic information based on the correlation image data obtained from the image determination unit and the personal information identification unit and the personal information identification data. In addition, in order to display a display image in a form associated with one of a plurality of types of identification items on the display screen, the relationship between the photo information and the information terminal user is displayed from the display image displayed on the display screen. Can be easily understood. At this time, since the user of the information terminal does not need to perform any operation, it does not burden the user of the information terminal.

この発明の実施の形態である画像出力装置を含む写真プリントシステムの構成を示すブロック図である。1 is a block diagram showing a configuration of a photographic print system including an image output apparatus according to an embodiment of the present invention. 図1で示した画像出力装置における内部構成の詳細を示すブロック図である。FIG. 2 is a block diagram illustrating details of an internal configuration of the image output apparatus illustrated in FIG. 1. 本実施の形態の画像出力装置によるユーザー相関図データの作成手順を主として示すフローチャートである。It is a flowchart which mainly shows the preparation procedure of the user correlation diagram data by the image output device of this Embodiment. 図1及び図2で示した電話帳データの具体的内容を示す説明図である。It is explanatory drawing which shows the specific content of the telephone directory data shown in FIG.1 and FIG.2. 図1で示した判定部による顔画像検出処理結果と相関画像データとの関係を模式的に示す説明図である。It is explanatory drawing which shows typically the relationship between the face image detection process result by the determination part shown in FIG. 1, and correlation image data. 図1で示したコミュニケーション検出部によるコミュニケーション判定処理内容を模式的に示す説明図である。It is explanatory drawing which shows typically the content of the communication determination process by the communication detection part shown in FIG. ユーザー相関図データに基づく画像表示手段による表示用画面上における表示例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the example of a display on the screen for a display by the image display means based on user correlation diagram data. ユーザー相関図データに基づく画像表示手段による表示用画面上における表示例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the example of a display on the screen for a display by the image display means based on user correlation diagram data.

<実施の形態>
(相関表示作成手段25の構成)
図1はこの発明の実施の形態である画像処理装置である画像出力装置1を含む写真プリントシステムの構成を示すブロック図である。同図に示すように、画像出力装置1に相互接続手段22を介して情報端末2が接続されることより、情報端末2内の記憶媒体6に記録された、複数の写真情報を含む画像データD1に基づくプリントアウト処理が実行可能となる。
<Embodiment>
(Configuration of correlation display creating means 25)
FIG. 1 is a block diagram showing the configuration of a photographic print system including an image output apparatus 1 which is an image processing apparatus according to an embodiment of the present invention. As shown in the figure, when the information terminal 2 is connected to the image output device 1 via the interconnection means 22, image data including a plurality of pieces of photographic information recorded in the storage medium 6 in the information terminal 2. The printout process based on D1 can be executed.

なお、情報端末2としては、カメラ機能を有し、撮影した複数の写真情報を画像データD1として保存し、かつ、電話機能、電子メール機能等のコミュニケーション機能を有するスマートフォンや携帯電話機等が考えられる。また、情報端末2はカメラ機能を有していない場合でも、別途、デジタルカメラ等で別途撮影された写真情報を画像データD1として取り込む画像データ保持機能を有している端末であっても良い。さらに、画像データD1を格納するメディア自体を情報端末2とは独立して持たせる態様も考えられる。   The information terminal 2 may be a smartphone or a mobile phone that has a camera function, stores a plurality of photographed photo information as image data D1, and has a communication function such as a telephone function and an e-mail function. . Even if the information terminal 2 does not have a camera function, the information terminal 2 may be a terminal having an image data holding function that takes in photo information separately taken by a digital camera or the like as image data D1. Furthermore, a mode in which the media itself for storing the image data D1 is provided independently of the information terminal 2 is also conceivable.

相互接続手段22は後述する画像データ読み込み手段7及びモバイルデータ読込み手段21のハードウェア部分であり、具体的には、相互接続手段22として、情報端末2とのケーブルなどの有線接続手段やWi-Fiなどの無線接続手段およびカードメディアなどの記憶媒体の読出し機構等が考えられる。   The interconnection means 22 is a hardware part of the image data reading means 7 and the mobile data reading means 21 to be described later. Specifically, as the interconnection means 22, a wired connection means such as a cable with the information terminal 2 or Wi- A wireless connection means such as Fi and a storage medium reading mechanism such as a card medium are conceivable.

例えば、記憶媒体6がCD/DVD、USBメモリ、赤外線通信が可能な装置、Bluetooth(登録商標)によりデータを受信するBluetooth装置、情報端末と無線通信を行う無線LANが可能な装置である場合、CD/DVDを読み込むCD/DVDドライブ、USBを読み込むUSBポート、携帯電話から赤外線通信によりデータを受信する赤外線通信装置、Bluetoothによりデータを受信するBluetooth装置、情報端末と無線通信を行う無線LANやWi-Fi等で相互接続手段22を構成しても良い。また、相互接続手段22として、情報端末2を直接接続しデータ通信を行うケーブル、あるいはスキャナー装置であってもよい。このように、相互接続手段22として、画像出力装置1と情報端末2の記憶媒体6と接続することが可能な多種多様な構成が考えられる。   For example, when the storage medium 6 is a CD / DVD, a USB memory, a device capable of infrared communication, a Bluetooth device receiving data via Bluetooth (registered trademark), or a device capable of wireless LAN performing wireless communication with an information terminal. CD / DVD drive for reading CD / DVD, USB port for reading USB, infrared communication device for receiving data from mobile phone by infrared communication, Bluetooth device for receiving data by Bluetooth, wireless LAN and Wi-Fi for wireless communication with information terminal The interconnection means 22 may be constituted by -Fi or the like. Further, the interconnection means 22 may be a cable for directly connecting the information terminal 2 and performing data communication, or a scanner device. As described above, as the interconnection means 22, various configurations that can be connected to the storage medium 6 of the image output apparatus 1 and the information terminal 2 are conceivable.

画像出力装置1における特徴部分である相関表示作成手段25は、内部に画像検出部251、判定部252、及びコミュニケーション検出部253を有し、記憶部として写真DB254及びコミュニケーション履歴DB255を有している。   The correlation display creating means 25 which is a characteristic part in the image output apparatus 1 includes an image detection unit 251, a determination unit 252, and a communication detection unit 253, and a photo DB 254 and a communication history DB 255 as storage units. .

画像検出部251は、相互接続手段22を介して、画像データD1を取り込み、画像データD1に規定された複数の写真情報それぞれについて顔画像の有無を検出する顔画像検出処理を実行して、顔画像が存在する写真情報を特定する顔存在情報D1fを生成する。そして、画像検出部251は画像データD1及び顔存在情報D1fを判定部252に出力する。   The image detection unit 251 takes in the image data D1 via the interconnection means 22, performs face image detection processing for detecting the presence or absence of a face image for each of a plurality of pieces of photographic information defined in the image data D1, Face presence information D1f that identifies photo information in which an image exists is generated. Then, the image detection unit 251 outputs the image data D1 and the face presence information D1f to the determination unit 252.

判定部252は、画像データD1、顔存在情報D1f及び電話帳データD2を受け、画像データD1内の複数の写真情報のうち、顔存在情報D1fが顔画像を検出したことを指示する少なくとも一つの写真情報(顔検出写真情報)それぞれと電話帳データD2内の登録人数分の顔画像情報それぞれとを画像比較し、顔検出写真情報単位に顔画像情報が合致した個人情報を関連づけた相関画像データD12を写真DB254に登録する。電話帳データD2は各々が顔画像情報と関連付けられた登録人数分の個人情報(本人、及びコミュニケーション履歴データD3における利用相手の個人情報)が含まれるコミュニケーション利用者情報である。   The determination unit 252 receives the image data D1, the face presence information D1f, and the phone book data D2, and indicates at least one of the plurality of pieces of photographic information in the image data D1 indicating that the face presence information D1f has detected a face image. Correlation image data in which each piece of photo information (face detection photo information) is compared with each face image information for the number of registered persons in the phone book data D2, and personal information matching the face image information is associated with each face detection photo information unit. D12 is registered in the photograph DB 254. The phone book data D2 is communication user information including personal information (personal information and personal information of the other party in the communication history data D3) for each registered person associated with the face image information.

これら画像検出部251及び判定部252により、画像データD1及び電話帳データD2を受け、画像データD1で規定された複数の写真情報それぞれと登録人数分の顔画像情報それぞれとを画像比較し、写真情報単位に顔画像情報が合致した個人情報を関連づけて相関画像データD12を得る画像判定部を構成する。   The image detection unit 251 and the determination unit 252 receive the image data D1 and the phone book data D2, and compare each of a plurality of pieces of photo information defined by the image data D1 with each of the face image information for the registered number of people. An image determination unit that obtains correlation image data D12 by associating personal information whose face image information matches with information units is configured.

個人情報識別部であるコミュニケーション検出部253は、相互接続手段22を介して情報端末2から、モバイルデータD20(情報端末登録データ)である電話帳データD2及びコミュニケーション履歴データD3を取得する。   The communication detection unit 253 which is a personal information identification unit acquires the phone book data D2 and communication history data D3 which are mobile data D20 (information terminal registration data) from the information terminal 2 via the interconnection means 22.

コミュニケーション履歴データD3は通話履歴データD31、メール履歴データD32及び通信履歴データD33を含んでいる。   The communication history data D3 includes call history data D31, mail history data D32, and communication history data D33.

電話履歴情報である通話履歴データD31は、情報端末2に本来備わる電話機能を利用して、情報端末2のユーザーによる他の通信機器との電話機能の利用履歴を、利用相手を特定して示すデータである。電子メール履歴情報であるメール履歴データD32は、情報端末2に本来備わる電子メール機能を利用して、情報端末2のユーザーによる他の通信機器等との電子メール機能の利用履歴を利用相手を特定して示すデータである。通信履歴データD33は、情報端末2に実行可能なアプリケーションソフトによって実現されるアプリケーション通信機能を利用して、情報端末2のユーザーによる他の通信機器等とのアプリケーション通信機能の利用履歴を利用相手を特定して示すデータである。なお、上述した利用相手は電話帳データD2内の登録人数分の個人情報によって特定することができる。   The call history data D31, which is telephone history information, uses the telephone function originally provided in the information terminal 2 and indicates the use history of the telephone function with the other communication device by the user of the information terminal 2 by specifying the use partner. It is data. The mail history data D32, which is e-mail history information, uses the e-mail function originally provided in the information terminal 2 to specify the use history of the e-mail function used by the user of the information terminal 2 with other communication devices. It is data shown. The communication history data D33 uses the application communication function realized by the application software executable on the information terminal 2 and the use history of the application communication function with other communication devices and the like by the user of the information terminal 2 This data is specified and shown. In addition, the above-mentioned use other party can be specified by the personal information for the number of registered persons in the telephone directory data D2.

そして、コミュニケーション検出部253は、電話帳データD2及びコミュニケーション履歴データD3に基づき、電話帳データD2内における登録人数分の個人情報を、コミュニケーション履歴データD3に基づき識別される複数種の識別項目に分類した個人情報識別データD23を得るコミュニケーション判定処理(識別項目分類処理)を実行し、個人情報識別データD23をコミュニケーション履歴DB255に登録する。   Then, the communication detection unit 253 classifies personal information for the number of registered persons in the phone book data D2 into a plurality of types of identification items identified based on the communication history data D3 based on the phone book data D2 and the communication history data D3. The communication determination process (identification item classification process) for obtaining the personal information identification data D23 is executed, and the personal information identification data D23 is registered in the communication history DB 255.

上述した複数種の識別項目としては、通話履歴データD31による通話頻度(電話機能の利用頻度)、メール履歴データD32による電子メール利用頻度、及びコミュニケーション履歴データD3によるアプリケーション通信頻度に基づくコミュニケーション機能利用頻度がある。すなわち、これら履歴データD31〜D33の総合評価、一部評価、あるいは個別評価に基づき、コミュニケーション機能の利用頻度の度合に基づく複数のランク付けが複数種の識別項目に該当する。   As the plurality of types of identification items described above, the communication function usage frequency based on the call frequency (phone function use frequency) based on the call history data D31, the e-mail use frequency based on the mail history data D32, and the application communication frequency based on the communication history data D3. There is. That is, based on the comprehensive evaluation, partial evaluation, or individual evaluation of the history data D31 to D33, a plurality of rankings based on the degree of use frequency of the communication function correspond to a plurality of types of identification items.

また、複数種の識別項目はユーザー単位に行うことが基本であるが、電話帳データD2内に登録されている家族、友人、同僚等のグループ情報(情報端末2のユーザーの特定の関係性を示す情報)単位で分類しても良い。   In addition, it is basic to perform a plurality of types of identification items for each user. However, group information of family, friends, colleagues, etc. registered in the phone book data D2 (specific relationship of the user of the information terminal 2 is shown). (Information to be shown) may be classified by unit.

このように、相関表示作成手段25は、上述した写真DB254に登録された相関画像データD12と、コミュニケーション履歴DB255に登録された個人情報識別データD23との組合せによるユーザー相関図データD25を得ることができる。   Thus, the correlation display creating means 25 can obtain the user correlation diagram data D25 by the combination of the correlation image data D12 registered in the photograph DB 254 described above and the personal information identification data D23 registered in the communication history DB 255. it can.

そして、図1では図示しない、画像出力装置1の特徴部分である画像表示手段13(図2参照)は、画像データD1に加えて、上述したユーザー相関図データD25を受ける。そして、画像表示手段13は、ユーザー相関図データD25に基づき、画像データD1によって規定された複数の写真情報の少なくとも一部に、複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示する。   The image display means 13 (see FIG. 2), which is not shown in FIG. 1 and is a characteristic part of the image output apparatus 1, receives the above-described user correlation diagram data D25 in addition to the image data D1. Then, the image display unit 13 displays a display image in a form in which one of a plurality of types of identification items is associated with at least a part of a plurality of pieces of photographic information defined by the image data D1 based on the user correlation diagram data D25. Display on the display screen.

(画像出力装置1の全体構成)
図2は図1で示した画像出力装置1の内部構成の詳細を示すブロック図である。同図に示すように、画像出力装置1は画像データ受付端末(以後、「受付端末」と称する)3と、プリンタ4(プリンタ41〜4n)とにより構成される。
(Overall configuration of image output apparatus 1)
FIG. 2 is a block diagram showing details of the internal configuration of the image output apparatus 1 shown in FIG. As shown in FIG. 1, the image output apparatus 1 includes an image data receiving terminal (hereinafter referred to as “receiving terminal”) 3 and a printer 4 (printers 41 to 4n).

受付端末3は、情報端末2やデジタルカメラ等で撮影された画像データD1、電話帳データD2、及びコミュニケーション履歴データD3を記憶媒体6から読み込み、画像出力装置1に搭載された画像表示手段13の表示画面上にユーザー相関図データD25に基づく画像表示を行い、ユーザーに画像を選択させる端末である。   The reception terminal 3 reads the image data D1, the phone book data D2, and the communication history data D3 taken by the information terminal 2 or a digital camera from the storage medium 6, and the image display unit 13 mounted on the image output device 1 This is a terminal that displays an image based on the user correlation diagram data D25 on the display screen and allows the user to select an image.

受付端末3は、制御部26及び記憶部10より構成され、制御部26は、図1で示した相関表示作成手段25以外に、画像データ読み込み手段7、モバイルデータ読込み手段21、画像表示手段13、音声再生手段14、課金手段20、位置検出手段15、データ選択手段16、通信手段18、印刷データ作成手段11、及びプリントデータ送信手段12を有して構成される。   The receiving terminal 3 includes a control unit 26 and a storage unit 10, and the control unit 26 includes an image data reading unit 7, a mobile data reading unit 21, and an image display unit 13 in addition to the correlation display creation unit 25 shown in FIG. , Voice reproducing means 14, accounting means 20, position detecting means 15, data selecting means 16, communication means 18, print data creating means 11, and print data transmitting means 12.

プリンタ4は、受付端末3に接続され、記憶部10に格納された画像データD1に基づく写真画像出力である写真5(51〜5n)をプリントアウトする。同図に示すように、プリンタ4はn(n≧2)台のプリンタ41〜4nにより構成され、各プリンタ4i(i=1〜nのいずれか)によって写真5iがプリントアウトされる。   The printer 4 is connected to the reception terminal 3 and prints out photos 5 (51 to 5n) that are photographic image outputs based on the image data D1 stored in the storage unit 10. As shown in the figure, the printer 4 is composed of n (n ≧ 2) printers 41 to 4n, and a photograph 5i is printed out by each printer 4i (i = 1 to n).

画像データ読み込み手段7は、ハードウェア部分として、上述した相互接続手段22を有しており、情報端末2の記憶媒体6に格納された画像データD1を読み込み、記憶部10に格納する。   The image data reading means 7 has the above-described interconnection means 22 as a hardware part, reads the image data D1 stored in the storage medium 6 of the information terminal 2, and stores it in the storage unit 10.

記憶部10は画像データ読み込み手段7で読み込んだ画像データD1を格納するともに、画面表示や音声ガイダンス情報のデータ群である定義データD9と、プリンタ5よりプリントされる写真5の画質を調整するための画質調整データD17と、モバイルデータ読込み手段21を介して読み込んだモバイルデータD20(電話帳データD2+コミュニケーション履歴データD3)を格納している。   The storage unit 10 stores the image data D1 read by the image data reading means 7 and adjusts the image quality of the definition data D9, which is a data group of screen display and voice guidance information, and the picture 5 printed by the printer 5. Image quality adjustment data D17 and mobile data D20 (phone book data D2 + communication history data D3) read via the mobile data reading means 21 are stored.

印刷データ作成手段11は、画像表示手段13からの印刷制御信号SC13に基づき、記憶部10に記憶された画像データD1内の複数の写真画像から選択された印刷用画像からなるプリントデータを得る。この際、画質調整データD17に基づき必要に応じて画質調整を行う。   Based on the print control signal SC13 from the image display means 13, the print data creation means 11 obtains print data composed of printing images selected from a plurality of photographic images in the image data D1 stored in the storage unit 10. At this time, image quality adjustment is performed as necessary based on the image quality adjustment data D17.

プリントデータ送信手段12は印刷データ作成手段11より得たプリントデータをプリンタ4iに送信することにより、プリンタ4iに画像データD1に基づく写真5iのプリントアウト処理を実行させる。   The print data transmission unit 12 transmits the print data obtained from the print data creation unit 11 to the printer 4i, thereby causing the printer 4i to execute the printout process of the photograph 5i based on the image data D1.

画像表示手段13は、上述したように、画像データ読み込み手段7により読み込んだ画像データD1を受け、相関表示作成手段25で作成したユーザー相関図データD25に基づく表示用画像を表示用画面上に表示することにより、ユーザーにプリンタ4によるプリントアウトを所望する写真5を選択させる機会を与えている。   As described above, the image display means 13 receives the image data D1 read by the image data reading means 7, and displays a display image based on the user correlation diagram data D25 created by the correlation display creation means 25 on the display screen. This gives the user an opportunity to select the photograph 5 desired to be printed out by the printer 4.

画像表示手段13のハートウェア部分として例えばCRTや液晶パネル等の表示装置と一体化されたタッチパネル等が該当する。また、タッチパネルについてはマルチタッチ対応のタッチパネルであっても良い。したがって、ユーザーは画像表示手段13によるユーザー相関図データD25に基づく表示用画像の表示用画面上の表示に対し、タッチパネル機能を利用したタッチ等のユーザーによる直接操作が可能である。   For example, a touch panel integrated with a display device such as a CRT or a liquid crystal panel corresponds to the heart wear portion of the image display means 13. The touch panel may be a multi-touch compatible touch panel. Therefore, the user can directly operate the display such as the touch using the touch panel function on the display on the display screen of the display image based on the user correlation diagram data D25 by the image display means 13.

音声再生手段14は、ユーザーがプリントを所望する写真情報の選択や受付端末3の操作を困惑することなく操作するための音声によるガイダンスや、写真5iのプリント中のBGMや情報端末2が操作されていないときに表示用画面上にスクリーンセーバーと共に通行人に端末の機能を告知するキャッチ音声などの音声再生を行う。音声再生手段14はハードウェア部分としてスピーカーを有している。   The voice reproducing means 14 is operated by voice guidance for the user to select the photograph information that the user desires to print or to operate the reception terminal 3 without being confused, or the BGM or the information terminal 2 during the printing of the photograph 5i. When not in use, a screen saver is displayed on the display screen, and a sound such as a catch voice that notifies the passerby of the function of the terminal is played. The audio reproducing means 14 has a speaker as a hardware part.

課金手段20は画像出力装置1のユーザーが受付端末3で注文した分のプリント料金を支払うための手段である。課金手段20のハードウェア部分として、硬貨や紙幣の受け入れと、投入された硬貨や紙幣を保持する機能と、投入された金額に対して販売金額との差額のつり銭返却などを行う部分がある。   The accounting unit 20 is a unit for paying the print fee for the order that the user of the image output apparatus 1 has ordered from the reception terminal 3. As a hardware part of the billing means 20, there are a part that accepts coins and banknotes, a function of holding the inserted coins and banknotes, and a change return of the difference between the amount of money inserted and the sales amount.

位置検出手段15は画像出力装置1が設置された位置情報を検出する手段である。具体的なハードウェア部分として、例えば、GPS(Global Positioning System)やIPアドレスによる位置測定方法やWi-Fi基地局による位置測定などを使用して、画像出力装置1の位置の座標を求め、その結果を出力する構成等が考えられる。ここでいう、座標とは緯度・経度のことを指すが、その他取得した位置情報により画像出力装置1の位置情報が特定できるものであれば、特に限定する必要はない。   The position detection means 15 is means for detecting position information where the image output apparatus 1 is installed. As a specific hardware part, for example, a position measurement method using GPS (Global Positioning System) or an IP address or a position measurement using a Wi-Fi base station is used to obtain the coordinates of the position of the image output apparatus 1, A configuration for outputting the result is conceivable. The coordinates here refer to latitude and longitude, but are not particularly limited as long as the position information of the image output apparatus 1 can be specified by other acquired position information.

データ選択手段16は、位置検出手段15により検出された位置情報に基づいて最適な画面表示や音声ガイダンスを行うための定義データD9を選択して、記憶部10に格納する。なお、データ選択手段16は、例えば、記憶部10に格納されたデータ選択手段16用のプログラムに従ってデータ選択を行う。   The data selection unit 16 selects definition data D9 for performing optimal screen display and voice guidance based on the position information detected by the position detection unit 15, and stores the definition data D9 in the storage unit 10. The data selection unit 16 performs data selection according to a program for the data selection unit 16 stored in the storage unit 10, for example.

複数種の定義データは画像出力装置1外のデータサーバー19に準備されており、データ選択手段16は通信手段18を介してデータサーバー19と通信することにより、データサーバー19上に準備された複数種の定義データのうち、最適な定義データを定義データD9として記憶部10に格納する。   A plurality of types of definition data are prepared in the data server 19 outside the image output apparatus 1, and the data selection unit 16 communicates with the data server 19 via the communication unit 18 to thereby prepare a plurality of types of definition data prepared on the data server 19. Among the types of definition data, optimum definition data is stored in the storage unit 10 as definition data D9.

データ選択手段16の制御下で通信手段18は前述した記憶部10に記憶されている定義データD9の取得や更新を行うためにデータサーバー19との通信を行う。通信手段18の具体的なハードウェア構成として、有線、無線の通信機能は問わない。   Under the control of the data selection means 16, the communication means 18 communicates with the data server 19 in order to acquire or update the definition data D9 stored in the storage unit 10 described above. As a specific hardware configuration of the communication unit 18, a wired or wireless communication function may be used.

モバイルデータ読込み手段21はハードウェア機能として前述した相互接続手段22を有し、記憶媒体6より情報端末2の電話帳データD2及びコミュニケーション履歴データD3を読み込む。そして、モバイルデータ読込み手段21は電話帳データD2及びコミュニケーション履歴データD3からなるデータをモバイルデータD20として記憶部10に格納する。なお、モバイルデータ読込み手段21は、電話帳データD2及びコミュニケーション履歴データD3を読み込んで、モバイルデータD20として記憶部10に格納できる手段であれば方法及び構成は限定しない。   The mobile data reading means 21 has the above-described interconnection means 22 as a hardware function, and reads the phone book data D2 and communication history data D3 of the information terminal 2 from the storage medium 6. Then, the mobile data reading means 21 stores data including the phone book data D2 and the communication history data D3 in the storage unit 10 as mobile data D20. The mobile data reading means 21 is not limited in its method and configuration as long as it can read the phone book data D2 and the communication history data D3 and store them in the storage unit 10 as the mobile data D20.

コミュニケーション履歴データD3には、情報端末2に本来備わる電話通信を行った時に情報端末2内に残る通話履歴情報である通話履歴データD31や、情報端末2に本来備わる電子メールの送信または受信をした時のメール送受信履歴情報であるメール履歴データD32や、情報端末2にインストールしたアプリケーションを使用して他ユーザーと通信を行った際に残るアプリケーション通信履歴情報である通信履歴データD33からなる。   In the communication history data D3, the call history data D31, which is call history information remaining in the information terminal 2 when the telephone communication inherent in the information terminal 2 is performed, and the electronic mail inherent in the information terminal 2 are transmitted or received. Mail history data D32 which is mail transmission / reception history information at the time, and communication history data D33 which is application communication history information remaining when communication with other users is performed using an application installed in the information terminal 2.

相関表示作成手段25は、記憶部10に格納された画像データD1とモバイルデータD20(電話帳データD2+コミュニケーション履歴データD3)とを取り込み、図1を用いて説明したように、画像データD1及びモバイルデータD20に基づき、相関画像データD12及び個人情報識別データD23からなるユーザー相関図データD25を作成する。   The correlation display creating means 25 takes in the image data D1 and the mobile data D20 (phone book data D2 + communication history data D3) stored in the storage unit 10, and as described with reference to FIG. 1, the image data D1 and the mobile data Based on the data D20, user correlation diagram data D25 including correlation image data D12 and personal information identification data D23 is created.

制御部26による上述した各手段の主要な機能はソフトウェアに基づくCPUによるプログラム処理により実現可能である。以下、この点を詳述する。画像データ読み込み手段7及びモバイルデータ読込み手段21と記憶媒体6との接続自体は、相互接続手段22であるハードウェア部分により実現する。一方、画像データ読み込み手段7による画像データ読み込み処理とモバイルデータ読込み手段21によるモバイルデータ読み込み処理についてはソフトウェアに基づくCPUによるプログラム処理で実現する。   The main functions of each means described above by the control unit 26 can be realized by program processing by a CPU based on software. Hereinafter, this point will be described in detail. The connection itself between the image data reading means 7 and the mobile data reading means 21 and the storage medium 6 is realized by a hardware part which is the interconnection means 22. On the other hand, the image data reading process by the image data reading means 7 and the mobile data reading process by the mobile data reading means 21 are realized by a program process by a CPU based on software.

課金手段20について、上述したように、硬貨や紙幣の投入口や投入された硬貨や紙幣の蓄積はコインメックやビルバリなどのハードウェアにより実現する。投入された硬貨や紙幣の計上や払い出しについてはソフトウェアに基づくCPUによるプログラム処理で実現する。   As described above, the billing means 20 is implemented by hardware such as coin mech and bill validator for coins and bills and for storing coins and bills. Counting and paying out coins and bills that are input is realized by a program process by a CPU based on software.

その他、相関表示作成手段25等の各手段の処理手順は主としてソフトウェアに基づくCPUよるプログラム処理で実現する。このように、制御部26は上述したようにソフトウェアに基づくプログラム処理により、画像出力装置1の全体を制御しており、パソコンのCPUなどに相当するものである。   In addition, the processing procedure of each means such as the correlation display creating means 25 is realized mainly by program processing by a CPU based on software. As described above, the control unit 26 controls the entire image output apparatus 1 by the program processing based on software as described above, and corresponds to a CPU of a personal computer.

プリンタ4は、例えば、高解像度のカラープリンタであり、昇華型プリンタ、またはインクジェットプリンタなどであり、印刷の方式は限定しない。また、プリンタ4にてプリントされる写真5については、L判サイズの写真に限定することはなく、はがきサイズや2L判などの大きなサイズや、シールプリントとなっても良い。   The printer 4 is, for example, a high-resolution color printer, such as a sublimation printer or an inkjet printer, and the printing method is not limited. Further, the photo 5 printed by the printer 4 is not limited to an L size photo, and may be a large size such as a postcard size or 2L size, or a sticker print.

記憶媒体6とは、デジタルカメラ等で使用されているSDカードやメモリースティックなどのカードメディアと、CDやDVDやUSBメモリなどのことをいう。また、記憶媒体6は、上述したカードメディアに加えて情報端末に内蔵されており、カメラ画像データなどを記憶しているメモリを含む意味で用いている。   The storage medium 6 refers to a card medium such as an SD card or a memory stick used in a digital camera or the like, a CD, a DVD, a USB memory, or the like. The storage medium 6 is incorporated in the information terminal in addition to the card medium described above, and is used to include a memory that stores camera image data and the like.

定義データD9は、位置検出手段15にて取得する位置情報に基づき定する画面表示や音声ガイダンスに加え、プリントされる写真の色味や質感を調整する画質調整ファイルと、画像出力装置1の写真の販売金額を設定している料金設定データとを対応させたデータを含む。すなわち、定義データD9は、位置検出手段15によって得られた位置情報、例えば、緯度・経度とその地域で使用される画面表示や音声ガイダンスと、プリントされる写真の色味や質感と、画像出力装置1の写真の販売金額を関連付けたデータを意味する。   The definition data D9 includes an image quality adjustment file for adjusting the color and texture of a photograph to be printed, and a picture of the image output apparatus 1 in addition to the screen display and voice guidance determined based on the position information acquired by the position detection means 15. Data corresponding to the price setting data that sets the sales amount of That is, the definition data D9 includes the position information obtained by the position detection means 15, for example, the screen display and voice guidance used in the latitude / longitude and the area, the color and texture of the photograph to be printed, and the image output. It means data in which the sales amount of the photograph of the device 1 is associated.

記憶部10はハードディスクなどの大容量記憶装置のことをいう。この記憶部10には、各構成部分を制御するプログラムを含んでいる。例えば、記憶部10は、記憶媒体6から画像データD1を読込んで記憶部10に一時保存するプログラム(画像データ読み込み手段7を実現するためのプログラム)、表示用画面に表示する表示用画像を制御するプログラム(画像表示手段13を実現するプログラム)、及び表示用画面上に表示された画像の編集や加工を行うプログラム(印刷データ作成手段11を実現するためのプログラム)を格納している。さらに、記憶部10は、ユーザーのプリント注文情報を保持するプログラム(課金手段20を実現するためのプログラム)、プリンタ4にプリントする画像を送信するプログラム(プリントデータ送信手段12を実現するためのプログラム)、データサーバー19とデータをやり取りするプログラム(通信手段18を用いたデータ選択手段16を実現するためのプログラム)、及びユーザー相関図を作成するためのプログラム(相関表示作成手段25を実現するためのプログラム)等を格納している。   The storage unit 10 refers to a mass storage device such as a hard disk. The storage unit 10 includes a program for controlling each component. For example, the storage unit 10 controls a program for reading the image data D1 from the storage medium 6 and temporarily storing it in the storage unit 10 (a program for realizing the image data reading unit 7), and a display image displayed on the display screen. And a program for editing and processing an image displayed on the display screen (a program for realizing the print data creating means 11). Further, the storage unit 10 includes a program for holding user print order information (a program for realizing the charging unit 20), and a program for transmitting an image to be printed to the printer 4 (a program for realizing the print data transmission unit 12). ), A program for exchanging data with the data server 19 (a program for realizing the data selection means 16 using the communication means 18), and a program for creating a user correlation diagram (to realize the correlation display creating means 25). For example).

ユーザーは選択した写真画像に対して画像表示手段13の表示用画面上のタッチパネル機能を利用して、らくがき、スタンプ、フレーム付加のような画像加工や画像の拡大または縮小、回転、トリミングなどの画像編集操作が可能である。これらの画像編集操作において、定義データD9に記憶されているスタンプやフレームなどの素材データを、印刷データ作成手段11が作成するプリントデータに反映させることができる。   The user uses the touch panel function on the display screen of the image display means 13 for the selected photographic image, and performs image processing such as graffiti, stamp, and frame addition, and image enlargement or reduction, rotation, trimming, etc. Editing operations are possible. In these image editing operations, material data such as stamps and frames stored in the definition data D9 can be reflected in the print data created by the print data creation means 11.

(相関表示作成手段25の動作)
図3は画像出力装置1によるユーザー相関図データD25の作成手順を主として示すフローチャートである。以下、図3を参照して、ユーザー相関図データD25の作成処理手順及び画像表示手段13による表示動作について説明する。
(Operation of correlation display creating means 25)
FIG. 3 is a flowchart mainly showing a procedure for creating the user correlation diagram data D25 by the image output apparatus 1. Hereinafter, with reference to FIG. 3, a procedure for creating the user correlation diagram data D <b> 25 and a display operation by the image display unit 13 will be described.

まず、ステップS1において、画像出力装置1に情報端末2を接続する。情報端末2は、前述したように、ユーザーがプリントを所望するカメラ画像である複数の写真情報を有する画像データD1を記憶媒体6内に保存している、スマートフォンや携帯電話機等である。   First, in step S <b> 1, the information terminal 2 is connected to the image output device 1. As described above, the information terminal 2 is a smartphone, a mobile phone, or the like that stores in the storage medium 6 the image data D1 having a plurality of pieces of photographic information that are camera images that the user desires to print.

情報端末2の画像出力装置1への接続方法は、相互接続手段22で説明したように、ケーブルを使用した有線接続、Wi-Fiなど無線を使用した無線接続、メモリーカードなどを使用した記憶媒体接続など接続形式は問わない。すなわち、画像データ読み込み手段7による画像データD1の読み込み、モバイルデータ読込み手段21による電話帳データD2及びコミュニケーション履歴データD3の読み込みができるように、画像出力装置1に情報端末2を接続できれば良い。   The connection method of the information terminal 2 to the image output apparatus 1 is as follows. As described in the interconnection means 22, a wired connection using a cable, a wireless connection using wireless such as Wi-Fi, a storage medium using a memory card, etc. There is no limitation on the connection type such as connection. That is, it is only necessary that the information terminal 2 can be connected to the image output apparatus 1 so that the image data reading means 7 can read the image data D1 and the mobile data reading means 21 can read the phone book data D2 and the communication history data D3.

次に、ステップS2において、画像データ読み込み手段7は、画像出力装置1に接続された情報端末2等の記憶媒体6に保存されている画像データD1を読み取り、画像出力装置1の記憶部10に格納する画像データD1の読み込み処理を実行する。   Next, in step S <b> 2, the image data reading means 7 reads the image data D <b> 1 stored in the storage medium 6 such as the information terminal 2 connected to the image output device 1 and stores it in the storage unit 10 of the image output device 1. Read processing of the image data D1 to be stored is executed.

その後、ステップS3において、モバイルデータ読込み手段21は、画像出力装置1に接続された情報端末2の記憶媒体6に保存されている電話帳データD2及びコミュニケーション履歴データD3を読み取り、画像出力装置1の記憶部10にモバイルデータD20として格納するモバイルデータの読み込み処理を実行する。なお、モバイルデータD20とは電話帳データD2及びコミュニケーション履歴データD3のことである。   Thereafter, in step S 3, the mobile data reading means 21 reads the phone book data D 2 and the communication history data D 3 stored in the storage medium 6 of the information terminal 2 connected to the image output device 1. Mobile data reading processing stored as mobile data D20 in the storage unit 10 is executed. The mobile data D20 is the phone book data D2 and the communication history data D3.

図4は電話帳データD2の具体的内容を示す説明図である。同図に示すように、電話帳データD2は、登録人数の個人情報を規定した登録データRD1、RD11〜RD13により構成される。登録データRD1には本人の顔画像情報である顔画像データFD1と、本人の名前、電話番号、及びメールアドレス等の個人情報を規定した個人データJD1から構成される。   FIG. 4 is an explanatory diagram showing specific contents of the telephone directory data D2. As shown in the figure, the phone book data D2 is composed of registration data RD1 and RD11 to RD13 that define personal information of the number of registered persons. The registration data RD1 includes face image data FD1 that is the face image information of the person and personal data JD1 that defines personal information such as the person's name, telephone number, and mail address.

登録データRD11〜RD13は、情報端末2のユーザーの利用相手の顔画像情報である顔画像データFD11〜FD13と、利用相手の名前、電話番号、及びメールアドレス、及び利用相手との関係性を示すグループ情報等の個人情報を規定した個人データJD11〜JD13から構成される。   The registration data RD11 to RD13 indicate the relationship between the face image data FD11 to FD13 which is the face image information of the user of the information terminal 2 and the name, telephone number, and mail address of the user, and the user. It consists of personal data JD11 to JD13 that define personal information such as group information.

なお、図4には示していないが、個人データJD1,JD11〜JD13として、本人(利用相手)の生年月日、住所、各ユーザーに対するコメントなどを含ませてもよく、図4で示した個人データの内容に限定するものではない。   Although not shown in FIG. 4, the personal data JD1, JD11 to JD13 may include the date of birth of the person (user), address, comment for each user, etc. It is not limited to the contents of the data.

また、コミュニケーション履歴データD3は、情報端末2のユーザーと他の通信機器等のユーザーと間で行った、コミュニケーション機能の利用履歴を利用相手を特定して示すコミュニケーション履歴情報を意味する。   Further, the communication history data D3 means communication history information that is used between a user of the information terminal 2 and a user such as another communication device to specify a communication partner and specify a use partner.

コミュニケーション履歴データD3として、情報端末2に本来備わった電話機能を利用した電話機能の利用履歴を利用相手を特定して示す通話履歴データD31、情報端末2に本来備わった電子メール機能を利用した電子メール機能の利用履歴を利用相手を特定して示すメール履歴データD32が含まれる。さらに、コミュニケーション履歴データD3として、情報端末2にインストールして他のユーザーとアプリケーション通信を行うアプリケーション通信機能を利用履歴を特定して示すアプリケーション通信履歴データD33が含まれる。   As the communication history data D3, call history data D31 that indicates the use history of the telephone function using the telephone function originally provided in the information terminal 2 by specifying the other party, and the electronic using the electronic mail function inherent in the information terminal 2 Mail history data D32 that indicates the use partner of the mail function use history is included. Further, the communication history data D3 includes application communication history data D33 that indicates an application communication function that is installed in the information terminal 2 and performs application communication with other users by specifying a usage history.

その後、ステップS4では、相関表示作成手段25の画像検出部251が記憶部10に保持された画像データD1に、人物の顔が含まれているかどうかを検出する顔画像検出処理を実行する。すなわち、画像検出部251により、画像データD1における各写真画像中に顔画像が含まれているか否かの画像解析を行い、画像解析結果として複数の写真情報それぞれにおける顔画像の有無を示す顔存在情報D1fを得る顔画像検出処理を実行する。画像検出部251は画像データD1と共に顔存在情報D1fを次段の判定部252に出力する。   Thereafter, in step S4, the image detection unit 251 of the correlation display creating unit 25 executes a face image detection process for detecting whether or not a human face is included in the image data D1 held in the storage unit 10. That is, the image detection unit 251 performs image analysis as to whether or not a face image is included in each photographic image in the image data D1, and the presence of a face indicating the presence or absence of a face image in each of a plurality of pieces of photographic information as an image analysis result. A face image detection process for obtaining information D1f is executed. The image detection unit 251 outputs the face presence information D1f together with the image data D1 to the determination unit 252 at the next stage.

これらの画像検出部251による顔画像検出処理は記憶部10に保持された画像データD1を構成する複数の写真画像全てに対して行われる。なお、画像検出部251が実行する顔画像検出処理については、例えば、記憶部10に保存されている顔検出プログラムおよび画像解析プログラム、顔画像比較プログラム等を制御部26が実行することにより実現される。   The face image detection processing by these image detection units 251 is performed on all of the plurality of photographic images constituting the image data D1 held in the storage unit 10. Note that the face image detection process executed by the image detection unit 251 is realized by the control unit 26 executing, for example, a face detection program, an image analysis program, a face image comparison program, and the like stored in the storage unit 10. The

次に、ステップS5において、顔画像検出処理による顔画像の検出の有無を確認する。すなわち、ステップS4の顔画像検出処理により、顔存在情報D1fが少なくとも一つの写真情報における顔画像の存在を指示する場合(YES)は、次のステップS6に進み、顔存在情報D1fが全ての写真情報における顔画像の存在を指示しなかった場合(NO)は、ステップS9に移行する。ここで、複数の写真情報のうち顔存在情報D1fが顔画像の存在を指示する写真情報を、「(少なくとも一つの)顔検出写真情報」と呼ぶ。なお、ステップS5でNOの場合は、ステップS9〜S11の実行による個人情報識別データD23のコミュニケーション履歴DB255への登録処理のみが行われることになる。   Next, in step S5, it is confirmed whether or not a face image is detected by the face image detection process. That is, if the face presence information D1f indicates the presence of a face image in at least one piece of photographic information by the face image detection process in step S4 (YES), the process proceeds to the next step S6, and the face presence information D1f is all photos. When the presence of the face image in the information is not instructed (NO), the process proceeds to step S9. Here, the photo information in which the face presence information D1f indicates the presence of a face image among a plurality of pieces of photo information is referred to as “(at least one) face detection photo information”. In the case of NO at step S5, only the registration process of the personal information identification data D23 to the communication history DB 255 by the execution of steps S9 to S11 is performed.

ステップS5でYESの場合に実行されるステップS6において、相関表示作成手段25の判定部252は、電話帳データD2に登録されている顔画像(顔画像データFD)との比較処理を実行する。すなわち、判定部252は、一の顔検出写真情報と、電話帳データD2に保存されている登録人数分のユーザー(本人もしくは利用相手)の顔画像情報(以下、「ユーザー顔画像」と略記)とを比較して、顔検出写真情報について、ユーザー顔画像に合致するか否かを判定する。   In step S6, which is executed in the case of YES in step S5, the determination unit 252 of the correlation display creating means 25 performs a comparison process with the face image (face image data FD) registered in the phone book data D2. That is, the determination unit 252 includes one face detection photo information and face image information (hereinafter referred to as “user face image”) of registered users (persons or users) stored in the phone book data D2. To determine whether the face detection photo information matches the user face image.

そして、判定部252は、顔検出写真情報に合致するユーザー顔画像が存在する場合、合致したユーザー顔画像の利用相手(複数を含む)を特定する情報と顔検出写真情報を特定する情報とを関連づけた相関関連情報を生成する。   Then, when there is a user face image that matches the face detection photo information, the determination unit 252 includes information that specifies a user (including a plurality) of the matched user face image and information that specifies the face detection photo information. Generate correlated correlation information.

その後、ステップS7において、検出した顔画像数分、すなわち、顔検出写真情報の全てに対してステップS6の比較処理が終了したかの確認処理を行い、終了した場合(YES)はステップS8に移行し、終了していない場合(NO)はステップS6に戻る。以降、ステップS7でYESと判定されるまでステップS6及びS7の処理が繰り返される。   Thereafter, in step S7, confirmation processing is performed for the number of detected face images, that is, all of the face detection photo information, to determine whether the comparison processing in step S6 has been completed. If completed (YES), the process proceeds to step S8. If not completed (NO), the process returns to step S6. Thereafter, the processes in steps S6 and S7 are repeated until YES is determined in step S7.

ステップS7でYESの場合に実行されるステップS8において、少なくとも一つの顔検出写真情報のうち、合致するユーザー顔画像が存在した場合にステップS6にて生成された上記相関関連情報の集合体である相関画像データD12を得ることができ、判定部252はこの相関画像データD12を写真DB254に登録する。   In step S8 executed in the case of YES in step S7, this is a collection of the correlation related information generated in step S6 when there is a matching user face image among at least one face detection photo information. Correlated image data D12 can be obtained, and the determination unit 252 registers the correlated image data D12 in the photograph DB 254.

図5は判定部252による顔画像検出処理結果と相関画像データD12との関係を模式的に示す説明図である。   FIG. 5 is an explanatory diagram schematically showing the relationship between the face image detection processing result by the determination unit 252 and the correlation image data D12.

同図(a) に示すように、画像データD1で規定される複数の画像情報のうち、画像検出部251により検出された少なくとも一つの顔検出写真情報である写真データ(写真情報)PD1〜PD4に対し、電話帳データD2の登録データRD11〜RD13で規定されたユーザーA〜Cの顔画像データFD11〜FD13(顔画像情報)との顔画像検出処理結果を示している。同図(a) において、○印が、写真データPD1〜PD4内に対応するユーザーのユーザー顔画像が存在した場合、×印が写真データPD1〜PD4内に対応するユーザーのユーザー顔画像が存在しなかった場合を示している。   As shown in FIG. 5A, among the plurality of pieces of image information defined by the image data D1, photographic data (photo information) PD1 to PD4 which are at least one face detection photographic information detected by the image detection unit 251. On the other hand, the face image detection processing result with the face image data FD11 to FD13 (face image information) of the users A to C defined by the registration data RD11 to RD13 of the phone book data D2 is shown. In FIG. 5A, when there is a user face image of the user corresponding to the photo data PD1 to PD4, the mark ○ indicates that the user face image of the user corresponding to the photo data PD1 to PD4 exists. The case where there was no is shown.

例えば、判定部252によって、写真データPD1(識別番号1)では、ユーザーA〜ユーザーCのうち、ユーザーAとユーザーBとが写っていると判定されため、ユーザーAは○、ユーザーBは○、ユーザーCは×となる。同様にして、写真データPD2(識別番号2)では、ユーザーAは×、ユーザーBは○、ユーザーCは×となる。   For example, in the photo data PD1 (identification number 1), the determination unit 252 determines that the user A and the user B among the users A to C are captured, so that the user A is ○, the user B is ○, User C becomes x. Similarly, in the photo data PD2 (identification number 2), the user A is x, the user B is ◯, and the user C is x.

図5の(a) で示す判定部252による判定結果(写真データPD単位の相関関連情報の集合体)が得られると、判定部252は上記判定結果に基づく相関画像データD12を生成することになる。すなわち、図5(b) に示すように、ユーザーA関連写真情報24Aとして、ユーザーAに画像データD1の写真画像の識別番号(採番)である1,3,…(PD1〜PD4に1〜4が対応)を対応させ、ユーザーB関連写真情報24BとしてユーザーBに画像データD1の写真画像の識別番号である1,2,3,4,…を対応させ、ユーザーC関連写真情報24CとしてユーザーCに画像データD1の写真画像の識別番号である3,…を対応させて、相関画像データD12を生成している。   When the determination result (aggregation of correlation related information in units of photograph data PD) by the determination unit 252 shown in FIG. 5A is obtained, the determination unit 252 generates correlation image data D12 based on the determination result. Become. That is, as shown in FIG. 5 (b), as user A related photo information 24A, the user A is given the identification number (numbering) of the photo image of the image data D1, 1, 3,. 4), and the user B related photo information 24B is associated with the user B as the photo image identification number 1, 2, 3, 4,... Of the image data D1, and the user C related photo information 24C is the user. Correlation image data D12 is generated by associating C, 3,..., Which is the identification number of the photographic image of image data D1, with C.

なお、写真データPD2に関しては電話帳データD2より検出されなかったユーザーの顔画像(右側の顔画像)が含まれているが、このような顔画像については、相関画像データD12の作成対象とはしない。   The photograph data PD2 includes the face image (right face image) of the user that has not been detected from the phone book data D2. However, for such a face image, the creation target of the correlation image data D12 is as follows. do not do.

以上のように、ステップS8において、判定部252は、電話帳データD2より登録された登録データRD内の顔画像データFDに基づいて、各ユーザーが画像データD1における顔検出写真情報それぞれで規定される写真に写っているか否かを関連付けた相関画像データD12を写真DB254に登録する。なお、写真DB254は記憶部10内に設けも、相関表示作成手段25専用に画像出力装置1内に別途設けても良い。   As described above, in step S8, the determination unit 252 defines each user with the face detection photo information in the image data D1 based on the face image data FD in the registration data RD registered from the phone book data D2. Correlation image data D12 associated with whether or not it is reflected in the photograph is registered in the photograph DB 254. The photograph DB 254 may be provided in the storage unit 10 or may be provided separately in the image output apparatus 1 exclusively for the correlation display creating means 25.

続いて、ステップS9において、コミュニケーション検出部253は、電話帳データD2のグループ情報に基づき、グループ設定を行う。グループ情報とは図4に示すように、情報端末2のユーザーが電話帳データD2に登録された各ユーザーの個人データJD11〜JD13に対して、友人、家族・親戚、同僚などのユーザーとの関連性をもたせたグルーピング情報を意味し、電話帳データD2にグループ情報が存在する場合は、グループ情報に基づきグループ単位に設定を行うことができる。例えば、利用者を友人、家族・親戚、同僚別にグループ設定することができる。このグループ設定は一例であり、情報端末2のユーザーによって任意のグループ設定が可能である。   Subsequently, in step S9, the communication detection unit 253 performs group setting based on the group information of the phone book data D2. With group information, as shown in FIG. 4, the user of the information terminal 2 relates to the personal data JD11 to JD13 of each user registered in the phone book data D2 with the users such as friends, family / relatives, colleagues, etc. If the group information exists in the phone book data D2, it can be set for each group based on the group information. For example, users can be grouped according to friends, family / relatives, and colleagues. This group setting is an example, and an arbitrary group setting can be performed by the user of the information terminal 2.

コミュニケーション検出部253は、まず記憶部10に保持されている電話帳データD2に登録されている各ユーザーのグループ情報を検出して、存在する場合はグループ情報によるグループ設定を行う。   First, the communication detection unit 253 detects the group information of each user registered in the phone book data D2 held in the storage unit 10, and sets the group based on the group information if it exists.

次に、ステップS10において、相関表示作成手段25のコミュニケーション検出部253は、記憶部10に保持されている電話帳データD2とコミュニケーション履歴データD3とに基づき、情報端末2のユーザーがどのユーザー(利用相手)と親密に連絡を取っているかを判定するコミュニケーション判定処理(識別項目分類処理)を実行する。   Next, in step S10, the communication detection unit 253 of the correlation display creating means 25 determines which user (utilization) the user of the information terminal 2 is based on the phone book data D2 and the communication history data D3 stored in the storage unit 10. A communication determination process (identification item classification process) is performed to determine whether the person is in close contact with the other party.

すなわち、コミュニケーション検出部253は、上記コミュニケーション判定処理の判定結果に基づき、コミュニケーション機能の利用頻度に対応させる形式で、画像データD1内の登録人数分の個人情報を複数種の識別項目(例えば、コミュニケーション機能の利用頻度に基づき順位づけた識別項目)に分類した個人情報識別データD23を得るコミュニケーション判定処理を実行する。   That is, the communication detection unit 253, based on the determination result of the communication determination process, converts personal information for the number of registered persons in the image data D1 into a plurality of types of identification items (for example, communication items) in a format corresponding to the frequency of use of the communication function. Communication determination processing for obtaining personal information identification data D23 classified into identification items ranked based on the frequency of use of functions is executed.

そして、ステップS11において、相関表示作成手段25は、ステップS10のコミュニケーション判定処理で得た個人情報識別データD23をコミュニケーション履歴DB255に登録する。   In step S11, the correlation display creating means 25 registers the personal information identification data D23 obtained in the communication determination process in step S10 in the communication history DB 255.

図6はコミュニケーション検出部253によるコミュニケーション判定処理内容を模式的に示す説明図である。   FIG. 6 is an explanatory diagram schematically showing the contents of communication determination processing by the communication detection unit 253.

同図(a) に示すように、コミュニケーション判定結果D255には、電話帳データD2に登録されている各ユーザー(A,B,C)と、ステップS9で検出された各ユーザーのグループ設定と、各ユーザー(A、B、C)とのコミュニケーション機能利用回数(電話,(電子)メール、アプリ(ケーション通信)による通信回数)が示されている。   As shown in FIG. 5A, the communication determination result D255 includes each user (A, B, C) registered in the phone book data D2, the group setting of each user detected in step S9, The number of times of communication function use with each user (A, B, C) (the number of communication by telephone, (electronic) mail, application (application communication)) is shown.

コミュニケーション履歴データD3には、電話帳データD2に登録されている各ユーザーの電話番号を使用した電話発着信、メールアドレスを使用した電子メール送受信、情報端末にインストールされている通信アプリケーションを使用したアプリケーション通信履歴を有している。情報端末2にインストールされているアプリケーションを使用したアプリケーション通信の場合でも電話番号やメールアドレスを使用して宛先を確定し、通信を行うため、当該ユーザーがどのユーザーと通信を行ったかを判別することができる。   In the communication history data D3, an application using a communication application installed in the information terminal, an incoming / outgoing call using the telephone number of each user registered in the telephone directory data D2, an e-mail transmission / reception using a mail address, Has a communication history. Even in the case of application communication using an application installed in the information terminal 2, the destination is determined using a telephone number or an e-mail address, and in order to perform communication, it is determined which user the user has communicated with Can do.

以下、図6(a) のコミュニケーション判定結果D255におけるユーザーAを例に説明する。コミュニケーション履歴データD3から、図4に示すユーザーAの個人データJD11に登録されている電話番号とメールアドレスが何度使用されているかを検出することができる。なお、電話通話のカウントに関して、ユーザーAに発信したにも関わらずユーザーAが応答しない場合やユーザーAから当該ユーザーに対して着信があった場合、当該ユーザーが電話にでることができず不在着信となった場合はカウント除外とする。これにより、情報端末2のユーザーから利用相手であるユーザーAへ電話の発信が5回、ユーザーAから当該ユーザーに対して着信が4回、情報端末2のユーザーからユーザーAへメールの発信が3回、ユーザーAから情報端末2のユーザーに対してのメールの受信が3回、情報端末2のユーザーからユーザーAへのアプリケーション通信を使用した発信が1回、ユーザーAから情報端末2のユーザーに対して着信が1回となり、情報端末2のユーザーとユーザーAのコミュニケーション数は合計17回となる。   Hereinafter, the user A in the communication determination result D255 of FIG. From the communication history data D3, it is possible to detect how many times the telephone number and mail address registered in the personal data JD11 of the user A shown in FIG. 4 are used. As for the number of telephone calls, if user A does not answer even though the call is made to user A, or if user A receives an incoming call to the user, the user cannot answer the call and the missed call If it becomes, the count is excluded. As a result, the user of the information terminal 2 makes five outgoing calls to the user A who is the other party, the user A makes four incoming calls to the user, and the user of the information terminal 2 sends three emails to the user A. Times, user A receives the mail from the information terminal 2 to the user three times, and the information terminal 2 uses the application communication from the user A to the user A once. On the other hand, there is one incoming call, and the total number of communication between the user of the information terminal 2 and the user A is 17 times.

さらに、ユーザーB、ユーザーCについてもグループ設定が行われ、コミュニケーション判定処理により、コミュニケーション履歴データD3に基づくユーザーBとのコミュニケーション数は31回、ユーザーCとのコミュニケーション数は20回と判定される。   Further, group setting is also performed for the users B and C, and the communication determination process determines that the number of communication with the user B based on the communication history data D3 is 31 times and the number of communication with the user C is 20 times.

その結果、得られたコミュニケーション数(判定結果)により、情報端末2のユーザーがどのユーザーとコミュニケーションをとっているかを順位付けすると、ユーザーBがコミュニケーション機能の利用頻度ランク(RANK)1位、ユーザーCが同ランク2位、ユーザーAが同ランク3位となるコミュニケーション判定結果D255を得ることができる。   As a result, when ranking the user with whom the information terminal 2 is communicating with the number of communication (judgment result) obtained, the user B ranks first in the communication function usage frequency rank (RANK), and the user C Can obtain the communication determination result D255 in which the user ranks second and the user A ranks third.

以上のように、電話帳データD2とコミュニケーション履歴データD3とより、情報端末2のユーザーがどのユーザーとコミュニケーション機能の利用頻度により分類(順位づけ)したコミュニケーション判定結果D255を得ることができる。   As described above, from the telephone directory data D2 and the communication history data D3, it is possible to obtain the communication determination result D255 that is classified (ranked) by the user of the information terminal 2 and the usage frequency of the communication function.

その結果、図6(b) に示すように、コミュニケーション検出部253は、コミュニケーション判定結果D255に沿って電話帳データD2の登録人数分の個人情報を複数の識別項目(コミュニケーション頻度のランキング等)に分類した個人情報識別データD23を得ることができる。   As a result, as shown in FIG. 6B, the communication detection unit 253 sets the personal information for the number of registered persons in the phone book data D2 in accordance with the communication determination result D255 into a plurality of identification items (such as ranking of communication frequency). The classified personal information identification data D23 can be obtained.

例えば、図6(b) で示す個人情報識別データD23では、ユーザーAのグループ設定は「友人」であり、コミュニケーション機能の利用頻度はランク3に分類される。また、ユーザーBのグループ設定は「家族・親戚」であり、コミュニケーション機能の利用頻度はランクに分類され、ユーザーCのグループ設定は「同僚」であり、コミュニケーション機能の利用頻度はランク2に分類される。したがって、各グループがユーザーA,B,Cに代表される場合、グループ単位のコミュニケーション機能の利用頻度は、家族・親戚がランク1、同僚がランク2、友人がランク3に分類される。   For example, in the personal information identification data D23 shown in FIG. 6B, the group setting of the user A is “friend”, and the usage frequency of the communication function is classified into rank 3. User B's group setting is “Family / Relatives”, communication function usage frequency is classified into ranks, User C group setting is “colleagues”, and communication function usage frequency is classified as rank 2. The Therefore, when each group is represented by users A, B, and C, the usage frequency of the communication function in units of groups is classified into rank 1 for family / relatives, rank 2 for colleagues, and rank 3 for friends.

このようにして得られた個人情報識別データD23がコミュニケーション履歴DB255に格納される。なお、コミュニケーション履歴DB255は記憶部10内に格納しても良いし、相関表示作成手段25専用に設けも良い。   The personal information identification data D23 obtained in this way is stored in the communication history DB 255. The communication history DB 255 may be stored in the storage unit 10 or provided exclusively for the correlation display creating means 25.

その後、ステップS12において、画像表示手段13は、ステップS8で写真DB254に格納された相関画像データD12と、ステップS11でコミュニケーション履歴DB255に格納された個人情報識別データD23との組合せであるユーザー相関図データD25に基づき、画像データD1で規定された複数の(顔検出)写真情報の少なくとも一部に、複数種の識別項目(ランクA〜C)のいずれかを必要に応じて設定グループを関連付けた形式の表示用画像を表示画面上に表示する。   Thereafter, in step S12, the image display means 13 is a user correlation diagram which is a combination of the correlation image data D12 stored in the photograph DB 254 in step S8 and the personal information identification data D23 stored in the communication history DB 255 in step S11. Based on the data D25, at least a part of a plurality of (face detection) photographic information defined by the image data D1 is associated with one of a plurality of types of identification items (ranks A to C) as necessary. Display the format display image on the display screen.

さらに、画像表示手段13は、ユーザーが表示用画面のタッチパネル機能等を利用した選択操作内容に沿って、画像データD1内の複数の写真情報のうち印刷対象の写真情報を指示する印刷制御信号SC13を印刷データ作成手段11に出力する。   Further, the image display means 13 prints a print control signal SC13 for instructing photo information to be printed among a plurality of pieces of photo information in the image data D1 in accordance with the selection operation contents using the touch panel function or the like of the display screen. Is output to the print data creation means 11.

(画像表示手段13による表示例等)
図7及び図8はユーザー相関図データD25に基づく画像表示手段13による表示用画面上における表示用画像の表示例を示す説明図である。図7は表示用画面を画像選択画面27としたユーザー別の表示例、図8は表示用画面を画像選択画面32としたグループ別の表示例を示している。
(Example of display by image display means 13)
7 and 8 are explanatory views showing display examples of display images on the display screen by the image display means 13 based on the user correlation diagram data D25. FIG. 7 shows a display example for each user using the display screen as the image selection screen 27, and FIG. 8 shows a display example for each group using the display screen as the image selection screen 32.

図7に示す画像選択画面27の左上方の表示方法ボタン31のユーザー表示ボタン31bに対しタッチ等による選択操作を施すことによりユーザー別表示となり、グループ表示ボタン31aに対し選択操作を施すことによりグループ別表示となる。   The user display button 31b of the display method button 31 in the upper left of the image selection screen 27 shown in FIG. 7 is displayed by user by performing a selection operation by touch or the like, and the group display button 31a is selected by performing a selection operation. It will be displayed separately.

図7及び図8では、画像出力装置1にてユーザーが所望のプリント画像を選択する表示画面であるユーザー別及びグループ別の画像選択画面27及び32を示している。画像選択画面27(32)の画面左側では情報端末2のユーザーと他のユーザーの関連性を示している。   7 and 8 show user-specific and group-specific image selection screens 27 and 32, which are display screens for the user to select a desired print image in the image output apparatus 1. FIG. The left side of the image selection screen 27 (32) shows the relationship between the user of the information terminal 2 and other users.

画像選択画面27上において、個人情報識別データD23に基づき、コミュニケーション機能の利用頻度が最も高い識別項目に分類されたユーザーがユーザーBであることを線の太さと丸数字の順位で示されており、以下ユーザーCとユーザーAの順となることが示されている。   On the image selection screen 27, based on the personal information identification data D23, the user classified as the identification item with the highest frequency of use of the communication function is indicated by the thickness of the line and the order of the circle numbers. In the following, it is shown that user C and user A are in this order.

図7(図8)の例では順位(ランク)が1位から3位までとなっているが、もちろんこの限りではなく表示するユーザー数(グループ数)は、相関画像データD12と個人情報識別データD23との関係等により適宜変化させてよい。また、図7では、ユーザーB、ユーザーC及びユーザーAに対応して第1優先選択ボタン281、第2優先選択ボタン282及び第3優先選択ボタン283が割り当てられており、図8では、家族・親戚、同僚、及び友人に対応して第1優先選択ボタン331、第2優先選択ボタン332及び第3優先選択ボタン333が割り当てられている。   In the example of FIG. 7 (FIG. 8), the rank (rank) is from 1st to 3rd. Of course, this is not restrictive, and the number of users to be displayed (number of groups) is correlated image data D12 and personal information identification data. You may change suitably by the relationship with D23. In FIG. 7, a first priority selection button 281, a second priority selection button 282, and a third priority selection button 283 are assigned to user B, user C, and user A. In FIG. A first priority selection button 331, a second priority selection button 332, and a third priority selection button 333 are assigned to relatives, colleagues, and friends.

図7に示すように、画像選択画面27の右側では、画像出力装置1を操作するユーザーにより第1優先選択ボタン281(破線にて表示)によってユーザーBが選択された際の写真データPD11〜PD14が表示されている。ユーザー選択ボタン281による選択操作にユーザーBが選択されたことにより、写真DB254における相関画像データD12に基づき、画像データD1のうちユーザーBが写っている顔検出写真情報である写真データPD11〜PD14が優先的に表示される態様の表示用画像を、画像表示手段13は表示用画面上に表示する。この際、写真データPD11〜PD14においてユーザーBを特定する選択ボックスSB1〜SB4が併せて表示される。選択ボックスSB1〜SB4は、例えば、相関画像データD12が顔画像の位置情報をさらに指示することにより、画像表示手段13により実現することができる。   As shown in FIG. 7, on the right side of the image selection screen 27, photo data PD11 to PD14 when the user B is selected by the user operating the image output apparatus 1 with the first priority selection button 281 (displayed by a broken line). Is displayed. When the user B is selected for the selection operation by the user selection button 281, based on the correlation image data D 12 in the photograph DB 254, the photograph data PD 11 to PD 14 that are face detection photograph information in which the user B is captured in the image data D 1 are displayed. The image display means 13 displays the display image in a preferentially displayed form on the display screen. At this time, selection boxes SB1 to SB4 for specifying the user B in the photo data PD11 to PD14 are also displayed. The selection boxes SB <b> 1 to SB <b> 4 can be realized by the image display unit 13 when the correlation image data D <b> 12 further indicates the position information of the face image, for example.

このように、ランク1に分類されたユーザーB用の写真情報として画像データD1で規定された複数の(顔検出)写真情報の少なくとも一部である写真データPD11〜PD14(写真情報)が関連付けられた形式の表示用画像が画像選択画面27上に表示される。   In this way, the photo data PD11 to PD14 (photo information), which are at least a part of the plurality of (face detection) photo information defined by the image data D1 as the photo information for the user B classified as rank 1, are associated. The display image of the selected format is displayed on the image selection screen 27.

また、画像選択画面27では期間設定ボタン29にて、コミュニケーション履歴DB255内の個人情報識別データD23の生成条件としての期間設定が行える。これにより、特定の指定期間における情報端末2のユーザーと他ユーザーとのコミュニケーション機能の関連性を示すユーザー相関図データD25に基づく表示用画像を画像選択画面27上に表示することができる。   In the image selection screen 27, a period setting button 29 can be used to set a period as a generation condition of the personal information identification data D23 in the communication history DB 255. Thereby, the display image based on the user correlation diagram data D25 indicating the relevance of the communication function between the user of the information terminal 2 and another user in a specific designated period can be displayed on the image selection screen 27.

上記のように、画像表示手段13に対するユーザーによる操作によりユーザー相関図データD25の変更を要する場合、画像表示手段13は適宜、相関表示作成手段25に対し、操作情報(新たなユーザー相関図データD25の作成指示とそれに必要な情報)の転送を相関表示作成手段25に対して行う。   As described above, when the user correlation diagram data D25 needs to be changed by the user's operation on the image display unit 13, the image display unit 13 appropriately sends operation information (new user correlation diagram data D25 to the correlation display creation unit 25). And the necessary information) are transferred to the correlation display creating means 25.

そして、画像表示手段13から上記操作情報を受けたコミュニケーション検出部253は、画像表示手段13で設定された指定期間をコミュニケーション判定処理における判定対象期間として、上述したコミュニケーション判定処理を実行する期間指定分類機能を備えている。   The communication detection unit 253 that receives the operation information from the image display unit 13 sets the specified period set in the image display unit 13 as the determination target period in the communication determination process, and executes the above-described communication determination process. It has a function.

すなわち、相関表示作成手段25のコミュニケーション検出部253は、期間設定ボタン29による設定内容に基づく指定期間を個人情報識別データD23の生成条件としてステップS10のコミュニケーション判定処理を改めて行う。   That is, the communication detection unit 253 of the correlation display creating unit 25 performs the communication determination process in step S10 again using the specified period based on the setting content by the period setting button 29 as the generation condition of the personal information identification data D23.

期間設定の使用方法として、例えば、情報端末2のユーザーがある時期に旅行に行ったとする。この場合、情報端末2のユーザーは旅行に行く前には旅行の同行者とは連絡を密に取ることが想定できる。よって、その旅行期間の少し前を指定期間として期間設定すると、一緒に旅行行った同行者は、ユーザー相関図データD25における情報端末2のユーザーとのコミュニケーション機能の利用頻度が上位に順位付け(分類)されるため、画像表示手段13は、ユーザー相関図データD25に基づき簡易に旅行同行者との写真情報を表示用画像として優先的に画像選択画面27上に表示することができる。   As a method for using the period setting, for example, it is assumed that the user of the information terminal 2 goes on a trip at a certain time. In this case, it can be assumed that the user of the information terminal 2 is in close contact with the travel companion before going on a trip. Therefore, when the designated period is set a short time before the travel period, the travel companion is ranked higher in the frequency of use of the communication function with the user of the information terminal 2 in the user correlation diagram data D25 (classification). Therefore, the image display means 13 can preferentially display the photo information with the travel companion as the display image on the image selection screen 27 based on the user correlation diagram data D25.

画像選択画面27の右側下部には画像ソートボタン30があり、表示する画像データを撮影日の新しい順や古い順、画像データのファイル名の昇順や降順にさらにソートすることができる。新規順ソートボタン30aにより新しい順、新規逆順ソートボタン30bにより古い順、名称昇順ソートボタン30cによりファイル名昇順、画像ソートボタン30によりファイル名降順のソート内容指定が行える。これらのソート処理においても、記憶部10に格納されたソート用プログラムを制御部26が相関表示作成手段25として実行することにより、容易に実現することができる。   An image sort button 30 is provided on the lower right side of the image selection screen 27, and the image data to be displayed can be further sorted in the order of the shooting date from the newest to the oldest, the ascending order or the descending order of the file name of the image data. The sort contents can be designated in the new order by the new order sort button 30a, the old order by the new reverse order sort button 30b, the file name ascending order by the name ascending order sort button 30c, and the file name descending order by the image sort button 30. These sort processes can also be easily realized by the control unit 26 executing the sort program stored in the storage unit 10 as the correlation display creating means 25.

次に、図8を参照して、表示方法ボタン31のグループ表示ボタン31aを選択操作することにより、図7で示す画像選択画面27によるユーザー別表示から、図8で示す画像選択画面32によるグループ別表示に切り換えられた場合について説明する。   Next, referring to FIG. 8, by selecting and operating the group display button 31a of the display method button 31, the group by the image selection screen 32 shown in FIG. 8 is changed from the display by user on the image selection screen 27 shown in FIG. A case where the display is switched to another display will be described.

画像選択画面32の左側では情報端末2のユーザーと電話帳データD2におけるグループ設定の相関図を示している。画像選択画面32でのグループ設定との相関図については、グループ内に属する各ユーザー人数およびコミュニケーション機能の利用頻度によって決定する。   On the left side of the image selection screen 32, a correlation diagram between the user of the information terminal 2 and the group setting in the phone book data D2 is shown. The correlation diagram with the group setting on the image selection screen 32 is determined depending on the number of users belonging to the group and the use frequency of the communication function.

画像選択画面32では、説明の都合上、コミュニケーション機能の利用頻度による識別項目として、ユーザーBのみが属する家族・親戚グループがランク1位、ユーザーCのみが属する同僚グループがランク2位、ユーザーAのみが属する友人グループがランク3位となっている場合を示している。   On the image selection screen 32, for convenience of explanation, as an identification item based on the frequency of use of the communication function, the family / relative group to which only the user B belongs is ranked first, the colleague group to which only the user C belongs is ranked second, only the user A This shows a case where the friend group to which No. 3 belongs is ranked third.

図8では第3優先選択ボタン333によりグループ「友人」が選択されていることにより、図4に示す電話帳データD2においてグループ設定が友人となっているユーザーAが撮影された写真データPD21〜PD24(写真情報)が優先的に画像選択画面32上に表示される。画像選択画面32でも画像選択画面27と同様に表示したユーザーAの画像について、画像ソートボタン30による画像のソートが行える。   In FIG. 8, when the group “friend” is selected by the third priority selection button 333, the photograph data PD21 to PD24 in which the user A whose group setting is the friend in the phone book data D2 shown in FIG. (Photo information) is preferentially displayed on the image selection screen 32. In the image selection screen 32, the image sorting by the image sort button 30 can be performed on the image of the user A displayed in the same manner as the image selection screen 27.

なお、画像表示手段13の操作(選択ボタン281〜283,331〜333の操作、期間設定ボタン29による期間指定操作、画像ソートボタン30のソート処理操作)が行われると、ユーザー相関図データD25の内容変更が必要な場合がある。この場合、前述したように、画像表示手段13の操作情報が相関表示作成手段25に伝達され、相関表示作成手段25により画像表示手段13からの操作情報に合致したユーザー相関図データD25の生成処理が行われる。   When the operation of the image display means 13 (the operation of the selection buttons 281 to 283, 331 to 333, the period specifying operation by the period setting button 29, the sort processing operation of the image sort button 30) is performed, the user correlation diagram data D25 The content may need to be changed. In this case, as described above, the operation information of the image display means 13 is transmitted to the correlation display creation means 25, and the correlation display creation means 25 generates the user correlation diagram data D25 that matches the operation information from the image display means 13. Is done.

(効果等)
以上説明したように、本発明の実施の形態の画像出力装置1によれば、画像出力装置1において、情報端末2に保存された画像データD1を表示する際に、情報端末2にて通信を行ったユーザーとのコミュニケーション履歴データD3の内容を反映させたユーザー相関図データD25に基づく表示用画像を表示するため、情報端末2のユーザーと親密に連絡を取り合うユーザーとの画像データを優先的に表示することができ、当該ユーザーの画像検索に要する手順を簡易にすることができる。
(Effects etc.)
As described above, according to the image output device 1 of the embodiment of the present invention, when the image data D1 stored in the information terminal 2 is displayed on the image output device 1, the information terminal 2 performs communication. In order to display the display image based on the user correlation diagram data D25 reflecting the contents of the communication history data D3 with the user who performed, image data with the user in close contact with the user of the information terminal 2 is given priority. It can be displayed and the procedure required for the user's image search can be simplified.

近年、ユーザー同士のコミュニケーション装置として大きな役割を占めている情報端末2のコミュニケーション履歴データD3を使用するため、ユーザー同士の関係性がリアルタイムに反映されるユーザー相関図データD25を作成することができる。   In recent years, since the communication history data D3 of the information terminal 2 occupying a large role as a communication device between users is used, user correlation diagram data D25 in which the relationship between users is reflected in real time can be created.

上記のように、本実施の形態の画像出力装置1における画像表示手段13は、画像データD1が規定する複数の写真情報の少なくとも一部に、相関表示作成手段25より得られたユーザー相関図データD25に基づき、複数種の識別項目(コミュニケーションの利用頻度順位等)のいずれかを関連付けた態様の表示用画像を表示用画面上に表示する。このため、情報端末2のユーザーは、画像表示手段13の表示用画面上に表示される表示用画像から、写真情報と情報端末2のユーザーとの関連性を容易に理解することができる。この際、情報端末2のユーザーは従来のようにサーバーへのユーザー登録、アップロード等の操作を行う必要がないため、ユーザーに負担がかかることもない。   As described above, the image display unit 13 in the image output apparatus 1 according to the present embodiment has the user correlation diagram data obtained from the correlation display creation unit 25 in at least a part of a plurality of pieces of photographic information defined by the image data D1. Based on D25, a display image in a form in which any one of a plurality of types of identification items (communication use frequency order or the like) is associated is displayed on the display screen. Therefore, the user of the information terminal 2 can easily understand the relationship between the photographic information and the user of the information terminal 2 from the display image displayed on the display screen of the image display means 13. At this time, since the user of the information terminal 2 does not need to perform operations such as user registration and upload to the server as in the past, there is no burden on the user.

また、画像出力装置1内において、印刷データ作成手段11,プリントデータ送信手段12及びプリンタ4からなる写真印刷部は、画像表示手段13からの印刷制御信号SC13に基づくことより、複数種の識別項目のいずれかと関連性が高い写真を選択的に印刷することができる。   In the image output apparatus 1, the photo printing unit including the print data creation unit 11, the print data transmission unit 12, and the printer 4 is based on the print control signal SC 13 from the image display unit 13, so that a plurality of types of identification items are obtained. It is possible to selectively print a photo highly relevant to any of the above.

相関表示作成手段25の個人情報識別部であるコミュニケーション検出部253は、コミュニケーション履歴データD3に基づき、情報端末2のユーザーのコミュニケーション機能の利用頻度に対応させる形式で複数種の識別項目を分類する、コミュニケーション判定処理(識別項目分類処理)を実行している。このため、コミュニケーション機能の利用頻度の高い利用相手に関連性を持たせて、画像表示手段13によって表示用画像を表示用画面上に表示するができ、その結果、情報端末2のユーザーに親しい人の写真情報の選択を容易にすることができる。   The communication detection unit 253 which is a personal information identification unit of the correlation display creating unit 25 classifies a plurality of types of identification items in a format corresponding to the frequency of use of the communication function of the user of the information terminal 2 based on the communication history data D3. A communication determination process (identification item classification process) is executed. For this reason, it is possible to display a display image on the display screen by the image display means 13 with relevance to the other party who frequently uses the communication function, and as a result, a person familiar with the user of the information terminal 2 The selection of photo information can be facilitated.

なお、本実施の形態では、通話履歴データD31、メール履歴データD32及びアプリケーション通信履歴データD33による総合的なコミュニケーション機能の利用頻度によりランクづけをしたが、通話履歴データD31,メール履歴データD32及びアプリケーション通信履歴データD33それぞれ個別、あるいは2つの組合せの履歴データの利用頻度によってランクづけをしても良い。   In the present embodiment, ranking is performed according to the usage frequency of the overall communication function based on the call history data D31, the mail history data D32, and the application communication history data D33, but the call history data D31, the mail history data D32, and the application The communication history data D33 may be ranked according to the frequency of use of history data individually or in combination of two.

例えば、コミュニケーション検出部253により、通話履歴データD31のみに基づき、情報端末2のユーザーの電話機能の利用頻度に対応させる形式で複数種の識別項目を分類してコミュニケーション判定処理を実行させることが考えられる。この場合、電話機能の利用頻度の高い利用相手に関連性を持たせて、画像表示手段13により表示用画像を表示用画面上に表示することができ、その結果、情報端末2のユーザーとの電話通信頻度に基づき判定された親しい人の写真情報の選択を容易にすることができる。   For example, the communication detection unit 253 may perform communication determination processing by classifying a plurality of types of identification items in a format corresponding to the usage frequency of the telephone function of the user of the information terminal 2 based only on the call history data D31. It is done. In this case, it is possible to display the display image on the display screen by the image display means 13 with relevance to the other party who frequently uses the telephone function, and as a result, with the user of the information terminal 2 It is possible to easily select the photo information of the close person determined based on the telephone communication frequency.

また、コミュニケーション検出部253により、メール履歴データD32にのみに基づき、情報端末2のユーザーとの電子メール機能の利用頻度に対応させる形式で複数種の識別項目を分類してコミュニケーション判定処理を実行させることが考えられる。この場合、電子メール機能の利用頻度の高い利用相手に関連性を持たせて、表示用画像を表示用画面上に表示することができ、その結果、情報端末2のユーザーの電子メール通信頻度に基づき判定されたに親しい人の写真情報の選択を容易にすることができる。   Further, the communication detection unit 253 classifies a plurality of types of identification items in a format corresponding to the usage frequency of the electronic mail function with the user of the information terminal 2 based on only the mail history data D32, and executes the communication determination process. It is possible. In this case, the display image can be displayed on the display screen with relevance to the other party who frequently uses the e-mail function, and as a result, the e-mail communication frequency of the user of the information terminal 2 can be increased. It is possible to facilitate selection of photograph information of a person who is close based on the determination.

コミュニケーション検出部253は、画像表示手段13の期間設定ボタン29で指定された指定期間を生成条件としてコミュニケーション判定処理を実行する期間指定分類機能を有することにより、指定期間に限定して、情報端末2のユーザーのコミュニケーション機能の利用頻度に基づき判定された親しい人の写真情報の選択を容易にすることができる。   The communication detection unit 253 has a period designation classification function for executing the communication determination process using the designation period designated by the period setting button 29 of the image display means 13 as a generation condition, thereby limiting the information terminal 2 to the designation period. It is possible to easily select the photo information of a close person determined based on the frequency of use of the user's communication function.

コミュニケーション検出部253は、電話帳データD2がグループ情報を含んでいる場合、グループ情報単位にコミュニケーション判定処理を実行することができるため、情報端末2のユーザーに対し特定の関係性を有するグループに関連づけて、表示用画像を表示用画面上に表示することができ、その結果、情報端末のユーザーに対し特定の関係性を有する利用相手の写真情報の選択を容易にすることができる。   When the telephone directory data D2 includes group information, the communication detection unit 253 can execute a communication determination process in units of group information, and thus associates with a group having a specific relationship with the user of the information terminal 2 Thus, the display image can be displayed on the display screen, and as a result, it is possible to easily select the photo information of the use partner having a specific relationship with the user of the information terminal.

(画像処理方法)
図3で示した相関表示作成手段25及び画像表示手段13による処理手順を、以下のステップ(a) 〜(d) からなる画像処理方法として本発明を展開することができる。
(Image processing method)
The processing procedure by the correlation display creating means 25 and the image display means 13 shown in FIG. 3 can be developed as an image processing method comprising the following steps (a) to (d).

(a) 複数の写真情報を含む画像データD1と、各々が顔画像情報と関連付けられた登録人数分の個人情報であり、情報端末2に登録されたモバイルデータD20(画像データD1及び電話帳データD2)とを入力するステップと、
(b) 画像データD1で規定される複数の写真情報それぞれと、電話帳データD2における登録人数分の顔画像情報それぞれとを画像比較し、写真情報単位に顔画像情報が合致した個人情報を関連づけて相関画像データD12を得るステップと、
(c) モバイルデータD20に基づき、登録人数分の個人情報を複数種の識別項目(コミュニケーション機能の利用頻度等)に分類した個人情報識別データD23を得るステップとを備え、相関画像データD12と個人情報識別データD23との組合せがユーザー相関図データD25として規定され、
(d) ユーザー相関図データD25(相関画像データD12+個人情報識別データD23)に基づき、画像データD1における複数の写真情報の少なくとも一部に、ステップ(c) で分類した複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示するステップをさらに備えた画像処理方法。
(a) Image data D1 including a plurality of pieces of photo information and personal information for each registered person associated with the face image information, and mobile data D20 (image data D1 and phone book data registered in the information terminal 2) D2), and
(b) Image comparison is made between each of a plurality of pieces of photo information defined by the image data D1 and face image information corresponding to the number of registered persons in the phone book data D2, and personal information matching the face image information is associated with each photo information unit. Obtaining correlation image data D12,
(c) obtaining personal information identification data D23 obtained by classifying personal information corresponding to the number of registered persons into a plurality of types of identification items (such as frequency of use of communication function) based on mobile data D20. A combination with the information identification data D23 is defined as user correlation diagram data D25,
(d) Based on the user correlation diagram data D25 (correlation image data D12 + personal information identification data D23), any one of the plurality of types of identification items classified in step (c) is included in at least a part of the plurality of photographic information in the image data D1. An image processing method further comprising a step of displaying a display image in an associated form on the display screen.

上記画像処理方法におけるステップ(d) は、画像データD1が規定する複数の写真情報の少なくとも一部に、ステップ(b) 及びステップ(c) で得られたユーザー相関図データD25に基づき、複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示する。このため、情報端末2のユーザーは、ステップ(d) において表示用画面上に表示される表示用画像から、写真情報と情報端末2のユーザーとの関連性を容易に理解することができる効果を奏する。   In step (d) in the image processing method, at least a part of a plurality of pieces of photographic information defined by the image data D1 is classified into a plurality of types based on the user correlation diagram data D25 obtained in steps (b) and (c). A display image in a form associated with any one of the identification items is displayed on the display screen. Therefore, the user of the information terminal 2 can easily understand the relationship between the photo information and the user of the information terminal 2 from the display image displayed on the display screen in step (d). Play.

なお、上述した(a) 〜(d) の処理は、例えば、制御部26によるソフトウェアに基づくプログラム処理により実現可能である。   The processes (a) to (d) described above can be realized by program processing based on software by the control unit 26, for example.

(その他)
また、本実施の形態では電話帳データD2とコミュニケーション履歴データD3をモバイルデータD20として、画像出力装置1に取り込み、画像出力装置1の相関表示作成手段25にて個人情報識別データD23を作成する構成を示した。
(Other)
In the present embodiment, the telephone directory data D2 and the communication history data D3 are taken into the image output device 1 as mobile data D20, and the personal information identification data D23 is created by the correlation display creating means 25 of the image output device 1. showed that.

しかし、この方法に限らず情報端末2内にユーザー相関図作成のためのアプリケーションをインストールし、かつ、情報端末2内で写真DBとコミュニケーションDBをもたせ、画像データD1と共にユーザー相関図データD25を画像出力装置1に読み込ませる構成にすることも可能である。   However, the present invention is not limited to this method. An application for creating a user correlation diagram is installed in the information terminal 2, and a photo DB and a communication DB are provided in the information terminal 2, and the user correlation diagram data D25 is imaged together with the image data D1. A configuration in which the output device 1 is read is also possible.

例えば、画像出力装置1内における相関表示作成手段25及び記憶部10を情報端末2に取り込んだ態様も考えられる。すなわち、情報端末2内にて相関表示作成手段25用のアプリケーションプログラムを実行させ、ユーザー相関図データD25を作成するようにしてもよい。   For example, a mode in which the correlation display creating means 25 and the storage unit 10 in the image output apparatus 1 are taken into the information terminal 2 is also conceivable. That is, the user correlation diagram data D25 may be created by executing an application program for the correlation display creating means 25 in the information terminal 2.

上記例では、図3のステップS2〜S11の処理を情報端末2が実行することにより、ステップS12の処理のみ画像出力装置1の画像表示手段13が実行することになる。そして、画像出力装置1内の画像表示手段13が情報端末2から画像データD1及びユーザー相関図データD25を受けることになる。   In the above example, when the information terminal 2 executes the processes of steps S2 to S11 in FIG. 3, only the process of step S12 is executed by the image display unit 13 of the image output apparatus 1. Then, the image display means 13 in the image output device 1 receives the image data D1 and the user correlation diagram data D25 from the information terminal 2.

なお、情報端末2が表示用画面を有している場合、記憶部10、相関表示作成手段25に加え、画像表示手段13の機能を内蔵する構成も考えられる。   When the information terminal 2 has a display screen, a configuration in which the function of the image display unit 13 is built in addition to the storage unit 10 and the correlation display creation unit 25 is also conceivable.

上記例では、図3のステップS2〜S12の処理を情報端末2が実行することによる。そして、画像出力装置1内の印刷データ作成手段11が情報端末2から画像データD1及び印刷制御信号SC13を受けることになる。   In the above example, the information terminal 2 executes the processes of steps S2 to S12 in FIG. Then, the print data creation means 11 in the image output apparatus 1 receives the image data D1 and the print control signal SC13 from the information terminal 2.

また、メモリーカードなどのカードメディア記憶媒体を用いて、画像データをプリントする際にも使用するメモリーカード内に写真DBとコミュニケーションDBを作成しておき、メモリーカードに保存されている画像データと同時に画像出力装置に取り込ませることにより、画像出力装置1によりユーザー相関図データD25に基づく画像表示が可能となる。この場合、カードメディア自体が相関表示作成手段25及び記憶部10を内蔵した情報端末2と等価な構成として扱われる。   Also, using a card media storage medium such as a memory card, a photo DB and a communication DB are created in the memory card that is also used when printing image data, and simultaneously with the image data stored in the memory card. By taking the image into the image output device, the image output device 1 can display an image based on the user correlation diagram data D25. In this case, the card medium itself is treated as an equivalent configuration to the information terminal 2 incorporating the correlation display creating means 25 and the storage unit 10.

また、情報端末2内に保存された画像データD1で規定された複数の写真情報に基づき、スナップ写真、あるいは、集合写真などから顔情報と個々人間の親密度の情報を取得して、コミュニケーション履歴DB255の登録情報に加えて、ユーザー相関図データD25を作成するようにしてもよい。   Further, based on a plurality of pieces of photo information defined by the image data D1 stored in the information terminal 2, face information and individual closeness information are obtained from a snapshot or a group photo, and a communication history In addition to the registration information in the DB 255, user correlation diagram data D25 may be created.

なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。   In the present invention, the embodiments can be appropriately modified and omitted within the scope of the invention.

1 画像出力装置、2 情報端末、3 受付端末、4,41〜4n プリンタ、6 記憶媒体、10 記憶部、11 印刷データ作成手段、12 プリントデータ送信手段、13 画像表示手段、25 相関表示作成手段、26 制御部、251 画像検出部、252 判定部、253 コミュニケーション検出部、254 写真DB、255 コミュニケーション履歴DB。   DESCRIPTION OF SYMBOLS 1 Image output device, 2 Information terminal, 3 Reception terminal, 4, 41-4n Printer, 6 Storage medium, 10 Storage part, 11 Print data creation means, 12 Print data transmission means, 13 Image display means, 25 Correlation display creation means , 26 control unit, 251 image detection unit, 252 determination unit, 253 communication detection unit, 254 photo DB, 255 communication history DB.

Claims (8)

複数の写真情報を含む画像データと、各々が顔画像情報と関連付けられた登録人数分の個人情報である情報端末登録データとに基づき、画像処理を行う画像処理装置であって、
前記画像データ及び前記情報端末登録データを受け、前記複数の写真情報それぞれと前記登録人数分の前記顔画像情報それぞれとを画像比較し、前記写真情報単位に前記顔画像情報が合致した前記個人情報を関連づけた相関画像データを得る画像判定部と、
前記情報端末登録データに基づき、前記登録人数分の個人情報を複数種の識別項目に分類した個人情報識別データを得る識別項目分類処理を実行する個人情報識別部と、
前記相関画像データ及び前記個人情報識別データに基づき、前記画像データにおける前記複数の写真情報の少なくとも一部に、前記複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示する画像表示手段とを備える、
画像処理装置。
An image processing device that performs image processing based on image data including a plurality of pieces of photo information and information terminal registration data that is personal information for each registered person associated with face image information,
Receiving the image data and the information terminal registration data, comparing each of the plurality of photo information with each of the face image information for the number of registered persons, and the personal information in which the face image information matches in units of the photo information An image determination unit for obtaining correlated image data associated with
Based on the information terminal registration data, a personal information identification unit for executing identification item classification processing for obtaining personal information identification data obtained by classifying personal information for the number of registered persons into a plurality of types of identification items;
Based on the correlation image data and the personal information identification data, a display image in a form in which any one of the plurality of types of identification items is associated with at least a part of the plurality of pieces of photographic information in the image data is displayed on the display screen. Image display means for displaying on
Image processing device.
請求項1記載の画像処理装置であって、
前記画像表示手段は、前記複数の写真情報のうち印刷対象の写真情報を指示する印刷制御信号をさらに出力し、
前記画像処理装置は、
前記印刷制御信号に基づき、前記画像データにおける前記複数の写真情報を選択的に印刷する写真印刷部をさらに備える、
画像処理装置。
The image processing apparatus according to claim 1,
The image display means further outputs a print control signal for instructing photo information to be printed among the plurality of photo information,
The image processing apparatus includes:
A photo printing unit that selectively prints the plurality of photo information in the image data based on the print control signal;
Image processing device.
請求項1または請求項2記載の画像処理装置であって、
前記情報端末登録データを保持する情報端末は他の通信機器とのコミュニケーション機能を有し、
前記登録人数分の個人情報は、
前記顔画像情報と関連づけられ、少なくとも前記コミュニケーション機能の利用相手を指示するコミュニケーション利用者情報と、
前記コミュニケーション機能の利用履歴を利用相手を特定して示すコミュニケーション履歴情報とをさらに含み、
前記個人情報識別部は、前記コミュニケーション履歴情報に基づき、前記情報端末ユーザーの前記コミュニケーション機能の利用頻度に対応させる形式で前記複数種の識別項目を分類する、前記識別項目分類処理を実行する、
画像処理装置。
The image processing apparatus according to claim 1 or 2,
The information terminal holding the information terminal registration data has a communication function with other communication devices,
The personal information for the registered number of people is
Communication user information associated with the face image information and indicating at least a communication partner of the communication function;
Further including communication history information that indicates a usage partner of the communication function usage history,
The personal information identification unit performs the identification item classification process for classifying the plurality of types of identification items in a format corresponding to the frequency of use of the communication function of the information terminal user based on the communication history information.
Image processing device.
請求項3記載の画像処理装置であって、
前記コミュニケーション機能は他の通信機器との電話機能を含み、
前記コミュニケーション履歴情報は、前記電話機能の利用履歴を利用相手を特定して示す電話履歴情報を含み、
前記個人情報識別部は、前記電話履歴情報に基づき、前記情報端末のユーザーの前記電話機能の利用頻度に対応させる形式で前記複数種の識別項目を分類する、前記識別項目分類処理を実行する、
画像処理装置。
The image processing apparatus according to claim 3,
The communication function includes a telephone function with another communication device,
The communication history information includes telephone history information that indicates the usage history of the telephone function by identifying the other party,
The personal information identification unit performs the identification item classification process for classifying the plurality of types of identification items in a format corresponding to the frequency of use of the telephone function of the user of the information terminal based on the telephone history information.
Image processing device.
請求項3記載の画像処理装置であって、
前記コミュニケーション機能は他の通信機器との電子メール機能を含み、
前記コミュニケーション履歴情報は、前記電子メール機能の利用履歴を利用相手を特定して示す電子メール履歴情報を含み、
前記個人情報識別部は、前記電子メール履歴情報に基づき、前記情報端末ユーザーの前記電子メール機能の利用頻度に対応させる形式で前記複数種の識別項目を分類する、前記識別項目分類処理を実行する、
画像処理装置。
The image processing apparatus according to claim 3,
The communication function includes an e-mail function with other communication devices,
The communication history information includes e-mail history information that identifies and shows a use history of the e-mail function,
The personal information identification unit executes the identification item classification process that classifies the plurality of types of identification items in a format corresponding to the usage frequency of the electronic mail function of the information terminal user based on the electronic mail history information. ,
Image processing device.
請求項3から請求項5のうち、いずれか1項に記載の画像処理装置であって、
前記個人情報識別部は、指定期間における前記情報端末ユーザーの前記コミュニケーション機能の利用頻度に対応させる形式で前記識別項目分類処理を実行する期間指定分類機能を備える、
画像処理装置。
The image processing apparatus according to any one of claims 3 to 5, wherein:
The personal information identification unit includes a period designation classification function for executing the identification item classification process in a format corresponding to the frequency of use of the communication function of the information terminal user in the designation period.
Image processing device.
請求項1から請求項6のうち、いずれか1項に記載の画像処理装置であって、
前記登録人数分の個人情報は、
前記情報端末のユーザーとの関係性をグループ単位に示すグループ情報をさらに含み、
前記個人情報識別部は、前記グループ情報単位に、前記識別項目分類処理を実行する、
画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The personal information for the registered number of people is
Further includes group information indicating the relationship with the user of the information terminal in a group unit,
The personal information identification unit executes the identification item classification process for the group information unit.
Image processing device.
(a) 複数の写真情報を含む画像データと、各々が顔画像情報と関連付けられた登録人数分の個人情報である情報端末登録データを入力するステップと、
(b) 前記画像データで規定される複数の写真情報それぞれと、前記情報端末登録データにおける前記登録人数分の前記顔画像情報それぞれとを画像比較し、前記写真情報単位に顔画像情報が合致した個人情報を関連づけた相関画像データを得るステップと、
(c) 前記情報端末登録データに基づき、前記登録人数分の個人情報を複数種の識別項目に分類した個人情報識別データを得るステップと、
(d) 前記相関画像データ及び前記情報端末登録データに基づき、前記画像データにおける前記複数の写真情報の少なくとも一部に、前記ステップ(c) で分類した複数種の識別項目のいずれかを関連付けた態様の表示用画像を表示用画面上に表示するステップと、
を備える画像処理方法。
(a) inputting image data including a plurality of pieces of photo information, and information terminal registration data, each of which is personal information for the number of registered persons associated with face image information;
(b) Image comparison is made between each of a plurality of pieces of photo information defined by the image data and each of the face image information for the number of registered persons in the information terminal registration data, and the face image information is matched in units of the photo information. Obtaining correlated image data associated with personal information;
(c) obtaining personal information identification data obtained by classifying personal information for the number of registered persons into a plurality of types of identification items based on the information terminal registration data;
(d) Based on the correlation image data and the information terminal registration data, at least a part of the plurality of pieces of photographic information in the image data is associated with any of the plurality of types of identification items classified in the step (c). Displaying the display image of the aspect on the display screen;
An image processing method comprising:
JP2014067475A 2014-03-28 2014-03-28 Image processing apparatus and image processing method Expired - Fee Related JP6338418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014067475A JP6338418B2 (en) 2014-03-28 2014-03-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014067475A JP6338418B2 (en) 2014-03-28 2014-03-28 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2015191392A true JP2015191392A (en) 2015-11-02
JP2015191392A5 JP2015191392A5 (en) 2017-02-23
JP6338418B2 JP6338418B2 (en) 2018-06-06

Family

ID=54425836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014067475A Expired - Fee Related JP6338418B2 (en) 2014-03-28 2014-03-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6338418B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018500611A (en) * 2015-11-20 2018-01-11 小米科技有限責任公司Xiaomi Inc. Image processing method and apparatus
CN110084957A (en) * 2019-04-28 2019-08-02 深圳回收宝科技有限公司 A kind of method, apparatus, portable terminal and the storage medium of terminal detection
WO2023162613A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Image management system, image management method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356985A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Camera photographing device and program
JP2005184151A (en) * 2003-12-16 2005-07-07 Ntt Docomo Inc COMMUNICATION SYSTEM, TERMINAL DEVICE, SERVER, AND COMMUNICATION METHOD
JP2005297411A (en) * 2004-04-14 2005-10-27 Casio Comput Co Ltd Photo image printing apparatus and program
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2010027034A (en) * 2008-06-16 2010-02-04 Canon Inc Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2011040865A (en) * 2009-08-07 2011-02-24 Nec Casio Mobile Communications Ltd Communication terminal, and program
US8233888B1 (en) * 2010-10-21 2012-07-31 Sprint Communications Company L.P. Leveraging mobile-device analytics for informing and call handling
JP2012199871A (en) * 2011-03-23 2012-10-18 Panasonic Corp Information terminal device, information display method and information display program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356985A (en) * 2003-05-29 2004-12-16 Casio Comput Co Ltd Camera photographing device and program
JP2005184151A (en) * 2003-12-16 2005-07-07 Ntt Docomo Inc COMMUNICATION SYSTEM, TERMINAL DEVICE, SERVER, AND COMMUNICATION METHOD
JP2005297411A (en) * 2004-04-14 2005-10-27 Casio Comput Co Ltd Photo image printing apparatus and program
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2010027034A (en) * 2008-06-16 2010-02-04 Canon Inc Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2011040865A (en) * 2009-08-07 2011-02-24 Nec Casio Mobile Communications Ltd Communication terminal, and program
US8233888B1 (en) * 2010-10-21 2012-07-31 Sprint Communications Company L.P. Leveraging mobile-device analytics for informing and call handling
JP2012199871A (en) * 2011-03-23 2012-10-18 Panasonic Corp Information terminal device, information display method and information display program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018500611A (en) * 2015-11-20 2018-01-11 小米科技有限責任公司Xiaomi Inc. Image processing method and apparatus
US10013600B2 (en) 2015-11-20 2018-07-03 Xiaomi Inc. Digital image processing method and apparatus, and storage medium
CN110084957A (en) * 2019-04-28 2019-08-02 深圳回收宝科技有限公司 A kind of method, apparatus, portable terminal and the storage medium of terminal detection
WO2023162613A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Image management system, image management method, and program
JPWO2023162613A1 (en) * 2022-02-25 2023-08-31
JP7738282B2 (en) 2022-02-25 2025-09-12 パナソニックIpマネジメント株式会社 Image management system, image management method, and program

Also Published As

Publication number Publication date
JP6338418B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
US9471600B2 (en) Electronic device and method for handling tags
US7444354B2 (en) Method and apparatus for storing images, method and apparatus for instructing image filing, image storing system, method and apparatus for image evaluation, and programs therefor
US7822233B2 (en) Method and apparatus for organizing digital media based on face recognition
JP4569578B2 (en) Image transfer system, photo print device, image storage server, image transfer method, and image transfer program
US20140078177A1 (en) Image synthesizing system, image processing apparatus, and image processing method
EP1840898B1 (en) Techniques for using media keys
US20070230703A1 (en) Transmission of media keys
EP3255871B1 (en) Recording of sound information and document annotations during a meeting.
JP2019192016A (en) Print system
JP2014038429A (en) Image processor, image processing method and image processing program
KR20160044667A (en) Printing system for a photograph using a mobile phone
JP6338418B2 (en) Image processing apparatus and image processing method
JP2016173501A (en) Image processing device, image processing method, and image processing program
JP4760172B2 (en) Image processing apparatus, user ID storage terminal apparatus, photography apparatus, image processing terminal apparatus, image processing method, and image processing system
JP2004280254A (en) Content classification method and apparatus
JP2017045181A (en) Image processing apparatus, image forming apparatus, image processing method, and control program
US11170546B2 (en) Image processing apparatus, image processing method, and image processing program
JP4952410B2 (en) Address transmitting apparatus and control method therefor, mail transmitting system, address transmitting apparatus control program, and recording medium
KR20190076254A (en) Image classification and management system using application
JP2019117553A (en) Information presentation device, method and program
CN107066218A (en) Image processing system and print control program
JP2016110590A (en) Image processor, data registration method and data registration program
CN105991869A (en) Information processing device and information processing method
JP2020184165A (en) Imaged data provision system
KR102237940B1 (en) System for making and showing of augmented reality photos connected with video clips

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180508

R150 Certificate of patent or registration of utility model

Ref document number: 6338418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees