WO2020049914A1 - 画像処理装置、方法およびプログラム - Google Patents
画像処理装置、方法およびプログラム Download PDFInfo
- Publication number
- WO2020049914A1 WO2020049914A1 PCT/JP2019/030258 JP2019030258W WO2020049914A1 WO 2020049914 A1 WO2020049914 A1 WO 2020049914A1 JP 2019030258 W JP2019030258 W JP 2019030258W WO 2020049914 A1 WO2020049914 A1 WO 2020049914A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- attribute information
- image processing
- subject
- layout
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G06T11/10—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/10—Selection of transformation methods according to the characteristics of the input images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/66—Transforming electric information into light information
Definitions
- the present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program for laying out an object extracted from an image on another image.
- Patent Literature 1 extracts a logo mark from an image of a business card, determines attributes (name, address, company name) from the logo mark, and corrects the extracted character information to improve character recognition accuracy. Is described.
- Patent Document 2 discloses extracting face parts from a photograph, exaggerating and correcting the face parts according to the characteristics of the person, and combining the material parts with material information (such as a celebrity face).
- the task of extracting objects from an image, editing the extracted objects, or arranging the edited objects at any position in another image is difficult to perform on a mobile information terminal such as a smartphone with a small screen It is.
- Patent Documents 1 to 4 all presuppose work on a desktop personal computer, and do not disclose a technique for reducing the operation burden on a portable information terminal having a small screen.
- the present invention has been made in view of such a problem, an image processing apparatus that can streamline the work of laying out an object extracted from an image on another image and reduce the burden on a user who performs the work, It is intended to provide a method and a program.
- An image processing device is an image processing device that combines an object extracted from a first image with a second image, wherein the first attribute information is attribute information of the object;
- An attribute information acquisition unit that acquires surrounding attribute information that is attribute information around the object and second attribute information that is attribute information of the second image; first attribute information; surrounding attribute information;
- a determining unit that determines a layout when the object is combined with the second image based on the information; and a determining unit that determines the layout based on the layout determined by the determining unit, the first attribute information, the surrounding attribute information, and the second attribute information.
- a correction unit configured to correct at least one of the second image and the object, and a combining unit configured to combine the object with the second image based on the layout determined by the determining unit.
- the surrounding attribute information includes a tilt, a size, and a position of the object in the first image on the subject in the yaw direction, the pitch direction, and the roll direction. And at least one of the colors of the object around the object, and the second attribute information is at least one of the yaw direction, the pitch direction, the roll direction inclination, the size, and the object color of the object in the second image. including.
- the determining unit includes a tilt of the subject in the first image in the yaw direction, the pitch direction, and the roll direction, and a yaw direction, the pitch direction, and the roll of the subject in the second image.
- a layout for rotating and / or deforming the object is determined according to the difference from the inclination of the direction.
- the layout for rotating and / or deforming the object is performed by projective transformation.
- the determining unit determines a layout in which the position of the object on the subject in the second image matches the position of the object on the subject in the first image.
- the position of the first image on the subject includes at least one of a forehead and a cheek of the face of the subject of the first image, and
- the position on the subject includes at least one of a forehead and a cheek of the face of the subject in the second image.
- the correction unit enlarges or reduces the size of the object according to a difference between the size of the subject in the first image and the size of the subject in the second image. To correct the object.
- the correction unit corrects the color of the object to a color that matches the color of the second image.
- the correction unit corrects the object so as to conform to attributes around the object arranged in the second image.
- the attribute around the object arranged in the second image includes at least one of gloss and reflectance
- the correction unit sets the attribute around the object as the attribute around the object.
- the object is corrected by adding a mirror image to the object accordingly.
- the correction unit corrects the second image so that the attribute of the second image matches the attribute of the object.
- the attribute of the object includes blur of characters.
- the object includes at least one of a character and a design.
- An image processing method is an image processing method in which a computer combines an object extracted from a first image with a second image, the first attribute being attribute information of the object. Acquiring information, surrounding attribute information that is attribute information around the object, and second attribute information that is attribute information of the second image, first attribute information, surrounding attribute information, and second attribute Determining a layout for combining the object with the second image based on the information; and determining the layout of the second image and the object based on the layout, the first attribute information, the surrounding attribute information, and the second attribute information. A step of correcting at least one of them and a step of combining the object with the second image based on the layout are executed.
- the image processing program according to the fifteenth aspect of the present invention is a program for causing a computer to execute the image processing method according to the fourteenth aspect.
- a layout for combining an object with a second image is determined based on first attribute information, surrounding attribute information, and second attribute information, and the layout determined by the determination unit and the first attribute are determined. At least one of the second image and the object is corrected based on the information, the surrounding attribute information, and the second attribute information.
- Block diagram of the image processing apparatus 100 Diagram showing an example of a first image
- the figure which shows an example of the 2nd image attribute information table T3 Flow chart showing the flow of object composition processing
- FIG. 10 is a diagram illustrating an example of a corrected object obj6 in which an image modification of “moving object shake” is given to a subject “OBJ6” of “Shinkansen” in the second image corresponding to the moving object movement of “fast” object obj5;
- FIG. 1 is a block diagram of an image processing apparatus according to a preferred embodiment of the present invention.
- the image processing apparatus 100 includes a first image acquisition unit 11, a second image acquisition unit 12, an object extraction unit 13, an object attribute information extraction unit 14, a second image attribute information extraction unit 15, a layout determination unit 16, a correction unit 17, It comprises a synthesizing unit 18, a display unit 19, a display control unit 20, and an attribute information database (abbreviated as Database, DB) 21.
- Database Database
- the image processing apparatus 100 itself can be typically configured by a portable information processing terminal such as a smartphone, a tablet computer, and a notebook computer, but may be configured by a desktop computer.
- a portable information processing terminal such as a smartphone, a tablet computer, and a notebook computer, but may be configured by a desktop computer.
- the first image acquisition unit 11, the second image acquisition unit 12, the object extraction unit 13, the object attribute information extraction unit 14, the second image attribute information extraction unit 15, the layout determination unit 16, the correction unit 17, and the synthesis unit 18 may be constituted by a plurality of computers (processors).
- the processor includes a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a GPU (Graphics Processing Unit), and the like.
- the display unit 19 is configured by a display device such as a liquid crystal display.
- the display control unit 20 is configured by a display driver IC (Integrated Circuit) or the like.
- the attribute information database 21 is configured by various memories such as an SDRAM and a flash memory, but may be configured by cloud computing.
- the first image acquisition unit 11 acquires a first image from an imaging device, an external semiconductor memory, an external server connected via a network, or the like.
- the first image is an image from which an object is extracted.
- FIG. 2 shows an example of the first image.
- This first image has an object OBJ1 which is a paint of a logo "JAPAN” applied to the forehead of a person's face and an object OBJ2 which is a sun-shaped paint applied to a cheek portion of the person's face.
- object OBJ1 which is a paint of a logo "JAPAN” applied to the forehead of a person's face
- object OBJ2 which is a sun-shaped paint applied to a cheek portion of the person's face.
- the second image acquiring unit 12 acquires a second image from an imaging device, an external semiconductor memory, an external server connected via a network, or the like.
- the second image is an image to which the objects extracted from the first image are combined.
- the object extracting unit 13 extracts an object from the first image acquired by the first image acquiring unit 11.
- the object attribute information extraction unit 14 extracts object attribute information that is attribute information on an image of the extracted object and object surrounding attribute information that is attribute information of an image around the object extracted in the first image.
- the object attribute information includes the type of the object, the position of the object, if the type of the object is a character such as a logo, the character information, the size of the object, and the color information of the object.
- the object surrounding attribute information includes the type of the object image of the extracted object (for example, the face of a person), the direction of the object image of the extracted object (for example, the front direction), the size of the object image of the extracted object, The tilt angle of the tilt of the object image of the extracted object in the yaw direction, the pitch direction, and the roll direction, the position of the extracted object in the object image (for example, forehead, cheek, etc.), the color of the object image around the extracted object ( For example, when the surrounding subject is a person's forehead, the skin color of the person is included, and when the surrounding subject is a night view, black is included.
- the yaw direction refers to a direction in which a subject whose front, rear, left, right, and top and bottom are determined is rotated around the vertical axis (that is, the rotation direction in a horizontal plane), and the pitch direction refers to the left and right axes.
- the direction of rotation about the center is referred to, and the roll direction is the direction of rotation about the front and rear axes.
- the object attribute information and the object surrounding attribute information relating to the extracted object OBJ1 are stored in the attribute information DB 21 as the object attribute information table T1.
- the extracted object attribute information and the object surrounding attribute information relating to the object OBJ2 are stored in the attribute information DB 21 as the object attribute information table T2.
- An object attribute information table is created each time an object is extracted.
- the second image attribute information extracting unit 15 extracts the attribute information of the second image acquired by the second image acquiring unit 12.
- the attribute information of the second image includes the type (for example, face) of the subject in the second image, the size of the subject in the second image, the coordinates of regions having different colors, the colors assigned to the regions, and the like.
- FIG. 5 shows an example of the second image.
- the face image F of the subject includes a black hair region R1, a right eye region R2, a left eye region R3, a nose region R4, a mouth region R5, and a hand region R6. .
- the second image attribute information is stored in the attribute information DB 21 as a second image attribute information table T3.
- the second image attribute information table only needs to be created once when the second image is acquired.
- the layout determining unit 16 determines the layout (composition position) of the object in the second image based on the object attribute information, the object surrounding attribute information, and the second image attribute information.
- the correction unit 17 corrects at least one of the extracted object and the second image based on the object attribute information, the object surrounding attribute information, and the second image attribute information.
- the combining unit 18 creates a combined image by combining the object (the corrected object if the object has been corrected) with the combining position of the second image (the corrected second image if the second image has been corrected). I do.
- the display unit 19 displays an arbitrary image such as a first image, a second image, an extracted object, a corrected object, a corrected second image, and a composite image according to the control of the display control unit 20.
- the display control unit 20 performs control to switch the display content of the display unit 19 according to a user instruction or various programs.
- FIG. 7 is a flowchart showing the flow of the object synthesizing process executed by the image processing apparatus 100.
- a program for causing the image processing apparatus 100 and various other computers (processors) to execute this processing is stored in a recording medium readable by the image processing apparatus 100 and various other computers (processors), such as an SDRAM, a ROM, and a CD-ROM. Has been recorded.
- the first image obtaining unit 11 obtains a first image.
- the object extraction unit 13 extracts an object from the first image.
- the object attribute information extraction unit 14 extracts object attribute information from the extracted object.
- the object attribute information extracting unit 14 extracts object surrounding attribute information that is attribute information of an image around the object extracted in the first image.
- the second image acquisition unit 12 acquires a second image.
- the second image attribute information extraction unit 15 extracts the attribute information of the second image.
- step S7 the layout determining unit 16 determines the composition position of the object in the second image based on the object attribute information, the object surrounding attribute information, and the second image attribute information.
- the correction unit 17 corrects at least one of the extracted object and the second image based on the object attribute information, the object surrounding attribute information, and the second image attribute information.
- the combining unit 18 combines the object (the corrected object if the object is corrected) with the combining position of the second image (the corrected second image if the second image is corrected). Create an image.
- the display control unit 20 controls the display unit 19 to display the composite image.
- FIGS. 8 to 13 show examples of correction of the object and / or the second image, layout of the object, and a composite image of the object and the second image.
- the combining position of the object OBJ1 in the second image is determined to be “forehead”.
- the color of the logo of the object “JAPAN” in the attribute information of the object OBJ1 is “black”, and the color of the area to which the combined position of the object in the second image attribute information belongs is “brown”.
- the object obj1 of the logo "JAPAN” corrected to invert the black logo to white is combined with the forehead, and a combined image Fs1 is obtained.
- the composite position of the object in the second image is determined to be “left cheek”.
- the subject orientation in the object attribute information of the object OBJ2 (FIG. 2) of the sun-shaped paint is “front”, and the subject orientation in the second image attribute information is 45 degrees in the right yaw direction.
- the pitch is 10 degrees in the lower pitch direction
- an affine transformation (more generally, a projective transformation) that translates, rotates, expands, or contracts the object OBJ2 so that it is oriented 45 degrees in the right yaw direction and 10 degrees in the lower pitch direction
- the synthesized image Fs2 is obtained.
- the color of the object attribute information of the object OBJ3 of the logo “ABCDEFG” is “black”, the shooting scene of the object surrounding attribute information is “day”, and the shooting in the second image attribute information is It is assumed that the scene is “night view”.
- the object obj3 of the logo “ABCDEFG” corrected to invert the black logo to white is synthesized.
- the combination position is determined at the lower right position of the image common to the first image and the second image.
- the shooting scene information can be obtained or estimated from shooting date and time information included in image tag information (Exif: Exchangeable image file format) and color information such as brightness (luminance), saturation, and hue of the image.
- image tag information Exif: Exchangeable image file format
- color information such as brightness (luminance), saturation, and hue of the image.
- the decoration image in which the object OBJ4 of the logo “ABCDEFG” extracted from the first image is specularly reflected is a logo ”
- the correction to be added to the object OBJ4 of "ABCDEFG” is performed, and the corrected object obj4 is obtained.
- a composite image Fs3 is obtained in which the corrected object obj4 is composited below the second image.
- the character information included in the object attribute information of the object “obj” of “speed” is “speed”
- the type of character modification is “moving object shake”
- the object obj6 is obtained by performing the image modification of “moving body shake” on the object OBJ6 of “Shinkansen” in the second image.
- the combination position of the “fast” object obj5 is determined to be a blank portion of the second image. By combining the “fast” object obj5 with the second image, a combined image Fs4 is obtained.
- the common correction includes adjustment of the object size. That is, the object is enlarged or enlarged such that the ratio between the object size included in the object attribute information and the subject size of the first image included in the object surrounding attribute information is maintained in relation to the subject of the second image after the composition. Reduction is performed.
- the user can obtain a composite image without having to manually correct the object, correct the second image, and determine the composite position.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Editing Of Facsimile Originals (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
画像から抽出されたオブジェクトを他の画像にレイアウトする作業を効率化し、当該作業を行うユーザの負担を減らす。S6では、第2画像属性情報抽出部15は、第2画像の属性情報を抽出する。S7では、レイアウト決定部16は、オブジェクト属性情報、オブジェクト周囲属性情報、および第2画像属性情報に基づき、第2画像におけるオブジェクトの合成位置を決定する。S8では、補正部17は、オブジェクト属性情報、オブジェクト周囲属性情報、および第2画像属性情報に基づき、抽出されたオブジェクトおよび第2画像の少なくとも一方を補正する。S9では、合成部18は、オブジェクト(オブジェクトが補正されていれば補正されたオブジェクト)を、第2画像(第2画像補正されていれば補正された第2画像)の合成位置に合成した合成画像を作成する。S10では、表示制御部20は、合成画像を表示部19に表示するよう制御する。
Description
本発明は画像処理装置、方法およびプログラムに関し、特に、画像から抽出されたオブジェクトを他の画像にレイアウトする画像処理装置、方法およびプログラムに関する。
従来、自動またはユーザ操作に基づいて画像から任意のオブジェクトを抽出する技術、および画像から抽出されたオブジェクトを別の画像に貼り付けるレイアウトを行う画像編集技術が存在する。
特許文献1は、名刺を撮影した画像からロゴマークを抽出し、ロゴマークから属性(氏名、住所、会社名)を判断し、抽出した文字情報を補正することで、文字の認識精度を上げることが記載されている。
特許文献2は、写真から顔パーツを抽出し、本人の特徴に合わせて顔パーツを誇張補正し、素材情報(有名人の顔など)に合成することを開示している。
その他、本願発明に関連する技術として、特許文献3および4が挙げられる。
画像からオブジェクトを抽出する作業、抽出されたオブジェクトを編集する作業、または編集されたオブジェクトを別の画像の任意の位置に配置する作業は、画面の小さなスマートフォンなどの携帯情報端末で行うことが困難である。
このような作業を伴うアプリやネットサービスを提供する場合、ユーザの手数を減らさないと、ユーザの負担が増し、サービスを利用する楽しみが減ってしまうため、利用されなくなってしまう。
特許文献1~4はいずれも、デスクトップパソコンでの作業を前提としており、画面の小さな携帯情報端末で操作負担を軽減する技術を開示していない。
本発明はこのような問題点に鑑みてなされたもので、画像から抽出されたオブジェクトを他の画像にレイアウトする作業を効率化し、当該作業を行うユーザの負担を減らすことのできる画像処理装置、方法およびプログラムを提供することを目的とする。
本願発明の第1の態様に係る画像処理装置は、第1の画像から抽出したオブジェクトを、第2の画像へ合成する画像処理装置であって、オブジェクトの属性情報である第1属性情報と、オブジェクトの周囲の属性情報である周囲属性情報と、第2の画像の属性情報である第2属性情報とを取得する属性情報取得部と、第1属性情報と、周囲属性情報と、第2属性情報とに基づき、オブジェクトを第2の画像へ合成する際のレイアウトを決定する決定部と、決定部の決定したレイアウトと第1属性情報と周囲属性情報と第2属性情報とに基づいて、第2の画像およびオブジェクトのうち少なくとも一方を補正する補正部と、決定部の決定したレイアウトに基づいて、オブジェクトを第2の画像に合成する合成部と、を備える。
本願発明の第2の態様に係る画像処理装置において、周囲属性情報は、第1の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾き、サイズ、オブジェクトの第1の画像の被写体上の位置およびオブジェクトの周囲の被写体の色のうち少なくとも1つを含み、第2属性情報は、第2の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾き、サイズおよび被写体の色のうち少なくとも1つを含む。
本願発明の第3の態様に係る画像処理装置において、決定部は、第1の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾きと第2の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾きとの差分に応じて、オブジェクトを回転および/または変形させるレイアウトを決定する。
本願発明の第4の態様に係る画像処理装置において、オブジェクトを回転および/または変形させるレイアウトは射影変換によって行われる。
本願発明の第5の態様に係る画像処理装置において、決定部は、オブジェクトの第2の画像の被写体上の位置がオブジェクトの第1の画像の被写体上の位置と適合するレイアウトを決定する。
本願発明の第6の態様に係る画像処理装置において、第1の画像の被写体上の位置は、第1の画像の被写体の顔の額および頬のうち少なくとも1つを含み、第2の画像の被写体上の位置は、第2の画像の被写体の顔の額および頬のうち少なくとも1つを含む。
本願発明の第7の態様に係る画像処理装置において、補正部は、第1の画像の被写体のサイズと第2の画像の被写体のサイズとの差分に応じて、オブジェクトのサイズを拡大または縮小することでオブジェクトを補正する。
本願発明の第8の態様に係る画像処理装置において、補正部は、オブジェクトの色を第2の画像の色と適合する色に補正する。
本願発明の第9の態様に係る画像処理装置において、補正部は、第2の画像に配置されたオブジェクトの周囲の属性に適合するようオブジェクトを補正する。
本願発明の第10の態様に係る画像処理装置において、第2の画像に配置されたオブジェクトの周囲の属性は光沢および反射率のうち少なくとも1つを含み、補正部は、オブジェクトの周囲の属性に応じてオブジェクトに鏡像を付加することでオブジェクトを補正する。
本願発明の第11の態様に係る画像処理装置において、補正部は、第2の画像の属性がオブジェクトの属性に適合するよう第2の画像を補正する。
本願発明の第12の態様に係る画像処理装置において、オブジェクトの属性は文字のぼけを含む。
本願発明の第13の態様に係る画像処理装置において、オブジェクトは文字および図柄のうち少なくとも1つを含む。
本願発明の第14の態様に係る画像処理方法は、コンピュータが、第1の画像から抽出したオブジェクトを、第2の画像へ合成する画像処理方法であって、オブジェクトの属性情報である第1属性情報と、オブジェクトの周囲の属性情報である周囲属性情報と、第2の画像の属性情報である第2属性情報とを取得するステップと、第1属性情報と、周囲属性情報と、第2属性情報とに基づき、オブジェクトを第2の画像へ合成する際のレイアウトを決定するステップと、レイアウトと第1属性情報と周囲属性情報と第2属性情報とに基づいて、第2の画像およびオブジェクトのうち少なくとも一方を補正するステップと、レイアウトに基づいて、オブジェクトを第2の画像に合成するステップと、を実行する。
本願発明の第15の態様に係る画像処理プログラムは、第14態様に係る画像処理方法をコンピュータに実行させるためのプログラムである。
この発明は、第1属性情報と、周囲属性情報と、第2属性情報とに基づき、オブジェクトを第2の画像へ合成する際のレイアウトを決定するとともに、決定部の決定したレイアウトと第1属性情報と周囲属性情報と第2属性情報とに基づいて、第2の画像およびオブジェクトのうち少なくとも一方を補正する。このため、ユーザが第1の画像のオブジェクトと第2の画像の属性情報を目視で確認して手動で補正を行う必要がなく、画像から抽出されたオブジェクトを他の画像にレイアウトする作業を効率化し、当該作業を行うユーザの負担を減らすことができる。
図1は本発明の好ましい実施形態に係る画像処理装置のブロック図である。画像処理装置100は、第1画像取得部11、第2画像取得部12、オブジェクト抽出部13、オブジェクト属性情報抽出部14、第2画像属性情報抽出部15、レイアウト決定部16、補正部17、合成部18、表示部19、表示制御部20、属性情報データベース(Database,DBと略称)21を備える。
画像処理装置100自体は、典型的には、スマートフォン、タブレット型コンピュータ、ノート型パソコンなどの携帯型情報処理端末で構成できるが、デスクトップ型コンピュータで構成されてもよい。
第1画像取得部11、第2画像取得部12、オブジェクト抽出部13、オブジェクト属性情報抽出部14、第2画像属性情報抽出部15、レイアウト決定部16、補正部17、合成部18は、1または複数のコンピュータ(プロセッサ)により構成されうる。プロセッサは、CPU(Central Processing Unit),ASIC(Application Specific Integrated Circuit),GPU(Graphics Processing Unit)などを含む。
表示部19は液晶ディスプレイなどの表示装置で構成される。また表示制御部20はディスプレイドライバIC(Integrated Circuit)などで構成される。
属性情報データベース21は、SDRAM、フラッシュメモリなどの各種メモリで構成されるが、クラウドコンピューティングにより構成されてもよい。
第1画像取得部11は、撮像装置、外部の半導体メモリ、ネットワークを介して接続された外部のサーバなどから、第1画像を取得する。第1画像は、オブジェクトの抽出元となる画像である。
図2は第1画像の一例を示す。この第1画像は、人物の顔の額に施されたロゴ”JAPAN”のペイントであるOBJ1と、人物の顔の頬部分に施された日の丸型のペイントであるオブジェクトOBJ2を有している。
第2画像取得部12は、撮像装置、外部の半導体メモリ、ネットワークを介して接続された外部のサーバなどから、第2画像を取得する。第2画像は、第1画像から抽出されたオブジェクトの合成先となる画像である。
オブジェクト抽出部13は、第1画像取得部11の取得した第1画像からオブジェクトを抽出する。
オブジェクト属性情報抽出部14は、抽出されたオブジェクトの画像に関する属性情報であるオブジェクト属性情報と、第1画像において抽出されたオブジェクトの周囲の画像の属性情報であるオブジェクト周囲属性情報を抽出する。
オブジェクト属性情報は、オブジェクトの種類、オブジェクトの位置、オブジェクトの種類がロゴなどの文字の場合はその文字情報、オブジェクトのサイズ、オブジェクトの色情報などを含む。
また、オブジェクト周囲属性情報は、抽出されたオブジェクトの被写体像の種類(例えば人物の顔)、抽出されたオブジェクトの被写体像の向き(例えば正面向き)、抽出されたオブジェクトの被写体像のサイズ、抽出されたオブジェクトの被写体像のヨー方向、ピッチ方向、ロール方向の傾きの傾き角度、抽出されたオブジェクトの被写体像における位置(例えば額、頬など)、抽出されたオブジェクトの周囲の被写体像の色(例えば周囲の被写体が人の額であった場合はその人の肌の色、周囲の被写体が夜景であった場合は黒色)などを含む。
なお、ヨー方向とは、前後、左右、上下が決まった被写体の、上下の軸を中心にして回転する方向(すなわち、水平面内での回転方向)をいい、ピッチ方向とは、左右の軸を中心にして回転する方向をいい、ロール方向とは、前後の軸を中心にして回転する方向をいう。
図3に例示するように、抽出されたオブジェクトOBJ1に関するオブジェクト属性情報およびオブジェクト周囲属性情報は、オブジェクト属性情報テーブルT1として属性情報DB21に記憶される。
また図4に例示するように、抽出されたオブジェクトOBJ2に関するオブジェクト属性情報およびオブジェクト周囲属性情報は、オブジェクト属性情報テーブルT2として属性情報DB21に記憶される。
オブジェクト属性情報テーブルはオブジェクトの抽出の度に作成される。
第2画像属性情報抽出部15は、第2画像取得部12の取得した第2画像の属性情報を抽出する。第2画像の属性情報は、第2画像の被写体の種類(例えば顔)、第2画像の被写体のサイズ、色の異なる領域の座標およびその領域に割り当てられた色などを含む。
図5は第2画像の一例を示す。この第2画像では、被写体の顔画像Fに、黒色の髪部分の領域R1、右目の領域R2、左目の領域R3、鼻の領域R4、口の領域R5、手の領域R6が含まれている。
図6に例示するように、第2画像属性情報は、第2画像属性情報テーブルT3として属性情報DB21に記憶される。第2画像属性情報テーブルは第2画像の取得がされたときに一度作成されれば足りる。
レイアウト決定部16は、オブジェクト属性情報、オブジェクト周囲属性情報、および第2画像属性情報に基づき、第2画像におけるオブジェクトのレイアウト(合成位置)を決定する。
補正部17は、オブジェクト属性情報、オブジェクト周囲属性情報、および第2画像属性情報に基づき、抽出されたオブジェクトおよび第2画像の少なくとも一方を補正する。
合成部18は、オブジェクト(オブジェクトが補正されていれば補正されたオブジェクト)を、第2画像(第2画像補正されていれば補正された第2画像)の合成位置に合成した合成画像を作成する。
表示部19は、表示制御部20の制御に従って、第1画像、第2画像、抽出されたオブジェクト、補正されたオブジェクト、補正された第2画像、合成画像などの任意の画像を表示する。
表示制御部20はユーザ指示や各種プログラムに従って表示部19の表示内容を切り替える制御を行う。
図7は画像処理装置100の実行するオブジェクト合成処理の流れを示すフローチャートである。この処理を画像処理装置100やその他各種のコンピュータ(プロセッサ)に実行させるためのプログラムは、SDRAM,ROM,CD-ROMなど、画像処理装置100やその他各種のコンピュータ(プロセッサ)読み取り可能な記録媒体に記録されている。
S1では、第1画像取得部11は、第1画像を取得する。
S2では、オブジェクト抽出部13は、第1画像からオブジェクトを抽出する。
S3では、オブジェクト属性情報抽出部14は、抽出されたオブジェクトからオブジェクト属性情報を抽出する。
S4では、オブジェクト属性情報抽出部14は、第1画像において抽出されたオブジェクトの周囲の画像の属性情報であるオブジェクト周囲属性情報を抽出する。
S5では、第2画像取得部12は、第2画像を取得する。
S6では、第2画像属性情報抽出部15は、第2画像の属性情報を抽出する。
S7では、レイアウト決定部16は、オブジェクト属性情報、オブジェクト周囲属性情報、および第2画像属性情報に基づき、第2画像におけるオブジェクトの合成位置を決定する。
S8では、補正部17は、オブジェクト属性情報、オブジェクト周囲属性情報、および第2画像属性情報に基づき、抽出されたオブジェクトおよび第2画像の少なくとも一方を補正する。
S9では、合成部18は、オブジェクト(オブジェクトが補正されていれば補正されたオブジェクト)を、第2画像(第2画像補正されていれば補正された第2画像)の合成位置に合成した合成画像を作成する。
S10では、表示制御部20は、合成画像を表示部19に表示するよう制御する。
図8~13はオブジェクトおよび/または第2画像の補正、オブジェクトのレイアウト、およびオブジェクトと第2画像の合成画像の例を示す。
図8に例示するように、第1画像におけるオブジェクトOBJ1の位置が「額」であれば、第2画像におけるオブジェクトOBJ1の合成位置は「額」と決定する。
また図8に例示するように、オブジェクト”JAPAN”のロゴのオブジェクトOBJ1の属性情報における色が「黒」であり、第2画像属性情報におけるオブジェクトの合成位置の属する領域の色が「ブラウン」であったとする。この場合、黒のロゴをブラウンの領域に合成すると、ロゴが見えづらくなってしまう。従って、黒のロゴを白に反転する補正が行われたロゴ”JAPAN”のオブジェクトobj1が額に合成され、合成画像Fs1が得られる。
また図9に例示するように、オブジェクトOBJ2の位置が「左頬」であれば、第2画像におけるオブジェクトの合成位置は「左頬」と決定する。
また図9に例示するように、日の丸のペイントのオブジェクトOBJ2(図2)のオブジェクト属性情報における被写体向きが「正面」であり、第2画像属性情報における被写体向きが、右ヨー方向に45度および下ピッチ方向に10度であれば、オブジェクトOBJ2を右ヨー方向に45度および下ピッチ方向に10度の向きになるよう平行移動・回転・拡大または縮小するアフィン変換(より一般的には射影変換)を施す補正を施したオブジェクトobj2を合成することで、合成画像Fs2が得られる。
また例えば図10に例示するように、ロゴ”ABCDEFG”のオブジェクトOBJ3のオブジェクト属性情報における色が「黒」、オブジェクト周囲属性情報の撮影シーンが「日中」であり、第2画像属性情報における撮影シーンが「夜景」であったとする。この場合、この黒のロゴを夜景に合成すると、ロゴが見えづらくなってしまう。従って、黒のロゴを白に反転する補正が行われたロゴ”ABCDEFG”のオブジェクトobj3が合成される。合成位置は第1画像および第2画像で共通する画像右下の位置に決定される。このオブジェクトobj3と第2画像が合成されることで合成画像Fsが得られる。
なお撮影シーンの情報は画像のタグ情報(Exif:Exchangeable image file format)などに含まれる撮影日時情報や、画像の明度(輝度)・彩度・色相の色情報などから取得または推定できる。
また例えば図12に例示するように、第2画像属性情報における被写体種類が「氷」の場合、第1画像から抽出されたロゴ”ABCDEFG”のオブジェクトOBJ4が鏡面反射した状態の装飾画像をロゴ”ABCDEFG”のオブジェクトOBJ4に付加する補正を行い、補正後のオブジェクトobj4が得られる。この補正後のオブジェクトobj4が第2画像の下部に合成された合成画像Fs3が得られる。
また例えば図13に例示するように、「速」のオブジェクトobj5のオブジェクト属性情報に含まれる文字情報が「速」、文字修飾の種類が「動体ぶれ」であり、第2画像属性情報に含まれるオブジェクトOBJ6の被写体種類が「新幹線」の場合、第2画像の「新幹線」のオブジェクトOBJ6に「動体ぶれ」の画像修飾を与える補正を行うことでオブジェクトobj6を得る。「速」のオブジェクトobj5の合成位置は第2画像の空白部分に決定される。「速」のオブジェクトobj5が第2画像に合成されることで、合成画像Fs4が得られる。
また、図8~13において、共通する補正としては、オブジェクトサイズの調整が含まれる。すなわち、オブジェクト属性情報に含まれるオブジェクトサイズとオブジェクト周囲属性情報に含まれる第1画像の被写体サイズとの比が、合成後の第2画像の被写体との関係でも保たれるよう、オブジェクトの拡大または縮小が行われる。
このように、第1画像のオブジェクトのオブジェクト抽出、第1画像から抽出されたオブジェクトの周囲属性情報、第2画像の属性情報に基づいて、第1画像のオブジェクトおよび第2画像の少なくとも一方の補正が行われること、また第2画像のオブジェクトの第2画像への合成位置の決定が行われる。従って、ユーザはオブジェクトの補正、第2画像の補正、合成位置の決定を手動操作にて行う必要なく合成画像を得ることができる。
このため、ユーザが第1画像のオブジェクトと第2画像の属性情報を目視で確認して手動で補正を行う必要がなく、画像から抽出されたオブジェクトを他の画像にレイアウトする作業を効率化し、当該作業を行うユーザの負担を減らすことができる。
11 第1画像取得部
12 第2画像取得部
13 オブジェクト抽出部
14 オブジェクト属性情報抽出部
15 第2画像属性情報抽出部
16 レイアウト決定部
17 補正部
18 合成部
19 表示部
20 表示制御部
21 属性情報データベース
100 画像処理装置
12 第2画像取得部
13 オブジェクト抽出部
14 オブジェクト属性情報抽出部
15 第2画像属性情報抽出部
16 レイアウト決定部
17 補正部
18 合成部
19 表示部
20 表示制御部
21 属性情報データベース
100 画像処理装置
Claims (16)
- 第1の画像から抽出したオブジェクトを、第2の画像へ合成する画像処理装置であって、
前記オブジェクトの属性情報である第1属性情報と、前記オブジェクトの周囲の属性情報である周囲属性情報と、前記第2の画像の属性情報である第2属性情報とを取得する属性情報取得部と、
前記第1属性情報と、前記周囲属性情報と、前記第2属性情報とに基づき、前記オブジェクトを前記第2の画像へ合成する際のレイアウトを決定する決定部と、
前記決定部の決定したレイアウトと前記第1属性情報と前記周囲属性情報と前記第2属性情報とに基づいて、前記第2の画像および前記オブジェクトのうち少なくとも一方を補正する補正部と、
前記決定部の決定したレイアウトに基づいて、前記オブジェクトを前記第2の画像に合成する合成部と、
を備える画像処理装置。 - 前記周囲属性情報は、前記第1の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾き、サイズ、前記オブジェクトの前記第1の画像の被写体上の位置およびオブジェクトの周囲の被写体の色のうち少なくとも1つを含み、
前記第2属性情報は、前記第2の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾き、サイズおよび被写体の色のうち少なくとも1つを含む請求項1に記載の画像処理装置。 - 前記決定部は、前記第1の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾きと前記第2の画像の被写体のヨー方向、ピッチ方向、ロール方向の傾きとの差分に応じて、
前記オブジェクトを回転および/または変形させるレイアウトを決定する請求項2に記載の画像処理装置。 - 前記オブジェクトを回転および/または変形させるレイアウトは射影変換によって行われる請求項3に記載の画像処理装置。
- 前記決定部は、前記オブジェクトの前記第2の画像の被写体上の位置が前記オブジェクトの前記第1の画像の被写体上の位置と適合するレイアウトを決定する請求項2~4のうちいずれか1項に記載の画像処理装置。
- 前記第1の画像の被写体上の位置は、前記第1の画像の被写体の顔の額および頬のうち少なくとも1つを含み、
前記第2の画像の被写体上の位置は、前記第2の画像の被写体の顔の額および頬のうち少なくとも1つを含む請求項5に記載の画像処理装置。 - 前記補正部は、前記第1の画像の被写体のサイズと前記第2の画像の被写体のサイズとの差分に応じて、前記オブジェクトのサイズを拡大または縮小することで前記オブジェクトを補正する請求項1~6のうちいずれか1項に記載の画像処理装置。
- 前記補正部は、前記オブジェクトの色を前記第2の画像の色と適合する色に補正する請求項1~7のうちいずれか1項に記載の画像処理装置。
- 前記補正部は、前記第2の画像に配置された前記オブジェクトの周囲の属性に適合するよう前記オブジェクトを補正する請求項1~8のうちいずれか1項に記載の画像処理装置。
- 前記第2の画像に配置された前記オブジェクトの周囲の属性は光沢および反射率のうち少なくとも1つを含み、
前記補正部は、前記オブジェクトの周囲の属性に応じて前記オブジェクトに鏡像を付加することで前記オブジェクトを補正する請求項1~9のうちいずれか1項に記載の画像処理装置。 - 前記補正部は、前記第2の画像の属性が前記オブジェクトの属性に適合するよう前記第2の画像を補正する請求項1~10のうちいずれか1項に記載の画像処理装置。
- 前記オブジェクトの属性は文字のぼけを含む請求項11に記載の画像処理装置。
- 前記オブジェクトは文字および図柄のうち少なくとも1つを含む請求項1~12のうちいずれか1項に記載の画像処理装置。
- コンピュータが、第1の画像から抽出したオブジェクトを、第2の画像へ合成する画像処理方法であって、
前記オブジェクトの属性情報である第1属性情報と、前記オブジェクトの周囲の属性情報である周囲属性情報と、前記第2の画像の属性情報である第2属性情報とを取得するステップと、
前記第1属性情報と、前記周囲属性情報と、前記第2属性情報とに基づき、前記オブジェクトを前記第2の画像へ合成する際のレイアウトを決定するステップと、
前記レイアウトと前記第1属性情報と前記周囲属性情報と前記第2属性情報とに基づいて、前記第2の画像および前記オブジェクトのうち少なくとも一方を補正するステップと、
前記レイアウトに基づいて、前記オブジェクトを前記第2の画像に合成するステップと、
を実行する画像処理方法。 - 請求項14に記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。
- 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項14に記載の画像処理方法をコンピュータに実行させる記録媒体。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201980057076.9A CN112640412B (zh) | 2018-09-06 | 2019-08-01 | 图像处理装置、方法及记录介质 |
| JP2020541067A JP7100139B2 (ja) | 2018-09-06 | 2019-08-01 | 画像処理装置、方法およびプログラム |
| US17/160,692 US11403798B2 (en) | 2018-09-06 | 2021-01-28 | Image processing apparatus, method, and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018166965 | 2018-09-06 | ||
| JP2018-166965 | 2018-09-06 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US17/160,692 Continuation US11403798B2 (en) | 2018-09-06 | 2021-01-28 | Image processing apparatus, method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020049914A1 true WO2020049914A1 (ja) | 2020-03-12 |
Family
ID=69722461
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/030258 Ceased WO2020049914A1 (ja) | 2018-09-06 | 2019-08-01 | 画像処理装置、方法およびプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11403798B2 (ja) |
| JP (1) | JP7100139B2 (ja) |
| CN (1) | CN112640412B (ja) |
| WO (1) | WO2020049914A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013160663A2 (en) * | 2012-04-23 | 2013-10-31 | Clothes Network Ltd. | A system and method for image analysis |
| US20140035950A1 (en) * | 2009-02-02 | 2014-02-06 | Adobe Systems Incorporated | System and Method for Image Composition Using Non-Destructive Editing Model and Fast Gradient Solver |
| EP2750372A1 (en) * | 2012-12-28 | 2014-07-02 | Samsung Electronics Co., Ltd | Photographing device for producing composite image and method using the same |
| JP2015002423A (ja) * | 2013-06-14 | 2015-01-05 | ソニー株式会社 | 画像処理装置、サーバ及び記憶媒体 |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06342457A (ja) | 1992-09-14 | 1994-12-13 | Fuji Photo Film Co Ltd | 画像処理方法及び装置 |
| JPH07203299A (ja) * | 1994-01-10 | 1995-08-04 | Fujitsu Ltd | カラー画像の色調整,及び画像合成方法,並びに装置 |
| JP2000209425A (ja) * | 1998-11-09 | 2000-07-28 | Canon Inc | 画像処理装置及び方法並びに記憶媒体 |
| JP2005228185A (ja) | 2004-02-16 | 2005-08-25 | E4C-Link Corp | キャラクター提供システム |
| JP2008282094A (ja) | 2007-05-08 | 2008-11-20 | Canon Inc | 文字認識処理装置 |
| US7970237B2 (en) * | 2007-08-01 | 2011-06-28 | Adobe Systems Incorporated | Spatially-varying convolutions for rendering glossy reflection effects |
| JP4877319B2 (ja) * | 2008-12-24 | 2012-02-15 | カシオ計算機株式会社 | 画像生成装置、プログラム、画像表示方法、及び、撮像方法 |
| JP5636807B2 (ja) | 2010-08-12 | 2014-12-10 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
| JP5991536B2 (ja) * | 2013-02-01 | 2016-09-14 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
| CN104424624B (zh) * | 2013-08-28 | 2018-04-10 | 中兴通讯股份有限公司 | 一种图像合成的优化方法及装置 |
| JP6075315B2 (ja) * | 2014-03-28 | 2017-02-08 | 株式会社Jvcケンウッド | 合成画像作成システム、合成画像作成方法、及び合成画像作成プログラム |
| US10192361B2 (en) * | 2015-07-06 | 2019-01-29 | Seiko Epson Corporation | Head-mounted display device and computer program |
| CN107945102A (zh) * | 2017-10-23 | 2018-04-20 | 深圳市朗形网络科技有限公司 | 一种图片合成的方法及装置 |
-
2019
- 2019-08-01 WO PCT/JP2019/030258 patent/WO2020049914A1/ja not_active Ceased
- 2019-08-01 CN CN201980057076.9A patent/CN112640412B/zh active Active
- 2019-08-01 JP JP2020541067A patent/JP7100139B2/ja active Active
-
2021
- 2021-01-28 US US17/160,692 patent/US11403798B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140035950A1 (en) * | 2009-02-02 | 2014-02-06 | Adobe Systems Incorporated | System and Method for Image Composition Using Non-Destructive Editing Model and Fast Gradient Solver |
| WO2013160663A2 (en) * | 2012-04-23 | 2013-10-31 | Clothes Network Ltd. | A system and method for image analysis |
| EP2750372A1 (en) * | 2012-12-28 | 2014-07-02 | Samsung Electronics Co., Ltd | Photographing device for producing composite image and method using the same |
| JP2015002423A (ja) * | 2013-06-14 | 2015-01-05 | ソニー株式会社 | 画像処理装置、サーバ及び記憶媒体 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20210150790A1 (en) | 2021-05-20 |
| CN112640412B (zh) | 2023-03-10 |
| JPWO2020049914A1 (ja) | 2021-09-24 |
| JP7100139B2 (ja) | 2022-07-12 |
| US11403798B2 (en) | 2022-08-02 |
| CN112640412A (zh) | 2021-04-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12106445B2 (en) | Automatic image inpainting | |
| KR102304674B1 (ko) | 얼굴 표정 합성 방법과 장치, 전자 기기, 및 저장 매체 | |
| JP6864449B2 (ja) | イメージの明るさを調整する方法及び装置 | |
| AU2009209293B2 (en) | Representing flat designs to be printed on curves of a 3-dimensional product | |
| US11496661B2 (en) | Image processing apparatus and image processing method | |
| JP5966657B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
| JP7100139B2 (ja) | 画像処理装置、方法およびプログラム | |
| JP4323910B2 (ja) | 画像合成装置及び方法 | |
| JP4372494B2 (ja) | 画像処理装置、画像処理方法、プログラム、記録媒体 | |
| CN120186281A (zh) | 图像处理方法及其装置 | |
| CN117499795A (zh) | 信息处理方法以及信息处理装置 | |
| CN110147511B (zh) | 一种页面处理方法、装置、电子设备及介质 | |
| US20200311998A1 (en) | Image processing method, program, and image processing system | |
| JP2005094424A (ja) | 原画像と装飾画像との合成 | |
| JP2001307122A (ja) | 顔写真画像切り抜き方法 | |
| JP4171722B2 (ja) | プログラム、情報記憶媒体、写真印刷装置及び写真印刷方法 | |
| JP4084784B2 (ja) | プログラム、情報記憶媒体、写真印刷装置及び写真印刷方法 | |
| JP7713733B2 (ja) | 衣服の試着シミュレーションシステム及びプログラム | |
| US10699425B2 (en) | Feature impression axis determination system, feature impression axis determination method, and program thereof | |
| JP6330312B2 (ja) | 顔画像処理装置、投影システム、画像処理方法及びプログラム | |
| JP6668646B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP6326808B2 (ja) | 顔画像処理装置、投影システム、画像処理方法及びプログラム | |
| JP5207941B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP2024017389A (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP2006085613A (ja) | 画像処理方法および装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19856894 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020541067 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19856894 Country of ref document: EP Kind code of ref document: A1 |