JP7604804B2 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP7604804B2 JP7604804B2 JP2020135645A JP2020135645A JP7604804B2 JP 7604804 B2 JP7604804 B2 JP 7604804B2 JP 2020135645 A JP2020135645 A JP 2020135645A JP 2020135645 A JP2020135645 A JP 2020135645A JP 7604804 B2 JP7604804 B2 JP 7604804B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- face
- correction
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing device and an image processing method.
近年、リモートワークを導入する企業が増加し、オンライン会議またはビデオ通話の機会が増えてきている。オンライン会議またはビデオ通話の際、通話者の表情を確認するためには、映像を有効にすることが望ましい。映像を有効にする場合、通話者は、女性であれば化粧、男性であれば髭剃り等、通話に適した身だしなみに整えるために手間がかかる。これに対し、ビデオ通話のための映像を、通話に適した状態に補正する技術が提案されている。例えば、特許文献1は、画像データを伴うデータ通信において、瞬きの回数または眼球の充血度により使用者の疲労度を判定し、一定以上の疲労度の場合は予め取り込んでいた画像と合成する技術を開示する。また、特許文献2は、ユーザが事前に決定した「相手に見せてもよい映像」から、映像通信に利用する映像を選択または加工して出力する技術を開示する。
In recent years, the number of companies that have introduced remote work has increased, and opportunities for online meetings or video calls have increased. During online meetings or video calls, it is desirable to enable video in order to check the facial expression of the person on the other end of the line. When enabling video, the person on the other end of the line must take the time to dress appropriately for the call, such as by putting on makeup if the person is female, or shaving if the person is male. In response to this, a technology has been proposed that corrects video for video calls to a state suitable for the call. For example,
ビデオ通話のための映像は、通話者の疲労度を判定するだけでは、身だしなみが整った状態であるにもかかわらず、不要な補正がされる可能性がある。また、通信用の映像を、相手に見せてもよい映像から常時選択または加工する場合、通信用の映像は、身だしなみが整っているか否かに関わらず補正される可能性がある。さらに、相手に見せてもよい映像をユーザが事前に決定しておくことは、手間がかかる場合があり、使い勝手が最適とは言えない。 When video calling images are used solely to determine the degree of fatigue of the caller, unnecessary corrections may be made to the image even if the caller is well-groomed. In addition, when images for communication are constantly selected or processed from images that are acceptable for the other party to see, the images for communication may be corrected regardless of whether the person is well-groomed or not. Furthermore, it may be time-consuming for the user to decide in advance what images are acceptable for the other party to see, and usability may not be optimal.
本発明は、一側面では、ビデオ通話の通話者の身だしなみが整っていない場合に、通話者の撮像画像を補正する技術を提供することを目的とする。 In one aspect, the present invention aims to provide a technology for correcting a captured image of a person on a video call when that person is not well-groomed.
本発明は、上記目的を達成するために、以下の構成を採用する。 To achieve the above objective, the present invention adopts the following configuration.
本開示の第一側面は、ユーザの撮像画像およびユーザの基準画像の特徴量を抽出する抽出部と、ユーザの撮像画像の特徴量とユーザの基準画像の特徴量とを照合した結果に基づいて、ユーザの撮像画像に対する補正処理を有効にするか無効にするかを判定する判定部と、補正処理を有効にすると判定した場合に、ユーザの撮像画像の補正画像を生成する補正部と、補正処理を有効にすると判定された場合は、補正画像を出力し、補正処理を無効にすると判定された場合は、補正されていないユーザの撮像画像を出力する出力部と、を備えることを特徴とする画像処理装置を提供する。 The first aspect of the present disclosure provides an image processing device that includes an extraction unit that extracts features of a user's captured image and a user's reference image, a determination unit that determines whether to enable or disable a correction process for the user's captured image based on a result of comparing the features of the user's captured image with the features of the user's reference image, a correction unit that generates a corrected image of the user's captured image when it is determined that the correction process is enabled, and an output unit that outputs the corrected image when it is determined that the correction process is enabled, and outputs an uncorrected user's captured image when it is determined that the correction process is disabled.
「基準画像」は、例えば、ユーザの身だしなみが整った状態の画像である。画像処理装置は、ユーザの撮像画像と基準画像とを照合した結果に基づいて、撮像画像を補正するか否かを判定することができる。画像処理装置は、補正をするか否かの判定に応じて自動で撮像画像を補正するため、ユーザは、身だしなみの状態を気にしたり、画像の補正を指示
するための特別な操作をしたりすることなく、ビデオ通話に臨むことができる。
The "reference image" is, for example, an image of a user in a well-groomed state. The image processing device can determine whether or not to correct the captured image based on the result of comparing the captured image of the user with the reference image. The image processing device automatically corrects the captured image according to the determination of whether or not to correct it, so that the user can participate in a video call without worrying about the state of his/her grooming or performing a special operation to instruct image correction.
特徴量は、ユーザの顔で変化を捉えやすい部位の特徴量であってもよい。撮像画像および基準画像から、ユーザの顔で変化を捉えやすい部位の特徴量を抽出することで、画像処理装置は、同一のユーザ間で照合した場合に、撮像画像の身だしなみが整っているか否か、すなわち、補正処理を無効にするか否かを精度良く判定することができる。 The feature amount may be a feature amount of a part of the user's face where changes are easily detected. By extracting feature amounts of parts of the user's face where changes are easily detected from the captured image and the reference image, the image processing device can accurately determine whether the grooming of the captured image is well-groomed, i.e., whether to disable correction processing, when comparing images of the same user.
特徴量は、Haar-like特徴量、カラーヒストグラム、カラーモーメントのうち少なくともいずれかの特徴量を含むものであってもよい。また、特徴量は、身だしなみが整った状態の画像および身だしなみが整っていない状態の画像を学習させた学習モデルを使用したアルゴリズムによって算出されてもよい。画像処理装置は、各種の特徴量またはこれらの組み合わせた特徴量を使用して補正処理を有効にするか否かを判定することができる。 The feature amount may include at least one of Haar-like features, color histograms, and color moments. The feature amount may also be calculated by an algorithm using a learning model that has been trained on images of well-groomed and ungroomed individuals. The image processing device can use various features or a combination of these features to determine whether or not to enable correction processing.
判定部は、ユーザの撮像画像の特徴量とユーザの基準画像の特徴量との一致度を算出して、一致度が所定の閾値未満である場合に補正処理を有効にし、一致度が所定の閾値以上である場合に補正処理を無効にすると判定してもよい。画像処理装置は、ユーザの撮像画像と基準画像との一致度に基づいて、撮像画像を補正するか否かを判定し、自動で撮像画像を補正することができる。これにより、ユーザは、身だしなみの状態を気にしたり、画像の補正を指示するための特別な操作をしたりすることなく、ビデオ通話に臨むことができる。 The determination unit may calculate the degree of coincidence between the features of the user's captured image and the features of the user's reference image, and determine to enable the correction process if the degree of coincidence is less than a predetermined threshold, and to disable the correction process if the degree of coincidence is equal to or greater than the predetermined threshold. The image processing device can determine whether to correct the captured image based on the degree of coincidence between the user's captured image and the reference image, and can automatically correct the captured image. This allows the user to participate in a video call without worrying about their appearance or performing any special operations to instruct image correction.
補正部は、一致度に応じてユーザの撮像画像に対する補正量を変化させてもよい。撮像画像と登録画像との一致度に応じて補正量を変化させることで、ユーザは、身だしなみがある程度整っている場合には、不要な補正を抑制することができる。 The correction unit may change the amount of correction applied to the captured image of the user depending on the degree of similarity. By changing the amount of correction depending on the degree of similarity between the captured image and the registered image, the user can suppress unnecessary correction when their appearance is relatively neat.
補正部は、ユーザの撮像画像およびユーザの基準画像に基づいて、補正画像を生成してもよい。例えば、補正部は、ユーザの撮像画像およびユーザの基準画像を学習させたGAN(Generative Adversarial Network、敵対的生成ネットワーク)により、補正画像を生成してもよい。また、補正部は、ユーザの基準画像の一部または顔全体を切り出し、ユーザの撮像画像の対応する部位を切り出した画像で置き換えることにより、補正画像を生成してもよい。ユーザの撮像画像および基準画像に基づいて補正画像を生成することで、画像処理装置は、基準画像により近い補正画像を生成することができる。 The correction unit may generate the corrected image based on the captured image of the user and the user's reference image. For example, the correction unit may generate the corrected image using a Generative Adversarial Network (GAN) that has been trained on the captured image of the user and the user's reference image. The correction unit may also generate the corrected image by cutting out a part or the entire face of the user's reference image and replacing the corresponding part of the captured image of the user with the cut-out image. By generating the corrected image based on the captured image of the user and the reference image, the image processing device can generate a corrected image that is closer to the reference image.
補正部は、ユーザの撮像画像に対し、顔の特徴情報に基づいてノイズを除去するフィルタ処理または彩度調整をすることにより補正画像を生成してもよい。画像処理装置は、各種の顔の特徴情報に基づいて、基準画像を使用せずに補正画像を生成することができるため、ユーザは、基準画像を用意する手間を省くことができる。 The correction unit may generate a corrected image by performing a filter process to remove noise or adjust saturation on the user's captured image based on facial feature information. Since the image processing device can generate a corrected image based on various facial feature information without using a reference image, the user can be saved the trouble of preparing a reference image.
判定部は、補正処理を有効にするか無効にするかを、ユーザの撮像画像の所定のフレーム数ごとに判定してもよい。画像処理装置は、ビデオ通話中に口紅などの化粧が落ちた場合にも撮像画像を補正することができるため、ユーザは、身だしなみの崩れを気にすることなく通話を継続できる。 The determination unit may determine whether to enable or disable the correction process for each predetermined number of frames of the user's captured image. The image processing device can correct the captured image even if makeup such as lipstick comes off during a video call, allowing the user to continue the call without worrying about their appearance being ruined.
画像処理装置は、ユーザの撮像画像を撮像する撮像部を、さらに備えてもよい。画像処理装置は、撮像部と一体に構成されることにより、簡易な構成とすることができる。 The image processing device may further include an imaging unit that captures an image of the user. The image processing device can be configured simply by being integrated with the imaging unit.
本発明の第二側面は、ユーザの撮像画像およびユーザの基準画像の特徴量を抽出する抽出ステップと、ユーザの撮像画像の特徴量とユーザの基準画像の特徴量とを照合した結果
に基づいて、ユーザの撮像画像に対する補正処理を有効にするか無効にするかを判定する判定ステップと、補正処理を有効にすると判定した場合に、ユーザの撮像画像の補正画像を生成する補正ステップと、補正処理を有効にすると判定された場合は、補正画像を出力し、補正処理を無効にすると判定された場合は、補正されていないユーザの撮像画像を出力する出力ステップと、を含むことを特徴とする人体検出方法を提供する。
A second aspect of the present invention provides a human body detection method including: an extraction step of extracting features of a user's captured image and a user's reference image; a determination step of determining whether to enable or disable a correction process for the user's captured image based on a result of comparing the features of the user's captured image with the features of the user's reference image; a correction step of generating a corrected image of the user's captured image when it is determined that the correction process is enabled; and an output step of outputting the corrected image when it is determined that the correction process is enabled, and outputting an uncorrected captured image of the user when it is determined that the correction process is disabled.
本発明によれば、ビデオ通話の通話者の身だしなみが整っていない場合に、通話者の撮像画像を補正することができる。 According to the present invention, when a person on a video call is not well groomed, the captured image of the person can be corrected.
以下、本発明の一側面に係る実施の形態を、図面に基づいて説明する。 Below, an embodiment of one aspect of the present invention will be described with reference to the drawings.
<適用例>
図1は、実施形態に係る画像処理装置の適用例を説明する図である。画像処理装置は、カメラから入力されるカメラ画像(撮像画像)と、予めDB(データベース)に登録されている登録画像(基準画像)とを取得し、各画像から特徴を抽出する。登録画像は、例えば、ユーザの身だしなみが整った状態の画像であり、撮像画像を補正するか否かを判定するための基準となる画像である。
<Application Examples>
1 is a diagram for explaining an application example of an image processing device according to an embodiment. The image processing device acquires a camera image (captured image) input from a camera and a registered image (reference image) registered in advance in a DB (database), and extracts features from each image. The registered image is, for example, an image of a user in a well-groomed state, and serves as a reference image for determining whether or not to correct the captured image.
画像処理装置は、カメラ画像と登録画像との特徴量を照合し、一致度を評価する。一致度が所定の閾値以上である場合、画像処理装置は、ユーザの身だしなみが整っていると判断し、カメラ画像に対する補正処理を無効にする。一致度が所定の閾値未満である場合、画像処理装置は、ユーザの身だしなみが整っていないと判断して補正処理を有効にする。このように、画像処理装置は、カメラ画像の特徴量と登録画像の特徴量とを照合した結果に基づいて、カメラ画像に対する補正処理を有効にするか無効にするかを判定する。 The image processing device compares the features of the camera image and the registered image and evaluates the degree of match. If the degree of match is equal to or greater than a predetermined threshold, the image processing device determines that the user is well-groomed and disables correction processing on the camera image. If the degree of match is less than the predetermined threshold, the image processing device determines that the user is not well-groomed and enables correction processing. In this way, the image processing device determines whether to enable or disable correction processing on the camera image based on the result of comparing the features of the camera image and the registered image.
画像処理装置は、補正処理を有効にした場合、ユーザのカメラ画像を補正して表示画像(補正画像)を生成し、通話相手が通話に使用する他のコンピュータに送信して表示させる。また、補正画像は画像処理装置のディスプレイに表示されてもよい。表示画像は、ユーザの身だしなみが整った状態の登録画像に基づいて生成することができる。これにより、ユーザは、身だしなみが整っていない場合に、特別な操作をしなくても補正された画像が表示されるため、身だしなみの状態を気にすることなく、ビデオ通話に臨むことができる。 When the correction process is enabled, the image processing device corrects the user's camera image to generate a display image (corrected image), which is then transmitted to and displayed on another computer used by the call partner. The corrected image may also be displayed on the display of the image processing device. The display image may be generated based on a registered image of the user in a well-groomed state. This allows the user to participate in a video call without worrying about the state of their appearance, since the corrected image is displayed without the user having to perform any special operations when their appearance is not good.
<実施形態>
(装置構成)
図2を参照して、画像処理装置1の機能構成の一例について説明する。図2は、画像処理装置1の機能構成を例示する図である。画像処理装置1は、撮像部10、登録画像データベース11、特徴抽出部12、補正判定部13、補正処理部14、出力部15を含む。
<Embodiment>
(Device configuration)
An example of the functional configuration of the
撮像部10は、通話者であるユーザを撮像する。登録画像データベース11は、ユーザ
の撮像画像を補正するか否かを判定するための基準となる登録画像(基準画像)を格納する。登録画像データベース11は、各ユーザに対し、複数の登録画像を格納してもよい。登録画像は、例えば、ユーザが画像処理装置1で初めて通話した際の撮像画像とすることができる。また、登録画像は、ユーザが表示装置に表示された画像を確認しながら選択した画像としてもよい。なお、登録画像データベース11は、ユーザの登録画像に限られず、身だしなみが整った状態での特徴量の情報を保持するものであってもよい。
The
特徴抽出部12(抽出部)は、ユーザの撮像画像および登録画像から特徴量を抽出する。特徴量は、例えば、Haar-like特徴量、カラーヒストグラム、カラーモーメントである。また、特徴抽出部12は、これらの組み合わせを、補正処理を有効にするか無効にするかを判定するための特徴量としてもよい。
The feature extraction unit 12 (extraction unit) extracts features from the user's captured image and the registered image. The features are, for example, Haar-like features, color histograms, and color moments. The
補正判定部13(判定部)は、特徴抽出部12が抽出した特徴量に基づいて、撮像画像に対する補正処理を有効にするか否かを判定する。具体的には、補正判定部13は、ユーザの撮像画像の特徴量と、ユーザの登録画像の特徴量とを照合し、一致度を算出する。
The correction determination unit 13 (determination unit) determines whether or not to enable correction processing for the captured image based on the features extracted by the
例えば、補正判定部13は、眉と額側の肌との境界周辺のHaar-like特徴量を、撮像画像および登録画像のそれぞれで算出し、「(登録画像の特徴量-各特徴量の差分)/登録画像の特徴量」を一致度として算出することができる。補正判定部13は、眉と額側の肌との境界以外にも、複数部位でHaar-like特徴量を算出し、これらの平均値を一致度としてもよい。
For example, the
補正判定部13は、一致度が所定の閾値(例えば、80%)以上である場合、ユーザの撮像画像に対する補正処理を無効にすると判定し、一致度が所定の閾値未満である場合、補正処理を有効にすると判定することができる。
The
補正処理部14(補正部)は、補正判定部13が補正処理を有効にすると判定した場合に、ユーザの撮像画像を補正する。補正処理部14は、例えば、ユーザの身だしなみが整った画像および整っていない画像を学習させたGAN(Generative Adversarial Network)により、補正画像を生成することができる。また、補正処理部14は、登録画像の一部または顔全体を切り出し、ユーザの撮像画像の対応する部位を、切り出した画像で置き換えて合成することにより、補正画像を生成することも可能である。さらに、補正処理部14は、ユーザの撮像画像に対してノイズを除去するフィルタ処理または彩度調整をすることにより、補正画像を生成することも可能である。
The correction processing unit 14 (correction unit) corrects the captured image of the user when the
出力部15は、通話者であるユーザの画像を出力する。出力部15が出力した映像は、他のコンピュータに送信される。また、出力部15が出力した映像は、画像処理装置1の表示装置に表示されてもよい。出力部15は、補正判定部13がユーザの撮像画像に対する補正処理を有効にすると判定した場合は、補正後のユーザの撮像画像(補正画像)を出力し、補正処理を無効にすると判定した場合は、ユーザの撮像画像を補正せずに出力する。補正判定部13が補正処理を有効にすると判定した場合、出力部15は、通話相手が通話に使用するタブレット端末等の電子機器に、補正後のユーザの撮像画像を送信して表示させる。
The
本実施形態の画像処理装置1は、パーソナルコンピュータ、サーバコンピュータ、タブレット端末、スマートフォンのような汎用的なコンピュータでもよく、オンボードコンピュータのように組み込み型のコンピュータでもよい。画像処理装置1は、CPU(プロセッサ)、RAM(メモリ)、不揮発性のストレージ(HDD、SSDなど)、入力装置(タッチパネルなど)、通信装置(有線又は無線のLANモジュールなど)を有する。また、画像処理装置1は、レンズおよび撮像素子(CCDやCMOSなどのイメージセンサ)
を含む撮像装置、表示装置(液晶モニタなど)などのハードウェア資源も有する。
The
The image capturing device includes a display device (such as a liquid crystal monitor), and other hardware resources.
プロセッサは、ストレージに格納されたプログラムをRAMに展開して実行することにより、図2で説明する各機能部の機能を実現する。なお、画像処理装置1の実現方法はこれに限られない。画像処理装置1は、例えば、複数台のコンピュータ装置による分散コンピューティングにより実現されてもよく、各機能部の一部をクラウドサーバにより実現されてもよい。また、画像処理装置1の各機能部の一部は、FPGAまたはASICなどの専用のハードウェア装置によって実現されてもよい。
The processor deploys a program stored in the storage in the RAM and executes it to realize the functions of each functional unit described in FIG. 2. Note that the method of realizing the
(画像補正処理)
図3に沿って画像補正処理の全体的な流れを説明する。図3は、画像補正処理を例示するフローチャートである。画像補正処理は、例えば、ユーザが、画像処理装置1で通話に使用するアプリケーションを起動することにより開始される。なお、図3に示す画像補正処理は、カメラ画像(撮像画像)のフレームごとに実行される処理である。
(Image correction processing)
The overall flow of the image correction process will be described with reference to Fig. 3. Fig. 3 is a flowchart illustrating the image correction process. The image correction process is started, for example, when a user starts an application used for calling on the
S101では、特徴抽出部12は、撮像部10で撮像されたユーザのカメラ画像を取得する。特徴抽出部12は、カメラ画像の1フレームごとにS102の処理に進む。以下、各処理の説明で、カメラ画像は、撮像部10から受信するデータの1フレームの画像であるものとして説明する。
In S101, the
S102では、特徴抽出部12は、カメラ画像が、特徴量を評価するタイミングの画像であるか否かを判定する。特徴量を評価するタイミングは、例えば、特徴抽出部12が、各フレームのうち最初に人の顔を認識したタイミングとすることができる。なお、特徴量を評価するタイミングは、最初に人の顔を認識したタイミングに限られず、所定のフレーム数(例えば、30フレーム)ごと、または所定時間(例えば、5分)ごとのように所定の間隔としてもよい。カメラ画像が、特徴量を評価するタイミングの画像である場合(S102:Yes)、処理はS103に進む。カメラ画像が、特徴量を評価するタイミングの画像でない場合(S102:No)、処理はS108に進む。
In S102, the
S103では、特徴抽出部12は、カメラ画像の特徴量を抽出する。また、登録画像データベース11からユーザの登録画像を取得し、登録画像の特徴量を抽出する。ここで、図4および図5を用いて、特徴量の抽出について説明する。
In S103, the
・特徴量抽出の第1の例
図4は、顔の特徴量を抽出する第1の例を示す図である。図4の例は、ユーザ固有の経年変化しにくい特徴点を選択し、特徴点の周辺でHaar-like特徴量を抽出する例である。図4(A)のカメラ画像および図4(B)の登録画像に示す丸印は、ユーザ固有の経年変化しにくい特徴点を示す。
First Example of Feature Extraction Figure 4 is a diagram showing a first example of extracting facial features. The example in Figure 4 is an example in which feature points unique to a user that are unlikely to change over time are selected, and Haar-like features are extracted around the feature points. The circles shown in the camera image in Figure 4(A) and the registered image in Figure 4(B) indicate feature points unique to a user that are unlikely to change over time.
図4(A)は、カメラ画像とともに、ユーザの左目周辺の領域でHaar-like特徴量を算出した結果を示す。図4(A)は、エッジを識別する矩形パターン(上下または左右に2分割をして一方が白、他方が黒のフィルタ)等を使用してHaar-like特徴量を算出した例を示す。算出されたHaar-like特徴量は、算出された値に応じた濃淡の矩形により表されている。ユーザの左目の目尻401aでのHaar-like
特徴量は、グレー401bで示される。
Fig. 4A shows the results of Haar-like feature calculations in the area around the user's left eye together with a camera image. Fig. 4A shows an example of Haar-like feature calculations using a rectangular pattern for identifying edges (a filter dividing the area vertically or horizontally into two parts, one white and the other black). The calculated Haar-like feature is represented by a rectangle with a shade corresponding to the calculated value. Haar-like feature at the
The feature amount is indicated in gray 401b.
図4(B)は、登録画像とともに、ユーザの左目周辺の領域でHaar-like特徴量を算出した結果を示す。Haar-like特徴量は、図4(A)と同様に算出されたものとする。算出されたHaar-like特徴量は、算出された値に応じた濃淡の矩形により表されている。ユーザの左目の目尻402aでのHaar-like特徴量は、図
4(A)の401bよりも濃いグレー402bで示される。このように、登録画像では、アイライン等のメイクアップによる濃淡差により、カメラ画像よりもHaar-like特徴量が大きくなるため、402bは401bよりも濃くなる。
FIG. 4B shows the registered image together with the results of calculating the Haar-like feature amount in the area around the left eye of the user. The Haar-like feature amount is calculated in the same manner as in FIG. 4A. The calculated Haar-like feature amount is represented by a rectangle of a shade corresponding to the calculated value. The Haar-like feature amount at the
図4に示す第1の例では、カメラ画像と登録画像との一致度は、例えば、丸印で示す特徴点のそれぞれにおけるHaar-like特徴量の一致度に基づいて算出することができる。カメラ画像と登録画像との一致度は、各特徴点での一致度の合計値または平均値としてもよい。各特徴点での一致度は、例えば、(X-|X-Y|)/X(ただし、X:登録画像の特徴点でのHaar-like特徴量、Y:カメラ画像の対応する特徴点でのHaar-like特徴量)として算出することができる。 In the first example shown in FIG. 4, the degree of match between the camera image and the registered image can be calculated, for example, based on the degree of match of the Haar-like features at each of the feature points indicated by circles. The degree of match between the camera image and the registered image may be the sum or average of the degrees of match at each feature point. The degree of match at each feature point can be calculated, for example, as (X-|X-Y|)/X (where X is the Haar-like feature at the feature point of the registered image, and Y is the Haar-like feature at the corresponding feature point of the camera image).
なお、ユーザ固有の経年変化しにくい特徴点で特徴量を照合する方法は、顔認証のアルゴリズムを用いて実現することも可能である。補正判定部13は、S104およびS105の判定処理で、顔認証アルゴリズムによって本人であるか否かを示すスコアを算出し、カメラ画像と登録画像との一致度として使用することができる。
The method of matching features using feature points that are unique to a user and do not change easily over time can also be achieved using a facial recognition algorithm. In the determination processes of S104 and S105, the
・特徴量抽出の第2の例
図5は、顔の特徴量を抽出する第2の例を示す図である。図5の例は、同一ユーザ間で変化を捉えやすい特徴点を選択し、特徴点の周辺でHaar-like特徴量を抽出する例である。図5(A)のカメラ画像および図5(B)の登録画像に示す丸印は、同一ユーザ間で変化を捉えやすい特徴点を示す。
Second Example of Feature Extraction Figure 5 is a diagram showing a second example of extracting facial features. The example in Figure 5 is an example in which feature points that are easy to capture changes between the same user are selected, and Haar-like features are extracted around the feature points. The circles shown in the camera image in Figure 5 (A) and the registered image in Figure 5 (B) indicate feature points that are easy to capture changes between the same user.
図5(A)は、カメラ画像とともに、ユーザの左頬周辺の領域でHaar-like特徴量を算出した結果を示す。図5(A)は、エッジを識別する矩形パターン(上下または左右に2分割をして一方が白、他方が黒のフィルタ)等を使用してHaar-like特徴量を算出した例を示す。算出されたHaar-like特徴量は、算出された値に応じた濃淡の矩形により表されている。ユーザの左頬の中央501aでのHaar-like
特徴量は、白501bで示される。
Fig. 5(A) shows the results of calculating Haar-like features in the area around the left cheek of the user together with a camera image. Fig. 5(A) shows an example of calculating Haar-like features using a rectangular pattern (a filter dividing the area vertically or horizontally into two parts, one side being white and the other being black) that identifies edges. The calculated Haar-like features are represented by a rectangle with a shade corresponding to the calculated value. Haar-like features at the
The feature amount is indicated by white 501b.
図5(B)は、登録画像とともに、ユーザの左頬周辺の領域でHaar-like特徴量を算出した結果を示す。Haar-like特徴量は、図5(A)と同様に算出されたものとする。算出されたHaar-like特徴量は、算出された値に応じた濃淡の矩形により表されている。ユーザの左頬の中央502aでのHaar-like特徴量は、グ
レー502bで示される。このように、登録画像では、頬紅等のメイクアップによる濃淡差により、カメラ画像よりもHaar-like特徴量が大きくなるため、502bは401bよりも濃くなる。
FIG. 5B shows the registered image together with the results of calculating the Haar-like feature amount in the area around the left cheek of the user. The Haar-like feature amount is calculated in the same manner as in FIG. 5A. The calculated Haar-like feature amount is represented by a rectangle of a shade corresponding to the calculated value. The Haar-like feature amount at the
図5に示す第2の例では、カメラ画像と登録画像との一致度は、例えば、丸印で示す特徴点のそれぞれにおけるHaar-like特徴量の一致度に基づいて、図4の第1の例と同様に算出することができる。なお、女性の頬または男性の髭のように、身だしなみを整える前後で色が変化する部位で抽出する特徴量は、Haar-like特徴量に限られず、カラーヒストグラム、カラーモーメント等の特徴量、またはこれらを組み合わせた特徴量であってもよい。 In the second example shown in FIG. 5, the degree of match between the camera image and the registered image can be calculated in the same manner as in the first example of FIG. 4, for example, based on the degree of match of the Haar-like features at each of the feature points indicated by circles. Note that the features extracted from areas whose color changes before and after grooming, such as a woman's cheeks or a man's beard, are not limited to Haar-like features, but may be features such as color histograms and color moments, or a combination of these features.
第2の例では、同一ユーザ間で変化を捉えやすい特徴点での特徴量を照合するため、補正判定部13は、身だしなみが整っているか否かを精度良く判定することができる。同一ユーザ間で変化を捉えやすい特徴点は、女性の場合は、眉、目尻、頬、口等の部位、男性の場合は、髭が生える口周り等の部位から選択すればよい。男女の性別によって照合する特徴点の部位を変えることで、身だしなみが整っているか否かは、より精度良く判定することが可能となる。
In the second example, since feature amounts are compared at feature points that are likely to capture changes between the same user, the
・特徴量抽出の第3の例
顔の特徴量を抽出する第3の例として、CNN(Convolution Neural Network)等のディープラーニングにより生成された学習モデルを使用する例について説明する。第3の例で使用する学習モデルは、例えば、CNNに、身だしなみが整っている画像および身だしなみが整っていない画像を学習させて生成したモデルである。CNNに学習させる画像は、ユーザ本人以外の画像であってもよく、ユーザ本人の画像を含んでもよい。特徴抽出部12は、生成された学習モデルを使用して、CNNのアリゴリズムにより登録画像(身だしなみが整っている画像)およびカメラ画像のスコアを特徴量として抽出する。補正判定部13は、S104およびS105の判定処理で、登録画像のスコアとカメラ画像のスコアとの一致度に基づいて、カメラ画像に対する補正処理を有効にするか無効にするかを判定することができる。
Third Example of Feature Extraction As a third example of extracting facial features, an example of using a learning model generated by deep learning such as CNN (Convolution Neural Network) will be described. The learning model used in the third example is, for example, a model generated by having CNN learn images of well-groomed people and images of poorly-groomed people. The images to be learned by CNN may be images other than the user himself/herself, and may include images of the user himself/herself. The
図3に戻り、S104では、補正判定部13は、S103で抽出されたカメラ画像の特徴量と登録画像の特徴量とを照合する。具体的には、補正判定部13は、カメラ画像の特徴量と登録画像の特徴量とに基づいて、カメラ画像と登録画像との一致度を算出する。カメラ画像と登録画像との一致度は、上記の第1の例から第3の例で説明したように、各画像から抽出する特徴量の種類に応じた方法で算出される。
Returning to FIG. 3, in S104, the
S105では、補正判定部13は、S104で算出したカメラ画像と登録画像との一致度が、所定の閾値以上であるか否かを判定する。一致度が所定の閾値以上である場合(S105:Yes)、処理はS107に進む。一致度が所定の閾値未満である場合(S105:No)、処理はS106に進む。
In S105, the
S106では、カメラ画像と登録画像との一致度が所定の閾値未満であるため、補正判定部13は、補正フラグをオン(ON)に設定し、カメラ画像の補正処理を有効にする。S107では、カメラ画像と登録画像との一致度が所定の閾値以上であるため、補正判定部13は、補正フラグをオフ(OFF)に設定し、カメラ画像の補正処理を無効にする。
In S106, since the degree of match between the camera image and the registered image is less than a predetermined threshold, the
補正フラグは、補正処理部14が、ユーザの撮像画像に対する補正処理を実行するか否かを決定するためのフラグである。S106で補正フラグがオンに設定されると、後のフレームに対してS107で補正フラグがオフに設定されるまで、補正処理は有効となる。特徴量を評価するタイミングが通話の最初だけである場合、最初に補正フラグがオンに設定されると、補正処理部14は、通話が終了するまでカメラ画像の補正処理を継続する。
The correction flag is a flag for the
これに対し、S107で補正フラグがオフに設定されると、後のフレームに対してS106で補正フラグがオンに設定されるまで、補正処理は無効となる。特徴量を評価するタイミングが通話の最初だけである場合、最初に補正フラグがオフに設定されると、カメラ画像は補正されずに表示装置に表示される。 In contrast, if the correction flag is set to OFF in S107, the correction process is disabled until the correction flag is set to ON for a subsequent frame in S106. If the feature is evaluated only at the beginning of a call, when the correction flag is initially set to OFF, the camera image is displayed on the display device without correction.
また、特徴量を評価するタイミングが、所定のフレーム数ごとである場合、S106で補正フラグがオンに設定されると、次に特徴量を評価するタイミングになるまで、カメラ画像の補正処理は有効となる。反対に、S107で補正フラグがオフに設定されると、次に特徴量を評価するタイミングになるまで、カメラ画像の補正処理は無効となり、カメラ画像は補正されずに表示装置に表示される。 In addition, if the timing for evaluating the feature amount is every predetermined number of frames, when the correction flag is set to ON in S106, the correction process of the camera image will be valid until the next time the feature amount is evaluated. Conversely, when the correction flag is set to OFF in S107, the correction process of the camera image will be invalid until the next time the feature amount is evaluated, and the camera image will be displayed on the display device without correction.
S108では、補正処理部14は、補正フラグがオン(ON)であるか否かを判定する。補正フラグがオンである場合(S108:Yes)、処理はS109に進む。補正フラグがオフである場合(S108:No)、補正処理部14はカメラ画像を補正せずに出力部15に出力し、処理はS110に進む。
In S108, the
S109では、補正処理部14は、ユーザのカメラ画像を補正して補正画像を生成する。ここで、補正処理部14が、補正画像を生成する3つの方法について説明する。1つ目および2つ目の方法は、カメラ画像および登録画像に基づいて補正画像を生成する方法である。3つ目の方法は、予め用意された顔の特徴情報に基づいてカメラ画像を補正することにより、補正画像を生成する方法である。
In S109, the
1つ目の方法は、ユーザの身だしなみが整った画像と整っていない画像とを学習させたGANによって補正画像を生成する方法である。GANは、例えば、補正フラグがオフの場合のカメラ画像を、身だしなみが整った画像のデータとして学習させることができる。また、GANは、補正フラグがオンの場合のカメラ画像を、身だしなみが整っていない画像のデータとして学習させることができる。補正処理部14は、学習済みのGANにより、身だしなみが整った補正画像を生成することができる。
The first method is to generate a corrected image by using a GAN that has been trained with images of the user in which they are well-groomed and images of the user in which they are not well-groomed. For example, the GAN can learn camera images when the correction flag is off as data of an image in which the user is well-groomed. The GAN can also learn camera images when the correction flag is on as data of an image in which the user is not well-groomed. The
2つ目の方法は、ユーザの登録画像の一部または顔全体を切り出し、ユーザの撮像画像の対応する部位を、登録画像から切り出した画像に置き換えて、補正画像を生成する方法である。図1を用いて、2つ目の方法を具体的に説明する。図1の例では、補正処理部14は、登録画像の眉、目、口の画像を切り出す。補正処理部14は、カメラ画像での眉、目、口を、登録画像から切り出した眉、目、口の画像に置き換えて、補正画像を生成することができる。
The second method is to cut out a part of the user's registered image or the entire face, and replace the corresponding part of the user's captured image with the image cut out from the registered image to generate a corrected image. The second method will be explained in detail using Figure 1. In the example of Figure 1, the
なお、カメラ画像の一部を登録画像から切り出した画像に置き換えてこれらの画像を合成する際、カメラ画像と登録画像との一致度に応じて、補正量(ここでは、合成する割合)を変化させてもよい。例えば、補正処理部14は、一致度が高くなるにつれて補正量を減らし、一致度が低くなるにつれて補正量を増やせばよい。
When replacing a part of the camera image with an image cut out from the registered image and combining these images, the amount of correction (here, the rate of combining) may be changed according to the degree of match between the camera image and the registered image. For example, the
また、ユーザは、登録画像の顔全体を切り出して置換するのか、一部を切り出して置換するのかを設定できるようにしてもよい。また、登録画像の一部を切り出す場合、ユーザは、顔のどの部位を切り出して置換するのかを設定できるようにしてもよい。 The user may also be able to set whether to cut out and replace the entire face from the registered image, or to cut out and replace only a portion of it. If a portion of the registered image is cut out, the user may also be able to set which part of the face is to be cut out and replaced.
3つ目の方法は、登録画像は使用せずに、予め登録画像データベース11等に格納された顔の特徴情報に基づいてカメラ画像を補正し、補正画像を生成する方法である。顔の特徴情報は、例えば、メイクアップを施した場合の眉、口、頬、肌の色または明るさ等の情報である。顔の特徴情報は、例えば、仕事用、プライベート用などビデオ通話のシーンに応じて複数のパターンが用意されてもよい。ユーザは、ビデオ通話のシーンに応じて登録画像用意する手間を省くことができる。
The third method is to correct the camera image based on facial feature information stored in advance in the registered
図6を用いて、3つ目の方法を具体的に説明する。図6の例では、補正処理部14は、カメラ画像での頬のシミを、ノイズを除去するフィルタ処理により除去している。また、補正処理部14は、顔の特徴情報に基づいて、眉、口、頬、肌の彩度調整をすることにより、補正画像(表示画像)を生成することができる。なお、フィルタ処理または彩度調整をする場合に、カメラ画像と登録画像との一致度に応じて補正量を変化させてもよい。
The third method will be described in detail with reference to FIG. 6. In the example of FIG. 6, the
図3に戻り、S110では、出力部15は、補正処理部14から出力された映像を出力する。すなわち、出力部15は、補正フラグがオンに設定されている場合、補正処理部14が生成した補正画像を出力する。また、出力部15は、補正フラグがオフに設定されている場合、補正されていないユーザのカメラ画像を出力する。出力部15が出力した映像は、他のコンピュータに送信され表示される。また、出力部15が出力した映像は、表示装置に表示される。
Returning to FIG. 3, in S110, the
画像処理装置1は、ユーザが通話を終了するまでの間、フレームごとに上記の処理を繰り返す。ユーザが通話を終了すると、S101でカメラ画像は取得されなくなり、図3に示す画像補正処理は終了する。
The
(作用効果)
上記の実施形態において、画像処理装置1は、カメラ画像(撮像画像)と、身だしなみが整っている登録画像を取得し、各画像から特徴量を抽出して一致度を評価する。画像処理装置1は、一致度が所定の閾値以上であれば、身だしなみが整っていると判定し補正処理を無効にする。また、画像処理装置1は、一致度が所定の閾値未満であれば、身だしなみが整っていないと判定し、補正処理を有効にする。これにより、通話者(ユーザ)は、身だしなみの状態を気にしたり、画像の補正を指示するための特別な操作をしたりすることなく、ビデオ通話に臨むことができる。
(Action and Effect)
In the above embodiment, the
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<Other>
The above-described embodiment merely describes an exemplary configuration of the present invention. The present invention is not limited to the above-described specific embodiment, and various modifications are possible within the scope of the technical concept thereof.
例えば、上記の実施形態では、補正判定部13は、カメラ画像と登録画像との特徴量を照合し、一致度を評価するがこれに限られない。補正判定部13は、カメラ画像の特徴量と登録画像の特徴量との差分を評価して、差分が所定の閾値以上の場合に補正処理を有効にし、差分が所定の閾値未満の場合に補正処理を無効にしてもよい。
For example, in the above embodiment, the
また、例えば、上記の実施形態では、補正判定部13は、カメラ画像と身だしなみが整った状態の画像との一致度が所定の閾値以上の場合に、補正処理を無効にするがこれに限られない。登録画像データベース11に身だしなみが整っていない状態の画像をユーザの基準画像として格納してもよい。この場合、補正判定部13は、カメラ画像と身だしなみが整っていない状態の画像との一致度が所定の閾値未満の場合に補正処理を無効にし、一致度が所定の閾値以上の場合に補正処理を有効にするようにしてもよい。
Also, for example, in the above embodiment, the
<付記1>
(1)ユーザの撮像画像および前記ユーザの基準画像の特徴量を抽出する抽出部(12)と、
前記ユーザの撮像画像の特徴量と前記ユーザの基準画像の特徴量とを照合した結果に基づいて、前記ユーザの撮像画像に対する補正処理を有効にするか無効にするかを判定する判定部(13)と、
前記補正処理を有効にすると判定した場合に、前記ユーザの撮像画像の補正画像を生成する補正部(14)と、
前記補正処理を有効にすると判定された場合は、前記補正画像を出力し、前記補正処理を無効にすると判定された場合は、補正されていない前記ユーザの撮像画像を出力する出力部(15)と、
を備えることを特徴とする画像処理装置(1)。
<
(1) an extraction unit (12) that extracts features of a captured image of a user and a reference image of the user;
a determination unit (13) that determines whether to enable or disable a correction process for the captured image of the user based on a result of comparing a feature amount of the captured image of the user with a feature amount of a reference image of the user;
a correction unit (14) that generates a corrected image of the captured image of the user when it is determined that the correction process is enabled;
an output unit (15) that outputs the corrected image when it is determined that the correction process is enabled, and outputs an uncorrected captured image of the user when it is determined that the correction process is disabled;
An image processing device (1).
(2)ユーザの撮像画像および前記ユーザの基準画像の特徴量を抽出する抽出ステップと(S103)、
前記ユーザの撮像画像の特徴量と前記ユーザの基準画像の特徴量とを照合した結果に基づいて、前記ユーザの撮像画像に対する補正処理を有効にするか無効にするかを判定する判定ステップと(S104~S107)、
前記補正処理を有効にすると判定した場合に、前記ユーザの撮像画像の補正画像を生成する補正ステップと(S108、S109)、
前記補正処理を有効にすると判定された場合は、前記補正画像を出力し、前記補正処理を無効にすると判定された場合は、補正されていない前記ユーザの撮像画像を出力する出力ステップと(S110)、
を含むことを特徴とする画像処理方法。
(2) an extraction step of extracting features of a captured image of a user and a reference image of the user (S103);
a determination step of determining whether to enable or disable a correction process for the captured image of the user based on a result of comparing the feature amount of the captured image of the user with the feature amount of a reference image of the user (S104 to S107);
a correction step of generating a corrected image of the captured image of the user when it is determined that the correction process is enabled (S108, S109);
an output step of outputting the corrected image when it is determined that the correction process is to be enabled, and outputting an uncorrected captured image of the user when it is determined that the correction process is to be disabled (S110);
13. An image processing method comprising:
1:画像処理装置、10:撮像部、11:登録画像データベース、12:特徴抽出部、13:補正判定部、14:補正処理部、15:出力部 1: Image processing device, 10: Imaging unit, 11: Registered image database, 12: Feature extraction unit, 13: Correction determination unit, 14: Correction processing unit, 15: Output unit
Claims (14)
前記ユーザの顔の撮像画像の特徴量と前記ユーザの顔の基準画像の特徴量とを照合した結果に基づいて、前記ユーザの顔の撮像画像に対する補正処理を有効にするか無効にするかを判定する判定部と、
前記補正処理を有効にすると判定した場合に、前記ユーザの顔の撮像画像の補正画像を生成する補正部と、
前記補正処理を有効にすると判定された場合は、前記補正画像を出力し、前記補正処理を無効にすると判定された場合は、補正されていない前記ユーザの顔の撮像画像を出力する出力部と、
を備え、
前記ユーザの顔の基準画像は、前記ユーザの身だしなみが整っていない状態の画像であることを特徴とする画像処理装置。 an extraction unit that extracts feature amounts of a captured image of a user's face and a reference image of the user's face ;
a determination unit that determines whether to enable or disable a correction process for the captured image of the user's face based on a result of comparing a feature amount of the captured image of the user's face with a feature amount of a reference image of the user's face ;
a correction unit that generates a corrected image of the captured image of the face of the user when it is determined that the correction process is enabled;
an output unit that outputs the corrected image when it is determined that the correction process is enabled, and outputs an uncorrected captured image of the user's face when it is determined that the correction process is disabled;
Equipped with
The image processing device according to claim 1, wherein the reference image of the user's face is an image of the user in an ungroomed state.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the feature amount is a feature amount of at least one of eyebrows and cheeks of the user.
ことを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the feature amount includes at least one of a Haar-like feature amount, a color histogram, and a color moment.
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 4. The image processing device according to claim 1, wherein the feature amount is calculated by an algorithm using a learning model that has been trained on images of the user in a well-groomed state and images of the user in an ungroomed state.
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 4, characterized in that the determination unit calculates a degree of similarity between features of a captured image of the user's face and features of a reference image of the user's face , and determines to disable the correction process if the degree of similarity is less than a predetermined threshold, and to enable the correction process if the degree of similarity is equal to or greater than a predetermined threshold.
ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 The image processing device according to claim 1 , wherein the correction unit generates the corrected image based on a captured image of the user's face and a reference image of the user's face .
ことを特徴とする請求項7に記載の画像処理装置。 The image processing device according to claim 7 , wherein the correction unit generates the corrected image by a Generative Adversarial Network (GAN) that has been made to learn the captured image of the user's face and a reference image of the user's face .
ことを特徴とする請求項7に記載の画像処理装置。 The image processing device according to claim 7, characterized in that the correction unit generates the corrected image by cutting out eyebrows, eyes, mouth or the entire face of the reference image of the user's face and replacing the corresponding part of the captured image of the user's face with an image cut out of the corresponding part.
ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 7. The image processing device according to claim 1, wherein the correction unit generates the corrected image by performing a filter process for removing noise or a saturation adjustment on the captured image of the user's face based on facial feature information.
ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 The image processing device according to claim 1 , wherein the determination unit determines whether to enable or disable the correction process for each predetermined number of frames of a captured image of the user's face.
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 The image processing device according to claim 1 , further comprising an imaging unit that captures an image of the face of the user.
前記ユーザの顔の撮像画像の特徴量と前記ユーザの顔の基準画像の特徴量とを照合した結果に基づいて、前記ユーザの顔の撮像画像に対する補正処理を有効にするか無効にするかを判定する判定ステップと、
前記補正処理を有効にすると判定した場合に、前記ユーザの顔の撮像画像の補正画像を生成する補正ステップと、
前記補正処理を有効にすると判定された場合は、前記補正画像を出力し、前記補正処理を無効にすると判定された場合は、補正されていない前記ユーザの顔の撮像画像を出力する出力ステップと、
を含み、
前記ユーザの顔の基準画像は、前記ユーザの身だしなみが整っていない状態の画像であることを特徴とする画像処理方法。 An extraction step of extracting feature amounts of a captured image of a user's face and a reference image of the user's face ;
a determination step of determining whether to enable or disable a correction process for the captured image of the user's face based on a result of comparing a feature amount of the captured image of the user's face with a feature amount of a reference image of the user's face ;
a correction step of generating a corrected image of the captured image of the face of the user when it is determined that the correction process is enabled;
an output step of outputting the corrected image when it is determined that the correction process is to be enabled, and outputting an uncorrected captured image of the user's face when it is determined that the correction process is to be disabled;
Including,
An image processing method, characterized in that the reference image of the user's face is an image of the user in an ungroomed state.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135645A JP7604804B2 (en) | 2020-08-11 | 2020-08-11 | Image processing device and image processing method |
PCT/JP2021/027178 WO2022034779A1 (en) | 2020-08-11 | 2021-07-20 | Image processing device, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135645A JP7604804B2 (en) | 2020-08-11 | 2020-08-11 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022032133A JP2022032133A (en) | 2022-02-25 |
JP7604804B2 true JP7604804B2 (en) | 2024-12-24 |
Family
ID=80247172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020135645A Active JP7604804B2 (en) | 2020-08-11 | 2020-08-11 | Image processing device and image processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7604804B2 (en) |
WO (1) | WO2022034779A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4492303A1 (en) * | 2022-03-09 | 2025-01-15 | Sony Semiconductor Solutions Corporation | Information processing device, information processing method, recording medium, and information processing system |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005124161A (en) | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Video telephone set and program |
JP2005148916A (en) | 2003-11-12 | 2005-06-09 | Noritsu Koki Co Ltd | Face selection method for density correction and apparatus for carrying out this method |
US20090147141A1 (en) | 2007-12-11 | 2009-06-11 | Hae Sun Lee | Method and apparatus for video telephony in mobile terminal |
JP2011198178A (en) | 2010-03-23 | 2011-10-06 | Nikon Corp | Electronic device |
JP2013141104A (en) | 2011-12-29 | 2013-07-18 | Nikon Corp | Imaging apparatus |
JP2013171470A (en) | 2012-02-21 | 2013-09-02 | Kao Corp | Face image synthesis device and face image synthesis method |
JP2013172166A (en) | 2012-02-17 | 2013-09-02 | Nikon Corp | Image processing apparatus, imaging apparatus, and program |
JP2013218530A (en) | 2012-04-09 | 2013-10-24 | Morpho Inc | Feature point detection device, feature point detection method, feature point detection program and recording medium |
JP2013257844A (en) | 2012-06-14 | 2013-12-26 | Casio Comput Co Ltd | Image conversion device, and image conversion method and program |
JP2015176252A (en) | 2014-03-13 | 2015-10-05 | オムロン株式会社 | Image processor and image processing method |
JP5950486B1 (en) | 2015-04-01 | 2016-07-13 | みずほ情報総研株式会社 | Aging prediction system, aging prediction method, and aging prediction program |
JP2016177829A (en) | 2016-05-18 | 2016-10-06 | みずほ情報総研株式会社 | Information prediction system, information prediction method and information prediction program |
JP2017033372A (en) | 2015-08-04 | 2017-02-09 | 日本放送協会 | Person recognition device and program thereof |
JP2018018367A (en) | 2016-07-29 | 2018-02-01 | 株式会社Ihi | Authentication system, authentication method, and authentication program |
JP2019201360A (en) | 2018-05-17 | 2019-11-21 | 住友電気工業株式会社 | Image processing apparatus, computer program, video call system, and image processing method |
US20200004333A1 (en) | 2019-06-20 | 2020-01-02 | Lg Electronics Inc. | Method and apparatus for display control using eye tracking |
JP2020013563A (en) | 2018-07-19 | 2020-01-23 | パロ アルト リサーチ センター インコーポレイテッド | System and method for generating photorealistic composite images based on semantic information |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346663A (en) * | 2004-06-07 | 2005-12-15 | Seiko Epson Corp | Object image discrimination method, object image discrimination system, object image discrimination program, and false detection discrimination method, false detection discrimination system, false detection discrimination program |
JP2012053813A (en) * | 2010-09-03 | 2012-03-15 | Dainippon Printing Co Ltd | Person attribute estimation device, person attribute estimation method and program |
JP6338191B2 (en) * | 2013-07-01 | 2018-06-06 | Necソリューションイノベータ株式会社 | Attribute estimation system |
US9838635B2 (en) * | 2014-09-30 | 2017-12-05 | Qualcomm Incorporated | Feature computation in a sensor element array |
JP7087331B2 (en) * | 2017-10-05 | 2022-06-21 | カシオ計算機株式会社 | Image processing equipment, image processing methods and programs |
-
2020
- 2020-08-11 JP JP2020135645A patent/JP7604804B2/en active Active
-
2021
- 2021-07-20 WO PCT/JP2021/027178 patent/WO2022034779A1/en active Application Filing
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005124161A (en) | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Video telephone set and program |
JP2005148916A (en) | 2003-11-12 | 2005-06-09 | Noritsu Koki Co Ltd | Face selection method for density correction and apparatus for carrying out this method |
US20090147141A1 (en) | 2007-12-11 | 2009-06-11 | Hae Sun Lee | Method and apparatus for video telephony in mobile terminal |
JP2011198178A (en) | 2010-03-23 | 2011-10-06 | Nikon Corp | Electronic device |
JP2013141104A (en) | 2011-12-29 | 2013-07-18 | Nikon Corp | Imaging apparatus |
JP2013172166A (en) | 2012-02-17 | 2013-09-02 | Nikon Corp | Image processing apparatus, imaging apparatus, and program |
JP2013171470A (en) | 2012-02-21 | 2013-09-02 | Kao Corp | Face image synthesis device and face image synthesis method |
JP2013218530A (en) | 2012-04-09 | 2013-10-24 | Morpho Inc | Feature point detection device, feature point detection method, feature point detection program and recording medium |
JP2013257844A (en) | 2012-06-14 | 2013-12-26 | Casio Comput Co Ltd | Image conversion device, and image conversion method and program |
JP2015176252A (en) | 2014-03-13 | 2015-10-05 | オムロン株式会社 | Image processor and image processing method |
JP5950486B1 (en) | 2015-04-01 | 2016-07-13 | みずほ情報総研株式会社 | Aging prediction system, aging prediction method, and aging prediction program |
JP2017033372A (en) | 2015-08-04 | 2017-02-09 | 日本放送協会 | Person recognition device and program thereof |
JP2016177829A (en) | 2016-05-18 | 2016-10-06 | みずほ情報総研株式会社 | Information prediction system, information prediction method and information prediction program |
JP2018018367A (en) | 2016-07-29 | 2018-02-01 | 株式会社Ihi | Authentication system, authentication method, and authentication program |
JP2019201360A (en) | 2018-05-17 | 2019-11-21 | 住友電気工業株式会社 | Image processing apparatus, computer program, video call system, and image processing method |
JP2020013563A (en) | 2018-07-19 | 2020-01-23 | パロ アルト リサーチ センター インコーポレイテッド | System and method for generating photorealistic composite images based on semantic information |
US20200004333A1 (en) | 2019-06-20 | 2020-01-02 | Lg Electronics Inc. | Method and apparatus for display control using eye tracking |
Also Published As
Publication number | Publication date |
---|---|
JP2022032133A (en) | 2022-02-25 |
WO2022034779A1 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107730444B (en) | Image processing method, image processing device, readable storage medium and computer equipment | |
CN105072327B (en) | A kind of method and apparatus of the portrait processing of anti-eye closing | |
WO2020253349A1 (en) | Image recognition-based driving behavior warning method and apparatus, and computer device | |
WO2016179985A1 (en) | Device having health detection function, display device, system and health detection method | |
KR101190686B1 (en) | Image processing apparatus, image processing method, and computer readable recording medium | |
WO2016180224A1 (en) | Method and device for processing image of person | |
JP6369246B2 (en) | Caricature generating device and caricature generating method | |
CN107766831A (en) | Image processing method, device, mobile terminal and computer-readable recording medium | |
CN109447031B (en) | Image processing method, device, equipment and storage medium | |
CN101542522A (en) | Pupil color correction device and program | |
CN114830193A (en) | Generating video including modified face images | |
WO2023010796A1 (en) | Image processing method and related apparatus | |
CN114120422A (en) | Expression recognition method and device based on local image data fusion | |
JP7604804B2 (en) | Image processing device and image processing method | |
CN113239220A (en) | Image recommendation method and device, terminal and readable storage medium | |
CN109044375A (en) | Control system and method for tracking and detecting eyeball fatigue degree in real time | |
KR101507410B1 (en) | Live make-up photograpy method and apparatus of mobile terminal | |
JP2021010652A (en) | Information processing device, evaluation method, and information processing program | |
TWI743413B (en) | Single-photo generating device and method and non-volatile computer-readable media thereof | |
CN114078082B (en) | A training and image generation method and device for a gender conversion model of a person image | |
CN114681258B (en) | Method for adaptively adjusting massage mode and massage equipment | |
CN103902983A (en) | Wearable face recognition method and device | |
CN113326775A (en) | Image processing method and device, terminal and readable storage medium | |
CN111008577A (en) | A scoring method, system, device and storage medium based on virtual face | |
CN113033250A (en) | Facial muscle state analysis and evaluation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240618 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7604804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |