[go: up one dir, main page]

JP2013058861A - Image processor, and method and program for controlling image processor - Google Patents

Image processor, and method and program for controlling image processor Download PDF

Info

Publication number
JP2013058861A
JP2013058861A JP2011195294A JP2011195294A JP2013058861A JP 2013058861 A JP2013058861 A JP 2013058861A JP 2011195294 A JP2011195294 A JP 2011195294A JP 2011195294 A JP2011195294 A JP 2011195294A JP 2013058861 A JP2013058861 A JP 2013058861A
Authority
JP
Japan
Prior art keywords
image
effect
unit
image processing
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2011195294A
Other languages
Japanese (ja)
Inventor
Soyon Ri
素よん 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011195294A priority Critical patent/JP2013058861A/en
Publication of JP2013058861A publication Critical patent/JP2013058861A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザ好みの画像を容易に生成する。
【解決手段】画像処理装置は、第1処理部と、第2処理部と、制御部とを備える。第1処理部は、画像に第1効果を与える。第2処理部は、第1効果とは異なる効果であって複数種類の第2効果を画像に与える。制御部は、操作受付部により受け付けられたユーザ操作が所定条件を満たす場合には、第1処理部による第1効果をそのユーザ操作に応じて画像に与えるための制御を行う。また、制御部は、そのユーザ操作が所定条件を満たさない場合には、第2処理部による第2効果のうちの何れかの効果をそのユーザ操作に応じて画像に与えるための制御を行う。
【選択図】図1
A user-preferred image is easily generated.
An image processing apparatus includes a first processing unit, a second processing unit, and a control unit. The first processing unit gives a first effect to the image. The second processing unit is an effect different from the first effect and gives a plurality of types of second effects to the image. When the user operation received by the operation receiving unit satisfies a predetermined condition, the control unit performs control for giving the first effect by the first processing unit to the image according to the user operation. Further, when the user operation does not satisfy the predetermined condition, the control unit performs control for giving any one of the second effects by the second processing unit to the image according to the user operation.
[Selection] Figure 1

Description

本技術は、画像処理装置に関する。詳しくは、画像を扱う画像処理装置およびその制御方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present technology relates to an image processing apparatus. Specifically, the present invention relates to an image processing apparatus that handles images, a control method thereof, and a program that causes a computer to execute the method.

近年、人物等の被写体を撮像して画像を生成し、この生成された画像を画像コンテンツ(画像ファイル)として記録する画像処理装置(例えば、デジタルスチルカメラ等の撮像装置)が普及している。また、このように生成される画像について各種効果を加える技術が多数提案されている。   In recent years, an image processing apparatus (for example, an imaging apparatus such as a digital still camera) that captures an image of a subject such as a person and generates an image and records the generated image as an image content (image file) has become widespread. A number of techniques for applying various effects to the image generated in this way have been proposed.

例えば、デジタルスチルカメラから取り込まれた画像のうち、ユーザ操作により設定された領域内については、シャープ化処理を行い、その領域外については、ぼけ化処理を行う画像データ処理装置が提案されている(例えば、特許文献1参照。)。   For example, there has been proposed an image data processing apparatus that performs sharpening processing within an area set by a user operation among images captured from a digital still camera, and performs blurring processing outside the area. (For example, refer to Patent Document 1).

特開平11−144026号公報Japanese Patent Laid-Open No. 11-144026

上述の従来技術によれば、簡単な構成で望遠効果を実現することができる。   According to the above-described conventional technology, the telephoto effect can be realized with a simple configuration.

ここで、ユーザの好みは多種多様であるため、撮像装置により生成される画像のぼかし度合い等についても、ユーザの好みが多種多様であると想定される。そこで、例えば、ユーザの好みに応じた適切な処理を撮像動作中における比較的容易な操作により行うことができれば、ユーザ好みの画像を容易に生成することができると考えられる。   Here, since there are a variety of user preferences, it is assumed that there are a variety of user preferences with respect to the degree of blurring of an image generated by the imaging apparatus. Therefore, for example, if an appropriate process according to the user's preference can be performed by a relatively easy operation during the imaging operation, it is considered that an image preferred by the user can be easily generated.

本技術はこのような状況に鑑みて生み出されたものであり、ユーザ好みの画像を容易に生成することを目的とする。   The present technology has been created in view of such a situation, and an object thereof is to easily generate a user-preferred image.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、画像に第1効果を与える第1処理部と、上記第1効果とは異なる効果であって複数種類の第2効果を上記画像に与える第2処理部と、操作受付部により受け付けられたユーザ操作が所定条件を満たす場合には上記第1処理部による上記第1効果を当該ユーザ操作に応じて上記画像に与え、当該ユーザ操作が所定条件を満たさない場合には上記第2処理部による上記第2効果のうちの何れかの効果を当該ユーザ操作に応じて上記画像に与えるための制御を行う制御部とを具備する画像処理装置およびその制御方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、ユーザ操作が所定条件を満たす場合には、第1処理部による第1効果をそのユーザ操作に応じて画像に与え、そのユーザ操作が所定条件を満たさない場合には、第2処理部による第2効果のうちの何れかの効果をそのユーザ操作に応じて画像に与えるという作用をもたらす。   The present technology has been made to solve the above-described problems. The first aspect of the present technology is a first processing unit that gives a first effect to an image and an effect different from the first effect. A second processing unit that applies a plurality of types of second effects to the image, and when the user operation received by the operation receiving unit satisfies a predetermined condition, the first effect by the first processing unit is determined according to the user operation. If the user operation does not satisfy a predetermined condition, control for giving any one of the second effects by the second processing unit to the image according to the user operation is performed. An image processing apparatus including a control unit to perform, a control method thereof, and a program for causing a computer to execute the method. Thereby, when the user operation satisfies the predetermined condition, the first effect by the first processing unit is given to the image according to the user operation, and when the user operation does not satisfy the predetermined condition, the second processing unit This brings about the effect that any one of the second effects is applied to the image in accordance with the user operation.

また、この第1の側面において、光学系をさらに具備し、上記制御部は、上記光学系を制御することより上記第1効果を上記画像に与えるようにしてもよい。これにより、光学系を制御することより第1効果を画像に与えるという作用をもたらす。   Further, in the first aspect, an optical system may be further provided, and the control unit may give the first effect to the image by controlling the optical system. This brings about the effect | action which gives a 1st effect to an image by controlling an optical system.

また、この第1の側面において、上記ユーザ操作により設定された処理が、上記光学系の制御により得られる処理の範囲の中であることを上記所定条件とするようにしてもよい。これにより、ユーザ操作により設定された処理が、光学系の制御により得られる処理の範囲の中である場合に所定条件を満たすと判定するという作用をもたらす。   In the first aspect, the predetermined condition may be that the processing set by the user operation is within a processing range obtained by controlling the optical system. Accordingly, there is an effect that it is determined that the predetermined condition is satisfied when the processing set by the user operation is within the processing range obtained by the control of the optical system.

また、この第1の側面において、上記第1効果を、上記光学系の制御から生じる光学ぼかし効果とし、上記第2効果を、デジタル画像処理によるデジタルぼかし効果とするようにしてもよい。これにより、光学系の制御から生じる光学ぼかし効果、または、デジタル画像処理によるデジタルぼかし効果を与えるという作用をもたらす。   In the first aspect, the first effect may be an optical blur effect resulting from the control of the optical system, and the second effect may be a digital blur effect by digital image processing. This brings about the effect | action of giving the optical blurring effect resulting from control of an optical system, or the digital blurring effect by digital image processing.

また、この第1の側面において、上記第2処理部を、上記画像にデジタル画像処理を施すことにより上記複数種類の第2効果を与える画像処理部とするようにしてもよい。これにより、画像にデジタル画像処理を施すことにより複数種類の第2効果を与えるという作用をもたらす。   In the first aspect, the second processing unit may be an image processing unit that applies the plurality of types of second effects by performing digital image processing on the image. This brings about the effect of giving a plurality of types of second effects by applying digital image processing to the image.

また、この第1の側面において、上記第2効果を、ぼかし効果とし、上記制御部は、上記ユーザ操作が上記所定条件を満たさない場合には、当該ユーザ操作に応じて上記画像処理部を制御することにより複数種類の上記ぼかし効果のうちの何れかのぼかし効果を当該ユーザ操作に応じて上記画像に与えるための制御を行うようにしてもよい。これにより、ユーザ操作が所定条件を満たさない場合には、そのユーザ操作に応じて画像処理部を制御することにより、複数種類のぼかし効果のうちの何れかのぼかし効果をそのユーザ操作に応じて画像に与えるという作用をもたらす。   In the first aspect, the second effect is a blur effect, and the control unit controls the image processing unit according to the user operation when the user operation does not satisfy the predetermined condition. By doing so, you may make it perform control for giving any one of the said blurring effects of a plurality of said blurring effects to the said image according to the said user operation. Thereby, when the user operation does not satisfy the predetermined condition, by controlling the image processing unit according to the user operation, any one of the plurality of types of blur effects can be selected according to the user operation. The effect is to give to the image.

また、この第1の側面において、上記制御部は、上記ユーザ操作を受け付けるための操作領域画像を表示部に表示させるための制御を行うようにしてもよい。これにより、ユーザ操作を受け付けるための操作領域画像を表示させるという作用をもたらす。   In the first aspect, the control unit may perform control for displaying an operation region image for accepting the user operation on the display unit. This brings about the effect | action of displaying the operation area | region image for accepting user operation.

また、この第1の側面において、上記制御部は、上記第1処理部による上記第1効果を上記画像に与えるための上記ユーザ操作としてユーザによる接触操作を行うための第1操作範囲と、上記第2処理部による上記第2効果のうちの何れかの効果を上記画像に与えるための上記ユーザ操作としてユーザによる接触操作を行うための第2操作範囲とを含む一連の線状領域を上記操作領域画像として上記表示部に表示させるための制御を行うようにしてもよい。これにより、第1操作範囲および第2操作範囲を含む一連の線状領域を操作領域画像として表示させるという作用をもたらす。   In the first aspect, the control unit includes a first operation range for performing a contact operation by a user as the user operation for giving the first effect to the image by the first processing unit, A series of linear regions including a second operation range for performing a contact operation by a user as the user operation for giving any one of the second effects to the image by the second processing unit. You may make it perform control for displaying on the said display part as an area | region image. This brings about the effect that a series of linear regions including the first operation range and the second operation range are displayed as an operation region image.

また、この第1の側面において、上記制御部は、上記第1操作範囲における上記接触操作が行われた位置と上記第1操作範囲および上記第2操作範囲の境界との距離に応じて上記第1処理部による上記第1効果の高低を決定し、上記第2操作範囲における上記接触操作が行われた位置と上記境界との距離に応じて上記第2処理部による上記第2効果の高低を決定するように制御を行うようにしてもよい。これにより、第1操作範囲における接触操作が行われた位置と第1操作範囲および第2操作範囲の境界との距離に応じて第1処理部による第1効果の高低を決定し、第2操作範囲における接触操作が行われた位置とその境界との距離に応じて第2処理部による第2効果の高低を決定するという作用をもたらす。   Further, in the first aspect, the control unit performs the first operation according to a distance between a position where the contact operation is performed in the first operation range and a boundary between the first operation range and the second operation range. The level of the first effect by the first processing unit is determined, and the level of the second effect by the second processing unit is determined according to the distance between the position where the contact operation is performed in the second operation range and the boundary. You may make it control so that it may determine. Accordingly, the level of the first effect by the first processing unit is determined according to the distance between the position where the contact operation is performed in the first operation range and the boundary between the first operation range and the second operation range, and the second operation This brings about the effect that the level of the second effect by the second processing unit is determined according to the distance between the position where the contact operation is performed in the range and the boundary thereof.

また、この第1の側面において、上記制御部は、上記第1操作範囲および上記第2操作範囲の境界から分岐する複数の線状領域を上記第2操作範囲における上記複数種類の第2効果に対応する画像として上記表示部に表示させるための制御を行うようにしてもよい。これにより、第1操作範囲および第2操作範囲の境界から分岐する複数の線状領域を第2操作範囲における複数種類の第2効果に対応する画像として表示させるという作用をもたらす。   In the first aspect, the control unit converts the plurality of linear regions branched from the boundary between the first operation range and the second operation range into the plurality of types of second effects in the second operation range. You may make it perform control for displaying on the said display part as a corresponding image. Accordingly, there is an effect that a plurality of linear regions branched from the boundary between the first operation range and the second operation range are displayed as images corresponding to a plurality of types of second effects in the second operation range.

また、この第1の側面において、上記制御部は、上記第2効果を表す画像を当該第2効果に係る線状領域に関連付けて上記複数種類の第2効果毎に上記表示部に表示させるための制御を行うようにしてもよい。これにより、第2効果を表す画像を、その第2効果に係る線状領域に関連付けて、複数種類の第2効果毎に表示させるという作用をもたらす。   In the first aspect, the control unit associates an image representing the second effect with a linear region related to the second effect and causes the display unit to display the image for each of the plurality of types of second effects. You may make it perform control of. This brings about the effect | action of associating the image showing the 2nd effect with the linear area | region which concerns on the 2nd effect, and displaying for every 2nd kind of 2nd effect.

また、この第1の側面において、上記制御部は、上記ユーザ操作に応じた効果が与えられた上記画像を表示部に表示させる制御を行うようにしてもよい。これにより、ユーザ操作に応じた効果が与えられた画像を表示させるという作用をもたらす。   In the first aspect, the control unit may perform control to display the image on which an effect according to the user operation is given on the display unit. This brings about the effect | action of displaying the image to which the effect according to user operation was given.

また、この第1の側面において、上記制御部は、上記画像を記録するための記録指示操作が受け付けられた場合には当該記録指示操作に応じて記録される画像であって上記ユーザ操作に応じた効果が与えられた画像を表示部に表示させる制御を行うようにしてもよい。これにより、記録指示操作が受け付けられた場合には、その記録指示操作に応じて記録される画像であってそのユーザ操作に応じた効果が与えられた画像を表示させるという作用をもたらす。   In the first aspect, the control unit is an image that is recorded in response to the recording instruction operation when a recording instruction operation for recording the image is received, and that corresponds to the user operation. Control may be performed to display an image to which the effect is given on the display unit. As a result, when a recording instruction operation is accepted, an image that is recorded according to the recording instruction operation and that has an effect according to the user operation is displayed.

また、この第1の側面において、撮像部をさらに具備するようにしてもよい。これにより、撮像部により生成された画像について、ユーザ操作に応じた第1効果または第2効果を与えるという作用をもたらす。   In the first aspect, an imaging unit may be further provided. This brings about the effect | action of giving the 1st effect or the 2nd effect according to user operation about the image produced | generated by the imaging part.

本技術によれば、ユーザ好みの画像を容易に生成することができるという優れた効果を奏し得る。   According to the present technology, it is possible to achieve an excellent effect that it is possible to easily generate a user-preferred image.

本技術の第1の実施の形態における撮像装置100の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of imaging device 100 in a 1st embodiment of this art. 本技術の第1の実施の形態における撮像装置100を用いて行われる撮像動作およびその撮像動作により生成される画像の撮像範囲を簡略的に示す図である。It is a figure which shows simply the imaging operation performed using the imaging device 100 in 1st Embodiment of this technique, and the imaging range of the image produced | generated by the imaging operation. 本技術の第1の実施の形態における撮像装置100を用いて行われた撮像動作により生成される画像を簡略的に示す図である。It is a figure which shows simply the image produced | generated by the imaging operation performed using the imaging device 100 in 1st Embodiment of this technique. 本技術の第1の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像についてぼかし処理を行うための操作領域画像の表示例を示す図である。It is a figure which shows the example of a display of the operation area image for performing a blurring process about the image produced | generated by the imaging operation performed using the imaging device 100 in 1st Embodiment of this technique. 本技術の第1の実施の形態における撮像装置100による画像記録処理の処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing procedure of image recording processing by the imaging device 100 according to the first embodiment of the present technology. 本技術の第2の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像について画像処理を行うための操作領域画像の表示例(表示画面400)を示す図である。It is a figure which shows the example of a display (display screen 400) of the operation area | region image for performing an image process about the image produced | generated by the imaging operation performed using the imaging device 100 in 2nd Embodiment of this technique. 本技術の第3の実施の形態における撮像装置100の表示部160(入出力パネル300)に表示される表示画面例(操作領域画像設定画面500)を示す図である。It is a figure which shows the example of a display screen (operation area image setting screen 500) displayed on the display part 160 (input / output panel 300) of the imaging device 100 in the 3rd Embodiment of this technique. 本技術の第3の実施の形態における撮像装置100を用いて行われた撮像動作により生成される画像を簡略的に示す図である。It is a figure which shows simply the image produced | generated by the imaging operation performed using the imaging device 100 in 3rd Embodiment of this technique. 本技術の第3の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像について画像処理を行うための操作領域画像の表示例を示す図である。It is a figure which shows the example of a display of the operation area | region image for performing an image process about the image produced | generated by the imaging operation performed using the imaging device 100 in 3rd Embodiment of this technique. 本技術の第3の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像についてズーム処理を行うための操作領域画像の表示例を示す図である。It is a figure which shows the example of a display of the operation area image for performing a zoom process about the image produced | generated by the imaging operation performed using the imaging device 100 in 3rd Embodiment of this technique. 本技術の第4の実施の形態における撮像装置100の表示部160(入出力パネル300)に表示される操作領域画像610、620を示す図である。It is a figure which shows operation area image 610,620 displayed on the display part 160 (input / output panel 300) of the imaging device 100 in 4th Embodiment of this technique.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(光学的なぼかし処理と複数種類の電子ぼかし処理とを行うためのユーザ操作を操作領域画像を用いて行う例)
2.第2の実施の形態(複数種類の電子ぼかし処理が施された画像を操作領域画像とともに表示する例)
3.第3の実施の形態(操作領域画像を用いて各種処理のユーザ操作を行う例)
4.第4の実施の形態(操作領域画像の表示態様の変形例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First Embodiment (Example in which a user operation for performing optical blur processing and multiple types of electronic blur processing is performed using an operation region image)
2. Second embodiment (an example in which an image subjected to a plurality of types of electronic blur processing is displayed together with an operation area image)
3. Third Embodiment (Example in which user operations for various processes are performed using an operation area image)
4). Fourth embodiment (modified example of display mode of operation region image)

<1.第1の実施の形態>
[撮像装置の構成例]
図1は、本技術の第1の実施の形態における撮像装置100の機能構成例を示すブロック図である。
<1. First Embodiment>
[Configuration example of imaging device]
FIG. 1 is a block diagram illustrating a functional configuration example of the imaging apparatus 100 according to the first embodiment of the present technology.

撮像装置100は、レンズユニット110と、撮像部120と、変換部130と、画像処理部140と、表示制御部150と、表示部160と、記録制御部170と、記録媒体180と、操作受付部190と、制御部200とを備える。また、撮像装置100は、例えば、被写体を撮像して画像(画像データ)を生成し、この生成された画像(画像データ)を画像コンテンツ(静止画コンテンツまたは動画コンテンツ)として記録するデジタルスチルカメラにより実現される。なお、撮像装置100は、特許請求の範囲に記載の画像処理装置の一例である。   The imaging apparatus 100 includes a lens unit 110, an imaging unit 120, a conversion unit 130, an image processing unit 140, a display control unit 150, a display unit 160, a recording control unit 170, a recording medium 180, and an operation reception. Unit 190 and control unit 200. Further, the imaging apparatus 100 uses, for example, a digital still camera that captures an image of a subject to generate an image (image data) and records the generated image (image data) as image content (still image content or moving image content). Realized. The imaging device 100 is an example of an image processing device described in the claims.

レンズユニット110は、レンズ部111と、絞り112と、レンズ駆動部113と、絞り駆動部114とを備える。   The lens unit 110 includes a lens unit 111, a diaphragm 112, a lens driving unit 113, and a diaphragm driving unit 114.

レンズ部111は、被写体からの入射光を集光するレンズ群であり、これらのレンズ群により集光された光が絞り112を介して撮像部120に入射される。なお、レンズ部111は、焦点を合わせるためのフォーカスレンズや被写体を拡大するためのズームレンズ等により構成されるが、これらの具体的な配置構成等については、図示および説明を省略する。また、レンズ部111を構成する各レンズは、レンズ駆動部113により駆動され、被写体に対して前後に移動する。これにより、フォーカス機能およびズーム機能が実現される。   The lens unit 111 is a lens group that collects incident light from the subject, and the light collected by these lens groups is incident on the imaging unit 120 via the diaphragm 112. The lens unit 111 includes a focus lens for focusing, a zoom lens for enlarging a subject, and the like, and illustration and description of the specific arrangement configuration and the like are omitted. Each lens constituting the lens unit 111 is driven by the lens driving unit 113 and moves back and forth with respect to the subject. Thereby, a focus function and a zoom function are realized.

絞り112は、レンズ部111を通過する入射光の光量を調整するものであり、その調整後の光が撮像部120に入射される。すなわち、絞り112により、レンズ部111を通過する入射光の光量が調整され、撮像部120に供給される光量(すなわち、露出)が決定される。また、絞り112は、絞り駆動部114により駆動され、絞りの開度が調節される。   The diaphragm 112 adjusts the amount of incident light passing through the lens unit 111, and the adjusted light is incident on the imaging unit 120. That is, the diaphragm 112 adjusts the amount of incident light that passes through the lens unit 111 and determines the amount of light (that is, exposure) supplied to the imaging unit 120. The diaphragm 112 is driven by the diaphragm driving unit 114, and the opening of the diaphragm is adjusted.

レンズ駆動部113は、制御部200の指示に基づいて、レンズ部111を構成する各レンズを駆動させるものである。また、レンズ駆動部113は、レンズ部111を構成する各レンズの位置を取得し、制御部200に出力する。   The lens driving unit 113 drives each lens constituting the lens unit 111 based on an instruction from the control unit 200. In addition, the lens driving unit 113 acquires the position of each lens constituting the lens unit 111 and outputs it to the control unit 200.

絞り駆動部114は、制御部200の指示に基づいて、絞り112を駆動させるものである。また、絞り駆動部114は、絞り112の状態(開閉の状態)を取得し、制御部200に出力する。   The aperture driving unit 114 drives the aperture 112 based on an instruction from the control unit 200. Further, the aperture driving unit 114 acquires the state (open / closed state) of the aperture 112 and outputs the acquired state to the control unit 200.

このように、絞り駆動部114は、光を集光して撮像部120に供給する光学系(レンズユニット110)を構成する絞り112の開閉を制御することにより、撮像部120により生成される画像にぼかし効果(第1効果)を与える。なお、レンズユニット110(絞り駆動部114)は、特許請求の範囲に記載の第1処理部の一例である。   As described above, the diaphragm drive unit 114 controls the opening and closing of the diaphragm 112 that constitutes the optical system (the lens unit 110) that collects light and supplies it to the imaging unit 120, thereby generating an image generated by the imaging unit 120. Is given a blurring effect (first effect). The lens unit 110 (aperture driving unit 114) is an example of a first processing unit described in the claims.

なお、レンズユニット110については、交換レンズユニットとするようにしてもよい。この場合には、レンズユニット110は、レンズマウント(図示せず)を介して撮像装置100に取り付けられる。また、レンズユニット110を制御する制御部200を、ぼかし効果(第1効果)を与える処理部(第1処理部)としても把握することができる。   The lens unit 110 may be an interchangeable lens unit. In this case, the lens unit 110 is attached to the imaging device 100 via a lens mount (not shown). The control unit 200 that controls the lens unit 110 can also be grasped as a processing unit (first processing unit) that provides a blurring effect (first effect).

ここで、被写界深度について説明する。被写界深度は、被写体に対して、実質的にフォーカスが合っていると考えられる被写体距離の範囲を示すものである。一般に、この範囲が広い場合には「被写界深度が深い」と称し、この範囲が狭い場合には「被写界深度が浅い」と称する。また、被写界深度は、絞りの開閉に応じて、変化することが広く知られている。例えば、絞りを開くと、この開きの度合いに応じて被写界深度が浅くなる。すなわち、F値を小さくすると、被写界深度が浅くなる。一方、絞りを閉じると、この絞りの度合いに応じて被写界深度が深くなる。すなわち、F値を大きくすると、被写界深度が深くなる。   Here, the depth of field will be described. The depth of field indicates the range of the subject distance that is considered to be substantially focused on the subject. Generally, when this range is wide, it is referred to as “deep depth of field”, and when this range is narrow, it is referred to as “shallow depth of field”. In addition, it is widely known that the depth of field changes according to the opening / closing of the diaphragm. For example, when the aperture is opened, the depth of field becomes shallow according to the degree of opening. That is, when the F value is decreased, the depth of field becomes shallow. On the other hand, when the aperture is closed, the depth of field increases according to the degree of the aperture. That is, increasing the F value increases the depth of field.

例えば、絞りの開口の直径を直径H1とする場合に、被写体に対して実質的にフォーカスが合うフォーカスレンズの範囲を合焦範囲W1とする。この場合(絞りの開口が直径H1である場合)において、合焦範囲W1内にフォーカスレンズが存在する場合には、被写体に対して実質的にフォーカスが合うことになる。このため、撮像装置100の光軸方向に対して多少前後している被写体に対しても、比較的広い範囲(光軸方向における範囲)の被写体にフォーカスが合うことになる。   For example, when the diameter of the aperture of the diaphragm is the diameter H1, the range of the focus lens that is substantially focused on the subject is the focusing range W1. In this case (when the aperture of the stop has a diameter H1), when the focus lens exists within the focusing range W1, the subject is substantially focused. For this reason, the subject in a relatively wide range (the range in the optical axis direction) is focused on the subject that is slightly around the optical axis direction of the imaging apparatus 100.

また、例えば、絞りの開口の直径を直径H2(H2<H1)とする場合に、被写体に対して実質的にフォーカスが合うフォーカスレンズの範囲を合焦範囲W2(W2<W1)とする。この場合(絞りの開口が直径H2である場合)には、合焦範囲W1よりも狭い合焦範囲W2内にフォーカスレンズが存在しないと、被写体に対して実質的にフォーカスが合わない。このため、撮像範囲に含まれる被写体が撮像装置100の光軸方向に対して多少前後している場合には、これらの被写体にフォーカスが合わないことがある。すなわち、撮像装置100の光軸方向に対して多少前後している被写体に対しては、比較的狭い範囲の被写体にのみフォーカスが合うことになる。   Further, for example, when the diameter of the aperture of the diaphragm is set to the diameter H2 (H2 <H1), the range of the focus lens that is substantially focused on the subject is set to the focusing range W2 (W2 <W1). In this case (when the aperture opening has a diameter H2), the subject is not substantially focused unless the focus lens exists within the focusing range W2 that is narrower than the focusing range W1. For this reason, when subjects included in the imaging range slightly move forward and backward with respect to the optical axis direction of the imaging apparatus 100, these subjects may not be focused. That is, for a subject that is slightly back and forth with respect to the optical axis direction of the imaging device 100, only a relatively narrow range of subjects is focused.

そこで、本技術の第1の実施の形態では、上述した被写界深度の性質を用いて、主要被写体の背景をぼかした画像を生成する例を示す。具体的には、ユーザ操作に基づいて絞り112を開放して、ユーザの好みに合うように、背景をぼかした画像を生成する。しかしながら、レンズの性能によっては、F値が小さすぎる場合にはそれ以上「ぼかす」ことができないこともある。例えば、交換レンズを用いる場合には、絞りの開放に限界があるズームレンズを備える交換レンズも存在する。このため、絞り112の開放のみでは、ユーザ好みのぼかし処理を施すことができないことも想定される。そこで、本技術の第1の実施の形態では、レンズユニット110による光学処理とともに画像処理部140によるデジタル画像処理によりぼかし処理を行う。   Therefore, in the first embodiment of the present technology, an example in which an image in which the background of the main subject is blurred is generated using the above-described property of depth of field. Specifically, the aperture 112 is opened based on a user operation, and an image with a blurred background is generated so as to suit the user's preference. However, depending on the performance of the lens, if the F value is too small, it may not be possible to “blur” further. For example, in the case of using an interchangeable lens, there is an interchangeable lens including a zoom lens that has a limit on opening the aperture. For this reason, it is assumed that the user-preferred blurring process cannot be performed only by opening the aperture 112. Therefore, in the first embodiment of the present technology, blurring processing is performed by digital image processing by the image processing unit 140 together with optical processing by the lens unit 110.

撮像部120は、制御部200の指示に基づいて、画像信号(アナログ信号)を生成するものであり、生成された画像信号を変換部130に出力する。具体的には、撮像部120は、レンズユニット110を介して入射された被写体の光を電気信号に変換する撮像素子(図示せず)と、この撮像素子の出力信号(アナログ信号)を処理するアナログ信号処理部(図示せず)とを備える。すなわち、撮像部120において、レンズユニット110を介して入射された被写体の光学像が撮像素子の撮像面に結像され、この状態で撮像素子が撮像動作を行うことにより、アナログ信号が生成される。そして、アナログ信号処理部がそのアナログ信号に対して、ノイズ除去や増幅等のアナログ処理を行うことにより画像信号が生成される。そして、生成された画像信号(アナログ信号)が変換部130に出力される。なお、撮像素子として、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を用いることができる。   The imaging unit 120 generates an image signal (analog signal) based on an instruction from the control unit 200, and outputs the generated image signal to the conversion unit 130. Specifically, the imaging unit 120 processes an imaging element (not shown) that converts light of a subject incident through the lens unit 110 into an electrical signal, and an output signal (analog signal) of the imaging element. An analog signal processing unit (not shown). That is, in the imaging unit 120, an optical image of a subject incident through the lens unit 110 is formed on the imaging surface of the imaging element, and an analog signal is generated by performing an imaging operation in this state. . The analog signal processing unit performs analog processing such as noise removal and amplification on the analog signal to generate an image signal. Then, the generated image signal (analog signal) is output to the conversion unit 130. For example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like can be used as the imaging element.

また、これらの撮像素子として、例えば、射出瞳が異なる部分を透過した透過光を受光することにより、位相差検出方式の焦点検出(位相差AF(Auto Focus))を行う撮像素子を用いることができる。この位相差AFを行う撮像素子からは、画像信号(アナログ信号)とともに、位相差検出信号が出力される。このため、画像処理部140は、撮像部120から出力された位相差検出信号に基づいて、撮像部120から出力された画像信号に対応する画像における各領域の被写体距離を算出することができる。なお、被写体距離は、撮像装置100から被写体までの距離である。   In addition, as these image sensors, for example, an image sensor that performs phase difference detection type focus detection (phase difference AF (Auto Focus)) by receiving transmitted light that has passed through different portions of the exit pupil is used. it can. An image sensor that performs this phase difference AF outputs a phase difference detection signal together with an image signal (analog signal). Therefore, the image processing unit 140 can calculate the subject distance of each region in the image corresponding to the image signal output from the imaging unit 120 based on the phase difference detection signal output from the imaging unit 120. Note that the subject distance is a distance from the imaging apparatus 100 to the subject.

変換部130は、撮像部120から出力された画像信号(アナログ信号)をデジタル信号に変換するものであり、この変換により生成されたデジタル信号を画像処理部140に出力する。   The conversion unit 130 converts the image signal (analog signal) output from the imaging unit 120 into a digital signal, and outputs the digital signal generated by this conversion to the image processing unit 140.

画像処理部140は、制御部200の指示に基づいて、変換部130から出力された画像信号(デジタル信号)について各種画像処理を施すものであり、各種画像処理が施された画像信号(画像データ)を表示制御部150および記録制御部170に出力する。   The image processing unit 140 performs various image processing on the image signal (digital signal) output from the conversion unit 130 based on an instruction from the control unit 200, and the image signal (image data subjected to various image processing) ) To the display control unit 150 and the recording control unit 170.

また、画像処理部140は、ぼかしフィルタを用いた画像処理により、変換部130から出力された画像信号(デジタル信号)に対応する画像(撮像部120により生成された画像)について、電子ぼかし処理を行う。例えば、画像処理部140は、撮像部120により生成された画像における複数の領域毎に、異なるレベルの電子ぼかしを施すことができる。また、画像処理部140は、撮像部120により生成された画像における各領域について、その領域に係る被写体距離に応じて異なるレベルの電子ぼかしを施すことができる。なお、各領域に係る被写体距離は、上述したように、撮像部120から出力された位相差検出信号に基づいて算出される値を用いることができる。   In addition, the image processing unit 140 performs electronic blurring processing on an image (image generated by the imaging unit 120) corresponding to the image signal (digital signal) output from the conversion unit 130 by image processing using a blur filter. Do. For example, the image processing unit 140 can perform different levels of electronic blur for each of a plurality of regions in the image generated by the imaging unit 120. Further, the image processing unit 140 can apply different levels of electronic blur to each region in the image generated by the imaging unit 120 depending on the subject distance associated with the region. Note that, as described above, a value calculated based on the phase difference detection signal output from the imaging unit 120 can be used as the subject distance related to each region.

また、撮像部120により生成された画像およびこの画像の生成時における各情報(例えば、レンズの位置および合焦位置)に基づいて、その画像に関する被写体距離を算出するようにしてもよい。例えば、奥行マップ(いわゆる、デプスマップ(Depth Map))を生成し、この奥行マップに基づいて各領域に係る被写体距離を求めることができる。ここで、奥行マップは、被写体距離を表すデータにより構成されるマップである。この奥行マップの生成方法として、例えば、TOF(Time of flight)方式やボケ量解析(Depth from Defocus)等の方法を用いることができる。例えば、TOF方式は、光源から出射された光が対象物で反射し、センサに到達するまでの光の遅れ時間と光の速度とに基づいて被写体までの距離を算出する方法である。   Further, the subject distance regarding the image may be calculated based on the image generated by the imaging unit 120 and each information (for example, the lens position and the focus position) at the time of generating the image. For example, a depth map (a so-called depth map) can be generated, and subject distances related to the respective areas can be obtained based on the depth map. Here, the depth map is a map composed of data representing the subject distance. As a method of generating the depth map, for example, a method such as a TOF (Time of flight) method or a blur amount analysis (Depth from Defocus) can be used. For example, the TOF method is a method of calculating the distance to the subject based on the light delay time until the light emitted from the light source is reflected by the object and reaches the sensor, and the speed of the light.

また、ぼかしフィルタとして、例えば、平滑化フィルタやガウシアンフィルタ(次の式1)を用いることができる。ガウシアンフィルタのフィルタのサイズは、例えば、20×20画素とすることができる。
f(x,y)=(1/2πσ)exp{−(x+y)/2σ} …式1
As the blurring filter, for example, a smoothing filter or a Gaussian filter (the following formula 1) can be used. The size of the Gaussian filter can be set to 20 × 20 pixels, for example.
f (x, y) = (1 / 2πσ 2 ) exp {− (x 2 + y 2 ) / 2σ 2 } Equation 1

ここで、x、yは、画像における画素の座標位置を示す。また、σは、フィルタ係数を示す。このフィルタ係数σ(>0)として、例えば、撮像部120により生成された画像における各領域に係る被写体距離に応じた値を用いることができる。例えば、各領域に係る被写体距離が長くなるに応じて、フィルタ係数σを高くすることができる。なお、この被写体距離に応じた値(フィルタ係数σ)は、予め設定しておくものとする。   Here, x and y indicate pixel coordinate positions in the image. Σ represents a filter coefficient. As the filter coefficient σ (> 0), for example, a value corresponding to the subject distance associated with each region in the image generated by the imaging unit 120 can be used. For example, the filter coefficient σ can be increased as the subject distance related to each region becomes longer. Note that a value (filter coefficient σ) corresponding to the subject distance is set in advance.

また、画像処理部140は、撮像部120により生成された画像に含まれる人物の顔を検出し、検出された顔を含む領域と、これ以外の領域とに分類して、ぼかし処理を行うことができる。なお、顔検出方法として、例えば、顔の輝度分布情報が記録されているテンプレートと実画像とのマッチングによる顔検出方法、画像データに含まれる肌色の部分や人間の顔の特徴量等に基づいた顔検出方法等を用いることができる。   Further, the image processing unit 140 detects a human face included in the image generated by the imaging unit 120, classifies the detected face into a region including the detected face, and a region other than this, and performs blurring processing. Can do. The face detection method is based on, for example, a face detection method by matching a template in which luminance distribution information of a face is recorded with an actual image, a skin color part included in image data, a human face feature amount, or the like. A face detection method or the like can be used.

このように、画像処理部140は、撮像部120により生成された画像にデジタル画像処理を施すことにより複数種類のぼかし効果(第2効果(第1効果とは異なる効果))を与える。なお、画像処理部140は、特許請求の範囲に記載の第2処理部の一例である。   As described above, the image processing unit 140 applies a plurality of types of blurring effects (second effect (an effect different from the first effect)) by performing digital image processing on the image generated by the imaging unit 120. The image processing unit 140 is an example of a second processing unit described in the claims.

表示制御部150は、制御部200の指示に基づいて、画像処理部140から出力された画像を表示部160に表示させるものである。例えば、表示制御部150は、撮像動作を行う際における各種設定を行うための設定画面(例えば、図7に示す操作領域画像設定画面500)や、撮像部120により生成された画像(いわゆる、スルー画像、ライブビュー画像)を表示部160に表示させる。また、例えば、表示制御部150は、ユーザが操作入力を行うための操作領域画像(例えば、図4に示す操作領域画像330)を表示部160に表示させる。   The display control unit 150 causes the display unit 160 to display the image output from the image processing unit 140 based on an instruction from the control unit 200. For example, the display control unit 150 sets a setting screen (for example, an operation region image setting screen 500 shown in FIG. 7) for performing various settings when performing an imaging operation, or an image generated by the imaging unit 120 (a so-called through-type). (Image, live view image) are displayed on the display unit 160. For example, the display control unit 150 causes the display unit 160 to display an operation region image (for example, the operation region image 330 illustrated in FIG. 4) for the user to perform an operation input.

表示部160は、表示制御部150の制御に基づいて各画像を表示する表示パネル(例えば、液晶ファインダー)である。表示部160として、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)パネル等の表示パネルを用いることができる。   The display unit 160 is a display panel (for example, a liquid crystal finder) that displays each image based on the control of the display control unit 150. As the display unit 160, for example, a display panel such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) panel can be used.

記録制御部170は、制御部200の指示に基づいて、記録媒体180に対する記録制御を行うものである。例えば、記録制御部170は、画像処理部140から出力された画像(画像データ)を静止画コンテンツ(静止画ファイル)として記録媒体180に記録させる。   The recording control unit 170 performs recording control on the recording medium 180 based on an instruction from the control unit 200. For example, the recording control unit 170 causes the recording medium 180 to record the image (image data) output from the image processing unit 140 as a still image content (still image file).

記録媒体180は、記録制御部170の制御に基づいて、各種情報(静止画コンテンツや動画コンテンツ)を記憶する記録媒体である。なお、記録媒体180は、撮像装置100に内蔵するようにしてもよく、撮像装置100から着脱可能とするようにしてもよい。また、記録媒体180として、半導体メモリ、光記録媒体、磁気ディスク、HDD(Hard Disk Drive)等の種々の記録媒体を用いることができる。   The recording medium 180 is a recording medium that stores various information (still image content and moving image content) based on the control of the recording control unit 170. Note that the recording medium 180 may be built in the imaging apparatus 100 or detachable from the imaging apparatus 100. As the recording medium 180, various recording media such as a semiconductor memory, an optical recording medium, a magnetic disk, and an HDD (Hard Disk Drive) can be used.

操作受付部190は、ユーザにより行われた操作を受け付ける操作受付部であり、受け付けられた操作内容に応じた制御信号(操作信号)を制御部200に出力する。操作受付部190は、図4等に示すシャッターボタン191、入出力パネル300に対応する。   The operation reception unit 190 is an operation reception unit that receives an operation performed by a user, and outputs a control signal (operation signal) corresponding to the received operation content to the control unit 200. The operation receiving unit 190 corresponds to the shutter button 191 and the input / output panel 300 shown in FIG.

制御部200は、メモリ(図示せず)に格納されている制御プログラムに基づいて撮像装置100における各部を制御するものである。制御部200は、例えば、マイクロプロセッサにより構成される。   The control unit 200 controls each unit in the imaging apparatus 100 based on a control program stored in a memory (not shown). The control unit 200 is configured by, for example, a microprocessor.

例えば、制御部200は、ユーザ操作を受け付けるための操作領域画像330(図4に示す)を表示部160に表示させるための制御を行う。   For example, the control unit 200 performs control for causing the display unit 160 to display an operation region image 330 (shown in FIG. 4) for accepting a user operation.

また、例えば、制御部200は、操作受付部190により受け付けられたユーザ操作(例えば、図4に示す操作領域画像330における接触操作)が所定条件を満たすか否かを判定する。ここで、ユーザ操作が所定条件を満たす場合は、例えば、図4(b)に示す操作領域画像330における光学処理範囲332の接触操作が行われた場合である。すなわち、制御部200は、ユーザ操作により設定された処理(例えば、ぼかし処理)が、光学系(レンズユニット110)の制御により得られる処理の範囲の中であることを、所定条件とすることができる。例えば、制御部200は、撮像部120により生成される画像に、絞り112の開閉により、ぼかし効果を与えることができる操作内容がユーザ操作として受け付けられた場合には、所定条件を満たすと判定する。   In addition, for example, the control unit 200 determines whether or not the user operation received by the operation receiving unit 190 (for example, the contact operation in the operation area image 330 illustrated in FIG. 4) satisfies a predetermined condition. Here, the case where the user operation satisfies the predetermined condition is, for example, a case where the contact operation of the optical processing range 332 in the operation area image 330 illustrated in FIG. 4B is performed. That is, the control unit 200 may set a predetermined condition that a process (for example, blurring process) set by a user operation is within a process range obtained by controlling the optical system (lens unit 110). it can. For example, the control unit 200 determines that the predetermined condition is satisfied when an operation content that can give a blurring effect to the image generated by the imaging unit 120 by opening and closing the diaphragm 112 is accepted as a user operation. .

そして、制御部200は、そのユーザ操作が所定条件を満たす場合には、そのユーザ操作に応じた絞り112の開閉によるぼかし効果(第1効果)を画像(撮像部120により生成される画像)に与えるための制御を行う。すなわち、制御部200による光学系(レンズユニット110)の制御(例えば、絞り112の開閉)により、ぼかし効果(第1効果)が、撮像部120により生成される画像に与えられる。また、制御部200は、そのユーザ操作が所定条件を満たさない場合には、画像処理部140によるぼかし効果(第2効果)のうちの何れかの効果をそのユーザ操作に応じて画像(撮像部120により生成される画像)に与えるための制御を行う。このように、そのユーザ操作が所定条件を満たすか否かに応じて、光学系(レンズユニット110)の制御から生じる光学ぼかし効果(第1効果)、または、デジタル画像処理によるデジタルぼかし効果(第2効果)が与えられる。   Then, when the user operation satisfies a predetermined condition, the control unit 200 applies a blurring effect (first effect) by opening / closing the diaphragm 112 according to the user operation to an image (an image generated by the imaging unit 120). Take control to give. That is, the blurring effect (first effect) is given to the image generated by the imaging unit 120 by the control of the optical system (lens unit 110) by the control unit 200 (for example, opening and closing of the diaphragm 112). In addition, when the user operation does not satisfy the predetermined condition, the control unit 200 displays one of the blurring effects (second effect) by the image processing unit 140 according to the user operation (image capturing unit). The control for giving to the image produced | generated by 120 is performed. Thus, depending on whether or not the user operation satisfies a predetermined condition, the optical blur effect (first effect) resulting from the control of the optical system (lens unit 110) or the digital blur effect (first effect) by digital image processing. 2 effects).

[撮像動作例および撮像範囲例]
図2は、本技術の第1の実施の形態における撮像装置100を用いて行われる撮像動作およびその撮像動作により生成される画像の撮像範囲を簡略的に示す図である。
[Example of imaging operation and imaging range]
FIG. 2 is a diagram schematically illustrating an imaging operation performed using the imaging apparatus 100 according to the first embodiment of the present technology and an imaging range of an image generated by the imaging operation.

図2(a)には、撮像装置100を用いて行われる撮像動作状態をその側面から見た場合を示す。具体的には、人物701、木702、家703、ビル群704を被写体として撮像装置100を用いて撮像動作が行われている状態を示す。この場合に、人物701は、撮像装置100からの距離(被写体距離)がL1(m)の範囲内に存在し、木702は、被写体距離がL1(m)〜L2(m)の範囲内に存在するものとする。また、家703は、被写体距離がL2(m)〜L3(m)の範囲内に存在し、ビル群704は、被写体距離がL3(m)を超える範囲に存在するものとする。また、本技術の第1の実施の形態では、人物701が主要被写体である場合を想定する。ここで、例えば、画像処理部140により人物の顔が検出された場合には、その顔を主要被写体とすることができる。また、例えば、ユーザ操作(例えば、図4等に示す入出力パネル300におけるタッチ操作)により指定された被写体を主要被写体とすることができる、   FIG. 2A shows a case where an imaging operation state performed using the imaging apparatus 100 is viewed from the side. Specifically, a state in which an imaging operation is performed using the imaging apparatus 100 with a person 701, a tree 702, a house 703, and a building group 704 as subjects is shown. In this case, the person 701 has a distance (subject distance) from the imaging apparatus 100 within the range of L1 (m), and the tree 702 has a subject distance within the range of L1 (m) to L2 (m). It shall exist. Further, it is assumed that the house 703 has a subject distance within a range of L2 (m) to L3 (m), and the building group 704 has a subject distance exceeding L3 (m). In the first embodiment of the present technology, it is assumed that the person 701 is a main subject. Here, for example, when a face of a person is detected by the image processing unit 140, the face can be set as a main subject. Further, for example, a subject specified by a user operation (for example, a touch operation on the input / output panel 300 shown in FIG. 4 or the like) can be set as a main subject.

図2(b)には、撮像装置100を用いて行われる撮像動作により生成される画像の撮像範囲700(水平方向および垂直方向の撮像範囲)を示す。具体的には、図2(a)に示す状態で、撮像部120により生成される画像の撮像範囲700を示す。   FIG. 2B shows an imaging range 700 (horizontal and vertical imaging ranges) of an image generated by an imaging operation performed using the imaging apparatus 100. Specifically, an imaging range 700 of an image generated by the imaging unit 120 in the state illustrated in FIG.

図2(b)に示すように、人物701を主要被写体として、人物701とその背景(木702、家703、ビル群704)とを被写体とする画像を生成することができる。この場合に、例えば、主要被写体である人物701のみを鮮明にし、その背景(木702、家703、ビル群704)をぼかした画像を好むユーザも想定される。   As shown in FIG. 2B, an image can be generated with the person 701 as a main subject and the person 701 and its background (tree 702, house 703, building group 704) as subjects. In this case, for example, it is assumed that the user prefers an image in which only the person 701 that is the main subject is clear and the background (tree 702, house 703, building group 704) is blurred.

そこで、上述したように、被写界深度を浅くすることにより、主要被写体の背景をぼかすことができる。また、被写界深度を調整することにより、ユーザ好みにぼかした画像を生成することができる。このように、ぼかした画像の生成例を図3に示す。   Therefore, as described above, the background of the main subject can be blurred by reducing the depth of field. Further, by adjusting the depth of field, an image blurred to the user's preference can be generated. A generation example of such a blurred image is shown in FIG.

[画像の生成例]
図3は、本技術の第1の実施の形態における撮像装置100を用いて行われた撮像動作により生成される画像を簡略的に示す図である。図3(a)乃至(b)には、図2(a)に示す状態で撮像動作を行っている場合において、絞り112の調整後に生成される画像の一例を示す。
[Image generation example]
FIG. 3 is a diagram schematically illustrating an image generated by an imaging operation performed using the imaging device 100 according to the first embodiment of the present technology. FIGS. 3A and 3B show an example of an image generated after the diaphragm 112 is adjusted when the imaging operation is performed in the state shown in FIG.

図3(a)には、人物701に合焦している状態で絞り112を最も開放した場合に生成される画像711を示す。このように、絞り112を最も開放した場合には、合焦範囲が狭くなる。このため、合焦している被写体(人物701)から少しだけ離れている被写体(木702)についてもフォーカスが合わない。同様に、合焦している被写体(人物701)から比較的離れている被写体(家703)と、合焦している被写体(人物701)から最も離れている被写体(ビル群704)とについてもフォーカスが合わない。このため、木702、家703、ビル群704のそれぞれがぼかされた画像711が生成される。   FIG. 3A shows an image 711 generated when the diaphragm 112 is fully opened while the person 701 is in focus. Thus, when the aperture stop 112 is fully opened, the focusing range is narrowed. For this reason, the subject (tree 702) slightly away from the focused subject (person 701) cannot be focused. Similarly, a subject (house 703) relatively far from the focused subject (person 701) and a subject (building group 704) farthest from the focused subject (person 701) are also described. The focus is not correct. Therefore, an image 711 in which each of the tree 702, the house 703, and the building group 704 is blurred is generated.

図3(b)には、人物701に合焦している状態で絞り112を一定量(図3(a)よりも閉じた量)だけ開放した場合に生成される画像712を示す。このように、絞り112を図3(a)よりも閉じた場合には、合焦範囲が図3(a)に示す合焦範囲よりも広くなる。このため、合焦している被写体(人物701)から少しだけ離れている被写体(木702)についてはフォーカスが合うが、合焦している被写体(人物701)から比較的離れている被写体(家703)についてはフォーカスが合わない。同様に、合焦している被写体(人物701)から最も離れている被写体(ビル群704)についてもフォーカスが合わない。このため、家703、ビル群704のそれぞれがぼかされた画像712が生成される。   FIG. 3B shows an image 712 that is generated when the diaphragm 112 is opened by a certain amount (a more closed amount than FIG. 3A) in a state where the person 701 is focused. As described above, when the diaphragm 112 is closed as compared with FIG. 3A, the focusing range becomes wider than the focusing range shown in FIG. Therefore, the subject (tree 702) that is slightly away from the focused subject (person 701) is in focus, but the subject (house) that is relatively far from the focused subject (person 701). 703) is out of focus. Similarly, the subject (building group 704) farthest from the focused subject (person 701) is not focused. Therefore, an image 712 in which each of the house 703 and the building group 704 is blurred is generated.

図3(c)には、人物701に合焦している状態で絞り112を一定量(図3(b)よりも閉じた量)だけ開放した場合に生成される画像713を示す。このように、絞り112を図3(b)よりも閉じた場合には、合焦範囲が図3(b)に示す合焦範囲よりも広くなる。このため、合焦している被写体(人物701)から少しだけ離れている被写体(木702)と、合焦している被写体(人物701)から比較的離れている被写体(家703)とについてはフォーカスが合う。しかしながら、合焦している被写体(人物701)から最も離れている被写体(ビル群704)についてはフォーカスが合わない。このため、ビル群704がぼかされた画像713が生成される。   FIG. 3C shows an image 713 that is generated when the diaphragm 112 is opened by a certain amount (a more closed amount than FIG. 3B) in a state where the person 701 is focused. As described above, when the diaphragm 112 is closed as compared with FIG. 3B, the in-focus range becomes wider than the in-focus range shown in FIG. For this reason, the subject (tree 702) that is slightly away from the focused subject (person 701) and the subject (house 703) that is relatively far from the focused subject (person 701). Focus is on. However, the subject (building group 704) that is farthest from the focused subject (person 701) is out of focus. Therefore, an image 713 in which the building group 704 is blurred is generated.

このように、ユーザ操作に基づいて絞り112を調整することにより、ユーザ好みのぼかしを施すことができる。しかしながら、上述したように、レンズの性能によっては、F値が小さすぎる場合にはそれ以上「ぼかす」ことができないこともあり、絞り112の調整のみでは、ユーザ好みのぼかしを施すことができないことも想定される。そこで、本技術の第1の実施の形態では、レンズユニット110による光学処理とともに画像処理部140による画像処理によりぼかし処理を行う。このぼかし処理を行うための操作領域画像の表示例を図4に示す。   As described above, by adjusting the aperture 112 based on the user operation, it is possible to blur the user's preference. However, as described above, depending on the performance of the lens, when the F value is too small, it may not be possible to “blur” any more, and it is impossible to blur the user's preference only by adjusting the aperture 112. Is also envisaged. Therefore, in the first embodiment of the present technology, blurring processing is performed by image processing by the image processing unit 140 together with optical processing by the lens unit 110. FIG. 4 shows a display example of the operation area image for performing this blurring process.

[ぼかし処理を行うための操作領域画像の表示例]
図4は、本技術の第1の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像についてぼかし処理を行うための操作領域画像の表示例を示す図である。なお、図4では、表示部160および操作受付部190を一体で構成する入出力パネル300が、撮像装置100の背面(すなわち、被写体に向けられるレンズが設けられている面の反対側の面)側に設けられている例を示す。すなわち、入出力パネル300は、各種画像を表示するとともに、表示面に近接または接触する物体の検出状態に基づいてユーザからの操作入力を受け付けるものである。なお、入出力パネル300は、タッチスクリーンまたはタッチパネルとも称される。また、入出力パネル300として、例えば、導電性を有する物体(例えば、人物の指)の接触または近接を、静電容量の変化に基づいて検出する静電式(静電容量方式)のタッチパネルを用いることができる。
[Example of operation area image display for blurring]
FIG. 4 is a diagram illustrating a display example of an operation region image for performing a blurring process on an image generated by an imaging operation performed using the imaging device 100 according to the first embodiment of the present technology. In FIG. 4, the input / output panel 300 that integrally configures the display unit 160 and the operation receiving unit 190 is the back surface of the imaging device 100 (that is, the surface opposite to the surface on which the lens directed to the subject is provided). An example provided on the side is shown. That is, the input / output panel 300 displays various images and accepts an operation input from a user based on a detection state of an object that is close to or in contact with the display surface. The input / output panel 300 is also referred to as a touch screen or a touch panel. In addition, as the input / output panel 300, for example, an electrostatic (capacitance type) touch panel that detects contact or proximity of a conductive object (for example, a person's finger) based on a change in capacitance. Can be used.

図4(a)には、入出力パネル300に表示される表示画面例(表示画面310)を示す。表示画面310には、撮像画像表示領域311と、操作領域画像表示領域320とが設けられている。   FIG. 4A shows an example of a display screen (display screen 310) displayed on the input / output panel 300. FIG. The display screen 310 is provided with a captured image display area 311 and an operation area image display area 320.

撮像画像表示領域311は、撮像部120により生成された画像(いわゆる、スルー画像)を表示する領域である。すなわち、絞り112の調整後に生成された画像が撮像画像表示領域311に表示される。   The captured image display area 311 is an area for displaying an image generated by the imaging unit 120 (a so-called through image). That is, an image generated after adjusting the diaphragm 112 is displayed in the captured image display area 311.

操作領域画像表示領域320は、撮像部120により生成される画像について、画像効果(ぼかし効果)を施す場合に、その度合いを操作するための操作領域画像330を表示する領域である。ユーザは、操作領域画像330上において操作標識331を移動させることにより、所望のぼかし処理を行うための設定をすることができる。なお、操作領域画像330については、図4(b)に拡大して示す。   The operation area image display area 320 is an area for displaying an operation area image 330 for operating the degree when an image effect (blurring effect) is applied to an image generated by the imaging unit 120. The user can make a setting for performing a desired blurring process by moving the operation marker 331 on the operation area image 330. The operation region image 330 is shown in an enlarged manner in FIG.

なお、入出力パネル300には、他の画像(例えば、各種アイコン(例えば、撮像モードを表すアイコン))等が表示されるが、これらについては、図示および説明を省略する。   In addition, although other images (for example, various icons (for example, icons representing imaging modes)) and the like are displayed on the input / output panel 300, illustration and description thereof are omitted.

図4(b)には、操作領域画像表示領域320に表示される操作領域画像330を示す。操作領域画像330は、操作標識331を移動させることにより、撮像部120により生成される画像に対するぼかし処理の設定を行うための操作領域画像であり、その操作範囲が、光学処理範囲332および画像処理範囲333に分類されている。   FIG. 4B shows an operation area image 330 displayed in the operation area image display area 320. The operation area image 330 is an operation area image for setting a blurring process for an image generated by the imaging unit 120 by moving the operation indicator 331. The operation area includes the optical processing area 332 and the image processing area. The range 333 is classified.

ここで、操作標識331は、入出力パネル300におけるユーザのタッチ操作やなぞる操作により移動させることができる。例えば、操作領域画像330における操作標識331の表示部分を指で触れた状態で、操作領域画像330における所望の位置にその指をユーザが移動させることにより操作標識331の移動操作を行うことができる。また、操作領域画像330における所望の位置に指を触れる操作(タッチ操作)をユーザが行うことにより、その指が触れた位置に操作標識331を移動させることができる。また、ユーザのタッチ操作やなぞる操作以外に、例えば、撮像装置100に設けられている操作部材(例えば、操作ボタン)等を用いて、操作標識331の移動操作を行うようにしてもよい。   Here, the operation indicator 331 can be moved by a user's touch operation or tracing operation on the input / output panel 300. For example, the user can move the operation indicator 331 by moving the finger to a desired position in the operation region image 330 while touching the display portion of the operation indicator 331 in the operation region image 330 with a finger. . In addition, when the user performs an operation (touch operation) of touching a finger on a desired position in the operation area image 330, the operation marker 331 can be moved to the position touched by the finger. In addition to the user's touch operation and tracing operation, for example, an operation member (for example, an operation button) provided in the imaging apparatus 100 may be used to move the operation marker 331.

光学処理範囲332は、レンズユニット110における絞り112を調整(すなわち、F値の調整)するための範囲である。すなわち、光学処理範囲332は、レンズユニット110によるぼかし効果(第1効果)を画像に与えるためのユーザ操作としてユーザによる接触操作を行うための第1操作範囲である。なお、接触操作は、入出力パネル300においてユーザが指を接触させることによる操作と、入出力パネル300においてユーザが指を近接させることによる操作とを含むものとする。また、光学処理範囲332における操作標識331の移動に応じて絞り112が調整される。具体的には、光学処理範囲332の端部335(すなわち、操作領域画像330の上端部)に操作標識331が移動された場合には、絞り112が最も閉じられる。この場合には、例えば、画像全体に鮮鋭度がある画像(すなわち、背景等もくっきりとした画像)が撮像部120により生成される。一方、光学処理範囲332の他の端部336(すなわち、画像処理範囲333との境界部分)に操作標識331が移動された場合には、絞り112が最も開放される。この場合には、例えば、主要被写体以外の被写体(例えば、背景の被写体)が比較的ぼかされた画像が撮像部120により生成される。すなわち、画像処理範囲333との境界部分は、光学的にF値を下げることができる境界を意味する。また、絞り112を閉じる設定がされた場合には、絞り112の開閉の度合いに応じて、シャッタースピードを短くする等の設定が適宜行われるものとする。   The optical processing range 332 is a range for adjusting the diaphragm 112 in the lens unit 110 (that is, adjusting the F value). That is, the optical processing range 332 is a first operation range for performing a contact operation by the user as a user operation for giving the blurring effect (first effect) by the lens unit 110 to the image. Note that the contact operation includes an operation in which the user touches a finger on the input / output panel 300 and an operation in which the user brings a finger close to the input / output panel 300. Further, the diaphragm 112 is adjusted according to the movement of the operation mark 331 in the optical processing range 332. Specifically, when the operation mark 331 is moved to the end 335 of the optical processing range 332 (that is, the upper end of the operation area image 330), the diaphragm 112 is most closed. In this case, for example, an image having a sharpness in the entire image (that is, an image with a clear background or the like) is generated by the imaging unit 120. On the other hand, when the operation marker 331 is moved to the other end 336 of the optical processing range 332 (that is, the boundary portion with the image processing range 333), the diaphragm 112 is opened most. In this case, for example, the imaging unit 120 generates an image in which subjects other than the main subject (for example, background subjects) are relatively blurred. That is, the boundary portion with the image processing range 333 means a boundary where the F value can be optically lowered. In addition, when the aperture 112 is set to be closed, the setting such as shortening the shutter speed is appropriately performed according to the degree of opening / closing of the aperture 112.

画像処理範囲333は、画像処理部140による画像処理の度合いを調整するための範囲である。すなわち、画像処理範囲333は、画像処理部140によるぼかし効果(第2効果)のうちの何れかの効果を画像に与えるためのユーザ操作としてユーザによる接触操作を行うための第2操作範囲である。また、画像処理範囲333における操作標識331の移動に応じて画像処理部140によるぼかし処理の度合いが調整される。   The image processing range 333 is a range for adjusting the degree of image processing by the image processing unit 140. That is, the image processing range 333 is a second operation range for performing a contact operation by the user as a user operation for giving any one of the blurring effects (second effects) by the image processing unit 140 to the image. . Further, the degree of blurring processing by the image processing unit 140 is adjusted according to the movement of the operation marker 331 in the image processing range 333.

ここで、画像処理範囲333は、光学処理範囲332との境界部分から分岐されている3つの範囲により構成されている(すなわち、光学処理範囲332との境界部分から分岐されている3つの枝により構成されている)。また、画像処理範囲333を操作標識331が移動する場合(画像処理範囲333に操作標識331が存在する場合)には、絞り112は最も開放された状態に維持される。そして、画像処理範囲333における操作標識331の移動に応じて画像処理部140によるぼかし処理の度合いのみが変更される。   Here, the image processing range 333 is configured by three ranges branched from the boundary portion with the optical processing range 332 (that is, by three branches branched from the boundary portion with the optical processing range 332). It is configured). When the operation marker 331 moves in the image processing range 333 (when the operation marker 331 exists in the image processing range 333), the aperture 112 is maintained in the most open state. Then, only the degree of blurring processing by the image processing unit 140 is changed according to the movement of the operation marker 331 in the image processing range 333.

具体的には、画像処理範囲333の端部336に操作標識331が移動された場合は、光学処理範囲332の端部336に操作標識331を移動させた場合と同様となる。すなわち、絞り112が最も開放された状態の画像が撮像部120により生成される。この場合における画像処理部140によるぼかし処理の度合いは、最も小さい設定がされる。   Specifically, when the operation marker 331 is moved to the end 336 of the image processing range 333, the operation is the same as when the operation marker 331 is moved to the end 336 of the optical processing range 332. That is, the imaging unit 120 generates an image with the aperture 112 being fully opened. In this case, the degree of blurring processing by the image processing unit 140 is set to be the smallest.

また、画像処理範囲333の他の端部(ぼかす1、ぼかす2、ぼかす3)に操作標識331が移動された場合には、移動先に応じたぼかし処理の度合いとして最も大きい設定がされる。例えば、ぼかしフィルタとして、ガウシアンフィルタを用いる場合には、フィルタ係数σとして、最も高い値が設定される。   Further, when the operation marker 331 is moved to the other end (blur 1, blur 2, blur 3) of the image processing range 333, the largest setting is made as the degree of blurring processing according to the destination. For example, when a Gaussian filter is used as the blur filter, the highest value is set as the filter coefficient σ.

すなわち、制御部200は、光学処理範囲332および画像処理範囲333の境界から分岐する複数の線状領域を、画像処理範囲333における複数種類のぼかし効果(第2効果)に対応する画像として表示部160に表示させるための制御を行う。   That is, the control unit 200 displays a plurality of linear regions branched from the boundary between the optical processing range 332 and the image processing range 333 as images corresponding to a plurality of types of blurring effects (second effects) in the image processing range 333. Control for displaying on 160 is performed.

ここで、図4では、ぼかし1乃至3については、被写体距離に応じてぼかし処理の度合いを調整する例を示す。例えば、ぼかし1は、合焦している被写体(注目被写体)以外の被写体をぼかす調整を行うための範囲であるものとする。また、ぼかし2は、合焦している被写体(注目被写体)以外の被写体のうち、注目被写体から比較的遠い被写体をぼかす調整を行うための範囲であるものとする。また、ぼかし3は、合焦している被写体(注目被写体)以外の被写体のうち、注目被写体からさらに遠い被写体(ぼかし2よりも遠い被写体)のみをぼかす調整を行うための範囲であるものとする。   Here, FIG. 4 shows an example in which the degree of blurring is adjusted according to the subject distance for blurs 1 to 3. For example, it is assumed that blur 1 is a range for performing an adjustment to blur a subject other than the focused subject (target subject). Further, it is assumed that the blur 2 is a range for performing an adjustment to blur a subject that is relatively far from the subject of interest among subjects other than the focused subject (target subject). Further, the blur 3 is a range for performing an adjustment to blur only a subject farther from the subject of interest (subject farther than the blur 2) among subjects other than the focused subject (subject of interest). .

例えば、図2(a)に示す撮像動作中において、ぼかし1に操作標識331が移動された場合には、被写体距離がL1(m)を超える範囲に存在する被写体をぼかす調整が行われる。この場合には、例えば、図3(a)に示す画像711のような画像が生成される。   For example, when the operation marker 331 is moved to the blur 1 during the imaging operation shown in FIG. 2A, adjustment is performed to blur a subject existing in a range where the subject distance exceeds L1 (m). In this case, for example, an image such as an image 711 shown in FIG.

また、ぼかし2に操作標識331が移動された場合には、被写体距離がL2(m)を超える範囲に存在する被写体をぼかす調整が行われる。この場合には、例えば、図3(b)に示す画像712のような画像が生成される。   In addition, when the operation marker 331 is moved to the blur 2, adjustment is performed to blur a subject existing in a range where the subject distance exceeds L2 (m). In this case, for example, an image like an image 712 shown in FIG. 3B is generated.

また、ぼかし3に操作標識331が移動された場合には、被写体距離がL3(m)を超える範囲に存在する被写体をぼかす調整が行われる。この場合には、例えば、図3(c)に示す画像713のような画像が生成される。   Further, when the operation marker 331 is moved to the blur 3, adjustment is performed to blur a subject existing in a range where the subject distance exceeds L3 (m). In this case, for example, an image like an image 713 shown in FIG. 3C is generated.

このように、画像に含まれる被写体の被写体距離に応じてぼかし処理を行う場合には、撮像部120から出力された位相差検出信号に基づいて算出される被写体距離(画像における各領域の被写体距離)を用いる。すなわち、画像処理部140は、画像における各領域の被写体距離を算出し、この算出された被写体距離に基づいて、操作標識331が存在するぼかし1乃至3に応じて調整対象となる領域(画像における領域)を特定する。そして、画像処理部140は、その特定された領域(画像における領域)について、ぼかし1乃至3における位置(長手方向における位置)に応じた度合いのぼかし処理を行う。このように、画像処理部140は、複数種類の第2効果(ぼかし効果)として、被写体距離に応じて、画像に含まれる被写体をぼかす効果を、画像における領域毎に施す。   As described above, when blurring processing is performed according to the subject distance of the subject included in the image, the subject distance calculated based on the phase difference detection signal output from the imaging unit 120 (subject distance of each region in the image). ) Is used. That is, the image processing unit 140 calculates the subject distance of each region in the image, and based on the calculated subject distance, the region (in the image) to be adjusted according to the blurs 1 to 3 where the operation marker 331 exists. Area). Then, the image processing unit 140 performs a blurring process with a degree corresponding to the position (position in the longitudinal direction) in blurring 1 to 3 for the specified area (area in the image). As described above, the image processing unit 140 applies, as a plurality of types of second effects (blurring effects), an effect of blurring the subject included in the image for each region in the image according to the subject distance.

このように、制御部200は、光学処理範囲332および画像処理範囲333を含む一連の線状領域を、操作領域画像330として表示部160に表示させるための制御を行う。また、制御部200は、光学処理範囲332における接触操作が行われた位置と、光学処理範囲332および画像処理範囲333の境界との距離に応じてレンズユニット110によるぼかし効果(第1効果)の高低を決定する。また、制御部200は、画像処理範囲333における接触操作が行われた位置と、光学処理範囲332および画像処理範囲333の境界との距離に応じて画像処理部140によるぼかし効果(第2効果)の高低を決定する。   Thus, the control unit 200 performs control for causing the display unit 160 to display a series of linear regions including the optical processing range 332 and the image processing range 333 as the operation region image 330. Further, the control unit 200 causes the blurring effect (first effect) by the lens unit 110 according to the distance between the position where the contact operation is performed in the optical processing range 332 and the boundary between the optical processing range 332 and the image processing range 333. Determine high and low. The control unit 200 also blurs the image processing unit 140 according to the distance between the position where the contact operation is performed in the image processing range 333 and the boundary between the optical processing range 332 and the image processing range 333 (second effect). Determine the high and low.

このように、同一ライン上において、光学処理範囲332と画像処理範囲333の1つの枝とを配置し、これらの境界から画像処理範囲333の複数の枝を分岐して配置する。このような表示態様とすることにより、関連する画像処理(電子ぼかし処理)を行うための枝(画像処理範囲333)が近接しているため、ユーザは関連する画像処理(電子ぼかし処理)の調整を容易に行うことができる。また、操作領域画像330を、複数の画像処理の効果から1つの画像処理の効果のみを選択することができる表示態様とすることにより、1つの画像処理効果とその処理の度合いとのユーザ操作を容易に行うことができる。   In this manner, the optical processing range 332 and one branch of the image processing range 333 are arranged on the same line, and a plurality of branches of the image processing range 333 are branched from these boundaries. By adopting such a display mode, since a branch (image processing range 333) for performing related image processing (electronic blur processing) is close, the user adjusts related image processing (electronic blur processing). Can be easily performed. Further, by making the operation area image 330 a display mode in which only one image processing effect can be selected from a plurality of image processing effects, user operations of one image processing effect and the degree of the processing can be performed. It can be done easily.

また、スルー画像とともに、操作領域画像330が表示されるため、記録対象となる画像が、画像処理部140によるデジタル画像処理による擬似画像であることをユーザが容易に把握することができる。   Further, since the operation area image 330 is displayed together with the through image, the user can easily understand that the image to be recorded is a pseudo image obtained by digital image processing by the image processing unit 140.

なお、撮像画像表示領域311には、絞り112によるぼかし処理が施された画像が表示される(すなわち、画像処理部140によるぼかし処理が施された画像は表示されない)。ただし、例えば、特定操作(例えば、操作標識331の長押し操作)が行われた場合には、画像処理部140によるぼかし処理が施された画像を撮像画像表示領域311に表示するようにしてもよい。すなわち、制御部200は、ユーザ操作に応じた効果(ぼかし効果)が与えられた画像を表示部160に表示させる制御を行う。これにより、例えば、ユーザがシャッターボタン191の全押しを行う前に、特定操作に応じたぼかし処理が施された画像をユーザに見せることができる。   In the captured image display area 311, an image subjected to the blurring process by the aperture 112 is displayed (that is, an image subjected to the blurring process by the image processing unit 140 is not displayed). However, for example, when a specific operation (for example, a long press operation of the operation marker 331) is performed, an image subjected to the blurring process by the image processing unit 140 may be displayed in the captured image display area 311. Good. In other words, the control unit 200 performs control for causing the display unit 160 to display an image to which an effect (blurring effect) according to a user operation is given. Accordingly, for example, before the user fully presses the shutter button 191, an image subjected to the blurring process according to the specific operation can be shown to the user.

また、例えば、操作領域画像330におけるユーザ操作に応じた効果が与えられた画像を、プレビュー画像として表示部160に表示させるようにしてもよい。なお、プレビュー画像は、例えば、静止画の記録指示操作が受け付けられた場合におけるその記録対象となる画像であり、その記録指示操作に係る記録処理中およびその直後に一定期間表示される画像である。すなわち、制御部200は、静止画の記録指示操作が受け付けられた場合には、その記録指示操作に応じて記録される画像(プレビュー画像)として、操作領域画像330におけるユーザ操作に応じた効果が与えられた画像を表示部160に表示させる制御を行う。   Further, for example, an image to which an effect corresponding to a user operation in the operation area image 330 may be displayed on the display unit 160 as a preview image. The preview image is, for example, an image to be recorded when a still image recording instruction operation is accepted, and is an image that is displayed for a certain period during and immediately after the recording process related to the recording instruction operation. . That is, when a recording instruction operation for a still image is accepted, the control unit 200 has an effect corresponding to a user operation on the operation region image 330 as an image (preview image) recorded in accordance with the recording instruction operation. Control is performed to display a given image on the display unit 160.

[撮像装置の動作例]
次に、本技術の第1の実施の形態における撮像装置100の動作について図面を参照して説明する。
[Operation example of imaging device]
Next, the operation of the imaging apparatus 100 according to the first embodiment of the present technology will be described with reference to the drawings.

[撮像装置の動作例]
図5は、本技術の第1の実施の形態における撮像装置100による画像記録処理の処理手順の一例を示すフローチャートである。
[Operation example of imaging device]
FIG. 5 is a flowchart illustrating an example of a processing procedure of image recording processing by the imaging device 100 according to the first embodiment of the present technology.

最初に、制御部200は、撮像モードが設定されたか否かを判断し(ステップS901)、撮像モードが設定されていない場合には、監視を継続して行う。また、撮像モードが設定された場合には(ステップS901)、撮像部120が、制御部200の指示に基づいて、撮像処理により画像を生成する(ステップS902)。   First, the control unit 200 determines whether or not an imaging mode has been set (step S901). If the imaging mode has not been set, monitoring is continued. If the imaging mode is set (step S901), the imaging unit 120 generates an image by imaging processing based on an instruction from the control unit 200 (step S902).

続いて、画像処理部140が、制御部200の指示に基づいて、撮像部120により生成されて変換部130により変換された画像について画像処理(例えば、ぼかし処理)を行う(ステップS903)。この画像処理の内容は、図4に示す操作領域画像330における操作標識331の位置に応じて決定される。   Subsequently, the image processing unit 140 performs image processing (for example, blurring processing) on the image generated by the imaging unit 120 and converted by the conversion unit 130 based on an instruction from the control unit 200 (step S903). The contents of this image processing are determined according to the position of the operation marker 331 in the operation area image 330 shown in FIG.

続いて、表示制御部150が、制御部200の指示に基づいて、画像処理部140により画像処理が施された画像を操作領域画像330とともに表示部160に表示させる(ステップS904)。例えば、図4(a)に示す表示画面310が表示部160に表示される。   Subsequently, the display control unit 150 displays the image subjected to the image processing by the image processing unit 140 on the display unit 160 together with the operation region image 330 based on an instruction from the control unit 200 (step S904). For example, the display screen 310 shown in FIG.

続いて、制御部200は、操作領域画像330における操作標識331の操作(例えば、移動操作)が行われたか否かを判断し(ステップS905)、操作領域画像330における操作標識331の操作が行われていない場合には、ステップS909に進む。一方、操作領域画像330における操作標識331の操作が行われた場合には(ステップS905)、制御部200は、その操作による移動後の操作標識331の位置が操作領域画像330における光学処理範囲332内であるか否かを判断する(ステップS906)。なお、ステップS905、S906は、特許請求の範囲に記載の判定手順の一例である。   Subsequently, the control unit 200 determines whether or not an operation (for example, a movement operation) of the operation marker 331 in the operation region image 330 has been performed (step S905), and the operation of the operation marker 331 in the operation region image 330 is performed. If not, the process proceeds to step S909. On the other hand, when the operation marker 331 is operated in the operation region image 330 (step S905), the control unit 200 determines that the position of the operation marker 331 after the movement by the operation is the optical processing range 332 in the operation region image 330. It is determined whether it is within (step S906). Steps S905 and S906 are an example of a determination procedure described in the claims.

その操作による移動後の操作標識331の位置が光学処理範囲332内である場合には(ステップS906)、制御部200は、光学処理範囲332における操作標識331の位置に基づいてレンズユニット110を制御する(ステップS907)。すなわち、光学処理範囲332における操作標識331の位置に応じて絞り112が調整される。なお、ステップS907は、特許請求の範囲に記載の第1制御手順の一例である。   When the position of the operation marker 331 after the movement by the operation is within the optical processing range 332 (step S906), the control unit 200 controls the lens unit 110 based on the position of the operation marker 331 in the optical processing range 332. (Step S907). That is, the diaphragm 112 is adjusted according to the position of the operation mark 331 in the optical processing range 332. Step S907 is an example of a first control procedure described in the claims.

また、その移動後の操作標識331の位置が光学処理範囲332内でない場合には(ステップS906)、制御部200は、画像処理範囲333における操作標識331の位置に基づいて画像処理部140を制御する(ステップS908)。すなわち、画像処理範囲333において操作標識331が存在する枝に応じて、ぼかし処理の対象となる領域が決定される。また、その枝における操作標識331の位置(長手方向における位置)に応じてぼかし度合いが決定される。そして、制御部200は、これらの決定内容を画像処理部140に通知する。これにより、画像処理部140が、撮像部120により生成されて変換部130により変換された画像について画像処理を行う(ステップS903)。なお、ステップS908は、特許請求の範囲に記載の第2制御手順の一例である。   If the position of the operation marker 331 after the movement is not within the optical processing range 332 (step S906), the control unit 200 controls the image processing unit 140 based on the position of the operation marker 331 in the image processing range 333. (Step S908). That is, a region to be subjected to the blurring process is determined according to the branch where the operation marker 331 exists in the image processing range 333. Further, the degree of blur is determined according to the position of the operation marker 331 on the branch (position in the longitudinal direction). Then, the control unit 200 notifies the image processing unit 140 of these determination details. Thereby, the image processing unit 140 performs image processing on the image generated by the imaging unit 120 and converted by the conversion unit 130 (step S903). Note that step S908 is an example of a second control procedure described in the claims.

続いて、制御部200は、静止画の記録指示操作が行われたか否かを判断し(ステップS909)、静止画の記録指示操作が行われていない場合には、ステップS911に進む。例えば、静止画の記録指示操作は、シャッターボタン191(図4(a)等に示す)の全押し操作である。また、静止画の記録指示操作が行われた場合には(ステップS909)、記録制御部170が、制御部200の指示に基づいて、画像処理部140により画像処理が施された画像を記録媒体180に記録させる記録処理を行う(ステップS910)。この場合に、画像処理部140によりぼかし処理が施された画像と、画像処理部140によりぼかし処理が施されていない画像とを、関連付けて記録媒体180に記録させるようにしてもよい。これにより、デジタル画像処理によるぼかし処理が施された画像と、デジタル画像処理によるぼかし処理が施されていない画像とを、ユーザが比較して見ることができる。   Subsequently, the control unit 200 determines whether or not a still image recording instruction operation has been performed (step S909). If the still image recording instruction operation has not been performed, the control unit 200 proceeds to step S911. For example, the still image recording instruction operation is a full pressing operation of the shutter button 191 (shown in FIG. 4A and the like). When a still image recording instruction operation is performed (step S909), the recording control unit 170 records an image subjected to image processing by the image processing unit 140 based on an instruction from the control unit 200 as a recording medium. Recording processing for recording in 180 is performed (step S910). In this case, the image that has been subjected to the blurring process by the image processing unit 140 and the image that has not been subjected to the blurring process by the image processing unit 140 may be associated with each other and recorded on the recording medium 180. Accordingly, the user can compare and view the image that has been subjected to the blurring process by the digital image processing and the image that has not been subjected to the blurring process by the digital image process.

また、制御部200は、撮像モードの終了操作が行われたか否かを判断し(ステップS911)、撮像モードの終了操作が行われていない場合には、ステップS902に戻る。また、撮像モードの終了操作が行われた場合には(ステップS911)、画像記録処理の動作を終了する。   In addition, the control unit 200 determines whether or not an operation for ending the imaging mode has been performed (step S911). If the operation for ending the imaging mode has not been performed, the control unit 200 returns to step S902. If an operation for ending the imaging mode is performed (step S911), the operation of the image recording process is ended.

なお、この例では、撮像モードが設定されている場合に操作領域画像330を表示する例を示すが、撮像モードのうちの特定モード(例えば、背景ぼかしモード)が設定されている場合にのみ操作領域画像330を表示するようにしてもよい。   In this example, the operation region image 330 is displayed when the imaging mode is set. However, the operation is performed only when a specific mode (for example, the background blur mode) of the imaging mode is set. The area image 330 may be displayed.

また、この例では、撮像動作中において操作領域画像330を常に表示する例を示すが、操作領域画像330を表示させるか否か(操作領域画像330のオン/オフ)を、ユーザ操作に応じて容易に切り換えることができるようにしてもよい。   In this example, the operation area image 330 is always displayed during the imaging operation. However, whether or not to display the operation area image 330 (ON / OFF of the operation area image 330) is determined according to the user operation. It may be possible to switch easily.

このように、本技術の第1の実施の形態によれば、レンズユニット110による光学処理と、画像処理部140によるデジタル画像処理とを同一線上で行えるユーザインターフェースを提供することができる。すなわち、絞り112を開放してその分のシャッタースピードを短くする等のレンズ性能を利用した背景ぼかしの操作と、デジタル画像処理技術を利用したぼかしの操作とを1つのインターフェースで行うことができる。これにより、ズームレンズのようにレンズの開放に制限があるような場合でも、レンズ性能以上のぼかし画像(例えば、おもいっきりぼかした画像)を生成することができる。このように、レンズユニット110では再現することができない背景ぼかしをデジタル画像処理により行うことができるため、レンズユニット110のレンズ性能を仮想的に延長させることができる。   Thus, according to the first embodiment of the present technology, it is possible to provide a user interface capable of performing optical processing by the lens unit 110 and digital image processing by the image processing unit 140 on the same line. That is, it is possible to perform a background blur operation using lens performance such as opening the aperture 112 and shortening the corresponding shutter speed, and a blur operation using digital image processing technology with one interface. As a result, even when there is a restriction on the opening of the lens like a zoom lens, it is possible to generate a blurred image (for example, an image that is completely blurred) that exceeds the lens performance. Thus, since the background blur that cannot be reproduced by the lens unit 110 can be performed by digital image processing, the lens performance of the lens unit 110 can be virtually extended.

また、複数の背景ぼかしの処理方法を、操作領域画像330として表示してユーザに選択させることができる。また、それらの処理結果についても、入出力パネル300においてユーザが容易に把握することができる。このため、例えば、撮像装置100の扱いに不慣れな初心者でもあっても、好みのぼかし具合となる画像を容易に生成することができる。すなわち、ユーザ好みの画像を容易に生成することができる。   Also, a plurality of background blur processing methods can be displayed as the operation area image 330 and can be selected by the user. In addition, the user can easily grasp the processing results on the input / output panel 300. For this reason, for example, even a beginner who is unfamiliar with the handling of the imaging apparatus 100 can easily generate an image with a desired degree of blurring. That is, a user-preferred image can be easily generated.

<2.第2の実施の形態>
本技術の第1の実施の形態では、撮像動作時において操作領域画像(例えば、図4に示す操作領域画像330)を表示する例を示した。ここで、操作領域画像の画像処理範囲における各枝の先端に対応する画像処理が施された画像を、ユーザが枝毎に容易に把握することができれば、ユーザ好みの画像をさらに容易に生成することができると考えられる。
<2. Second Embodiment>
In the first embodiment of the present technology, the example in which the operation region image (for example, the operation region image 330 illustrated in FIG. 4) is displayed during the imaging operation has been described. Here, if the user can easily grasp, for each branch, an image that has been subjected to image processing corresponding to the tip of each branch in the image processing range of the operation area image, a user-preferred image is generated more easily. It is considered possible.

そこで、本技術の第2の実施の形態では、操作領域画像の画像処理範囲における各枝の先端に対応する画像処理が施された画像を各枝に関連付けて表示する例を示す。なお、本技術の第2の実施の形態における撮像装置の構成については、図1に示す例と略同様である。このため、本技術の第1の実施の形態と共通する部分については、その説明の一部を省略する。   Therefore, in the second embodiment of the present technology, an example in which an image subjected to image processing corresponding to the tip of each branch in the image processing range of the operation region image is displayed in association with each branch is shown. Note that the configuration of the imaging apparatus according to the second embodiment of the present technology is substantially the same as the example illustrated in FIG. For this reason, a part of description is abbreviate | omitted about the part which is common in 1st Embodiment of this technique.

[画像処理を行うための操作領域画像の表示例]
図6は、本技術の第2の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像について画像処理を行うための操作領域画像の表示例(表示画面400)を示す図である。
[Example of operation area image display for image processing]
FIG. 6 is a diagram illustrating a display example (display screen 400) of an operation region image for performing image processing on an image generated by an imaging operation performed using the imaging device 100 according to the second embodiment of the present technology. It is.

表示画面400は、図4(a)に示す表示画面310において、各画像処理が施された画像401乃至403を追加して表示するものである。なお、各画像処理が施された画像401乃至403を追加して表示する点以外は、表示画面400は表示画面310と略同様であるため、共通する部分については同一の符号を付して、これらの説明の一部を省略する。   The display screen 400 displays the images 401 to 403 that have been subjected to each image processing in the display screen 310 shown in FIG. The display screen 400 is substantially the same as the display screen 310 except that the images 401 to 403 subjected to the respective image processes are added and displayed. Therefore, common portions are denoted by the same reference numerals, Some of these descriptions are omitted.

図6(a)には、操作領域画像330における操作標識331が光学処理範囲(図4(b)に示す光学処理範囲332)に存在する場合における表示画面400を示す。また、図6(b)には、操作領域画像330における操作標識331が画像処理範囲(図4(b)に示す画像処理範囲333)に存在する場合における表示画面400を示す。   FIG. 6A shows the display screen 400 when the operation indicator 331 in the operation region image 330 exists in the optical processing range (the optical processing range 332 shown in FIG. 4B). FIG. 6B shows a display screen 400 when the operation indicator 331 in the operation area image 330 is present in the image processing range (the image processing range 333 shown in FIG. 4B).

図6(a)に示すように、表示画面400には、操作領域画像330の下側に、画像処理範囲(図4(b)に示す画像処理範囲333)における各枝の先端に対応する画像処理が施された画像401乃至403を表示する表示領域が設けられている。すなわち、操作領域画像330における操作標識331が光学処理範囲(図4(b)に示す光学処理範囲332)に存在する場合には、各枝の先端に対応する画像処理が施された画像401乃至403のそれぞれが同一のサイズで表示される。このように、制御部200は、各画像処理が施された画像401乃至403を、各画像処理効果に係る枝に関連付けて表示部160に表示させるための制御を行う。   As shown in FIG. 6A, on the display screen 400, on the lower side of the operation area image 330, an image corresponding to the tip of each branch in the image processing range (the image processing range 333 shown in FIG. 4B). A display area for displaying the processed images 401 to 403 is provided. That is, when the operation marker 331 in the operation region image 330 exists in the optical processing range (the optical processing range 332 shown in FIG. 4B), the images 401 to 401 subjected to image processing corresponding to the tips of the branches are performed. Each of 403 is displayed with the same size. In this manner, the control unit 200 performs control for causing the display unit 160 to display the images 401 to 403 that have been subjected to each image processing in association with the branches related to the respective image processing effects.

また、図6(b)に示すように、操作領域画像330における操作標識331が画像処理範囲(図4(b)に示す画像処理範囲333)に存在する場合には、操作標識331が存在する枝の先端に対応する画像処理が施された画像が拡大表示される(画像405)。例えば、図6(b)に示すように、操作標識331が画像処理範囲のうちの「ぼかす1」の枝に存在する場合には、「ぼかす1」に対応する画像処理が施された画像401(図6(a)に示す)が拡大表示される(画像405)。   Further, as shown in FIG. 6B, when the operation indicator 331 in the operation region image 330 exists in the image processing range (the image processing range 333 shown in FIG. 4B), the operation indicator 331 exists. An image subjected to image processing corresponding to the tip of the branch is enlarged and displayed (image 405). For example, as illustrated in FIG. 6B, when the operation indicator 331 exists on the “blur 1” branch in the image processing range, the image 401 subjected to image processing corresponding to “blur 1”. (Shown in FIG. 6A) is enlarged and displayed (image 405).

ここで、操作領域画像330の下側に表示される画像(画像401乃至403)については、定期的または不定期に、画像処理部140により生成される。例えば、操作標識331が画像処理範囲(図4(b)に示す画像処理範囲333)に移動された場合に、画像処理部140が、各枝の先端に対応するぼかし処理を施した画像を生成して表示することができる。また、操作標識331の位置にかかわらず、画像処理部140が、各枝の先端に対応するぼかし処理を施した画像を順次生成して表示することができる。   Here, the images (images 401 to 403) displayed below the operation area image 330 are generated by the image processing unit 140 regularly or irregularly. For example, when the operation marker 331 is moved to the image processing range (the image processing range 333 shown in FIG. 4B), the image processing unit 140 generates an image that has been subjected to the blurring process corresponding to the tip of each branch. Can be displayed. Regardless of the position of the operation marker 331, the image processing unit 140 can sequentially generate and display images subjected to blurring processing corresponding to the tips of the branches.

このように、本技術の第2の実施の形態によれば、操作領域画像330の画像処理範囲333における各枝の先端に対応する画像処理が施された画像を各枝に関連付けて表示させることができる。これにより、撮像動作中において、操作標識331の操作後の画像をユーザがさらに容易に把握することができ、ユーザ好みの画像をさらに容易に生成することができる。また、欲しいエフェクトを加えるためのユーザ操作を容易に行うことができる。   As described above, according to the second embodiment of the present technology, the image subjected to the image processing corresponding to the tip of each branch in the image processing range 333 of the operation region image 330 is displayed in association with each branch. Can do. Thereby, during the imaging operation, the user can more easily grasp the image after the operation of the operation marker 331, and the user-preferred image can be generated more easily. In addition, a user operation for adding a desired effect can be easily performed.

また、光学的に再現することができないような複雑なぼかし処理を施した画像を記録する場合でも、入出力パネル300において直感的に容易に、画像の処理結果をユーザが確認することができる。このため、撮像装置100において新しいユーザ経験を提供することができる。   Even when an image subjected to complicated blurring processing that cannot be optically reproduced is recorded, the user can easily and intuitively check the processing result of the image on the input / output panel 300. Therefore, a new user experience can be provided in the imaging apparatus 100.

<3.第3の実施の形態>
本技術の第1および第2の実施の形態では、画像に含まれる被写体をぼかす処理を行う場合にそのぼかし度合いを調整する例を示した。ここで、他の画像処理を行う場合にその処理の度合いを調整する場合についても本技術の第1および第2の実施の形態を適用することができると考えられる。
<3. Third Embodiment>
In the first and second embodiments of the present technology, an example in which the degree of blurring is adjusted when performing a process of blurring a subject included in an image has been described. Here, it is considered that the first and second embodiments of the present technology can also be applied to the case of adjusting the degree of processing when performing other image processing.

そこで、本技術の第3の実施の形態では、各種の画像処理を行う場合にその処理の度合いを調整するための操作領域画像を表示する例を示す。なお、本技術の第3の実施の形態における撮像装置の構成については、図1に示す例と略同様である。このため、本技術の第1の実施の形態と共通する部分については、その説明の一部を省略する。   Therefore, in the third embodiment of the present technology, an example in which an operation region image for adjusting the degree of processing when various types of image processing are performed is displayed. Note that the configuration of the imaging apparatus according to the third embodiment of the present technology is substantially the same as the example illustrated in FIG. For this reason, a part of description is abbreviate | omitted about the part which is common in 1st Embodiment of this technique.

[操作領域画像設定画面の表示例]
図7は、本技術の第3の実施の形態における撮像装置100の表示部160(入出力パネル300)に表示される表示画面例(操作領域画像設定画面500)を示す図である。
[Example of operation area image setting screen]
FIG. 7 is a diagram illustrating a display screen example (operation area image setting screen 500) displayed on the display unit 160 (input / output panel 300) of the imaging device 100 according to the third embodiment of the present technology.

操作領域画像設定画面500は、撮像装置100を用いて行われる撮像動作中に入出力パネル300に表示させる操作領域画像を選択するための表示画面である。操作領域画像設定画面500は、例えば、撮像装置100に実行させる機能を選択するための表示画面(例えば、メニュー画面)における選択操作に応じて表示される。   The operation area image setting screen 500 is a display screen for selecting an operation area image to be displayed on the input / output panel 300 during an imaging operation performed using the imaging apparatus 100. The operation area image setting screen 500 is displayed according to a selection operation on a display screen (for example, a menu screen) for selecting a function to be executed by the imaging apparatus 100, for example.

具体的には、操作領域画像設定画面500には、操作領域画像選択領域501と、決定ボタン502と、戻るボタン503とが設けられている。   Specifically, the operation area image setting screen 500 is provided with an operation area image selection area 501, a determination button 502, and a return button 503.

操作領域画像選択領域501には、撮像装置100を用いて行われる撮像動作中に入出力パネル300に表示させる操作領域画像を選択するためのラジオボタンが表示される。例えば、本技術の第1の実施の形態で示す操作領域画像330を表示させる場合には、一番上側のラジオボタン(ぼかし1〜3)が選択される。   In the operation area image selection area 501, a radio button for selecting an operation area image to be displayed on the input / output panel 300 during an imaging operation performed using the imaging apparatus 100 is displayed. For example, when displaying the operation area image 330 shown in the first embodiment of the present technology, the uppermost radio button (blur 1 to 3) is selected.

なお、真ん中のラジオボタン(トンネル風+ぼかし、…)が選択された場合に表示される操作領域画像については、図9を参照して詳細に説明する。また、一番下側のラジオボタン(ズーム1〜3)が選択された場合に表示される操作領域画像については、図10を参照して詳細に説明する。   The operation region image displayed when the middle radio button (tunnel wind + blur,...) Is selected will be described in detail with reference to FIG. The operation region image displayed when the lowermost radio button (zoom 1 to 3) is selected will be described in detail with reference to FIG.

決定ボタン502は、操作領域画像選択領域501において、表示対象となる操作領域画像を選択する選択操作が行われた後に、その操作を決定する際に押下されるボタンである。   The decision button 502 is a button that is pressed when a selection operation for selecting an operation region image to be displayed is performed in the operation region image selection region 501 and the operation is determined.

戻るボタン503は、例えば、直前に表示されていた表示画面に戻る場合に押下されるボタンである。   The return button 503 is a button that is pressed when returning to the display screen displayed immediately before, for example.

[画像の生成例]
図8は、本技術の第3の実施の形態における撮像装置100を用いて行われた撮像動作により生成される画像を簡略的に示す図である。図8(a)乃至(b)には、人物515を主要被写体とする撮像動作を行っている場合において、画像処理が施された後の画像の一例を示す。
[Image generation example]
FIG. 8 is a diagram schematically illustrating an image generated by an imaging operation performed using the imaging apparatus 100 according to the third embodiment of the present technology. FIGS. 8A and 8B show an example of an image after image processing is performed in the case of performing an imaging operation with the person 515 as a main subject.

図8(a)には、トンネル効果およびぼかしに関する画像処理が画像処理部140により施された画像511を示す。ここで、トンネル効果は、画像における周縁の光量を落とすことにより、人物515がトンネル内に存在する場面を撮影したような効果を与えることである。   FIG. 8A shows an image 511 that has been subjected to image processing related to the tunnel effect and blurring by the image processing unit 140. Here, the tunnel effect is to give an effect as if a person 515 shot a scene existing in the tunnel by reducing the amount of light at the periphery of the image.

例えば、画像処理部140は、撮像部120により生成されて変換部130により変換された画像について、この画像における周縁の光量を落とすとともに所定のエフェクトを加える画像処理を施すことにより、トンネル効果となる画像511を生成する。   For example, the image processing unit 140 performs a tunnel effect on the image generated by the imaging unit 120 and converted by the conversion unit 130 by performing image processing that reduces the amount of light at the periphery of the image and adds a predetermined effect. An image 511 is generated.

図8(b)には、スケッチ風およびぼかしに関する画像処理が画像処理部140により施された画像512を示す。ここで、スケッチ風の画像は、画像における輝度を調整するように画像処理が施された画像であり、スケッチにより描かれたような画像である。   FIG. 8B shows an image 512 that has been subjected to image processing related to sketching and blurring by the image processing unit 140. Here, the sketch-like image is an image that has been subjected to image processing so as to adjust the luminance in the image, and is an image that is drawn by a sketch.

例えば、画像処理部140は、撮像部120により生成されて変換部130により変換された画像について、明度の二値化処理およびエッジ抽出処理を行う。そして、画像処理部140は、二値化処理により生成された二値化画像と、エッジ抽出処理により生成された輪郭線画像とを重ね合わせる重ね合わせ処理を行うことにより、スケッチ風の画像512を生成する。   For example, the image processing unit 140 performs lightness binarization processing and edge extraction processing on the image generated by the imaging unit 120 and converted by the conversion unit 130. Then, the image processing unit 140 performs a superimposition process that superimposes the binarized image generated by the binarization process and the contour line image generated by the edge extraction process, thereby generating a sketch-like image 512. Generate.

図8(c)には、トイカメラ風およびぼかしに関する画像処理が画像処理部140により施された画像513を示す。ここで、トイカメラ風の画像は、画像における四隅が薄暗くされた画像であり、トイカメラにより撮影されたような雰囲気の画像である。   FIG. 8C shows an image 513 that has been subjected to image processing related to toy camera style and blurring by the image processing unit 140. Here, the toy camera-like image is an image in which the four corners of the image are dimmed, and is an image having an atmosphere as if taken by a toy camera.

例えば、画像処理部140は、撮像部120により生成されて変換部130により変換された画像について、この画像における四隅を薄暗くするとともに所定のエフェクトを加える画像処理を施すことにより、トイカメラ風の画像513を生成する。   For example, the image processing unit 140 performs toy camera-like image processing on the image generated by the imaging unit 120 and converted by the conversion unit 130 by dimming the four corners of the image and applying predetermined effects. 513 is generated.

[画像処理を行うための操作領域画像の表示例]
図9は、本技術の第3の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像について画像処理を行うための操作領域画像の表示例を示す図である。なお、図9に示す表示画面520は、図4に示す表示画面310の一部を変形したものである。このため、図9では、表示画面310と共通する部分については、同一の符号を付して、これらの説明の一部を省略する。
[Example of operation area image display for image processing]
FIG. 9 is a diagram illustrating a display example of an operation region image for performing image processing on an image generated by an imaging operation performed using the imaging apparatus 100 according to the third embodiment of the present technology. Note that the display screen 520 shown in FIG. 9 is obtained by modifying a part of the display screen 310 shown in FIG. For this reason, in FIG. 9, parts common to the display screen 310 are denoted by the same reference numerals, and a part of these descriptions is omitted.

操作領域画像530は、撮像部120により生成される画像について、画像処理部140が画像効果(カラー、モノクロ等)を施す場合に、その度合いを調整するための画像である。なお、上側の範囲(図4(b)に示す光学処理範囲332に相当する範囲)は、カラーの度合いを調整するための範囲である。また、下側の範囲(図4(b)に示す画像処理範囲333に相当する範囲)は、モノクロの度合いを調整するための範囲であり、分岐されている各枝に応じて、それぞれ異なる画像処理が施される。   The operation area image 530 is an image for adjusting the degree of the image generated by the imaging unit 120 when the image processing unit 140 performs an image effect (color, monochrome, etc.). Note that the upper range (a range corresponding to the optical processing range 332 shown in FIG. 4B) is a range for adjusting the degree of color. Also, the lower range (the range corresponding to the image processing range 333 shown in FIG. 4B) is a range for adjusting the degree of monochrome, and different images are used depending on the branches that are branched. Processing is performed.

[ズーム処理を行うための操作領域画像の表示例]
図10は、本技術の第3の実施の形態における撮像装置100を用いて行われる撮像動作により生成される画像についてズーム処理を行うための操作領域画像の表示例を示す図である。なお、図10に示す表示画面540は、図4に示す表示画面310の一部を変形したものである。このため、図10では、表示画面310と共通する部分については、同一の符号を付して、これらの説明の一部を省略する。
[Display example of operation area image for zoom processing]
FIG. 10 is a diagram illustrating a display example of an operation region image for performing zoom processing on an image generated by an imaging operation performed using the imaging device 100 according to the third embodiment of the present technology. Note that the display screen 540 shown in FIG. 10 is obtained by modifying a part of the display screen 310 shown in FIG. For this reason, in FIG. 10, parts common to the display screen 310 are denoted by the same reference numerals, and a part of these descriptions is omitted.

操作領域画像550は、撮像部120により生成される画像について、ズーム処理を行う場合に、その度合いを調整するための画像である。なお、上側の範囲(図4(b)に示す光学処理範囲332に相当する範囲)は、光学ズーム倍率を調整するための範囲である。この光学ズーム処理は、レンズユニット110により行われる。また、下側の範囲(図4(b)に示す画像処理範囲333に相当する範囲)は、電子ズーム(デジタルズーム)の度合いを調整するための範囲であり、分岐されている各枝に応じて、それぞれ異なるズーム処理が行われる。この電子ズーム処理は、画像処理部140により行われる。例えば、ズーム1は、画像における左側領域をズームするための枝とし、ズーム2は、画像における中央領域をズームするための枝とし、ズーム3は、画像における右側領域をズームするための枝とすることができる。   The operation region image 550 is an image for adjusting the degree of zoom processing performed on the image generated by the imaging unit 120. The upper range (the range corresponding to the optical processing range 332 shown in FIG. 4B) is a range for adjusting the optical zoom magnification. This optical zoom process is performed by the lens unit 110. The lower range (a range corresponding to the image processing range 333 shown in FIG. 4B) is a range for adjusting the degree of electronic zoom (digital zoom), and depends on each branch that is branched. Different zoom processes are performed. This electronic zoom process is performed by the image processing unit 140. For example, zoom 1 is a branch for zooming the left region in the image, zoom 2 is a branch for zooming the central region in the image, and zoom 3 is a branch for zooming the right region in the image. be able to.

このように、本技術の第3の実施の形態によれば、背景ぼかし効果やスケッチ効果等の複雑な処理を必要とする画像処理等についても、ユーザによるワンアクションの操作等により容易に行うことができる。また、本技術の第2の実施の形態と同様に、その処理が施された画像を表示させることにより、その効果をユーザが容易に確認することができる。   As described above, according to the third embodiment of the present technology, image processing that requires complicated processing such as a background blur effect and a sketch effect can be easily performed by a one-action operation by the user. Can do. In addition, similarly to the second embodiment of the present technology, by displaying an image subjected to the processing, the user can easily confirm the effect.

<4.第4の実施の形態>
本技術の第1乃至第3の実施の形態では、略同一の長さの3つの枝が下側に延びている操作領域画像を表示する例を示した。ここで、枝の表示態様については、ユーザの好みや画像処理の内容に応じて変更するようにしてもよい。
<4. Fourth Embodiment>
In the first to third embodiments of the present technology, an example in which an operation region image in which three branches having substantially the same length extend downward has been shown. Here, the display mode of the branches may be changed according to the user's preference and the content of the image processing.

そこで、本技術の第4の実施の形態では、操作領域画像における複数の枝の表示態様を変更する例を示す。なお、本技術の第4の実施の形態における撮像装置の構成については、図1に示す例と略同様である。このため、本技術の第1の実施の形態と共通する部分については、その説明の一部を省略する。   Therefore, in the fourth embodiment of the present technology, an example in which the display mode of a plurality of branches in the operation region image is changed is shown. Note that the configuration of the imaging apparatus according to the fourth embodiment of the present technology is substantially the same as the example illustrated in FIG. For this reason, a part of description is abbreviate | omitted about the part which is common in 1st Embodiment of this technique.

[操作領域画像の表示例]
図11は、本技術の第4の実施の形態における撮像装置100の表示部160(入出力パネル300)に表示される操作領域画像610、620を示す図である。
[Operation area image display example]
FIG. 11 is a diagram illustrating operation region images 610 and 620 displayed on the display unit 160 (input / output panel 300) of the imaging device 100 according to the fourth embodiment of the present technology.

図11(a)には、上下に延びるラインを基準とした場合における左右の一方に、複数の枝を配置する操作領域画像610を示す。操作領域画像610は、操作標識611と、第1操作範囲612と、第2操作範囲613とにより構成される。   FIG. 11A shows an operation region image 610 in which a plurality of branches are arranged on one of the left and right when a line extending vertically is used as a reference. The operation area image 610 includes an operation indicator 611, a first operation range 612, and a second operation range 613.

図11(b)には、上下に延びるラインを基準とした場合における左右の各枝の長さを変更した操作領域画像620を示す。操作領域画像620は、操作標識621と、第1操作範囲622と、第2操作範囲623とにより構成される。   FIG. 11B shows an operation region image 620 in which the lengths of the left and right branches are changed with reference to a vertically extending line. The operation area image 620 includes an operation indicator 621, a first operation range 622, and a second operation range 623.

これらの変更については、ユーザの手動操作により設定するようにしてもよく、各画像処理に応じて自動で設定するようにしてもよい。   About these changes, you may make it set by a user's manual operation, and you may make it set automatically according to each image process.

なお、本技術の実施の形態では、3つの枝により構成される操作領域画像を示すが、2または4以上の枝により操作領域画像が構成されるようにしてもよい。この場合についても、本技術の第4の実施形態と同様に、各枝の配置や各枝の長さを適宜変更するようにしてもよい。また、本技術の第2の実施の形態と同様に、各処理が施された各画像を各枝に関連付けて表示させることにより、その効果をユーザが容易に確認することができる。   In the embodiment of the present technology, an operation region image configured by three branches is illustrated, but an operation region image may be configured by two or four or more branches. Also in this case, similarly to the fourth embodiment of the present technology, the arrangement of the branches and the length of the branches may be changed as appropriate. Further, as in the second embodiment of the present technology, each image that has been subjected to each process is displayed in association with each branch, so that the user can easily confirm the effect.

なお、本技術の実施の形態では、撮像部120を備える撮像装置100を例にして説明したが、撮像部を着脱可能な画像処理装置に本技術の実施の形態を適用することができる。また、撮像機能付き携帯電話機や撮像機能付き携帯端末装置等の画像処理装置に本技術の実施の形態を適用することができる。   In the embodiment of the present technology, the imaging device 100 including the imaging unit 120 has been described as an example. However, the embodiment of the present technology can be applied to an image processing device to which the imaging unit can be attached and detached. Further, the embodiment of the present technology can be applied to an image processing device such as a mobile phone with an imaging function or a mobile terminal device with an imaging function.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。   Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disk), a memory card, a Blu-ray Disc (registered trademark), or the like can be used.

なお、本技術は以下のような構成もとることができる。
(1) 画像に第1効果を与える第1処理部と、
前記第1効果とは異なる効果であって複数種類の第2効果を前記画像に与える第2処理部と、
操作受付部により受け付けられたユーザ操作が所定条件を満たす場合には前記第1処理部による前記第1効果を当該ユーザ操作に応じて前記画像に与え、当該ユーザ操作が所定条件を満たさない場合には前記第2処理部による前記第2効果のうちの何れかの効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う制御部と
を具備する画像処理装置。
(2) 光学系をさらに具備し、
前記制御部は、前記光学系を制御することより前記第1効果を前記画像に与える
前記(1)に記載の画像処理装置。
(3) 前記ユーザ操作により設定された処理が、前記光学系の制御により得られる処理の範囲の中であることを前記所定条件とする前記(2)に記載の画像処理装置。
(4) 前記第1効果は、前記光学系の制御から生じる光学ぼかし効果であり、
前記第2効果は、デジタル画像処理によるデジタルぼかし効果である
前記(2)または(3)に記載の画像処理装置。
(5) 前記第2処理部は、前記画像にデジタル画像処理を施すことにより前記複数種類の第2効果を与える画像処理部である前記(1)から(4)のいずれかに記載の画像処理装置。
(6) 前記第2効果は、ぼかし効果であり、
前記制御部は、前記ユーザ操作が前記所定条件を満たさない場合には、当該ユーザ操作に応じて前記画像処理部を制御することにより複数種類の前記ぼかし効果のうちの何れかのぼかし効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う
前記(5)に記載の画像処理装置。
(7) 前記制御部は、前記ユーザ操作を受け付けるための操作領域画像を表示部に表示させるための制御を行う前記(1)から(6)のいずれかに記載の画像処理装置。
(8) 前記制御部は、前記第1処理部による前記第1効果を前記画像に与えるための前記ユーザ操作としてユーザによる接触操作を行うための第1操作範囲と、前記第2処理部による前記第2効果のうちの何れかの効果を前記画像に与えるための前記ユーザ操作としてユーザによる接触操作を行うための第2操作範囲とを含む一連の線状領域を前記操作領域画像として前記表示部に表示させるための制御を行う前記(7)に記載の画像処理装置。
(9) 前記制御部は、前記第1操作範囲における前記接触操作が行われた位置と前記第1操作範囲および前記第2操作範囲の境界との距離に応じて前記第1処理部による前記第1効果の高低を決定し、前記第2操作範囲における前記接触操作が行われた位置と前記境界との距離に応じて前記第2処理部による前記第2効果の高低を決定するように制御を行う前記(8)に記載の画像処理装置。
(10) 前記制御部は、前記第1操作範囲および前記第2操作範囲の境界から分岐する複数の線状領域を前記第2操作範囲における前記複数種類の第2効果に対応する画像として前記表示部に表示させるための制御を行う前記(8)または(9)に記載の画像処理装置。
(11) 前記制御部は、前記第2効果を表す画像を当該第2効果に係る線状領域に関連付けて前記複数種類の第2効果毎に前記表示部に表示させるための制御を行う前記(10)に記載の画像処理装置。
(12) 前記制御部は、前記ユーザ操作に応じた効果が与えられた前記画像を表示部に表示させる制御を行う前記(1)から(11)のいずれかに記載の画像処理装置。
(13) 前記制御部は、前記画像を記録するための記録指示操作が受け付けられた場合には当該記録指示操作に応じて記録される画像であって前記ユーザ操作に応じた効果が与えられた画像を表示部に表示させる制御を行う前記(1)から(12)のいずれかに記載の画像処理装置。
(14) 撮像部をさらに具備する前記(1)から(13)のいずれかに記載の画像処理装置。
(15) 操作受付部により受け付けられたユーザ操作が所定条件を満たすか否かを判定する判定手順と、
前記ユーザ操作が所定条件を満たす場合には、画像に第1効果を与える第1処理部による前記第1効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第1制御手順と、
前記ユーザ操作が所定条件を満たさない場合には、前記第1効果とは異なる効果であって複数種類の第2効果を前記画像に与える第2処理部による前記第2効果のうちの何れかの効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第2制御手順と
を具備する画像処理装置の制御方法。
(16) 操作受付部により受け付けられたユーザ操作が所定条件を満たすか否かを判定する判定手順と、
前記ユーザ操作が所定条件を満たす場合には、画像に第1効果を与える第1処理部による前記第1効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第1制御手順と、
前記ユーザ操作が所定条件を満たさない場合には、前記第1効果とは異なる効果であって複数種類の第2効果を前記画像に与える第2処理部による前記第2効果のうちの何れかの効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第2制御手順と
をコンピュータに実行させるプログラム。
In addition, this technique can also take the following structures.
(1) a first processing unit that gives a first effect to an image;
A second processing unit that is an effect different from the first effect and gives a plurality of types of second effects to the image;
When the user operation received by the operation receiving unit satisfies a predetermined condition, the first effect by the first processing unit is given to the image according to the user operation, and when the user operation does not satisfy the predetermined condition Is an image processing apparatus comprising: a control unit that performs control for giving any one of the second effects by the second processing unit to the image according to the user operation.
(2) further comprising an optical system,
The image processing apparatus according to (1), wherein the control unit gives the first effect to the image by controlling the optical system.
(3) The image processing apparatus according to (2), wherein the predetermined condition is that the processing set by the user operation is within a processing range obtained by controlling the optical system.
(4) The first effect is an optical blur effect resulting from the control of the optical system,
The image processing apparatus according to (2) or (3), wherein the second effect is a digital blur effect by digital image processing.
(5) The image processing according to any one of (1) to (4), wherein the second processing unit is an image processing unit that applies the plurality of types of second effects by performing digital image processing on the image. apparatus.
(6) The second effect is a blur effect,
When the user operation does not satisfy the predetermined condition, the control unit controls the image processing unit in accordance with the user operation to obtain one of the plurality of types of blur effects. The image processing apparatus according to (5), wherein control for giving to the image is performed according to a user operation.
(7) The image processing device according to any one of (1) to (6), wherein the control unit performs control for displaying an operation region image for receiving the user operation on a display unit.
(8) The control unit includes a first operation range for performing a contact operation by a user as the user operation for giving the first effect to the image by the first processing unit, and the second processing unit. A series of linear regions including a second operation range for performing a contact operation by a user as the user operation for giving any one of the second effects to the image as the operation region image, the display unit The image processing apparatus according to (7), wherein the image processing apparatus performs control for display on the screen.
(9) The control unit may be configured such that the first processing unit performs the first operation according to a distance between a position where the contact operation is performed in the first operation range and a boundary between the first operation range and the second operation range. Control is performed so as to determine the level of the second effect by the second processing unit according to the distance between the position where the contact operation is performed in the second operation range and the boundary. The image processing apparatus according to (8), which is performed.
(10) The control unit displays the plurality of linear regions branched from the boundary between the first operation range and the second operation range as images corresponding to the plurality of types of second effects in the second operation range. The image processing apparatus according to (8) or (9), wherein the image processing apparatus performs control for display on a unit.
(11) The control unit performs control to display an image representing the second effect on the display unit for each of the plurality of types of second effects in association with a linear region related to the second effect. The image processing apparatus according to 10).
(12) The image processing device according to any one of (1) to (11), wherein the control unit performs control to display the image on which an effect according to the user operation is given on a display unit.
(13) When the recording instruction operation for recording the image is accepted, the control unit is an image recorded according to the recording instruction operation, and has an effect according to the user operation. The image processing apparatus according to any one of (1) to (12), wherein control is performed to display an image on a display unit.
(14) The image processing device according to any one of (1) to (13), further including an imaging unit.
(15) a determination procedure for determining whether or not the user operation received by the operation receiving unit satisfies a predetermined condition;
When the user operation satisfies a predetermined condition, a first control procedure for performing control for giving the first effect to the image according to the user operation by the first processing unit that gives the first effect to the image;
If the user operation does not satisfy a predetermined condition, any one of the second effects by the second processing unit that is different from the first effect and gives a plurality of types of second effects to the image A control method for an image processing apparatus, comprising: a second control procedure for performing control for giving an effect to the image according to the user operation.
(16) a determination procedure for determining whether or not a user operation received by the operation receiving unit satisfies a predetermined condition;
When the user operation satisfies a predetermined condition, a first control procedure for performing control for giving the first effect to the image according to the user operation by the first processing unit that gives the first effect to the image;
If the user operation does not satisfy a predetermined condition, any one of the second effects by the second processing unit that is different from the first effect and gives a plurality of types of second effects to the image The program which makes a computer perform the 2nd control procedure which performs control for giving an effect to the said image according to the said user operation.

100 撮像装置
110 レンズユニット
111 レンズ部
112 絞り
113 レンズ駆動部
114 絞り駆動部
120 撮像部
130 変換部
140 画像処理部
150 表示制御部
160 表示部
170 記録制御部
180 記録媒体
190 操作受付部
191 シャッターボタン
200 制御部
300 入出力パネル
DESCRIPTION OF SYMBOLS 100 Imaging device 110 Lens unit 111 Lens part 112 Aperture 113 Lens drive part 114 Aperture drive part 120 Imaging part 130 Conversion part 140 Image processing part 150 Display control part 160 Display part 170 Recording control part 180 Recording medium 190 Operation reception part 191 Shutter button 200 Control unit 300 Input / output panel

Claims (16)

画像に第1効果を与える第1処理部と、
前記第1効果とは異なる効果であって複数種類の第2効果を前記画像に与える第2処理部と、
操作受付部により受け付けられたユーザ操作が所定条件を満たす場合には前記第1処理部による前記第1効果を当該ユーザ操作に応じて前記画像に与え、当該ユーザ操作が所定条件を満たさない場合には前記第2処理部による前記第2効果のうちの何れかの効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う制御部と
を具備する画像処理装置。
A first processing unit that gives a first effect to an image;
A second processing unit that is an effect different from the first effect and gives a plurality of types of second effects to the image;
When the user operation received by the operation receiving unit satisfies a predetermined condition, the first effect by the first processing unit is given to the image according to the user operation, and when the user operation does not satisfy the predetermined condition Is an image processing apparatus comprising: a control unit that performs control for giving any one of the second effects by the second processing unit to the image according to the user operation.
光学系をさらに具備し、
前記制御部は、前記光学系を制御することより前記第1効果を前記画像に与える
請求項1記載の画像処理装置。
Further comprising an optical system,
The image processing apparatus according to claim 1, wherein the control unit gives the first effect to the image by controlling the optical system.
前記ユーザ操作により設定された処理が、前記光学系の制御により得られる処理の範囲の中であることを前記所定条件とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the predetermined condition is that the processing set by the user operation is within a processing range obtained by control of the optical system. 前記第1効果は、前記光学系の制御から生じる光学ぼかし効果であり、
前記第2効果は、デジタル画像処理によるデジタルぼかし効果である
請求項2記載の画像処理装置。
The first effect is an optical blur effect resulting from the control of the optical system,
The image processing apparatus according to claim 2, wherein the second effect is a digital blur effect by digital image processing.
前記第2処理部は、前記画像にデジタル画像処理を施すことにより前記複数種類の第2効果を与える画像処理部である請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second processing unit is an image processing unit that applies the plurality of types of second effects by performing digital image processing on the image. 前記第2効果は、ぼかし効果であり、
前記制御部は、前記ユーザ操作が前記所定条件を満たさない場合には、当該ユーザ操作に応じて前記画像処理部を制御することにより複数種類の前記ぼかし効果のうちの何れかのぼかし効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う
請求項5記載の画像処理装置。
The second effect is a blur effect,
When the user operation does not satisfy the predetermined condition, the control unit controls the image processing unit in accordance with the user operation to obtain one of the plurality of types of blur effects. The image processing apparatus according to claim 5, wherein control for giving to the image is performed according to a user operation.
前記制御部は、前記ユーザ操作を受け付けるための操作領域画像を表示部に表示させるための制御を行う請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit performs control for displaying an operation region image for receiving the user operation on a display unit. 前記制御部は、前記第1処理部による前記第1効果を前記画像に与えるための前記ユーザ操作としてユーザによる接触操作を行うための第1操作範囲と、前記第2処理部による前記第2効果のうちの何れかの効果を前記画像に与えるための前記ユーザ操作としてユーザによる接触操作を行うための第2操作範囲とを含む一連の線状領域を前記操作領域画像として前記表示部に表示させるための制御を行う請求項7記載の画像処理装置。   The control unit includes a first operation range for performing a contact operation by a user as the user operation for giving the first effect to the image by the first processing unit, and the second effect by the second processing unit. A series of linear regions including a second operation range for performing a contact operation by the user as the user operation for giving any one of the effects to the image is displayed on the display unit as the operation region image. The image processing apparatus according to claim 7, which performs control for the purpose. 前記制御部は、前記第1操作範囲における前記接触操作が行われた位置と前記第1操作範囲および前記第2操作範囲の境界との距離に応じて前記第1処理部による前記第1効果の高低を決定し、前記第2操作範囲における前記接触操作が行われた位置と前記境界との距離に応じて前記第2処理部による前記第2効果の高低を決定するように制御を行う請求項8記載の画像処理装置。   The control unit has the first effect of the first processing unit according to a distance between a position where the contact operation is performed in the first operation range and a boundary between the first operation range and the second operation range. The height is determined, and control is performed so as to determine the height of the second effect by the second processing unit according to the distance between the position where the contact operation is performed in the second operation range and the boundary. 8. The image processing apparatus according to 8. 前記制御部は、前記第1操作範囲および前記第2操作範囲の境界から分岐する複数の線状領域を前記第2操作範囲における前記複数種類の第2効果に対応する画像として前記表示部に表示させるための制御を行う請求項8記載の画像処理装置。   The control unit displays, on the display unit, a plurality of linear regions branching from a boundary between the first operation range and the second operation range as images corresponding to the plurality of types of second effects in the second operation range. The image processing apparatus according to claim 8, wherein control for controlling the image processing is performed. 前記制御部は、前記第2効果を表す画像を当該第2効果に係る線状領域に関連付けて前記複数種類の第2効果毎に前記表示部に表示させるための制御を行う請求項10記載の画像処理装置。   11. The control unit according to claim 10, wherein the control unit performs control for displaying an image representing the second effect on the display unit for each of the plurality of types of second effects in association with a linear region related to the second effect. Image processing device. 前記制御部は、前記ユーザ操作に応じた効果が与えられた前記画像を表示部に表示させる制御を行う請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit performs control to display the image to which an effect according to the user operation is given on a display unit. 前記制御部は、前記画像を記録するための記録指示操作が受け付けられた場合には当該記録指示操作に応じて記録される画像であって前記ユーザ操作に応じた効果が与えられた画像を表示部に表示させる制御を行う請求項1記載の画像処理装置。   When a recording instruction operation for recording the image is received, the control unit displays an image that is recorded according to the recording instruction operation and that has an effect according to the user operation. The image processing apparatus according to claim 1, wherein the image processing apparatus performs control to be displayed on the unit. 撮像部をさらに具備する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an imaging unit. 操作受付部により受け付けられたユーザ操作が所定条件を満たすか否かを判定する判定手順と、
前記ユーザ操作が所定条件を満たす場合には、画像に第1効果を与える第1処理部による前記第1効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第1制御手順と、
前記ユーザ操作が所定条件を満たさない場合には、前記第1効果とは異なる効果であって複数種類の第2効果を前記画像に与える第2処理部による前記第2効果のうちの何れかの効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第2制御手順と
を具備する画像処理装置の制御方法。
A determination procedure for determining whether the user operation received by the operation receiving unit satisfies a predetermined condition;
When the user operation satisfies a predetermined condition, a first control procedure for performing control for giving the first effect to the image according to the user operation by the first processing unit that gives the first effect to the image;
If the user operation does not satisfy a predetermined condition, any one of the second effects by the second processing unit that is different from the first effect and gives a plurality of types of second effects to the image A control method for an image processing apparatus, comprising: a second control procedure for performing control for giving an effect to the image according to the user operation.
操作受付部により受け付けられたユーザ操作が所定条件を満たすか否かを判定する判定手順と、
前記ユーザ操作が所定条件を満たす場合には、画像に第1効果を与える第1処理部による前記第1効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第1制御手順と、
前記ユーザ操作が所定条件を満たさない場合には、前記第1効果とは異なる効果であって複数種類の第2効果を前記画像に与える第2処理部による前記第2効果のうちの何れかの効果を当該ユーザ操作に応じて前記画像に与えるための制御を行う第2制御手順と
をコンピュータに実行させるプログラム。
A determination procedure for determining whether the user operation received by the operation receiving unit satisfies a predetermined condition;
When the user operation satisfies a predetermined condition, a first control procedure for performing control for giving the first effect to the image according to the user operation by the first processing unit that gives the first effect to the image;
If the user operation does not satisfy a predetermined condition, any one of the second effects by the second processing unit that is different from the first effect and gives a plurality of types of second effects to the image The program which makes a computer perform the 2nd control procedure which performs control for giving an effect to the said image according to the said user operation.
JP2011195294A 2011-09-07 2011-09-07 Image processor, and method and program for controlling image processor Abandoned JP2013058861A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011195294A JP2013058861A (en) 2011-09-07 2011-09-07 Image processor, and method and program for controlling image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011195294A JP2013058861A (en) 2011-09-07 2011-09-07 Image processor, and method and program for controlling image processor

Publications (1)

Publication Number Publication Date
JP2013058861A true JP2013058861A (en) 2013-03-28

Family

ID=48134363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011195294A Abandoned JP2013058861A (en) 2011-09-07 2011-09-07 Image processor, and method and program for controlling image processor

Country Status (1)

Country Link
JP (1) JP2013058861A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122663A (en) * 2013-12-24 2015-07-02 パイオニア株式会社 Operation device, control method of the same, and program
JP2016024234A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Imaging apparatus
JP2016100786A (en) * 2014-11-21 2016-05-30 キヤノン株式会社 Color processing apparatus and method
WO2017056314A1 (en) * 2015-10-02 2017-04-06 オリンパス株式会社 Image pickup apparatus, proposal image generation apparatus, proposal image generation method, proposal image generation program, and storage medium
JP2017511535A (en) * 2014-03-26 2017-04-20 インテル コーポレイション System and method for controlling screen capture
JP2018207531A (en) * 2018-09-05 2018-12-27 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2023065665A (en) * 2021-12-14 2023-05-12 パイオニア株式会社 Operation device
JP2024084751A (en) * 2018-09-11 2024-06-25 アップル インコーポレイテッド User Interface for Simulated Depth Effects
US12314553B2 (en) 2017-06-04 2025-05-27 Apple Inc. User interface camera effects
US12394077B2 (en) 2018-09-28 2025-08-19 Apple Inc. Displaying and editing images with depth information
US12530116B2 (en) 2018-02-09 2026-01-20 Apple Inc. Media capture lock affordance for graphical user interface

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122663A (en) * 2013-12-24 2015-07-02 パイオニア株式会社 Operation device, control method of the same, and program
JP2017511535A (en) * 2014-03-26 2017-04-20 インテル コーポレイション System and method for controlling screen capture
JP2016024234A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Imaging apparatus
JP2016100786A (en) * 2014-11-21 2016-05-30 キヤノン株式会社 Color processing apparatus and method
US10379318B2 (en) 2015-10-02 2019-08-13 Olympus Corporation Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium
CN108141521A (en) * 2015-10-02 2018-06-08 奥林巴斯株式会社 Photographic device, motion video generation device, motion image generating method, motion image generating program and storage medium
JPWO2017056314A1 (en) * 2015-10-02 2018-07-19 オリンパス株式会社 Imaging apparatus, proposed image generation apparatus, proposed image generation method, proposed image generation program, and storage medium
WO2017056314A1 (en) * 2015-10-02 2017-04-06 オリンパス株式会社 Image pickup apparatus, proposal image generation apparatus, proposal image generation method, proposal image generation program, and storage medium
US12314553B2 (en) 2017-06-04 2025-05-27 Apple Inc. User interface camera effects
US12530116B2 (en) 2018-02-09 2026-01-20 Apple Inc. Media capture lock affordance for graphical user interface
JP2018207531A (en) * 2018-09-05 2018-12-27 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2024084751A (en) * 2018-09-11 2024-06-25 アップル インコーポレイテッド User Interface for Simulated Depth Effects
JP7729939B2 (en) 2018-09-11 2025-08-26 アップル インコーポレイテッド User Interface for Simulated Depth Effects
US12394077B2 (en) 2018-09-28 2025-08-19 Apple Inc. Displaying and editing images with depth information
JP2023065665A (en) * 2021-12-14 2023-05-12 パイオニア株式会社 Operation device
JP2025016741A (en) * 2021-12-14 2025-02-04 パイオニア株式会社 Operating device

Similar Documents

Publication Publication Date Title
JP2013058861A (en) Image processor, and method and program for controlling image processor
US8995785B2 (en) Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
JP6102602B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
CN103858043B (en) Picture pick-up device and its control method
JP5760324B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded
JP5662511B2 (en) Imaging device
US20120105590A1 (en) Electronic equipment
CN102265597B (en) camera device
US8654203B2 (en) Imaging device controlling operation of a zoom lens and a focus lens to create movie image data
US20140240578A1 (en) Light-field based autofocus
CN105052124A (en) Image processing device, image processing method and permanent computer-readable medium
CN105141840B (en) Information processing method and electronic equipment
JP2014168227A (en) Image processing apparatus, imaging apparatus, and image processing method
CN106134176A (en) Systems and methods for multifocal imaging
JP6307626B2 (en) Operation device, information processing device including operation device, and operation reception method for information processing device
JP2012160863A (en) Imaging apparatus, image reproducing apparatus, and image processing apparatus
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
JP2012160864A (en) Imaging apparatus
US11513315B2 (en) Focus control device, focus control method, program, and imaging device
JP2012190184A (en) Image processing device, method, and program
JP6700813B2 (en) Image processing device, imaging device, image processing method, and program
KR20100085723A (en) A method, a device and a computer-readable storage medium of providing slide show
JP5733956B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, MOVIE RECORDING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5967172B2 (en) Image processing apparatus, image processing method, and image processing program
JP6504693B2 (en) Image pickup apparatus, operation support method, and operation support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140724

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20150401