[go: up one dir, main page]

JP2018093390A - Imaging apparatus, character recognition unit and image information creation program - Google Patents

Imaging apparatus, character recognition unit and image information creation program Download PDF

Info

Publication number
JP2018093390A
JP2018093390A JP2016236003A JP2016236003A JP2018093390A JP 2018093390 A JP2018093390 A JP 2018093390A JP 2016236003 A JP2016236003 A JP 2016236003A JP 2016236003 A JP2016236003 A JP 2016236003A JP 2018093390 A JP2018093390 A JP 2018093390A
Authority
JP
Japan
Prior art keywords
imaging
information
focus
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016236003A
Other languages
Japanese (ja)
Inventor
優弘 斉藤
Masahiro Saito
優弘 斉藤
玲二 岡田
Reiji Okada
玲二 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016236003A priority Critical patent/JP2018093390A/en
Publication of JP2018093390A publication Critical patent/JP2018093390A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】レンズ直下の位置からレンズ直下から外れた端部まで、異なる合焦位置を有する被写体の、一様にピントが合った画像を得ることを目的とする。【解決手段】異なる合焦位置にて被写体に対して複数回の撮像を行う撮像部と、各合焦位置に対して複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する作成部と、を有する撮像装置が提供される。【選択図】図7An object of the present invention is to obtain a uniformly focused image of a subject having different in-focus positions from a position immediately below the lens to an end deviated from the position immediately below the lens. An image pickup unit that picks up a subject a plurality of times at different in-focus positions and image information that is in focus among image information picked up by a plurality of image sensors at each in-focus position is obtained. An imaging apparatus is provided that includes a creation unit that creates imaging information from information on a region specified for each of the plurality of times of imaging with reference to a storage unit that stores the regions in association with each other. [Selection] Figure 7

Description

本発明は、撮像装置、文字認識装置及び撮像情報作成プログラムに関する。   The present invention relates to an imaging device, a character recognition device, and an imaging information creation program.

画像を取得し、取得した画像を文字認識する機器がある。例えば、フラットヘッドスキャナのように、平らな台に原稿を設置し、ヘッドを移動させながら画像を読み取る場合、被写体の各位置と読み取りレンズとは、同じ距離となる。   There are devices that acquire images and recognize characters in the acquired images. For example, when an original is placed on a flat table and an image is read while moving the head like a flat head scanner, each position of the subject and the reading lens are the same distance.

一方、オーバヘッドスキャナや書画カメラ等では、図1に示すように、書画カメラ等に内蔵された撮像素子13により被写体100の全面の画像を一度に読み取る。この場合、レンズ11の像面湾曲のために中央部と周辺部とでフォーカスのあう距離が異なっており、レンズ11から被写体100のレンズ直下までの距離と、被写体100の端部までの距離とには差が生じる。例えば、中央部にフォーカスを合わせると、原稿の周辺の方がぼやけてしまう。そのため、被写界深度(以下、「合焦距離」という。)が浅いと、図1に示すように、被写体100のレンズの正面位置aにピントがあっている状態でも、被写体100の端部bではピントがずれることになる。   On the other hand, in an overhead scanner, a document camera, or the like, as shown in FIG. 1, an image of the entire surface of the subject 100 is read at a time by an image pickup device 13 built in the document camera or the like. In this case, because of the curvature of field of the lens 11, the focus distance differs between the central portion and the peripheral portion, and the distance from the lens 11 to the position immediately below the lens of the subject 100 and the distance to the end of the subject 100 There will be a difference. For example, when the focus is on the center, the periphery of the document becomes blurred. Therefore, if the depth of field (hereinafter referred to as “focus distance”) is shallow, the end portion of the subject 100 even when the front position a of the lens of the subject 100 is in focus as shown in FIG. In b, the focus is shifted.

そこで、フォーカスブラケット撮影で焦点位置を移動させて複数の撮影を行い、その撮影により得た複数の画像の中から、主要被写体に合焦した画像を取り出す技術が知られている(例えば、特許文献1参照)。   Therefore, a technique is known in which a focus position is moved by focus bracket shooting to perform a plurality of shootings, and an image focused on the main subject is extracted from the plurality of images obtained by the shooting (for example, Patent Documents). 1).

特開2010−114577号公報JP 2010-114577 A

しかしながら、上記の方法では、ピントを合わせる位置をユーザが任意に設定する必要がある。また、上記の方法では、画像の合成を行う際の処理の負荷が高く、また、必要なメモリ容量が増大する。   However, in the above method, the user needs to arbitrarily set a focus position. In the above method, the processing load when synthesizing images is high, and the required memory capacity increases.

そこで、一側面では、本発明は、レンズ直下の位置からレンズ直下から外れた端部まで、異なる合焦位置を有する被写体の、一様にピントが合った画像を得ることを目的とする。   Therefore, in one aspect, an object of the present invention is to obtain a uniformly focused image of a subject having different in-focus positions from a position immediately below the lens to an end portion that is off from the lens.

一つの案では、異なる合焦位置にて被写体に対して複数回の撮像を行う撮像部と、各合焦位置に対して複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する作成部と、を有する撮像装置が提供される。   In one proposal, an imaging unit that captures a subject multiple times at different in-focus positions and image information that is in focus among image information captured by a plurality of image sensors at each in-focus position are obtained. An imaging apparatus is provided that includes a creation unit that creates imaging information from information on a region specified for each of the plurality of times of imaging with reference to a storage unit that stores the associated regions in association with each other. .

一側面によれば、レンズ直下の位置からレンズ直下から外れた端部まで、異なる合焦位置を有する被写体の、一様にピントが合った画像を得ることができる。   According to one aspect, it is possible to obtain a uniformly focused image of a subject having different in-focus positions from a position immediately below the lens to an end portion that is off from the lens.

カメラによる撮影の一例を示す図。The figure which shows an example of imaging | photography with a camera. 一実施形態に係るカメラのハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the camera which concerns on one Embodiment. 一実施形態に係るタブレット端末のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the tablet terminal which concerns on one Embodiment. 一実施形態に係るカメラの機能構成の一例を示す図。The figure which shows an example of the function structure of the camera which concerns on one Embodiment. 一実施形態に係る読取データテーブルの一例を示す図。The figure which shows an example of the reading data table which concerns on one Embodiment. 一実施形態に係るタブレット端末の機能構成の一例を示す図。The figure which shows an example of a function structure of the tablet terminal which concerns on one Embodiment. 一実施形態に係る撮像情報作成処理の一例を示すフローチャート。6 is a flowchart illustrating an example of imaging information creation processing according to an embodiment. 一実施形態に係る撮影時の部分画像情報読取の一例を示す図。The figure which shows an example of the partial image information reading at the time of imaging | photography concerning one Embodiment. 一実施形態に係るシステム構成の一例を示す図。The figure which shows an example of the system configuration | structure which concerns on one Embodiment.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
<第1実施形態>
[撮像装置のハードウェア構成の一例]
まず、本発明の一実施形態に係る撮像装置のハードウェア構成の一例について、図2を参照しながら説明する。図2は、本実施形態に係る撮像装置の一例であるデジタルカメラ10のハードウェア構成の一例を示す。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.
<First Embodiment>
[Example of hardware configuration of imaging apparatus]
First, an example of a hardware configuration of an imaging apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 2 shows an example of a hardware configuration of the digital camera 10 which is an example of the imaging apparatus according to the present embodiment.

本実施形態に係るデジタルカメラ10は、レンズ11、レンズ駆動機構12、撮像素子13、MPU(Micro-processing unit)14、ROM(Read Only Memory)15、RAM(Random Access Memory)16及び通信インターフェース17を有する。   A digital camera 10 according to the present embodiment includes a lens 11, a lens driving mechanism 12, an image sensor 13, an MPU (Micro-processing unit) 14, a ROM (Read Only Memory) 15, a RAM (Random Access Memory) 16, and a communication interface 17. Have

レンズ11は、ズームレンズ、フォーカスレンズ、絞り及びメカシャッタを含む。レンズ11は、レンズ駆動機構12により駆動されてズーミング、フォーカシング、絞りの開口量(F値)の変更及びメカシャッタの開閉を行う。レンズ駆動機構12は、オートフォーカスの機能を実現する。   The lens 11 includes a zoom lens, a focus lens, a diaphragm, and a mechanical shutter. The lens 11 is driven by the lens driving mechanism 12 to perform zooming, focusing, changing the aperture amount (F value) of the diaphragm, and opening / closing the mechanical shutter. The lens driving mechanism 12 realizes an autofocus function.

撮像素子13は、レンズ11の後段に配置され、レンズ11を透過した被写体光を受光する。ROM15は、各種の基本プログラム及びデータを格納する不揮発性のメモリである。RAM16は、撮像情報の作成を実行するための撮像情報作成プログラムや各種のテーブルを一時保持する揮発性のメモリである。   The image sensor 13 is arranged at the rear stage of the lens 11 and receives subject light transmitted through the lens 11. The ROM 15 is a non-volatile memory that stores various basic programs and data. The RAM 16 is a volatile memory that temporarily stores an imaging information creation program for creating imaging information and various tables.

MPU14は、ROM15やRAM16等の記憶装置から、基本プログラム、撮像情報作成プログラム及び各種のデータを読み出し、装置の基本処理、撮像情報作成処理等の処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The MPU 14 reads out a basic program, an imaging information creation program and various data from a storage device such as the ROM 15 and the RAM 16, and executes processing such as basic processing of the device and imaging information creation processing, thereby controlling and mounting the entire device. It is an arithmetic unit that realizes the function.

通信インターフェース17は、デジタルカメラ10をネットワークに接続するためのインターフェースである。これにより、デジタルカメラ10は、通信インターフェース17を介して、他の機器(例えば、OCR(Optical character recognition)装置等)とデータ通信を行うことができる。   The communication interface 17 is an interface for connecting the digital camera 10 to a network. Accordingly, the digital camera 10 can perform data communication with other devices (for example, an OCR (Optical character recognition) device or the like) via the communication interface 17.

[撮像装置のハードウェア構成の他例]
次に、、本実施形態に係る撮像装置のハードウェア構成の他の例について、図3を参照しながら説明する。図3は、本実施形態に係る撮像装置の他の例であるタブレット端末20のハードウェア構成の一例を示す。
[Other examples of hardware configuration of imaging apparatus]
Next, another example of the hardware configuration of the imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 3 shows an example of a hardware configuration of the tablet terminal 20 which is another example of the imaging apparatus according to the present embodiment.

本実施形態に係るタブレット端末20は、カメラ機構10'、タッチパネル21、USB(Universal Serial Bus)コントローラ22、CPU(Central Processing Unit)23、ROM24、RAM25、LCD(liquid crystal display)26、通信インターフェース27及び電源28を有する。   The tablet terminal 20 according to the present embodiment includes a camera mechanism 10 ′, a touch panel 21, a USB (Universal Serial Bus) controller 22, a CPU (Central Processing Unit) 23, a ROM 24, a RAM 25, an LCD (liquid crystal display) 26, and a communication interface 27. And a power supply 28.

カメラ機構10'は、レンズ11、レンズ駆動機構12及び撮像素子13を有する。レンズ11、レンズ駆動機構12及び撮像素子13の各機能は、図2に示したデジタルカメラ10の対応する各部の機能と同一であるため、ここでは説明を省略する。   The camera mechanism 10 ′ includes a lens 11, a lens driving mechanism 12, and an image sensor 13. The functions of the lens 11, the lens driving mechanism 12, and the image sensor 13 are the same as the corresponding functions of the digital camera 10 shown in FIG.

タッチパネル21は、たとえばガラスやプラスチック等から形成され、光透過性を有する基盤本体と、基盤本体の上に面状に設けられ、光透過性を有する位置検出用電極と、位置検出用電極上に設けられた絶縁層とを有する静電容量タッチパネルであってもよい。タッチパネル21は、ディスプレイの一例であるLCD26の前面に配置され、LCD26に表示された画像に対応する部分に触れることにより、当該画像に対応する座標データの入力が可能となっている。   The touch panel 21 is formed of, for example, glass, plastic, or the like, and has a light-transmitting base body, a surface-provided position detection electrode provided on the base body, and a light-transmitting position detection electrode. A capacitive touch panel having an insulating layer provided may be used. The touch panel 21 is disposed in front of an LCD 26 which is an example of a display, and by touching a portion corresponding to an image displayed on the LCD 26, coordinate data corresponding to the image can be input.

カメラ機構10'及びタッチパネル21は、USBコントローラ22を介してCPU23に接続されている。ROM24及びRAM25は、図2のROM15及びRAM16と同一であるため、ここでは説明を省略する。   The camera mechanism 10 ′ and the touch panel 21 are connected to the CPU 23 via the USB controller 22. The ROM 24 and RAM 25 are the same as the ROM 15 and RAM 16 in FIG.

CPU23は、ROM24やRAM25等の記憶装置から、基本プログラム、撮像情報作成プログラム及び各種のデータを読み出し、装置の基本処理、撮像情報作成処理等の処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The CPU 23 reads the basic program, the imaging information creation program and various data from a storage device such as the ROM 24 and the RAM 25, and executes basic processing of the device, imaging information creation processing, and the like, thereby controlling and mounting the entire device. It is an arithmetic unit that realizes the function.

通信インターフェース27は、タブレット端末20をネットワークに接続するためのインターフェースである。これにより、タブレット端末20は、通信インターフェース27を介して、他の機器とデータ通信を行うことができる。電源28は、電源ボタンがオンされると、各部に電力を供給する。   The communication interface 27 is an interface for connecting the tablet terminal 20 to a network. Thereby, the tablet terminal 20 can perform data communication with other devices via the communication interface 27. The power supply 28 supplies power to each unit when the power button is turned on.

[撮像装置の機能構成の一例]
次に、本実施形態に係る撮像装置の機能構成の一例について、図4を参照しながら説明する。図4は、本実施形態に係る撮像装置の一例であるデジタルカメラ10の機能構成の一例を示す。
[Example of functional configuration of imaging apparatus]
Next, an example of a functional configuration of the imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 4 illustrates an example of a functional configuration of the digital camera 10 that is an example of the imaging apparatus according to the present embodiment.

本実施形態に係るデジタルカメラ10は、レンズ駆動部31、撮像部32、記憶部33、読取部36及び作成部37を有する。レンズ駆動部31は、レンズ11の位置を移動させ、被写体100のフォーカスを合わせる位置を変更する。レンズ駆動部31は、被写体100の読み取り時に、フォーカスを合わせる位置を被写体100の中央部から周辺部に向かって合うようにレンズ11の位置を移動させる。レンズ駆動部31は、被写体100の読み取り時に、フォーカスを合わせる位置を被写体100の周辺部から中央部に向かって合うようにレンズ11の位置を移動させてもよい。   The digital camera 10 according to the present embodiment includes a lens driving unit 31, an imaging unit 32, a storage unit 33, a reading unit 36, and a creation unit 37. The lens driving unit 31 moves the position of the lens 11 and changes the position where the subject 100 is focused. When reading the subject 100, the lens driving unit 31 moves the position of the lens 11 so that the focus is adjusted from the center to the periphery of the subject 100. When reading the subject 100, the lens driving unit 31 may move the position of the lens 11 so that the focus is adjusted from the periphery of the subject 100 toward the center.

撮像部32は、撮像素子13を用いて被写体100を撮影する。撮像部32は、異なる合焦位置で被写体100に対して複数回の撮像を行う。   The imaging unit 32 images the subject 100 using the imaging element 13. The imaging unit 32 captures the subject 100 a plurality of times at different in-focus positions.

記憶部33は、読取データテーブル34、撮像情報作成プログラム35及び各種データを記憶する。読取データテーブル34の一例を図5に示す。図5(a)に示すように、読取データテーブル34は、レンズ11の移動距離と画像の読取領域とを対応付けて記憶している。具体的には、読取データテーブル34は、各合焦位置に対して複数の撮像素子13が撮像する画像情報のうちピントがあう画像情報が得られる領域を対応付けて記憶する。図5(a)に示した画像の読取領域は、図5(b)に示す複数の撮像素子13上の画像の読み取る箇所を示す。領域A〜領域Gは、異なるレンズ11の移動距離、すなわち異なる合焦位置において、複数の撮像素子13上の画像のうち読み取る箇所の部分画像情報である。読み取る箇所撮像範囲の周辺部の領域から中央部の領域まで順に得られる領域
図4の読取部36は、複数の撮像素子13上の画像の読み取る箇所の部分画像情報の読み取りを行う。これにより、複数回の撮像のそれぞれにおいて、複数の撮像素子13が撮像する画像情報のうちピントがあう画像情報が得られる。
The storage unit 33 stores a read data table 34, an imaging information creation program 35, and various data. An example of the read data table 34 is shown in FIG. As shown in FIG. 5A, the read data table 34 stores the movement distance of the lens 11 and the image reading area in association with each other. Specifically, the read data table 34 stores an area where image information that is in focus among image information captured by the plurality of image sensors 13 is obtained in association with each in-focus position. The image reading area shown in FIG. 5A indicates a position where the images on the plurality of image sensors 13 shown in FIG. 5B are read. Regions A to G are partial image information of locations to be read from among the images on the plurality of image pickup devices 13 at different movement distances of the lenses 11, that is, at different in-focus positions. 4 is a region obtained in order from the peripheral region to the central region of the imaging range. The reading unit 36 in FIG. 4 reads partial image information of locations where images on the plurality of image sensors 13 are read. Thereby, in each of a plurality of times of image capturing, image information that is in focus among image information captured by the plurality of image sensors 13 is obtained.

読取部36は、読取データテーブル34を参照して、撮像素子13上の「フォーカスの合っている部分が映し出される」箇所の部分画像情報読み取りを行う。例えば、読取データテーブル34に定義されたレンズ11の移動距離が0mmの場合、フォーカスを合わせる位置は、被写体100の中央部である。この場合、読取部36は、図5(a)に示す読取データテーブル34に定義された読取領域を参照して、図5(b)に示す撮像エリアArのうち、中央部の「A」の領域の部分画像情報を読み取る。   The reading unit 36 refers to the read data table 34 and reads partial image information of a location “a portion in focus is projected” on the image sensor 13. For example, when the movement distance of the lens 11 defined in the read data table 34 is 0 mm, the focus position is the center of the subject 100. In this case, the reading unit 36 refers to the reading area defined in the reading data table 34 shown in FIG. 5A, and in the imaging area Ar shown in FIG. Read partial image information of the area.

レンズ駆動部31は、レンズ11の位置を移動させ、レンズ11の移動距離が0.2mmである場合、読取部36は、図5(a)に示す読取データテーブル34に定義された読取領域を参照して、図5(b)に示す複数の撮像素子13上の画像のうち、「A」領域の外周の「B」の領域の部分画像情報を読み取る。このようにして、読取部36は、読取データテーブル34に基づき、複数の撮像素子13が撮像する画像情報のうちピントがあう画像情報が得られる領域の部分画像情報を読み取る。   When the lens driving unit 31 moves the position of the lens 11 and the moving distance of the lens 11 is 0.2 mm, the reading unit 36 reads the reading area defined in the reading data table 34 shown in FIG. Referring to FIG. 5B, among the images on the plurality of image pickup devices 13, partial image information of the “B” area on the outer periphery of the “A” area is read. In this way, the reading unit 36 reads the partial image information of the region where the focused image information is obtained from the image information captured by the plurality of image sensors 13 based on the read data table 34.

このようにして、例えば、レンズ駆動部31が、フォーカスを合わせる位置が被写体100の中央部から周辺部に向かって動くようにレンズ11の位置を移動させた場合、読取部36は、合焦位置の変化に応じて複数の撮像素子13による撮像範囲の中央部の領域から周辺部の領域まで、順に得られる領域の情報を読み取る。図5の読取データテーブル34を参照した場合、読取部36は、領域Aから領域Gまでの部分画像情報を読み取る。   In this way, for example, when the lens driving unit 31 moves the position of the lens 11 so that the focusing position moves from the central part of the subject 100 toward the peripheral part, the reading unit 36 sets the in-focus position. In accordance with the change of the area, information on the areas obtained in order from the central area to the peripheral area of the imaging range by the plurality of imaging elements 13 is read. When referring to the read data table 34 in FIG. 5, the reading unit 36 reads partial image information from the region A to the region G.

また、例えば、レンズ駆動部31が、フォーカスを合わせる位置を被写体100の周辺部から中央部に向かって合うようにレンズ11の位置を移動させた場合、読取部36は、合焦位置の変化に応じて複数の撮像素子13による撮像範囲の周辺部の領域から中央部の領域まで、順に得られる領域の情報を読み取る。図5の読取データテーブル34を参照した場合、読取部36は、領域Gから領域Aまでの部分画像情報を読み取る。   Further, for example, when the lens driving unit 31 moves the position of the lens 11 so that the focusing position is adjusted from the periphery of the subject 100 toward the center, the reading unit 36 changes the focus position. Accordingly, the information of the areas obtained in order from the peripheral area to the central area of the imaging range by the plurality of imaging elements 13 is read. When referring to the read data table 34 in FIG. 5, the reading unit 36 reads partial image information from the region G to the region A.

撮像時、読取部36は、レンズ11の移動距離が0mmのときには、A領域の撮像素子13上の画像をA領域に対応する記憶部33のアドレスに格納する。次に、読取部36は、レンズ11の移動距離を0.2mmにした状態で、B領域の撮像素子13上の画像をA領域に対応する記憶部33のアドレスに格納する。これを、C領域〜G領域に対応する記憶部33のアドレスに格納する。作成部37は、記憶部33を参照して、複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する。これにより、被写体100の中央部から周辺部まですべてのフォーカスが合った画像を読み取ることができる。   At the time of imaging, when the moving distance of the lens 11 is 0 mm, the reading unit 36 stores the image on the image sensor 13 in the A area at the address of the storage unit 33 corresponding to the A area. Next, the reading unit 36 stores the image on the image pickup device 13 in the B area at the address of the storage unit 33 corresponding to the A area in a state where the moving distance of the lens 11 is 0.2 mm. This is stored in the address of the storage unit 33 corresponding to the C area to the G area. The creation unit 37 refers to the storage unit 33 and creates imaging information from information on areas specified for each of a plurality of times of imaging. As a result, it is possible to read an image in which all the focus from the center to the periphery of the subject 100 is in focus.

図5の読取データテーブル34の場合、撮像部32は、7回の撮像を行い、作成部37は、7回の撮像のそれぞれに特定された領域の部分画像情報を使用して被写体100の画像情報を作成する。   In the case of the read data table 34 of FIG. 5, the imaging unit 32 performs the imaging of seven times, and the creation unit 37 uses the partial image information of the area specified for each of the seven imagings to capture the image of the subject 100. Create information.

以上のように、本実施形態では、フォーカスが中央にある状態からどの程度レンズ11を移動すると周辺部にフォーカスが合うかについてのデータを、図5の読取データテーブル34に予め記憶しておく。そして、レンズ11を移動させて、中央部から周辺部へ又は周辺部から中央部へフォーカス(合焦位置)を移動させたとき、読取データテーブル34に応じてフォーカスされている読み取り位置が特定される。   As described above, in the present embodiment, data on how much the lens 11 is moved from the state where the focus is in the center and the focus on the peripheral portion is stored in advance in the read data table 34 of FIG. Then, when the lens 11 is moved and the focus (focus position) is moved from the central part to the peripheral part or from the peripheral part to the central part, the reading position focused is specified according to the reading data table 34. The

これにより、中央部から周辺部へ又は周辺部から中央部へフォーカスを合わせる処理を省く。これにより、中央部から周辺部又は周辺部から中央部に高速にフォーカスを移動することができ、手ブレによるイメージ読み出しのブレを最小限に抑えることができる。   This eliminates the process of focusing from the central part to the peripheral part or from the peripheral part to the central part. Thereby, the focus can be moved at high speed from the central part to the peripheral part or from the peripheral part to the central part, and blurring of image reading due to camera shake can be minimized.

なお、図5の読取データテーブル34は、7段階の画像の読取領域に分かれているが、これに限らない。読取データテーブル34は、例えば周囲の領域と中央の領域というように2段階に画像の読取領域を分けて記憶してもよいし、3段階以上に画像の読取領域を分けて記憶してもよい。   The read data table 34 in FIG. 5 is divided into seven stages of image read areas, but the present invention is not limited to this. The reading data table 34 may store an image reading area in two stages, for example, a peripheral area and a central area, or may store an image reading area in three or more stages. .

本実施形態に係るデジタルカメラ10では、MPU14が、記憶部33に格納された撮像情報作成プログラム35及び各種データを用いて撮像情報作成処理を実行する。これにより、読取部36及び作成部37の機能が実現される。   In the digital camera 10 according to the present embodiment, the MPU 14 executes imaging information creation processing using the imaging information creation program 35 and various data stored in the storage unit 33. Thereby, the functions of the reading unit 36 and the creating unit 37 are realized.

なお、読取データテーブル34に記憶された情報は、記憶部33又はネットワークを介して接続されるサーバ、その他のクラウド上のサーバ等に格納され得る。   The information stored in the read data table 34 can be stored in the storage unit 33, a server connected via a network, another server on the cloud, or the like.

仮に、読取部36により2段階の画像の読取領域に分けられた読取データテーブル34が選択された場合、撮像部32は、レンズを移動させて2回の撮影を行う。この場合、作成部37は、2箇所の合焦位置のそれぞれに対してピントがあう画像情報が得られる異なる領域を対応付けて記憶した読取データテーブル34を参照して、複数回の撮像から異なる特定の領域の情報を使用して撮像の情報を作成する。   If the reading data table 34 divided into two-stage image reading areas is selected by the reading unit 36, the imaging unit 32 moves the lens and performs two shootings. In this case, the creation unit 37 refers to the read data table 34 in which different areas from which image information that is in focus with respect to each of the two in-focus positions is obtained are stored in association with each other and differ from a plurality of times of imaging. Imaging information is created using information on a specific area.

[撮像装置の機能構成の他例]
次に、本実施形態に係る撮像装置の機能構成の他の例について、図6を参照しながら説明する。図6は、本実施形態に係る撮像装置の他の例であるタブレット端末20の機能構成の一例を示す。
[Other examples of functional configuration of imaging apparatus]
Next, another example of the functional configuration of the imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 6 shows an example of a functional configuration of the tablet terminal 20 which is another example of the imaging apparatus according to the present embodiment.

本実施形態に係るタブレット端末20は、レンズ駆動部31、撮像部32、記憶部33、読取データテーブル34、撮像情報作成プログラム35、読取部36、作成部37、文字認識エンジン38及び文字認識部39を有する。   The tablet terminal 20 according to the present embodiment includes a lens driving unit 31, an imaging unit 32, a storage unit 33, a reading data table 34, an imaging information creation program 35, a reading unit 36, a creation unit 37, a character recognition engine 38, and a character recognition unit. 39.

なお、ここでは、図4に示したデジタルカメラ10と同一機能についての説明を省略し、デジタルカメラ10の機能にない記憶部33に記憶された文字認識エンジン38及び文字認識部39についてのみ説明する。   Here, description of the same functions as those of the digital camera 10 shown in FIG. 4 is omitted, and only the character recognition engine 38 and the character recognition unit 39 stored in the storage unit 33 not having the functions of the digital camera 10 will be described. .

文字認識部39は、文字認識エンジン38を用いて、作成部37が作成した被写体100の画像情報から文字認識を行う。これにより、タブレット端末20は、OCR(Optical character recognition)機能を実現することができる。   The character recognition unit 39 uses the character recognition engine 38 to perform character recognition from the image information of the subject 100 created by the creation unit 37. Thereby, the tablet terminal 20 can implement | achieve an OCR (Optical character recognition) function.

なお、図4に示すデジタルカメラ10及び図6に示すタブレット端末20は、通信部を有してもよい。これにより、デジタルカメラ10及びタブレット端末20は、他の機器に作成した画像情報を通信したり、認識した文字情報を通信したりすることができる。なお、通信部の機能は、例えば通信インターフェース17、27により実現可能である。   Note that the digital camera 10 illustrated in FIG. 4 and the tablet terminal 20 illustrated in FIG. 6 may include a communication unit. As a result, the digital camera 10 and the tablet terminal 20 can communicate image information created in other devices or communicate recognized character information. The function of the communication unit can be realized by the communication interfaces 17 and 27, for example.

また、デジタルカメラ10及びタブレット端末20のレンズ駆動部31の機能は、例えばレンズ駆動機構12により実現可能であり、撮像部32の機能は、例えば撮像素子13により実現可能である。デジタルカメラ10及びタブレット端末20の記憶部33の機能は、例えばROM15、24及びRAM16、25により実現可能である。デジタルカメラ10の読取部36及び作成部37の機能は、例えばMPU14により実現可能である。タブレット端末20の読取部36、作成部37及び文字認識部39の機能は、例えばCPU23により実現可能である。   Moreover, the function of the lens drive part 31 of the digital camera 10 and the tablet terminal 20 is realizable by the lens drive mechanism 12, for example, and the function of the imaging part 32 is realizable by the image sensor 13, for example. The functions of the storage unit 33 of the digital camera 10 and the tablet terminal 20 can be realized by the ROMs 15 and 24 and the RAMs 16 and 25, for example. The functions of the reading unit 36 and the creation unit 37 of the digital camera 10 can be realized by the MPU 14, for example. The functions of the reading unit 36, the creation unit 37, and the character recognition unit 39 of the tablet terminal 20 can be realized by the CPU 23, for example.

[撮像情報作成処理]
次に、本実施形態に係る撮像情報作成処理の一例について、図7を参照して説明する。図7は、本実施形態に係る撮像情報作成処理の一例を示すフローチャートである。図7の処理は、例えば、タブレット端末20により実行される。文字認識機能を有しないデジタルカメラ10では、ステップS20及びステップS22の処理は行わず、ステップS10〜ステップS18の処理が実行される。
[Imaging information creation processing]
Next, an example of imaging information creation processing according to the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of imaging information creation processing according to the present embodiment. The process of FIG. 7 is performed by the tablet terminal 20, for example. In the digital camera 10 that does not have the character recognition function, the processes in steps S10 and S18 are performed without performing the processes in steps S20 and S22.

まず、撮像部32は、オートフォーカスの機能により原稿等の被写体100の中心にフォーカスを合わせ、その状態で撮影を行い、読取部36は、画像の読み取りを開始する(ステップS10)。   First, the imaging unit 32 focuses on the center of the subject 100 such as a document by using the autofocus function, performs shooting in this state, and the reading unit 36 starts reading an image (step S10).

このとき、図8(a)に示すように、レンズ11は移動していないので、レンズ11の移動距離は0mmである。よって、読取部36は、読取データテーブル34を参照して、合焦位置に対応するA領域が部分画像情報の読み取りを行う箇所であると判定し、レンズ11直下の位置であるA領域の撮像素子13上の画像を、A領域に対応する記憶部33のアドレスに格納する。   At this time, as shown in FIG. 8A, since the lens 11 is not moved, the moving distance of the lens 11 is 0 mm. Therefore, the reading unit 36 refers to the reading data table 34 and determines that the A area corresponding to the in-focus position is a position where partial image information is read, and images the A area that is a position directly below the lens 11. The image on the element 13 is stored at the address of the storage unit 33 corresponding to the A area.

次に、レンズ駆動部31がレンズ11の移動を開始すると、レンズ11は、フォーカスが中心部から周辺部へ向かって移動する。これに応じて、読取部36は、読取データテーブル34を参照して、撮像部32による撮像から複数の撮像素子13上の画像のうち、レンズ11の移動距離に対応する領域の部分画像情報を読み取る(ステップS12)。   Next, when the lens driving unit 31 starts moving the lens 11, the focus of the lens 11 moves from the central part toward the peripheral part. In response to this, the reading unit 36 refers to the read data table 34 and extracts partial image information of an area corresponding to the moving distance of the lens 11 among the images on the plurality of image pickup devices 13 from the image pickup by the image pickup unit 32. Read (step S12).

図8(b)に示すように、レンズ11の移動距離が0.2mmとなったとき、読取データテーブル34に基づいて、合焦位置となるB領域が部分画像情報の読み取りを行う箇所と特定できる。よって、読取部36は、B領域の撮像素子13上の画像を、B領域に対応する記憶部33のアドレスに格納する。   As shown in FIG. 8B, when the moving distance of the lens 11 becomes 0.2 mm, the region B as the focus position is identified as the position where partial image information is read based on the read data table 34. it can. Accordingly, the reading unit 36 stores the image on the image sensor 13 in the B area at the address of the storage unit 33 corresponding to the B area.

次に、読取部36は、撮像素子13の全領域の読み取りが完了したかを判定する(ステップS14)。読取部36は、撮像素子13の全領域の読み取りが完了していない場合、ステップS12に戻り、ステップS12及びS14の処理を繰り返す。   Next, the reading unit 36 determines whether reading of the entire area of the image sensor 13 has been completed (step S14). If the reading of the entire area of the image sensor 13 has not been completed, the reading unit 36 returns to step S12 and repeats the processes of steps S12 and S14.

ここでは、撮像素子13の全領域の読み取りは完了していない。よって、ステップS12に戻り、レンズ駆動部31は、レンズ11を更に移動させ、撮像部32は、撮像を行う(ステップS12)。図8(c)に示すように、レンズ11の移動距離が0.4mmとなったとき、読取部36は、読取データテーブル34を参照して、C領域の撮像素子13上の画像を、C領域に対応する記憶部33のアドレスに格納する(ステップS12)。   Here, reading of the entire area of the image sensor 13 is not completed. Therefore, returning to step S12, the lens driving unit 31 further moves the lens 11, and the imaging unit 32 performs imaging (step S12). As illustrated in FIG. 8C, when the moving distance of the lens 11 becomes 0.4 mm, the reading unit 36 refers to the read data table 34 and displays an image on the image sensor 13 in the C region. The data is stored in the address of the storage unit 33 corresponding to the area (step S12).

このようにして、図5に示す読取データテーブル34に設定したG領域の撮像素子13上の画像を、G領域に対応する記憶部33のアドレスに格納するまで、ステップS12及びS14の処理が繰り返される。この時点でステップS14が実行されると、読取部36は、撮像素子13の全領域の読み取りが完了したと判定し、撮像部32は撮影を終了する(ステップS16)。   In this way, the processes in steps S12 and S14 are repeated until the image on the image sensor 13 in the G area set in the read data table 34 shown in FIG. 5 is stored at the address of the storage unit 33 corresponding to the G area. It is. When step S14 is executed at this point, the reading unit 36 determines that reading of the entire area of the image sensor 13 has been completed, and the imaging unit 32 finishes shooting (step S16).

次に、作成部37は、記憶部33を参照して、複数回の撮像のそれぞれに対して特定のアドレスに格納された各部分画像情報から撮像画像情報を作成する(ステップS18)。次に、文字認識部39は、作成した撮像画像情報の文字認識を行うか否かを判定する(ステップS20)。文字認識部39は、文字認識すると判定した場合、文字認識エンジン38を用いて作成部37が作成した撮像画像情報を出力して、文字認識を行い(ステップS22)、本処理を終了する。一方、字認識部39は、文字認識しないと判定した場合、そのまま本処理を終了する。   Next, the creation unit 37 creates captured image information from each partial image information stored at a specific address for each of a plurality of times of imaging with reference to the storage unit 33 (step S18). Next, the character recognition unit 39 determines whether or not to perform character recognition of the created captured image information (step S20). If it is determined that the character recognition unit 39 recognizes the character, the character recognition engine 38 outputs the captured image information created by the creation unit 37, performs character recognition (step S22), and ends this process. On the other hand, if the character recognizing unit 39 determines not to recognize the character, the present process is terminated.

以上に説明したように、本実施形態に係る撮像装置を用いた撮像情報作成処理によれば、レンズ直下の位置からレンズ直下から外れた端部まで、異なる合焦位置を有する被写体100の、一様にピントが合った画像を得ることができる。   As described above, according to the imaging information creation processing using the imaging apparatus according to the present embodiment, one object 100 having different in-focus positions from a position immediately below the lens to an end portion that is off from the lens is one. In this way, an in-focus image can be obtained.

例えば、フォーカスブラケット撮影等の従来技術では、シャッターが5回押され、5回の撮影が行われた場合、撮影された被写体全体の5回分の画像情報のすべてがメモリに転送される。このとき、前の画像情報のメモリ転送が終わらないと、次の画像情報のメモリ転送が行えない。このため、ピントを合わせて5つの領域を撮影し、撮影したそれぞれの画像情報をメモリに転送する際に転送時間がかかる。また、メモリ内に保存された5回分の画像情報からピントがあった領域を抽出し画像を合成する工程に時間がかかる。   For example, in a conventional technique such as focus bracket shooting, when the shutter is pressed five times and five shots are taken, all the image information for the five shots of the entire shot subject is transferred to the memory. At this time, if the memory transfer of the previous image information is not completed, the memory transfer of the next image information cannot be performed. For this reason, it takes a long time to shoot five areas in focus and transfer the captured image information to the memory. In addition, it takes time to extract the focused area from the image information for five times stored in the memory and synthesize the image.

これに対して、本実施形態に係る撮像装置を用いた撮像情報作成処理によれば、レンズ11の移動距離と、合焦位置となる領域(つまり、部分画像情報の読み取り箇所)とを予め記憶した読取データテーブル34に基づいて、原稿の中央部から周辺部まですべての領域でフォーカスが合った画像を読み取ることができる。上記実施形態の例では、撮像装置は、被写体100のA〜Gの領域に対応する撮像素子13上の画像情報を、A〜Gの領域のそれぞれに対応する記憶部33のアドレスに格納しておく。つまり、撮影された被写体の部分画像情報がメモリに転送されるため、情報量が少ない。よって、転送時間を減らすことができる。また、転送された各領域の部分画像情報から被写体の画像情報を作成することができる。このため、本実施形態では、画像の合成を行う必要がない。これによっても、処理の負荷を低減し、処理の高速化を図ることができる。   On the other hand, according to the imaging information creation process using the imaging apparatus according to the present embodiment, the movement distance of the lens 11 and the region to be the focus position (that is, the reading position of the partial image information) are stored in advance. Based on the read data table 34, it is possible to read an image that is in focus in all areas from the center to the periphery of the document. In the example of the above embodiment, the imaging apparatus stores the image information on the imaging element 13 corresponding to the areas A to G of the subject 100 at the addresses of the storage unit 33 corresponding to the areas A to G, respectively. deep. That is, since the partial image information of the photographed subject is transferred to the memory, the amount of information is small. Therefore, the transfer time can be reduced. Also, image information of the subject can be created from the transferred partial image information of each area. For this reason, in this embodiment, it is not necessary to synthesize images. This can also reduce the processing load and increase the processing speed.

以上から、本実施形態に係る撮像装置を用いた撮像情報作成処理によれば、レンズ直下の位置からレンズ直下から外れた端部まで、異なる合焦位置を有する被写体100の、一様にピントが合った画像を得ることができる。その際、被写体100の一様にピントが合った画像を得るまでの処理の負荷を小さくし、短時間で所望の画像を作成できる。この結果、作成された画像情報に基づき文字認識を行うことで、被写体(原稿等)の文字を精度良く認識することができるとともに、被写体100の撮影から文字認識結果の出力までを短時間で行うことができる。   From the above, according to the imaging information creation process using the imaging apparatus according to the present embodiment, the subject 100 having different in-focus positions from the position immediately below the lens to the end portion that is off the lens is uniformly focused. A matched image can be obtained. At this time, it is possible to reduce a processing load until an image with a uniform focus on the subject 100 is obtained, and a desired image can be created in a short time. As a result, by performing character recognition based on the created image information, it is possible to accurately recognize characters on the subject (such as a document) and to perform from the photographing of the subject 100 to the output of the character recognition result in a short time. be able to.

また、中央から周辺への高速なフォーカス移動により、手ブレによるイメージ読み出しのブレも最小限に抑えることができる。   In addition, image reading blur due to camera shake can be minimized by high-speed focus movement from the center to the periphery.

以上、撮像装置、文字認識装置及び撮像情報作成プログラムを上記実施形態により説明したが、本発明に係る撮像装置、文字認識装置及び撮像情報作成プログラムは上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。   As described above, the imaging device, the character recognition device, and the imaging information creation program have been described in the above embodiment. However, the imaging device, the character recognition device, and the imaging information creation program according to the present invention are not limited to the above embodiment. Various modifications and improvements are possible within the scope of the invention. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.

例えば、本発明に係る撮像装置は、デジタルカメラ10やタブレット端末20に限らない。本発明に係る撮像装置は、撮像機能を有するスマートフォン、PDA(Personal Digital Assistants)、携帯電話、携帯用映像処理装置、HMD(Head Mount Display)、FMD(Face Mount Display)等のウェアラブル表示デバイスに適用されてもよい。   For example, the imaging device according to the present invention is not limited to the digital camera 10 or the tablet terminal 20. The imaging apparatus according to the present invention is applied to wearable display devices such as a smartphone having an imaging function, a PDA (Personal Digital Assistants), a mobile phone, a portable video processing apparatus, an HMD (Head Mount Display), and an FMD (Face Mount Display). May be.

また、例えば、本実施形態に係る撮像装置を含むシステムは、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、図9(a)に示すように、デジタルカメラ10、タブレット端末20及びその他の機器(PC50、スマートフォン60等)がネットワーク30を介して互いに接続されているシステム形態は、本実施形態に係るシステムの一態様である。   Further, for example, it goes without saying that the system including the imaging apparatus according to the present embodiment has various system configuration examples depending on the application and purpose. For example, as shown in FIG. 9A, a system configuration in which a digital camera 10, a tablet terminal 20, and other devices (PC 50, smartphone 60, etc.) are connected to each other via a network 30 relates to the present embodiment. 1 is an aspect of a system.

この場合、デジタルカメラ10にて図8の画像作成処理(ステップS10〜ステップS18)を行い、タブレット端末20にて図8の文字認識処理(ステップS20、ステップS22)を行ってもよい。また、タブレット端末20にて図8の全ステップの処理を行ってもよい。また、PC50、スマートフォン60が文字認識機能を有していれば、デジタルカメラ10にて画像作成処理を行い、タブレット端末20、PC50又はスマートフォン60にて文字認識処理を行ってもよい。   In this case, the digital camera 10 may perform the image creation process (steps S10 to S18) in FIG. 8, and the tablet terminal 20 may perform the character recognition process (steps S20 and S22) in FIG. Moreover, you may perform the process of all the steps of FIG. Moreover, if PC50 and the smart phone 60 have a character recognition function, an image creation process may be performed with the digital camera 10, and a character recognition process may be performed with the tablet terminal 20, PC50, or the smart phone 60. FIG.

このようにして、撮像情報作成処理のうち、画像作成処理と文字認識処理とを別の機器で行い、処理を分散させてもよいし、画像作成処理と文字認識処理とを一の機器で行ってもよい。   In this way, among the imaging information creation processing, the image creation processing and the character recognition processing may be performed by different devices, and the processing may be distributed, or the image creation processing and the character recognition processing may be performed by one device. May be.

以上の説明に関し、更に以下の項を開示する。
(付記1)
異なる合焦位置にて被写体に対して複数回の撮像を行う撮像部と、
各合焦位置にて複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を前記各合焦位置に対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する作成部と、
を有する撮像装置。
(付記2)
前記作成部は、前記記憶部を参照して、前記複数回の撮像時における合焦位置の変化に応じて撮像範囲の周辺部の領域から中央部の領域まで順に得られる領域の情報、又は撮像範囲の中央部の領域から周辺部の領域まで順に得られる領域の情報から撮像の情報を作成する、
付記1に記載の撮像装置。
(付記3)
異なる合焦位置にて被写体に対して複数回の撮像を行う撮像部と、
各合焦位置にて複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を前記各合焦位置に対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する作成部と、
前記作成した撮像の情報の文字認識を行う文字認識部と、
を有する文字認識装置。
(付記4)
前記作成部は、前記記憶部を参照して、前記複数回の撮像時における合焦位置の変化に応じて撮像範囲の周辺部の領域から中央部の領域まで順に得られる領域の情報、又は撮像範囲の中央部の領域から周辺部の領域まで順に得られる領域の情報から撮像の情報を作成する、
付記3に記載の文字認識装置。
(付記5)
異なる合焦位置にて被写体に対して複数回の撮像を行う処理と、
各合焦位置にて複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を前記各合焦位置に対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する処理と、
をコンピュータに実行させるための撮像情報作成プログラム。
(付記6)
前記記憶部を参照して、前記複数回の撮像時における合焦位置の変化に応じて撮像範囲の周辺部の領域から中央部の領域まで順に得られる領域の情報、又は撮像範囲の中央部の領域から周辺部の領域まで順に得られる領域の情報から撮像の情報を作成する処理を含む、
付記5に記載の撮像情報作成プログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
An imaging unit for imaging a subject multiple times at different in-focus positions;
With reference to a storage unit that stores a region in which image information that is in focus among image information captured by a plurality of imaging elements at each in-focus position is obtained and associated with each in-focus position, the imaging is performed a plurality of times. A creation unit that creates imaging information from information on areas specified for each of the
An imaging apparatus having
(Appendix 2)
The creation unit refers to the storage unit, information on a region obtained sequentially from a peripheral region to a central region of the imaging range in accordance with a change in focus position at the time of the multiple imaging, or imaging Create imaging information from area information obtained sequentially from the central area to the peripheral area,
The imaging apparatus according to appendix 1.
(Appendix 3)
An imaging unit for imaging a subject multiple times at different in-focus positions;
With reference to a storage unit that stores a region in which image information that is in focus among image information captured by a plurality of imaging elements at each in-focus position is obtained and associated with each in-focus position, the imaging is performed a plurality of times. A creation unit that creates imaging information from information on areas specified for each of the
A character recognition unit that performs character recognition of the created imaging information;
A character recognition device.
(Appendix 4)
The creation unit refers to the storage unit, information on a region obtained sequentially from a peripheral region to a central region of the imaging range in accordance with a change in focus position at the time of the multiple imaging, or imaging Create imaging information from area information obtained sequentially from the central area to the peripheral area,
The character recognition device according to attachment 3.
(Appendix 5)
A process of performing multiple imaging on a subject at different in-focus positions;
With reference to a storage unit that stores a region in which image information that is in focus among image information captured by a plurality of imaging elements at each in-focus position is obtained and associated with each in-focus position, the imaging is performed a plurality of times. A process of creating imaging information from information on areas specified for each of the
Imaging information creation program for causing a computer to execute the process.
(Appendix 6)
Referring to the storage unit, information on a region obtained in order from a peripheral region to a central region of the imaging range according to a change in focus position at the time of the plurality of times of imaging, or a central portion of the imaging range Including the process of creating imaging information from the information of the area obtained sequentially from the area to the peripheral area,
The imaging information creation program according to attachment 5.

10 デジタルカメラ
11 レンズ
12 レンズ駆動機構
13 撮像素子
14 MPU
15 ROM
16 RAM
17 通信インターフェース
20 タブレット端末
21 タッチパネル
22 USBコントローラ
23 CPU
24 ROM
25 RAM
26 LCD
27 通信インターフェース
31 レンズ駆動部
32 撮像部
33 記憶部
34 読取データテーブル
35 撮像情報作成プログラム
36 読取部
37 作成部
38 文字認識エンジン
39 文字認識部
100 被写体
DESCRIPTION OF SYMBOLS 10 Digital camera 11 Lens 12 Lens drive mechanism 13 Image sensor 14 MPU
15 ROM
16 RAM
17 Communication Interface 20 Tablet Terminal 21 Touch Panel 22 USB Controller 23 CPU
24 ROM
25 RAM
26 LCD
27 Communication Interface 31 Lens Drive Unit 32 Imaging Unit 33 Storage Unit 34 Reading Data Table 35 Imaging Information Creation Program 36 Reading Unit 37 Creation Unit 38 Character Recognition Engine 39 Character Recognition Unit 100 Subject

Claims (4)

異なる合焦位置にて被写体に対して複数回の撮像を行う撮像部と、
各合焦位置にて複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を前記各合焦位置に対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する作成部と、
を有する撮像装置。
An imaging unit for imaging a subject multiple times at different in-focus positions;
With reference to a storage unit that stores a region in which image information that is in focus among image information captured by a plurality of imaging elements at each in-focus position is obtained and associated with each in-focus position, the imaging is performed a plurality of times. A creation unit that creates imaging information from information on areas specified for each of the
An imaging apparatus having
前記作成部は、前記記憶部を参照して、前記複数回の撮像時における合焦位置の変化に応じて撮像範囲の周辺部の領域から中央部の領域まで順に得られる領域の情報、又は撮像範囲の中央部の領域から周辺部の領域まで順に得られる領域の情報から撮像の情報を作成する、
請求項1に記載の撮像装置。
The creation unit refers to the storage unit, information on a region obtained sequentially from a peripheral region to a central region of the imaging range in accordance with a change in focus position at the time of the multiple imaging, or imaging Create imaging information from area information obtained sequentially from the central area to the peripheral area,
The imaging device according to claim 1.
異なる合焦位置にて被写体に対して複数回の撮像を行う撮像部と、
各合焦位置にて複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を前記各合焦位置に対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する作成部と、
前記作成した撮像の情報の文字認識を行う文字認識部と、
を有する文字認識装置。
An imaging unit for imaging a subject multiple times at different in-focus positions;
With reference to a storage unit that stores a region in which image information that is in focus among image information captured by a plurality of imaging elements at each in-focus position is obtained and associated with each in-focus position, the imaging is performed a plurality of times. A creation unit that creates imaging information from information on areas specified for each of the
A character recognition unit that performs character recognition of the created imaging information;
A character recognition device.
異なる合焦位置にて被写体に対して複数回の撮像を行う処理と、
各合焦位置にて複数の撮像素子が撮像する画像情報のうちピントがあう画像情報が得られる領域を前記各合焦位置に対応付けて記憶した記憶部を参照して、前記複数回の撮像のそれぞれに対して特定される領域の情報から撮像の情報を作成する処理と、
をコンピュータに実行させるための撮像情報作成プログラム。
A process of performing multiple imaging on a subject at different in-focus positions;
With reference to a storage unit that stores a region in which image information that is in focus among image information captured by a plurality of imaging elements at each in-focus position is obtained and associated with each in-focus position, the imaging is performed a plurality of times. A process of creating imaging information from information on areas specified for each of the
Imaging information creation program for causing a computer to execute the process.
JP2016236003A 2016-12-05 2016-12-05 Imaging apparatus, character recognition unit and image information creation program Pending JP2018093390A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016236003A JP2018093390A (en) 2016-12-05 2016-12-05 Imaging apparatus, character recognition unit and image information creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016236003A JP2018093390A (en) 2016-12-05 2016-12-05 Imaging apparatus, character recognition unit and image information creation program

Publications (1)

Publication Number Publication Date
JP2018093390A true JP2018093390A (en) 2018-06-14

Family

ID=62564737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016236003A Pending JP2018093390A (en) 2016-12-05 2016-12-05 Imaging apparatus, character recognition unit and image information creation program

Country Status (1)

Country Link
JP (1) JP2018093390A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319239A (en) * 2002-04-24 2003-11-07 Minolta Co Ltd Image pickup device
JP2005236432A (en) * 2004-02-17 2005-09-02 Ricoh Co Ltd Image input device and image data management device
JP2006004010A (en) * 2004-06-15 2006-01-05 Brother Ind Ltd Image input / output device
JP2008236547A (en) * 2007-03-22 2008-10-02 Nikon Corp Imaging device
JP2011109442A (en) * 2009-11-18 2011-06-02 Panasonic Corp High resolution imaging apparatus
JP2014039150A (en) * 2012-08-16 2014-02-27 Nikon Corp Photographing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319239A (en) * 2002-04-24 2003-11-07 Minolta Co Ltd Image pickup device
JP2005236432A (en) * 2004-02-17 2005-09-02 Ricoh Co Ltd Image input device and image data management device
JP2006004010A (en) * 2004-06-15 2006-01-05 Brother Ind Ltd Image input / output device
JP2008236547A (en) * 2007-03-22 2008-10-02 Nikon Corp Imaging device
JP2011109442A (en) * 2009-11-18 2011-06-02 Panasonic Corp High resolution imaging apparatus
JP2014039150A (en) * 2012-08-16 2014-02-27 Nikon Corp Photographing device

Similar Documents

Publication Publication Date Title
EP3435655B1 (en) Electronic device for acquiring image using plurality of cameras and method for processing image using the same
US9300858B2 (en) Control device and storage medium for controlling capture of images
US9699389B2 (en) Image displaying apparatus and image displaying method
JP5966535B2 (en) Information processing apparatus, program, and information processing method
KR102707773B1 (en) Apparatus and method for displaying graphic elements according to object
CN101771816A (en) Portable electronic device and imaging method
KR20210071253A (en) Camera movement controlling method and apparatus
CN113228616A (en) Camera module having multi-cell structure and portable communication device including the same
US10367989B2 (en) Imaging device and focusing control method
US9678303B2 (en) Imaging device and focusing control method
EP3718296B1 (en) Electronic device and method for controlling autofocus of camera
WO2017057071A1 (en) Focus control device, focus control method, focus control program, lens device, imaging device
KR102878128B1 (en) Electronic device for auto focusing function and operating method thereof
CN115278043A (en) Target tracking method and related device
CN103581538B (en) Digital photographing apparatus and the method for controlling the digital photographing apparatus
CN117714832B (en) Photographing method, electronic device and computer readable storage medium
CN115004685B (en) Electronic device and method for displaying an image at the electronic device
CN214675328U (en) Camera module and electronic equipment
JP6569015B2 (en) Imaging apparatus, imaging method, and imaging program
CN114979462A (en) Image signal processor, image processing method, and image processing system
JP6186498B2 (en) Imaging apparatus and focus control method
CN117278839B (en) Shooting method, electronic equipment and storage medium
CN110419210B (en) Image pickup device, image pickup method, and recording medium
JP6171105B2 (en) Imaging apparatus and focus control method
KR20230033994A (en) Electronic device including a plurality of cameras and operating method thereof

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180717

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190531

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200630