[go: up one dir, main page]

WO2023032484A1 - 撮像システム、撮像端末及びサーバ - Google Patents

撮像システム、撮像端末及びサーバ Download PDF

Info

Publication number
WO2023032484A1
WO2023032484A1 PCT/JP2022/027790 JP2022027790W WO2023032484A1 WO 2023032484 A1 WO2023032484 A1 WO 2023032484A1 JP 2022027790 W JP2022027790 W JP 2022027790W WO 2023032484 A1 WO2023032484 A1 WO 2023032484A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
imaging
image
processing engine
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/027790
Other languages
English (en)
French (fr)
Inventor
充史 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to CN202280057941.1A priority Critical patent/CN117859336A/zh
Priority to JP2023545141A priority patent/JPWO2023032484A1/ja
Publication of WO2023032484A1 publication Critical patent/WO2023032484A1/ja
Priority to US18/583,873 priority patent/US20240195936A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the present invention relates to an imaging system, an imaging terminal, and a server, and more particularly to a technique for image-processing unprocessed data obtained by imaging with an imaging terminal in a server on a network.
  • the digital camera system described in Patent Document 1 is composed of a digital camera (digital camera-integrated mobile phone) and a server center that communicates with the digital camera via the Internet.
  • a digital camera has an imaging section, a temporary storage section for storing RAW data output from the imaging section in response to shutter release means, and communication means for wirelessly transmitting the RAW data in the temporary storage section without compression.
  • the server center has communication means for receiving RAW data, compression means for compressing the received RAW data, and storage means for storing the compressed signal.
  • the server center also has interpolating means for interpolating the received RAW data to create digital image signals for each color, and white balance adjusting means.
  • the server center is responsible for image processing, etc. for RAW data, making it possible to provide high-performance digital cameras at low cost.
  • Patent Document 2 proposes an electronic device that solves the above problems.
  • the electronic device described in Patent Literature 2 includes a processing unit that processes an imaging signal captured by an imaging unit, a communication unit that can transmit an imaging signal (RAW data) captured by the imaging unit to a server, and an imaging unit that can transmit the imaging signal (RAW data) captured by the imaging unit. a determination unit that determines whether to transmit the RAW data to the server according to the setting.
  • a processing unit that processes an imaging signal captured by an imaging unit
  • a communication unit that can transmit an imaging signal (RAW data) captured by the imaging unit to a server
  • an imaging unit that can transmit the imaging signal (RAW data) captured by the imaging unit.
  • a determination unit that determines whether to transmit the RAW data to the server according to the setting.
  • the determination unit When wireless communication with the server is disabled and the temperature of the imaging element is below a specified value, the determination unit does not transmit the RAW data to the server and enables wireless communication with the server.
  • a moving image is to be recorded on a recording medium in the electronic device, or when the temperature of the imaging device exceeds a specified value, a decision is made to transmit the RAW data to the server.
  • the first ASIC application specific integrated circuit
  • the second ASIC of the server performs image processing on the received RAW data to generate a moving image for recording (which also serves as an image for live view).
  • the electronic device described in Patent Document 2 determines whether to transmit RAW data to the server based on the communication status with the server, the heat generation state of the imaging element, etc., and performs image processing on the RAW data according to the determination. It may be done by a first ASIC in the device, or it may be done by a second ASIC in the server.
  • the second ASIC of the server is equivalent to the first ASIC of the electronic device.
  • An embodiment according to the technology of the present disclosure provides an imaging system, an imaging terminal, and a server that enable cost reduction and high functionality of imaging terminals.
  • An invention is an imaging system comprising at least one imaging terminal and a server, wherein the imaging terminal includes an image sensor, an imaging unit that outputs imaging data, and an imaging unit that outputs a first communication unit that transmits captured image data to a server; a first image processing engine that performs image processing on the captured image data output from the image capturing unit; and a memory that stores an image processed by the first image processing engine and a server comprising: a second communication unit for receiving imaging data transmitted from the first communication unit of the imaging terminal; and a second image processing for performing image processing on the received imaging data and generating an image for recording. and a second image processing engine different from the first image processing engine of the imaging terminal.
  • the second image processing engine preferably generates live view images based on the continuously received imaging data.
  • the server preferably records the image for recording generated by the second image processing engine in the image recording unit.
  • the second image processing engine preferably has technical specifications that exceed those of the first image processing engine.
  • the first image processing engine and the second image processing engine have different image processing performances.
  • the amount of information per pixel that can be processed by the first image processing engine for the second image processing engine is small.
  • the number of gradation bits or the number of processing bits of the first image processing engine differs from that of the second image processing engine.
  • the first image processing engine has only part of the functions capable of performing image processing on the second image processing engine.
  • the first image processing engine has a small number of image pixels that can be processed by the second image processing engine.
  • the first image processing engine has an arithmetic element with smaller thermal design power than the second image processing engine.
  • the first image processing engine has an arithmetic element with a smaller number of transistors than the second image processing engine.
  • the first image processing engine preferably has fewer processor cores than the second image processing engine.
  • the first image processing engine has an arithmetic element with a lower operating clock frequency than the second image processing engine.
  • the first image processing engine has an arithmetic element with a lower rated operating current value than the second image processing engine.
  • the first image processing engine has a smaller cache memory capacity than the second image processing engine.
  • the first image processing engine has a configuration in which the number of executable instructions for the second image processing engine is small.
  • the first image processing engine has a configuration with a smaller number of arithmetic units for executing arithmetic instructions than the second image processing engine.
  • the first image processing engine has built-in graphics functions and the second image processing engine has extended graphics functions.
  • the imaging terminal when the imaging terminal receives a still image imaging instruction by a user operation, the imaging terminal transmits imaging instruction information from the first communication unit to the server, and the second image processing engine 2.
  • the imaging instruction information is received via the communication unit, image processing is performed on the imaging data corresponding to the imaging instruction information among the continuous imaging data to generate a still image for recording.
  • the imaging terminal when the imaging terminal receives a moving image recording instruction or a recording end instruction by a user operation, the imaging terminal transmits recording instruction information or recording end instruction information from the first communication unit to the server, When the second image processing engine receives the recording instruction information or the recording end instruction information via the second communication unit, the second image processing engine receives the recording instruction information in the continuous imaging data until the recording end instruction information is received. It is preferable to image-process the imaging data and generate a moving image for recording.
  • the imaging terminal transmits terminal information indicating the imaging terminal to the server at the start of communication with the server, and when the server receives the terminal information, the server responds to the received terminal information. It is preferable that the RAW development information is acquired, and the second image processing engine performs image processing of RAW developing the imaging data based on the acquired RAW development information.
  • the server transmits the live view image generated by the second image processing engine to the imaging terminal via the second communication unit, and the imaging terminal receives the first image from the server. It is preferable to display the live view image on the display of the imaging terminal when the live view image is received via the communication unit.
  • the first image processing engine operates during a period in which communication between the imaging terminal and the server is disabled.
  • the first image processing engine performs a live view based on imaging data continuously output from the image sensor during a period in which communication between the imaging terminal and the server is disabled.
  • An image is generated, and the imaging terminal preferably causes the display to display the live view image generated by the first image processing engine during a period in which communication between the imaging terminal and the server is disabled.
  • the imaging terminal communicates with the server, receives from the server an image designated by a user operation from among the images recorded in the image recording unit, and displays the received image on the display. It is preferably displayed or stored in memory.
  • An invention is an imaging system comprising at least one or more imaging terminals and a server, wherein the imaging terminal includes an image sensor, an imaging unit that outputs imaging data, and an imaging unit that outputs a first communication unit for transmitting captured image data to a server; the server includes a second communication unit for receiving the captured image data transmitted from the first communication unit of the imaging terminal; and an image processing engine that processes and generates an image for recording, and data corresponding to one pixel of the image sensor of the captured data has the maximum number of bits converted by the analog-digital conversion circuit.
  • the image processing engine generates a live view image based on the continuously received imaging data
  • the server transmits the generated live view image to the imaging terminal via the second communication unit
  • the imaging terminal is an imaging system that receives a live view image from a server via a first communication unit and displays the live view image on a display of an imaging terminal.
  • a twenty-seventh aspect of the invention is an imaging terminal that configures the imaging system according to any one of the first to twenty-fifth aspects.
  • a twenty-eighth aspect of the invention is a server that configures the imaging system according to any one of the first to twenty-fifth aspects.
  • FIG. 1 is a diagram showing the system configuration of an imaging system according to the present invention.
  • FIG. 2 is a block diagram showing an embodiment of an imaging terminal that configures the imaging system.
  • FIG. 3 is a block diagram showing an embodiment of a server that configures the imaging system.
  • FIG. 4 is a block diagram showing an embodiment of the primary image processing circuit of the front-end LSI.
  • FIG. 5 is a block diagram showing an embodiment of the secondary image processing circuit of the front-end LSI.
  • FIG. 6 is a schematic diagram showing a first embodiment of an imaging system according to the invention.
  • FIG. 7 is a schematic diagram showing a second embodiment of the imaging system according to the present invention, and is a diagram when communication between the imaging terminal and the server is normal.
  • FIG. 1 is a diagram showing the system configuration of an imaging system according to the present invention.
  • FIG. 2 is a block diagram showing an embodiment of an imaging terminal that configures the imaging system.
  • FIG. 3 is a block diagram showing an embodiment of a
  • FIG. 8 is a schematic diagram showing a second embodiment of the imaging system according to the present invention, and is a diagram when communication between the imaging terminal and the server is disabled.
  • FIG. 9 is a schematic diagram showing a third embodiment of an imaging system according to the invention.
  • FIG. 10 is a schematic diagram showing a fourth embodiment of an imaging system according to the invention.
  • FIG. 11 is a flow chart showing the operation of the imaging terminal in the imaging system, and is a flow chart showing the operation in the shooting mode.
  • FIG. 12 is a flow chart showing the operation of the imaging terminal in the imaging system, and is a flow chart showing the operation in the playback mode.
  • FIG. 13 is a flow chart showing the operation of the server in the imaging system.
  • FIG. 1 is a diagram showing the system configuration of an imaging system according to the present invention.
  • the imaging system 1 is composed of at least one or more imaging terminals 100 and a server 200 .
  • the imaging terminal 100 is a digital camera 100a with a communication function, a smartphone 100b with a built-in camera, and other gadgets with various cameras (drones, fixed rooftop cameras, etc.).
  • the imaging terminal 100 is always connected to the server 200 via the wireless access point 310 and the network 300 during startup, transmits imaging data continuously output from the imaging unit to the server 200 during imaging, and transmits the imaging data to the server 200 during playback.
  • a user-desired image (reproduced image) among the saved images is received, and the reproduced image is displayed on an LCD (Liquid Crystal Display).
  • the imaging data output from the imaging unit is data before image processing, and is hereinafter referred to as “RAW data”.
  • the imaging terminal 100 receives a live view image generated from continuous RAW data from the server 200 at the time of shooting, and displays the received live view image on an EVF (Electronic View Finder) or LCD.
  • EVF Electronic View Finder
  • the imaging terminal 100 has an image processing engine (first image processing engine) that enables shooting even offline, in preparation for cases where communication with the server 200 is impossible or difficult (including cases where communication is unstable). ).
  • the imaging terminal 100 and the server 200 As a method of identifying a case where communication is impossible or difficult between the imaging terminal 100 and the server 200, it is possible to detect the communication environment such as radio wave intensity, and check the communication status such as a data transmission/reception error check. Any method of detecting the determined input operation or a combination thereof may be used.
  • Image processing includes primary image processing performed as a pre-stage before RAW development, such as defect correction and correction of sensitivity errors for each pixel.
  • the imaging data transmitted to the network 300 by the imaging terminal 100 of the imaging system 1 is a "primary image.” It is transmitted in the state of "unprocessed image sensor output data that has not been processed at all" or "data that has not undergone a part of the primary image processing".
  • the image processing engine (second image processing engine) of the server 200 on the network is available, primary image processing with higher functions and performance is performed by the second image processing engine on the network, and the processing speed is improved. It is possible to take advantage of the superiority of the second image processing engine on the network, such as increasing the continuous shooting speed by increasing , and improving image quality by performing more complicated and highly accurate image processing.
  • the content of image processing performed as primary image processing includes defect correction and correction of sensitivity error for each pixel, as well as processing color and brightness for each pixel or area to obtain desirable image quality.
  • Tuning processing is performed, but the details of the processing include those not disclosed by the manufacturer as know-how.
  • it generally refers to processing for improving the image quality of digital data before RAW development.
  • the server 200 includes a second image processing engine different from the first image processing engine of the imaging terminal 100 and an image recording unit, and communicates with one or more imaging terminals 100 via the network 300 and the wireless access point 310. It performs two-way communication and exchanges necessary data.
  • the server 200 receives continuous RAW data from the imaging terminal 100, generates a live view image and an image for recording from the continuous RAW data by the second image processing engine, and transmits the generated live view image to the imaging terminal 100. Then, the image for recording is stored in the image recording unit of the server 200 .
  • the image recording unit may be provided in a server (for example, a data server) that is physically different from the server 200 having the second image processing engine.
  • the RAW data in this example is not limited to still image data in the RAW file format, but refers to captured data before RAW development. Therefore, “continuous RAW data” can be implemented by continuously transmitting data contained in a RAW file format, but more broadly refers to continuous output data from an image sensor. Therefore, it is expressed as "continuous RAW data” including streaming data that has not been file-formatted for each still image and a data string that has been A/D (Analog-to-Digital) converted.
  • A/D Analog-to-Digital
  • the "continuous RAW data" transmitted as continuous data is input to the second image processing engine as a data string not file-formatted in units of still images, and subjected to the first image processing.
  • Image processing and RAW development are performed by the engine, converted into a moving image data format for live view display, and then transmitted as live view output.
  • the data is converted into a file format set by the user in advance by the second image processing engine, and then output as a still image or moving image file.
  • the continuous data may be, for example, continuous data in which only the bit rate is converted without primary image processing, such as 16-bit video RAW data.
  • the server 200 transmits the image saved in the image recording unit to the imaging terminal 100 as a reproduced image in response to a request from the imaging terminal 100 .
  • Image processing of the image sensor output of the imaging terminal 100 by the second image processing engine of the server 200 in this way not only leads to a reduction in the size, weight, and cost of the imaging terminal 100, but also reduces power consumption and longevity. It becomes possible to use the imaging terminal 100 for a long period of time, it becomes easier to develop variations of the imaging terminal 100, and the latest update can be reflected in the second image processing engine without replacing the imaging terminal 100 (machine learning ), the relationship between the input (RAW data) and output of the second image processing engine can be obtained on the network, and a huge amount of development data (used for machine learning) for the development of a better image processing engine (including training data) can be obtained, waste is eliminated by time-sharing the image processing engine on the network, and it becomes possible to use a low-cost, high-performance image processing engine. Memory for continuous shooting that is infrequently used) can be shared, so you can expect many benefits such as virtually no limit on the number of continuous shots if you do efficient sharing.
  • FIG. 2 is a block diagram showing an embodiment of an imaging terminal that configures the imaging system.
  • the imaging terminal shown in FIG. 2 is a digital camera 100a with a communication function.
  • the digital camera 100a includes an imaging unit 101, a sensor driver 108, a first processor 110, a memory 112, an operation unit 114, a display control unit 116, an LCD 118, an EVF 120, a first image processing engine 122, and a first A communication unit 124 is provided.
  • the imaging unit 101 has a photographic lens 102 , an image sensor 104 and an AFE (Analog Front End) 106 .
  • the taking lens 102 may be a lens integrated with the camera body, or may be an interchangeable lens detachable from the camera body.
  • the image sensor 104 can be configured by a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor.
  • CMOS Complementary Metal-Oxide Semiconductor
  • the image sensor 104 is not limited to the CMOS type, and may be a CCD (Charge Coupled Device) type image sensor.
  • the image sensor 104 displays red (R), green ( G) and blue (B) color filters are arranged in a periodic array (eg, Bayer array, X-Trans®, etc.), and a microlens is disposed over each photodiode.
  • a periodic array eg, Bayer array, X-Trans®, etc.
  • An optical image of the subject formed on the light receiving surface of the image sensor 104 by the photographing lens 102 is converted into an electrical signal by the image sensor 104 .
  • Each pixel of the image sensor 104 accumulates a charge corresponding to the amount of incident light, and an electric signal corresponding to the charge amount (signal charge) accumulated in each pixel is read from the image sensor 104 as an image signal.
  • the AFE 106 performs various analog signal processing on analog image signals output from the image sensor 104 .
  • the AFE 106 includes a correlated double sampling circuit, an AGC (Automatic Gain Control) circuit, and an analog-digital conversion circuit (A/D conversion circuit) (all not shown).
  • the correlated double sampling circuit performs correlated double sampling processing on the analog signal from the image sensor 104 to remove noise caused by signal charge reset.
  • the AGC circuit amplifies the analog signal from which noise has been removed by the correlated double sampling circuit so that the signal level of the analog signal falls within an appropriate range.
  • the A/D conversion circuit converts the image signal gain-adjusted by the AGC circuit into a digital signal.
  • the digital signal read from the image sensor 104 and output from the AFE 106 is B, G, and R pixel data (B, G, and R data) corresponding to the color filter array of the image sensor 104, and is hereinafter referred to as " RAW data".
  • RAW data is point-sequential mosaic image data in which B, G, and R data are arranged in correspondence with the color filter array.
  • the AFE 106 is often built in the image sensor 104 .
  • analog signal processing by the AFE 106 is not called image processing, but signal processing for a digital signal after being converted into a digital signal by an A/D conversion circuit is defined as image processing. Therefore, the RAW data output from the image sensor 104 (AFE 106) is data before image processing.
  • the sensor driver 108 controls readout of image signals from the image sensor 104 according to instructions from the first processor 110 . Further, the sensor driver 108 has an electronic shutter function that discharges (resets) the charge accumulated in each pixel of the image sensor 104 according to an electronic shutter control signal from the first processor 110 and starts exposure. .
  • the first processor 110 is composed of a CPU (Central Processing Unit) and the like, performs integrated control of each part according to user operations using the operation part 114, and performs various types of processing.
  • CPU Central Processing Unit
  • the first processor 110 performs AF (Auto Focus) control and AE (Automatic Exposure) control.
  • the first processor 110 calculates numerical values necessary for AF control based on the digital image signal.
  • contrast AF for example, an integrated value (focus evaluation value) of high-frequency components of G data within a predetermined AF area is calculated.
  • the first processor 110 moves the focus lens included in the photographing lens 102 to a position where the focus evaluation value is maximized (that is, a position where contrast is maximized) during AF control.
  • AF is not limited to contrast AF.
  • the image sensor 104 includes a phase difference detection pixel
  • the defocus amount is detected based on the pixel data of the phase difference detection pixel, and this defocus amount Phase-difference AF may be performed by moving the focus lens so that the is zero.
  • the first processor 110 When performing AE control, the first processor 110 detects the brightness of the subject (subject brightness) and calculates a numerical value (exposure value (EV value)) necessary for AE control corresponding to the subject brightness. .
  • the first processor 110 can determine the F-number, shutter speed, and ISO sensitivity from a predetermined program chart based on the calculated EV value, and perform AE control.
  • the AF control and the AE control are automatically performed when the automatic mode is set by the operation unit 114, and the AF control and the AE control are not performed when the manual mode is set. Needless to say.
  • the memory 112 includes flash memory, ROM (Read-only Memory), RAM (Random Access Memory), and the like. Flash memory and ROM are nonvolatile memories that store various programs including firmware, parameters, and the like.
  • the RAM functions as a work area for processing by the first processor 110, and also temporarily stores firmware and the like stored in the non-volatile memory.
  • the first processor 110 may incorporate part of the memory 112 (RAM).
  • the operation unit 114 includes a power switch, a shutter button, a MENU/OK key, a cross key, a playback button, and the like.
  • the LCD 118 is provided on the back of the camera body, and functions as a display that displays a live view image in shooting mode, reproduces and displays captured images in playback mode, and displays various menu screens.
  • the EVF 120 can also display similar to the LCD 118 .
  • the display is automatically switched to the EVF 120 by the function of an eye sensor (not shown), and the display is switched to the LCD 118 when the eye is removed.
  • the MENU/OK key on the operation unit 114 has a function as a menu button for issuing a command to display a menu on the screen of the LCD 118, and a function as an OK button for commanding determination and execution of selected contents. It is an operation key.
  • the cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button for selecting items from the menu screen and instructing the selection of various setting items from each menu. Also, the up and down keys of the D-pad function as zoom switches during shooting or as playback zoom switches in playback mode, while the left and right keys serve as frame advance (forward and reverse) buttons in playback mode. Function.
  • the playback button is a button for switching to a playback mode in which the captured and recorded image is displayed on the LCD 118 .
  • the first image processing engine 122 operates when communication with the server 200 is disabled.
  • the first image processing engine 122 performs image processing such as RAW development processing on RAW data continuously read out from the imaging unit 101 to generate a live view image and an image for recording. Details of the first image processing engine 122 will be described later. Also, instead of the first image processing engine 122 , or part of the image processing functions of the first image processing engine 122 may be performed by the first processor 110 .
  • the RAW data read from the imaging unit 101 is continuous data read continuously at a set frame rate (eg, 30 fps, 60 fps, etc.).
  • the B, G, and R data in the RAW data are data having gradations corresponding to the maximum number of bits (14 bits in this example) of the A/D conversion circuit in the AFE 106, respectively.
  • the first communication unit 124 is always connected to the server 200 via the wireless access point 310 and the network 300 while the digital camera 100a is running, and performs two-way communication with the server 200.
  • the first communication unit 124 transmits captured image data (RAW data) before image processing to the server 200 in the form of continuous data in which frames are continuous at the time of shooting. Also, a live view image corresponding to continuous data (RAW data in which frames are continuous) is received. Also, the first communication unit 124 transmits information regarding an image to be reproduced designated by a user operation during reproduction, and receives an image designated by the user operation from the server 200 .
  • the first communication unit 124 transmits a shutter release signal (shooting instruction information), terminal information indicating the digital camera 100a, and the like to the server 200, the details of which will be described later. Further, the first communication unit 124 preferably performs full-duplex wireless communication capable of simultaneous transmission and reception, but may be capable of simultaneous transmission and reception using two or more wireless channels. In addition, the first communication unit 124 may have a configuration in which the transmitting unit and the receiving unit are different (for example, optical for upstream and radio waves for downstream).
  • FIG. 3 is a block diagram showing an embodiment of a server that configures the imaging system.
  • the server 200 shown in FIG. 3 performs two-way communication with one or more imaging terminals 100 via the network 300 and the wireless access point 310, and performs functions such as image processing and image recording for the imaging terminals 100.
  • the server 200 shown in FIG. 3 includes a second communication unit 202, a second image processing engine 210, a second processor 250, and an image recording unit 260.
  • the second communication unit 202 performs two-way communication with the imaging terminal 100 via the network 300 and the wireless access point 310, receives continuous data from the imaging terminal 100, and receives continuous data generated by the second image processing engine 210. A live view image corresponding to the continuous data is transmitted to the imaging terminal 100 . Further, the second communication unit 202 receives information regarding an image to be reproduced designated by a user operation during reproduction on the imaging terminal 100 , and transmits an image corresponding to the information to the imaging terminal 100 . In addition, the second communication unit 202 receives a shutter release signal from the imaging terminal 100, terminal information indicating the imaging terminal 100, and the like. In this example, the imaging terminal 100 of the communication destination is a digital camera 100a with a communication function. preferable.
  • the second image processing engine 210 is a different type of image processing engine from the first image processing engine of the imaging terminal 100 (in this example, the first image processing engine 122 of the digital camera 100a with a communication function). It has technical specifications that exceed those of the image processing engine 122 .
  • the technical specifications of the first image processing engine 122 are lower than the technical specifications of the second image processing engine 210.
  • the first image processing engine 122 and the second image processing engine 210 are compared, at least one or more of the following image processing performances are different.
  • the amount of information per pixel that the first image processing engine 122 can perform image processing for the second image processing engine 210 is small.
  • the first image processing engine 122 differs from the second image processing engine 210 in the number of gradation bits or the number of processing bits.
  • the number of gradation bits of data processed by the first image processing engine 122 can be 8 bits
  • the number of gradation bits of data processed by the second image processing engine 210 can be 14 bits.
  • the image processing by the first image processing engine 122 is image processing for data having 8-bit gradation
  • the image processing by the first image processing engine 122 includes image processing for data having 14-bit gradation. can be used.
  • the first image processing engine 122 has only part of the functions that allow the second image processing engine 210 to perform image processing. For example, an image compression processing function or the like is not provided.
  • the first image processing engine 122 has a small number of pixels in an image that can be processed by the second image processing engine 210 .
  • the first image processing engine 122 has arithmetic elements with smaller thermal design power than the second image processing engine 210 . That is, the first image processing engine 122 consumes less power and generates less heat than the second image processing engine 210 .
  • the first image processing engine 122 has arithmetic elements with fewer transistors than the second image processing engine 210 .
  • the first image processing engine 122 has a smaller number of processor cores than the second image processing engine 210 .
  • the first image processing engine 122 has arithmetic elements with lower operating clock frequencies than the second image processing engine 210 .
  • the first image processing engine 122 has an arithmetic element with a lower rated operating current value than the second image processing engine 210 .
  • the first image processing engine 122 has a smaller cache memory capacity than the second image processing engine 210 .
  • the first image processing engine 122 has a configuration in which the number of executable instructions for the second image processing engine 210 is small.
  • the first image processing engine 122 has a configuration with a small number of arithmetic units for executing arithmetic instructions with respect to the second image processing engine 210 .
  • the first image processing engine 122 has a built-in graphics function, and the second image processing engine has an extended graphics function.
  • the differences in technical specifications include a wide programmable area, differences in internal processing flexibility (different from the superiority of the image processing performance itself), and even if the architecture and circuit scale are the same. Some have different process rules, some have different power consumption, some have different functions and performance for heat countermeasures such as temperature detection sensing functions, some have different chip sizes and save space, etc., but are limited to these. not something to do.
  • the second image processing engine 210 of this example includes a front-end LSI (Large-Scale Integration) 239 and a primary memory 240 as its internal memory. It includes an image processing circuit 220 and a secondary image processing circuit 230 .
  • LSI Large-Scale Integration
  • the primary image processing circuit 220 of the front-end LSI 239 receives continuous data of the RAW data transmitted from the imaging terminal 100 and received by the second communication unit 202, and performs primary image processing on the RAW data of each frame sequentially input. Processing is performed to generate RAW data that can be used for RAW data recording and output to the secondary image processing circuit 230 and the primary memory 240 .
  • FIG. 4 is a block diagram showing an embodiment of the primary image processing circuit of the front-end LSI.
  • the primary image processing circuit 220 shown in FIG. 4 includes an offset processing circuit 221, a pixel defect correction circuit 222, a color tone correction circuit 223, and an individual difference correction circuit 224.
  • the RAW data received by the second communication unit 202 is applied to the offset processing circuit 221 of the primary image processing circuit 220 .
  • the B, G, and R data in this RAW data are data each having a 14-bit gradation value.
  • the offset processing circuit 221 performs offset processing on the input RAW data.
  • the offset processing circuit 221 is a processing unit that corrects the dark current component of the sensor output of the image sensor 104, and calculates the average value of pixel data corresponding to a plurality of light-shielded pixels (optical black pixels) of the image sensor 104. , the calculated average value is subtracted from the input RAW data.
  • the offset-processed RAW data is output to the pixel defect correction circuit 222 .
  • the pixel defect correction circuit 222 is a correction circuit that corrects pixel defects (scratches) unique to the image sensor 104 .
  • the server 200 stores various types of correction information and information (RAW development information) necessary for RAW development in a memory (not shown) in accordance with terminal information (for example, product name + serial number) of the imaging terminal 100 .
  • terminal information for example, product name + serial number
  • the correction information and RAW development information for each imaging terminal 100 can be obtained in advance from the imaging terminal 100 or downloaded from the server of the imaging terminal 100 manufacturer based on the terminal information and stored in the memory.
  • the RAW development information also includes information such as the color filter arrangement of the image sensor, the number of pixels, and the effective pixel area.
  • the pixel defect correction circuit 222 acquires defective pixel information (defective pixel position information) of the image sensor 104 based on the terminal information of the imaging terminal 100, and inputs R, G, or B data corresponding to the defective pixel. , interpolate pixel data of the same color in the vicinity of the position of the defective pixel, and output the interpolated pixel data in place of the data corresponding to the defective pixel. If the image sensor 104 includes a phase difference detection pixel, the data at the position of the phase difference detection pixel is similarly interpolated and output instead of the data of the phase difference detection pixel.
  • the color tone correction circuit 223 performs color correction for correcting the spectral characteristics of the B, G, and R output data of the image sensor 104. 3-output matrix operation is performed. When matrix coefficients of a 3 ⁇ 3 matrix are given, it is possible to obtain three color data of B, G, and R after tone correction from input three color data of R, G, and B data. At this time, linear matrix conversion is performed using matrix coefficients that improve color reproducibility and correspond to the terminal identification information of the imaging terminal 100 .
  • the individual difference correction circuit 224 is a part that performs correction according to the individual difference of the image sensor 104 .
  • the imaging terminal 100 which is the same product, in order to achieve the same color reproduction and image quality as the reference imaging terminal, adjustment values corresponding to the spectral sensitivity characteristics of each individual image sensor 104 are used, and the adjustment values are B and G. , and R data to output B, G, and R data having the same color reproduction and image quality regardless of the individual difference of the image sensor 104 .
  • the RAW data processed by the primary image processing circuit 220 is output to the secondary image processing circuit 230 and primary memory 240 . It should be noted that the content and order of image processing for RAW data by the primary image processing circuit 220 are not limited to the above embodiment.
  • the RAW data processed by the primary image processing circuit 220 is data before RAW development processing, and the B, G, and R data have 14-bit gradation.
  • FIG. 5 is a block diagram showing an embodiment of the secondary image processing circuit of the front-end LSI.
  • a secondary image processing circuit 230 shown in FIG. 1 A secondary image processing circuit 230 shown in FIG.
  • the RAW data processed by the primary image processing circuit 220 is applied to the WB correction circuit 231 of the secondary image processing circuit 230 .
  • the WB correction circuit 231 automatically determines the type of light source such as “sunny”, “cloudy”, “shade”, “light bulb”, and “fluorescent light” and the shooting scene from the B, G, and R data of the input RAW data. Then, the B, G, and R data are amplified using the WB gain for each of the B, G, and R data set in advance according to the type of light source, etc., and white balance correction is performed. The B, G, and R data that have undergone white balance correction are output to the gamma correction circuit 232 .
  • the gamma correction circuit 232 has, for example, a gamma correction table for each of B, G, and R data. Gradation correction (gamma correction) is performed according to the gamma characteristics such that the Also, the gamma correction circuit 232 of this example converts 14-bit B, G, and R data into 8-bit B, G, and R data. The 8-bit B, G, and R data gamma-corrected by the gamma correction circuit 232 are output to the demosaicing circuit 233 .
  • the demosaic processing circuit 233 interpolates missing color data at each pixel position of the image sensor 104 from each color data of dot-sequential B, G, and R data, which is mosaic image data corresponding to the color filter array of the image sensor 104. , and outputs B, G, and R data at each pixel position at the same time. That is, the demosaicing circuit 233 converts the dot-sequential B, G, and R data into simultaneous B, G, and R data, and outputs the synchronized B, G, and R data to the YC conversion circuit 234 .
  • the YC conversion circuit 234 converts the simultaneous B, G, and R data into luminance data (Y) and color difference data (Cr, Cb), outputs the luminance data (Y) to the edge enhancement circuit 235, and converts the color difference data ( Cr, Cb) are output to the color difference matrix circuit 236 .
  • the contour emphasis circuit 235 performs processing to emphasize the contour portion (portion with large luminance change) of the luminance data (Y).
  • the color-difference matrix circuit 236 performs matrix operations on input color-difference data (Cr, Cb) and color correction matrix coefficients of 2 rows ⁇ 2 columns, and performs color correction for realizing good color reproducibility.
  • the secondary image processing circuit 230 generates displayable image data from the RAW data by performing various types of image processing (RAW development processing) on the RAW data.
  • RAW development processing various types of image processing
  • the compression circuit 237 compresses the luminance data (Y) output from the edge enhancement circuit 235 and the color difference data (Cr, Cb) output from the color difference matrix circuit 236 .
  • Still images are compressed in, for example, JPEG (Joint Photographic Coding Experts Group) format, and moving images are compressed in, for example, H.264. 264 format compression.
  • the compressed image data is held in primary memory 240 .
  • the compression circuit 237 is added with the RAW data processed by the primary image processing circuit 220 , and the compression circuit 237 outputs the RAW data to the primary memory 240 after compressing the RAW data.
  • RAW data is preferably compressed by lossless compression (lossless compression). Note that the RAW data may be directly output from the primary image processing circuit 220 to the primary memory 240 as shown in FIG. 3 and held in the primary memory 240 without being compressed (uncompressed). .
  • the second image processing engine 210 receives continuous data of RAW data from the imaging terminal 100 (digital camera 100a in this example), and corresponds to the continuous data generated by the second image processing engine 210.
  • the live view image to be displayed is transmitted to the digital camera 100a.
  • the image of each frame for each image processing corresponding to the continuous data which is the luminance data (Y) and the color difference matrix output from the edge enhancement circuit 235 of the secondary image processing circuit 230 shown in FIG.
  • An image composed of B, G, and R data converted from color difference data (Cr, Cb) or luminance data (Y) and color difference data (Cr, Cb) output from the circuit 236 is used as a live view image by the second communication unit. 202, and transmitted from the second communication unit 202 to the digital camera 100a via the network 300 and the wireless access point 310.
  • image processing is performed by the server 200 to generate a live view image, and the time until the live view image is transmitted to the digital camera 100a is required for data transmission/reception.
  • 5G (5th Generation) mobile communication systems it is possible to achieve an ultra-low delay that reduces the delay time from data transmission to reception to about 1 millisecond. The delay in this part is so short that humans cannot perceive the delay.
  • the digital camera 100a can display the live view image on the LCD 118 or the EVF 120 almost in real time. Furthermore, after 2027, even higher-speed next-generation 6G mobile communication systems will be introduced. This further eliminates the time lag between the imaging terminal and the server on the network, enabling live view images to be displayed in real time.
  • the imaging terminal 100 performs AF control and AE control for still image recording.
  • RAW data is transmitted as one frame of continuous data, and a shutter release signal (shooting instruction information) is transmitted by interrupting the continuous data.
  • the second processor 250 always waits for the shutter release signal transmitted from the digital camera 100a by the operation of the shutter button by the user. , the second processor 250 obtains from the second image processing engine 210 the image data of the RAW data for recording the still image specified by the shutter release signal, which has been subjected to image processing by the second image processing engine 210, and converts the image data into an image. Record in the recording unit 260 .
  • the second processor 250 converts the RAW data for still image recording into an image file having image data that has undergone RAW development processing by the second image processing engine 210 and has been JPEG-compressed and stored in the primary memory 240.
  • the image file is recorded in the image recording unit 260 .
  • the second processor 250 preferably records in an image folder (folder in the image recording unit 260) associated with the terminal information or the like based on the terminal information or user information of the digital camera 100a.
  • the second processor 250 determines that the RAW data for still image recording is a RAW file of RAW data image-processed by the primary image processing circuit 220 of the second image processing engine 210, and is held in the primary memory 240.
  • a RAW file having lossless-compressed or uncompressed RAW data is recorded in a folder in the image recording unit 260 associated with the terminal information or user information of the imaging terminal 100 .
  • the second processor 250 may record at least one of the still image file and the RAW file in the image recording unit 260.
  • the digital camera 100a When the digital camera 100a is set to the bracket shooting mode or the continuous shooting mode, the digital camera 100a continuously shoots a plurality of still images by operating the shutter button once. , a plurality of still image files and/or RAW data after image processing are recorded in the image recording unit 260 .
  • the digital camera 100a when the digital camera 100a receives a moving image recording instruction or a recording end instruction by user operation of the shutter button when the moving image mode is set, the digital camera 100a transmits the recording instruction information or the recording end instruction information from the first communication unit 124 to the server. 200.
  • the server 200 (second image processing engine 210) performs image processing for moving image recording on the continuous data received during the period from when the moving image recording instruction information is received until when the recording end instruction information is received, and an image is obtained.
  • a moving image file having moving image data generated by the processing is stored in the primary memory 240
  • the second processor 250 records the moving image file stored in the primary memory 240 in the image recording section 260 .
  • the imaging terminal 100 is always connected to the server 200 even when it is started in the reproduction mode or switched from the shooting mode to the reproduction mode, and the user performs reproduction operations according to the display contents of the operation unit 114 and the LCD 118.
  • the first communication unit 124 outputs a reproduction request corresponding to the content of the operation to the server 200 .
  • the server 200 receives the reproduction request via the second communication unit 202
  • the image file corresponding to the reproduction request is read from the image recording unit 260, and the compressed image data in the image file is decompressed. and transmitted from the second communication unit 202 to the imaging terminal 100 as a reproduced image.
  • the image file corresponding to the reproduction request is a RAW file
  • the RAW data of the RAW file is subjected to RAW development processing, and then transmitted from the second communication unit 202 to the imaging terminal 100 as a reproduced image.
  • the server 200 transmits a playback request for the latest captured image, and the server 200 receives the latest captured image from the imaging terminal 100.
  • the reproduction request is received, the corresponding image file is read from the image recording unit 260, the compressed image data in the image file is decompressed, and transmitted from the second communication unit 202 to the imaging terminal 100 as a reproduced image.
  • the imaging terminal 100 that has received the reproduced image causes the LCD 118 to display the reproduced image via the display control unit 116 .
  • the imaging terminal 100 transmits a playback request corresponding to the playback operation to the server 200, and the server 200 receives the playback request.
  • the image file corresponding to the request is read from the image recording unit 260, and the reproduced image is transmitted to the imaging terminal 100 in the same manner as described above.
  • the server 200 transmits a list of thumbnail images corresponding to the request to the imaging terminal 100. Then, the imaging terminal 100 that has received the list of thumbnail images can display the list of thumbnail images on the LCD 118 .
  • the user selects a desired thumbnail image by operating the operation unit 114 while viewing the list of thumbnail images displayed on the LCD 118, and the imaging terminal 100 issues a reproduction request for the image corresponding to the selected thumbnail image.
  • (playback request with image file name) can be sent to server 200 .
  • the server 200 Upon receiving a reproduction request with an image file name from the imaging terminal 100, the server 200 reads the image file corresponding to the image file name from the image recording unit 260 and transmits the reproduced image to the imaging terminal 100 in the same manner as described above. Thereby, the LCD 118 of the imaging terminal 100 displays a reproduced image corresponding to the thumbnail image selected by the user.
  • the user can use the reproduced image or the thumbnail image to specify an image for which a print order is to be placed, and can cause the imaging terminal 100 to send a print request for the specified image (a print request accompanied by the image file name) to the server 200 .
  • the server 200 receives a print request with an image file name from the imaging terminal 100, the server 200 reads out the image file corresponding to the image file name from the image recording unit 260 and transmits it to a print server (not shown), thereby providing a print service. can be done.
  • the user uses utility software (retouching software) in the server 200 to perform image editing (correction, correction, processing) such as adding filter effects, and confirms the edited image (reproduced image) in real time. can be done over the network.
  • FIG. 6 is a schematic diagram showing a first embodiment of an imaging system according to the invention.
  • the solid arrow indicates the data flow when the communication between the imaging terminal 100-1 and the server 200 is normal, and the dotted arrow indicates the data flow between the imaging terminal 100-1 and the server 200. Data flow when communication between devices is impossible (including when communication is unstable). Also, in FIG. 6, the imaging terminal 100-1 and the communication units of the server 200 are omitted.
  • the imaging terminal 100-1 is always connected to the server 200 via the wireless access point 310 and the network 300 (FIG. 1) during startup, and in the shooting mode, the RAW data before image processing is stored in the form of continuous data on the server. 200.
  • the front-end LSI 239 of the second image processing engine 210 of the server 200 generates a live-view image from the received continuous data consisting of RAW data, and the server 200 transmits the live-view image generated by the front-end LSI 239 to the imaging terminal 100-. Send to 1.
  • the imaging terminal 100-1 that has received the live view image displays the live view image on the LCD 118 or EVF 120.
  • the user can determine the composition and the like while viewing the live view image, and press the shutter button 115 to perform the shooting operation of the desired subject.
  • the imaging terminal 100-1 reads out RAW data for still image recording and having 14-bit gradation from the image sensor 104. , is transmitted as one frame of the continuous data, and a shutter release signal is transmitted to the server 200 by interrupting the continuous data.
  • the second image processing engine 210 (front-end LSI 239) of the server 200 performs image processing on the RAW data for still image recording received in response to the shutter release signal. That is, the front-end LSI 239 performs RAW development processing on the received RAW data for still image recording, and stores a still image file having JPEG-compressed image data (8-bit gradation) having 8-bit gradation in the primary memory. 240 and/or lossless compressed or uncompressed RAW data (14-bit gradation) obtained by image processing the received RAW data for still image recording by the primary image processing circuit 220 (FIG. 3). store the RAW file in primary memory 240 .
  • the second processor 250 of the server 200 records the still image file with 8-bit gradation and/or the RAW file with 14-bit gradation stored in the primary memory 240 in the image recording unit 260 .
  • the imaging terminal 100-1 when the imaging terminal 100-1 is started in the playback mode, or when the shooting mode is switched to the playback mode, when the user performs a playback operation according to the display contents of the operation unit 114 and the LCD 118, the operation contents are displayed. A corresponding reproduction request is output from the first communication unit 124 to the server 200 .
  • the server 200 When the server 200 receives the reproduction request from the imaging terminal 100-1, the server 200 reads the image file corresponding to the reproduction request from the image recording unit 260, decompresses the compressed image data in the image file, and reproduces the reproduced image in the second communication. It is transmitted from the unit 202 to the imaging terminal 100 . If the image file corresponding to the reproduction request is a RAW file, the RAW data of the RAW file is subjected to RAW development processing, and then transmitted to the imaging terminal 100 as a reproduced image.
  • the imaging terminal 100-1 that has received the reproduced image causes the LCD 118 to display the reproduced image via the display control unit 116.
  • the first image processing engine 122 of the imaging terminal 100-1 operates to allow the imaging terminal 100-1 alone to shoot.
  • RAW data read from the image sensor 104 at a predetermined frame rate (eg, 30 fps, 60 fps) is output to the first image processing engine 122 .
  • the first image processing engine 122 differs in technical specifications from the second image processing engine 210 of the server 200, has limited functions and performance compared to the second image processing engine 210, and has a limited circuit scale. is also small and inexpensive.
  • the first image processing engine 122 converts the continuous data consisting of RAW data having 14-bit gradation from the image sensor 104 into RAW data having 8-bit gradation, for example, and then converts it into 8-bit gradation. is subjected to image processing such as RAW development processing to generate a live view image.
  • This live view image may have lower image quality (resolution, display frame rate) than the live view image generated by the second image processing engine 210 when communication is normal.
  • the first image processing engine 122 performs image processing on the RAW data for still image recording read out from the image sensor 104 when the shutter button 115 is pressed.
  • image data is generated and recorded in an internal memory (not shown).
  • the imaging terminal 100-1 can read the image data recorded in the internal memory of the first image processing engine 122 prior to the continuous data transmission. to the server 200 .
  • the second image processing engine 210 performs image processing such as noise reduction processing for improving image quality on the received image data.
  • the second processor 250 records in the image recording unit 260 an image file, which is image data that has undergone image processing by the second image processing engine 210 and is a file of the image data.
  • the first image processing engine 122 of the imaging terminal 100-1 is an auxiliary image processing engine used for emergency evacuation when communication between the imaging terminal 100-1 and the server 200 is disabled. It is extremely small in scale and can only handle data with 8-bit gradation, and is limited to the minimum necessary functions. It doesn't have to be new. Therefore, the cost of the circuit scale can be reduced to one tenth to several tenths of that of the second image processing engine 210 of the server 200 . Further, the frequency of using the first image processing engine 122 in the imaging terminal 100-1 is almost negligible in areas where communication networks are developed, and in case of emergency, a disadvantage in terms of performance is unlikely to occur. To record the minimum image data for recording so as not to be unable to photograph at all when communication is temporarily interrupted. As a result, it is possible to perform operations, display (live view image), and image recording related to photographing, so that there is no chance of missing a photo opportunity. If the continuous shooting function is important, a minimum continuous shooting memory may be provided. It becomes possible.
  • the imaging terminal 100-1 can reproduce and display only images recorded in the internal memory of the first image processing engine 122 when offline, and cannot reproduce and display images recorded in the image recording unit 260. .
  • FIG. 7 and 8 are schematic diagrams showing a second embodiment of the imaging system according to the present invention.
  • FIG. 7 shows a case where communication between the imaging terminal and the server is normal, and
  • FIG. It shows a case where communication between the imaging terminal and the server is impossible (in the case of offline).
  • FIGS. 7 and 8 the same reference numerals are given to the parts common to the first embodiment of the imaging system shown in FIG. 6, and detailed description thereof will be omitted.
  • the imaging terminal 100-2 is different from the imaging terminal 100-1 of the first embodiment of the imaging system shown in FIG.
  • the engine 130 is different.
  • the first image processing engine 130 of the imaging terminal 100-2 operates when offline. Therefore, when the communication between the imaging terminal 100-2 and the server 200 is normal, the second embodiment of the imaging system shown in FIGS. performs the same operation as
  • the first image processing engine 130 of the imaging terminal 100-2 that operates offline includes a front-end LSI 132 and a primary memory 134 that is an internal memory.
  • the front-end LSI 132 has lower technical specifications than the front-end LSI 239 of the second image processing engine 210 of the server 200, has limited functions and performance, and has a small circuit scale and is inexpensive.
  • the front-end LSI 132 converts continuous data composed of RAW data having 14-bit gradation from the image sensor 104 into RAW data having 8-bit gradation, for example, and then converts RAW data having 8-bit gradation.
  • Image processing such as RAW development processing is performed on the data to generate a live view image.
  • This live view image may have lower image quality (resolution, display frame rate) than the live view image generated by the front-end LSI 239 of the second image processing engine 210 when communication is normal.
  • a live view image generated by the front-end LSI 132 is output and displayed on the LCD 118 or EVF 120 as indicated by the solid-line arrow in FIG.
  • the front-end LSI 132 performs image processing including RAW development processing and JPEG compression on the RAW data for still image recording read from the image sensor 104 when the shutter button 115 is pressed. and records an image file having JPEG-compressed image data in the primary memory 134 .
  • the still image recording image data generated by the front-end LSI 132 has a higher image quality (image size, resolution, color reproducibility, etc.) than the still image recording image data generated by the front-end LSI 239 of the server 200 . of at least 1) is low.
  • the first image processing engine 130 having the front-end LSI 132 does not include image processing such as noise processing, defect correction, and image quality improvement, and is inexpensive compared to the second image processing engine 210 having the front-end LSI 239. Because it is a thing.
  • the imaging terminal 100-2 starts the primary memory 134, which is the internal memory of the first image processing engine 130, prior to transmission of the continuous data. to the server 200 .
  • the server 200 When the server 200 (second processor 250) receives the image file from the imaging terminal 100-2, it records the received image file in the image recording unit 260. As in the imaging system of the first embodiment shown in FIG. 6, the image data of the received image file may be reprocessed by the second image processing engine 210 and then recorded in the image recording section 260 .
  • FIG. 9 is a schematic diagram showing a third embodiment of an imaging system according to the invention.
  • FIG. 9 the parts common to the first embodiment of the imaging system shown in FIG. 6 are denoted by the same reference numerals, and detailed description thereof will be omitted.
  • the imaging terminal 100-3 is different from the imaging terminal 100-1 of the first embodiment of the imaging system shown in FIG. differ.
  • the first image processing engine 140 of the imaging terminal 100-3 operates when offline. Therefore, when the communication between the imaging terminal 100-3 and the server 200 is normal, the third embodiment of the imaging system shown in FIG. 9 is similar to the first embodiment of the imaging system shown in FIG. take action.
  • the first image processing engine 140 of the imaging terminal 100 - 3 that operates offline includes a memory controller 142 , a primary memory 144 that is an internal memory, and a live view engine 146 .
  • the first image processing engine 140 has minimum image processing functions for offline use.
  • the live view engine 146 converts continuous data consisting of RAW data with 14-bit grayscale from the image sensor 104 into RAW data with 8-bit grayscale, and then with 8-bit grayscale. Image processing such as RAW development processing is performed on the RAW data to generate a live view image.
  • the live-view engine 146 only needs to generate a live-view image with the minimum image quality required for framing. For example, image processing such as noise processing, defect correction, and image quality improvement can be omitted.
  • the image quality (resolution, display frame rate) may be lower than that of the live view image generated by the front-end LSI 239 of the engine 210 .
  • a live-view image generated by the live-view engine 146 while offline is output and displayed on the LCD 118 or EVF 120 as indicated by the dotted arrow in FIG.
  • the memory controller 142 stores one frame of RAW data having 14-bit gradation for still image recording read from the image sensor 104 when the shutter button 115 is pressed. Temporarily recorded in the next memory 144 .
  • the memory controller 142 stores a plurality of images for still image recording that are continuously read out from the image sensor 104 by one shutter release operation of the shutter button 115 .
  • RAW data for the frame is temporarily recorded in primary memory 144 .
  • the live view engine 146 can continuously generate live view images regardless of the shutter release operation of the shutter button 115 .
  • the imaging terminal 100-3 records the data in the primary memory 144 of the first image processing engine 140 prior to the transmission of the continuous data.
  • RAW data for still image recording having 14-bit gradation is transmitted to the server 200 .
  • the server 200 (the front-end LSI 239 of the second image processing engine 210) receives the RAW data for still image recording shot offline from the imaging terminal 100-2, the received RAW data is used for still image recording. , and stored in the primary memory 240 .
  • the second processor 250 records the still image file with 8-bit gradation stored in the primary memory 240 and/or the primary image-processed RAW file with 14-bit gradation in the image recording unit 260. .
  • image processing by the front-end LSI 239 for RAW data for recording still images shot offline is performed in response to a shutter release signal when communication between the imaging terminal 100-3 and the server 200 is normal. Image processing similar to image processing for RAW data for still image recording can be performed.
  • FIG. 10 is a schematic diagram showing a fourth embodiment of an imaging system according to the invention.
  • an imaging terminal 100-4 is different from the imaging terminal 100-1 of the imaging system of the first embodiment shown in FIG. differ.
  • the first image processing engine 150 of the imaging terminal 100-4 operates when offline. Therefore, when the communication between the imaging terminal 100-4 and the server 200 is normal, the fourth embodiment of the imaging system shown in FIG. 10 is similar to the first embodiment of the imaging system shown in FIG. take action.
  • the first image processing engine 150 of the imaging terminal 100-4 that operates offline includes a front-end LSI 152 and a primary memory 154, which is an internal memory.
  • the first image processing engine 150 (front-end LSI 152) converts continuous data composed of RAW data having 14-bit gradation from the image sensor 104 into RAW data having 8-bit gradation, for example, and then Image processing such as RAW development processing is performed on RAW data having 8-bit gradation to generate a live view image.
  • This live-view engine 146 only needs to be able to generate a live-view image with the minimum image quality required for framing.
  • a live-view image generated by the live-view engine 146 while offline is output and displayed on the LCD 118 or EVF 120 as indicated by the dotted arrow in FIG.
  • the front-end LSI 152 converts one frame of RAW data having 14-bit gradation for still image recording read from the image sensor 104 when the shutter button 115 is pressed into an image. process.
  • the front-end LSI 152 performs image processing including RAW development processing and JPEG compression on the input RAW data, records an image file having the JPEG-compressed image data in the primary memory 134, and/or converts the input RAW data.
  • the data amount (image size in this example) is reduced, and the RAW data with the reduced data amount is recorded in the primary memory 134 .
  • the circuit scale is remarkably small, and the image size is limited to a certain image size (for example, 4K size image size) or less. It is limited to the minimum necessary functions that cannot be handled, and the primary image processing part such as noise reduction processing for improving image quality does not have to be state-of-the-art. Therefore, the circuit scale can be reduced to one tenth to several tenths of the second image processing engine 210 on the network.
  • the first image processing engine 150 of the imaging terminal 100-4 is rarely used in an area with a developed communication network. Because of this, it is difficult for performance disadvantages to occur. In addition, since operations and displays (display of live view images) and image recording related to shooting can be performed, photo opportunities are not missed, and problems can be solved with a minimum number of additional circuits (first image processing engine). Even if the continuous shooting function is important, it is sufficient to have a minimum amount of memory for continuous shooting. It becomes possible.
  • the front-end LSI 152 performs image processing including RAW development processing and JPEG compression on the input RAW data, but JPEG compression may be omitted. Also, when recording RAW data with a reduced data amount in the primary memory 134, the front-end LSI 152 reduces the image size of, for example, 2K size, and also reduces the number of bits of the RAW data having 14-bit gradation to 14. It can be less than a bit (eg, 8 bits) to reduce the amount of data.
  • the imaging terminal 100-4 records the data in the primary memory 144 of the first image processing engine 140 prior to the transmission of the continuous data. Send data to server 200 .
  • the server 200 (the front-end LSI 239 of the second image processing engine 210) receives the data for recording the still image shot offline from the imaging terminal 100-4, the image for recording the still image is received for the received data. It is processed and stored in primary memory 240 .
  • the second processor 250 records the image stored in the primary memory 240 in the image recording section 260 .
  • FIG. 11 and 12 are flowcharts showing the operation of the imaging terminal in the imaging system
  • FIG. 13 is a flowchart showing the operation of the server in the imaging system.
  • FIGS. 11 and 12 show the operation procedure of the imaging terminal 100-2 of the second embodiment of the imaging system shown in FIGS. 7 and 8.
  • FIG. Also, the imaging terminal 100-2 is assumed to be the digital camera 100a with a communication function shown in FIGS.
  • the imaging terminal 100-2 (digital camera 100a with a communication function) first performs network connection processing for constant connection with the server 200 (step S10).
  • the digital camera 100a determines whether or not the power switch is turned off (step S12). If the power is ON (“No"), the process proceeds to step S14.
  • step S14 it is determined whether the operation mode of the digital camera 100a is the shooting mode or the playback mode (step S14). If the shooting mode is determined, the process proceeds to step S16, and a shooting operation is performed. If the playback mode is determined, the process proceeds to image playback processing shown in FIG.
  • step S16 the imaging unit 101 (image sensor 104) performs imaging at a predetermined frame rate, and RAW data before image processing is read from the image sensor 104 as continuous data at a predetermined frame rate.
  • the digital camera 100a (first processor 110) determines whether the connection state of the network for which connection processing was performed in step S10 is stable (step S18). When it is determined that the network connection is stable, the digital camera 100a transmits continuous data read from the image sensor 104 to the server 200 via the first communication section 124 (step S20).
  • the server 200 applies image processing such as RAW development processing to the continuous data received from the digital camera 100a to generate a live view image, and transmits the generated live view image to the digital camera 100a.
  • image processing such as RAW development processing
  • the digital camera 100a receives the live view image transmitted from the server 200 via the first communication unit 124 (step S22), and displays the received live view image on the LCD 118 or EVF 120 (step S24).
  • the live view image can be displayed on the LCD 118 or EVF 120 in real time.
  • step S26 determines whether the shutter release operation of the shutter button 115 has been performed by the user. If it is determined in step S26 that there is no shutter release operation (in the case of "No"), the process proceeds to step S12. As a result, the processing from step S12 to step S26 is repeated, and the live view image is displayed.
  • step S26 When it is determined in step S26 that the shutter release operation has been performed (in the case of "Yes"), the process proceeds to step S28.
  • step S25 the digital camera 100a interrupts the continuous data with the shutter release signal and transmits the continuous data to the server 200 via the first communication unit 124, and then proceeds to step S12.
  • the operation of the server 200 that receives the shutter release signal will be described later.
  • the digital camera 100a enables the first image processing engine 130, and transfers the continuous data read from the image sensor 104 to the first Output to the image processing engine 130 .
  • the first image processing engine 130 performs image processing such as RAW development processing on the input continuous data to generate a live view image (step S30).
  • the first image processing engine 130 outputs the generated live view image to the LCD 118 or EVF 120 for display (step S32).
  • step S32 determines whether the shutter release operation of the shutter button 115 has been performed by the user. If it is determined in step S32 that there is no shutter release operation (in the case of "No"), the process proceeds to step S18. As a result, the processing from step S18 to step S34 is repeated, and the live view image is displayed.
  • step S34 If it is determined in step S34 that there has been a shutter release operation (in the case of "Yes"), the process proceeds to step S36.
  • step S36 the first image processing engine 130 performs image processing including RAW development processing and JPEG compression on the RAW data having 14-bit gradation for still image recording corresponding to the shutter release signal, and JPEG-compressed data.
  • the image file having the obtained image data is stored (recorded) in the primary memory 134 . After that, the digital camera 100a transitions to step S12.
  • step S14 if the play mode is determined in step S14, the process proceeds to step S50 shown in FIG.
  • step S ⁇ b>50 the digital camera 100 a transmits a mode change instruction to the reproduction mode to the server 200 via the first communication unit 124 . Needless to say, transmission of continuous data from the digital camera 100a is stopped.
  • the server 200 when the server 200 receives a mode change instruction to the playback mode, it transmits a list of thumbnail images to the digital camera 100a that transmitted the mode change instruction. It is received via the first communication unit 124 (step S52).
  • the digital camera 100a Upon receiving the list of thumbnail images from the server 200, the digital camera 100a displays the received list of thumbnail images on the LCD 118 (step S54).
  • the user can operate the operation unit 114 to select a desired thumbnail image as a reproduced image while viewing the list of thumbnail images displayed on the LCD 118 .
  • the digital camera 100a determines whether or not an instruction input for selecting a reproduced image by user operation on the operation unit 114 has been received (step S56).
  • step S56 the digital camera 100a sends a playback request for the image corresponding to the selected thumbnail image (reproduction request accompanied by the image file name) to the first communication unit. 124 to the server 200 (step S58).
  • the server 200 receives a reproduction request with an image file name from the digital camera 100a
  • the server 200 reads a reproduced image corresponding to the image file name from the image recording section 260 and transmits it to the digital camera 100a.
  • the digital camera 100a receives the reproduced image corresponding to the reproduction request from the server 200 via the first communication unit 124 (step S60).
  • the digital camera 100a displays the reproduced image received from the server 200 on the LCD 118 (step S62), and transitions to step S12 in FIG.
  • the digital camera 100a can cause the LCD 118 to display a playback image corresponding to the playback request. Also, the digital camera 100a can display a reproduced image on an external display (not shown) connected via an interface.
  • step S102 when the network is connected between the server 200 and the digital camera 100a (step S102), the digital camera 100a transmits terminal information indicating the digital camera 100a to the server 200 when communication with the server 200 is started. , the server 200 receives the terminal information of the digital camera 100a via the second communication unit 202 and acquires the terminal information (step S102).
  • the server 200 determines whether the operation mode of the network-connected digital camera 100a is the shooting mode or the playback mode (step S104). If the shooting mode is determined, the process proceeds to step S106, and if the playback mode is determined, the process proceeds to step S120.
  • step S106 RAW data of a predetermined frame rate is received as continuous data from the digital camera 100a.
  • the second image processing engine 210 of the server 200 performs image processing such as RAW development processing on the RAW data of a predetermined frame rate to generate a live view image (step S108).
  • the server 200 transmits the live view image generated by the second image processing engine 210 to the digital camera 100a via the second communication unit 202 (step S110).
  • the server 200 determines whether or not a shutter release signal has been received from the digital camera 100a (step S112).
  • the second image processing engine 210 image-processes the RAW data corresponding to the shutter release signal (shooting instruction information) among the continuous RAW data, An image (still image) is generated (step S144).
  • the second image processing engine 210 When performing image processing including RAW development processing on the RAW data, the second image processing engine 210 performs RAW development on the RAW data captured by the digital camera 100a based on the terminal information acquired in step S102. Necessary information (color filter array, number of pixels, pixel defect information, and other parameters of the image sensor 104) is acquired from the server of the manufacturer of the digital camera 100a, or acquired in advance from the server of the manufacturer and stored in the recording unit. The corresponding information is read and used from among the information obtained.
  • Necessary information color filter array, number of pixels, pixel defect information, and other parameters of the image sensor 104
  • the second processor 250 records the image for recording generated by the second image processing engine 210 in the image recording unit 260 (step S116).
  • the server 200 determines whether or not the network connection with the digital camera 100a has ended (step S118). If not, the processing of the server 200 for the digital camera 100a ends.
  • the server 200 displays a list of thumbnail images of images captured by the digital camera 100a and recorded in the image recording unit 260.
  • a list of thumbnail images is generated and transmitted to the digital camera 100a (step S120).
  • the server 200 identifies an image folder corresponding to the digital camera 100a in the image recording unit 260 based on the terminal information acquired in step S102, and based on the image files saved in the identified image folder, the digital camera 100a. can create a list of thumbnail images corresponding to
  • the server 200 determines whether or not a reproduction request (reproduction request with an image file name) has been received from the digital camera 100a (step S122). is read from the image recording unit 260, and the read reproduced image is transmitted to the digital camera 100a (step S124).
  • the operation unit is mainly a GUI including a screen of the smartphone 100b, a touch panel on the screen, and a GUI (Graphical User Interface) controller. You can do this by touching
  • AF control and AE control in the imaging terminal are performed by the imaging terminal alone.
  • Control information may be generated and the generated control information may be transmitted to the imaging terminal to cause the imaging terminal to perform AF control and AE control.
  • the server is not limited to a single physical server. Separate servers may perform processing according to the processing content of the server, and multiple servers may cooperate to perform the same processing content.
  • the first processor 110 The hardware structure of a processing unit that executes various processes such as the first image processing engine 122, the second processor 250 of the server 200, and the second image processing engine 210 includes various processor.
  • the circuit configuration can be changed after manufacturing, such as CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software (program) and functions as various processing units.
  • Programmable Logic Device PLD
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (eg, multiple FPGAs, or combinations of CPUs and FPGAs).
  • a plurality of processing units may be configured by one processor.
  • a processor functions as multiple processing units.
  • SoC System On Chip
  • SoC System On Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.
  • Imaging system 100 imaging terminal 100-1 imaging terminal 100-2 imaging terminal 100-3 imaging terminal 100-4 imaging terminal 100a digital camera 100b smartphone 101 imaging unit 102 imaging lens 104 image sensor 108 sensor driver 110 first processor 112 memory 114 Operation unit 115 Shutter button 116 Display control unit 118 LCD 122 First image processing engine 124 First communication unit 130 First image processing engine 132 Front-end LSI 134 primary memory 140 first image processing engine 142 memory controller 144 primary memory 146 live view engine 150 first image processing engine 152 front end LSI 154 primary memory 200 server 202 second communication unit 210 second image processing engine 220 primary image processing circuit 221 offset processing circuit 222 pixel defect correction circuit 223 color tone correction circuit 224 individual difference correction circuit 230 secondary image processing circuit 231 WB correction Circuit 232 Gamma correction circuit 233 Demosaic processing circuit 234 YC conversion circuit 235 Contour enhancement circuit 236 Color difference matrix circuit 237 Compression circuit 239 Front end LSI 240 Primary memory 250 Second processor 260 Image recording unit 300 Network 310 Wireless access points S10 to S36

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

撮像端末の低コスト化及び高機能化が可能な撮像システム、撮像端末及びサーバを提供する。撮像端末(100-1)とサーバ(200)とから構成され、撮像端末(100-1)は、イメージセンサを含み、撮像データを出力する撮像部と、撮像部から出力される撮像データをサーバ(200)に送信する第1通信部と、撮像部から出力される撮像データを画像処理する第1画像処理エンジン(122)と、第1画像処理エンジン(122)により画像処理された画像を保存するメモリと、を備え、サーバ(200)は、撮像端末(100-1)から送信された撮像データを受信する第2通信部と、受信した撮像データを画像処理し、記録用の画像を生成する第2画像処理エンジン(210)であって、撮像端末(100-1)の第1画像処理エンジン(122)と異なる第2画像処理エンジン(210)と、を備える撮像システムである。

Description

撮像システム、撮像端末及びサーバ
 本発明は撮像システム、撮像端末及びサーバに係り、特に撮像端末により撮像して取得した未処理のデータをネットワーク上のサーバで画像処理する技術に関する。
 特許文献1に記載のデジタルカメラシステムは、デジタルカメラ(デジタルカメラ一体型携帯電話)と、デジタルカメラとインターネットを通じて通信するサーバセンタとから構成されている。
 デジタルカメラは、撮像部と、シャッタレリーズ手段に応答して撮像部から出力されるRAWデータを記憶する一時記憶部と、一時記憶部のRAWデータを圧縮することなく無線送信する通信手段とを持ち、サーバセンタは、RAWデータを受信する通信手段と、受信したRAWデータを圧縮する圧縮手段と、圧縮された圧縮信号を記憶する記憶手段とを持つ。また、サーバセンタは、受信したRAWデータを補間して色別のデジタル画像信号を作成する補間手段、及びホワイトバランス調整手段を有している。
 このデジタルカメラシステムにより、RAWデータに対する画像処理等をサーバセンタが担うことで、高性能のデジタルカメラを低コストで提供できるようにしている。
 一方、特許文献1に記載のデジタルカメラシステムは、RAWデータに対する画像処理を常にサーバセンタで行うため、カメラの使い勝手が悪くなるという課題がある。
 特許文献2には、上記の課題を解決する電子機器が提案されている。
 特許文献2に記載の電子機器は、撮像部が撮像した撮像信号を処理する処理部と、撮像部が撮像した撮像信号(RAWデータ)をサーバに送信可能な通信部と、撮像部の撮像の設定に応じて、RAWデータをサーバに送信するかどうかを決定する決定部と、を備える。
 決定部は、サーバとの間で無線通信が不能であり、かつ撮像素子の温度が規定値以下の場合には、RAWデータをサーバに送信せず、サーバとの間で無線通信が可能であり、動画を電子機器内の記録媒体に記録させる場合、あるいは撮像素子の温度が規定値を超える場合には、RAWデータをサーバに送信する決定を行う。
 電子機器内の第1ASIC(application specific integrated circuit)は、サーバにRAWデータを送信しない場合、RAWデータに対して各種の画像処理を行う。一方、サーバは、電子機器からRAWデータを受信すると、受信したRAWデータに対してサーバの第2ASICにより画像処理を行い、記録用の動画(ライブビュー用の画像を兼ねる)を生成する。
 即ち、特許文献2に記載の電子機器は、サーバとの通信状況、撮像素子の発熱状態等によりRAWデータをサーバに送信するかどうかを決定し、その決定に応じてRAWデータに対する画像処理を、機器内の第1ASICにより行い、又はサーバの第2ASICにより行わせる。尚、サーバの第2ASICは、電子機器の第1ASICと同等のものが使用される。
特開2003-87618号公報 特開2019-54536号公報
 本開示の技術に係る一つの実施形態は、撮像端末の低コスト化及び高機能化が可能な撮像システム、撮像端末及びサーバを提供する。
 第1態様に係る発明は、少なくとも1つ以上の撮像端末とサーバとから構成される撮像システムであって、撮像端末は、イメージセンサを含み、撮像データを出力する撮像部と、撮像部から出力される撮像データを、サーバに送信する第1通信部と、撮像部から出力される撮像データを画像処理する第1画像処理エンジンと、第1画像処理エンジンにより画像処理された画像を保存するメモリと、を備え、サーバは、撮像端末の第1通信部から送信された撮像データを受信する第2通信部と、受信した撮像データを画像処理し、記録用の画像を生成する第2画像処理エンジンであって、撮像端末の第1画像処理エンジンと異なる第2画像処理エンジンと、を備える撮像システムである。
 本発明の第2態様に係る撮像システムにおいて、第2画像処理エンジンは、連続して受信した撮像データに基づいてライブビュー画像を生成することが好ましい。
 本発明の第3態様に係る撮像システムにおいて、サーバは、第2画像処理エンジンにより生成された記録用の画像を画像記録部に記録することが好ましい。
 本発明の第4態様に係る撮像システムにおいて、第2画像処理エンジンは、第1画像処理エンジンの技術的スペックを上回る技術的スペックを有することが好ましい。
 本発明の第5態様に係る撮像システムにおいて、第1画像処理エンジンと第2画像処理エンジンとは画像処理性能が異なることが好ましい。
 本発明の第6態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して画像処理の実施が可能なピクセル当たりの情報量が少ないことが好ましい。
 本発明の第7態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して諧調のビット数または処理ビット数が異なることが好ましい。
 本発明の第8態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して画像処理の実施が可能な機能のうちの一部の機能のみを有することが好ましい。
 本発明の第9態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して画像処理の実施が可能な画像のピクセル数が少ないことが好ましい。
 本発明の第10態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して熱設計電力の小さい演算素子を有することが好ましい。
 本発明の第11態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対してトランジスタ数が少ない演算素子を有することが好ましい。
 本発明の第12態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対してプロセッサコアの数が少ないことが好ましい。
 本発明の第13態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して動作クロック周波数が低い演算素子を有することが好ましい。
 本発明の第14態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して定格動作電流値が低い演算素子を有することが好ましい。
 本発明の第15態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対してキャッシュメモリ容量が小さいことが好ましい。
 本発明の第16態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して実行可能な命令数が少ない構成であることが好ましい。
 本発明の第17態様に係る撮像システムにおいて、第1画像処理エンジンは、第2画像処理エンジンに対して演算命令実行のための演算ユニット数が少ない構成であることが好ましい。
 本発明の第18態様に係る撮像システムにおいて、第1画像処理エンジンは内蔵グラフィックス機能を有し、第2画像処理エンジンは拡張グラフィックス機能を有することが好ましい。
 本発明の第19態様に係る撮像システムにおいて、撮像端末は、ユーザ操作による静止画の撮影指示を受け付けると、撮影指示情報を第1通信部からサーバに送信し、第2画像処理エンジンは、第2通信部を介して撮影指示情報を受信すると、連続する撮像データのうちの撮影指示情報に対応する撮像データを画像処理し、記録用の静止画を生成することが好ましい。
 本発明の第20態様に係る撮像システムにおいて、撮像端末は、ユーザ操作による動画の記録指示又は記録終了指示を受け付けると、記録指示情報又は記録終了指示情報を第1通信部からサーバに送信し、第2画像処理エンジンは、第2通信部を介して記録指示情報又は記録終了指示情報を受信すると、連続する撮像データのうちの記録指示情報を受信してから記録終了指示情報を受信するまでの撮像データを画像処理し、記録用の動画を生成することが好ましい。
 本発明の第21態様に係る撮像システムにおいて、撮像端末は、サーバとの通信開始時に撮像端末を示す端末情報をサーバに送信し、サーバは、端末情報を受信すると、受信した端末情報に対応するRAW現像情報を取得し、第2画像処理エンジンは、取得したRAW現像情報に基づいて撮像データをRAW現像する画像処理を行うことが好ましい。
 本発明の第22態様に係る撮像システムにおいて、サーバは、第2画像処理エンジンにより生成されたライブビュー画像を、第2通信部を介して撮像端末に送信し、撮像端末は、サーバから第1通信部を介してライブビュー画像を受信すると、撮像端末のディスプレイにライブビュー画像を表示させることが好ましい。
 本発明の第23態様に係る撮像システムにおいて、第1画像処理エンジンは、撮像端末とサーバとの間の通信が不能な期間に動作することが好ましい。
 本発明の第24態様に係る撮像システムにおいて、第1画像処理エンジンは、撮像端末とサーバとの間の通信が不能な期間に、イメージセンサから連続して出力される撮像データに基づいてライブビュー画像を生成し、撮像端末は、撮像端末とサーバとの間の通信が不能な期間に、第1画像処理エンジンにより生成されたライブビュー画像をディスプレイに表示させることが好ましい。
 本発明の第25態様に係る撮像システムにおいて、撮像端末は、サーバと通信し、画像記録部に記録された画像のうちのユーザ操作により指定した画像をサーバから受信し、受信した画像をディスプレイに表示させ、又はメモリに保存することが好ましい。
 第26態様に係る発明は、少なくとも1つ以上の撮像端末とサーバとから構成される撮像システムであって、撮像端末は、イメージセンサを含み、撮像データを出力する撮像部と、撮像部から出力される撮像データを、サーバに送信する第1通信部と、を備え、サーバは、撮像端末の第1通信部から送信された撮像データを受信する第2通信部と、受信した撮像データを画像処理し、記録用の画像を生成する画像処理エンジンと、を備え、撮像データのイメージセンサの1画素に対応するデータは、アナログ-デジタル変換回路で変換された最大のビット数の階調を有し、画像処理エンジンは、連続して受信した撮像データに基づいてライブビュー画像を生成し、サーバは、生成されたライブビュー画像を、第2通信部を介して撮像端末に送信し、撮像端末は、サーバから第1通信部を介してライブビュー画像を受信すると、撮像端末のディスプレイにライブビュー画像を表示させる、撮像システムである。
 第27態様に係る発明は、第1態様から第25態様のいずれかに記載の撮像システムを構成する撮像端末である。
 第28態様に係る発明は、第1態様から第25態様のいずれかに記載の撮像システムを構成するサーバである。
図1は、本発明に係る撮像システムのシステム構成を示す図である。 図2は、撮像システムを構成する撮像端末の実施形態を示すブロック図である。 図3は、撮像システムを構成するサーバの実施形態を示すブロック図である。 図4は、フロントエンドLSIの1次画像処理回路の実施形態を示すブロック図である。 図5は、フロントエンドLSIの2次画像処理回路の実施形態を示すブロック図である。 図6は、本発明に係る撮像システムの第1実施形態を示す概略図である。 図7は、本発明に係る撮像システムの第2実施形態を示す概略図であり、撮像端末とサーバとの間の通信が正常な場合の図である。 図8は、本発明に係る撮像システムの第2実施形態を示す概略図であり、撮像端末とサーバとの間の通信が不能な場合の図である。 図9は、本発明に係る撮像システムの第3実施形態を示す概略図である。 図10は、本発明に係る撮像システムの第4実施形態を示す概略図である。 図11は、撮像システムにおける撮像端末の動作を示すフローチャートであり、撮影モード時の動作を示すフローチャートである。 図12は、撮像システムにおける撮像端末の動作を示すフローチャートであり、再生モード時の動作を示すフローチャートである。 図13は、撮像システムにおけるサーバの動作を示すフローチャートである。
 以下、添付図面に従って本発明に係る撮像システム、撮像端末及びサーバの好ましい実施形態について説明する。
 [撮像システムの概要]
 図1は、本発明に係る撮像システムのシステム構成を示す図である。
 図1に示すように撮像システム1は、少なくとも1つ以上の撮像端末100とサーバ200とから構成される。
 撮像端末100は、通信機能付きのデジタルカメラ100a、カメラ内蔵のスマートフォン100b、その他の各種カメラ付きガジェット(ドローン、屋上固定カメラ等)である。
 撮像端末100は、起動中は無線アクセスポイント310及びネットワーク300を介してサーバ200と常時接続され、撮影時には撮像部から連続して出力される撮像データをサーバ200に送信し、再生時にはサーバ200に保存された画像のうちのユーザ所望の画像(再生画像)を受信し、再生画像をLCD(Liquid Crystal Display)に表示させる。尚、撮像部から出力される撮像データは、画像処理前のデータであり、以下、「RAWデータ」という。
 また、撮像端末100は、撮影時には連続するRAWデータから生成されたライブビュー画像をサーバ200から受信し、受信したライブビュー画像を、EVF(Electronic View Finder)又はLCDに表示させる。
 更に、撮像端末100は、サーバ200との間で通信が不能や困難な場合(通信が不安定な場合を含む)に備えて、オフラインでも撮影を可能にする画像処理エンジン(第1画像処理エンジン)を備えている。
 撮像端末100およびサーバ200との間で通信が不能や困難な場合を識別する方法としては、電波強度などの通信環境の検出、データ送受信エラーチエック等の通信状況の確認でも、ユーザによる通信困難と判断した入力操作を検出する方法のいずれであっても、またはその組み合わせであってもかまわない。
 また、画像処理には欠陥補正や画素ごとの感度誤差の補正など撮像素子固有の特性補正のようにRAW現像時の前段階として行われる1次画像処理と、RAW現像時またはRAW現像後に行われる2次画像処理に分けることができるが、本願の実施例の1つによれば、通常の動作状態においては、撮像システム1の撮像端末100によってネットワーク300に送信される撮像データは「1次画像処理が全く行われていない無加工のイメージセンサの出力データ」または「1次画像処理の1部が行われていないデータ」の状態で送信される。これにより、ネットワーク上のサーバ200の画像処理エンジン(第2画像処理エンジン)が利用可能な状態では、より機能や性能の高い1次画像処理をネットワーク上の第2画像処理エンジンで行い、処理速度を上げることで連写速度を高めたり、より複雑で高精度な画像処理を施すことによって画質の向上を図るなど、ネットワーク上の第2画像処理エンジンの優位性を生かすことが出来る。
 1次画像処理として行われる画像処理の内容は、欠陥補正や画素ごとの感度誤差の補正などのほかに、色や明るさを画素ごと、またはエリアごとに処理して好ましい画質を得ようとするチューニング処理が行われているが、詳細の処理の内容はノウハウとしてメーカによって公表されていないものも含まれる。ここでは、RAW現像前にデジタルデータに画質向上の処理を行っているもの全般を指す。
 サーバ200は、撮像端末100の第1画像処理エンジンとは異なる第2画像処理エンジン及び画像記録部を備え、ネットワーク300及び無線アクセスポイント310を介して1乃至複数の撮像端末100との間で双方向通信を行い、必要なデータのやり取りを行う。
 サーバ200は、撮像端末100から連続するRAWデータを受信し、連続するRAWデータからライブビュー画像や記録用の画像を第2画像処理エンジンにより生成し、生成したライブビュー画像を撮像端末100に送信し、記録用の画像をサーバ200の画像記録部に保存する。尚、画像記録部は、第2画像処理エンジンを有するサーバ200とは、物理的に異なるサーバ(例えば、データサーバ)が備えていてもよい。
 本例のRAWデータとは、RAWファイルフォーマットの静止画データに限定するものではなく、RAW現像前の撮像データのことである。したがって、「連続するRAWデータ」とは、RAWファイルフォーマットに収められたデータを連続的に送信するものでも実現可能だが、より広く、イメージセンサからの連続出力データを指す。したがって、静止画単位にファイル形式化されていないストリーミングデータやA/D(Analog-to-Digital)変換されたデータ列を含み「連続するRAWデータ」と表現している。
 連続データとして送信された「連続するRAWデータ」は、最も代表的な実施例によれば、静止画単位にファイル形式化されていないデータ列として第2画像処理エンジンに入力され、第1画像処理エンジンによって画像処理とRAW現像が行われ、ライブビュー表示用の動画データフォーマットに変換されたのちにライブビュー出力として送信される。また、記録用には事前にユーザが設定したファイルフォーマット形式に第2画像処理エンジンによって変換されたのち静止画や動画ファイルとして出力される。
 連続データは、例えば、16ビットの動画RAWデータのように1次画像処理を行わずに、ビットレートのみ変換された連続データであってもよい。
 また、サーバ200は、撮像端末100からの要求に応じて画像記録部に保存した画像を再生画像として撮像端末100に送信する。
 このようにサーバ200の第2画像処理エンジンにより撮像端末100のイメージセンサ出力を画像処理することで、撮像端末100の小型化・軽量化・ローコスト化につながるだけでなく、消費電力も減り、長時間使用が可能になる、開発も容易になり撮像端末100のバリエーションを展開しやすくなる、撮像端末100を買い替えなくとも第2画像処理エンジンに対して最新のアップデートを反映させることができる(機械学習によりこれを行ないこともできる)、第2画像処理エンジンの入力(RAWデータ)と出力の関係をネットワーク上で取得でき、より良い画像処理エンジンの開発のための膨大な開発データ(機械学習に用いる学習データを含む)が得られる、ネットワーク上の画像処理エンジンをタイムシェアすることで無駄をなくし、低価格で高機能な画像処理エンジンの利用が可能になる、画像処理エンジンの周辺回路(特に使用頻度が低い連写用メモリなど)を共有できるので、効率の良いシェアリングを行えば事実上連写枚数の制限がなくなる、、、など多くのメリットが期待できる。
 <撮像端末>
 図2は、撮像システムを構成する撮像端末の実施形態を示すブロック図である。
 図2に示す撮像端末は、通信機能付きのデジタルカメラ100aである。
 図2に示すようにデジタルカメラ100aは、撮像部101、センサドライバ108、第1プロセッサ110、メモリ112、操作部114、表示制御部116、LCD118、EVF120、第1画像処理エンジン122、及び第1通信部124を備える。
 撮像部101は、撮影レンズ102、イメージセンサ104、及びAFE(Analog Front End)106を有する。
 撮影レンズ102は、カメラ本体と一体化されたレンズでもよいし、カメラ本体に対して着脱自在な交換レンズでもよい。
 イメージセンサ104は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成することができる。尚、イメージセンサ104は、CMOS型に限らず、CCD(Charge Coupled Device)型のイメージセンサでもよい。
 イメージセンサ104は、x方向(水平方向)及びy方向(垂直方向)に二次元的に配列された光電変換素子(フォトダイオード)で構成される複数の画素上に、赤(R)、緑(G)及び青(B)のカラーフィルタが、周期的な配列(例えば、ベイヤ配列、X-Trans(登録商標)等)で配設され、各フォトダイオード上にはマイクロレンズが配置されている。
 撮影レンズ102によってイメージセンサ104の受光面に結像された被写体の光学像は、イメージセンサ104によって電気信号に変換される。イメージセンサ104の各画素には、入射する光量に応じた電荷が蓄積され、イメージセンサ104からは各画素に蓄積された電荷量(信号電荷)に応じた電気信号が画像信号として読み出される。
 AFE106は、イメージセンサ104から出力されるアナログの画像信号に対して各種のアナログ信号処理を施す。AFE106は、相関二重サンプリング回路、AGC(Automatic Gain Control)回路、アナログ-デジタル変換回路(A/D変換回路)(いずれも図示省略)を含む。相関二重サンプリング回路は、イメージセンサ104からのアナログ信号に対して相関二重サンプリング処理を施し、信号電荷のリセットに起因するノイズを除去する。AGC回路は、相関二重サンプリング回路によりノイズが除去されたアナログ信号を増幅し、アナログ信号の信号レベルが適切な範囲に入るようにする。A/D変換回路は、AGC回路でゲイン調整された画像信号をデジタル信号に変換する。
 イメージセンサ104から読み出され、AFE106から出力されるデジタル信号は、イメージセンサ104のカラーフィルタ配列に対応するB、G、Rの画素のデータ(B、G、Rデータ)であり、以下、「RAWデータ」という。RAWデータは、B、G、Rデータが、カラーフィルタ配列に対応して並んでいる点順次のモザイク画像データである。
 尚、イメージセンサ104がCMOS型イメージセンサである場合、AFE106は、イメージセンサ104内に内蔵されていることが多い。
 また、本明細書では、AFE106によるアナログ信号処理は、画像処理とは言わず、A/D変換回路によりデジタル信号に変換されたのちのデジタル信号に対する信号処理を画像処理と定義する。したがって、イメージセンサ104(AFE106)から出力されるRAWデータは、画像処理前のデータである。
 センサドライバ108は、第1プロセッサ110の指令にしたがってイメージセンサ104から画像信号の読み出し制御を行う。また、センサドライバ108は、第1プロセッサ110からの電子シャッタ制御信号により、イメージセンサ104の各画素に蓄積にされた電荷を排出させて(リセットして)、露光を開始させる電子シャッタ機能を有する。
 第1プロセッサ110は、CPU(Central Processing Unit)等から構成され、操作部114を使用したユーザ操作にしたがって各部を統括制御するとともに、各種の処理を行う。
 また、第1プロセッサ110は、AF(Auto Focus)制御、及びAE(Automatic Exposure)制御を行う。
 AF制御を行う場合、第1プロセッサ110は、デジタルの画像信号に基づいてAF制御に必要な数値を算出する。いわゆるコントラストAFの場合、例えば、所定のAFエリア内におけるGデータの高周波成分の積算値(焦点評価値)を算出する。第1プロセッサ110は、AF制御時に焦点評価値が最大となる位置(即ち、コントラストが最大になる位置)に撮影レンズ102に含まれるフォーカスレンズを移動させる。尚、AFは、コントラストAFには限定されず、例えば、イメージセンサ104が位相差検出用画素を含む場合、位相差検出用画素の画素データに基づいてデフォーカス量を検出し、このデフォーカス量がゼロになるようにフォーカスレンズを移動させる位相差AFを行うものでもよい。
 AE制御を行う場合、第1プロセッサ110は、被写体の明るさ(被写体輝度)を検出し、被写体輝度に対応するAE制御に必要な数値(露出値(EV値(exposure value)))を算出する。第1プロセッサ110は、算出したEV値に基づいて所定のプログラム線図からF値、シャッタスピード及びISO感度を決定し、AE制御を行うことができる。
 尚、AF制御及びAE制御は、それぞれ操作部114によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。
 メモリ112は、フラッシュメモリ、ROM(Read-only Memory)、RAM(Random Access Memory)等を含む。フラッシュメモリ及びROMは、ファームウエアを含む各種のプログラム、パラメータ等を記憶する不揮発性メモリである。
 RAMは、第1プロセッサ110による処理の作業領域として機能し、また、不揮発性メモリに格納されたファームウエア等を一時的に記憶する。尚、第1プロセッサ110が、メモリ112の一部(RAM)を内蔵していてもよい。
 操作部114は、電源スイッチ、シャッタボタン、MENU/OKキー、十字キー、再生ボタン等を含む。
 LCD118は、カメラ本体の背面に設けられ、撮影モード時にライブビュー画像を表示し、再生モード時に撮影済みの画像を再生表示する他、各種のメニュー画面を表示するディスプレイとして機能する。EVF120もLCD118と同様の表示を行うことができる。尚、撮影モード時に、EVF120に目を近づけると、アイセンサ(図示せず)の働きにより、自動的にEVF120の表示に切り替わり,目を離すとLCD118の表示に切り替わる。
 操作部114におけるMENU/OKキーは、LCD118の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。
 十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタンとして機能する。また、十字キーの上キー及び下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左キー及び右キーは再生モード時のコマ送り(順方向及び逆方向送り)ボタンとして機能する。再生ボタンは、撮影記録された画像をLCD118に表示させる再生モードに切り替えるためのボタンである。
 第1画像処理エンジン122は、サーバ200との通信が不能な場合に動作する。第1画像処理エンジン122は、撮像部101から連続して読み出されるRAWデータをRAW現像処理等の画像処理を行い、ライブビュー画像及び記録用の画像を生成する。尚、第1画像処理エンジン122の詳細については後述する。また、第1画像処理エンジン122に代えて、又は第1画像処理エンジン122の画像処理機能の一部を、第1プロセッサ110が行うようにしてもよい。
 ここで、撮像部101(イメージセンサ104)から読み出されるRAWデータは、設定されたフレームレート(例えば、30fps,60fps等)で連続して読み出される連続データである。尚、RAWデータにおけるB、G、Rデータは、それぞれAFE106内のA/D変換回路の最大のビット数(本例では、14ビット)に応じた階調を有するデータである。
 第1通信部124は、デジタルカメラ100aの起動中は無線アクセスポイント310及びネットワーク300を介してサーバ200と常時接続され、サーバ200との間で双方向通信を行う。第1通信部124は、撮影時には画像処理前の撮像データ(RAWデータ)を、フレームが連続する連続データの形式でサーバ200に送信するとともに、サーバ200によりRAW現像処理等の画像処理により生成された、連続データ(フレームが連続するRAWデータ)に対応するライブビュー画像を受信する。また、第1通信部124は、再生時にはユーザ操作により指定された再生する画像に関する情報を送信し、サーバ200からユーザ操作により指定した画像を受信する。尚、第1通信部124は、シャッタレリーズ信号(撮影指示情報)、デジタルカメラ100aを示す端末情報等をサーバ200に送信するが、その詳細につては後述する。また、第1通信部124は、同時に送受信できる全二重無線通信が好ましいが、2以上の無線回線を使用して同時に送受信できるものでもよい。また、第1通信部124は、送信部と受信部とが別の構成(例えば上りは光、下りは電波など)でもよい。
 <サーバ>
 図3は、撮像システムを構成するサーバの実施形態を示すブロック図である。
 図3に示すサーバ200は、ネットワーク300及び無線アクセスポイント310を介して1乃至複数の撮像端末100との間で双方向通信を行い、撮像端末100に対する画像処理及び画像記録等の機能を担う。
 図3に示すサーバ200は、第2通信部202、第2画像処理エンジン210、第2プロセッサ250、及び画像記録部260を備える。
 第2通信部202は、ネットワーク300及び無線アクセスポイント310を介して撮像端末100との間で双方向通信を行い、撮像端末100から連続データを受信し、第2画像処理エンジン210により生成された連続データに対応するライブビュー画像を撮像端末100に送信する。また、第2通信部202は、撮像端末100での再生時に、ユーザ操作により指定された再生する画像に関する情報を受信し、その情報に対応する画像を撮像端末100に送信する。その他、第2通信部202は、撮像端末100からシャッタレリーズ信号、撮像端末100を示す端末情報等を受信する。本例では、通信先の撮像端末100は、通信機能付きのデジタルカメラ100aであるが、複数の撮像端末100とタイムラグがなく通信できるように、第2通信部202は複数設けられていることが好ましい。
 第2画像処理エンジン210は、撮像端末100の第1画像処理エンジン(本例では、通信機能付きのデジタルカメラ100aの第1画像処理エンジン122)とは異なる種類の画像処理エンジンであり、第1画像処理エンジン122の技術的スペックを上回る技術的スペックを有する。
 逆に、第1画像処理エンジン122の技術的スペックは、第2画像処理エンジン210の技術的スペックよりも低い。
 具体的には、第1画像処理エンジン122と第2画像処理エンジン210とを比較すると、以下に示す画像処理性能のうちの少なくとも1つ以上が異なる。
 (1)第1画像処理エンジン122は、第2画像処理エンジン210に対して画像処理の実施が可能なピクセル当たりの情報量が少ない。
 (2)第1画像処理エンジン122は、第2画像処理エンジン210に対して諧調のビット数または処理ビット数が異なる。例えば、第1画像処理エンジン122により処理されるデータの階調のビット数は8ビットとし、第2画像処理エンジン210により処理されるデータの階調のビット数は14ビットとすることができる。また、第1画像処理エンジン122による画像処理は、8ビットの階調を有するデータに対する画像処理とし、第1画像処理エンジン122による画像処理は、14ビットの階調を有するデータに対する画像処理を含むものとすることができる。
 (3)第1画像処理エンジン122は、第2画像処理エンジン210に対して画像処理の実施が可能な機能のうちの一部の機能のみを有する。例えば、画像の圧縮処理機能等は設けられていない。
 (4)第1画像処理エンジン122は、第2画像処理エンジン210に対して画像処理の実施が可能な画像のピクセル数が少ない。
 (5)第1画像処理エンジン122は、第2画像処理エンジン210に対して熱設計電力の小さい演算素子を有する。即ち、第1画像処理エンジン122は、第2画像処理エンジン210よりも消費電力が小さく、発熱量も少ない。
 (6)第1画像処理エンジン122は、第2画像処理エンジン210に対してトランジスタ数が少ない演算素子を有する。
 (7)第1画像処理エンジン122は、第2画像処理エンジン210に対してプロセッサコアの数が少ない。
 (8)第1画像処理エンジン122は、第2画像処理エンジン210に対して動作クロック周波数が低い演算素子を有する。
 (9)第1画像処理エンジン122は、第2画像処理エンジン210に対して定格動作電流値が低い演算素子を有する。
 (10)第1画像処理エンジン122は、第2画像処理エンジン210に対してキャッシュメモリ容量が小さい。
 (11)第1画像処理エンジン122は、第2画像処理エンジン210に対して実行可能な命令数が少ない構成である。
 (12)第1画像処理エンジン122は、第2画像処理エンジン210に対して演算命令実行のための演算ユニット数が少ない構成である。
 (13)第1画像処理エンジン122は内蔵グラフィックス機能を有し、第2画像処理エンジンは拡張グラフィックス機能を有する。
 技術的スペックの違いとしては、画像処理性能以外にも、プログラマブル領域が広く、内部処理のフレキシビリティが異なるもの、(画像処理性能自体の優劣とは異なる)や、アーキテクチャー、回路規模は同等でもプロセスルールが異なるもの、また、それにより消費電力が異なるもの、温度検知のセンシング機能など、熱対策の機能・性能が異なるもの、チップサイズが異なるり省スペースなもの等があるが、これに限定するものではない。
 さて、本例の第2画像処理エンジン210は、フロントエンドLSI(Large-Scale Integration:大規模集積回路)239と、その内部メモリである1次メモリ240とを備え、フロントエンドLSI239は、1次画像処理回路220及び2次画像処理回路230を含む。
 フロントエンドLSI239の1次画像処理回路220は、撮像端末100から送信され、第2通信部202が受信したRAWデータの連続データを入力し、順次入力する各フレームのRAWデータに対して1次画像処理を実施し、RAWデータ記録に使用可能なRAWデータを生成して2次画像処理回路230及び1次メモリ240に出力する。
 図4は、フロントエンドLSIの1次画像処理回路の実施形態を示すブロック図である。
 図4に示す1次画像処理回路220は、オフセット処理回路221、画素欠陥補正回路222、色調補正回路223、及び個体差補正回路224を備える。
 第2通信部202が受信したRAWデータは、1次画像処理回路220のオフセット処理回路221に加えられる。このRAWデータにおけるB、G、Rデータは、それぞれ14ビットの階調値を有するデータである。
 オフセット処理回路221は、入力するRAWデータに対してオフセット処理を施す。オフセット処理回路221は、イメージセンサ104のセンサ出力の暗電流成分を補正する処理部であり、イメージセンサ104の遮光された複数の画素(オプティカルブラック画素)に対応する画素データの平均値を算出し、算出した平均値を入力するRAWデータから減算する演算を行う。オフセット処理されたRAWデータは、画素欠陥補正回路222に出力される。
 画素欠陥補正回路222は、イメージセンサ104の固有の画素欠陥(キズ)の補正を行う補正回路である。
 サーバ200は、撮像端末100の端末情報(例えば、製品名+シリアル番号)に応じて、各種の補正情報及びRAW現像に必要な情報(RAW現像情報)をメモリ(図示せず)に記憶しており、撮像端末100との通信開始時に撮像端末100から端末情報を受信することで、その撮像端末100に対応する補正情報及びRAW現像情報をメモリから読み出して使用することができる。尚、撮像端末100毎の補正情報及びRAW現像情報は、予め撮像端末100から取得し、又は撮像端末100のメーカのサーバから端末情報に基づいてダウンロードし、メモリに記憶させることができる。また、RAW現像情報には、イメージセンサのカラーフィルタ配列、画素数、有効画素領域等の情報を含む。
 画素欠陥補正回路222は、撮像端末100の端末情報に基づいて、イメージセンサ104の欠陥画素の情報(欠陥画素の位置情報)を取得し、欠陥画素に対応するR、G又はBデータを入力すると、その欠陥画素の位置近傍の同じ色の画素データを補間演算し、この補間演算した画素データを欠陥画素に対応するデータに代えて出力する。尚、イメージセンサ104が位相差検出用画素を含む場合には、その位相差検出用画素の位置のデータも同様にして補間演算し、位相差検出用画素のデータに代えて出力する。
 色調補正回路223は、イメージセンサ104のB、G、Rの出力データの分光特性を補正する色補正を行うもので、入力するR、G、Bデータの3入力と、B、G、Rの3出力のマトリクス演算を行う。3×3の行列のマトリクス係数を与えると、入力するR、G、Bデータの3色のデータから色調補正したB、G、Rの3色のデータを求めることができる。この際に、撮像端末100の端末識別情報に対応する、色再現性を高めるマトリクス係数を用いてリニアマトリクス変換を施す。
 個体差補正回路224は、イメージセンサ104の個体差に応じた補正を行う部分である。同じ製品である撮像端末100の場合、基準となる撮像端末と同じ色再現や画質にするため、イメージセンサ104の個体毎の分光感度特性に応じた調整値を使用し、調整値をB、G、Rデータに乗算し、イメージセンサ104の個体差にかかわらず、同じ色再現や画質のB、G、Rデータを出力する。
 1次画像処理回路220により処理されたRAWデータは、2次画像処理回路230及び1次メモリ240に出力される。尚、1次画像処理回路220によるRAWデータに対する画像処理の内容及び処理の順序は、上記の実施形態に限定されない。また、1次画像処理回路220により処理されたRAWデータは、RAW現像処理前のデータであり、B、G、Rデータは、14ビットの階調を有する。
 図5は、フロントエンドLSIの2次画像処理回路の実施形態を示すブロック図である。
 図5に示す2次画像処理回路230は、WB(White Balance)補正回路231、ガンマ補正回路232、デモザイク処理回路233、輪郭強調回路235、色差マトリクス回路236、及び圧縮回路237を備える。
 1次画像処理回路220により処理されたRAWデータは、2次画像処理回路230のWB補正回路231に加えられる。
 WB補正回路231は、入力するRAWデータのB、G、Rデータから、「晴れ」、「曇り」、「日陰」、「電球」、「蛍光灯」などの光源の種類や撮影シーンを自動判別し、光源の種類等に応じて予め設定されたB、G、Rデータ毎のWBゲインを使用してB、G、Rデータを増幅し、ホワイトバランス補正を行う。ホワイトバランス補正されたB、G、Rデータは、ガンマ補正回路232に出力される。
 ガンマ補正回路232は、例えば、B、G、Rデータ毎にガンマ補正テーブルを有し、入力するB、G、Rデータを、それぞれ対応するガンマ特性を有するガンマ補正テーブルにより、リニアデータの中間調が大きくなるようなガンマ特性に応じた階調補正(ガンマ補正)を行う。また、本例のガンマ補正回路232は、14ビットのB、G、Rデータを8ビットのB、G、Rデータに変換する。ガンマ補正回路232によりガンマ補正された8ビットのB、G、Rデータは、デモザイク処理回路233に出力される。
 デモザイク処理回路233は、イメージセンサ104のカラーフィルタ配列に対応する、モザイク画像データである点順次のB、G、Rデータの各色データから、イメージセンサ104の各画素位置における不足する色データを補間により生成し、各画素位置のB、G、Rデータを同時に出力する。即ち、デモザイク処理回路233は、点順次のB、G、Rデータを同時式のB、G、Rデータに変換し、同時化したB、G、RデータをYC変換回路234に出力する。
 YC変換回路234は、同時式のB、G、Rデータを輝度データ(Y)と色差データ(Cr,Cb)に変換し、輝度データ(Y)を輪郭強調回路235に出力し、色差データ(Cr,Cb)を色差マトリクス回路236に出力する。輪郭強調回路235は、輝度データ(Y)の輪郭部(輝度変化の大きい部分)を強調する処理を行う。色差マトリクス回路236は、入力する色差データ(Cr,Cb)と、2行×2列の色補正マトリクス係数とのマトリクス演算を行い、良好な色再現性を実現させるための色補正を行う。
 このように2次画像処理回路230は、RAWデータに対して各種の画像処理(RAW現像処理)を行うことで、RAWデータから表示可能な画像データを生成する。
 圧縮回路237は、輪郭強調回路235から出力される輝度データ(Y)、及び色差マトリクス回路236から出力される色差データ(Cr,Cb)に対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮された画像データは、1次メモリ240に保持される。
 また、圧縮回路237には、1次画像処理回路220により処理されたRAWデータが加えられており、圧縮回路237は、RAWデータを圧縮した後、1次メモリ240に出力する。RAWデータの圧縮は、可逆圧縮(ロスレス圧縮)することが好ましい。尚、RAWデータは、図3に示すように1次画像処理回路220から直接、1次メモリ240に出力し、圧縮せずに(非圧縮で)1次メモリ240に保持するようにしてもよい。
 図3に戻って、第2画像処理エンジン210は、撮像端末100(本例では、デジタルカメラ100a)からRAWデータの連続データを受信し、第2画像処理エンジン210により生成された連続データに対応するライブビュー画像をデジタルカメラ100aに送信する。具体的には、連続データに対応する画像処理毎の各フレームの画像であって、図4に示した2次画像処理回路230の輪郭強調回路235から出力される輝度データ(Y)と色差マトリクス回路236から出力される色差データ(Cr,Cb)、又は輝度データ(Y)及び色差データ(Cr,Cb)から変換したB、G、Rデータからなる画像を、ライブビュー画像として第2通信部202に出力し、第2通信部202からネットワーク300及び無線アクセスポイント310を介してデジタルカメラ100aに送信する。
 尚、デジタルカメラ100aから連続データが送信された後、サーバ200で画像処理されてライブビュー画像が生成され、そのライブビュー画像がデジタルカメラ100aに送信されるまでの時間は、データの送受信に要する時間が大部分であるが、5G(5th Generation)移動通信システムにおいては、データが送信されてから受信されるまでの遅延時間を、1ミリ秒程度まで短縮される超低遅延を実現することができ、この部分の遅延は、人間が遅れを体感できないほど短かい。
 したがって、デジタルカメラ100aは、ライブビュー画像をほぼリアルタイムにLCD118又はEVF120に表示させることができる。尚、2027年以降は、更に高速の次世代の6G移動通信システムが導入されるが、このような通信速度が実現されると、現在の撮像端末内のバス転送速度に匹敵する通信速度が実現でき、撮像端末内とネットワーク上のサーバとは、更にタイムラグが無くなり、よりリアルタイムにライブビュー画像を表示することができる。
 また、デジタルカメラ100aにおいて、シャッタボタンが操作されると(ユーザ操作による静止画の撮影指示を受け付けると)、撮像端末100は、静止画記録用のAF制御及びAE制御を行い、静止画記録用のRAWデータを、連続データのうちの1フレームとして送信するとともに、連続データに割り込ませてシャッタレリーズ信号(撮影指示情報)を送信する。
 一方、第2プロセッサ250は、常時ユーザのシャッタボタンの操作によるシャッタレリーズ信号が、デジタルカメラ100aから送信されてくるのを待ち受けており、シャッタレリーズ信号を、第2通信部202を介して受信すると、第2プロセッサ250は、シャッタレリーズ信号により特定される静止画記録用のRAWデータの、第2画像処理エンジン210により画像処理された画像データを第2画像処理エンジン210から取得し、これを画像記録部260に記録する。
 第2プロセッサ250は、静止画記録用のRAWデータが、第2画像処理エンジン210によりRAW現像処理され、JPEG圧縮された画像データを有する画像ファイルであって、1次メモリ240に保持された静止画ファイルを画像記録部260に記録する。この場合、第2プロセッサ250は、デジタルカメラ100aの端末情報又はユーザ情報に基づき、端末情報等に関連付けられた画像フォルダ(画像記録部260内のフォルダ)に記録することが好ましい。
 また、第2プロセッサ250は、静止画記録用のRAWデータが、第2画像処理エンジン210の1次画像処理回路220により画像処理されたRAWデータのRAWファイルであって、1次メモリ240に保持されたロスレス圧縮、又は非圧縮のRAWデータを有するRAWファイルを、撮像端末100の端末情報又はユーザ情報に関連付けられた画像記録部260内のフォルダに記録する。
 尚、第2プロセッサ250は、上記静止画ファイル及びRAWファイルの少なくとも一方を画像記録部260に記録するようにしてもよい。
 また、デジタルカメラ100aは、ブラケット撮影モード又は連写モードが設定されている場合、1回のシャッタボタンの操作で複数枚の静止画を連続して撮像するが、この場合には、サーバ200は、画像処理後の複数枚の静止画ファイル及び/又はRAWデータを画像記録部260に記録する。
 更に、デジタルカメラ100aは、動画モードが設定されている場合、シャッタボタンのユーザ操作により動画の記録指示又は記録終了指示を受け付けると、記録指示情報又は記録終了指示情報を第1通信部124からサーバ200に送信する。サーバ200(第2画像処理エンジン210)は、動画の記録指示情報を受信してから記録終了指示情報を受信するまでの期間に受信した連続データに対して動画記録用の画像処理を施し、画像処理により生成した動画データを有する動画ファイルを1次メモリ240に記憶させ、第2プロセッサ250は、1次メモリ240に記憶された動画ファイルを画像記録部260に記録する。
 一方、撮像端末100は、再生モードで起動された場合、又は撮影モードから再生モードに切り替えられた場合もサーバ200とは常時接続状態となり、ユーザが操作部114及びLCD118の表示内容にしたがって再生操作を行うと、その操作内容に対応する再生要求を第1通信部124からサーバ200に出力する。
 サーバ200(第2プロセッサ250)は、第2通信部202を介して再生要求を受信すると、再生要求に対応する画像ファイルを画像記録部260から読み出し、画像ファイル内の圧縮された画像データを伸張し、再生画像として第2通信部202から撮像端末100に送信する。尚、再生要求に対応する画像ファイルがRAWファイルの場合、RAWファイルのRAWデータをRAW現像処理した後、再生画像として第2通信部202から撮像端末100に送信する。
 例えば、撮像端末100は、再生モードで起動された場合、又は撮影モードから再生モードに切り替えられた場合、最新の撮影画像の再生要求を送信し、サーバ200は、撮像端末100から最新の撮影画像の再生要求を受信すると、画像記録部260から対応する画像ファイルを読み出し、画像ファイル内の圧縮された画像データを伸張し、再生画像として第2通信部202から撮像端末100に送信する。
 再生画像を受信した撮像端末100は、表示制御部116を介して再生画像をLCD118に表示させる。その後、ユーザが操作部114を使用してコマ送り、コマ戻し等の再生操作を行うと、撮像端末100は、その再生操作に対応する再生要求をサーバ200に送信し、サーバ200は受信した再生要求に対応しした画像ファイルを画像記録部260から読み出し、上記と同様にして再生画像を撮像端末100に送信する。
 また、撮像端末100は、画像記録部260に記録されたユーザの画像ファイル群のサムネイル画像の一覧を要求すると、サーバ200は、要求に対応するサムネイル画像の一覧を撮像端末100に送信する。そして、サムネイル画像の一覧を受信した撮像端末100は、サムネイル画像の一覧をLCD118に表示させことができる。
 ユーザは、LCD118に表示されたサムネイル画像の一覧を見ながら、操作部114を操作して所望のサムネイル画像を選択することで、撮像端末100は、選択されたサムネイル画像に対応する画像の再生要求(画像ファイル名を伴う再生要求)をサーバ200に送信することができる。サーバ200は、撮像端末100から画像ファイル名を伴う再生要求を受信すると、画像記録部260から画像ファイル名に対応する画像ファイルを読み出し、上記と同様にして再生画像を撮像端末100に送信する。これにより、撮像端末100のLCD118には、ユーザが選択したサムネイル画像に対応する再生画像が表示される。
 更に、ユーザは、再生画像又はサムネイル画像を使用してプリント注文する画像を特定し、撮像端末100から特定した画像のプリント要求(画像ファイル名を伴うプリント要求)をサーバ200に送信させることができる。サーバ200は、撮像端末100から画像ファイル名を伴うプリント要求を受信すると、画像記録部260から画像ファイル名に対応する画像ファイルを読み出し、図示しないプリントサーバに送信することで、プリントサービスを行うことができる。
 尚、上記の例では、静止画を再生させる場合について説明したが、動画を再生させる場合も同様に行うことができる。
 更にまた、ユーザは、サーバ200内のユーティリティソフト(レタッチソフト)を使用し、フィルタ効果の追加などの画像編集(修正・補正・加工)を、編集した画像(再生画像)を、リアルタイムに確認しながらネットワークを介して行うことができる。
 [撮像システム]
 <撮像システムの第1実施形態>
 図6は、本発明に係る撮像システムの第1実施形態を示す概略図である。
 尚、図6において、実線の矢印は、撮像端末100-1とサーバ200との間の通信が正常な場合のデータの流れを示し、点線の矢印は、撮像端末100-1とサーバ200との間の通信が不能な場合(通信が不安定な場合を含む)のデータの流れを示す。また、図6では、撮像端末100-1及びサーバ200の通信部等は省略されている。
 以下、撮像端末100-1とサーバ200との間の通信が正常な場合について説明する。
 この場合、撮像端末100-1は、起動中に無線アクセスポイント310及びネットワーク300(図1)を介してサーバ200と常時接続され、撮影モード時には画像処理前のRAWデータを連続データの形式でサーバ200に送信する。サーバ200の第2画像処理エンジン210のフロントエンドLSI239は、受信したRAWデータからなる連続データからライブビュー画像を生成し、サーバ200は、フロントエンドLSI239により生成されたライブビュー画像を撮像端末100-1に送信する。
 ライブビュー画像を受信した撮像端末100-1は、LCD118又はEVF120にライブビュー画像を表示する。
 これにより、ユーザは、ライブビュー画像を見ながら構図等を決定し、シャッタボタン115を押下して所望の被写体の撮影操作を行うことができる。撮像端末100-1は、シャッタボタン115が押下されると(ユーザ操作による静止画の撮影指示を受け付けると)、イメージセンサ104から読み出した14ビットの階調を有する静止画記録用のRAWデータを、連続データのうちの1フレームとして送信するとともに、連続データに割り込ませてシャッタレリーズ信号をサーバ200に送信する。
 サーバ200の第2画像処理エンジン210(フロントエンドLSI239)は、シャッタレリーズ信号に対応して受信した静止画記録用のRAWデータに画像処理を施す。即ち、フロントエンドLSI239は、受信した静止画記録用のRAWデータをRAW現像処理し、8ビットの階調を有するJPEG圧縮された画像データ(8ビット階調)を有する静止画ファイルを1次メモリ240に記憶させ、及び/又は、受信した静止画記録用のRAWデータが1次画像処理回路220(図3)により画像処理された、ロスレス圧縮又は非圧縮のRAWデータ(14ビット階調)を有するRAWファイルを1次メモリ240に記憶させる。
 サーバ200の第2プロセッサ250は、1次メモリ240に記憶された8ビットの階調を有する静止画ファイル、及び/又は14ビットの階調を有するRAWファイルを画像記録部260に記録する。
 一方、撮像端末100-1が再生モードで起動された場合、又は撮影モードから再生モードに切り替えられた場合、ユーザが操作部114及びLCD118の表示内容にしたがって再生操作を行うと、その操作内容に対応する再生要求を第1通信部124からサーバ200に出力する。
 サーバ200は、撮像端末100-1から再生要求を受信すると、再生要求に対応する画像ファイルを画像記録部260から読み出し、画像ファイル内の圧縮された画像データを伸張し、再生画像として第2通信部202から撮像端末100に送信する。尚、再生要求に対応する画像ファイルがRAWファイルの場合、RAWファイルのRAWデータをRAW現像処理した後、再生画像として撮像端末100に送信する。
 再生画像を受信した撮像端末100-1は、表示制御部116を介して再生画像をLCD118に表示させる。
 次に、撮像端末100-1とサーバ200との間の通信が不能な場合(オフライン時)について説明する。
 オフライン時には、撮像端末100-1の第1画像処理エンジン122が動作し、撮像端末100-1単独での撮影を可能にする。
 イメージセンサ104から所定のフレームレート(例えば、30fps,60fps)で読み出されるRAWデータは、第1画像処理エンジン122に出力される。
 第1画像処理エンジン122は、前述したようにサーバ200の第2画像処理エンジン210とは技術的スペックが異なり、第2画像処理エンジン210と比較して機能・性能が限定的であり、回路規模も小さく安価なものである。
 第1画像処理エンジン122は、イメージセンサ104からの14ビットの階調を有するRAWデータからなる連続データを、例えば、8ビットの階調を有するRAWデータに変換し、その後、8ビットの階調を有するRAWデータにRAW現像処理等の画像処理を施し、ライブビュー画像を生成する。このライブビュー画像は、通信が正常な場合に第2画像処理エンジン210により生成されるライブビュー画像と比較して画質(解像度、表示フレームレート)が低いものでもよい。
 その後、シャッタボタン115が押下されると、第1画像処理エンジン122は、シャッタボタン115の押下時にイメージセンサ104から読み出された静止画記録用のRAWデータに画像処理を施し、静止画記録用の画像データを生成し、内部メモリ(図示せず)に記録する。
 尚、撮像端末100-1は、撮像端末100-1とサーバ200との間の通信が正常になると、連続データの送信に先立って、第1画像処理エンジン122の内部メモリに記録された画像データをサーバ200に送信する。第2画像処理エンジン210は、受信した画像データに対して画質向上のためのノイズ低減処理等に画像処理を施す。第2プロセッサ250は、第2画像処理エンジン210により画像処理が施された画像データであって、画像データがファイル化された画像ファイルを画像記録部260に記録する。
 撮像端末100-1の第1画像処理エンジン122は、撮像端末100-1とサーバ200との間の通信が不能な場合に、緊急避難的に用いられる補助的な画像処理エンジンであるため、回路規模が格段に小さく、8ビットの階調を有するデータしか扱うことができないなど、最小限必要な機能に限定されており、画質向上のためのノイズ低減処理等の1次画像処理の部分も最新鋭ではなくてよい。このため回路規模としては、サーバ200の第2画像処理エンジン210の10~数10分の1のコストとすることができる。また、撮像端末100-1内の第1画像処理エンジン122が使われる頻度は、通信ネットワークが発達した地域ならほとんどなく、万が一のため、性能上のデメリットも生じにくい。一時的に通信が途切れた場合等に全く撮影ができないことが無いように、最低限の記録用の画像データを記録する。これにより、撮影に関する操作や表示(ライブビュー画像)や画像記録は行えるのでシャッタチャンスを逃すことが無い。連写機能を重視する場合は最小限の連写用メモリを備えても良く、この場合は通常の100コマ連写等に対して5コマ連写等に機能は制限されるが、連写が可能となる。
 尚、撮像端末100-1は、オフライン時には第1画像処理エンジン122の内部メモリに記録された画像のみを再生表示することができ、画像記録部260に記録された画像を再生表示することはできない。
 <撮像システムの第2実施形態>
 図7及び図8は、それぞれ本発明に係る撮像システムの第2実施形態を示す概略図であり、図7は、撮像端末とサーバとの間の通信が正常な場合に関して示し、図8は、撮像端末とサーバとの間の通信が不能な場合(オフラインの場合)に関して示している。
 尚、図7及び図8において、図6に示した撮像システムの第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図7及び図8に示す撮像システムの第2実施形態は、撮像端末100-2が、図6に示した撮像システムの第1実施形態の撮像端末100-1と相違し、特に第1画像処理エンジン130が相違する。
 撮像端末100-2の第1画像処理エンジン130は、オフライン時に動作する。したがって、撮像端末100-2とサーバ200との間の通信が正常な場合には、図7及び図8に示す撮像システムの第2実施形態は、第6に示した撮像システムの第1実施形態と同様の動作を行う。
 以下、撮像端末100-2がオフラインの場合について説明する。
 オフライン時に動作する撮像端末100-2の第1画像処理エンジン130は、フロントエンドLSI132と、内部メモリである1次メモリ134とを備える。
 フロントエンドLSI132は、サーバ200の第2画像処理エンジン210のフロントエンドLSI239と比較して技術的スペックが低く、機能・性能が限定的であり、回路規模も小さく安価なものである。
 フロントエンドLSI132は、イメージセンサ104からの14ビットの階調を有するRAWデータからなる連続データを、例えば、8ビットの階調を有するRAWデータに変換し、その後、8ビットの階調を有するRAWデータにRAW現像処理等の画像処理を施し、ライブビュー画像を生成する。このライブビュー画像は、通信が正常な場合に第2画像処理エンジン210のフロントエンドLSI239により生成されるライブビュー画像と比較して画質(解像度、表示フレームレート)が低いものでもよい。
 フロントエンドLSI132により生成されたライブビュー画像は、図8の実線の矢印で示すようにLCD118又はEVF120に出力され、表示される。
 その後、シャッタボタン115が押下されると、フロントエンドLSI132は、シャッタボタン115の押下時にイメージセンサ104から読み出された静止画記録用のRAWデータにRAW現像処理、及びJPEG圧縮を含む画像処理を施し、JPEG圧縮された画像データを有する画像ファイルを1次メモリ134に記録する。
 尚、フロントエンドLSI132により生成される静止画記録用の画像データは、サーバ200のフロントエンドLSI239により生成される静止画記録用の画像データと比較して画質(画像サイズ、解像度、色再現性等の少なくとも1以上)が低い。フロントエンドLSI132を有する第1画像処理エンジン130は、フロントエンドLSI239を有する第2画像処理エンジン210と比較して、例えばノイズ処理、欠陥補正、及び高画質化等の画像処理を含まず、安価なものだからである。
 一方、撮像端末100-2は、撮像端末100-2とサーバ200との間の通信が正常になると、連続データの送信に先立って、第1画像処理エンジン130の内部メモリである1次メモリ134に記録された画像ファイルをサーバ200に送信する。
 サーバ200(第2プロセッサ250)は、撮像端末100-2から画像ファイルを受信すると、受信した画像ファイルを画像記録部260に記録する。尚、図6に示した第1実施形態の撮像システムと同様に、受信した画像ファイルの画像データを、第2画像処理エンジン210で再処理した後、画像記録部260に記録してもよい。
 <撮像システムの第3実施形態>
 図9は、本発明に係る撮像システムの第3実施形態を示す概略図である。
 尚、図9において、図6に示した撮像システムの第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図9に示す撮像システムの第3実施形態は、撮像端末100-3が、図6に示した撮像システムの第1実施形態の撮像端末100-1と相違し、特に第1画像処理エンジン140が相違する。
 撮像端末100-3の第1画像処理エンジン140は、オフライン時に動作する。したがって、撮像端末100-3とサーバ200との間の通信が正常な場合には、図9に示す撮像システムの第3実施形態は、第6に示した撮像システムの第1実施形態と同様の動作を行う。
 以下、撮像端末100-3がオフラインの場合について説明する。
 オフライン時に動作する撮像端末100-3の第1画像処理エンジン140は、メモリコントローラ142と、内部メモリである1次メモリ144と、ライブビューエンジン146とを備える。
 この第1画像処理エンジン140は、オフライン時の最小限の画像処理機能を備えるものである。
 ライブビューエンジン146は、イメージセンサ104からの14ビットの階調を有するRAWデータからなる連続データを、例えば、8ビットの階調を有するRAWデータに変換し、その後、8ビットの階調を有するRAWデータにRAW現像処理等の画像処理を施し、ライブビュー画像を生成する。このライブビューエンジン146は、フレーミングに必要な最小限の画質のライブビュー画像を生成できればよく、例えば、ノイズ処理、欠陥補正、高画質化等の画像処理を省略することができ、第2画像処理エンジン210のフロントエンドLSI239により生成されるライブビュー画像と比較して画質(解像度、表示フレームレート)が低いものでもよい。
 オフライン時にライブビューエンジン146により生成されたライブビュー画像は、図9の点線の矢印で示すようにLCD118又はEVF120に出力され、表示される。
 その後、シャッタボタン115が押下されると、メモリコントローラ142は、シャッタボタン115の押下時にイメージセンサ104から読み出された静止画記録用の14ビットの階調を有する1フレーム分のRAWデータを1次メモリ144に一時的に記録する。尚、ブラケット撮影モード又は連写モードが設定されている場合には、メモリコントローラ142は、シャッタボタン115の1回のシャッタレリーズ操作により、イメージセンサ104から連続して読み出される静止画記録用の複数フレームのRAWデータを1次メモリ144に一時的に記録する。また、ライブビューエンジン146は、シャッタボタン115のシャッタレリーズ操作に関われず、ライブビュー画像を連続して生成することができる。
 一方、撮像端末100-3は、撮像端末100-3とサーバ200との間の通信が正常になると、連続データの送信に先立って、第1画像処理エンジン140の1次メモリ144に記録された14ビットの階調を有する静止画記録用のRAWデータをサーバ200に送信する。
 サーバ200(第2画像処理エンジン210のフロントエンドLSI239)は、撮像端末100-2から、オフライン時に撮影された静止画記録用のRAWデータを受信すると、受信したRAWデータに対して静止画記録用の画像処理を施し、1次メモリ240に記憶させる。
 第2プロセッサ250は、1次メモリ240に記憶された8ビットの階調を有する静止画ファイル、及び/又は14ビットの階調を有する1次画像処理したRAWファイルを画像記録部260に記録する。
 尚、オフライン時に撮影された静止画記録用のRAWデータに対するフロントエンドLSI239による画像処理は、撮像端末100-3とサーバ200との間の通信が正常な場合にシャッタレリーズ信号に対応して受信した静止画記録用のRAWデータに対する画像処理と同様の画像処理を行うことができる。
 <撮像システムの第4実施形態>
 図10は、本発明に係る撮像システムの第4実施形態を示す概略図である。
 尚、図10において、図6に示した撮像システムの第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図10に示す撮像システムの第4実施形態は、撮像端末100-4が、図6に示した撮像システムの第1実施形態の撮像端末100-1と相違し、特に第1画像処理エンジン150が相違する。
 撮像端末100-4の第1画像処理エンジン150は、オフライン時に動作する。したがって、撮像端末100-4とサーバ200との間の通信が正常な場合には、図10に示す撮像システムの第4実施形態は、第6に示した撮像システムの第1実施形態と同様の動作を行う。
 以下、撮像端末100-4がオフラインの場合について説明する。
 オフライン時に動作する撮像端末100-4の第1画像処理エンジン150は、フロントエンドLSI152と、内部メモリである1次メモリ154とを備える。
 第1画像処理エンジン150(フロントエンドLSI152)は、イメージセンサ104からの14ビットの階調を有するRAWデータからなる連続データを、例えば、8ビットの階調を有するRAWデータに変換し、その後、8ビットの階調を有するRAWデータにRAW現像処理等の画像処理を施し、ライブビュー画像を生成する。このライブビューエンジン146は、フレーミングに必要な最小限の画質のライブビュー画像を生成できればよい。
 オフライン時にライブビューエンジン146により生成されたライブビュー画像は、図10の点線の矢印で示すようにLCD118又はEVF120に出力され、表示される。
 その後、シャッタボタン115が押下されると、フロントエンドLSI152は、シャッタボタン115の押下時にイメージセンサ104から読み出された静止画記録用の14ビットの階調を有する1フレーム分のRAWデータを画像処理する。
 フロントエンドLSI152は、入力するRAWデータにRAW現像処理及びJPEG圧縮を含む画像処理を施し、JPEG圧縮された画像データを有する画像ファイルを1次メモリ134に記録し、及び/又は入力するRAWデータのデータ量(本例では、画像サイズ)を低減し、データ量を低減したRAWデータを1次メモリ134に記録する。
 フロントエンドLSI152を含む第1画像処理エンジン150は、緊急避難的に用いる補助的な画像処理エンジンであるため、回路規模を格段に小さく、一定の画像サイズ(例えば、4Kサイズの画像サイズ)以下しか扱うことが出来ない最小限必要な機能に限定されており、画質向上のためのノイズ低減処理等の1次画像処理の部分も最新鋭ではなくてよい。このため回路規模としてはネットワーク上の第2画像処理エンジン210の10分の1~数10分の1の安価なものとすることができる。
 また、撮像端末100-4の第1画像処理エンジン150が使われる頻度は通信ネットワークが発達した地域ならほとんどなく、万が一のため、SNS(Social Networking Service)にアップする等の目的に絞って使用するためには性能上のデメリットも生じにくい。また、撮影に関する操作や表示(ライブビュー画像の表示)や画像記録は行えるので、シャッタチャンスを逃すことが無く、最小限の付加回路(第1画像処理エンジン)によって解決することが出来る。連写機能を重視する場合も最小限の連写用メモリを備えれば良く、この場合は通常の100コマ連写等に対して5コマ連写等に機能は制限されるが、連写も可能となる。
 尚、フロントエンドLSI152は、入力するRAWデータにRAW現像処理及びJPEG圧縮を含む画像処理を施すが、JPEG圧縮を省略してもよい。また、1次メモリ134にデータ量を低減したRAWデータを記録する場合、フロントエンドLSI152は、例えば2Kサイズの画像サイズを小さくする他に、14ビットの階調を有するRAWデータのビット数を14ビット未満(例えば、8ビット)にし、データ量を低減することができる。
 一方、撮像端末100-4は、撮像端末100-4とサーバ200との間の通信が正常になると、連続データの送信に先立って、第1画像処理エンジン140の1次メモリ144に記録されたデータをサーバ200に送信する。
 サーバ200(第2画像処理エンジン210のフロントエンドLSI239)は、撮像端末100-4から、オフライン時に撮影された静止画記録用のデータを受信すると、受信したデータに対して静止画記録用の画像処理を施し、1次メモリ240に記憶させる。
 第2プロセッサ250は、1次メモリ240に記憶された画像を画像記録部260に記録する。
 [撮像システムの作用]
 図11及び図12は、撮像システムにおける撮像端末の動作を示すフローチャートであり、図13は、撮像システムにおけるサーバの動作を示すフローチャートである。
 尚、図11及び図12に示すフローチャートは、図7及び図8に示した撮像システムの第2実施形態の撮像端末100-2の動作手順を示す。また、撮像端末100-2は、図1及び図2に示した通信機能付きのデジタルカメラ100aとする。
 <撮像端末の動作>
 図11において、撮像端末100-2(通信機能付きのデジタルカメラ100a)は、電源スイッチがONにされると、まず、サーバ200と常時接続すべくネットワークの接続処理を行う(ステップS10)。
 続いて、デジタルカメラ100a(第1プロセッサ110)は、電源スイッチがOFFにされたか否かを判別する(ステップS12)、電源OFFの場合(「Yes」の場合)、デジタルカメラ100aの動作は終了し、電源ONの場合(「No」の場合)には、ステップS14に遷移する。
 ステップS14では、デジタルカメラ100aの動作モードが、撮影モードか再生モードかが判別される(ステップS14)。撮影モードと判別されると、ステップS16に遷移し、撮影動作が行われ、再生モードと判別されると、図12に示す画像の再生処理に遷移する。
 ステップS16では、、撮像部101(イメージセンサ104)により所定のフレームレートで撮像が行われ、イメージセンサ104から画像処理前のRAWデータが、所定のフレームレートの連続データとして読み出される。
 次に、デジタルカメラ100a(第1プロセッサ110)は、ステップS10で接続処理したネットワークの接続状態が安定しているか否かを判別する(ステップS18)。ネットワーク接続が安定していると判別されると、デジタルカメラ100aは、イメージセンサ104から読み出される連続データを、第1通信部124を介してサーバ200に送信する(ステップS20)。
 後述するようにサーバ200は、デジタルカメラ100aから受信した連続データにRAW現像処理等の画像処理を施してライブビュー画像を生成し、生成したライブビュー画像をデジタルカメラ100aに送信する。
 デジタルカメラ100aは、サーバ200から送信されるライブビュー画像を、第1通信部124を介して受信し(ステップS22)、受信したライブビュー画像をLCD118又はEVF120に表示させる(ステップS24)。ここで、連続データの送信及びライブビュー画像の受信の遅延は、人間が遅れを体感できないほど短かいため、ライブビュー画像は、リアルタイムにLCD118又はEVF120に表示させることができる。
 続いて、デジタルカメラ100a(第1プロセッサ110)は、ユーザによるシャッタボタン115のシャッタレリーズ操作が行われたか否かを判別する(ステップS26)。ステップS26において、シャッタレリーズ操作が無いと判別される(「No」の場合)、ステップS12に遷移させる。これにより、ステップS12からステップS26の処理が繰り返され、ライブビュー画像が表示される。
 ステップS26において、シャッタレリーズ操作が有ったと判別されると(「Yes」の場合)、ステップS28に遷移させる。ステップS25では、デジタルカメラ100aは、シャッタレリーズ信号を連続データに割り込ませて第1通信部124を介してサーバ200に送信し、その後、ステップS12に遷移させる。尚、シャッタレリーズ信号を受信したサーバ200の動作については後述する。
 一方、ステップS18において、ネットワーク接続が不安定(通信不可を含む)と判別されると、デジタルカメラ100aは、第1画像処理エンジン130を動作可能にし、イメージセンサ104から読み出される連続データを第1画像処理エンジン130に出力する。第1画像処理エンジン130は、入力する連続データにRAW現像処理等の画像処理を施してライブビュー画像を生成する(ステップS30)。第1画像処理エンジン130は、生成したライブビュー画像をLCD118又はEVF120に出力し、表示させる(ステップS32)。
 続いて、デジタルカメラ100a(第1プロセッサ110)は、ユーザによるシャッタボタン115のシャッタレリーズ操作が行われたか否かを判別する(ステップS32)。ステップS32において、シャッタレリーズ操作が無いと判別される(「No」の場合)、ステップS18に遷移させる。これにより、ステップS18からステップS34の処理が繰り返され、ライブビュー画像が表示される。
 ステップS34において、シャッタレリーズ操作が有ったと判別されると(「Yes」の場合)、ステップS36に遷移させる。ステップS36では、第1画像処理エンジン130は、シャッタレリーズ信号に対応する静止画記録用の14ビットの階調を有するRAWデータにRAW現像処理、及びJPEG圧縮を含む画像処理を施し、JPEG圧縮された画像データを有する画像ファイルを1次メモリ134に保存(記録)する。その後、デジタルカメラ100aは、ステップS12に遷移する。
 一方、ステップS14において、再生モードと判別されると、図12に示すステップS50に遷移する。ステップS50において、デジタルカメラ100aは、再生モードへのモード変更指示を、第1通信部124を介してサーバ200に送信する。尚、デジタルカメラ100aから連続データの送信が停止されることは言うまでもない。
 後述するようにサーバ200は、再生モードへのモード変更指示を受信すると、モード変更指示を送信したデジタルカメラ100aに対してサムネイル画像の一覧を送信し、デジタルカメラ100aは、サムネイル画像の一覧を、第1通信部124を介して受信する(ステップS52)。
 デジタルカメラ100aは、サーバ200からサムネイル画像の一覧を受信すると、受信したサムネイル画像の一覧をLCD118に表示させる(ステップS54)。
 ユーザは、LCD118に表示されたサムネイル画像の一覧を見ながら、操作部114を操作して所望のサムネイル画像を、再生画像として選択することができる。デジタルカメラ100aは、操作部114でのユーザ操作による再生画像の選択指示入力を受け付けたか否かを判別する(ステップS56)。
 ステップS56において、再生画像の選択指示入力を受け付けたと判別されると、デジタルカメラ100aは、選択されたサムネイル画像に対応する画像の再生要求(画像ファイル名を伴う再生要求)を、第1通信部124を介してサーバ200に送信する(ステップS58)。サーバ200は、デジタルカメラ100aから画像ファイル名を伴う再生要求を受信すると、画像記録部260から画像ファイル名に対応する再生画像を読み出し、デジタルカメラ100aに送信する。デジタルカメラ100aは、サーバ200から再生要求に対応する再生画像を、第1通信部124を介して受信する(ステップS60)。
 デジタルカメラ100aは、サーバ200から受信した再生画像をLCD118に表示し(ステップS62)、図11のステップS12に遷移させる。
 再生モードが維持される場合には、デジタルカメラ100aは、再生要求に対応する再生画像をLCD118に表示させることができる。また、デジタルカメラ100aは、インターフェースを介して接続された外部のディスプレイ(図示せず)に再生画像を表示させることができる。
 <サーバの動作>
 図13において、サーバ200とデジタルカメラ100aとの間でネットワークが接続されると(ステップS102)、デジタルカメラ100aは、サーバ200との通信開始時にデジタルカメラ100aを示す端末情報をサーバ200に送信し、サーバ200は、デジタルカメラ100aの端末情報を、第2通信部202を介して受信し、端末情報を取得する(ステップS102)。
 続いて、サーバ200は、ネットワーク接続されたデジタルカメラ100aの動作モードが、撮影モードか再生モードかを判別する(ステップS104)。撮影モードと判別されると、ステップS106に遷移し、再生モードと判別されると、ステップS120に遷移する。
 ステップS106では、デジタルカメラ100aから所定のフレームレートのRAWデータを連続データとして受信する。サーバ200の第2画像処理エンジン210は、所定のフレームレートのRAWデータに対してRAW現像処理等の画像処理を施してライブビュー画像を生成する(ステップS108)。サーバ200は、第2画像処理エンジン210により生成されたライブビュー画像を、第2通信部202を介してデジタルカメラ100aに送信する(ステップS110)。
 続いて、サーバ200は、デジタルカメラ100aからシャッタレリーズ信号を受信したか否かを判別する(ステップS112)。シャッタレリーズ信号を受信すると(「Yes」の場合)、第2画像処理エンジン210は、連続するRAWデータのうちのシャッタレリーズ信号(撮影指示情報)に対応するRAWデータを画像処理し、記録用の画像(静止画)を生成する(ステップS144)。
 尚、第2画像処理エンジン210は、RAWデータにRAW現像処理を含む画像処理を施す場合、ステップS102で取得した端末情報に基づいて、デジタルカメラ100aで撮影されるRAWデータをRAW現像するために必要な情報(イメージセンサ104のカラーフィルタ配列、画素数、画素欠陥情報、その他のパラメータ)を、デジタルカメラ100aのメーカのサーバから取得し、又は予めメーカのサーバから取得して記録部に記憶された情報の中から対応する情報を読み出して使用する。
 第2プロセッサ250は、第2画像処理エンジン210により生成された記録用の画像を画像記録部260に記録する(ステップS116)。
 続いて、サーバ200は、デジタルカメラ100aとのネットワーク接続が終了したか否かを判別し(ステップS118)、ネットワーク接続が終了していない場合には、ステップS104に遷移し、ネットワーク接続が終了していない場合には、そのデジタルカメラ100aに対するサーバ200での処理を終了する。
 一方、ステップS104において、デジタルカメラ100aの動作モードが再生モードであると判別されると、サーバ200は、そのデジタルカメラ100aで撮影され、画像記録部260に記録された画像のサムネイル画像の一覧を生成し、サムネイル画像の一覧をデジタルカメラ100aに送信する(ステップS120)。尚、サーバ200は、ステップS102で取得した端末情報を元に、画像記録部260のデジタルカメラ100aに対応する画像フォルダを特定し、特定した画像フォルダに保存された画像ファイルに基づいてデジタルカメラ100aに対応するサムネイル画像の一覧を作成することができる。
 続いて、サーバ200は、デジタルカメラ100aから再生要求(画像ファイル名を伴う再生要求)を受信したか否かを判別し(ステップS122)、再生要求を受信すると、その再生要求に対応する再生画像を画像記録部260から読み出し、読み出した再生画像をデジタルカメラ100aに送信する(ステップS124)。
 [その他]
 撮像端末100がカメラ内蔵のスマートフォン100bの場合、操作部は、主にスマートフォン100bの画面、画面上のタッチパネル、GUI(Graphical User Interface)コントローラを含むGUIであり、シャッタレリーズ操作は、シャッタボタンのアイコンをタッチすることで行うことができる。
 また、本実施形態では、撮像端末でのAF制御及びAE制御は、撮像端末単独で行うが、撮像端末から連続データを受信するサーバが、その連続データに基づいてAF制御及びAE制御に必要な制御情報を生成し、生成した制御情報を撮像端末に送信して撮像端末でのAF制御及びAE制御を行わせるようにしてもよい。
 サーバは、物理的に1つのサーバに限らず、サーバでの処理内容に応じて別々のサーバが行ってもよいし、同一の処理内容であっても複数のサーバが協動して行うようにしてもよい。
 また、本実施形態において、例えば、デジタルカメラ100aの第1プロセッサ110.第1画像処理エンジン122、サーバ200の第2プロセッサ250、第2画像処理エンジン210のように各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 また、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 撮像システム
100 撮像端末
100-1 撮像端末
100-2 撮像端末
100-3 撮像端末
100-4 撮像端末
100a デジタルカメラ
100b スマートフォン
101 撮像部
102 撮影レンズ
104 イメージセンサ
108 センサドライバ
110 第1プロセッサ
112 メモリ
114 操作部
115 シャッタボタン
116 表示制御部
118 LCD
122 第1画像処理エンジン
124 第1通信部
130 第1画像処理エンジン
132 フロントエンドLSI
134 1次メモリ
140 第1画像処理エンジン
142 メモリコントローラ
144 1次メモリ
146 ライブビューエンジン
150 第1画像処理エンジン
152 フロントエンドLSI
154 1次メモリ
200 サーバ
202 第2通信部
210 第2画像処理エンジン
220 1次画像処理回路
221 オフセット処理回路
222 画素欠陥補正回路
223 色調補正回路
224 個体差補正回路
230 2次画像処理回路
231 WB補正回路
232 ガンマ補正回路
233 デモザイク処理回路
234 YC変換回路
235 輪郭強調回路
236 色差マトリクス回路
237 圧縮回路
239 フロントエンドLSI
240 1次メモリ
250 第2プロセッサ
260 画像記録部
300 ネットワーク
310 無線アクセスポイント
S10~S36、S50~S62、S100~S124 ステップ

Claims (28)

  1.  少なくとも1つ以上の撮像端末とサーバとから構成される撮像システムであって、
     前記撮像端末は、
     イメージセンサを含み、撮像データを出力する撮像部と、
     前記撮像部から出力される前記撮像データを、前記サーバに送信する第1通信部と、
     前記撮像部から出力される前記撮像データを画像処理する第1画像処理エンジンと、
     前記第1画像処理エンジンにより画像処理された画像を保存するメモリと、を備え、
     前記サーバは、
     前記撮像端末の前記第1通信部から送信された前記撮像データを受信する第2通信部と、
     前記受信した前記撮像データを画像処理し、記録用の画像を生成する第2画像処理エンジンであって、前記撮像端末の前記第1画像処理エンジンと異なる第2画像処理エンジンと、を備える、
     撮像システム。
  2.  前記第2画像処理エンジンは、連続して受信した前記撮像データに基づいてライブビュー画像を生成する、
     請求項1に記載の撮像システム。
  3.  前記サーバは、前記第2画像処理エンジンにより生成された前記記録用の画像を画像記録部に記録する、
     請求項1又は2に記載の撮像システム。
  4.  前記第2画像処理エンジンは、前記第1画像処理エンジンの技術的スペックを上回る技術的スペックを有する、
     請求項1から3のいずれか1項に記載の撮像システム。
  5.  前記第1画像処理エンジンと前記第2画像処理エンジンとは画像処理性能が異なる、
     請求項4に記載の撮像システム。
  6.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して画像処理の実施が可能なピクセル当たりの情報量が少ない、
     請求項1から5のいずれか1項に記載の撮像システム。
  7.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して諧調のビット数または処理ビット数が異なる、
     請求項1から5のいずれか1項に記載の撮像システム。
  8.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して画像処理の実施が可能な機能のうちの一部の機能のみを有する、
     請求項1から5のいずれか1項に記載の撮像システム。
  9.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して画像処理の実施が可能な画像のピクセル数が少ない、
     請求項1から5のいずれか1項に記載の撮像システム。
  10.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して熱設計電力の小さい演算素子を有する、
     請求項1から5のいずれか1項に記載の撮像システム。
  11.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対してトランジスタ数が少ない演算素子を有する、
     請求項1から5のいずれか1項に記載の撮像システム。
  12.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対してプロセッサコアの数が少ない、
     請求項1から5のいずれか1項に記載の撮像システム。
  13.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して動作クロック周波数が低い演算素子を有する、
     請求項1から5のいずれか1項に記載の撮像システム。
  14.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して定格動作電流値が低い演算素子を有する、
     請求項1から5のいずれか1項に記載の撮像システム。
  15.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対してキャッシュメモリ容量が小さい、
     請求項1から5のいずれか1項に記載の撮像システム。
  16.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して実行可能な命令数が少ない構成である、
     請求項1から5のいずれか1項に記載の撮像システム。
  17.  前記第1画像処理エンジンは、前記第2画像処理エンジンに対して演算命令実行のための演算ユニット数が少ない構成である、
     請求項1から5のいずれか1項に記載の撮像システム。
  18.  前記第1画像処理エンジンは内蔵グラフィックス機能を有し、前記第2画像処理エンジンは拡張グラフィックス機能を有する、
     請求項1から5のいずれか1項に記載の撮像システム。
  19.  前記撮像端末は、ユーザ操作による静止画の撮影指示を受け付けると、撮影指示情報を前記第1通信部から前記サーバに送信し、
     前記第2画像処理エンジンは、前記第2通信部を介して前記撮影指示情報を受信すると、連続する前記撮像データのうちの前記撮影指示情報に対応する撮像データを画像処理し、記録用の静止画を生成する、
     請求項1から18のいずれか1項に記載の撮像システム。
  20.  前記撮像端末は、ユーザ操作による動画の記録指示又は記録終了指示を受け付けると、記録指示情報又は記録終了指示情報を前記第1通信部から前記サーバに送信し、
     前記第2画像処理エンジンは、前記第2通信部を介して前記記録指示情報又は前記記録終了指示情報を受信すると、連続する前記撮像データのうちの前記記録指示情報を受信してから前記記録終了指示情報を受信するまでの撮像データを画像処理し、記録用の動画を生成する、
     請求項1から19のいずれか1項に記載の撮像システム。
  21.  前記撮像端末は、前記サーバとの通信開始時に前記撮像端末を示す端末情報を前記サーバに送信し、
     前記サーバは、前記端末情報を受信すると、前記受信した端末情報に対応するRAW現像情報を取得し、
     前記第2画像処理エンジンは、前記取得した前記RAW現像情報に基づいて前記撮像データをRAW現像する画像処理を行う、
     請求項1から20のいずれか1項に記載の撮像システム。
  22.  前記サーバは、前記第2画像処理エンジンにより生成された前記ライブビュー画像を、第2通信部を介して前記撮像端末に送信し、
     前記撮像端末は、前記サーバから前記第1通信部を介して前記ライブビュー画像を受信すると、前記撮像端末のディスプレイに前記ライブビュー画像を表示させる、
     請求項2に記載の撮像システム。
  23.  前記第1画像処理エンジンは、前記撮像端末と前記サーバとの間の通信が不能な期間に動作する、
     請求項1から22のいずれか1項に記載の撮像システム。
  24.  前記第1画像処理エンジンは、前記撮像端末と前記サーバとの間の通信が不能な期間に、前記イメージセンサから連続して出力される前記撮像データに基づいてライブビュー画像を生成し、
     前記撮像端末は、前記撮像端末と前記サーバとの間の通信が不能な期間に、前記第1画像処理エンジンにより生成された前記ライブビュー画像をディスプレイに表示させる、
     請求項1から23のいずれか1項に記載の撮像システム。
  25.  前記撮像端末は、前記サーバと通信し、前記画像記録部に記録された画像のうちのユーザ操作により指定した画像を前記サーバから受信し、前記受信した前記画像をディスプレイに表示させ、又は前記メモリに保存する、
     請求項3に記載の撮像システム。
  26.  少なくとも1つ以上の撮像端末とサーバとから構成される撮像システムであって、
     前記撮像端末は、
     イメージセンサを含み、撮像データを出力する撮像部と、
     前記撮像部から出力される前記撮像データを、前記サーバに送信する第1通信部と、を備え、
     前記サーバは、
     前記撮像端末の前記第1通信部から送信された前記撮像データを受信する第2通信部と、
     前記受信した前記撮像データを画像処理し、記録用の画像を生成する画像処理エンジンと、を備え、
     前記撮像データの前記イメージセンサの1画素に対応するデータは、アナログ-デジタル変換回路で変換された最大のビット数の階調を有し、
     前記画像処理エンジンは、連続して受信した前記撮像データに基づいてライブビュー画像を生成し、
     前記サーバは、前記生成された前記ライブビュー画像を、前記第2通信部を介して前記撮像端末に送信し、
     前記撮像端末は、前記サーバから前記第1通信部を介して前記ライブビュー画像を受信すると、前記撮像端末のディスプレイに前記ライブビュー画像を表示させる、
     撮像システム。
  27.  請求項1から26のいずれか1項に記載の撮像システムを構成する撮像端末。
  28.  請求項1から26のいずれか1項に記載の撮像システムを構成するサーバ。
PCT/JP2022/027790 2021-08-30 2022-07-15 撮像システム、撮像端末及びサーバ Ceased WO2023032484A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280057941.1A CN117859336A (zh) 2021-08-30 2022-07-15 摄像系统、摄像终端及服务器
JP2023545141A JPWO2023032484A1 (ja) 2021-08-30 2022-07-15
US18/583,873 US20240195936A1 (en) 2021-08-30 2024-02-22 Imaging system, imaging terminal, and server

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-140046 2021-08-30
JP2021140046 2021-08-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/583,873 Continuation US20240195936A1 (en) 2021-08-30 2024-02-22 Imaging system, imaging terminal, and server

Publications (1)

Publication Number Publication Date
WO2023032484A1 true WO2023032484A1 (ja) 2023-03-09

Family

ID=85412108

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/027790 Ceased WO2023032484A1 (ja) 2021-08-30 2022-07-15 撮像システム、撮像端末及びサーバ

Country Status (4)

Country Link
US (1) US20240195936A1 (ja)
JP (1) JPWO2023032484A1 (ja)
CN (1) CN117859336A (ja)
WO (1) WO2023032484A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087618A (ja) * 2001-09-10 2003-03-20 Nikon Gijutsu Kobo:Kk デジタルカメラシステム、画像蓄積装置、およびデジタルカメラ
JP2004336343A (ja) * 2003-05-07 2004-11-25 Canon Inc 画像処理システム
JP2012095351A (ja) * 2012-01-12 2012-05-17 Olympus Corp 撮像システム
JP2015171042A (ja) * 2014-03-07 2015-09-28 キヤノン株式会社 画像処理システム及び画像撮像装置
JP2019054536A (ja) * 2013-02-28 2019-04-04 株式会社ニコン 電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087618A (ja) * 2001-09-10 2003-03-20 Nikon Gijutsu Kobo:Kk デジタルカメラシステム、画像蓄積装置、およびデジタルカメラ
JP2004336343A (ja) * 2003-05-07 2004-11-25 Canon Inc 画像処理システム
JP2012095351A (ja) * 2012-01-12 2012-05-17 Olympus Corp 撮像システム
JP2019054536A (ja) * 2013-02-28 2019-04-04 株式会社ニコン 電子機器
JP2015171042A (ja) * 2014-03-07 2015-09-28 キヤノン株式会社 画像処理システム及び画像撮像装置

Also Published As

Publication number Publication date
US20240195936A1 (en) 2024-06-13
JPWO2023032484A1 (ja) 2023-03-09
CN117859336A (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
US7030911B1 (en) Digital camera and exposure control method of digital camera
US8786728B2 (en) Image processing apparatus, image processing method, and storage medium storing image processing program
JP2003244529A (ja) デジタルカメラ
JP2004328461A (ja) オートホワイトバランス調整方法
US11798143B2 (en) Image processing apparatus and control method thereof
US9609167B2 (en) Imaging device capable of temporarily storing a plurality of image data, and control method for an imaging device
JP2006115475A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5793716B2 (ja) 撮像装置
JP2008236396A (ja) カメラシステム、撮像装置及びサービスサーバ
JP4189820B2 (ja) 撮像装置及び画像記録方法
JP4112259B2 (ja) 画像処理システム
US8994856B2 (en) Image processing apparatus, imaging apparatus, and image processing method for providing edge enhancement
US12425720B2 (en) Imaging apparatus and control method for imaging apparatus
JP2007135135A (ja) 動画像撮像装置
JP7110408B2 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
WO2023032484A1 (ja) 撮像システム、撮像端末及びサーバ
US20220337750A1 (en) Imaging apparatus and controlling method
JP2006166252A (ja) 撮像装置
JP2008053931A (ja) 撮像装置
JP2006074710A (ja) デジタルカメラ及びカメラシステム
JP2004048562A (ja) ノイズ低減回路及び撮像装置
JP3947912B2 (ja) 画像信号処理装置
JP3115912B2 (ja) 画像記録装置
JP2004304695A (ja) ホワイトバランス調整方法
JP5482427B2 (ja) 撮像装置、手ブレ補正方法、プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023545141

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280057941.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22864072

Country of ref document: EP

Kind code of ref document: A1