[go: up one dir, main page]

JP2010181509A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2010181509A
JP2010181509A JP2009023208A JP2009023208A JP2010181509A JP 2010181509 A JP2010181509 A JP 2010181509A JP 2009023208 A JP2009023208 A JP 2009023208A JP 2009023208 A JP2009023208 A JP 2009023208A JP 2010181509 A JP2010181509 A JP 2010181509A
Authority
JP
Japan
Prior art keywords
unit
projection
position information
projector
gps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009023208A
Other languages
Japanese (ja)
Inventor
Takanori Fujiwara
孝憲 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009023208A priority Critical patent/JP2010181509A/en
Publication of JP2010181509A publication Critical patent/JP2010181509A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】電子機器の使用場所に応じてその機器の機能を制限する。
【解決手段】画像を投影面に向けて投影するプロジェクタユニット120と、使用者の現在の位置情報を取得するGPSユニット110と、GPSユニットで取得された位置情報に基づいてプロジェクタユニット120による画像の投影の可否を判断する制御手段101とを備える。さらに、位置情報の変化に対応する投影のパラメータの値が記憶されたテーブルを備え、制御手段101は、プロジェクタユニット120で投影する際、位置情報の変化に応じて前記投影のパラメータの値を変更する。
【選択図】図3
A function of an electronic device is limited according to a place where the electronic device is used.
A projector unit 120 that projects an image onto a projection surface, a GPS unit 110 that acquires current position information of a user, and an image of the image by the projector unit 120 based on the position information acquired by the GPS unit. Control means 101 for determining whether or not projection is possible. Further, the control unit 101 includes a table storing projection parameter values corresponding to changes in position information, and the control unit 101 changes the projection parameter values according to changes in position information when the projector unit 120 performs projection. To do.
[Selection] Figure 3

Description

この発明は電子機器に関する。   The present invention relates to an electronic device.

従来、撮影手段及び投影手段を備えるとともに、複数のGPS信号を受信して現在位置や現在時刻等を算出可能なGPSレシーバを備える携帯電話機(電子機器)が知られている(下記公報参照)。   2. Description of the Related Art Conventionally, there has been known a cellular phone (electronic device) that includes a GPS receiver that includes an imaging unit and a projection unit and that can receive a plurality of GPS signals and calculate a current position, a current time, and the like (see the following publication).

特開2005−203953号公報JP 2005-203953 A

上記携帯電話機を用いれば様々な場所で撮影や投影を行うことができる。しかし、上記携帯電話機を映画館、美術館、病院等にように撮影や投影を禁止される場所に持ち込んだとき、誤操作等によってフラッシュ撮影機能や投影機能が働くおそれがあった。   If the mobile phone is used, shooting and projection can be performed in various places. However, when the mobile phone is brought into a place where photographing or projection is prohibited, such as in a movie theater, a museum, or a hospital, there is a possibility that the flash photographing function or the projection function may work due to an erroneous operation.

この発明はこのような事情に鑑みてなされたもので、その課題は電子機器の使用場所に応じてその機器の機能を制限することである。   The present invention has been made in view of such circumstances, and the problem is to limit the function of the device according to the place where the electronic device is used.

上記課題を解決するため請求項1記載の発明は、画像を投影面に向けて投影するプロジェクタユニットと、使用者の現在の位置情報を取得するGPSユニットと、前記GPSユニットで取得された前記位置情報に基づいて前記プロジェクタユニットによる投影の可否を判断する制御手段とを備えていることを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is a projector unit that projects an image onto a projection surface, a GPS unit that acquires current position information of a user, and the position acquired by the GPS unit. And control means for determining whether or not projection by the projector unit is possible based on the information.

請求項2に記載の発明は、請求項1記載の電子機器において、前記位置情報の変化に対応する投影のパラメータの値が記憶されたテーブルを備え、前記制御手段は、前記プロジェクタユニットで投影する際、前記位置情報の変化に応じて前記投影のパラメータの値を変更することを特徴とする。   According to a second aspect of the present invention, in the electronic device according to the first aspect of the present invention, the electronic device includes a table in which values of projection parameters corresponding to the change in the position information are stored, and the control unit projects using the projector unit. In this case, the value of the projection parameter is changed according to the change of the position information.

請求項3に記載の発明は、請求項2記載の電子機器において、前記パラメータの種類として、少なくとも光量、音量が含まれていることを特徴とする。     According to a third aspect of the present invention, in the electronic device according to the second aspect, at least a light amount and a volume are included as the types of the parameters.

請求項4に記載の発明は、請求項1〜3のいずれか1項記載の電子機器において、被写体像を取得する撮像ユニットを備えていることを特徴とする。   According to a fourth aspect of the present invention, in the electronic device according to any one of the first to third aspects, an imaging unit that acquires a subject image is provided.

請求項5に記載の発明は、被写体像を取得する撮像ユニットと、使用者の現在の位置情報を取得するGPSユニットと、前記GPSユニットで取得される前記位置情報の変化に応じて前記撮像ユニットによる撮影のパラメータの値を変更する制御手段とを備えていることを特徴とする。   The invention according to claim 5 is an imaging unit that acquires a subject image, a GPS unit that acquires current position information of a user, and the imaging unit according to a change in the position information acquired by the GPS unit. And a control means for changing the value of the shooting parameter according to the above.

この発明によれば、電子機器の使用場所に応じてその機器の機能を制限することができる。   According to this invention, the function of the device can be restricted according to the place where the electronic device is used.

図1はカメラの斜視図である。FIG. 1 is a perspective view of the camera. 図2はカメラの背面図である。FIG. 2 is a rear view of the camera. 図3はこの発明の第1実施形態に係るカメラのブロック図である。FIG. 3 is a block diagram of the camera according to the first embodiment of the present invention. 図4は投影の可否の処理を説明するフローチャートである。FIG. 4 is a flowchart for explaining the process of whether to permit projection. 図5は投影条件を変更する処理を説明するフローチャートである。FIG. 5 is a flowchart for explaining the process of changing the projection condition. 図6は場所とパラメータとの関係を示すテーブルの図である。FIG. 6 is a table showing the relationship between locations and parameters. 図7はこの発明の第2実施形態に係るカメラのブロック図である。FIG. 7 is a block diagram of a camera according to the second embodiment of the present invention. 図8はCPUによって行われる撮影の可否及び撮影条件を変更する処理を説明するフローチャートである。FIG. 8 is a flowchart for explaining processing for changing the photographing availability and photographing conditions performed by the CPU. 図9は場所と撮影のパラメータとの関係を示すテーブルの図である。FIG. 9 is a table showing the relationship between location and shooting parameters.

以下、この発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図3はこの発明の第1実施形態に係るカメラ2のブロック図である。   FIG. 3 is a block diagram of the camera 2 according to the first embodiment of the present invention.

カメラ(電子機器)2は制御部100と撮像ユニット130とプロジェクタユニット120とを備えている。   The camera (electronic device) 2 includes a control unit 100, an imaging unit 130, and a projector unit 120.

制御部100は、CPU(制御手段)101とメモリ102と操作部材103と液晶表示器22とスピーカ25と外部インタフェース106と電源回路107とマイク109とGPSユニット110とメモリカード200とを備えている。電源回路107には電池108が接続されている。   The control unit 100 includes a CPU (control means) 101, a memory 102, an operation member 103, a liquid crystal display 22, a speaker 25, an external interface 106, a power circuit 107, a microphone 109, a GPS unit 110, and a memory card 200. . A battery 108 is connected to the power supply circuit 107.

GPSユニット110はGPSレシーバ111とGPSアンテナ112とで構成される。GPSレシーバ111は、GPSアンテナ112が受信する複数のGPS衛星からの測位情報により使用者が現在いる位置の緯度、経度、及び高度と正確な現在時刻とを算出し、算出結果をCPU101へ出力する。   The GPS unit 110 includes a GPS receiver 111 and a GPS antenna 112. The GPS receiver 111 calculates the latitude, longitude, altitude of the position where the user is currently located, and the accurate current time based on positioning information from a plurality of GPS satellites received by the GPS antenna 112, and outputs the calculation result to the CPU 101. .

プロジェクタユニット120は投影光学系121と液晶パネル122とLED光源123と投影制御回路124とレンズ駆動回路125とを備えている。   The projector unit 120 includes a projection optical system 121, a liquid crystal panel 122, an LED light source 123, a projection control circuit 124, and a lens driving circuit 125.

撮像ユニット130は撮像光学系131とCCDやCMOS等の撮像素子132と撮像制御回路133とレンズ駆動回路134とを備えている。   The imaging unit 130 includes an imaging optical system 131, an imaging element 132 such as a CCD or CMOS, an imaging control circuit 133, and a lens driving circuit 134.

CPU101は、制御プログラムに基づいて、プロジェクタユニット120からの信号を入力して所定の演算を行い、演算結果に基づいてプロジェクタユニット120に制御信号を出力してプロジェクタユニット120の投影動作を制御する。   Based on the control program, the CPU 101 inputs a signal from the projector unit 120 to perform a predetermined calculation, and outputs a control signal to the projector unit 120 based on the calculation result to control the projection operation of the projector unit 120.

また、CPU101はGPSユニット110の出力に基づいて現在位置が屋内であるか屋外であるかを判断する。更に、CPU101は、プロジェクタユニット120で投影する際、GPSユニット110によって得られた位置情報の変化に応じて投影のパラメータ(光量及び音量)の値を変更する。なお、位置情報の変化に対応する投影のパラメータの値はテーブルとしてメモリカード200に記憶されている。   Further, the CPU 101 determines whether the current position is indoor or outdoor based on the output of the GPS unit 110. Furthermore, when projecting by the projector unit 120, the CPU 101 changes the values of projection parameters (light quantity and volume) according to the change in the position information obtained by the GPS unit 110. Note that the values of the projection parameters corresponding to the change in the position information are stored in the memory card 200 as a table.

また、CPU101は、制御プログラムに基づいて、撮像ユニット130からの信号を入力して所定の演算を行い、撮像ユニット130に制御信号を出力して撮像ユニット130の撮影動作を制御する。   Further, based on the control program, the CPU 101 inputs a signal from the imaging unit 130 and performs a predetermined calculation, and outputs a control signal to the imaging unit 130 to control the shooting operation of the imaging unit 130.

なお、制御プログラムはCPU101内の不揮発性メモリ(図示せず)に記憶されている。   The control program is stored in a non-volatile memory (not shown) in the CPU 101.

メモリ102はCPU101の作業領域として使用される。操作部材103は操作に対応する信号をCPU101に出力する。   The memory 102 is used as a work area for the CPU 101. The operation member 103 outputs a signal corresponding to the operation to the CPU 101.

メモリカード200は不揮発性メモリによって構成され、制御部100のカードスロット(図示せず)に装着可能な記憶媒体である。なお、メモリカード200には、撮像した画像データや、他の機器から取り込んだ画像その他のデータが記憶されている。   The memory card 200 is a non-volatile memory and is a storage medium that can be mounted in a card slot (not shown) of the control unit 100. The memory card 200 stores captured image data and images and other data captured from other devices.

外部インタフェース106は、CPU101からの指令によりケーブル(図示せず)を介して外部機器(図示せず)との間でデータの送受信を行う。データは映像・音声データである。   The external interface 106 transmits / receives data to / from an external device (not shown) via a cable (not shown) in response to a command from the CPU 101. The data is video / audio data.

スピーカ25はCPU101からの音声信号を入力して音声を再生する。マイク109はCPU101からの指令に基づいて外部の音を取得する。液晶表示器22はCPU101からの指令により画像(スルー画含む)、メニュー画面等を表示する。   The speaker 25 receives the audio signal from the CPU 101 and reproduces the audio. The microphone 109 acquires an external sound based on a command from the CPU 101. The liquid crystal display 22 displays an image (including a through image), a menu screen, and the like according to a command from the CPU 101.

電池108はプロジェクタユニット120、撮像ユニット130に電力を供給する。電源回路107は、DC/DC変換回路、充電回路及び電圧検出回路を有する。   The battery 108 supplies power to the projector unit 120 and the imaging unit 130. The power supply circuit 107 includes a DC / DC conversion circuit, a charging circuit, and a voltage detection circuit.

投影制御回路124は、CPU101からの指令により液晶パネル122、LED光源123及びレンズ駆動回路125をそれぞれ制御する。投影制御回路124は、CPU101からの指令により電池108からLED光源123に電流を供給する。LED光源123は供給電流に応じた明るさで液晶パネル122を照明する。   The projection control circuit 124 controls the liquid crystal panel 122, the LED light source 123, and the lens driving circuit 125, respectively, according to instructions from the CPU 101. The projection control circuit 124 supplies a current from the battery 108 to the LED light source 123 according to a command from the CPU 101. The LED light source 123 illuminates the liquid crystal panel 122 with brightness according to the supply current.

投影制御回路124は、CPU101から送られる画像データに応じて液晶パネル駆動電流を生成し、生成した駆動電流で液晶パネル122を駆動する。   The projection control circuit 124 generates a liquid crystal panel drive current according to the image data sent from the CPU 101, and drives the liquid crystal panel 122 with the generated drive current.

レンズ駆動回路125は、投影制御回路124からの指令に基づいて、投影光学系121を光軸方向へ移動させる。投影光学系121は液晶パネル122から射出される画像をプロジェクタ投影窓10(図1参照)を介して拡大投影する。   The lens driving circuit 125 moves the projection optical system 121 in the optical axis direction based on a command from the projection control circuit 124. The projection optical system 121 enlarges and projects an image emitted from the liquid crystal panel 122 through the projector projection window 10 (see FIG. 1).

撮像制御回路133は、CPU101からの指令により撮像素子132及びレンズ駆動回路134をそれぞれ制御するとともに、撮像素子132から出力される撮像信号に対して所定の画像処理を行う。画像処理は例えばホワイトバランス処理である。撮像光学系131は撮像素子131の受光面上に被写体像を結像させる。撮像制御回路133は、CPU101からの指令により応じて撮像素子132による撮像を開始させ、撮像終了後に撮像素子132から撮像信号を入力して画像処理を施し、画像データとして制御部100に出力する。   The imaging control circuit 133 controls the imaging element 132 and the lens driving circuit 134 according to commands from the CPU 101, and performs predetermined image processing on the imaging signal output from the imaging element 132. The image processing is, for example, white balance processing. The imaging optical system 131 forms a subject image on the light receiving surface of the imaging element 131. The imaging control circuit 133 starts imaging by the imaging element 132 in response to a command from the CPU 101, inputs an imaging signal from the imaging element 132 after the imaging is completed, performs image processing, and outputs the image data to the control unit 100.

レンズ駆動回路134は撮像制御回路133から出力されるズーム調節信号に基づいて撮像光学系131を光軸方向へ駆動する。   The lens driving circuit 134 drives the imaging optical system 131 in the optical axis direction based on the zoom adjustment signal output from the imaging control circuit 133.

図1は図3に示すカメラ2の斜視図である。   FIG. 1 is a perspective view of the camera 2 shown in FIG.

カメラ2の筐体3は、アルミニウム板等からなる前カバー4及び後カバー6と、側面カバー7で構成されている。   The housing 3 of the camera 2 includes a front cover 4 and a rear cover 6 made of an aluminum plate or the like, and a side cover 7.

前カバー4には、撮影窓8とプロジェクタ投影窓10とフラッシュ光が射出されるフラッシュ窓12とが設けられている。   The front cover 4 is provided with a photographing window 8, a projector projection window 10, and a flash window 12 through which flash light is emitted.

また、筐体3の上面には、電源スイッチ14と、レリーズ動作を指示するシャッタボタン16と、カメラ撮影を行う撮影モードとプロジェクタ投影を行うプロジェクタモードとを切り替えるモード切替ボタン18と、プロジェクタ投影時の投影画像のピント調整を行うための操作レバーであるプロジェクタフォーカスレバー20とが設けられている。電源スイッチ14、シャッタボタン16、モード切替ボタン18、プロジェクタフォーカスレバー20及び操作ボタン24で図3に示す操作部材103が構成される。   Further, on the top surface of the housing 3, a power switch 14, a shutter button 16 for instructing a release operation, a mode switching button 18 for switching between a photographing mode for performing camera photographing and a projector mode for performing projector projection, and a projector projection time And a projector focus lever 20 which is an operation lever for adjusting the focus of the projected image. The power switch 14, the shutter button 16, the mode switching button 18, the projector focus lever 20, and the operation button 24 constitute the operation member 103 shown in FIG.

図2はカメラ2の背面図である。   FIG. 2 is a rear view of the camera 2.

後カバー6には、液晶表示器22と、液晶表示器22に表示された操作メニュー等を選択するマルチセレクタ等を備える操作ボタン24と、再生モード又はプロジェクタモード時に音声を出力するスピーカ25とが設けられている。   The rear cover 6 includes a liquid crystal display 22, an operation button 24 including a multi-selector for selecting an operation menu displayed on the liquid crystal display 22, and a speaker 25 that outputs sound in the playback mode or the projector mode. Is provided.

また、筐体3内には、GPSユニット110を構成するGPSレシーバ111とGPSアンテナ112とが収容されている。GPSユニット110は筐体3に支持部材(図示せず)により支持されている。   In addition, a GPS receiver 111 and a GPS antenna 112 constituting the GPS unit 110 are accommodated in the housing 3. The GPS unit 110 is supported on the housing 3 by a support member (not shown).

次に、プロジェクタユニット120による投影の可否の処理を図4のフローチャートに基づいて説明する。   Next, a process for determining whether or not projection by the projector unit 120 is possible will be described with reference to the flowchart of FIG.

図4は投影の可否の処理を説明するフローチャートである。図4においてS1〜S6は処理の各ステップを示す。   FIG. 4 is a flowchart for explaining the process of whether to permit projection. In FIG. 4, S1 to S6 indicate each step of the process.

まず、モード切替ボタン18を操作してプロジェクタモード(PJモード)にする(S1)。   First, the mode switching button 18 is operated to set the projector mode (PJ mode) (S1).

プロジェクタモード(PJモード)が選択されると、CPU101はGPSユニット110を起動する(S2)。   When the projector mode (PJ mode) is selected, the CPU 101 activates the GPS unit 110 (S2).

GPSレシーバ111は、GPSアンテナ112が受信する複数のGPS衛星からの測位情報により現在位置を算出し、算出結果をCPU101へ出力する(S3)。   The GPS receiver 111 calculates the current position based on positioning information from a plurality of GPS satellites received by the GPS antenna 112, and outputs the calculation result to the CPU 101 (S3).

CPU101は、算出された現在位置に応じてプロジェクタユニット120による投影の可否を判断する(S4)。   The CPU 101 determines whether or not projection by the projector unit 120 is possible according to the calculated current position (S4).

現在位置がプロジェクタユニット120による投影を許される場所であると判断されたとき(YES)、CPU101は投影を許容する制御信号を投影制御回路124に出力し、 プロジェクタ投影窓10(図1参照)を介して投影画像がスクリーン(図示せず)等に拡大投影される(S5)。   When it is determined that the current position is a place where projection by the projector unit 120 is allowed (YES), the CPU 101 outputs a control signal allowing projection to the projection control circuit 124, and the projector projection window 10 (see FIG. 1) is displayed. Then, the projected image is enlarged and projected on a screen (not shown) or the like (S5).

これに対し、現在位置が病院や映画館等のようにプロジェクタユニット120による投影を許されない場所であると判断されたとき(NO)、CPU101は投影を禁止する制御信号を投影制御回路124に出力し、投影可否の処理が終了し、投影は行われない(S6)。   On the other hand, when it is determined that the current position is a place where projection by the projector unit 120 is not allowed, such as a hospital or a movie theater (NO), the CPU 101 outputs a control signal for prohibiting projection to the projection control circuit 124. Then, the projection permission / prohibition processing ends, and projection is not performed (S6).

次に、プロジェクタユニット120の投影が行われることになったときの投影条件変更の処理を図5のフローチャートに基づいて説明する。   Next, a process for changing the projection condition when the projection of the projector unit 120 is performed will be described based on the flowchart of FIG.

図5は投影条件を変更する処理を説明するフローチャート、図6は場所(現在位置)とパラメータとの関係を示すテーブルである。図5においてS11〜S18は処理の各ステップを示す。図6において、光量及び音量がパラメータである。   FIG. 5 is a flowchart for explaining the process for changing the projection condition, and FIG. 6 is a table showing the relationship between the location (current position) and the parameter. In FIG. 5, S11-S18 show each step of a process. In FIG. 6, light quantity and volume are parameters.

なお、S11〜S14までのステップは図4に示したS1〜S4と同じであるのでその説明を省略する。   The steps from S11 to S14 are the same as S1 to S4 shown in FIG.

現在位置がプロジェクタユニット120による投影を許される場所であるとき(YES)、投影のパラメータを変更するか否かを判断する(S15)。   When the current position is a place where projection by the projector unit 120 is allowed (YES), it is determined whether or not to change the projection parameters (S15).

投影のパラメータを変更するとき(YES)、GPSユニット110で得られた位置情報をもとにパラメータをテーブルに書き込まれた値に設定する(S16)。例えば、屋外の場合には、光量、音量ともに大きくする(図6参照)。   When changing the projection parameters (YES), the parameters are set to values written in the table based on the position information obtained by the GPS unit 110 (S16). For example, in the case of outdoors, both the light amount and the volume are increased (see FIG. 6).

その後、液晶パネル122から射出された画像がスクリーン等に拡大投影される(S17)。   Thereafter, the image emitted from the liquid crystal panel 122 is enlarged and projected onto a screen or the like (S17).

現在位置がプロジェクタユニット120による投影を禁止する場所であるとき(NO)、投影条件を変更する処理が終了する(S18)。   When the current position is a place where the projection by the projector unit 120 is prohibited (NO), the process for changing the projection condition ends (S18).

なお、図6のテーブルでは場所の違いによって光量、音量が変わるが、場所だけでなく時間(昼間であるか夜であるか等)の違いによって光量、音量を変えるようにしてもよい。また、パラメータとしては光量、音量以外にコントラスト等がある。   In the table of FIG. 6, the light amount and the sound volume change depending on the location, but the light amount and the sound volume may be changed depending on not only the location but also the time (daytime or night). In addition to the light quantity and volume, the parameters include contrast and the like.

また、例えばカメラ2を一定の場所だけで使用する場合には、GPSユニット110が起動しない設定としてもよいし、GPSユニット110で算出された位置情報に基づいてパラメータの変更の判断をしてもよい。   Further, for example, when the camera 2 is used only at a certain place, the GPS unit 110 may be set not to be activated, or the parameter change may be determined based on the position information calculated by the GPS unit 110. Good.

この実施形態によれば、GPSユニット110で算出された現在位置がプロジェクタユニット120による投影を禁止する場所であるときには、投影が行われずに処理が終了するので、投影を禁止する場所では確実に投影を行われないようにすることができる。   According to this embodiment, when the current position calculated by the GPS unit 110 is a place where the projection by the projector unit 120 is prohibited, the projection is not performed and the process ends. Therefore, the projection is reliably performed at the place where the projection is prohibited. Can be avoided.

図7はこの発明の第2実施形態に係るカメラ202のブロック図、図8はCPU101によって行われる撮影の可否及び撮影条件を変更する処理を説明するフローチャートであり、第1実施形態と共通する部分には同一符号を付してその説明を省略する。   FIG. 7 is a block diagram of the camera 202 according to the second embodiment of the present invention, and FIG. 8 is a flowchart for explaining processing for changing the photographing availability and photographing conditions performed by the CPU 101, and is a part common to the first embodiment. Are denoted by the same reference numerals and description thereof is omitted.

この実施形態はプロジェクタユニット120がない点で第1実施形態と相違する。   This embodiment is different from the first embodiment in that the projector unit 120 is not provided.

以下、CPU101によって行われる撮影ユニット130の撮影の可否の処理を説明する。S21〜S28は処理の各ステップを示す。   Hereinafter, the process of whether or not the photographing unit 130 can perform photographing performed by the CPU 101 will be described. S21 to S28 show the steps of the process.

例えばシャッタボタン16が押されたとき、自動的に撮影モードが選択される(S21)。   For example, when the shutter button 16 is pressed, the shooting mode is automatically selected (S21).

撮影モードが選択されると、CPU101はGPSユニット110を起動する(S22)。   When the shooting mode is selected, the CPU 101 activates the GPS unit 110 (S22).

GPSレシーバ111は、GPSアンテナ112が受信する複数のGPS衛星からの測位情報により現在位置を算出し、算出結果をCPU101へ出力する(S23)。   The GPS receiver 111 calculates the current position based on positioning information from a plurality of GPS satellites received by the GPS antenna 112, and outputs the calculation result to the CPU 101 (S23).

CPU101は、算出された現在位置に応じて撮像ユニット130による撮影の可否を判断する(S24)。   The CPU 101 determines whether or not shooting by the imaging unit 130 is possible according to the calculated current position (S24).

現在位置が撮像ユニット130による撮影を許される場所であると判断されたとき、撮影のパラメータを変更するか否かを判断する(S25)。   When it is determined that the current position is a place where shooting by the imaging unit 130 is permitted, it is determined whether or not to change the shooting parameters (S25).

現在位置が撮影を禁止する場所であると判断されたとき(NO)、撮影の可否及び撮影条件を変更する処理が終了する(S28)。   When it is determined that the current position is a place where photographing is prohibited (NO), the processing for changing whether photographing is possible and photographing conditions ends (S28).

撮影のパラメータを変更するとき(YES)、GPSユニット110で得られた位置情報をもとにパラメータをテーブルに書き込まれた値に設定する(S26)。撮影のパラメータを変更しないとき(NO)、ステップS27へ進む。   When changing the shooting parameter (YES), the parameter is set to the value written in the table based on the position information obtained by the GPS unit 110 (S26). When the shooting parameters are not changed (NO), the process proceeds to step S27.

図9は場所(現在位置)と撮影のパラメータとの関係を示すテーブルである。   FIG. 9 is a table showing the relationship between a place (current position) and shooting parameters.

図9には音量、フラッシュ、ホワイトバランス、ISO感度がパラメータとして表示されている。音量、フラッシュ、ホワイトバランス、ISO感度は、屋外の昼、屋外の夜、屋内に合わせて予め用意された設定から選択されることがわかる。なお、太陽、フラッシュ及び蛍光灯のマークは、屋外の昼、屋外の夜、屋内において被写体を照らす光源をそれぞれ示す。   In FIG. 9, volume, flash, white balance, and ISO sensitivity are displayed as parameters. It can be seen that the volume, flash, white balance, and ISO sensitivity are selected from settings prepared in advance for outdoor daytime, outdoor night, and indoor. Note that the sun, flash, and fluorescent light marks respectively indicate light sources that illuminate a subject in outdoor daytime, outdoor night, and indoor.

ステップS27では、フラッシュ窓12を介してフラッシュ光を射出し、撮影窓(図示せず)を介して被写体像を撮像素子132の受光面上に結像させる。   In step S <b> 27, flash light is emitted through the flash window 12, and a subject image is formed on the light receiving surface of the image sensor 132 through the photographing window (not shown).

この実施形態によれば、GPSユニット110で算出された現在位置が撮影ユニット130による撮影を禁止する場所であるときには、撮影が行われないので、フラッシュ撮影を禁止する場所では確実に撮影を行われないようにすることができる。   According to this embodiment, since shooting is not performed when the current position calculated by the GPS unit 110 is a place where shooting by the shooting unit 130 is prohibited, shooting is surely performed at a place where flash shooting is prohibited. Can not be.

2: カメラ(電子機器)、101:CPU(制御手段)、110:GPSユニット、120:プロジェクタユニット、130:撮像ユニット。   2: Camera (electronic device), 101: CPU (control means), 110: GPS unit, 120: projector unit, 130: imaging unit.

Claims (5)

画像を投影面に向けて投影するプロジェクタユニットと、
使用者の現在の位置情報を取得するGPSユニットと、
前記GPSユニットで取得された前記位置情報に基づいて前記プロジェクタユニットによる投影の可否を判断する制御手段と
を備えていることを特徴とする電子機器。
A projector unit that projects an image onto a projection surface;
A GPS unit for obtaining the current location information of the user;
An electronic device comprising: control means for determining whether or not projection by the projector unit is possible based on the position information acquired by the GPS unit.
前記位置情報の変化に対応する投影のパラメータの値が記憶されたテーブルを備え、
前記制御手段は、前記プロジェクタユニットで投影する際、前記位置情報の変化に応じて前記投影のパラメータの値を変更することを特徴とする請求項1記載の電子機器。
A table storing projection parameter values corresponding to changes in the position information;
2. The electronic apparatus according to claim 1, wherein the control unit changes a value of the projection parameter according to a change in the position information when the projector unit projects.
前記パラメータの種類として、少なくとも光量、音量が含まれていることを特徴とする請求項2記載の電子機器。   The electronic apparatus according to claim 2, wherein at least a light amount and a sound volume are included as the types of the parameters. 被写体像を取得する撮像ユニットを備えていることを特徴とする請求項1〜3のいずれか1項記載の電子機器。   The electronic apparatus according to claim 1, further comprising an imaging unit that acquires a subject image. 被写体像を取得する撮像ユニットと、
使用者の現在の位置情報を取得するGPSユニットと、
前記GPSユニットで取得される前記位置情報の変化に応じて前記撮像ユニットによる撮影のパラメータの値を変更する制御手段と
を備えていることを特徴とする電子機器。
An imaging unit for acquiring a subject image;
A GPS unit for obtaining the current location information of the user;
An electronic apparatus comprising: control means for changing a value of a parameter for photographing by the imaging unit in accordance with a change in the position information acquired by the GPS unit.
JP2009023208A 2009-02-04 2009-02-04 Electronic device Pending JP2010181509A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009023208A JP2010181509A (en) 2009-02-04 2009-02-04 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009023208A JP2010181509A (en) 2009-02-04 2009-02-04 Electronic device

Publications (1)

Publication Number Publication Date
JP2010181509A true JP2010181509A (en) 2010-08-19

Family

ID=42763107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009023208A Pending JP2010181509A (en) 2009-02-04 2009-02-04 Electronic device

Country Status (1)

Country Link
JP (1) JP2010181509A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034025A (en) * 2012-12-28 2013-04-10 王万龙 Light-emitting diode (LED) protector with anti-theft device
JP2014239389A (en) * 2013-06-10 2014-12-18 正之 常盤 Photography control apparatus, remote supervisory system and photography control program
US9164721B2 (en) 2012-05-28 2015-10-20 Ricoh Company, Ltd. Information display device and information display method
WO2016125542A1 (en) * 2015-02-06 2016-08-11 シャープ株式会社 Projection control device, control program, and control method
US11455329B2 (en) 2019-08-12 2022-09-27 International Business Machines Corporation Web-sourced device control

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004153599A (en) * 2002-10-31 2004-05-27 Konica Minolta Holdings Inc Camera
JP2004336326A (en) * 2003-05-07 2004-11-25 Canon Inc Image processing device
JP2005203953A (en) * 2004-01-14 2005-07-28 Casio Comput Co Ltd Imaging projection device
JP2005328271A (en) * 2004-05-13 2005-11-24 Canon Inc Imaging device
JP2006041800A (en) * 2004-07-26 2006-02-09 Fuji Photo Film Co Ltd Photography device
JP2006080875A (en) * 2004-09-09 2006-03-23 Nikon Corp Electronics
JP2006293120A (en) * 2005-04-13 2006-10-26 Seiko Epson Corp projector
JP2007025483A (en) * 2005-07-20 2007-02-01 Ricoh Co Ltd Image storage processing device
JP2007266928A (en) * 2006-03-28 2007-10-11 Casio Comput Co Ltd Mobile device and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004153599A (en) * 2002-10-31 2004-05-27 Konica Minolta Holdings Inc Camera
JP2004336326A (en) * 2003-05-07 2004-11-25 Canon Inc Image processing device
JP2005203953A (en) * 2004-01-14 2005-07-28 Casio Comput Co Ltd Imaging projection device
JP2005328271A (en) * 2004-05-13 2005-11-24 Canon Inc Imaging device
JP2006041800A (en) * 2004-07-26 2006-02-09 Fuji Photo Film Co Ltd Photography device
JP2006080875A (en) * 2004-09-09 2006-03-23 Nikon Corp Electronics
JP2006293120A (en) * 2005-04-13 2006-10-26 Seiko Epson Corp projector
JP2007025483A (en) * 2005-07-20 2007-02-01 Ricoh Co Ltd Image storage processing device
JP2007266928A (en) * 2006-03-28 2007-10-11 Casio Comput Co Ltd Mobile device and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164721B2 (en) 2012-05-28 2015-10-20 Ricoh Company, Ltd. Information display device and information display method
CN103034025A (en) * 2012-12-28 2013-04-10 王万龙 Light-emitting diode (LED) protector with anti-theft device
JP2014239389A (en) * 2013-06-10 2014-12-18 正之 常盤 Photography control apparatus, remote supervisory system and photography control program
WO2016125542A1 (en) * 2015-02-06 2016-08-11 シャープ株式会社 Projection control device, control program, and control method
JPWO2016125542A1 (en) * 2015-02-06 2017-10-12 シャープ株式会社 Projection control apparatus, control program, and control method
US11455329B2 (en) 2019-08-12 2022-09-27 International Business Machines Corporation Web-sourced device control

Similar Documents

Publication Publication Date Title
JP5506499B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP5570316B2 (en) Imaging apparatus, control method thereof, and program
US8125535B2 (en) Imaging apparatus, continuous shooting control method, and program therefor
US7978254B2 (en) Image capturing apparatus, its controlling method, and program
JP2009177328A (en) Imaging device
JP2004297478A (en) Digital camera
CN103891265A (en) Remotely controllable digital video camera system
JP2010163114A (en) Portable navigation device with camera
US20090251587A1 (en) Digital photographing apparatus
JP2010181509A (en) Electronic device
JP2019054378A (en) Imaging apparatus and control method thereof, and program
US7689119B2 (en) Digital camera that stores the location of an object
US20050225658A1 (en) Digital camera
JP5120195B2 (en) Electronics
JP2020071355A (en) Imaging device
JP5609673B2 (en) Data processing device
US8493475B2 (en) Imaging apparatus and control method thereof
JP2008005034A (en) Imaging condition setting system, imaging condition setting method, imaging condition providing server, and imaging apparatus
JP2006186717A (en) Imaging device
JP2009159394A (en) Electronics
JP2013120998A (en) Camera
JP2010016476A (en) Imaging apparatus with projector
JP2019009571A (en) Log device
US20100302430A1 (en) Image capturing apparatus and control program for the same
JP2005333482A (en) Photographing limit system, photographing device and photographing limiting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140819