JP6276170B2 - Display device and display method - Google Patents
Display device and display method Download PDFInfo
- Publication number
- JP6276170B2 JP6276170B2 JP2014244842A JP2014244842A JP6276170B2 JP 6276170 B2 JP6276170 B2 JP 6276170B2 JP 2014244842 A JP2014244842 A JP 2014244842A JP 2014244842 A JP2014244842 A JP 2014244842A JP 6276170 B2 JP6276170 B2 JP 6276170B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- unit
- user
- sun visor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
Description
本発明は、表示装置および表示方法に関する。 The present invention relates to a display device and a display method.
従来、外出時の美容対策や太陽光の直射防止のために、紫外線を遮るサンバイザが利用されている。また、例えば、顔に当たる紫外線を最小限にするために、顔の大部分の覆う遮光サンバイザが知られている(例えば、非特許文献1参照)。 Conventionally, sun visors that block ultraviolet rays are used for beauty measures when going out and for preventing direct sunlight. Further, for example, in order to minimize ultraviolet rays hitting the face, a shading sun visor that covers most of the face is known (see, for example, Non-Patent Document 1).
しかしながら、上記した従来のサンバイザでは、利用者の目が隠れてしまい、利用者の視線が他者には分からないという課題があった。このため、利用者の顔から利用者の動きを予測することができず、例えば、自転車を運転している場合等は安全な通行が行えない場合があった。なお、所定の投影画像を表示するプロジェクタの技術は知られているが(例えば、特許文献1参照)、利用者の視線等をサンバイザ等に表示するものではない。 However, the conventional sun visor described above has a problem that the user's eyes are hidden and the user's line of sight is unknown to others. For this reason, the movement of the user cannot be predicted from the user's face, and for example, when a bicycle is driven, there is a case where safe passage cannot be performed. In addition, although the technique of the projector which displays a predetermined projection image is known (for example, refer patent document 1), it does not display a user's eyes | visual_axis etc. on a sun visor etc.
そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、サンバイザ等の遮蔽物で顔が覆われたユーザの視線が他者に判別できることを目的とする。 Therefore, the present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to make it possible for another person to determine the line of sight of a user whose face is covered with a shielding object such as a sun visor.
上述した課題を解決し、目的を達成するために、本発明に係る表示装置は、目の部分が遮蔽物により外部から覆われているユーザの顔の画像を前記遮蔽物の内側から撮影する撮影部と、前記撮影部によって撮影された顔の画像からユーザの目の部分を検出する検出部と、前記検出部によって検出された目の部分に関する画像を外部から視認可能な投影面に投影する投影部と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the display device according to the present invention captures an image of the face of the user whose eyes are covered from the outside by a shielding object from the inside of the shielding object. A projection unit for projecting an image relating to the eye part detected by the detection unit onto a projection plane visible from outside And a section.
また、本発明に係る表示方法は、表示装置で実行される表示方法であって、目の部分が遮蔽物により外部から覆われているユーザの顔の画像を前記遮蔽物の内側から撮影する撮影工程と、前記撮影工程によって撮影された顔の画像からユーザの目の部分を検出する検出工程と、前記検出工程によって検出された目の部分に関する画像を外部から視認可能な投影面に投影する投影工程と、を含んだことを特徴とする。 Further, the display method according to the present invention is a display method executed by a display device, and is an image capturing method for capturing an image of a user's face, whose eyes are covered from the outside by a shield, from the inside of the shield. A step of detecting a user's eye part from a face image photographed by the photographing process, and a projection for projecting an image relating to the eye part detected by the detection process onto a projection surface visible from outside And a process.
開示の表示装置および表示方法によれば、サンバイザ等の遮蔽物で顔が覆われたユーザの視線を他者に判別させることを可能にする。 According to the display device and the display method of the disclosure, it is possible to make another person determine the line of sight of a user whose face is covered with a shield such as a sun visor.
以下に添付図面を参照して、この発明に係る表示装置および表示方法の実施例を詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Exemplary embodiments of a display device and a display method according to the present invention will be described below in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments.
[実施例1に係る表示装置の構成]
まず、図1を用いて、表示装置10の構成を説明する。図1は、実施例1に係る表示装置の構成の一例を説明するための図である。図1に示すように、この表示装置10は入力部11、撮影部12、制御部13、記憶部14および投影部15を有する。以下にこれらの各部の処理を説明する。なお、ここで説明する構成はあくまで一例であり、他のさまざまな形態でも実施が可能である。
[Configuration of Display Device According to Embodiment 1]
First, the configuration of the
入力部11は、各種設定の変更などを入力するものであり、ボタンやタッチパネルなどを備えて構成される。例えば、投影される映像の濃淡や明るさ等の設定変更の入力を行うものである。
The
記憶部14は、制御部13による各種処理に要するデータや、制御部13による各種処理結果を記憶するものであり、画像情報記憶部14aを有する。また、記憶部14は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置である。 The storage unit 14 stores data required for various processes by the control unit 13 and various processing results by the control unit 13, and includes an image information storage unit 14a. The storage unit 14 is, for example, a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), or a flash memory, or a storage device such as a hard disk or an optical disk.
画像情報記憶部14aは、後述する撮影部12によって撮影された画像の情報を記憶するとともに、後述する抽出部13bによって抽出された画像の情報を記憶する。具体的には、画像情報記憶部14aは、撮影部12によって撮影された目の部分が遮蔽物(例えば、サンバイザやヘルメット等)により外部から覆われているユーザの顔の画像を記憶するとともに、抽出部13bによって抽出された目の部分の画像を記憶する。
The image information storage unit 14a stores information on an image photographed by the photographing
撮影部12は、目の部分が遮蔽物により外部から覆われているユーザの顔の画像を遮蔽物の内側から撮影するものであり、カメラやビデオなどを備えて構成される。例えば、撮影部12は、目の部分がサンバイザにより外部から覆われているユーザの顔の動画や静止画を撮影する。ここで、図2に例示するように、撮影部12は、サンバイザ20に隠されたユーザの顔を撮影するために、サンバイザ20の内側からユーザの顔の画像を撮影する。そして、撮影部12は、撮影した画像を画像情報記憶部14aに随時格納する。なお、本発明は、撮影対象のユーザがサンバイザで顔を覆っている場合に限定されるものではなく、例えば、ヘルメットやサングラス等で顔が覆われている場合に適用してもよい。
The
制御部13は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行するが、特に本発明に密接に関連するものとしては、検出部13aおよび抽出部13bを有する。
The control unit 13 has an internal memory for storing a program that defines various processing procedures and necessary data, and performs various processes by using these programs. Particularly, as closely related to the present invention, It has a
検出部13aは、撮影部12によって撮影された顔の画像から目の部分を検出する。具体的には、検出部13aは、所定の時間間隔で、ユーザの顔の画像を画像情報記憶部14aから順次読み出し、読み出した顔の画像から予め設定された目の特徴点を識別し、ユーザの目の部分を含む画像の領域を検出する。
The
抽出部13bは、検出部13aによって検出された目の部分の画像を顔の画像から抽出する。例えば、抽出部13bは、検出部13aによって検出された目の部分を含む所定の領域の画像を顔の画像から抽出し、抽出した画像を画像情報記憶部14aに格納する。
The
投影部15は、検出部13aによって検出された目の部分に関する画像を外部から視認可能な投影面に投影するものであり、プロジェクタなどを備えて構成される。具体的には、投影部15は、抽出部13bによって抽出された目の部分の画像を画像情報記憶部14aから読み出し、該目の部分の画像を目の部分に関する画像として投影する。例えば、図2の例を用いて説明すると、投影部15は、撮影部12に撮影された目の部分の画像をサンバイザ20の表面に投影する。なお、図2の例では、投影部15がサンバイザ20の下方から投影しているが、これに限定されるものではなく、例えば、サンバイザ20の上方や横から投影してもよい。
The
ここで、図3の例を用いてサンバイザ20に投影される映像の例について説明する。図3は、サンバイザに投影される映像の例を示す図である。図3に例示するように、投影部15は、サンバイザ20の表面に対して、撮影部12に撮影された目の部分のリアルタイムな画像をそのまま投影する。これにより、サンバイザ20を利用しているユーザの周りにいる他の通行人は、サンバイザ20でユーザの目が覆われている場合であっても、ユーザの視線がどこを向いているのかを把握することが可能である。
Here, the example of the image | video projected on the
[表示装置による処理]
次に、図4を用いて、実施例1に係る表示装置10による処理を説明する。図4は、実施例1に係る表示装置の処理動作を示すフローチャートである。
[Processing by display device]
Next, processing performed by the
図4に示すように、表示装置10の撮影部12は、電源オンの指示を受け付けると(ステップS101肯定)、目の部分がサンバイザ20により外部から覆われているユーザの顔の画像をサンバイザ20の内側から撮影する(ステップS102)。
As illustrated in FIG. 4, when the
そして、検出部13aは、撮影部12によって撮影された顔の画像からユーザの目の部分を検出する(ステップS103)。続いて、抽出部13bは、検出部13aによって検出された目の部分の映像を顔の画像から抽出する(ステップS104)。
Then, the
そして、投影部15は、目の部分に関する映像を外部から視認可能な投影面に投影する(ステップS105)。具体的には、投影部15は、抽出部13bによって抽出された目の部分のリアルタイムな画像をサンバイザ20の表面に投影する。
Then, the
[実施例1の効果]
上述してきたように、表示装置10は、目の部分がサンバイザ20により外部から覆われているユーザの顔の画像をサンバイザ20の内側から撮影し、撮影された顔の画像からユーザの目の部分を検出し、検出された目の部分に関する画像を外部から視認可能なサンバイザ20の表面に投影する。これにより、サンバイザ等の遮蔽物で顔が覆われたユーザの視線が他者に判別できる。このため、サンバイザ等の遮蔽物で顔が隠れているユーザが、自分の目線の情報を、対面する人などに知らせることにより、互いに安全な通行などを実現することが可能である。また、表示装置10は、サンバイザ20と切り離されて構成されており、投影部15の電源を大型にして長時間稼働でき、また、撮影部12がサンバイザの形状等に依存しないため軽量なものとすることができる。
[Effect of Example 1]
As described above, the
ところで、上記の実施例1では、ユーザの目の部分のリアルタイムな画像を投影する場合を説明したが、本発明はこれに限定されるものではなく、ユーザの目線の方向に対応するアニメーションを投影するようにしてもよい。 By the way, in the first embodiment described above, the case of projecting a real-time image of the user's eyes has been described, but the present invention is not limited to this, and an animation corresponding to the direction of the user's eyes is projected. You may make it do.
そこで、以下の実施例2では、ユーザの目の部分の画像からユーザの目線の方向を特定し、該目線の方向に対応するアニメーション画像を決定し、決定されたアニメーション画像を目の部分に関する画像として投影する処理を行う場合について説明する。なお、実施例1と同様の構成および処理については説明を省略する。 Therefore, in Example 2 below, the direction of the user's eye line is specified from the image of the user's eye part, an animation image corresponding to the direction of the eye line is determined, and the determined animation image is an image related to the eye part. A case where the projection processing is performed will be described. Note that the description of the same configuration and processing as in the first embodiment will be omitted.
まず、図5を用いて、実施例2に係る表示装置10Aの構成について説明する。図5は、実施例2に係る表示装置の構成の一例を説明するための図である。図5に示すように、実施例2に係る表示装置10Aは、実施例1に係る表示装置10と比較して、決定部13cおよびアニメーション画像記憶部14bを有する点で異なる。
First, the configuration of the
アニメーション画像記憶部14bは、各目線方向に対応するアニメーション画像を記憶する。例えば、アニメーション画像記憶部14bは、各目線方向に対応するアニメーション画像として、正面、上、下、左、右、左斜め上、右斜め上、左斜め下、右斜め下を向いている目のアニメーション画像をそれぞれ記憶する。なお、アニメーション画像記憶部14bは、アニメーションの種類として、例えば、男性用、女性用、年齢別にそれぞれ異なる目のアニメーションを記憶していてもよい。この場合には、ユーザの指定によりアニメーションの種類を設定、変更できるものとする。 The animation image storage unit 14b stores an animation image corresponding to each eye direction. For example, the animation image storage unit 14b displays the animation image corresponding to each eye direction as an eye facing front, top, bottom, left, right, top left, top right, top left, bottom right, and bottom right. Each animation image is stored. Note that the animation image storage unit 14b may store, for example, different animations of eyes for men, women, and ages as types of animation. In this case, it is assumed that the type of animation can be set and changed by user designation.
決定部13cは、検出部13aによって検出された目の部分の画像からユーザの目線の方向を特定し、該目線の方向に対応するアニメーション画像を決定する。具体的には、決定部13cは、目の部分の画像からユーザの目線の方向が、正面、上、下、左、右、左斜上、右斜め上、左斜め下、右斜め下のいずれであるかを特定し、該目線の方向に対応するアニメーション画像を決定する。
The determination unit 13c identifies the direction of the user's line of sight from the image of the eye portion detected by the
ここで、決定部13cは、目線の方向を特定する処理として、例えば、眼球の中心に対する黒目の位置がどこにあるかを検出する。そして、例えば、決定部13cは、眼球の中心付近に黒目がある場合には、目線の方向を正面と特定し、眼球の中心に対して黒目が左にある場合には、目線の方向を左と特定する。 Here, the determination unit 13c detects, for example, where the position of the black eye relative to the center of the eyeball is as a process of specifying the direction of the eye line. For example, when there is a black eye near the center of the eyeball, the determination unit 13c identifies the direction of the eye as the front, and when the black eye is on the left with respect to the center of the eyeball, the direction of the eye is left. Is identified.
ここで、図6の例を用いて、撮影した目の映像からアニメーション画像を決定する処理を説明する。図6は、撮影した目の映像からアニメーション画像を決定する処理を説明する図である。図6に示すように、例えば、目の部分の画像からユーザの目線の方向が、正面である場合には、目線の方向が正面のアニメーション画像、すなわち眼球の中心付近に黒目があるアニメーション画像を決定する(図6の(A)参照)。 Here, the process of determining an animation image from the captured image of the eye will be described using the example of FIG. FIG. 6 is a diagram illustrating a process for determining an animation image from a captured eye image. As shown in FIG. 6, for example, when the direction of the user's line of sight is the front from the image of the eye part, an animation image in which the direction of the line of sight is the front, that is, an animation image with black eyes near the center of the eyeball. Determine (see FIG. 6A).
また、例えば、目の部分の画像からユーザの目線の方向が上である場合には、目線の方向が上のアニメーション画像、すなわち眼球の中心に対して黒目が上にあるアニメーション画像を決定する(図6の(B)参照)。また、例えば、目の部分の画像からユーザの目線の方向が下である場合には、目線の方向が下のアニメーション画像、すなわち眼球の中心に対して黒目が下にあるアニメーション画像を決定する(図6の(C)参照)。 Also, for example, when the direction of the user's line of sight is upward from the image of the eye part, an animation image with the line of sight up is determined, that is, an animation image with a black eye above the center of the eyeball ( (See FIG. 6B). Also, for example, when the direction of the user's line of sight is downward from the image of the eye part, an animation image with the line of sight down is determined, that is, an animation image in which the black eye is below the center of the eyeball ( (See FIG. 6C).
また、例えば、目の部分の画像からユーザの目線の方向が左である場合には、目線の方向が左のアニメーション画像、すなわち眼球の中心に対して黒目が左にあるアニメーション画像を決定する(図6の(D)参照)。また、例えば、目の部分の画像からユーザの目線の方向が右である場合には、目線の方向が右のアニメーション画像、すなわち眼球の中心に対して黒目が右にあるアニメーション画像を決定する(図6の(E)参照)。 Further, for example, when the direction of the user's line of sight is left from the image of the eye part, an animation image with the line of sight left is determined, that is, an animation image with black eyes on the left with respect to the center of the eyeball ( (See FIG. 6D). Also, for example, when the user's eye direction is right from the eye image, an animation image having the right eye direction is determined, that is, an animation image having a black eye on the right with respect to the center of the eyeball ( (See (E) of FIG. 6).
そして、投影部15は、決定部13cによって決定されたアニメーション画像を目の部分に関する画像としてサンバイザ20の表面に投影する。ここで、図7に例示するように、撮影部12は、実施例1と同様に、サンバイザ20に隠されたユーザの顔を撮影するために、サンバイザ20の内側からユーザの顔の画像を撮影する。そして、投影部15は、目の部分のアニメーション画像をサンバイザ20の表面に投影する。
Then, the
ここで、図8の例を用いて、サンバイザ20に投影される映像の例について説明する。図8は、サンバイザに投影される映像の例を示す図である。図8に例示するように、投影部15は、サンバイザ20の表面に対して、ユーザの目線の方向に対応するアニメーション画像を投影する。これにより、サンバイザ20を利用しているユーザの周りにいる他の通行人は、サンバイザ20でユーザの目が覆われている場合であっても、ユーザの視線がどこを向いているのかを把握することが可能である。
Here, the example of the image | video projected on the
次に、図9を用いて、実施例2に係る表示装置10Aによる処理を説明する。図9は、実施例2に係る表示装置の処理動作を示すフローチャートである。
Next, processing performed by the
図9に示すように、表示装置10Aの撮影部12は、電源オンの指示を受け付けると(ステップS201肯定)、目の部分がサンバイザ20により外部から覆われているユーザの顔の画像をサンバイザ20の内側から撮影する(ステップS202)。
As illustrated in FIG. 9, when the
そして、検出部13aは、撮影部12によって撮影された顔の画像からユーザの目の部分を検出する(ステップS203)。続いて、決定部13cは、検出部13aによって検出された目の部分の画像からユーザの目線の方向を特定し(ステップS204)、該目線の方向に対応するアニメーション画像を決定する(ステップS205)。具体的には、決定部13cは、目の部分の画像からユーザの目線の方向が、正面、上、下、左、右、左斜上、右斜め上、左斜め下、右斜め下のいずれであるかを特定し、該目線の方向に対応するアニメーション画像を決定する。
Then, the
そして、投影部15は、決定部13cによって決定されたアニメーション画像を目の部分に関する画像としてサンバイザ20の表面に投影する(ステップS206)。例えば、投影部15は、サンバイザ20の表面に対して、ユーザの目線の方向に対応するアニメーション画像を投影する。
Then, the projecting
このように、実施例2に係る表示装置10Aでは、目の部分の画像からユーザの目線の方向を特定し、該目線の方向に対応するアニメーション画像を決定し、決定されたアニメーション画像を目の部分に関する画像として投影する。このため、サンバイザ等の遮蔽物で顔が覆われたユーザの視線を他者に分かりやすく投影することが可能である。さらに、アニメーションの設定を変更することで、ユーザの好みに合わせた目の部分のアニメーション画像を表示させることが可能である。
As described above, in the
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例3として本発明に含まれる他の実施例を説明する。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, another embodiment included in the present invention will be described below as a third embodiment.
[投影面]
上記の実施例1、2では、目の部分に関する画像をサンバイザ20の表面に投影する場合を説明したが、これに限定されるものではなく、サンバイザ20を被っているユーザの周りの者が識別できる投影面であればよい。例えば、図10に例示するように、自転車の前面に投影面を設け、該投影面に目の部分に関する画像を投影するようにしてもよい。
[Projection plane]
In the first and second embodiments, the case where the image relating to the eye portion is projected onto the surface of the
[システム構成]
また、本実施例において説明した各処理の内、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上述文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[System configuration]
Of the processes described in this embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, control procedures, specific names, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration may be functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
[プログラム]
上記実施例で説明した表示装置10は、あらかじめ用意されたプログラムをコンピュータで実行することで実現することもできる。そこで、以下では、図1に示した表示装置10と同様の機能を実現する表示プログラムを実行するコンピュータの一例を説明する。
[program]
The
図11は、本実施例に係る表示プログラムを実行するコンピュータ1000を示す図である。図11に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU(Central Processing Unit)1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
FIG. 11 is a diagram illustrating a
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The
ここで、図11に示すように、ハードディスクドライブ1090は、例えば、OS(Operating System)1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。本実施例に係る表示プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、例えばハードディスクドライブ1090に記憶される。
Here, as shown in FIG. 11, the hard disk drive 1090 stores, for example, an OS (Operating System) 1091, an
また、表示プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、各種の手順を実行する。
Data used for information processing by the display program is stored as
なお、表示プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、表示プログラムに係るプログラムモジュールやプログラムデータは、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
これらの実施例やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 These embodiments and modifications thereof are included in the invention disclosed in the claims and equivalents thereof as well as included in the technology disclosed in the present application.
[その他]
なお、本実施例で説明したアクセス制御プログラムは、インターネットなどのネットワークを介して配布することができる。また、制御プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
[Others]
Note that the access control program described in this embodiment can be distributed via a network such as the Internet. The control program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD, and being read from the recording medium by the computer.
10、10A 表示装置
11 入力部
12 撮影部
13 制御部
13a 検出部
13b 抽出部
13c 決定部
14 記憶部
14a 画像情報記憶部
14b アニメーション画像記憶部
15 投影部
20 サンバイザ
DESCRIPTION OF
Claims (6)
前記撮影部によって撮影された顔の画像からユーザの目の部分を検出する検出部と、
前記検出部によって検出された目の部分に関する画像を外部から視認可能な投影面である前記サンバイザの表面に投影する投影部と、
を備えたことを特徴とする表示装置。 A photographing unit for photographing an image of a user's face covered from the outside by a sun visor whose eye part is a shield, from the inside of the shield;
A detection unit for detecting a part of the user's eyes from the image of the face photographed by the photographing unit;
A projection unit that projects an image relating to the eye part detected by the detection unit onto the surface of the sun visor, which is a projection surface visible from the outside;
A display device comprising:
前記投影部は、前記抽出部によって抽出された目の部分の画像を前記目の部分に関する画像として投影することを特徴とする請求項1に記載の表示装置。 An extraction unit that extracts an image of the eye portion detected by the detection unit from the face image;
The display device according to claim 1, wherein the projection unit projects an image of an eye part extracted by the extraction unit as an image related to the eye part.
前記投影部は、前記決定部によって決定されたアニメーション画像を前記目の部分に関する画像として投影することを特徴とする請求項1に記載の表示装置。 A determination unit that specifies the direction of the eye line of the user from the image of the eye part detected by the detection unit, and determines an animation image corresponding to the direction of the eye line;
The display device according to claim 1, wherein the projection unit projects the animation image determined by the determination unit as an image related to the eye part.
目の部分が遮蔽物であるサンバイザにより外部から覆われているユーザの顔の画像を前記遮蔽物の内側から撮影する撮影工程と、
前記撮影工程によって撮影された顔の画像からユーザの目の部分を検出する検出工程と、
前記検出工程によって検出された目の部分に関する画像を外部から視認可能な投影面である前記サンバイザの表面に投影する投影工程と、
を含んだことを特徴とする表示方法。 A display method executed on a display device,
A photographing step of photographing an image of a user's face covered from the outside by a sun visor whose eye part is a shield, from the inside of the shield;
A detection step of detecting a part of the user's eyes from the image of the face photographed by the photographing step;
A projection step of projecting an image relating to the eye part detected by the detection step onto the surface of the sun visor, which is a projection surface visible from the outside;
The display method characterized by including.
前記投影工程は、前記抽出工程によって抽出された目の部分の画像を前記目の部分に関する画像として投影することを特徴とする請求項4に記載の表示方法。 An extraction step of extracting an image of the eye part detected by the detection step from the face image;
The display method according to claim 4 , wherein the projecting step projects the image of the eye portion extracted by the extracting step as an image relating to the eye portion.
前記投影工程は、前記決定工程によって決定されたアニメーション画像を前記目の部分に関する画像として投影することを特徴とする請求項4に記載の表示方法。 A step of determining the direction of the user's line of sight from the image of the eye portion detected by the detection step, and determining an animation image corresponding to the direction of the line of sight;
The display method according to claim 4 , wherein the projecting step projects the animation image determined by the determining step as an image relating to the eye portion.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014244842A JP6276170B2 (en) | 2014-12-03 | 2014-12-03 | Display device and display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014244842A JP6276170B2 (en) | 2014-12-03 | 2014-12-03 | Display device and display method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016109760A JP2016109760A (en) | 2016-06-20 |
| JP6276170B2 true JP6276170B2 (en) | 2018-02-07 |
Family
ID=56122033
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014244842A Expired - Fee Related JP6276170B2 (en) | 2014-12-03 | 2014-12-03 | Display device and display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6276170B2 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9740282B1 (en) * | 2015-01-05 | 2017-08-22 | Amazon Technologies, Inc. | Gaze direction tracking |
| EP4260129B1 (en) * | 2020-12-23 | 2025-05-07 | Meta Platforms Technologies, Llc | Reverse pass-through glasses for augmented reality and virtual reality devices |
| CN120396639A (en) * | 2024-01-31 | 2025-08-01 | 比亚迪股份有限公司 | Sun visor system, control method, electronic device, vehicle, and storage medium |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005062486A (en) * | 2003-08-12 | 2005-03-10 | Seiko Epson Corp | Projection system, projection apparatus, and projection method |
| JP2006260011A (en) * | 2005-03-16 | 2006-09-28 | Denso Corp | Display device for vehicle |
| JP5674300B2 (en) * | 2009-09-30 | 2015-02-25 | 一般財団法人Nhkサービスセンター | Information transmission processing device, information transmission processing system, and computer program used therefor |
| BR112015004958A8 (en) * | 2012-09-12 | 2019-08-13 | Sony Corp | image display device and method, and computer readable recording media. |
| JP2014064248A (en) * | 2012-09-24 | 2014-04-10 | Ntt Docomo Inc | Image projection device and image projection method |
| EP2981070B1 (en) * | 2013-03-29 | 2021-09-29 | Sony Group Corporation | Information processing device, notification state control method, and program |
-
2014
- 2014-12-03 JP JP2014244842A patent/JP6276170B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2016109760A (en) | 2016-06-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10032277B2 (en) | Method, apparatus, and system for displaying a graphical user interface | |
| JP5709227B2 (en) | Information processing apparatus, information processing method, and program | |
| JP6265640B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| KR102127351B1 (en) | User terminal device and the control method thereof | |
| KR101929077B1 (en) | Image identificaiton method and image identification device | |
| CN107077596A (en) | System for generating compliant facial images for selected identification documents | |
| JP5776323B2 (en) | Corneal reflection determination program, corneal reflection determination device, and corneal reflection determination method | |
| CN203870604U (en) | Display device | |
| WO2016130533A1 (en) | Dynamic lighting for head mounted device | |
| KR20200043432A (en) | Technology for providing virtual lighting adjustments to image data | |
| KR20120139100A (en) | Apparatus and method for security management using face recognition | |
| JP6007523B2 (en) | Generating device, generating program, and generating method | |
| JP2015232746A (en) | Wrinkle detection device and wrinkle detection method | |
| JP6276170B2 (en) | Display device and display method | |
| US10163009B2 (en) | Apparatus and method for recognizing iris | |
| US20140198177A1 (en) | Realtime photo retouching of live video | |
| CN105580050A (en) | Provides control points in the image | |
| KR20160046399A (en) | Method and Apparatus for Generation Texture Map, and Database Generation Method | |
| CN111259757B (en) | Living body identification method, device and equipment based on image | |
| JP2011135527A (en) | Digital camera | |
| US9838615B2 (en) | Image editing method and electronic device using the same | |
| CN113627263B (en) | An exposure method, device and equipment based on face detection | |
| KR100950138B1 (en) | A method for detecting the pupils in a face image | |
| US10497103B2 (en) | Information processing apparatus, information processing system, information processing method, and recording medium | |
| JP2012065049A (en) | Image processing device and image processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161219 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171016 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171124 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180111 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6276170 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |