[go: up one dir, main page]

JP2014228945A - 領域指定装置 - Google Patents

領域指定装置 Download PDF

Info

Publication number
JP2014228945A
JP2014228945A JP2013106320A JP2013106320A JP2014228945A JP 2014228945 A JP2014228945 A JP 2014228945A JP 2013106320 A JP2013106320 A JP 2013106320A JP 2013106320 A JP2013106320 A JP 2013106320A JP 2014228945 A JP2014228945 A JP 2014228945A
Authority
JP
Japan
Prior art keywords
area
image
gesture
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013106320A
Other languages
English (en)
Inventor
潤 白石
Jun Shiraishi
潤 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013106320A priority Critical patent/JP2014228945A/ja
Publication of JP2014228945A publication Critical patent/JP2014228945A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】従来の方法よりも、利便性の高い方法で領域指定を行うことができる領域指定装置を提供する。【解決手段】撮像部20の撮像するエリア内でユーザが行ったジェスチャ動作を、撮像部から出力される映像を解析して認識する。その後、認識したジェスチャ動作が、所定の一連のジェスチャ動作を構成する場合は、当該所定の一連のジェスチャ動作によって指定された、当該映像内の領域を特定する。特定後は、たとえば、その領域を抽出して得た画像を保存したり、拡大、縮小したりする。【選択図】図2

Description

本発明は、画像上の領域を指定する領域指定装置に関する。
現在、タッチパネルの普及に伴い、タッチパネル上での操作方法は多様化しており、表示画像内の領域指定方法や表示画像の拡大、および縮小を指示する方法は数多く発案されている。
たとえば、特許文献1には、表示画像の領域指定後、タッチパネルに触れている時間や、タッチパネルに触れながらその触れている場所を移動させた場合における始点及び終点の位置に基づいて拡大縮小の倍率を指定する方法が開示されている(特許文献1参照)。
特許文献2には、表示画像の領域指定後、タッチパネルに対する操作によって、当該指定領域をコピーするか切り取るのかを決定する方法が記載されている(特許文献2参照)。
特開2011−050038号公報 特開2012−058857号公報 特開2005−056059号公報 特開2010−183230号公報
一方、近年ではメガネのように顔に装着することで拡張現実(AR(Augmented Reality))の体験を実現するARメガネ等の拡張現実端末に係る様々な技術が提案されており、ARメガネが近い将来にオフィスワークや生活の中に普及すると見込まれている。しかし、たとえば、ARメガネの表示部に表示されている画像の一部を切り取って保存する場合、眼球のすぐ前に表示部があるという構造上の理由によりARメガネ単体ではタッチパネルと同様の方法によって、ユーザが見ている拡張現実空間内の一部の領域を指定して切り取るといったことはできない。
ARメガネと他の操作機器(手持ちマウスや片手キーボード等)を連動させて使用すれば、画像データとして切り取る領域を指定することは可能であるが、機材構成が煩雑になる恐れがあり、入力の自由度も限られてしまう。また、画像データとして切り取る領域を音声によって指定する方法は、音声の照合率や認識速度、また入力の自由度(たとえば切り取りたい領域の範囲指示方法)等に問題があり、現状において有効な手段で無い。
特許文献3には、ARメガネにおいて手指のジェスチャ或いは発光部付きのペンでの操作によって入力指示を行う方法が記載されている。しかし、特許文献3はジェスチャによって文字や線の入力を行う方法についての記載であり、画像切り取りの為の領域指定や画像の拡大、及び縮小の指示等については対応していない。
特許文献4には、1対のL字型に形成した両手の指を認識することで、画像内に矩形型の領域指定を行い、当該指定した領域を予め決められた倍率で拡大する方法が開示されている。しかし、この領域指定方法では、領域の形状が矩形に限定される等、様々な制約がある。たとえば、特許文献4に記載の方法では領域指定に両手を使用するが、片手で機器を持って操作することが想定されるスマートフォンやデジタルカメラ等を利用するような非装着型の拡張現実端末では、機器を持っていない方の手のみでの操作指示方法が望まれる。
本発明は、上記の問題を解決しようとするものであり、ジェスチャ動作で画像上の領域を適切に指定することのできる領域指定装置を提供する事を目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
[1]撮像部と、
撮像部が撮像しているエリア内で行われたユーザによるジェスチャ動作を前記撮像部の出力する映像を解析して認識する認識部と、
前記前記認識部によって認識されたジェスチャ動作が領域指定のための所定の一連のジェスチャ動作を構成した場合に、該所定の一連のジェスチャ動作によって指定された領域を特定する制御部と、
を備える
ことを特徴とする領域指定装置。
上記発明では、撮像部が撮像しているエリア内で行われたユーザのジェスチャ動作を、認識部が、その撮像部の出力する映像を解析して認識する。そして、認識した連続する複数のジェスチャ動作が所定の一連のジェスチャ動作を構成した場合に、該所定の一連のジェスチャ動作によって指定された領域を特定する。たとえば、撮像部の撮像している映像内で指定された領域を特定する。この場合、ホワイトボードを撮像した画像から、当該ホワイトボードに書かれた内容の特定部分を指定、抽出し、保存するといった用途に使用される。所定の一連のジェスチャ動作は、複数の静止したジェスチャ、動きのある複数のジェスチャ、静止したジェスチャと動きのあるジェスチャの組み合わせ等である。所定の一連のジェスチャ動作の構成内容によっては、たとえば、片手で領域指定が可能である、もしくは指定する領域の形状に制限が無い等、従来の装置よりも利便性の高い方法で領域指定を行うことができる。
[2]前記制御部は、前記所定の一連のジェスチャ動作に続けて前記認識部が認識したジェスチャ動作が、拡大縮小を指示するための予め定めた第2のジェスチャ動作の場合に、前記所定の一連のジェスチャ動作によって指定された領域に対して、前記第2のジェスチャ動作が示す拡大縮小の指示を適用する
ことを特徴とする[1]に記載の領域指定装置。
上記発明では、領域指定するための所定の一連のジェスチャ動作に続けて拡大縮小を指示するための第2の一連のジェスチャ動作が行われた場合、所定の一連のジェスチャ動作によって指定された領域に対して、第2の一連のジェスチャ動作による拡大縮小の指示を適用する。
[3]前記所定の一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である
ことを特徴とする[1]または[2]に記載の領域指定装置。
上記発明では、所定の一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である。領域指定の開始を指示するジェスチャ動作は、領域の範囲を指定する際の開始地点を設定するものであり、当該ジェスチャ動作を認識するまでの間の手の動きを領域指定のためのジェスチャ動作として認識しないようにするために行われる。
領域の範囲を指定するジェスチャ動作は、たとえば、指定する領域の外周を辿るように指し示すジェスチャ動作や、複数の点を指定するジェスチャ動作等である。後者のジェスチャ動作によって領域の範囲を指定する場合、その指定された複数の点を最も面積が広くなるように直線で結んでできる領域を、指定された領域とする。終了条件は、たとえば、範囲を指定するジェスチャ動作によって閉領域が形成されたなど、領域の範囲が特定された場合や、一定以上の時間が経過した場合などに成立する条件とすることができる。
[4]前記制御部は、所定の一連のジェスチャ動作によって指定された領域として、前記撮像部の出力する映像上の領域を特定する
ことを特徴とする[1]乃至[3]のいずれか1つに記載の領域指定装置。
上記発明では、所定の一連のジェスチャ動作によって撮像部の出力する映像上の領域が特定される。
[5]前記制御部は、前記撮像部の出力する映像上で前記所定の一連のジェスチャ動作によって指定された領域を、前記撮像部が撮像するエリアに対応付けされた所定の画像に写像して、該所定の画像上の領域を特定する
ことを特徴とする[1]乃至[3]のいずれか1つに記載の領域指定装置。
上記発明では、撮像部が撮像するエリアには所定の画像が対応付けされており、撮像部の出力する映像内で所定の一連のジェスチャ動作によって指定された領域を、所定の画像に写像(座標変換)し、その所定の画像内において領域を特定する。たとえば、プロジェクタで投影した画像を、撮像部で撮像した場合、撮像部が撮像するエリア内でユーザがその投影された画像に対して領域指定のジェスチャ動作を行うと、投影している画像の元データ上で領域が特定される。
[6]画像の表示部を備え、
前記所定の画像は、前記表示部が前記撮像部の撮像エリアに表示した画像である
ことを特徴とする[5]に記載の領域指定装置。
上記発明では、表示部に画像を表示し、撮像部でその表示部に表示された画像を含むエリアを撮像する。ユーザが表示部の画像に向けて一連のジェスチャ動作を行うと、表示部に表示された画像上の領域が指定される。表示部は前述したプロジェクタのほか、大画面の液晶パネルなどでもよい。
[7]前記制御部は、前記特定した領域の画像を抽出する
ことを特徴とする[4]乃至[6]のいずれか1つに記載の領域指定装置。
上記発明では、所定の一連のジェスチャ動作によって特定された領域の画像を抽出する。当該抽出によって得た画像は、転送したり、加工したり、保存したりすることができる。
[8]前記制御部は、前記抽出した画像を所定の記憶部に保存する
ことを特徴とする[7]に記載の領域指定装置。
所定の記憶部は、領域指定装置が具備してもよいし、外部装置、たとえば、ネットワーク上のサーバなどであってもよい。
[9]画像の表示部を備え、
前記制御部は、所定の貼り付け指示で指示された場所に、前記抽出した画像を、前記表示部によって表示する
ことを特徴とする[7]または[8]に記載の領域指定装置。
上記発明では、抽出した画像を、所定の貼り付け指示で指示された場所に貼り付けるように表示することができる。貼り付け対象の画像は、抽出した画像でも記憶部が記憶している画像でもよい。
[10]位置情報を取得する位置情報取得部を更に備え、
前記制御部は、前記抽出した画像を前記貼り付け指示で指定された場所に表示した場合に、前記貼り付け指示で指示された場所の位置情報を前記位置情報取得部によって取得し、該位置情報と前記表示した画像とを関連付けて所定の記憶部に保存する
ことを特徴とする[9]に記載の領域指定装置。
上記発明では、貼り付けた画像とその貼り付け場所の位置情報とを関連付けて記憶する。
[11]前記制御部は、前記記憶部に保存されている位置情報が示す場所に前記表示部の表示領域が存在する場合に、前記位置情報に関連付けされている画像を前記位置情報の示す場所に表示する
ことを特徴とする[10]に記載の領域指定装置。
上記発明では、以前に画像を貼り付けた場所と同じ場所に自装置の表示部の表示領域が位置したとき、その画像が以前に貼り付けた場所と同じ場所に自動的に表示される。よって、ジェスチャ動作による貼り付けを行った場所で自装置を使用する際には、常に当該貼り付けが再現される。
本発明に係る領域指定装置によれば、ジェスチャ動作で画像上の領域を適切に指定することができる。
本発明の実施の形態に係る表示システムを示す説明図である。 ジェスチャ動作によって領域指定を行う様子を示す図である。 本発明の実施の形態に係る操作表示装置の概略構成を示すブロック図である。 ジェスチャ動作を認識して、指定された領域を切り取って抽出する処理の概略を示す流れ図である。 領域指定の開始を指示するジェスチャ動作を示す図である。 開始地点が設定された場合の一例を示す図である。 領域の範囲を指定する様子を示す図である。 指定された領域の輪郭を点滅表示する様子を示す図である。 ジェスチャ動作を認識して、指定された領域を切り取って抽出する詳細な処理を示す流れ図である。 指定領域画像を拡大した様子を示す図である。 指定領域画像を縮小した様子を示す図である。 拡大もしくは縮小を行う際の様子を示す図である。 指定領域画像の拡大を指示するジェスチャ動作を示す図である。 指定領域画像の縮小を指示するジェスチャ動作を示す図である。 指定領域画像の拡大、縮小を指示する他のジェスチャ動作を示す図である。 所定の一連のジェスチャ動作によって指定した領域を、第2のジェスチャ動作に従って拡大、もしくは縮小する処理を示す流れ図である。 画像の貼り付けを行う様子を示す図である。 キャップを装着した状態の右手で行われるジェスチャ動作によって領域指定が行われる様子を示す図である。 領域を指定する他のジェスチャ動作の一例を示す図である。
以下、図面に基づき本発明の実施の形態を説明する。
<第1の実施の形態>
図1は、本発明の実施の形態に係る表示システム3を示す。表示システム3は、本発明の領域指定装置としての機能を果たす操作表示装置10と撮像部20の他、プロジェクタ21と、プロジェクタ21の投影する画像を映し出すスクリーン40を含んで構成される。操作表示装置10と、撮像部20、プロジェクタ21は有線で接続されている。
操作表示装置10は、持ち歩きが可能なB5サイズ程の矩形の平板形状を成した携帯端末であり、表示部31と操作部32を含む操作パネル30を備えている(図3参照)。操作表示装置10の表示部31には、後述するハードディスク装置15に記憶された画像が表示される。また、ユーザは操作パネル30を使用して、表示部31に表示中の画面に対する追記や、修正等の手書き入力を行うことができる。たとえば、操作表示装置10は、外部端末で作成された文書に対する校正を手書きで行う、といった用途に利用される。
表示システム3では、操作表示装置10の表示部31に表示されている画面が、プロジェクタ21によってスクリーン40に映し出される。スクリーン40はサイズが大きく、映し出された画面を一度に多数のユーザが視認することができる。プロジェクタ21とスクリーン40は、本発明の請求項に係る表示装置としての機能を果たす。たとえば、プロジェクタ21は、会議を行う時に表示部31に表示中の画面(以後、表示中画面と呼ぶ)をスクリーン40に投影することで、その投影された画面(以後、投影画面と呼ぶ)を複数人で確認できるようにする、といった用途に利用される。
撮像部20は、所謂カメラであり、撮像部20が得た映像を操作表示装置10に送信する。実施の形態では、レンズをスクリーン40に向けて、スクリーン40から3メートルほど離れた位置に設置されており、投影画面を含むエリアを撮像している。
本発明の実施の形態に係る表示システム3では、操作表示装置10が撮像部20から送られてくる映像を解析し、撮像部20が撮像しているエリア内(撮像部20とスクリーン40の間)で行われたユーザによる所定の一連のジェスチャ動作を認識する。所定の一連のジェスチャ動作は、予め決められた順番で行われる複数の単位ジェスチャ動作を含んで構成され、所定の終了条件を満たすことで完了する動作である。領域指定のための一連のジェスチャ動作の場合は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である。たとえば、終了条件は、領域の範囲を指定するジェスチャ動作で領域が特定された場合に成立する。
基本的には、撮像された映像の中で一連のジェスチャ動作によって領域が指定される。撮像部20の出力する映像を抽出する場合には、この領域を抽出する。また、撮像部20の出力する映像上で所定の一連のジェスチャ動作によって指定された領域を、撮像部20が撮像するエリアに対応付けされた所定の画像に写像して、該所定の画像上の領域を特定することも可能になっている。ここでは、撮像部20が撮像するエリアに投影画面が対応付けされており、投影画面内の領域が特定される。なお、投影画面は表示中画面を投影したものであるから、結果的に、表示中画面において領域が特定される。図2は所定の一連のジェスチャ動作によって、投影画面内の一部の領域が指定される様子を示す。
図2では、スクリーン40と撮像部20との間で、ユーザが右手50により所定の一連のジェスチャ動作を行っている。たとえば、ユーザは右手50の人差し指を、抽出したい領域の外周を辿るように動かして指し示すことで、当該領域を指定する。
次に、操作表示装置10の構成について説明する。
図3は、本発明の実施の形態に係る操作表示装置10の概略構成を示すブロック図である。操作表示装置10は、当該操作表示装置10の動作を統括的に制御するCPU(Central Processing Unit)11と、バスを通じて接続されたROM(Read Only Memory)12と、RAM(Random Access Memory)13と、不揮発メモリ14と、ハードディスク装置15と、画像処理部16と、ネットワーク通信部17と、認識部18と、有線I/F部19と、操作パネル30と、位置情報取得部35で構成されている。
CPU11は、OS(Operating System)プログラムをベースとし、その上で、ミドルウェアやアプリケーションプログラムなどを実行する。ROM12には、各種のプログラムが格納されており、これらのプログラムに従ってCPU11が各種処理を実行することで操作表示装置10の各機能が実現される。また、ROM12には、操作表示装置10の一連の制御をCPU11が実行するためのプログラムが格納されている。
RAM13は、CPU11がプログラムに基づいて処理を実行する際に各種のデータを一時的に格納するワークメモリや画像データを格納する画像メモリなどとして使用される。
不揮発メモリ14は、電源をオフにしても記憶内容が破壊されないメモリ(フラッシュメモリ)であり、各種設定情報の保存などに使用される。ハードディスク装置15は、大容量の不揮発の記憶装置であり、OSプログラムや各種アプリケーションプログラム、画像データの他、文書データなどが保存される。
画像処理部16は、画像の拡大縮小、回転などの処理を行う。
ネットワーク通信部17は、LAN(Local Area Network)などのネットワークを通じて外部装置との間でデータの送受信を行う機能を果たす。
有線I/F部19は、有線で接続された装置とデータの送受信を行う。実施の形態では、有線I/F部19に撮像部20とプロジェクタ21が接続されている。撮像部20からは、撮像部20が撮像して得た映像が送られてくる。プロジェクタ21には、表示部31に表示中の画面に対応する表示データが送信される。
認識部18は、撮像部20から送られてくる映像を解析し、当該映像内に映っているユーザの右手50が行う所定の一連のジェスチャ動作を認識する。
詳細には、映像内に映っているジェスチャ動作を認識部18が認識したら、予めハードディスク装置15に記憶されている認識対象となるジェスチャ動作と照合し、照合率が所定値以上であると判定した際に、当該ジェスチャ動作が有効なジェスチャ動作であると判断する。
また、CPU11は、撮像部20が撮像するエリア内の座標(撮像部が出力する映像上の座標)と、投影画面内の座標を対応付けており、認識部18が所定の一連のジェスチャ動作を認識した場合に、撮像映像上で当該所定の一連のジェスチャ動作が指定する領域を特定するとともに、映像上の座標を表示中画面内の座標に写像して、表示中画面内の領域を特定する。投影画面上の座標は、表示中画面上の座標と同じである。撮像映像上の座標と投影画面(表示中画面)上の座標の対応付けは、たとえば、表示中画面の4隅に特定のマークを表示しておき、撮像映像内で上記のマークを検出し、これらの対応関係に基づいて行う。対応付けの方法はこれに限定されず、任意の方法でよい。
図3に戻って説明を続ける。操作パネル30は、表示部31と、操作部32とを備えている。このうち操作部32は、各種ボタンなどのスイッチ部33とタッチパネル部34とを備えている。表示部31は、液晶ディスプレイ(LCD…Liquid Crystal Display)などで構成され、各種の操作画面、設定画面などを表示する機能を果たす。操作パネル30が表示する表示内容の制御、操作パネル30による操作の受け付けに関する制御はCPU11が行う。
タッチパネル部34は、表示部31の表示面上に設けられている。タッチパネル部34は、タッチペンや指などで押下された表示部31の表示面上のタッチ位置(座標位置)や、フリック操作やドラッグ操作等を検出する。また、CPU11は、継続的に検出されるタッチ位置の変化(操作情報)から、ユーザによる手書き入力等を認識する。
位置情報取得部35は、操作表示装置10の位置情報をGPS(Global Positioning System)によって取得する。位置情報の取得手段はGPSに限らず、他の方法でもよい。
図4は、所定の一連のジェスチャ動作によって表示中画面内の領域を特定、抽出し、保存する際に行われる処理の流れの概略を示す。
まず、操作表示装置10は、プロジェクタ21を使用してスクリーン40に画面の投影を開始する(ステップS101)。
次に、操作表示装置10の操作部32にて、領域指定を行う動作モード(以後、領域指定モードと呼ぶ)に移行する指示を受け付けるのを待つ(ステップS102;No)。当該操作を受け付けたら(ステップS102;Yes)、CPU11は操作表示装置10を領域指定モードに移行させる。なお、領域指定モードへの移行指示は操作部32以外で受け付けてもよい。たとえば、ジェスチャ動作や音声入力(音声入力で受け付ける場合は、音声入力に対応する装置が必要となる)で受け付けてもよいし、ネットワーク通信部17が他の装置から移行指示を受け付けてもよい。
操作表示装置10は領域指定モードに移行したら、認識部18により撮像部20から送られてくる映像の解析を開始する。当該映像内にジェスチャ動作がなければ(ステップS103;No)、ステップS103に戻って処理を継続する。
映像内にジェスチャ動作があれば(ステップS103;Yes)、そのジェスチャ動作と予め登録されている単位ジェスチャ動作を比較照合し、照合率が閾値以上か否かを調べる(ステップS104)。照合率が閾値未満であれば(ステップS104;No)、ステップS103に戻って処理を継続する。照合率が閾値以上であれば(ステップS104;Yes)、そのジェスチャ動作が有効なジェスチャ動作であると判断する。
有効であると判断したジェスチャ動作によって一連のジェスチャ動作が構成され、かつ、終了条件が満たされたか否かを判断する(ステップS105)。上記判断が偽の場合は(ステップS105;No)ステップS103に戻って処理を継続する。ここでは、終了条件は、所定の一連のジェスチャ動作によって領域指定が完了した場合に成立する。終了条件を満たした場合は(ステップS105;Yes)、所定の一連のジェスチャ動作によって指定された領域を撮像映像内で特定し、これを表示中画面の座標系に写像して、表示中画面内の領域を特定する。そして、この特定した領域の画像を抽出するか否かの決定をユーザから受け付ける。この決定は、操作部32で受け付けてもよいし、たとえば、ジェスチャ動作や音声入力(音声入力で受け付ける場合は、音声入力に対応する装置が必要となる)などで受け付けてもよい。
抽出を中止する決定を受け付けたら(ステップS106;No)、ステップS103に戻って処理を継続する。抽出を行う決定を受け付けたら(ステップS106;Yes)、表示中画面内(実際には元となる画像データ)において、ステップS105にて特定した領域に該当する部分を抽出し、該抽出した画像をハードディスク装置15に保存し(ステップS107)、本処理を終了する。
次に、所定の一連のジェスチャ動作について詳細な説明を行う。
所定の一連のジェスチャ動作は、複数の単位ジェスチャ動作を含み、終了条件の成立により完了する動作である。複数の単位ジェスチャ動作は、静止した複数のジェスチャ、動きのある複数のジェスチャ(ジェスチャ動作)、静止したジェスチャとジェスチャ動作の組み合わせのいずれかで構成される。よって、領域の範囲を指定するためのジェスチャ動作を複数のジェスチャ動作や動きのあるジェスチャ動作で構成することで、片手で領域指定を行うことが可能になる。また、指定する領域の形状を任意形状にすることができる。
領域指定のための一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作を含み、終了条件が成立することで完了する動作である。領域指定モードへ移行した後は、認識部18が、撮像部20から送られてくる映像の解析を開始する。領域指定の開始を指示するジェスチャ動作は、当該ジェスチャ動作を認識するまでの間のユーザの意図しない手の動き等を領域指定のためのジェスチャ動作として誤認識しないように設けられている。
図5は、領域指定の開始を指示するジェスチャ動作を行う様子を示す。ここでは、スクリーン40に投影されている画面に対して小さく円を描くようなジェスチャ動作が、領域指定の開始地点を指示するジェスチャ動作になっている。認識部18が、領域指定の開始を指示するジェスチャ動作を認識したら、領域の範囲を指定するジェスチャ動作の受け付けを開始する。
本実施の形態では、領域の範囲を指定する際には、まずユーザが開始地点を設定する。その後、当該開始地点からユーザが指を動かして囲った部分が指定した領域となる。すなわち、開始地点から移動を開始した指の動きの軌跡が任意の閉領域となったとき、領域指定が完了したと判断され、その閉領域が指定される。CPU11は、領域指定が完了したら終了条件を満たしたと判断し、該一連のジェスチャ動作によって指定された領域を、撮像映像内および表示中画面内において特定する。
なお、実施の形態では、図5で行った領域指定の開始を指示するジェスチャ動作は開始地点の設定も兼ねている。図5で行ったジェスチャ動作にて、小さく描いた円の中心点が開始地点として認識される。
図6は、開始地点が設定された場合にスクリーン40に表示される投影画面の一例を示す。認識部18が撮像部20から送られてくる映像を解析し、図5で説明したジェスチャ動作を認識したら、撮像映像上で開始地点として認識した位置に対応する表示中画面内の位置にマーカ点60aを表示する。表示中画面にマーカ点60aが表示されたら投影画面内にもマーカ点60が表示される。開始地点の設定後は、領域の範囲を指定するジェスチャ動作の受け付けを開始する。
ユーザは投影画面に表示されたマーカ点60の位置から、指定する領域の外周を辿るように手指を移動させて領域の範囲の指定を行う。図7は、領域の範囲を指定する様子を示す。本実施の形態では、時計回りに指を動かしているが、反時計回りに動かしてもよい。領域の形状は矩形や円形に限らないが、実施の形態では矩形領域を例に説明する。
なお、操作表示装置10は、認識部18が領域の範囲を指定する指の動きを認識したら、表示中画面においてその指の動きの軌跡に該当する部分にマーカ線61a(図8参照)を表示する。表示中画面にマーカ線61aが表示されたら、そのマーカ線61aに対応するマーカ線61が投影画面に表示されるので、ユーザは投影画面に現れたマーカ線61によって、自身が指し示した軌跡を視認することができる。
指が開始地点まで戻って、指の動きの軌跡が閉領域を形成したら、終了条件が成立し、CPU11は領域指定を行う所定の一連のジェスチャ動作が完了したと判断する。
図8は、領域指定を行う所定の一連のジェスチャ動作が完了したと判断した場合に、スクリーン40に表示される画面の一例を示す。操作表示装置10は、CPU11が領域の範囲を指定するジェスチャ動作が完了したと判断した場合、指定された領域の枠を示すマーカ線61(図中では破線で示す)を点滅表示する。マーカ線61の周囲の三角は点滅のイメージを示す。なお、CPU11は、領域指定が完了したと判断したら撮像部20から送られてくる映像の解析を中止する。
領域指定が完了して、マーカ線61の点滅表示が開始されたら、マーカ線61で囲まれた領域に対応する部分の画像を表示中画像から抽出するか否かの選択をユーザから受け付ける。抽出の指示は、ボタン操作や他の方法(他のジェスチャ動作等)でもよい。抽出を指示された場合は、当該領域の画像を抽出し、その抽出によって得た画像を保存する。
図9は、所定の一連のジェスチャ動作によって指定された領域を特定し、抽出し、保存する際に行われる処理の詳細な流れを示す。
まず、操作表示装置10は、プロジェクタ21を使用してスクリーン40に、画面の投影を開始する(ステップS201)。
次に、領域指定モードへの移行指示を操作部32から受け付けるのを待って(ステップS202;No)、当該指示を受け付けたら(ステップS202;Yes)、CPU11は操作表示装置10を領域指定モードに移行させる。操作表示装置10が領域指定モードに移行したら認識部18は撮像部20から送られてくる映像の解析を開始する。何らかのジェスチャ動作が認識されなければ(ステップS203;No)、ステップS203に戻って処理を継続する。
何らかのジェスチャ動作を認識したら(ステップS203;Yes)、このジェスチャ動作と、ハードディスク装置15に予め記憶されている領域指定の開始を指示するジェスチャ動作と照合し、その照合率が閾値以上か否かを調べる(ステップS204)。照合率が閾値未満であれば(ステップS204;No)、認識したジェスチャ動作が、領域指定を開始するジェスチャ動作ではないと判断し、ステップS203に戻って処理を継続する。
照合率が閾値以上であれば(ステップS204;Yes)、ステップS203で認識したジェスチャ動作が、領域指定を開始するジェスチャ動作であると判断し、当該ジェスチャ動作の示す位置を領域指定の開始地点に設定し、表示中画面において開始地点に該当する位置にマーカ点60aを表示する(ステップS205)。
その後も、撮像部20から送られてくる映像を解析してジェスチャ動作の認識処理を継続する(ステップS206;No)。何らかのジェスチャ動作が認識されたら(ステップS206;Yes)、その認識したジェスチャ動作が領域の範囲を指定するジェスチャ動作か否かを、前述同様に予め定められたジェスチャ動作と比較照合(特に、動作の特徴を照合)して判定する(ステップS207)。
照合率が閾値未満であれば(ステップS207;No)、認識したジェスチャ動作が、領域の範囲を指定するジェスチャ動作ではないと判断し、ステップS206に戻って処理を継続する。照合率が閾値以上であれば(ステップS207;Yes)、認識したジェスチャ動作が、領域の範囲を指定するジェスチャ動作であると判断し、表示中画面において、当該ジェスチャ動作の指の動きの軌跡に該当する部分をマーカ線61で表示する(ステップS208)。
指が開始地点に戻ったら領域の範囲を指定するジェスチャ動作が完了したと判断する。これにより終了条件が成立するので(ステップS209;Yes)、領域指定のための一連のジェスチャ動作の認識処理を終了させ、認識した領域を囲むマーカ線61を点滅表示する(ステップS210)。開始地点に戻らぬままジェスチャ動作が中断した場合、たとえば、ジェスチャ動作を行っていた手が撮像部20の撮像するエリア外に出て所定の時間が経過した場合などは、エラー終了する。所定の時間は、ジェスチャ動作が中断したと判断するに十分な時間であればよい。
次に、指定した領域の画像を抽出するか否かの決定をユーザから受け付ける。抽出を中止する決定を受け付けたら(ステップS211;No)、ステップS203に戻って処理を継続する。抽出を実行する決定を受け付けたら(ステップS211;Yes)、一連のジェスチャ動作によって撮像映像上で指定された領域を表示中画面に写像して、表示中画面内の対応する領域を特定し、この領域の画像を抽出してハードディスク装置15に保存し(ステップS212)、本処理を終了する。
このように、第1の実施の形態では、撮像部20とスクリーン40の間でユーザが行ったジェスチャ動作を認識し、認識した複数のジェスチャ動作によって所定の一連のジェスチャ動作が構成されたら、該一連のジェスチャ動作で指定された領域を特定する。具体的には、撮像された映像上で領域を特定し、この領域を表示中画面に写像し、表示中画面内の領域を特定し、当該領域を抽出する。所定の一連のジェスチャ動作によって領域を指定するので、たとえば、片手で行う複数のジェスチャ動作や動きのあるジェスチャ動作によって任意形状の領域を指定することができる。よって従来よりも利便性の高い方法で領域を指定することができる。
<第2の実施の形態>
第1の実施の形態では、所定の一連のジェスチャ動作で撮像部20の出力する映像上の領域を特定し、この領域を表示中画面に写像して、表示中画面上の領域を特定し、その特定した領域の画像を抽出して保存した。第2の実施の形態では、表示中画面内で特定した領域を、さらに拡大または縮小する場合について説明する。
なお、第2の実施の形態においても表示システム3のハード構成は第1の実施の形態と同じである。また、第2の実施の形態では、第1の実施の形態との相違点を説明し、同一部分の説明は適宜省略する。
まず、所定の一連のジェスチャ動作で撮像部20の出力する映像上の領域を特定し、この領域を表示中画面に写像して、表示中画面上の領域を特定したら、すなわち、領域指定が完了したら、その指定したマーカ線61が点滅表示を開始する(図12参照)。
その後、撮像部20から送られてくる映像の解析を一定時間の間(たとえば10秒間)継続し、その間に認識したジェスチャ動作が、拡大縮小を指示するための予め定めた第2のジェスチャ動作であれば、前述の領域指定によって特定された表示中画面上の領域の画像(以後、指定領域画像と呼ぶ)を、第2のジェスチャ動作に従って拡大もしくは縮小する。第2のジェスチャ動作は、終了条件が成立することで完了する。CPU11は、終了条件が成立したら、第2のジェスチャ動作が完了したと判断し、指定領域画像の拡大縮小を終了する。
図10は、第2のジェスチャ動作に従って指定領域画像80を拡大した場合の様子の一例を示す。指定領域画像80が拡大されたら、投影画面内での指定領域画像80に該当する部分(以後、投影指定領域画像81と呼ぶ)も拡大表示される。
図11は、第2のジェスチャ動作に従って指定領域画像80を縮小した場合の様子の一例を示す。指定領域画像80が縮小されたら、投影指定領域画像81も縮小表示される。
なお、表示中画面において、縮小後の指定領域画像80と縮小前の指定領域画像80との差の表示エリアには、ブランクデータを割り当てて表示する。
図12は、領域指定が完了してから一定時間(たとえば、10秒間)の間に、スクリーン40に表示される投影画面の一例を示す。投影画面では、投影指定領域画像81の外枠であるマーカ線61が点滅表示するとともに、投影指定領域画像81の中心点と対角線が重ねて表示される。ユーザは、この中心点と対角線を参照しながら、スクリーン40に投影されている投影画面に向けて拡大もしくは縮小を指示する第2のジェスチャ動作を行う。
図13は、拡大を指示する第2のジェスチャ動作を行う様子を示す。拡大を指示する第2のジェスチャ動作は、投影指定領域画像81に重ねて表示されている中心点から、投影指定領域画像81のいずれかの角に向けて、その方向の対角線をなぞるようなジェスチャ動作である。CPU11は、認識部18が認識したジェスチャ動作が前述の拡大を指示する第2のジェスチャ動作である場合は、そのなぞられた距離に応じた倍率で指定領域画像80を拡大する。たとえば、なぞられた距離が長ければ指定領域画像80を高倍率で拡大し、なぞられた距離が短ければ低倍率で拡大する。図中では、ユーザが中心点から左下の角に向けて前述の第2のジェスチャ動作を行っている。
図14は、縮小を指示する第2のジェスチャ動作を行う様子を示す。縮小を指示する第2のジェスチャ動作は、投影指定領域画像81のいずれかの角から、投影指定領域画像81に重ねて表示されている中心点に向けて、その方向の対角線をなぞるようなジェスチャ動作である。CPU11は、認識部18が認識したジェスチャ動作が前述の縮小を指示する第2のジェスチャ動作である場合は、そのなぞられた距離に応じた倍率で指定領域画像80を縮小する。たとえば、なぞられた距離が長ければ指定領域画像80を高倍率で縮小し、なぞられた距離が短ければ低倍率で縮小する。図中では、ユーザが左下の角から中心点に向けて前述の第2のジェスチャ動作を行っている。
図15は、図13、図14とは異なるジェスチャ動作を第2のジェスチャ動作として指定領域画像80を拡大、縮小する様子を示す。図15では、第2のジェスチャ動作は、1対のL字型に形成した右手50と左手52で略矩形の形を作り、その略矩形の大きさを変化させるジェスチャ動作である。認識部18が認識したジェスチャ動作が、前述の第2のジェスチャ動作である場合は、CPU11が、その変化に応じて指定領域画像80を拡大、もしくは縮小する。たとえば、当該略矩形の縦方向が拡大されたら、その拡大率に合わせて指定領域画像80の縦方向を拡大する。
なお、本発明の実施の形態では、第2のジェスチャ動作の終了条件は、指を一定時間(たとえば、2秒ほど)静止させることである。当該終了条件が成立したら第2のジェスチャ動作は完了する。終了条件は、操作部32から終了の指示を受け付けること等、他の条件であってもよい。
図16は、第2の実施の形態において、指定領域画像80を、第2のジェスチャ動作に従って拡大縮小する処理を示す。
まず、操作表示装置10は、プロジェクタ21を使用してスクリーン40に、画面の投影を開始する(ステップS301)。領域指定が完了するまでは(ステップS302;No)ステップS302に戻って処理を継続する。ステップS302の処理は、図9のステップS202からステップS210までの処理と同様の処理が行われたか否かを監視している。
領域指定が完了したら(ステップS302;Yes)、認識部18は撮像部20から送られてくる映像の解析を開始する。何らかのジェスチャ動作が認識されなければ(ステップS303;No)、ステップS303に戻って処理を継続する。
何らかのジェスチャ動作を認識したら(ステップS303;Yes)、このジェスチャ動作と、ハードディスク装置15に予め記憶されている第2のジェスチャ動作と照合し、その照合率が閾値以上か否かを調べる(ステップS304)。照合率が閾値未満であれば(ステップS304;No)、認識したジェスチャ動作が、第2のジェスチャ動作(拡大、もしくは縮小を指示するジェスチャ動作)ではないと判断し、ステップS303に戻って処理を継続する。
照合率が閾値以上であれば(ステップS304;Yes)、認識したジェスチャ動作が、第2のジェスチャ動作であると判断する。その後、終了条件が成立し、第2のジェスチャ動作が完了したか否かを調べる(ステップS305)。拡大、縮小を指示するジェスチャ動作の後、ユーザが指を一定時間(たとえば、2秒間)静止させれば、終了条件が成立する。終了条件が成立したら(ステップS305;Yes)、拡大縮小のための第2のジェスチャ動作の認識処理を終了させ、ステップS302で指定された領域、すなわち指定領域画像80を、ステップS304で受けた第2のジェスチャ動作に従って拡大、もしくは縮小し(ステップS306)本処理を終了する。
終了条件が成立しなければ(ステップS305;No)、ステップS303に戻って処理を継続する。たとえば、第2のジェスチャ動作を行っていた手が撮像部20の撮像するエリア外に出て所定の時間が経過した場合などは、エラー終了する。所定の時間は、ジェスチャ動作が中断したと判断するに十分な時間であればよい。
なお、ステップS303にて、いずれのジェスチャ動作も認識しないまま一定時間(たとえば10秒)が経過した場合は、拡大、縮小が行われないと判断し、処理を終了してもよい。
このように第2の実施の形態では、所定の一連のジェスチャ動作によって指定された領域の画像(指定領域画像80)を、ユーザの行う第2のジェスチャ動作に従って拡大もしくは縮小する。第2のジェスチャ動作は拡大、縮小の指示だけでなく、その倍率(拡大率、縮小率)も同時に指定する。また、ユーザは投影指定領域画像81を確認することによって、当該拡大、縮小を微調整することも可能である。よって、ユーザは、所定の一連のジェスチャ動作によって指定された領域を、続けて第2のジェスチャ動作によって拡大、縮小させることができる。
<第3の実施の形態>
第3の実施の形態では、所定の貼り付け指示で指定された場所に画像を貼り付ける場合について説明する。なお、第3の実施の形態においても表示システム3のハード構成は第1、第2の実施の形態と同じである。また、第3の実施の形態では、第1、第2の実施の形態との相違点を説明し、同一部分の説明は適宜省略する。
第3の実施の形態で貼り付けられる画像は、第1の実施の形態で説明した方法で抽出した画像、抽出して保存した画像、第2の実施の形態で拡大、縮小した指定領域画像80、もしくは、ハードディスク装置15から読み出した画像である。実施の形態では、ハードディスク装置15から読み出した画像を例に説明する。
まず、ユーザが操作部32から貼り付けを行う動作モードへの移行を指示するとともに、ハードディスク装置15から読み出す画像を指定する。
当該移行指示に従って貼り付けを行う動作モードへ移行したら、撮像部20から送られてくる映像の解析を開始する。当該映像内に、スクリーン40に対するジェスチャ動作を認識したら、当該ジェスチャ動作がスクリーン40内で指定した位置に対応する表示画面内の位置に、先に指定された画像をハードディスク装置15から読み出して表示する。
図17は、ジェスチャ動作によって、貼り付け位置を指定する様子を示す。ジェスチャ動作による位置の指定は、たとえば、領域指定における開始地点の設定と同じく、円を描くようなジェスチャ動作によって行う。たとえば、CPU11は、円の中心点が、貼り付ける画像の中心となるように読み出した画像を表示する。
表示中画面に読み出した画像が表示されたら、投影画面にも、その画像が表示される。
なお、貼り付けを行う動作モードへ移行したら、読み出した画像を表示中画面内の予め決められた位置に自動で表示し、その後、ジェスチャ動作に従ってその貼り付け位置を移動させるようにしてもよい。
当該貼り付けが行われたら。位置情報取得部35が、GPSによって、画像が貼り付けられた場所の位置情報を取得する。そして操作表示装置10は、当該位置情報と貼り付けた画像とを関連付けてハードディスク装置15に保存する。保存先は外部のサーバなどでもよい。
また、ハードディスク装置15に保存されている位置情報が示す場所に操作表示装置10の表示部31の表示領域(表示部31の表示面あるいはスクリーン40)が存在する場合に、その位置情報に対応付けされている画像を該位置情報の示す場所に表示する。たとえば、第3会議室で画像Aの貼り付けを行った場合、次回に第3会議室で操作表示装置10を使用する際に、前回貼り付けた画像Aが自動的に表示部31に表示され、スクリーン40に表示される。
このように第3の実施の形態では、操作表示装置10は、貼り付け指示に従って画像を貼り付けた際に、その貼り付けた場所の位置情報と、当該貼り付けた画像を関連付けて記憶する。そして、以前に貼り付けを行った場所(記憶されている位置情報の示す場所)で操作表示装置10を使用する場合に、その位置情報に対応付けされている画像が自動的にその位置情報の示す場所に貼り付けて表示される。よって、その貼り付けを行った場所で操作表示装置10を使用する際には、手間無く、常にその貼り付けが再現される。
なお、本発明の実施の形態ではジェスチャ動作によって、貼り付け指示を行ったが、この貼り付け指示は、ジェスチャ動作に限らず、ボタン操作等で行ってもよい。
以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
本発明の第1の実施の形態では、撮像部20の撮像するエリアに、表示中画面を対応付けしておき、所定の一連のジェスチャ動作が指定した投影画面内の領域に該当する表示中画面内の領域を特定し、抽出していたが、撮像部20から送られてくる画像内において、所定の一連のジェスチャ動作が指定する領域を特定し、撮像画像の一部を抽出してもよい。これにより、たとえば、撮像部20でホワイトボードに書き込まれた内容等を撮像することで、その内容を画像として抽出し、保存することができる。また、ハードディスク装置15から読み出した画像ではなく、撮像部20が撮像して得た映像を表示部31に表示してもよい。
なお、撮像部20が撮像して得た画像内の領域を特定する場合、ハード構成としてはCPU11と、ROM12と、RAM13と、認識部18と、撮像部20を抜き出して構成された領域指定装置であってもよい。表示部31やプロジェクタ21、スクリーン40を含めない構成でもよい。なお、プロジェクタ21によって、開始地点や、マーカ線等を撮像部20が撮像している対象物に投影し、ユーザが自身の指定している領域等を視認できるようにしてもよい。
本発明の実施の形態では、表示システム3を例に説明したが、領域指定装置の形態はこれに限らない。たとえば、ARメガネ等のヘッドマウントディスプレイの形態を採用した場合、ユーザの視界を撮像部20が撮像するようにし、当該視界の中で行った所定の一連のジェスチャ動作を認識する。また、デジタルカメラやスマートフォン等の形態を採用する場合は、表示部31に撮像部20が撮像して得た映像を表示するようにする。
なお、本発明の実施の形態では、認識部18は右手50の動作を直接検出することでユーザが行うジェスチャ動作を認識していたが、キャップ51を手に装着してジェスチャ動作を行い、当該キャップ51の動きを検出してユーザの行うジェスチャ動作を認識するようにしてもよい。キャップ51はバンドで固定する等の方法でユーザの指に装着する装着具である。キャップ51の動きを検出する場合は、キャップ51の大きさと形状を予め登録しておけば、ユーザごとの手のサイズや形状の違いの影響を受けることなく認識部18が、ユーザの手が行うジェスチャ動作を認識することができる。図18は、キャップ51の動きを検出してユーザの行うジェスチャ動作を認識する様子を示す。
本発明の第1の実施の形態では、領域指定を開始するジェスチャ動作が、開始地点の設定を行うジェスチャ動作を兼ねていたが、領域指定を開始するジェスチャ動作を行った後に、新たに領域の開始地点の設定を行うようにしてもよい。すなわち、領域指定を開始するジェスチャ動作を行った後、スクリーン40に投影されている画面に対して小さく円を描くようなジェスチャ動作をユーザから新たに受け付けたら、その円の中心点を開始地点として設定するようにしてもよい。
本発明の第1の実施の形態では、指定する領域の輪郭をなぞるように指し示すジェスチャ動作によって、領域の範囲を指定したが、領域の範囲を指定する方法はこの方法に限らない。図19は、他の方法の一例を示す。ユーザは、領域指定の開始を指示する操作の後、スクリーン40上の複数点に対して小さく円を描くようなジェスチャ動作を行う。操作表示装置10は、このジェスチャ動作によって描かれる複数の円の中心点を直線で結んで最も面積が広くなるように囲った領域の画像を指定された範囲として認識する。図19では、4点に円が描かれているので、その4つの円の中心点を結んで囲った矩形の領域を、指定された範囲として認識している。5つの円が描かれた場合は、5角形の領域となる。なお、描かれた円の数が2つの場合は、その2つの円の中心点を、対角とする矩形領域を指定された範囲として認識すればよい。
なお、本発明の第3の実施の形態では、位置情報取得部35が取得した位置情報と貼り付けた画像を関連付けてハードディスク装置15に記憶していたが、外部のサーバ等に記憶してもよい。外部のサーバを本発明の請求項に係る記憶部とした場合、たとえば、操作表示装置10がいずれの場所に存在していても、ネットワークを通じてサーバから当該情報を取得して自動貼り付けを行うことができる。
3…表示システム
10…操作表示装置
11…CPU
12…ROM
13…RAM
14…不揮発メモリ
15…ハードディスク装置
16…画像処理部
17…ネットワーク通信部
18…認識部
19…有線I/F部
20…撮像部
21…プロジェクタ
30…操作パネル
31…表示部
32…操作部
33…スイッチ部
34…タッチパネル部
35…位置情報取得部
40…スクリーン
50…右手
51…キャップ
52…左手
60、60a…マーカ点
61、61a…マーカ線
80…指定領域画像
81…投影指定領域画像

Claims (11)

  1. 撮像部と、
    撮像部が撮像しているエリア内で行われたユーザによるジェスチャ動作を前記撮像部の出力する映像を解析して認識する認識部と、
    前記認識部によって認識されたジェスチャ動作が領域指定のための所定の一連のジェスチャ動作を構成した場合に、該所定の一連のジェスチャ動作によって指定された領域を特定する制御部と、
    を備える
    ことを特徴とする領域指定装置。
  2. 前記制御部は、前記所定の一連のジェスチャ動作に続けて前記認識部が認識したジェスチャ動作が、拡大縮小を指示するための予め定めた第2のジェスチャ動作の場合に、前記所定の一連のジェスチャ動作によって指定された領域に対して、前記第2のジェスチャ動作が示す拡大縮小の指示を適用する
    ことを特徴とする請求項1に記載の領域指定装置。
  3. 前記所定の一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である
    ことを特徴とする請求項1または2に記載の領域指定装置。
  4. 前記制御部は、所定の一連のジェスチャ動作によって指定された領域として、前記撮像部の出力する映像上の領域を特定する
    ことを特徴とする請求項1乃至3のいずれか1つに記載の領域指定装置。
  5. 前記制御部は、前記撮像部の出力する映像上で前記所定の一連のジェスチャ動作によって指定された領域を、前記撮像部が撮像するエリアに対応付けされた所定の画像に写像して、該所定の画像上の領域を特定する
    ことを特徴とする請求項1乃至3のいずれか1つに記載の領域指定装置。
  6. 画像の表示部を備え、
    前記所定の画像は、前記表示部が前記撮像部の撮像エリアに表示した画像である
    ことを特徴とする請求項5に記載の領域指定装置。
  7. 前記制御部は、前記特定した領域の画像を抽出する
    ことを特徴とする請求項4乃至6のいずれか1つに記載の領域指定装置。
  8. 前記制御部は、前記抽出した画像を所定の記憶部に保存する
    ことを特徴とする請求項7に記載の領域指定装置。
  9. 画像の表示部を備え、
    前記制御部は、所定の貼り付け指示で指示された場所に、前記抽出した画像を、前記表示部によって表示する
    ことを特徴とする請求項7または8に記載の領域指定装置。
  10. 位置情報を取得する位置情報取得部を更に備え、
    前記制御部は、前記抽出した画像を前記貼り付け指示で指定された場所に表示した場合に、前記貼り付け指示で指示された場所の位置情報を前記位置情報取得部によって取得し、該位置情報と前記表示した画像とを関連付けて所定の記憶部に保存する
    ことを特徴とする請求項9に記載の領域指定装置。
  11. 前記制御部は、前記記憶部に保存されている位置情報が示す場所に前記表示部の表示領域が存在する場合に、前記位置情報に関連付けされている画像を前記位置情報の示す場所に表示する
    ことを特徴とする請求項10に記載の領域指定装置。
JP2013106320A 2013-05-20 2013-05-20 領域指定装置 Pending JP2014228945A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013106320A JP2014228945A (ja) 2013-05-20 2013-05-20 領域指定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013106320A JP2014228945A (ja) 2013-05-20 2013-05-20 領域指定装置

Publications (1)

Publication Number Publication Date
JP2014228945A true JP2014228945A (ja) 2014-12-08

Family

ID=52128764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013106320A Pending JP2014228945A (ja) 2013-05-20 2013-05-20 領域指定装置

Country Status (1)

Country Link
JP (1) JP2014228945A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194763A (ja) * 2015-03-31 2016-11-17 富士通株式会社 画像処理装置、画像処理プログラム、及び画像処理方法
WO2017145423A1 (ja) * 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2018073071A (ja) * 2016-10-28 2018-05-10 京セラドキュメントソリューションズ株式会社 情報処理装置
WO2018235371A1 (ja) * 2017-06-20 2018-12-27 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2021040179A (ja) * 2019-08-30 2021-03-11 富士フイルム株式会社 投影装置及び方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168949A (ja) * 1993-04-30 1995-07-04 Rank Xerox Ltd 対話式複写装置
JP2006018374A (ja) * 2004-06-30 2006-01-19 Casio Comput Co Ltd プロジェクタ機能付き画像処理装置およびプログラム
JP2011170603A (ja) * 2010-02-18 2011-09-01 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
JP2011227828A (ja) * 2010-04-22 2011-11-10 Canon Inc 情報処理装置、その処理方法及びプログラム
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
WO2011152166A1 (ja) * 2010-05-31 2011-12-08 株式会社Pfu オーバーヘッドスキャナ装置、画像処理方法、および、プログラム
WO2012153833A1 (ja) * 2011-05-12 2012-11-15 Necカシオモバイルコミュニケーションズ株式会社 電子機器、その制御方法及びプログラム
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
JP2013034168A (ja) * 2011-08-01 2013-02-14 Fuji Xerox Co Ltd 画像投影装置ならびに画像投影制御装置およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168949A (ja) * 1993-04-30 1995-07-04 Rank Xerox Ltd 対話式複写装置
JP2006018374A (ja) * 2004-06-30 2006-01-19 Casio Comput Co Ltd プロジェクタ機能付き画像処理装置およびプログラム
JP2011170603A (ja) * 2010-02-18 2011-09-01 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
JP2011227828A (ja) * 2010-04-22 2011-11-10 Canon Inc 情報処理装置、その処理方法及びプログラム
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
WO2011152166A1 (ja) * 2010-05-31 2011-12-08 株式会社Pfu オーバーヘッドスキャナ装置、画像処理方法、および、プログラム
WO2012153833A1 (ja) * 2011-05-12 2012-11-15 Necカシオモバイルコミュニケーションズ株式会社 電子機器、その制御方法及びプログラム
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
JP2013034168A (ja) * 2011-08-01 2013-02-14 Fuji Xerox Co Ltd 画像投影装置ならびに画像投影制御装置およびプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194763A (ja) * 2015-03-31 2016-11-17 富士通株式会社 画像処理装置、画像処理プログラム、及び画像処理方法
US10185399B2 (en) 2015-03-31 2019-01-22 Fujitsu Limited Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
WO2017145423A1 (ja) * 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US10372229B2 (en) 2016-02-25 2019-08-06 Nec Corporation Information processing system, information processing apparatus, control method, and program
JP2018073071A (ja) * 2016-10-28 2018-05-10 京セラドキュメントソリューションズ株式会社 情報処理装置
WO2018235371A1 (ja) * 2017-06-20 2018-12-27 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
US10921934B2 (en) 2017-06-20 2021-02-16 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2021040179A (ja) * 2019-08-30 2021-03-11 富士フイルム株式会社 投影装置及び方法
JP7236355B2 (ja) 2019-08-30 2023-03-09 富士フイルム株式会社 投影装置及び方法
JP2023059985A (ja) * 2019-08-30 2023-04-27 富士フイルム株式会社 投影装置及び方法
JP7427822B2 (ja) 2019-08-30 2024-02-05 富士フイルム株式会社 投影装置及び方法

Similar Documents

Publication Publication Date Title
US12340034B2 (en) Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
US10514842B2 (en) Input techniques for virtual reality headset devices with front touch screens
US11546457B2 (en) Electronic device and method of operating electronic device in virtual reality
CN103092524B (zh) 一种通过触摸屏实现截图的方法及移动终端
US9894115B2 (en) Collaborative data editing and processing system
CN111913565B (zh) 虚拟内容控制方法、装置、系统、终端设备及存储介质
CN110471596B (zh) 一种分屏切换方法、装置、存储介质及电子设备
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
KR102061867B1 (ko) 이미지 생성 장치 및 그 방법
WO2015161653A1 (zh) 一种终端操作方法及终端设备
CN106204423B (zh) 一种基于增强现实的图片调整方法、装置及终端
JP6595896B2 (ja) 電子機器及び表示制御方法
CN105807999B (zh) 通过手写设备向显示设备输入手写信息的方法
JP2014228945A (ja) 領域指定装置
EP4671926A1 (en) METHOD AND APPARATUS FOR INTERACTION IN A VIRTUAL REALITY SCENE, DEVICE AND STORAGE MEDIA
WO2018010440A1 (zh) 一种投影画面调整方法、装置和投影终端
JP2023033559A (ja) 情報処理装置、表示制御方法、及びプログラム
US20170090744A1 (en) Virtual reality headset device with front touch screen
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
US8970483B2 (en) Method and apparatus for determining input
KR102071673B1 (ko) 디스플레이 장치 및 그의 그래픽 요소 디스플레이 방법
WO2022218352A1 (zh) 触控操作方法及装置
JP7401805B2 (ja) 情報処理装置、画像処理範囲指定方法及び画像処理範囲指定プログラム
JP2015088090A (ja) 操作表示装置、操作表示方法及びプログラム
JP2015005088A (ja) 画像処理装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170606