[go: up one dir, main page]

JP2013214275A - 三次元位置指定方法 - Google Patents

三次元位置指定方法 Download PDF

Info

Publication number
JP2013214275A
JP2013214275A JP2012193478A JP2012193478A JP2013214275A JP 2013214275 A JP2013214275 A JP 2013214275A JP 2012193478 A JP2012193478 A JP 2012193478A JP 2012193478 A JP2012193478 A JP 2012193478A JP 2013214275 A JP2013214275 A JP 2013214275A
Authority
JP
Japan
Prior art keywords
movement
pointing device
dimensional
dimensional position
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012193478A
Other languages
English (en)
Inventor
Naoto Abe
直人 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012193478A priority Critical patent/JP2013214275A/ja
Priority to US13/767,277 priority patent/US20130234937A1/en
Publication of JP2013214275A publication Critical patent/JP2013214275A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03541Mouse/trackball convertible devices, in which the same ball is used to track the 2D relative movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】特殊なポインティングデバイスを必要とすることなく、更に、特殊な操作の習得なしに直感的に三次元方向の位置指定を可能にする技術を提供する。
【解決手段】三次元画像データからある奥行き位置の画像を取得し表示するビューアにおいて、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、ポインティングデバイスのX方向の移動により、表示画像に対してX方向の位置を指定し、ポインティングデバイスのY方向の移動により、表示画像に対してY方向の位置を指定し、ポインティングデバイスの斜め方向の移動により、表示画像の奥行き位置を指定する。
【選択図】図1

Description

本発明は、二次元のポインティングデバイスを用いて三次元の位置指定を行うための方法に関する。
従来、ポインティングデバイスを用いた三次元位置の指定方法として、特殊なポインティングデバイスを用いる方法がある(特許文献1)。例えば特許文献1は、複数の球状体を用いた特殊なマウスを用いてX,Y,Z方向の座標位置を指定することができる技術を開示している。また、特許文献2では、一般的なポインティングデバイスを用いる方法として、マウスにボタンやホイールを設け、マウスの移動操作にボタンやホイールの操作を組み合わせ三次元領域の指定を可能とする技術を開示している。また、一般的なマウス等のポインティングデバイスを用いて二次元座標変化量を三次元座標変化量に変換する方法として特許文献3の方法がある。特許文献3の方法によれば一般的なマウスを用いて三次元座標変化量を指定できる。
特開平6−59811号公報 特開2007−148548号公報 特開2009−93666号公報
本発明者らは、バーチャルマイクロスコープと言われるディジタル顕微鏡で撮像した画像を、ビューアと言われる観察用ソフトウエアを用いて観察するシステムの研究開発を行っている。
近年、ディジタル顕微鏡や各種検査装置で、奥行き方向の位置が異なる複数の二次元画像を撮像し、被写体の三次元構造を表す三次元画像データを取得することが行われている。このような三次元画像データを「Zスタック画像データ」とも呼び、Zスタック画像データを構成する各々の二次元画像データをレイヤー画像データとも呼ぶ。三次元画像をビューアで表示することで、表示装置の画面上で診断や検査(以降、観察と記す)を行うことができる。
観察を行う者(以降、観察者と呼ぶ)は、前記ビューアで、三次元画像データの平面方向(XY方向)や奥行き方向(Z方向)の位置を指定し、表示装置の画面上に所望の領域の画像を表示し観察する。位置指定を行うための入力装置としてはマウス等のポインティングデバイスが通常用いられるが、従来、観察者の経験や感性に合致する三次元方向の位置指定方法はなかった。
特許文献1で開示されている方法、すなわち、マウスに複数の球状体を設け複数の球状体の回転量に基づき仮想空間内の奥行き方向の移動量データを生成する方法によれば、仮想空間内の奥行き方向(Z方向)の指定が可能となる。しかしながら、特許文献1の方法では三次元画像データの位置を指定するために、特殊なマウスが必要となる問題点がある。更に、Z方向の位置の指定については前記複数の球状体の回転量の差、すなわち、マウス本体の回転方向の操作により行う。この方法は観察者の経験や感性と異なるため直感的に操作できず、マウスの操作の習得が必要となる課題を有する。
一方、特許文献2で開示されている方法、すなわち、マウスの移動操作にボタンやホイールの操作を組み合わせる方法によれば、特殊なマウスを用意することなく、三次元方向の位置指定が可能となる。しかしながら、特許文献2の方法もまた、三次元画像データの位置を指定するために、マウスの移動操作に加えボタンやホイールの操作が必要なため、直感的に操作できず、マウスの操作の習得が必要となる課題を有する。
また、特許文献3で開示されている方法によれば、特殊なマウスを必要とすることなく三次元座標変化量を指定することができる。しかしながら、マウスのXY方向の変化量から、表示されているカーソル等のXYZ方向の変化量を計算するため、例えばXY方向のみカーソル等を移動したい場合であっても、Z方向の移動が発生する等の課題がある。そのためZスタック画像データをビューアで観察する目的のためには、非常に使いづらい方法である。
本発明は、上記実情に鑑みてなされたものであって、その目的とするところは、特殊なポインティングデバイスを必要とすることなく、更に、特殊な操作の習得なしに直感的に三次元方向の位置指定を可能にする技術を提供することにある。
本発明の第一態様は、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、ポインティングデバイスのX方向の移動によりX方向の位置を指定し、ポインティングデバイスのY方向の移動によりY方向の位置を指定し、ポインティングデバイスの斜め方向の移動によりZ方向の位置を指定することを特徴とする三次元位置指定方法である。
本発明の第二態様は、三次元画像データからある奥行き位置の画像を取得し表示するビューアにおいて、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、ポインティングデバイスのX方向の移動により、表示画像に対してX方向の位置を指定し、ポインティングデバイスのY方向の移動により、表示画像に対してY方向の位置を指定し、ポインティングデバイスの斜め方向の移動により、表示画像の奥行き位置を指定することを特徴とする三次元位置指定方法である。
本発明の第三態様は、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、ポインティングデバイスの移動操作が、予め決められた、X方向の移動、Y方向の移動、斜め方向の移動のうちのいずれであるかをコンピュータが判定するステップと、ポインティングデバイスの移動操作がX方向の移動である場合にコンピュータが移動対象をX方向に移動し、ポインティングデバイスの移動操作がY方向の移動である場合にコンピュータが移動対象をY方向に移動し、ポインティングデバイスの移動操作が斜め方向の移動である場合にコンピュータが移動対象をZ方向に移動するステップと、を含むことを特徴とする三次元位置指定方法である。
本発明の第四態様は、三次元画像データからある奥行き位置の画像を取得し表示するビューアにおいて、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、ポインティングデバイスの移動操作が、予め決められた、X方向の移動、Y方向の移動、斜め方向の移動のうちのいずれであるかをコンピュータが判定するステップと、ポインティングデバイスの移動操作がX方向の移動である場合にコンピュータが表示画像又はカーソルをX方向に移動し、ポインティングデバイスの移動操作がY方向の移動である場合にコンピュータが表示画像又はカーソルをY方向に移動し、ポインティングデバイスの移動操作が斜め方向の移動である場合にコンピュータが表示画像の奥行き位置を変更するステップと、を含むことを特徴とする三次元位置指
定方法である。
本発明の第五態様は、上記三次元位置指定方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。
本発明によれば、特殊なポインティングデバイスを必要とすることなく、更に、特殊な操作の習得なしに直感的に三次元方向の位置指定が可能となる。
第1の実施形態のビューアの動作を示すフローチャート。 マウスの移動方向と移動速さの算出方法を説明するための模式的な図。 マウスの移動方向からビューアの動作を決定する方法を説明する図。 第2の実施形態におけるガイド画像の一例を示す図。 第2の実施形態におけるガイド画像の別の例を示す図。 第3の実施形態のビューアの動作を示すフローチャート。 ビューアが動作するコンピュータシステムの構成を示す図。 Zスタック画像データを簡便に説明するための模式図。
本発明は、三次元構造をもつ画像データを表示するビューアにおいて、通常のポインティングデバイスを用いて三次元方向の位置指定を簡単かつ直感的に行うための方法に関する。三次元構造をもつ画像データ(三次元画像データ)としては、ディジタル顕微鏡や各種検査装置で奥行き方向の位置を変えながら撮像することにより得られる複数の二次元画像データ(Zスタック画像データ)や、ボクセルデータなどがある。特に、ディジタル顕微鏡で撮像し、ビューアで観察するシステム(バーチャルマイクロスコープとも言われるディジタル顕微鏡システム)において、本発明はポインティングデバイスにより三次元方向の位置指定(位置変更)を行う好適な方法を提供するものである。以下の実施形態では、ディジタル顕微鏡システムで得られたZスタック画像データを観察する際のビューア操作を例に挙げて、本発明の好適な実施形態を具体的に説明する。
(Zスタック画像データ)
初めに、ディジタル顕微鏡システムにより撮像されたZスタック画像データについて説明する。
図8(a)、図8(b)は、Zスタック画像データを簡便に説明するための模式図である。図8(a)は3つのレイヤー画像から構成されるZスタック画像データを模式的に示した図である。図8(b)は各々のレイヤー画像が見えるように分かりやすく模式的に示した図である。もちろん、レイヤー画像の数は3つに限るものではなく、観測者の要求するレイヤー数(所望のレイヤー数)でZスタック画像データを作成することができる。
図8(a)、図8(b)において、300a,300b,300cは各層のレイヤー画像データを模式的に示す。各々のレイヤー画像データ300a,300b,300cは、焦点位置(合焦位置)を変えて撮影されたものであり、各レイヤー画像データには検体101aの断面に相当する検体像301a,301b,301cが現れている。各レイヤー画像データ300a〜300cは二次元画像データであり、各々の画素は、例えばRGB、8bitのデータにより構成される。このZスタック画像データは、レイヤー画像の平面方向(XY方向)と奥行き方向(Z方向)を持つ三次元画像データである。なお、Zスタック画像データの一部のデータを抜き出して、層数の異なるZスタック画像データや、平面方向のサイズが異なるZスタック画像データを生成することもできる。
Zスタック画像データは、観察用ソフトウエアであるビューアによって表示する。例えば観測者がマウス等のポインティングデバイスにより指定した層の画像データを表示し、さらに、その層の画像データの所望のX,Y位置を中心に表示したり、カーソルを移動したりすることができる。これにより、観察者が検体101aの三次元構造の観察を好適に行うことを可能にする。
(ビューアの動作環境)
図7は、本発明の実施形態に係る画像観察装置の構成例を示している。ここでは、表示装置とポインティングデバイスを具備したコンピュータシステム上でビューアプログラムを実行させることで、画像観察装置が実現されている。
図7において、1はビューアが動作するコンピュータ、2は表示装置である。コンピュータ1は、CPU101、ROM102、RAM103、ハードディスクドライブ(HDD)104、LANインターフェース(LANI/F)105、表示制御部106、ビデオRAM107、キーボード108、マウス109を有している。図7の構成において、CPU101はHDD104に記憶されているビューアと言われる観察用ソフトウエア(プログラム)を読み込み実行する。ビューアプログラムはHDD104やROM102に記憶されていても良いし、LANI/F105を経由して不図示のサーバからダウンロードし実行されても良い。
ビューアが起動すると、CPU101は画像データを、LANI/F105を経由して不図示のサーバから取得し、RAM101に格納する。画像データはサーバからの取得に限定することなく、例えば、コンピュータ1のHDD104に記憶されていても良い。そして、後述する説明の様に、CPU101はRAM101に記憶されている画像データの一部(表示領域の画像データ)を、表示制御部106を経由してビデオRAM107に書き込むことによって所望の表示を行う。もちろん、図7において点線で示した様に、CPU101が直接ビデオRAM107に画像データを書き込めるように設計しても良い。一方、CPU101はキーボード108やマウス109から入力された指示を定期的に読み込む。そして、CPU101は、キーボード108の指示やマウス109の指示に従って、表示領域の画像データをビデオRAM107に書き込むことによって所望の表示を行う。また、マウス109による位置指定に対応して、カーソルのデータをビデオRAM107に書き込むことによって、ビューア上にカーソルを表示することができる。このカーソルの動きを見ることによりユーザ自身はマウス109をどちらの方向に操作しているのを認識できる。カーソルの表示については表示制御部106の専用ハードウエアにより行っても良い。なお、マウスの代わりに、タッチパネル、タッチパッド、トラックボール等の他のポインティングデバイスであっても同様に使用可能である。
(第1の実施形態)
次に本発明の第1の実施形態について説明する。本発明の第1の実施形態は、従来のポインティングデバイスで三次元画像データに対し三次元の位置指定を行うものである。
三次元画像データに対する三次元の位置指定とは、例えば、三次元画像空間内の所望の位置へカーソルを移動するカーソルの移動指示、ビューア上に表示する画像データを(ドラッグ等で)X,Y,Zの任意の方向へ移動する指示などである。以降の説明では、カーソルの移動指示を例にして説明するが、画像のドラッグ等の他の操作指示に対しても、同じ三次元位置指定方法を適用できる。また、本実施形態ではポインティングデバイスとしてマウスを用いるが、タッチパネル、タッチパッド、トラックボール等の他のポインティングデバイスであっても本実施形態の三次元位置指定方法は適用可能である。
本実施形態における三次元画像データに対する三次元位置指定方法は、二次元画像に対する位置指定や他のアプリケーションウィンドウの動作に対するカーソル移動などの、通常の二次元位置指定方法とは異なる。そのため、三次元位置指定方法と通常の二次元位置指定方法とを、観測者が必要に応じて適宜切り換えられると好適である。例えば、キーボード108のファンクションキー等でモード切り替えを行い、観察者によりモードの設定ができるようにすると好適である。以降、三次元画像データに対する三次元位置指定方法のモードが設定された状態でのマウスの動作の説明をする。
図1は本発明の第1の実施形態を実現するビューアのマウスの動作を実現するフローチャートである。図1のフローチャートに従って動作の詳細を説明する。
初めに、CPU101は時刻t0とt1のマウス109の座標を求める(ステップST100)。次に、CPU101は時刻t0とt1のマウス109の座標から、移動方向、移動速さを求める(ステップST101)。そして、CPU101はマウスの移動方向からカーソル移動方向を算出する(ステップST102)。具体的な求め方については後述する。そして、CPU101は算出されたカーソルの移動方向に従ってX,Y方向のカーソルの移動、又は、Z方向のカーソルの移動を行う(ステップST103)。XY方向のカーソルの移動とは、表示されているレイヤー画像データの面内でカーソルの表示位置を変えるというものである。X方向が画像の水平方向、Y方向が画像の垂直方向である。一方、Z方向のカーソルの移動とは、表示するレイヤー画像データを変更するというものである。XY方向のカーソルの移動量はマウスの移動速さに比例して決めると好適である。Z方向についてはマウスの移動速さに比例した枚数又は速さでレイヤー画像データの切り換えを行うと好適である。
次に、ステップST101で説明した時刻t0とt1のマウス109の座標から、マウスの移動方向、マウスの移動速さを求める具体的な方法について、図2を用いて説明する。図2はマウスの移動方向、マウスの移動速さを求める具体的な方法を説明するための模式的な図である。図2においてC100は時刻t0におけるマウスの位置(X0,Y0)、C101は時刻t1におけるマウスの位置(X1,Y1)、V100は時刻t0から時刻t1のマウスの移動ベクトルを示す。ここで、マウスの位置はマウスが出力するクロックをカウントして決定される。このマウスの位置を示す座標は、例えば表示装置にカーソルを表示した際の座標に変換すると好適である。
ここでマウスの移動方向はこの移動ベクトル(V100)の方向、マウスの移動速さは、この移動ベクトル(V100)の長さを時間(t1−t0)で割った値である。時刻t0,t1は、例えばタイマー割り込み等の時刻であり、CPU101はマウス109の移動状態を確認し、対応するマウスの位置を算出する。時刻t0,t1は、観察者の操作する速さにより適切に選ぶと良い。時刻t0,t1の間隔は、一般的に数mSecから100mSec程度の時間が好適である。
マウスの移動方向(図2中の角度θで表す)は、
Figure 2013214275

と求めることができる。マウスの移動速さVは、
Figure 2013214275

と求めることができる。
次に、ステップST102でカーソルの移動方向を求める具体的な方法を示す。すなわち、カーソルの移動方向は、以下の様に求めると好適である。
式1)で求めたマウスの移動方向θの範囲は0°〜360°であるので、図3に示した様に、マウスの移動方向θからカーソルの移動方向を求める。図3はマウスの移動方向θに対してカーソルの移動方向を決定するための領域を示した図であり、横軸はマウスの移動方向のX方向、縦軸はマウスの移動方向のY方向、X軸の正方向となす角がマウスの移動方向θを示す。図3において点線は、マウスの移動方向θに対してカーソルの移動方向を決定する領域を分ける境界線であり、a〜fの記号で示した領域は、決定したカーソルの移動方向を示す領域である。また、境界線の角度は、それぞれθ1〜θ6でありユーザの違和感が生じない様にあらかじめ決定する。例えば、θ1は30°、θ2は60°、θ3は135°、θ4は210°、θ5は240°、θ6は315°に設定される。
マウスの移動方向が315°から30°の間すなわち領域aであればカーソルの移動方向は「+X方向」(すなわち0°方向)に決定する。また、マウスの移動方向θが30°から60°の間すなわち領域bであればカーソルの移動方向は「−Z方向」と決定する。同様に、マウスの移動方向θが60°から135°の間すなわち領域cであればカーソルの移動方向は「+Y方向」(すなわち90°方向)に決定する。マウスの移動方向θが135°から210°の間すなわち領域dであればカーソルの移動方向は「−X方向」(すなわち180°方向)に決定する。マウスの移動方向θが210°から240°の間すなわち領域eであればカーソルの移動方向は「+Z方向」と決定する。マウスの移動方向θが240°から315°の間すなわち領域fであればカーソルの移動方向は「−Y方向」(すなわち270°方向)に決定する。
つまり、マウスを概ねX方向に移動した場合は、X方向の位置を指定したことになり、マウスを概ねY方向に移動した場合は、Y方向の位置を指定したことになり、マウスを斜め方向に移動した場合は、Z方向の位置を指定したことになる。なお、本実施形態では、XYの二次元座標における第1象限の方向と第3象限の方向への移動を斜め方向の移動(Z方向の移動)と認識するようにしている。これにより、X軸とY軸に約45°で交わる線を仮想的なZ軸と観念することができる。このようにカーソルの移動方向を決定することによって観察者が奥行き方向(Z方向)にカーソルの位置を指定する際、感覚と一致したZ方向の位置指定を行うことができる。
以上説明したマウスの移動方向θからカーソルの移動方向を判定する方法を数式で示せば、以下の様に表すことができる。
すなわち、マウスの移動方向をθとすれば、
θ6≦θまたは、θ≦θ1 ・・・式3)
の条件では、カーソルの移動方向を「+X方向」と判定し、
θ3≦θ≦θ4 ・・・式4)
の条件では、カーソルの移動方向を「−X方向」と判定する。
θ2≦θ<θ3 ・・・式5)
の条件では、カーソルの移動方向を「+Y方向」と判定し、
θ5≦θ<θ6 ・・・式6)
の条件では、カーソルの移動方向を「−Y方向」と判定する。
θ4<θ<θ5 ・・・式7)
の条件では、カーソルの移動方向を「+Z方向」と判定し、
θ1<θ<θ2 ・・・式8)
の条件では、カーソルの移動方向を「−Z方向」と判定する。
以上の様に、カーソルの移動方向を決定することができる。このような判断を含む計算は、もちろんCPU101により所望のプログラムを実行することにより容易に実現できる。
以上説明した様に、本発明のカーソルの指示やドラッグ操作における表示画像の移動は、その移動方向がXYZ軸と平行な方向に限定される。すなわち、XY平面上で斜め方向の移動の操作はできない。Zスタック画像データを、ビューアを用いて観察する場合、このような移動方向の限定は好適である。なぜならば、病理診断において行われる検体の観察においては、観察者(病理医)は観察する検体の部分領域を一部重なり合う部分を設け移動しながら観察する。このような観察を行うことによって、全ての領域を見落とすことなく検体全体を観察できる。このような観察は具体的には、X位置を固定し、Y方向に検体の画像を移動しながら表示し観察する。そしてY方向全ての観察が終了すると、表示領域が一部重複するようにX方向のみ移動する。次に移動したX位置でY方向逆向きに画像を移動しながら表示し観察する。それを繰り返し検体全体の画像を観察する。また関心領域においては、マウス等を斜めに動かすことによってZ方向(ピント位置)のみの調整が可能である。このように、病理診断における検体の画像を移動し観察する場合に、移動方向がXYZ軸と平行な方向に限定される本発明の三次元位置指定方法は好適な方法である。
以上述べた三次元位置指定方法によれば、XYの二次元の移動操作が可能な一般的なポインティングデバイスを用いて、XYZの三次元位置を指定することが可能になる。また、Z方向の位置指定を、ポインティングデバイスを斜め方向に移動させることで行うことができるので、操作が簡単であると共に、ポインティングデバイスの操作とカーソルや表示画像の動きが観察者の感性に合致する。したがって、観察者はポインティングデバイスの操作に違和感を持つことなく、観察に集中することができる。なお、本実施形態では、ポインティングデバイスにより移動させる移動対象としてカーソルを例示したが、表示画像を移動対象とするドラッグ操作等においても、同じ方法を適用することができる。
(第2の実施形態)
次に本発明の第2の実施形態について説明する。第1の実施形態で述べたように、ビューアは、三次元位置指定方法のモードと通常の位置指定方法のモードを有している。第2の実施形態では、ビューアがいずれの位置指定方法のモードで動作しているのかを明示するための表示を行うものである。
図4(a)、図4(b)は、第2の実施形態における位置指定方法のモード表示の一例を示す図である。図4(a)は表示している検体の画像上に、位置指定方法のモードを明示するガイド画像をオーバラップして表示している例を示す。図4(b)はガイド画像の一例である。図4(a)において、200は画像が表示されるビューアの表示ウィンドウ、201は画像中の検体、C100はカーソル、Z100は三次元位置指定方法のモードである時に表示されるガイド画像である。本実施形態のガイド画像Z100は、ポインテ
ィングデバイスの操作方向(XY方向の移動か斜め方向の移動か)に対するビューアの動作(カーソル位置又は表示画像の平行移動)か表示レイヤーの切り換えか)を説明する操作ガイドも兼ねている。
ガイド画像Z100は、画像データとしてROM102やハードディスクドライブ104に記憶されている。CPU101がそのガイド画像のデータを必要に応じて読み出し、表示制御部106を通しビデオRAM107に書き込むことによって、ガイド画像Z100が表示される。
ガイド画像Z100を表示する際、表示ウィンドウ200に表示されている検体の画像にオーバラップして半透明で表示すると好適である。このような処理は表示制御部106の演算機能により実現すると好ましい。もちろん、検体の画像データと、ガイド画像Z100の画像データをCPU101が論理演算し、演算結果を新たにビデオRAM107に書き込むことにより実現することも可能である。
ガイド画像Z100のオーバラップ表示は、第1の実施形態で述べたような三次元位置指定方法のモードが指定された時に行う。通常の位置指定方法のモードの場合はガイド画像Z100を表示しない。つまり、本実施形態では、ガイド画像Z100が表示されているかどうかでモードを判別する。もちろん、通常の位置指定方法のモードであることを示す別のガイド画像を用意し、モードによって表示するガイド画像の種類を変えるという方法でもよい。ガイド画像Z100の表示を行う位置は現在のカーソルの位置近傍であると良い。他の例としては表示装置の表示画面又は表示ウィンドウ200の中央や右下等の固定された場所が好適である。
位置指定方法のモードを明示する他の方法として、カーソル自体の形状をモード毎に変化させる方法も好適である。図5(a)、図5(b)にその一例を示す。図5(a)は通常の位置指定方法のモードの時に表示されるカーソルの形状(C100)を示す。図5(b)は三次元位置指定方法のモードの時に表示されるカーソルの形状(C102)の一例である。カーソルの形状(C102)を立体的にすることで、三次元位置を指定可能であることが直感的に理解できるようになっている。このように、観察者が注視するカーソルの形状を変化させることにより、図4(a)で示したガイド画像を表示する方法と同様に、観測者が現在のモードを即座に判別することができる。
また、三次元位置指定モードの場合、現在のカーソルの移動方向やスクロール方向が観察者にわかる様に、例えば図4(b)のガイド画像の対応する矢印の色、輝度、形状などが変わる様にして表示し、カーソルの移動方向やスクロール方向が容易に判断できる様にすると好適である。このとき、色、輝度、形状などの属性のうちいずれか1つを変えるだけでもよいし、複数の属性を変えてもよい。また図5(b)の様な立体的なカーソル形状を表示する場合は、カーソルの移動方向に合わせてカーソル自体の向きや形状を変えると、カーソルの移動方向が容易に判断でき、より好適である。例えば、XY軸方向にカーソルを移動する時はカーソル自体の向きを表示画面のXY軸方向に合わせればよい。Z方向にカーソルを移動する時は、例えば奥方法は右斜め上方向に、手前方向は左斜め下方向に向けてカーソルを表示画面に表示すれば良い。このときカーソルの色や輝度を変えてもよい。
上記のように三次元位置指定モードと通常モードのいずれのモードで動作しているのかを示すガイド画像をビューアに表示するようにしたことで、観察者が現在のモードを知ることができる。また、観察者が操作している現在の移動方向を容易に確認できる。その結果、観察者の操作の間違いを予防でき、ユーザビリティを向上できる。モードを示すガイド画像は、どのようなものであってもよい。例えば、モードに応じてカーソルの色を変え
てもよい。或いは、モードに応じてビューアの構成部品(例えば、ビューアのアプリケーションウィンドウや表示ウィンドウ)の色や形状を変えてもよい。
(第3の実施形態)
次に本発明の第3の実施形態について説明する。本発明の第3の実施形態は、第1または第2の実施形態で説明した三次元位置指定方法と通常の位置指定方法とを自動に切り換えることを可能にした実施形態である。前述した実施形態同様、ポインティングデバイスとしてマウスを用いた実施形態について以下説明する。もちろん、他のポインティングデバイスを用いても同様に実施可能である。
図6は本発明の第3の実施形態を実現するビューアのマウスの動作を実現するフローチャートである。図6のフローチャートに従って動作の詳細を説明する。
CPU101がマウス109の移動を検知すると図6のフローチャートに従って以降の動作を行う。なお、図1のフローチャートと同じ番号を付したステップ(ST100,ST101,ST102,ST103)の処理は、第1の実施形態で説明したものと同様である。CPU101は、時刻t0とt1のマウス109の座標を求め(ステップST100)、時刻t0とt1のマウス109の座標から、移動方向、移動速さを求める(ステップST101)。次に、CPU101は、時刻t0におけるカーソルの表示位置に表示されているものが検体の三次元画像であるか否か、つまりカーソルが検体の三次元画像の上に存在するか否かを判断する(ステップST120)。
カーソルが三次元画像の上にある場合には、第1の実施形態で説明した様に、CPU101はマウスの移動方向からカーソル移動方向を算出する(ステップST102)。そして、算出されたカーソルの移動方向に従ってX,Y方向のカーソルの移動又はZ方向の表示レイヤー切り換えが行われる(ステップST103)。これらの処理の詳細は第1の実施形態で説明したとおりである。
一方、ステップST120で、カーソルが三次元画像の上に無いと判断されると、ステップST121に進む。例えば、カーソルが表示ウィンドウの外に存在する場合や、表示ウィンドウに表示されている画像が二次元画像である場合には、ステップST121に進む。ST121では、通常の位置指定方法の処理、すなわち、マウスの操作どおりにカーソルを移動させる。
このように、カーソルが存在する位置が検体の三次元画像を表示している表示位置であるかを判断し、マウスの位置指定方法を切り換えることによって、観察者がモードを切り換える手間を必要とせず好適なマウスによる位置指定方法を選択できる。その結果、更に好適な三次元位置指定を行うことが可能となる。なお、ステップST120の判断処理は、カーソルの表示位置が検体の画像の表示領域の内にあるか否かという判断、或いは、ビューアの表示ウィンドウ内にカーソルがあるか否かという判断に置き換えてもよい。
本発明の第3の実施形態によれば、カーソルの位置に応じてモードの切り替えが自動で行われる。このとき、第2の実施形態で述べたように、モードの切り替わりに応じて、ガイド画像の表示も自動的に切り替えるとよい。これにより、観察者がモードの切り替わりを認識できるので、誤操作を防止し、ユーザビリティのさらなる向上を図ることができる。
本発明は、バーチャルマイクロスコープと言われるディジタル顕微鏡システムに好適に適用可能である。
1:コンピュータ、2:表示装置、101:CPU、109:マウス

Claims (13)

  1. XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、
    ポインティングデバイスのX方向の移動によりX方向の位置を指定し、
    ポインティングデバイスのY方向の移動によりY方向の位置を指定し、
    ポインティングデバイスの斜め方向の移動によりZ方向の位置を指定する
    ことを特徴とする三次元位置指定方法。
  2. 三次元画像データからある奥行き位置の画像を取得し表示するビューアにおいて、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、
    ポインティングデバイスのX方向の移動により、表示画像に対してX方向の位置を指定し、
    ポインティングデバイスのY方向の移動により、表示画像に対してY方向の位置を指定し、
    ポインティングデバイスの斜め方向の移動により、表示画像の奥行き位置を指定する
    ことを特徴とする三次元位置指定方法。
  3. 前記斜め方向の移動とは、XYの二次元座標における第1象限の方向及び第3象限の方向への移動である
    ことを特徴とする請求項1又は2に記載の三次元位置指定方法。
  4. XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、
    ポインティングデバイスの移動操作が、予め決められた、X方向の移動、Y方向の移動、斜め方向の移動のうちのいずれであるかをコンピュータが判定するステップと、
    ポインティングデバイスの移動操作がX方向の移動である場合にコンピュータが移動対象をX方向に移動し、ポインティングデバイスの移動操作がY方向の移動である場合にコンピュータが移動対象をY方向に移動し、ポインティングデバイスの移動操作が斜め方向の移動である場合にコンピュータが移動対象をZ方向に移動するステップと、
    を含むことを特徴とする三次元位置指定方法。
  5. 三次元画像データからある奥行き位置の画像を取得し表示するビューアにおいて、XYの二次元の移動操作が可能なポインティングデバイスにより、XYZの三次元位置を指定する方法であって、
    ポインティングデバイスの移動操作が、予め決められた、X方向の移動、Y方向の移動、斜め方向の移動のうちのいずれであるかをコンピュータが判定するステップと、
    ポインティングデバイスの移動操作がX方向の移動である場合にコンピュータが表示画像又はカーソルをX方向に移動し、ポインティングデバイスの移動操作がY方向の移動である場合にコンピュータが表示画像又はカーソルをY方向に移動し、ポインティングデバイスの移動操作が斜め方向の移動である場合にコンピュータが表示画像の奥行き位置を変更するステップと、
    を含むことを特徴とする三次元位置指定方法。
  6. 前記斜め方向の移動とは、XYの二次元座標における第1象限の方向及び第3象限の方向への移動である
    ことを特徴とする請求項5に記載の三次元位置指定方法。
  7. 前記ビューアが、前記ポインティングデバイスによりXYZの三次元位置を指定可能な
    モードと、前記ポインティングデバイスによりXYの二次元位置を指定可能なモードとを有しており、
    前記三次元位置指定方法は、前記ビューアがいずれのモードで動作しているのかを示すガイド画像をコンピュータが前記ビューアに表示するステップをさらに含む
    ことを特徴とする請求項5又は6に記載の三次元位置指定方法。
  8. 前記ガイド画像は、ポインティングデバイスの操作方向に対する前記ビューアの動作を説明する操作ガイドを兼ねている
    ことを特徴とする請求項7に記載の三次元位置指定方法。
  9. 前記ガイド画像は、モード毎に形状又は色が異なる、カーソルの画像若しくはビューアの構成部品の画像である
    ことを特徴とする請求項7に記載の三次元位置指定方法。
  10. ポインティングデバイスの移動操作がX方向の移動、Y方向の移動、斜め方向の移動のうちのいずれであるかに応じて、コンピュータが前記ガイド画像の色、輝度、形状、向きのうち少なくとも一つを変化させる
    ことを特徴とする請求項7または請求項9に記載の三次元位置指定方法。
  11. 前記ポインティングデバイスによりXYZの三次元位置を指定可能なモードと、前記ポインティングデバイスによりXYの二次元位置を指定可能なモードの切り替えを、コンピュータがユーザに指定させるステップをさらに含む
    ことを特徴とする請求項7〜10のうちいずれか1項に記載の三次元位置指定方法。
  12. 前記ポインティングデバイスによりXYZの三次元位置を指定可能なモードと、前記ポインティングデバイスによりXYの二次元位置を指定可能なモードの切り替えを、カーソルの位置に応じてコンピュータが自動で行うステップをさらに含む
    ことを特徴とする請求項7〜10のうちいずれか1項に記載の三次元位置指定方法。
  13. 請求項4〜12のうちいずれか1項に記載の三次元位置指定方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
JP2012193478A 2012-03-08 2012-09-03 三次元位置指定方法 Pending JP2013214275A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012193478A JP2013214275A (ja) 2012-03-08 2012-09-03 三次元位置指定方法
US13/767,277 US20130234937A1 (en) 2012-03-08 2013-02-14 Three-dimensional position specification method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012051900 2012-03-08
JP2012051900 2012-03-08
JP2012193478A JP2013214275A (ja) 2012-03-08 2012-09-03 三次元位置指定方法

Publications (1)

Publication Number Publication Date
JP2013214275A true JP2013214275A (ja) 2013-10-17

Family

ID=49113640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012193478A Pending JP2013214275A (ja) 2012-03-08 2012-09-03 三次元位置指定方法

Country Status (2)

Country Link
US (1) US20130234937A1 (ja)
JP (1) JP2013214275A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021196805A (ja) * 2020-06-12 2021-12-27 3D Nest株式会社 画像表示方法、プログラム及びデータ生成方法
JP2022171178A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 表示装置及びその制御方法、並びにプログラム及びその記録媒体

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160224132A1 (en) * 2013-09-13 2016-08-04 Steinberg Media Technologies Gmbh Method for selective actuation by recognition of the preferential direction
KR102194262B1 (ko) * 2013-12-02 2020-12-23 삼성전자주식회사 포인팅 정보를 표시하는 방법 및 이를 위한 디바이스
CN107003334B (zh) * 2014-11-21 2019-10-01 株式会社岛津制作所 扫描型探针显微镜用数据显示处理装置以及处理方法
US11102225B2 (en) 2017-04-17 2021-08-24 Splunk Inc. Detecting fraud by correlating user behavior biometrics with other data sources
US11372956B2 (en) 2017-04-17 2022-06-28 Splunk Inc. Multiple input neural networks for detecting fraud
US20180300572A1 (en) * 2017-04-17 2018-10-18 Splunk Inc. Fraud detection based on user behavior biometrics
WO2023281706A1 (ja) * 2021-07-08 2023-01-12 日本電信電話株式会社 入力システム、入力方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835528A (en) * 1985-12-30 1989-05-30 Texas Instruments Incorporated Cursor control system
JPH0668758B2 (ja) * 1986-01-07 1994-08-31 株式会社日立製作所 カーソル制御方法及び3次元図形表示装置
US5714977A (en) * 1988-02-24 1998-02-03 Quantel Limited Video processing system for movement simulation
US5264836A (en) * 1991-01-15 1993-11-23 Apple Computer, Inc. Three dimensional cursor
US5729673A (en) * 1995-04-07 1998-03-17 Avid Technology, Inc. Direct manipulation of two-dimensional moving picture streams in three-dimensional space
US5798761A (en) * 1996-01-26 1998-08-25 Silicon Graphics, Inc. Robust mapping of 2D cursor motion onto 3D lines and planes
US6822662B1 (en) * 1999-03-31 2004-11-23 International Business Machines Corporation User selected display of two-dimensional window in three dimensions on a computer screen
US7149596B2 (en) * 2004-01-13 2006-12-12 Sensable Technologies, Inc. Apparatus and methods for modifying a model of an object to enforce compliance with a manufacturing constraint
WO2008002630A2 (en) * 2006-06-26 2008-01-03 University Of Southern California Seamless image integration into 3d models
JP2008146587A (ja) * 2006-12-13 2008-06-26 Sony Corp 表示装置、表示プログラム、表示方法、画像提供装置、画像提供プログラム、画像提供方法及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021196805A (ja) * 2020-06-12 2021-12-27 3D Nest株式会社 画像表示方法、プログラム及びデータ生成方法
JP2022171178A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 表示装置及びその制御方法、並びにプログラム及びその記録媒体
JP7696750B2 (ja) 2021-04-30 2025-06-23 キヤノン株式会社 表示装置及びその制御方法、並びにプログラム及びその記録媒体

Also Published As

Publication number Publication date
US20130234937A1 (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP2013214275A (ja) 三次元位置指定方法
JP4533087B2 (ja) 画像処理方法、画像処理装置
US9342925B2 (en) Information processing apparatus, information processing method, and program
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
EP2814000B1 (en) Image processing apparatus, image processing method, and program
US10600169B2 (en) Image processing system and image processing method
JP6611501B2 (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
Hachet et al. Navidget for easy 3d camera positioning from 2d inputs
US8929628B2 (en) Measuring device and measuring method
US10185804B2 (en) Input apparatus and information processing system
JP2017117008A5 (ja)
JP6576042B2 (ja) 表示制御装置及びその方法、プログラム
JP2017191492A (ja) 情報処理装置、情報処理方法および映像生成システム
CN107977138A (zh) 一种显示方法及装置
Hachet et al. Navidget for 3d interaction: Camera positioning and further uses
TW201215922A (en) Touch screen interface for laser processing
US12461599B2 (en) Detection processing that detects a number of contacts between fingertips of a hand
CN115359229A (zh) 三维视图的控制方法、系统、设备、存储介质及云平台
JP5401675B1 (ja) 情報入力装置および情報入力方法
US20220206669A1 (en) Information processing apparatus, information processing method, and program
CN109799908B (zh) 一种基于眼动信号的图像缩放及拖拽方法
JP2012048656A (ja) 画像処理装置、画像処理方法
JPH11110588A (ja) 三次元画像表示装置
JP2024041582A (ja) 情報処理装置、システム、制御方法、およびコンピュータプログラム
JP2018081430A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム