[go: up one dir, main page]

JP2013168144A - イメージ表示方法及びその装置 - Google Patents

イメージ表示方法及びその装置 Download PDF

Info

Publication number
JP2013168144A
JP2013168144A JP2013022595A JP2013022595A JP2013168144A JP 2013168144 A JP2013168144 A JP 2013168144A JP 2013022595 A JP2013022595 A JP 2013022595A JP 2013022595 A JP2013022595 A JP 2013022595A JP 2013168144 A JP2013168144 A JP 2013168144A
Authority
JP
Japan
Prior art keywords
image
image display
date
touch input
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013022595A
Other languages
English (en)
Inventor
Kyung-Dong Kim
キュン ドン キム,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Medison Co Ltd
Original Assignee
Samsung Medison Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120057465A external-priority patent/KR20130094674A/ko
Application filed by Samsung Medison Co Ltd filed Critical Samsung Medison Co Ltd
Publication of JP2013168144A publication Critical patent/JP2013168144A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】イメージ表示方法及びその装置を提供する。
【解決手段】タッチスクリーン上にイメージを表示する方法において、時間情報がマッチングされた第1イメージを表示し、前記第1イメージが表示されている領域において所定の方向にタッチ入力を受信し、前記タッチ入力の前記方向に基づいて、前記第1イメージにマッチングされた前記時間情報を変更し、その変更された時間情報にマッチングする第2イメージを表示するイメージ表示方法である。
【選択図】図1

Description

本発明は、タッチスクリーンを含むモバイルデバイスにおいて、保存されているイメージを表示するための方法及びその装置に関する。
モバイルデバイスに搭載されているタッチスクリーンは、ユーザからの入力を受信する手段、及びユーザにデータを出力する手段のいずれにも活用されている。タッチスクリーンが入出力手段として活用されることによって、モバイルデバイスの空間が効率的に活用される。さらに、タッチスクリーンを用いて、直観的に簡単な動作を介して、ユーザから入力を受信することができる。また、特別な事前知識がなくても所望するメニューを正確に選択することができるため、ユーザは、手軽にモバイルデバイスを使うことができる。
以上のような長所を有するため、タッチスクリーンは、携帯電話、PDA(personal digital assistants)、ラップトップ・コンピュータ(laptop computer)、タブレット・コンピュータ(tablet computer)、車用ナビゲーション(navigation)及びPMP(portable media player)のような多くのモバイルデバイスで活用されている。
タッチスクリーンを含むモバイルデバイスは、入力手段の大きさが限定されている。従って、モバイルデバイスのユーザが多数のイメージを、日付別に検索したり、あるいは表示しようとするイメージの範囲設定を変更するなどの具体的な動作を入力するためには、数回の動作を反復しなければならない。
デスクトップ・コンピュータ(desktop computer)のように、キーボードまたはマウスなどの入力手段を本体から分離してモバイルデバイスに連結して、具体的な動作を入力することも可能であるが、かような方法は、直観性に欠け、ユーザが予め学習しておくことを要求する。
前記の技術的課題を解決するためのイメージ表示方法は、時間情報がマッチング(整合)された第1イメージを表示する段階、前記第1イメージが表示されている領域において所定の方向にタッチ入力を受信する段階、前記タッチ入力の前記方向に基づいて、前記第1イメージにマッチングされた前記時間情報を変更する段階、その変更された時間情報にマッチングする第2イメージを表示する段階を含む。
前記の技術的課題を解決するための一実施形態によれば、時間情報は、イメージが生成された日付及び時刻のうち少なくとも一つを含むことを特徴とする。
前記の技術的課題を解決するための一実施形態によれば、イメージ表示方法は、タッチ入力の方向を決定する段階をさらに含み、時間情報を変更する段階は、タッチ入力の方向が前記領域の第1方向に決定された場合、第1イメージが生成された日付を変更し、前記領域の第2方向に決定された場合、第1イメージが生成された時刻を変更する段階を含む。
前記の技術的課題を解決するための一実施形態によれば、第1方向は、前記領域の左方向または右方向であり、第2方向は、前記領域の上方向または下方向であることを特徴とする。
前記の技術的課題を解決するための一実施形態によれば、タッチ入力の方向は、タッチ入力の開始点の位置、終了点の位置、加速度の方向及び入力パターンのうち少なくとも一つに基づいて決定されることを特徴とする。
前記の技術的課題を解決するための一実施形態によれば、タッチ入力を受信する段階は、スワイプ(swipe)入力、ドラッグ・アンド・ドロップ(drag and drop)入力及びフリック(flick)入力のうち少なくとも一つを受信する段階を含む。
前記の技術的課題を解決するための一実施形態によれば、イメージ表示方法は、少なくとも1つのイメージを、生成された日付によって検索するための日付検索バーを表示する段階をさらに含み、日付検索バーは、少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージの個数を表示することを特徴とする。
前記の技術的課題を解決するための一実施形態によれば、イメージ表示方法は、少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージを、生成された時刻によって検索するための時刻検索バーを表示する段階をさらに含む。
前記の技術的課題を解決するための一実施形態によれば、イメージ表示方法は、日付検索バーが表示されている領域、及び時刻検索バーが表示されている領域のうち少なくとも一つに係わるタッチ入力に基づいて選択されたイメージを表示する段階をさらに含む。
前記の技術的課題を解決するための一実施形態によれば、日付検索バーを表示する段階は、日付検索バーが表示された領域に係わるタッチ入力に基づいて選択された日付を、カーサ(cursor)及び数字のうち少なくとも一つを用いて表示する段階を含む。
前記の技術的課題を解決するための一実施形態によれば、イメージ表示方法は、日付検索バーが表示された領域に係わるマルチタッチ(multi touch)入力に基づいて、日付検索区間を拡大または縮小して調節する段階をさらに含む。
前記の技術的課題を解決するための一実施形態によれば、イメージ表示方法は、超音波診断装置で遂行されることを特徴とする。
前記の技術的課題を解決するための装置は、時間情報がマッチングされた第1イメージを表示するディスプレイ部、第1イメージが表示された領域において、所定の方向にタッチ入力を受信する入力受信部、タッチ入力の方向に基づいて、第1イメージにマッチングされた時間情報を変更するイメージ決定部を含み、ディスプレイ部は、変更された時間情報にマッチングする第2イメージを表示することを特徴とする。
前記の技術的課題を解決するためのイメージ表示方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。
本発明は、タッチスクリーンを含むモバイルデバイスが、タッチスクリーンを用いて効率的にイメージを表示するための方法及びその装置を提供する。また本発明は、タッチスクリーン上での効率的な画面配置を介して、ユーザの単純な動作だけで所望するイメージを早く検索して表示する。さらに本発明によれば、タッチスクリーンの画面転換なしに、ユーザが手軽に直観的に所望するイメージを検索して表示することができる。
本発明の一実施形態に係わるイメージ表示装置の構成を図示したブロック図である。 本発明の一実施形態に係わるイメージ表示方法を説明するフローチャートである。 本発明の一実施形態に係わるイメージ表示方法を説明するフローチャートである。 本発明の一実施形態に係わり、複数個のイメージを、時間情報とマッチングさせる実施形態を示した図である。 本発明の一実施形態に係わり、タッチ(touch)入力を受信してイメージを表示する実施形態を示した図である。 本発明の一実施形態に係わり、日付検索バー及び時刻検索バーを表示する実施形態を示した図である。 本発明の一実施形態に係わり、マルチタッチ(multi touch)入力によって、日付検索バーを調節する実施形態を示した図である。 本発明の一実施形態に係わり、マルチタッチ(multi touch)入力によって、日付検索バーを調節する実施形態を示した図である。 本発明の一実施形態に係わり、マルチタッチ(multi touch)入力によって、日付検索バーを調節する実施形態を示した図である。
本発明で使用される用語は、本発明での機能を考慮しつつ、可能な限り、現在広く使われている一般的な用語を選択したが、これは、当分野の当業者の意図、または判例、あるいは新たな技術の出現などによって変わることがある。また、場合によっては、出願人が任意に選定した用語を使うこともあるが、その場合は、当該発明の説明部分で詳細にその意味を記載する。従って、本発明で使用される用語は、単純な用語の名称としてではなく、その用語が有する意味と本発明の全般にわたった内容とを基に定義されなければならない。
明細書全体において、ある部分がある構成要素を「含む」とするとき、それは、特別な記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいということを意味する。また、明細書に記載した「...部」及び「...モジュール」などの用語は、少なくとも1つの機能や動作を処理する単位を意味し、それは、ハードウェアまたはソフトウェアで具現されるか、あるいはハードウェアとソフトウェアとの結合によって具現されるものである。
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。
図1は、本発明の一実施形態に係わるイメージ表示装置100の構成を図示したブロック図である。一実施形態によるイメージ表示装置100は、入力受信部110、イメージ決定部120、ディスプレイ部130及び制御部140を含む。図1に図示された構成以外にも、イメージ表示装置100は、他の構成をさらに含んでもよい。
イメージ表示装置100は、イメージ表示装置100のタッチスクリーン上に、イメージを表示する。イメージ表示装置100は、例えば、携帯電話、PDA(personal digital assistants)、ラップトップ・コンピュータ(laptop computer)、タブレット・コンピュータ(tablet computer)、車用ナビゲーション(navigation)及びPMP(portable media player)のうちいずれか一つであってもよい。ただし、イメージ表示装置100は、前述の例示に限定されるものではなく、タッチスクリーンを含むいかなる種類の装置であってもよいということを、当該技術分野の当業者であるならば、容易に理解するであろう。
また、イメージ表示装置100は、他の装置と無線または有線で連結されてもよい。すなわち、イメージ表示装置100は、イメージを生成した他の装置から、無線または有線でイメージを受信することができる。
一実施形態によれば、イメージ表示装置100がイメージを直接生成することもできる。すなわち、イメージ表示装置100は、撮影部(図示せず)を介して対象を撮影し、イメージを直接生成することもできる。
イメージ表示装置100は、複数個のイメージを、時間情報にマッチングして保存することができる。すなわち、イメージ表示装置100は、複数個のイメージを、それぞれのイメージが生成された日付及び時刻にマッチングして保存することができる。また、イメージ表示装置100は、複数個のイメージを、外部装置から受信された日付及び時刻のイメージにマッチングして保存することもできる。
一実施形態によれば、イメージ表示装置100は、有線または無線で、複数個のイメージを受信して保存することができる。すなわち、イメージ表示装置100は、他の装置から有線/無線で受信されたイメージを保存することができる。その場合、イメージ表示装置100は、他の装置からイメージが撮影された日付及び時刻についての情報である時間情報を、メタデータ(metadata)の形態で、イメージと共に受信して保存する。
他の実施形態によれば、イメージ表示装置100は、イメージ表示装置100が直接生成したイメージを保存することもできる。イメージ表示装置100が、撮影部(図示せず)を用いてイメージを直接生成する場合、イメージ表示装置100は、イメージが撮影された日付及び時刻についての時間情報を、メタデータの形態で生成することができる。その場合、イメージ表示装置100は、イメージが撮影された日付及び時刻についてのメタデータをイメージにマッチングして保存する。
前述のイメージ表示装置100がイメージを保存する内容と係わり、イメージ表示装置100に含まれる保存部(図示せず)に、イメージを保存することができる。保存部(図示せず)は、イメージと共に、時間情報がマッチングされて保存される。かような時間情報には、イメージが生成された日付及び時刻のうち少なくとも一つが含まれている。
入力受信部110は、外部からイメージ表示装置100を制御する外部入力を受信する。受信される外部入力は、ユーザから受信されるタッチ入力であってもよい。入力受信部110は、ユーザが、身体の一部で入力受信部110をタッチする動作を介して、外部入力を受信することができる。また、入力受信部110は、スタイラスペン(stylus pen)のような入力ツールを介して、外部入力を受信することもできる。
一実施形態によれば、入力受信部110は、イメージ表示装置100のタッチスクリーンとレイヤ(layer)構造を形成することができる。すなわち、イメージ表示装置100のタッチスクリーンは、外部入力を受信する入力受信部110であると同時に、イメージを表示する出力手段である。このとき、入力受信部110は、タッチ入力の位置、面積及び圧力などを受信することができ、直接タッチ(real-touch)だけではなく、近接タッチ(proximity touch)も受信することができる。また、入力受信部110は、抵抗式タッチ(resistive touch)及び静電式タッチ(capacitive touch)のいずれも受信することができる。
一実施形態によれば、入力受信部110は、タッチスクリーン上で、イメージが表示されている領域で、タッチ(touch)入力を受信する。例えば、入力受信部110は、スワイプ(swipe)入力、ドラッグ・アンド・ドロップ(drag and drop)入力及びフリック(flick)入力のうち少なくとも一つを受信することができる。
一実施形態によれば、入力受信部110は、タッチスクリーン上で、日付検索バーが表示されている領域、または時刻検索バーが表示された領域に係わり、タッチ(touch)入力を受信する。また、入力受信部110は、タッチ入力だけではなく、二つ以上の位置を選択するマルチタッチ(multi−touch)入力を受信することもできる。すなわち、入力受信部110は、二つ以上の点を同時にタッチする入力を受信することもできる。
例えば、入力受信部110は、タッチスクリーン上に表示された日付検索バーにおいて、2つの点を選択して移動させるピンチ(pinch)入力またはアンピンチ(unpinch)入力を受信することができる。ピンチ入力及びアンピンチ入力は、タッチスクリーン上で、任意の2つの点を、それぞれ新たな2つの点に移動させる入力を意味する。また、ピンチ入力及びアンピンチ入力は、タッチスクリーン上で選択された任意の2つの点のうち、1つの点のみを新たな点に移動させることもできる。
他の実施形態によれば、入力受信部110は、タッチスクリーン上に表示された日付検索バーにおいて、タッチアンドドラッグ(touch and drag)入力を受信することもできる。タッチアンドドラッグ入力は、前述のタッチ入力と類似しているが、タッチスクリーン上で、任意の点一つを既定の時間以上タッチして開始点として選択するという点でタッチ入力と区別される。
さらに他の実施形態によれば、入力受信部110は、タッチスクリーンの代わりに、多種のセンサを用いて外部入力を受信することができる。すなわち、入力受信部110は、角速度を検出するジャイロスコープ(gyroscope)・センサなどを用いて、外部入力を受信することもできる。本実施形態において、入力受信部110は、ユーザがイメージ表示装置100を、左右、上下に傾ける動作を介して、外部入力を受信することもできる。
イメージ決定部120は、入力受信部110が受信したタッチ入力の方向に基づいて、表示するイメージを決定する。すなわち、イメージ決定部120は、タッチスクリーン上に表示されるイメージにマッチングする時間情報を決定する。また、イメージ決定部120は、タッチ入力に基づいて、表示されている第1イメージにマッチングされた時間情報を変更することもできる。
一実施形態によれば、イメージ決定部120は、表示されるイメージの時間情報を変更する時間情報変更モジュール121、及びタッチ入力の方向を決定する方向決定モジュール122を含んでいる。
時間情報変更モジュール121は、表示されるイメージの時間情報を変更する。すなわち、時間情報変更モジュール121は、タッチスクリーン上に表示されている第1イメージの時間情報を第2イメージにマッチングする時間情報に変更する。一実施形態によれば、時間情報変更モジュール121は、入力受信部110から受信したタッチ入力の方向を基に、時間情報を変更する。
方向決定モジュール122は、入力受信部110から受信したタッチ入力の方向を決定する。タッチ入力の方向は、第1方向または第2方向に決定される。第1方向は、イメージが表示される領域の「左」方向または「右」方向であり、第2方向は、イメージが表示される領域の「上」方向または「下」方向である。一実施形態によれば、方向決定モジュール122は、入力受信部110から受信したタッチ入力の開始点の位置、終了点の位置、加速度の方向及び入力パターンのうち少なくとも一つに基づいて、タッチ入力の方向を決定する。詳細な内容については、図5で説明する。
このように、時間情報変更モジュール121は、方向決定モジュール122が、タッチ入力の方向を第1方向に決定した場合、第1イメージの時間情報のうち、第1イメージが生成された日付を変更する。また、タッチ入力の方向が第2方向に決定された場合、時間情報変更モジュール121は、第1イメージの時間情報のうち、第1イメージが生成された時刻を変更する。
ディスプレイ部130は、時間情報がマッチングされたイメージを表示する。すなわち、ディスプレイ部130は、イメージ決定部120が、イメージにマッチングする時間情報を用いて決定したイメージをタッチスクリーン上に表示する。また、ディスプレイ部130は、タッチ入力及びマルチタッチ入力など、入力受信部110が受信する外部入力に基づいて決定された時間情報にマッチングするイメージを表示することもできる。
一実施形態によれば、ディスプレイ部130は、少なくとも1つのイメージを、生成された日付によって検索するための日付検索バー、及び少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージが生成された時刻によって検索するための時刻検索バーのうち少なくとも一つを表示する。本実施形態については、図6で詳細に説明する。
一実施形態によれば、ディスプレイ部130は、外部から受信されたタッチ入力に基づいて選択されたイメージを表示する。また、ディスプレイ部130は、入力受信部120が受信したマルチタッチ入力に基づいて、日付検索バーを調節して表示する。
他の実施形態によれば、ディスプレイ部130は、イメージに係わる付加情報をタッチスクリーンに表示することもできる。付加情報は、イメージに係わるユーザのメモ、イメージが撮影された場所、イメージが撮影された時間及び日付などを含む。タッチスクリーン上に表示されるイメージが医療用超音波映像であり、イメージ表示装置100が超音波診断装置である場合、ディスプレイ部130は、付加情報として、対象体の測定情報、診断情報及び患者情報のうち少なくとも一つを表示する。
制御部140は、イメージ表示装置100、入力受信部110、イメージ決定部120及びディスプレイ部130を全般的に制御する。例えば、制御部140は、イメージ決定部120が入力受信部110から受信した外部入力を基に、時間情報を変更したり、あるいは表示するイメージを選択するように制御する。または、制御部140は、イメージ決定部120で決定されたイメージを、ディスプレイ部130がタッチスクリーン上に表示するように制御する。
図2は、イメージを表示する方法の一実施形態を図示したフローチャートである。
段階210で、イメージ表示装置100は、第1イメージを表示する。すなわち、イメージ表示装置100は、タッチスクリーン上に、第1イメージを表示する。表示される第1イメージは、時間情報とマッチングされ、生成された日付及び時点のうち少なくとも一つについての情報がマッチングされる。
段階220で、イメージ表示装置100は、タッチ入力を受信する。受信されるタッチ入力は、タッチスクリーン上の少なくとも1つの位置を選択する入力である。また、タッチ入力は、タッチスクリーン上の2つの点を連結する入力であってもよいし、例えば、スワイプ入力、ドラッグ・アンド・ドロップ入力及びフリック入力を含んでもよい。段階220で、イメージ表示装置100は、マルチタッチ入力を受信することもできる。
段階230で、イメージ表示装置100は、タッチ入力の方向を決定する。イメージ表示装置100は、タッチスクリーンを介して受信されるタッチ入力のタッチスクリーン上の位置である開始点及び終了点の位置に基づいて、タッチ入力の方向を決定する。他の実施形態によれば、位置だけではなく、タッチ入力の加速度の方向または入力パターンに基づいて、タッチ入力の方向を決定してもよい。
すなわち、一実施形態によれば、イメージ表示装置100は、タッチスクリーンを介して入力されるタッチ入力の加速度方向を検出し、加速度方向をタッチ入力の方向に決定することもできる。または、イメージ表示装置100は、イメージが表示される領域の左右、上下の方向に係わる入力パターンをあらかじめ保存しておいた後、受信されるタッチ入力と比較し、タッチ入力の方向を決定することもできる。
以下、段階230で、タッチ入力の方向を決定する具体的な過程について説明する。
一実施形態によれば、イメージ表示装置100は、タッチ入力の方向を、左右、上下のうちいずれか一つに決定する。例えば、タッチ入力の開始点及び終了点を連結した直線が、イメージが表示される領域の横方向の水平線と形成する角度が0°以上45°未満であれば、イメージ表示装置100は、タッチ入力の方向を、左または右に決定する。反対に、タッチ入力が、イメージが表示される領域の横方向の水平線と形成する角度が、45°以上90°以下であるならば、イメージ表示装置100は、タッチ入力の方向を上下に決定する。
他の実施形態によれば、イメージ表示装置100は、タッチ入力の方向を対角線方向にも決定することができる。すなわち、タッチ入力が、イメージが表示される領域の横方向の水平線と形成する角度が、0°以上30°未満であれば、タッチ入力の方向を、左または右に、60°以上90°未満であれば、方向を上下に決定する。さらに、30°以上60°未満の角度について、方向決定モジュール122は、タッチ入力の方向を、イメージが表示される領域の、左側の上方向対角線、左側の下方向対角線、右側の上方向対角線及び右側の下方向対角線のうちいずれか一つに決定することもできる。
段階240で、イメージ表示装置100は、時間情報を変更する。すなわち、イメージ表示装置100は、段階230で決定されたタッチ入力の方向に基づいて、第1イメージの時間情報を変更する。以下で、イメージ表示装置100が時間情報を変更する詳細な過程について説明する。
イメージ表示装置100は、タッチ入力の方向を基に、表示するイメージにマッチングする時間情報を変更することができる。すなわち、イメージ表示装置100は、タッチ入力の方向が第1方向である場合、第1イメージが生成された日付を変更し、タッチ入力が第2方向である場合、第1イメージが生成された時刻を変更する。このとき、第1方向及び第2方向は、左右、上下のうちいずれか一つであり、第1方向及び第2方向は、互いに異なる方向である。本実施形態については、図5で追加的に説明する。
段階250で、イメージ表示装置100は、変更された時間情報にマッチングする第2イメージを表示する。すなわち、段階240で変更された時間情報を基に、イメージが生成された日付及び時刻のうち少なくとも一つにマッチングする新たなイメージが表示される。
図3は、タッチスクリーン上に、日付検索バー及び時刻検索バーを表示する方法の一実施形態について説明するフローチャートである。
段階310で、イメージ表示装置100は、タッチスクリーン上に、少なくとも1つのイメージを、生成された日付に基づいて検索するための日付検索バーを表示する。日付検索バーは、少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージの個数を表示する。
段階320で、イメージ表示装置100は、少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージを、生成された時刻によって検索するための時刻検索バーを表示する。時刻検索バーには、日付検索バーで選択された日付にマッチングするイメージが、時刻順序に従って表示される。
段階330で、イメージ表示装置100は、タッチ入力に基づいて選択されたイメージを表示する。すなわち、日付検索バーが表示された領域、及び時刻検索バーが表示された領域のうち少なくとも一つに係わるタッチ入力に基づいて選択されたイメージが、タッチスクリーン上に表示される。本実施形態については、図6で詳細に説明する。
以下では、複数個のイメージを保存して表示する実施形態について、図4及び図5を使用して説明する。
図4は、複数個のイメージと時間情報とをマッチングさせる実施形態を示した図である。図4に示されたテーブル400は、複数個のイメージの実際の位置または空間を意味するものではなく、複数個のイメージが時間情報とマッチングされる実施形態について説明するための仮想的な順序及び配列であるということを、当該技術分野の当業者であるならば、容易に分かるであろう。
図4に示されたテーブル400の四角形ボックス410,420,430,440は、それぞれイメージ表示装置に保存されているイメージを示す。図4のテーブル400で、横軸は、複数個のイメージが撮影された日付についての情報を、縦軸は、複数個のイメージが撮影された時刻についての情報を示す。
一実施形態によれば、イメージ表示装置は、2011年1月10日に撮影された最初の時刻順序のイメージである410を表示している。テーブル400に示されているように、2011年1月1日に撮影されたイメージは、3個、2011年1月5日に撮影されたイメージは、1個、2011年1月10日に撮影されたイメージは、4個であるなど、各日付別に図示されたボックスの個数が示されており、それぞれ当該日付に撮影されたイメージの個数が示されている。また、同一日付に撮影された複数個のイメージは、それぞれのイメージが撮影された時間情報を基に、時刻順序に従って、仮想のテーブル400に配列されている。
本実施形態において、イメージ表示装置がタッチ入力を受信し、受信されたタッチ入力の方向が「右」に決定されると、現在表示されているイメージ410で、次の日付である2011年1月20日のイメージである430が表示される。従って、イメージ表示装置は、現在の時間情報を変更し、次の日付である2011年1月20日及び当該日付の最初の順序の時間情報を選択する。次に、イメージ表示装置は、2011年1月20日の日付及び最初の順序の時刻に該当するイメージである430を表示する。
一方、タッチ入力の方向が「左」に決定された場合は、イメージ表示装置は、以前の日付である2011年1月5日及び当該日付の最初の順序の時間情報を決定し、この情報にマッチングするイメージである420を表示する。同様に、タッチ入力の方向が「下」に決定された場合、イメージ表示装置は、2011年1月10日の日付とマッチングする4個のイメージのうち、2番目の順序の時刻にマッチングするイメージである440を表示する。
逆に、タッチ入力の方向が「上」に決定された場合には、当該日付である2011年1月10日で、イメージ410より早い順序の時刻にマッチングするイメージは存在しないので、イメージ表示装置は、それ以前の日付である2011年1月5日にマッチングするイメージのうち、最後の順序の時刻にマッチングするイメージである420を表示する。
このようにして、イメージ表示装置100は、複数個のイメージを時間情報とそれぞれマッチングさせ、タッチ入力の方向に基づいて選択されたイメージを表示することができる。
図5は、本発明の一実施形態に係わり、タッチ入力を受信してタッチスクリーン500上にイメージを表示する実施形態を示した図である。以下、図5について、図4の内容と共に説明する。
図5に図示されたタッチスクリーン500には、イメージが表示される第1領域510、日付検索バーが表示される第2領域520、時刻検索バーが表示される第3領域530がそれぞれ図示されている。すなわち、イメージ表示装置は、第1領域510には、表示するイメージを、第2領域520には、日付検索バーを、第3領域530には、時刻検索バーをそれぞれ表示する。図5では、第1領域510に係わる実施形態を図示及び説明し、第2領域520及び第3領域530については、図6で詳細に説明する。
一実施形態によれば、イメージ表示装置100は、第1領域510に、図4のイメージ410を表示する。次に、イメージ表示装置100は、タッチスクリーン500の第1領域510を介して、タッチ入力を受信する。図5では、タッチ入力の方向が第1領域510の「左」である場合(511,512)、及び「上」である場合(513,514)を図示する。
まず、タッチ入力の方向が「左」である場合(511,512)について詳細に説明する。イメージ表示装置100は、第1領域510を介して受信されるタッチ入力の開始点511及び終了点512を連結した直線が、第1領域510の横方向の水平線と形成する角度を決定する。次に、前述のように、決定された角度が既定の角度以下である場合、タッチ入力の方向を、「左」または「右」に決定する。本実施形態では、タッチ入力の開始点511及び終了点512を連結した直線が、横方向の水平線と平行であり、開始点511の位置が終了点512の位置より右側であるので、イメージ表示装置100は、タッチ入力の方向を「左」に決定する。
次に、イメージ表示装置100は、現在表示しているイメージ410の日付、時刻及びタッチ入力の方向を基に、新たに表示するイメージの日付及び時刻を決定する。一実施形態によれば、イメージ表示装置100は、受信されたタッチ入力の方向が、「左」または「右」である場合、現在表示しているイメージの日付を変更し、新たな日付を決定する。イメージ表示装置100が、タッチ入力の方向を決定する過程において、前述の過程に限定されずに、他のさまざまなアルゴリズムを活用してもよいことは、当該技術分野の当業者であれば容易に分かるであろう。
例えば、図4に図示されたように、イメージ410の日付である2011年1月10日以前の日付は、2011年1月5日に該当するので、イメージ表示装置100は、2011年1月5日にマッチングする日付を決定する。次に、イメージ表示装置100は、2011年1月5日の日付にマッチングするイメージである420を表示する。
他の実施形態において、2011年1月5日の日付にマッチングするイメージが複数個である場合、イメージ表示装置は、2011年1月5日の日付にマッチングするイメージのうち、最も早い順序の時刻にマッチングするイメージを表示する。すなわち、現在表示されているイメージ410において、タッチ入力の方向が「右」に決定された場合、2011年1月20日にマッチングする2個のイメージのうち、最も早い順序の時刻にマッチングするイメージである430が表示される。
次に、タッチ入力の方向が「上」である場合について説明する。イメージ表示装置100は、タッチスクリーン500の第1領域510に受信されるタッチ入力の開始点513及び終了点514を基に、タッチ入力の方向を決定する。すなわち、本実施形態では、タッチ入力が第1領域510の横方向の水平線と形成する角度が、既定の角度以上である90°であり、開始点513の位置が終了点514より下側にある場合であるので、イメージ表示装置100は、タッチ入力の方向を「上」に決定する。
次に、イメージ表示装置100は、現在表示されているイメージの日付、時刻及びタッチ入力の方向を基に、新たに表示するイメージの時間情報を決定する。すなわち、図4と共に説明すれば、現在表示されているイメージ410の日付(2011年1月10日)、時刻(最初の順序)及びタッチ入力の方向(上)を基に、それ以前の順序の時刻にマッチングするイメージを選択する。図4に図示されたように、2011年1月10日付にマッチングするイメージのうち、現在のイメージ410が、最も早い順序の時刻にマッチングするイメージである。従って、イメージ表示装置100は、2011年1月10日付にマッチングするイメージではない、それ以前の日付である2011年1月5日にマッチングするイメージのうち、最も遅い順序の時刻にマッチングするイメージである420を表示する。
さらに他の実施形態によれば、現在表示されているイメージが440である場合、イメージ表示装置100は、タッチ入力の方向が「上」に決定されることによって、同じ日付である2011年1月10日にマッチングするイメージのうち、それ以前の順序の時刻にマッチングするイメージである410を、第1領域510に表示する。
このように、イメージ表示装置100は、複数個のイメージを日付と時刻とにマッチングして保存し、タッチ入力に基づいて、イメージを表示する。これによって、ユーザは、タッチスクリーンを介して、簡単な動作で、希望する日付及び時刻に該当するイメージを選択することができる。
さらに他の実施形態によれば、イメージ表示装置100は、タッチ入力の位置以外にも、加速度の方向及び入力パターンなど、さまざまな方法を用いて、時間情報を変更することができる。例えば、イメージ表示装置100は、タッチ入力の加速度の方向を測定し、横方向の水平線と形成する角度を基準に、タッチ入力の方向を決定することができる。また、イメージ表示装置100は、受信されるタッチ入力の入力パターンを、保存された一つ以上のパターンと比較し、タッチ入力の方向を決定することもできる。
さらに他の実施形態によれば、イメージ表示装置100は、タッチスクリーン500の第4領域(図示せず)に、イメージに係わる付加情報を表示することができる。すなわち、イメージ表示装置100は、付加情報として、イメージに係わるユーザのメモ、イメージが撮影された場所、イメージが撮影された時刻及び日付などを表示することができる。
本実施形態において、イメージ表示装置100は超音波診断装置であり、表示されるイメージが超音波映像であってもよい。このとき、イメージ表示装置100は、付加情報として、対象体を測定した長さまたは大きさを示す測定情報、対象体に対するユーザの意見である診断情報及び対象体の氏名、年齢などの個人情報を含む患者情報のうち、少なくとも一つを表示することができる。
本実施形態によれば、ユーザは、簡便な動作を介してイメージを選択し、該当するイメージと係わる付加情報を表示することができ、イメージに係わるメモを作成して保存することもできる。
図6は、本発明の一実施形態に係わり、日付検索バー及び時刻検索バーを表示する実施形態を図示した図面である。
本実施形態において、イメージ表示装置100は、タッチスクリーン500の第2領域520に、日付検索バー525を、第3領域530に、時刻検索バー535をそれぞれ表示する。詳細に説明すれば、イメージ表示装置100は、少なくとも1つのイメージを、生成された日付によって検索するための日付検索バー525、及び少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージを、生成された時刻に従って検索するための時刻検索バー535を、それぞれ第2領域520及び第3領域530に表示する。
図6に図示された日付検索バー525には、2010年10月31日から2012年3月1日までの日付検索区間が図示されている。イメージ表示装置100は、保存された複数個のイメージの日付を基に、日付検索バー525に表示される日付検索区間を決定することができる。すなわち、2010年10月31日以前、あるいは2012年3月1日以後の日付検索区間に係わるイメージが、イメージ表示装置に保存されていれば、イメージ表示装置は、日付検索区間を2010年10月31日より以前に、あるいは2012年3月1日より以後に変更して示すことができる。
図6に図示された日付検索バー525について詳細に説明すれば、イメージ表示装置は、日付検索バー525の日付検索区間のうち、年度が変更される地点を別途に表示することができる。図6では、2010年度から2011年度に変わる地点を、527aの点線で表示し、2011年度から2012年度に変わる地点を、527bの点線で表示する実施形態を図示している。年度変更地点は、点線ではない他の異なる方法を介して表示してもよい。
一実施形態によれば、イメージ表示装置100は、少なくとも1つのイメージが生成された日付を、日付検索バー525に表示する。すなわち、イメージ表示装置100は、全体日付検索区間のうち、保存されたイメージの日付を、日付検索バー525に太く表示する。また、イメージ表示装置100は、少なくとも1つのイメージが生成された日付それぞれにマッチングするイメージの個数を表示する。
図6には、本実施形態によって、「4」、「3」、「10」と表示された数字と共に、太く表示された線526が図示されている。これは、当該日付に、それぞれ4個、3個、10個のイメージが保存されたことを意味する。これによって、ユーザは、日付検索バーに示された数字及び線526を参考にして、全体イメージの分布を容易に知ることができる。
また、イメージ表示装置100は、複数個の日付のうち、外部入力によって選択された日付を、数字及び/またはカーサ(cursor)528を用いて表示することができる。すなわち、日付検索バーが表示された領域に係わるタッチ入力が受信されると、イメージ表示装置100は、選択された日付を、他の日付と区別されるように表示する。これによって、ユーザは、全体日付検索区間のうち、現在タッチスクリーン上に表示されている日付が分布する位置を容易に知ることができる。
本発明の他の実施形態について説明すれば、イメージ表示装置100は、タッチスクリーンを介して受信されるマルチタッチ入力を介して、日付検索バーに表示される日付検索区間を調節することができる。詳細な実施形態については、図7Aないし図7Cで説明する。
図6で、タッチスクリーン500の第3領域530に表示された時刻検索バー535が図示されている。第2領域520に表示された日付検索バー525の日付検索区間のうち、タッチ入力によって選択された2011年2月3日付にマッチングする4個のイメージは、時刻検索バー535に、時刻順序に従って表示される。本実施形態によれば、4個のイメージの時刻は、それぞれ太線536(あるいはカーサ537)を介して示される。
一実施形態によれば、日付検索バー525を介して受信されるタッチ入力に基づいて選択された日付が変更されれば、当該日付にマッチングするイメージが、時刻検索バー535に変更されて表示される。すなわち、イメージ表示装置は、日付検索バー525で決定された日付にマッチングする少なくとも1つのイメージの時刻を、時刻検索バー535に表示する。
他の実施形態によれば、イメージ表示装置は、日付検索バー525で選択された日付検索区間に含まれるイメージの総個数を、時刻検索バー535に表示する。すなわち、図6に図示された実施形態によれば、時刻検索バー535に「4」(538)という数字が表示され、現在選択された日付(528)にマッチングする全体イメージ分布が容易に分かるように表示される。
図6に関連して、さらに他の実施形態について説明すれば、イメージ表示装置は、日付検索バー525及び時刻検索バー535に係わるタッチ入力に基づいて、決定された日付及び時刻にマッチングするイメージを表示する。すなわち、イメージ表示装置は、日付検索バー525及び時刻検索バー535に受信される外部入力を基に、イメージを選択して表示する。
本実施形態について、図6と共に詳細に説明すれば、イメージ表示装置は、日付検索バー525で、10個のイメージがマッチングされて保存された日付を意味する「10」の数字、または「10」の数字と連結された太線526に係わるタッチ入力を受信する。次に、イメージ表示装置は、当該日付にマッチングする10個のイメージのうち、最も早い順序の時刻にマッチングするイメージを、第1領域510に表示する。次に、イメージ表示装置が、第1領域510に、「下」方向のタッチ入力を3回受信した場合、イメージ表示装置は、10個のイメージのうち、現在表示されている最も早い順序の時刻にマッチングするイメージから、2番目、3番目、4番目に早い順序の時刻にマッチングするイメージを、順次にタッチスクリーン500上に表示する。
第1領域510の「左」方向または「右」方向のタッチ入力についても同様に、タッチ入力が、「左」方向に受信されると、イメージ表示装置は、10個のイメージがマッチングされて保存された日付のすぐ以前の日付である3個のイメージが保存されている日付のイメージを表示する。一実施形態によれば、3個のイメージのうち、最も早い順序の時刻にマッチングするイメージが表示される。
図5及び図6で説明したように、イメージ表示装置は、イメージ、日付検索バー525及び時刻検索バー535をタッチスクリーン500に表示することができる他、外部入力を受信して選択されたイメージを新たに表示することもできる。このようにユーザは、タッチ入力のような簡単な操作によって、日付及び時刻を変更し、新たなイメージを表示することができる。
図7A、図7B及び図7Cは、本発明の一実施形態に係わり、マルチタッチ入力を介して、日付検索区間を調節する実施形態をそれぞれ示した図である。
図7Aで、イメージ表示装置がタッチスクリーンに表示する日付検索バー710が図示されている。本実施形態では、日付検索バー710には、2011年1月1日から2011年12月31日までの日付検索区間が図示されている。
次に、イメージ表示装置は、マルチタッチ入力を受信し、日付検索区間を調節し、新たな日付検索区間を表示することができる。例えば、イメージ表示装置は、ピンチ(pinch)入力を基に、既存の日付検索区間を新たな日付検索区間に拡大して調節することができる。
詳細に説明すれば、711a及び712aからなる範囲は、マルチタッチ入力によって、それぞれ711b及び712bに拡張される。このとき、イメージ表示装置100は、マルチタッチ入力に基づいて、日付検索区間を2011年4月1日から2011年8月1日に新たに変更して表示する。言い替えれば、マルチタッチ入力を基に、日付検索バーが拡大されてタッチスクリーン上に表示される。この様子が図7Bに示されている。
他の実施形態によれば、イメージ表示装置は、マルチタッチ入力を介して決定された新たな日付検索区間にマッチングするイメージについて、新たな日付検索区間のイメージの時刻を、時刻検索バーに表示することもできる。
図7Bでは、図7Aとは異なり、メージ表示装置100は、日付検索バー720にマルチタッチ入力を受信して、その受信されたマルチタッチ入力によって、新たな日付検索区間を決定する。図7Bでは、アンピンチ(unpinch)入力を介して、日付検索区間を調節する実施形態が図示されている。
イメージ表示装置100は、マルチタッチ入力に基づいて、2011年4月1日から2011年8月1日までの日付検索区間を縮小して調節することもできる。すなわち、721a及び722aで表現される範囲が、マルチタッチ入力に基づいて、それぞれ721b及び722bに縮小される。イメージ表示装置100は、このようにマルチタッチ入力に基づいて、日付検索区間を2011年2月1日から2011年11月1日に新しく変更することができる。言い替えれば、マルチタッチ入力を基に、日付検索バーが縮小され、タッチスクリーン上に表示される。この様子が図7Cに図示されている。
また、イメージ表示装置100は、新たに決定されたマーカー721b,722bに基づいて、その日付検索区間にマッチングするイメージを決定する。次に、イメージ表示装置は、新たな日付検索区間にマッチングするイメージの時刻を、時刻検索バーに表示する。
図7C(日付検索バー730)では、イメージ表示装置がマルチタッチ入力を受信し、その受信された入力によって新たな日付検索区間を決定する実施形態が図示されている。すなわち、イメージ表示装置100は、受信されたマルチタッチ入力によって、現在の日付区間を変更する。詳細に説明すれば、731a及び732からなる範囲は、マルチタッチ入力によって、731b及び732に新たに変更される。すなわち、732をタッチする入力は維持したまま、731aを移動させるマルチタッチ入力が受信される。マルチタッチ入力によって、新たに決定された日付検索区間は、2011年2月1日から2011年7月1日に新たに変更される。図7A及び図7Bと同様に、イメージ表示装置は、新たな日付検索区間にマッチングするイメージを決定し、そのイメージの時刻を時刻検索バーに表示する。
一方、前述の方法は、コンピュータで実行されるプログラムで作成可能であり、コンピュータ判読可能媒体を利用し、前記プログラムを動作させる汎用デジタル・コンピュータで具現される。また、前述の方法で使用されたデータの構造は、コンピュータ判読可能媒体に多くの手段を介して記録される。本発明の多様な方法を遂行するための実行可能なコンピュータコードを含む保存デバイスについて説明するために使用されるプログラム保存デバイスは、搬送波(carrier waves)や信号のような一時的な対象を含むものに限らない。前記コンピュータ判読可能媒体は、マグネチック記録媒体(例えば、ROM(read only memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。
以上で説明したイメージ表示装置、イメージ表示方法、及びイメージ表示方法に係わるプログラムが記録されたコンピュータ判読可能媒体によれば、複数個のイメージを日付と時刻とによってタッチスクリーン上に簡便に表示することができる効果がある。
また、ユーザの立場では、日付検索バー及び時刻検索バーを用いて、さまざまな日付及び時刻にわたって保存された複数個のイメージを、簡単な動作だけで、検索及び観察することができる。モバイルデバイスの立場からは、限定されたタッチスクリーンでも、効率的にイメージを表示することができる。
本発明の実施形態と係わる技術分野で当業者であるならば、前記記載の本質的な特性から外れない範囲で変形された種々の形態が具現されるということを理解することができるであろう。従って、開示された方法は、限定的な観点ではなく、説明的観点から考慮されなければならない。本発明の範囲は、発明の詳細な説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異は、本発明の範囲に含まれるものであると解釈されなければならない。
本発明のイメージ表示方法及びその装置は、例えば、携帯電子機器における検索関連の技術分野に効果的に適用可能である。
100 イメージ表示装置
110 入力受信部
120 イメージ決定部
121 時間情報変更モジュール
122 方向決定モジュール
130 ディスプレイ部
140 制御部
400 テーブル
410,420,430,440 四角形ボックス
500 タッチスクリーン
510 第1領域
511,513 開始点
512,514 終了点
520 第2領域
525,710,720,730 日付検索バー
528,537 カーサ
530 第3領域
535 時刻検索バー
526,536 太線

Claims (25)

  1. タッチスクリーン上にイメージを表示する方法において、
    時間情報がマッチングされた第1イメージを表示する段階と、
    前記第1イメージが表示されている領域において、所定の方向にタッチ入力を受信する段階と、
    前記タッチ入力の前記方向に基づいて、前記第1イメージにマッチングされた前記時間情報を変更する段階と、
    前記変更された時間情報にマッチングする第2イメージを表示する段階と、を含むイメージ表示方法。
  2. 前記時間情報は、前記イメージが生成された日付及び時刻のうち、少なくとも一つを含むことを特徴とする請求項1に記載のイメージ表示方法。
  3. 前記イメージ表示方法は、前記タッチ入力の前記方向を決定する段階をさらに含み、
    前記時間情報を変更する段階は、前記タッチ入力の前記方向が前記領域の第1方向に決定された場合、前記第1イメージが生成された前記日付を変更し、前記領域の第2方向に決定された場合、前記第1イメージが生成された前記時刻を変更する段階を含むことを特徴とする請求項2に記載のイメージ表示方法。
  4. 前記第1方向は、前記領域の左方向または右方向であり、前記第2方向は、前記領域の上方向または下方向であることを特徴とする請求項3に記載のイメージ表示方法。
  5. 前記タッチ入力の前記方向は、前記タッチ入力の開始点の位置、終了点の位置、加速度の方向及び入力パターンのうち、少なくとも一つに基づいて決定されることを特徴とする請求項1ないし4のうちいずれか1項に記載のイメージ表示方法。
  6. 前記イメージ表示方法は、少なくとも1つのイメージを、生成された日付に基づいて検索するための日付検索バーを表示する段階をさらに含み、
    前記日付検索バーは、前記少なくとも1つのイメージが生成された前記日付それぞれにマッチングする前記イメージの個数を表示することを特徴とする請求項1ないし5のうちいずれか1項に記載のイメージ表示方法。
  7. 前記イメージ表示方法は、前記少なくとも1つのイメージが生成された前記日付それぞれにマッチングする前記イメージを、生成された時刻に基づいて検索するための時刻検索バーを表示する段階をさらに含むことを特徴とする請求項6に記載のイメージ表示方法。
  8. 前記イメージ表示方法は、前記日付検索バーが表示された領域、及び前記時刻検索バーが表示された領域のうち少なくとも一つに係わるタッチ入力に基づいて選択されたイメージを表示する段階をさらに含むことを特徴とする請求項7に記載のイメージ表示方法。
  9. 前記日付検索バーを表示する段階は、前記日付検索バーが表示された領域に係わるタッチ入力に基づいて選択された前記日付を、カーサ及び数字のうち少なくとも一つを用いて表示する段階を含むことを特徴とする請求項6ないし8のうちいずれか1項に記載のイメージ表示方法。
  10. 前記イメージ表示方法は、前記日付検索バーが表示されている領域においてマルチタッチ入力に基づいて、日付検索区間を拡大または縮小して調節する段階をさらに含むことを特徴とする請求項6ないし9のうちいずれか1項に記載のイメージ表示方法。
  11. 前記タッチ入力を受信する段階は、スワイプ入力、ドラッグ・アンド・ドロップ入力及びフリック入力のうち、少なくとも一つを受信する段階を含むことを特徴とする請求項1ないし10のうちいずれか1項に記載のイメージ表示方法。
  12. 前記イメージ表示方法は、超音波診断装置で行われることを特徴とする請求項1ないし11のうちいずれか1項に記載のイメージ表示方法。
  13. タッチスクリーン上にイメージを表示する装置において、
    時間情報がマッチングされた第1イメージを表示するディスプレイ部と、
    前記第1イメージが表示されている領域において、所定の方向にタッチ入力を受信する入力受信部と、
    前記タッチ入力の前記方向に基づいて、前記第1イメージにマッチングされた前記時間情報を変更するイメージ決定部と、を含み、
    前記ディスプレイ部は、前記変更された時間情報にマッチングする第2イメージを表示することを特徴とするイメージ表示装置。
  14. 前記時間情報は、前記イメージが生成された日付及び時刻のうち、少なくとも一つを含むことを特徴とする請求項13に記載のイメージ表示装置。
  15. 前記イメージ決定部は、前記タッチ入力の前記方向を決定し、前記タッチ入力の前記方向が前記領域の第1方向に決定された場合、前記第1イメージが生成された前記日付を変更し、前記領域の第2方向に決定された場合、前記第1イメージが生成された前記時刻を変更することを特徴とする請求項14に記載のイメージ表示装置。
  16. 前記第1方向は、前記領域の左方向または右方向であり、前記第2方向は、前記領域の上方向または下方向であることを特徴とする請求項15に記載のイメージ表示装置。
  17. 前記タッチ入力の前記第1イメージの方向は、前記タッチ入力の開始点の位置、終了点の位置、加速度の方向及び入力パターンのうち、少なくとも一つに基づいて決定されることを特徴とする請求項13ないし16のうちいずれか1項にに記載のイメージ表示装置。
  18. 前記ディスプレイ部は、少なくとも1つのイメージを、生成された日付に基づいて検索するための日付検索バーを表示し、
    前記日付検索バーは、前記少なくとも1つのイメージが生成された前記日付それぞれにマッチングする前記イメージの個数を表示することを特徴とする請求項13ないし17のうちいずれか1項に記載のイメージ表示装置。
  19. 前記ディスプレイ部は、前記少なくとも1つのイメージが生成された前記日付それぞれにマッチングする前記イメージを、生成された時刻に基づいて検索するための時刻検索バーを表示することを特徴とする請求項18に記載のイメージ表示装置。
  20. 前記ディスプレイ部は、前記日付検索バーが表示された領域、及び前記時刻検索バーが表示された領域のうち、少なくとも一つに係わるタッチ入力に基づいて選択されたイメージを表示することを特徴とする請求項19に記載のイメージ表示装置。
  21. 前記ディスプレイ部は、前記日付検索バーが表示された領域に係わるタッチ入力に基づいて選択された日付を、カーサ及び数字のうち少なくとも一つを用いて表示することを特徴とする請求項18ないし20のうちいずれか1項に記載のイメージ表示装置。
  22. 前記ディスプレイ部は、前記日付検索バーが表示されている領域においてマルチタッチ入力に基づいて、日付検索区間を拡大または縮小して調節することを特徴とする請求項18ないし21のうちいずれか1項に記載のイメージ表示装置。
  23. 前記入力受信部は、スワイプ入力、ドラッグ・アンド・ドロップ入力及びフリック入力のうち少なくとも一つを受信する請求項13ないし22のうちいずれか1項に記載のイメージ表示装置。
  24. 請求項13ないし23のうちいずれか1項に記載のイメージ表示装置は、超音波診断装置であることを特徴とするイメージ表示装置。
  25. 請求項1ないし12のうちいずれか1項に記載の方法を具現するためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
JP2013022595A 2012-02-16 2013-02-07 イメージ表示方法及びその装置 Pending JP2013168144A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261599740P 2012-02-16 2012-02-16
US61/599740 2012-02-16
KR10-2012-0057465 2012-05-30
KR1020120057465A KR20130094674A (ko) 2012-02-16 2012-05-30 이미지 표시 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2013168144A true JP2013168144A (ja) 2013-08-29

Family

ID=47603219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013022595A Pending JP2013168144A (ja) 2012-02-16 2013-02-07 イメージ表示方法及びその装置

Country Status (4)

Country Link
US (1) US9213479B2 (ja)
EP (1) EP2629189A3 (ja)
JP (1) JP2013168144A (ja)
CN (1) CN103257822A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140026088A1 (en) * 2012-07-17 2014-01-23 Sap Ag Data Interface Integrating Temporal and Geographic Information
KR102056193B1 (ko) * 2014-01-22 2019-12-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
DE102014207699B4 (de) * 2014-04-24 2023-10-19 Siemens Healthcare Gmbh Verfahren zur Bildüberwachung eines Eingriffs mit einer Magnetresonanzeinrichtung, Magnetresonanzeinrichtung und Computerprogramm
US9628966B2 (en) 2014-08-19 2017-04-18 Xiaomi Inc. Method and device for sending message
CN104238853B (zh) * 2014-08-19 2017-07-14 小米科技有限责任公司 消息发送方法及装置
US20160147420A1 (en) * 2014-11-20 2016-05-26 Microsoft Technology Licensing, Llc Aged data control with improved interface
KR102519424B1 (ko) * 2015-09-25 2023-04-10 삼성메디슨 주식회사 초음파 이미지 디스플레이 방법 및 이를 위한 장치

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4056915B2 (ja) 2003-03-25 2008-03-05 富士フイルム株式会社 画像表示方法及びプリント注文受付装置並びにプリント注文受付システム
US20050034084A1 (en) 2003-08-04 2005-02-10 Toshikazu Ohtsuki Mobile terminal device and image display method
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7643706B2 (en) 2005-01-07 2010-01-05 Apple Inc. Image management tool with calendar interface
JP4757527B2 (ja) 2005-04-25 2011-08-24 ソニー エリクソン モバイル コミュニケーションズ, エービー 表示制御装置、表示制御方法、携帯端末装置及び表示制御プログラム
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US20080259046A1 (en) * 2007-04-05 2008-10-23 Joseph Carsanaro Pressure sensitive touch pad with virtual programmable buttons for launching utility applications
KR101404738B1 (ko) 2007-05-18 2014-06-19 엘지전자 주식회사 타임라인 포토앨범 및 이를 이용한 포토앨범 표시장치 및방법
US20080295019A1 (en) 2007-05-21 2008-11-27 Microsoft Corporation Document with Sidebars
US8826123B2 (en) * 2007-05-25 2014-09-02 9224-5489 Quebec Inc. Timescale for presenting information
KR101391602B1 (ko) * 2007-05-29 2014-05-07 삼성전자주식회사 터치 스크린 기반의 사용자 인터페이스 인터렉션 방법 및 멀티 미디어 단말 기기
US7932896B2 (en) * 2007-06-13 2011-04-26 Apple Inc. Techniques for reducing jitter for taps
US20090267909A1 (en) * 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
JP4752897B2 (ja) * 2008-10-31 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
KR101496468B1 (ko) 2008-11-03 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 표시방법
CA2751480C (en) * 2009-02-23 2017-05-30 Research In Motion Limited Touch-sensitive display and method of controlling same
KR101411593B1 (ko) 2009-09-14 2014-06-25 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
US8957866B2 (en) 2010-03-24 2015-02-17 Microsoft Corporation Multi-axis navigation
KR101691829B1 (ko) * 2010-05-06 2017-01-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8990732B2 (en) 2010-05-14 2015-03-24 Sap Se Value interval selection on multi-touch devices
US8766984B2 (en) * 2010-08-20 2014-07-01 Qualcomm Incorporated Graphics rendering methods for satisfying minimum frame rate requirements
TWI428804B (zh) * 2010-10-20 2014-03-01 Pixart Imaging Inc 光學觸控系統及其感測方法
US8896613B2 (en) * 2010-10-26 2014-11-25 Bby Solutions, Inc. Stored value digital picture frame
JP5648844B2 (ja) * 2010-12-21 2015-01-07 ソニー株式会社 画像表示制御装置および画像表示制御方法
CN102681771B (zh) * 2011-03-03 2016-09-14 株式会社堀场制作所 测量装置
US20120299853A1 (en) * 2011-05-26 2012-11-29 Sumit Dagar Haptic interface

Also Published As

Publication number Publication date
EP2629189A2 (en) 2013-08-21
US20130215051A1 (en) 2013-08-22
US9213479B2 (en) 2015-12-15
CN103257822A (zh) 2013-08-21
EP2629189A3 (en) 2015-07-08

Similar Documents

Publication Publication Date Title
US10216407B2 (en) Display control apparatus, display control method and display control program
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
EP2791760B1 (en) Display apparatus and method of changing screen mode using the same
JP5429060B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム並びにこの表示制御プログラムが記録された記録媒体
US9041648B2 (en) Portable device and control method thereof
JP2013168144A (ja) イメージ表示方法及びその装置
EP2960783A1 (en) Mobile terminal and method for controlling the same
JP5846857B2 (ja) 携帯情報端末および電子コンテンツ表示方法
EP2706449B1 (en) Method for changing object position and electronic device thereof
CN110262677A (zh) 用于操纵用户界面对象的用户界面
US20150106714A1 (en) Electronic device and method for providing information thereof
EP2778880B1 (en) Method for controlling display function and an electronic device thereof
EP2698702A2 (en) Electronic device for displaying touch region to be shown and method thereof
JP5861637B2 (ja) 情報端末装置及びタッチパネルの表示方法
US11119622B2 (en) Window expansion method and associated electronic device
EP3001294B1 (en) Mobile terminal and method for controlling the same
JP5217505B2 (ja) 画像表示処理装置、画像表示処理方法および画像表示処理プログラム
CN103809872B (zh) 具有视差滚动功能的移动装置和控制所述移动装置的方法
US20150185975A1 (en) Information processing device, information processing method, and recording medium
JP5974685B2 (ja) 表示装置およびプログラム
CN102591521B (zh) 触控屏幕设备及其制造方法
JP6197559B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP2014067289A (ja) 情報処理装置および表示制御方法
JP6027735B2 (ja) 表示装置および表示方法
KR20140075660A (ko) 이미지 표시 방법 및 장치