JP2013089131A - Device, method and program - Google Patents
Device, method and program Download PDFInfo
- Publication number
- JP2013089131A JP2013089131A JP2011231013A JP2011231013A JP2013089131A JP 2013089131 A JP2013089131 A JP 2013089131A JP 2011231013 A JP2011231013 A JP 2011231013A JP 2011231013 A JP2011231013 A JP 2011231013A JP 2013089131 A JP2013089131 A JP 2013089131A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- points
- touch screen
- displayed
- smartphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】容易に文字の編集をすることができる装置、方法及びプログラムを提供すること。
【解決手段】タッチスクリーンディスプレイ2と、ドキュメントがタッチスクリーンディスプレイ2に表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコード(例えば、空白又は/及び改行を示すコード等)を挿入するコントローラ10を備える。
【選択図】図5An apparatus, method, and program capable of easily editing characters are provided.
In a state where a touch screen display 2 and a document are displayed on the touch screen display 2 and a gesture in which the plurality of points move in a direction away from each other is detected after touching the plurality of points, A controller 10 is provided that inserts a code (for example, a code indicating a blank or / and a line feed) associated with the gesture at a position where the plurality of points are in contact with each other.
[Selection] Figure 5
Description
本発明は、装置、方法及びプログラムに関する。特に、本発明は、タッチスクリーンディスプレイを有する装置、その装置を制御する方法及びその装置を制御するためのプログラムに関する。 The present invention relates to an apparatus, a method, and a program. In particular, the present invention relates to a device having a touch screen display, a method for controlling the device, and a program for controlling the device.
タッチスクリーンディスプレイを備える装置が知られている。タッチスクリーンディスプレイを備える装置には、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンディスプレイを備える装置は、タッチスクリーンディスプレイを介して指又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンディスプレイを備える装置は、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
Devices with touch screen displays are known. Devices that include a touch screen display include, for example, smartphones and tablets. A device with a touch screen display detects a finger or stylus pen gesture via the touch screen display. The device including the touch screen display operates according to the detected gesture. An example of the operation according to the detected gesture is described in
タッチスクリーンディスプレイを備える装置の基本的な動作は、装置に搭載されるAndroid(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phone等のOS(Operating System)によって実現される。 The basic operation of a device including a touch screen display is based on an OS (such as Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, Windows (registered trademark) Phone, etc. mounted on the device. (Operating System).
ところで、このようなタッチスクリーンディスプレイを有する装置では、容易に文字を編集する技術が求められている。 By the way, in a device having such a touch screen display, a technique for easily editing characters is required.
本発明は、容易に文字の編集をすることができる装置、方法及びプログラムを提供することを目的とする。 An object of this invention is to provide the apparatus, method, and program which can edit a character easily.
本発明に係る装置は、1つの態様において、タッチスクリーンディスプレイと、ドキュメントが前記タッチスクリーンディスプレイに表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコードを挿入するコントローラと、を備える。 In one aspect, an apparatus according to the present invention moves in a direction in which a plurality of points move away from each other after a plurality of points are touched in a state where a touch screen display and a document are displayed on the touch screen display. And a controller that inserts a code associated with the gesture at a position where the plurality of points are in contact with each other when a gesture is detected.
また、本発明に係る装置では、前記コントローラは、前記タッチスクリーンディスプレイに表示されているドキュメントの文字方向に前記ジェスチャを検出した場合に、前記複数の点が接触された位置に、前記ジェスチャに対応付けられている空白を示すコードを挿入する構成でもよい。 Further, in the apparatus according to the present invention, when the gesture is detected in the character direction of the document displayed on the touch screen display, the controller corresponds to the gesture at a position where the plurality of points are in contact with each other. A configuration may be adopted in which a code indicating an added blank is inserted.
また、本発明に係る装置では、前記コントローラは、前記タッチスクリーンディスプレイに表示されているドキュメントの文字方向に対して垂直方向に前記ジェスチャを検出した場合に、前記複数の点が接触された位置に、前記ジェスチャに対応付けられている改行を示すコードを挿入する構成でもよい。 Further, in the apparatus according to the present invention, when the controller detects the gesture in a direction perpendicular to a character direction of the document displayed on the touch screen display, the controller is in a position where the plurality of points are in contact with each other. A configuration may be adopted in which a code indicating a line break associated with the gesture is inserted.
また、本発明に係る装置では、前記コントローラは、前記タッチスクリーンディスプレイに表示されているドキュメントの文字方向に対して斜めに前記ジェスチャを検出した場合に、前記複数の点が接触された位置に、前記ジェスチャに対応付けられている空白を示すコードを前記文字方向に挿入し、前記ジェスチャに対応付けられている改行を示すコードを前記文字方向に対して垂直方向に挿入する構成でもよい。 Further, in the apparatus according to the present invention, when the gesture is detected obliquely with respect to the character direction of the document displayed on the touch screen display, the controller is in a position where the plurality of points are in contact with each other. A configuration may be adopted in which a code indicating a space associated with the gesture is inserted in the character direction, and a code indicating a line break associated with the gesture is inserted in a direction perpendicular to the character direction.
また、本発明に係る装置では、前記コントローラは、ドキュメントが前記タッチスクリーンディスプレイに表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へのジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコードを挿入し、その後、接触が移動するジェスチャを検出した場合に、当該接触された位置に対応する文字を当該ドキュメント内で移動する構成でもよい。 In the apparatus according to the present invention, the controller detects a gesture in a direction in which the plurality of points move away from each other after the plurality of points are touched in a state where the document is displayed on the touch screen display. If a code associated with the gesture is inserted at a position where the plurality of points are in contact with each other and then a gesture that moves the contact is detected, the character corresponding to the contacted position is It may be configured to move within the document.
本発明に係る方法は、1つの態様において、コントローラにより、ドキュメントがタッチスクリーンディスプレイに表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコードを挿入する挿入ステップを含む。 In one aspect, the method according to the present invention detects a gesture in which a plurality of points move in a direction away from each other after a plurality of points are touched while a document is displayed on a touch screen display. In this case, an insertion step of inserting a code associated with the gesture at a position where the plurality of points are in contact with each other is included.
本発明に係るプログラムは、1つの態様において、コントローラにより、ドキュメントがタッチスクリーンディスプレイに表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコードを挿入する挿入ステップをコンピュータによって実現する。 In one aspect, a program according to the present invention detects a gesture in which a plurality of points move in a direction away from each other after a plurality of points are touched while a document is displayed on a touch screen display. In this case, the computer realizes an insertion step of inserting a code associated with the gesture at a position where the plurality of points are in contact with each other.
本発明によれば、容易に文字の編集をすることができる。 According to the present invention, characters can be easily edited.
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明する。 Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen display.
(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の外観について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The external appearance of the
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、外部インターフェイス14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
The
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号又は図形等を表示する。
The
タッチスクリーン2Bは、タッチスクリーンディスプレイ2に対する指、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、又はスタイラスペン等がタッチスクリーンディスプレイ2に接触した位置を検出することができる。
The
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bがタッチスクリーンディスプレイ2に対する接触を検出する指、又はスタイラスペン等を単に「指」ということがある。
The detection method of the
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触位置、接触時間又は接触回数に基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーンディスプレイ2に対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
The
タッチは、タッチスクリーンディスプレイ2(例えば、表面)に指が接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が接触するジェスチャをタッチとして判別する。ロングタッチとは、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャをロングタッチとして判別する。
A touch is a gesture in which a finger contacts the touch screen display 2 (for example, a surface). The
リリースは、指がタッチスクリーンディスプレイ2から離れるジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2から離れるジェスチャをリリースとして判別する。スワイプは、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャをスワイプとして判別する。
A release is a gesture in which a finger leaves the
タップは、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。ダブルタップは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
A tap is a gesture for releasing following a touch. The
ロングタップは、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。ドラッグは、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
A long tap is a gesture for releasing following a long touch. The
フリックは、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する上フリック、指が画面の下方向へ移動する下フリック、指が画面の右方向へ移動する右フリック、指が画面の左方向へ移動する左フリック等を含む。
The flick is a gesture that is released while the finger moves at high speed in one direction following the touch. The
ピンチインは、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに近付く方向にスワイプするジェスチャをピンチインとして判別する。ピンチアウトは、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
Pinch-in is a gesture that swipes in a direction in which a plurality of fingers approach each other. The
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。したがって、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、タッチスクリーンディスプレイ2に表示されている画面に応じて異なる。
The
図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
An example of a screen displayed on the
スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップを検出すると、メールアプリケーションを実行する。ここで、スマートフォン1は、例えば、タッチスクリーンディスプレイ2に対するアイコン50の表示位置(領域)に対応する位置(領域)へのジェスチャを、アイコン50に対応付けられたアプリケーションの実行命令であると解釈する。
The
アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、所定の規則に従って配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。画像は、例えば、利用者の設定に従って任意の画像が壁紙41として決定される。
The
スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面を表示する場合、ホーム画面の数が複数であっても、それらのうちから選択された1つをディスプレイ2Aに表示する。
The
スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、現在表示されているホーム画面の位置を示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。
The
図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。また、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在表示されていることを示している。
In the example shown in FIG. 4, four
スマートフォン1は、ホーム画面を表示中に特定のジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。また、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。
When the
ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、現在時刻、天気の情報、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40とは別の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限られない。
A
なお、図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
Note that the
図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、カメラ12及び13と、外部インターフェイス14と、加速度センサ15と、方位センサ16と、回転検出センサ17とを有する。
FIG. 5 is a block diagram illustrating the configuration of the
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。
As described above, the
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、及びマルチプッシュである。
The
例えば、ボタン3A〜3Cは、ホームボタン、バックボタン又はメニューボタンである。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。
For example, the
照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
The illuminance sensor 4 detects illuminance. For example, the illuminance is light intensity, brightness, luminance, or the like. The illuminance sensor 4 is used for adjusting the luminance of the
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。
The
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格としては、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM、PHS(Personal Handy−phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。 The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. For example, wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, cellular phone communication standards include LTE (Long Term Evolution), W-CDMA, CDMA2000, PDC, GSM, PHS (Personal Handy-phone System), and the like. Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA, NFC (Near Field Communication), and the like. The communication unit 6 may support one or more of the communication standards described above.
レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。なお、スマートフォン1は、レシーバ7に加えて、スピーカをさらに有してもよい。スマートフォン1は、レシーバ7に代えて、スピーカをさらに有してもよい。
The
ストレージ9は、プログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
The
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は記憶媒体を介してストレージ9にインストールされてもよい。
The programs stored in the
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。テーブル9Dは、キーアサインテーブル等の各種テーブルが格納されている。配置パターンデータベース9Eは、ディスプレイ2Aに表示されるアイコン等の配置パターンが格納されている。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。
The
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
The
コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System−on−a−chip)等の集積回路であってもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
The
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A及び通信ユニット6等を制御することによって各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、加速度センサ15等の各種検出部の検出結果に応じて、制御を変更することもある。
Specifically, the
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
For example, by executing the
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
The
外部インターフェイス14は、他の装置が接続される端子である。外部インターフェイス14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト)、イヤホンマイクコネクタのような汎用的な端子であってもよい。外部インターフェイス14は、Dockコネクタのような専用に設計された端子でもよい。外部インターフェイス14に接続される装置には、例えば、外部ストレージ、スピーカ、通信装置が含まれる。
The
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。回転検出センサ17は、スマートフォン1の回転を検出する。加速度センサ15、方位センサ16及び回転検出センサ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
The
このように構成されるスマートフォン1は、容易に文字の編集をすることができる。以下に、具体的な構成について説明する。
The
ストレージ9は、文字編集アプリケーション9Fが格納されている。文字編集アプリケーション9Fとは、文字を編集するためのアプリケーションである。例えば、コントローラ10は、ドキュメントデータを文字編集アプリケーション9Fに実行させることによって、ドキュメントデータに対して文字の編集を行うことができる。文字の編集は、例えば、文字の追加、変更、及び削除等が含まれる。なお、ドキュメントデータは、既に文字が含まれているものであってもよいし、まだ文字が含まれていない新規のものであってもよい。
The
本実施例では、文字編集アプリケーション9Fは、単独のアプリケーションとして構成されているものとして説明するが、これに限られない。例えば、文字編集アプリケーション9Fは、メールアプリケーション9B又はメモ帳アプリケーション等の一機能として構成されてもよい。
In the present embodiment, the
コントローラ10は、文字編集アプリケーション9Fを実行することによってドキュメントデータをタッチスクリーンディスプレイ2に表示している状態において、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャを検出した場合に、当該複数の点が接触された位置に対応するドキュメントデータ内の場所に、当該ジェスチャに対応付けられているコードを挿入する。
The
なお、複数の点が接触された位置に対応するドキュメントデータ内の場所とは、コードを挿入する場所のことであり、例えば、以下のように決定する。コントローラ10は、複数の接触を検出したときに、タッチスクリーン2B上における接触位置(座標位置)を特定する。コントローラ10は、特定した接触位置に基づいて、中間の座標位置を算出し、算出した座標位置に対応するドキュメントデータ内の場所(例えば、ある文字とある文字の間、又はある行とある行の間)を特定し、特定した場所をコードの挿入位置に決定する。また、コードは、文字編集アプリケーションが採用しているコードであって、JISコード、SJIS(Shift−JIS)コード、EUCコード又はUnicode等のどれでもよい。
Note that the place in the document data corresponding to the position where a plurality of points are in contact is the place where the code is inserted, and is determined as follows, for example. When the
具体的には、コントローラ10は、図6に示すように、文字編集アプリケーション9Fを実行すると、文字編集アプリケーション9Fに関連付けられているドキュメントデータの一覧60を表示する。なお、一覧60は、各ドキュメントデータに対応付けられているアイコンで表示されるものとして説明するが、表示形式はこれに限られない。また、コントローラ10は、文字編集アプリケーション9Fを実行した場合に、一番最近にアクセスしたドキュメントデータを表示する構成でもよい。
Specifically, as shown in FIG. 6, when the
また、コントローラ10は、あるドキュメントデータのアイコン(例えば、図6中の「Doc_1」)に対するジェスチャ(例えば、タップ)を検出すると、当該アイコンに対応付けられているドキュメントデータを読み出し、所定の形式でタッチスクリーンディスプレイ2に表示する(例えば、図7を参照。)。
Further, when the
コントローラ10は、タッチスクリーンディスプレイ2にドキュメントデータを表示している状態において、複数の点(例えば、2点)が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、当該複数の点が接触された位置に対応する場所に、当該ジェスチャに対応付けられているコード(例えば、空白又は/及び改行を示すコード)を挿入する。
In a state where document data is displayed on the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所定のコードを挿入することができるので、容易に文字の編集を行うことができる。なお、本実施例では、所定のジェスチャをピンチアウトであるとして説明したが、これに限られない。
In this way, the
また、コントローラ10は、文字編集アプリケーション9Fを実行することによってドキュメントデータをタッチスクリーンディスプレイ2に表示している状態において、複数の点が接触された後に当該複数の点が互いに近づく方向へ移動するジェスチャ(ピンチイン)を検出した場合に、当該複数の点が接触された位置に対応するドキュメントデータ内の場所に挿入されている所定のコード(例えば、空白又は/及び改行等のコード)を削除する構成でもよい。
In addition, in a state where the document data is displayed on the
このような構成によれば、スマートフォン1は、ドキュメントデータが表示されている状態において、所定のジェスチャを行うことにより、目的とするドキュメントの場所に挿入されている所定のコードを削除することができるので、容易に文字の編集を行うことができる。なお、本実施例では、所定のジェスチャをピンチインであるとして説明したが、これに限られない。また、削除の対象となる所定のコードは、空白又は/及び改行として説明したが、これに限られず、他の文字又は/及び記号であってもよい。
According to such a configuration, the
また、上述では、スマートフォン1の構成と動作について説明したが、これに限られず、各構成要素を備え、容易に文字の編集をすることができる方法、及びプログラムとして構成されてもよい。
Moreover, although the structure and operation | movement of the
コントローラ10は、文字編集アプリケーション9Fによってタッチスクリーンディスプレイ2に表示されているドキュメントの文字方向が横書きに設定されており、ドキュメントの文字方向にジェスチャを検出した場合に、複数の点が接触された位置に対応する場所に、ジェスチャに対応付けられている空白を示すコードを挿入する構成でもよい。なお、タッチスクリーンディスプレイ2には、コードそのものではなく、空白が表示される。
When the character direction of the document displayed on the
具体的には、コントローラ10は、図8(a)、(b)に示すように、ドキュメント内の「・・・皆さんは」の「は」と「如何でしたでしょうか・・・」の「如」の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、「は」と「如」の間に、空白を挿入する。
Specifically, as shown in FIGS. 8A and 8B, the
なお、挿入される空白の数は、ジェスチャにより移動された量、移動された長さ、又は設定されている文字の大きさ(フォントサイズ)等により決定される。 The number of blanks to be inserted is determined by the amount moved by the gesture, the length moved, the set character size (font size), or the like.
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の空白を挿入することができるので、容易に文字の編集を行うことができる。
In this way, the
コントローラ10は、文字編集アプリケーション9Fによってタッチスクリーンディスプレイ2に表示されているドキュメントの文字方向が横書きに設定されており、ドキュメントの文字方向に対して垂直方向にジェスチャを検出した場合に、複数の点が接触された位置に対応する場所に、ジェスチャに対応付けられている改行を示すコードを挿入する構成でもよい。
When the character direction of the document displayed on the
なお、タッチスクリーンディスプレイ2には、コードそのものではなく、改行を示す記号が表示される。また、改行を示す記号が表示されるかどうかは、スマートフォン1の設定に依存する。よって、スマートフォン1の設定によっては、改行を示す記号が表示されないこともある。
The
具体的には、コントローラ10は、図9(a)、(b)に示すように、ドキュメント内の「皆さんは・・・」の行と「からも・・・」の行の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に対して垂直方向(上下方向)に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、行間に改行を挿入する。なお、挿入される改行の数は、ジェスチャにより移動された量、移動された長さ、設定されている文字の大きさ(フォントサイズ)、又は行送りの設定値等により決定される。
Specifically, as shown in FIGS. 9A and 9B, the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の改行を挿入することができるので、容易に文字の編集を行うことができる。
In this way, the
コントローラ10は、文字編集アプリケーション9Fによってタッチスクリーンディスプレイ2に表示されているドキュメントの文字方向が横書きに設定されており、ドキュメントの文字方向に対して斜めにジェスチャを検出した場合に、複数の点が接触された位置に対応する場所において、ジェスチャに対応付けられている空白を示すコードを文字方向に挿入し、ジェスチャに対応付けられている改行を示すコードを文字方向に対して垂直方向に挿入する構成でもよい。
In the
なお、タッチスクリーンディスプレイ2には、コードそのものではなく、空白及び改行を示す記号が表示される。また、空白及び改行を示す記号が表示されるかどうかは、スマートフォン1の設定に依存する。よって、スマートフォン1の設定によっては、空白及び改行を示す記号が表示されないこともある。
The
具体的には、コントローラ10は、図10(a)、(b)に示すように、ドキュメント内の「・・・皆さんは」の「は」と「如何でしたでしょうか・・・」の「如」の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に対して斜め方向に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、文字方向に空白を挿入し、かつ文字方向に対して垂直方向に改行を挿入する。
Specifically, as shown in FIGS. 10A and 10B, the
タッチスクリーンディスプレイ2には、例えば、「・・・皆さんは」の後に複数の改行を挿入し、かつ「如何でしたでしょうか・・・」の先頭に複数の空白を挿入する(図10(b)を参照)。なお、挿入される空白及び改行の数は、ジェスチャにより移動された量、移動された長さ、設定されている文字の大きさ(フォントサイズ)、又は行送りの設定値等により決定される。
In the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の空白と改行を挿入することができるので、容易に文字の編集を行うことができる。
In this way, the
コントローラ10は、文字編集アプリケーション9Fによってタッチスクリーンディスプレイ2に表示されているドキュメントの文字方向が縦書きに設定されており、ドキュメントの文字方向にジェスチャを検出した場合に、複数の点が接触された位置に対応する場所に、ジェスチャに対応付けられている空白を示すコードを挿入する構成でもよい。なお、タッチスクリーンディスプレイ2には、コードそのものではなく、空白が表示される。
In the
具体的には、コントローラ10は、図11(a)、(b)に示すように、ドキュメント内の「・・・如何でしたでしょうか?」の「?」と「これからも・・・」の「こ」の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、「?」と「こ」の間に、空白を挿入する。
Specifically, as shown in FIGS. 11A and 11B, the
なお、挿入される空白の数は、ジェスチャにより移動された量、移動された長さ、又は設定されている文字の大きさ(フォントサイズ)等により決定される。 The number of blanks to be inserted is determined by the amount moved by the gesture, the length moved, the set character size (font size), or the like.
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の空白を挿入することができるので、容易に文字の編集を行うことができる。
In this way, the
コントローラ10は、文字編集アプリケーション9Fによってタッチスクリーンディスプレイ2に表示されているドキュメントの文字方向が縦書きに設定されており、ドキュメントの文字方向に対して垂直方向にジェスチャを検出した場合に、複数の点が接触された位置に対応する場所に、ジェスチャに対応付けられている改行を示すコードを挿入する構成でもよい。
When the character direction of the document displayed on the
なお、タッチスクリーンディスプレイ2には、コードそのものではなく、改行を示す記号が表示される。また、改行を示す記号が表示されるかどうかは、スマートフォン1の設定に依存する。よって、スマートフォン1の設定によっては、改行を示す記号が表示されないこともある。
The
具体的には、コントローラ10は、図12(a)、(b)に示すように、ドキュメント内の「充実した・・・」の行と「したでしょう・・・」の行の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に対して垂直方向(左右方向)に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、行間に改行を挿入する。なお、挿入される改行の数は、ジェスチャにより移動された量、移動された長さ、設定されている文字の大きさ(フォントサイズ)、又は行送りの設定値等により決定される。
Specifically, as shown in FIGS. 12 (a) and 12 (b), the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の改行を挿入することができるので、容易に文字の編集を行うことができる。
In this way, the
コントローラ10は、文字編集アプリケーション9Fによってタッチスクリーンディスプレイ2に表示されているドキュメントの文字方向が縦書きに設定されており、ドキュメントの文字方向に対して斜めにジェスチャを検出した場合に、複数の点が接触された位置に対応する場所において、ジェスチャに対応付けられている空白を示すコードを文字方向に挿入し、ジェスチャに対応付けられている改行を示すコードを文字方向に対して垂直方向に挿入する構成でもよい。
When the character direction of the document displayed on the
なお、タッチスクリーンディスプレイ2には、コードそのものではなく、空白及び改行を示す記号が表示される。また、空白及び改行を示す記号が表示されるかどうかは、スマートフォン1の設定に依存する。よって、スマートフォン1の設定によっては、空白及び改行を示す記号が表示されないこともある。
The
具体的には、コントローラ10は、図13(a)、(b)に示すように、ドキュメント内の「・・・如何でしたでしょうか?」の「?」と「これからも・・・」の「こ」の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に対して斜め方向に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、文字方向に空白を挿入し、かつ文字方向に対して垂直方向に改行を挿入する。
Specifically, as shown in FIGS. 13A and 13B, the
タッチスクリーンディスプレイ2には、例えば、「・・・如何でしたでしょうか?」の後に複数の改行を挿入し、かつ「これからも・・・」の先頭に複数の空白を挿入する(図13(b)を参照)。なお、挿入される空白及び改行の数は、ジェスチャにより移動された量、移動された長さ、設定されている文字の大きさ(フォントサイズ)、又は行送りの設定値等により決定される。
In the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の空白と改行を挿入することができるので、容易に文字の編集を行うことができる。
In this way, the
このようにして、スマートフォン1は、タッチスクリーンディスプレイ2にドキュメントデータが表示されている状態において、複数の点(例えば、2点)が接触されたときに、接触された位置に対応する場所から最も近い文字頭と行頭を特定し、その後にピンチアウトされる方向に応じて、空白及び改行を挿入する。また、スマートフォン1は、斜め方向にピンチアウトされた場合には、特定した場所に空白及び改行を挿入する。
In this way, when the document data is displayed on the
よって、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作によることなく、直感的な所定のジェスチャを行うことにより、目的とするドキュメントの場所に、所望する数の空白と改行を挿入することができ、容易に文字の編集を行うことができる。
Therefore, the
また、本実施例では、コードは、空白及び改行を示すものとして説明したが、これに限られず、どのような記号であってもよい。 In this embodiment, the code is described as indicating a space and a line feed, but is not limited thereto, and may be any symbol.
コントローラ10は、文字編集アプリケーション9Fによって文字が含まれているドキュメントがタッチスクリーンディスプレイ2に表示されており、複数の点(例えば、2点)が接触された後に当該複数の点が互いに遠ざかる方向へのジェスチャ(ピンチアウト)を検出した場合に、当該複数の点が接触された位置に対応する場所に、当該ジェスチャに対応付けられているコードを挿入する。
In the
その後、コントローラ10は、接触したままで移動するジェスチャ(スワイプ)を検出した場合に、当該接触された場所に対応する位置の文字を当該ドキュメント内で移動する。なお、文字を移動するジェスチャをスワイプであるとして説明したが、これに限られず、ドラッグ又はスイープ等の接触の移動を伴うジェスチャであってもよい。また、ドキュメント内で移動する文字には、単一の文字から複数の文字(文字列)まで含まれる概念である。
Thereafter, when the
具体的には、コントローラ10は、図14(a)、(b)に示すように、ドキュメント内の「皆さんは・・・」の行と「からも・・・」の行の間又はその付近に、複数の点(例えば、2点)が接触された後、ドキュメントの文字方向に対して垂直方向(上下方向)に、当該複数の点が互いに遠ざかる方向へ移動するジェスチャ(ピンチアウト)を検出した場合に、行間に改行を挿入する。なお、挿入される改行の数は、ジェスチャにより移動された量、移動された長さ、設定されている文字の大きさ(フォントサイズ)、又は行送りの設定値等により決定される。
Specifically, the
また、コントローラ10は、図14(c)、(d)に示すように、ドキュメント内の「皆さんは・・・」の行又はその付近を接触したままで、文字方向に対して垂直方向に移動するジェスチャ(スワイプ)を検出した場合に、「皆さんは・・・」の行全体を移動する。なお、移動する行数は、ジェスチャにより移動された量、移動された長さ、設定されている文字の大きさ(フォントサイズ)、又は行送りの設定値等により決定される。
Further, as shown in FIGS. 14C and 14D, the
なお、本実施例では、行の移動について説明したが、これに限られず、一又は複数の文字を行内で移動してもよいし、行の移動と文字の移動を一連の処理で行ってもよい。
また、本実施例では、文字方向が横書きのパターンについて説明したが、これに限らず、文字方向が縦書きであっても、スマートフォン1は、同様の操作によって行の移動を行うことができる。
In this embodiment, line movement has been described. However, the present invention is not limited to this, and one or more characters may be moved within the line, or line movement and character movement may be performed in a series of processes. Good.
In the present embodiment, the pattern in which the character direction is horizontal writing has been described. However, the present invention is not limited to this, and the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、直感的な所定のジェスチャを行うことにより、目的とするドキュメントの場所に、行又は文字を移動することができるので、容易に文字の編集を行うことができる。
In this way, the
つぎに、直感的なジェスチャにより文字の編集をするスマートフォン1の動作の流れについて、図15に示すフローチャートを参照しながら説明する。なお、以下の説明では、文字方向が横書きのドキュメントについて、二本の指で操作されるピンチアウトのジェスチャにより、ドキュメントに空白又は/及び改行を挿入する場合を想定して説明する。
Next, the operation flow of the
ステップST1において、コントローラ10は、タッチスクリーン2B上の異なる二つの点について、接触を検出したかどうかを判断する。接触を検出した場合(Yes)には、ステップST2に進み、接触を検出しなかった場合(No)には、処理を終了する。
In step ST1, the
ステップST2において、コントローラ10は、ステップST1により検出した二つの点に基づいて、コードを挿入するドキュメント上の場所を算出する。
In step ST2, the
ステップST3において、コントローラ10は、ピンチアウトのジェスチャを検出したかどうかを判断する。なお、厳密に言えば、本工程では、ピンチアウトのジェスチャの開始を検出する。ピンチアウトのジェスチャが行われた場合(Yes)には、ステップST4に進み、ピンチアウトのジェスチャが行われなかった場合(No)には、処理を終了する。
In step ST3, the
ステップST4において、コントローラ10は、ステップST3により検出したピンチアウトのジェスチャが文字方向(左右方向)であるかどうかを判断する。文字方向である場合(Yes)には、ステップST5に進み、文字方向でない場合(No)には、ステップST6に進む。
In step ST4, the
ステップST5において、コントローラ10は、ステップST2により算出した場所に、空白を示すコードを挿入する。なお、本工程による挿入は、仮確定の状態であり、後述するステップST9により、挿入される空白の数が確定する。
In step ST5, the
ステップST6において、コントローラ10は、ステップST3により検出したピンチアウトのジェスチャが文字方向に対して垂直方向(上下方向)であるかどうかを判断する。垂直方向である場合(Yes)には、ステップST7に進み、垂直方向でない場合(No)には、ステップST8に進む。
In step ST6, the
ステップST7において、コントローラ10は、ステップST2により算出した場所に、改行を示すコードを挿入する。なお、本工程による挿入は、仮確定の状態であり、後述するステップST9により、挿入される改行の数が確定する。
In step ST7, the
ステップST8において、コントローラ10は、ステップST3により検出したピンチアウトのジェスチャが文字方向に対して斜め方向であると判断して、空白を示すコードを文字方向に挿入し、改行を示すコードを文字方向に対して垂直方向に挿入する。なお、本工程による挿入は、仮確定の状態であり、後述するステップST9により、挿入される空白と改行の数が確定する。
In step ST8, the
ステップST9において、コントローラ10は、ピンチアウトのジェスチャの終了、すなわち、指がタッチスクリーンディスプレイ2からリリースしたことを検出した場合、ステップST5、ステップST7又はステップST8において挿入したコードを確定する。
In step ST9, when the
このようにして、スマートフォン1は、ドキュメントデータが表示されている状態において、キーボード等によるキー操作ではなく、直感的な所定のジェスチャを行うことにより、目的とするドキュメントの場所に、行又は/及び文字を挿入することができ、容易に文字の編集を行うことができる。
In this way, the
なお、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な記憶媒体に記憶されていてもよい。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、外部インターフェイス14に接続される読み取り装置が読み取り可能なCD、DVD、又はBlu−ray等の記憶媒体に記憶されていてもよい。
5 may be downloaded from another apparatus by wireless communication by the communication unit 6. 5 may be stored in a storage medium that can be read by a reading device included in the
また、図5に示したスマートフォン1の構成は一例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。例えば、スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。また、スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。また、図5に示した例では、スマートフォン1が2つのカメラを備えることとしたが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。また、図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えることとしたが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよいし、位置及び姿勢を検出するための他の種類のセンサを備えてもよい。また、照度センサ4と近接センサ5は、別体ではなく、単一のセンサにより構成されてもよい。
Moreover, the structure of the
本発明を完全かつ明瞭に開示するために特徴的な実施例に関し記載してきた。しかし、添付の請求項に係る発明は、上記実施例に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。 The exemplary embodiments have been described in order to fully and clearly disclose the present invention. However, the invention according to the appended claims should not be limited to the above-described embodiments, but all modifications that can be created by those skilled in the art within the scope of the basic matters shown in the present specification. And should be configured to embody alternative configurations.
例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。 For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.
また、上記の実施形態では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。例えば、添付の請求項に係る装置は、モバイルフォン、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、又はゲーム機等の携帯電子機器であってもよい。また、添付の請求項に係る装置は、デスクトップパソコン、テレビ受像器等の据え置き型の電子機器であってもよい。 Moreover, although said embodiment demonstrated the smart phone as an example of an apparatus provided with a touch screen display, the apparatus which concerns on an attached claim is not limited to a smart phone. For example, the device according to the appended claims may be a mobile electronic device such as a mobile phone, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, or a game machine. The apparatus according to the appended claims may be a stationary electronic device such as a desktop personal computer or a television receiver.
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9D テーブル
9E 配置パターンデータベース
9F 文字編集アプリケーション
9Z 設定データ
10 コントローラ
12、13 カメラ
14 外部インターフェイス
15 加速度センサ
16 方位センサ
17 回転検出センサ
20 ハウジング
DESCRIPTION OF
Claims (7)
ドキュメントが前記タッチスクリーンディスプレイに表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へ移動するジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコードを挿入するコントローラと、を備える装置。 Touch screen display,
In a state in which the document is displayed on the touch screen display, when a gesture is detected in which the points move away from each other after the points are touched, the points are in contact with each other. A controller for inserting a code associated with the gesture.
ドキュメントが前記タッチスクリーンディスプレイに表示されている状態で、複数の点が接触された後に当該複数の点が互いに遠ざかる方向へのジェスチャを検出した場合に、当該複数の点が接触された位置に、当該ジェスチャに対応付けられているコードを挿入し、
その後、接触が移動するジェスチャを検出した場合に、当該接触された位置に対応する文字を当該ドキュメント内で移動する請求項1記載の装置。 The controller is
In a state where a document is displayed on the touch screen display, when a gesture is detected in a direction in which the plurality of points move away from each other after the plurality of points are touched, the position where the plurality of points are in contact with each other, Insert the code associated with the gesture,
The apparatus according to claim 1, wherein, after detecting the gesture that the contact moves, the character corresponding to the touched position is moved in the document.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011231013A JP2013089131A (en) | 2011-10-20 | 2011-10-20 | Device, method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011231013A JP2013089131A (en) | 2011-10-20 | 2011-10-20 | Device, method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013089131A true JP2013089131A (en) | 2013-05-13 |
Family
ID=48532951
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011231013A Pending JP2013089131A (en) | 2011-10-20 | 2011-10-20 | Device, method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013089131A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015046147A (en) * | 2013-07-31 | 2015-03-12 | 京セラドキュメントソリューションズ株式会社 | Numerical value input device and electronic apparatus |
| JP2016523406A (en) * | 2013-06-09 | 2016-08-08 | アップル インコーポレイテッド | Real-time handwriting recognition management |
| JP2017004204A (en) * | 2015-06-09 | 2017-01-05 | ファナック株式会社 | Information processing apparatus for editing electronic data by touch operation |
| US9898187B2 (en) | 2013-06-09 | 2018-02-20 | Apple Inc. | Managing real-time handwriting recognition |
| US9934430B2 (en) | 2013-06-09 | 2018-04-03 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
| US10228846B2 (en) | 2016-06-12 | 2019-03-12 | Apple Inc. | Handwriting keyboard for screens |
| JP2019197555A (en) * | 2019-06-14 | 2019-11-14 | シャープ株式会社 | Portable terminal with holding hand determination function |
| US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
| WO2023026318A1 (en) * | 2021-08-23 | 2023-03-02 | ファナック株式会社 | Industrial machine and method for controlling industrial machine |
-
2011
- 2011-10-20 JP JP2011231013A patent/JP2013089131A/en active Pending
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016523406A (en) * | 2013-06-09 | 2016-08-08 | アップル インコーポレイテッド | Real-time handwriting recognition management |
| US9898187B2 (en) | 2013-06-09 | 2018-02-20 | Apple Inc. | Managing real-time handwriting recognition |
| US9934430B2 (en) | 2013-06-09 | 2018-04-03 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
| US11816326B2 (en) | 2013-06-09 | 2023-11-14 | Apple Inc. | Managing real-time handwriting recognition |
| US10346035B2 (en) | 2013-06-09 | 2019-07-09 | Apple Inc. | Managing real-time handwriting recognition |
| US11182069B2 (en) | 2013-06-09 | 2021-11-23 | Apple Inc. | Managing real-time handwriting recognition |
| US11016658B2 (en) | 2013-06-09 | 2021-05-25 | Apple Inc. | Managing real-time handwriting recognition |
| US10579257B2 (en) | 2013-06-09 | 2020-03-03 | Apple Inc. | Managing real-time handwriting recognition |
| JP2015046147A (en) * | 2013-07-31 | 2015-03-12 | 京セラドキュメントソリューションズ株式会社 | Numerical value input device and electronic apparatus |
| JP2017004204A (en) * | 2015-06-09 | 2017-01-05 | ファナック株式会社 | Information processing apparatus for editing electronic data by touch operation |
| US10884617B2 (en) | 2016-06-12 | 2021-01-05 | Apple Inc. | Handwriting keyboard for screens |
| US10466895B2 (en) | 2016-06-12 | 2019-11-05 | Apple Inc. | Handwriting keyboard for screens |
| US11640237B2 (en) | 2016-06-12 | 2023-05-02 | Apple Inc. | Handwriting keyboard for screens |
| US10228846B2 (en) | 2016-06-12 | 2019-03-12 | Apple Inc. | Handwriting keyboard for screens |
| US11941243B2 (en) | 2016-06-12 | 2024-03-26 | Apple Inc. | Handwriting keyboard for screens |
| US12422979B2 (en) | 2016-06-12 | 2025-09-23 | Apple Inc. | Handwriting keyboard for screens |
| US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
| US11620046B2 (en) | 2019-06-01 | 2023-04-04 | Apple Inc. | Keyboard management user interfaces |
| US11842044B2 (en) | 2019-06-01 | 2023-12-12 | Apple Inc. | Keyboard management user interfaces |
| JP2019197555A (en) * | 2019-06-14 | 2019-11-14 | シャープ株式会社 | Portable terminal with holding hand determination function |
| WO2023026318A1 (en) * | 2021-08-23 | 2023-03-02 | ファナック株式会社 | Industrial machine and method for controlling industrial machine |
| JPWO2023026318A1 (en) * | 2021-08-23 | 2023-03-02 | ||
| JP7557078B2 (en) | 2021-08-23 | 2024-09-26 | ファナック株式会社 | Industrial machinery and method for controlling industrial machinery |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5850736B2 (en) | Apparatus, method, and program | |
| JP6159078B2 (en) | Apparatus, method, and program | |
| JP5775445B2 (en) | Apparatus, method, and program | |
| JP5891083B2 (en) | Apparatus, method, and program | |
| JP6110654B2 (en) | Apparatus, method, and program | |
| JP5779064B2 (en) | Apparatus, method, and program | |
| JP5840045B2 (en) | Apparatus, method, and program | |
| JP6091829B2 (en) | Apparatus, method, and program | |
| JP2013131185A (en) | Device, method and program | |
| JP2013089131A (en) | Device, method and program | |
| JP6058790B2 (en) | Apparatus, method, and program | |
| JP2013131193A (en) | Device, method, and program | |
| JP2013080345A (en) | Device, method, and program | |
| JP2013134694A (en) | Device, method, and program | |
| JP6080355B2 (en) | Apparatus, method, and program | |
| JP2013065291A (en) | Device, method, and program | |
| JP5859932B2 (en) | Apparatus, method, and program | |
| JP2013092891A (en) | Device, method, and program | |
| JP5762885B2 (en) | Apparatus, method, and program | |
| JP6139068B2 (en) | Apparatus and method | |
| JP5959372B2 (en) | Apparatus, method, and program | |
| JP2013101547A (en) | Device, method, and program | |
| JP5848970B2 (en) | Apparatus, method, and program | |
| JP2013092974A (en) | Device, method, and program | |
| JP2013089132A (en) | Device, method and program |