JPH0744308A - Word processor - Google Patents
Word processorInfo
- Publication number
- JPH0744308A JPH0744308A JP18794293A JP18794293A JPH0744308A JP H0744308 A JPH0744308 A JP H0744308A JP 18794293 A JP18794293 A JP 18794293A JP 18794293 A JP18794293 A JP 18794293A JP H0744308 A JPH0744308 A JP H0744308A
- Authority
- JP
- Japan
- Prior art keywords
- pen
- area
- screen
- recognizing
- characters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Document Processing Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【目的】文書中の領域指定を迅速かつ簡単な操作によっ
て行うことができ、しかも、ユーザがそのアプリケーシ
ョンにあった操作を選択することができるワードプロセ
ッサを提供する。
【構成】コマンドの実行がなされる文書中の指定領域を
認識する領域認識部に、画面入力情報に基づいて、上記
指定領域の始点及び終点の文字をともに、ペンの接触が
なされた上記処理画面上のカーソル位置の文字、もしく
は、ペンによって描かれた領域指定と認識するためのイ
メージの位置する処理画面上の文字、もしくは、所定時
間以上ペンによる接触がなされた処理画面上の文字のう
ち、いずれかを選択するとともに、その始点及び終点を
含むその間の文字を指定領域と認識する選択認識手段を
設ける。
(57) [Abstract] [Purpose] To provide a word processor capable of specifying an area in a document by a quick and simple operation, and further allowing a user to select an operation suitable for the application. [Structure] An area recognition unit for recognizing a designated area in a document in which a command is executed, and the processing screen touched by a pen with the characters of the start and end points of the designated area based on the screen input information. Of the characters on the cursor position, the characters on the processing screen where the image for recognizing the area designation drawn with the pen is recognized, or the characters on the processing screen touched by the pen for a predetermined time or more, Selection recognition means is provided for selecting any one and recognizing a character between the start point and the end point as a designated area.
Description
【0001】[0001]
【産業上の利用分野】本発明はワードプロセッサに関
し、詳しくは、キー入力及びペン入力される信号に基づ
いて文字を形成し、その表示や編集を行うワードプロセ
ッサに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a word processor, and more particularly, to a word processor which forms a character based on a key input signal and a pen input signal and displays or edits the character.
【0002】[0002]
【従来の技術】ワードプロセッサには、例えば、文書中
の文章の移動や複写をある範囲を指定して行う場合、通
常キーボードを使う時は、あらかじめ指定すべき領域の
始点及び終点の位置にそれぞれカーソルを移動させ、
『領域指定』キーを押して行う方法が一般的である。2. Description of the Related Art In a word processor, for example, when moving or copying a sentence in a document by designating a certain range, when a normal keyboard is used, cursors are respectively placed at the start point and the end point of a region to be designated in advance. Move
A general method is to press the "area designation" key.
【0003】また、マウスやペンを使用した場合は、一
定のボタンを押しながら移動させたり、また、領域の始
点と終点を別のボタンで操作する等、装置によって違っ
た方法がとられていた。Further, when a mouse or a pen is used, different methods are taken depending on the device, such as moving while pressing a certain button, and operating the start point and end point of the area with another button. .
【0004】[0004]
【発明が解決しようとする課題】ところで、文章の編集
を行う際には、文書中の所定範囲について、文字を消し
たり、移動・複写などの操作が頻繁に行われている。し
かし、従来のキーボードによる指定方法では、カーソル
をあらかじめ移動させ、そのあとで領域指定キーを押下
しなければならず、その操作手順が多く、また、時間も
かかるという問題があった。By the way, when a text is edited, operations such as erasing characters and moving / copying are frequently performed in a predetermined range in the document. However, the conventional keyboard specification method has a problem in that the cursor must be moved in advance and then the area specification key must be pressed, which requires a large number of operation steps and takes time.
【0005】本発明はこのような問題点を解決するため
になされたものであり、文書中の領域指定を迅速かつ簡
単な操作によって行うことができ、しかも、ユーザがそ
のアプリケーションにあった操作を選択することができ
るワードプロセッサを提供することを目的とする。The present invention has been made in order to solve such a problem, and it is possible to specify an area in a document by a quick and simple operation, and a user can perform an operation suitable for the application. It is an object to provide a word processor that can be selected.
【0006】[0006]
【課題を解決するための手段】上記の目的を達成するた
めに本発明のワードプロセッサは、本発明の基本概念図
である図1を参照しながら説明すると、キーやペンなど
により、文書データ及びその文書データを処理するため
の画面入力情報を入力する入力部1と、その入力された
データおよび情報を記憶する記憶部5と、上記文書デー
タおよびその処理画面を表示する表示部3と、上記画面
入力情報に基づいて上記文書データ内の指定領域を認識
する領域認識部4と、その認識された指定領域に対し所
定のコマンドを実行するとともに、記憶部5、領域認識
部4、および表示部3をそれぞれ駆動制御する制御部2
を備えたワードプロセッサにおいて、領域認識部4に
は、上記画面入力情報に基づいて、指定領域の始点及び
終点の文字をともに、ペンの接触がなされた処理画面上
のカーソル位置の文字、もしくは、ペンによって描かれ
た領域指定と認識するためのイメージの位置する処理画
面上の文字、もしくは、所定時間以上ペンによる接触が
なされた処理画面上の文字のうち、いずれかを選択する
とともに、その始点及び終点を含むその間の文字を指定
領域と認識する選択認識手段4aが設けられていること
によって特徴付けられている。To achieve the above object, the word processor of the present invention will be described with reference to FIG. 1, which is a basic conceptual diagram of the present invention. An input unit 1 for inputting screen input information for processing document data, a storage unit 5 for storing the input data and information, a display unit 3 for displaying the document data and its processing screen, and the screen An area recognition unit 4 that recognizes a specified area in the document data based on input information, and a predetermined command is executed for the recognized specified area, and the storage unit 5, the area recognition unit 4, and the display unit 3 Control unit 2 for driving and controlling each
In the word processor provided with the above, the area recognition unit 4 sets the start point and the end point of the specified area together with the character at the cursor position on the processing screen where the pen is touched, or the pen based on the screen input information. Select either the character on the processing screen where the image for recognizing the area designated by the drawing is located, or the character on the processing screen that has been touched by the pen for a predetermined time or more, and select the start point and It is characterized in that selection recognition means 4a is provided for recognizing characters between the end point and the designated area as the designated area.
【0007】[0007]
【作用】指定領域とする文字列の始点及び終点は、選択
認識手段によって、画面入力情報に基づき、ペンの接触
がなされた処理画面上のカーソル位置の文字、もしく
は、ペンによって描かれた領域指定と認識するためのイ
メージの位置する処理画面上の文字、もしくは、所定時
間以上ペンによる接触がなされた処理画面上の文字のう
ち、いずれかが選択される。この選択された始点及び終
点を含むその間の文字列が、指定領域と認識される。The start point and the end point of the character string to be the designated area are designated by the selection recognition means based on the screen input information, and the character at the cursor position on the processing screen where the pen is touched or the area designated by the pen is designated. Either a character on the processing screen where the image for recognizing is located or a character on the processing screen touched by the pen for a predetermined time or longer is selected. The character string between the selected start point and end point is recognized as the designated area.
【0008】[0008]
【実施例】本発明実施例を、以下図面を参照しながら説
明する。図2は、本発明実施例に適用されるハード構成
図である。Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a hardware configuration diagram applied to the embodiment of the present invention.
【0009】まず、入力部を構成するものとして、ペン
12及びキーボード10が備えられている。このペン1
2にはペンインターフェース13が備えられ、ペン12
によって入力された信号に基づいてそのペン座標をデー
タとして出力する。また、キーボード10にはキーイン
ターフェース11が備えられ、キーボード10で押下さ
れたキーに対応するデータに変換される。また、手書き
編集インターフェース16は、このペンインターフェー
ス13によって与えられたペン座標をもとに、手書き認
識辞書17をリードし、認識結果を出力する。First, a pen 12 and a keyboard 10 are provided as a component of the input section. This pen 1
2 is equipped with a pen interface 13, and a pen 12
The pen coordinates are output as data based on the signal input by. Further, the keyboard 10 is provided with a key interface 11, and is converted into data corresponding to the key pressed on the keyboard 10. Further, the handwriting editing interface 16 reads the handwriting recognition dictionary 17 based on the pen coordinates given by the pen interface 13 and outputs the recognition result.
【0010】また、これらの各種のデータを格納するR
AM22、制御プログラムを格納するROM23、さら
にプリンタ25を駆動するプリントコントローラ24、
表示装置14を駆動する表示コントローラ15、が備え
られている。Also, R for storing these various data
An AM 22, a ROM 23 for storing a control program, a print controller 24 for driving the printer 25,
A display controller 15 that drives the display device 14 is provided.
【0011】フロッピーディスク28、ICカード26
は、それぞれFDコントローラ29およびICカードイ
ンターフェース27を介して設けられ、これらによって
制御され、データのロード/セーブが可能である。Floppy disk 28, IC card 26
Are provided via the FD controller 29 and the IC card interface 27, respectively, and are controlled by these, and data can be loaded / saved.
【0012】これら各部はCPU21によって駆動制御
されている。以上の構成からなるワードプロセッサにお
いて、所定の領域に対し移動や複写等の操作を行う場
合、その領域の指定は、ペン12によって入力され、ペ
ンインターフェース13によって与えられたペン座標に
基づいて、後述するそれぞれケースについて認識を行
う。The respective units are drive-controlled by the CPU 21. In the word processor having the above configuration, when an operation such as moving or copying is performed on a predetermined area, the designation of the area will be described later based on the pen coordinates input by the pen 12 and given by the pen interface 13. Recognize each case.
【0013】すなわち、カーソルと同一点をペンによる
接触によって、認識する。この場合、ペンが文字入力画
面に接触した時点で認識する場合と、ペンが文字入力画
面から離れた時点で認識する場合の二つの選択ができる
ようになっている。また、ペンで領域指定を認識するた
めの形状をなすイメージを描くことにより、指定すべき
領域の始点及び終点を認識して行う場合、さらに、ペン
が文字入力画面に接触している時間が所定の設定時間以
上であるか否かの判断によって認識する場合がある。本
発明実施例ではこれら四つの場合の中から、適宜選択で
きる構成となっている。That is, the same point as the cursor is recognized by touching with a pen. In this case, it is possible to make two choices, one for recognizing when the pen touches the character input screen and one for recognizing when the pen moves away from the character input screen. In addition, when the start point and the end point of the area to be specified are recognized by drawing an image having a shape for recognizing the area specification with the pen, the time during which the pen is in contact with the character input screen is further predetermined. It may be recognized by judging whether or not it is the set time or more. In the embodiment of the present invention, the constitution can be appropriately selected from these four cases.
【0014】以下にそのそれぞれの場合について、説明
する。まず、ペンが文字入力画面に接触した時点で行う
場合について、図3のフローチャートおよびその操作画
面を示す図7を参照しながら、説明する。Each of the cases will be described below. First, the case where the pen touches the character input screen will be described with reference to the flowchart of FIG. 3 and FIG. 7 showing the operation screen.
【0015】文字入力画面上をペンでタッチすると、ペ
ンの割り込みが発生し、座標データが得られる(STEP.
1)。そして、あらかじめカーソル位置の範囲を座標で得
ておき、ペンの座標データがその範囲に入っているかを
チェックし、範囲内であれば、カーソル位置とみなす(S
TEP.2)。カーソル位置であれば、現在、領域指定可能か
否かをチェックする(STEP.3)。領域指定可能であれば領
域指定を実行する(STEP.4)。When a pen is touched on the character input screen, a pen interrupt occurs and coordinate data is obtained (STEP.
1). Then, the range of the cursor position is obtained in advance by coordinates, it is checked whether the coordinate data of the pen is within that range, and if it is within the range, it is regarded as the cursor position (S
TEP.2). If it is at the cursor position, it is checked whether or not the area can be currently specified (STEP.3). If the area can be specified, the area is specified (STEP.4).
【0016】なお、領域指定については、文書作成のよ
うに領域を指定して、移動・消去・複写などの機能の使
用が可能な状況のときに、領域指定可能とする。したが
って、図7(a)に示すように、カーソル位置をペンで
タッチした時点で、同図(b)に示すように、カーソル
が存在した箇所が領域指定マークに置き換えられ、領域
の始点を指定できる。また、領域の終点についても同様
にして行う。Regarding the area designation, the area can be designated when the area can be designated as in the case of document creation and the functions such as movement, deletion and copying can be used. Therefore, as shown in FIG. 7A, when the cursor position is touched with a pen, as shown in FIG. 7B, the position of the cursor is replaced with the area designation mark, and the start point of the area is designated. it can. In addition, the end point of the area is similarly determined.
【0017】次に、ペンが文字入力画面から離れた時点
で行う場合について、図4のフローチャートおよびその
操作画面を示す図8を参照しながら、説明する。文字入
力画面をペンでタッチし、ペンが画面から離れたか(U
P)をチェックする(STEP.5)。押下中はペンの出力デー
タは無視し続ける。ペンが画面から離れた場合、その時
の座標を得る(STEP.6)。以下、上記の場合と同様に、そ
のペンの座標データがその範囲に入っているかをチェッ
クし、範囲内であれば、カーソル位置とみなす(STEP.
7)。カーソル位置であれば、現在、領域指定可能か否か
をチェックする(STEP.8)。領域指定可能であれば領域指
定を実行する(STEP.9)。Next, a case where the pen is moved away from the character input screen will be described with reference to the flowchart of FIG. 4 and FIG. 8 showing the operation screen. Touch the character input screen with the pen to see if the pen leaves the screen (U
Check P) (STEP.5). The output data of the pen is continuously ignored while the button is pressed. If the pen moves away from the screen, get the current coordinates (STEP.6). Then, as in the above case, it is checked whether the coordinate data of the pen is within the range, and if it is within the range, it is regarded as the cursor position (STEP.
7). If it is at the cursor position, it is checked whether the area can be currently specified (STEP.8). If the area can be specified, the area is specified (STEP.9).
【0018】したがって、図8(a)、(b)に示すよ
うに、カーソル位置をペンでタッチし、そのままタッチ
した位置でペンをアップすると、同図(c)のように、
カーソルが存在した箇所が領域指定マークに置き換えら
れ、領域の始点が認識される。Therefore, as shown in FIGS. 8A and 8B, when the cursor position is touched with the pen and the pen is moved up at the touched position, as shown in FIG. 8C,
The position where the cursor was present is replaced with the area designation mark, and the starting point of the area is recognized.
【0019】次に、ペンで描かれた形状を認識して行う
場合について、図5のフローチャートおよびその操作画
面を示す図9を参照しながら、説明する。この場合、あ
らかじめジェスチャー機能が有効であることを前提とす
る。ジェスチャー機能が有効であるというのは、ペンで
画面上を特定の図形になるよう描画することにより、そ
れぞれの図形に対応する機能、例えば一字抹消、スペー
ス挿入などが可能であることを意味する。Next, the case of recognizing the shape drawn by the pen will be described with reference to the flowchart of FIG. 5 and FIG. 9 showing its operation screen. In this case, it is assumed that the gesture function is valid in advance. The fact that the gesture function is effective means that it is possible to perform a function corresponding to each figure by drawing a specific figure on the screen with a pen, such as deleting one character or inserting a space. .
【0020】ペンが画面上にタッチされてから、ドラッ
グ中か否かをチェックする(STEP.11) 。ドラッグ中であ
れば、発生する座標データを検出し(STEP.18) 、ジェス
チャー用のバッファに指定されたフォーマットに変換し
て格納していく(STEP.19) 。また、同時にペンが描いた
形状が分かるように、図9(b)に示すように、画面上
に線を表示していく(STEP.20) 。ドラッグ中は、以上の
ステップを繰り返し行う。After the pen is touched on the screen, it is checked whether or not the drag is in progress (STEP.11). If dragging is in progress, the generated coordinate data is detected (STEP.18), converted into the format specified in the gesture buffer and stored (STEP.19). At the same time, a line is displayed on the screen as shown in FIG. 9B so that the shape drawn by the pen can be seen (STEP.20). The above steps are repeated during dragging.
【0021】ペンが文字入力画面を離れると(STEP.12)
、蓄えられた座標データをもとに認識側へ引き渡すた
めのバッファを作成し(STEP.13) 、認識を実行させる(S
TEP.14) 。この場合、形状が認識可能ではなく、認識結
果がエラーの場合はブザーを鳴らす等のエラー処理を行
い終了する(STEP.17) 。一方、認識結果により、該当す
るコマンドが得られた場合、そのコマンドにより各処理
へ移行する。コマンドが領域指定であれば(STEP.16) 、
現在、領域指定が可能か否かをチェックし(STEP.21) 、
可能であれば領域指定を実行する。この操作により図9
(c)に示すように、領域が指定される(STEP.22) 。When the pen leaves the character input screen (STEP.12)
, Create a buffer for handing over to the recognition side based on the stored coordinate data (STEP.13), and execute recognition (S
TEP.14). In this case, if the shape is not recognizable and the recognition result is an error, error processing such as sounding a buzzer is performed and the process ends (STEP.17). On the other hand, when a corresponding command is obtained from the recognition result, the process shifts to each process by the command. If the command is an area specification (STEP.16),
Currently, check whether it is possible to specify the area (STEP.21),
If possible, specify the area. This operation
As shown in (c), the area is designated (STEP.22).
【0022】最後に、ペンが文字入力画面に接触してい
る時間の判断により認識する場合について、図6のフロ
ーチャートおよびその操作画面を示す図10を参照しな
がら、説明する。Finally, a case of recognizing the pen by touching the character input screen will be described with reference to the flowchart of FIG. 6 and FIG. 10 showing the operation screen.
【0023】文字入力画面をペンで押下すると(STEP.3
1) 、図10(b)に示すように、その接触した位置に
カーソルが移動し、同時にタイマをスタートさせる(STE
P.32)。一方、ペンが押下中あるいはドラッグ中であれ
ば(STEP.33) 、タイマを更新する(STEP.34) 。そこで、
ペンが文字入力画面を離れた時(STEP.35) 、その時点で
のタイマ経過時間(t)を調べ、あらかじめ定められた
一定時間(u)との比較を行う(STEP.36) 。この一定時
間については、普通カーソル移動を行う際に、ペンで画
面をタッチする時間よりも長く、意図的に押下している
と考えられるおよその時間とする。ここで、(t)≧
(u)であれば、ペンが一定時間以上画面上を押してい
たと考え、領域指定コマンドを出力し(STEP.37) 、図1
0(c)に示すように、領域指定を実行し、同時にタイ
マをリセットする(STEP.38) 。一方、(t)<(u)で
あれば、ただのペン入力と考え、その時のペン座標のみ
を出力する(STEP.39) 。When the character input screen is pressed with a pen (STEP.3
1) As shown in Fig. 10 (b), the cursor moves to the contact position and at the same time the timer is started (STE
P.32). On the other hand, if the pen is being pressed or dragged (STEP.33), the timer is updated (STEP.34). Therefore,
When the pen leaves the character input screen (STEP.35), the timer elapsed time (t) at that time is checked and compared with a predetermined time (u) (STEP.36). This fixed time is generally longer than the time for touching the screen with the pen when the cursor is moved, and is an approximate time that is considered to be intentionally pressed. Where (t) ≧
If it is (u), it is considered that the pen has been pressing on the screen for a certain period of time, and the area designation command is output (STEP.37).
As shown in 0 (c), the area is specified and the timer is reset at the same time (STEP.38). On the other hand, if (t) <(u), it is considered as just a pen input, and only the pen coordinates at that time are output (STEP.39).
【0024】以上説明したこれらの領域指定方法の選択
は、いずれもペンによる操作であるが、各ユーザにあっ
た、あるいは、各アプリケーションにあった方法を使い
分けでき、ペン操作の幅が広がる。また、手書き感覚を
いっそう高めることができることから、操作は簡単かつ
迅速に行える。The selection of these area designation methods described above is performed by a pen, but a method suitable for each user or each application can be selectively used, and the range of pen operations can be widened. Moreover, since the handwriting feeling can be further enhanced, the operation can be performed easily and quickly.
【0025】[0025]
【発明の効果】以上説明したように、本発明のワードプ
ロセッサによれば、コマンドの実行がなされる文書中の
指定領域を認識する領域認識部には、画面入力情報に基
づいて、上記指定領域の始点及び終点の文字をともに、
ペンの接触がなされた上記処理画面上のカーソル位置の
文字、もしくは、ペンによって描かれた領域指定と認識
するためのイメージの位置する処理画面上の文字、もし
くは、所定時間以上ペンによる接触がなされた処理画面
上の文字のうち、いずれかを選択するとともに、その始
点及び終点を含むその間の文字を指定領域と認識する選
択認識手段を設けた構成としたので、各ユーザにあっ
た、あるいは、各アプリケーションにあった方法を使い
分けでき、しかも、その領域指定を迅速かつ簡単な操作
によって行うことができる。As described above, according to the word processor of the present invention, the area recognition unit for recognizing the specified area in the document in which the command is executed is configured to detect the specified area based on the screen input information. Both the start and end characters,
The character at the cursor position on the processing screen where the pen is touched, or the character on the processing screen where the image for recognizing the area drawn by the pen is recognized, or the pen is touched for a predetermined time or longer. The selection recognition means for recognizing a character between the characters including the start point and the end point as a designated area while selecting one of the characters on the processing screen is provided for each user, or The method that suits each application can be used properly, and the area can be specified quickly and easily.
【図1】本発明の基本概念図FIG. 1 is a basic conceptual diagram of the present invention.
【図2】本発明実施例に適用されるハード構成図FIG. 2 is a hardware configuration diagram applied to the embodiment of the present invention.
【図3】本発明実施例の領域指定の手順を示すフローチ
ャートで、ペンが画面に接触した時点で行う場合を示す
図FIG. 3 is a flowchart showing a procedure for specifying an area according to the embodiment of the present invention, showing a case where the operation is performed when the pen touches the screen.
【図4】本発明実施例の領域指定の手順を示すフローチ
ャートで、ペンが画面から離れた時点で行う場合を示す
図FIG. 4 is a flowchart showing a procedure for specifying an area according to the embodiment of the present invention, showing a case where the operation is performed when the pen is separated from the screen.
【図5】本発明実施例の領域指定の手順を示すフローチ
ャートで、ペンで描かれた形状を認識して行う場合を示
す図FIG. 5 is a flowchart showing a procedure for specifying a region according to the embodiment of the present invention, showing a case where a shape drawn with a pen is recognized and performed.
【図6】本発明実施例の領域指定の手順を示すフローチ
ャートで、ペンの画面接触時間の判断により認識する場
合を示す図FIG. 6 is a flowchart showing a procedure of specifying an area according to the embodiment of the present invention, showing a case where recognition is performed by determining a screen contact time of a pen.
【図7】本発明実施例で、ペンが画面に接触した時点で
行う場合の処理画面を示す図FIG. 7 is a diagram showing a processing screen when the pen touches the screen in the embodiment of the present invention.
【図8】本発明実施例で、ペンが画面から離れた時点で
行う場合の処理画面を示す図FIG. 8 is a diagram showing a processing screen when the pen is moved away from the screen according to the embodiment of the present invention.
【図9】本発明実施例で、ペンの画面接触時間の判断に
より認識する場合の処理画面を示す図FIG. 9 is a diagram showing a processing screen in the case of recognition by judging the screen contact time of the pen in the embodiment of the invention
【図10】本発明実施例で、ペンの画面接触時間の判断
により認識する場合の処理画面を示す図FIG. 10 is a diagram showing a processing screen in the case of recognition by judging the screen contact time of the pen in the embodiment of the present invention.
1・・・・入力部 2・・・・制御部 3・・・・表示部 4・・・・領域認識部 4a・・・・選択認識手段 5・・・・記憶部 1 ... Input unit 2 ... Control unit 3 ... Display unit 4 ... Region recognition unit 4a ... Selection recognition unit 5 ... Storage unit
Claims (1)
その文書データを処理するための画面入力情報を入力す
る入力部と、その入力されたデータおよび情報を記憶す
る記憶部と、上記文書データおよびその処理画面を表示
する表示部と、上記画面入力情報に基づいて上記文書デ
ータ内の指定領域を認識する領域認識部と、その認識さ
れた指定領域に対し所定のコマンドを実行するととも
に、上記記憶部、領域認識部、および表示部をそれぞれ
駆動制御する制御部を備えたワードプロセッサにおい
て、上記領域認識部には、上記画面入力情報に基づい
て、上記指定領域の始点及び終点の文字をともに、ペン
の接触がなされた上記処理画面上のカーソル位置の文
字、もしくは、ペンによって描かれた領域指定と認識す
るためのイメージの位置する上記処理画面上の文字、も
しくは、所定時間以上ペンによる接触がなされた上記処
理画面上の文字のうち、いずれかを選択するとともに、
その始点及び終点を含むその間の文字を上記指定領域と
認識する選択認識手段が設けられていることを特徴とす
るワードプロセッサ。1. An input unit for inputting document data and screen input information for processing the document data by a key or a pen, a storage unit for storing the input data and information, the document data and A display unit for displaying the processing screen, an area recognition unit for recognizing a designated area in the document data based on the screen input information, a predetermined command for the recognized designated area, and the storage In a word processor including a control unit for driving and controlling a display unit, a region recognition unit, and a display unit, the region recognition unit writes the start and end characters of the designated region together with a pen based on the screen input information. The character at the cursor position on the processing screen that is touched by or the position of the image for recognizing as the area designation drawn by the pen While selecting any of the characters on the processing screen or the characters on the processing screen that have been touched with a pen for a predetermined time or more,
A word processor, characterized in that selection recognition means is provided for recognizing a character between the start point and the end point as the designated area.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP18794293A JPH0744308A (en) | 1993-07-29 | 1993-07-29 | Word processor |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP18794293A JPH0744308A (en) | 1993-07-29 | 1993-07-29 | Word processor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0744308A true JPH0744308A (en) | 1995-02-14 |
Family
ID=16214877
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP18794293A Pending JPH0744308A (en) | 1993-07-29 | 1993-07-29 | Word processor |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0744308A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6091031A (en) * | 1997-04-11 | 2000-07-18 | Samsung Electronics Co., Ltd. | Portable information terminal and an activating method thereof |
| JP2001175241A (en) * | 1999-12-20 | 2001-06-29 | Brother Ind Ltd | Character image processing device, character image processing method, and recording medium storing character image processing program |
| KR100484143B1 (en) * | 2002-06-12 | 2005-04-18 | 삼성전자주식회사 | Editing apparatus in the terminal using touch screen and method thereof |
| JP2014089694A (en) * | 2012-10-01 | 2014-05-15 | Canon Marketing Japan Inc | Portable terminal, method of controlling the portable terminal, program, and recording medium |
| CN112463010A (en) * | 2019-09-06 | 2021-03-09 | 富士施乐株式会社 | Information processing apparatus and recording medium |
-
1993
- 1993-07-29 JP JP18794293A patent/JPH0744308A/en active Pending
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6091031A (en) * | 1997-04-11 | 2000-07-18 | Samsung Electronics Co., Ltd. | Portable information terminal and an activating method thereof |
| KR100275685B1 (en) * | 1997-04-11 | 2000-12-15 | 윤종용 | Apparatus for starting a personal communications device using a pen and a touch sensate panel and method therefor |
| JP2001175241A (en) * | 1999-12-20 | 2001-06-29 | Brother Ind Ltd | Character image processing device, character image processing method, and recording medium storing character image processing program |
| KR100484143B1 (en) * | 2002-06-12 | 2005-04-18 | 삼성전자주식회사 | Editing apparatus in the terminal using touch screen and method thereof |
| JP2014089694A (en) * | 2012-10-01 | 2014-05-15 | Canon Marketing Japan Inc | Portable terminal, method of controlling the portable terminal, program, and recording medium |
| CN112463010A (en) * | 2019-09-06 | 2021-03-09 | 富士施乐株式会社 | Information processing apparatus and recording medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP0992877B1 (en) | Information processing apparatus | |
| US6938220B1 (en) | Information processing apparatus | |
| EP0661620B1 (en) | Apparatus and method for executing multiple concatenated command gestures in a gesture based input system | |
| JP2006164238A (en) | Touchpad input information processing method and touchpad input information processing apparatus | |
| JP2001005599A (en) | Information processing apparatus, information processing method, and recording medium recording information processing program | |
| JP2000123114A (en) | Handwritten character input device and storage medium | |
| JPH08212197A (en) | Document editing device | |
| JP5550598B2 (en) | Handwritten character input device | |
| JPH09319502A (en) | Information equipment with display-integrated coordinate input device | |
| JPH06131110A (en) | Information processing equipment | |
| JP3029824B1 (en) | Handwritten character processing device, handwritten character processing method, and computer-readable recording medium storing a program for causing a computer to execute the method | |
| JP3075882B2 (en) | Document creation and editing device | |
| JP2999335B2 (en) | Gesture processing device and gesture processing method | |
| JP2000137571A (en) | Handwriting input device and recording medium recording handwriting input processing program | |
| JPH0744308A (en) | Word processor | |
| JPH0769765B2 (en) | Command input device | |
| JP3874571B2 (en) | Gesture processing device and gesture processing method | |
| JP4161768B2 (en) | Electronic device and program with dictionary function | |
| JPH08314917A (en) | Kana-Kanji converter | |
| JP2584782B2 (en) | Image processing method | |
| JPH06131109A (en) | Information processing equipment | |
| JPH0683524A (en) | Pen input method | |
| JP2007102369A (en) | Gesture recognition device and gesture recognition method | |
| JPH06324798A (en) | Document processor provided with handwriting editing function | |
| JP3258370B2 (en) | Character input method and device |