JP2013222229A - Input operation device, image forming apparatus including the device, input operation method, and input operation program - Google Patents
Input operation device, image forming apparatus including the device, input operation method, and input operation program Download PDFInfo
- Publication number
- JP2013222229A JP2013222229A JP2012091455A JP2012091455A JP2013222229A JP 2013222229 A JP2013222229 A JP 2013222229A JP 2012091455 A JP2012091455 A JP 2012091455A JP 2012091455 A JP2012091455 A JP 2012091455A JP 2013222229 A JP2013222229 A JP 2013222229A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- input
- voice input
- touch operation
- touch panel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000010079 rubber tapping Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 46
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 2
- 235000019687 Lamb Nutrition 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Facsimiles In General (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明は、画像形成装置の操作パネル等に使用され、ユーザが入力操作を行うための入力操作装置、該装置を備えた画像形成装置、入力操作方法及び入力操作プログラムに関する。 The present invention relates to an input operation device used for an operation panel or the like of an image forming apparatus for a user to perform an input operation, an image forming apparatus including the apparatus, an input operation method, and an input operation program.
直感的な操作を可能にするスマートフォン、タブレットPC等の普及に伴い、種々の装置で直感的な操作性が求められている。代表的な操作例として、マルチタッチ操作と呼ばれるフリックやピンチなどがある。 With the widespread use of smartphones, tablet PCs, and the like that enable intuitive operation, intuitive operability is required for various devices. Typical examples of operations include flicks and pinches called multi-touch operations.
画像形成装置等において、保存された文書をプレビュー表示する際に、前記フリック操作でページ送りしていく場合、基本的には1ページずつのページ送りであり、瞬時に任意のページに行きたい場合は、あらかじめ設定が必要であったり、ページ表示のバー表示が必要となり、表示領域が狭められたりするという問題がある。また、ピンチイン/ピンチアウトして、表示を縮小/拡大する際に、一度に最適な大きさに調整するのは難しく、ブリックと同様にレベル設定のキーが必要で表示が狭められるという問題もある。 When previewing a saved document in an image forming apparatus or the like, when the page is fed by the flick operation, the page is basically page-by-page, and an arbitrary page is desired to be instantaneously accessed. However, there is a problem that a setting is required in advance or a bar display of page display is necessary, and the display area is narrowed. Also, when pinching in / out and reducing / enlarging the display, it is difficult to adjust to the optimum size at once, and there is a problem that the level setting key is required and the display is narrowed like the brick. .
また、基本的にマルチタッチ操作をして、レベル設定やページ指定などの追加要望を実現しようとすると、第1の操作で指がふさがっているため、その後の追加操作が必要となり、2ステップ以上の操作が必要となってしまうという問題もある。 Also, basically, if you try to realize additional requests such as level setting and page designation by performing multi-touch operation, your finger is blocked in the first operation, so additional operation is required after that, and more than 2 steps There is also a problem that this operation becomes necessary.
一方、音声認識による操作も直観的に操作可能な操作方法の一つである。音声認識においては、終始音声認識処理を実行していると、CPUを占有してしまい、他の処理が重くなってしまう。 On the other hand, operation by voice recognition is one of the operation methods that can be intuitively operated. In speech recognition, if speech recognition processing is executed from beginning to end, the CPU is occupied, and other processing becomes heavy.
音声認識による操作の上述の問題を解決するために、特許文献1に記載されているように、音声認識キーを押して音声入力を受付可能にした状態で、音声を入力するのが一般的であり、音声認識キーを押した後であれば、指での操作をしなくても音声にて直観的な操作が可能となる。
In order to solve the above-described problem of operation by voice recognition, as described in
しかしながら、音声入力前に事前に音声認識キーを押す必要があることから、ワンステップ操作が増えてしまうという課題がある。また、音声認識と指での直観的操作を組み合わせることも考えられるが、この場合も、音声認識キーを押したのちに音声入力し、レベル設定など具体的な数値を入力しておいて、指での操作をするといった操作になり、同様に操作ステップが多くなり、直観的な操作とは言えず、操作性が良くないという課題がある。 However, since it is necessary to press the voice recognition key before voice input, there is a problem that one-step operation increases. It is also possible to combine voice recognition with intuitive operation with a finger. In this case, too, after pressing the voice recognition key, voice input is performed, and specific numerical values such as level settings are input. There is a problem that the number of operation steps is similarly increased, and it is not an intuitive operation, and the operability is not good.
この発明は、このような技術的背景に鑑みてなされたものであって、音声認識キーの押下や事前のレベル設定等の操作を不要にして操作ステップ数を少なくし、直感的な操作を可能にして操作性を向上した入力操作装置を提供し、さらには該装置を備えた画像形成装置、入力操作方法及び入力操作プログラムを提供することを課題とする。 The present invention has been made in view of such a technical background, and does not require operations such as pressing a voice recognition key or setting a level in advance, thereby reducing the number of operation steps and enabling an intuitive operation. It is an object of the present invention to provide an input operation device with improved operability, and to provide an image forming apparatus, an input operation method, and an input operation program including the device.
上記課題は、以下の手段によって解決される。
(1)タッチパネルを有する表示手段と、前記表示手段のタッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断手段と、音声入力手段と、前記判断手段により、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付手段と、前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付手段により受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御手段と、を備えたことを特徴とする入力操作装置。
(2)前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、キーワードと、動作内容とが関連付けて記憶された記憶手段を備え、前記制御手段は、前記音声入力手段による音声入力の内容が前記記憶手段に記憶されているキーワードと一致するかどうかを判断し、一致する場合に、そのキーワードと前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかに対応付けられた動作を実行する前項1に記載の入力操作装置。
(3)前記タッチ操作の種別は、タッチパネルに軽くタッチした状態で指を弾く動作であるフリックか、タッチパネルに軽くタッチした状態で指を滑らせる動作であるドラッグか、タッチパネルを指でたたく動作であるタップか、2回指でたたく動作であるダブルタップか、タッチパネルにマルチタッチして指を中心に向かって縮めるまたは広げる方向に滑らせる動作であるピンチイン/ピンチアウトか、タッチパネルにマルチタッチして、片方の指または両方の指の中心位置を中心として回転させる動作であるローテーションか、タッチパネルに軽くタッチした状態で指を滑らせ目的の場所で指を離す動作であるドラッグアンドドロップ、のうちの少なくともいずれかである前項1または2に記載の入力操作装置。
(4)前記音声入力受付手段は、タッチ操作の終了後、予め設定された時間まで音声入力を受け付ける前項1〜3のいずれかに記載の入力操作装置。
(5)前項1〜4のいずれかに記載の入力操作装置を備えた画像形成装置。
(6)タッチパネルを有する表示手段と、音声入力手段とを備えた画像形成装置の入力操作方法であって、前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、を備えたことを特徴とする入力操作方法。
(7)タッチパネルを有する表示手段と、音声入力手段とを備えた画像形成装置のコンピュータに実行させるための入力操作プログラムであって、前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、を前記コンピュータに実行させる入力操作プログラム。
The above problem is solved by the following means.
(1) It is determined that the touch operation is performed by a display unit having a touch panel, a determination unit that determines whether or not a touch operation is performed by a user on the touch panel of the display unit, a voice input unit, and the determination unit. The voice input receiving means for receiving voice input by the voice input means; the type of screen displayed on the display means when the touch operation is performed; the position of the touch operation on the touch panel; An input operation device comprising: control means for executing a preset operation in association with at least one of the types and the content of the voice input received by the voice input receiving means.
(2) Storage means in which at least one of the screen type, the position of the touch operation, the type of touch operation, the keyword, and the operation content are associated and stored, and the control means includes the voice input means It is determined whether or not the content of the voice input by the word matches the keyword stored in the storage means, and if it matches, at least one of the keyword and the type of the screen, the position of the touch operation, the type of the
(3) The type of touch operation may be flicking with a finger while touching the touch panel lightly, dragging with a finger sliding with a light touch on the touch panel, or touching the touch panel with a finger. A tap, a double tap that is a double-tapping operation with a finger, a multi-touch operation on the touch panel, and a pinch-in / pinch-out operation that slides the finger toward or away from the center. Rotation, which is the action of rotating around the center position of one or both fingers, or drag and drop, which is an action of sliding the finger with the touch panel lightly touched and releasing the finger at the target location 3. The input operation device according to
(4) The input operation device according to any one of the preceding
(5) An image forming apparatus comprising the input operation device according to any one of
(6) An input operation method of an image forming apparatus including a display unit having a touch panel and a voice input unit, wherein a determination step of determining whether or not a touch operation is performed by a user on the touch panel; and the determination step The voice input receiving step for receiving voice input by the voice input means, the type of screen displayed on the display means when the touch operation is made, and the touch panel A control step of executing a preset operation in association with at least one of the position of the touch operation and the type of touch operation and the content of the voice input received in the voice input reception step. An input operation method characterized by that.
(7) An input operation program for causing a computer of an image forming apparatus including a display unit having a touch panel and an audio input unit to execute, and determining whether a touch operation by a user has been performed on the touch panel A voice input accepting step for accepting voice input by the voice input means when the touch operation is judged to have been displayed on the display means when the touch operation is made. Executes a preset operation in association with at least one of the type of screen, the position of the touch operation on the touch panel, the type of touch operation, and the contents of the voice input received in the voice input receiving step. And an input operation program for causing the computer to execute a control step. Lamb.
前項(1)に記載の発明によれば、タッチ操作がなされたと判断された場合、音声入力手段による音声入力が受け付けられるとともに、前記タッチ操作がなされたときに表示手段に表示されていた画面の種別、タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付手段により受け付けられた音声入力の内容とに対応して予め設定された動作が実行される。 According to the invention described in (1) above, when it is determined that a touch operation has been performed, voice input by the voice input unit is accepted, and the screen displayed on the display unit when the touch operation is performed is displayed. A preset operation is executed corresponding to at least one of the type, the position of the touch operation on the touch panel, the type of the touch operation, and the content of the voice input received by the voice input receiving unit.
従って、ユーザは、従来のように音声認識キーを押すことなく、表示手段のタッチパネルにおけるタッチ検出領域にタッチすると同時に音声を入力することで、動作を実行させることができるから、音声認識キーの押下や事前のレベル設定等の操作を不要にでき、操作ステップ数を少なくでき、直感的な操作が可能となり、操作性を向上することができる。 Therefore, since the user can execute the operation by touching the touch detection area on the touch panel of the display means and inputting the voice at the same time without pressing the voice recognition key as in the past, the user can press the voice recognition key. In addition, operations such as level setting and the like can be made unnecessary, the number of operation steps can be reduced, intuitive operation can be performed, and operability can be improved.
前項(2)に記載の発明によれば、音声入力手段による音声入力の内容が前記記憶手段に記憶されているキーワードと一致するかどうかが判断され、一致する場合に、そのキーワードと画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと対応付けられた動作が実行される。 According to the invention described in item (2) above, it is determined whether or not the content of the voice input by the voice input means matches the keyword stored in the storage means. Then, an operation associated with at least one of the position of the touch operation and the type of the touch operation is executed.
前項(3)に記載の発明によれば、フリック、ドラッグ、タップ、ダブルタップ、ピンチイン/ピンチアウト、ローテーション、ドラッグアンドドロップのうちの少なくともいずれかのタッチ操作に基づいて、動作が実行される。 According to the invention described in (3), the operation is executed based on at least one of the touch operations of flick, drag, tap, double tap, pinch in / pinch out, rotation, and drag and drop.
前項(4)に記載の発明によれば、タッチ操作の終了後、予め設定された時間まで音声入力が受け付けられるから、音声入力がタッチ操作よりも多少遅れても、確実に音声入力が受け付けられる。 According to the invention described in (4) above, since the voice input is accepted until a preset time after the touch operation is finished, the voice input is surely accepted even if the voice input is somewhat delayed from the touch operation. .
前項(5)に記載の発明によれば、操作ステップ数を少なくでき、直感的な操作が可能で、操作性を向上できる画像形成装置となし得る。 According to the invention described in item (5), the number of operation steps can be reduced, an intuitive operation is possible, and an image forming apparatus that can improve operability can be obtained.
前項(6)に記載の発明によれば、音声認識キーの押下や事前のレベル設定等の操作を不要にでき、操作ステップ数を少なくでき、画像形成装置の直感的な操作が可能となり、操作性を向上することができる。 According to the invention described in item (6) above, operations such as pressing of a voice recognition key and prior level setting can be eliminated, the number of operation steps can be reduced, and an intuitive operation of the image forming apparatus can be performed. Can be improved.
前項(7)に記載の発明によれば、タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断し、タッチ操作がなされたと判断された場合、音声入力手段による音声入力を受け付けるとともに、タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する処理を、画像形成装置のコンピュータに実行させることができる。 According to the invention described in the preceding item (7), it is determined whether or not a touch operation has been performed by the user on the touch panel. When it is determined that the touch operation has been performed, the voice input by the voice input unit is accepted and the touch operation is performed. In association with at least one of the type of the screen displayed on the display means when it is made, the position of the touch operation on the touch panel, the type of the touch operation, and the content of the received voice input in advance It is possible to cause the computer of the image forming apparatus to execute processing for executing the set operation.
以下、この発明の実施形態を図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、この発明の一実施形態に係る入力操作装置を備えた画像形成装置1を示すブロック図である。
FIG. 1 is a block diagram illustrating an
画像形成装置1は、この実施形態では、コピー機能、プリンタ機能、ファクシミリ機能、スキャン機能等の複数の機能を複合した多機能デジタル画像形成装置であるMFP(Multi Function Peripherals)が用いられている。以下の説明では、画像形成装置をMFPともいう。
In this embodiment, the
MFP1は、CPU11と、ROM12と、RAM13と、スキャナ部14と、記憶部15と、プリンタ部16と、操作パネル17と、ネットワークコントローラ18と、音声入力部19等を備えている。
The
前記CPU11は、MFP1の全体を統括的に制御し、コピー機能、プリンタ機能、ファクシミリ機能、スキャン機能等の各機能を使用可能とするものである。さらにこの実施形態では、操作パネル17のタッチパネルをユーザがタッチ操作したことを操作パネルからの情報に基づいて検出し、音声入力部による音声入力を受付可能にしたり、受け付けられた音声入力に対して音声認識処理を実行したり、タッチ操作がなされたときに前記操作パネル17に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別等を判断し、これらのうちの予め設定された少なくともいずれかと、前記音声入力の内容とに基づいて、予め設定された動作を実行したり、操作パネル17の画面を別の画面に切り替える等の処理を実行するが、詳細な説明は後述する。
The
前記ROM12は、前記CPU11の動作プログラム等が格納されているメモリであり、RAM13は、前記CPU11が動作プログラムに従って動作する際の作業領域を提供するメモリである。
The
前記スキャナ部14は、用紙等に記載された原稿の画像を読み取って、電子データである画像データに変換する読み取り手段として機能する。このスキャナ部15は、図示は省略したが複数の原稿を読み取り位置まで自動搬送する自動原稿搬送装置(ADF)を備えていても良い。
The
前記記憶部15は、スキャナ部15により読み取られた画像データやその他のデータ、アプリケーション等を保存するメモリであり、例えばハードディスク装置が用いられている。また、この実施形態では、多数のキーワードを有する第1の辞書と、この第1の辞書に存在するキーワードをさらに絞り込んだ第2の辞書が記憶され、さらにはタッチ操作の種別等が登録されている。また、前記操作パネル17に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記第2の辞書に記憶されているキーワードとに対応付けられて、実行すべき動作が予め設定され記憶されている。
The
プリンタ部16は、前記スキャナ部15で読み取られた原稿の画像データや、パーソナルコンピュータ等の外部装置から送信されたプリントデータ等を、用紙に印刷するものである。
The
操作パネル17は、ユーザの操作やメッセージの表示等に使用されるものであり、タッチパネルを備えた液晶等からなり、各種メッセージやMFP1の状態等を表示するための表示部171と、テンキー、スタートキー等を備えたハードキー部172を備えている。
The
前記ネットワークコントローラ18は、パーソナルコンピュータやサーバなどの外部装置とデータの送受を行うための通信部として機能する。
The
前記音声入力部19は、ユーザが発した音声を入力するものであり、例えばマイクロフォン等によって構成されている。
The
図2は、MFP1の動作を示すフローチャートである。この動作は、CPU11がROM12に記憶されているプログラムに従って動作することにより実行される。
FIG. 2 is a flowchart showing the operation of the
ステップS11で、表示部171のタッチパネルに対するタッチ操作が開始されたことを検出し、ステップS111で、タッチ操作の種別判定処理を実行する。
In step S11, it is detected that a touch operation on the touch panel of the
次いで、ステップS12では、前記タッチ操作は記憶部15に登録されている操作種別の操作であるかどうかを、種別判定結果に基づいて判断する。
Next, in step S12, it is determined based on the type determination result whether the touch operation is an operation type registered in the
登録されている操作種別のタッチ操作でなければ(ステップS12でNO)、ステップS132で、そのタッチ操作に応じた動作を実行したのち、ステップS11に戻る。登録されている操作種別のタッチ操作であれば(ステップS12でYES)、ステップS131で、音声入力部19をオンにして音声入力の受付を開始する。
If the touch operation is not a registered operation type (NO in step S12), an operation corresponding to the touch operation is executed in step S132, and then the process returns to step S11. If it is a touch operation of the registered operation type (YES in step S12), in step S131, the
従って、図3に示すように、タッチ操作の開始とほぼ同時に音声入力の受付が開始される。また、音声入力の受付は、タッチ操作の検出終了タイミングT1よりも遅いタイミングT2まで行われる。つまり、音声入力の受付期間はタッチ操作の検出期間よりも(T2−T1)だけ長く、この期間が猶予期間となっている。この猶予期間(T2−T1)は予め設定された値である。 Therefore, as shown in FIG. 3, acceptance of voice input is started almost simultaneously with the start of the touch operation. Also, the voice input is accepted until a timing T2 that is later than the detection end timing T1 of the touch operation. In other words, the voice input acceptance period is longer than the touch operation detection period by (T2-T1), and this period is a grace period. This grace period (T2-T1) is a preset value.
次にステップS14で、音声入力があったかどうかを判断し、なければ(ステップS14でNO)、ステップS152に進む。音声入力があれば(ステップS14でYES)、ステップS151で、音声認識処理を行うとともに、該処理により得られた内容が記憶部15に記憶されている第1の辞書に記載されているキーワードと一致しているかどうかを判断する。一致していなければ(ステップS151でNO)、ステップS152に進む。一致していれば(ステップS151でYES)、ステップS16に進む。
Next, in step S14, it is determined whether or not there is a voice input. If not (NO in step S14), the process proceeds to step S152. If there is a voice input (YES in step S14), in step S151, the voice recognition process is performed, and the content obtained by the process is stored in the
ステップS16では、音声認識処理により得られた内容が、記憶部15に記憶されている第2の辞書に記載されているキーワードと一致しているかどうかを判断する。一致していなければ(ステップS16でNO)、ステップS152に進む。一致していれば(ステップS16でYES)、ステップS17で、表示部171に表示されている現在の画面の種別、タッチパネル上のタッチ操作の位置、タッチ操作の種別のうち予め設定された少なくともいずれかと、前記キーワードとに対応して予め設定された動作を実行する。
In step S <b> 16, it is determined whether or not the content obtained by the voice recognition process matches the keyword described in the second dictionary stored in the
一方、ステップS152では、指でのタッチ操作が終了したかどうかを判断する。タッチ操作が終了していなければ(ステップS152でNO)、ステップS14に戻る。終了していれば(ステップS152でYES)、ステップS11に戻る。 On the other hand, in step S152, it is determined whether or not the touch operation with the finger is finished. If the touch operation has not ended (NO in step S152), the process returns to step S14. If completed (YES in step S152), the process returns to step S11.
このように、タッチ操作がなされたことが検出されると、音声入力部19による音声入力が受け付けられるとともに、前記タッチ操作がなされたときに表示部171に表示されていた画面の種別、タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力部19により受け付けられた音声入力の内容とに対応して予め設定された動作が実行されるから、ユーザは、従来のように音声認識キーを押すことなく、表示部171のタッチパネルにタッチすると同時に音声を入力することで、動作を実行させることができる。このため、音声認識キーの押下や事前のレベル設定等の操作を不要にでき、操作ステップ数を少なくでき、MFP1の直感的な操作が可能となり、操作性を向上することができる。
As described above, when it is detected that the touch operation has been performed, the voice input by the
なお、図2のフローチャートでは、音声入力の内容が第1の辞書のキーワードと一致しているかどうかを判断し、一致している場合に第2の辞書のキーワードと一致しているかどうかを判断したが、辞書は第2の辞書に相当するものが1つ備えられていても良い。 In the flowchart of FIG. 2, it is determined whether or not the content of the voice input matches the keyword of the first dictionary, and if it matches, it is determined whether or not it matches the keyword of the second dictionary. However, one dictionary corresponding to the second dictionary may be provided.
図4は、図3のステップS111におけるタッチ操作の種別判定処理を示すフローチャートである。この処理は、操作パネル17から逐次送信されてくる検出出力を基に判断される。
FIG. 4 is a flowchart showing the touch operation type determination processing in step S111 of FIG. This process is determined based on detection outputs sequentially transmitted from the
ステップS221で、操作パネル17からの第1の検出出力が、タッチパネルを軽くタッチしたことの検出であるかどうかを判断し、タッチパネルを軽くタッチしたことの検出であれば(ステップS221でYES)、ステップS2211で、第2の検出出力が指を弾いたことの検出であるかどうかを判断する。指を弾いたことの検出であれば(ステップS2211でYES)、ステップS22111で、タッチ操作はフリック(スワイプ)であると判定した後、リターンする。この操作は、図5(a)に示すように、例えば1ページ表示を2ページ表示にしたり、ページ送り等に使用される。なお、フリック操作の指を弾く速度が遅いか速いかを判断して、フリック操作を複数種類の操作に分けても良い。
In step S221, it is determined whether or not the first detection output from the
ステップS2211で、第2の検出出力が指を弾いたことの検出でなければ(ステップS2211でNO)、ステップS2212で、第2の検出出力が指をすべらせることの検出であるかどうかを判断する。指をすべらせることの検出であれば(ステップS2212でYES)、ステップS22121で、タッチ操作はドラッグ(パン)であると判定した後、ステップS22122に進み、第3の検出出力が指を離したことの検出であるかどうかを判断する。指を離したことの検出でなければ(ステップS22122でNO)、指を離したことが検出されるまで待ち、検出されると(ステップS22122でYES)、ステップS22123で、タッチ操作はドロップと判定した後、リターンする。つまり、ドラッグアンドドロップと判定される。この操作は、図5(c)に示すように、例えば表示文書を所定のフォルダアイコンに保存する場合等に使用される。 In step S2211, if the second detection output is not a detection that the finger has been flipped (NO in step S2211), it is determined in step S2212 whether the second detection output is a detection of slipping the finger. To do. If it is detected that the finger is slipped (YES in step S2212), it is determined in step S22121 that the touch operation is a drag (pan), and then the process proceeds to step S22122, where the third detection output is released. It is determined whether or not this is a detection. If it is not detected that the finger has been released (NO in step S22122), the process waits until it is detected that the finger has been released (YES in step S22122), and if detected, the touch operation is determined to be a drop in step S22123. Then return. That is, it is determined as drag and drop. This operation is used, for example, when a display document is stored in a predetermined folder icon as shown in FIG.
ステップS2212において、第2の検出出力が指をすべらせることの検出でなければ(ステップS2212でNO)、ステップS2213で、第2の検出出力が指を離したことの検出であるかどうかを判断する。指を離したことの検出でなければ(ステップS2213でNO)、ステップS2211に戻る。指を離したことの検出であれば(ステップS2213でYES)、ステップS22131で、タッチ操作はシングルタッチと判定した後、リターンする。 In step S2212, if the second detection output is not detection of sliding the finger (NO in step S2212), it is determined in step S2213 whether the second detection output is detection of releasing the finger. To do. If it is not detected that the finger has been released (NO in step S2213), the process returns to step S2211. If it is detected that the finger has been released (YES in step S2213), the touch operation is determined to be single touch in step S2211, and then the process returns.
ステップS221で、第1の検出出力がタッチパネルを軽くタッチしたことの検出でなければ(ステップS221でNO)、ステップS222で、第1の検出出力が、タッチパネルを指でたたいたことの検出であるかどうかを判断し、指でたたいたことの検出であれば(ステップS222でYES)、ステップS2221で、第2の検出出力が指でたたいたことの検出であるかどうかを判断する。第2の検出出力が指でたたいたことの検出でなければ(ステップS2221でNO)、ステップS2211で、タッチ操作はシングルタップであると判定した後、リターンする。この操作は、図5(e)に示すように、例えば各種キーの押下等に使用される。 If the first detection output is not a light touch on the touch panel in step S221 (NO in step S221), the first detection output is a detection that the touch panel is struck with a finger in step S222. If it is detected that a finger has been struck (YES in step S222), it is determined in step S2221 whether or not the second detection output is a struck finger. . If the second detection output is not a detection that the finger has been struck (NO in step S2221), it is determined in step S2211 that the touch operation is a single tap, and then the process returns. This operation is used for pressing various keys, for example, as shown in FIG.
ステップS2221で、第2の検出出力が指でたたいたことの検出であれば(ステップS2221でYES)、ステップS22212で、タッチ操作はダブルタップであると判定した後、リターンする。この操作は、図5(F)に示すように、例えば画面の拡大や縮小等に用いられる。 If it is detected in step S 2221 that the second detection output is a finger strike (YES in step S 2221), the process returns to step S 22212 after determining that the touch operation is a double tap. This operation is used, for example, for enlarging or reducing the screen as shown in FIG.
ステップS222で、第1の検出出力が、タッチパネルを指でたたいたことの検出でなければ(ステップS222でNO)、ステップS223で、第1の検出出力がマルチタッチかどうかを判断する。 If it is determined in step S222 that the first detection output is not a detection that the touch panel has been struck with a finger (NO in step S222), it is determined in step S223 whether the first detection output is multi-touch.
マルチタッチであれば(ステップS223でYES)、ステップS2231で、第2の検出出力が指を縮めたことの検出であるかどうかを判断する。第2の検出出力が指を縮めたことの検出であれば(ステップS2231でYES)、ステップS22311で、タッチ操作はピンチインであると判定した後、リターンする。一方、第2の検出出力が指を縮めたことの検出でなければ(ステップS2231でNO)、ステップS2232で、第2の検出出力が指を拡げたことの検出であるかどうかを判断する。第2の検出出力が指を拡げたことの検出であれば(ステップS2232でYES)、ステップS22321で、タッチ操作はピンチアウトであると判定した後、リターンする。 If it is multi-touch (YES in step S223), it is determined in step S2231 whether or not the second detection output is detection of a finger contracted. If the second detection output indicates that the finger has been contracted (YES in step S2231), the process returns to step S22311 after determining that the touch operation is a pinch-in. On the other hand, if the second detection output is not a detection that the finger is contracted (NO in step S2231), it is determined in step S2232 whether or not the second detection output is a detection that the finger is expanded. If the second detection output is a detection that the finger is spread (YES in step S2232), the process returns to step S22321 after determining that the touch operation is a pinch out.
これらのピンチイン/ピンチアウト操作は、図5(b)に示すように、例えば画面の一部を部分的に縮小したり拡大するのに使用される。 These pinch-in / pinch-out operations are used, for example, to partially reduce or enlarge a part of the screen as shown in FIG.
ステップS2232において、第2の検出出力が指を拡げたことの検出でなければ(ステップS2232でNO)、ステップS2233で、第2の検出出力が回転の検出であるかどうかを判断する。回転の検出であれば(ステップS2233でYES)、ステップS22331で、タッチ操作はローテーションであると判定した後、リターンする。この操作は、図5(d)に示すように、例えば画面の一部を回転させるのに使用される。 In step S2232, if the second detection output is not a detection that the finger is spread (NO in step S2232), it is determined in step S2233 whether the second detection output is a rotation detection. If rotation is detected (YES in step S2233), in step S22331, it is determined that the touch operation is rotation, and then the process returns. This operation is used, for example, to rotate a part of the screen as shown in FIG.
ステップS2233で、第2の検出出力が回転の検出でなければ(ステップS2233でNO)、ステップS2234で、第2の検出出力が指を離したことの検出であるかどうかを判断する。指を離したことの検出であれば(ステップS2234でYES)、ステップS22341で、タッチ操作はマルチタッチであると判定した後、リターンする。指を離したことの検出でなければ(ステップS2234でNO)、ステップS2231に戻る。 If it is determined in step S2233 that the second detection output is not rotation detection (NO in step S2233), it is determined in step S2234 whether the second detection output is a detection that a finger has been released. If it is detected that the finger has been released (YES in step S2234), the process returns to step S22341 after determining that the touch operation is multi-touch. If it is not detected that the finger has been released (NO in step S2234), the process returns to step S2231.
ステップS223で、第1の検出出力がマルチタッチでなければ(ステップS223でNO)、ステップS224で、タッチ操作はその他の操作と判定してリターンする。この場合は、図2のステップS12において登録された操作種別でないと判断される。 If the first detection output is not multi-touch in step S223 (NO in step S223), the touch operation is determined as another operation in step S224, and the process returns. In this case, it is determined that the operation type is not registered in step S12 of FIG.
図6は、タッチパネルへのタッチ操作がなされたときに表示部171に表示されている画面の種別と、音声入力されるキーワードとに対応付けて、予め設定された動作を示すテーブルである。
FIG. 6 is a table showing operations set in advance in association with the type of screen displayed on the
図6に示す例では、画面種別が「コピー画面」「スキャン画面」「ボックス画面」「ブラウザ画面」であり、音声入力されたキーワードが「始め」「最後」「1」「2」「200%」である場合が例示されている。この例では、タッチ操作の種別による関連付けは、なされていない。 In the example shown in FIG. 6, the screen types are “copy screen”, “scan screen”, “box screen”, and “browser screen”, and the keywords input by voice are “start”, “last”, “1”, “2”, and “200%”. Is illustrated. In this example, the association by the type of touch operation is not made.
例えば、表示部171にコピー画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「始め」という音声を入力すると、CPU11は図6のテーブルに基づいて、表示部171の画面をトップ画面に遷移させる。また、表示部171にブラウザ画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「始め」という音声を入力すると、表示部171の画面をページの先頭に移動させる。
For example, when the user touches an arbitrary area of the touch panel and inputs a voice “start” while the copy screen is displayed on the
同様に、表示部171にコピー画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「1」という音声を入力すると、コピー部数を1に設定する。また、表示部171にブラウザ画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「200%」という音声を入力すると、表示部171の画面表示を200%に拡大する。
Similarly, when the user touches an arbitrary area of the touch panel and inputs a sound “1” in a state where the copy screen is displayed on the
なお、画面種別とキーワードの組み合わせによっては、受け付けないキーワードが存在する。たとえば、表示部171にコピー画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「最後」という音声を入力しても受け付けられず、表示部171の画面はそのままの状態を維持する。
Note that some keywords are not accepted depending on the combination of screen type and keyword. For example, when a copy screen is displayed on the
上記のようなキーワードは、各画面種別毎にまとめられて第2の辞書に格納されている。例えば、コピー画面に関係するキーワードは第2の辞書のパターンAに、スキャン画面に関係するキーワードは第2の辞書のパターンBに、ボックス画面に関係するキーワードは第2の辞書のパターンCに、ブラウザ画面に関係するキーワードは第2の辞書のパターンDに、それ以外の画面に関係するキーワードはパターンEにそれぞれ格納されている。そして、CPU11は画面の種別を判断すると、第2の辞書におけるその画面に関係するパターンに絞り込んで音声入力されたキーワードを検索し、画面種別とキーワードに対応付けされた動作を特定し、実行するものとなされている。
The keywords as described above are stored for each screen type and stored in the second dictionary. For example, the keyword related to the copy screen is the pattern A of the second dictionary, the keyword related to the scan screen is the pattern B of the second dictionary, the keyword related to the box screen is the pattern C of the second dictionary, Keywords related to the browser screen are stored in pattern D of the second dictionary, and keywords related to other screens are stored in pattern E. When the
また、「コピー画面」「スキャン画面」「ボックス画面」「ブラウザ画面」の各画面には、1個または複数の下位層の画面が存在し、各下位層の画面についても各キーワードと対応付けられた動作が設定されている。 In addition, each screen of the “copy screen”, “scan screen”, “box screen”, and “browser screen” has one or more lower layer screens, and each lower layer screen is also associated with each keyword. Is set.
例えば、図7に示すように、スキャン画面の下位層の画面である「宛先選択画面」「サムネイル表示画面」と、「1」「2」等のキーワードとに対応付けられて、各動作が設定されている。図7の例では、宛先選択画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「1」「2」をそれぞれ音声入力すると、それぞれ1番目、2番目の宛先が選択される。また、サムネイル表示画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「1」「2」をそれぞれ音声入力すると、それぞれ1ページ目、2ページ目が表示される。 For example, as shown in FIG. 7, each operation is set in association with keywords such as “destination selection screen”, “thumbnail display screen” and “1”, “2”, etc., which are lower layer screens of the scan screen. Has been. In the example of FIG. 7, when the user touches an arbitrary area of the touch panel and inputs “1” and “2” by voice while the destination selection screen is displayed, the first and second destinations respectively. Is selected. In addition, when the user touches an arbitrary area of the touch panel and inputs “1” and “2” by voice while the thumbnail display screen is displayed, the first page and the second page are displayed, respectively. .
図8は、タッチパネルにおけるタッチ操作の位置とキーワードとに対応付けて、予め設定された動作を示すテーブルである。 FIG. 8 is a table showing operations set in advance in association with touch operation positions and keywords on the touch panel.
図8に示す例では、タッチ操作の位置(検出位置)がキー及びサムネイルの表示部位であり、音声入力されたキーワードが「1」「2」である場合が例示されている。 In the example illustrated in FIG. 8, a case where the touch operation position (detection position) is a display portion of a key and a thumbnail, and the voice input keywords are “1” and “2” is illustrated.
例えば、ユーザがタッチパネルのサムネイルの表示位置をタッチ操作して、「1」または「2」という音声を入力すると、CPU11は図8のテーブルに基づいて、1ページ目または2ページ目をそれぞれ表示する。この場合も、タッチ操作の種別による関連付けは、なされていない。
For example, when the user touches the display position of the thumbnail on the touch panel and inputs the sound “1” or “2”, the
また、タッチした位置とキーワードの組み合わせによっては、受け付けないキーワードが存在する。たとえば、ユーザがタッチパネルのキーの表示位置をタッチ操作して、「1」または「2」という音声を入力しても受け付けられず、表示部171の画面はそのままの状態を維持する。
Depending on the combination of the touched position and the keyword, there are keywords that are not accepted. For example, even if the user touches the display position of the key on the touch panel and inputs a voice of “1” or “2”, it is not accepted, and the screen of the
図8の場合も、キーワードは、各タッチ位置毎にまとめられて第2の辞書に格納されている。例えば、キーの位置に関係するキーワードは第2の辞書のパターンaに、サムネイルの位置に関係するキーワードは第2の辞書のパターンbに、ページ送り可能な画面位置に関係するキーワードは第2の辞書のパターンcに、それ以外の位置に関係するキーワードはパターンdにそれぞれ格納されている。そして、CPU11は表示画面におけるタッチした位置を判断すると、第2の辞書のそのタッチ位置に関係するパターンに絞り込んで音声入力されたキーワードを検索し、タッチした位置とキーワードに対応付けされた動作を特定し、実行するものとなされている。
In the case of FIG. 8 as well, the keywords are collected for each touch position and stored in the second dictionary. For example, a keyword related to the key position is the pattern a of the second dictionary, a keyword related to the thumbnail position is the pattern b of the second dictionary, and a keyword related to the page position that can be paged is the second dictionary. Keywords related to positions other than the dictionary pattern c are stored in the pattern d. When the
図9は、タッチパネルへのタッチ操作の種別と、音声入力されたキーワードとに対応付けて、予め設定された動作を示すテーブルである。 FIG. 9 is a table showing operations set in advance in association with types of touch operations on the touch panel and keywords input by voice.
図9に示す例では、タッチ操作種別がフリック、ピンチイン、ローテーションであり、音声入力されたキーワードが「1」「2」「50%」「90度」である場合が例示されている。 In the example illustrated in FIG. 9, a case where the touch operation type is flick, pinch-in, and rotation and the keyword input by voice is “1”, “2”, “50%”, and “90 degrees” is illustrated.
例えば、ユーザがスキャン画面の下位層画面である宛先選択画面が表示されている状態で、タッチパネルの任意の領域をフリック操作して、「1」または「2」という音声を入力すると、CPU11は図9のテーブルに基づいて、第1番目または第2番目の宛先を選択する。また、表示部171にサムネイル画面が表示されている状態で、ユーザがタッチパネルのサムネイル表示領域をローテーションによるタッチ操作を行って、「1」または「2」または「90度」という音声を入力すると、表示部171のサムネイル画面を1度または2度または90度、それぞれ回転方向に回転する。
For example, when the user inputs a voice “1” or “2” by flicking an arbitrary area of the touch panel while the destination selection screen which is a lower layer screen of the scan screen is displayed, the
さらに、ピンチアウト操作を行って、「2倍」または「200%」と音声を入力すると、2倍の大きさに表示され、ピンチイン操作を行って、「1/2」「50%」と音声を入力すると、半分の大きさで表示され、「画面幅」と音声を入力すると、画面の横幅に合わせて表示する等、任意のサイズの指定が可能となる。また、ピンチインまたはピンチアウト操作を行って、「お気に入り」と音声を入力すると、設定されていたお気に入りサイズに表示サイズを変更することもできる。 Furthermore, if a pinch-out operation is performed and “2 ×” or “200%” is input as a voice, it is displayed in double size, and a pinch-in operation is performed and “1/2” “50%” is displayed as a voice. When “” is input, it is displayed in a half size, and when “screen width” and voice are input, it is possible to specify an arbitrary size such as displaying according to the horizontal width of the screen. In addition, by performing a pinch-in or pinch-out operation and inputting “favorite” as a voice, the display size can be changed to the set favorite size.
また、タッチ操作の種別とキーワードの組み合わせによっては、受け付けないキーワードが存在する。たとえば、宛先選択画面が表示されている状態で、タッチパネルの任意の領域をフリック操作して、「50%」または「90度」という音声を入力しても受け付けられず、表示部171の画面はそのままの状態を維持する。
In addition, there are keywords that are not accepted depending on the combination of the type of touch operation and the keyword. For example, when a destination selection screen is displayed, flicking an arbitrary area of the touch panel and inputting a voice of “50%” or “90 degrees” is not accepted, and the screen of the
また、タッチ操作の種別と表示されている画面等に応じて、音声入力の内容が同じでも、実行される動作が異なる。例えば、フリック操作を行って「2」と音声を入力すると、2ページ目が表示されるが、ピンチ操作で「2」と音声で入力すると、2倍の大きさで表示される。また、ページ編集モードの画面で1ページのみ表示している場合に、フリック操作を行って「2」と音声で入力すると、2ページ目に編集中のページを差し込んだり、ピンチ操作を行って「2」と音声入力することにより、編集中のページを2部にしたり、2枚のページを1枚に集約する2in1にしても良い。また、ドラッグ操作を行って、「破棄」と音声入力することで、ゴミ箱へ破棄することも可能である。 Also, depending on the type of touch operation and the displayed screen, even if the content of the voice input is the same, the operation to be executed is different. For example, if a voice is input as “2” by performing a flick operation, the second page is displayed. If a voice is input as “2” by a pinch operation, the second page is displayed. Also, when only one page is displayed on the page edit mode screen, if a flick operation is performed and “2” is input by voice, the page being edited is inserted into the second page or a pinch operation is performed. By inputting “2” as a voice, the page being edited may be divided into two copies, or the two pages may be combined into two in one. In addition, it is possible to discard to the trash box by performing a drag operation and inputting “discard” as a voice.
なお、同じタッチ操作種別であっても、タッチ操作を行った表示画面中の位置に応じて、異なる動作を行わせても良い。例えば、図10(a)に示すように、サムネイルプレビュー画像の表示領域でローテーション操作を行って「90度」と音声入力した場合は、サムネイルプレビュー画像を90度回転させるが、図10(b)に示すように、サムネイルプレビュー画像が表示されている画面中のキー領域でローテーション操作を行って「90度」と音声入力した場合は、これを受け付けることなくそのままの画面を維持する。 Even with the same touch operation type, different operations may be performed according to the position on the display screen where the touch operation is performed. For example, as shown in FIG. 10A, when a rotation operation is performed in the thumbnail preview image display area and “90 degrees” is input as a voice, the thumbnail preview image is rotated by 90 degrees. As shown in FIG. 5, when a rotation operation is performed in the key area in the screen on which the thumbnail preview image is displayed and “90 degrees” is input as a voice, the screen is maintained without being accepted.
1 画像形成装置
11 CPU
12 ROM
14 スキャナ部
15 記憶部
17 操作パネル
171 表示部
19 音声入力部
1
12 ROM
14
Claims (7)
前記表示手段のタッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断手段と、
音声入力手段と、
前記判断手段により、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付手段と、
前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付手段により受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御手段と、
を備えたことを特徴とする入力操作装置。 Display means having a touch panel;
Determining means for determining whether or not a touch operation by a user has been performed on the touch panel of the display means;
Voice input means;
A voice input receiving means for receiving voice input by the voice input means when the judgment means determines that the touch operation has been performed;
At least one of the type of screen displayed on the display unit when the touch operation is performed, the position of the touch operation on the touch panel, the type of touch operation, and the voice received by the voice input receiving unit Control means for executing a preset operation in association with the content of the input;
An input operation device comprising:
前記制御手段は、前記音声入力手段による音声入力の内容が前記記憶手段に記憶されているキーワードと一致するかどうかを判断し、一致する場合に、そのキーワードと前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかに対応付けられた動作を実行する請求項1に記載の入力操作装置。 A storage unit that stores at least one of the type of the screen, the position of the touch operation, the type of the touch operation, the keyword, and the operation content in association with each other;
The control means determines whether or not the content of the voice input by the voice input means matches the keyword stored in the storage means, and if it matches, the keyword and the type of the screen, the position of the touch operation The input operation device according to claim 1, wherein an operation associated with at least one of the types of touch operations is executed.
前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、
前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、
前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、
を備えたことを特徴とする入力操作方法。 An input operation method for an image forming apparatus including a display unit having a touch panel and a voice input unit,
A determination step of determining whether a touch operation by the user has been performed on the touch panel;
In the determination step, when it is determined that the touch operation has been performed, a voice input reception step of receiving a voice input by the voice input unit;
At least one of the type of screen displayed on the display means when the touch operation is performed, the position of the touch operation on the touch panel, the type of touch operation, and the voice received in the voice input receiving step A control step for executing a preset operation in association with the content of the input;
An input operation method characterized by comprising:
前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、
前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、
前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、
を前記コンピュータに実行させる入力操作プログラム。 An input operation program for causing a computer of an image forming apparatus including a display unit having a touch panel and a voice input unit to execute the program,
A determination step of determining whether a touch operation by the user has been performed on the touch panel;
In the determination step, when it is determined that the touch operation has been performed, a voice input reception step of receiving a voice input by the voice input unit;
At least one of the type of screen displayed on the display means when the touch operation is performed, the position of the touch operation on the touch panel, the type of touch operation, and the voice received in the voice input receiving step A control step for executing a preset operation in association with the content of the input;
An input operation program for causing the computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012091455A JP2013222229A (en) | 2012-04-12 | 2012-04-12 | Input operation device, image forming apparatus including the device, input operation method, and input operation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012091455A JP2013222229A (en) | 2012-04-12 | 2012-04-12 | Input operation device, image forming apparatus including the device, input operation method, and input operation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013222229A true JP2013222229A (en) | 2013-10-28 |
Family
ID=49593172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012091455A Pending JP2013222229A (en) | 2012-04-12 | 2012-04-12 | Input operation device, image forming apparatus including the device, input operation method, and input operation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013222229A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015084233A (en) * | 2006-09-06 | 2015-04-30 | アップル インコーポレイテッド | Portable electronic devices that perform similar actions for different gestures |
US9661165B2 (en) | 2013-11-27 | 2017-05-23 | Konica Minolta, Inc. | Image forming apparatus with playback mode, display method for an operation screen, and computer program |
KR101741691B1 (en) * | 2015-06-30 | 2017-05-30 | 현대자동차주식회사 | Vehicle and method of controlling the same |
US9690446B2 (en) | 2006-09-06 | 2017-06-27 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
CN111510569A (en) * | 2019-01-30 | 2020-08-07 | 夏普株式会社 | Image forming system, image forming apparatus, image forming method, and recording medium |
JP2020166729A (en) * | 2019-03-29 | 2020-10-08 | 京セラドキュメントソリューションズ株式会社 | Display control device, display control method, and display control program |
CN112055126A (en) * | 2019-06-07 | 2020-12-08 | 佳能株式会社 | Information processing system, information processing apparatus, and information processing method |
JP2021013099A (en) * | 2019-07-05 | 2021-02-04 | コニカミノルタ株式会社 | Image forming apparatus, control method for image forming apparatus, and control program for image forming apparatus |
JP2021018787A (en) * | 2019-07-22 | 2021-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing method and information processing system |
US11023122B2 (en) | 2006-09-06 | 2021-06-01 | Apple Inc. | Video manager for portable multifunction device |
JP2021113886A (en) * | 2020-01-17 | 2021-08-05 | コニカミノルタ株式会社 | Image forming apparatus, display control method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11184669A (en) * | 1997-12-24 | 1999-07-09 | Sharp Corp | Information processing apparatus, information processing method, and medium storing information processing apparatus control program |
JP2003076389A (en) * | 2001-07-07 | 2003-03-14 | Samsung Electronics Co Ltd | Information terminal whose operation is controlled through touch screen or voice recognition and command execution method thereof |
JP2004048352A (en) * | 2002-07-11 | 2004-02-12 | Denso Corp | Communication system and information communication method |
JP2004102632A (en) * | 2002-09-09 | 2004-04-02 | Ricoh Co Ltd | Voice recognition device and image processing device |
JP2006086755A (en) * | 2004-09-15 | 2006-03-30 | Ricoh Co Ltd | Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system |
WO2006137246A1 (en) * | 2005-06-21 | 2006-12-28 | Pioneer Corporation | Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium |
-
2012
- 2012-04-12 JP JP2012091455A patent/JP2013222229A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11184669A (en) * | 1997-12-24 | 1999-07-09 | Sharp Corp | Information processing apparatus, information processing method, and medium storing information processing apparatus control program |
JP2003076389A (en) * | 2001-07-07 | 2003-03-14 | Samsung Electronics Co Ltd | Information terminal whose operation is controlled through touch screen or voice recognition and command execution method thereof |
JP2004048352A (en) * | 2002-07-11 | 2004-02-12 | Denso Corp | Communication system and information communication method |
JP2004102632A (en) * | 2002-09-09 | 2004-04-02 | Ricoh Co Ltd | Voice recognition device and image processing device |
JP2006086755A (en) * | 2004-09-15 | 2006-03-30 | Ricoh Co Ltd | Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system |
WO2006137246A1 (en) * | 2005-06-21 | 2006-12-28 | Pioneer Corporation | Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11023122B2 (en) | 2006-09-06 | 2021-06-01 | Apple Inc. | Video manager for portable multifunction device |
US12204747B2 (en) | 2006-09-06 | 2025-01-21 | Apple Inc. | Portable electronic device performing window operations with gestures on a touchscreen |
JP2015084233A (en) * | 2006-09-06 | 2015-04-30 | アップル インコーポレイテッド | Portable electronic devices that perform similar actions for different gestures |
US9690446B2 (en) | 2006-09-06 | 2017-06-27 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US9927970B2 (en) | 2006-09-06 | 2018-03-27 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US10222977B2 (en) | 2006-09-06 | 2019-03-05 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US10228815B2 (en) | 2006-09-06 | 2019-03-12 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US10656778B2 (en) | 2006-09-06 | 2020-05-19 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US11106326B2 (en) | 2006-09-06 | 2021-08-31 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US11481106B2 (en) | 2006-09-06 | 2022-10-25 | Apple Inc. | Video manager for portable multifunction device |
US10838617B2 (en) | 2006-09-06 | 2020-11-17 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US12189913B2 (en) | 2006-09-06 | 2025-01-07 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US11921969B2 (en) | 2006-09-06 | 2024-03-05 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US11592952B2 (en) | 2006-09-06 | 2023-02-28 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US11481112B2 (en) | 2006-09-06 | 2022-10-25 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US9661165B2 (en) | 2013-11-27 | 2017-05-23 | Konica Minolta, Inc. | Image forming apparatus with playback mode, display method for an operation screen, and computer program |
KR101741691B1 (en) * | 2015-06-30 | 2017-05-30 | 현대자동차주식회사 | Vehicle and method of controlling the same |
CN111510569A (en) * | 2019-01-30 | 2020-08-07 | 夏普株式会社 | Image forming system, image forming apparatus, image forming method, and recording medium |
JP7268449B2 (en) | 2019-03-29 | 2023-05-08 | 京セラドキュメントソリューションズ株式会社 | Display control device, display control method, and display control program |
JP2020166729A (en) * | 2019-03-29 | 2020-10-08 | 京セラドキュメントソリューションズ株式会社 | Display control device, display control method, and display control program |
CN112055126B (en) * | 2019-06-07 | 2022-08-19 | 佳能株式会社 | Information processing system, information processing apparatus, and information processing method |
US11838459B2 (en) | 2019-06-07 | 2023-12-05 | Canon Kabushiki Kaisha | Information processing system, information processing apparatus, and information processing method |
CN112055126A (en) * | 2019-06-07 | 2020-12-08 | 佳能株式会社 | Information processing system, information processing apparatus, and information processing method |
JP7334510B2 (en) | 2019-07-05 | 2023-08-29 | コニカミノルタ株式会社 | IMAGE FORMING APPARATUS, IMAGE FORMING APPARATUS CONTROL METHOD, AND IMAGE FORMING APPARATUS CONTROL PROGRAM |
JP2021013099A (en) * | 2019-07-05 | 2021-02-04 | コニカミノルタ株式会社 | Image forming apparatus, control method for image forming apparatus, and control program for image forming apparatus |
JP2021018787A (en) * | 2019-07-22 | 2021-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing method and information processing system |
JP7535845B2 (en) | 2019-07-22 | 2024-08-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing method and information processing system |
JP2021113886A (en) * | 2020-01-17 | 2021-08-05 | コニカミノルタ株式会社 | Image forming apparatus, display control method, and program |
JP7392486B2 (en) | 2020-01-17 | 2023-12-06 | コニカミノルタ株式会社 | Image forming device, display control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013222229A (en) | Input operation device, image forming apparatus including the device, input operation method, and input operation program | |
JP6138866B2 (en) | Device, method and graphical user interface for document manipulation | |
RU2610290C2 (en) | Information processing device, information processing method and related program | |
HK1141941A2 (en) | List scrolling and document translation, scaling, and rotation on a touch-screen display | |
JP6840571B2 (en) | Image processing device, control method of image processing device, and program | |
US10228843B2 (en) | Image processing apparatus, method of controlling image processing apparatus, and recording medium | |
US9001368B2 (en) | Image processing apparatus, operation standardization method, and non-transitory computer-readable recording medium encoded with operation standardization program with an application program that supports both a touch panel capable of detecting only one position and a touch panel capable of detecting a plurality of positions simultaneously | |
JP6003939B2 (en) | Image processing linkage system and linkage method, portable terminal device, and image processing linkage program | |
JP2016126657A (en) | Information processing device, method for controlling information processing device, and program | |
JP6004868B2 (en) | Information processing apparatus, information processing method, and program | |
US8982397B2 (en) | Image processing device, non-transitory computer readable recording medium and operational event determining method | |
US9049323B2 (en) | Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with content displaying program | |
JP5268966B2 (en) | Display control apparatus, image forming apparatus, display control method, and display control program | |
JP2015103161A (en) | Image formation device, display method of operation screen, and computer program | |
JP2025036535A (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD FOR IMAGE PROCESSING APPARATUS, AND PROGRAM | |
JP2015007856A (en) | INPUT DEVICE, IMAGE READING DEVICE, IMAGE FORMING DEVICE, INPUT METHOD, AND PROGRAM | |
JP6562006B2 (en) | Display device, display method, and program | |
JP7114678B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM | |
JP6372116B2 (en) | Display processing apparatus, screen display method, and computer program | |
CN104935774A (en) | Information processing device and control method thereof | |
JP6380338B2 (en) | Display input device and image forming apparatus having the same | |
JP2013164659A (en) | Image processing apparatus, method for controlling image processing apparatus, and program | |
JP2013077231A (en) | Display method of document data, display device of portable terminal | |
JP2018120479A (en) | Display unit, display method, and program | |
JP2012058996A (en) | Display processor and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160524 |