[go: up one dir, main page]

JP2013222229A - Input operation device, image forming apparatus including the device, input operation method, and input operation program - Google Patents

Input operation device, image forming apparatus including the device, input operation method, and input operation program Download PDF

Info

Publication number
JP2013222229A
JP2013222229A JP2012091455A JP2012091455A JP2013222229A JP 2013222229 A JP2013222229 A JP 2013222229A JP 2012091455 A JP2012091455 A JP 2012091455A JP 2012091455 A JP2012091455 A JP 2012091455A JP 2013222229 A JP2013222229 A JP 2013222229A
Authority
JP
Japan
Prior art keywords
touch
input
voice input
touch operation
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012091455A
Other languages
Japanese (ja)
Inventor
Kei Shigehisa
慶 重久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012091455A priority Critical patent/JP2013222229A/en
Publication of JP2013222229A publication Critical patent/JP2013222229A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input operation device that reduces the number of operation steps by eliminating the need of operations such as depression of a voice recognition key and preliminary level settings, and allows intuitive operation to improve operability.SOLUTION: An input operation device performs an operation set in advance by associating the operation with any of the type of a screen that is displayed on display means 171 when a touch operation is made on a touch panel, a position of the touch operation on the touch panel, and the type of the touch operation, and the content of voice input received by voice input reception means 11.

Description

この発明は、画像形成装置の操作パネル等に使用され、ユーザが入力操作を行うための入力操作装置、該装置を備えた画像形成装置、入力操作方法及び入力操作プログラムに関する。   The present invention relates to an input operation device used for an operation panel or the like of an image forming apparatus for a user to perform an input operation, an image forming apparatus including the apparatus, an input operation method, and an input operation program.

直感的な操作を可能にするスマートフォン、タブレットPC等の普及に伴い、種々の装置で直感的な操作性が求められている。代表的な操作例として、マルチタッチ操作と呼ばれるフリックやピンチなどがある。   With the widespread use of smartphones, tablet PCs, and the like that enable intuitive operation, intuitive operability is required for various devices. Typical examples of operations include flicks and pinches called multi-touch operations.

画像形成装置等において、保存された文書をプレビュー表示する際に、前記フリック操作でページ送りしていく場合、基本的には1ページずつのページ送りであり、瞬時に任意のページに行きたい場合は、あらかじめ設定が必要であったり、ページ表示のバー表示が必要となり、表示領域が狭められたりするという問題がある。また、ピンチイン/ピンチアウトして、表示を縮小/拡大する際に、一度に最適な大きさに調整するのは難しく、ブリックと同様にレベル設定のキーが必要で表示が狭められるという問題もある。   When previewing a saved document in an image forming apparatus or the like, when the page is fed by the flick operation, the page is basically page-by-page, and an arbitrary page is desired to be instantaneously accessed. However, there is a problem that a setting is required in advance or a bar display of page display is necessary, and the display area is narrowed. Also, when pinching in / out and reducing / enlarging the display, it is difficult to adjust to the optimum size at once, and there is a problem that the level setting key is required and the display is narrowed like the brick. .

また、基本的にマルチタッチ操作をして、レベル設定やページ指定などの追加要望を実現しようとすると、第1の操作で指がふさがっているため、その後の追加操作が必要となり、2ステップ以上の操作が必要となってしまうという問題もある。   Also, basically, if you try to realize additional requests such as level setting and page designation by performing multi-touch operation, your finger is blocked in the first operation, so additional operation is required after that, and more than 2 steps There is also a problem that this operation becomes necessary.

一方、音声認識による操作も直観的に操作可能な操作方法の一つである。音声認識においては、終始音声認識処理を実行していると、CPUを占有してしまい、他の処理が重くなってしまう。   On the other hand, operation by voice recognition is one of the operation methods that can be intuitively operated. In speech recognition, if speech recognition processing is executed from beginning to end, the CPU is occupied, and other processing becomes heavy.

音声認識による操作の上述の問題を解決するために、特許文献1に記載されているように、音声認識キーを押して音声入力を受付可能にした状態で、音声を入力するのが一般的であり、音声認識キーを押した後であれば、指での操作をしなくても音声にて直観的な操作が可能となる。   In order to solve the above-described problem of operation by voice recognition, as described in Patent Document 1, it is common to input voice in a state in which voice input can be accepted by pressing a voice recognition key. After the voice recognition key is pressed, an intuitive operation can be performed by voice without performing a finger operation.

特開2006−167961号公報JP 2006-167916 A

しかしながら、音声入力前に事前に音声認識キーを押す必要があることから、ワンステップ操作が増えてしまうという課題がある。また、音声認識と指での直観的操作を組み合わせることも考えられるが、この場合も、音声認識キーを押したのちに音声入力し、レベル設定など具体的な数値を入力しておいて、指での操作をするといった操作になり、同様に操作ステップが多くなり、直観的な操作とは言えず、操作性が良くないという課題がある。   However, since it is necessary to press the voice recognition key before voice input, there is a problem that one-step operation increases. It is also possible to combine voice recognition with intuitive operation with a finger. In this case, too, after pressing the voice recognition key, voice input is performed, and specific numerical values such as level settings are input. There is a problem that the number of operation steps is similarly increased, and it is not an intuitive operation, and the operability is not good.

この発明は、このような技術的背景に鑑みてなされたものであって、音声認識キーの押下や事前のレベル設定等の操作を不要にして操作ステップ数を少なくし、直感的な操作を可能にして操作性を向上した入力操作装置を提供し、さらには該装置を備えた画像形成装置、入力操作方法及び入力操作プログラムを提供することを課題とする。   The present invention has been made in view of such a technical background, and does not require operations such as pressing a voice recognition key or setting a level in advance, thereby reducing the number of operation steps and enabling an intuitive operation. It is an object of the present invention to provide an input operation device with improved operability, and to provide an image forming apparatus, an input operation method, and an input operation program including the device.

上記課題は、以下の手段によって解決される。
(1)タッチパネルを有する表示手段と、前記表示手段のタッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断手段と、音声入力手段と、前記判断手段により、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付手段と、前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付手段により受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御手段と、を備えたことを特徴とする入力操作装置。
(2)前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、キーワードと、動作内容とが関連付けて記憶された記憶手段を備え、前記制御手段は、前記音声入力手段による音声入力の内容が前記記憶手段に記憶されているキーワードと一致するかどうかを判断し、一致する場合に、そのキーワードと前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかに対応付けられた動作を実行する前項1に記載の入力操作装置。
(3)前記タッチ操作の種別は、タッチパネルに軽くタッチした状態で指を弾く動作であるフリックか、タッチパネルに軽くタッチした状態で指を滑らせる動作であるドラッグか、タッチパネルを指でたたく動作であるタップか、2回指でたたく動作であるダブルタップか、タッチパネルにマルチタッチして指を中心に向かって縮めるまたは広げる方向に滑らせる動作であるピンチイン/ピンチアウトか、タッチパネルにマルチタッチして、片方の指または両方の指の中心位置を中心として回転させる動作であるローテーションか、タッチパネルに軽くタッチした状態で指を滑らせ目的の場所で指を離す動作であるドラッグアンドドロップ、のうちの少なくともいずれかである前項1または2に記載の入力操作装置。
(4)前記音声入力受付手段は、タッチ操作の終了後、予め設定された時間まで音声入力を受け付ける前項1〜3のいずれかに記載の入力操作装置。
(5)前項1〜4のいずれかに記載の入力操作装置を備えた画像形成装置。
(6)タッチパネルを有する表示手段と、音声入力手段とを備えた画像形成装置の入力操作方法であって、前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、を備えたことを特徴とする入力操作方法。
(7)タッチパネルを有する表示手段と、音声入力手段とを備えた画像形成装置のコンピュータに実行させるための入力操作プログラムであって、前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、を前記コンピュータに実行させる入力操作プログラム。
The above problem is solved by the following means.
(1) It is determined that the touch operation is performed by a display unit having a touch panel, a determination unit that determines whether or not a touch operation is performed by a user on the touch panel of the display unit, a voice input unit, and the determination unit. The voice input receiving means for receiving voice input by the voice input means; the type of screen displayed on the display means when the touch operation is performed; the position of the touch operation on the touch panel; An input operation device comprising: control means for executing a preset operation in association with at least one of the types and the content of the voice input received by the voice input receiving means.
(2) Storage means in which at least one of the screen type, the position of the touch operation, the type of touch operation, the keyword, and the operation content are associated and stored, and the control means includes the voice input means It is determined whether or not the content of the voice input by the word matches the keyword stored in the storage means, and if it matches, at least one of the keyword and the type of the screen, the position of the touch operation, the type of the touch operation 2. The input operation device according to item 1, wherein the operation associated with any one of the operations is executed.
(3) The type of touch operation may be flicking with a finger while touching the touch panel lightly, dragging with a finger sliding with a light touch on the touch panel, or touching the touch panel with a finger. A tap, a double tap that is a double-tapping operation with a finger, a multi-touch operation on the touch panel, and a pinch-in / pinch-out operation that slides the finger toward or away from the center. Rotation, which is the action of rotating around the center position of one or both fingers, or drag and drop, which is an action of sliding the finger with the touch panel lightly touched and releasing the finger at the target location 3. The input operation device according to item 1 or 2, which is at least one of them.
(4) The input operation device according to any one of the preceding items 1 to 3, wherein the voice input reception unit receives voice input until a preset time after the touch operation is completed.
(5) An image forming apparatus comprising the input operation device according to any one of items 1 to 4.
(6) An input operation method of an image forming apparatus including a display unit having a touch panel and a voice input unit, wherein a determination step of determining whether or not a touch operation is performed by a user on the touch panel; and the determination step The voice input receiving step for receiving voice input by the voice input means, the type of screen displayed on the display means when the touch operation is made, and the touch panel A control step of executing a preset operation in association with at least one of the position of the touch operation and the type of touch operation and the content of the voice input received in the voice input reception step. An input operation method characterized by that.
(7) An input operation program for causing a computer of an image forming apparatus including a display unit having a touch panel and an audio input unit to execute, and determining whether a touch operation by a user has been performed on the touch panel A voice input accepting step for accepting voice input by the voice input means when the touch operation is judged to have been displayed on the display means when the touch operation is made. Executes a preset operation in association with at least one of the type of screen, the position of the touch operation on the touch panel, the type of touch operation, and the contents of the voice input received in the voice input receiving step. And an input operation program for causing the computer to execute a control step. Lamb.

前項(1)に記載の発明によれば、タッチ操作がなされたと判断された場合、音声入力手段による音声入力が受け付けられるとともに、前記タッチ操作がなされたときに表示手段に表示されていた画面の種別、タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付手段により受け付けられた音声入力の内容とに対応して予め設定された動作が実行される。   According to the invention described in (1) above, when it is determined that a touch operation has been performed, voice input by the voice input unit is accepted, and the screen displayed on the display unit when the touch operation is performed is displayed. A preset operation is executed corresponding to at least one of the type, the position of the touch operation on the touch panel, the type of the touch operation, and the content of the voice input received by the voice input receiving unit.

従って、ユーザは、従来のように音声認識キーを押すことなく、表示手段のタッチパネルにおけるタッチ検出領域にタッチすると同時に音声を入力することで、動作を実行させることができるから、音声認識キーの押下や事前のレベル設定等の操作を不要にでき、操作ステップ数を少なくでき、直感的な操作が可能となり、操作性を向上することができる。   Therefore, since the user can execute the operation by touching the touch detection area on the touch panel of the display means and inputting the voice at the same time without pressing the voice recognition key as in the past, the user can press the voice recognition key. In addition, operations such as level setting and the like can be made unnecessary, the number of operation steps can be reduced, intuitive operation can be performed, and operability can be improved.

前項(2)に記載の発明によれば、音声入力手段による音声入力の内容が前記記憶手段に記憶されているキーワードと一致するかどうかが判断され、一致する場合に、そのキーワードと画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと対応付けられた動作が実行される。   According to the invention described in item (2) above, it is determined whether or not the content of the voice input by the voice input means matches the keyword stored in the storage means. Then, an operation associated with at least one of the position of the touch operation and the type of the touch operation is executed.

前項(3)に記載の発明によれば、フリック、ドラッグ、タップ、ダブルタップ、ピンチイン/ピンチアウト、ローテーション、ドラッグアンドドロップのうちの少なくともいずれかのタッチ操作に基づいて、動作が実行される。   According to the invention described in (3), the operation is executed based on at least one of the touch operations of flick, drag, tap, double tap, pinch in / pinch out, rotation, and drag and drop.

前項(4)に記載の発明によれば、タッチ操作の終了後、予め設定された時間まで音声入力が受け付けられるから、音声入力がタッチ操作よりも多少遅れても、確実に音声入力が受け付けられる。   According to the invention described in (4) above, since the voice input is accepted until a preset time after the touch operation is finished, the voice input is surely accepted even if the voice input is somewhat delayed from the touch operation. .

前項(5)に記載の発明によれば、操作ステップ数を少なくでき、直感的な操作が可能で、操作性を向上できる画像形成装置となし得る。   According to the invention described in item (5), the number of operation steps can be reduced, an intuitive operation is possible, and an image forming apparatus that can improve operability can be obtained.

前項(6)に記載の発明によれば、音声認識キーの押下や事前のレベル設定等の操作を不要にでき、操作ステップ数を少なくでき、画像形成装置の直感的な操作が可能となり、操作性を向上することができる。   According to the invention described in item (6) above, operations such as pressing of a voice recognition key and prior level setting can be eliminated, the number of operation steps can be reduced, and an intuitive operation of the image forming apparatus can be performed. Can be improved.

前項(7)に記載の発明によれば、タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断し、タッチ操作がなされたと判断された場合、音声入力手段による音声入力を受け付けるとともに、タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する処理を、画像形成装置のコンピュータに実行させることができる。   According to the invention described in the preceding item (7), it is determined whether or not a touch operation has been performed by the user on the touch panel. When it is determined that the touch operation has been performed, the voice input by the voice input unit is accepted and the touch operation is performed. In association with at least one of the type of the screen displayed on the display means when it is made, the position of the touch operation on the touch panel, the type of the touch operation, and the content of the received voice input in advance It is possible to cause the computer of the image forming apparatus to execute processing for executing the set operation.

この発明の一実施形態に係る入力操作装置を備えた画像形成装置のブロック図である。1 is a block diagram of an image forming apparatus including an input operation device according to an embodiment of the present invention. 画像形成装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image forming apparatus. タッチ操作の開始及び終了タイミングと音声入力受付期間との関係を示す図である。It is a figure which shows the relationship between the start and completion | finish timing of a touch operation, and an audio | voice input reception period. 図3のステップS111におけるタッチ操作の種別判定処理を示すフローチャートである。It is a flowchart which shows the type determination process of the touch operation in step S111 of FIG. タッチ操作の種別説明図である。It is a type explanatory view of touch operation. タッチパネルへのタッチ操作がなされたときに表示部に表示されている画面の種別と、音声入力されたキーワードとに対応付けて、予め設定された動作を示すテーブルである。It is a table which shows the operation | movement preset by matching with the classification of the screen currently displayed on the display part when the touch operation to the touch panel was made, and the keyword input by voice. 図6のテーブルに示された1つの画面の下位層の画面について、その種別と音声入力されたキーワードとに対応付けて予め設定された動作を示すテーブルである。FIG. 7 is a table showing operations preset for the lower layer screen of one screen shown in the table of FIG. 6 in association with the type and the keyword input by voice. FIG. タッチパネルへのタッチ操作がなされたときのタッチ操作の位置と、音声入力されたキーワードとに対応付けて、予め設定された動作を示すテーブルである。It is a table which shows a preset operation in association with a position of a touch operation when a touch operation on the touch panel is performed and a keyword input by voice. タッチパネルへのタッチ操作の種別と、音声入力されたキーワードとに対応付けて、予め設定された動作を示すテーブルである。It is a table which shows the operation | movement set beforehand matched with the classification of the touch operation to a touchscreen, and the keyword input by voice. 同じタッチ操作種別であっても、タッチ操作を行った表示画面中の位置に応じて、異なる動作を行わせる場合の説明図である。It is explanatory drawing in the case of performing different operation | movement according to the position in the display screen which performed the touch operation even if it is the same touch operation classification.

以下、この発明の実施形態を図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、この発明の一実施形態に係る入力操作装置を備えた画像形成装置1を示すブロック図である。   FIG. 1 is a block diagram illustrating an image forming apparatus 1 including an input operation device according to an embodiment of the present invention.

画像形成装置1は、この実施形態では、コピー機能、プリンタ機能、ファクシミリ機能、スキャン機能等の複数の機能を複合した多機能デジタル画像形成装置であるMFP(Multi Function Peripherals)が用いられている。以下の説明では、画像形成装置をMFPともいう。   In this embodiment, the image forming apparatus 1 uses an MFP (Multi Function Peripherals) which is a multifunction digital image forming apparatus that combines a plurality of functions such as a copy function, a printer function, a facsimile function, and a scan function. In the following description, the image forming apparatus is also referred to as an MFP.

MFP1は、CPU11と、ROM12と、RAM13と、スキャナ部14と、記憶部15と、プリンタ部16と、操作パネル17と、ネットワークコントローラ18と、音声入力部19等を備えている。   The MFP 1 includes a CPU 11, a ROM 12, a RAM 13, a scanner unit 14, a storage unit 15, a printer unit 16, an operation panel 17, a network controller 18, a voice input unit 19, and the like.

前記CPU11は、MFP1の全体を統括的に制御し、コピー機能、プリンタ機能、ファクシミリ機能、スキャン機能等の各機能を使用可能とするものである。さらにこの実施形態では、操作パネル17のタッチパネルをユーザがタッチ操作したことを操作パネルからの情報に基づいて検出し、音声入力部による音声入力を受付可能にしたり、受け付けられた音声入力に対して音声認識処理を実行したり、タッチ操作がなされたときに前記操作パネル17に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別等を判断し、これらのうちの予め設定された少なくともいずれかと、前記音声入力の内容とに基づいて、予め設定された動作を実行したり、操作パネル17の画面を別の画面に切り替える等の処理を実行するが、詳細な説明は後述する。   The CPU 11 controls the entire MFP 1 in an integrated manner so that functions such as a copy function, a printer function, a facsimile function, and a scan function can be used. Further, in this embodiment, it is detected based on information from the operation panel that the user has touched the touch panel of the operation panel 17, and the voice input by the voice input unit can be accepted, or the received voice input can be received. The type of the screen displayed on the operation panel 17 when the voice recognition process is performed or the touch operation is performed, the position of the touch operation on the touch panel, the type of the touch operation, and the like are determined. Based on at least one set in advance and the content of the voice input, processing such as executing a preset operation or switching the screen of the operation panel 17 to another screen is executed. Will be described later.

前記ROM12は、前記CPU11の動作プログラム等が格納されているメモリであり、RAM13は、前記CPU11が動作プログラムに従って動作する際の作業領域を提供するメモリである。   The ROM 12 is a memory that stores an operation program of the CPU 11, and the RAM 13 is a memory that provides a work area when the CPU 11 operates according to the operation program.

前記スキャナ部14は、用紙等に記載された原稿の画像を読み取って、電子データである画像データに変換する読み取り手段として機能する。このスキャナ部15は、図示は省略したが複数の原稿を読み取り位置まで自動搬送する自動原稿搬送装置(ADF)を備えていても良い。   The scanner unit 14 functions as a reading unit that reads an image of a document written on a sheet or the like and converts it into image data that is electronic data. Although not shown, the scanner unit 15 may include an automatic document feeder (ADF) that automatically conveys a plurality of documents to a reading position.

前記記憶部15は、スキャナ部15により読み取られた画像データやその他のデータ、アプリケーション等を保存するメモリであり、例えばハードディスク装置が用いられている。また、この実施形態では、多数のキーワードを有する第1の辞書と、この第1の辞書に存在するキーワードをさらに絞り込んだ第2の辞書が記憶され、さらにはタッチ操作の種別等が登録されている。また、前記操作パネル17に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記第2の辞書に記憶されているキーワードとに対応付けられて、実行すべき動作が予め設定され記憶されている。   The storage unit 15 is a memory that stores image data read by the scanner unit 15, other data, applications, and the like. For example, a hard disk device is used. In this embodiment, a first dictionary having a large number of keywords and a second dictionary further narrowing down keywords existing in the first dictionary are stored, and the type of touch operation and the like are registered. Yes. Further, at least one of the type of screen displayed on the operation panel 17, the position of the touch operation on the touch panel, the type of touch operation, and the keyword stored in the second dictionary are associated with each other. Thus, operations to be executed are preset and stored.

プリンタ部16は、前記スキャナ部15で読み取られた原稿の画像データや、パーソナルコンピュータ等の外部装置から送信されたプリントデータ等を、用紙に印刷するものである。   The printer unit 16 prints image data of a document read by the scanner unit 15 or print data transmitted from an external device such as a personal computer on a sheet.

操作パネル17は、ユーザの操作やメッセージの表示等に使用されるものであり、タッチパネルを備えた液晶等からなり、各種メッセージやMFP1の状態等を表示するための表示部171と、テンキー、スタートキー等を備えたハードキー部172を備えている。   The operation panel 17 is used for user operations, message display, and the like. The operation panel 17 includes a liquid crystal with a touch panel, a display unit 171 for displaying various messages, the state of the MFP 1, and the like, a numeric keypad, and a start key. A hard key unit 172 including keys and the like is provided.

前記ネットワークコントローラ18は、パーソナルコンピュータやサーバなどの外部装置とデータの送受を行うための通信部として機能する。   The network controller 18 functions as a communication unit for transmitting / receiving data to / from an external device such as a personal computer or a server.

前記音声入力部19は、ユーザが発した音声を入力するものであり、例えばマイクロフォン等によって構成されている。   The voice input unit 19 is for inputting a voice uttered by a user, and is constituted by, for example, a microphone.

図2は、MFP1の動作を示すフローチャートである。この動作は、CPU11がROM12に記憶されているプログラムに従って動作することにより実行される。   FIG. 2 is a flowchart showing the operation of the MFP 1. This operation is executed by the CPU 11 operating in accordance with a program stored in the ROM 12.

ステップS11で、表示部171のタッチパネルに対するタッチ操作が開始されたことを検出し、ステップS111で、タッチ操作の種別判定処理を実行する。   In step S11, it is detected that a touch operation on the touch panel of the display unit 171 is started, and in step S111, a touch operation type determination process is executed.

次いで、ステップS12では、前記タッチ操作は記憶部15に登録されている操作種別の操作であるかどうかを、種別判定結果に基づいて判断する。   Next, in step S12, it is determined based on the type determination result whether the touch operation is an operation type registered in the storage unit 15.

登録されている操作種別のタッチ操作でなければ(ステップS12でNO)、ステップS132で、そのタッチ操作に応じた動作を実行したのち、ステップS11に戻る。登録されている操作種別のタッチ操作であれば(ステップS12でYES)、ステップS131で、音声入力部19をオンにして音声入力の受付を開始する。   If the touch operation is not a registered operation type (NO in step S12), an operation corresponding to the touch operation is executed in step S132, and then the process returns to step S11. If it is a touch operation of the registered operation type (YES in step S12), in step S131, the voice input unit 19 is turned on and reception of voice input is started.

従って、図3に示すように、タッチ操作の開始とほぼ同時に音声入力の受付が開始される。また、音声入力の受付は、タッチ操作の検出終了タイミングT1よりも遅いタイミングT2まで行われる。つまり、音声入力の受付期間はタッチ操作の検出期間よりも(T2−T1)だけ長く、この期間が猶予期間となっている。この猶予期間(T2−T1)は予め設定された値である。   Therefore, as shown in FIG. 3, acceptance of voice input is started almost simultaneously with the start of the touch operation. Also, the voice input is accepted until a timing T2 that is later than the detection end timing T1 of the touch operation. In other words, the voice input acceptance period is longer than the touch operation detection period by (T2-T1), and this period is a grace period. This grace period (T2-T1) is a preset value.

次にステップS14で、音声入力があったかどうかを判断し、なければ(ステップS14でNO)、ステップS152に進む。音声入力があれば(ステップS14でYES)、ステップS151で、音声認識処理を行うとともに、該処理により得られた内容が記憶部15に記憶されている第1の辞書に記載されているキーワードと一致しているかどうかを判断する。一致していなければ(ステップS151でNO)、ステップS152に進む。一致していれば(ステップS151でYES)、ステップS16に進む。   Next, in step S14, it is determined whether or not there is a voice input. If not (NO in step S14), the process proceeds to step S152. If there is a voice input (YES in step S14), in step S151, the voice recognition process is performed, and the content obtained by the process is stored in the storage unit 15 in the first dictionary. Determine if they match. If they do not match (NO in step S151), the process proceeds to step S152. If they match (YES in step S151), the process proceeds to step S16.

ステップS16では、音声認識処理により得られた内容が、記憶部15に記憶されている第2の辞書に記載されているキーワードと一致しているかどうかを判断する。一致していなければ(ステップS16でNO)、ステップS152に進む。一致していれば(ステップS16でYES)、ステップS17で、表示部171に表示されている現在の画面の種別、タッチパネル上のタッチ操作の位置、タッチ操作の種別のうち予め設定された少なくともいずれかと、前記キーワードとに対応して予め設定された動作を実行する。   In step S <b> 16, it is determined whether or not the content obtained by the voice recognition process matches the keyword described in the second dictionary stored in the storage unit 15. If they do not match (NO in step S16), the process proceeds to step S152. If they match (YES in step S16), in step S17, at least one of the current screen type displayed on the display unit 171, the position of the touch operation on the touch panel, and the type of touch operation is set in advance. A preset operation corresponding to the keyword is executed.

一方、ステップS152では、指でのタッチ操作が終了したかどうかを判断する。タッチ操作が終了していなければ(ステップS152でNO)、ステップS14に戻る。終了していれば(ステップS152でYES)、ステップS11に戻る。   On the other hand, in step S152, it is determined whether or not the touch operation with the finger is finished. If the touch operation has not ended (NO in step S152), the process returns to step S14. If completed (YES in step S152), the process returns to step S11.

このように、タッチ操作がなされたことが検出されると、音声入力部19による音声入力が受け付けられるとともに、前記タッチ操作がなされたときに表示部171に表示されていた画面の種別、タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力部19により受け付けられた音声入力の内容とに対応して予め設定された動作が実行されるから、ユーザは、従来のように音声認識キーを押すことなく、表示部171のタッチパネルにタッチすると同時に音声を入力することで、動作を実行させることができる。このため、音声認識キーの押下や事前のレベル設定等の操作を不要にでき、操作ステップ数を少なくでき、MFP1の直感的な操作が可能となり、操作性を向上することができる。   As described above, when it is detected that the touch operation has been performed, the voice input by the voice input unit 19 is accepted, and the type of screen displayed on the display unit 171 when the touch operation is performed, on the touch panel Since a preset operation is executed in accordance with at least one of the position of the touch operation and the type of touch operation and the content of the voice input received by the voice input unit 19, As described above, the operation can be performed by touching the touch panel of the display unit 171 and inputting the voice at the same time without pressing the voice recognition key. For this reason, operations such as pressing a voice recognition key and setting a prior level can be made unnecessary, the number of operation steps can be reduced, an intuitive operation of the MFP 1 can be performed, and operability can be improved.

なお、図2のフローチャートでは、音声入力の内容が第1の辞書のキーワードと一致しているかどうかを判断し、一致している場合に第2の辞書のキーワードと一致しているかどうかを判断したが、辞書は第2の辞書に相当するものが1つ備えられていても良い。   In the flowchart of FIG. 2, it is determined whether or not the content of the voice input matches the keyword of the first dictionary, and if it matches, it is determined whether or not it matches the keyword of the second dictionary. However, one dictionary corresponding to the second dictionary may be provided.

図4は、図3のステップS111におけるタッチ操作の種別判定処理を示すフローチャートである。この処理は、操作パネル17から逐次送信されてくる検出出力を基に判断される。   FIG. 4 is a flowchart showing the touch operation type determination processing in step S111 of FIG. This process is determined based on detection outputs sequentially transmitted from the operation panel 17.

ステップS221で、操作パネル17からの第1の検出出力が、タッチパネルを軽くタッチしたことの検出であるかどうかを判断し、タッチパネルを軽くタッチしたことの検出であれば(ステップS221でYES)、ステップS2211で、第2の検出出力が指を弾いたことの検出であるかどうかを判断する。指を弾いたことの検出であれば(ステップS2211でYES)、ステップS22111で、タッチ操作はフリック(スワイプ)であると判定した後、リターンする。この操作は、図5(a)に示すように、例えば1ページ表示を2ページ表示にしたり、ページ送り等に使用される。なお、フリック操作の指を弾く速度が遅いか速いかを判断して、フリック操作を複数種類の操作に分けても良い。   In step S221, it is determined whether or not the first detection output from the operation panel 17 is a light touch on the touch panel, and if it is a light touch on the touch panel (YES in step S221), In step S2211, it is determined whether or not the second detection output is a detection of a finger being played. If it is detected that the finger has been played (YES in step S2211), the process returns to step S22111 after determining that the touch operation is a flick (swipe). As shown in FIG. 5A, this operation is used, for example, to change the one-page display to the two-page display, page feed, or the like. It should be noted that the flick operation may be divided into a plurality of types of operations by determining whether the flick operation finger is slow or fast.

ステップS2211で、第2の検出出力が指を弾いたことの検出でなければ(ステップS2211でNO)、ステップS2212で、第2の検出出力が指をすべらせることの検出であるかどうかを判断する。指をすべらせることの検出であれば(ステップS2212でYES)、ステップS22121で、タッチ操作はドラッグ(パン)であると判定した後、ステップS22122に進み、第3の検出出力が指を離したことの検出であるかどうかを判断する。指を離したことの検出でなければ(ステップS22122でNO)、指を離したことが検出されるまで待ち、検出されると(ステップS22122でYES)、ステップS22123で、タッチ操作はドロップと判定した後、リターンする。つまり、ドラッグアンドドロップと判定される。この操作は、図5(c)に示すように、例えば表示文書を所定のフォルダアイコンに保存する場合等に使用される。   In step S2211, if the second detection output is not a detection that the finger has been flipped (NO in step S2211), it is determined in step S2212 whether the second detection output is a detection of slipping the finger. To do. If it is detected that the finger is slipped (YES in step S2212), it is determined in step S22121 that the touch operation is a drag (pan), and then the process proceeds to step S22122, where the third detection output is released. It is determined whether or not this is a detection. If it is not detected that the finger has been released (NO in step S22122), the process waits until it is detected that the finger has been released (YES in step S22122), and if detected, the touch operation is determined to be a drop in step S22123. Then return. That is, it is determined as drag and drop. This operation is used, for example, when a display document is stored in a predetermined folder icon as shown in FIG.

ステップS2212において、第2の検出出力が指をすべらせることの検出でなければ(ステップS2212でNO)、ステップS2213で、第2の検出出力が指を離したことの検出であるかどうかを判断する。指を離したことの検出でなければ(ステップS2213でNO)、ステップS2211に戻る。指を離したことの検出であれば(ステップS2213でYES)、ステップS22131で、タッチ操作はシングルタッチと判定した後、リターンする。   In step S2212, if the second detection output is not detection of sliding the finger (NO in step S2212), it is determined in step S2213 whether the second detection output is detection of releasing the finger. To do. If it is not detected that the finger has been released (NO in step S2213), the process returns to step S2211. If it is detected that the finger has been released (YES in step S2213), the touch operation is determined to be single touch in step S2211, and then the process returns.

ステップS221で、第1の検出出力がタッチパネルを軽くタッチしたことの検出でなければ(ステップS221でNO)、ステップS222で、第1の検出出力が、タッチパネルを指でたたいたことの検出であるかどうかを判断し、指でたたいたことの検出であれば(ステップS222でYES)、ステップS2221で、第2の検出出力が指でたたいたことの検出であるかどうかを判断する。第2の検出出力が指でたたいたことの検出でなければ(ステップS2221でNO)、ステップS2211で、タッチ操作はシングルタップであると判定した後、リターンする。この操作は、図5(e)に示すように、例えば各種キーの押下等に使用される。   If the first detection output is not a light touch on the touch panel in step S221 (NO in step S221), the first detection output is a detection that the touch panel is struck with a finger in step S222. If it is detected that a finger has been struck (YES in step S222), it is determined in step S2221 whether or not the second detection output is a struck finger. . If the second detection output is not a detection that the finger has been struck (NO in step S2221), it is determined in step S2211 that the touch operation is a single tap, and then the process returns. This operation is used for pressing various keys, for example, as shown in FIG.

ステップS2221で、第2の検出出力が指でたたいたことの検出であれば(ステップS2221でYES)、ステップS22212で、タッチ操作はダブルタップであると判定した後、リターンする。この操作は、図5(F)に示すように、例えば画面の拡大や縮小等に用いられる。   If it is detected in step S 2221 that the second detection output is a finger strike (YES in step S 2221), the process returns to step S 22212 after determining that the touch operation is a double tap. This operation is used, for example, for enlarging or reducing the screen as shown in FIG.

ステップS222で、第1の検出出力が、タッチパネルを指でたたいたことの検出でなければ(ステップS222でNO)、ステップS223で、第1の検出出力がマルチタッチかどうかを判断する。   If it is determined in step S222 that the first detection output is not a detection that the touch panel has been struck with a finger (NO in step S222), it is determined in step S223 whether the first detection output is multi-touch.

マルチタッチであれば(ステップS223でYES)、ステップS2231で、第2の検出出力が指を縮めたことの検出であるかどうかを判断する。第2の検出出力が指を縮めたことの検出であれば(ステップS2231でYES)、ステップS22311で、タッチ操作はピンチインであると判定した後、リターンする。一方、第2の検出出力が指を縮めたことの検出でなければ(ステップS2231でNO)、ステップS2232で、第2の検出出力が指を拡げたことの検出であるかどうかを判断する。第2の検出出力が指を拡げたことの検出であれば(ステップS2232でYES)、ステップS22321で、タッチ操作はピンチアウトであると判定した後、リターンする。   If it is multi-touch (YES in step S223), it is determined in step S2231 whether or not the second detection output is detection of a finger contracted. If the second detection output indicates that the finger has been contracted (YES in step S2231), the process returns to step S22311 after determining that the touch operation is a pinch-in. On the other hand, if the second detection output is not a detection that the finger is contracted (NO in step S2231), it is determined in step S2232 whether or not the second detection output is a detection that the finger is expanded. If the second detection output is a detection that the finger is spread (YES in step S2232), the process returns to step S22321 after determining that the touch operation is a pinch out.

これらのピンチイン/ピンチアウト操作は、図5(b)に示すように、例えば画面の一部を部分的に縮小したり拡大するのに使用される。   These pinch-in / pinch-out operations are used, for example, to partially reduce or enlarge a part of the screen as shown in FIG.

ステップS2232において、第2の検出出力が指を拡げたことの検出でなければ(ステップS2232でNO)、ステップS2233で、第2の検出出力が回転の検出であるかどうかを判断する。回転の検出であれば(ステップS2233でYES)、ステップS22331で、タッチ操作はローテーションであると判定した後、リターンする。この操作は、図5(d)に示すように、例えば画面の一部を回転させるのに使用される。   In step S2232, if the second detection output is not a detection that the finger is spread (NO in step S2232), it is determined in step S2233 whether the second detection output is a rotation detection. If rotation is detected (YES in step S2233), in step S22331, it is determined that the touch operation is rotation, and then the process returns. This operation is used, for example, to rotate a part of the screen as shown in FIG.

ステップS2233で、第2の検出出力が回転の検出でなければ(ステップS2233でNO)、ステップS2234で、第2の検出出力が指を離したことの検出であるかどうかを判断する。指を離したことの検出であれば(ステップS2234でYES)、ステップS22341で、タッチ操作はマルチタッチであると判定した後、リターンする。指を離したことの検出でなければ(ステップS2234でNO)、ステップS2231に戻る。   If it is determined in step S2233 that the second detection output is not rotation detection (NO in step S2233), it is determined in step S2234 whether the second detection output is a detection that a finger has been released. If it is detected that the finger has been released (YES in step S2234), the process returns to step S22341 after determining that the touch operation is multi-touch. If it is not detected that the finger has been released (NO in step S2234), the process returns to step S2231.

ステップS223で、第1の検出出力がマルチタッチでなければ(ステップS223でNO)、ステップS224で、タッチ操作はその他の操作と判定してリターンする。この場合は、図2のステップS12において登録された操作種別でないと判断される。   If the first detection output is not multi-touch in step S223 (NO in step S223), the touch operation is determined as another operation in step S224, and the process returns. In this case, it is determined that the operation type is not registered in step S12 of FIG.

図6は、タッチパネルへのタッチ操作がなされたときに表示部171に表示されている画面の種別と、音声入力されるキーワードとに対応付けて、予め設定された動作を示すテーブルである。   FIG. 6 is a table showing operations set in advance in association with the type of screen displayed on the display unit 171 when a touch operation on the touch panel is performed and a keyword input by voice.

図6に示す例では、画面種別が「コピー画面」「スキャン画面」「ボックス画面」「ブラウザ画面」であり、音声入力されたキーワードが「始め」「最後」「1」「2」「200%」である場合が例示されている。この例では、タッチ操作の種別による関連付けは、なされていない。   In the example shown in FIG. 6, the screen types are “copy screen”, “scan screen”, “box screen”, and “browser screen”, and the keywords input by voice are “start”, “last”, “1”, “2”, and “200%”. Is illustrated. In this example, the association by the type of touch operation is not made.

例えば、表示部171にコピー画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「始め」という音声を入力すると、CPU11は図6のテーブルに基づいて、表示部171の画面をトップ画面に遷移させる。また、表示部171にブラウザ画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「始め」という音声を入力すると、表示部171の画面をページの先頭に移動させる。   For example, when the user touches an arbitrary area of the touch panel and inputs a voice “start” while the copy screen is displayed on the display unit 171, the CPU 11 displays the display unit based on the table in FIG. The screen of 171 is changed to the top screen. In addition, when the user touches an arbitrary area of the touch panel and inputs a voice “start” while the browser screen is displayed on the display unit 171, the screen of the display unit 171 is moved to the top of the page. .

同様に、表示部171にコピー画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「1」という音声を入力すると、コピー部数を1に設定する。また、表示部171にブラウザ画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「200%」という音声を入力すると、表示部171の画面表示を200%に拡大する。   Similarly, when the user touches an arbitrary area of the touch panel and inputs a sound “1” in a state where the copy screen is displayed on the display unit 171, the number of copies is set to 1. In addition, when the user touches an arbitrary area of the touch panel and inputs the voice “200%” while the browser screen is displayed on the display unit 171, the screen display of the display unit 171 is enlarged to 200%. To do.

なお、画面種別とキーワードの組み合わせによっては、受け付けないキーワードが存在する。たとえば、表示部171にコピー画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「最後」という音声を入力しても受け付けられず、表示部171の画面はそのままの状態を維持する。   Note that some keywords are not accepted depending on the combination of screen type and keyword. For example, when a copy screen is displayed on the display unit 171, even if the user touches an arbitrary area on the touch panel and inputs a voice “Last”, it is not accepted, and the screen of the display unit 171 remains as it is. Maintain the state.

上記のようなキーワードは、各画面種別毎にまとめられて第2の辞書に格納されている。例えば、コピー画面に関係するキーワードは第2の辞書のパターンAに、スキャン画面に関係するキーワードは第2の辞書のパターンBに、ボックス画面に関係するキーワードは第2の辞書のパターンCに、ブラウザ画面に関係するキーワードは第2の辞書のパターンDに、それ以外の画面に関係するキーワードはパターンEにそれぞれ格納されている。そして、CPU11は画面の種別を判断すると、第2の辞書におけるその画面に関係するパターンに絞り込んで音声入力されたキーワードを検索し、画面種別とキーワードに対応付けされた動作を特定し、実行するものとなされている。   The keywords as described above are stored for each screen type and stored in the second dictionary. For example, the keyword related to the copy screen is the pattern A of the second dictionary, the keyword related to the scan screen is the pattern B of the second dictionary, the keyword related to the box screen is the pattern C of the second dictionary, Keywords related to the browser screen are stored in pattern D of the second dictionary, and keywords related to other screens are stored in pattern E. When the CPU 11 determines the type of the screen, the CPU 11 searches the second dictionary to search for a keyword input by voice to a pattern related to the screen, specifies the screen type and the operation associated with the keyword, and executes it. It has been made.

また、「コピー画面」「スキャン画面」「ボックス画面」「ブラウザ画面」の各画面には、1個または複数の下位層の画面が存在し、各下位層の画面についても各キーワードと対応付けられた動作が設定されている。   In addition, each screen of the “copy screen”, “scan screen”, “box screen”, and “browser screen” has one or more lower layer screens, and each lower layer screen is also associated with each keyword. Is set.

例えば、図7に示すように、スキャン画面の下位層の画面である「宛先選択画面」「サムネイル表示画面」と、「1」「2」等のキーワードとに対応付けられて、各動作が設定されている。図7の例では、宛先選択画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「1」「2」をそれぞれ音声入力すると、それぞれ1番目、2番目の宛先が選択される。また、サムネイル表示画面が表示されている状態で、ユーザがタッチパネルの任意の領域をタッチ操作して、「1」「2」をそれぞれ音声入力すると、それぞれ1ページ目、2ページ目が表示される。   For example, as shown in FIG. 7, each operation is set in association with keywords such as “destination selection screen”, “thumbnail display screen” and “1”, “2”, etc., which are lower layer screens of the scan screen. Has been. In the example of FIG. 7, when the user touches an arbitrary area of the touch panel and inputs “1” and “2” by voice while the destination selection screen is displayed, the first and second destinations respectively. Is selected. In addition, when the user touches an arbitrary area of the touch panel and inputs “1” and “2” by voice while the thumbnail display screen is displayed, the first page and the second page are displayed, respectively. .

図8は、タッチパネルにおけるタッチ操作の位置とキーワードとに対応付けて、予め設定された動作を示すテーブルである。   FIG. 8 is a table showing operations set in advance in association with touch operation positions and keywords on the touch panel.

図8に示す例では、タッチ操作の位置(検出位置)がキー及びサムネイルの表示部位であり、音声入力されたキーワードが「1」「2」である場合が例示されている。   In the example illustrated in FIG. 8, a case where the touch operation position (detection position) is a display portion of a key and a thumbnail, and the voice input keywords are “1” and “2” is illustrated.

例えば、ユーザがタッチパネルのサムネイルの表示位置をタッチ操作して、「1」または「2」という音声を入力すると、CPU11は図8のテーブルに基づいて、1ページ目または2ページ目をそれぞれ表示する。この場合も、タッチ操作の種別による関連付けは、なされていない。   For example, when the user touches the display position of the thumbnail on the touch panel and inputs the sound “1” or “2”, the CPU 11 displays the first page or the second page based on the table of FIG. . Also in this case, no association is made according to the type of touch operation.

また、タッチした位置とキーワードの組み合わせによっては、受け付けないキーワードが存在する。たとえば、ユーザがタッチパネルのキーの表示位置をタッチ操作して、「1」または「2」という音声を入力しても受け付けられず、表示部171の画面はそのままの状態を維持する。   Depending on the combination of the touched position and the keyword, there are keywords that are not accepted. For example, even if the user touches the display position of the key on the touch panel and inputs a voice of “1” or “2”, it is not accepted, and the screen of the display unit 171 is maintained as it is.

図8の場合も、キーワードは、各タッチ位置毎にまとめられて第2の辞書に格納されている。例えば、キーの位置に関係するキーワードは第2の辞書のパターンaに、サムネイルの位置に関係するキーワードは第2の辞書のパターンbに、ページ送り可能な画面位置に関係するキーワードは第2の辞書のパターンcに、それ以外の位置に関係するキーワードはパターンdにそれぞれ格納されている。そして、CPU11は表示画面におけるタッチした位置を判断すると、第2の辞書のそのタッチ位置に関係するパターンに絞り込んで音声入力されたキーワードを検索し、タッチした位置とキーワードに対応付けされた動作を特定し、実行するものとなされている。   In the case of FIG. 8 as well, the keywords are collected for each touch position and stored in the second dictionary. For example, a keyword related to the key position is the pattern a of the second dictionary, a keyword related to the thumbnail position is the pattern b of the second dictionary, and a keyword related to the page position that can be paged is the second dictionary. Keywords related to positions other than the dictionary pattern c are stored in the pattern d. When the CPU 11 determines the touched position on the display screen, the CPU 11 searches the second dictionary for a keyword input by voice by narrowing down the pattern related to the touch position, and performs the operation associated with the touched position and the keyword. It is supposed to be identified and executed.

図9は、タッチパネルへのタッチ操作の種別と、音声入力されたキーワードとに対応付けて、予め設定された動作を示すテーブルである。   FIG. 9 is a table showing operations set in advance in association with types of touch operations on the touch panel and keywords input by voice.

図9に示す例では、タッチ操作種別がフリック、ピンチイン、ローテーションであり、音声入力されたキーワードが「1」「2」「50%」「90度」である場合が例示されている。   In the example illustrated in FIG. 9, a case where the touch operation type is flick, pinch-in, and rotation and the keyword input by voice is “1”, “2”, “50%”, and “90 degrees” is illustrated.

例えば、ユーザがスキャン画面の下位層画面である宛先選択画面が表示されている状態で、タッチパネルの任意の領域をフリック操作して、「1」または「2」という音声を入力すると、CPU11は図9のテーブルに基づいて、第1番目または第2番目の宛先を選択する。また、表示部171にサムネイル画面が表示されている状態で、ユーザがタッチパネルのサムネイル表示領域をローテーションによるタッチ操作を行って、「1」または「2」または「90度」という音声を入力すると、表示部171のサムネイル画面を1度または2度または90度、それぞれ回転方向に回転する。   For example, when the user inputs a voice “1” or “2” by flicking an arbitrary area of the touch panel while the destination selection screen which is a lower layer screen of the scan screen is displayed, the CPU 11 Based on the table of 9, the first or second destination is selected. When the user performs a touch operation by rotating the thumbnail display area of the touch panel while the thumbnail screen is displayed on the display unit 171, and inputs a voice “1”, “2”, or “90 degrees”, The thumbnail screen of the display unit 171 is rotated in the rotation direction by 1 degree, 2 degrees, or 90 degrees, respectively.

さらに、ピンチアウト操作を行って、「2倍」または「200%」と音声を入力すると、2倍の大きさに表示され、ピンチイン操作を行って、「1/2」「50%」と音声を入力すると、半分の大きさで表示され、「画面幅」と音声を入力すると、画面の横幅に合わせて表示する等、任意のサイズの指定が可能となる。また、ピンチインまたはピンチアウト操作を行って、「お気に入り」と音声を入力すると、設定されていたお気に入りサイズに表示サイズを変更することもできる。   Furthermore, if a pinch-out operation is performed and “2 ×” or “200%” is input as a voice, it is displayed in double size, and a pinch-in operation is performed and “1/2” “50%” is displayed as a voice. When “” is input, it is displayed in a half size, and when “screen width” and voice are input, it is possible to specify an arbitrary size such as displaying according to the horizontal width of the screen. In addition, by performing a pinch-in or pinch-out operation and inputting “favorite” as a voice, the display size can be changed to the set favorite size.

また、タッチ操作の種別とキーワードの組み合わせによっては、受け付けないキーワードが存在する。たとえば、宛先選択画面が表示されている状態で、タッチパネルの任意の領域をフリック操作して、「50%」または「90度」という音声を入力しても受け付けられず、表示部171の画面はそのままの状態を維持する。   In addition, there are keywords that are not accepted depending on the combination of the type of touch operation and the keyword. For example, when a destination selection screen is displayed, flicking an arbitrary area of the touch panel and inputting a voice of “50%” or “90 degrees” is not accepted, and the screen of the display unit 171 is not displayed. Keep it as it is.

また、タッチ操作の種別と表示されている画面等に応じて、音声入力の内容が同じでも、実行される動作が異なる。例えば、フリック操作を行って「2」と音声を入力すると、2ページ目が表示されるが、ピンチ操作で「2」と音声で入力すると、2倍の大きさで表示される。また、ページ編集モードの画面で1ページのみ表示している場合に、フリック操作を行って「2」と音声で入力すると、2ページ目に編集中のページを差し込んだり、ピンチ操作を行って「2」と音声入力することにより、編集中のページを2部にしたり、2枚のページを1枚に集約する2in1にしても良い。また、ドラッグ操作を行って、「破棄」と音声入力することで、ゴミ箱へ破棄することも可能である。   Also, depending on the type of touch operation and the displayed screen, even if the content of the voice input is the same, the operation to be executed is different. For example, if a voice is input as “2” by performing a flick operation, the second page is displayed. If a voice is input as “2” by a pinch operation, the second page is displayed. Also, when only one page is displayed on the page edit mode screen, if a flick operation is performed and “2” is input by voice, the page being edited is inserted into the second page or a pinch operation is performed. By inputting “2” as a voice, the page being edited may be divided into two copies, or the two pages may be combined into two in one. In addition, it is possible to discard to the trash box by performing a drag operation and inputting “discard” as a voice.

なお、同じタッチ操作種別であっても、タッチ操作を行った表示画面中の位置に応じて、異なる動作を行わせても良い。例えば、図10(a)に示すように、サムネイルプレビュー画像の表示領域でローテーション操作を行って「90度」と音声入力した場合は、サムネイルプレビュー画像を90度回転させるが、図10(b)に示すように、サムネイルプレビュー画像が表示されている画面中のキー領域でローテーション操作を行って「90度」と音声入力した場合は、これを受け付けることなくそのままの画面を維持する。   Even with the same touch operation type, different operations may be performed according to the position on the display screen where the touch operation is performed. For example, as shown in FIG. 10A, when a rotation operation is performed in the thumbnail preview image display area and “90 degrees” is input as a voice, the thumbnail preview image is rotated by 90 degrees. As shown in FIG. 5, when a rotation operation is performed in the key area in the screen on which the thumbnail preview image is displayed and “90 degrees” is input as a voice, the screen is maintained without being accepted.

1 画像形成装置
11 CPU
12 ROM
14 スキャナ部
15 記憶部
17 操作パネル
171 表示部
19 音声入力部
1 Image forming apparatus 11 CPU
12 ROM
14 Scanner unit 15 Storage unit 17 Operation panel 171 Display unit 19 Voice input unit

Claims (7)

タッチパネルを有する表示手段と、
前記表示手段のタッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断手段と、
音声入力手段と、
前記判断手段により、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付手段と、
前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付手段により受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御手段と、
を備えたことを特徴とする入力操作装置。
Display means having a touch panel;
Determining means for determining whether or not a touch operation by a user has been performed on the touch panel of the display means;
Voice input means;
A voice input receiving means for receiving voice input by the voice input means when the judgment means determines that the touch operation has been performed;
At least one of the type of screen displayed on the display unit when the touch operation is performed, the position of the touch operation on the touch panel, the type of touch operation, and the voice received by the voice input receiving unit Control means for executing a preset operation in association with the content of the input;
An input operation device comprising:
前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、キーワードと、動作内容とが関連付けて記憶された記憶手段を備え、
前記制御手段は、前記音声入力手段による音声入力の内容が前記記憶手段に記憶されているキーワードと一致するかどうかを判断し、一致する場合に、そのキーワードと前記画面の種別、タッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかに対応付けられた動作を実行する請求項1に記載の入力操作装置。
A storage unit that stores at least one of the type of the screen, the position of the touch operation, the type of the touch operation, the keyword, and the operation content in association with each other;
The control means determines whether or not the content of the voice input by the voice input means matches the keyword stored in the storage means, and if it matches, the keyword and the type of the screen, the position of the touch operation The input operation device according to claim 1, wherein an operation associated with at least one of the types of touch operations is executed.
前記タッチ操作の種別は、タッチパネルに軽くタッチした状態で指を弾く動作であるフリックか、タッチパネルに軽くタッチした状態で指を滑らせる動作であるドラッグか、タッチパネルを指でたたく動作であるタップか、2回指でたたく動作であるダブルタップか、タッチパネルにマルチタッチして指を中心に向かって縮めるまたは広げる方向に滑らせる動作であるピンチイン/ピンチアウトか、タッチパネルにマルチタッチして、片方の指または両方の指の中心位置を中心として回転させる動作であるローテーションか、タッチパネルに軽くタッチした状態で指を滑らせ目的の場所で指を離す動作であるドラッグアンドドロップ、のうちの少なくともいずれかである請求項1または2に記載の入力操作装置。   The type of touch operation is a flick that is an action of flipping a finger while lightly touching the touch panel, a drag that is an action of sliding a finger while lightly touching the touch panel, or a tap that is an action of hitting the touch panel with a finger. Double-tap, which is the action of tapping with a finger twice, multi-touch on the touch panel, pinch-in / pinch-out which is the action of sliding the finger toward the center or sliding in the direction to expand, or multi-touch on the touch panel, At least one of rotation that rotates around the center position of the finger or both fingers or drag and drop that slides the finger while touching the touch panel lightly and releases the finger at the target location The input operation device according to claim 1 or 2. 前記音声入力受付手段は、タッチ操作の終了後、予め設定された時間まで音声入力を受け付ける請求項1〜3のいずれかに記載の入力操作装置。   The input operation device according to claim 1, wherein the voice input receiving unit receives a voice input until a preset time after the touch operation is finished. 請求項1〜4のいずれかに記載の入力操作装置を備えた画像形成装置。   An image forming apparatus comprising the input operation device according to claim 1. タッチパネルを有する表示手段と、音声入力手段とを備えた画像形成装置の入力操作方法であって、
前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、
前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、
前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、
を備えたことを特徴とする入力操作方法。
An input operation method for an image forming apparatus including a display unit having a touch panel and a voice input unit,
A determination step of determining whether a touch operation by the user has been performed on the touch panel;
In the determination step, when it is determined that the touch operation has been performed, a voice input reception step of receiving a voice input by the voice input unit;
At least one of the type of screen displayed on the display means when the touch operation is performed, the position of the touch operation on the touch panel, the type of touch operation, and the voice received in the voice input receiving step A control step for executing a preset operation in association with the content of the input;
An input operation method characterized by comprising:
タッチパネルを有する表示手段と、音声入力手段とを備えた画像形成装置のコンピュータに実行させるための入力操作プログラムであって、
前記タッチパネル上でユーザによるタッチ操作がなされたかどうかを判断する判断ステップと、
前記判断ステップにおいて、前記タッチ操作がなされたと判断された場合、前記音声入力手段による音声入力を受け付ける音声入力受付ステップと、
前記タッチ操作がなされたときに前記表示手段に表示されていた画面の種別、前記タッチパネル上のタッチ操作の位置、タッチ操作の種別のうちの少なくともいずれかと、前記音声入力受付ステップにおいて受け付けられた音声入力の内容とに対応付けて予め設定された動作を実行する制御ステップと、
を前記コンピュータに実行させる入力操作プログラム。
An input operation program for causing a computer of an image forming apparatus including a display unit having a touch panel and a voice input unit to execute the program,
A determination step of determining whether a touch operation by the user has been performed on the touch panel;
In the determination step, when it is determined that the touch operation has been performed, a voice input reception step of receiving a voice input by the voice input unit;
At least one of the type of screen displayed on the display means when the touch operation is performed, the position of the touch operation on the touch panel, the type of touch operation, and the voice received in the voice input receiving step A control step for executing a preset operation in association with the content of the input;
An input operation program for causing the computer to execute.
JP2012091455A 2012-04-12 2012-04-12 Input operation device, image forming apparatus including the device, input operation method, and input operation program Pending JP2013222229A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012091455A JP2013222229A (en) 2012-04-12 2012-04-12 Input operation device, image forming apparatus including the device, input operation method, and input operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012091455A JP2013222229A (en) 2012-04-12 2012-04-12 Input operation device, image forming apparatus including the device, input operation method, and input operation program

Publications (1)

Publication Number Publication Date
JP2013222229A true JP2013222229A (en) 2013-10-28

Family

ID=49593172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012091455A Pending JP2013222229A (en) 2012-04-12 2012-04-12 Input operation device, image forming apparatus including the device, input operation method, and input operation program

Country Status (1)

Country Link
JP (1) JP2013222229A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015084233A (en) * 2006-09-06 2015-04-30 アップル インコーポレイテッド Portable electronic devices that perform similar actions for different gestures
US9661165B2 (en) 2013-11-27 2017-05-23 Konica Minolta, Inc. Image forming apparatus with playback mode, display method for an operation screen, and computer program
KR101741691B1 (en) * 2015-06-30 2017-05-30 현대자동차주식회사 Vehicle and method of controlling the same
US9690446B2 (en) 2006-09-06 2017-06-27 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
CN111510569A (en) * 2019-01-30 2020-08-07 夏普株式会社 Image forming system, image forming apparatus, image forming method, and recording medium
JP2020166729A (en) * 2019-03-29 2020-10-08 京セラドキュメントソリューションズ株式会社 Display control device, display control method, and display control program
CN112055126A (en) * 2019-06-07 2020-12-08 佳能株式会社 Information processing system, information processing apparatus, and information processing method
JP2021013099A (en) * 2019-07-05 2021-02-04 コニカミノルタ株式会社 Image forming apparatus, control method for image forming apparatus, and control program for image forming apparatus
JP2021018787A (en) * 2019-07-22 2021-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method and information processing system
US11023122B2 (en) 2006-09-06 2021-06-01 Apple Inc. Video manager for portable multifunction device
JP2021113886A (en) * 2020-01-17 2021-08-05 コニカミノルタ株式会社 Image forming apparatus, display control method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184669A (en) * 1997-12-24 1999-07-09 Sharp Corp Information processing apparatus, information processing method, and medium storing information processing apparatus control program
JP2003076389A (en) * 2001-07-07 2003-03-14 Samsung Electronics Co Ltd Information terminal whose operation is controlled through touch screen or voice recognition and command execution method thereof
JP2004048352A (en) * 2002-07-11 2004-02-12 Denso Corp Communication system and information communication method
JP2004102632A (en) * 2002-09-09 2004-04-02 Ricoh Co Ltd Voice recognition device and image processing device
JP2006086755A (en) * 2004-09-15 2006-03-30 Ricoh Co Ltd Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system
WO2006137246A1 (en) * 2005-06-21 2006-12-28 Pioneer Corporation Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184669A (en) * 1997-12-24 1999-07-09 Sharp Corp Information processing apparatus, information processing method, and medium storing information processing apparatus control program
JP2003076389A (en) * 2001-07-07 2003-03-14 Samsung Electronics Co Ltd Information terminal whose operation is controlled through touch screen or voice recognition and command execution method thereof
JP2004048352A (en) * 2002-07-11 2004-02-12 Denso Corp Communication system and information communication method
JP2004102632A (en) * 2002-09-09 2004-04-02 Ricoh Co Ltd Voice recognition device and image processing device
JP2006086755A (en) * 2004-09-15 2006-03-30 Ricoh Co Ltd Image forming apparatus, image forming method, program for causing computer to execute the method, image processing apparatus, and image processing system
WO2006137246A1 (en) * 2005-06-21 2006-12-28 Pioneer Corporation Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023122B2 (en) 2006-09-06 2021-06-01 Apple Inc. Video manager for portable multifunction device
US12204747B2 (en) 2006-09-06 2025-01-21 Apple Inc. Portable electronic device performing window operations with gestures on a touchscreen
JP2015084233A (en) * 2006-09-06 2015-04-30 アップル インコーポレイテッド Portable electronic devices that perform similar actions for different gestures
US9690446B2 (en) 2006-09-06 2017-06-27 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US9927970B2 (en) 2006-09-06 2018-03-27 Apple Inc. Portable electronic device performing similar operations for different gestures
US10222977B2 (en) 2006-09-06 2019-03-05 Apple Inc. Portable electronic device performing similar operations for different gestures
US10228815B2 (en) 2006-09-06 2019-03-12 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US10656778B2 (en) 2006-09-06 2020-05-19 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11106326B2 (en) 2006-09-06 2021-08-31 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11481106B2 (en) 2006-09-06 2022-10-25 Apple Inc. Video manager for portable multifunction device
US10838617B2 (en) 2006-09-06 2020-11-17 Apple Inc. Portable electronic device performing similar operations for different gestures
US12189913B2 (en) 2006-09-06 2025-01-07 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11921969B2 (en) 2006-09-06 2024-03-05 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11592952B2 (en) 2006-09-06 2023-02-28 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11481112B2 (en) 2006-09-06 2022-10-25 Apple Inc. Portable electronic device performing similar operations for different gestures
US9661165B2 (en) 2013-11-27 2017-05-23 Konica Minolta, Inc. Image forming apparatus with playback mode, display method for an operation screen, and computer program
KR101741691B1 (en) * 2015-06-30 2017-05-30 현대자동차주식회사 Vehicle and method of controlling the same
CN111510569A (en) * 2019-01-30 2020-08-07 夏普株式会社 Image forming system, image forming apparatus, image forming method, and recording medium
JP7268449B2 (en) 2019-03-29 2023-05-08 京セラドキュメントソリューションズ株式会社 Display control device, display control method, and display control program
JP2020166729A (en) * 2019-03-29 2020-10-08 京セラドキュメントソリューションズ株式会社 Display control device, display control method, and display control program
CN112055126B (en) * 2019-06-07 2022-08-19 佳能株式会社 Information processing system, information processing apparatus, and information processing method
US11838459B2 (en) 2019-06-07 2023-12-05 Canon Kabushiki Kaisha Information processing system, information processing apparatus, and information processing method
CN112055126A (en) * 2019-06-07 2020-12-08 佳能株式会社 Information processing system, information processing apparatus, and information processing method
JP7334510B2 (en) 2019-07-05 2023-08-29 コニカミノルタ株式会社 IMAGE FORMING APPARATUS, IMAGE FORMING APPARATUS CONTROL METHOD, AND IMAGE FORMING APPARATUS CONTROL PROGRAM
JP2021013099A (en) * 2019-07-05 2021-02-04 コニカミノルタ株式会社 Image forming apparatus, control method for image forming apparatus, and control program for image forming apparatus
JP2021018787A (en) * 2019-07-22 2021-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method and information processing system
JP7535845B2 (en) 2019-07-22 2024-08-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method and information processing system
JP2021113886A (en) * 2020-01-17 2021-08-05 コニカミノルタ株式会社 Image forming apparatus, display control method, and program
JP7392486B2 (en) 2020-01-17 2023-12-06 コニカミノルタ株式会社 Image forming device, display control method, and program

Similar Documents

Publication Publication Date Title
JP2013222229A (en) Input operation device, image forming apparatus including the device, input operation method, and input operation program
JP6138866B2 (en) Device, method and graphical user interface for document manipulation
RU2610290C2 (en) Information processing device, information processing method and related program
HK1141941A2 (en) List scrolling and document translation, scaling, and rotation on a touch-screen display
JP6840571B2 (en) Image processing device, control method of image processing device, and program
US10228843B2 (en) Image processing apparatus, method of controlling image processing apparatus, and recording medium
US9001368B2 (en) Image processing apparatus, operation standardization method, and non-transitory computer-readable recording medium encoded with operation standardization program with an application program that supports both a touch panel capable of detecting only one position and a touch panel capable of detecting a plurality of positions simultaneously
JP6003939B2 (en) Image processing linkage system and linkage method, portable terminal device, and image processing linkage program
JP2016126657A (en) Information processing device, method for controlling information processing device, and program
JP6004868B2 (en) Information processing apparatus, information processing method, and program
US8982397B2 (en) Image processing device, non-transitory computer readable recording medium and operational event determining method
US9049323B2 (en) Data processing apparatus, content displaying method, and non-transitory computer-readable recording medium encoded with content displaying program
JP5268966B2 (en) Display control apparatus, image forming apparatus, display control method, and display control program
JP2015103161A (en) Image formation device, display method of operation screen, and computer program
JP2025036535A (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD FOR IMAGE PROCESSING APPARATUS, AND PROGRAM
JP2015007856A (en) INPUT DEVICE, IMAGE READING DEVICE, IMAGE FORMING DEVICE, INPUT METHOD, AND PROGRAM
JP6562006B2 (en) Display device, display method, and program
JP7114678B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP6372116B2 (en) Display processing apparatus, screen display method, and computer program
CN104935774A (en) Information processing device and control method thereof
JP6380338B2 (en) Display input device and image forming apparatus having the same
JP2013164659A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP2013077231A (en) Display method of document data, display device of portable terminal
JP2018120479A (en) Display unit, display method, and program
JP2012058996A (en) Display processor and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160524