[go: up one dir, main page]

JP2017204046A - User interface processing program and recording medium - Google Patents

User interface processing program and recording medium Download PDF

Info

Publication number
JP2017204046A
JP2017204046A JP2016094087A JP2016094087A JP2017204046A JP 2017204046 A JP2017204046 A JP 2017204046A JP 2016094087 A JP2016094087 A JP 2016094087A JP 2016094087 A JP2016094087 A JP 2016094087A JP 2017204046 A JP2017204046 A JP 2017204046A
Authority
JP
Japan
Prior art keywords
processing unit
touch panel
user interface
region
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016094087A
Other languages
Japanese (ja)
Other versions
JP6681110B2 (en
Inventor
亮介 梅田
Ryosuke Umeda
亮介 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2016094087A priority Critical patent/JP6681110B2/en
Publication of JP2017204046A publication Critical patent/JP2017204046A/en
Application granted granted Critical
Publication of JP6681110B2 publication Critical patent/JP6681110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user interface processing program for improving convenience of a user, and a recording medium.SOLUTION: A user interface processing program causes an information processing apparatus 1 equipped with a touch panel 3 to function as: a first detection processing unit 5 which detects first input operation on a touch panel 3; a first area specification processing unit 7 which specifies a first area having a predetermined size in a predetermined position on the touch panel, on the basis of the first input operation detected by the first detection processing unit; and a display processing unit 9 which displays an operation object to operate display content on the touch panel, in a size corresponding to the fist area, in the first area specified by the first area specification processing unit.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザインターフェース処理プログラム及びこのユーザインターフェース処理プログラムが記録された記録媒体に関する。   The present invention relates to a user interface processing program and a recording medium on which the user interface processing program is recorded.

従来、タッチパネルを備えたデバイスにおいて、表示画面上に表示されたオブジェクトを操作する方法として、仮想コントローラや動作アイコンを表示画面上に表示し、この仮想コントローラ等によりユーザの操作入力を受け付けるものが知られている。   Conventionally, as a method of operating an object displayed on a display screen in a device having a touch panel, a virtual controller or an operation icon is displayed on the display screen, and a user operation input is received by the virtual controller or the like. It has been.

このようなデバイスとして、例えば特許文献1には、プレイヤのタッチパネルの接触操作による表示画面の押下を受け付ける押下受付手段と、押下受付手段によって表示画面の押下が受け付けられたときに、押下された表示画面上の位置である押下位置を検出する押下位置検出手段と、押下受付手段によって表示画面の押下が受け付けられたことに基づいて、押下位置検出手段によって検出された押下位置に応じた所定位置に仮想コントローラを表示する仮想コントローラ表示手段と、を有するユーザインターフェース処理装置が記載されている。   As such a device, for example, in Patent Document 1, a press accepting unit that accepts pressing of a display screen by a touch operation of a player's touch panel, and a display that is pressed when the press of the display screen is accepted by the press accepting unit On the basis of the pressing position detecting means for detecting the pressing position that is a position on the screen and the pressing of the display screen received by the pressing receiving means, a predetermined position corresponding to the pressing position detected by the pressing position detecting means is obtained. A user interface processing device having virtual controller display means for displaying a virtual controller is described.

特許第4932010号公報Japanese Patent No. 4932010

上記従来技術では、ユーザは仮想コントローラを表示画面上の任意の位置に配置できる。しかしながら、ユーザの手の大きさやタッチパネルの大きさ、デバイスの把持の仕方等によっては、仮想コントローラを所望の位置に配置しても、指が届かないあるいは届き難い等により操作し難い場合があり、ユーザに不便が生じる可能性があった。   In the above prior art, the user can place the virtual controller at an arbitrary position on the display screen. However, depending on the size of the user's hand, the size of the touch panel, how to hold the device, etc., even if the virtual controller is placed at the desired position, it may be difficult to operate due to the finger not reaching or difficult to reach, etc. Inconvenience may occur to the user.

本発明はこのような問題点に鑑みてなされたものであり、ユーザの利便性を向上することができるユーザインターフェース処理プログラム及びこのユーザインターフェース処理プログラムが記録された記録媒体を提供することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide a user interface processing program capable of improving user convenience and a recording medium on which the user interface processing program is recorded. To do.

上記目的を達成するために、本発明のユーザインターフェース処理プログラムは、タッチパネルを備えた情報処理装置を、前記タッチパネルにおける第1入力操作を検出する第1検出処理部、前記第1検出処理部により検出された前記第1入力操作に基づいて、前記タッチパネルの所定の位置に所定の大きさを有する第1領域を特定する第1領域特定処理部、前記第1領域特定処理部により特定された前記第1領域に、前記タッチパネルの表示内容を操作するための操作オブジェクトを前記第1領域に対応した大きさで表示する表示処理部、として機能させる。   In order to achieve the above object, a user interface processing program of the present invention detects an information processing apparatus including a touch panel by a first detection processing unit that detects a first input operation on the touch panel, and the first detection processing unit. Based on the first input operation that has been performed, a first region specifying processing unit that specifies a first region having a predetermined size at a predetermined position of the touch panel, and the first region specifying processing unit specified by the first region specifying processing unit In one area, an operation object for operating the display content of the touch panel is caused to function as a display processing unit that displays a size corresponding to the first area.

これにより、ユーザはタッチパネルに対して第1入力操作を行うことにより、操作オブジェクトを表示させる位置及び大きさを指定できる。すなわち、ユーザは操作オブジェクトをタッチパネル上の所望の位置に所望の大きさで表示させることができる。これにより、ユーザの手の大きさ、情報処理装置やタッチパネルの大きさ、情報処理装置の把持の仕方等に応じて、操作オブジェクトを操作し易い位置に操作し易い大きさで表示させることができる。また、タッチパネルの大きさ等に応じて操作オブジェクトの位置や大きさを調整することで、ユーザが見たい表示内容が操作オブジェクトと重なって見えなくなることを防止できる。したがって、ユーザの利便性を向上することができる。   Thus, the user can designate the position and size for displaying the operation object by performing the first input operation on the touch panel. That is, the user can display the operation object in a desired size at a desired position on the touch panel. Thereby, according to the size of the user's hand, the size of the information processing device or the touch panel, the way of gripping the information processing device, etc., the operation object can be displayed in a position where it can be easily operated at a position where it can be easily operated. . Further, by adjusting the position and size of the operation object according to the size of the touch panel and the like, it is possible to prevent the display content that the user wants to see from overlapping with the operation object. Therefore, user convenience can be improved.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記情報処理装置を、前記第1検出処理部により検出された前記第1入力操作に基づいて、前記操作オブジェクトの種類を特定するオブジェクト種類特定処理部、としてさらに機能させ、前記表示処理部は、前記オブジェクト種類特定処理部により特定された種類の前記操作オブジェクトを表示する。   In the user interface processing program of the present invention, preferably, the information processing apparatus is configured to specify the type of the operation object based on the first input operation detected by the first detection processing unit. The display processing unit further functions as a processing unit, and displays the operation object of the type specified by the object type specifying processing unit.

本発明では、予め複数種類の第1入力操作と複数種類の操作オブジェクトとが互いに対応付けられており、ユーザは所望の操作オブジェクトに対応する第1入力操作を行うことで、当該操作オブジェクトを表示させる位置及び大きさを指定できるだけでなく、その種類についても指定することができる。これにより、例えば設定画面を開いて操作オブジェクトの種類を設定する等の操作が不要となる。また、例えば種類の異なる複数の操作オブジェクトを操作し易い位置(例えば片手持ちで操作できる位置等)に集約して配置すること等が容易にできるので、ユーザの利便性をさらに向上できる。   In the present invention, a plurality of types of first input operations and a plurality of types of operation objects are associated with each other in advance, and the user displays the operation objects by performing a first input operation corresponding to a desired operation object. Not only can the position and size to be specified be specified, but also the type can be specified. This eliminates the need for operations such as opening the setting screen and setting the type of operation object. Further, for example, it is possible to easily arrange a plurality of different types of operation objects at positions where they can be easily operated (for example, positions where they can be operated with one hand), and the convenience of the user can be further improved.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記第1検出処理部は、前記第1入力操作として、所定の図形を描くドラッグ操作を検出し、前記第1領域特定処理部は、前記第1検出処理部により検出された前記図形を包含するように前記第1領域を特定する。   In the user interface processing program of the present invention, preferably, the first detection processing unit detects a drag operation for drawing a predetermined figure as the first input operation, and the first region specifying processing unit The first region is specified so as to include the graphic detected by the first detection processing unit.

所定の図形を描くドラッグ操作を第1入力操作とすることにより、第1入力操作とそれ以外の通常の操作(ゲームを進行させるための操作等)とが混同されて誤検出が生じるのを防止できる。したがって、ユーザインターフェースの信頼性を向上できる。   By making the drag operation for drawing a predetermined figure the first input operation, it is possible to prevent the first input operation from being confused with other normal operations (such as operations for advancing the game). it can. Therefore, the reliability of the user interface can be improved.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記オブジェクト種類特定処理部は、前記第1検出処理部により検出された前記図形の種類に基づいて、前記操作オブジェクトの種類を特定する。   In the user interface processing program of the present invention, it is preferable that the object type specifying processing unit specifies the type of the operation object based on the type of the graphic detected by the first detection processing unit.

これにより、ユーザはドラッグ操作により描く図形の種類により表示させる操作オブジェクトの種類を指定できる。したがって、容易且つ速やかな指定操作が可能であると共に、各ユーザに固有の描画の癖(図形の縦横比や形状のくずれ等)の影響を低減でき、操作オブジェクトの種類の指定の確実性を向上できる。   Thereby, the user can designate the type of operation object to be displayed according to the type of figure drawn by the drag operation. Therefore, it is possible to perform an easy and quick designation operation, reduce the influence of drawing habits specific to each user (graphic aspect ratio, shape distortion, etc.), and improve the certainty of designation of the type of operation object. it can.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記第1検出処理部は、前記第1入力操作として、前記タッチパネル上の複数の接触点への同時接触操作を検出し、前記第1領域特定処理部は、前記第1検出処理部により検出された前記複数の接触点を包含するように前記第1領域を特定する。   In the user interface processing program of the present invention, preferably, the first detection processing unit detects a simultaneous contact operation to a plurality of contact points on the touch panel as the first input operation, and the first area The identification processing unit identifies the first region so as to include the plurality of contact points detected by the first detection processing unit.

タッチパネル上の複数の接触点への同時接触操作(いわゆるマルチタッチ操作)を第1入力操作とすることにより、第1入力操作とそれ以外の通常の操作(ゲームを進行させるための操作等)とが混同されて誤検出が生じるのを防止できる。したがって、ユーザインターフェースの信頼性を向上できる。また、ユーザがタッチした接触点がそのまま第1領域の輪郭(境界)となるので、直感的な領域指定操作が可能となる。   By making a simultaneous contact operation (so-called multi-touch operation) to a plurality of contact points on the touch panel as the first input operation, the first input operation and other normal operations (operations for advancing the game, etc.) Can be prevented from being misunderstood. Therefore, the reliability of the user interface can be improved. In addition, since the contact point touched by the user becomes the outline (boundary) of the first area as it is, an intuitive area designation operation is possible.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記オブジェクト種類特定処理部は、前記第1検出処理部により検出された前記接触点の数に基づいて、前記操作オブジェクトの種類を特定する。   In the user interface processing program of the present invention, preferably, the object type specifying processing unit specifies the type of the operation object based on the number of the contact points detected by the first detection processing unit.

これにより、ユーザはマルチタッチ操作の接触点数により表示させる操作オブジェクトの種類を指定できる。したがって、容易且つ速やかな指定操作が可能であると共に、各ユーザに固有の操作の癖の影響を排除でき、操作オブジェクトの種類の指定の確実性を向上できる。   Thereby, the user can designate the type of operation object to be displayed by the number of contact points of the multi-touch operation. Therefore, it is possible to perform an easy and quick designation operation, to eliminate the influence of an operation habit unique to each user, and to improve the certainty of designation of the type of the operation object.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記情報処理装置を、前記タッチパネルにおける第2入力操作を検出する第2検出処理部、前記第2検出処理部により検出された前記第2入力操作に基づいて、前記タッチパネルの所定の位置に所定の大きさを有する第2領域を特定する第2領域特定処理部、前記第2領域特定処理部により特定された前記第2領域に基づいて、前記タッチパネルに表示された複数のオブジェクトの中から前記操作オブジェクトにより操作される操作対象オブジェクトを指定するオブジェクト指定処理部、としてさらに機能させる。   In the user interface processing program of the present invention, it is preferable that the information processing apparatus includes a second detection processing unit that detects a second input operation on the touch panel, and the second input detected by the second detection processing unit. Based on the operation, based on the second area specified by the second area specifying processor, a second area specifying processor that specifies a second area having a predetermined size at a predetermined position of the touch panel, It further functions as an object designation processing unit for designating an operation target object operated by the operation object from among a plurality of objects displayed on the touch panel.

これにより、ユーザはタッチパネルに対して第2入力操作を行うことにより、タッチパネルに表示された複数のオブジェクトの中から、操作オブジェクトで操作する操作対象オブジェクトを指定できる。その結果、例えば操作対象オブジェクトが複数あるような場合でも、それらを個別に指定する必要が無く一度に指定できるので、容易且つ速やかで、直感的な指定操作が可能である。また、その後は操作オブジェクトを操作することで複数の操作対象オブジェクトをまとめて操作できる。したがって、ユーザの利便性をさらに向上できる。   Accordingly, the user can designate an operation target object to be operated with the operation object from among a plurality of objects displayed on the touch panel by performing the second input operation on the touch panel. As a result, even when there are a plurality of operation target objects, for example, they can be specified at a time without having to specify them individually, so that an intuitive specification operation can be performed easily, quickly. After that, a plurality of operation target objects can be collectively operated by operating the operation objects. Therefore, user convenience can be further improved.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、前記情報処理装置を、前記表示処理部により表示された複数の前記操作オブジェクトと、前記オブジェクト指定処理部により指定された複数の前記操作対象オブジェクトと、を対応づける対応付け処理部、としてさらに機能させる。   In the user interface processing program of the present invention, it is preferable that the information processing apparatus includes a plurality of the operation objects displayed by the display processing unit and a plurality of the operation target objects specified by the object specification processing unit. Are further functioned as an association processing unit for associating.

これにより、複数の操作対象オブジェクトの各々を異なる操作オブジェクトで個別に操作したいような場合に、ユーザは複数の操作オブジェクトを所望の位置に所望の大きさで表示させ、操作オブジェクトごとに操作対象オブジェクトを容易且つ速やかで直感的な操作で対応付けることができる。したがって、ユーザの利便性をさらに向上できる。   As a result, when it is desired to individually operate each of the plurality of operation target objects with different operation objects, the user displays the plurality of operation objects in a desired size at a desired position, and the operation target object for each operation object. Can be associated with each other easily, quickly and intuitively. Therefore, user convenience can be further improved.

また、本発明のユーザインターフェース処理プログラムは、好ましくは、ゲームプログラムである。   The user interface processing program of the present invention is preferably a game program.

これにより、ユーザが操作し易い、利便性を向上させたゲームを実現できる。   As a result, it is possible to realize a game with improved convenience that is easy for the user to operate.

上記目的を達成するために、本発明の記録媒体は、上記ユーザインターフェース処理プログラムを記録した、情報処理装置が読み取り可能な記録媒体である。   In order to achieve the above object, a recording medium of the present invention is a recording medium readable by an information processing apparatus on which the user interface processing program is recorded.

本発明のユーザインターフェース処理プログラム及び記録媒体によれば、ユーザの利便性を向上することができる。   According to the user interface processing program and the recording medium of the present invention, user convenience can be improved.

一実施形態に係る情報処理装置の外観構成の一例を表す外観図である。1 is an external view illustrating an example of an external configuration of an information processing apparatus according to an embodiment. 情報処理装置の操作オブジェクトの表示等に関わる機能的構成の一例を表すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration related to display of an operation object of the information processing apparatus. ドラッグ操作により操作オブジェクトを表示させる場合のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touchscreen in the case of displaying an operation object by drag operation. マルチタッチ操作により操作オブジェクトを表示させる場合のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touchscreen in the case of displaying an operation object by multi-touch operation. 操作オブジェクトを用いてオブジェクトを操作する際のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touchscreen at the time of operating an object using an operation object. ドラッグ操作により複数種類の操作オブジェクトを表示させる場合のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touchscreen in the case of displaying a multiple types of operation object by drag operation. マルチタッチ操作により複数種類の操作オブジェクトを表示させる場合のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touch panel in the case of displaying a multiple types of operation object by multi-touch operation. ドラッグ操作により操作対象オブジェクトを指定する場合のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touch panel in the case of designating an operation target object by drag operation. 複数の操作オブジェクトにより複数の操作対象オブジェクトを操作する場合のタッチパネルの表示の一例を表す説明図である。It is explanatory drawing showing an example of the display of a touch panel in the case of operating a some operation target object with a some operation object. 情報処理装置のCPUによって実行される操作オブジェクトの表示等に関わる処理手順の一例を表すフローチャートである。It is a flowchart showing an example of the process sequence in connection with the display of the operation object, etc. which are performed by CPU of information processing apparatus. 情報処理装置のハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of information processing apparatus.

以下、本発明の一実施の形態について図面を参照しつつ説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<1.情報処理装置の外観構成>
まず、図1を用いて、本実施形態に係る情報処理装置1の外観構成の一例について説明する。図1に示すように、情報処理装置1は、各種の表示及びユーザによる各種の入力操作が行われるタッチパネル3を有する。ユーザは、指等によりタッチパネル3に接触することで所望の操作入力を行う。
<1. Appearance configuration of information processing apparatus>
First, an example of the external configuration of the information processing apparatus 1 according to the present embodiment will be described with reference to FIG. As illustrated in FIG. 1, the information processing apparatus 1 includes a touch panel 3 on which various displays and various input operations by a user are performed. The user performs a desired operation input by touching the touch panel 3 with a finger or the like.

タッチパネル3の検出方式は、特に限定されるものではないが、例えば抵抗膜方式、静電容量方式、光学方式、電磁誘導方式等、種々の検出手法を採用することが可能である。なお、情報処理装置1は、タッチパネル3以外に、ボタンやスイッチ等の操作入力部を備えてもよい。   The detection method of the touch panel 3 is not particularly limited, but various detection methods such as a resistive film method, a capacitance method, an optical method, and an electromagnetic induction method can be employed. Note that the information processing apparatus 1 may include an operation input unit such as a button or a switch in addition to the touch panel 3.

情報処理装置1は、例えばスマートフォン、タブレット型コンピュータ、携帯型ゲーム機等である。但し、これらに限定されるものではなく、表示装置及び入力装置としてタッチパネルを備えるものであれば、例えば、サーバコンピュータ、デスクトップ型コンピュータ、ノート型コンピュータ等のように、コンピュータとして製造、販売等されているものの他、携帯電話、ファブレット等のように、電話機として製造、販売等されているもの、据え置き型のゲーム機等も含まれる。   The information processing apparatus 1 is, for example, a smartphone, a tablet computer, a portable game machine, or the like. However, the present invention is not limited thereto, and any display device and input device provided with a touch panel may be manufactured and sold as a computer, such as a server computer, a desktop computer, or a notebook computer. In addition to what is included, mobile phones, fablets, and the like that are manufactured and sold as telephones, stationary game machines, and the like are also included.

本実施形態では、情報処理装置1により、ユーザインターフェース処理プログラムの一例であるゲームプログラムが実行される場合について説明する。   This embodiment demonstrates the case where the information processing apparatus 1 runs the game program which is an example of a user interface processing program.

<2.情報処理装置の機能的構成>
次に、図2及び図3〜図9を用いて、情報処理装置1の機能的構成のうち、操作オブジェクトの表示等に関わる機能的構成の一例について説明する。なお、図2中に示す矢印は信号の流れの一例を示すものであり、信号の流れ方向を限定するものではない。
<2. Functional configuration of information processing apparatus>
Next, an example of the functional configuration related to the display of the operation object among the functional configurations of the information processing apparatus 1 will be described with reference to FIGS. 2 and 3 to 9. In addition, the arrow shown in FIG. 2 shows an example of the signal flow, and does not limit the signal flow direction.

図2に示すように、情報処理装置1は、上述したタッチパネル3、第1検出処理部5、第1領域特定処理部7、表示処理部9、オブジェクト種類特定処理部11、操作オブジェクトデータベース12、第2検出処理部13、第2領域特定処理部15、オブジェクト指定処理部17、対応付け処理部19を有する。   As shown in FIG. 2, the information processing apparatus 1 includes the touch panel 3, the first detection processing unit 5, the first region specifying processing unit 7, the display processing unit 9, the object type specifying processing unit 11, the operation object database 12, It has the 2nd detection process part 13, the 2nd area | region specific process part 15, the object designation | designated process part 17, and the matching process part 19. FIG.

第1検出処理部5は、タッチパネル3における第1入力操作を検出する。第1入力操作は、タッチパネル3の表示内容を操作するための操作オブジェクト21(後述の図3及び図4等参照)を表示する位置及び大きさを指定するために、ユーザが行う入力操作である。第1入力操作としては、例えば所定の図形27(後述の図3等参照)を描くドラッグ操作や、タッチパネル上の複数の接触点31(後述の図4等参照)への同時接触操作(いわゆるマルチタッチ操作)等が考えられるが、これらに限定されるものではない。すなわち、所定の大きさを有する領域を指定できる操作であればどのような操作でもよい。   The first detection processing unit 5 detects a first input operation on the touch panel 3. The first input operation is an input operation performed by the user in order to designate a position and a size for displaying an operation object 21 (see FIGS. 3 and 4 to be described later) for operating the display content of the touch panel 3. . Examples of the first input operation include a drag operation for drawing a predetermined figure 27 (see FIG. 3 and the like described later), and a simultaneous contact operation (so-called multi-touch) to a plurality of contact points 31 (see FIG. 4 and the like described later) on the touch panel. Touch operation) is conceivable, but is not limited thereto. That is, any operation may be used as long as it can specify an area having a predetermined size.

第1領域特定処理部7は、第1検出処理部5により検出された第1入力操作に基づいて、タッチパネル3の所定の位置に所定の大きさを有する第1領域23(後述の図3及び図4等参照)を特定する。第1領域特定処理部7は、例えば第1入力操作として上記ドラッグ操作が行われた場合には、描かれた図形27を包含するように第1領域23を特定する。また第1領域特定処理部7は、例えば第1入力操作として上記マルチタッチ操作が行われた場合には、同時接触された複数の接触点31を包含するように第1領域23を特定する。   Based on the first input operation detected by the first detection processing unit 5, the first region specifying processing unit 7 has a first region 23 having a predetermined size at a predetermined position on the touch panel 3 (see FIG. 3 and FIG. (See FIG. 4). For example, when the drag operation is performed as the first input operation, the first region specifying processing unit 7 specifies the first region 23 so as to include the drawn graphic 27. For example, when the multi-touch operation is performed as the first input operation, the first region specifying processing unit 7 specifies the first region 23 so as to include a plurality of contact points 31 that are simultaneously contacted.

表示処理部9は、第1領域特定処理部7により特定された第1領域23に、タッチパネル3の表示内容を操作するための操作オブジェクト21を第1領域23に対応した大きさで表示する。このとき、操作オブジェクト21はタッチパネル3上で新たに生成されて表示される。操作オブジェクト21としては、例えば仮想コントローラや操作ボタン、操作キー、操作リング、アイコン等が考えられるが、これらに限定されるものではない。すなわち、タッチパネル3の表示内容を操作可能なオブジェクトであればどのようなものでもよい。   The display processing unit 9 displays the operation object 21 for operating the display content of the touch panel 3 in a size corresponding to the first region 23 in the first region 23 specified by the first region specifying processing unit 7. At this time, the operation object 21 is newly generated and displayed on the touch panel 3. As the operation object 21, for example, a virtual controller, an operation button, an operation key, an operation ring, an icon, and the like can be considered, but the operation object 21 is not limited to these. That is, any object that can manipulate the display content of the touch panel 3 may be used.

図3(a)〜図3(c)に、タッチパネル3の表示の一例を示す。図3(a)に示す例では、タッチパネル3に例えばゲーム上の人物キャラクタであるオブジェクト25が表示されており、表示画面の左下で第1入力操作として星形の図形27Aを描くドラッグ操作が行われている。図形27Aの形状は特に限定されるものではなく、当該図形27Aを描くドラッグ操作が通常の操作(例えばゲームを進行させるための操作等)と区別可能であれば、その他の形状としてもよい。   FIG. 3A to FIG. 3C show examples of the display on the touch panel 3. In the example shown in FIG. 3A, for example, an object 25, which is a human character on the game, is displayed on the touch panel 3, and a drag operation for drawing a star-shaped figure 27A is performed as a first input operation at the lower left of the display screen. It has been broken. The shape of the graphic 27A is not particularly limited, and other shapes may be used as long as the drag operation for drawing the graphic 27A can be distinguished from a normal operation (for example, an operation for advancing the game).

なお、図3(a)では説明の便宜上、ドラッグ操作の軌跡である図形27Aを図示しているが、タッチパネル3に図形27Aは表示されない(但し表示してもよい)。また、図3(a)に示すユーザの手29は概念的に図示したものであり、手29とタッチパネル3等との大小関係や、操作入力を行う指を限定するものではない。   In FIG. 3A, for convenience of explanation, the figure 27A that is the locus of the drag operation is illustrated, but the figure 27A is not displayed on the touch panel 3 (however, it may be displayed). Further, the user's hand 29 shown in FIG. 3A is conceptually illustrated, and does not limit the magnitude relationship between the hand 29 and the touch panel 3 or the like, or the finger that performs the operation input.

そして、図3(b)に示すように、描かれた星形の図形27Aを包含するように第1領域23が特定される。この例では、星形の図形27Aの各頂点が4辺上に位置する四角形状の第1領域23Aが特定されている。なお、第1領域23Aの形状は特に限定されるものではなく、四角形以外の形状としてもよい。また、図3(b)では説明の便宜上、第1領域23Aを図示しているが、タッチパネル3に第1領域23Aは表示されない(但し表示してもよい)。   Then, as shown in FIG. 3B, the first region 23 is specified so as to include the drawn star-shaped figure 27A. In this example, a quadrangular first region 23A in which each vertex of the star-shaped figure 27A is located on four sides is specified. The shape of the first region 23A is not particularly limited, and may be a shape other than a quadrangle. 3B shows the first area 23A for convenience of explanation, the first area 23A is not displayed on the touch panel 3 (however, it may be displayed).

その後、図3(c)に示すように、操作オブジェクト21が第1領域23Aの位置に第1領域23Aに対応した大きさで表示される。この例では、操作オブジェクト21として十字キー21Aが表示されており、十字キー21Aの各突出部の端部が第1領域23Aの各辺に略一致する大きさとなるように表示されている。   Thereafter, as shown in FIG. 3C, the operation object 21 is displayed at a position corresponding to the first area 23A at the position of the first area 23A. In this example, the cross key 21A is displayed as the operation object 21, and the end of each protruding portion of the cross key 21A is displayed so as to have a size that substantially matches each side of the first area 23A.

図4(a)〜図4(c)に、タッチパネル3の表示の他の例を示す。図4(a)に示す例では、タッチパネル3に上記と同じオブジェクト25が表示されており、表示画面の右下で第1入力操作として例えば4箇所の接触点31への同時接触操作(いわゆる4点マルチタッチ操作)が行われている。なお、接触点31の数は4点に限定されるものではなく、領域を指定可能であれば4点以外(例えば3点、5点等)としてもよい。   4A to 4C show other examples of display on the touch panel 3. FIG. In the example shown in FIG. 4A, the same object 25 as described above is displayed on the touch panel 3, and a simultaneous contact operation (so-called 4 for example) at four contact points 31 is performed as the first input operation at the lower right of the display screen. Point multi-touch operation). Note that the number of contact points 31 is not limited to four, and may be other than four (eg, three, five, etc.) as long as an area can be specified.

なお、図4(a)では説明の便宜上、接触点31を図示しているが、タッチパネル3に接触点31は表示されない(但し表示してもよい)。また、図4(a)に示すユーザの手29は概念的に図示したものであり、手29とタッチパネル3等との大小関係や、操作入力を行う指を限定するものではない。   4A shows the contact point 31 for convenience of explanation, the contact point 31 is not displayed on the touch panel 3 (but may be displayed). Further, the user's hand 29 shown in FIG. 4A is conceptually illustrated, and does not limit the magnitude relationship between the hand 29 and the touch panel 3 or the like, or the finger that performs the operation input.

そして、図4(b)に示すように、4つの接触点31を包含するように第1領域23が特定される。この例では、4つの接触点31を頂点とする四角形状の第1領域23Bが特定されている。なお、図4(b)では説明の便宜上、第1領域23Bを図示しているが、タッチパネル3に第1領域23Bは表示されない(但し表示してもよい)。   Then, as shown in FIG. 4B, the first region 23 is specified so as to include the four contact points 31. In this example, a quadrangular first region 23B having four contact points 31 as apexes is specified. 4B shows the first area 23B for convenience of explanation, the first area 23B is not displayed on the touch panel 3 (however, it may be displayed).

その後、図4(c)に示すように、操作オブジェクト21が第1領域23Bの位置に第1領域23Bに対応した大きさで表示される。この例では、操作オブジェクト21として円環状の操作リング21Bが表示されており、操作リング21Bが第1領域23Bに内接する大きさとなるように表示されている。   Thereafter, as shown in FIG. 4C, the operation object 21 is displayed at a position corresponding to the first area 23B at the position of the first area 23B. In this example, an annular operation ring 21B is displayed as the operation object 21, and the operation ring 21B is displayed so as to be inscribed in the first area 23B.

ユーザは、以上のようにして操作オブジェクト21をタッチパネル上の所望の位置に所望の大きさで表示させることができる。表示された操作オブジェクト21を使用して、操作対象であるオブジェクト25を操作することができる。例えば図5(a)に示す例では、十字キー21Aの上部が操作されることでオブジェクト25がジャンプしている。また図5(b)に示す例では、操作リング21Bの左部分が操作されることでオブジェクト25が左方向に移動している。   The user can display the operation object 21 in a desired size at a desired position on the touch panel as described above. Using the displayed operation object 21, the object 25 that is the operation target can be operated. For example, in the example shown in FIG. 5A, the object 25 jumps by operating the upper part of the cross key 21A. In the example shown in FIG. 5B, the object 25 is moved leftward by operating the left portion of the operation ring 21B.

なお、操作オブジェクト21は、以上のようにして表示された後に、ユーザの適宜の入力操作(ドラッグ操作等)により位置を変更したり、適宜の入力操作(いわゆるピンチアウト、ピンチイン等)により拡大又は縮小したり、不要となった場合には適宜の入力操作(例えば表示画面外へオブジェクトをはらうためのフリックやスワイプ操作等)により消去することが可能である。   After the operation object 21 is displayed as described above, the position of the operation object 21 is changed by a user's appropriate input operation (drag operation or the like), or the operation object 21 is enlarged or enlarged by an appropriate input operation (so-called pinch out, pinch in, or the like). When it is reduced or no longer needed, it can be deleted by an appropriate input operation (for example, a flick or swipe operation for placing an object outside the display screen).

図2に戻り、オブジェクト種類特定処理部11は、第1検出処理部5により検出された第1入力操作に基づいて、操作オブジェクト21の種類を特定する。すなわち、操作オブジェクトデータベース12に、複数種類の第1入力操作と複数種類の操作オブジェクト21とが対応付けられて格納されており、オブジェクト種類特定処理部11は、当該操作オブジェクトデータベース12を参照することで、第1検出処理部5により検出された第1入力操作に対応する操作オブジェクト21を特定する。   Returning to FIG. 2, the object type identification processing unit 11 identifies the type of the operation object 21 based on the first input operation detected by the first detection processing unit 5. That is, the operation object database 12 stores a plurality of types of first input operations and a plurality of types of operation objects 21 in association with each other, and the object type identification processing unit 11 refers to the operation object database 12. Thus, the operation object 21 corresponding to the first input operation detected by the first detection processing unit 5 is specified.

具体的には、オブジェクト種類特定処理部11は、例えば第1入力操作として上記ドラッグ操作が行われた場合には、第1検出処理部5により検出された図形27の種類に基づいて操作オブジェクト21の種類を特定する。またオブジェクト種類特定処理部11は、例えば第1入力操作として上記マルチタッチ操作が行われた場合には、第1検出処理部5により検出された接触点31の数に基づいて操作オブジェクト21の種類を特定する。   Specifically, the object type identification processing unit 11 operates the operation object 21 based on the type of the figure 27 detected by the first detection processing unit 5 when the drag operation is performed as the first input operation, for example. Identify the type. The object type identification processing unit 11 also determines the type of the operation object 21 based on the number of contact points 31 detected by the first detection processing unit 5 when the multi-touch operation is performed as the first input operation, for example. Is identified.

図6(a)〜図6(c)に、タッチパネル3の表示の一例を示す。図6(a)に示す例では、表示画面の左側で第1入力操作として上述の星形の図形27Aと、内部に直線を有する楕円形の図形27Bを描くドラッグ操作が行われている。なお、図形27Bの形状は特に限定されるものではなく、当該図形27Bを描くドラッグ操作が通常の操作と区別可能であれば、その他の形状としてもよい。   FIG. 6A to FIG. 6C show examples of display on the touch panel 3. In the example shown in FIG. 6A, a drag operation is performed on the left side of the display screen to draw the above-mentioned star-shaped figure 27A and an elliptical figure 27B having a straight line inside as the first input operation. The shape of the graphic 27B is not particularly limited, and other shapes may be used as long as the drag operation for drawing the graphic 27B can be distinguished from the normal operation.

そして、図6(b)に示すように、描かれた図形27A,27Bを包含するようにそれぞれ第1領域23A,23Cが特定される。この例では、楕円形の図形27Bが内接するように四角形状の第1領域23Cが特定されている。第1領域23Aは図3(b)と同様である。なお、第1領域23Cの形状は特に限定されるものではなく、四角形以外の形状としてもよい。   Then, as shown in FIG. 6B, the first regions 23A and 23C are specified so as to include the drawn figures 27A and 27B, respectively. In this example, the rectangular first region 23C is specified so that the elliptical figure 27B is inscribed. The first region 23A is the same as that in FIG. The shape of the first region 23C is not particularly limited, and may be a shape other than a quadrangle.

その後、図6(c)に示すように、操作オブジェクト21A,21Cが第1領域23A,23Cの位置に第1領域23A,23Cに対応した大きさでそれぞれ表示される。この例では、操作オブジェクト21として、星形の図形27Aに対応する上述の十字キー21Aと、楕円形の図形27Bに対応する2つの丸形状の操作ボタン21Cが表示されている。操作ボタン21Cは、各ボタンが第1領域23Cに内接する大きさとなるように表示されている。   Thereafter, as shown in FIG. 6C, the operation objects 21A and 21C are displayed at the positions of the first areas 23A and 23C in sizes corresponding to the first areas 23A and 23C, respectively. In this example, as the operation object 21, the above-described cross key 21A corresponding to the star-shaped figure 27A and two round-shaped operation buttons 21C corresponding to the elliptical figure 27B are displayed. The operation buttons 21C are displayed so that each button has a size inscribed in the first area 23C.

図7(a)〜図7(c)に、タッチパネル3の表示の他の例を示す。図7(a)に示す例では、表示画面の右側で第1入力操作として上述の4箇所の接触点31への同時接触操作と、3箇所の接触点33への同時接触操作(いわゆる3点マルチタッチ操作)が行われている。   7A to 7C show other examples of display on the touch panel 3. In the example shown in FIG. 7A, as the first input operation on the right side of the display screen, the simultaneous contact operation to the four contact points 31 described above and the simultaneous contact operation to the three contact points 33 (so-called three points). Multi-touch operation) is being performed.

そして、図7(b)に示すように、4つの接触点31と3つの接触点33を包含するようにそれぞれ第1領域23B,23Dが特定される。第1領域23Bは図4(b)と同様に四角形状であり、第1領域23Dは3つの接触点31を頂点とする三角形状である。   Then, as shown in FIG. 7B, the first regions 23B and 23D are specified so as to include four contact points 31 and three contact points 33, respectively. The first region 23B has a quadrangular shape as in FIG. 4B, and the first region 23D has a triangular shape having three contact points 31 as apexes.

その後、図7(c)に示すように、操作オブジェクト21B,21Dが第1領域23B,23Dの位置に第1領域23B,23Dに対応した大きさでそれぞれ表示される。この例では、操作オブジェクト21として、4つの接触点31に対応する上述の操作リング21Bと、3つの接触点33に対応する丸形状の操作ボタン21Dが表示されている。操作ボタン21Dは、第1領域23Dに内接する大きさとなるように表示されている。   Thereafter, as shown in FIG. 7C, the operation objects 21B and 21D are displayed at the positions of the first areas 23B and 23D in sizes corresponding to the first areas 23B and 23D, respectively. In this example, the operation ring 21B corresponding to the four contact points 31 and the circular operation button 21D corresponding to the three contact points 33 are displayed as the operation object 21. The operation button 21D is displayed so as to be inscribed in the first area 23D.

ユーザは、以上のようにして操作オブジェクト21を表示させる位置及び大きさを指定できるだけでなく、その種類についても指定することができる。   The user can specify not only the position and size for displaying the operation object 21 as described above, but also the type.

図2に戻り、第2検出処理部13は、タッチパネル3における第2入力操作を検出する。第2入力操作は、タッチパネル3に表示された複数のオブジェクト25の中から操作オブジェクト21により操作される操作対象オブジェクト25A,25B(後述の図8、図9参照)を指定するために、ユーザが行う入力操作である。第2入力操作としては、上記第1入力操作と同様に、例えば所定の図形35(後述の図8、図9参照)を描くドラッグ操作や、上述のマルチタッチ操作等が考えられるが、これらに限定されるものではない。すなわち、操作対象オブジェクトを指定できる操作であればどのような操作でもよい。   Returning to FIG. 2, the second detection processing unit 13 detects the second input operation on the touch panel 3. The second input operation is performed by the user in order to specify operation target objects 25A and 25B (see FIGS. 8 and 9 described later) operated by the operation object 21 from among the plurality of objects 25 displayed on the touch panel 3. Input operation to be performed. As the second input operation, for example, a drag operation for drawing a predetermined graphic 35 (see FIGS. 8 and 9 to be described later), the above-described multi-touch operation, and the like can be considered as in the first input operation. It is not limited. In other words, any operation may be used as long as the operation target object can be designated.

第2領域特定処理部15は、第2検出処理部13により検出された第2入力操作に基づいて、タッチパネル3の所定の位置に所定の大きさを有する第2領域37(後述の図8、図9参照)を特定する。第2領域37の特定の仕方は、前述の第1領域特定処理部7による第1領域23の特定の仕方と同様である。   Based on the second input operation detected by the second detection processing unit 13, the second region specifying processing unit 15 is a second region 37 having a predetermined size at a predetermined position on the touch panel 3 (see FIG. 8 described later). (See FIG. 9). The method of specifying the second region 37 is the same as the method of specifying the first region 23 by the first region specifying processor 7 described above.

オブジェクト指定処理部17は、第2領域特定処理部15により特定された第2領域37に基づいて、タッチパネル3に表示された複数のオブジェクト25の中から操作オブジェクト21により操作される操作対象オブジェクト25A,25Bを指定する。例えば、オブジェクト25の全部が第2領域37に含まれるものを操作対象オブジェクトに指定してもよいし、オブジェクト25の特定の部位(例えばキャラクタの頭部等)が第2領域37に含まれるものを操作対象オブジェクトに指定してもよい。   The object designation processing unit 17 operates the operation target object 25 </ b> A operated by the operation object 21 from among the plurality of objects 25 displayed on the touch panel 3 based on the second region 37 specified by the second region specifying processing unit 15. , 25B. For example, an object in which the entire object 25 is included in the second area 37 may be designated as the operation target object, or a specific part of the object 25 (for example, the head of the character) is included in the second area 37. May be designated as the operation target object.

対応付け処理部19は、表示処理部9により表示された複数の操作オブジェクト21と、オブジェクト指定処理部17により指定された複数の操作対象オブジェクト25A,25Bとを対応づける。   The association processing unit 19 associates the plurality of operation objects 21 displayed by the display processing unit 9 with the plurality of operation target objects 25 </ b> A and 25 </ b> B designated by the object designation processing unit 17.

図8(a)〜図8(c)に、タッチパネル3の表示の一例を示す。図8(a)に示す例では、タッチパネル3に複数のオブジェクト25が表示されており、表示画面の右下で第1入力操作として星形の図形27Aを描くドラッグ操作が行われている。   FIG. 8A to FIG. 8C show examples of display on the touch panel 3. In the example shown in FIG. 8A, a plurality of objects 25 are displayed on the touch panel 3, and a drag operation for drawing a star-shaped figure 27A is performed as a first input operation at the lower right of the display screen.

これにより、図8(b)に示すように、第1領域23Aが特定され、十字キー21Aが第1領域23Aの位置に第1領域23Aに対応した大きさで表示される。一方、図8(b)に示す例では、複数のオブジェクト25の上で第2入力操作として楕円形状の図形35を描くドラッグ操作が行われている。これにより、図形35と同形状の第2領域37が特定され、複数のオブジェクト25のうち第2領域37に例えば頭部が含まれるものが操作対象オブジェクト25Aとして指定される。これら操作対象オブジェクト25Aは十字キー21Aと対応づけられ、十字キー21Aにより操作することができる。   Thus, as shown in FIG. 8B, the first area 23A is specified, and the cross key 21A is displayed at the position of the first area 23A in a size corresponding to the first area 23A. On the other hand, in the example shown in FIG. 8B, a drag operation for drawing an elliptical figure 35 is performed on the plurality of objects 25 as the second input operation. As a result, the second area 37 having the same shape as the figure 35 is specified, and among the plurality of objects 25, for example, the second area 37 including the head is designated as the operation target object 25A. These operation target objects 25A are associated with the cross key 21A and can be operated with the cross key 21A.

なお、図形35及び第2領域37の形状は特に限定されるものではなく、操作対象オブジェクトを指定可能であり、且つ、当該図形35を描くドラッグ操作が通常の操作と区別可能であれば、その他の形状としてもよい。また、図8(b)では説明の便宜上、ドラッグ操作の軌跡である図形35及び第2領域37を図示しているが、タッチパネル3に図形35及び第2領域37は表示されない(但し表示してもよい)。   Note that the shapes of the graphic 35 and the second region 37 are not particularly limited. If the operation target object can be specified and the drag operation for drawing the graphic 35 is distinguishable from the normal operation, other shapes can be used. It is good also as a shape. Further, in FIG. 8B, for the sake of convenience of explanation, the graphic 35 and the second area 37 that are the locus of the drag operation are illustrated, but the graphic 35 and the second area 37 are not displayed on the touch panel 3 (however, they are displayed. Also good).

ユーザは、以上のようにして十字キー21Aにより操作する操作対象オブジェクトを指定することができる。例えば図8(c)に示す例では、十字キー21Aの右部が操作されることで複数の操作対象オブジェクト25Aをまとめて右方向に移動させることができる。   The user can specify the operation target object to be operated with the cross key 21A as described above. For example, in the example shown in FIG. 8C, by operating the right part of the cross key 21A, a plurality of operation target objects 25A can be moved together in the right direction.

図9(a)〜図9(c)に、タッチパネル3の表示の他の例を示す。図9(a)は、上述の図8(c)において複数の操作対象オブジェクト25Aが移動した後の表示である。図9(a)に示すように、複数のオブジェクト25は2つの群に分けられており、図中右側の操作対象オブジェクト25Aを操作するための十字キー21Aが右下に表示されている。またこの例では、表示画面の左下で第1入力操作として星形の図形27Aを描くドラッグ操作が行われている。   9A to 9C show other examples of display on the touch panel 3. FIG. 9A is a display after the plurality of operation target objects 25A are moved in FIG. 8C described above. As shown in FIG. 9A, the plurality of objects 25 are divided into two groups, and a cross key 21A for operating the operation target object 25A on the right side in the figure is displayed in the lower right. In this example, a drag operation for drawing a star-shaped figure 27A is performed as the first input operation at the lower left of the display screen.

これにより、図9(b)に示すように、表示画面の左下において第1領域23Aが特定され、十字キー21Aが第1領域23Aの位置に第1領域23Aに対応した大きさで表示される。さらに、図9(b)に示す例では、図中左側のオブジェクト25の上で第2入力操作として楕円形状の図形35を描くドラッグ操作が行われている。これにより、図形35と同形状の第2領域37が特定され、複数のオブジェクト25のうち第2領域37に例えば頭部が含まれるもの、すなわちこの例では残りのオブジェクト25の全部が操作対象オブジェクト25Bとして指定される。これら操作対象オブジェクト25Bは、表示画面左下の十字キー21Aと対応づけられ、当該十字キー21Aにより操作することができる。   As a result, as shown in FIG. 9B, the first area 23A is specified at the lower left of the display screen, and the cross key 21A is displayed at a position corresponding to the first area 23A at the position of the first area 23A. . Furthermore, in the example shown in FIG. 9B, a drag operation is performed on the object 25 on the left side of the drawing to draw an elliptical figure 35 as a second input operation. As a result, the second area 37 having the same shape as the graphic 35 is specified, and among the plurality of objects 25, the second area 37 includes, for example, the head, that is, in this example, all of the remaining objects 25 are the operation target objects. Designated as 25B. These operation target objects 25B are associated with the cross key 21A at the lower left of the display screen and can be operated with the cross key 21A.

ユーザは、以上のようにしてタッチパネル3に複数の十字キー21Aを表示させ、各十字キー21Aについて操作対象オブジェクト25A,25Bをそれぞれ指定することができる。例えば図9(c)に示す例では、表示画面右下の十字キー21Aの左部が操作されることで複数の操作対象オブジェクト25Aを左方向にまとめて移動させ、表示画面左下の十字キー21Aの右部が操作されることで複数の操作対象オブジェクト25Bを右方向にまとめて移動させることができる。   The user can display the plurality of cross keys 21A on the touch panel 3 as described above, and can specify the operation target objects 25A and 25B for each cross key 21A. For example, in the example shown in FIG. 9C, the left part of the cross key 21A at the lower right of the display screen is operated to move the plurality of operation target objects 25A together in the left direction, and the cross key 21A at the lower left of the display screen. Is operated, the plurality of operation target objects 25B can be moved together in the right direction.

なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU101(図11参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。   Note that the processing in each processing unit described above is not limited to the example of sharing of these processing, and may be processed by, for example, a smaller number of processing units (for example, one processing unit), Further, it may be processed by a further subdivided processing unit. The functions of each processing unit described above are implemented by a game program executed by a CPU 101 (see FIG. 11) to be described later. For example, a part thereof is a dedicated integrated circuit such as an ASIC or FPGA, and other electrical circuits. It may be implemented by an actual device such as a circuit.

<3.情報処理装置の処理手順>
次に、図10を用いて、情報処理装置1のCPU101によって実行される操作オブジェクトの表示等に関わる処理手順の一例を説明する。
<3. Processing procedure of information processing apparatus>
Next, an example of a processing procedure related to display of an operation object executed by the CPU 101 of the information processing apparatus 1 will be described with reference to FIG.

ステップS10では、情報処理装置1は、第1検出処理部5により、タッチパネル3における第1入力操作があったか否かを判定する。第1入力操作がない場合には(ステップS10:NO)、本ステップを繰り返し、第1入力操作があった場合には(ステップS10:YES)、次のステップS20に移る。   In step S <b> 10, the information processing apparatus 1 determines whether the first input operation on the touch panel 3 has been performed by the first detection processing unit 5. If there is no first input operation (step S10: NO), this step is repeated. If there is a first input operation (step S10: YES), the process proceeds to the next step S20.

ステップS20では、情報処理装置1は、第1領域特定処理部7により、上記ステップS10で第1検出処理部5により検出された第1入力操作に基づいて、タッチパネル3の所定の位置に所定の大きさを有する第1領域23を特定する。   In step S <b> 20, the information processing apparatus 1 determines a predetermined position at a predetermined position on the touch panel 3 based on the first input operation detected by the first detection processing unit 5 in step S <b> 10 by the first region specifying processing unit 7. The first region 23 having a size is specified.

ステップS30では、情報処理装置1は、オブジェクト種類特定処理部11により、上記ステップS10で第1検出処理部5により検出された第1入力操作に基づいて、操作オブジェクト21の種類を特定する。   In step S30, the information processing apparatus 1 identifies the type of the operation object 21 by the object type identification processing unit 11 based on the first input operation detected by the first detection processing unit 5 in step S10.

ステップS40では、情報処理装置1は、表示処理部9により、上記ステップS20で第1領域特定処理部7により特定された第1領域23に、上記ステップS30でオブジェクト種類特定処理部11により特定された種類の操作オブジェクト21を第1領域23に対応した大きさで表示する。   In step S40, the information processing device 1 is specified by the display processing unit 9 in the first region 23 specified by the first region specifying processing unit 7 in step S20, and by the object type specifying processing unit 11 in step S30. The type of operation object 21 is displayed in a size corresponding to the first area 23.

ステップS50では、情報処理装置1は、第2検出処理部13により、タッチパネル3における第2入力操作があったか否かを判定する。第2入力操作がない場合には(ステップS50:NO)、先のステップS10に戻る。一方、第2入力操作があった場合には(ステップS50:YES)、次のステップS60に移る。   In step S <b> 50, the information processing apparatus 1 determines whether the second input operation on the touch panel 3 has been performed by the second detection processing unit 13. If there is no second input operation (step S50: NO), the process returns to the previous step S10. On the other hand, if there is a second input operation (step S50: YES), the process proceeds to the next step S60.

ステップS60では、情報処理装置1は、第2領域特定処理部15により、上記ステップS50で第2検出処理部13により検出された第2入力操作に基づいて、タッチパネル3の所定の位置に所定の大きさを有する第2領域37を特定する。   In step S <b> 60, the information processing apparatus 1 determines a predetermined position at a predetermined position on the touch panel 3 based on the second input operation detected by the second detection processing unit 13 in step S <b> 50 by the second region specifying processing unit 15. A second region 37 having a size is specified.

ステップS70では、情報処理装置1は、オブジェクト指定処理部17により、上記ステップS60で第2領域特定処理部15により特定された第2領域37に基づいて、タッチパネル3に表示された複数のオブジェクト25の中から操作オブジェクト21により操作される操作対象オブジェクト25A,25Bを指定する。   In step S <b> 70, the information processing apparatus 1 causes the object designation processing unit 17 to display a plurality of objects 25 displayed on the touch panel 3 based on the second region 37 specified by the second region specifying processing unit 15 in step S <b> 60. The operation target objects 25A and 25B to be operated by the operation object 21 are designated from the above.

ステップS80では、情報処理装置1は、対応付け処理部19により、上記ステップS40で表示処理部9により表示された操作オブジェクト21と、上記ステップS70でオブジェクト指定処理部17により指定された操作対象オブジェクト25A,25Bとを対応づける。その後、先のステップS10に戻り、同様の手順を繰り返す。   In step S80, the information processing apparatus 1 causes the association processing unit 19 to display the operation object 21 displayed by the display processing unit 9 in step S40 and the operation target object specified by the object specification processing unit 17 in step S70. 25A and 25B are associated with each other. Then, it returns to previous step S10 and repeats the same procedure.

なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除・変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよい。例えば、上記では操作オブジェクトを表示させた後に操作対象オブジェクトを指定するようにしたが、反対に操作対象オブジェクトを指定した後に操作オブジェクトを表示させるようにしてもよい。   Note that the above-described processing procedure is an example, and at least a part of the above procedure may be deleted or changed, or a procedure other than the above may be added. Moreover, you may change the order of at least one part of the said procedure. For example, in the above description, the operation target object is specified after the operation object is displayed. However, the operation object may be displayed after the operation target object is specified.

<4.情報処理装置のハードウェア構成>
次に、図11を用いて、上記で説明したCPU101が実行するプログラムにより実装された各処理部を実現する情報処理装置1のハードウェア構成の一例について説明する。
<4. Hardware configuration of information processing apparatus>
Next, an example of the hardware configuration of the information processing apparatus 1 that implements each processing unit implemented by the program executed by the CPU 101 described above will be described with reference to FIG.

図11に示すように、情報処理装置1は、例えば、CPU101と、ROM103と、RAM105と、例えばASIC又はFPGA等の特定の用途向けに構築された専用集積回路107と、入力装置113と、出力装置115と、記録装置117と、ドライブ119と、接続ポート121と、通信装置123等を有する。これらの構成は、バス109や入出力インターフェース111等を介し相互に信号を伝達可能に接続されている。   As shown in FIG. 11, the information processing apparatus 1 includes, for example, a CPU 101, a ROM 103, a RAM 105, a dedicated integrated circuit 107 constructed for a specific application such as an ASIC or FPGA, an input device 113, and an output. A device 115, a recording device 117, a drive 119, a connection port 121, a communication device 123, and the like are included. These components are connected to each other through a bus 109, an input / output interface 111, and the like so that signals can be transmitted to each other.

ゲームプログラムは、例えば、ROM103やRAM105、記録装置117等に記録しておくことができる。   For example, the game program can be recorded in the ROM 103, the RAM 105, the recording device 117, or the like.

また、ゲームプログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD・MOディスク・DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体125に、一時的又は永続的に記録しておくこともできる。このような記録媒体125は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体125に記録されたゲームプログラムは、ドライブ119により読み出されて、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。   In addition, the game program may be temporarily or permanently recorded on a removable recording medium 125 such as a magnetic disk such as a flexible disk, various optical disks such as a CD / MO disk / DVD, or a semiconductor memory. it can. Such a recording medium 125 can also be provided as so-called package software. In this case, the game program recorded in these recording media 125 may be read by the drive 119 and recorded in the recording device 117 via the input / output interface 111, the bus 109, or the like.

また、ゲームプログラムは、例えば、ダウンロードサイト・他のコンピュータ・他の記録装置等(図示せず)に記録しておくこともできる。この場合、ゲームプログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置123がこのプログラムを受信する。そして、通信装置123が受信したプログラムは、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。   In addition, the game program can be recorded in, for example, a download site, another computer, another recording device, or the like (not shown). In this case, the game program is transferred via a network NW such as a LAN or the Internet, and the communication device 123 receives this program. The program received by the communication device 123 may be recorded in the recording device 117 via the input / output interface 111, the bus 109, or the like.

また、ゲームプログラムは、例えば、適宜の外部接続機器127に記録しておくこともできる。この場合、ゲームプログラムは、適宜の接続ポート121を介し転送され、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。   Further, the game program can be recorded in an appropriate external connection device 127, for example. In this case, the game program may be transferred via an appropriate connection port 121 and recorded in the recording device 117 via the input / output interface 111, the bus 109, or the like.

そして、CPU101が、上記記録装置117に記録されたプログラムに従い各種の処理を実行することにより、前述の第1検出処理部5や第1領域特定処理部7、オブジェクト種類特定処理部11等による処理が実現される。この際、CPU101は、例えば、上記記録装置117からプログラムを、直接読み出して実行してもよく、RAM105に一旦ロードした上で実行してもよい。更にCPU101は、例えば、プログラムを通信装置123やドライブ119、接続ポート121を介し受信する場合、受信したプログラムを記録装置117に記録せずに直接実行してもよい。   Then, the CPU 101 executes various processes according to the program recorded in the recording device 117, so that the processes by the first detection processing unit 5, the first region specifying processing unit 7, the object type specifying processing unit 11 and the like are performed. Is realized. At this time, for example, the CPU 101 may directly read and execute the program from the recording device 117 or may be executed after being once loaded into the RAM 105. Further, for example, when receiving the program via the communication device 123, the drive 119, and the connection port 121, the CPU 101 may directly execute the received program without recording it in the recording device 117.

また、CPU101は、必要に応じて、例えば前述のタッチパネル3や、マウス・キーボード・マイク・ゲームコントローラ等(図示せず)の入力装置113から入力する信号や情報に基づいて各種の処理を行ってもよい。   Further, the CPU 101 performs various processes based on signals and information input from the input device 113 such as the touch panel 3 described above and a mouse / keyboard / microphone / game controller (not shown) as necessary. Also good.

そして、CPU101は、上記の処理を実行した結果を、例えば前述のタッチパネル3等の表示装置や音声出力装置を含む、出力装置115から出力してもよく、さらにCPU101は、必要に応じてこの処理結果を通信装置123や接続ポート121を介し送信してもよく、上記記録装置117や記録媒体125に記録させてもよい。   Then, the CPU 101 may output the result of executing the above processing from the output device 115 including, for example, the display device such as the touch panel 3 and the sound output device described above, and the CPU 101 further performs this processing as necessary. The result may be transmitted via the communication device 123 or the connection port 121, or may be recorded on the recording device 117 or the recording medium 125.

<5.実施形態の効果>
以上説明したように、本実施形態のゲームプログラムは、タッチパネル3を備えた情報処理装置1を、タッチパネル3における第1入力操作を検出する第1検出処理部5、第1検出処理部5により検出された第1入力操作に基づいて、タッチパネル3の所定の位置に所定の大きさを有する第1領域23を特定する第1領域特定処理部7、第1領域特定処理部7により特定された第1領域23に、タッチパネル3の表示内容を操作するための操作オブジェクト21を第1領域23に対応した大きさで表示する表示処理部9、として機能させる。
<5. Effects of the embodiment>
As described above, the game program of the present embodiment detects the information processing apparatus 1 including the touch panel 3 by the first detection processing unit 5 and the first detection processing unit 5 that detect the first input operation on the touch panel 3. Based on the first input operation that has been performed, the first region specifying processing unit 7 that specifies the first region 23 having a predetermined size at a predetermined position on the touch panel 3, and the first region specifying processing unit 7 specified by the first region specifying processing unit 7 The operation object 21 for operating the display content of the touch panel 3 is caused to function as the display processing unit 9 that displays the size corresponding to the first area 23 in the first area 23.

これにより、ユーザはタッチパネル3に対して第1入力操作を行うことにより、操作オブジェクト21を表示させる位置及び大きさを指定できる。すなわち、ユーザは操作オブジェクト21をタッチパネル3上の所望の位置に所望の大きさで表示させることができる。これにより、ユーザの手の大きさ、情報処理装置1やタッチパネル3の大きさ、情報処理装置1の把持の仕方等に応じて、操作オブジェクト21を操作し易い位置に操作し易い大きさで表示させることができる。また、タッチパネル3の大きさ等に応じて操作オブジェクト21の位置や大きさを調整することで、ユーザが見たい表示内容が操作オブジェクト21と重なって見えなくなることを防止できる。したがって、ユーザの利便性を向上することができる。   Thereby, the user can designate the position and size at which the operation object 21 is displayed by performing the first input operation on the touch panel 3. That is, the user can display the operation object 21 in a desired size at a desired position on the touch panel 3. As a result, the operation object 21 is displayed at a position where it can be easily operated according to the size of the user's hand, the size of the information processing device 1 or the touch panel 3, the way of gripping the information processing device 1, and the like. Can be made. Further, by adjusting the position and size of the operation object 21 according to the size of the touch panel 3 and the like, it is possible to prevent the display content that the user wants to see from being overlapped with the operation object 21. Therefore, user convenience can be improved.

また、本実施形態のゲームプログラムは、情報処理装置1を、第1検出処理部5により検出された第1入力操作に基づいて、操作オブジェクト21の種類を特定するオブジェクト種類特定処理部11としてさらに機能させ、表示処理部9は、オブジェクト種類特定処理部11により特定された種類の操作オブジェクト21を表示する。   The game program of the present embodiment further includes the information processing apparatus 1 as an object type identification processing unit 11 that identifies the type of the operation object 21 based on the first input operation detected by the first detection processing unit 5. The display processing unit 9 displays the operation object 21 of the type specified by the object type specifying processing unit 11.

すなわち、本実施形態では、操作オブジェクトデータベース12に予め複数種類の第1入力操作と複数種類の操作オブジェクト21とが互いに対応付けられて記録されており、ユーザは所望の操作オブジェクト21に対応する第1入力操作を行うことで、当該操作オブジェクト21を表示させる位置及び大きさを指定できるだけでなく、その種類についても指定することができる。これにより、例えば設定画面を開いて操作オブジェクト21の種類を設定する等の操作が不要となる。また、例えば種類の異なる複数の操作オブジェクト21を操作し易い位置(例えば片手持ちで操作できる位置等)に集約して配置すること等が容易にできるので、ユーザの利便性をさらに向上できる。   That is, in the present embodiment, a plurality of types of first input operations and a plurality of types of operation objects 21 are recorded in the operation object database 12 in advance in association with each other, and the user corresponds to the desired operation object 21. By performing one input operation, not only can the position and size for displaying the operation object 21 be specified, but also the type can be specified. Thereby, for example, an operation such as opening the setting screen and setting the type of the operation object 21 becomes unnecessary. Further, for example, it is possible to easily arrange a plurality of different types of operation objects 21 at a position where they can be easily operated (for example, a position where they can be operated with one hand), and the convenience of the user can be further improved.

また、本実施形態では特に、第1検出処理部5は、第1入力操作として、所定の図形27を描くドラッグ操作を検出し、第1領域特定処理部7は、第1検出処理部5により検出された図形27を包含するように第1領域23を特定する。   In the present embodiment, in particular, the first detection processing unit 5 detects a drag operation for drawing a predetermined graphic 27 as the first input operation, and the first region specifying processing unit 7 is detected by the first detection processing unit 5. The first region 23 is specified so as to include the detected graphic 27.

このように、所定の図形27を描くドラッグ操作を第1入力操作とすることにより、第1入力操作とそれ以外の通常の操作(ゲームを進行させるための操作等)とが混同されて誤検出が生じるのを防止できる。したがって、ユーザインターフェースの信頼性を向上できる。   In this way, by making the drag operation for drawing the predetermined figure 27 the first input operation, the first input operation and other normal operations (such as an operation for advancing the game) are confused and erroneously detected. Can be prevented. Therefore, the reliability of the user interface can be improved.

また、本実施形態では特に、オブジェクト種類特定処理部11は、第1検出処理部5により検出された図形27の種類に基づいて、操作オブジェクト21の種類を特定する。   In the present embodiment, in particular, the object type identification processing unit 11 identifies the type of the operation object 21 based on the type of the graphic 27 detected by the first detection processing unit 5.

これにより、ユーザはドラッグ操作により描く図形27の種類により表示させる操作オブジェクト21の種類を指定できる。したがって、容易且つ速やかな指定操作が可能であると共に、各ユーザに固有の描画の癖(図形の縦横比や形状のくずれ等)の影響を低減でき、操作オブジェクト21の種類の指定の確実性を向上できる。   Thereby, the user can designate the type of the operation object 21 to be displayed according to the type of the figure 27 drawn by the drag operation. Therefore, it is possible to perform an easy and quick designation operation, and it is possible to reduce the influence of drawing habits (graphic aspect ratio, shape distortion, etc.) unique to each user, and to ensure the certainty of the type of the operation object 21. It can be improved.

また、本実施形態では特に、第1検出処理部5は、第1入力操作として、タッチパネル3上の複数の接触点31,33への同時接触操作を検出し、第1領域特定処理部7は、第1検出処理部5により検出された複数の接触点31,33を包含するように第1領域23を特定する。   In the present embodiment, in particular, the first detection processing unit 5 detects a simultaneous contact operation to the plurality of contact points 31 and 33 on the touch panel 3 as the first input operation, and the first region specifying processing unit 7 The first region 23 is specified so as to include the plurality of contact points 31 and 33 detected by the first detection processing unit 5.

このように、タッチパネル3上の複数の接触点31,33への同時接触操作を第1入力操作とすることにより、第1入力操作とそれ以外の通常の操作(ゲームを進行させるための操作等)とが混同されて誤検出が生じるのを防止できる。したがって、ユーザインターフェースの信頼性を向上できる。また、ユーザがタッチした接触点31,33がそのまま第1領域23の輪郭(領域外部との境界)となるので、直感的な領域指定操作が可能となる。   As described above, the simultaneous input operation to the plurality of contact points 31 and 33 on the touch panel 3 is set as the first input operation, so that the first input operation and the other normal operation (operation for advancing the game, etc.) ) Can be prevented from being confused and causing false detection. Therefore, the reliability of the user interface can be improved. In addition, since the contact points 31 and 33 touched by the user directly become the outline of the first area 23 (boundary with the outside of the area), an intuitive area designation operation is possible.

また、本実施形態では特に、オブジェクト種類特定処理部11は、第1検出処理部5により検出された接触点31,33の数に基づいて、操作オブジェクト21の種類を特定する。   In the present embodiment, in particular, the object type identification processing unit 11 identifies the type of the operation object 21 based on the number of contact points 31 and 33 detected by the first detection processing unit 5.

これにより、ユーザはマルチタッチ操作の接触点数により表示させる操作オブジェクト21の種類を指定できる。したがって、容易且つ速やかな指定操作が可能であると共に、各ユーザに固有の操作の癖の影響を排除でき、操作オブジェクト21の種類の指定の確実性を向上できる。   Thereby, the user can designate the type of the operation object 21 to be displayed by the number of contact points of the multi-touch operation. Therefore, an easy and quick designation operation can be performed, the influence of an operation habit unique to each user can be eliminated, and the certainty of designation of the type of the operation object 21 can be improved.

また、本実施形態のゲームプログラムは、情報処理装置1を、タッチパネル3における第2入力操作を検出する第2検出処理部13、第2検出処理部13により検出された第2入力操作に基づいて、タッチパネル3の所定の位置に所定の大きさを有する第2領域37を特定する第2領域特定処理部15、第2領域特定処理部15により特定された第2領域37に基づいて、タッチパネル3に表示された複数のオブジェクト25の中から操作オブジェクト21により操作される操作対象オブジェクト25A,25Bを指定するオブジェクト指定処理部17としてさらに機能させる。   In addition, the game program according to the present embodiment causes the information processing apparatus 1 to operate based on the second input operation detected by the second detection processing unit 13 that detects the second input operation on the touch panel 3 and the second detection processing unit 13. The touch panel 3 is based on the second area specifying unit 15 that specifies the second area 37 having a predetermined size at a predetermined position on the touch panel 3 and the second area 37 specified by the second area specifying unit 15. It further functions as the object designation processing unit 17 that designates the operation target objects 25A and 25B operated by the operation object 21 from among the plurality of objects 25 displayed in FIG.

これにより、ユーザはタッチパネル3に対して第2入力操作を行うことにより、タッチパネル3に表示された複数のオブジェクト25の中から、操作オブジェクト21で操作する操作対象オブジェクト25A,25Bを指定できる。その結果、例えば操作対象オブジェクト25A,25Bが複数あるような場合でも、それらを個別に指定する必要が無く一度に指定できるので、容易且つ速やかで、直感的な指定操作が可能である。また、その後は操作オブジェクト21を操作することで複数の操作対象オブジェクト25A,25Bをまとめて操作できる。したがって、ユーザの利便性をさらに向上できる。   Thereby, the user can designate the operation target objects 25 </ b> A and 25 </ b> B to be operated with the operation object 21 from the plurality of objects 25 displayed on the touch panel 3 by performing the second input operation on the touch panel 3. As a result, even when there are a plurality of operation target objects 25A and 25B, for example, it is not necessary to individually specify them, and they can be specified at one time. After that, by operating the operation object 21, a plurality of operation target objects 25A and 25B can be operated together. Therefore, user convenience can be further improved.

また、本実施形態のゲームプログラムは、情報処理装置1を、表示処理部9により表示された複数の操作オブジェクト21と、オブジェクト指定処理部17により指定された複数の操作対象オブジェクト25A,25Bと、を対応づける対応付け処理部19としてさらに機能させる。   In addition, the game program of the present embodiment causes the information processing apparatus 1 to display the plurality of operation objects 21 displayed by the display processing unit 9, the plurality of operation target objects 25 </ b> A and 25 </ b> B specified by the object specification processing unit 17, Are further made to function as the association processing unit 19 for associating.

これにより、複数の操作対象オブジェクト25A,25Bの各々を異なる操作オブジェクト21で個別に操作したいような場合に、ユーザは複数の操作オブジェクト21を所望の位置に所望の大きさで表示させ、操作オブジェクト21ごとに操作対象オブジェクト25A,25Bを容易且つ速やかで直感的な操作で対応付けることができる。したがって、ユーザの利便性をさらに向上できる。   Thereby, when it is desired to individually operate each of the plurality of operation target objects 25A and 25B with the different operation objects 21, the user displays the plurality of operation objects 21 at desired positions and in a desired size. It is possible to associate the operation target objects 25A and 25B for each 21 with an easy, quick and intuitive operation. Therefore, user convenience can be further improved.

<6.変形例等>
以上では、本発明のユーザインターフェース処理プログラムがゲームプログラムである場合を一例として説明したが、ゲームプログラムに限定されるものではない。例えば、情報処理装置1がカーナビ装置、鉄道や飲食店等における自動券売機、自動販売機、金融機関のATM、コピー機やFAX等のOA機器等である場合に、それらの機器に適用されるユーザインターフェース処理プログラムであってもよい。
<6. Modified example>
The case where the user interface processing program of the present invention is a game program has been described above as an example, but the present invention is not limited to a game program. For example, when the information processing device 1 is a car navigation device, an automatic ticket vending machine, a vending machine, an ATM of a financial institution, an OA device such as a copy machine or a fax machine in a railroad or a restaurant, etc. It may be a user interface processing program.

なお、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。   In addition to those already described above, the methods according to the above-described embodiments and modifications may be used in appropriate combination. In addition, although not illustrated one by one, the above-mentioned embodiment and each modification are implemented with various modifications within a range not departing from the gist thereof.

1 情報処理装置
3 タッチパネル
5 第1検出処理部
7 第1領域特定処理部
9 表示処理部
11 オブジェクト種類特定処理部
13 第2検出処理部
15 第2領域特定処理部
17 オブジェクト指定処理部
19 対応付け処理部
21 操作オブジェクト
21A〜21D 操作オブジェクト
23 第1領域
23A〜23D 第1領域
25 オブジェクト
25A,25B 操作対象オブジェクト
27 図形
27A,27B 図形
37 第2領域
125 記録媒体
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 3 Touch panel 5 1st detection process part 7 1st area | region specific process part 9 Display process part 11 Object type specific process part 13 2nd detection process part 15 2nd area | region specific process part 17 Object designation | designated process part 19 Correlation Processing unit 21 Operation object 21A to 21D Operation object 23 First area 23A to 23D First area 25 Object 25A, 25B Operation target object 27 Figure 27A, 27B Figure 37 Second area 125 Recording medium

Claims (10)

タッチパネルを備えた情報処理装置を、
前記タッチパネルにおける第1入力操作を検出する第1検出処理部、
前記第1検出処理部により検出された前記第1入力操作に基づいて、前記タッチパネルの所定の位置に所定の大きさを有する第1領域を特定する第1領域特定処理部、
前記第1領域特定処理部により特定された前記第1領域に、前記タッチパネルの表示内容を操作するための操作オブジェクトを前記第1領域に対応した大きさで表示する表示処理部、
として機能させることを特徴とするユーザインターフェース処理プログラム。
An information processing device equipped with a touch panel
A first detection processing unit for detecting a first input operation on the touch panel;
A first region specifying processing unit that specifies a first region having a predetermined size at a predetermined position of the touch panel based on the first input operation detected by the first detection processing unit;
A display processing unit for displaying an operation object for operating display content of the touch panel in a size corresponding to the first region in the first region specified by the first region specifying processing unit;
A user interface processing program characterized by functioning as:
前記情報処理装置を、
前記第1検出処理部により検出された前記第1入力操作に基づいて、前記操作オブジェクトの種類を特定するオブジェクト種類特定処理部、
としてさらに機能させ、
前記表示処理部は、
前記オブジェクト種類特定処理部により特定された種類の前記操作オブジェクトを表示する
ことを特徴とする請求項1に記載のユーザインターフェース処理プログラム。
The information processing apparatus;
An object type specifying processing unit for specifying the type of the operation object based on the first input operation detected by the first detection processing unit;
Further function as
The display processing unit
The user interface processing program according to claim 1, wherein the operation object of the type specified by the object type specifying processing unit is displayed.
前記第1検出処理部は、
前記第1入力操作として、所定の図形を描くドラッグ操作を検出し、
前記第1領域特定処理部は、
前記第1検出処理部により検出された前記図形を包含するように前記第1領域を特定する
ことを特徴とする請求項2に記載のユーザインターフェース処理プログラム。
The first detection processing unit includes:
As the first input operation, a drag operation for drawing a predetermined figure is detected,
The first area identification processing unit
The user interface processing program according to claim 2, wherein the first area is specified so as to include the graphic detected by the first detection processing unit.
前記オブジェクト種類特定処理部は、
前記第1検出処理部により検出された前記図形の種類に基づいて、前記操作オブジェクトの種類を特定する
ことを特徴とする請求項3に記載のユーザインターフェース処理プログラム。
The object type identification processing unit
The user interface processing program according to claim 3, wherein the type of the operation object is specified based on the type of the graphic detected by the first detection processing unit.
前記第1検出処理部は、
前記第1入力操作として、前記タッチパネル上の複数の接触点への同時接触操作を検出し、
前記第1領域特定処理部は、
前記第1検出処理部により検出された前記複数の接触点を包含するように前記第1領域を特定する
ことを特徴とする請求項2に記載のユーザインターフェース処理プログラム。
The first detection processing unit includes:
As the first input operation, a simultaneous contact operation to a plurality of contact points on the touch panel is detected,
The first area identification processing unit
The user interface processing program according to claim 2, wherein the first area is specified so as to include the plurality of contact points detected by the first detection processing unit.
前記オブジェクト種類特定処理部は、
前記第1検出処理部により検出された前記接触点の数に基づいて、前記操作オブジェクトの種類を特定する
ことを特徴とする請求項5に記載のユーザインターフェース処理プログラム。
The object type identification processing unit
6. The user interface processing program according to claim 5, wherein the type of the operation object is specified based on the number of the contact points detected by the first detection processing unit.
前記情報処理装置を、
前記タッチパネルにおける第2入力操作を検出する第2検出処理部、
前記第2検出処理部により検出された前記第2入力操作に基づいて、前記タッチパネルの所定の位置に所定の大きさを有する第2領域を特定する第2領域特定処理部、
前記第2領域特定処理部により特定された前記第2領域に基づいて、前記タッチパネルに表示された複数のオブジェクトの中から前記操作オブジェクトにより操作される操作対象オブジェクトを指定するオブジェクト指定処理部、
としてさらに機能させる
ことを特徴とする請求項1乃至6のいずれか1項に記載のユーザインターフェース処理プログラム。
The information processing apparatus;
A second detection processing unit for detecting a second input operation on the touch panel;
A second region specifying processing unit that specifies a second region having a predetermined size at a predetermined position of the touch panel based on the second input operation detected by the second detection processing unit;
An object designation processing unit for designating an operation target object operated by the operation object from among a plurality of objects displayed on the touch panel, based on the second region specified by the second region specification processing unit;
The user interface processing program according to any one of claims 1 to 6, further comprising:
前記情報処理装置を、
前記表示処理部により表示された複数の前記操作オブジェクトと、前記オブジェクト指定処理部により指定された複数の前記操作対象オブジェクトと、を対応づける対応付け処理部、
としてさらに機能させる
ことを特徴とする請求項7に記載のユーザインターフェース処理プログラム。
The information processing apparatus;
An association processing unit for associating the plurality of operation objects displayed by the display processing unit with the plurality of operation target objects designated by the object designation processing unit;
The user interface processing program according to claim 7, further functioning as:
ゲームプログラムであることを特徴とする請求項1乃至8のいずれか1項に記載のユーザインターフェース処理プログラム。   The user interface processing program according to claim 1, wherein the user interface processing program is a game program. 請求項1乃至9のいずれか1項に記載のユーザインターフェース処理プログラムを記録した、情報処理装置が読み取り可能な記録媒体。   A recording medium readable by an information processing apparatus, on which the user interface processing program according to claim 1 is recorded.
JP2016094087A 2016-05-09 2016-05-09 User interface processing program and recording medium Active JP6681110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016094087A JP6681110B2 (en) 2016-05-09 2016-05-09 User interface processing program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094087A JP6681110B2 (en) 2016-05-09 2016-05-09 User interface processing program and recording medium

Publications (2)

Publication Number Publication Date
JP2017204046A true JP2017204046A (en) 2017-11-16
JP6681110B2 JP6681110B2 (en) 2020-04-15

Family

ID=60323248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094087A Active JP6681110B2 (en) 2016-05-09 2016-05-09 User interface processing program and recording medium

Country Status (1)

Country Link
JP (1) JP6681110B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024253147A1 (en) * 2023-06-09 2024-12-12 株式会社ソニー・インタラクティブエンタテインメント Terminal device and game image display method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173237A (en) * 2001-09-28 2003-06-20 Ricoh Co Ltd Information input / output system, program and storage medium
JP2006304855A (en) * 2005-04-26 2006-11-09 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2008508601A (en) * 2004-07-30 2008-03-21 アップル インコーポレイテッド Gestures for touch-sensitive input devices
JP2010211500A (en) * 2009-03-10 2010-09-24 Autonetworks Technologies Ltd Operation device
JP2013061804A (en) * 2011-09-13 2013-04-04 Sony Computer Entertainment Inc Gui placement simulator, and gui placement setting assistance method
JP2013179604A (en) * 2013-03-29 2013-09-09 Fujitsu Mobile Communications Ltd Mobile terminal

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173237A (en) * 2001-09-28 2003-06-20 Ricoh Co Ltd Information input / output system, program and storage medium
JP2008508601A (en) * 2004-07-30 2008-03-21 アップル インコーポレイテッド Gestures for touch-sensitive input devices
JP2006304855A (en) * 2005-04-26 2006-11-09 Nintendo Co Ltd GAME PROGRAM AND GAME DEVICE
JP2010211500A (en) * 2009-03-10 2010-09-24 Autonetworks Technologies Ltd Operation device
JP2013061804A (en) * 2011-09-13 2013-04-04 Sony Computer Entertainment Inc Gui placement simulator, and gui placement setting assistance method
JP2013179604A (en) * 2013-03-29 2013-09-09 Fujitsu Mobile Communications Ltd Mobile terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024253147A1 (en) * 2023-06-09 2024-12-12 株式会社ソニー・インタラクティブエンタテインメント Terminal device and game image display method

Also Published As

Publication number Publication date
JP6681110B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
US11036372B2 (en) Interface scanning for disabled users
JP5483908B2 (en) Portable electronic device with interface reconfiguration mode
JP5613208B2 (en) Methods, devices, computer programs and graphical user interfaces for user input of electronic devices
JP5102412B1 (en) Information terminal, information terminal control method, and program
JP2016115208A (en) Input device, wearable terminal, portable terminal, control method of input device, and control program for controlling operation of input device
US10430071B2 (en) Operation of a computing device functionality based on a determination of input means
JP6230062B2 (en) Information processing device
CN105074616A (en) User Interface and Related Methods
CN103164156A (en) Touch input method and apparatus of portable terminal
CN103176734A (en) Touchscreen-enabled terminal and application control method thereof
JP2011053770A (en) Information processing apparatus and input processing method
JP2014215639A (en) Information processing device and control program
JP5864319B2 (en) Electronic device, method for controlling electronic device, and program for controlling electronic device
JP4818036B2 (en) Touch panel control device and touch panel control method
JPWO2011152335A1 (en) Electronic device using touch panel input and operation reception method using the same
JP2008065504A (en) Touch panel control device and touch panel control method
US20150143295A1 (en) Method, apparatus, and computer-readable recording medium for displaying and executing functions of portable device
JP6681110B2 (en) User interface processing program and recording medium
JP7196246B2 (en) USER INTERFACE PROCESSING PROGRAM, RECORDING MEDIUM, USER INTERFACE PROCESSING METHOD
WO2018167860A1 (en) Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device
CN103853435A (en) Method and equipment used for displaying icons in portable terminal
JP5288206B2 (en) Portable terminal device, character input method, and character input program
JP7421230B2 (en) Enhanced touch sensing selection
JPWO2018167865A1 (en) Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device
JP2019003530A (en) User interface processing program, recording medium, and user interface processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200319

R150 Certificate of patent or registration of utility model

Ref document number: 6681110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250