[go: up one dir, main page]

WO2017002727A1 - ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 - Google Patents

ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 Download PDF

Info

Publication number
WO2017002727A1
WO2017002727A1 PCT/JP2016/068838 JP2016068838W WO2017002727A1 WO 2017002727 A1 WO2017002727 A1 WO 2017002727A1 JP 2016068838 W JP2016068838 W JP 2016068838W WO 2017002727 A1 WO2017002727 A1 WO 2017002727A1
Authority
WO
WIPO (PCT)
Prior art keywords
mesh
slide operation
meshes
program
mixed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/068838
Other languages
English (en)
French (fr)
Inventor
巌 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Publication of WO2017002727A1 publication Critical patent/WO2017002727A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects

Definitions

  • the present invention relates to a user interface program (UI program) that outputs a user interface (UI) image in conjunction with a slide operation on a touch panel by an object, and a computer mounting method thereof.
  • UI program user interface program
  • UI user interface
  • Various UIs are used on a touch panel for a recent user terminal equipped with a touch panel such as a smartphone.
  • the slide operation extends from the start point to the end point according to the slide operation on the touch panel, and the size or shape is different between one end portion on the start point side and the other end portion on the end point side.
  • a UI for displaying a cursor is disclosed (see [Summary] in Patent Document 1).
  • a deformation process is performed in which the cursor width is narrowed so that the area of the cursor becomes constant as the cursor lengthens (see paragraph [0018] of Patent Document 1).
  • the present invention provides a UI program that dynamically realizes various and flexible deformation processes for an object generated as a UI image in conjunction with a slide operation by an object (such as a user's finger) and a computer-implemented method thereof. With the goal.
  • the first invention is a UI program for outputting a user interface (UI) image to the touch panel in conjunction with a slide operation on the touch panel.
  • the UI program includes a forming unit that forms a mesh set by associating a plurality of meshes each having a plurality of polygons, a mixing unit that forms a mixed mesh based on the mesh set, and a mixed mesh shape. Based on this, a computer having a touch panel is caused to function as an output unit that generates and displays a UI image.
  • the second invention is a computer-implemented method for outputting a user interface (UI) image in conjunction with a slide operation on the touch panel.
  • the computer-implemented method includes forming a mesh set by associating a plurality of meshes each having a plurality of polygons with each other on the touch panel, forming a mixed mesh based on the mesh set, and mixing
  • the method includes generating a UI image based on the shape of the mesh, and displaying the generated UI image.
  • FIG. 1 is a schematic diagram of an example user terminal capable of executing a UI program according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram showing a physical configuration of the user terminal of FIG.
  • FIG. 3 is a schematic diagram showing input / output in the user terminal of FIG.
  • FIG. 4 is a schematic diagram of a UI image showing the object configuration in the initial state according to the embodiment of the present invention.
  • FIG. 5 is a schematic diagram showing a polygon configuration realized by using the UI program according to the embodiment of the present invention.
  • FIG. 6 is a schematic diagram showing a polygon configuration realized by using the UI program according to the embodiment of the present invention.
  • FIG. 1 is a schematic diagram of an example user terminal capable of executing a UI program according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram showing a physical configuration of the user terminal of FIG.
  • FIG. 3 is a schematic diagram showing input / output in the user terminal of FIG.
  • FIG. 4
  • FIG. 7 is a schematic diagram showing an elastic object and a polygon configuration formed in conjunction with the slide operation according to the embodiment of the present invention.
  • FIG. 8 is a schematic diagram showing two exemplary elastic objects serving as mixing controls according to the embodiment of the present invention.
  • FIG. 9 is a schematic diagram showing mixed object generation realized by using the UI program according to the embodiment of the present invention.
  • FIG. 10 is a schematic diagram showing a polygon (mesh) configuration of each object generated corresponding to FIG.
  • FIG. 11 is a graph of the mixing ratio function used in the mixed object generation of FIG.
  • FIG. 12 is a schematic diagram showing a state of mixed object formation using a mixing ratio function corresponding to FIG.
  • FIG. 13 is a functional block diagram implemented using a UI program according to the embodiment of the present invention.
  • FIG. 14 is a series of processing flowcharts related to UI image generation implemented using the functional block diagram of FIG.
  • a UI program that outputs a user interface (UI) image to the touch panel in conjunction with a slide operation on the touch panel, A forming unit that forms a set of meshes by associating a plurality of meshes each having a plurality of polygons; A mixing unit that forms a mixed mesh based on the set of meshes; A UI program that causes a computer including the touch panel to function as an output unit that generates and displays a UI image based on the shape of the mixed mesh.
  • UI user interface
  • the forming unit forms a set of vertices by associating arbitrary vertices of the polygon with each other between the plurality of mesh sets,
  • the UI program in which the mixing unit determines an arbitrary vertex corresponding to the polygon in the mixed mesh based on a predetermined mixing ratio function for the set of vertices.
  • (Item 4) The UI program according to item 2 or 3, wherein the mixing ratio function is further defined according to the slide operation time. According to the UI program of this item, by making the above-mentioned mixing ratio function according to time, it is possible to express more visually dynamic and diverse object deformations.
  • Item 6 Item 6.
  • the UI program of this item it is possible to represent an object that can be deformed so as to gradually shift to one specific object shape by the attenuation characteristic.
  • the plurality of meshes include a first mesh and a second mesh, 8.
  • UI program According to the UI program of this item, it is possible to represent an object that can be deformed so as to clearly shift from one object shape to another object shape.
  • a computer-implemented method for outputting a user interface (UI) image in conjunction with a slide operation on a touch panel Associating a plurality of meshes each having a plurality of polygons with each other to form a set of meshes; Forming a mixed mesh based on the set of meshes; Generating a UI image based on the shape of the mixed mesh; And displaying the generated UI image.
  • UI user interface
  • the step of forming the mesh set includes the step of associating arbitrary vertices of the polygon with each other between the plurality of mesh sets to form a vertex set;
  • the computer-implemented method, wherein the step of forming the mixed mesh comprises determining any corresponding vertex of the polygon in the mixed mesh based on a predetermined mixing ratio function for the vertex set.
  • the plurality of meshes include a first mesh and a second mesh, 14.
  • the UI program according to the embodiment of the present invention is executed in response to a user operation on a touch panel provided in a user terminal such as a smartphone.
  • the smartphone 1 includes a touch panel 2, and the user can control the operation of the user terminal (for example, progress of a smartphone game) through a user operation on the touch panel 2.
  • the user terminal that executes the UI program according to the present embodiment is not limited to the smartphone 1, and may be any device as long as it is a terminal having a touch panel, such as a PDA or a tablet computer device.
  • the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus.
  • the main memory 4 is composed of, for example, a DRAM
  • the auxiliary memory 5 is composed of, for example, an HDD.
  • the auxiliary memory 5 is a recording medium capable of recording the UI program and the like according to the present embodiment.
  • the UI program stored in the auxiliary memory 4 is expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the UI program and data used by the CPU 3 are also temporarily stored on the main memory 4.
  • the transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information.
  • the display unit 7 displays various information to be presented to the user under the control of the CPU 3.
  • the input unit 8 detects an input operation on the touch pal 2 by the user.
  • the display unit 7 and the input unit 8 correspond to the touch panel 2 described above.
  • the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7.
  • the touch panel 2 displays an image under the control of the CPU 3 and receives an interactive touch operation (mainly a physical contact operation such as a touch operation, a slide (swipe) operation, and a tap operation) by a user, and a control unit Based on the control processing by 303, the corresponding graphic is displayed on the liquid crystal display unit 302.
  • an interactive touch operation mainly a physical contact operation such as a touch operation, a slide (swipe) operation, and a tap operation
  • the touch sensing unit 301 supplies an operation signal corresponding to the touch operation by the user to the control unit 303.
  • the touch operation can be performed by any object. For example, it may be made by a user's finger or a device such as a stylus may be used.
  • the touch sensing unit 301 is disposed on an upper layer of a liquid crystal display unit 302 such as a liquid crystal panel, an organic EL, or a plasma display due to the structure of the touch panel.
  • the touch sensing unit 301 can employ a pressure detection method, a resistance film method, a capacitance method, an electromagnetic induction method, or the like.
  • the control unit 303 When receiving an input by touching an object on the touch sensing unit 301, a change amount of pressure, electrical resistance, electric capacity, elastic wave energy, or the like is detected at the contact position, and the corresponding touch on the liquid crystal display unit 302 is detected. Coordinates are specified.
  • the control unit 303 When detecting an operation signal from the touch sensing unit 301, the control unit 303 performs processing for transmitting, as a user operation command, a graphic (not shown) including a UI image corresponding to the operation to the liquid crystal display unit as a display signal. .
  • the liquid crystal display unit 302 displays a graphic corresponding to the display signal.
  • each object based on polygon (mesh) formation Referring to FIG. 4 to FIG. A process of forming each object based on the formation will be described.
  • the UI image generated by this embodiment is largely based on (i) elastic object formation processing, and (ii) mixed elastic object formation processing that forms a mixed elastic object by mixing a plurality of elastic object sets.
  • a set of a plurality of polygons is referred to as a mesh. That is, the mesh is composed of a plurality of polygons.
  • FIG. 4 schematically shows a UI image of an example object having a circular shape, which is formed as an initial state when an object touches the touch panel 2.
  • the elastic object is generated as a substantially square UI image 750 when displayed on the screen.
  • the UI image 750 includes a translucent area 760 and a transparent area 770, and the translucent area 760 is superimposed on the screen display area as a basic display area of the object and displayed on the screen.
  • the elastic object is accommodated in a substantially square mesh area and divided into a plurality of polygons 710.
  • the shape of the polygon is a square.
  • each polygon may be formed as a triangle having three points, or any shape. Can do. It will also be understood that the number of polygons to be divided is not limited.
  • the semi-transparent region 760 like the circular shape in FIG. 4 can be uniquely defined mathematically from a given mathematical expression using a set of coordinates of the vertices of all the polygons.
  • the vertices are arranged so that each polygon is a square, and a circular translucent region 760 is defined by substituting each vertex coordinate of the polygon into a given mathematical expression.
  • a circular object is displayed.
  • the object shape is uniquely determined mathematically by substituting each coordinate into the given mathematical formula.
  • a given mathematical expression for forming a circular shape as shown in FIG. 4B is generally a mathematical expression using a triangular function.
  • the initial circular object can be continuously and gradually deformed along with the sliding operation on the touch panel. More specifically, it is realized by virtually executing a process of elastically expanding the user interface image 750 like a rubber sheet, in particular, a physical calculation process of expanding the vertex of each polygon as follows.
  • the 5 and 6 schematically show how the vertices of some polygons of the object are moved in accordance with the user's slide operation.
  • the white circles in FIG. 6 represent the positions of the corresponding vertices before movement (that is, in FIG. 5).
  • elastic deformation of the initial circular object shown in FIG. 4 is expressed.
  • FIG. 5 corresponds to the initial state of FIG. 4, and each vertex 720 is arranged in a mesh shape so that each polygon has a square shape.
  • FIG. 6 when the coordinate of an arbitrary vertex 720A is moved to 720A 'in accordance with the slide operation of the object, the other vertex 720 is also moved and arranged so as to follow this.
  • a movement vector for example, having a movement direction and a movement distance
  • each coordinate of the movement destination is determined accordingly. Can be determined.
  • the movement rule in the example of FIG.
  • the movement distance of the vertex 720 'other than the vertex 720A' is weighted by the distance from the vertex 720A. That is, as shown in the drawing, the moving distance is made smaller as the vertex is located farther from the vertex 720A.
  • each vertex of the polygon is not limited to the example of FIG. 6, and various movement rules can be set.
  • FIG. In the example of (i) of FIG. 7, in conjunction with the slide operation (slide operation distance L) by the user's finger, each vertex is formed into a rectangular shape so that each polygon has the same size, and the slide operation is performed. Move in the direction (y-axis direction). Further, in the example of (ii), in addition to the example of (i), each vertex is moved in the direction perpendicular to the slide operation direction (x-axis direction) according to the slide operation distance L, so that the entire mesh has a trapezoidal shape. Form to have.
  • the object shape can be uniquely determined mathematically by substituting the vertex coordinates into a given mathematical expression. That is, in the example of (i), an elliptical object is formed, and in the example of (ii), a substantially egg-shaped object having a thickness in the lower half is formed.
  • an object that is elastically deformed flexibly from the initial shape in FIG. 4 to the shape after movement by a distance L in FIG. 7 is expressed. be able to.
  • FIG. 9 shows an example of a mixed object formed by mixing such two types of elastic objects.
  • the example of FIG. 9 is a case of the slide operation distance l ( ⁇ L in FIG. 8), and the slide operation is in a relatively initial stage as compared with FIG.
  • the distribution ratio for mixing is “1: 1”. That is, by mixing (blending) 50% of the teardrop-shaped object of pattern i and 50% of the bar-shaped object of pattern ii, the mixed object having the mixed pattern has a bottle shape as shown in the figure. Formed.
  • FIG. 10 shows a mesh configuration example corresponding to each object of FIG.
  • the shape of the object and the configuration of the mesh are in one-to-one correspondence based on a predetermined mathematical formula.
  • each polygon constituting the mesh of the pattern i and the pattern ii has a triangular shape, and a function of each vertex is defined as a slide operation distance function for each pattern.
  • the number of polygons is a set value, the number of polygons in pattern 1 and pattern 2 match, and the vertex coordinates of each polygon in pattern 1 and the vertex coordinates of each polygon in pattern 2 are associated one-to-one. Assume what is possible.
  • a vertex vector U i (x i, y i) (pattern 1) and V i (x i, y i) (pattern) up to each vertex with a predetermined reference point (the origin of the xy coordinates) as a reference. 2) are associated with each other and stored in the storage unit.
  • the mixed vertex vector W i (x i, y i) generated by the mixing process can be defined as follows based on the vertex vectors U i, V i and the mixing ratio w.
  • a mixing ratio function defined as a function of the distance and / or time of the user's slide operation is further applied to the mixing object formed by the present embodiment. Thereby, it is possible to give a visually dynamic motion to the mixed object.
  • FIG. 11 is a graph of an example of the mixing ratio function applied according to the present embodiment.
  • the horizontal axis represents the slide operation distance (L)
  • the vertical axis represents the mixing ratio of pattern i (W (L), where 0 ⁇ W (L) ⁇ 1).
  • the mixing ratio is “1.0”, that is, the pattern i is formed of a mixed object of 100%.
  • the mixing ratio should not only adopt a cosine curve as a periodic function of the slide operation distance but also be further attenuated.
  • the mixing ratio function can be applied.
  • the mixed object (A ) To () are generated.
  • the mixed object (A) (I) has the mixing ratio “1” (100%) of the pattern i
  • the mixed object (E) (K) (K) has the mixing ratio “0” of the pattern i. (0%. Mixing ratio of pattern i is 100%).
  • the mixed objects (U) (O) (Ki) have mixing ratios of approximately “0.8” (80%), “0.6” (60%), “0.4”, respectively, as shown in the figure. (40%), it is understood that a bottle shape is formed by mixing the two based on the above formula.
  • the elastic deformation of the mixed object as shown in FIG. 12 can be performed by using the periodic function of the slide operation distance as the mixing ratio function as shown in FIG.
  • the mixing ratio function is not limited to the examples of FIG. 11 and FIG.
  • it may be a mixing ratio function having characteristics other than the periodic function, and the operation time may be adopted on the horizontal axis.
  • any mathematical function can be applied as long as it shifts from the pattern i (mixing ratio “1.0”) to the elastic object of the pattern ii (mixing ratio “0”). Even when three or more types of patterns are used, a pre-transition pattern and a post-transition pattern can be selected and a mixing ratio function having an attenuation characteristic can be defined using an arbitrary mathematical function.
  • the distance of the slide operation and the time of the slide operation are employed as the parameters used for the mixing ratio function.
  • the acceleration of the slide operation is employed. Also good. Also. You may employ
  • FIGS. 13 and 14 a set of main functions implemented in the UI program according to the present embodiment and a processing flow executed based on the functions will be described. To do.
  • the control unit 80 of FIG. 3 processes the input as the operation signal and generates the output as the display signal.
  • the set of main functions includes a control unit 80 including a user operation unit 800 related to a user input operation through the touch panel and a UI control unit 900 that generates a UI image in response to the user input operation. Including.
  • the user operation unit 800 includes an object contact determination unit 820 on the touch panel and a slide operation determination unit 840 on the touch panel.
  • the UI control unit 900 includes an initial circular object forming unit 920 for generating an initial circular shape, a mesh direction adjusting unit 940 for adjusting the mesh direction, and a mesh set based on an operation distance in conjunction with a slide operation.
  • a mesh forming unit 950 that forms a mesh, a mesh mixing unit 970 that mixes a plurality of mesh sets, and a UI image generation / output unit 990 that generates a UI image of a mixed object related to the formed mixed polygon.
  • step S103 the initial circular object forming unit 920 forms an initial circular elastic object and an initial set (initial mesh) of corresponding polygons around the contact start point on the touch panel (see also FIG. 4).
  • step S104 the slide operation determination unit 840 performs a slide operation determination on the touch panel. If it is determined that the slide operation is being performed, in step S105, the mesh direction adjusting unit 940 adjusts the direction of the mesh so as to follow the slide operation direction so as to be linked to the slide operation (see FIG.
  • the mesh forming unit 950 forms a set of first and second meshes each having a plurality of polygons.
  • the mesh forming unit 950 continues to associate the first and second meshes with each other and stores them in the storage unit. That is, between the first and second mesh sets, arbitrary vertexes of the polygons constituting each are associated with each other to form a vertex set.
  • step S107 the mesh mixing unit 970 forms a corresponding mixed mesh based on the set of the first mesh and the second mesh.
  • the mixture ratio function defined according to the distance of the slide operation is applied to a set of coordinates of arbitrary vertices of each polygon associated between the first mesh and the second mesh, and the corresponding mixed mesh is obtained.
  • Arbitrary vertex coordinates of the constituent polygons are calculated.
  • step S108 a UI image of the mixed object is generated based on the generated overall shape of the mixed mesh, and the UI image is displayed.
  • the series of processing from step S104 to S108 is continuously repeated while the slide operation is being performed. Accordingly, the mixed object can be expressed as being elastically deformed through dynamic and flexible expansion / contraction deformation and vibration deformation during the slide operation.
  • one of the first mesh and the second mesh for example, the first mesh; pattern i in FIG. 12
  • the other for example, the second mesh; pattern ii in FIG. 12
  • the object shape is formed so as to shift to the other side.
  • the number of polygons constituting each of the pattern i, the pattern ii, and the mixed pattern according to the above embodiment is the same (see FIG. 10 and the like). However, the present invention can be applied even when the number of polygons is different. In this case, it is understood that vertex coordinates that are approximate to each other may be associated with each other between the polygon sets.
  • the mixture ratio function is applied to all vertex coordinate sets.
  • the mixture ratio function may be applied only to some vertex coordinate sets. .
  • the UI program for outputting a UI image in conjunction with the slide operation on the touch panel by the object and the computer mounting method thereof according to the embodiment of the present invention have been described with some examples.
  • the above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention.
  • the present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)

Abstract

(課題)物体によるスライド操作に応答してユーザ・インタフェース(UI)として生成されるオブジェクトについて、スライド操作にわたる多様且つ柔軟な変形処理を動的に実現すること。 (解決手段)タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムである。当該UIプログラムは、それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成する形成部と、メッシュの組に基づいて混合メッシュを形成する混合部と、混合メッシュの形状に基づいてUI画像を生成し表示する出力部としてタッチパネルを具備するコンピュータに機能させる。

Description

ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
 本発明は、物体によるタッチパネルへのスライド操作に連動して、ユーザ・インタフェース(UI)画像を出力するユーザ・インタフェース・プログラム(UIプログラム)およびそのコンピュータ実装方法に関するものである。
 スマートフォンをはじめとしたタッチパネルを具備する昨今のユーザ端末には、タッチパネル上で様々なUIが用いられる。例えば、特許文献1の従来技術では、タッチパネル上のスライド操作に応じて、該スライド操作の始点から終点へと伸び、始点側の一端部と終点側の他端部とで大きさ又は形状が異なるカーソルを表示するUIが開示される(特許文献1の〔要約〕参照)。ここでは、特に、スライド操作にわたり、カーソルが長くなるほどカーソルの面積が一定となるようにカーソルの幅を細くするような変形処理も実施される(特許文献1の段落〔0018〕参照)。
特開2012-33060号公報
 本発明は、物体(ユーザの指等)によるスライド操作に連動してUI画像として生成されるオブジェクトについて、多様且つ柔軟な変形処理を動的に実現するUIプログラムおよびそのコンピュータ実装方法を提供することを目的とする。
 上記の課題を解決するために、第1発明は、タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムである。当該UIプログラムは、それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成する形成部と、メッシュの組に基づいて混合メッシュを形成する混合部と、混合メッシュの形状に基づいてUI画像を生成し表示する出力部としてタッチパネルを具備するコンピュータに機能させる。
 また、第2発明は、タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を出力するコンピュータ実装方法である。当該コンピュータ実装方法は、前記タッチパネル上で、それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成するステップと、メッシュの組に基づいて混合メッシュを形成するステップと、混合メッシュの形状に基づいてUI画像を生成するステップと、生成したUI画像を表示するステップとを含む。
図1は、本発明の実施の形態によるUIプログラムを実行可能な一例のユーザ端末の模式図である 図2は、図1のユーザ端末の物理的構成を示す模式図である。 図3は、図1のユーザ端末における入出力について示す模式図である。 図4は、本発明の実施の形態により、初期状態のオブジェクト構成について示すUI画像の模式図である。 図5は、本発明の実施の形態によるUIプログラムを用いて実現されるポリゴン構成について示す模式図である。 図6は、本発明の実施の形態によるUIプログラムを用いて実現されるポリゴン構成について示す模式図である。 図7は、本発明の実施の形態により、スライド操作に連動して形成される弾性オブジェクトおよびポリゴン構成について示す模式図である。 図8は、本発明の実施の形態により、混合対照となる例示の2つの弾性オブジェクトについて示す模式図である。 図9は、本発明の実施の形態によるUIプログラムを用いて実現される混合オブジェクト生成について示す模式図である。 図10は図9に対応して生成される各オブジェクトのポリゴン(メッシュ)構成について示す模式図である。 図11は、図9の混合オブジェクト生成において用いられる混合比率関数のグラフである。 図12は、図11に対応して混合比率関数を用いた混合オブジェクト形成の様子について示す模式図である。 図13は、本発明の実施の形態によるUIプログラムを用いて実装される機能ブロック図である。 図14は、図13の機能ブロック図を用いて実施されるUI画像生成に関する一連の処理フロー図である。
 [本発明の実施形態の説明]
 最初に、本発明の実施形態の内容を列記して説明する。本発明の実施の形態によるコンピュータ・プログラムは、以下のような構成を備える。
 (項目1)
 タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムであって、
 それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成する形成部と、
 前記メッシュの組に基づいて混合メッシュを形成する混合部と、
 前記混合メッシュの形状に基づいてUI画像を生成し表示する出力部と
として前記タッチパネルを具備するコンピュータに機能させる、UIプログラム。
 (項目2)
 項目1の記載のUIプログラムにおいて、
 前記形成部が、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応づけて頂点の組を形成し、
 前記混合部が、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定する、UIプログラム。
 (項目3)
 前記混合比率関数が前記スライド操作の距離に従って規定される、項目2記載のUIプログラム
 (項目4)
 前記混合比率関数が更に前記スライド操作の時間に従って規定される、項目2または3記載のUIプログラム。
 本項目のUIプログラムによれば、上記混合比率関数を時間に従うものとすることにより、更に視覚的にダイナミックで多様性のあるオブジェクト変形を表現することができる。
 (項目5)
 前記混合比率関数が前記距離の周期関数を含む、項目2から4のいずれか一項記載のUIプログラム。
 本項目のUIプログラムによれば、上記混合比率関数を周期関数とすることにより、周期的な動きを有するように変形可能なオブジェクトを表現することができる。
 (項目6)
 前記周期関数が減衰特性を有する、項目5記載のUIプログラム。
 本項目のUIプログラムによれば、減衰特性により特定の1つのオブジェクト形状に徐々に移行するように変形可能なオブジェクトを表現することができる。
 (項目7)
 前記減衰特性が前記スライド操作の時間に基づいて規定される、項目6記載のUIプログラム。
 本項目のUIプログラムによれば、上記減衰特性を時間に従うものとすることにより、特定時間に限定した、よりダイナミックな変形によるオブジェクト移行を表現することができる。
 (項目8)
 前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
 前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、項目1から7のいずれか一項記載のUIプログラム。
 本項目のUIプログラムによれば、1つのオブジェクト形状から他のオブジェクト形状に明確に移行するように変形可能なオブジェクトを表現することができる。
 (項目9)
 タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を出力するコンピュータ実装方法であって、前記タッチパネル上で、
 それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成するステップと、
 前記メッシュの組に基づいて混合メッシュを形成するステップと、
 前記混合メッシュの形状に基づいてUI画像を生成するステップと、
 前記生成したUI画像を表示するステップと
を含む、コンピュータ実装方法。
 (項目10)
 項目9の記載のコンピュータ実装方法において、
 前記メッシュの組を形成する前記ステップが、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応づけて頂点の組を形成するステップを含み、
 前記混合メッシュを形成する前記ステップが、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定するステップを含む、コンピュータ実装方法。
 (項目11)
 前記混合比率関数が前記スライド操作の距離に従って規定される、項目10記載のコンピュータ実装方法。
 (項目12)
 前記混合比率関数が、減衰特性を有する前記距離の周期関数を含む、項目10または11記載のコンピュータ実装方法。
 (項目13)
 前記減衰特性が前記スライド操作の時間に基づいて規定される、項目12記載のコンピュータ実装方法。
 (項目14)
 前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
 前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、項目9から13のいずれか一項記載のコンピュータ実装方法。
 [本発明の実施形態の詳細]
 以下に図面を参照して、本発明の実施形態による、物体によるタッチパネルへのスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムおよびそのコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。
 本発明の実施の形態によるUIプログラムは、スマートフォン等のユーザ端末が具備するタッチパネル上でのユーザ操作に応じて実行される。図1に示すように、スマートフォン1は、タッチパネル2を備え、ユーザは当該タッチパネル2上でのユーザ操作を介してユーザ端末の動作(例えば、スマートフォン・ゲームの進行)を制御することができる。なお、本実施の形態によるUIプログラムを実行するユーザ端末はスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える端末であれば如何なるデバイスにもすることができる。
 図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるUIプログラム等を記録可能な記録媒体である。補助記憶4に格納されたUIプログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3がUIプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPU3による制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対する入力操作を検知する。
 表示部7及び入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301、および表示部7に相当する液晶表示部302を有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、ユーザによるインタラクティブなタッチ操作(主に、タッチ操作、スライド(スワイプ)操作およびタップ操作等の物理的接触操作)を受け、制御部303による制御処理に基づいてそれに対応するグラフィックを液晶表示部302に表示する。
 より具体的には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に供給する。タッチ操作は、何れの物体によるものとすることができる。例えば、ユーザの指によりなされてもよいし、スタイラス等の装置を使用してもよい。タッチセンシング部301はタッチパネルの構造上、液晶パネル、有機EL、プラズマディスプレイ等のような液晶表示部302の上層に配置される。また、タッチセンシング部301は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。タッチセンシング部301上で物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、液晶表示部302上の対応する接触座標が特定される。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザ操作命令として、当該操作に応じたUI画像を含むグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部302は、表示信号に応じたグラフィックを表示する。
 (1)ポリゴン(メッシュ)形成に基づく各オブジェクトの形成処理
 以下、図4から図7を参照して、本実施の形態によるUIプログラムによってUI画像を生成するために実施される、ポリゴン(メッシュ)形成に基づく各オブジェクトの形成処理について説明する。本実施の形態によって生成されるUI画像は、大きくは(i)弾性オブジェクト形成処理、および(ii)複数の弾性オブジェクトのセットを混合して、混合弾性オブジェクトを形成する混合弾性オブジェクト形成処理に基づく。なお、以下において、複数のポリゴンからなるセットのことをメッシュと称する。即ち、メッシュは複数のポリゴンから構成されるものである。
 (1-a)弾性オブジェクト形成処理の概要
 図4は、タッチパネル2への物体の接触時に初期状態として形成される、円形状を有する一例のオブジェクトのUI画像を模式的に示したものである。図4(a)に示すように、弾性オブジェクトは、画面表示に際して略正方形状のUI画像750として画像生成がされる。UI画像750は、半透明領域760および透明領域770から成り、半透明領域760がオブジェクトの基本表示領域として画面表示領域に重畳され、画面表示される。
 より詳細には、弾性オブジェクトは、略正方形のメッシュ領域に収容され、複数のポリゴン710に分割される。図4(b)の例では、UI画像750を4×4=16個のポリゴンに分割し、ポリゴンのセット(メッシュ)全体で弾性オブジェクトを収容する。なお、図4(b)の例ではポリゴンの形状を正方形としているが、これに限定されず、例えば各々が3点からなる3角形状として形成してもよいし、何れの形状にもすることができる。また、分割するポリゴン数も限定的でないことが理解される。
 更に、図4の円形状のような半透明領域760は、全ポリゴンの頂点の座標のセットを用いて、所与の数式から数学的に一意に規定することができる。図4(b)の場合は、各ポリゴンが正方形となるように各頂点が配置されており、ポリゴンの各頂点座標を所与の数式に代入することによって円形状の半透明領域760が規定されて、円形状のオブジェクトが表示される。ポリゴンが他の形状を有するように配置される場合も、同様に当該所与の数式に各座標を代入することにより、オブジェクト形状が数学的に一意に定まる。なお、図4(b)のような円形状を形成する所与の数式は一般に3角関数を用いた数式であることが知られる。
 タッチパネルに対するスライド操作に伴い、当該初期円形状のオブジェクトを連続的に徐々に変形させることができる。より具体的には、ユーザ・インタフェース画像750をゴムシートの如く弾性的に伸張する処理、特に、次のようにポリゴン毎にその頂点を伸張させる物理演算処理を仮想的に実施することにより実現される。図5および図6は、ユーザのスライド操作に伴って、オブジェクトの一部のポリゴンの頂点を移動させる様子を模式的に示す。図6における白丸は、対応する移動前の(即ち、図5の)頂点の位置を表す。メッシュを構成する複数のポリゴンの各頂点720の座標をそれぞれ移動させることによって、図4に示した初期円形状のオブジェクトに対する弾性変形が表現される。
 より具体的には、図5は、図4の初期状態に対応し、各頂点720は各ポリゴンが正方形状となるようにメッシュ状に配置される。他方、図6では、物体のスライド操作に伴い、任意の頂点720Aの座標が720A’に移動した場合に他の頂点720もこれに追従するように移動して配置される。例えば、ユーザのスライド操作に連動する形で、所与の移動規則にしたがって、頂点720Aに関する移動ベクトル(例えば、移動方向および移動距離を有する)を決定し、これに応じて移動先の各座標を決定することができる。当該移動規則について、図6の例では、頂点720A’以外の頂点720’の移動距離は、頂点720Aからの距離によって重み付けをするようなものとしている。即ち、図示するように、頂点720Aから離れた位置に配置される頂点ほどその移動距離が小さくなるようにしている。
 ポリゴンの各頂点に関する移動規則は、図6の例に限定されず、様々なものを設定することができる。他の例を図7に示す。図7の(i)の例では、ユーザの指によるスライド操作(スライド操作距離L)に連動して、各頂点を、各ポリゴンが同一の大きさを有するように長方形状を成してスライド操作方向(y軸方向)に移動させる。また(ii)の例では、(i)の例に加えて、スライド操作距離Lにしたがって、スライド操作方向と直角方向(x軸方向)にも各頂点を移動させて、メッシュ全体が台形状を有するように形成する。
 上記のとおり、各ポリゴンが決定されると、それら頂点座標を所与の数式に代入することによってオブジェクト形状を数学的に一意に定めることができる。即ち、(i)の例では楕円形状のオブジェクトが、(ii)の例では下半分に厚みのある略卵形状のオブジェクトが形成される。ユーザの指のスライド操作に連動して、連続的にこのような形状を形成することにより、図4の初期形状から図7の距離Lだけ移動後の形状に柔軟に弾性変形するオブジェクトを表現することができる。
 (1-b)混合弾性オブジェクト形成処理
 本実施の形態によって生成されるUI画像は、上記で形成したオブジェクトを2つ以上用意して、それらを組として更に混合する(ブレンド処理を実施する)ことで生成される。ここでは、図8に例示するような2つのパターン(パターンiおよびパターンii)のオブジェクトの混合を想定する。両パターンのオブジェクトは、共に図4のような初期円形状を有し、スライド操作と連動して、スライド操作距離Lでは、底部が丸い涙滴形状のもの(パターンi)、および底部が丸く先端に向けて細くなる棒形状のもの(パターンii)となるように、スライド操作と共に弾性変形をしながら形成される。
 図9は、このような2つのパターンの弾性オブジェクトを混合することにより形成される混合オブジェクトの例を示す。図9の例は、スライド操作距離l(<図8のL)の場合であり、スライド操作は図8と比べて比較的初期段階にある。また、図9の例では、混合のための配分比率を「1:1」としている。即ち、パターンiの涙滴形状のオブジェクトを50%、およびパターンiiの棒形状のオブジェクトを50%として混合(ブレンド)することにより、混合パターンを有する混合オブジェクトが図示のようにボトル形状を有して形成される。
 図10は、図9の各オブジェクトに対応するメッシュ構成例を示す。上記のように、所定の数式に基づくことにより、オブジェクトの形状とメッシュの構成は一対一に対応する。また、パターンiおよびパターンiiの各メッシュを構成する各ポリゴンは、3角形状を有し、パターン毎に各頂点の関数がスライド操作距離関数として規定されている。図10の例では、ポリゴン数は設定値であり、パターン1とパターン2の各ポリゴン数は一致し、パターン1の各ポリゴンの頂点座標とパターン2の各ポリゴンの頂点座標は一対一で対応付け可能であるものを想定する。より具体的には、所定の基準点(xy座標の原点)を基準として各頂点までの頂点ベクトルU i (x i ,y i )(パターン1)およびV i (x i ,y i )(パターン2)がそれぞれ対応付けられて記憶部に格納される。そして、混合処理によって生成される混合頂点ベクトルW i (x i ,y i )は、頂点ベクトルU i ,V i ,および混合比率wに基づいて次のように規定することができる。
W i =U i ×w+V i ×(1-w)
 このようにして、パターン1およびパターン2の各ポリゴンの頂点座標から、対応する混合パターンの各ポリゴンの頂点座標を算出することができる。本発明の実施の形態によれば、図7に示したように単に初期円形状のオブジェクトを引き伸ばすように弾性変形させるのみならず、複数のパターンのオブジェクトを混合することを通じて、弾性変形の態様をより多様なものとすることができる。なお、図8から図10では、簡単のために2つのオブジェクトの混合処理について例示したが、混合するオブジェクトのパターンは2つに限定されず、3つ以上でもよいことが理解されるべきである。
 (1-c)混合比率関数の適用
 本実施の形態によって形成される混合オブジェクトに対し、更に、ユーザのスライド操作の距離および/または時間の関数として規定される混合比率関数を適用する。これにより、混合オブジェクトに対し、視覚的によりダイナミックな動きを持たせることができる。
 図11は、本実施の形態により適用される、混合比率関数の一例のグラフである。図11のグラフでは、横軸がスライド操作距離(L)、縦軸がパターンiの混合比率(W(L),ただし、0<W(L)<1)である。図示のように、スライド操作距離が0からL 0の範囲およびL 0 からL 1 の範囲では、混合比率は「1.0」、即ちパターンiが100%の混合オブジェクトで形成される。また、スライド操作距離がL 1 からL 2 の範囲では、混合比率が三角関数に基づく関数として規定される。即ち、図11の例では混合比率W(L)は、
W(L)=c×cos{(L-L 1 )/2π}
として規定される。
 上記数式のように、L 1 からL 2 の範囲では、混合比率は、スライド操作距離の周期関数としてコサイン・カーブを採用するのみならず、更に減衰させるのがよい。つまり、上記数式におけるcは減衰特性を示し、例えばc=t-1(0<t<1)として規定するのがよい。この例の場合、減衰特性は、スライド操作時間tの関数として規定され、スライド距離L 1 の時点をt=0として、その時点から1秒間だけ、上記混合比率W(L)の振幅を減衰させながら混合比率関数を適用するように構成することができる。
 図11の例の混合比率関数を、図8に示したパターンiおよびパターンiiの弾性オブジェクトの混合処理に適用した場合は、次の図12に示すように、スライド操作距離にしたがって混合オブジェクト(あ)~(く)が生成される。この内、混合オブジェクト(あ)(い)は、パターンiの混合比率「1」(100%)であり、他方、混合オブジェクト(え)(か)(く)は、パターンiの混合比率「0」(0%。パターンiの混合比率100%)である。これらに対し、混合オブジェクト(う)(お)(き)は、図示のようにそれぞれ混合比率が略「0.8」(80%),「0.6」(60%),「0.4」(40%)であるため、上記の数式に基づいて2つを混合したボトル形状が形成されることが理解される。
 更に、図11のように、混合比率関数としてスライド操作距離の周期関数を用いることにより、図12のような混合オブジェクトの弾性変形を実施させることがきる。特に、スライド操作距離が増えるにつれ、弾性オブジェクトがぶるぶる振るえるように幅方向に振動するといったダイナミックな視覚効果を供することが可能となる。なお、当該混合比率関数は、図11や図12の例に限定されないことが理解されるべきである。例えば、周期関数以外の特性を有する混合比率関数としてもよく、また、横軸に操作時間を採用してもよい。総じて、パターンi(混合比率「1.0」)からパターンii(混合比率「0」)の弾性オブジェクトへと移行するものであれば、如何なる数学関数を適用することができる。また、パターンを3種類以上用いる場合でも、移行前のパターンおよび移行後のパターンを選択し、任意の数学関数を用いて減衰特性を有する混合比率関数を規定することができる。
 なお、上記の実施の形態においては、混合比率関数に用いるパラメータとして、スライド操作の距離及びスライド操作の時間を採用していたが、これ以外にも、例えば、スライド操作の加速度を採用することとしてもよい。また。これらの組み合わせからなる任意の変数を採用してもよい。
 (2)UIプログラムの主要機能および処理フロー
 図13および図14を参照して、本実施の形態によるUIプログラムで実装される主要機能のセット、および該機能に基づいて実施される処理フローについて説明する。図13の機能セットでは、図3の制御部80において、操作信号としての入力を処理し表示信号としての出力を生成する。図13に示すように、主要機能のセットは、制御部80として、タッチパネルを通じたユーザ入力操作に関連するユーザ操作部800、およびユーザ入力操作に応答してUI画像を生成するUI制御部900を含む。
 ユーザ操作部800は、タッチパネルへの物体の接触判定部820、およびタッチパネル上のスライド操作判定部840を含む。また、UI制御部900は、初期円形状を生成するための初期円形状オブジェクト形成部920、メッシュ方向を調整するためのメッシュ方向調整部940、スライド操作に連動して操作距離に基づくメッシュの組を形成するメッシュ形成部950、複数のメッシュの組を混合するメッシュ混合部970、および形成した混合ポリゴンに関する混合オブジェクトのUI画像を生成するUI画像生成出力部990を含む。
 続いて図14の処理フローに示すように、混合オブジェクトのUI画像を生成するための一連の処理において、まずステップS102で接触判定部820での物体の接触判定がされると、ステップS103で、初期円形状オブジェクト形成部920においてタッチパネル上の接触開始点の周囲に初期円形状の弾性オブジェクト、および対応するポリゴンの初期セット(初期メッシュ)を形成する(図4も参照のこと)。引き続き、ステップS104では、スライド操作判定部840においてタッチパネル上のスライド操作判定を実施する。そして、スライド操作が実施されているものと判定されると、該スライド操作に連動するように、ステップS105では、メッシュ方向調整部940においてスライド操作方向に沿うようにメッシュの向きを調整する(図7も参照のこと)と共に、メッシュ形成部950において、それぞれが複数のポリゴンを有する第1メッシュおよび第2メッシュの組を形成する。ステップS106では、メッシュ形成部950において引き続き、第1および第2メッシュを互いに対応付けて記憶部に格納する。即ち、第1および第2メッシュの組の間において、それぞれを構成するポリゴンの任意の頂点同士を互いに対応付けて頂点の組を形成する。
 次いで、ステップS107では、メッシュ混合部970において、上記第1メッシュおよび第2メッシュの組に基づいて対応する混合メッシュを形成する。ここでは、第1メッシュおよび第2メッシュ間で対応付けられた各ポリゴンの任意の頂点の座標の組に対し、スライド操作の距離に従って規定される混合比率関数を適用して、対応する混合メッシュを構成するポリゴンの任意の頂点座標を算出する。
 最後にステップS108では、生成した混合メッシュの全体形状に基づいて混合オブジェクトのUI画像を生成して、該UI画像を表示する。なお、ステップS104からS108までの一連の処理は、スライド操作が実施されている間、連続的に繰り返される。これにより、スライド操作の間、混合オブジェクトがダイナミックかつ柔軟な伸縮変形や振動変形を通じて弾性変形されるものとして表現できる。そして、ユーザによるスライド操作の結果、第1メッシュおよび第2メッシュの内の一方のポリゴン・セット(例えば第1メッシュ。図12のパターンi)から他方(例えば第2メッシュ。図12のパターンii)へとオブジェクト形状が移行するように形成されるものとなる。
 上記の実施の形態によるパターンi、パターンii、および混合パターンを各々構成するポリゴン数は同一のものとした(図10等参照)。しかしながら、ポリゴン数が異なるものであっても本発明は適用可能である。この場合、各ポリゴン・セット間においては、互いに近似する頂点座標同士を対応付ければよいことが理解される。
 また、上記の実施の形態においては、全ての頂点座標の組に対して混合比率関数が適用されていたが、一部の頂点座標の組に対してのみ混合比率関数を適用することとしてもよい。
 以上、本発明の実施形態による、物体によるタッチパネルへのスライド操作に連動してUI画像を出力するUIプログラムおよびそのコンピュータ実装方法について、幾らかの例示と共に説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。

 

Claims (14)

  1.  タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムであって、
     それぞれが複数のポリゴンを有する複数のメッシュを互いに対応付けてメッシュの組を形成する形成部と、
     前記メッシュの組に基づいて混合メッシュを形成する混合部と、
     前記混合メッシュの形状に基づいてUI画像を生成し表示する出力部と
    として前記タッチパネルを具備するコンピュータに機能させる、UIプログラム。
  2.  請求項1の記載のUIプログラムにおいて、
     前記形成部が、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応付けて頂点の組を形成し、
     前記混合部が、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定する、UIプログラム。
  3.  前記混合比率関数が前記スライド操作の距離に従って規定される、請求項2記載のUIプログラム。
  4.  前記混合比率関数が更に前記スライド操作の時間に従って規定される、請求項2または3記載のUIプログラム。
  5.  前記混合比率関数が前記距離の周期関数を含む、請求項2から4のいずれか一項記載のUIプログラム。
  6.  前記周期関数が減衰特性を有する、請求項5記載のUIプログラム。
  7.  前記減衰特性が前記スライド操作の時間に基づいて規定される、請求項6記載のUIプ
    ログラム。
  8.  前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
     前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、請求項1から7のいずれか一項記載のUIプログラム。
  9.  タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を出力するコンピュータ実装方法であって、前記タッチパネル上で、
     それぞれが複数のポリゴンを有する複数のメッシュを互いに対応付けてメッシュの組を形成するステップと、
     前記メッシュの組に基づいて混合メッシュを形成するステップと、
     前記混合メッシュの形状に基づいてUI画像を生成するステップと、
     前記生成したUI画像を表示するステップと
    を含む、コンピュータ実装方法。
  10.  請求項9の記載のコンピュータ実装方法において、
     前記メッシュの組を形成する前記ステップが、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応付けて頂点の組を形成するステップを含み、
     前記混合メッシュを形成する前記ステップが、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定するステップを含む、コンピュータ実装方法。
  11.  前記混合比率関数が前記スライド操作の距離および/または時間に従って規定される、請求項10記載のコンピュータ実装方法。
  12.  前記混合比率関数が、減衰特性を有する前記距離の周期関数を含む、請求項10または11記載のコンピュータ実装方法。
  13.  前記減衰特性が前記スライド操作の時間に基づいて規定される、請求項12記載のコンピュータ実装方法。
  14.  前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
     前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、請求項9から13のいずれか一項記載のコンピュータ実装方法。

     
PCT/JP2016/068838 2015-06-30 2016-06-24 ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 Ceased WO2017002727A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015131061A JP5856343B1 (ja) 2015-06-30 2015-06-30 ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP2015-131061 2015-06-30

Publications (1)

Publication Number Publication Date
WO2017002727A1 true WO2017002727A1 (ja) 2017-01-05

Family

ID=55269226

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/068838 Ceased WO2017002727A1 (ja) 2015-06-30 2016-06-24 ユーザ・インタフェース・プログラムおよびコンピュータ実装方法

Country Status (2)

Country Link
JP (1) JP5856343B1 (ja)
WO (1) WO2017002727A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6911772B2 (ja) * 2016-02-18 2021-07-28 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031715A (ja) * 2004-07-21 2006-02-02 Solidworks Corp コンピュータ生成モデルの変形
JP2010097449A (ja) * 2008-10-17 2010-04-30 Casio Computer Co Ltd 画像合成装置、及び画像合成方法、画像合成プログラム
WO2013189058A1 (en) * 2012-06-21 2013-12-27 Microsoft Corporation Avatar construction using depth camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232908A (ja) * 2000-11-28 2002-08-16 Monolith Co Ltd 画像補間方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031715A (ja) * 2004-07-21 2006-02-02 Solidworks Corp コンピュータ生成モデルの変形
JP2010097449A (ja) * 2008-10-17 2010-04-30 Casio Computer Co Ltd 画像合成装置、及び画像合成方法、画像合成プログラム
WO2013189058A1 (en) * 2012-06-21 2013-12-27 Microsoft Corporation Avatar construction using depth camera

Also Published As

Publication number Publication date
JP5856343B1 (ja) 2016-02-09
JP2017016303A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6697120B2 (ja) ユーザインターフェースプログラムおよびゲームプログラム
JP5865535B1 (ja) ユーザ・インタフェース・プログラム
CN103488413B (zh) 触控设备及在触控设备上显示3d界面的控制方法和装置
JP2014182638A (ja) 表示制御装置、表示制御方法、コンピュータプログラム
JP5771329B2 (ja) 動的壁紙の生成方法及び生成装置
JP2015225397A (ja) ユーザインターフェースプログラム
US9478070B2 (en) Coordinate information updating device
JP5621407B2 (ja) 操作入力装置ならびにプログラムと方法
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
JP5856343B1 (ja) ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP5768787B2 (ja) グラフ表示制御装置及びグラフ表示制御プログラム
KR102083981B1 (ko) 플렉서블 디스플레이 장치의 화상 영역을 제어하는 방법 및 장치
JP2017016622A (ja) ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
JP6000482B1 (ja) ユーザ・インタフェース画像表示方法およびプログラム
JP6091908B2 (ja) 端末装置及び表示プログラム
JP2016202875A (ja) ユーザ・インタフェース・プログラム
TWI537812B (zh) 物件選取方法及系統
JP2011022701A (ja) 画像処理装置
JP2017055825A (ja) タッチ入力によりゲームを進行する方法、インタフェース・プログラム、及び端末

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16817835

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16817835

Country of ref document: EP

Kind code of ref document: A1