[go: up one dir, main page]

WO2015145670A1 - Device for creating user interface screen and program for creating user interface screen - Google Patents

Device for creating user interface screen and program for creating user interface screen Download PDF

Info

Publication number
WO2015145670A1
WO2015145670A1 PCT/JP2014/058893 JP2014058893W WO2015145670A1 WO 2015145670 A1 WO2015145670 A1 WO 2015145670A1 JP 2014058893 W JP2014058893 W JP 2014058893W WO 2015145670 A1 WO2015145670 A1 WO 2015145670A1
Authority
WO
WIPO (PCT)
Prior art keywords
user interface
motion
data
animation
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/058893
Other languages
French (fr)
Japanese (ja)
Inventor
啓 五味田
下谷 光生
智史 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to PCT/JP2014/058893 priority Critical patent/WO2015145670A1/en
Publication of WO2015145670A1 publication Critical patent/WO2015145670A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces

Definitions

  • the present invention relates to a technique for creating a user interface screen.
  • Patent Document 1 discloses a technique for displaying a user interface in an easy-to-understand manner when the screen size is changed.
  • Patent Document 1 discloses using a motion sensor to detect the attitude of the information processing apparatus.
  • Patent Document 2 and Patent Document 3 disclose the use of a motion sensor as input means in order to improve the operability of the apparatus.
  • none of the documents discloses a method for generating a user interface screen including a moving part using a motion sensor.
  • the object of the present invention is to enable creation of a user interface screen including components that move in the same manner as the creator's operation.
  • the user interface screen creation device of the present invention comprises: A component display unit for displaying a component included in a user interface screen used by a user on a user interface creation screen for creating the user interface screen; A motion data acquisition unit that acquires motion data representing the movement of the creator from a motion sensor that detects the movement of the creator who creates the user interface screen; Based on the motion data acquired by the motion data acquisition unit, animation data for moving the component displayed on the user interface creation screen by the component display unit in accordance with the movement of the creator is generated.
  • An animation generation unit is generated.
  • FIG. 1 is a configuration diagram of a user interface screen creation system 100 according to Embodiment 1.
  • FIG. 6 is a diagram illustrating an example of a user interface screen 101 according to Embodiment 1.
  • FIG. 2 is a functional configuration diagram of a user interface screen creation device 200 according to Embodiment 1.
  • FIG. 6 is a diagram illustrating an example of a motion management file 203 according to Embodiment 1.
  • FIG. 6 is a flowchart of user interface screen creation processing according to the first embodiment. 6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1.
  • FIG. 6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1.
  • FIG. 6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1.
  • FIG. 6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1.
  • FIG. 6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1.
  • FIG. 2 is a hardware configuration diagram of a user interface screen creation device 200 according to Embodiment 1.
  • FIG. 10 is a functional configuration diagram of a user interface screen creation device 200 in a second embodiment. 10 is a flowchart of preview editing processing in the second embodiment.
  • Embodiment 1 A mode of creating a user interface screen including components that move in the same manner as the creator's operation will be described.
  • FIG. 1 is a configuration diagram of a user interface screen creation system 100 according to the first embodiment.
  • the configuration of the user interface screen creation system 100 according to Embodiment 1 will be described with reference to FIG. However, the configuration of the user interface screen creation system 100 may be different from that in FIG.
  • the user interface screen creation system 100 is a system that creates a user interface screen used by a user.
  • the menu screen of a smartphone or tablet computer is an example of a user interface screen.
  • the user interface screen creation system 100 includes a motion sensor 110, an input device 120, a display device 130, and a user interface screen creation device 200.
  • the user interface screen creation device 200 may include the motion sensor 110, the input device 120, and the display device 130.
  • UI is an abbreviation for user interface.
  • the motion sensor 110 detects the three-dimensional movement of the creator who creates the user interface screen. For example, the motion sensor 110 detects the movement of the creator's hand, the movement of the creator's foot, and the movement of the tool that the creator moves. LEAP motion (registered trademark) and Kinect are examples of the motion sensor 110.
  • the motion sensor 110 may be a general-purpose sensor or a dedicated sensor for creating a user interface screen.
  • the input device 120 is an input device other than the motion sensor 110. A keyboard and mouse are examples of the input device 120.
  • the display device 130 displays a user interface creation screen for creating a user interface screen.
  • the user interface screen creation device 200 generates an animation that moves the components included in the user interface screen in accordance with the movement of the creator detected by the motion sensor 110.
  • FIG. 2 is a diagram illustrating an example of the user interface screen 101 according to the first embodiment.
  • the user interface screen creation apparatus 200 creates a user interface screen 101 (see FIG. 2) that includes components that move according to user operations.
  • the user interface screen 101 in FIG. 2 includes four plates A, B, C, and D arranged in a circle with a depth.
  • the four plates A, B, C, and D are examples of components.
  • FIG. 2 (1) when the user swipes the plate A to the right, the four plates A, B, C, and D move in a three-dimensional counterclockwise direction, and the user interface screen 101 is displayed in FIG. It will be in the state of (2).
  • the user interface screen 101 in FIG. 2 is an example of the user interface screen 101 created by the user interface screen creation device 200.
  • FIG. 3 is a functional configuration diagram of the user interface screen creation apparatus 200 according to the first embodiment.
  • a functional configuration of the user interface screen creation apparatus 200 according to Embodiment 1 will be described with reference to FIG.
  • the functional configuration of the user interface screen creation apparatus 200 may be different from that shown in FIG.
  • the user interface screen creation device 200 includes a motion data acquisition unit 210 and an input data acquisition unit 211.
  • the user interface screen creation device 200 includes a user interface creation screen display unit 220, a component generation unit 230, a component display unit 231, and an operation component selection unit 240.
  • the user interface screen creation device 200 includes an animation detection unit 250, an animation generation unit 251, an operation assignment unit 260, and a user interface screen generation unit 270.
  • the user interface screen creation device 200 includes a device storage unit 290.
  • the motion data acquisition unit 210 acquires the motion data 201 output from the motion sensor 110.
  • the motion data 201 is data representing the three-dimensional movement of the creator detected by the motion sensor 110.
  • the motion data 201 when the creator moves the hand includes coordinate values representing the position of the hand before the operation and coordinate values representing the position of the hand after the operation.
  • the input data acquisition unit 211 acquires input data 202 output from the input device 120.
  • the input data 202 is data indicating a creator's instruction input using the input device 120.
  • the user interface creation screen display unit 220 displays an image representing the user interface creation screen on the display device 130.
  • the component generation unit 230 generates component component data 291 representing a component based on motion data 201 (also referred to as additional component selection data) or input data 202 that indicates a component.
  • the component data 291 is image data of the component.
  • the component display unit 231 displays the component on the user interface creation screen based on the component data 291.
  • the motion part selection unit 240 selects one or more constituent parts included in the user interface creation screen from Select the component that you want to move.
  • the component to be moved is referred to as an operation component.
  • the animation detection unit 250 detects a start instruction based on motion data 201 (also referred to as animation start data) or input data 202 which means a start instruction for starting generation of an animation.
  • the animation detection unit 250 detects an end instruction based on motion data 201 (also referred to as animation end data) or input data 202 which means an end instruction to end the generation of animation.
  • the animation generation unit 251 Based on the motion data 201 (also referred to as animation generation data) acquired from the start instruction to the end instruction, the animation generation unit 251 generates animation data 292 in which the moving part moves in accordance with the movement of the creator.
  • the animation data 292 is moving image data including a plurality of still image data.
  • the animation generation unit 251 corrects the movement of the component so that the component moves smoothly when generating the animation data 292.
  • the operation assignment unit 260 generates operation data 293 based on the motion data 201 or the input data 202 that instructs the user's operation.
  • the operation data 293 is data representing a user operation assigned to the operation component. When a user operation represented by the operation data 293 is performed, the motion component included in the user interface screen moves according to the animation data 292.
  • the user interface screen generation unit 270 generates a user interface screen file 294 representing the user interface screen.
  • the user interface screen file 294 includes component data 291, animation data 292, and operation data 293 for each component.
  • the device storage unit 290 stores data used, generated or input / output by the user interface screen creation device 200.
  • the device storage unit 290 stores motion data 201, input data 202, and a motion management file 203.
  • the device storage unit 290 stores component data 291, animation data 292, operation data 293, and a user interface screen file 294.
  • the motion management file 203 indicates the meaning of the creator's movement in association with the type of movement of the creator for each type of movement of the creator.
  • FIG. 4 is a diagram showing an example of the motion management file 203 in the first embodiment.
  • the movement of the creator's hand means the movement of the moving part
  • the movement of making the hand goo means the end of the generation of the animation.
  • FIG. 5 is a flowchart of user interface screen creation processing according to the first embodiment.
  • User interface screen creation processing in the first embodiment will be described with reference to FIG. However, the user interface screen creation process may be different from that shown in FIG.
  • the creator uses the input device 120 to instruct the user interface screen creation device 200 to start creating a user interface screen.
  • the input device 120 outputs input data 202 indicating a creator's instruction.
  • the input data acquisition unit 211 acquires input data 202.
  • the user interface creation screen display unit 220 displays the user interface creation screen on the display device 130 in accordance with the instruction indicated by the input data 202.
  • the process proceeds to S120.
  • FIG. 6 is a diagram illustrating an example of the user interface creation screen 102 according to the first embodiment.
  • the user interface creation screen display unit 220 displays a user interface creation screen 102 as shown in FIG.
  • the user interface creation screen 102 in FIG. 6 includes a menu bar 103.
  • the menu bar 103 includes menus for files, parts, animations, operations, and the like.
  • the file on the menu bar 103 is a menu related to the user interface screen file 294.
  • the user interface creation screen 102 displays a menu for creating a new file and saving it.
  • the parts in the menu bar 103 are menus for adding component parts.
  • the user interface creation screen display unit 220 displays a list of parts.
  • the animation in the menu bar 103 is a menu for designating the start or end of animation generation.
  • the user interface creation screen display unit 220 displays a menu such as start and end.
  • the operation of the menu bar 103 is a menu for assigning a user operation to an animation.
  • the user interface creation screen display unit 220 displays a list of user operations. Data relating to the user interface creation screen 102 is stored in advance in the device storage unit 290 (not shown). Returning to FIG. 5, the description will be continued from S120.
  • the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 about components to be included in the user interface screen. For example, the creator uses the input device 120 to select a component from the component menu on the user interface creation screen 102. The input device 120 outputs input data 202 specifying the selected component. Then, the input data acquisition unit 211 acquires the input data 202. For example, the creator performs a first movement that means addition of a component part and a second movement that means a component part to be added. The motion sensor 110 detects the first movement and the second movement, and outputs motion data 201 (additional component selection data) representing the first movement and the second movement. Then, the motion data acquisition unit 210 acquires the motion data 201.
  • the component generation unit 230 generates component data 291 representing the instructed component based on the motion data 201 or the input data 202. For example, the component generation unit 230 generates component component data 291 representing the component indicated by the input data 202. For example, the component generation unit 230 determines, based on the motion management file 203, whether the first movement represented by the motion data 201 means adding a component. When the first movement means the addition of a component, the component generation unit 230 identifies the type of the component that the second movement represented by the motion data 201 means based on the motion management file 203. Then, the component generation unit 230 generates component component data 291 representing the specified type of component.
  • the component display unit 231 displays the component on the user interface creation screen based on the component data 291. After S120, the process proceeds to S130.
  • the creator may specify a plurality of components.
  • the component part generation unit 230 generates a plurality of component part data 291 and the component part display unit 231 displays the plurality of component parts.
  • FIG. 7 is a diagram illustrating an example of the user interface creation screen 102 according to the first embodiment.
  • the component generation unit 230 generates component data 291 representing the square plate
  • the component display unit 231 displays the square plate on the user interface creation screen 102. Display (see FIG. 7).
  • the description will be continued from S130.
  • the user interface creation screen 102 displays one or more components generated in S120.
  • the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 of an operating component.
  • An action part is a component that the creator wants to move.
  • the creator may instruct a plurality of moving parts.
  • the creator uses the input device 120 to indicate an operation component.
  • the input device 120 outputs input data 202 specifying the instructed operating component.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator performs a movement pointing at the moving part.
  • the motion sensor 110 detects the creator's movement and outputs motion data 201 (moving part selection data) representing the creator's movement.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the motion part selection unit 240 selects a motion part from one or more components included in the user interface creation screen 102 based on the motion data 201 or the input data 202. For example, the operation component selection unit 240 selects the operation component indicated by the input data 202. For example, based on the motion management file 203, the motion component selection unit 240 determines whether the creator's movement represented by the motion data 201 means the designation of the motion component. When the movement of the creator means the designation of the moving part, the moving part selection unit 240 selects the moving part pointed by the creator based on the motion data 201. After S130, the process proceeds to S140.
  • the above S130 may be omitted.
  • the component generated and displayed in S120 becomes an operation component.
  • the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to start generating an animation.
  • the creator uses the input device 120 to select start from the animation menu on the user interface creation screen 102.
  • the input device 120 outputs input data 202 that specifies the start of animation generation.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator performs a movement that means the start of animation generation.
  • the motion sensor 110 detects the creator's movement and outputs motion data 201 (animation start data) representing the creator's movement.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the animation detection unit 250 detects a start instruction for starting generation of an animation based on the motion data 201 or the input data 202. For example, the animation detection unit 250 detects a start instruction based on the input data 202. For example, the animation detection unit 250 determines, based on the motion management file 203, whether the creator's movement represented by the motion data 201 means a start instruction. When the creator's movement means a start instruction, the animation detection unit 250 detects the start instruction. After S140, the process proceeds to S141.
  • the creator performs the same movement as the movement that the operation component wants to operate.
  • the motion sensor 110 detects the creator's movement and outputs motion data 201 (animation generation data) representing the creator's movement.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the animation generation unit 251 moves the motion parts included in the user interface creation screen 102 in accordance with the movement of the creator.
  • the animation generation unit 251 may correct the motion of the motion component in order to smooth the motion of the motion component.
  • the animation generation unit 251 may correct a movement related to the speed of the moving part such as rotation or acceleration.
  • the animation generation unit 251 represents the creator's movement with a plurality of vectors, removes vectors smaller than the motion threshold from the plurality of vectors, and moves the motion component based on the remaining vectors. After S141, the process proceeds to S142.
  • the creator may give an instruction other than the movement of the moving parts by the movement of the creator.
  • the creator may instruct enlargement, reduction, or deformation of the moving parts.
  • the creator may instruct to change the color of the moving part.
  • the motion part animation generation unit 251 changes the motion part in accordance with an instruction from the creator.
  • FIG. 8 and 9 are diagrams illustrating an example of the user interface creation screen 102 according to the first embodiment.
  • the creator moves the finger that points to the motion component 105 in an arc shape in the depth direction (see FIG. 8).
  • the animation generation unit 251 moves the motion component 105 in an arc shape like the creator's finger.
  • step S ⁇ b> 142 the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to end animation generation.
  • the creator uses the input device 120 to select end from the animation menu on the user interface creation screen 102.
  • the input device 120 outputs input data 202 that specifies the end of animation generation.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator performs a movement that means the end of the generation of the animation.
  • the motion sensor 110 detects the creator's movement and outputs motion data 201 (animation end data) representing the creator's movement.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the animation detection unit 250 Based on the motion data 201 or the input data 202, the animation detection unit 250 detects an end instruction to end animation generation. For example, the animation detection unit 250 detects an end instruction based on the input data 202. For example, the animation detection unit 250 determines, based on the motion management file 203, whether the creator's movement represented by the motion data 201 means an end instruction. When the creator's movement means an end instruction, the animation detection unit 250 detects the end instruction.
  • the animation generation unit 251 generates animation data 292 representing the movement of the motion component moved in S141. After S142, the process proceeds to S150.
  • the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to perform a user operation to be assigned to the movement of the motion component.
  • the creator uses the input device 120 to select a user operation from the operation menu on the user interface creation screen 102.
  • the input device 120 outputs input data 202 that specifies the operation of the selected user.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator performs a movement that means a user operation to be assigned.
  • the motion sensor 110 detects the motion of the creator and outputs motion data 201 representing the motion of the creator.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the operation assigning unit 260 Based on the motion data 201 or the input data 202, the operation assigning unit 260 generates operation data 293 representing an instructed user operation. For example, the operation assignment unit 260 generates operation data 293 representing the user operation specified by the input data 202. For example, the operation assigning unit 260 identifies a user operation that means the creator's movement represented by the motion data 201 based on the motion management file 203. Then, the operation assigning unit 260 generates operation data 293 representing the specified user operation. After S150, the process proceeds to S160.
  • S120 to S150 described above is repeated until the creator instructs the user interface screen creation apparatus 200 to end creation of the user interface screen 101.
  • An illustration showing the repetition of S120 to S150 is omitted.
  • step S ⁇ b> 160 the creator uses the input device 120 to instruct the user interface screen creation device 200 to end creation of the user interface screen.
  • the input device 120 outputs input data 202 indicating a creator's instruction.
  • the input data acquisition unit 211 acquires input data 202.
  • the user interface screen generation unit 270 generates a user interface screen file 294.
  • the user interface screen file 294 includes component data 291, animation data 292, and operation data 293 for each component included in the user interface creation screen 102.
  • the user interface creation screen display unit 220 deletes the user interface creation screen 102 from the display device 130.
  • the user interface screen creation process ends.
  • the creator may instruct attribute information to be added to the user interface screen 101.
  • the user interface screen generation unit 270 adds attribute information to the user interface screen file 294 in accordance with the creator's instruction. For example, when the user interface screen 101 is a screen displayed on an in-vehicle information device (for example, a car navigation system), the user interface screen generation unit 270 adds attribute information indicating running or stopped to the user interface screen file 294. To do. Further, the user interface screen generation unit 270 may add the speed of the running animation to the user interface screen file 294 as attribute information related to the running animation. As a result, in the traveling vehicle, the in-vehicle information device can display the user interface screen 101 whose animation frame advance is slower than when the vehicle is stopped.
  • FIG. 10 is a hardware configuration diagram of the user interface screen creation apparatus 200 according to the first embodiment.
  • a hardware configuration of user interface screen creation apparatus 200 according to Embodiment 1 will be described with reference to FIG.
  • the hardware configuration of the user interface screen creation apparatus 200 may be different from that shown in FIG.
  • the user interface screen creation device 200 is a computer that includes an arithmetic device 901, an auxiliary storage device 902, a main storage device 903, a communication device 904, and an input / output device 905.
  • the arithmetic device 901, auxiliary storage device 902, main storage device 903, communication device 904, and input / output device 905 are connected to the bus 909.
  • the arithmetic device 901 is a CPU (Central Processing Unit) that executes a program.
  • the auxiliary storage device 902 is, for example, a ROM (Read Only Memory), a flash memory, or a hard disk device.
  • the main storage device 903 is, for example, a RAM (Random Access Memory).
  • the communication device 904 performs communication via the Internet, a LAN (local area network), a telephone line network, or other networks in a wired or wireless manner.
  • the input / output device 905 is, for example, a mouse, a keyboard, or a display device.
  • the program is stored in the auxiliary storage device 902.
  • an operating system OS
  • a program for realizing the function described as “ ⁇ unit” is stored in the auxiliary storage device 902.
  • the program is stored in the auxiliary storage device 902, loaded into the main storage device 903, read into the arithmetic device 901, and executed by the arithmetic device 901.
  • the user interface screen creation device 200 can create the user interface screen 101 in which the components move around as the creator desires based on the intuitive instruction of the creator. For example, the component moves around in a three-dimensional movement within the user interface screen.
  • Embodiment 2 A mode for previewing the motion (animation) of the moving parts will be described.
  • items not described in the first embodiment will be mainly described. Matters whose description is omitted are the same as those in the first embodiment.
  • the configuration of the user interface screen creation system 100 is the same as that of the first embodiment (see FIG. 1).
  • FIG. 11 is a functional configuration diagram of the user interface screen creation apparatus 200 according to the second embodiment.
  • a functional configuration of the user interface screen creation apparatus 200 according to Embodiment 2 will be described with reference to FIG. However, the functional configuration of the user interface screen creation apparatus 200 may be different from that shown in FIG.
  • the user interface screen creation apparatus 200 includes a preview unit 280 and a preview editing unit 281 in addition to the functions described in the first embodiment (see FIG. 3).
  • the preview unit 280 displays the movement of the motion part on the user interface creation screen 102 based on the motion part animation data 292 when the creator instructs to preview the motion part.
  • the preview unit 280 displays the motion of the motion component one image at a time based on a plurality of still image data included in the animation data 292. That is, the preview unit 280 can also display the motion of the motion component by frame advance.
  • the preview editing unit 281 edits the attribute of the action component included in the still image displayed by the preview unit 280 according to the creator's instruction, and updates the component data 291 and the still image data based on the edited content. In other words, the preview editing unit 281 edits a still image including a motion part according to an instruction from the creator.
  • the position, size, and color of the moving parts are examples of the attributes of the moving parts.
  • FIG. 12 is a flowchart of preview editing processing according to the second embodiment.
  • the preview editing process according to the second embodiment will be described with reference to FIG. However, the preview editing process may be different from that shown in FIG.
  • the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to preview the motion component. For example, the creator selects an operation component using the input device 120 and selects start from the preview menu of the user interface creation screen 102.
  • the input device 120 outputs input data 202 that specifies the start of the preview of the motion component.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator performs a first movement that designates an action component and a second movement that indicates the start of a preview.
  • the motion sensor 110 detects the first movement and the second movement, and outputs motion data 201 representing the first movement and the second movement. Then, the motion data acquisition unit 210 acquires the motion data 201.
  • the preview unit 280 selects an action component based on the motion data 201 or the input data 202.
  • the preview unit 280 displays the motion of the motion component on the user interface creation screen 102 by frame advance based on the plurality of still image data included in the animation data 292 of the selected motion component.
  • the preview unit 280 selects a moving part indicated by the input data 202, and displays the movement of the moving part by frame advance based on the animation data 292 of the selected moving part.
  • the preview unit 280 selects an action component based on the first movement represented by the motion data 201, and determines whether the second movement represented by the motion data 201 means the start of the preview based on the motion management file 203. To do.
  • the preview unit 280 displays the motion of the motion component by frame advance based on the animation data 292 of the selected motion component.
  • step S ⁇ b> 220 the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to temporarily stop the preview of the motion component.
  • the creator uses the input device 120 to select primary stop from the preview menu on the user interface creation screen 102.
  • the input device 120 outputs input data 202 designating the primary stop of the preview.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator performs a movement that means a primary stop of the preview.
  • the motion sensor 110 detects the motion of the creator and outputs motion data 201 representing the motion of the creator.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the preview unit 280 detects a preview pause instruction based on the motion data 201 or the input data 202, and pauses the preview. That is, the preview unit 280 temporarily stops the frame advance of the movement of the motion component. For example, the preview unit 280 detects a preview primary stop instruction based on the input data 202 designating the primary stop of the preview. For example, the preview unit 280 determines, based on the motion management file 203, whether the creator's movement represented by the motion data 201 means a primary stop of the preview. When the creator's movement means the primary stop of the preview, the preview unit 280 detects the primary stop instruction of the preview. After S220, the process proceeds to S230.
  • the creator uses the motion sensor 110 or the input device 120 to instruct the editing contents to the user interface screen creation device 200.
  • the creator uses the input device 120 to instruct editing contents.
  • the input device 120 outputs input data 202 that specifies editing contents.
  • the input data acquisition unit 211 acquires the input data 202.
  • the creator uses the motion sensor 110 to perform a motion that means editing content.
  • the motion sensor 110 detects the motion of the creator and outputs motion data 201 representing the motion of the creator.
  • the motion data acquisition unit 210 acquires the motion data 201.
  • the preview editing unit 281 edits the attribute of the motion part based on the motion data 201 or the input data 202, and updates the component data 291 and still image data of the motion part based on the edited content. For example, the preview editing unit 281 edits the attribute of the operation component according to the editing content specified by the input data 202, and updates the component data 291 and the still image data. For example, based on the motion management file 203, the preview editing unit 281 specifies the editing content that means the creator's movement represented by the motion data 201. Then, the preview editing unit 281 edits the attribute of the operation component according to the specified editing content, and updates the component data 291 and the still image data. After S230, the process proceeds to S240.
  • the creator instructs the user interface screen creation apparatus 200 to resume the preview, as in the case of the primary stop instruction.
  • the preview unit 280 resumes the preview in the same manner as the primary stop of the preview.
  • the second embodiment it is possible to preview the motion of the motion component and edit the motion of the motion component previewed.
  • Each embodiment is an example of a form of the user interface screen creation system 100.
  • the user interface screen creation system 100 may not include some of the components described in the embodiments. Further, the user interface screen creation system 100 may include components that are not described in each embodiment.
  • the processing procedure described with reference to the flowcharts in each embodiment is an example of the processing procedure of the method and program according to each embodiment.
  • the method and program according to each embodiment may be realized by a processing procedure partially different from the processing procedure described in each embodiment.
  • 100 user interface screen creation system 101 user interface screen, 102 user interface creation screen, 103 menu bar, 104 component parts, 105 operation parts, 110 motion sensor, 120 input device, 130 display device, 200 user interface screen creation device, 201 Motion data, 202 input data, 203 motion management file, 210 motion data acquisition unit, 211 input data acquisition unit, 220 user interface creation screen display unit, 230 component generation unit, 231 component component display unit, 240 operation component selection unit, 250 animation detection unit, 251 animation generation unit, 260 operation allocation unit, 270 user interface screen generation 280 Preview unit, 281 Preview editing unit, 290 Device storage unit, 291 Component data, 292 Animation data, 293 Operation data, 294 User interface screen file, 901 Arithmetic unit, 902 Auxiliary storage device, 903 Main storage device, 904 communication Device, 905 I / O device, 909 bus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 A structural component display unit (231) displays, on a user interface creation screen, a structural component included in the user interface screen used by a user. A motion data acquisition unit (210) acquires, from a motion sensor that detects the motion of a creator who creates the user interface screen, motion data (201) representing the motion of the creator. An animation generation unit (251) generates, on the basis of the motion data (201), animation data (292) for moving the structural component displayed on the user interface creation screen the same way as the creator moves.

Description

ユーザインターフェース画面作成装置およびユーザインターフェース画面作成プログラムUser interface screen creation device and user interface screen creation program

 本発明は、ユーザインターフェース画面を作成する技術に関するものである。 The present invention relates to a technique for creating a user interface screen.

 特許文献1は、画面のサイズが変更される際に、ユーザインターフェースを分かり易く表示する技術を開示している。また、特許文献1は、情報処理装置の姿勢を検出するためにモーションセンサを用いることを開示している。
 特許文献2および特許文献3は、装置の操作性を向上させるために、入力手段としてモーションセンサを用いることを開示している。
 しかし、いずれの文献にも、動作する部品を含んだユーザインターフェース画面をモーションセンサを用いて生成する方法については開示されていない。
Patent Document 1 discloses a technique for displaying a user interface in an easy-to-understand manner when the screen size is changed. Patent Document 1 discloses using a motion sensor to detect the attitude of the information processing apparatus.
Patent Document 2 and Patent Document 3 disclose the use of a motion sensor as input means in order to improve the operability of the apparatus.
However, none of the documents discloses a method for generating a user interface screen including a moving part using a motion sensor.

特開2013-186701号公報JP 2013-186701 A 特開2010-086367号公報JP 2010-086367 A 特開2012-073658号公報JP 2012-073658 A

 本発明は、作成者の動作と同様に動く構成部品を含んだユーザインターフェース画面を作成できるようにすることを目的とする。 The object of the present invention is to enable creation of a user interface screen including components that move in the same manner as the creator's operation.

 本発明のユーザインターフェース画面作成装置は、
 ユーザによって利用されるユーザインターフェース画面に含まれる構成部品を、前記ユーザインターフェース画面を作成するユーザインターフェース作成画面に表示する構成部品表示部と、
 前記ユーザインターフェース画面を作成する作成者の動きを検知するモーションセンサから、前記作成者の動きを表すモーションデータを取得するモーションデータ取得部と、
 前記モーションデータ取得部によって取得された前記モーションデータに基づいて、前記構成部品表示部によって前記ユーザインターフェース作成画面に表示された前記構成部品を、前記作成者の動きに合わせて動かすアニメーションデータを生成するアニメーション生成部とを備える。
The user interface screen creation device of the present invention comprises:
A component display unit for displaying a component included in a user interface screen used by a user on a user interface creation screen for creating the user interface screen;
A motion data acquisition unit that acquires motion data representing the movement of the creator from a motion sensor that detects the movement of the creator who creates the user interface screen;
Based on the motion data acquired by the motion data acquisition unit, animation data for moving the component displayed on the user interface creation screen by the component display unit in accordance with the movement of the creator is generated. An animation generation unit.

 本発明によれば、作成者の動作と同様に動く構成部品を含んだユーザインターフェース画面を作成することができる。 According to the present invention, it is possible to create a user interface screen including components that move in the same manner as the creator's operation.

実施の形態1におけるユーザインターフェース画面作成システム100の構成図である。1 is a configuration diagram of a user interface screen creation system 100 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース画面101の一例を示す図である。6 is a diagram illustrating an example of a user interface screen 101 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース画面作成装置200の機能構成図である。2 is a functional configuration diagram of a user interface screen creation device 200 according to Embodiment 1. FIG. 実施の形態1におけるモーション管理ファイル203の一例を示す図である。6 is a diagram illustrating an example of a motion management file 203 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース画面作成処理のフローチャートである。6 is a flowchart of user interface screen creation processing according to the first embodiment. 実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。6 is a diagram showing an example of a user interface creation screen 102 according to Embodiment 1. FIG. 実施の形態1におけるユーザインターフェース画面作成装置200のハードウェア構成図である。2 is a hardware configuration diagram of a user interface screen creation device 200 according to Embodiment 1. FIG. 実施の形態2におけるユーザインターフェース画面作成装置200の機能構成図である。FIG. 10 is a functional configuration diagram of a user interface screen creation device 200 in a second embodiment. 実施の形態2におけるプレビュー編集処理のフローチャートである。10 is a flowchart of preview editing processing in the second embodiment.

 実施の形態1.
 作成者の動作と同様に動く構成部品を含んだユーザインターフェース画面を作成する形態について説明する。
Embodiment 1 FIG.
A mode of creating a user interface screen including components that move in the same manner as the creator's operation will be described.

 図1は、実施の形態1におけるユーザインターフェース画面作成システム100の構成図である。
 実施の形態1におけるユーザインターフェース画面作成システム100の構成について、図1に基づいて説明する。但し、ユーザインターフェース画面作成システム100の構成は図1と異なる構成であっても構わない。
FIG. 1 is a configuration diagram of a user interface screen creation system 100 according to the first embodiment.
The configuration of the user interface screen creation system 100 according to Embodiment 1 will be described with reference to FIG. However, the configuration of the user interface screen creation system 100 may be different from that in FIG.

 ユーザインターフェース画面作成システム100は、ユーザによって利用されるユーザインターフェース画面を作成するシステムである。スマートフォンまたはタブレット型コンピュータのメニュー画面は、ユーザインターフェース画面の一例である。
 ユーザインターフェース画面作成システム100は、モーションセンサ110と、入力装置120と、表示装置130と、ユーザインターフェース画面作成装置200とを備える。但し、ユーザインターフェース画面作成装置200がモーションセンサ110と入力装置120と表示装置130とを備えても構わない。
 UIはユーザインターフェースの略称である。
The user interface screen creation system 100 is a system that creates a user interface screen used by a user. The menu screen of a smartphone or tablet computer is an example of a user interface screen.
The user interface screen creation system 100 includes a motion sensor 110, an input device 120, a display device 130, and a user interface screen creation device 200. However, the user interface screen creation device 200 may include the motion sensor 110, the input device 120, and the display device 130.
UI is an abbreviation for user interface.

 モーションセンサ110は、ユーザインターフェース画面を作成する作成者の3次元の動きを検知する。例えば、モーションセンサ110は、作成者の手の動き、作成者の足の動きおよび作成者が動かす道具の動きを検知する。LEAPモーション(登録商標)およびKinectはモーションセンサ110の一例である。モーションセンサ110は、汎用的なセンサであってもよいし、ユーザインターフェース画面を作成するための専用のセンサであってもよい。
 入力装置120は、モーションセンサ110以外の入力用の装置である。キーボードおよびマウスは入力装置120の一例である。
 表示装置130は、ユーザインターフェース画面を作成するためのユーザインターフェース作成画面を表示する。
The motion sensor 110 detects the three-dimensional movement of the creator who creates the user interface screen. For example, the motion sensor 110 detects the movement of the creator's hand, the movement of the creator's foot, and the movement of the tool that the creator moves. LEAP motion (registered trademark) and Kinect are examples of the motion sensor 110. The motion sensor 110 may be a general-purpose sensor or a dedicated sensor for creating a user interface screen.
The input device 120 is an input device other than the motion sensor 110. A keyboard and mouse are examples of the input device 120.
The display device 130 displays a user interface creation screen for creating a user interface screen.

 ユーザインターフェース画面作成装置200は、ユーザインターフェース画面に含まれる構成部品を、モーションセンサ110によって検出された作成者の動きに合わせて動かすアニメーションを生成する。 The user interface screen creation device 200 generates an animation that moves the components included in the user interface screen in accordance with the movement of the creator detected by the motion sensor 110.

 図2は、実施の形態1におけるユーザインターフェース画面101の一例を示す図である。
 ユーザインターフェース画面作成装置200は、ユーザの操作に従って動く構成部品を含んだユーザインターフェース画面101(図2参照)を作成する。
 図2のユーザインターフェース画面101は、奥行きを持って円形に並んだ4つのプレートA、B、C、Dを含んでいる。4つのプレートA、B、C、Dは構成部品の一例である。
 図2の(1)において、ユーザがプレートAを右方向にスワイプすると、4つのプレートA、B、C、Dが3次元の反時計回りの方向に移動し、ユーザインターフェース画面101は図2の(2)の状態になる。
 但し、図2のユーザインターフェース画面101は、ユーザインターフェース画面作成装置200によって作成されるユーザインターフェース画面101の一例である。
FIG. 2 is a diagram illustrating an example of the user interface screen 101 according to the first embodiment.
The user interface screen creation apparatus 200 creates a user interface screen 101 (see FIG. 2) that includes components that move according to user operations.
The user interface screen 101 in FIG. 2 includes four plates A, B, C, and D arranged in a circle with a depth. The four plates A, B, C, and D are examples of components.
In FIG. 2 (1), when the user swipes the plate A to the right, the four plates A, B, C, and D move in a three-dimensional counterclockwise direction, and the user interface screen 101 is displayed in FIG. It will be in the state of (2).
However, the user interface screen 101 in FIG. 2 is an example of the user interface screen 101 created by the user interface screen creation device 200.

 図3は、実施の形態1におけるユーザインターフェース画面作成装置200の機能構成図である。
 実施の形態1におけるユーザインターフェース画面作成装置200の機能構成について、図3に基づいて説明する。但し、ユーザインターフェース画面作成装置200の機能構成は、図3と異なる機能構成であっても構わない。
FIG. 3 is a functional configuration diagram of the user interface screen creation apparatus 200 according to the first embodiment.
A functional configuration of the user interface screen creation apparatus 200 according to Embodiment 1 will be described with reference to FIG. However, the functional configuration of the user interface screen creation apparatus 200 may be different from that shown in FIG.

 ユーザインターフェース画面作成装置200は、モーションデータ取得部210と、入力データ取得部211とを備える。
 ユーザインターフェース画面作成装置200は、ユーザインターフェース作成画面表示部220と、構成部品生成部230と、構成部品表示部231と、動作部品選択部240とを備える。
 ユーザインターフェース画面作成装置200は、アニメーション検知部250と、アニメーション生成部251と、操作割り当て部260と、ユーザインターフェース画面生成部270とを備える。
 ユーザインターフェース画面作成装置200は、装置記憶部290を備える。
The user interface screen creation device 200 includes a motion data acquisition unit 210 and an input data acquisition unit 211.
The user interface screen creation device 200 includes a user interface creation screen display unit 220, a component generation unit 230, a component display unit 231, and an operation component selection unit 240.
The user interface screen creation device 200 includes an animation detection unit 250, an animation generation unit 251, an operation assignment unit 260, and a user interface screen generation unit 270.
The user interface screen creation device 200 includes a device storage unit 290.

 モーションデータ取得部210は、モーションセンサ110から出力されるモーションデータ201を取得する。モーションデータ201は、モーションセンサ110によって検出された作成者の3次元の動きを表すデータである。例えば、作成者が手を動かした場合のモーションデータ201は、動作前の手の位置を表す座標値と、動作後の手の位置を表す座標値とを含む。
 入力データ取得部211は、入力装置120から出力される入力データ202を取得する。入力データ202は、入力装置120を用いて入力された作成者の指示を示すデータである。
The motion data acquisition unit 210 acquires the motion data 201 output from the motion sensor 110. The motion data 201 is data representing the three-dimensional movement of the creator detected by the motion sensor 110. For example, the motion data 201 when the creator moves the hand includes coordinate values representing the position of the hand before the operation and coordinate values representing the position of the hand after the operation.
The input data acquisition unit 211 acquires input data 202 output from the input device 120. The input data 202 is data indicating a creator's instruction input using the input device 120.

 ユーザインターフェース作成画面表示部220は、ユーザインターフェース作成画面を表す画像を表示装置130に表示する。 The user interface creation screen display unit 220 displays an image representing the user interface creation screen on the display device 130.

 構成部品生成部230は、構成部品を指示するモーションデータ201(追加部品選択データともいう)または入力データ202に基づいて、構成部品を表す構成部品データ291を生成する。構成部品データ291は構成部品の画像データである。
 構成部品表示部231は、構成部品データ291に基づいて、構成部品をユーザインターフェース作成画面に表示する。
The component generation unit 230 generates component component data 291 representing a component based on motion data 201 (also referred to as additional component selection data) or input data 202 that indicates a component. The component data 291 is image data of the component.
The component display unit 231 displays the component on the user interface creation screen based on the component data 291.

 動作部品選択部240は、動かす対象である構成部品を指示するモーションデータ201(動作部品選択データともいう)または入力データ202に基づいて、ユーザインターフェース作成画面に含まれる1つ以上の構成部品から、動かす対象である構成部品を選択する。以下、動かす対象である構成部品を動作部品という。 Based on the motion data 201 (also referred to as motion part selection data) or the input data 202 that indicates the component that is the object to be moved, the motion part selection unit 240 selects one or more constituent parts included in the user interface creation screen from Select the component that you want to move. Hereinafter, the component to be moved is referred to as an operation component.

 アニメーション検知部250は、アニメーションの生成を開始させる開始指示を意味するモーションデータ201(アニメーション開始データともいう)または入力データ202に基づいて、開始指示を検知する。
 アニメーション検知部250は、アニメーションの生成を終了させる終了指示を意味するモーションデータ201(アニメーション終了データともいう)または入力データ202に基づいて、終了指示を検知する。
The animation detection unit 250 detects a start instruction based on motion data 201 (also referred to as animation start data) or input data 202 which means a start instruction for starting generation of an animation.
The animation detection unit 250 detects an end instruction based on motion data 201 (also referred to as animation end data) or input data 202 which means an end instruction to end the generation of animation.

 アニメーション生成部251は、開始指示から終了指示までに取得されたモーションデータ201(アニメーション生成データともいう)に基づいて、作成者の動きに合わせて動作部品が動くアニメーションデータ292を生成する。アニメーションデータ292は、複数の静止画データを含んだ動画データである。
 なお、アニメーション生成部251は、アニメーションデータ292を生成する際に、構成部品が滑らかに動くように構成部品の動きを補正する。
Based on the motion data 201 (also referred to as animation generation data) acquired from the start instruction to the end instruction, the animation generation unit 251 generates animation data 292 in which the moving part moves in accordance with the movement of the creator. The animation data 292 is moving image data including a plurality of still image data.
The animation generation unit 251 corrects the movement of the component so that the component moves smoothly when generating the animation data 292.

 操作割り当て部260は、ユーザの操作を指示するモーションデータ201または入力データ202に基づいて、操作データ293を生成する。操作データ293は動作部品に割り当てるユーザの操作を表すデータである。
 操作データ293が表すユーザの操作が行われた場合、ユーザインターフェース画面に含まれる動作部品がアニメーションデータ292に従って動く。
The operation assignment unit 260 generates operation data 293 based on the motion data 201 or the input data 202 that instructs the user's operation. The operation data 293 is data representing a user operation assigned to the operation component.
When a user operation represented by the operation data 293 is performed, the motion component included in the user interface screen moves according to the animation data 292.

 ユーザインターフェース画面生成部270は、ユーザインターフェース画面を表すユーザインターフェース画面ファイル294を生成する。
 ユーザインターフェース画面ファイル294は、各構成部品の構成部品データ291、アニメーションデータ292および操作データ293を含む。
The user interface screen generation unit 270 generates a user interface screen file 294 representing the user interface screen.
The user interface screen file 294 includes component data 291, animation data 292, and operation data 293 for each component.

 装置記憶部290は、ユーザインターフェース画面作成装置200によって使用、生成または入出力されるデータを記憶する。
 例えば、装置記憶部290は、モーションデータ201と、入力データ202と、モーション管理ファイル203とを記憶する。また、装置記憶部290は、構成部品データ291と、アニメーションデータ292と、操作データ293と、ユーザインターフェース画面ファイル294とを記憶する。
 モーション管理ファイル203は、作成者の動きの種類毎に、作成者の動きの種類に対応付けて、作成者の動きの意味を示す。
The device storage unit 290 stores data used, generated or input / output by the user interface screen creation device 200.
For example, the device storage unit 290 stores motion data 201, input data 202, and a motion management file 203. In addition, the device storage unit 290 stores component data 291, animation data 292, operation data 293, and a user interface screen file 294.
The motion management file 203 indicates the meaning of the creator's movement in association with the type of movement of the creator for each type of movement of the creator.

 図4は、実施の形態1におけるモーション管理ファイル203の一例を示す図である。
 例えば、図4のモーション管理ファイル203において、作成者の手の移動は動作部品の移動を意味し、手をグーにする動きはアニメーションの生成の終了を意味する。
FIG. 4 is a diagram showing an example of the motion management file 203 in the first embodiment.
For example, in the motion management file 203 of FIG. 4, the movement of the creator's hand means the movement of the moving part, and the movement of making the hand goo means the end of the generation of the animation.

 図5は、実施の形態1におけるユーザインターフェース画面作成処理のフローチャートである。
 実施の形態1におけるユーザインターフェース画面作成処理について、図5に基づいて説明する。但し、ユーザインターフェース画面作成処理は図5と異なる処理であっても構わない。
FIG. 5 is a flowchart of user interface screen creation processing according to the first embodiment.
User interface screen creation processing in the first embodiment will be described with reference to FIG. However, the user interface screen creation process may be different from that shown in FIG.

 S110において、作成者は、入力装置120を用いて、ユーザインターフェース画面の作成の開始をユーザインターフェース画面作成装置200に指示する。入力装置120は、作成者の指示を示す入力データ202を出力する。入力データ取得部211は入力データ202を取得する。
 そして、ユーザインターフェース作成画面表示部220は、入力データ202が示す指示に従って、ユーザインターフェース作成画面を表示装置130に表示する。
 S110の後、処理は、S120に進む。
In S110, the creator uses the input device 120 to instruct the user interface screen creation device 200 to start creating a user interface screen. The input device 120 outputs input data 202 indicating a creator's instruction. The input data acquisition unit 211 acquires input data 202.
Then, the user interface creation screen display unit 220 displays the user interface creation screen on the display device 130 in accordance with the instruction indicated by the input data 202.
After S110, the process proceeds to S120.

 図6は、実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。
 例えば、ユーザインターフェース作成画面表示部220は、図6に示すようなユーザインターフェース作成画面102を表示する。
 図6のユーザインターフェース作成画面102はメニューバー103を備えている。
 メニューバー103は、ファイル、部品、アニメーション、操作などのメニューを備える。
 メニューバー103のファイルは、ユーザインターフェース画面ファイル294に関するメニューである。メニューバー103のファイルが選択された場合、ユーザインターフェース作成画面102は、新規作成および保存などのメニューを表示する。
 メニューバー103の部品は、構成部品を追加するためのメニューである。メニューバー103の部品が選択された場合、ユーザインターフェース作成画面表示部220は部品の一覧を表示する。
 メニューバー103のアニメーションは、アニメーションの生成の開始または終了を指定するためのメニューである。メニューバー103のアニメーションが選択された場合、ユーザインターフェース作成画面表示部220は、開始および終了などのメニューを表示する。
 メニューバー103の操作は、ユーザの操作をアニメーションに割り当てるためのメニューである。メニューバー103の操作が選択された場合、ユーザインターフェース作成画面表示部220はユーザの操作の一覧を表示する。
 ユーザインターフェース作成画面102に関するデータは装置記憶部290に予め記憶されている(図示省略)。
 図5に戻り、S120から説明を続ける。
FIG. 6 is a diagram illustrating an example of the user interface creation screen 102 according to the first embodiment.
For example, the user interface creation screen display unit 220 displays a user interface creation screen 102 as shown in FIG.
The user interface creation screen 102 in FIG. 6 includes a menu bar 103.
The menu bar 103 includes menus for files, parts, animations, operations, and the like.
The file on the menu bar 103 is a menu related to the user interface screen file 294. When a file on the menu bar 103 is selected, the user interface creation screen 102 displays a menu for creating a new file and saving it.
The parts in the menu bar 103 are menus for adding component parts. When a part on the menu bar 103 is selected, the user interface creation screen display unit 220 displays a list of parts.
The animation in the menu bar 103 is a menu for designating the start or end of animation generation. When the animation of the menu bar 103 is selected, the user interface creation screen display unit 220 displays a menu such as start and end.
The operation of the menu bar 103 is a menu for assigning a user operation to an animation. When an operation on the menu bar 103 is selected, the user interface creation screen display unit 220 displays a list of user operations.
Data relating to the user interface creation screen 102 is stored in advance in the device storage unit 290 (not shown).
Returning to FIG. 5, the description will be continued from S120.

 S120において、作成者は、モーションセンサ110または入力装置120を用いて、ユーザインターフェース画面に含めたい構成部品を、ユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて、ユーザインターフェース作成画面102の部品メニューから構成部品を選択する。入力装置120は、選択された構成部品を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、構成部品の追加を意味する第1の動きと、追加する構成部品を意味する第2の動きとを行う。モーションセンサ110は第1の動きと第2の動きとを検知し、第1の動きと第2の動きとを表すモーションデータ201(追加部品選択データ)を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In S <b> 120, the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 about components to be included in the user interface screen.
For example, the creator uses the input device 120 to select a component from the component menu on the user interface creation screen 102. The input device 120 outputs input data 202 specifying the selected component. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a first movement that means addition of a component part and a second movement that means a component part to be added. The motion sensor 110 detects the first movement and the second movement, and outputs motion data 201 (additional component selection data) representing the first movement and the second movement. Then, the motion data acquisition unit 210 acquires the motion data 201.

 構成部品生成部230は、モーションデータ201または入力データ202に基づいて、指示された構成部品を表す構成部品データ291を生成する。
 例えば、構成部品生成部230は、入力データ202が示す構成部品を表す構成部品データ291を生成する。
 例えば、構成部品生成部230は、モーション管理ファイル203に基づいて、モーションデータ201が表す第1の動きが構成部品の追加を意味するか判定する。第1の動きが構成部品の追加を意味する場合、構成部品生成部230は、モーション管理ファイル203に基づいて、モーションデータ201が表す第2の動きが意味する構成部品の種類を特定する。そして、構成部品生成部230は、特定した種類の構成部品を表す構成部品データ291を生成する。
The component generation unit 230 generates component data 291 representing the instructed component based on the motion data 201 or the input data 202.
For example, the component generation unit 230 generates component component data 291 representing the component indicated by the input data 202.
For example, the component generation unit 230 determines, based on the motion management file 203, whether the first movement represented by the motion data 201 means adding a component. When the first movement means the addition of a component, the component generation unit 230 identifies the type of the component that the second movement represented by the motion data 201 means based on the motion management file 203. Then, the component generation unit 230 generates component component data 291 representing the specified type of component.

 構成部品表示部231は、構成部品データ291に基づいて、構成部品をユーザインターフェース作成画面に表示する。
 S120の後、処理はS130に進む。
The component display unit 231 displays the component on the user interface creation screen based on the component data 291.
After S120, the process proceeds to S130.

 上記のS120において、作成者は複数の構成部品を指定しても構わない。
 複数の構成部品が指定された場合、構成部品生成部230は複数の構成部品データ291を生成し、構成部品表示部231は複数の構成部品を表示する。
In S120 described above, the creator may specify a plurality of components.
When a plurality of component parts are specified, the component part generation unit 230 generates a plurality of component part data 291 and the component part display unit 231 displays the plurality of component parts.

 図7は、実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。
 例えば、四角形のプレートが構成部品104として指定された場合、構成部品生成部230は四角形のプレートを表す構成部品データ291を生成し、構成部品表示部231は四角形のプレートをユーザインターフェース作成画面102に表示する(図7参照)。
 図5に戻り、S130から説明を続ける。
FIG. 7 is a diagram illustrating an example of the user interface creation screen 102 according to the first embodiment.
For example, when a square plate is designated as the component 104, the component generation unit 230 generates component data 291 representing the square plate, and the component display unit 231 displays the square plate on the user interface creation screen 102. Display (see FIG. 7).
Returning to FIG. 5, the description will be continued from S130.

 S130において、ユーザインターフェース作成画面102には、S120で生成された1つ以上の構成部品が表示されている。
 作成者は、モーションセンサ110または入力装置120を用いて、ユーザインターフェース画面作成装置200に動作部品を指示する。動作部品は、作成者が動かしたい構成部品である。作成者は複数の動作部品を指示しても構わない。
 例えば、作成者は、入力装置120を用いて動作部品を指示する。入力装置120は、指示された動作部品を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、動作部品を指差す動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201(動作部品選択データ)を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In S130, the user interface creation screen 102 displays one or more components generated in S120.
The creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 of an operating component. An action part is a component that the creator wants to move. The creator may instruct a plurality of moving parts.
For example, the creator uses the input device 120 to indicate an operation component. The input device 120 outputs input data 202 specifying the instructed operating component. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a movement pointing at the moving part. The motion sensor 110 detects the creator's movement and outputs motion data 201 (moving part selection data) representing the creator's movement. Then, the motion data acquisition unit 210 acquires the motion data 201.

 動作部品選択部240は、モーションデータ201または入力データ202に基づいて、ユーザインターフェース作成画面102に含まれる1つ以上の構成部品から動作部品を選択する。
 例えば、動作部品選択部240は、入力データ202が示す動作部品を選択する。
 例えば、動作部品選択部240は、モーション管理ファイル203に基づいて、モーションデータ201が表す作成者の動きが動作部品の指定を意味するか判定する。作成者の動きが動作部品の指定を意味する場合、動作部品選択部240は、モーションデータ201に基づいて、作成者が指差した動作部品を選択する。
 S130の後、処理はS140に進む。
The motion part selection unit 240 selects a motion part from one or more components included in the user interface creation screen 102 based on the motion data 201 or the input data 202.
For example, the operation component selection unit 240 selects the operation component indicated by the input data 202.
For example, based on the motion management file 203, the motion component selection unit 240 determines whether the creator's movement represented by the motion data 201 means the designation of the motion component. When the movement of the creator means the designation of the moving part, the moving part selection unit 240 selects the moving part pointed by the creator based on the motion data 201.
After S130, the process proceeds to S140.

 上記のS130は省略しても構わない。
 S130が省略される場合、S120で生成および表示された構成部品が動作部品になる。
The above S130 may be omitted.
When S130 is omitted, the component generated and displayed in S120 becomes an operation component.

 S140において、作成者は、モーションセンサ110または入力装置120を用いて、アニメーションの生成の開始を、ユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて、ユーザインターフェース作成画面102のアニメーションメニューから開始を選択する。入力装置120は、アニメーションの生成の開始を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、アニメーションの生成の開始を意味する動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201(アニメーション開始データ)を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In S140, the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to start generating an animation.
For example, the creator uses the input device 120 to select start from the animation menu on the user interface creation screen 102. The input device 120 outputs input data 202 that specifies the start of animation generation. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a movement that means the start of animation generation. The motion sensor 110 detects the creator's movement and outputs motion data 201 (animation start data) representing the creator's movement. Then, the motion data acquisition unit 210 acquires the motion data 201.

 アニメーション検知部250は、モーションデータ201または入力データ202に基づいて、アニメーションの生成を開始させる開始指示を検知する。
 例えば、アニメーション検知部250は、入力データ202に基づいて開始指示を検知する。
 例えば、アニメーション検知部250は、モーション管理ファイル203に基づいて、モーションデータ201が表す作成者の動きが開始指示を意味するか判定する。作成者の動きが開始指示を意味する場合、アニメーション検知部250は開始指示を検知する。
 S140の後、処理はS141に進む。
The animation detection unit 250 detects a start instruction for starting generation of an animation based on the motion data 201 or the input data 202.
For example, the animation detection unit 250 detects a start instruction based on the input data 202.
For example, the animation detection unit 250 determines, based on the motion management file 203, whether the creator's movement represented by the motion data 201 means a start instruction. When the creator's movement means a start instruction, the animation detection unit 250 detects the start instruction.
After S140, the process proceeds to S141.

 S141において、作成者は、動作部品に動作させたい動きと同様の動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201(アニメーション生成データ)を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
 アニメーション生成部251は、モーションデータ201に基づいて、ユーザインターフェース作成画面102に含まれる動作部品を、作成者の動きに合わせて動かす。
In S <b> 141, the creator performs the same movement as the movement that the operation component wants to operate. The motion sensor 110 detects the creator's movement and outputs motion data 201 (animation generation data) representing the creator's movement. Then, the motion data acquisition unit 210 acquires the motion data 201.
Based on the motion data 201, the animation generation unit 251 moves the motion parts included in the user interface creation screen 102 in accordance with the movement of the creator.

 アニメーション生成部251は、動作部品の動きを滑らかにするために、動作部品の動きを補正してもよい。アニメーション生成部251は、回転または加速など、動作部品の速度に関する動きを補正してもよい。
 例えば、アニメーション生成部251は、作成者の動きを複数のベクトルで表し、複数のベクトルから動作閾値よりも小さいベクトルを除き、残りのベクトルに基づいて動作部品を動かす。
 S141の後、処理はS142に進む。
The animation generation unit 251 may correct the motion of the motion component in order to smooth the motion of the motion component. The animation generation unit 251 may correct a movement related to the speed of the moving part such as rotation or acceleration.
For example, the animation generation unit 251 represents the creator's movement with a plurality of vectors, removes vectors smaller than the motion threshold from the plurality of vectors, and moves the motion component based on the remaining vectors.
After S141, the process proceeds to S142.

 上記のS141において、作成者は、作成者の動きによって、動作部品の移動以外の指示を行っても構わない。例えば、作成者は、動作部品の拡大、縮小または変形を指示しても構わない。例えば、作成者は、動作部品の色の変更を指示しても構わない。動作部品のアニメーション生成部251は、作成者の指示に従って動作部品を変動させる。 In the above-described S141, the creator may give an instruction other than the movement of the moving parts by the movement of the creator. For example, the creator may instruct enlargement, reduction, or deformation of the moving parts. For example, the creator may instruct to change the color of the moving part. The motion part animation generation unit 251 changes the motion part in accordance with an instruction from the creator.

 上記のS141は、作成者が、アニメーションの生成の終了をユーザインターフェース画面作成装置200に指示するまで繰り返される。S141の繰り返しを表す図示は省略する。 The above S141 is repeated until the creator instructs the user interface screen creation apparatus 200 to end the generation of the animation. An illustration showing the repetition of S141 is omitted.

 図8、図9は、実施の形態1におけるユーザインターフェース作成画面102の一例を示す図である。
 例えば、動作部品105を奥行き方向に円弧状に動かしたい場合、作成者は、動作部品105を指示した指を奥行き方向に円弧状に動かす(図8参照)。
 この場合、アニメーション生成部251は、作成者の指と同様に、動作部品105を円弧状に動かす。
 図5に戻り、S142から説明を続ける。
8 and 9 are diagrams illustrating an example of the user interface creation screen 102 according to the first embodiment.
For example, when it is desired to move the motion component 105 in an arc shape in the depth direction, the creator moves the finger that points to the motion component 105 in an arc shape in the depth direction (see FIG. 8).
In this case, the animation generation unit 251 moves the motion component 105 in an arc shape like the creator's finger.
Returning to FIG. 5, the description will be continued from S142.

 S142において、作成者は、モーションセンサ110または入力装置120を用いて、アニメーションの生成の終了を、ユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて、ユーザインターフェース作成画面102のアニメーションメニューから終了を選択する。入力装置120は、アニメーションの生成の終了を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、アニメーションの生成の終了を意味する動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201(アニメーション終了データ)を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In step S <b> 142, the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to end animation generation.
For example, the creator uses the input device 120 to select end from the animation menu on the user interface creation screen 102. The input device 120 outputs input data 202 that specifies the end of animation generation. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a movement that means the end of the generation of the animation. The motion sensor 110 detects the creator's movement and outputs motion data 201 (animation end data) representing the creator's movement. Then, the motion data acquisition unit 210 acquires the motion data 201.

 アニメーション検知部250は、モーションデータ201または入力データ202に基づいて、アニメーションの生成を終了させる終了指示を検知する。
 例えば、アニメーション検知部250は、入力データ202に基づいて終了指示を検知する。
 例えば、アニメーション検知部250は、モーション管理ファイル203に基づいて、モーションデータ201が表す作成者の動きが終了指示を意味するか判定する。作成者の動きが終了指示を意味する場合、アニメーション検知部250は終了指示を検知する。
Based on the motion data 201 or the input data 202, the animation detection unit 250 detects an end instruction to end animation generation.
For example, the animation detection unit 250 detects an end instruction based on the input data 202.
For example, the animation detection unit 250 determines, based on the motion management file 203, whether the creator's movement represented by the motion data 201 means an end instruction. When the creator's movement means an end instruction, the animation detection unit 250 detects the end instruction.

 そして、アニメーション生成部251は、S141で動かした動作部品の動きを表すアニメーションデータ292を生成する。
 S142の後、処理はS150に進む。
Then, the animation generation unit 251 generates animation data 292 representing the movement of the motion component moved in S141.
After S142, the process proceeds to S150.

 S150において、作成者は、モーションセンサ110または入力装置120を用いて、動作部品の動きに割り当てたいユーザの操作を、ユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて、ユーザインターフェース作成画面102の操作メニューからユーザの操作を選択する。入力装置120は、選択されたユーザの操作を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、割り当てたいユーザの操作を意味する動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In S <b> 150, the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to perform a user operation to be assigned to the movement of the motion component.
For example, the creator uses the input device 120 to select a user operation from the operation menu on the user interface creation screen 102. The input device 120 outputs input data 202 that specifies the operation of the selected user. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a movement that means a user operation to be assigned. The motion sensor 110 detects the motion of the creator and outputs motion data 201 representing the motion of the creator. Then, the motion data acquisition unit 210 acquires the motion data 201.

 操作割り当て部260は、モーションデータ201または入力データ202に基づいて、指示されたユーザの操作を表す操作データ293を生成する。
 例えば、操作割り当て部260は、入力データ202が指定するユーザの操作を表す操作データ293を生成する。
 例えば、操作割り当て部260は、モーション管理ファイル203に基づいて、モーションデータ201が表す作成者の動きが意味するユーザの操作を特定する。そして、操作割り当て部260は、特定したユーザの操作を表す操作データ293を生成する。
 S150の後、処理はS160に進む。
Based on the motion data 201 or the input data 202, the operation assigning unit 260 generates operation data 293 representing an instructed user operation.
For example, the operation assignment unit 260 generates operation data 293 representing the user operation specified by the input data 202.
For example, the operation assigning unit 260 identifies a user operation that means the creator's movement represented by the motion data 201 based on the motion management file 203. Then, the operation assigning unit 260 generates operation data 293 representing the specified user operation.
After S150, the process proceeds to S160.

 上記のS120からS150の全てまたは一部は、作成者がユーザインターフェース画面101の作成の終了をユーザインターフェース画面作成装置200に指示するまで、繰り返される。S120からS150の繰り返しを表す図示は省略する。 All or part of S120 to S150 described above is repeated until the creator instructs the user interface screen creation apparatus 200 to end creation of the user interface screen 101. An illustration showing the repetition of S120 to S150 is omitted.

 S160において、作成者は、入力装置120を用いて、ユーザインターフェース画面の作成の終了をユーザインターフェース画面作成装置200に指示する。入力装置120は、作成者の指示を示す入力データ202を出力する。入力データ取得部211は入力データ202を取得する。
 ユーザインターフェース画面生成部270は、ユーザインターフェース画面ファイル294を生成する。ユーザインターフェース画面ファイル294は、ユーザインターフェース作成画面102に含まれる各構成部品の構成部品データ291とアニメーションデータ292と操作データ293とを含む。
 そして、ユーザインターフェース作成画面表示部220は、ユーザインターフェース作成画面102を表示装置130から消去する。
 S160の後、ユーザインターフェース画面作成処理は終了する。
In step S <b> 160, the creator uses the input device 120 to instruct the user interface screen creation device 200 to end creation of the user interface screen. The input device 120 outputs input data 202 indicating a creator's instruction. The input data acquisition unit 211 acquires input data 202.
The user interface screen generation unit 270 generates a user interface screen file 294. The user interface screen file 294 includes component data 291, animation data 292, and operation data 293 for each component included in the user interface creation screen 102.
Then, the user interface creation screen display unit 220 deletes the user interface creation screen 102 from the display device 130.
After S160, the user interface screen creation process ends.

 上記のS160において、作成者はユーザインターフェース画面101に付加する属性情報を指示しても構わない。
 ユーザインターフェース画面生成部270は、作成者の指示に従って、ユーザインターフェース画面ファイル294に属性情報を付加する。
 例えば、ユーザインターフェース画面101が車載情報機器(例えば、カーナビゲーションシステム)に表示する画面である場合、ユーザインターフェース画面生成部270は、走行中または停止中を示す属性情報をユーザインターフェース画面ファイル294に付加する。また、ユーザインターフェース画面生成部270は、走行中のアニメーションに関する属性情報として、走行中のアニメーションの速度をユーザインターフェース画面ファイル294に付加しても構わない。これにより、走行中の車両において、停止中のときよりもアニメーションのコマ送りが遅いユーザインターフェース画面101を車載情報機器に表示させることができる。
In S160 described above, the creator may instruct attribute information to be added to the user interface screen 101.
The user interface screen generation unit 270 adds attribute information to the user interface screen file 294 in accordance with the creator's instruction.
For example, when the user interface screen 101 is a screen displayed on an in-vehicle information device (for example, a car navigation system), the user interface screen generation unit 270 adds attribute information indicating running or stopped to the user interface screen file 294. To do. Further, the user interface screen generation unit 270 may add the speed of the running animation to the user interface screen file 294 as attribute information related to the running animation. As a result, in the traveling vehicle, the in-vehicle information device can display the user interface screen 101 whose animation frame advance is slower than when the vehicle is stopped.

 図10は、実施の形態1におけるユーザインターフェース画面作成装置200のハードウェア構成図である。
 実施の形態1におけるユーザインターフェース画面作成装置200のハードウェア構成について、図10に基づいて説明する。但し、ユーザインターフェース画面作成装置200のハードウェア構成は図10と異なる構成であってもよい。
FIG. 10 is a hardware configuration diagram of the user interface screen creation apparatus 200 according to the first embodiment.
A hardware configuration of user interface screen creation apparatus 200 according to Embodiment 1 will be described with reference to FIG. However, the hardware configuration of the user interface screen creation apparatus 200 may be different from that shown in FIG.

 ユーザインターフェース画面作成装置200は、演算装置901、補助記憶装置902、主記憶装置903、通信装置904および入出力装置905を備えるコンピュータである。
 演算装置901、補助記憶装置902、主記憶装置903、通信装置904および入出力装置905はバス909に接続している。
The user interface screen creation device 200 is a computer that includes an arithmetic device 901, an auxiliary storage device 902, a main storage device 903, a communication device 904, and an input / output device 905.
The arithmetic device 901, auxiliary storage device 902, main storage device 903, communication device 904, and input / output device 905 are connected to the bus 909.

 演算装置901は、プログラムを実行するCPU(Central Processing Unit)である。
 補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリまたはハードディスク装置である。
 主記憶装置903は、例えば、RAM(Random Access Memory)である。
 通信装置904は、有線または無線でインターネット、LAN(ローカルエリアネットワーク)、電話回線網またはその他のネットワークを介して通信を行う。
 入出力装置905は、例えば、マウス、キーボード、ディスプレイ装置である。
The arithmetic device 901 is a CPU (Central Processing Unit) that executes a program.
The auxiliary storage device 902 is, for example, a ROM (Read Only Memory), a flash memory, or a hard disk device.
The main storage device 903 is, for example, a RAM (Random Access Memory).
The communication device 904 performs communication via the Internet, a LAN (local area network), a telephone line network, or other networks in a wired or wireless manner.
The input / output device 905 is, for example, a mouse, a keyboard, or a display device.

 プログラムは、補助記憶装置902に記憶されている。
 例えば、オペレーティングシステム(OS)が補助記憶装置902に記憶される。また、「~部」として説明している機能を実現するプログラムが補助記憶装置902に記憶される。
 プログラムは、補助記憶装置902に記憶されており、主記憶装置903にロードされ、演算装置901に読み込まれ、演算装置901によって実行される。
The program is stored in the auxiliary storage device 902.
For example, an operating system (OS) is stored in the auxiliary storage device 902. Further, a program for realizing the function described as “˜unit” is stored in the auxiliary storage device 902.
The program is stored in the auxiliary storage device 902, loaded into the main storage device 903, read into the arithmetic device 901, and executed by the arithmetic device 901.

 「~の判断」、「~の判定」、「~の抽出」、「~の検知」、「~の設定」、「~の登録」、「~の選択」、「~の生成」、「~の入力」、「~の出力」等の処理の結果を示す情報、データ、ファイル、信号値または変数値が主記憶装置903または補助記憶装置902に記憶される。 “Determining”, “Determining”, “Extracting”, “Detecting”, “Settings”, “Registering”, “Selecting”, “Generating”, “To” Information, data, files, signal values or variable values indicating the results of processing such as “input”, “output of”, etc. are stored in the main storage device 903 or the auxiliary storage device 902.

 実施の形態1により、ユーザインターフェース画面作成装置200は、作成者の思い通りに構成部品が動き回るユーザインターフェース画面101を、作成者の直観的な指示に基づいて作成することができる。例えば、構成部品はユーザインターフェース画面内で三次元的な動きで動き回る。 According to the first embodiment, the user interface screen creation device 200 can create the user interface screen 101 in which the components move around as the creator desires based on the intuitive instruction of the creator. For example, the component moves around in a three-dimensional movement within the user interface screen.

 実施の形態2.
 動作部品の動き(アニメーション)をプレビューする形態について説明する。
 以下、実施の形態1で説明していない事項について主に説明する。説明を省略する事項については実施の形態1と同様である。
Embodiment 2. FIG.
A mode for previewing the motion (animation) of the moving parts will be described.
Hereinafter, items not described in the first embodiment will be mainly described. Matters whose description is omitted are the same as those in the first embodiment.

 ユーザインターフェース画面作成システム100の構成は、実施の形態1(図1参照)と同様である。 The configuration of the user interface screen creation system 100 is the same as that of the first embodiment (see FIG. 1).

 図11は、実施の形態2におけるユーザインターフェース画面作成装置200の機能構成図である。
 実施の形態2におけるユーザインターフェース画面作成装置200の機能構成について、図11に基づいて説明する。但し、ユーザインターフェース画面作成装置200の機能構成は、図11と異なる機能構成であっても構わない。
FIG. 11 is a functional configuration diagram of the user interface screen creation apparatus 200 according to the second embodiment.
A functional configuration of the user interface screen creation apparatus 200 according to Embodiment 2 will be described with reference to FIG. However, the functional configuration of the user interface screen creation apparatus 200 may be different from that shown in FIG.

 ユーザインターフェース画面作成装置200は、実施の形態1(図3参照)で説明した機能に加えて、プレビュー部280とプレビュー編集部281とを備える。
 プレビュー部280は、作成者が動作部品のプレビューを指示した場合に、動作部品のアニメーションデータ292に基づいて、動作部品の動きをユーザインターフェース作成画面102に表示する。例えば、プレビュー部280は、アニメーションデータ292に含まれる複数の静止画データに基づいて、動作部品の動きを1画像ずつ表示する。つまり、プレビュー部280は、動作部品の動きをコマ送りで表示することもできる。
 プレビュー編集部281は、プレビュー部280によって表示された静止画に含まれる動作部品の属性を作成者の指示に従って編集し、編集内容に基づいて構成部品データ291および静止画データを更新する。つまり、プレビュー編集部281は、動作部品を含む静止画を、作成者の指示に従って編集する。動作部品の位置、大きさ、色は動作部品の属性の一例である。
The user interface screen creation apparatus 200 includes a preview unit 280 and a preview editing unit 281 in addition to the functions described in the first embodiment (see FIG. 3).
The preview unit 280 displays the movement of the motion part on the user interface creation screen 102 based on the motion part animation data 292 when the creator instructs to preview the motion part. For example, the preview unit 280 displays the motion of the motion component one image at a time based on a plurality of still image data included in the animation data 292. That is, the preview unit 280 can also display the motion of the motion component by frame advance.
The preview editing unit 281 edits the attribute of the action component included in the still image displayed by the preview unit 280 according to the creator's instruction, and updates the component data 291 and the still image data based on the edited content. In other words, the preview editing unit 281 edits a still image including a motion part according to an instruction from the creator. The position, size, and color of the moving parts are examples of the attributes of the moving parts.

 図12は、実施の形態2におけるプレビュー編集処理のフローチャートである。
 実施の形態2におけるプレビュー編集処理について、図12に基づいて説明する。但し、プレビュー編集処理は図12と異なる処理であっても構わない。
FIG. 12 is a flowchart of preview editing processing according to the second embodiment.
The preview editing process according to the second embodiment will be described with reference to FIG. However, the preview editing process may be different from that shown in FIG.

 S210において、作成者は、モーションセンサ110または入力装置120を用いて、動作部品のプレビューをユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて動作部品を選択し、ユーザインターフェース作成画面102のプレビューメニューから開始を選択する。入力装置120は、動作部品のプレビューの開始を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、動作部品を指定する第1の動きとプレビューの開始を意味する第2の動きとを行う。モーションセンサ110は第1の動きと第2の動きとを検知し、第1の動きと第2の動きとを表すモーションデータ201を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In S <b> 210, the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to preview the motion component.
For example, the creator selects an operation component using the input device 120 and selects start from the preview menu of the user interface creation screen 102. The input device 120 outputs input data 202 that specifies the start of the preview of the motion component. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a first movement that designates an action component and a second movement that indicates the start of a preview. The motion sensor 110 detects the first movement and the second movement, and outputs motion data 201 representing the first movement and the second movement. Then, the motion data acquisition unit 210 acquires the motion data 201.

 プレビュー部280は、モーションデータ201または入力データ202に基づいて動作部品を選択する。そして、プレビュー部280は、選択した動作部品のアニメーションデータ292に含まれる複数の静止画データに基づいて、動作部品の動きをコマ送りでユーザインターフェース作成画面102に表示する。
 例えば、プレビュー部280は、入力データ202が指示する動作部品を選択し、選択した動作部品のアニメーションデータ292に基づいて動作部品の動きをコマ送りで表示する。
 例えば、プレビュー部280は、モーションデータ201が表す第1の動きに基づいて動作部品を選択し、モーションデータ201が表す第2の動きがプレビューの開始を意味するかモーション管理ファイル203に基づいて判定する。第2の動きがプレビューを意味する場合、プレビュー部280は、選択した動作部品のアニメーションデータ292に基づいて動作部品の動きをコマ送りで表示する。
 S210の後、処理はS220に進む。
The preview unit 280 selects an action component based on the motion data 201 or the input data 202. The preview unit 280 displays the motion of the motion component on the user interface creation screen 102 by frame advance based on the plurality of still image data included in the animation data 292 of the selected motion component.
For example, the preview unit 280 selects a moving part indicated by the input data 202, and displays the movement of the moving part by frame advance based on the animation data 292 of the selected moving part.
For example, the preview unit 280 selects an action component based on the first movement represented by the motion data 201, and determines whether the second movement represented by the motion data 201 means the start of the preview based on the motion management file 203. To do. When the second motion means preview, the preview unit 280 displays the motion of the motion component by frame advance based on the animation data 292 of the selected motion component.
After S210, the process proceeds to S220.

 S220において、作成者は、モーションセンサ110または入力装置120を用いて、動作部品のプレビューの一次停止をユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて、ユーザインターフェース作成画面102のプレビューメニューから一次停止を選択する。入力装置120は、プレビューの一次停止を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、プレビューの一次停止を意味する動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In step S <b> 220, the creator uses the motion sensor 110 or the input device 120 to instruct the user interface screen creation device 200 to temporarily stop the preview of the motion component.
For example, the creator uses the input device 120 to select primary stop from the preview menu on the user interface creation screen 102. The input device 120 outputs input data 202 designating the primary stop of the preview. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator performs a movement that means a primary stop of the preview. The motion sensor 110 detects the motion of the creator and outputs motion data 201 representing the motion of the creator. Then, the motion data acquisition unit 210 acquires the motion data 201.

 プレビュー部280は、モーションデータ201または入力データ202に基づいてプレビューの一時停止の指示を検出し、プレビューを一時停止する。つまり、プレビュー部280は、動作部品の動きのコマ送りを一時停止する。
 例えば、プレビュー部280は、プレビューの一次停止を指定する入力データ202に基づいて、プレビューの一次停止の指示を検出する。
 例えば、プレビュー部280は、モーション管理ファイル203に基づいて、モーションデータ201が表す作成者の動きがプレビューの一次停止を意味するか判定する。作成者の動きがプレビューの一次停止を意味する場合、プレビュー部280はプレビューの一次停止の指示を検知する。
 S220の後、処理はS230に進む。
The preview unit 280 detects a preview pause instruction based on the motion data 201 or the input data 202, and pauses the preview. That is, the preview unit 280 temporarily stops the frame advance of the movement of the motion component.
For example, the preview unit 280 detects a preview primary stop instruction based on the input data 202 designating the primary stop of the preview.
For example, the preview unit 280 determines, based on the motion management file 203, whether the creator's movement represented by the motion data 201 means a primary stop of the preview. When the creator's movement means the primary stop of the preview, the preview unit 280 detects the primary stop instruction of the preview.
After S220, the process proceeds to S230.

 S230において、作成者は、モーションセンサ110または入力装置120を用いて、編集内容をユーザインターフェース画面作成装置200に指示する。
 例えば、作成者は、入力装置120を用いて編集内容を指示する。入力装置120は、編集内容を指定する入力データ202を出力する。そして、入力データ取得部211は入力データ202を取得する。
 例えば、作成者は、モーションセンサ110を用いて編集内容を意味する動きを行う。モーションセンサ110は作成者の動きを検知し、作成者の動きを表すモーションデータ201を出力する。そして、モーションデータ取得部210はモーションデータ201を取得する。
In S230, the creator uses the motion sensor 110 or the input device 120 to instruct the editing contents to the user interface screen creation device 200.
For example, the creator uses the input device 120 to instruct editing contents. The input device 120 outputs input data 202 that specifies editing contents. Then, the input data acquisition unit 211 acquires the input data 202.
For example, the creator uses the motion sensor 110 to perform a motion that means editing content. The motion sensor 110 detects the motion of the creator and outputs motion data 201 representing the motion of the creator. Then, the motion data acquisition unit 210 acquires the motion data 201.

 プレビュー編集部281は、モーションデータ201または入力データ202に基づいて動作部品の属性を編集し、編集内容に基づいて動作部品の構成部品データ291および静止画データを更新する。
 例えば、プレビュー編集部281は、入力データ202が指定する編集内容に従って動作部品の属性を編集し、構成部品データ291および静止画データを更新する。
 例えば、プレビュー編集部281は、モーション管理ファイル203に基づいて、モーションデータ201が表す作成者の動きが意味する編集内容を特定する。そして、プレビュー編集部281は、特定した編集内容に従って動作部品の属性を編集し、構成部品データ291および静止画データを更新する。
 S230の後、処理はS240に進む。
The preview editing unit 281 edits the attribute of the motion part based on the motion data 201 or the input data 202, and updates the component data 291 and still image data of the motion part based on the edited content.
For example, the preview editing unit 281 edits the attribute of the operation component according to the editing content specified by the input data 202, and updates the component data 291 and the still image data.
For example, based on the motion management file 203, the preview editing unit 281 specifies the editing content that means the creator's movement represented by the motion data 201. Then, the preview editing unit 281 edits the attribute of the operation component according to the specified editing content, and updates the component data 291 and the still image data.
After S230, the process proceeds to S240.

 S240において、作成者は、プレビューの一次停止の指示と同様に、プレビューの再開をユーザインターフェース画面作成装置200に指示する。
 プレビュー部280は、プレビューの一次停止と同様に、プレビューを再開する。
 S240の後、プレビュー編集処理は終了する。
In S240, the creator instructs the user interface screen creation apparatus 200 to resume the preview, as in the case of the primary stop instruction.
The preview unit 280 resumes the preview in the same manner as the primary stop of the preview.
After S240, the preview editing process ends.

 実施の形態2により、動作部品の動きをプレビューし、プレビューした動作部品の動きを編集することができる。 According to the second embodiment, it is possible to preview the motion of the motion component and edit the motion of the motion component previewed.

 各実施の形態は、ユーザインターフェース画面作成システム100の形態の一例である。
 つまり、ユーザインターフェース画面作成システム100は、各実施の形態で説明した構成要素の一部を備えなくても構わない。また、ユーザインターフェース画面作成システム100は、各実施の形態で説明していない構成要素を備えても構わない。
Each embodiment is an example of a form of the user interface screen creation system 100.
In other words, the user interface screen creation system 100 may not include some of the components described in the embodiments. Further, the user interface screen creation system 100 may include components that are not described in each embodiment.

 各実施の形態においてフローチャート等を用いて説明した処理手順は、各実施の形態に係る方法およびプログラムの処理手順の一例である。各実施の形態に係る方法およびプログラムは、各実施の形態で説明した処理手順と一部異なる処理手順で実現されても構わない。 The processing procedure described with reference to the flowcharts in each embodiment is an example of the processing procedure of the method and program according to each embodiment. The method and program according to each embodiment may be realized by a processing procedure partially different from the processing procedure described in each embodiment.

 「~部」は「~処理」「~工程」「~プログラム」「~装置」と読み替えることができる。 「" ~ "Can be read as" ~ processing "," ~ process "," ~ program "," ~ device ".

 100 ユーザインターフェース画面作成システム、101 ユーザインターフェース画面、102 ユーザインターフェース作成画面、103 メニューバー、104 構成部品、105 動作部品、110 モーションセンサ、120 入力装置、130 表示装置、200 ユーザインターフェース画面作成装置、201 モーションデータ、202 入力データ、203 モーション管理ファイル、210 モーションデータ取得部、211 入力データ取得部、220 ユーザインターフェース作成画面表示部、230 構成部品生成部、231 構成部品表示部、240 動作部品選択部、250 アニメーション検知部、251 アニメーション生成部、260 操作割り当て部、270 ユーザインターフェース画面生成部、280 プレビュー部、281 プレビュー編集部、290 装置記憶部、291 構成部品データ、292 アニメーションデータ、293 操作データ、294 ユーザインターフェース画面ファイル、901 演算装置、902 補助記憶装置、903 主記憶装置、904 通信装置、905 入出力装置、909 バス。 100 user interface screen creation system, 101 user interface screen, 102 user interface creation screen, 103 menu bar, 104 component parts, 105 operation parts, 110 motion sensor, 120 input device, 130 display device, 200 user interface screen creation device, 201 Motion data, 202 input data, 203 motion management file, 210 motion data acquisition unit, 211 input data acquisition unit, 220 user interface creation screen display unit, 230 component generation unit, 231 component component display unit, 240 operation component selection unit, 250 animation detection unit, 251 animation generation unit, 260 operation allocation unit, 270 user interface screen generation 280 Preview unit, 281 Preview editing unit, 290 Device storage unit, 291 Component data, 292 Animation data, 293 Operation data, 294 User interface screen file, 901 Arithmetic unit, 902 Auxiliary storage device, 903 Main storage device, 904 communication Device, 905 I / O device, 909 bus.

Claims (8)

 ユーザによって利用されるユーザインターフェース画面に含まれる構成部品を、前記ユーザインターフェース画面を作成するユーザインターフェース作成画面に表示する構成部品表示部と、
 前記ユーザインターフェース画面を作成する作成者の動きを検知するモーションセンサから、前記作成者の動きを表すモーションデータを取得するモーションデータ取得部と、
 前記モーションデータ取得部によって取得された前記モーションデータに基づいて、前記構成部品表示部によって前記ユーザインターフェース作成画面に表示された前記構成部品を、前記作成者の動きに合わせて動かすアニメーションデータを生成するアニメーション生成部と
を備えることを特徴とするユーザインターフェース画面作成装置。
A component display unit for displaying a component included in a user interface screen used by a user on a user interface creation screen for creating the user interface screen;
A motion data acquisition unit that acquires motion data representing the movement of the creator from a motion sensor that detects the movement of the creator who creates the user interface screen;
Based on the motion data acquired by the motion data acquisition unit, animation data for moving the component displayed on the user interface creation screen by the component display unit in accordance with the movement of the creator is generated. An apparatus for creating a user interface screen, comprising: an animation generation unit.
 前記モーションデータ取得部は、前記モーションデータとして、前記アニメーション生成部に前記アニメーションデータの生成を開始させる動きを表すアニメーション開始データと、前記アニメーション生成部に前記アニメーションデータの生成を終了させる動きを表すアニメーション終了データと、前記アニメーション生成部に前記アニメーションデータを生成させる動きを表すアニメーション生成データとを取得し、
 前記アニメーション生成部は、前記モーションデータ取得部によって前記アニメーション開始データが取得されてから、前記モーションデータ取得部によって前記アニメーション終了データが取得されるまでの間に、前記モーションデータ取得部によって取得される前記アニメーション生成データに基づいて、前記アニメーションデータを生成する
ことを特徴とする請求項1に記載のユーザインターフェース画面作成装置。
The motion data acquisition unit includes, as the motion data, animation start data that represents a movement that causes the animation generation unit to start generating the animation data, and an animation that represents a movement that causes the animation generation unit to end the generation of the animation data. Obtaining end data and animation generation data representing a movement that causes the animation generation unit to generate the animation data;
The animation generation unit is acquired by the motion data acquisition unit after the animation start data is acquired by the motion data acquisition unit and before the animation end data is acquired by the motion data acquisition unit. The user interface screen creation device according to claim 1, wherein the animation data is generated based on the animation generation data.
 前記モーションデータ取得部は、前記モーションデータとして、複数種類の構成部品から前記構成部品を選択する動きを表す追加部品選択データを取得し、
 前記構成部品表示部は、前記モーションデータ取得部によって取得された前記追加部品選択データに基づいて、前記構成部品を前記ユーザインターフェース作成画面に表示する
ことを特徴とする請求項1に記載のユーザインターフェース画面作成装置。
The motion data acquisition unit acquires, as the motion data, additional component selection data representing a movement for selecting the component from a plurality of types of components,
The user interface according to claim 1, wherein the component display unit displays the component on the user interface creation screen based on the additional component selection data acquired by the motion data acquisition unit. Screen creation device.
 前記構成部品表示部は、複数の構成部品を前記ユーザインターフェース作成画面に表示し、
 前記モーションデータ取得部は、前記モーションデータとして、前記複数の構成部品から構成部品を選択する動きを表す動作部品選択データを取得し、
 前記アニメーション生成部は、前記モーションデータ取得部によって取得された前記動作部品選択データに基づいて、選択された構成部品を動かす前記アニメーションデータを生成する
ことを特徴とする請求項1に記載のユーザインターフェース画面作成装置。
The component display unit displays a plurality of components on the user interface creation screen,
The motion data acquisition unit acquires, as the motion data, motion component selection data representing a motion of selecting a component from the plurality of components,
The user interface according to claim 1, wherein the animation generation unit generates the animation data for moving the selected component based on the motion component selection data acquired by the motion data acquisition unit. Screen creation device.
 前記アニメーション生成部は前記構成部品の動きを補正し、補正後の前記構成部品の動きに基づいて前記アニメーションデータを生成する
ことを特徴とする請求項1に記載のユーザインターフェース画面作成装置。
The user interface screen creation apparatus according to claim 1, wherein the animation generation unit corrects the movement of the component and generates the animation data based on the corrected movement of the component.
 前記アニメーション生成部によって生成された前記アニメーションデータに基づいて、前記構成部品が動くアニメーションを前記ユーザインターフェース作成画面に表示するプレビュー部を備える
ことを特徴とする請求項1に記載のユーザインターフェース画面作成装置。
The user interface screen creation apparatus according to claim 1, further comprising: a preview unit that displays an animation of movement of the component on the user interface creation screen based on the animation data generated by the animation generation unit. .
 前記ユーザインターフェース画面作成装置は、プレビュー編集部を備え、
 前記プレビュー部は、前記アニメーションに含まれる複数の静止画のうちの第一の静止画を前記ユーザインターフェース作成画面に表示し、
 前記モーションデータ取得部は、前記モーションデータとして、前記プレビュー部によって表示された前記第一の静止画を編集する動きを表すプレビュー編集データを取得し、
 前記プレビュー編集部は、前記モーションデータ取得部によって取得された前記プレビュー編集データに基づいて、前記第一の静止画を編集する
ことを特徴とする請求項6に記載のユーザインターフェース画面作成装置。
The user interface screen creation device includes a preview editing unit,
The preview unit displays a first still image among a plurality of still images included in the animation on the user interface creation screen,
The motion data acquisition unit acquires, as the motion data, preview edit data representing a motion for editing the first still image displayed by the preview unit,
The user interface screen creation device according to claim 6, wherein the preview editing unit edits the first still image based on the preview editing data acquired by the motion data acquisition unit.
 ユーザによって利用されるユーザインターフェース画面に含まれる構成部品を、前記ユーザインターフェース画面を作成するユーザインターフェース作成画面に表示する構成部品表示処理と、
 前記ユーザインターフェース画面を作成する作成者の動きを検知するモーションセンサから、前記作成者の動きを表すモーションデータを取得するモーションデータ取得処理と、
 前記モーションデータ取得処理によって取得された前記モーションデータに基づいて、前記構成部品表示処理によって前記ユーザインターフェース作成画面に表示された前記構成部品を、前記作成者の動きに合わせて動かすアニメーションデータを生成するアニメーション生成処理と
をコンピュータに実行させるためのユーザインターフェース画面作成プログラム。
A component display process for displaying a component included in a user interface screen used by a user on a user interface creation screen for creating the user interface screen;
A motion data acquisition process for acquiring motion data representing the movement of the creator from a motion sensor that detects the movement of the creator creating the user interface screen;
Based on the motion data acquired by the motion data acquisition process, animation data for moving the component displayed on the user interface creation screen by the component display process in accordance with the movement of the creator is generated. A user interface screen creation program for causing a computer to execute animation generation processing.
PCT/JP2014/058893 2014-03-27 2014-03-27 Device for creating user interface screen and program for creating user interface screen Ceased WO2015145670A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/058893 WO2015145670A1 (en) 2014-03-27 2014-03-27 Device for creating user interface screen and program for creating user interface screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/058893 WO2015145670A1 (en) 2014-03-27 2014-03-27 Device for creating user interface screen and program for creating user interface screen

Publications (1)

Publication Number Publication Date
WO2015145670A1 true WO2015145670A1 (en) 2015-10-01

Family

ID=54194263

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/058893 Ceased WO2015145670A1 (en) 2014-03-27 2014-03-27 Device for creating user interface screen and program for creating user interface screen

Country Status (1)

Country Link
WO (1) WO2015145670A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072739B1 (en) * 2021-06-23 2022-05-20 三菱電機株式会社 Program creation support device, program creation support method, program creation support program and programmable logic controller

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009522666A (en) * 2005-12-30 2009-06-11 アップル インコーポレイテッド Portable electronic device with interface reconfiguration mode
JP2010538394A (en) * 2007-09-04 2010-12-09 アップル インコーポレイテッド Editing interface
JP2013114413A (en) * 2011-11-28 2013-06-10 Kyocera Corp Device, method, and program
JP2013186701A (en) * 2012-03-08 2013-09-19 Sony Corp Information processing apparatus, image display system, program and image display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009522666A (en) * 2005-12-30 2009-06-11 アップル インコーポレイテッド Portable electronic device with interface reconfiguration mode
JP2010538394A (en) * 2007-09-04 2010-12-09 アップル インコーポレイテッド Editing interface
JP2013114413A (en) * 2011-11-28 2013-06-10 Kyocera Corp Device, method, and program
JP2013186701A (en) * 2012-03-08 2013-09-19 Sony Corp Information processing apparatus, image display system, program and image display method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAORU NAKAMURA: "Leap Motion", I/O, vol. 38, no. 11, 1 November 2013 (2013-11-01), pages 103 - 105 *
YUKI HIROBE ET AL.: "In-air Typing Interface for Mobile Devices using a Single Camera", ITE TECHNICAL REPORT, vol. 33, no. 23, 15 June 2009 (2009-06-15), pages 65 - 68 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072739B1 (en) * 2021-06-23 2022-05-20 三菱電機株式会社 Program creation support device, program creation support method, program creation support program and programmable logic controller
WO2022269787A1 (en) * 2021-06-23 2022-12-29 三菱電機株式会社 Program creation assistance device, program creation assistance method, program creation assistance program, and programmable logic controller

Similar Documents

Publication Publication Date Title
CN108027708B (en) Facilitates selection of attribute values for graphic elements
TW201525776A (en) Invocation control over keyboard user interface
US20110157188A1 (en) Information processing apparatus, information processing method, and storage medium
KR20160003683A (en) Automatically manipulating visualized data based on interactivity
JP2009151638A (en) Information processing apparatus and control method thereof
JP6116167B2 (en) Image processing apparatus, image processing method, and program
CN104123383A (en) Method and device used in media application
CN105359131B (en) tethered selection handle
WO2015063847A1 (en) Programmable display apparatus and program
JP6330348B2 (en) Information processing device
WO2015145670A1 (en) Device for creating user interface screen and program for creating user interface screen
JP5957026B2 (en) Input region generation method, generation device, and generation program
JP6161546B2 (en) A method, apparatus, and program for generating and displaying a specific area.
JP6259225B2 (en) Electronic device, gesture recognition operation method for mobile terminal connected to the same, and in-vehicle system
JP6331864B2 (en) Display device and display program
CN107895388B (en) Method and device for filling colors of graph, computer equipment and storage medium
JP2013149163A (en) Information processing device, control method therefor, program, and storage medium
KR102245042B1 (en) Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method
JP2019020954A (en) Information processing device, control method for information processing device, and program
KR102223554B1 (en) Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method
JP2016062178A (en) Task managing device, task managing method, and program
CN112764644B (en) Object display change method, device, equipment and computer readable storage medium
JPWO2015002322A1 (en) Information processing apparatus, information processing method, and computer program
CN103941999A (en) Information processing method and electronic device
JP6300522B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14887088

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14887088

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP