[go: up one dir, main page]

WO2023058114A1 - 入力装置、入力システムおよび入力方法 - Google Patents

入力装置、入力システムおよび入力方法 Download PDF

Info

Publication number
WO2023058114A1
WO2023058114A1 PCT/JP2021/036826 JP2021036826W WO2023058114A1 WO 2023058114 A1 WO2023058114 A1 WO 2023058114A1 JP 2021036826 W JP2021036826 W JP 2021036826W WO 2023058114 A1 WO2023058114 A1 WO 2023058114A1
Authority
WO
WIPO (PCT)
Prior art keywords
input device
input
sensor
measured value
pressure value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2021/036826
Other languages
English (en)
French (fr)
Inventor
良輔 青木
勇貴 久保
幸生 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2023552438A priority Critical patent/JP7559969B2/ja
Priority to PCT/JP2021/036826 priority patent/WO2023058114A1/ja
Priority to US18/691,622 priority patent/US20240377897A1/en
Publication of WO2023058114A1 publication Critical patent/WO2023058114A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks

Definitions

  • the present invention relates to an input device, an input system and an input method.
  • Input devices such as pointing sticks and touch pads have been developed that operate the cursor on the display according to finger movements.
  • an input device such as a touch screen has been developed in which icons can be operated by directly touching the screen with a finger.
  • icons can be operated by directly touching the screen with a finger.
  • Non-Patent Document 1 This makes it possible to install the input device at a position where the display is easy to see and easy to operate.
  • the disclosed technology aims to improve the operability of the input device.
  • the disclosed technology includes an operation unit that includes a plurality of projections and receives operations by the body of an operator, a sensor that measures a three-dimensional pressure value pressed by the plurality of projections, and an operation unit that is independent of the operation unit. and a pressing operation unit that presses the sensor by the operator's body operation.
  • the operability of the input device can be improved.
  • FIG. 1 is a perspective view showing an example of a sensor included in an input device;
  • FIG. 11 is a flowchart showing an example of the flow of measurement value processing according to the second embodiment;
  • FIG. It is a figure which shows the hardware configuration example of a computer.
  • An input system includes an input device and an information processing device.
  • An input device having a concave operation portion transmits data indicating measured values by a three-dimensional pressure sensor installed at the bottom of the operation portion to an information processing device.
  • the information processing device performs display control to move the cursor displayed on the screen based on the measured value indicated by the received data.
  • FIG. 1 is a diagram showing a system configuration example of an input system.
  • the input system 1 includes an input device 10 and an information processing device 20 .
  • the input device 10 is connected to the information processing device 20 via the communication line 15 so as to be able to communicate with each other.
  • the communication method between the input device 10 and the information processing device 20 may be wired or wireless.
  • the input device 10 has a concave operation unit, and transmits data indicating measured values by a three-dimensional pressure sensor installed at the bottom of the operation unit to the information processing device at regular intervals via the communication line 15 or the like. do.
  • the information processing device 20 is a tablet terminal, a PC (Personal Computer), a glasses-type display, or the like, and is a device to be operated.
  • the information processing device 20 controls the display or the like so as to move the cursor displayed on the screen or change the selection menu based on the measurement values indicated in the received data.
  • FIG. 2 is a perspective view showing an example of an input device.
  • the input device 10 includes an operation portion 11 , an elastic portion 12 , a sensor housing 13 , an installation surface fixing portion 14 and a pressing operation portion 18 .
  • the operation part 11 is formed of a concave member, and is pressed mainly in the Z-axis positive direction by the operator's body (hands, fingers, etc.). Note that when the input device 10 is installed on a table or the like, the positive direction of the Z-axis is a direction close to the vertical downward direction in the installed state.
  • the elastic portion 12 is an elastic member that prevents the operation portion 11 from separating from the sensor when force is applied to the operation portion 11 .
  • the sensor housing 13 is a housing that houses the three-dimensional pressure sensor.
  • the installation surface fixing portion 14 is a member for fixing the installation surface in the installation state when the input device 10 is installed on a table or the like.
  • the installation surface fixing portion 14 is formed, for example, from an earthquake-resistant gel or the like that absorbs shaking.
  • the communication line 15 is connected to a three-dimensional pressure sensor housed in the sensor housing 13.
  • the pressing operation part 18 is formed of a rod-shaped member and arranged at the center of the XY plane of the operation part 11 .
  • the pressing operation part 18 is directly attached to the sensor via the elastic part 12 and can operate independently of the operation part 11 .
  • FIG. 3 is a top view showing an example of an input device.
  • the operation unit 11 has a circular shape when viewed from above in the negative direction of the Z axis. Further, the coordinate system in the following description has the sensor plane as the XY plane and the center of the circle of the operation unit 11 on the XY plane as the origin.
  • the pressing operation part 18 extends in the direction along the Z-axis at the center of the circle of the operation part 11 .
  • the depressing operation portion 18 may be cylindrical or prismatic, or may have a shape other than a rod shape, such as a spherical shape or an ellipsoidal shape.
  • FIG. 4 is a cross-sectional view showing an example of an input device. 4 is a cross-sectional view along AA in FIG. 3.
  • FIG. The operating portion 11 has a convex portion 16 for pressing the sensor 17 .
  • the convex portion 16 contacts the sensor 17 and presses it in the Z-axis positive direction.
  • the convex portion 16 may be in direct contact with the sensor 17 or may be configured to press the sensor 17 via the elastic portion 12 and may not be in direct contact with the sensor 17 .
  • the sensor 17 is a three-dimensional pressure sensor housed in the sensor housing 13 and measures the pressure from the four projections 16 .
  • the pressing operation section 18 is configured to press the sensor 17 via the elastic section 12 .
  • the operation portion 11 has a through hole through which the pressing operation portion 18 passes.
  • FIG. 5 is a perspective view showing the structure of the bottom surface of the input device.
  • the operation unit 11 has four protrusions 16 at four locations slightly apart from the center of the circle formed by the operation unit 11 in the vertical and horizontal directions.
  • the four projections 16 appropriately apply force in eight directions (up, down, left, right, and four oblique directions) at the input of the sensor 17, which is a small three-dimensional pressure sensor.
  • the sensor 17 measures pressure values (Px, Py, Pz) in the X, Y and Z directions.
  • the operation unit 11 includes a plurality of projections 16 and receives operations by the operator's body. Then, the sensor 17 measures three-dimensional pressure values pressed by the plurality of protrusions.
  • FIG. 6 is a perspective view showing an example of an elastic portion included in the input device.
  • the elastic portion 12 is formed so as to cover the convex portion 16 .
  • the inclination of the operation portion 11 is absorbed by the elastic portion 12 , so that the projections 16 can press the sensor 17 .
  • FIG. 7 is a perspective view showing an example of a sensor included in the input device.
  • the sensor 17 is housed in the sensor housing 13 and connected to the communication line 15 .
  • the installation surface of the sensor housing 13 is fixed to an installation target such as a table by the installation surface fixing portion 14 in the installation state.
  • FIG. 8 is a diagram showing a functional configuration example of an information processing device.
  • the information processing device 20 includes a measured value receiving section 21 , a measured value processing section 22 and a display control section 23 .
  • the measured value receiving unit 21 receives data (hereinafter also referred to as measured data) indicating measured values (Px, Py, Pz) from the input device 10 .
  • the measured value processing unit 22 executes screen operation processing such as cursor movement and selection menu change.
  • the display control unit 23 controls the display and the like so that the results of processing by the measurement value processing unit 22 are reflected.
  • the information processing device 20 starts measurement value processing by receiving data indicating measurement values from the input device 10 periodically, for example, every second.
  • Example 1 is an example of executing a cursor operation based on a measured value.
  • a second embodiment is an example of executing a cursor operation, a drag operation, or a range selection operation based on the measured value.
  • FIG. 9 is a flowchart illustrating an example of the flow of measurement value processing according to the first embodiment.
  • the measurement value processing unit 22 acquires measurement data (Px, Py, Pz) (step S101).
  • the measured value processing unit 22 determines whether or not the measured value Px is greater than the threshold Thx (step S102).
  • the measured value processing unit 22 determines that the measured value Px is not greater than the threshold value Thx (step S102: NO), it substitutes 0 for the variable Px indicating the measured value (step S103).
  • step S102 determines that the measured value Px is greater than the threshold value Thx (step S102: YES). It skips the process of step S103.
  • the measured value processing unit 22 determines whether or not the measured value Py is greater than the threshold Thy (step S104).
  • step S104 When the measured value processing unit 22 determines that the measured value Py is not greater than the threshold Thy (step S104: NO), it substitutes 0 for the variable Py indicating the measured value (step S105).
  • step S104 determines that the measured value Py is greater than the threshold Thy (step S104: YES). It skips the process of step S105.
  • the measurement value processing unit 22 determines the cursor direction based on the vector (Px, Py) (step S106). Specifically, the measurement value processing unit 22 determines the direction of the cursor in the direction of the vector (Px, Py), that is, in the direction of the line segment from the origin O to the point (Px, Py).
  • the measured value processing unit 22 determines whether or not the measured value Pz is greater than the threshold Thz1 (step S107). Then, when the measured value processing unit 22 determines that the measured value Pz is greater than the threshold Thz1 (step S107: YES), it determines the cursor speed to be V1 (step S108).
  • the measured value processing unit 22 determines whether the measured value Pz is greater than the threshold Thz1 (step S107: NO), it determines whether the measured value Pz is greater than the threshold Thz2 (step S109).
  • step S109 When the measured value processing unit 22 determines that the measured value Pz is greater than the threshold Thz2 (step S109: YES), it sets the cursor speed to V2 (step S108).
  • the measured value processing unit 22 determines that the measured value Pz is not greater than the threshold Thz2 (step S109: NO), it determines the cursor speed to be V3 (step S111).
  • step S110 or step S111 the measurement value processing unit 22 controls the display of the cursor based on the determined cursor direction and cursor speed (step S112).
  • thresholds Thx, Thy, Thz1, Thz2 and the velocities V1, V2, V3, etc. are predetermined reference values according to the operability of the cursor, the muscle strength of the operator, the degree of physical disability, and the like.
  • the measured value processing unit 22 determines the cursor direction according to the measured values Px and Py, and determines the cursor speed according to the measured value Pz.
  • FIG. 10 is a flowchart illustrating an example of the flow of measurement value processing according to the second embodiment.
  • the measurement value processing unit 22 acquires measurement data (Px, Py, Pz) (step S201).
  • the measured value processing unit 22 determines whether or not the measured value Pz is smaller than the threshold Thz (step S202).
  • step S202 determines whether the measured value Px is larger than the threshold Thx (step S203).
  • the measured value processing unit 22 determines that the measured value Px is not greater than the threshold Thx (step S203: NO), it substitutes 0 for the variable Px indicating the measured value (step S204).
  • step S203 determines that the measured value Px is greater than the threshold value Thx (step S203: YES). Also, when the measured value processing unit 22 determines that the measured value Px is greater than the threshold value Thx (step S203: YES), it skips the process of step S204.
  • the measured value processing unit 22 determines whether or not the measured value Py is greater than the threshold Thy (step S205).
  • step S205 NO
  • step S206 When the measured value processing unit 22 determines that the measured value Py is not greater than the threshold Thy (step S205: NO), it substitutes 0 for the variable Py indicating the measured value (step S206).
  • step S205 determines that the measured value Py is greater than the threshold Thy (step S205: YES). It skips the process of step S206.
  • the measured value processing unit 22 determines the direction and speed of the cursor operation based on the vector (Px, Py), and controls the display (step S207). Specifically, the measurement value processing unit 22 sets the direction of the vector (Px, Py) as the direction of the cursor, and determines the speed of the cursor based on the magnitude of the vector (Px, Py).
  • the measurement value processing unit 22 may calculate the cursor speed by multiplying the magnitude of the vector (Px, Py) by a predetermined coefficient, or the result of comparison with a predetermined threshold value may be Accordingly, the cursor speed may be determined step by step.
  • the measured value processing unit 22 determines that the measured value Pz is not smaller than the threshold Thz (step S202: NO), it starts the drag operation or range selection operation.
  • the measurement value processing unit 22 determines the operation to be started depending on whether or not the cursor to be operated is in contact with an icon or the like on the screen. For example, the measurement value processing unit 22 starts a drag operation when the cursor is in contact with an icon or the like, and starts a range selection operation when the cursor is not in contact with an icon or the like.
  • the measurement value processing unit 22 further acquires measurement data (Px, Py, Pz) (step S209).
  • the measured value processing unit 22 determines whether or not the measured value Pz is smaller than the threshold Thz (step S210).
  • step S210 When the measurement value processing unit 22 determines that the measurement value Pz is smaller than the threshold Thz (step S210: YES), it ends the drag operation or range selection operation (step S211).
  • the measurement value processing unit 22 determines whether or not the magnitudes of the vectors (Px, Py) of each measurement data after starting the drag operation or range selection operation are all less than the threshold Thl (step S217).
  • the threshold Thl is a reference value defined in advance according to the operability of the cursor, the muscle strength of the operator, the degree of physical disability, and the like.
  • step S217 When the measurement value processing unit 22 determines that the magnitudes of the vectors (Px, Py) of each measurement data after starting the drag operation or range selection operation are all less than the threshold Thl (step S217: YES), the display control unit 23 performs display control as a tap operation (step S218). Then, the measured value processing unit 22 returns to the process of step S201.
  • step S201 determines that the magnitudes of the vectors (Px, Py) of each measurement data after starting the drag operation or range selection operation are not all less than the threshold Thl (step S217: NO).
  • the measured value processing unit 22 determines whether the measured value Pz is not smaller than the threshold Thz (step S210: NO), it determines whether the measured value Px is larger than the threshold Thx (step S212).
  • the measured value processing unit 22 determines that the measured value Px is not greater than the threshold Thx (step S212: NO), it substitutes 0 for the variable Px indicating the measured value (step S213).
  • step S212 determines that the measured value Px is greater than the threshold value Thx (step S212: YES). It skips the process of step S213.
  • the measured value processing unit 22 determines whether or not the measured value Py is greater than the threshold Thy (step S214).
  • the measured value processing unit 22 determines that the measured value Py is not greater than the threshold Thy (step S214: NO), it substitutes 0 for the variable Py indicating the measured value (step S215).
  • step S214 determines that the measured value Py is greater than the threshold Thy (step S214: YES). It skips the process of step S215.
  • the measurement value processing unit 22 determines the direction and speed of the drag operation or range selection operation based on the vector (Px, Py), and the display control unit 23 controls the display (step S216). Specifically, the measurement value processing unit 22 sets the direction of the vector (Px, Py) as the direction of the drag operation or range selection operation, and determines the direction of the drag operation or range selection operation based on the magnitude of the vector (Px, Py). Determine speed. Then, the measured value processing unit 22 returns to the process of step S208.
  • the measured value processing unit 22 determines cursor operation, drag operation, or range selection operation according to the measured value Pz, and determines the direction and direction of the operation according to the measured values Px and Py. Determine speed.
  • the display control unit 23 performs display control as a tap operation.
  • the tap operation described above may be a click operation, a pressing operation, or the like, and is used, for example, to select an icon displayed on the screen and open an application program.
  • This operation is realized by the user's operation of the push-down operation unit 18 to suppress pressure on the sensor 17 in the Px and Py directions and apply pressure in the Pz direction.
  • the flow of the measurement value processing according to each embodiment described above is just an example and may be other.
  • the measurement value processing according to the second embodiment when the measurement value Px exceeds the threshold Thx and the measurement value Py exceeds the threshold Thy, the state of the cursor operation or the drag operation is fixed. You can do so.
  • the information processing apparatus 20 can be realized, for example, by causing a computer to execute a program describing the processing details described in the present embodiment.
  • this "computer” may be a physical machine or a virtual machine on the cloud.
  • the "hardware” described here is virtual hardware.
  • the above program can be recorded on a computer-readable recording medium (portable memory, etc.), saved, or distributed. It is also possible to provide the above program through a network such as the Internet or e-mail.
  • FIG. 11 is a diagram showing a hardware configuration example of the computer.
  • the computer of FIG. 11 has a drive device 1000, an auxiliary storage device 1002, a memory device 1003, a CPU 1004, an interface device 1005, a display device 1006, an input device 1007, an output device 1008, etc., which are interconnected by a bus B, respectively.
  • a program that implements the processing in the computer is provided by a recording medium 1001 such as a CD-ROM or memory card, for example.
  • a recording medium 1001 such as a CD-ROM or memory card
  • the program is installed from the recording medium 1001 to the auxiliary storage device 1002 via the drive device 1000 .
  • the program does not necessarily need to be installed from the recording medium 1001, and may be downloaded from another computer via the network.
  • the auxiliary storage device 1002 stores installed programs, as well as necessary files and data.
  • the memory device 1003 reads and stores the program from the auxiliary storage device 1002 when a program activation instruction is received.
  • the CPU 1004 implements functions related to the device according to programs stored in the memory device 1003 .
  • the interface device 1005 is used as an interface for connecting to the network.
  • a display device 1006 displays a program-based GUI (Graphical User Interface) or the like.
  • An input device 1007 is composed of a keyboard, a mouse, buttons, a touch panel, or the like, and is used to input various operational instructions.
  • the output device 1008 outputs the calculation result.
  • the computer may include a GPU (Graphics Processing Unit) or TPU (Tensor Processing Unit) instead of the CPU 1004, or may include a GPU or TPU in addition to the CPU 1004. In that case, the processing may be divided and executed, for example, the GPU or TPU executes processing that requires special computation, and the CPU 1004 executes other processing.
  • the input device having the concave operation portion transmits to the information processing device data indicating the measured value by the three-dimensional pressure sensor installed at the bottom of the operation portion.
  • the information processing device performs display control to move the cursor displayed on the screen based on the measured value indicated by the received data. Thereby, the operability of the input device can be improved.
  • the measurement value processing unit 22 may determine the cursor direction according to the measurement values Px and Pz, and determine the cursor speed according to the measurement value Pz. As a result, the direction and strength of the cursor operation can be adjusted with a small movement such as a paralyzed upper limb.
  • the measured value processing unit 22 may determine whether to perform a drag operation, a range selection operation, or a tap operation according to the magnitude of the vector (Px, Py). good. Thereby, a tap operation using the pressing operation unit 18 can be realized.
  • the measured value processing unit 22 may determine cursor operation, drag operation, or range selection operation according to the measured value Pz, and may determine the direction and speed of the operation according to the measured values Px and Pz. This makes it unnecessary to select an icon using a touch pad for a drag operation such as the conventional track point, and enables both cursor operation and drag operation by operating only the input device 10 .
  • (Summary of embodiment) At least the input devices, input systems, and input methods described in the following sections are described herein.
  • (Section 1) an operation unit having a plurality of projections and receiving an operation by an operator's body; a sensor that measures a three-dimensional pressure value pressed by the plurality of protrusions; a pressing operation unit that presses the sensor by an operation by the body of the operator independently of the operation unit; input device.
  • (Section 2) Further comprising an elastic portion for absorbing inclination of the operation portion, The input device according to item 1.
  • (Section 3) further comprising an installation surface fixing part for fixing the installation surface to the installation target in the installation state; 3.
  • An input system comprising an input device and an information processing device
  • the input device is an operation unit having a plurality of projections and receiving an operation by an operator's body; a sensor that measures a three-dimensional pressure value pressed by the plurality of protrusions; a pressing operation unit that presses the sensor by an operation by the body of the operator independently of the operation unit;
  • the information processing device is a measurement value receiving unit that receives data indicating a measurement value from the input device; a measurement value processing unit that executes screen operation processing based on the measurement value, input system.
  • the measurements include pressure values in the X, Y and Z directions;
  • the measurement value processing unit determines a cursor direction according to the pressure value in the X direction and the pressure value in the Y direction, and determines a cursor speed according to the pressure value in the Z direction.
  • the input system according to item 4. the measurements include pressure values in the X, Y and Z directions; When the pressure value in the Z direction is equal to or greater than a threshold value, the measurement value processing unit performs a drag operation or a range selection operation according to the magnitude of the vector of the pressure value in the X direction and the pressure value in the Y direction. , to decide whether to tap,
  • the measurement value processing unit determines a cursor operation, a drag operation, or a range selection operation according to the pressure value in the Z direction, and determines the direction of operation according to the pressure value in the X direction and the pressure value in the Y direction. and determine the speed, Input system according to clause 6.
  • the input device is an operation unit having a plurality of projections and receiving an operation by an operator's body; a sensor that measures a three-dimensional pressure value pressed by the plurality of protrusions; a pressing operation unit that presses the sensor by an operation by the body of the operator independently of the operation unit; a step in which the information processing device receives data indicating a measurement value from the input device; the information processing device executing a screen operation process based on the measured value; input method.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

複数の凸部を備え、操作者の身体による操作を受ける操作部と、前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備える入力装置である。

Description

入力装置、入力システムおよび入力方法
 本発明は、入力装置、入力システムおよび入力方法に関する。
 ポインティングスティックやタッチパッドなど、指の動作に応じてディスプレイのカーソルを操作する入力装置が開発されている。また、タッチスクリーンなどスクリーンに直接指で触れることでアイコン操作できる入力装置が開発されている。しかしながら、頸髄損傷により上肢機能が麻痺、特に全指伸・指屈筋が麻痺している人の場合、上記の入力装置を扱うことが困難である。
 上肢機能が麻痺している人の場合、キーボードから離れて置かれたマウスを両手で動かして、あるいはトラックボールを腕で何度も回転させて、カーソル操作を行っている。また、全指伸・指屈筋が麻痺している人の場合、時間をかけてタッチ操作をしており、公共空間でスマートフォン操作をするために、周辺にいる人たちの邪魔にならないような位置に移動した上でタッチ操作をする必要がある。
 近年では、ウェアラブルタッチパッドを片方の腕に着衣し、もう片方の腕の動作で動かない指をタッチパッドに触れさせることでディスプレイ操作する入力装置や、車椅子にウェアラブルタッチパッドを固定し、腕の動作で動かない指をタッチパッドに触れさせることでディスプレイ操作する入力装置も検討されている(非特許文献1)。これによりディスプレイの見易さと操作しやすい位置に入力装置を設置することが可能となっている。
 しかしながら、麻痺している上肢によるタッチパッド操作自体が改善されているわけではなく、加えて、操作性をよくするためにある程度の大きさを必要とするタッチパッドは、日常動作の邪魔になる恐れがある。そこで、麻痺している上肢でも小さな動作でディスプレイのカーソル操作ができ、日常動作の邪魔にならず小型な入力装置が必要となる。さらに、公共空間、デスクワークなどの様々な環境で利用できるように、肢体障がい者が身の回りのものに適宜アタッチメントして利用できることが好ましい。
 開示の技術は、入力装置の操作性を向上させることを目的とする。
 開示の技術は、複数の凸部を備え、操作者の身体による操作を受ける操作部と、前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備える入力装置である。
 入力装置の操作性を向上させることができる。
入力システムのシステム構成例を示す図である。 入力装置の一例を示す斜視図である。 入力装置の一例を示す上面図である。 入力装置の一例を示す断面図である。 入力装置の下面の構造を示す斜視図である。 入力装置が備える弾性部の一例を示す斜視図である。 入力装置が備えるセンサの一例を示す斜視図である。 情報処理装置の機能構成例を示す図である。 実施例1に係る測定値処理の流れの一例を示すフローチャートである。 実施例2に係る測定値処理の流れの一例を示すフローチャートである。 コンピュータのハードウェア構成例を示す図である。
 以下、図面を参照して本発明の実施の形態(本実施の形態)を説明する。以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
 (本実施の形態の概要)
 本実施の形態に係る入力システムは、入力装置と情報処理装置とを備える。凹型の操作部を有する入力装置は、操作部の底に設置された3次元圧力センサによる測定値を示すデータを、情報処理装置に送信する。情報処理装置は、受信したデータに示される測定値に基づいて、画面上に表示されたカーソルを移動させるように表示制御する。
 (入力システムのシステム構成例)
 図1は、入力システムのシステム構成例を示す図である。入力システム1は、入力装置10と、情報処理装置20と、を備える。
 入力装置10は、情報処理装置20と、通信線15を介して互いに通信可能に接続されている。なお、入力装置10および情報処理装置20の間の通信方法は、有線でも無線でも良い。
 入力装置10は、凹型の操作部を有し、操作部の底に設置された3次元圧力センサによる測定値を示すデータを、通信線15等を介して、一定間隔ごとに情報処理装置に送信する。
 情報処理装置20は、タブレット端末、PC(Personal Computer)、メガネ型ディスプレイなどであって、操作の対象となる装置である。情報処理装置20は、受信したデータに示される測定値に基づいて、画面上に表示されたカーソルを移動させたり、選択メニューを変更させたりするように、ディスプレイ等を表示制御する。
 (入力装置の構造)
 次に、入力装置10の構造について、図面を参照して説明する。
 図2は、入力装置の一例を示す斜視図である。入力装置10は、操作部11と、弾性部12と、センサ筐体13と、設置面固定部14と、押下操作部18と、を備える。
 操作部11は、凹型の部材から形成され、操作者の身体(手、指など)によって、主にZ軸正方向に押圧される。なお、入力装置10がテーブル等に設置される場合、Z軸正方向は設置状態における鉛直下向きに近い方向となる。
 弾性部12は、操作部11に力がかかったときに、操作部11がセンサから離れないように抑制するための弾性部材である。
 センサ筐体13は、3次元圧力センサが収納される筐体である。
 設置面固定部14は、入力装置10がテーブル等に設置される場合、設置状態における設置面を固定するための部材である。設置面固定部14は、例えば、揺れを吸収する耐震ジェル等から形成される。
 通信線15は、センサ筐体13に収納される3次元圧力センサに接続されている。
 押下操作部18は、棒状の部材から形成され、操作部11のXY平面の中心に配置される。押下操作部18は、弾性部12を介してセンサに直接取り付けられ、操作部11と独立して動作することができるようになっている。
 図3は、入力装置の一例を示す上面図である。操作部11は、Z軸負方向の上面から見て円形となっている。また、以下の説明における座標系は、センサ面をXY平面とし、XY平面における操作部11の円の中心を原点とする。
 押下操作部18は、操作部11の円の中心にZ軸に沿った方向に延在する。押下操作部18は、円柱状であっても角柱状であってもよく、また球状、楕円体等のような棒状以外の形状であってもよい。
 図4は、入力装置の一例を示す断面図である。図4は、図3におけるAA断面図である。操作部11は、センサ17を押圧するための凸部16を備える。凸部16は、センサ17に接触して、Z軸正方向に押圧する。なお、凸部16は、センサ17に直接接触していても良いし、弾性部12を介してセンサ17を押圧するように構成され、センサ17には直接接触していなくても良い。
 センサ17は、センサ筐体13に収納される3次元圧力センサであって、4箇所の凸部16からの圧力を測定する。
 押下操作部18は、弾性部12を介してセンサ17を押圧するように構成されている。操作部11は、押下操作部18が貫通する貫通穴を有している。
 図5は、入力装置の下面の構造を示す斜視図である。操作部11は、操作部11によって形成される円の中心から上下左右に少し離れた4箇所に、凸部16を備える。4つの凸部16によって、小型な3次元圧力センサであるセンサ17の入力において、8つの方向(上下左右および斜め4方向)に適切に力がかけられる。センサ17は、X,YおよびZ方向の圧力値(Px,Py,Pz)を測定する。
 なお、上述した凸部16の数は一例であって、他でも良い。すなわち、操作部11は、複数の凸部16を備え、操作者の身体による操作を受ける。そして、センサ17は、複数の凸部によって押圧される3次元の圧力値を測定する。
 図6は、入力装置が備える弾性部の一例を示す斜視図である。図6に示す例では、弾性部12は、凸部16を覆うように形成されている。これによって、4つの凸部16にそれぞれ互いに異なる力が加えられても、弾性部12によって操作部11の傾きが吸収されるため、凸部16がセンサ17を押圧可能な状態が保持される。
 図7は、入力装置が備えるセンサの一例を示す斜視図である。センサ17は、センサ筐体13に収納され、通信線15に接続されている。センサ筐体13は、設置面固定部14によって設置状態において設置面がテーブル等の設置対象に固定される。
 (情報処理装置の機能構成例)
 次に、情報処理装置20の機能について説明する。
 図8は、情報処理装置の機能構成例を示す図である。情報処理装置20は、測定値受信部21と、測定値処理部22と、表示制御部23と、を備える。
 測定値受信部21は、入力装置10から測定値(Px,Py,Pz)を示すデータ(以下、測定データともいう)を受信する。
 測定値処理部22は、測定値に基づいて、カーソルの移動、選択メニューの変更等の画面操作の処理を実行する。
 表示制御部23は、測定値処理部22による処理結果を反映するように、ディスプレイ等を表示制御する。
 (情報処理装置の動作例)
 次に、情報処理装置20の動作について説明する。情報処理装置20は、入力装置10から定期的に、例えば1秒ごとに、測定値を示すデータを受信することによって、測定値処理を開始する。
 以下、測定値処理の具体例として、実施例1および実施例2について説明する。実施例1は、測定値に基づいてカーソル操作を実行する例である。実施例2は、測定値に基づいてカーソル操作、ドラッグ操作または範囲選択操作を実行する例である。
 (実施例1に係る測定値処理の流れ)
 図9は、実施例1に係る測定値処理の流れの一例を示すフローチャートである。測定値処理部22は、測定データ(Px,Py,Pz)を取得する(ステップS101)。次に、測定値処理部22は、測定値Pxが閾値Thxより大きいか否かを判定する(ステップS102)。
 測定値処理部22は、測定値Pxが閾値Thxより大きくないと判定すると、(ステップS102:NO)、測定値を示す変数Pxに0を代入する(ステップS103)。
 また、測定値処理部22は、測定値Pxが閾値Thxより大きいと判定すると、(ステップS102:YES)、ステップS103の処理をスキップする。
 次に、測定値処理部22は、測定値Pyが閾値Thyより大きいか否かを判定する(ステップS104)。
 測定値処理部22は、測定値Pyが閾値Thyより大きくないと判定すると、(ステップS104:NO)、測定値を示す変数Pyに0を代入する(ステップS105)。
 また、測定値処理部22は、測定値Pyが閾値Thyより大きいと判定すると、(ステップS104:YES)、ステップS105の処理をスキップする。
 続いて、測定値処理部22は、ベクトル(Px,Py)に基づいて、カーソル方向を決定する(ステップS106)。具体的には、測定値処理部22は、ベクトル(Px,Py)の方向、すなわち原点Oから点(Px,Py)に向かう線分の方向に、カーソルの方向を決定する。
 次に、測定値処理部22は、測定値Pzが閾値Thz1より大きいか否かを判定する(ステップS107)。そして、測定値処理部22は、測定値Pzが閾値Thz1より大きいと判定すると(ステップS107:YES)、カーソル速度をV1に決定する(ステップS108)。
 測定値処理部22は、測定値Pzが閾値Thz1より大きくないと判定すると(ステップS107:NO)、測定値Pzが閾値Thz2より大きいか否かを判定する(ステップS109)。
 測定値処理部22は、測定値Pzが閾値Thz2より大きいと判定すると(ステップS109:YES)、カーソル速度をV2に決定する(ステップS108)。
 また、測定値処理部22は、測定値Pzが閾値Thz2より大きくないと判定すると(ステップS109:NO)、カーソル速度をV3に決定する(ステップS111)。
 測定値処理部22は、ステップS108、ステップS110またはステップS111に続いて、決定されたカーソル方向とカーソル速度に基づいて、カーソルを表示制御する(ステップS112)。
 なお、閾値Thx、Thy、Thz1、Thz2および速度V1、V2、V3等は、カーソルの操作性、操作者の筋力、肢体障がいの程度等に応じて、あらかじめ規定された基準値である。
 以上のように、本実施例に係る測定値処理部22は、測定値PxおよびPyに応じてカーソル方向を決定し、測定値Pzに応じてカーソル速度を決定する。
 (実施例2に係る測定値処理の流れ)
 図10は、実施例2に係る測定値処理の流れの一例を示すフローチャートである。測定値処理部22は、測定データ(Px,Py,Pz)を取得する(ステップS201)。次に、測定値処理部22は、測定値Pzが閾値Thzより小さいか否かを判定する(ステップS202)。
 測定値処理部22は、測定値Pzが閾値Thzより小さいと判定すると(ステップS202:YES)、測定値Pxが閾値Thxより大きいか否かを判定する(ステップS203)。
 測定値処理部22は、測定値Pxが閾値Thxより大きくないと判定すると、(ステップS203:NO)、測定値を示す変数Pxに0を代入する(ステップS204)。
 また、測定値処理部22は、測定値Pxが閾値Thxより大きいと判定すると、(ステップS203:YES)、ステップS204の処理をスキップする。
 次に、測定値処理部22は、測定値Pyが閾値Thyより大きいか否かを判定する(ステップS205)。
 測定値処理部22は、測定値Pyが閾値Thyより大きくないと判定すると、(ステップS205:NO)、測定値を示す変数Pyに0を代入する(ステップS206)。
 また、測定値処理部22は、測定値Pyが閾値Thyより大きいと判定すると、(ステップS205:YES)、ステップS206の処理をスキップする。
 そして、測定値処理部22は、ベクトル(Px,Py)に基づいて、カーソル操作の方向および速度を決定し、表示制御する(ステップS207)。具体的には、測定値処理部22は、ベクトル(Px,Py)の方向をカーソルの方向とし、ベクトル(Px,Py)の大きさに基づいてカーソルの速度を決定する。
 なお、測定値処理部22は、ベクトル(Px,Py)の大きさに、あらかじめ規定された係数を掛けて、カーソルの速度を算出しても良いし、あらかじめ規定された閾値との比較結果に応じて、段階的にカーソルの速度を決定しても良い。
 また、測定値処理部22は、測定値Pzが閾値Thzより小さくないと判定すると(ステップS202:NO)、ドラッグ操作または範囲選択操作を開始する。ここで、測定値処理部22は、操作対象のカーソルが画面上においてアイコン等に接しているか否かに応じて、開始する操作を決定する。例えば、測定値処理部22は、カーソルがアイコン等に接している場合にはドラッグ操作を開始し、カーソルがアイコン等に接していない場合には範囲選択操作を開始する。
 続いて、測定値処理部22は、さらに測定データ(Px,Py,Pz)を取得する(ステップS209)。次に、測定値処理部22は、測定値Pzが閾値Thzより小さいか否かを判定する(ステップS210)。
 測定値処理部22は、測定値Pzが閾値Thzより小さいと判定すると(ステップS210:YES)、ドラッグ操作または範囲選択操作を終了する(ステップS211)。
 続いて、測定値処理部22は、ドラッグ操作または範囲選択操作を開始後の各測定データのベクトル(Px,Py)の大きさがすべて閾値Thl未満であるか否かを判定する(ステップS217)。閾値Thlは、カーソルの操作性、操作者の筋力、肢体障がいの程度等に応じて、あらかじめ規定された基準値である。
 測定値処理部22が、ドラッグ操作または範囲選択操作を開始後の各測定データのベクトル(Px,Py)の大きさがすべて閾値Thl未満であると判定すると(ステップS217:YES)、表示制御部23は、タップ操作として表示制御する(ステップS218)。そして、測定値処理部22は、ステップS201の処理に戻る。
 また、測定値処理部22は、ドラッグ操作または範囲選択操作を開始後の各測定データのベクトル(Px,Py)の大きさがすべて閾値Thl未満でないと判定すると(ステップS217:NO)、ステップS201の処理に戻る。
 測定値処理部22は、測定値Pzが閾値Thzより小さくないと判定すると(ステップS210:NO)、測定値Pxが閾値Thxより大きいか否かを判定する(ステップS212)。
 測定値処理部22は、測定値Pxが閾値Thxより大きくないと判定すると、(ステップS212:NO)、測定値を示す変数Pxに0を代入する(ステップS213)。
 また、測定値処理部22は、測定値Pxが閾値Thxより大きいと判定すると、(ステップS212:YES)、ステップS213の処理をスキップする。
 次に、測定値処理部22は、測定値Pyが閾値Thyより大きいか否かを判定する(ステップS214)。
 測定値処理部22は、測定値Pyが閾値Thyより大きくないと判定すると、(ステップS214:NO)、測定値を示す変数Pyに0を代入する(ステップS215)。
 また、測定値処理部22は、測定値Pyが閾値Thyより大きいと判定すると、(ステップS214:YES)、ステップS215の処理をスキップする。
 そして、測定値処理部22は、ベクトル(Px,Py)に基づいて、ドラッグ操作または範囲選択操作の方向および速度を決定し、表示制御部23は、表示制御する(ステップS216)。具体的には、測定値処理部22は、ベクトル(Px,Py)の方向をドラッグ操作または範囲選択操作の方向とし、ベクトル(Px,Py)の大きさに基づいてドラッグ操作または範囲選択操作の速度を決定する。そして、測定値処理部22は、ステップS208の処理に戻る。
 以上のように、本実施例に係る測定値処理部22は、測定値Pzに応じてカーソル操作か、ドラッグ操作または範囲選択操作かを決定し、測定値PxおよびPyに応じて操作の方向および速度を決定する。
 また、測定値処理部22が、測定値Pzが測定され、測定値PxおよびPyの値が小さいと判定すると、表示制御部23は、タップ操作として表示制御する。なお、上述したタップ操作は、クリック操作、押しつけ操作等でも良く、例えば画面に表示されたアイコンを選択してアプリケーションプログラムを開く操作等として使用される。
 この操作は、ユーザが押下操作部18を操作することによって、センサ17へのPx,Py方向への圧力が抑制され、Pz方向に圧力が加わることによって実現される。
 なお、上述した各実施例に係る測定値処理の流れは、一例であって他でも良い。例えば、実施例2に係る測定値処理において、測定値処理部22は、測定値Pxが閾値Thxを超え、測定値Pyが閾値Thyを超えた場合に、カーソル操作またはドラッグ操作の状態が固定されるようにしても良い。
 (本実施の形態に係るハードウェア構成例)
 情報処理装置20は、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。なお、この「コンピュータ」は、物理マシンであってもよいし、クラウド上の仮想マシンであってもよい。仮想マシンを使用する場合、ここで説明する「ハードウェア」は仮想的なハードウェアである。
 上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メール等、ネットワークを通して提供することも可能である。
 図11は、上記コンピュータのハードウェア構成例を示す図である。図11のコンピュータは、それぞれバスBで相互に接続されているドライブ装置1000、補助記憶装置1002、メモリ装置1003、CPU1004、インタフェース装置1005、表示装置1006、入力装置1007、出力装置1008等を有する。
 当該コンピュータでの処理を実現するプログラムは、例えば、CD-ROM又はメモリカード等の記録媒体1001によって提供される。プログラムを記憶した記録媒体1001がドライブ装置1000にセットされると、プログラムが記録媒体1001からドライブ装置1000を介して補助記憶装置1002にインストールされる。但し、プログラムのインストールは必ずしも記録媒体1001より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置1002は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
 メモリ装置1003は、プログラムの起動指示があった場合に、補助記憶装置1002からプログラムを読み出して格納する。CPU1004は、メモリ装置1003に格納されたプログラムに従って、当該装置に係る機能を実現する。インタフェース装置1005は、ネットワークに接続するためのインタフェースとして用いられる。表示装置1006はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置1007はキーボード及びマウス、ボタン、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。出力装置1008は演算結果を出力する。なお、上記コンピュータは、CPU1004の代わりにGPU(Graphics Processing Unit)またはTPU(Tensor processing unit)を備えていても良く、CPU1004に加えて、GPUまたはTPUを備えていても良い。その場合、例えば特殊な演算が必要な処理をGPUまたはTPUが実行し、その他の処理をCPU1004が実行する、というように処理を分担して実行しても良い。
 (本実施の形態の効果)
 本実施の形態に係る入力システム1によれば、凹型の操作部を有する入力装置は、操作部の底に設置された3次元圧力センサによる測定値を示すデータを、情報処理装置に送信する。情報処理装置は、受信したデータに示される測定値に基づいて、画面上に表示されたカーソルを移動させるように表示制御する。これによって、入力装置の操作性を向上させることができる。
 例えば、測定値処理部22は、測定値PxおよびPzに応じてカーソル方向を決定し、測定値Pzに応じてカーソル速度を決定しても良い。これによって、例えば麻痺した上肢等のように小さな動作で、カーソル操作の方向と強さを調整することができる。
 また、測定値処理部22は、測定値Pzが閾値Thz以上である場合に、ベクトル(Px,Py)の大きさに応じて、ドラッグ操作または範囲選択操作か、タップ操作かを決定してもよい。これによって、押下操作部18を利用したタップ操作を実現させることができる。
 また、測定値処理部22は、測定値Pzに応じてカーソル操作か、ドラッグ操作または範囲選択操作かを決定し、測定値PxおよびPzに応じて操作の方向および速度を決定しても良い。これにより、従来のトラックポイントのようなドラッグ操作はタッチパッドによるアイコン選択は不要であり、入力装置10のみの操作によって、カーソル操作とドラッグ操作の両立が可能となる。
 (実施の形態のまとめ)
 本明細書には、少なくとも下記の各項に記載した入力装置、入力システムおよび入力方法が記載されている。
(第1項)
 複数の凸部を備え、操作者の身体による操作を受ける操作部と、
 前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、
 前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備える、
 入力装置。
(第2項)
 前記操作部の傾きを吸収するための弾性部をさらに備える、
 第1項に記載の入力装置。
(第3項)
 設置状態において設置面を設置対象に固定するための設置面固定部をさらに備える、
 第1項または第2項に記載の入力装置。
(第4項)
 入力装置と情報処理装置とを備える入力システムであって、
 前記入力装置は、
 複数の凸部を備え、操作者の身体による操作を受ける操作部と、
 前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、
 前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備え、
 前記情報処理装置は、
 前記入力装置から測定値を示すデータを受信する測定値受信部と、
 前記測定値に基づいて、画面操作の処理を実行する測定値処理部と、を備える、
 入力システム。
(第5項)
 前記測定値は、X方向,Y方向およびZ方向の圧力値を含み、
 前記測定値処理部は、前記X方向の圧力値および前記Y方向の圧力値に応じてカーソル方向を決定し、前記Z方向の圧力値に応じてカーソル速度を決定する、
 第4項に記載の入力システム。
(第6項)
 前記測定値は、X方向,Y方向およびZ方向の圧力値を含み、
 前記測定値処理部は、前記Z方向の圧力値が閾値以上である場合に、前記X方向の圧力値および前記Y方向の圧力値のベクトルの大きさに応じて、ドラッグ操作または範囲選択操作か、タップ操作かを決定する、
 第4項に記載の入力システム。
(第7項)
 前記測定値処理部は、前記Z方向の圧力値に応じてカーソル操作か、ドラッグ操作または範囲選択操作かを決定し、前記X方向の圧力値および前記Y方向の圧力値に応じて操作の方向および速度を決定する、
 第6項に記載の入力システム。
(第8項)
 入力装置と情報処理装置とを備える入力システムが実行する入力方法であって、
 前記入力装置は、
 複数の凸部を備え、操作者の身体による操作を受ける操作部と、
 前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、
 前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備え、
 前記情報処理装置が、前記入力装置から測定値を示すデータを受信するステップと、
 前記情報処理装置が、前記測定値に基づいて、画面操作の処理を実行するステップと、を備える、
 入力方法。
 以上、本実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
1 入力システム
10 入力装置
11 操作部
12 弾性部
13 センサ筐体
14 設置面固定部
15 通信線
16 凸部
17 センサ
18 押下操作部
20 情報処理装置
21 測定値受信部
22 測定値処理部
23 表示制御部
1000 ドライブ装置
1001 記録媒体
1002 補助記憶装置
1003 メモリ装置
1004 CPU
1005 インタフェース装置
1006 表示装置
1007 入力装置
1008 出力装置

Claims (8)

  1.  複数の凸部を備え、操作者の身体による操作を受ける操作部と、
     前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、
     前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備える、
     入力装置。
  2.  前記操作部の傾きを吸収するための弾性部をさらに備える、
     請求項1に記載の入力装置。
  3.  設置状態において設置面を設置対象に固定するための設置面固定部をさらに備える、
     請求項1または2に記載の入力装置。
  4.  入力装置と情報処理装置とを備える入力システムであって、
     前記入力装置は、
     複数の凸部を備え、操作者の身体による操作を受ける操作部と、
     前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、
     前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備え、
     前記情報処理装置は、
     前記入力装置から測定値を示すデータを受信する測定値受信部と、
     前記測定値に基づいて、画面操作の処理を実行する測定値処理部と、を備える、
     入力システム。
  5.  前記測定値は、X方向,Y方向およびZ方向の圧力値を含み、
     前記測定値処理部は、前記X方向の圧力値および前記Y方向の圧力値に応じてカーソル方向を決定し、前記Z方向の圧力値に応じてカーソル速度を決定する、
     請求項4に記載の入力システム。
  6.  前記測定値は、X方向,Y方向およびZ方向の圧力値を含み、
     前記測定値処理部は、前記Z方向の圧力値が閾値以上である場合に、前記X方向の圧力値および前記Y方向の圧力値のベクトルの大きさに応じて、ドラッグ操作または範囲選択操作か、タップ操作かを決定する、
     請求項4に記載の入力システム。
  7.  前記測定値処理部は、前記Z方向の圧力値に応じてカーソル操作か、ドラッグ操作または範囲選択操作かを決定し、前記X方向の圧力値および前記Y方向の圧力値に応じて操作の方向および速度を決定する、
     請求項6に記載の入力システム。
  8.  入力装置と情報処理装置とを備える入力システムが実行する入力方法であって、
     前記入力装置は、
     複数の凸部を備え、操作者の身体による操作を受ける操作部と、
     前記複数の凸部によって押圧される3次元の圧力値を測定するセンサと、
     前記操作部とは独立して前記操作者の前記身体による操作によって前記センサを押圧する押下操作部と、を備え、
     前記情報処理装置が、前記入力装置から測定値を示すデータを受信するステップと、
     前記情報処理装置が、前記測定値に基づいて、画面操作の処理を実行するステップと、を備える、
     入力方法。
PCT/JP2021/036826 2021-10-05 2021-10-05 入力装置、入力システムおよび入力方法 Ceased WO2023058114A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023552438A JP7559969B2 (ja) 2021-10-05 2021-10-05 入力装置、入力システムおよび入力方法
PCT/JP2021/036826 WO2023058114A1 (ja) 2021-10-05 2021-10-05 入力装置、入力システムおよび入力方法
US18/691,622 US20240377897A1 (en) 2021-10-05 2021-10-05 Input apparatus, input system and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036826 WO2023058114A1 (ja) 2021-10-05 2021-10-05 入力装置、入力システムおよび入力方法

Publications (1)

Publication Number Publication Date
WO2023058114A1 true WO2023058114A1 (ja) 2023-04-13

Family

ID=85804020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036826 Ceased WO2023058114A1 (ja) 2021-10-05 2021-10-05 入力装置、入力システムおよび入力方法

Country Status (3)

Country Link
US (1) US20240377897A1 (ja)
JP (1) JP7559969B2 (ja)
WO (1) WO2023058114A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347350A (ja) * 1993-06-11 1994-12-22 Nitta Ind Corp 力・モーメントセンサー
WO2006100724A1 (ja) * 2005-03-18 2006-09-28 Nitta Corporation 静電容量式センサ
JP2010080121A (ja) * 2008-09-24 2010-04-08 Omron Corp 入力装置及び電子機器
JP2012098148A (ja) * 2010-11-02 2012-05-24 Seiko Epson Corp 圧力検出装置、電子機器、及びロボット

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020502A (ja) * 2008-07-10 2010-01-28 Alps Electric Co Ltd ポインティングデバイス
JP2011215926A (ja) * 2010-03-31 2011-10-27 Fujitsu Ten Ltd 操作ユニット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347350A (ja) * 1993-06-11 1994-12-22 Nitta Ind Corp 力・モーメントセンサー
WO2006100724A1 (ja) * 2005-03-18 2006-09-28 Nitta Corporation 静電容量式センサ
JP2010080121A (ja) * 2008-09-24 2010-04-08 Omron Corp 入力装置及び電子機器
JP2012098148A (ja) * 2010-11-02 2012-05-24 Seiko Epson Corp 圧力検出装置、電子機器、及びロボット

Also Published As

Publication number Publication date
JP7559969B2 (ja) 2024-10-02
US20240377897A1 (en) 2024-11-14
JPWO2023058114A1 (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
Kim et al. A new wearable input device: SCURRY
USRE40891E1 (en) Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
EP1779221B1 (en) Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback
CN110568929B (zh) 一种基于虚拟键盘的虚拟场景交互方法、装置和电子设备
Sathiyanarayanan et al. Map navigation using hand gesture recognition: A case study using myo connector on apple maps
JP2008203911A (ja) ポインティング・デバイス、およびコンピュータ
JPWO2015108112A1 (ja) 操作判定装置、操作判定方法、および、プログラム
CN109960404B (zh) 一种数据处理方法及装置
CN111782034A (zh) 基于线性马达的新型电磁触觉模拟反馈装置及方法
Vokorokos et al. Motion sensors: Gesticulation efficiency across multiple platforms
Mulfari et al. Human-computer interface based on IoT embedded systems for users with disabilities
Nascimento et al. Using smartwatches as an interactive movie controller: a case study with the Bandersnatch movie
Bowers et al. Making it simple: expanding access and lowering barriers to novel interaction devices for virtual and augmented reality
Huang et al. Differences in muscle activity, kinematics, user performance, and subjective assessment between touchscreen and mid-air interactions on a tablet
WO2023058114A1 (ja) 入力装置、入力システムおよび入力方法
Calvo et al. Pointing devices for wearable computers
WO2023281705A1 (ja) 入力装置、入力システムおよび入力方法
WO2023058115A1 (ja) 入力装置、入力システムおよび入力方法
Xirgo et al. Accelerometer-based computer mouse for people with special needs
KR20240138827A (ko) 웨어러블 컨트롤러
Kim et al. BudsID: Mobile-Ready and Expressive Finger Identification Input for Earbuds
KR20200115014A (ko) 전완부 근육을 이용한 손가락의 제스처 입력 및 실시간 반발력 제공장치
CN222914159U (zh) 电子设备及其穿戴设备
Kamuro et al. Pen de touch
EP4127881A1 (en) Computer mouse

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959856

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023552438

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18691622

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21959856

Country of ref document: EP

Kind code of ref document: A1