WO2025028139A1 - Information processing system, information processing method, and force sense presentation device - Google Patents
Information processing system, information processing method, and force sense presentation device Download PDFInfo
- Publication number
- WO2025028139A1 WO2025028139A1 PCT/JP2024/024025 JP2024024025W WO2025028139A1 WO 2025028139 A1 WO2025028139 A1 WO 2025028139A1 JP 2024024025 W JP2024024025 W JP 2024024025W WO 2025028139 A1 WO2025028139 A1 WO 2025028139A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- housing
- information processing
- gripping
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Definitions
- This disclosure relates to an information processing system, an information processing method, and a force feedback device.
- VR-related conventional technology is a controller that allows a user to feel the weight (also known as force sensation) of various tools held within a VR space.
- the above-mentioned conventional technology has the problem that it is difficult to determine how the user is holding the controller. As a result, depending on the way the user holds the controller, it may not be possible to present the correct force feedback.
- the present disclosure provides an information processing system, an information processing method, and a force feedback device that can present a force feedback according to the user's gripping state.
- the information processing system disclosed herein is a force-feedback presentation device having a force-feedback presentation unit that presents a predetermined force sensation to a user holding the housing by varying the center of gravity of the housing, and includes a grip detection unit that detects the state in which the housing is being held by the user, and a control unit that controls the operation of the force-feedback presentation unit based on the detected grip state.
- FIG. 1 is a block diagram showing a configuration example of an information processing system according to an embodiment of the present disclosure.
- FIG. 2 is a perspective view showing the appearance of a controller.
- FIG. 2 is a schematic diagram showing a pressure distribution sensor deployed.
- 11 is an explanatory diagram illustrating an example of attachment of a pressure distribution sensor to a controller.
- FIG. FIG. 4 is an explanatory diagram illustrating variable center of gravity of the controller.
- FIG. 11 is an explanatory diagram illustrating estimation of the position of a hand holding a controller.
- 11 is an explanatory diagram illustrating the operation control of a center-of-gravity variable portion.
- FIG. FIG. 13 is an explanatory diagram for explaining calculation of the position of a center-of-gravity variable part.
- 10A and 10B are explanatory diagrams illustrating an example of the operation of a center of gravity variable unit.
- 10A and 10B are explanatory diagrams illustrating an example of the operation of a center of gravity variable unit.
- 10A and 10B are explanatory diagrams illustrating an example of the operation of a center of gravity variable unit.
- 10A and 10B are explanatory diagrams illustrating examples of vibration of a vibration presentation unit.
- FIG. 11 is an explanatory diagram illustrating an example of moment control in a controller.
- FIG. 11 is an explanatory diagram illustrating an example of moment control in a controller.
- FIG. 11 is an explanatory diagram illustrating an example of a feedback loop of moment control.
- FIG. 11 is an explanatory diagram illustrating an example of adjusting the strength of a force presented by the controller.
- FIG. FIG. 11 is an explanatory diagram for explaining estimation of a grip angle of the controller.
- FIG. 11 is an explanatory diagram illustrating estimation of a swing speed of a controller.
- FIG. 11 is an explanatory diagram for explaining estimation of the end of a controller swing.
- 11 is an explanatory diagram illustrating an example of an interaction according to a force with which the controller is gripped.
- FIG. 11 is an explanatory diagram illustrating an example of an interaction according to a force with which the controller is gripped.
- FIG. 11 is an explanatory diagram illustrating an example of an interaction according to the position of the hand holding the controller.
- FIG. 11 is an explanatory diagram for explaining estimation of a grip angle of the controller.
- FIG. 11 is an explanatory diagram illustrating estimation of a swing speed of a controller.
- FIG. 11 is an explanatory diagram for explaining estimation of the end of
- FIG. 11 is an explanatory diagram illustrating an example of an interaction according to the position of the hand holding the controller.
- FIG. FIG. 13 is an explanatory diagram illustrating an example of application to a virtual musical instrument.
- FIG. 4 is an explanatory diagram illustrating an example of a button operation on a controller.
- FIG. 4 is an explanatory diagram illustrating an example of a button operation on a controller.
- FIG. 4 is an explanatory diagram illustrating an example of a pressure detection method in a controller.
- FIG. 2 is an explanatory diagram illustrating an example of operation buttons on a controller.
- 10 is a flowchart illustrating an operation example of the information processing system according to an embodiment of the present disclosure.
- FIG. 2 is a hardware configuration diagram illustrating an example of a computer.
- One or more of the embodiments (including examples, variations, and application examples) described below can be implemented independently. However, at least a portion of the embodiments described below may be implemented in appropriate combination with at least a portion of another embodiment. These embodiments may include novel features that are different from one another. Thus, these embodiments may contribute to solving different purposes or problems and may provide different effects.
- FIG. 1 is a block diagram showing an example configuration of an information processing system according to an embodiment of the present disclosure.
- an information processing system 1 includes a controller 10, a control device 81, a camera 82, and a VR device (display device) 83.
- the control device 81 is connected to each of the controller 10, the camera 82, and the VR device 83 by wire or wirelessly.
- the control device 81 is realized by a computer.
- the control device 81 holds an App (application) 812 in a storage unit (not shown), and a processing unit can be realized by executing the App 812 by a processor (not shown).
- App 812 may be a game application.
- the type of App 812 is not limited to a game application.
- App 812 may be an application other than a game application.
- App 812 progresses based on information transmitted from the controller 10, information transmitted from the VR device 83, or images captured by the camera 82. App 812 then controls the output from the VR device 83 based on its own progress.
- the output from the VR device 83 may include a screen display from a display device or audio output from a speaker.
- the information transmitted from the controller 10 may correspond to information for controlling the execution of App 812.
- the information transmitted from the controller 10 may include information indicating that a button provided on the controller 10 has been pressed, or may include information detected by a sensor provided on the controller 10.
- the information transmitted from the VR device 83 may include information indicating that a button provided on the VR device 83 has been pressed, or may include information detected by a sensor provided on the VR device 83.
- App 812 constructs a VR space.
- An avatar corresponding to the user exists in the VR space.
- App 812 controls the movement of the avatar within the VR space based on information transmitted from the controller 10, information transmitted from the VR device 83, or an image captured by the camera 82.
- an image of the VR space is provided from App 812 to the VR device 83, and is displayed by the VR device 83, allowing the VR space to be visually recognized by the user.
- App 812 transmits various control signals to the controller 10. Furthermore, the control device 81 stores an SDK (Software Development Kit) 813 in a storage unit (not shown).
- SDK Software Development Kit
- the SDK 813 is a component necessary for executing App 812.
- control device 81 may be a game machine.
- control device 81 is not limited to a game machine.
- the control device 81 may be a PC (Personal Computer) or the like.
- the camera 82 has an image sensor, and obtains an image by capturing an image of the imaging range with the image sensor. More specifically, the camera 82 obtains a plurality of frames (i.e., moving images) by capturing images of the imaging range continuously in time series with the image sensor.
- the controller 10 and the VR device 83 may be present within the imaging range of the camera 82.
- the camera 82 is typically installed independently of other devices (e.g., the controller 10, the control device 81, and the VR device 83). However, the camera 82 may be integrated with other devices. For example, the camera 82 may be provided in the VR device 83 or in the control device 81.
- the VR device 83 performs output according to the control of App 812.
- the VR device 83 includes a display device, and performs screen display on the display device according to the control of App 812.
- the VR device 83 includes a speaker, and performs audio output from the speaker according to the control of App 812.
- the VR device 83 can be worn on the user's head when in use.
- the VR device 83 does not necessarily have to be worn on the user's head.
- the VR device 83 is connected to the control device 81.
- the form of the VR device 83 is not limited thereto.
- the VR device 83 may be used by setting a smartphone in goggles.
- the VR device 83 may be in a form that operates as a headset alone.
- the controller 10 is an example of a force feedback device that provides a predetermined force feedback to a user holding the housing.
- the controller 10 is used as a housing for a virtual tool in a VR space.
- virtual tools include a gun (e.g., a shotgun), a sword (e.g., a Japanese sword), and a wind instrument (e.g., a flute or a saxophone).
- the controller 10 Under the control of the control device 81, the controller 10 presents a predetermined force sensation to the user holding the housing, providing the user with a sense of realism as if they were actually operating a virtual tool (gun, sword, wind instrument, etc.) in the VR space.
- the controller 10 includes a pressure detection unit (pressure distribution sensor) 110, a microcomputer 120 (control unit), a center of gravity variable unit (movable unit) 130, a vibration presentation unit 140, and a battery 150.
- the controller 10 is equipped with various sensors, such as a gravity sensor for detecting the attitude of the controller 10 relative to the vertical direction (device angle), a position sensor using a GPS (Global Positioning System) or the like, and a temperature sensor.
- the gravity sensor in the controller 10 is an example of an angle detection unit.
- the pressure detection unit 110 is a pressure sensor provided on the surface of the housing, and detects the gripping position and gripping force when the user grips the housing.
- FIG. 2 is a perspective view showing the external appearance of the controller 10.
- the housing E1 of the controller 10 is, as one example, a cylindrical body.
- the shape of the housing E1 is not limited to a cylindrical body.
- the housing E1 of the controller 10 can take various shapes, such as a pillar-like body such as a hexagonal prism, or a sphere.
- Pressure distribution sensors 110a and 110b are attached to the surface of the housing E1.
- the pressure distribution sensor 110a is attached to the upper side of the illustrated example and the pressure distribution sensor 110b is attached to the lower side of the surface of the housing E1 from the center toward both ends.
- FIG. 3 is a schematic diagram of the pressure distribution sensors 110a and 110b deployed. As shown in FIG. 3, the pressure distribution sensors 110a and 110b have, for example, 10 ⁇ 16 detection points and detect pressure values at each detection point.
- the pressure distribution sensors 110a and 110b may be equipped with functions to detect not only pressure values but also shear stress, temperature, acceleration, and the like.
- shear stress can be detected by a strain sensor, temperature by a thermistor, and acceleration by an acceleration sensor.
- FIG 4 is an explanatory diagram illustrating an example of attaching a pressure distribution sensor to a controller.
- the controller 10a has a vertically long shape.
- the pressure distribution sensor attached to the surface of the housing E1 of the controller 10a may be divided into multiple parts, such as pressure distribution sensors 110c, 110d, and 110e.
- the wiring and flexible cables (not shown) of the pressure distribution sensors 110c, 110d, and 110e may be embedded in the housing E1.
- the pressure distribution sensors 110c and 110e of the controller 10b may be attached to areas that are likely to be gripped (held) by the user, such as both ends.
- the pressure distribution sensor attached to the controller 10c may have different resolution depending on the position, such as high-resolution pressure distribution sensors 110f, 110h and low-resolution pressure distribution sensor 110g.
- the high-resolution pressure distribution sensor 110f is attached to a portion that is likely to be gripped by the user (e.g., both ends), and the low-resolution pressure distribution sensor 110g is attached to a portion that is unlikely to be gripped by the user (e.g., the center).
- the pressure distribution sensor 110i does not have to be attached to the entire circumference of the housing E1, but may be attached to only a portion of it.
- the microcontroller 120 corresponds to an MCU (Micro-Control Unit) and can be configured as an integrated circuit that implements a processor, memory (recording medium), input/output circuits, etc.
- MCU Micro-Control Unit
- the microcontroller 120 can be configured as an integrated circuit that implements a processor, memory (recording medium), input/output circuits, etc.
- the functions of the microcomputer 120 can be realized by a processor executing a program stored in a memory. If a microcomputer is present outside the controller 10, the functions of the microcomputer 120 may be incorporated into the microcomputer present outside the controller 10. For example, the functions of the microcomputer 120 may be incorporated into the control device 81.
- the microcomputer 120 detects the user's gripping state based on the detection information of the pressure detection unit 110.
- the microcomputer 120 is an example of a grip detection unit.
- the microcomputer 120 controls the operation of the center of gravity variable unit 130 and the vibration presentation unit 140 based on the detected gripping state.
- the control device 81 may have the function of detecting the user's gripping state based on the detection information of the pressure detection unit 110 and the function of controlling the operation of the center of gravity variable unit 130 and the vibration presentation unit 140.
- the center of gravity variable unit 130 varies the center of gravity of the controller 10 (makes the center of gravity variable) by moving a weight provided inside the housing E1 using a motor or the like.
- the vibration presentation unit 140 is a vibrator located within the housing E1 that operates under the control of the microcomputer 120.
- FIG. 5 is an explanatory diagram explaining the variable center of gravity of the controller 10. As shown in FIG. 5, a center of gravity variable part 130 (movable part) that can be moved in the tube length direction inside the housing E1 by a motor or the like is provided inside the housing E1.
- the movable part is provided with a position sensor that detects the position of the movable part in the tube length direction inside the housing E1, a vibration presentation unit 140, and the like.
- the movable part may also be equipped with a temperature sensor, an IMU (Inertial Measurement Unit) sensor, and the like.
- the movable parts (the center of gravity variable part 130, the vibration presentation part 140) are operated to present various force sensations to the user through the user's hand H1 holding the housing E1.
- the center of gravity variable unit 130 when the center of gravity variable unit 130 is located above the hand H1 that is holding the bottom of the housing E1, the user feels as if the center of gravity of the controller 10 is located above, and as if they are holding a long virtual object in the VR space (presentation of shape through force sensation).
- the user can feel as if they have received an impact from the controller 10 (presentation of an impact).
- the user can feel as if the controller 10 is vibrating (presentation of vibration).
- the center of gravity variable unit 130 and the vibration presentation unit 140 are an example of a force sense presentation unit that presents a predetermined force sense to a user holding the housing E1.
- the battery 150 supplies power to each component of the controller 10.
- the battery 150 supplies power to the pressure detection unit 110, the microcomputer 120, the center of gravity variable unit 130, and the vibration presentation unit 140.
- the vibration presentation unit 140 is provided outside the center of gravity variable unit 130 (movable unit), but it may be included in the center of gravity variable unit 130. In this case, the center of gravity variable unit 130 can use the vibration presentation unit 140 as a weight.
- control device 81 may also perform the above functions via the microcomputer 120.
- FIG. 6 is an explanatory diagram for explaining the estimation of the position of the hand H1 holding the controller 10.
- the pressure distribution sensor 110b attached to the lower part of the housing E1 detects pressure values at 10 x 16 detection points that correspond to the shape of the hand H1 as shown.
- the microcontroller 120 estimates the gripping position of the hand H1 and the shape of the hand H1 based on the pressure values (pressure distribution) sensed by the detection points of the pressure distribution sensor 110b.
- the microcontroller 120 performs the above estimation using a learning model that has been machine-learned to output the gripping position and shape of the hand H1 when pressure values at each detection point of the pressure distribution sensor 110b are input.
- the microcontroller 120 estimates whether the gripping hand H1 is the right hand, the left hand, or both hands that have a different pressure distribution from hand H1, based on the pressure value (shape of pressure distribution) sensed by the detection point of the pressure distribution sensor 110b.
- the microcomputer 120 makes the above estimation using a learning model that has been machine-learned to output that the gripping hand H1 is the right hand, the left hand, or both hands when pressure values from each detection point of the pressure distribution sensor 110b are input.
- the microcontroller 120 may also estimate the center G2 of the hand based on the pressure values (pressure distribution) sensed by the detection points of the pressure distribution sensor 110b.
- the microcontroller 120 estimates the center of the position where a certain pressure value is detected as the center of the hand G2. At this time, the microcontroller 120 may exclude values that are significantly off the position.
- the microcontroller 120 may also detect whether the gripping hand H1 is the right hand or the left hand based on whether the shape of the pressure distribution sensed by the detection point of the pressure distribution sensor 110b shows a characteristic shape for gripping with the right hand or the left hand.
- the microcontroller 120 may also detect the hand H1 based on the context of App 812. For example, if a virtual object corresponding to the controller 10 in the VR space presented by App 812 is held in the right hand, the microcontroller 120 assumes that it is being held in the right hand and regards the hand center G2 as the center position of the right hand.
- the microcomputer 120 controls the operation of the movable part (center of gravity variable part 130) based on the detected gripping position of the hand H1 (center of hand G2). For example, the microcomputer 120 changes the position of the center of gravity variable part 130 based on the detected center of hand G2.
- the detection of the gripping state of the housing E1 by the user's hand H1 described above may be performed not only by the microcomputer 120 but also by the control device 81 that acquires detection information from the controller 10.
- the control device 81 (including the microcomputer 120) may also detect the gripping state of the housing E1 by the user's hand H1 based on an image captured by the camera 82.
- the control device 81 performs the above detection by using a learning model that has been machine-learned to output the user's gripping state when an image captured by the camera 82 is input.
- FIG. 7 is an explanatory diagram explaining the operation control of the center of gravity variable unit 130. As shown in case C1 in FIG. 7, when the user holds the controller 10 with the hand H1, the user feels a moment (rotational moment) due to the deviation of the center of gravity G1 of the controller 10 from the center G2 of the holding hand H1.
- the microcomputer 120 changes the position of the center of gravity variable unit 130 based on the center G2 of the hand. Specifically, the microcomputer 120 controls the position of the center of gravity variable unit 130 so that the center of gravity G1 is a predetermined value relative to the center of gravity G2 of the hand by referring to table data or the like that indicates the position of the center of gravity G1 that corresponds to the position of the center of gravity variable unit 130.
- the microcomputer 120 controls the position of the center of gravity variable unit 130 so that the center of gravity G1 relative to the center of the hand G2 remains constant even if the gripping position of the hand H1 (center of the hand G2) changes.
- FIG. 8 is an explanatory diagram for explaining the calculation of the position of the center of gravity variable unit 130. As shown in FIG. 8, the calculation of the position of the center of gravity variable unit 130 in the cylinder length direction of the controller 10 may be performed by converting the position into a range from 1 to -1.
- the microcontroller 120 may set the position where the center of gravity G1 and the center of the hand G2 overlap as 0, and may treat "center of the hand G2 ⁇ center of gravity G1" as positive, and "center of the hand G2 > center of gravity G1" as negative.
- the reference coordinate system (positive direction) may treat the direction defined as "upward” in designing the controller 10 as positive.
- the microcomputer 120 may move the center of gravity variable unit 130 and then return it to its original position based on the gripping position of the gripping hand H1 (center G2 of the hand).
- Figure 9 is an explanatory diagram for explaining an example of the operation of the center of gravity variable unit 130.
- the controller 10 is treated as a virtual shotgun V1 in the VR space.
- the microcomputer 120 can provide the user's hand H1 with a force sensation (impact) corresponding to the firing of the virtual shotgun V1 by quickly moving the center of gravity variable unit 130.
- the microcomputer 120 returns the position of the center of gravity variable unit 130 so that the center of gravity G1 returns to its original position, based on the detected center G2 of the hand. This allows the controller 10 to provide a sense of force so that the shape (rotational moment) of the virtual shotgun V1 does not change before and after the firing of the virtual shotgun V1.
- FIG. 10 is an explanatory diagram illustrating an example of the operation of the center of gravity variable unit 130.
- the microcomputer 120 may treat the center of the holding positions of both hands as the origin (0).
- the microcomputer 120 may also control the position of the center of gravity variable unit 130 based on the strength of the detected pressure value (gripping force).
- the microcontroller 120 may change the origin position (initial position of the center of gravity variable unit 130) based on the strength of the pressure value detected at the position of hand H1 and the strength of the pressure value detected at the position of hand H2.
- the microcontroller 120 may determine the origin (0) by taking a weighted average of the grip strength of hand H1 and the grip strength of hand H2 detected by the pressure detection unit 110.
- the microcontroller 120 may also control the vibration of the movable part (vibration presentation part 140) depending on whether the detected hand H1 is a right hand, a left hand, or both hands H1 and H2. For example, the microcontroller 120 may weaken the vibration in the case of one hand (right or left hand) and strengthen the vibration in the case of both hands. The microcontroller 120 may also adjust the position of the center of gravity variable part 130 depending on whether it is a right hand, a left hand, or both hands.
- the microcomputer 120 may also control the vibration of the movable part (vibration presentation unit 140) based on the detected gripping position of the hand H1 (center G2 of the hand).
- Figure 11 is an explanatory diagram that explains an example of the operation of the center of gravity variable unit 130.
- Figure 12 is an explanatory diagram that explains an example of the vibration of the vibration presentation unit 140.
- the microcontroller 120 moves the center of gravity variable unit 130 based on the detected gripping position of the hand H1 (center of hand G2) so that the center position of vibration (center of gravity G1) does not overlap with the center of hand G2.
- the microcontroller 120 may generate vibration by quickly moving 130 up and down, or may generate vibration by operating the vibration presentation unit 140 provided in the movable part.
- the microcomputer 120 may also control the vibration to reproduce a vibration waveform based on the detected gripping position of the hand H1 (center G2 of the hand). For example, as shown in FIG. 12, when the vibration presentation unit 140 vibrates far from the gripping position of the hand H1, the vibration will be attenuated compared to when it vibrates close to the gripping position.
- the microcomputer 120 controls the vibration to reproduce a vibration waveform that takes into account such vibration attenuation.
- the microcontroller 120 reproduces a vibration waveform in which the vibration to be reproduced has been passed through a filter that is an inverse function of F.
- the microcontroller 120 may also use the above filter as a filter that takes into account the damping characteristics F(o, p, f) for each vibration frequency f.
- the microcontroller 120 may also perform position control (moment control) of the center of gravity variable unit 130 to present the intended amount of moment (force sensation) to the user.
- the microcomputer 120 determines the position of the movable part (center of gravity variable part 130) based on the detected gripping position of the hand H1 (hand center G2) and the attitude of the controller 10 relative to the vertical direction (device angle).
- FIGS. 13 and 14 are explanatory diagrams illustrating an example of moment control in the controller 10. As shown in FIG. 13, a moment M to be presented to a hand H1 holding the controller 10 is determined. In addition, the attitude (device angle) of the controller 10 relative to the vertical direction detected using a gravity sensor or the like is ⁇ . The mass (device mass) of the controller 10 is m, and the gravitational acceleration is g.
- the microcontroller 120 controls the position of the center of gravity variable unit 130 so that the center of gravity is at the above-mentioned position p, even while the user is moving the controller 10 in various positions, thereby presenting a constant moment M to the user.
- the microcomputer 120 may also determine the moment acting on the hand H1 from the pressure distribution of the gripping hand H1 detected by the pressure detection unit 110. As shown in FIG. 14, when a user grips the controller 10 with the hand H1, as one example, the controller 10 is subjected to an upward normal force N1 from the thumb of the hand H1 and a downward normal force N2 from the little finger of the hand H1.
- the microcomputer 120 calculates the moment M from the integral of the pressure distribution (F) detected by the pressure detection unit 110.
- FIG. 15 is an explanatory diagram illustrating an example of a feedback loop for moment control.
- the microcomputer 120 may perform moment control by inputting a moment M calculated from the pressure distribution of the hand H1 into a feedback loop L1.
- the microcomputer 120 may also estimate the size (area) of the hand H1 based on the range of pressure distribution in which the pressure value detected by the pressure detection unit 110 is equal to or greater than a predetermined value.
- the microcomputer 120 may control the operation of the movable parts (the center of gravity variable part 130 and the vibration presentation part 140) based on the estimated size (area) of the hand H1. Specifically, the microcomputer 120 controls the strength of the force sensation (e.g., impact, vibration) presented to the user by the operation of the movable parts.
- the force sensation e.g., impact, vibration
- FIG. 16 is an explanatory diagram illustrating an example of adjusting the strength of the force presented by the controller 10.
- case C7 illustrates a case where the range of pressure distribution 111 where the pressure value is equal to or greater than a predetermined value in the pressure detection unit 110 is wide, and the hand H1 holding the controller 10 is large.
- case C8 illustrates a case where the range of pressure distribution 111 where the pressure value is equal to or greater than a predetermined value in the pressure detection unit 110 is narrow, and the hand H1 holding the controller 10 is small.
- the microcontroller 120 adjusts the position of the movable part (vibration presentation unit 140) (to the left end in the illustrated example) so that the center of gravity G1 is away from the center G2 of the hand. Then, the microcontroller 120 causes the vibration presentation unit 140 to vibrate relatively strongly.
- microcontroller 120 adjusts the position of the movable part (vibration presentation unit 140) (near the center in the illustrated example) so that center of gravity G1 approaches center G2 of the hand. Then, microcontroller 120 causes vibration presentation unit 140 to vibrate relatively weakly.
- the microcontroller 120 can control the strength of the force sensation (e.g., impact, vibration) presented to the user according to the detected size of the hand H1, thereby adjusting the force sensation to be smaller for someone with a small hand H1, for example, and preventing fatigue.
- the force sensation e.g., impact, vibration
- the microcontroller 120 may also estimate the angle (grip angle) of the controller 10 when held by the user based on the detection information of the pressure detection unit 110 when the movable unit (center of gravity variable unit 130, vibration presentation unit 140) is operated.
- FIG. 17 is an explanatory diagram for explaining estimation of the grip angle of the controller 10. As shown in FIG. 17, case C9 is when the controller 10 is held vertically, and case C10 is when the controller 10 is held horizontally.
- the microcontroller 120 estimates the angle (grip angle) of the controller 10 when held by the user based on the fluctuations in pressure distribution 111 that occur in this manner.
- the microcomputer 120 performs the above estimation using a learning model that has been machine-learned to output a grip angle when a change in pressure distribution 111 detected during a specified operation of the center of gravity variable unit 130 in the tube length direction is input.
- the microcontroller 120 may also estimate the swing state of the controller 10 held by the user based on the detection information of the pressure detection unit 110 when the movable units (the center of gravity variable unit 130 and the vibration presentation unit 140) are stopped.
- FIG. 18 is an explanatory diagram for explaining the estimation of the swing speed of the controller 10.
- FIG. 19 is an explanatory diagram for explaining the estimation of the end of the swing of the controller 10.
- case C11 is a case where the controller 10 is slowly swung from vertical to horizontal
- case C12 is a case where the controller 10 is swung faster than in case C11.
- the pressure distributions 111a and 111b that occur when the controller 10 is swung down and stopped sideways become larger and the pressure value becomes higher as the speed of the swing increases.
- the microcomputer 120 estimates the swing speed of the controller 10 by the user based on the fluctuations in the pressure distributions 111a, 111b that occur in this manner. For example, the microcomputer 120 performs the above estimation using a learning model that has been machine-learned to output a swing down speed when the fluctuations in the pressure distributions 111a, 111b are input.
- case C13 is when the controller 10 is being swung from vertical to horizontal
- case C14 is when the controller 10 is stopped (ended) while being held horizontally.
- the microcomputer 120 estimates the swing state of the controller 10 (during swing or at the end of swing) based on the fluctuations in pressure distributions 111a, 111b that occur in this way.
- the microcomputer 120 performs the above estimation using a learning model that has been machine-learned to output a swing state when a variation in the pressure distributions 111a and 111b is input.
- the microcomputer 120 may operate the vibration presentation unit 140 to present a vibration when it detects the end of the swing.
- the microcontroller 120 may also operate the movable parts (the center of gravity variable part 130, the vibration presentation part 140) based on the detection information of the pressure detection part 110 to present a predetermined force sensation (interaction).
- the microcomputer 120 changes the position of the center of gravity variable unit 130 according to the force with which the user holds it (the magnitude of the pressure value of the pressure detection unit 110).
- FIG. 20 is an explanatory diagram illustrating an example of an interaction according to the force with which the controller 10 is gripped.
- the magnitude of the force with which the user grips the controller 10 with the hand H1 increases in the order of cases C15, C16, and C17.
- the user is holding the controller 10 as a hose spraying water.
- the microcontroller 120 may present an interaction that changes the amount of water sprayed by operating the center of gravity variable unit 130 according to the user's gripping force (the magnitude of the pressure value of the pressure detection unit 110).
- FIG. 21 is an explanatory diagram illustrating an example of an interaction according to the force with which the controller 10 is gripped.
- the force with which the user grips the controller 10 (virtual hose V2) with hand H1 is greater in case C19 than in case C18.
- the microcomputer 120 when the gripping force is increased, the microcomputer 120 operates to move the position of the center of gravity variable unit 130 closer to the position of the user's hand H1, and when the gripping force is decreased, the microcomputer 120 operates to move the position of the center of gravity variable unit 130 away from the position of the user's hand H1.
- the microcontroller 120 may increase the vibration of the vibration presentation unit 140 and the vibration frequency when the gripping force is increased, and decrease the vibration of the vibration presentation unit 140 and the vibration frequency when the gripping force is decreased.
- the user can get the sense that water is being released forcefully from the hand when the user grips the virtual hose V2 (controller 10) with force, and the user can get the sense that water is being released slowly when the user releases the force.
- the microcontroller 120 may operate the center of gravity variable unit 130 according to the position of the user's hand.
- FIG. 22 is an explanatory diagram illustrating an example of an interaction according to the position of the hands holding the controller 10. As shown in FIG. 22, the user is holding the controller 10 as a virtual shotgun V1 with hands H1 and H2.
- the microcomputer 120 adjusts the position of the center of gravity variable unit 130 in accordance with the sliding position of the hand H2.
- the microcomputer 120 moves the center of gravity variable unit 130 to match the position of the hand H2.
- the microcomputer 120 may also vibrate the vibration presentation unit 140 when the hand H2 reaches a predetermined position, thereby presenting the user with a force sensation corresponding to the loading of a bullet into the virtual shotgun V1.
- the microcomputer 120 may operate the center of gravity variable unit 130 according to the position of the user's hand holding the sword, thereby providing a sense of force when the sword is unsheathed or sheathed.
- FIG. 23 is an explanatory diagram illustrating an example of an interaction according to the position of the hands holding the controller 10. As shown in FIG. 22, the user is holding the controller 10 as a virtual sword V3 with the hands H1 and H2.
- the microcomputer 120 maintains the position of the center of gravity variable unit 130 in accordance with the position of the hand H1 corresponding to the handle of the virtual sword V3.
- the microcomputer 120 determines the speed of unsheathing or sheathing the sword from the change in the sliding position of the hand H2, and vibrates the vibration presentation unit 140 in accordance with that speed, thereby providing the user with a sense of vibration corresponding to unsheathing or sheathing the sword.
- hand H1 is shown gripping the hilt of virtual sword V3, but hand H2 may grip the hilt of virtual sword V3.
- the microcomputer 120 may detect the position of the user's fingers using the pressure detection unit 110, and assign the detected finger positions to the operation of the instrument.
- FIG. 24 is an explanatory diagram illustrating an example of application to a virtual instrument V4.
- the user treats the controller 10 as a virtual instrument V4 such as a saxophone, and operates the fingers on the controller 10 as key operations on the virtual instrument V4.
- the microcomputer 120 detects the user's finger operation from the pressure detection unit 110 and notifies the control device 81. As a result, the control device 81 produces sound from the virtual musical instrument V4 in the VR space.
- the microcomputer 120 changes the position of the center of gravity variable unit 130 according to the weight of the virtual musical instrument V4 being operated, or vibrates the vibration presentation unit 140 according to the vibration (sound) of the virtual musical instrument V4.
- the microcomputer 120 may move the position of the center of gravity variable unit 130 downward (in the direction of gravity) as the weight of the virtual musical instrument V4 increases.
- the microcomputer 120 may also change the position of the center of gravity variable unit 130 and the vibration frequency of the vibration presentation unit 140 in accordance with the pitch of the sound produced by the virtual musical instrument V4.
- the microcontroller 120 may move the center of gravity variable unit 130 downward when the sound is low, and move the center of gravity variable unit 130 upward when the sound is high.
- the microcomputer 120 does not need to move the position of the center of gravity variable unit 130.
- the "downward direction” may be considered to be the direction away from the user.
- the controller 10 can be assigned to the stick of a weapon or musical instrument, and the impact felt when the weapon or musical instrument collides with an object or drum in the VR space can be presented as a force sensation.
- the microcomputer 120 receives a notification from the control device 81 and presents an impact or vibration through high-speed operation of the center of gravity variable unit 130, or a vibration from the vibration presentation unit 140.
- the microcontroller 120 may change the strength of the impact or vibration caused by the operation of the center of gravity variable unit 130 and the vibration presentation unit 140 depending on the speed at which the user shakes the controller 10.
- the microcontroller 120 may also change the strength of the impact or vibration caused by the operation of the center of gravity variable unit 130 and the vibration presentation unit 140 depending on how tightly the user grips the controller 10.
- the faster the shaking speed the stronger the impact and vibration will be, and the stronger the user grips the controller 10, the stronger the impact and vibration will be.
- the microcontroller 120 may not only increase the strength of the impact or vibration, but also change the frequency of the vibration depending on how strongly the user grips the controller 10. For example, the microcontroller 120 may increase the vibration frequency the stronger the user grips the controller 10, and decrease the vibration frequency the weaker the user grips the controller 10.
- the controller 10 can be regarded as the violin itself, and the violin bow can be replaced with a wooden stick or pencil separate from the controller 10.
- the microcomputer 120 may control the movable parts (center of gravity variable unit 130, vibration presentation unit 140) according to the generation of sound and the contact position in the virtual instrument V4.
- the controller 10 When recreating a saw in a VR space, the controller 10 can be regarded as the saw itself, and the thing to be cut can be substituted with a physical object other than the controller 10 (for example, a desk).
- the virtual object is placed in the VR space so that it is in the same position as the real object, and when the controller 10 comes into contact with the real object, the virtual object also comes into contact with the saw.
- the microcomputer 120 can reproduce the feeling of cutting by vibrating the movable parts (center of gravity variable unit 130, vibration presentation unit 140) depending on the material of the virtual object.
- the twisting motion (sliding motion) of the hand detected by the pressure detection unit 110 may be assigned to operating the accelerator of a motorcycle or to operating a pepper or salt mill in a VR space.
- the microcomputer 120 vibrates the movable parts (the center of gravity variable part 130, the vibration presentation part 140). This allows the user to feel the force of the accelerator operation.
- the image in the VR space may show pepper or salt falling from the tip of the mill, and the force sensation of the pepper or salt being ground may be expressed by the vibration of the moving parts (center of gravity variable unit 130, vibration presentation unit 140), etc.
- an operation button (operation instruction) may be assigned to a specific position of the pressure distribution sensor on the surface of the controller 10, and the microcontroller 120 may detect the pressing operation (presence or absence of an operation instruction) at that specific position.
- 25 and 26 are explanatory diagrams illustrating an example of button operations on a controller. As shown in FIG. 25, in the VR space, a virtual operation button 112 is placed at a predetermined position of the pressure distribution sensor 110b of the controller 10.
- App812 of the control device 81 acquires detection information of the pressure distribution sensor 110b from the microcomputer 120 and determines whether or not a pressing operation has been performed at the position where the virtual operation button 112 is placed. When App812 detects a pressing operation of the virtual operation button 112, it generates an event corresponding to the virtual operation button 112 in the VR space.
- the VR space may be an AR (Augmented Reality) space.
- App 812 may treat the controller 10 as a virtual gun V5 in the VR space and place the virtual operation button 112 at the trigger position of the virtual gun V5.
- App812 acquires detection information from the pressure distribution sensor 110b from the microcomputer 120 and determines whether or not there is a sliding operation of the fingers of the hand H1 on the virtual operation button 112. If App812 detects a sliding operation of the virtual operation button 112 (for example, an amount of sliding equal to or greater than a threshold (approximately equivalent to pulling the trigger)), it generates an event corresponding to that virtual operation button 112 (firing the virtual gun V5) in the VR space.
- a sliding operation of the virtual operation button 112 for example, an amount of sliding equal to or greater than a threshold (approximately equivalent to pulling the trigger)
- FIG. 27 is an explanatory diagram illustrating an example of a pressure detection method in a controller.
- the pressure distribution sensor in the pressure detection unit 110 may be a capacitive touch pad 110j.
- the contact area of the capacitive touchpad 110j when held by the user can be detected, the contact area may be converted into a pressure value.
- the pressure distribution sensor in the pressure detection unit 110 may be a resistive touch pad 110k-110n divided into multiple sections in the tube length direction.
- the pressure distribution sensor in pressure detection unit 110 may be a plurality of resistive touch pads 110o-110q arranged along the tube length direction.
- resistive touchpads 110k to 110q if they are of a type that can obtain pressure values, the detected pressure values may be used. In the case of analog resistive touchpads, multiple pressure sensors may be attached together to increase the number of pressure points that can be detected.
- a sensor such as a touchpad, it may function only as a contact position sensor, or a pressure sensor such as a strain gauge may be provided separately from the contact position sensor, and the values of the two sensors may be used in combination. (There are no limitations on the type of contact position sensor.)
- FIG. 28 is an explanatory diagram explaining an example of an operation button on a controller.
- buttons on the pressure distribution sensor of the pressure detection unit 110 are explicitly formed with a shape that is different from other parts on the surface of the housing E1.
- the operation button on the pressure distribution sensor of the pressure detection unit 110 may be an operation button 113a with texture, or an operation button 113b with protrusions.
- buttons 113a and 113b may be provided explicitly to the user.
- FIG. 29 is a flowchart showing an example of the operation of an information processing system according to an embodiment of the present disclosure.
- the microcomputer 120 waits for input from the pressure detection unit 110 (waits for pressure detection) (S1). Next, it is assumed that the user has pressed the virtual button on the controller 10 that corresponds to the trigger (S2).
- the microcomputer 120 When the pressure detection unit 110 detects pressure at the position of the virtual button, the microcomputer 120 notifies App812 of the detection result. As a result, App812 renders the firing of the gun (virtual shotgun V1) in the VR space (S3). The microcomputer 120 also drives the weight (center of gravity variable unit 130) to present the impact (force sensation) of firing the gun to the user (S4).
- the microcomputer 120 waits for input from the pressure detection unit 110 (waits for pressure detection) (S5). Next, it is assumed that the user performs an action of rubbing the cylinder of the controller 10 (pump action) on the controller 10 (S6).
- the microcomputer 120 When the microcomputer 120 detects a sliding motion corresponding to a pump action in the pressure detection unit 110, it notifies App812 of the detection result. As a result, App812 renders the pump action in the VR space in accordance with the movement of the user's hand (S7).
- the microcomputer 120 also drives the weight (the variable center of gravity unit 130) in real time in accordance with the movement of the user's hand, and presents the user with a force sensation corresponding to the pump action (S8).
- the microcomputer 120 ends the process when the action related to the virtual shotgun V1 in the VR space ends (S9).
- the information processing system detects the state in which the housing E1 is being held by the user using the microcomputer 120 or the control device 81 for the force feedback device (controller 10) that has a center of gravity variable unit 130, vibration feedback unit 140 and presents a predetermined force feedback to the user holding the housing E1.
- the microcomputer 120 controls the operation of the force feedback unit based on the detected gripping state. This allows the information processing system to present a force feedback according to the user's gripping state.
- the microcomputer 120 also detects the user's gripping position based on the pressure detection positions of multiple pressure sensors provided on the surface of the housing E1. This allows the information processing system to detect the user's gripping position as the user's gripping state.
- the microcomputer 120 also operates the force feedback unit based on the detected grip position of the user to provide a force feedback corresponding to the grip position. This allows the information processing system to provide a force feedback according to the user's grip position.
- the microcomputer 120 also operates the force feedback unit based on the amount of change in the detected user's grip position to provide a force feedback corresponding to the change in grip position. This allows the information processing system to provide a force feedback according to the change in the user's grip position.
- the microcomputer 120 also detects the user's gripping force based on the detection value of the pressure sensor. This allows the information processing system to detect the user's gripping force as the user's gripping state.
- the microcomputer 120 also detects the user's gripping force based on the pressure detection ranges of the multiple pressure sensors. This allows the information processing system to detect the user's gripping force as the user's gripping state.
- the microcomputer 120 also operates the force sense presentation unit based on the detected gripping force to present a force sense corresponding to the gripping force. This allows the information processing system to present a force sense according to the gripping force of the user.
- the microcomputer 120 also detects the range that the user is gripping based on the detection range in which the pressure values of the multiple pressure sensors are equal to or greater than a predetermined value. This allows the information processing system to detect the range that the user is gripping as the user's grip state.
- the microcomputer 120 also operates the force feedback unit based on the detected range of the user's grip to provide a force feedback corresponding to the range of the user's grip. This allows the information processing system to provide a force feedback according to the range of the user's grip.
- the microcomputer 120 or the control device 81 also detects whether the user is holding the housing E1 in his/her right hand, left hand, or both hands. This allows the information processing system to detect whether the user is holding the housing E1 in his/her right hand, left hand, or both hands.
- the microcomputer 120 or the control device 81 also causes the force sense presentation unit to operate based on the detected hand (right hand, left hand, or both hands) that the user is holding, to present a force sense corresponding to the gripping force. This allows the information processing system to present a force sense according to whether the user is holding the housing E1 with the right hand, left hand, or both hands.
- the force feedback unit also varies the center of gravity G1 of the housing E1 to provide a force feedback. This allows the information processing system to provide a force feedback corresponding to the variation in the center of gravity G1.
- the force sense presentation unit also vibrates the housing E1 to present a force sense. This allows the information processing system to present a force sense corresponding to the vibration.
- the controller 10 also includes an angle detection unit that detects the angle of the housing E1.
- the microcomputer 120 controls the operation of the force feedback unit based on the detected angle of the housing. This allows the information processing system to present a force feedback corresponding to the angle of the housing.
- the microcomputer 120 also detects the angle of the housing based on the amount of variation in the detection information when the force feedback unit presents a predetermined force feedback. This allows the information processing system to detect the angle of the housing.
- the microcomputer 120 also detects a pressing operation at a predetermined position on the surface of the housing E1 based on the pressure detection positions of multiple pressure sensors provided on the surface of the housing E1.
- the microcomputer 120 determines whether or not an operation instruction has been assigned to a predetermined position based on whether or not a pressing operation has been detected at the predetermined position. This allows the information processing system to receive an operation instruction from the user that corresponds to a pressing operation on the surface of the housing E1.
- the microcomputer 120 also estimates the user's swinging motion of the housing E1 based on the amount of fluctuation in the detection information when the operation of the force feedback unit is stopped. This allows the information processing system to obtain the swinging motion of the housing E1 when it is being held by the user.
- the microcomputer 120 also causes the force sense presentation unit to operate based on the estimated swinging motion of the housing E1 to present a force sense corresponding to the swinging motion. This allows the information processing system to present a force sense corresponding to the swinging motion of the housing E1.
- the control device 81 (App812) also controls the display of the display device that presents the virtual space to the user based on the detected gripping state. This allows the information processing system to display in the virtual space corresponding to the user's gripping state.
- Information devices such as the controller 10, the control device 81, and the VR device 83 in the information processing system according to the above-described embodiment are realized by a computer 1000 having a configuration as shown in Fig. 30, for example.
- Fig. 30 is a hardware configuration diagram showing an example of the computer 1000.
- the computer 1000 has a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, a SSD (Solid State Drive) 1400, a communication interface 1500, and an input/output interface 1600.
- the components of the computer 1000 are connected by a bus 1050.
- the CPU 1100 operates based on the programs stored in the ROM 1300 or the SSD 1400, and controls each component. For example, the CPU 1100 loads the programs stored in the ROM 1300 or the SSD 1400 into the RAM 1200, and executes processes corresponding to the various programs.
- the ROM 1300 stores boot programs such as the Basic Input Output System (BIOS) that is executed by the CPU 1100 when the computer 1000 starts up, as well as programs that depend on the hardware of the computer 1000.
- BIOS Basic Input Output System
- SSD1400 is a recording medium readable by computer 1000 that non-temporarily records programs executed by CPU1100 and data used by such programs.
- SSD1400 is a recording medium that records the communication program according to the present disclosure, which is an example of program data 1450.
- SSD1400 may be another non-temporary recording medium, such as a HDD (Hard Disk Drive).
- HDD Hard Disk Drive
- the communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (e.g., the Internet).
- the CPU 1100 receives data from other devices and transmits data generated by the CPU 1100 to other devices via the communication interface 1500.
- the input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000.
- the CPU 1100 receives data from an input device such as a touch panel, keyboard, mouse, microphone, or camera via the input/output interface 1600.
- the CPU 1100 also transmits data to an output device such as a display, speaker, or printer via the input/output interface 1600.
- the input/output interface 1600 may also function as a media interface that reads programs and the like recorded on a specific recording medium.
- Examples of media include optical recording media such as DVDs (Digital Versatile Discs) and PDs (Phase change rewritable Disks), magneto-optical recording media such as MOs (Magneto-Optical Disks), tape media, magnetic recording media, or semiconductor memories.
- optical recording media such as DVDs (Digital Versatile Discs) and PDs (Phase change rewritable Disks)
- magneto-optical recording media such as MOs (Magneto-Optical Disks)
- tape media magnetic recording media
- magnetic recording media or semiconductor memories.
- the CPU 1100 of the computer 1000 executes a communication program loaded onto the RAM 1200 to realize various functional configurations.
- the SSD 1400 stores the program according to the present disclosure and data in the RAM 1200.
- the CPU 1100 reads and executes the program data 1450 from the SSD 1400, but as another example, the CPU 1100 may obtain these programs from other devices via the external network 1550.
- the present technology can also be configured as follows. (1) a gripping detection unit that detects a gripping state of a housing by a user, the gripping detection unit detecting a gripping state of the housing by a user, the gripping detection unit having a gripping state of the housing and a gripping detection unit that detects a gripping state of the housing by a user, the gripping detection unit detecting ... A control unit that controls an operation of the force feedback unit based on the detected grip state. Information processing system. (2) the grip detection unit detects a grip position of the user based on pressure detection positions of a plurality of pressure sensors provided on a surface of the housing; The information processing system according to (1) above.
- the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping position by an operation of the force sense presentation unit based on the detected gripping position of the user.
- the control unit causes the force sense presentation unit to operate based on the detected amount of change in the grip position of the user, to present a force sense corresponding to the change in the grip position.
- the grip detection unit detects a gripping force of the user based on a detection value of a pressure sensor provided on a surface of the housing.
- the information processing system according to any one of (1) to (4).
- the grip detection unit detects a gripping force of the user based on pressure detection ranges of a plurality of pressure sensors provided on a surface of the housing.
- the information processing system according to any one of (1) to (5).
- the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping force by an operation of the force sense presentation unit based on the detected gripping force of the user.
- the grip detection unit detects a gripping range of the user based on a detection range in which a pressure value of a plurality of pressure sensors provided on a surface of the housing is equal to or greater than a predetermined value;
- the information processing system according to any one of (1) to (7).
- the control unit causes the force sense presentation unit to present a force sense corresponding to the range grasped by the user through an operation based on the detected range grasped by the user.
- the information processing system according to (8) above.
- the grip detection unit detects whether the user grips the housing with his/her right hand, his/her left hand, or his/her both hands.
- the information processing system according to any one of (1) to (9).
- the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping force by an operation based on the detected hand of the user gripping the object.
- the force sense presentation unit presents the force sense by vibrating the housing.
- the information processing system according to any one of (1) to (11).
- An angle detection unit that detects an angle of the housing is further provided, The control unit controls an operation of the force sense presentation unit based on the detected angle of the housing.
- the information processing system according to any one of (1) to (12).
- the grip detection unit detects a pressing operation at a predetermined position on a surface of the housing based on pressure detection positions of the plurality of pressure sensors; the control unit determines whether or not an operation instruction assigned to the predetermined position is present based on whether or not a pressing operation is detected at the predetermined position.
- the control unit estimates a shaking motion of the housing by the user based on an amount of change in a detection value of a pressure sensor provided on a surface of the housing while the operation of the force sense presentation unit is stopped.
- the information processing system according to any one of (1) to (14).
- the control unit causes the force sense presentation unit to present a force sense corresponding to the swinging motion by an operation based on the estimated swinging motion of the housing;
- the information processing system according to (15) above.
- the control unit performs display control of a display device that presents a virtual space to the user based on the detected grip state.
- the information processing system according to any one of (1) to (16).
- a force sense presentation device includes a force sense presentation unit that presents a predetermined force sense to a user holding a housing by varying a center of gravity of the housing, and detects a state in which the housing is held by the user; controlling an operation of the force sense presentation unit based on the detected gripping state; An information processing method for performing processing.
- a force feedback unit that changes a center of gravity of a housing to provide a predetermined force feedback to a user holding the housing; a detection unit that detects a gripping state of the user based on detection information from a pressure sensor provided on a surface of the housing; A control unit that controls an operation of the force feedback unit based on the detected grip state.
- Force feedback device includes a force sense presentation unit that presents a predetermined force sense to a user holding a housing by varying a center of gravity of the housing, and detects a state in which the housing is held by the user; controlling an operation of the force sense presentation unit based on the detected gripping state;
- An information processing method for performing processing (19
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、情報処理システム、情報処理方法および力覚提示装置に関する。 This disclosure relates to an information processing system, an information processing method, and a force feedback device.
従来、臨場感のあるVR(Virtual Reality)体験を実現する技術が普及してきている。このようなVRに関する従来技術として、VR空間内において、把持したユーザに対し、様々な道具の重さ感覚を知覚(力覚とも呼ぶ)させることができるコントローラが知られている。 Technology that allows for a realistic virtual reality (VR) experience has become widespread. A known example of such VR-related conventional technology is a controller that allows a user to feel the weight (also known as force sensation) of various tools held within a VR space.
しかしながら、上記の従来技術では、ユーザがどのようにコントローラを把持しているかを特定することが困難であるという問題がある。このため、ユーザの持ち方によっては、適正な力覚を提示できないことがあった。 However, the above-mentioned conventional technology has the problem that it is difficult to determine how the user is holding the controller. As a result, depending on the way the user holds the controller, it may not be possible to present the correct force feedback.
そこで、本開示では、ユーザの把持状態に応じた力覚を提示可能とする情報処理システム、情報処理方法および力覚提示装置を提供する。 The present disclosure provides an information processing system, an information processing method, and a force feedback device that can present a force feedback according to the user's gripping state.
なお、上記課題又は目的は、本明細書に開示される複数の実施形態が解決し得、又は達成しうる複数の課題又は目的の1つに過ぎない。 Note that the above problem or objective is merely one of several problems or objectives that can be solved or achieved by the multiple embodiments disclosed in this specification.
本開示の情報処理システムは、筐体を把持したユーザに対して筐体の重心を変動させて所定の力覚を提示する力覚提示部を有する力覚提示装置について、ユーザによる筐体の把持状態を検出する把持検出部と、検出された把持状態に基づいて力覚提示部の動作を制御する制御部と、を備える。 The information processing system disclosed herein is a force-feedback presentation device having a force-feedback presentation unit that presents a predetermined force sensation to a user holding the housing by varying the center of gravity of the housing, and includes a grip detection unit that detects the state in which the housing is being held by the user, and a control unit that controls the operation of the force-feedback presentation unit based on the detected grip state.
以下に添付図面を参照しながら、本開示の実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 The following describes in detail the embodiments of the present disclosure with reference to the accompanying drawings. Note that in this specification and drawings, components that have substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.
また、本明細書及び図面において、実施形態の類似する構成要素については、同一の符号の後に異なるアルファベット及び数字の少なくとも一方を付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号を付する。 In addition, in this specification and drawings, similar components of the embodiments may be distinguished by adding at least one different alphabet and number after the same reference numeral. However, if there is no particular need to distinguish between each of the similar components, the same reference numeral will be used.
以下に説明される1又は複数の実施形態(実施例、変形例、適用例を含む)は、各々が独立に実施されることが可能である。一方で、以下に説明される複数の実施形態は少なくとも一部が他の実施形態の少なくとも一部と適宜組み合わせて実施されてもよい。これら複数の実施形態は、互いに異なる新規な特徴を含み得る。したがって、これら複数の実施形態は、互いに異なる目的又は課題を解決することに寄与し得、互いに異なる効果を奏し得る。 One or more of the embodiments (including examples, variations, and application examples) described below can be implemented independently. However, at least a portion of the embodiments described below may be implemented in appropriate combination with at least a portion of another embodiment. These embodiments may include novel features that are different from one another. Thus, these embodiments may contribute to solving different purposes or problems and may provide different effects.
図1は、本開示の実施形態にかかる情報処置システムの構成例を示すブロック図である。 FIG. 1 is a block diagram showing an example configuration of an information processing system according to an embodiment of the present disclosure.
図1に示すように、本開示の実施形態に係る情報処理システム1は、コントローラ10と、制御装置81と、カメラ82と、VRデバイス(表示装置)83と、を備える。制御装置81は、コントローラ10、カメラ82およびVRデバイス83それぞれと、有線または無線により接続されている。
As shown in FIG. 1, an
制御装置81は、コンピュータによって実現される。制御装置81は、図示しない記憶部に、App(アプリケーション)812を保持しており、図示しないプロセッサによって、App812が実行されることにより処理部が実現され得る。
The
典型的に、App812は、ゲームアプリケーションであってよい。しかし、App812の種類はゲームアプリケーションに限定されない。例えば、App812は、ゲームアプリケーション以外のアプリケーションであってもよい。 Typically, App 812 may be a game application. However, the type of App 812 is not limited to a game application. For example, App 812 may be an application other than a game application.
App812は、コントローラ10から送信された情報、VRデバイス83から送信された情報、または、カメラ82によって撮像された画像に基づいて進行する。そして、App812は、自身の進行に基づいて、VRデバイス83による出力を制御する。例えば、VRデバイス83による出力には、表示装置による画面表示またはスピーカによる音声出力が含まれ得る。
App 812 progresses based on information transmitted from the
ここで、コントローラ10から送信された情報は、App812の実行を制御するための情報に該当し得る。例えば、コントローラ10から送信された情報は、コントローラ10に設けられたボタンが押下されたことを示す情報を含んでもよいし、コントローラ10に設けられたセンサによって検出された情報を含んでもよい。同様に、VRデバイス83から送信された情報は、VRデバイス83に設けられたボタンが押下されたことを示す情報を含んでもよいし、VRデバイス83に設けられたセンサによって検出された情報を含んでもよい。
Here, the information transmitted from the
より詳細に、App812は、VR空間を構築する。VR空間には、ユーザに対応するアバタが存在する。App812は、コントローラ10から送信された情報、VRデバイス83から送信された情報、または、カメラ82によって撮像された画像に基づいて、VR空間内においてアバタの動きを制御する。このとき、VR空間の画像が、App812からVRデバイス83に提供され、VRデバイス83によって表示されることによってVR空間がユーザに視認され得る。
More specifically, App 812 constructs a VR space. An avatar corresponding to the user exists in the VR space. App 812 controls the movement of the avatar within the VR space based on information transmitted from the
また、App812は、コントローラ10に対して各種の制御信号を送信する。さらに、制御装置81は、図示しない記憶部に、SDK(Software Development Kit)813を保持している。SDK813は、App812の実行に必要な部品である。
Also, App 812 transmits various control signals to the
なお、典型的に、制御装置81は、ゲーム機である場合が想定され得る。しかし、制御装置81は、ゲーム機に限定されない。例えば、制御装置81は、PC(Personal Computer)などであってもよい。
Typically, the
カメラ82は、イメージセンサを有しており、イメージセンサによって撮像範囲を撮像することによって画像を得る。より詳細に、カメラ82は、イメージセンサによって撮像範囲を時系列に沿って連続的に撮像することによって複数のフレーム(すなわち、動画像)を得る。例えば、カメラ82の撮像範囲には、コントローラ10およびVRデバイス83が存在し得る。
The
なお、典型的に、カメラ82は、他の装置(例えば、コントローラ10、制御装置81およびVRデバイス83など)とは独立して設置されている場合が想定される。しかし、カメラ82は、他の装置と一体化されていてもよい。例えば、カメラ82は、VRデバイス83に設けられていてもよいし、制御装置81に設けられていてもよい。
It is assumed that the
VRデバイス83は、App812による制御に従った出力を行う。例えば、VRデバイス83は、表示装置を含んでおり、App812による制御に従って表示装置により画面表示を行う。あるいは、VRデバイス83は、スピーカを含んでおり、App812による制御に従ってスピーカにより音声出力を行う。
The
なお、典型的に、VRデバイス83は、ユーザの頭部に装着して使用され得る。しかし、VRデバイス83は、必ずしもユーザの頭部に装着されなくてもよい。
Typically, the
また、図1に示された例では、VRデバイス83の形態は、制御装置81に接続される形態である。しかし、VRデバイス83の形態は限定されない。例えば、VRデバイス83の形態は、スマートフォンをゴーグルにセットして使用される形態であってもよい。あるいは、VRデバイス83の形態は、ヘッドセット単体で動作する形態であってもよい。
In the example shown in FIG. 1, the
コントローラ10は、筐体を把持したユーザに対して所定の力覚を提示する力覚提示装置の一例である。例えば、コントローラ10は、VR空間における仮想的な道具の筐体として用いられる。仮想的な道具としては、銃(例えばショットガン)、刀(例えば日本刀)、管楽器(例えばフルート、サクソフォン)などがある。
The
コントローラ10は、制御装置81の制御のもと、筐体を把持したユーザに対して所定の力覚を提示することで、VR空間において仮想的な道具(銃、刀、管楽器など)を実際に操作しているような臨場感をユーザに提供する。
Under the control of the
コントローラ10は、圧力検出部(圧力分布センサ)110と、マイコン120(制御部)と、重心可変部(可動部)130と、振動提示部140と、バッテリ150とを備える。
The
なお、コントローラ10には、上記構成以外に、鉛直方向に対するコントローラ10の姿勢(デバイス角度)を検出するための重力センサ、GPS(Global Positioning System)などを用いた位置センサ、温度センサなど、各種センサを備える。コントローラ10における重力センサは、角度検出部の一例である。
In addition to the above configuration, the
圧力検出部110は、筐体の表面に設けられた圧力センサであり、ユーザが筐体を把持した際の把持位置、把持する力を検出する。
The
図2は、コントローラ10の外観を示す斜視図である。図2に示すように、コントローラ10の筐体E1は、一例として、円筒状の筒体である。筐体E1の形状については、円筒状の筒体に限定するものではない。例えば、コントローラ10の筐体E1については、六角柱などの柱状体、球体など様々な形状を取り得る。
FIG. 2 is a perspective view showing the external appearance of the
筐体E1の表面には、圧力分布センサ110a、110bが貼合される。一例として、中心から両端部に向けた筐体E1の表面において、図示例の上側に圧力分布センサ110aが、下側に圧力分布センサ110bが貼合されている。
筐体E1の表面において、このように複数の圧力分布センサ110a、110bを貼合することで、筐体E1の表面全体にわたり、ユーザが筐体E1を把持した際の把持位置、把持する力を検出可能である。
By attaching multiple
図3は、圧力分布センサ110a、110bを展開した概略図である。図3に示すように、圧力分布センサ110a、110bは、例えば10×16の検出点を有し、各検出点において圧力値を検出する。
FIG. 3 is a schematic diagram of the
なお、圧力分布センサ110a、110bでは、圧力値だけでなく、せん断応力、温度、加速度などを検出する機能を搭載してもよい。例えば、せん断応力は歪センサ、温度はサーミスタ、加速度は加速度センサで検出可能である。
In addition, the
図4は、コントローラにおける圧力分布センサの貼合例を説明する説明図である。図4のケースaに示すように、コントローラ10aは、縦長の形状である。このため、コントローラ10aの筐体E1表面に貼合する圧力分布センサについては、圧力分布センサ110c、110d、110eのように複数に分割してもよい。この際に、圧力分布センサ110c、110d、110eの配線やフレキシブルケーブル(図示しない)は筐体E1内に埋め込んでもよい。
Figure 4 is an explanatory diagram illustrating an example of attaching a pressure distribution sensor to a controller. As shown in case a of Figure 4, the
また、ケースbに示すように、コントローラ10bの圧力分布センサ110c、110eは、例えば両端側などの、ユーザが把持する(握る)可能性が高い部分に貼合されてもよい。
Also, as shown in case b, the
また、ケースcに示すように、コントローラ10cに貼合する圧力分布センサは、位置に応じて高分解能圧力分布センサ110f、110h、低分解能圧力分布センサ110gのようにセンサの分解能を変えてもよい。一例として、ユーザが把持する可能性が高い部分(例えば両端側)には高分解能圧力分布センサ110fを貼合し、ユーザが把持する可能性が低い部分(例えば中心側)には低分解能圧力分布センサ110gを貼合する。
Also, as shown in case c, the pressure distribution sensor attached to the
また、ケースdに示すように、コントローラ10dにおいて、圧力分布センサ110iは、筐体E1の全周にわたって貼合されず、一部のみに貼合されてもよい。
Also, as shown in case d, in the
図1に戻り、マイコン120は、MCU(Micro-Control Unit)に該当し、プロセッサ、メモリ(記録媒体)、入出力回路などが実装された集積回路によって構成され得る。 Returning to FIG. 1, the microcontroller 120 corresponds to an MCU (Micro-Control Unit) and can be configured as an integrated circuit that implements a processor, memory (recording medium), input/output circuits, etc.
マイコン120が有する機能は、メモリによって記憶されたプログラムがプロセッサによって実行されることによって実現され得る。なお、コントローラ10の外部にマイコンが存在する場合には、マイコン120が有する機能は、コントローラ10の外部に存在するマイコンに組み込まれていてもよい。例えば、マイコン120が有する機能は、制御装置81に組み込まれてもよい。
The functions of the microcomputer 120 can be realized by a processor executing a program stored in a memory. If a microcomputer is present outside the
マイコン120は、圧力検出部110の検出情報に基づいてユーザによる把持状態を検出する。すなわち、マイコン120は、把持検出部の一例である。
The microcomputer 120 detects the user's gripping state based on the detection information of the
マイコン120は、検出された把持状態に基づいて重心可変部130、振動提示部140の動作を制御する。なお、圧力検出部110の検出情報に基づいてユーザによる把持状態を検出する機能と、重心可変部130、振動提示部140の動作を制御する機能とは、制御装置81が有してもよい。
The microcomputer 120 controls the operation of the center of gravity
重心可変部130は、マイコン120の制御のもと、筐体E1内に設けられた錘をモータ等により動かすことで、コントローラ10の重心を変動させる(重心を可変とする)。
Under the control of the microcomputer 120, the center of gravity
振動提示部140は、マイコン120の制御のもとで動作する、筐体E1内にバイブレーターである。
The
図5は、コントローラ10の重心可変を説明する説明図である。図5に示すように、筐体E1内には、モータ等で筐体E1内の筒長方向に移動可能な重心可変部130(可動部)が設けられている。
FIG. 5 is an explanatory diagram explaining the variable center of gravity of the
この可動部には、上記のモータの他、筐体E1内の筒長方向における可動部の位置を検出する位置センサ、振動提示部140などが設けられている。また、可動部には、温度センサ、IMU(Inertial Measurement Unit)センサなどが搭載されてもよい。
In addition to the motor, the movable part is provided with a position sensor that detects the position of the movable part in the tube length direction inside the housing E1, a
コントローラ10では、この可動部(重心可変部130、振動提示部140)が動作することで、筐体E1を把持したユーザの手H1を介し、ユーザに対して様々な力覚を提示できる。
In the
例えば、筐体E1の下を把持している手H1に対し、重心可変部130が上にある場合、ユーザは、コントローラ10の重心が上にあるように感じ、VR空間内で長い仮想物を持っているように感じることができる(力覚による形状の提示)。
For example, when the center of gravity
また、重心可変部130を素早く動かすことで、ユーザは、コントローラ10に衝撃を受けたように感じることができる(衝撃の提示)。
In addition, by quickly moving the center of gravity
また、可動部内の振動提示部140を素早く振動させることで、ユーザは、コントローラ10に振動を受けたように感じることができる(振動の提示)。
In addition, by quickly vibrating the
このように、重心可変部130および振動提示部140は、筐体E1を把持したユーザに対して所定の力覚を提示する力覚提示部の一例である。
In this way, the center of gravity
図1に戻り、バッテリ150は、コントローラ10の各部に電力を供給する。例えば、バッテリ150は、圧力検出部110、マイコン120、重心可変部130および振動提示部140それぞれに対して、電力を供給する。
Returning to FIG. 1, the
なお、図1に示された例では、振動提示部140は、重心可変部130(可動部)の外部に設けられているが、重心可変部130に含まれていてもよい。この場合、重心可変部130では、振動提示部140を錘として用いることができる。
In the example shown in FIG. 1, the
次に、圧力検出部110の検出情報に基づいてユーザによる把持状態を検出する機能と、検出した把持状態に基づいて重心可変部130、振動提示部140の動作を制御する機能との詳細について説明する。
Next, we will explain in detail the function of detecting the user's gripping state based on the detection information of the
なお、本実施形態では上記機能をマイコン120が行う場合を例示するが、マイコン120を介して制御装置81が上記の機能を行ってもよいことは言うまでもないことである。
In this embodiment, the above functions are performed by the microcomputer 120, but it goes without saying that the
図6は、コントローラ10を把持した手H1の位置の推定を説明する説明図である。なお、図6の例では、ユーザは、筐体E1の下部分を手H1で把持しているものとする。このため、筐体E1の下部分に貼合された圧力分布センサ110bでは、10×16の検出点において、図示のように手H1の形状に対応した圧力値が検出されている。
FIG. 6 is an explanatory diagram for explaining the estimation of the position of the hand H1 holding the
図6に示すように、マイコン120は、圧力分布センサ110bの検出点によってセンシングされた圧力値(圧力分布)をもとに、手H1の把持位置および手H1の形状を推定する。
As shown in FIG. 6, the microcontroller 120 estimates the gripping position of the hand H1 and the shape of the hand H1 based on the pressure values (pressure distribution) sensed by the detection points of the
例えば、マイコン120は、圧力分布センサ110bの各検出点の圧力値を入力した場合に手H1の把持位置および手H1の形状を出力するように機械学習した学習モデルを用いて、上記の推定を行う。
For example, the microcontroller 120 performs the above estimation using a learning model that has been machine-learned to output the gripping position and shape of the hand H1 when pressure values at each detection point of the
また、マイコン120は、圧力分布センサ110bの検出点によってセンシングされた圧力値(圧力分布の形状)をもとに、把持する手H1が右手であるか、左手であるか、または手H1とは別の圧力分布がある両手であるかを推定する。
In addition, the microcontroller 120 estimates whether the gripping hand H1 is the right hand, the left hand, or both hands that have a different pressure distribution from hand H1, based on the pressure value (shape of pressure distribution) sensed by the detection point of the
例えば、マイコン120は、圧力分布センサ110bの各検出点の圧力値を入力した場合に把持する手H1が右手、左手、または、両手のいずれかを出力するように機械学習した学習モデルを用いて、上記の推定を行う。
For example, the microcomputer 120 makes the above estimation using a learning model that has been machine-learned to output that the gripping hand H1 is the right hand, the left hand, or both hands when pressure values from each detection point of the
また、マイコン120は、圧力分布センサ110bの検出点によってセンシングされた圧力値(圧力分布)をもとに、手の中心G2を推定してもよい。
The microcontroller 120 may also estimate the center G2 of the hand based on the pressure values (pressure distribution) sensed by the detection points of the
一例として、マイコン120は、所定の圧力値が検出された位置の中心を手の中心G2として推定する。このとき、マイコン120は、大きく位置が外れた値は除外してもよい。 As an example, the microcontroller 120 estimates the center of the position where a certain pressure value is detected as the center of the hand G2. At this time, the microcontroller 120 may exclude values that are significantly off the position.
また、マイコン120は、圧力分布センサ110bの検出点によってセンシングされた圧力分布の形状が、右手または左手での把持で特徴的な形状を示しているか否かをもとに、把持している手H1が右手であるか左手であるかを分けて検出してもよい。
The microcontroller 120 may also detect whether the gripping hand H1 is the right hand or the left hand based on whether the shape of the pressure distribution sensed by the detection point of the
また、マイコン120は、App812のコンテキストを踏まえて、手H1の検出を行ってもよい。例えば、App812が提示するVR空間において、コントローラ10に対応する仮想物が右手で持つものである場合、マイコン120は、右手で把持しているという前提で、手の中心G2を右手の中心位置とみなす。
The microcontroller 120 may also detect the hand H1 based on the context of App 812. For example, if a virtual object corresponding to the
マイコン120は、検出した手H1の把持位置(手の中心G2)をもとに、可動部(重心可変部130)の動作制御を行う。例えば、マイコン120は、検出した手の中心G2をもとに、重心可変部130の位置を変更する。
The microcomputer 120 controls the operation of the movable part (center of gravity variable part 130) based on the detected gripping position of the hand H1 (center of hand G2). For example, the microcomputer 120 changes the position of the center of gravity
上述したユーザの手H1による筐体E1の把持状態の検出については、マイコン120だけでなく、コントローラ10からの検出情報を取得した制御装置81が行ってもよい。また、制御装置81(マイコン120も含む)は、カメラ82が撮影した画像をもとに、ユーザの手H1による筐体E1の把持状態の検出を行ってもよい。例えば、制御装置81は、カメラ82が撮影した画像を入力した場合にユーザの把持状態を出力するように機械学習した学習モデルを用いることで、上記の検出を行う。
The detection of the gripping state of the housing E1 by the user's hand H1 described above may be performed not only by the microcomputer 120 but also by the
図7は、重心可変部130の動作制御を説明する説明図である。図7のケースC1に示すように、ユーザは、手H1でコントローラ10を把持した場合、把持した手H1の手の中心G2に対するコントローラ10の重心G1のずれによるモーメント(回転モーメント)を感じることとなる。
FIG. 7 is an explanatory diagram explaining the operation control of the center of gravity
そこで、不要な回転モーメントをユーザに感じさせないようにするため、マイコン120は、手の中心G2をもとに重心可変部130に位置を変更する。具体的には、マイコン120は、重心可変部130の位置に対応する重心G1の位置を示すテーブルデータなどを参照することで、手の中心G2に対して所定の重心G1となるように重心可変部130の位置を制御する。
In order to prevent the user from feeling unnecessary rotational moment, the microcomputer 120 changes the position of the center of gravity
一例として、ケースC2、C3に示すように、マイコン120は、手H1の把持位置(手の中心G2)が変動したとしても、手の中心G2に対する重心G1が一定となるように重心可変部130の位置を制御する。
As an example, as shown in cases C2 and C3, the microcomputer 120 controls the position of the center of gravity
図8は、重心可変部130の位置の計算を説明する説明図である。図8に示すように、コントローラ10の筒長方向における重心可変部130の位置の計算については、1から-1の範囲で位置を換算してもよい。
FIG. 8 is an explanatory diagram for explaining the calculation of the position of the center of gravity
例えば、マイコン120は、重心G1と手の中心G2とが重なる位置を0とし、”手の中心G2<重心G1”を正、”手の中心G2>重心G1”を負として扱ってもよい。また、基準となる座標系(正方向)は、コントローラ10を設計する上で”上方向”と規定された方向を正と扱ってもよい。
For example, the microcontroller 120 may set the position where the center of gravity G1 and the center of the hand G2 overlap as 0, and may treat "center of the hand G2 < center of gravity G1" as positive, and "center of the hand G2 > center of gravity G1" as negative. In addition, the reference coordinate system (positive direction) may treat the direction defined as "upward" in designing the
また、マイコン120は、重心可変部130を動かしたうえで、戻すときに、把持した手H1の把持位置(手の中心G2)を基準に戻すようにしてもよい。図9は、重心可変部130の動作例を説明する説明図である。
In addition, the microcomputer 120 may move the center of gravity
図9に示すように、コントローラ10は、VR空間において、仮想ショットガンV1として扱われるものとする。マイコン120は、重心可変部130を素早く動かすことで、仮想ショットガンV1の発射に対応する力覚(衝撃)をユーザの手H1に提供できる。
As shown in FIG. 9, the
このとき、マイコン120は、検出した手の中心G2を基準に、重心G1がもどるように重心可変部130の位置を戻す。これにより、コントローラ10は、仮想ショットガンV1の発射の前後で仮想ショットガンV1の形状(回転モーメント)が変わらないように力覚させることができる。
At this time, the microcomputer 120 returns the position of the center of gravity
図10は、重心可変部130の動作例を説明する説明図である。図10のケースC4、C5に示すように、マイコン120は、ユーザが手H1、H2の両手でコントローラ10を把持している場合、両手の把持位置の中心を原点(0)として扱ってもよい。
FIG. 10 is an explanatory diagram illustrating an example of the operation of the center of gravity
また、マイコン120は、検出した圧力値の強さ(把持する力)をもとに、重心可変部130の位置を制御してもよい。
The microcomputer 120 may also control the position of the center of gravity
例えば、ケースC6に示すように、マイコン120は、検出した手H1の位置における圧力値の強さと、手H2の位置における圧力値の強さをもとに、原点位置(重心可変部130の初期位置)を変更してもよい。 For example, as shown in case C6, the microcontroller 120 may change the origin position (initial position of the center of gravity variable unit 130) based on the strength of the pressure value detected at the position of hand H1 and the strength of the pressure value detected at the position of hand H2.
一例として、マイコン120は、原点(0)を、圧力検出部110が検出した手H1が握る強さと、手H2が握る強さとによる加重平均より求めてもよい。
As an example, the microcontroller 120 may determine the origin (0) by taking a weighted average of the grip strength of hand H1 and the grip strength of hand H2 detected by the
また、マイコン120は、検出した手H1が右手であるか、左手であるか、または、手H1、手H2の両手であるかに応じて、可動部(振動提示部140)の振動を制御してもよい。例えば、マイコン120は、片手(右手または左手)の場合は、振動を弱くし、両手の場合は振動を強くする。また、マイコン120は、右手、左手、または、両手に応じて重心可変部130の位置を調整してもよい。
The microcontroller 120 may also control the vibration of the movable part (vibration presentation part 140) depending on whether the detected hand H1 is a right hand, a left hand, or both hands H1 and H2. For example, the microcontroller 120 may weaken the vibration in the case of one hand (right or left hand) and strengthen the vibration in the case of both hands. The microcontroller 120 may also adjust the position of the center of gravity
また、マイコン120は、検出した手H1の把持位置(手の中心G2)をもとに、可動部(振動提示部140)の振動を制御してもよい。図11は、重心可変部130の動作例を説明する説明図である。図12は、振動提示部140の振動例を説明する説明図である。
The microcomputer 120 may also control the vibration of the movable part (vibration presentation unit 140) based on the detected gripping position of the hand H1 (center G2 of the hand). Figure 11 is an explanatory diagram that explains an example of the operation of the center of gravity
図11の左側に示すように、手の中心G2と、重心G1との位置が近い場合には、物理的に振動させづらくなり、重心可変部130(振動提示部140)を動作させた場合の振動が弱くなる。そこで、マイコン120は、検出した手H1の把持位置(手の中心G2)をもとに重心可変部130を移動させ、振動の中心位置(重心G1)が手の中心G2と重ならないようにする。ここで、マイコン120は、130を上下に素早く動かして振動を発生させてもよいし、可動部に設けられた振動提示部140を動作させて振動を発生させてもよい。
As shown on the left side of Figure 11, if the center G2 of the hand and the center of gravity G1 are close to each other, it becomes physically difficult to vibrate, and the vibration when the center of gravity variable unit 130 (vibration presentation unit 140) is operated becomes weaker. Therefore, the microcontroller 120 moves the center of gravity
また、マイコン120は、検出した手H1の把持位置(手の中心G2)に基づく振動波形を再生するように振動を制御してもよい。例えば、図12に示すように、手H1の把持位置から遠いところで振動提示部140が振動する場合は、近いところで振動する場合と比べて、振動が減衰してしまうこととなる。マイコン120は、このような振動の減衰を考慮した振動波形を再生するように振動を制御する。
The microcomputer 120 may also control the vibration to reproduce a vibration waveform based on the detected gripping position of the hand H1 (center G2 of the hand). For example, as shown in FIG. 12, when the
例えば、マイコン120は、手H1の把持位置をo、可動部(振動提示部140)の位置をp、振動の減衰特性をF(o,p)としたとき、再生する振動にあらかじめFの逆関数のフィルタを通した振動波形を再生する。また、マイコン120は、上記のフィルタを、振動周波数fごとの減衰特性F(o,p,f)を考慮したフィルタとしてよい。 For example, when the gripping position of the hand H1 is o, the position of the movable part (vibration presentation unit 140) is p, and the vibration damping characteristics are F(o, p), the microcontroller 120 reproduces a vibration waveform in which the vibration to be reproduced has been passed through a filter that is an inverse function of F. The microcontroller 120 may also use the above filter as a filter that takes into account the damping characteristics F(o, p, f) for each vibration frequency f.
また、マイコン120は、意図した量のモーメントをユーザに提示(力覚)させるための重心可変部130の位置制御(モーメント制御)を行ってもよい。
The microcontroller 120 may also perform position control (moment control) of the center of gravity
具体的には、マイコン120は、検出した手H1の把持位置(手の中心G2)と、鉛直方向に対するコントローラ10の姿勢(デバイス角度)とをもとに、可動部(重心可変部130)の位置を決める。
Specifically, the microcomputer 120 determines the position of the movable part (center of gravity variable part 130) based on the detected gripping position of the hand H1 (hand center G2) and the attitude of the
図13、図14は、コントローラ10におけるモーメント制御例を説明する説明図である。図13に示すように、コントローラ10を把持している手H1に対し、提示するモーメントMが定まっているものとする。また、重力センサなどを用いて検出した、鉛直方向に対するコントローラ10の姿勢(デバイス角度)は、θとする。コントローラ10の質量(デバイス質量)はmとし、重力加速度はgとする。
FIGS. 13 and 14 are explanatory diagrams illustrating an example of moment control in the
マイコン120は、検出した把持位置o、デバイス角度θ、デバイス質量m、重力加速度gをもとに、提示するモーメントMに対応する重心位置pを、重心位置p=o+M/(m*g*sin(θ))のように決定する。 The microcontroller 120 determines the center of gravity position p corresponding to the presented moment M based on the detected grip position o, device angle θ, device mass m, and gravitational acceleration g as center of gravity position p = o + M/(m * g * sin(θ)).
マイコン120は、ユーザがコントローラ10を様々な姿勢に動かしている間も、上記の重心位置pとなるように重心可変部130の位置制御を行うことで、一定のモーメントMをユーザに提示できる。
The microcontroller 120 controls the position of the center of gravity
また、マイコン120は、圧力検出部110が検出した把持した手H1の圧力分布から手H1にかかるモーメントを求めてもよい。図14に示すように、ユーザがコントローラ10を手H1で把持した場合、コントローラ10には、一例として、手H1の親指による上向きの垂直抗力N1と、手H1の小指による下向きの垂直抗力N2とがかかる。
The microcomputer 120 may also determine the moment acting on the hand H1 from the pressure distribution of the gripping hand H1 detected by the
このような互いに逆向きの垂直抗力N1、N2は、手の中心G2を中心とするモーメントMを生じさせる。マイコン120は、圧力検出部110が検出した圧力分布(F)の積分からモーメントMを求める。
These mutually opposite normal forces N1 and N2 generate a moment M centered on the center G2 of the hand. The microcomputer 120 calculates the moment M from the integral of the pressure distribution (F) detected by the
図15は、モーメント制御のフィードバックループの一例を説明する説明図である。図15に示すように、マイコン120は、手H1の圧力分布から求めたモーメントMを、フィードバックループL1に入れたモーメント制御を行ってもよい。 FIG. 15 is an explanatory diagram illustrating an example of a feedback loop for moment control. As shown in FIG. 15, the microcomputer 120 may perform moment control by inputting a moment M calculated from the pressure distribution of the hand H1 into a feedback loop L1.
また、マイコン120は、圧力検出部110より検出した圧力値が所定値以上である圧力分布の範囲をもとに、手H1の大きさ(面積)を推定してもよい。
The microcomputer 120 may also estimate the size (area) of the hand H1 based on the range of pressure distribution in which the pressure value detected by the
マイコン120は、推定した手H1の大きさ(面積)をもとに、可動部(重心可変部130、振動提示部140)の動作を制御してもよい。具体的には、マイコン120は、可動部の動作によりユーザに提示する力覚(例えば衝撃、振動)の強さを制御する。
The microcomputer 120 may control the operation of the movable parts (the center of gravity
図16は、コントローラ10が提示する力の強さの調製例を説明する説明図である。図16に示すように、ケースC7は、圧力検出部110において圧力値が所定値以上である圧力分布111の範囲が広く、コントローラ10を把持する手H1が大きい場合を例示している。これに対し、ケースC8は、圧力検出部110において圧力値が所定値以上である圧力分布111の範囲が狭く、コントローラ10を把持する手H1が小さい場合を例示している。
FIG. 16 is an explanatory diagram illustrating an example of adjusting the strength of the force presented by the
ケースC7に示すように、マイコン120は、圧力分布111の範囲が広く、コントローラ10を把持する手H1が大きい場合、手の中心G2に対して重心G1が離れるように、可動部(振動提示部140)の位置を調整(図示例では左端)する。そして、マイコン120は、振動提示部140を比較的に強く振動させるようにする。
As shown in case C7, when the range of
また、ケースC6に示すように、マイコン120は、圧力分布111の範囲が狭く、コントローラ10を把持する手H1が小さい場合、手の中心G2に対して重心G1が近づくように、可動部(振動提示部140)の位置を調整(図示例では中央付近)する。そして、マイコン120は、振動提示部140を比較的に弱く振動させるようにする。
Also, as shown in case C6, when the range of
このように、マイコン120は、検出した手H1の大きさに応じてユーザに提示する力覚(例えば衝撃、振動)の強さを制御することで、例えば手H1が小さい人には力覚が小さくなるように調整でき、疲れさせないようにすることができる。 In this way, the microcontroller 120 can control the strength of the force sensation (e.g., impact, vibration) presented to the user according to the detected size of the hand H1, thereby adjusting the force sensation to be smaller for someone with a small hand H1, for example, and preventing fatigue.
また、マイコン120は、可動部(重心可変部130、振動提示部140)を動作させた際の圧力検出部110の検出情報をもとに、ユーザが把持している際のコントローラ10の角度(把持角度)を推定してもよい。
The microcontroller 120 may also estimate the angle (grip angle) of the
図17は、コントローラ10の把持角度の推定を説明する説明図である。図17に示すように、ケースC9はコントローラ10を縦に持つ場合であり、ケースC10はコントローラ10を横に持つ場合である。
FIG. 17 is an explanatory diagram for explaining estimation of the grip angle of the
ケースC9に示すように、コントローラ10を縦に持つ場合は、重心可変部130を筒長方向に動作させたとしても、鉛直方向への移動であることから回転モーメントが生じず、圧力検出部110の圧力分布111に変動はない。
As shown in case C9, when the
これに対し、ケースC10に示すように、コントローラ10を横に持つ場合は、重心可変部130を筒長方向に動作させると、鉛直方向に対するコントローラ10の傾きに応じた回転モーメントが生じる。このため、回転モーメントに対抗するようにコントローラ10を把持する手H1の力に変動が生じ、圧力検出部110の圧力分布111が変動する。
In contrast, as shown in case C10, when the
マイコン120は、このようにして生じる圧力分布111の変動をもとに、ユーザが把持している際のコントローラ10の角度(把持角度)を推定する。
The microcontroller 120 estimates the angle (grip angle) of the
例えば、マイコン120は、筒長方向における重心可変部130の規定動作時に検出した圧力分布111の変動を入力した場合に把持角度を出力するように機械学習した学習モデルを用いて、上記の推定を行う。
For example, the microcomputer 120 performs the above estimation using a learning model that has been machine-learned to output a grip angle when a change in
また、マイコン120は、可動部(重心可変部130、振動提示部140)を停止させている際の圧力検出部110の検出情報をもとに、ユーザが把持しているコントローラ10の振り状態を推定してもよい。
The microcontroller 120 may also estimate the swing state of the
図18は、コントローラ10の振り速度の推定を説明する説明図である。図19は、コントローラ10の振り終わりの推定を説明する説明図である。
FIG. 18 is an explanatory diagram for explaining the estimation of the swing speed of the
図18に示すように、ケースC11はコントローラ10を縦持ちから横持ちへゆっくり振っている場合であり、ケースC12はケースC11よりもコントローラ10を速く振っている場合である。
As shown in FIG. 18, case C11 is a case where the
ケースC11、C12を比較しても明らかなように、コントローラ10を振る速度によって手H1でコントローラ10を把持したところの圧力分布111a、111bは大きく異なる。
As is clear from a comparison of cases C11 and C12, the
例えば、コントローラ10を振り下ろして横向きとなったところで停止させる際に生じる圧力分布111a、111bは、振り下ろす速度が大きくなるほど、大きく、また圧力値も高くなる。
For example, the
マイコン120は、このようにして生じる圧力分布111a、111bの変動をもとに、ユーザによるコントローラ10の振り速度を推定する。例えば、マイコン120は、圧力分布111a、111bの変動を入力した場合に振り下ろし速度を出力するように機械学習した学習モデルを用いて、上記の推定を行う。
The microcomputer 120 estimates the swing speed of the
図19に示すように、ケースC13はコントローラ10を縦持ちから横持ちへ振っている最中であり、ケースC14はコントローラ10を横持ちで停止(振り終わり)した場合である。
As shown in FIG. 19, case C13 is when the
ケースC13、C14を比較しても明らかなように、コントローラ10を振っている最中と、振り終わりとでは、圧力分布111a、111bは大きく異なる。
As is clear from comparing cases C13 and C14, the
例えば、コントローラ10を振っている最中のケースC13に対し、振り終わりのケースC14では、コントローラ10の勢いを止めるために手H1で把持する力が強くなり、圧力分布111a、111bは、大きく、また圧力値も高くなる。
For example, in contrast to case C13, in which the
マイコン120は、このようにして生じる圧力分布111a、111bの変動をもとに、コントローラ10の振り状態(振っている最中、または、振り終わり)を推定する。
The microcomputer 120 estimates the swing state of the controller 10 (during swing or at the end of swing) based on the fluctuations in
例えば、マイコン120は、圧力分布111a、111bの変動を入力した場合に振り状態を出力するように機械学習した学習モデルを用いて、上記の推定を行う。また、マイコン120は、振り終わりを検出したタイミングで、振動提示部140を動作させて振動を提示してもよい。
For example, the microcomputer 120 performs the above estimation using a learning model that has been machine-learned to output a swing state when a variation in the
また、マイコン120は、圧力検出部110の検出情報をもとに、可動部(重心可変部130、振動提示部140)を動作させ、所定の力覚(インタラクション)を提示してもよい。
The microcontroller 120 may also operate the movable parts (the center of gravity
例えば、App812が提供するVR空間において、伸びるビーム状の剣としてユーザがコントローラ10を把持しているものとする。このような場合において、マイコン120は、ユーザが把持する力(圧力検出部110の圧力値の大きさ)に応じて重心可変部130の位置を変更する。
For example, in the VR space provided by App812, the user is holding the
図20は、コントローラ10を把持する力に応じたインタラクションの一例を説明する説明図である。図20において、ユーザが手H1でコントローラ10を把持する力の大きさは、ケースC15、C16、C17の順に大きくなるものとする。
FIG. 20 is an explanatory diagram illustrating an example of an interaction according to the force with which the
図20に示すように、マイコン120は、ユーザが把持する力(圧力検出部110の圧力値の大きさ)が大きくなるほど、手の中心G2から重心G1を遠ざけるように重心可変部130の位置を移動させる。
As shown in FIG. 20, the greater the user's gripping force (the magnitude of the pressure value of the pressure detection unit 110), the more the microcomputer 120 moves the position of the center of gravity
これにより、ユーザは、コントローラ10を把持する力を強くするほど、ビーム状の剣が伸びたような力覚を得ることができる。
As a result, the stronger the grip on the
また、例えば、App812が提供するVR空間において、水が出るホースとしてユーザがコントローラ10を把持しているものとする。
Also, for example, in the VR space provided by App812, the user is holding the
このような場合において、マイコン120は、ユーザが把持する力(圧力検出部110の圧力値の大きさ)に応じて重心可変部130を動作させることで、水の噴出量が変わるようなインタラクションを提示してもよい。
In such a case, the microcontroller 120 may present an interaction that changes the amount of water sprayed by operating the center of gravity
図21は、コントローラ10を把持する力に応じたインタラクションの一例を説明する説明図である。図21において、ユーザが手H1でコントローラ10(仮想ホースV2)を把持する力の大きさは、ケースC18よりもケースC19のほうが大きいものとする。
FIG. 21 is an explanatory diagram illustrating an example of an interaction according to the force with which the
図21に示すように、マイコン120は、例えば把持する力を強くすれば、重心可変部130の位置をユーザの手H1の位置に近くなるように、把持する力を弱くすれば、ユーザの手H1の位置から重心可変部130の位置を離すように動作させる。
As shown in FIG. 21, for example, when the gripping force is increased, the microcomputer 120 operates to move the position of the center of gravity
また、マイコン120は、把持する力を強くしたときには振動提示部140の振動を強く、また、振動周波数を高くし、把持する力を弱くしたときには振動提示部140の振動を弱く、また、振動周波数を低くしてもよい。
In addition, the microcontroller 120 may increase the vibration of the
このようにすることで、ユーザは、力を込めて仮想ホースV2(コントローラ10)を握ったときに水が手元から勢いよく放出されると力覚することができ、力を抜いているときには水がゆっくりと出ている力覚することができる。 By doing this, the user can get the sense that water is being released forcefully from the hand when the user grips the virtual hose V2 (controller 10) with force, and the user can get the sense that water is being released slowly when the user releases the force.
また、例えば、App812が提供するVR空間において、ユーザがコントローラ10をショットガン(仮想銃)として把持しているものとする。
Also, for example, assume that in the VR space provided by App812, the user is holding the
このような場合において、マイコン120は、ユーザが把持する手の位置に応じて重心可変部130を動作させてもよい。
In such a case, the microcontroller 120 may operate the center of gravity
図22は、コントローラ10を把持する手の位置に応じたインタラクションの一例を説明する説明図である。図22に示すように、ユーザは、コントローラ10を仮想ショットガンV1として手H1、H2で把持しているものとする。
FIG. 22 is an explanatory diagram illustrating an example of an interaction according to the position of the hands holding the
図22に示すように、マイコン120は、手H2の摺動位置に合わせて重心可変部130の位置を動作させる。
As shown in FIG. 22, the microcomputer 120 adjusts the position of the center of gravity
例えば、仮想ショットガンV1のポンプアクションを行うように、手H2をコントローラ10の筒長方向に沿って摺動させた場合、マイコン120は、その手H2の位置に合わせて重心可変部130を移動させる。
For example, when the hand H2 is slid along the barrel length direction of the
これにより、コントローラ10は、仮想ショットガンV1のポンプアクションに対応した力覚をユーザに提示できる。また、マイコン120は、手H2が所定の位置にきたところで振動提示部140を振動させることで、仮想ショットガンV1への弾丸の装填に対応する力覚をユーザに提示してもよい。
This allows the
また、例えば、App812が提供するVR空間において、ユーザがコントローラ10を仮想的な刀として把持しているものとする。
Also, for example, assume that in the VR space provided by App812, the user is holding the
このような場合において、マイコン120は、ユーザが把持する手の位置に応じて重心可変部130を動作させることで、抜刀や納刀を力覚させてもよい。
In such a case, the microcomputer 120 may operate the center of gravity
図23は、コントローラ10を把持する手の位置に応じたインタラクションの一例を説明する説明図である。図22に示すように、ユーザは、コントローラ10を仮想刀V3として手H1、H2で把持しているものとする。
FIG. 23 is an explanatory diagram illustrating an example of an interaction according to the position of the hands holding the
図23に示すように、マイコン120は、手H2がコントローラ10の表面上を摺動する際に、仮想刀V3の柄に対応する手H1の位置に合わせて重心可変部130の位置を保持する。
As shown in FIG. 23, when the hand H2 slides on the surface of the
このとき、マイコン120は、手H2の摺動位置の変化から抜刀や納刀のスピードを求め、そのスピードに合わせて振動提示部140を振動させることで、抜刀や納刀に対応する振動をユーザに力覚させることができる。
At this time, the microcomputer 120 determines the speed of unsheathing or sheathing the sword from the change in the sliding position of the hand H2, and vibrates the
なお、図示例では、手H1が仮想刀V3の柄を握る場合を例示しているが、手H2が仮想刀V3の柄を握る場合であってもよい。 In the illustrated example, hand H1 is shown gripping the hilt of virtual sword V3, but hand H2 may grip the hilt of virtual sword V3.
また、例えば、App812が提供するVR空間において、ユーザがコントローラ10を仮想的な楽器として把持しているものとする。
Also, for example, it is assumed that in the VR space provided by App812, the user is holding the
このような場合において、マイコン120は、ユーザが把持する指の位置を圧力検出部110で検出し、検出した指の位置を楽器の操作に割り当ててもよい。
In such a case, the microcomputer 120 may detect the position of the user's fingers using the
図24は、仮想楽器V4への適用例を説明する説明図である。図24に示すように、ユーザは、コントローラ10をサクソフォーンなどの仮想楽器V4とし、コントローラ10での指操作を仮想楽器V4のキー操作とする。
FIG. 24 is an explanatory diagram illustrating an example of application to a virtual instrument V4. As shown in FIG. 24, the user treats the
マイコン120は、圧力検出部110よりユーザの指操作を検出し制御装置81へ通知する。これにより、制御装置81では、VR空間において仮想楽器V4からの発音を行う。
The microcomputer 120 detects the user's finger operation from the
このとき、マイコン120は、操作する仮想楽器V4の重さに応じて重心可変部130の位置を変化させる、または、仮想楽器V4の振動(発音)に応じて振動提示部140を振動させる。
At this time, the microcomputer 120 changes the position of the center of gravity
例えば、マイコン120は、仮想楽器V4の重さが重いほど、重心可変部130の位置を下方向(重力方向)に移動してもよい。また、マイコン120は、仮想楽器V4が発音する音の高低に合わせて重心可変部130の位置、振動提示部140の振動周波数を変化させてもよい。
For example, the microcomputer 120 may move the position of the center of gravity
例えば、マイコン120は、音が低いときには重心可変部130を下方向に移動し、音が高い時には重心可変部130を上方向に移動してもよい。
For example, the microcontroller 120 may move the center of gravity
また、ユーザが演奏に合わせて一時的にコントローラ10を動かす場合は、マイコン120は、重心可変部130の位置は動かさなくてもよい。
Also, if the user temporarily moves the
また、仮想楽器V4がバイオリンやトランペットのように保持状態が水平になる場合、「下方向」は、ユーザから遠くなる方向と考えてもよい。 Also, if the virtual instrument V4 is held horizontally, like a violin or trumpet, the "downward direction" may be considered to be the direction away from the user.
また、VR空間において、コントローラ10を武器や楽器のスティックに割り当て、武器や楽器がVR空間中のオブジェクトや太鼓などに衝突した際の衝撃を、力覚として提示してもよい。
In addition, in a VR space, the
具体的には、マイコン120は、VR空間においてオブジェクトや太鼓などに衝突した際の、制御装置81からの通知をもとに、重心可変部130の高速動作による衝撃や振動、もしくは、振動提示部140の振動による提示を行う。
Specifically, when a collision occurs with an object, a drum, or the like in the VR space, the microcomputer 120 receives a notification from the
このとき、マイコン120は、ユーザがコントローラ10を振る速度に応じて、重心可変部130、振動提示部140の動作による衝撃や振動の強さを変えてもよい。
At this time, the microcontroller 120 may change the strength of the impact or vibration caused by the operation of the center of gravity
また、マイコン120は、ユーザがコントローラ10を握る強さに応じて重心可変部130、振動提示部140の動作による衝撃や振動の強さを変えてもよい。
The microcontroller 120 may also change the strength of the impact or vibration caused by the operation of the center of gravity
例えば、マイコン120は、振る速度が速くなるほど、衝撃や振動を強くし、ユーザがコントローラ10を握る強さが強くなるほど、衝撃や振動を強くする。
For example, the faster the shaking speed, the stronger the impact and vibration will be, and the stronger the user grips the
また、マイコン120は、ユーザがコントローラ10を握る強さに応じて、衝撃や振動を強くするだけでなく、振動の周波数を変えてもよい。例えば、マイコン120は、ユーザが握る強さが強くなるほど振動周波数を高くし、握る強さが弱いほど振動周波数を低くしてもよい。
In addition, the microcontroller 120 may not only increase the strength of the impact or vibration, but also change the frequency of the vibration depending on how strongly the user grips the
また、仮想楽器V4をVR空間におけるバイオリンとする場合は、コントローラ10をバイオリン本体と見立て、バイオリンの弓はコントローラ10とは別の木のスティックや鉛筆などで代用してもよい。
In addition, if the virtual musical instrument V4 is a violin in the VR space, the
このとき、コントローラ10と木のスティックの接触は圧力検出部110で検出し、制御装置81は、その検出値(接触状態)に応じてVR空間で仮想楽器V4より音を発生させ、その音を変化させる。マイコン120は、仮想楽器V4における音の発生や接触位置に応じて可動部(重心可変部130、振動提示部140)を制御してもよい。
At this time, the contact between the
また、VR空間においてノコギリを再現する場合は、コントローラ10をノコギリ本体と見立て、切ろうとするものをコントローラ10とは別の実体物(例えば机)で代用してもよい。
When recreating a saw in a VR space, the
このとき、VR空間では、実体物と同じ位置となるように仮想オブジェクトが配置されており、コントローラ10が実体物に接触した際に仮想オブジェクトとノコギリとの接触も起こる。この仮想オブジェクトをユーザがノコギリ(コントローラ10)で切ろうとしたとき、仮想オブジェクトの素材に応じて、マイコン120は、可動部(重心可変部130、振動提示部140)を振動させることで、切っている感触を再現することができる。
At this time, the virtual object is placed in the VR space so that it is in the same position as the real object, and when the
なお、上記の例は、あくまで一例であり、VR空間なしに、コントローラ10と実物体のみのインタラクションとして利用することもできる。
Note that the above example is merely one example, and it can also be used as an interaction between the
圧力検出部110で検出した、手を捻る動作(摺動動作)を、VR空間中でのバイクのアクセル操作や、胡椒や塩のミルの操作に割り当ててもよい。
The twisting motion (sliding motion) of the hand detected by the
この時、捻る動作をすると、バイクのアクセルが回ったと判断し、マイコン120は、可動部(重心可変部130、振動提示部140)を振動させる。これにより、ユーザは、アクセル操作を力覚することができる。
At this time, if a twisting motion is made, it is determined that the accelerator of the motorcycle is turning, and the microcomputer 120 vibrates the movable parts (the center of gravity
また、胡椒や塩のミル操作の場合には、VR空間での映像として胡椒や塩がミルの先端から落ちるとともに、胡椒や塩が擦られる力覚を可動部(重心可変部130、振動提示部140)の振動等で表現してもよい。
In addition, when operating a pepper or salt mill, the image in the VR space may show pepper or salt falling from the tip of the mill, and the force sensation of the pepper or salt being ground may be expressed by the vibration of the moving parts (center of gravity
また、コントローラ10の表面上における圧力分布センサの特定位置に操作ボタン(操作指示)を割り当て、マイコン120は、その特定位置の押下操作(操作指示の有無)を検出してもよい。
In addition, an operation button (operation instruction) may be assigned to a specific position of the pressure distribution sensor on the surface of the
図25、図26は、コントローラにおけるボタン操作の一例を説明する説明図である。図25に示すように、VR空間において、コントローラ10の圧力分布センサ110bの所定位置に仮想操作ボタン112を配置する。
25 and 26 are explanatory diagrams illustrating an example of button operations on a controller. As shown in FIG. 25, in the VR space, a
制御装置81のApp812は、マイコン120より圧力分布センサ110bの検出情報を取得し、仮想操作ボタン112を配置した位置での押下操作の有無を判断する。App812は、仮想操作ボタン112の押下操作を検出した場合、その仮想操作ボタン112に対応するイベントをVR空間で発生させる。なお、VR空間はAR(Augmented Reality)空間であってもよい。
App812 of the
図26に示すように、App812は、VR空間において、コントローラ10を仮想拳銃V5に見立て、仮想拳銃V5のトリガ位置に仮想操作ボタン112を配置してもよい。
As shown in FIG. 26, App 812 may treat the
App812は、マイコン120より圧力分布センサ110bの検出情報を取得し、仮想操作ボタン112における手H1の指の摺動操作の有無を判断する。App812は、仮想操作ボタン112の摺動操作(例えば、摺動量が閾値以上(トリガを引く程度))を検出した場合、その仮想操作ボタン112に対応するイベント(仮想拳銃V5の発射)をVR空間で発生させる。
App812 acquires detection information from the
図27は、コントローラにおける圧力検出方式の一例を説明する説明図である。図27のコントローラ10eに示すように、圧力検出部110における圧力分布センサは、静電容量式タッチパッド110jであってもよい。
FIG. 27 is an explanatory diagram illustrating an example of a pressure detection method in a controller. As shown in the
静電容量式タッチパッド110jにおいて、ユーザが把持した際の接触面積が検出可能な場合は、その接触面積を圧力値に換算してもよい。
When the contact area of the
また、図27のコントローラ10fに示すように、圧力検出部110における圧力分布センサは、筒長方向において複数区分された抵抗膜方式タッチパッド110k~110nであってもよい。
Also, as shown in the
また、コントローラ10fに示すように、圧力検出部110における圧力分布センサは、筒長方向に沿った複数の抵抗膜方式タッチパッド110o~110qであってもよい。
Also, as shown in
また、抵抗膜方式タッチパッド110k~110qは、圧力値が取れるタイプのものは、検出した圧力値を利用してもよい。また、アナログ抵抗膜方式の場合は、検出できる圧力点を増やすために圧力センサを多数貼り合わせてもよい。
In addition, for
また、タッチパッドのようのセンサの場合には、接触位置センサとしてのみ機能させてもよいし、接触位置センサとは別にひずみゲージのような圧力センサを別に設け、二つのセンサの値を複合的に利用してもよい。(接触位置センサは、センサの種類を限定しない。) In the case of a sensor such as a touchpad, it may function only as a contact position sensor, or a pressure sensor such as a strain gauge may be provided separately from the contact position sensor, and the values of the two sensors may be used in combination. (There are no limitations on the type of contact position sensor.)
また、コントローラ10では、圧力検出部110の圧力分布センサ上に、操作ボタンを形成し、その操作ボタンの押下操作(圧力)を検出してもよい。図28は、コントローラ上の操作ボタンの一例を説明する説明図である。
In addition, in the
図28に示すように、圧力検出部110の圧力分布センサ上の操作ボタンは、筐体E1の表面における他の部分とは異なる形状で明示的に形成される。
As shown in FIG. 28, the operation buttons on the pressure distribution sensor of the
具体的には、圧力検出部110の圧力分布センサ上の操作ボタンは、テクスチャとした操作ボタン113a、突起を設けた操作ボタン113bであってもよい。
Specifically, the operation button on the pressure distribution sensor of the
このように、操作ボタン113a、113bは、ユーザに対して明示的に設けられてもよい。
In this way,
ここで、VR空間において、コントローラ10を仮想ショットガンV1と見立ててユーザが操作する場合の動作例を説明する。図29は、本開示の実施形態にかかる情報処置システムの動作例を示すフローチャートである。
Here, an example of the operation will be described in which a user operates the
図29に示すように、処理が開始されると、マイコン120は、圧力検出部110からの入力待ち(圧力検出待ち)となる(S1)。ついで、コントローラ10において、ユーザがトリガに対応する仮想ボタンの押下をしたものとすする(S2)。
As shown in FIG. 29, when processing starts, the microcomputer 120 waits for input from the pressure detection unit 110 (waits for pressure detection) (S1). Next, it is assumed that the user has pressed the virtual button on the
マイコン120は、圧力検出部110において仮想ボタンの位置における圧力を検出すると、App812に検出結果を通知する。これにより、App812では、銃(仮想ショットガンV1)の発射をVR空間に描画する(S3)。また、マイコン120は、錘(重心可変部130)を駆動し、銃を発射した衝撃(力覚)をユーザに提示する(S4)。
When the
ついで、マイコン120は、圧力検出部110からの入力待ち(圧力検出待ち)となる(S5)。ついで、コントローラ10において、ユーザがコントローラ10の筒をこする動作(ポンプアクション)をしたものとする(S6)。 Then, the microcomputer 120 waits for input from the pressure detection unit 110 (waits for pressure detection) (S5). Next, it is assumed that the user performs an action of rubbing the cylinder of the controller 10 (pump action) on the controller 10 (S6).
マイコン120は、圧力検出部110においてポンプアクションに対応する摺動動作を検出すると、App812に検出結果を通知する。これにより、App812では、ユーザの手の動きに合わせてポンプアクションをVR空間に描画する(S7)。
When the microcomputer 120 detects a sliding motion corresponding to a pump action in the
また、マイコン120は、ユーザの手の動きに合わせて錘(重心可変部130)をリアルタイムで駆動し、ポンプアクションに対応する力覚をユーザに提示する(S8)。ついで、マイコン120は、VR空間における仮想ショットガンV1に関するアクションの終了(S9)により処理を終了する。 The microcomputer 120 also drives the weight (the variable center of gravity unit 130) in real time in accordance with the movement of the user's hand, and presents the user with a force sensation corresponding to the pump action (S8). Next, the microcomputer 120 ends the process when the action related to the virtual shotgun V1 in the VR space ends (S9).
以上のように、情報処理システムは、マイコン120または制御装置81において、筐体E1を把持したユーザに対して所定の力覚を提示する(重心可変部130、振動提示部140)を有する力覚提示装置(コントローラ10)について、ユーザによる筐体E1の把持状態を検出する。マイコン120は、検出された把持状態に基づいて力覚提示部の動作を制御する。これにより、情報処理システムでは、ユーザの把持状態に応じた力覚を提示できる。
As described above, the information processing system detects the state in which the housing E1 is being held by the user using the microcomputer 120 or the
また、マイコン120は、筐体E1の表面に設けられた複数の圧力センサにおける圧力の検出位置に基づいてユーザの把持位置を検出する。これにより、情報処理システムでは、ユーザの把持状態として、ユーザの把持位置を検出できる。 The microcomputer 120 also detects the user's gripping position based on the pressure detection positions of multiple pressure sensors provided on the surface of the housing E1. This allows the information processing system to detect the user's gripping position as the user's gripping state.
また、マイコン120は、検出されたユーザの把持位置に基づいた力覚提示部の動作で把持位置に対応する力覚を提示させる。これにより、情報処理システムでは、ユーザの把持位置に応じた力覚を提示できる。 The microcomputer 120 also operates the force feedback unit based on the detected grip position of the user to provide a force feedback corresponding to the grip position. This allows the information processing system to provide a force feedback according to the user's grip position.
また、マイコン120は、検出されたユーザの把持位置の変動量に基づいた力覚提示部の動作で把持位置の変動に対応する力覚を提示させる。これにより、情報処理システムでは、ユーザの把持位置の変動に応じた力覚を提示できる。 The microcomputer 120 also operates the force feedback unit based on the amount of change in the detected user's grip position to provide a force feedback corresponding to the change in grip position. This allows the information processing system to provide a force feedback according to the change in the user's grip position.
また、マイコン120は、圧力センサの検出値に基づいてユーザが把持する力を検出する。これにより、情報処理システムでは、ユーザの把持状態として、ユーザが把持する力を検出できる。 The microcomputer 120 also detects the user's gripping force based on the detection value of the pressure sensor. This allows the information processing system to detect the user's gripping force as the user's gripping state.
また、マイコン120は、複数の圧力センサにおける圧力の検出範囲に基づいてユーザが把持する力を検出する。これにより、情報処理システムでは、ユーザの把持状態として、ユーザが把持する力を検出できる。 The microcomputer 120 also detects the user's gripping force based on the pressure detection ranges of the multiple pressure sensors. This allows the information processing system to detect the user's gripping force as the user's gripping state.
また、マイコン120は、検出されたユーザが把持する力に基づいた力覚提示部の動作で把持する力に対応する力覚を提示させる。これにより、情報処理システムでは、ユーザの把持する力に応じた力覚を提示できる。 The microcomputer 120 also operates the force sense presentation unit based on the detected gripping force to present a force sense corresponding to the gripping force. This allows the information processing system to present a force sense according to the gripping force of the user.
また、マイコン120は、複数の圧力センサにおける圧力値が所定値以上の検出範囲に基づいてユーザが把持する範囲を検出する。これにより、情報処理システムでは、ユーザの把持状態として、ユーザが把持する範囲を検出できる。 The microcomputer 120 also detects the range that the user is gripping based on the detection range in which the pressure values of the multiple pressure sensors are equal to or greater than a predetermined value. This allows the information processing system to detect the range that the user is gripping as the user's grip state.
また、マイコン120は、検出されたユーザが把持する範囲に基づいた力覚提示部の動作で把持する範囲に対応する力覚を提示させる。これにより、情報処理システムでは、ユーザの把持する範囲に応じた力覚を提示できる。 The microcomputer 120 also operates the force feedback unit based on the detected range of the user's grip to provide a force feedback corresponding to the range of the user's grip. This allows the information processing system to provide a force feedback according to the range of the user's grip.
また、マイコン120または制御装置81は、筐体E1をユーザが右手で把持するか、左手で把持するか、または、両手で把持するかを検出する。これにより、情報処理システムでは、ユーザが筐体E1を右手で把持するか、左手で把持するか、または、両手で把持するかを検出できる。
The microcomputer 120 or the
また、マイコン120または制御装置81は、検出されたユーザが把持する手(右手、左手、または、両手)に基づいた力覚提示部の動作で把持する力に対応する力覚を提示させる。これにより、情報処理システムでは、ユーザが筐体E1を右手で把持するか、左手で把持するか、または、両手で把持するかに応じた力覚を提示できる。
The microcomputer 120 or the
また、力覚提示部は、筐体E1の重心G1を変動させて力覚を提示する。これにより、情報処理システムでは、重心G1変動に対応する力覚を提示できる。 The force feedback unit also varies the center of gravity G1 of the housing E1 to provide a force feedback. This allows the information processing system to provide a force feedback corresponding to the variation in the center of gravity G1.
また、力覚提示部は、筐体E1を振動させて力覚を提示する。これにより、情報処理システムでは、振動に対応する力覚を提示できる。 The force sense presentation unit also vibrates the housing E1 to present a force sense. This allows the information processing system to present a force sense corresponding to the vibration.
また、コントローラ10は、筐体E1の角度を検出する角度検出部をさらに備える。マイコン120は、検出された筐体の角度に基づき力覚提示部の動作を制御する。これにより、情報処理システムでは、筐体の角度に対応する力覚を提示できる。
The
また、マイコン120は、力覚提示部が所定の力覚を提示した際の検出情報の変動量に基づいて筐体の角度を検出する。これにより、情報処理システムでは、筐体の角度を検出できる。 The microcomputer 120 also detects the angle of the housing based on the amount of variation in the detection information when the force feedback unit presents a predetermined force feedback. This allows the information processing system to detect the angle of the housing.
また、マイコン120は、筐体E1の表面に設けられた複数の圧力センサにおける圧力の検出位置に基づいて筐体E1の表面の所定位置の押下操作を検出する。マイコン120は、所定位置における押下操作の検出の有無に基づき、この所定位置に割り当てられた操作指示の有無を特定する。これにより、情報処理システムでは、筐体E1表面の押下操作に対応する操作指示をユーザより受け付けることができる。 The microcomputer 120 also detects a pressing operation at a predetermined position on the surface of the housing E1 based on the pressure detection positions of multiple pressure sensors provided on the surface of the housing E1. The microcomputer 120 determines whether or not an operation instruction has been assigned to a predetermined position based on whether or not a pressing operation has been detected at the predetermined position. This allows the information processing system to receive an operation instruction from the user that corresponds to a pressing operation on the surface of the housing E1.
また、マイコン120は、力覚提示部の動作を停止している際の、検出情報の変動量に基づいてユーザによる筐体E1の振り動作を推定する。これにより、情報処理システムでは、ユーザが把持している際の筐体E1の振り動作を得ることができる。 The microcomputer 120 also estimates the user's swinging motion of the housing E1 based on the amount of fluctuation in the detection information when the operation of the force feedback unit is stopped. This allows the information processing system to obtain the swinging motion of the housing E1 when it is being held by the user.
また、マイコン120は、推定した筐体E1の振り動作に基づいた力覚提示部の動作で振り動作に対応する力覚を提示させる。これにより、情報処理システムでは、筐体E1の振り動作に対応する力覚を提示できる。 The microcomputer 120 also causes the force sense presentation unit to operate based on the estimated swinging motion of the housing E1 to present a force sense corresponding to the swinging motion. This allows the information processing system to present a force sense corresponding to the swinging motion of the housing E1.
また、制御装置81(App812)は、検出された把持状態に基づいてユーザに仮想空間を提示する表示装置の表示制御を行う。これにより、情報処理システムでは、ユーザの把持状態に対応する仮想空間内での表示を行うことができる。 The control device 81 (App812) also controls the display of the display device that presents the virtual space to the user based on the detected gripping state. This allows the information processing system to display in the virtual space corresponding to the user's gripping state.
(ハードウェア構成例)
上述してきた実施形態にかかる情報処理システム内のコントローラ10、制御装置81およびVRデバイス83等の情報機器は、例えば図30に示すような構成のコンピュータ1000によって実現される。図30は、コンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、SSD(Solid State Drive)1400、通信インタフェース1500および入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
(Hardware configuration example)
Information devices such as the
CPU1100は、ROM1300またはSSD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300またはSSD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
The
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
SSD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータ1000が読み取り可能な記録媒体である。具体的には、SSD1400は、プログラムデータ1450の一例である本開示にかかる通信プログラムを記録する記録媒体である。SSD1400は、HDD(Hard Disk Drive)等の他の非一時的記録媒体であってもよい。
SSD1400 is a recording medium readable by
通信インタフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインタフェースである。例えば、CPU1100は、通信インタフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
The
入出力インタフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインタフェースである。例えば、CPU1100は、入出力インタフェース1600を介して、タッチパネル、キーボード、マウス、マイク、カメラ等の入力デバイスからデータを受信する。また、CPU1100は、入出力インタフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インタフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインタフェースとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The input/
例えば、コンピュータ1000が実施形態にかかる情報処理システム内のコントローラ10、制御装置81およびVRデバイス83として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた通信プログラムを実行することにより、各種機能構成を実現する。また、SSD1400には、本開示にかかるプログラムや、RAM1200内のデータが格納される。なお、CPU1100は、プログラムデータ1450をSSD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
For example, when the
なお、本技術は以下のような構成も取ることができる。
(1)
筐体を把持したユーザに対して前記筐体の重心を変動させて所定の力覚を提示する力覚提示部を有する力覚提示装置について、前記ユーザによる前記筐体の把持状態を検出する把持検出部と、
前記検出された把持状態に基づいて前記力覚提示部の動作を制御する制御部と、を備える、
情報処理システム。
(2)
前記把持検出部は、前記筐体の表面に設けられた複数の圧力センサにおける圧力の検出位置に基づいて前記ユーザの把持位置を検出する、
前記(1)に記載の情報処理システム。
(3)
前記制御部は、検出された前記ユーザの把持位置に基づいた前記力覚提示部の動作で前記把持位置に対応する力覚を提示させる、
前記(2)に記載の情報処理システム。
(4)
前記制御部は、検出された前記ユーザの把持位置の変動量に基づいた前記力覚提示部の動作で前記把持位置の変動に対応する力覚を提示させる、
前記(2)に記載の情報処理システム。
(5)
前記把持検出部は、前記筐体の表面に設けられた圧力センサの検出値に基づいて前記ユーザが把持する力を検出する、
前記(1)~(4)のいずれか一つに記載の情報処理システム。
(6)
前記把持検出部は、前記筐体の表面に設けられた複数の圧力センサにおける圧力の検出範囲に基づいて前記ユーザが把持する力を検出する、
前記(1)~(5)のいずれか一つに記載の情報処理システム。
(7)
前記制御部は、検出された前記ユーザが把持する力に基づいた前記力覚提示部の動作で前記把持する力に対応する力覚を提示させる、
前記(5)または(6)に記載の情報処理システム。
(8)
前記把持検出部は、前記筐体の表面に設けられた複数の圧力センサにおける圧力値が所定値以上の検出範囲に基づいて前記ユーザが把持する範囲を検出する、
前記(1)~(7)のいずれか一つに記載の情報処理システム。
(9)
前記制御部は、検出された前記ユーザが把持する範囲に基づいた前記力覚提示部の動作で前記把持する範囲に対応する力覚を提示させる、
前記(8)に記載の情報処理システム。
(10)
前記把持検出部は、前記筐体を前記ユーザが右手で把持するか、左手で把持するか、または、両手で把持するかを検出する、
前記(1)~(9)のいずれか一つに記載の情報処理システム。
(11)
前記制御部は、検出された前記ユーザが把持する手に基づいた前記力覚提示部の動作で前記把持する力に対応する力覚を提示させる、
前記(10)に記載の情報処理システム。
(12)
前記力覚提示部は、前記筐体を振動させて前記力覚を提示する、
前記(1)~(11)のいずれか一つに記載の情報処理システム。
(13)
前記筐体の角度を検出する角度検出部をさらに備え、
前記制御部は、前記検出された筐体の角度に基づき前記力覚提示部の動作を制御する、
前記(1)~(12)のいずれか一つに記載の情報処理システム。
(14)
前記把持検出部は、前記複数の圧力センサにおける圧力の検出位置に基づいて前記筐体の表面の所定位置の押下操作を検出し、
前記制御部は、前記所定位置における押下操作の検出の有無に基づき、当該所定位置に割り当てられた操作指示の有無を特定する、
前記(2)に記載の情報処理システム。
(15)
前記制御部は、前記力覚提示部の動作を停止している際の、前記筐体の表面に設けられた圧力センサの検出値の変動量に基づいて、前記ユーザによる前記筐体の振り動作を推定する、
前記(1)~(14)のいずれか一つに記載の情報処理システム。
(16)
前記制御部は、推定した前記筐体の振り動作に基づいた前記力覚提示部の動作で前記振り動作に対応する力覚を提示させる、
前記(15)に記載の情報処理システム。
(17)
前記制御部は、前記検出された把持状態に基づいて前記ユーザに仮想空間を提示する表示装置の表示制御を行う、
前記(1)~(16)のいずれか一つに記載の情報処理システム。
(18)
コンピュータが、
筐体を把持したユーザに対して前記筐体の重心を変動させて所定の力覚を提示する力覚提示部を有する力覚提示装置について、前記ユーザによる前記筐体の把持状態を検出し、
前記検出された把持状態に基づいて前記力覚提示部の動作を制御する、
処理を実行する情報処理方法。
(19)
筐体を把持したユーザに対して前記筐体の重心を変動させて所定の力覚を提示する力覚提示部と、
前記筐体の表面に設けられた圧力センサの検出情報に基づいて前記ユーザの把持状態を検出する検出部と、
前記検出された把持状態に基づいて前記力覚提示部の動作を制御する制御部と、を備える、
力覚提示装置。
The present technology can also be configured as follows.
(1)
a gripping detection unit that detects a gripping state of a housing by a user, the gripping detection unit detecting a gripping state of the housing by a user, the gripping detection unit having a gripping state of the housing and a gripping detection unit that detects a gripping state of the housing by a user, the gripping detection unit detecting ...
A control unit that controls an operation of the force feedback unit based on the detected grip state.
Information processing system.
(2)
the grip detection unit detects a grip position of the user based on pressure detection positions of a plurality of pressure sensors provided on a surface of the housing;
The information processing system according to (1) above.
(3)
the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping position by an operation of the force sense presentation unit based on the detected gripping position of the user.
The information processing system according to (2) above.
(4)
the control unit causes the force sense presentation unit to operate based on the detected amount of change in the grip position of the user, to present a force sense corresponding to the change in the grip position.
The information processing system according to (2) above.
(5)
The grip detection unit detects a gripping force of the user based on a detection value of a pressure sensor provided on a surface of the housing.
The information processing system according to any one of (1) to (4).
(6)
The grip detection unit detects a gripping force of the user based on pressure detection ranges of a plurality of pressure sensors provided on a surface of the housing.
The information processing system according to any one of (1) to (5).
(7)
the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping force by an operation of the force sense presentation unit based on the detected gripping force of the user.
The information processing system according to (5) or (6).
(8)
the grip detection unit detects a gripping range of the user based on a detection range in which a pressure value of a plurality of pressure sensors provided on a surface of the housing is equal to or greater than a predetermined value;
The information processing system according to any one of (1) to (7).
(9)
the control unit causes the force sense presentation unit to present a force sense corresponding to the range grasped by the user through an operation based on the detected range grasped by the user.
The information processing system according to (8) above.
(10)
The grip detection unit detects whether the user grips the housing with his/her right hand, his/her left hand, or his/her both hands.
The information processing system according to any one of (1) to (9).
(11)
The control unit causes the force sense presentation unit to present a force sense corresponding to the gripping force by an operation based on the detected hand of the user gripping the object.
The information processing system according to (10) above.
(12)
The force sense presentation unit presents the force sense by vibrating the housing.
The information processing system according to any one of (1) to (11).
(13)
An angle detection unit that detects an angle of the housing is further provided,
The control unit controls an operation of the force sense presentation unit based on the detected angle of the housing.
The information processing system according to any one of (1) to (12).
(14)
the grip detection unit detects a pressing operation at a predetermined position on a surface of the housing based on pressure detection positions of the plurality of pressure sensors;
the control unit determines whether or not an operation instruction assigned to the predetermined position is present based on whether or not a pressing operation is detected at the predetermined position.
The information processing system according to (2) above.
(15)
the control unit estimates a shaking motion of the housing by the user based on an amount of change in a detection value of a pressure sensor provided on a surface of the housing while the operation of the force sense presentation unit is stopped.
The information processing system according to any one of (1) to (14).
(16)
the control unit causes the force sense presentation unit to present a force sense corresponding to the swinging motion by an operation based on the estimated swinging motion of the housing;
The information processing system according to (15) above.
(17)
The control unit performs display control of a display device that presents a virtual space to the user based on the detected grip state.
The information processing system according to any one of (1) to (16).
(18)
The computer
A force sense presentation device includes a force sense presentation unit that presents a predetermined force sense to a user holding a housing by varying a center of gravity of the housing, and detects a state in which the housing is held by the user;
controlling an operation of the force sense presentation unit based on the detected gripping state;
An information processing method for performing processing.
(19)
a force feedback unit that changes a center of gravity of a housing to provide a predetermined force feedback to a user holding the housing;
a detection unit that detects a gripping state of the user based on detection information from a pressure sensor provided on a surface of the housing;
A control unit that controls an operation of the force feedback unit based on the detected grip state.
Force feedback device.
10、10a~10g…コントローラ
81…制御装置
82…カメラ
83…VRデバイス
110…圧力検出部
110a~110e、110i…圧力分布センサ
110f、110h…高分解能圧力分布センサ
110g…低分解能圧力分布センサ
110j…静電容量式タッチパッド
110k~110q…抵抗膜方式タッチパッド
111、111a、111b…圧力分布
112…仮想操作ボタン
113、113a、113b…操作ボタン
120…マイコン
130…重心可変部
140…振動提示部
150…バッテリ
812…App
813…SDK
1000…コンピュータ
1050…バス
1100…CPU
1200…RAM
1300…ROM
1400…SSD
1450…プログラムデータ
1500…通信インタフェース
1550…外部ネットワーク
1600…入出力インタフェース
1650…入出力デバイス
a~d、C1~C19…ケース
E1…筐体
G1…重心
G2…手の中心
H1、H2…手
L1…フィードバックループ
V1…仮想ショットガン
V2…仮想ホース
V3…仮想刀
V4…仮想楽器
V5…仮想拳銃
10, 10a to 10g...
813…SDK
1000...
1200...RAM
1300...ROM
1400...SSD
1450...
Claims (19)
前記検出された把持状態に基づいて前記力覚提示部の動作を制御する制御部と、を備える、
情報処理システム。 a gripping detection unit that detects a gripping state of a housing by a user, the gripping detection unit detecting a gripping state of the housing by a user, the gripping detection unit having a gripping state of the housing and a gripping detection unit that detects a gripping state of the housing by a user, the gripping detection unit detecting ...
A control unit that controls an operation of the force feedback unit based on the detected grip state.
Information processing system.
請求項1に記載の情報処理システム。 the grip detection unit detects a grip position of the user based on pressure detection positions of a plurality of pressure sensors provided on a surface of the housing;
The information processing system according to claim 1 .
請求項2に記載の情報処理システム。 the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping position by an operation of the force sense presentation unit based on the detected gripping position of the user.
The information processing system according to claim 2 .
請求項2に記載の情報処理システム。 the control unit causes the force sense presentation unit to operate based on the detected amount of change in the grip position of the user, to present a force sense corresponding to the change in the grip position.
The information processing system according to claim 2 .
請求項1に記載の情報処理システム。 The grip detection unit detects a gripping force of the user based on a detection value of a pressure sensor provided on a surface of the housing.
The information processing system according to claim 1 .
請求項1に記載の情報処理システム。 The grip detection unit detects a gripping force of the user based on pressure detection ranges of a plurality of pressure sensors provided on a surface of the housing.
The information processing system according to claim 1 .
請求項5または6に記載の情報処理システム。 the control unit causes the force sense presentation unit to present a force sense corresponding to the gripping force by an operation of the force sense presentation unit based on the detected gripping force of the user.
7. The information processing system according to claim 5 or 6.
請求項1に記載の情報処理システム。 the grip detection unit detects a gripping range of the user based on a detection range in which a pressure value of a plurality of pressure sensors provided on a surface of the housing is equal to or greater than a predetermined value;
The information processing system according to claim 1 .
請求項8に記載の情報処理システム。 the control unit causes the force sense presentation unit to present a force sense corresponding to the range grasped by the user through an operation based on the detected range grasped by the user.
The information processing system according to claim 8.
請求項1に記載の情報処理システム。 The grip detection unit detects whether the user grips the housing with his/her right hand, his/her left hand, or his/her both hands.
The information processing system according to claim 1 .
請求項10に記載の情報処理システム。 The control unit causes the force sense presentation unit to present a force sense corresponding to the gripping force by an operation based on the detected hand of the user gripping the object.
The information processing system according to claim 10.
請求項1に記載の情報処理システム。 The force sense presentation unit presents the force sense by vibrating the housing.
The information processing system according to claim 1 .
前記制御部は、前記検出された筐体の角度に基づき前記力覚提示部の動作を制御する、
請求項1に記載の情報処理システム。 An angle detection unit that detects an angle of the housing is further provided,
The control unit controls an operation of the force sense presentation unit based on the detected angle of the housing.
The information processing system according to claim 1 .
前記制御部は、前記所定位置における押下操作の検出の有無に基づき、当該所定位置に割り当てられた操作指示の有無を特定する、
請求項2に記載の情報処理システム。 the grip detection unit detects a pressing operation at a predetermined position on a surface of the housing based on pressure detection positions of the plurality of pressure sensors;
the control unit determines whether or not an operation instruction assigned to the predetermined position is present based on whether or not a pressing operation is detected at the predetermined position.
The information processing system according to claim 2 .
請求項1に記載の情報処理システム。 the control unit estimates a shaking motion of the housing by the user based on an amount of change in a detection value of a pressure sensor provided on a surface of the housing while the operation of the force sense presentation unit is stopped.
The information processing system according to claim 1 .
請求項15に記載の情報処理システム。 the control unit causes the force sense presentation unit to present a force sense corresponding to the swinging motion by an operation based on the estimated swinging motion of the housing;
16. The information processing system according to claim 15.
請求項1に記載の情報処理システム。 The control unit performs display control of a display device that presents a virtual space to the user based on the detected grip state.
The information processing system according to claim 1 .
筐体を把持したユーザに対して前記筐体の重心を変動させて所定の力覚を提示する力覚提示部を有する力覚提示装置について、前記ユーザによる前記筐体の把持状態を検出し、
前記検出された把持状態に基づいて前記力覚提示部の動作を制御する、
処理を実行する情報処理方法。 The computer
A force sense presentation device includes a force sense presentation unit that presents a predetermined force sense to a user holding a housing by varying a center of gravity of the housing, and detects a state in which the housing is held by the user;
controlling an operation of the force sense presentation unit based on the detected gripping state;
An information processing method for performing a process.
前記筐体の表面に設けられた圧力センサの検出情報に基づいて前記ユーザの把持状態を検出する検出部と、
前記検出された把持状態に基づいて前記力覚提示部の動作を制御する制御部と、を備える、
力覚提示装置。 a force feedback unit that changes a center of gravity of a housing to provide a predetermined force feedback to a user holding the housing;
a detection unit that detects a gripping state of the user based on detection information from a pressure sensor provided on a surface of the housing;
A control unit that controls an operation of the force feedback unit based on the detected grip state.
Force feedback device.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202363516401P | 2023-07-28 | 2023-07-28 | |
| US63/516,401 | 2023-07-28 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025028139A1 true WO2025028139A1 (en) | 2025-02-06 |
Family
ID=94394491
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/024025 Pending WO2025028139A1 (en) | 2023-07-28 | 2024-07-03 | Information processing system, information processing method, and force sense presentation device |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025028139A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010086411A (en) * | 2008-10-01 | 2010-04-15 | Canon Inc | Information processing apparatus, and information processing method |
| WO2017094211A1 (en) * | 2015-12-04 | 2017-06-08 | ソニー株式会社 | Sense of force presentation device, recognition device, control device, and sense of force presentation method |
| US20190196589A1 (en) * | 2017-12-22 | 2019-06-27 | Lg Electronics Inc. | Mobile terminal |
| US20200174572A1 (en) * | 2016-09-20 | 2020-06-04 | Apple Inc. | Touch-based input device with haptic feedback |
| WO2020184769A1 (en) * | 2019-03-13 | 2020-09-17 | 플레이스비 주식회사 | Haptic controller and system and method for providing haptic feedback using same |
-
2024
- 2024-07-03 WO PCT/JP2024/024025 patent/WO2025028139A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010086411A (en) * | 2008-10-01 | 2010-04-15 | Canon Inc | Information processing apparatus, and information processing method |
| WO2017094211A1 (en) * | 2015-12-04 | 2017-06-08 | ソニー株式会社 | Sense of force presentation device, recognition device, control device, and sense of force presentation method |
| US20200174572A1 (en) * | 2016-09-20 | 2020-06-04 | Apple Inc. | Touch-based input device with haptic feedback |
| US20190196589A1 (en) * | 2017-12-22 | 2019-06-27 | Lg Electronics Inc. | Mobile terminal |
| WO2020184769A1 (en) * | 2019-03-13 | 2020-09-17 | 플레이스비 주식회사 | Haptic controller and system and method for providing haptic feedback using same |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5022385B2 (en) | Gesture catalog generation and recognition | |
| JP4553917B2 (en) | How to get input to control the execution of a game program | |
| JP4044114B2 (en) | Grasping computer interactive device | |
| JP5164226B2 (en) | Touch panel input auxiliary device, computer operation method using the same device, and tactile sensation-linked program | |
| CN101484221B (en) | Obtain input for controlling the execution of the game program | |
| US7782297B2 (en) | Method and apparatus for use in determining an activity level of a user in relation to a system | |
| CN101479782B (en) | Multi-Input Game Control Mixer | |
| JP5726811B2 (en) | Method and apparatus for use in determining lack of user activity, determining user activity level, and / or adding a new player to the system | |
| CN102789325A (en) | Stylus based haptic peripheral for touch screen and tablet devices | |
| CN102841700A (en) | Haptic device for 3-D gaming | |
| US11880528B2 (en) | Stimulus transmission device | |
| JP2011059862A (en) | Non-grounded inner force sense presentation device | |
| US11003247B1 (en) | Deployable controller | |
| WO2025028139A1 (en) | Information processing system, information processing method, and force sense presentation device | |
| TW202248810A (en) | Virtual reality control method for avoiding occurrence of motion sickness | |
| JP7248720B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
| JP2023133635A (en) | Information processing device, tactile presentation system and program | |
| JPWO2020111155A1 (en) | Information processing device, its control method, and program | |
| JP7176040B2 (en) | Information processing device, information processing method, and program | |
| TWI469000B (en) | Apparatus, method, and system for controlling electronic device and mouse | |
| GB2619543A (en) | Input mapping modification system and method | |
| JP2020537770A (en) | Electronic body percussion | |
| JP2020177398A (en) | Force presentation system, force presentation device, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24848798 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2025537766 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025537766 Country of ref document: JP |