WO2018110433A1 - 情報処理システム、振動制御方法、及びプログラム - Google Patents
情報処理システム、振動制御方法、及びプログラム Download PDFInfo
- Publication number
- WO2018110433A1 WO2018110433A1 PCT/JP2017/044073 JP2017044073W WO2018110433A1 WO 2018110433 A1 WO2018110433 A1 WO 2018110433A1 JP 2017044073 W JP2017044073 W JP 2017044073W WO 2018110433 A1 WO2018110433 A1 WO 2018110433A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- controller device
- correction
- information processing
- vibrating body
- control signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1018—Calibration; Key and button assignment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1081—Input via voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/302—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Definitions
- the present invention relates to an information processing system, a vibration control method, and a program.
- controller devices that users use by attaching to or holding on their bodies, such as controller devices used by connecting to information processing devices such as home game machines, Some have a vibration mechanism for vibrating part or all of them.
- An information processing apparatus such as a home game machine outputs waveform information representing a temporal change in vibration amplitude to such a vibration mechanism and causes vibration based on the waveform information. Thereby, the controller device can be vibrated at an arbitrary timing to present the vibration to the user.
- the resonance frequency may be generated because the frequency of vibration matches the natural frequency of the housing, etc., of the controller device or the object (desk, etc.) with which the housing is in contact.
- the vibration mechanism generates vibration by moving the position of the weight, such as a linear actuator, the weight may have been moved in the vibration direction in advance due to the gravity of the controller device, for example.
- a mechanical hitting sound such as a tick is generated due to the weight hitting the exterior of the vibration mechanism or the like.
- Unintentional sound (hereinafter referred to as abnormal sound) caused by such vibrations may be undesirable because it presents an unintended sense to the user.
- the present invention has been made in view of the above circumstances, and an object of the present invention is to provide an information processing system, a vibration control method, and a program that can suppress the generation of abnormal noise due to vibration.
- the present invention for solving the problems of the conventional example is an information processing system including a controller device including at least one vibrating body and an information processing apparatus that outputs a control signal of the vibrating body to the controller device. Then, during the vibration of the vibrating body, using the detection means for detecting the vibration state of the controller device and the information indicating the detected vibration state, it is determined whether or not abnormal noise is generated in the controller device. And when the controller device determines that an abnormal sound has occurred in the controller device, the control device performs a correction process on the control signal of the vibrating body, and performs the correction process. The corrected control signal is output.
- the information processing system 1 includes an information processing apparatus 10 and a controller device 20.
- the information processing apparatus 10 is a computer device such as a home game machine, and the controller device 20 is connected to the information processing apparatus 10.
- the controller device 20 is attached and fixed to the left or right hand of the user.
- the controller device 20 fixed to the user's left hand is referred to as the controller device 20L
- the controller device 20 fixed to the user's right hand is distinguished from the controller device 20R by the reference numerals L and R respectively.
- An example of the controller device 20 includes a device main body 210 and a fixture 220 fixed to the device main body 210 as illustrated in FIG. Further, as shown in FIG. 2, the controller device 20 includes a control unit 21, a storage unit 22, an operation interface 23, a sensor unit 24, a vibrating body 25, and a communication unit 26 in the device main body 210. It is comprised including the circuit part containing.
- the device main body 210 may be the same in shape that is attached to the left hand of the user and that attached to the right hand of the user.
- the fixture 220 has, for example, a flexible belt and buckle, and forms an annular portion whose diameter can be adjusted by the belt and the buckle. Then, the user passes the index finger to the little finger through the annular part, and the annular part is fixed at a position where the device main body 210 is in contact with the base of the user's thumb (position corresponding to the MP joint of the little finger to the little finger). Adjust the diameter appropriately and fix with a buckle.
- the device main body 210 includes a gripping part 211 gripped by a user, an operation part 212, and a position presentation part 213.
- the gripping portion 211 has a substantially polygonal column shape.
- the operation unit 212 is formed continuously from the grip unit 211, and includes a button operation unit 231 in the example of FIG.
- the position presentation unit 213 is arranged on the back side of the device main body 210 (on the thumb side when fixed to the user's hand) and includes at least one light emitting element such as an LED. It is assumed that the position presentation unit 213 emits light of a predetermined color unique to each controller device 20 during operation of the controller device 20. Further, the position presentation unit 213 only needs to be able to detect the position of each controller device 20 such as a color marker unique to each controller device 20 from the outside, and is not necessarily a light emitting element.
- the size of the controller device 20 is such that when the user naturally holds the device main body 210, one end thereof is positioned slightly outside the position where the tip of the user's thumb reaches, and the other end is the little finger. A certain size is set at a position slightly protruding from the base (position corresponding to the MP joint). Even if the user opens his / her hand with the controller device 20 mounted, the controller device 20 is fixed to the user's hand by the fixing tool 220, and therefore does not fall.
- the control unit 21 of the present embodiment is a program control device such as a CPU, and operates according to a program stored in the storage unit 22.
- the control unit 21 receives input of information representing the content of the operation performed by the user on the operation unit 212 from the operation interface 23, and processes the information representing the content of the operation via the communication unit 26. Output to the device 10. Further, the control unit 21 outputs information output from the sensors included in the sensor unit 24 to the information processing apparatus 10 via the communication unit 26.
- the storage unit 22 is a memory device or the like, and holds a program executed by the control unit 21. This program may be provided by being stored in a computer-readable non-transitory storage medium and copied to the storage unit 22.
- the storage unit 22 also operates as a work memory for the control unit 21.
- the operation interface 23 outputs information representing the content of the operation performed by the user at the operation unit 212 to the control unit 21.
- the sensor unit 24 includes at least one sensor and outputs information output from the sensor to the control unit 21.
- the sensor unit 24 includes an inclination sensor 241 that detects the inclination of the device body 210 of the controller device 20 and an acceleration sensor 242 that detects the movement of the controller device 20. Further, the sensor unit 24 may include a grip force sensor 243.
- the longitudinal direction of the controller device 20 is the Z axis
- the direction in which the user's finger is to be located is the X axis in the plane having the Z axis as a normal line
- the direction perpendicular to the X axis in the above plane is the Y axis.
- the tilt sensor 241 detects and outputs information on the rotation angles of the device main body 210 around the X, Y, and Z axes.
- the acceleration sensor 242 detects accelerations in the X, Y, and Z axes applied to the controller device 20 and outputs the detection results.
- the vibrator 25 receives the input of the waveform information representing the time change of the vibration amplitude as the control signal from the control unit 21, and vibrates based on the instructed waveform information.
- the vibrating body 25 is a linear actuator, a vibrator, a speaker, or the like that obtains vibration by rotating an eccentric weight.
- the vibrating body 25 may vibrate the device body 210 in one axial direction, or may be vibrated in multiple directions by including a plurality of linear actuators in the multiaxial direction.
- the controller device 20 may include a plurality of vibrating bodies 25 in the device main body 210.
- the communication unit 26 is a wired interface such as a USB interface or a wireless interface such as Bluetooth (registered trademark), and outputs various information to the information processing apparatus 10 in accordance with instructions input from the control unit 21. .
- the information processing apparatus 10 includes a control unit 11, a storage unit 12, an interface unit 13, an imaging unit 14, a sound collection unit 15, and an output unit 16. Yes.
- the control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12.
- the storage unit 12 is a memory device or the like and holds a program executed by the control unit 11. This program may be provided by being stored in a computer-readable non-transitory storage medium and copied to the storage unit 12.
- the storage unit 12 also operates as a work memory for the control unit 11.
- the interface unit 13 is connected to the controller device 20 wirelessly or by wire, receives information representing the contents of the user's operation from the controller device 20 and information output by the sensor unit 24 and outputs the information to the control unit 11.
- the imaging unit 14 is a camera or the like installed with the range where the user is positioned as the imaging range, and repeatedly captures images including the user at predetermined timings, and outputs data of the images to the control unit 11.
- the sound collection unit 15 realizes an example of a means for detecting the vibration state of the controller device 20 in the present invention.
- the sound collection unit 15 is a microphone, collects surrounding sounds where the user is located, and outputs the sound as an audio signal.
- the sound collecting unit 15 collects sound (information representing a vibration state) generated when the controller device 20 vibrates.
- the output unit 16 has an interface for outputting video and the like to a home television, such as an HDMI (registered trademark) interface.
- the output unit 16 outputs information on a video to be displayed in accordance with an instruction input from the control unit 11.
- the control unit 11 of the information processing apparatus 10 receives a vibration instruction for the controller device 20 from an application program such as a game and generates a control signal.
- This control signal is, for example, waveform information that represents a change in vibration amplitude over time, like an audio signal.
- a widely known method can be used, and a detailed description thereof will be omitted here.
- the controller device 20 includes a plurality of vibrating bodies 25, a control signal is generated for each vibrating body 25.
- separate controller devices 20L and R are mounted on the left and right hands of the user, control signals are generated for the respective vibrating bodies 25 of the respective controller devices 25L and R.
- the control unit 11 holds the generated waveform information. Further, the control unit 21 uses the audio signal collected by the sound collection unit 15 to determine whether or not an abnormal sound is generated in the controller device 20. When it is determined that an abnormal sound is generated in the controller device 20, the control unit 21 performs a correction process on the waveform information that is the control signal that is held, and is corrected by the correction process. The corrected waveform information which is a control signal is output.
- the control unit 11 includes a waveform information input unit 41, a determination unit 42, a correction control unit 43, a correction processing unit 44, and an output unit 45 as illustrated in FIG. Composed.
- the waveform information input unit 41 receives input of waveform information, which is a control signal of the vibrating body 25, generated by receiving a vibration instruction to the controller device 20 from a game application or the like.
- the determination unit 42 outputs the sound collection unit 15 while the vibration body 25 vibrates in the controller device 20 (when there are a plurality of vibration bodies 25, any vibration body 25 vibrates). Using the audio signal, it is determined whether or not an abnormal sound is generated in the controller device 20. Specifically, the determination unit 42 checks the volume change of the audio signal output from the sound collection unit 15 while the vibrating body 25 is vibrating in the controller device 20, and the volume change satisfies a predetermined condition. In this case, it is determined that an unintended sound (abnormal sound) is generated in the controller device 20.
- the predetermined condition is, for example, the case of the controller device 20 or the controller device 20 experimentally such that the volume change is periodic or continuous and the maximum volume exceeds a predetermined volume. It is defined that the object such as a desk in contact with the housing corresponds to a change in volume of sound generated when the object resonates with the vibration of the vibrating body 25.
- the correction control unit 43 stores a correction recording table illustrated in FIG.
- This correction record table is stored for each controller device 20 (for each controller device 20 when worn on the left and right hands. For each user, that is, for each user, that is, between the information processing apparatuses 10. With respect to information (vibrating body identification information) for specifying each vibrating body 25 of each controller device 20 communicating with The control signal has not been corrected in the past (uncorrected), Currently trying to correct the control signal (during trial), Ended the trial of whether or not to correct (end of trial), Currently correcting the control signal (during correction), The control signal has been corrected in the past, but is not currently corrected (correction has been attempted), This is a data table in which flag information representing any of the above is recorded in association with each other. Note that the information processing apparatus 1 is reset at a predetermined timing such as when the power is turned on or when the application program is switched, and the flags associated with all the vibrator identification information are set to “uncorrected”.
- the correction control unit 43 operates as follows when the determination unit 42 determines that an abnormal sound is generated in the controller device 20. That is, the correction control unit 43 specifies the vibrating body 25 that vibrates when the determination unit 42 determines that an abnormal sound is occurring. Specifically, it is determined which vibrator 25 is outputting the control signal at that time.
- the correction control unit 43 refers to the correction recording table, and if there is vibrator identification information associated with the flag information of “end of trial” at the time when the judgment unit 42 determines that an abnormal sound has occurred, the vibration control body 43 An instruction to cancel the correction for the vibrating body 25 specified by the identification information is output to the correction processing unit 44, and the flag information associated with the vibrating body identification information is changed to “correction tried”, and correction recording is performed. Update the table.
- the correction control unit 43 also refers to the correction recording table, and among the vibrating bodies 25 identified as vibrating at the time when the determination unit 42 determines that an abnormal sound has occurred, an “uncorrected” flag
- the vibrator identification information associated with the information is extracted.
- the vibration body identification information includes information for specifying the controller device 20 including the vibration body 25 and identification information for the vibration body 25 in the controller device 20 specified by the information.
- the correction control unit 43 starts a correction trial process.
- the correction control unit 43 sequentially selects one of the extracted vibration body identification information (in an order determined by a predetermined method) if only one vibration body identification information is extracted. The vibration body identification information is selected), and the flag information stored in the correction recording table in association with the selected vibration body 25 is changed to “being trial”. Then, the correction control unit 43 outputs the selected vibrating body identification information to the correction processing unit 44 together with an instruction to perform correction.
- the correction control unit 43 checks whether or not the determination unit 42 determines that an abnormal sound is still occurring.
- the correction control unit 43 refers to the correction recording table if the determination unit 42 has not determined that an abnormal sound has occurred, and sets the flag information that is “trial in progress” at that time to “correcting”. ”,
- the correction recording table is updated, and the correction trial process is terminated.
- the correction control unit 43 refers to the correction recording table and performs the following process. That is, the correction control unit 43 associates the flag information with the flag information if the correction recording table includes flag information that is “trying” when the determination unit 42 determines that an abnormal sound is still occurring. An instruction to further correct the vibration body 25 specified by the vibration body identification information is output to the correction processing unit 44.
- the correction control unit 43 sets the flag information to “ The correction record table is updated after changing to “Trial correction completed”.
- an instruction to cancel the correction for the vibrating body 25 specified by the vibrating body identification information associated with the flag information changed to “correction tried” is output to the correction processing unit 44. Then, the correction control unit 43 returns to the process of selecting one of the previously extracted vibrating body identification information if there is unselected vibrating body identification information, and continues the process.
- the correction control unit 43 ends the correction trial process. In this case, the occurrence of abnormal noise cannot be suppressed.
- the correction processing unit 44 refers to the correction recording table, for example, at a predetermined timing such as when the power is turned on, and displays a list of vibration body identification information associated with the “correcting” or “trial” flag, Store as body identification information.
- the correction processing unit 44 when the correction processing unit 44 receives the vibration body identification information from the correction control unit 43 together with an instruction to perform correction, the correction processing unit 44 adds the vibration body identification information to the correction target vibration body identification information list. When receiving the vibration body identification information together with an instruction to cancel the correction from the correction control unit 43, the vibration body identification information is removed from the correction target vibration body identification information list.
- the correction processing unit 44 receives an input of a control signal for each vibrating body 25 from the waveform information input unit 41. Then, the correction processing unit 44 refers to the correction target vibration body identification information list, corrects the control signal for the vibration body 25 identified by the vibration body identification information included in the list by a predetermined method, and performs the correction. Are output to the output unit 45. Further, the control signal for the vibrating body 25 identified by the vibrating body identification information not included in this list is output to the output unit 45 as it is.
- the correction method performed by the correction processing unit 44 can be, for example, correction that attenuates the amplitude of the waveform represented by the waveform information that is the control signal.
- the correction processing unit 44 When the correction processing unit 44 receives an instruction from the correction control unit 43 that further correction is to be performed, the correction processing unit 44 refers to the correction recording table and changes the “trial in progress” flag to “trial end”.
- a plurality of different correction methods are determined in advance, and each time the correction processing unit 44 receives an instruction to perform correction from the correction control unit 43, any one of the plurality of predetermined methods is determined. It is good also as correcting by the method.
- the correction processing unit 44 when the correction processing unit 44 receives an instruction to perform further correction from the correction control unit 43, the correction processing unit 44 refers to the correction target vibration body identification information list and is identified by the vibration body identification information included in the list.
- the control signal for the vibrating body 25 is corrected by a method different from the correction method tried so far, and the corrected control signal is output to the output unit 45.
- Such a plurality of different correction methods can be corrections that attenuate the amplitude of the waveform represented by the waveform information that is the control signal, for example, with different attenuation rates.
- the correction processing unit 44 receives an instruction from the correction control unit 43 to further correct the control signal for the vibrating body 25 during the correction trial, the correction processing unit 44 is higher than the attenuation rate so far.
- the waveform amplitude is attenuated by the attenuation rate.
- a plurality of different correction methods include correction for changing the attenuation rate of the amplitude of the waveform represented by the waveform information that is the control signal, correction for changing the frequency instead of correcting the amplitude, and so on.
- the aspect itself may be different.
- the correction processing unit 44 further controls the vibrator 25 identified by the vibrator identification information included in the correction target vibrator identification information list when receiving an instruction to perform further correction from the correction control unit 43. If all the predetermined correction methods have already been tried for the signal and cannot be corrected by a method different from the previous correction method, refer to the correction record table and select "" Flag is changed to "End of trial".
- the output unit 45 receives an input of a control signal for each vibrating body 25.
- This control signal may include a control signal corrected by the correction processing unit 44.
- the output unit 45 sends these control signals to the corresponding controller device 20 together with the vibration body identification information for identifying the corresponding vibration body 25.
- This embodiment has the above-described configuration, for example, and operates as follows.
- the information processing apparatus 10 generates a control signal that vibrates the controller device 20 in accordance with an application program such as a game.
- the information processing apparatus 10 initially transmits this control signal as it is to the controller device 20 (S1).
- the control signal indicates, for example, a vibration for a maximum of 0.5 seconds.
- a vibration exceeding 0.5 seconds is instructed, a plurality of control signals are sequentially generated and transmitted.
- Shall. In FIG. 6, this state is represented by describing a broken line during the vibration operation (S2, S11).
- the controller device 20 vibrates the vibrating body 25 according to the waveform information that is a control signal (S2).
- the information processing apparatus 10 refers to the surrounding audio signal collected by the sound collection unit 15 while the vibrating body 25 is vibrating in the controller device 20 and determines whether or not an abnormal sound is generated ( S3).
- step S3 If it is determined that no abnormal noise has occurred (S3: No), the processing is continued as it is (S4). On the other hand, if it is determined in step S3 that an abnormal sound has occurred (S3: Yes), the vibrating body 25 vibrating at the time of the determination is specified (S5).
- the information processing apparatus 10 refers to the correction recording table and searches for the vibrator identification information associated with the flag information of “trial” when it is determined that abnormal noise has occurred. Since it is not a “trying” flag, nothing is done here.
- the information processing apparatus 10 refers to the correction recording table, and is associated with the flag information “uncorrected” among the vibrating bodies 25 identified as vibrating when it is determined that abnormal noise has occurred.
- the vibration body identification information is extracted (S6).
- the information processing apparatus 10 starts correction trial processing (S7).
- This correction trial process is illustrated in FIG.
- the information processing apparatus 10 sequentially selects one of the vibrator identification information extracted in the process S6 of FIG. 6 in a predetermined order (S21), and corrects the information in association with the selected vibrator 25.
- the flag information stored in the recording table is changed to “trying” (S22).
- the information processing apparatus 10 adds the vibration body identification information selected in step S21 to the correction target vibration body identification information list. Then, among the generated control signals for the vibrator 25, the control signal for the vibrator 25 identified by the vibrator identification information included in the correction target vibrator identification information list is corrected by a predetermined method (S23), and the controller device 20 (S24). Note that the control signal for the vibrating body 25 identified by the vibrating body identification information included in the correction target vibrating body identification information list is sent without being corrected.
- the vibration body 25 identified by the vibration body identification information included in the correction target vibration body identification information list vibrates according to the waveform information represented by the corrected control signal.
- the controller device 20 uses the vibrator identification information included in the correction target vibrator identification information list. As for No. 25, it vibrates at an intensity attenuated from the intensity designated by the game application or the like.
- the information processing apparatus 10 refers to the surrounding audio signal collected by the sound collecting unit 15 and determines whether or not an abnormal sound is generated (S25). If it is not determined that an abnormal sound has occurred (S25: No), the information processing apparatus 10 refers to the correction recording table, and sets the flag information that is “being trial” at that time to “correcting”. The correction recording table is updated (S26), and the correction trial process is terminated.
- step S25 when the information processing apparatus 10 determines in step S25 that an abnormal sound is still occurring (S25: Yes), the information processing apparatus 10 refers to the correction recording table and sets the flag information “at trial” at that time as “ Change to "End of trial” and update the correction recording table (S27). Further, correction of the vibrating body 25 specified by the vibrating body identification information associated with the flag information changed to “end of trial” is canceled (S28), and the vibrating body identification information is deleted from the correction target vibrating body identification information list. To do.
- the information processing apparatus 10 returns to the process S21, returns to the process of selecting one of the unselected vibrator identification information, and continues the process. If there is no unselected vibrator identification information in the process S21, the correction trial process is terminated.
- the information processing apparatus 10 When the information processing apparatus 10 that has returned from the correction trial process receives an instruction to generate a control signal that vibrates the controller device 20 during the execution of the game application program or the like, as illustrated in FIG. Next, a control signal for vibrating the controller device 20 is generated (S8). And the information processing apparatus 10 correct
- the vibrating body 25 identified by the vibrating body identification information included in the correction target vibrating body identification information list vibrates according to the waveform information represented by the corrected control signal (S11).
- the information processing apparatus 10 returns to the process S3 and continues the process.
- the condition for determining whether or not the information processing apparatus 10 is generating abnormal noise is that the volume change is periodic or continuous and the maximum volume exceeds a predetermined volume. Although this is a condition, the present embodiment is not limited to this.
- the information processing apparatus 10 may determine that an abnormal sound is generated under the condition that a sound having a predetermined frequency exceeds a predetermined volume in place of or in addition to the above condition.
- This frequency is determined in advance as a natural frequency of a member that may vibrate in the controller device 20, such as the housing of the vibrating body 25 or the housing of the controller device 20 that is vibrating.
- abnormal noise due to collision of weights is not limited to the case where a member that may vibrate in the controller device 20 or an object that is in contact with the controller device 20 resonates.
- the weight that is movable inside may be already pulled by gravity before the vibration and biased to one side in the housing. If vibration control is performed at this time, depending on the amount of movement of the weight, the weight collides with the inner wall of the housing of the vibrating body 25 (so-called “mechanism”), and a periodic metal sound “tick” is generated. May occur. Such a metal sound is also an unintended sound and an abnormal sound.
- the vibration near the frequency of the natural vibration of the linear actuator itself (the natural vibration of the mechanism itself that vibrates the weight) may become excessive, and the weight may collide with the inner wall of the casing of the vibrating body 25. Therefore, for the abnormal sound in this example, instead of the correction for attenuating the amplitude as described above, the waveform represented by the waveform information as the control signal is in the vicinity of the natural frequency f0 (band of f0 ⁇ ⁇ f). It is preferable to perform correction for attenuating the components (band attenuation filtering as illustrated in FIG. 8).
- the amount of attenuation in the band near f0 may not be a value close to 100%, and may be determined empirically.
- the determination unit 42 determines whether or not the controller device 20 is generating abnormal noise
- the condition regarding the abnormal noise due to resonance (the first condition) is included.
- a periodic metal sound “tick ...” is generated (whether or not the corresponding waveform signal is included in the audio signal collected by the sound collecting unit 15).
- a sound condition (second condition) is used.
- judgment part 42 in this example is the information showing whether the audio
- the correction control unit 43 When the determination unit 42 outputs information indicating that the first condition is satisfied or information indicating that the second condition is satisfied, the correction control unit 43 outputs the information indicating that the second condition is satisfied to the controller device 20. It is assumed that abnormal noise has occurred.
- the correction control unit 43 in this example changes the flag information stored in any of the correction recording tables to “trying”, the information output from the determination unit 42 is the first flag information.
- Information indicating whether the condition is satisfied or information indicating that the second condition is satisfied is included. That is, information indicating whether abnormal noise is generated due to resonance or abnormal noise due to the mechanism is included.
- the determination unit 42 when the correction control unit 43 changes the flag information indicating “being trial” to “being corrected” and updates the correction recording table, the determination unit 42 also sets the flag information “being corrected” to the flag information “correcting”.
- Information indicating whether the output information is information indicating that the first condition is satisfied or information indicating that the second condition is satisfied is included. That is, information indicating whether abnormal noise is generated due to resonance or abnormal noise due to the mechanism is included.
- the correction processing unit 44 refers to the flag information stored in the correction recording table in association with the vibration body identification information of the vibration body 25 to be corrected, and abnormal noise due to resonance is detected. Information indicating whether or not an abnormal noise has occurred is read out. As described above, the correction processing unit 44 uses the waveform information that is the control signal for the control signal to the vibration body 25 of the vibration body identification information associated with the information that abnormal noise is generated due to resonance. Correction is performed to attenuate the amplitude of the waveform to be represented.
- a component near the natural frequency f0 is attenuated (a signal having a frequency near f0). It is preferable to perform correction (which performs band-attenuation filtering).
- a well-known signal processing method can be adopted, and detailed description thereof is omitted here.
- control signal for the vibrating body 25 that generates abnormal noise due to resonance is corrected to attenuate the amplitude in order to suppress the resonance, and the control signal for the vibrating body 25 that generates abnormal noise due to mechanical contact. Is corrected to attenuate the band near the natural frequency. That is, correction corresponding to the cause of each abnormal noise occurrence is performed.
- the control unit 11 of the information processing apparatus 10 assigns to any one of the controller devices 20 as processing of the determination unit 42.
- the sound collecting unit 15 of the information processing apparatus 10 includes a plurality of microphones arranged at predetermined positions that are separated from each other. Then, the distance between each microphone and the source of the abnormal sound is estimated based on the ratio of the abnormal sound included in the audio signal collected by each microphone, and the abnormal sound is generated from the information on the plurality of distances.
- the position of the existing controller device 20 or the position of the vibrating body 25 in the controller device 20 is localized. Since such low-level processing can use widely known audio signal analysis processing, detailed description thereof is omitted here.
- each microphone included in the sound collection unit 15 may also include a light emitting element that emits light in a predetermined color or pattern so that the position can be recognized.
- the order in which the vibration body identification information to be corrected is selected one by one in the estimated position.
- the order is as close as possible. As a result, correction can be performed relatively quickly.
- the vibration is once started and the vibration is corrected when the occurrence of abnormal noise is detected.
- the present embodiment is not limited to this.
- the control unit 11 of the information processing apparatus 10 has previously corrected a condition in which abnormal noise is generated during the vibration of the vibrating body 25 (abnormal noise generation condition) and the abnormal noise is suppressed at that time.
- the state information (information indicating how the control signal to which vibrator 25 is corrected) may be stored in association with each other. Then, the control unit 11 acquires correction status information associated with the satisfied condition when any of the stored conditions is satisfied. The control unit 11 corrects the control signal transmitted to each vibrating body 25 indicated by the acquired correction status information with the corresponding correction content indicated by the correction status information.
- an example of the abnormal sound generation condition here includes a condition based on the attitude information of the controller device 20.
- the information processing apparatus 10 includes a controller device 20 (a controller device 20 including a vibrating body 25 in which abnormal noise is suppressed by correction) that has been a source of abnormal noise when abnormal noise per mechanism has occurred in the past. ) Rotation angle ( ⁇ , ⁇ , ⁇ ) around the X, Y, and Z axes detected by the tilt sensor 241 and vibration body identification information representing the vibration body 25 that generated abnormal noise at that time. Accumulate and store in association.
- the information processing apparatus 10 stores the accumulated and stored information for each vibrator identification information included in the information, and ⁇ , ⁇ , and ⁇ associated with the vibrator identification information, for example, for each bin. Classify and examine appearance frequency (generate histogram). Then, the information processing apparatus 10 determines a predetermined threshold (for example, the number N of accumulated and stored information) out of the appearance frequencies of ⁇ , ⁇ , and ⁇ for each vibrator identification information. The bins of ⁇ , ⁇ , and ⁇ having an appearance frequency exceeding (the value multiplied by the ratio r) are specified. Then, the ⁇ bin, the ⁇ bin, and the ⁇ bin specified for each vibration body identification information are set at an angle at which the generation of abnormal noise is predicted by the vibration body 25 identified by the vibration body identification information. Information is stored as abnormal sound generation angle information.
- the information processing apparatus 10 When the information processing apparatus 10 vibrates the vibrating body 25, as information on the attitude of the controller device 20 at that time, the rotation angle ( ⁇ , ⁇ , around the X, Y, and Z axes detected by the inclination sensor 241 is detected. ⁇ ). Whether the information processing apparatus 10 includes the acquired rotation angles ⁇ , ⁇ , and ⁇ in the bins representing the noise generation angle information associated with the vibration body identification information of the vibration body 25 to be vibrated, respectively. Judge whether or not. Here, when all of ⁇ , ⁇ , and ⁇ are included in the bins that represent the abnormal sound generation angle information associated with the vibration body identification information of the vibration body 25 that is to vibrate, the information processing apparatus 10 performs the vibration body.
- abnormal noise is generated in the vibrating body 25 identified by the identification information, and the control signal to the vibrating body 25 is corrected by a predetermined method.
- the abnormal sound generation condition is the posture of the controller device 20 (conditions for generating abnormal noise per mechanism)
- the correction in this case is performed as described above. It is assumed that the frequency band near the natural frequency is attenuated.
- the abnormal sound generation condition is not limited to the above, and may be a gripping force for gripping the controller device 20 detected by the gripping force sensor 243.
- the resonance frequency of the controller device 20 is considered to be shifted. Therefore, when it is predicted that abnormal noise due to vibration of any of the vibrating bodies 25 is generated according to the gripping force, the control signal is for the vibrating body 25. Correction for attenuating the amplitude of the waveform information is performed.
- the information processing apparatus 10 may use the correction process based on the prediction in combination with the process that has already been described and determines whether or not to correct the vibration once it has been vibrated.
- the detection of the abnormal sound is performed in the sound collecting unit 15, but the present embodiment is not limited to this.
- the waveform information that is a control signal for the vibrating body 25 using the acceleration sensor 242 (for example, an impact is periodically detected). It may be determined that abnormal noise has occurred.
- either the information processing apparatus 10 or the controller device 20 uses the sound collecting means for collecting the surrounding sound and the collected sound signal during vibration of the vibrating body, It functions as a determination means for determining whether or not abnormal noise is generated in the controller device.
- control unit 21 of the controller device 20 may perform operations as the correction control unit 43 and the correction processing unit 44.
- machine learning is performed on the correction status information of each vibrating body 25 according to the abnormal sound generation condition and the characteristic amount of the generated abnormal noise (such as information on the amplitude of the abnormal sound and the location of the abnormal sound).
- the correction method of each vibrating body 25 for dealing with the detected abnormal noise may be determined using the result of the machine learning.
- controller devices 20 when there are multiple controller devices, the following processing may be performed.
- the vibration instruction output to at least a part of the other controller devices 20b used by the user includes the vibration instruction originally output to the controller device 20a. Specifically, if the control signal is waveform information representing a temporal change in vibration amplitude, the waveform Vb ′ (t) represented by the waveform information output to the controller device 20b is originally output to the controller device 20b.
- t represents time
- V (t) represents the amplitude of the waveform.
- the controller device 20a is controlled not to output waveform information.
- the waveform Va ′ (t) represented by the waveform information output to the controller device 20a in which the occurrence of abnormal noise was not suppressed is replaced by the waveform Va represented by the waveform information originally output to the controller device 20a.
- the waveform Vb ′ (t) represented by the waveform information output to the controller device 20b is the waveform information originally output to the controller device 20b.
- 1 ⁇
- means the absolute value of x.
- correction trial process is tried when an abnormal sound is detected, but the correction trial process may be performed by an explicit instruction from the user.
- the correction control unit 43 starts a correction trial process in response to an instruction from the user, and tries correction while vibrating the controller device 20 using a predetermined vibration instruction.
- a method for holding the controller device 20 may be guided to the user. Specifically, a guidance (image or character string) “Please hold the controller horizontally” may be shown to the user before the correction trial.
- the correction control unit 43 may repeatedly perform a process of trying correction while guiding various gripping methods of the controller device 20 to the user. In this way, it becomes possible to learn, for example, the state of occurrence of abnormal noise according to the attitude of the controller device 20 and a correction method capable of suppressing the abnormal noise.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
Abstract
少なくとも一つの振動体を備えるコントローラデバイスと、当該コントローラデバイスに対して上記振動体の制御信号を出力する情報処理装置とを含む情報処理システムであって、当該振動体の振動中に、周囲の音声を集音し、当該集音された音声の信号を用いて、コントローラデバイスにて異音が生じているか否かを判断する。情報処理装置は、コントローラデバイスにて異音が生じていると判断されたときに、上記振動体の制御信号に対して補正処理を行って、当該補正処理により補正された制御信号を出力する。
Description
本発明は、情報処理システム、振動制御方法、及びプログラムに関する。
家庭用ゲーム機等の情報処理装置に接続して使用されるコントローラデバイスなどのように、ユーザが自身の体に装着したり保持したりして使用するコントローラデバイスの中には、そのコントローラデバイスの一部又は全部を振動させるための振動機構を備えるものがある。家庭用ゲーム機等の情報処理装置は、このような振動機構に対して、振動振幅の時間変化を表す波形情報を出力し、当該波形情報に基づく振動を行わせる。これにより、任意のタイミングでそのコントローラデバイスを振動させて、ユーザに振動を提示することができる。
しかしながら、出力する波形情報によっては、振動の周期がコントローラデバイスが備える筐体等や、当該筐体が接している物体(机等)の固有振動数に一致し、共振音を発生させてしまう場合がある。また、振動機構がリニアアクチュエータ等、錘の位置を移動させて振動を発生させるものであると、例えばコントローラデバイスの姿勢により錘が重力の影響で振動方向に予め移動してしまっていることがあり、この移動後の位置から振動を開始すると、錘が振動機構の外装等に当たることでカチカチというメカ当たり音が発生してしまう場合もある。
こうした振動に伴う、意図しない音声(以下、異音と呼ぶ)の鳴動は、ユーザに対して意図しない感覚を提示することとなって好ましくない場合がある。
本発明は上記実情に鑑みて為されたもので、振動に伴う異音の発生を抑制できる情報処理システム、振動制御方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、少なくとも一つの振動体を備えるコントローラデバイスと、当該コントローラデバイスに対して前記振動体の制御信号を出力する情報処理装置とを含む情報処理システムであって、前記振動体の振動中に、前記コントローラデバイスの振動状態を検出する検出手段と、前記検出された振動状態を表す情報を用い、前記コントローラデバイスにて異音が生じているか否かを判断する判断手段と、を含み、前記情報処理装置が、コントローラデバイスにて異音が生じていると判断されたときに、前記振動体の制御信号に対して補正処理を行って、当該補正処理により補正された制御信号を出力することとしたものである。
本発明によると、振動に伴う異音の発生を抑制できる。
本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において各部の大きさやその比、配置等は一例であり、本実施の形態の例は、図示等した大きさや比率、配置に限られるものではない。
本発明の実施の形態の一例に係る情報処理システム1は、情報処理装置10と、コントローラデバイス20とを含んで構成されている。ここで情報処理装置10は、例えば家庭用ゲーム機等のコンピュータ機器であり、コントローラデバイス20は、この情報処理装置10に接続される。
本発明の実施の形態に係るコントローラデバイス20は、ユーザの左手または右手に装着されて固定される。以下の説明において、ユーザの左手に固定されるコントローラデバイス20と、右手に固定されるコントローラデバイス20とを区別する必要がある場合は、ユーザの左手に固定されるコントローラデバイス20をコントローラデバイス20L、ユーザの右手に固定されるコントローラデバイス20をコントローラデバイス20RとそれぞれL,Rの符号を付して区別する。
このコントローラデバイス20の一例は、図1にその概要を例示するように、デバイス本体210と、このデバイス本体210に固定された固定具220とを含んで構成される。また、このコントローラデバイス20は、デバイス本体210内に、図2に示すように、制御部21と、記憶部22と、操作インタフェース23と、センサ部24と、振動体25と、通信部26とを含んだ回路部を備えて構成される。
デバイス本体210は、ユーザの左手に装着されるものと、右手に装着されるものとで、いずれもその形状が同一となっていてよい。本実施の形態の例では、固定具220は例えば可撓性あるベルトとバックルとを有し、ベルトとバックルとにより直径が調整可能な環状部を形成するものとする。そしてユーザは、この環状部に人差指から小指までを通し、デバイス本体210がユーザの親指の付根(人差指から小指のMP関節に相当する位置)に当接させた位置に固定されるように環状部の直径を適宜調整し、バックルで固定する。
デバイス本体210は、ユーザにより把持される把持部211と、操作部212と、位置提示部213とを含む。把持部211は、本実施の形態の一例では実質的に多角形柱状をなしている。操作部212は、把持部211から連続して形成されており、図1の例では、ボタン操作部231を含む。
位置提示部213は、デバイス本体210の上側(ユーザの手に固定した際、親指側)背面に配され、例えばLED等の発光素子を少なくとも一つ含んで構成される。この位置提示部213は、コントローラデバイス20の動作中はコントローラデバイス20ごとに固有の、予め指定された色の光を発光するものとする。またこの位置提示部213は、コントローラデバイス20ごとに固有な色のマーカー等、各コントローラデバイス20の位置をそれぞれ外部から検出できればよく、必ずしも発光素子でなくてもよい。
またこのコントローラデバイス20の大きさは、ユーザが自然にデバイス本体210を把持したときに、その一方端がユーザの親指の先端が到達する位置よりやや外側に位置し、その他方端が、小指の付け根(MP関節に相当する位置)からやや突出する位置にある程度の大きさとする。なおコントローラデバイス20は、コントローラデバイス20を装着した状態でユーザが手を開いても、固定具220によりユーザの手に固定されるので、落下することはない。
本実施の形態の制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態ではこの制御部21は、操作インタフェース23からユーザが操作部212においてした操作の内容を表す情報の入力を受け、当該操作の内容を表す情報を、通信部26を介して情報処理装置10へ出力する。またこの制御部21は、センサ部24に含まれるセンサが出力する情報を、通信部26を介して情報処理装置10へ出力する。
記憶部22は、メモリデバイス等であり、制御部21によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部22に複写されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作する。
操作インタフェース23は、操作部212にてユーザが行った操作の内容を表す情報を制御部21に出力する。センサ部24は、少なくとも一つのセンサを含み、当該センサが出力する情報を制御部21に出力する。本実施の形態の一例では、このセンサ部24は、コントローラデバイス20のデバイス本体210の傾きを検出する傾きセンサ241や、コントローラデバイス20の動きを検出する加速度センサ242を含む。さらにこのセンサ部24は、握力センサ243を含んでもよい。
ここでコントローラデバイス20の長手方向をZ軸とし、このZ軸を法線とする面内で、ユーザの指が位置するべき方向をX軸、上記面内でX軸に直交する方向をY軸とするなどして予め定めておく。そして傾きセンサ241は、デバイス本体210の上記X,Y,Zの各軸まわりの回転角の情報を検出して出力する。加速度センサ242は、コントローラデバイス20に加えられる上記X,Y,Zの各軸方向の加速度を検出し、当該検出の結果を出力する。
振動体25は、制御部21から制御信号としての振動振幅の時間変化を表す波形情報の入力を受けて、当該指示された波形情報に基づいて振動する。本実施の形態ではこの振動体25は、リニアアクチュエータや、偏心錘を回転させることで振動を得るバイブレータ、スピーカー等である。この振動体25は、デバイス本体210を一つの軸方向に振動させるものであってもよいし、多軸方向に複数のリニアアクチュエータを備えるなどして、多方向に振動させるものであってもよい。また本実施の形態では、コントローラデバイス20は、複数の振動体25を、デバイス本体210内に備えてもよい。
通信部26は、USBインタフェース等の有線インタフェースや、ブルートゥース(登録商標)等の無線インタフェースであり、制御部21から入力される指示に従い、種々の情報を情報処理装置10に対して出力している。
情報処理装置10は、図3に例示するように、制御部11と、記憶部12と、インタフェース部13と、撮像部14と、集音部15と、出力部16とを含んで構成されている。制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
インタフェース部13は、コントローラデバイス20に無線又は有線にて接続され、コントローラデバイス20からユーザの操作の内容を表す情報や、センサ部24が出力する情報を受信して、制御部11に出力する。
撮像部14は、ユーザの位置する範囲を撮像範囲として設置されたカメラ等であり、ユーザを含む画像を所定のタイミングごとに繰り返して撮像し、当該画像のデータを制御部11に出力する。集音部15は、本発明におけるコントローラデバイス20の振動状態を検出する手段の一例を実現するものである。この集音部15は、マイクであり、ユーザの位置する周囲の音声を集音し、音声信号として出力する。この集音部15によりコントローラデバイス20が振動するときに発する音(振動状態を表す情報)が集音される。
出力部16は、例えばHDMI(登録商標)インタフェース等、家庭用テレビジョンに対して映像等を出力するインタフェースを有する。この出力部16は、制御部11から入力される指示に従い、表示するべき映像の情報を出力する。
本実施の形態の一例では、情報処理装置10の制御部11は、ゲーム等のアプリケーションプログラムから、コントローラデバイス20に対する振動の指示を受け入れ、制御信号を生成する。この制御信号は、例えば、音声信号と同様に、振動振幅の時間変化を表す波形情報である。このような制御信号の生成処理については、広く知られた方法を用いることができるので、ここでの詳しい説明を省略する。なお、コントローラデバイス20が振動体25を複数備える場合は、振動体25ごとに制御信号を生成する。また、ユーザの左右の手にそれぞれ別のコントローラデバイス20L,Rが装着される場合は、それぞれのコントローラデバイス25L,Rの各振動体25ごとに、制御信号をそれぞれ生成する。
制御部11は、生成した波形情報を保持する。またこの制御部21は、集音部15にて集音された音声の信号を用い、コントローラデバイス20にて異音が生じているか否かを判断する。制御部21は、コントローラデバイス20にて異音が生じていると判断されたときに、上記保持している制御信号である波形情報に対して補正処理を行って、当該補正処理により補正された制御信号である、補正された波形情報を出力する。この制御部11は、機能的には、図4に例示するように、波形情報入力部41と、判断部42と、補正制御部43と、補正処理部44と、出力部45とを含んで構成される。
波形情報入力部41は、ゲームアプリケーション等による、コントローラデバイス20に対する振動の指示を受け入れて生成した、振動体25の制御信号である波形情報の入力を受け入れる。
判断部42は、コントローラデバイス20において振動体25が振動している間(振動体25が複数ある場合は、いずれかの振動体25が振動している間)に、集音部15が出力する音声信号を用い、コントローラデバイス20にて異音が生じているか否かを判断する。具体的にこの判断部42は、コントローラデバイス20において振動体25が振動している間の、集音部15が出力する音声信号の音量変化を調べ、当該音量変化が予め定めた条件を満足する場合に、コントローラデバイス20にて意図しない音声(異音)が生じていると判断する。
ここで、予め定めた条件は、例えば、音量変化が周期的ないし継続的であり、かつ、最大音量が所定の音量を超えている等、実験的にコントローラデバイス20の筐体、またはコントローラデバイス20の筐体が接している机等の物体が、振動体25の振動に共振する際に発生する音の音量変化に相当するものとして規定しておく。
補正制御部43は、図5に例示する補正記録テーブルを記憶部12に格納している。この補正記録テーブルは、コントローラデバイス20ごと(左右の手に装着される場合はそれぞれのコントローラデバイス20ごと。また、複数のユーザが使用している場合はユーザごと、つまり情報処理装置10との間で通信しているコントローラデバイス20ごと)の各振動体25を特定する情報(振動体識別情報)について、
過去に制御信号の補正をしていない(未補正)、
現在制御信号を補正するか否かを試行している(試行中)、
補正をするか否かの試行を終了した(試行終了)、
現在制御信号を補正している(補正中)、
過去に制御信号を補正したが現在は補正していない(補正試行済)、
のいずれかを表すフラグ情報を関連付けて記録したデータテーブルである。なお、情報処理装置1の電源投入時や、アプリケーションプログラムの切り替え時等の予め定めたタイミングでリセットされ、すべての振動体識別情報に関連付けられたフラグが「未補正」に設定される。
過去に制御信号の補正をしていない(未補正)、
現在制御信号を補正するか否かを試行している(試行中)、
補正をするか否かの試行を終了した(試行終了)、
現在制御信号を補正している(補正中)、
過去に制御信号を補正したが現在は補正していない(補正試行済)、
のいずれかを表すフラグ情報を関連付けて記録したデータテーブルである。なお、情報処理装置1の電源投入時や、アプリケーションプログラムの切り替え時等の予め定めたタイミングでリセットされ、すべての振動体識別情報に関連付けられたフラグが「未補正」に設定される。
補正制御部43は、また、判断部42がコントローラデバイス20にて異音が生じていると判断すると、次のように動作する。すなわち、補正制御部43は、異音が生じていると判断部42が判断した時点で振動している振動体25を特定する。具体的にはその時点で制御信号を出力している振動体25がどれであるかを判断する。
補正制御部43は、補正記録テーブルを参照し、異音が生じていると判断部42が判断した時点で「試行終了」のフラグ情報に関連付けられた振動体識別情報があれば、当該振動体識別情報で特定される振動体25に対する補正を取りやめさせる指示を、補正処理部44に出力し、さらに当該振動体識別情報に関連付けられたフラグ情報を「補正試行済」に変更して、補正記録テーブルを更新する。
補正制御部43は、また補正記録テーブルを参照し、異音が生じていると判断部42が判断した時点で振動しているものとして特定された振動体25のうち、「未補正」のフラグ情報に関連付けられた振動体識別情報を抽出する。この振動体識別情報は、当該振動体25を備えるコントローラデバイス20を特定する情報と、当該情報で特定されるコントローラデバイス20内での当該振動体25の識別情報とを含む。
そして補正制御部43は、補正試行処理を開始する。補正試行処理では補正制御部43は、ここで抽出した振動体識別情報のうち一つを順次(予め定めた方法で決められる順序で)選択(抽出した振動体識別情報が一つだけであれば、当該振動体識別情報を選択)し、選択した振動体25に関連付けて補正記録テーブルに格納されているフラグ情報を「試行中」に変更する。そして補正制御部43は、当該選択した振動体識別情報を、補正を行うべき旨の指示とともに補正処理部44に出力する。
補正制御部43は、未だ異音が生じていると判断部42が判断しているか否かを調べる。補正制御部43は、ここで異音が生じていると、判断部42が判断していなければ、補正記録テーブルを参照し、その時点で「試行中」となっているフラグ情報を「補正中」に変更して、補正記録テーブルを更新し、補正試行処理を終了する。
一方、補正制御部43は、ここで未だ異音が生じていると判断部42が判断していれば、補正記録テーブルを参照して、次の処理を行う。すなわち、補正制御部43は、未だ異音が生じていると判断部42が判断した時点で「試行中」となっているフラグ情報が補正記録テーブルに含まれていれば、当該フラグ情報に関連付けられている振動体識別情報で特定される振動体25に対し、さらに補正を行うべき旨の指示を、補正処理部44に出力する。
また、補正制御部43は、未だ異音が生じていると判断部42が判断した時点で「試行終了」となっているフラグ情報が補正記録テーブルに含まれていれば、当該フラグ情報を「補正試行済」に変更して、補正記録テーブルを更新する。また「補正試行済」に変更したフラグ情報に関連付けられている振動体識別情報で特定される振動体25に対する補正を取りやめさせる指示を、補正処理部44に出力する。そして補正制御部43は、先に抽出した振動体識別情報のうち、未選択の振動体識別情報があればそのうち一つを選択する処理に戻って処理を続ける。
また、先に抽出した振動体識別情報のうち、未選択の振動体識別情報がない場合は、補正制御部43は補正試行処理を終了する。この場合、異音の発生は抑えられなかったものとなる。
補正処理部44は、例えば電源投入時等の所定のタイミングにおいて、補正記録テーブルを参照し、「補正中」または「試行中」のフラグに関連付けられた振動体識別情報のリストを、補正対象振動体識別情報として記憶する。
また補正処理部44は、補正制御部43から補正をすべき旨の指示とともに、振動体識別情報の入力を受けると、当該振動体識別情報を、補正対象振動体識別情報リストに追記する。また、補正制御部43から補正を取りやめるべき旨の指示とともに、振動体識別情報の入力を受けると、当該振動体識別情報を、補正対象振動体識別情報リストから除去する。
補正処理部44は、波形情報入力部41から、各振動体25に対する制御信号の入力を受け入れる。そして補正処理部44は、補正対象振動体識別情報リストを参照し、このリストに含まれる振動体識別情報で識別される振動体25に対する制御信号を、予め定められた方法で補正し、補正後の制御信号を出力部45に出力する。また、このリストに含まれない振動体識別情報で識別される振動体25に対する制御信号については、そのまま出力部45に出力する。
具体的に、この補正処理部44が行う補正の方法は、例えば、制御信号である波形情報が表す波形の振幅を減衰させる補正とすることができる。
補正処理部44は、補正制御部43からさらに補正を行うべき旨の指示を受け入れたときには、補正記録テーブルを参照し、「試行中」のフラグを「試行終了」に変更する。
またここでの説明では、一つの補正方法を試行したときに異音が抑制できなかった場合に、「試行終了」とすることとしていたが、本実施の形態はこれに限られない。
すなわち、予め複数の互いに異なる補正の方法を定めておき、補正処理部44は、補正制御部43から補正を行うべき旨の指示を受け入れるごとに、当該予め定められた複数の方法のいずれかの方法で補正を行うこととしてもよい。
この例では、補正処理部44は、補正制御部43からさらに補正を行うべき旨の指示を受け入れると、補正対象振動体識別情報リストを参照し、このリストに含まれる振動体識別情報で識別される振動体25に対する制御信号を、それまでに試行した補正の方法とは異なる方法で補正し、補正後の制御信号を出力部45に出力する。
こうした複数の互いに異なる補正方法は、例えば互いに異なる減衰率で、制御信号である波形情報が表す波形の振幅を減衰させる補正とすることができる。この例では具体的に、補正処理部44は、補正制御部43から、補正試行中の振動体25に対する制御信号を、さらに補正するべき旨の指示を受け入れると、それまでの減衰率よりも高い減衰率で波形の振幅を減衰させることとする。
また複数の互いに異なる補正方法は、制御信号である波形情報が表す波形の振幅の減衰率を異ならせる補正と、振幅を補正する代わりに周波数を変更する補正と、…などというように、補正の態様自体を異ならせるものであってもよい。
補正処理部44は、さらに、補正制御部43からさらに補正を行うべき旨の指示を受け入れたときに、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25に対する制御信号に対して、既に予め定められたすべての補正の方法を試行しており、それまでの補正の方法とは異なる方法で補正することができない場合は、補正記録テーブルを参照し、「試行中」のフラグを「試行終了」に変更する。
出力部45は、各振動体25に対する制御信号の入力を受け入れる。この制御信号には、補正処理部44により補正された制御信号が含まれ得る。出力部45は、これら制御信号を、対応する振動体25を識別する振動体識別情報とともに、対応するコントローラデバイス20宛に送出する。
[動作]
本実施の形態は、例えば以上のような構成を備えており、次のように動作する。情報処理装置10が、図6に例示するように、ゲーム等のアプリケーションプログラムに従って、コントローラデバイス20を振動させる制御信号を生成する。そして情報処理装置10は、当初はコントローラデバイス20に対して、この制御信号をそのまま送出する(S1)。ここでは制御信号は、例えば最長0.5秒間の振動を指示するものであり、0.5秒を超える振動を指示する場合は、複数の制御信号を逐次的に生成して送出することとなるものとする。図6では、この状態を、振動動作(S2,S11)の間に破線を記述することで表している。コントローラデバイス20は、制御信号である波形情報に従い、振動体25を振動させる(S2)。
本実施の形態は、例えば以上のような構成を備えており、次のように動作する。情報処理装置10が、図6に例示するように、ゲーム等のアプリケーションプログラムに従って、コントローラデバイス20を振動させる制御信号を生成する。そして情報処理装置10は、当初はコントローラデバイス20に対して、この制御信号をそのまま送出する(S1)。ここでは制御信号は、例えば最長0.5秒間の振動を指示するものであり、0.5秒を超える振動を指示する場合は、複数の制御信号を逐次的に生成して送出することとなるものとする。図6では、この状態を、振動動作(S2,S11)の間に破線を記述することで表している。コントローラデバイス20は、制御信号である波形情報に従い、振動体25を振動させる(S2)。
情報処理装置10は、コントローラデバイス20において振動体25が振動している間に集音部15にて集音された周囲の音声信号を参照し、異音が生じているか否かを判断する(S3)。
ここで異音が生じていないと判断されたならば(S3:No)、そのまま処理を継続する(S4)。一方、処理S3にて異音が生じていると判断されたならば(S3:Yes)、当該判断の時点で振動している振動体25を特定する(S5)。
ここで情報処理装置10では、補正記録テーブルを参照し、異音が生じていると判断された時点で「試行中」のフラグ情報に関連付けられた振動体識別情報を検索するが、当初は「試行中」のフラグとはなっていないので、ここでは何も行われない。
情報処理装置10は、補正記録テーブルを参照し、異音が生じていると判断された時点で振動しているものとして特定された振動体25のうち、「未補正」のフラグ情報に関連付けられた振動体識別情報を抽出する(S6)。情報処理装置10は、補正試行処理を開始する(S7)。
この補正試行処理を図7に例示する。補正試行処理では、情報処理装置10は、図6の処理S6にて抽出した振動体識別情報のうち一つを予め定めた順序で順次選択し(S21)、選択した振動体25に関連付けて補正記録テーブルに格納されているフラグ情報を「試行中」に変更する(S22)。
情報処理装置10は、処理S21で選択した振動体識別情報を、補正対象振動体識別情報リストに追記する。そして、生成した振動体25に対する制御信号のうち、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25に対する制御信号を所定の方法で補正し(S23)、コントローラデバイス20に対して送出する(S24)。なお、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25に対する制御信号については補正せずにそのまま送出する。
これにより、コントローラデバイス20では、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25については、補正された制御信号が表す波形情報に従って振動する。一例として処理S23での補正が、波形情報の表す波形の振幅を減衰させる補正である場合は、コントローラデバイス20では、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25については、ゲームアプリケーション等が指示した強度よりも減衰された強度で振動することとなる。
情報処理装置10は、集音部15にて集音された周囲の音声信号を参照し、異音が生じているか否かを判断する(S25)。ここで異音が生じていると判断されていなければ(S25:No)、情報処理装置10は、補正記録テーブルを参照し、その時点で「試行中」となっているフラグ情報を「補正中」に変更して、補正記録テーブルを更新し(S26)、補正試行処理を終了する。
一方、情報処理装置10は、処理S25で未だ異音が生じていると判断したときには(S25:Yes)、補正記録テーブルを参照し、その時点で「試行中」となっているフラグ情報を「試行終了」に変更して、補正記録テーブルを更新する(S27)。また「試行終了」に変更したフラグ情報に関連付けられている振動体識別情報で特定される振動体25に対する補正を取りやめ(S28)、当該振動体識別情報を、補正対象振動体識別情報リストから削除する。
そして情報処理装置10は、処理S21にて未選択の振動体識別情報があれば、処理S21に戻り、当該未選択の振動体識別情報の一つを選択する処理に戻って処理を続ける。また、処理S21にて未選択の振動体識別情報がなければ、補正試行処理を終了する。
補正試行処理から戻った情報処理装置10は、その後、ゲームアプリケーションプログラム等の実行中に、コントローラデバイス20を振動させる制御信号を生成するべき旨の指示を受けると、図6に例示しているように、コントローラデバイス20を振動させる制御信号を生成する(S8)。そして情報処理装置10は、生成した振動体25に対する制御信号のうち、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25に対する制御信号を所定の方法で補正し(S9)、コントローラデバイス20に対して送出する(S10)。なお、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25に対する制御信号については補正せずにそのまま送出する。
これより、コントローラデバイス20では、補正対象振動体識別情報リストに含まれる振動体識別情報で識別される振動体25については、補正された制御信号が表す波形情報に従って振動する(S11)。以下、情報処理装置10は、処理S3に戻って処理を続ける。
[周波数による判断]
ここまでの説明において、情報処理装置10が異音が生じているか否かを判断する条件は、音量変化が周期的ないし継続的であり、かつ、最大音量が所定の音量を超えている等の条件としたが、本実施の形態はこれに限られない。
ここまでの説明において、情報処理装置10が異音が生じているか否かを判断する条件は、音量変化が周期的ないし継続的であり、かつ、最大音量が所定の音量を超えている等の条件としたが、本実施の形態はこれに限られない。
例えば情報処理装置10は、上記条件に代えて、またはこの条件とともに、予め定めた周波数の音が所定の音量を超えているとの条件で、異音が生じていると判断してもよい。この周波数は例えば振動中の振動体25の筐体やコントローラデバイス20の筐体など、コントローラデバイス20において振動する可能性のある部材の固有振動数等として予め定めておく。
[錘の衝突による異音]
さらに異音が生じる原因は、コントローラデバイス20において振動する可能性のある部材やコントローラデバイス20が接している物体が共振する場合に限られない。
さらに異音が生じる原因は、コントローラデバイス20において振動する可能性のある部材やコントローラデバイス20が接している物体が共振する場合に限られない。
リニアアクチュエータ等の振動体25では、コントローラデバイス20が傾けられると、内部で移動可能となっている錘が、振動前に既に重力により引かれて筐体内の一方側へ偏っている場合がある。このときに振動制御が行われると、錘の移動量によっては振動体25の筐体内壁に錘が衝突して(いわゆる「メカあたり」して)、「カチカチ…」という周期的な金属音が発生する場合がある。このような金属音も意図しない音であり異音となる。
このような場合、リニアアクチュエータ自体の固有振動(錘を振動させる機構自体の固有振動)周波数付近の振動が過大となって、振動体25の筐体内壁への錘の衝突が生じることがある。そこで、この例の異音に対しては、上述のように振幅を減衰させる補正に代えて、制御信号である波形情報が表す波形の、上記固有振動数f0付近(f0±Δfの帯域)の成分を減衰させる(図8に例示するように帯域減衰フィルタリングする)補正を行うことが好適である。ここで当該f0近傍の帯域の減衰量は100%に近い値でなくてもよく、経験的に定めればよい。
そこで、この例に対応するためには、判断部42がコントローラデバイス20にて異音が生じているか否かを判断するにあたり、上記の共振による異音に関する条件(第1の条件とする)とともに、「カチカチ…」という周期的な金属音が発生しているか否か(該当する波形信号が集音部15にて集音された音声信号に含まれているか否か)という、メカあたりによる異音に関する条件(第2の条件とする)を用いる。
そしてこの例における判断部42は、集音部15にて集音された音声信号が第1の条件を満足したか否かを表す情報と、第2の条件を満足したか否かを表す情報とを出力する。
補正制御部43は、判断部42が、第1の条件を満足したことを表す情報または第2の条件を満足したことを表す情報を出力しているときに、判断部42がコントローラデバイス20にて異音が生じていると判断したものとする。
そしてこの例の補正制御部43は、いずれかの補正記録テーブルに格納されているフラグ情報を「試行中」に変更する際に、当該フラグ情報に、判断部42が出力した情報が第1の条件を満足したことを表す情報であったか、第2の条件を満足したことを表す情報であったかを表す情報を含める。つまり、共振による異音が生じているか、メカあたりによる異音が生じているかを表す情報を含めることとする。
さらに補正制御部43は、「試行中」となっているフラグ情報を「補正中」に変更して、補正記録テーブルを更新するときにも、「補正中」のフラグ情報に、判断部42が出力した情報が第1の条件を満足したことを表す情報であったか、第2の条件を満足したことを表す情報であったかを表す情報を含める。つまり、共振による異音が生じているか、メカあたりによる異音が生じているかを表す情報を含めることとする。
補正処理部44は、補正を行う際に、補正するべき対象となっている振動体25の振動体識別情報に関連付けて補正記録テーブルに格納されているフラグ情報を参照し、共振による異音が生じているか、メカあたりによる異音が生じているかを表す情報を読み出す。そして補正処理部44は、共振による異音が生じているとの情報に関連付けられた振動体識別情報の振動体25への制御信号については、既に述べたように、制御信号である波形情報が表す波形の振幅を減衰させる補正を行う。
また、メカあたりによる異音が生じているとの情報に関連付けられた振動体識別情報の振動体25への制御信号については、固有振動数f0付近の成分を減衰させる(f0近傍の周波数の信号を帯域減衰フィルタリングする)補正を行うことが好適である。この、所定の帯域を減衰させる処理については広く知られた信号処理の方法を採用できるので、ここでの詳しい説明を省略する。
この例によると、共振による異音を生じさせる振動体25に対する制御信号については、共振を抑制するべく、振幅を減衰させる補正が行われ、メカあたりによる異音を生じさせる振動体25に対する制御信号については、固有振動数近傍の帯域を減衰させる補正が行われることとなる。つまり、それぞれの異音発生の原因に対応した補正が行われることとなる。
[異音の発生位置の判断]
またコントローラデバイス20が複数の振動体25を備える場合、あるいは、複数のコントローラデバイス20がある場合に、情報処理装置10の制御部11は、判断部42の処理として、いずれかのコントローラデバイス20にて異音が生じているか否かを判断するとともに、当該異音の発生源の位置を推定してもよい。この推定は例えば、次のようにして行う。
またコントローラデバイス20が複数の振動体25を備える場合、あるいは、複数のコントローラデバイス20がある場合に、情報処理装置10の制御部11は、判断部42の処理として、いずれかのコントローラデバイス20にて異音が生じているか否かを判断するとともに、当該異音の発生源の位置を推定してもよい。この推定は例えば、次のようにして行う。
すなわち、この例では情報処理装置10の集音部15が、互いに離れている、予め定めた位置に配される複数のマイクを備える。そして、各マイクで集音された音声信号に含まれる異音の比により、各マイクと、異音の発生源とのそれぞれの距離が推定され、当該複数の距離の情報から異音が生じているコントローラデバイス20の位置、あるいは当該コントローラデバイス20内の振動体25の位置を定位する。このような低位の処理は広く知られた音声信号の分析処理を用いることができるので、ここでの詳しい説明を省略する。
また、集音部15の各マイクに対し、どのコントローラがどの位置にいるかは、撮像部14にて撮像される映像に基づいて判断してもよい。この場合、集音部15が備える各マイクも、その位置が認識できるよう、所定の色またはパターンで発光する発光素子を備えてもよい。
そしてこの例では、情報処理装置10が補正制御部43において、補正試行処理を実行するとき、補正の試行の対象とする振動体識別情報のうち一つずつ選択する順序を、上記推定された位置から近い順とする。これにより、比較的迅速に補正を行うことが可能となる。
[学習]
また、ここまでの説明では、一旦は振動を開始し、異音の発生を検知したときに振動の補正を行うこととしていたが、本実施の形態はこれに限られない。
また、ここまでの説明では、一旦は振動を開始し、異音の発生を検知したときに振動の補正を行うこととしていたが、本実施の形態はこれに限られない。
本実施の形態の情報処理装置10の制御部11は、過去に、振動体25の振動中に異音が発生した際の条件(異音発生条件)と、そのときに異音を抑制した補正の状況情報(どの振動体25への制御信号をどのように補正したかを表す情報)とを関連付けて記憶しておいてもよい。そして制御部11は、当該記憶している条件のいずれかを満足する状況となったときに、当該満足された条件に関連付けられている、補正の状況情報を取得する。制御部11は、当該取得した補正の状況情報が表す各振動体25に対して送出する制御信号を、それぞれ当該補正の状況情報が表す、対応する補正の内容で補正する。
具体的に、ここでの異音発生条件の一例は、コントローラデバイス20の姿勢の情報に基づく条件を含む。この例では、情報処理装置10は、過去にメカあたりの異音が発生したときに、異音の発生源であったコントローラデバイス20(補正により異音がおさまった振動体25を備えるコントローラデバイス20)の傾きセンサ241が検出していたX,Y,Z軸回りの回転角度(θ,φ,ψ)と、そのときに異音を発生させていた振動体25を表す振動体識別情報とを関連付けて蓄積して記憶していく。
情報処理装置10は、蓄積して記憶している情報を、情報に含まれる振動体識別情報ごとに、当該振動体識別情報に関連付けられたθ,φ,ψをそれぞれ例えば1度ごとのビンに分類して出現頻度を調べる(ヒストグラムの生成)。そして情報処理装置10は、この振動体識別情報ごとの、θ,φ,ψのそれぞれの出現頻度のうち、所定の閾値(例えば蓄積して記憶している情報の数Nに対して、所定の比rを乗じた値)を上回る出現頻度となっているθ,φ,ψのビンをそれぞれ特定する。そして振動体識別情報ごとに特定されたθのビンと、φのビンと、ψのビンとを、当該振動体識別情報で識別される振動体25にて異音の発生が予測される角度の情報(異音発生角度情報)として記憶しておく。
情報処理装置10は、振動体25を振動させる際に、そのときのコントローラデバイス20の姿勢の情報として、傾きセンサ241が検出しているX,Y,Z軸回りの回転角度(θ,φ,ψ)を取得する。情報処理装置10は、振動させようとする振動体25の振動体識別情報に関連付けられた異音発生角度の情報の表すビンに、上記取得した回転角度θ,φ,ψが、それぞれ含まれるか否かを判断する。ここでθ,φ,ψのすべてが、それぞれ振動させようとする振動体25の振動体識別情報に関連付けられた異音発生角度情報の表すビンに含まれると、情報処理装置10は当該振動体識別情報で識別される振動体25で異音が発生すると予測し、当該振動体25への制御信号を、所定の方法で補正する。ここでは、異音発生条件がコントローラデバイス20の姿勢(メカあたりの異音が発生する条件)としたので、この場合の補正は、上述のように、異音が発生すると予測された振動体25の固有振動数近傍の周波数帯域を減衰させる補正とする。
また、異音発生条件は上記のものに限られず、握力センサ243が検出している、コントローラデバイス20を握る握力としてもよい。この例では、コントローラデバイス20の共振周波数がずれることが考えられるため、握力に応じていずれかの振動体25の振動による異音が発生すると予測されるときには、当該振動体25に対する制御信号である波形情報の振幅を減衰させる補正を行う。
本実施の形態の情報処理装置10は、この予測による補正の処理を、既に説明した、一旦振動させてから補正するか否かを判断する処理と組み合わせて用いてもよい。
[振動状態の検出の別の例]
また、ここまでの説明において、異音の検出は、集音部15において行うものとしていたが、本実施の形態はこれに限られない。例えば、加速度センサ242を用いて、振動体25に対する制御信号である波形情報により、コントローラデバイス20に対して与えられる振動とは異なる加速度が検出された場合(例えば定期的に衝撃が検出されるなどした場合)に、異音が生じていると判断してもよい。
また、ここまでの説明において、異音の検出は、集音部15において行うものとしていたが、本実施の形態はこれに限られない。例えば、加速度センサ242を用いて、振動体25に対する制御信号である波形情報により、コントローラデバイス20に対して与えられる振動とは異なる加速度が検出された場合(例えば定期的に衝撃が検出されるなどした場合)に、異音が生じていると判断してもよい。
[変形例]
また、ここまでの説明において、異音が発生しているか否かの判断や補正の処理動作は情報処理装置10にて行うものとしていたが、本実施の形態はこれに限られない。すなわちコントローラデバイス20がマイク等の集音手段を備える場合、コントローラデバイス20の制御部21が判断部42としての動作を行ってもよい。この場合は、コントローラデバイス20が当該判断の結果を情報処理装置10に送出することとしてもよい。
また、ここまでの説明において、異音が発生しているか否かの判断や補正の処理動作は情報処理装置10にて行うものとしていたが、本実施の形態はこれに限られない。すなわちコントローラデバイス20がマイク等の集音手段を備える場合、コントローラデバイス20の制御部21が判断部42としての動作を行ってもよい。この場合は、コントローラデバイス20が当該判断の結果を情報処理装置10に送出することとしてもよい。
つまり、本実施の形態では、情報処理装置10またはコントローラデバイス20のいずれかが、振動体の振動中に、周囲の音声を集音する集音手段と、集音された音声の信号を用い、コントローラデバイスにて異音が生じているか否かを判断する判断手段と、して機能する。
さらに、本実施の形態では、コントローラデバイス20の制御部21が、補正制御部43,補正処理部44としての動作を行ってもよい。
[補正制御の別の例]
なお、本実施の形態において、振動体25が複数ある場合は、複数の振動体25に対して補正の方法の組み合わせにより補正の試行を行い、もっとも異音が減衰する組み合わせを見いだすように制御してもよい。
なお、本実施の形態において、振動体25が複数ある場合は、複数の振動体25に対して補正の方法の組み合わせにより補正の試行を行い、もっとも異音が減衰する組み合わせを見いだすように制御してもよい。
このような補正の方法は、各振動体25を順次選択しつつ、当該振動体25の振動による異音が最も小さくなる補正方法を検出し、当該補正方法での補正を行うようにする(異音がなくならない場合も、試行した補正方法のうち、異音が最も小さくなる補正方法での補正を継続する)こととしていく方法などが考えられる。
また、過去の補正例により、異音発生条件や、発生している異音の特徴量(異音の振幅や発生場所の情報等)に応じた各振動体25の補正の状況情報を機械学習しておき、当該機械学習の結果を用いて、検出した異音に対応するための各振動体25の補正方法を定めてもよい。
[複数のコントローラデバイスがある場合]
さらに一人のユーザが利用するコントローラデバイス20が複数ある場合には、次のような処理を行ってもよい。
さらに一人のユーザが利用するコントローラデバイス20が複数ある場合には、次のような処理を行ってもよい。
すなわち、当該一人のユーザが利用する複数のコントローラデバイス20a,b…のうち、異音が生じているコントローラデバイス20aについて補正の試行を行った結果、異音の発生が抑えられなかった場合に、そのユーザが利用する他のコントローラデバイス20b…の少なくとも一部に対して出力する振動の指示に、本来コントローラデバイス20aに対して出力する振動の指示を含める。具体的に制御信号が、振動振幅の時間変化を表す波形情報であれば、コントローラデバイス20bに対して出力する波形情報が表す波形Vb′(t)を、本来コントローラデバイス20bに対して出力する波形情報が表す波形Vb(t)に、本来コントローラデバイス20aに対して出力する波形情報が表す波形Va(t)を合成して、Vb′(t)=Vb(t)+Va(t)とする。ここでtは時間、V(t)は波形の振幅を表すものとする。このとき、コントローラデバイス20aに対しては、波形情報の出力をしないよう制御する。
また別の方法として、異音の発生が抑えられなかったコントローラデバイス20aに対して出力する波形情報が表す波形Va′(t)を、本来コントローラデバイス20aに対して出力する波形情報が表す波形Va(t)を減衰させたものとし、(Va′(t)=α・Va(t)(ただし、-1<α<1、ここでαが負である場合は、本来出力する波形の逆位相の波形を出力することに相当する)としてもよい。このときにも、コントローラデバイス20bに対して出力する波形情報が表す波形Vb′(t)は、本来コントローラデバイス20bに対して出力する波形情報が表す波形Vb(t)に、本来コントローラデバイス20aに対して出力する波形情報が表す波形Va(t)を合成して、Vb′(t)=Vb(t)+Va(t)としてもよいし、-1<β<1を用いて、Vb′(t)=Vb(t)+β・Va(t)としてもよい。ここで|β|=1-|α|となるようにβを定めてもよい。なお、|x|は、xの絶対値を意味する。
[ユーザの指示による補正]
またここまでの説明では、異音の発生が検出されたときに、補正を試行するものとしているが、補正の試行の処理は、ユーザの明示的な指示によって行われてもよい。
またここまでの説明では、異音の発生が検出されたときに、補正を試行するものとしているが、補正の試行の処理は、ユーザの明示的な指示によって行われてもよい。
この場合、補正制御部43は、ユーザの指示を受けて補正試行処理を開始し、予め定められた振動指示を用いてコントローラデバイス20を振動させつつ、補正を試行する。この例では、ユーザに対してコントローラデバイス20の把持方法を案内してもよい。具体的には、補正試行前に、「コントローラを水平に持ってください」との案内(画像や文字列)をユーザに示してもよい。
またこの例では、補正制御部43は、コントローラデバイス20の種々の把持方法をユーザに案内しつつ、補正を試行する処理を繰り返し行ってもよい。このようにすると、例えばコントローラデバイス20の姿勢に応じた異音の発生の状況と、異音を抑制可能な補正の方法とを学習できるようになる。
[補正しない指示]
またユーザから予め補正を行うか否かの指示を受け入れておいてもよい。この場合、補正を行わない旨の指示があったときには、補正試行処理や補正処理を実行する制御部11または制御部21は、補正の試行処理や、補正の処理を行わないよう制御する。
またユーザから予め補正を行うか否かの指示を受け入れておいてもよい。この場合、補正を行わない旨の指示があったときには、補正試行処理や補正処理を実行する制御部11または制御部21は、補正の試行処理や、補正の処理を行わないよう制御する。
10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、14 撮像部、15 集音部、16 出力部、20 コントローラデバイス、21 制御部、22 記憶部、23 操作インタフェース、24 センサ部、25 振動体、26 通信部、41 波形情報入力部、42 判断部、43 補正制御部、44 補正処理部、45 出力部、210 デバイス本体、211 把持部、212 操作部、213 位置提示部、220 固定具、231 ボタン操作部、241 傾きセンサ、242 加速度センサ、243 握力センサ。
Claims (7)
- 少なくとも一つの振動体を備えるコントローラデバイスと、当該コントローラデバイスに対して前記振動体の制御信号を出力する情報処理装置とを含む情報処理システムであって、
前記振動体の振動中に、前記コントローラデバイスの振動状態を検出する検出手段と、
前記検出された振動状態を表す情報を用い、前記コントローラデバイスにて異音が生じているか否かを判断する判断手段と、を含み、
前記情報処理装置が、コントローラデバイスにて異音が生じていると判断されたときに、前記振動体の制御信号に対して補正処理を行って、当該補正処理により補正された制御信号を出力する情報処理システム。 - 請求項1に記載の情報処理システムであって、
前記検出手段は、前記コントローラデバイスの振動状態を表す情報として、前記コントローラデバイスの周囲の音声を集音し、
前記判断手段は、前記集音された音声の信号に、予め定められた周波数の信号が含まれているときに、前記コントローラデバイスにて異音が生じていると判断する情報処理システム。 - 請求項1または2に記載の情報処理システムであって、
前記コントローラデバイスが複数の振動体を備え、
前記判断手段が、コントローラデバイスにて異音が生じているか否かを判断するとともに、当該異音の発生源の位置を推定し、
前記情報処理装置が、前記判断手段が異音が生じていると判断している間は、前記コントローラデバイスの複数の振動体のいずれかを、当該推定された位置から近い順に、順次選択し、選択した振動体に対して出力する制御信号に対して補正処理を行う情報処理システム。 - 請求項1から3のいずれか一項に記載の情報処理システムであって、
前記情報処理装置は、前記補正された制御信号を出力した後に、前記判断手段が異音が生じていると判断しているときには、当該制御信号に対する補正処理をとりやめる情報処理システム。 - 請求項1から4のいずれか一項に記載の情報処理システムであって、
前記情報処理装置は、制御信号の出力時に、過去、振動体の振動中に異音が生じた際の前記コントローラデバイスの姿勢の情報に基づいて、当該出力する制御信号により異音が発生するか否かを予測し、異音が発生すると予測されるときに、前記振動体の制御信号を補正して出力する情報処理システム。 - 少なくとも一つの振動体を備えるコントローラデバイスに対し、前記振動体の制御信号を出力するコンピュータを用い、
受入手段が、前記振動体の振動の状態を表す情報を用い、前記コントローラデバイスにて異音が生じているか否かを判断した結果を受け入れる工程と、
出力手段が、コントローラデバイスにて異音が生じていると判断されたときに、前記振動体の制御信号に対して補正処理を行って、当該補正処理により補正された制御信号を出力する工程と、
を含む振動制御方法。 - 少なくとも一つの振動体を備えるコントローラデバイスに対し、前記振動体の制御信号を出力するコンピュータを、
前記振動体の振動中に取得された、前記コントローラデバイスの振動状態を表す情報を用い、前記コントローラデバイスにて異音が生じているか否かを判断した結果を受け入れる手段と、
コントローラデバイスにて異音が生じていると判断されたときに、前記振動体の制御信号に対して補正処理を行って、当該補正処理により補正された制御信号を出力する手段と、
として機能させるプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018556629A JP6626992B2 (ja) | 2016-12-15 | 2017-12-07 | 情報処理システム、振動制御方法、及びプログラム |
| US16/344,148 US10963054B2 (en) | 2016-12-15 | 2017-12-07 | Information processing system, vibration control method and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016-243640 | 2016-12-15 | ||
| JP2016243640 | 2016-12-15 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018110433A1 true WO2018110433A1 (ja) | 2018-06-21 |
Family
ID=62558544
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/044073 Ceased WO2018110433A1 (ja) | 2016-12-15 | 2017-12-07 | 情報処理システム、振動制御方法、及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10963054B2 (ja) |
| JP (1) | JP6626992B2 (ja) |
| WO (1) | WO2018110433A1 (ja) |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018110433A1 (ja) * | 2016-12-15 | 2018-06-21 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、振動制御方法、及びプログラム |
| US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
| US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
| WO2018193514A1 (ja) | 2017-04-18 | 2018-10-25 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| JP6833018B2 (ja) | 2017-04-18 | 2021-02-24 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| JP6887011B2 (ja) | 2017-04-19 | 2021-06-16 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| JP6757466B2 (ja) | 2017-04-26 | 2020-09-16 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| US11738261B2 (en) | 2017-08-24 | 2023-08-29 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| JP6893561B2 (ja) | 2017-08-24 | 2021-06-23 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| JP7037567B2 (ja) | 2017-08-29 | 2022-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置、振動制御方法、及びプログラム |
| WO2020079853A1 (ja) | 2018-10-19 | 2020-04-23 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、コントローラ装置、情報処理装置、及びプログラム |
| JPWO2020079854A1 (ja) * | 2018-10-19 | 2021-09-02 | 株式会社ソニー・インタラクティブエンタテインメント | コントローラ装置、その制御方法、及びプログラム |
| JP7179084B2 (ja) * | 2018-11-30 | 2022-11-28 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、その制御方法、及びプログラム |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003228453A (ja) * | 1999-09-28 | 2003-08-15 | Immersion Corp | 振動体感フィードバック装置の体感刺激の制御方法 |
| JP2004129120A (ja) * | 2002-10-07 | 2004-04-22 | Nec Corp | バイブレータ制御機能付き無線電話機及び無線電話機のバイブレータ制御方法 |
| WO2016038953A1 (ja) * | 2014-09-10 | 2016-03-17 | ソニー株式会社 | 検出装置、検出方法、制御装置、および制御方法 |
Family Cites Families (95)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5889670A (en) | 1991-10-24 | 1999-03-30 | Immersion Corporation | Method and apparatus for tactilely responsive user interface |
| JPH0884858A (ja) | 1994-09-16 | 1996-04-02 | Sega Enterp Ltd | コントローラ保持具 |
| US7091948B2 (en) | 1997-04-25 | 2006-08-15 | Immersion Corporation | Design of force sensations for haptic feedback computer interfaces |
| JPH11226265A (ja) | 1998-02-13 | 1999-08-24 | Human Kk | 振動ゲーム装置 |
| CN1222911C (zh) | 1998-05-19 | 2005-10-12 | 索尼电脑娱乐公司 | 图像处理装置和方法 |
| JPH11356008A (ja) * | 1998-06-05 | 1999-12-24 | Mitsumi Electric Co Ltd | 振動発生用モータにおける騒音防止装置 |
| US6563487B2 (en) | 1998-06-23 | 2003-05-13 | Immersion Corporation | Haptic feedback for directional control pads |
| US6766299B1 (en) * | 1999-12-20 | 2004-07-20 | Thrillionaire Productions, Inc. | Speech-controlled animation system |
| CN100375993C (zh) | 2000-09-28 | 2008-03-19 | 伊默逊股份有限公司 | 用于触觉反馈接口设备的有方向触觉反馈 |
| JP3556194B2 (ja) | 2000-10-13 | 2004-08-18 | 松下電器産業株式会社 | 音楽再生機能を有する携帯電話機、音楽再生機能を有する携帯電話機による音楽データ再生方法およびそのプログラム |
| WO2002073385A1 (en) | 2001-03-08 | 2002-09-19 | National Institute Of Advanced Industrial Science And Technology | Method and unit for presenting inner force sense using gyro |
| US7010488B2 (en) * | 2002-05-09 | 2006-03-07 | Oregon Health & Science University | System and method for compressing concatenative acoustic inventories for speech synthesis |
| JP3972800B2 (ja) | 2002-11-08 | 2007-09-05 | 株式会社デンソー | 入力装置 |
| JP2005058404A (ja) | 2003-08-11 | 2005-03-10 | Family Co Ltd | マッサージ機 |
| JP4111278B2 (ja) | 2003-11-20 | 2008-07-02 | 独立行政法人産業技術総合研究所 | 触力覚情報提示システム |
| US7742036B2 (en) | 2003-12-22 | 2010-06-22 | Immersion Corporation | System and method for controlling haptic devices having multiple operational modes |
| CN1914583A (zh) | 2004-02-03 | 2007-02-14 | 诺基亚公司 | 用于在移动终端设备中实现振动输出命令的方法和设备 |
| JP2005332063A (ja) | 2004-05-18 | 2005-12-02 | Sony Corp | 触覚機能付き入力装置、情報入力方法及び電子機器 |
| JP2007071782A (ja) | 2005-09-08 | 2007-03-22 | Canon Inc | 位置姿勢計測システム及びその計測方法、並びに制御プログラム |
| US8249276B2 (en) * | 2005-09-15 | 2012-08-21 | Sony Computer Entertainment Inc. | Information processor and controller device |
| JP2007324829A (ja) | 2006-05-31 | 2007-12-13 | Toshiba Corp | 振動体感再生装置及び振動体感再生方法 |
| JP4961904B2 (ja) | 2006-08-30 | 2012-06-27 | 株式会社島津製作所 | ヘッドモーショントラッカ装置 |
| JP5228307B2 (ja) | 2006-10-16 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
| WO2008078523A1 (ja) | 2006-12-25 | 2008-07-03 | Konica Minolta Holdings, Inc. | 手書き電子入力システム |
| JP3132531U (ja) | 2007-03-22 | 2007-06-14 | 株式会社バンダイナムコゲームス | 装着具 |
| US7596795B2 (en) | 2007-04-17 | 2009-09-29 | Seagate Technology Llc | Vibration compensation based on identification of vibration frequency |
| JP4892443B2 (ja) | 2007-07-09 | 2012-03-07 | 株式会社ソニー・コンピュータエンタテインメント | ゲームコントローラ |
| US9174122B2 (en) | 2007-07-09 | 2015-11-03 | Sony Corporation | Game controller |
| JPWO2009035100A1 (ja) | 2007-09-14 | 2010-12-24 | 独立行政法人産業技術総合研究所 | バーチャルリアリティ環境生成装置及びコントローラ装置 |
| US11325029B2 (en) | 2007-09-14 | 2022-05-10 | National Institute Of Advanced Industrial Science And Technology | Virtual reality environment generating apparatus and controller apparatus |
| US8325144B1 (en) | 2007-10-17 | 2012-12-04 | Immersion Corporation | Digital envelope modulator for haptic feedback devices |
| US8727878B2 (en) * | 2008-07-18 | 2014-05-20 | Disney Enterprises, Inc. | Video game controller |
| JP5594944B2 (ja) | 2008-08-05 | 2014-09-24 | 株式会社島津製作所 | モーショントラッカ装置 |
| JP5156571B2 (ja) | 2008-10-10 | 2013-03-06 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
| US9070282B2 (en) * | 2009-01-30 | 2015-06-30 | Altorr Corp. | Smartphone control of electrical devices |
| KR101613939B1 (ko) | 2009-08-12 | 2016-04-20 | 엘지전자 주식회사 | 이동 단말기 및 이것의 전원 제어 방법 |
| US8487759B2 (en) | 2009-09-30 | 2013-07-16 | Apple Inc. | Self adapting haptic device |
| US9436280B2 (en) | 2010-01-07 | 2016-09-06 | Qualcomm Incorporated | Simulation of three-dimensional touch sensation using haptics |
| JP2011183374A (ja) | 2010-02-10 | 2011-09-22 | Sanyo Electric Co Ltd | 電子機器 |
| EP2630554B1 (en) | 2010-10-19 | 2020-01-08 | Nokia Technologies Oy | A display apparatus |
| JP2012103852A (ja) | 2010-11-09 | 2012-05-31 | Tokai Rika Co Ltd | タッチ式入力装置 |
| JP5887830B2 (ja) | 2010-12-10 | 2016-03-16 | 株式会社ニコン | 電子機器及び振動方法 |
| KR20140112386A (ko) | 2011-03-17 | 2014-09-23 | 코액티브 드라이브 코포레이션 | 다수의 동기화 진동 액츄에이터로부터의 비대칭적이고 일반적인 진동 파형 |
| JP5738052B2 (ja) | 2011-04-18 | 2015-06-17 | 京セラ株式会社 | 携帯情報端末、触覚サーバ、触覚サービスシステム、及び通信方法 |
| JP2013052046A (ja) | 2011-09-02 | 2013-03-21 | Panasonic Corp | 触力覚的情報提示装置 |
| KR101891858B1 (ko) | 2011-09-06 | 2018-08-24 | 임머숀 코퍼레이션 | 햅틱 출력 장치 및 햅틱 출력 장치에서 햅틱 효과를 생성하는 방법 |
| JP2013054645A (ja) | 2011-09-06 | 2013-03-21 | Denso Wave Inc | 光学的情報読取装置 |
| KR20140068080A (ko) * | 2011-09-09 | 2014-06-05 | 아티큘레이트 테크놀로지스, 인코포레이티드 | 스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들 |
| EP2734977B1 (en) | 2012-02-22 | 2015-06-24 | Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi | System and method for optimizing tracker system |
| JP6055612B2 (ja) | 2012-05-22 | 2016-12-27 | 京セラ株式会社 | 電子機器 |
| US9128523B2 (en) | 2012-12-20 | 2015-09-08 | Amazon Technologies, Inc. | Dynamically generating haptic effects from audio data |
| US9098984B2 (en) | 2013-03-14 | 2015-08-04 | Immersion Corporation | Haptic effects broadcasting during a group event |
| US9630098B2 (en) | 2013-06-09 | 2017-04-25 | Sony Interactive Entertainment Inc. | Head mounted display |
| US10101789B2 (en) | 2013-08-08 | 2018-10-16 | Honeywell International Inc. | Battery management in wireless mesh networks |
| US20150059086A1 (en) * | 2013-08-29 | 2015-03-05 | Altorr Corporation | Multisensory control of electrical devices |
| US10599218B2 (en) | 2013-09-06 | 2020-03-24 | Immersion Corporation | Haptic conversion system using frequency shifting |
| WO2015059887A1 (ja) | 2013-10-25 | 2015-04-30 | パナソニックIpマネジメント株式会社 | 電子機器 |
| JP2015116508A (ja) * | 2013-12-16 | 2015-06-25 | 富士通株式会社 | 筐体の振動装置及び振動装置を備える電子機器 |
| JP2015118605A (ja) | 2013-12-19 | 2015-06-25 | キヤノン株式会社 | 触感制御装置、制御方法及びプログラム |
| JP2015121983A (ja) | 2013-12-24 | 2015-07-02 | 京セラ株式会社 | 触感呈示装置 |
| WO2015121971A1 (ja) | 2014-02-14 | 2015-08-20 | 富士通株式会社 | 触感提供装置、及び、システム |
| JP6237326B2 (ja) | 2014-02-25 | 2017-11-29 | 富士通株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム |
| JP2015185137A (ja) | 2014-03-26 | 2015-10-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| EP3611597B1 (en) | 2014-03-31 | 2023-06-07 | Sony Group Corporation | Tactile sense presentation device, signal generating device, tactile sense presentation system, and tactile sense presentation method |
| JP6119658B2 (ja) | 2014-04-07 | 2017-04-26 | 株式会社デンソー | タッチ式入力システム |
| US10022622B2 (en) | 2014-04-21 | 2018-07-17 | Steelseries Aps | Programmable actuation inputs of an accessory and methods thereof |
| JP6322830B2 (ja) | 2014-05-09 | 2018-05-16 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |
| FR3021442B1 (fr) | 2014-05-21 | 2018-01-12 | Airbus Group Sas | Procede de traitement d'informations locales |
| JP6167068B2 (ja) | 2014-05-28 | 2017-07-19 | 日本電信電話株式会社 | 擬似力覚発生装置 |
| JP6108624B2 (ja) | 2014-05-30 | 2017-04-05 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置及びこれを備えた画像形成装置 |
| JP6323182B2 (ja) | 2014-06-03 | 2018-05-16 | 富士通株式会社 | 電子書籍装置および電子書籍プログラム |
| JP2015231098A (ja) | 2014-06-04 | 2015-12-21 | ソニー株式会社 | 振動装置、および振動方法 |
| JP2016002797A (ja) | 2014-06-13 | 2016-01-12 | アイシン精機株式会社 | 車両機器制御装置及び制御方法 |
| JP6361872B2 (ja) | 2014-07-09 | 2018-07-25 | 任天堂株式会社 | 振動生成システム、振動生成装置、振動信号生成プログラム、および振動生成方法 |
| US10019059B2 (en) | 2014-08-22 | 2018-07-10 | Sony Interactive Entertainment Inc. | Glove interface object |
| US10048835B2 (en) | 2014-10-31 | 2018-08-14 | Microsoft Technology Licensing, Llc | User interface functionality for facilitating interaction between users and their environments |
| US9846484B2 (en) | 2014-12-04 | 2017-12-19 | Immersion Corporation | Systems and methods for controlling haptic signals |
| JP6527339B2 (ja) | 2015-01-27 | 2019-06-05 | 任天堂株式会社 | 振動信号生成プログラム、振動生成装置、振動生成システム、および振動信号生成方法 |
| JP6445921B2 (ja) | 2015-04-21 | 2018-12-26 | 任天堂株式会社 | 振動信号生成プログラム、振動信号生成システム、振動信号生成装置、振動信号生成方法、およびデータ出力プログラム |
| JPWO2016186041A1 (ja) | 2015-05-15 | 2017-12-14 | フィールズ株式会社 | 振動式入力装置 |
| JP6222186B2 (ja) | 2015-08-11 | 2017-11-01 | コニカミノルタ株式会社 | 操作パネル、およびそれを備えた画像形成装置 |
| US10109161B2 (en) | 2015-08-21 | 2018-10-23 | Immersion Corporation | Haptic driver with attenuation |
| US20170061784A1 (en) * | 2015-08-27 | 2017-03-02 | Altorr Corporation | Sip-and-puff Controller of Electrical Devices for Paraplegic or Quadriplegic Humans |
| WO2017043400A1 (ja) | 2015-09-08 | 2017-03-16 | ソニー株式会社 | 情報処理装置、方法およびコンピュータプログラム |
| US9842476B2 (en) | 2015-09-25 | 2017-12-12 | Immersion Corporation | Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference |
| JP6509698B2 (ja) | 2015-09-29 | 2019-05-08 | 日本電信電話株式会社 | 提示する力覚を決定する装置、方法、およびプログラム |
| US10398178B2 (en) | 2015-11-06 | 2019-09-03 | Mark Scatterday | Electronic vaporizer |
| JP6587941B2 (ja) | 2016-01-14 | 2019-10-09 | 株式会社デンソーテン | 入力装置、表示装置、および、入力装置の振動状態検出方法 |
| US10198074B2 (en) | 2016-02-18 | 2019-02-05 | Immersion Corporation | Haptically-enabled modular peripheral device assembly |
| US20180098583A1 (en) | 2016-10-12 | 2018-04-12 | Oculus Vr, Llc | Force grounding wristband for haptic glove |
| CN110036358A (zh) | 2016-12-01 | 2019-07-19 | 小利兰·斯坦福大学托管委员会 | 通过来自机械隔离的执行器的提示的感知组合的矢量触觉反馈 |
| WO2018110433A1 (ja) * | 2016-12-15 | 2018-06-21 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、振動制御方法、及びプログラム |
| US9792501B1 (en) | 2016-12-31 | 2017-10-17 | Vasuyantra Corp. | Method and device for visually impaired assistance |
| KR102442179B1 (ko) * | 2017-11-17 | 2022-09-08 | 삼성전자주식회사 | 웨어러블 장치를 통하여 햅틱 피드백을 제공하는 전자 장치 및 그 방법 |
| US10620705B2 (en) | 2018-06-01 | 2020-04-14 | Google Llc | Vibrating the surface of an electronic device to raise the perceived height at a depression in the surface |
-
2017
- 2017-12-07 WO PCT/JP2017/044073 patent/WO2018110433A1/ja not_active Ceased
- 2017-12-07 US US16/344,148 patent/US10963054B2/en active Active
- 2017-12-07 JP JP2018556629A patent/JP6626992B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003228453A (ja) * | 1999-09-28 | 2003-08-15 | Immersion Corp | 振動体感フィードバック装置の体感刺激の制御方法 |
| JP2004129120A (ja) * | 2002-10-07 | 2004-04-22 | Nec Corp | バイブレータ制御機能付き無線電話機及び無線電話機のバイブレータ制御方法 |
| WO2016038953A1 (ja) * | 2014-09-10 | 2016-03-17 | ソニー株式会社 | 検出装置、検出方法、制御装置、および制御方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2018110433A1 (ja) | 2019-06-24 |
| US10963054B2 (en) | 2021-03-30 |
| JP6626992B2 (ja) | 2019-12-25 |
| US20190332174A1 (en) | 2019-10-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6626992B2 (ja) | 情報処理システム、振動制御方法、及びプログラム | |
| JP6799077B2 (ja) | 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム | |
| JP6626576B2 (ja) | 操作デバイス、及び制御システム | |
| JP6877995B2 (ja) | 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法 | |
| JP4553917B2 (ja) | ゲームプログラムの実行を制御するための入力を取得する方法 | |
| JP5426713B2 (ja) | ジェスチャカタログ生成および認識 | |
| JP6771659B2 (ja) | 振動制御装置 | |
| JP7456388B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6959349B2 (ja) | 操作デバイス、及びその制御装置 | |
| JP2016067409A (ja) | センサー、運動計測システム及び運動計測方法 | |
| US20190018489A1 (en) | Control method and immersive system for generating haptic feedback | |
| JP2016067408A (ja) | センサー、演算装置、運動計測方法、運動計測システム及びプログラム | |
| JP6903137B2 (ja) | 振動制御装置 | |
| JP2009122476A (ja) | 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法 | |
| JP6687749B2 (ja) | 情報処理装置、制御方法、プログラム、及び記録媒体 | |
| JP2010205214A (ja) | 制御装置及びヘッドマウントディスプレイ装置 | |
| JP4853950B2 (ja) | ゲームシステム、プログラム、情報記憶媒体 | |
| JP6094111B2 (ja) | 演奏装置、演奏方法及びプログラム | |
| US10917710B2 (en) | System and earphone related to transformation of sensed data | |
| JP6098082B2 (ja) | 演奏装置、演奏方法及びプログラム | |
| JP2007195588A (ja) | 武器チェンジ振動機能を備える操作装置 | |
| EP1852164A2 (en) | Obtaining input for controlling execution of a game program | |
| JP6098083B2 (ja) | 演奏装置、演奏方法及びプログラム | |
| JP2019098231A (ja) | 触覚再現装置及び触覚再現信号生成方法 | |
| CN121532734A (zh) | 信息处理系统、信息处理方法以及力觉呈现设备 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17882125 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2018556629 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17882125 Country of ref document: EP Kind code of ref document: A1 |