WO2024128315A1 - プログラム、コンピュータ装置及び方法 - Google Patents
プログラム、コンピュータ装置及び方法 Download PDFInfo
- Publication number
- WO2024128315A1 WO2024128315A1 PCT/JP2023/045039 JP2023045039W WO2024128315A1 WO 2024128315 A1 WO2024128315 A1 WO 2024128315A1 JP 2023045039 W JP2023045039 W JP 2023045039W WO 2024128315 A1 WO2024128315 A1 WO 2024128315A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- imaging
- display screen
- information
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/40—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for data related to laboratory analysis, e.g. patient specimen analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
Definitions
- the present invention relates to a program, a computer device and a method.
- the oral cavity is an organ involved in important bodily functions for humans, such as the swallowing function for eating, the pronunciation function for speaking, and the respiratory function for breathing. Swallowing function, pronunciation function, and respiratory function are each divided into different specialties by multiple medical departments, such as oral and maxillofacial surgery, otorhinolaryngology, rehabilitation, and respiratory medicine. As a result, due to differences in specialties, they are not evaluated across the board, making it difficult to get an opportunity to understand the current state of one's swallowing function, pronunciation function, and respiratory function, and sometimes not being able to receive appropriate diagnosis or treatment. In addition, swallowing function, pronunciation function, and respiratory function often deteriorate gradually with age, rather than one of them suddenly deteriorating. As a result, people have few subjective symptoms of deterioration and are unable to receive appropriate examinations, making it difficult to prevent a decline in oral function.
- an evaluation program for simply and easily evaluating oral function has been disclosed (for example, Patent Document 1).
- information on oral function evaluation such as oral hygiene, oral dryness, number of teeth, bite force, pronunciation of "pa”, “ta”, “ka”, tongue pressure, chewing function, swallowing function, etc. is input, and the results of the oral function evaluation are displayed in a specified diagram.
- obtaining an oral function evaluation requires a special device for measurement, and it has not been anticipated that the user himself would carry out the measurement and understand his oral function. Furthermore, it has not been anticipated that the user would be able to prevent a decline in oral function.
- a first object of the present invention is to provide a program for acquiring image information necessary to evaluate a user's condition.
- a second object of the present invention is to provide a program that simultaneously displays information regarding the action required of the user and the user performing the action.
- the object of the present invention is to [1] A program executed on a computer device having a display device with a rectangular display screen and an imaging device arranged near one of the longitudinal ends of the display screen, in which the imaging device is arranged so that when a user is present in a space that can be imaged by the imaging device, the user can visually recognize the user imaged on the display screen of the display device, the program causes the computer device to function as an imaging means for imaging the space using the imaging device, an information output means for outputting information regarding an action required of the user, and an instruction means for outputting instruction information for requesting the user to position the imaging device on the opposite side of the display screen to the side where the one end is located; [2] A program executed on a computer device equipped with a display device having a display screen and an imaging device, in which the imaging device is arranged so that when a user is in a space that can be imaged by the imaging device, the user can visually recognize the user imaged on the display screen of the display device, the program causing the computer device to function as an
- the present invention it is possible to provide a program for acquiring image information necessary for evaluating a user's condition.
- a program that simultaneously displays information regarding an action required of a user and the user performing that action.
- FIG. 1 is a block diagram showing a configuration of a system according to an embodiment of the present invention.
- FIG. 2 is a diagram showing an example of the appearance of a user terminal according to an embodiment of the present invention.
- 2 is a block diagram showing a hardware configuration of a user terminal according to an embodiment of the present invention.
- FIG. 2 is a block diagram showing a hardware configuration of a server device according to an embodiment of the present invention.
- FIG. FIG. 11 is a flowchart showing an evaluation process according to an embodiment of the present invention.
- FIG. 4 is a diagram showing an example of a display screen according to the embodiment of the present invention.
- FIG. 4 is a diagram showing an example of a display screen according to the embodiment of the present invention.
- FIG. 4 is a diagram showing an example of a display screen according to the embodiment of the present invention.
- FIG. 2 is a schematic diagram of a display screen according to an embodiment of the present invention.
- FIG. 4 is a diagram showing an example of a display screen according to the embodiment of the present invention.
- FIG. 4 is a diagram showing an example of a display screen according to the embodiment of the present invention.
- FIG. 4 is a flowchart showing an exercise process according to an embodiment of the present invention.
- FIG. 1 is a block diagram showing the configuration of a system according to an embodiment of the present invention.
- the system includes a user terminal 1 and a server device 2.
- the user terminal 1 and the server device 2 are communicatively connected to each other via a communication network 3.
- either the user terminal 1 or the server device 2 can function as an information processing device.
- information is transmitted and received between the user terminal 1 and the server device 2 as necessary.
- the system may include only one user terminal 1.
- the system may also include two or more user terminals 1.
- the system may also include two or more server devices 2.
- the system may include a first server device that transmits information such as instruction information, a second server device that receives information from the user terminal 1, and/or a third server device that receives information from the second server device and performs processing related to the evaluation of the operation information.
- the user terminal 1 is operated by a user who performs an action.
- the user terminal 1 is not particularly limited as long as it is a computer device equipped with an imaging device.
- the user terminal 1 is a computer device equipped with a display device and an imaging device. Examples of the user terminal 1 include a conventional mobile phone, a tablet terminal, a smartphone, etc.
- FIG. 2 is a diagram showing an example of the appearance of a user terminal according to an embodiment of the present invention.
- the user terminal 1 has a rectangular shape.
- the user terminal 1 has a camera 5 on the surface on which the display screen 4 is provided (also referred to as the front surface of the user terminal 1).
- the user terminal 1 may also have a speaker and a microphone 6 on the front surface.
- the display device provided on the user terminal 1 has a rectangular display screen 4.
- the rectangle may include an approximately rectangular shape, such as a rectangle with rounded corners, an ellipse, a rectangle with part of it missing, etc.
- the camera 5 functions as an imaging device.
- the camera 5 is disposed near the upper edge of the user terminal 1 in the normal orientation when the user operates the user terminal 1. It is also said that the camera 5 is installed near one end of the upper side of the longitudinal direction of the user terminal 1.
- the imaging device is disposed near one end of the longitudinal direction of the display screen.
- the vicinity of one end of the longitudinal direction of the user terminal 1 is, for example, a portion from one end of the longitudinal direction of the user terminal 1 toward the longitudinal center of the user terminal 1 up to 1/3 of the longitudinal length of the user terminal 1.
- the position of the camera 5 in the lateral direction is not particularly limited.
- the camera 5 may be disposed near the center of the user terminal 1, or may be disposed on the right or left side of the user terminal 1.
- camera 5 is positioned so that, when a user is in a space where an image can be captured by camera 5, the user can view the image of the user captured by camera 5 on display screen 4 of the display device.
- camera 5 and display screen 4 are provided on the same surface of user terminal 1.
- camera 5 captures an image of the user, and the captured image of the user is displayed on display screen 4.
- the user can view the image of themselves displayed on display screen 4 while being photographed by camera 5.
- the visual axis of the camera 5 is preferably arranged perpendicular to the display screen 4.
- the camera 5 can capture an image of the space perpendicular to the display screen 4.
- the camera 5 can also be called the in-camera or front camera of the user terminal 1.
- the user terminal 1 may be provided with not only the camera 5, but also another camera on the back side of the surface on which the display screen 4 of the user terminal 1 is provided.
- FIG. 3 is a block diagram showing the hardware configuration of a user terminal according to an embodiment of the present invention.
- the user terminal 1 includes a control unit 11, a RAM 12, a storage unit 13, an input unit 14, a display unit 15, and a communication interface 16, each of which is connected by an internal bus.
- the control unit 11 is composed of a CPU and a ROM.
- the control unit 11 executes programs stored in the storage unit 13 and controls the user terminal 1.
- the RAM 12 is the work area of the control unit 11.
- the storage unit 13 is a storage area for saving programs and data. In other words, the storage unit 13 functions as a recording medium that stores programs.
- the control unit 11 performs calculations based on the programs and data read from the RAM 12, and on data input by the input unit 14, the imaging unit 17, or the sound recording unit 18.
- the display unit 15 has a display screen 4.
- the control unit 11 outputs a video signal for displaying an image on the display screen 4 according to the result of the calculation process.
- the display screen 4 of the display unit 15 may be a touch panel equipped with a touch sensor.
- the touch panel functions as the input unit 14.
- the user terminal 1 may also have an imaging unit 17 such as a camera, a recording unit 18 such as a microphone or recorder, and a sound output unit 19 such as a speaker.
- the user terminal 1 may also have a sensor unit.
- the sensor unit may include at least one sensor selected from the group consisting of a depth sensor, an acceleration sensor, a gyro sensor, a GPS sensor, a fingerprint authentication sensor, a proximity sensor, a magnetic sensor, a brightness sensor, a GPS sensor, and an air pressure sensor.
- the communication interface 16 can be connected to the communication network 3 wirelessly or via a wired connection, and can transmit and receive data to and from other computer devices via the communication network 3. Data received via the communication interface 16 is loaded into the RAM 12, and the control unit 11 performs arithmetic processing.
- FIG. 3 is a block diagram showing the hardware configuration of a server device according to an embodiment of the present invention.
- the server device 2 includes at least a control unit 21, a RAM 22, a storage unit 23, and a communication interface 24, each of which is connected by an internal bus.
- the control unit 21 is composed of a CPU and ROM, and executes programs stored in the storage unit 23 to control the server device 2.
- the control unit 21 also has an internal timer that measures time.
- the RAM 22 is the work area of the control unit 21.
- the storage unit 23 is a storage area for saving programs and data. In other words, the storage unit 23 functions as a recording medium that stores programs.
- the control unit 21 reads out the programs and data from the RAM 22, and performs program execution processing based on information received from each of the user terminals 1.
- server device 2 may function in a distributed manner across multiple computer devices.
- a distributed ledger technology such as a blockchain may be used instead of the server device 2.
- the program may also be stored in a recording medium such as a CD-ROM.
- the program stored in the recording medium may be installed in the user terminal 1 or the server device 2 to execute a specified function.
- the program may be distributed from a computer device external to the system.
- the program distributed from the computer device external to the system may be installed in the user terminal 1 or the server device 2 to execute a specified function.
- the system may include an evaluation process for acquiring the user's movements and evaluating the user's condition, and an exercise process for making the user perform an action.
- the user's condition to be evaluated may be the user's health condition or the state of the user's physical functions. Examples of the user's physical functions include the user's oral function, swallowing function, pronunciation function, respiratory function, and the like.
- the evaluation process may also evaluate whether the user has a certain disease, such as a swallowing disorder, or the possibility of having such a disease.
- the evaluation process may also be a process for comprehensively evaluating the user's oral function.
- the exercise processing may maintain or improve the user's health condition or physical functions.
- the system of the present invention can be provided to users who wish to maintain or improve their health condition, for cosmetic purposes such as clarifying the contours of their face, to improve their vocal ability, or to improve their ability to swallow food, etc.
- [Evaluation process] 4 is a diagram showing a flowchart of the evaluation process according to the embodiment of the present invention.
- a user starts an application program (hereinafter, referred to as a dedicated application) downloaded to the user terminal 1 and accesses the server device 2, thereby logging in to the system. Logging in to the system may be performed by accessing the server device 2 from the user terminal 1 via a web browser.
- a dedicated application an application program
- Logging in to the system may be performed by accessing the server device 2 from the user terminal 1 via a web browser.
- the user When a user logs into the system for the first time, the user operates the user terminal 1 to perform initial settings by inputting information about the user. As the initial settings, the user inputs user information about the user, such as the user name, password, gender, date of birth, medical history, occupation, and company. The user may also input whether the camera 5 of the user terminal 1 is located near the top or bottom edge of the user terminal 1.
- the entered user information is sent to the server device 2, where the user is registered. It is preferable that the registered user is given user identification information (hereinafter also referred to as a user ID) for identifying the user.
- the user ID may be stored in association with the user information. Also, a page dedicated to the registered user is created in the system.
- the user When logging in to the system, the user may be required to enter a pre-registered user ID and password. Alternatively, when logging in to the system, the user may be required to enter a pre-registered email address and password.
- step S1 the user inputs the start of the evaluation process on the user terminal 1 (step S1).
- the input information regarding the start of the evaluation process is transmitted from the user terminal 1 to the server device 2 and received by the server device 2.
- the server device 2 accepts the start of the evaluation process (step S2).
- brightness adjustment information for adjusting the brightness of the display screen 4 of the user terminal 1 is transmitted from the server device 2 to the user terminal 1 (step S3).
- the brightness adjustment information is received by the user terminal 1 (step S4).
- the brightness adjustment process of the display screen 4 is executed in accordance with the received brightness adjustment information (step S5).
- the adjustment process may, for example, adjust the brightness of the display screen 4 of the display device, output instruction information regarding brightness that requests the user to adjust the brightness of the display screen 4 of the display device, or output adjustment information for adjusting the brightness of the display screen 4 of the display device. It is preferable that the brightness of the display screen 4 of the display device is set to the maximum brightness that can be set on the user terminal 1.
- step S16 in order to evaluate which category of the Marampati classification, which is an indicator for detecting sleep apnea syndrome, the acquired motion information belongs to, it is necessary to acquire an image of the user's soft palate.
- the image of the soft palate is acquired by taking images of the inside of the mouth and the back of the throat. Because the inside of the mouth and the back of the throat are dark, in order to acquire clear images, it is necessary to brightly illuminate the inside of the mouth and the back of the throat when taking the image.
- a camera 5 provided on the surface on which the display screen 4 is provided when acquiring an image of a user, a camera 5 provided on the surface on which the display screen 4 is provided is used.
- a light is provided near the camera on the back of the user terminal 1, while a light may not be provided near the camera 5 on the front of the user terminal 1.
- the light provided on the back can be used, but when using the camera 5 on the front of the user terminal 1, the light may not be available. Therefore, in one aspect of the present invention, even when using the camera 5 on the front of the user terminal 1, the user terminal 1 can acquire clear images of the inside of the user's mouth and the back of the throat by adjusting the brightness of the display screen 4.
- the user terminal 1 can acquire an image in which the inside of the user's mouth and the back of the throat are displayed in a distinguishable manner, and can appropriately acquire images necessary for evaluating the user's actions.
- the display screen 4 may be automatically adjusted to a predetermined brightness by the user terminal 1.
- Information regarding the predetermined brightness is registered in advance in the server device 2.
- the predetermined brightness is a predetermined brightness, and is preferably maximum brightness.
- brightness instruction information when brightness instruction information is output that requests the user to adjust the brightness of the display screen 4 of the display device, text information, image information, and/or audio information may be output as the brightness instruction information.
- the user can adjust the brightness of the display screen 4 according to the brightness instruction information.
- a brightness adjustment screen or a brightness adjustment bar may be displayed as the adjustment information. The user can adjust the brightness of the display screen 4 according to the adjustment information.
- steps S3 to S5 are executed once for a series of operations in the evaluation process, but they may be executed for each operation requested of the user.
- the brightness of the display screen 4 may be adjusted according to the operation requested of the user.
- steps S3 to S5 may be executed after step S7, which will be described later.
- steps S3 to S5 may be executed simultaneously with steps S12 and S13 described below.
- steps S12 and S13 the display screen 4 of the user terminal 1 may be automatically adjusted to a predetermined brightness only while the operation information is being acquired.
- the brightness adjustment process of the display screen 4 in steps S12 and S13 may be executed according to the operation required of the user.
- instruction information is sent from the server device 2 to the user terminal 1 (step S6).
- the instruction information is received by the user terminal 1 (step S7).
- the instruction information is information regarding an action requested of the user, and includes information regarding instructions for the user to perform that action. It can also be said that the instruction information includes information that requests the user to perform a specific action.
- the actions required of the user refer to, for example, actions that the user is made to perform in order to obtain images or audio required to evaluate the user's condition.
- the actions required of the user may be an action of opening the mouth wide, an action of sticking out the tongue, an action of swallowing saliva and moving the throat, an action of opening the mouth and making a predetermined sound, an action of saying a predetermined tongue twister, an action of turning the user terminal 1 and moving the position of the camera 5, an action of tilting the user terminal 1 to take an image, an action of taking an image at a predetermined distance from the camera 5, and the like.
- Examples of the images or audio to be obtained include images of the user moving part of their body, audio uttering predetermined words, audio uttered while performing a predetermined movement, and images of the movement. Note that images include both moving images and still images.
- the information regarding the action requested of the user may be text information regarding the action, image information regarding the action, and/or audio information regarding the action. It may be any one of text information, image information, and audio information, or it may be a combination of two or more of these.
- step S16 in order for the server device 2 to evaluate the user's condition, it is necessary to acquire image information that is uniform in terms of image brightness, orientation or angle, position on the screen, size on the screen, etc., for the parts of the user that are imaged. Alternatively, it is necessary to acquire audio information that is uniform in content and volume.
- the instruction information is used to acquire uniform image information and/or audio information on the user terminal 1.
- the instruction information is stored in the server device 2 in association with each action requested of the user.
- the instruction information may also include information regarding the order of actions in the evaluation menu described below, and information regarding the previous action.
- the information regarding the previous action includes information regarding whether or not to obtain the action information regarding the action by inverting the user terminal 1.
- the instruction information includes first instruction information and second instruction information. Each type of information will be described later.
- the user terminal 1 When the user terminal 1 receives the instruction information (step S7) and the adjustment of the brightness of the display screen 4 in step S5 is completed, the user terminal 1 outputs first instruction information (step S8).
- the first instruction information is instruction information for causing the user to carry out the necessary preparations for acquiring images or sounds before acquiring the images or sounds required to evaluate the user's condition. Note that output does not only include displaying text information and/or image information on the display screen 4, but also outputting audio information from the speaker of the user terminal 1.
- step S7 If the action associated with the instruction information received in step S7 is an action of flipping the user terminal 1 to obtain action information, when the first instruction information is output, the user terminal 1 detects whether or not the user terminal 1 has been flipped within a predetermined time after the first instruction information is output (step S9). That is, the sensor detects that the computer device has been flipped upside down so that the imaging device is on the opposite side of one of the longitudinal ends of the display screen. Whether or not the user terminal 1 has been flipped can be detected by a gyro sensor or the like in the sensor unit.
- the predetermined time may be, for example, within 10 seconds.
- warning information is output to prompt the user to turn over the user terminal 1 (step S10).
- the warning information does not only prompt the user to turn over the user terminal 1, but also includes information that simply informs the user that the user terminal 1 has not been turned over. Then, again in step S9, it is detected whether the user terminal 1 has been turned over within the specified time.
- the user terminal 1 inverts the display of the first instruction information (step S11).
- the user terminal 1 can switch the layout of the information displayed on the display screen and the top and bottom of the characters, symbols or patterns.
- the first instruction information output in step S11 may be information with the same content as the first instruction information output in step S8, with only the layout displayed on the display screen 4 being different.
- the display screen to which the first instruction information is output in step S11 corresponds to FIG. 9.
- the process of inverting the display also called the process of switching the layout in the up and down direction
- step S11 may be executed at the same time as the turning over is detected.
- the first instruction information may be turned over in accordance with the orientation of the user terminal 1. This allows the user to turn the user terminal 1 upside down smoothly.
- Step S12 When the first instruction information is displayed in step S11, the user terminal 1 starts acquiring user motion information (step S12).
- the acquired user motion information may be a still image, a video, or audio, or a combination of two or more.
- Step S12 and step S13 described below can be said to be a process of capturing an image of a space using an imaging device, or a process of recording audio using a sound recording device, or a process of capturing an image of a space using an imaging device or recording audio using a sound recording device after the brightness adjustment of the display screen is completed.
- the operation information whose acquisition is started in step S12 is the operation information to be transmitted to the server device 2.
- the imaging of the space by the imaging device and the output to the display screen 4 may be performed simultaneously with step S7 or S8, and the acquisition of the operation information may be started in step S12.
- the acquisition of the operation information such as recording the operation information, photographing the operation information, or audio recording the operation information, may be started by pressing and selecting a recording start button or the like displayed on the display screen of the user terminal 1.
- second instruction information is output.
- user movement information is acquired and output (step S13).
- the second instruction information is instruction information for making the user perform the movement required to acquire the image or sound required to evaluate the user's condition while the image or sound is being acquired.
- the second instruction information may include information that serves as a model for the movement required of the user.
- the second instruction information is output as information regarding the movement required of the user.
- the second instruction information is displayed on the display screen 4 so that the user can visually recognize the captured image information. Note that, depending on the movement, the first instruction information and the second instruction information may be the same information.
- output has the same meaning as above.
- the acquired image is displayed on the display screen 4 at the same time as acquiring the motion information.
- the user's voice may not be output.
- step S13 the image obtained by imaging and the second instruction information, which is information regarding the movement required of the user, can be displayed on the display screen 4 of the display device. This allows the user to simultaneously check the movement required of the user and his or her own movements, allowing the user to properly perform the intended movement. Then, the user terminal 1 can obtain the movement information required for evaluation.
- the second instruction information may also display text information about the action requested of the user and image information about the action.
- the image information includes still images and videos.
- the image may also be a photograph of a person performing the action, or an illustration.
- a guide corresponding to at least a part of the person's face or upper body may be displayed in the area displaying the image obtained by imaging in step S13.
- the guide is, for example, a point, a line, or a figure combining these that is displayed on the display screen 4 to allow the user to check whether the position and angle of the imaging device relative to the user are appropriate when imaging the user's movements.
- Types of guides include, for example, solid lines, dotted lines, markers, illustrations, etc.
- Examples of at least a part of a person's face or upper body include the outline of a person's face, and specific parts such as the chin or nose.
- the guide is displayed superimposed on the captured image.
- the guide may be displayed in a transparent manner.
- the transparency of the guide may be adjusted by the user or automatically by the system.
- a guide corresponding to the image obtained by capturing the image and at least a part of a person's face or upper body may be displayed.
- the image obtained by capturing the image may be at least a part of a person's face or upper body.
- the guide may also be partially different in color or type.
- the outline of the face may be displayed with a blue dotted line, and the nose with a red solid line. Note that the same guide as the second instruction information may be displayed as the first instruction information.
- the type, position, size, and at least a part of the face or upper body of the person corresponding to the guide may be changed depending on the action required of the user.
- the guide depending on the action required of the user, it is possible to specify the distance between the camera 5 and the user and the angle at which the camera 5 is pointed toward the user for each action required of the user.
- the user can check the captured image of himself/herself that is displayed, and adjust the position of the user terminal 1 and himself/herself so that his/her face fits within the dotted line of the guide.
- the user can adjust the positions of the user terminal 1 and his/her face, etc. by referring to the displayed guide, and can obtain a clear image by using the brightness of the display screen 4 adjusted in step S5.
- the user terminal 1 is operated to end the acquisition of the motion information, and the motion information obtained by imaging and/or recording is transmitted from the user terminal 1 to the server device 2 (step S14).
- the server device 2 receives the motion information (step S15).
- the motion information may be stored in the user terminal 1 and/or the server device 2.
- Steps S6 to S15 are executed for each action. Therefore, steps S6 to S15 are executed repeatedly until all actions included in the evaluation menu are completed.
- an evaluation menu is a set of actions required to evaluate the user's condition, stored in a predetermined order. It can also be said that one or more pieces of instruction information are associated and stored with an evaluation menu.
- the user's condition or symptoms that can be evaluated differ for each evaluation menu, and the type and number of actions associated with the evaluation menu differ depending on the evaluation target.
- one evaluation menu may be selected by inputting the start of the evaluation process, or an arbitrary option may be selected from the evaluation targets represented by multiple options, and an input to start the evaluation process may be made for the evaluation menu corresponding to the selected evaluation target.
- steps S6 to S15 can be applied when the first action is an action in which the user terminal 1 is flipped to acquire motion information, and when the orientation of the user terminal 1 is different when acquiring motion information for previous and next actions. Specifically, this can be applied to an action in which the user terminal 1 is flipped to acquire motion information after an action in which the user terminal 1 is flipped to acquire motion information, or to an action in which the user terminal 1 is flipped to acquire motion information after an action in which the user terminal 1 is flipped to acquire motion information.
- steps S9 to S10 may be omitted, or the processing of steps S9 to S10 may be omitted, and after the processing of step S8, step S11 may be executed by operating the user terminal 1, or the processing of steps S8 to S10 may be omitted.
- the first action is an action for which motion information is acquired without flipping the user terminal 1
- the orientation of the user terminal 1 is the same when acquiring motion information for the previous and next actions
- this includes the case of an action for which motion information is acquired without flipping the user terminal 1 followed by an action for which motion information is acquired without flipping the user terminal 1, or the case of an action for which motion information is acquired by flipping the user terminal 1 followed by an action for which motion information is acquired by flipping the user terminal 1.
- each action required of the user is associated with and stored as instruction information, which is information about the action required of the user. Therefore, in the repeated processing, the action required of the user changes sequentially, and the text information about the action, image information about the action, and/or audio information about the action displayed by the first instruction information and the second instruction information changes accordingly.
- the operation information is evaluated by the server device 2 (step S16).
- Evaluation information regarding the user's condition is sent from the server device 2 to the user terminal 1 (step S17), and the evaluation information is received by the user terminal 1 (step S18).
- the evaluation information is displayed on the user terminal 1 (step S19). The user can understand his or her own condition by checking the evaluation information.
- the evaluation information is registered by storing the evaluation information in the server device 2 in association with the user identification information (step S20).
- the evaluation information may also be stored in association with time information.
- the time information may be any of the time when the start of the evaluation process is accepted in step S2, when the instruction information is sent in step S6, and when the evaluation of the operation information is performed in step S16. The evaluation process ends when the above steps S1 to S20 are performed.
- FIGs 6 and 7 are diagrams showing examples of display screens according to an embodiment of the present invention.
- Figure 6 shows a display screen 4a on which the first instruction information is output in step S8 for operation 1.
- Figure 7 shows a display screen 4b on which the second instruction information is output in step S13 for operation 1.
- the display screens 4 in Figures 6 and 7 relate to an operation for acquiring operation information without inverting the user terminal 1, and in this operation, the processing of steps S9 to S11 is omitted.
- arrows indicate the up and down directions of the user terminal 1 in the direction perpendicular to the ground (direction of gravity) when the user holds the user terminal 1 upright.
- Figures 6 and 7 show that the camera 5 is on the upper side when the user holds the user terminal 1.
- First instruction information 31a is displayed on the display screen 4a.
- the first instruction information 31a displays text information such as "Please say the following tongue twister once" and the content of the tongue twister.
- the content of the first instruction information 31a may be output as audio.
- the display screen 4a may also display a captured image 32a and a guide 33a.
- the display screen 4a may also display information indicating which action information to be obtained is the action to be performed by the user in the evaluation process. In FIG. 6, "3" is displayed, indicating that this is the third action.
- the guide 33a displayed is a circular dotted line showing the facial contour, two dotted lines intersecting at right angles with the nose position as the origin, and one dotted line that meets the facial contour at the position of the chin.
- the user can adjust the position of the camera 5 to display an image of their own face on the display screen 4a within the circular dotted line showing the facial contour.
- the display screen 4 is displayed with the first instruction information or the second instruction information of the previous operation.
- the acquired operation information is discarded and the display screen 4a or 4b is displayed. Therefore, it is not necessary to make it possible to make the retake icon 35 unpressable on the display screen 4a.
- the start/end icon 36 the acquisition (recording) of the operation information begins and the display screen transitions to 4b.
- the send icon 37 the process of step S14 is executed and the acquired operation information is sent to the server device 2. Therefore, it is not necessary to make it possible to make the send icon 37 unpressable on the display screen 4a.
- Display screen 4b displays second instruction information 41a, captured image 32b, and guide 33b. Only the content of the tongue twister is displayed in second instruction information 41a.
- Guide 33b is the same as guide 33a displayed on display screen 4a. Selection by pressing start/end icon 36 ends the acquisition (recording) of operation information, and selection by pressing retake icon 35 or send icon 37 becomes possible. The operation of the other icons is the same as that of display screen 4a.
- FIG. 8 is a schematic diagram of a display screen according to an embodiment of the present invention. Specifically, it is a schematic diagram of the display screen in step S13, and the captured image 32b of the user is displayed on the display screen 4b. The user image 32b is displayed from the upper region to the lower region of the display screen 4b. As shown in the figure, the second instruction information 41a is displayed superimposed on the user image 32b. The user can move the user terminal 1 so that the image 32b of the user's face displayed on the display screen 4b is within the dotted line of the ellipse corresponding to the face of the guide 33b.
- the user can adjust the distance between the user and the camera 5 and obtain an image in which the area of the user's face occupies an appropriate size in the image. This makes it possible to obtain appropriate movement information necessary for evaluation of the movement performed by the user.
- step S13 the image obtained by imaging and the second instruction information are displayed on the display screen 4 of the display device, and the user terminal 1 may switch between the area on the display screen 4 where the second instruction information is displayed and the area where the image obtained by imaging is displayed. Specifically, the area of the user's image 32b and the area of the second instruction information 41a may be switched, and the user's image may be displayed in the area where the second instruction information 41a was displayed. In other words, the second instruction information may be displayed large on the display screen 4, and the user's image may be displayed superimposed on the second instruction information.
- the display switching is performed, for example, in response to an operation input from the user terminal 1.
- the second instruction information 41a is displayed in the lower left area of the user's image 32b.
- the second instruction information 41a or the user's image 32b may be displayed in any area of the display screen 4b in response to an operational input to the user terminal 1.
- the area in which the second instruction information 41a or the user's image 32b is displayed can change its position or size on the display screen 4b in response to an operational input to the user terminal 1.
- the area in which the first instruction information is displayed can be switched with the user's image in response to an operational input to the user terminal 1, and the area in which the first instruction information is displayed can change its position or size on the display screen 4b.
- step S13 the user's motion information is displayed on the display screen 4 based on the acquired user's motion information.
- a predetermined object can be displayed on the display screen 4 instead of the captured image of the user.
- the predetermined object may be, for example, a character representing a person or an animal, that is, a so-called avatar.
- the predetermined object is displayed on the display screen 4 so as to move in accordance with the user's motion. Therefore, the face, lips, tongue, etc. of the displayed avatar move in accordance with the movement of the user's face, lips, tongue, etc.
- a known method can be used as a method for moving the avatar in accordance with the user's motion.
- a virtual point on the avatar corresponding to the predetermined point such as the face, lips, tongue, etc. of the user on the captured image, is moved in accordance with the movement of the predetermined point.
- These virtual points are associated with the vertices of the polygons that constitute the avatar, and the coordinates of the vertices of the polygon are also changed in accordance with the movement of the virtual points.
- a two-dimensional image of the avatar that moves in accordance with the user's motion can be displayed.
- the user terminal 1 can change the user's image to a specified avatar and display it on the display screen 4.
- the display screen 4 on which the first instruction information or the second instruction information is output for the action 2, which is different from the action 1, will be described.
- the action 1 is an action for which the action information is acquired without inverting the user terminal 1
- the action 2 is an action for which the action information is acquired by inverting the user terminal 1.
- examples of actions for which the action information is acquired by inverting the user terminal 1 include actions related to the soft palate and actions related to throat movement.
- the display screen for actions related to throat movement will be described below.
- FIGS. 9 and 10 are diagrams showing examples of display screens according to an embodiment of the present invention.
- FIG. 9 shows display screen 4c on which first instruction information is output in step S11 for action 2, which is different from action 1.
- FIG. 10 shows display screen 4d on which second instruction information is output in step S13 for action 2. Additionally, arrows indicate the up and down directions of user terminal 1 in the direction perpendicular to the ground (direction of gravity) when the user holds user terminal 1 upright.
- FIGs. 9 and 10 show that camera 5 is on the bottom side when the user holds user terminal 1.
- the display screen 4c may also display information indicating which action information to be obtained is the action number among the actions performed by the user in the evaluation process. In Figure 9, "7" is displayed, indicating that it is the seventh action.
- Display screen 4c displays first instruction information 31b, which is text information, and first instruction information 31c, which is image information.
- the text information of first instruction information 31b is displayed inverted compared to the text information of first instruction information 31a so that the text can be read when the user terminal 1 is inverted.
- the image information and various icons of first instruction information 31c are also displayed inverted compared to the image information and various icons of first instruction information 31a.
- First instruction information 31b displays specific instructions for properly acquiring operation information, such as "Turn the terminal upside down. Then, hold the camera so that the face is taken from a diagonal downward angle (at an angle that allows a clear view of the nostrils) and capture the center of the neck (around the Adam's apple). With your tongue between your lips, swallow your saliva three times.”
- first instruction information 31c displays an image that explains to the user how to take a picture by moving the user terminal 1 up and down.
- the contents of first instruction contents 31b and 31c may be output as audio.
- the first instruction information 31b and 31c may output instruction information that requests the user to position the imaging device on the side opposite one of the longitudinal ends of the display screen, depending on the action required of the user.
- the instruction information instructs the imaging device arranged near the top end of the display screen 4 to be near the bottom end of the display screen 4 when the user holds the user terminal 1.
- the instruction information requests the user to flip the computer device, and can output, for example, an instruction to rotate the display screen 4 of the user terminal 1 180 degrees while facing the user, as text information, image information, and/or audio information.
- the instruction information may include an instruction to maintain the imaging device close to the bottom edge of the display screen 4.
- the instruction information may include an instruction to maintain the imaging device close to the bottom edge of the display screen 4.
- instruction information may be output to request the user to position the imaging device on the opposite side of the display screen 4 from the side where the one end is located.
- the first instruction information output for the first time may output information requesting the user to invert the computer device.
- the first instruction information output for the second and subsequent times may output information requesting the user to keep the computer device inverted.
- the arrangement of the first instruction information 31b and 31c, the captured image 32c, the guide 33c, and the various icons 34 to 37 displayed on the display screen 4c is inverted vertically compared to the arrangement of the display contents on the display screens 4a and 4b. It can be said that the top and bottom are switched while the layout of the display screen 4 remains fixed. Furthermore, when the display contents are rotated 180 degrees with the center coordinate of the display screen 4c as the origin, they are displayed in the same orientation as the display screens 4a and 4b.
- the layout of the information displayed on the display screen 4 and the upside-down display of the letters, symbols, or patterns depending on the action required of the user.
- the first instruction information and the second instruction information displayed on the display screens 4a and 4b are stored in association with information about tongue twisters as the action required of the user
- the first instruction information and the second instruction information displayed on the display screens 4c and 4d are stored in association with information about throat movements as the action required of the user.
- the layout of the display screen 4 for information about tongue twisters is a general up-down layout
- the layout of the display screen 4 for information about throat movements is stored in an inverted up-down layout. This makes it possible to display the information shown in Figures 6, 7, 9, and 10.
- the actions required of the user and the layout of the instruction information to be displayed may be stored in association with each other in the server device 2.
- the information to be displayed on the display screen 4 includes first instruction information and second instruction information, and includes, for example, not only text information, image information, and audio information regarding the actions required of the user, but also information regarding the guide.
- the actions required of the user, the position of the camera 5, and the layout of the display screen 4 for the instruction information may be stored in association with each other. For example, if the position of the camera 5 is registered in the user information as being near the bottom side of the user terminal 1, the layout of the display screen 4 for the information on tongue twisters is output in a layout that is inverted from the normal up-down direction, and the layout of the display screen 4 for the information on throat movements is output in the normal up-down direction.
- a layout in which all the information is upside down may be stored as the first instruction information and the second instruction information to be displayed on the display screen 4 in the repeated processing of steps S6 to S15.
- Display screen 4d displays second instruction information 41b, which is text information, second instruction information 41c, which is image information, captured image 32d, and guide 33d.
- Second instruction information 41c includes text information and image information.
- Guide 33d displays the outline of the face with a blue solid line and the outline of the nose with a bold red solid line.
- the display content displayed on display screen 4d has the same orientation as display screen 4c, and is upside down compared to display screens 4a and 4b.
- the user can rotate the display screen 4 of the user terminal 1 180 degrees while facing the user in order to operate the user terminal 1. Then, in this state, the user can take an image of himself/herself using the camera 5.
- Figure 11 is a schematic diagram of an imaging method according to an embodiment of the present invention.
- Figure 11(a) shows a scene in which a user is photographing his or her own oral cavity when acquiring operation information without inverting the user terminal 1.
- Figure 11(b) shows a scene in which a user is photographing his or her own oral cavity when acquiring operation information by inverting the user terminal 1.
- the line of sight of the camera 5 is indicated by a dashed arrow.
- the visual axis of the camera 5 can be set at a higher elevation angle with respect to the user's oral cavity, compared to when the camera 5 is located near the top end of the user terminal 1. Therefore, in the case of an action that requires capturing an image of the inside of the oral cavity deep inside the throat to evaluate the soft palate, etc., a clear image of the inside of the oral cavity can be obtained by moving the camera 5 near the bottom end of the user terminal 1 and acquiring the image. This allows an appropriate evaluation of the user's condition to be performed.
- an example of a movement for which movement information is acquired by flipping the user terminal 1 is a movement related to the soft palate.
- the soft palate is a part covered with mucous membrane that is located behind the hard palate, a curved, hard part at the back of the mouth. Therefore, when capturing an image of a movement related to the soft palate, a clear image of the soft palate can be acquired by flipping the user terminal 1 to acquire the movement information.
- the predetermined range is preferably within 15 cm, more preferably within 10 cm, and even more preferably within 5 cm. From the viewpoint of focusing the motion information, the predetermined range is preferably 2 cm or more, and more preferably 3 cm or more.
- the minimum distance between the user's lips and the camera 5 may be a distance corresponding to one of the user's clenched fists.
- the first instruction information and/or the second instruction information may include information requesting the user to set the minimum distance between the user's lips and the camera 5 to a distance corresponding to one of the user's clenched fists.
- instruction information may be output that requests the user to position the imaging device within a predetermined range from a predetermined part of the user and/or at a predetermined distance from a predetermined part of the user.
- the instruction information may be output as the first instruction information in step S8, or may be output before or after the first instruction information output in step S8.
- the predetermined part of the user may be at least a part of the human face or upper body, such as the lips, nose, throat, or teeth.
- instruction information for an operation related to the soft palate information may be output that requests that the shortest distance between the user's lips and camera 5 be within a predetermined range and/or distance.
- the user terminal 1 or the server device 2 may determine whether the imaging device is within a predetermined range from a predetermined part of the user and/or at a predetermined distance from a predetermined part of the user before the processing of step S12. Furthermore, if the action requested of the user includes the action of opening the mouth, the user terminal 1 or the server device 2 may determine whether the user's mouth is open to a predetermined size before the processing of step S12.
- the process in the user terminal 1 or the server device 2 to determine whether the imaging device is within a predetermined range from a predetermined part of the user and/or at a predetermined distance from a predetermined part of the user, or whether the user's mouth is open to a predetermined size, is also referred to as a determination process.
- step S12 acquisition of operation information in step S12 may be started. Also, if the result of the determination is that the user's mouth is open to a predetermined size (if the determination result is YES), information that the user's mouth is open to a predetermined size may be output, and acquisition of operation information in step S12 may be started. This allows the user to acquire operation information that can be evaluated in step S16 without any burden.
- the user terminal 1 or server device 2 determines whether the imaging device is within a predetermined range from a predetermined part of the user, the user terminal 1 or server device 2 can determine this by, for example, whether the range corresponding to the predetermined part of the user in the image is within a preset range, or whether the predetermined part of the user is present in a predetermined area of the image.
- the user terminal 1 or server device 2 may specify the distance between the predetermined part and the imaging device using an infrared function provided in the user terminal 1, or may specify the distance between the predetermined part and the imaging device using communication with another communication device attached to the predetermined part of the user.
- the gyro sensor of the user terminal 1 may be used to specify the distance between the predetermined part and the imaging device by moving the user terminal 1 from the predetermined part of the user as a starting point.
- the user terminal 1 or server device 2 can make a determination by, for example, detecting the roundness of the user's mouth in the image. First, the user terminal 1 or server device 2 identifies the user's facial area from the acquired image, and identifies facial feature points from the identified facial area. There are no particular limitations on the method for identifying facial feature points, but known methods can be used. Next, the user terminal 1 or server device 2 identifies three or more predetermined points that form the outline of the lips from the identified facial feature points. The number of predetermined points identified from the facial feature points can be set as appropriate, and information for identifying the predetermined points is stored in the user terminal 1 or server device 2.
- the user terminal 1 or the server device 2 can determine that the user's mouth is open to a certain degree. For example, when each angle formed by the three or more specified points is equal to or greater than a certain value, the user terminal 1 or the server device 2 can determine that the shape has a certain degree of roundness.
- the user terminal 1 or the server device 2 can use the area to determine whether the user's mouth is open to a predetermined size. For example, the user terminal 1 or the server device 2 can determine whether the user's mouth is open to a predetermined size from the ratio of the area of the mouth in the image to the area of the face, or the ratio of the area of the mouth in the image to the area of the entire image.
- the area of the mouth and the area of the face can be specified using the facial feature points specified above.
- the area of the mouth can be specified from the shape formed by three or more specified points.
- the area of the face can be specified from the shape formed by the feature points of the facial outline.
- the user terminal 1 or the server device 2 can determine that the user's mouth is open to a predetermined size.
- the user terminal 1 or the server device 2 may use the roundness of the user's mouth in the image and the area of the user's mouth to determine whether the user's mouth is open to a predetermined size.
- the above-mentioned determination process is performed for each frame (image) included in the motion information. If the result of the determination is that the imaging device is not within a predetermined range from a predetermined part of the user, the imaging device is not at a predetermined distance from a predetermined part of the user, or the user's mouth is not open to a predetermined size, the determination process may be performed repeatedly.
- the brightness adjustment process of the display screen 4 in step S5 may be executed according to the result of the above-mentioned determination process. For example, the determination process is executed after the process of step S11. If the determination result of the determination process is YES, the process of step S5 may be executed, and then the process of step S12 may be executed. Also, if the determination result of the determination process is YES, the process of step S5 may be executed only while the operation information is being acquired in steps S12 and S13. In the process of step S5 above, the display screen 4 of the user terminal 1 may be automatically adjusted to a predetermined brightness. This can reduce the burden on the user when acquiring operation information.
- the instruction information may include information regarding the throat movement required of the user.
- the throat movement movement is an example of an action for which action information is obtained by inverting the user terminal 1 (or moving the camera 5 downward).
- Figures 9 and 10 show the display screen when the throat movement information is obtained.
- step S8 or S11 information regarding the throat movement required of the user can be output as the first instruction information and the second instruction information of steps S8, S11, and S13.
- the throat movement can be, for example, swallowing saliva and moving the throat.
- instruction information regarding shooting that requests the user to position the camera 5, which is an imaging device, below the user's face and to photograph the user's throat from an elevation angle can be output as the first instruction information.
- the instruction information can be output as text information, image information, and/or audio information.
- the instruction information may include information instructing not only to photograph the user's throat from an elevation angle, but also to position the camera 5 near the bottom edge of the display screen 5.
- the user's face or a part of the face may be photographed at the same time as the throat.
- an image obtained by imaging and a guide corresponding to at least a part of a person's face or upper body may be displayed.
- Below the user's face means being located below the lowest part of the face in the vertical direction when the chin is at the bottom and the head is at the top.
- "taking an image of the throat from an elevation angle” means taking an image of the throat at an angle where the visual axis of the camera 5 of the user terminal 1 faces upward. Specifically, it is preferable that the angle be greater than 0 degrees and less than 90 degrees, starting from the visual axis of the camera 5 of the user terminal 1.
- Figure 12 is a schematic diagram of the imaging method according to an embodiment of the present invention.
- the elevation angle is the angle ⁇ between the visual axis of the camera 5, indicated by the dashed arrow, and the two-dot dashed line.
- the evaluation of the movement information in step S16 will be explained. If the movement information is image information, the evaluation of the movement information can be performed by image processing using AI. Also, if the movement information is audio information, the evaluation can be performed by audio processing using AI.
- the evaluation method is not particularly limited, but for example, the evaluation may be performed by calculating the similarity between an image showing an ideal movement and the user's movement information.
- the similarity calculation method may be template matching, dynamic programming, graph matching, etc.
- features may be extracted from the movement information, and the similarity between the extracted features and the image showing the ideal movement may be calculated.
- the facial outline and lip outline in the movement information may be identified, and the movement of the face and mouth may be identified from the change in brightness in the image, and the evaluation may be performed.
- the first instruction information may display a guide explanation such as "Please align your face with the displayed guide”, shooting precautions such as "Please do not move your chin as much as possible while shooting", or an explanation of the action to be performed such as "Shooting will be done one task at a time”.
- output of the second instruction information may be omitted in step S13.
- Reference image information is an image that is used as a reference for comparing brightness and RGB values when performing image processing on images of other action information.
- the exercise process is a process for making the user perform a predetermined exercise.
- the predetermined exercise also includes a predetermined movement.
- Fig. 13 is a diagram showing a flowchart of the exercise process according to the embodiment of the present invention.
- the user operates the user terminal 1 and logs into the system.
- the user can log into the system in the same manner as in the evaluation process.
- the user operates the user terminal 1 to input the start of exercise processing (step S21).
- the user may select any option from an exercise menu represented by multiple options, thereby inputting the start of exercise processing for the selected exercise menu.
- an exercise menu refers to exercises required of the user stored in a specified order. It can also be said that the exercise menu is stored in association with one or more pieces of third instruction information, which will be described later.
- the effect obtained by the exercise differs for each exercise menu, and the type and number of exercises stored in association with the exercise menu, as well as the time required to complete the exercises, differ depending on the effect.
- the exercise required of the user included in the exercise menu may be one exercise or multiple exercises.
- the input information regarding the start of the exercise processing is transmitted from the user terminal 1 to the server device 2 and received by the server device 2.
- the server device 2 then accepts the request to start the exercise processing (step S22).
- third instruction information is transmitted from the server device 2 to the user terminal 1 (step S23).
- the user terminal 1 receives the third instruction information (step S24).
- the third instruction information is information regarding the exercise required of the user, and includes information for instructing the user to perform a specified movement.
- the third instruction information may include information that serves as a model of the movement required of the user.
- the movement required of the user refers to the movement that the user is to perform in order to maintain, improve, and enhance the user's condition.
- the user movement required of the user may be the same as the movement in the evaluation process, or it may be a different movement.
- the information regarding the exercise required of the user may include text information regarding the movements to be performed by the user, image information regarding the movements, and/or audio information regarding the movements. It may be any one of text information, image information, or audio information, or may be a combination of two or more of these.
- the third instruction information is stored in the server device 2 for each action.
- information regarding the exercise requested of the user may be stored in association with time information regarding the time required to complete the exercise.
- the time information may be output as information regarding the exercise requested of the user.
- step S25 when the third instruction information is received by the user terminal 1, the third instruction information corresponding to exercise 1 is output (step S25). Note that output has the same meaning as in the evaluation process described above. In addition, the passage of time is measured at the same time as the output of the third instruction information. If the exercise menu selected in step S21 includes exercise 1 and exercise 2, the third instruction information corresponding to exercise 2 is output when the predetermined time stored in association with exercise 1 has elapsed, or by operation on the user terminal 1. In other words, the process of step S25 is repeatedly executed until all exercises stored in association with the exercise menu selected in step S21 have been completed.
- the user terminal 1 transmits completion information to the server device 2 indicating that the output of the third instruction information for all exercises is completed (step S26).
- the server device 2 receives the completion information (step S27).
- the completion information is stored in the server device 2 in association with the user's identification information and time information, and the completion information is registered (step S28). By executing the above steps S21 to S28, the exercise process is completed.
- the user terminal 1 only outputs the third instruction information, but similar to step S13 of the evaluation process, the imaging device of the user terminal 1 may acquire user action information and display the third instruction information and the acquired image information on the display screen 4.
- the third instruction information also includes information regarding the guide.
- the third instruction information is displayed on the display screen 4 so that the user can visually recognize the captured image information.
- the third instruction information is displayed on the display screen 4 superimposed on the captured image information.
- step S25 when the image obtained by imaging and the third instruction information are displayed on the display screen 4 of the display device, the user terminal 1 may switch between the area on the display screen 4 where the third instruction information is displayed and the area where the image obtained by imaging is displayed. Specifically, similar to the user's image 32b and the second instruction information 41a described in FIG. 8, the area where the image obtained by imaging is displayed and the area where the third instruction information is displayed may be switched, and the image obtained by imaging may be displayed in the area where the third instruction information was displayed. In other words, the third instruction information may be displayed large on the display screen 4, and the captured image of the user may be displayed superimposed on the third instruction information.
- the display may be switched in response to an operation input from the user terminal 1, for example.
- the third instruction information or the image obtained by imaging may be displayed in any area of the display screen 4 in response to an operation input to the user terminal 1.
- the position or size on the display screen 4 of the area in which the third instruction information or the image obtained by imaging is displayed can be changed in response to an operation input to the user terminal 1.
- different third instruction information may be output before and after the user inputs the start of the first exercise.
- text information and image information may be displayed as an explanation of the movements of the exercise
- a countdown timer and image information may be displayed as an explanation of the movements of the exercise.
- the user selects an arbitrary exercise menu, but the exercise menu may be changed according to the evaluation information stored in association with the user identification information. For example, for a user who has a low evaluation for a specific function, an exercise menu may be provided that includes many exercises related to that function, or the time for exercises related to that function may be increased beyond the standard time.
- the system of the present invention can be applied to exercises such as yoga and muscle training, language learning, and other activities that require the user to perform movements while referring to their own movements and those of a model.
- time information is stored in association with the evaluation information and completion information. Therefore, the date and time when the user performed the evaluation process and exercise process can be managed.
- a record of the evaluation process or exercise process can be displayed on a calendar.
- the user terminal 1 may be displayed in a manner that allows the user to know the date on which the evaluation process or exercise process was performed.
- each exercise menu of the exercise process performed may be displayed in a different manner on the user terminal 1. As a different manner, for example, different colors or different icons may be displayed.
- a pop-up notification may be sent to the user terminal 1 on the day when the evaluation process or exercise process is scheduled to be performed.
- the achievement rate of the implementation goal may be displayed on the user terminal 1 for each predetermined period.
- the evaluation information evaluated in the evaluation process performed may be made available for viewing in a list on the user terminal 1, or the most recent evaluation information may be displayed.
- the evaluation process allows the user to understand the user's condition.
- the user's condition may be evaluated for each movement individually, or may be evaluated comprehensively from multiple movements. This allows for early detection of a decline in oral function, which is difficult to detect.
- the evaluation process also makes it possible to evaluate which category of the Marampachi classification the user's condition belongs to. This makes it possible to detect early signs of diseases such as sleep apnea syndrome.
- the exercise process allows the user to maintain, improve, and enhance the user's health. Furthermore, maintaining, improving, and enhancing oral function can be achieved, resulting in cosmetic effects.
- the imaging device outputs instruction information that requests the user to position themselves on the side opposite one of the longitudinal ends of the display screen, and/or the imaging device outputs instruction information that requests the user to position themselves within a specified range from a specified part of the user, so that it is possible to suitably obtain information about the user's movements, such as images of the inside of the user's mouth or throat.
- a sensor detects that the computer device has been turned upside down so that the imaging device is on the opposite side of the display screen to the side where the one end is located, so that it is possible to detect that the user has moved the imaging device to a position where it can obtain the image necessary to evaluate the user's condition. Furthermore, according to the present invention, when inversion is detected, it is possible to switch the layout of the information displayed on the display screen and the upside down of the letters, symbols, or patterns, so that the user can smoothly obtain operational information.
- the present invention it is possible to switch the layout of information displayed on the display screen and the upside down display of letters, symbols or patterns depending on the action required of the user, so that it is possible to obtain the image information necessary to evaluate the user's condition depending on the action.
- the brightness of the display screen of the display device is adjusted, instruction information is output that requests the user to adjust the brightness of the display screen of the display device, or adjustment information is output for adjusting the brightness of the display screen of the display device, so that image information regarding the user's actions can be obtained in a clear state.
- the image obtained by imaging and information regarding the actions required of the user are displayed on the display screen of the display device, so that the user can carry out the actions required while comparing it with the image of his or her own actions.
- the information regarding the actions required of the user is displayed in the form of text information regarding the actions and image information regarding the actions, so that the user can appropriately carry out the actions required of the user.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本発明は、ユーザの状態を評価するために必要な画像情報を取得するためのプログラムを提供することを目的とする。 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムである。プログラムは、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段として機能させる。
Description
本発明は、プログラム、コンピュータ装置及び方法に関する。
口腔は、摂食に関する嚥下機能、発声に関する発音機能、及び、呼吸に関する呼吸機能といった人間にとって重要な身体機能に関わっている器官である。嚥下機能、発音機能、及び、呼吸機能のそれぞれは、歯科口腔外科、耳鼻咽喉科、リハビリテーション科、呼吸器内科等の複数の診療科により専門分野が分かれている。そのため、専門分野の違いにより横断的に評価されず、自分の嚥下機能、発音機能、及び呼吸機能の現状を把握する機会を得ることが難しく、適切な診断や治療を受ける機会を得られないことがあった。また、嚥下機能、発音機能、及び呼吸機能は、どれか一つが急激に悪化するのではなく、加齢により、緩やかに機能が低下することが多い。そのため、悪化している自覚症状に乏しく、適切な検査を受けることができず、口腔機能の低下を予防することが難しかった。
このような中、口腔機能を簡易かつ簡便に評価するための評価プログラムが開示されている(例えば、特許文献1)。評価プログラムにおいて、口腔衛生、口腔乾燥、歯数、咬合力、パの発音、タの発音、カの発音、舌圧、咀嚼機能、嚥下機能等の口腔機能評価の情報が入力され、口腔機能評価結果が所定の図形に図形化される。しかしながら、口腔機能評価の取得には、測定のための特別な装置が必要であり、ユーザ自身が測定を実施し、口腔機能を把握する態様は、想定されていなかった。また、ユーザが、口腔機能の低下を予防するための態様は想定されていなかった。
本発明は、例えば、以下のいずれかの課題を解決することができる。本発明の第1の目的は、ユーザの状態を評価するために必要な画像情報を取得するためのプログラムを提供することである。また、本発明の第2の目的は、ユーザに求める動作に関する情報と該動作を実施するユーザを同時に表示するプログラムを提供することである。
本発明の課題は、
[1]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段、として機能させる、プログラム;
[2]表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示手段、として機能させる、プログラム;
[3]コンピュータ装置がセンサを備え、コンピュータ装置を、センサにより、撮像装置が表示画面に対して前記一端のある側の反対側にくるように、コンピュータ装置の上下を反転させたことを検知する反転検知手段、として機能させる、前記[1]又は[2]に記載のプログラム;
[4]コンピュータ装置を、反転を検知した場合に、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、として機能させる、前記[3]に記載のプログラム;
[5]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段、を備える、コンピュータ装置;
[6]表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示手段、を備える、コンピュータ装置;
[7]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップと、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示ステップ、を有する、方法;
[8]表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップと、撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示ステップ、を有する、方法;
[9]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、として機能させる、プログラム;
[10]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、を備える、コンピュータ装置;
[11]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップと、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示ステップ、を有する、方法;
[12]撮像装置を備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力手段と、撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示手段、として機能させる、プログラム;
[13]前記撮像により得られる画像、及び、人の顔又は上半身の少なくとも一部に対応するガイドを表示する、前記[12]に記載のプログラム;
[14]撮像装置を備えるコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力手段と、撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示手段、を備える、コンピュータ装置;
[15]撮像装置を備えるコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力ステップと、撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示ステップ、を有する、方法;
[16]表示装置と撮像装置とを備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示手段、として機能させる、プログラム;
[17]表示手段が、ユーザに求める動作に関する情報として、該動作に関するテキスト情報、及び、該動作に関する画像情報を表示する、前記[16]に記載のプログラム;
[18]表示手段が、ユーザに求める動作に関する情報として、人の顔についての動作に関する情報を表示するものであり、さらに、前記撮像により得られる画像を表示する領域において、人の顔又は上半身の少なくとも一部に対応するガイドを表示する、前記[16]又は[17]に記載のプログラム;
[19]撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるための、前記[16]~[18]のいずれかに記載のプログラム;
[20]表示装置と撮像装置とを備えるコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示手段、を備える、コンピュータ装置;
[21]表示装置と撮像装置とを備えるコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示ステップ、を有する、方法;
[22]表示装置と、撮像装置とを備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力する調整手段と、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段として機能させる、プログラム;
[23]表示装置と、撮像装置とを備えるコンピュータ装置であって、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力する調整手段と、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段とを備える、コンピュータ装置;
[24]表示装置と、撮像装置とを備えるコンピュータ装置において実行される方法であって、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力する調整ステップと、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップとを有する、方法;
[25]コンピュータ装置を、前記撮像により得られる画像を記憶する画像記憶手段、及び/又は、前記撮像により得られる画像を他のコンピュータ装置へ送信する画像送信手段として機能させる、前記[1]~[4]、[9]、[12]、[13]、[16]~[19]又は[22]に記載のプログラム;
により解決することができる。
[1]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段、として機能させる、プログラム;
[2]表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示手段、として機能させる、プログラム;
[3]コンピュータ装置がセンサを備え、コンピュータ装置を、センサにより、撮像装置が表示画面に対して前記一端のある側の反対側にくるように、コンピュータ装置の上下を反転させたことを検知する反転検知手段、として機能させる、前記[1]又は[2]に記載のプログラム;
[4]コンピュータ装置を、反転を検知した場合に、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、として機能させる、前記[3]に記載のプログラム;
[5]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段、を備える、コンピュータ装置;
[6]表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示手段、を備える、コンピュータ装置;
[7]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップと、撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示ステップ、を有する、方法;
[8]表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップと、撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示ステップ、を有する、方法;
[9]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、として機能させる、プログラム;
[10]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段と、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、を備える、コンピュータ装置;
[11]長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップと、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示ステップ、を有する、方法;
[12]撮像装置を備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力手段と、撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示手段、として機能させる、プログラム;
[13]前記撮像により得られる画像、及び、人の顔又は上半身の少なくとも一部に対応するガイドを表示する、前記[12]に記載のプログラム;
[14]撮像装置を備えるコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力手段と、撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示手段、を備える、コンピュータ装置;
[15]撮像装置を備えるコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力ステップと、撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示ステップ、を有する、方法;
[16]表示装置と撮像装置とを備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、撮像装置により空間を撮像する撮像手段と、前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示手段、として機能させる、プログラム;
[17]表示手段が、ユーザに求める動作に関する情報として、該動作に関するテキスト情報、及び、該動作に関する画像情報を表示する、前記[16]に記載のプログラム;
[18]表示手段が、ユーザに求める動作に関する情報として、人の顔についての動作に関する情報を表示するものであり、さらに、前記撮像により得られる画像を表示する領域において、人の顔又は上半身の少なくとも一部に対応するガイドを表示する、前記[16]又は[17]に記載のプログラム;
[19]撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるための、前記[16]~[18]のいずれかに記載のプログラム;
[20]表示装置と撮像装置とを備えるコンピュータ装置であって、撮像装置により空間を撮像する撮像手段と、前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示手段、を備える、コンピュータ装置;
[21]表示装置と撮像装置とを備えるコンピュータ装置において実行される方法であって、撮像装置により空間を撮像する撮像ステップと、前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示ステップ、を有する、方法;
[22]表示装置と、撮像装置とを備えるコンピュータ装置において実行されるプログラムであって、コンピュータ装置を、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力する調整手段と、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段として機能させる、プログラム;
[23]表示装置と、撮像装置とを備えるコンピュータ装置であって、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力する調整手段と、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像手段と、ユーザに求める動作に関する情報を出力する情報出力手段とを備える、コンピュータ装置;
[24]表示装置と、撮像装置とを備えるコンピュータ装置において実行される方法であって、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力する調整ステップと、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像ステップと、ユーザに求める動作に関する情報を出力する情報出力ステップとを有する、方法;
[25]コンピュータ装置を、前記撮像により得られる画像を記憶する画像記憶手段、及び/又は、前記撮像により得られる画像を他のコンピュータ装置へ送信する画像送信手段として機能させる、前記[1]~[4]、[9]、[12]、[13]、[16]~[19]又は[22]に記載のプログラム;
により解決することができる。
本発明によれば、ユーザの状態を評価するために必要な画像情報を取得するためのプログラムを提供できる。また、本発明によれば、ユーザに求める動作に関する情報と該動作を実施するユーザを同時に表示するプログラムを提供することができる。
以下、本発明の実施の形態について説明をするが、本発明の趣旨に反しない限り、本発明は、以下の実施の形態に限定されない。以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、また、処理内容に矛盾や不整合が生じない範囲で、フローチャートを構成する各処理の一部を省略することや、フローチャートを構成する各処理に新たな処理を追加することも可能である。
図1は、本発明の実施の形態にかかるシステムの構成を示すブロック図である。システムは、ユーザ端末1と、サーバ装置2とを備える。ユーザ端末1及びサーバ装置2は、通信ネットワーク3を介して、互いに通信可能に接続されている。システムでは、ユーザ端末1及びサーバ装置2のいずれかが情報処理装置として機能し得る。ユーザ端末1及びサーバ装置2のいずれかが情報処理装置として機能する際に、必要に応じて、ユーザ端末1とサーバ装置2との間で、情報の送受信を実行する。
なお、システムは、1のユーザ端末1のみを備えるものであってもよい。また、システムは、2以上のユーザ端末1を備えていてもよい。また、システムは、2以上のサーバ装置2を備えていてもよい。例えば、システムは、指示情報等の情報を送信する第1サーバ装置、ユーザ端末1からの情報を受信する第2サーバ装置、及び/又は、第2サーバ装置から情報を受信し、動作情報の評価に関する処理をする第3サーバ装置を備えていてもよい。
例えば、ユーザ端末1は、動作を行うユーザにより操作される。ユーザ端末1は、撮像装置を備えるコンピュータ装置であれば、特に限定されない。さらに、ユーザ端末1は、表示装置と撮像装置とを備えるコンピュータ装置であることが好ましい。ユーザ端末1としては、例えば、従来型の携帯電話、タブレット型端末、スマートフォン等などが挙げられる。
図2は、本発明の実施の形態に係るユーザ端末の外観の一例を示す図である。ユーザ端末1は長方形状を有している。ユーザ端末1は、表示画面4が備わる面(ユーザ端末1の前面ともいう)に、カメラ5を備えている。また、ユーザ端末1は、前面にスピーカ及びマイク6を備えていてもよい。ユーザ端末1に備わる表示装置は、長方形の表示画面4を有している。本実施の形態において、長方形は、長方形の角が丸まった形、楕円形、長方形の一部が欠けている形等といった、略長方形を含んでいてもよい。
カメラ5は、撮像装置として機能する。ユーザ端末1の長手方向を上下方向としたときに、ユーザが、ユーザ端末1を操作する際の通常の向きにおけるユーザ端末1の上辺の近傍に、カメラ5が配置されている。カメラ5が、ユーザ端末1の長手方向の上側の一端の近傍に設置されているともいう。つまり、撮像装置は、表示画面の長手方向のいずれか一端の近傍に配置される。なお、ユーザ端末1の長手方向の一端の近傍とは、例えば、ユーザ端末1の長手方向における一端から、ユーザ端末1の長手方向の中央に向かって、ユーザ端末1の長手方向の長さ1/3までの部分である。また、カメラ5の左右方向の配置位置は特に限定されない。例えば、カメラ5は、ユーザ端末1の中央付近に配置されてもよいし、ユーザ端末1の右側又は左側の位置に配置されてもよい。
また、カメラ5は、カメラ5により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面4にて、カメラ5で撮像されたユーザを視認できるように、配置される。例えば、カメラ5と表示画面4が、ユーザ端末1の同じ面に備えられている。これにより、ユーザが、ユーザ端末1を持ちしながら、表示画面4を自分に向けると、カメラ5が自分を撮影し、表示画面4に撮影された自分が表示される。ユーザは、カメラ5で自分を撮影しつつ、表示画面4に表示される自分を視認できる。
カメラ5の視軸は、表示画面4に対して垂直となるように設けられていることが好ましい。カメラ5は、表示画面4に対して垂直方向の空間を撮像できる。カメラ5は、いわゆるユーザ端末1のインカメラやフロントカメラともいえる。なお、ユーザ端末1は、カメラ5だけでなく、ユーザ端末1の表示画面4が備わる面の裏面に他のカメラを備えていてもよい。
図3は、本発明の実施の形態にかかるユーザ端末のハードウェア構成を示すブロック図である。ユーザ端末1は、制御部11、RAM12、ストレージ部13、入力部14、表示部15及び通信インタフェース16を備え、それぞれ内部バスにより接続されている。
制御部11は、CPUやROMから構成される。制御部11は、ストレージ部13に格納されたプログラムを実行し、ユーザ端末1の制御を行う。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。つまり、ストレージ部13は、プログラムを記憶した記録媒体として機能する。制御部11は、RAM12から読み出したプログラム及びデータ、並びに、入力部14、撮像部17、又は録音部18にて入力されたデータをもとに、演算処理を行う。
表示部15は表示画面4を有している。制御部11は、演算処理の結果に応じて、表示画面4に画像を表示するためのビデオ信号を出力する。ここで、表示部15の表示画面4はタッチセンサを備えるタッチパネルであってもよい。この場合、タッチパネルが入力部14として機能する。また、ユーザ端末1は、カメラ等の撮像部17と、マイク、レコーダ等の録音部18と、スピーカ等の出音部19とを備えていてもよい。
また、ユーザ端末1は、センサ部を有していてもよい。センサ部は、深度センサ、加速度センサ、ジャイロセンサ、GPSセンサ、指紋認証センサ、近接センサ、磁力センサ、輝度センサ、GPSセンサ、及び気圧センサからなる群より選択される少なくとも1以上のセンサを備えていてもよい。
通信インタフェース16は無線又は有線により通信ネットワーク3に接続が可能であり、通信ネットワーク3を介して、他のコンピュータ装置とデータを送受信することが可能である。通信インタフェース16を介して受信したデータは、RAM12にロードされ、制御部11により演算処理が行われる。
図3は、本発明の実施の形態にかかるサーバ装置のハードウェア構成を示すブロック図である。サーバ装置2は、制御部21、RAM22、ストレージ部23及び通信インタフェース24を少なくとも備え、それぞれ内部バスにより接続されている。
制御部21は、CPUやROMから構成され、ストレージ部23に格納されたプログラムを実行し、サーバ装置2の制御を行う。また、制御部21は時間を計時する内部タイマを備えている。RAM22は、制御部21のワークエリアである。ストレージ部23は、プログラムやデータを保存するための記憶領域である。つまり、ストレージ部23は、プログラムを記憶した記録媒体として機能する。制御部21は、プログラム及びデータをRAM22から読み出し、ユーザ端末1のそれぞれから受信した情報等をもとに、プログラム実行処理を行う。
また、サーバ装置2は、複数のコンピュータ装置に分散して機能するものであってもよい。例えば、サーバ装置2に代えて、ブロックチェーンなどの分散型台帳技術を利用してもよい。
また、プログラムは、CD-ROMなどの記録媒体に記憶されていてもよい。この場合、記録媒体に記憶されたプログラムが、ユーザ端末1又はサーバ装置2にインストールされて、所定の機能を実行することとしてもよい。
あるいは、プログラムは、システム外部のコンピュータ装置から配信されてもよい。この場合、システム外部のコンピュータ装置から配信されたプログラムが、ユーザ端末1又はサーバ装置2にインストールされて、所定の機能を実行することとしてもよい。
[システムの概要]
本発明の実施の形態のシステムは、ユーザの動作の様子を取得し、ユーザの状態を評価する評価処理と、ユーザに対して動作を実行させる運動処理とを備えることができる。評価するユーザの状態とは、ユーザの健康状態やユーザの身体機能の状態であってもよい。ユーザの身体機能としては、例えば、ユーザの口腔機能、嚥下機能、発音機能、呼吸機能等があげられる。また、評価処理では、嚥下障害等の所定の病気にかかっているか、又はかかっている可能性について、評価してもよい。また、ユーザの口腔機能について、総合的に評価するものであってもよい。
本発明の実施の形態のシステムは、ユーザの動作の様子を取得し、ユーザの状態を評価する評価処理と、ユーザに対して動作を実行させる運動処理とを備えることができる。評価するユーザの状態とは、ユーザの健康状態やユーザの身体機能の状態であってもよい。ユーザの身体機能としては、例えば、ユーザの口腔機能、嚥下機能、発音機能、呼吸機能等があげられる。また、評価処理では、嚥下障害等の所定の病気にかかっているか、又はかかっている可能性について、評価してもよい。また、ユーザの口腔機能について、総合的に評価するものであってもよい。
また、運動処理により、ユーザの健康状態やユーザの身体機能を維持又は向上させるものであってもよい。本発明のシステムは、健康状態の維持又は向上、顔の輪郭がはっきりする等といった美容目的、発声能力の向上、食べ物を飲み込む力の向上等を目的とするユーザに提供できる。
[評価処理]
図4は、本発明の実施の形態に係る評価処理のフローチャートを示す図である。ユーザは、ユーザ端末1にダウンロードされたアプリケーションプログラム(以下、専用アプリという)を起動し、サーバ装置2にアクセスすることで、システムにログインする。システムへのログインは、ユーザ端末1からWebブラウザを経由してサーバ装置2にアクセスすることで行ってもよい。
図4は、本発明の実施の形態に係る評価処理のフローチャートを示す図である。ユーザは、ユーザ端末1にダウンロードされたアプリケーションプログラム(以下、専用アプリという)を起動し、サーバ装置2にアクセスすることで、システムにログインする。システムへのログインは、ユーザ端末1からWebブラウザを経由してサーバ装置2にアクセスすることで行ってもよい。
なお、ユーザが初めてシステムにログインする際には、ユーザは、ユーザ端末1を操作し、ユーザに関する情報等を入力することで、初期設定を行う。ユーザは、初期設定として、ユーザ名、パスワード、性別、生年月日、既往歴、職種、所属企業等の、ユーザに関するユーザ情報を入力する。また、ユーザ端末1のカメラ5が配置されている位置が、ユーザ端末1の上辺付近であるか、下辺付近であるかを入力してもよい。
次に、入力したユーザ情報をサーバ装置2に送信することで、サーバ装置2にて、ユーザの登録がされる。登録されたユーザは、ユーザを識別するためのユーザ識別情報(以下、ユーザIDともいう)を付与されることが好ましい。ユーザIDはユーザ情報と関連付けて記憶されてもよい。また、システムにおいて、登録されたユーザ専用のページが作成される。
システムにログインする際には、予め登録されているユーザIDとパスワードの入力が要求されてもよい。あるいは、システムにログインする際には、予め登録したメールアドレスとパスワードの入力が要求されてもよい。
次に、ユーザは、ユーザ端末1において、評価処理の開始の入力をする(ステップS1)。入力された評価処理の開始に関する情報は、ユーザ端末1からサーバ装置2へ送信され、サーバ装置2に受信される。これにより、サーバ装置2にて、評価処理の開始を受け付ける(ステップS2)。
次に、サーバ装置2からユーザ端末1に、ユーザ端末1の表示画面4の明るさを調整するための明るさ調整情報が送信される(ステップS3)。ユーザ端末1にて明るさ調整情報が受信される(ステップS4)。ユーザ端末1にて明るさ調整情報が受信されると、受信した明るさ調整情報にしたがって、表示画面4の明るさの調整処理が実行される(ステップS5)。
調整処理では、例えば、表示装置の表示画面4の明るさを調整する、表示装置の表示画面4の明るさを調整することをユーザに求める明るさに関する指示情報を出力する、又は、表示装置の表示画面4の明るさを調整するための調整情報を出力することとしてもよい。表示装置の表示画面4の明るさは、ユーザ端末1にて設定できる最大の明るさに設定されることが好ましい。
後述のステップS16において、取得した動作情報から、睡眠時無呼吸症候群を発見するための指標となるマランパチ分類のいずれの分類に属するかを評価するためには、ユーザの軟口蓋の画像を取得する必要がある。軟口蓋の画像は、口腔内や喉の奥の画像によって取得される。口腔内や喉の奥は暗いため、鮮明な画像を取得するためには、撮影する際にユーザの口腔内や喉の奥を明るく照らす必要がある。
本発明の一態様において、ユーザの画像を取得する際に、表示画面4が備わる面に備えられたカメラ5が利用される。一般的に、ユーザ端末1の背面のカメラの近傍にはライトが備えられている一方、ユーザ端末1の前面のカメラ5の近傍にはライトが備えられていないことがある。ユーザ端末1の背面のカメラを利用する場合、背面に備えられたライトを利用することができるが、ユーザ端末1の前面のカメラ5を利用する場合、ライトを利用できないことがある。そのため、本発明の一態様において、ユーザ端末1の前面のカメラ5を利用する場合であっても、表示画面4の明るさを調節することで、ユーザ端末1は鮮明なユーザの口腔内や喉の奥の画像を取得することができる。また、ユーザとカメラ5の距離が、所定の距離にあり、表示画面4の明るさを所定の明るさとすることで、ユーザ端末1はユーザの口腔内や喉の奥を判別可能に表示した画像を取得でき、ユーザの動作の評価に必要な画像を適切に取得できる。
調整処理において、表示装置の表示画面4の明るさを調整する場合には、ユーザ端末1にて表示画面4が自動的に所定の明るさに調整されてもよい。所定の明るさに関する情報は、予めサーバ装置2に登録されている。所定の明るさは、予め決められた明るさであり、最大の明るさであることが好ましい。
或いは、調整処理において、表示装置の表示画面4の明るさを調整することをユーザに求める明るさに関する指示情報を出力する場合には、明るさに関する指示情報として、テキスト情報、画像情報、及び/又は、音声情報を出力してもよい。ユーザは、明るさに関する指示情報にしたがって、表示画面4の明るさを調整することができる。
或いは、調整処理において、表示装置の表示画面4の明るさを調整するための調整情報を出力する場合には、調整情報として、明るさの調整画面や明るさの調整バーを表示してもよい。ユーザは、調整情報にしたがって、表示画面4の明るさを調整することができる。
なお、本実施の形態において、ステップS3~S5の処理は、評価処理の一連の動作について1回実行することとしたが、ユーザに求める動作ごとに実行することとしてもよい。つまり、ユーザに求める動作に応じて、表示画面4の明るさの調整処理を実行してもよい。例えば、後述のステップS7の処理後に、ステップS3~S5の処理が実行されるとしてもよい。
或いは、調整処理において、表示装置の表示画面4の明るさを調整する場合、ステップS3~S5の処理は、後述のステップS12及び13と同時に実行されてもよい。例えば、ステップS12及びS13において、動作情報を取得する間のみ、ユーザ端末1の表示画面4が所定の明るさに自動的に調節されてもよい。ステップS12及びS13における表示画面4の明るさ調節処理は、ユーザに求める動作に応じて実行されてもよい。
明るさ調整情報が送信されると、サーバ装置2からユーザ端末1に、指示情報が送信される(ステップS6)。ユーザ端末1にて、指示情報が受信される(ステップS7)。
ここで、指示情報とは、ユーザに求める動作に関する情報であり、ユーザに対して該動作を実施させるための指示に関する情報が含まれる。指示情報には、ユーザに対して所定の動作を実施することを求める情報が含まれるともいう。
ユーザに求める動作とは、例えば、ユーザの状態を評価するのに必要な画像又は音声を取得するために、ユーザに実施させる動作のことをいう。ユーザに求める動作は、具体的には、口を大きく開ける動作、舌を出す動作、つばを飲み込んで喉を動かす動作、口を開けて所定の声を出す動作、所定の早口言葉を言う動作、ユーザ端末1を反転させてカメラ5の位置を移動させる動作、ユーザ端末1を傾けて撮影する動作、ユーザとカメラ5の距離を所定の距離で撮影を行う動作等であってもよい。取得する画像又は音声は、例えば、ユーザの身体の一部を動かした画像、所定の言葉を発した音声、所定の動きを実施しながら発した音声及びその動作中の画像等があげられる。なお、画像は、動画、及び静止画の両方を含む。
ユーザに求める動作に関する情報としては、該動作に関するテキスト情報、該動作に関する画像情報、及び/又は、該動作に関する音声情報があげられる。テキスト情報、画像情報、又は、音声情報のいずれかであってもよいし、2以上を組み合わせたものであってもよい。
後述のステップS16において、サーバ装置2にてユーザの状態を評価するために、画像の明るさや、撮像されるユーザの部位について、向き又は角度、画面内の位置、画面内に占める大きさ等が、均一な画像情報を取得する必要がある。或いは、内容や音量が、均一な音声情報を取得する必要がある。指示情報は、ユーザ端末1にて均一な画像情報及び/又は音声情報を取得するために用いられる。
指示情報は、ユーザに求める動作ごとに、相互に関連付けてサーバ装置2に記憶されている。また、指示情報には、後述の評価メニューにおける動作の順番に関する情報や、1つ前の動作の情報が含まれていてもよい。1つ前の動作の情報としては、該動作に関する動作情報を、ユーザ端末1を反転させて取得するか否かに関する情報が含まれる。本実施の形態において、指示情報には、第1指示情報と、第2指示情報とが含まれる。それぞれの情報については、後述する。
ユーザ端末1にて、指示情報が受信され(ステップS7)、ステップS5における表示画面4の明るさの調整が完了すると、ユーザ端末1にて、第1指示情報が出力される(ステップS8)。第1指示情報とは、ユーザの状態を評価するのに必要な画像又は音声を取得する前に、該画像又は音声を取得するために必要な準備をユーザに実施させるための指示情報である。なお、出力とは、テキスト情報、及び/又は、画像情報を表示画面4に表示するだけでなく、音声情報をユーザ端末1のスピーカから出力することも含まれる。
ステップS7にて受信した指示情報の関連付けられた動作が、ユーザ端末1を反転させて動作情報を取得する動作である場合、第1指示情報が出力されると、ユーザ端末1は、第1指示情報が出力されてから所定の時間内にユーザ端末1が反転されたか否かを検知する(ステップS9)。つまり、センサにより、撮像装置が表示画面に対して表示画面の長手方向のいずれか一端のある側の反対側にくるように、コンピュータ装置の上下を反転させたことを検知する。ユーザ端末1が反転されたか否かは、センサ部のジャイロセンサ等によって検出できる。所定の時間としては、例えば、10秒以内としてもよい。
所定の時間内にユーザ端末1が反転されなかった場合(ステップS9でNO)、ユーザ端末1を反転させることをユーザに促す警告情報が出力される(ステップS10)。警告情報には、ユーザにユーザ端末1の反転を促すものだけでなく、単にユーザにユーザ端末1が反転されていないこと知らせるものも含まれる。そして、再度、ステップS9にて所定の時間内にユーザ端末1が反転されたか否かを検知する。
一方、所定の時間内にユーザ端末1が反転された場合(ステップS9でYES)、ユーザ端末1は、第1指示情報の表示を反転させる(ステップS11)。つまり、ユーザ端末1の反転を検知した場合に、ユーザ端末1は、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することができる。ステップS11で出力される第1指示情報は、ステップS8で出力される第1指示情報と同じ内容の情報で、表示画面4に表示するレイアウトのみ異なるものであってもよい。ステップS11にて第1指示情報が出力された表示画面は、図9に対応する。表示を反転させる処理(上下方向のレイアウトを切り替える処理ともいう)については、後述する。
なお、所定の時間内にユーザ端末1が反転されたことを検出した場合、反転の検出と同時にステップS11の処理を実行してもよい。つまり、ユーザ端末1の向きと合わせて、第1指示情報を反転させてもよい。これにより、ユーザがスムーズにユーザ端末1の上下を反転させることができる。
ステップS11にて第1指示情報が表示されると、ユーザ端末1において、ユーザの動作情報の取得が開始される(ステップS12)。取得するユーザの動作情報は、静止画、動画、又は、音声のいずれかであってもよいし、2以上が組み合わさったものであってもよい。ステップS12及び後述のステップS13は、撮像装置により空間を撮像する処理、若しくは、録音装置により音声を録音する処理、又は、表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する処理、若しくは録音装置により音声を録音する処理であるといえる。
なお、ステップS12により取得が開始される動作情報は、サーバ装置2に送信される動作情報である。撮像装置による空間の撮像と表示画面4への出力は、ステップS7又はS8と同時に実行され、ステップS12により、動作情報の取得が開始されることとしてもよい。ユーザ端末1において、表示画面に表示された録画開始ボタン等が押下により選択されることで、動作情報の録画、動作情報の撮影、又は、動作情報の録音といった、動作情報の取得が開始されてもよい。
ユーザの動作情報の取得が開始されると、第2指示情報が出力される。また、同時にユーザの動作情報が取得及び出力される(ステップS13)。第2指示情報とは、ユーザの状態を評価するのに必要な画像又は音声を取得中に、該画像又は音声を取得するために必要な動作をユーザに実施させるための指示情報である。第2指示情報は、ユーザに求める動作の手本となる情報を含んでいてもよい。ステップS13では、ユーザに求める動作に関する情報として第2指示情報を出力する。第2指示情報は、表示画面4において、撮像された画像情報をユーザが視認できるように表示される。なお、動作によっては、第1指示情報と第2指示情報とが同じ情報であってもよい。
なお、出力は、上記と同様の意味を有する。ステップS13におけるユーザの動作情報の出力では、動作情報の取得と同時に表示画面4に取得した画像が表示されることが好ましい。また、ユーザの音声を取得する場合、ユーザの音声については出力されないこととしてもよい。
ステップS13では、撮像により得られる画像、及び、ユーザに求める動作に関する情報である第2指示情報を表示装置の表示画面4に表示することができる。これにより、ユーザが求められる動作と自身の動きを同時に確認することができるので、ユーザは意図された動作を適切に実施することができる。そして、ユーザ端末1では、評価に必要な動作情報を取得できる。
また、第2指示情報として、ユーザに求める動作に関するテキスト情報、及び、該動作に関する画像情報を表示することとしてもよい。画像情報は、上述のとおり、静止画や動画が含まれる。また、画像として、実施の動作をする人の写真画像を用いてもよいし、イラストを用いてもよい。
第2指示情報及び/又は第1指示情報として、人の顔についての動作に関する情報を表示する場合、さらに、ステップS13の撮像により得られる画像を表示する領域において、人の顔又は上半身の少なくとも一部に対応するガイドを表示することとしてもよい。ガイドとは、例えば、ユーザの動作を撮像する際に、ユーザに対する撮像装置の位置や角度が適切なものであるかを、ユーザが確認するために表示画面4上に表示される点、線又はこれらを組み合わせた図形である。
ガイドの種類としては、例えば、実線、点線、マーカ、イラスト等があげられる。人の顔又は上半身の少なくとも一部としては、例えば、人の顔の輪郭、顎や鼻等の所定の部分等があげられる。表示画面4に人の顔又は上半身の少なくとも一部に対応するガイドを表示させることで、ユーザは、表示画面4上のどの位置に何が表示されるべきかを理解できる。また、ユーザが所定の位置に人の顔又は上半身の少なくとも一部が表示されることを確認しながら、ユーザ端末1において動作情報を取得することができる。
ガイドは、撮像された画像の上に重畳して表示される。ガイドは、透けた態様で表示されてもよい。ガイドの透明度の調整は、ユーザにより行われてもよく、システムにより自動で行われてもよい。また、撮像により得られる画像、及び、人の顔又は上半身の少なくとも一部に対応するガイドを表示することとしてもよい。撮像により得られる画像は、人の顔又は上半身の少なくとも一部であってもよい。
また、ガイドは、ガイド中の色や種類を部分的に異ならせるものであってもよい。例えば、顔の輪郭を青色の点線で表示し、鼻の部分を赤色の実線で表示してもよい。なお、第1指示情報として、第2指示情報と同様のガイドを表示することとしてもよい。
また、ユーザに求める動作に応じて、ガイドの種類、位置、大きさ、ガイドに対応する人の顔又は上半身の少なくとも一部等が変更されてもよい。ユーザに求める動作に応じてガイドを変更することで、ユーザに求める動作ごとにカメラ5とユーザとの距離や、カメラ5をユーザに対して向ける角度を指定することができる。
第2指示情報及び/又は第1指示情報としてガイドを表示することで、例えば、ガイドとして人の顔の輪郭が点線で表示されるとき、ユーザは、表示される自身の撮像画像を確認し、ガイドの点線の中に自分の顔が収まるように、ユーザ端末1と自分の位置を調整することができる。ユーザは、表示されたガイドを参考に、ユーザ端末1と自分の顔等の位置を調整したうで、ステップS5にて調節した表示画面4の明るさを利用して、明瞭な画像を取得することができる。
次に、ユーザ端末1の操作により、動作情報の取得を終了し、ユーザ端末1からサーバ装置2に撮像及び/又は録音により得られた動作情報が送信される(ステップS14)。サーバ装置2にて、動作情報が受信される(ステップS15)。なお、動作情報は、ユーザ端末1、及び/又は、サーバ装置2にて、記憶されてもよい。
1の動作につき、ステップS6~S15の処理が実行される。そのため、評価メニューに含まれる全ての動作が全て完了するまで、ステップS6~S15の処理が繰り返し実行される。
ここで、評価メニューとは、ユーザの状態を評価するために必要な動作が、所定の順番で記憶されたものである。評価メニューには、1以上の指示情報が関連付けて記憶されているともいえる。評価メニューごとに、評価できるユーザの状態や症状が異なり、評価対象に応じて、評価メニューに関連付けて記憶されている動作の種類や数が異なる。なお、ステップS1では、評価処理の開始の入力により、1の評価メニューが選択されてもよいし、複数の選択肢で表された評価対象から、任意の選択肢を選択することにより、選択した評価対象に応じた評価メニューについて評価処理の開始の入力をすることとしてもよい。
なお、上記のステップS6~S15の処理は、1回目の動作がユーザ端末1を反転させて動作情報が取得される動作の場合、前後の動作で動作情報を取得する際のユーザ端末1の向きが異なる場合に適用できる。具体的には、ユーザ端末1を反転させずに動作情報が取得される動作の後に、ユーザ端末1を反転させて動作情報が取得される動作の場合、又は、ユーザ端末1を反転させて動作情報が取得される動作の後に、ユーザ端末1を反転させずに動作情報が取得される動作の場合があげられる。また、ステップS9~S10の処理を省略してもよいし、ステップS9~S10の処理を省略し、ステップS8の処理の後、ユーザ端末1への操作によりステップS11が実行されてもよいし、ステップS8~S10の処理を省略してもよい。
一方、1回目の動作がユーザ端末1を反転させずに動作情報が取得される動作の場合、前後の動作で動作情報を取得する際のユーザ端末1の向きが同じ場合、ステップS9~S11の処理を省略することが好ましい。具体的には、ユーザ端末1を反転させずに動作情報が取得される動作の後に、ユーザ端末1を反転させずに動作情報が取得される動作の場合、又は、ユーザ端末1を反転させて動作情報が取得される動作の後に、ユーザ端末1を反転させて動作情報が取得される動作の場合があげられる。
上述のとおり、ユーザに求める動作ごとにユーザに求める動作に関する情報である指示情報が関連付けて記憶されている。そのため、繰り返しの処理において、ユーザに求める動作が順次変わり、それに応じて、第1指示情報及び第2指示情報によって表示される動作に関するテキスト情報、該動作に関する画像情報、及び/又は、該動作に関する音声情報が変化する。
全ての動作が完了すると、サーバ装置2にて、動作情報が評価される(ステップS16)。サーバ装置2からユーザ端末1に、ユーザの状態に関する評価情報が送信され(ステップS17)、ユーザ端末1にて、評価情報を受信する(ステップS18)。ユーザ端末1にて、評価情報が表示される(ステップS19)。ユーザは、評価情報を確認することで、自身の状態を把握することができる。
また、評価情報がユーザ識別情報と関連付けてサーバ装置2にて記憶されることで、評価情報が登録される(ステップS20)。また、評価情報は、時刻情報と関連付けて記憶されてもよい。時刻情報は、ステップS2で評価処理の開始を受け付けたとき、ステップS6で指示情報を送信したとき、又は、ステップS16で動作情報の評価を実行したときのいずれでもよい。以上のS1~S20の処理を実行することにより、評価処理は終了する。
ここで、第1指示情報又は第2指示情報が出力された、ユーザ端末1の表示画面について説明する。図6及び図7は、本発明の実施の形態に係る表示画面の一例を示す図である。図6は、1の動作に関して、ステップS8において第1指示情報が出力された表示画面4aを示す。図7は、該1の動作に関して、ステップS13において第2指示情報が出力された表示画面4bを示す。なお、図6及び図7の表示画面4は、ユーザ端末1を反転させずに動作情報を取得する動作に関するものであり、該動作において、ステップS9~S11の処理は省略される。また、ユーザが直立してユーザ端末1を構えたときの、ユーザ端末1の地面に対して垂直な方向(重力方向)における上下を矢印で示している。図6及び図7は、ユーザがユーザ端末1を構えたときに、カメラ5が上側にあることを示している。
表示画面4aには、第1指示情報31aが表示されている。第1指示情報31aには、「以下の早口言葉を1回言ってください」というテキスト情報と早口言葉の内容が表示されている。第1指示情報31aの内容が音声として出力されてもよい。また、表示画面4aには、撮像した画像32a、及び、ガイド33aが表示されていてもよい。また、表示画面4aには、これから取得する動作情報が、評価処理においてユーザが実行する動作において、何番目の動作かを示す情報を表示してもよい。図6では、「3」が表示されており、3番目の動作であることがわかる。
ガイド33aとして、顔の輪郭を示す円形の点線と、鼻の位置を原点として直交する2本の点線と、顔の輪郭における顎の位置で接する1本の点線とが表示されている。ユーザは、ガイド33aを頼りに、カメラ5の位置を調整して、顔の輪郭を示す円形の点線内に、撮像された自分の顔を、表示画面4aに表示させることができる。
また、戻るアイコン34を押下し選択することにより、1つ前の動作の第1指示情報又は第2指示情報が表示された表示画面4を表示する。撮り直しアイコン35の押下による選択により、取得した動作情報が破棄され、表示画面4a又は4bが表示される。そのため、表示画面4aにおいては、撮り直しアイコン35は押下できないこととしてもよい。開始・終了アイコン36の押下による選択により、動作情報の取得(録画)が開始し、表示画面4bに遷移する。送信アイコン37の押下により、ステップS14の処理が実行され、取得した動作情報がサーバ装置2に送信される。そのため、表示画面4aにおいては、送信アイコン37は押下できないこととしてもよい。
表示画面4bには、第2指示情報41a、撮像した画像32b、及び、ガイド33bが表示されている。第2指示情報41aには、早口言葉の内容のみが表示されている。また、ガイド33bは表示画面4aに表示されたガイド33aと同様のものである。開始・終了アイコン36の押下による選択により、動作情報の取得(録画)が終了し、撮り直しアイコン35又は送信アイコン37の押下による選択が可能となる。その他のアイコンの動作は表示画面4aと同様である。
図8は、本発明の実施の形態に係る表示画面の概略図である。具体的には、ステップS13における表示画面の概略図であり、表示画面4bに、撮像されたユーザの画像32bが表示されている。ユーザの画像32bは、表示画面4bの上領域から下領域にかけて、表示されている。図示するように、ユーザの画像32bに重畳して第2指示情報41aが表示されている。ユーザは、表示画面4bに表示された自身の顔の画像32bがガイド33bの顔に対応する楕円の点線内に入るように、ユーザ端末1を移動させることができる。また、動作に応じて、ガイドを異ならせることで、ユーザが、ユーザとカメラ5の距離が調整し、画像中におけるユーザの顔の占める範囲が適切な大きさの画像を取得することができる。これにより、ユーザが実施する動作について、評価に必要な適切な動作情報を取得することができる。
なお、ステップS13において、撮像により得られる画像、及び、第2指示情報が表示装置の表示画面4に表示されるが、ユーザ端末1は、表示画面4における第2指示情報が表示される領域と撮像により得られる画像が表示される領域とを切り替えて表示してもよい。具体的には、ユーザの画像32bの領域と、第2指示情報41aの領域とが入れ替わり、第2指示情報41aが表示されていた領域にユーザの画像が表示されてもよい。つまり、表示画面4に、第2指示情報が大きく表示され、第2指示情報に重畳して、ユーザの画像が表示されてもよい。表示の切り替えは、例えば、ユーザ端末1の操作入力に応じて実行される。
図8では、第2指示情報41aは、ユーザの画像32bの左下の領域に表示されている。第2指示情報41a又はユーザの画像32bは、ユーザ端末1への操作入力に応じて、表示画面4bのいずれの領域に表示されてもよい。具体的には、第2指示情報41a又はユーザの画像32bが表示される領域は、ユーザ端末1への操作入力に応じて、表示画面4bにおける位置、又は大きさを変更することができる。同様に、第1指示情報が表示される領域は、ユーザ端末1への操作入力に応じて、ユーザの画像と切り替えることができ、また、第1指示情報が表示される領域は、表示画面4bにおける位置、又は大きさを変更することができる。
また、ステップS13では、取得したユーザの動作情報をもとに、ユーザの動作情報を表示画面4に表示する。この際に、撮像したユーザの画像に代えて、表示画面4に所定のオブジェクトを表示することができる。所定のオブジェクトは、例えば、人や動物をあらわすキャラクタ、つまり、いわゆるアバターであってもよい。所定のオブジェクトは、ユーザの動作にあわせて、動作するように表示画面4に表示される。したがって、ユーザの顔、口唇又は舌等の動きに合わせて、表示されるアバターの顔、口唇又は舌等が動作する。ユーザの動作に合わせて、アバターを動作させる方法としては、公知の方法を用いることができる。例えば、撮像した画像上のユーザの顔、口唇、舌等の所定の点の動きに合わせて、該所定の点に対応するアバター上の仮想ポイントを移動させる。これらの仮想ポイントは、アバターを構成するポリゴンの頂点と関連づけられており、仮想ポイントの移動に合わせて、ポリゴンの頂点の座標も変更される。このポリゴンからなるアバターのモデルデータをレンダリングすることにより、ユーザの動作にあわせて動作するアバターの2次元画像を表示することができる。ステップS8~S12、及び後述のステップS25において、動作情報を出力する際も同様に、ユーザ端末1はユーザの画像を所定のアバターに変更して表示画面4に表示することができる。
次に、1の動作と異なる2の動作に関して、第1指示情報又は第2指示情報が出力された表示画面4について説明する。ここで、1の動作はユーザ端末1を反転させずに動作情報が取得される動作であり、2の動作はユーザ端末1を反転させて動作情報が取得される動作である。なお、ユーザ端末1を反転させて動作情報が取得される動作としては、例えば、軟口蓋に関する動作や喉の動きに関する動作等があげられる。以下では、喉の動きに関する動作の表示画面について説明する。
図9及び図10は、本発明の実施の形態に係る表示画面の一例を示す図である。図9は、1の動作と異なる2の動作に関して、ステップS11において第1指示情報が出力された表示画面4cを示す。図10は、該2の動作に関して、ステップS13において第2指示情報が出力された表示画面4dを示す。また、ユーザが直立してユーザ端末1を構えたときの、ユーザ端末1の地面に対して垂直な方向(重力方向)における上下を矢印で示している。図9及び図10は、ユーザがユーザ端末1を構えたときに、カメラ5が下側にあることを示している。
なお、戻るアイコン34、撮り直しアイコン35、開始・終了アイコン36、及び送信アイコン37については、図6及び図7の説明において記載された内容を必要な範囲で参照できる。また、同様の説明は省略する場合がある。また、表示画面4cには、これから取得する動作情報が、評価処理においてユーザが実行する動作において、何番目の動作かを示す情報を表示してもよい。図9では、「7」が表示されており、7番目の動作であることがわかる。
表示画面4cには、テキスト情報である第1指示情報31b及び画像情報である第1指示情報31cが表示されている。第1指示情報31bのテキスト情報は、ユーザ端末1を反転させた状態でテキストが読めるように、第1指示情報31aのテキスト情報と比較して、反転して表示されている。また、第1指示情報31cの画像情報や各種アイコンも同様に、第1指示情報31aの画像情報や各種アイコンと比較して、反転して表示されている。
第1指示情報31bには、動作情報を適切に取得するための具体的な説明として、「端末の上下を反転させてください。そして、顔を斜め下からとるように構え(鼻の穴がしっかり見える角度)、首の中央(喉仏のあたり)をしっかり映してください。唇で舌を挟んだまま唾を3回飲み込んでください。」が表示されている。また、第1指示情報31cには、ユーザに対してユーザ端末1の上下を移動させて、どのように撮影するかを説明する画像が表示されている。第1指示内容31b及び31cの内容が音声として出力されてもよい。
つまり、第1指示情報31b及び31cは、ユーザに求める動作に応じて、撮像装置が、表示画面に対して表示画面の長手方向のいずれか一端のある側の反対側にくるようにユーザに求める指示情報を出力することとしてもよい。該指示情報は、表示画面4の上端の近傍に配置された撮像装置が、ユーザがユーザ端末1を構えたときに、表示画面4の下端の近傍にくるように指示するものである。具体的には、該指示情報は、コンピュータ装置を反転することをユーザに求めるものであり、例えば、ユーザ端末1の表示画面4をユーザに向けたまま180度回転させる指示を、テキスト情報、画像情報、及び/又は、音声情報として出力できる。
なお、1つ前の動作で実行されたステップS6~S15の処理において、ユーザに求められた動作として、すでに撮像装置が表示画面4の下端の近傍にくるようにしていた場合は、指示情報として、撮像装置が表示画面4の下端の近傍にきたまま維持することを指示するものを含んでもよい。つまり、1つ前の動作と連続して、撮像装置が表示画面4の下端の近傍にくるようにする場合は、指示情報として、撮像装置が表示画面4の下端の近傍にきたまま維持することを指示するものを含んでもよい。
なお、ユーザに求める全ての動作において、撮像装置が、表示画面4に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力することとしてもよい。この場合、例えば、ステップS6~S15の繰り返しの処理において、最初に出力される第1指示情報において、コンピュータ装置を反転することを求める情報を出力してもよい。2回目以降に出力される第1指示情報では、コンピュータ装置を反転したままに維持することを求める情報を出力してもよい。
また、表示画面4cに表示されている第1指示情報31b及び31c、撮像した画像32c、ガイド33c、並びに各種アイコン34~37の配置が、表示画面4a及び4bの表示内容の配置と比較して、上下の向きが反転している。表示画面4のレイアウトを固定したまま、上下が切り替えられているともいえる。また、表示画面4cの中心座標を原点として、表示内容を180度回転させると、表示画面4a及び4bと同じ向きで表示される。
つまり、ユーザに求める動作に応じて、表示画面4に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することを可能としてもよい。具体的には、表示画面4a及び4bに表示される第1指示情報及び第2指示情報には、ユーザに求める動作として早口言葉に関する情報が、且つ、表示画面4c及び4dに表示される第1指示情報及び第2指示情報には、ユーザに求める動作として喉の動きに関する情報が、それぞれ関連付けて記憶されている。また、早口言葉に関する情報の表示画面4のレイアウトは、一般の上下方向のレイアウトが記憶されており、喉の動きに関する情報の表示画面4のレイアウトは、上下方向を反転させたレイアウトが記憶されている。これにより、図6と図7及び図9と図10のような表示が可能となる。
ユーザに求める動作と、表示する指示情報のレイアウトとは、関連付けてサーバ装置2に記憶されてもよい。表示画面4に表示する情報とは、第1指示情報、及び第2指示情報が含まれ、例えば、ユーザに求める動作についてのテキスト情報、画像情報、及び音声情報だけでなく、ガイドに関する情報も含まれる。
なお、ユーザに求める動作と、カメラ5の位置と、指示情報の表示画面4のレイアウトとが関連付けて記憶されていてもよい。例えば、ユーザ情報において、カメラ5の位置をユーザ端末1の下辺近傍であると登録している場合、早口言葉に関する情報の表示画面4のレイアウトは、一般の上下方向を反転させたレイアウトが出力され、喉の動きに関する情報の表示画面4のレイアウトは、一般の上下方向のレイアウトが出力される。
なお、ステップS6~S15の繰り返しの処理において、ユーザに求める全ての動作について、撮像装置が、表示画面に対して表示画面の長手方向のいずれか一端のある側の反対側にくるようにユーザに求める場合、ステップS6~S15の繰り返しの処理における表示画面4に表示する第1指示情報及び第2指示情報として、全ての上下方向を反転させたレイアウトが記憶されていることとしてもよい。
表示画面4dには、テキスト情報である第2指示情報41b及び画像情報である第2指示情報41c、撮像した画像32d、及び、ガイド33dが表示されている。第2指示情報41cは、テキスト情報及び画像情報を含んでいる。ガイド33dは、顔の輪郭を青色の実線で、鼻の輪郭を赤色の太字の実線で表示している。また、表示画面4dに表示されている表示内容は、表示画面4cと同じ向きであり、表示画面4a及び4bと比較して、上下の向きが反転している。
表示画面4c及び4dの表示内容が、表示画面4a及び4bと比較して、上下の向きが反転していることにより、ユーザは、ユーザ端末1を操作するために、ユーザ端末1の表示画面4を自分に向けたまま、180度回転させることとなる。そして、その状態で、カメラ5により、ユーザ自身を撮影することができる。
ここで、撮像方法について、説明する。図11は、本発明の実施の形態に係る撮像方法の概略図である。図11(a)は、ユーザ端末1を反転させずに動作情報を取得する際に、ユーザが自身の口腔を撮影している場面を表している。一方、図11(b)は、ユーザ端末1を反転させて動作情報を取得する際に、ユーザが自身の口腔を撮影している場面を表している。また、カメラ5の視軸を一点鎖線の矢印で示している。
図示するように、カメラ5がユーザ端末1の上端の近傍に配置される場合と比較して、ユーザがユーザ端末1を構えたときに、カメラ5がユーザ端末1の下端の近傍にある場合、カメラ5の視軸が、ユーザの口腔に対してより仰角に設定することができる。このため、軟口蓋等を評価するために喉の奥まで撮影された口腔内の撮影が必要である動作の場合、カメラ5をユーザ端末1の下端の近傍に移動させて画像を取得することにより、口腔内の画像を鮮明に取得できる。これにより、ユーザの状態の評価を適切に実行することができる。
なお、ユーザ端末1を反転させて動作情報を取得する動作として、例えば、軟口蓋に関する動作があげられる。軟口蓋は、硬口蓋という口の奥の湾曲した固い部分の後ろにある、粘膜に覆われた部分である。そのため、軟口蓋に関する動作を撮影する際は、ユーザ端末1を反転させて動作情報を取得することで、軟口蓋の画像を鮮明に取得できる。
また、図11(b)に示すように、ユーザの口唇とカメラ5の最短距離が、所定の範囲で撮影することで、表示画面全体の明るさにより、口腔内の画像を鮮明に取得できる。表示画面の光線を口に対して照射する観点から、所定の範囲は、15cm以内が好ましく、10cm以内がより好ましく、5cm以内がさらに好ましい。また、動作情報の焦点を合わせる観点から、所定の範囲は、2cm以上が好ましく、3cm以上がより好ましい。また、例えば、ユーザの口唇とカメラ5の最短距離が、ユーザの握りこぶし1つ分に対応する距離としてもよい。このとき、第1指示情報及び/又は第2指示情報は、ユーザの口唇とカメラ5の最短距離が、ユーザの握りこぶし1つ分に対応する距離にすることをユーザに求めるものを含んでいてもよい。
よって、撮像装置が、ユーザの所定の部位から所定の範囲、及び/又はユーザの所定の部位から所定の距離となるようにユーザに求める指示情報が出力されてもよい。該指示情報は、ステップS8の第1指示情報として出力されてもよいし、ステップS8にて出力される第1指示情報の前又は後に出力されてもよい。ユーザの所定の部位としては、口唇、鼻、喉、歯等の人の顔又は上半身の少なくとも一部があげられる。具体的には、軟口蓋に関する動作の際の指示情報として、ユーザの口唇とカメラ5の最短距離が、所定の範囲及び/又は所定の距離で撮影することを求める旨の情報が出力されてもよい。
また、指示情報が、撮像装置がユーザの所定の部位から所定の範囲、及び/又はユーザの所定の部位から所定の距離となるようにユーザに求める情報を含む場合、ステップS12の処理の前に、ユーザ端末1又はサーバ装置2は、撮像装置が、ユーザの所定の部位から所定の範囲であるか否か、及び/又はユーザの所定の部位から所定の距離であるか否かを判定してもよい。また、ユーザに求める動作が、口を開ける動作を含む場合、ステップS12の処理の前に、ユーザ端末1又はサーバ装置2は、ユーザの口が所定の大きさに開いたか否かを判定してもよい。ユーザ端末1又はサーバ装置2において、撮像装置が、ユーザの所定の部位から所定の範囲であるか否か、及び/若しくは、ユーザの所定の部位から所定の距離であるか否か、又は、ユーザの口が所定の大きさに開いたか否かを判定する処理を判定処理ともいう。
判定の結果、撮像装置がユーザの所定の部位から所定の範囲、及び/又はユーザの所定の部位から所定の距離である場合(判定結果がYESの場合)、撮像装置がユーザの所定の部位から所定の範囲、及び/又はユーザの所定の部位から所定の距離である旨の情報が出力されてもよく、ステップS12の動作情報の取得が開始されてもよい。また、判定の結果、ユーザの口が所定の大きさに開いた場合(判定結果がYESの場合)、ユーザの口が所定の大きさに開いた旨の情報が出力されてもよく、ステップS12の動作情報の取得が開始されてもよい。これにより、ユーザは、ステップS16にて評価可能な動作情報を負担なく取得することができる。
ユーザ端末1又はサーバ装置2において、撮像装置がユーザの所定の部位から所定の範囲であるか否かを判定する場合、例えば、ユーザ端末1又はサーバ装置2は、画像におけるユーザの所定の部位に相当する範囲が予め設定された範囲内であるか、画像の所定の領域にユーザの所定の部位が存在しているか等によって判定できる。撮像装置がユーザの所定の部位から所定の距離であるか否かを判定する場合、例えば、ユーザ端末1又はサーバ装置2は、ユーザ端末1に備えられた赤外線機能を利用して所定の部位と撮像装置との距離を特定してもよく、ユーザの所定の部位に取り付けられた他の通信装置との通信を利用して所定の部位と撮像装置との距離を特定してもよい。また、ユーザ端末1のジャイロセンサを利用して、ユーザの所定の部位を起点としてユーザ端末1を移動させることにより、所定の部位と撮像装置との距離を特定してもよい。
ユーザ端末1又はサーバ装置2において、ユーザの口が所定の大きさに開いたか否かを判定する場合、例えば、ユーザ端末1又はサーバ装置2は、画像におけるユーザの口の丸みを検出することで判定できる。まず、ユーザ端末1又はサーバ装置2は、取得した画像からユーザの顔の領域を特定し、特定した顔の領域から顔の特徴点を特定する。顔の特徴点の特定方法は、特に限定されないが、公知の方法を活用できる。次に、ユーザ端末1又はサーバ装置2は、特定した顔の特徴点から、口唇の輪郭を形成する3以上の所定の点を特定する。顔の特徴点から特定される所定の点の数は、適宜設定可能であり、所定の点を特定するための情報は、ユーザ端末1又はサーバ装置2に記憶されている。
特定された3以上の所定の点により形成される形状が一定の丸みを有する場合、ユーザ端末1又はサーバ装置2は、ユーザの口が所定の大きさに開いたと判定できる。例えば、3以上の所定の点により形成されるそれぞれの角度が所定の値以上であるとき、ユーザ端末1又はサーバ装置2は、一定の丸みを有すると判定できる。
また、ユーザ端末1又はサーバ装置2は、面積を利用して、ユーザの口が所定の大きさに開いたか否かを判定できる。例えば、ユーザ端末1又はサーバ装置2は、画像における口の面積と顔の面積との比、又は、画像における口の面積と画像全体の面積との比から、ユーザの口が所定の大きさに開いたか否かを判定できる。口の面積、及び顔の面積は、上記にて特定した顔の特徴点を利用して特定できる。口の面積は、特定された3以上の所定の点により形成される形状より特定できる。顔の面積は、顔の輪郭の特徴点により形成される形状より特定できる。画像における口の面積と顔の面積との比、又は、画像における口の面積と画像全体の面積との比が、予め設定された値よりも大きくなった場合、ユーザ端末1又はサーバ装置2は、ユーザの口が所定の大きさに開いたと判定できる。なお、ユーザ端末1又はサーバ装置2は、画像におけるユーザの口の丸みと、ユーザの口の面積を利用して、ユーザの口が所定の大きさに開いたか否かを判定してもよい。
上記の判定処理は、動作情報に含まれる1フレーム(画像)ごとに実行される。判定の結果、撮像装置がユーザの所定の部位から所定の範囲でない、撮像装置がユーザの所定の部位から所定の距離でない、又は、ユーザの口が所定の大きさに開いていない場合、判定処理が繰り返し実行されることとしてもよい。
なお、表示装置の表示画面4の明るさを調整する必要のある動作の場合、ステップS5における表示画面4の明るさ調節処理は、上記判定処理の結果に応じて実行されてもよい。例えば、ステップS11の処理後、判定処理が実行される。判定処理の判定結果がYESの場合、ステップS5の処理が実行された後に、ステップS12の処理が実行されてもよい。また、判定処理の判定結果がYESの場合、ステップS12及びS13において動作情報を取得する間のみ、ステップS5の処理が実行されてもよい。上記のステップS5の処理では、ユーザ端末1の表示画面4が所定の明るさに自動的に調節されてもよい。これにより、ユーザが動作情報を取得する際の負担を減らすことができる。
さらに、本発明の一態様において、指示情報には、ユーザに求めるユーザの喉の動作に関する情報が含んでいてもよい。この場合、ステップS16において、喉の動きに関する動作情報から、嚥下障害であるか否かを評価することができる。喉の動きに関する動作は、ユーザ端末1を反転させて(又は、カメラ5を下側に移動させて)動作情報が取得される動作の一例である。なお、図9及び図10は、ユーザの喉の動作に関する動作情報を取得する際の表示画面である。
このとき、ステップS8、S11及びS13の第1指示情報及び第2指示情報として、ユーザに求めるユーザの喉の動作に関する情報を出力することができる。喉の動作としては、例えば、つばを飲み込んで喉を動かす動作があげられる。また、ステップS8又はS11において、第1指示情報として、撮像装置であるカメラ5の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める撮影に関する指示情報を出力することとしてもよい。該指示情報は、テキスト情報、画像情報、及び/又は、音声情報として出力できる。また、該指示情報には、仰角からユーザの喉を撮影することだけでなく、カメラ5を表示画面5の下端の近傍にくるようにすることを指示する情報が含まれていてもよい。また、仰角からユーザの喉を撮影する際に、ユーザの顔又は顔の一部を喉と同時に撮影してもよい。図9及び図10に示すように、撮像により得られる画像、及び、人の顔又は上半身の少なくとも一部に対応するガイドを表示することとしてもよい。
なお、ユーザの顔より下方とは、顎を下側、頭部を上側としたときの上下方向に対して、顔の最下部よりも下に位置することを意味する。また、「仰角から喉を撮影する」とは、ユーザ端末1のカメラ5の視軸が上向きとなる角度で、喉を撮影することである。具体的には、ユーザ端末1のカメラ5の視軸を起点に、0度より大きく90度未満であることが好ましい。
ここで、喉に関する動作情報の撮像方法について、説明する。図12は、本発明の実施の形態に係る撮像方法の概略図である。図12において、仰角は、一点鎖線の矢印で示したカメラ5の視軸と、二点鎖線とがなす角αである。カメラ5の位置がユーザの顔より下方であり、且つ、仰角からユーザの顔及び喉を撮影することで、評価に必要なユーザの喉の画像を適切に取得することができる。
ここで、ステップS16の動作情報の評価について、説明する。動作情報の評価は、動作情報が画像情報の場合、AIによる画像処理により実行できる。また、動作情報が音声情報の場合、AIによる音声処理により実行できる。
評価方法は特に限定されないが、例えば、理想的な動作を示す画像等と、ユーザの動作情報との類似度を算出することで、評価を実行してもよい。類似度の算出法は、テンプレートマッチング、動的計画法、グラフマッチング等であってよい。また、動作情報における特徴抽出を行い、該抽出した特徴について、理想的な動作を示す画像等と、類似度を算出することとしてもよい。また、動作情報中の顔の輪郭や唇の輪郭を特定し、画像中の明度の変化から、顔や口の動きを特定して、評価を行うとしてもよい。
また、ステップS6~S15の繰り返しの処理のいずれかにおいて、基準となる画像情報を取得することが好ましい。基準となる画像情報の取得を最初の繰り返しの処理で実行する場合、第1指示情報として、「表示されるガイドに顔を合わせてください」といったガイドの説明や、「撮影中はできるだけ顎を動かさないように」といった撮影の注意事項、「撮影は一つのタスクごとにおこないます」といったこれから実施する動作の説明が表示されてもよい。また、ステップS13において、第2指示情報の出力を省略してもよい。基準となる画像情報とは、他の動作情報の画像について画像処理を行う際に、明度やRGB値の比較の基準とする画像である。
[運動処理]
次に、運動処理について説明する。運動処理は、ユーザに対して、所定の運動を実施させるための処理である。なお、所定の運動には、所定の動作も含まれる。図13は、本発明の実施の形態に係る運動処理のフローチャートを示す図である。
次に、運動処理について説明する。運動処理は、ユーザに対して、所定の運動を実施させるための処理である。なお、所定の運動には、所定の動作も含まれる。図13は、本発明の実施の形態に係る運動処理のフローチャートを示す図である。
まず、ユーザは、ユーザ端末1を操作し、システムにログインする。システムへは、評価処理と同様の方法により、ログインできる。次に、ユーザは、ユーザ端末1を操作して、運動処理の開始の入力をする(ステップS21)。ステップS21では、複数の選択肢で表された運動メニューから、任意の選択肢を選択することにより、選択した運動メニューについて運動処理の開始の入力をすることとしてもよい。
ここで、運動メニューとは、ユーザに求める運動を、所定の順番で記憶されたものである。運動メニューには、1以上の後述の第3指示情報が関連付けて記憶されているともいえる。運動メニューごとに、該運動により得られる効果が異なり、効果に応じて、関連付けて記憶されている運動の種類や数、完了までにかかる時間が異なる。また、運動メニューに含まれるユーザに求める運動は、1つの運動でもよいし、複数の運動であってもよい。
入力された運動処理の開始に関する情報は、ユーザ端末1からサーバ装置2へ送信され、サーバ装置2に受信される。それにより、サーバ装置2にて、運動処理の開始の要求を受け付ける(ステップS22)。次に、サーバ装置2からユーザ端末1に、第3指示情報が送信される(ステップS23)。ユーザ端末1にて、第3指示情報が受信される(ステップS24)。
ここで、第3指示情報とは、ユーザに求める運動に関する情報であり、ユーザに対して所定の動作の指示をするための情報が含まれる。第3指示情報は、ユーザに求める動作の手本となる情報を含んでいてもよい。ユーザに求める運動とは、ユーザの状態を維持、改善、及び向上するために、ユーザに実施させる動作のことをいう。ユーザに求めるユーザの動作は、評価処理と同様の動作であってもよいし、異なる動作であってもよい。
ユーザに求める運動に関する情報としては、ユーザに実施させる動作に関するテキスト情報、該動作に関する画像情報、及び/又は、該動作に関する音声情報があげられる。テキスト情報、画像情報、又は、音声情報のいずれかであってもよいし、2以上を組み合わせたものであってもよい。
第3指示情報は、動作ごとにサーバ装置2に記憶される。また、ユーザに求める運動に関する情報は、該運動の完了までにかかる時間に関する時間情報と関連付けて記憶されていてもよい。ユーザに求める運動に関する情報として、時間情報を出力してもよい。
次に、ユーザ端末1にて第3指示情報が受信されると、1の運動に対応する第3指示情報が出力される(ステップS25)。なお、出力とは、上述の評価処理と同様の意味を有する。また、第3指示情報の出力と同時に、時間の経過が計測される。ステップS21にて選択された運動メニューに、1の運動と2の運動が含まれる場合は、1の運動に関連付けて記憶された所定の時間が経過したとき、又は、ユーザ端末1への操作により、2の運動に対応する第3指示情報が出力される。つまり、ステップS21にて選択された運動メニューに関連付けて記憶された全て運動が終わるまで、ステップS25の処理が繰り返し実行される。
運動メニューに含まれる全ての運動について、第3指示情報の出力が完了すると、ユーザ端末1からサーバ装置2に全ての運動の第3指示情報の出力が完了した旨である完了情報が送信される(ステップS26)。サーバ装置2にて、完了情報が受信される(ステップS27)。
サーバ装置2にて、完了情報がユーザの識別情報及び時刻情報と関連付けて記憶され、完了情報が登録される(ステップS28)。以上のステップS21~S28の処理を実行することにより、運動処理は終了する。
なお、上述の実施の形態では、ユーザ端末1では第3指示情報の出力のみを実行したが、評価処理のステップS13と同様に、ユーザ端末1の撮像装置により、ユーザの動作情報を取得し、第3指示情報及び得られた画像情報を、表示画面4に表示してもよい。この場合、第3指示情報には、ガイドに関する情報も含まれる。また、第3指示情報は、表示画面4において、撮像された画像情報をユーザが視認できるように表示される。また、第3指示情報は、表示画面4において、撮像された画像情報に重畳して表示される。
なお、ステップS25において、撮像により得られる画像、及び、第3指示情報が表示装置の表示画面4に表示される場合、ユーザ端末1は、表示画面4における第3指示情報が表示される領域と撮像により得られる画像が表示される領域とを切り替えて表示してもよい。具体的には、図8にて説明したユーザの画像32bと第2指示情報41aと同様に、撮像により得られる画像が表示される領域と、第3指示情報の領域とが入れ替わり、第3指示情報が表示されていた領域に撮像により得られる画像が表示されてもよい。つまり、表示画面4に、第3指示情報が大きく表示され、第3指示情報に重畳して、撮像されたユーザの画像が表示されてもよい。表示の切り替えは、例えば、ユーザ端末1の操作入力に応じて実行される。
また、第3指示情報、又は、撮像により得られる画像は、ユーザ端末1への操作入力に応じて、表示画面4のいずれの領域に表示されてもよい。具体的には、第3指示情報、又は、撮像により得られる画像が表示される領域は、ユーザ端末1への操作入力に応じて、表示画面4における位置、又は大きさを変更することができる。
また、ユーザが1の運動の開始の入力前と入力後とで、異なる第3指示情報を出力してもよい。例えば、1の運動の開始の入力前には、該運動の動作の説明としてテキスト情報及び画像情報が表示され、1の運動の開始の入力後は、カウントダウンのタイマ及び該運動の動作の説明として画像情報が表示されてもよい。
また、上述の実施の形態では、ユーザが、任意の運動メニューを選択する態様について説明したが、運動メニューは、ユーザ識別情報に関連付けて記憶された評価情報に応じて、変更されてもよい。例えば、所定の機能について評価が低いユーザに対して、該機能に関連する運動を多く含んだ運動メニューとしてもよいし、該機能に関連する運動の時間を基準の時間よりも増やした運動メニューとしてもよい。
なお、本発明のシステムは、ヨガや筋トレといった運動や、言語学習等、自分の動作とお手本の動作を参考にしながら動作を実施する必要があるものについて、適用することができる。
[実行管理]
本発明のシステムは、評価情報及び完了情報に関連付けて時刻情報が記憶されている。そのため、ユーザが評価処理及び運動処理を実行した日時を管理することができる。例えば、カレンダーに評価処理又は運動処理を実施した記録を表示することができる。具体的には、評価処理又は運動処理を実行した日がわかるような態様でユーザ端末1に表示することとしてもよい。また、実行した運動処理の運動メニューごとに、異なる態様でユーザ端末1に表示してもよい。異なる態様としては、例えば、異なる色や異なるアイコンを表示することとしてもよい。
本発明のシステムは、評価情報及び完了情報に関連付けて時刻情報が記憶されている。そのため、ユーザが評価処理及び運動処理を実行した日時を管理することができる。例えば、カレンダーに評価処理又は運動処理を実施した記録を表示することができる。具体的には、評価処理又は運動処理を実行した日がわかるような態様でユーザ端末1に表示することとしてもよい。また、実行した運動処理の運動メニューごとに、異なる態様でユーザ端末1に表示してもよい。異なる態様としては、例えば、異なる色や異なるアイコンを表示することとしてもよい。
また、評価処理又は運動処理を所定の期間に所定の回数(例えば、評価処理は毎月4回実施する等)、実施することが推奨されているユーザの場合、評価処理又は運動処理を実施する予定の日には、ポップアップ通知がユーザ端末1になされてもよい。また、所定の期間ごとに、実施目標の達成率をユーザ端末1に表示してもよい。また、ユーザ端末1において、実施した評価処理において評価された評価情報が一覧で閲覧できるようにしてもよいし、直近の評価情報が表示されてもよい。
ユーザは、評価処理により、ユーザの状態を把握することができる。ユーザの状態は、動作ごとに個別に評価されてもよいし、複数の動作から総合的に評価されてもよい。これにより、発見が難しい口腔機能の低下を早期に発見できる。また、評価処理により、ユーザの状態が、マランパチ分類のいずれの分類に属するかの評価が可能となる。そのため、睡眠時無呼吸症候群等の疾患の兆候を早期に発見することができる。また、ユーザは、運動処理により、ユーザの健康状態の維持、改善、及び向上を図ることができる。また、口腔機能の維持、改善、及び向上を図り、美容効果を奏することができる。
本発明によれば、撮像装置が、表示画面に対して表示画面の長手方向のいずれか一端のある側の反対側にくるようにユーザに求める指示情報、及び/又は、撮像装置が、ユーザの所定の部位から所定の範囲となるようにユーザに求める指示情報を出力するため、ユーザの口腔内又は喉に関する画像といったユーザの動作情報を好適に取得することができる。
本発明によれば、センサにより、撮像装置が表示画面に対して前記一端のある側の反対側にくるように、コンピュータ装置の上下を反転させたことを検知するため、ユーザの状態を評価するために必要な画像を取得できる位置に、ユーザが、撮像装置を移動させたことを検出できる。また、本発明によれば、反転を検知した場合に、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能なため、ユーザによる動作情報の取得が円滑に実行できる。
本発明によれば、ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能であるため、動作に応じて、ユーザの状態を評価するために必要な画像情報を取得することができる。
本発明によれば、表示装置の表示画面の明るさを調整する、表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、表示装置の表示画面の明るさを調整するための調整情報を出力するため、ユーザの動作に関する画像情報を鮮明な状態で取得することができる。
本発明によれば、撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示するため、撮像された自分の動作と比較しながら、求められる動作を実施できる。また、本発明によれば、ユーザに求める動作に関する情報として、該動作に関するテキスト情報、及び、該動作に関する画像情報を表示するため、ユーザが求められる動作を適切に実施することができる。
1:ユーザ端末 2:サーバ装置 3:通信ネットワーク
4:表示画面 5:カメラ 6:スピーカ及びマイク
11:制御部 12:RAM 13:ストレージ部
14:入力部 15:表示部 16:通信インタフェース 17:撮像部
18:録音部 19:出音部
21:制御部 22:RAM 23:ストレージ部 24:通信インタフェース
31:第1指示情報 32:画像 33:ガイド 34:戻るアイコン
35:撮り直しアイコン 36:開始・終了アイコン 37:送信アイコン
41:第2指示情報
4:表示画面 5:カメラ 6:スピーカ及びマイク
11:制御部 12:RAM 13:ストレージ部
14:入力部 15:表示部 16:通信インタフェース 17:撮像部
18:録音部 19:出音部
21:制御部 22:RAM 23:ストレージ部 24:通信インタフェース
31:第1指示情報 32:画像 33:ガイド 34:戻るアイコン
35:撮り直しアイコン 36:開始・終了アイコン 37:送信アイコン
41:第2指示情報
Claims (25)
- 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と、
撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段、
として機能させる、プログラム。 - 表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と、
撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示手段、
として機能させる、プログラム。 - コンピュータ装置がセンサを備え、
コンピュータ装置を、
センサにより、撮像装置が表示画面に対して前記一端のある側の反対側にくるように、コンピュータ装置の上下を反転させたことを検知する反転検知手段、
として機能させる、請求項1又は2に記載のプログラム。 - コンピュータ装置を、
反転を検知した場合に、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、
として機能させる、請求項3に記載のプログラム。 - 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、
撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と、
撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示手段、
を備える、コンピュータ装置。 - 表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、
撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と、
撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示手段、
を備える、コンピュータ装置。 - 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、
撮像装置により空間を撮像する撮像ステップと、
ユーザに求める動作に関する情報を出力する情報出力ステップと、
撮像装置が、表示画面に対して前記一端のある側の反対側にくるようにユーザに求める指示情報を出力する指示ステップ、
を有する、方法。 - 表示画面を有する表示装置と、撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、
撮像装置により空間を撮像する撮像ステップと、
ユーザに求める動作に関する情報を出力する情報出力ステップと、
撮像装置が、ユーザの所定の部位から所定の距離となるようにユーザに求める指示情報を出力する指示ステップ、
を有する、方法。 - 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と、
ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、
として機能させる、プログラム。 - 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置であって、
撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と、
ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示手段、
を備える、コンピュータ装置。 - 長方形の表示画面を有する表示装置と、表示画面の長手方向のいずれか一端の近傍に配置された撮像装置とを備え、撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行される方法であって、
撮像装置により空間を撮像する撮像ステップと、
ユーザに求める動作に関する情報を出力する情報出力ステップと、
ユーザに求める動作に応じて、表示画面に表示する情報のレイアウト及び文字、記号若しくは図柄の上下を切り替えて表示することが可能な表示ステップ、
を有する、方法。 - 撮像装置を備えるコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
撮像装置により空間を撮像する撮像手段と、
ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力手段と、
撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示手段、
として機能させる、プログラム。 - 前記撮像により得られる画像、及び、人の顔又は上半身の少なくとも一部に対応するガイドを表示する、請求項12に記載のプログラム。
- 撮像装置を備えるコンピュータ装置であって、
撮像装置により空間を撮像する撮像手段と、
ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力手段と、
撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示手段、
を備える、コンピュータ装置。 - 撮像装置を備えるコンピュータ装置において実行される方法であって、
撮像装置により空間を撮像する撮像ステップと、
ユーザに求めるユーザの喉の動作に関する情報を出力する情報出力ステップと、
撮像装置の位置がユーザの顔より下方であり、且つ、仰角からユーザの喉を撮影することをユーザに求める指示情報を出力する指示ステップ、
を有する、方法。 - 表示装置と撮像装置とを備えるコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
撮像装置により空間を撮像する撮像手段と、
前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示手段、
として機能させる、プログラム。 - 表示手段が、ユーザに求める動作に関する情報として、該動作に関するテキスト情報、及び、該動作に関する画像情報を表示する、請求項16に記載のプログラム。
- 表示手段が、ユーザに求める動作に関する情報として、人の顔についての動作に関する情報を表示するものであり、さらに、前記撮像により得られる画像を表示する領域において、人の顔又は上半身の少なくとも一部に対応するガイドを表示する、請求項16又は17に記載のプログラム。
- 撮像装置により撮像できる空間にユーザが存在する場合に、ユーザが表示装置による表示画面にて撮像されたユーザを視認できるように、撮像装置が配置されたコンピュータ装置において実行されるための、請求項16又は17に記載のプログラム。
- 表示装置と撮像装置とを備えるコンピュータ装置であって、
撮像装置により空間を撮像する撮像手段と、
前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示手段、
を備える、コンピュータ装置。 - 表示装置と撮像装置とを備えるコンピュータ装置において実行される方法であって、
撮像装置により空間を撮像する撮像ステップと、
前記撮像により得られる画像、及び、ユーザに求める動作に関する情報を表示装置の表示画面に表示する表示ステップ、
を有する、方法。 - 表示装置と、撮像装置とを備えるコンピュータ装置において実行されるプログラムであって、
コンピュータ装置を、
表示装置の表示画面の明るさを調整する、
表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、
表示装置の表示画面の明るさを調整するための調整情報を出力する調整手段と、
表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段
として機能させる、プログラム。 - 表示装置と、撮像装置とを備えるコンピュータ装置であって、
表示装置の表示画面の明るさを調整する、
表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、
表示装置の表示画面の明るさを調整するための調整情報を出力する調整手段と、
表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像手段と、
ユーザに求める動作に関する情報を出力する情報出力手段と
を備える、コンピュータ装置。 - 表示装置と、撮像装置とを備えるコンピュータ装置において実行される方法であって、
表示装置の表示画面の明るさを調整する、
表示装置の表示画面の明るさを調整することをユーザに求める指示情報を出力する、又は、
表示装置の表示画面の明るさを調整するための調整情報を出力する調整ステップと、
表示画面の明るさの調整が完了した後に、撮像装置により空間を撮像する撮像ステップと、
ユーザに求める動作に関する情報を出力する情報出力ステップと
を有する、方法。 - コンピュータ装置を、
前記撮像により得られる画像を記憶する画像記憶手段、及び/又は、前記撮像により得られる画像を他のコンピュータ装置へ送信する画像送信手段
として機能させる、請求項1、2、9、12、16、又は22に記載のプログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022200254A JP7381139B1 (ja) | 2022-12-15 | 2022-12-15 | プログラム、コンピュータ装置及び方法 |
| JP2022-200254 | 2022-12-15 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024128315A1 true WO2024128315A1 (ja) | 2024-06-20 |
Family
ID=88729090
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/045039 Ceased WO2024128315A1 (ja) | 2022-12-15 | 2023-12-15 | プログラム、コンピュータ装置及び方法 |
Country Status (2)
| Country | Link |
|---|---|
| JP (2) | JP7381139B1 (ja) |
| WO (1) | WO2024128315A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7530536B1 (ja) * | 2023-12-22 | 2024-08-07 | 株式会社カーブスジャパン | 映像出力システム、映像出力方法、及びプログラム |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013031650A (ja) * | 2011-06-30 | 2013-02-14 | Gifu Univ | 摂食運動測定システムおよび測定方法 |
| US20130336519A1 (en) * | 2012-06-14 | 2013-12-19 | Robert A. Connor | Willpower Watch (TM) -- A Wearable Food Consumption Monitor |
| JP2017130887A (ja) * | 2016-01-22 | 2017-07-27 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、撮像方法、及びプログラム |
| JP2018114266A (ja) * | 2017-01-19 | 2018-07-26 | パナソニックIpマネジメント株式会社 | 脈波計測装置、制御方法、及び、プログラム |
| JP2018182626A (ja) * | 2017-04-18 | 2018-11-15 | マクセルホールディングス株式会社 | 連動システム |
| US20200311429A1 (en) * | 2019-04-01 | 2020-10-01 | Jeff Jian Chen | User-Guidance System Based on Augmented-Reality and/or Posture-Detection Techniques |
| JP2021122697A (ja) * | 2020-02-10 | 2021-08-30 | Fcnt株式会社 | 血圧測定装置、血圧測定方法及び血圧測定プログラム |
| JP2021183079A (ja) * | 2020-05-22 | 2021-12-02 | 株式会社リコー | 脈波測定装置、およびプログラム |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7133771B2 (ja) | 2018-02-13 | 2022-09-09 | パナソニックIpマネジメント株式会社 | 生体情報表示装置、生体情報表示方法及び生体情報表示プログラム |
-
2022
- 2022-12-15 JP JP2022200254A patent/JP7381139B1/ja active Active
-
2023
- 2023-10-26 JP JP2023183814A patent/JP2024086582A/ja active Pending
- 2023-12-15 WO PCT/JP2023/045039 patent/WO2024128315A1/ja not_active Ceased
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013031650A (ja) * | 2011-06-30 | 2013-02-14 | Gifu Univ | 摂食運動測定システムおよび測定方法 |
| US20130336519A1 (en) * | 2012-06-14 | 2013-12-19 | Robert A. Connor | Willpower Watch (TM) -- A Wearable Food Consumption Monitor |
| JP2017130887A (ja) * | 2016-01-22 | 2017-07-27 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、撮像方法、及びプログラム |
| JP2018114266A (ja) * | 2017-01-19 | 2018-07-26 | パナソニックIpマネジメント株式会社 | 脈波計測装置、制御方法、及び、プログラム |
| JP2018182626A (ja) * | 2017-04-18 | 2018-11-15 | マクセルホールディングス株式会社 | 連動システム |
| US20200311429A1 (en) * | 2019-04-01 | 2020-10-01 | Jeff Jian Chen | User-Guidance System Based on Augmented-Reality and/or Posture-Detection Techniques |
| JP2021122697A (ja) * | 2020-02-10 | 2021-08-30 | Fcnt株式会社 | 血圧測定装置、血圧測定方法及び血圧測定プログラム |
| JP2021183079A (ja) * | 2020-05-22 | 2021-12-02 | 株式会社リコー | 脈波測定装置、およびプログラム |
Non-Patent Citations (2)
| Title |
|---|
| ANONYMOUS: "Why can't the app be displayed in landscape (or portrait) mode?", FAQ SMARTPHONE P-08D, no. 197, 9 October 2012 (2012-10-09), JP, pages 1, XP009558054, Retrieved from the Internet <URL:https://faq.mp.panasonic.co.jp/print/faq/197?site_domain=default> * |
| KFJ: "How to use face changer app MSQRD (masquerade)! Explanation of face swap and filtering functions!", APPLICA, 29 May 2019 (2019-05-29), XP093181476, Retrieved from the Internet <URL:https://applica.info/msqrd> * |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024086582A (ja) | 2024-06-27 |
| JP7381139B1 (ja) | 2023-11-15 |
| JP2024085635A (ja) | 2024-06-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2004039B1 (en) | Image output apparatus, image output method and image output program | |
| TW201820279A (zh) | 訓練並監測吸入器藥物投與之系統及方法 | |
| JP7503762B2 (ja) | 集中度計測装置、集中度計測方法、及び、プログラム | |
| US20140204191A1 (en) | Image display device and image display method | |
| JP2006320424A (ja) | 動作教示装置とその方法 | |
| CN101453938B (zh) | 图像记录装置 | |
| US20120194648A1 (en) | Video/ audio controller | |
| JP4877762B2 (ja) | 表情誘導装置および表情誘導方法、表情誘導システム | |
| CN101453943A (zh) | 图像记录装置、图像记录方法以及图像记录程序 | |
| JP2020081088A (ja) | 情報処理装置、情報処理システム、および、プログラム | |
| JP2019160033A (ja) | 表示制御装置およびプログラム | |
| WO2024128315A1 (ja) | プログラム、コンピュータ装置及び方法 | |
| JP2006325740A (ja) | リハビリテーション支援システム及びプログラム | |
| JP6630911B1 (ja) | 治療支援システムおよび治療支援プログラム | |
| JP2024138331A (ja) | 眼球突出の度合いの分析のための側方画像を取得するための方法及び撮影デバイス、及びそのための記録媒体 | |
| JP2012073299A (ja) | 言語訓練装置 | |
| US10747308B2 (en) | Line-of-sight operation apparatus, method, and medical device | |
| JP3697530B2 (ja) | 人物画像出力装置、人物画像出力方法及び人物画像出力プログラムを記録したコンピュータ読取可能な記録媒体 | |
| KR20160064890A (ko) | 런닝 자세 교정 기능을 갖는 런닝머신 시스템 | |
| JPH0951927A (ja) | 両眼視訓練装置 | |
| JP2008186075A (ja) | インタラクティブ画像表示装置 | |
| JP2020099550A (ja) | Vdt症候群及び繊維筋痛症の改善 | |
| JP7532851B2 (ja) | 健康情報管理装置、健康情報管理システム、および健康情報管理プログラム | |
| WO2021036839A1 (zh) | 摄像头控制的方法、装置和终端设备 | |
| KR102907381B1 (ko) | 구강기능재활운동 시스템 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23903594 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 23903594 Country of ref document: EP Kind code of ref document: A1 |