[go: up one dir, main page]

WO2015064665A1 - 個人特性予測システム、個人特性予測方法及び記録媒体 - Google Patents

個人特性予測システム、個人特性予測方法及び記録媒体 Download PDF

Info

Publication number
WO2015064665A1
WO2015064665A1 PCT/JP2014/078818 JP2014078818W WO2015064665A1 WO 2015064665 A1 WO2015064665 A1 WO 2015064665A1 JP 2014078818 W JP2014078818 W JP 2014078818W WO 2015064665 A1 WO2015064665 A1 WO 2015064665A1
Authority
WO
WIPO (PCT)
Prior art keywords
characteristic
brain
characteristic value
unit
cerebrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/078818
Other languages
English (en)
French (fr)
Inventor
芳伸 狩野
良太 金井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ARAYA BRAIN IMAGING Inc
Original Assignee
ARAYA BRAIN IMAGING Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ARAYA BRAIN IMAGING Inc filed Critical ARAYA BRAIN IMAGING Inc
Priority to EP14857424.7A priority Critical patent/EP3064126A4/en
Priority to US14/900,685 priority patent/US9576358B2/en
Publication of WO2015064665A1 publication Critical patent/WO2015064665A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0475Special features of memory means, e.g. removable memory cards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Definitions

  • the present invention relates to a personal characteristic prediction system and a personal characteristic prediction method using an image obtained by photographing a brain, and a recording medium on which a program is recorded.
  • brain docks have been widely used to acquire brain cross-sectional images by MRI (magnetic resonance imaging) and CT (Computed Tomography) and to determine the state of the brain from the brain cross-sectional images. is doing.
  • MRI magnetic resonance imaging
  • CT Computerputed Tomography
  • the cross-sectional images of the brain obtained by MRI etc. not only know the state of blood vessels in the brain, but also the state of each part of the brain, so signs can be found for specific diseases that are not related to the state of blood vessels. It is known that For example, it is known that a patient whose brain frontal lobe is atrophic is likely to develop dementia.
  • Japanese Patent Laid-Open No. 2005-230456 creates a gray matter image of a brain section from a photographed MRI image, compares the gray matter image with a gray matter image of a healthy person, and reduces atrophy of a specific part of the brain. There is a description of a method for determining and diagnosing signs such as dementia.
  • lesions and signs that can be diagnosed from conventional brain images are mainly vascular-related diseases such as cerebral infarction and signs of dementia such as atrophy of specific parts of the brain.
  • vascular-related diseases such as cerebral infarction
  • signs of dementia such as atrophy of specific parts of the brain.
  • An object of the present invention is to provide a prediction system, a prediction method, and a program capable of predicting detailed personal characteristics that have been impossible in the past from an image obtained by photographing a brain.
  • the personal characteristic prediction system of the present invention is A brain image acquisition unit that acquires a brain image obtained by scanning a brain of a subject who detects personal characteristics; A three-dimensional information conversion unit for obtaining three-dimensional information of the cerebrum from the brain image acquired by the brain image acquisition unit; A characteristic value detection unit that detects a plurality of types of characteristic values of each part of the cerebrum based on the three-dimensional information of the cerebrum obtained by the three-dimensional information conversion unit; A storage unit for storing information on the correlation between the characteristic value of each part of the cerebrum and the ability or quality, Comparing the plurality of types of characteristic values detected by the characteristic value detection unit with the characteristic values stored by the storage unit, a characteristic value similar to the plurality of types of characteristic values detected by the characteristic value detection unit is obtained.
  • a personal characteristic prediction unit that predicts the ability or qualities of the subject, An output unit that outputs information indicating the ability or qualities of the target person predicted by the personal characteristic prediction unit;
  • Information on the correlation between the characteristic value of each part of the cerebrum stored in the storage unit and the ability or quality is information of a prediction model that combines characteristic values of a plurality of parts, The personal characteristic prediction unit predicts the ability or quality of the target person by comparing characteristic values of a plurality of parts of the cerebrum detected by the characteristic value detection unit with a prediction model stored by the storage unit.
  • One of the plurality of types of characteristic values detected by the characteristic value detection unit is converted by converting the three-dimensional information of the cerebral cortex obtained from the brain image by the three-dimensional information conversion unit into a spatial coordinate system of a standard brain.
  • the characteristic values of each part of the cerebral cortex detected from the three-dimensional information of the cerebral cortex in the spatial coordinate system of the standard brain, Another one of the plurality of types of characteristic values detected by the characteristic value detection unit is a characteristic value obtained by quantifying the structure under the cerebral cortex based on the three-dimensional information of the cerebrum.
  • the personal characteristic prediction method of the present invention includes: A brain image acquisition process in which a brain image acquisition unit acquires a brain image obtained by scanning the brain of a subject who detects personal characteristics; A three-dimensional information conversion process in which a three-dimensional information conversion unit obtains three-dimensional information of the cerebrum from the brain image acquired in the brain image acquisition process; A characteristic value detection process in which the characteristic value detection unit detects a plurality of types of characteristic values of each part of the cerebrum based on the three-dimensional information of the cerebrum obtained by the three-dimensional information conversion process; A storage process in which the storage unit stores the standard value of the characteristic of each part of the cerebrum and the information on the correlation between the characteristic value of each part and the ability or quality, The plurality of types of characteristic values detected in the characteristic value detection process are compared with the characteristic values stored in the storage process, and characteristic values similar to the plurality of types of characteristic values detected in the characteristic value detection process are obtained.
  • a personal characteristic prediction process in which the personal characteristic prediction unit predicts the ability or qualities of the target person from information related to the ability or qualities of the brain having the searched characteristic value.
  • An output process in which an output unit outputs information indicating the ability or qualities of the target person predicted in the personal characteristic prediction process, and Information on the correlation between the characteristic value and ability or quality of each part of the cerebrum stored by the storage unit in the storage process is information of a prediction model that combines characteristic values of a plurality of parts
  • the personal characteristic prediction unit compares the characteristic values of a plurality of parts of the cerebrum detected by the characteristic value detection unit with the prediction model stored in the storage unit, and It is a personal characteristic prediction method that predicts qualities,
  • One of a plurality of types of characteristic values detected by the characteristic value detection process is converted by converting the three-dimensional information of the cerebral cortex obtained from the brain image by the three-dimensional information conversion process into a spatial coordinate system of a standard brain.
  • the characteristic values of each part of the cerebral cortex detected from the three-dimensional information of the cerebral cortex in the spatial coordinate system of the standard brain is a characteristic value obtained by quantifying the structure under the cerebral cortex based on the three-dimensional information of the cerebrum.
  • the recording medium of the present invention is A brain image acquisition procedure for acquiring a brain image obtained by scanning the brain of a subject for detecting personal characteristics; A three-dimensional information conversion procedure for obtaining three-dimensional information of the cerebrum from the brain image acquired in the brain image acquisition procedure; A characteristic value detection procedure for detecting a plurality of types of characteristic values of each part of the cerebrum based on the three-dimensional information of the cerebrum obtained by the three-dimensional information conversion procedure; A storage procedure for storing an average value of characteristics of each part of the cerebrum, and information on a correlation between the characteristic value of each part and the ability or quality; The plurality of types of characteristic values detected in the characteristic value detection procedure are compared with the characteristic values stored in the storage procedure, and characteristic values similar to the plurality of types of characteristic values detected in the characteristic value detection procedure are obtained.
  • a personal characteristic prediction procedure for predicting the ability or qualities of the subject, An output procedure for outputting information indicating the ability or qualities of the target person predicted by the personal characteristic prediction procedure;
  • a recording medium that records a program that is executed by a computer.
  • Information on the correlation between the characteristic value of each part of the cerebrum stored in the storage procedure and the ability or quality is information of a prediction model that combines the characteristic values of a plurality of parts,
  • the personal characteristic prediction procedure the characteristic value of a plurality of parts of the cerebrum detected in the characteristic value detection procedure is compared with the prediction model stored in the storage procedure, and processing for predicting the ability or quality of the target person is performed.
  • One of a plurality of types of characteristic values detected by the characteristic value detection procedure is converted by converting the three-dimensional information of the cerebral cortex obtained from the brain image by the three-dimensional information conversion procedure into a spatial coordinate system of a standard brain.
  • the characteristic values of each part of the cerebral cortex detected from the three-dimensional information of the cerebral cortex in the spatial coordinate system of the standard brain, Still another of the plurality of types of characteristic values detected by the characteristic value detection procedure is a characteristic value obtained by quantifying the structure under the cerebral cortex based on the three-dimensional information of the cerebrum.
  • the ability or qualities of the target person are predicted. can do. For example, when the characteristic value of a specific part of the cerebrum is larger than the average value, the stored information indicates that the brain with such a characteristic value has high abilities such as memory and social qualities , It can be predicted to have the appropriate ability and qualities.
  • FIG. 1 is a diagram showing an example of the overall system configuration of this example.
  • an MRI (magnetic resonance imaging) apparatus 100 that obtains a scan image of the brain of a detection target person who detects personal characteristics is installed, and a brain scan image ( 2D slice image) is supplied to the terminal device 200.
  • a brain scan image for example, a T1-weighted image is used.
  • the terminal device 200 displays the brain image supplied from the MRI apparatus 100 and analyzes the brain image.
  • the terminal apparatus 200 may be directly connected to the MRI apparatus 100.
  • a brain scan image captured by the MRI apparatus 100 may be transmitted to the terminal apparatus 200 at a remote location via some network.
  • a storage medium such as a memory card 201 or an optical disc 202 is attached to the terminal device 200, and the terminal device 200 acquires a brain scan image stored in the memory card 201 or the optical disc 202. May be.
  • the terminal device 200 When analyzing the brain image acquired from the MRI apparatus 100, the terminal device 200 communicates with the server 300 including the brain image database 310 and acquires data necessary for the analysis from the server 300.
  • the server 300 includes a database 310 that holds a large number of data regarding brain images, and the terminal device 200 acquires necessary data from the database 310 in the server 300. And based on the result analyzed by the terminal device 200, the personal characteristic of the subject who image
  • Each brain image stored in the database 310 in the server 300 is added with data on the personal characteristics of the subject who took the brain image. Specific examples of the individual characteristics of the subject will be described later, but it is preferable to have as detailed data as possible about the nature and personality.
  • the terminal device 200 may include a database (storage device) (not shown) instead of the database 310 of the server 300, for example.
  • the brain image may be sent from the terminal device 200 to the server 300, the server 300 may perform analysis, and the terminal device 200 may display the analysis result.
  • FIG. 2 shows a configuration example of the terminal device 200.
  • the terminal device 200 is configured by a computer device, for example.
  • the terminal device 200 stores data stored in a memory or a hard disk drive, and performs arithmetic processing according to a program. And the process which outputs this arithmetic processing result to a display apparatus is performed.
  • FIG. 2 is a functional block diagram viewed from the data processing function in the terminal device 200.
  • Each processing unit can transfer data to each other.
  • Brain image data transmitted from the MRI apparatus 100 or brain image data obtained from a storage medium is captured by the terminal device 200 by an image capturing unit 211 corresponding to a brain image acquiring unit that performs brain image acquisition processing.
  • the image capturing unit 211 sends the brain image data acquired from the MRI apparatus 100 to the image storage unit 221.
  • the image storage unit 221 performs storage processing for storing the supplied brain image data.
  • the brain image data transmitted from the MRI apparatus 100 is, for example, an image obtained by scanning a cross section of the brain, and is an image configured by a large number of brain image data in which the position of the cross section is shifted for each detection target person. is there.
  • the brain image data stored in the image storage unit 221 is converted into three-dimensional brain information by a three-dimensional information conversion unit 222 that performs a three-dimensional information conversion process.
  • the three-dimensional information conversion unit 222 converts brain image data at a number of cross-sectional positions into three-dimensional surface layer information of the surface layer that is a cerebral cortex that spreads on the surface of the cerebrum.
  • the three-dimensional surface layer information converted by the three-dimensional information conversion unit 222 has information such as the thickness of the surface layer (cerebral cortex) at each position, the curvature of each part, the surface area, and the volume. Further, the three-dimensional information conversion unit 222 acquires information such as the local volume of each part in the brain from the three-dimensional information of the brain.
  • the three-dimensional surface layer information obtained by the three-dimensional information conversion unit 222 is converted by the standard brain conversion unit 223 into three-dimensional surface layer information in a spatial coordinate system that matches the standard brain template. Further, the standard brain conversion unit 223 converts information such as the local volume of each part into a local volume that matches the template of the standard brain. Then, information such as the three-dimensional surface layer information and the local volume of the spatial coordinate system of the standard brain converted by the standard brain conversion unit 223 is stored in the image storage unit 221. Further, other information such as the thickness of the cerebral cortex, the curvature of each part, and the surface area is also stored in the image storage unit 221. Information such as the three-dimensional surface layer information and local volume of the standard brain stored in the image storage unit 221 is used for analysis processing of personal characteristics.
  • a characteristic value detection unit 224 that performs characteristic value detection processing reads storage information such as three-dimensional surface layer information of a standard brain spatial coordinate system stored in the image storage unit 221, and displays various characteristics indicated by the read information. To detect. Specifically, the thickness, the curvature, the surface area, the volume, and the like of each part of the cerebral cortex are detected by the characteristic value detection unit 224. As for the volume, for example, the volume of a region such as the hippocampus, amygdala, basal ganglia, etc. is detected. And the characteristic value detection part 224 acquires the average value about each detected characteristic, and calculates the difference with the average value.
  • the average value of each characteristic is acquired from the database 310 of the server 300 by the characteristic value detection unit 224, for example, and stored in a storage unit (not shown).
  • the average value is used as an example, and may be a standard value (standard value) for comparison, for example.
  • the average value (standard value) used at this time may be different depending on conditions such as the age, sex, and birthplace of the person to be detected.
  • the terminal device 200 also includes a database search unit 212 that searches for brain image data stored in the database 310 prepared in the server 300 and its additional data.
  • the database 310 provided in the server 300 has various prediction models constructed from past brain image data.
  • the brain image data of each prediction model is added with personal characteristic data such as the individual ability and qualities of the corresponding person determined in advance by a psychological test or the like.
  • personal characteristic data such as the individual ability and qualities of the corresponding person determined in advance by a psychological test or the like.
  • the database search unit 212 compares each characteristic obtained by the characteristic value detection unit 224 with the prediction model, and searches for and acquires a similar prediction model. At this time, for example, one or a plurality of prediction models similar to each part may be acquired.
  • the prediction model constructed based on the brain image data found by the database search unit 212 and the data of the characteristic value of the detection target detected by the characteristic value detection unit 224 are supplied to the personal characteristic prediction unit 225.
  • the personal characteristic prediction unit 225 predicts the personal characteristic by comparing the brain image data of the detection target person whose characteristic value is acquired by the characteristic value detection unit 224 with the prediction model supplied from the database search unit 212. Process.
  • the personal characteristic prediction unit 225 determines how similar the two patterns are, and refers to the personal characteristic data added to the brain image data supplied from the database search unit 212 according to the similarity. Determine possible personal characteristics.
  • the personal characteristic predicting unit 225 predicts the personal characteristic of the detection target person by combining the plurality of personal characteristics determined to be referable. A specific example of predicting personal characteristics will be described later.
  • the personal characteristic prediction unit 225 supplies the personal characteristic data to the output unit 214.
  • the output unit 214 creates data for displaying a list of predicted personal characteristics, and causes the display unit 215 to display display data of the created personal characteristics data.
  • the comparison result output unit 214 outputs the created personal characteristic data to the outside of the terminal device 200 under the control of the control unit 231. When outputting to the outside, for example, it may be transmitted as an attached data of an e-mail to a specified address. This display showing the list of personal characteristics corresponds to notification of the prediction result of the personal characteristics of the person to be detected.
  • the output unit 214 recognizes a portion of the brain of the detection target person whose thickness and size are relatively large from the standard based on the difference value of the characteristic value calculated by the characteristic value detection unit 224.
  • the processing in each of the processing units 211 to 215 and 221 to 225 of the terminal device 200 described above is executed under the control of the control unit 231.
  • the terminal device 200 includes an operation unit 232 that is operated by an operator such as a keyboard and a mouse. Based on an operation performed by the operation unit 232, a characteristic value detection and a personal characteristic detection process are performed from acquisition of a brain image. Etc. are executed.
  • the terminal device 200 includes a database update processing unit 213.
  • the database update processing unit 213 updates the data stored in the database 310 based on the analysis result of the brain image in other processing units in the terminal device 200 such as the characteristic value detection unit 224 and the personal characteristic prediction unit 225.
  • FIG. 3 is a flowchart showing the flow of the detection process of the brain of the person to be detected in the terminal device 200.
  • the image capturing unit 211 of the terminal device 200 captures a scan image (two-dimensional slice image) of the brain from the MRI apparatus 100 and stores the image data captured by the image storage unit 221 (step S11).
  • the terminal apparatus 200 directly captures an image from the MRI apparatus 100 is one example.
  • the terminal apparatus 200 stores a scan image of a brain created using the MRI apparatus 100 or the like, such as a memory card or an optical disk. It may be taken from a medium.
  • the three-dimensional information conversion unit 222 converts the captured brain scan image set into three-dimensional information (step S12).
  • the three-dimensional information conversion unit 222 classifies each voxel in the three-dimensional brain image for each tissue type such as gray matter and white matter (step S13). After the classification for each tissue type, the terminal device 200 performs three processes: a process of surface information of the cerebral cortex, a process using a three-dimensional brain image, and a process of a structure under the cerebral cortex.
  • the three-dimensional information conversion unit 222 constructs a three-dimensional surface model of the cerebral cortex from the three-dimensional brain image (step S14).
  • the standard brain conversion unit 223 converts the three-dimensional surface information converted by the three-dimensional surface information conversion unit 222 into three-dimensional surface information of the standard brain spatial coordinate system (step S15).
  • the characteristic value detection unit 224 detects the characteristic value of each part of the brain of the person to be detected and calculates the difference from the average (standard) of the detected characteristic values. (Step S16).
  • the characteristic value of each part is, for example, the thickness, volume, surface area, curvature, etc. for each part of the surface layer.
  • the characteristic value detection unit 224 extracts the characteristic value obtained in this way as an individual feature amount (step S17).
  • the three-dimensional information conversion unit 222 creates a three-dimensional brain image from which gray matter has been extracted (step S21). Then, the standard brain conversion unit 223 acquires the three-dimensional brain image from which the gray matter has been extracted, and converts it into the three-dimensional information of the standard brain spatial coordinate system (step S22). Further, the standard brain conversion unit 223 calculates the volume and atrophy degree of each part for each voxel in the spatial coordinate system of the standard brain (step S23), and extracts the feature amount based on the calculated volume and atrophy degree of each part ( Step S24).
  • the three-dimensional information conversion unit 222 quantifies the structure under the cerebral cortex from the three-dimensional brain image (step S31). Then, the three-dimensional information conversion unit 222 extracts the volume of each part as a feature amount from the quantified structure under the cerebral cortex (step S32).
  • the personal characteristic prediction unit 225 When the feature amount extraction processing is completed, the personal characteristic prediction unit 225 performs personal characteristic prediction processing, and the display unit 215 displays the prediction result.
  • the flowchart of FIG. 4 shows the flow of these prediction processes and display processes.
  • the personal characteristic prediction unit 225 acquires the feature amount obtained in steps S17, S25, and S32 in the flowchart of FIG. 3 (step S41). Then, the personal characteristic prediction unit 225 compares the acquired feature amount with the feature amount of the brain image of the prediction model found by the database search unit 212 (step S42). Based on this comparison, the personal characteristic prediction unit 225 predicts the personal characteristic of the person to be detected (step S43).
  • the display unit 215 displays a list of predicted personal characteristics (step S44).
  • the personal characteristic prediction unit 225 compares the size of each part of the brain obtained in steps S17, S25, and S32 of the flowchart of FIG. 3 with the data of the other person in the database 310 (step S51). Then, the output unit 214 creates a brain image in which a part where the size of each part is large or small from the average is known based on the comparison result in the personal characteristic prediction part 225 (step S52). The display unit 215 displays the created brain image (step S53). As the display at this time, for example, a portion larger than the average is displayed in red, and a portion smaller than the average is displayed in blue.
  • the display of the personal characteristics in step S44 and the display of the brain image in step S53 may be performed simultaneously. Alternatively, any one of the displays may be selectively performed based on a user operation. These display examples will be described later.
  • the prediction result of the personal characteristics of the person to be detected may be printed out by a printer (not shown) or output to the outside of the terminal device 200.
  • the control unit 231 of the terminal device 200 has obtained data obtained by performing a psychological test on the detection target person. It is determined whether or not (step S61).
  • the psychological test here is prepared in advance for diagnosing personal characteristics such as personality. There are various known psychological tests for accurately diagnosing personal characteristics such as personality.
  • step S62 When there is data on which a psychological test is performed, the database update processing unit 213 adds the result obtained by the psychological test to the brain image data having the characteristic amount obtained by the processing so far, Update processing for adding the data to the database 310 is performed (step S62). When the result of the psychological test cannot be obtained, the update process of the database 310 in step S62 is not performed.
  • Example of analysis result display] 5 to 8 are diagrams showing display examples of brain image analysis results.
  • the analysis result display screen is composed of three screens of “profile”, “brain ranking”, and “view the brain”. Each screen can be switched by operating the operation unit 232, for example.
  • FIG. 5 shows a display example of “profile”.
  • “prediction result of basic information”, “appraisal result about brain health state”, and “predicted from brain” as “profile predicted from brain image” “Sympathy”, “Cognitive ability predicted from the brain”, and “Comprehensive character predicted from the brain” are displayed.
  • the “basic information prediction result” displays brain age and brain gender. As for brain sex, maleity or femaleity is displayed as a percentage. “Appraisal result on brain health” displays the degree of brain atrophy and the presence or absence of white matter lesions. The degree of brain atrophy is displayed as a percentage value, and the age at which the degree of atrophy is displayed is displayed.
  • the “sympathetic power predicted from the brain” displays the empathic power predicted from the brain characteristics as a bar graph. In Figure 5, as sympathy, “analyze and think about things from the perspective of others”, “feeling human pain like my own pain”, and “inspiring stories etc. with strong imagination” And “excellent sympathizing with human feelings” are displayed as percentage values. These sympathetic powers are selected and displayed, for example, among the predicted sympathetic powers having a high value (or low value).
  • the “cognitive ability predicted from the brain” displays “performance IQ”, “linguistic IQ”, “working memory capacity”, and “attention in daily life” as bar graphs.
  • the bar graph shows the respective percentage values.
  • “Comprehensive character predicted from the brain” is a regular polygonal (pentagonal) radar chart of “curiosity”, “seriousness”, “social”, “cooperation” and “emotional instability”. Is displayed. This radar chart also shows percentage values.
  • FIG. 6 shows a display example of “brain ranking”.
  • “brain ranking” a region where the brain capacity calculated from the image is larger than the average and a region where the brain capacity is smaller than the average are displayed in a ranking format.
  • “your brain capacity top 3” and “your brain capacity worst 3” are displayed.
  • “Top 3 capacity of your brain” shown in FIG. 6 an example is shown in which 1st place: hippocampus, 2nd place: upper parietal lobule, 3rd place: peripheral part of bird's-throw groove.
  • “Capacity worst 3 of your brain” shows an example in which 1st place: front wedge, 2nd place: upper temporal groove, 3rd place: orbitofrontal cortex.
  • Each item of the top 3 and worst 3 indicates how much each capacity is in 100 people. Also, the role of each part is displayed. Further, by selecting the “More” column, the lower part than the third place is displayed.
  • FIG. 7 and 8 show display examples of “view the brain”.
  • a brain image is displayed.
  • FIG. 7 shows an example of two-dimensional display.
  • the cross-sectional position of the brain during two-dimensional display can be changed to any position by operating the up / down / left / right / front / back buttons on the screen. Further, it is possible to switch between a T1-weighted image, a T2-weighted image, and a FLAIR image.
  • a portion having a large capacity or a small portion indicated by “brain ranking” can be displayed by being color-coded from other portions.
  • FIG. 8 shows an example in which a three-dimensional model is displayed.
  • the display can be switched to a display in which the cerebral cortex is expanded.
  • a portion having a large capacity or a small portion indicated by “brain ranking” can be displayed by being color-coded from other portions.
  • FIG. 9 is a graph in which the prediction model is comprehensively constructed from the volume of each part of the brain, the age of the subject is predicted based on the prediction model, and the predicted age and the actual age of the subject are graphed.
  • the vertical axis is the age predicted from the brain, and the horizontal axis is the actual age.
  • the example of FIG. 9 shows the result of calculating the volume of each part based on the data of brain images of about 200 people and predicting the age using the volume as a feature amount. As can be seen from FIG.
  • the predicted age has an average error of 4.2 years old with the actual age, and it can be seen that the age can be predicted with very high accuracy.
  • FIG. 9 shows the age as an example in which the result is easy to understand, even when personal characteristics such as cognitive ability and personality are predicted from the brain image, prediction with high accuracy can be similarly performed.
  • FIG. 10 shows three parts highly correlated with the number of friends. That is, it is found that the three parts, the middle temporal gyrus, the upper temporal sulcus, and the olfactory field, which are surrounded by broken lines in the brain image of FIG. 10, are three parts highly correlated with the number of friends. It was. And FIG. 11 comprehensively judges the characteristics such as the volume of the three parts, and predicts the number of friends (vertical axis) and the number of friends actually registered in the social network service (horizontal axis). The correlation is shown. In the prediction, as shown in FIG. 11, the prediction result within the range of about 100 to 700 people and the actual number of friends are about 114 average prediction errors, and high-precision prediction can be performed.
  • FIG. 12 shows the number of friends (vertical axis) and the actual number of friends (horizontal axis) predicted from these parts by individually determining the medial temporal gyrus, upper temporal sulcus, and olfactory field. The correlation is shown.
  • the average prediction error is about 148 people.
  • the average prediction error is about 130 people.
  • the average prediction error is about 129 people.
  • the number of friends is used as an example in which the prediction result is easy to understand.
  • the personal characteristics such as empathy and cognitive ability shown in the analysis result shown in FIG. 5 are predicted.
  • the accuracy of the analysis result is improved by comprehensively determining the characteristics of a plurality of parts of the brain.
  • a machine learning method may be used to create a prediction model that combines the characteristic values of a plurality of parts.
  • a technique called support vector regression is known.
  • Individual characteristics that can be seen from characteristics such as the volume of each part of the brain and the thickness of the cerebral cortex include, for example, the thickness of each part of the cerebral cortex in the recent research, , Sociality, illness, personality, values, qualities, etc. are known.
  • Sociality means empathy, loneliness, the number of friends, optimism or pessimism, the danger of crime, and the likelihood of a traffic accident.
  • the disease includes the possibility of becoming a disease directly or indirectly related to the brain, such as Alzheimer's disease, depression, and schizophrenia.
  • the personality may be a bright personality, a dark personality, or an anxious personality. Values include family feeling, fairness, politically from the right or from the left.
  • Qualities include aptitude for profession and talents in specific fields.
  • the system of this example it is possible to detect various personal characteristics such as personality and sociality of the subject by using brain images scanned by MRI or the like. For this reason, for example, when performing a screening called a brain dock that examines a disease that can be directly judged from a brain image, the subject person is detected by using the obtained brain image to detect personal characteristics. It is possible to notify details such as the personality and qualities of the previously impossible. In particular, it is impossible to examine the characteristics of individuals by using the many brain images prepared in the database and the characteristics of each part of the brain obtained from the brain images. It becomes possible to detect the very detailed characteristics.
  • the brain image showing the parts that seem to be superior to the average is displayed. As a result, more effective personal characteristics can be presented to the target person.
  • the target person who has received the presentation of the personal characteristics knows his / her ability to train by training etc. from the presented contents, and receives training effectively. Will be able to. For example, when it is shown that the memory ability is inferior as an individual characteristic, it is possible to cope with the training by improving the memory ability.
  • the personal characteristics detection process is performed again with the system of this example, and it is determined whether there is a change in the characteristics of each part of the brain related to memory ability. Since the presence or absence of the effect is also known, the training can be performed more effectively.
  • Various types of training to train brain skills such as memory skills have been proposed, but it was difficult to objectively judge the effects of training by either method, but the system of this example should be applied. This makes it easy to see the effect.
  • the server 300 holds the database 310, and the terminal device 200 uses the images acquired by the MRI apparatus 100 and the data acquired from the database 310 to perform the personal characteristic detection process. I did it.
  • the terminal device 200 connected to the MRI apparatus 100 may include a database instead of the server 300, and the personal characteristics may be analyzed only by the arithmetic processing inside the terminal device 200. .
  • the terminal device 200 may perform only the process of receiving a brain image from the MRI apparatus 100 and the process of displaying the analysis result, and the server side including the database may perform the calculation process for the analysis.
  • the personal characteristics described in the above-described embodiment example is an example, and in the system of this example, if there is a direct or indirect relationship with the brain, it may be other than the one described in the embodiment.
  • Various personal characteristics can be predicted.
  • the personal characteristics are detected from the image scanned by the MRI apparatus 100.
  • the measurement results obtained by a measuring instrument other than the MRI apparatus 100 are used. You may make it refer.
  • the genetic information may be analyzed from the blood of the subject and the personal characteristics may be estimated comprehensively including the personal characteristics obtained from the genetic information.
  • a device for obtaining a brain image other devices such as a device that performs CT (computer tomography) may be used.
  • a program (software) that performs the analysis processing of this example may be mounted on a general-purpose personal computer device, and may function as a terminal device that performs brain analysis by executing the program.
  • the program is recorded on a recording medium, for example.
  • a terminal device (computer device) is loaded with a recording medium on which the program is recorded, and the terminal device is caused to execute the program recorded on the recording medium.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Neurology (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Neurosurgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

 個人特性予測システムは、検知対象者の脳画像から、大脳皮質の3次元情報を得る。そして、個人特性予測システムは、大脳皮質の3次元情報から、大脳の各部位の特性値を検出し、予め用意された記憶情報と比較して、検出した特性値と類似した特性値を持つ記憶情報を探し出す。さらに、個人特性予測システムは、その探し出した特性値を持つ脳の能力又は資質に関する情報から、対象者の能力又は資質を予測する。

Description

個人特性予測システム、個人特性予測方法及び記録媒体
 本発明は、脳を撮影した画像を利用した個人特性予測システム及び個人特性予測方法、並びにプログラムを記録した記録媒体に関する。
 近年、MRI(magnetic resonance imaging:核磁気共鳴画像)やCT(Computed Tomography:コンピュータ断層撮影)により、脳の断面画像を取得して、その脳の断面画像から脳の状態を判断する脳ドックが普及している。この脳ドックにより、脳内の血管の状態などが判り、脳梗塞や脳出血などの脳の病気の兆候を見つけることができる。
 また、MRIなどで得られた脳の断面画像では、脳内の血管の状態だけでなく、脳の各部の状態についても判るため、血管の状態とは関係ない特定の病気についても、兆候が見つけられることが知られている。例えば、脳の前頭葉などが萎縮している患者は、認知症を発症する可能性が高いことが知られている。
 特開2005-230456号公報には、撮影したMRI画像から脳断面の灰白質画像を作成して、その灰白質画像を、健常者の灰白質画像と比較して、脳の特定部位の萎縮を判定して、認知症などの兆候を診断する方法についての記載がある。
 上述したように、従来の脳画像から診断できる病変や兆候としては、脳梗塞などの血管に関係した病気や、脳の特定部位の萎縮などの認知症の兆候が主なものであり、より高度な脳についての解析や診断を、脳の断面画像から行うことは従来困難であった。
 本発明の目的は、脳を撮影した画像から、従来不可能であった詳細な個人特性を予測することができる予測システム、予測方法及びプログラムを提供することにある。
 本発明の個人特性予測システムは、
 個人特性を検知する対象者の脳をスキャンした脳画像を取得する脳画像取得部と、
 前記脳画像取得部が取得した脳画像から、大脳の3次元情報を得る3次元情報変換部と、
 前記3次元情報変換部で得た大脳の3次元情報に基づいて、大脳の各部位の特性値を複数種類検出する特性値検出部と、
 大脳の各部位の特性値と能力又は資質との相関に関する情報とを記憶する記憶部と、
 前記特性値検出部が検出した前記複数種類の特性値と、前記記憶部が記憶した特性値とを比較して、前記特性値検出部が検出した前記複数種類の特性値と類似した特性値を持つ記憶情報を探し出し、その探し出した特性値を持つ脳の能力又は資質に関する情報から、前記対象者の能力又は資質を予測する個人特性予測部と、
 前記個人特性予測部が予測した前記対象者の能力又は資質を示す情報を出力する出力部とを備え、
 前記記憶部が記憶する大脳の各部位の特性値と能力又は資質との相関に関する情報は、複数の部位の特性値を組み合わせた予測モデルの情報であり、
 前記個人特性予測部は、前記特性値検出部が検出した大脳の複数の部位の特性値を、前記記憶部が記憶した予測モデルと比較して、前記対象者の能力又は資質を予測するものであり、
 前記特性値検出部が検出する複数種類の特性値の一つは、前記3次元情報変換部が脳画像から得た大脳皮質の3次元情報を、標準脳の空間座標系に変換し、変換された標準脳の空間座標系の大脳皮質の3次元情報から検出した大脳皮質の各部位の特性値であり、
 前記特性値検出部が検出する複数種類の特性値の別の一つは、大脳の3次元情報に基づいて、大脳皮質下の構造を定量化した特性値である。
 本発明の個人特性予測方法は、
 個人特性を検知する対象者の脳をスキャンした脳画像を脳画像取得部が取得する脳画像取得処理と、
 前記脳画像取得処理で取得した脳画像から、3次元情報変換部が大脳の3次元情報を得る3次元情報変換処理と、
 前記3次元情報変換処理で得られた大脳の3次元情報に基づいて、特性値検出部が大脳の各部位の特性値を複数種類検出する特性値検出処理と、
 大脳の各部位の特性の標準値と、前記各部位の特性値と能力又は資質との相関に関する情報とを記憶部が記憶する記憶処理と、
 前記特性値検出処理で検出した前記複数種類の特性値と、前記記憶処理で記憶した特性値とを比較して、前記特性値検出処理で検出した前記複数種類の特性値と類似した特性値を持つ記憶情報を探し出し、その探し出した特性値を持つ脳の能力又は資質に関する情報から、個人特性予測部が前記対象者の能力又は資質を予測する個人特性予測処理と、
 前記個人特性予測処理で予測した前記対象者の能力又は資質を示す情報を出力部が出力する出力処理と、を含み、
 前記記憶処理で前記記憶部が記憶する大脳の各部位の特性値と能力又は資質との相関に関する情報は、複数の部位の特性値を組み合わせた予測モデルの情報であり、
 前記個人特性予測処理で前記個人特性予測部は、前記特性値検出部が検出した大脳の複数の部位の特性値を、前記記憶部が記憶した予測モデルと比較して、前記対象者の能力又は資質を予測する個人特性予測方法であり、
 前記特性値検出処理で検出する複数種類の特性値の一つは、前記3次元情報変換処理で脳画像から得た大脳皮質の3次元情報を、標準脳の空間座標系に変換し、変換された標準脳の空間座標系の大脳皮質の3次元情報から検出した大脳皮質の各部位の特性値であり、
 前記特性値検出処理で検出する複数種類の特性値の別の一つは、大脳の3次元情報に基づいて、大脳皮質下の構造を定量化した特性値である。
 本発明の記録媒体は、
 個人特性を検知する対象者の脳をスキャンした脳画像を取得する脳画像取得手順と、
 前記脳画像取得手順で取得した脳画像から、大脳の3次元情報を得る3次元情報変換手順と、
 前記3次元情報変換手順で得られた大脳の3次元情報に基づいて、大脳の各部位の特性値を複数種類検出する特性値検出手順と、
 大脳の各部位の特性の平均値と、前記各部位の特性値と能力又は資質との相関に関する情報とを記憶する記憶手順と、
 前記特性値検出手順で検出した前記複数種類の特性値と、前記記憶手順で記憶した特性値とを比較して、前記特性値検出手順で検出した前記複数種類の特性値と類似した特性値を持つ記憶情報を探し出し、その探し出した特性値を持つ脳の能力又は資質に関する情報から、前記対象者の能力又は資質を予測する個人特性予測手順と、
 前記個人特性予測手順で予測した前記対象者の能力又は資質を示す情報を出力する出力手順とを、
 コンピュータに実装して実行させるプログラムを記録した記録媒体であり、
 前記記憶手順で記憶する大脳の各部位の特性値と能力又は資質との相関に関する情報は、複数の部位の特性値を組み合わせた予測モデルの情報であり、
 前記個人特性予測手順では、前記特性値検出手順で検出した大脳の複数の部位の特性値を、前記記憶手順で記憶した予測モデルと比較して、前記対象者の能力又は資質を予測する処理を行い、
 前記特性値検出手順で検出する複数種類の特性値の一つは、前記3次元情報変換手順で脳画像から得た大脳皮質の3次元情報を、標準脳の空間座標系に変換し、変換された標準脳の空間座標系の大脳皮質の3次元情報から検出した大脳皮質の各部位の特性値であり、
 前記特性値検出手順で検出する複数種類の特性値のさらに別の一つは、大脳の3次元情報に基づいて、大脳皮質下の構造を定量化した特性値である。
 本発明によると、脳画像から取得した大脳の各部位の特性値と、予め用意された各部位の特性値と能力又は資質と相関に関する情報とに基づいて、その対象者の能力又は資質を予測することができる。例えば、大脳のある特定の部位の特性値が平均値より大きいとき、記憶した情報からそのような特性値を持つ脳が、記憶力などの能力や、社会性などの資質が高いことが示されるとき、該当する能力や資質を持つ可能性が高いと予測して提示することができる。
本発明の一実施の形態によるシステム例を示す構成図である。 本発明の一実施の形態によるシステムの構成例を示すブロック図である。 本発明の一実施の形態による処理手順の例(その1)を示すフローチャートである。 本発明の一実施の形態による処理手順の例(その2)を示すフローチャートである。 本発明の一実施の形態による脳画像解析結果表示例(その1)を示す図である。 本発明の一実施の形態による脳画像解析結果表示例(その2)を示す図である。 本発明の一実施の形態による脳画像解析結果表示例(その3)を示す図である。 本発明の一実施の形態による脳画像解析結果表示例(その4)を示す図である。 本発明の一実施の形態による脳の各部位の体積情報に基づく年齢予測例を示す図である。 脳の3つの領域を示す図である。 本発明の一実施の形態による3つの領域を使って予測した例を示す図である。 本発明の一実施の形態による3つの領域を個別に使って予測した例を示す図である。
[1.システム構成例]
 以下、本発明の一実施の形態の例(以下、本例と称する。)を、図面を参照して説明する。
 図1は、本例のシステム全体構成の例を示す図である。
 本例のシステムは、個人特性を検知する検知対象者の脳のスキャン画像を得るMRI(magnetic resonance imaging:核磁気共鳴画像)装置100を設置し、そのMRI装置100で得られた脳スキャン画像(2次元スライス画像)を、端末装置200に供給する。脳スキャン画像は、例えばT1強調画像を使用する。端末装置200は、MRI装置100から供給された脳画像を表示すると共に、脳画像の解析を行う。なお、端末装置200は、MRI装置100と直接接続してもよいが、例えばMRI装置100で撮影した脳スキャン画像を何らかのネットワークを経由して、離れた場所の端末装置200に伝送してもよい。あるいは、図1に示すように、メモリカード201や光ディスク202などの記憶媒体を端末装置200に装着して、端末装置200が、そのメモリカード201や光ディスク202などに記憶された脳スキャン画像を取得してもよい。
 端末装置200は、MRI装置100から取得した脳画像の解析を行う際に、脳画像のデータベース310を備えたサーバ300と通信を行って、サーバ300から解析に必要なデータを取得する。サーバ300は、脳画像についての多数のデータを保持するデータベース310を備え、端末装置200がそのサーバ300内のデータベース310から必要なデータを取得する。そして、端末装置200で解析を行った結果に基づいて、脳画像を撮影した対象者の個人特性を検知し、その検知結果を端末装置200が表示する。サーバ300内のデータベース310が蓄積するそれぞれの脳画像には、その脳画像を撮影した被験者の個人特性についてのデータが付加されている。被験者の個人特性の具体的な例につては後述するが、性質や性格などについて出来るだけ詳細なデータがあることが好ましい。
 なお、図1に示した構成は一例であり、例えばサーバ300のデータベース310に代えて、端末装置200が不図示のデータベース(記憶装置)を備える構成にしてもよい。あるいは、脳画像を端末装置200からサーバ300に送って、サーバ300が解析を行い、その解析結果を端末装置200が表示するようにしてもよい。
[2.端末装置の構成例]
 図2は、端末装置200の構成例を示す。端末装置200は、例えばコンピュータ装置で構成される。端末装置200は、メモリやハードディスクドライブに記憶されたデータを記憶し、プログラムに従って演算処理を行う。そして、この演算処理結果を表示装置に出力する処理を行う。
 図2は、端末装置200内でのデータの処理機能から見た機能ブロック図である。それぞれの処理部は、相互にデータ転送可能である。
 MRI装置100から伝送された脳画像データあるいは記憶媒体から得た脳画像データは、脳画像取得処理を行う脳画像取得部に相当する画像取込部211で、端末装置200に取り込まれる。画像取込部211は、MRI装置100から取得した脳画像データを画像蓄積部221に送る。画像蓄積部221は、供給された脳画像データを記憶する記憶処理を行う。なお、MRI装置100から伝送される脳画像データは、例えば脳の断面をスキャンした画像であり、個々の検知対象者ごとに、断面の位置をずらした多数の脳画像データで構成される画像である。
 画像蓄積部221が記憶した脳画像データは、3次元情報変換処理を行う3次元情報変換部222で、脳の3次元情報に変換される。例えば3次元情報変換部222は、多数の断面位置の脳画像データを大脳の表面に広がる大脳皮質である表層の3次元表層情報に変換する。3次元情報変換部222が変換した3次元表層情報は、それぞれの位置の表層(大脳皮質)の厚さ、各部位の曲率、表面積、体積などの情報を持っている。また、3次元情報変換部222は、脳の3次元情報から、脳内のそれぞれの部位の局所的体積などの情報を取得する。
 3次元情報変換部222で得られた3次元表層情報は、標準脳変換部223で標準脳のテンプレートに合わせた空間座標系の3次元表層情報に変換される。さらに、標準脳変換部223では、それぞれの部位の局所的体積などの情報が、標準脳のテンプレートに合わせた局所的体積に変換される。そして、標準脳変換部223で変換された標準脳の空間座標系の3次元表層情報や局所的体積などの情報が画像蓄積部221に記憶される。また、大脳皮質の厚さ、各部位の曲率、表面積などのその他の情報についても、画像蓄積部221に記憶される。これらの画像蓄積部221に記憶された標準脳の3次元表層情報や局所的体積などの情報は、個人特性の解析処理に利用される。
 特性値検出処理を行う特性値検出部224は、画像蓄積部221に記憶された標準脳の空間座標系の3次元表層情報などの記憶情報を読み出し、その読み出した情報で示された各種特性を検出する。具体的には、大脳皮質の各部位ごとの厚さ、各部位の曲率、表面積、容積などが、特性値検出部224によって検出される。容積については、例えば、海馬、扁桃体、大脳基底核などの部位の容積が検出される。
 そして、特性値検出部224は、それぞれの検出した特性についての平均値を取得して、その平均値との差分を計算する。なお、各特性の平均値は、例えば特性値検出部224によってサーバ300のデータベース310から取得され、不図示の記憶部に記憶されている。また、平均値を使用するのは1つの例であり、例えば比較の際に標準となる値(標準値)であればよい。また、このときに使用する平均値(標準値)は、検知対象者の年齢、性別、出身地などの条件ごとに異なるものを使用してもよい。
 また、端末装置200は、サーバ300に用意されたデータベース310が蓄積した脳画像データとその付加データを検索するデータベース検索部212を備える。サーバ300が備えるデータベース310は、過去の脳画像のデータから構築された、様々な予測モデルを持つ。それぞれの予測モデルの脳画像データには、予め心理テストなどで判別した該当者の個人の能力や資質などの個人特性データが付加されている。なお、以下の説明で個人の能力や資質と述べた場合には、個人のIQ、注意力、記憶力、社会性、病気、性格、価値観などの様々な能力や資質が含まれている。
 そして、データベース検索部212は、特性値検出部224で得られた各特性を予測モデルと比較して、類似した予測モデルを検索して取得する。このときには、例えばそれぞれの部位ごとに類似した1つ又は複数の予測モデルを取得するようにしてもよい。
 そして、データベース検索部212で探し出した脳画像データにもとづいて構築された予測モデルと、特性値検出部224が検出した検知対象者の特性値のデータとを個人特性予測部225に供給する。個人特性予測部225は、特性値検出部224が特性値を取得した検知対象者の脳画像データを、データベース検索部212から供給された予測モデルと比較することで個人特性を予測する個人特性予測処理を行う。個人特性予測部225は、両者のパターンがどの程度類似しているのかを判定し、類似度に応じて、データベース検索部212から供給された脳画像データに付加された個人特性データの内の参照可能な個人特性を決定する。さらに、個人特性予測部225は、その参照可能に決定した複数の個人特性を組み合わせて、検知対象者の個人特性を予測する。個人特性の具体的な予測例については後述する。
 そして、個人特性予測部225は、個人特性データを、出力部214に供給する。出力部214は、予測した個人特性の一覧などを表示させるデータを作成し、その作成した個人特性データの表示データを表示部215で表示させる。あるいは、比較結果出力部214は、作成した個人特性データを、制御部231の制御の下で、端末装置200の外部に出力する。外部に出力する際には、例えば指定されたアドレスに、電子メールの添付データとして送信してもよい。この個人特性の一覧を示す表示は、検知対象者の個人特性の予測結果の告知に相当するものである。
 また、出力部214は、特性値検出部224が算出した特性値の差分値に基づいて、検知対象者の脳の中で厚さや大きさが標準から比較的大きく外れている箇所が判る脳画像を作成する。例えば、大脳皮質の厚さが厚い箇所が、他の箇所と異なる色の脳画像を作成する。そして、大脳皮質の厚さや大きさが標準から比較的大きく外れている箇所が判る脳画像が、表示部215に表示される。また、このとき、脳の萎縮の度合いや、不症候性白質病変の量などを定量化した表示を行うようにしてもよい。これらの表示例については後述する。
 なお、上述した端末装置200の各処理部211~215,221~225における処理は、制御部231の制御の下で実行される。また、端末装置200は、キーボードやマウスなどの作業者が操作する操作部232を備え、その操作部232で行われた操作に基づいて、脳画像の取得から特性値検出や個人特性の検知処理などが実行される。
 また、端末装置200は、データベース更新処理部213を備える。このデータベース更新処理部213は、特性値検出部224、個人特性予測部225等の端末装置200内の他の処理部における脳画像の解析結果に基づいて、データベース310が記憶するデータを更新する。
[3.端末装置での処理例]
 図3は、端末装置200における、検知対象者の脳の検知処理の流れを示したフローチャートである。
 まず、端末装置200の画像取込部211が、MRI装置100から脳のスキャン画像(2次元スライス画像)を取り込み、画像蓄積部221が取り込んだ画像データを記憶する(ステップS11)。端末装置200がMRI装置100から画像を直接取り込むのは1つの例であり、例えば端末装置200は、MRI装置100などを使用して作成された脳のスキャン画像を、メモリカードや光ディスクなどの記憶媒体から取り込んでもよい。そして、3次元情報変換部222が、取り込んだ脳のスキャン画像のセットを3次元情報に変換する(ステップS12)。また、3次元情報変換部222は、3次元脳画像中の各ボクセルを、灰白質、白質などの組織の種類毎に分類する(ステップS13)。この組織の種類毎に分類した後、端末装置200では、大脳皮質の表層情報の処理と、3次元脳画像による処理と、大脳皮質下の構造の処理の3つの処理が行われる。
 まず、大脳皮質の表層情報の処理について説明する。
 3次元情報変換部222は、3次元脳画像から大脳皮質の3次元表層モデルを構築する(ステップS14)。そして、標準脳変換部223が、3次元表層情報変換部222で変換された3次元表層情報を、標準脳の空間座標系の3次元表層情報に変換する(ステップS15)。この標準脳の3次元表層情報に基づいて、特性値検出部224が、検知対象者の脳の各部位の特性値を検出すると共に、その検出した特性値の平均(標準)からの差を算出する(ステップS16)。各部位の特性値としては、例えば、表層の部位ごとの厚さ、体積、表面積、曲率などである。特性値検出部224は、このようして得られた特性値を個人の特徴量として抽出する(ステップS17)。
 次に、3次元脳画像による処理について説明する。
 3次元情報変換部222は、灰白質を抽出した3次元脳画像を作成する(ステップS21)。そして、標準脳変換部223が、その灰白質を抽出した3次元脳画像を取得して、標準脳の空間座標系の3次元情報に変換する(ステップS22)。さらに、標準脳変換部223が、標準脳の空間座標系でのボクセル毎の各部の体積と萎縮度を算出し(ステップS23)、その算出した各部の体積と萎縮度による特徴量を抽出する(ステップS24)。
 次に、大脳皮質下の構造の処理について説明する。
 3次元情報変換部222は、3次元脳画像から大脳皮質下の構造の定量化を行う(ステップS31)。そして、3次元情報変換部222は、その定量化した大脳皮質下の構造から各部位の容積を特徴量として抽出する(ステップS32)。
 これらの特徴量の抽出処理が終わると、個人特性予測部225が個人特性の予測処理を行い、表示部215が予測結果を表示する。図4のフローチャートは、これらの予測処理と表示処理の流れを示す。
 まず、個人特性予測部225は、図3のフローチャートのステップS17,S25,S32で得られた特徴量を取得する(ステップS41)。そして、個人特性予測部225は、取得した特徴量と、データベース検索部212で探し出した予測モデルの脳画像の特徴量とを比較する(ステップS42)。この比較に基づいて、個人特性予測部225は、検知対象者の個人特性を予測する(ステップS43)。例えば、検知対象者のある1つの部位の特徴量が、特定の予測モデルの特徴量と類似しているとき、その特定部位に関わりが大きい個人特性を、検知対象者の個人特性と予測する処理を行う。このときには、1つ1つの部位ごとに特徴量から個人特性を直接予測しても良いが、予め決めた複数の部位の特徴量の大小のバランスや組み合わせなどを総合的に判断して、個人特性を予測するのが好ましい。そして、表示部215は、予測した個人特性のリスト表示を行う(ステップS44)。
 また、個人特性予測部225は、図3のフローチャートのステップS17,S25,S32で得られた脳の各部位のサイズを、データベース310内の他者のデータと比較する(ステップS51)。そして、出力部214は、個人特性予測部225での比較結果に基づいて、各部位のサイズが平均から大きい箇所や小さい箇所が判る脳画像を作成する(ステップS52)。表示部215は、作成した脳画像を表示する(ステップS53)。このときの表示としては、例えば、平均よりも大きい部位を赤色で表示すると共に、平均よりも小さい部位を青色で表示する。
 なお、ステップS44での個人特性の表示と、ステップS53での脳画像の表示は同時に行うようにしてもよい。あるいは、ユーザ操作に基づいて選択的にいずれか一方の表示を行うようにしてもよい。これらの表示例については後述する。なお、検知対象者の個人特性の予測結果は、表示部215での表示を行う他に、図示しないプリンタでプリントアウトさせたり、端末装置200の外部に出力させてもよい。
 そして、ステップS44での個人特性の表示と、ステップS53での脳画像の表示を行った後、端末装置200の制御部231は、検知対象者に対して心理テストを実施したデータが得られたか否かを判断する(ステップS61)。ここでの心理テストは、性格などの個人特性を診断するために予め用意されたものである。性格などの個人特性を精度良く診断する心理テストについては、公知のものが各種存在する。
 心理テストを実施したデータがある場合には、データベース更新処理部213は、その心理テストで得られた結果を、ここまでの処理で得られた特徴量を持つ脳画像のデータに付加して、そのデータをデータベース310に付加する更新処理を行う(ステップS62)。
 心理テストの結果が得られない場合には、ステップS62のデータベース310の更新処理は行わない。
[4.解析結果の表示例]
 図5~図8は、脳画像の解析結果の表示例を示す図である。本例の場合、解析結果の表示画面は、「プロフィール」、「脳ランキング」、「脳を見る」の3つの画面で構成される。それぞれの画面は、例えば操作部232の操作で切り替えることができる。
 図5は、「プロフィール」の表示例を示す。
 図5に示す「プロフィール」の表示例では、「脳画像から予測されるプロフィール」として、「基礎情報の予測結果」と、「脳の健康状態についての鑑定結果」と、「脳から予測される共感力」と、「脳から予測される認知能力」と、「脳から予測される総合的な性格」を表示する。
 「基礎情報の予測結果」は、脳年齢と脳性別を表示する。脳性別は、男性度又は女性度をパーセントで表示する。
 「脳の健康状態についての鑑定結果」は、脳の萎縮度と、白質病変の有無を表示する。脳の萎縮度は、パーセント値で表示し、その萎縮度がどの年齢の平均であるかを表示する。
 「脳から予測される共感力」は、脳特性から予測される共感力を棒グラフで表示する。図5では共感力として、「他者の視点から物事を分析し考える」点と、「人の痛みを自分の痛みのように感じてしまう」点と、「強い想像力で物語などにのめり込む」点と、「人の気持ちに共感しやすい」点とを、それぞれパーセント値で表示した例を示す。これらの共感力は、例えば予測した共感力の内で、値が高い(又は低い)ものを選択して表示する。
 「脳から予測される認知能力」は、「パフォーマンスIQ」と「言語的IQ」と「作業記憶容量」と「日常での注意力」とを、それぞれ棒グラフで表示する。棒グラフは、それぞれのパーセント値を示す。
 「脳から予測される総合的な性格」は、「好奇心」と「まじめ度」と「社交的」と「協調性」と「情緒不安定性」とを、正多角形状(五角形)のレーダーチャートで表示する。このレーダーチャートもパーセント値を示す。
 図6は、「脳ランキング」の表示例を示す。
 「脳ランキング」では、画像から算出した脳の容量が、平均よりも大きい部位と、平均から小さい部位を、ランキング形式で表示する。
 図6の例では、「あなたの脳の容量トップ3」と、「あなたの脳の容量ワースト3」とを表示する。
 図6に示した「あなたの脳の容量トップ3」では、1位:海馬、2位:上頭頂小葉、3位:鳥距溝周辺部と表示した例を示す。また、「あなたの脳の容量ワースト3」では、1位:楔前部、2位:上側頭溝、3位:目窩前頭皮質と表示した例を示す。
トップ3とワースト3の各項目では、それぞれの容量が、100人中何位であるかを示す。また、それぞれの部位がどのような役割を持つのかを表示する。さらに、「もっと見る」の欄を選択することで、3位よりも下位の部位が表示される。
 図7及び図8は、「脳を見る」の表示例を示す。この「脳を見る」の項目では、脳画像を表示する。図7は2次元表示を行った例を示す。2次元表示時の脳の断面位置は、画面上の上下・左右・前後のボタンの操作で、任意の位置に変更することができる。また、T1強調画像とT2強調画像とFLAIR画像の切り替えができる。この図7の表示では、「脳ランキング」で示した容量が大きい部位又は小さい部位を、他の部位と色分けして表示することができる。
 図8は、3次元モデルの表示を行った例を示す。この3次元モデル表示時には、例えば大脳皮質を膨らませた表示に切り替えることもできる。また、3次元モデル表示時についても、「脳ランキング」で示した容量が大きい部位又は小さい部位を、他の部位と色分けして表示することができる。
[5.脳の各部位の体積から予測した例]
 次に、端末装置200の個人特性予測部225での個人特性の予測が、脳画像から検出した各部の特性値や容積から正しく行える点について説明する。
 図9は、脳の各部の容積から総合的に予測モデルを構築し、それに基づいて対象者の年齢を予測し、その予測した年齢と、対象者の実年齢とをグラフ化したものである。縦軸が脳から予測される年齢であり、横軸が実際の年齢である。
 この図9の例は、約200人の脳画像のデータを元に、各部位の体積を計算して、その体積を特徴量として年齢の予測を行った結果である。図9から判るように、予測した年齢は、実年齢との平均誤差が4.2才であり、非常に精度良く年齢が予測できていることが判る。
 この図9は結果が分かりやすい例として年齢を示したが、脳画像から認知能力や性格などの個人特性を予測した場合にも、同様に精度の高い予測ができる。
[6.相関が高い3つの部位を使用して予測した例]
 次に、脳画像から認知能力や性格などの個人特性を予測する際に、その予測精度を高めるために、複数の部位の特性を利用する点の具体例を、図10~図12を参照して説明する。
 ここでは、脳画像検知対象者について、個人特性から予測される友達の数と、実際にソーシャルネットワークサービスを利用して登録している友達の数との相関を説明する。
 図10は、友達の数と相関が高い3つの部位を示す。すなわち、図10の脳画像に破線で囲って示す部位である、中側頭回と、上側頭溝と、嗅内野との3つが、友達の数と相関が高い3つの部位であることが判った。
 そして、図11は、その3つの部位の容積などの特性を総合的に判断して、予測した友達の人数(縦軸)と、実際にソーシャルネットワークサービスで登録された友達の人数(横軸)との相関を示す。予測では、図11に示すように、100人から700人程度の範囲内で予測した結果と、実際の友達の人数とでは、平均予測誤差が約114人となり、精度の高い予測ができる。
 図12は、中側頭回と、上側頭溝と、嗅内野とを個別に判断して、これらの部位から予測される友達の人数(縦軸)と、実際の友達の人数(横軸)との相関を示す。
 図12の左側に示すように、(左)中側頭回の特性だけを使った予測では、平均予測誤差が約148人になる。
 図12の中央に示すように、(右)上側頭溝の特性だけを使った予測では、平均予測誤差が約130人になる。
 図12の左側に示すように、(右)嗅内野の特性だけを使った予測では、平均予測誤差が約129人になる。
 この図12と図11を比較すると判るように、3つの部位の特性を総合的に判断して友達の数を予測した場合には、実際にソーシャルネットワークサービスで登録された友達の人数との差が一番少なくなり、非常に良好な予測ができていることが判る。
 図10~図12に示した例では、予測結果が判りやすい例として、友達の人数を使用したが、図5に示した解析結果で示した、共感力や認知能力などの個人特性を予測する場合にも、同様に脳の複数の部位の特性を総合的に判断することで、解析結果の精度が向上する。
 なお、脳の複数の部位の特性を総合的に判断する具体的な処理としては、例えば機械学習の手法を用いて、複数の部位の特性値を組み合わせた予測モデルを作ることが考えられる。この機械学習の手法の1つの手法としては、例えばサポートベクター回帰と称される手法が知られている。
 脳の各部位の容積や大脳皮質の厚さなどの特性から判る個人特性としては、例えば、近年の研究で大脳皮質の各部位の厚さが、その脳を持つ個人のIQ、注意力、記憶力、社会性、病気、性格、価値観、資質などと関連があることが判っている。
 ここでの社会性とは、共感力、孤独感、友達の数、楽観的か悲観的か、犯罪の危険性、交通事故を起こしやすいか、などである。
 病気としては、アルツハイマー病、うつ病、統合失調症などの脳と直接又は間接的に関係した病気になる可能性の有無などである。
 性格としては、明るい性格か、暗い性格か、心配性の性格かなどである。
 価値観としては、家族思いか、公平か、政治的に右よりか左よりかなどである。
 資質としては、職業の適性、特定分野の才能などである。
 これらの個人特性は一例であり、その他の個人特性を推測するようにしてもよい。
 以上説明したように本例のシステムによると、MRIなどでスキャンした脳画像を使用して、対象者の性格や社会性などの様々な個人特性を検知することができる。このため、例えば脳画像から直接判断が可能な病気などを調べる脳ドックなどと称される検診を行う際に、得られた脳画像を使用して個人特性の検知処理を行うことで、対象者の性格や資質などの従来は不可能であった詳細を通知することが可能になる。特に、データベースに用意された多数の脳画像とその脳画像から得た脳の各部の特性を利用して、個人の特性を推測するようにしたことで、従来の脳画像による検診からは不可能であった非常に詳細な特性を検知することができるようになる。
 また、個人特性を対象者に告知する際には、平均よりも優れていると思われる箇所が判る脳画像を表示することで、個人特性を対象者に提示する際の根拠が脳画像で明確に示されることになり、対象者へのより効果的な個人特性の提示ができるようになる。
 また、本例のシステムを利用して個人特性を検知できることで、その個人特性の提示を受けた対象者は、提示された内容から自身がトレーニングなどで鍛える能力が判り、トレーニングを効果的に受けることができるようになる。例えば、個人特性として記憶力が劣ることが示された場合、記憶力を向上させるトレーニングを行うことで、対処が可能になる。
 また、一定期間トレーニングを行った後、再度、本例のシステムで個人特性の検知処理を行って、記憶力に関係した脳の各部の特性に変化があるか否かを判定することで、トレーニングの効果の有無も判るため、より効果的にトレーニングを行うことができる。記憶力などの脳の能力を鍛えるトレーニングは、従来から種々のものが提案されているが、いずれの方法でも客観的にトレーニングの効果を判断することは難しかったが、本例のシステムを適用することで簡単に効果が判るようになる。
[7.変形例]
 なお、上述した実施の形態の例では、データベース310をサーバ300が保持し、端末装置200がMRI装置100で得た画像とデータベース310から取得したデータとを使用して、個人特性の検知処理を行うようにした。これに対して、例えばMRI装置100に接続された端末装置200がサーバ300の代わりにデータベースを備えて、その端末装置200の内部での演算処理だけで、個人特性を解析するようにしてもよい。
 あるいは、端末装置200で、MRI装置100から脳画像を受け取る処理と、解析結果を表示する処理だけを行い、データベースを備えたサーバ側が解析のための演算処理を行うようにしてもよい。
 また、上述した実施の形態の例で説明した個人特性は一例であり、本例のシステムでは脳に直接又は間接的に関係があれば、実施の形態の中で説明したもの以外であっても、様々な個人特性を予測することができる。
 また、上述した実施の形態の例では、MRI装置100がスキャンした画像から個人特性を検知するようにしたが、個人特性を検知する際には、MRI装置100以外の測定器での測定結果を参考にするようにしてもよい。例えば、対象者の血液などから遺伝子情報を解析して、その遺伝子情報から得られた個人の性質などを含めて、総合的に個人特性を推測するようにしてもよい。また、脳画像を得る装置として、CT(コンピュータ断層撮影)を行う装置など、その他の装置を使用してもよい。
 また、上述した実施の形態の例で説明した端末装置200の構成は、一例を示したものであり、端末装置の構成は、図2に示したものに限定される分けではない。例えば、汎用のパーソナルコンピュータ装置に、本例の解析処理などを行うプログラム(ソフトウェア)を実装させて、そのプログラムの実行で脳解析を行う端末装置として機能するようにしてもよい。この場合、プログラムは、例えば記録媒体に記録させる。そして、端末装置(コンピュータ装置)には、プログラムが記録された記録媒体を装着させ、端末装置で記録媒体に記録されたプログラムを実行させる。
 100…MRI装置、200…端末装置、211…画像取込部、212…データベース検索部、213…データベース更新処理部、214…出力部、215…表示部、221…画像蓄積部、222…3次元情報変換部、223…標準脳変換部、224…特性値検出部、225…個人特性予測部、231…制御部、232…操作部、300…サーバ、310…データベース

Claims (5)

  1.  個人特性を検知する対象者の脳をスキャンした脳画像を取得する脳画像取得部と、
     前記脳画像取得部が取得した脳画像から、大脳の3次元情報を得る3次元情報変換部と、
     前記3次元情報変換部で得た大脳の3次元情報に基づいて、大脳の各部位の特性値を複数種類検出する特性値検出部と、
     大脳の各部位の特性値と能力又は資質との相関に関する情報とを記憶する記憶部と、
     前記特性値検出部が検出した前記複数種類の特性値と、前記記憶部が記憶した特性値とを比較して、前記特性値検出部が検出した前記複数種類の特性値と類似した特性値を持つ記憶情報を探し出し、その探し出した特性値を持つ脳の能力又は資質に関する情報から、前記対象者の能力又は資質を予測する個人特性予測部と、
     前記個人特性予測部が予測した前記対象者の能力又は資質を示す情報を出力する出力部とを備え、
     前記記憶部が記憶する大脳の各部位の特性値と能力又は資質との相関に関する情報は、複数の部位の特性値を組み合わせた予測モデルの情報であり、
     前記個人特性予測部は、前記特性値検出部が検出した大脳の複数の部位の特性値を、前記記憶部が記憶した予測モデルと比較して、前記対象者の能力又は資質を予測するものであり、
     前記特性値検出部が検出する複数種類の特性値の一つは、前記3次元情報変換部が脳画像から得た大脳皮質の3次元情報を、標準脳の空間座標系に変換し、変換された標準脳の空間座標系の大脳皮質の3次元情報から検出した大脳皮質の各部位の特性値であり、
    前記特性値検出部が検出する複数種類の特性値の別の一つは、大脳の3次元情報に基づいて、大脳皮質下の構造を定量化した特性値である、
     個人特性予測システム。
  2.  前記特性値検出部が検出する複数種類の特性値のさらに別の一つとして、脳画像から検出した微小梗塞に関する特性値を含み、
     前記個人特性予測部は、前記微小梗塞の特性値を、前記記憶部が記憶した特性値と比較する
     請求項1に記載の個人特性予測システム。
  3.  前記出力部は、前記特性値検出部が検出した特性値が、その特性値の平均値から所定量外れた部位又は構造体について、他の部位又は構造体と異なる表示を行う脳画像を生成して出力する
     請求項1に記載の個人特性予測システム。
  4.  個人特性を検知する対象者の脳をスキャンした脳画像を脳画像取得部が取得する脳画像取得処理と、
     前記脳画像取得処理で取得した脳画像から、3次元情報変換部が大脳の3次元情報を得る3次元情報変換処理と、
     前記3次元情報変換処理で得られた大脳の3次元情報に基づいて、特性値検出部が大脳の各部位の特性値を複数種類検出する特性値検出処理と、
     大脳の各部位の特性の標準値と、前記各部位の特性値と能力又は資質との相関に関する情報とを記憶部が記憶する記憶処理と、
     前記特性値検出処理で検出した前記複数種類の特性値と、前記記憶処理で記憶した特性値とを比較して、前記特性値検出処理で検出した前記複数種類の特性値と類似した特性値を持つ記憶情報を探し出し、その探し出した特性値を持つ脳の能力又は資質に関する情報から、個人特性予測部が前記対象者の能力又は資質を予測する個人特性予測処理と、
     前記個人特性予測処理で予測した前記対象者の能力又は資質を示す情報を出力部が出力する出力処理と、を含み、
     前記記憶処理で前記記憶部が記憶する大脳の各部位の特性値と能力又は資質との相関に関する情報は、複数の部位の特性値を組み合わせた予測モデルの情報であり、
     前記個人特性予測処理で前記個人特性予測部は、前記特性値検出部が検出した大脳の複数の部位の特性値を、前記記憶部が記憶した予測モデルと比較して、前記対象者の能力又は資質を予測する個人特性予測方法であり、
     前記特性値検出処理で検出する複数種類の特性値の一つは、前記3次元情報変換処理で脳画像から得た大脳皮質の3次元情報を、標準脳の空間座標系に変換し、変換された標準脳の空間座標系の大脳皮質の3次元情報から検出した大脳皮質の各部位の特性値であり、
     前記特性値検出処理で検出する複数種類の特性値の別の一つは、大脳の3次元情報に基づいて、大脳皮質下の構造を定量化した特性値である
     個人特性予測方法。
  5.  個人特性を検知する対象者の脳をスキャンした脳画像を取得する脳画像取得手順と、
     前記脳画像取得手順で取得した脳画像から、大脳の3次元情報を得る3次元情報変換手順と、
     前記3次元情報変換手順で得られた大脳の3次元情報に基づいて、大脳の各部位の特性値を複数種類検出する特性値検出手順と、
     大脳の各部位の特性の平均値と、前記各部位の特性値と能力又は資質との相関に関する情報とを記憶する記憶手順と、
     前記特性値検出手順で検出した前記複数種類の特性値と、前記記憶手順で記憶した特性値とを比較して、前記特性値検出手順で検出した前記複数種類の特性値と類似した特性値を持つ記憶情報を探し出し、その探し出した特性値を持つ脳の能力又は資質に関する情報から、前記対象者の能力又は資質を予測する個人特性予測手順と、
     前記個人特性予測手順で予測した前記対象者の能力又は資質を示す情報を出力する出力手順とを、
    コンピュータに実装して実行させるプログラムを記録した記録媒体であり、
     前記記憶手順で記憶する大脳の各部位の特性値と能力又は資質との相関に関する情報は、複数の部位の特性値を組み合わせた予測モデルの情報であり、
     前記個人特性予測手順では、前記特性値検出手順で検出した大脳の複数の部位の特性値を、前記記憶手順で記憶した予測モデルと比較して、前記対象者の能力又は資質を予測する処理を行い、
     前記特性値検出手順で検出する複数種類の特性値の一つは、前記3次元情報変換手順で脳画像から得た大脳皮質の3次元情報を、標準脳の空間座標系に変換し、変換された標準脳の空間座標系の大脳皮質の3次元情報から検出した大脳皮質の各部位の特性値であり、
     前記特性値検出手順で検出する複数種類の特性値のさらに別の一つは、大脳の3次元情報に基づいて、大脳皮質下の構造を定量化した特性値である
     記録媒体。
PCT/JP2014/078818 2013-10-31 2014-10-29 個人特性予測システム、個人特性予測方法及び記録媒体 Ceased WO2015064665A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP14857424.7A EP3064126A4 (en) 2013-10-31 2014-10-29 Individual-characteristic prediction system, individual-characteristic prediction method, and recording medium
US14/900,685 US9576358B2 (en) 2013-10-31 2014-10-29 Individual-characteristic prediction system, individual-characteristic prediction method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-226308 2013-10-31
JP2013226308A JP5641629B1 (ja) 2013-10-31 2013-10-31 個人特性予測システム、個人特性予測方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2015064665A1 true WO2015064665A1 (ja) 2015-05-07

Family

ID=52139127

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/078818 Ceased WO2015064665A1 (ja) 2013-10-31 2014-10-29 個人特性予測システム、個人特性予測方法及び記録媒体

Country Status (4)

Country Link
US (1) US9576358B2 (ja)
EP (1) EP3064126A4 (ja)
JP (1) JP5641629B1 (ja)
WO (1) WO2015064665A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075071A (ja) * 2017-10-13 2019-05-16 株式会社Splink 保険料算定システム、保険料算定方法及びプログラム
JP2020018424A (ja) * 2018-07-31 2020-02-06 株式会社Splink 認知症リスク提示システム、及び、認知症リスク提示方法
US11607309B2 (en) 2017-12-21 2023-03-21 The Chinese University Of Hong Kong Neural predictors of language-skill outcomes in cochlear implantation patients

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101620302B1 (ko) * 2014-06-03 2016-05-18 사회복지법인 삼성생명공익재단 생물학적 뇌연령 산출 장치 및 그 산출 방법
JP2016064004A (ja) * 2014-09-25 2016-04-28 大日本印刷株式会社 医用画像表示処理方法、医用画像表示処理装置およびプログラム
US20160306936A1 (en) * 2015-04-15 2016-10-20 Canon Kabushiki Kaisha Diagnosis support system, information processing method, and program
JP6155427B1 (ja) * 2016-02-25 2017-07-05 地方独立行政法人秋田県立病院機構 医用断面表示装置及び断面画像表示方法
WO2019044095A1 (ja) 2017-08-29 2019-03-07 富士フイルム株式会社 医用情報表示装置、方法及びプログラム
CN110192858A (zh) * 2018-02-27 2019-09-03 鸿海精密工业股份有限公司 核磁共振成像仪以及失智症预检系统
CN110215208A (zh) * 2018-03-01 2019-09-10 鸿海精密工业股份有限公司 头戴式核磁共振成像仪以及失智症预检系统
WO2020085327A1 (ja) * 2018-10-23 2020-04-30 旭化成株式会社 診断装置及び診断方法
JP7313165B2 (ja) * 2019-03-18 2023-07-24 株式会社Erisa アルツハイマー病生存分析装置及びアルツハイマー病生存分析プログラム
JP7334958B2 (ja) * 2019-12-09 2023-08-29 学校法人帝京大学 判定装置、判定方法及び判定プログラム
JP6679017B1 (ja) * 2019-12-20 2020-04-15 株式会社Splink 認知症リスクの提示システムおよび方法
JP7465719B2 (ja) * 2020-05-18 2024-04-11 日産自動車株式会社 車両運転能力判定装置及び車両運転能力判定方法
WO2023190880A1 (ja) * 2022-03-31 2023-10-05 株式会社エム 脳画像データ解析装置、脳画像データ解析方法および脳画像データ解析プログラム
CN114881943B (zh) * 2022-04-22 2023-05-16 深圳市铱硙医疗科技有限公司 基于人工智能的脑龄预测方法、装置、设备及存储介质
KR102771596B1 (ko) * 2022-07-14 2025-02-24 이화여자대학교 산학협력단 뇌영상으로부터 뇌성별 및 뇌연령을 예측하는 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230456A (ja) 2004-02-23 2005-09-02 Kokuritsu Seishin Shinkei Center 脳疾患の診断支援方法及び装置
WO2007023522A1 (ja) * 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry 脳疾患の診断支援方法及び装置
WO2009005013A1 (ja) * 2007-06-29 2009-01-08 Toshinori Kato 白質強調処理装置、白質強調処理方法及びプログラム
JP2011206452A (ja) * 2010-03-30 2011-10-20 Kochi Univ Of Technology 運転適性診断装置及び運転適性診断方法
US20120197105A1 (en) * 2011-01-28 2012-08-02 The Board Of Trustees Of The Leland Stanford Junior University Methods for detecting abnormalities and degenerative processes in soft tissue using magnetic resonance imaging (MRI)

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209867A (ja) * 2001-01-10 2002-07-30 Sogen Boku 脳の磁気共鳴映像から白質と灰白質および脳脊髄液を分離し体積を算出する方法
EP1952340B1 (en) * 2005-11-21 2012-10-24 Agency for Science, Technology and Research Superimposing brain atlas images and brain images with delineation of infarct and penumbra for stroke diagnosis
US8301223B2 (en) * 2006-08-09 2012-10-30 Snu R&Db Foundation Neurobiological method for measuring human intelligence and system for the same
US8170305B2 (en) * 2006-10-19 2012-05-01 Brown University Quantitative tract-of-interest metrics for white matter integrity based on diffusion tensor MRI data
US20100016706A1 (en) * 2006-12-08 2010-01-21 Molecular Image, Inc. Methods for diagnosis and monitoring of neurologic diseases using magnetic resonance methods
JP2009160281A (ja) * 2008-01-09 2009-07-23 Sony Corp 脳機能部位推定システム及び脳機能部位推定方法、頭皮形状測定支援装置及び頭皮形状測定支援方法、並びにコンピュータ・プログラム
JP5244027B2 (ja) * 2008-05-12 2013-07-24 俊徳 加藤 脳機能解析支援装置及びプログラム
US8099299B2 (en) * 2008-05-20 2012-01-17 General Electric Company System and method for mapping structural and functional deviations in an anatomical region
US9008394B2 (en) * 2008-11-26 2015-04-14 General Electric Company Methods and apparatus for determining brain cortical thickness
US11344199B2 (en) * 2010-03-15 2022-05-31 The Medical College Of Wisconsin, Inc. Systems and methods for detection and prediction of brain disorders based on neural network interaction
US20130172727A1 (en) * 2010-04-30 2013-07-04 The Johns Hopkins University Intelligent Atlas for Automatic Image Analysis of Magnetic Resonance Imaging
US10849563B2 (en) * 2012-03-19 2020-12-01 University Of Florida Research Foundation, Inc. Methods and systems for brain function analysis
US9230321B2 (en) * 2012-03-30 2016-01-05 University Of Louisville Research Foundation, Inc. Computer aided diagnostic system incorporating 3D shape analysis of the brain for identifying developmental brain disorders
GB2491027A (en) * 2012-05-16 2012-11-21 Global Advanced Vision Ltd A method and system for determining a condition of a brain
BR112015010990A2 (pt) * 2012-11-13 2017-07-11 Elminda Ltd ''análise de dados neurofisiológicos utilizando parcelamento espaço-temporal''
WO2014153466A2 (en) * 2013-03-20 2014-09-25 Cornell University Methods and tools for analyzing brain images
EP3017400B1 (en) * 2013-07-02 2019-05-15 Surgical Information Sciences Inc. Method and system for a brain image pipeline and brain image region location and shape prediction
WO2016011137A1 (en) * 2014-07-15 2016-01-21 Brigham And Women's Hospital, Inc. Systems and methods for generating biomarkers based on multivariate classification of functional imaging and associated data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230456A (ja) 2004-02-23 2005-09-02 Kokuritsu Seishin Shinkei Center 脳疾患の診断支援方法及び装置
WO2007023522A1 (ja) * 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry 脳疾患の診断支援方法及び装置
WO2009005013A1 (ja) * 2007-06-29 2009-01-08 Toshinori Kato 白質強調処理装置、白質強調処理方法及びプログラム
JP2011206452A (ja) * 2010-03-30 2011-10-20 Kochi Univ Of Technology 運転適性診断装置及び運転適性診断方法
US20120197105A1 (en) * 2011-01-28 2012-08-02 The Board Of Trustees Of The Leland Stanford Junior University Methods for detecting abnormalities and degenerative processes in soft tissue using magnetic resonance imaging (MRI)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3064126A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075071A (ja) * 2017-10-13 2019-05-16 株式会社Splink 保険料算定システム、保険料算定方法及びプログラム
JP7036374B2 (ja) 2017-10-13 2022-03-15 株式会社Splink 保険料算定システム及び保険料算定方法
US11607309B2 (en) 2017-12-21 2023-03-21 The Chinese University Of Hong Kong Neural predictors of language-skill outcomes in cochlear implantation patients
JP2020018424A (ja) * 2018-07-31 2020-02-06 株式会社Splink 認知症リスク提示システム、及び、認知症リスク提示方法

Also Published As

Publication number Publication date
JP5641629B1 (ja) 2014-12-17
EP3064126A1 (en) 2016-09-07
US9576358B2 (en) 2017-02-21
US20160155226A1 (en) 2016-06-02
JP2015084970A (ja) 2015-05-07
EP3064126A4 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
JP5641629B1 (ja) 個人特性予測システム、個人特性予測方法及びプログラム
JP6859445B2 (ja) 脳卒中の診断及び予後予測方法システム及びその作動方法
KR101796055B1 (ko) 다중 뇌 연결망 구축을 통한 뇌 상태 모니터링 방법 및 장치
JP2010012176A (ja) 脳疾患診断システム
JP4162242B2 (ja) 画像診断支援システム
CN103717122A (zh) 眼科诊断支持设备和眼科诊断支持方法
US11978208B2 (en) Trained model, learning method, learning program, medical information acquisition device, medical information acquisition method, and medical information acquisition program
US20210166378A1 (en) Medical image analysis system, storage medium, and medical image analysis method
Redd et al. Technology-assisted quantification of movement to predict infants at high risk of motor disability: A systematic review
JP6882136B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20200175683A1 (en) Medical information display apparatus, medical information display method, and medical information display program
CN112561848A (zh) 区域性脑年龄预测的方法、非暂时性电脑可读介质及设备
Beltrachini et al. Integration of cognitive tests and resting state fMRI for the individual identification of mild cognitive impairment
US11551351B2 (en) Priority judgement device, method, and program
US20200160516A1 (en) Priority judgement device, method, and program
JP2008132320A (ja) 画像診断支援システム
JP2007301035A (ja) 超音波断層画像による生体組織評価システム
Liu et al. Deep neural network-based video processing to obtain dual-task upper-extremity motor performance toward assessment of cognitive and motor function
JP7331620B2 (ja) 診断支援方法および診断支援システム
JP2008026144A (ja) 画像診断支援システム及び方法
JP2018038515A (ja) アルツハイマー病の診断支援装置、診断支援プログラムおよび診断支援方法
JP5429517B2 (ja) 診断支援システム、方法及びコンピュータプログラム
JP5524589B2 (ja) 診断支援システム、方法及びコンピュータプログラム
Habuza et al. Deep learning for predicting cognitive gap as a reliable biomarker of dementia
CN105578958A (zh) 用于背景感知成像的系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14857424

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14900685

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014857424

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE