[go: up one dir, main page]

JP2016168303A - Organ photographing apparatus - Google Patents

Organ photographing apparatus Download PDF

Info

Publication number
JP2016168303A
JP2016168303A JP2015051907A JP2015051907A JP2016168303A JP 2016168303 A JP2016168303 A JP 2016168303A JP 2015051907 A JP2015051907 A JP 2015051907A JP 2015051907 A JP2015051907 A JP 2015051907A JP 2016168303 A JP2016168303 A JP 2016168303A
Authority
JP
Japan
Prior art keywords
tongue
imaging
unit
image
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015051907A
Other languages
Japanese (ja)
Inventor
松田 伸也
Shinya Matsuda
伸也 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015051907A priority Critical patent/JP2016168303A/en
Publication of JP2016168303A publication Critical patent/JP2016168303A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine whether the photographing state of an organ is good or no-good for acquisition of an image with good photographing state, and to reliably acquire information required for diagnosis from the image with good photographing state.SOLUTION: An organ photographing apparatus 1 comprises an imaging unit 4, an information extraction unit 14, a determination unit 15, and an imaging control unit 11. The imaging unit 4 photographs an organ of a living body to acquire an image. The information extraction unit 14 extracts, from the image, diagnostic information required for diagnosis of the organ. The determination unit 15 determines whether the photographing state of the organ is good or no-good. The imaging control unit 11 controls the imaging unit 4 according to the determination result of the determination unit 15. The determination unit 15 extracts, from the image acquired by the imaging unit 4, determination information for good/no-good determination of the photographing state, and determines whether the photographing state is good or no-good, on the basis of the determination information. The determination information contains the same information as the diagnostic information.SELECTED DRAWING: Figure 2

Description

本発明は、生体の器官を撮影して、健康度の診断に必要な情報を抽出する器官画像撮影装置に関するものである。   The present invention relates to an organ image photographing apparatus for photographing an organ of a living body and extracting information necessary for health diagnosis.

生体画像を用いた診断は、医学の分野で広く用いられている。上記診断は、顔や手足などの体の表面の皮膚の診断だけでなく、唇や瞼などの膜状組織の診断、胃や腸などの消化器官や体内器官に対するX線や超音波を用いた診断の基本となっている。   Diagnosis using biological images is widely used in the medical field. In the above diagnosis, not only the skin on the surface of the body such as the face and limbs, but also the diagnosis of membranous tissues such as the lips and heels, and X-rays and ultrasound on digestive and internal organs such as the stomach and intestines It is the basis of diagnosis.

東洋医学においては、顔や舌の状態を観察することにより、健康状態や病状を診断する診断手法(望診、舌診)が知られている。舌診に必要な情報には、被写体(舌や苔)の色、鮮鋭度、表面の凹凸、光沢度(湿り気)などがある。舌を撮影して健康度の診断を支援する装置では、舌の撮影によって正確な色を再現する機能や、細かな情報を読み取る機能(画像の解像度)が求められるが、その他にも、舌の表面の凹凸や光沢度を的確に再現できる機能が必要となる。また、これらの機能を実現するためには、舌を撮影するときの撮影条件(照明の色、明るさ、角度、カメラの解像度、倍率、撮影距離など)を適切に設定する必要がある。   In oriental medicine, diagnostic methods (diagnosis, tongue examination) for diagnosing a health condition or medical condition by observing the condition of the face and tongue are known. Information necessary for tongue examination includes the color of the subject (tongue and moss), sharpness, surface irregularities, and gloss (humidity). A device that supports the diagnosis of health by photographing the tongue requires a function to reproduce accurate colors by photographing the tongue and a function to read detailed information (image resolution). A function that can accurately reproduce the unevenness and glossiness of the surface is required. In addition, in order to realize these functions, it is necessary to appropriately set shooting conditions (illumination color, brightness, angle, camera resolution, magnification, shooting distance, etc.) when shooting the tongue.

カメラスタジオなどでは、熟練したカメラマンが専用の機器を用いて撮影条件を適切に設定するため、適切な撮影画像を取得できる。しかし、医療現場では、医師や看護師の撮影技術が不足していると、適切な撮影条件で撮影されないため、適切な撮影画像を取得できない。また、トイレや洗面台などで撮影対象(例えば舌)を自動的に撮影する健康診断用途では、被験者が適切な舌の出し方を知らないため、適切な撮影画像を取得できない。   In a camera studio or the like, an experienced photographer sets appropriate shooting conditions using a dedicated device, so that an appropriate shot image can be acquired. However, in the medical field, if a doctor or nurse does not have sufficient shooting technology, an appropriate shot image cannot be acquired because shooting is not performed under appropriate shooting conditions. In addition, in a health diagnosis application in which a subject to be photographed (for example, a tongue) is automatically photographed with a toilet or a wash basin or the like, the subject does not know how to put out an appropriate tongue, and thus an appropriate photographed image cannot be acquired.

ここで、舌の出し方が変化すると、東洋医学(漢方)の診断項目に関連する情報が変化する。例えば、舌は粘膜器官で表面が濡れているため、舌を出すときの角度が変化すると、舌に対する照明光の当たり方が変化し、照明光の反射成分に基づいて得られる光沢度が変化する。また、舌の内部には筋肉組織があるため、舌の力の入れ方によって、舌が厚くなったり、薄くなったりする(舌の形状が変化する)。また、舌の出し方以外にも、舌と装置との相対的な位置関係(距離や角度)が変化すると、適切な撮影条件からずれた状態で撮影が行われるため、診断項目に関連する情報が変化する。したがって、このような状態で舌を撮影し、画像を取得しても、その画像に基づいて適切な診断を行うことができなくなる。   Here, when the way of putting out the tongue changes, the information related to the diagnosis item of Oriental medicine (Chinese medicine) changes. For example, because the tongue is a mucosal organ and the surface is wet, if the angle when the tongue is put out changes, the way the illumination light strikes the tongue changes, and the glossiness obtained based on the reflection component of the illumination light changes . Also, since there is a muscular tissue inside the tongue, the tongue becomes thicker or thinner (the shape of the tongue changes) depending on how the tongue is applied. In addition to how to put out the tongue, if the relative positional relationship (distance or angle) between the tongue and the device changes, the image is taken out of the appropriate imaging conditions, so information related to the diagnostic item Changes. Therefore, even if the tongue is photographed in such a state and an image is acquired, an appropriate diagnosis cannot be performed based on the image.

この点、例えば特許文献1〜3では、撮影時に顎や額を支持体によって支持することで、顔の位置を固定するようにしている。特に、特許文献1では、鏡の中央にカメラを配置し、鏡の像を見ながら舌の出し方を調節できるようにしている。また、特許文献4では、舌の先端を接触させる器具を用意し、舌を出して器具に接触させることで、舌を安定的に静止させるようにしている。   In this regard, for example, in Patent Documents 1 to 3, the position of the face is fixed by supporting the chin and forehead with a support at the time of photographing. In particular, in Patent Document 1, a camera is arranged in the center of a mirror so that the tongue can be adjusted while viewing the mirror image. Moreover, in patent document 4, the instrument which contacts the front-end | tip of a tongue is prepared, and the tongue is stably made stationary by taking out a tongue and making it contact with an instrument.

特開2009−28058号公報(段落〔0031〕、〔0038〕、図4等参照)Japanese Unexamined Patent Publication No. 2009-28058 (see paragraphs [0031], [0038], FIG. 4, etc.) 特開2001−314376号公報(段落〔0024〕、図4等参照)JP 2001-314376 A (see paragraph [0024], FIG. 4 etc.) 特開平7−398号公報(段落〔0014〕、図11等参照)JP 7-398 A (see paragraph [0014], FIG. 11 etc.) 特開2010−259487号公報(請求項4、段落〔0023〕、〔0025〕、図2等参照)JP 2010-259487 A (refer to claim 4, paragraphs [0023], [0025], FIG. 2, etc.)

ところが、特許文献1〜4では、撮影時に顎、額または舌(先端)を支持体や器具によって支持するだけで、舌の出し方の良否はわからない。このため、舌の出し方によっては、撮影状態の良好な画像を取得できない可能性がある。また、舌の診断を行うにあたっては、診断に必要な情報(例えば舌表面の湿り気を診断するのであれば光沢度の情報、歯痕を診断するのであれば舌の輪郭線の情報)が、撮影画像から確実に取得される必要がある。   However, in Patent Documents 1 to 4, it is not known whether the tongue is good or bad just by supporting the jaw, forehead, or tongue (tip) with a support or instrument at the time of photographing. For this reason, depending on how the tongue is put out, there is a possibility that an image in a good photographing state cannot be acquired. In diagnosis of the tongue, information necessary for diagnosis (for example, glossiness information if lingual surface moisture is diagnosed and tongue contour information if dent marks are diagnosed) is taken. It needs to be reliably acquired from the image.

本発明は、上記の問題点を解決するためになされたもので、その目的は、器官の撮影状態の良否を判定して、撮影状態の良好な画像を取得するとともに、良好な撮影状態で取得された画像から、診断に必要な情報を確実に取得することができる器官画像撮影装置を提供することにある。   The present invention has been made to solve the above-described problems, and its purpose is to determine whether the imaging state of the organ is good or not, to acquire an image with a good imaging state, and to acquire with a good imaging state. Another object of the present invention is to provide an organ imaging apparatus capable of reliably acquiring information necessary for diagnosis from the obtained image.

本発明の一側面に係る器官画像撮影装置は、生体の器官を撮影して画像を取得する撮像部と、前記画像から、前記器官の診断に必要な診断用情報を抽出する情報抽出部と、前記器官の撮影状態の良否を判定する判定部と、前記判定部での判定結果に応じて、前記撮像部を制御する撮像制御部とを備え、前記判定部は、前記撮像部によって取得される画像から、前記撮影状態の良否判定のための判定情報を抽出し、前記判定情報に基づいて前記撮影状態の良否を判定し、前記判定情報は、前記診断用情報と同じ情報を含む。   An organ image capturing apparatus according to an aspect of the present invention includes an imaging unit that captures an image of a living organ and acquires an image; an information extraction unit that extracts diagnostic information necessary for diagnosis of the organ from the image; A determination unit configured to determine whether the imaging state of the organ is acceptable; and an imaging control unit configured to control the imaging unit according to a determination result of the determination unit, wherein the determination unit is acquired by the imaging unit. Determination information for determining the quality of the shooting state is extracted from the image, and the quality of the shooting state is determined based on the determination information. The determination information includes the same information as the diagnostic information.

判定部は、撮像部によって取得される画像から判定情報を抽出し、その判定情報に基づいて撮影状態の良否を判定する。上記の判定情報は、情報抽出部によって抽出される診断用情報と同じ情報を含むため、判定部は、その情報(診断用情報)を用いて撮影状態の良否を判定することが可能となる。これにより、撮影状態が良好と判定された場合には、撮影状態が良好な画像から、撮影状態の良否判定に用いた診断用情報を確実に取得することができる。その結果、本装置または外部の装置にて、診断用情報に基づく適切な診断が可能となる。なお、上記の「撮影状態が良好な画像」は、撮影状態が良好と判定された画像そのものであってもよいし、良好な撮影状態で器官を再度撮影して取得される画像であってもよい。   The determination unit extracts determination information from the image acquired by the imaging unit, and determines the quality of the shooting state based on the determination information. Since the determination information includes the same information as the diagnostic information extracted by the information extraction unit, the determination unit can determine the quality of the imaging state using the information (diagnosis information). Thereby, when it is determined that the imaging state is good, it is possible to reliably acquire diagnostic information used for determining the quality of the imaging state from an image with a good imaging state. As a result, appropriate diagnosis based on the diagnostic information can be performed by the present apparatus or an external apparatus. The above-mentioned “image in good imaging state” may be an image itself that is determined to be in good imaging state, or may be an image acquired by imaging an organ again in a good imaging state. Good.

また、撮像制御部は、判定部での判定結果に応じて撮像部を制御するため、判定部にて撮影状態が不良と判定された場合は、例えば撮影状態が良好と判定されるまで、撮像部に撮影状態の良否判定のための撮影(予備撮影)を実行させて、情報抽出部による診断用情報の抽出のための撮影(本撮影)を実行させないようにすることができる。これにより、使用者に器官の撮影状態の調整を促して、撮影状態を良好にすることができる。そして、撮影状態の良好な画像を取得して、その画像から、上記と同様に診断用情報を取得することが可能となる。   In addition, since the imaging control unit controls the imaging unit according to the determination result in the determination unit, if the determination unit determines that the shooting state is bad, for example, until the shooting state is determined to be good It is possible to prevent the information extraction unit from performing imaging (main imaging) for extracting diagnostic information by performing imaging (preliminary imaging) for determining whether the imaging state is good or bad. Thereby, the user can be prompted to adjust the imaging state of the organ, and the imaging state can be improved. Then, it is possible to acquire an image in a good photographing state and acquire diagnostic information from the image in the same manner as described above.

このように、判定部が器官の撮影状態の良否を判定し、その判定結果に応じて撮像制御部が撮像部を制御することにより、最終的に、撮影状態の良好な画像を取得して、その画像から診断用情報を確実に取得することができる。   In this way, the determination unit determines the quality of the imaging state of the organ, and the imaging control unit controls the imaging unit according to the determination result, finally obtaining an image with a favorable imaging state, The diagnostic information can be reliably acquired from the image.

前記器官は、舌であってもよい。この場合、舌の撮影状態の良否を判定して、撮影状態の良好な画像を取得できるとともに、良好な撮影状態で取得された舌の画像から、舌の診断用情報を確実に取得することができる。   The organ may be a tongue. In this case, whether the imaging state of the tongue is good or bad can be determined, and an image having a good imaging state can be acquired, and the diagnostic information for the tongue can be reliably acquired from the tongue image acquired in the favorable imaging state. it can.

前記判定情報は、前記診断用情報と同じ情報として、舌の光沢度および舌の左右方向に垂直な断面での湾曲形状の少なくとも一方の情報を含んでいてもよい。この場合、判定部は、上記いずれかの情報から、舌の角度や、撮像部の撮影光軸の角度を求めることができ、求めた角度に基づいて撮影状態の良否を判定することが可能となる。   The determination information may include information on at least one of glossiness of the tongue and a curved shape in a cross section perpendicular to the left-right direction of the tongue as the same information as the diagnostic information. In this case, the determination unit can determine the angle of the tongue and the angle of the imaging optical axis of the imaging unit from any of the above information, and can determine the quality of the imaging state based on the calculated angle. Become.

前記判定部は、前記判定情報に基づいて、鉛直方向に対する舌の角度、および水平方向に対する前記撮像部の撮影光軸の角度の少なくとも一方を求め、求めた角度に基づいて前記撮影状態の良否を判定してもよい。上記角度に基づいて、撮影状態の良否を確実に判定できる。   The determination unit obtains at least one of the angle of the tongue with respect to the vertical direction and the angle of the photographing optical axis of the imaging unit with respect to the horizontal direction based on the determination information, and determines whether the photographing state is good based on the obtained angle. You may judge. Based on the angle, the quality of the shooting state can be reliably determined.

前記判定情報は、前記診断用情報と同じ情報として、舌の輪郭線の情報を含んでいてもよい。この場合、判定部は、舌の輪郭線から舌の長さを求めることができ、求めた舌の長さに基づいて撮影状態の良否を判定することができる。   The determination information may include tongue contour information as the same information as the diagnostic information. In this case, the determination unit can determine the length of the tongue from the contour line of the tongue, and can determine the quality of the photographing state based on the determined length of the tongue.

前記判定部は、舌の輪郭線の情報に基づいて舌の縦横比を求め、求めた縦横比から得られる舌の長さに基づいて、前記撮影状態の良否を判定してもよい。舌の長さに基づいて、撮影状態の良否を確実に判定できる。   The determination unit may determine the aspect ratio of the tongue based on information on a contour line of the tongue, and determine whether the photographing state is good or not based on the length of the tongue obtained from the determined aspect ratio. Based on the length of the tongue, it is possible to reliably determine the quality of the shooting state.

前記判定情報は、前記診断用情報と同じ情報として、舌の厚さ、舌の左右方向に沿った断面での湾曲度、および舌の光沢度の少なくともいずれかの情報を含んでいてもよい。この場合、判定部は、上記いずれかの情報から、舌の力の入れ具合いを判断することができ、その判断結果に基づいて撮影状態の良否を判定することが可能となる。   The determination information may include, as the same information as the diagnostic information, information on at least one of the thickness of the tongue, the degree of curvature of the tongue along the left-right direction, and the glossiness of the tongue. In this case, the determination unit can determine how the tongue is applied from any of the above information, and can determine the quality of the shooting state based on the determination result.

前記判定部は、前記判定情報に基づいて舌の力の入れ具合いを判断し、その判断結果に基づいて前記撮影状態の良否を判定してもよい。舌の力の入れ具合いに基づいて、撮影状態の良否を確実に判定できる。   The determination unit may determine how the tongue force is applied based on the determination information, and determine whether the photographing state is good or not based on the determination result. The quality of the photographing state can be reliably determined based on how the tongue is applied.

前記判定情報は、前記診断用情報と同じ情報として、舌の輪郭線および舌の色の少なくとも一方の情報を含んでいてもよい。この場合、判定部は、上記いずれかの情報から、舌の大きさまたは明るさを求めて、舌と該装置との距離を判断することができ、その判断結果に基づいて撮影状態の良否を判定することが可能となる。   The determination information may include information on at least one of a tongue outline and a tongue color as the same information as the diagnosis information. In this case, the determination unit can determine the distance between the tongue and the device by obtaining the size or brightness of the tongue from any of the above information, and determine the quality of the shooting state based on the determination result. It becomes possible to judge.

前記判定部は、前記判定情報に基づいて舌の大きさまたは明るさを求め、求めた舌の大きさまたは明るさから、舌と該装置との距離を判断し、その判断結果に基づいて前記撮影状態の良否を判定してもよい。舌と該装置との距離に基づいて、撮影状態の良否を確実に判定できる。   The determination unit determines the size or brightness of the tongue based on the determination information, determines the distance between the tongue and the device from the determined size or brightness of the tongue, and determines the distance based on the determination result. The quality of the shooting state may be determined. Based on the distance between the tongue and the device, it is possible to reliably determine the quality of the shooting state.

前記判定部の判定結果を出力する出力部をさらに備えていてもよい。撮影状態が良好である、または不良である等の判定結果を出力部にて出力することにより、使用者は、撮影状態が良好である場合は、器官をそのまま静止し続けて、診断用情報の抽出のための撮影(本撮影)に備えることができ、撮影状態が不良の場合は、器官の位置を調整して、撮影状態の良否判定のための撮影(予備撮影)に再度臨むことができる。   You may further provide the output part which outputs the determination result of the said determination part. By outputting a determination result indicating that the imaging state is good or bad at the output unit, the user can keep the organ still when the imaging state is good, It is possible to prepare for photographing for extraction (main photographing), and when the photographing state is poor, the position of the organ can be adjusted and the photographing for preliminary determination of the photographing state (preliminary photographing) can be started again. .

前記出力部は、前記判定部にて、前記撮影状態が不良と判定されたときに、前記器官の撮影位置の調整を使用者に促すメッセージまたは音声をさらに出力してもよい。この場合、使用者は、出力されたメッセージまたは音声によって、器官の撮影位置の調整が必要であることを把握でき、撮影位置を修正して再度の撮影(予備撮影)に臨むことができる。   The output unit may further output a message or a sound prompting a user to adjust the imaging position of the organ when the imaging unit determines that the imaging state is defective. In this case, the user can grasp that it is necessary to adjust the imaging position of the organ based on the output message or voice, and can correct the imaging position and start another imaging (preliminary imaging).

上記器官画像撮影装置は、使用者からの本撮影の指示を受け付ける操作部をさらに備えており、前記撮像制御部は、前記判定部にて前記器官の撮影状態が良好と判定されるまで、前記撮像部に予備撮影を実行させて、前記器官の画像を取得させ、前記判定部にて、前記画像の撮影状態が良好と判定された後、前記操作部にて使用者からの本撮影の指示が入力されたときに、良好と判定された前記撮影状態で前記撮像部に本撮影を実行させて、前記器官の画像を取得させ、前記情報抽出部は、前記本撮影にて取得された前記画像から、前記診断用情報を抽出してもよい。   The organ image capturing apparatus further includes an operation unit that receives an instruction of main imaging from a user, and the imaging control unit is configured to determine whether the organ imaging state is determined to be good by the determination unit. The imaging unit is caused to perform preliminary imaging to acquire an image of the organ, and after the determination unit determines that the imaging state of the image is good, the operation unit instructs the main imaging Is input, the imaging unit is caused to perform main imaging in the imaging state determined to be good, and an image of the organ is acquired, and the information extraction unit is configured to acquire the image acquired in the main imaging. The diagnostic information may be extracted from the image.

判定部にて、予備撮影で取得された画像の撮影状態が良好と判定されると、撮像部は、操作部による使用者からの本撮影の指示を受けて、本撮影を実行する。これにより、使用者の意図に基づく本撮影を実行できる。また、情報抽出部は、良好と判定された撮影状態で撮像部にて撮影され、取得された画像から、診断用情報を抽出するので、当該装置または外部の装置にて、上記診断用情報に基づく診断が可能となる。   When the determination unit determines that the shooting state of the image acquired by the preliminary shooting is good, the imaging unit receives the instruction of the main shooting from the user by the operation unit and executes the main shooting. As a result, the main photographing based on the user's intention can be executed. In addition, the information extraction unit extracts diagnostic information from the image captured and acquired by the imaging unit in the imaging state determined to be good. Diagnosis based on it becomes possible.

前記撮像制御部は、前記判定部にて前記器官の撮影状態が良好と判定されるまで、前記撮像部に予備撮影を実行させて、前記器官の画像を取得させ、前記判定部にて、前記画像の撮影状態が良好と判定された後、前記撮像部に対して本撮影の開始を指示し、良好と判定された前記撮影状態で前記撮像部に本撮影を実行させて、前記器官の画像を取得させ、前記情報抽出部は、前記本撮影にて取得された前記画像から、前記診断用情報を抽出してもよい。   The imaging control unit causes the imaging unit to perform preliminary imaging until the determination unit determines that the imaging state of the organ is good, and acquires an image of the organ. After the imaging state of the image is determined to be good, the imaging unit is instructed to start main imaging, and the imaging unit is made to perform main imaging in the imaging state determined to be good, and the image of the organ The information extraction unit may extract the diagnostic information from the image acquired in the main photographing.

判定部にて、予備撮影で取得された画像の撮影状態が良好と判定されると、撮像部は、撮像制御部からの指示を受けて、本撮影を直ちに実行するため、良否判定後の処理を迅速に行うことが可能となる。また、情報抽出部は、良好と判定された撮影状態で撮像部にて撮影され、取得された画像から、診断用情報を抽出するので、当該装置または外部の装置にて、上記診断用情報に基づく診断が可能となる。   When the determination unit determines that the shooting state of the image acquired by the preliminary shooting is good, the imaging unit immediately executes main shooting in response to an instruction from the imaging control unit. Can be performed quickly. In addition, the information extraction unit extracts diagnostic information from the image captured and acquired by the imaging unit in the imaging state determined to be good. Diagnosis based on it becomes possible.

前記撮像制御部は、前記判定部にて前記器官の撮影状態が良好と判定されるまで、前記撮像部に予備撮影を実行させて、前記器官の画像を取得させ、前記情報抽出部は、前記予備撮影で取得された画像の中から、前記判定部にて撮影状態が良好と判定された画像を選択し、選択した画像から、前記診断用情報を抽出してもよい。   The imaging control unit causes the imaging unit to perform preliminary imaging until the determination unit determines that the imaging state of the organ is good, and obtains an image of the organ. It is also possible to select an image that has been determined to be in a good shooting state by the determination unit from among images acquired by preliminary shooting, and extract the diagnostic information from the selected image.

予備撮影で撮影状態が良好と判定された画像から診断用情報を抽出するため、予備撮影後に、診断用情報を抽出するための本撮影を行うことが不要となり、良否判定後の処理を迅速に行うことが可能となる。また、情報抽出部が上記画像から診断用情報を抽出することにより、当該装置または外部の装置にて、上記診断用情報に基づく診断が可能となる。   Since the diagnostic information is extracted from the image that is determined to be good in the preliminary shooting, it is not necessary to perform the main shooting for extracting the diagnostic information after the preliminary shooting, and the processing after the pass / fail determination is quickly performed. Can be done. In addition, the information extraction unit extracts diagnostic information from the image, so that diagnosis based on the diagnostic information can be performed by the apparatus or an external apparatus.

上記器官画像撮影装置は、前記撮像部によって取得される画像を、前記器官の撮影位置を規定するための枠線とともに表示する表示部をさらに備えていてもよい。表示部に枠線を表示させることにより、撮像部による撮影時に、枠線によって器官を適切な撮影位置に案内することができる。これにより、器官の撮影状態を大まかに良好に近づけることができる。   The organ imaging apparatus may further include a display unit that displays an image acquired by the imaging unit together with a frame line for defining the imaging position of the organ. By displaying the frame line on the display unit, the organ can be guided to an appropriate imaging position by the frame line during imaging by the imaging unit. As a result, the imaging state of the organ can be approximated roughly favorably.

上記の構成によれば、器官の撮影状態の良否判定を行って、撮影状態の良好な画像を取得できるとともに、良好な撮影状態で取得された画像から、診断に必要な情報を確実に取得することができる。   According to the above configuration, it is possible to determine whether or not the imaging state of the organ is good, and to acquire an image with a favorable imaging state, and to reliably acquire information necessary for diagnosis from the image acquired with the favorable imaging state. be able to.

本発明の実施の一形態に係る器官画像撮影装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of the organ imaging device which concerns on one Embodiment of this invention. 上記器官画像撮影装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the said organ image imaging device. 撮影対象に対する照明部と撮像部との位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the illumination part with respect to imaging | photography object, and an imaging part. 舌の撮影画像およびエッジ抽出フィルタの一例と、上記フィルタを用いて抽出された舌の輪郭線とを示す説明図である。It is explanatory drawing which shows an example of the picked-up image of a tongue, an edge extraction filter, and the outline of the tongue extracted using the said filter. 舌と苔に関する代表的な診断項目を示す説明図である。It is explanatory drawing which shows the typical diagnostic item regarding a tongue and moss. 舌の撮影画像と各診断領域とを併せて示す説明図である。It is explanatory drawing which shows the picked-up image of a tongue, and each diagnostic area | region collectively. 舌の輪郭線と近似曲線とを示すグラフである。It is a graph which shows the outline of a tongue, and an approximate curve. 上記輪郭線と上記近似曲線とでのy座標の差をプロットしたグラフである。It is the graph which plotted the difference of the y coordinate in the said outline and the said approximated curve. 舌の撮影画像と舌の断面形状とを併せて示す説明図である。It is explanatory drawing which shows the picked-up image of a tongue, and the cross-sectional shape of a tongue collectively. 舌の輪郭線と湿り気の検出領域とを併せて示す説明図である。It is explanatory drawing which shows the outline of a tongue, and the detection area | region of moisture. 舌の分光分布を示すグラフである。It is a graph which shows the spectral distribution of a tongue. 上記検出領域から抽出したBの画像データの度数分布を模式的に示すグラフである。It is a graph which shows typically the frequency distribution of the image data of B extracted from the said detection area. 表面に亀裂がある舌の撮影画像を示す説明図である。It is explanatory drawing which shows the picked-up image of the tongue which has a crack in the surface. 舌表面に亀裂がない場合と亀裂がある場合とのそれぞれにおける、Bの画像データの度数分布を模式的に示すグラフである。It is a graph which shows typically the frequency distribution of the image data of B in each of the case where there is no crack on the tongue surface, and the case where there is a crack. 上記器官画像撮影装置の投光部の概略の構成を示す斜視図である。It is a perspective view which shows the schematic structure of the light projection part of the said organ imaging device. 上記投光部から舌表面に対して水平方向に線状の光が投光された状態を示す説明図である。It is explanatory drawing which shows the state by which the linear light was projected in the horizontal direction with respect to the tongue surface from the said light projection part. 舌が薄い場合と厚い場合とにおいて、上記投光部により舌表面に投光された線状の光を撮影したときの撮影画像と、舌の断面形状とを示す説明図である。It is explanatory drawing which shows the picked-up image when the linear light projected on the tongue surface by the said light projection part is imaged, and the cross-sectional shape of a tongue, when a tongue is thin and when it is thick. 舌の厚さと舌の筋肉による動きとの関係、および舌表面の水平方向の高さ分布を示す説明図である。It is explanatory drawing which shows the relationship between the thickness of a tongue, and the movement by the muscle of a tongue, and the height distribution of the horizontal direction of a tongue surface. 上記高さ分布とともに、多項式で近似される一部の領域を示す説明図である。It is explanatory drawing which shows the one part area | region approximated with a polynomial with the said height distribution. 上記高さ分布において、多項式で近似される上記領域の他の設定方法を模式的に示す説明図である。It is explanatory drawing which shows typically the other setting method of the said area | region approximated with a polynomial in the said height distribution. 舌が薄い場合と厚い場合とにおいて、舌表面の上下方向のほぼ中心を通る水平方向における撮影画像のRGBの画像データの分布を示す説明図である。It is explanatory drawing which shows distribution of the RGB image data of the picked-up image in the horizontal direction which passes along the approximate center of the up-down direction of the surface of a tongue, when a tongue is thin and is thick. 舌の平面形状と断面形状との関係を模式的に示す説明図である。It is explanatory drawing which shows typically the relationship between the planar shape and cross-sectional shape of a tongue. 舌の撮影画像の一例を示す説明図である。It is explanatory drawing which shows an example of the picked-up image of a tongue. 舌の撮影画像の他の例を示す説明図である。It is explanatory drawing which shows the other example of the picked-up image of a tongue. 舌の鉛直方向に対する角度を示す側面図である。It is a side view which shows the angle with respect to the vertical direction of a tongue. 舌を照明したときに光沢のできる領域を模式的に示す説明図である。It is explanatory drawing which shows typically the area | region which can be glossed when the tongue is illuminated. 撮影画像における舌の角度と光沢領域との関係を示す説明図である。It is explanatory drawing which shows the relationship between the angle of the tongue in a picked-up image, and a glossy area. 投光部によって縦方向に線状の光を舌表面に投光している状態を示す説明図である。It is explanatory drawing which shows the state which is projecting the linear light to the tongue surface by the light projection part to the vertical direction. 上記縦方向の投光によって得られる舌表面の湾曲形状を示す説明図である。It is explanatory drawing which shows the curved shape of the tongue surface obtained by the said light projection of the vertical direction. 舌の輪郭線と、左右方向の幅および上下方向の長さとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the outline of a tongue, the width | variety of the left-right direction, and the length of an up-down direction. 舌の水平方向に沿った断面での形状を示す断面図である。It is sectional drawing which shows the shape in the cross section along the horizontal direction of a tongue. 舌に力が入ったときの湾曲度合いを示す説明図である。It is explanatory drawing which shows the curvature degree when force enters into a tongue. 舌と上記器官画像撮影装置との位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of a tongue and the said organ image imaging device. 上記器官画像撮影装置における動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement in the said organ imaging device. 表示部に表示される枠線の一例を示す説明図である。It is explanatory drawing which shows an example of the frame line displayed on a display part. 上記枠線の他の例を示す説明図である。It is explanatory drawing which shows the other example of the said frame line. 上記器官画像撮影装置における動作の他の例を示すフローチャートである。It is a flowchart which shows the other example of operation | movement in the said organ imaging device. 上記器官画像撮影装置における動作のさらに他の例を示すフローチャートである。It is a flowchart which shows the further another example of operation | movement in the said organ imaging device. 人間の下瞼の撮影画像と枠線とを併せて示す説明図である。It is explanatory drawing which shows together the picked-up image and frame line of a human lower eyelid.

本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。なお、本明細書において、数値範囲をA〜Bと表記した場合、その数値範囲に下限Aおよび上限Bの値は含まれるものとする。   An embodiment of the present invention will be described below with reference to the drawings. In the present specification, when the numerical range is expressed as A to B, the numerical value range includes the values of the lower limit A and the upper limit B.

〔1.器官画像撮影装置の概略構成〕
図1は、本実施形態の器官画像撮影装置1の外観を示す斜視図であり、図2は、器官画像撮影装置1の概略の構成を示すブロック図である。器官画像撮影装置1は、照明部2、投光部3、撮像部4、表示部5、操作部6、通信部7および音声出力部8を備えている。照明部2および投光部3は筐体21に設けられており、撮像部4、表示部5、操作部6、通信部7および音声出力部8は、筐体22に設けられている。筐体21と筐体22とは別体で構成されているが、一体化されていてもよい。
[1. Schematic configuration of organ imaging apparatus]
FIG. 1 is a perspective view showing an external appearance of an organ image photographing apparatus 1 of the present embodiment, and FIG. 2 is a block diagram showing a schematic configuration of the organ image photographing apparatus 1. The organ image photographing apparatus 1 includes an illumination unit 2, a light projecting unit 3, an imaging unit 4, a display unit 5, an operation unit 6, a communication unit 7, and an audio output unit 8. The illumination unit 2 and the light projecting unit 3 are provided in the housing 21, and the imaging unit 4, the display unit 5, the operation unit 6, the communication unit 7, and the audio output unit 8 are provided in the housing 22. The casing 21 and the casing 22 are configured separately, but may be integrated.

(照明部)
照明部2は、撮影対象である生体の器官(ここでは舌)を照明するものであり、撮影対象を上方より照明する照明器で構成されている。照明部2の光源としては、色再現性を向上させるために、例えばキセノンランプなどの昼光色を発光するものを用いている。光源の明るさは、撮像部4の感度や撮影対象までの距離に応じて、照明制御部9によって制御される。例えば、撮影対象の照度が1000〜10000lxとなるように光源の明るさが制御される。照明部2は、上記の光源の他に、点灯回路や調光回路を有しており、照明制御部9からの指令によって点灯/消灯および調光が制御される。
(Lighting part)
The illuminating unit 2 illuminates a living organ (here, tongue) that is a subject to be imaged, and includes an illuminator that illuminates the subject to be photographed from above. As the light source of the illuminating unit 2, in order to improve color reproducibility, a light source that emits a daylight color such as a xenon lamp is used. The brightness of the light source is controlled by the illumination control unit 9 in accordance with the sensitivity of the imaging unit 4 and the distance to the shooting target. For example, the brightness of the light source is controlled so that the illuminance of the photographing target is 1000 to 10000 lx. The illumination unit 2 includes a lighting circuit and a dimming circuit in addition to the above light source, and lighting / extinguishing and dimming are controlled by a command from the illumination control unit 9.

(投光部)
投光部3は、撮影対象の器官である舌の表面に対して、線状の光を投光(照射)する投光器で構成されている。この投光部3は、舌に対して水平方向に線状の光を投光する投光部3aと、垂直方向(鉛直方向)に線状の光を投光する投光部3bとを有している。投光部3による光の投光は、投光制御部10によって制御されている。なお、投光部3の詳細については後述する。
(Lighting part)
The light projecting unit 3 includes a light projector that projects (irradiates) linear light onto the surface of the tongue, which is an organ to be imaged. The light projecting unit 3 includes a light projecting unit 3a that projects linear light in the horizontal direction with respect to the tongue, and a light projecting unit 3b that projects linear light in the vertical direction (vertical direction). doing. The light projection by the light projecting unit 3 is controlled by the light projecting control unit 10. Details of the light projecting unit 3 will be described later.

(撮像部)
撮像部4は、照明部2による照明下で、生体の器官(例えば舌)を撮影して画像を取得するものである。この撮像部4は、撮像レンズ41と、エリアセンサ42とを有している(図3参照)。撮像レンズ41の絞り(レンズの明るさ)、シャッター速度、焦点距離は、撮影対象の全ての範囲に焦点が合うように設定されている。一例としては、Fナンバー:16、シャッター速度:1/120秒、焦点距離:20mmである。
(Imaging part)
The imaging unit 4 captures a living organ (for example, a tongue) and acquires an image under illumination by the illumination unit 2. The imaging unit 4 includes an imaging lens 41 and an area sensor 42 (see FIG. 3). The aperture (brightness of the lens), shutter speed, and focal length of the imaging lens 41 are set so that the entire range to be photographed is in focus. As an example, F number: 16, shutter speed: 1/120 seconds, focal length: 20 mm.

エリアセンサ42は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)のような撮像素子で構成されており、撮影対象の色および形状を十分に検出できるように、感度や解像度などが設定されている。一例としては、感度:60db、解像度:1000万画素である。   The area sensor 42 is composed of an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and has sensitivity and resolution so that the color and shape of the subject can be sufficiently detected. Is set. As an example, sensitivity: 60 db, resolution: 10 million pixels.

撮像部4による撮影は、撮像制御部11によって制御されている。また、撮像部4は、撮像レンズ41やエリアセンサ42の他にも、不図示のフォーカス機構、絞り機構、駆動回路およびA/D変換回路などを有しており、撮像制御部11からの指令により、フォーカスや絞りの制御、A/D変換などが制御される。撮像部4では、撮影画像のデータとして、赤(R)、緑(G)、青(B)のそれぞれについて、例えば8ビットで0〜255のデータが取得される。すなわち、撮像部4では、異なる色(RGB)のそれぞれについて、撮影対象を撮影した画像が取得され、これによって、各色の画像データが取得される。また、撮像部4の撮像レンズ41の倍率は、必要な画像の解像度が得られるように、撮像制御部11によって制御される。   Imaging by the imaging unit 4 is controlled by the imaging control unit 11. In addition to the imaging lens 41 and the area sensor 42, the imaging unit 4 includes a focus mechanism (not shown), a diaphragm mechanism, a drive circuit, an A / D conversion circuit, and the like, and commands from the imaging control unit 11. As a result, focus, aperture control, A / D conversion, and the like are controlled. In the imaging unit 4, for example, data of 0 to 255 in 8 bits is acquired for each of red (R), green (G), and blue (B) as captured image data. That is, the imaging unit 4 acquires images obtained by shooting the shooting target for each of the different colors (RGB), and thereby acquires image data of each color. The magnification of the imaging lens 41 of the imaging unit 4 is controlled by the imaging control unit 11 so that a necessary image resolution can be obtained.

図3は、撮影対象(舌や顔)に対する照明部2と撮像部4との位置関係を示す説明図である。同図に示すように、少なくとも撮像レンズ41とエリアセンサ42とを有する撮像部4は、撮影対象に正対して配置されている。照明部2は、撮影対象を通る撮像部4の撮影光軸Xに対して、例えば0°〜45°の照明角度aで撮影対象を照明するように配置されている。なお、撮影光軸Xとは、撮像部4が有する撮像レンズ41の光軸を指す。   FIG. 3 is an explanatory diagram showing a positional relationship between the illumination unit 2 and the imaging unit 4 with respect to a photographing target (tongue or face). As shown in the figure, the image pickup unit 4 including at least the image pickup lens 41 and the area sensor 42 is arranged to face the shooting target. The illumination unit 2 is arranged so as to illuminate the imaging target at an illumination angle a of, for example, 0 ° to 45 ° with respect to the imaging optical axis X of the imaging unit 4 passing through the imaging target. Note that the imaging optical axis X refers to the optical axis of the imaging lens 41 included in the imaging unit 4.

照明時の照明角度aが大きいと、表面の凹凸の計測精度が向上するが、上唇の影により、舌を撮影できる範囲が小さくなる。逆に、照明角度aが小さいと、撮影範囲は拡大されるが、計測精度が低下したり、照明光の正反射による色とびが大きくなる。以上のことを考慮すると、照明角度aの好ましい範囲は、15°〜30°である。特に、診断部位が生体の舌などの器官である場合、望ましい照明角度aは約30°である。   When the illumination angle a at the time of illumination is large, the measurement accuracy of the surface unevenness is improved, but the range in which the tongue can be photographed becomes small due to the shadow of the upper lip. On the contrary, when the illumination angle a is small, the photographing range is enlarged, but the measurement accuracy is lowered, and the color jump due to the regular reflection of the illumination light is increased. Considering the above, the preferable range of the illumination angle a is 15 ° to 30 °. In particular, when the diagnosis site is an organ such as a tongue of a living body, a desirable illumination angle a is about 30 °.

(表示部)
表示部5は、不図示の液晶パネル、バックライト、点灯回路および制御回路を有しており、撮像部4での撮影によって取得される画像と、枠線P(図35参照)とを表示する。表示部5に表示される上記の画像としては、撮像部4の本撮影によって取得される画像のほか、本撮影の前の予備撮影で取得される画像(プレビュー画像)を含む。上記の枠線Pは、撮像部4による撮影時の器官(ここでは舌)の撮影位置を規定するための画枠である。枠線Pを表示部5に表示させることにより、舌の撮影時に枠線Pによって舌の撮影位置を案内することができる。
(Display section)
The display unit 5 includes a liquid crystal panel (not shown), a backlight, a lighting circuit, and a control circuit, and displays an image acquired by photographing with the imaging unit 4 and a frame line P (see FIG. 35). . As said image displayed on the display part 5, the image (preview image) acquired by the preliminary | backup photography before main imaging | photography other than the image acquired by main imaging | photography of the imaging part 4 is included. The frame P is an image frame for defining the imaging position of the organ (here, the tongue) at the time of imaging by the imaging unit 4. By displaying the frame line P on the display unit 5, the photographing position of the tongue can be guided by the frame line P when photographing the tongue.

また、表示部5は、後述する撮影状態の良否判定の結果や撮影状態の修正を促すメッセージ(警告)を表示したり、通信部7を介して外部から取得した情報(例えば外部の医療機関に情報を送信して診断された結果)を表示することもできる。表示部5における各種の情報の表示は、表示制御部12によって制御されている。   Further, the display unit 5 displays a result of pass / fail judgment of the shooting state, which will be described later, and a message (warning) prompting the correction of the shooting state, or information acquired from the outside via the communication unit 7 (for example, to an external medical institution). It is also possible to display the result of diagnosis by sending information. Display of various types of information on the display unit 5 is controlled by the display control unit 12.

なお、撮像部4での撮影によって取得された撮影対象の画像は、間引き処理や色補正処理などの画像処理が画像処理部(図示せず)によって施された後に、表示部5に表示されてもよい。以下での説明において、単に「撮影対象の(撮影)画像」と表現した場合は、特に断らない限り、撮像部4での撮影によって取得されて、表示に必要な上記の画像処理が施される前の画像を指すものとする。   The image to be captured acquired by the imaging unit 4 is displayed on the display unit 5 after image processing such as thinning processing and color correction processing is performed by the image processing unit (not shown). Also good. In the following description, when it is simply expressed as “a (photographed) image to be photographed”, unless otherwise specified, it is acquired by photographing with the imaging unit 4 and the above-described image processing necessary for display is performed. It shall refer to the previous image.

(操作部)
操作部6は、撮像部4による撮影を指示するための入力部であり、OKボタン(撮影実行ボタン)6aおよびCANCELボタン6bで構成されている。本実施形態では、表示部5および操作部6を、共通のタッチパネル表示装置23(図1参照)で構成している。タッチパネル表示装置23における操作部6の表示は、操作制御部13によって制御される。なお、操作部6は、タッチパネル表示装置23以外の入力部で構成されてもよい(タッチパネル表示装置23の表示領域外の位置に操作部6を設けてもよい)。
(Operation section)
The operation unit 6 is an input unit for instructing imaging by the imaging unit 4, and includes an OK button (imaging execution button) 6a and a CANCEL button 6b. In the present embodiment, the display unit 5 and the operation unit 6 are configured by a common touch panel display device 23 (see FIG. 1). The display of the operation unit 6 on the touch panel display device 23 is controlled by the operation control unit 13. The operation unit 6 may be configured by an input unit other than the touch panel display device 23 (the operation unit 6 may be provided at a position outside the display area of the touch panel display device 23).

(通信部)
通信部7は、後述する情報抽出部14にて得られた情報を、外部の装置に送信したり、逆に外部の装置から送信される各種の情報(例えば外部機関での診断結果)を受信するためのインターフェースである。通信部7における情報の送受信は、通信制御部17によって制御されている。
(Communication Department)
The communication unit 7 transmits information obtained by the information extraction unit 14 to be described later to an external device, and conversely receives various types of information transmitted from the external device (for example, diagnosis results in an external organization). It is an interface to do. Transmission / reception of information in the communication unit 7 is controlled by the communication control unit 17.

(音声出力部)
音声出力部8は、各種の情報を音声で出力するものであり、例えばスピーカーで構成される。音声出力部8は、後述する撮影状態の良否判定の結果や撮影状態の修正を促すメッセージ、情報抽出部14にて抽出された情報に基づく診断結果などを音声出力することができる。上記の診断結果は、当該装置で得られるものであってもよいし、外部機関で診断されて当該装置に送信されるものであってもよい。音声出力部8における音声出力は、音声出力制御部18によって制御される。
(Audio output part)
The audio output unit 8 outputs various kinds of information as audio, and is constituted by, for example, a speaker. The voice output unit 8 can output a voice of a result of determination of pass / fail of the shooting state described later, a message for prompting correction of the shooting state, a diagnosis result based on the information extracted by the information extraction unit 14, and the like. The diagnosis result may be obtained by the device, or may be diagnosed by an external engine and transmitted to the device. The audio output in the audio output unit 8 is controlled by the audio output control unit 18.

上記した表示部5および音声出力部8は、後述する判定部15の判定結果を出力(表示、音声出力)する出力部を構成している。   The display unit 5 and the audio output unit 8 described above constitute an output unit that outputs (displays and outputs audio) a determination result of the determination unit 15 described later.

本実施形態の器官画像撮影装置1は、上記の他にも、情報抽出部14、判定部15および記憶部16を備えている。   In addition to the above, the organ imaging apparatus 1 of the present embodiment includes an information extraction unit 14, a determination unit 15, and a storage unit 16.

(情報抽出部)
情報抽出部14は、撮像部4にて取得された画像から、舌の輪郭線を抽出する処理を行う画像処理部である。本実施形態では、情報抽出部14は、撮影画像の輝度エッジ(画像の中で急激に明るさが変化している部分)に基づいて、口腔領域の輪郭線を抽出する。
(Information extraction unit)
The information extraction unit 14 is an image processing unit that performs processing for extracting a contour line of the tongue from the image acquired by the imaging unit 4. In the present embodiment, the information extraction unit 14 extracts the contour line of the oral cavity region based on the luminance edge of the captured image (the portion in which the brightness is rapidly changed in the image).

輝度エッジの抽出は、例えば図4に示すようなエッジ抽出フィルタを用いて行うことができる。エッジ抽出フィルタは、1次微分をするときに(隣接画素間で画像データの差分をとるときに)、注目画素の近傍の画素に重みを付けるフィルタである。このようなエッジ抽出フィルタを用い、例えば、撮影画像の各画素のRの画像データについて、注目画素と近傍画素とで画像データの差分を取り、その差分値が所定の閾値を超える画素を抽出することで、輝度エッジとなる画素を抽出できる。唇内側の口腔領域には、唇の影や歯に起因する輝度差が存在するため、上記のように輝度エッジとなる画素を抽出することにより、口腔領域の輪郭線Qを抽出することができる。   Luminance edge extraction can be performed using an edge extraction filter as shown in FIG. 4, for example. The edge extraction filter is a filter that weights pixels in the vicinity of the target pixel when performing first-order differentiation (when obtaining a difference in image data between adjacent pixels). Using such an edge extraction filter, for example, with respect to R image data of each pixel of the captured image, a difference between the image data is calculated between the target pixel and a neighboring pixel, and a pixel whose difference value exceeds a predetermined threshold is extracted. Thus, a pixel that becomes a luminance edge can be extracted. Since there is a luminance difference due to the shadow and teeth of the lips in the oral cavity area inside the lips, the contour line Q of the oral cavity area can be extracted by extracting pixels that become luminance edges as described above. .

なお、情報抽出部14は、輝度エッジの代わりに、画像の距離情報を用いて輪郭線を抽出してもよい。唇は撮像部4に最も近い位置にあるため、距離情報を用いることにより、口腔内との境界を検出することができる。   Note that the information extraction unit 14 may extract the contour line using the distance information of the image instead of the luminance edge. Since the lips are closest to the imaging unit 4, the boundary with the oral cavity can be detected by using the distance information.

また、情報抽出部14は、撮像部4での撮影によって取得された器官の画像から、器官の診断に必要な情報(診断用情報)を抽出する。ここで、図5は、東洋医学において、舌と苔に関する代表的な診断項目を示している。一般的に、舌については、舌の色、舌の厚さ、舌表面の湿り気(光沢度)、舌の形(歯痕)、裂紋(舌表面の亀裂)の5項目が診断項目として挙げられる。また、苔については、苔の色、苔の滑らかさ(乳頭組織の分離度)、苔の厚さ、苔の有無、苔の分布状態の5項目が診断項目として挙げられる。図5の「状態の変化」において、○印は、正常(健康)な状態を示しており、そこから離れると、異常(病気)の状態となる。   Further, the information extraction unit 14 extracts information (diagnosis information) necessary for organ diagnosis from the organ image acquired by imaging by the imaging unit 4. Here, FIG. 5 shows typical diagnostic items related to the tongue and moss in Oriental medicine. In general, as for the tongue, five items of the color of the tongue, the thickness of the tongue, the wetness of the tongue surface (glossiness), the shape of the tongue (tooth marks), and the cleft (crack of the tongue surface) are listed as diagnostic items. . As for the moss, diagnostic items include five items: moss color, moss smoothness (degree of nipple tissue separation), moss thickness, moss presence / absence, and moss distribution. In “change of state” in FIG. 5, a circle indicates a normal (healthy) state, and an abnormal (disease) state occurs when the user leaves the state.

これらの診断項目は、舌の診断用情報である。さらに、舌の湾曲度については、後述するように舌の厚さを判断するのに必要であり、舌の輪郭線については、歯痕の有無を判断するのに必要である。したがって、舌の湾曲度および輪郭線についても、舌の診断用情報となり得る。なお、輪郭線以外の診断用情報の具体的な抽出方法については後述する。   These diagnostic items are information for diagnosing the tongue. Further, the degree of tongue curvature is necessary to determine the thickness of the tongue, as will be described later, and the outline of the tongue is necessary to determine the presence or absence of tooth marks. Therefore, the tongue bending degree and the contour line can also be information for tongue diagnosis. A specific method for extracting diagnostic information other than the outline will be described later.

(判定部)
判定部15は、撮像部4での撮影によって取得される画像から、撮影状態の良否判定のための判定情報を抽出し、その判定情報に基づいて撮影状態の良否を判定する。上記の判定情報は、上述した診断用情報と同じ情報を含んでいる。これにより、判定部15は、診断用情報に基づいて、撮影状態の良否を判定することが可能となる。なお、良否判定の具体的な方法については後述する。撮影状態の良否判定後、撮像部4は、良否判定の結果に応じて、撮像制御部11によって制御される。なお、上記の判定部15は、上述した情報抽出部14と一体的に構成されてもよい(判定部15が情報抽出部14を兼ねていてもよい)。
(Judgment part)
The determination unit 15 extracts determination information for determining the quality of the shooting state from the image acquired by shooting with the imaging unit 4, and determines the quality of the shooting state based on the determination information. The determination information includes the same information as the diagnosis information described above. Thereby, the determination part 15 can determine the quality of the imaging state based on the diagnostic information. In addition, the specific method of quality determination is mentioned later. After the quality determination of the shooting state, the imaging unit 4 is controlled by the imaging control unit 11 according to the result of the quality determination. In addition, said determination part 15 may be comprised integrally with the information extraction part 14 mentioned above (the determination part 15 may serve as the information extraction part 14).

(記憶部)
記憶部16は、撮像部4にて取得した画像のデータ、情報抽出部14および判定部15で取得した情報、外部の装置から送信された情報などを記憶したり、上述した各種の制御部を動作させるためのプログラムを記憶するメモリである。このようなメモリは、RAM、ROM、不揮発性メモリなどを含んで構成することが可能である。
(Memory part)
The storage unit 16 stores image data acquired by the imaging unit 4, information acquired by the information extraction unit 14 and the determination unit 15, information transmitted from an external device, and the like. It is a memory for storing a program for operating. Such a memory can include a RAM, a ROM, a nonvolatile memory, and the like.

(制御部等)
器官画像撮影装置1は、照明制御部9、投光制御部10、撮像制御部11、表示制御部12、操作制御部13、情報抽出部14、判定部15、記憶部16、通信制御部17、音声出力制御部18およびこれらの各部を制御する全体制御部20をさらに備えている。照明制御部9、投光制御部10、撮像制御部11、表示制御部12、操作制御部13、通信制御部17および音声出力制御部18は、上述したように、照明部2、投光部3、撮像部4、表示部5、操作部6、通信部7および音声出力部8をそれぞれ制御する。全体制御部20は、例えばCPU(Central Processing Unit)で構成されており、記憶部16に記憶されている動作プログラムを実行する。なお、照明制御部9、投光制御部10、撮像制御部11、表示制御部12、操作制御部13、通信制御部17および音声出力制御部18と、全体制御部20とは、一体的に(例えば1つのCPUで)構成されてもよい。
(Control unit, etc.)
The organ imaging apparatus 1 includes an illumination control unit 9, a light projection control unit 10, an imaging control unit 11, a display control unit 12, an operation control unit 13, an information extraction unit 14, a determination unit 15, a storage unit 16, and a communication control unit 17. The audio output control unit 18 and an overall control unit 20 for controlling these units are further provided. As described above, the illumination control unit 9, the light projection control unit 10, the imaging control unit 11, the display control unit 12, the operation control unit 13, the communication control unit 17, and the audio output control unit 18 are the illumination unit 2, the light projection unit. 3, the imaging part 4, the display part 5, the operation part 6, the communication part 7, and the audio | voice output part 8 are each controlled. The overall control unit 20 is configured by a CPU (Central Processing Unit), for example, and executes an operation program stored in the storage unit 16. The illumination control unit 9, the light projection control unit 10, the imaging control unit 11, the display control unit 12, the operation control unit 13, the communication control unit 17, the audio output control unit 18, and the overall control unit 20 are integrated. It may be configured (for example, with one CPU).

〔2.診断用情報の抽出方法〕
次に、情報抽出部14による診断用情報の抽出方法について説明する。
[2. (Method for extracting diagnostic information)
Next, a method for extracting diagnostic information by the information extracting unit 14 will be described.

(舌の色、苔の色、苔の厚さの抽出)
図6は、舌の撮影画像を示している。以下では、舌の撮影画像において、舌の左右方向の中央で上下方向に帯状に形成される領域を上下方向に並ぶ3つの領域に分けたときに、それぞれの領域を、上部領域R1、中央領域R2、下部領域R3と称することとする。なお、これらの領域は、情報抽出部14で検出される舌の輪郭線Qで囲まれる領域の左右方向の幅W、上下方向の長さHをもとに、図6に示すサイズで規定されるが、図示したサイズは一例であり、これに限定されるわけではない。
(Extraction of tongue color, moss color, moss thickness)
FIG. 6 shows a photographed image of the tongue. In the following, in the photographed image of the tongue, when the region formed in the vertical direction at the center in the left-right direction of the tongue is divided into three regions arranged in the vertical direction, each region is divided into the upper region R1, the central region. These are referred to as R2 and lower region R3. These regions are defined by the size shown in FIG. 6 based on the width W in the horizontal direction and the length H in the vertical direction of the region surrounded by the contour line Q of the tongue detected by the information extraction unit 14. However, the illustrated size is an example, and the present invention is not limited to this.

舌の色は、血液の色を反映するため、RGBの画像データのうちで、主にR成分またはB成分が増減する。このため、舌の下部領域R3におけるRの比率(R/(R+G+B))またはBの比率(B/(R+G+B))を求めることにより、舌の色を定量化して抽出することができる。なお、上記のRGBのデータとしては、下部領域R3を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。   Since the color of the tongue reflects the color of blood, the R component or the B component mainly increases or decreases in the RGB image data. Therefore, by obtaining the ratio of R (R / (R + G + B)) or the ratio of B (B / (R + G + B)) in the lower tongue region R3, the color of the tongue can be quantified and extracted. As the RGB data, an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the lower region R3 can be used. .

なお、舌の色の抽出の際に、舌の下部領域R3の画像データを使用しているのは、以下の理由による。すなわち、漢方医学で用いられている舌診では、舌の色は、一般に、苔の無い舌の左右端部か、舌の中心下部で診断されているが、舌の左右端部は、表面の凹凸により照明光の当たり方が変化して濃淡が発生しやすく、画像データが本来の舌の色を示す値から変動しやすいためである。   The reason why the image data of the lower tongue region R3 is used in extracting the tongue color is as follows. That is, in tongue examination used in Kampo medicine, the color of the tongue is generally diagnosed at the left and right ends of the tongue without moss or at the lower center of the tongue, but the left and right ends of the tongue are This is because the way in which the illumination light strikes changes due to the unevenness, so that shading tends to occur, and the image data tends to fluctuate from a value indicating the original tongue color.

苔の色は、角化組織の分量により、白から茶色を呈するため、RGBの画像データのうちで、主にG成分または(G+R)成分が増減する。このため、舌の上部領域R1におけるGの比率(G/(R+G+B))または(G+R)の比率((G+R)/(R+G+B))を求めることにより、苔の色を定量化して抽出することができる。なお、上記のRGBのデータとしては、上部領域R1を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。   The moss color changes from white to brown depending on the amount of keratinized tissue, and therefore the G component or (G + R) component mainly increases or decreases in the RGB image data. Therefore, it is possible to quantify and extract the color of moss by determining the ratio of G (G / (R + G + B)) or the ratio of (G + R) ((G + R) / (R + G + B)) in the upper region R1 of the tongue. it can. As the RGB data, an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the upper region R1 can be used. .

なお、苔の色の抽出の際に、舌の上部領域R1の画像データを使用しているのは、苔は、舌粘膜の乳頭組織が角化したものであり、舌の上部から中央にかけて存在し、特に上部に多いためである。   When extracting the color of the moss, the image data of the upper region R1 of the tongue is used because the moss is a keratinized papillary tissue of the lingual mucosa and exists from the upper part of the tongue to the center. This is because there are many in the upper part.

苔は、厚くなると舌の赤色から苔の白色に変化するため、RGBの画像データのうちで、主にR成分またはG成分が増減する。このため、舌の中央領域R2におけるRの比率(R/(R+G+B))またはGの比率(G/(R+G+B))を求めることにより、苔の厚さを定量化して抽出することができる。なお、上記のRGBのデータとしては、中央領域R2を構成する複数の画素間でのRの画像データの平均値、Gの画像データの平均値、Bの画像データの平均値を用いることができる。   As the moss becomes thicker, the red color of the tongue changes to the white color of the moss, so that the R component or G component mainly increases or decreases in the RGB image data. For this reason, the thickness of moss can be quantified and extracted by determining the ratio of R (R / (R + G + B)) or the ratio of G (G / (R + G + B)) in the central region R2 of the tongue. As the RGB data, an average value of R image data, an average value of G image data, and an average value of B image data among a plurality of pixels constituting the central region R2 can be used. .

なお、苔の厚さの抽出の際に、舌の中央領域R2の画像データを使用しているのは、苔は上述のように舌の上部に存在し、中央領域R2の色が上部領域R1の色に近いか否かで、苔の厚さを判断できるためである。なお、舌の上部領域R1と中央領域R2との色の差(例えば色度差)と、中央領域R2と下部領域R3との色の差(例えば色度差)との比率を求めることにより、苔の厚さを定量化することもできる。   It should be noted that the image data of the tongue central region R2 is used when extracting the thickness of the moss because the moss exists at the upper part of the tongue as described above, and the color of the central region R2 is the upper region R1. This is because the thickness of the moss can be determined by whether or not the color of the moss is close. By calculating the ratio of the color difference (for example, chromaticity difference) between the upper region R1 and the central region R2 of the tongue and the color difference (for example, chromaticity difference) between the central region R2 and the lower region R3, The thickness of moss can also be quantified.

(歯痕の抽出)
情報抽出部14は、舌の輪郭線を近似曲線で近似し、輪郭線と近似曲線との相関度に基づいて、輪郭線の凹凸(滑らかさ)を検出し、それによって舌の歯痕を検出する。近似曲線は細かい凹凸の無い滑らかな曲線であるため、輪郭線がこの近似曲線に近いほど、滑らかで歯痕が少ないと言える。すなわち、輪郭線と近似曲線との相関度が高いほど歯痕が少なく、相関度が低いほど歯痕が多いことになる。
(Extraction of tooth marks)
The information extraction unit 14 approximates the contour line of the tongue with an approximate curve, and detects unevenness (smoothness) of the contour line based on the degree of correlation between the contour line and the approximate curve, thereby detecting the tooth trace on the tongue. To do. Since the approximate curve is a smooth curve without fine irregularities, it can be said that the closer the contour line is to the approximate curve, the smoother and less the tooth trace. That is, the higher the degree of correlation between the contour line and the approximate curve, the fewer the tooth traces, and the lower the degree of correlation, the more tooth traces.

したがって、相関度に基づいて、歯痕の状態を検出することができる。例えば、相関度が高い場合は、歯痕の状態が軽度(レベル1)であり、相関度が低い場合は、歯痕の状態が重度(レベル3)であり、相関度がその中間の場合は、歯痕の状態が軽度と重度との中間(レベル2)であると判断することができる。   Therefore, the state of the tooth trace can be detected based on the degree of correlation. For example, when the degree of correlation is high, the state of the tooth mark is mild (level 1), when the degree of correlation is low, the state of the tooth mark is severe (level 3), and the degree of correlation is intermediate It can be determined that the state of the tooth trace is intermediate (level 2) between mild and severe.

ここで、2者の相関度を表す指標としては、以下の第1〜第3の指標を用いることができる。   Here, the following first to third indices can be used as indices representing the degree of correlation between the two parties.

相関度を表す第1の指標は、以下の式で表わされる決定係数R2である。
2=1−{(Σ(yi−fi)2)/(Σ(yi−Y)2)}
ただし、
i :xy平面上で、輪郭線または近似曲線の一端部のx座標をjとし、
他端部のx座標をkとしたときの、jからkまでのいずれかの値
yi:xy平面上で、輪郭線上の点のx座標iにおけるy座標の値
fi:xy平面上で、近似曲線上の点のx座標iにおけるy座標の値
Y :輪郭線上の全ての点についてのyiの平均値
である。なお、i,j,kは、いずれも整数であり、j<kであり、j≦i≦kである。また、Σ(yi−fi)2は、iをjからkまで変化させたときの(yi−fi)2の総和を指し、Σ(yi−Y)2は、iをjからkまで変化させたときの(yi−Y)2の総和を指す。
A first index representing the degree of correlation is a determination coefficient R 2 represented by the following equation.
R 2 = 1 − {(Σ (yi−fi) 2 ) / (Σ (yi−Y) 2 )}
However,
i: On the xy plane, let j be the x coordinate of one end of the contour line or approximate curve,
Any value from j to k when the x-coordinate of the other end is set to k. Yi: y-coordinate value at the x-coordinate i of the point on the contour line fi: approximation on the xy-plane Value of y coordinate at x coordinate i of point on curve Y: Average value of yi for all points on contour line. Note that i, j, and k are all integers, j <k, and j ≦ i ≦ k. Σ (yi−fi) 2 indicates the sum of (yi−fi) 2 when i is changed from j to k, and Σ (yi−Y) 2 changes i from j to k. The sum of (yi-Y) 2 at the time.

図7は、舌の輪郭線(実線参照)およびその近似曲線(破線参照)と、近似曲線を表す多項式と、決定係数R2とを示している。近似曲線は、最小二乗法によって求められ、以下の多項式で表されている。このときの決定係数R2は、0.9942である。なお、同図の近似曲線の係数において、「E−n」の表記は、×10-nであることを示す。
y=5×10-7・x4+6×10-6・x3+2×10-3・x2+6.29×10-2・x+21.213
Figure 7 shows the tongue contour lines (see the solid line) and the approximate curve (see the broken line), and the polynomial representing the approximate curve, and a coefficient of determination R 2. The approximate curve is obtained by the least square method and is expressed by the following polynomial. The determination coefficient R 2 at this time is 0.9942. In addition, in the coefficient of the approximate curve in the figure, the notation “E−n” indicates × 10 −n .
y = 5 × 10 −7 · x 4 + 6 × 10 −6 · x 3 + 2 × 10 −3 · x 2 + 6.29 × 10 −2 · x + 21.213

歯痕が重度である(輪郭線の凹凸が大きい)A部においても、歯痕が軽度である(輪郭線の凹凸が小さい)B部においても、輪郭線と近似曲線との差が決定係数R2に反映される。したがって、決定係数R2に基づいて歯痕を検出する手法を用いると、仮に、歯痕が軽度の歯痕のみである場合でも、決定係数R2に基づいて、その軽度の歯痕を検出することが可能となり、歯痕の検出精度を向上させることができる。 The difference between the contour line and the approximate curve is determined by the determination coefficient R even in the portion A where the tooth trace is severe (the contour contour is large) and in the portion B where the tooth trace is mild (the contour contour is small). Reflected in 2 . Therefore, if a method of detecting a tooth trace based on the determination coefficient R 2 is used, even if the tooth trace is only a slight tooth trace, the light tooth trace is detected based on the determination coefficient R 2. This makes it possible to improve the detection accuracy of tooth marks.

相関度を表す第2の指標は、輪郭線と近似曲線とにおける座標値(y座標)の差に基づいて得られる値であって、|yi−fi|の最大値(以下では「座標値差の最大値」とも言う)である。ただし、
i :xy平面上で、輪郭線または近似曲線の一端部のx座標をjとし、
他端部のx座標をkとしたときの、jからkまでのいずれかの値
yi:xy平面上で、輪郭線上の点のx座標iにおけるy座標の値
fi:xy平面上で、近似曲線上の点のx座標iにおけるy座標の値
である。なお、i,j,kは、いずれも整数であり、j<kであり、j≦i≦kである。
The second index representing the degree of correlation is a value obtained based on the difference between the coordinate values (y coordinates) between the contour line and the approximate curve, and is the maximum value of | yi−fi | It is also called “the maximum value of”. However,
i: On the xy plane, let j be the x coordinate of one end of the contour line or approximate curve,
Any value from j to k when the x-coordinate of the other end is set to k. Yi: y-coordinate value at the x-coordinate i of the point on the contour line fi: approximation on the xy-plane This is the value of the y coordinate at the x coordinate i of the point on the curve. Note that i, j, and k are all integers, j <k, and j ≦ i ≦ k.

図8は、図7で示した舌の輪郭線とその近似曲線(xy多項式)とでのy座標の差(|yi−fi|)をプロットしたグラフである。歯痕が重度であるA部においても、歯痕が軽度であるB部においても、|yi−fi|の値が歯痕のない部位に比べて大きくなる。したがって、仮に、歯痕が軽度の歯痕のみである場合でも、|yi−fi|の最大値を検出することで、その値に基づいて軽度の歯痕を検出することが可能となり、歯痕の検出精度を向上させることができる。   FIG. 8 is a graph in which the difference (| yi−fi |) of the y coordinate between the contour line of the tongue shown in FIG. 7 and its approximate curve (xy polynomial) is plotted. The value of | yi-fi | is larger in the part A where the tooth mark is severe and in the part B where the tooth mark is mild than in the part without the tooth mark. Therefore, even if the tooth trace is only a slight tooth trace, by detecting the maximum value of | yi-fi |, it becomes possible to detect a slight tooth trace based on that value. Detection accuracy can be improved.

相関度を表す第3の指標は、輪郭線と近似曲線とにおける座標値(y座標)の差に基づいて得られる値であって、以下の式で表される係数Aである。すなわち、
A=Σ|yi−fi|
ただし、
i :xy平面上で、輪郭線または近似曲線の一端部のx座標をjとし、
他端部のx座標をkとしたときの、jからkまでのいずれかの値
yi:xy平面上で、輪郭線上の点のx座標iにおけるy座標の値
fi:xy平面上で、近似曲線上の点のx座標iにおけるy座標の値
である。なお、i,j,kは、いずれも整数であり、j<kであり、j≦i≦kである。また、Σ|yi−fi|は、iをjからkまで変化させたときの|yi−fi|の総和(以下では「座標値差の総和」とも言う)を指す。
The third index representing the degree of correlation is a value obtained based on the difference between the coordinate values (y coordinates) between the contour line and the approximate curve, and is a coefficient A represented by the following equation. That is,
A = Σ | yi-fi |
However,
i: On the xy plane, let j be the x coordinate of one end of the contour line or approximate curve,
Any value from j to k when the x-coordinate of the other end is set to k. Yi: y-coordinate value at the x-coordinate i of the point on the contour line fi: approximation on the xy-plane This is the value of the y coordinate at the x coordinate i of the point on the curve. Note that i, j, and k are all integers, j <k, and j ≦ i ≦ k. Σ | yi−fi | indicates the sum of | yi−fi | when i is changed from j to k (hereinafter, also referred to as “sum of coordinate value differences”).

座標値差の最大値の代わりに、座標値差の総和を用いることにより、細かな歯痕の影響を正確に反映した歯痕検出を行うことができ、歯痕の検出精度をさらに向上させることができる。   By using the sum of coordinate value differences instead of the maximum coordinate value difference, it is possible to detect tooth marks that accurately reflect the influence of fine tooth marks, and to further improve the detection accuracy of tooth marks Can do.

なお、相関度として、座標値差の総和の逆数、すなわち、1/(Σ|yi−fi|)の値を用いてもよい。   Note that the reciprocal of the sum of the coordinate value differences, that is, the value of 1 / (Σ | yi−fi |) may be used as the degree of correlation.

(湿り気(光沢度)の抽出)
図9は、舌の撮影画像と舌の断面形状とを示している。舌を撮影する際、舌は口腔から前方に突き出される。その突き出された舌の上唇側の表面を撮像部4で撮影するため、舌はその上唇側の表面が撮像部4側に凸になるように湾曲している(C−C’断面参照)。なお、必要に応じて、仕様書やマニュアルに舌の出し方を規定しておき、舌を適切な撮影位置に案内するようにしてもよい。
(Extraction of dampness (glossiness))
FIG. 9 shows a photographed image of the tongue and a sectional shape of the tongue. When photographing the tongue, the tongue is projected forward from the oral cavity. In order for the imaging unit 4 to photograph the surface of the protruding upper lip side of the tongue, the tongue is curved so that the upper lip side surface is convex toward the imaging unit 4 side (see the CC ′ section). If necessary, the tongue may be defined in a specification or manual so that the tongue is guided to an appropriate photographing position.

図3で示した照明部2および撮像部4の配置で舌を撮影すると、舌の上半分に正反射領域が発生する(照明部2が撮影光軸Xに対して上方にあるため)。一方、舌の左右方向については、舌の中心と左右端がともに凹んでM字状に湾曲している(D−D’断面参照)。このような断面形状は、舌の上部から下部にかけてほぼ同様である。さらに、舌の中央部Eには、亀裂による模様が入っていることがある。したがって、ここでは、照明時の角度aを15度に設定し、舌の上半分で、かつ、左右方向の中央部および両端部を避けた残りの領域を、光沢度の検出に適した検出領域として設定する。   When the tongue is photographed with the arrangement of the illumination unit 2 and the imaging unit 4 shown in FIG. 3, a regular reflection region is generated in the upper half of the tongue (because the illumination unit 2 is above the photographing optical axis X). On the other hand, with respect to the left-right direction of the tongue, both the center and left and right ends of the tongue are recessed and curved in an M shape (see the section D-D '). Such a cross-sectional shape is substantially the same from the upper part to the lower part of the tongue. Furthermore, the central part E of the tongue may have a crack pattern. Therefore, here, the angle a at the time of illumination is set to 15 degrees, and the remaining area on the upper half of the tongue and avoiding the center and both ends in the left-right direction is a detection area suitable for detecting the glossiness. Set as.

より具体的には、情報抽出部14は、舌の輪郭線Qから、舌の上下端および左右端を検出して、舌の上下の長さHおよび左右の幅Wを検出し、図10に示す位置関係となるように、舌の輪郭線Qを基準にして光沢度の検出領域R4・R5を設定している。   More specifically, the information extraction unit 14 detects the upper and lower ends and the left and right ends of the tongue from the contour line Q of the tongue, detects the vertical length H and the horizontal width W of the tongue, and FIG. Glossiness detection regions R4 and R5 are set with reference to the contour line Q of the tongue so that the positional relationship shown in FIG.

図11は、舌の分光分布を示すグラフである。舌は粘膜構造であり、表皮が無いため、舌の色としては、血液の色が現れる。血液は、R成分(波長600nm〜700nm)が多く、B成分(波長500nm以下)が少ない。また、舌の色が淡い場合には、R成分の比率が下がり、濃い場合にはR成分の比率が上がる。   FIG. 11 is a graph showing the spectral distribution of the tongue. Since the tongue has a mucosal structure and no epidermis, the color of the blood appears as the color of the tongue. Blood has a large R component (wavelength 600 nm to 700 nm) and a small amount of B component (wavelength 500 nm or less). Further, when the color of the tongue is light, the ratio of the R component decreases, and when it is dark, the ratio of the R component increases.

一方、苔は角化した乳頭細胞で形成されており、白色から黄色を呈する。そして、苔が薄い場合には、下地となる舌の色が現れるため、同図のようにR成分の比率が高くなり、苔が白く、濃い場合には、G成分(波長500nm〜600nm)の比率が上がる。   On the other hand, moss is formed of keratinized papillary cells and exhibits a white to yellow color. And when the moss is thin, the color of the tongue as a base appears, so the ratio of the R component becomes high as shown in the figure, and when the moss is white and dark, the G component (wavelength 500 nm to 600 nm) The ratio goes up.

生体の体調や個人差により、舌と苔の色は上記のように変化するが、B成分の変化は少ない。そこで、本実施形態では、舌の撮影画像から得られるBの画像データに基づき、以下のようにして舌の表面の光沢度を検出する。   Depending on the physical condition of the living body and individual differences, the color of the tongue and moss changes as described above, but the change in the B component is small. Therefore, in the present embodiment, the glossiness of the tongue surface is detected as follows based on the B image data obtained from the photographed image of the tongue.

まず、情報抽出部14は、撮影画像の検出領域R4・R5の各画素からBの画像データを抽出して、その度数分布を作成する。図12は、抽出したBの画像データの度数分布を模式的に示している。なお、図12の横軸は、Bの画素値(画像データ)を示し、縦軸は度数(画素数)を示している。ただし、ここでの説明を簡略化するため、画素値は、1から100までの値とし、画素値が大きいほど明るいことを示す。   First, the information extraction unit 14 extracts B image data from each pixel in the detection regions R4 and R5 of the captured image, and creates a frequency distribution thereof. FIG. 12 schematically shows the frequency distribution of the extracted B image data. In FIG. 12, the horizontal axis indicates the B pixel value (image data), and the vertical axis indicates the frequency (number of pixels). However, in order to simplify the description here, the pixel value is a value from 1 to 100, and the larger the pixel value, the brighter the pixel value.

次に、情報抽出部14は、上記の度数分布より、最大度数Npに対応する画素値Dpを求め(図12の例ではDp=70)、この画素値Dpを1.2倍した値を閾値Mとし(図12の例ではM=84)、閾値Mから画像データの最大値(最大画素値Dm=100)までの区間における度数の総和を上位画素数として積算する。なお、画素値Dpを求めるにあたって、度数の変化を連続的に示す関数を求めてこれをスムージングし、ノイズを除去してから、最大度数Npに対応する画素値Dpを求めるようにしてもよい。また、スムージング後の関数を所定の区間で積分して上位画素数を求めるようにしてもよい。   Next, the information extraction unit 14 obtains a pixel value Dp corresponding to the maximum frequency Np from the above frequency distribution (Dp = 70 in the example of FIG. 12), and sets a value obtained by multiplying the pixel value Dp by 1.2 as a threshold value. M (M = 84 in the example of FIG. 12), the sum of the frequencies in the section from the threshold value M to the maximum value of the image data (maximum pixel value Dm = 100) is integrated as the number of upper pixels. In determining the pixel value Dp, a function that continuously indicates the frequency change may be obtained and smoothed to remove the noise, and then the pixel value Dp corresponding to the maximum frequency Np may be obtained. Alternatively, the number of upper pixels may be obtained by integrating the smoothed function over a predetermined interval.

ここで、Bの画像データの度数分布は、撮影時に舌の表面での正反射がない場合、正規分布に近い分布(第1の群G1)のみとなるが、正反射がある場合、第1の群G1に、高画素値側で度数が大きい分布(第2の群G2)が加算されたものとなる。しかも、Bの画像データは、上述のように生体の体調や個人差による変化が少ないため、第1の群G1の幅(第1の群G1の最小画素値から最大画素値までの幅)は、他のRやGの画像データの度数分布(正規分布)に比べて狭くなる。その結果、第1の群G1と第2の群G2との境界(度数が減少から増加に転じるような極小となる部分)が、度数が最大となる画像データの値(画素値Dp)と画像データの最大値(画素値Dm)との間で明確に現れ、第1の群G1と第2の群G2とを容易に識別することが可能となる。光沢度を検出するためには、光沢成分(正反射成分)を含まない第1の群G1ではなく、光沢成分を表す第2の群G2に基づいて光沢度を検出することが望ましい。   Here, the frequency distribution of the B image data is only a distribution close to the normal distribution (first group G1) when there is no regular reflection on the surface of the tongue at the time of photographing, but when there is a regular reflection, the first distribution is first. A distribution (second group G2) having a large frequency on the high pixel value side is added to the group G1. In addition, since the image data of B hardly changes due to the physical condition of the living body or individual differences as described above, the width of the first group G1 (the width from the minimum pixel value to the maximum pixel value of the first group G1) is This is narrower than the frequency distribution (normal distribution) of other R and G image data. As a result, the boundary between the first group G1 and the second group G2 (the portion where the frequency is minimized so that the frequency starts to increase from the decrease) is the value of the image data (pixel value Dp) and the image where the frequency is maximum. It clearly appears between the maximum value of data (pixel value Dm), and the first group G1 and the second group G2 can be easily identified. In order to detect the gloss level, it is desirable to detect the gloss level based on the second group G2 representing the gloss component, not the first group G1 not including the gloss component (regular reflection component).

そこで、情報抽出部14は、画素値Dpよりも大きい閾値Mを設定し、この閾値Mと画素値Dmとの間の度数の総和を上位画素数として求めることにより、第2の群G2の度数の総和に近い値を得るようにしている。   Therefore, the information extraction unit 14 sets a threshold value M larger than the pixel value Dp, and obtains the sum of the frequencies between the threshold value M and the pixel value Dm as the number of upper pixels, whereby the frequency of the second group G2 A value close to the sum of is obtained.

特に、Bの画像データの度数分布においては、第1の群G1と第2の群G2との境界が、画素値Dpの1.1〜1.3倍の範囲内で現れることが実験的にわかっている。このため、本実施形態では、情報抽出部14は、上記の閾値Mを、画素値Dpの1.1〜1.3倍の範囲内(図12の例では、1.2Dp=84)に設定し、閾値Mと画素値Dmとの間の度数の総和を上位画素数として求めるようにしている。   Particularly, in the frequency distribution of the B image data, it is experimentally shown that the boundary between the first group G1 and the second group G2 appears within a range of 1.1 to 1.3 times the pixel value Dp. know. For this reason, in this embodiment, the information extraction unit 14 sets the threshold value M within a range of 1.1 to 1.3 times the pixel value Dp (1.2Dp = 84 in the example of FIG. 12). The sum of the frequencies between the threshold value M and the pixel value Dm is obtained as the upper pixel number.

舌が乾燥している(光沢度が低い)症例では、上位画素数が少ないことがわかっており、舌が湿潤である(光沢度が高い)症例では、上位画素数が多いことがわかっている。したがって、情報抽出部14は、上位画素数に基づいて、光沢度を例えばレベル1(光沢度高い)〜レベル3(光沢度低い)に数値化して検出することができる。   Cases with dry tongue (low gloss) are known to have a low number of top pixels, and cases with wet tongue (high gloss) have a high number of top pixels . Therefore, the information extraction unit 14 can detect and detect the glossiness from, for example, level 1 (high glossiness) to level 3 (low glossiness) based on the number of upper pixels.

(裂紋(亀裂)の抽出)
図13は、表面に亀裂がある舌の撮影画像を示している。舌を撮影する際、舌は口腔から前方に突き出される。その突き出された舌の上唇側の表面を撮像部4で撮影する。一般に、舌表面の亀裂は、舌の中心付近で多く発生するため、本実施形態では、撮影画像における舌の上下左右の中心部(上下左右方向の中心を含む領域)を、亀裂の検出に適した検出領域として設定している。
(Extraction of cracks)
FIG. 13 shows a photographed image of a tongue having a crack on the surface. When photographing the tongue, the tongue is projected forward from the oral cavity. The imaging unit 4 captures the surface of the protruding tongue on the upper lip side. In general, since many cracks on the tongue surface occur near the center of the tongue, in this embodiment, the upper and lower and right and left central portions (regions including the center in the vertical and horizontal directions) of the photographed image are suitable for crack detection. Is set as a detection area.

より具体的には、情報抽出部14は、求めた舌の輪郭線Qから、舌の上下端および左右端を検出して、舌の上下の長さ(縦寸法)Hおよび左右の幅(横寸法)Wを検出し、図13に示した寸法関係で定まる、縦H/4、横W/4の舌の中心領域を亀裂の検出領域Fとして設定している。   More specifically, the information extraction unit 14 detects the upper and lower ends and left and right ends of the tongue from the obtained tongue outline Q, and the vertical length (vertical dimension) H and the horizontal width (horizontal) of the tongue. Dimension) W is detected, and the center area of the tongue of length H / 4 and width W / 4 determined by the dimensional relationship shown in FIG. 13 is set as a crack detection area F.

舌の表面に亀裂があると、亀裂がない場合に比べて、舌の下地がより現れるため、下地を構成する画素の画像データの取り得る値の範囲が、RGBともに広がる。このため、撮影画像の画像データの度数分布を作成したときに、度数分布の幅が広がる。特に、下地は血液の色を強く表しているため、血液の色に多く含まれるRやBについては、亀裂がない場合に比べて度数分布の幅が顕著に広がる。このような傾向は、舌表面の苔の厚さや亀裂の長さに関係なく現れることがわかっている。   When there is a crack on the surface of the tongue, the base of the tongue appears more than when there is no crack, so the range of values that can be taken by the image data of the pixels constituting the base is expanded for both RGB. For this reason, when the frequency distribution of the image data of the captured image is created, the width of the frequency distribution is widened. In particular, since the background strongly expresses the color of blood, the width of the frequency distribution is remarkably widened for R and B contained in a large amount of blood color compared to the case where there is no crack. It is known that such a tendency appears regardless of the thickness of the moss on the tongue surface and the length of the crack.

そこで、本実施形態では、情報抽出部14は、舌の撮影画像(特に上述した検出領域Fの画像)から、例えばBの画像データの度数分布を作成するとともに、当該度数分布の広がりを示す指標として、画像データのバラツキを示す標準偏差σを演算により取得するようにしている。標準偏差σは、画像データの値が、N個の値x1、x2、・・・xNをとるとき、以下の式で示される分散σ2の正の平方根である。 Therefore, in the present embodiment, the information extraction unit 14 creates a frequency distribution of, for example, B image data from the photographed image of the tongue (particularly the image of the detection region F described above) and an index indicating the spread of the frequency distribution. As described above, the standard deviation σ indicating the variation in the image data is obtained by calculation. The standard deviation σ is a positive square root of the variance σ 2 represented by the following equation when the value of the image data takes N values x 1 , x 2 ,.

Figure 2016168303
Figure 2016168303

図14は、情報抽出部14が作成したBの画像データの度数分布を模式的に示したものであり、上段の度数分布は舌表面に亀裂がない場合を示し、下段の度数分布は舌表面に亀裂がある場合を示している。なお、これらの度数分布の横軸は、Bの画素値(画像データ)を示し、縦軸は度数(画素数)を示している。画素値は0から255までの値とし、画素値が大きいほど明るいことを示す。   FIG. 14 schematically shows the frequency distribution of the B image data created by the information extraction unit 14. The upper frequency distribution shows a case where there is no crack on the tongue surface, and the lower frequency distribution shows the tongue surface. Shows a case where there is a crack. Note that the horizontal axis of these frequency distributions indicates the B pixel value (image data), and the vertical axis indicates the frequency (number of pixels). The pixel value is a value from 0 to 255, and the larger the pixel value, the brighter the pixel value.

上段の度数分布における標準偏差σ1を求めると、σ1=13.18であった。これに対して、下段の度数分布における標準偏差σ2を求めると、σ2=26.78であった。このことから、舌表面に亀裂があると、亀裂がない場合に比べて標準偏差σが大きくなり、度数分布の幅が広がることがわかる。ちなみに、上段の度数分布における画素値の平均値m1を求めると、m1=177.71であり、下段の度数分布における画素値の平均値m2を求めると、m2=112.75であった。   When the standard deviation σ1 in the upper frequency distribution was obtained, σ1 = 13.18. On the other hand, when the standard deviation σ2 in the lower frequency distribution is obtained, σ2 = 26.78. From this, it can be seen that when there is a crack on the tongue surface, the standard deviation σ becomes larger than when there is no crack, and the width of the frequency distribution is widened. Incidentally, the average value m1 of the pixel values in the upper frequency distribution is m1 = 177.71, and the average value m2 of the pixel values in the lower frequency distribution is m2 = 112.75.

亀裂の多い症例では、上記度数分布の標準偏差が大きく、亀裂の少ない症例では、上記度数分布の標準偏差が小さいことがわかっている。したがって、情報抽出部14は、上記度数分布の標準偏差に基づいて、亀裂を例えばレベル1(亀裂多い)〜レベル3(亀裂少ない)に数値化して検出することができる。なお、上記の例では、Bの画像データの度数分布を用いて亀裂を検出しているが、他のRやGの画像データの度数分布を用いても亀裂を検出することは可能である。   It is known that the standard deviation of the frequency distribution is large in the case with many cracks, and the standard deviation of the frequency distribution is small in the case with few cracks. Therefore, the information extraction unit 14 can detect and detect cracks numerically, for example, from level 1 (many cracks) to level 3 (small cracks) based on the standard deviation of the frequency distribution. In the above example, the crack is detected using the frequency distribution of the B image data, but the crack can be detected using the frequency distribution of other R and G image data.

(苔の滑らかさの抽出)
苔の滑らかさは、乳頭に対する付着物の量によって変化する。すなわち、付着物が少ない場合には、苔が薄く、乳頭が独立して見えるために、ざらついた感じとなる。一方、付着物が多い場合には、苔が厚く、乳頭が舌の表面を覆うために、べったりとした感じとなる。そこで、情報抽出部14は、乳頭と下地とに関する画素数の比率によって、苔の滑らかさを検出することができる。
(Extraction of moss smoothness)
The smoothness of the moss varies with the amount of deposits on the teat. That is, when there is little deposit | attachment, since the moss is thin and a teat looks independent, it becomes a rough feeling. On the other hand, when there are many deposits, the moss is thick and the nipple covers the surface of the tongue. Therefore, the information extraction unit 14 can detect the smoothness of the moss based on the ratio of the number of pixels related to the nipple and the background.

具体的には、情報抽出部14は、苔が付着する舌の中央付近の領域(例えば図6の中央の領域R2)において、乳頭の画素と下地の画素とを色(例えばR)の閾値によって判別し、乳頭と下地との画素数の比率を算出する。下地の比率が高い場合には、苔が薄くてざらついていると判断でき、乳頭の比率が高い場合には、苔が厚くてべったりとしていると判断できる。上記画素数の比率の範囲を、苔の滑らかさについての3段階に対応付けておけば、実際に演算によって求めた画素数の比率に基づいて、苔の滑らかさの程度を判定することができる。   Specifically, the information extraction unit 14 determines a nipple pixel and a ground pixel by a color (for example, R) threshold in a region near the center of the tongue to which moss adheres (for example, the central region R2 in FIG. 6). It discriminate | determines and calculates the ratio of the number of pixels of a teat and a foundation | substrate. When the ratio of the groundwork is high, it can be determined that the moss is thin and rough, and when the ratio of the teat is high, it can be determined that the moss is thick and sticky. If the range of the ratio of the number of pixels is associated with three levels of moss smoothness, the degree of moss smoothness can be determined based on the ratio of the number of pixels actually obtained by calculation. .

(舌の厚さの抽出)
図15は、投光部3の概略の構成を示す斜視図である。同図に示すように、投光部3は、点光源31および柱状レンズ32と、点光源31を駆動する駆動回路(図示せず)とを有している。点光源31は、LD(Laser Diode )やLED(Light Emitting Diode)で構成されている。柱状レンズ32は、点光源31から出射された光を一方向(例えば上下方向)にのみ集光する、水平方向に柱状の集光レンズである。点光源31から出射された光が柱状レンズ32で一方向に集光されることで、図16に示すように、水平方向に長い線状の光が舌の表面に投光される。なお、投光部3a・3bは、柱状レンズ32の集光方向が異なるだけで(一方は上下方向に集光、他方は左右方向に集光)、点光源31と柱状レンズ32とを有している点では共通している。
(Extraction of tongue thickness)
FIG. 15 is a perspective view illustrating a schematic configuration of the light projecting unit 3. As shown in the figure, the light projecting unit 3 includes a point light source 31 and a columnar lens 32, and a drive circuit (not shown) that drives the point light source 31. The point light source 31 is configured by an LD (Laser Diode) or an LED (Light Emitting Diode). The columnar lens 32 is a horizontal columnar condensing lens that condenses light emitted from the point light source 31 only in one direction (for example, the vertical direction). As the light emitted from the point light source 31 is condensed in one direction by the columnar lens 32, linear light that is long in the horizontal direction is projected onto the surface of the tongue as shown in FIG. The light projecting units 3a and 3b have a point light source 31 and a columnar lens 32, except that the condensing direction of the columnar lens 32 is different (one condenses in the vertical direction and the other condenses in the horizontal direction). In common.

図17は、舌が薄い場合と厚い場合とにおいて、投光部3により舌表面に投光された線状の光(太い実線で示す)を撮像部4で撮影したときの撮影画像と、舌の断面形状とを示している。同図に示すように、舌が薄く、その表面がほぼ平らな場合、投光された線状の光は、舌の部分で上方に小さく湾曲する。一方、舌が厚く、その表面が凸形状の場合、投光された線状の光は、舌の部分で上方に大きく湾曲する。したがって、投光された線状の光の湾曲形状を検出することにより、舌の厚さ(舌が厚いか薄いか)を検出することができる。なお、被写体に対して線状の光を照射して被写体の形状を検出する手法は、光切断法とも呼ばれる。   FIG. 17 shows a captured image when the imaging unit 4 captures linear light (indicated by a thick solid line) projected on the tongue surface by the light projecting unit 3 when the tongue is thin and thick, and the tongue The cross-sectional shape is shown. As shown in the figure, when the tongue is thin and its surface is almost flat, the projected linear light is slightly curved upward at the tongue portion. On the other hand, when the tongue is thick and the surface thereof is convex, the projected linear light is greatly curved upward at the tongue portion. Therefore, the thickness of the tongue (whether the tongue is thick or thin) can be detected by detecting the curved shape of the projected linear light. Note that the method of detecting the shape of the subject by irradiating the subject with linear light is also called a light cutting method.

撮影対象としての器官が舌の場合、点光源31として、舌の色(R)の補色であるGやBの光を出射する点光源を用いると、投光された光の色と舌の色とを明確に区別できるため、投光された光の湾曲形状を撮像部4での撮影によって検出することが容易となる。なお、Rの光を出射する点光源31を用いても、その出射光量を調節することにより、投光された光の湾曲形状を撮像部4での撮影によって検出することは可能である。   When the organ to be imaged is a tongue, if a point light source that emits G or B light, which is a complementary color of the tongue color (R), is used as the point light source 31, the color of the projected light and the color of the tongue Therefore, it is easy to detect the curved shape of the projected light by photographing with the imaging unit 4. Even when the point light source 31 that emits R light is used, the curved shape of the projected light can be detected by photographing with the imaging unit 4 by adjusting the amount of emitted light.

なお、本実施形態では、点光源31と柱状レンズ32とを用いて投光部3を構成しているが、投光部3の構成はこれに限定されるわけではない。例えば、柱状レンズ32の代わりに、水平方向に長尺状の開口を有するスリットを配置し、上記開口を介して水平方向に線状の光を舌表面に投光する構成であってもよいし、柱状レンズ32の代わりにポリゴンミラーを配置し、光源からの光をポリゴンミラーで水平方向に高速走査することで、水平方向に光を投光してもよい。   In addition, in this embodiment, although the light projection part 3 is comprised using the point light source 31 and the columnar lens 32, the structure of the light projection part 3 is not necessarily limited to this. For example, instead of the columnar lens 32, a slit having a long opening in the horizontal direction may be disposed, and linear light may be projected onto the tongue surface in the horizontal direction through the opening. Alternatively, a polygon mirror may be disposed in place of the columnar lens 32, and light may be projected in the horizontal direction by scanning the light from the light source at high speed in the horizontal direction with the polygon mirror.

ところで、舌の筋肉には、外舌筋と内舌筋との2種類があり、前者が舌全体の大きな動きを制御し、後者が舌の細かな動きを制御する。舌表面の凹凸に影響する動きは、内舌筋によって制御される。この内舌筋には、舌の側部を上方に巻き上げる上縦舌筋、舌を細く伸ばす横下筋、舌を平らに広げる垂直舌筋が含まれる。舌の撮影時には、舌を横に広げるように指示されるが、人によっては無意識に力が入る場合がある。   By the way, there are two types of tongue muscles, an external tongue muscle and an internal tongue muscle. The former controls a large movement of the whole tongue, and the latter controls a fine movement of the tongue. Movements affecting the surface irregularities of the tongue are controlled by the internal tongue muscle. The internal tongue muscle includes an upper longitudinal tongue muscle that winds the side of the tongue upward, a lateral lower muscle that stretches the tongue thinly, and a vertical tongue muscle that flattens the tongue. When photographing the tongue, it is instructed to spread the tongue sideways, but depending on the person, there may be unconscious power.

図18は、舌の厚さと、舌の筋肉による動きとの関係を示している。垂直舌筋の作用により、舌を横に広げたとき(通常の撮影状態)、舌の表面は、舌が薄い場合は平坦になり、舌が厚い場合は凸状になる。上縦舌筋の作用により舌の側部を上げたとき、舌の表面は、舌が薄い場合は凹状になり、舌が厚い場合は緩やかな凸状になる。横舌筋の作用により舌を細く伸ばしたとき、舌の表面は、舌が薄い場合は中央が厚くなる凸状になり、舌が厚い場合は全体に盛り上がった凸状になる。   FIG. 18 shows the relationship between the thickness of the tongue and the movement of the tongue muscle. When the tongue is spread laterally by the action of the vertical tongue muscle (normal photographing state), the surface of the tongue becomes flat when the tongue is thin, and becomes convex when the tongue is thick. When the side of the tongue is raised by the action of the upper longitudinal tongue muscle, the surface of the tongue is concave when the tongue is thin, and is gently convex when the tongue is thick. When the tongue is stretched thinly by the action of the lateral tongue muscle, the surface of the tongue becomes convex when the center is thick, and when the tongue is thick, the surface of the tongue is raised as a whole.

このような舌の表面に対して、投光部3によって水平方向に線状の光を投光し、その湾曲形状を撮像部4にて撮影すると、情報抽出部14では、上記湾曲形状から図18に示すようなデータ分布が取得される。このデータ分布は、舌表面の凹凸の度合いを示すものであって、舌表面の凹凸に応じて高さが変化する高さ分布である。なお、(a1)〜(a3)は、舌が薄い場合の水平方向の高さ分布を示し、(b1)〜(b3)は、舌が厚い場合の水平方向の高さ分布を示す。   When a linear light is projected in the horizontal direction by the light projecting unit 3 on the surface of such a tongue and the curved shape is photographed by the imaging unit 4, the information extracting unit 14 displays the curved shape from the curved shape. A data distribution as shown in FIG. 18 is acquired. This data distribution indicates the degree of unevenness on the tongue surface, and is a height distribution in which the height changes according to the unevenness on the tongue surface. Note that (a1) to (a3) indicate the horizontal height distribution when the tongue is thin, and (b1) to (b3) indicate the horizontal height distribution when the tongue is thick.

本実施形態では、投光部3から投光される線状の光は、図17に示すように、舌表面における上下方向のほぼ中心を通るように投光される。したがって、図18に示す高さ分布は、舌表面における上下方向のほぼ中心を通る水平方向の高さ分布として得られる。なお、舌表面における上下方向とは、ここでは、舌の先端(舌尖)と付け根(舌根)とを結ぶ方向を指すものする(以下でも同じ)。   In the present embodiment, the linear light projected from the light projecting unit 3 is projected so as to pass through the substantially vertical center of the tongue surface as shown in FIG. Therefore, the height distribution shown in FIG. 18 is obtained as a horizontal height distribution that passes through the substantially vertical center of the tongue surface. Here, the vertical direction on the surface of the tongue refers to the direction connecting the tip of the tongue (the tongue tip) and the root (the tongue base) (the same applies hereinafter).

次に、上記の高さ分布から、舌厚を抽出、判定する手法について説明する。まず、図19に示すように、情報抽出部14は、舌表面の高さ分布において、水平方向の中央部よりも端部側の領域Aを設定する。ここでは、領域Aは、舌の輪郭線から求まる舌の幅をWとしたときに、図19に示す寸法関係で定まる領域(舌の端部からW/8の距離にある幅W/4の領域を含む領域)とする。なお、上記端部は、舌の中央部に対して左右どちらの端部であってもよい。また、図19の(a1)〜(a3)、(b1)〜(b3)の高さ分布は、図18で示したものと対応している。   Next, a method for extracting and determining the tongue thickness from the above height distribution will be described. First, as illustrated in FIG. 19, the information extraction unit 14 sets a region A closer to the end than the center in the horizontal direction in the height distribution of the tongue surface. Here, the area A is an area determined by the dimensional relationship shown in FIG. 19 (with a width W / 4 at a distance W / 8 from the end of the tongue, where W is the width of the tongue determined from the contour line of the tongue. Area). In addition, the said edge part may be an edge part on either side with respect to the center part of a tongue. Further, the height distributions of (a1) to (a3) and (b1) to (b3) in FIG. 19 correspond to those shown in FIG.

次に、情報抽出部14は、高さ分布における領域Aの形状を多項式で近似し、近似した多項式の係数に基づいて、舌の表面の凹凸(形状の湾曲度)を検出し、その凹凸形状から舌の厚さを検出する。多項式の次数は特に限定されないが、ここでは例として2次の多項式を用いる。   Next, the information extraction unit 14 approximates the shape of the region A in the height distribution with a polynomial, detects irregularities on the surface of the tongue (the curvature of the shape) based on the coefficients of the approximated polynomial, and the irregular shape To detect the thickness of the tongue. The order of the polynomial is not particularly limited, but a quadratic polynomial is used here as an example.

舌が薄い(a1)〜(a3)では、領域Aの形状は水平であるか、水平から凹形状に変化しているので、近似多項式の2次の係数は、0またはプラスの値となる。一方、舌が厚い(b1)〜(b3)では、領域Aの形状は凸形状であるので、近似多項式の2次の係数は、マイナスの値となる。なお、舌が厚くなればなるほど、上記係数のマイナスの値が大きくなる。   In the thin tongues (a1) to (a3), the shape of the region A is horizontal or has changed from a horizontal shape to a concave shape. Therefore, the second-order coefficient of the approximate polynomial is 0 or a positive value. On the other hand, when the tongue is thick (b1) to (b3), the shape of the region A is a convex shape, and therefore the quadratic coefficient of the approximate polynomial is a negative value. Note that the thicker the tongue, the greater the negative value of the coefficient.

このように、近似多項式の係数を見ることにより、領域Aの形状(高さ分布)の凹凸の度合いを求めて、舌の厚さが薄いか厚いかを判断することができる。例えば、情報抽出部14は、近似多項式の2次の係数が0.003以上である場合には、舌が薄いと判定することができ、2次の係数が0以下である場合には、舌が厚いと判定することができ、2次の係数が0よりも大きく0.003未満である場合には、舌の厚さが中位と判定することができる。   In this way, by looking at the coefficients of the approximate polynomial, the degree of unevenness of the shape (height distribution) of the region A can be obtained to determine whether the tongue is thin or thick. For example, the information extraction unit 14 can determine that the tongue is thin when the second-order coefficient of the approximate polynomial is 0.003 or more, and can determine that the tongue is thin when the second-order coefficient is 0 or less. If the second-order coefficient is greater than 0 and less than 0.003, the tongue thickness can be determined to be medium.

以上では、左右方向(水平方向、横方向)に線状の光を投光する投光部3aを用い、舌の水平方向に沿った断面形状(湾曲度)を把握することによって、舌の厚さを検出する例について説明したが、上下方向(鉛直方向、縦方向)に線状の光を投光する投光部3bを用いることによっても、上記と同様の原理により、舌の断面形状(この場合は水平方向に垂直な断面での形状、湾曲度)を把握できるため、この断面形状に基づいて舌の厚さを検出することは可能である。   In the above, the thickness of the tongue is obtained by grasping the cross-sectional shape (curvature) along the horizontal direction of the tongue using the light projecting unit 3a that projects linear light in the left-right direction (horizontal direction, lateral direction). Although an example of detecting the height has been described, the cross-sectional shape of the tongue (based on the same principle as described above) by using the light projecting unit 3b that projects linear light in the vertical direction (vertical direction, vertical direction). In this case, since the shape and curvature of the cross section perpendicular to the horizontal direction can be grasped, it is possible to detect the thickness of the tongue based on this cross sectional shape.

《領域Aの他の設定方法》
図20は、水平方向のデータ分布(高さ分布)における領域Aの他の設定方法を模式的に示す説明図である。同図に示すように、情報抽出部14が高さ分布の形状を近似する領域A(高さ分布の一部)は、舌の端部のデータ分布を含んでいてもよい。
<< Other setting methods for area A >>
FIG. 20 is an explanatory diagram schematically showing another setting method of the region A in the horizontal data distribution (height distribution). As shown in the figure, the region A (a part of the height distribution) in which the information extraction unit 14 approximates the shape of the height distribution may include the data distribution of the end portion of the tongue.

この場合、近似多項式として円を用い、情報抽出部14が、上記領域Aにおける高さ分布の形状(湾曲度)を円で近似し、その半径を検出すると、以下の関係が得られることがわかった。すなわち、舌が薄い場合における近似円の半径をR1(mm)とし、舌が厚い場合における近似円の半径をR2(mm)とすると、半径R1は、半径R2よりも顕著に小さくなることがわかった。したがって、領域Aを近似した円の半径に基づいて、舌が厚いか、薄いかの判断が容易となり、舌厚の検出精度をさらに向上させることができる。   In this case, when the circle is used as the approximation polynomial and the information extraction unit 14 approximates the shape of the height distribution (curvature) in the region A with a circle and detects the radius, it is found that the following relationship is obtained. It was. That is, when the radius of the approximate circle when the tongue is thin is R1 (mm) and the radius of the approximate circle when the tongue is thick is R2 (mm), the radius R1 is significantly smaller than the radius R2. It was. Therefore, it is easy to determine whether the tongue is thick or thin based on the radius of the circle approximating the region A, and the detection accuracy of the tongue thickness can be further improved.

《データ分布の他の例》
図21は、照明部2による照明下で、撮像部4にて舌の表面を撮影したときに得られる画像データの分布であって、舌表面の上下方向のほぼ中心を通る水平方向における撮影画像のRGBの画像データの分布を示している。ただし、上段の分布は、舌が薄い場合のものであり、下段の分布は、舌が厚い場合のものである。なお、実線はRの画像データの分布を示し、1点鎖線はGの画像データの分布を示し、破線はBの画像データの分布を示している。
<< Other examples of data distribution >>
FIG. 21 is a distribution of image data obtained when the surface of the tongue is imaged by the imaging unit 4 under illumination by the illuminating unit 2, and the captured image in the horizontal direction passing through the substantially vertical center of the tongue surface. The distribution of RGB image data is shown. However, the upper distribution is for the case where the tongue is thin, and the lower distribution is for the case where the tongue is thick. The solid line indicates the distribution of R image data, the alternate long and short dash line indicates the distribution of G image data, and the broken line indicates the distribution of B image data.

舌が厚い場合、舌はその端部から中央部にかけて上に凸となる部分を含む(図18の(b1)〜(b3)参照)。このような舌表面の凸部は、照明部2に近づいて明るく照明されるため、舌の撮影画像において凸部に対応する部分では、画像データの値が増大する。逆に、舌が薄い場合、舌の表面は、端部から中央部にかけてほぼ平坦か、下に凹となる部分を含む(図18の(a1)〜(a3)参照)。舌表面の平坦部や凹部は、上記の凸部に比べて照明部2から遠ざかるため、照明されても凸部よりも暗い。このため、舌の撮影画像において、表面の平坦部や凹部に対応する部分では、画像データの値が凸部に対応する部分に比べて減少する。このような傾向は、RGBのいずれの画像データについても同様である。なお、図21で示した画像データの分布の形状は、ちょうど、図18の(a2)および(b2)の形状にそれぞれ対応している。   When the tongue is thick, the tongue includes a portion that protrudes upward from its end to the center (see (b1) to (b3) of FIG. 18). Since such a convex portion on the tongue surface is brightly illuminated as it approaches the illumination unit 2, the value of the image data increases in the portion corresponding to the convex portion in the photographed image of the tongue. Conversely, when the tongue is thin, the surface of the tongue includes a portion that is substantially flat from the end to the center or concave downward (see (a1) to (a3) in FIG. 18). Since the flat part and recessed part of the tongue surface move away from the illumination part 2 compared with said convex part, even if illuminated, it is darker than a convex part. For this reason, in the photographed image of the tongue, the value of the image data decreases in the portion corresponding to the flat portion or the concave portion on the surface compared to the portion corresponding to the convex portion. This tendency is the same for all RGB image data. Note that the distribution shape of the image data shown in FIG. 21 corresponds to the shapes of (a2) and (b2) in FIG.

そこで、照明部2の照明下で得られる舌の撮影画像におけるRGBのいずれかの色の画像データの分布(単色の分布)からでも、その分布の凹凸に基づいて、舌が厚いか、薄いかの検出を行うことができる。つまり、舌の撮影画像に含まれるRGBのいずれかの色の画像データの水平方向の分布を、舌表面の凹凸の度合いを示すデータ分布として用いることでも、舌厚の検出を精度よく(舌の外形形状に関係なく)行うことができる。また、この方法では、上述した投光部3が不要となるため、小型、安価な構成で、舌の厚さを検出、診断することが可能となる。   Therefore, whether or not the tongue is thick or thin based on the unevenness of the distribution, even from the distribution of the image data of one of RGB colors (monochromatic distribution) in the photographed image of the tongue obtained under illumination of the illumination unit 2 Can be detected. In other words, it is possible to detect the tongue thickness with high accuracy (the tongue is detected by using the horizontal distribution of image data of one of RGB colors included in the photographed image of the tongue as a data distribution indicating the degree of unevenness of the tongue surface. Regardless of the outer shape). Also, with this method, the above-described light projecting unit 3 is not necessary, and thus it is possible to detect and diagnose the thickness of the tongue with a small and inexpensive configuration.

種々の実験の結果、データの分布として、Rの成分比、すなわち、R/(R+G+B)の分布を用いると、上述した高さ分布とほぼ一致する分布が得られることがわかった。したがって、照明部2の照明下で得られる舌の撮影画像におけるRの成分比を示すデータの分布を、舌表面の凹凸の度合いを示すデータ分布として用いることでも、舌厚を精度よく検出できると言える。なお、舌の撮影画像におけるGの成分比(G/(R+G+B))やBの成分比(B/(R+G+B))を示すデータの分布を用いても、上記と同様に、舌厚を精度よく検出することができる。   As a result of various experiments, it was found that when the component ratio of R, that is, the distribution of R / (R + G + B) is used as the data distribution, a distribution that substantially matches the above-described height distribution can be obtained. Therefore, the tongue thickness can be accurately detected by using the data distribution indicating the R component ratio in the photographed image of the tongue obtained under illumination of the illumination unit 2 as the data distribution indicating the degree of unevenness of the tongue surface. I can say that. Note that the tongue thickness can be accurately determined in the same manner as described above using the distribution of data indicating the G component ratio (G / (R + G + B)) and the B component ratio (B / (R + G + B)) in the photographed image of the tongue. Can be detected.

《他の舌厚の抽出方法》
図22は、舌の平面形状と断面形状との関係を模式的に示す説明図である。舌筋の標準状態(舌を広げたり狭めたりしない状態)における舌の表面積S(cm2)は、舌の撮影画像から抽出される輪郭線Q(図5参照)で囲まれる部分を積分することによって求められる。
<Other tongue thickness extraction methods>
FIG. 22 is an explanatory view schematically showing the relationship between the planar shape and the cross-sectional shape of the tongue. The surface area S (cm 2 ) of the tongue in the standard state of the tongue muscle (the state where the tongue is not expanded or narrowed) is obtained by integrating the portion surrounded by the contour line Q (see FIG. 5) extracted from the photographed image of the tongue. Sought by.

また、上記の表面積Sは、舌筋の標準状態における舌の横幅に対応する指標WS(cm)および舌の縦幅に対応する指標WL(cm)を用いて、以下のように近似することができる。
S≒WS×WL
The surface area S is approximated as follows using an index W S (cm) corresponding to the lateral width of the tongue in the standard state of the tongue muscle and an index W L (cm) corresponding to the vertical width of the tongue. be able to.
S ≒ W S × W L

ここで、舌筋の標準状態における舌の縦横比は、縦/横≒1.0〜1.3であるが、縦/横=1.2とすると、
L=1.2WS
と考えることができる。したがって、上記の表面積Sは、
S=WS×(1.2WS
=1.2WS 2
となる。この式より、
S=√(S/1.2)
が得られる。
Here, the aspect ratio of the tongue in the standard state of the tongue muscle is length / width≈1.0 to 1.3, but if length / width = 1.2,
W L = 1.2W S
Can be considered. Therefore, the surface area S is
S = W S × (1.2W S )
= 1.2W S 2
It becomes. From this formula:
W S = √ (S / 1.2)
Is obtained.

一方、舌筋の標準状態における舌の断面積は、図18の(a1)で示した高さ分布の面積(横軸と分布曲線とで囲まれた部分の面積)の2倍により、簡易的に求めることができる。すなわち、舌の断面積をSc(cm2)とすると、
Sc=2×∫h×dw
で表される。ただし、hは、高さ分布の曲線の横軸からの高さとし、dwは、上記曲線の微小幅とする。
On the other hand, the cross-sectional area of the tongue in the standard state of the tongue muscle is simplified by twice the area of the height distribution (area surrounded by the horizontal axis and the distribution curve) shown in FIG. Can be requested. That is, when the sectional area of the tongue is Sc (cm 2 ),
Sc = 2 × ∫h × dw
It is represented by Here, h is the height from the horizontal axis of the height distribution curve, and dw is the minute width of the curve.

舌筋の標準状態のときの舌の厚さをHs(cm)とすると、厚さHsは、
Hs=Sc/WS
=Sc/(√(S/1.2))
で表される。
When the thickness of the tongue in the standard state of the tongue muscle is Hs (cm), the thickness Hs is
Hs = Sc / W S
= Sc / (√ (S / 1.2))
It is represented by

舌筋を動かすと、舌の縦横の長さは変化するが、表面積Sおよび断面積Scはほとんど変化しない。したがって、舌の表面積Sおよび断面積Scを求めることにより、撮影時の舌筋の状態に関係なく、舌筋の標準状態における舌の厚さHsを上式より簡易的に求めることができる。そして、求めた舌厚に基づいて健康度を診断することが可能となる。   When the tongue muscle is moved, the length and width of the tongue change, but the surface area S and the cross-sectional area Sc hardly change. Therefore, by determining the surface area S and the cross-sectional area Sc of the tongue, the tongue thickness Hs in the standard state of the tongue muscle can be easily obtained from the above equation regardless of the state of the tongue muscle at the time of photographing. And it becomes possible to diagnose a health degree based on the calculated | required tongue thickness.

〔3.診断項目と撮影条件との関係〕
次に、上記した各診断項目(診断用情報)と、撮影条件との関係について説明する。
[3. Relationship between diagnostic items and imaging conditions)
Next, the relationship between each diagnostic item (diagnostic information) and the imaging conditions will be described.

(舌の湿り気および歯痕と撮影条件との関係)
舌の湿り気と歯痕の検出には、照明部2による照明角度の条件が重要となる。舌の湿り気の程度は、上述したように、照明光の舌表面での反射成分を測定して、舌の光沢度を検出し、その大小によって判断される。湿り気が多いと、舌表面の光沢度が増加し、照明光の反射成分が増大する。一方、湿り気が少ないと、舌表面の光沢度が減少し、照明光の反射成分が低下する。照明角度を約30°に設定することにより、湾曲した舌の上部の領域より、照明光の反射成分を適切に検出することができ、これによって舌の湿り気の程度を適切に検出することができる。
(Relationship between dampness and tooth marks and imaging conditions)
The condition of the illumination angle by the illuminating unit 2 is important for detecting wetness and tooth marks on the tongue. As described above, the wetness level of the tongue is determined by measuring the reflection component of the illumination light on the tongue surface, detecting the glossiness of the tongue, and determining the level of the glossiness. When the humidity is high, the glossiness of the tongue surface increases and the reflection component of the illumination light increases. On the other hand, when the humidity is low, the glossiness of the tongue surface decreases and the reflection component of the illumination light decreases. By setting the illumination angle to about 30 °, it is possible to appropriately detect the reflected component of the illumination light from the curved upper region of the tongue, thereby appropriately detecting the degree of wetness of the tongue. .

歯痕の程度は、舌の輪郭線を検出し、その凹凸の度合いによって判断される。顔や唇と舌は、同じ生体組織であるため、色の差では輪郭線を検出しづらい。そこで、照明光によって舌の周囲に影(陰影、暗部)を作り、その影を検出することにより、輪郭線の抽出が容易となる。ここでも、照明角度を約30°に設定することにより、舌の周囲に適切な陰影を形成することができ、これによって舌の輪郭線を適切に検出することができる。   The degree of the tooth trace is determined by detecting the contour line of the tongue and the degree of unevenness. Since the face, lips, and tongue are the same living tissue, it is difficult to detect the contour line by the difference in color. Therefore, the contour line can be easily extracted by creating a shadow (shadow, dark part) around the tongue with the illumination light and detecting the shadow. Again, by setting the illumination angle to about 30 °, it is possible to form an appropriate shadow around the tongue, thereby properly detecting the contour line of the tongue.

(舌の裂紋および苔の滑らかさと撮影条件との関係)
舌の裂紋と苔の滑らかさの検出には、撮影解像度の条件が重要となる。舌の裂紋と苔の滑らかさのいずれも、舌表面に存在する乳頭組織の状態を検出することで判断される。舌の裂紋は、乳頭組織の部分的な欠落や生育不全により生じる。また、乳頭の代謝不全により、古い組織が積み重なると、苔表面の粒状性が消失し、滑らかになる(よくない状態)。
(Relationship between tongue crevice and moss smoothness and shooting conditions)
The condition of imaging resolution is important for detection of tongue cracks and moss smoothness. Both the cleft of the tongue and the smoothness of the moss are determined by detecting the state of the papillary tissue present on the surface of the tongue. Tongue clefts are caused by partial loss of papillary tissue or growth failure. Moreover, when old tissues are stacked due to metabolic failure of the nipple, the granularity on the surface of the moss disappears and becomes smooth (poor state).

乳頭の大きさは、直径0.5mm程度である。平均的な舌の大きさは、縦横、それぞれ50mm程度である。乳頭を分離して、舌の裂紋や苔の滑らかさを適切に検出するためには、最低でも200×200=40000画素、望ましくは400×400=160000画素の解像度が必要となる。   The size of the nipple is about 0.5 mm in diameter. The average tongue size is about 50 mm both vertically and horizontally. In order to separate the nipple and appropriately detect tongue crests and moss smoothness, a resolution of at least 200 × 200 = 40000 pixels, preferably 400 × 400 = 16000 pixels is required.

(舌の色および舌の厚さと撮影条件との関係)
舌の色と厚さの検出には、照明部2によって舌を照明するときの照度の条件が必要となる。照度が低いと、撮影信号(撮影画像の画像データ)のS/N比が低下し、正確な検出、診断が困難となる。蛍光灯などの、撮影環境にある照明光が重畳する場合には、その色度、ちらつき、角度などの影響も考慮する必要がある。一般に、室内環境の照度は、100〜500lx程度であり、この影響を排除するためには、この数倍〜十数倍の照度(例えば1000〜10000lx程度)が必要となる。
(Relationship between tongue color and tongue thickness and shooting conditions)
To detect the color and thickness of the tongue, the illuminance condition when the tongue is illuminated by the illumination unit 2 is required. When the illuminance is low, the S / N ratio of the photographic signal (image data of the photographic image) decreases, and accurate detection and diagnosis become difficult. When illumination light in a shooting environment such as a fluorescent lamp is superimposed, it is necessary to consider the influence of its chromaticity, flicker, angle, and the like. Generally, the illuminance of the indoor environment is about 100 to 500 lx, and in order to eliminate this influence, the illuminance several times to several tens of times (for example, about 1000 to 10000 lx) is required.

〔4.撮影画像の例〕
図23および図24は、情報抽出部14による診断用情報の抽出前に、撮像部4による撮影によって取得され、表示部5に表示された画像の例を示している。図23は、舌の撮影状態が良い例を示している。図23のいずれの画像においても、舌に力みがなく、十分に舌が出されており、舌の表面が撮像部4に正対するよう、ほぼ真っ直ぐ下方に舌が伸ばされている。また、舌と装置との位置関係(距離、角度)も良好である。さらに、舌の下部に陰影が形成され、輪郭を適切に抽出することができる。画像の分解能も十分であり、乳頭も明確に判別できる。このような撮影画像からは、診断用情報を安定して正確に抽出することができ、抽出した情報に基づいて適切な診断が可能となる。
[4. Example of shot image)
FIG. 23 and FIG. 24 show examples of images acquired by photographing by the imaging unit 4 and displayed on the display unit 5 before the diagnostic information is extracted by the information extracting unit 14. FIG. 23 shows an example in which the photographing state of the tongue is good. In any of the images in FIG. 23, the tongue has no force, the tongue is sufficiently protruded, and the tongue is extended substantially straight downward so that the surface of the tongue faces the imaging unit 4. Also, the positional relationship (distance, angle) between the tongue and the device is good. Furthermore, a shadow is formed at the lower part of the tongue, and the contour can be extracted appropriately. The resolution of the image is sufficient, and the nipple can be clearly identified. Diagnosis information can be extracted stably and accurately from such a captured image, and appropriate diagnosis can be performed based on the extracted information.

これに対して、図24は、舌の撮影状態が悪い例を示しており、舌が前に突き出ている(舌の角度が不適切)、舌の出方が少ない(舌の長さが不適切)、舌に力みがある、舌が装置から離れすぎている、舌が装置に近づきすぎている、舌を上方から撮影している、などの不具合が生じている。このような撮影画像からは、診断に必要な情報を安定して正確に抽出することができず、抽出した情報に基づく診断の精度が低下するおそれがある。   On the other hand, FIG. 24 shows an example in which the photographing state of the tongue is bad. The tongue protrudes forward (the tongue angle is inappropriate), and the tongue does not protrude much (the tongue length is inadequate). (Appropriate), the tongue is too strong, the tongue is too far away from the device, the tongue is too close to the device, or the tongue is photographed from above. Information necessary for diagnosis cannot be stably and accurately extracted from such a photographed image, and the accuracy of diagnosis based on the extracted information may be reduced.

そこで、本実施形態では、判定部15が、上述した診断用情報と同じ情報を、舌の撮影状態(舌の出し方や装置との位置関係)の良否を判定するための判定情報として用い、この判定情報に基づいて、撮影状態の良否を判定するようにしている。   Therefore, in the present embodiment, the determination unit 15 uses the same information as the diagnosis information described above as determination information for determining the quality of the imaging state of the tongue (how to put out the tongue and the positional relationship with the device). Based on this determination information, the quality of the shooting state is determined.

〔5.撮影状態の良否判定〕
以下、判定情報を用いて撮影状態を判定する手法について説明する。なお、以下での判定情報の抽出方法は、上述した方法、つまり、情報抽出部14による診断用情報および輪郭線の抽出方法と同様の方法を採用することができる。
[5. (Shooting pass / fail judgment)
Hereinafter, a method for determining the shooting state using the determination information will be described. In addition, the method for extracting the determination information described below can employ the method described above, that is, the same method as the method for extracting diagnostic information and the contour line by the information extraction unit 14.

(舌の角度について)
図25は、舌の側面図を示している。同図に示すように、撮像部4の撮影光軸Xと舌との交点Oにおける接線Tの、交点Oを通る鉛直方向の軸Yに対するXY面内での角度θを、舌の角度とする。舌の角度θの良否は、舌の光沢度に基づいて判定することができる。
(About the angle of the tongue)
FIG. 25 shows a side view of the tongue. As shown in the figure, an angle θ in the XY plane with respect to a vertical axis Y passing through the intersection point O of the tangent T at the intersection point O between the photographing optical axis X and the tongue of the imaging unit 4 is defined as the tongue angle. . The quality of the tongue angle θ can be determined based on the glossiness of the tongue.

図26は、舌を照明したときに舌表面に光沢のできる領域(以下、光沢領域Jと称する)を示している。舌の角度θが小さい場合、照明部2からの光が舌の上部(舌根側)の左右の各領域で反射されて撮像部4に入射するため、舌の上部に、照明光の反射による光沢領域Jが現れる。一方、舌の角度θが大きくなると、照明部2からの光が舌表面で反射されて撮像部4に入射するときの照明光の反射位置が、舌の下部(舌尖側)に近づく。すなわち、照明光の反射による光沢領域Jが舌尖側に近づく。   FIG. 26 shows a region where the tongue surface can be glossed when the tongue is illuminated (hereinafter referred to as gloss region J). When the angle θ of the tongue is small, the light from the illumination unit 2 is reflected by the left and right regions of the upper part of the tongue (on the base of the tongue) and is incident on the imaging unit 4. Region J appears. On the other hand, when the angle θ of the tongue is increased, the reflection position of the illumination light when the light from the illumination unit 2 is reflected by the tongue surface and enters the imaging unit 4 approaches the lower part of the tongue (the tongue tip side). That is, the gloss region J due to the reflection of illumination light approaches the tongue tip side.

舌の角度と光沢の位置との関係を撮像画像において検討すると、以下のようになる。図27は、撮影画像における舌の角度θと光沢領域J’との関係を模式的に示している。なお、撮像画像における光沢領域J’は、上記した舌表面の光沢領域Jと対応している。舌の角度θが0°の場合、舌の上部の左右の各領域に、光沢領域J’が現れる。   The relationship between the angle of the tongue and the position of gloss is examined in the captured image as follows. FIG. 27 schematically shows the relationship between the tongue angle θ and the glossy region J ′ in the photographed image. Note that the gloss region J ′ in the captured image corresponds to the gloss region J of the tongue surface described above. When the angle θ of the tongue is 0 °, a glossy area J ′ appears in each of the left and right areas on the upper part of the tongue.

舌の角度θが増加すると、上述のように、光沢領域Jが舌尖側に近づくため、撮像画像においても光沢領域J’は舌尖側に近づく。したがって、判定部15は、光沢の検出領域R4・R5を舌根側から舌尖側に随時シフトさせ、各検出領域R4・R5の位置で光沢度を検出し、最も光沢度の高い光沢領域J’の位置を検出することにより、光沢領域J’に対応する舌の角度θを検出することができる。そして、判定部15は、検出した舌の角度θが目標範囲(例えば0〜10°の範囲)にあれば撮影状態が良好と判定し、目標範囲を外れていれば撮影状態が不良と判定できる。   As the angle θ of the tongue increases, the glossy region J approaches the tongue apex side as described above, and thus the glossy region J ′ approaches the tongue apex side also in the captured image. Accordingly, the determination unit 15 shifts the gloss detection areas R4 and R5 from the base of the tongue to the tip of the tongue as needed, detects the glossiness at the position of each detection area R4 and R5, and determines the glossiness area J ′ having the highest glossiness. By detecting the position, the angle θ of the tongue corresponding to the glossy region J ′ can be detected. Then, the determination unit 15 determines that the shooting state is good if the detected tongue angle θ is within a target range (for example, a range of 0 to 10 °), and determines that the shooting state is poor if it is outside the target range. .

また、舌の角度θの良否は、舌の左右方向に垂直な断面での湾曲形状(縦方向の距離情報、湾曲度)に基づいて判定することもできる。図28は、投光部3(特に投光部3b)によって縦方向に線状の光を舌表面に投光している状態を模式的に示している。また、図29は、上記の投光によって得られる舌表面の上記断面での湾曲形状を示している。舌表面の湾曲形状から、舌表面の各位置の、基準位置(図29では例えば舌尖の位置)からの撮影光軸Xに沿った方向(光軸方向)の距離Kがわかる。舌の角度θが大きいほど、舌尖に対する舌根の光軸方向の距離Kが大きくなるので、この距離Kに基づいて、舌の角度θを求めることができるとともに、その角度θが適正な範囲内(例えば0〜10°の範囲内)か否かを判定し、撮影状態の良否を判定することができる。   Also, the quality of the tongue angle θ can be determined based on the curved shape (longitudinal distance information, curvature) in a cross section perpendicular to the left-right direction of the tongue. FIG. 28 schematically shows a state in which linear light is projected onto the tongue surface in the vertical direction by the light projecting unit 3 (particularly, the light projecting unit 3b). FIG. 29 shows a curved shape in the cross section of the tongue surface obtained by the above light projection. From the curved shape of the tongue surface, the distance K of each position on the tongue surface in the direction (optical axis direction) along the photographing optical axis X from the reference position (for example, the position of the tongue tip in FIG. 29) can be known. As the tongue angle θ increases, the distance K in the optical axis direction of the tongue base relative to the tongue apex increases. Therefore, the angle θ of the tongue can be obtained based on the distance K, and the angle θ is within an appropriate range ( For example, it is possible to determine whether or not the shooting state is good.

(舌の長さについて)
図30は、舌の輪郭線Qと、左右方向の幅Wおよび上下方向の長さHとの関係を示している。舌の長さが適切か否かは、舌の輪郭線Qの情報に基づいて判定できる。より詳しくは、判定部15は、舌の輪郭線Qの情報から舌の縦横比W/Hを求め、求めた縦横比W/Hに基づいて、舌の長さが適切か否かを判定することができる。例えば、0.85≦W/H≦1.15であれば、舌の長さは、撮影状態としては良好と判定でき、W/Hが上記範囲を外れた場合は、舌の出し方が短すぎる、あるいは、長すぎるとして、撮影状態としては不良と判定できる。
(About tongue length)
FIG. 30 shows the relationship between the contour line Q of the tongue, the width W in the left-right direction, and the length H in the up-down direction. Whether or not the length of the tongue is appropriate can be determined based on the information on the contour line Q of the tongue. More specifically, the determination unit 15 determines the aspect ratio W / H of the tongue from the information on the contour line Q of the tongue, and determines whether the length of the tongue is appropriate based on the determined aspect ratio W / H. be able to. For example, if 0.85 ≦ W / H ≦ 1.15, it can be determined that the tongue length is good as a shooting state, and if W / H is out of the above range, the tongue sticking out is short. If it is too long or too long, it can be determined that the shooting state is poor.

(力の入れ具合いについて)
図31は、舌の水平方向に沿った断面形状を示している。舌に力が入っていない平常な場合、舌の厚さはT1と小さく、舌に力が入ると、舌の筋肉が膨張するため、舌の厚さはT1よりも大きいT2となる。したがって、判定部15は、舌の厚さに基づいて、舌の力の入れ具合いを判断することができ、その判断結果に基づいて、撮影状態の良否を判定することができる。例えば、舌の厚さTが、舌の幅W(図30参照)の10〜20%の範囲内であれば、舌に力が入っておらず、撮影状態が良好と判定でき、上記範囲を外れると、舌に力が入っており、撮影状態が不良と判定できる。
(About the strength of force)
FIG. 31 shows a cross-sectional shape along the horizontal direction of the tongue. In the normal case where no force is applied to the tongue, the thickness of the tongue is as small as T1, and when the force is applied to the tongue, the muscle of the tongue expands, so that the thickness of the tongue becomes T2, which is larger than T1. Therefore, the determination unit 15 can determine how the tongue is applied based on the thickness of the tongue, and can determine the quality of the photographing state based on the determination result. For example, if the thickness T of the tongue is within a range of 10 to 20% of the width W of the tongue (see FIG. 30), it is possible to determine that there is no force on the tongue and the photographing state is good, and the above range is satisfied. When it comes off, the tongue is strong, and it can be determined that the shooting state is poor.

また、舌の厚さが変化すると、舌の左右方向に沿った断面での湾曲形状も変化する(図18等参照)。したがって、判定部15は、舌の上記湾曲形状に基づいて、舌の力の入れ具合いを判断することもでき、その判断結果に基づいて、撮影状態の良否を判定することができる。   Further, when the thickness of the tongue changes, the curved shape in the cross section along the left-right direction of the tongue also changes (see FIG. 18 and the like). Therefore, the determination unit 15 can also determine how the tongue is applied based on the curved shape of the tongue, and can determine the quality of the shooting state based on the determination result.

また、舌に力が入ると、図32に示すように、水平方向(左右方向)に垂直な断面内で舌が湾曲する場合もある。したがって、この湾曲度合いに基づいて、舌の力の入れ具合いを判定することもできる。例えば、舌の上記断面での湾曲形状を円で近似したときの曲率半径rが100mm以上である場合は、舌がほとんど湾曲しておらず、舌に力が入っていないと判断できるため、撮影状態としては良好と判定できる。一方、曲率半径rが100mm未満である場合は、舌の湾曲が大きく、舌に力が入っていると判断できるため、撮影状態としては不良と判定できる。   Further, when force is applied to the tongue, as shown in FIG. 32, the tongue may be curved in a cross section perpendicular to the horizontal direction (left-right direction). Therefore, it is possible to determine the degree of force applied to the tongue based on the degree of curvature. For example, when the radius of curvature r when the curved shape of the tongue in the above-mentioned cross section is approximated by a circle is 100 mm or more, it can be determined that the tongue is hardly curved and the tongue has no force. It can be determined that the state is good. On the other hand, when the radius of curvature r is less than 100 mm, it can be determined that the tongue is greatly curved and the tongue has a force, so that it is determined that the photographing state is poor.

また、舌に力が入って、舌が図32にように湾曲すると、舌の角度θの変化の場合と同様に、舌表面で照明光の反射によってできる光沢領域の位置が変化する。したがって、判定部15は、舌の角度θの判定のときと同様に、舌の撮像画像における光沢度の最も高い位置を検出することにより、舌の湾曲度合い(舌の力の入れ具合い)を判定することができ、これによって舌の撮影状態が良好であるか否かを判定できる。   Further, when a force is applied to the tongue and the tongue is bent as shown in FIG. 32, the position of the glossy region formed by the reflection of the illumination light on the tongue surface changes as in the case of the change in the angle θ of the tongue. Therefore, as in the determination of the tongue angle θ, the determination unit 15 determines the degree of tongue curvature (how the tongue is applied) by detecting the position with the highest glossiness in the captured image of the tongue. Thus, it can be determined whether or not the photographing state of the tongue is good.

(舌と装置との距離について)
図33は、舌と装置(器官画像撮影装置1)との位置関係を模式的に示している。舌が装置に近づいた状態で撮影されると、撮影画像では、舌が大きくなったり、舌が明るくなる。逆に、舌が装置から遠ざかった状態で撮影されると、撮影画像では、舌が小さくなったり、舌が暗くなる。したがって、例えば、撮影画像における舌の大きさまたは舌の明るさと、舌と装置との距離との対応関係をテーブルとして記憶部16に記憶させておけば、判定部15は、上記テーブルを参照して、撮影画像における舌の大きさまたは舌の明るさに基づいて、舌と装置との距離を判断することができ、その判断結果に基づいて、撮影状態の良否(舌と装置との位置関係が適切か否か)を判定することができる。例えば、舌と装置との距離Lが設計値の±10%の範囲に入っていれば、撮影状態は良好であると判定でき、上記範囲を外れていれば、撮影状態は不良と判定できる。
(About distance between tongue and device)
FIG. 33 schematically shows the positional relationship between the tongue and the device (organ image capturing device 1). When the image is taken with the tongue approaching the apparatus, the tongue becomes larger or the tongue becomes brighter in the captured image. On the other hand, if the image is taken with the tongue away from the device, the tongue becomes smaller or the tongue becomes darker in the photographed image. Therefore, for example, if the correspondence relationship between the size of the tongue or the brightness of the tongue in the captured image and the distance between the tongue and the device is stored in the storage unit 16 as a table, the determination unit 15 refers to the table. The distance between the tongue and the device can be determined based on the size of the tongue or the brightness of the tongue in the photographed image, and based on the determination result, the quality of the shooting state (positional relationship between the tongue and the device) can be determined. Whether or not is appropriate). For example, if the distance L between the tongue and the device is within a range of ± 10% of the design value, it can be determined that the shooting state is good, and if it is outside the above range, the shooting state can be determined as poor.

ここで、舌の大きさは、舌の輪郭線Qから求めることができる。例えば、図30に示した舌の輪郭線Qで囲まれた部分の面積、輪郭線Qの左右方向の幅W、輪郭線Qの上下方向の長さHを把握することにより、舌の大きさ(大小)を判断することができる。一方、舌の明るさは、舌の色の画像データに基づいて判断できる。例えば上記画像データの値が大きいほど、舌が明るく、値が小さいほど、舌が暗いと判断できる。なお、舌は、血液の色である赤身を帯びていることから、上記画像データとしてRの画像データを用いることで、舌の明るさを精度よく判断できるが、他のBやGの画像データを用いて舌の明るさを判断することも可能である。   Here, the size of the tongue can be obtained from the contour line Q of the tongue. For example, by grasping the area of the portion surrounded by the contour line Q of the tongue shown in FIG. 30, the width W in the horizontal direction of the contour line Q, and the length H in the vertical direction of the contour line Q, the size of the tongue is obtained. (Large or small) can be judged. On the other hand, the brightness of the tongue can be determined based on the image data of the tongue color. For example, it can be determined that the larger the value of the image data, the brighter the tongue, and the smaller the value, the darker the tongue. Since the tongue is reddish, which is the color of blood, the brightness of the tongue can be accurately determined by using the R image data as the image data, but other B and G image data It is also possible to determine the brightness of the tongue using.

(装置の角度について)
図33に示すように、装置の角度、つまり、水平方向に対する撮像部4の撮影光軸Xの角度をγとする(同図において時計回りを正方向とする)。舌に対して装置が傾くと(角度γが変化すると)、舌は装置に対して相対的に傾くため、舌の角度θが変化した場合と同様の現象が発生する。つまり、角度γが増加(正側に増大)すると、角度θが増加した場合と同じように、舌表面の光沢領域が舌尖側に近づき、角度γが減少(負側に増大)すると、逆に舌表面の光沢領域が舌根側に近づく。
(About the angle of the device)
As shown in FIG. 33, the angle of the apparatus, that is, the angle of the imaging optical axis X of the imaging unit 4 with respect to the horizontal direction is γ (clockwise in FIG. 33 is the positive direction). When the device is tilted with respect to the tongue (when the angle γ is changed), the tongue is tilted relative to the device, so that the same phenomenon as when the tongue angle θ is changed occurs. That is, when the angle γ increases (increases to the positive side), the glossy region of the tongue surface approaches the lingual apex side and the angle γ decreases (increases to the negative side), as in the case where the angle θ increases. The gloss area on the tongue surface approaches the tongue base side.

したがって、判定部15は、舌の角度θの判定のときと同様に、光沢度の最も高い位置を判定することにより、装置の角度γが良好な範囲(例えば設計値±10°の範囲)にあるかどうかを判定することができ、これによって舌の撮影状態が良好であるか否かを判定できる。   Therefore, as in the determination of the tongue angle θ, the determination unit 15 determines the position with the highest glossiness so that the angle γ of the device is in a favorable range (for example, a range of design value ± 10 °). It can be determined whether or not there is, and thereby it can be determined whether or not the photographing state of the tongue is good.

また、図29で示したように、舌表面の湾曲形状から、舌表面の各位置の、基準位置からの撮影光軸Xに沿った方向の距離Kがわかり、角度γが大きいほど(角度θが増加するほど)、舌尖に対する舌根の光軸方向の距離Kが大きくなる。したがって、この距離Kに基づいて、装置の角度γを求めることができ、その角度γが適正な範囲内(例えば設計値±10°の範囲内)か否かを判定して、撮影状態の良否を判定することができる。   Further, as shown in FIG. 29, from the curved shape of the tongue surface, the distance K of each position on the tongue surface in the direction along the photographing optical axis X from the reference position is known, and the larger the angle γ (the angle θ As the distance increases, the distance K in the optical axis direction of the tongue base with respect to the tongue tip increases. Therefore, the angle γ of the apparatus can be obtained based on the distance K, and it is determined whether or not the angle γ is within an appropriate range (for example, within the range of the design value ± 10 °). Can be determined.

なお、上述した目標範囲(例えば舌の角度θであれば0〜10°)は、一例であり、上述した数値に限定されるわけではない。上記目標範囲(判定閾値)は、複数の被験者の平均値より求めてもよいし、本人の撮影画像から求めてもよい。   Note that the target range described above (for example, 0 to 10 ° for the tongue angle θ) is an example, and is not limited to the numerical values described above. The target range (determination threshold) may be obtained from an average value of a plurality of subjects or may be obtained from a photographed image of the person.

〔6.制御フロー〕
図34は、本実施形態の器官画像撮影装置1における動作の一例を示すフローチャートである。以下、器官画像撮影装置1における動作について説明する。
[6. Control flow)
FIG. 34 is a flowchart showing an example of the operation in the organ image capturing apparatus 1 of the present embodiment. Hereinafter, the operation of the organ image capturing apparatus 1 will be described.

操作部6のOKボタン6aの押圧による撮影指示を受け付けると、照明制御部9は照明部2を点灯させ(S1)、表示制御部12は、図35に示すように、舌の撮影位置を規定するための枠線Pを表示部5に表示させる(S2)。なお、枠線Pは、舌の理想的な形を模して、上部が左右方向に伸びる直線状の線(破線)で構成され、その直線状の線の下方が曲線状(楕円の半分)の線(破線)で構成されているが、この形状に限定われるわけではなく、図36に示すように、四角形の形状であってもよい。   When receiving a photographing instruction by pressing the OK button 6a of the operation unit 6, the illumination control unit 9 turns on the illumination unit 2 (S1), and the display control unit 12 defines the photographing position of the tongue as shown in FIG. A frame line P is displayed on the display unit 5 (S2). Note that the frame line P is configured by a straight line (broken line) whose upper part extends in the left-right direction, imitating the ideal shape of a tongue, and the lower part of the straight line is a curved line (half of an ellipse). However, the present invention is not limited to this shape, and may be a quadrangular shape as shown in FIG.

続いて、撮像制御部11の制御により、撮像部4は、予備撮影を開始し(S3)、表示部5は、枠線Pとともに、使用者の舌の撮影画像(プレビュー画像)をリアルタイムで動画表示する。これにより、舌の位置や角度、舌の出し方などの構図の確認を使用者に促す。使用者は、枠線P内に収まるように舌の位置を調整することにより、舌の撮影状態を大まかに良好に近づけることができる。   Subsequently, under the control of the imaging control unit 11, the imaging unit 4 starts preliminary imaging (S3), and the display unit 5 displays a captured image (preview image) of the user's tongue together with the frame P in a moving image. indicate. This prompts the user to confirm the composition, such as the position and angle of the tongue and how to put out the tongue. By adjusting the position of the tongue so that it falls within the frame line P, the user can approximate the photographing state of the tongue roughly well.

構図が定まると、判定部15は、予備撮影で得られた撮影画像から、舌の撮影状態の良否を判定するための判定情報を抽出する(S4)。上記の判定情報は、後段のS13にて抽出される、各診断項目の情報(診断用情報)の少なくともいずれかと同じである。すなわち、判定情報には、例えば、舌の光沢度、舌の湾曲形状(湾曲度)、舌の輪郭線、舌の厚さ、舌の色などの情報が含まれる。   When the composition is determined, the determination unit 15 extracts determination information for determining whether the photographing state of the tongue is good or bad from the photographed image obtained by the preliminary photographing (S4). The determination information is the same as at least one of the information (diagnosis information) of each diagnosis item extracted in S13 of the subsequent stage. That is, the determination information includes information such as glossiness of the tongue, curved shape of the tongue (curvature), tongue contour, tongue thickness, tongue color, and the like.

続いて、判定部15は、抽出した判定情報に基づいて、舌の撮影状態の良否を判定する(S5)。例えば、判定部15は、舌の光沢度に基づいて舌の角度θを上述の手法によって求め、求めた角度θが目標範囲内かどうかを判定して、撮影状態の良否を判定する。S5にて、例えば角度θが目標範囲外であり、撮影状態が不良と判定された場合は、撮影状態が不良という判定結果を出力する(表示部5で表示したり、音声出力部8から音声出力する)。このとき、さらに、舌の撮影位置の調整を使用者に促すメッセージを表示部5に表示したり、その旨の音声を音声出力部8から出力してもよい。   Subsequently, the determination unit 15 determines the quality of the tongue photographing state based on the extracted determination information (S5). For example, the determination unit 15 determines the angle θ of the tongue based on the glossiness of the tongue by the above-described method, determines whether the calculated angle θ is within the target range, and determines whether the shooting state is good or bad. In S5, for example, when the angle θ is out of the target range and the shooting state is determined to be bad, a determination result that the shooting state is bad is output (displayed on the display unit 5 or voiced from the voice output unit 8). Output). At this time, a message prompting the user to adjust the photographing position of the tongue may be displayed on the display unit 5, or a sound to that effect may be output from the audio output unit 8.

S6の後は、S3の予備撮影に戻って、S3以降の動作が行われる。つまり、撮像制御部11は、判定部15にて舌の撮影状態が良好と判定されるまで、予備撮影を撮像部4に継続して実行させる。   After S6, the process returns to the preliminary shooting of S3, and the operations after S3 are performed. That is, the imaging control unit 11 causes the imaging unit 4 to continuously perform preliminary shooting until the determination unit 15 determines that the shooting state of the tongue is good.

S5にて、例えば舌の角度θが目標範囲内であり、舌の撮影状態が良好であると判定された場合、撮像制御部11は、操作部6にて使用者からの本撮影の指示が入力されるまで、撮像部4を待機させ、操作部6による本撮影の指示入力がなされたときに(S7)、本撮影を撮像部4に実行させる(S8)。舌の撮影状態が良好と判定されているため、本撮影では、その良好な撮影状態で舌が再度撮影される。このとき、本撮影では、予備撮影のときよりも高解像度で舌を撮影するなど、より高レベルの撮影条件で舌を撮影してもよい。   In S5, for example, when it is determined that the angle θ of the tongue is within the target range and the shooting state of the tongue is good, the imaging control unit 11 instructs the main shooting from the user through the operation unit 6. Until the image is input, the imaging unit 4 is put on standby, and when an instruction for main shooting is input by the operation unit 6 (S7), the imaging unit 4 is caused to execute main shooting (S8). Since it is determined that the photographing state of the tongue is good, in this photographing, the tongue is photographed again in the good photographing state. At this time, in the actual photographing, the tongue may be photographed under a higher level photographing condition such as photographing the tongue at a higher resolution than in the preliminary photographing.

上記のS5にて、舌の撮影状態が良好であると判定された場合、使用者による本撮影の指示入力を促すため、表示部5にて撮影状態が良好であるメッセージを表示してもよいし、その旨を音声で音声出力部8から出力するようにしてもよい。   If it is determined in S5 that the shooting state of the tongue is good, a message indicating that the shooting state is good may be displayed on the display unit 5 in order to prompt the user to input an instruction for main shooting. Then, it may be output from the audio output unit 8 by voice.

続いて、情報抽出部14は、本撮影で得られた撮影画像から舌の輪郭線を抽出し(S9)、その輪郭線をもとに、診断用情報を抽出するための診断領域(上部領域R1、中央領域R2、下部領域R3、検出領域R4・R5など)を設定する(S10)。   Subsequently, the information extraction unit 14 extracts the contour line of the tongue from the photographed image obtained by the main photographing (S9), and based on the contour line, the diagnostic region (upper region) for extracting diagnostic information R1, central region R2, lower region R3, detection regions R4 and R5, etc.) are set (S10).

その後、情報抽出部14は、本撮影で取得された画像から診断に必要な診断用情報(舌の色、舌の厚さ、舌の湿り気、歯痕、裂紋、苔の滑らかさなど)を上述の手法で抽出し(S11)、抽出した情報を複数のレベルに分類(数値化)する(S12)。例えば、S11にて、舌の色についての情報が抽出された場合、その情報を図5の例にならって4段階の数値(レベル1〜レベル4)に分類し、舌の厚さについての情報が抽出された場合、その情報を図5の例にならって3段階の数値(レベル1〜レベル3)に分類する。   Thereafter, the information extraction unit 14 supplies the diagnostic information (tongue color, tongue thickness, tongue wetness, tooth marks, fissures, moss smoothness, etc.) necessary for diagnosis from the image acquired in the actual photographing. (S11), and the extracted information is classified (numerized) into a plurality of levels (S12). For example, when information about the color of the tongue is extracted at S11, the information is classified into four levels (level 1 to level 4) according to the example of FIG. 5, and information about the thickness of the tongue is obtained. Is extracted, the information is classified into three levels (level 1 to level 3) according to the example of FIG.

次に、情報抽出部14は、数値化した情報に基づいて、使用者の健康度を判断する(S13)。例えば、舌の色について、「レベル3」であれば、健康度としては、正常(淡紅色で血流がよく、健康である)と判断する。また、例えば、舌の厚さについて、「レベル1」であれば、健康度としては異常(舌が薄く、血流の不足や水分不足が生じている)と判断する。   Next, the information extraction unit 14 determines the health level of the user based on the digitized information (S13). For example, if the color of the tongue is “level 3”, the degree of health is determined to be normal (light red, good blood flow, and healthy). For example, if the thickness of the tongue is “level 1”, it is determined that the health level is abnormal (the tongue is thin, blood flow is insufficient, or water is insufficient).

情報抽出部14にて数値化された情報や健康度の判定結果は、表示部5に表示され、記憶部16に記憶される(S14)。表示部5での表示により、使用者は各診断項目についての数値化情報または健康度を把握することができる。なお、S13での処理を省略し(当該装置にて健康度の判断を行わず)、S14にて、情報抽出部14が数値化した情報を外部に転送して外部にて使用者の健康度を判断し、その結果を当該装置が受信して表示部5にて表示するようにしてもよい。   The information digitized by the information extraction unit 14 and the determination result of the health level are displayed on the display unit 5 and stored in the storage unit 16 (S14). The display on the display unit 5 allows the user to grasp the digitized information or the health level for each diagnosis item. It should be noted that the processing in S13 is omitted (the health level is not judged by the device), and the information extracted by the information extraction unit 14 is transferred to the outside in S14, and the health level of the user is externally transmitted. And the result may be received by the apparatus and displayed on the display unit 5.

以上のように、判定部15は、撮像部3にて取得された画像から抽出される判定情報に基づいて、撮影状態の良否を判定する。上記の判定情報は、器官の診断に必要な診断用情報と同じ情報を含むため、判定部15がその情報(診断用情報)を用いて撮影状態の良否を判定することができる。これにより、撮影状態が良好と判定された場合には、その良好と判定された撮影状態で舌を再度撮影して得られる画像(本撮影で得られる画像)から、診断用情報を確実に取得することができる。その結果、本装置または外部の装置にて、診断用情報に基づく精度の高い適切な診断が可能となる。   As described above, the determination unit 15 determines the quality of the shooting state based on the determination information extracted from the image acquired by the imaging unit 3. Since the determination information includes the same information as diagnostic information necessary for organ diagnosis, the determination unit 15 can determine the quality of the imaging state using the information (diagnosis information). As a result, when the imaging state is determined to be good, diagnostic information is reliably acquired from an image obtained by imaging the tongue again in the imaging state determined to be good (an image obtained by actual imaging). can do. As a result, an appropriate diagnosis with high accuracy based on the diagnostic information can be performed by this apparatus or an external apparatus.

また、撮像制御部11は、判定部15での判定結果に応じて撮像部4を制御するため、撮影状態が不良と判定された場合は、撮影状態が良好と判定されるまで、撮像部4にて予備撮影を繰り返し(継続して)実行させ、撮影状態が不良のままでは本撮影を実行させないようにすることができる。これにより、使用者に舌の撮影状態の調整を促して、撮影状態を良好にすることができる。そして、撮影状態の良好な画像を取得して、その画像から、上記と同様に診断用情報を取得することが可能となる。   In addition, since the imaging control unit 11 controls the imaging unit 4 according to the determination result in the determination unit 15, if the imaging state is determined to be poor, the imaging unit 4 is determined until the imaging state is determined to be good. It is possible to repeat (continue) the preliminary shooting in order to prevent the main shooting from being executed if the shooting state remains defective. Accordingly, the user can be prompted to adjust the photographing state of the tongue, and the photographing state can be improved. Then, it is possible to acquire an image in a good photographing state and acquire diagnostic information from the image in the same manner as described above.

つまり、判定部15が判定情報(診断用情報)に基づいて舌の撮影状態の良否を判定し、その判定結果に応じて撮像制御部11が撮像部4を制御することにより、最終的に、撮影状態の良好な画像を取得して、その画像から診断用情報を確実に取得することができる。   That is, the determination unit 15 determines the quality of the photographing state of the tongue based on the determination information (diagnosis information), and the imaging control unit 11 controls the imaging unit 4 according to the determination result, so that finally, It is possible to acquire an image in a good shooting state and reliably acquire diagnostic information from the image.

また、判定情報は、舌の光沢度および舌の左右方向に垂直な断面での湾曲形状の少なくとも一方の情報を含んでいるため、判定部15は、上記いずれかの情報から、舌の角度や、装置の角度(撮像部4の撮影光軸Xの角度)を求めることができる。これにより、求めた角度に基づいて撮影状態の良否(舌の角度や装置の角度の良否)を判定することが可能となる。   In addition, since the determination information includes at least one of the glossiness of the tongue and the curved shape in a cross section perpendicular to the left-right direction of the tongue, the determination unit 15 determines the angle of the tongue, The angle of the apparatus (the angle of the photographic optical axis X of the imaging unit 4) can be obtained. Thereby, it is possible to determine the quality of the photographing state (the quality of the tongue or the angle of the device) based on the obtained angle.

また、判定情報は、舌の輪郭線の情報を含んでいるため、判定部15は、舌の輪郭線の情報に基づいて舌の縦横比を求め、求めた縦横比から得られる舌の長さに基づいて、撮影状態の良否を判定することができる。   Further, since the determination information includes information on the outline of the tongue, the determination unit 15 obtains the aspect ratio of the tongue based on the information on the outline of the tongue, and the length of the tongue obtained from the obtained aspect ratio. The quality of the shooting state can be determined based on the above.

また、判定情報は、舌の厚さ、舌の左右方向に沿った断面での湾曲度、および光沢度の少なくともいずれかの情報を含んでいるため、判定部15は、これらのいずれかの情報に基づいて、舌の力の入れ具合いを判断することができ、その判断結果に基づいて撮影状態の良否を判定することができる。   Further, since the determination information includes at least one of the thickness of the tongue, the degree of curvature in the cross section along the left-right direction of the tongue, and the glossiness, the determination unit 15 selects any one of these pieces of information. Based on the above, it is possible to determine how the tongue is applied, and based on the determination result, it is possible to determine the quality of the photographing state.

また、判定情報は、舌の輪郭線および舌の色の少なくとも一方の情報を含んでいるため、判定部15は、これらのいずれかの情報に基づいて舌の大きさまたは明るさを求め、求めた舌の大きさまたは明るさから、舌と該装置との距離を判断し、その判断結果に基づいて撮影状態の良否を判定することができる。   In addition, since the determination information includes at least one information of the outline of the tongue and the color of the tongue, the determination unit 15 obtains the size or brightness of the tongue based on any one of these pieces of information. The distance between the tongue and the device can be determined from the size or brightness of the tongue, and the quality of the photographing state can be determined based on the determination result.

また、出力部(表示部5、音声出力部)にて、判定部15の判定結果を出力するため、使用者は、上記の出力に基づき、撮影状態が良好であることを認識した場合は、本撮影の指示入力を行うことができ、撮影状態が不良であることを認識した場合は、舌の位置を調整して再度の撮影(予備撮影)に臨むことができる。   In addition, since the output unit (display unit 5, audio output unit) outputs the determination result of the determination unit 15, when the user recognizes that the shooting state is good based on the above output, When it is possible to input an instruction for main shooting and recognize that the shooting state is poor, the position of the tongue can be adjusted to start another shooting (preliminary shooting).

また、出力部は、判定部15にて、撮影状態が不良と判定されたときに、舌の撮影位置の調整を使用者に促すメッセージまたは音声を出力するため、使用者は、出力されたメッセージまたは音声によって、舌の撮影位置の調整が必要であることを把握でき、撮影位置を修正して再度の撮影(予備撮影)に臨むことができる。   The output unit outputs a message or a voice prompting the user to adjust the shooting position of the tongue when the determination unit 15 determines that the shooting state is poor. Alternatively, it is possible to grasp the necessity of adjusting the photographing position of the tongue by voice, and it is possible to correct the photographing position and start another photographing (preliminary photographing).

また、撮像制御部11は、判定部15にて舌の撮影状態が良好と判定されるまで、舌の予備撮影を撮像部4に実行させ、判定部15にて撮影状態が良好と判定された後、操作部6にて使用者からの本撮影の指示が入力されたときに本撮影を撮像部4に実行させる。そして、情報抽出部14は、撮像部4の本撮影にて取得された画像から、診断用情報を再度抽出する。本撮影では、予備撮影で良好と判定された撮影状態と同じ撮影状態で舌が撮影されるため、本撮影で取得した画像から診断用情報を再度抽出することにより、当該装置または外部の装置にて、抽出された診断用情報に基づいて、舌の診断を適切に行うことが可能となる。   In addition, the imaging control unit 11 causes the imaging unit 4 to perform preliminary photographing of the tongue until the determination unit 15 determines that the photographing state of the tongue is good, and the determination unit 15 determines that the photographing state is good. Thereafter, when an instruction for main shooting is input from the user through the operation unit 6, the imaging unit 4 is caused to perform main shooting. Then, the information extraction unit 14 extracts the diagnostic information again from the image acquired by the main imaging of the imaging unit 4. In the main shooting, the tongue is shot in the same shooting state as that determined to be good in the preliminary shooting. Therefore, by extracting diagnostic information again from the image acquired in the main shooting, the tongue or the external device can be extracted. Thus, the tongue can be properly diagnosed based on the extracted diagnostic information.

〔7.他の制御について〕
図37は、器官画像撮影装置1における動作の他の例を示すフローチャートである。同図では、図34のS7の工程を省略したフローとなっている。つまり、撮像制御部11は、判定部15にて舌の撮影状態が良好と判定されるまで、予備撮影を撮像部4に実行させ(S3〜S5)、判定部15にて撮影状態が良好と判定された後、使用者の操作部6による撮影指示を待つことなく、撮像部4に対して、本撮影の開始を直接指示し、良好と判定された撮影状態で本撮影を実行させてもよい(S8)。そして、情報抽出部14は、撮像部4の本撮影にて取得された画像から、診断用情報を再度抽出してもよい(S11)。
[7. About other controls)
FIG. 37 is a flowchart showing another example of the operation in the organ image photographing apparatus 1. In the same figure, the flow omits the step S7 of FIG. That is, the imaging control unit 11 causes the imaging unit 4 to perform preliminary shooting until the determination unit 15 determines that the shooting state of the tongue is good (S3 to S5), and the determination unit 15 determines that the shooting state is good. After the determination, it is possible to directly instruct the imaging unit 4 to start the main shooting without waiting for the shooting instruction from the user's operation unit 6 and to execute the main shooting in the shooting state determined to be good. Good (S8). And the information extraction part 14 may extract again the diagnostic information from the image acquired by the main imaging | photography of the imaging part 4 (S11).

判定部15にて撮影状態が良好と判定された場合、撮像部4は使用者の指示入力を受けることなく、自動的に本撮影を実行するため、撮影状態の良否判定後の処理を迅速に行うことが可能となる。   When the determination unit 15 determines that the shooting state is good, the imaging unit 4 automatically performs the main shooting without receiving an instruction input from the user. Can be done.

また、図38は、器官画像撮影装置1における動作のさらに他の例を示すフローチャートである。同図では、図37のS8の本撮影の工程が、S8’の画像選択工程に変更されている。つまり、撮像制御部11は、判定部15にて舌の撮影状態が良好と判定されるまで、予備撮影を撮像部4に実行させ(S3〜S5)、情報抽出部14は、撮像部4の予備撮影で取得された画像の中から、判定部15にて撮影状態が良好と判定された画像を選択し(S8’)、選択した画像から、診断用情報を再度抽出してもよい(S11)。   FIG. 38 is a flowchart showing still another example of the operation in the organ image photographing apparatus 1. In FIG. 37, the actual photographing process in S8 of FIG. 37 is changed to an image selection process in S8 '. That is, the imaging control unit 11 causes the imaging unit 4 to perform preliminary shooting until the determination unit 15 determines that the shooting state of the tongue is good (S3 to S5). From the images acquired by the preliminary shooting, an image that is determined to be in a good shooting state by the determination unit 15 may be selected (S8 ′), and diagnostic information may be extracted again from the selected image (S11). ).

S8’にて選択した画像は、撮影状態が良好と判定された画像であるため、この画像を選択して、情報抽出部14によって診断用情報を再度抽出することによっても、抽出した情報に基づき、当該装置または外部の装置にて診断を適切に行うことが可能となる。また、予備撮影後に本撮影が不要となるため、撮影状態の良否判定後の処理を迅速に行うことが可能となる。   Since the image selected in S8 ′ is an image that is determined to have a good shooting state, selecting this image and extracting the diagnostic information again by the information extraction unit 14 can also be based on the extracted information. The diagnosis can be appropriately performed by the device or an external device. In addition, since the main shooting is not required after the preliminary shooting, it is possible to quickly perform the processing after the quality determination of the shooting state.

〔8.プログラムについて〕
以上で説明した器官画像撮影装置1は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたスマートフォンのような多機能携帯端末(コンピュータ)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての全体制御部20)が読み取って実行することにより、器官画像撮影装置1における上述した各処理を実現することができる。このようなプログラムは、例えばネットワークを介してダウンロードすることによって取得され、記憶部16に記憶される。
[8. About the program)
The organ imaging apparatus 1 described above can be configured by, for example, a multifunctional portable terminal (computer) such as a smartphone in which a predetermined program (application software) is installed. By reading and executing the above program by a computer (for example, the overall control unit 20 as a CPU), the above-described processes in the organ imaging apparatus 1 can be realized. Such a program is acquired, for example, by downloading via a network, and is stored in the storage unit 16.

〔9.その他〕
以上では、生体が人間である場合について説明したが、人間以外の動物であってもよい。例えば、ペットや家畜などの動物の舌であっても、本実施形態の手法を適用して、撮影状態の良否判定を行い、良好な撮影状態で撮影された画像から診断用情報を抽出して健康度を診断することが可能である。この場合、使用者は、意思の伝達ができない動物の体調不良を速やかに、かつ的確に判断することができる。なお、撮影する動物ごとに平均的な舌の大きさが変化するため、動物ごとに、撮影状態の良否判定の際の目標範囲(判定閾値)を設定してもよい。
[9. Others]
The case where the living body is a human has been described above, but an animal other than a human may be used. For example, even for the tongue of an animal such as a pet or a domestic animal, the method of this embodiment is applied to determine the quality of the shooting state and extract diagnostic information from the image shot in a good shooting state. It is possible to diagnose the health level. In this case, the user can quickly and accurately determine the poor physical condition of the animal that cannot communicate the intention. Since the average tongue size changes for each animal to be photographed, a target range (determination threshold value) for determining the quality of the photographing state may be set for each animal.

以上では、撮影対象である生体の器官が舌である場合について説明したが、撮影対象は舌には限定されない。図39は、人間の眼(例えば右眼)の下に位置する下瞼Sを撮影した撮影画像を示している。下瞼Sの色や形より、血流や水分代謝の良否を診断することができる。同図のように、眼とその下の領域をガイドする枠線Pを表示部5に表示して、下瞼Sの位置を案内し、その位置で下瞼Sを撮影して、撮影状態の良否判定を行うようにしてもよい。この場合でも、撮影状態が良好な画像から診断用情報を抽出して、適切な診断を行うことが可能となる。   In the above, the case where the organ of the living body to be imaged is the tongue has been described, but the imaged object is not limited to the tongue. FIG. 39 shows a photographed image obtained by photographing the lower eyelid S located under the human eye (for example, the right eye). The quality of blood flow and water metabolism can be diagnosed from the color and shape of the lower eyelid S. As shown in the figure, a frame P that guides the eye and the area below it is displayed on the display unit 5, the position of the lower eyelid S is guided, the lower eyelid S is photographed at that position, You may make it perform quality determination. Even in this case, it is possible to extract diagnostic information from an image with a good shooting state and perform an appropriate diagnosis.

以上、本実施形態の器官画像撮影装置1によれば、経験の浅い医師、看護師、介護師、薬剤師などの医療従事者や、患者本人が使用者となって、器官の画像を撮影する場合でも、常に撮影状態の良好な画像を取得できるため、上記画像に基づいて常に適切な診断を行うことができる。また、撮影日や被験者による撮影条件の変動もなく、撮影画像に基づく診断を安定して行うことができる。さらに、患者本人による撮影とコンピュータ診断とを組み合わせることにより、日々の体調管理や疾患の早期発見に役立てることができる。   As described above, according to the organ image capturing apparatus 1 of the present embodiment, a medical worker such as an inexperienced doctor, nurse, caregiver, or pharmacist, or a patient himself / herself becomes a user to capture an image of an organ. However, since an image in a good shooting state can always be acquired, an appropriate diagnosis can always be performed based on the image. In addition, the diagnosis based on the photographed image can be performed stably without the photographing date and the photographing condition being changed by the subject. Furthermore, by combining imaging by the patient and computer diagnosis, it can be used for daily physical condition management and early detection of diseases.

本発明は、生体の器官を撮影し、健康度の診断に必要な情報を抽出する装置に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for an apparatus that captures an organ of a living body and extracts information necessary for health diagnosis.

1 器官画像撮影装置
2 照明部
4 撮像部
5 表示部(出力部)
6 操作部
8 音声出力部(出力部)
11 撮像制御部
14 情報抽出部
15 判定部
P 枠線
DESCRIPTION OF SYMBOLS 1 Organ imaging device 2 Illumination part 4 Imaging part 5 Display part (output part)
6 Operation part 8 Audio output part (output part)
DESCRIPTION OF SYMBOLS 11 Imaging control part 14 Information extraction part 15 Judgment part P Borderline

Claims (16)

生体の器官を撮影して画像を取得する撮像部と、
前記画像から、前記器官の診断に必要な診断用情報を抽出する情報抽出部と、
前記器官の撮影状態の良否を判定する判定部と、
前記判定部での判定結果に応じて、前記撮像部を制御する撮像制御部とを備え、
前記判定部は、前記撮像部によって取得される画像から、前記撮影状態の良否判定のための判定情報を抽出し、前記判定情報に基づいて前記撮影状態の良否を判定し、
前記判定情報は、前記診断用情報と同じ情報を含むことを特徴とする器官画像撮影装置。
An imaging unit that captures an image of a living organ and acquires an image;
An information extraction unit for extracting diagnostic information necessary for diagnosis of the organ from the image;
A determination unit for determining the quality of the imaging state of the organ;
An imaging control unit that controls the imaging unit according to a determination result in the determination unit;
The determination unit extracts determination information for determining the quality of the shooting state from the image acquired by the imaging unit, determines the quality of the shooting state based on the determination information,
The organ image capturing apparatus, wherein the determination information includes the same information as the diagnostic information.
前記器官は、舌であることを特徴とする請求項1に記載の器官画像撮影装置。   The organ image capturing apparatus according to claim 1, wherein the organ is a tongue. 前記判定情報は、前記診断用情報と同じ情報として、舌の光沢度および舌の左右方向に垂直な断面での湾曲形状の少なくとも一方の情報を含むことを特徴とする請求項2に記載の器官画像撮影装置。   The organ according to claim 2, wherein the determination information includes at least one information of glossiness of the tongue and a curved shape in a cross section perpendicular to the left-right direction of the tongue as the same information as the diagnostic information. Image shooting device. 前記判定部は、前記判定情報に基づいて、鉛直方向に対する舌の角度、および水平方向に対する前記撮像部の撮影光軸の角度の少なくとも一方を求め、求めた角度に基づいて前記撮影状態の良否を判定することを特徴とする請求項3に記載の器官画像撮影装置。   The determination unit obtains at least one of the angle of the tongue with respect to the vertical direction and the angle of the photographing optical axis of the imaging unit with respect to the horizontal direction based on the determination information, and determines whether the photographing state is good based on the obtained angle. The organ imaging apparatus according to claim 3, wherein the determination is performed. 前記判定情報は、前記診断用情報と同じ情報として、舌の輪郭線の情報を含むことを特徴とする請求項2から4のいずれかに記載の器官画像撮影装置。   The organ image capturing apparatus according to claim 2, wherein the determination information includes information on a contour line of a tongue as the same information as the diagnostic information. 前記判定部は、舌の輪郭線の情報に基づいて舌の縦横比を求め、求めた縦横比から得られる舌の長さに基づいて、前記撮影状態の良否を判定することを特徴とする請求項5に記載の器官画像撮影装置。   The determination unit determines an aspect ratio of the tongue based on information on a contour line of the tongue, and determines whether the photographing state is good based on a length of the tongue obtained from the determined aspect ratio. Item 6. The organ image photographing apparatus according to Item 5. 前記判定情報は、前記診断用情報と同じ情報として、舌の厚さ、舌の左右方向に沿った断面での湾曲度、および舌の光沢度の少なくともいずれかの情報を含むことを特徴とする請求項2から6のいずれかに記載の器官画像撮影装置。   The determination information includes, as the same information as the diagnostic information, information on at least one of the thickness of the tongue, the degree of curvature of the tongue along the left-right direction, and the glossiness of the tongue. The organ image photographing device according to any one of claims 2 to 6. 前記判定部は、前記判定情報に基づいて舌の力の入れ具合いを判断し、その判断結果に基づいて前記撮影状態の良否を判定することを特徴とする請求項7に記載の器官画像撮影装置。   The organ image capturing apparatus according to claim 7, wherein the determination unit determines the degree of tongue force based on the determination information, and determines whether the imaging state is acceptable based on the determination result. . 前記判定情報は、前記診断用情報と同じ情報として、舌の輪郭線および舌の色の少なくとも一方の情報を含むことを特徴とする請求項2から8のいずれかに記載の器官画像撮影装置。   9. The organ image photographing apparatus according to claim 2, wherein the determination information includes at least one of a tongue outline and a tongue color as the same information as the diagnostic information. 前記判定部は、前記判定情報に基づいて舌の大きさまたは明るさを求め、求めた舌の大きさまたは明るさから、舌と該装置との距離を判断し、その判断結果に基づいて前記撮影状態の良否を判定することを特徴とする請求項9に記載の器官画像撮影装置。   The determination unit determines the size or brightness of the tongue based on the determination information, determines the distance between the tongue and the device from the determined size or brightness of the tongue, and determines the distance based on the determination result. The organ image photographing apparatus according to claim 9, wherein the quality of the photographing state is determined. 前記判定部の判定結果を出力する出力部をさらに備えていることを特徴とする請求項1から10のいずれかに記載の器官画像撮影装置。   The organ imaging apparatus according to claim 1, further comprising an output unit that outputs a determination result of the determination unit. 前記出力部は、前記判定部にて、前記撮影状態が不良と判定されたときに、前記器官の撮影位置の調整を使用者に促すメッセージまたは音声をさらに出力することを特徴とする請求項11に記載の器官画像撮影装置。   12. The output unit further outputs a message or a sound prompting a user to adjust the imaging position of the organ when the imaging unit determines that the imaging state is defective. An organ imaging apparatus according to claim 1. 使用者からの本撮影の指示を受け付ける操作部をさらに備えており、
前記撮像制御部は、前記判定部にて前記器官の撮影状態が良好と判定されるまで、前記撮像部に予備撮影を実行させて、前記器官の画像を取得させ、前記判定部にて、前記画像の撮影状態が良好と判定された後、前記操作部にて使用者からの本撮影の指示が入力されたときに、良好と判定された前記撮影状態で前記撮像部に本撮影を実行させて、前記器官の画像を取得させ、
前記情報抽出部は、前記本撮影にて取得された前記画像から、前記診断用情報を抽出することを特徴とする請求項1から12のいずれかに記載の器官画像撮影装置。
It further includes an operation unit that accepts an instruction for actual shooting from the user,
The imaging control unit causes the imaging unit to perform preliminary imaging until the determination unit determines that the imaging state of the organ is good, and acquires an image of the organ. After the image shooting state is determined to be good, when an instruction for main shooting is input from the user through the operation unit, the imaging unit is caused to execute main shooting in the shooting state determined to be good. To acquire an image of the organ,
The organ image capturing apparatus according to claim 1, wherein the information extraction unit extracts the diagnostic information from the image acquired in the main imaging.
前記撮像制御部は、前記判定部にて前記器官の撮影状態が良好と判定されるまで、前記撮像部に予備撮影を実行させて、前記器官の画像を取得させ、前記判定部にて、前記画像の撮影状態が良好と判定された後、前記撮像部に対して本撮影の開始を指示し、良好と判定された前記撮影状態で前記撮像部に本撮影を実行させて、前記器官の画像を取得させ、
前記情報抽出部は、前記本撮影にて取得された前記画像から、前記診断用情報を抽出することを特徴とする請求項1から12のいずれかに記載の器官画像撮影装置。
The imaging control unit causes the imaging unit to perform preliminary imaging until the determination unit determines that the imaging state of the organ is good, and acquires an image of the organ. After the imaging state of the image is determined to be good, the imaging unit is instructed to start main imaging, and the imaging unit is made to perform main imaging in the imaging state determined to be good, and the image of the organ And get
The organ image capturing apparatus according to claim 1, wherein the information extraction unit extracts the diagnostic information from the image acquired in the main imaging.
前記撮像制御部は、前記判定部にて前記器官の撮影状態が良好と判定されるまで、前記撮像部に予備撮影を実行させて、前記器官の画像を取得させ、
前記情報抽出部は、前記予備撮影で取得された画像の中から、前記判定部にて撮影状態が良好と判定された画像を選択し、選択した画像から、前記診断用情報を抽出することを特徴とする請求項1から12のいずれかに記載の器官画像撮影装置。
The imaging control unit causes the imaging unit to perform preliminary imaging until the determination unit determines that the imaging state of the organ is good, and acquires an image of the organ,
The information extraction unit selects an image that is determined to be in a good shooting state by the determination unit from images acquired in the preliminary shooting, and extracts the diagnostic information from the selected image. The organ image capturing apparatus according to claim 1, wherein the organ image capturing apparatus is characterized.
前記撮像部によって取得される画像を、前記器官の撮影位置を規定するための枠線とともに表示する表示部をさらに備えていることを特徴とする請求項1から15のいずれかに記載の器官画像撮影装置。   The organ image according to claim 1, further comprising a display unit that displays an image acquired by the imaging unit together with a frame line for defining an imaging position of the organ. Shooting device.
JP2015051907A 2015-03-16 2015-03-16 Organ photographing apparatus Pending JP2016168303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015051907A JP2016168303A (en) 2015-03-16 2015-03-16 Organ photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051907A JP2016168303A (en) 2015-03-16 2015-03-16 Organ photographing apparatus

Publications (1)

Publication Number Publication Date
JP2016168303A true JP2016168303A (en) 2016-09-23

Family

ID=56982743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051907A Pending JP2016168303A (en) 2015-03-16 2015-03-16 Organ photographing apparatus

Country Status (1)

Country Link
JP (1) JP2016168303A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019225230A1 (en) * 2018-05-23 2021-07-01 パナソニックIpマネジメント株式会社 Eating and swallowing function evaluation method, program, eating and swallowing function evaluation device and eating and swallowing function evaluation system
JP2023049604A (en) * 2021-09-29 2023-04-10 国立大学法人 新潟大学 Tongue state estimation device, tongue state estimation method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019225230A1 (en) * 2018-05-23 2021-07-01 パナソニックIpマネジメント株式会社 Eating and swallowing function evaluation method, program, eating and swallowing function evaluation device and eating and swallowing function evaluation system
JP7165900B2 (en) 2018-05-23 2022-11-07 パナソニックIpマネジメント株式会社 Swallowing Function Evaluation Method, Program, Swallowing Function Evaluation Apparatus, and Swallowing Function Evaluation System
JP2023049604A (en) * 2021-09-29 2023-04-10 国立大学法人 新潟大学 Tongue state estimation device, tongue state estimation method and program
JP7719494B2 (en) 2021-09-29 2025-08-06 国立大学法人 新潟大学 Tongue state estimation device, tongue state estimation method and program

Similar Documents

Publication Publication Date Title
JPWO2016076059A1 (en) Organ imaging apparatus and program
JP7068487B2 (en) Electronic endoscopy system
CN105310646B (en) The human health status being imaged based on white of the eye without shadow is in body analysis system
CN112351723B (en) Electronic endoscope system and data processing device
CN112469323B (en) Endoscope system
WO2015114950A1 (en) Organ image capturing device
JPWO2015029537A1 (en) Organ imaging device
JPWO2016067892A1 (en) Health level output device, health level output system and program
WO2015166692A1 (en) Health degree assessing device and health degree assessing system
US11950762B2 (en) Electronic endoscope system and data processing device
JPWO2015037316A1 (en) Organ image photographing apparatus and organ image photographing method
KR101419257B1 (en) Tongue coat analyzer using light source with a range of specific wavelength
KR101992016B1 (en) fundus fluorescence image acquisition apparatus with optical source and focus automatic control function, and method thereof
US12011142B2 (en) Electronic endoscope system
JP2016198140A (en) Organ image capturing device
JP2016168303A (en) Organ photographing apparatus
WO2015049936A1 (en) Organ imaging apparatus
JP7455716B2 (en) Endoscope processor and endoscope system
JP2016150024A (en) Organ imaging device
JP2016151584A (en) Organ image capturing device
US20160242678A1 (en) Organ image photographing apparatus
JP2015226599A (en) Apparatus for measuring chromaticity of living body
JPWO2019142689A1 (en) Electronic Endoscope Processor and Electronic Endoscope System
WO2015060070A1 (en) Organ image capture device
WO2015068495A1 (en) Organ image capturing device