JP2022006564A - Electronic record recording support device and electronic record recording support method - Google Patents
Electronic record recording support device and electronic record recording support method Download PDFInfo
- Publication number
- JP2022006564A JP2022006564A JP2020108853A JP2020108853A JP2022006564A JP 2022006564 A JP2022006564 A JP 2022006564A JP 2020108853 A JP2020108853 A JP 2020108853A JP 2020108853 A JP2020108853 A JP 2020108853A JP 2022006564 A JP2022006564 A JP 2022006564A
- Authority
- JP
- Japan
- Prior art keywords
- information
- body part
- input
- finding
- electronic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】剖検所見の電子所見録への記録作業を支援することができる電子所見録記録支援装置及び電子所見録記録支援方法を提供する。【解決手段】電子所見録記録支援装置300は、身体部位に関する所見情報の電子所見録への記録を支援する。電子所見録記録支援装置300は、音声入力機能および画像表示機能を有する端末装置と接続する端末接続部320と、人体図を表示している端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、身体部位情報および識別情報を取得する情報取得部及び取得した身体部位情報に基づいて、人体図における身体部位の位置を特定する位置特定部と、人体図において、特定された身体部位の位置に識別情報を表示させる表示制御部として機能する入力画面制御部340と、を備える。【選択図】図2[Problem] To provide an electronic findings record recording support device and an electronic findings record recording support method that can support the recording of autopsy findings in an electronic findings record. [Solution] An electronic findings record recording support device 300 supports the recording of finding information related to a body part in an electronic findings record. The electronic findings record recording support device 300 includes a terminal connection unit 320 that connects to a terminal device having a voice input function and an image display function, an information acquisition unit that acquires body part information and identification information based on voice recognition processing when body part information indicating a body part and identification information identifying the body part are input by voice on a terminal device displaying a human body diagram, a position identification unit that identifies the position of the body part on the human body diagram based on the acquired body part information, and an input screen control unit 340 that functions as a display control unit that displays the identification information at the position of the identified body part on the human body diagram. [Selected Figure] FIG.
Description
本発明は、複数の身体部位に関する所見情報の電子所見録への入力を支援する電子所見録記録支援装置および電子所見録記録支援方法に関する。 The present invention relates to an electronic record recording support device and an electronic record recording support method that support input of finding information regarding a plurality of body parts into an electronic record.
近年、診療の分野において電子カルテ(所見録)の普及が進んでいる。通常、電子カルテは、液晶ディスプレイ等の表示インタフェースに、入力すべき情報の項目や入力欄を配置した画面を表示する。そして、電子カルテは、キーボードおよびマウス等の手入力インタフェースを介して、医療従事者から情報の入力を受け付け、入力された情報を参照可能な状態で記録する。 In recent years, electronic medical records (findings) have become widespread in the field of medical care. Normally, an electronic medical record displays a screen in which information items to be input and input fields are arranged on a display interface such as a liquid crystal display. Then, the electronic medical record receives input of information from the medical staff via a manual input interface such as a keyboard and a mouse, and records the input information in a referenceable state.
総合病院等では、複数の医療従事者がカルテの記録や参照を行う。そこで、複数の端末装置から1つの電子カルテにアクセスすることを可能にする技術が提案されている(例えば特許文献1参照)。 At general hospitals, etc., multiple medical staff record and refer to medical records. Therefore, a technique has been proposed that enables access to one electronic medical record from a plurality of terminal devices (see, for example, Patent Document 1).
特許文献1に記載の技術(以下「従来技術」という)は、ある患者の電子カルテがいずれかの端末装置において編集されている間、他の端末装置ではかかる患者の電子カルテの編集ができないようにするとともに、所定のルールに基づいて編集を許可する端末装置を切り替える。このような従来技術によれば、複数の医療従事者による電子カルテへの所見情報の記録を、効率良く行うことができる。 The technique described in Patent Document 1 (hereinafter referred to as "conventional technique") is such that while an electronic medical record of a patient is being edited on one of the terminal devices, the electronic medical record of the patient cannot be edited on the other terminal device. At the same time, the terminal device that allows editing is switched based on a predetermined rule. According to such a conventional technique, it is possible to efficiently record finding information in an electronic medical record by a plurality of medical professionals.
ところで、診療の分野だけでなく、法医解剖や病理解剖の分野においても、剖検所見を記録する所見録の電子化が望まれる。 By the way, it is desired to digitize the findings for recording autopsy findings not only in the field of medical care but also in the fields of forensic anatomy and pathological anatomy.
しかしながら、剖検を行っている執刀医にとって、手入力インタフェースを使用することは困難である。また、一人は頭部の剖検を行い、他の一人は腹部の剖検を行うというように、複数の執刀医が1つの被検体について同時に剖検を行うことも多い。したがって、上述の従来技術は、剖検所見を電子的な所見録(以下「電子所見録」という)に記録する用途には適していない。 However, it is difficult for the surgeon performing the autopsy to use the manual input interface. In many cases, multiple surgeons perform an autopsy on one subject at the same time, such as one performing an autopsy on the head and the other performing an autopsy on the abdomen. Therefore, the above-mentioned prior art is not suitable for recording autopsy findings in electronic findings (hereinafter referred to as "electronic findings").
本発明の目的は、剖検所見の電子所見録への記録作業を支援することができる電子所見録記録支援装置および電子所見録記録支援方法を提供することである。 An object of the present invention is to provide an electronic finding recording support device and an electronic finding recording support method capable of supporting the recording work of autopsy findings in electronic findings.
本発明の一態様に係る電子所見録記録支援装置は、
身体部位に関する所見情報の電子所見録への記録を支援する電子所見録記録支援装置であって、
音声入力機能および画像表示機能を有する端末装置と接続する端末接続部と、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得する情報取得部と、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定する位置特定部と、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる表示制御部と、
を備える。
The electronic record recording support device according to one aspect of the present invention is
It is an electronic finding recording support device that supports the recording of finding information about body parts in electronic findings.
A terminal connection unit that connects to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. The information acquisition unit that acquires identification information, and
Based on the acquired body part information, a position specifying part that specifies the position of the body part in the human body diagram, and
In the human body diagram, a display control unit that displays the identification information at the position of the specified body part, and
To prepare for.
本発明の一態様に係る電子所見録記録支援方法は、
身体部位に関する所見情報の電子所見録への記録を支援する電子所見録記録支援方法であって、
音声入力機能および画像表示機能を有する端末装置と接続し、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得し、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定し、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる。
The method for supporting the recording of electronic findings according to one aspect of the present invention is as follows.
It is an electronic finding recording support method that supports the recording of finding information on body parts in electronic findings.
Connect to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. Get the identification information,
Based on the acquired body part information, the position of the body part in the human body diagram is specified, and the position of the body part is specified.
In the human body diagram, the identification information is displayed at the position of the specified body part.
本開示によれば、剖検所見の電子所見録への記録作業を支援することができる。 According to the present disclosure, it is possible to support the work of recording autopsy findings in electronic findings.
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
<システム概要>
まず、本実施の形態に係る電子所見録記録支援装置が使用される電子所見録システムの概要について説明する。本実施の形態において、電子所見録システムは、法医解剖における剖検所見を記録するためのシステムである。
<System overview>
First, an outline of the electronic record system in which the electronic record recording support device according to the present embodiment is used will be described. In this embodiment, the electronic finding system is a system for recording autopsy findings in a forensic anatomy.
図1は、本実施の形態に係る電子所見録記録支援装置が使用される電子所見録システムの概要の一例を示す図である。 FIG. 1 is a diagram showing an example of an outline of an electronic finding recording system in which the electronic finding recording support device according to the present embodiment is used.
図1に示すように、電子所見録システム100は、解剖室110の内部に配置される第1および第2の端末装置2001、2002と、解剖室110の外部に配置される電子所見録記録支援装置300とを有する。
As shown in FIG. 1 , the
第1の端末装置2001は、第1の端末制御装置2101と、マイクロフォンを備えた第1のヘッドセット2201と、液晶ディスプレイを備えた第1の表示装置2301と、を有する。
The
第1のヘッドセット2201および第1の表示装置2301は、それぞれ、第1の端末制御装置2101に通信可能に接続されている。すなわち、第1の端末装置2001は、音声入力機能および画像表示機能を有する端末装置である。第1のヘッドセット2201は、ある被検体120を法医解剖する執刀医である第1のユーザ1301の頭部に装着される。第1の表示装置2301は、この第1のユーザ1301によって使用される。
The first headset 220 1 and the first display device 230 1 are each communicably connected to the first terminal control device 210 1 . That is, the first
また、第2の端末装置2002も、第2の端末制御装置2102、第2のヘッドセット2202、および第2の表示装置2302を備えた、第1の端末装置2001と同様の構成となっている。第2のヘッドセット2202は、被検体120を法医解剖するもう一人の執刀医である第2のユーザ1302の頭部に装着される。第2の表示装置2302は、この第2のユーザ1302によって使用される。
Further, the
電子所見録記録支援装置300は、第1の端末制御装置2101および第2の端末制御装置2102のそれぞれと通信可能に接続し、第1の端末装置2001および第2の端末装置2002のそれぞれに電子所見録のユーザインタフェースを実現する。すなわち、電子所見録記録支援装置300は、各端末装置200に所見録入力画面を表示させ、所見録情報の提示および電子所見録への所見情報の入力の受け付けを行う。
The electronic record
より具体的には、電子所見録記録支援装置300は、音声によるハンズフリーでの所見情報の入力を可能にし、更に、第1および第2のユーザ1301、1302が同時に所見情報を入力することを可能にする。
More specifically, the electronic record
<装置の構成>
次に、電子所見録記録支援装置300の構成について説明する。
<Device configuration>
Next, the configuration of the electronic record
図2は、電子所見録記録支援装置300の構成の一例を示す図である。
FIG. 2 is a diagram showing an example of the configuration of the electronic record
図2において、電子所見録記録支援装置300は、情報格納部310(本発明の「人体図情報記憶部」として機能)、端末接続部320、音声認識解析部330、入力画面制御部340(本発明の「情報取得部」、「位置特定部」および「表示制御部」として機能)、および情報記録部350(本発明の「記憶制御部」として機能)を有する。
In FIG. 2, the electronic record
情報格納部310は、電子所見録のユーザインタフェースを実現するための各種情報を予め格納している。より具体的には、情報格納部310は、音声認識辞書311、所見録構成情報312、所見録情報データ313および人体図情報314を格納している。
The
音声認識辞書311は、音響モデル、発音辞書、および言語モデル等の、音声データをテキストデータに変換する音声認識処理で使用される情報である。音響モデルは、音声の特徴量と発音記号との確率的な対応付けをデータ化したものである。発音辞書は、音声認識処理による音声認識結果の候補群として、複数のテキスト配列を記述したものである。言語モデルは、発音辞書に記述されたテキスト配列のそれぞれについて、出現確率や接続確率をデータ化したものである。 The speech recognition dictionary 311 is information used in speech recognition processing for converting speech data into text data, such as an acoustic model, a pronunciation dictionary, and a language model. The acoustic model is a data of the stochastic correspondence between the feature amount of the voice and the phonetic symbol. The pronunciation dictionary describes a plurality of text sequences as a candidate group of speech recognition results by speech recognition processing. The language model is a data of the appearance probability and the connection probability for each of the text sequences described in the pronunciation dictionary.
なお、発音辞書および言語モデルは、医学専門用語および所見録の記録形式に対応したものであることが望ましい。また、音響モデルは、学習によりユーザ毎にカスタマイズされた音響モデルと、不特定のユーザ用の音響モデルとを含むことが望ましい。また、発音辞書および言語モデルは、後述の、表示画面毎および画面モード毎に用意されていることが望ましい。 It is desirable that the pronunciation dictionary and language model correspond to the recording format of medical technical terms and findings. Further, it is desirable that the acoustic model includes an acoustic model customized for each user by learning and an acoustic model for an unspecified user. Further, it is desirable that the pronunciation dictionary and the language model are prepared for each display screen and each screen mode, which will be described later.
所見録構成情報312は、電子所見録のユーザインタフェースを構築するために必要な情報である。所見録構成情報312は、例えば、所見録構造データ、コマンドデータ、発音辞書データ、および端末状態管理表を含む。
The
所見録構造データは、電子所見録の構造を記述するデータである。コマンドデータは、ユーザから受け付けるコマンドを記述するデータである。発音辞書データは、電子所見録で表示される文字列とその読みとを対応付けて記述するデータである。端末状態管理表は、各端末装置200を識別し、各端末装置200の状態を記述する情報である。なお、所見録構造データ、コマンドデータ、および発音辞書データは、予め用意された情報であるのに対し、端末状態管理表は、電子所見録システム100の状態に応じて生成され変化する情報である。
The findings structure data is data that describes the structure of electronic findings. The command data is data that describes a command received from the user. The pronunciation dictionary data is data that describes the character string displayed in the electronic findings in association with the reading thereof. The terminal state management table is information that identifies each terminal device 200 and describes the state of each terminal device 200. The finding structure data, the command data, and the pronunciation dictionary data are information prepared in advance, whereas the terminal state management table is information generated and changed according to the state of the
図3は、所見録構造データの内容の一例を示す図である。 FIG. 3 is a diagram showing an example of the contents of the findings structure data.
図3に示すように、所見録構造データ410は、部位名411毎に、部位名に属する項目名412と、当該項目名412の入力欄タイプ413とを記述する。
As shown in FIG. 3, in the finding
部位名411は、身体部位の名称である。部位名411とは、例えば、「心臓」等の、一人の執刀医が剖検を行う際に一時に着目する、被検体の範囲の名称である。なお、本実施の形態では、「基本情報」といった、一人の執刀医が剖検を行う際に一時に着目する、一まとまりの各種情報の名称についても、部位名411として取り扱う。
The
項目名412は、部位名411に対応する、所見情報を記録すべき対象の名称である。
The
入力欄タイプ413は、項目名412に対応する所見情報の、入力の仕方の種別である。
The
なお、所見録構造データ410は、部位名411、項目名412、および項目名412のそれぞれについて、所見録入力画面において表示される際の、位置、大きさ、字体、および色等の情報を含んでいてもよい。また、所見録構造データ410は、項目名412のそれぞれについて、入力された所見情報のメモリ格納場所に関する情報を含んでいてもよい。
The finding
図4は、コマンドデータの内容の一例を示す図である。 FIG. 4 is a diagram showing an example of the contents of the command data.
図4に示すように、コマンドデータ420は、画面モード421毎に、コマンド422を記述している。
As shown in FIG. 4, the
画面モード421は、電子所見録の画面が受け付ける操作の種別である。本実施の形態において、画面モード421に、少なくとも、「選択モード」および「入力モード」を含む。選択モードは、画面に表示された部位名や項目名を選択する操作を受け付けるモードである。入力モードは、画面に表示された項目名に対応する入力欄への情報入力操作を受け付けるモードである。なお、入力モードは、更に、自由文を入力するためのモードと、数値を入力するためのモードとに分かれていることが望ましい。
The
コマンド422は、所見録入力画面においてユーザから受け付ける命令語である。本実施の形態において、コマンド422は、入力欄への入力を開始するための入力開始コマンド、入力欄に記述された内容への編集を行うための各種編集コマンド、および入力欄への入力を停止するための入力停止コマンドを含む。
The
図5は、発音辞書データの内容の一例を示す図である。 FIG. 5 is a diagram showing an example of the contents of the pronunciation dictionary data.
図5に示すように、発音辞書データ430は、文字列431毎に、読み432を記述している。文字列431は、電子所見録システム100が所見録入力画面において音声入力を受け付ける語句の文字列であり、部位名411、項目名412、およびコマンド422(図3および図4参照)を含む。
As shown in FIG. 5, the
なお、かかる発音辞書データ430と同じ内容の情報が、上述の音声認識辞書311の発音辞書に含まれているものとする。あるいは、発音辞書データ430は、音声認識辞書311と所見録構成情報312とで兼用されていてもよい。
It is assumed that the information having the same content as the
図6は、端末状態管理表の内容の一例を示す図である。 FIG. 6 is a diagram showing an example of the contents of the terminal state management table.
図6に示すように、端末状態管理表440は、第1の端末装置442および第2の端末装置443のそれぞれについて、状態項目441毎の状態を記述している。
As shown in FIG. 6, the terminal state management table 440 describes the state of each
状態項目441には、端末ID、ユーザ名、作業中所見録No.、表示画面、作業状態、および選択中の項目が含まれる。端末IDは、端末装置200の識別情報である。なお、端末IDは、マイクIDとディスプレイIDとの組であってもよい。ユーザ名は、端末装置200を使用するユーザの識別情報である。作業中所見録No.は、端末装置200で入力あるいは編集の作業の対象となっている所見録情報データの識別情報である。表示画面は、端末装置200が表示している画面の識別情報である。作業状態は、端末装置200に設定されている画面モード421(図4参照)である。
The
なお、端末IDは、例えば、電子所見録記録支援装置300に端末装置200が接続されたときに、通信ネットワークの自動検出機能やユーザ操作に基づいて、入力画面制御部340により記述される。ユーザ名および作業中所見録No.は、例えば、電子所見録の作業開始画面におけるユーザ操作に基づいて、入力画面制御部340により記述される。また、表示画面、作業状態、および選択中の項目は、例えば、所見録入力画面に対する各種ユーザ操作を受けて、逐次、入力画面制御部340により更新される。
The terminal ID is described by the input
図2の所見録情報データ313の内容については、後述する。
The contents of the finding
図2の端末接続部320は、第1および第2の端末装置2001、2002のそれぞれと、通信可能に接続する。そして、端末接続部320は、第1および第2の端末装置2001、2002のそれぞれと、音声認識解析部330、入力画面制御部340、および情報記録部350との間で、情報の中継を行う。
The
音声認識解析部330は、端末装置200毎に、音声認識辞書310を用いた音声認識処理により、部位名411(図3参照)が音声入力されたか否か、および、所見情報が音声入力されたか否か、を判定する。なお、音声認識解析部330は、図示しないが、発話者の音声をコンパクトなデータに変換する音響分析部と、変換されたデータを解析してテキスト化する認識デコーダとを含む。そして、音声認識解析部330は、部位名あるいは所見情報が音声入力されたとき、当該部位名あるいは所見情報のテキスト情報を、入力画面制御部340へ出力する。なお、音声認識解析部330は、項目名412(図3参照)およびコマンド422(図4参照)についても、同様に、音声入力の有無の判定および判定結果の出力を行う。
In the voice
なお、音声認識解析部330は、端末状態管理表440(図6参照)に基づいて、使用する音響モデル、発音辞書、および言語モデルを切り替えてもよいし、認識対象とする語句を絞ってもよい。
The voice
入力画面制御部340は、端末装置毎に、複数の身体部位の部位名の一覧を含む所見録入力画面を生成して表示させる。そして、入力画面制御部340は、いずれかの部位名がいずれかの端末装置200において音声入力されたとき、当該端末装置200の所見録入力画面に、対応する所見情報を入力するための部位別画面を表示させる。また、入力画面制御部340は、入力された所見情報のテキスト情報を、入力の対象となった部位名および項目名と対応付けて、情報記録部350へ出力する。
The input
但し、入力画面制御部340は、一方の端末装置の200においていずれかの部位別画面が表示されている間、他方の端末装置200に表示されている対応する部位名に対して、対応する所見情報の入力が不可である事を示す不可通知情報を付与する。また、入力画面制御部340は、一方の端末装置の200においていずれかの部位別画面が表示されている間、対応する部位別画面を、他方の端末装置200において表示させない。
However, the input
なお、入力画面制御部340は、各端末装置200における表示画面、作業状態、および選択中の項目を、逐次、端末状態管理表440(図6参照)に反映させる。
The input
情報記録部350は、入力画面制御部340から所見情報のテキスト情報が入力されたとき、入力された所見情報のテキスト情報を、対応する部位名および項目名に対応付けて、所見録情報データ313として、情報格納部310に格納する。
When the text information of the finding information is input from the input
なお、上述の所見録構造データ410(図3参照)と、所見録情報データ313との組み合わせは、電子所見録を構成する。すなわち、情報記録部350は、ユーザにより入力された所見情報を、電子所見録に記録する。
The combination of the above-mentioned finding structure data 410 (see FIG. 3) and the finding
電子所見録記録支援装置300は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリ、および通信回路を有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
Although not shown, the electronic record
このような電子所見録記録支援装置300は、各端末装置200において、身体部位毎に用意された部位別画面を介して、項目毎の所見情報を音声入力することを可能にする。また、電子所見録記録支援装置300は、ある端末装置200においていずれかの部位別画面が表示されている間、他の端末装置200では当該部位別画面を表示させないとともに、対応する所見情報を音声入力することができない旨を当該他の端末装置200のユーザに通知することができる。
Such an electronic finding
<装置の動作>
次に、電子所見録記録支援装置300の動作について、電子所見録の画面状態を例示しながら説明する。
<Operation of the device>
Next, the operation of the electronic record
まず、入力画面制御部340は、端末装置200毎に、電子所見録の作業開始画面を生成して端末装置200に表示させる。そして、入力画面制御部340は、端末装置200毎に、所見情報の入力あるいは編集の作業の対象の設定、および、作業を行うユーザの設定を受け付ける。
First, the input
図7は、電子所見録の作業開始画面の一例を示す図である。 FIG. 7 is a diagram showing an example of a work start screen of electronic findings.
図7に示すように、作業開始画面510は、所見録選択領域511およびユーザ選択領域512を有する。所見録選択領域511は、既存の所見録情報データの一覧を表示し、作業開始の対象となる所見録情報データの選択操作、あるいは、新規の所見録情報データの作成開始の操作を、ユーザから受け付ける。ユーザ選択領域512は、ユーザ名の一覧を表示し、作業を開始するユーザのユーザ名の選択操作、あるいは、新規のユーザ名の登録の操作を、ユーザから受け付ける。
As shown in FIG. 7, the
例えば、第1のユーザ1301は、第1の端末装置2001に表示された作業開始画面510において、所見録情報データ「000019」およびユーザ名「TARO」を選択する。また、第2のユーザ1302は、第2の端末装置2002に表示された作業開始画面510において、所見録情報データ「000019」およびユーザ名「HANAKO」を選択する。
For example, the first user 130 1 selects the finding information data “0000019” and the user name “TARO” on the
電子所見録記録支援装置300は、作業開始画面510において所見録情報データおよびユーザ名が選択される毎に、以下に説明する動作を端末装置200毎に行う。
The electronic record
図8は、電子所見録記録支援装置300の動作の一例を示すフローチャートである。
FIG. 8 is a flowchart showing an example of the operation of the electronic record
ステップS1010において、入力画面制御部340は、選択された所見録情報データの所見録入力画面を生成して、選択が行われた端末装置200に表示させる。このとき、入力画面制御部340は、選択が行われた端末装置200に対して、選択されたユーザ名を登録するとともに、選択モードを設定する。これらの登録および設定は、端末状態管理表440(図6参照)を用いて行われる。
In step S1010, the input
図9は、所見録入力画面の一例を示す図である。 FIG. 9 is a diagram showing an example of a finding input screen.
図9に示すように、所見録入力画面600は、部位選択領域610、所見入力領域(部位別画面)620、コマンド表示領域630、および音声認識操作領域640を有する。
As shown in FIG. 9, the finding
部位選択領域610は、複数の身体部位の部位名411(図3参照)を、複数の部位名タブ611として一覧表示する領域である。
The
所見入力領域(部位別画面)620は、1つの身体部位について、当該身体部位の部位名411に対応する複数の項目名412(図3参照)を、複数の項目名ボタン621として一覧表示する領域である。また、所見入力領域620は、各項目名412に対応する入力欄タイプ413(図3参照)に応じた入力欄を、入力エリア622として、項目名ボタン621に対応付けて表示する領域である。
The finding input area (screen for each part) 620 is an area for displaying a list of a plurality of item names 412 (see FIG. 3) corresponding to the
なお、所見録入力画面600は、各所見入力領域620が、対応する部位名タブ611が上端に付されたシートに見えるように、描画されている。
The finding
コマンド表示領域630は、画面モード421に応じたコマンド422(図4参照)の読みを、一覧表示する。
The
音声認識操作領域640は、認識対象となる単語の登録やユーザプロファイルの編集等の、音声認識辞書311を編集する操作や、マイクロフォンのボリュームや音声認識の開始および停止等の、音声認識に関する操作を受け付ける領域である。
The voice
入力画面制御部340は、例えば、初期状態として、基本情報についての所見入力領域620を含む所見録入力画面600を表示する。
The input
図8のステップS1020において、音声認識解析部330は、選択モードにある端末装置200において、表示されている部位名の音声入力があったか否かを判定する。かかる判定は、例えば、所見録構造データ410(図3参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。
In step S1020 of FIG. 8, the voice
ここで、判定の対象となる部位名は、所見録入力画面600の部位選択領域610に、部位名タブ611として表示されている。したがって、ユーザは、表示された複数の部位名タブ611の中から1つを選択して読み上げるような感覚で、所望の部位名を選択し、これを端末装置200に音声入力することができる。
Here, the part name to be determined is displayed as the
音声認識解析部330は、選択モードで部位名の音声入力があった場合(S1020:YES)、処理をステップS1030へ進める。また、音声認識解析部330は、選択モードで部位名の音声入力がない場合(S1020:NO)、処理を後述のステップS1060へ進める。
The voice
ステップS1030において、入力画面制御部340は、他の端末装置200において、音声入力された部位名についての所見入力領域620を含む所見録入力画面600が表示されているか否かを判定する。かかる判定は、例えば、端末状態管理表440(図6参照)に基づいて行われる。
In step S1030, the input
入力画面制御部340は、対応する所見録入力画面600が他の端末装置200において表示されていない場合(S1030:NO)、処理をステップS1040へ進める。また、入力画面制御部340は、対応する所見録入力画面600が他の端末装置200に表示されている場合(S1030:YES)、処理を後続のステップS1060へ進める。
When the corresponding
ステップS1040において、入力画面制御部340は、音声入力があった端末装置200に対して、入力された部位名に対応する項目名の一覧を含む所見録入力画面600、つまり、入力された部位名に対応する所見入力領域620を表示させる。
In step S1040, the input
図10は、「心臓」の部位名に対応する内容に切り替わったときの所見録入力画面の一例を示す図であり、図9に対応するものである。図9と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 10 is a diagram showing an example of a finding input screen when the content is switched to the content corresponding to the part name of the “heart”, and corresponds to FIG. 9. The parts corresponding to FIG. 9 are designated by the same reference numerals, and the description thereof will be omitted.
例えば、第2の端末装置2002に心臓の所見入力領域620が表示されていない間に、第1の端末装置2001において、選択モードであるときに「心臓」が音声入力されたとする。この場合、入力画面制御部340は、図10に示すように、第1の端末装置2001に表示されている所見録入力画面600に、心臓の所見入力領域620を表示させる。
For example, it is assumed that the "heart" is voice-input in the first
なお、所見入力領域620は、上述の通り、部位名タブ611が付されたシートのように表示されている。このような表示形態により、所見録入力画面600は、どの身体部位(部位名)についての所見入力領域620であるかを、ユーザに示すことができる。
As described above, the finding
また、図9および図10では、画面モードは選択モードである。したがって、いずれのコマンド表示領域630にも、選択モードのコマンド422(図4参照)の読みの一覧が表示される。
Further, in FIGS. 9 and 10, the screen mode is the selection mode. Therefore, a list of readings of the command 422 (see FIG. 4) in the selection mode is displayed in any
なお、身体部位によっては、項目名ボタン621および入力エリア622が多い場合、全ての項目名ボタン621および入力エリア622を一度に表示しきれない場合もある。したがって、コマンドには、画面のスクロール操作のコマンドが含まれている。これにより、所見入力領域620は、項目名ボタン621および入力エリア622が多い場合であっても、必要な全ての項目についての項目名ボタン621および入力エリア622を一覧表示することを、実質的に可能にしている。
Depending on the body part, if there are many
図8のステップS1050において、入力画面制御部340は、他の端末装置200において、ステップS1040において表示の対象となった身体部位についての不可通知情報を表示する。
In step S1050 of FIG. 8, the input
図11は、不可通知情報が表示された所見録入力画面の一例を示す図であり、図9および図10に対応するものである。図9および図10と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 11 is a diagram showing an example of a finding input screen on which the disapproval notification information is displayed, and corresponds to FIGS. 9 and 10. The parts corresponding to FIGS. 9 and 10 are designated by the same reference numerals, and the description thereof will be omitted.
例えば、第1の端末装置2001には、心臓の所見入力領域620が表示されているとする(図10参照)。この場合、第2の端末装置2002に表示される所見録入力画面600の「心臓」の部位名タブ611の表示形態が、他の部位名タブ611とは異なった表示形態となる。すなわち、不可通知情報は、他の部位名タブ611とは異なる部位名タブ611の表示形態である。かかる異なる表示形態としては、例えば、文字色、字体、あるいは背景色の変更を採用することができる。
For example, it is assumed that the first
このような不可通知情報の表示が行われることにより、第2のユーザは、第1のユーザが心臓の所見情報を入力中であるため、かかる入力作業が終わるまで第2の端末装置2002では心臓の所見情報を入力できないという事を、直感的に認識することができる。
By displaying such non-notification information, the second user is inputting the heart finding information by the first user, so that the second
図8のステップS1060において、音声認識解析部330は、選択モードにある端末装置200において、表示されている項目名の音声入力があり、続けて、入力開始コマンドの音声入力があったか否かを判定する。かかる判定は、例えば、所見録構造データ410(図3参照)、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。
In step S1060 of FIG. 8, the voice
ここで、判定の対象となる項目名は、所見録入力画面600の所見入力領域620に、項目名ボタン621として表示されている。したがって、ユーザは、表示された複数の項目名ボタン621の中から1つを選択して読み上げるような感覚で、所望の項目名を選択し、これを端末装置200に音声入力することができる。
Here, the item name to be determined is displayed as the
例えば、心臓の所見入力領域620が表示されているとする(図10参照)。この場合、「心臓摘出血液量」や「心臓摘出血液性状」等の項目名412(図3参照)および「入力開始」というコマンド422(図4参照)が、判定の対象となる。
For example, assume that the heart finding
音声認識解析部330は、項目名および入力開始コマンドの音声入力があった場合(S1060:YES)、処理をステップS1070へ進める。また、音声認識解析部330は、項目名および入力開始コマンドの音声入力がない場合(S1060:NO)、処理を後述のステップS1080へ進める。
When there is a voice input of the item name and the input start command (S1060: YES), the voice
ステップS1070において、入力画面制御部340は、項目名および入力開始コマンドの音声入力があった端末装置200の画面モードを、入力モードに切り替えるとともに、選択中の項目として、入力された項目を設定する。
In step S1070, the input
図12は、図10に示す所見録入力画面において「心臓摘出血液性状」に続けて「入力開始」が音声入力されたときの、所見録入力画面の変化を示す図であり、図10に対応するものである。図10と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 12 is a diagram showing changes in the findings input screen when “input start” is input by voice following “cardiac excision blood properties” on the findings input screen shown in FIG. 10, and corresponds to FIG. 10. Is what you do. The parts corresponding to FIG. 10 are designated by the same reference numerals, and the description thereof will be omitted.
図12に示すように、入力画面制御部340は、音声入力された「心臓摘出血液性状」に対応する項目名ボタン621に、選択中であることを示す選択通知情報を付与する。選択通知情報としては、例えば、他の項目名ボタン621とは異なる項目名ボタン621の表示形態を用いる。かかる異なる表示形態としては、ボタン枠線の線種、ボタン色、ボタン形状、文字色、あるいは字体を採用することができる。
As shown in FIG. 12, the input
また、入力画面制御部340は、コマンド表示領域630に、入力モードのコマンド422(図4参照)の読みの一覧を表示させる。
Further, the input
図8のステップS1080において、音声認識解析部330は、入力モードにある端末装置200において、コマンド表示領域630に表示されているコマンド以外の語句についての音声入力があったか否かを判定する。かかる判定は、例えば、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。
In step S1080 of FIG. 8, the voice
音声認識解析部330は、コマンド以外の語句についての音声入力があった場合(S1080:YES)、処理をステップS1090へ進める。また、音声認識解析部330は、コマンド以外の語句についての音声入力がない場合(S1080:NO)、処理を後述のステップS1100へ進める。
When there is a voice input for a phrase other than a command (S1080: YES), the voice
ステップS1090において、入力画面制御部340は、音声入力された語句のテキスト情報を、選択されている項目名ボタン621に対応する入力エリア622(図12参照)に表示する。また、情報記録部350は、入力された語句のテキストデータを、元の音声データとともに、選択されている項目名ボタン621に対応する項目についての所見情報として、電子所見録に記録する。すなわち、情報記録部350は、所見録情報データ313に、入力された情報を追加する。
In step S1090, the input
図13は、「全身」の部位名に対応する所見入力領域で所見情報が入力されたときの所見録入力画面の一例を示す図であり、図9~図12に対応するものである。図9~図12と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 13 is a diagram showing an example of a finding record input screen when finding information is input in the finding input area corresponding to the part name of “whole body”, and corresponds to FIGS. 9 to 12. The parts corresponding to FIGS. 9 to 12 are designated by the same reference numerals, and the description thereof will be omitted.
図13に示すように、所見入力領域620の各入力エリア622には、音声入力された所見情報が、テキスト表示される。テキスト情報は、例えば、各文節の音声認識結果が得られる毎に、リアルタイムで表示される。これにより、ユーザは、自分が発話した内容が正しく入力されているかどうかを、逐次確認しながら、音声入力の作業を行うことができる。
As shown in FIG. 13, the voice-input findings information is displayed as text in each
なお、入力画面制御部340は、必要な所見情報の記録が全て行われた身体部位の部位名タブ611に対して、その旨を示す完了通知情報を付与してもよい。かかる完了通知情報としては、文字色、字体、あるいは背景色の変更等による、他の部位名タブ611とは異なる部位名タブ611の表示形態を採用することができる。
The input
すなわち、入力画面制御部340は、他のユーザが入力操作中につき音声入力が不可の身体部位、音声入力が可であり所見情報の記録が完了していない身体部位、および、音声入力が可であり所見情報の記録が未完了の身体部位のそれぞれを、識別可能に表示する。
That is, the input
図8のステップS1100において、音声認識解析部330は、入力モードにある端末装置200において、入力停止コマンドの音声入力があったか否かを判定する。かかる判定は、例えば、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。
In step S1100 of FIG. 8, the voice
音声認識解析部330は、入力停止コマンドの音声入力があった場合(S1100:YES)、処理をステップS1110へ進める。また、音声認識解析部330は、入力停止コマンドの音声入力がない場合(S1100:NO)、処理を後述のステップS1120へ進める。
When there is a voice input of the input stop command (S1100: YES), the voice
ステップS1110において、入力画面制御部340は、入力停止コマンドの音声入力があった端末装置200の画面モードを、選択モードに切り替える。かかる設定は、端末状態管理表440(図6参照)を用いて行われる。
In step S1110, the input
ステップS1120において、音声認識解析部330は、編集コマンド等の、選択モードにおける入力開始コマンドおよび入力モードにおける入力停止コマンド以外のコマンド(他のコマンド)の音声入力があったか否かを判定する。かかる判定は、例えば、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。
In step S1120, the voice
音声認識解析部330は、他のコマンドの音声入力があった場合(S1120:YES)、処理をステップS1130へ進める。また、音声認識解析部330は、他のコマンドの音声入力がない場合(S1120:NO)、処理を後述のステップS1140へ進める。
When there is a voice input of another command (S1120: YES), the voice
ステップS1130において、入力画面制御部340は、音声入力されたコマンドに応じた処理を行う。かかる処理には、例えば、画面のスクロール、項目の追加、所見情報の入力が不要である事を示す情報の入力、入力された所見情報の編集、あるいは入力された所見情報の削除等が含まれる。
In step S1130, the input
ステップS1140において、入力画面制御部340は、所見情報の音声入力処理を終了する旨の指示があったか否かを判定する。かかる指示は、例えば、ユーザによる終了ボタンの押下等により行われる。
In step S1140, the input
入力画面制御部340は、処理の終了を指示されていない場合(S1140:NO)、処理をステップS1020へ戻す。また、入力画面制御部340は、処理の終了を指示された場合(S1140:YES)、一連の処理を終了する。
If the input
このような動作により、電子所見録記録支援装置300は、端末装置200毎に、それぞれの表示状態および操作経過に応じて、情報やコマンドの音声入力を受け付けるとともに、身体部位毎の排他的な音声入力インタフェースを、ユーザにとって使いやすい形で実現することができる。
Due to such an operation, the electronic record
他の端末装置200において入力作業中の身体部位の部位名について、不可通知情報を表示せずに音声入力を受け付けないようにした場合、ユーザは、その理由を即座に特定することができず、困惑する可能性がある。 When the voice input is not accepted without displaying the impossible notification information for the part name of the body part during the input work in the other terminal device 200, the user cannot immediately identify the reason. It can be confusing.
この点、電子所見録記録支援装置300は、不可通知情報を表示し、かつ、他の端末装置200において入力作業中の身体部位については、対応する部位選択領域610を表示させない。この場合、ユーザは、部位名や項目名の無駄な発話を行う前に、入力操作の排他制御が働いているということを認識することができる。
In this respect, the electronic finding
これにより、各ユーザは、他のユーザが入力作業中の身体部位以外の、他の身体部位の部位名を速やかに選択して、作業を進めることができる。すなわち、電子所見録記録支援装置300は、複数のユーザが複数の身体部位に関する所見情報を音声によって電子所見録に記録する作業を、適切に支援することができる。
As a result, each user can promptly select the part name of the other body part other than the body part during the input work by the other user, and proceed with the work. That is, the electronic findings recording
図14は、情報記録部350により生成される所見録情報データ313の内容の一例を示す図である。ここでは、所見録情報データ313が、XML(eXtensible Markup Language)で記述されており、所見録構造データ410(図3参照)および発音辞書データ430(図5参照)を含んでいる場合の例を示す。
FIG. 14 is a diagram showing an example of the contents of the finding
図14に示すように、所見録情報データ313は、「spoken」という属性により、項目名の読みを記述し、「label」という属性により、項目名の所見録入力画面における表記を記述している。また、所見録情報データ313は、「data」とう属性により、入力された所見情報のテキスト情報を記述し、「initial」という属性により、所見情報の初期状態を記述する。更に、所見録情報データ313は、「type」とう属性により、入力欄タイプを記述し、「voicefile」という属性により、入力および記録された音声データのデータ名を記述する。なお、所見録情報データ313は、入力欄タイプが選択肢である場合、各選択肢の「spoken」および「label」という属性についての記述を含むともに、「select」という属性により、どの選択肢が選択されたか(つまり所見情報)を記述する。
As shown in FIG. 14, in the finding
例えば、情報記録部350は、新規の対象について電子所見録を生成する場合、「data」、「voicefile」、および「select」の属性に値を記述しない状態で、所見録情報データ313を生成する。そして、情報記録部350は、所見情報が入力される毎に、所見情報の音声データ、テキスト情報、およびどの選択肢が選択されたかを示す情報を、情報記録部350の対応する箇所に追記していく。
For example, when the information recording unit 350 generates an electronic finding for a new object, the finding
このような所見録情報データ313が生成されることにより、所見情報を電子所見録に反映させるだけでなく、元の音声データを音声出力して、音声入力が的確に行われたか否かを後から確認することも可能となる。
By generating such finding
例えば、入力画面制御部340は、音声入力だけでなく、キーボードやマウスといった手入力インタフェースによる所見情報の入力や編集の操作についても、ユーザから受け付ける。そして、入力画面制御部340は、表示されている項目名ボタン621に対して、クリック操作等の所定の操作が行われたとき、対応する音声データを所見録情報データ313に基づいて取得し、ラウドスピーカを介して音声出力する。
For example, the input
これにより、所見情報を音声入力したユーザ、あるいは、電子所見録の情報を管理するオペレータは、実際の発話音声を確認して、適宜、記録された所見情報を編集することができる。 As a result, the user who input the finding information by voice or the operator who manages the information of the electronic finding can confirm the actual spoken voice and edit the recorded finding information as appropriate.
なお、情報記録部350は、ユーザから所定の操作を受け付け、かかる所定の操作に応じて、所見録情報データ313の内容を文書データ化して剖検記録を作成し、表示や印刷を行ってもよい。
The information recording unit 350 may receive a predetermined operation from the user, convert the contents of the finding
図15は、剖検記録の一例を示す図である。 FIG. 15 is a diagram showing an example of an autopsy record.
図15に示すように、剖検記録710は、部位名毎に項目名を記述し、更に、各項目名に対応付けて、記録された所見情報を記述する。かかる剖検記録710は、例えば、鑑定書の剖検記録部として使用することができる。
As shown in FIG. 15, in the
法医解剖における剖検所見は、ユーザに対して、その剖検所見が人体のどの身体部位についてのことなのかを視覚的にわかりやすい形式で提示することが望ましい。そこで、剖検所見の中に、当該剖検所見に対応する身体部位を識別する識別情報(例えば、番号)を含めておき、人体図を表示し、その人体図における当該身体部位の位置に当該識別情報を表示することが考えられる。従来、ユーザは、剖検所見において身体部位を識別する識別情報を手入力し、人体図において当該剖検所見に対応する身体部位の位置を特定し、特定した位置に識別情報を手入力している。この場合、識別情報の入力作業は繁雑であるとともに、剖検所見と人体図との間で異なる識別情報が誤って入力される可能性もあるという問題があった。 It is desirable that the autopsy findings in the forensic anatomy present the user in a visually easy-to-understand format as to which body part of the human body the autopsy findings are about. Therefore, the autopsy findings include identification information (for example, a number) for identifying the body part corresponding to the autopsy findings, the human body diagram is displayed, and the identification information is located at the position of the body part on the human body diagram. Is conceivable to display. Conventionally, a user manually inputs identification information for identifying a body part in an autopsy finding, identifies a position of a body part corresponding to the autopsy finding in a human body diagram, and manually inputs the identification information at the specified position. In this case, the work of inputting the identification information is complicated, and there is a problem that different identification information may be erroneously input between the autopsy findings and the human body chart.
そこで本実施の形態では、所見録入力画面において、ある身体部位について所見情報が音声入力され、その所見情報に、当該身体部位を示す身体部位情報と当該身体部位を識別する識別情報とが含まれている場合、電子所見録記録支援装置300は、身体部位情報に基づいて人体図における当該身体部位の位置を特定し、特定した位置に識別情報を表示させる処理を行う。これにより、ユーザは、身体部位情報および識別情報を含む所見情報を発話する(すなわち、電子所見録記録支援装置300に音声認識させる)だけで、剖検所見および人体図の両方に対して同じ識別情報を入力させることが可能となる。よって、識別情報の入力作業は繁雑であるとともに、剖検所見と人体図との間で異なる識別情報が誤って入力される可能性もあるという従来の問題を解消することができる。
Therefore, in the present embodiment, the finding information is input by voice for a certain body part on the finding input screen, and the finding information includes the body part information indicating the body part and the identification information for identifying the body part. If so, the electronic record
以下、図16,17を参照し、所見情報に含まれる身体部位情報に基づいて人体図における身体部位の位置を特定し、特定した位置に識別情報を表示させる具体的な処理について説明する。 Hereinafter, with reference to FIGS. 16 and 17, a specific process of specifying the position of the body part in the human body diagram based on the body part information included in the finding information and displaying the identification information at the specified position will be described.
図16は、人体図を含む所見録入力画面の一例を示す図である。図16に示すように、所見録入力画面600が有する所見入力領域(部位別画面)620は、1つの身体部位(図16に示す例では、「損傷頸部以上」)について、当該身体部位の部位名411に対応する複数の項目名412(図16に示す例では、「損傷01」、「損傷02」)を、複数の項目名ボタン621a,621bとして一覧表示する領域である。また、所見入力領域620は、各項目名412に対応する入力欄タイプ413(図3参照)に応じた入力欄を、入力エリア622a,622bとして、項目名ボタン621a,621bに対応付けて表示する領域である。
FIG. 16 is a diagram showing an example of a finding input screen including a human body diagram. As shown in FIG. 16, the finding input area (site-specific screen) 620 of the finding
また、所見入力領域620は、入力エリア622a,622bの右方において、1つの身体部位(図16に示す例では、「損傷頸部以上」)に関連する人体を模式的に表す人体図800を表示する。人体図800において、左方には人体の右側面図が表示され、右方には人体の左側面図が表示されている。なお、所見入力領域620に表示可能な人体図として例えば4種類の人体図が用意されており、その4種類の人体図の中から、所見録入力画面600の表示中に音声入力によって選択された身体部位に関連する人体図が表示される。
Further, the finding
人体図800は、情報格納部310に格納される人体図情報314に含まれる。図17は、人体図情報314の内容の一例を示す図である。図17に示すように、人体図情報314は、人体図(図示せず)と、身体部位(部位名)を示す身体部位情報と、身体部位の読み方を示す読み方情報と、当該人体図における身体部位の位置(X位置、Y位置)を示す位置情報と、身体部位を例えば番号やアルファベット等で識別する識別情報とを対応付けて含む。ここで、X位置は、図16の人体図800の左右方向における身体部位の位置を示す。また、Y位置は、図16の人体図800の上下方向における身体部位の位置を示す。
The human figure 800 is included in the
例えば、身体部位(部位名)が「左側頸部」である場合、人体図情報314を参照することにより、人体図800における「左側頸部」のX位置は307であり、「左側頸部」のY位置は67であることを特定することができる。また、身体部位(部位名)が「胸骨部」である場合、人体図800における「胸骨部」のX位置は372であり、「胸骨部」のY位置は92であることを特定することができる。
For example, when the body part (site name) is the "left neck", the X position of the "left neck" in the human figure 800 is 307 by referring to the
図16に示す所見録入力画面600において、表示されている項目名(例えば、「損傷01」)に続いて入力開始コマンドの音声入力があった後、入力画面制御部340は、音声入力された語句のテキスト情報(所見情報、例えば「13番の鼻根部に損傷を認める。」)を、選択されている項目名ボタン621aに対応する入力エリア622aに表示する。
In the finding
また、入力画面制御部340は、音声入力された所見情報の中から、身体部位を示す身体部位情報(例えば、「鼻根部」)と、当該身体部位を識別する識別情報(例えば、13)とを取得する。
Further, the input
なお、入力画面制御部340は、音声入力された所見情報が「13番の鼻根部に損傷を認める。」ではなく、「13番鼻根部に損傷を認める。」、「鼻根部の13番に損傷を認める。」、「鼻根部13番に損傷を認める。」または「鼻根部13番左耳介に損傷を認める。」といった異なる表現で示されても、当該所見情報の中から、身体部位を示す身体部位情報(例えば、「鼻根部」)と、当該身体部位を識別する識別情報(例えば、13)とを取得する。音声入力された所見情報が「鼻根部13番左耳介に損傷を認める。」である場合、すなわち2つの身体部位情報(例えば、「鼻根部」、「左耳介」)の間に識別情報が挟まれている場合には、入力画面制御部340は、先に音声入力された「鼻根部」を身体部位情報として取得する。
In addition, the input
次に、入力画面制御部340は、取得された身体部位情報(「鼻根部」)と、情報格納部310に格納される人体図情報314とに基づいて、人体図800における身体部位の位置(符号810により示される位置)を特定する。そして、入力画面制御部340は、人体図800において、特定された身体部位の位置に識別情報(「13」)を表示させる。
Next, the input
最後に、情報記録部350は、情報格納部310に格納される人体図情報314において、人体図800と、身体部位情報(「鼻根部」)と、読み方情報と、位置情報と、所見情報の音声入力を介して取得された識別情報(「13」)とを対応付けて記憶させる。これにより、所見録入力画面600において人体図800を再表示する場合、入力画面制御部340は、人体図情報314において識別情報が存在する身体部位について、人体図800における当該身体部位の位置に当該識別情報を表示させることができる。
Finally, in the human
また、図16に示す所見録入力画面600において、表示されている項目名(例えば、「損傷02」)に続いて入力開始コマンドの音声入力があった後、入力画面制御部340は、音声入力された語句のテキスト情報(所見情報、例えば「5番の左耳介に出血を認める。」)を、選択されている項目名ボタン621bに対応する入力エリア622bに表示する。
Further, in the finding
また、入力画面制御部340は、音声入力された所見情報の中から、身体部位を示す身体部位情報(例えば、「左耳介」)と、当該身体部位を識別する識別情報(例えば、5)とを取得する。
Further, the input
なお、入力画面制御部340は、音声入力された所見情報が「5番の左耳介に出血を認める。」ではなく、「5番左耳介に出血を認める。」、「5番の左耳介に出血を認める。」、「左耳介5番に出血を認める。」または「左耳介5番鼻根部に出血を認める。」といった異なる表現で示されても、当該所見情報の中から、身体部位を示す身体部位情報(例えば、「左耳介」)と、当該身体部位を識別する識別情報(例えば、5)とを取得する。音声入力された所見情報が「左耳介5番鼻根部に出血を認める。」である場合、すなわち2つの身体部位情報(例えば、「左耳介」、「鼻根部」)の間に識別情報が挟まれている場合には、入力画面制御部340は、先に音声入力された「左耳介」を身体部位情報として取得する。
In the input
次に、入力画面制御部340は、取得された身体部位情報(「左耳介」)と、情報格納部310に格納される人体図情報314とに基づいて、人体図800における身体部位の位置(符号820により示される位置)を特定する。そして、入力画面制御部340は、人体図800において、特定された身体部位の位置に識別情報(「5」)を表示させる。
Next, the input
最後に、情報記録部350は、情報格納部310に格納される人体図情報314において、人体図800と、身体部位情報(「左耳介」)と、読み方情報と、位置情報と、所見情報の音声入力を介して取得された識別情報(「5」)とを対応付けて記憶させる。これにより、所見録入力画面600において人体図800を再表示する場合、入力画面制御部340は、人体図情報314において識別情報が存在する身体部位について、人体図800における当該身体部位の位置に当該識別情報を表示させることができる。
Finally, in the human
なお、入力画面制御部340は、音声入力された所見情報の中から、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とを取得する例について説明したが、身体部位情報および識別情報の取得方法はこれに限らない。例えば、所見録入力画面600において人体図800が表示されている場合、人体図800を選択する人体図選択コメントに続いて身体部位情報(例えば、「前頭部左側外側」)および識別情報(「4」)の音声入力があった場合、入力画面制御部340は、音声入力された身体部位情報と識別情報とを取得する。そして、入力画面制御部340は、取得された身体部位情報と、情報格納部310に格納される人体図情報314とに基づいて、人体図800における身体部位(「前頭部左側外側」)の位置(符号830により示される位置)を特定する。そして、入力画面制御部340は、人体図800において、特定された身体部位の位置に丸い円で示されるカーソルを表示し、そのカーソル内に識別情報(「4」)を表示させる。これにより、ユーザは、人体図800に表示される識別情報がカーソル内に表示されているか否かを確認することによって、当該識別情報が所見情報に含めて音声入力されたものか否かを容易に把握することができる。
Although the input
<本実施の形態の効果>
以上のように、本実施の形態に係る電子所見録記録支援装置300は、複数の端末装置200のそれぞれにおいて、身体部位毎に用意された部位別画面を介して、項目毎の所見情報を音声入力する。また、電子所見録記録支援装置300は、ある端末装置200においていずれかの部位別画面が表示されている間、他の端末装置200では当該部位別画面を表示させないともに、対応する所見情報を音声入力することができない旨を当該他の端末装置200のユーザに通知する。
<Effect of this embodiment>
As described above, the electronic record
これにより、電子所見録記録支援装置300は、手入力インタフェースを使用することが困難であり、かつ、複数のユーザが複数の身体部位についての所見情報を同時に入力することが必要なケースであっても、所見情報の電子所見録への記録作業を支援することができる。すなわち、電子所見録記録支援装置300は、例えば、剖検所見の電子所見録への記録作業を支援することができる。
As a result, it is difficult for the electronic record
<本実施の形態の変形例>
なお、以上説明した実施の形態では、電子所見録記録支援装置300を、法医解剖における剖検所見を記録するためのシステムに適用した場合について説明したが、これに限定されない。電子所見録記録支援装置300は、例えば、救急救命用の電子カルテ等、複数のユーザが複数の身体部位についての所見情報を同時に入力することを受け付ける各種システムに適用することができる。
<Modified example of this embodiment>
In the embodiment described above, the case where the electronic finding
また、部位名、項目名、およびコマンドは、上述の例に限定されない。更に、項目名おおよびコマンドに関する処理は、項目名毎に細分化された所見情報の記録が不要であるような場合には、必ずしも必要でない。 Further, the part name, the item name, and the command are not limited to the above examples. Further, the processing related to the item name and the command is not always necessary when it is not necessary to record the finding information subdivided for each item name.
また、身体部位の単位は、上述の例に限定されない。身体部位は、一人のユーザが所見情報を記録する際に一時に着目する一まとまりの情報の範囲であればよく、更に、電子所見録の目的に応じて変化し得る。 Moreover, the unit of the body part is not limited to the above-mentioned example. The body part may be a range of a set of information that one user pays attention to at one time when recording the finding information, and may be changed according to the purpose of the electronic finding.
また、所見録入力画面600(図9~図13参照)における各情報の配置および表示形態は、上述の例に限定されない。入力画面制御部340は、例えば、部位選択領域610を、所見入力領域620の左側、下側、あるいは右側に配置してもよい。
Further, the arrangement and display form of each information on the finding input screen 600 (see FIGS. 9 to 13) is not limited to the above example. The input
また、所見録情報データのデータ形式は、上述の例に限定されない。所見録情報データは、RTF(Rich Text Format)形式、TEX形式、plain text形式等の他のデータ形式であってもよい。 Further, the data format of the finding information data is not limited to the above example. The finding information data may be in another data format such as RTF (Rich Text Format) format, TEX format, and plain text format.
また、端末接続部320は、ヘッドセット220および表示装置230のそれぞれと、個別に通信を行ってもよい。この場合、電子所見録記録支援装置300は、例えば入力画面制御部340において、ヘッドセット220と表示装置230との対応付けを設定する必要がある。
Further, the
また、端末装置200の構成は、上述の例に限定されない。端末装置200は、例えば、マイクロフォンおよび液晶ディスプレイを備えたパーソナルコンピュータであってもよい。 Further, the configuration of the terminal device 200 is not limited to the above example. The terminal device 200 may be, for example, a personal computer including a microphone and a liquid crystal display.
また、電子所見録記録支援装置300が接続する端末装置200の個数は、3個以上であってもよい。この場合、入力画面制御部340は、いずれかの端末装置の200においていずれかの部位別画面が表示されている間、他の全ての端末装置200に表示されている対応する部位名に、不可通知情報を付与する。また、入力画面制御部340は、いずれかの端末装置の200においていずれかの部位別画面が表示されている間、対応する部位別画面を、他の全ての端末装置200において表示させない。
Further, the number of terminal devices 200 connected to the electronic record
また、電子所見録記録支援装置300の構成の一部は、ネットワーク上のサーバ等に配置される等して、電子所見録記録支援装置300の構成の他の部分と離隔していてもよい。この場合、これら部分のそれぞれは、互いに通信を行うための通信部を備える必要がある。
Further, a part of the configuration of the electronic record
また、電子所見録記録支援装置300の構成の一部または全部は、いずれかの端末装置200と一体的に構成されていてもよい。
Further, a part or all of the configuration of the electronic record
本発明は、剖検所見の電子所見録への記録作業を支援することができる電子所見録記録支援装置および電子所見録記録支援方法として有用である。 INDUSTRIAL APPLICABILITY The present invention is useful as an electronic finding recording support device and an electronic finding recording support method capable of supporting the recording work of autopsy findings in electronic findings.
100 電子所見録システム
200 端末装置
210 端末制御装置
220 ヘッドセット
230 表示装置
300 電子所見録記録支援装置
310 情報格納部
311 音声認識辞書
312 所見録構成情報
313 所見録情報データ
314 人体図情報
320 端末接続部
330 音声認識解析部
340 入力画面制御部
350 情報記録部
100 Electronic finding system 200 Terminal device 210 Terminal control device 220 Headset 230
Claims (5)
音声入力機能および画像表示機能を有する端末装置と接続する端末接続部と、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得する情報取得部と、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定する位置特定部と、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる表示制御部と、
を備える電子所見録記録支援装置。 It is an electronic finding recording support device that supports the recording of finding information about body parts in electronic findings.
A terminal connection unit that connects to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. The information acquisition unit that acquires identification information, and
Based on the acquired body part information, a position specifying part that specifies the position of the body part in the human body diagram, and
In the human body diagram, a display control unit that displays the identification information at the position of the specified body part, and
Electronic findings recording support device equipped with.
請求項1に記載の電子所見録記録支援装置。 When the finding information is input by voice, the information acquisition unit acquires the body part information and the identification information included in the finding information based on the voice recognition process.
The electronic finding recording support device according to claim 1.
前記位置特定部は、前記情報取得部により取得された前記身体部位情報と、前記人体図情報とに基づいて、前記人体図における前記身体部位の位置を特定する、
請求項1または2に記載の電子所見録記録支援装置。 The human body diagram information storage unit for storing the human body diagram information including the human body diagram, the body part information, and the position information indicating the position of the body part in the human body diagram in association with each other is provided.
The position specifying unit identifies the position of the body part in the human body diagram based on the body part information acquired by the information acquisition unit and the human body diagram information.
The electronic finding recording support device according to claim 1 or 2.
請求項3に記載の電子所見録記録支援装置。 The human body diagram information includes a storage control unit that stores the human body diagram, the body part information, the position information, and the identification information acquired by the information acquisition unit in association with each other.
The electronic finding recording support device according to claim 3.
音声入力機能および画像表示機能を有する端末装置と接続し、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得し、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定し、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる、
電子所見録記録支援方法。 It is an electronic finding recording support method that supports the recording of finding information on body parts in electronic findings.
Connect to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. Get the identification information,
Based on the acquired body part information, the position of the body part in the human body diagram is specified, and the position of the body part is specified.
In the human body diagram, the identification information is displayed at the position of the specified body part.
Electronic findings recording support method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020108853A JP7486742B2 (en) | 2020-06-24 | 2020-06-24 | Electronic findings record recording support device and electronic findings record recording support method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020108853A JP7486742B2 (en) | 2020-06-24 | 2020-06-24 | Electronic findings record recording support device and electronic findings record recording support method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022006564A true JP2022006564A (en) | 2022-01-13 |
| JP7486742B2 JP7486742B2 (en) | 2024-05-20 |
Family
ID=80110308
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020108853A Active JP7486742B2 (en) | 2020-06-24 | 2020-06-24 | Electronic findings record recording support device and electronic findings record recording support method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7486742B2 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004102509A (en) * | 2002-09-06 | 2004-04-02 | Ziosoft Inc | Medical document preparation support device and its program |
| JP2016021216A (en) * | 2014-06-19 | 2016-02-04 | レイシスソフトウェアーサービス株式会社 | Remark input support system, device, method and program |
-
2020
- 2020-06-24 JP JP2020108853A patent/JP7486742B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004102509A (en) * | 2002-09-06 | 2004-04-02 | Ziosoft Inc | Medical document preparation support device and its program |
| JP2016021216A (en) * | 2014-06-19 | 2016-02-04 | レイシスソフトウェアーサービス株式会社 | Remark input support system, device, method and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7486742B2 (en) | 2024-05-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11586808B2 (en) | Insertion of standard text in transcription | |
| US7720680B2 (en) | Interactive manual, system and method for vehicles and other complex equipment | |
| US6813603B1 (en) | System and method for user controlled insertion of standardized text in user selected fields while dictating text entries for completing a form | |
| US8046226B2 (en) | System and methods for reporting | |
| US6915258B2 (en) | Method and apparatus for displaying and manipulating account information using the human voice | |
| US6068485A (en) | System for synthesizing spoken messages | |
| JP4615897B2 (en) | System and method for automatic annotation embedding device for use in ultrasound imaging | |
| US20050114122A1 (en) | System and method for customizing speech recognition input and output | |
| WO2001031511A1 (en) | Data capture and verification system | |
| US20120191453A1 (en) | System and methods for matching an utterance to a template hierarchy | |
| EP0799454A1 (en) | System and method for generating database input forms | |
| WO2004072846A2 (en) | Automatic processing of templates with speech recognition | |
| JP4719408B2 (en) | Medical information system | |
| JP2010094243A (en) | Automatic inquiry system | |
| CN112712805A (en) | Method and device for generating electronic medical record report and computer readable storage medium | |
| JP6290111B2 (en) | Electronic record recording support apparatus and electronic record recording support method | |
| JP7486742B2 (en) | Electronic findings record recording support device and electronic findings record recording support method | |
| JP7341111B2 (en) | Conversation support device, conversation support system, conversation support method and program | |
| JP4048226B1 (en) | Aphasia practice support equipment | |
| US20030097253A1 (en) | Device to edit a text in predefined windows | |
| JP2007052738A (en) | Plant monitoring apparatus and method, and program | |
| US11902466B2 (en) | Captioned telephone service system having text-to-speech and answer assistance functions | |
| JP2004517375A (en) | Method and apparatus for editing an image representing an idea | |
| JP2000207166A (en) | Device and method for voice input | |
| JP2005149083A (en) | Electronic medical record input support apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230403 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240115 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240228 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240425 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7486742 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |