[go: up one dir, main page]

JP2022006564A - Electronic record recording support device and electronic record recording support method - Google Patents

Electronic record recording support device and electronic record recording support method Download PDF

Info

Publication number
JP2022006564A
JP2022006564A JP2020108853A JP2020108853A JP2022006564A JP 2022006564 A JP2022006564 A JP 2022006564A JP 2020108853 A JP2020108853 A JP 2020108853A JP 2020108853 A JP2020108853 A JP 2020108853A JP 2022006564 A JP2022006564 A JP 2022006564A
Authority
JP
Japan
Prior art keywords
information
body part
input
finding
electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020108853A
Other languages
Japanese (ja)
Other versions
JP7486742B2 (en
Inventor
克明 宮内
Katsuaki Miyauchi
三幸 梶原
Miyuki Kajiwara
明博 橋本
Akihiro Hashimoto
敬人 林
Takahito Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2020108853A priority Critical patent/JP7486742B2/en
Publication of JP2022006564A publication Critical patent/JP2022006564A/en
Application granted granted Critical
Publication of JP7486742B2 publication Critical patent/JP7486742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】剖検所見の電子所見録への記録作業を支援することができる電子所見録記録支援装置及び電子所見録記録支援方法を提供する。【解決手段】電子所見録記録支援装置300は、身体部位に関する所見情報の電子所見録への記録を支援する。電子所見録記録支援装置300は、音声入力機能および画像表示機能を有する端末装置と接続する端末接続部320と、人体図を表示している端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、身体部位情報および識別情報を取得する情報取得部及び取得した身体部位情報に基づいて、人体図における身体部位の位置を特定する位置特定部と、人体図において、特定された身体部位の位置に識別情報を表示させる表示制御部として機能する入力画面制御部340と、を備える。【選択図】図2[Problem] To provide an electronic findings record recording support device and an electronic findings record recording support method that can support the recording of autopsy findings in an electronic findings record. [Solution] An electronic findings record recording support device 300 supports the recording of finding information related to a body part in an electronic findings record. The electronic findings record recording support device 300 includes a terminal connection unit 320 that connects to a terminal device having a voice input function and an image display function, an information acquisition unit that acquires body part information and identification information based on voice recognition processing when body part information indicating a body part and identification information identifying the body part are input by voice on a terminal device displaying a human body diagram, a position identification unit that identifies the position of the body part on the human body diagram based on the acquired body part information, and an input screen control unit 340 that functions as a display control unit that displays the identification information at the position of the identified body part on the human body diagram. [Selected Figure] FIG.

Description

本発明は、複数の身体部位に関する所見情報の電子所見録への入力を支援する電子所見録記録支援装置および電子所見録記録支援方法に関する。 The present invention relates to an electronic record recording support device and an electronic record recording support method that support input of finding information regarding a plurality of body parts into an electronic record.

近年、診療の分野において電子カルテ(所見録)の普及が進んでいる。通常、電子カルテは、液晶ディスプレイ等の表示インタフェースに、入力すべき情報の項目や入力欄を配置した画面を表示する。そして、電子カルテは、キーボードおよびマウス等の手入力インタフェースを介して、医療従事者から情報の入力を受け付け、入力された情報を参照可能な状態で記録する。 In recent years, electronic medical records (findings) have become widespread in the field of medical care. Normally, an electronic medical record displays a screen in which information items to be input and input fields are arranged on a display interface such as a liquid crystal display. Then, the electronic medical record receives input of information from the medical staff via a manual input interface such as a keyboard and a mouse, and records the input information in a referenceable state.

総合病院等では、複数の医療従事者がカルテの記録や参照を行う。そこで、複数の端末装置から1つの電子カルテにアクセスすることを可能にする技術が提案されている(例えば特許文献1参照)。 At general hospitals, etc., multiple medical staff record and refer to medical records. Therefore, a technique has been proposed that enables access to one electronic medical record from a plurality of terminal devices (see, for example, Patent Document 1).

特許文献1に記載の技術(以下「従来技術」という)は、ある患者の電子カルテがいずれかの端末装置において編集されている間、他の端末装置ではかかる患者の電子カルテの編集ができないようにするとともに、所定のルールに基づいて編集を許可する端末装置を切り替える。このような従来技術によれば、複数の医療従事者による電子カルテへの所見情報の記録を、効率良く行うことができる。 The technique described in Patent Document 1 (hereinafter referred to as "conventional technique") is such that while an electronic medical record of a patient is being edited on one of the terminal devices, the electronic medical record of the patient cannot be edited on the other terminal device. At the same time, the terminal device that allows editing is switched based on a predetermined rule. According to such a conventional technique, it is possible to efficiently record finding information in an electronic medical record by a plurality of medical professionals.

特開2014-13577号公報Japanese Unexamined Patent Publication No. 2014-13577

ところで、診療の分野だけでなく、法医解剖や病理解剖の分野においても、剖検所見を記録する所見録の電子化が望まれる。 By the way, it is desired to digitize the findings for recording autopsy findings not only in the field of medical care but also in the fields of forensic anatomy and pathological anatomy.

しかしながら、剖検を行っている執刀医にとって、手入力インタフェースを使用することは困難である。また、一人は頭部の剖検を行い、他の一人は腹部の剖検を行うというように、複数の執刀医が1つの被検体について同時に剖検を行うことも多い。したがって、上述の従来技術は、剖検所見を電子的な所見録(以下「電子所見録」という)に記録する用途には適していない。 However, it is difficult for the surgeon performing the autopsy to use the manual input interface. In many cases, multiple surgeons perform an autopsy on one subject at the same time, such as one performing an autopsy on the head and the other performing an autopsy on the abdomen. Therefore, the above-mentioned prior art is not suitable for recording autopsy findings in electronic findings (hereinafter referred to as "electronic findings").

本発明の目的は、剖検所見の電子所見録への記録作業を支援することができる電子所見録記録支援装置および電子所見録記録支援方法を提供することである。 An object of the present invention is to provide an electronic finding recording support device and an electronic finding recording support method capable of supporting the recording work of autopsy findings in electronic findings.

本発明の一態様に係る電子所見録記録支援装置は、
身体部位に関する所見情報の電子所見録への記録を支援する電子所見録記録支援装置であって、
音声入力機能および画像表示機能を有する端末装置と接続する端末接続部と、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得する情報取得部と、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定する位置特定部と、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる表示制御部と、
を備える。
The electronic record recording support device according to one aspect of the present invention is
It is an electronic finding recording support device that supports the recording of finding information about body parts in electronic findings.
A terminal connection unit that connects to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. The information acquisition unit that acquires identification information, and
Based on the acquired body part information, a position specifying part that specifies the position of the body part in the human body diagram, and
In the human body diagram, a display control unit that displays the identification information at the position of the specified body part, and
To prepare for.

本発明の一態様に係る電子所見録記録支援方法は、
身体部位に関する所見情報の電子所見録への記録を支援する電子所見録記録支援方法であって、
音声入力機能および画像表示機能を有する端末装置と接続し、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得し、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定し、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる。
The method for supporting the recording of electronic findings according to one aspect of the present invention is as follows.
It is an electronic finding recording support method that supports the recording of finding information on body parts in electronic findings.
Connect to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. Get the identification information,
Based on the acquired body part information, the position of the body part in the human body diagram is specified, and the position of the body part is specified.
In the human body diagram, the identification information is displayed at the position of the specified body part.

本開示によれば、剖検所見の電子所見録への記録作業を支援することができる。 According to the present disclosure, it is possible to support the work of recording autopsy findings in electronic findings.

本発明の一実施の形態に係る電子所見録記録支援装置が使用されるシステムの概要の一例を示す図The figure which shows an example of the outline of the system which uses the electronic findings recording support apparatus which concerns on one Embodiment of this invention. 本実施の形態に係る電子所見録記録支援装置の構成の一例を示す図The figure which shows an example of the structure of the electronic findings recording support apparatus which concerns on this embodiment. 本実施の形態における所見録構造データの内容の一例を示す図The figure which shows an example of the content of the findings structure data in this embodiment. 本実施の形態におけるコマンドデータの内容の一例を示す図The figure which shows an example of the contents of the command data in this embodiment 本実施の形態における発音辞書データの内容の一例を示す図The figure which shows an example of the content of the pronunciation dictionary data in this embodiment. 本実施の形態における端末状態管理表の内容の一例を示す図The figure which shows an example of the contents of the terminal state management table in this embodiment. 本実施の形態における電子所見録の作業開始画面の一例を示す図The figure which shows an example of the work start screen of the electronic findings in this embodiment. 本実施の形態に係る電子所見録記録支援装置の動作の一例を示すフローチャートA flowchart showing an example of the operation of the electronic record recording support device according to the present embodiment. 本実施の形態における所見録入力画面の第1の例を示す図The figure which shows the 1st example of the finding input screen in this embodiment 本実施の形態における所見録入力画面の第2の例を示す図The figure which shows the 2nd example of the finding input screen in this embodiment 本実施の形態における所見録入力画面の第3の例を示す図The figure which shows the 3rd example of the finding input screen in this embodiment 本実施の形態における所見録入力画面の第4の例を示す図The figure which shows the 4th example of the finding input screen in this embodiment 本実施の形態における所見録入力画面の第5の例を示す図The figure which shows the 5th example of the findings input screen in this embodiment 本実施の形態における所見録情報データの内容の一例を示す図The figure which shows an example of the content of the findings information data in this embodiment. 本実施の形態における剖検記録の一例を示す図The figure which shows an example of the autopsy record in this embodiment 本実施の形態における所見録入力画面の第6の例を示す図The figure which shows the 6th example of the finding input screen in this embodiment 本実施の形態における人体図情報の内容の一例を示す図The figure which shows an example of the content of the human body diagram information in this embodiment.

以下、本発明の一実施の形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

<システム概要>
まず、本実施の形態に係る電子所見録記録支援装置が使用される電子所見録システムの概要について説明する。本実施の形態において、電子所見録システムは、法医解剖における剖検所見を記録するためのシステムである。
<System overview>
First, an outline of the electronic record system in which the electronic record recording support device according to the present embodiment is used will be described. In this embodiment, the electronic finding system is a system for recording autopsy findings in a forensic anatomy.

図1は、本実施の形態に係る電子所見録記録支援装置が使用される電子所見録システムの概要の一例を示す図である。 FIG. 1 is a diagram showing an example of an outline of an electronic finding recording system in which the electronic finding recording support device according to the present embodiment is used.

図1に示すように、電子所見録システム100は、解剖室110の内部に配置される第1および第2の端末装置200、200と、解剖室110の外部に配置される電子所見録記録支援装置300とを有する。 As shown in FIG. 1 , the electronic findings system 100 includes first and second terminal devices 2001 and 2002 arranged inside the dissection chamber 110, and electronic findings arranged outside the dissection chamber 110. It has a recording support device 300.

第1の端末装置200は、第1の端末制御装置210と、マイクロフォンを備えた第1のヘッドセット220と、液晶ディスプレイを備えた第1の表示装置230と、を有する。 The first terminal device 2001 1 includes a first terminal control device 210 1 , a first headset 220 1 equipped with a microphone, and a first display device 230 1 equipped with a liquid crystal display.

第1のヘッドセット220および第1の表示装置230は、それぞれ、第1の端末制御装置210に通信可能に接続されている。すなわち、第1の端末装置200は、音声入力機能および画像表示機能を有する端末装置である。第1のヘッドセット220は、ある被検体120を法医解剖する執刀医である第1のユーザ130の頭部に装着される。第1の表示装置230は、この第1のユーザ130によって使用される。 The first headset 220 1 and the first display device 230 1 are each communicably connected to the first terminal control device 210 1 . That is, the first terminal device 2001 is a terminal device having a voice input function and an image display function. The first headset 220 1 is worn on the head of a first user 130 1 who is a surgeon who dissects a subject 120. The first display device 230 1 is used by this first user 130 1 .

また、第2の端末装置200も、第2の端末制御装置210、第2のヘッドセット220、および第2の表示装置230を備えた、第1の端末装置200と同様の構成となっている。第2のヘッドセット220は、被検体120を法医解剖するもう一人の執刀医である第2のユーザ130の頭部に装着される。第2の表示装置230は、この第2のユーザ130によって使用される。 Further, the second terminal device 2002 is also the same as the first terminal device 2001 1 including the second terminal control device 210 2 , the second headset 220 2 , and the second display device 230 2 . It is composed. The second headset 220 2 is worn on the head of a second user 130 2 who is another surgeon who dissects the subject 120. The second display device 230 2 is used by this second user 130 2 .

電子所見録記録支援装置300は、第1の端末制御装置210および第2の端末制御装置210のそれぞれと通信可能に接続し、第1の端末装置200および第2の端末装置200のそれぞれに電子所見録のユーザインタフェースを実現する。すなわち、電子所見録記録支援装置300は、各端末装置200に所見録入力画面を表示させ、所見録情報の提示および電子所見録への所見情報の入力の受け付けを行う。 The electronic record recording support device 300 is communicably connected to each of the first terminal control device 210 1 and the second terminal control device 210 2 , and is communicably connected to the first terminal device 2001 1 and the second terminal device 2002. A user interface for electronic records is realized for each of the above. That is, the electronic finding recording support device 300 causes each terminal device 200 to display the finding input screen, presents the finding information, and accepts the input of the finding information into the electronic finding.

より具体的には、電子所見録記録支援装置300は、音声によるハンズフリーでの所見情報の入力を可能にし、更に、第1および第2のユーザ130、130が同時に所見情報を入力することを可能にする。 More specifically, the electronic record recording support device 300 enables hands-free input of finding information by voice, and further, the first and second users 130 1 and 130 2 simultaneously input the finding information. Make it possible.

<装置の構成>
次に、電子所見録記録支援装置300の構成について説明する。
<Device configuration>
Next, the configuration of the electronic record recording support device 300 will be described.

図2は、電子所見録記録支援装置300の構成の一例を示す図である。 FIG. 2 is a diagram showing an example of the configuration of the electronic record recording support device 300.

図2において、電子所見録記録支援装置300は、情報格納部310(本発明の「人体図情報記憶部」として機能)、端末接続部320、音声認識解析部330、入力画面制御部340(本発明の「情報取得部」、「位置特定部」および「表示制御部」として機能)、および情報記録部350(本発明の「記憶制御部」として機能)を有する。 In FIG. 2, the electronic record recording support device 300 includes an information storage unit 310 (functioning as a “human body diagram information storage unit” of the present invention), a terminal connection unit 320, a voice recognition analysis unit 330, and an input screen control unit 340 (this). It has an "information acquisition unit", a "position specifying unit" and a "display control unit" of the present invention), and an information recording unit 350 (functions as a "memory control unit" of the present invention).

情報格納部310は、電子所見録のユーザインタフェースを実現するための各種情報を予め格納している。より具体的には、情報格納部310は、音声認識辞書311、所見録構成情報312、所見録情報データ313および人体図情報314を格納している。 The information storage unit 310 stores in advance various information for realizing a user interface for electronic findings. More specifically, the information storage unit 310 stores the voice recognition dictionary 311, the finding composition information 312, the finding information data 313, and the human figure information 314.

音声認識辞書311は、音響モデル、発音辞書、および言語モデル等の、音声データをテキストデータに変換する音声認識処理で使用される情報である。音響モデルは、音声の特徴量と発音記号との確率的な対応付けをデータ化したものである。発音辞書は、音声認識処理による音声認識結果の候補群として、複数のテキスト配列を記述したものである。言語モデルは、発音辞書に記述されたテキスト配列のそれぞれについて、出現確率や接続確率をデータ化したものである。 The speech recognition dictionary 311 is information used in speech recognition processing for converting speech data into text data, such as an acoustic model, a pronunciation dictionary, and a language model. The acoustic model is a data of the stochastic correspondence between the feature amount of the voice and the phonetic symbol. The pronunciation dictionary describes a plurality of text sequences as a candidate group of speech recognition results by speech recognition processing. The language model is a data of the appearance probability and the connection probability for each of the text sequences described in the pronunciation dictionary.

なお、発音辞書および言語モデルは、医学専門用語および所見録の記録形式に対応したものであることが望ましい。また、音響モデルは、学習によりユーザ毎にカスタマイズされた音響モデルと、不特定のユーザ用の音響モデルとを含むことが望ましい。また、発音辞書および言語モデルは、後述の、表示画面毎および画面モード毎に用意されていることが望ましい。 It is desirable that the pronunciation dictionary and language model correspond to the recording format of medical technical terms and findings. Further, it is desirable that the acoustic model includes an acoustic model customized for each user by learning and an acoustic model for an unspecified user. Further, it is desirable that the pronunciation dictionary and the language model are prepared for each display screen and each screen mode, which will be described later.

所見録構成情報312は、電子所見録のユーザインタフェースを構築するために必要な情報である。所見録構成情報312は、例えば、所見録構造データ、コマンドデータ、発音辞書データ、および端末状態管理表を含む。 The findings composition information 312 is information necessary for constructing a user interface for electronic findings. The finding structure information 312 includes, for example, finding structure data, command data, pronunciation dictionary data, and a terminal state management table.

所見録構造データは、電子所見録の構造を記述するデータである。コマンドデータは、ユーザから受け付けるコマンドを記述するデータである。発音辞書データは、電子所見録で表示される文字列とその読みとを対応付けて記述するデータである。端末状態管理表は、各端末装置200を識別し、各端末装置200の状態を記述する情報である。なお、所見録構造データ、コマンドデータ、および発音辞書データは、予め用意された情報であるのに対し、端末状態管理表は、電子所見録システム100の状態に応じて生成され変化する情報である。 The findings structure data is data that describes the structure of electronic findings. The command data is data that describes a command received from the user. The pronunciation dictionary data is data that describes the character string displayed in the electronic findings in association with the reading thereof. The terminal state management table is information that identifies each terminal device 200 and describes the state of each terminal device 200. The finding structure data, the command data, and the pronunciation dictionary data are information prepared in advance, whereas the terminal state management table is information generated and changed according to the state of the electronic finding system 100. ..

図3は、所見録構造データの内容の一例を示す図である。 FIG. 3 is a diagram showing an example of the contents of the findings structure data.

図3に示すように、所見録構造データ410は、部位名411毎に、部位名に属する項目名412と、当該項目名412の入力欄タイプ413とを記述する。 As shown in FIG. 3, in the finding structure data 410, the item name 412 belonging to the part name and the input field type 413 of the item name 412 are described for each part name 411.

部位名411は、身体部位の名称である。部位名411とは、例えば、「心臓」等の、一人の執刀医が剖検を行う際に一時に着目する、被検体の範囲の名称である。なお、本実施の形態では、「基本情報」といった、一人の執刀医が剖検を行う際に一時に着目する、一まとまりの各種情報の名称についても、部位名411として取り扱う。 The part name 411 is the name of the body part. The site name 411 is a name of a range of subjects, such as "heart", which one surgeon pays attention to at one time when performing an autopsy. In the present embodiment, the names of various kinds of information, such as "basic information", which one surgeon pays attention to at one time when performing an autopsy, are also treated as the site name 411.

項目名412は、部位名411に対応する、所見情報を記録すべき対象の名称である。 The item name 412 is the name of the object for which the finding information should be recorded, which corresponds to the part name 411.

入力欄タイプ413は、項目名412に対応する所見情報の、入力の仕方の種別である。 The input field type 413 is a type of input method of the finding information corresponding to the item name 412.

なお、所見録構造データ410は、部位名411、項目名412、および項目名412のそれぞれについて、所見録入力画面において表示される際の、位置、大きさ、字体、および色等の情報を含んでいてもよい。また、所見録構造データ410は、項目名412のそれぞれについて、入力された所見情報のメモリ格納場所に関する情報を含んでいてもよい。 The finding structure data 410 includes information such as position, size, font, and color when the part name 411, the item name 412, and the item name 412 are displayed on the finding input screen. You may go out. Further, the finding structure data 410 may include information regarding the memory storage location of the input finding information for each of the item names 412.

図4は、コマンドデータの内容の一例を示す図である。 FIG. 4 is a diagram showing an example of the contents of the command data.

図4に示すように、コマンドデータ420は、画面モード421毎に、コマンド422を記述している。 As shown in FIG. 4, the command data 420 describes the command 422 for each screen mode 421.

画面モード421は、電子所見録の画面が受け付ける操作の種別である。本実施の形態において、画面モード421に、少なくとも、「選択モード」および「入力モード」を含む。選択モードは、画面に表示された部位名や項目名を選択する操作を受け付けるモードである。入力モードは、画面に表示された項目名に対応する入力欄への情報入力操作を受け付けるモードである。なお、入力モードは、更に、自由文を入力するためのモードと、数値を入力するためのモードとに分かれていることが望ましい。 The screen mode 421 is a type of operation accepted by the screen of the electronic findings. In the present embodiment, the screen mode 421 includes at least a "selection mode" and an "input mode". The selection mode is a mode that accepts an operation of selecting a part name or an item name displayed on the screen. The input mode is a mode for accepting an information input operation in the input field corresponding to the item name displayed on the screen. It is desirable that the input mode is further divided into a mode for inputting a free sentence and a mode for inputting a numerical value.

コマンド422は、所見録入力画面においてユーザから受け付ける命令語である。本実施の形態において、コマンド422は、入力欄への入力を開始するための入力開始コマンド、入力欄に記述された内容への編集を行うための各種編集コマンド、および入力欄への入力を停止するための入力停止コマンドを含む。 The command 422 is a command word received from the user on the finding input screen. In the present embodiment, the command 422 is an input start command for starting input to the input field, various editing commands for editing the contents described in the input field, and stopping input to the input field. Includes an input stop command to do.

図5は、発音辞書データの内容の一例を示す図である。 FIG. 5 is a diagram showing an example of the contents of the pronunciation dictionary data.

図5に示すように、発音辞書データ430は、文字列431毎に、読み432を記述している。文字列431は、電子所見録システム100が所見録入力画面において音声入力を受け付ける語句の文字列であり、部位名411、項目名412、およびコマンド422(図3および図4参照)を含む。 As shown in FIG. 5, the pronunciation dictionary data 430 describes a reading 432 for each character string 431. The character string 431 is a character string of words and phrases that the electronic record system 100 accepts voice input on the record input screen, and includes a part name 411, an item name 412, and a command 422 (see FIGS. 3 and 4).

なお、かかる発音辞書データ430と同じ内容の情報が、上述の音声認識辞書311の発音辞書に含まれているものとする。あるいは、発音辞書データ430は、音声認識辞書311と所見録構成情報312とで兼用されていてもよい。 It is assumed that the information having the same content as the pronunciation dictionary data 430 is included in the pronunciation dictionary of the above-mentioned speech recognition dictionary 311. Alternatively, the pronunciation dictionary data 430 may be shared by the voice recognition dictionary 311 and the finding structure information 312.

図6は、端末状態管理表の内容の一例を示す図である。 FIG. 6 is a diagram showing an example of the contents of the terminal state management table.

図6に示すように、端末状態管理表440は、第1の端末装置442および第2の端末装置443のそれぞれについて、状態項目441毎の状態を記述している。 As shown in FIG. 6, the terminal state management table 440 describes the state of each state item 441 for each of the first terminal device 442 and the second terminal device 443.

状態項目441には、端末ID、ユーザ名、作業中所見録No.、表示画面、作業状態、および選択中の項目が含まれる。端末IDは、端末装置200の識別情報である。なお、端末IDは、マイクIDとディスプレイIDとの組であってもよい。ユーザ名は、端末装置200を使用するユーザの識別情報である。作業中所見録No.は、端末装置200で入力あるいは編集の作業の対象となっている所見録情報データの識別情報である。表示画面は、端末装置200が表示している画面の識別情報である。作業状態は、端末装置200に設定されている画面モード421(図4参照)である。 The status item 441 includes a terminal ID, a user name, and a work-in-progress record No. , Display screen, working status, and selected item. The terminal ID is identification information of the terminal device 200. The terminal ID may be a set of a microphone ID and a display ID. The user name is identification information of a user who uses the terminal device 200. The work-in-progress record No. is identification information of the finding information data that is the target of input or editing work in the terminal device 200. The display screen is the identification information of the screen displayed by the terminal device 200. The working state is the screen mode 421 (see FIG. 4) set in the terminal device 200.

なお、端末IDは、例えば、電子所見録記録支援装置300に端末装置200が接続されたときに、通信ネットワークの自動検出機能やユーザ操作に基づいて、入力画面制御部340により記述される。ユーザ名および作業中所見録No.は、例えば、電子所見録の作業開始画面におけるユーザ操作に基づいて、入力画面制御部340により記述される。また、表示画面、作業状態、および選択中の項目は、例えば、所見録入力画面に対する各種ユーザ操作を受けて、逐次、入力画面制御部340により更新される。 The terminal ID is described by the input screen control unit 340 based on the automatic detection function of the communication network or the user operation when the terminal device 200 is connected to the electronic record recording support device 300, for example. User name and work findings No. Is described by the input screen control unit 340, for example, based on the user operation on the work start screen of the electronic findings. Further, the display screen, the working state, and the selected item are sequentially updated by the input screen control unit 340 in response to various user operations on the finding input screen, for example.

図2の所見録情報データ313の内容については、後述する。 The contents of the finding information data 313 in FIG. 2 will be described later.

図2の端末接続部320は、第1および第2の端末装置200、200のそれぞれと、通信可能に接続する。そして、端末接続部320は、第1および第2の端末装置200、200のそれぞれと、音声認識解析部330、入力画面制御部340、および情報記録部350との間で、情報の中継を行う。 The terminal connection unit 320 of FIG. 2 is communicably connected to each of the first and second terminal devices 2001 and 2002. Then, the terminal connection unit 320 relays information between the first and second terminal devices 2001 and 2002, respectively, and the voice recognition analysis unit 330, the input screen control unit 340, and the information recording unit 350. I do.

音声認識解析部330は、端末装置200毎に、音声認識辞書310を用いた音声認識処理により、部位名411(図3参照)が音声入力されたか否か、および、所見情報が音声入力されたか否か、を判定する。なお、音声認識解析部330は、図示しないが、発話者の音声をコンパクトなデータに変換する音響分析部と、変換されたデータを解析してテキスト化する認識デコーダとを含む。そして、音声認識解析部330は、部位名あるいは所見情報が音声入力されたとき、当該部位名あるいは所見情報のテキスト情報を、入力画面制御部340へ出力する。なお、音声認識解析部330は、項目名412(図3参照)およびコマンド422(図4参照)についても、同様に、音声入力の有無の判定および判定結果の出力を行う。 In the voice recognition analysis unit 330, whether or not the part name 411 (see FIG. 3) was input by voice and whether the finding information was input by voice by the voice recognition process using the voice recognition dictionary 310 for each terminal device 200. Whether or not it is determined. Although not shown, the voice recognition analysis unit 330 includes an acoustic analysis unit that converts the voice of the speaker into compact data, and a recognition decoder that analyzes the converted data and converts it into text. Then, when the part name or the finding information is input by voice, the voice recognition analysis unit 330 outputs the text information of the part name or the finding information to the input screen control unit 340. The voice recognition analysis unit 330 similarly determines the presence / absence of voice input and outputs the determination result for the item name 412 (see FIG. 3) and the command 422 (see FIG. 4).

なお、音声認識解析部330は、端末状態管理表440(図6参照)に基づいて、使用する音響モデル、発音辞書、および言語モデルを切り替えてもよいし、認識対象とする語句を絞ってもよい。 The voice recognition analysis unit 330 may switch the acoustic model, pronunciation dictionary, and language model to be used based on the terminal state management table 440 (see FIG. 6), or may narrow down the words and phrases to be recognized. good.

入力画面制御部340は、端末装置毎に、複数の身体部位の部位名の一覧を含む所見録入力画面を生成して表示させる。そして、入力画面制御部340は、いずれかの部位名がいずれかの端末装置200において音声入力されたとき、当該端末装置200の所見録入力画面に、対応する所見情報を入力するための部位別画面を表示させる。また、入力画面制御部340は、入力された所見情報のテキスト情報を、入力の対象となった部位名および項目名と対応付けて、情報記録部350へ出力する。 The input screen control unit 340 generates and displays a finding input screen including a list of part names of a plurality of body parts for each terminal device. Then, when any part name is input by voice in any terminal device 200, the input screen control unit 340 for each part for inputting the corresponding finding information on the finding record input screen of the terminal device 200. Display the screen. Further, the input screen control unit 340 outputs the text information of the input finding information to the information recording unit 350 in association with the part name and the item name to be input.

但し、入力画面制御部340は、一方の端末装置の200においていずれかの部位別画面が表示されている間、他方の端末装置200に表示されている対応する部位名に対して、対応する所見情報の入力が不可である事を示す不可通知情報を付与する。また、入力画面制御部340は、一方の端末装置の200においていずれかの部位別画面が表示されている間、対応する部位別画面を、他方の端末装置200において表示させない。 However, the input screen control unit 340 corresponds to the corresponding part name displayed on the other terminal device 200 while the screen for each part is displayed on the one terminal device 200. Impossible notification information indicating that information cannot be entered is given. Further, the input screen control unit 340 does not display the corresponding site-specific screen on the other terminal device 200 while the site-specific screen is displayed on the one terminal device 200.

なお、入力画面制御部340は、各端末装置200における表示画面、作業状態、および選択中の項目を、逐次、端末状態管理表440(図6参照)に反映させる。 The input screen control unit 340 sequentially reflects the display screen, the working state, and the selected item in each terminal device 200 in the terminal state management table 440 (see FIG. 6).

情報記録部350は、入力画面制御部340から所見情報のテキスト情報が入力されたとき、入力された所見情報のテキスト情報を、対応する部位名および項目名に対応付けて、所見録情報データ313として、情報格納部310に格納する。 When the text information of the finding information is input from the input screen control unit 340, the information recording unit 350 associates the text information of the input finding information with the corresponding part name and item name, and the finding information data 313. Is stored in the information storage unit 310.

なお、上述の所見録構造データ410(図3参照)と、所見録情報データ313との組み合わせは、電子所見録を構成する。すなわち、情報記録部350は、ユーザにより入力された所見情報を、電子所見録に記録する。 The combination of the above-mentioned finding structure data 410 (see FIG. 3) and the finding information data 313 constitutes an electronic finding. That is, the information recording unit 350 records the finding information input by the user in the electronic finding.

電子所見録記録支援装置300は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、RAM(Random Access Memory)等の作業用メモリ、および通信回路を有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。 Although not shown, the electronic record recording support device 300 includes, for example, a CPU (Central Processing Unit), a storage medium such as a ROM (Read Only Memory) containing a control program, and a working memory such as a RAM (Random Access Memory). And has a communication circuit. In this case, the functions of the above-mentioned parts are realized by the CPU executing the control program.

このような電子所見録記録支援装置300は、各端末装置200において、身体部位毎に用意された部位別画面を介して、項目毎の所見情報を音声入力することを可能にする。また、電子所見録記録支援装置300は、ある端末装置200においていずれかの部位別画面が表示されている間、他の端末装置200では当該部位別画面を表示させないとともに、対応する所見情報を音声入力することができない旨を当該他の端末装置200のユーザに通知することができる。 Such an electronic finding recording support device 300 enables each terminal device 200 to voicely input finding information for each item via a site-specific screen prepared for each body part. Further, the electronic finding recording support device 300 does not display the screen for each part on the other terminal device 200 while the screen for each part is displayed on the terminal device 200, and the corresponding finding information is voiced. It is possible to notify the user of the other terminal device 200 that the input cannot be performed.

<装置の動作>
次に、電子所見録記録支援装置300の動作について、電子所見録の画面状態を例示しながら説明する。
<Operation of the device>
Next, the operation of the electronic record recording support device 300 will be described by exemplifying the screen state of the electronic record.

まず、入力画面制御部340は、端末装置200毎に、電子所見録の作業開始画面を生成して端末装置200に表示させる。そして、入力画面制御部340は、端末装置200毎に、所見情報の入力あるいは編集の作業の対象の設定、および、作業を行うユーザの設定を受け付ける。 First, the input screen control unit 340 generates a work start screen for electronic findings for each terminal device 200 and displays it on the terminal device 200. Then, the input screen control unit 340 accepts the setting of the target of the work of inputting or editing the finding information and the setting of the user who performs the work for each terminal device 200.

図7は、電子所見録の作業開始画面の一例を示す図である。 FIG. 7 is a diagram showing an example of a work start screen of electronic findings.

図7に示すように、作業開始画面510は、所見録選択領域511およびユーザ選択領域512を有する。所見録選択領域511は、既存の所見録情報データの一覧を表示し、作業開始の対象となる所見録情報データの選択操作、あるいは、新規の所見録情報データの作成開始の操作を、ユーザから受け付ける。ユーザ選択領域512は、ユーザ名の一覧を表示し、作業を開始するユーザのユーザ名の選択操作、あるいは、新規のユーザ名の登録の操作を、ユーザから受け付ける。 As shown in FIG. 7, the work start screen 510 has a finding selection area 511 and a user selection area 512. The finding selection area 511 displays a list of existing finding information data, and the user can perform an operation of selecting the finding information data to be started or an operation of starting the creation of new finding information data. accept. The user selection area 512 displays a list of user names, and accepts from the user an operation of selecting a user name of a user who starts work or an operation of registering a new user name.

例えば、第1のユーザ130は、第1の端末装置200に表示された作業開始画面510において、所見録情報データ「000019」およびユーザ名「TARO」を選択する。また、第2のユーザ130は、第2の端末装置200に表示された作業開始画面510において、所見録情報データ「000019」およびユーザ名「HANAKO」を選択する。 For example, the first user 130 1 selects the finding information data “0000019” and the user name “TARO” on the work start screen 510 displayed on the first terminal device 2001. Further, the second user 130 2 selects the finding information data “0000019” and the user name “HANAKO” on the work start screen 510 displayed on the second terminal device 2002.

電子所見録記録支援装置300は、作業開始画面510において所見録情報データおよびユーザ名が選択される毎に、以下に説明する動作を端末装置200毎に行う。 The electronic record recording support device 300 performs the operation described below for each terminal device 200 each time the record information data and the user name are selected on the work start screen 510.

図8は、電子所見録記録支援装置300の動作の一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the operation of the electronic record recording support device 300.

ステップS1010において、入力画面制御部340は、選択された所見録情報データの所見録入力画面を生成して、選択が行われた端末装置200に表示させる。このとき、入力画面制御部340は、選択が行われた端末装置200に対して、選択されたユーザ名を登録するとともに、選択モードを設定する。これらの登録および設定は、端末状態管理表440(図6参照)を用いて行われる。 In step S1010, the input screen control unit 340 generates a finding input screen of the selected finding information data and displays it on the terminal device 200 in which the selection is made. At this time, the input screen control unit 340 registers the selected user name for the selected terminal device 200 and sets the selection mode. These registrations and settings are performed using the terminal state management table 440 (see FIG. 6).

図9は、所見録入力画面の一例を示す図である。 FIG. 9 is a diagram showing an example of a finding input screen.

図9に示すように、所見録入力画面600は、部位選択領域610、所見入力領域(部位別画面)620、コマンド表示領域630、および音声認識操作領域640を有する。 As shown in FIG. 9, the finding input screen 600 has a site selection area 610, a finding input area (site-specific screen) 620, a command display area 630, and a voice recognition operation area 640.

部位選択領域610は、複数の身体部位の部位名411(図3参照)を、複数の部位名タブ611として一覧表示する領域である。 The site selection area 610 is an area for displaying a list of site names 411 (see FIG. 3) of a plurality of body parts as a plurality of site name tabs 611.

所見入力領域(部位別画面)620は、1つの身体部位について、当該身体部位の部位名411に対応する複数の項目名412(図3参照)を、複数の項目名ボタン621として一覧表示する領域である。また、所見入力領域620は、各項目名412に対応する入力欄タイプ413(図3参照)に応じた入力欄を、入力エリア622として、項目名ボタン621に対応付けて表示する領域である。 The finding input area (screen for each part) 620 is an area for displaying a list of a plurality of item names 412 (see FIG. 3) corresponding to the part name 411 of the body part as a plurality of item name buttons 621 for one body part. Is. Further, the finding input area 620 is an area in which the input field corresponding to the input field type 413 (see FIG. 3) corresponding to each item name 412 is displayed as the input area 622 in association with the item name button 621.

なお、所見録入力画面600は、各所見入力領域620が、対応する部位名タブ611が上端に付されたシートに見えるように、描画されている。 The finding input screen 600 is drawn so that each finding input area 620 can be seen as a sheet having the corresponding part name tab 611 at the upper end.

コマンド表示領域630は、画面モード421に応じたコマンド422(図4参照)の読みを、一覧表示する。 The command display area 630 displays a list of readings of the command 422 (see FIG. 4) according to the screen mode 421.

音声認識操作領域640は、認識対象となる単語の登録やユーザプロファイルの編集等の、音声認識辞書311を編集する操作や、マイクロフォンのボリュームや音声認識の開始および停止等の、音声認識に関する操作を受け付ける領域である。 The voice recognition operation area 640 performs operations related to voice recognition such as registration of a word to be recognized and editing of a user profile to edit the voice recognition dictionary 311 and start and stop of microphone volume and voice recognition. This is the area to accept.

入力画面制御部340は、例えば、初期状態として、基本情報についての所見入力領域620を含む所見録入力画面600を表示する。 The input screen control unit 340 displays, for example, a finding input screen 600 including a finding input area 620 for basic information as an initial state.

図8のステップS1020において、音声認識解析部330は、選択モードにある端末装置200において、表示されている部位名の音声入力があったか否かを判定する。かかる判定は、例えば、所見録構造データ410(図3参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。 In step S1020 of FIG. 8, the voice recognition analysis unit 330 determines whether or not there is a voice input of the displayed part name in the terminal device 200 in the selection mode. Such a determination is made based on, for example, the finding structure data 410 (see FIG. 3), the pronunciation dictionary data 430 (see FIG. 5), and the terminal state management table 440 (see FIG. 6).

ここで、判定の対象となる部位名は、所見録入力画面600の部位選択領域610に、部位名タブ611として表示されている。したがって、ユーザは、表示された複数の部位名タブ611の中から1つを選択して読み上げるような感覚で、所望の部位名を選択し、これを端末装置200に音声入力することができる。 Here, the part name to be determined is displayed as the part name tab 611 in the part selection area 610 of the finding record input screen 600. Therefore, the user can select a desired part name and input it to the terminal device 200 by voice as if selecting one from the displayed plurality of part name tabs 611 and reading it aloud.

音声認識解析部330は、選択モードで部位名の音声入力があった場合(S1020:YES)、処理をステップS1030へ進める。また、音声認識解析部330は、選択モードで部位名の音声入力がない場合(S1020:NO)、処理を後述のステップS1060へ進める。 The voice recognition analysis unit 330 advances the process to step S1030 when there is a voice input of the part name in the selection mode (S1020: YES). Further, when there is no voice input of the part name in the selection mode (S1020: NO), the voice recognition analysis unit 330 advances the process to step S1060 described later.

ステップS1030において、入力画面制御部340は、他の端末装置200において、音声入力された部位名についての所見入力領域620を含む所見録入力画面600が表示されているか否かを判定する。かかる判定は、例えば、端末状態管理表440(図6参照)に基づいて行われる。 In step S1030, the input screen control unit 340 determines whether or not the finding input screen 600 including the finding input area 620 for the voice-input site name is displayed in the other terminal device 200. Such a determination is made, for example, based on the terminal state management table 440 (see FIG. 6).

入力画面制御部340は、対応する所見録入力画面600が他の端末装置200において表示されていない場合(S1030:NO)、処理をステップS1040へ進める。また、入力画面制御部340は、対応する所見録入力画面600が他の端末装置200に表示されている場合(S1030:YES)、処理を後続のステップS1060へ進める。 When the corresponding finding input screen 600 is not displayed on the other terminal device 200 (S1030: NO), the input screen control unit 340 advances the process to step S1040. Further, when the corresponding finding input screen 600 is displayed on the other terminal device 200 (S1030: YES), the input screen control unit 340 advances the process to the subsequent step S1060.

ステップS1040において、入力画面制御部340は、音声入力があった端末装置200に対して、入力された部位名に対応する項目名の一覧を含む所見録入力画面600、つまり、入力された部位名に対応する所見入力領域620を表示させる。 In step S1040, the input screen control unit 340 receives a finding input screen 600 including a list of item names corresponding to the input part names for the terminal device 200 in which the voice is input, that is, the input part name. The finding input area 620 corresponding to is displayed.

図10は、「心臓」の部位名に対応する内容に切り替わったときの所見録入力画面の一例を示す図であり、図9に対応するものである。図9と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 10 is a diagram showing an example of a finding input screen when the content is switched to the content corresponding to the part name of the “heart”, and corresponds to FIG. 9. The parts corresponding to FIG. 9 are designated by the same reference numerals, and the description thereof will be omitted.

例えば、第2の端末装置200に心臓の所見入力領域620が表示されていない間に、第1の端末装置200において、選択モードであるときに「心臓」が音声入力されたとする。この場合、入力画面制御部340は、図10に示すように、第1の端末装置200に表示されている所見録入力画面600に、心臓の所見入力領域620を表示させる。 For example, it is assumed that the "heart" is voice-input in the first terminal device 2001 while the selection mode is in effect while the heart finding input area 620 is not displayed in the second terminal device 2002. In this case, as shown in FIG. 10, the input screen control unit 340 causes the finding input screen 600 displayed on the first terminal device 2001 to display the finding input area 620 of the heart.

なお、所見入力領域620は、上述の通り、部位名タブ611が付されたシートのように表示されている。このような表示形態により、所見録入力画面600は、どの身体部位(部位名)についての所見入力領域620であるかを、ユーザに示すことができる。 As described above, the finding input area 620 is displayed like a sheet with the part name tab 611. With such a display form, the finding input screen 600 can indicate to the user which body part (part name) the finding input area 620 is for.

また、図9および図10では、画面モードは選択モードである。したがって、いずれのコマンド表示領域630にも、選択モードのコマンド422(図4参照)の読みの一覧が表示される。 Further, in FIGS. 9 and 10, the screen mode is the selection mode. Therefore, a list of readings of the command 422 (see FIG. 4) in the selection mode is displayed in any command display area 630.

なお、身体部位によっては、項目名ボタン621および入力エリア622が多い場合、全ての項目名ボタン621および入力エリア622を一度に表示しきれない場合もある。したがって、コマンドには、画面のスクロール操作のコマンドが含まれている。これにより、所見入力領域620は、項目名ボタン621および入力エリア622が多い場合であっても、必要な全ての項目についての項目名ボタン621および入力エリア622を一覧表示することを、実質的に可能にしている。 Depending on the body part, if there are many item name buttons 621 and input areas 622, all item name buttons 621 and input areas 622 may not be displayed at once. Therefore, the commands include commands for scrolling the screen. As a result, the finding input area 620 substantially displays a list of the item name buttons 621 and the input area 622 for all the necessary items even when the item name button 621 and the input area 622 are large. It is possible.

図8のステップS1050において、入力画面制御部340は、他の端末装置200において、ステップS1040において表示の対象となった身体部位についての不可通知情報を表示する。 In step S1050 of FIG. 8, the input screen control unit 340 displays the non-notification information about the body part targeted for display in step S1040 in the other terminal device 200.

図11は、不可通知情報が表示された所見録入力画面の一例を示す図であり、図9および図10に対応するものである。図9および図10と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 11 is a diagram showing an example of a finding input screen on which the disapproval notification information is displayed, and corresponds to FIGS. 9 and 10. The parts corresponding to FIGS. 9 and 10 are designated by the same reference numerals, and the description thereof will be omitted.

例えば、第1の端末装置200には、心臓の所見入力領域620が表示されているとする(図10参照)。この場合、第2の端末装置200に表示される所見録入力画面600の「心臓」の部位名タブ611の表示形態が、他の部位名タブ611とは異なった表示形態となる。すなわち、不可通知情報は、他の部位名タブ611とは異なる部位名タブ611の表示形態である。かかる異なる表示形態としては、例えば、文字色、字体、あるいは背景色の変更を採用することができる。 For example, it is assumed that the first terminal device 2001 displays a heart finding input area 620 (see FIG. 10). In this case, the display form of the part name tab 611 of the "heart" of the finding input screen 600 displayed on the second terminal device 2002 is different from that of the other part name tab 611. That is, the non-notification information is a display form of the part name tab 611 different from the other part name tabs 611. As such a different display form, for example, a change in character color, font, or background color can be adopted.

このような不可通知情報の表示が行われることにより、第2のユーザは、第1のユーザが心臓の所見情報を入力中であるため、かかる入力作業が終わるまで第2の端末装置200では心臓の所見情報を入力できないという事を、直感的に認識することができる。 By displaying such non-notification information, the second user is inputting the heart finding information by the first user, so that the second terminal device 2002 waits until the input operation is completed. You can intuitively recognize that you cannot enter heart finding information.

図8のステップS1060において、音声認識解析部330は、選択モードにある端末装置200において、表示されている項目名の音声入力があり、続けて、入力開始コマンドの音声入力があったか否かを判定する。かかる判定は、例えば、所見録構造データ410(図3参照)、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。 In step S1060 of FIG. 8, the voice recognition analysis unit 330 determines whether or not the terminal device 200 in the selection mode has voice input of the displayed item name and subsequently has voice input of the input start command. do. Such a determination is based on, for example, finding record structure data 410 (see FIG. 3), command data 420 (see FIG. 4), pronunciation dictionary data 430 (see FIG. 5), and terminal state management table 440 (see FIG. 6). Will be done.

ここで、判定の対象となる項目名は、所見録入力画面600の所見入力領域620に、項目名ボタン621として表示されている。したがって、ユーザは、表示された複数の項目名ボタン621の中から1つを選択して読み上げるような感覚で、所望の項目名を選択し、これを端末装置200に音声入力することができる。 Here, the item name to be determined is displayed as the item name button 621 in the finding input area 620 of the finding record input screen 600. Therefore, the user can select a desired item name and input it to the terminal device 200 by voice as if selecting one of the displayed plurality of item name buttons 621 and reading it aloud.

例えば、心臓の所見入力領域620が表示されているとする(図10参照)。この場合、「心臓摘出血液量」や「心臓摘出血液性状」等の項目名412(図3参照)および「入力開始」というコマンド422(図4参照)が、判定の対象となる。 For example, assume that the heart finding input area 620 is displayed (see FIG. 10). In this case, the item names 412 (see FIG. 3) such as "cardiac removed blood volume" and "cardiac removed blood properties" and the command 422 (see FIG. 4) "start input" are the targets of the determination.

音声認識解析部330は、項目名および入力開始コマンドの音声入力があった場合(S1060:YES)、処理をステップS1070へ進める。また、音声認識解析部330は、項目名および入力開始コマンドの音声入力がない場合(S1060:NO)、処理を後述のステップS1080へ進める。 When there is a voice input of the item name and the input start command (S1060: YES), the voice recognition analysis unit 330 advances the process to step S1070. Further, when there is no voice input of the item name and the input start command (S1060: NO), the voice recognition analysis unit 330 advances the process to step S1080 described later.

ステップS1070において、入力画面制御部340は、項目名および入力開始コマンドの音声入力があった端末装置200の画面モードを、入力モードに切り替えるとともに、選択中の項目として、入力された項目を設定する。 In step S1070, the input screen control unit 340 switches the screen mode of the terminal device 200 in which the item name and the input start command are input by voice to the input mode, and sets the input item as the selected item. ..

図12は、図10に示す所見録入力画面において「心臓摘出血液性状」に続けて「入力開始」が音声入力されたときの、所見録入力画面の変化を示す図であり、図10に対応するものである。図10と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 12 is a diagram showing changes in the findings input screen when “input start” is input by voice following “cardiac excision blood properties” on the findings input screen shown in FIG. 10, and corresponds to FIG. 10. Is what you do. The parts corresponding to FIG. 10 are designated by the same reference numerals, and the description thereof will be omitted.

図12に示すように、入力画面制御部340は、音声入力された「心臓摘出血液性状」に対応する項目名ボタン621に、選択中であることを示す選択通知情報を付与する。選択通知情報としては、例えば、他の項目名ボタン621とは異なる項目名ボタン621の表示形態を用いる。かかる異なる表示形態としては、ボタン枠線の線種、ボタン色、ボタン形状、文字色、あるいは字体を採用することができる。 As shown in FIG. 12, the input screen control unit 340 imparts selection notification information indicating that selection is being made to the item name button 621 corresponding to the voice-input "cardiac removed blood property". As the selection notification information, for example, a display form of the item name button 621 different from the other item name buttons 621 is used. As such a different display form, a line type, a button color, a button shape, a character color, or a character style of a button border can be adopted.

また、入力画面制御部340は、コマンド表示領域630に、入力モードのコマンド422(図4参照)の読みの一覧を表示させる。 Further, the input screen control unit 340 causes the command display area 630 to display a list of readings of the command 422 (see FIG. 4) in the input mode.

図8のステップS1080において、音声認識解析部330は、入力モードにある端末装置200において、コマンド表示領域630に表示されているコマンド以外の語句についての音声入力があったか否かを判定する。かかる判定は、例えば、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。 In step S1080 of FIG. 8, the voice recognition analysis unit 330 determines whether or not there is a voice input for a phrase other than the command displayed in the command display area 630 in the terminal device 200 in the input mode. Such a determination is made based on, for example, command data 420 (see FIG. 4), pronunciation dictionary data 430 (see FIG. 5), and terminal state management table 440 (see FIG. 6).

音声認識解析部330は、コマンド以外の語句についての音声入力があった場合(S1080:YES)、処理をステップS1090へ進める。また、音声認識解析部330は、コマンド以外の語句についての音声入力がない場合(S1080:NO)、処理を後述のステップS1100へ進める。 When there is a voice input for a phrase other than a command (S1080: YES), the voice recognition analysis unit 330 advances the process to step S1090. Further, when there is no voice input for words and phrases other than the command (S1080: NO), the voice recognition analysis unit 330 advances the process to step S1100 described later.

ステップS1090において、入力画面制御部340は、音声入力された語句のテキスト情報を、選択されている項目名ボタン621に対応する入力エリア622(図12参照)に表示する。また、情報記録部350は、入力された語句のテキストデータを、元の音声データとともに、選択されている項目名ボタン621に対応する項目についての所見情報として、電子所見録に記録する。すなわち、情報記録部350は、所見録情報データ313に、入力された情報を追加する。 In step S1090, the input screen control unit 340 displays the text information of the voice-input phrase in the input area 622 (see FIG. 12) corresponding to the selected item name button 621. Further, the information recording unit 350 records the text data of the input phrase together with the original voice data in the electronic record as the finding information about the item corresponding to the selected item name button 621. That is, the information recording unit 350 adds the input information to the finding information data 313.

図13は、「全身」の部位名に対応する所見入力領域で所見情報が入力されたときの所見録入力画面の一例を示す図であり、図9~図12に対応するものである。図9~図12と対応する部分には同一符号を付し、これについての説明を省略する。 FIG. 13 is a diagram showing an example of a finding record input screen when finding information is input in the finding input area corresponding to the part name of “whole body”, and corresponds to FIGS. 9 to 12. The parts corresponding to FIGS. 9 to 12 are designated by the same reference numerals, and the description thereof will be omitted.

図13に示すように、所見入力領域620の各入力エリア622には、音声入力された所見情報が、テキスト表示される。テキスト情報は、例えば、各文節の音声認識結果が得られる毎に、リアルタイムで表示される。これにより、ユーザは、自分が発話した内容が正しく入力されているかどうかを、逐次確認しながら、音声入力の作業を行うことができる。 As shown in FIG. 13, the voice-input findings information is displayed as text in each input area 622 of the findings input area 620. The text information is displayed in real time, for example, each time the voice recognition result of each phrase is obtained. As a result, the user can perform the voice input operation while sequentially confirming whether or not the content spoken by the user is correctly input.

なお、入力画面制御部340は、必要な所見情報の記録が全て行われた身体部位の部位名タブ611に対して、その旨を示す完了通知情報を付与してもよい。かかる完了通知情報としては、文字色、字体、あるいは背景色の変更等による、他の部位名タブ611とは異なる部位名タブ611の表示形態を採用することができる。 The input screen control unit 340 may provide completion notification information indicating that to the part name tab 611 of the body part in which all the necessary finding information has been recorded. As the completion notification information, it is possible to adopt a display form of the part name tab 611 different from the other part name tab 611 by changing the character color, the font, the background color, or the like.

すなわち、入力画面制御部340は、他のユーザが入力操作中につき音声入力が不可の身体部位、音声入力が可であり所見情報の記録が完了していない身体部位、および、音声入力が可であり所見情報の記録が未完了の身体部位のそれぞれを、識別可能に表示する。 That is, the input screen control unit 340 is capable of voice input, a body part where voice input is not possible because another user is performing an input operation, a body part where voice input is possible but the recording of finding information is not completed, and voice input is possible. Each of the body parts for which the recording of the finding information has not been completed is displayed in an identifiable manner.

図8のステップS1100において、音声認識解析部330は、入力モードにある端末装置200において、入力停止コマンドの音声入力があったか否かを判定する。かかる判定は、例えば、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。 In step S1100 of FIG. 8, the voice recognition analysis unit 330 determines whether or not there is a voice input of the input stop command in the terminal device 200 in the input mode. Such a determination is made based on, for example, command data 420 (see FIG. 4), pronunciation dictionary data 430 (see FIG. 5), and terminal state management table 440 (see FIG. 6).

音声認識解析部330は、入力停止コマンドの音声入力があった場合(S1100:YES)、処理をステップS1110へ進める。また、音声認識解析部330は、入力停止コマンドの音声入力がない場合(S1100:NO)、処理を後述のステップS1120へ進める。 When there is a voice input of the input stop command (S1100: YES), the voice recognition analysis unit 330 advances the process to step S1110. Further, when there is no voice input of the input stop command (S1100: NO), the voice recognition analysis unit 330 advances the process to step S1120 described later.

ステップS1110において、入力画面制御部340は、入力停止コマンドの音声入力があった端末装置200の画面モードを、選択モードに切り替える。かかる設定は、端末状態管理表440(図6参照)を用いて行われる。 In step S1110, the input screen control unit 340 switches the screen mode of the terminal device 200 in which the voice input of the input stop command is received to the selection mode. Such a setting is made using the terminal state management table 440 (see FIG. 6).

ステップS1120において、音声認識解析部330は、編集コマンド等の、選択モードにおける入力開始コマンドおよび入力モードにおける入力停止コマンド以外のコマンド(他のコマンド)の音声入力があったか否かを判定する。かかる判定は、例えば、コマンドデータ420(図4参照)、発音辞書データ430(図5参照)、および端末状態管理表440(図6参照)に基づいて行われる。 In step S1120, the voice recognition analysis unit 330 determines whether or not there is a voice input of a command (other command) other than the input start command in the selection mode and the input stop command in the input mode, such as an edit command. Such a determination is made based on, for example, command data 420 (see FIG. 4), pronunciation dictionary data 430 (see FIG. 5), and terminal state management table 440 (see FIG. 6).

音声認識解析部330は、他のコマンドの音声入力があった場合(S1120:YES)、処理をステップS1130へ進める。また、音声認識解析部330は、他のコマンドの音声入力がない場合(S1120:NO)、処理を後述のステップS1140へ進める。 When there is a voice input of another command (S1120: YES), the voice recognition analysis unit 330 advances the process to step S1130. Further, when there is no voice input of another command (S1120: NO), the voice recognition analysis unit 330 advances the process to step S1140 described later.

ステップS1130において、入力画面制御部340は、音声入力されたコマンドに応じた処理を行う。かかる処理には、例えば、画面のスクロール、項目の追加、所見情報の入力が不要である事を示す情報の入力、入力された所見情報の編集、あるいは入力された所見情報の削除等が含まれる。 In step S1130, the input screen control unit 340 performs processing according to the command input by voice. Such processing includes, for example, scrolling the screen, adding an item, inputting information indicating that the input of finding information is unnecessary, editing the input finding information, deleting the input finding information, and the like. ..

ステップS1140において、入力画面制御部340は、所見情報の音声入力処理を終了する旨の指示があったか否かを判定する。かかる指示は、例えば、ユーザによる終了ボタンの押下等により行われる。 In step S1140, the input screen control unit 340 determines whether or not there is an instruction to end the voice input process of the finding information. Such an instruction is given, for example, by pressing the end button by the user.

入力画面制御部340は、処理の終了を指示されていない場合(S1140:NO)、処理をステップS1020へ戻す。また、入力画面制御部340は、処理の終了を指示された場合(S1140:YES)、一連の処理を終了する。 If the input screen control unit 340 is not instructed to end the process (S1140: NO), the input screen control unit 340 returns the process to step S1020. Further, when the input screen control unit 340 is instructed to end the process (S1140: YES), the input screen control unit 340 ends a series of processes.

このような動作により、電子所見録記録支援装置300は、端末装置200毎に、それぞれの表示状態および操作経過に応じて、情報やコマンドの音声入力を受け付けるとともに、身体部位毎の排他的な音声入力インタフェースを、ユーザにとって使いやすい形で実現することができる。 Due to such an operation, the electronic record recording support device 300 receives voice input of information and commands for each terminal device 200 according to the display state and operation progress, and also receives exclusive voice for each body part. The input interface can be realized in a form that is easy for the user to use.

他の端末装置200において入力作業中の身体部位の部位名について、不可通知情報を表示せずに音声入力を受け付けないようにした場合、ユーザは、その理由を即座に特定することができず、困惑する可能性がある。 When the voice input is not accepted without displaying the impossible notification information for the part name of the body part during the input work in the other terminal device 200, the user cannot immediately identify the reason. It can be confusing.

この点、電子所見録記録支援装置300は、不可通知情報を表示し、かつ、他の端末装置200において入力作業中の身体部位については、対応する部位選択領域610を表示させない。この場合、ユーザは、部位名や項目名の無駄な発話を行う前に、入力操作の排他制御が働いているということを認識することができる。 In this respect, the electronic finding recording support device 300 displays the non-notification information, and does not display the corresponding part selection area 610 for the body part during the input work in the other terminal device 200. In this case, the user can recognize that the exclusive control of the input operation is working before the useless utterance of the part name or the item name is performed.

これにより、各ユーザは、他のユーザが入力作業中の身体部位以外の、他の身体部位の部位名を速やかに選択して、作業を進めることができる。すなわち、電子所見録記録支援装置300は、複数のユーザが複数の身体部位に関する所見情報を音声によって電子所見録に記録する作業を、適切に支援することができる。 As a result, each user can promptly select the part name of the other body part other than the body part during the input work by the other user, and proceed with the work. That is, the electronic findings recording support device 300 can appropriately support the work of a plurality of users to record the findings information regarding a plurality of body parts in the electronic findings by voice.

図14は、情報記録部350により生成される所見録情報データ313の内容の一例を示す図である。ここでは、所見録情報データ313が、XML(eXtensible Markup Language)で記述されており、所見録構造データ410(図3参照)および発音辞書データ430(図5参照)を含んでいる場合の例を示す。 FIG. 14 is a diagram showing an example of the contents of the finding information data 313 generated by the information recording unit 350. Here, an example in which the finding information data 313 is described in XML (eXtensible Markup Language) and includes the finding structure data 410 (see FIG. 3) and the pronunciation dictionary data 430 (see FIG. 5). show.

図14に示すように、所見録情報データ313は、「spoken」という属性により、項目名の読みを記述し、「label」という属性により、項目名の所見録入力画面における表記を記述している。また、所見録情報データ313は、「data」とう属性により、入力された所見情報のテキスト情報を記述し、「initial」という属性により、所見情報の初期状態を記述する。更に、所見録情報データ313は、「type」とう属性により、入力欄タイプを記述し、「voicefile」という属性により、入力および記録された音声データのデータ名を記述する。なお、所見録情報データ313は、入力欄タイプが選択肢である場合、各選択肢の「spoken」および「label」という属性についての記述を含むともに、「select」という属性により、どの選択肢が選択されたか(つまり所見情報)を記述する。 As shown in FIG. 14, in the finding information data 313, the reading of the item name is described by the attribute "spoken", and the notation on the finding input screen of the item name is described by the attribute "label". .. Further, the finding information data 313 describes the text information of the input finding information by the attribute "data", and describes the initial state of the finding information by the attribute "initial". Further, in the finding information data 313, the input field type is described by the attribute "type", and the data name of the input and recorded voice data is described by the attribute "voicefile". When the input field type is an option, the finding information data 313 includes a description about the attributes "spoken" and "label" of each option, and which option is selected by the attribute "select". Describe (that is, finding information).

例えば、情報記録部350は、新規の対象について電子所見録を生成する場合、「data」、「voicefile」、および「select」の属性に値を記述しない状態で、所見録情報データ313を生成する。そして、情報記録部350は、所見情報が入力される毎に、所見情報の音声データ、テキスト情報、およびどの選択肢が選択されたかを示す情報を、情報記録部350の対応する箇所に追記していく。 For example, when the information recording unit 350 generates an electronic finding for a new object, the finding information data 313 is generated without describing the values in the attributes of "data", "voicefile", and "select". .. Then, each time the finding information is input, the information recording unit 350 adds voice data of the finding information, text information, and information indicating which option is selected to the corresponding portion of the information recording unit 350. go.

このような所見録情報データ313が生成されることにより、所見情報を電子所見録に反映させるだけでなく、元の音声データを音声出力して、音声入力が的確に行われたか否かを後から確認することも可能となる。 By generating such finding information data 313, not only the finding information is reflected in the electronic finding, but also the original voice data is output by voice, and whether or not the voice input is performed accurately is performed later. It is also possible to check from.

例えば、入力画面制御部340は、音声入力だけでなく、キーボードやマウスといった手入力インタフェースによる所見情報の入力や編集の操作についても、ユーザから受け付ける。そして、入力画面制御部340は、表示されている項目名ボタン621に対して、クリック操作等の所定の操作が行われたとき、対応する音声データを所見録情報データ313に基づいて取得し、ラウドスピーカを介して音声出力する。 For example, the input screen control unit 340 accepts not only voice input but also input and edit operations of finding information by a manual input interface such as a keyboard and a mouse. Then, when a predetermined operation such as a click operation is performed on the displayed item name button 621, the input screen control unit 340 acquires the corresponding voice data based on the finding information data 313. Audio is output via the loudspeaker.

これにより、所見情報を音声入力したユーザ、あるいは、電子所見録の情報を管理するオペレータは、実際の発話音声を確認して、適宜、記録された所見情報を編集することができる。 As a result, the user who input the finding information by voice or the operator who manages the information of the electronic finding can confirm the actual spoken voice and edit the recorded finding information as appropriate.

なお、情報記録部350は、ユーザから所定の操作を受け付け、かかる所定の操作に応じて、所見録情報データ313の内容を文書データ化して剖検記録を作成し、表示や印刷を行ってもよい。 The information recording unit 350 may receive a predetermined operation from the user, convert the contents of the finding information data 313 into document data, create an autopsy record, and display or print the information according to the predetermined operation. ..

図15は、剖検記録の一例を示す図である。 FIG. 15 is a diagram showing an example of an autopsy record.

図15に示すように、剖検記録710は、部位名毎に項目名を記述し、更に、各項目名に対応付けて、記録された所見情報を記述する。かかる剖検記録710は、例えば、鑑定書の剖検記録部として使用することができる。 As shown in FIG. 15, in the autopsy record 710, an item name is described for each site name, and further, the recorded finding information is described in association with each item name. The autopsy record 710 can be used, for example, as an autopsy record unit of a certificate.

法医解剖における剖検所見は、ユーザに対して、その剖検所見が人体のどの身体部位についてのことなのかを視覚的にわかりやすい形式で提示することが望ましい。そこで、剖検所見の中に、当該剖検所見に対応する身体部位を識別する識別情報(例えば、番号)を含めておき、人体図を表示し、その人体図における当該身体部位の位置に当該識別情報を表示することが考えられる。従来、ユーザは、剖検所見において身体部位を識別する識別情報を手入力し、人体図において当該剖検所見に対応する身体部位の位置を特定し、特定した位置に識別情報を手入力している。この場合、識別情報の入力作業は繁雑であるとともに、剖検所見と人体図との間で異なる識別情報が誤って入力される可能性もあるという問題があった。 It is desirable that the autopsy findings in the forensic anatomy present the user in a visually easy-to-understand format as to which body part of the human body the autopsy findings are about. Therefore, the autopsy findings include identification information (for example, a number) for identifying the body part corresponding to the autopsy findings, the human body diagram is displayed, and the identification information is located at the position of the body part on the human body diagram. Is conceivable to display. Conventionally, a user manually inputs identification information for identifying a body part in an autopsy finding, identifies a position of a body part corresponding to the autopsy finding in a human body diagram, and manually inputs the identification information at the specified position. In this case, the work of inputting the identification information is complicated, and there is a problem that different identification information may be erroneously input between the autopsy findings and the human body chart.

そこで本実施の形態では、所見録入力画面において、ある身体部位について所見情報が音声入力され、その所見情報に、当該身体部位を示す身体部位情報と当該身体部位を識別する識別情報とが含まれている場合、電子所見録記録支援装置300は、身体部位情報に基づいて人体図における当該身体部位の位置を特定し、特定した位置に識別情報を表示させる処理を行う。これにより、ユーザは、身体部位情報および識別情報を含む所見情報を発話する(すなわち、電子所見録記録支援装置300に音声認識させる)だけで、剖検所見および人体図の両方に対して同じ識別情報を入力させることが可能となる。よって、識別情報の入力作業は繁雑であるとともに、剖検所見と人体図との間で異なる識別情報が誤って入力される可能性もあるという従来の問題を解消することができる。 Therefore, in the present embodiment, the finding information is input by voice for a certain body part on the finding input screen, and the finding information includes the body part information indicating the body part and the identification information for identifying the body part. If so, the electronic record recording support device 300 identifies the position of the body part on the human body diagram based on the body part information, and performs a process of displaying the identification information at the specified position. As a result, the user simply speaks the finding information including the body part information and the identification information (that is, causes the electronic finding recording support device 300 to perform voice recognition), and the same identification information is used for both the autopsy findings and the human body diagram. Can be entered. Therefore, the work of inputting the identification information is complicated, and it is possible to solve the conventional problem that different identification information may be erroneously input between the autopsy findings and the human body diagram.

以下、図16,17を参照し、所見情報に含まれる身体部位情報に基づいて人体図における身体部位の位置を特定し、特定した位置に識別情報を表示させる具体的な処理について説明する。 Hereinafter, with reference to FIGS. 16 and 17, a specific process of specifying the position of the body part in the human body diagram based on the body part information included in the finding information and displaying the identification information at the specified position will be described.

図16は、人体図を含む所見録入力画面の一例を示す図である。図16に示すように、所見録入力画面600が有する所見入力領域(部位別画面)620は、1つの身体部位(図16に示す例では、「損傷頸部以上」)について、当該身体部位の部位名411に対応する複数の項目名412(図16に示す例では、「損傷01」、「損傷02」)を、複数の項目名ボタン621a,621bとして一覧表示する領域である。また、所見入力領域620は、各項目名412に対応する入力欄タイプ413(図3参照)に応じた入力欄を、入力エリア622a,622bとして、項目名ボタン621a,621bに対応付けて表示する領域である。 FIG. 16 is a diagram showing an example of a finding input screen including a human body diagram. As shown in FIG. 16, the finding input area (site-specific screen) 620 of the finding input screen 600 is for one body part (in the example shown in FIG. 16, “injured neck and above”) of the body part. This is an area for displaying a list of a plurality of item names 412 (“damage 01” and “damage 02” in the example shown in FIG. 16) corresponding to the site name 411 as a plurality of item name buttons 621a and 621b. Further, the finding input area 620 displays the input field corresponding to the input field type 413 (see FIG. 3) corresponding to each item name 412 as the input areas 622a and 622b in association with the item name buttons 621a and 621b. It is an area.

また、所見入力領域620は、入力エリア622a,622bの右方において、1つの身体部位(図16に示す例では、「損傷頸部以上」)に関連する人体を模式的に表す人体図800を表示する。人体図800において、左方には人体の右側面図が表示され、右方には人体の左側面図が表示されている。なお、所見入力領域620に表示可能な人体図として例えば4種類の人体図が用意されており、その4種類の人体図の中から、所見録入力画面600の表示中に音声入力によって選択された身体部位に関連する人体図が表示される。 Further, the finding input area 620 is a human body diagram 800 schematically showing a human body related to one body part (“injured neck and above” in the example shown in FIG. 16) on the right side of the input areas 622a and 622b. indicate. In the human body diagram 800, the right side view of the human body is displayed on the left side, and the left side view of the human body is displayed on the right side. For example, four types of human figures are prepared as human figures that can be displayed in the finding input area 620, and among the four types of human figures, they are selected by voice input while the findings input screen 600 is being displayed. A human figure related to the body part is displayed.

人体図800は、情報格納部310に格納される人体図情報314に含まれる。図17は、人体図情報314の内容の一例を示す図である。図17に示すように、人体図情報314は、人体図(図示せず)と、身体部位(部位名)を示す身体部位情報と、身体部位の読み方を示す読み方情報と、当該人体図における身体部位の位置(X位置、Y位置)を示す位置情報と、身体部位を例えば番号やアルファベット等で識別する識別情報とを対応付けて含む。ここで、X位置は、図16の人体図800の左右方向における身体部位の位置を示す。また、Y位置は、図16の人体図800の上下方向における身体部位の位置を示す。 The human figure 800 is included in the human figure information 314 stored in the information storage unit 310. FIG. 17 is a diagram showing an example of the contents of the human body diagram information 314. As shown in FIG. 17, the human body diagram information 314 includes a human body diagram (not shown), body part information indicating a body part (part name), reading information indicating how to read the body part, and a body in the human body diagram. The position information indicating the position of the part (X position, Y position) and the identification information for identifying the body part by, for example, a number or an alphabet are included in association with each other. Here, the X position indicates the position of the body part in the left-right direction of the human body diagram 800 of FIG. Further, the Y position indicates the position of the body part in the vertical direction of the human body diagram 800 of FIG.

例えば、身体部位(部位名)が「左側頸部」である場合、人体図情報314を参照することにより、人体図800における「左側頸部」のX位置は307であり、「左側頸部」のY位置は67であることを特定することができる。また、身体部位(部位名)が「胸骨部」である場合、人体図800における「胸骨部」のX位置は372であり、「胸骨部」のY位置は92であることを特定することができる。 For example, when the body part (site name) is the "left neck", the X position of the "left neck" in the human figure 800 is 307 by referring to the human figure information 314, and the "left neck". It can be specified that the Y position of is 67. Further, when the body part (site name) is the "sternum part", it can be specified that the X position of the "sternum part" in the human body diagram 800 is 372 and the Y position of the "sternum part" is 92. can.

図16に示す所見録入力画面600において、表示されている項目名(例えば、「損傷01」)に続いて入力開始コマンドの音声入力があった後、入力画面制御部340は、音声入力された語句のテキスト情報(所見情報、例えば「13番の鼻根部に損傷を認める。」)を、選択されている項目名ボタン621aに対応する入力エリア622aに表示する。 In the finding input screen 600 shown in FIG. 16, after the displayed item name (for example, "damage 01") is followed by the voice input of the input start command, the input screen control unit 340 is voice-input. The textual information of the phrase (finding information, for example, "damage to the base of the nose No. 13 is found") is displayed in the input area 622a corresponding to the selected item name button 621a.

また、入力画面制御部340は、音声入力された所見情報の中から、身体部位を示す身体部位情報(例えば、「鼻根部」)と、当該身体部位を識別する識別情報(例えば、13)とを取得する。 Further, the input screen control unit 340 includes body part information indicating a body part (for example, "nose root") and identification information for identifying the body part (for example, 13) from the voice-input findings information. To get.

なお、入力画面制御部340は、音声入力された所見情報が「13番の鼻根部に損傷を認める。」ではなく、「13番鼻根部に損傷を認める。」、「鼻根部の13番に損傷を認める。」、「鼻根部13番に損傷を認める。」または「鼻根部13番左耳介に損傷を認める。」といった異なる表現で示されても、当該所見情報の中から、身体部位を示す身体部位情報(例えば、「鼻根部」)と、当該身体部位を識別する識別情報(例えば、13)とを取得する。音声入力された所見情報が「鼻根部13番左耳介に損傷を認める。」である場合、すなわち2つの身体部位情報(例えば、「鼻根部」、「左耳介」)の間に識別情報が挟まれている場合には、入力画面制御部340は、先に音声入力された「鼻根部」を身体部位情報として取得する。 In addition, the input screen control unit 340 does not say that the voice-input finding information is "damage to the nose root of No. 13", but "damage to the nose root of No. 13" and "no. 13 of the nose root". Even if it is indicated by different expressions such as "damage is found", "damage is found at the base of the nose 13" or "damage is found at the left ear of the nose root 13", the body part is found in the information of the findings. (For example, "nose base") and identification information (for example, 13) for identifying the body part are acquired. When the voice-input finding information is "damage is found in the nose root 13th left auricle", that is, the identification information between the two body part information (for example, "nose root" and "left auricle"). When is sandwiched, the input screen control unit 340 acquires the previously voice-input "nose base" as body part information.

次に、入力画面制御部340は、取得された身体部位情報(「鼻根部」)と、情報格納部310に格納される人体図情報314とに基づいて、人体図800における身体部位の位置(符号810により示される位置)を特定する。そして、入力画面制御部340は、人体図800において、特定された身体部位の位置に識別情報(「13」)を表示させる。 Next, the input screen control unit 340 determines the position of the body part in the human body diagram 800 based on the acquired body part information (“nose root portion”) and the human body diagram information 314 stored in the information storage unit 310. The position indicated by reference numeral 810) is specified. Then, the input screen control unit 340 displays the identification information (“13”) at the position of the specified body part in the human body diagram 800.

最後に、情報記録部350は、情報格納部310に格納される人体図情報314において、人体図800と、身体部位情報(「鼻根部」)と、読み方情報と、位置情報と、所見情報の音声入力を介して取得された識別情報(「13」)とを対応付けて記憶させる。これにより、所見録入力画面600において人体図800を再表示する場合、入力画面制御部340は、人体図情報314において識別情報が存在する身体部位について、人体図800における当該身体部位の位置に当該識別情報を表示させることができる。 Finally, in the human body diagram information 314 stored in the information storage unit 310, the information recording unit 350 includes the human body diagram 800, body part information (“nose base”), reading information, position information, and finding information. The identification information (“13”) acquired via voice input is associated and stored. As a result, when the human figure 800 is redisplayed on the finding input screen 600, the input screen control unit 340 corresponds to the position of the body part in the human figure 800 where the identification information exists in the human figure information 314. Identification information can be displayed.

また、図16に示す所見録入力画面600において、表示されている項目名(例えば、「損傷02」)に続いて入力開始コマンドの音声入力があった後、入力画面制御部340は、音声入力された語句のテキスト情報(所見情報、例えば「5番の左耳介に出血を認める。」)を、選択されている項目名ボタン621bに対応する入力エリア622bに表示する。 Further, in the finding input screen 600 shown in FIG. 16, after the input start command is input by voice following the displayed item name (for example, "damage 02"), the input screen control unit 340 inputs voice. The text information of the phrase (finding information, for example, "Bleeding is observed in the left pinna of No. 5") is displayed in the input area 622b corresponding to the selected item name button 621b.

また、入力画面制御部340は、音声入力された所見情報の中から、身体部位を示す身体部位情報(例えば、「左耳介」)と、当該身体部位を識別する識別情報(例えば、5)とを取得する。 Further, the input screen control unit 340 includes body part information indicating the body part (for example, "left auricle") and identification information for identifying the body part (for example, 5) from the voice-input findings information. And get.

なお、入力画面制御部340は、音声入力された所見情報が「5番の左耳介に出血を認める。」ではなく、「5番左耳介に出血を認める。」、「5番の左耳介に出血を認める。」、「左耳介5番に出血を認める。」または「左耳介5番鼻根部に出血を認める。」といった異なる表現で示されても、当該所見情報の中から、身体部位を示す身体部位情報(例えば、「左耳介」)と、当該身体部位を識別する識別情報(例えば、5)とを取得する。音声入力された所見情報が「左耳介5番鼻根部に出血を認める。」である場合、すなわち2つの身体部位情報(例えば、「左耳介」、「鼻根部」)の間に識別情報が挟まれている場合には、入力画面制御部340は、先に音声入力された「左耳介」を身体部位情報として取得する。 In the input screen control unit 340, the voice-input findings information is not "Bleeding is observed in the left auricle No. 5", but "Bleeding is observed in the left auricle No. 5" and "Left No. 5". Even if it is indicated by different expressions such as "Bleeding is observed in the auricle", "Bleeding is observed in the left auricle No. 5" or "Bleeding is observed in the nose base of the left auricle No. 5", it is included in the findings information. From, body part information indicating a body part (for example, "left pinna") and identification information for identifying the body part (for example, 5) are acquired. When the voice-input finding information is "bleeding is observed in the left auricle No. 5 nose root", that is, the identification information between the two body part information (for example, "left auricle" and "nose root"). When is sandwiched, the input screen control unit 340 acquires the previously voice-input "left pinna" as body part information.

次に、入力画面制御部340は、取得された身体部位情報(「左耳介」)と、情報格納部310に格納される人体図情報314とに基づいて、人体図800における身体部位の位置(符号820により示される位置)を特定する。そして、入力画面制御部340は、人体図800において、特定された身体部位の位置に識別情報(「5」)を表示させる。 Next, the input screen control unit 340 determines the position of the body part in the human body diagram 800 based on the acquired body part information (“left auricle”) and the human body diagram information 314 stored in the information storage unit 310. (Position indicated by reference numeral 820) is specified. Then, the input screen control unit 340 displays the identification information (“5”) at the position of the specified body part in the human body diagram 800.

最後に、情報記録部350は、情報格納部310に格納される人体図情報314において、人体図800と、身体部位情報(「左耳介」)と、読み方情報と、位置情報と、所見情報の音声入力を介して取得された識別情報(「5」)とを対応付けて記憶させる。これにより、所見録入力画面600において人体図800を再表示する場合、入力画面制御部340は、人体図情報314において識別情報が存在する身体部位について、人体図800における当該身体部位の位置に当該識別情報を表示させることができる。 Finally, in the human body diagram information 314 stored in the information storage unit 310, the information recording unit 350 includes the human body diagram 800, body part information (“left auricle”), reading information, position information, and finding information. The identification information (“5”) acquired via the voice input of the above is stored in association with the identification information (“5”). As a result, when the human figure 800 is redisplayed on the finding input screen 600, the input screen control unit 340 corresponds to the position of the body part in the human figure 800 where the identification information exists in the human figure information 314. Identification information can be displayed.

なお、入力画面制御部340は、音声入力された所見情報の中から、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とを取得する例について説明したが、身体部位情報および識別情報の取得方法はこれに限らない。例えば、所見録入力画面600において人体図800が表示されている場合、人体図800を選択する人体図選択コメントに続いて身体部位情報(例えば、「前頭部左側外側」)および識別情報(「4」)の音声入力があった場合、入力画面制御部340は、音声入力された身体部位情報と識別情報とを取得する。そして、入力画面制御部340は、取得された身体部位情報と、情報格納部310に格納される人体図情報314とに基づいて、人体図800における身体部位(「前頭部左側外側」)の位置(符号830により示される位置)を特定する。そして、入力画面制御部340は、人体図800において、特定された身体部位の位置に丸い円で示されるカーソルを表示し、そのカーソル内に識別情報(「4」)を表示させる。これにより、ユーザは、人体図800に表示される識別情報がカーソル内に表示されているか否かを確認することによって、当該識別情報が所見情報に含めて音声入力されたものか否かを容易に把握することができる。 Although the input screen control unit 340 has described an example of acquiring body part information indicating a body part and identification information for identifying the body part from the voice-input findings information, the body part information and the body part information and the identification information for identifying the body part have been described. The method of acquiring the identification information is not limited to this. For example, when the human figure 800 is displayed on the finding input screen 600, the human figure selection comment for selecting the human figure 800 is followed by body part information (for example, "outside left side of frontal region") and identification information ("" 4 ”) When there is a voice input, the input screen control unit 340 acquires the voice-input body part information and the identification information. Then, the input screen control unit 340 is based on the acquired body part information and the human body diagram information 314 stored in the information storage unit 310, and is the body part (“the outside of the left side of the frontal region”) in the human body diagram 800. The position (position indicated by reference numeral 830) is specified. Then, the input screen control unit 340 displays a cursor indicated by a round circle at the position of the specified body part in the human body diagram 800, and displays the identification information (“4”) in the cursor. As a result, the user can easily check whether or not the identification information displayed on the human figure 800 is displayed in the cursor, and thus whether or not the identification information is included in the finding information and input by voice. Can be grasped.

<本実施の形態の効果>
以上のように、本実施の形態に係る電子所見録記録支援装置300は、複数の端末装置200のそれぞれにおいて、身体部位毎に用意された部位別画面を介して、項目毎の所見情報を音声入力する。また、電子所見録記録支援装置300は、ある端末装置200においていずれかの部位別画面が表示されている間、他の端末装置200では当該部位別画面を表示させないともに、対応する所見情報を音声入力することができない旨を当該他の端末装置200のユーザに通知する。
<Effect of this embodiment>
As described above, the electronic record recording support device 300 according to the present embodiment voices the finding information for each item via the site-specific screens prepared for each body part in each of the plurality of terminal devices 200. input. Further, the electronic finding recording support device 300 does not display the screen for each part on the other terminal device 200 while the screen for each part is displayed on the terminal device 200, and the corresponding finding information is voiced. Notify the user of the other terminal device 200 that the input cannot be performed.

これにより、電子所見録記録支援装置300は、手入力インタフェースを使用することが困難であり、かつ、複数のユーザが複数の身体部位についての所見情報を同時に入力することが必要なケースであっても、所見情報の電子所見録への記録作業を支援することができる。すなわち、電子所見録記録支援装置300は、例えば、剖検所見の電子所見録への記録作業を支援することができる。 As a result, it is difficult for the electronic record recording support device 300 to use the manual input interface, and it is necessary for a plurality of users to input finding information about a plurality of body parts at the same time. Also, it is possible to support the work of recording the finding information in the electronic findings. That is, the electronic findings recording support device 300 can support, for example, the work of recording the autopsy findings in the electronic findings.

<本実施の形態の変形例>
なお、以上説明した実施の形態では、電子所見録記録支援装置300を、法医解剖における剖検所見を記録するためのシステムに適用した場合について説明したが、これに限定されない。電子所見録記録支援装置300は、例えば、救急救命用の電子カルテ等、複数のユーザが複数の身体部位についての所見情報を同時に入力することを受け付ける各種システムに適用することができる。
<Modified example of this embodiment>
In the embodiment described above, the case where the electronic finding recording support device 300 is applied to a system for recording autopsy findings in a forensic anatomy has been described, but the present invention is not limited thereto. The electronic finding recording support device 300 can be applied to various systems that allow a plurality of users to simultaneously input finding information about a plurality of body parts, such as an electronic medical record for emergency lifesaving.

また、部位名、項目名、およびコマンドは、上述の例に限定されない。更に、項目名おおよびコマンドに関する処理は、項目名毎に細分化された所見情報の記録が不要であるような場合には、必ずしも必要でない。 Further, the part name, the item name, and the command are not limited to the above examples. Further, the processing related to the item name and the command is not always necessary when it is not necessary to record the finding information subdivided for each item name.

また、身体部位の単位は、上述の例に限定されない。身体部位は、一人のユーザが所見情報を記録する際に一時に着目する一まとまりの情報の範囲であればよく、更に、電子所見録の目的に応じて変化し得る。 Moreover, the unit of the body part is not limited to the above-mentioned example. The body part may be a range of a set of information that one user pays attention to at one time when recording the finding information, and may be changed according to the purpose of the electronic finding.

また、所見録入力画面600(図9~図13参照)における各情報の配置および表示形態は、上述の例に限定されない。入力画面制御部340は、例えば、部位選択領域610を、所見入力領域620の左側、下側、あるいは右側に配置してもよい。 Further, the arrangement and display form of each information on the finding input screen 600 (see FIGS. 9 to 13) is not limited to the above example. The input screen control unit 340 may arrange, for example, the site selection area 610 on the left side, the lower side, or the right side of the finding input area 620.

また、所見録情報データのデータ形式は、上述の例に限定されない。所見録情報データは、RTF(Rich Text Format)形式、TEX形式、plain text形式等の他のデータ形式であってもよい。 Further, the data format of the finding information data is not limited to the above example. The finding information data may be in another data format such as RTF (Rich Text Format) format, TEX format, and plain text format.

また、端末接続部320は、ヘッドセット220および表示装置230のそれぞれと、個別に通信を行ってもよい。この場合、電子所見録記録支援装置300は、例えば入力画面制御部340において、ヘッドセット220と表示装置230との対応付けを設定する必要がある。 Further, the terminal connection unit 320 may communicate with each of the headset 220 and the display device 230 individually. In this case, the electronic finding recording support device 300 needs to set the correspondence between the headset 220 and the display device 230 in, for example, the input screen control unit 340.

また、端末装置200の構成は、上述の例に限定されない。端末装置200は、例えば、マイクロフォンおよび液晶ディスプレイを備えたパーソナルコンピュータであってもよい。 Further, the configuration of the terminal device 200 is not limited to the above example. The terminal device 200 may be, for example, a personal computer including a microphone and a liquid crystal display.

また、電子所見録記録支援装置300が接続する端末装置200の個数は、3個以上であってもよい。この場合、入力画面制御部340は、いずれかの端末装置の200においていずれかの部位別画面が表示されている間、他の全ての端末装置200に表示されている対応する部位名に、不可通知情報を付与する。また、入力画面制御部340は、いずれかの端末装置の200においていずれかの部位別画面が表示されている間、対応する部位別画面を、他の全ての端末装置200において表示させない。 Further, the number of terminal devices 200 connected to the electronic record recording support device 300 may be three or more. In this case, the input screen control unit 340 cannot be used for the corresponding part name displayed on all the other terminal devices 200 while the screen for each part is displayed on the 200 of the terminal device. Give notification information. Further, the input screen control unit 340 does not display the corresponding site-specific screen on all the other terminal devices 200 while the site-specific screen is displayed on the 200 of any terminal device.

また、電子所見録記録支援装置300の構成の一部は、ネットワーク上のサーバ等に配置される等して、電子所見録記録支援装置300の構成の他の部分と離隔していてもよい。この場合、これら部分のそれぞれは、互いに通信を行うための通信部を備える必要がある。 Further, a part of the configuration of the electronic record recording support device 300 may be separated from other parts of the configuration of the electronic record recording support device 300 by being arranged on a server or the like on the network. In this case, each of these parts needs to be provided with a communication unit for communicating with each other.

また、電子所見録記録支援装置300の構成の一部または全部は、いずれかの端末装置200と一体的に構成されていてもよい。 Further, a part or all of the configuration of the electronic record recording support device 300 may be integrally configured with any of the terminal devices 200.

本発明は、剖検所見の電子所見録への記録作業を支援することができる電子所見録記録支援装置および電子所見録記録支援方法として有用である。 INDUSTRIAL APPLICABILITY The present invention is useful as an electronic finding recording support device and an electronic finding recording support method capable of supporting the recording work of autopsy findings in electronic findings.

100 電子所見録システム
200 端末装置
210 端末制御装置
220 ヘッドセット
230 表示装置
300 電子所見録記録支援装置
310 情報格納部
311 音声認識辞書
312 所見録構成情報
313 所見録情報データ
314 人体図情報
320 端末接続部
330 音声認識解析部
340 入力画面制御部
350 情報記録部
100 Electronic finding system 200 Terminal device 210 Terminal control device 220 Headset 230 Display device 300 Electronic finding recording support device 310 Information storage unit 311 Voice recognition dictionary 312 Finding configuration information 313 Finding information data 314 Human figure information 320 Terminal connection Unit 330 Voice recognition analysis unit 340 Input screen control unit 350 Information recording unit

Claims (5)

身体部位に関する所見情報の電子所見録への記録を支援する電子所見録記録支援装置であって、
音声入力機能および画像表示機能を有する端末装置と接続する端末接続部と、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得する情報取得部と、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定する位置特定部と、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる表示制御部と、
を備える電子所見録記録支援装置。
It is an electronic finding recording support device that supports the recording of finding information about body parts in electronic findings.
A terminal connection unit that connects to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. The information acquisition unit that acquires identification information, and
Based on the acquired body part information, a position specifying part that specifies the position of the body part in the human body diagram, and
In the human body diagram, a display control unit that displays the identification information at the position of the specified body part, and
Electronic findings recording support device equipped with.
前記情報取得部は、前記所見情報が音声入力された場合、音声認識処理に基づいて、前記所見情報に含まれる前記身体部位情報および前記識別情報を取得する、
請求項1に記載の電子所見録記録支援装置。
When the finding information is input by voice, the information acquisition unit acquires the body part information and the identification information included in the finding information based on the voice recognition process.
The electronic finding recording support device according to claim 1.
前記人体図と、前記身体部位情報と、前記人体図における前記身体部位の位置を示す位置情報とを対応付けて含む人体図情報を記憶する人体図情報記憶部を備え、
前記位置特定部は、前記情報取得部により取得された前記身体部位情報と、前記人体図情報とに基づいて、前記人体図における前記身体部位の位置を特定する、
請求項1または2に記載の電子所見録記録支援装置。
The human body diagram information storage unit for storing the human body diagram information including the human body diagram, the body part information, and the position information indicating the position of the body part in the human body diagram in association with each other is provided.
The position specifying unit identifies the position of the body part in the human body diagram based on the body part information acquired by the information acquisition unit and the human body diagram information.
The electronic finding recording support device according to claim 1 or 2.
前記人体図情報において、前記人体図と、前記身体部位情報と、前記位置情報と、前記情報取得部により取得された前記識別情報とを対応付けて記憶させる記憶制御部を備える、
請求項3に記載の電子所見録記録支援装置。
The human body diagram information includes a storage control unit that stores the human body diagram, the body part information, the position information, and the identification information acquired by the information acquisition unit in association with each other.
The electronic finding recording support device according to claim 3.
身体部位に関する所見情報の電子所見録への記録を支援する電子所見録記録支援方法であって、
音声入力機能および画像表示機能を有する端末装置と接続し、
人体図を表示している前記端末装置において、身体部位を示す身体部位情報と、当該身体部位を識別する識別情報とが音声入力された場合、音声認識処理に基づいて、前記身体部位情報および前記識別情報を取得し、
取得された前記身体部位情報に基づいて、前記人体図における前記身体部位の位置を特定し、
前記人体図において、特定された前記身体部位の位置に前記識別情報を表示させる、
電子所見録記録支援方法。
It is an electronic finding recording support method that supports the recording of finding information on body parts in electronic findings.
Connect to a terminal device that has a voice input function and an image display function,
When the body part information indicating the body part and the identification information for identifying the body part are input by voice in the terminal device displaying the human body diagram, the body part information and the said body part information are based on the voice recognition process. Get the identification information,
Based on the acquired body part information, the position of the body part in the human body diagram is specified, and the position of the body part is specified.
In the human body diagram, the identification information is displayed at the position of the specified body part.
Electronic findings recording support method.
JP2020108853A 2020-06-24 2020-06-24 Electronic findings record recording support device and electronic findings record recording support method Active JP7486742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020108853A JP7486742B2 (en) 2020-06-24 2020-06-24 Electronic findings record recording support device and electronic findings record recording support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020108853A JP7486742B2 (en) 2020-06-24 2020-06-24 Electronic findings record recording support device and electronic findings record recording support method

Publications (2)

Publication Number Publication Date
JP2022006564A true JP2022006564A (en) 2022-01-13
JP7486742B2 JP7486742B2 (en) 2024-05-20

Family

ID=80110308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020108853A Active JP7486742B2 (en) 2020-06-24 2020-06-24 Electronic findings record recording support device and electronic findings record recording support method

Country Status (1)

Country Link
JP (1) JP7486742B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102509A (en) * 2002-09-06 2004-04-02 Ziosoft Inc Medical document preparation support device and its program
JP2016021216A (en) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 Remark input support system, device, method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102509A (en) * 2002-09-06 2004-04-02 Ziosoft Inc Medical document preparation support device and its program
JP2016021216A (en) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 Remark input support system, device, method and program

Also Published As

Publication number Publication date
JP7486742B2 (en) 2024-05-20

Similar Documents

Publication Publication Date Title
US11586808B2 (en) Insertion of standard text in transcription
US7720680B2 (en) Interactive manual, system and method for vehicles and other complex equipment
US6813603B1 (en) System and method for user controlled insertion of standardized text in user selected fields while dictating text entries for completing a form
US8046226B2 (en) System and methods for reporting
US6915258B2 (en) Method and apparatus for displaying and manipulating account information using the human voice
US6068485A (en) System for synthesizing spoken messages
JP4615897B2 (en) System and method for automatic annotation embedding device for use in ultrasound imaging
US20050114122A1 (en) System and method for customizing speech recognition input and output
WO2001031511A1 (en) Data capture and verification system
US20120191453A1 (en) System and methods for matching an utterance to a template hierarchy
EP0799454A1 (en) System and method for generating database input forms
WO2004072846A2 (en) Automatic processing of templates with speech recognition
JP4719408B2 (en) Medical information system
JP2010094243A (en) Automatic inquiry system
CN112712805A (en) Method and device for generating electronic medical record report and computer readable storage medium
JP6290111B2 (en) Electronic record recording support apparatus and electronic record recording support method
JP7486742B2 (en) Electronic findings record recording support device and electronic findings record recording support method
JP7341111B2 (en) Conversation support device, conversation support system, conversation support method and program
JP4048226B1 (en) Aphasia practice support equipment
US20030097253A1 (en) Device to edit a text in predefined windows
JP2007052738A (en) Plant monitoring apparatus and method, and program
US11902466B2 (en) Captioned telephone service system having text-to-speech and answer assistance functions
JP2004517375A (en) Method and apparatus for editing an image representing an idea
JP2000207166A (en) Device and method for voice input
JP2005149083A (en) Electronic medical record input support apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240425

R150 Certificate of patent or registration of utility model

Ref document number: 7486742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150